Искусственный интеллект: шанс или угроза? Бывший глава Google предупреждает о рисках

Искусственный интеллект (ИИ) продолжает развиваться с беспрецедентной скоростью, но вместе с прогрессом растут и опасения. Эрик Шмидт, бывший генеральный директор Google, выразил тревогу относительно будущего ИИ, заявив, что в определённый момент люди могут утратить контроль над технологиями.

В интервью для программы This Week на канале ABC Шмидт подчеркнул, что, когда компьютерные системы достигнут способности к самосовершенствованию, человечеству необходимо будет серьезно задуматься о том, чтобы «отключить их».

Он отметил, что нынешний прогресс ИИ вызывает восторг. Однако, по его словам, независимость машин становится реальной угрозой:

«В скором времени компьютеры смогут работать автономно и сами решать, что они хотят делать».

Эта автономность несёт как огромный потенциал, так и серьёзные риски. По мнению Шмидта, дать каждому человеку в карман «эквивалент полимата» может оказаться опасным.

По словам экспертов, системы ИИ уже к 2026 году могут достичь уровня интеллекта, сопоставимого с доктором наук. Это открывает новые горизонты, но также ставит вопрос: как справляться с такой мощной технологией?

Шмидт уверен, что контроль над ИИ должен быть частью глобальной стратегии:

«Худшие сценарии должны быть предсказаны заранее, а параллельные системы разработаны для мониторинга первых».

Он также подчеркнул важность того, чтобы Запад оставался лидером в гонке технологий, несмотря на активное развитие ИИ в Китае.

Эксперты, такие как Ришабх Мисра, предупреждают, что даже малейшая ошибка в конфигурации ИИ или злонамеренные действия могут привести к катастрофическим последствиям.

Возможные сценарии включают:

  • Распространение дезинформации и разжигание ненависти.
  • Влияние на финансовые рынки и обрушение экономик.
  • Использование ИИ для управления транспортом или оружием в целях нанесения вреда.
  • Создание дипфейков, способных разрушить репутацию или даже спровоцировать войны.

На федеральном уровне в США уже ведутся обсуждения о необходимости регулирования ИИ. Эффектное появление ChatGPT в 2022 году ускорило развитие технологий, но также выявило уязвимости.

Многие эксперты, включая Эйтана Майкла Азоффа, автора книги Towards Human-Level Artificial Intelligence, считают, что для управления ИИ необходимо лучше понять «нейронный код» – способ, которым наш мозг обрабатывает информацию и решает задачи.

Шмидт предложил любопытное решение:

«Люди не смогут контролировать ИИ, но ИИ должен контролировать сам себя».

Это поднимает философский вопрос: сможет ли машина не только подчиняться, но и исправлять свои ошибки?

Вместе с огромными возможностями ИИ несёт новые вызовы, требующие ответственного подхода. Быть на шаг впереди в развитии технологий и разрабатывать эффективные механизмы контроля — ключевые задачи для всего человечества.

Добавить комментарий