Эксперты в области здравоохранения предупреждают об «экзистенциальной угрозе для человечества» со стороны ИИ

Международная группа врачей и экспертов в области общественного здравоохранения заявила, что исследования и разработки в области искусственного интеллекта (ИИ) должны быть остановлены до тех пор, пока его использование и технологии не будут должным образом регулироваться.

Некоторые типы ИИ представляют «экзистенциальную угрозу для человечества», написали эксперты во вторник в выпуске журнала BMJ Global Health. В группу под руководством доктора Фредерика Федершпиля из London School of Hygiene and Tropical Medicine вошли эксперты из США, Австралии, Коста-Рики и Малайзии.

По их словам, ИИ обладает преобразующим потенциалом для общества, в том числе в медицине и общественном здравоохранении, но его также можно использовать не по назначению, что может иметь негативные последствия.

Эксперты предупредили, что способность ИИ быстро очищать, организовывать и анализировать массивные наборы данных, которые могут включать личные данные и изображения, позволяет использовать их для манипулирования поведением и подрыва демократии.

Примеры уже есть, отметили они. Таким образом ИИ использовался на президентских выборах в США в 2016 году; на президентских выборах во Франции 2017 году и на выборах в Кении в 2013 и 2017 годах, сообщили эксперты.

«В сочетании с быстро улучшающейся способностью искажать реальность с помощью дипфейков информационные системы, управляемые ИИ, могут еще больше подорвать демократию, вызвав общий подрыв доверия или спровоцировав социальные разногласия и конфликты с вытекающими последствиями для общественного здравоохранения», — отмечают авторы.

Они добавили, что слежку с помощью ИИ можно использовать для контроля и подавления людей. Согласно отчету, примером может служить китайская система социального кредита, сочетающая в себе программное обеспечение для распознавания лиц и анализ хранилищ «больших данных» о финансовых транзакциях, перемещениях, полицейских записях и социальных отношениях.

По словам команды, по меньшей мере 75 стран расширяют системы такого типа, включая либеральные демократии.

Еще одна область угроз связана с разработкой смертоносных автономных систем вооружения (LAWS). Прикрепленные к небольшим мобильным устройствам, таким как дроны, они могут обнаруживать, выбирать и поражать человеческие цели без присмотра человека. Это действительно может убивать людей «в промышленных масштабах», пояснили авторы.

В течение следующего десятилетия широкое использование технологии искусственного интеллекта также может стоить десятков и сотен миллионов рабочих мест.

«Хотя прекращение монотонной, опасной и неприятной работы принесло бы много пользы, мы уже знаем, что безработица тесно связана с неблагоприятными последствиями для здоровья и не только», — заявили авторы.

По их словам, рост автоматизации также приводит к перемещению доходов и богатства к владельцам и способствует несправедливому распределению богатства по всему миру.

«Более того, мы не знаем, как общество психологически и эмоционально отреагирует на мир, в котором работа недоступна или не нужна, и мы мало думаем о политике и стратегиях, которые потребуются, чтобы разорвать связь между безработицей и плохим здоровьем».

Самоулучшающийся ИИ общего назначения (AGI) представляет собой серьезную угрозу. Эксперты объяснили, что он может обучаться и выполнять весь спектр человеческих задач.

«Сейчас мы пытаемся создать машины, которые намного умнее и мощнее нас самих, — написали они. — Потенциал таких машин для применения этого интеллекта и силы должен быть глубоко рассмотрен».

По их словам, если это будет реализовано, подключение ИИ к Интернету и реальному миру, в том числе с помощью транспортных средств, роботов, оружия и цифровых систем, может стать «важнейшим событием в истории человечества».

«Будущие результаты развития ИИ будут зависеть от политических решений, принятых сейчас, и от эффективности регулирующих институтов, которые мы разрабатываем для минимизации риска и вреда и максимизации выгоды», — написали они.

Это потребует международного соглашения и сотрудничества, а также предотвращения «гонки вооружений» ИИ, предположила команда.

«Если ИИ должен когда-либо выполнить свое обещание принести пользу человечеству и обществу, мы должны защитить демократию, укрепить наши институты общественных интересов и ослабить власть, чтобы существовали эффективные сдержки и противовесы, — заключили эксперты. — Это включает в себя обеспечение прозрачности и подотчетности частей военно-корпоративного промышленного комплекса, управляющих разработками ИИ, и компаний социальных сетей, которые позволяют целенаправленной дезинформации, основанной на ИИ, подрывать наши демократические институты и права на неприкосновенность частной жизни».

Добавить комментарий