Эксперты по ИИ подписали документ, в котором риск «вымирания от ИИ» сравнивается с пандемиями и ядерной войной

Десятки экспертов в области искусственного интеллекта (ИИ), включая руководителей компаний OpenAI, Google DeepMind и Anthropic, недавно подписали открытое заявление, опубликованное Центром безопасности ИИ (CAIS).

Мы только что опубликовали заявление:

«Снижение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».

Среди подписавших заявление — Хинтон, Бенгио, Альтман, Хассабис, Сонг и др.

(1/6)

— Дэн Хендрикс (@DanHendrycks) 30 мая 2023 г.

Заявление содержит одно предложение:

«Смягчение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».

Среди тех, кто подписал документ, — настоящий «кто есть кто» из светил ИИ, включая «крестного отца» ИИ Джеффри Хинтона, Стюарта Рассела из Калифорнийского университета в Беркли и Лекса Фридмана из Массачусетского технологического института. Музыкант Граймс также подписал документ, указанный в категории «другие выдающиеся деятели».

Хотя на первый взгляд заявление может показаться безобидным, его суть вызывает определенные споры в сообществе ИИ.

Все больше экспертов считают, что современные технологии могут привести или неизбежно приведут к появлению или развитию системы ИИ, способной представлять экзистенциальную угрозу человеческому роду.

Однако их взглядам противостоит целый ряд экспертов с диаметрально противоположными мнениями. Например, главный специалист по ИИ компании Meta (признана экстремистской организацией, деятельность которой запрещена в Российской Федерации) Янн ЛеКун неоднократно отмечал, что он не обязательно верит в то, что ИИ станет неконтролируемым.

Сверхчеловеческий ИИ сейчас находится далеко не на первом месте в списке экзистенциальных рисков.

В значительной степени потому, что его еще не существует.

Пока у нас нет базового проекта ИИ даже собачьего уровня (не говоря уже о человеческом), обсуждать, как сделать его безопасным, преждевременно.

— Yann LeCun (@ylecun) 30 мая 2023 г.

Для него и других, кто не согласен с риторикой о «вымирании», таких как Эндрю Нг, соучредитель Google Brain и бывший главный научный сотрудник Baidu, ИИ — это не проблема, а ответ.

С другой стороны, такие эксперты, как Хинтон и генеральный директор Conjecture Коннор Лихи, считают, что ИИ на уровне человека неизбежен, и поэтому время действовать пришло.

Руководители всех крупных лабораторий ИИ подписали это письмо, в котором прямо признается риск вымирания от AGI.

Невероятный шаг вперед, поздравляем Дэна за его невероятную работу по подготовке этого письма и благодарим всех подписавших его за их вклад в лучшее будущее! https://t.co/KDkqWvdJcH

— Коннор Лихи (@NPCollapse) 30 мая 2023 г.

Однако неясно, к каким действиям призывают подписанты заявления. Среди подписавшихся — генеральные директора и/или руководители отделов ИИ почти всех крупных ИИ-компаний, а также известные ученые из академических кругов, что делает очевидным намерение не останавливать разработку этих потенциально опасных систем.

Ранее в этом месяце генеральный директор OpenAI Сэм Альтман, один из подписавших вышеупомянутое заявление, впервые выступил перед Конгрессом на слушаниях в Сенате, посвященных регулированию ИИ. Его показания попали в заголовки газет, поскольку большую их часть он провел, призывая законодателей регулировать его отрасль.

Проект Альтмана Worldcoin, объединяющий криптовалюту и доказательство личности, также недавно попал в СМИ после привлечения 115 миллионов долларов в рамках серии С финансирования, в результате чего общий объем финансирования после трех раундов достиг 240 миллионов долларов.