Виталик Бутерин бьет тревогу по поводу рисков сверхинтеллектуального ИИ на фоне перетряски руководства OpenAI

Сооснователь Ethereum Виталик Бутерин выразил свою обеспокоенность потенциальными рисками «сверхразумного» искусственного интеллекта, особенно в свете недавних изменений в руководстве OpenAI. Комментарии Бутерина прозвучали в тот момент, когда развитие продвинутых систем искусственного интеллекта, таких как искусственный общий интеллект (AGI), вызывает растущее беспокойство среди экспертов отрасли.

Смена руководства OpenAI и опасения по поводу безопасности ИИ

Высказывания Бутерина были вызваны недавней отставкой Яна Лейке, бывшего главы OpenAI по согласованию. Лейке сослался на «переломный момент» в отношениях с руководством, заявив, что «культура безопасности и процессы отошли на второй план по сравнению с блестящими продуктами» в компании, занимающейся исследованиями в области ИИ. Эти события вызвали обеспокоенность по поводу приоритетов OpenAI и потенциальных рисков, связанных с созданием все более мощных систем ИИ.

Взгляд Бутерина на сверхинтеллектуальный ИИ

В связи со сменой руководства OpenAI Бутерин поделился своим мнением о рисках, связанных со сверхразумным ИИ. Он подчеркнул, что люди не должны спешить с действиями или отталкивать тех, кто пытается решить эти проблемы. Вместо этого Бутерин подчеркнул важность осторожности и децентрализации при разработке ИИ.

Пропаганда открытых и децентрализованных моделей ИИ

Бутерин выступил за разработку открытых моделей ИИ, которые могут работать на потребительском оборудовании, что, по его мнению, является «страховкой» от будущего, в котором небольшая группа компаний потенциально сможет контролировать и опосредовать большинство человеческих мыслей. Он считает, что такие децентрализованные модели будут гораздо «ниже с точки зрения риска гибели» по сравнению как с корпоративными играми во власть, так и с военным участием в ИИ.

Тест Тьюринга и размывание различий между человеком и ИИ

Комментарии Бутерина о рисках ИИ появились всего через неделю после того, как он заявил, что модель GPT-4 от OpenAI прошла тест Тьюринга — показатель способности системы ИИ демонстрировать человекоподобное поведение. Ссылаясь на новые исследования, Бутерин отметил, что большинство людей уже не могут достоверно определить, когда они взаимодействуют с машиной, что еще больше подчеркивает быстро развивающиеся возможности систем ИИ.

Обеспокоенность правительств и новых инициатив

Бутерин не одинок в своих опасениях по поводу рисков сверхинтеллектуального ИИ. Правительство Соединенного Королевства также недавно внимательно изучило растущее участие Больших Технологий в секторе ИИ, подняв вопросы, связанные с конкуренцией и доминированием на рынке. Кроме того, в Интернете появляются инициативы, подобные 6079, которые выступают за более децентрализованный подход к разработке ИИ, чтобы обеспечить его демократизацию и избежать доминирования нескольких влиятельных игроков.

Изменения в руководстве OpenAI

Уход еще одного члена руководства OpenAI, сооснователя и главного научного сотрудника Ильи Суцкевера, еще больше подогрел дискуссии о приоритетах компании и более широких последствиях развития ИИ. Хотя Суцкевер выразил уверенность в способности OpenAI разработать «безопасный и полезный» ИИ, его отставка усилила неопределенность вокруг компании, занимающейся исследованиями в области ИИ.

Заключение

Предупреждения Виталика Бутерина о рисках сверхинтеллектуального ИИ, а также смена руководства и беспокойство в OpenAI свидетельствуют о растущем беспокойстве в технологическом сообществе по поводу стремительного развития ИИ. По мере развития все более мощных систем ИИ необходимость в осторожности, децентрализации и внимании к безопасности и этике стала очевидной как никогда ранее.