Генеральный директор Google DeepMind Демис Хассабис говорит, что мы можем получить AGI «в ближайшие несколько лет»

Демис Хассабис, генеральный директор Google DeepMind, недавно предсказал, что системы искусственного интеллекта (ИИ) достигнут уровня человеческого познания где-то между «ближайшими несколькими годами» и «возможно, в течение десятилетия».

Хассабис, который начинал свою карьеру в игровой индустрии, является одним из основателей компании Google DeepMind (ранее DeepMind Technologies), известной разработкой системы искусственного интеллекта AlphaGo, ответственной за победу над лучшими в мире игроками в го.

В недавнем интервью, взятом во время фестиваля The Wall Street Journal «Будущее всего», Хассабис сказал интервьюеру Крису Мимсу, что, по его мнению, появление машин с человеческим уровнем познания неминуемо:

«Прогресс за последние несколько лет был просто невероятным. Я не вижу причин, по которым этот прогресс замедлится. Я думаю, что он может даже ускориться. Так что я думаю, что мы можем быть всего в нескольких годах, может быть, в десятилетии от этого».

Эти комментарии появились всего через две недели после того, как в результате внутренней реструктуризации компания Google объявила об объединении «Google AI» и «DeepMind» в метко названную «Google DeepMind».

Когда Хассабиса попросили дать определение «AGI» — искусственному интеллекту общего назначения — он ответил следующее: «познание на уровне человека».

В настоящее время не существует стандартизированного определения, теста или эталона AGI, широко принятого научным, технологическим, инженерным и математическим сообществом. Также не существует единого научного консенсуса относительно того, возможен ли AGI вообще.

Некоторые известные личности, такие как Роджер Пенроуз (давний партнер Стивена Хокинга по исследованиям), считают, что AGI не может быть достигнут, в то время как другие полагают, что ученым и инженерам потребуются десятилетия или столетия, чтобы понять это.

Среди тех, кто уверен в скором появлении AGI или другой подобной формы ИИ человеческого уровня, — Илон Маск и генеральный директор OpenAI Сэм Альтман.

Не смотрите вверх… но AGI вместо кометы

— Илон Маск (@elonmusk) 1 апреля 2023 г.

AGI стал горячей темой после запуска ChatGPT и множества подобных продуктов и услуг ИИ за последние несколько месяцев. Часто упоминаемая как технология «святого Грааля», эксперты предсказывают, что ИИ человеческого уровня нарушит все аспекты жизни на Земле.

Если ИИ на уровне человека будет достигнут, он может нарушить различные аспекты криптоиндустрии. В криптовалютном мире пользователи могут увидеть полностью автономные машины, способные выступать в роли предпринимателей, руководителей высшего звена, консультантов и трейдеров, с интеллектуальными способностями человека, способностью сохранять информацию и выполнять код, как компьютерная система.

Будут ли агенты AGI служить человечеству в качестве инструментов ИИ или конкурировать с людьми за ресурсы, еще предстоит выяснить.

Хассабис, со своей стороны, не стал рассуждать о каких-либо сценариях, но сказал в интервью The Wall Street Journal, что он «выступает за разработку таких технологий AGI осторожным образом с использованием научного метода, когда вы пытаетесь провести очень тщательные контролируемые эксперименты, чтобы понять, что делает базовая система».

Это может контрастировать с текущей ситуацией, когда такие продукты, как Google Bard его собственного работодателя и ChatGPT от OpenAI, были недавно доступны для публичного использования.

Инсайдеры отрасли, такие как Альтман из OpenAI и Нандо де Фрейтас из DeepMind, заявили, что, по их мнению, AGI может появиться сам по себе, если разработчики продолжат масштабировать существующие модели. А один из исследователей Google недавно расстался с компанией после того, как заявил, что модель под названием LaMDA уже стала разумной.

Решение этих проблем масштабирования — вот что приведет к появлению AGI. Исследования, направленные на решение этих проблем, например, S4 для увеличения памяти, необходимы. Философия о символах — это не так. Символы — это инструменты в мире, и большие сети без проблем создают их и манипулируют ими 2/n

— Нандо де Фрейтас ️‍ (@NandoDF) 14 мая 2022 г.

Из-за неопределенности, связанной с развитием этих технологий и их потенциальным влиянием на человечество, тысячи людей, включая Маска и соучредителя Apple Стива Возняка, недавно подписали открытое письмо с просьбой к компаниям и частным лицам, создающим соответствующие системы, приостановить разработку на шесть месяцев, чтобы ученые могли оценить потенциальный вред.