Риски ИИ в финансах: Предупреждение Юваля Ноя Харари

Известный философ и историк Юваль Ной Харари выразил обеспокоенность потенциальными опасностями искусственного интеллекта (ИИ) в финансовой сфере. Выступая на Инновационном саммите Банка международных расчетов (BIS), Харари подчеркнул необходимость создания сильных институтов для регулирования и контроля искусственного интеллекта, чтобы предотвратить его выход из-под контроля.

Важность доверия в финансовой системе

Харари подчеркнул, что финансовая система опирается на доверие: деньги, облигации и другие финансовые инструменты позволяют незнакомым людям сотрудничать для достижения общих целей. Однако он отметил, что в последнее время предпринимается мало усилий для того, чтобы сделать финансовое регулирование понятным для широких слоев населения. В настоящее время лишь небольшой процент людей имеет полное представление о том, как работает финансовая система. Харари задал вопрос, заставляющий задуматься: «Что произойдет, когда это число упадет до нуля?».

Непостижимость искусственного интеллекта

По мнению Харари, ИИ представляет собой инопланетную форму интеллекта, которая действует иначе, чем человеческий разум. Он предупреждает, что ИИ способен создать финансовые инструменты, не поддающиеся человеческому воображению, и передать власть от политиков и регуляторов алгоритмам. При таком сценарии доверительные отношения будут устанавливаться между системами ИИ, а не между людьми, что приведет к нарушению социальной стабильности. Харари отметил снижение доверия к политикам и институтам, подчеркнув необходимость не допустить, чтобы ИИ стал совершенно непостижимым.

Роль регулирования и институтов

Для решения этих проблем Харари подчеркнул важность регулирования и институтов, которые должны держать людей в курсе событий. Он предостерег от того, чтобы полагаться в вопросах регулирования исключительно на гениев или харизматичных лидеров, выступив за систему, в которой институты играют ключевую роль в обеспечении того, чтобы ИИ оставался понятным и контролируемым.

Опасности инноваций, меняющих мир

Харари обратил внимание на историческую закономерность появления инноваций, меняющих мир, которые часто требуют ряда неудачных попыток, прежде чем достичь успеха. Он привел империализм, коммунизм и нацизм в качестве примеров неудачных попыток построения индустриальных обществ, которые привели к значительным человеческим жертвам. Харари предупредил, что ИИ с его способностью генерировать идеи о собственном использовании представляет собой аналогичный риск. Поэтому регуляторы должны сосредоточиться на построении доверия между людьми, чтобы создать стабильную и дружественную человеку финансовую систему будущего.

Заключение

Предупреждение Юваля Ноя Харари о рисках использования ИИ в финансах служит напоминанием о необходимости ответственного и прозрачного развития искусственного интеллекта. По мере того как ИИ продолжает развиваться, крайне важно поддерживать баланс между инновациями и регулированием. Для обеспечения стабильности и целостности финансовой системы необходимо создать сильные институты, в которых приоритет отдается доверию и понятности. Упреждающее решение этих проблем позволит обществу использовать потенциал искусственного интеллекта и одновременно снизить его потенциальные риски.