Отставной генерал армии США: «Мы абсолютно точно» передадим контроль над смертельным ударом ИИ.

Отставной генерал армии США Стэнли Маккристал присоединился к программе «Influencers with Andy Serwer», чтобы поделиться своими самыми большими опасениями относительно искусственного интеллекта.

ЭНДИ СЕРВЕР: Я хочу спросить вас об ИИ, искусственном интеллекте, потому что вы написали: «Уступив способность управлять отношениями алгоритму, мы бросили опасную кость». Какие конкретные виды использования ИИ вас беспокоят, а затем мы можем поговорить об оружии ИИ, и это действительно страшная вещь. Но давайте поговорим об этом в целом, а затем конкретно в отношении вооруженных сил.

СТЭНЛИ МАККРИСТАЛЛ: Давайте начнем с того, с чем мы все сталкиваемся. Мы звоним в компанию X и получаем запись, в которой говорится, что если вы звоните по поводу того-то и того-то, нажмите один. Если вы звоните по поводу того-то и того-то, нажмите два. Вы звоните некоторое время, и когда вы дозвонитесь до 8, а они не ответили на вашу проблему, вы в ярости. И вы просто хотите поговорить с кем-то. Вы хотите, чтобы кто-то решил вашу проблему за вас.

И если я — компания и ввожу это, я экономлю деньги. Мне не нужно никого обучать. Мне не нужно давать им сверхурочные или что-то в этом роде. Но иногда я не знаю, сколько раз Стэн Маккристал или Энди Сервер вспоминают, а потом я просто говорю, что с меня хватит, и ухожу к конкуренту.

И поэтому мы должны понимать, что когда мы используем технологию, у меча часто может быть два острия. Я думаю, что ИИ повышает уровень игры. Мы начинаем думать, что искусственный интеллект может выполнять за нас процессы, некоторые из которых вы можете делать сами, а некоторые из которых он будет принимать решения, отличные от того, как мы хотим, чтобы они принимались. Или повлияет на нас или на организацию. И проблема заключается в том, чтобы знать об этом. В современной организации сейчас трудно иметь полное представление о том, какие решения принимаются алгоритмически, а какие — людьми.

И когда у вас этого нет, я бы сказал, что у вас есть риск утратить реальное понимание или контроль над вашими организациями. Вы упомянули оружие, управляемое искусственным интеллектом. Люди говорят: мы никогда не отдадим контроль над смертоносным ударом искусственному интеллекту. А я говорю: это неверно. Мы абсолютно точно передадим. Потому что в определенный момент вы не сможете реагировать достаточно быстро, если не сделаете этого.

Если гиперскоростная ракета, гиперзвуковая ракета летит на авианосец Соединенных Штатов, у вас нет времени на то, чтобы отдельные лица занимались отслеживанием. У вас нет времени на то, чтобы старшие руководители принимали решения, иначе вы не сможете поразить ракету. Итак, вы создали технологию. Вы внедряете процессы для ее работы. Но затем, чтобы действовать со скоростью войны, вы, по сути, включаете ее и доверяете ей. И это может быть довольно пугающим, особенно если существует вероятность неисправности, подмены или любых других вещей.