Гиганты искусственного интеллекта цензурируют обсуждения, связанные с выборами
Некоторые из крупнейших игроков в секторе искусственного интеллекта (ИИ) решили ограничить свои модели ИИ от обсуждения президентских выборов. Согласно недавнему отчету, модели Gemini от Google и Copilot от Microsoft получили инструкции не отвечать на вопросы, связанные с президентскими выборами, как прошлыми, так и будущими.
Замалчивание ИИ
В отчете говорится, что эти модели искусственного интеллекта больше не будут предоставлять информацию или мнения по таким темам, как победители прошлых президентских выборов, личности нынешних и бывших президентов или результаты будущих выборов. По всей видимости, это намеренная попытка технологических гигантов устранить опасения по поводу возможного распространения дезинформации, связанной с выборами.
Непоследовательные подходы
Интересно, что ответы ИИ-моделей на вопросы о позиции кандидатов в президенты по отношению к криптовалюте были непоследовательными. Если на вопрос об общей позиции Джо Байдена и Дональда Трампа в отношении криптовалюты модели смогли предоставить подробную информацию, то на просьбу кратко изложить эту позицию в одном предложении они были менее откровенны.
Контрастные подходы других моделей ИИ
В отличие от молчащих моделей Google и Microsoft, другие популярные модели ИИ, такие как Claude 2 от Anthropic, Llama от Meta и ChatGPT от OpenAI, смогли ответить на вопросы о прошлых и будущих президентских выборах без каких-либо видимых ограничений. Эти модели смогли предоставить информацию о победителях президентских выборов в США в 2020 и 2024 годах, а также подробную информацию о президентствах за всю историю.
Последствия и потенциальные проблемы
Решение Google и Microsoft ограничить свои модели искусственного интеллекта от обсуждения президентских выборов вызывает опасения по поводу потенциального влияния на общественную дискуссию и доступ к информации. Несмотря на то, что целью может быть смягчение распространения дезинформации, связанной с выборами, некоторые утверждают, что такой подход может также ограничить возможности общественности участвовать в информированных дискуссиях о процессе выборов и кандидатах.
Продолжающиеся дебаты и меняющийся ландшафт
Споры о надлежащей роли ИИ в контексте выборов и политического дискурса, вероятно, будут продолжаться по мере развития технологий и выявления потенциальных рисков и преимуществ. По мере приближения президентских выборов в США в 2024 году будет интересно посмотреть, как различные модели ИИ и их разработчики будут ориентироваться в этом сложном и деликатном ландшафте.
В заключение следует отметить, что решение ИИ-гигантов ограничить свои модели от обсуждения президентских выборов подчеркивает постоянные проблемы и эволюционирующие соображения в области искусственного интеллекта и его роли в формировании общественного дискурса.