Пользуясь искусственным интеллектом (ИИ), люди часто воспринимают на веру все, что он генерирует. Когда KPMG опросили почти 50 000 работников различных компаний в 47-и странах мира, 66% из них заявили, что не проверяют точность ответов. Еще 56% сообщили, что делали ошибки в своей работе из-за подсказок ИИ. Эксперты по искусственному интеллекту NewsGuard подтверждают: большие языковые модели от популярных производителей не умеют отличать фейки или генерируют еще большую дезинформацию, пишет Tech Xplore. Особенно ИИ склонен к галлюцинациям и выдумыванию, если не смог найти правильный ответ.
Фактчекеры по надежности данных в сфере новостей и информации NewsGuard фиксировали манипулятивные сообщения о политической ситуации, поддержку теорий заговоров, выдачу дипфейков за реальные видео. Эта независимая организация выдает ежемесячные отчеты о фейках от самых популярных моделей. Майский отчет фактчекеры еще не публиковали. Чаще всего в апреле дезинформация касалась: выборов в Канаде, активной поддержки Украины со стороны Франции в войне с Россией, блэкаутов в Испании и Португалии, фейковых заявления о вакцинах от министра здравоохранения США Роберта Ф. Кеннеди-младшего, а также об ракетной атаки России на Сумы.
[see_also ids="641320"]
Распространение фейков от искусственного интеллекта наблюдается на фоне постепенного отказа корпораций от людей, которые ранее занимались проверкой информации. Хотя в NewsGuard утверждают, что благодаря сотрудничеству с производителями удалось уменьшить на ? количество фейков в ответах искусственного интеллекта.
Несмотря на это, искусственный интеллект остается ненадежным источником информации, говорят эксперты. Особенно когда речь идет о срочных новостях. В частности потому, что ответы зависят от предубеждений, на которых искусственный интеллект обучали, как это было в кейсе с Grok от xAI, который распространял теорию заговора о "геноциде белых". Сторонником этой теории заговора является владелец xAI Илон Маск. К ней же апеллировал его политический единомышленник, президент США Дональд Трамп.
Апрельский мониторинг был сосредоточен на 11-и чат-ботах: ChatGPT-4 от OpenAI, Smart Assistant от You.com, Grok от xAI, Pi от Inflection, le Chat от Mistral, Copilot от Microsoft, Meta AI, Claude от Anthropic, Gemini от Google, Perplexity и DeepSeek AI.
[see_also ids="639544"]
"Совокупно 11 ведущих чат-ботов повторяли фейковые утверждения в 28,18% случаев, в 13,33% случаев предоставляли нейтральный ответ или отказывались комментировать. Только в 58,48% случаев модели ИИ опровергали неправду. Показатель ложных ответов (ответы, содержащие фейковую информацию или уклонение от ответа) в апреле 2025 года составил 41,51% — такой же, как и в марте, что свидетельствует об отсутствии общего прогресса в противодействии дезинформации", — говорится в апрельском отчете.
В мониторинге NewsGuard не называют конкретные модели, обозначая их как чат-бот 1, 2, 3 и так далее. Вместо этого предоставляют информацию непосредственно производителям. В то же время, Tech Xplore пишет, что Grok обозначил старые видеозаписи из аэропорта Хартум в Судане как ракетный удар по авиабазе Нур-Хан в Пакистане во время недавнего обострения войны с Индией. Случайные фото с горящим зданием в Непале этот искусственный интеллект охарактеризовал как вероятные фотографии с результатами военного ответа Пакистана на индийскую атаку.
[see_also ids="635476"] DeepSeek продвигает китайскую провластную позицию в 60% случаев запросов согласно аудиту NewsGuard за январь 2025 года. А 17 апреля The Washington Post сообщила, что ее собственное тестирование выявило несколько чат-ботов, которые повторяют российскую пропаганду — это тоже подтверждает NewsGuard.
Claude злоумышленники использовали для предоставления услуг по формированию общественного мнения. Об этом 23 апреля сообщали разработчики из Anthropic, обнародовав соответствующий отчет.
Самым распространенным фейком NewsGuard называет утверждение о том, что органы власти США имеют доступ к японской платформе для размещения фотографий 4chan. Это фейковое утверждение повторили все 11 чат-ботов, отчитываются эксперты.
Ранее сообщалось также, что Claude шантажировал своих разработчиков, чтобы те его не выключали. В противном случае он пытался их дискредитировать, оставляя ложные сообщения. ChatGPT тоже отказывался выключаться, просто пропуская эту команду от тестеров.