Искусственный интеллект может быть предвзятым в своих ответах. Например, по-разному оценивать войну в Украине, из-за так называемой "засухи данных" — ситуацию, когда ему не хватает новой достоверной информации для обучения, заявил заведующий научной лабораторией иммерсивных технологий и права НАН Украины, доктор юридических наук Алексей Костенко в интервью редактору отдела образования и науки ZN. UA Оксане Онищенко.
Эксперт объяснил, что когда языковая модель на основе ИИ уже набралась всей доступной информации, и больше нет данных, на которых она может обучаться, тогда эта модель начинает учиться на данных, созданных другими моделями искусственного интеллекта.
[see_also ids="656083"]
"Это неожиданный минус, которым воспользовались наши враги — они генерируют большие массивы деструктивных данных с дезинформацией. Тогда как украинцы не загружают в ChatGPT в достаточном количестве информацию, которая стала бы на нашу защиту", — отметил Костенко.
Эксперт указал, что в этой ситуации в искусственном интеллекте нет никаких предубеждений, он в поисках данных движется туда, где больше информации.
Костенко отмечает, что текущее поколение ИИ не имеет эмпатии или способности отличать "плохое" от "хорошего", однако возможно научить его работать только с проверенными источниками.
По его словам, разработчики уже работают над ограничением деструктивного контента — детской опасной информации, призывов к насилию или суициду. Однако он подчеркнул, что определенные шаги для этого могут сделать и пользователи.
"Я в своем ChatGPT провел эксперимент: в настройках дал ему инструкцию: если ты не находишь подтвержденной информации в ответ на мой запрос, то сообщай, что это твое собственное мнение. Теперь, когда я делаю запросы, довольно часто он такую ремарку выдает", — поделился ученый собственным опытом.
Согласно новому отчету компании Graphite, специализирующейся на поисковой оптимизации, 52% всех текстов в Интернете генерировали определенной формой ИИ.