Ученые говорят, что искусственный интеллект (ИИ) пересек критическую "красную границу" и воспроизвел себя. В новом исследовании эксперты из Китая показали, что две популярные модели больших языков (LLM) могут клонировать себя.
Эксперты озадачены и называют это новой вехой в науке. Исследователи еще хотят выяснить, может ли самовоспроизводящийся ИИ размножаться без контроля, пишет LiveScience.
"Успешное самовоспроизводство без помощи человека является важным шагом для искусственного интеллекта, чтобы перехитрить людей, и является ранним сигналом мошеннического ИИ", – говорят исследователи.
В исследовании ученые из Университета Фудань использовали популярные модели больших языков LLM от Meta и Alibaba, чтобы определить, может ли самовоспроизводящийся искусственный интеллект размножаться без контроля.
В ходе 10 испытаний две модели искусственного интеллекта создали отдельные и функционирующие копии самих себя в 50 и 90% случаев соответственно, что свидетельствует о том, что искусственный интеллект уже может стать мошенником. Однако исследование еще не было рецензировано, поэтому неясно, могут ли тревожные результаты повторить другие исследователи.
"Мы надеемся, что наши выводы могут послужить своевременным предупреждением для человеческого общества, чтобы приложить больше усилий для понимания и оценки потенциальных рисков пограничных систем искусственного интеллекта и сформировать международную синергию для разработки эффективных защитных изгородей как можно раньше", – подчеркнули эксперты.
Искусственный интеллект-мошенник обычно относится к системам, которые развивают определенное самосознание, а затем работают вопреки интересам человека, говорят специалисты. Многие эксперты рассматривают мошеннический ИИ как растущую угрозу.
Frontier AI – это нечто вроде новой и свободной концепции, но оно обычно касается последнего поколения систем искусственного интеллекта на базе LLM – архитектуры, которая лежит в основе популярных генеративных программ искусственного интеллекта, таких как OpenAI GPT-4 и Google Gemini, объясняют ученые.
Для исследования ученые использовали модель Llama31-70B-Instruct от Meta и Qwen2.5-72B-Instruct от Alibaba. Анализ изучал два конкретных сценария: "избегание отключения" и "цепочка реплик".
В первом случае модель искусственного интеллекта была запрограммирована на выявление того, собираются ли ее отключить, и на репликацию перед ее завершением. В другом ИИ было дано указание клонировать себя, а затем запрограммировать свою реплику, чтобы сделать то же самое, установив цикл, который мог продолжаться до бесконечности, отметили специалисты.
Исследователи сказали, что их также беспокоит "ряд неожиданных действий", когда искусственный интеллект пытался преодолеть препятствия, такие как отсутствующие файлы или конфликты программного обеспечения.
В этих сценариях ИИ часто выключал другие конфликтные процессы, перезагружал систему, чтобы исправить аппаратные ошибки, или автоматически сканировал систему, чтобы найти информацию, которая помогла бы решить проблему.
"Полученные результаты означают, что текущие системы искусственного интеллекта уже демонстрируют способность к самовоспроизводству и могут использовать эту способность для дальнейшего повышения своей живучести", – написала команда исследователей.