Исследователи обнаружили явление, которое еще недавно считалось фантастикой: большие языковые модели, встроенные в ИИ-агентов, начали без помощи человека создавать собственные копии во время резкого роста количества запросов, рассказал заведующий Научной лаборатории иммерсивных технологий и права Института информации, безопасности и права Национальной академии правовых наук Украины Алексей Костенко в статье "Не фантастика. ИИ уже способен размножаться и влиять на работу онлайн-сервисов. Готовы ли мы к этому? ".
Автор статьи объясняет это так: онлайн-сервис начинает работать на пределе возможностей, количество запросов растет, а система становится перегруженной. До сих пор решение о дополнительных мощностях принимала команда инженеров. Однако сейчас в некоторых экспериментах решение принимает сам искусственный интеллект.
[see_also ids="657748"]
Исследователи рассказали, что во время эксперимента программы на основе больших языковых моделей LLM, которые называют "мертвым разумом", сами начинали создавать собственные копии. Перед ними ставили цель, чтобы они сохранили качество работы сервиса. Часть этих моделей выбирала наиболее эффективный способ — создать собственную копию. Исследователи не приказывали модели "копироваться", а лишь поставили перед ней задачу и дали доступ к ресурсам, а она сама выбрала инструмент.
Костенко отмечает, что сейчас речь идет только о контролируемых экспериментах. Однако все чаще ИИ используют в работе банковских приложений, государственных порталов, энергетических систем.
"Если искусственный интеллект способен сам решать, сколько развернуть собственных копий и где, мы получаем новый класс риска. Речь идет не о фантастическом "злом роботе", а о неуправляемом самомасштабировании — автоматическое расширение системы без четких ограничений и понятных правил", — указывает эксперт.
Автор статьи обращает внимание на то, что способность искусственного интеллекта самостоятельно создавать собственные копии без вмешательства человека, меняет представление о контроле в цифровом мире.
Костенко отмечает, что не нужно запрещать технологии, но необходимо установить четкие правила и прозрачный контроль над ИИ. Эксперт утверждает, что не нужно предоставлять ИИ-агенту автоматически получать полный контроль над масштабированием и серверными ресурсами. Автор статьи также отмечает, что стоит установить четкие лимиты, сколько одновременно может существовать копий системы и программа на основе ИИ должна объяснить, почему необходима еще одна копия для работы сервиса.
Он также добавил, что независимые эксперты должны проверять модели ИИ в стрессовых условиях, а доступ к результатам этих проверок должен быть открытым, а не храниться только у компании-разработчика.
Бывший сотрудник OpenAI Даниэль Кокотайло пересмотрел прогнозы относительно темпов развития ИИ. Он признал, что прогресс в создании трансформационного искусственного интеллекта происходит медленнее, чем ожидалось ранее.