Генеральный директор OpenAI Сэм Альтман признал, что соглашение с Министерством обороны США было заключено слишком быстро — сразу после запрета использования инструментов другого разработчика Anthropic. В то же время компания уже договорилась о развертывании своих моделей искусственного интеллекта в секретной сети ведомства.
Альтман заявил в соцсети X, что OpenAI стремилась к деэскалации отношений между правительством и технологической отраслью. Он признал риски для репутации компании, но считает партнерство с государством критически важным.
"Это точно было сделано в спешке, и выглядит не очень хорошо", — отметил Альтман, комментируя договоренности с Пентагоном.
[see_also ids="668389"]
По словам гендиректора OpenAI, компания рассчитывала, что соглашение поможет снизить напряжение между правительством и индустрией искусственного интеллекта. Он добавил: "Мы действительно хотели деэскалации ситуации, и считали предложенную сделку выгодной".
Альтман подчеркнул, что в случае успеха OpenAI будет выглядеть "гениями и компанией, которая приложила немало усилий, чтобы помочь отрасли". Однако в противном случае компанию и в дальнейшем будут считать "поспешной и неосторожной".
Компания подтвердила, что достигла соглашения с Министерством обороны США по развертыванию своих моделей в секретной сети ведомства. По словам Альтмана, во время переговоров министерство демонстрировало "глубокое уважение к безопасности и желание сотрудничать для достижения наилучшего возможного результата".
[see_also ids="674210"]
OpenAI отмечает, что основой ее миссии остаются безопасность искусственного интеллекта и широкое распределение его преимуществ. Два ключевых принципа, которых требовала и запрещена Anthropic, — блокирование использования искусственного интеллекта в массовом внутреннем наблюдении и обязательная ответственность человека за применение силы, в частности в автономных системах вооружения — включены в соглашение.
Компания также создаст технические предохранители для надлежащей работы моделей и будет разворачивать их только в облачных сетях. Отдельно будет применяться FDE для поддержки моделей и обеспечения их безопасности.
"Я считаю, что хорошие отношения между правительством и компаниями, которые разрабатывают эту технологию, будут критически важными в течение следующих нескольких лет", — подытожил Альтман.
Еще в начале февраля Пентагон инициировал переговоры с лидерами рынка ИИ с требованием убрать стандартные этические и безопасностные ограничения для инструментов, которые разворачиваются в секретных военных сетях. Военное руководство стремится использовать искусственный интеллект для планирования боевых миссий и определения целей, настаивая на праве применять коммерческие технологии без барьеров, предусмотренных для гражданских пользователей.
В то же время компания Anthropic вступила в открытое противостояние с Пентагоном, отказавшись снять ограничения на использование своей модели Claude для массового внутреннего слежения и создания полностью автономного оружия. В ответ Министерство обороны США угрожало разорвать контракты, применить Закон об оборонном производстве (DPA) для принудительного снятия лимитов или даже официально признать американскую компанию "риском для цепи поставок".