Частный обмены чатами GPT через функцию "Поделиться" делает их доступными для миллионов пользователей интернета. Google индексирует такие разговоры, даже если вы распространили их в небольшом кругу близких, сообщает Fast Company.
Теханалитики издания выяснили это, просто введя в строку поиска часть ссылки, которая генерируется сервисом для распространения. Пользователи ChatGPT обмениваются с ботом большим количеством чувствительной информации. Обсуждают медицинские диагнозы, просят совета по бытовым вопросам, делятся переживаниями, как с психотерапевтом.
[related_material id="644825" type="1"]
Хотя сервис скрывает владельца чата, но по деталям переписки часть из них может быть деанонимизирована. Проводя свое расследование, журналисты Fast Company смогли "нагуглить" около 4500 личных разговоров.
Google индексирует не все ваши разговоры и даже в открытых не всегда есть частная информация. Но специалисты по кибербезопасности настоятельно советуют учитывать этот момент перед тем, как делиться своими чатами с языковыми моделями GPT.
В OpenAI так прокомментировали обнаруженные проблемы с безопасностью чувствительных данных:
"Разговоры в ChatGPT являются частными, если вы не решите поделиться ими. Создание ссылки для распространения вашего чата предусматривает опцию сделать его видимым в веб-поиске. Совместные чаты видны в Google только тогда, когда пользователи явно выберут эту опцию".
[related_material id="634104" type="1"]
Журналисты Fast Company констатируют, что вероятно эта функция недостаточно подчеркнута и интуитивно понятна, если такое большое количество личных переписок оказалась в публичном доступе. Среди таких есть чаты с подробным описанием семейной жизни, консультации по психическим расстройствам и их симптомам у детей и тому подобное.
Издание попросило прокомментировать этот кейс аналитика по кибербезопасности и гендиректора SocialProof Security Рэйчел Тобак:
"Люди ожидают, что смогут использовать такие инструменты, как ChatGPT, абсолютно конфиденциально, — отметила она. — Но реальность такова, что многие пользователи не до конца понимают, что эти платформы имеют функции, которые могут непреднамеренно раскрывать их самые интимные вопросы, истории и страхи".
Ранее журналисты The Wall Street Journal выяснили, что архитектура безопасности у популярных моделей искусственного интеллекта очень слабая. Сначала ИИ обучают, а затем несколькими страницами кода устанавливают ограничения безопасности. Снять эти ограничения очень просто, если за дело возьмется специалист.
Модели, не ограниченные системой защиты, могут планировать апокалиптические сценарии, геноциды и идеи для свержения правительств. А те, которые не подверглись внешним вмешательствам, потакают людям с психозным бредом, чем ухудшают их ментальное состояние.