Личные беседы с ChatGPT попадают в Google
Все дело в функции «Поделиться», которая создает публичную ссылку на диалог. Хотя кажется, что такая ссылка предназначена лишь для пересылки близким, она фактически открывает разговор для индексирования, который может всплыть в результатах поиска.
В этих публикациях встречаются откровенные истории: борьба с зависимостью, травмы, психические расстройства и др. Хотя имена пользователей в самих диалогах не указываются, по содержанию некоторые из них вполне можно идентифицировать.
Пользователь нажимает «Поделиться», чтобы отправить ссылку другу и не подозревает, что через несколько дней его личная история может оказаться доступной всему интернету. Люди, делящиеся откровениями в чатах, нередко уверены, что общаются в безопасной среде, но интерфейс не дает ясного сигнала о том, что происходит при публикации.
В результате в индексе Google оказалось около 4500 таких разговоров. И это, по всей видимости, не предел: система индексирует только то, до чего может добраться. Некоторые диалоги содержат чувствительную информацию, включая реальные имена, геолокацию и описание личных обстоятельств, поэтому СМИ предпочитают не ссылаться на них напрямую.
На Reddit пользователи массово делятся находками: в одном из диалогов, например, пользователь обсуждает составление резюме и при этом указывает своё полное имя, номер телефона, адрес, электронную почту и весь карьерный путь. В другом — текст напоминает зашифрованное послание с описанием подозрительной посылки, предназначенной для получателя в Великобритании.
Люди находят исповеди, тяжелые воспоминания, попытки осмыслить свои эмоции и даже вопросы к боту о его чувствах. В разговорах всплывают адреса, имена детей, фотографии и голосовые сообщения — все это оказывается в открытом доступе, потому что кто-то когда-то нажал кнопку «Поделиться».
С технической точки зрения — ничего удивительного: Google индексирует все, что доступно в интернете. И если страница не защищена от сканирования, она рано или поздно окажется в результатах поиска. Созданные пользователями ссылки можно удалить, но только вручную. Более того, перед отправкой предупреждение о конфиденциальности отображается, но насколько оно понятно — вопрос открытый.
Все это напоминает аналогичный случай с чат-ботами Meta (признана экстремистской и запрещена в РФ), которые начали публиковать пользовательские запросы в открытых лентах, не всегда ясно объясняя суть нововведений. Эксперты тогда отмечали: цифровая безграмотность пользователей часто приводит к тому, что люди делятся сокровенным, не понимая, что делают это публично.
Нынешняя история ставит под сомнение отношение технологических компаний к приватности. Критики считают, что заявления о защите конфиденциальных данных расходятся с реальностью. Даже если компания заявляет, что серьезно относится к персональным данным, настоящая проверка — это ее действия, а не заявления.
Ранее Сэм Альтман, глава OpenAI, предостерегал: не стоит доверять ChatGPT личную информацию, так как компания может быть обязана раскрыть данные по решению суда. При этом не уточняется, что многие разговоры становятся публичными не по судебному приказу, а по щелчку мыши пользователя.
Многие до сих пор уверены, что чат с ИИ — это безопасное и конфиденциальное пространство. Однако как показывает практика, достаточно одной кнопки и приватное исчезает.