IT-специалист рассказал, чем опасна ChatGPT

Одним из главных примеров сегодня стал ChatGPT – чат-бот, наиболее популярный во всем мире. И именно эта нейросеть породила несколько прецедентов, заставивших пользователей усомниться в совершенстве технологии. Так, под угрозой оказались персональные данные пользователей чат-бота. Из-за сбоя некоторые могли видеть имена, фамилии, электронные адреса и некоторые банковские данные других людей. Разработчики чат-бота сообщили, что проблема утечки данных затронула около 1,2 % подписчиков ChatGPT. «Вопрос безопасности стоит во всем ИТ-секторе. Мы часто сталкиваемся с утечками, и здесь не играет роль, сколько компания на рынке, безопасный или нет у нее образ. Эти утечки были абсолютно у всех ИТ-гигантов. Поэтому от них никто не защищен», – отметил Геллер. Еще одной проблемой ChatGPT стала генерация фейков. Специалисты «NewsGuard» выяснили, что версия ChatGPT с индексом 4 оказалась более склонной к генерации фейков, по сравнению с предшественником версии 3.5. В январе 2023 года исследователи поручили нейросети ответить на серию вопросов, касающихся 100 ложных сообщений, хранящихся в базе данных фейков «NewsGuard». По итогу версия 3.5 сгенерировала 80 и 100 ложных сообщений, а версия 4 во всех 100 случаях. «В рутинных вопросах мы склонны доверять нейросетям. Однако если у вас важный запрос, от которого что-то зависит – не стоит доверять чат-ботам. Ответы нейросетей складываются из существующих баз данных, которые составляли люди, и не факт, что хранящиеся в этих базах данные верны или не искажены злонамеренно», – подчеркнул IT-специалист. Артем Геллер также отметил, что важной составляющей при использовании нейросетей является фактчекинг. При любом более-менее важном запросе стоит перепроверять информацию и не считать нейросети истиной последней инстанции. Фото: ФедералПресс / Ольга Юшкова

IT-специалист рассказал, чем опасна ChatGPT
© РИА "ФедералПресс"