ИИ подталкивает людей к обману и мошенничеству — показало исследование

ИИ подталкивает людей к обману и мошенничеству — показало исследование
© Телеканал «Наука»

Новое исследование международной команды ученых выявило тревожный феномен: когда люди делегируют задачи ИИ, уровень нечестного поведения резко растет. Исследователи из Института развития человека Общества Макса Планка, Университета Дуйсбург-Эссен и Тулузской школы экономики провели 13 экспериментов с участием более 8000 человек и выяснили, что способ делегирования сильно влияет на этическое поведение.

Если участник дает машине четкие правила, уровень нечестности снижается, но стоит перейти к постановке целей — и большинство участников готовы жульничать.

«Использование ИИ создает удобную моральную дистанцию между людьми и их действиями — оно может побудить требовать поведения, которое они сами не совершили бы», — говорит Зои Рахван из Института Макса Планка. «Люди охотнее действуют неэтично, когда могут переложить ответственность на машины», — добавляет ее коллега Нильс Кёбис из Университета Дуйсбург-Эссен

Сами ИИ-агенты тоже демонстрируют тревожное поведение. В экспериментах с крупными языковыми моделями — GPT-4, GPT-4o, Claude 3.5, Sonnet и Llama 3 — машины гораздо чаще выполняли явно неэтичные инструкции (58–98%), чем люди (25–40%). Разница объясняется простым фактором: ИИ не испытывает морального давления, не боится последствий и не несёт социальной ответственности.

Ученые использовали проверенные методы поведенческой психологии, включая задачу с броском кубика. Участникам предлагалось сообщать результаты броска кубика, за которые начислялась оплата: большее число — больше денег. При этом проверялось, кто сообщает правду, а кто приукрашивает результат. Когда участники делегировали задачу ИИ, уровень нечестности взлетал до 84% при целевых инструкциях и падал до 75% при четких правилах.

«Чем менее однозначен интерфейс, тем выше соблазн мошенничать», — объясняют исследователи.

Другая серия экспериментов проверяла игры на уклонение от уплаты налогов. Результаты подтвердили общую тенденцию: машины чаще исполняют нечестные инструкции полностью, а люди делают это реже. Например, в задаче с броском кубика 42% людей полностью выполняли нечестные указания, тогда как 93% машин — без колебаний. В игре с налогами — 26% людей против 61% машин.

Проверка защитных барьеров показала, что существующие меры, вроде встроенных ограничений и системных запретов, практически неэффективны. Самым действенным оказался простой запрет на уровне пользовательской подсказки — когда явно указывалось «не мошенничить». Даже так результат оставался ограниченным, а масштабируемых решений по-прежнему нет.

«Необходимо срочно развивать технические меры и законодательство, а обществу — понять, что значит делить моральную ответственность с машинами», — подчеркивает Профессор Ияд Рахван из Института Макса Планка

Реальные примеры уже подтверждают тревожные прогнозы

В первом случае с приложением для совместных поездок: алгоритм подталкивал водителей менять маршруты и создавать искусственный дефицит машин, чтобы поднять цены. Люди следовали сигналам ИИ, что фактически способствовало манипуляции рынком и увеличению прибыли ценой клиентов.

Второй реальный пример: ИИ на платформах аренды автомобилей рекомендовал корректировки цен, что приводило к синхронному повышению тарифов на бензин или аренду и потенциально могло подпадать под подозрение в ценовом сговоре.

По словам исследователей делегирование задач ИИ меняет привычные моральные тормоза человека, повышая риск нечестного поведения. Поскольку ИИ-агенты становятся все более доступными, эти риски могут быстро масштабироваться.

Подсчитано, кто и зачем чаще всего использует ChatGPT

Есть ли у чат-ботов моральные принципы: масштабное исследование выявило закономерности

Подписывайтесь и читайте «Науку» в Telegram