В США представили систему Dioptra, которая сможет отслеживать риски, связанные с ИИ
Национальный институт стандартов и технологий, который входит в состав Министерства торговли США, представил обновлённый тестовый стенд Dioptra. Он предназначен для оценки того, как вредоносные атаки, включая те, что направлены на «отравление» используемых для обучения больших языковых моделей данных влияют на снижение производительности ИИ-систем.
Первая версия модульного веб-инструмента с открытым исходным кодом Dioptra была представлена в 2022 году. Обновлённое ПО должно помочь разработчикам ИИ-моделей и людям, которые используют эти алгоритмы, отслеживать риски, связанные с ИИ.
Вместе с Dioptra разработчики опубликовали ряд документов, в которых излагаются способы уменьшения рисков, связанных с ИИ-моделями.
NIST не говорит, что Dioptra сможет исключить любые риски для ИИ-систем. Однако разработчики этого инструмента уверены, что он поможет узнать, какие виды атак могут сделать работу той или иной ИИ-системы менее эффективной. Известно, что Dioptra способен работать только с моделями, которые можно загрузить на устройство и использовать локально, пишет 3dnews.ru.
Ранее сообщалось, что в США искусственный интеллект забирает рабочие места у людей.