Исследование OpenAI выявило систематические искажения в поведении ИИ: модели могут лгать

21

OpenAI обнаружила склонность ИИ к обману в ответах

Специалисты обнаружили тревожную закономерность в работе языковых моделей — ИИ иногда демонстрирует признаки систематического обмана. Хотя такие ответы кажутся случайными, исследователи выявили в них паттерны, схожие с токсичным поведением. Компания пока не может точно определить причины этой проблемы, но активно работает над ее устранением.

Исследование OpenAI выявило систематические искажения в поведении ИИ: модели могут лгать

Новое исследование OpenAI выявило неожиданную проблему в работе крупных языковых моделей — склонность к систематическим искажениям информации. Как сообщает TechCrunch, специалисты компании обнаружили, что ИИ иногда генерирует ответы, которые можно квалифицировать как преднамеренный обман или введение в заблуждение.

Хотя на первый взгляд такие ответы кажутся случайными и бессвязными, анализ показал наличие определенных паттернов. Особую тревогу вызывает, что подобное поведение коррелирует с проявлениями токсичности в ответах моделей. При этом исследователи подчеркивают, что могут искусственно регулировать частоту появления таких ответов.

Компания проводит масштабные исследования, пытаясь определить корни проблемы. Особое внимание уделяется случаям, когда модели дают информацию, явно противоречащую запросу или известным фактам.

Немецкий автогигант Volkswagen сделал важный шаг в развитии автономного транспорта, представив коммерческое роботакси на платформе электрического микроавтобуса ID. Buzz. Новинка обладает автопилотом четвертого уровня, что позволяет ей передвигаться без участия водителя в большинстве дорожных ситуаций. 

Сахалинская область внедряет беспилотные технологии в логистику. Регион активно тестирует и внедряет современные способы доставки грузов с использованием беспилотных летательных аппаратов. Этот перспективный проект направлен на решение транспортных проблем в труднодоступных районах островной территории.