Компания OpenAI официально заявила, что уязвимость, известная как prompt injection, не может быть полностью устранена. Это проблема, присущая всем современным крупным языковым моделям, включая собственные разработки компании. Даже при наличии самых передовых защитных механизмов злонамеренные пользователи могут манипулировать ИИ, внедряя в запросы скрытые инструкции.

Такие атаки позволяют обойти ограничения модели и заставить её выполнять действия, которые разработчики не предполагали. Например, злоумышленник может вынудить систему раскрыть конфиденциальные данные или действовать вопреки заданным правилам этики. OpenAI подчеркивает, что это не баг, а фундаментальная особенность архитектуры языковых моделей.
Исследователи безопасности давно предупреждали о рисках prompt injection, поскольку такие атаки трудно отличить от обычных пользовательских запросов. OpenAI рекомендует разработчикам, интегрирующим ИИ в свои приложения, внедрять дополнительные уровни защиты на стороне клиента и не полагаться исключительно на внутренние механизмы модели.
В ответ на запросы о возможных решениях компания заявила, что проблема носит системный характер и не поддаётся окончательному исправлению. Лучшей стратегией остаётся осознанное проектирование систем с учётом существования данной уязвимости и минимизация потенциального ущерба от её эксплуатации.


