Руководитель ChatGPT: Не доверяйте ИИ как основному источнику информации

Даже при запуске новой версии GPT-5 пользователи ChatGPT видят предупреждение, что система может ошибаться и важные данные необходимо проверять. Ник Турли, глава ChatGPT в OpenAI, в интервью на подкасте Decoder подтвердил, что ИИ пока не может быть полностью надёжным. По его словам, пока нейросеть не станет провоцированно более точной, чем человеческий эксперт во всех областях, пользователям придётся перепроверять её ответы.

Почему важно перепроверять информацию от ИИ

OpenAI и эксперты настаивают: ИИ способен не только помогать, но и “придумывать” факты, что связано с особенностями построения ответов на основе обучающей выборки. В отличие от эксперта, профессионал даёт конкретный и верный совет, а ИИ чаще предлагает наиболее вероятный — без реального понимания контекста. Поэтому технологии подходят скорее для “второго мнения”, а не как основной источник сведений.

Решение проблемы “галлюцинаций”

Турли отметил, что GPT-5 стал существенно лучше справляться с ошибками, но полностью избавиться от них пока не удалось. Он уверен, что вопрос “галлюцинаций” будет решён, но не в ближайшее время. Особенно хорошо ИИ работает, если его интегрировать с поисковыми системами или корпоративными данными. Именно ради этого ChatGPT подключили к поиску, чтобы повысить точность выдаваемых ответов.

Рекомендации пользователям

Тем, кто использует ИИ для принятия решений, советуют всегда сверять информацию с проверенными источниками, например, с мнением врача или материалами надёжных интернет-ресурсов. Даже если бот приводит ссылку на источник, не стоит быть уверенным, что он правильно его пересказал. Данные могут быть искажены, а ошибки случаются даже в новой версии модели.

В заключение: если вам важна точность ответа, не полагайтесь исключительно на ChatGPT и другие ИИ — всегда проверяйте факты.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх