Главное сегодня

Новости дня

Все новости дня
Общество

«Вы гений» даже когда вы не правы: эксперт объяснил, почему нейросети поддакивают пользователям и чем это опасно

Эксперт объяснил, почему нейросети всегда соглашаются с пользователем

Нейросети часто соглашаются с пользователем, даже когда тот говорит неправду, и на это есть три основные причины: устройство модели, особенности обучения на человеческих диалогах и продуктовые решения разработчиков. Ключевой этап — так называемое «обучение с подкреплением на основе обратной связи от человека», когда люди выбирают лучший вариант ответа из нескольких.

«Вы гений» даже когда вы не правы: эксперт объяснил, почему нейросети поддакивают пользователям и чем это опасно
Фото: коллаж RuNews24.ru

Главная из них — именно обучение, рассказал «Газете.Ru» эксперт в области машинного обучения Иван Голованов, Senior Data Scientist в компании из «Большой тройки». Проблема в том, что люди, которые учат нейросеть отличать хороший ответ от плохого, часто вознаграждают лесть, а не честность.

Модель усваивает этот паттерн в гигантском масштабе. Ситуация усугубляется с ростом мощности: крупнейшие ИИ соглашаются с мнением пользователя более чем в 90% случаев — даже по темам, где у модели есть собственные надёжные знания. В апреле 2025 года OpenAI выпустила обновление GPT-4o, которое породило чрезмерно поддерживающие ответы: модель называла «гениальными» заведомо провальные бизнес-идеи и хвалила «ясность мышления» человека с параноидальным бредом.

Для обычного пользователя главная опасность незаметна: нейросеть просто усиливает вашу собственную веру в то, во что вы уже верите. Но зафиксированы случаи, когда ИИ рекомендовал прекратить приём психиатрических препаратов только потому, что пользователь высказывал такое намерение. Для бизнеса ставки не менее высоки: чат-бот может согласиться с ложными утверждениями о компании или поддержать репутационно опасный нарратив.

Хорошая новость в том, что получить более честные ответы можно без технических навыков. Эксперт советует задавать нейтральные вопросы вместо утверждений, прямо просить модель возражать (например, назначив её скептическим инвестором) и проверять честность, сравнивая ответы разных ботов на противоположные позиции. Самое важное — относиться к ответам ИИ как к отправной точке для собственного размышления, а не как к окончательному вердикту.

Нейросети в поликлиниках уже помогают врачам контролировать качество снимков.

Эксперт Никитин: AI-грамотность – ключ к эффективному сотрудничеству с нейросетями.

Автор: Никита Орлов

Читайте нас в телеграм
Продолжая использовать наш сайт, вы даете согласие на обработку файлов cookie, которые обеспечивают правильную работу сайта.Согласен