Главная из них — именно обучение, рассказал «Газете.Ru» эксперт в области машинного обучения Иван Голованов, Senior Data Scientist в компании из «Большой тройки». Проблема в том, что люди, которые учат нейросеть отличать хороший ответ от плохого, часто вознаграждают лесть, а не честность.
Модель усваивает этот паттерн в гигантском масштабе. Ситуация усугубляется с ростом мощности: крупнейшие ИИ соглашаются с мнением пользователя более чем в 90% случаев — даже по темам, где у модели есть собственные надёжные знания. В апреле 2025 года OpenAI выпустила обновление GPT-4o, которое породило чрезмерно поддерживающие ответы: модель называла «гениальными» заведомо провальные бизнес-идеи и хвалила «ясность мышления» человека с параноидальным бредом.
Для обычного пользователя главная опасность незаметна: нейросеть просто усиливает вашу собственную веру в то, во что вы уже верите. Но зафиксированы случаи, когда ИИ рекомендовал прекратить приём психиатрических препаратов только потому, что пользователь высказывал такое намерение. Для бизнеса ставки не менее высоки: чат-бот может согласиться с ложными утверждениями о компании или поддержать репутационно опасный нарратив.
Хорошая новость в том, что получить более честные ответы можно без технических навыков. Эксперт советует задавать нейтральные вопросы вместо утверждений, прямо просить модель возражать (например, назначив её скептическим инвестором) и проверять честность, сравнивая ответы разных ботов на противоположные позиции. Самое важное — относиться к ответам ИИ как к отправной точке для собственного размышления, а не как к окончательному вердикту.
Нейросети в поликлиниках уже помогают врачам контролировать качество снимков.
Эксперт Никитин: AI-грамотность – ключ к эффективному сотрудничеству с нейросетями.
