Учёные из Google DeepMind и Лондонской школы экономики (LSE) предложили новый метод оценки наличия сознания у искусственного интеллекта. Он основан на реакции искусственного интеллекта на стимулы, вызывающие условные «боль» и «удовольствие». Оказалось, что большие языковые модели демонстрируют неожиданные реакции, когда дело касалось выбора.

В рамках эксперимента ИИ предлагалось участвовать в игре, где он сталкивался с различными ситуациями, ассоциированными с «болью» или «удовольствием». В этой игре LLM представлены два варианта: первый предлагает высокий балл, но сопряжён с «болью», а второй — меньший балл, но с «удовольствием».
Выяснилось, что ИИ предпочитает варианты, минимизирующие риск наказания, даже если это означает снижение потенциальной награды. Открытие свидетельствует о сложном процессе принятия решений в ИИ. Например, модель Gemini 1.5 Pro от Google постоянно стремилась избегать наказания, особенно когда ставки наказания и вознаграждения повышались.
Профессор Лондонской школы экономики Джонатан Бирч, соавтор исследования, отметил, что хотя их результаты не подтверждают наличие сознания у ИИ, они дают новую почву для будущих исследований в этой области.