Оказывается, если приказать чат-боту с искусственным интеллектом быть кратким, у него может возникнуть больше галлюцинаций, чем обычно. Об этом говорится в новом исследовании Giskard, парижской компании по тестированию AI, которая разрабатывает целостный бенчмарк для моделей AI. В сообщении в блоге, в котором подробно излагаются их выводы, исследователи из Giskard говорят, что подсказки…
Исследование показало, что просьбы к чат-ботам давать короткие ответы могут усилить галлюцинации
