Обнаружил интересную аналогию,
"Иллюзия" ИИ: даже не зная правильного ответа, он может говорить ерунду на основе вероятностей;
Это очень похоже на людей, которые в областях, в которых они совершенно не разбираются, уверенно выдают «ответы», основываясь на своем воображении.
Один из способов справиться с "иллюзиями" ИИ заключается в том, чтобы обучать его на множестве диалогов, в которых он ошибается, чтобы он понял, что, когда не знает, он должен сказать: извините, я не знаю.
Посмотреть Оригинал