Эксперты, представляющие компанию Terzo, пришли к выводу, что нейросети часто дают ошибочный ответ при просьбе определить источник информации, но отвечают "уверенно". Эксперты рассказали, как часто у ИИ бывают такие "галлюцинации" и попробовали объяснить их.
Компьютерным программам предложили определить, откуда взят отрывок текста, и уверенный, но неверный ответ, в зависимости от нейросети, оглашался в 37-94 процентах случаев. Эксперты также пришли к выводу, что бесплатные версии одного и того же приложения "галлюцинировали" реже, чем платные.
"Обучение" нейросетей, как поясняется, в некоторой степени поощряет "галлюцинирование", поскольку поощряет правильные ответы. Дав какой бы то ни было уверенный ответ, программа имеет шанс "угадать", из-за чего вариант закрепляется как предпочтительный по сравнению с отсутствием какого бы то ни было определенного ответа.
Читайте материал "Украинские военкомы придумали новую уловку для мобилизации мужчин"