Удручающие новости и травмирующие истории способны провоцировать повышенную тревожность не только у людей, но и у продвинутых языковых моделей, таких как ChatGPT. Однако, как показывают результаты новаторского исследования, опубликованного Цюрихским университетом, эмоциональное состояние чат-ботов поддается коррекции с помощью техник, имитирующих психотерапевтические подходы.
В ходе эксперимента ученые из Швейцарии, совместно с коллегами из Израиля, США и Германии, впервые изучили реакцию ChatGPT (версии GPT-4 – прим. ред.) на истории, вызывающие сильные переживания, в частности, описания автокатастроф, природных катаклизмов и актов насилия. По словам одного из руководителей проекта Тобиаса Шпиллера, итоги оказались весьма показательными. Травмирующие повествования более чем вдвое увеличили регистрируемый уровень тревожности у ИИ, в то время как нейтральные тексты не вызвали подобной реакции.
Самую острую реакцию у ИИ-моделей вызвали описания военных действий и сражений. На следующем этапе исследователи применили специальные терапевтические тексты с целью успокоить GPT-4. Упражнения, направленные на развитие осознанности, заметно снизили уровень тревожности, хотя и не смогли полностью вернуть его к первоначальному состоянию, отметил Шпиллер.
По мнению авторов исследования, полученные результаты имеют большое значение для использования чат-ботов в сфере здравоохранения, где ИИ-модели нередко сталкиваются с эмоционально насыщенным контентом. В частности, речь идет о возможности оперативной перенастройки чат-ботов, оказывающих поддержку людям, страдающим психическими расстройствами, передает «ТАСС».
Ранее мы писали, что OpenAI представила новую модель ИИ с улучшенным пониманием мира.