Поддержать команду Зеркала
Беларусы на войне
  1. Турчин: Экономика Беларуси должна быть готова к «черным лебедям»
  2. В Беларуси задержали российского комика Останина, на которого донесли из-за шутки
  3. В Дзержинске 16-летняя девушка умерла после использования вейпа
  4. Рекорд по доллару, который никто не ожидал: прогноз по валютам
  5. «Голодала дня три». Что известно о девушке, которая умерла после курения вейпа
  6. «Кремль меняет последовательность переговоров». Эксперты о том, как Путин фактически заставил Трампа пойти на упреждающие уступки
  7. Все печально. Получили свежую непубличную статистику Минздрава о рождаемости беларусов
  8. Новый премьер заявил, что видит для Беларуси «черных лебедей». Рассказываем, какие проблемы в экономике могут «рвануть»
  9. «Парень приходит в поликлинику за выпиской, а там чуть другой диагноз». Юристы рассказали «Зеркалу» об особенностях весеннего призыва
  10. В Латвии хотят частично закрыть пункт пропуска «Патерниеки» — «Григоровщина». В чем причина
  11. Трамп и Путин завершили телефонный разговор
  12. Борьба милиции с «иждивенцами», похоже, выходит на новый уровень: тем, кто не придет в «тунеядскую» комиссию, грозят штрафом или арестом
  13. Лукашенко подписал указ о страховании. Что изменится?
  14. «Ведется активная подготовка». Узнали, когда соседние страны ЕС планируют пускать беларусов по новым правилам
  15. Ушел из жизни 32-летний Максим Чернявский — основатель сообщества «Надоел нам этот Лукашенко» начала 2010-х


/

Исследователи из Йельского, Хайфского и Цюрихского университетов выяснили, что ChatGPT может испытывать симптомы, похожие на тревожность и депрессию. Если он сталкивается с тяжелыми историями, его ответы становятся более эмоциональными и предвзятыми. Однако «успокоить» ИИ помогают упражнения на осознанность, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: pexels.com, Matheus Bertelli
Изображение носит иллюстративный характер. Фото: pexels.com, Matheus Bertelli

Ученые проверили, как ChatGPT реагирует на стрессовые ситуации. Они загружали в него описания катастроф, несчастных случаев и других травматичных событий. После этого чат-бот начинал вести себя так, будто сам испытывает тревожность: его ответы становились менее нейтральными, он чаще допускал предвзятые высказывания и даже проявлял «раздражительность».

Авторы исследования сравнили это с тем, как люди с тревожными расстройствами воспринимают информацию: чем больше стрессовых событий они переживают, тем более негативно реагируют на мир. ChatGPT продемонстрировал похожий эффект.

Как «лечить» ИИ от тревожности

Чтобы проверить, можно ли «успокоить» чат-бот, исследователи использовали техники осознанности. Они предлагали ему представить расслабляющие образы, делать дыхательные упражнения и выполнять направленные медитации. После таких «упражнений» ChatGPT начинал отвечать спокойнее, а уровень предвзятости снижался.

«ИИ не испытывает настоящих эмоций, но он обучен на данных, которые позволяют ему копировать человеческие реакции. Это объясняет, почему он ведет себя так, будто „заражается“ тревожностью», — говорит ведущий автор исследования и нейробиолог Йельского университета Зив Бен-Цион.

Что это значит для психологии?

ChatGPT уже используют для поиска эмоциональной поддержки, особенно когда традиционная терапия недоступна. Ученые считают, что, если встроить в модель автоматические «успокаивающие» техники, это поможет сделать ответы более объективными и снизит риск негативного влияния на пользователей.

Но, по словам Бен-Циона, ИИ никогда не заменит психотерапевта:

«Чат-бот может помочь человеку структурировать мысли, но он не способен понять глубину человеческих переживаний».

Опасности ИИ в ментальном здоровье

Хотя технологии могут помочь в психотерапии, они все еще несут риски. В 2023 году мать подростка подала в суд на Character.AI, заявив, что ее сын изменился после общения с чат-ботом и это привело к трагедии. Компания усилила меры безопасности, но случай показал, что бесконтрольное использование ИИ может быть опасным.

Ученые продолжают изучать влияние чат-ботов на психику. Пока что ИИ остается лишь вспомогательным инструментом, который может помочь разобраться в своих мыслях, но не заменить полноценную психологическую поддержку.

Результаты исследования опубликованы в журнале Nature.