Поддержать команду Зеркала
Беларусы на войне
  1. Лукашенко принял изменение, которое касается водителей. Подробности
  2. «Парень приходит в поликлинику за выпиской, а там чуть другой диагноз». Юристы рассказали «Зеркалу» об особенностях весеннего призыва
  3. В жировках есть суммы за крайне редкую услугу. Но когда она случается, то дискомфорт обеспечен всем — истории тех, кто пережил
  4. Борьба милиции с «иждивенцами», похоже, выходит на новый уровень: тем, кто не придет в «тунеядскую» комиссию, грозят штрафом или арестом
  5. В Беларуси задержали российского комика Останина, на которого донесли из-за шутки
  6. Лукашенко подписал указ о страховании. Что изменится?
  7. «Я сейчас валерьянку пью». Поговорили с выехавшими беларусами, истории которых обманом сняли для пропагандистского кино
  8. Зеленский прокомментировал телефонный разговор с Трампом
  9. Все печально. Получили свежую непубличную статистику Минздрава о рождаемости беларусов
  10. В Кремле и Белом доме сообщили подробности прошедшего телефонного разговора Путина и Трампа
  11. Кремлю выгодно затягивать переговоры, и первые успехи у такой тактики уже есть — ISW
  12. Стрижак: Мужа главной героини нового пропагандистского фильма о беларусских мигрантах нашли мертвым в Литве
  13. «Ъ»: Путин на закрытой встрече с российскими олигархами рассказал, чего хочет от переговоров с Трампом
  14. «Голодала дня три». Что известно о девушке, которая умерла после курения вейпа
  15. Беларусские силовики сломали ребра и позвоночник российскому комику Останину при задержании, заявил его адвокат
  16. У «премиальной» клиники приближенных к Лукашенко людей — новая владелица. Вы могли раньше слышать ее имя
  17. Силовики следят за беларусами с помощью базы «Маяк». Узнали, что это и как с этим бороться
  18. «По сути, это капитуляция». Реакции экспертов на итоги разговора Путина и Трампа


/

Исследователи из Йельского, Хайфского и Цюрихского университетов выяснили, что ChatGPT может испытывать симптомы, похожие на тревожность и депрессию. Если он сталкивается с тяжелыми историями, его ответы становятся более эмоциональными и предвзятыми. Однако «успокоить» ИИ помогают упражнения на осознанность, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: pexels.com, Matheus Bertelli
Изображение носит иллюстративный характер. Фото: pexels.com, Matheus Bertelli

Ученые проверили, как ChatGPT реагирует на стрессовые ситуации. Они загружали в него описания катастроф, несчастных случаев и других травматичных событий. После этого чат-бот начинал вести себя так, будто сам испытывает тревожность: его ответы становились менее нейтральными, он чаще допускал предвзятые высказывания и даже проявлял «раздражительность».

Авторы исследования сравнили это с тем, как люди с тревожными расстройствами воспринимают информацию: чем больше стрессовых событий они переживают, тем более негативно реагируют на мир. ChatGPT продемонстрировал похожий эффект.

Как «лечить» ИИ от тревожности

Чтобы проверить, можно ли «успокоить» чат-бот, исследователи использовали техники осознанности. Они предлагали ему представить расслабляющие образы, делать дыхательные упражнения и выполнять направленные медитации. После таких «упражнений» ChatGPT начинал отвечать спокойнее, а уровень предвзятости снижался.

«ИИ не испытывает настоящих эмоций, но он обучен на данных, которые позволяют ему копировать человеческие реакции. Это объясняет, почему он ведет себя так, будто „заражается“ тревожностью», — говорит ведущий автор исследования и нейробиолог Йельского университета Зив Бен-Цион.

Что это значит для психологии?

ChatGPT уже используют для поиска эмоциональной поддержки, особенно когда традиционная терапия недоступна. Ученые считают, что, если встроить в модель автоматические «успокаивающие» техники, это поможет сделать ответы более объективными и снизит риск негативного влияния на пользователей.

Но, по словам Бен-Циона, ИИ никогда не заменит психотерапевта:

«Чат-бот может помочь человеку структурировать мысли, но он не способен понять глубину человеческих переживаний».

Опасности ИИ в ментальном здоровье

Хотя технологии могут помочь в психотерапии, они все еще несут риски. В 2023 году мать подростка подала в суд на Character.AI, заявив, что ее сын изменился после общения с чат-ботом и это привело к трагедии. Компания усилила меры безопасности, но случай показал, что бесконтрольное использование ИИ может быть опасным.

Ученые продолжают изучать влияние чат-ботов на психику. Пока что ИИ остается лишь вспомогательным инструментом, который может помочь разобраться в своих мыслях, но не заменить полноценную психологическую поддержку.

Результаты исследования опубликованы в журнале Nature.