Поделились ли бы вы своими самыми глубокими переживаниями с Алисой? Или попросили бы у Siri эмоциональной поддержки после тяжелого дня?
Как сообщает BBC, мы все чаще обращаемся к чат-ботам на смарт-колонках или веб-сайтах и приложениях, чтобы найти ответы на вопросы. И по мере того, как эти системы, работающие на базе искусственного интеллекта (ИИ), становятся все более совершенными, они начинают давать вполне удовлетворительные и подробные ответы.
Но смогут ли такие чат-боты когда-нибудь стать достаточно человекоподобными, чтобы стать эффективными помощниками в вопросах терапии? Компьютерный программист Евгения Куйда является основателем Replika, это американский чат-бот. Благодаря этому приложению пользователи получают собеседника с искусственным интеллектом, который проявляет заботу, всегда готов выслушать и поговорить, и при этом всегда на вашей стороне.
Приложение было запущено в 2017 году, и сейчас у него более двух миллионов активных пользователей. У каждого из них есть свой чат-бот или «реплика», уникальная для них, поскольку ИИ учится на основе их разговоров. Пользователи также могут создавать свой собственный анимационный аватар для своего чат-бота.
По словам Куйды, приложением пользуются самые разные люди: от детей-аутистов, которые используют его как способ разминки перед общением с людьми, до взрослых, которым просто одиноко и нужен друг. Другие используют Replika для подготовки к собеседованиям, чтобы поговорить о политике или даже в качестве консультанта по вопросам брака.
И хотя приложение создано в первую очередь для того, чтобы быть другом или собеседником, оно также может помочь вашему психическому здоровью, например, сформировать лучшие привычки и уменьшить беспокойство.
По данным Всемирной организации здравоохранения (ВОЗ), в мире насчитывается почти миллиард людей с психическими расстройствами. Это каждый десятый человек. А также лишь небольшая часть нуждающихся людей имеет доступ к эффективной, доступной и качественной помощи в лечении психического здоровья. И хотя любой, кто беспокоится о себе или своих родственниках, должен в первую очередь обратиться к специалисту, многие люди получают необходимую поддержку от чат-ботов.
Доктор Пол Марсден, член Британского психологического общества, говорит, что приложения, направленные на улучшение психического здоровья, могут помочь, но только в незначительной степени, и только если вы найдете действительно хорошее приложение.
«Когда я искал, было около 300 приложений только для борьбы с тревогой. Так как же понять, какое из них использовать? Их следует рассматривать только как дополнение к основному лечению. Все сходятся во мнении, что полноценную медицинскую терапию нельзя заменить приложениями».
Но в то же время доктор Марсден говорит, что он рад возможности искусственного интеллекта сделать терапевтические чат-боты более эффективными. «Поддержка психического здоровья основана на разговорной терапии, а разговор – это то, что и делают чат-боты».
Доктор Марсден подчеркивает тот факт, что ведущие компании по производству чат-ботов с искусственным интеллектом, такие как OpenAI, (компания, которая стоит за недавним нашумевшим проектом ChatGPT), открывают свои технологии для всех заинтересованных.
По его словам, это позволяет приложениям для профилактики психического здоровья использовать лучший ИИ «с его обширными знаниями, растущими способностями к рассуждениям и искусными навыками общения» для работы своих чат-ботов. Replika – один из таких поставщиков, который уже использует технологию компании OpenAI.
Но что если отношения человека с его чат-ботом-терапевтом станут нездоровыми? Компания Replika попала в заголовки газет в феврале, когда стало известно, что некоторые пользователи вели откровенные разговоры со своим чат-ботом.
Новости появились после того, как компания Luka, стоящая за Replika, обновила свою систему искусственного интеллекта, чтобы предотвратить такие откровенные разговоры.
Но не все пользователи довольны изменениями. Один из них написал на Reddit: «Пользователи, которые нашли спасение от одиночества, исцеление через близость, вдруг обнаружили, что она искусственная не потому, что это был искусственный интеллект, а потому, что ее контролировали люди».
Поступок компании Luka может быть связан с тем, что также в феврале итальянское агентство по защите данных запретило компании использовать личные данные итальянцев.
По словам представителей итальянского надзорного органа, приложением пользовались подростки до 18 лет, которые получали «ответы, абсолютно не соответствующие их возрасту». Посредством такого приложения можно также «увеличить риски для людей, находящихся на стадии развития психического заболевания или в состоянии эмоциональной нестабильности».
Этот запрет означает возможность ограничения использования Replika в Италии, а компания Luka может быть оштрафована. По словам представителей компании, они «тесно сотрудничают с итальянскими регулирующими органами, и переговоры продвигаются положительно».
Член британской кампании по защите конфиденциальности в Интернете Джен Перссон говорит, что необходимо более глобальное регулирование деятельности чат-ботов терапевтов.
«Компании ИИ, которые предоставляют продукцию для выявления проблем с психическим здоровьем или для его поддержания, или которые предназначены для воздействия на ваше эмоциональное состояние или психическое здоровье, должны быть классифицированы как товары для здоровья, и к ним должны применяться соответствующие стандарты качества и безопасности», – говорит она.
Куйда утверждает, что Replika – это скорее товарищ, как домашний питомец, нежели средство для поддержания психического здоровья. Она добавляет, что такой метод не следует рассматривать как замену помощи психотерапевта.
«Терапия в реальной жизни дает невероятное понимание человеческой психики, которое можно получить не только через текст или слова, но и видя вас лично, различая язык тела, ваши эмоциональные реакции, а также обладая знанием вашей истории», – говорит она.
Разработчики других приложений в сфере лечения психического здоровья гораздо осторожнее относятся к использованию ИИ. Одним из таких приложений является приложение для медитации Headspace, которое имеет более 30 миллионов пользователей, а в Великобритании одобрено Национальной службой здравоохранения.
«Наше основное убеждение и вся бизнес-модель Headspace Health основаны на человеческом подходе и человекоориентированном лечении – связь наших пользователей с наставниками и терапевтами в живом общении через чат, видео или лично – незаменима», – говорит исполнительный директор Headspace Рассел Гласс.
Он добавляет, что, хотя Headspace и использует некоторые искусственные интеллекты, но делает это «очень избирательно», сохраняя при этом «большую роль человеческого участия». Компания не использует ИИ для общения с пользователями, вместо этого Гласс говорит, что использует его только для предоставления пользователям персонализированных рекомендаций по содержанию или помощи в написании заметок.
Тем не менее доктор Марсден утверждает, что терапевтические чат-боты на основе ИИ будут становиться только лучше. «Новые технологии чат-ботов с искусственным интеллектом, похоже, развивают навыки эффективной поддержки психического здоровья, включая эмпатию и понимание того, как работает человеческий разум», – говорит он.
Его комментарии появились после недавнего исследования Корнельского университета в штате Нью-Йорк, в ходе которого ChatGPT прошел ряд тестов на понимание того, что все люди могут думать по-разному. Оценки ИИ были эквивалентны оценкам 9-летнего ребенка. Ранее считалось, что подобная когнитивная эмпатия присуща только человеку.
Источник ctv.by