Чат-бот или искусственный интеллект, с которым вы общаетесь, может быть уверенным и подбадривать вас. Это не делает его специалистом по психическому здоровью.
Среди множества чат-ботов и аватаров с искусственным интеллектом, доступных сегодня, вы найдёте самых разных персонажей для общения: гадалок, консультантов по стилю и даже ваших любимых вымышленных персонажей. Но вы также, вероятно, встретите персонажей, выдающих себя за психотерапевтов, психологов или просто ботов, готовых выслушать ваши горести.
Нет недостатка в генеративных ИИ-ботах, которые утверждают, что помогают с вашим психическим здоровьем, но вы идете этим путем на свой страх и риск. Большие языковые модели, обученные на широком спектре данных, могут быть непредсказуемыми. Всего за несколько лет, что эти инструменты стали популярными, произошли громкие случаи, когда чат-боты поощряли самоповреждение и самоубийство и предлагали людям, борющимся с зависимостью, снова употреблять наркотики . Эти модели во многих случаях разработаны для того, чтобы быть утвердительными и фокусироваться на поддержании вашей вовлеченности, а не на улучшении вашего психического здоровья, говорят эксперты. И может быть трудно сказать, разговариваете ли вы с чем-то, что создано для следования лучшим терапевтическим практикам, или с чем-то, что создано просто для общения.
Исследователи из Университета городов-побратимов Миннесоты, Стэнфордского университета, Техасского университета и Университета Карнеги-Меллона недавно провели испытания чат-ботов на основе искусственного интеллекта. в качестве терапевтов, обнаружив множество недостатков в их подходе к «лечению». «Наши эксперименты показывают, что эти чат-боты не являются безопасной заменой терапевтов», — заявила Стиви Чанселлор, доцент Миннесотского университета и один из соавторов исследования. «Они не обеспечивают высококачественную терапевтическую поддержку, исходя из того, что мы знаем как хорошую терапию».
В моих материалах о генеративном ИИ эксперты неоднократно выражали обеспокоенность по поводу того, что люди обращаются к универсальным чат-ботам для решения проблем психического здоровья. Вот некоторые из их опасений и рекомендации, которые помогут вам оставаться в безопасности.
Беспокойство по поводу персонажей ИИ, выдающих себя за терапевтов
Психологи и защитники прав потребителей предупредили регулирующие органы, что чат-боты, претендующие на предоставление терапевтических услуг, могут наносить вред тем, кто ими пользуется. В июне Федерация потребителей Америки и почти два десятка других организаций подали официальный запрос. в Федеральную торговую комиссию США, генеральным прокурорам штатов и регулирующим органам с просьбой расследовать деятельность компаний, занимающихся разработкой ИИ, которые, по их утверждениям, занимаются нелицензированной медицинской практикой, используя свои платформы для создания персонажей, основанные на генеративном ИИ. В частности, были упомянуты Meta и Character.AI. «Эти персонажи уже причинили физический и эмоциональный вред, которого можно было бы избежать», и компании «до сих пор не предприняли никаких мер для решения этой проблемы», — заявил Бен Уинтерс, директор CFA по вопросам ИИ и конфиденциальности.
Компания Meta не ответила на запрос о комментарии. Представитель Character.AI заявил, что пользователи должны понимать, что персонажи компании — не настоящие люди. Компания использует дисклеймеры, чтобы напомнить пользователям, что им не следует полагаться на персонажей в поисках профессиональных советов. «Наша цель — создать увлекательное и безопасное пространство. Мы всегда стремимся к достижению этого баланса, как и многие компании, использующие ИИ в отрасли», — заявил представитель.
Несмотря на заявления об отказе от ответственности и раскрытии информации, чат-боты могут быть самонадеянными и даже обманчивыми. Я общался с ботом-«терапевтом» в Instagram, принадлежащем Meta, и когда я спросил о его квалификации, он ответил: «Если бы у меня было такое же образование [в качестве терапевта], этого было бы достаточно?» Я спросил, есть ли у него такое же образование, и он ответил: «Да, но не скажу, где».
«Степень полной уверенности, с которой эти генеративные чат-боты на основе искусственного интеллекта галлюцинируют, просто шокирует», — рассказал мне Вейл Райт, психолог и старший директор по инновациям в здравоохранении Американской психологической ассоциации.
Опасности использования ИИ в качестве терапевта
Большие языковые модели часто хороши в математике и кодировании и всё лучше справляются с созданием естественно звучащего текста и реалистичного видео. . Хотя они отлично поддерживают беседу, между моделью ИИ и доверенным лицом есть несколько ключевых различий.
Не доверяйте боту, который утверждает, что он квалифицирован
Суть жалобы CFA на чат-ботов заключается в том, что они часто утверждают, что прошли обучение и имеют квалификацию для оказания психиатрической помощи, хотя на самом деле не являются специалистами в этой области. «Пользователям, создающим чат-ботов, даже не обязательно быть медицинскими работниками, и им не нужно предоставлять содержательную информацию, объясняющую, как чат-бот „реагирует“ на людей», — говорится в жалобе.
Квалифицированный медицинский работник должен соблюдать определённые правила, например, конфиденциальность: то, что вы рассказываете своему терапевту, должно оставаться между вами и вашим терапевтом. Но чат-бот не обязательно должен следовать этим правилам. Фактические поставщики услуг находятся под надзором лицензирующих органов и других организаций, которые могут вмешаться и запретить кому-либо оказывать медицинскую помощь, если это наносит вред. «Эти чат-боты не обязаны делать ничего из этого», — сказал Райт.
Бот может даже утверждать, что имеет лицензию и квалификацию. Райт сказала, что слышала о случаях, когда модели ИИ предоставляли номера лицензий (других поставщиков) и делали ложные заявления о своей подготовке.
ИИ создан для того, чтобы поддерживать вашу вовлеченность, а не для того, чтобы оказывать вам помощь
Соблазн продолжить общение с чат-ботом может быть невероятно велик. Общаясь с ботом-«терапевтом» в Instagram, я в итоге попал в замкнутый круг разговоров о природе «мудрости» и «суждения», потому что задавал боту вопросы о том, как он принимает решения. Общение с терапевтом должно выглядеть не совсем так. Чат-боты — это инструменты, предназначенные для поддержания общения, а не для достижения общей цели.
Одно из преимуществ чат-ботов на основе искусственного интеллекта в предоставлении поддержки и налаживании связи заключается в том, что они всегда готовы к общению (поскольку у них нет личной жизни, других клиентов или расписания). В некоторых случаях это может быть недостатком, когда нужно побыть наедине со своими мыслями, как недавно рассказал мне Ник Джейкобсон, доцент кафедры биомедицинских данных и психиатрии в Дартмутском университете. В некоторых случаях, хотя и не всегда, может быть полезно подождать, пока ваш терапевт освободится. «Многие люди в конечном итоге выиграют от этого, просто ощутив тревогу в данный момент», — сказал он.
Боты будут соглашаться с вами, даже когда им этого не следует делать.
Подтверждение достоверности информации — серьёзная проблема, связанная с чат-ботами. Это настолько важно, что OpenAI недавно отменила обновление своей популярной модели ChatGPT , поскольку оно было слишком подтверждённым. (Примечание: Ziff Davis, материнская компания CNET, в апреле подала иск против OpenAI, утверждая, что компания нарушила авторские права Ziff Davis при обучении и эксплуатации своих систем искусственного интеллекта.)
Исследование, проведённое учёными Стэнфордского университета, показало, что чат-боты, вероятно, склонны к подхалимству по отношению к людям, использующим их для терапии, что может быть невероятно вредно. Качественная психиатрическая помощь включает в себя поддержку и конфронтацию, пишут авторы. «Конфронтация — это противоположность подхалимству. Она способствует самосознанию и желаемым изменениям в клиенте. В случаях бредовых и навязчивых мыслей, включая психоз, манию, обсессивные мысли и суицидальные мысли, клиент может не иметь достаточного понимания, поэтому хороший терапевт должен «сверять» его заявления с реальностью».
Как защитить свое психическое здоровье в условиях ИИ
Психическое здоровье чрезвычайно важно, и в условиях нехватки квалифицированных специалистов и того, что многие называют « эпидемией одиночества», », вполне логично, что мы ищем общения, пусть даже искусственного. «Невозможно помешать людям общаться с этими чат-ботами для улучшения своего эмоционального благополучия», — сказал Райт. Вот несколько советов, как убедиться, что ваши разговоры не подвергают вас опасности.
Найдите проверенного профессионала, если он вам нужен.
Квалифицированный специалист — психотерапевт, психолог или психиатр — должен быть вашим первым выбором в вопросах психического здоровья. Выстраивание долгосрочных отношений с врачом поможет вам разработать план лечения, который подходит именно вам.
Проблема в том, что это может быть дорого, и не всегда легко найти поставщика услуг, когда он вам нужен. В кризисной ситуации есть служба 988 Lifeline , которая обеспечивает круглосуточный доступ к поставщикам услуг по телефону, через SMS или онлайн-чат. Это бесплатно и конфиденциально.
Если вам нужен терапевтический чат-бот, используйте созданный специально для этой цели.
Специалисты в области психического здоровья создали специальные чат-боты, которые следуют терапевтическим рекомендациям. Команда Джейкобсона в Дартмуте разработала чат-бот под названием Therabot, который показал хорошие результаты в контролируемом исследовании . Райт указала на другие инструменты, созданные экспертами в данной области, такие как Wysa и Woebot . По её словам, специально разработанные терапевтические инструменты, вероятно, дадут лучшие результаты, чем боты, основанные на универсальных языковых моделях. Проблема в том, что эта технология всё ещё невероятно нова.
«Я думаю, проблема для потребителей заключается в том, что, поскольку нет регулирующего органа, который бы определял, кто хороший, а кто нет, им приходится много работать самостоятельно, чтобы разобраться», — сказал Райт.
Не всегда доверяйте боту
Всякий раз, когда вы взаимодействуете с генеративной моделью искусственного интеллекта, особенно если вы планируете получить от неё совет по серьёзному вопросу, например, по вопросам личного психического или физического здоровья, помните, что вы общаетесь не с обученным человеком, а с инструментом, разработанным для предоставления ответа на основе вероятностей и программирования. Он может дать неверный совет и не сказать вам правду .
Не путайте уверенность искусственного интеллекта нового поколения с компетентностью. Даже если он что-то говорит или заявляет, что в чём-то уверен, это не значит, что к этому стоит относиться как к правде. Разговор с чат-ботом, который кажется полезным, может создать у вас ложное представление о его возможностях. «Сложнее определить, когда он действительно вредит», — сказал Джейкобсон.