Хотя бы 2 символа…

Искусственный интеллект серьезно влияет на сферу психологии

Поскольку ИИ преобразует наш мир, психологи работают над тем, чтобы направить его силу и ограничить его вред.

Искусственный интеллект (ИИ), который является движущей силой того, что некоторые называют четвертой промышленной революцией, стал предвестником перемен. Его мощь и потенциал вызвали волнение и страх почти во всех секторах общества, от финансов и транспорта до образования и здравоохранения.

«Поскольку ИИ превзошел пределы распознавания образов, доступные отдельным людям, естественно, нас впечатляет, когда генеративные инструменты ИИ работают хорошо», — сказала Эрика Ровира, доктор философии, профессор инженерной психологии в Военной академии США в Вест-Пойнте, изучающая взаимодействие человека и технологий. «Но как психологи, поскольку наша работа оказывает столь серьезное влияние на жизни людей, мы не можем обменивать магию на объяснимое».

Психологи не только не наблюдают за революцией ИИ со стороны, но и засучивают рукава, чтобы разрабатывать, изучать и интегрировать инструменты ИИ — как в дисциплину, так и в общество в целом. В программном заявлении APA « Искусственный интеллект и сфера психологии (PDF, 61 КБ) », опубликованном в августе 2024 года, описывается, как психологи могут формировать ИИ и как новые технологии меняют эту сферу.

В клинической практике психологи изучают, как большие языковые модели (тип генеративного ИИ, ориентированного на обработку естественного языка) могут повысить эффективность, расширить доступ к поддержке психического здоровья и даже углубить терапевтические отношения. На исследовательском фронте инструменты ИИ ускоряют исследования в области психологии, одновременно создавая новые направления исследований в области взаимодействия человека и технологий. И психологи все чаще занимают место за столом в более широких дискуссиях об этическом использовании данных и разработке продуктов, а также о роли ИИ в нашем здоровье, работе и отношениях.

«Как психологи, мы имеем возможность — и даже ответственность — направлять и формировать будущее психического здоровья», — сказала Джессика Джексон, доктор философии, лицензированный психолог из Хьюстона, председатель Консультативного комитета по технологиям психического здоровья Американской психологической ассоциации (APA) и член нового Консультативного комитета по цифровому здравоохранению Управления по контролю за продуктами питания и лекарственными средствами США. «Мы не должны наблюдать за этим процессом развития со стороны».

ИИ в клинике

Внедрение ИИ в клинику может быть сложной задачей, требующей технологических знаний и этических размышлений, но эксперты говорят, что пришло время это сделать. Одним из полезных инструментов для врачей является « Контрольный список Companion: Оценка клинического или административного инструмента с поддержкой ИИ (PDF, 59 КБ) », созданный Управлением инноваций в сфере здравоохранения Американской ассоциации психологов (APA).

«Сейчас самое время начать интеграцию ИИ», — сказал Дэвид Лакстон, доктор философии, клинический психолог и доцент Медицинской школы Вашингтонского университета, который пишет руководство Американской психиатрической ассоциации по интеграции ИИ в практику, которое должно выйти в 2026 году. «Специалисты по поведенческому здоровью должны быть компетентны в отношении границ и рисков ИИ, а также в том, как он может принести пользу их практике».

В готовящемся руководстве рассматривается, как ИИ может помочь во всем, от административных и бэк-офисных задач до оценки, непосредственного ухода и ухода за собой у пациентов (подробности см. в статье Trends о том, как технологии снижают выгорание и расширяют доступ к уходу ). Оно задумано как практическое руководство, чтобы дать психологам и другим поставщикам услуг в области психического здоровья знания, необходимые для начала работы.

Один из инструментов, который использует большие языковые модели и может вскоре стать стандартным: чат-боты, которые оценивают депрессию, риск самоубийства и другие проблемы разговорным и эмпатическим способом. Люкстон — один из нескольких исследователей, разрабатывающих такой чат-бот, который, по его словам, может иметь преимущества по сравнению со стандартным девятипунктным опросником о состоянии здоровья пациента (PHQ-9), который со временем может показаться пациентам излишним, влияя на точность их ответов.

«Мы надеемся оценить: как врачи и клиенты относятся к использованию автоматизированного интерактивного разговорного инструмента? Могут ли эти системы на самом деле быть точнее и надежнее традиционных инструментов скрининга и оценок?» — сказал Лакстон.

Все больше терапевтов также используют ИИ для расшифровки и анализа своих записей сеансов. Хотя это может повысить эффективность, психологам также следует учитывать вполне реальные проблемы конфиденциальности при хранении данных пациентов в облаке, сказала Маргарет Моррис, доктор философии, клинический психолог в частной практике и ассоциированный преподаватель в Университете Вашингтона, которая изучает цифровые вмешательства в психическое здоровье. Например, пациенты, которые живут в штатах, где запрещены аборты, могут стесняться обсуждать процедуру во время сеанса.

«Если вы как пациент не чувствуете, что ваши разговоры с терапевтом на самом деле являются вашими собственными, я думаю, что весь подход меняется», — сказал Моррис.

Врачи, использующие такие инструменты, должны изучить, должны ли данные пациентов храниться в облаке. Моррис призывает врачей задавать такие вопросы, как:

  • Кто имеет доступ к данным?
  • Кто будет иметь к нему доступ в будущем?
  • Используется ли он для обучения модели ИИ?
  • Могут ли пациенты впоследствии отозвать свои данные?

Также важно учитывать, как переход на автоматизированную транскрипцию может изменить рабочий процесс и рисковать обделить пациентов, сказал Моррис. Как поставщики услуг могут продолжать критический анализ и формулировку, которые они делали ранее при написании заметок?

Многообещающие достижения включают возможности запуска программного обеспечения для транскрипции ИИ на мощных локальных компьютерах с использованием больших языковых моделей с открытым исходным кодом, таких как Llama от Meta, настроенных на психическое здоровье. Моррис сказал, что выбор клиницистов в пользу этого метода является многообещающим, поскольку он демонстрирует чувство агентства в использовании инструментов для достижения определенной цели, а не просто принятие популярного нового продукта.

«Если вы сможете поставить терапевтические отношения на первое место, а затем использовать технологию на службе этих отношений, то сможете извлечь некоторую пользу из этих инструментов, а не стать самим продуктом», — сказала она.

Новые направления на практике

Моррис и команда из Вашингтонского университета под руководством аспиранта Захари Энглхардта и специалиста по информатике Викрама Айера, доктора философии, также изучают, как генеративный ИИ может помочь терапевтам анализировать данные из повседневной жизни пациентов, например, с носимых устройств. В исследовании, в котором врачи взаимодействовали с ChatGPT по поводу его анализа носимых данных, они предполагали использование таких данных для содействия совместному исследованию с пациентами. Клиницисты хотели запрашивать ИИ совместно с пациентами, при этом пациенты решали, какими данными поделиться и как интерпретировать закономерности (Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies , Vol. 8, No. 2, 2024).

Например, значение показателей активности и использования телефона различается от человека к человеку. Пациент, который испытывает сильную тревогу в начале новых романтических отношений, может отслеживать количество раз, когда он разблокирует экран телефона, как показатель своих меняющихся эмоциональных состояний.

«Мне нравится в этом то, что ИИ ставится на службу человеческим отношениям, терапевтическому альянсу, который, как мы знаем, так важен для терапии», — сказал Моррис.

Большие языковые модели также могут анализировать стенограммы сеансов, чтобы помочь в наблюдении и обучении, в том числе выделяя случаи, когда стажер откладывал протокол лечения, а затем предоставляя обратную связь в реальном времени. Например, mpathic и Lyssn — это модели ИИ, обученные поставщиками услуг в области психического здоровья распознавать такие качества, как эмпатия во время разговоров, включая рефлексивное слушание, подтверждения и открытые вопросы. Такая технология может помочь занятым супервайзерам нацеливаться на ключевые моменты для обратной связи — или сам ИИ может предложить стажерам альтернативный способ сформулировать ответ, например, перефразировав директиву в вопрос.

Хотя продукты на рынке сегодня относительно упрощены — например, оценка соблюдения протокола когнитивно-поведенческой терапии — Моррис надеется, что будущие инструменты предоставят информацию о психодинамических и других подходах, основанных на инсайтах. Другие возможности обучения включают симуляции, которые предоставляют терапевтам-стажерам безопасное место для изучения различных подходов.

«Например, представьте себе стажера, взаимодействующего с имитированным пациентом, который имеет реалистичные выражения лица и язык тела и реагирует предсказуемым образом», — говорит Тара Беренд, доктор философии, профессор Школы кадровых ресурсов и трудовых отношений Мичиганского государственного университета, изучающая взаимодействие человека и технологий.

Хорошо известно, что когда генеративный ИИ обучается на неполных данных, он может делать неверные выводы, которые закрепляют предвзятость в обществе. Но ИИ также может помочь улучшить справедливость в отношении здоровья, если использовать его стратегически, сказал психолог Адриан Агилера, доктор философии, доцент Калифорнийского университета в Беркли и Калифорнийского университета в Сан-Франциско, который изучает, как технологии могут сократить неравенство в отношении здоровья.

Например, психологи могут предпочесть создавать культурно адаптированные вмешательства в области психического здоровья с нуля, но ресурсы для этого часто ограничены. С гораздо меньшими усилиями большие языковые модели могут помочь поставщикам адаптировать вмешательство для определенной группы населения — не просто перевести протокол на испанский, например, но и адаптировать его для испаноговорящих из латиноамериканских стран, дополнив соответствующими культурными метафорами.

«Это становится более глубокой адаптацией, которую, безусловно, необходимо пересматривать, обновлять и совершенствовать людям, но это позволяет нам создавать эти индивидуальные вмешательства с гораздо меньшими усилиями, чем требовалось в прошлом», — сказала Агилера.

Исследователи из mpathic также изучают, как можно использовать ИИ для определения высокой и низкой культурной настройки во время сеансов терапии, а затем при необходимости предоставлять обратную связь в режиме реального времени.

Исследования и общество

ИИ уже стал большим благом для научно-исследовательского процесса, в том числе посредством генерации кода R, языка программирования, часто используемого для статистического анализа, и для создания экспериментальных стимулов, таких как текстовые или видеовиньетки. Но генеративные инструменты, такие как ChatGPT, также изобретают ложные ссылки (часто называемые галлюцинациями ИИ) и могут даже фальсифицировать данные, сказал Ровира.

Еще один открытый вопрос — в какой степени ИИ может или должен использоваться для написания рукописей. Это может сэкономить время, ускорить научные открытия и сделать науку более доступной для неносителей английского языка, сказал Ровира, но это не лишено рисков. Журналы могут требовать раскрытия информации, когда ИИ используется для написания рукописей, но психология как область должна также учитывать, какая степень генеративного использования ИИ приемлема на любом этапе исследовательского процесса (Tay, A., Nature Index , 17 августа 2021 г.)

«Этот взрыв рукописей может разрушить систему рецензирования, какой мы ее знаем», — сказал Ровира. «Итак, какова наша роль как сообщества профессионалов в определении пределов возможностей ИИ для этих задач?»

Ровира и другие исследователи человеческого фактора также задают новые вопросы о взаимодействии человека и технологий, которые могут оказаться критически важными для безопасного использования ИИ. Например, прошлые исследования показывают, что людей с лучшей рабочей памятью и контролем внимания, как правило, сложнее обмануть, когда автоматизация дает сбой ( Proceedings of the Human Factors and Ergonomics Society Annual Meeting , Vol. 63, No. 1, 2019 ). Сохраняется ли эта тенденция для агентов ИИ, например, когда ChatGPT предоставляет поддельные ссылки? В другом направлении исследований Ровира и ее коллеги изучают, доверяют ли люди агентам ИИ чаще, когда они соблюдают хороший социальный этикет.

«Людям нужно оставаться вовлеченными в процесс принятия решений, что может быть сложно, когда эти системы работают невероятно быстро и гладко», — сказала она. Психологи, занимающиеся человеческим фактором, могут помочь структурировать взаимодействие человека и ИИ таким образом, чтобы люди оставались в курсе событий и предоставляли контекст в целях безопасности.

Прежде чем использовать инструменты ИИ в сфере охраны психического здоровья и за ее пределами, психологи обязаны смотреть дальше маркетингового языка и критически оценивать каждый продукт, сказал Беренд. Они также могут помочь сформировать этические принципы развития, установленные государственными регулирующими органами и надзорными организациями, такие как сбор минимально необходимого объема данных и обеспечение прозрачности в отношении того, как именно они будут использоваться, сказал Агилера.

«Все это движется так быстро, что регулирование должно быть итеративным процессом», — сказал он. «Но наличие базовых принципов может, по крайней мере, обеспечить некоторые защитные ограждения».

Было бы глупо игнорировать опасности, которые может представлять ИИ, если его использовать с плохими намерениями. Алгоритмы социальных сетей уже манипулируют нами очень персонализированным образом, сказал Лакстон, и подобные данные могут использоваться для нанесения ущерба репутации и психологической манипуляции. Различия в том, кто имеет доступ к ИИ и контролирует его, также могут вызвать проблемы в обществе, сказал он. Он надеется, что эти истины не только не станут сдерживающим фактором, но и побудят психологов принять участие.

«Изменения приносят беспокойство, и критически относиться к ним крайне важно», — сказала Агилера. «Но революция ИИ происходит, поэтому давайте вмешаемся и попытаемся направить события в направлении, которое будет к лучшему, а не к худшему».