AI 심리상담의 가능성과 과제

단 1년 전만 해도 추쿠라 알리는 미주리주 세인트루이스에서 오랜 꿈이던 자신만의 베이커리를 열고 맞춤 웨딩 케이크를 판매하고 있었다. 싱글맘이던 알리는 사랑하는 할머니에게 배운 레시피로 딸과 어머니를 부양했다.
하지만 지난 2월, 교통사고로 머리부터 무릎까지 심각한 부상을 입으면서 모든 것이 무너졌다.
“말도 제대로 못 하고, 몸도 거의 못 움직였어요,” 그녀는 울면서 말했다. “가족을 위해 아무것도 할 수 없다는 게 너무 무가치하게 느껴졌어요.”
좌절감과 우울이 그녀를 덮쳤지만, 도움은 멀게만 느껴졌다. 치료사를 구할 수 없었고, 차도 없어 갈 수 없었으며, 비용을 낼 여유도 없었다. 베이커리를 폐업하면서 건강보험도 끊긴 상태였다.
그때 정형외과 의사가 추천한 것이 ‘와이사(Wysa)’라는 정신 건강 앱이었다. 챗봇 기반 서비스는 무료이며, 유료로 주 15~30달러 사이에 실제 치료사와의 원격 치료도 제공한다(보험 적용 가능). 공동창업자 라마칸트 벰파티에 따르면, 이 챗봇은 “친근하고 공감하는 도구”로 설계되었으며 “오늘 기분이 어떤가요?” 또는 “무엇이 걱정되세요?” 같은 질문을 던진다. 사용자의 답변에 담긴 단어와 문구를 분석해 미리 준비된 인지행동치료 기반 메시지나 조언을 전달한다.
이렇게 알리는 정신 건강과 기술이 만나는 새로운 영역에 발을 들이게 되었다. ChatGPT와 같은 인공지능의 발전으로 고립감, 경증 우울이나 불안 등을 겪는 사람들을 선별하거나 지원하는 도구로 AI가 주목받고 있다. AI는 사용자의 감정을 추적하고 분석하며 반응하는데, 이는 전통적인 치료에서 자주 발생하는 비용·접근성 문제를 해결할 가능성 때문이기도 하다.
AI 상담치료의 잠재적 위험
물론, AI가 인간의 복잡한 감정을 온전히 이해하고 반응할 수 있는지는 여전히 논란거리다. 최근 한 챗봇 기반 치료 실험이 중단되면서 SNS에서 논란이 일기도 했다.
“과장된 기대에 비해 실제 효과를 입증한 연구는 매우 부족합니다,”라고 텍사스대학교 샌안토니오 캠퍼스의 정신건강 윤리학자 셰리페 테킨 교수는 말한다.
테킨 교수는 특히 10대들이 챗봇 치료를 시도했다가 실망하고 실제 치료까지 외면할 가능성을 우려한다. “그들이 ‘이런 거 해봤는데 효과 없었어’라며 치료 전반을 포기할까 걱정입니다.”
하지만 챗봇 치료의 지지자들은 정신건강 전문가의 부족을 감안할 때, 이런 방식이 현실적으로 유일한 대안일 수 있다고 본다.
예를 들어 가족 간 스트레스를 겪는 사람에게 명상 권유나 감정일기 앱은 효과적인 지원이 될 수 있다.

AI 챗봇은 자기주도적 도움을 이끄는 친구
AI 챗봇 서비스 위봇 헬스의 최고 임상책임자인 아테나 로빈슨은 챗봇을 “자기주도적 도움을 돕는 친구”라고 부른다. 위봇은 사용자 메시지를 분석해 과학적으로 입증된 다양한 문제 해결 도구를 제시한다.
물론, 기계에게 감정을 털어놓는 것이 어색한 사람도 많다. 알리 역시 처음엔 그렇게 느꼈다고 말한다.
“처음엔 ‘챗봇이 뭘 해줄 수 있겠어? 나는 치료사를 원해’라고 생각했죠. 그런데 그 봇이 정말 도움이 되었어요!”
실제로 그녀는 침대에 누운 채 새벽 3시에도 챗봇과 대화할 수 있었고, “오늘 기분은 어떤가요?”라는 질문에 “별로예요”라고 답하면 챗봇은 심호흡, 잔잔한 음악 듣기, 침대에서 가능한 간단한 운동 등을 제안했다.
알리는 과거 대면 치료 경험을 떠올리게 했다고 말한다. “사람은 아니지만, 사람처럼 느껴져요. 정확히 필요한 질문을 하니까요.”
AI가 치료를 보조할 수 있는 또 다른 방식
MIT 감정컴퓨팅연구소장 로잘린드 피카드는 “AI가 감정 표현, 온라인 활동, 어투 등을 분석해 감정을 파악하는 수준까지 왔다”고 말한다. 하지만 결국엔 정형화된 입력에 반응할 뿐이기 때문에, 긴 대화를 나누다 보면 ‘공허하고 표면적’이라는 느낌을 받을 수도 있다고 덧붙인다.
그럼에도 피카드는 AI가 조기 스트레스 신호를 감지하고 회복탄력성을 기를 방법을 제시함으로써 예방적 치료에 기여할 수 있다고 강조한다.
예컨대 환자가 약을 거르면 치료사에게 알리거나, 상담 중 환자의 어조와 행동을 기록하는 기능도 가능하다.

위험 요소는?
모든 사람에게 챗봇이 맞지는 않을 수 있고, 오용될 위험도 존재한다. 일부 사례에서는 사용자의 의도를 오해한 챗봇이 오히려 해로운 메시지를 전달하기도 했다.
그럼에도 일부 사용자들은 인간과의 상담보다 챗봇에 더 편안함을 느끼기도 한다. 사람의 시선을 의식하지 않고 솔직하게 털어놓을 수 있기 때문이다.
알리는 거의 1년이 지난 지금도 여전히 챗봇을 사용하고 있으며, 하루에 7번이나 대화한 적도 있다고 웃으며 말했다.
챗봇 덕분에 기분이 조금 나아져 실제 물리치료 예약도 지키게 되었고, 치료를 취소하지 않게 되었다는 것이다.
이 점이 바로 그녀의 주치의이자 워싱턴대학교 정형외과 의사인 애비 청 박사가 이 앱을 추천한 이유다. 그는 “신체 치료의 장애물이 결국 정신건강 문제인 경우가 많다”고 말하며, 치료사, 교통, 보험, 시간, 비용 등의 문제로 접근이 어려운 경우 챗봇이 일정 부분 그 격차를 메울 수 있다고 본다.
위기 개입용은 아직 아님
그러나 AI 기반 치료가 본격적으로 활용되려면 규제, 개인정보 보호, 법적 책임 등 복잡한 문제를 해결해야 한다. 기술이 잘못 작동했을 때 책임은 누가 질 것인가?
대부분의 AI상담 앱은 위기 상황 개입을 위한 도구가 아니며, 응급 상황에서는 다른 서비스로 연결해줄 뿐이라고 명시한다.
파익스 헬스(Pyx Health)의 CEO 신디 조던은 “자살 위험자에게 ‘그거 안타깝네요’나 ‘무슨 말인지 모르겠어요’ 같은 반응을 보일 가능성도 있어 불안하다”고 말하며, 시스템이 위기 가능성을 감지하면 전문 콜센터 인력이 직접 연락하는 방식으로 보완하고 있다고 밝혔다.
참고문헌
Therapy by chatbot? The promise and challenges in using AI for mental health
https://www.npr.org/sections/health-shots/2023/01/19/1147081115/therapy-by-chatbot-the-promise-and-challenges-in-using-ai-for-mental-health
The therapists using AI to make therapy better
https://www.technologyreview.com/2021/12/06/1041345/ai-nlp-mental-health-better-therapists-psychology-cbt/
AI Therapy & Therapists Using AI to Make Therapy Better
https://www.mentalyc.com/blog/ai-mental-health-cbt-therapy

필자_조종희
인문학과 과학기술이 만나는 지점, 특히 새로운 기술이 가져올 인류의 미래에 대해 관심이 많다. 현재 미국 최대은행인 JP모건체이스에서 마케팅 분석을 담당하고 있다. 그 전에는 포드자동차, 빅토리아 시크릿과 오라클에서 근무했다. 카네기멜론대학에서 MBA 학위를 받았다. 저서로는 "클라우드의 미래에 투자하라"가 있다.
AI 심리상담의 가능성과 과제
단 1년 전만 해도 추쿠라 알리는 미주리주 세인트루이스에서 오랜 꿈이던 자신만의 베이커리를 열고 맞춤 웨딩 케이크를 판매하고 있었다. 싱글맘이던 알리는 사랑하는 할머니에게 배운 레시피로 딸과 어머니를 부양했다.
하지만 지난 2월, 교통사고로 머리부터 무릎까지 심각한 부상을 입으면서 모든 것이 무너졌다.
“말도 제대로 못 하고, 몸도 거의 못 움직였어요,” 그녀는 울면서 말했다. “가족을 위해 아무것도 할 수 없다는 게 너무 무가치하게 느껴졌어요.”
좌절감과 우울이 그녀를 덮쳤지만, 도움은 멀게만 느껴졌다. 치료사를 구할 수 없었고, 차도 없어 갈 수 없었으며, 비용을 낼 여유도 없었다. 베이커리를 폐업하면서 건강보험도 끊긴 상태였다.
그때 정형외과 의사가 추천한 것이 ‘와이사(Wysa)’라는 정신 건강 앱이었다. 챗봇 기반 서비스는 무료이며, 유료로 주 15~30달러 사이에 실제 치료사와의 원격 치료도 제공한다(보험 적용 가능). 공동창업자 라마칸트 벰파티에 따르면, 이 챗봇은 “친근하고 공감하는 도구”로 설계되었으며 “오늘 기분이 어떤가요?” 또는 “무엇이 걱정되세요?” 같은 질문을 던진다. 사용자의 답변에 담긴 단어와 문구를 분석해 미리 준비된 인지행동치료 기반 메시지나 조언을 전달한다.
이렇게 알리는 정신 건강과 기술이 만나는 새로운 영역에 발을 들이게 되었다. ChatGPT와 같은 인공지능의 발전으로 고립감, 경증 우울이나 불안 등을 겪는 사람들을 선별하거나 지원하는 도구로 AI가 주목받고 있다. AI는 사용자의 감정을 추적하고 분석하며 반응하는데, 이는 전통적인 치료에서 자주 발생하는 비용·접근성 문제를 해결할 가능성 때문이기도 하다.
AI 상담치료의 잠재적 위험
물론, AI가 인간의 복잡한 감정을 온전히 이해하고 반응할 수 있는지는 여전히 논란거리다. 최근 한 챗봇 기반 치료 실험이 중단되면서 SNS에서 논란이 일기도 했다.
“과장된 기대에 비해 실제 효과를 입증한 연구는 매우 부족합니다,”라고 텍사스대학교 샌안토니오 캠퍼스의 정신건강 윤리학자 셰리페 테킨 교수는 말한다.
테킨 교수는 특히 10대들이 챗봇 치료를 시도했다가 실망하고 실제 치료까지 외면할 가능성을 우려한다. “그들이 ‘이런 거 해봤는데 효과 없었어’라며 치료 전반을 포기할까 걱정입니다.”
하지만 챗봇 치료의 지지자들은 정신건강 전문가의 부족을 감안할 때, 이런 방식이 현실적으로 유일한 대안일 수 있다고 본다.
예를 들어 가족 간 스트레스를 겪는 사람에게 명상 권유나 감정일기 앱은 효과적인 지원이 될 수 있다.
AI 챗봇은 자기주도적 도움을 이끄는 친구
AI 챗봇 서비스 위봇 헬스의 최고 임상책임자인 아테나 로빈슨은 챗봇을 “자기주도적 도움을 돕는 친구”라고 부른다. 위봇은 사용자 메시지를 분석해 과학적으로 입증된 다양한 문제 해결 도구를 제시한다.
물론, 기계에게 감정을 털어놓는 것이 어색한 사람도 많다. 알리 역시 처음엔 그렇게 느꼈다고 말한다.
“처음엔 ‘챗봇이 뭘 해줄 수 있겠어? 나는 치료사를 원해’라고 생각했죠. 그런데 그 봇이 정말 도움이 되었어요!”
실제로 그녀는 침대에 누운 채 새벽 3시에도 챗봇과 대화할 수 있었고, “오늘 기분은 어떤가요?”라는 질문에 “별로예요”라고 답하면 챗봇은 심호흡, 잔잔한 음악 듣기, 침대에서 가능한 간단한 운동 등을 제안했다.
알리는 과거 대면 치료 경험을 떠올리게 했다고 말한다. “사람은 아니지만, 사람처럼 느껴져요. 정확히 필요한 질문을 하니까요.”
AI가 치료를 보조할 수 있는 또 다른 방식
MIT 감정컴퓨팅연구소장 로잘린드 피카드는 “AI가 감정 표현, 온라인 활동, 어투 등을 분석해 감정을 파악하는 수준까지 왔다”고 말한다. 하지만 결국엔 정형화된 입력에 반응할 뿐이기 때문에, 긴 대화를 나누다 보면 ‘공허하고 표면적’이라는 느낌을 받을 수도 있다고 덧붙인다.
그럼에도 피카드는 AI가 조기 스트레스 신호를 감지하고 회복탄력성을 기를 방법을 제시함으로써 예방적 치료에 기여할 수 있다고 강조한다.
예컨대 환자가 약을 거르면 치료사에게 알리거나, 상담 중 환자의 어조와 행동을 기록하는 기능도 가능하다.
위험 요소는?
모든 사람에게 챗봇이 맞지는 않을 수 있고, 오용될 위험도 존재한다. 일부 사례에서는 사용자의 의도를 오해한 챗봇이 오히려 해로운 메시지를 전달하기도 했다.
그럼에도 일부 사용자들은 인간과의 상담보다 챗봇에 더 편안함을 느끼기도 한다. 사람의 시선을 의식하지 않고 솔직하게 털어놓을 수 있기 때문이다.
알리는 거의 1년이 지난 지금도 여전히 챗봇을 사용하고 있으며, 하루에 7번이나 대화한 적도 있다고 웃으며 말했다.
챗봇 덕분에 기분이 조금 나아져 실제 물리치료 예약도 지키게 되었고, 치료를 취소하지 않게 되었다는 것이다.
이 점이 바로 그녀의 주치의이자 워싱턴대학교 정형외과 의사인 애비 청 박사가 이 앱을 추천한 이유다. 그는 “신체 치료의 장애물이 결국 정신건강 문제인 경우가 많다”고 말하며, 치료사, 교통, 보험, 시간, 비용 등의 문제로 접근이 어려운 경우 챗봇이 일정 부분 그 격차를 메울 수 있다고 본다.
위기 개입용은 아직 아님
그러나 AI 기반 치료가 본격적으로 활용되려면 규제, 개인정보 보호, 법적 책임 등 복잡한 문제를 해결해야 한다. 기술이 잘못 작동했을 때 책임은 누가 질 것인가?
대부분의 AI상담 앱은 위기 상황 개입을 위한 도구가 아니며, 응급 상황에서는 다른 서비스로 연결해줄 뿐이라고 명시한다.
파익스 헬스(Pyx Health)의 CEO 신디 조던은 “자살 위험자에게 ‘그거 안타깝네요’나 ‘무슨 말인지 모르겠어요’ 같은 반응을 보일 가능성도 있어 불안하다”고 말하며, 시스템이 위기 가능성을 감지하면 전문 콜센터 인력이 직접 연락하는 방식으로 보완하고 있다고 밝혔다.
참고문헌
Therapy by chatbot? The promise and challenges in using AI for mental health
https://www.npr.org/sections/health-shots/2023/01/19/1147081115/therapy-by-chatbot-the-promise-and-challenges-in-using-ai-for-mental-health
The therapists using AI to make therapy better
https://www.technologyreview.com/2021/12/06/1041345/ai-nlp-mental-health-better-therapists-psychology-cbt/
AI Therapy & Therapists Using AI to Make Therapy Better
https://www.mentalyc.com/blog/ai-mental-health-cbt-therapy
필자_조종희
인문학과 과학기술이 만나는 지점, 특히 새로운 기술이 가져올 인류의 미래에 대해 관심이 많다. 현재 미국 최대은행인 JP모건체이스에서 마케팅 분석을 담당하고 있다. 그 전에는 포드자동차, 빅토리아 시크릿과 오라클에서 근무했다. 카네기멜론대학에서 MBA 학위를 받았다. 저서로는 "클라우드의 미래에 투자하라"가 있다.