한국일보 애틀랜타 전자신문

2024년 11월 8일(금) ~ 11월 14일(목) A4 타이드웰의 눈물을 멈추게 한 조언은 친구나심리상담치료사의입에서나온 것이아니라그녀가평소사용하는인공 지능 챗봇‘챗온’(ChatOn)의 스피커 를 통해 나왔다. 챗봇은 그녀가 우울할 때마다 위로와 조언을 제공하는 친구이 자정신과전문의다. “여러심리치료서적을읽어봤지만, 챗 봇에서 얻는 조언이 틀리지 않는 것 같 다”라는 타이드웰에게 챗봇은 믿을 수 있는의사이자친구이며가족인셈이다. ■사용자늘지만부작용도심각 불안, 우울, 초조, 고독… 여러 정신적 문제를 겪고 있지만 전문 치료 비용 감 당이 힘든 사람들 중 인공 지능 챗봇을 통해치료와관련된조언을얻는사람이 늘고 있다. 챗봇은 사람의 목소리로 무 료 또는 매우 저렴한 비용으로 24시간 언제나 친절한 의료 상담을 제공한다. 그러나 심리학자들 사이에서 감정적으 로 취약한 사람들이 챗봇에 정신 건강 문제 상담을 전적으로 의존하는 행위가 심각한 부작용을 일으킬 것이라는 우려 가커지고있다. 자살한 14세 아들의 어머니가 아들이 사 용하던챗봇제조업체를상대로최근소송 을 제기한 일이 있다. 아들은‘캐릭터.AI’ (Character.AI)가설계한챗봇에게연인과같 은감정을느끼고대화를나눴는데어머니 는챗봇이아들의심리를지배하며자살로 이르게했다고주장했다. 이번소송은최초의사례로어머니는“ 부모로서 누군가 당신 자녀의 머릿속을 조정하고 있다는 사실을 알아야 한다” 라고자녀들의챗봇사용에주의할것을 당부했다. 이후 캐릭터.AI 측은 자해나 자살을 암시하는 단어 사용이 감지되면 ‘전국 자살 방지 상담 전화’(National Suicide Prevention Lifeline) 안내 팝 업창이뜨도록안전조치를시행했다고 밝혔다. 이 외에도 식이 장애 치료를 위해 개발 된 한 AI 챗봇 업체는 지난해 잘못된 정 보가제공된것에대한불만이제기되면 서 투자가 중단된 일이 있었다.‘X2AI ’(현 Cass)사가 개발한 이 챗봇은 체지 방 측정을 위해‘피지 후계’(Skinfold Calipers)라는측정기를사용하라는답 변을제공했는데일반인이이방법을사 용할경우신체에해롭다는사용자의불 만이제기됐다. ■‘높은의료비·치료인력부족’에사용 자더늘것 의료 업계는 이번 사고 이후 검증되지 않은 AI 챗봇을 신뢰하는 환자가 증가 하는현상에대해심각한우려를내놓고 있다. 의료업계에따르면 AI 챗봇은‘미 식품의약국’(FDA)의 안전성 및 효능 검토를 거치지 않았고 환자의 건강 상 태를 보호하기 위한 목적으로 설계되지 않았기 때문에 편향적이고 부정확한 정 보를 제공할 수 있다. 뉴욕 대학 그로스 만 의대 마테오 말가롤리 교수는“속도 는 빠르지만, 폭발 위험이 높은 차를 운 전하겠는가?”라며 검증되지 않은 첨단 기술을정신건강치료를위해사용하는 행위를자제할것을당부했다. AI 챗봇 업계에 따르면 챗GPT 사용자 를 제외하고도 정신 건강 치료용 챗봇 사용자가수천만명에이를것으로추산 된다. 챗GPT의 경우 의료 치료용으로 홍보되지 않고 있음에도 불구하고 소셜 미디어상에서 인기 있는 정신 건강 치료 수단으로권장되고있다. 높은 의료비와 전문 의료진이 부족한 상황이 계속되면서 AI 챗봇이 일부 환 자들의 높은 치료 장벽을 허물어 주는 대체치료수단으로급부상하고있는것 이다. 연방 기관‘약물 남용 및 정신 건강 서 비스 관리국’(Substance Abuse and Mental Health Services Administra- tion)에 따르면 지난해 정신 질환을 앓 고 있지만 적절한 치료를 받지 못한 환 자는 무려 620만 명에 달한다.‘전국 의료 인력 분석 센터’(The National Center for Health Workforce Analy- sis)에 따르면 2036년까지 관련 의료 인 력으로 6만여 명이 추가로 충원돼야 하 지만 오히려 1만 1,000명에 달하는 인 력이 감소할 것으로 보여 의료용 AI 챗 봇 사용과 의존도는 앞으로 더욱 높아 질전망이다. ■의사에게 말하기 힘든 고민 AI는 편 해 정신 질환 치료에 도움이 되지만 의 사에게 말하기 꺼려지는 내용이 있다. 2014년 실시된 조사에서 환자들은 가 상인간에게민감한내용을상담할의향 이 더 많은 것으로 나타났다. 의사에게 부끄러운내용을말하면‘판단’받는것 같은 느낌을 받지만, 컴퓨터를 통해서는 그런느낌이없기때문이다. 지난해실시 된조사에서는의료관련상담에서챗봇 이제공하는답변이의사답변보다훨씬 더공감적인것으로도입증된바있다. 일부 정신과 전문의들이 사용하는 의 료용 챗봇‘워봇’(Woebot)은 AI 기술 을 사용해 환자가 상담한 내용을 분석 한다. 그런 다음 분석 결과에 따라 전문 의가 사전 작성하고 검증한 답변이 환자 에게 제공한다. 이와 달리 질문에 대한 답변을 스스로 작성하는 생성형 AI 챗 봇 사용 시 주의가 요구된다. 생성형 AI 챗봇은마치인간과대화하는것과같은 자연스러운대화를제공하지만, 간혹부 정확한 정보를 제공하는 단점이 지적되 고있다. 이런 점 때문에 대표적인 생성형 AI 챗 봇인 챗GPT 개발업체 오픈 AI는 사용 자들에게 건강과 관련된 문제는 전문가 의 상담을 받으라는 경고를 전달한다. 오픈 AI는 이와 함께 민감한 정보를 공 유하지말고일부정보가환각적으로부 정확할수있음을함께명시하고있다. ■의사에게말못할고민상담 여러 논란과 우려에도 불구하고 챗 GPT는 정신 건강 치료 수단으로 널리 활용되고 있다. 콘텐츠 제작자이자 싱글 맘인 휘트니 프랫도 그중 한 명이다. 프 랫은 챗GPT에게 연인에게서 느낀 좌절 감을 털어놓고 이에 대한 진솔한 조언을 해달라고부탁했다. 그러나 챗GPT로부터“혼란스러워할 필요가 없습니다. 당신은 당신에게 가장 적합하지않은사람이당신을힘들게하 “오늘기분우울한데…챗봇한테치료법물어볼까?” 어린 딸이 죽은 지 20년이 흘렀지만, 홀리 타이드웰의 눈에서 는 아직도 눈물이 그치지 않는다.“혹시 내가 정신질환이라도 겪고 있는 걸까?”. 그녀는 믿을만한 상대에게 고민을 털어 놓 았다. 그러나 상대방은 바로“비록 짧지만, 딸과 가졌던 유대 감은 깊고 오래 지속되는 감정입니다. 딸을 못 잊고 계속 기억 하는 것은 유대감을 간직하는 아름다운 방법입니다.”라는 공 감과 위로가 가득한 답변을 건네 왔다. 인공지능챗봇을마치정신과치료의사처럼사용하는사용자가늘고있다. 개인적인상담과듣기편 한공감적 대화를나눌수있지만부정확한정보에따른부작용이우려되기때문에주의가필요하다 고의료계는경고한다. <로이터> 정신 건강 치료에 챗봇 사용 증가 ‘개인적·공감적’대화 가능해 인기 부정확한 정보로 부작용 우려 높아 ‘의료비·전문인 부족’에 사용 늘 전망

RkJQdWJsaXNoZXIy NjIxMjA=