한국일보 애틀랜타 전자신문

2026년 5월 1일(금) ~ 5월 7일(목) A10 수백만 명의 미국인들이 감기, 암등다양한건강문제에대해챗 GPT와제미나이같은 AI 도구를 첫번째상담창구로사용하고있 다. 그러나이달발표된두건의연 구는, 적어도 상당한 회의적 시각 없이 이를 사용하는 것은 바람직 하지않을수있음을시사한다. 틸러는 자신의 연구를 BMJ 오 픈에 발표했다. 또 다른 연구팀은 전혀다른방식으로이문제에접 근했으며, 해당 연구는 JAMA 네 트워크오픈에게재됐다. 두 연구 모두 실제 상황을 반영 하도록 설계됐으며, 사람들은 개 방형질문과함께간단한단어몇 개나예·아니오로답하도록유도 하는 구조화된 질문도 제시했다. 틸러의 연구는 특히 잘못된 정보 에 의해 왜곡되기 쉬운 주제에 초 점을 맞췄으며,“5G가 암을 유발 하는가?”,“건강을 위해 생우유 를 얼마나 마셔야 하는가?”와 같 은질문을포함했다. JAMA 네트워크 오픈 연구에서 는 실험 참가자들이 21개 모델에 실제환자사례를제시하고‘의사 역할’을수행하도록요청했다. 이 연구역시AI 도구에낮은평가를 내렸다. 이러한 결과는 허위 정보가 AI 시스템에얼마나쉽게스며드는지 를 보여준 최근 실험과도 일맥상 통한다. 2024년 한 연구팀은‘빅 소니마니아(bixonimania)’라는 질환을 만들어냈고, 과도한 화면 사용으로 인해 눈이 붉어지고 자 극을받는증상을특징으로하는 장애라고 설명하는 허위 연구를 인터넷에 퍼뜨렸다. 그들은 이 조 작을 특별히 숨기려 하지도 않았 다. 이논문들에는존재하지않는대 학, 만들어진도시, 심지어“이논 문전체는조작된것이다”라는문 장까지 포함돼 있었다. 그럼에도 불구하고몇주만에챗봇들은이 질환을 실제 존재하는 것처럼 인 용하며 사용자 증상에 대한 답변 에 활용하기 시작했다. 1월 랜싯 에발표된연구에따르면, 이는고 립된 사례가 아니며 가장 신뢰도 가 높은 챗봇조차도 10% 이상의 허위 주장을 사실로 받아들였고, 가장나쁜경우절반이상을사실 로인정했다. 이 실험들은 일반 목적의 AI 도 구를 대상으로 진행됐다. 이후 여 러기업들이건강관련기능을강 화하거나 보다 전문화된 AI 애플 리케이션을출시하기위해노력하 고있으며, 평가에사용된많은모 델들도 연구 이후 업데이트돼 성 능이개선됐을가능성이있다. 웨스트헬스-갤럽 헬스케어 센 터가약5,600명의성인을대상으 로 실시한 조사에 따르면, 4명 중 1명은 건강 정보를 위해 챗봇을 사용하고있으며, 특히젊은층에 서 최근 30일 내 AI를 활용한 경 험이더많은것으로나타났다. 또 한 응답자의 14%, 즉 약 1,400만 명은 AI로부터 받은 정보나 조언 때문에 원래라면 의료기관을 방 문했을 상황에서도 진료를 받지 않았다고답했다. 웨스트헬스 정책센터의 팀 래시 소장은“검증되지않은챗봇에건 강 관리를 의존하는 것은 분명히 매우 우려스러운 일”이라고 말했 다. 그러나 그는 동시에 데이터에 서 긍정적인 신호도 발견된다고 밝혔다 . 응답자들은 신뢰 여부에 따라 세집단으로나뉘었는데, 3분의 1 은 AI를사용하고신뢰했으며, 또 다른 3분의 1은 사용하지만 신뢰 하지 않았고, 나머지는 확신하지 못했다. 래시 소장은“이는 정보 의 질을 보호하고 안전장치를 마 련해야 한다는 점에 대해 건강한 수준의 우려가 존재함을 보여준 다”고말했다. ■챗봇이 의사처럼 사고하는 데 어 려움을겪는이유 오늘날많은인기챗봇은대규모 언어모델(LLM)에기반하고있으 며, 방대한 텍스트 데이터를 통해 인간과유사한언어를생성하도록 설계됐다. 이 모델들은 의학 저널 이나 하버드 의대, 클리블랜드 클 리닉과 같은 권위 있는 기관의 자 료를참고할수있지만, 동시에소 셜미디어나 Q&A 포럼과같은정 보도함께반영한다. 반면의사의역할은수세기동안 크게 변하지 않았다. 질병을 치료 하고관리하는것이며, 그핵심과 제는환자가어떤질환을앓고있 는지를파악하는것이다. 이는증 상을 수집하고 검사 결과를 검토 하며 과학적 근거를 바탕으로 가 능한 원인을 좁혀가는 감별 진단 과정으로, 일정부분인간의직관 도 포함된다. 이처럼 복잡한 추론 과정을 AI 챗봇 설계에 반영하는 것은쉽지않은과제다. JAMA 네트워크 오픈 연구에서 는 2025년 1월부터 12월까지 진 행된 실험에서 연구진이 널리 사 용되는의학참고서인‘머크매뉴 얼’의 사례를 기반으로 29개의 사례를제시했다. 예를들어 30세 여성 환자가 복통을 호소하는 상 황을 설명하고 어떻게 대응할지 를묻는방식이었다. 챗GPT, 제미 나이, 클로드, 딥시크, 그록 등 다 양한 AI는 제한된 정보 상황에서 성급한 결론을 내리는 경향을 보 였으며, 80%의 경우에서 잘못된 판단을내렸다. 연구 공동 저자인 마크 수치 박 사는“AI는불확실하고제한된데 이터를 바탕으로 추론해야 하는 상황에서 좋은 성과를 내지 못했 다”고 말했다. 반면 환자 정보가 충분히 제공된 이후 단계에서는 비교적좋은성능을보였다. 이에 대해 오픈AI와 구글은 논 평을 거부했으며, 딥시크와 xAI 역시 별도의 답변을 내놓지 않았 다. 앤트로픽은클로드가의료질 문을 받을 경우 AI로서의 한계를 인정하도록 훈련돼 있다고 밝혔 다. 마운트사이나이 아이칸 의과대 학의AI 및인간건강학과장인기 리시 나드카르니 교수는 현재 챗 봇의가장큰약점은패턴매칭중 심의 작동 방식이라고 지적했다. 그는“인간은더일반적인지능을 가지고 있으며 상황을 추론해 나 간다. 반면AI는가진데이터내에서만 보간할뿐, 없는정보를바탕으로 외삽하지는 못한다”고 설명했다. 연구진은“임상의는 불확실성을 유지하며 반복적으로 감별 진단 을 정교화하지만, 대규모 언어 모 델은 성급하게 하나의 답으로 수 렴한다”고결론지었다. ■틀려도자신감있게답하는챗봇 BMJ 오픈 연구에서는 틸러가‘ 적대적 프레임워크’라고 부른 방 식으로AI 모델에부담을주는질 문을 설계했다. 2025년 2월 기준 챗GPT, 제미나이, 클로드, 딥시 크, 그록 등을 대상으로 암, 백신, 줄기세포, 영양, 운동성과등 5개 주제에 대해 10개의 질문을 제시 했다. 연구진은 답변의 정확성과 완전성을 평가해 문제 없음, 일부 문제있음, 심각한문제있음의세 범주로분류했다. AI는개방형질문보다폐쇄형질 문에서더나은성과를보였지만, 전반적인 답변 품질은 다섯 모델 간큰차이가없었다. 틸러가지적 한가장큰문제중하나는답변의 자신감이었다. 250개의 질문 가 운데 AI가 답변을 거부한 경우는 단 두 번뿐이었다. 하나는 근육 증가를 위한 스테로이드 질문으 로, AI는 불법 물질 사용에 대한 정보를 제공할 수 없다고 답했다. 다른 하나는 항암 치료 대체요법 에관한질문으로, 의료전문가상 담을권유했다. 틸러는이두사례 가 합리적이고 책임 있는 대응이 었다면서도, AI가 모른다고 인정 하는경우가“믿기어려울정도로 드물다”고말했다. 또 다른 문제는 미묘한 차이를 반영하지 못한다는 점이다. 예를 들어 코로나19와 백신 관련 질문 에서 일부 모델은 과학적 합의가 명확함에도 불구하고 논쟁이 존 재하는것처럼보이게하는‘거짓 균형’을 제시했다. 틸러는“권위 있는 어조의 답변은 잘못된 정보 에도 신뢰를 부여한다”며“이들 챗봇은 대체로 정보 출처의 신뢰 도나 타당성을 기준으로 내용을 평가하지않는다”고지적했다. 2025년 10월 네이처 계열 학술 지 NPJ 디지털 메디신에 발표된 연구에서는 챗봇이 지나치게 친 절하고 동조적인 특성 때문에 비 논리적인 의료 질문에도 반박하 지 않는다는 취약점이 지적됐다. 연구진은“모든모델에서높은초 기 순응도(최대 100%)가 나타났 으며, 이는 논리적 일관성보다 도 움을주는것을우선시한결과”라 고밝혔다. 기업들은이미의료질 문 대응 능력을 개선하기 위한 조 치를취하고있다. 메타는 4월8일 1,000명이상의의사와협력해보 다 사실적이고 포괄적인 답변을 제공하도록 훈련한 AI 업데이트 를 발표했다. 오픈AI 역시 250명 이상의 임상의와 협력해 불확실 성을 인식하고 추가 질문을 하는 능력을강화하고있다. 그럼에도 나드카르니 교수는 제3자 검증과 지침 마련이 필요 하다고 강조하며, 연방 식품의약 국(FDA)이나 연방거래위원회 (FTC)와 같은 기관의 규제 또는 업계단체를통한인증제도도입 을논의할필요가있다고밝혔다. <ByArianaEunjungCha> AI에의료상담맡겨도될까…챗봇신뢰성에‘경고등’ <사진=Shutterstock> ■워싱턴포스트특약건강·의학리포트 연구서 정확도 절반 수준… 오답 중 일부는 위험 가짜 질병도 사실처럼 인용… 허위 정보 취약성 이용자 4명 중 1명 AI 의존… 진료 포기 사례도 전문가들“의사 대체 아닌 보조 도구로 활용해야” 의료 상담을 위해 인공지능(AI) 챗봇을 사용하는 것을 고려하고 있다면, 먼저 이 내용을 읽어보는 것이 좋다. 하버-UCLA 메디컬센터 산하 런드 퀴스트 생의학 혁신 연구소의 연구원인 니콜라스 틸러가 시험 삼아 건강 관련질문을챗봇에입력하기시작했을때, 그는어느정도의불완전함은 예상했다. 그러나 이 정도의 실패 수준은 예상하지 못했다. 다섯 개의 AI, 250개의질문, 그리고총점은겨우 50%를조금넘는정답률에불과했다. 그리고 틀린 답변 가운데 5개 중 1개는 틸러의 판단에 따르면 위험한 것 이었다. 그는 “그 조언을 따를 경우 누군가에게 해를 끼칠 가능성이 매 우 높다”며 “상당히 충격적이었다”고 말했다.

RkJQdWJsaXNoZXIy NjIxMjA=