언론인 연구모임

[잡다한 Ai 연구소]Ai, 상담가를 대체할 수 있을까 - 서은경 연합심리상담교육센터 대표

작성일 26.01.06

본문

언론인 연구모임 '잡다(Job多)한 Ai 연구소'에서는 지난 12월 21일 서은경 연합심리상담교육센터 대표를 초청해 Ai가 상담가를 대체할 수 있을지에 대한 고민을 함께 나누었습니다. 연구모임에서 제공한  글을 공유합니다.


69b68714d423cf1b83c59ceb2ad5646c_1767683065_7632.png

<Ai로 만든 이미지>


이런 상상을 한 번 해볼까요.


각자 자신의 핸드폰 메신저에 있는 친구들과의 단체 채팅방, 알고리즘에 기반해 추천 콘텐츠를 보여주는 인스타그램 ‘돋보기’ 페이지, 그리고 챗GPT와의 최근 10개 대화 내역. 이 셋 중 하나를 다른 사람들 앞에 낱낱이 공개해야 한다면, 어떤 것을 고를까요?


상황을 가정한 질문이지만 고민이 꽤 깊어집니다. 몇년 전까지만 해도 지인들과 나눈 날것 그대로의 대화 내용이 담긴 단체 채팅방, 혹은 내 취향이 고스란히 드러나는 콘텐츠를 공개하는 게 싫다는 사람들이 많았을 수 있습니다. 그런데 최근엔 카카오톡보다 더 남들에게 보여주기 싫은 게 바로 챗GPT와의 대화 내용이라는 사람들이 적지 않습니다. 


이유는 각기 다를테죠. “이런 것도 몰라서 인공지능에게 묻느냐”는 비아냥이 두려울 수도 있지만, 누군가는 인공지능인 AI에게 이렇게 시시콜콜한 내용까지 털어놓고 위로나 공감을 바라는 자신의 모습이 드러나는 것이 싫어서일수도 있겠습니다. AI가 단순히 귀찮은 업무를 대신해주는 것을 넘어서서, 나의 가장 내밀한 이야기까지 들어주고 답을 찾아주는 친구, 혹은 상담가 역할까지 하는 것이 이미 현실입니다.


우리가 살고 있는 이 세계가 복잡해질수록 상담과나 정신과를 찾는 사람들이 많아진다고 합니다. 마음 한 켠이 서서히 병들고 있다는 사실을 자각하는 것조차 쉽지 않은 경우도 있죠. 이유 없이 가라앉은 마음, 스스로도 설명하기 어려운 서러움과 슬픔, 넘실대는 감정의 출처를 찾고 싶을 때 사람들은 자연스럽게 챗GPT를 찾습니다. 마음의 상처를 치유해주는 상담가의 역할, AI가 대신할 수 있게 된 것일까요?

69b68714d423cf1b83c59ceb2ad5646c_1767683343_5517.png


□ 표정과 침묵을 읽어내지 못하는 상담의 한계


문제는 모든 내담자가 자신의 상태를 명확히 설명할 수 있는 것은 아니라는 점입니다. 서은경 대표는 내담자가 자신의 'being', 즉 현재의 감정적, 심리적 상태를 충분히 스스로 인지하지 못할 경우에는 AI 상담이 오히려 위험할 수 있다고 지적합니다. 


이유없이 눈물이 흐르는 등 갑작스러운 신체의 반응을 스스로 설명하지 못하고 그 자체가 위협이나 공포로 받아들여질 경우엔 AI와의 대화가 도움이 되기보다 혼란을 증폭시킬 가능성이 큰 겁니다. 이런 경우 대부분은 왜 이렇게 불안한지, 왜 갑자기 감정이 무너져내렸는지를 스스로도 알지 못합니다. 하지만 AI는 이같은 내담자에게도 상황을 이해하기 위해 추가적인 질문을 던집니다. 하지만 정작 내담자는 그 질문에 답할 마음의 여유조차 없거나, 이유를 모릅니다. 이럴 때 AI의 질문은 되레 생각을 더 꼬이게 하거나 스스로가 더 이상하게 느껴지도록 할 수 있습니다. 지금 느끼는 감정이 불안인지, 분노인지, 슬픔인지조차 명확하지 않기 때문에 '어떤 감정이 드셨나요', '그때 어떤 생각이 들었나요'와 같은 질문이 부담스럽게 느껴지는 것이죠. 상담이 도중에 단절되거나 회피로 이어질 수도 있습니다.


또 트라우마 경험이 있거나 정서 조절 능력이 급격히 흔들리는 경우에도 한계가 분명합니다. 이런 내담자들의 경우 감정이 올라오는 순간을 함께 견디고 안정화시킬 수 있도록 개개인의 특징에 맞는 적절한 개입이 무엇보다 중요합니다. 그러나 AI는 감정의 미세한 변화나 위기 신호를 실시간으로 포착하고 그에 맞춰 개입하는 데에 구조적인 한계를 가질 수밖에 없습니다. 결국 내담자가 스스로 감정을 감당하지 못한 채 더 깊이 자기 안으로 침잠하거나 불안을 혼자 떠안게 되는 상황이 발생할 수 있습니다. 이런 경우 AI의 역할은 내담자를 전문 상담이나 대면 관계로 이끌어 주는 보조 도구로서만, 제한적으로 활용될 필요가 있습니다.


이렇게 AI의 한계가 명확한 이유는 내담자의 비언어적 반응을 읽을 수 없기 때문일 것입니다. 실제 상담에서는 내담자가 하는 말 그 자체에 못지 않게 말을 하는 방식도 굉장히 중요합니다. 말의 속도가 갑자기 느려지거나 빨라지지는 않은지, 목소리가 떨리는지, 눈을 피하는지, 몸을 웅크리는지 등 미묘한 신체 변화들이 내담자의 상태를 판단하는 중요한 단서가 됩니다.


하지만 AI는 내담자가 입력한 텍스트에 반응할 수밖에 없습니다. 차분해보여도 실제로는 감정이 한계에 다다른 상황일 수 있는데, 이런 신호들을 AI가 읽어내기는 역부족이죠. 그 결과 내담자의 상태를 실제보다 안정적으로 판단하거나, 상황의 위험도를 낮게 인식할 가능성도 있습니다. 특히 트라우마 경험이 있는 내담자의 경우에는 더욱 주의가 필요합니다. 말보다 몸과 감정으로 먼저 나타나는 경우가 많기 때문입니다. 서 대표는 이런 경우 감정의 깊이나 위험 신호를 충분히 감지하지 못한 AI는 내담자에게 부담이 되거나 오히려 상태를 악화시킬 수 있다고 했습니다.

69b68714d423cf1b83c59ceb2ad5646c_1767683611_9979.png
69b68714d423cf1b83c59ceb2ad5646c_1767683622_8999.png
 

□ AI, 내 마음을 읽어줘!


잡다한 AI 연구소는 실제 내담자의 상황을 가정해 챗GPT와 상담을 진행해 보았습니다. 각자가 가진 대면 상담의 경험을 살려, 도움을 구하는 내담자 입장에서 대화를 해 본 것입니다.

챗GPT는 감정적인 공감보다 여러 객관적인 기준과 근거를 들어 잘못된 행동이 아니라고 설명해주었습니다. 내담자의 상황을 조금 더 넓은 시각에서 바라볼 수 있도록 도와주면서도 상황을 차분하게 정리한 것입니다. 감정을 단정하거나 평가하지 않았죠. 내담자를 향해 '자기 성찰 능력이 매우 높은 사람'이라고 표현하기도 했습니다. 


이 프롬프트의 작성자는 비슷한 내용으로 실제 대면 상담을 받아본 경험이 있었습니다. 당시 상담사의 반응과 챗GPT의 반응은 일정 부분 비슷한 점이 있었습니다. 내담자에게 "당신은 자신의 감정을 비교적 잘 알고 있으며, 어떤 감정 때문에 힘든지를 스스로 인식하고 있다"며 "보통의 사람들보다 자기 이해 능력이 높은 만큼 회복이 빠를 것이다"라고 북돋아 주었던 것입니다. 이처럼 정서적으로 크게 흔들림을 겪고 있는 사람이 아니라면 챗GPT 상담이 일정 부분 도움이 되겠다는 생각이 들었던 이유입니다. 


69b68714d423cf1b83c59ceb2ad5646c_1767683785_8959.png 


상담 분야에서의 챗GPT 활용의 가장 큰 장점은 아마도 내담자의 소위 ‘Yes, but…’ 반응의 반복에 좀처럼 지치지 않는다는 점일 것입니다. 심리적으로 궁지에 몰린 사람들은 상담가의 어떤 모범적인 답변 앞에서도 “알아요. 그래도요.” “하지만 그래도…”라는 말을 반복하곤 합니다. 아무리 위로와 용기를 건네도 끝없이 이어지는 불안의 소용돌이 앞에서, 상담가 역시 벽에 가로막힌 듯한 무력감을 느낄 수도 있겠죠.


하지만 AI는 다릅니다. 사람이 아니기 때문에 지치지 않고, 같은 말을 수없이 반복해도 언제나 친절하게 답합니다. 하지만 그 대화 속에서 우리가 마주하는 것은 따뜻한 위로라기보다는, 어쩌면 공허한 말들의 반복일지도 모릅니다. AI가 각 내담자의 마음 깊은 곳에 숨어 있는 고유한 강점과, 그 사람만의 존재 이유를 발굴해내지는 못하기 때문이겠지요. 인간 상담가 역시 정해진 프로토콜과 훈련을 통해 배워나가 점차 숙련된 상담가로 성장하지만, 실제 상담에서는 같은 증상을 보이는 내담자라도 각기 다른 해법을 제시한다고 합니다. 상담은 결국 내담자를 알아가고, 또 이해하는 일의 일부이기 때문입니다. 이 때문에 상담가들은 종종 내담자 한 사람 한 사람을 ‘금광’에 비유합니다. 겉으로는 보이지 않지만, 어딘가에는 반드시 빛나는 금이 묻혀 있다는 취지이죠. 상담가는 그 금광의 지형을 살피고, 어디를 파야 할지 함께 고민하는 사람입니다.


주무관청 : 공공누리