지원사업

언론인 교육

[언론현장의 법과 윤리3]'AI 저널리즘과 윤리적 취재보도' 강의

2025.04.01

본문

"AI 확산, '사실 검증' 저널리즘 가치 부각…가이드라인 숙지해야"

박아란 고려대 교수 'AI 저널리즘과 윤리적 취재보도' 강의 


김혜란 더벨 기자


"인공지능(AI)이 혐오와 차별을 증폭시키거나 허위정보를 확산하는 윤리적 문제를 일으킬 수 있습니다. 언론의 신속하고 정확한 팩트체크 중요성이 커지고 있습니다."


박아란 고려대학교 미디어대학 교수는 31일 삼성언론재단 주최 '언론현장의 법과 윤리' 마지막 강연을 진행하며 뉴스룸에서 AI 활용을 위해 고민해야 할 윤리적 과제를 소개했다.


박 교수는 "뉴스룸에서 AI 기술을 쓰는 건 막을 수 없고 오히려 잘 쓰도록 권장할 필요가 있다"며 "AI 전문성이 있는 인력을 확보한 편집국과 아닌 편집국 간 생산콘텐츠의 퀄리티 차이가 커질 것"이라고 말했다. 이날 강연은 서울 종로구 광화문빌딩에서 'AI와 저널리즘의 미래'를 주제로 진행됐다.


다만 AI 기술이 일으킬 윤리적 문제에 대해 고민해 보고 대응책을 준비하는 게 필요하다는 게 박 교수의 지적이다. AI가 허위정보 생성에 활용될 수 있기 때문이다. 대표적으로 2023년 미국 펜타곤(국방부) 폭발이 발생했다고 주장하는 사진이 소셜미디어를 중심으로 나돌았을 때, 많은 언론이 이를 받아쓰며 더욱 확산됐던 사례가 있다. 이는 생성형AI가 만든 가짜뉴스였다.


688adfafa770bea83116dab2f7cc3f7c_1743491558_3136.jpg 

<박아란 고려대 교수가 해외 언론의 AI 활용 현황을 설명하고 있다.>


박 교수는 "이럴 때 언론이 바로 검증해 조작된 이미지라는 걸 기사로 내줘야 한다. 언론의 역할이 더 중요해지는 것"이라고 말했다. AI가 허위정보를 확산하는 윤리적 문제를 발생시킬 때 더욱 신속하고 정확하게 사실을 검증하는 저널리즘의 가치가 부각된다는 것이다.


또 AI 기술이 사회의 혐오와 차별, 편견을 심화시킬 수도 있다는 점을 유념해야 한다. 그는 "AI는 기존 데이터를 학습하기 때문에 인간의 편견도 학습한다"며 "2018년 아마존이 AI 채용프로그램을 개발했는데 기존에 남성 직원이 많았다 보니 남성 지원자가 여성 지원자보다 높은 점수를 받는 편향이 일어났다"고 말했다.


이어 "이는 저널리즘에서 AI가 언론인을 전적으로 대체하기 어렵다는 것을 보여준다"며 "인간 편집자의 관리와 피드백이 앞으로도 필요할 것"이라고 강조했다. 특히 생성형 AI는 거짓 정보를 사실인 것처럼 설명하는 '환각현상(Hallucination)'을 일으키기도 하기 때문에 답변을 그대로 기사로 써서는 안 된다.


언론인 스스로도 윤리적 가이드라인을 익히고 실천하는 것이 중요하다. 박 교수는 "언론사 내에서도 AI를 어떻게 쓰고 있는지, 이렇게 쓰는 게 맞는지 점검해 볼 필요가 있다"고 했다. 지난해 박 교수 등이 발표한 '생성형 AI 시대 언론사와 언론인의 역할 재정립' 보고서에 따르면 조사대상 언론인 481명 중 '가이드라인을 알지 못해 상식적인 수준에서 활용했다'는 답변이 73.5%에 달했다.


그러나 인터넷신문윤리위원회는 2023년 12월에 AI가이드라인을 만들었고, 한국일보도 지난해 4월 생성형 AI 활용 준칙을 제정했다. 가이드라인에 따르면 AI 기술은 기사 작성과 배포를 위해 보조수단으로 활용해야 하고 이 경우 AI 기술을 활용했음을 명확하게 표시하고 기사 책임자의 성명을 명시하도록 했다.


또 AI기술이 저널리즘에 스며들면서 언론사의 사업모델도 바뀌고 있다. 시대 흐름에 맞춰 변화하고 새로운 기회를 찾지 않으면 도태되기 마련이다. 노르웨이 일간지 볼덴스 강(Verdens Gang)은 AI 기술을 적극적으로 활용해 다양한 서비스를 출시했다. 기사 요약본을 생성하는 도구, 음성을 텍스트로 변환해주는 애플리케이션, 과거 기사를 분석해 후속 기사 아이디어를 제안하는 AI 툴을 만들기도 했다.


688adfafa770bea83116dab2f7cc3f7c_1743491685_9102.jpg
<노르웨이 일간지 '볼덴스 강'의 AI 활용 서비스>


미국 워싱턴포스트는 생성형 AI 기술을 활용해 자사 콘텐츠를 학습시켜 특정 주제에 대한 독자들의 질문에 챗봇 서비스를 제공한다. 일본 니케이(Nikkei)는 AI 기술로 기사 요약본을 제공하되 유료로 서비스한다.


박 교수는 "기자 개개인이 AI를 잘 쓰는 것도 중요하지만 해외 언론 사례에서 보듯이 혁신적인 툴을 만들거나 방향을 제시하는 언론사 데스크나 경영진의 책임과 역할이 앞으로 더욱 커질 것"이라며 "특히 중소언론사에는 새로운 기회가 될 수 있다"고 말했다.


이어 "AI 기술을 활용하면 이용자 데이터를 확보할 가능성이 열리고 맞춤형 뉴스도 제공할 수 있으며 새로운 수익 모델을 만들 가능성도 있다"고 했다. 예를 들어 AI를 활용하면 독자들의 연령, 체류 시간 등의 세부적인 데이터를 확보할 수 있다. 이는 유료화를 위한 중요한 기반이 된다. 이어 "언론이 포털에 매여 있기보다 AI 기술을 탑재한 자체 플랫폼 만들거나 챗봇을 통해 이용자들에게 포털이나 유튜브를 통하지 않고 직접 기사를 보낼 수 있는 방법을 고민할 시점이 됐다"고 덧붙였다.


688adfafa770bea83116dab2f7cc3f7c_1743492048_0355.jpg
<박아란 고려대 교수가 기자들이 지켜야 할 윤리 보도에 대해 설명하고 있다.>


박 교수는 이날 강의에서 재난 취재·보도에서 언론인이 지켜야 할 윤리 지침에 대해서도 설명했다. 그는 "재난 당사자를 취재할 때는 기자 신분을 명확히 밝히고 촬영 계획과 질문 내용, 인터뷰 시간을 설명해야 한다"며 "또 재난 당사자가 편안하게 느낄 수 있는 장소를 선택하고 인터뷰에서 추가로 하고 싶은 말은 없는지 의사도 물어봐야 한다"고 했다. 트라우마를 유발하는 질문을 하거나 지킬 수 없는 약속을 해서는 안 된다. 


보도 단계에서는 재난당사자와 가족의 신상정보와 사생활을 노출해 피해가 발생하지 않도록 하고, 특히 편견이나 낙인을 찍거나 부정적인 감정을 부추기진 않는지 유의해야 한다. 박 교수는 "회복을 위해 어떤 노력을 하는지, 공동체는 어떤 기여를 하고 있는지 긍정적인 메시지를 담은 후속 보도를 꾸준히 하는 것도 중요하다"고 덧붙였다.


한편, 삼성언론재단은 한국기자협회와 함께 언론인 교육사업을 진행 중이며 올해 첫 프로그램으로 '언론 현장의 법과 윤리'를 주제로 한 3회 강연을 이날 마무리했다. 재단은 기자들의 취재 현장에 도움이 될 수 있는 내용의 교육 프로그램을 지속적으로 마련해 연말까지 진행할 예정이다. 4월 8일과 15일에는 오세욱 한국언론진흥재단 책임연구위원의 '생성AI를 활용한 기사 쓰기' 강의가 예정돼 있다.