지원사업

연구모임활동

[전선으로 가는 길] AI와 정부간 전쟁 - 미국과 EU의 AI 규제를 중심으로

2024.10.07

본문

'슈퍼 선거의 해’에 따른 주요국 선거제도 및 정치문화, ‘두 개의 전쟁’으로 인한 세계 국방전략 변화를 연구하는 국제부 주니어 기자들의 모임인 '전선으로 가는 길'은 9월 26일 모임을 가지고 'AI와 정부간 전쟁'을 주제로 모임을 가졌습니다. 모임 회원이 정리한 최경진 가천대 법대 교수의 강의 내용을 공유합니다.


AI와 정부간 전쟁 - 미국과 EU의 AI 규제를 중심으로 (최경진 가천대 법대 교수)


 최근 AI로 인한 주요 문제들 : 딥페이크, 알고리즘 편향성, 프라이버시 침해, 시장 독점, 무기 자동화 등 

- AI 이제 보편적 기술이 되어버림. 사회 경제 모든 영역에 AI 기술 접목. 기존에 발생하던 문제들이 AI로 더 심화되거나, 아예 AI로 새로 생겨난 문제들이 병존. 

- 특히 AI와 해당 분야의 접목 결과에 따라 나타나는 문제점이 다 달라져서 그게 문제. 이 때문에 AI에 대한 공통된 개념도 없고, 필요한 경계 수준에 대한 합의도 없음. 어떤 AI를 논의할지 세분화 하는 게 중요. 가령 북한 재래식 무기+성능별로 안 좋은 AI가 성능 좋은 AI보다 훨씬 위험할 수 있음.


 규제적 쟁점: 지적재산권 문제(생성형 AI), 프라이버시, 딥페이크 음란물, 차별과 편향성(초반에는 핫한 이슈였는데 지금은 덜한 이슈. 딥페이크를 활용한 심각한 범죄와 비교했을 때 당장 가시적 피해가 있는 것은 아니므로), 피싱, 가짜뉴스(특히 올해 전세계 선거와 결합)


 독점 : 현재로선 쓸만한 AI가 많이 없음. 구글/메타/오픈AI+MS의 삼파전. 특히 AI 독점 문제는 플랫폼 독점보다 훨씬 심각한 영향 가져올 수 있음. AI 기술이 모든 분야의 ‘근간’이 될 수 있기 때문. 

- 이 때문에 소비자 선택권 문제도 사회 문제화 가능. 우리가 약관을 일일이 확인하고 사용하고 있지 않기 때문에, 추후 이로 인한 문제도 발생 가능.

- 특히 AI가 내놓는 결과물에 대한 사람들의 신뢰성은 네이버, 구글과 같은 포털 및 플랫폼보다도 훨씬 더 높음. 가령 포털과 달리 사람들은 생성형 AI가 내놓는 추천, 결과물은 광고로 잘 의심하지 않음. 포털이 여러 결과물 내놓으면 그 중 하나 선택했다면, 이제는 그런 최소한의 사유 과정 조차 없음. 인간성 후퇴


 고령화와 저출산시대에 인간 노동력 대체. 물리적 노동 기계로 대체 가능. 그런데 그렇게 대체된 인력이 반드시 고부가가치 산업으로 이동할 거란 보장 없음. 


 규제 방식 : by 정부/국제기구/민간단체/기업 자율 


 유엔 + OECD 실제적 대응을 위한 노력 중. 

그리고 국제사회 : 최근 AI를 진짜 ‘사회 근간’ 및 ‘국가 경쟁력’을 흔들어 놓을 수 있는 중대한 문제로 받아들이고 있고, AI 경쟁력 관해서 국제 주도권 그룹 내에 들어가려고 국가 행위자들 모두 노력 중. 

OECD는 이미 2019년부터 각종 AI 원칙 만듦. 올해는 LLM 기술 반영해서 개정. G20도 최근 발표. 


 미국의 알고리즘 책임 법안은 의회 바뀔 때마다 등장하는데 통과는 안되고 있는 상황. 특히 처벌법은 보통 주가 관할하기 때문에 연방 차원에서 강력한 규제 및 처벌 법안이 통과될 가능성은 낮아. 연방대법원의 기본 스탠스가 ‘주별 스탠다드’를 존중하라는 것인 데다가, 실제 처벌은 연방이 하지 않는 통치구조의 특성에서 기인. 이 때문에 연방 차원에서는 입법되더라도 빅테크를 중심으로 ‘영향 평가’를 하라는 내용 정도가 될 가능성이 높아.

- 미국의 행정 명령은 원래 대상이 공공임. 민간영역 X. 근데 공공에 적용되다 보면 민간영역에 직간접적으로 영향을 미칠 수밖에 없어. 내용을 살펴보면 시민적 자유와 권리, 프라이버시권, 딥페이크 범죄 경계, 국가 안보, 일자리 문제, 소비자 보호, 글로벌 리더십, AI 인재 양성 등 다양한 내용들이 포함돼 있어. 특히 중요한 건 ‘관리 기준 표준화 기구’를 만들라는 내용인데, 실제로 Safety Institute 만들어서 규범 체계 만들고 있음.

- 다만 법을 제정하지 않아도 구체적인 규제안들은 마련하고 있어. 또 특이하게 AI와 관련된 프라이버시 이슈는 연방에서 다루고, 저작권 문제 역시 연방법 관할이라 FBI 가 수사함. 아울러 미국의 대중 반도체 규제도 넓게 보면 결국 AI 규제의 일환이라고 볼 수 있고, 틱톡 역시 ‘데이터 전쟁’의 일환이라고 봐야. 틱톡에 수많은 개인정보, 창작물, 새로운 정보들, 전부 AI가 학습할 수 있는 학습물. 사실 최근 네이버 라인과 야후간 갈등도 비슷한 맥락에서 해석할 수 있어. EU처럼 꼭 AI법을 대놓고 만들어야만 규제를 하고 있는 게 아니라, 미국도 실제로는 필요한 규제를 하고 있다는 것.

- 미국의 국제 시장 지배력 또한 미국으로 하여금 EU처럼 규제법을 입법할 유인이 없게 만듦. 꼭 법이 아니라도 미국이 인증 기준을 만들면 결국 다른 나라들도 전부 따라올 수밖에 없기 때문.

- 미국의 인증 기준에 미달하면 해외 시장에 판매가 불가능해지고, 미국보다 더 엄격히 규제했다가는 다른 기업들은 한창 서비스를 판매하는데, 우리나라 제품만 세일링이 불가능해지는, 평등권 위반 문제가 발생할 수 있음. 이 때문에 우리나라에서도 추후 AI 규제 입법시 미국과의 ‘상호호환성’이 매우 중요.


 EU AI법 : 현재 전세계 유일한 AI 규제 법안. 적합성 평가제도 입법화. 그런데 미국과 달리 EU가 규제 중심으로 가는 배경에는 사실 EU의 AI 기업들이 리스트랄 외에는 별다른 경쟁력이 없기 때문도 있음. 이번에 입법된 법은 명확성 원칙이 결여됐다는 지적이 많아. 내가 적용 대상인지 아닌지 판단하기 어렵고, 그래서 결국 법의 영향력이 떨어질 수밖에 없음. 

- 아울러 미국 빅테크들은 EU AI법의 규제 기준을 적용해도 다른 기업들에 비하면 준수 정도가 상당히 높음. 그래서 규제를 만드는게 오히려 다른 기업들의 혁신 진입장벽을 높임으로써 빅테크들한텐 호재로 작용할 수도 있어. 오픈AI 같은 경우 샘 올트먼이 계속해서 각국이 AI 규제 도입해야 한다고 주장하고 있지 않나.

- EU의 대응에서 눈여겨볼 만한 점은 EU집행위 내에 인문, 사회, 법학 등 정책 전문가들 외에 진짜 기술 전문가들로 구성된 AI office를 설치했다는 점. 현재 인공지능 기술을 정확히 이해해야 제대로 된 규제를 만들 수 있음.

 

 영국의 경우에는 모든 AI를 규제하는 게 아니라 가장 최첨단에 고성능, 그리고 실제 위험성이 있다고 보여지는 모델에 한정해 규제 작업. 영국 역시 미국과 비슷하게 반드시 입법할 필요는 없으며, 안정성 평가체계 인증기준을 마련하자는 정도의 스탠스.


 유엔이 AI 규제 관련해 추천하고 있는 규범들에도 ‘전문가 중심 패널’ ‘국제사회간 상호호환성’이 들어가 있어. 가령 AI summit이 지금 영국, 한국, 프랑스 순서로 열렸는데 사실 선언문을 보면 별 내용은 없지만, 국제사회가 계속 합의를 해나가고 있다는 게 중요. 


 한국은 우선은 AI 혁신 지원할 수 있는 체계를 마련하는 게 급선무고, 역시 미,영, EU와 상호호환되는 프레임워크를 만드는 게 중요함. 비용을 지불하고서라도 이들과의 공동 연구에 참가해야 함. AI와 관련된 여러 국제기구 만들어지고 있는데, 이런데 단순 참여 정도가 아니라 ‘주도’할 수 있어야 주도그룹으로 나아갈 수 있음. 우리나라가 현재 AI 기술에 있어선 굉장히 애매한 위치. 미>중>>>넘사벽>>프랑스(리스트랄)>3등그룹(일본 캐나다 한국 영국 독일 싱가폴...) 일단 3등 그룹서 선두로 치고 올라가야 하는데, 그러려면 국제기구 옵저버가 아니라 리드그룹에 들어가야 함. 한국이 글로벌 규제 프레임웍의 아시아 중심이 돼야 함. AI 서비스가 출시되면 안전성 평가해서 글로벌/지역시장에 내놓을지 걸러야 하는데, 미국이 전세계 기술을 다 평가할 순 없으니까, 그 틈을 우리가 이용해서 미국과 호환되는 평가기관을 만들어서 아시아의 허브로 거듭나야 하는 것. AI 기업들 유치하기 위해 클라우드 지원도 해주고. 영국과 일본이 지금 보면 그러한 선두를 차지하고 싶어하는 것 같음.

- 또 리더그룹과 ‘협업’해야. 우리나라 kf15 전투기 만들어서 수출하는데 이거 미국 지근거리에서 봐서 그런거. 오픈AI 이런데서 하나라도 배워오기 위해 노력해야 함. 정부가 국제 공동연구 하는 건 바람직한데, 진짜 실현가능한 리더그룹들을 따라서 자꾸 해야 됨.


 AI 규제시 세분화의 중요성 : 인공지능은 굉장히 전략적이고 입체적으로 접근해야 됨. 특히 군사, 의료, 선거 등 어떤 분야에 접목되느냐에 따라 그 양태가 완전히 달라지기 때문. 가령 사람들은 병원 치료과정에 있어 AI가 접목되면 굉장히 위험할 수 있다고 우려하는데, AI를 참고하더라도 결국 수술이나 치료 등에 있어서 최종 결정은 무조건 의료인이 직접 내리도록 의료법상으로 의무화돼 있기 때문에 오히려 위험성이 낮을 수도 있음. 반면 의사가 굉장히 복잡한 수술에서 AI의 도움을 받는 것보다, 의료 전문가가 아닌 일반 국민이 집에서 웨어러블 스마트 건강기기를 착용하고 AI의 조언을 따라 약을 복용하는게 훨씬 위험할 수도 있음. 그렇기 때문에 AI의 규제는 그 무엇보다 ‘맥락 파악’이 중요. 이러한 세부적 가능성을 고려하지 않고 무조건 의료분야 AI 활용을 규제하면 혁신이 제한되는 것. 


 한국에서 발의된 법들을 보면 EU AI법과 상당 부분 비슷한데, 사실 기술 규제에 있어 진짜 중요한 것은 고시, 시행령 하위법령이라 더 지켜봐야 함. 하위 법령 내용을 어떻게 규정하느냐에 따라 EU act 보다 훨씬 강력한 법이 나올 수도 있는 것.

- 한국의 경우 작년에 개인정보보호법 전면 개정. (제37조 2) 자동화된 결정 대응권 : 혁신을 저해하지 않게 합리적 범위에서 조정. 방통위 또한 이용자보호법 만들겠다고 하고 있음. 

- 다만 너무 통제 일변도로 흘러가는 것은 경계해야 함. 지난 대선 때 선거방송이나 홍보물에서 AI를 활용한 경우들이 있었고, 당시 실제로 중앙선거관리위원회가 내놨던 AI 활용 가이드라인도 내용이 좋았음. 그러나 지난해 공직선거법 제82조의 8이 개정되면서 선구 관련 AI 활용이 전면 금지됐음. 규제범위가 너무 넓어지면 홍보물에 포토샵 작업조차 못하는 부작용이 발생할 수 있음.

- AI 활용시 워터마킹을 일률적으로 의무화한다고 생각해봐라. 영화에 게속 ‘이 장면은 AI로 생성했다’는 문구가 뜬다는 것을 상상하고 싶지 않지 않나. 이 때문에 뉴스, 선거홍보물 같이 중대한 작업물의 경우에는 사람도 알아볼 수 있는 워터마크를 표시하게 하되, 기타 다른 자유로운 저작물에 대해선 문제 발생시 그래도 추적만 할 수 있도록 기계만 인식 가능한 ‘머신 레더블’ 코드를 심어놓을 수도 있는 것. 

이처럼 규제시에는 세분화해 접근해야.


 AI 위험성에 대한 평가는 석학들 사이에서도 양분화돼 있음. 발전 속도가 너무 빠르기 때문. 지금 핵심 모델은 LLM인데 언제 또 다른 AI 패러다임이 등장할지 모름. 규제를 주장하는 측에서는 “지금부터 규제 안하면 나중에 통제 불가할 것” VS 반대 측은 “아직 위험이 현실화되지 않았는데 상상에 입각해 규제안을 만들자는 거냐”


 우크라전, 중동전 : 무인 드론의 테스트베드가 되어버림. 미국 최근 무기 연한 다 돼가는게 많음. 그런데 이 같은 옛날 무기에도 최신식 드론, AI 기술을 재적용하면 최첨단 무기로 부활하는 것. 


 미국 반독점 역사 : 정유회사 독과점 -> 통신회사 -> MS 윈도우 브라우저 vs 모질라-> 최근 플랫폼(구글, 메타)

- 눈여겨봐야 할 것이 앞에 둘은 ‘사업 분리’를 통해 독점 방지에 성공했음. MS는 합의를 해서 사업 분리까지는 안 갔지만 익스플로러를 따로 팔기로. 그런데 AI 빅테크의 경우 독점이 애매해질 수 있음. 가령 하나의 AI 모델로 다양한 서비스를 내놓고 있는 오픈AI의 모델의 경우는 무엇을 어떻게 분리할 수 있을지가 쟁점이 될 수 있어. 플랫폼보다 더 어렵다. AI 기술의 독점화, 법리적으로 규제가 쉽지 않을 것.