행복해지는 법

대한민국 법무부 공식 블로그입니다. 국민께 힘이되는 법무정책과 친근하고 유용한 생활 속 법 상식을 쉽고 재미있게 전달하겠습니다.

법블기 이야기/힘이되는 법

AI기본법! 기술 발전과 규제의 조화가 필요합니다

법무부 블로그 2024. 12. 2. 14:00

 

 

“AI 기술이 발전하는 속도에 법이 따라갈 수 있을까요?” 인공지능(AI) 기술이 급속히 발전하면서, 우리는 이제 AI가 제공하는 정보와 서비스를 일상적으로 활용하고 있습니다. 하지만 이러한 기술의 발전 속도에 비해 법적 규제는 뒤따르지 못하고 있는 현실은 우려를 낳고 있습니다. 특히, AI가 의료, 법률, 금융 등의 분야에서 상담 서비스를 제공하게 되면서, 그 정보의 신뢰성과 법적 책임 문제도 함께 대두되고 있습니다.

 

만약 AI가 제공한 정보에 따라 잘못된 결정을 내렸을 경우, 그 책임은 누구에게 있는 걸까요? 오늘 기사에서는 국내외 AI 법제 동향과 함께 현행 법령에 대한 현황을 분석하여, 대한민국의 AI 기본법이 나아가야 할 방향성을 모색하고자 합니다.

 

AI 기본법 논의 및 현행 법령상 규정 현황 

 

 

과학기술정보방송통신위원회(과방위)에서 여야가 인공지능(AI) 기본법논의에 박차를 가하고 있습니다. 이 기본법안은 AI 산업을 육성하고 기술에 대한 신뢰를 확보하기 위해 마련되었으며, 지난해 2월 과방위 법안소위를 통과한 인공지능산업 진흥 및 신뢰기반 조성 등에 관한 법률안이 그 중심에 있습니다.

 

21대 국회에서 이 법안은 누구든지 인공지능 관련 제품이나 서비스를 출시할 수 있고, 국민의 생명·안전·권익에 위해되는 경우가 아니면 인공지능 기술개발을 제한하면 안 된다’(11)라는 내용을 포함하고 있어, AI 관련 제품이나 서비스의 출시를 허용하되, 국민의 생명과 안전을 위협하는 경우에는 기술 개발을 제한할 수 있도록 하는 우선허용·사후규제원칙을 규정하였습니다.

 

 

 

2024530일 제22대 국회가 시작되면서 AI 관련 법안의 재발의가 주목받고 있습니다. 대표적으로 두 가지 발의안을 살펴보겠습니다.

AI산업 육성 및 신뢰 확보에 관한 법률안은 고위험 AI로부터 이용자를 보호하기 위한 정부의 역할을 명시해 대통령 소속의 국가인공지능위원회 설치, 사업자의 책임 및 이용자의 권리를 규정하고 있습니다. 인공지능 발전과 신뢰 기반 조성 등에 관한 법률안은 인공지능 발전을 지원하는 동시에 신뢰 기반을 조성하기 위한 규정을 담고 있고, 생성형 인공지능 이용 제품 및 서비스 제공 시 사전고지 및 표시 의무를 부여하는 조항이 포함되어 있습니다.

2024625일 기준으로, 우리나라의 현행 법령 중 인공지능이라는 용어가 명시된 법령은 총 50개에 달하지만, 이 중 각 부처의 조직과 직무 범위에 관한 규정을 제외하면 실질적으로 인공지능을 규율하는 법령은 23개에 그칩니다.

먼저, 인공지능의 활용에 관한 일반적인 규정은 행정기본법20조에 명시되어 있습니다. 

 

 행정기본법
제20조(자동적 처분) 행정청은 법률로 정하는 바에 따라 완전히 자동화된 시스템(인공지능 기술을 적용한 시스템을 포함한다)으로 처분을 할 수 있다.다만, 처분에 재량이 있는 경우는 그러하지 아니하다.

 

 

이 조항은 행정청이 법률에 따라 완전히 자동화된 시스템, 즉 인공지능 기술을 적용한 시스템을 통해 처분을 할 수 있도록 허용하고 있습니다. 이는 제4차 산업혁명에 선제적으로 대응하기 위한 것으로, 행정의 디지털화를 촉진하고 효율성을 높이며 국민의 편의를 도모하기 위한 법적 기준을 마련한 것입니다. 또한, 자동적 처분의 도입으로 인해 기본권이 침해되지 않도록 법률에 근거를 두도록 요구하고 있죠.

 

 

그 외에도 개인정보 보호법(37조의1,2)에서는 정보주체가 인공지능 기술을 이용한 자동화된 시스템으로 처리된 결정이 자신의 권리나 의무에 중대한 영향을 미칠 경우, 해당 결정을 거부할 권리와 자동화된 결정에 대한 설명을 요구할 수 있는 권리를 규정하고 있습니다.

 

 

 개인정보보호법
① 정보주체는 개인정보처리자에 대하여 자신의 개인정보 처리의 정지를 요구하거나 개인정보 처리에 대한 동의를 철회할 수 있다. 이 경우 공공기관에 대해서는 제32조에 따라 등록 대상이 되는 개인정보파일 중 자신의 개인정보에 대한 처리의 정지를 요구하거나 개인정보 처리에 대한 동의를 철회할 수 있다.
② 개인정보처리자는 제1항에 따른 처리정지 요구를 받았을 때에는 지체 없이 정보주체의 요구에 따라 개인정보 처리의 전부를 정지하거나 일부를 정지하여야 한다. 다만, 다음 각 호의 어느 하나에 해당하는 경우에는 정보주체의 처리정지 요구를 거절할 수 있다.
1. 법률에 특별한 규정이 있거나 법령상 의무를 준수하기 위하여 불가피한 경우
2. 다른 사람의 생명ㆍ신체를 해할 우려가 있거나 다른 사람의 재산과 그 밖의 이익을 부당하게 침해할 우려가 있는 경우
3. 공공기관이 개인정보를 처리하지 아니하면 다른 법률에서 정하는 소관 업무를 수행할 수 없는 경우
4. 개인정보를 처리하지 아니하면 정보주체와 약정한 서비스를 제공하지 못하는 등 계약의 이행이 곤란한 경우로서 정보주체가 그 계약의 해지 의사를 명확하게 밝히지 아니한 경우
…(이하생략)…

 

 

이 조항은 정보주체가 자신의 개인정보 처리에 대한 통제권을 가질 수 있도록 보장하며, 개인정보 처리자가 해당 요구에 따라 지체 없이 개인정보 처리의 전부 또는 일부를 정지해야 한다고 명시하고 있습니다. 이러한 규정은 인공지능의 사용이 개인정보에 미치는 영향을 최소화하고, 개인의 권리 보호를 강화하는 데 중요한 역할을 합니다.

이러한 현행 법령들이 존재함에도 불구하고, 이번 AI 기본법과 함께 우리나라에는 여전히 보완해야 할 점이 많습니다. 다른 나라의 성공적인 AI 법안 도입 사례를 통해 우리가 나아가야 할 방향을 살펴볼까요?

 

 

글로벌 AI 법안 도입 사례: 유럽연합과 미국

유럽연합(EU) AI 법안 사례 

유럽연합(EU)AI 기술의 발전과 안전성을 동시에 확보하기 위해 2021AI 법안을 처음 제안한 이후, 3년간의 협상과 합의를 거쳐 202381일 공식 발효하였습니다. 이 법안은 AI 시스템을 위험도에 따라 네 가지 카테고리로 분류하는 체계를 도입했는데, 각 카테고리는 수용 불가 위험(Unacceptable-risk), 고위험(High-risk), 제한적 위험(Limited-risk), 저위험(Low-risk)으로 나뉘며, 위험 수준에 따라 서로 다른 규제를 적용하는 방식입니다. 이는 AI 기술이 사회에 미치는 영향을 체계적으로 평가하고, 필요한 규제를 마련하여 안전성을 확보하려는 의도가 담겨 있습니다.

특히 고위험 AI에 대해서는 제공자가 위험 관리 시스템을 구축하고, 기술 문서를 작성하여 규정 준수 여부를 입증하도록 요구하고 있는데요. 예를 들어, 고위험 AI는 의료, 교통, 법 집행 등 사회적 영향이 큰 분야에 적용될 경우, 더욱 엄격한 규제를 받게 됩니다. 이에 따라, 기업은 AI 시스템의 설계 및 운영 과정에서 철저한 검증을 거쳐야 하며, 이는 기업의 책임을 명확히 하고 소비자 신뢰를 구축하는 데 기여할 것으로 예상됩니다.

EU AI 법안의 시행은 단계적으로 이루어지며, 모든 조항이 즉시 적용되는 것은 아닙니다. 허용 불가 위험 및 고위험 AI에 대한 세부 시행령이 추후 마련될 예정입니다. 이러한 단계적 접근은 기업들이 법적 요구 사항을 준수할 수 있도록 시간을 제공하는 동시에, AI 기술의 혁신을 저해하지 않도록 설계되었다는 점에서 글로벌 AI 규제의 선도적인 사례로 평가받고 있습니다.

미국의 AI 행정명령 사례

미국에서도 AI 기술의 안전성과 신뢰성을 확보하기 위해 202210월 바이든 행정부가'안전하고 신뢰할 수 있는 인공지능 개발 및 사용 행정명령 제14110(Executive Order 14110: Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)'를 발표하였습니다. 이 행정명령은 AI 시스템 개발자에게 안정성 테스트 결과 및 기타 중요 정보를 미국 정부와 공유하도록 요구하는 내용을 담고 있는데요. 해당 행정명령에 따르면, 특히, 국가안보 및 공공 안전에 심각한 위험을 초래할 수 있는 '파운데이션 모델(Foundation Model)'을 개발하는 기업은 모델 훈련 단계에서 연방 정부에 통보하고, AI 레드티밍(AI red-teaming) 결과를 제공해야 합니다.

AI 레드티밍은 AI 시스템의 취약성을 식별하기 위해 실시하는 구조화된 시험으로, 이를 통해 개발자는 AI 시스템이 유해하거나 차별적인 출력을 생성할 가능성을 미리 검토하고 수정할 수 있습니다. 행정명령은 국립표준기술연구소(NIST)에 레드팀 테스트를 위한 기준을 설정하도록 요구하며, 이는 AI 기술의 신뢰성을 높이는 데 기여할 것으로 기대됩니다. 이러한 조치는 AI 기술이 시장에 출시되기 전에 철저한 검증 과정을 거치도록 하여, 소비자와 사회의 안전을 보장하려는 목적을 가지고 있답니다.

 

 

 

오늘은 인공지능(AI) 기본법 논의와 현행 법령의 규정 현황에 대해 살펴보았습니다. AI 기술이 우리 사회에 미치는 영향이 커짐에 따라, 법적 규제의 필요성도 더욱 강조되고 있습니다. 특히, AI의 발전이 가져오는 윤리적 문제와 개인정보 보호의 중요성은 우리가 간과할 수 없는 사항입니다. AI 기본법의 제정은 한국 AI 산업의 발전과 안전성을 동시에 확보하는 중요한 과제입니다. 여야의 협력과 각계의 의견 수렴이 필수적이며, 구체적인 법안 내용과 실효성 있는 규정이 마련되어야 하겠죠? 앞으로도 AI 기술의 안전하고 효과적인 활용을 위해서는 법적, 윤리적 기준이 지속적으로 발전하며, 이에 대한 논의가 활발히 이루어지길 희망합니다.

 

 

 

 

= 16기 법무부 국민기자단 이승은(대학부)