[디정위][보도자료] 국회 과방위소위 통과 인공지능법안 시민사회 반대 의견서 관련 과기부 답변에 대한 인권시민단체 의견서 과기부에 제출

2023-05-16 62

수    신 : 각 언론사 정치부·사회부 

발    신 : 건강권 실현을 위한 보건의료단체연합, 경제정의실천시민연합, 광주인권지기 활짝, 무상의료운동본부, 민주사회를위한변호사모임 디지털정보위원회, 사단법인 정보인권연구소, 서울YMCA 시민중계실, 언론개혁시민연대, 연구공동체 건강과대안, 전국민주노동조합총연맹, 전국사무금융서비스노동조합, 전북평화와인권연대, 진보네트워크센터, 참여연대, 천주교인권위원회, 홈리스행동
담당 : 진보네트워크센터 희우(02-774-4551)

제    목 : [보도자료] 국회 과방위소위 통과 인공지능법안 시민사회 반대 의견서 관련 과기부 답변에 대한 인권시민단체 반박의견서 과기부에 제출

날    짜 : 2023. 05. 16. (붙임 포함 총 14쪽) 

 

보 도 자 료

국회 과방위소위 통과 인공지능법안 시민사회 반대 의견서 관련 과기부 답변에 대한 인권시민단체 의견서 과기부에 제출

“과기부 답변, 시민사회 우려에 대한 제대로 된 답변으로 볼 수 없어”
“인공지능 기본법 제정하려면 인권과 안전 고려한 보편타당 원칙 및 규제 조치 포함해야

 

  1. 지난 2월 14일 ‘인공지능 산업 육성 및 신뢰기반 조성 등에 관한 법률(이하 인공지능법안)’이 과학기술정보통신방송통신위원회(이하 과방위) 법안 심사소위를 통과했습니다. 인권시민사회단체는 위 인공지능법안의 전면 재검토를 요구하며 지난 3월 2일 국회 과방위에 반대 의견서를 제출한 바 있습니다.
    이에 대해 과학기술정보통신부(이하 과기부)에서 4월 26일 위 의견서에 대한 답변서를 보내온 바, 앞서 의견서를 제출한 16개 인권시민사회단체는 이 과기부 답변서에 대한 의견서를 오늘(5/16) 과기부에 제출하였습니다.

  2. 과기부는 답변서를 통해 △지능정보화기본법과 인공지능법안이 내용상 구별됨 △인공지능법안에 제외규정이 있으므로 인해 다른 규제기관의 작용을 방해하지 않을 것임 △우선허용·사후규제 원칙은 초기시장에 대한 일반론적 조항이며 타 법령에도 유사한 규정이 있음 △고위험 AI 규제 등 법안에 명시되어있지 않은 부분은 추후 대통령령으로 규율할 것 등을 주장하고 있습니다. 하지만 시민사회단체가 앞서 한 차례 의견서를 제출하며 제기한 우려사항들이 전혀 해결되지 않았기에 다시 한 번 의견서를 제출하는 것입니다.  

 

  1. 첫번째 쟁점은 기존에 유사한 내용의 「지능정보화기본법」이 이미 제정되어 있는데 인공지능 산업 진흥을 위하여 인공지능법을 중복 제정할 필요가 있는지에 대한 것입니다. 인권시민사회는 인공지능 산업 진흥 목적으로 기본법을 제정하는 것은 지능정보화기본법과 중복된다는 의견이었습니다. 이에 과기부는 답변서를 통해 해당 인공지능법안이 기존 지능정보화기본법과 내용상 구별된다고 주장하고 있습니다. 그러나 지능정보화기본법과 인공지능법안은 실질적으로 법의 제정목적이 유사할 뿐만 아니라 소관부처가 과기부로 동일합니다.
    또한 지능정보화기본법은 ‘지능정보사회의 구현에 관하여’ 다른 법률에 특별한 규정이 있는 경우를 제외하고 지능정보화기본법을 따른다고 되어있는데, 이 법은 소관 ‘지능정보기술’에 이미 인공지능을 포함하고 있습니다. 그런데 인공지능법안 또한 인공지능에 관하여 인공지능법이 우선 적용되도록 정하고 있으므로, 과기부의 주장은 인권시민단체가 제기한 지능정보화기본법과 내용이 같거나 유사하여 입법의 필요성이 없다는 지적에 대해 납득할 만한 답변이라고 볼 수 없습니다. 뿐만 아니라 만에 하나 이 법안이 통과된다면 수범자인 국민이 어느 법을 우선해야 할지 혼란을 야기할 것이므로 시민사회의 지적에 대한 명쾌한 해답이 될 수 없습니다.

  2. 두번째로,  과기부가 소관하는 인공지능법안이 인공지능 분야의 제도 및 정책 전반에 관한 기본방침 내지 원칙을 폭넓게 소관하면서 다른 규제 기관의 작용을 방해할 우려가 없는지가 문제됩니다. 인권시민단체는 이 법안이 제정되면 인공지능 분야에서 실질적으로 기본법 지위를 보유하면서 인공지능 제품의 안전이나 소비자 보호, 개인정보 보호 및 차별을 소관하는 기존 개별 법령의 해석 및 적용에 있어 지도법 및 기준법 기능을 수행할 가능성이 상당하다고 우려하고 있습니다. 

이에 대해 과기부는 이 법안이 다른 규제기관의 작용을 방해하지 않는다고 주장합니다. 하지만, 인공지능법안이 실질적으로 기본법의 위상을 지니고 있다는 점에서 이는 타당성이 없는 주장입니다. 타 규제기관 역시 개별 법령에 따라 규제 검토 및 도입을 시도할 수 있으나, 인공지능 분야에 속한다면 이 인공지능법안의 원칙과 규정들을 고려하지 않을 수 없습니다.

  1. 세번째로, 이 법안은 인공지능 분야 전반적인 원칙으로 “우선허용·사후규제 원칙”을 제시하고 있다는 점이 특히 문제가 되고 있습니다. 인권시민단체는 현저한 저해 우려가 입증된 경우가 아니라면 어떠한 인공지능 제품도 국내 출시를 제한할 수 없도록 규정한 이 조항이 위험하다고 보고 있습니다. 만약 우리나라가 인공지능 분야의 기본방침 내지 원칙을 정하는 법을 만들려면 산업 진흥 뿐만 아니라 인공지능이 인권과 안전에 미칠 수 있는 영향과 위험성까지 고려할 필요성이 있습니다. 

그러나 과기부는 산업 진흥에 치우쳐 인공지능의 위험성에 대해서는 거의 규제하지 않으면서 ‘세계 최초 인공지능법’을 자임하고 있습니다. 또한 과기부는 다른 법령에 이와 유사한 규정이 있어 문제될 것이 없다는 입장을 보였지만, 백 번 양보하여 타분야에 도입된 포괄적인 네거티브 규제방식의 여타 법규정과 비교하더라도 이 법안은 훨씬 더 허용적인 규정 방식을 취하고 있습니다. 즉 공공의 안전보장, 질서유지, 복리증진을 ‘현저히’ 저해할 우려가 있는 경우에만 예외적으로 규제할 수 있다고 정함으로써 사전적인 규제가 개입될 여지를 더 축소하고 있어, 타법의 유사조항과 비교하는 것은 적절하지 않습니다.

  1. 네번째 쟁점은 안전과 인권에 위험한 영향을 미치는 인공지능(일명 ‘고위험 인공지능’)으로부터 국민을 보호하는 규제가 적절하게 마련되어 있는지에 대한 것입니다. 과기부는 이 법률로 고위험 인공지능 규율이 부족할 경우 ‘대통령령을 통해 규율’하겠다는 입장입니다. 그러나 인공지능 분야를 규율하려면 마땅히 법률적 차원에서 감독·관리 체계와 피해 구제 절차를 마련해야 한다는 것이 인권시민단체의 의견입니다. 

하지만 인공지능법안은 고위험 영역 인공지능에 대한 분류 기준이 모호하고 자의적이며, 고위험 영역 인공지능에 대해 부과하고 있는 의무 역시 ‘고위험이라는 사실을 고지’하고 ‘신뢰성 확보 방안을 마련’하라는 정도에 그치고 있습니다. 또한 의무 위반시 제재조치 등 강제성을 확보할 수 있는 근거 규정도 없고, 독립된 기구에 의한 관리·감독에 관한 규정도 마련하고 있지 않습니다. 결국 인공지능법안은 고위험 인공지능에 대해 규제할 장치를 마련하지 않았으면서 그 소관을 과기부가 하도록 형식적 열거만 하고 있는 것입니다.

  1. 인공지능 분야에서 기본법의 지위를 갖는 법률을 제정한다면, 인공지능 산업의 진흥만이 아니라 인공지능이 인권 또는 안전에 미칠 수 있는 위험성에 대한 실효성 있는 통제와 관리를 염두에 둔 보다 보편타당한 원칙이 제시되어야 합니다. 또한 구체적인 규제 조치에 대한 근거 규정 역시 포함해야 할 것입니다. 최근 유럽연합, 미국, 캐나다, 영국 등 세계 각국에서 제정되고 있는 인공지능 법률들 역시 고위험 인공지능을 금지하거나 의무를 부과하는 내용을 담고 있습니다. 

인권시민단체는 인공지능법안이 인공지능이 인권과 안전에 미칠 위험성을 등한시하고, 인공지능 산업에 대한 규제를 무분별하게 완화하는 내용으로 이루어져 있다는 점에서 여전히 깊은 우려를 표합니다. 과기부를 비롯한 정부와 국회는 인공지능 산업의 진흥만을 위한 인공지능 기본법을 전면적으로 재검토하고 인공지능의 위험으로부터 국민의 안전과 기본권을 보호할 수 있는 국제적 수준의 인공지능법을 마련해야 할 것입니다. 끝.

 

▣ 붙임 : 인공지능법안 관련 과기부 답변에 대한 인권시민단체 의견

인공지능법안 관련 과기부 답변에 대한 인권시민단체 의견

  1. 5. 16. 

건강권 실현을 위한 보건의료단체연합, 경제정의실천시민연합, 광주인권지기 활짝, 무상의료운동본부, 민주사회를위한변호사모임 디지털정보위원회, 사단법인 정보인권연구소, 서울YMCA 시민중계실, 언론개혁시민연대, 연구공동체 건강과대안, 전국민주노동조합총연맹, 전국사무금융서비스노동조합, 전북평화와인권연대, 진보네트워크센터, 참여연대, 천주교인권위원회, 홈리스행동

 

  1.   들어가며

 

  지난 2023. 2. 14.경 인공지능산업 육성 및 신뢰기반 조성 등에 관한 법률안(이하 ‘인공지능법안’이라고 합니다)이 국회 과학기술정보방송통신위원회 정보통신방송법안심사소위를 통과하였습니다.

 

  위 인공지능법안은 인공지능산업에 대한 안전과 인권 보장 규제를 완화하고 인공지능 분야에 대한 소관부처를 실질적으로 과학기술정보통신부가 독점하도록 하는 내용으로, 실질적으로 인공지능 분야의 기본법의 위상을 지니고 있으나, 위 인공지능법안에 대하여 사회적 논의나 의견수렴의 과정은 없었습니다.

 

  이에 15개 시민사회단체는 2023. 3. 2. 위 인공지능법안 제정 시도에 우려를 표명하고, 법안 제정에 반대하는 취지의 의견을 담은 의견서를 국회 과학기술정보방송통신위원회 및 관계 부처에 제출한바 있습니다.

 

  그런데 과학기술정보통신부(담당 : 인공지능기반정책과)는 2023. 4. 26.자로 위 의견서에 대한 답변서를 보내왔는바, 앞서 의견서를 제출한 15개 시민사회단체는 아래와 같이 과기부 답변서에 대한 검토 의견을 개진하고자 합니다.

 

  1.   과기부 답변에 대한 의견 

 

가.   인공지능법의 중복제정이 아니라는 답변에 대하여

 

  과기부는, 지능정보화기본법은 지능정보사회 구현을 위한 정책의 수립 및 추진에 필요한 사항을 규율하기 위한 법률로, 개별 지능정보기술에 관한 특별법(데이터산업법, 클라우드컴퓨팅법, 전기통신사업법) 등 분야별 특수성을 반영한 특별법이 이미 제정·시행 중에 있고, 인공지능법안 역시 인공지능에 특화된 사항을 규율하고 있다고 하면서, 인공지능법안이 지능정보화기본법과 내용상 구별된다는 취지로 답변하였습니다.

 

  그러나 위 과기부의 답변과 달리 인공지능법안은 지능정보화기본법과 구체적인 규율 내용은 물론 법의 제정목적이 동일 내지 유사할 뿐 아니라, 소관부처(과학기술정보통신부) 역시 동일합니다.

 

  지능정보화 기본법의 목적인 ‘지능정보사회의 구현’에는 인공지능 관련 분야를 발전시키고 육성시킨다는 의미가 포함되어 있는데(지능정보화기본법 제2조 제6호), 이는 인공지능산업을 진흥하고, 그 신뢰기반을 조성한다는 인공지능법안의 제정 목적과 실질적으로 동일합니다(법안 제1조 참조).

 

  과기부의 설명에 의하더라도, 인공지능법안상 ‘인공지능’은 지능정보화기본법상 ‘지능정보기술’에 포함되는 하위 범주로 볼 수 있는데, 지능정보화기본법에서는 이미 지능정보기술의 종합계획, 실행계획 뿐만 아니라, 부문별 추진계획을 수립하도록 정하고 있는바(지능정보화기본법 제13조), 이는 인공지능법안상 인공지능 기본계획(제5조)과 중복되는 내용이라 할 것입니다.

 

  과기부는 인공지능법안에서 인공지능 기술개발, 학습용데이터 구축 등 인공지능에만 특화된 내용을 다루고 있다고 하였으나, 인공지능 산업 육성의 근거와 추진체계 등은 지능정보화기본법에도 이미 구체적으로 마련되어 있습니다.

 

  과기부는 인공지능법안이 지능정보화기본법과 별개의 내용을 다루고 있고, 중복제정이 아니라는 취지로 설명하나, 지능정보화기본법 제5조 제2항은 지능정보사회의 구현에 관하여 다른 법률에 특별한 규정이 있는 경우를 제외하고는 이 법에서 정하는 바에 따르도록 하고 있고, 이때 지능정보사회의 구현에는 인공지능 관련 분야가 포함되므로, 인공지능에 관하여 인공지능법안이 우선적용되도록 정하고 있는 인공지능법안 제4조와의 관계에서 해석 충돌의 문제가 발생하게 됩니다.

 

  이는 인공지능법안과 지능정보화기본법이 모두 인공지능분야에 관한 구체적인 규율을 포함하고 있음에도 두 법률의 해석과 적용에 관한 체계가 불분명하다는 점을 단적으로 보여주고 있는바, 인공지능법안은 지능정보화기본법과 유사, 중복되는 내용의 법률로서, 별도 제정의 필요성에 대해 재고될 필요가 충분하다 할 것입니다.

 

나.   과기부가 인공지능과 사회정책 일반을 소관하거나, 다른 규제기관의 작용을 방해할 우려가 없다는 답변에 대하여

 

  과기부는, 개인정보, 인권, 안전 등에 관한 타법의 규율은 인공지능법안 제4조 제1항에서 정하는 예외 사유인 ‘다른 법률에 특별한 규정이 있는 경우’에 해당하여 인공지능법안이 적용되지 않는다고 하면서, 인공지능법안에 의하더라도 과기부가 인공지능과 사회정책 일반을 소관한다고 볼 수 없고, 인공지능위원회의 결정이 다른 규제기관의 작용을 방해하지 않는다는 취지로 답변하였습니다.

 

 그러나 인공지능법안 제1조는 ‘인공지능산업을 진흥하고 인공지능사회의 신뢰기반을 조성하여 국민의 삶의 질 향상과 국가경쟁력을 강화하는 데 이바지 하여야 한다’고 법의 목적을 정하고(제1조), 인공지능 분야에 관한 개별 법률을 제정하거나 개정하는 경우에 위 목적에 부합되도록 하여야 한다고 함으로써(제4조 제2항) 인공지능 분야에 있어서 국가의 제도 및 정책에 관한 기본방침·원칙을 정하고 있습니다. 또한 인공지능 분야 전반을 관통하는 원칙으로서 우선허용, 사후규제 원칙을 제시하고 있습니다(제11조).

 

  이에 인공지능법안이 제정되면 인공지능 분야에서 실질적인 의미의 기본법 지위를 보유하면서, 다른 개별 법률의 제정 및 개정 뿐만 아니라, 기존 개별 법령의 해석 및 적용에 있어서 지도법 및 기준법으로서의 기능을 수행하게 될 가능성이 상당합니다.

 

  그리하여 타 법률의 적용 대상임이 분명한 영역에서는 인공지능법안의 적용이 배제될 수 있으나(법안 제4조 제2항), 관련된 영역이 불분명하거나 현시점에서 예측하기 어려운 경우 등 타 법률의 적용 대상인지 여부가 불분명한 경우에는 타 법률의 적용이 배제되고 인공지능법안이 우선 적용되는 결과가 될 것입니다. 

 

  특히 인공지능 분야의 경우 계속해서 그 기반기술이 진화하고 있고, 그 작동원리가 인간의 인지 범위를 넘어서는 경우(딥러닝에 의해 개발된 인공지능 등)가 존재하는 등의 특성(블랙박스 인공지능)으로 인해 그 영향의 내용이나 정도가 아직까지 현실화되지 않거나, 불분명하고, 다른 법률의 적용대상인지 여부 역시 불명확한 경우가 일반적이라 할 수 있습니다. 이 경우 타 규제기관 역시 개별 소관 법령에 따른 별도의 규제를 검토하고, 도입을 시도할 수 있으나, 인공지능 분야에 속한다는 이유에서 인공지능 법안상 목적과  법안 제11조에서 정한 우선허용·사후규제 원칙을 고려하지 않을 수 없습니다.

 

  따라서 법안 제4조 제2항에 의해 다른 규제기관의 규율이 전혀 방해받지 않을 것이라는 과기부의 주장은 타 법률의 적용 대상임이 분명한 경우만을 가정한 단편적인 결론이라 할 것입니다.

 

  나아가 과기부는 인공지능법안이 제정되더라도 과기부가 인공지능과 사회정책 일반에 대해 소관하지 않는다고 하나, 앞서 설명한바와 같이 인공지능법안이 인공지능분야에 있어서 기본법의 위상을 지니고 있는 점에 더하여, 인공지능법안에 따라 과기부에 부여되는 폭넓은 권한과 독점적인 지위를 고려하여 보면, 이는 타당성을 결여한 주장입니다.

 

  인공지능법안에 따라, 과기부장관은 인공지능산업진흥 및 ‘인공지능 신뢰성’ 제고를 위한 제도 개선업무를 수행할 수 있는 권한(제18조 제1항), 인공지능의 신뢰기반을 조성하기 위한 시책을 마련할 수 있는 권한(제24조), 중앙행정기관 또는 지방자치단체의 장이 정한 ‘인공지능 윤리원칙’(명칭과 형태를 불문하고 인공지능 윤리에 관한 법령, 기준, 지침, 가이드라인을 의미)에 대해 권고할 수 있는 권한을 부여받게 되어(제23조 제3항), 인공지능 분야에 관한 광범위한 정책 수립 및 지침 마련, 제도 시행 및 권고 권한을 확보하게 됩니다.

 

  또한 인공지능법안에 의하면 국무총리 소속으로 인공지능위원회를 두어, 고위험 인공지능에 관한 규율을 포함하여, 인공지능 관련 법령·제도의 수립·개선·조정에 관한 사항을 심의하고 의결할 수 있을 뿐 아니라 다른 국가기관과 인공지능 관련 사업자 등에 대하여 권고와 의견표명을 할 수 있고 그 결과를 통보받을 수 있는 폭넓은 권한을 부여하고 있는데(제6조 및 제7조), 과기부 장관을 위 인공지능위원회의 유일한 간사 위원으로 지정함으로써(제6조 제항), 그 실질적인 운영권한을 과기부에 부여하고 있습니다.

 

  결국 과기부는 인공지능법안을 매개로 하여 장차 다른 법령의 적용대상이 되거나, 그럴 가능성이 잠재되어 있는 사안에 대해서까지 인공지능 분야에 해당한다는 이유만으로 광범위한 권한과 영향력을 행사하게 될 것인바, 인공지능법안이 다른 규제기관의 정당한 작용을 방해하게 될 가능성은 분명히 엄존하고 있다 할 것입니다.

 

다.   우선허용·사후규제 원칙(제11조) 관련 답변에 대하여

 

  과기부는 우선허용·사후규제 원칙을 정한 인공지능법안 제11조는 초기 시장인 AI개발, 생태계, 환경 등에 관한 일반론을 다루고 있는 조항으로 지능정보화기본법, 정보통신융합법에도 동일한 내용이 규정되어 있다고 하면서, 인공지능으로 우려되는 피해나 위험성에 대하여 윤리(제23조), 검·인증(제25조), 이용자 고지의무(제27조), 신뢰성확보조치(제28조) 등을 마련하고 있다고 답하였습니다.

 

  그러나 인공지능 관련 산업의 진흥에만 초점이 맞추어져 있는 우선허용·사후규제 원칙은 인공지능 분야에서 실질적인 기본법의 위상을 갖고 있는 인공지능 법안에 포함되기에 적절한 내용으로 볼 수 없습니다.

 

  인공지능 법안에는 인공지능 분야의 제도 및 정책에 관한 기본방침 내지 원칙으로서, 인공지능 관련 산업 진흥의 측면 뿐만 아니라 인공지능이 인권과 안전에 미칠 수 있는 영향과 위험성까지 고려한 보다 균형잡힌 원칙이 제시되어야 마땅한바, 산업진흥을 목적으로 한 타법령에 유사한 취지의 규정이 있다고 하여 인공지능 분야 전반을 통할하는 인공지능 법안에도 같은 원칙을 도입하여야 한다는 전제는 성립될 수 없는 논리입니다.

 

  인공지능법안의 우선허용·사후규제 원칙은, 2019년경부터 ‘규제샌드박스’라는 명목으로 도입되기 시작한 포괄적인 네거티브 규제방식(사전허용-사후규제)에 따른 것으로 보이는데, 타분야에 도입된 포괄적인 네거티브 규제방식의 여타 법규정과 비교하더라도 훨씬 더 허용적인 규정 방식을 취하고 있다는 점 또한 지적되어야 할 지점입니다.

 

  과기부가 예로 들고 있는 지능정보화기본법 제31조(규제 개선 등) 및 정보통신 진흥 및 융합활성화 등에 관한 특별법 제3조의 2(우선허용·사후규제 원칙)와 달리 인공지능법안 제11조는 공공의 안전보장, 질서유지, 복리증진을 ‘현저히’ 저해할 우려가 있는 경우에만 예외적으로 규제할 수 있다고 정함으로써, 사전적인 규제가 개입될 여지를 더 축소하고 있는 것입니다. 따라서 위 두 법령의 유사 조문과 인공지능법안 제11조의 우선허용·사후규제 원칙을 동일선상에서 비교하는 것은 적절치 않습니다.

 

  인공지능법안이 천명하고 있는 우선허용·사후규제 원칙이 산업진흥의 측면에 치우쳐져 있는 데에 따른 당연한 논리적 귀결로, 인공지능법안은 인공지능의 위험성에 대하여 매우 형식적인 규제로 일관하고 있습니다.

 

  인공지능 분야를 규율하는 법령과 제도는 인공지능이 개인의 안전이나 인권에 미칠 수 있는 위험을 국가적인 차원에서 감독하고, 관리할 수 있는 효율적인 규제체계를 포함하여야 하고, 인공지능으로 인해 발생할 수 있는 피해에 대한 적절한 구제절차를 마련하는 데까지 나아가야 하나, 인공지능법안은 인공지능의 위험을 규제하거나 피해를 구제하기 위한 구체적인 국가 작용에 대하여 사실상 아무런 규정을 두지 않고 있습니다.

 

  EU 인공지능 법안에서는 도저히 수용불가능한 수준의 위험도를 지닌 인공지능을 ‘금지되는 인공지능’으로 분류하고, 그 개발 및 활용 자체를 금지하고 있으나, 인공지능 법안은 금지되는 인공지능이라는 개념범주를 상정조차 하지 않고 있습니다. 이는 사실상 사회적인 합의에 의해 ‘금지되는 인공지능’을 도출해낼 수 있는 가능성을 가로막는 셈입니다.

 

  그나마 존재하는 고위험 인공지능에 대한 규율 역시 매우 형식적입니다. 인공지능법안은 고위험 영역에 활용되는 인공지능에 대하여, 이용자에게 고위험이라는 사실을 고지하도록 하거나(제27조), 신뢰성 확보조치를 준수하도록 권고하는 등 매우 미약한 수준의 의무를 부과하면서도(제28조), 위반시의 제재조치 등 강제성을 확보할 수 있는 근거 규정은 전혀 마련하고 있지 않는바, 이러한 규정만으로 인공지능의 위험성에 대한 실효성 있는 규제는 불가능할 것임이 명백합니다.

 

라.   고위험 영역 인공지능 분류와 관련한 답변에 대하여

 

  과기부는, 인공지능법안상 고위험 영역 인공지능 정의(인공지능법안 제2조 제3호)에는 의료기기(다목), 원자력안전(라목) 등 EU 인공지능법안(이하 ‘EU법안’이라고 합니다)에서 규율하지 않는 대상이 포함되어 있고, 필요시 대통령령을 통해 고위험 영역 인공지능을 규율할 수 있다고 답변하였습니다.

 

  그러나 EU법안 또한 의료기기와 원자력 관련 시설의 관리·운영에 관한 안전요소를 고위험 인공지능으로 분류하고 있는바, 인공지능법안에서 EU법안이 고위험으로 분류하지 않은 항목까지 포함하고 있다는 설명은 사실이 아닙니다.

 

  의료기기는 EU법안상 고위험 영역으로 분류되는 ‘제품 안전’ 항목에 명시적으로 언급되어 있고, ‘원자력 안전’은 고위험 영역으로 분류되는 ‘중요인프라의 관리·운영’항목의 예시로 명시되어 있지는 않으나, ‘중요인프라’가 수도, 가스, 난방, 전력 공급 등 에너지 공급과 관련한 핵심기반시설을 의미한다는 점에 비추어, ‘원자력’관련 시설 역시 ‘중요인프라’에 포함된다고 할 수 있습니다.

 

  따라서 인공지능법안에서 별도의 고려하에 의료기기(다목), 원자력안전(라목)을 고위험 영역에 포함시켰다는 설명은 사실과 다릅니다. 오히려 인공지능법안은 EU법안의 고위험 분류를 따라 위 분야를 고위험 영역에 포함시킨 것입니다.

 

  문제는, 인공지능법안이 생명, 안전 및 기본권에 미치는 위험성이 중대할 것임이 충분히 예측되는 다수의 영역을 알 수 없는 기준에 따라 고위험 분류에서 배제시키고 있다는 점입니다. 

 

  예를 들어, EU 법안의 경우 ① 실시간 또는 사후적으로 사람의 생체정보를 활용하여 신원확인 작업을 수행하는 인공지능, ② 지원서 선별, 후보자 평가, 승진결정, 작업 할당, 업무 성과 모니터링 등 인사 관리 업무에 사용되는 인공지능, ③ 직업 훈련 기관의 선정 및 지원 결정, 교육생 및 훈련생 평가에 사용되는 인공지능을 모두 고위험 인공지능으로 분류하고 있는데, 인공지능법안은 뚜렷한 이유없이 위 각 분야를 고위험 분류에서 배제시켰습니다.

 

  EU 법안의 경우 수사기관의 범죄 및 재범 위험성 평가, 범죄발생가능성 및 사회적 불안 예측, 증거의 신뢰성을 평가하는 경우 생체정보 분석 및 활용여부와 무관하게 고위험으로 분류하였으나, 이와 달리 인공지능법안은 범죄 수사, 체포 업무와 관련하여 생체정보를 분석·활용하는 데 사용되는 인공지능(인공지능법안 제2조 제3호 마목)만을 고위험으로 분류하였습니다.

 

  더욱이 EU법안의 경우 인권에 미치는 위험도를 기준으로 위험도를 완화시키기 어려운 분야에 활용되는 인공지능의 경우 ‘금지되는 인공지능’으로 분류하고 있으나, 인공지능법안은 이러한 개념범주를 상정조차 하지 않고 있습니다.

 

  EU법안이 인공지능 분야의 입법례에 있어서, 절대적인 기준은 아니겠으나 적어도 주요하게 참고할만한 기준으로 볼 수는 있을 것인데, EU법안의 고위험 영역 인공지능에 대한 규율 내용 및 체계에 비추어 인공지능법안의 규율은 매우 한정적일 뿐 아니라 그 기준은 모호하고 자의적인 수준에 머물러 있다 할 것입니다. 

 

마.   고위험 영역 인공지능 규제와 관련한 답변에 대하여

 

  과기부는, 정필모·윤영찬·이용빈·윤두현 의원안 등 7개 법안을 종합하여 반영하여 인공지능법안의 규제대상 및 내용을 정하였다고 하면서, 고위험 영역 인공지능에 대하여 고지의무 및 인공지능 신뢰성 확보 조치의무 등을 부과하고 있다는 점을 언급하였습니다. 

 

  그러나 앞서 설명한 바와 같이 고위험 영역 인공지능에 대하여 인공지능법안이 부과하고 있는 의무의 내용은 매우 미약한 수준에 불과하고, 의무 위반시의 제재조치에 관한 근거 규정을 마련하고 있지 않아, 실효성있는 규제 장치로 작동할 것을 기대하기 어렵습니다.

 

  EU법안 등 주요 국가의 입법례에 비추어보더라도, 인공지능법안의 고위험 인공지능에 대한 규제는 매우 형식적이고 미미한 수준에 그치고 있습니다. 

 

  EU법안은 고위험 인공지능에 대해 데이터의 정확성, 견고성과 함께 투명성 및 이용자에 대한 정보제공을 요구하고, 이를 담보하기 위해 사전적합성 평가를 거치도록 하고, 위험관리시스템을 구축·구현, 기술문서의 작성 및 유지·관리하는 등의 두터운 의무를 부과하고 있습니다. 

 

  나아가 수용불가능한 위험도를 지닌 인공지능은 그 출시와 활용을 금지하면서, 금지대상 인공지능을 출시하거나 고위험 인공지능의 데이터 관련 요구사항을 위반하는 경우에 대해 3천만 유로, 사업자의 경우 직전 사업연도 총매출액 6% 중 높은 액수 이하의 과징금에 처하도록 하는 등 매우 중한 제재조치를 규정하고 있습니다.

 

  그러나 인공지능법안의 경우 제품 또는 서비스가 고위험 영역 인공지능에 기반하여 운용된다는 사실을 사전에 고지하도록 하고(제27조), 신뢰성 확보조치를 준수하도록 권고하는 등 매우 미약한 수준의 의무를 부과하면서도(제28조), 위반시의 제재조치 등 강제성을 확보할 수 있는 근거 규정은 전혀 마련하고 있지 않습니다. 

 

  데이터의 편향성, 오류가능성을 검증하거나 투명성 또는 설명가능성과 관련한 요구에 대한 아무런 정함이 없을 뿐 아니라, 이를 담보하기 위한 장치로서 기술문서 등을 유지·관리할 의무는 물론, 인권, 안전 등에 미칠 영향을 평가하거나, 독립된 기구에 의한 관리·감독에 관한 규정 또한 전혀 마련하고 있지 않습니다.

 

  인공지능법안상 고위험 인공지능에 대한 규율은 인공 지능의 위험성 내지 인권 침해 가능성에 대하여 사실상 무방비 상태에 놓여있다고 하여도 과언이 아니라 할 것입니다. 

 

  1.   결론

 

  인공지능 분야에서 실질적인 기본법적 지위를 갖는 법률에는 인공지능 산업의 진흥만이 아니라 인공지능이 인권 또는 안전에 미칠 수 있는 위험성에 대한 실효성 있는 통제와 관리를 염두에 둔 보다 보편타당한 원칙이 제시되어야 하고, 구체적인 규제 조치에 대한 근거 규정을 포함하고 있어야 할 것입니다. 

 

 그러나 인공지능법안은 산업 진흥의 관점에 치우쳐 인공지능 분야에 대한 우선허용·사후규제 원칙을 천명하면서, 산업 진흥 부처라고 할 수 있는 과기부에 그 제도 및 정책과 관련한 광범위한 권한을 부여하고 있습니다. 인공지능법안의 고위험 인공지능에 대한 분류는 알 수 없는 기준에 의해 자의적인 방식으로 이루어져 있고, 매우 형식적인 규제 조치만을 정하고 있을 뿐입니다.

 

  과기부의 답변에 의하더라도 인공지능법안이, 인공지능이 인권과 안전에 미칠 위험성을 등한시하고, 인공지능 산업에 대한 규제를 무분별하게 완화하는 내용으로 이루어져 있다는 인권시민단체의 우려는 전혀 해소될 수 없습니다. 인공지능법안의 규율 내용에 대한 전면적인 재검토가 필요하다 할 것입니다. 

끝.

첨부파일

[보도자료] 인공지능법안 관련 과기부 답변에 대한 인권시민단체 의견.pdf

20230516디정위보도자료.png