[디지털정보위][공동 논평]한국에도 위험한 인공지능을 금지하고 처벌하는 규제가 필요하다

2023-12-13 63

 

 

[공동 논평]

한국에도 위험한 인공지능을 금지하고 처벌하는
규제가 필요하다

– 유럽연합, 위험한 인공지능에 대한 규제와 피해자 권리구제를 명시한
세계 최초 인공지능법안 합의
– 국회와 정부는 고위험 인공지능으로부터 국민의 안전과 인권을 보호해야

 

 유럽연합이 지난 8일(현지시각) 세계 최초로 고위험 인공지능을 포괄적으로 규제하는 ‘인공지능법안’(AI Act)에 대해 합의하였다. 이 인공지능법안은 2026년부터 시행될 예정이다(이사회 보도자료 | 의회 보도자료). 인공지능 기술이 발전하면서 관련 사고·논쟁 수가 2012년 10건에서 2021년 260건으로 26배 증가하였고, 챗GPT 출시 이후 제공자가 통제할 수 없는 범용 인공지능(general-purpose AI)에 대한 우려가 확산되던 상황이다. 유럽에서 인공지능의 위험을 법률로 강력하게 금지하거나 처벌하는 제도가 마련된 것은 해당 지역을 넘어 세계적으로 큰 의미가 있다. 우리 단체들은 한국 역시 국제사회의 일원으로 안전한 인공지능 환경을 만들기 위해 강력한 인공지능 규제 제도를 마련할 것을 정부와 국회에 촉구한다.

 

유럽연합은 사람의 안전과 기본권에 위험한 영향을 미치는 자동차, 항공, 기계, 장난감, 의료기기, 고용, 교육, 사회복지, 금융, 경찰, 출입국, 사법 분야, 나아가 선거나 투표 분야에서 쓰이는 고위험 인공지능에 대하여 책임성을 보장할 수 있는 위험관리, 데이터관리, 문서화 의무, 인권영향평가 등의 의무를 부과하고 위반시 높은 제재를 부과하였다. 특히 사상, 신념 등 민감정보를 이용하여 사람을 분류하는 인공지능, 직장이나 학교의 감정인식, 사람의 무의식을 조종하는 인공지능, 연령이나 장애 등 취약성을 악용하는 인공지능 등 허용할 수 없는 위험을 초래하는 인공지능의 경우에는 그 사용과 개발을 모두 금지하였다. 경찰이 공개된 장소에서 얼굴이나 동작 등에 대한 생체인식을 사용하여 실시간이나 사후적으로 사람을 추적하는 것은 법원의 사전 허가와 법률에 규정된 엄격한 안전조치 하에 예외적으로 실시하도록 제한하였다.

 

또 유럽연합은 챗봇이나 감정 인식 등 일부 인공지능에 대해서 투명성 의무를 요구하였고, 챗GPT 출시 이후 논란을 빚었던 생성형 인공지능을 포함한 범용 인공지능에 대해서는 투명성 의무에 더하여 학습 데이터에 대한 공개와 문서화 의무를 강화하였다. 특히 고영향(high impact) 범용 인공지능에 대해서는 위험 평가, 적대적 테스트, 중대사고 보고를 의무화하였다. 유럽연합 각국에서는 인공지능의 위험성을 규제하는 국가기관이 피해자의 권리구제까지 담당한다. 이 법에서 부과한 의무를 위반하는 인공지능 사업자에 대해서는 전세계 매출액의 최대 7%에 달하는 높은 제재를 부과한다. 

 

유럽연합 뿐만이 아니다. 올해 G7 등 세계 주요국가들이 첨단 인공지능의 위험 통제를 요구하고 나섰고 세계 각국 시장에서 인공지능의 위험성을 규제하는 제도가 추진되고 있다. 유엔은 내년 8월까지 첨단 인공지능에 대한 규제 방향을 결정할 예정이다. 특히 최근 미국 바이든 대통령은 범용 인공지능을 비롯한 인공지능의 위험을 규제하기 위하여 강력한 행정명령을 발동하고 각 부처가 구체적인 규제 지침을 마련하도록 하였다.

 

한국 사회도 고위험 인공지능이 이미 사회 각 분야에 도입되고 있다. 금융 분야에서는 사람 대신 대출 적격 등을 평가하는 알고리즘이 광범위하게 사용되고 있으며, 채용 시장에서 사람 대신 AI 채용도구가 구직자들을 평가하고 있다. 독일에서 올 2월 위헌 결정을 받았던 예측 치안을 한국 경찰은 아무런 제한 없이 도입하고 있으며, 서울 시내에는 자율주행버스가 운행을 시작하였다. 그러나 이러한 인공지능이 안전 사고를 일으키거나 기본권을 침해할 때 그 원인을 어떻게 규명하고 책임을 부과할지에 대해서는 아무런 대책이 없다. 

 

그런데도 우리나라 정부와 국회는 인공지능 관련 산업계의 요구에 영합하여 국민의 안전과 기본권을 위험 속에 방치하는 인공지능법을 추진해 왔다. 한국 인공지능법안은 “우선 허용, 사후 규제” 규정으로 시민사회와 많은 언론에서 비판을 받아 왔다. 더욱 큰 문제는 이 법안이 어떠한 인공지능도 금지하거나 처벌하지 않는다는 것이다. 법안은 해외 추세를 따라 고위험을 규정하기는 하였으나 국민의 안전과 기본권을 보호해야 하는 의무와 관련한 규정을 전혀 두고 있지 않다. 최근 논란이 크게 불거진 범용 인공지능에 대해서 아무런 대책이 없음은 물론이다. 과학기술정보통신부와 그 산하 기관들이 인공지능 산업을 소관하겠다는 부처이기주의에 국민의 안전은 염두에 두지 않은 것이다. 그런데도 정부와 국회는 이런 법안을 “세계 최초 인공지능법”으로 만들겠다는 허황된 목표를 내세우며 빠른 법안 처리를 주장해 왔다. 

 

우리 시민사회는 국내 인공지능 산업을 엄호하기 위하여 국제 규범보다 완화된 규제를 적용하고 정부 부처의 성과를 챙기려는 성급한 인공지능법 입법에 반대한다. [지능정보화기본법]이 이미 과학기술정보통신부 주도로 인공지능에 대한 산업과 기술을 지원하고 있는 상황에서 부실한 입법을 서두를 이유가 전혀 없다. 인공지능법은 실효성 있게 국민의 안전과 인권에 미치는 위험성을 예방하고 그로 인한 피해를 방지하고 구제할 수 있도록 강력한 규범을 세워야 한다. 최소한 국가인권위원회가 지난 8월 국회의장에 권고한 수준에 부합하여야 한다. 관련 산업 진흥만을 생각하는 과학기술정보통신부가 아니라 새로운 규제기관 거버넌스에 대한 깊은 검토 또한 이루어져야 마땅하다. 

 

정부와 국회는 국민의 안전과 기본권을 침해하는 인공지능을 규제하고 인간 중심적이고 투명하며 책임성 있는 인공지능 산업을 촉진하는 제대로 된 인공지능법을 마련하여야 할 것이다.

 

2023년 12월 13일

건강권 실현을 위한 보건의료단체연합, 광주인권지기 활짝, 무상의료운동본부, 문화연대 기술+미디어문화위원회, 민주사회를위한변호사모임 디지털정보위원회, 사단법인 정보인권연구소, 서울YMCA 시민중계실, 언론개혁시민연대, 전북평화와인권연대, 진보네트워크센터, 참여연대, 천주교인권위원회, 홈리스행동

첨부파일

인공지능1213.png

MDI20231213 [공동 논평] 한국에도 위험한 인공지능을 금지하고 처벌하는 규제가 필요하다.pdf