[디지털정보위][공동 보도자료]
실효성없는 과방위 계류 AI 법안 폐기 촉구 기자회견 개최
– 22대 국회에서 시민 안전과 인권 보호할 AI 법 마련해야-
1. 오늘(5/14) 14개 시민사회단체는 정의당 장혜영 국회의원과 함께 국회 소통관에서 <실효성없는 과방위 계류 AI 법안 폐기 및 22대 국회에서 시민 안전과 인권 보호할 AI 법 제정 촉구 기자회견>을 개최하였습니다. 과기부 등 정부가 성과에 급급해 21대 국회에 통과를 압박하고 있는 국회 과방위 계류 <인공지능법안>은 인공지능 시대 국민의 인권과 안전을 담보할 수 없을 뿐 아니라 실효성도 없는 법안이라 폐기하고 22대 국회에서 제대로 된 법제정을 요구하였습니다.
2. 정부가 오는 5월 21일부터 시작되는 세계 AI정상회의를 계기로 세계 각국과의 AI경쟁에서 밀리지 않으려면 이번 21대 국회 임기 끝나기 전에 반드시 AI기본법을 마련해야 한다며 작년 2월 과방위 법안소위를 통과한 <인공지능법안>을 통과시킬 것을 압박하고 있습니다.
그러나 국회 과방위 소위안은, “우선허용·사후규제” 원칙뿐 아니라 고위험 인공지능에 대하여 아무런 금지나 처벌 조항이 없어 실효성이 없다는 비판을 받아왔고, 지난 2023.8. 국가인권위도 이점을 지적하며 개선의견을 표명하기까지 했습니다.
3. 그러나 언론 등에서는 이번 국회에서 통과시키지 못하면 기업에 혼란을 주고 급기야 다른 주요국과의 AI산업 경쟁에서 뒤처질 것이라는 위기의식을 조장하기까지 하고 있습니다. 이에 반해 EU연합은 3월 생성형AI까지 포함하는 포괄적 규제법을 마련하였고 OpenAI 등 AI의 선도 기업의 본국이라고 할 수 있는 미국도 국가 안보, 건강, 안전 등을 위협할 수 있는 인공지능(AI) 개발자는 안전 시험 결과를 정부에 제출하게 하는 내용의 2023년 행정명령에 이어 최근에는 공공기관들에 AI사용에는 안전장치를 마련하라는 지침을 마련하는 등 인공지능의 위험을 예방하는 규제 마련에 나서고 있습니다.
그럼에도 정부여당과 언론에서는 경쟁에서 뒤처지지 않기 위해서 국회 계류 중 AI법안을 빨리 통과시키라고 독촉하기만 하고 정작 AI기본법에 반드시 담겨야 할 안전과 인권, 기본권 등과의 조화를 어떻게 이룰 것인가에 대해서는 입을 닫고 있습니다.
4. 이에 다수당을 차지하고 있는 민주당이 자칫 산업논리에 밀려 임기 막판에 정부여당이 성과에 급급해 통과시키고 싶어하는 <인공지능법안> 통과에 협력하지 않아야 할 것입니다. 신뢰할 수 있고 안전한 인공지능을 장려하기 위해서는 금지되는 인공지능, 고위험인공지능 등에 대한 명확한 규정과 이에 대한 의무, 책임 및 권리구제에 대한 실효성 있는 방안이 포함되는 그야말로 명실상부한 기본법적 내용을 담아 22대 국회에서 제대로 논의하여 제정할 것을 촉구하였습니다.
5. 장혜영 의원의 사회로 진행된 오늘 기자회견에는 한상희 참여연대 공동대표, 김병욱 민변 디지털정보위원회 위원, 오병일 진보네트워크 대표 등이 참석하였습니다. 끝.
▣ 붙임1 : 기자회견문
▣ 붙임2 : 참석자 발언문
2024. 5. 14.
건강권실현을위한보건의료단체연합, 광주인권지기 활짝, 무상의료운동본부, 문화연대 기술미디어문화위원회, 민주사회를 위한 변호사 모임 디지털정보위원회, 사단법인 정보인권연구소, 서울YMCA 시민중계실, 언론개혁시민연대, 연구공동체 건강과대안, 전북평화와인권연대, 진보네트워크센터, 참여연대, 천주교인권위원회, 홈리스행동
▣ 붙임1 : 기자회견문
실효성없는 과방위 계류 AI 법안은 21대 국회에서 폐기하고
시민 안전과 인권을 보호할 AI법을 22대 국회에서 마련해야 한다
겨우 20여 일 남은 21대 국회에 AI법안 처리를 요구하는 정부와 업계의 압박이 거세다. AI법안에 대하여 비판하고 대안을 제시하는 활동을 해온 우리 단체들은 21대 국회에 현행 AI 법안을 폐기하고 안전과 인권을 보호하는 국제 기준을 반영해 22대 국회가 처리하도록 할 것을 요구한다.
인공지능산업 육성 및 신뢰 기반 조성 등에 관한 법률안(이하 ‘AI법안’)은 지난해 2월 14일 국회 상임위원회인 과학기술정보방송통신위원회 소위원회에서 통과된 것으로 알려졌으며 그 구체적인 내용은 아직도 일반에 공개되어 있지 않다. 그러나 “우선허용 사후규제” 원칙은 물론 고위험 인공지능에 대하여 아무런 금지나 처벌 조항이 없다는 사실이 알려져 시민사회의 비판은 받고 국가인권위원회로부터 개선 의견을 받은 상황이다.
그럼에도 지난 8일 취임 2주기를 맞은 이종호 과학기술정보통신부 장관은 기자간담회를 갖고 AI법안 통과를 국회에 요구하였다. 2일 한덕수 국무총리가 이번 회기 내 AI법안 처리를 요청한 데 이어 또다시 정부가 막바지 21대 국회에 AI법안 통과를 주문한 것이다. 한덕수 총리는 현재 국회에 계류 중인 AI법안이 이용자 보호를 위한 ‘규제’와 ‘의무’를 담고 있다고 주장하였으며, 이종호 장관은 시민사회가 우려하였던 “우선허용 사후규제” 조항이 수정안에서 삭제되어 시민사회가 요구하는 내용이 수용되었으며 이 법이 제정되어야 “AI 범죄 처벌이 가능”하다고 주장하였다. 그러나 우리 단체들이 알고 있는 사실은 한덕수 총리와 이종호 장관의 주장과 다르다.
시민사회와 국가인권위원회가 지적한 이 법안의 문제점은, 노골적인 “우선허용 사후규제” 조항에 그치지 않는다. 현행 AI법안은 AI의 위험성에 대하여 실효성 없는 규정을 몇 개 두었을 뿐, 모든 AI 위험 대책을 기업 자율에 맡겨두고 있다. 즉 고위험 인공지능을 제공하거나 사용하는 사업자를 규제하거나, 너무 위험하여 우리 사회가 허용할수 없는 인공지능에 대해서 금지하지 않았으며, 위반 시 처벌하는 규정도 두지 않았다.
또한 이 법안은 최근 인공지능 동향이나 국제 기준을 반영하고 있지 않다. 예를 들어 챗GPT 등장 이후 주요 국가들에서 크게 신경을 써서 마련한, 범용 인공지능에 대한 적대적 테스트 의무 등 최신 내용도 반영되어 있지 않다.
복잡한 인공지능의 위험성과 규제의 규모를 생각한다면 22대 국회가 AI법을 국민 앞에서 투명하고 신중하게 검토해야 마땅하다. 왜 정부와 업계는 굳이 며칠 남지 않은 21대 국회에서 충분한 숙의 없이 AI법안을 통과시켜야 한다고 주장하는가?
기존에 AI 산업을 지원하는 지능정보화기본법이 시행중임에도 AI법이 또 추진되었던 것은, 이 법이 고위험 인공지능에 대한 실효적인 규제조항을 두지 않아 국내 AI 기업에 이익이 되기 때문이었다. 최근 정부는 “우선허용 사후규제” 조항을 삭제하면서까지 국회에 시급한 처리를 요구하고 있다. 이는 여러 언론이 업계와 정치권을 인용하며 연이어 보도한 대로 5월 21일부터 시작되는 ‘AI 서울 정상회의’에서 한국도 AI법을 제정했다는 보여주기식 성과를 내세우기 위한 목적이 다분하다.
AI법은 AI 기업 육성이라는 미명하에 시민의 안전과 인권을 희생하는 규제완화여서도 과기부의 체면치레용이어서도 안 된다. 주요 국가들이 마련한 AI 법제도의 핵심은 인공지능이 시민의 안전과 인권에 미치는 위험을 규제하기 위하여 그 제공자와 활용자에 대하여 높은 책임과 의무를 부과하는 것이다. 지난해 영국에서 개최되었던 첫 AI 정상회의의 기조 또한 인공지능의 안전 위험을 규제해야 한다는 것이었다.
유럽연합의 AI법은 사람의 잠재의식을 조작하거나, 노인과 장애인 등의 취약성을 악용하거나, 생체인식으로 정치적 의견 등 민감정보를 유추하거나, 개인적 특성으로 사람을 차별하거나, 공공장소에서 실시간 원격으로 얼굴인식하거나, 예측 치안 및 직장과 학교의 감정인식에 사용되는 인공지능을 원칙적으로 금지하였다. 교통, 직장, 학교, 경찰, 재판 등에서 쓰이는 고위험 인공지능의 경우 제공자 및 활용자에 대하여 위험평가 및 인권영향평가, 기술 문서화, 투명성, 인적 감독, 모니터링 시스템 구축 등 강한 의무를 부과하였다. 금지된 인공지능이나 고위험 인공지능에 부과된 의무를 위반하는 사업자에게는 전 세계 매출액의 3~7%를 과징금으로 부과한다.
미국 또한 2023년 10월 바이든 대통령이 AI행정명령으로 연방정부에서 조달하는 인공지능에 대한 의무를 규정하였다. 특히 채용, 주택, 금융 서비스 등에서 차별을 금지하고 시민권을 존중하며 소비자를 보호하도록 의무화하였으며, 데이터 품질과 차별 등에 대하여 다양한 사전, 사후 평가 제도를 검토하도록 하였다.
무엇보다 이들 AI 규제 거버넌스는 산업부처나 과기부처가 아니라 소비자 안전 또는 소비자 보호 부처, 나아가 신규 부처가 주무하도록 하였다. 따라서 우리 22대 국회 역시 인공지능 규제 거버넌스 구조에 대하여 과학기술정보통신부 중심이 아니라 국회 여러 상임위원회가 협력하여 종합적으로 검토해야 할 필요성이 크다.
안타깝게도 지금까지 21대 국회와 정부의 AI법안 추진은 국제사회의 흐름과 크게 대조적이다. 우리 시민사회가 지지하는 AI법은 최근의 국제기준 수준에 부합하며 AI 위험으로부터 영향을 받게 될 시민의 안전과 인권을 강력하게 보호할 수 있는 견고한 법이다. 22대 국회가 제대로 그 입법적 역할을 해 줄 것을 간곡히 바란다. 끝.
붙임2) 발언문1
한상희(참여연대 공동대표)
밀실 입법과정의 문제
인공지능산업법은 내용에서뿐 아니라 입법과정에서도 심각한 문제를 안고 있습니다. 민주주의의 요청은 물론 법치주의의 기본원칙까지도 제대로 이행되지 못하고 있습니다.
답답하여 챗-GPT에 물어 보았습니다. 인공지능산업의 육성과 규제에 관한 법률을 제정할 때 주의해야할 입법절차가 무엇인지 알려달라고 했습니다. 그러니 7단계의 절차를 언급합니다. 1. 조사 및 분석단계, 2. 이해관계자의 참여, 3. 법안작성, 4. 공개의견수렴, 5. 국회심의 및 수정, 6. 통과 및 시행, 7. 평가 및 개선.
인공지능이 틀렸는지, 과기부와 우리 국회가 틀렸는지 헷갈립니다. 지금 인공지능법의 입법과정은 1. 조사 및 분석단계, 2. 이해관계자의 참여, 4. 공개의견수렴 등의 부분이 과감하게 생략되어 있습니다. 너무도 부끄럽게도, 초보단계의 인공지능이 하는 판단에도 미치지 못하는 절차를 진행하고 있는 것입니다.
그 뿐 아닙니다. 기본법의 지위를 가지는 법임에도 불구하고 그에 상응하는 의견수렴의 절차는 물론, 체계적 정당성조차도 제대로 구비하지 못하고 있습니다. 지능정보화법와 지금 추진되고 있는 인공지능법은 중복입법입니까, 아니면 후자가 전자의 특별법입니까? “전자적 방법으로 학습, 추론, 판단을 구현하는 기술”과 “학습, 추론, 지각, 판단, 언어의 이해 등 인간이 가진 지적능력을 전자적 방법으로 구현하는 것”은 어떻게 다르며 어떻게 구별가능합니까? 모든 행정과정에는 행정기본법과 행정절차법이 적용됩니다.인공지능이 행정과정에 활용될 때 이 점은 어떻게 인공지능법에.반영되어야 할까요? 다른 입법례들에서는 인공지능의 위험성을 4등급으로 구분합니다. 그런데 인공지능법안에서는 오직 하나의 위험성만 제기합니다. 그 이유는 무엇이고 그 위험에 봉착하게 될 시민사회는 어떻게 받아들이고 있는가요? 기본법의 입법이라면 다른 법과의 관계들을 면밀히 따져서 상호 중복되거나 모순되는 규정이 없도록 하여야 합니다.
그럼에도 지금, 실적주의에 함몰된 과기부의 독단적이고 편향된 틀에 따라 그 입법이 졸속 추진되고 있습니다. 인공지능산업은 향후 어떤 방향으로 어떤 모습으로 발전해나갈지 아무도 예측하지 못합니다. 하지만 그것이 우리 사람들의 실생활에 지대한 영향을 주는 것을 넘어 생활과정 자체를 지배할 위험이 농후하다는 사실은 명확합니다. 그렇다면 인공지능에 관한 법률은 수없는 검증과 과감한 평가와 세심한 합의에 기반하여야 합니다. 인공지능이 야기할지도 모르는 위험은 철저하게 우리 모두의 관리하에 통제되어야 합니다. 1회성의 국제행사에 매몰되어 졸속으로, 급행으로 처리될 일은 결코 아닙니다.
입법의 실적은 과기부와 국회의 것이 될지 몰라도, 그 모든 위험과 모든 부담은 우리 시민사회의 것으로 돌아옵니다. 지금 당장 입법을 중단해야 합니다. 지금 당장 논의의 장을 열어야 합니다.
발언문2)
김병욱(민주사회를위한변호사모임 디지털정보위원회 변호사) 발언문
“인공지능 법안의 문제점”
과기정통부의 이종호 장관은 지난 5월 8일 취임 2주년 기자 간담회에서 AI 기본법이 시민단체가 제기한 우려를 모두 해소했다고 하면서, AI 기본법이 국내 산업 육성 뿐만 아니라 신뢰성확보 관련 내용까지 담은 균형을 갖춘 법이기 때문에 21대 국회가 끝나기 전에 제정되어야 국민에게 다가올 위험을 해소할 수 있다라는 취지로 발언하였습니다.
그러나 AI기본법의 문제점은 비단 우선허용 사후규제의 원칙에 관한 조항에만 한정되어 있는 것이 아닙니다. AI 기본법은 AI가 가져올 수 있는 위험이나 인권침해 가능성에 불구하고 매우 형식적인 규제로 일관하고 있습니다.
인공지능 기술은 분야를 막론하고 매우 광범위하게 활용되고 있고, 이에 따라 학습에 이용되는 데이터의 편향성 등으로 인한 차별의 가능성, 인공지능 기술이 활용되는 과정에서 여러 기본권의 침해 가능성이 대두되고 있습니다. 그러나 현재 논의되고 있는 AI기본법은 인공지능의 위험성에 대하여 달리 고려하지 않고 있습니다.
국회에서 논의되고 있는 AI 법과 달리 최근 유럽연합에서 통과된 AI법은 사람의 잠재의식을 이용하거나, 사람이나 단체의 취약성을 활용하거나, 실시간으로 원격 생체인식 식별시스템을 이용하는 AI 등 도저히 수용불가능한 위험성을 지닌 인공지능은 활용 자체를 금지하고 있습니다. 그러나 현재 한국의 AI법안은 금지되는 인공지능이나 이와 유사한 개념조차 규정하지 않고 있습니다.
AI법은 일부 고위험 영역에 대한 규정을 두고 있으나 이 또한 매우 형식적인 규율에 그치고 있습니다. AI법은 생명, 안전 및 기본권에 미치는 위험성이 중대할 것으로 보이는 여러 영역을 고위험 영역에서 배제시키고 있을 뿐 아니라, 고위험 영역 인공지능이라는 사실을 이용자에게 고지하도록 하거나, 신뢰성 확보조치를 준수하도록 권고하는 수준의 매우 미약한 의무를 부과하고 있습니다. 의무를 위반하는 경우의 강제성을 확보할 수 있는 규정 또한 전혀 포함하지 않고 있습니다.
인공지능 기술 개발에 활용되는 데이터의 편향성이나 오류가능성을 검증하거나 투명성 또는 설명 가능성과 관련해서는 거의 아무런 정함이 없습니다. 유럽연합 AI법이 고위험 AI에 대하여 촘촘하게 정하면서, 데이터의 품질 기준, 기술문서 작성 및 유지의무, 인적 감독 보장 등 매우 높은 수준의 의무를 부과하고 있는 것과는 대조적입니다. 인공지능과 관련된 영역 전반을 규율하는 기본법이 될 인공지능법은 산업계의 요구만을 반영할 것이 아니라, 위험성에 대한 실질적인 규제를 포함하는 균형잡힌 법이 되어야 할 것입니다. 시민사회가 AI법에 대해 갖고 있던 우려는 수정된 AI법에 의하더라도 전혀 해소되지 않았습니다.
발언문3)
오병일(진보네트워크센터 대표)
“바람직한 AI 법안 제안”
우리 시민사회단체들은 AI 법안의 제정 자체에 대해서 반대하는 것이 아닙니다. 아니 오히려 누구보다 조속히 고위험 AI의 위험성으로부터 시민의 안전과 인권을 보호할 수 있는 법안이 만들어질 수 있기를 간절히 바라고 있습니다. 그렇다고 졸속으로 만들 수는 없습니다. 처음 만들 때 제대로 만들어야 합니다. 현재 정부 법안은 AI의 위험성을 규율하기에는 너무나도 미흡합니다. 우리는 조만간 구성될 22대 국회에서 AI 법을 속도감있게, 하지만 충분한 토론을 거쳐서 제정할 것을 제안합니다.
22대 국회에서 논의할 AI 법은 최소한 다음과 같은 내용을 포함해야 합니다. 우선 전 세계적으로 인공지능 규제에 있어 위험기반 접근을 채택하고 있는 바, 국내 AI 법 역시 이를 참고할 필요가 있습니다. 이와 관련하여 금지되어야 할 인공지능 및 고위험 인공지능의 기준 및 범위가 명확히 규정되어야 합니다. 예를 들어, 유럽연합에서는 일부 예외적인 경우를 제외하고는 공공장소에서의 실시간 원격 생체인식 감시, 프로파일링 등에 기반하여 개인의 범죄 위험성을 평가하는 AI 시스템, 직장이나 교육 기관에서 감정인식 시스템 등을 금지하고 있는데, 한국에서는 허용을 해야하는 것일까요?
둘째, AI 에 대한 명확한 정의를 제공해야 합니다. AI의 정의는 법의 적용 대상이기도 하기 때문에 중요하며, 국제적으로 합의된 정의를 고려해야 합니다. 또한 범용 AI에 대한 정의 및 규율을 포함하여 최근 기술적 발전을 반영해야 합니다.
셋째, AI 법은 시민의 안전과 인권 보호에 기반해야 합니다. 혁신을 저해하지 않아야 하지만, 혁신이 안전과 인권에 대한 침해를 감수하는 명분이 되어서는 안됩니다. 이를 위해 무엇보다 고위험 AI 개발자 및 활용자의 책임성이 요구됩니다. 고위험 AI가 시장에 도입되기 전에 안전과 인권에 대한 위험평가가 이루어져야 하고, 기술 문서화, 투명성 의무, 인적 감독, 모니터링 시스템 구축 등 책임성을 강화하기 위한 조치가 위험성에 비례하여 부과될 필요가 있습니다. 참고로 EU AI 법에서는 AI의 개발자/제공자에게 적합성 평가를 의무화하고 있을 뿐만 아니라, 특정 활용자에게는 기본권 영향평가를 의무화하고 있습니다.
넷째, 특히 공공기관의 경우에는 AI 시스템을 업무에 도입하기 이전에 인권영향평가를 시행하고 관련 자료를 투명하게 공개하는 등 더 높은 수준의 책임성과 투명성을 가지도록 해야 합니다.
다섯째, 고위험 AI에 대한 제반 조치들이 자율적인 수준에 머물러서는 안됩니다. AI의 위험성과 개발 및 활용 주체의 책임성에 비례한 벌칙이 부과되어 AI 법이 실효성을 가질 수 있도록 해야 합니다.
여섯째, 국가인권위원회도 권고했다시피, AI의 영향을 받는 사람들의 권리 및 구제책이 포함되어야 합니다. 인터넷 서비스의 제공자-이용자 관계와 다르게, AI의 경우 제공자, 활용자 뿐만 아니라 AI의 결정에 영향을 받는 사람들이 있습니다. 자신도 모르게 AI에 의한 자동화된 의사결정의 영향을 받는 사람의 권리를 보호할 수 있는 방안이 마련되어야 합니다.
마지막으로, 개인정보 보호를 위한 개보위의 역할, 시장감독을 위한 공정위의 역할 등 기존의 여러 정부부처들이 자신의 영역에서 AI 규율을 위한 역할을 하지만, AI 규율을 위한 전담 감독기구가 필요하다면, 이는 산업 육성을 주무하는 부처가 아니라 독립적인 기구가 되어야 합니다. 규제와 진흥을 한 부처가 할 경우 진흥을 명분으로 적절한 규제를 회피할 수 있기 때문입니다.
이처럼 논의해야할 의제들이 많은데, 지금까지 이러한 논의를 방치한 것에 대해 21대 국회는 부끄러워해야 합니다. 진정으로 반성한다면 21대 국회에서 졸속으로 통과시키는 것이 아니라, 22대 국회에서 제대로 논의할 수 있도록 준비해야 합니다. 22대 국회에서는 비단 과학기술정보방송통신위원회의 논의에 그치는 것이 아니라, 관련된 여러 상임위가 참여하는 국회 차원의 특별위원회를 구성하고, 주요 쟁점에 대해 시민사회를 비롯한 이해관계자의 의견을 폭넓게 수렴해야 할 것입니다. 감사합니다. 끝.