[디지털정보위][공동 논평]
인공지능법, 이제 쟁점을 구체적으로 논의할 때
과방위 인공지능법안 공청회, 글로벌규제와의 정합성 공감대 형성
AI 위험에 대한 인식 부재, 산업계의 무책임한 규제 회피는 문제
1. 어제(9월 24일) 국회 과학기술정보방송통신위원회(과방위)는 AI 기본법 논의를 위한 공청회를 개최했다. 우리 시민사회는 AI 기본법에 대한 국회차원의 논의가 시작된 것을 환영하며 향후 건설적인 논의를 위해 이번 공청회의 성과, 아쉬움, 오해, 과제 등에 대해 평가하고자 한다.
글로벌 규제 정합성에 대해 공감대 형성은 긍정적
2. 이번 공청회에서 대다수 진술인들과 의원들이 한국의 AI 기본법이 국제적인 규제 정합성을 가져야 한다는 점에 동의한 것으로 보인다. AI 제품과 서비스의 국제적인 유통을 고려할 때 이는 당연한 원칙이라고 생각한다. 이러한 맥락에서 대다수 진술인들이 현재까지 발의된 AI 법안의 인공지능 정의 등이 국제적인 정합성에 동떨어져 있기 때문에 수정될 필요가 있다는 점에 공감하였다. 글로벌 시장에서도 통용되는 AI가 되기 위해서는 정의뿐 아니라 규제 내용도 함께 고려해야 한다는 점도 간과해서는 안될 것이다.
AI 위험성에 대한 인식 부재 확인
3. AI 기본법은 진흥이냐 규제냐하는 추상적 담론이 아니라 실재하는 AI의 위험성을 인식하고, AI의 위험성으로부터 시민들의 안전과 인권을 보호하기 위한 효과적인 방안을 마련하는 것이어야 한다. 따라서 AI의 위험성에 대한 인식이 중요하지만, 산업계를 대변하는 공술인들은 이러한 위험성을 의도적으로 외면하였다. 정부 관계자 및 일부 의원들은 우리 사회에 도입되고 있는 AI가 실재하는 위험성을 갖고 있다는 점에 대해 제대로 인지하지 못하는 듯 보였다. 시민사회가 AI에 대해 우려하는 것은 AI가 인류의 생존을 위협할 것이라는 막연한 위험이 아니다. 이미 우리 사회에 도입된 AI가 야기하는 크고 작은 차별, 권리침해, 안전 위협 등 실재하는 위험이다.
인도와 도로에서 주행을 시작한 자율주행차량과 배달로봇들, 제조업과 농업 현장에 빠른 속도로 확산되고 있는 자율기계들은 노동자와 시민의 안전을 실질적으로 위협하고 있다. 차별적인 현실의 데이터를 학습한 채용 AI가 구직자를 성별, 지역에 따라 차별할 수 있는 위험에도 불구하고 이에 대한 검증이 전혀 이루어지지 않는 문제, 챗GPT와 같은 생성형 인공지능이 잘못된 사실을 생성하여 이용자를 오도하는 문제, 이미지 생성 AI를 남용한 성폭력적 이미지의 생산과 유통, 공정경쟁을 훼손할 목적으로 플랫폼의 알고리즘을 조작하는 빅테크 업체들, 안면인식시스템을 통해 출국심사 과정에서 개인을 추적 감시하려는 시스템, 정확성과 공정성을 평가하기 위한 절차도 없이 학생들에게 영향을 줄 수 있는 인공지능 교과서, 법무부와 과기정통부가 추진하려고 하는 재범 예측 시스템이 무고한 시민을 잘못 판단할 가능성 등 이미 시민들의 인권이 높은 수준의 위험에 처해 있다.
4. AI 기본법은 이러한 AI 위험성에 대한 실제적 인식을 기반으로 만들어질 필요가 있다. AI로 인한 사건사고를 유발한 책임을 명확하게 규명하여 피해자의 권리를 구제할 수 있어야 하고, 안전과 인권을 규제하는 국가의 규제 체제가 AI에 대해서도 여전히 작동하여 시민을 보호해야 할 것이다. 유럽은 물론 미국 대통령실과 최근 유럽평의회의 AI 규율은 AI 위험에 따른 책임을 규명하기 위한 장치를 사전에 의무화하여 권리 구제를 보장하는 내용을 담고 있다. 빠른 속도로 사회 곳곳에 AI가 도입될수록 우리에게도 반드시 필요한 규율이 아닐 수 없다.
무책임한 산업계의 규제 회피는 문제
5. 산업계 진술인은 기업들이 자발적으로 AI 윤리 규범을 지키려 하고 있으며, 자율 규제와 같은 유연한 규제 체제가 되어야 한다고 주장한다. 문제는 기업들의 윤리 규범이 시민들의 눈높이에 맞지 않는다는 점이다.자율규제는 반드시 필요하지만 국민의 안전과 생명 등에 지대한 영향을 미치는 모든 산업분야가 그렇듯이 일정한 규제와 자율규제는 택일의 문제가 아니라 상호보완적 관계다. 지금 AI를 개발한다는 업체들의 행태를 보라. 국내 1위와 2위를 다투는 기업들이 플랫폼의 지배적 지위를 악용하여 공정 경쟁을 훼손하는 방향으로 알고리즘을 조작하거나, 소비자의 개인정보를 해외 업체에 동의도 없이 제공하였다.
물론 구체적인 규범의 논의 과정에서, 특정 규제가 현실적인 효과가 있는지, 또는 더 나은 합리적인 대안이 있는지에 대해 기업들도 의견을 제시할 권리가 있다. 그러나 AI 기업들에 일정한 사회적 책임성을 부여하는 것을 거부하거나, 자율 규제만을 주장하면서 벌칙 규정의 면제를 주장하는 것이 책임있는 기업의 입장인지 의문이다. 산업계는 AI 위험성이 과장되어 있다고 주장하면서, 정작 자신들은 AI 규제의 위험성을 과장하고 있다.
인공지능기본법은 인공지능의 모든 문제를 다루는 법이라는 오해
6. 일부 진술인과 의원들은 AI 기본법에서 인공지능의 모든 문제를 다룰 수 없다고 주장한다. 그러면서 AI 기본법에서는기본적인 진흥 등 빼대만 다루고 개별 영역에서 발생하는 문제들은 개별법등에서 규제하면된다고 주장한다. 시민사회의 입장 역시 AI 기본법에서 모든 문제를 다 다루겠다는 것은 아니며, 기존 법률을 통해서 해결하거나 별도의 특별법 제정이 필요한 영역도 있다고 생각한다. 예를 들어, AI 관련 저작권 이슈는 저작권법에서, 개인정보는 개인정보보호법에서, 공정거래 이슈는 공정거래법에서 다룰 수 있다. 딥페이크 성착취물에 대한 규제는 성폭력 특별법에서도 다루고 있으며, 자율주행자동차와 관련된 문제는 자동차를 규제하는 법률에서 다룰 필요가 있을 것이다.
7. 그러나 기본적인 뼈대는 AI 기본법에서 다뤄야 하며, 여기에는 최소한 AI 시스템의 규율방식(예를 들어, 위험기반 접근), AI의 특성을 고려할 때 위험을 식별, 완화하기 위한 조치, AI 제품과 서비스를 운영하는 자의 모니터링 의무, 문제가 발생할 경우 책임 소재 파악을 위한 기록 의무, 부정적 영향을 받는 사람들의 권리 구제 방안, AI 제공자와 운영자(배치자) 감독을 위한 거버넌스 등이 포함되어야 한다. 그러나 현재 발의되어 있는 법안들에는 이러한 기본적 뼈대에 해당하는 내용조차 부실하다.
8. 또한, 시민사회는 AI 기술 자체를 규제하자는 것이 아니다. 규제는 AI 기술의 특정한 용도 및 활용에 초점을 맞춰야 한다. 예컨데, 금지된 AI는 AI 기술 일반이 아니다. 장애나 연령 등 취약한 특성을 악용하는 등 사회적으로 절대적으로 용납할 수 없는 특정한 AI 사용 사례를 금지하자는 것이다. 물론 어떠한 사용 사례를 금지된 AI로 규정할 것인지에 대해서는 보다 구체적인 논의가 필요하다. 그러나, 산업계 진술인은 금지 AI 규정이 AI 개발을 저해한다고 주장하는데, 그렇다면 인간의 생명을 해치고 존엄을 파괴하는 등 다른 나라에서 도저히 용납할 수 없어 금지하는 AI를 개발하겠다는 것인지, 그러한 인공지능이 국제적인 기준에 부합한다고 볼 수 있는지 거꾸로 묻고 싶다.
과제 : 공청회에서 드러난 쟁점, 이제 구체적으로 논의할 때
9. 공청회에 참석한 많은 사람들이 진흥, 규제의 이분법에 찬성하지 않는다고 말한다. 동의한다. 산업계 진술인은 적정 규제가 필요하다고 말한다. 동의한다. 시민사회는 과도한 규제가 필요하다고 주장한 적이 없다. 또 다른 산업계 진술인은 AI 기본법이 AI 산업 육성을 위해 필요하냐는 질의에 ‘산업 발전을 위해서는 기준이 필요하다’고 답했다. 시민사회 역시 동의한다. 어떠한 AI가 허용되고 어떠한 AI가 금지되어야 하는지, 고위험 AI의 위험을 식별, 완화하기 위해 어떠한 조치가 필요한지, 위험이 발생할 경우 어떠한 조치를 취해야 하는지 ‘기준’이 필요하다. 유럽이나 미국을 따라하지 말고 우리 특색에 맞는 AI 기본법을 만들자는 주장에 동의한다. 그렇다면 우리 실정에 맞는 AI 기본법의 내용을 구체적으로 논의해야 한다. 원론적인 논의는 이번 공청회로 마무리하고 이제 AI 규율을 위한 실질적인 법제에 대한 논의를 시작할 것을 제안한다.
10. 산업계 진술인들은 애매한 규정을 통한 규제는 진흥도 규제도 실패하게 한다고 하였다. 그렇다. 시민사회에서도 법은 규제의 명확성을 통하여 그 실효성을 유지해야 함에 절대적으로 동의한다. 그런데 규제의 명확성과 실효성 확보 측면에서 현재 발의된 법안들에 부족함이 많다. 수범자들의 의무를 추상적으로만 규정해서는 안되고, AI 기본법에는 하위법령에 구체적으로 위임은 하더라도 기본적인 내용은 담아야만 하는 것이다.
일부 의원들은 빨리 AI 기본법을 만들고 추후 보완하자고 한다. 당연히 AI 기본법은 추후에 계속 보완되어야 할 것이다. 시민사회는 누구보다 빨리 AI 기본법을 만드는데 동의한다. 이미 위험한 AI들이 도입되고 있고, 이에 대한 규율이 시급히 필요하기 때문이다. 하지만 처음 만들 때 최소한 ‘기본 뼈대’는 만들어야 한다. 이번 공청회 이후로 구체적인 쟁점을 논의할 수 있는 후속 공청회나 토론회가 이어질 수 있기를 기대한다. 끝.
2024년 9월 25일
민주사회를위한변호사모임 디지털정보위원회, 정보인권연구소, 진보네트워크센터, 참여연대