[디지털정보위][공동 논평] 인공지능의 위험성으로부터 시민의 안전과 인권을 보호하기 위한 견고한 국제 규범을 마련할 것을 한국 정부와 각국 정부에 촉구한다

2024-05-20 157

 

 

[디지털정보위][공동 논평]

 

인공지능의 위험성으로부터 시민의 안전과 인권을 보호하기 위한
견고한 국제 규범을 마련할 것을 한국 정부와 각국 정부에 촉구한다 

 

5월 21일부터 22일까지 AI 서울 정상회의가 개최된다. 이 회의는 2023년 11월, 영국 블레츨리 파크에서 개최된 AI 안전성 정상회의의 후속 회의라고 한다. 우리는 AI의 위험성에 대한 세계적인 인식이 높아지고 시민의 안전과 인권을 보호하기 위한 방안을 논의하는  것에 대해 기본적으로 환영한다. 이에 AI 서울 정상회의의 개최를 맞아 본 회의에 대한 한국 시민사회의 기대와 우려를 다음과 같이 밝히고자 한다.  

 

2022년 말 ChatGPT의 출시 이후 불었던 생성형 AI에 대한 일시적인 열광 분위기가 가라앉으면서, AI에 대한 사회적 우려와 위험에 대한 국제적인 공감대가 높아지고 있다. 2023년 5월 히로시마에서 열린 G7 국가 정상회의와 11월에 영국 블레츨리에서 열린 AI 안전성 정상회의를 통해서 참가국들은 AI가 인류의 안전과 인권에 미치는 위험성에 대해 공감하고, AI의 개발과 활용에 있어서 투명성과 책무성의 중요성을 확인하면서 이를 위한 국제적인 기준을 마련하고 협력할 것을 다짐하였다. 올해 2024년 3월 21일 개최된 유엔 총회에서도 지속가능한 발전을 위한 “안전하고 보안이 되며 신뢰할 수 있는” AI 시스템의 증진에 대한 결의안을 채택했다. 이 결의안에서 유엔 총회는 인공지능의 설계, 개발, 보급 및 이용에 있어서 인권의 존중, 보호, 증진의 중요성 또한 강조하였다. 우리는 이러한 국제적인 움직임을 긍정적으로 평가하며, 이제 추상적인 원칙을 넘어 보다 구체적이고 실효성있는 규범으로 나아가야 한다고 생각한다. 이번 AI 서울 정상회의는 이러한 AI의 국제 규범 마련 논의의 연장선상에서 이를 더욱 구체화하는 계기가 되기를 바란다. 

 

물론 AI에 대한 국제적인 규범은 일부 선진국만의 주도로 만들어져서는 안된다. 이번 AI 서울 정상회의의 주제 중 하나가 ‘포용’인데, 이종호 장관은 “AI 혜택 공유와 격차 해소 방안을 모색하고, 문화적·언어적 다양성을 존중하면서 AI가 서비스될 수 있도록 논의를 진전시킬 것”이라고 밝히고 있다. 이것이 진정한 포용이 되려면, 개발도상국이나 사회적 약자를 시혜의 대상이나 소비자로 생각하는 것이 아니라 AI 거버넌스의 주체로 존중해야 할 것이다. 이러한 맥락에서 AI에 대한 국제적 규범은 소수 선진국들의 엘리트 클럽이 아니라, 전 세계 모든 국가들 및 다양한 이해관계자들이 동등하게 참여할 수 있는 보다 개방된 형식의 포럼에서 논의될 필요가 있다. 

 

그럼에도 이번 AI 서울 정상회의는 전 세계 다중 이해관계자와 함께 논의하겠다는 취지와 반대로, 한 사회의 인공지능 규범 형성 과정에 중요한 이해관계를 갖는 시민사회를 배제하여 ‘포용’의 가치를 처음부터 훼손하고 불투명하게 운영되고 있는 것에 대해서 심각하게 우려하지 않을 수 없다. AI 서울 정상회의가 어떻게 진행되고, 관련 이해관계자 그룹으로 누가 참여하는지 등을 공식 온라인 페이지를 통해 제대로 공개하지 않고 있다. 무엇보다 한국 정부의 AI 정책에 비판적인 시민사회는 이번 국제 회의에  초대조차 받지 못했다. 규범의 논의 과정 자체가 투명하게 진행되지 않으면 그 결과물인 AI 규범에 대한 사회적 신뢰 또한 얻기 힘들다. 

 

다른 한편으로, AI의 위험과 악용을 막아야 한다면서도, 한국 정부가 이를 위한 실질적인 조치는 방관하고 있는 것도 우려스럽다. 과기정통부는 딥페이크 등에 대한 악용을 막아야 한다면서도 AI 기본법에 처벌 조항이 없는 이유로  “과도한 규제는 산업 발전의 발목을 잡을 수 있다”며 모순적인 태도를 보이고 있다. AI의 위험성을 통제하기 위한 조치를 의무화하는 것이 왜 과도한 규제이며, 이러한 제도적 안전 조치없이 어떻게 AI의 위험성과 악용을 막겠다는 것인지 의아스럽다. 

 

이미 유럽연합은 독자적인 AI 법안을 통과시켰다. 미국은 행정부가 적극적으로 AI를 실질적으로 규제할 수 있는 행정명령을 먼저 발동하면서, AI 규제를 위한 법안도 추진 중에 있다. 한국에서도 22대 국회에서는 AI의 위험성을 규율하고 시민의 안전과 인권을 보호할 수 있는 실질적인 법안을 마련해야 한다. 더불어 AI 기업들이 규제를 우회할 수 없도록 국제적인 차원의 AI 규범과 법제도를 마련할 것을 각국 정부에도 촉구한다. 

 

2024년 5월 20일 

 

무상의료운동본부, 문화연대 기술미디어문화위원회, 민주사회를 위한 변호사모임 디지털정보위원회, 정보인권연구소, 진보네트워크센터, 참여연대

 

[Statement of Korean Civil Society on the 2024 AI Seoul Summit]

We urge the Korean government and other governments to develop robust international norms
to protect citizens’ safety and human rights from the risks of artificial intelligence

 

The AI Seoul Summit will be held on May 21-22. It is a follow-up to the AI Safety Summit held in November 2023 in Bletchley Park, UK. We believe that the idea of increasing global awareness of the risks of AI and discussing ways to protect the safety and human rights of citizens is a worthwhile endeavor. On the occasion of the AI Seoul Summit, we, the undersigned civil society organizations in South Korea, would like to express the following expectations and concerns of Korean civil society for this meeting. 

 

As the temporary hype around generative AI that followed ChatGPT’s launch in late 2022 subsides, there is a growing international consensus on the social concerns and risks of AI. At the G7 Summit in Hiroshima in May 2023 and the AI Safety Summit in Bletchley, UK in November, participating nations recognized the potential risks AI poses to human safety and human rights, affirmed the importance of transparency and accountability in the development and use of AI, and expressed a commitment to work together to establish international rules. On March 21, 2024, the UN General Assembly also adopted a resolution on promoting “safe, secure and trustworthy” AI systems for sustainable development. In this resolution, the UN General Assembly also emphasized the importance of respecting, protecting, and promoting human rights in the design, development, dissemination, and use of AI. We welcome these positive international moves and believe that it is time to move beyond abstract principles to more concrete and effective norms. We hope that the AI Seoul Summit will provide an opportunity to further discuss and develop these discussions on international norms for AI.

 

It is important to recognize that international norms for AI should not be driven by a few developed countries alone. One of the themes of the AI Seoul Summit is “inclusion,” and Minister Lee Jong-ho said, “We will explore ways to share the benefits of AI and bridge the gap, and advance the discussion on how AI can be served while respecting cultural and linguistic diversity.” In order for this to be truly inclusive, developing countries and marginalized populations will need to be respected as actors in the governance of AI, not just as beneficiaries or consumers. In this context, it would be beneficial to discuss international norms for AI in a more open forum where all countries and diverse stakeholders from around the world can participate equally, rather than in an elite club of a few developed countries.

 

We have serious concerns that the AI Seoul Summit is being run in an opaque manner that inadvertently undermines the value of ‘inclusion’ by excluding civil society, which has a vital stake in shaping the norms of AI in a society, contrary to its stated goal of bringing together multi-stakeholders from around the world. The official online notice of the AI Seoul Summit does not adequately disclose how the summit will be organized and who the relevant stakeholder groups are. Furthermore, it is regrettable that civil society organizations critical of the South Korean government’s AI policies were not even invited to the meeting. The lack of transparency in the consultation process of norms itself makes it difficult to gain public trust in the resulting AI norms.

 

It is also a concern that the South Korean government is not taking practical measures to prevent the risks and abuses of AI. The Ministry of Science and ICT is contradicting itself by saying that, on the one hand, it needs to prevent abuses of AI such as deep fakes, but on the other hand, the reason why there is no penalty clause in the AI bill currently pending in the National Assembly is that “excessive regulation may stifle the development of the industry.”  It is hard to see how imposing measures to control the risks of AI is excessive regulation. It is also unclear how the risks and abuses of AI can be prevented without such safeguards.

 

The European Union has already passed its own AI act. The United States is also moving forward with legislation to regulate AI, with the executive branch taking the initiative to issue an executive order that could substantially regulate AI. In South Korea, we believe that the 22nd National Assembly should enact substantive legislation to regulate the risks of AI and protect the safety and human rights of citizens. We also call on governments to develop AI norms at the international level to prevent AI companies from circumventing domestic regulations.

 

May 20, 2024

 

Stop Healthcare Privatisation and Achieve Free Healthcare

Technoloy, Media & Culture Committee, Cultural Action

Lawyers for a Democratic Society – Digital Information Committee 

Institute for Digital Rights 

Korean Progressive Network ‘Jinbonet’

People’s Solidarity for Participatory Democracy

 

 

 

 

첨부파일

MDI20240520 [디지털정보위][공동 논평] 인공지능의 위험성으로부터 시민의 안전과 인권을 보호하기 위한 견고한 국제 규범을 마련할 것을 한국 정부와 각국 정부에 촉구한다 (1).pdf

AI국제규범마련촉구.png