AI 활용 관련 US-EU 합의, 중국 견제 의도 포함

미국과 EU는 인공지능에 대한 새로운 협정의 중요성에 대해 논의하고 있지만, 중국에 대한 도덕적인 우위를 점하려는 욕망을 제외하고는 양측의 입장 내 기술규제와 관련된 중요한 공통사항은 거의 없다.

본 협정은 9월 29일 피츠버그에서 무역기술 위원회가 처음 만났을 때 이루어졌다. 브뤼셀과 워싱턴은 AI 시스템이 혁신적이고 신뢰할 수 있어야 하며, 보편적 인권과 공유된 민주적 가치를 존중해야 한다는 점에 동의했다.

협정은 EU와 미국이 "신뢰할 수 있고 책임감 있는 AI를 뒷받침하는 원칙에 대한 상호이해를 발전시키기 위해 노력할 것”이라고 밝혔다. 그러나 이것이 실제로 의미하는 바는 아직 구체화 되지 않았다. 양측은 인공지능(AI)에 대한 서로의 국내 규제 제안에 주목하였다고 말하였지만, 접근방식을 조율한다는 언급은 없었다.

가장 구체적인 합의 영역 중 하나는“권리 침해적 사회적 채점 체계”에 대한 비난이었다. 이는 기업과 개인의 신뢰성을 측정하기 위한 데이터 공유 프로그램인 중국의 사회 신용 시스템을 비난하는 것으로 널리 알려져 있다.

공동 성명은“유럽연합과 미국은 권위주의 정부가 사회적 통제를 대규모로 시행하려는 목적으로 사회적 채점 시스템을 시험하고 있다는 점에 상당히 우려하고 있다라고 밝혔다. EU가 제안한 인공지능(AI) 법에는 이미 사회적 채점 시스템에 대한 금지가 포함되어 있다.

영국 드 몽포르 대학((De Montfort University)의 선임 연구원이자 기술 거버넌스 전문가인 Inga Ulnicane은 중국은 "방 안의 코끼리”라고 말하였다.

그녀는 국가명이 명시되지는 않았지만 민주주의 가치, 인권, 권위주의적 정부, 사회적 채점에 대한 많은 표현이 중국을 연상 시킨다고 말하였다. 그녀는 해당 공동 성명이 중국과 자신을 차별화하려는 미국과 EU의 시도라고 평가했다.

스탠퍼드 대학의 기술 정책 연구원인 세바스티앙 크리에(Sébastien Krier)는 미국이 권위주의적인 사회 채점 시스템을 요구하는 데 동의했다는 점은 주목할 만하다. 그는“최소한 이 수준에서는 미국 정부가 이전에 직접적으로 그렇게 한 적은 없다”라고 말하였다.

베를린 Hertie School의 윤리 및 기술 교수인 조안나 브리슨(Joanna Bryson)은 양측이 공통점을 찾으려고 노력하였지만, 실제 합의에 도달한 것은 최소한으로 보인다고 말했다.

브리슨(Bryson)은 인공지능에 대한 EU 규정이 가장 큰 기술 회사의 자유를 침식할 것이라는 전망이 미국이 갖는 불안 중 하나라고 지적했다. 워싱턴은 EU 규정이 글로벌 표준을 설정하기 위해 외부로 확산되는 "브뤼셀 효과”를 두려워하고 있다. 미국 내에는 기술규제를 중국과의 새로운 "냉전”의 전선으로 보는 견해도 있다. 브리슨은 "[그들은] 미국이 하는 방식을 받아들이지 않으면 중국에 힘을 실어주는 것이라고 주장하고 있다”고 지적했다.

 

평범한 시스템

어떤 사람들은 사회적 채점 시스템에 대한 비난을 허수아비 때리기 오류로 본다. 디지털 권리를 위한 캠페인을 하는 NGO인 Access Now의 유럽 정책 분석가인 다니엘 레퍼(Daniel Leufer)는 중국의 사회 신용 시스템에 대한 서방의 보고가 반대 의견을 감시하고 진압할 수 있는 통제 수단으로서의 잠재력이 있다고 특징짓는 것은 "과도하고 잘못된 것”이라고 말하였다.

레퍼(Leufer)는“실제 시스템은 대부분 행정 제재를 추적하기 위한 상대적으로 진부한 시스템으로 인공지능(AI)과 관련이 없다”라고 말하였다. 그는 EU와 미국이 존재하지 않는 공상 과학 응용 프로그램을 금지하려고 노력하고 있다고 말했다.

인공지능(AI)에 대한 무역기술위원회(Trade and Technology Council)의 선언은 투자 심사 및 수출 통제를 포함한 여러 분야 중 하나이며, 트럼프 시대에 무너진 대서양 관계를 되살리기 위한 시도의 일환으로 볼 수 있다.

해당 선언은 세부 사항이 부족하지만 앞으로 몇 가지 구체적인 약속들을 포함하고 있다. 예를 들어 EU와 미국은 신뢰할 수 있는 AI에 대한 기술적 요구 사항을 평가하기 위한 측정 및 평가 도구와 활동에 대해 논의할 예정이다.

또한 본 선언은 인공지능(AI)이 노동력에 미치는 영향에 대한 공동 연구를 수행하겠다는 약속도 포함하고 있다.

이에 더하여 기술 표준을 포함한 주제를 검토하는 10개의 작업 그룹이 설정될 것이며, 데이터 거버넌스 및 기술 플랫폼, 보안과 인권을 위협하는 기술의 오용 관련 작업그룹이 있을 구성될 예정이다.

Ulnicane은 "이 그룹들의 활동이 성명서에 설명된 선의의 후속 조치에 결정적인 역할을 할 것으로 보인다”고 말했다.

무역기술위원회의 협정은 인공지능(AI) 규제에 대해 이미 얽혀져 있는 글로벌 환경을 더욱 복잡하게 만든다. 여기에는 인공지능에 대한 글로벌 파트너십(GPAI)에 대한 간략한 동의만 포함되어 있는데, 이는 프랑스와 캐나다의 주도 하에 2020년에 출범했으며 영국, 인도, 한국, 호주, 미국 및 EU를 포함한 19개 회원국을 보유하고 있다.

Ulnicane은 이 EU-US 포럼이 보다 다자간 협력보다 특권적인 파트너십으로 부상하는 상황에서 상기 파트너십과 보완적일지 아니면 경쟁적일지 알 수 없다고 밝혔다.

또한 2019년 OECD는 자체 인공지능(AI) 원칙을 발표했지만 이는 구속력이 없다. 최근의 EU-미국 선언은 OECD 원칙을 "지지하고 이행”할 것을 서약하면서 보다 충실하다.

10월 4일 파리에서 열린 행사에서 OECD는 내년에 다양한 AI 시스템을 분류하기 위한 위험 평가 프레임워크를 발표할 것이고, 기술 활용 실패 사례를 추적하기 위한 글로벌 "인공지능(AI) 사건(AI incidents)”데이터베이스를 발표할 것이라고 말하였다.

이 행사에서 미국 국가 인공지능 이니셔티브 사무국(National Artificial Intelligence Initiative Office)의 린 파커(Lynne Parker) 소장은 OECD는 미국이 인공지능(AI) 거버넌스를 논의하기 위해“선호하는 장소”라고 말하였다.

그녀는 미국이 "신뢰할 수 있는 AI 개발을 세계를 주도하고 싶다”라고 말하였다. 미국 국립 표준 기술 연구소(US National Institute of Standards and Technology)는 현재 자체 AI 위험 관리 프레임워크를 구축하면서 이해 관계자의 의견을 듣고 있다.

브리슨(Bryson)은 "많은 일이 진행되고 있지만 어느 쪽에서 돌파구를 만들어 줄지 알 수 없다”고 말했다. 그녀는 책임 있는 인공지능(AI)을 위한 GPAI 작업 그룹의 의장을 맡고 있다.

그러나 싱가포르에서 아프리카 연합에 이르기까지 모든 곳에서 새로운 인공지능(AI) 규제 아이디어가 나오고 있는 상황에서 관련 논의는 미국과 EU에서만 이루어지지는 않을 것이다.

 

SOURCE : SCIENCE BUSINESS

Print Friendly, PDF & Email
Facebook
Twitter
LinkedIn
Pinterest