새로운 규제 법안으로 인한 AI 분야 내 EU 신뢰도 훼손 우려

유럽연합(EU)은 인공지능(AI) 분야 연구자들의 신뢰 확보를 위한 미국과의 경쟁에서 우위를 점하고 있으며, 이는 기술에 대한 글로벌 표준을 설정하려는 위원회의 야심을 강화하고 있다.

하지만 일부 학자들은 EU가 최근 제안한 인공지능 관련 법안이 이러한 신뢰도 경쟁에 불리하게 작용할 가능성이 있다고 지적했다.

인공지능발전협회(AAAI) 회장인 코넬 대학 바트 샐먼(Bart Selman) 교수는“미국에서도 신뢰할 수 있고 투명한 AI 정책 추진이 이루어지고 있지만, 거버넌스 측면에서 우리는 EU보다 앞서 있지 않다”라고 말했다.

레이던 대학(Leiden University)의 기계학습과 교수 겸 유럽의 인공지능연구실연합회(CLAIRE)의 창업자 홀저 후스(Holger Hoos)는 국제적인 AI 연구자들이 “미국의 AI 개발은 기업의 이익에 의해 주도되고, 중국은 정부의 이익에 의해 주도된다는 사실을 알고 있다”고 말하였다.

그는 비록 느리지만 EU 정책 결정은 EU가 2018년 발효한 일반 데이터 보호 규정을 통해 개인 정보 보호에 대한 강력한 조치를 취한 상황에서 미국과 중국의 중앙 집중식 프로세스보다 "더 많은 목소리와 관점”을 통합했다고 주장하였다.

500명 이상의 AI 및 기계 학습 전문가의 견해에 대한 간략한 정보가 지난달 인공지능 연구 저널에 게재되었다. 2019년 말에 실시된 설문조사는 다소 오래된 것이지만 그 결과는 여전히 위원회 정책 입안자들을 기쁘게 할 것이다.

AI 분야 전문가들은 "대중의 이익 차원에서”기술 개발 환경을 형성하는 EU를 미국이나 중국보다 더 신뢰한다고 말했다.

EU는 UN보다 훨씬 더 신뢰를 받았으며, AAAI와 같은 비정부 연구 기관에게 근소한 차이로 패배했다.

이것은 연구원들은 유럽, 북미 또는 아시아에서 학사 학위를 받았는지 여부와 관계가 없다. EU는 업계 응답자 사이에서 학계 전문가와 거의 동일하게 좋은 점수를 받았다.

셀먼(Selman) 교수는 "이 결과는 EU가 신뢰할 수 있고 인간과 호환되는 AI 개발을 우선순위로 삼았다는 사실을 반영한다고 생각한다”라고 말하였다.

CLAIRE에서 발행한 별도의 설문조사에서 응답자의 75%는 EU가 제안한 위험 기반 접근 방식의 규제에 동의했지만, 실제로 AI의 투명성을 달성할지 아니면 대규모 감시, 사회적 채점과 혹은 행동 조작 같은 남용으로부터 EU 시민을 보호할지에 대해서는 의견이 분분하였다.

 

강경한 입장

조지타운대 유럽연합 법학과 케네스 프롭(Kenneth Propp) 겸임교수는“AI 연구자들이 유럽연합 집행위원회의‘인간 중심' 규제를 위한 야심찬 포괄적 접근 방식에 긍정적인 인상을 받았을 가능성이 있다”고 말했다.

그는 "예를 들어 중국이나 미국과 달리 EU가 AI를 위한 군사 애플리케이션 개발에 관여하지 않는다는 사실을 비롯한 다른 요인도 포함될 수 있다고 생각한다”고 말했다.

이번 조사의 설계자 중 한 명이자 옥스퍼드 대학 AI 거버넌스 센터의 연구원인 노에미 드렉슬러(Noemi Dreksler)는 브뤼셀이 반독점 문제에 대해 취하는 "강력한”입장을 연구원들이 알아차렸을지도 모른다고 말하였다.

비평가들조차 EU가 많은 AI 연구원을 확보할 수 있었다는 점을 인정하고 있다. 워싱턴 DC 싱크탱크인 정보기술혁신재단(Information Technology and Innovation Foundation) 대니얼 카스트로(Daniel Castro) 부사장은 “미국 정부는 자체 디지털 정책을 홍보하거나 방어하기 위해 거의 노력하지 않고 있다”고 말했으며, 이 법안이 유럽 기업에 미칠 피해를 경고하였다.

카스트로 부사장은 "반대로 EU 정책 입안자들은 그런 제약을 보이지 않는다”고 말했다. 그는 EU가 다른 국가, 특히 미국이 AI를 규제하는데 충분한 노력을 하고 있지 않다고 주장하고 있다는 점을 지적하면서, AI 분야 연구자들이 지속적으로 받고 있는 이러한 메시지를 되풀이하는 것은 그리 놀라운 일이 아니라고 말했다.

EU집행위원회는 2018년 AI에 관한 유럽 전략(European Strategy on AI)을 발표하면서 AI 규칙 제정을 시작하였다. 그리고 2019년에는 고위급 전문가 그룹이 신뢰할 수 있는 AI를 위한 윤리 지침을 마련하였다. 2020년에는 AI에 대한 추가 백서가 발표되었으며 올해 4월에는 기술에 대한 글로벌 규범을 형성하기 위한 목적으로 제안된 AI 법안이 발표되었다.

이 법에 대한 공개 협의는 8월 8일에 마감되었으며 새 규정은 현재 유럽의회 회원들과 위원회가 면밀히 검토할 예정이다.

집행위의 AI 전문가 그룹 일원인 안드레이 렌다(Andrea Renda)는“유럽집행위의 입장에서는 리더 역할을 하기 위해 다양한 이해 관계자(연구원 포함)의 지지를 얻어야 한다는 사실이 점점 더 분명해지고 있다”라고 말하였다.

 

기업에게 중요한 AI 연구원의 신뢰

AI 연구원의 신뢰를 얻은 EU는 새로운 직원 채용에 필사적인 기술 대기업에게 영향력을 미칠 수 있다. 후스(Hoos)교수는 "우리는 여전히 AI 인재가 심각하게 부족한 상황에 있다,”“그들은 많은 제안 중에서 선택할 수 있다”라고 말하였다.

윤리 및 규제에 대한 기업의 입장은 회사가 유치할 수 있는 사람에 영향을 미친다. 후스(Hoos) 교수는 "이는 부담을 주고 그 부담감은 증가할 것으로 예상된다”고 지적했다.

설문조사의 또 다른 설계자(Markus Anderljung)는 "예를 들어 Microsoft와 Apple은 규제를 강화하고 개인 정보 보호를 강화해야 한다는 방향으로 더 많은 노력을 기울이고 있다”고 지적했다. "그 배후의 추론 중 일부는 대중뿐만 아니라 연구자에게도 잘 작용할 수 있다는 것이다.”

그는 “회사가 규제 시도에 대해 긍정적으로 말하거나 이러한 표준을 전 세계적으로 사용할 가능성에 대해 긍정적으로 말함으로써 이익을 볼 가능성이 있다”고 말했다.

집행위는 유럽연합의 개인 정보 보호 표준이 대안적인 종합 규제 시스템이 없는 일본과 브라질에서 채택된 것을 본 후, AI 관련 법이 GDPR 효과를 재현할 수 있다는 희망을 가지고 있다.

그러나 카스트로 부사장은 회의적이다. 그는 "AI 연구 자체에 대한 EU의 영향이 줄어들고 있으며, 특히 Brexit 이 후 크게 급감하고 있다”고 지적했다. 그는 "따라서 AI에 대한 EU 규제가 세계 시장에 미치는 영향의 정도는 제한적일 수 있다”고 설명했다.

그리고 AI 커뮤니티에서 일부 연구자들이 제안된 AI 규정의 일부가 다루기 힘든 것으로 보고 있다

집행위 AI 전문가 그룹 일원인 렌다(Renda)는 2019년에 AI 윤리 지침이 수립되었을 때 EU가 하려고 하는 것에 대해 학계에서 많은 관심과 지원이 있었지만 그 이후로 회의론이 커지고 있다고 그는 말했다.

연구자들이 우려하는 한 가지는 해당 규정이 회원국 대표로 구성된 유럽 인공지능 위원회의 감독을 받을 것이라는 점이다. 렌다는“이사회를 지원하는 전문가가 없다면 연구 커뮤니티를 위한 공간이 많지 않을 것이다”라고 말했다.

일부 연구자들은 AI 교육 데이터가 "관련성 있고 대표성이 있으며 오류가 없고 완전해야”한다는 것은 현실과 맞지 않는 무리한 규정이라고 주장한다.

집행위원회는 여름 내내 제안된 법안에 대해 기술 회사들과 연구원들의 의견들을 수렴했다.

CLAIRE(유럽AI연구소협회)는 "기초를 마련하려는 제안된 규정의 의도는 좋지만, 의도한 장점을 달성하지 못하면 오히려 심각한 우려가 되는 단점들을 초래할 수 있다”라고 경고했다.

 

SOURCE : SCIENCE BUSINESS

Print Friendly, PDF & Email
Facebook
Twitter
LinkedIn
Pinterest