EU집행위 “용인될 수 없는” AI 사용 금지 규정 도입 추진

EU는 새로운 AI 규정을 통해 사람들을 추적하고 그들의 행동을 평가하는 "용인될 수 없는" 인공 지능(AI)의 사용을 억제할 것이며, 이를 위반하였을 경우 회사 매출액의 최대 6%까지 벌금을 부과 할 것이다.

해당 규정에 관한 유럽연합 집행위원회의 브리핑에 따르면, "사람들의 안전, 생계 및 권리에 대한 명백한 위협으로 간주되는 AI 시스템"의 사용 금지될 예정이다.

오랜 기간동안 승인 절차를 거쳐야 하는 EU의 본 규정은 국가 인프라, 교육, 고용, 금융 및 법 집행과 같이 고위험으로 간주되는 영역에서 AI 사용에 대한 사전 승인 요구 사항을 도입할 것이다. 일련의 제안은 혁신을 저해할 수 있다는 우려를 업계에서 촉발하고 있다.

관계자들은 첫 번째로 이루어지는 주요 AI 규정의 조기도입이 AI 규제에 대한 글로벌 표준이 되기를 희망하고 있다. EU의 디지털 책임자인 마르겟 베스타거(Margrethe Vestager)는 "이러한 획기적인 규정을 통해 EU는 AI 기술의 신뢰성 향상을 위한 새로운 글로벌 규범 개발을 주도하고 있다”고 밝혔다.

집행위는 경찰의 안면 인식 사용과 같이 논란이 되고 있는 원격 생체 인식 시스템에 엄격한 요구 사항이 적용된다고 말한다. 다만 지문을 사용한 전화 잠금 해제나 여권 심사대에서의 안면스캔은 예외이다.

가령 EU는 중국에서 개발 중인 사회적 채점 시스템의 사용을 제한 할 것이다. 중국에서는 중국 정부가 홍콩에서 민주화 시위대를 식별하고 위구르 무슬림에 대한 인종 프로파일링 및 통제를 위해 AI 도구를 사용하여 논란이 되고 있다.

비록 당국은 먼저 공급자에게 AI 제품을 수정하거나 시장에서 제거하도록 요청을 할 수 있지만, 해당 EU 규칙을 위반할 경우, 최대 3만 유로의 벌금이 부과될 수 있으며, 기업의 경우 전 세계 연간 매출의 최대 6%까지 벌금이 부과될 수 있다.

베스타거(Vestager)는 경찰이 도시에서 실종 아동을 찾아야 하는 특정 상황에서는 감시 시스템의 사용이 일시적으로 허용될 것이라고 말하였다.

하지만, 디지털 권리 단체는 그러한 예외를 허용하는 것이 향후 기술을 널리 사용할 수 있는 길을 열어주는 데 도움이 될 지 여부에 대해 우려하고 있다.

유럽 ​​의회의 패트릭 브레이어(Patrick Breyer)는 "공공 장소의 생체 인식 및 대량 감시 기술은 우리의 자유를 훼손하고 열린 사회를 위협하고 있다”고 말했다. "우리는 이러한 기술에 의해 특정 집단의 사람들에 대한 차별과 수많은 개인에 대한 거짓 비난이 이루어지는 것을 용납할 수 없다”고 강조했다.

다른 활동가들은 새로운 규칙이 AI 무기 개발을 다루지 않는다 점을 비판했다. 국제인권감시기구(Human Rights Watch)의 무기 문제 담당이사인 메리 워햄(Mary Wareham)은 “기계가 인간의 생명을 앗아 갈 수 있도록 허용하는 것은 양심적이지 않으며 킬러 로봇 중지 캠페인이 무력 사용에 대한 의미 있는 인간 통제를 유지하기 위한 새로운 국제 금지 조약을 위해 노력하는 이유이다”라고 말했다.

 

혁신 제한

기업들은 새로운 규칙이 AI 개발에 장애가 될 것을 우려하고 있다.

디지털 유럽 산업 단체의 이사인 시실리아 본필드-달(Cecilia Bonefeld-Dahl)은 “이 규정을 읽은 후에도 '고위험' 영역의 미래 창업자들이 유럽에서 사업을 시작하기로 결정할 것인가에 대한 여부는 여전히 의구심이 든다”라고 말하였다. 그녀는 인공지능(AI)에 대한 위원회의 고급 전문가 그룹의 일원이다.

본필드-달(Bonefeld-Dahl) 이사는 EU의 엄격한 데이터 보호 규칙의 "불충분한 이행”을 상기하면서 소규모 기업이 이러한 요구 사항을 탐색하려면 지침, 재정 지원 및 "간단하고 간소화된 프로세스"가 필요하다고 말하였다. 그녀는 “새로운 규칙에 묻히지 말고 효과적인‘샌드 박스'를 통해 소규모 기업을 육성해야 한다”고 주장했다.

에어 비앤비, 애플, 페이스북, 구글, 마이크로 소프트 등 회원 및 유럽 시장에서 활동하고 있는 다른 산업 그룹은 제안된 규정에 대한 대응을 공식화하고 있다고 말하였다.

위원회의 관계자들은 이 규칙이 혁신의 장애물이 아니라 AI에 대한 신뢰를 높이고 기업에 법적 명확성을 제공함으로써 업계의 성장을 촉진 할 것이라고 주장하고 있다.

이 규정의 일부는 AI 개발을 지원하기 위한 조치를 다루고 있으며, 회원국은 신생 기업과 중소기업이 AI 시스템을 시장에 출시하기 전에 테스트 할 수 있는 "규제 샌드 박싱 계획”을 수립하도록 하고 있다.

이러한 샌드 박스에서 기업은 개발 초기에 규제 기관과 직접 상호 작용할 수 있다고 위원회는 말하고 있다. 이를 통해 기업이 잘못된 길을 가지 않고 규제 기관이 프로세스 전반에 걸쳐 학습할 수 있다.

집행위 관계자는 “우리는 기술을 규제하는 것이 아니다,” “문제가 될 수 있는 사용 사례를 규제하고 있다”고 말했다. 그는 대학 등록을 예를 들어 “AI가 수행한 등록 절차를 확인하는 것도 동일한 절차”라고 설명했다. 또한 그는 “AI를 사용하거나 폐기할 때 신중을 기해야 한다”라고 말했다.

유럽 ​​의회와 27개 회원국은 이제 몇 년이 걸릴 수 있는 이 제안을 검토할 것이다. AI 법률이 최종적으로 통과되면 EU 내부 또는 외부에 는 AI 시스템 제공 업체에 규칙이 적용된다.

 

노르웨이의 샌드박스 경험

위원회의 본 제안은 회원국이 공공 기관의 감독하에 규제 샌드박스를 구축하도록 권장한다.

규제 기관과 규제 기관이 감독하는 회사 간의 협업 접근 방식을 포함하는 샌드박스 개념은 영국과 프랑스를 포함한 여러 유럽 국가에서 신흥 기술을 육성하는 데 널리 사용되는 도구가 되고 있다.

노르웨이에는 당국과 함께 샌드박스 프로세스를 진행하는 4개의 AI 회사가 있다.

노르웨이 데이터 보호 기관에서 운영하는 샌드박스의 연구, 분석 및 정책 책임자인 캐리 로만(Kari Laumann)은 25개의 회사가 1차 샌드박스에 지원했으며, 그 중 4개를 선택했다고 말한다. 해당 협력은 3개월에서 6개월 동안 이루어질 것이다.

노르웨이의 AI 샌드박스는 물리적 장소가 아니다. 로만은 “우리는 그들에게 가서 기술의 회색 영역에 대해 이야기하고 도전을 도와주며, 이것은 리소스 집약적이다”라고 설명했다.

샌드박스 프로세스에서 신생 기업과 규제 기관 간의 논의는 이론에서 실제까지 다양하다.

Trondheim의 한 참여 회사인 Secure Practice는 다른 회사의 직원을 합법적으로 프로파일링 한 다음 이러한 직원에게 맞춤형 사이버 보안 교육 자료를 제공할 수 있는지 조사하고 있다.

로만은 "직원 프로파일링은 우리가 일반적으로 하고 싶은 일이 아니기 때문에 우리가 가지고 있는 가장 논란이 많은 프로젝트일 것이다”라고 말하였다. 그녀는 "우리는 회사가 어떻게 작동하는지, 어떤 보호 장치가 필요한지, 그리고 궁극적으로 직원 데이터에 액세스 할 수 있어야 하는 사람에 대해 회사와 논의하고 있다”고 밝혔다.

또 다른 참여 업체인 Age Labs라는 회사는 혈액 샘플을 수집하여 누군가의 질병 가능성을 예측한다. 로만은 "우리는 알고리즘을 학습하고 개선하기 위해 익명 데이터를 사용할 수 있는 방법을 이 그룹과 함께 탐구하고 있다”고 말했다.

세 번째 프로젝트는 온라인 교육 리소스를 개발하고 있으며 제작자는 알고리즘에 어떤 데이터를 제공해야 하는지, 사용하지 말아야 하는지 비슷한 방식으로 파악하고 있다.

로만은 "이러한 모든 경우에서 우리는 투명성, 공정성, 책임감, 그리고 알고리즘이 노르웨이어를 기본 언어로 사용하지 않는 사람들을 차별하는지 여부를 조사하고 있다”고 설명했다.

그녀는 AI 기술에 대한 규제 장치에 대하여 “견제와 균형이 필요하다,” “우리는 혁신을 원하지만 우리의 가치와 일치하기를 원한다”고 말했다. 그녀는 "기업이 이러한 규칙에 액세스하고 이해할 수 있어야 하며, 샌드박스는 이 모든 작업을 수행할 수 있는 실제 사례를 쉽게 발견할 수 있는 한 가지 방법이다”라고 덧붙였다.

 

SOURCE : SCIENCE BUSINESS

Print Friendly, PDF & Email
Facebook
Twitter
LinkedIn
Pinterest