AI 전문가, “유럽, 선도적인 AI 시스템 구축을 위한 자체적인 맨해튼 프로젝트 필요”(1.4)

유럽 최고의 AI 전문가 중 한 명인 홀거 후스(Holger Hoos)EU 미국과 중국의 거대 기술 기업이 만든 모델에 의존하지 않으려면 최고의 컴퓨터 과학자를 모아 유럽 AI 시스템 구축을 위해 수십억 유로를 투자해야 한다고 주장

※ 홀거 후스: 인공지능 연구를 위한 실험실 연합(CLAIRE)의 창립자이자 아헨 대학교의 AI 교수로, EU AI 정책의 선도자로 알려짐

  • 홀거 후스는 EU가 유럽의 민간 기업이 EU를 구출해주기를 기다리는 대신 독립적이고 윤리적이며 투명한 AI 모델을 구축하기 위한 공공 맨해튼 프로젝트 스타일의 노력이 필요하다고 말함
  • 후스는 “EU는 마이크로소프트나 구글을 사용하도록 강요받고 싶어하지 않으며, EU 역시 자신만의 것을 원한다”라고 말함
  • 후스는 프랑스의 Mistral AI나 독일의 Aleph Alpha와 같은 유럽 기업이 미국 거대 기술 기업과 경쟁할 수 있는 충분한 자원을 보유할 수 있는 지에 대한 질문을 제기하며, EU에는 기업이 새로운 제품을 구축하기 위해 사용할 수 있는 ‘공공 부문에 의해 생성된 기본 AI 모델’이 필요하다고 주장

 

이에 다른 유럽 AI 전문가들도 공공 자금 지원을 받는 AI 모델이 가능한지 여부를 두고 고민하고 있음

  • 유럽 로봇 네트워크인 euRobotics의 데이비드 비셋 전무이사는 “유럽에는 그러한 능력이 필요할 것이며, 유럽은 자신의 필요에 맞게 그 능력을 형성해야 한다”며 홀거 후스의 주장에 힘을 실어줌
  • 일부는 AI 전문가에 사용될 천문학적 임금을 포함하여 모든 비용이 얼마나 될지에 대한 간단한 계산을 수행하기도 함
  • 그러나 이러한 프로젝트를 정확히 누가 수행할 것인지에 대해 쉽게 합의할 가능성이 없어보임
  • 후스는 “이러한 아이디어는 나뿐만 아니라 유럽 전역의 많은 사람들에게서 생겨났다. 이는 곧 계획으로 구체화될 것 같다”고 말하며, 이러한 대화가 이미 EU 관료들 사이에서도 어느정도 일어나고 있다고 덧붙임
  • 특히, 후스는 “EU 집행위원회 사람들이 이러한 프로젝트를 공공으로 수행하는 것이 얼마나 바람직한지에 대해 이야기 하는 것을 들었다. 그러나 그들은 이것이 몇 개의 Horizon Europe 프로젝트의 맥락에서 이루어질 수 있다는 잘못된 생각을 갖고 있다”라고 지적
  • 후스의 아이디어에 대한 질문에 집행위 대변인은 EU가 Horizon Europe 및 Digital Europe 프로그램을 통해 매년 AI에 10억 유로를 투자할 계획을 가지고 있음을 언급하였으며, EU는 또한 기업에 규제 안정성을 제공해야 하는 선구적인 AI법에 대한 합의에 가까워졌다고 말함

 

후스는 공공 AI 시스템을 구축하는 데 적어도 수십억 유로의 비용이 소요될 것으로 추정

  • 이미 후스와 CLAIRE 이사회 멤버는 기술의 급속한 발전을 가능하게 할 유럽 컴퓨팅 인프라인 “AI를 위한 CERN”의 설립을 촉구
  • 후스는 “적어도 몇 년 동안은 이 일에 100% 헌신할 사람이 필요하다”며, EU 전역의 과학자들이 외부 교육 및 연구 책임에서 해방되는 등 본업에서 잠시 벗어나 유럽판 AI의 Los Alamos에 모여 공공 AI 시스템을 구축하는 데 전념해야 한다고 말함

 

EUOpenAIGPT-4와 경쟁하기 위해 자체 AI 모델을 만든다는 아이디어가 터무니 없이 들릴 수 있으나, 다른 국가에서는 이미 국가 또는 적어도 비민간 AI 모델에 대한 아이디어를 검토하고 있음

  • 현재 미국 모델이 너무 영어 중심적인 것을 우려한 일본은 일본어로 작동하고 일본 문화에 더 잘 적응하는 시스템을 구축하기 위한 몇 가지 계획을 개시
  • 지난 여름, 일본 정보통신기술원은 순수하게 일본어 텍스트로만 훈련된 대규모 언어 모델을 만들었다고 발표했으며, 현재 더 큰 모델도 작업 중에 있음
  • AI 안전 분야의 선두주자로 거듭나기 위해 노력해온 영국은 지난해 ‘BritGPT’라고 불리는 주권적 AI 모델을 만들겠다는 아이디어를 내놓기도 했음

 

후스는 EUAI 모델이 미국의 거대 기업에서 이미 만든 것과는 차별성을 가질 수 있도록 신뢰성, 투명성 등의 측면에서 이를 능가하는 것을 목표로 해야 한다고 주장

  • 예를 들어, OpenAI의 ChatGPT는 AI가 인간의 윤리적 판단을 어느정도 갖추게 하기 위해 저임금 케냐 노동자를 활용하여 ‘인간 피드백을 통한 소위 강화 학습’을 시스템에 제공하였음
  • 후스는 EU의 공공 대안은 이러한 종류의 추악한 착취를 피해야 할 것이나 물론 더 많은 비용이 소모될 것이라고 말함
  • 또한, 데이터에 대한 액세스는 윤리적인 AI 프로젝트의 까다로운 장애물 중 하나로, 예를 들어, OpenAI와 같은 AI 회사는 모델에 데이터를 제공하기 위해 수많은 온라인 텍스트와 이미지를 사용해 예술가, 작가 및 언론의 질타를 받았으며, 이제는 수많은 저작권 문제에 직면함
  • 후스는 EU AI 프로젝트가 이렇게 약탈적이지는 않아야 하며, 대신 데이터의 양보다 질에 초점을 맞춰야 한다고 말함
  • 독일의 자동 번역 회사인 DeepL이 Google 번역과 정면 대결할 수 있었던 것은 더 높은 품질의 데이터를 사용했기 때문이라고 후스는 주장하며 “좀 더 세심하게 선별된 품질이 높은 데이터 세트가 우리를 훨씬 더 발전시킬 수 있다고 확신한다”라고 말함

 

EU AI 모델은 보다 윤리적일 뿐만 아니라 현재 시장에 나와있는 것보다 더 신뢰할 수 있어야 함

  • 새로운 EU 모델은 보다 신뢰할 수 있는 논리적 추론 요소를 추가해야 하며, 영어가 아닌 다른 언어 콘텐츠에 대해서도 학습하여 문화적 차이를 더 잘 반영하고 존중할 수 있도록 다문화적이어야 할 것임
  • 마지막으로 이러한 모델은 ChatGPT처럼 단순히 텍스트를 처리하고 출력하는 것이 아니라, 언어, 사진, 비디오를 통합할 수 있는 다중 모드가 되어야 할 것임
  • 이는 현재 업계의 추세로, 예를 들어 Google은 최근 인간의 그림을 실시간으로 설명하는 새로운 AI 도구인 Gemini를 선보임
  • 특히 EU AI 모델은 투자자를 만족시키거나 수익을 위해 서두르는 것이 아니라 투명성과 신뢰성을 염두에 두고 보다 책임감 있게 개발될 것이기 때문에 현재의 모델보다 더 안전할 것임

 

SOURCE : SCIENCE BUSINESS

Print Friendly, PDF & Email
Facebook
Twitter
LinkedIn
Pinterest