EU, 과학 연구에서의 AI 오남용 신고 메커니즘 도입 검토(10.16)

EU 집행위원회는 과학 연구에서의 인공지능 오남용을 신고할 수 있는 EU 차원의 메커니즘 도입을 검토 중임

  • 집행위는 연구자가 AI의 비윤리적 또는 유해한 사용을 신고할 수 있도록 지원하는 제도 마련을 검토 중이며, 독립적인 EU 기관 또는 접수 창구 설립을 포함한 방안을 탐색 중
  • 이는 2026년 발표 예정인 유럽단일연구공간법(ERA Act) 개정 논의를 위한 공개 설문조사에서 처음으로 제시된 아이디어로, AI의 과학적 활용에 관한 연구자 및 이해관계자의 의견 수렴을 목적으로 함
  • 집행위는 “현재 과학 연구 내 AI 오남용 사례를 EU 차원에서 공식적으로 신고할 수 있는 제도는 존재하지 않는다”고 지적하였으며, 연구자들이 비윤리적이거나 의도치 않은 유해한 방식으로 AI가 사용될 때 이를 안전하게 제보할 신뢰할 만한 채널이 부족하다고 언급
  • 이러한 제도적 부재가 위험한 AI 활용을 방치하고, 연구 시스템 전반에 대한 신뢰를 훼손할 수 있다고 평가
  • 집행위는 또한 EU 전역에서 AI 활용에 대한 윤리·투명성·지식재산권·데이터 거버넌스 기준의 조화 필요성을 강조
  • ERA Act를 통해 EU 차원의 원칙 및 책임 있는 AI 활용 가이드라인을 도입할 가능성을 시사
  • 집행위는 성명에서 “현재 AI 및 연구·정책 양측 관점에서 관련 신고 메커니즘을 검토 중”이라며, “다만 현재 구체적인 제도 시행은 추진하고 있지 않다”고 설명
  • Coimbra 대학그룹의 정책 담당자 Castro는 “AI 활용과 관련된 불확실성을 해소하려는 모든 시도는 긍정적인 진전”이라면서도, “ERA 법안을 통한 추진이 적절한지는 아직 판단하기 이르다”고 언급
  • 같은 그룹의 디렉터 Gardan은 “이 메커니즘은 연구계와의 긴밀한 협력을 통해 설계되어야 하며, 규칙이 현실적이고 연구 현장의 다양성을 반영할 수 있도록 대학이 초기 단계부터 참여해야 한다”고 강조
  • 집행위는 이번 공공협의 결과를 바탕으로, 해당 분야에서 별도의 조치가 필요한지 여부와 가장 적절한 정책 수단을 검토할 예정
  • EU 내부고발자 지침(EU Whistleblowing Directive)은 2026년 8월부터 AI법(AI Act) 위반 신고를 명시적으로 포함할 예정

 

유럽연구중심대학연합(The Guild)Chicot 정책 책임자는 정치적 간섭 위험을 지적

  • “유럽 내 일부 포퓰리즘 정당이 반(反)과학적 담론을 강화하고 특정 연구 분야를 공격하고 있는 상황에서, 신고 제도가 자칫 정치적 무기로 악용될 우려가 있다”고 경고
  • “AI 활용의 건전성과 연구의 질에 대한 과학계 내부 논의의 일부로서 연구자 주도로 작동해야 하며, 그렇지 않으면 학문적 자유가 위협받을 수 있다”고 강조
  • 유럽공학대학연합(CESAER)의 사무총장 Björnmalm은 “AI 오남용 문제는 단순히 규제 준수로 해결될 사안이 아니며, 연구 신뢰성, 정직성, 존중, 책임성에 기반해야 한다”고 언급
  • Castro와 Gardan은 법제화에 앞서 기관·국가·EU 차원의 AI 윤리 기준과 책임 있는 사용에 대한 접근법을 먼저 검토하고 과학자들에게 중복되거나 상충하는 의무가 부과되지 않도록 일관성 있게 조정해야 한다고 제언
  • Gardan은 “새로운 EU 메커니즘은 보충성 원칙을 지켜야 하며, 기존의 윤리·진실성 체계를 대체하기보다 이를 보완·강화·연계하는 형태로 설계되어야 한다”고 강조

 

 

SOURCE: SB

 

Print Friendly, PDF & Email
Facebook
Twitter
LinkedIn
Pinterest