런던에서 열린 Metascience 2025 학술대회에서 과학 연구에 대한 AI의 영향이 논의됨
- 학회 참가자들은 “AI가 특정 상황에서는 유용할 수 있지만, 과학자의 일을 근본적으로 혁신할 가능성은 낮다”는 점에 대체로 동의
- 오히려 생성형 AI가 저품질 논문을 대량으로 양산해 연구자들을 ‘과학적 스팸’ 속에 파묻을 수 있다는 우려 제기
- Open Philanthropy 소속 혁신 전문가 Clancy는 “새로운 도구가 나타나더라도 과학자의 본질을 변화시키는 것은 아니다”라며, 과학은 오래전부터 새로운 도구를 통합해 왔다고 설명
- 대형언어모델(LLM)의 등장으로, 챗 GPT와 같은 대중적인 도구뿐 아니라 아미노산 서열로부터 단백질 구조를 예측하는 AlphaFold와 같은 특화 소프트웨어가 개발되었으며, 이를 통해 AI가 가설을 세우거나, 계산 연구 결과를 재현하거나, 기존 문헌을 요약할 수 있을 것이라는 기대가 커지고 있음
8월 19일 자하리에바 집행위원은 “AI가 연구를 변화시키는 모습은 인상적”이라며, 곧 AI in Science 전략을 발표할 것이라고 언급
- EU 집행위는 2023년 AI in Science 부서를 신설했고, 올해 초 생명과학 분야에서 AI가 연구 속도를 가속화한다는 15개 사례 연구를 발표
- 그러나 8월 20일, 기업들의 AI 활용이 성과를 내지 못한다는 우려로 기술주가가 급락하며 과학 분야에서의 AI 활용에 관한 의문이 제기됨
- 7월에 이루어진 MIT 조사에서는 “95%의 조직이 생성형 AI에서 전혀 성과를 얻지 못했다”고 응답
- 구글 DeepMind의 CEO Hassabis는 “10년 안에 AI로 모든 질병을 치료할 수 있다”는 과장된 발언을 해 비판을 받음
영국 물리학회 소속 Georgescu는 “대부분 AI가 2020년대 AlphaGo·AlphaFold부터 시작됐다고 생각하지만, 실제로는 1956년 정리 증명 도구까지 거슬러 올라간다”고 설명
- 1990년대 물리학에서는 패턴인식 등 기계학습이 이미 널리 활용되었고, 힉스 입자 발견에도 데이터 분석 도구로 기여
Clancy는 “AI가 문헌 검색·요약 같은 반복 작업은 줄여줄 수 있지만, 연구자는 결과에 이름을 걸어야 하므로 AI를 전적으로 신뢰하기 어렵다”고 지적
- Columbia Journalism Review는 최근 5개 문헌 리뷰 도구를 테스트한 결과, 전혀 다른 논문들을 끌어오거나, 과학적 합의에 대해 상반된 결론을 내리기도 했으며, 일관성이 없는 답변을 내놓았다며 “실망스럽고 위험할 수 있다”고 경고
AlphaFold는 과학계에서 가장 주목받은 AI 성과로, Hassabis는 이 공로로 지난해 노벨 화학상 일부를 수상
- DeepMind 임팩트 액셀러레이터 책임자 Koivuniemi는 “출시 전까지는 단백질 20만 개 구조만 해독됐지만, AlphaFold는 2억 개를 규명했으며, 이미 300만 명 이상 연구자가 활용 중”이라고 발표
- 다만 “양질의 데이터 없이는 불가능하다”며, AlphaFold도 지난 50년간 구조생물학 연구 축적 데이터에 크게 의존했다고 설명
뮌헨공대 철학자 Leonelli는 “겉보기에는 단순한 작업이 새로운 발견의 원천이 될 수 있다”며, Franklin이 ‘지루한 결정학’에서 DNA 구조를 처음 상상한 사례를 언급
- AI 모델 유지·검증에는 예상보다 훨씬 많은 비용과 노력이 든다는 점도 지적
인도과학원 Koley는 “인도 과학자 대다수는 LLM을 연구에 거의 사용하지 않는다”며, 비용과 신뢰 문제를 주요 이유로 꼽음
- 다만 비영어권 연구자들은 글쓰기 교정에 광범위하게 활용하여 영어권과의 격차를 줄이는 장점이 있으나 일부 학술지의 ‘AI 사용 금지 정책’ 때문에 기회 상실 우려
- 올해 초 중국 연구자들은 LLM이 학술 초록에 미친 영향을 분석한 결과, “일관성과 가독성이 크게 떨어졌다”고 발표
학계 일각에서는 LLM이 논문 생산을 급증시켜 진짜 연구 성과를 묻어버릴 수 있다는 ‘과학적 스팸’ 가능성 우려 제기
- 일부 연구자는 “AI 논문 사기”가 학문 생태계를 위협하는 ‘존재론적 위기’가 될 수 있다고 경고
- Koley는 “무가치한 내용이 넘쳐나 양질의 아이디어가 가려질 것”이라고 지적
- 로잔대학교(University of Lausanne) 교수 Zavolokina는 “Google Scholar에서 내가 쓴 것처럼 표시된 논문 4편을 발견했다. 우리가 전혀 작성하지 않은 AI가 만들어낸 가짜 인용문이었다”고 폭로
