
생성형 AI와 대규모 언어 모델(LLM)은 이미 많은 뉴스룸에서 일상적인 업무 도구가 됐다. 자료 수집, 요약, 번역, 초안 작성 등 반복적 작업에서는 효용이 분명하다. 그러나 현장 기자들이 공통으로 강조하는 지점은 명확하다. AI는 ‘기사’를 쓰는 존재가 아니라, 기자의 판단과 질문을 보조하는 시스템이어야 한다는 점이다.
뉴스룸에서 이미 일상화된 AI 활용
국내 언론인 조사 결과, 약 70%가 실제 업무에 생성형 AI를 활용하고 있다. 특히 취재 단계에서는 방대한 자료 요약과 맥락 정리에, 보도 단계에서는 초안 작성과 번역에 활용도가 높다. 속보 경쟁이 치열한 매체일수록 ‘초안은 AI, 검증과 해석은 기자’라는 역할 분담이 자리 잡고 있다.
다만 배포·관리 단계에서는 여전히 신중하다. AI 요약이 독자의 체류를 늘릴 수는 있지만, 언론사 수익 구조를 약화시킬 수 있다는 우려도 함께 제기된다.
‘기사 판단’은 여전히 인간의 영역
정치·사회부 기자들은 AI의 한계를 분명히 지적한다. 뉴스 가치를 가르는 판단, 취재원의 발언 맥락 해석, 현장에서의 검증은 AI가 대신할 수 없다는 것이다. 저널리즘은 수많은 정보 중 ‘가장 뾰족한 지점’을 찾아내는 일이다. LLM은 정리와 보조에는 능하지만, 그 뾰족함을 스스로 발견하지는 못한다.
왜 오픈소스 LLM인가
한국언론진흥재단 연구진은 뉴스룸 LLM의 방향으로 오픈소스 기반 시스템을 제안한다. 이유는 세 가지다.
첫째, 상용 API 의존을 줄여 비용을 예측 가능하게 관리할 수 있다.
둘째, 기사 원고와 취재 메모 등 핵심 자산을 외부로 보내지 않고 데이터 통제를 강화할 수 있다.
셋째, 기사 아카이브와 스타일 가이드를 반영해 언론사별 문체와 기준을 학습한 ‘맞춤형 AI’를 구축할 수 있다.
국제뉴스 자동화, ‘따라가기’에서 ‘해석’으로
RSS 기반 국제뉴스 자동 수집·분석 시스템도 실험했다. 해외 주요 언론의 보도를 상시 수집해, 이슈가 어디서 시작돼 어떻게 확산되는지를 흐름으로 보여주는 구조다. 이는 국제부뿐 아니라 경제·산업부 기자에게도 유용한 인프라다. 국제뉴스를 단순 모니터링 대상이 아니라 선제적으로 해석할 수 있는 정보 자원으로 바꿔준다.
기술보다 먼저 풀어야 할 조직의 문제
기자들이 꼽은 가장 큰 장벽은 기술 자체보다 신뢰와 책임 문제다. AI 산출물의 정확성, 출처 불투명성, 저작권과 법적 책임, 기술 인력 부족, 조직 내부의 불안과 저항이 동시에 존재한다. 결국 LLM 도입은 기술 프로젝트가 아니라 뉴스룸 운영 원칙과 윤리를 재정의하는 과정에 가깝다.
AI는 ‘동료 시스템’이어야 한다
AI는 정교한 답을 내놓을 수 있지만, 어떤 질문을 던질지는 기자의 몫이다. LLM이 기자의 취재·분석·해석 능력을 강화하는 방향으로 설계될 때, AI는 경쟁자가 아니라 동료가 된다. 지금 언론사에 필요한 것은 도입 여부를 넘어서, 각자의 정체성과 독자에 맞는 AI 활용 전략을 주도적으로 설계하는 일이다. 기술은 선택의 문제이지만, 저널리즘의 책임은 여전히 인간에게 남아 있다.


