챗GPT의 시대, 언론의 역할은?
챗GPT의 시대, 언론의 역할은?
  • 최소원 기자 (wish@the-pr.co.kr)
  • 승인 2023.03.16 08:00
  • 댓글 0
이 기사를 공유합니다

[언론재단 미디어 리포트] 챗GPT가 기사 쓰는 시대, 언론은 무엇을 해야 하는가?(2)

더피알타임스=최소원 기자 

챗GPT, 열광과 두려움 사이에서 이어집니다.

챗GPT가 기사 쓰는 시대, 인간 기자는

2023년 1월 12일, 인터넷 미디어 버즈피드(Buzzfeed)는 정보기술 매체 씨넷(CNet)이 금융 관련 기사 73개를 인공지능으로 작성해왔다고 고발했다. 기사 작성에 인공지능을 사용한 사실을 밝히지 않은 채 보도하고, 취재 문의에 응답하지 않았음을 지적했다. 씨넷과 다르게 버즈피드는 주석에 이 기사가 챗GPT에 의해 작성됐고 인간 편집자의 검토를 거쳤다고 남겼다.

이 기사가 발행되는 과정에서 인간 기자는 챗GPT에 질문하고, 인공지능이 작성한 기사를 검토해 최종 발행했을 뿐이다. 챗GPT가 기사를 쓰는 시대가 오면 인간 기자는 질문과 검토 외엔 할 수 있는 일이 없을까? 아니라면, 인간 기자는 어떤 능력을 갖춰야 할까?

아래는 《신문과 방송》에 실린 구본권 한겨레 사람과디지털연구소장과 챗GPT가 나눈 문답이다.


Q. 기사의 기능은 다양한 자료에서 사실 여부를 확인해 신속하게 보도하는 것이다. 인공지능이 이 영역에서 인간을 능가하는 현실에서는 인간 기자가 어떤 능력을 갖고 있어야 하는가?

A. 미래에는 인공지능(AI)이 데이터 수집 및 분석과 같이 현재 인간 기자가 수행하는 특정 작업을 잠재적으로 자동화할 수 있다. 하지만, 이것이 인간 기자들이 더 이상 필요하지 않을 것이라는 것을 의미하지는 않는다. 인공지능은 대량의 데이터를 빠르게 처리하고 분석할 수 있지만, 여전히 그 데이터의 맥락, 해석 및 분석을 제공하는 능력에 한계가 있을 수 있다.

따라서, 인간 기자들은 이러한 가치 있는 서비스를 제공하기 위해 여전히 필요할 것이다. 인공지능이 점점 더 널리 퍼져 있는 세상에서 경쟁력을 유지하기 위해서는 인간 기자들이 다양한 기술과 능력을 가져야 할 것이다. 일부 예는 다음과 같다.

1) 비판적 사고 및 분석: 복잡한 문제를 분석하고 맥락과 해석을 제공하는 능력은 여전히 인간 기자들에게 핵심적인 역할이다.

2) 창의성 및 스토리텔링: 인공지능은 데이터와 사실을 제시할 수 있지만, 여전히 매력적이고 설득력 있는 이야기를 전달하는 능력에는 한계가 있을 수 있다. 인간 기자들은 청중들과 연결되고 뉴스를 적절하고 흥미롭게 만들기 위해 강력한 스토리텔링 기술이 필요할 것이다.

3) 대인 관계 기술: 출처를 인터뷰하고, 관계를 구축하고, 청중과 연결하는 능력은 여전히 저널리즘의 핵심 부분이다. 인간 기자들은 효과적으로 정보를 숙지하고 뉴스를 보도하기 위해 강력한 대인 관계 기술이 필요할 것이다.

4) 적응성: 미디어 환경은 끊임없이 변화하고 있으며, 기자들은 경쟁력을 유지하기 위해 새로운 기술과 작업 방식에 적응할 수 있어야 한다. 이것은 새로운 기술을 배우거나 기존 기술을 사용하는 새로운 방법을 찾는 것을 포함할 수 있다.

전반적으로, 인간 기자들은 AI에 의해 자동화된 일부 작업이 있더라도 미래에 여전히 중요한 역할을 할 것이다. 그들은 경쟁력을 유지하고 청중들에게 가치를 제공하기 위해 다양한 기술과 능력이 필요할 것이다.


독일의 요하네스 구덴베르크가 인쇄 기술을 발명한 1440년 이후로 미디어는 계속 변해왔다. 인간 기자가 손으로 해오던 많은 일이 자동화됐고 날씨, 스포츠, 환율과 증시 시황 등의 기사는 뉴스 로봇이 처리하는 로봇 저널리즘의 시대가 열렸다. 이런 상황에서 기자는 오히려 더 폭넓은 영역에 걸친 깊이 있는 취재와 글쓰기를 요청받고 있다.

챗GPT도 변화의 도구 중 하나일 뿐이다. 인간 기자는 버즈피드 사례처럼 기자가 질문을 입력한 지 몇 초 만에 도출해 낸 오·탈자 하나 없는 ‘기사’ 형태의 출력물을 최소한으로 손질해 쉽게 기사를 발행할 수 있다. 그러나 그 와중에도 새로운 사실을 취재하고, 취재원과 독자와 관계를 구축하고, 내용을 매력적이게 다듬고, 데이터 너머의 맥락과 해석을 제공하고, 사실을 검증하는 등의 일을 해야 한다.

챗GPT와 언론의 미래

구 소장은 챗GPT의 속성을 제대로 파악하고 대응하면 기사 품질은 더 좋아지고 기자는 좀 더 보람을 느끼며 일할 수 있다고 썼다. 그렇다면 기사 작성 등과 관련해 주목해야 할 챗GPT의 속성은 무엇일까?

첫째, 챗GPT는 우리가 알고 있는 것을 요약하고 정리해 답변하는 도구다. 새로운 사실이나 관점이 아니라, 보편적으로 수용되거나 확립된 사실과 관점을 깔끔한 논리에 기반해 문장 형태로 출력해 낼뿐이다.

둘째, 챗GPT는 별도의 사실 확인을 하지 않고, 부정확하거나 잘못된 사실도 확신에 찬 문구와 표현으로 출력한다. 가끔은 ‘허언증’에 가까울 정도로 어떠한 사실도 담지 않은 답변을 내놓는다. 거짓도 뚝딱 창작해내는 것이다. 가짜 논문, 가짜 책 등 챗GPT의 거짓 답변 경험담은 인터넷에서도 손쉽게 찾아볼 수 있다.

셋째, 챗GPT는 비언어적 개념체계를 이해하지 못한다. 정교하고 방대한 ‘단어 시퀀스 예측 및 생산 모델’인 챗GPT는 사용자의 언어와 축적된 데이터에서 학습한 것을 정렬해 텍스트를 생성해낼 뿐이다. 따라서 인간의 그것과 달리 챗GPT의 글은 사회문화적·정치적·윤리적 맥락이 존재하지 않는다.

이러한 특성에 따라 챗GPT가 언론에서 가장 잘 할 수 있는 일은 보도자료를 작성하고 기존 자료를 요약 보도하는 일, 취재원 발언을 사실 확인 없이 단순 중계하는 ‘따옴표(“”) 저널리즘’이다. 이 영역에선 이미 챗GPT가 인간 기자의 수준을 능가한다.

그렇다면, 챗GPT가 잘 할 수 없는 언론의 일, 인간 기자들만이 만들 수 있는 언론은 어떤 모습일까?

챗GPT가 아무리 우수해도 보편적인 것만을 생성해낼 수 있고, 사실 확인을 하지 않고, 언어와 세계의 관계를 이해하지 못한다면 언론에서 독립적인 역할을 해낼 수는 없다. 사람이 옆에서 새로운 정보를 주고, 사실을 검증하고 검토해야만 기사로 발행할 수 있다.

기자는 챗GPT 출력 내용을 확인하고 검증하는 새로운 업무를 부여받게 됐다. 그러나 결국 기자 역할은 사실 검증이 핵심이고, 주요 업무는 제보자와 취재원의 발언이 사실인지 확인하는 일이다. 이는 진실을 보도한다는 언론의 본질적 역할과도 닿아있다.

김성우 캣츠랩 연구위원은 챗GPT로 인해 ‘가짜뉴스(fake news)’의 질이 비약적으로 ‘개선’될 수 있음을 우려했다. 구조와 스타일, 개념어 활용과 어휘, 문법적 특징 등에서 전문가가 쓴 글과 가짜뉴스 텍스트를 구별하기 어려워지고 ‘탈진실(post-truth)’을 실천하는 이들이 권위 있는 텍스트를 만들어낼 때, 이러한 현실에서 사실 검증자로서 언론의 역할은 더 중요해진다.

한발 더 나아가, 그는 ‘가짜 정체성(fake identity)’이 사회문화적 담론의 핵심 이슈로 부상할 가능성에 주목했다. 인공지능이 써낸 글을 자신에게서 나온 것으로 인지하고 자신의 정체성으로 받아들이는 것이다. 그러나 인공지능은 언어체계 외의 것을 인지하지 못하고 옳고 그름을 구분하지 못하며 사실을 확인하지 않으므로 개인과 언어, 세계의 연결고리도 끊어지게 된다.

김 연구위원은 이럴 때일수록 언론과 교육을 포함한 사회 제반 영역에서 ‘윤리적 주체로서의 삶’이 핵심 쟁점이 돼야 한다고 말한다. 자신과 타자, 기계와 세계의 관계를 성찰적으로 조망하고, 편리함에 가려진 위험을 직시하고 비판하는 일. 이 또한 기자와 언론이 끈질기게 조명해야 할 일이다.



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.