[김진형의 AI 세상 이야기] 거짓말하는 챗GPT를 활용하는 법
[김진형의 AI 세상 이야기] 거짓말하는 챗GPT를 활용하는 법
  • 김진형 (jkim@kaist.edu)
  • 승인 2023.05.24 08:00
  • 댓글 10
이 기사를 공유합니다

컴퓨터 프로그램의 잘못된 답은 명백한 오류…아직 완성품 아니다
불을 잘못 사용하면 큰일 나지만 인류는 잘 사용하고 있지 않는가

더피알=김진형 | 요즘 다시 한 번 AI의 능력에 모두들 놀라고 있다. 챗GPT와는 자연스러운 대화가 가능하다. 노랫 가사를 보여주면서 같은 분위기의 시를 부탁하니 멋지게 작성한다. 아줌마들이 좋아하는 아침 방송드라마 줄거리도 뚝딱 만들어 주었다. 다양한 분야에서 전문가처럼 이야기를 이어간다.

챗GPT는 각종 언어를 잘 구사한다. 학생이 작성한 한국의 인구문제에 대한 에세이를 수려한 뉴욕 타임스 사설 형식으로 바꿔 주기도 하고, “Dear Fellow Korean”으로 시작하는 오바마 대통령 투의 감동적인 연설문으로 만들기도 했다. 언어를 구사하고 글을 쓰는 것에서는 못 하는 것이 없어 보인다.

가상현실 엔터테인먼트 기업 페이블스튜디오(Fable Studio)는 GPT4를 이용해 고전 시트콤 ‘프렌즈’의 새로운 에피소드를 만들어보는 실험을 했다.
가상현실 엔터테인먼트 기업 페이블스튜디오(Fable Studio)는 GPT4를 이용해 고전 시트콤 ‘프렌즈’의 새로운 에피소드를 만들어보는 실험을 했다.

챗GPT는 지금까지 보았던 것처럼 제한된 영역에서 제한된 능력만 보이는 것이 아니라 여러 영역에서 그럴듯한 대화를 이끌어 간다. 어느 정도 수준의 문제해결 능력과 창의성도 보여주곤 한다.

그렇기 때문에 이것이 범용 인공지능, 즉 Artificial General Intelligence(AGI)가 아니냐는 논란도 야기했다. 인공지능 연구자들이 꿈꾸는 AGI에는 한참 멀었지만 지금까지 보았던 어떤 인공지능보다도 AGI에 가까이 간 것은 사실인 것 같다.

챗GPT가 놀라운 능력을 보이지만 커다란 문제점도 있다.

근거 없는 주장을 한다. 데이터에 기반하지 않고 거짓말을 해댄다. 학자의 이름을 대면서 그분이 쓰지 않은 논문을 인용하면서 엉뚱한 내용을 주장하고, 근거 없이 고매한 법률가를 전과자로 지적하기도 했다.

나에 대하여도 물었더니 인공지능 학자이자 교육자로서 칭찬을 하더니 작년 말에 사망했다고 한다. 아직 멀쩡히 살아 있는데도 말이다.

챗GPT 기술의 본질은 앞에 나오는 단어를 보고 다음에 나올 단어가 무엇인가를 예측하는 기술이다. 방대한 양의 문서를 이용한 선행 학습을 통해서 다음 단어의 출현 빈도를 계산한다. 많은 단어를 보고 다음 단어를 예측하여야 사람의 언어 구사 패턴에 접근한다.

GPT4에서는 3만2000개의 단어를 보고 그 다음에 나올 단어를 생성한다고 한다. 이런 기술은 확률적으로는 가능하지만 의미로는 도저히 통하지 않는 문장도 자주 생성한다. 근거 없는 주장도 여기서 나온다.

워낙 많은 파라미터를 사용하는 거대한 신경망을 사용하기 때문에 그 안에서 무슨 일이 벌어지고 있는지는 잘 파악할 수가 없다.

학계에서는 이런 현상을 환각작용이라고 부른다. 컴퓨터 프로그램인데 잘못된 답을 낸다는 것은 명백한 오류다.

컴퓨터 프로그램이 오락가락하며 잘못된 결과를 내는 것을 있을 수가 없다. 이런 오류가 있는 시스템을 서비스에 배치한다는 것은 도덕적으로 옳지 않다. 챗GPT는 아직 완성품이 아니다.

생성AI의 환각작용은 명백한 오류다. 이런 오류 시스템의 서비스 배치는 도덕적으로 옳지 않다.
생성AI의 환각작용은 명백한 오류다. 이런 오류 시스템의 서비스 배치는 도덕적으로 옳지 않다.

이런 근본적인 문제점을 해결하기 위한 노력과 함께 이러한 기술을 적절하게 활용하기 위한 노력이 필요하다. 곧 이런 기술이 우리의 일상으로 들어 오는 것은 당연하기 때문이다.

이를 위해서는 우리 사회가 준비되어 있어야 한다. 챗GPT가 무엇을 할 수 있고, 무엇을 못하는지에 대한 이해가 필요하다. 거짓말을 한다고 무조건 사용을 중지하는 것은 어리석다. 챗GPT를 잘 쓰기 위한 노력이 필요하다.

챗GPT로부터 올바른 답변을 얻기 위해 질문을 구체적으로, 점진적으로 고도화하는 것이 바람직하다. 원하는 답에 대한 예시를 알려주면 챗GPT는 배워서 대답하는 능력이 있긴하다. 답변을 일단 신뢰하지 말고, 다른 자료로부터 검증할 것을 강력히 제안한다.

보안이 중요한 내용은 알려주지 않아야 하는 것은 기본이고, 내용이 부족하면 영어로 질문하여 영어 답을 얻은 후에 한국어로 번역하면 충실할 수도 있다. 챗GPT의 답변을 활용할 경우에는, 이를 명시하고, 답변을 얻어낸 질문도 함께 보여주는 것이 예의다.

불을 발견했다. 잘못 사용하면 큰일 난다. 그러나 인류는 불을 잘 사용하고 있지 않는가? 챗GPT의 경우도 마찬가지다.

1981년 개봉한 장 자크 아노 감독의 캐나다, 프랑스, 미국 3개국 합작 영화 ‘불을 찾아서’(Quest For Fire, La Guerre Du Feu)의 한 장면.
1981년 개봉한 장 자크 아노 감독의 캐나다, 프랑스, 미국 3개국 합작 영화 ‘불을 찾아서’(Quest For Fire, La Guerre Du Feu)의 한 장면.

 


관련기사

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 10
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
하지만 2023-06-08 19:42:48
미완성 상태에서도 전세계에 어마어마한 영향을 줄 수 있는 무언가를 우리도 만들고 가꿔나가길 바랍니다.

최정임 2023-06-08 20:52:15
챗GPT를 잘 쓸수있는 예를 들어주어서 감사합니다.

마들렌 2023-06-08 21:35:28
많은 방법들이 있네요
좋은 정보 주셔서 감사합니다

신은주 2023-06-10 23:41:35
쳇GPT를 잘 쓸 수 있는 방법제시 감사해요

지연 2023-06-10 23:47:22
좋은 정보 배우고 갑니다