불을 잘못 사용하면 큰일 나지만 인류는 잘 사용하고 있지 않는가

더피알=김진형 | 요즘 다시 한 번 AI의 능력에 모두들 놀라고 있다. 챗GPT와는 자연스러운 대화가 가능하다. 노랫 가사를 보여주면서 같은 분위기의 시를 부탁하니 멋지게 작성한다. 아줌마들이 좋아하는 아침 방송드라마 줄거리도 뚝딱 만들어 주었다. 다양한 분야에서 전문가처럼 이야기를 이어간다.
챗GPT는 각종 언어를 잘 구사한다. 학생이 작성한 한국의 인구문제에 대한 에세이를 수려한 뉴욕 타임스 사설 형식으로 바꿔 주기도 하고, “Dear Fellow Korean”으로 시작하는 오바마 대통령 투의 감동적인 연설문으로 만들기도 했다. 언어를 구사하고 글을 쓰는 것에서는 못 하는 것이 없어 보인다.

챗GPT는 지금까지 보았던 것처럼 제한된 영역에서 제한된 능력만 보이는 것이 아니라 여러 영역에서 그럴듯한 대화를 이끌어 간다. 어느 정도 수준의 문제해결 능력과 창의성도 보여주곤 한다.
그렇기 때문에 이것이 범용 인공지능, 즉 Artificial General Intelligence(AGI)가 아니냐는 논란도 야기했다. 인공지능 연구자들이 꿈꾸는 AGI에는 한참 멀었지만 지금까지 보았던 어떤 인공지능보다도 AGI에 가까이 간 것은 사실인 것 같다.
챗GPT가 놀라운 능력을 보이지만 커다란 문제점도 있다.
근거 없는 주장을 한다. 데이터에 기반하지 않고 거짓말을 해댄다. 학자의 이름을 대면서 그분이 쓰지 않은 논문을 인용하면서 엉뚱한 내용을 주장하고, 근거 없이 고매한 법률가를 전과자로 지적하기도 했다.
나에 대하여도 물었더니 인공지능 학자이자 교육자로서 칭찬을 하더니 작년 말에 사망했다고 한다. 아직 멀쩡히 살아 있는데도 말이다.
챗GPT 기술의 본질은 앞에 나오는 단어를 보고 다음에 나올 단어가 무엇인가를 예측하는 기술이다. 방대한 양의 문서를 이용한 선행 학습을 통해서 다음 단어의 출현 빈도를 계산한다. 많은 단어를 보고 다음 단어를 예측하여야 사람의 언어 구사 패턴에 접근한다.

GPT4에서는 3만2000개의 단어를 보고 그 다음에 나올 단어를 생성한다고 한다. 이런 기술은 확률적으로는 가능하지만 의미로는 도저히 통하지 않는 문장도 자주 생성한다. 근거 없는 주장도 여기서 나온다.
워낙 많은 파라미터를 사용하는 거대한 신경망을 사용하기 때문에 그 안에서 무슨 일이 벌어지고 있는지는 잘 파악할 수가 없다.
학계에서는 이런 현상을 환각작용이라고 부른다. 컴퓨터 프로그램인데 잘못된 답을 낸다는 것은 명백한 오류다.
컴퓨터 프로그램이 오락가락하며 잘못된 결과를 내는 것을 있을 수가 없다. 이런 오류가 있는 시스템을 서비스에 배치한다는 것은 도덕적으로 옳지 않다. 챗GPT는 아직 완성품이 아니다.

이런 근본적인 문제점을 해결하기 위한 노력과 함께 이러한 기술을 적절하게 활용하기 위한 노력이 필요하다. 곧 이런 기술이 우리의 일상으로 들어 오는 것은 당연하기 때문이다.
이를 위해서는 우리 사회가 준비되어 있어야 한다. 챗GPT가 무엇을 할 수 있고, 무엇을 못하는지에 대한 이해가 필요하다. 거짓말을 한다고 무조건 사용을 중지하는 것은 어리석다. 챗GPT를 잘 쓰기 위한 노력이 필요하다.
챗GPT로부터 올바른 답변을 얻기 위해 질문을 구체적으로, 점진적으로 고도화하는 것이 바람직하다. 원하는 답에 대한 예시를 알려주면 챗GPT는 배워서 대답하는 능력이 있긴하다. 답변을 일단 신뢰하지 말고, 다른 자료로부터 검증할 것을 강력히 제안한다.
보안이 중요한 내용은 알려주지 않아야 하는 것은 기본이고, 내용이 부족하면 영어로 질문하여 영어 답을 얻은 후에 한국어로 번역하면 충실할 수도 있다. 챗GPT의 답변을 활용할 경우에는, 이를 명시하고, 답변을 얻어낸 질문도 함께 보여주는 것이 예의다.
불을 발견했다. 잘못 사용하면 큰일 난다. 그러나 인류는 불을 잘 사용하고 있지 않는가? 챗GPT의 경우도 마찬가지다.
