
우리는 인공지능(AI)을 세상의 모든 것을 알고 있는 '척척박사'로 믿고 있지만, 실제로는 틀린 정보를 태연하게 말하는 '거짓말쟁이'이기도 해요.
학생이 선생님께 질문하면 선생님은 알고 있는 범위 안에서 학생에게 답을 해주실 거예요. 하지만 선생님도 모르는 내용을 질문하면 선생님은 “그건 나도 모르겠는데”라고 답하시겠죠. 모르는 것을 잘 알고 있는 것처럼 거짓말로 답하시는 경우는 없을 거예요.
그러나 AI는 좀 다를 수 있어요. AI는 미리 학습된 데이터를 바탕으로 질문에 적합한 답변을 내놓는 프로그램인데도 엉뚱한 답변을 내놓을 때가 있어요. 나의 질문에 적합한 답이 데이터에 없을 때 “모르겠다” 또는 “나의 데이터에 질문에 맞는 답이 없다”라고 해야 하지만 엉터리 내용을 마치 정답인 것 마냥 천연덕스럽게 거짓말할 때도 있답니다.
실제 있었던 일을 예로 들어 볼게요. 3년전 “우리나라 대통령이 누구야?”라고 물었더니 AI는 “문재인 대통령”이라고 답했죠. 2022년 당시는 20대 대통령으로 윤석열 대통령이 취임한 후 몇 개월이 지났을 때지만 AI는 학습된 2021년까지의 데이터를 토대로 엉터리 답을 내놓은 거죠.
2022년 데이터가 없다면 “2022년 데이터는 가지고 있지 않다. 모르겠다”라고 답했어야 옳겠죠.

AI가 모르면 “모른다”가 아니고 이 처럼 엉터리 답변을 내놓는 것을 두고 우리는 “거짓말한다”고 평가하지만 학계 전문용어로는 '환각(Hallucination) 현상'이라고 말합니다.
나무위키에서는 AI 환각 현상을 다음과 같이 설명하고 있어요. “대화형 AI에서 존재하지 않거나 맥락에 관계 없는 답을 마치 진실인 듯 답변하는 것. 여러 분야에서 인공지능이 사용되면서 이런 사례가 많이 등장하고 있다. 단순히 '할루시네이션' 또는 '환각'이라고 줄여 부르는 경우도 잦으며, '전자 편집증'이라고도 한다.”
얼마전 AI의 환각 현상 정도를 수치로 표현한 '환각률'이 소개됐어요. 4월 19일(미국 현지시간) 미국의 정보기술(IT) 온라인 매체 테크크런치는 오픈AI의 사내 벤치마크인 '퍼슨(Person) QA' 평가 결과를 인용해 챗GPT o3 모델이 33%의 질문에 대해 환각을 일으켰다고 보도했어요.
이보다 앞서 내놓은 챗GPT o1은 16%, 챗GPT o3 미니는 14.8%로 나타났어요. 더 심각한 것은 챗GPT o4 미니인데 무려 48%의 환각률을 기록했군요.
챗GPT 이외의 다른 AI도 비율은 각기 다르겠지만 환각 현상을 일으키죠. 이유는 딥 러닝 모델의 단점인 '과도한 확신' 때문이예요. 쉽게 말하면 '지나친 자신감' 때문이라고 할 수 있어요.
2년 전 AI의 환각률이 10~20%로 평가될 때 오픈AI는 챗GPT4를 출시하면서 “3.5 모델에 비해 환각률을 40%가량 개선했다”고 자신했었죠. 덧붙여 “2년 안에 환각 문제를 해결할 수 있다”고 공언했지만 아직 시간이 더 필요해 보이네요.
하지만 전문가들은 “AI의 환각을 완벽하게 없애는 것이 불가능할 것”이라고 진단하기도 해요. 시간이 흐르면 누구의 말이 맞는지 알 수 있을 거예요.
여러분~ AI가 자신의 딥 러닝 결과를 맹신해 자칫 잘못된 정보를 우리에게 제공할 경우도 적지 않으니 확인 또 확인하는 습관을 들여야겠어요. 아직 AI가 만능은 아니랍니다. AI가 모든 것을 다 해줄 것이라는 지나친 믿음보다는 참고용으로 활용하겠다는 생각을 가져야 할 듯합니다.
최정훈 기자 jhchoi@etnews.com