인공지능(AI) 환각을 줄이는 방법은?

(코파일럿으로 이미지 생성)
(코파일럿으로 이미지 생성)

우리 생활에 인공지능(AI)은 어느새 친숙한 단어가 됐어요. 모르는 문제를 해결할 때도, 영어 공부를 할 때도, 그림을 그릴 때도, 맛집이나 여행 명소를 추천받을 때도, 고민상담을 할 때도 AI는 유용하게 사용되죠.

하지만 AI도 다 맞는 건 아니예요. 틀릴 때도 많죠. AI도 잘 모르는 사실을 마치 잘 알고 것처럼 답을 할 때가 있답니다. 이런 현상을 'AI 환각(Hallucination, 할루시네이션)' 현상이라고 해요.

어떤 것을 AI 환각 현상이라고 하고, 왜 AI 환각 현상이 생기는 건지, 어떤 사례가 있는지, 해결방법은 무엇인지 공부해 볼게요.

AI 환각이 뭐지?

인공지능 환각(AI Hallucination)은 AI가 실제로 존재하지 않는 정보를 사실처럼 만들어내는 현상을 의미해요.

예를 들어, AI가 존재하지 않는 논문 제목이나 저자를 만들어내 제공하는 경우가 여기에 해당하죠. 이는 AI가 학습한 데이터에서 정답을 찾는 것이 아니라, 문맥상 자연스러운 문장을 생성하는 방식으로 작동하기 때문에 발생합니다.

이러한 환각 현상은 AI가 확률적으로 가장 가능성이 높은 단어 조합을 선택하는 과정에서 발생해요. 특히 학습 데이터에 오류가 있거나 질문이 모호할 때 더욱 빈번하게 나타나요.

AI 환각은 의료, 법률, 교육 등 다양한 분야에서 심각한 영향을 미칠 수 있어 이에 대한 해결책이 지속적으로 연구되고 있답니다.

AI가 환각을 일으키는 원인은 무엇일까?

인공지능 환각(AI Hallucination)이 발생하는 주요 원인은 다음과 같아요.

- 데이터 품질 문제 : AI는 학습한 데이터에 기반해 답변을 생성하는데, 만약 데이터가 불완전하거나 편향되어 있다면 잘못된 정보를 생성할 가능성이 높아져요.

- 모델의 학습 방식 : AI는 확률적으로 가장 적절한 단어를 선택해 문장을 구성하는 방식으로 작동합니다. 하지만 이 과정에서 실제 사실과 다른 내용을 만들어낼 수 있어요.

- 언어의 모호함 : 인간의 언어는 뉘앙스와 문맥이 중요한데, AI는 이를 완벽하게 이해하지 못하고 잘못된 해석을 할 수 있어요.

- 알고리즘의 한계 : 현재 AI 모델은 장기적인 문맥을 유지하는 데 어려움을 겪으며, 때때로 논리적으로 일관되지 않은 답변을 생성할 수 있어요.

이러한 환각 현상을 줄이기 위해 AI 개발자들은 데이터 품질을 개선하고, 검색 증강 생성(RAG) 같은 기술을 활용해 AI가 보다 신뢰할 수 있는 정보를 제공하도록 연구하고 있어요.

AI 환각의 유형에는 어떤 게 있지?

AI 환각은 크게 내재적 환각과 외재적 환각 등 두 가지 유형으로 나눌 수 있어요.

- 내재적 환각(Intrinsic Hallucination) : AI가 입력된 정보를 잘못 해석하거나 계산 오류를 일으키는 경우입니다. 예를 들어, AI가 수학적 계산을 틀리게 수행하거나 문맥을 잘못 이해해 엉뚱한 답변을 제공하는 경우가 여기에 해당하죠.

- 외재적 환각(Extrinsic Hallucination) : AI가 실제로 존재하지 않는 정보를 창작해 제공하는 경우입니다. 예를 들어, 존재하지 않는 논문 제목이나 가상의 인물을 만들어내는 것이 이에 해당해요.

내재적 환각은 숫자나 출처가 잘못된 경우가 많아 사용자가 쉽게 알아채기 어렵지만, 외재적 환각은 허구의 이야기를 만들어내는 것이므로 상대적으로 쉽게 구분할 수 있죠.

AI 환각의 대표적인 사례를 알려줘.

최근 몇 년 사이 나타나 화제가 되었던 AI 환각의 대표적인 사례는 다음과 같아요.

- 유명인의 가짜 사망 기사 : AI 기반 뉴스 생성 시스템이 존재하지 않는 유명인의 사망 기사를 작성한 사례가 있어요. 이는 AI가 신뢰할 수 없는 데이터를 기반으로 잘못된 정보를 생성한 결과였죠.

- 역사 왜곡 : 초기 챗GPT 모델이 “세종대왕이 맥북 프로를 던졌다”는 허위 사건을 만들어낸 사례가 있어요. 이는 AI가 실제 역사적 사실과 무관한 내용을 생성한 대표적인 환각 사례예요.

- 잘못된 금융 보고서 분석 : 마이크로소프트의 빙(Bing) AI가 기업의 실적 보고서를 분석하는 과정에서 실제 보고서와 다른 잘못된 수치를 제공한 사례가 있어요. 이는 AI가 데이터를 잘못 해석한 내재적 환각의 사례죠.

AI 환각을 줄이려면 어떻게 해야 할까?

AI 환각을 줄이는 방법에는 여러 가지가 있어요.

- 모델 매개변수 조정 : AI의 응답을 더 정확하게 만들기 위해 온도(temperature) 매개변수를 낮추거나 0으로 설정하면 환각을 줄일 수 있어요.

- 외부 데이터 검증 : AI가 생성한 정보를 신뢰할 수 있는 외부 데이터 소스와 비교하여 검증하면 오류를 줄일 수 있어요.

- 도메인별 데이터 활용 : 특정 분야에 특화된 데이터를 사용하여 AI를 미세 조정하면 정확성을 높이고 환각을 줄이는 데 도움이 됩니다.

- 검색 증강 생성(RAG) 활용 : AI가 실시간으로 신뢰할 수 있는 정보를 검색하여 답변을 생성하도록 하면 환각을 줄일 수 있어요.

- 정확하고 구체적인 질문하기 : AI에게 질문할 때 명확하고 구체적인 정보를 제공하면 잘못된 응답을 줄일 수 있어요.

- AI 생성 콘텐츠 검증 : AI가 제공한 정보를 그대로 받아들이지 않고, 신뢰할 수 있는 출처와 비교하여 검증하는 것이 중요합니다.

이러한 방법을 활용하면 AI 환각을 줄이고 보다 신뢰할 수 있는 정보를 얻을 수 있어요. 그런데 전문가가 아닌 우리 같은 일반인이 할 수 있는 것은 '정확하고 구체적인 질문하기' 'AI 생성 콘텐츠 검증하기' 정도인 것같군요.

최정훈 기자 jhchoi@etnews.com