AI 환각 현상, AI 할루시네이션, AI hallucination이라는 말을 최근에 종종 들어보셨을 겁니다. AI 환각은 챗GPT와 같은 생성형 AI를 이용할 때 전혀 예상하지 못하는 결과를 생성해 내는 것을 말하는데요.
예를 들어 부정확하거나 불쾌한 답변 또는 거짓을 진짜처럼 말하는 등의 결과를 의미해요.
AI 환각(Hallucination)은 왜 발생할까요? 이러한 AI 환각을 해결할 수 있는 방법은 무엇인지 한 번 알아보도록 하겠습니다.
AI 환각 현상 이란?
AI 환각은 사용자가 AI 모델을 통해 질문을 하면 AI는 정확하지 않은 답변을 하거나 가짜 정보를 진짜 정보처럼 결과물을 보여줍니다.
대법원 판례의 경우도 없는 판례를 있던 판례처럼 결과물을 생성해 내거나 가짜 언어를 진짜 존재하는 언어처럼 영어로 번역을 해 내기도 했는데요.
어찌 보면 너무 똑똑하지만 때론 거짓을 진짜처럼 말하는 사람 같기도 합니다. 솔직히 이런 사람의 말은 알아서 필터링하여 듣거나 해당 부분에 대해서는 무시해야 하잖아요?
그런데 AI가 주는 정보가 가끔 이렇다면 어떻게 해야 할까요?
AI 환각 현상 왜 발생하나?
생성형 AI 모델 및 대규모 언어 모델(LLM)은 사용자가 질문을 요청하면 복잡한 데이터 및 쿼리 등을 처리하여 질문에 맞는 지능적인 답변, 이미지, 영상 등의 결과를 출력해 내야 합니다.
생성형 AI 모델은 사용자가 원하는 정확한 답변 그리고 그 이상을 넘어 지능적이고 창의적인 아이디어 등을 결과로 보여줘야 하지만 현재 AI 모델이 아직 성숙한 단계는 아닙니다.
시장에 출시하는데 필요한 엄청난 양의 학습 데이터, 복잡한 알고리즘, 기타 불투명한 요소로 인해 많은 AI 모델들이 잘못된 정보를 전달하는 등의 AI 환각 이슈에 직면해 있는 것이죠.
대규모 언어 모델인 LLM AI의 작동 방식은 전반적으로 불안정하다고 전문가들은 말합니다. 어떤 환경에서는 작동을 제대로 할 수 있지만 또 다른 환경에서는 작동하지 않을 수도 있다는 것입니다.
AI 환각 현상 발생 원인에 대해 요약하자면 불완전하고 편향된 훈련 데이터, 콘텍스트 부족, 불면 명하거나 크기가 부적절한 모델의 매개변수, 명확하지 않은 프롬프트 등입니다.
AI 환각 현상 해결 방법은?
사실 AI 환각은 사용자가 다루는 정보에 대해 잘 알고 있는 경우라면 크게 문제가 되지 않습니다.
즉 내가 생성형 AI 모델에 내 전문 분야에 대해 질문하고 추가저인 또는 창의적인 정보를 얻고자 할 경우 잘못된 정보 또는 가짜 정보를 인지할 수 있기 때문이죠.
하지만 AI에게 내가 전혀 모르는 분야에 대한 정보를 요청하여 결과물을 확인할 경우 이 AI의 답변이 정확한 것인지 가짜인지 즉 AI 환각 현상인지 구분하기 어렵다는 것입니다.
이럴 경우 검증 단계를 별도로 거쳐야 한다는 것이죠.
AI 환각 현상을 최대한 해결할 수 있는 방법은 한 가지 핵심 주제에 대해 집중해서 프롬프트를 제출해야 한다는 것입니다. 즉 하나의 주제에 대한 질문을 집중적이고 세부적으로 계속해 나가야 한다는 것이죠.
또한 AI가 정확하고 다양한 응답을 할 수 있도록 사용자는 AI에게 요청하고자 하는 핵심 주제에 대해 명확하게 질문을 해야 합니다.
AI가 혼동하지 않도록 정확한 어법과 톤으로 질문하고 해당 질문을 하는 이유 및 배경을 AI에게 제공해야 합니다.
추가로 AI와 사용자의 역할을 정확하게 지정하여 AI에게 제공하면 AI 환각 현상으로부터 벗어날 수 있습니다.
어쩌면 AI 환각 현상이 일어나고 있는 이유는 아마도 사용자인 인간이 AI에게 맞게 질문을 명확하지 않아서 발생하는 것 일 수도 있겠습니다.
예를 들어 만 1세 아기가 언어를 배울 때 어떤 단어를 잘못 인식하면 해당 단어를 완전히 다른 의미로 해석되는 문맥에서 사용할 수 있으니까요.
AI 모델도 마찬가지 인 듯합니다. AI 환각 현상은 초기 학습 과정에서 정확한 데이터로 훈련을 받았더라도 계속 프롬프트를 통해 언어를 학습하여 진화하는 과정에서 나타나는 에러라고 할 수 있어요.
AI 환각 현상 해결 방법을 요약하면 AI 개발자 등의 전문가, 사용자 모두 AI 환각 현상에 대해 우선 인지하는 것이 중요합니다.
AI 전문가 및 기업의 경우 AI 환각 현상을 해결하기 위해 좀 더 포괄적인 교육 및 테스트, 모니터링, 지속적인 피드백 및 개선 등의 단계가 지속적으로 이뤄져야 합니다.
생성형 AI를 사용하는 일반 사용자의 경우 위에서 언급했듯이 AI에게 질문을 요청할 시 하나의 핵심 주제에 대해 집중적으로 질문하여 결과물을 얻어내는 것입니다.
또한 AI가 명확하게 응답할 수 있도록 AI에게 핵심 주제를 질문하는 이유 및 배경 등을 제공하고 AI의 역할을 제대로 제공해야 합니다. 해당 분야에 대해 전혀 모르는 사람을 교육시키 듯이 AI에게도 이러한 과정이 필요합니다.