IT & Tech

OpenAI, 'O4-mini' 공개… 추론 능력 강화했지만 환각 현상은 더 늘어?

Danny대니 2025. 4. 19. 10:47

Bryce Durbin / TechCrunch

 

OpenAI가 또 한 번 주목받는 AI 모델을 내놓았습니다. 이름은 O4-mini, GPT-4의 후속 실험적 모델입니다. 이번 모델은 특히 ‘추론(reasoning)’ 능력에 특화된 것이 특징인데요, 놀랍게도 정확성보다는 "환각(hallucination)" 현상이 더 자주 발생하는 것으로 나타나며 AI 업계에 새로운 논쟁을 불러일으키고 있습니다.

 

📌 O4-mini, 정확성보다 '추론'에 방점

OpenAI는 최근 시스템 카드(System Card) 형태로 ‘O4-mini’와 ‘O3’ 모델을 공개했습니다. 이들은 기존 GPT 시리즈보다 ‘복잡한 논리 구조 이해’와 ‘의미 연결’을 더 잘 수행할 수 있도록 설계되었죠.

즉, 단순한 정보 요약이나 문장 생성이 아니라, 다단계 사고 과정이 필요한 질문에서 더 강점을 보입니다. 예를 들면:

  • “기후 변화가 경제에 미치는 영향은?”
  • “A 회사가 B 시장에 진출했을 때 발생할 수 있는 리스크는?”

이처럼 개방형 질문(open-ended questions)에 대해 구조적 사고를 바탕으로 논리적인 답변을 구성할 수 있게 된 것이죠.

 

⚠️ 하지만… 정답은 더 틀린다?

아이러니하게도 OpenAI는 이번 시스템 카드에서 "모델의 환각률이 더 높아졌다"는 점을 스스로 인정했습니다. 환각(hallucination)이란, AI가 그럴듯한 답변을 하지만 사실과 다르거나 허구적인 정보를 만들어내는 현상입니다.

이는 기존 GPT-4 대비:

  • O4-mini가 더 과감한 추측
  • 복잡한 연결
  • 확신 있는 어조로 답변

즉, ‘잘못된 정보를 더 논리적으로 말한다’는 위험이 생긴 것이죠.

 

🤖 추론 중심 vs 정확도 중심, AI의 진화 방향은?

O4-mini의 실험은 OpenAI의 전략적 방향성을 엿볼 수 있게 해줍니다. 최근 LLM 경쟁은 단순히 정확한 정보를 많이 아는 것에서 벗어나, 사람처럼 사고하고 결론을 내릴 수 있는 ‘사고 능력’으로 전환되고 있습니다.

OpenAI는 ‘정답률’을 줄이더라도, 더 생각하는 모델을 만들겠다는 의지를 보이고 있습니다. 하지만 사용자 입장에서는 정보 신뢰도가 흔들릴 수 있다는 문제가 생깁니다. 특히 교육, 의료, 금융처럼 사실 기반이 중요한 분야에서는 더 큰 검증 체계가 필요해지는 셈이죠.

 

🛠️ 앞으로의 개선 방향은?

OpenAI는 이번 모델들을 통해 얻은 피드백을 바탕으로, 추론 성능은 유지하면서도 환각률을 낮추는 방향으로 발전시킬 계획입니다. 이는 마치 인간이 "사고는 깊지만, 가끔 착각하는" 상태에서 점차 현실 감각을 되찾아가는 과정과도 비슷합니다.

또한 OpenAI는 이번에 모델의 사용 의도, 위험성, 한계점을 투명하게 공개하는 시스템 카드 문서를 강화하며, 윤리적 사용에 대한 기준도 함께 제시하고 있습니다.

 

✅ 결론: ‘생각하는 AI’의 진짜 시작

O4-mini는 단순한 파라미터 업그레이드 모델이 아닙니다. OpenAI가 LLM의 다음 단계를 ‘지식 전달’에서 ‘사고 체계 구현’으로 옮기고 있음을 보여주는 시그널입니다.

비록 지금은 더 많은 오류를 범할지라도, 이와 같은 실험은 결국 인간처럼 생각하는 AI로 향하는 필수적인 진화 단계입니다.

앞으로 이 추론형 AI가 어떤 방식으로 실생활에 적용될지, 그리고 어떤 방식으로 신뢰 문제를 해결할지가 업계의 핵심 이슈가 될 전망입니다.