<지식 사전> Chat-GPT는 왜 거짓말을 할까? 할루시네이션 현상의 원인과 해결 방법
🧑💻 요약 대형 언어 모델(LLM)의 대표적 한계인 ‘할루시네이션’ 현상을 원인·데이터·언어 구조·평가 난점·연구 동향으로 나누어 설명하며, 왜 LLM이 사실이 아닌 정보를 생성하는지 구조적으로 정리하였습니다. 안녕하세요, 여러분! 오늘은 Chat-GPT를 비롯한 대형 언어 모델(Large Language Models, LLMs)의 치명적인 약점으로 지적되는 '할루시네이션(Hallucination)' 현상에 대해 알아보려고 합니다. 도대체 할루시네이션이 무엇이고, 왜 발생하는 걸까요? 지금부터 하나씩 파헤쳐 보겠습니다!1. LLMs와 할루시네이션의 정의 LLMs는 방대한 텍스트 데이터로 학습한 거대한 인공지능 모델입니다. 수백억 개의 매개변수를 사용해 인간의 언어를 이해하고 생성하죠. 챗GPT가 대..
IT 클라우드 인사이트/IT 지식사전
2024. 4. 5.