728x90 반응형 hallucination현상1 [IT / AI] 할루시네이션이란 / chat gpt에게 할루시네이션에 대해 물어보면? 안녕하세요. 이번 글에서는 chat GPT와 같은 LLM 모델에서의 할루시네이션 현상에 대해 씁니다. 1. 할루시네이션 1년전 정도만 해도 Chat GPT의 결과가 이런 경우를 많이 보셨을겁니다. 마치 없는 사실들도 사실인 것처럼 만들어내는 환각을 보는 듯한 모습인데 이것이 할루시네이션(Hallucination) 현상입니다. LLM(Large Language Model) 모델의 할루시네이션(Hallucination)은 모델이 틀린 정보를 마치 사실인 것처럼 생성해내는 현상을 말합니다. 즉, 모델이 실제 데이터나 학습된 지식에 기반하지 않고 없는 내용을 지어내거나 잘못된 정보를 제시하는 경우입니다. LLM 할루시네이션은 특히 사실 확인이 중요한 응용 분야, 예를 들어 의학, 법률, 금융 분야 등.. 2024. 11. 11. 이전 1 다음 728x90 반응형