연구
Weakly Supervised Distillation of Hallucination Signals into Transformer Representations
arXiv:2604.06277v1 Announce Type: new Abstract: Existing hallucination detection methods for large language models LLMs rely on external verification at inference time, requiring gold answers, retrieval systems, or auxiliary judge models.
이 콘텐츠는 ArXiv AI 원본 기사의 요약입니다. 전문은 원본 사이트에서 확인해주세요.
원문 기사 보기 →