[2026-02-12] LLM의 '기억력'을 10배 끌어올리는 기술: 4B 모델로 SOTA를 달성한 QRRanker의 마법
LLM의 ‘기억력’을 10배 끌어올리는 기술: 4B 모델로 SOTA를 달성한 QRRanker의 마법 📖 논문: Query-focused and Memory-aware Reranker for Long Context Processing 🖥️ 프로젝트: HuggingFace Paper Page LLM의 컨텍스트 윈도우(Context Window)가 ...
