카테고리 없음

[Day 10] LLM & RAG 실전 챌린지 - 고급 RAG

31weeks 2025. 9. 8. 09:25
728x90
반응형

7.1 개발 환경 구축하기

7.2 리랭킹

  • LLM 기반 리랭킹은 대규모 언어 모델(LLM)을 활용해 초기 검색 결과를 다시 평가하고, 사용자의 질문과 가장 관련성이 높은 순서로 결과를 정렬하는 방법
  • LLM 은 초기 검색 결과를 전체적으로 검토함
  • LLM이 새롭게 계산한 점수를 기준으로, 기존 임베딩 모델의 겸색 결과를 다시 정렬함

[ 기본 RAG ]

  • 벡터 검색으로 상위 4개 문서를 찾아옴
  • LLM 호출 1회 : 검색된 4개 문서 전체를 바탕으로 답변을 생성
  • 총 LLM 호출 : 1회

[ 리랭킹 적용 RAG ]

  • 벡터 검색으로 상위 4개 문서를 찾아옴
  • LLM 호출 4회 : 각 문서와 질문의 관련성을 1-10점 사이로 평가함
  • LLM 호출 1회 : 관련성 점수가 높은 상위 2개 문서를 이용해 답변을 생성
  • 총 LLM 호출 : 5회

7.3 LLM 기반 리랭킹 비용 문제

  • 리랭킹은 각 문서를 평가하기 위해 LLM API르 ㄹ개별 호출해야 하기 때문에 비용이 많이 들고 처리시간이 길다는 단점이 있음
  • 비용 문제를 해결하기 위해 대부분의 실무에서는 LLM 기반의 리랭킹 방식 보다는 BAAI/bge-reranker와 같은 리랭킹 특화 모델을 사용함
  • 성능은 다소 떨어질 수 있으나, 비용 효율성이 매우 우수하여 실용적인 대안으로 널리 활용됨

7.4 하이드

  • 하이드(HyDE)는 검색 시스템의 성능을 향상시키는 혁신적인 접근방식
  • 질의에 대한 가상의 이상적인 답변 문서를 먼저 생성한 후, 이를 기반으로 검색을 수행

[ 하이드 작동 과정 ]

1) 가상 문서 생성 단계 : LLM을 이용하여 이상적인 답변 문서 생성

2) 베딩 및 검색 단계 : 생성된 가상 문서를 임베딩 모델을 사용하여 벡터화한 후, 이를 기반으로 벡터 데이터베이스에서 유사한 문서 검색

3) 최종 답변 생성 단계 : 벡터 데이터베이스에서 검색된 관련 문서들을 컨텍스트로 활용하여 LLM이 최종 답변을 생성



베이직 쿼리 엔진 응답결과

 

 

리랭킹 쿼리 엔진 응답결과

728x90
반응형