AI2024년 6월 2일1분 읽기

RAG (Retrieval-Augmented Generation) 구현 가이드

YS
YoungSam
조회 1935

RAG란

LLM의 지식을 외부 문서로 확장하는 기법입니다. 질문과 관련된 문서를 검색하여 LLM에 컨텍스트로 전달합니다.

아키텍처

  1. 문서 로드 및 청킹
  2. 임베딩 생성 (OpenAI/Cohere)
  3. 벡터 DB 저장 (Pinecone/Chroma)
  4. 질문 → 유사 문서 검색 → LLM에 전달
from langchain.vectorstores import Chroma
from langchain.embeddings import OpenAIEmbeddings

db = Chroma.from_documents(docs, OpenAIEmbeddings())
results = db.similarity_search("질문", k=3)
RAGVector DBLLM

댓글 0

아직 댓글이 없습니다.