RAG란
LLM의 지식을 외부 문서로 확장하는 기법입니다. 질문과 관련된 문서를 검색하여 LLM에 컨텍스트로 전달합니다.
아키텍처
- 문서 로드 및 청킹
- 임베딩 생성 (OpenAI/Cohere)
- 벡터 DB 저장 (Pinecone/Chroma)
- 질문 → 유사 문서 검색 → LLM에 전달
from langchain.vectorstores import Chroma
from langchain.embeddings import OpenAIEmbeddings
db = Chroma.from_documents(docs, OpenAIEmbeddings())
results = db.similarity_search("질문", k=3)
댓글 0