איך עושים RAG עם Python, LangChain ו Ollama ?
דרג סרטון זה
התחבר כדי לדרג
תיאור
RAG (ראשי תיבות של Retrieval-Augmented Generation) היא שיטה שמשלבת בין מודלי שפה (LLM) לבין מאגרי ידע חיצוניים.
במקום שהמודל יסתמך רק על הידע שאיתו אומן (שעלול להיות חלקי או לא מעודכן), RAG שולף (Retrieval) מידע רלוונטי ממקור חיצוני — למשל מסד נתונים, מסמכים או וקטור-דטאבייס — ומעביר אותו כקונטקסט למודל השפה, שמייצר (Generation) תשובה עשירה ומדויקת יותר.
🔹 הרעיון המרכזי: שילוב של חיפוש + השלמה חכמה.
🔹 יתרונות: עדכניות, אמינות גבוהה יותר, הפחתת "המצאות" (hallucinations).
🔹 שימושים נפוצים: צ’אטבוטים על בסיס ידע פנימי של חברה, מערכות חיפוש חכמות, מסייעי תוכן מותאמים אישית.
בסרטון הזה נראה איך עושים RAG בפיית'ון
נשתמש בספרייה בשם LangChain
לרוב הפעילות, בספרייה FAISS - Facebook AI Similarity Search
כדי לבצע בדיקות התאמה
נריץ את המודלים באמצעות Ollama
ונדבר באופן כללי על כל התהליך
קישור ל GitHub Repository:
https://github.com/CodeCave0000/RAG_Langchain_Ollama