現在各式 LLM (大型語言模型) 滿天飛,你有沒有想過讓模型參考自己的資料來回答呢?
就像一個屬於你的 AI 知識庫管家,有問必答,還會標示引用文件的來源,讓你還可以回去原始文件參考。
今天要來帶大家使用 Python 中的 LlamaIndex 套件,搭配免費的 Gemini 模型 API,
打造屬於自己的 RAG (Retrieval Augmented Generation) 個人知識庫。
完整文章請至我的部落格閱覽,會有更好的閱讀體驗~~~
對於 生成式 AI、Python、網路爬蟲、網頁感興趣的各位,一定要追蹤 FB 粉專『IT空間』~