作者|沙丘智库研究团队
来源|沙丘社区(www.shaqiu.cn)
自2022年底OpenAI发布ChatGPT以来,大模型受到市场广泛关注,各行各业积极探索大模型的应用。但从企业实践来看,将大模型无缝集成到企业工作流中存在较多挑战,包括大模型的幻觉、开发和维护大模型的高成本以及由于大模型知识库的局限性而导致的准确率不满足业务需求。
RAG(Retrieval-Augmented Generation,检索增强生成)是一种人工智能框架,旨在利用大语言模型(LLM)进行跨外部知识源的自然语言查询。RAG的核心思想是通过外挂知识库的方式给大模型提供更可靠的知识来抑制模型产生幻觉,通过定期迭代知识库的方式解决大模型知识更新慢和训练成本高的问题。
在实践RAG的过程中,企业会发现RAG走通很容易,但实际落地生产的难度非常大。
在《2024年“大模型+RAG”最佳实践报告》中,沙丘智库为企业提供了一种RAG系统的参考架构,这个架构整合了使用RAG技术成功开发和部署大模型应用所必需的关键能力,将大语言模型与企业数据融入到整个RAG方案中。企业可以将这一参考架构作为RAG解决方案的建设蓝图,逐步完善各个组件的能力。
RAG参考架构包括以下个核心组件:
· 内容预处理:对源文档需要进行各种预处理,以便搜索引擎能够更准确地找到符合颗粒度的相关信息;
· 搜索:搜索功能提取与用户query相关的内容,可能需要实施多种检索技术,并结合排序功能,合并来自不同搜索引擎的结果;
· 提示词模板目录和模板引擎:提示词模板提供了适合不同使用场景的提示词结构和模式,提示词模板目录将用于管理模板,这些模板将被映射到不同的模型,模板引擎利用所选的模板创建提示词;
· 模型库:用于选择和管理不同的大模型;
· 模型执行:集中化集成和访问大模型;
· 防护栏:防护栏是一种防护机制,通过过滤不适当的内容、执行隐私政策和保持响应准确性,确保安全、合规地使用大模型;
· 监控:RAG解决方案上线后需要持续监督,确保AI系统的有效运行和可靠性;
· 编排:在RAG解决方案中,多个组件之间需要协同工作,以确保从用户查询到最终响应的整个流程是流畅和高效的。
* 以上内容节选自沙丘智库《2024年“大模型+RAG”最佳实践报告》,更多RAG技术应用指南与典型案例请查看完整版报告。
///
完整报告:沙丘智库《2024年“大模型+RAG”最佳实践报告》(43页PPT)(可前往“沙丘智库”查阅)
报告目录
第一部分:“大模型+RAG”应用指南
· RAG定义与分类
· RAG系统的六个设计原则
· RAG系统建设的常见问题与六个最佳实践
· 企业级RAG系统的参考架构
· 企业级RAG系统建设路线图
第二部分:“大模型+RAG”典型案例
· 案例1:阿里云基于RAG的智能问答实践
· 案例2:中国三峡基于RAG的水电运维智能问答
· 案例3:AWS 对RAG知识召回效果差的7种应对策略
· 案例4:PingCap自托管Embedding模型
· 案例5:字节跳动基于大模型的答疑机器人
· 案例6:哔哩哔哩强化RAG模型的数据准备工作
· 案例7:360集团利用知识图谱增强RAG问答全链路
· 案例8:蚂蚁集团复杂文档处理策略
· 案例9:哈啰出行优化RAG,将知识问答准确率从40%提升到83%
· 案例10:百度智能云基于大模型的知识库智能问答系统
· 案例11:作业帮写作大模型RAG优化实践
· 案例12:众安保险通过RAG使大模型具备企业知识
· 案例13:火山引擎基于大模型的智能问答实践
· 案例14:华为云RAG知识库自我优化策略
· 案例15:中国移动RAG优化实践
· 案例16:联想使用GraphRAG实现Agent动态工作流
· 案例17:腾讯云ES RAG实现微信读书“AI问书”
· 案例18:去哪儿提高RAG知识检索准确率
*更多生成式AI研究可前往“沙丘智库”小程序查阅
*有任何需求可咨询客服微信:zimu738