收藏备用|腾讯优图RAG技术全解析,小白也能看懂的工业级落地实践

张开发
2026/4/4 10:36:54 15 分钟阅读
收藏备用|腾讯优图RAG技术全解析,小白也能看懂的工业级落地实践
本文深度拆解腾讯优图实验室RAG技术体系从多阶段训练的Embedding模型、Reranker分层蒸馏优化到结构化表格智能解析与查询再到自研GraphRAG框架在构图效率与复杂推理上的突破性进展全方位覆盖语义检索、结构化信息检索及GraphRAG三大核心模块。文章兼顾技术深度与易懂性补充小白友好型解读和工业级落地细节清晰展示技术在实际业务中的应用成效同时展望Agentic RAG与低成本精细化的未来发展方向助力程序员快速掌握优图RAG核心技术为学习和落地大模型检索增强技术提供实用参考导语在AI落地过程中“从海量数据中精准提取知识、生成可靠智能回答”是核心痛点——传统检索方式效率低、泛化性差单纯大模型又易出现“幻觉”。腾讯优图实验室深耕RAG检索增强生成技术突破传统检索与生成的割裂局限打造了一套覆盖语义检索、结构化表检索、图检索的全栈解决方案兼顾性能、效率与落地性成为工业级RAG技术的标杆。对于小白程序员而言优图RAG技术的创新点的不仅值得学习借鉴其落地思路更能直接启发自身项目实践。本文将用通俗化表述技术细节结合的方式深度解析优图RAG的架构设计与创新实践从基础的Embedding模型、Reranker优化到进阶的结构化检索、GraphRAG框架再到实际业务落地与未来展望帮你快速吃透工业级RAG的核心逻辑。RAG技术架构语义检索1.1、Embedding模型1.1.1、多阶段训练管线为了提升基于大语言模型LLM的向量模型的检索能力采用多阶段训练策略逐步增强向量模型的泛化能力和检索效果。图1.1. 训练管线概览图弱监督对比学习训练。通过批次内负样本共享和跨设备负样本共享技术每个查询文本对应多达6万个负样本来极大增强向量模型的判别能力。有监督对比学习训练。通过优化数据采样方法使跨设备共享的负样本来源于同一个子数据集来保证难负样本的质量和难度一致性提升对比学习的有效性。在输入文本中加入特定任务的指令词进行指令感知的对比学习使模型能够根据不同任务调整语义匹配策略来提升向量模型指令遵循的动态检索能力。1.1.2、精细化数据工程1.1.2.1、 数据构造流程训练数据的规模和质量对向量模型的效果至关重要一般地构建对比学习训练数据的流程如下构建问题相关文档的文本对。通常有两种方式一是在网络上收集已经构建好的开源的问答对数据二是利用大语言模型杰出的文本生成能力为文档生成高质量的问题数据。通过收集开源数据和利用大语言模型合成数据扩充了训练数据的规模增加训练数据的多样性和丰富性有助于提高向量模型的泛化能力。挖掘难负样本构建问题正样本负样本三元组。构建两千万规模的文本语料库用于难负样本挖掘通过扩大语料库规模、构建特定行业语料库、利用大语言模型识别过滤假负样本的方法优化了挖掘负样本的质量和效果。1.1.2.2、 数据质量控制图1.2. 质量控制逻辑示意图在上述内容基础上借助 Reranker 模型对训练语料进行筛选及重组以进一步提升数据质量。大致的处理逻辑包含以下三项剔除相关性分数极低的伪正例基于相关性分布过滤简单负样本识别强负例挖掘过程中的潜在正样本并进行替换Reranker 模型的评分在通过验证后会应用于编码器的更新过程实现label层面的知识蒸馏。1.1.3、多任务均衡配置图3. 多任务跨GPU联合训练示意图为充分发挥 Embedding 模型的潜力解决不同任务属性、不同领域数据之间的冲突问题我们设计了一套精密的联合训练方案数据统一化依据数据在组织形式等方面的差异将整体语料划分为 IR 和 STS 两大类并采用统一的联调格式同时囊括二者从而实现混合加载。动态采样器跨设备负采样是编码器微调过程中的常用技巧但在多任务、多领域、多节点混合训练时跨域数据的引入会为对比学习带来噪音影响模型表现。对此通过重构采样器和加载器保证一次 iteration 中多个 GPU 获取的样本严格出自同一数据集并支持为它们设置差异化的 batch size 以充分平衡更新次数。任务特定指令及损失不同的检索及匹配任务拥有不同的领域特点及评价标准。相较于不加区分地对待全体数据差异性的设置可以在最大程度上为参数更新过程注入先验知识。经过分析我们针对 STS 和 IR 这两大类任务设计了不同的损失函数同时支持配置个性化指令以灵活应对下游任务。在这种方式下通过与采样器的联合作用每个批次将提供纯粹的任务梯度从而极大地避免强制适配时的潜在性能损失。模型融合策略以ModelSoups为代表的权重融合技术此前已被证实可以为CLIP等多模态模型带来提升而这一方案同样适用于文本嵌入领域。在精调阶段结束后通过选取不同训练轨迹得到的模型并精心设置它们的融合方式及权重进一步增强了网络在各项任务的表现。1.1.4、任务定制损失损失函数是模型优化过程的目标及主要参照对于神经网络的性能具有重要影响。良好的损失函数应充分贴近任务的评价指标从而为模型提供有效指导。具体到编码模型最主要的两类应用场景——文本语义相似性STS及信息检索IR。STS任务采用Spearman相关系数作为根本指标该指标通过计算样本的预测排位与真实排位之差来衡量顺序一致性。IR任务的核心指标nDCG同样是list-wise式的但它更强调高位优先性。鉴于在大部分IR任务中与给定query相关的文档其实非常稀少因此将这些正样本有效突出出来是提升模型表现的关键。基于这两类任务的差异性和共通性我们为STS任务引入了多种顺序性损失希望模型从逆序对、分数差异性等角度对Embedding分布进行调整以捕获细粒度的语义区别。对于IR任务则会在采集充分多的负样本同时尽可能地扩大query和所有正样本之间的相似度分数从而增强模型的判别能力。1.1.5、模型效果目前很多开源的Embedding模型在开源榜单测试集和业务侧测试集上的效果没法很好的平衡往往顾此失彼。我们的apd-embedding-2b模型能够在这两种测试集上都达到比较好的效果。我们验证了apd-embedding-2b模型在C-MTEB基准测试中的表现在中文IR任务和中文STS任务上均取得了SOTA的结果。中文IR任务中文STS任务同时我们也在业务集上进行了实际测试apd-embedding-2b以2B的参数量超越竞品4B、8B模型的效果具体结果见下表1.2、Reranker模型尽管向量模型的双编码器架构在实际的检索场景中计算效率高耗时短但它却无法直接捕捉查询文本和文档文本之间的微妙关联。为了提升检索环节召回文档的准确性需要采用基于LLM的Reranker模型对向量模型的检索结果进行重排序。这种方式可以有效捕捉到查询文本和文档文本之间深层次的语义关联从而给出更准确的检索结果。1.2.1、Reranker模型升级为LLM模型传统的Reranker模型通常基于BERT、RoBERTa等模型进行训练包括BGE-Reranker-large、Jina-Reranker等其模型参数量相对较小110M400M输入长度有限512个token对自然语言的理解能力远不及LLM。为了提升Reranker模型在实际复杂场景中的表现使用LLM训练Reranker模型成为必要方案。该方案能够有效发挥LLM对复杂问题和文档的理解能力从而提供更高质量的文档检索结果并且其所能支持的文本长度更长达到8k甚至更长。同时通过对特殊任务添加指令模型也能够适应不同场景的重排序需求。下表是在某业务数据上进行的评测1.2.2、分层知识蒸馏损失对比学习损失是的Reranker模型训练时常用的损失函数它的核心作用是帮助模型学习到区分相关和不相关查询-文档对的能力从而有效地提升文档的排序质量。除此之外知识蒸馏也是一种可用的训练策略。使用更强大的LLM作为教师模型为查询-文档对给出更精确的相似度分数然后约束Reranker模型输出和教师模型尽可能保持一致。这两种损失均有助于模型提升文档检索能力通常可以两者搭配一起使用。为了进一步发挥知识蒸馏的优势我们对Reranker模型多个层级的Transformer的输出添加约束构建分层Layerwise知识蒸馏损失。这种策略能够强化模型在不同深度层给出较一致的查询-文档相似度分数的能力也称层级输出能力。如果训练数据中未提供教师模型给出的相似度分数则可以用模型最后一层的输出状态作为知识蒸馏的监督信号来约束之前的部分层输出和最后一层一致的状态同样可以实现分层知识蒸馏。图1.4. 分层知识蒸馏损失策略使用该策略训练的Reranker模型具备层级输出能力允许用户选择模型不同层的输出来计算最终的相关性分数。这意味着用户可以选择使用模型较浅层或较深层的输出来进行重排序这为检索效率和性能提供了更大的灵活性。通过选择合适的层可以在性能和推理速度之间进行权衡。1.2.3、高质量业务训练数据构造对于特定业务场景通常缺乏领域适应的高质量训练数据用于Reranker模型的精调。对此我们构建了一套高效的数据自动化构造流程能够批量的清洗和构造高质量的训练数据。具体步骤如下Query预处理可选对于复杂问题可以优先对问题进行拆解用子问题或原问题借助向量模型进行第一阶段文档检索同时检查Query的明确性和拆解的合理性去除无效的QueryQuery实体识别对Query或子问题进行分析识别其中所包含的有效实体包括客观实体和时间实体以此作为文档初筛的参考依据。文档实体召回对于步骤1中检索到的文档使用LLM判断其中是否包含Query中存在的实体并给出实体召回打分客观实体和时间实体需要分别打分0为无召回1为全部召回。文档初筛根据实体召回结果筛除实体召回打分均为0的文档不参与下一阶段处理这些文档可视为简单负例文档精评分使用LLM对初筛后的文档结合Query一起给出相关性打分这一步的文档数量将大幅度减少提升精评分速度分数校准对于打分后的文档根据实体召回的评分重新校准分数这一步能有效缓解模型在评分时产生的幻觉纠正一些LLM的不合理判断。校准后的分数仅是针对单个Query的相对评分只用于文档排序自适应正负例筛选按照单个Query的分数分布选取正例遵循“高分突出的情况下固定正例数量 10”和“高分均衡的情况下保持最大分均为正例”两个原则根据正例数量按固定比例确定负例数量按分数从高到低依次补齐负例尽可能保留难负例。图1.5. 高相关性数据筛选流程这套数据构造流程的优点在于通过实体召回对文档进行粗筛能够有效降低精评分步骤需要处理的文档数量通过实体召回打分对精评分进行矫正能够有效避免LLM因为幻觉打出错误的高分或低分自适应正负例采样策略保证了每个Query所构造的正负例文档都是高质量且分布比例均衡借助该数据构造流程目前已针对业务场景进行了精调验证。根据业务评测报告精调后的版本显著优于线上版本结构化信息检索2.1、技术简介在数据呈指数级增长的今天企业内部积累了海量的信息数据其中结构化数据因其格式规整、语义明确蕴含着巨大的商业价值。然而如何让非技术人员也能轻松访问和分析这些数据一直是业界的难题。结构化数据具有固定格式和明确语义如数据库表格便于计算机快速查询和处理。非结构化数据如文本文档、图片无固定格式语义理解难度大。为应对结构化数据查询的挑战我们基于经典RAG框架融合Text2SQL技术通过“理解-检索-生成”的模式将用户的自然语言问题高效转化为精准的数据结果。2.2、方案总览2.2.1、多源数据检索结构化数据常见数据源形态包括DB数据库表、表格文件等业务上通过支持不同数据源的载入设计了基于文本切片检索的RAG与Text2SQL融合的方案将文本切片与text2sql查询结果送给下游阅读理解模型。阅读理解模型会综合两类信息生成更准确、更全面的回答——既包含基于统计或字段的精确数据也包含相关文本切片提供的上下文解释或补充信息。 整体检索问答方案如下图2.1. 不同数据源载入问答系统2.2.2、Text2SQL核心技术1自动化数据合成和增强数据合成对Text2SQL任务具有重要价值主要体现在快速适配新场景和提升模型泛化能力两方面。通过自动化生成多语言的数据库表结构、自然语言问题及带推理过程的SQL答案对系统能快速构建适配不同数据库方言如SQLite、MySQL等的训练数据。这种能力不仅显著降低人工标注成本更重要的是使模型能预先学习到多样化的schema结构和查询逻辑当面对真实业务中新出现的数据库范式或查询需求时模型凭借合成数据训练获得的经验能更快实现性能收敛。特别是合成的带思考过程的SQL答案通过显式展现查询逻辑的构建路径有效增强了模型对复杂查询的语义解析能力。图2.2. 数据合成方法通过数据合成加训对新场景提升效果如下2基于Agent的Text2SQL框架Text2SQL 是一项将自然语言转换为SQL的技术它允许用户通过日常语言与数据库交互而不需要掌握专业的SQL语法。在实际业务中落地应用仍面临诸多挑战。例如领域知识的泛化能力自然语言表达的多样性与复杂性语义不明确、不完整等。我们提出基于大语言模型的多智能体Multi-Agent协作框架该框架由三个Agent组成筛选器Selector从众多表中选择相关表和列减轻不相关信息的干扰分解器Decomposer将复杂的问题分解为子问题并逐步解决它们优化器Refiner使用外部工具执行SQL并获取反馈根据反馈信息优化错误的SQL。图2.3. MAC-SQL技术架构概览中稿COLING 2025 [1]基于开源 BIRD 和 Spider 数据集本框架配合自研的7B模型执行准确率超过ChatGPT-3.5等。本框架的方法配合 GPT-4 使用能够达到SOTA的水平远超单独直接使用GPT-4的效果。图2.4. 效果对比2.3、技术实践与优势2.3.1、表格文件场景1高精度结构化解析由于Text2SQL仅支持标准结构化表格现实场景的表格文件会有许多非标准表格被排除在外。针对嵌套、合并等非标准情况我们设计解析引擎-智能结构化识别方案将原本非结构化表格自动转化为结构化表格。调用智能结构化解析精度超过90%。主要阶段包括阶段①是否结构化知识表格判断阶段②表头识别阶段③将原表格元素识别结果提取整合为可被Text2SQL查询的结构化表图2.5. 智能结构化解析流程示意图2.6. 非结构化表格解析为结构化表格效果2灵活语义窗口切分对于表格文件场景下的语义切片支持可选窗口大小的切分策略通过表头属性与表内容的组合在保留语义的同时允许灵活配置多粒度切分方法3双引擎SQL查询将解析后的结构化表格数据存入ElasticsearchES和MySQL组成双引擎检索器。图2.7. SQL到ES/MySQL双执行引擎的路由在双引擎检索架构中ES弥补了MySQL在模糊查询和语义泛化上的局限性通过抽象语法树解析SQL语句可以实现语法校验与自动校正抽象语法树AST是源代码语法结构的一种抽象表示。它以树状的形式表现编程语言的语法结构树上的每个节点都表示源代码中的一种结构。图2.8. SQL语句的AST及其动作序列 (相关技术中稿ACL findings 2023[4])利用ES强大的全文检索能力处理模糊查询提升检索召回以某售卖场景为例若按照问题中表述的售卖模式为’一次性售卖与租赁模式’MySQL直接查询执行结果为空若使用ES泛化查询则售卖模式模糊匹配可以找到’一次性售卖模式’和’租赁模式’该策略有效提升了SQL值匹配不准时查询的召回率。性能提升验证基于SQL的ES查询首先将SQL语言通过AST解析检查SQL语法的正确性对语法错误的情况进行校正然后可以通过方言转化将SQL AST转化为ES的DSL语法进行查询召回。双引擎表格查询的评估结果如下2.3.2、通用DB场景1表拼接与链接针对Text2SQL的不同场景需要提供DDL / SimpleDDL两种数据schema的提示词范式。“DDL”数据定义语言包含标准化语言其中包括定义数据库结构和属性的命令提供创建数据库所需的详细信息包括列类型和主键/外键。 相关信息输入健全输入长查询慢。简化的 “SimpleDDL ”只提供表名和列名。相关信息输入简洁输入短查询快。表链接引入语义向量为大模型SQL生成提供可靠的依据Schema: 数据库的逻辑结构描述数据的组织形式包括表、字段、关系、约束等。定义数据如何存储、关联和验证。例如学生数据库 Schema 可能包含 学生表学号、姓名、年龄和 课程表课程ID、课程名并通过外键关联选课记录。Schema Linking模式链接: 指将Query与数据库模式Schema中的元素进行关联的过程。关注表和字段的映射如 “学生” → student 表Value Linking值链接: 指将Query中的具体值如数字、日期等与数据库中的实际存储值进行匹配和关联的过程。确保查询条件where中的值能正确映射到数据库中的对应字段值。关注查询条件值的映射如识别查询中的条件值如 “年龄大于20” → age 20处理模糊或非标准表达如 “上个月” → date ‘2023-09-01’匹配数据库存储的格式如 “张伟” → 数据库可能存储为 ‘张伟’ 或 ‘Zhang Wei’处理同义词或缩写如 “CS” → “Computer Science”利用语义向量拼接提示语生成SQL执行准确率结果如下2改写信号拆解与融合为了将上下文改写信号更好的融入Text2SQL模型中我们对复杂查询场景采用拆解策略将复杂查询拆分为多个简单查询对多轮交互场景采用基于编辑矩阵 (包含插入和替换操作)的改写信号表示方法该编辑矩阵与表格-文本链接关系矩阵融合一并融入到self-attention中。通过改写信号的拆解与融合可以显著提升模型在SQL解析过程中对上下文语义的理解能力。图2.9. 改写技术示意图中稿EMNLP 2022 [2]、PRICAI 2023[3]3SQL查询与计算Text2SQL技术作为连接自然语言与数据库查询的智能桥梁能够准确捕捉用户查询意图并将其映射为结构化的数据库操作指令在保持语义完整性的同时严格遵循SQL语法规范。应用Text2SQL技术具有以下优势①多维度查询支持 ②智能条件处理 ③语义理解与扩展常见能力覆盖如下腾讯云智能体开发平台实践效果示例2.4、问答推理与润色问答系统中通过阅读理解模型进行答案推理与润色能够显著提升Text2SQL直接查询结果的可读性同时实现以下优势1精准性与语义理解的统一Text2SQL可直接获取结构化数据中的关键字段或计算结果确保查询的精确性。文本切片检索提供语义层面的灵活匹配丰富回答依据的信息量。2复杂问题的高效处理对于需要结合结构化查询与文本推理的复杂问题如推理分析、趋势解读等模型可同时利用数据库字段的精确查询结果。关联问题的描述性内容。生成兼具数据支撑与语义连贯的综合回答。GraphRAG3.1、自研GraphRAG-Benchmark当前GraphRAG技术发展还处于初期阶段业界缺少专门针对GraphRAG评测的规范数据集同时缺少不同GraphRAG方法在相同benchmark下统一的效果评价方式因此今年6月份优图发布了自研的GraphRAG benchmark[5][6]。优图实验室GraphRAG-Bench在多个领域构建了不同类型的问题构建了适合衡量GraphRAG效果的复杂推理数据并提出了一套完备的效果评估流程。图3.1. GraphRAG-Bench构建逻辑及评测设计在优图实验室的GraphRAG-Bench中我们设计了四个维度来评价GraphRAG框架的质量并对当前主流的GrphRAG框架进行了评测分析。四个维度分别是构图成本构图成本主要评估从原始文本数据离线构建图谱过程中的时间和token消耗。在我们的测评中HippoRAG、DALKToGGFM-RAG四种方法在构建图谱的时间消耗相当RAPTOR方法在图谱构建过程中token的消耗量具有显著优势。检索效率检索效率主要评估每次查询对图谱检索的平均时长在9种方法中RAPTOR因为主要依赖向量检索速度最快依赖GNN为代表的GFM-RAG框架速度达到秒级以LightRAG为代表的图检索方法平均时长在十几秒级。回复准确率用于评估各个框架在不同类别的任务下回答问题的准确性。经评测GFM-RAG、GraphRAG、HippoRAG和Raptor方法平均准确率效果领先。推理能力所有GraphRAG方法显著提高了LLM的推理能力增加了生成正确理由的概率。HippoRAG和RAPTOR在推理能力上表现最佳这与它们检索有用信息的能力密切相关。3.2、自研GraphRAG框架当前以知识图谱为主要知识组织形式的第一大类框架有 GraphRAG和LightRAG等这类方法将知识粒度细化但是缺点在于构图和检索的质量和效率偏低难以在生产环境使用第二大类是树结构方案代表框架有RAPTOR和E2GraphRAG等这类方法通过层次化迭代对文本切片进行知识总结但是构图和总结高度依赖大模型且无法挖掘细粒度知识之间的关系。3.2.1、领域图谱构建的质量和效率提升我们通过融入两类方法的优点每个节点类型都有特定的功能和角色实体和关系节点用于连接语义单元属性节点用于表示实体的特征社区节点用于总结社区的核心信息。这种异构图结构使得优图GraphRAG能够实现更细粒度的检索和理解从而提高整体性能形成效果和效率均更贴近落地可用的创新GraphRAG方案。图3.2. Knowledge Tree与当前基于图/树的GraphRAG 方法对比及优势1通过知识树对知识进行有效组织构建属性、知识图(三元组)、关键词、社区四级知识粒度的树型图谱结构实现了对文本知识的精确多级整合从效果和效率上超越现有图和树的两类方案同时保留了 图的细粒度知识推理 和 树的层次化汇总摘要。2对GraphRAG社区检测进行创新 S2Dual-perception图3.3. 通过稀疏邻接矩阵的结构感知以及子图语义相似度的语义感知提出的社区检测算法现有的图社区检测SOTA算法Leiden存在如下问题强制按照连接性划分社区过分依赖图构建质量限制了推理发现和补全能力效率低下全图遍历单个节点不断计算与当前社区合并后的质量函数后更新社区不适用于大规模图数据。为了解决这些缺陷我们同时利用拓扑结构Structure和子图语义信息Semantics生成更高质量的社区总结和发现实现对结构化知识的高效组织克服传统社区检测算法的局限性。通过稀疏邻接矩阵计算Jaccard相似度量化锚节点与社区子图间的拓扑重合度反映锚节点与候选社区中邻居间的连接强度编码锚节点的特征与候选社区的子图特征捕捉语义重合度反映锚节点与候选社区子图的文本相似度。3支持不同领域的图Schema结构自适应优化通过预置三大类的中英文领域图Schema包括人物、事件和概念中的实体类型、关系类型和属性类型 在构图时大模型的Schema信息补充来自适应调整最合适特定领域的构图Schema在保证特定领域抽取质量的同时减少人工干预。3.2.2、优化复杂query的理解和推理领域内对复杂Query理解缺乏关注现有baseline在Query查询过程中主要以文本切片和摘要的语义向量相似度进行直接检索但复杂长难句Query的向量直接匹配效果较差导致难以真正理解复杂多跳Query。图3.4. Agentic GraphQ基于图谱Schema进行复杂问题的针对性解耦1复杂Query理解图Schema当前在AutoSchemaKG及优图GraphRAG的两个方法中被用于提升构图质量。针对复杂长难Query理解我们首次提出将图Schema应用到Query理解和子任务解耦上帮助模型对复杂多跳Query中的关键实体、关系和属性精准定位。首次提出图谱Schema感知的复杂Query理解模块AgenticGraphQ。通过Agent对Schema的理解挖掘Query中{Entity} / {Relation}/ {Attribute}之间的隐式关系和依存句法实现多跳向单跳简化的子任务解耦基于Schema结合Query理解和图谱推理大幅度提升复杂Query的理解能力及关键实体、关系等重要信息的定位能力通过将Query简化轻量推理即可完成解耦后的子任务极大降低下游对推理模型的依赖模型减重。2高效多路检索主题词匹配或关键词检索采用Query-Triple的三元组向量匹配并对结果进行相关性剪枝融入更多结构和语义信息取代传统Query-Node的单一向量匹配方案基于路径的DFS邻居检索3.2.3、框架效果经实验对比相比当前主流开源GraphRAG框架如微软GraphRAG、LightRAG等优图GraphRAG框架在构图成本和回答准确率上有大幅度的优化。1构图成本在hotpotQA、2wiki和musique三个开源数据集上对比评测优图GraphRAG的构图效率大幅提升。在社区检测上首次提出创新相比当前社区检测的SOTA算法Leiden效率提升近100%。优图实验室GraphRAG的大模型调用成本显著降低。在hotpotQA数据集构图阶段微软GraphRAG(Global)消耗token量为亿级LightRAG构图token消耗量在千万级优图GraphRAG在相同的数据上构图的大模型调用成本降低到百万级。2检索效果提升效果方面优图实验室GraphRAG对比微软GraphRAG(Global) 提升200%、对比LightRAG提升20%-100%在GraphRAG专注的复杂数据集上效果提升显著。未来展望目前我们的RAG技术已在汽车、文旅、泛政、金融等多个行业成功落地深度助力腾讯云智能客服、QQ浏览器、IMA等腾讯内部产品。随着大语言模型和RAG技术的快速发展我们也将持续打磨技术架构提升原子能力效果也将围绕Agentic RAG、精细化、低成本的趋势进一步实践1 Agentic RAG通过引入智能体技术实现复杂问题的自动化分解和多步骤推理。结合动态规划、实时反馈和工具调用能力提升系统在复杂场景下的推理准确性和解释性。2 精细化与低成本以GraphRAG作为新兴技术的代表在保障精细化知识管理优势的同时重点优化构图成本和计算效率。通过动态增量式更新、轻量化建模等技术手段降低部署门槛使技术更普惠。未来的RAG技术将不再局限于简单的“检索-生成”的线性流程而是发展为“规划-决策-检索-验证-推理”一体化闭环智能系统。也期待更多业界伙伴与我们携手共同探索RAG技术在更广泛场景的创新应用推动产业智能化升级如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线科技企业深耕十二载见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事早已在效率与薪资上形成代际优势我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包✅ 从零到一的 AI 学习路径图✅ 大模型调优实战手册附医疗/金融等大厂真实案例✅ 百度/阿里专家闭门录播课✅ 大模型当下最新行业报告✅ 真实大厂面试真题✅ 2026 最新岗位需求图谱所有资料 ⚡️ 朋友们如果有需要《AI大模型入门进阶学习资源包》下方扫码获取~① 全套AI大模型应用开发视频教程包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点② 大模型系统化学习路线作为学习AI大模型技术的新手方向至关重要。 正确的学习路线可以为你节省时间少走弯路方向不对努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划带你从零基础入门到精通③ 大模型学习书籍文档学习AI大模型离不开书籍文档我精选了一系列大模型技术的书籍和学习文档电子版它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。④ AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。⑤ 大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。⑥ 大模型大厂面试真题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我精心整理了一份大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。以上资料如何领取为什么大家都在学大模型最近科技巨头英特尔宣布裁员2万人传统岗位不断缩减但AI相关技术岗疯狂扩招有3-5年经验大厂薪资就能给到50K*20薪不出1年“有AI项目经验”将成为投递简历的门槛。风口之下与其像“温水煮青蛙”一样坐等被行业淘汰不如先人一步掌握AI大模型原理应用技术项目实操经验“顺风”翻盘这些资料真的有用吗这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。以上全套大模型资料如何领取

更多文章