知识工程与记忆工程技术实践

本论坛在大模型与 Agent 快速演进的背景下,智能系统正在从“会回答”走向“会积累、会延续、会成长”。知识工程的重点,已从知识图谱、RAG 与知识增强模型,进一步拓展到记忆工程:包括长期记忆管理、多层记忆架构、动态上下文组织、记忆检索与更新、个性化建模、跨会话一致性、记忆治理与可解释回放等关键能力。
本次活动将系统探讨知识工程与记忆工程的融合路径,覆盖知识表示与推理、知识图谱、图数据库与图计算、知识问答、RAG、Agent Memory、Memory OS 等前沿主题,结合真实产业案例,分享从研究探索到工程实践的最新进展。

出品人:王昊奋
同济大学百人计划,特聘研究员,博士生导师。研究方向包括知识图谱、自然语言处理、对话问答机器人等。长期在一线人工智能公司担任CTO之职。他是全球最大的中文开放知识图谱联盟OpenKG发起人之一。他负责主持多项国家级和上海市AI相关项目,发表100余篇AI领域高水平论文,被引用次数达到2900余次,H-index达到26。他构建了全球首个可交互养成的虚拟偶像—“琥珀·虚颜”;所构建的智能客服机器人已累计服务用户超过10亿人次。目前,他担任中国计算机学会术语工委副主任,SIGKG主席,上海秘书长,中国中文信息学会理事,语言与知识计算专委会副秘书长,上海市计算机学会自然语言处理专委会副主任,上海交通大学AI校友会秘书长等社会职位。  
同济大学长聘教授/OpenKG发起人之一
AiDD技术委员会成员
出品人:熊飞宇
记忆张量(上海)科技有限公司创始人兼 CEO,上海算法创新研究院大模型中心负责人,本科毕业于华中科技大学,后获美国 Drexel University 博士学位。长期致力于以基本原理驱动 AI 系统创新,围绕“低成本、低幻觉、高泛化”这一核心目标,探索中国大模型技术演进与产业落地的新路径。
创立记忆张量后,带领团队提出并落地基于记忆分层架构的“忆³”大模型和记忆操作系统 MemOS,推动 AI 从一次性问答工具走向具备长期记忆、持续学习与协同进化能力的智能系统。作为国内记忆基础设施领域的代表性实践者,记忆张量已形成从底层架构到产业应用的完整布局,MemOS 云服务调用量位居国内第一,并获得招商证券、工商银行、中国电信等头部客户认可,实现数千万元项目签约。
曾在阿里巴巴集团业务中台和淘宝天猫集团负责数据智能与数据平台核心工作,主导构建国内首个千亿级数字商业知识图谱及知识交互零售行业大模型。其个人及团队成果曾获昇腾 AI 创新大赛全国总决赛金奖、年度 AI 基础设施卓越奖、浙江省科技进步奖等奖项,并在人工智能顶级会议和期刊发表多篇论文。
记忆张量 创始人&CEO
上海算法创新研究院大模型中心负责人
AI原生知识库建设与其在质效全域中的实践与应用
刘琮玮
腾讯PCG工程效能平台部 
工程效能与AI算法研究专家
内容简介:
在大模型技术飞速发展的时代背景下,AI已经深度融入到了各个应用领域,并逐步成为不可或缺的关键组成部分,而“知识库”也随之成为了AI时代最重要的基础设施之一,在人机结合中扮演了极其重要的角色,即让 ""人"" 可以通过 ""知识(数)"" 更好的应用 ""AI(机)"" 并获得更好的应用成效。但在 知识库 建设上当前仍有不少挑战,知识从哪来?知识该怎么处理?知识该怎么用?这些关键问题都在阻碍知识库的建设,也成为了大模型应用的重要阻碍。
在此背景下,我们基于大模型能力构建了丰富完整/高质量/高可用 的AI原生知识库,作为大模型时代的重要基础设施,在各个应用场景中发挥关键的支撑作用,并成为AI时代人机结合的重要连接点。同时,知识库正经历从""被动存储""向""主动赋能""的重要转型,我们基于知识库构建了强大的原生能力体系,在让知识库效果不断提升的同时,沉淀出有核心竞争力应用能力,实现从“支撑”到“赋能”的关键转变。在本次分享中,我将详细介绍我们的探索历程,包含实际的研发应用经验,对AI技术的畅想与展望,以及我们在研发过程中沉淀的思考与方法,希望可以帮助大家更好的拥抱AI。

演讲提纲:
1. 背景与挑战:
1.1  从AI技术演进看知识库
1.2  知识库的守与攻
1.3  我们的愿景与主张
2. AI原生知识库建设方案及分层架构
3. 知识库分层构建方案
3.1 筑基石 – 全局视野构筑资产底座
3.2 炼真金 – AI驱动构筑核心壁垒
3.3 结智网 – 打造知识库的神经网络
3.4 开繁华 – 统一服务支撑百花齐放
4. 知识库在质效全域中的实践与应用
4.1 知识库赋能业务效率提升
4.2 知识库赋能业务质量提升
4.3 知识库的产品化和生态化
5. 知识库技术细节
5.1 知识转化与人机结合
5.2 知识库原生能力与核心壁垒
5.3 知识库图谱化与无向量检索
6. 未来展望

听众收益:
1. 可借鉴的“知识库”探索与构建历程
2. 知识库在质效提升上的实践经验
3. 可复制的研发应用方法论
4. 知识库与大模型在落地过程中的思考和经验
5. 对大模型未来的构想和规划
腾讯PCG工程效能平台部  工程效能与AI算法研究  服务于腾讯QQ业务质效提升。
专注于人工智能(NLP)技术,大数据技术与质效领域的结合,参与过多个质效项目从0到1的研发落地工作,擅长通过引入人工智能技术驱动业务质效改进,具备丰富的人工智能研发落地经验。目前,正致力于通过“大模型”技术驱动业务质效提升,探索质效大模型建设,质效Agent研发与落地,摸索“大模型”技术与质效工作的深度结合,希望通过这些前沿技术推动为业务质量内建与质效提升。
从记住到学会:MemOS记忆工程的技术实践与系统思考
唐 波
记忆张量应用算法负责人
内容简介:
本次分享将围绕“从记住到学会”这一核心命题,系统介绍 MemOS 在 Agent 时代的记忆工程实践。演讲将从 OpenClaw 等执行型 Agent 带来的新需求出发,说明为什么传统“对话记忆”已经不足以支撑复杂任务执行,进一步引出 MemOS 对长期记忆、技能沉淀与场域认知的系统化设计。结合我们在多模记忆管理、分层检索、Reflect2Evolve 记忆进化框架等方面的实践,我会分享如何让 Agent 不只是记住历史,更能够从交互中抽取经验、形成技能、持续进化。最后,也会从系统架构与产品落地两个视角,讨论记忆工程如何成为下一代 Agent 基础设施的重要组成部分。        

演讲提纲:
1. Agent 时代为什么需要“记忆工程”:从记住信息到支撑执行与进化
2. MemOS 的核心设计:从记忆存储到记忆管理操作系统
3. 从“记住”到“学会”:Reflect2Evolve 如何让 Agent 从交互中沉淀经验与技能
4. 分层检索与多模融合实践:如何在真实任务中提升记忆调用效果
5. 对下一代 Agent 基础设施的思考:记忆系统的工程边界与产品机会        

听众收益:
1. 理解 Agent 时代记忆系统为何不再只是“上下文补全”,而是能力进化基础设施
2. 系统了解 MemOS 在记忆存储、技能沉淀、分层检索和工程落地中的关键设计思路
3. 获得构建下一代 Agent 记忆系统的实践启发,包括架构设计、技术路径和产品思考        
记忆张量(上海)科技有限公司应用算法负责人,主要负责MemOS与 ClawForce产品研发。主导研发的MemOS作为面向大模型与智能体的记忆操作系统,已在多项记忆基准上取得性能与效率双优,开源后获GitHub 8K+Star,并在金融投顾、工业运维、智能客服、科研助手等场景实现落地。曾带领团队研发新语NewsCopilot多智能体融合生产引擎,服务新华社并应用于两会场景,相关成果获王选科技进步一等奖。持续推进产学研合作,相关项目获昇腾AI创新大赛2025全国总决赛金奖。曾任职于微软亚洲研究院、阿里巴巴、美团,长期从事自然语言处理、强化学习与安全强化学习研究,在ICML、NeurIPS、ICLR、ACL 等国际顶级会议发表论文40余篇。
自进化智能体及其在国产硬件算子生成中的应用示例
温睦宁
上海交通大学人工智能学院研究助理教授
内容简介:
本课程围绕“自进化智能体”这一前沿方向,系统介绍其核心思想、关键技术及在国产硬件算子生成中的实际应用。课程首先从AI落地“最后一公里”问题出发,引出传统大模型在垂域场景中面临的泛化不足与高成本迭代瓶颈,进而介绍自进化智能体的常见技术范式与实践技巧。在此基础上,课程进一步结合国产GPU算子生成与优化场景,展示自进化智能体在实际任务中的应用。通过真实实验结果,说明该方法如何突破算子开发依赖专家、效率低下等瓶颈,实现高正确率与显著性能提升。最后,课程将讨论这一范式在算力生态、AI for AI及未来智能系统中的潜在价值与发展方向。        

演讲提纲:
1. AI 落地垂域的“最后一公里”挑战与传统微调范式的局限
2. 智能体自进化的核心机制与常见设计
3. 国产硬件底层算力生态面临的开发壁垒与“作坊式”人工迭代瓶颈
4. 构建闭环——自进化智能体在异构算子生成、验证与持续优化中的自动化应用
5. AI for AI(A4A)的广阔前景

听众收益:
1. 掌握至少一种低成本的 AI 持续进化新范式;
2. 洞悉底层算力生态的真实痛点与优化空间;
3. 获取“AI for AI”的工程落地参考。
主要研究方向为强化学习、大模型智能体及其在国产GPU算子生成方面的应用,在ICML、ICLR等顶级学术会议上发表论文二十余篇,谷歌引用2000余次。在过往的研究生涯中,温睦宁还致力于研究先进的强化学习算法与自进化智能体,深入参与了这些算法在昇腾、壁仞、沐曦等国产GPU算子开发等领域的应用落地,成果多次获得华为昇腾相关赛事金奖。
通义点金双飞轮在Harness中演进与实践
郭立帆
阿里云高级算法专家
内容简介:
通义点金作为阿里云面向金融行业的核心产品,过去通过“双飞轮”方法论,系统性地整合数据合成、有监督微调与强化学习等技术路径,显著提升了多类金融场景下的模型效果与应用表现。在生成式AI全面进入工程化阶段的今天,通义点金将这一方法论延伸至 Harness 体系中,进一步推动模型能力与模型工程的深度融合。本次分享将重点介绍在 Harness 框架下的关键实践,包括金融围栏模型、金融 AutoModel 与 AutoSkills 等能力模块,探讨如何构建面向行业的模型工程新范式,实现从单点模型优化到系统性能力提升的跃迁。        
演讲提纲:
1. 背景与问题
2. 第一阶段:通义点金“双飞轮”的模型侧实践
3. 第二阶段:双飞轮在 Harness 中的演进(核心)
4. 案例与效果

听众收益:
对技术人员
1.理解如何将数据合成 + SFT + RL → 升级为工程化体系
2.学会构建:
可复用的模型能力(AutoSkills)
可扩展的模型选择机制(AutoModel)
3.避免常见误区:
只做模型优化,不做系统设计

专注于大规模机器学习及其产业应用的研究者与实践者,目前是阿里云通义点金的算法负责人,研究方向涵盖数据驱动建模、模型优化以及应用型 AI 系统等领域,论文发表在ACL,AAAI,SIGIR 等国际顶级会议与期刊
近年来,致力于推动前沿 AI 技术在真实业务场景中的落地,尤其是在金融等高要求行业中,将数据合成、有监督微调与强化学习等方法进行系统化整合,持续提升模型在多样化场景下的表现。
在模型能力之外,进一步关注 AI 系统的工程化演进,探索如何将模型能力与工程体系深度结合,构建稳定、高效、可规模化落地的智能系统。
京ICP备2020039808号-4 京公网安备11011202100922号