内容简介:
生成式 AI 正快速改变各行各业运作模式,从企业内容创作到工程师代码自动生成,其潜力已成为推动业务 AI 化转型的关键动力。然而,测试领域面临全新挑战:模型依赖海量训练数据,数据质量缺陷易引发生成结果偏差;输出动态性与非结构化打破传统 “输入 - 输出” 确定性校验;测试结果评估主观性使质量难量化。
本次演讲聚焦生成式 AI 算法测试实践痛点与突破路径,依托一线经验,剖析数据依赖性、输出动态性、评估主观性等挑战的应对策略,结合 OPPO公司 AI 项目实例,呈现其产品测试方法与实践,为从业者提供实操性与创新性参考,助力解决测试实际难题。
演讲提纲:
1.生成式 AI 的发展历程
梳理生成式 AI 的发展历程及关键技术与应用演进
2.生成式 AI 的变革与测试挑战
测试领域在数据、输出、评估层面面临的全新挑战
数据层面:模型依赖海量训练数据,数据质量缺陷易引发生成结果偏差
输出层面:输出动态性与非结构化打破传统 “输入 - 输出” 确定性校验
评估层面:测试结果评估主观性使生成内容质量难量化
3.生成式 AI 算法测试的实践与突破
聚焦生成式 AI 算法测试的实践痛点与突破路径,剖析三大挑战的具体应对策略
4.AI 项目测试实践
结合 OPPO公司 AI 项目背景,分享其 AI 产品的测试方法、落地过程及关键问题解决思路
5.价值与助力
听众收益:
了解生成式AI测试的关键技术和方法
学习实际项目中的测试经验
就职于OPPO公司,负责AI测试架构设计,长期专注于AI测试领域,擅长语音算法、生成式大模型算法测试。