出品人:蔡文婷
蚂蚁集团技术风险效能部测试总监
随着AIGC技术的不断发展,测试领域在智能化方向上也将迎来一场深刻的变革。围绕测试分析、测试用例生成、测试数据构建等核心测试领域场景,我们结合大模型技术探索并初步落地了测试AIGC体系,基于大模型重新定义智能化测试。测试生成蚂蚁专场聚焦当前蚂蚁落地测试AIGC的实践案例,交流大模型在测试领域落地的实际应用场景和无限可能性,让测试变得更智能。                                                                                                                                                                                  

蚂蚁专场

随着AIGC技术的不断发展,测试领域在智能化方向上也将迎来一场深刻的变革。围绕测试分析、测试用例生成、测试数据构建等核心测试领域场景,我们结合大模型技术探索并初步落地了测试AIGC体系,基于大模型重新定义智能化测试。测试生成蚂蚁专场聚焦当前蚂蚁落地测试AIGC的实践案例,交流大模型在测试领域落地的实际应用场景和无限可能性,让测试变得更智能。                                                                                                                                          
基于AIGC的蚂蚁新一代测试用例自动生成技术                                                                                                       
周海莲(慕蓝)
蚂蚁集团技术风险效能部高级技术专家
蚂蚁集团高级技术专家,目前主要负责测试用例自动生成方向。毕业后曾就职于百度、阿里、蚂蚁,负责过搜索系统、广告系统的质量保障和质量平台研发。2020年以来加入蚂蚁测试智能引擎团队,负责测试用例自动生成方向,孵化出智能单元测试用例生成产品SmartUnit,在蚂蚁集团、阿里集团的多个BU中使用并取得优秀落地效果。2023年开始探索基于AIGC的新一代测试用例生成技术,并在蚂蚁内部落地使用。                                                                                                                                    
内容简介:
测试用例生成是测试智能化核心方向之一,不同的历史阶段发展出了不同的技术框架。AIGC浪潮之下,测试用例生成领域被完全颠覆,既有技术上的很多难点和挑战都有了新的解决之道。本次分享主要介绍蚂蚁测试用例生成模型的探索与落地,包括:1)Text-to-测试用例,根据需求生成测试用例;2)Code-to-测试用例,根据被测代码生成测试用例;3)测试用例补全;4)多场景联动,如测试分析与测试用例联动。                                                                                                                                                                                                                                      
演讲提纲:
1、测试用例生成的技术演进
2、现有技术的问题和痛点
3、基于AIGC的蚂蚁新一代测试用例自动生成
1)高质量测试用例样本
2)模型训练与调优
3)模型能力评测
4、总结与展望                                                                                                                                    
                                                                      
听众受益:
1、测试用例生成的技术流派与效果
2、AIGC浪潮下如何做测试用例生成   
 
基于AIGC构建具备中高级水平的测试领域AI助手                                                                                 
于  蕾 
蚂蚁集团平台技术事业部智能测试技术测试开发专家
蚂蚁集团测试开发专家,目前主要负责测试分析自动生成方向。毕业后曾先后就职于百度、蚂蚁,负责过信贷后台、搜索、权益资产、业务风险的质量保障和质量平台研发,并负责测试分析大模型服务、领域模型评测等方向的相关工作。
内容简介:
在测试领域,针对产品功能和系统设计功能的测试分析通常是测试工程师人工基于对产品和系统设计文档的理解以及个人经验分析产出,这种基于人工的方式成本高效率底,且过度依赖测试人员的业务水平和经验,此次分享介绍基于蚂蚁NLP大模型,训练具备基于产品文档和系统设计文档产出测试分析的模型能力,从而助力测试活动实现提效。                                                                                                                                                                                                                                                                                                                                 
演讲提纲:
1、业务测试流程与测试分析背景介绍
2、测试分析模型训练介绍
3、当前成果简介
4、展望                                                                                                                                                                      
                                                                      
听众受益:                                                                     
1、了解测试分析的主要内容
2、了解如何基于大语言模型训练测试分析领域下游任务
3、测试分析模型的适用场景                                                                                                   
                                               
蚂蚁代码大模型的评测实践                                                                                                       
申  敏
蚂蚁集团测试开发专家
蚂蚁集团测试开发专家,研究方向:大模型在代码领域的评测技术。
2017年加入蚂蚁集团,在蚂蚁先后负责账务核心、支付核心及计收费等领域的业务质量保障及蚂蚁大模型CodeFuse系列代码能力的评测。
内容简介:
AIGC 在测试领域的核心方向,一是生成测试领域内容如TestGPT,二是作为测评对象被精准全面衡量。当前,智能代码助理作为AIGC的垂类产品依然变成研究重点。智能代码助理可生成代码、理解代码及应用代码,其产生的代码在生产中的比例也会逐步提升,如何发现模型的长处和短处是评测实践中的重难点,本文将基于蚂蚁代码大模型介绍与之相应的评测技术,主要内容包括:评测内容、评测方法、多任务的评测框架等。                                                                                                                                                                                                                                                                                                                  
演讲提纲:
1、代码大模型的评测内容
2、代码大模型的评测方法
3、代码大模型的评估基准
4、多任务评估框架
5、展望                                                                                                                              
                                                                      
听众受益:
1、了解代码大模型的评测内容
2、了解代码大模型的衡量技术

京ICP备2020039808号-4