报告题目:Adversarial Safety-Critical Scenario Generation for Testing Automated Driving Systems
报告人:杨子江 中国科学技术大学 计算机学院教授
报告人介绍:中国科学技术大学计算机学院教授。本科毕业于中国科学技术大学,之后分别在莱斯大学及宾夕法尼亚大学获得硕士及博士学位。曾任西安交通大学计算机学院教授及图灵交叉科学研究中心主任、西密歇根大学教授及软件工程实验室主任、密歇根大学访问教授。学术兼职包括IEEE国际电动与无人车技术委员会共同主席、IEEE自动驾驶国际标准工作组副主席、2020-2024年IEEE国际自动驾驶软件会议共同主席、2019年IEEE国际软件测试及验证大会共同主席、中国电动汽车百人会理事、开放原子开源基金会Carsmos项目组组长等。发表论文一百二十余篇及二十余项中、美专利。由清华大学出版社出版专著《自动驾驶系统开发》。获得ACM SIGSOFT杰出论文奖,ACM TODAES最佳期刊论文奖,谷歌计算机科学Engagement奖等。2019年创办深信科创公司并由姚期智院士孵化进行科技成果转化,为国家高新技术企业及中国汽车隐形独角兽企业。
报告时间:2025年2月18日周二下午14:00
报告地点:物联网工程学院B222
报告摘要:Evaluating the decision-making system is indispensable in developing autonomous vehicles, while realistic and challenging safety-critical test scenarios play a crucial role. Obtaining these scenarios is non-trivial due to the long-tailed distribution, sparsity, and rarity in real-world data sets. To tackle this problem, we introduce a natural adversarial scenario generation solution using naturalistic human driving priors and reinforcement learning. Our experiments on public data sets demonstrate that our proposed model can generate realistic safety critical test scenarios covering both naturalness and adversariality with 44% efficiency gain over the baseline model