- 学术交流
站内搜索
恶劣观测场景的鲁棒任务模型交互研究及应用
题 目:恶劣观测场景的鲁棒任务模型交互研究及应用
主讲人:梁栋 副教授/硕导 南京航天航空大学
时 间:2022年5月10日(周二)下午14:00-16:00点
腾讯会议:ID 368-802-795
主讲人简介:
梁栋 南京航天航空大学计算机科学与技术学院 副教授、硕导。2008、2011年获兰州大学学士及硕士学位,2015年获日本北海道大学信息工学博士学位,2015年起在南京航空航天大学模式分析与机器智能(工信部)重点实验室任教至今。以第一或通信作者在IEEE Transactions on Image Processing、Pattern Recognition、IEEE Transactions on Geoscience and Remote Sensing、IEEE Transactions on Neural Networks and Learning Systems及AAAI等期刊和会议上发表论文30余篇,授权和公开发明专利10余项。主持JKW某国防项目、国家自然科学基金、中国博士后基金(一等)、江苏省自然科学基金;参与国家重点研发计划、国家自然基金重点项目、江苏省科技成果转化重大创新项目各一项;承担中国工程物理研究院、阿里达摩院、华为等课题若干。成果获日贝瓦国际发明展金奖、中国生物特征识别大会“杰出贡献奖”、中国“软件杯”优秀指导教师奖、华为“智能基座”优秀教师奖。博士期间曾获ISOT光机电国际会议唯一Best Student Paper Award及日本北海道大学年度优秀研究奖。研究方向为鲁棒模式识别与智能系统。
讲座介绍:
场景解译是我国科研单位长期攻关的装备智能化关键技术之一,同时也是自1985年以来美国国防部高级研究计划局DARPA“战略计算计划”的核心研究内容,所涉技术可细分为成像增强、目标检测、场景语义分割及多目标跟踪等。在恶劣观测场景中,成像品质差、背景复杂、弱目标占比大、目标位姿多样等一系列可导致场景解译系统性能退化的“病态”问题是无法回避的常态。研究恶劣观测场景中的鲁棒任务模型交互,可充分暴露现有技术缺陷并提出普适鲁棒的场景解译技术手段。本报告以遥感目标检测、恶劣成像增强、动态场景前景分割为例,介绍课题组在鲁棒任务模型交互方面的最新研究进展及应用情况。
主办单位:科研处 计算机科学学院
更新时间:2022-04-27