CVPR 2020 Oral 线上分享 | 一框预测多目标:数据驱动的遮挡物体检测新方法

目前的主流物体检测框架(一阶段/二阶段)均遵循相同的物体检测范式:一个候选框仅预测一个目标框,随后用后处理方法来移除冗余框。这为检测遮挡场景中的物体带来了很多的困难。

观察到遮挡场景中一个候选框可同时与多个目标物体重叠,因此旷视研究院提出了一种一个候选框同时预测多个目标框的遮挡场景物体检测的新方法。

本期直播分享,PaperWeekly邀请到旷视研究院基础模型组研究员郑安林,为大家带来「一框预测多目标:数据驱动的遮挡物体检测新方法」的主题分享。

直播时间 & 地址

直播时间:5 月 8 日(本周五)晚 8 点

直播地点:https://live.bilibili.com/14884511

分享提纲

由于观察到遮挡场景中一个候选框可同时与多个目标物体重叠,因此旷视研究院提出了一种一个候选框同时预测多个目标框的遮挡场景物体检测的新方法。同时设计了 EMD Loss 和 Set NMS 来分别保证网络的排列不变性和在后处理过程中能够保留遮挡场景中的目标框。

在包含大量遮挡场景的数据集 CrowdHuman 上,本方法性能优良,同时在 Citypersons 或者 MSCOCO 等数据集上,本方法也有一定的性能提升。本方法对应的论文已入选 CVPR 2020 的 Oral。

本次分享的具体内容有:

  • 背景:主流物体检测框架遵循的策略及其改进方法

  • 数据阻挡的遮挡物体检测新方法

  • 新方法的实验结果

嘉宾介绍

郑安林 / 旷视研究院基础模型组研究员 

郑安林,旷视研究院基础模型组研究员,北京航空航天大学大学计算机学院硕士。主要从事计算机视觉相关领域研究工作,在 CVPR、ICCV 等会议中发表多篇论文,研究方向为计算机视觉和深度学习,主要包括显著物体检测和稠密物体检测等。

传送门 

欢迎大家关注如下 旷视研究院 官方微信号????