马里兰大学开发出“隐形斗篷” 可让监控无法识别到你(马里兰大学学院)
4月15日 消息:马里兰大学帕克分校与Facebook AI的研究人员合作,开发了一种能够在物理和数字环境中有效降低对象检测器性能的对抗性模式。这项技术通过在物体上覆盖特定图案来欺骗检测器,使其无法正确识别对象,类似于一种“隐形斗篷”。
研究的主要目的是揭示对象检测器的安全漏洞。对象检测器通常用于安全监控和自动驾驶汽车等技术中,用于识别和定位图片中的物体。研究人员发现,通过有意设计的对抗性图案,可以欺骗这些检测器,这在安全敏感的应用中可能造成严重问题。
论文地址:https://arxiv.org/pdf/1910.14667.pdf
此外,研究还探讨了对抗性攻击的传递性,即在不同检测器模型、不同对象类别和不同数据集之间的传递性。研究团队解决了如何将数字对抗性攻击转换到物理世界的问题,确保数字生成的对抗性图案在现实世界中同样有效。
研究者开发的特殊对抗性图案,可以应用到物体表面,如衣物,使得这些物体对对象检测器来说变得“隐形”。这项技术的主要功能包括生成对抗性图案,适应多种检测器模型,并适用于物理世界。工作原理是使用机器学习技术,特别是对抗性训练方法,生成能够扰乱检测器算法的图案。
对抗性模式的设计、优化和实际应用是该技术方法的关键步骤。模式通过对抗性训练生成,目的是干扰和欺骗对象检测器。使用标准的对象检测数据集,如COCO数据集,进行模式初始化和优化。在优化过程中,需要考虑不同的尺寸、角度和光照条件,以确保模式在多种现实世界的条件下都有效。
实体测试和迭代是将数字模式应用到实体物体上的过程,如印刷到衣物或海报上,并在真实环境中进行测试。打印和材质选择、环境测试以及对攻击的有效性进行严格的量化分析都是这一阶段的重要组成部分。
通过这种方法,研究团队能够创建一种新的防御机制,可以应用于提高个人隐私保护,或在军用和安全领域中用于防御自动化监视系统。同时,这项技术的开发也揭示了当前对象检测技术的潜在脆弱性,为未来的研究和改进提供了重要的洞见。更多信息和论文可以在马里兰大学的相关项目网站和arXiv上找到。