• 问答
  • 技术
  • 实践
  • 资源
对抗性攻击
论文速递

本文转载自腾讯AI实验室。
ICLR(International Conference on Learning Representations),即国际学习表征会议,由深度学习三巨头之二的 Yoshua Bengio 和 Yann LeCun 于2013年创立。尽管起步晚,但其影响力已不容小觑:它被誉为“深度学习的顶级会议”,受到学术研究者们的广泛认可,谷歌学术 h5 指数已经排到了全榜第 17 名,超过了 NeurIPS、ICCV、ICML。日前它放出了今年的论文接收结果。ICLR 2021 共收到 2997 篇有效投稿,最终接收 860 篇,其中 53 篇为 Oral 论文,114 篇 Spotlight 论文,其余为 Poster 论文。接收率为 29%,相比去年的 26.5% 有所提升。腾讯 AI Lab 共 7 篇论文被 ICLR 2021 收录,其中包括一篇 Spotlight 展示论文,涵盖腾讯 AI Lab 在机器学习和自然语言处理两大重点方向的研究成果。以下为详细解读。

Spotlight1.针对医疗图像的一种稳定性对抗攻击


1.针对医疗图像的一种稳定性对抗攻击方法Stabilized Medical Image Attacks本文由腾讯 AI Lab 和腾讯天衍实验室合作完成。深度神经网络使得医疗图像的自动诊疗的性能得到大幅提升。然而深度神经网络会带来对抗攻击的脆弱性等困难。因此针对普适医疗图像的对抗攻击具有明确的意义,可以有效进行分析并避免自动诊疗中带来的误判问题。本文在现有针对自然图像的对抗攻击基础上,提出一个稳定性约束项。在对抗扰动迭代计算的过程中,该约束项衡量当前扰动和之前扰动的相似性。从KL散度的角度来看,该约束项使得对抗攻击将网络的输出引入一个错误而固定的结果。该结果不受网络结构和数据类型的影响。在若干医疗图像分析的数据库中(包括最近的新冠数据库COVID-19),我们的方法能够稳定而有效的攻击现有的自动诊疗神经网络系统。本研究可用于分析自动医疗图像诊疗的潜在风险。例如由于医疗设备受污染带来的诊疗误判情况,以及人为的医疗保险欺诈等问题。

  • 0
  • 0
  • 318
收藏
暂无评论
18342

大连交通大学 · 其他

大连交通大学 | 本科

  • 1

    关注
  • 0

    获赞
  • 0

    精选文章
文章专栏
  • 367