OpenAI Blog(博客/媒体)60本文探讨了针对神经网络策略的对抗攻击方法,展示了对强化学习模型进行微小的输入扰动就能显著改变其行为。这些攻击揭示了当前模型在鲁棒性方面的脆弱性,对AI安全研究具有重要意义。论文adversarial-attacksneural-networksrobustnessai-safety推荐理由:了解对抗攻击有助于提升模型鲁棒性和安全性,是AI部署前必做的风险评估。
OpenAI Blog(博客/媒体)65OpenAI创建了能在不同尺度和视角下可靠欺骗神经网络分类器的图像,挑战了之前认为多视角采集使自动驾驶难以被恶意攻击的观点。这些对抗性输入可在物理世界稳定生效,揭示了现有视觉模型的脆弱性。论文adversarial-attacksrobustnesscomputer-visionautonomous-driving推荐理由:对AI安全研究和自动驾驶系统开发者极具警示意义,表明多模态感知并非对抗防御的万能药。