Google Cloud 的信息安全副总裁兼首席信息安全官 Phil Venables 在最近的一篇 Google Cloud 博文中强调了 AI 供应商分享漏洞研究的重要性。他强调,这种透明度对于建立对 AI 技术的信任至关重要,尤其是考虑到 AI 技术的快速发展。Google 认真对待网络安全研究,并在探索 AI 风险和开发更好的网络防御方面投入了巨资。值得注意的是,Google 的云漏洞研究团队发现了 Vertex AI 中以前未知的漏洞并进行了修复。Venables 敦促 AI 开发人员将 AI 安全研究共享常态化,倡导默认情况下生成式 AI 安全的未来。Google Cloud 旨在通过促进透明度、分享见解和促进关于 AI 漏洞的公开讨论来领导这项工作。他认为,隐瞒漏洞只会增加类似问题在其他平台上持续存在的风险。相反,行业应该努力使查找和修复漏洞变得更容易。Venables 最后呼吁共同努力,提高 AI 安全标准,努力创建一个 AI 模型默认安全的环境。