新的自愿性人工智能“承诺

白宫发布新的人工智能指南

关键要点

  • 白宫最近发布了新的自愿性人工智能(AI)指南,七家领先科技公司做出了明确承诺。
  • 这些公司承诺将报告AI技术的适当和不适当使用。
  • 在安全领域,AI公司需在监管与创新之间找到平衡。
  • 保障AI开发安全性必须成为首要任务。
  • 公众需要提高对网络信息验证的意识,以避免误导。

上周末,我们得知白宫发布了新的自愿性人工智能(AI)指南,这一指导方针得到了七家领先科技公司的坚定承诺。这些公司承诺将报告AI技术的适当和不适当使用。此次宣布涉及的政策也包括对偏见的治理,并强调了对
**** 的强烈推崇。

以下是安保专业人士需要了解的这七家公司自愿承诺的五个重点:

要点 | 内容
—|—
1. AI引发的网络攻击未显著增加: | 尽管关于利用AI技术开发恶意软件或协助进行更复杂攻击的讨论很多,实际公开报告的这类攻击却很少。虽然有一些关于“深度伪造”技术用于误导和诈骗的报道,但相较于AI恶意软件或网络攻击,这类问题的威胁显得更为迫切。当前,对相关网络安全的担忧很可能是推测性的,更多地集中在未来的准备上。
2. AI公司需在监管与创新之间取得平衡: | AI市场的公司需确保符合政府最新发布的安全标准。同时,政府也需要认识到这些指南对于某些组织可能显得压制,特别是那些安全控制措施不如银行等高度监管行业的企业。企业必须优先考虑这些组织因素,以免影响开发团队的工作。
3. 保障AI开发安全必须成为优先事项: | 政府提到的”测试”方法论可能与AI开发者的内部安全及技术对社会的更广泛影响相关。使用AI技术尤其是大型语言模型(LLMs),可能会引发隐私方面的问题。例如,OpenAI在5月23日披露了ChatGPT的一个漏洞,意外地让用户访问了其他用户的会话标题。这对LLM用户的数据安全有深远的影响。政府可能会要求AI公司在发布AI技术之前进行社会影响的风险评估。
4. 产业无法保证AI技术只会用于防御目的: | 随着LLMs的发展,早期阶段就对提示内容实施了一些保护措施。然而,正如任何计算系统一样,总有方法供黑客绕过这些保护。确保这些技术仅用于防御依然是不可能的。
5. AI公司需提升公众验证信息的意识: | LLM以权威的方式传递的信息有时是错误的,被称为幻觉。这使得使用LLM的用户对某一主题形成亲密的知识,即使他们受到了误导。用户需以怀疑的态度看待这些结果,并进一步从其他来源进行验证。政府对此应提供指南,直到结果更为可靠。

为使这一自愿系统正常运作,我们需要创造一种激励机制,让公司积极参与。这可以采取认证的形式,证明其遵循政府所概述的保障和网络安全措施。此外,我们需要一个方式,使公众能够识别哪些公司受到认可并被视为”可信”。同时,任何指导方针必须与风险和企业规模成比例。例如,小型公司可能无法拥有大型企业的资源,这将抑制潜在的创新和竞争。任何系统都要在两者之间保持平衡:我们不希望具有良好意图的公司因遵循规定而妨碍了创新。

因此,上周五在白宫的会议被认为是一个良好的第一步。政府与行业在细节处理上还有许多工作要做。

詹姆斯·坎贝尔,Cado Security联合创始人兼首席执行官

Leave a Reply

Your email address will not be published. Required fields are marked *