各国政府正在努力在生成式人工智能领域谋求一种微妙的平衡。监管过于严格,就可能抑制创新。监管过于宽松,就会给深度伪造和错误信息等破坏性威胁打开大门。生成式人工智能既能够增强不法分子的能力,也能够增强那些试图抵御不法分子的人的能力。
在上周于新加坡举行的《财富》头脑风暴人工智能大会中,有关负责任的人工智能创新的分组讨论里,与会发言者承认,要达成一套全球通用的人工智能规则是很困难的。
各国政府在监管力度这一方面已经存在差异。例如,欧盟有一套全面的规则,用来规范企业开发和应用人工智能应用程序。
其他政府,如美国,正在构建 CMS 霍尔本亚洲知识产权负责人希娜·雅各布(Sheena Jacob)所称的“框架指南”:没有硬性法律,而是朝着偏好的方向引导。
“过度的监管会扼杀人工智能创新,”雅各布警告说。
她将新加坡作为例子,指出创新正在美国和中国以外的地方出现。
虽然新加坡有国家层面的人工智能战略,但这个城邦国家却没有直接规范人工智能的法律。
相反,整个框架依赖于像政策制定者和研究界等利益相关者‘共同发挥作用’,以‘系统且平衡的方式’推动创新。
和在新加坡举办的‘头脑风暴人工智能’活动中的许多其他人相同,上周参与分组讨论的发言者承认,较小的国家在人工智能发展上仍能够与较大的国家竞争。
“人工智能的全部意义在于营造公平的竞争环境,”PayPal 亚太区首席信息安全官 Phoram Mehta 说道。(PayPal 是上周分组会议的赞助商)
但专家们也对忽视人工智能风险的危险提出了警告。
“人们真正所忽略的是,人工智能网络黑客攻击是董事会层面的网络安全风险,比其他任何风险都大,”Addo AI 的联合创始人、《财富》头脑风暴人工智能新加坡会议的联合主席艾莎·坎纳(Ayesha Khanna)表示。“如果你进行提示攻击,只是抛出数百个提示……给基础模型中的数据下毒,它可以完全改变人工智能的工作方式。”
微软在 6 月下旬宣布,它已经发现了一种方法来破解生成式人工智能模型,导致其忽略了针对生成与爆炸物、毒品和种族主义等主题相关的有害内容的防范措施。
但是当被问及公司如何阻止恶意行为者进入其系统时,梅塔表示,人工智能也可以帮助“好人”。
人工智能正在“帮助好人营造公平的竞争环境……最好提前做好准备,并在这些防御措施中运用人工智能,而不是一味等待,再看看能得到什么样的回应。”
机构