白宫宣布投资和操作将《权利法案》和国家标准与技术研究院(NIST) AI风险管理框架(AI RMF 1.0)测试。解决人工智能风险,拜登管理与字母,人为,微软,OpenAI,额外关注生成的人工智能的影响。此外,美国司法部、联邦贸易委员会(FTC),消费者金融保护局(CFPB),平等就业机会委员会建立了人工智能原理提倡健壮的数据收集和分析减少偏见和歧视。

与AI领导人对话表明,AI治理是在早期,但海啸来了,将在所有企业的影响。领导人需要做好准备,因为他们是负责他们的组织如何使用人工智能。在美国,17个州和哥伦比亚特区在AI等待立法以及人工智能任务部队审查现有的网络攻击的相关法律,监督、隐私、歧视,和人工智能的潜在影响。现在企业AI治理,以确保:

  • 评估的嵌入式智能应用程序和平台百分之五十一的数据和分析决策者购买应用程序嵌入人工智能功能,和45%的人利用pretrained人工智能模型。企业需要人工智能测试有效性的政策,责任和业务和数据处理风险。当一个saas模型使用嵌入式智能冲突与企业政策,供应商需要证明他们本地移动模型,允许关闭配置和发布更新。
  • 控制在IP使用和侵权。基础模型和生成AI暴露企业权利和侵犯知识产权的行为。的美国最高法院最近支持,只有人类可以创建IP,不是人工智能。其他国家如澳大利亚也有类似的法律。企业需要全面了解数据源;验证训练数据的过程,算法,以及代码;和自动控制,以避免侵犯知识产权的行为。
  • 在人工智能的产品安全标准。AI领导人,如字母的Sundar Pichai,有呼吁监管而不是主动解决人工智能风险,允许增加有害宣传和错误信息。的欧盟AI行为是为了抵消这种趋势通过扩展产品安全法规,使用人工智能。在美国,消费者金融保护局和联邦贸易委员会正在调查现有产品安全,诽谤,消费者保护法律。法律团队需要准备法规遵从性和潜在的集体诉讼作为企业AI功能受到监管审查。
  • 包容是AI伦理的一部分。AI道德,不认为包容性是不完善的。有黑盒机器学习模型,如大型语言模型和神经网络,组织将很难保证模型的行为没有违反民事或人权法律。企业必须采取行动来减少训练数据和模型结果和偏差也意识到讨论人工智能和伦理必须涉及广泛的利益相关者。
  • 数据完整性和可观察性。企业需要能够跟踪和解释他们的数据。纽约州有规定进行审查,要求披露的数据来源和任何使用合成数据。虽然大多数组织跟踪数据来源和观察人工智能模型是在生产时,将必要的数据治理科学数据流程和数据采购主动地址数据透明度和使用权AI整个生命周期中。

随着监管机构和法院开始审查AI的使用,企业需要快速构建AI治理作为防范风险。预计数据科学和人工智能团队解决AI治理失败的秘诀。AI治理需要企业级合作——包括首席执行官、领导团队和业务涉众——建立有效的流程和政策。