公平是AI情人眼里出西施
清晰的此时,如果我们不是非常小心,AI将识别并利用训练数据中有害的偏见。和基于ai歧视——即使是无意识的——会有可怕的监管,声誉,和收入的影响。知道了这一点,许多公司、政府和非政府组织已经采用了“公平”作为道德的人工智能的核心原则。拥护这一原则是一回事,但是把它变成一组持续练习,企业级策略和流程是另一回事。与大多数事情AI,魔鬼的数据。
第一个问题是困扰公司公平的20多个不同的数学表示。一般来说,人工智能公平标准分为两个阵营:
- 基于精度标准优化平等的待遇。这些标准比较不同测量模型的准确性,如真阳性或假阳性。例如,招聘算法可以进行优化,使其精确率-真阳性所有阳性的百分比等于在男性和女性。跨组织优化的准确性的问题是它假设训练数据的准确和公正的代表现实。
- 表示标准,优化股本的结果。这些指标理论上正确的历史不平等的跨组织确保公平的结果。在招聘的例子中,一个算法优化人口平价将雇佣一个男女比例总体人口的代表候选人,无论资格的潜在差异。
燃烧的问题,当然,是:公司采用标准应该对于一个给定的用例?我的新报告AI的公平地址的问题。和我的研究发现,虽然努力运用公平标准是至关重要的,也有最佳实践组织可以采取在人工智能项目生命周期——从概念,部署和连续监测,大大降低有害的偏见和歧视的可能性。
这报告是最新的除了一个实质性的研究机构Forrester责任和伦理AI。如果你想念他们,这里有一些其他重要报告的主题,按共同伦理AI分组原则:
- 公平和偏见:
- 把AI在“公平”公平的正确的方法(新报告)
- 人工智能的伦理:如何避免有害的偏见和歧视(原来的报告关于这个主题,2018年出版)
- 信任和透明:
- 解释可辩解的人工智能(解释不同类型的AI)解释清楚
- 唤起信任可辩解的人工智能(一个入门explainability AI的业务)
- 软件开发人员不知道什么神经网络可以伤害他们(一个入门explainability AI开发者)
- 没有测试意味着没有信任在人工智能:第1部分(关于软件测试在人工智能的一个优秀的报告我的同事迭戈Lo Giudice)
- 是时候真的想测试你的AI(以上两个部分)
- 问责制:
- 人工智能的候选国:购者自慎(减轻人工智能发展第三方风险)
- 规定:
- 欧洲领先的专注于伦理和值得信赖的人工智能,但努力创新的企业规模班纳特(一个很好的报告,我的同事玛莎对欧洲AI指南)
这份报告在AI的公平是一个绝对高兴的研究和写作。谢谢您的客户,同事,和思想领袖,贡献他们的时间和智慧这一重要研究!想进一步讨论这个吗?安排一个调查和我在一起。
注意:Forrester研究需要客户端访问在这篇文章中。