清晰的此时,如果我们不是非常小心,AI将识别并利用训练数据中有害的偏见。和基于ai歧视——即使是无意识的——会有可怕的监管,声誉,和收入的影响。知道了这一点,许多公司、政府和非政府组织已经采用了“公平”作为道德的人工智能的核心原则。拥护这一原则是一回事,但是把它变成一组持续练习,企业级策略和流程是另一回事。与大多数事情AI,魔鬼的数据。

第一个问题是困扰公司公平的20多个不同的数学表示。一般来说,人工智能公平标准分为两个阵营:

  • 基于精度标准优化平等的待遇。这些标准比较不同测量模型的准确性,如真阳性或假阳性。例如,招聘算法可以进行优化,使其精确率-真阳性所有阳性的百分比等于在男性和女性。跨组织优化的准确性的问题是它假设训练数据的准确和公正的代表现实。
  • 表示标准,优化股本的结果。这些指标理论上正确的历史不平等的跨组织确保公平的结果。在招聘的例子中,一个算法优化人口平价将雇佣一个男女比例总体人口的代表候选人,无论资格的潜在差异。

燃烧的问题,当然,是:公司采用标准应该对于一个给定的用例?我的新报告AI的公平地址的问题。和我的研究发现,虽然努力运用公平标准是至关重要的,也有最佳实践组织可以采取在人工智能项目生命周期——从概念,部署和连续监测,大大降低有害的偏见和歧视的可能性。

这报告是最新的除了一个实质性的研究机构Forrester责任和伦理AI。如果你想念他们,这里有一些其他重要报告的主题,按共同伦理AI分组原则:

这份报告在AI的公平是一个绝对高兴的研究和写作。谢谢您的客户,同事,和思想领袖,贡献他们的时间和智慧这一重要研究!想进一步讨论这个吗?安排一个调查和我在一起。

注意:Forrester研究需要客户端访问在这篇文章中。