原文:
www.kdnuggets.com/2019/03/designing-ethical-algorithms.html
由 Claire Whittaker,Artificially Intelligent Claire
随着我们寻求扩大机器学习应用,数据伦理变得越来越重要。
但你如何使算法符合伦理?
在算法设计中,你可以调整哪些关键杠杆来使其符合伦理?
设计伦理算法时需要考虑的 5 个领域。
花些时间考虑一下你算法的最终用途。你认为这个机器学习工具的应用是否符合伦理?
我们越来越希望机器学习科学家和开发者在他们不同意自己工作的使用方式时站出来发声。
值得注意的是,最近微软的员工对公司与美国军方签订合同制造 AR 头显发表了公开声明。他们表示,他们并没有签约成为战争利润者,并且不同意这一举动。
在进行广泛应用的机器学习项目时,问问自己你是否认为这项工作符合伦理。当机器学习算法应用于现实世界时,你是否对其潜力感到满意?
这是伦理算法设计的第一步。
确保伦理算法设计的另一种方法是查看你的训练数据集。
你的数据集在多大程度上代表了整个世界?这个数据集是否符合伦理,适合用来制作算法或预测特征?
从伦理角度关注你正在使用的数据集,是防止最近出现的一些机器学习应用伦理挑战的最佳方法之一。
当亚马逊宣布暂停开发其招聘机器学习算法时,是因为在训练集中发现了意外的偏见。尽管亚马逊曾尝试从系统中移除性别指标以防止偏见,但算法还是能够检测到这些指标。
我们每个人都拥有的无意识偏见可能会被机器学习放大。
了解数据集如何影响伦理算法设计可以帮助你减少偏见。
在开发时,除了与数据集相关,还需要考虑如何对算法的不同特征进行加权。
在优化权重时,你可能需要考虑输出是否在设计上是伦理的。
针对伦理算法设计的最终要点是你用于开发机器学习算法的特征。
你用来理解数据的特征范围是否是最适合给出伦理输出的?
在评估模型识别的高重要性特征时,你是否同意这是一种良好的表示,还是看到任何潜在的红旗?
再次,关注伦理算法设计将确保你在过程中不会被意外后果困扰。
我们最不希望的是生产中出现意外!
伦理机器学习的最终且可能是最重要的组成部分是多样性。
技术领域内各种类型的多样性不足是一个已知问题。
缺乏代表性样本的 AI 开发在过去造成了一些重大挑战。
这不仅仅是技术领域中的挑战。
有多少因广告失误而引发的丑闻可以通过多样化的决策者来预防?
仅仅一个声音就能发现其他人可能视而不见的潜在伦理问题。
麦肯锡关于如何控制机器学习偏见的报告建议实施标准和控制措施。
在将机器学习算法投入生产之前,拥有一个多样化的评估委员会可以确保伦理开发。
在开发机器学习技术时,我敦促你寻找那个声音,否则你可能会后悔。
在开发技术时保持伦理和包容,否则你可能会后悔。
说到这儿,我结束了这篇文章。我们都有机会开发对社会真正有益的技术。
确保你的算法在设计上是伦理的将使这一好处得以实现。
简介: 克莱尔·惠特克 正在致力于帮助每个人理解大数据概念及如何使用人工智能。这是她的热情所在!她如此热衷,以至于希望将这份热爱传递给你!她通过博客分享学习编程和 AI 创新的经历,帮助好奇的千禧一代,他们热爱技术和人工智能。你可以在她的博客 人工智能克莱尔 上阅读她在人工智能伦理方面的更多经历。
相关:
-
伦理 + 数据科学:DJ Patil,前美国首席数据科学家的观点
-
算法不是偏见,我们才是
-
利用 Mitchell 范式对学习算法的简要解释
1. Google 网络安全证书 - 快速开启网络安全职业生涯。
2. Google 数据分析专业证书 - 提升你的数据分析能力
3. Google IT 支持专业证书 - 为你的组织提供 IT 支持