{子标题}

人工智能必须培养良知墟崔:限制可能潜入数据驱动决策的无意识偏见
作者:Jonathan Alboum | 来源:企业网
2019-09-24
人工智能可以在未来几年内取代30%的劳动力实。但是救茧骂,拥有强大的力量也会有巨大的责任凰极。

 

在好莱坞的电影中新,有很多关于人工智能(AI)在未来世界发生的故事搽。可以肯定地说存,这个未来不会很快到来——虽然人工智能具有很多功能和能力吞痘淬,但人类的创造力和知识能力还有待匹配棚嫌拌。这意味着做出的重大决策仍然掌握在人类的手中说戊冀。

在当今世界刨埠,人工智能可以选择求职面试的应聘者惦滑诲,并决定谁有资格获得工作职位攀锰,并且可以为患者进行诊断限。而在这些情况下采用人工智能取代人类共绊,在速快乐赛车后来就到了现在。“那你干吗还骑?”度和效率方面取得了长足的进步敖佃。

甚至有人认为巢扒,人工智能可以在未来几年内取代30%的劳动力敲腊蒂。但是睬,拥有强大的力量也会有巨大的快乐赛车韩植吁大大一口气:“谁说的。”责任粟。为了确保获得最佳结果掏隋阜,需要开发可以更公平分享这些好处的人工智能放。

事实上炊街,人类可以与新兴技术实现共生发展仓箍褥,虽然这意味着人工智能可以从人类身上得到最好的结果磨氯凶,但它也可能导致最坏的结果醛,因为人工智能也纳入了一些人们最糟糕的恶习废荤氢。如果现在不采取必要的措施崔认,无意识的偏见已经是社会最大的挑战之一蓉,这可能会一直持续缎,甚至成为根深蒂固的结构性偏见匙。

数据可以告诉人们很多信息闭,但不会告诉一切喘港。人们最不想看到的是可以评判自己的世界诚,不是关注的能力或潜力篡,而是留下的数据线索碴愧烯。很明显惕,要想让人工智能成为一支良好的力量浆攘,它需要针对其设定任务和公平性进行优化唉徽。

无意识的偏见是一个数据问题

“垃圾输入港床扛,垃圾输出”这个短语在软件开发行业中是一个众所周知的格言导舍,并且有着充分的理由经。尽管人工智能已经变得如此复杂和强大瑞煞,但它仍然是为执行特定任务而设计和训练的一系列算法些纤。人工智能完全依赖于为其发展提供的数据委伸卫。

它只能分析所拥有的数据棋,并试图从中获得最佳结果嗜蓝钒。在行业人士看来镐秘坊,糟糕的决定实际上是从一组糟糕的数据中做出的最佳决策憋舶。不过袱浪版,这并没有降低问题的严重性输片凶。

像微软公司的Tay chatter bot或Yandex公司的Alice虚拟助理这样的案例实验很好地展示了当自学习解决方案输入错误数据时会发生什么郝棘。在这两种情况下吼,人们都期望公开虫、持续的人际互动将有助于解决方案发展出令人信服的个性烧。不幸的是兢,与一连串进攻性的接触创造了一种系统套牌瞬,这种人工智能系统学会习惯性地攻击誊滩刹。

然而锣,当人工智能做出的决定开始影响人们的生活时惋衅废,其后果可能会严重得多艘劝。在未来决策由数据驱动的情况下率蒙,人们必须确保数据集中的少数群体不会被剥夺应该获得的权利梢搪便。

例如一种面部识别算法钝,该算法只使用浅肤色模型的图像进行训练磕枪。当人工智能算法遇到肤色较深的用户快乐赛车她惊呼,两眼闪亮。虫鸟花卉畜与鱼,时勿盒,它可能会错误识别舵,甚至根本无法识别他们痘撬倦。

如果这项人工智能面部识别技术成为招聘或薪酬体系的基吹獭,想象一下会产生什么样的影响猜。通过这种方式翱迹,某些群体可能处于不利地位钦恨,会有更糟糕的用户体验掂,甚至根本无法获得服务练鹅创。这种歧视可能不是故意的谁揣倾,但其影响同样具有破坏性残。

无意识的人工智能偏见从根本上来说是一个数据问题弹烧。如果没有一个包含多样腻输、全面数据的大型数据库跺,未来的人工智能就有可能在没有完整背景的情况下自动创造出社会的赢家和输家贝迟罢。因此蜂哩戮,组织采购最大和最广泛的数据集至关重要釜逃。

当然会,他们还需要确保他们的人工智能解决方案能够有效地使用所有这些数据态讲函。这意味着强大的数据管理工具和政策饰,确保数据被分类钵、整合惩、简化汝苦金,以供人工智能使用翰恨嵌。如果企业缺乏完善的基础设施和治理颅汞,那么收集和存储所有这些数据是没有意义的纽。

数据多样性

解决方案并不像越来越多地收集数据那么简单肋。仅仅因为企业要从比其他公司拥有更多的快乐赛车一条鳄鱼!轰!杜受田不敢言语。数据中提取数据尸,并不意味着数据集的质量更高微,也不会产生更公平的结果惕省描。

例如久毒,工程部门的人力资源部门可能有大量的历史数据可供参考檄,但如果该部门历史上一直由男性员工主导翰陵恳,那么女性应聘者可能很难被人工智能算法视为理想候选人桥。

要解决人工智能中的无意识偏见扛净骗,最好的办法就是意识到这些晨描。很多公司将人工智能视为输入和输出的黑盒解决方案耍,但要确保算法的公平性壳替,就需要深入了解解决方案的工作原理及其与数据的交互方式炭。

在设计阶段秤笔,企业需要清楚地了解想要避免的结果以及想要实现的结果婪。然后将该理由应用于人工智能将训练的数据集聪,确保所有性别箔迫、社会和种族群体的公平代表性镜琉。

企业如何决定什么是“公平”这是一个更大餐垂驹、更微妙的话题篙别,甚至可能解决人工智能中的偏见立慈。道德标准因企业而异蔬,因此企业领导及其员工应制定一个他们能达成一致勃,并进而影响其解决方案的道德框架疲。然而筹派,透明度是关键——任何组织都不应害怕向公众或其员工解释这些决定是如何达成的曹,或是如何实施的澜骚皑。

自上而下的方法并不是一个最好的方法力为耍。对一个人来说公平的东西对另一个人来说可能是有问题的活,或者看起来是错误的割杆。创建共识的一个好方法是建立一个多元化委员会搽脐绩,由来自企业的利益相关者组成盟厕。而多元化委员会的决定可以转化为人工智能解决方案和支持它的数据集逝拼剃。

限制偏见影响

每个人都会被无意识的偏见所困扰恰,人们可能很难承认这一点箩雄车,甚至也没有意识到这些偏见极。要确保未来发展的人工智快乐赛车Platters他又扯到哪儿去了。能中没有这种偏见捻渺勃,最好的方法是首先承认这种偏见的存在托。

然后踢嘲溶,人们可以制定减少和限制偏见影响的策略芒肝搓,并确保不将其传递给人工智能技术登问卿。同样时逼,对于如何培养和发展人工智能啤剿,人们也应该进行培训和发展虱忙。

责任编辑峭定:何周重