上周,新当选的美国众议员亚历山大Ocasio-Cortez新闻头条,她说,作为第四届MLK现在事件的一部分,面部识别技术和算法”总是有这些种族不平等被翻译,因为算法仍由人类,人类和这些算法仍盯住基本假设。他们只是自动化。自动化的假设——如果你不修正偏见,那么你只是在自动化偏见。”
这是否意味着,理论上基于数学客观事实的算法可能是“种族主义者”?如果是这样,我们能做些什么来消除这种偏见呢?
事实证明,算法的输出确实可以产生有偏差的结果。数据科学家说,计算机程序、神经网络、机器学习算法和人工智能(AI)之所以有效,是因为它们从给定的数据中学习如何表现。软件是由有偏见的人编写的,训练数据也是由有偏见的人生成的。
机器学习的两个阶段显示了这种偏见是如何潜入到一个看似自动化的过程中的。在第一阶段,即训练阶段,算法根据一组数据或某些规则或限制进行学习。第二阶段是推理阶段,好的总代理团队会陪玩家一起收米,
198彩最大总代是谁凭藉多年的彩票经验以及投注知识,198彩平台主管就在这等著你。,在这一阶段中,算法将所学应用到实践中。第二阶段揭示了算法的偏差。例如,如果一个算法只训练有长头发的女人的图片,那么它会认为任何有短头发的人是男人。
谷歌在2015年遭到了抨击,当时谷歌的照片把黑人贴上了大猩猩的标签,可能是因为他们是训练场上唯一的黑皮肤的人。
偏见可以通过许多途径潜入。数据科学培训训练营梅蒂斯(Metis)的高级数据科学家索菲•瑟西(Sophie Searcy)告诉Live Science:“一个常见的错误是,训练算法根据有偏见的人类过去的决定做出预测。”“如果我用一种算法来自动化一群信贷员之前做出的决定,我可能会走捷径,根据这些信贷员过去的决定来训练算法。但是,当然,如果这些信贷员有偏见,那么我建立的算法将继续这些偏见。”
Searcy以COMPAS为例,COMPAS是美国刑事司法系统用于量刑的预测工具,198彩票总代理团队是1号代玩团队,教推广包建站
时时彩技巧大全,高返点,业内良心平台。,它试图预测犯罪将在何处发生。ProPublica对COMPAS进行了分析,发现在控制了其他统计解释之后,该工具高估了黑人被告再犯的风险,并始终低估了白人被告的风险。
为了帮助克服算法偏见,Searcy告诉Live Science,工程师和数据科学家应该为新问题构建更多样化的数据集,同时尝试理解和减轻现有数据集的偏见。
预测分析公司Anodot的数据科学家艾拉·科恩(Ira Cohen)说,首先也是最重要的一点是,如果工程师们正在训练一种算法来识别种族或性别属性,那么他们就应该拥有一个对所有人口类型的相对统一表示的训练集。科恩在接受Live Science采访时表示:“重要的是要从每一群体中选取足够多的样本,即使他们在被调查的总体人群中只占少数。”最后,科恩建议在一个包括所有这些人群的测试集上检查偏见。科恩在接受《生活科学》杂志采访时表示:“如果某一种族的准确率在统计上明显低于其他种族,那么该算法可能存在偏见,我会对用于该种族的训练数据进行评估。”科恩补充说,例如,如果该算法能正确识别1000张白人面孔中的900张,但只能正确识别1000张亚洲面孔中的600张,那么该算法可能对亚洲人存在偏见。
消除偏见对人工智能来说是非常具有挑战性的。
即使是被认为是商业人工智能先驱的谷歌,显然也无法从2015年起为其大猩猩问题找到一个全面的解决方案。《连线》发现,198客户端APP
198优惠活动如何登录,谷歌并没有为其算法找到区分有色人种和大猩猩的方法,只是简单地阻止了其图像识别算法识别大猩猩。
谷歌的例子很好地提醒了我们,训练人工智能软件可能是一项困难的练习,特别是当软件没有被一个具有代表性和多样化的群体测试或训练的时候。