随着人工智能成为日常生活的一部分,开发人员需要确保它学习的模型能够准确反映现实世界。
人们通常认为人工智能只是代码——冰冷、没有生命、客观。然而,在一些重要的方面,人工智能更像一个孩子。它从所接触到的数据中学习,并基于开发者(游戏邦注:也就是它的“父母”)所设定的目标进行优化。
就像一个小孩子一样,人工智能不了解历史或社会动态,这些历史或社会动态塑造了世界的现状。就像孩子有时会在不知情的情况下发表奇怪或不恰当的言论一样,人工智能在不了解其学习数据所依据的更广泛的社会技术背景的情况下,天真地从世界上学习模式。
然而,与儿童不同的是,人工智能越来越多地被要求在高风险环境中做出决定,包括寻找犯罪嫌疑人、告知贷款决定和协助医疗诊断。人工智能“父母”想要确保他们的“孩子”不学习反映社会偏见和以歧视的方式行事,在整个发展过程中考虑多样性是很重要的。
多样性影响AI开发生命周期的几个阶段。首先,训练和评估数据的多样性是许多任务的关键,这些任务的目标是确保AI对不同背景的人表现良好。例如,开创性的《性别阴影》(Gender Shades)论文[PDF]强调了面部处理技术对黑人女性的准确率可能低于其他群体。“性别阴影”和随后的研究将这种偏见归因于用于开发这些技术的数据集缺乏足够的多样性和代表性。这种类型的偏见也可能发生在人类身上:研究表明,人们更难认出不同种族的人。但心理学研究也表明,如果一个人在成长过程中与不同的人有更多的接触,这种偏见就会更低。
然而,仅仅将数据集多样性作为一个目标是不够的,在实践中实现它也并非微不足道。正如我在即将发表的一篇研究论文中所讨论的那样,收集足够大的、多样化的数据集是非常具有挑战性的,尤其是在诸如以人为中心的计算机视觉这样的敏感环境中,现有的公共数据集经常受到多样性和隐私问题的困扰。
在索尼AI,我们有几个AI伦理计划,专门关注伦理数据收集。我们的目标是开发最佳实践和技术,以优化公平、隐私和透明度。
除了AI学习和“成长”所需的数据集的多样性外,考虑开发者“父母”的多样性也是至关重要的。虽然人工智能产品的触角越来越全球化,但开发人员绝大多数集中在少数几个国家。鉴于人工智能伦理和监管取决于不同国家的价值观和文化背景,这是一个需要解决的重要问题。例如,一项关于全球道德偏好的研究发现,当面对一个“电车问题”时,自动驾驶车辆必须决定是转向,198彩票是属于合乐888彩票方案彩票旗下吗,为什么198彩票客服说他们跟合乐视一个集团的,问了合乐的客服也不否认。,导致旁观者死亡,还是不转向,导致乘客死亡,世界各地的人们有非常不同的道德观点,这取决于假设的旁观者/乘客的人口统计数据。就像父母向孩子灌输自己的道德偏好一样,我们必须考虑特定文化的目标和价值观如何在人工智能发展中得到反映。
开发和部署人工智能的公司内部的多样性水平也很重要。企业文化在培养或阻碍多样化的AI团队方面发挥着关键作用。雇主通常会将多元化问题归结为人才渠道问题——在学校学习计算机科学或相关领域的女性或少数族裔学生人数不足。这种对渠道问题的重视未能解释科技行业女性和少数族裔的高流失率。最近一项研究调查了女性和少数群体离开人工智能团队的原因,昨天一个198彩平台玩家联系上了198彩总代理 ,总代理团队非常欣慰,于是送给他了一个大红包优惠奖励。,发现人员流失主要是由于有害的工作环境、偏见的经历和缺乏成长机会。
拥有多样化的人工智能“父母”是关键,因为发现人工智能发展中的潜在问题需要理解技术如何以有害的方式与社会互动。例如,198彩票平台开了几年,198彩带玩团队如何登陆,美国执法部门对人工智能的使用存在极大争议,因为美国的执法实践历来存在偏见。美国研究人工智能伦理的人工智能开发者非常了解试图为美国执法部门开发人工智能的失败模式,但每个国家都有自己的社会不平等,人工智能可能会加剧这种不平等。应对这种危害需要对人工智能部署的环境有更高的认识和理解。