贵妃榻厂家
免费服务热线

Free service

hotline

010-00000000
贵妃榻厂家
热门搜索:
技术资讯
当前位置:首页 > 技术资讯

白色机器人可能未来会在外国被告涉嫌种族歧视!

发布时间:2022-06-14 19:17:08 阅读: 来源:贵妃榻厂家
白色机器人可能未来会在外国被告涉嫌种族歧视!

前置性研究一直是社会学家们致力于去做的事,我们总在提中国机器人研究与国外的差距,其实这不单单在于技术,也在长远性的对其可能造成的社会影响,和可能造成伦理道德上问题的思考。近日,新西兰人机界面技术实验室的研究人员进行了一项关于机器人和种族主义的研究,这项研究报告历经坎坷最后由坎特伯雷大学出版,研究表明:人类认为长得像人的机器人也有种族之分,因此,他们对白色和黑色机器人也具有种族偏见。颜色歧视的发现不论是电影还是现实生活中的机器人,我们都会发现,机器人大多是白色的。例如威尔史密斯的电影《我,机器人》、电影《机器人总动员》里的Eve、本田的机器人Asimo、优必选的机器人Walker、波士顿动力的机器人Atlas,甚至是NASA的机器人Valkyrie,这些全部都是有着白色的外观。而一些现实生活中的人形机器人,也是仿照着白人的肤色,比如以奥黛丽赫本为原型的首个获得公民身份的机器人索菲亚。而根据一项新的研究,这种白色机器人盛行的原因可能是种族主义。研究人员发现,这些颜色可能会触发社会信号,决定人类对其他人或者机器人的反应和行为。首席研究员ChristophBartneck向美国有线电视新闻网解释道:对黑色机器人的偏见是对非裔美国人的偏见的结果。令人惊讶的是,以前从未与机器人有过互动行为的人也对机器人表现出了种族偏见。研究人员认为这个问题需要尽快解决。这个研究表明:假如机器人成为老师、朋友或者照护者,那么这些角色一旦被种族化的白色机器人占据,这将会是一个很严重的问题。很显然,研究中实验使用的是机器人,但是它们具有和人类一样的四肢和头部,肤色则是白色和黑色。而在搜索引擎上搜索机器人这个词的相关图片,你也不太会看到别的颜色,就像研究中指出的那样。研究人员认为,白人机器人的比例过高可能会对其他种族的认知造成伤害。Bartneck指出,机器人设计师是来自世界各地的,但他们仍然会最先选择设计白色外观的机器人。Bartneck告诉《TheNextWeb》:人形机器人应该代表人类的多样性。想象一下全是白色皮肤的芭比娃娃;想象一下在非洲或者印度工作的机器人全是白色的;再设想一下接管涉及权威工作的机器人也是白色的。很显然,这会引起对帝国主义和白人霸权的担忧。机器人不仅仅是机器,它们还代表了人类。在第二项研究中,HITLabNZ团队增加了浅棕色的机器人,他们发现,随着种族多样性的增加,参与者对机器人的种族偏见逐渐消失。这可能意味着机器人的多样化可能会导致人类减少对机器人的种族偏见。Bartneck告诉美国有线电视新闻网:就像芭比娃娃有不同的肤色一样,我们也希望机器人不仅仅是白色的。我们希望本研究能够鼓励机器人设计师们创造出代表他们群体多元化特征的机器人,没有必要把所有机器人都设计成白色。Bartneck如是说。但不少人或许会对这样的研究嗤之以鼻。毕竟,如果我们询问机器人制造公司,为什么要将他们的机器人设定为白色,他们十有八九会告诉你:因为白色跟各种家庭装饰都很百搭呀!实际上,Bartneck的文章在投稿期间就收到了不小的阻力,这篇提交给HRI会议的论文经历了空前的审查过程。论文大约有5000个词,但收到的评论就有大约有6000个词。在会议计划委员会开会期间,大家对文章进行了详细的讨论,共有9名评审员被要求对该研究进行评估。他们的文章被读者反复审视,有些人指责作者在耸人听闻。人工智能的种族歧视此前《每日邮报》曾报道,来自英国和美国的计算机科学和心理学专家表示,经过复制、识别和学习其它机器人的行为,自主机器人竟然可以产生偏见,有些算法甚至产生了种族歧视和性别歧视,也证明了其并非无的放矢。偏见和歧视是人类社会所特有的高级认知,它需要人类意识和思维的支持才会产生。为了证明人工智能可以产生偏见,英美两国科学家也曾进行了一次计算机博弈模拟实验。实验中,一台超级计算机控制上千个个体进行博弈,并分析每个个体的给出的决策。实验结果表明,绝大多数个体都将资源给自己所在的群体,并且这一决策很快就被其它的个体学习运用。科研人员还在另一项关于性别的研究中发现,face++、微软等众多科技公司推出的人脸识别服务中存在性别歧视和种族歧视。实验数据表明,对于黑人女性,微软在21%的情况下无法识别,而face++无法识别的概率更是高达35%,此外,这些系统普遍对白人男性表现的更好。因此,报道认为,机器人制造和编程设计的人类程序员,在潜意识中带有歧视意识,从而表现在研究和编程过程中,这导致的直接结果就是对于白人机器人的重视程度更高,并且这一偏重也导致了机器人呈现的对于部分人类呈现的不友好行为。人工智能是计算机科学的一个分支,研究的主要目标是让机器完成一些需要人类智慧才能解决的复杂问题,这就需要人工智能对人类的意识和思维过程进行模拟。报道表示,正因如此,一些科学家才反对人工智能的研究,他们担心人工智能某一天可能会进化出完全的自主意识,带上某部分歧视,甚至对人类产生敌意,同时由人类设计的机器人,如果不经控制,可能最后会成为毁灭人类的最佳工具。研究与分析《科技纵览》杂志(IEEESpectrum)中有这样一段记载:ChristophBartneck使用了射手偏见框架(shooterbiasframework)进行试验。在射手偏见研究中,参与者被赋予警察的角色,当面对人们手持枪械或其他友好物体的图像时,他必须决定是否射击。图像仅显示一瞬间,研究中的参与者来不及做出合理的思考,他们必须在不到一秒的时间内采取行动。若参与者在决定开枪时对黑色机器人(对比白色机器人)开枪更加快速,在决定对没有武器的机器人不开枪时对白色机器人(对比黑色机器人)下决定更快速,我们就会认为这位参与者对机器人存在种族偏见。而射手偏见研究显示,无论图像中出现的是人类还是机器人,与武装的白人相比,参与者更快地射击武装的黑人;同时更快地避免射击手无寸铁的白人,而不是同样解除武装的黑人。这些发现说明了射手偏见既存在于人类之中,同时也存在于机器人之中。这种偏见明确表现了对黑人的种族歧视,更是将这种歧视自动延伸至种族化为黑人的机器人。ChristophBartneck表示:我们在调查中直接要求人们选择该机器人是什么种族时,只有11%的被调查者选择了不适用选项。我们的隐性衡量标准证明了人们确实种族化机器人并据此调整他们的行为。我们调查的参与者显示他们存在对机器人的种族偏见。为什么重视颜色研究?ChristophBartneck认为,目前世界上许多工程师都忙于实现机器人基本功能,如行走与在所处环境中移动,这是他们最为关注的问题,以至于他们没有那么重视研究所产生的社会影响。大部分时候,机器人的设计是由内而外的,意味着各功能部件先被搭建并测试,最后再添加一个外壳包装。至于这层包装将如何影响人类使用者,或更宽泛地说,机器人整体将如何被其使用者所感知,绝大多数时候只有事后才会被想到。因此,几乎没有机器人创造者思考过种族歧视问题。多年来,人机器人交互(HRI)社区的成员们在尝试更深理解人类与机器人是如何交互的。我们试图帮助机器人创造者将机器人设计得与社会更加融合。种族歧视对人类与人类社会整体都正在造成大量伤害。今天,种族歧视依然真实地存在,黑人平权运动更加证明了这个问题的重要性与紧急性。与此同时,我们将推出社交机器人,目的是与人类互动,融入人类社会。这些机器人将成为未来的护工,教育人员与陪伴者。ChristophBartneck表示,现在几乎没有非白人外表的拟人机器人。大多数主流社交机器人研究平台,如Nao、Pepper与PR2,机器人均使用白色材料,并且看起来是白人。可以预见到,这种社交机器人种族多元性的匮乏会导致一系列问题以及其他领域中种族多元性的匮乏。我们根据各社会分类下的社会观念导致的刻板印象去评价他人,歧视经常是社会刻板印象的一种体现。结语我们希望我们的研究能促使人类进行反思,是什么社会与历史因素导致了来自如此多元化的种族群体的工程师们几乎只设计生产很容易被当做白人的机器人,他们为何尚未意识到这一点。ChristophBartneck说道,我们相信我们的发现将会帮助社交机器人设计上的多元化,这样一来这项前景光明的科技不会受到种族偏见的影响。中东样貌的机器人的出现以及日本惯以设计亚洲人样貌的机器人都是这个方向上的重要进步,尤其是因为这些机器人并非被刻意设计成丰富种族多元化的形象,而是机器人设计上的自然产物。

轮播图H5模板
一键换图H5模板