机器人也有歧视与偏见 人类当警惕AI阴暗面

   2017-09-13 慧聪机械网佚名3680
核心提示:近年来,除了机器伤人事件,AI的歧视与偏见问题也开始显现,人类的心灵垃圾已经污染了机器之心。除了种族、性别、健康、经济等

   近年来,除了机器伤人事件,AI的歧视与偏见问题也开始显现,人类的心灵垃圾已经污染了机器之心。除了种族、性别、健康、经济等方面的歧视,人工智能还可能把不友好的目光投向一些特殊群体。

机器人也有歧视与偏见人类当警惕AI阴暗面

    近日,因两次“逃跑”而闻名的俄罗斯机器人Promobot再度成为媒体关注的焦点,因为它与前来视察其所在园区的俄罗斯总统普京握了手。这台机器人的出逃主要源于未被发现的程序错误。由于在逃跑过程中未对人类造成任何伤害,Promobot的出格行为引来诸多网友的打趣与追捧,其俨然成为网红般的存在。

    然而,人工智能黑箱里所隐藏的错误与不足可并不总会引出这种“可爱”的行为,人类必须严肃对待AI或隐或现的阴暗面。近年来,除了机器伤人事件,AI的歧视与偏见问题也开始显现,人类的心灵垃圾已经污染了机器之心。

    就目前情况来看,AI的歧视主要存在于种族和性别两个方面。

    2015年,谷歌推出了一项图像识别的新应用,但很快便收到来自黑人用户的不良反馈,因为该应用将一些黑人的照片判别为“大猩猩”。更有甚者,在2016年举行的一场由AI担任裁判的选美大赛上,这位理性的评委选出的44位优胜者中,仅有一位是深色皮肤人种,而绝大多数是白人。

    AI同样戴着歧视女性的有色眼镜。一些由AI控制的搜索引擎在投放广告时,有意更少地向女性用户展示高薪职位,而且想当然地把女性与教育类、艺术类、照护类职业联系在一起。

    照此趋势发展下去,AI还将习得更多人类世界的歧视与偏见。在大数据、云计算等其他技术的帮助下,AI将获得并分析越来越多人类的隐私信息,并悄无声息地做出比人工更为精准的判断。如此一来,当健康状况较差、体质较弱的人去购买保险,当经济条件欠佳的人去分期付款购买商品,人工智能系统便有可能先于人类做出判断,无情地将弱者拒之门外。

    除了种族、性别、健康、经济等方面的歧视,人工智能还可能把不友好的目光投向一些特殊群体。近日,斯坦福大学的一个研究团队开发出一种新的AI算法,能够根据头像照片判断一个人的性取向,准确率相当惊人。尤其是对于男性性取向的判断,在提供五张照片的情况下,准确率能达到91%。虽然该团队并未表明要将这种算法投入现实应用,但其蕴含的能力显然是种潜在威胁,可能导致同性恋人群的隐私遭到曝光,加深社会对这一群体的歧视,而AI无疑就是其中推波助澜的关键角色。

    AI本身没有自主意识,也没有主观情绪,那么它的歧视与偏见是怎么来的呢?源头自然还是人类本身。造成AI歧视问题的原因大致有二。其一,AI的深度学习往往建立在大量既有数据的基础上,而这些来源于人类社会的数据不可避免地带有人类集体意识的各种成分,鱼龙混杂,因此人类持有怎样的偏见,则AI也自然而然有样学样;其二,从事人工智能与机器学习研究的科研人员以男性、白种人居多,女性、有色人种、少数族群占比较少,因此AI产品很容易沾染上其研究者的主流意识形态和思维特征,表现出研究者的主流好恶。

    歧视与偏见给人类带来了怎样的痛苦与灾难、消除歧视与偏见对于人类何其之难,相信这个社会中的每一个成员都有所体会。人工智能是人类用智慧培养起来的新生儿,若是想让它更好地反哺人类,那么我们必须从当前这初始阶段就提高警惕,谨防自身的黑暗蔓延开去,污染了这张白纸。

 
反对 0举报 0 收藏 0 打赏 0评论 0
 
更多>同类资讯
推荐图文
推荐资讯
点击排行

资质认证