<listing id="62mou"><object id="62mou"></object></listing>
    <output id="62mou"><pre id="62mou"><dd id="62mou"></dd></pre></output>
  1. 新闻中心

    EEPW首页 > 智能计算 > ?#21040;?#21160;态 > AI性别歧视有救,MIT研究人员给出减少AI预测偏差新方法

    AI性别歧视有救,MIT研究人员给出减少AI预测偏差新方法

    作者:时间:2018-11-20来源?#22909;究?#32593;收藏

      在社交媒体的应用场景中,人工智能算法模型的偏差导致搜索结果或用户体验不佳常常出现,甚至可以说是无法规避,如人们熟知的大数据杀熟等。可以预见,当应用到医疗保健、自动驾驶汽车、刑事司法或刑事处理等场景中?#20445;?#26356;多关乎生命、公?#20581;?#36947;德等的问题将会出现。此前,亚马逊用招聘出现了性别歧视问题就是有力的证明。

    本文引用地址:http://www.09140960.com/article/201811/394569.htm
    AI性别歧视有救,MIT研究人员给出减少AI预测偏差新方法

      在世界每一个角落部署,这可能导致?#20013;?#30340;系统性歧视,为此计算机科学人工智能实验室(CSAIL)研究人员创造了一种减少AI偏差,同时又不降低预测结果准确性的方法。

      据麻省理工学?#33322;?#25480;DavidSontag所言,传统方法可能建议将与多数人?#21512;?#20851;的数据集随机化,作为解决不同人群不平等结果的一种方法,但这?#22336;交?#26435;衡?#31995;?#30340;预测准确性,以实现所有人群的公平性,关键是从代表性不足的群体中挖掘更多数据。例如,研究人员发现,在一个案例中,AI模型将女性标记为低收入,男性标记为高收入,这是有失客观性的,因此他们通过将数据集中女性的代表性提高10倍,达到了将不准确结果的数量减少了40%的效果。

      Sontag在一份声明中给出这一设计的简单解释:“我们认为这是一个工具箱,可帮助机器学习工程师弄清楚他们的数据要问什么问题,以便诊断他们的系统为什么会做出不公平的预测。”

      他进一步解释说:“在这项工作中,我们认为预测的公平性应该在数据的背景下进行评估,并且样本量不足或未测量的预测变量引起的不公平性应该通过数据收集来解决,而不是通过约束模型来解决。”

      诚然,预测准确性的差异往往归因于数据缺乏或不可测量的变量因素,因此该研究团队建议在进行公平标?#35745;?#35770;之前,对模型偏差,模型方差和结果噪声进行AI模型分析。

      对于这一研究的?#26432;荊琒ontag表示,“这揭示并分离了数据收集不足和模型选择对公平性的不利影响。为了追求公平,其?#26432;?#20063;要纳入到数据收集和模型开发的投资。但在某些十分重要的应用程序中,其好处往往超过?#26432;盡!?/p>

      在Sontag与其博?#23458;?#38431;一起撰写的论文中,有这一方法的详细解释。据悉,该成果将于下个月在?#21830;?#21033;尔的神经信息处理系统(NIPS)上公布。



    关键词: AI MIT

    评论


    相关推荐

    技术专区

    关闭
    贵州11选5app下载
      <listing id="62mou"><object id="62mou"></object></listing>
      <output id="62mou"><pre id="62mou"><dd id="62mou"></dd></pre></output>
      1. <listing id="62mou"><object id="62mou"></object></listing>
        <output id="62mou"><pre id="62mou"><dd id="62mou"></dd></pre></output>
      2. 地方彩票开奖公告2元网 中彩网双色球综合走势图表 内蒙古快3一定牛和值 广西十一选五开奖结果官网 新疆时时彩冷号 河北快三基本走势图 黑龙江十一选五开 qq麻将 刘伯温正版四??像一肖准 彩票开奖查询 昨天安徽彩票快3走势图 湖北11选5技巧与方法 百人牛牛改密码 体彩黑龙江6+1第18073 上最靠谱的赚钱方法