设为首页收藏本站

LUPA开源社区

 找回密码
 注册
文章 帖子 博客
LUPA开源社区 首页 业界资讯 开源资讯 查看内容

微软开发新工具,可以防止AI算法出现偏见

2018-5-27 14:31| 发布者: joejoe0332| 查看: 658| 评论: 0|原作者: oschina|来自: oschina

摘要: 微软开发出一套新工具,用来判断AI算法是否存在偏见。AI算法可能会歧视某些人群,微软希望新工具能够帮助企业及时发现,安全使用AI。微软偏见侦测研究主管里奇·卡鲁阿纳(Rich Caruana)介绍称,新工具相当于“仪表板 ...

微软开发出一套新工具,用来判断AI算法是否存在偏见。AI算法可能会歧视某些人群,微软希望新工具能够帮助企业及时发现,安全使用AI。

微软偏见侦测研究主管里奇·卡鲁阿纳(Rich Caruana)介绍称,新工具相当于“仪表板”,工程师可以用它训练 AI 模型。他还表示,在 AI 领域,因为经验不足,有些新东西理解的人很少,比如透明度、可理解性、可解释性;还有随时可能出现的偏见,这些都是必须重视的元素。

PABLO DELCAN(图自:MIT Tech Review

在最近举行的会议上,哈佛机器学习讲师、罗德岛大学 CIO 加布里尔·法耶罗(Gabriele Fariello)曾说,在伦理偏见方面,AI 已经存在严重的问题。他认为,在医疗保健、司法及其它领域,有些决定由 AI 做出,它会直接影响我们的生活。

卡鲁阿纳还说:“好好训练员工,这是企业眼下应该做的最重要事情,这样员工就能知道在哪些环境下偏见会增加,在哪些环境下会显示出来,员工还能开发工具,让模型变得更容易理解,让偏见更容易被发现。”

来自:新浪科技


酷毙

雷人

鲜花

鸡蛋

漂亮
  • 快毕业了,没工作经验,
    找份工作好难啊?
    赶紧去人才芯片公司磨练吧!!

最新评论

关于LUPA|人才芯片工程|人才招聘|LUPA认证|LUPA教育|LUPA开源社区 ( 浙B2-20090187 浙公网安备 33010602006705号   

返回顶部