首页 编译 资讯编译

微软正构建新工具 可防止AI算法出现偏见

【TechWeb报道】5月26日消息,据国外媒体报道,微软正在构建一个工具来自动识别各种不同AI算法中的偏差。将自动识别渗入机器学习可以帮助企业利用人工智能,而不会无意歧视某些人。

QQ截图20180526152944

大型科技公司正在竞相出售可通过云端访问的现成机器学习技术。随着越来越多的客户使用这些算法来自动执行重要的判断和决策,偏见问题将变得至关重要。而且,由于偏见很容易蔓延到机器学习模型中,因此自动检测不公平性的方法可能会成为AI工具包的重要组成部分。

“像透明度,可理解性和解释这样的东西对于这个领域来说已经是足够新的了,我们中很少有人有足够的经验来知道我们应该寻找的一切,以及偏见可能潜伏在我们模型中的所有方式,”高级研究员Rich Caruna说。

算法偏差是许多研究人员和技术专家日益关注的问题,由于算法被用来实现自动化中重要决策,所以存在偏见可能变得自动化,大规模部署并且受害者更难以发现的风险。

Caruna表示,微软有吸引力的产品将帮助人工智能研究人员捕获更多不公平的事件,尽管不是全部。 “当然,我们不能指望完美 - 总会有一些未被发现或者无法消除的偏见 - 目标就是尽我们所能,”他说。

“公司现在可以做的最重要的事情是教育他们的员工,让他们意识到偏差可能出现并表现出来的各种方式,并创建工具使模型更容易理解,偏见更易于检测,”Caruna补充道。 。

Facebook于5月2日在其年度开发者大会上宣布了自己的工具,用于检测偏见。其工具称为Fairness Flow,它会自动警告某算法是否根据其种族,性别或年龄对某人作出不公正的判断。 Facebook表示,它需要公平流量,因为该公司越来越多的人正在使用AI来做出重要决定。

加州大学伯克利分校的教授Bin Yu表示,来自Facebook和微软的工具似乎是朝着正确方向迈出的一步,但可能还不够。她建议大公司应该让外部专家审核他们的算法,以证明他们没有偏见。 “其他人不得不调查Facebook的算法 - 他们不能成为秘密,”Yu说。

官方微博/微信

每日头条、业界资讯、热点资讯、八卦爆料,全天跟踪微博播报。各种爆料、内幕、花边、资讯一网打尽。百万互联网粉丝互动参与,TechWeb官方微博期待您的关注。

↑扫描二维码

想在手机上看科技资讯和科技八卦吗?

想第一时间看独家爆料和深度报道吗?

请关注TechWeb官方微信公众帐号:

1.用手机扫左侧二维码;

2.在添加朋友里,搜索关注TechWeb。

手机游戏更多