首页 >新闻 > 科技 > 内容

IBM Research推出可解释的AI工具包

科技 2019-11-06 17:06:02

IBM Research今天推出了AI Explainability 360,这是一个先进算法的开源集合,该算法使用多种技术来解释AI模型的决策。

该产品发布是在一年前IBM发布AI Fairness 360之后,该产品用于检测和缓解AI模型中的偏差。

IBM正在分享其最新工具包,以提高对人工智能的信任和验证,并帮助必须遵守法规才能使用AI的企业,IBM研究人员兼负责AI负责人Saska Mojsilovic在电话采访中告诉VentureBeat。

“这从根本上很重要,因为我们知道组织中的人们除非真正相信自己的决定,否则不会使用或部署AI技术。而且由于我们为这个世界的大部分地区创建了基础设施,这对我们而言至关重要-并不是因为我们内部可能会在此空间中部署AI或产品,而是因为我们的客户来创建这些功能至关重要她说。

Mojsilovic说,该工具包也正在共享,因为创建可信赖的AI的行业进展“非常缓慢”。

AI Explainability 360借鉴了IBM Research小组成员的算法和论文。原始资料包括“ TED:教AI如何解释其决定”,在AAAI / ACM会议上发表的有关AI,伦理和社会的论文,以及经常被引用的 “利用自解释神经网络实现稳健的可解释性”, ”已在NeurIPS 2018上接受发布。

该工具包采用多种不同的方法来解释结果,例如可对比的解释(一种试图解释重要的缺失信息的算法)。

还针对特定场景制定了算法,例如Protodash用于解释原型,算法旨在向最近拒绝贷款的消费者或需要解释AI模型决策的贷款官员解释信用评分模型结果。遵守法律。

该工具包中的所有八种算法均来自IBM Research,但将来会添加来自更广泛的AI社区的更多算法。

“不是一个研究团队或一个组织可以动针。当我们团结起来并共同努力时,我们都会受益,这就是为什么我们打算扩大工具箱,” Mojsilovic说。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢。