首页 >新闻 > 人工智能 > 内容

Data61是新成立的伦理人工智能研究所的负责人

人工智能 2019-11-22 22:48:34

英联邦科学和工业研究组织(CSIRO)的Data61与IAG和悉尼大学一起,创建了一个以人工智能为重点的新研究所,旨在探索新兴技术的伦理。

数据61解释道,梯度研究所是一个独立的非营利性机构,负责研究人工智能的伦理,以及开发基于人工智能的伦理系统,主要致力于创造一个“所有系统都有道德行为的世界”。

"通过将伦理学嵌入人工智能,我们相信我们将能够通过在伦理意识的机器学习中创造更好的结果来选择避免过去的错误的方式,"公司首席执行官比尔·辛普森(BillSimpson-Young)说。

“例如,在征聘过程中,当自动化系统使用历史数据指导决策时,它们可能偏袒过去在某些职业中任职人数不足的分组。

“通过在人工智能的创建中嵌入伦理,我们可以减轻这些偏见,这些偏见在今天的零售、电信和金融服务等行业都很明显。”

除了研究之外,预计新研究所还将通过实践、政策宣传、公众认识和培训,特别是在人工智能的道德发展和使用方面,探讨人工智能的道德操守。

数据61在周四的一份声明中说,该研究所将利用研究结果来创建开源的人工智能伦理工具,这些工具可以被企业和政府采用和调整。

Data61首席执行官阿德里安·特纳(Adrian Turner)补充说:“随着人工智能越来越广泛地被采用,确保技术的开发考虑到道德因素是至关重要的。”“作为一个国家,我们需要做到这一点,从生产率的提高到新到世界的价值中,从人工智能中获益。”

另见:艾“比核武器更危险”:埃隆·马斯克仍坚持监管监督

在今年布里斯班举行的Data61年度会议上,Data61的代理工程和设计总监HilaryCinis对ZDNet说,道德规范都是为了减少危害。

她说,解决根深蒂固的道德偏见的一个方法是确保构建算法的团队是多样化的。她说,必须对发展进行“文化反思”。

同样,Salesforce用户研究架构师凯西·巴克斯特(Kathy Baxter)今年早些时候在悉尼举行的人权与技术会议上表示,一个主要问题是数据中很难看到偏见。她说,同样复杂的是,公平意味着什么。

她说:“如果你关注标题,你会发现人工智能是性别歧视、种族主义和充满系统偏见的。”

"AI基于概率和统计,"继续说:“如果一个人工智能正在使用这些因素中的任何一个--种族、宗教、性别、年龄、性取向----它将不公平地剥夺一部分人口的特权,即使您没有在算法中明确地使用这些因素,他们也有可能不知道的代理。”

“在美国,邮政编码加收入等于种族。如果你的算法中有这两个因素,你的算法可能是基于种族提出建议。”

她接着说,研究需要事先进行,以确定谁将受到影响,并给出“硅谷泡沫之外的其他观点,或者开发商所处的任何位置泡沫”。

“人工智能从数据中学习,数据反映了过去--在梯度研究所,我们希望未来比过去更好,”辛普森-杨周四补充说。

辛普森-杨将与联合创始人兼首席科学家泰比里奥·卡塔诺博士(Tiberio Caetano)一起参加,安比亚塔是IAG的全资子公司,他将以首席科学家的身份领导该研究所对伦理人工智能的研究。

为什么澳大利亚正在迅速发展一个基于技术的人权问题(Tech Republic)。

人权倡导者呼吁澳大利亚政府在一个变革的时代保护所有人的权利,认为科技应该为人类服务,而不是排斥社会中最脆弱的成员。

人工智能的恶意使用:为什么现在就做好准备(TechRepublic)

在一份广泛的报告中,26位专家提供了关于预测、预防和缓解的人工智能安全分析和提示。他们指出,人工智能-安全关系也有积极的应用。

人工智能:趋势、障碍和潜在的胜利(专业技术研究)

越来越多的组织正在寻找利用人工智能来推动数字改造的方法。这本电子书着眼于人工智能技术的潜在好处和风险,以及它们对商业、文化、经济和就业前景的影响。

战场上的机器人:佐治亚理工学院教授认为人工智能可以发挥重要作用。

在罗纳德·C·阿尔金教授看来,技术能够而且必须在尽量减少战区平民的附带损害方面发挥作用,但在没有监管的情况下是不可能的。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢。