人工智能道德工具包已更新包含更多评估组件

软件工具包已更新,可帮助金融机构覆盖更多领域来评估其对人工智能(AI)的“负责任”使用。该评估工具包于去年2月首次推出,重点关注围绕公平、道德、问责制和透明度的四项关键原则,统称为FEAT。它为金融行业的企业提供了清单和方法,以定义其人工智能和数据分析使用的目标并识别潜在的偏见。

该工具包由新加坡金融管理局(MAS)领导的财团开发,涉及31家行业参与者,包括中国银行、纽约梅隆银行、谷歌云、微软、高盛、Visa、华侨银行、亚马逊网络服务、IBM、和花旗银行。

MAS表示,第二次迭代已更新,包括其他三项原则的审查方法,以及改进的“公平”评估方法。该联盟中的几家银行已经测试了该工具包。

该开源工具包可在GitHub上获取,允许使用插件来与金融机构的IT系统集成。

该联盟名为Veritas,还开发了新的用例来演示如何应用该方法并提供关键的实施经验教训。其中包括涉及瑞士再保险公司的案例研究,该公司对其基于人工智能的预测承保功能进行了透明度评估。谷歌还分享了将FEAT方法应用于印度欺诈检测支付系统的经验,并绘制了其人工智能原理和流程。

Veritas还发布了一份白皮书,概述了渣打银行和汇丰银行等七家金融机构分享的关于将人工智能评估方法与其内部治理框架相结合的经验教训。其中包括需要一个跨地域的“负责任的人工智能框架”,以及一个基于风险的模型来确定人工智能用例所需的治理。该文件还详细介绍了负责任的人工智能实践以及对金融领域新一代人工智能专业人员的培训。

MAS首席金融科技官SopnenduMohanty表示:“鉴于人工智能的快速发展,金融机构必须建立健全的框架来负责任地使用人工智能。VeritasToolkit2.0版将使金融机构和金融科技公司能够有效评估他们的人工智能用例注重公平、道德、问责和透明度。这将有助于促进负责任的人工智能生态系统。”

新加坡政府确定了与生成人工智能相关的六大风险,并提出了一个解决这些问题的框架。它还建立了一个基金会,希望利用开源社区来开发测试工具包,以减轻采用人工智能的风险。

在本月初访问新加坡期间,OpenAI首席执行官SamAltman敦促在公众咨询的同时发展生成式人工智能,而人类仍处于控制之中。他表示,这对于减轻可能与采用人工智能相关的潜在风险或伤害至关重要。

奥特曼表示,随着人工智能越来越受到关注并引起各国的兴趣,解决与偏见和数据本地化相关的挑战也至关重要。对于ChatGPT背后的创意OpenAI来说,这意味着弄清楚如何在“尽可能多样化”且跨越多种文化、语言和价值观等的数据集上训练其生成式AI平台。

免责声明:本文章由会员“陈原”发布如果文章侵权,请联系我们处理,本站仅提供信息存储空间服务如因作品内容、版权和其他问题请于本站联系

陈原
免责声明:本文章由会员“陈原”发布,如果文章侵权,请联系我们处理,本站仅提供信息存储空间服务;如因作品内容、版权和其他问题请于本站联系