可解释AI发展报告2022:打开算法黑箱的理念与实践

目前人工智能已经成为了通用型技术,以深度学习为代表的机器学习加速渗透到各行各业,产生了非常丰富的应用。作为引领AI技术加速变革的重要法宝,机器学习是一把双刃剑。

目前人工智能已经成为了通用型技术,以深度学习为代表的机器学习加速渗透到各行各业,产生了非常丰富的应用。作为引领AI技术加速变革的重要法宝,机器学习是一把双刃剑。

一方面,以深度学习为主要技术模型的机器学习可以帮助AI摆脱对人为干预和设计的依赖,形成AI的自主学习、自我创造以及自动迭代机制,使得AI在学习思维上无限接近于人类大脑。

另一方面,机器学习又日益暴露出AI在自动化决策(Automated decision-making)中无可回避的难解释性和黑箱性。基于人工神经网络结构的复杂层级,在AI深度学习模型的输入数据和输出结果之间,存在着人们无法洞悉的“黑盒”,即使是专家用户也无法完全理解这些“黑盒”。

因此,可解释AI便应运而生,可解释AI可以分为全局可解释(使公众理解算法模型本身)和局部可解释(使公众理解算法模型的输出结果)。如果不解决这两个问题,不仅影响到用户对AI应用的信任,而且也可能会带来算法歧视、算法安全和算法责任等方面的相关问题。

在这样的背景下,可解释AI成为AI伦理甚至是立法、监管的必选项。从2017年的IEEE的《人工智能设计的伦理准则》,到2019年4月欧盟的《可信AI伦理指南》,再到2020年11月美国的《人工智能应用监管指南》,再到中国2021年9月的《新一代人工智能伦理规范》,以及2021年联合国的《人工智能伦理问题建议书》,其中都在强调可解释性和透明性的问题。

我国的《个人信息保护法》、网信办等九部委出台的《关于加强互联网信息服务算法综合治理的指导意见》、以及《互联网信息服务算法推荐管理规定(征求意见稿)》等相关立法也开始对人工智能算法应用的透明度和可解释性提出要求。

可解释AI发展报告2022:打开算法黑箱的理念与实践-第1张图片可解释AI发展报告2022:打开算法黑箱的理念与实践-第2张图片可解释AI发展报告2022:打开算法黑箱的理念与实践-第3张图片可解释AI发展报告2022:打开算法黑箱的理念与实践-第4张图片可解释AI发展报告2022:打开算法黑箱的理念与实践-第5张图片可解释AI发展报告2022:打开算法黑箱的理念与实践-第6张图片可解释AI发展报告2022:打开算法黑箱的理念与实践-第7张图片可解释AI发展报告2022:打开算法黑箱的理念与实践-第8张图片可解释AI发展报告2022:打开算法黑箱的理念与实践-第9张图片可解释AI发展报告2022:打开算法黑箱的理念与实践-第10张图片可解释AI发展报告2022:打开算法黑箱的理念与实践-第11张图片可解释AI发展报告2022:打开算法黑箱的理念与实践-第12张图片可解释AI发展报告2022:打开算法黑箱的理念与实践-第13张图片可解释AI发展报告2022:打开算法黑箱的理念与实践-第14张图片可解释AI发展报告2022:打开算法黑箱的理念与实践-第15张图片

附件
【零帕1041】可解释AI发展报告2022:打开算法黑箱的理念与实践.pdf
****(需购买后查看)
下载文件
附件购买(促销中)
促销价:1.2 积分原价:1.5 积分

登录注册购买。 VIP权益 | 不支持浏览器清单

免责声明:本文来自腾讯研究院,著作权归作者所有,如有侵权请联系本平台处理。商业转载请联系作者获得授权,非商业转载请注明出处。内容投诉
零帕网 » 可解释AI发展报告2022:打开算法黑箱的理念与实践
您需要 登录账户 后才能发表评论

发表评论

欢迎 访客 发表评论