pt电子游艺官网

可解释的人工智能:为什么我们需要打开这个黑匣子

23: 32: 17科技活动

在企业中使用人工智能解决方案的挑战之一是人工智能通常在所谓的黑盒情况下运行。通常,人工智能应用程序使用神经网络,使用算法产生结果,其复杂性只能由计算机理解。在其他情况下,人工智能供应商不会透露他们的人工智能是如何工作的。在任何一种情况下,当传统的人工智能产生决策时,人类用户不知道这个决定是如何产生的。

1564932717681520254.jpg

这个黑匣子可能是一个很大的障碍。即使计算机正在处理信息并提出建议,计算机也没有最终决定权。这种责任落在人类决策者身上,人类决策者应对任何负面后果负责。在许多当前的人工智能用例中,这不是一个主要问题,因为“错误”决策的潜在影响可能非常低。

然而,随着人工智能应用的扩展,计算机制造的决策可能涉及数百万美元的甚至与人类健康和安全有关。在高度监管,高风险/高价值的行业中,您可以通过信任计算机决策而面临极端风险,而无需了解计算机可以提供建议的潜在风险根源。这些公司越来越需要可解释的人工智能(XAI)。

在人工智能领域已经注意到这个问题。可解释的AI曾经是2017年神经空间处理系统(NIPS)研讨会的核心主题,DARPA也投资了一个探索可解释人工智能的项目。

超越黑匣子:认知AI

认知,生物启发的AI解决方案使用类似于人类推理和解决问题的方法,允许用户查看黑盒内的内容。与传统的AI方法相比,认知AI解决方案使用符号逻辑来获取基于数字数据处理技术的知识,例如机器学习,神经网络和深度学习。

传统AI使用的神经网络必须经过数据训练,但不必像人类那样理解。神经网络将数据视为一系列数字,根据他们的训练风格对其进行标记,并使用模式识别来解决问题。当神经网络获取数据时,它询问它之前是否已经看过数据,如果是,它会询问它之前是如何标记的。

相反,认知AI基于概念。我们可以在严格的关系层面描述概念,或者我们可以添加允许AI解释的自然语言组件。认知AI会对自己说:“我接受过培训,可以理解这类问题。你向我展示了一系列功能,所以我需要操纵与我收到的培训相关的功能。“?

认知系统不能取代神经网络,但可以解释神经网络的输出并提供叙述性注释。认知AI做出的决定是在清晰的审查轨道中提供的,人们可以理解这些决定并找出更多细节。这些审查线索解释了人工智能建议背后的原因,以及证据,风险,信心和不确定性。

自上而下的可解释性

可解释性取决于谁需要解释,并且可能对不同的人意味着不同的东西。但总的来说,如果风险很高,则需要更多的可解释性。解释可以非常详细,显示用于推导答案的个人数据和决策点。可解释性也可以是为最终用户编写摘要报告的系统。强大的认知AI系统可根据查看信息的人以及信息的使用方式自动调整解释的深度和细节。

在大多数情况下,人类可视化决策过程的最简单方法是使用一个决策树,其顶部信息量最少,底部信息最多。考虑到这一点,可解释性通常可以分为自上而下或自下而上。

在这件作品下会产生什么样的预测。然后,技术用户可以查看详细信息以确定问题的原因,然后将其交给工程师进行维修。自下而上的方法对于必须诊断和解决问题的工程师非常有用。这些用户可以查询决策树底部的认知AI,并在顶部查看AI结论的详细信息。

可解释的人工智能是关于人的吗?

可解释的人工智能始于人类。人工智能工程师可以与不同领域的专家合作,从算法/过程/探索的角度了解他们的领域并研究他们的工作。工程师学到的东西被编码成一个知识库,允许认知AI验证其建议并解释他们以人类可理解的方式得出的推断结果。

例赋予消费者在做出自动决策时的知情权,解释这些决定的权利以及完全退出自动决策的权利。现在使用可解释AI的公司将为未来的合规要求做好准备。

人工智能不应该取代人类的决策,它应该帮助人类做出更好的决策。如果人们不相信人工智能系统的决策能力,这些系统将永远不会被广泛采用。为了让人们信任AI,系统无法锁定黑匣子中的所有秘密,XAI提供了这种解释。

在企业中使用人工智能解决方案的挑战之一是人工智能通常在所谓的黑盒情况下运行。通常,人工智能应用程序使用神经网络,使用算法产生结果,其复杂性只能由计算机理解。在其他情况下,人工智能供应商不会透露他们的人工智能是如何工作的。在任何一种情况下,当传统的人工智能产生决策时,人类用户不知道这个决定是如何产生的。

1564932717681520254.jpg

这个黑匣子可能是一个很大的障碍。即使计算机正在处理信息并提出建议,计算机也没有最终决定权。这种责任落在人类决策者身上,人类决策者应对任何负面后果负责。在许多当前的人工智能用例中,这不是一个主要问题,因为“错误”决策的潜在影响可能非常低。

然而,随着人工智能应用的扩展,计算机制造的决策可能涉及数百万美元的甚至与人类健康和安全有关。在高度监管,高风险/高价值的行业中,您可以通过信任计算机决策而面临极端风险,而无需了解计算机可以提供建议的潜在风险根源。这些公司越来越需要可解释的人工智能(XAI)。

在人工智能领域已经注意到这个问题。可解释的AI曾经是2017年神经空间处理系统(NIPS)研讨会的核心主题,DARPA也投资了一个探索可解释人工智能的项目。

超越黑匣子:认知AI

认知,生物启发的AI解决方案使用类似于人类推理和解决问题的方法,允许用户查看黑盒内的内容。与传统的AI方法相比,认知AI解决方案使用符号逻辑来获取基于数字数据处理技术的知识,例如机器学习,神经网络和深度学习。

传统AI使用的神经网络必须经过数据训练,但不必像人类那样理解。神经网络将数据视为一系列数字,根据他们的训练风格对其进行标记,并使用模式识别来解决问题。当神经网络获取数据时,它询问它之前是否已经看过数据,如果是,它会询问它之前是如何标记的。

相反,认知AI基于概念。我们可以在严格的关系层面描述概念,或者我们可以添加允许AI解释的自然语言组件。认知AI会对自己说:“我接受过培训,可以理解这类问题。你向我展示了一系列功能,所以我需要操纵与我收到的培训相关的功能。“?

认知系统不能取代神经网络,但可以解释神经网络的输出并提供叙述性注释。认知AI做出的决定是在清晰的审查轨道中提供的,人们可以理解这些决定并找出更多细节。这些审查线索解释了人工智能建议背后的原因,以及证据,风险,信心和不确定性。

自上而下的可解释性

可解释性取决于谁需要解释,并且可能对不同的人意味着不同的东西。但总的来说,如果风险很高,则需要更多的可解释性。解释可以非常详细,显示用于推导答案的个人数据和决策点。可解释性也可以是为最终用户编写摘要报告的系统。强大的认知AI系统可根据查看信息的人以及信息的使用方式自动调整解释的深度和细节。

在大多数情况下,人类可视化决策过程的最简单方法是使用一个决策树,其顶部信息量最少,底部信息最多。考虑到这一点,可解释性通常可以分为自上而下或自下而上。

在这件作品下会产生什么样的预测。然后,技术用户可以查看详细信息以确定问题的原因,然后将其交给工程师进行维修。自下而上的方法对于必须诊断和解决问题的工程师非常有用。这些用户可以查询决策树底部的认知AI,并在顶部查看AI结论的详细信息。

可解释的人工智能是关于人的吗?

可解释的人工智能始于人类。人工智能工程师可以与不同领域的专家合作,从算法/过程/探索的角度了解他们的领域并研究他们的工作。工程师学到的东西被编码成一个知识库,允许认知AI验证其建议并解释他们以人类可理解的方式得出的推断结果。

例赋予消费者在做出自动决策时的知情权,解释这些决定的权利以及完全退出自动决策的权利。现在使用可解释AI的公司将为未来的合规要求做好准备。

人工智能不应该取代人类的决策,它应该帮助人类做出更好的决策。如果人们不相信人工智能系统的决策能力,这些系统将永远不会被广泛采用。为了让人们信任AI,系统无法锁定黑匣子中的所有秘密,XAI提供了这种解释。