之间网

人工智能模型的可解释性和准确性

生活
导读 新时代,高科技越来越发达,朋友们看了很多关于科技的重要新闻。我们也应该在生活中使用很多这些高科技的东西。朋友要注意什么?今天,我想

新时代,高科技越来越发达,朋友们看了很多关于科技的重要新闻。我们也应该在生活中使用很多这些高科技的东西。朋友要注意什么?今天,我想和你分享一个关于科技的知识。我希望你会喜欢它。

让人工智能驱动的模型变得透明是一个挑战。它们是一个黑匣子,可能会导致严重的问题。玻璃框的目的是为模型的操作模式和输出模式提供更大的透明度。

当今问题的复杂性意味着现代企业越来越依赖人工智能。科学家正在使用人工智能驱动的模型来解决从数据到医疗保健等所有领域的现实问题。然而,由于建立模型的复杂性可以在一分钟内测试数百万个假设,因此使这些模型透明是一个挑战。它们是一个黑盒子。

因此,当非数据科学家访问这些模型时,他们关于如何达到输出的知识非常有限,这可能导致将它们视为福音。由于各种名义上的原因,输出实际上可能更差。因为个人无法解释这类模型的意外偏差和不准确,所以造成了严重的后果。

此外,由于数据科学主要是一个技术领域,即使受过广泛培训的人也没有能力思考道德或道德问题,以及如何使用黑盒的输出。这就是“玻璃盒子”出现的地方。

玻璃框的目的是为模型的操作模式和输出模式提供更大的透明度。如果看最简单的模型(比如线性回归),就能完全理解变量,输出应该是很明显的。这是一个玻璃盒子。

然而,随着模型复杂性的增加,维护这种可见性变得更加困难。如果我们看一个更复杂的例子(比如深度神经网络),几乎不可能拆解数据。

简单来说,模型中的变量越少,越容易解释。然而,这是有代价的。更简单的模型无法满足更复杂模型的精度;这可能导致有用输出的减少。虽然听起来像是二进制文件,但实际上是一个滑动标尺。数据科学家将需要决定Glassbox和Blackbox之间的界限,并确定哪一个更适合他们的个人用例。

标签: