之间网

人工智能所需的计算量如此之大 阻碍了其更新的进度

互联网
导读 新时代,高科技越来越发达。朋友们看到了很多关于科技的重要新闻。我们也应该在生活中使用很多这些高科技的东西。朋友要注意什么?今天,我

新时代,高科技越来越发达。朋友们看到了很多关于科技的重要新闻。我们也应该在生活中使用很多这些高科技的东西。朋友要注意什么?今天,我想和你分享一个关于科技的知识。我希望你会喜欢它。

欧洲一家大型连锁超市在2019年初引入了人工智能(AI)。该公司使用人工智能来预测客户每天会在不同的商店购买哪些产品,从而帮助减少昂贵产品的浪费并维持库存。

该公司使用采购数据和简单的统计方法来预测销售。此外,除了当地天气、交通状况、竞争对手动向等其他信息,深度学习的引入加速了AI近年来的显著进步,深度学习的引入使错误率提高到75%。已经减少了。

这恰恰是我们期待AI削减成本的效果。但是有一个很大的陷阱。新算法需要大量的计算,所以公司最终决定不用。

麻省理工学院表示:“一般来说,除非云计算的成本降低或者算法变得更有效,否则不应该大规模部署。”收集此类案例研究的研究员尼尔汤普森说。请注意,汤普森没有透露公司名称。

汤普森指出,这个案例凸显了AI及其用户的迫切问题。近年来,人工智能的发展突飞猛进,创造出超越人类的游戏、友好的个人助理和在繁忙道路上自动驾驶的汽车。但是,能否继续取得这些进展,取决于能否在这个问题上持续投入更多的计算资源。

汤普森和其他团队在一篇新论文中认为,如果我们想继续取得这些进展,我们将不会或无法很快以同样的速度提高我们的计算能力。这可能会扼杀计算机视觉、翻译和语言理解领域的进一步发展。

计算量急剧增加。

在过去的十年里,人工智能所需的计算量急剧增加。2012年,当深度学习的热潮开始时,多伦多大学的一个团队使用两个GPU在五天内创建了一个革命性的图像识别算法。2019年,来自谷歌和卡内基梅隆大学的研究人员在6天内开发了一种更好的图像识别算法,使用了大约1000种特殊芯片,其性能优于早期的GPU。

标签: