创作

NVIDIA和Cloudflare为所有开发者提供人工智能服务

[复制链接]
istock-1245973664.jpg

NVIDIA与Cloudflare宣布了一项合作伙伴关系,将“将AI交到各地的开发人员手中”。

Cloudflare将与NVIDIA合作,在其工人开发人员平台之上为开发人员提供人工智能(AI)工具,从而“使开发人员能够更加轻松快捷地构建将在平台内为未来提供动力的应用程序类型”。在Cloudflare博客上,它声称它比AWS Lambda更快并且便宜75%。

Cloudflare还宣布将支持TensorFlow(用于测试机器学习模型的开源工具),因此开发人员将可以使用熟悉的工具来帮助构建应用程序,然后再部署到Cloudflare的网络上。

公告称,此次合作的目的是“将AI大规模带入边缘”。

开发人员将AI依赖于需要执行许多任务的应用程序,包括将网页上的文本翻译为图像对象识别,这“使机器学习模型成为应用程序开发的关键部分”。

开发人员需要保持专有机器模型的可靠性和安全性。安全性对Cloudflare至关重要,后者通过其智能的全球网络为互联网客户路由所有网络流量。用户期望功能快速可靠。Cloudflare满足了客户的“安全性,性能和可靠性需求”,而NVIDIA为开发人员提供了一系列基于AI的应用程序框架,其中包括Jarvis用于自然语言处理,Clara用于医疗保健和生命科学以及 Morpheus用于网络安全。

NVIDIA和Cloudflare的合作伙伴关系在Cloudflare的博客上表示,将结合NVIDIA的加速计算技术和Cloudflare的边缘网络,以创建一个非常大的平台,供开发人员“在几秒钟内”部署使用预训练或自定义机器学习模型的应用程序。利用TensorFlow平台,开发人员可以使用熟悉的工具来构建和测试机器学习模型,该平台可以在全球范围内部署到Cloudflare的边缘网络上。

“ Cloudflare Workers是速度最快,应用最广泛的边缘计算产品之一” Cloudflare联合创始人兼首席执行官Matthew Prince说。“现在,与NVIDIA合作,我们将为开发人员带来功能强大的人工智能工具,以构建将推动未来发展的应用程序。”

机器学习模型最初部署在昂贵的集中式服务器上,或者将使用对世界各地特定区域造成限制的云服务。

公告称,Cloudflare和NVIDIA将“在全球在线人数的毫秒级内实现机器学习,从而使任何人都可以部署高性能,低延迟的AI。” 由于机器学习模型本身将保留在Cloudflare的数据中心中,因此开发人员可以部署自定义模型,而不必将其置于可能被盗的最终用户设备上的风险中。

NVIDIA网络高级副总裁Kevin Deierling表示:“随着公司越来越以数据为驱动力,对AI技术的需求也在增长。“ NVIDIA为开发人员提供了AI框架,以支持应用程序,从机器人技术,医疗保健到智能城市,再到最近推出的Morpheus,现在都可以提供网络安全性。”

Cloudflare使用机器学习来满足包括商业智能,机器人检测,异常识别等需求。Cloudflare使用NVIDIA加速计算来加快训练和推理任务的速度,并向使用Cloudflare Workers的任何开发人员提供相同的技术。


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Copyright © 2001-2019 Comsenz Inc.  Powered by Discuz! X3.4  渝ICP备17007481号-6