supercomputing-edge-page-banner.jpg

边缘超级计算 (Supercomputing at the Edge) 概念源于改善大数据管理这一初衷。 在边缘超级计算概念中,我们将一些数据中心内容推送至接入网络边缘,高速缓存贴近用户的本地相关内容。 这个过程可以被理解为将数据中心分配到本地节点,为进一步的创收服务和应用创造可能。

全行业正在兴起向无线网络边缘计算转型的风潮。 Linley Group 的资料表明,全球每年推出超过 200 万个新基站。 如果能让更多的智能计算共置,很多应用就能被分配到更接近用户的地方。 这样一来,这些应用的响应速度会更快,能够以更高的时敏度为客户提供其选择的服务。

Download: Supercomputing at the Mobile Edge Overview (PDF)

优势

  • 减少网络中程传输瓶颈
  • 受实时应用驱动的分析
  • 针对性地域服务
  • 搜索引擎优化
  • 数据中心卸载至网络
  • 运营商与应用提供商建立合作伙伴关系,创造分布式智能创收服务

今天,许多应用都可以在云中使用。 个人电脑可以通过地面连接接入互联网,移动电话可以通过 3G 或4G 网络访问互联网。 数据到互联网上后,从核心接入网络出发,一路被传送到数据中心,而数据中心可能正是应用进行云端运行的地方。 有些计算在那里完成,然后结果会返回到我们的客户端硬件-,也就是我们的手机、平板电脑或计算机。

繁重的计算不是在用户的硬件上而是在云数据中心完成的,为此数据中心会消耗大量的能量,需要强大的计算能力。 为此,整个市政电网都需要重新设计,以支撑云数据中心的电力负荷。 得出计算结果后,应用结果会通过网络推送给最终用户,这不但需要耗费时间,还会造成数据中心与用户之间“中程”网络拥堵。

利用一种新架构,更好地解决问题

IDT 推出了一种可以提供低延迟超级计算级的计算功能,并且能与无线网络边缘的异质计算互连的构架。 IDT 及其合作伙伴宣布他们创建了一个可供各种应用运行的 GPU 集群。 这个集群融合了 IDT 的 RapidIO 互连技术、IDT 的计时技术和 NVIDIA 的 Mobile Tegra K1 GPU 技术(使用 Prodrive Technologies 的 RapidIO 启动型服务器)和 Concurrent Technologies 嵌入了 RapidIO 互连功能的 GPU 卡。

这种低延迟互连的 GPU 集群,可以现场部署在大型基站、中心局和云无线接入网 (C-RAN) 内,这是亚洲一些市场出现的新部署模式。 原来在数据中心运行的软件可以托管这个平台现场运行,解除了回程压力。 支持共置的基础架构创新正在研发中。

对全行业的影响

欧洲电信标准协会 (ETSI) 对移动边缘计算 (Mobile Edge Computing) 的这一短语的说明如下:

“移动边缘计算在邻近移动用户的无线接入网络 (RAN) 内提供 IT 和云计算功能。 无论是位于基站还是无线网络控制器处,这项技术都可支持访问实时无线和网络信息(例如用户位置或小区负荷),应用和服务可以利用这些信息以提供语境相关的服务。 对于应用开发商和内容提供商来说,RAN 边缘提供了一个位置近、具有超低延迟和高带宽、可以实时访问无线网络信息,并且有位置感知功能的服务环境。 移动边缘计算技术不但可以维持客户在不同的无线和网络条件下的体验,还可以更快速地提供内容、服务和应用。”

实现边缘超级计算的可能性

低延迟互连、计时加上移动低功耗 GPU 技术,是有可能让边缘超级计算概念变为现实的。 现在,网络运营商和应用服务运行商可进行合作,并确定最终用户最希望获得哪些服务,然后基于对当今数据中心的最终用户和应用服务运行者最有价值的地域分布规则,来共置这些服务。

其他资源