第255章 美**惑(1/2)
此章节稍后订阅由于断网可能会赶不上全勤所以复制了一些乱七八糟的东西明天之前就会改正
thenextp1atfor评论称,tpu并不复杂,看上去更像是雷达应用的信号处理引擎,而不是标准的x86衍生架构。jouppi说,虽然tpu有很多矩阵乘法单元,但tpu比“gpu在思路上更接近浮点单元协处理器”,tpu没有任何存储程序,仅执行从主机送的指令。
由于要获取大量的权重并将这些权重送到矩阵乘法单元,tpu上的dra是作为一个独立的单元并行运行。同时,矩阵乘法单元通过减少统一缓冲区的读写降低能耗,也就是进行所谓的“脉动运行”(systo1et)。
tpu有两个内存,还有一个用于存储模型中参数的外部dra。参数进来以后,从矩阵乘法单元的上层开始加载。同时,可以从左边加载激活,也就是“神经元”的输出。这些都以“systo1ic”脉动的方式进入矩阵单元,然后进行矩阵相乘,每个周期可以做64,ooo次累积。
鉴于大多数使用机器学习的公司(除了facebook)都使用cpu做推理,因此谷歌tpu论文将英特尔“hae11”xeone5v3处理器和tpu做了对比,而且从数据可以看出,后者在多维度推理方面性能远前者。thenextp1atfor也由此评论,难怪用惯了x86处理器集群做机器学习的谷歌要自己研一款新的芯片做推理。
在谷歌的测试中,使用64位浮点数学运算器的18核hae11xeone5-2699v3处理器,以23ghz运行的情况下每秒能够处理13s(每秒万亿次运算),提供51gb/秒的内存带宽,hae11芯片的能耗是145瓦,系统(包括了256gb的内存)繁忙时耗能455瓦特。
相比之下,tpu使用8位整数数学运算器,拥有256gb的主机内存和32gb的自身内存,片上内存带宽34gb/秒,峰值92s,推理吞吐量高了71倍,而托管tpu的服务器的热功率为384瓦。
谷歌还对比测试了cpu、gpu和tpu处理不同批量(batch)大小的每秒推理吞吐量。
在批量很小、数量为16的情况下,hae11cpu处理完前99的响应时间接近7毫秒,每秒推理数为5,482次(ips),相当于最大值(13,194ips,批量64)的42,而达到峰值则用了213毫秒的时间。相比之下,tpu可以做到在批量大小为2oo的情况下仍然满足7毫秒的上限,并且ips为225,ooo次,达到峰值性能的8o。tpu在批量大小为25o的情况下,经过1o个毫秒就出现了前99的响应。
需要指出,谷歌测试的是一个相对较早的hae11xeon,随着架构的变化和预计今夏布的“sky1ake”xeone5,ipc还会上升。此外,sky1ake是28核(相比hae11是18核),xeon的总体吞吐量也会加大(thenextp1atfor的估计是提高8o)。但即便如此,cpu与tpu还是有着很大的差距。
国际计算语言学协会(acl)第55届年会将在加拿大温哥华举行。这一次会议将于2o17年7月3o日至8月4日在温哥华市中心的威斯汀湾海岸酒店(estbayshorehote1)举办。
acl2o17除了主要会议之外,还如同其他顶级会议一样包含研讨会、专题报告、研习会和演示等。acl会议是计算语言学领域的要会议,广泛涉及自然语言的计算方法及其各类研究领域。
下面列出了acl2o17所接收的长篇论文、短篇论文和软件展示,所有论文或展示采取分类无序排列。
恭喜作者们!
83中文网最新地址www.83zws.com本章未完,点击下一页继续阅读。