読み方:ティーピーユー

TPU 【Tensor Processing Unit】

概要

TPU(Tensor Processing Unit)とは、米グーグル(Google)社が開発した機械学習向けのプロセッサ。ニューラルネットワークで必要となる大量の行列演算を高速に実行することができる。
TPUのイメージ画像

汎用の処理を行うCPUではなく、グラフィックス処理向けのGPUと同じように数値計算を高速に処理するのに特化した構造の特定用途向け半導体チップ(ASIC)の一種である。機械学習の高速化にはGPUを流用することが多いが、専用に設計されたチップを用いることで、高い計算性能とエネルギー効率を得ることができる。

行列演算で多用される、乗算と加算を組み合わせた積和演算を実行する演算ユニットを大量に内蔵しており、多数の数値を並列に計算することができる。内部に高速なHBM(High Bandwidth Memory)と呼ばれるメモリを内蔵しており、メインメモリから読み込んだ行列データを高速に演算装置に割り当てることができる。

ニューラルネットワークを利用した機械学習に特化した設計となっており、計算精度はそれほど高くなくても構わないため、初期の製品で8ビット、最新のモデルで16ビットの浮動小数点数を扱う。一般的なプログラムが扱う32ビットの単精度浮動小数点よりも高速な計算が可能となっている。

第1世代の製品は2016年に発表され、以後、ほぼ毎年のように新たなモデルが発表されている。基本的に同社内のAIシステムの構築や運用に用いられるが、クラウドサービス「Cloud TPU」で計算能力をサービスとして利用でき、一部のモデルは製品に組み込まれて外販もされている。

(2025.8.31更新)

人工知能の用語一覧