グーグル(ティッカーシンボル:GOOGL)が、ストリート・ビューなどの自社のサイトを駆動するのに使用するAI(人工知能)半導体の内製化を押し進めています。

グーグルのAIチップはTPU(Tensor Processing Unit)という名称で、すでに同社のデータセンター内で1年ほど前からテストされていました。

tpu
(出典:グーグル)

TPUは4月末から実装され、同社のアプリを駆動しています。

TPUは、機械学習(Machine learning)の場面では、従来のチップより桁違いのパフォーマンスを出すと言われています。その理由は消費電力に関心を払った最適化をしたことによります。

具体的には演算に必要とされるトランジスタ数を減ずることで毎秒あたりの処理量を沢山詰め込むことが出来るようになり、結果としてより洗練され、パワフルな機械学習モデルを走らせ、その結果として機械学習の成果到達までの時間を短縮することが出来るというわけです。

グーグルでは、すでに100以上の社内のチームが、機械学習を利用しています。その例はストリート・ビュー、ボイス・サーチ、インボックス・スマート・リプライなどです。

TPUはグーグル独自のカスタムASICで、機械学習のオープン・ソース・ソフトウェアであるテンサーフロー(TensorFlow)に最適化されています。

グーグルがAIチップの内製化で大幅な効率の向上を達成すれば、フェイスブック(ティッカーシンボル:FB)、アマゾン(ティッカーシンボル:AMZN)、アップル(ティッカーシンボル:AAPL)なども対抗上、同様の内製化に踏み切る可能性があります。

このような競争は、すでにデータ・ストレージの世界で過去に起こり、業者が駆逐された経緯があります。

今回、もっともリスクに晒されるのはデータセンター向けチップを作っているインテル(ティッカーシンボル:INTC)とエヌヴィディア(ティッカーシンボル:NVDA)だと思います。

エヌヴィディアの場合、データセンター向け売上高は1.43億ドルで、これは2017年第1四半期の全社売上高の10.95%に過ぎません。

1

ただこの部分は前年同期比+98%成長しており、全社売上成長率(前年比+13.4%)を大幅に上回っています。

このため同社のデータセンター部門はオート部門と併せてウォール街の期待を集めているわけです。