Googleは10月に「TPU」と呼ばれるAIに特化したチップをリリースする予定です

2018.08.06

投稿者 :Justin Brunnette

カテゴリ: IT News

最近暑いですね、ジャスティンです。

AIを開発してみたいと思いませんか?Googleさんは力になれると思いますよ。元の記事はこちらです:
https://www.cnet.com/news/google-to-let-you-pop-its-ai-chips-into-your-own-computer-as-of-october/?utm_source=reddit.com
[日本語]
 

Googleは10月に「TPU」と呼ばれるAIに特化したチップをリリースする予定です
 
ソフトウェア開発には高度なハードウェアはとても重要です。 2017年には仮想通貨のブームのおかげで、GPUとグラフィックスカードの売上高が過去最高を記録しました。 AIの分野での急速な発展に伴い、このチャレンジに参加したいプログラマーの数はますます増えて来てます。 この発展に答えたGoogleは、Tensor処理ユニット(Tensor Processing Unit 又はTPU)と呼ばれる独自のAIチップを公開すると発表しました。
 
TPUは、ニューラルネットワーク開発のための演算を高速化するための専用ASICプロセッサです。 GPUと同様に、繰り返し計算量が多い場合に非常に強くGPUよりも多くの電力を消費して高いIOPS(入力/出力演算/秒)を得ることができるのが特徴です。また、ラスタライゼーション、およびテクスチャマッピング機能はサポートしていません。

 
機械学習アプリケーションは、ベクトルと行列計算がとても重いです。 今までは、Googleのクラウド·マシン·ラーニング·エンジンでクラウドのサーバーのTPUの使用が可能でした。 ちょうど先月に、Googleは開発者に自分らのパソコンにTPUのチップをインストールできる「Edge TPU」と呼んでる新しいサービスを公開しました。 TPUは、マザーボードのPCI Expressレーンに差し込めれるパーツとして提供されています。
 
その上にCloud IoT Edgeという新しいサービスセットがあります。これは、Google Cloud AIシステムをIoTデバイスに実装を可能できるソフトウェア·スタックです。 この発表はより少ない電力を使用して、レイテンシを減らす新しい軽量バージョンのTensor Flowの発表の後に行われました。
 
一気にいろんな発売が出てきたのはGoogleは 開発者をGoogle環境内に保したいために、AIスタック全体のパイオニアになろうとしていると思います。AI業界は最近、Amazonのクラウドコンピューティングのスタックが大きな市場占有率を占めており、マイクロソフト社も「Azure」と呼ばれているクラウドサービスを武器に競争しております。 マイクロソフトは今年、「Project Brainwave」でAI用のチップを発表しました。 小企業の「Wave Computing」までもAI市場に挑戦していることになっています。 ソフトウェア分野では、「Caffe2」や「PyTorch」はGoogleのTensor Flowと競争しております。
 
Googleの大胆なステップは、プログラマーが独自の機械学習プログラムを開発するために使用できる数と開発プラットフォームを確実に加速しようとしています。 GPUの普及のおかげで、一般開発者は機械学習の開発が容易になってますので、GoogleはGPU業界との競争に参入して行くのかもしれません。 
興味あるGoogleクラウドAIのお客様は、下記のリンクからEdgeTPUの早期アクセスを申請することができます:
こちら
[English]

Google is set to release chip specialized for AI call TPU in October
 
Software developers are becoming more and more aware of the importance of having high grade hardware for development. In 2017, the GPU and graphics card market reached an all time high in sales due to the cryptocurrency craze. Now with rapid developments in the field of AI, there is an ever increasing number of programmers wanting to get in the game. Google is helping answer this call as it has announced that it will release their proprietary AI chip to the public called the Tensor Processing Unit or TPU.
 
The TPU is a specialized ASIC processor for accelerating the computation for neural network development. Similar to a GPU, it is very good at high volume of repetitive computations, but the difference lies in the TPU having higher IOPS(input/output operations per second) per watt and does not support rasterisation and texture mapping capabilities.
 
Machine learning applications are also heavy in vector and matrix computations. Up to this point, Google had publicly offered usage of their TPU through Google’s Cloud Machine Learning Engine. Just last month, they have announced their new initiative called Edge TPU which will allow developers to physically install the TPU chip onto their own machines. The TPU will come as a component that plugs right into the motherboard’s PCI express lanes.
 
In addition to this, there is a new set of services called the Cloud IoT Edge which is a software stack that allows the implementation of Google Cloud AI system to IoT devices. This comes with on the foot of the new light weight version of Tensor flow which uses less power and reduces latency.
 
It seems this all encompassing reach is Google’s attempt of owning the whole AI stack by keeping developers within their ecosystem. The AI services market has been heating up recently with Amazon currently owning most of the stack for cloud computing with completion from Microsoft’s Azure. Microsoft had earlier this year announced their own AI chips through what they call Project Brainwave. We have also seen small start ups such as Wave Computing entering the AI market. On the software field has multiple options out on the market as well with examples like Caffe2 and PyTorch.
 
These bold steps from Google will be sure to accelerate the number and development platforms for programmers to use to develop their own machine learning programs. The proliferation of GPUs have also made machine learning development more doable for the average developer, which may put additional challengers for Google to compete with. For those who are interested, Google cloud AI customers can apply for early access to Edge TPUs through this link:
Here