JetsonのラインナップとPyTorchが使えるかの調査

Jetsonを検討していたので、その内容をメモる。自分にしか役に立たないかもしれない。
PyTorchしか実装できないマンなので、PyTorchをインストールできるか、動作は問題ないかあたりをWebを漁りながら確認する。
 

ラインナップ

シリーズ
シリーズ内のラインナップ
CUDAコア数
Tensorコア数
値段
Nano
 
128
-
129USD
TX2 Series
TX2 4GB,  TX2, TX2i
256
-
249USD〜
AGX Xavier Series
Volta
Xavier 8GB,  AGX Xavier
384, 512
48, 64
599USD〜
Compare Modulesで更に詳細が出てくる。
電源電圧もそれぞれ異なるというのが注意ポイントだろう。
Wi-Fiが搭載されているのはTX2のみである。他はついていない。
TensorコアがAGXだけに搭載されているが、これはなんだろうか?(要調査)

PyTorchが動くのか?

結論からいうと比較的簡単に動きそう。
プロセッサがx86ではないのでPyTorch公式は扱っていないが、NVIDIAがビルド済みの状態で配布しているので問題なさそうである。
2019-10-04時点で最新のv1.2のビルド済みのパッケージが配布されているようだ。
 
NVIDIAの公式サイトでNanoへのPyTorchのインストール方法が紹介されているが、
冒頭でtorch2trtがアナウンスされている。
torch2trtはPyTorchのモデルをTensorRTのモデルに変換するためのツールらしい。
TensorRTはCUDAで開発され、INT8, FLOAT16向けに最適化することでモデルの推論速度を向上するためのものらしい。torch2trtのベンチマークを確認すると変換後はCNNの推論速度が2〜3倍程度に向上している。
推論速度の向上が必要になれば利用を検討するべきかもしれない。(個人的には30fpsを超えているようなモデルは最適化が不要な気もする)