Jetsonを検討していたので、その内容をメモる。自分にしか役に立たないかもしれない。
PyTorchしか実装できないマンなので、PyTorchをインストールできるか、動作は問題ないかあたりをWebを漁りながら確認する。
ラインナップ
Compare Modulesで更に詳細が出てくる。
電源電圧もそれぞれ異なるというのが注意ポイントだろう。
Wi-Fiが搭載されているのはTX2のみである。他はついていない。
TensorコアがAGXだけに搭載されているが、これはなんだろうか?(要調査)
PyTorchが動くのか?
結論からいうと比較的簡単に動きそう。
プロセッサがx86ではないのでPyTorch公式は扱っていないが、NVIDIAがビルド済みの状態で配布しているので問題なさそうである。
2019-10-04時点で最新のv1.2のビルド済みのパッケージが配布されているようだ。
冒頭でtorch2trtがアナウンスされている。
TensorRTはCUDAで開発され、INT8, FLOAT16向けに最適化することでモデルの推論速度を向上するためのものらしい。torch2trtのベンチマークを確認すると変換後はCNNの推論速度が2〜3倍程度に向上している。
推論速度の向上が必要になれば利用を検討するべきかもしれない。(個人的には30fpsを超えているようなモデルは最適化が不要な気もする)