■ONNX モデルを TensorRT でエンジン化する手順

忍野八海

## 目的
ONNX モデル(model.onnx)を TensorRT でエンジン(model.plan)に変換する。

## 講師
Windows AI

## 環境
– RHEL10
– TensorRT コンテナ
– ホストとコンテナを以下で接続:
-v /home/chibi/models:/workspace

## docker 起動方法
sudo docker login nvcr.io -u ‘$oauthtoken’ -p nvapi- <あなたのNGC API Key> でlogin を済ませる。
 次に dockerにはいる。
 sudo docker run –rm –gpus all -it \
-v /home/chibi/models:/workspace \
nvcr.io/nvidia/tensorrt:24.02-py3

## ONNX ファイルの場所
ホスト:/home/chibi/models/model.onnx
コンテナ:/workspace/model.onnx
(同じファイル)

## エンジン生成
trtexec –onnx=/workspace/model.onnx –saveEngine=model.plan

## 成功確認
ls -al /workspace
例:
-rw-r–r– 1 root root 297236 model.plan
model.plan が生成されていれば成功。

## まとめ
• ONNX は “中間形式”
• PyTorch や TensorFlow のモデルを TensorRT が読める形にするための橋渡し
• 最終的に TensorRT が使うのは model.plan

データをコピペで使う場合はこちらを使ってください
コピペで使用時のデータ版

カテゴリー: nvidia, rhel10 パーマリンク

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です