第3世代 AMD EPYC 7B13 64-Core Processor 128Threads 256GB TITAN RTX EDILOCA EN605 256GBで構成された Ubuntu 22.04.5 LTS へ CUDA.12.8.0をInstall して nvidia-smi nvcc -V cat /etc/os-release lsmem sensors nvme list nvme smart-log /dev/nmve0n1 lscpuを設定した


desktop

nvidia-smi

nvcc -V cat /etc/os-release lsmem 256GB

sensors

nvme list nvme smart-log /dev/nmve0n1

lscpu AMD EPYC 7B13 64-Core Processor 128Threads

カテゴリー: nvidia, ubuntu | コメントする

第3世代 AMD EPYC 7B13 64-Core Processor 128Threads 256GB TITAN RTX EDILOCA EN605 256GBで構成された Ubuntu 22.04.5 LTS へ CUDA.12.8.1をInstall して nvidia-smi nvcc -V cat /etc/os-release lsmem nvme list nvme smart-log /dev/nmve0n1 sensors lscpuを設定した


desktop

nvidia-smi

nvcc -V cat /etc/os-release lsmem 256GB

nvme list nvme smart-log /dev/nmve0n1

sensors

lscpu AMD EPYC 7B13 64-Core Processor 128Threads

カテゴリー: nvidia, ubuntu | コメントする

第3世代 AMD EPYC 7B13 64-Core Processor 128Threads 256GB TITAN RTX SPCC Solid State Diskで構成された Ubuntu 22.04.5 LTS へ CUDA.12.8.0をInstall して nvidia-smi nvcc -V cat /etc/os-release lsmem sensors nvme list nvme smart-log /dev/nmve0n1 lscpuを設定した

ロス・グラシアレス国立公園、アルゼンチン

desktop

nvidia-smi

nvcc -V cat /etc/os-release hddtemp

sensors

lsmem 256GB lscpu AMD EPYC 7B13 64-Core Processor 128Threads

カテゴリー: nvidia, ubuntu | コメントする

第3世代 AMD EPYC 7763 64-Core Processor 128Threads 128GB TITAN RTX TS240GSSD220S 256GBで構成された AlmaLinux release 9.4 へ CUDA-toolkit 12.6.2をInstall してcat /etc/redhat-release nvidia-smi nvcc -V sensors hddtemp lsmem lscpuを設定してみた


desktop

cat /etc/redhat-release nvidia-smi nvcc -V hddtemp

sensors lsmem lscpu AMD EPYC 7763 64-Core Processor 128Threads

カテゴリー: alma8, nvidia | コメントする

■PyTorch → ONNX → TensorRT 手順書

雪の白川郷

① 必要なもの(最初に全部)
CUDA 12.1 の場合
pip install torch torchvision torchaudio –index-url https://download.pytorch.org/whl/cu121
torch
onnx
onnxscript
TensorRT(trtexec)
Docker(NVIDIA GPU 対応)

② PyTorch → ONNX(5 行)
import torch
import torch.nn as nn
model = nn.Linear(4, 2)
dummy = torch.randn(1, 4)
torch.onnx.export(model, dummy, “model.onnx”)

● 保存場所
Python を起動した場所(例:/home/chibi)

● 出力
model.onnx
model.onnx.data

③ Docker に入る(RHEL10 / Ubuntu 共通)
sudo docker run –rm –gpus all -it \
-v $HOME:/workspace \
nvcr.io/nvidia/tensorrt:24.02-py3

④ ONNX → TensorRT(1 行)
trtexec –onnx=/workspace/model.onnx –saveEngine=/workspace/model.plan
ls -al /workspace

● 出力
model.plan

⑤ 推論(必要なら)
trtexec –loadEngine=/workspace/model.plan –shapes=input:1×4

データをコピペで使う場合はこちらでお願いします。
データに使うコピペ版

カテゴリー: Linux, nvidia | コメントする