Quickstart — ネイティブ Linux
Linux に直接 ROCm を入れて、PyTorch で GPU 計算を 1 回動かすところまで進みます。意味の深掘りは後回し — まずは「動いた」を作りましょう。
まず、お使いの GPU が ROCm の対応リストに載っているか調べます。
自分の GPU 名がわからないときは、ターミナルで確認できます。
lspci | grep -Ei "vga|display|3d"公式の手順にしたがって ROCm をインストールします。
video と render グループにユーザーを追加するのを忘れがちです。
sudo usermod -aG video,render $USER追加後は 一度ログアウトして再ログイン してください(再起動でも OK)。
rocminfo | head -30「Agent」のところに GPU 名が出ていれば OK です。
groups コマンドで video と render が入っているか確認してください。
システムの Python と分けるために、仮想環境を 1 つ作ります。
python3 -m venv ~/rocm-env
source ~/rocm-env/bin/activateプロンプトの先頭に (rocm-env) が付いたら成功です。
PyTorch 公式サイトで ROCm を選ぶと、正しいインストールコマンドが出ます。
たとえば ROCm 6.x 用の場合(バージョンは公式で確認してください):
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/rocm6.2AMD 側のインストールガイドも参考になります:
👉 AMD 公式: PyTorch on ROCm インストール
--index-url を付けないと CPU 版が入ることがあります。必ず ROCm 用の URL を使ってください。
python3 -c "import torch; print('HIP:', torch.version.hip); print('GPU available:', torch.cuda.is_available())"torch.version.hip にバージョンが出て、True なら ROCm 版の PyTorch が GPU を認識しています。
None や False が出たら: CPU 版がインストールされている可能性があります。pip uninstall torch してから、ROCm 用の URL 付きで入れ直してください。
これが今日のゴールです。
python3 -c "
import torch
device = torch.device('cuda')
a = torch.randn(3, 3, device=device)
b = torch.randn(3, 3, device=device)
c = torch.matmul(a, b)
print('結果:', c)
print('デバイス:', c.device)
"device='cuda:0' と出ていれば、GPU 上で計算できています。
torch.cuda という名前ですが、AMD GPU でも使える API 名です(詳しくは第1章で)。
「動いた」ことが確認できたら、次は2つの方向があります。