← ルート選択に戻る

Quickstart — ネイティブ Linux

GPU で 1 回動かす

Linux に直接 ROCm を入れて、PyTorch で GPU 計算を 1 回動かすところまで進みます。意味の深掘りは後回し — まずは「動いた」を作りましょう。

アカツキちゃん — Linux ルート

1GPU が ROCm に対応しているか確認する

まず、お使いの GPU が ROCm の対応リストに載っているか調べます。

👉 AMD 公式: 対応 GPU・OS 一覧

自分の GPU 名がわからないときは、ターミナルで確認できます。

lspci | grep -Ei "vga|display|3d"
⚠ 載っていない場合: 旧世代の GPU(Vega 系など)は、最新の公式案内に対応 GPU として載っていないことがあります。ただし、実装上の動作経路が残っている場合もあり、条件によっては動作確認できることがあります。はじめて試す場合は、まず案内にある対応 GPU で流れをつかむのが安心です。

2ROCm をインストールする

公式の手順にしたがって ROCm をインストールします。

👉 AMD 公式: ROCm インストールガイド

よくある落とし穴: インストール後に videorender グループにユーザーを追加するのを忘れがちです。
sudo usermod -aG video,render $USER

追加後は 一度ログアウトして再ログイン してください(再起動でも OK)。

3GPU が見えるか確認する

rocminfo | head -30

「Agent」のところに GPU 名が出ていれば OK です。

Agent 1 Name: gfx1100 ...
何も出ない・エラーになる場合: 権限不足のことが多いです。groups コマンドで videorender が入っているか確認してください。

4Python 仮想環境をつくる

システムの Python と分けるために、仮想環境を 1 つ作ります。

python3 -m venv ~/rocm-env
source ~/rocm-env/bin/activate

プロンプトの先頭に (rocm-env) が付いたら成功です。

5ROCm 版 PyTorch をインストールする

PyTorch 公式サイトで ROCm を選ぶと、正しいインストールコマンドが出ます。

👉 PyTorch 公式: Get Started

たとえば ROCm 6.x 用の場合(バージョンは公式で確認してください):

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/rocm6.2

AMD 側のインストールガイドも参考になります:

👉 AMD 公式: PyTorch on ROCm インストール

CPU 版を掴まないように注意: --index-url を付けないと CPU 版が入ることがあります。必ず ROCm 用の URL を使ってください。

6PyTorch から GPU が見えるか確認する

python3 -c "import torch; print('HIP:', torch.version.hip); print('GPU available:', torch.cuda.is_available())"
HIP: 6.2.xxxxx GPU available: True

torch.version.hip にバージョンが出て、True なら ROCm 版の PyTorch が GPU を認識しています。

NoneFalse が出たら: CPU 版がインストールされている可能性があります。pip uninstall torch してから、ROCm 用の URL 付きで入れ直してください。

7GPU で行列の掛け算を 1 回動かす

これが今日のゴールです。

python3 -c "
import torch
device = torch.device('cuda')
a = torch.randn(3, 3, device=device)
b = torch.randn(3, 3, device=device)
c = torch.matmul(a, b)
print('結果:', c)
print('デバイス:', c.device)
"
結果: tensor([[ 0.1234, -0.5678, 1.2345], [ 0.9876, -0.4321, 0.5432], [-0.1111, 0.2222, 0.3333]], device='cuda:0') デバイス: cuda:0

device='cuda:0' と出ていれば、GPU 上で計算できています

🎉 おめでとうございます!
GPU で計算が動きました。ROCm 版 PyTorch が正常に動作しています。
torch.cuda という名前ですが、AMD GPU でも使える API 名です(詳しくは第1章で)。

次のステップ

「動いた」ことが確認できたら、次は2つの方向があります。

第1章へ進む →