GPUプラン

[更新: 2021年10月7日]

概要

GPUプランを選択することにより、さくらのクラウド上でGPUが搭載されたサーバを利用することが可能です。CGのレンダリングや機械学習、その他高度な科学計算など、GPUによる計算能力を必要とする用途に最適なプランです。

仕様

GPUプランの仕様は以下の通りです。

搭載GPU NVIDIA V100 (1サーバごとに1個専有)
選択可能なプラン CPU4コア/1GPU/56GBメモリ
※現在1プランのみの提供となり、CPU個数やメモリ数は増減できません
コア専有プラン と組み合わせたプランは未提供となります
動作確認OS CentOS7系, Ubuntu 18.04系
※サーバ作成後にGPUドライバのインストールが必要です(「利用手順」の項目を参照ください)。

注意事項

  • GPUプランではOSにWindos Serverプランを選択することはできません。
  • 専有ホスト上ではGPUプランを選択することはできません。

利用手順

注意

GPUプランは現在「石狩第1ゾーン」のみでの提供となります。

GPUプランも通常のサーバと同様、 サーバ新規作成 画面より作成を行います。「シンプルモード」ではGPUプランの作成を行うことはできないため、画面上部の「シンプルモード」のチェックボックスが有効となっている場合はこれを外し、通常モードのサーバ作成画面に切り替えてください。

サーバプラン選択欄の仮想コア選択ラジオボタンで「GPUプラン」を選択します。選択後は下部にGPUプランで選択可能なCPUコア数/GPU個数とメモリの選択ラジオボタンが表示されます。

注釈

サーバプラン選択欄の下部にある「サーバプラン一覧から選択」をクリックし表示されるリストからも選択することが可能です。

以降は通常の サーバ作成 と同様に以降の各フォームを選択・入力し、「作成」ボタンをクリックしてサーバの作成を完了します。

注意

弊社にてGPUドライバ動作確認済みのOSは、CentOS7系とUbuntu 18.04系となります。

GPUドライバの導入手順

サーバ作成後は、お客様側でOSへのGPUドライバのインストールが必要となります。ここでは弊社が動作確認済みのOSについて手順を説明します。

注釈

・各コマンドの実行時の表示は一例です。OSや環境により表示内容が異なる場合があります。
・記載の手順はGPUプランが採用するNVIDIA V100を利用するためのドライバのインストール手順となります。CUDA ToolkitやcuDNNなどの開発用ツール、フレームワークのインストールについては 専用サーバ 高火力シリーズ のドキュメント 「CUDA Toolkit/GPUカードドライバー導入手順」 も合わせて参照ください。

デバイスが認識されていることを確認

lspciコマンドを実行し、GPUがPCIデバイスとして認識されていることを確認します。

# lspci | grep -i nvidia
00:04.0 3D controller: NVIDIA Corporation GV100GL [Tesla V100 PCIe 32GB] (rev a1)

注釈

lspciコマンドがインストールされていない場合は pciutils パッケージを導入するなどによりご対応ください。

ドライバのインストール

注意

ドライバのダウンロード時にベンダー側が提示する使用規約への同意画面が表示される場合があります。よくお読みになり、お客様自身の責任の上でご利用をお願いします。

NVIDIA社の NVIDIA Driver Downloads のページへアクセスします。ダウンロード対象とするドライバの選択ポップアップメニューで以下を選択します。

Product Type Data Center / Tesla
Product Series V-Series
Product Tesla V100
Operating System CentOS7系の場合: Linux 64-bit RHEL7
Ubuntu18.04系の場合: Linux 64-bit Ubuntu 18.04
CUDA Toolkit 最新のものを推奨
Language 必要に応じてデフォルトのEnglishから変更
Recommended/Beta All

各項目を選択後、「SEARCH」ボタンをクリックするとダウンロード対象となる種別が表示されるのでクリックしてダウンロードを開始します。ダウンロードファイルは「Operating Sysmtem」で選択したOSのパッケージとなるため、作成したGPUプランのサーバにアップロードしパッケージインストールを実行します。

CentOS7系の場合

$ sudo yum install ./nvidia-driver-local-repo-rhel7-470.57.02-1.0-1.x86_64.rpm

実行するとローカルリポジトリに追加されるので、ドライバやツールが含まれる実際のパッケージをインストールします。

$ sudo yum install nvidia-driver-latest-dkms

Ubuntu18.04系の場合

$ sudo apt-get install nvidia-driver-latest-dkms

実行するとローカルリポジトリに追加されます。Ubuntuではバージョンごとにパッケージ名が割り当てられているので、

$ apt-cache search nvidia|less

などでパッケージを検索し、必要に応じたドライバパッケージ(nvidia-driver-XXXなど)をインストールします。

ドライバの動作確認

ドライバインストール後、ドライバを有効化するために一旦サーバを再起動し、GPUの状況を確認する nvidia-smi コマンドを実行します。インストールしたドライバが正常に動作している場合は詳細情報が表示されます。

# nvidia-smi
Tue Apr  6 16:00:23 2021
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 460.32.03    Driver Version: 460.32.03    CUDA Version: 11.2     |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|                               |                      |               MIG M. |
|===============================+======================+======================|
|   0  Tesla V100-PCIE...  Off  | 00000000:00:04.0 Off |                    0 |
| N/A   31C    P0    39W / 250W |      0MiB / 32510MiB |      5%      Default |
|                               |                      |                  N/A |
+-------------------------------+----------------------+----------------------+

+-----------------------------------------------------------------------------+
| Processes:                                                                  |
|  GPU   GI   CI        PID   Type   Process name                  GPU Memory |
|        ID   ID                                                   Usage      |
|=============================================================================|
|  No running processes found                                                 |
+-----------------------------------------------------------------------------+