名前

pvesm - Proxmox VE Storage Manager

SYNOPSIS

pvesm <COMMAND> [ARGS] [OPTIONS] です

pvesm add <タイプ> <ストレージ> [オプション].

新しいストレージを作成します。

<type>: <btrfs | cephfs | cifs | dir | esxi | glusterfs | iscsi | iscsidirect | lvm | lvmthin | nfs | pbs | rbd | zfs | zfspool> です。

収納タイプ。

<ストレージ>: <ストレージID

ストレージ識別子。

--authsupported <文字列

認証済み。

--ベース <文字列

基本音量。このボリュームは自動的にアクティブになります。

--ブロックサイズ <文字列

ブロックサイズ

--bwlimit [clone=<LIMIT>] [,default=<LIMIT>] [,migration=<LIMIT>] [,move=<LIMIT>] [,restore=<LIMIT>] となります

各種操作のI/O帯域幅制限を設定(単位:KiB/s)。

--コムスター_hg <文字列

コムスタービューのホストグループ

--comstar_tg <文字列

コムスター・ビューの対象者

--内容 <文字列

許可されるコンテンツタイプ

Note コンテナにはrootdir が、VM にはimagesが使用されます。
--コンテンツディレクトリ <文字列

デフォルトのコンテンツタイプのディレクトリを上書きします。

--ベースパス作成 <ブール値>(デフォルト = yes)

ベース・ディレクトリが存在しない場合は作成します。

--サブディレクトリの作成 <論理値>(デフォルト = yes)

ディレクトリにデフォルトの構造を入力します。

--データプール <文字列

データプール(消去符号化専用)

--データストア <文字列

Proxmox Backup Server データストア名。

--無効 <ブール値

ストレージを無効にするフラグ。

--ドメイン <文字列

CIFS ドメイン。

--encryption-key 暗号化キーを含むファイル、または特別な値 "autogen"

暗号化キー。パスフレーズなしで自動生成するにはautogenを使用します。

--エクスポート <文字列

NFSエクスポートパス。

--fingerprint ([A-Fa-f0-9]{2}:){31}[A-Fa-f0-9]{2}

証明書の SHA 256 フィンガープリント。

--format <文字列

デフォルトの画像フォーマット。

-fs-name <文字列

Cephファイルシステム名。

--ヒューズ <ブール値

FUSEを使用してCephFSをマウントします。

--is_mountpoint <string>(デフォルト = no)

指定されたパスが外部で管理されているマウントポイントであると仮定し、マウントされていない場合はストレージをオフラインと見なします。ブーリアン(yes/no)値を使用すると、このフィールドでターゲットパスを使用するショートカットとして機能します。

--iscsiprovider <文字列

iscsi プロバイダ

-- Cephクラスタで認証するためのキーリングを含むkeyring ファイル

クライアントのキーリングの内容(外部クラスタ用)。

--krbd <ブール値

常にkrbdカーネルモジュールを通してrbdにアクセスしてください。

--lio_tpg <文字列

Linux LIOターゲット用ターゲットポータルグループ

--PEM 形式のマスター公開鍵を含むファイル。

Base64 エンコードされた PEM 形式の RSA 公開鍵。暗号化された各バックアップに追加される暗号化キーのコピーを暗号化するために使用します。

--max-protected-backups <integer> (-1 - N)(デフォルト = Datastore.Allocate権限を持つユーザは無制限、その他のユーザは5)

ゲストごとの保護バックアップの最大数。無制限には-1を使用します。

-マックスファイル <整数> (0 - N)

非推奨: 代わりにprune-backups を使用してください。VMごとのバックアップファイルの最大数。無制限の場合は0を使用します。

--mkdir <ブール値>(デフォルト = yes)

ディレクトリが存在しない場合は作成し、デフォルトのサブディレクトリを設定します。注意: 非推奨。代わりにcreate-base-pathおよびcreate-subdirsオプションを使用してください。

--monhost <文字列

モニターのIPアドレス(外部クラスタの場合)。

--マウントポイント <文字列

マウントポイント

--名前空間 <文字列

名前空間。

--nocow <ブール値>(デフォルト = 0)

ファイルに NOCOW フラグを設定します。データのチェックサムを無効にし、直接I/Oを許可しながらデータエラーを回復できなくします。このフラグを使用するのは、基礎となるレイドシステムがない単一の ext4 フォーマットディスク上よりもデータを安全にする必要がない場合だけです。

--ノード <文字列

ストレージ構成が適用されるノードのリスト。

--nowritecache <ブール値

ターゲットの書き込みキャッシュを無効にします。

--オプション <文字列

NFS/CIFS マウントオプション (man nfsまたはman mount.cifs を参照)

--パスワード <password

共有/データストアにアクセスするためのパスワード。

--パス <文字列

ファイルシステムのパス。

--プール <文字列

プール。

--ポート <整数> (1 - 65535)

デフォルトのポートの代わりにこのポートを使用してストレージに接続します(PBS や ESXi など)。NFS および CIFS の場合は、optionsオプションを使用して、マウントオプションでポートを設定します。

--portal <文字列

iSCSIポータル(IPまたはDNS名とオプションのポート)。

--preallocation <falloc | full | metadata | off>(デフォルト = メタデータ)

raw および qcow2 画像のプリアロケーションモード。raw 画像でメタデータを使用すると、preallocation=off になります。

--prune-backups [keep-all=<1|0>] [,keep-daily=<N>] [,keep-hourly=<N>] [,keep-last=<N>] [,keep-monthly=<N>] [,keep-weekly=<N>] [,keep-yearly=<N>].

間隔が短い保持オプションが最初に処理され、--keep-lastが一番最初に処理されます。各オプションは特定の期間をカバーします。この期間内のバックアップはこのオプションの対象となります。次のオプションは、すでにカバーされているバックアップは考慮せず、古いバックアップのみを考慮します。

--セーフリムーブ <ブール値

LVを削除するとデータがゼロになります。

-saferemove_throughput <文字列

ワイプスループット(cstream -tパラメータ値)。

--サーバ <文字列

サーバーIPまたはDNS名。

--サーバー2 <文字列

バックアップファイルサーバーのIPまたはDNS名。

Note 必要なオプション:server
--共有 <文字列

CIFS 共有。

--共有 <ブール値

すべてのノード(またはnodesオプションにリストされているすべて)で同じ内容を持つ単一のストレージであることを示します。ローカルストレージの内容が自動的に他のノードからアクセスできるようになるわけではなく、すでに共有されているストレージをそのようにマークするだけです!

-skip-cert-verification <boolean>(デフォルト = false)

TLS証明書の検証を無効にし、完全に信頼できるネットワークでのみ有効にします!

--smbversion <2.0 | 2.1 | 3 | 3.0 | 3.11 | default>(default = デフォルト)

SMBプロトコルのバージョン。デフォルトでは、設定されていない場合、クライアントとサーバーの両方でサポートされている最高のSMB2+バージョンをネゴシエートします。

-スパース <ブール値

スパースボリュームを使用

--サブディレクトリ <文字列

マウントするサブディレクトリ。

--タグ付きのみ <論理値

pve-vm-ID でタグ付けされた論理ボリュームのみを使用します。

--ターゲット <文字列

iSCSI ターゲット。

--シンプール <文字列

LVMシンプールLV名。

--トランスポート <rdma | tcp | unix>.

クラスタ・トランスポート:tcpまたはrdma

--ユーザー名 <文字列

RBD Id.

--vgname <文字列

ボリュームグループ名。

--ボリューム <文字列

Glusterfsボリューム。

pvesm alloc <storage> <vmid> <filename> <size> [OPTIONS].

ディスクイメージを割り当てます。

<ストレージ>: <ストレージID

ストレージ識別子。

<vmid>: <整数> (100 - 999999999)

オーナーVMの指定

<ファイル名>: <文字列

作成するファイル名。

<サイズ>です: \d+[MG]?

キロバイト(1024バイト)単位のサイズ。オプションの接尾辞M(メガバイト、1024K)およびG(ギガバイト、1024M)。

--format <qcow2 | raw | subvol>.

説明なし

Note 必要なオプション:サイズ

pvesm apiinfo

APIVERとAPIAGEを返します。

pvesm cifsscan

pvesm scan cifs のエイリアス。

pvesm export <ボリューム> <フォーマット> <ファイル名> [OPTIONS].

ボリュームのエクスポートに内部的に使用されます。

<ボリューム>: <文字列

ボリューム識別子

<format>: <btrfs | qcow2+size | raw+size | tar+size | vmdk+size | zfs>.

ストリーム形式のエクスポート

<ファイル名>: <文字列

保存先ファイル名

--ベース (?^i:[a-z0-9_-]{1,40})

から増分ストリームを開始するスナップショット。

--snapshot (?^i:[a-z0-9_\-]{1,40})

エクスポートするスナップショット

--スナップショットリスト <文字列

転送するスナップショットの順序付きリスト

--with-snapshots <boolean>(デフォルト = 0)

中間スナップショットをストリームに含めるかどうか

pvesm extractconfig <ボリューム>。

vzdumpバックアップアーカイブから設定を抽出します。

<ボリューム>: <文字列

ボリューム識別子

pvesm free <ボリューム> [オプション].

ボリュームの削除

<ボリューム>: <文字列

ボリューム識別子

--ディレイ <整数> (1 - 30)

タスクが終了するまでの待ち時間。その時間内にタスクが終了した場合はnull を返します。

--ストレージ ID

ストレージ識別子。

pvesm glusterfsscan

pvesm scan glusterfs のエイリアス。

pvesm help [OPTIONS]

指定したコマンドに関するヘルプを表示します。

--extra-args <array> です

特定のコマンドのヘルプを表示します。

--verbose <ブール値

冗長出力フォーマット。

pvesm import <volume> <format> <filename> [OPTIONS].

ボリュームのインポートに内部的に使用されます。

<ボリューム>: <文字列

ボリューム識別子

<format>: <btrfs | qcow2+size | raw+size | tar+size | vmdk+size | zfs>.

インポートストリーム形式

<ファイル名>: <文字列

ソースファイル名。stdinが使用される場合、tcp://<IPまたはCIDR>フォーマットはTCP接続を、unix://PATH-TO-SOCKETフォーマットはUNIXソケットを入力として使用できます。

--allow-rename <boolean>(デフォルト = 0)

要求されたボリュームIDがすでに存在する場合は、エラーをスローする代わりに新しいボリュームIDを選択します。

--ベース (?^i:[a-z0-9_-]{1,40})

増分ストリームの基本スナップショット

--delete-snapshot (?^i:[a-z0-9_\-]{1,80})

成功時に削除するスナップショット

--snapshot (?^i:[a-z0-9_\-]{1,40})

ストリームにスナップショットが含まれている場合は、現在の状態のスナップショット

--with-snapshots <boolean>(デフォルト = 0)

ストリームが中間スナップショットを含むかどうか

pvesm iscsiscan

pvesm scan iscsi のエイリアス。

pvesm list <storage> [OPTIONS].

ストレージの内容を一覧表示します。

<ストレージ>: <ストレージID

ストレージ識別子。

--内容 <文字列

このタイプのコンテンツのみをリストアップします。

--vmid <整数> (100 - 999999999)

このVMのイメージのみを表示

pvesm lvmscan

pvesm scan lvm のエイリアス。

pvesm lvmthinscan

pvesm scan lvmthin のエイリアス。

pvesm nfsscan

pvesm scan nfs のエイリアス。

pvesm パス <ボリューム

指定されたボリュームのファイルシステムのパスを取得します。

<ボリューム>: <文字列

ボリューム識別子

pvesm prune-backups <storage> [OPTIONS].

バックアップを削除します。標準の命名スキームを使用しているもののみが考慮されます。 keepオプションが指定されていない場合は、ストレージ構成のものが使用されます。

<ストレージ>: <ストレージID

ストレージ識別子。

-ドライラン <ブール値

刈り込まれるものだけを表示し、何も削除しないでください。

--keep-all <ブール値

すべてのバックアップを保持します。trueの場合、他のオプションと競合します。

--キープ・デイリー <N>

過去<N>日分のバックアップを保持します。1日に複数のバックアップがある場合は、最新のものだけが保持されます。

--キープ・アワー <N

最後の<N>異なる時間のバックアップを保持します。1時間に複数のバックアップがある場合、最新のものだけが保持されます。

--keep-last <N>

最後の<N>個のバックアップを保持します。

--キープマンスリー <N

過去<N>の異なる月のバックアップを保持します。1つの月に複数のバックアップがある場合、最新のものだけが保持されます。

--キープウィークリー <N

過去<N>週間分のバックアップを保持します。1週間に複数のバックアップがある場合、最新のものだけが保持されます。

--キープ・イヤー・リー <N

過去<N>年分のバックアップを保持します。一つの年に複数のバックアップがある場合、最新のものだけが保持されます。

--タイプ <lxc | qemu>

qemuまたはlxcのいずれか。このタイプのゲストのバックアップのみを考慮してください。

--vmid <整数> (100 - 999999999)

このゲストのバックアップのみを考慮してください。

pvesm remove <ストレージ

ストレージ構成を削除します。

<ストレージ>: <ストレージID

ストレージ識別子。

pvesm scan cifs <server> [OPTIONS].

リモート CIFS サーバーをスキャンします。

<サーバー>: <文字列

サーバーアドレス(名前またはIP)。

--ドメイン <文字列

SMBドメイン(ワークグループ)。

--パスワード <password

ユーザーパスワード

--ユーザー名 <文字列

ユーザー名

pvesm scan glusterfs <server>

リモートのGlusterFSサーバをスキャンします。

<サーバー>: <文字列

サーバーのアドレス(名前またはIP)。

pvesm scan iscsi <portal>

リモートiSCSIサーバーをスキャンします。

<ポータル>: <文字列

iSCSIポータル(IPまたはDNS名とオプションのポート)。

pvesm scan lvm

ローカルLVMボリュームグループを一覧表示します。

pvesmスキャンlvmthin <vg>

ローカル LVM シンプールをリストします。

<vg>: [a-zA-Z0-9\.\+\_][a-zA-Z0-9\.\+\_\-]+

説明なし

pvesm scan nfs <server>

リモート NFS サーバーをスキャンします。

<サーバー>: <文字列

サーバーのアドレス(名前またはIP)。

pvesm scan pbs <server> <username> --password <string> [OPTIONS] [FORMAT_OPTIONS].

リモートのProxmox Backup Serverをスキャンします。

<サーバー>: <文字列

サーバーアドレス(名前またはIP)。

<ユーザー名>: <文字列

ユーザー名またはAPIトークンID。

--fingerprint ([A-Fa-f0-9]{2}:){31}[A-Fa-f0-9]{2}

証明書の SHA 256 フィンガープリント。

--パスワード <文字列

ユーザーパスワードまたはAPIトークンの秘密。

--ポート <整数> (1 - 65535)(デフォルト = 8007)

オプションのポート。

pvesm scan zfs

ローカルノードのzfsプールリストをスキャンします。

pvesm set <storage> [OPTIONS].

ストレージ構成を更新します。

<ストレージ>: <ストレージID

ストレージ識別子。

--ブロックサイズ <文字列

ブロックサイズ

--bwlimit [clone=<LIMIT>] [,default=<LIMIT>] [,migration=<LIMIT>] [,move=<LIMIT>] [,restore=<LIMIT>] となります

各種操作のI/O帯域幅制限を設定(単位:KiB/s)。

--コムスター_hg <文字列

コムスタービューのホストグループ

--comstar_tg <文字列

コムスター・ビューの対象者

--内容 <文字列

許可されるコンテンツタイプ

Note コンテナにはrootdir が、VM にはimagesが使用されます。
--コンテンツディレクトリ <文字列

デフォルトのコンテンツタイプのディレクトリを上書きします。

--ベースパス作成 <ブール値>(デフォルト = yes)

ベース・ディレクトリが存在しない場合は作成します。

--サブディレクトリの作成 <論理値>(デフォルト = yes)

ディレクトリにデフォルトの構造を入力します。

--データプール <文字列

データプール(消去符号化専用)

--削除 <文字列

削除したい設定のリスト。

-ダイジェスト <文字列

現在のコンフィギュレーション・ファイルのダイジェストが異なる場合、変更を防止します。これは同時修正を防ぐために使用できます。

--無効 <ブール値

ストレージを無効にするフラグ。

--ドメイン <文字列

CIFS ドメイン。

--encryption-key 暗号化キーを含むファイル、または特別な値 "autogen"

暗号化キー。パスフレーズなしで自動生成するにはautogenを使用します。

--fingerprint ([A-Fa-f0-9]{2}:){31}[A-Fa-f0-9]{2}

証明書 SHA 256 フィンガープリント。

--format <文字列

デフォルトの画像フォーマット。

-fs-name <文字列

Cephファイルシステム名。

--ヒューズ <ブール値

FUSEを使用してCephFSをマウントします。

--is_mountpoint <string>(デフォルト = no)

指定されたパスが外部で管理されているマウントポイントであると仮定し、マウントされていない場合はストレージをオフラインと見なします。ブーリアン(yes/no)値を使用すると、このフィールドでターゲットパスを使用するショートカットとして機能します。

-- Cephクラスタで認証するためのキーリングを含むkeyring ファイル

クライアントのキーリングの内容(外部クラスタ用)。

--krbd <ブール値

常にkrbdカーネルモジュールを通してrbdにアクセスしてください。

--lio_tpg <文字列

Linux LIOターゲット用ターゲットポータルグループ

--PEM 形式のマスター公開鍵を含むファイル。

Base64 エンコードされた PEM 形式の RSA 公開鍵。暗号化された各バックアップに追加される暗号化キーのコピーを暗号化するために使用します。

--max-protected-backups <integer> (-1 - N)(デフォルト = Datastore.Allocate権限を持つユーザは無制限、その他のユーザは5)

ゲストごとの保護バックアップの最大数。無制限には-1を使用します。

-マックスファイル <整数> (0 - N)

非推奨: 代わりにprune-backups を使用してください。VMごとのバックアップファイルの最大数。無制限の場合は0を使用します。

--mkdir <ブール値>(デフォルト = yes)

ディレクトリが存在しない場合は作成し、デフォルトのサブディレクトリを設定します。注意: 非推奨。代わりにcreate-base-pathおよびcreate-subdirsオプションを使用してください。

--monhost <文字列

モニターのIPアドレス(外部クラスタの場合)。

--マウントポイント <文字列

マウントポイント

--名前空間 <文字列

名前空間。

--nocow <ブール値>(デフォルト = 0)

ファイルに NOCOW フラグを設定します。データのチェックサムを無効にし、直接I/Oを許可しながらデータエラーを回復できなくします。このフラグを使用するのは、基礎となるレイドシステムがない単一の ext4 フォーマットディスク上よりもデータを安全にする必要がない場合だけです。

--ノード <文字列

ストレージ構成が適用されるノードのリスト。

--nowritecache <ブール値

ターゲットの書き込みキャッシュを無効にします。

--オプション <文字列

NFS/CIFS マウントオプション (man nfsまたはman mount.cifs を参照)

--パスワード <password

共有/データストアにアクセスするためのパスワード。

--プール <文字列

プール。

--ポート <整数> (1 - 65535)

デフォルトのポートの代わりにこのポートを使用してストレージに接続します(PBS や ESXi など)。NFS および CIFS の場合は、optionsオプションを使用して、マウントオプションでポートを設定します。

--preallocation <falloc | full | metadata | off>(デフォルト = メタデータ)

raw および qcow2 画像のプリアロケーションモード。raw 画像でメタデータを使用すると、preallocation=off になります。

--prune-backups [keep-all=<1|0>] [,keep-daily=<N>] [,keep-hourly=<N>] [,keep-last=<N>] [,keep-monthly=<N>] [,keep-weekly=<N>] [,keep-yearly=<N>].

間隔が短い保持オプションが最初に処理され、--keep-lastが一番最初に処理されます。各オプションは特定の期間をカバーします。この期間内のバックアップはこのオプションの対象となります。次のオプションは、すでにカバーされているバックアップは考慮せず、古いバックアップのみを考慮します。

--セーフリムーブ <ブール値

LVを削除するとデータがゼロになります。

-saferemove_throughput <文字列

ワイプスループット(cstream -tパラメータ値)。

--サーバ <文字列

サーバーIPまたはDNS名。

--サーバー2 <文字列

バックアップファイルサーバーのIPまたはDNS名。

Note 必要なオプション:server
--共有 <ブール値

すべてのノード(またはnodesオプションにリストされているすべて)で同じ内容を持つ単一のストレージであることを示します。ローカルストレージの内容が自動的に他のノードからアクセスできるようになるわけではなく、すでに共有されているストレージをそのようにマークするだけです!

-skip-cert-verification <boolean>(デフォルト = false)

TLS証明書の検証を無効にし、完全に信頼できるネットワークでのみ有効にします!

--smbversion <2.0 | 2.1 | 3 | 3.0 | 3.11 | default>(default = デフォルト)

SMBプロトコルのバージョン。デフォルトでは、設定されていない場合、クライアントとサーバーの両方でサポートされている最高のSMB2+バージョンをネゴシエートします。

-スパース <ブール値

スパースボリュームを使用

--サブディレクトリ <文字列

マウントするサブディレクトリ。

--タグ付きのみ <ブール値

pve-vm-ID でタグ付けされた論理ボリュームのみを使用します。

--トランスポート <rdma | tcp | unix>.

クラスタ・トランスポート:tcpまたはrdma

--ユーザー名 <文字列

RBD Id.

pvesm status [OPTIONS]

すべてのデータストアのステータスを取得します。

--内容 <文字列

このコンテンツタイプをサポートするストアのみをリストします。

--有効 <ブール値>(デフォルト = 0)

有効になっている (設定で無効になっていない) ストアのみをリストします。

--format <boolean>(デフォルト = 0)

フォーマットに関する情報

--ストレージ ID

指定したストレージのステータスのみを一覧表示

--ターゲット <文字列

ターゲットがノードと異なる場合、このノードと指定されたターゲットノードでアクセス可能な共有ストレージのみがリストされます。

pvesm zfsscan

pvesm scan zfs のエイリアス。

説明

Proxmox VEのストレージモデルは非常に柔軟です。仮想マシンイメージは、1つまたは複数のローカルストレージ、またはNFSやiSCSI(NAS、SAN)などの共有ストレージに保存できます。制限はなく、好きなだけストレージプールを構成できます。Debian Linux で利用可能なすべてのストレージ技術を使用できます。

VMを共有ストレージに格納する主な利点の1つは、クラスタ内のすべてのノードがVMディスクイメージに直接アクセスできるため、ダウンタイムなしに稼働中のマシンをライブマイグレーションできることです。VMイメージ・データをコピーする必要がないため、ライブ・マイグレーションは非常に高速です。

ストレージライブラリ(libpve-storage-perl パッケージ)は、柔軟なプラグインシステムを 使用し、全てのストレージタイプに共通のインターフェースを提供します。これは、将来さらなるストレージタイプを追加するために簡単に採用できます。

ストレージの種類

ストレージには基本的に2つのタイプがあります:

ファイルレベルのストレージ

ファイル・レベル・ベースのストレージ技術では、完全な機能を備えた(POSIX)ファイル・システムにアクセスできます。 一般的に、ブロックレベルのストレージ(下記参照)よりも柔軟性が高く、あらゆるタイプのコンテンツを保存できます。ZFSはおそらく最も先進的なシステムで、スナップショットとクローンを完全にサポートしています。

ブロックレベルのストレージ

大きなRAW画像を保存できます。通常、このようなストレージに他のファイル(ISO、バックアップなど)を保存することはできません。RADOSとGlusterFSは、ストレージデータを異なるノードに複製する分散システムです。

表1.利用可能なストレージタイプ
説明 プラグインタイプ レベル 共有 スナップ写真 安定

ZFS(ローカル)

ゼットスプール

両1

いいえ

はい

はい

ディレクトリ

監督

ファイル

いいえ

ノーツー

はい

ビーティーアールエフエス

ビットトランフ

ファイル

いいえ

はい

テクノロジープレビュー

ネットワークファイルシステム

エヌエフエス

ファイル

はい

ノーツー

はい

CIFS

cifs

ファイル

はい

ノーツー

はい

Proxmoxバックアップ

pbs

どちらも

はい

該当なし

はい

GlusterFS

グロスタフ

ファイル

はい

ノーツー

はい

セフエフエス

ケフフ

ファイル

はい

はい

はい

エルブイエム

エルブイエム

ブロック

ノースリー

いいえ

はい

LVMシン

ラヴムティン

ブロック

いいえ

はい

はい

iSCSI/カーネル

イッシ

ブロック

はい

いいえ

はい

iSCSI/libiscsi

アイソシダイレクト

ブロック

はい

いいえ

はい

Ceph/RBD

アールブイ

ブロック

はい

はい

はい

iSCSI上のZFS

zfs

ブロック

はい

はい

はい

1:VMのディスクイメージは、ブロックデバイス機能を提供するZFSボリューム(zvol)データセットに格納されます。

2: ファイルベースのストレージでは、qcow2フォーマットでスナップショットが可能です。

3: iSCSIまたはFCベースのストレージの上でLVMを使用することが可能です。 そうすることで、LVMストレージを共有することができます。

シン・プロビジョニング

多くのストレージと QEMU イメージフォーマットqcow2シンプロビジョニングをサポートしています。 シンプロビジョニングを有効にすると、ゲストシステムが実際に使用するブロックのみがストレージに書き込まれます。

例えば、32GBのハードディスクでVMを作成し、ゲストシステムOSをインストールした後、VMのルートファイルシステムに3GBのデータが含まれているとします。 この場合、ゲストVMが32GBのハードディスクを見ていたとしても、ストレージには3GBしか書き込まれません。このように、シンプロビジョニングでは、現在利用可能なストレージブロックよりも大きなディスクイメージを作成することができます。VMのために大きなディスクイメージを作成し、必要性が生じたときに、VMのファイルシステムのサイズを変更することなく、ストレージにディスクを追加することができます。

スナップショット」機能を持つすべてのストレージタイプは、シンプロビジョニングもサポートしています。

Caution ストレージがいっぱいになると、そのストレージ上のボリュームを使用しているすべてのゲストが IO エラーを受け取ります。これはファイルシステムの不整合を引き起こし、データを破損する可能性があります。そのため、ストレージリソースの過剰なプロビジョニングを避けるか、空き領域を注意深く観察してこのような状態を避けることをお勧めします。

ストレージ構成

Proxmox VEに関連するすべてのストレージ設定は、/etc/pve/storage.cfgの1つのテキストファイルに保存されます。このファイルは/etc/pve/ 内にあるため、すべてのクラスタノードに自動的に配布されます。そのため、すべてのノードで同じストレージ構成が共有されます。

共有ストレージの構成は、すべてのノードから同じ「共有」ストレージにアクセスできるため、共有ストレージでは完全に理にかなっています。しかし、ローカルストレージタイプにも有効です。この場合、そのようなローカルストレージはすべてのノードで利用できますが、物理的に異なり、まったく異なるコンテンツを持つことができます。

ストレージプール

各ストレージプールは<type>を持ち、<STORAGE_ID>で一意に識別されますプール構成は次のようになります:

<type>: <STORAGE_ID> <property> <value> <property> ...

<type>: <STORAGE_ID>行がプール定義を開始し、その後にプロパティのリストが続きます。ほとんどのプロパティは値を必要とします。いくつかのプロパティは、妥当なデフォルトを持ち、その場合、値を省略することができます。

具体的には、インストール後のデフォルトのストレージ構成を見てください。local という名前の特別なローカルストレージプールが 1 つ含まれ、これは/var/lib/vzディレクトリを参照し、常に使用可能です。Proxmox VEのインストーラは、インストール時に選択したストレージタイプに応じて、追加のストレージエントリを作成します。

デフォルトのストレージ設定(/etc/pve/storage.cfg)
dir: ローカルパス /var/lib/vz content iso,vztmpl,backup # LVM ベースのデフォルトイメージストア lvmthin: local-lvm thinpool data vgname pve content rootdir,images # ZFS ベースのデフォルトイメージストア zfspool: local-zfs pool rpool/data sparse content images,rootdir
Caution 全く同じ基礎となるストレージを指す複数のストレージ構成があることは問題です。このようなエイリアスされたストレージ構成では、2つの異なるボリュームID(volid) がまったく同じディスクイメージを指すことになります。Proxmox VEは、イメージのボリュームIDが一意であることを期待します。エイリアスされたストレージ構成に異なるコンテンツタイプを選択することは問題ありませんが、推奨されません。

一般的なストレージ・プロパティ

いくつかのストレージ特性は、異なるストレージタイプ間で共通です。

ノード

このストレージが使用可能/アクセス可能なクラスタ・ノード名のリスト。このプロパティを使用して、ストレージへのアクセスを限られたノードに制限できます。

内容

例えば、仮想ディスクイメージ、CDROM ISOイメージ、コンテナテンプレート、コンテナルートディレクトリなどです。すべてのストレージタイプがすべてのコンテンツタイプをサポートするわけではありません。このプロパティを設定して、このストレージが何に使用されるかを選択できます。

イメージ

QEMU/KVM VMイメージ。

ルートディレクトリ

コンテナデータの保存を許可します。

vztmpl

コンテナテンプレート。

バックアップ

バックアップファイル(vzdump)。

アイソ

ISOイメージ

スニペット

スニペットファイル(ゲストフックスクリプトなど

シェアード

すべてのノード(またはnodesオプションにリストされているすべて)で同じ内容を持つ単一のストレージであることを示します。ローカルストレージの内容が自動的に他のノードからアクセスできるようになるわけではなく、すでに共有されているストレージをそのようにマークするだけです!

無効にする

このフラグを使うと、ストレージを完全に無効にすることができます。

マックスファイル

非推奨。代わりにprune-backupsを使用してください。VMごとのバックアップ・ファイルの最大数。無制限の場合は0を使用してください。

バックアップの削除

バックアップの保持オプション。詳細については、「バックアップの保持」を参照してください。

フォーマット

デフォルトの画像フォーマット(raw|qcow2|vmdk)

プレアロケーション

ファイルベース ストレージ上のrawおよびqcow2画像に対するプリアロケーションモード(off|metadata|falloc|full)。デフォルトはメタデータでraw画像ではoffと同じように扱われます。大きなqcow2イメージと組み合わせてネットワークストレージを使用する場合、off を使用するとタイムアウトを回避できます。

Warning 異なるProxmox VEクラスタで同じストレージプールを使用することはお勧めできません。ストレージ操作によってはストレージへの排他的なアクセスが必要なため、適切なロックが必要です。これはクラスタ内では実装されていますが、異なるクラスタ間では機能しません。

ストレージ・データのアドレス指定には特別な記法を使用します。ストレージ・プールからデータを割り当てると、このようなボリューム識別子が返されます。ボリュームは、<STORAGE_ID>の後に、コロンで区切られたストレージタイプに依存するボリューム名で識別されます。有効な<VOLUME_ID>は次のようになります:

local:230/サンプル画像.raw
local:iso/debian-501-amd64-netinst.iso
local:vztmpl/debian-5.0-joomla_1.5.9-1_i386.tar.gz
iscsi-storage:0.0.2.scsi-14f504e46494c4500494b5042546d2d646744372d31616d61

<VOLUME_ID>のファイルシステム・パスを取得するには、次のようにします:

pvesmパス <VOLUME_ID

出来高所有権

イメージ・タイプのボリュームには所有関係が存在します。このようなボリュームは、それぞれVMまたはコンテナによって所有されます。例えば、ボリュームlocal:230/example-image.rawは VM 230 が所有します。ほとんどのストレージバックエンドは、この所有者情報をボリューム名にエンコードします。

VMまたはコンテナを削除すると、そのVMまたはコンテナが所有する関連ボリュームもすべて削除されます。

コマンドラインインターフェイスの使用

ストレージ・プールやボリューム識別子の概念に慣れておくことをお勧めしますが、実際の運用では、コマンドラインでそのような低レベルの操作を行う必要はありません。通常、ボリュームの割り当てと削除はVMとコンテナの管理ツールによって行われます。

とはいえ、pvesm(「Proxmox VE Storage Manager」)と呼ばれるコマンドラインツールがあり、一般的なストレージ管理タスクを実行できます。

ストレージプールの追加

pvesm add <TYPE> <STORAGE_ID> <OPTIONS> pvesm add dir <STORAGE_ID> --path <PATH> pvesm add nfs <STORAGE_ID> --path <PATH--server <SERVER> --export <EXPORT> pvesm add lvm <STORAGE_ID> --vgname <VGNAME> pvesm add iscsi <STORAGE_ID> --portal <HOST[:PORT]> --ターゲット <TARGET

ストレージプールの無効化

pvesm set <STORAGE_ID> --disable 1

ストレージプールの有効化

pvesm set <STORAGE_ID> --disable 0

ストレージオプションの変更/設定

pvesm set <STORAGE_ID> <OPTIONS> pvesm set <STORAGE_ID> --shared 1 pvesm set local --format qcow2 pvesm set <STORAGE_ID> --content iso

ストレージプールを削除します。これはいかなるデータも削除しませんし、何かを切断したりアンマウントしたりもしません。ストレージ構成を削除するだけです。

pvesm remove <STORAGE_ID> です。

ボリュームの割り当て

pvesm alloc <STORAGE_ID> <VMID> <name> <size> [--format <raw|qcow2>].

ローカル・ストレージに4Gボリュームを割り当てます。<name>に空の文字列を渡すと、名前が自動生成されます。

pvesm alloc local <VMID> '' 4G

全巻無料

pvesm フリー <VOLUME_ID
Warning これは本当にすべてのボリュームデータを破壊します。

保管状況一覧

pvesmステータス

収納内容一覧

pvesm list <STORAGE_ID> [--vmid <VMID>] です。

VMID によって割り当てられたボリュームの一覧

pvesm list <STORAGE_ID> --vmid <VMID

リストisoイメージ

pvesm list <STORAGE_ID> --content iso

リスト・コンテナ・テンプレート

pvesm list <STORAGE_ID> --content vztmpl

ボリュームのファイルシステムのパスを表示

pvesmパス <VOLUME_ID

ボリュームlocal:103/vm-103-disk-0.qcow2をファイルターゲットにエクスポートします。 これは主にpvesmインポートで内部的に使用されます。 ストリーム形式qcow2+sizeはqcow2形式とは異なるため、エクスポートしたファイルをVMにアタッチすることはできません。 これは他の形式でも同様です。

pvesm export local:103/vm-103-disk-0.qcow2 qcow2+size target --with-snapshots 1

ディレクトリバックエンド

ストレージプールのタイプ:dir

Proxmox VEは、ローカルディレクトリまたはローカルにマウントされた共有をストレージとして使用できます。ディレクトリはファイルレベルのストレージであるため、仮想ディスクイメージ、コンテナ、テンプレート、ISOイメージ、バックアップファイルなど、あらゆる種類のコンテンツを保存できます。

Note 標準的なlinuxの/etc/fstabを使って追加ストレージをマウントし、そのマウントポイントにディレクトリストレージを定義することができます。こうすることで、Linuxでサポートされているあらゆるファイルシステムを使用することができます。

このバックエンドは、基礎となるディレクトリがPOSIX互換であることを前提としていますが、それ以外のことは想定していません。これは、ストレージ・レベルでスナップショットを作成できないことを意味します。しかし、qcow2ファイル・フォーマットを使用しているVMイメージについては、このフォーマットが内部的にスナップショットをサポートしているため、回避策があります。

Tip ストレージ・タイプによってはO_DIRECT をサポートしていないものがあり、 そのようなストレージではキャッシュ・モードnone を使用できません。代わりにキャッシュモード・ライトバックを使用してください。

異なるコンテンツタイプを異なるサブディレクトリに格納するために、定義済みのディレクトリレイアウトを使用します。このレイアウトは、すべてのファイルレベルストレージバックエンドで使用されます。

表2.ディレクトリレイアウト
コンテンツタイプ サブディレクトリ

VMイメージ

images/<VMID>/

ISOイメージ

テンプレート/iso/

コンテナテンプレート

テンプレート/キャッシュ

バックアップファイル

ダンプ

スニペット

スニペット

コンフィギュレーション

このバックエンドは、一般的なストレージ・プロパティをすべてサポートしており、さらに 2 つのプロパティを追加しています。pathプロパティはディレクトリを指定するために使用します。これはファイルシステムの絶対パスである必要があります。

オプションのcontent-dirsプロパティでは、デフォルトのレイアウトを変更できます。このプロパティは、コンマで区切られた識別子のリストで構成されます:

vtype=パス

vtypeはストレージに許可されるコンテンツ・タイプの1つで、pathはストレージのマウントポイントからの相対パスです。

設定例(/etc/pve/storage.cfg)
dir: バックアップパス /mnt/backup content backup prune-backups keep-last=7 max-protected-backups 3 content-dirs backup=custom/backup/dir

上記の構成では、backup というストレージ・プールを定義しています。このプールは、VMごとに最大7つの通常バックアップ(keep-last=7)と3つの保護バックアップを保存するために使用できます。バックアップ・ファイルの実際のパスは、/mnt/backup/custom/backup/dir/... です。

ファイルの命名規則

このバックエンドは、VMイメージに対して明確に定義された命名スキームを使用します:

vm-<VMID>-<NAME>.<フォーマット
<VMID

これはオーナーVMを指定します。

<名前

これは空白のない任意の名前(ascii)です。バックエンドはデフォルトでdisk-[N]を使用します。[N]は名前を一意にするために整数で置き換えられます。

<フォーマット

画像フォーマット(raw|qcow2|vmdk)を指定します。

VM テンプレートを作成すると、すべての VM イメージの名前が変更され、読み取り専用になり、クローンのベースイメージとして使用できるようになります:

ベース<VMID>-<NAME>.<FORMAT
Note このようなベース画像は、クローン画像を生成するために使用されます。そのため、これらのファイルは読み取り専用で、決して変更されないことが重要です。バックエンドはアクセスモードを0444に変更し、ストレージが対応していればimmutableフラグ(chattr +i)を設定します。

ストレージ機能

上述したように、ほとんどのファイルシステムはスナップショットをサポートしていません。この問題を回避するために、このバックエンドはqcow2内部のスナップショット機能を使うことができます。

クローンも同様です。バックエンドはqcow2のベースイメージ機能を使ってクローンを作成します。

表 3.バックエンドディールのストレージ機能
コンテンツの種類 画像フォーマット 共有 スナップ写真 クローン

images rootdir vztmpl iso backup snippets

生のqcow2 vmdkサブボリューム

いいえ

qcow2

qcow2

以下のコマンドを使用して、ローカル・ストレージに4GBのイメージを割り当ててください:

# pvesm alloc local 100 vm-100-disk10.raw 4G Formatting '/var/lib/vz/images/100/vm-100-disk10.raw', fmt=raw size=4294967296 successfully created 'local:100/vm-100-disk10.raw'
Note 画像名は上記の命名規則に従わなければなりません。

実際のファイルシステムのパスは

# pvesm パス local:100/vm-100-disk10.raw /var/lib/vz/images/100/vm-100-disk10.raw

で画像を削除できます:

# pvesm free local:100/vm-100-disk10.raw

NFS バックエンド

ストレージプールのタイプ:nfs

NFSバックエンドはディレクトリバックエンドをベースにしているため、ほとんどのプロパティを共有しています。ディレクトリのレイアウトやファイルの命名規則も同じです。主な利点は、NFSサーバーのプロパティを直接設定できるので、バックエンドが自動的に共有をマウントできることです。etc/fstab を変更する必要はありません。バックエンドはサーバがオンラインかどうかをテストすることもでき、エクスポートされた共有をサーバに問い合わせる方法も提供します。

コンフィギュレーション

バックエンドは、常に設定される共有フラグを除く、すべての一般的なストレージ・プロパティをサポートしています。さらに、以下のプロパティがNFSサーバの設定に使用されます:

サーバー

サーバーIPまたはDNS名。DNSルックアップの遅延を避けるため、通常はDNS名ではなくIPアドレスを使用することが望ましいです。非常に信頼性の高いDNSサーバーがあるか、ローカルの/etc/hostsファイルにサーバーをリストしている場合を除きます。

輸出

NFS エクスポート・パス (pvesm nfsscan によってリストされます)。

NFSマウントオプションも設定できます:

パス

ローカルマウントポイント (デフォルトは/mnt/pve/<STORAGE_ID>/)。

コンテンツディレクトリ

デフォルトのディレクトリレイアウトを上書きします。オプション。

オプション

NFS マウントオプション (man nfs を参照)。

設定例(/etc/pve/storage.cfg)
nfs: iso-templates パス /mnt/pve/iso-templates サーバー 10.0.0.10 エクスポート /space/iso-templates オプション vers=3,ソフトコンテンツ iso,vztmpl
Tip NFSリクエストがタイムアウトした後、NFSリクエストはデフォルトで無期限に再試行されます。これは、クライアント側で予期しないハングアップを引き起こす可能性があります。読み取り専用コンテンツの場合は、再試行回数を3回に制限するNFSソフトオプションを検討する価値があります。

ストレージ機能

NFSはスナップショットをサポートしていませんが、バックエンドはqcow2の機能を使ってスナップショットとクローンを実装しています。

表 4.バックエンドnfsのストレージ機能
コンテンツの種類 画像フォーマット 共有 スナップ写真 クローン

images rootdir vztmpl iso backup snippets

生のqcow2 vmdk

はい

qcow2

qcow2

でエクスポートされたNFS共有のリストを取得できます:

# pvesm nfsscan <server>

CIFS バックエンド

ストレージプールの種類:cifs

CIFSバックエンドはディレクトリバックエンドを拡張し、CIFSマウントの手動設定は不要です。このようなストレージは、Proxmox VE APIまたはWeb UIを介して直接追加することができ、サーバのハートビートチェックやエクスポートされた共有の快適な選択など、すべてのバックエンドの利点を利用することができます。

コンフィギュレーション

バックエンドは、常に設定される共有フラグを除く、すべての一般的なストレージプロパティをサポートしています。さらに、以下の CIFS 特別プロパティが使用可能です:

サーバー

サーバーIPまたはDNS名。必須

Tip DNSルックアップの遅延を避けるため、通常はDNS名ではなくIPアドレスを使用するのが望ましいです-よほど信頼できるDNSサーバーがあるか、ローカルの/etc/hostsファイルにサーバーをリストしている場合を除きます。
シェア

使用するCIFS共有(pvesm scan cifs <address>またはWeb UIで利用可能なものを取得)。必要です。

ユーザー名

CIFS ストレージのユーザー名。オプションで、デフォルトは「guest」です。

パスワード

ユーザーパスワード。rootのみが読み取り可能なファイル(/etc/pve/priv/storage/<STORAGE-ID>.pw) に保存されます。

ドメイン

このストレージのユーザードメイン(ワークグループ)を設定します。オプションです。

スミバージョン

SMBプロトコルのバージョン。オプション、デフォルトは3。SMB1はセキュリティ上の問題からサポートされていません。

パス

ローカルのマウントポイント。オプションで、デフォルトは/mnt/pve/<STORAGE_ID>/です。

コンテンツディレクトリ

デフォルトのディレクトリレイアウトを上書きします。オプション。

オプション

追加のCIFSマウントオプション(man mount.cifsを参照)。一部のオプションは自動的に設定されるため、ここで設定する必要はありません。Proxmox VEは常にソフトオプションを設定します。設定に応じて、これらのオプションは自動的に設定されます:ユーザー名資格情報ゲストドメインvers

サブディレクトリ

マウントする共有のサブディレクトリ。オプションで、デフォルトは共有のルートディレクトリです。

設定例(/etc/pve/storage.cfg)
cifs: backup path /mnt/pve/backup server 10.0.0.11 share VMData content backup options noserverino,echo_interval=30 username anna smbversion 3 subdir /data

ストレージ機能

CIFSはストレージレベルでのスナップショットをサポートしていません。しかし、スナップショットやクローン機能を使用したい場合は、qcow2バッキングファイルを使用することができます。

表 5.バックエンドcifsのストレージ機能
コンテンツの種類 画像フォーマット 共有 スナップ写真 クローン

images rootdir vztmpl iso backup snippets

生のqcow2 vmdk

はい

qcow2

qcow2

でエクスポートされたCIFS共有のリストを取得できます:

# pvesm scan cifs <server> [--username <username>] [--password].

そして、この共有をProxmox VEクラスタ全体のストレージとして追加します:

# pvesm add cifs <storagename> --server <server> --share <share> [--username <username>] [--password].

Proxmox バックアップサーバ

ストレージ・プール・タイプ:pbs

このバックエンドを使用すると、Proxmox Backup Serverを他のストレージと同様にProxmox VEに直接統合できます。 Proxmox Backupストレージは、Proxmox VE API、CLI、またはWebインターフェイスから直接追加できます。

コンフィギュレーション

バックエンドは、常に設定される共有フラグを除く、すべての一般的なストレージプロパティを サポートしています。さらに、Proxmox Backup Serverには以下の特別なプロパティがあります:

サーバー

サーバーIPまたはDNS名。必須

ポート

デフォルトのポート(8007)ではなく、このポートを使用します。オプション。

ユーザー名

Proxmox Backup Serverストレージのユーザー名。必須です。

Tip ユーザー名にレルムを追加することを忘れないでください。例えば、root@pamやarchiver@pbsのように。
パスワード

ユーザ・パスワード。この値は、/etc/pve/priv/storage/<STORAGE-ID>.pw以下のファイルに保存されます。必須。

データストア

使用するProxmox Backup ServerデータストアのID。必須。

フィンガープリント

Proxmox Backup Server API TLS 証明書のフィンガープリントです。Servers Dashboardまたはproxmox-backup-manager cert infoコマンドで取得できます。自己署名証明書またはホストがサーバーのCAを信頼していないその他の証明書に必要です。

暗号キー

クライアント側からバックアップデータを暗号化するためのキー。現在、非パスワード保護(キー派生関数(kdf)なし)のみがサポートされています。etc/pve/priv/storage/<STORAGE-ID>.encに保存され、アクセスは root ユーザに制限されます。 proxmox-backup-client key create --kdf none <path>を使用して新しいものを自動生成するにはマジック値autogenを使用してください。 オプションです。

マスターパブキー

バックアップ・タスクの一部としてバックアップ暗号化キーを暗号化するために使用される公開RSAキー。バックアップ暗号化キーの暗号化されたコピーは各バックアップに追加され、リカバリ用にProxmox Backup Serverインスタンスに保存されます。 オプションで、encryption-keyが必要です。

設定例(/etc/pve/storage.cfg)
pbs: backup datastore main server enya.proxmox.com content backup fingerprint 09:54:ef:...snip...:88:af:47:fe:4c:3b:cf:8b:26:88:0b:4e:3c:b2 prune-backups keep-all=1 username archiver@pbs encryption-key a9:ee:c8:02:13:...snip...:2d:53:2c:98 master-pubkey 1

ストレージ機能

Proxmox Backup Serverはブロックレベルまたはファイルレベルのバックアップのみをサポートします。Proxmox VEは仮想マシンにブロックレベル、コンテナにファイルレベルを使用します。

表 6.バックエンドpbsのストレージ機能
コンテンツの種類 画像フォーマット 共有 スナップ写真 クローン

バックアップ

該当なし

はい

該当なし

該当なし

暗号化

screenshot/storage-pbs-encryption-with-key.png

オプションとして、GCM モードで AES-256 によるクライアント側の暗号化を設定することができます。 暗号化は、Web インターフェース、またはencryption-keyオプション(上記参照)を使用して CLI で設定できます。キーは、root ユーザのみがアクセスできる/etc/pve/priv/storage/<STORAGE-ID>.enc ファイルに保存されます。

Warning キーがないと、バックアップにアクセスできなくなります。したがって、キーは順序よく、バックアップするコンテンツとは別の場所に保管する必要があります。たとえば、システム全体をバックアップし、そのシステムのキーを使用することがあります。何らかの理由でシステムにアクセスできなくなり、復元する必要が生じた場合、暗号化キーは壊れたシステムとともに失われてしまうため、復元は不可能です。

迅速な災害復旧のために、鍵は安全な場所に保管し、簡単にアクセスできるようにしておくことをお勧めします。そのため、すぐに復旧できるパスワード・マネージャー内に保管するのが最適です。このバックアップとして、キーをUSBフラッシュドライブに保存し、安全な場所に保管してください。こうすることで、どのシステムからも切り離された状態になりますが、それでも緊急時には簡単に復旧できます。最後に、最悪のシナリオに備えて、キーの紙コピーを安全な場所に保管しておくことも検討してください。paperkeyサブコマンドを使えば、QRコード化された鍵のバージョンを作成することができます。次のコマンドは、paperkeyコマンドの出力をテキストファイルに送信し、簡単に印刷できるようにします。

# proxmox-backup-client key paperkey /etc/pve/priv/storage/<STORAGE-ID>.enc --output-format text > qrkey.txt

暗号化バックアップを行うすべてのクライアントが単一のパブリック・マスター・キーを使用するように設定すると、それ以降のすべての暗号化バックアップには、使用されたAES暗号化キーのRSA暗号化コピーが含まれます。対応するプライベート・マスター・キーは、クライアント・システムが利用できなくなった場合でも、AESキーの復元とバックアップの復号化を可能にします。

Warning マスター・キー・ペアには、通常の暗号化キーと同じ保管ルールが適用されます。秘密鍵のコピーがなければ、復元は不可能です!paperkeyコマンドは、安全な物理的場所に保管するために、秘密鍵のマスター・キーのコピーを作成します。

暗号化はクライアント側で管理されるため、暗号化されていないバックアップと暗号化されたバックアップが異なるキーで暗号化されていても、サーバ上の同じデータストアを使用することができます。ただし、異なるキーで暗号化されたバックアップ間の重複排除はできないため、データストアは別々に作成した方がよい場合が多いです。

Note 例えば、信頼できるネットワークでローカルにサーバを実行している場合など、暗号化によるメリットがない場合は暗号化を使用しないでください。暗号化されていないバックアップからの復旧の方が常に簡単です。

例CLIによるストレージの追加

そして、この共有をProxmox VEクラスタ全体のストレージとして追加します:

# pvesm add pbs <id> --server <server> --datastore <datastore> --username <username> --fingerprint 00:B4:...--パスワード

GlusterFSバックエンド

ストレージプールのタイプ:glusterfs

GlusterFSはスケーラブルなネットワークファイルシステムです。モジュラーデザインを採用し、コモディティハードウェア上で動作し、低コストで可用性の高いエンタープライズストレージを提供します。このシステムは数ペタバイトまで拡張可能で、数千のクライアントを扱うことができます。

Note ノード/ブリックのクラッシュ後、GlusterFSはデータの一貫性を確認するために完全なrsyncを行います。これは大きなファイルでは非常に時間がかかるため、このバックエンドは大きなVMイメージの保存には適していません。

コンフィギュレーション

バックエンドはすべての一般的なストレージプロパティをサポートし、以下のGlusterFS固有のオプションを追加します:

サーバー

GlusterFS volfileサーバのIPまたはDNS名。

サーバー2

バックアップファイルサーバーのIPまたはDNS名。

ボリューム

GlusterFSボリューム。

輸送

GlusterFSトランスポート:tcpunixまたはrdma

設定例(/etc/pve/storage.cfg)
glusterfs:Gluster server 10.2.3.4 server2 10.2.3.5 volume glustervol content images,iso

ファイルの命名規則

ディレクトリのレイアウトとファイルの命名規則はdirバックエンドから継承しています。

ストレージ機能

ストレージはファイルレベルのインターフェイスを提供しますが、ネイティブのスナップショット/クローン実装はありません。

表 7.バックエンドglusterfsのストレージ機能
コンテンツの種類 画像フォーマット 共有 スナップ写真 クローン

画像 vztmpl iso バックアップスニペット

生のqcow2 vmdk

はい

qcow2

qcow2

ローカルZFSプール・バックエンド

ストレージプールのタイプ:zfspool

このバックエンドを使うと、ローカルのZFSプール(またはプール内のZFSファイルシステム)にアクセスできます。

コンフィギュレーション

バックエンドは、一般的なストレージ・プロパティであるcontentnodesdisableと、以下のZFS固有のプロパティをサポートしています:

プール

ZFSプール/ファイルシステムを選択します。すべての割り当てはそのプール内で行われます。

ブロックサイズ

ZFSブロックサイズ・パラメータを設定します。

まばら

ZFSシン・プロビジョニングを使用します。スパースボリュームとは、予約がボリュームサイズに等しくないボリュームのことです。

マウントポイント

ZFSプール/ファイルシステムのマウントポイント。デフォルトは/<pool> です。

設定例(/etc/pve/storage.cfg)
zfspool: vmdata pool tank/vmdata content rootdir,images sparse

ファイルの命名規則

バックエンドでは、VMイメージに以下のような命名スキームを使用します:

vm-<VMID>-<NAME> // 通常の VM イメージ base-<VMID>-<NAME> // テンプレート VM イメージ (読み取り専用) subvol-<VMID>-<NAME> // サブボリューム (コンテナ用 ZFS ファイルシステム)
<VMID

これはオーナーVMを指定します。

<名前

これは空白のない任意の名前(ascii)です。バックエンドはデフォルトでdisk[N]を使用します。[N]は名前を一意にするために整数で置き換えられます。

ストレージ機能

ZFSは、スナップショットとクローニングに関して、おそらく最も先進的なストレージタイプです。バックエンドは、VMイメージ(フォーマットraw)とコンテナデータ(フォーマットsubvol)の両方にZFSデータセットを使用します。ZFSプロパティは親データセットから継承されるので、親データセットにデフォルトを設定するだけです。

表 8.バックエンドzfsのストレージ機能
コンテンツの種類 画像フォーマット 共有 スナップ写真 クローン

画像 rootdir

生サブヴォル

いいえ

はい

はい

VMイメージを保存するために、追加のZFSファイルシステムを作成することをお勧めします:

# zfs create tank/vmdata

新しく割り当てられたファイルシステムで圧縮を有効にするには:

# zfs set compression=on tank/vmdata

で利用可能なZFSファイルシステムのリストを取得できます:

# pvesm zfsscan

LVM バックエンド

ストレージ・プールのタイプ:lvm

LVMは、ハードディスクとパーティションの上にある軽いソフトウェアレイヤーです。利用可能なディスクスペースをより小さな論理ボリュームに分割するために使用できます。LVMはLinuxで広く使用されており、ハードドライブの管理を容易にします。

もう1つの使用例は、大きなiSCSI LUNの上にLVMを置くことです。そうすれば、iSCSI LUN上のスペースを簡単に管理することができます。iSCSI仕様では、スペース割り当てのための管理インターフェイスが定義されていないため、そうでなければ不可能です。

コンフィギュレーション

LVMバックエンドは、一般的なストレージ・プロパティであるcontentnodesdisableと、以下のLVM固有のプロパティをサポートしています:

ブグネーム

LVMボリューム・グループ名。これは既存のボリュームグループを指す必要があります。

ベース

ベースボリューム。このボリュームは、ストレージにアクセスする前に自動的にアクティブ化されます。これは、LVMボリュームグループがリモートのiSCSIサーバに存在する場合に便利です。

セーフリムーブ

Web UIでは "Wipe Removed Volumes "と呼ばれます。LVの削除時にデータをゼロにする ボリュームを削除する際に、すべてのデータが消去され、後から作成された他のLV(たまたま同じ物理エクステントが割り当てられている)からアクセスできないようにします。これはコストのかかる操作ですが、特定の環境ではセキュリティ対策として必要な場合があります。

saferemove_throughput

ワイプスループット(cstream -tパラメータ値)。

設定例(/etc/pve/storage.cfg)
lvm: myspace vgname myspace content rootdir,images

ファイルの命名規則

バックエンドは、基本的にZFSプールのバックエンドと同じ命名規則を使用します。

vm-<VMID>-<NAME> // 通常のVMイメージ

ストレージ機能

LVMは典型的なブロックストレージですが、このバックエンドはスナップショットとクローンをサポートしていません。残念ながら、通常のLVMスナップショットは、スナップショット時間中にボリュームグループ全体のすべての書き込みを妨害するため、かなり非効率的です。

大きな利点は、iSCSI LUNなどの共有ストレージの上で使用できることです。バックエンド自体が適切なクラスタ全体のロックを実装しています。

Tip 新しいLVM-thinバックエンドはスナップショットとクローンを可能にしますが、共有ストレージをサポートしません。
表 9.バックエンドlvmのストレージ機能
コンテンツの種類 画像フォーマット 共有 スナップ写真 クローン

画像 rootdir

可能

いいえ

いいえ

利用可能なボリュームグループを一覧表示します:

# pvesm lvmscan

LVM シン バックエンド

ストレージ・プールのタイプ:lvmthin

LVMは通常、ボリュームの作成時にブロックを割り当てます。LVMのシンプールは、代わりに、書き込み時にブロックを割り当てます。ボリュームは物理的に利用可能なスペースよりもはるかに大きくなる可能性があるため、この動作はシン・プロビジョニングと呼ばれます。

通常のLVMコマンドラインツールを使用して、LVMシンプールを管理および作成できます(詳細については、man lvmthinを参照してください)。pveというLVMボリュームグループが既にあると仮定すると、以下のコマンドは、dataという新しいLVMシンプール(サイズ100G)を作成します:

lvcreate -L 100G -n data pve lvconvert --type thin-pool pve/data

コンフィギュレーション

LVMシンバックエンドは、一般的なストレージプロパティであるcontentnodesdisableと、以下のLVM固有のプロパティをサポートします:

ブグネーム

LVMボリューム・グループ名。これは既存のボリュームグループを指す必要があります。

シンプール

LVMシンプールの名前。

設定例(/etc/pve/storage.cfg)
lvmthin: local-lvm thinpool data vgname pve content rootdir,images

ファイルの命名規則

バックエンドは、基本的にZFSプールのバックエンドと同じ命名規則を使用します。

vm-<VMID>-<NAME> // 通常のVMイメージ

ストレージ機能

LVM thinはブロックストレージですが、スナップショットやクローンを効率的にサポートします。新しいボリュームは自動的にゼロで初期化されます。

LVMシン・プールは複数のノードで共有できないため、ローカル・ストレージとしてのみ使用できます。

表 10.バックエンドlvmthinのストレージ機能
コンテンツの種類 画像フォーマット 共有 スナップ写真 クローン

画像 rootdir

いいえ

はい

はい

ボリュームグループpveで利用可能なLVMシンプールをリストします:

# pvesm lvmthinscan pve

Open-iSCSI イニシエータ

ストレージプールの種類:iscsi

iSCSIは、ストレージサーバーへの接続に広く採用されている技術です。ほとんどすべてのストレージベンダーが iSCSI をサポートしています。また、Debian ベースのOpenMediaVault など、オープンソースの iSCSI ターゲットソリューションもあります。

このバックエンドを使用するには、Open-iSCSI(open-iscsi) パッケージをインストールする必要があります。これは Debian の標準パッケージですが、リソースを節約するためにデフォルトではインストールされません。

# apt-get install open-iscsi

低レベルのiscsi管理タスクはiscsiadmツールを使って行うことができます。

コンフィギュレーション

バックエンドは、一般的なストレージ・プロパティであるcontentnodesdisable、および以下のiSCSI固有のプロパティをサポートしています:

ポータル

iSCSIポータル(IPまたはDNS名とオプションのポート)。

ターゲット

iSCSI ターゲット。

設定例(/etc/pve/storage.cfg)
iscsi: mynas portal 10.10.10.1 target iqn.2006-01.openfiler.com:tsn.dcb5aaaddd content none
Tip iSCSIの上でLVMを使用したい場合は、content noneを設定するのが理にかなっています。そうすることで、iSCSI LUNを直接使用してVMを作成することができなくなります。

ファイルの命名規則

iSCSIプロトコルは、データを割り当てたり削除したりするインターフェースを定義していません。代わりに、それはターゲット側で行われる必要があり、ベンダー固有です。ターゲットは単に番号付きLUNとしてエクスポートします。そのため、Proxmox VEのiSCSIボリューム名は、Linuxカーネルから見たLUNに関する情報をエンコードしているだけです。

ストレージ機能

iSCSIはブロック・レベル・タイプのストレージで、管理インターフェイスを提供しません。 そのため、通常は1つの大きなLUNをエクスポートし、そのLUNの上にLVMをセットアップするのが最善です。その後、LVMプラグインを使ってiSCSI LUN上のストレージを管理することができます。

表 11.バックエンドiscsiのストレージ機能
コンテンツの種類 画像フォーマット 共有 スナップ写真 クローン

画像なし

はい

いいえ

いいえ

リモートのiSCSIポータルをスキャンし、可能なターゲットのリストを返します:

pvesm scan iscsi <ホスト[:ポート]>。

ユーザーモード iSCSI バックエンド

ストレージプールの種類:iscidirect

このバックエンドは基本的に Open-iSCSI バックエンドと同じ機能を提供しますが、 実装にはユーザレベルのライブラリを使用します。このバックエンドを使用するにはlibiscsi-binパッケージをインストールする必要があります。

カーネル・ドライバが関与していないので、これはパフォーマンスの最適化と見なすことができることに留意すべきです。しかしこれには、そのようなiSCSI LUNの上でLVMを使用できないという欠点があります。そのため、ストレージサーバー側ですべての領域の割り当てを管理する必要があります。

コンフィギュレーション

ユーザーモード iSCSI バックエンドは、Open-iSCSI バックエンドと同じ設定オプションを使用します。

設定例(/etc/pve/storage.cfg)
iscsidirect: faststore portal 10.10.10.1 target iqn.2006-01.openfiler.com:tsn.dcb5aaaddd

ストレージ機能

Note このバックエンドはVMでのみ動作します。コンテナはこのドライバを使用できません。
表 12.バックエンドiscsidirectのストレージ機能
コンテンツの種類 画像フォーマット 共有 スナップ写真 クローン

イメージ

はい

いいえ

いいえ

Ceph RADOSブロックデバイス (RBD)

ストレージ・プールのタイプ:rbd

Cephは、優れたパフォーマンス、信頼性、スケーラビリティを提供するように設計された分散オブジェクトストアおよびファイルシステムです。RADOSブロックデバイスは豊富な機能を備えたブロックレベルストレージを実装しており、次のような利点があります:

  • シンプロビジョニング

  • サイズ変更可能なボリューム

  • 分散および冗長(複数のOSDにストライピング)

  • 完全なスナップショットとクローン機能

  • 自己治癒

  • 単一障害点なし

  • エクサバイトレベルまで拡張可能

  • カーネルおよびユーザー空間の実装が可能

Note 小規模な導入では、Proxmox VEノードでCephサービスを直接実行することも可能です。最近のハードウェアはCPUパワーとRAMに余裕があるため、ストレージサービスとVMを同じノードで実行できます。

コンフィギュレーション

このバックエンドは、一般的なストレージプロパティであるnodedisablecontentと、以下のrbd固有のプロパティをサポートしています:

モノホスト

モニタデーモンのIPのリスト。オプション。CephがProxmox VEクラスタで実行されていない場合にのみ必要です。

プール

Cephプール名。

ユーザー名

RBDユーザID。オプションで、CephがProxmox VEクラスタで実行されていない場合にのみ必要です。 ユーザIDのみを使用することに注意してください。client. "タイプの接頭辞は省略する必要があります。

クルブド

krbdカーネルモジュールを通してradosブロックデバイスへのアクセスを強制します。オプション。

Note コンテナは、オプション値とは無関係にkrbdを使用します。
外部Cephクラスタの構成例(/etc/pve/storage.cfg)
rbd: ceph-external monhost 10.1.1.20 10.1.1.21 10.1.1.22 pool ceph-external content images username admin
Tip rbdユーティリティを使って低レベルの管理作業を行うことができます。

認証

Note Proxmox VEクラスタにCephがローカルにインストールされている場合、ストレージの追加時に以下が自動的に実行されます。

デフォルトで有効になっているcephx認証を使用する場合、外部のCephクラスタからキーリングを提供する必要があります。

CLIでストレージを構成するには、まず、キーリングを含むファイルを利用できるようにする必要があります。1つの方法は、外部CephクラスタからProxmox VEノードの1つにファイルを直接コピーすることです。次の例では、実行するノードの/rootディレクトリにコピーします:

# scp <外部 cephserver>:/etc/ceph/ceph.client.admin.keyring /root/rbd.keyring

次に、pvesmCLIツールを使用して外部RBDストレージを設定します。--keyringパラメータを使用し、コピーしたキーリング・ファイルへのパスを指定します。 たとえば、以下のようになります:

# pvesm add rbd <名前> --monhost "10.1.1.20 10.1.1.21 10.1.1.22" --content images --keyring /root/rbd.keyring

GUIで外部RBDストレージを設定する場合、キーリングをコピーして適切なフィールドに貼り付けることができます。

キーホルダーは

# /etc/pve/priv/ceph/<STORAGE_ID>.keyring
Tip 外部クラスタに接続する場合は、必要な機能のみを持つキーリングを作成することをお勧めします。Cephユーザ管理の詳細については、Cephドキュメントを参照してください。
[Cephユーザ管理]

Ceph クライアント構成 (オプション)

外部Cephストレージに接続しても、外部クラスタ上のconfig DBでクライアント固有のオプションを設定できるとは限りません。Cephキーリングの横にceph.confを追加して、ストレージのCephクライアント設定を変更できます。

ceph.confはストレージと同じ名前にする必要があります。

# /etc/pve/priv/ceph/<STORAGE_ID>.conf

可能な設定については、RBD設定リファレンス
[RBD configuration referencehttps://docs.ceph.com/en/quincy/rbd/rbd-config-ref/]
を参照してください。

Note これらの設定を軽率に変更しないでください。Proxmox VEは<STORAGE_ID>.confをストレージ設定にマージします。

ストレージ機能

rbdバックエンドはブロックレベルのストレージで、完全なスナップショットとクローン機能を実装しています。

表13.バックエンドrbdのストレージ機能
コンテンツの種類 画像フォーマット 共有 スナップ写真 クローン

画像 rootdir

はい

はい

はい

Ceph Filesystem (CephFS)

ストレージプールのタイプ:cephfs

CephFSはPOSIX準拠のファイルシステムを実装し、Cephストレージクラスタを使用してデータを格納します。CephFSはCephをベースに構築されているため、Cephの特性のほとんどを共有します。これには、冗長性、スケーラビリティ、自己回復、高可用性が含まれます。

Tip Proxmox VEはCephのセットアップを管理できるため、CephFSストレージの構成が容易になります。最新のハードウェアは多くの処理能力とRAMを備えているため、ストレージサービスとVMを同じノードで実行してもパフォーマンスに大きな影響はありません。

CephFSストレージプラグインを使用するには、Debian純正のCephクライアントを置き換えて、Cephリポジトリを追加する必要があります。 追加したら、apt updateを実行し、続いてapt dist-upgradeを実行して、最新のパッケージを取得します。

Warning 他のCephリポジトリが設定されていないことを確認してください。 設定されていない場合、インストールに失敗するか、ノード上にパッケージのバージョンが混在して予期しない動作が発生します。

コンフィギュレーション

このバックエンドは、一般的なストレージプロパティのnodesdisablecontentのほか、以下のcephfs固有のプロパティもサポートしています:

エフエスネーム

Ceph FSの名前。

モノホスト

モニタデーモンアドレスのリスト。オプション。CephがProxmox VEクラスタで実行されていない場合にのみ必要です。

パス

ローカルのマウントポイント。オプションで、デフォルトは/mnt/pve/<STORAGE_ID>/です。

ユーザー名

CephユーザID。オプション。CephがProxmox VEクラスタで実行されていない場合にのみ必要で、デフォルトはadminです。

サブディレクトリ

マウントするCephFSサブディレクトリ。オプション、デフォルトは/です。

ヒューズ

カーネルクライアントの代わりにFUSEを介してCephFSにアクセスします。オプション、デフォルトは0

外部Cephクラスタの構成例(/etc/pve/storage.cfg)
cephfs: cephfs-external monhost 10.1.1.20 10.1.1.21 10.1.1.22 path /mnt/pve/cephfs-external content backup username admin fs-name cephfs
Note cephxが無効になっていない場合は、クライアントの秘密鍵ファイルを設定することを忘れないでください。

認証

Note Proxmox VEクラスタにCephがローカルにインストールされている場合、ストレージの追加時に以下が自動的に実行されます。

デフォルトで有効になっているcephx認証を使用する場合は、外部のCephクラスタからシークレットを提供する必要があります。

CLIでストレージを設定するには、まず、シークレットを含むファイルを利用できるようにする必要があります。1つの方法は、外部CephクラスタからProxmox VEノードの1つにファイルを直接コピーすることです。次の例では、実行するノードの/rootディレクトリにコピーします:

# scp <外部 cephserver>:/etc/ceph/cephfs.secret /root/cephfs.secret

次に、pvesmCLIツールを使用して外部RBDストレージを設定します。--keyringパラメータを使用し、コピーしたシークレットファイルへのパスを指定します。 たとえば、以下のようになります:

# pvesm add cephfs <name> --monhost "10.1.1.20 10.1.1.21 10.1.1.22" --content backup --keyring /root/cephfs.secret

GUIで外部RBDストレージを設定する場合、該当するフィールドにシークレットをコピー&ペーストできます。

rbdバックエンドは[client.userid]セクションも含んでいるのとは対照的に、シークレットはキーそのものだけです。

秘密は

# /etc/pve/priv/ceph/<STORAGE_ID>.secret

useridはクラスタにアクセスするように設定されているクライアントIDです。Cephユーザ管理の詳細については、Cephのドキュメントを参照してください。
[cephusermgmt]

# ceph auth get-key client.userid > cephfs.secret

ストレージ機能

cephfsバックエンドは、Cephクラスタ上のPOSIX準拠ファイルシステムです。

表14.バックエンドcephfsのストレージ機能
コンテンツの種類 画像フォーマット 共有 スナップ写真 クローン

vztmpl ISOバックアップスニペット

皆無

はい

yes[1]

いいえ

[1]既知のバグは存在しませんが、スナップショットは十分なテストが行われていないため、安定性は保証されていません。

BTRFS バックエンド

ストレージプールの種類:btrfs

表面的には、このストレージタイプはディレクトリストレージタイプと非常に似ているので、一般的な概要についてはディレクトリバックエンドのセクションを参照してください。

主な違いは、このストレージタイプでは、スナップショットを取得し、スナップショットを保持したままオフラインストレージの移行をサポートするために、ローフォーマットディスクがサブボリュームに配置されることです。

Note BTRFSは、ファイルを開く際にO_DIRECTフラグを尊重します。つまり、VMはキャッシュ・モードnoneを使用すべきではなく、そうでなければチェックサム・エラーが発生します。

コンフィギュレーション

このバックエンドは、ディレクトリ・ストレージと同様に設定します。それ自身がマウントポイントでもないディレクトリを BTRFS ストレージとして追加する場合は、is_mountpointオプションで実際のマウントポイントを指定することを強くお勧めします。

たとえば、BTRFS ファイルシステムが/mnt/data2にマウントされ、そのpve-storage/サブディレクトリ(スナップショットである可能性があり、これを推奨)をdata2 というストレージプールとして追加する場合、次のエントリを使用できます:

btrfs: data2 パス /mnt/data2/pve-storage コンテンツ rootdir,images is_mountpoint /mnt/data2

スナップショット

サブボリュームまたはRAWファイルのスナップショットを作成する場合、スナップショットは、同じパスに@とスナップショット名を付けた読み取り専用のサブボリュームとして作成されます。

ZFS over ISCSI バックエンド

ストレージプールのタイプ:zfs

このバックエンドは、ストレージとして ZFS プールを持ち、iSCSI ターゲットの実装を持つリモートマシンにssh 経由でアクセスします。各ゲストディスクに対してZVOLを作成し、iSCSI LUNとしてエクスポートします。このLUNはProxmox VEによってゲストディスクに使用されます。

以下のiSCSIターゲット実装がサポートされています:

  • LIO(リナックス)

  • IET (Linux)

  • ISTGT (FreeBSD)

  • コムスター(ソラリス)

Note このプラグインを使用して、通常のストレージアプライアンス/SAN上にZFSプールを作成することはできません。

コンフィギュレーション

ZFS over iSCSI プラグインを使用するには、リモートマシン (ターゲット) が Proxmox VE ノードからのssh接続を受け付けるように設定する必要があります。Proxmox VEはターゲットに接続してZVOLを作成し、iSCSI経由でエクスポートします。 認証は/etc/pve/priv/zfs/<target_ip>_id_rsaに保存されたsshキー(パスワード保護なし)を介して行われます。

以下の手順でsshキーを作成し、IP 192.0.2.1のストレージマシンに配布します:

mkdir /etc/pve/priv/zfs ssh-keygen -f /etc/pve/priv/zfs/192.0.2.1_id_rsa ssh-copy-id -i /etc/pve/priv/zfs/192.0.2.1_id_rsa.pub root@192.0.2.1 ssh -i /etc/pve/priv/zfs/192.0.2.1_id_rsa root@192.0.2.1

バックエンドは、一般的なストレージ・プロパティであるcontentnodesdisable、および以下のZFS over ISCSI固有のプロパティをサポートします:

プール

iSCSIターゲット上のZFSプール/ファイルシステム。すべての割り当てはそのプール内で行われます。

ポータル

iSCSIポータル(IPまたはDNS名とオプションのポート)。

ターゲット

iSCSI ターゲット。

アイソサイプロバイダ

リモートマシンで使用されるiSCSIターゲット実装

コムスター

コムスター・ビューのターゲット・グループ。

comstar_hg

comstarビューのホストグループ。

lio_tpg

Linux LIOターゲット用ターゲットポータルグループ

ナウライトキャッシュ

ターゲットの書き込みキャッシュを無効にします。

ブロックサイズ

ZFSブロックサイズ・パラメータを設定します。

まばら

ZFSシン・プロビジョニングを使用します。スパースボリュームとは、予約がボリュームサイズに等しくないボリュームのことです。

設定例(/etc/pve/storage.cfg)
zfs: lio blocksize 4k iscsiprovider LIO pool tank portal 192.0.2.111 target iqn.2003-01.org.linux-iscsi.lio.x8664:sn.xxxxxxxxxx content images lio_tpg tpg1 sparse 1 zfs: solaris blocksize 4k target iqn.2010-08.org.illumos:02:xxxxxxxx-xxxxxx-xxxxxx-xxxxxxxxxx:tank1 pool tank iscsiprovider comstar portal 192.0.2.112 content images zfs: freebsd blocksize 4k target iqn.2007-09.jp.ne.peach.istgt:tank1 pool tank iscsiprovider istgt portal 192.0.2.113 content images zfs: iet blocksize 4k target iqn.2001-04.com.example:tank1 pool tank iscsiprovider iet portal 192.0.2.114 content images

ストレージ機能

ZFS over iSCSIプラグインは、スナップショットが可能な共有ストレージを提供します。ZFSアプライアンスが導入における単一障害点にならないようにする必要があります。

表 15.バックエンドiscsiのストレージ機能
コンテンツの種類 画像フォーマット 共有 スナップ写真 クローン

イメージ

はい

はい

いいえ

著作権 © 2007-2022 Proxmox Server Solutions GmbH

このプログラムはフリー・ソフトウェアです。あなたは、Free Software Foundationによって発行されたGNU Affero General Public Licenseのバージョン3、またはそれ以降のバージョンのいずれかに従って、このプログラムの再配布や改変を行うことができます。

このプログラムは有用であることを期待して配布されていますが、商品性や特定の目的への適合性についての暗黙の保証もなく、いかなる保証もありません。詳細はGNU Affero General Public Licenseをご覧ください。

あなたはこのプログラムとともにGNU Affero General Public Licenseのコピーを受け取っているはずです。 そうでない場合は、https://www.gnu.org/licenses/をご覧ください。