QNAP QuTS hero 5 セットアップ
今回は12ベイの「TS-h1283XU-RP」をセットアップする様子を紹介します。
メモリは最大の128GBまで搭載されているモデルなので、様々な用途に活躍してくれそうです。
ページ内目次
QNAP QuTS hero のセットアップ
システム領域としてディスクの一部を使用するため、ディスクが無いとセットアップを開始できません。
電源を入れる前にディスクの取り付けから行います。
QNAPへのHDD取り付け
東芝 MG09ACA18TE を12台用意しました。
本当はWD Goldシリーズが良かったのですが、安いので最近は東芝MGシリーズを買うことが多いかもですね。
どちらにせよ、連続稼働するNASに搭載するディスクはNAS用とするものか、エンタープライズ向けが不具合が少なくて良いです。
今までHDDを3桁本は扱ってきてデスクトップ向けHDDは選択肢に入らなくなりました。
最近であればSSDも選択肢に入ると思いますが、データ復旧がほぼ不可能・RAIDでの同一箇所劣化の懸念があるので除外しています。
初期セットアップまでの準備
このQNAPは情報表示のLCDディスプレイが存在しません。
DHCP配下のLANに接続してセットアップを開始します。
専用のアプリ等のインストールは特に必要ありません。
DHCPサーバーを管理している立場であれば、DHCPリース情報を見て、QNAPに当たったIPアドレスを特定できるでしょう。
起動ボタンを押した際と、そこから数分待って起動完了した際にビープ音が鳴ります。
起動完了後にWebブラウザでそのIPアドレスにアクセスすればよいです。
QuTS hero スマートインストールシステム
スマートインストレーションを開始します。
利用規約に同意して進みます。
ファームウェアは実験時にアップデートしてあったので最新。
NAS名と管理者として使用するユーザー名、パスワードを入力して進みます。
NTPの設定はNICTにしています。
ネットワーク設定はあとで行うのでとりあえずDHCPのままで進みます。
ファームウェア更新の設定をして、設定を適用するのを数分待ちます。
しばらくすると設定が終了して、ログイン画面に移行します。
この際にIPアドレスに変更があるとログイン画面が開かないので、変更後のIPアドレスを指定して開きます。
セットアップ直後のディスクパーティション構成他
ログイン後、SSHだけを有効にし、セットアップ直後の状態を確認してみました。
$ ls /dev/sd*
/dev/sda /dev/sda4 /dev/sdb2 /dev/sdc /dev/sdc4 /dev/sdd2 /dev/sdd6
/dev/sda1 /dev/sda5 /dev/sdb3 /dev/sdc1 /dev/sdc5 /dev/sdd3 /dev/sdd7
/dev/sda2 /dev/sdb /dev/sdb4 /dev/sdc2 /dev/sdd /dev/sdd4
/dev/sda3 /dev/sdb1 /dev/sdb5 /dev/sdc3 /dev/sdd1 /dev/sdd5
$ sudo fdisk -l
Disk /dev/sdb: 18000.2 GB, 18000207937536 bytes
255 heads, 63 sectors/track, 2188400 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 1 267350 2147483647+ ee EFI GPT
Disk /dev/sda: 18000.2 GB, 18000207937536 bytes
255 heads, 63 sectors/track, 2188400 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 1 267350 2147483647+ ee EFI GPT
Disk /dev/sdc: 18000.2 GB, 18000207937536 bytes
255 heads, 63 sectors/track, 2188400 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdc1 1 267350 2147483647+ ee EFI GPT
Disk /dev/sdd: 4982 MB, 4982833152 bytes
8 heads, 32 sectors/track, 38016 cylinders
Units = cylinders of 256 * 512 = 131072 bytes
Device Boot Start End Blocks Id System
/dev/sdd1 1 41 5244 83 Linux
/dev/sdd2 42 3948 500096 83 Linux
/dev/sdd3 3949 7855 500096 83 Linux
/dev/sdd4 7856 30240 2865280 5 Extended
/dev/sdd5 7856 7920 8316 83 Linux
/dev/sdd6 7921 7988 8700 83 Linux
/dev/sdd7 7989 30240 2848252 83 Linux
Disk /dev/md9: 542 MB, 542769152 bytes
2 heads, 4 sectors/track, 132512 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/md9 doesn't contain a valid partition table
Disk /dev/md13: 469 MB, 469893120 bytes
2 heads, 4 sectors/track, 114720 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/md13 doesn't contain a valid partition table
Disk /dev/md322: 32.6 GB, 32633257984 bytes
2 heads, 4 sectors/track, 7967104 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/md322 doesn't contain a valid partition table
$ cat /proc/partitions
major minor #blocks name
1 0 204800 ram0
1 1 458752 ram1
1 2 458752 ram2
1 3 204800 ram3
1 4 204800 ram4
1 5 204800 ram5
1 6 204800 ram6
1 7 204800 ram7
1 8 204800 ram8
1 9 204800 ram9
1 10 204800 ram10
1 11 204800 ram11
1 12 204800 ram12
1 13 204800 ram13
1 14 204800 ram14
1 15 204800 ram15
7 0 32768 loop0
8 16 17578328064 sdb
8 17 530125 sdb1
8 18 530142 sdb2
8 19 17543205888 sdb3
8 20 538701 sdb4
8 21 32997507 sdb5
8 0 17578328064 sda
8 1 530125 sda1
8 2 530142 sda2
8 3 17543205888 sda3
8 4 538701 sda4
8 5 32997507 sda5
8 32 17578328064 sdc
8 33 530125 sdc1
8 34 530142 sdc2
8 35 17543205888 sdc3
8 36 538701 sdc4
8 37 32997507 sdc5
8 48 4866048 sdd
8 49 5244 sdd1
8 50 500096 sdd2
8 51 500096 sdd3
8 52 1 sdd4
8 53 8316 sdd5
8 54 8700 sdd6
8 55 2848252 sdd7
9 9 530048 md9
9 13 458880 md13
9 322 31868416 md322
$ ls /dev/md*
/dev/md13 /dev/md322 /dev/md9
$ cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md322 : active raid1 sdc5[3](S) sdb5[2] sda5[0]
31868416 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md13 : active raid1 sdc4[2] sdb4[1] sda4[0]
458880 blocks super 1.0 [128/3] [UUU_____________________________________________________________________________________________________________________________]
bitmap: 1/1 pages [4KB], 65536KB chunk
md9 : active raid1 sdc1[2] sdb1[1] sda1[0]
530048 blocks super 1.0 [128/3] [UUU_____________________________________________________________________________________________________________________________]
bitmap: 1/1 pages [4KB], 65536KB chunk
unused devices: <none>
$ sudo mdadm --detail /dev/md9
/dev/md9:
Version : 1.0
Creation Time : Mon Apr 14 17:08:43 2025
Raid Level : raid1
Array Size : 530048 (517.63 MiB 542.77 MB)
Used Dev Size : 530048 (517.63 MiB 542.77 MB)
Raid Devices : 128
Total Devices : 3
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Mon Apr 14 17:38:51 2025
State : active, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Name : 9
UUID : 4069859c:e4a6c75b:7575e4b9:a9f06ef3
Events : 773
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
2 8 33 2 active sync /dev/sdc1
6 0 0 6 removed
8 0 0 8 removed
10 0 0 10 removed
(100行以上あるためコマンド結果省略)
254 0 0 254 removed
$ sudo mdadm --detail /dev/md13
/dev/md13:
Version : 1.0
Creation Time : Mon Apr 14 17:08:51 2025
Raid Level : raid1
Array Size : 458880 (448.13 MiB 469.89 MB)
Used Dev Size : 458880 (448.13 MiB 469.89 MB)
Raid Devices : 128
Total Devices : 3
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Mon Apr 14 17:19:40 2025
State : clean, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Name : 13
UUID : a789ccbf:b313b516:95c08970:8a9b099d
Events : 116
Number Major Minor RaidDevice State
0 8 4 0 active sync /dev/sda4
1 8 20 1 active sync /dev/sdb4
2 8 36 2 active sync /dev/sdc4
6 0 0 6 removed
8 0 0 8 removed
10 0 0 10 removed
(100行以上あるためコマンド結果省略)
254 0 0 254 removed
$ sudo mdadm --detail /dev/md322
/dev/md322:
Version : 1.0
Creation Time : Mon Apr 14 17:09:02 2025
Raid Level : raid1
Array Size : 31868416 (30.39 GiB 32.63 GB)
Used Dev Size : 31868416 (30.39 GiB 32.63 GB)
Raid Devices : 2
Total Devices : 3
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Mon Apr 14 17:14:57 2025
State : clean
Active Devices : 2
Working Devices : 3
Failed Devices : 0
Spare Devices : 1
Name : 322
UUID : 99e027e1:6d464c21:502ac134:bd0acf41
Events : 77
Number Major Minor RaidDevice State
0 8 5 0 active sync /dev/sda5
2 8 21 1 active sync /dev/sdb5
3 8 37 - spare /dev/sdc5
$ cat /etc/fstab
# /etc/fstab: static file system information.
#
# <file system> <mount pt> <type> <options> <dump> <pass>
/dev/ram / ext2 defaults 1 1
proc /proc proc defaults 0 0
none /dev/pts devpts gid=5,mode=620 0 0
$ cat /proc/mounts
none / tmpfs rw,relatime,size=473088k,mode=755 0 0
devtmpfs /dev devtmpfs rw,relatime,size=65885632k,nr_inodes=16471408,mode=755 0 0
/proc /proc proc rw,relatime 0 0
/proc /proc proc rw,relatime 0 0
devpts /dev/pts devpts rw,relatime,mode=600,ptmxmode=000 0 0
sysfs /sys sysfs rw,relatime 0 0
tmpfs /tmp tmpfs rw,relatime,size=65536k 0 0
tmpfs /dev/shm tmpfs rw,relatime 0 0
tmpfs /share tmpfs rw,relatime,size=16384k 0 0
/dev/sdd5 /mnt/boot_config ext2 rw,relatime,errors=continue 0 0
tmpfs /mnt/snapshot/export tmpfs rw,relatime,size=16384k 0 0
cgroup_root /sys/fs/cgroup tmpfs rw,relatime 0 0
cpu /sys/fs/cgroup/cpu cgroup rw,relatime,cpu 0 0
none /sys/fs/cgroup/memory cgroup rw,relatime,memory 0 0
securityfs /sys/kernel/security securityfs rw,relatime 0 0
/dev/md9 /mnt/HDA_ROOT ext3 rw,relatime,data=ordered 0 0
/dev/md13 /mnt/ext ext3 rw,relatime,data=ordered 0 0
tmpfs /samba_third_party tmpfs rw,relatime,size=32768k 0 0
tmpfs /samba tmpfs rw,relatime,size=65536k 0 0
/dev/ram2 /mnt/update ext2 rw,relatime,errors=continue 0 0
tmpfs /mnt/ext/opt/FileStation5 tmpfs rw,relatime,size=32768k,mode=777 0 0
/dev/loop0 /mnt/ext/opt/FileStation5 ext3 ro,relatime 0 0
tmpfs /tmp/wfm tmpfs rw,relatime,size=10240k,mode=777 0 0
tmpfs /samba/.samba/lock/msg.lock tmpfs rw,relatime,size=49152k 0 0
tmpfs /mnt/ext/opt/samba/private/msg.sock tmpfs rw,relatime,size=16384k 0 0
$ sudo df -aT
Filesystem Type 1K-blocks Used Available Use% Mounted on
none tmpfs 473088 359600 113488 76% /
devtmpfs devtmpfs 65885632 4 65885628 0% /dev
/proc proc 0 0 0 0% /proc
/proc proc 0 0 0 0% /proc
devpts devpts 0 0 0 0% /dev/pts
sysfs sysfs 0 0 0 0% /sys
tmpfs tmpfs 65536 448 65088 1% /tmp
tmpfs tmpfs 65907340 148 65907192 0% /dev/shm
tmpfs tmpfs 16384 0 16384 0% /share
/dev/sdd5 ext2 7928 47 7473 1% /mnt/boot_config
tmpfs tmpfs 16384 0 16384 0% /mnt/snapshot/export
cgroup_root tmpfs 65907340 0 65907340 0% /sys/fs/cgroup
cpu cgroup 0 0 0 0% /sys/fs/cgroup/cpu
none cgroup 0 0 0 0% /sys/fs/cgroup/memory
securityfs securityfs 0 0 0 0% /sys/kernel/security
/dev/md9 ext3 505300 122956 382344 24% /mnt/HDA_ROOT
/dev/md13 ext3 426984 386300 40684 90% /mnt/ext
tmpfs tmpfs 32768 27900 4868 85% /samba_third_party
tmpfs tmpfs 65536 3216 62320 5% /samba
/dev/ram2 ext2 444276 2318 441958 1% /mnt/update
tmpfs tmpfs 29688 20846 8842 70% /mnt/ext/opt/FileStation5
/dev/loop0 ext3 29688 20846 8842 70% /mnt/ext/opt/FileStation5
tmpfs tmpfs 10240 0 10240 0% /tmp/wfm
tmpfs tmpfs 49152 32 49120 0% /samba/.samba/lock/msg.lock
tmpfs tmpfs 16384 0 16384 0% /mnt/ext/opt/samba/private/msg.sock
sda, sdb, sdcが今回追加した18TBのHDDです。
sddは5GBのディスクで、システム用として内蔵されているものです。
HDDを追加すると、sde、sdfと末尾にずれていきます。
ソフトウェアRAIDがシステムで組まれています。
HDDのパーティションの内容は、0.5GBのmd9、0.5GBの予備領域?、メインストレージ領域、0.5GBのmd13、33GBのmd322となっています。
md9, md13のRAIDアレイは3台(128台設定)にまたがっていますが、md322は2台(2台設定)が使用されていて、1台はスペアになっているようです。
HDDを追加するだけでは、システムのRAID領域は再構築されず、今は何がトリガーになっているのか不明です。
md9 は /mnt/HDA_ROOT でマウントされていて、システムメインファイルが格納されていそうです。
md13 は /mnt/ext でマウントされていて、各種アプリの設定情報?が格納されていそうです。
md322 はマウントされていないため不明です。
初期設定
スマートインストレーションが終わったあとにコントロールパネルで以下の設定を変更しました。
システム - 一般設定
- 夏時間:「夏時間に合わせてシステムクロックを自動的に調整する」 チェックを外す
- コードページ:「ファイル名符号化」 英語から日本語に変更
ネットワークとファイルサービス - Telnet / SSH
- 「SSH接続を許可する」:任意
ネットワークとファイルサービス - サービス検出
- Bonjour:「Bonjourサービスを有効にする」 チェックを外す
- Qfinderディスカバリーサービス:「Qfinderディスカバリーサービスを有効にする」 チェックを外す
ネットワーク設定
メインマシンは100Gbpsのイーサネットカードを使っていますが、NAS側のPCIeの帯域の関係があり25Gbpsのカードで妥協です。
設定は「ネットワーク&仮想スイッチ」から変更をします。
イーサネットカード増設
「Mellanox MCX4121A-ACAT (NVIDIA ConnectX-4 Lx Ethernet Adapter Card)」を準備しました。
25Gbpsまで対応する2ポートSFP28のイーサネットカードです。
MellanoxがNVIDIAに買収されたため、社名はどちらかの表記です。
「互換性一覧」から「TS-h1283XU-RP」を選択してリストを見ると「Mellanox MCX4121A-ACAT」は存在していません。
しかし、同じMellanox社のConnectX-3シリーズがリストに存在することから、ドライバが内蔵されていると踏んでConnectX-4カードを選択しました。
NASのPCIeスロット(PCIe 3.0 x4 スロット4・CPU側)に刺すだけで無事、認識されてそのまま使用可能でした。
IPアドレス設定
「ネットワーク&仮想スイッチ」からネットワークを開き、インターフェース内で設定を行います。
対象のインターフェースにて、メニューから設定を開き、IPv4設定を静的IPアドレス、DNSの設定をします。
仮想スイッチ作成
「ネットワーク&仮想スイッチ」から仮想スイッチを開き、仮想スイッチを作成します。
NAS内で仮想化環境を含め、様々なところから同一ネットワークを使用したいです。
そのため内部で仮想スイッチを作成し、複数のアプリケーションからの接続を許可します。
詳細モードでネットワークに接続するためのアダプター・MACアドレスを指定して進みます。
仮想スイッチのIPアドレスは、アダプターと同一にできるので、同一設定にしておきます。
NAT / DHCPサーバー / IPv6 は有効にせず作成で、「Virtual Switch 1」が作成されます。
ゲートウェイ
複数のネットワークに接続する場合、どこをデフォルトゲートウェイにするか設定しないといけません。
「ネットワーク&仮想スイッチ」からネットワークを開き、インターフェース内で設定を行います。
「システムの既定のゲートウェイ」を押すと設定開始できます。
自分の場合は仮想スイッチを指定しました。
NCSIサービスは無効にしました。
ドメインコントローラー(DNSサーバー)の構築
SynologyはGUIからDNSサーバー構築が可能ですが、QNAPはDNSサーバー単体の構築ができません。
しかし、QNAPでもDNSサーバーを内包しているドメインコントローラーの構築は可能となっています。
自宅では複数のコンピュータが存在し、複数人で使うこともあることからドメインコントローラーでの構築を行ってみることにします。
(Docker等でDnsmasqを動かす方法はありますが、基本的なDNSはNAS上でネイティブで上がってきて欲しいのです)
ドメインコントローラーって何?
簡単に言えばPCにログインするユーザーの管理をするソフトウェアです。「Active Directory」や「Samba」が有名です。
会社や大学などのPCが大量にある環境で、どのPCでも任意のユーザーがログインできるように、ユーザー情報を集中管理するものです。
ノートパソコンを持ち歩いて1人で使うだけであれば関係ありません。デスクトップPCが複数台あり、複数人で使う環境向けの話です。
ドメインの決め方
要点は以下の通り。
- .localは使用しない
- 所有しているドメインのサブドメイン名が理想
- サブドメイン名部分はNetBIOS名との兼ね合いで15文字以下推奨
例えば、このサイトのドメインを例にすると、「ad.htlab.net」「home.htlab.net」などになると思われます。
証明書を作成する際は実在のドメインでないと無理なので、ドメインを持っていない方は何らかのgTLD(ccTLDは避けたほうが良いです)を購入するのが良いと思われます。
詳しく知りたい場合は「Active Directory」や「ドメインコントローラー」等のワードで調べてください。
GPU/USB拡張
NVIDIA T1000 8GBをスロット2(PCIe 3.0 x8 スロット 2)に、USB-U31A2P01をスロット1(PCIe 2.0 x4 スロット 1・電源側)に刺しました。