QNAP QuTS hero 5 セットアップ

今回は12ベイの「TS-h1283XU-RP」をセットアップする様子を紹介します。

メモリは最大の128GBまで搭載されているモデルなので、様々な用途に活躍してくれそうです。

 

QNAP QuTS hero のセットアップ

システム領域としてディスクの一部を使用するため、ディスクが無いとセットアップを開始できません。

電源を入れる前にディスクの取り付けから行います。

 

QNAPへのHDD取り付け

東芝 MG09ACA18TE を12台用意しました。

本当はWD Goldシリーズが良かったのですが、安いので最近は東芝MGシリーズを買うことが多いかもですね。

どちらにせよ、連続稼働するNASに搭載するディスクはNAS用とするものか、エンタープライズ向けが不具合が少なくて良いです。

今までHDDを3桁本は扱ってきてデスクトップ向けHDDは選択肢に入らなくなりました。

最近であればSSDも選択肢に入ると思いますが、データ復旧がほぼ不可能・RAIDでの同一箇所劣化の懸念があるので除外しています。

 

初期セットアップまでの準備

このQNAPは情報表示のLCDディスプレイが存在しません。

DHCP配下のLANに接続してセットアップを開始します。

専用のアプリ等のインストールは特に必要ありません。

DHCPサーバーを管理している立場であれば、DHCPリース情報を見て、QNAPに当たったIPアドレスを特定できるでしょう。

起動ボタンを押した際と、そこから数分待って起動完了した際にビープ音が鳴ります。

起動完了後にWebブラウザでそのIPアドレスにアクセスすればよいです。

 

QuTS hero スマートインストールシステム

QNAP QuTS hero 5 Setup 001 QNAP QuTS hero 5 Setup 002

スマートインストレーションを開始します。

利用規約に同意して進みます。

 

QNAP QuTS hero 5 Setup 003 QNAP QuTS hero 5 Setup 004

ファームウェアは実験時にアップデートしてあったので最新。

NAS名と管理者として使用するユーザー名、パスワードを入力して進みます。

 

QNAP QuTS hero 5 Setup 005 QNAP QuTS hero 5 Setup 006

NTPの設定はNICTにしています。

ネットワーク設定はあとで行うのでとりあえずDHCPのままで進みます。

 

QNAP QuTS hero 5 Setup 007 QNAP QuTS hero 5 Setup 008

ファームウェア更新の設定をして、設定を適用するのを数分待ちます。

 

QNAP QuTS hero 5 Setup 009 QNAP QuTS hero 5 Setup 010

しばらくすると設定が終了して、ログイン画面に移行します。

この際にIPアドレスに変更があるとログイン画面が開かないので、変更後のIPアドレスを指定して開きます。

 

セットアップ直後のディスクパーティション構成他

ログイン後、SSHだけを有効にし、セットアップ直後の状態を確認してみました。

$ ls /dev/sd*
/dev/sda   /dev/sda4  /dev/sdb2  /dev/sdc   /dev/sdc4  /dev/sdd2  /dev/sdd6
/dev/sda1  /dev/sda5  /dev/sdb3  /dev/sdc1  /dev/sdc5  /dev/sdd3  /dev/sdd7
/dev/sda2  /dev/sdb   /dev/sdb4  /dev/sdc2  /dev/sdd   /dev/sdd4
/dev/sda3  /dev/sdb1  /dev/sdb5  /dev/sdc3  /dev/sdd1  /dev/sdd5
$ sudo fdisk -l

Disk /dev/sdb: 18000.2 GB, 18000207937536 bytes
255 heads, 63 sectors/track, 2188400 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1      267350  2147483647+  ee  EFI GPT

Disk /dev/sda: 18000.2 GB, 18000207937536 bytes
255 heads, 63 sectors/track, 2188400 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1               1      267350  2147483647+  ee  EFI GPT

Disk /dev/sdc: 18000.2 GB, 18000207937536 bytes
255 heads, 63 sectors/track, 2188400 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1               1      267350  2147483647+  ee  EFI GPT

Disk /dev/sdd: 4982 MB, 4982833152 bytes
8 heads, 32 sectors/track, 38016 cylinders
Units = cylinders of 256 * 512 = 131072 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1               1          41        5244   83  Linux
/dev/sdd2              42        3948      500096   83  Linux
/dev/sdd3            3949        7855      500096   83  Linux
/dev/sdd4            7856       30240     2865280    5  Extended
/dev/sdd5            7856        7920        8316   83  Linux
/dev/sdd6            7921        7988        8700   83  Linux
/dev/sdd7            7989       30240     2848252   83  Linux

Disk /dev/md9: 542 MB, 542769152 bytes
2 heads, 4 sectors/track, 132512 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md9 doesn't contain a valid partition table

Disk /dev/md13: 469 MB, 469893120 bytes
2 heads, 4 sectors/track, 114720 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md13 doesn't contain a valid partition table

Disk /dev/md322: 32.6 GB, 32633257984 bytes
2 heads, 4 sectors/track, 7967104 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md322 doesn't contain a valid partition table
$ cat /proc/partitions
major minor  #blocks  name

   1        0     204800 ram0
   1        1     458752 ram1
   1        2     458752 ram2
   1        3     204800 ram3
   1        4     204800 ram4
   1        5     204800 ram5
   1        6     204800 ram6
   1        7     204800 ram7
   1        8     204800 ram8
   1        9     204800 ram9
   1       10     204800 ram10
   1       11     204800 ram11
   1       12     204800 ram12
   1       13     204800 ram13
   1       14     204800 ram14
   1       15     204800 ram15
   7        0      32768 loop0
   8       16 17578328064 sdb
   8       17     530125 sdb1
   8       18     530142 sdb2
   8       19 17543205888 sdb3
   8       20     538701 sdb4
   8       21   32997507 sdb5
   8        0 17578328064 sda
   8        1     530125 sda1
   8        2     530142 sda2
   8        3 17543205888 sda3
   8        4     538701 sda4
   8        5   32997507 sda5
   8       32 17578328064 sdc
   8       33     530125 sdc1
   8       34     530142 sdc2
   8       35 17543205888 sdc3
   8       36     538701 sdc4
   8       37   32997507 sdc5
   8       48    4866048 sdd
   8       49       5244 sdd1
   8       50     500096 sdd2
   8       51     500096 sdd3
   8       52          1 sdd4
   8       53       8316 sdd5
   8       54       8700 sdd6
   8       55    2848252 sdd7
   9        9     530048 md9
   9       13     458880 md13
   9      322   31868416 md322
$ ls /dev/md*
/dev/md13  /dev/md322  /dev/md9
$ cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md322 : active raid1 sdc5[3](S) sdb5[2] sda5[0]
      31868416 blocks super 1.0 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md13 : active raid1 sdc4[2] sdb4[1] sda4[0]
      458880 blocks super 1.0 [128/3] [UUU_____________________________________________________________________________________________________________________________]
      bitmap: 1/1 pages [4KB], 65536KB chunk

md9 : active raid1 sdc1[2] sdb1[1] sda1[0]
      530048 blocks super 1.0 [128/3] [UUU_____________________________________________________________________________________________________________________________]
      bitmap: 1/1 pages [4KB], 65536KB chunk

unused devices: <none>
$ sudo mdadm --detail /dev/md9
/dev/md9:
        Version : 1.0
  Creation Time : Mon Apr 14 17:08:43 2025
     Raid Level : raid1
     Array Size : 530048 (517.63 MiB 542.77 MB)
  Used Dev Size : 530048 (517.63 MiB 542.77 MB)
   Raid Devices : 128
  Total Devices : 3
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Mon Apr 14 17:38:51 2025
          State : active, degraded
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

           Name : 9
           UUID : 4069859c:e4a6c75b:7575e4b9:a9f06ef3
         Events : 773

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1
       2       8       33        2      active sync   /dev/sdc1
       6       0        0        6      removed
       8       0        0        8      removed
      10       0        0       10      removed
	(100行以上あるためコマンド結果省略)
     254       0        0      254      removed
$ sudo mdadm --detail /dev/md13
/dev/md13:
        Version : 1.0
  Creation Time : Mon Apr 14 17:08:51 2025
     Raid Level : raid1
     Array Size : 458880 (448.13 MiB 469.89 MB)
  Used Dev Size : 458880 (448.13 MiB 469.89 MB)
   Raid Devices : 128
  Total Devices : 3
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Mon Apr 14 17:19:40 2025
          State : clean, degraded
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

           Name : 13
           UUID : a789ccbf:b313b516:95c08970:8a9b099d
         Events : 116

    Number   Major   Minor   RaidDevice State
       0       8        4        0      active sync   /dev/sda4
       1       8       20        1      active sync   /dev/sdb4
       2       8       36        2      active sync   /dev/sdc4
       6       0        0        6      removed
       8       0        0        8      removed
      10       0        0       10      removed
	(100行以上あるためコマンド結果省略)
     254       0        0      254      removed
$ sudo mdadm --detail /dev/md322
/dev/md322:
        Version : 1.0
  Creation Time : Mon Apr 14 17:09:02 2025
     Raid Level : raid1
     Array Size : 31868416 (30.39 GiB 32.63 GB)
  Used Dev Size : 31868416 (30.39 GiB 32.63 GB)
   Raid Devices : 2
  Total Devices : 3
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Mon Apr 14 17:14:57 2025
          State : clean
 Active Devices : 2
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 1

           Name : 322
           UUID : 99e027e1:6d464c21:502ac134:bd0acf41
         Events : 77

    Number   Major   Minor   RaidDevice State
       0       8        5        0      active sync   /dev/sda5
       2       8       21        1      active sync   /dev/sdb5

       3       8       37        -      spare   /dev/sdc5
$ cat /etc/fstab
# /etc/fstab: static file system information.
#
# <file system> <mount pt>     <type>   <options>         <dump> <pass>
/dev/ram       /              ext2      defaults         1      1
proc            /proc          proc     defaults          0      0
none            /dev/pts        devpts  gid=5,mode=620  0       0
$ cat /proc/mounts
none / tmpfs rw,relatime,size=473088k,mode=755 0 0
devtmpfs /dev devtmpfs rw,relatime,size=65885632k,nr_inodes=16471408,mode=755 0 0
/proc /proc proc rw,relatime 0 0
/proc /proc proc rw,relatime 0 0
devpts /dev/pts devpts rw,relatime,mode=600,ptmxmode=000 0 0
sysfs /sys sysfs rw,relatime 0 0
tmpfs /tmp tmpfs rw,relatime,size=65536k 0 0
tmpfs /dev/shm tmpfs rw,relatime 0 0
tmpfs /share tmpfs rw,relatime,size=16384k 0 0
/dev/sdd5 /mnt/boot_config ext2 rw,relatime,errors=continue 0 0
tmpfs /mnt/snapshot/export tmpfs rw,relatime,size=16384k 0 0
cgroup_root /sys/fs/cgroup tmpfs rw,relatime 0 0
cpu /sys/fs/cgroup/cpu cgroup rw,relatime,cpu 0 0
none /sys/fs/cgroup/memory cgroup rw,relatime,memory 0 0
securityfs /sys/kernel/security securityfs rw,relatime 0 0
/dev/md9 /mnt/HDA_ROOT ext3 rw,relatime,data=ordered 0 0
/dev/md13 /mnt/ext ext3 rw,relatime,data=ordered 0 0
tmpfs /samba_third_party tmpfs rw,relatime,size=32768k 0 0
tmpfs /samba tmpfs rw,relatime,size=65536k 0 0
/dev/ram2 /mnt/update ext2 rw,relatime,errors=continue 0 0
tmpfs /mnt/ext/opt/FileStation5 tmpfs rw,relatime,size=32768k,mode=777 0 0
/dev/loop0 /mnt/ext/opt/FileStation5 ext3 ro,relatime 0 0
tmpfs /tmp/wfm tmpfs rw,relatime,size=10240k,mode=777 0 0
tmpfs /samba/.samba/lock/msg.lock tmpfs rw,relatime,size=49152k 0 0
tmpfs /mnt/ext/opt/samba/private/msg.sock tmpfs rw,relatime,size=16384k 0 0
$ sudo df -aT
Filesystem           Type       1K-blocks      Used Available Use% Mounted on
none                 tmpfs         473088    359600    113488  76% /
devtmpfs             devtmpfs    65885632         4  65885628   0% /dev
/proc                proc               0         0         0   0% /proc
/proc                proc               0         0         0   0% /proc
devpts               devpts             0         0         0   0% /dev/pts
sysfs                sysfs              0         0         0   0% /sys
tmpfs                tmpfs          65536       448     65088   1% /tmp
tmpfs                tmpfs       65907340       148  65907192   0% /dev/shm
tmpfs                tmpfs          16384         0     16384   0% /share
/dev/sdd5            ext2            7928        47      7473   1% /mnt/boot_config
tmpfs                tmpfs          16384         0     16384   0% /mnt/snapshot/export
cgroup_root          tmpfs       65907340         0  65907340   0% /sys/fs/cgroup
cpu                  cgroup             0         0         0   0% /sys/fs/cgroup/cpu
none                 cgroup             0         0         0   0% /sys/fs/cgroup/memory
securityfs           securityfs         0         0         0   0% /sys/kernel/security
/dev/md9             ext3          505300    122956    382344  24% /mnt/HDA_ROOT
/dev/md13            ext3          426984    386300     40684  90% /mnt/ext
tmpfs                tmpfs          32768     27900      4868  85% /samba_third_party
tmpfs                tmpfs          65536      3216     62320   5% /samba
/dev/ram2            ext2          444276      2318    441958   1% /mnt/update
tmpfs                tmpfs          29688     20846      8842  70% /mnt/ext/opt/FileStation5
/dev/loop0           ext3           29688     20846      8842  70% /mnt/ext/opt/FileStation5
tmpfs                tmpfs          10240         0     10240   0% /tmp/wfm
tmpfs                tmpfs          49152        32     49120   0% /samba/.samba/lock/msg.lock
tmpfs                tmpfs          16384         0     16384   0% /mnt/ext/opt/samba/private/msg.sock

sda, sdb, sdcが今回追加した18TBのHDDです。

sddは5GBのディスクで、システム用として内蔵されているものです。

HDDを追加すると、sde、sdfと末尾にずれていきます。

ソフトウェアRAIDがシステムで組まれています。

HDDのパーティションの内容は、0.5GBのmd9、0.5GBの予備領域?、メインストレージ領域、0.5GBのmd13、33GBのmd322となっています。

md9, md13のRAIDアレイは3台(128台設定)にまたがっていますが、md322は2台(2台設定)が使用されていて、1台はスペアになっているようです。

HDDを追加するだけでは、システムのRAID領域は再構築されず、今は何がトリガーになっているのか不明です。

md9 は /mnt/HDA_ROOT でマウントされていて、システムメインファイルが格納されていそうです。

md13 は /mnt/ext でマウントされていて、各種アプリの設定情報?が格納されていそうです。

md322 はマウントされていないため不明です。

 

初期設定

スマートインストレーションが終わったあとにコントロールパネルで以下の設定を変更しました。

 

システム - 一般設定

  • 夏時間:「夏時間に合わせてシステムクロックを自動的に調整する」 チェックを外す
  • コードページ:「ファイル名符号化」 英語から日本語に変更

 

ネットワークとファイルサービス - Telnet / SSH

  • 「SSH接続を許可する」:任意

 

ネットワークとファイルサービス - サービス検出

  • Bonjour:「Bonjourサービスを有効にする」 チェックを外す
  • Qfinderディスカバリーサービス:「Qfinderディスカバリーサービスを有効にする」 チェックを外す

 

ネットワーク設定

メインマシンは100Gbpsのイーサネットカードを使っていますが、NAS側のPCIeの帯域の関係があり25Gbpsのカードで妥協です。

設定は「ネットワーク&仮想スイッチ」から変更をします。

 

イーサネットカード増設

Mellanox MCX4121A-ACAT (NVIDIA ConnectX-4 Lx Ethernet Adapter Card)」を準備しました。

25Gbpsまで対応する2ポートSFP28のイーサネットカードです。

MellanoxがNVIDIAに買収されたため、社名はどちらかの表記です。

互換性一覧」から「TS-h1283XU-RP」を選択してリストを見ると「Mellanox MCX4121A-ACAT」は存在していません。

しかし、同じMellanox社のConnectX-3シリーズがリストに存在することから、ドライバが内蔵されていると踏んでConnectX-4カードを選択しました。

NASのPCIeスロット(PCIe 3.0 x4 スロット4・CPU側)に刺すだけで無事、認識されてそのまま使用可能でした。

 

IPアドレス設定

「ネットワーク&仮想スイッチ」からネットワークを開き、インターフェース内で設定を行います。

対象のインターフェースにて、メニューから設定を開き、IPv4設定を静的IPアドレス、DNSの設定をします。

 

仮想スイッチ作成

「ネットワーク&仮想スイッチ」から仮想スイッチを開き、仮想スイッチを作成します。

NAS内で仮想化環境を含め、様々なところから同一ネットワークを使用したいです。

そのため内部で仮想スイッチを作成し、複数のアプリケーションからの接続を許可します。

詳細モードでネットワークに接続するためのアダプター・MACアドレスを指定して進みます。

仮想スイッチのIPアドレスは、アダプターと同一にできるので、同一設定にしておきます。

NAT / DHCPサーバー / IPv6 は有効にせず作成で、「Virtual Switch 1」が作成されます。

 

ゲートウェイ

複数のネットワークに接続する場合、どこをデフォルトゲートウェイにするか設定しないといけません。

「ネットワーク&仮想スイッチ」からネットワークを開き、インターフェース内で設定を行います。

「システムの既定のゲートウェイ」を押すと設定開始できます。

自分の場合は仮想スイッチを指定しました。

NCSIサービスは無効にしました。

 

ドメインコントローラー(DNSサーバー)の構築

SynologyはGUIからDNSサーバー構築が可能ですが、QNAPはDNSサーバー単体の構築ができません。

しかし、QNAPでもDNSサーバーを内包しているドメインコントローラーの構築は可能となっています。

自宅では複数のコンピュータが存在し、複数人で使うこともあることからドメインコントローラーでの構築を行ってみることにします。

(Docker等でDnsmasqを動かす方法はありますが、基本的なDNSはNAS上でネイティブで上がってきて欲しいのです)

 

ドメインコントローラーって何?

簡単に言えばPCにログインするユーザーの管理をするソフトウェアです。「Active Directory」や「Samba」が有名です。

会社や大学などのPCが大量にある環境で、どのPCでも任意のユーザーがログインできるように、ユーザー情報を集中管理するものです。

ノートパソコンを持ち歩いて1人で使うだけであれば関係ありません。デスクトップPCが複数台あり、複数人で使う環境向けの話です。

 

ドメインの決め方

要点は以下の通り。

  • .localは使用しない
  • 所有しているドメインのサブドメイン名が理想
  • サブドメイン名部分はNetBIOS名との兼ね合いで15文字以下推奨

例えば、このサイトのドメインを例にすると、「ad.htlab.net」「home.htlab.net」などになると思われます。

証明書を作成する際は実在のドメインでないと無理なので、ドメインを持っていない方は何らかのgTLD(ccTLDは避けたほうが良いです)を購入するのが良いと思われます。

詳しく知りたい場合は「Active Directory」や「ドメインコントローラー」等のワードで調べてください。

 

GPU/USB拡張

NVIDIA T1000 8GBをスロット2(PCIe 3.0 x8 スロット 2)に、USB-U31A2P01をスロット1(PCIe 2.0 x4 スロット 1・電源側)に刺しました。