<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>zfs &#8211; kema&#039;s Homepage</title>
	<atom:link href="https://kemanai.jp/tag/zfs/feed/" rel="self" type="application/rss+xml" />
	<link>https://kemanai.jp</link>
	<description>kemaの雑記置き場</description>
	<lastBuildDate>Sat, 10 Jan 2026 08:30:01 +0000</lastBuildDate>
	<language>ja</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>
	<item>
		<title>同一プール名で使用していたディスクをzfsストレージプールで使用する件</title>
		<link>https://kemanai.jp/2026/01/10/%e5%90%8c%e4%b8%80%e3%83%97%e3%83%bc%e3%83%ab%e5%90%8d%e3%81%a7%e4%bd%bf%e7%94%a8%e3%81%97%e3%81%a6%e3%81%84%e3%81%9f%e3%83%87%e3%82%a3%e3%82%b9%e3%82%af%e3%82%92zfs%e3%82%b9%e3%83%88%e3%83%ac/</link>
		
		<dc:creator><![CDATA[kema]]></dc:creator>
		<pubDate>Sat, 10 Jan 2026 08:18:53 +0000</pubDate>
				<category><![CDATA[zfs]]></category>
		<category><![CDATA[FreeBSD]]></category>
		<category><![CDATA[クリア]]></category>
		<category><![CDATA[ストレージ]]></category>
		<category><![CDATA[移動]]></category>
		<guid isPermaLink="false">https://kemanai.jp/?p=4732</guid>

					<description><![CDATA[このところzfsで組んでいるストレージのハードディスクがクラッシュしたり何だりでアタフタしてます。東芝の16TB、不良セクタ発生しやすいしクラッシュもしたし、品質ダメダメですな…。 で、以前別のマシンで使っていたHDDを &#8230; <a href="https://kemanai.jp/2026/01/10/%e5%90%8c%e4%b8%80%e3%83%97%e3%83%bc%e3%83%ab%e5%90%8d%e3%81%a7%e4%bd%bf%e7%94%a8%e3%81%97%e3%81%a6%e3%81%84%e3%81%9f%e3%83%87%e3%82%a3%e3%82%b9%e3%82%af%e3%82%92zfs%e3%82%b9%e3%83%88%e3%83%ac/" class="more-link">続きを読む <span class="screen-reader-text">同一プール名で使用していたディスクをzfsストレージプールで使用する件</span> <span class="meta-nav">&#8594;</span></a>]]></description>
										<content:encoded><![CDATA[
<p>このところzfsで組んでいるストレージのハードディスクがクラッシュしたり何だりでアタフタしてます。東芝の16TB、不良セクタ発生しやすいしクラッシュもしたし、品質ダメダメですな…。</p>



<p>で、以前別のマシンで使っていたHDDを再使用する際、同一zfsストレージプール名で使用していたので、それに交換してzpool replace しても上手く行かない。↓こんな感じ</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p># zpool replace -f ほげほげ 123456789 ada1<br />invalid vdev specification</p>
</blockquote>



<p>そんな時のためのメモ。</p>



<p>まず、以前のストレージプール情報を消す…その前にやることがある。</p>



<p>#  zpool clear ほげほげ</p>



<p>でとりあえず汚れた情報をクリア。次に、</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p></p>
</blockquote>



<p>#sysctl kern.geom.debugflags=16</p>



<p>のおまじないで、稼働中のdiscの管理領域をいじれるようにしてから</p>



<p># zpool labelclear -f /dev/ada1</p>



<p>これでzpoolのラベルをクリア！</p>



<p> # zpool replace -f ほげほげ 123456789 ada1</p>



<p>これで無事アタッチ完了！あとはzpool statusしてリビルドが終わるのを待ちませう。</p>



<p></p>



<p>今16TB×2台と20TB×2台で組んでいて（20TBを4台買う金が無かった）20TBをあと2枚増やしたいんだけど</p>



<p>お値段高っけー！！</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>サーバクラッシュ顛末。</title>
		<link>https://kemanai.jp/2019/02/25/%e3%82%b5%e3%83%bc%e3%83%90%e3%82%af%e3%83%a9%e3%83%83%e3%82%b7%e3%83%a5%e9%a1%9b%e6%9c%ab%e3%80%82/</link>
					<comments>https://kemanai.jp/2019/02/25/%e3%82%b5%e3%83%bc%e3%83%90%e3%82%af%e3%83%a9%e3%83%83%e3%82%b7%e3%83%a5%e9%a1%9b%e6%9c%ab%e3%80%82/#respond</comments>
		
		<dc:creator><![CDATA[kema]]></dc:creator>
		<pubDate>Mon, 25 Feb 2019 04:20:28 +0000</pubDate>
				<category><![CDATA[仕事]]></category>
		<category><![CDATA[サーバ管理]]></category>
		<category><![CDATA[FreeBSD]]></category>
		<category><![CDATA[日記・雑記]]></category>
		<category><![CDATA[趣味]]></category>
		<category><![CDATA[コンピュータ]]></category>
		<category><![CDATA[HPE ProLiant MicroServer Gen10]]></category>
		<category><![CDATA[zfs]]></category>
		<category><![CDATA[zfs:zroot/ROOT/default failed with error 2: unknown file system]]></category>
		<category><![CDATA[クラッシュ]]></category>
		<guid isPermaLink="false">http://kemanai.jp/?p=3019</guid>

					<description><![CDATA[先週月曜日、サーバをクラッシュさせてしまい、この一週間復旧作業をしておりました。ようやく安定してきたので、自戒を込めて顛末を記しておきます。 サーバのクラッシュと言えば、ハードディスクが㌧だ、なんてのが定番ですが、今回は &#8230; <a href="https://kemanai.jp/2019/02/25/%e3%82%b5%e3%83%bc%e3%83%90%e3%82%af%e3%83%a9%e3%83%83%e3%82%b7%e3%83%a5%e9%a1%9b%e6%9c%ab%e3%80%82/" class="more-link">続きを読む <span class="screen-reader-text">サーバクラッシュ顛末。</span> <span class="meta-nav">&#8594;</span></a>]]></description>
										<content:encoded><![CDATA[<p>先週月曜日、サーバをクラッシュさせてしまい、この一週間復旧作業をしておりました。ようやく安定してきたので、自戒を込めて顛末を記しておきます。</p>
<p>サーバのクラッシュと言えば、ハードディスクが㌧だ、なんてのが定番ですが、今回は完全に自分のオペミス。こういう事が今後起こらないように…。</p>
<ul>
<li>起</li>
</ul>
<p>某所の重要サーバがそろそろ劣化してきたので、更新のために<a href="https://www.hpe.com/jp/ja/product-catalog/servers/proliant-servers/pip.hpe-proliant-microserver-gen10.1009955118.html">HPEのmicroserver Gen10</a>を購入したのが事の始まり。もっとも、その前にTM200を買って外部向けサーバとして構築していたのもあり、その流れでmicroserverを目が向いたという流れもあったりします。このとき、「microserver Gen10 いいじゃん？俺も家でこれ使おう」と思ったわけです。</p>
<p>これまで、サーバ専用機ではなく、ある時はノートパソコン、ある時はコンパクトPC、ある時はベアボーンキットと色々な構成を試した結果、<span style="color: #ff0000;">やっぱりサーバ専用機として売ってる機械が良いよね</span>という(当たり前の)結論に至った訳です。ファイルサーバとして大容量のストレージを組むのにzfsを使っていますが、10台収容の裸族タワーをUSBで接続して変なエラーに悩まされたり(←失笑千万だね)と、あえてわざわざ荊の道を歩むのもそろそろ疲れたという理由もあります。</p>
<p>TM200はディスクが2台しか入らないのに対して、microserverはHDD4台収容＋SSDという構成が取れるのも魅力でした。</p>
<ul>
<li>承</li>
</ul>
<p><a href="https://www.google.co.jp/search?source=hp&amp;ei=QltzXMq3H6O1mAWol42QAw&amp;q=microserver+gen10+samba&amp;oq=MicroServer+Gen10&amp;gs_l=psy-ab.1.1.35i39l2j0l6.486.486..2383...0.0..0.133.230.1j1......0....2j1..gws-wiz.....0.102qupGo0uU">microserver gen10 sambaでググって</a>みると、何やら<a href="https://blog.naotaco.com/archives/782">暗雲立ち込める記事</a>を発見。まぁ、俺が使っているのはFreeBSDだし、何とかなるべ？と思ってHPEのサイトでポチッとな。そして機材が届いたのが先週の月曜日なのでありました。</p>
<p>その日は丸一日仕事を終えてかなり疲れて帰ってきた日。もっと落ち着いたときに作業すればいいものを、オモチャを買ってもらった子供が我慢できずに開けて怒られるのと同じ。そう、<span style="color: #ff0000;"><strong>小学校の理科の時間に乾電池と豆電球の実験で教材を配られて、先生が「まだ駄目」というのに我慢できずに開封して怒られたあの日。秋葉原で部品を買ってもらい、我慢できずに帰りの電車の中で袋を開けて眺めたあの頃。何十年経っても自分は変わっていないのだ</strong></span>ということを再認識させられたのです。</p>
<p>★教訓：<strong><span style="color: #ff0000;">重要な仕事は手順を踏んで万が一に備えてから。後悔しても遅い</span></strong>。★</p>
<p>我慢できない私は、現在稼働中のサーバをおもむろに止め、現在稼働中のSSDを取り出し、新鯖にマウントして電源を入れたのでした。このとき、「<a href="https://bugs.freebsd.org/bugzilla/show_bug.cgi?id=221350">microserver gen10は癖があってしんどいよ～、気を付けないとダメだよ…</a>」というのを某所の鯖でさんざん体験して何とか動作にこぎつけた経験が、頭の中で赤信号を点灯させているのは感じつつ…。</p>
<p>★教訓：後悔先に立たず。昔の人は偉い。その通りだ。★</p>
<ul>
<li>転</li>
</ul>
<p>おもむろに電源を入れてOSが起動した…と思ったものの、ブート途中でハングアップ。CTRL-ALT-DELも効かず。仕方ないので電源ボタンをポチッとな…そんな事を数回繰り返し、「やっぱり後で落ち着いてやった方が良いね」と気付いたのだが時すでに遅かったのはその時気付いていなかった。</p>
<p>さて、渦中のSSDを元のマシンに戻して起動。</p>
<p>&nbsp;</p>
<blockquote>
<h1>zfs:zroot/ROOT/default failed with error 2: unknown file system</h1>
</blockquote>
<p>ブートしない。┌|ﾟ□ﾟ;|┐ガーソ！</p>
<p>&nbsp;</p>
<p>もちろん、長い経験のうちにブート途中で止まってしまうなんてことは何度も経験していたので、シングルユーザモードで起動してゴニョゴニョしたりとか、別の領域からマウントしてfsckするとか、それなりには経験したことがあったのだけど、今回のヤバいことはzfsが壊れて復旧できないという事態。</p>
<p>そう、ufsであれば何とかなったのに、zfsをシステム領域にしてそれが壊れるのは初体験。ググってみると、別のシステムでzpool importとかやってみると良いよ！って事なので、その日は<a href="https://www.yodobashi.com/product/100000001003793464/">ヨドバシ・ドット・コムでSSDを発注</a>し、次の日に繰り越すのでした。</p>
<p>次の日。つまり先週の火曜日。午前中出勤で、その際にFreeBSD12.0Rのインストールメディアを作って帰宅。嬉しいことにもうSSDが届いてる！</p>
<p>という訳で、FreeBSD12.0Rをインスコし、そこに旧SSDをマウントしてzpool importして…おや、出来ないぞ。なになに-fオプションで強制的にインポートか。</p>
<p>&nbsp;</p>
<p>…できないorz</p>
<p>&nbsp;</p>
<p>っちゅうーわけで、どうやら一筋縄ではいかないことが判明。他方、メールも送受信できなければDNSすら引けない状況はまずいので、新たにインスコしたFreeBSD12.0Rにて環境再構築。ひたすら色々なデーモンをコンパイルだの、dns設定データの再編集だの、ローカルPCに残っていたメールデータを退避させてからの新鯖へのインポートなど、それはそれは大変な作業に週一杯掛かっていたのでした。</p>
<ul>
<li>結</li>
</ul>
<ol>
<li>現在実稼働していて、万が一にも㌧だらまずいディスクで危険なことはしない。</li>
<li>バックアップはちゃんと取る。</li>
<li>疲れた時に大切な仕事をしない。</li>
</ol>
<p>等々。どれも昔っから言われてることじゃん！下手したら論語にも書いてありそうなレベル。</p>
<p>&nbsp;</p>
<p>子曰わく、疲労時に重要な作業をすることなかれ。</p>
<p>&nbsp;</p>
<p>合掌。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://kemanai.jp/2019/02/25/%e3%82%b5%e3%83%bc%e3%83%90%e3%82%af%e3%83%a9%e3%83%83%e3%82%b7%e3%83%a5%e9%a1%9b%e6%9c%ab%e3%80%82/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>FreeBSD12.0Rとzfsでsticky bitが無効である件</title>
		<link>https://kemanai.jp/2019/02/09/freebsd12-0r%e3%81%a8zfs%e3%81%a7sticky-bit%e3%81%8c%e7%84%a1%e5%8a%b9%e3%81%a7%e3%81%82%e3%82%8b%e4%bb%b6/</link>
					<comments>https://kemanai.jp/2019/02/09/freebsd12-0r%e3%81%a8zfs%e3%81%a7sticky-bit%e3%81%8c%e7%84%a1%e5%8a%b9%e3%81%a7%e3%81%82%e3%82%8b%e4%bb%b6/#respond</comments>
		
		<dc:creator><![CDATA[kema]]></dc:creator>
		<pubDate>Fri, 08 Feb 2019 19:25:52 +0000</pubDate>
				<category><![CDATA[samba]]></category>
		<category><![CDATA[サーバ管理]]></category>
		<category><![CDATA[FreeBSD]]></category>
		<category><![CDATA[趣味]]></category>
		<category><![CDATA[コンピュータ]]></category>
		<category><![CDATA[sticky bit]]></category>
		<category><![CDATA[zfs]]></category>
		<category><![CDATA[共有フォルダ]]></category>
		<guid isPermaLink="false">http://kemanai.jp/?p=2977</guid>

					<description><![CDATA[某所のファイルサーバを更新するため、FreeBSD12.0-RELEASEとzfsを使ってsambaを動かす下準備をしていたのだけれど、 「メンバーの誰もが書き込めて、メンバーの誰もが読み出せて、しかしフォルダやファイル &#8230; <a href="https://kemanai.jp/2019/02/09/freebsd12-0r%e3%81%a8zfs%e3%81%a7sticky-bit%e3%81%8c%e7%84%a1%e5%8a%b9%e3%81%a7%e3%81%82%e3%82%8b%e4%bb%b6/" class="more-link">続きを読む <span class="screen-reader-text">FreeBSD12.0Rとzfsでsticky bitが無効である件</span> <span class="meta-nav">&#8594;</span></a>]]></description>
										<content:encoded><![CDATA[<p>某所のファイルサーバを更新するため、FreeBSD12.0-RELEASEとzfsを使ってsambaを動かす下準備をしていたのだけれど、</p>
<blockquote><p>「メンバーの誰もが書き込めて、メンバーの誰もが読み出せて、しかしフォルダやファイルの削除だけは作成者本人しか出来ない領域」</p></blockquote>
<p>を作ろうとしてもなかなか上手く行かない。</p>
<p>ああそうだ、こういう場合はディレクトリにsticky bitを立てるんだったなと思ってchmod 1777 sharedとかやっても、やっぱり他人にもファイルを削除できてしまう。</p>
<p>最初はsamba側の設定がおかしい(force user=誰々とかね）のかと思っていたけど、そうでもない。散々試行錯誤していたところ、zfsのACLの問題じゃないかと思い至った。</p>
<p><a href="https://lists.freebsd.org/pipermail/freebsd-stable/2014-July/079340.html" target="_blank" rel="noopener">https://lists.freebsd.org/pipermail/freebsd-stable/2014-July/079340.html</a></p>
<p>ｷﾀ――(ﾟ∀ﾟ)――!!　まさにこれですよ！</p>
<p>…なるほどね。従来のchmodじゃあダメなのね。(でも/tmp/はsticky bitが上手く動いてる気もするんだけどまあ気にしない）</p>
<p>という訳で、samba共有フォルダに対して↑のようにaclを設定してあげたら希望通りの動作になったような気がしています。(後方互換的にsticky bitが動作するようにしといて欲しいけどまあその辺りは色々と事情があるんでしょう)</p>
<p>以上、個人的( ..)φメモメモ</p>
]]></content:encoded>
					
					<wfw:commentRss>https://kemanai.jp/2019/02/09/freebsd12-0r%e3%81%a8zfs%e3%81%a7sticky-bit%e3%81%8c%e7%84%a1%e5%8a%b9%e3%81%a7%e3%81%82%e3%82%8b%e4%bb%b6/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>FreeBSD zpoolストレージのあれこれtips（作業メモ）</title>
		<link>https://kemanai.jp/2018/12/30/freebsd-zpool%e3%82%b9%e3%83%88%e3%83%ac%e3%83%bc%e3%82%b8%e3%81%ae%e3%81%82%e3%82%8c%e3%81%93%e3%82%8ctips%ef%bc%88%e4%bd%9c%e6%a5%ad%e3%83%a1%e3%83%a2%ef%bc%89/</link>
					<comments>https://kemanai.jp/2018/12/30/freebsd-zpool%e3%82%b9%e3%83%88%e3%83%ac%e3%83%bc%e3%82%b8%e3%81%ae%e3%81%82%e3%82%8c%e3%81%93%e3%82%8ctips%ef%bc%88%e4%bd%9c%e6%a5%ad%e3%83%a1%e3%83%a2%ef%bc%89/#respond</comments>
		
		<dc:creator><![CDATA[kema]]></dc:creator>
		<pubDate>Sun, 30 Dec 2018 14:33:10 +0000</pubDate>
				<category><![CDATA[サーバ管理]]></category>
		<category><![CDATA[FreeBSD]]></category>
		<category><![CDATA[日記・雑記]]></category>
		<category><![CDATA[趣味]]></category>
		<category><![CDATA[コンピュータ]]></category>
		<category><![CDATA[HDD交換]]></category>
		<category><![CDATA[raidz1]]></category>
		<category><![CDATA[raidz3]]></category>
		<category><![CDATA[zfs]]></category>
		<category><![CDATA[zpool]]></category>
		<guid isPermaLink="false">http://wp.khz-net.co.jp/?p=2877</guid>

					<description><![CDATA[zfsのストレージプールを作っている。 dmesgの結果は次の通り。 da0 at umass-sim0 bus 0 scbus5 target 0 lun 0 da0: &#60;ST8000DM 005-2EH112  &#8230; <a href="https://kemanai.jp/2018/12/30/freebsd-zpool%e3%82%b9%e3%83%88%e3%83%ac%e3%83%bc%e3%82%b8%e3%81%ae%e3%81%82%e3%82%8c%e3%81%93%e3%82%8ctips%ef%bc%88%e4%bd%9c%e6%a5%ad%e3%83%a1%e3%83%a2%ef%bc%89/" class="more-link">続きを読む <span class="screen-reader-text">FreeBSD zpoolストレージのあれこれtips（作業メモ）</span> <span class="meta-nav">&#8594;</span></a>]]></description>
										<content:encoded><![CDATA[<p>zfsのストレージプールを作っている。</p>
<p>dmesgの結果は次の通り。</p>
<blockquote><p>da0 at umass-sim0 bus 0 scbus5 target 0 lun 0<br />
da0: &lt;ST8000DM 005-2EH112 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da0: Serial Number 152D00539000<br />
da0: 400.000MB/s transfers<br />
da0: 7630885MB (15628053168 512 byte sectors)<br />
da0: quirks=0xa&lt;NO_6_BYTE,4K&gt;<br />
da1 at umass-sim0 bus 0 scbus5 target 0 lun 1<br />
da2 at umass-sim0 bus 0 scbus5 target 0 lun 2<br />
da1: &lt;WDC WD80 PUZX-64NEAY0 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da1: Serial Number 152D00539000<br />
da1: 400.000MB/s transfers<br />
da1: 7630885MB (15628053168 512 byte sectors)<br />
da1: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da2: &lt;WDC WD80 PUZX-64NEAY0 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da2: Serial Number 152D00539000<br />
da2: 400.000MB/s transfers<br />
da2: 7630885MB (15628053168 512 byte sectors)<br />
da2: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da3 at umass-sim0 bus 0 scbus5 target 0 lun 3<br />
da3: &lt;WDC WD80 EFZX-68UW8N0 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da3: Serial Number 152D00539000<br />
da3: 400.000MB/s transfers<br />
da3: 7630885MB (15628053168 512 byte sectors)<br />
da3: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da4 at umass-sim0 bus 0 scbus5 target 0 lun 4<br />
da4: &lt;WDC WD80 EFZX-68UW8N0 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da4: Serial Number 152D00539000<br />
da4: 400.000MB/s transfers<br />
da4: 7630885MB (15628053168 512 byte sectors)<br />
da4: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da5 at umass-sim0 bus 0 scbus5 target 0 lun 5<br />
da5: &lt;ST8000AS 0002-1NA17Z 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da5: Serial Number 152D00539000<br />
da5: 400.000MB/s transfers<br />
da5: 7630885MB (15628053168 512 byte sectors)<br />
da5: quirks=0x2&lt;NO_6_BYTE&gt;<br />
random: unblocking device.<br />
da6 at umass-sim0 bus 0 scbus5 target 0 lun 6<br />
da6: &lt;ST8000AS 0002-1NA17Z 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da6: Serial Number 152D00539000<br />
da6: 400.000MB/s transfers<br />
da6: 7630885MB (15628053168 512 byte sectors)<br />
da6: quirks=0x2&lt;NO_6_BYTE&gt;<br />
Trying to mount root from zfs:zroot/ROOT/default []&#8230;<br />
da7 at umass-sim0 bus 0 scbus5 target 0 lun 7<br />
da7: &lt;ST8000AS 0002-1NA17Z 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da7: Serial Number 152D00539000<br />
da7: 400.000MB/s transfers<br />
da7: 7630885MB (15628053168 512 byte sectors)<br />
da7: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da8 at umass-sim0 bus 0 scbus5 target 0 lun 8<br />
da8: &lt;ST8000AS 0002-1NA17Z 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da8: Serial Number 152D00539000<br />
da8: 400.000MB/s transfers<br />
da8: 7630885MB (15628053168 512 byte sectors)<br />
da8: quirks=0x2&lt;NO_6_BYTE&gt;</p></blockquote>
<p>つまり、</p>
<p>da0:8TB（ST8000DM)</p>
<p>da1:8TB（WD80PUZX)</p>
<p>da2:8TB（WD80PUZX)</p>
<p>da3:8TB（WD80EFZX)</p>
<p>da4:8TB（WD80EFZX)</p>
<p>da5:8TB（ST8000AS)</p>
<p>da6:8TB（ST8000AS)</p>
<p>da7:8TB（ST8000AS)</p>
<p>da8:8TB（ST8000AS)</p>
<p>となっている。続いてzpoolのステータス</p>
<blockquote><p># zpool status<br />
pool: zbackup<br />
state: DEGRADED<br />
status: One or more devices could not be opened. Sufficient replicas exist for<br />
the pool to continue functioning in a degraded state.<br />
action: Attach the missing device and online it using &#8216;zpool online&#8217;.<br />
see: http://illumos.org/msg/ZFS-8000-2Q<br />
scan: resilvered 0 in 0h0m with 0 errors on Mon Apr 23 06:29:16 2018<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zbackup DEGRADED 0 0 0<br />
raidz1-0 DEGRADED 0 0 0<br />
da8 ONLINE 0 0 0<br />
5017281946433150361 UNAVAIL 0 0 0 was /dev/da4<br />
da0 ONLINE 0 0 0<br />
da5 ONLINE 0 0 0</p>
<p>errors: No known data errors</p>
<p>pool: zdata<br />
state: ONLINE<br />
status: Some supported features are not enabled on the pool. The pool can<br />
still be used, but some features are unavailable.<br />
action: Enable all features using &#8216;zpool upgrade&#8217;. Once this is done,<br />
the pool may no longer be accessible by software that does not support<br />
the features. See zpool-features(7) for details.<br />
scan: none requested<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zdata ONLINE 0 0 0<br />
raidz3-0 ONLINE 0 0 0<br />
da1 ONLINE 0 0 0<br />
da2 ONLINE 0 0 0<br />
da3 ONLINE 0 0 0<br />
da4 ONLINE 0 0 0<br />
da6 ONLINE 0 0 0</p>
<p>errors: No known data errors</p>
<p>pool: zroot<br />
state: ONLINE<br />
status: Some supported features are not enabled on the pool. The pool can<br />
still be used, but some features are unavailable.<br />
action: Enable all features using &#8216;zpool upgrade&#8217;. Once this is done,<br />
the pool may no longer be accessible by software that does not support<br />
the features. See zpool-features(7) for details.<br />
scan: none requested<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zroot ONLINE 0 0 0<br />
ada0p4 ONLINE 0 0 0</p>
<p>errors: No known data errors</p></blockquote>
<p>da1・da2・da3・da4・da6でRAIDZ3。これはトリプルパリティで最大3台までのHDDが同時に死んでもデータは保全されるってやつ。8TBのHDDを5台使って容量16TB。</p>
<p>…うーん。安全性(ryだけどちょっと無駄が多すぎる希ガス</p>
<p>da0・da4・da5・da8はRAIDZ1で24TBのストレージ。しかしエラーが発生してる…。</p>
<p>zpoolコマンドで復旧してみるってのもひとつの経験としてアリだけど、年末大出血(って何)ってことで東芝の14TBのHDDを3台購入してきましたわけで。</p>
<h1><strong><span style="color: #ff0000;">以上の状態を踏まえてですね、</span></strong></h1>
<p>さて、どうするか。</p>
<p>まず、raidz3は少々やり過ぎな気もしないでもないけど、しかし海門のHDDには過去痛い目に遭ってるから、なるべく冗長度は大きくしたい。</p>
<p>ちなみに現在の使用量は、df -gすると</p>
<blockquote><p>zdata 14327 8465 5861 59% /usr/home/jail/ほげほげ</p></blockquote>
<p>って訳でまぁ概算9TB弱ぐらい使ってる。</p>
<p>って事は、14TBのHDDで新たにRAIDZ3を組んで14TBのストレーｊ</p>
<h3><span style="color: #ff0000;">いや、3台じゃRAIDZ3組めないでしょ</span></h3>
<p>しまった。</p>
<p>…しかし、raidzの特徴として、<span style="color: #ff0000;">現在のストレージプールを構成しているハードディスクの容量が増えれば、勝手にプールの容量も増える</span>という、かつてnewfsとかシコシコやっていた頃に比べると考えれない利便性があるとのこと。</p>
<p>じゃあ、次の方針でやってみよう。</p>
<ol>
<li>現在raidz3を構成している、da1・da2・da3・da4・da6のうち3台を14TBに交換。そしてまたそのうち金があったら14TBを2枚買い足す( ﾉД`)ｼｸｼｸ…</li>
<li>その外した3台の8TBのHDDのうちどれかをda4の代わりに差し替える。</li>
</ol>
<p>あーでも、現在使っているストレージタワー(裸族の云々)はフルスロットル埋まっているから、手順としては次のようにせざるを得ないね。</p>
<ol>
<li>da4を物理的に切り離し、代わりに14TBの生HDDを突っ込む。</li>
<li>zdataからどれか1台を離脱させる。</li>
<li>離脱したHDDをzbackupに入れる。</li>
<li>zdataに14TBのHDDを参加させる。</li>
</ol>
<p>後はビルドが完了次第、zdataのうちどれか2台の8TBを離脱させ、そこに14TBのHDDを入れてやれば良いということ。ばっちぐー(古</p>
<hr />
<p>１．障害が発生しているda4を切り離す作業</p>
<blockquote><p>#zpool offline zbackup da4</p></blockquote>
<p>とかやってみると、zpool statusした結果は、</p>
<blockquote><p>pool: zbackup<br />
state: DEGRADED<br />
status: One or more devices has been taken offline by the administrator.<br />
Sufficient replicas exist for the pool to continue functioning in a<br />
degraded state.<br />
action: Online the device using &#8216;zpool online&#8217; or replace the device with<br />
&#8216;zpool replace&#8217;.<br />
scan: resilvered 0 in 0h0m with 0 errors on Mon Apr 23 06:29:16 2018<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zbackup DEGRADED 0 0 0<br />
raidz1-0 DEGRADED 0 0 0<br />
da8 ONLINE 0 0 0<br />
5017281946433150361 OFFLINE 0 0 0 was /dev/da4<br />
da0 ONLINE 0 0 0<br />
da5 ONLINE 0 0 0</p></blockquote>
<p>お、ちゃんとオフラインになった。</p>
<p>２．zdataからどれか1台を離脱させる作業</p>
<p>これ実稼働中のファイルシステムに行うのがメチャクチャ怖い…。もちろんraidz3だからHDDを離脱させても問題ないのは分かってるけど、心臓に悪いね。</p>
<p>（ST8000ASとST8000DMってどっちが信頼性高いんだろう。ASはアーカイブ用でDMの方が性能は高いのかな。でも昔クラッシュしてえらい目に遭ったのはDMだったよな。うーん…と5chで情報収集して悩む事ン十分)</p>
<p>&nbsp;</p>
<p>・・・ん？</p>
<p>なんでda4が両方のストレージプールにあったの？（？＿？）←今気づいた</p>
<p>と思って良く見たら。</p>
<p>da0・da5・da8でraidz0で構成しているのがzbackup</p>
<p>da1・da2・da3・da4・da6でraidz3を構成しているのがzdata</p>
<p>何だか良く分からなくなってきたから、da4を落とそう。えいやっ</p>
<blockquote><p># zpool offline zdata da4</p></blockquote>
<p>でzpool statusをすると</p>
<blockquote><p># zpool status<br />
pool: zbackup<br />
state: DEGRADED<br />
status: One or more devices has been taken offline by the administrator.<br />
Sufficient replicas exist for the pool to continue functioning in a<br />
degraded state.<br />
action: Online the device using &#8216;zpool online&#8217; or replace the device with<br />
&#8216;zpool replace&#8217;.<br />
scan: resilvered 0 in 0h0m with 0 errors on Mon Apr 23 06:29:16 2018<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zbackup DEGRADED 0 0 0<br />
raidz1-0 DEGRADED 0 0 0<br />
da8 ONLINE 0 0 0<br />
5017281946433150361 OFFLINE 0 0 0 was /dev/da4<br />
da0 ONLINE 0 0 0<br />
da5 ONLINE 0 0 0</p>
<p>errors: No known data errors</p>
<p>pool: zdata<br />
state: DEGRADED<br />
status: One or more devices has been taken offline by the administrator.<br />
Sufficient replicas exist for the pool to continue functioning in a<br />
degraded state.<br />
action: Online the device using &#8216;zpool online&#8217; or replace the device with<br />
&#8216;zpool replace&#8217;.<br />
scan: none requested<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zdata DEGRADED 0 0 0<br />
raidz3-0 DEGRADED 0 0 0<br />
da1 ONLINE 0 0 0<br />
da2 ONLINE 0 0 0<br />
da3 ONLINE 0 0 0<br />
7675701080755519488 OFFLINE 0 0 0 was /dev/da4<br />
da6 ONLINE 0 0 0</p>
<p>errors: No known data errors</p></blockquote>
<p>…大丈夫なんだろうか。</p>
<p>とりま、ここでda4を物理的に外して、代わりに14TBの1枚目を投入してみる。</p>
<p>またこれがアナログ的に手法で、</p>
<blockquote><p>#cat /dev/da4 &gt; /dev/null</p></blockquote>
<p>とかやってアクセスランプがパカパカするHDDを見つけるという方法。</p>
<p>よし。</p>
<blockquote><p>#shutdown -p now</p></blockquote>
<p>してHDDを取り出…</p>
<h3><span style="color: #ff0000;">あれ？da7はどこに行ったの？</span></h3>
<p>&nbsp;</p>
<p>そう。実は古いgmirrorな使い方をしていた/dev/da7が遊んでいることに今気づいたのですよ。</p>
<p>ってー訳で、da4とda7を取り外して14TBを突っ込む。dmesgしてみると、</p>
<blockquote><p>da0 at umass-sim0 bus 0 scbus5 target 0 lun 0<br />
da0: &lt;ST8000AS 0002-1NA17Z 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da0: Serial Number 152D00539000<br />
da0: 400.000MB/s transfers<br />
da0: 7630885MB (15628053168 512 byte sectors)<br />
da0: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da1 at umass-sim0 bus 0 scbus5 target 0 lun 1<br />
da1: &lt;ST8000AS 0002-1NA17Z 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da1: Serial Number 152D00539000<br />
da2 at umass-sim0 bus 0 scbus5 target 0 lun 2<br />
da1: 400.000MB/s transfers<br />
da1: 7630885MB (15628053168 512 byte sectors)<br />
da1: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da2: &lt;TOSHIBA MN07ACA14T 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da2: Serial Number 152D00539000<br />
da2: 400.000MB/s transfers<br />
da2: 13351936MB (27344764928 512 byte sectors)<br />
da2: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da3 at umass-sim0 bus 0 scbus5 target 0 lun 3<br />
da3: &lt;ST8000AS 0002-1NA17Z 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da3: Serial Number 152D00539000<br />
da3: 400.000MB/s transfers<br />
da3: 7630885MB (15628053168 512 byte sectors)<br />
da3: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da4 at umass-sim0 bus 0 scbus5 target 0 lun 4<br />
da4: &lt;ST8000AS 0002-1NA17Z 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da4: Serial Number 152D00539000<br />
da4: 400.000MB/s transfers<br />
da4: 7630885MB (15628053168 512 byte sectors)<br />
da4: quirks=0x2&lt;NO_6_BYTE&gt;<br />
random: unblocking device.<br />
da5 at umass-sim0 bus 0 scbus5 target 0 lun 5<br />
da5: &lt;ST8000DM 005-2EH112 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da5: Serial Number 152D00539000<br />
da5: 400.000MB/s transfers<br />
da5: 7630885MB (15628053168 512 byte sectors)<br />
da5: quirks=0xa&lt;NO_6_BYTE,4K&gt;<br />
Trying to mount root from zfs:zroot/ROOT/default []&#8230;<br />
da6 at umass-sim0 bus 0 scbus5 target 0 lun 6<br />
da6: &lt;WDC WD80 PUZX-64NEAY0 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da6: Serial Number 152D00539000<br />
da6: 400.000MB/s transfers<br />
da6: 7630885MB (15628053168 512 byte sectors)<br />
da6: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da7 at umass-sim0 bus 0 scbus5 target 0 lun 7<br />
da7: &lt;WDC WD80 PUZX-64NEAY0 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da7: Serial Number 152D00539000<br />
da7: 400.000MB/s transfers<br />
da7: 7630885MB (15628053168 512 byte sectors)<br />
da7: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da8 at umass-sim0 bus 0 scbus5 target 0 lun 8<br />
da8: &lt;WDC WD80 EFZX-68UW8N0 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da8: Serial Number 152D00539000<br />
da8: 400.000MB/s transfers<br />
da8: 7630885MB (15628053168 512 byte sectors)<br />
da8: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da9 at umass-sim0 bus 0 scbus5 target 0 lun 9<br />
da9: &lt;TOSHIBA MN07ACA14T 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da9: Serial Number 152D00539000<br />
da9: 400.000MB/s transfers<br />
da9: 13351936MB (27344764928 512 byte sectors)<br />
da9: quirks=0x2&lt;NO_6_BYTE&gt;</p></blockquote>
<p>ん？da2とda9でマウントされてる。<strong><del><span style="color: #ff0000;">まあいいや</span></del></strong></p>
<blockquote><p># zpool status<br />
pool: zbackup<br />
state: DEGRADED<br />
status: One or more devices has been taken offline by the administrator.<br />
Sufficient replicas exist for the pool to continue functioning in a<br />
degraded state.<br />
action: Online the device using &#8216;zpool online&#8217; or replace the device with<br />
&#8216;zpool replace&#8217;.<br />
scan: resilvered 0 in 0h0m with 0 errors on Mon Apr 23 06:29:16 2018<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zbackup DEGRADED 0 0 0<br />
raidz1-0 DEGRADED 0 0 0<br />
da3 ONLINE 0 0 0<br />
5017281946433150361 OFFLINE 0 0 0 was /dev/da4<br />
da5 ONLINE 0 0 0<br />
da0 ONLINE 0 0 0</p>
<p>errors: No known data errors</p>
<p>pool: zdata<br />
state: DEGRADED<br />
status: One or more devices has been taken offline by the administrator.<br />
Sufficient replicas exist for the pool to continue functioning in a<br />
degraded state.<br />
action: Online the device using &#8216;zpool online&#8217; or replace the device with<br />
&#8216;zpool replace&#8217;.<br />
scan: none requested<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zdata DEGRADED 0 0 0<br />
raidz3-0 DEGRADED 0 0 0<br />
da6 ONLINE 0 0 0<br />
da7 ONLINE 0 0 0<br />
da8 ONLINE 0 0 0<br />
7675701080755519488 OFFLINE 0 0 0 was /dev/da4<br />
da1 ONLINE 0 0 0</p>
<p>errors: No known data errors</p>
<p>pool: zroot<br />
state: ONLINE<br />
status: Some supported features are not enabled on the pool. The pool can<br />
still be used, but some features are unavailable.<br />
action: Enable all features using &#8216;zpool upgrade&#8217;. Once this is done,<br />
the pool may no longer be accessible by software that does not support<br />
the features. See zpool-features(7) for details.<br />
scan: none requested<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zroot ONLINE 0 0 0<br />
ada0p4 ONLINE 0 0 0</p>
<p>errors: No known data errors</p></blockquote>
<p>よしよし。じゃー突っ込むよー</p>
<p>あれ？こんなコマンドを使うのかな？</p>
<p># zpool replace zdata da4 da2</p>
<p>そしたら表示が</p>
<blockquote><p>pool: zdata<br />
state: DEGRADED<br />
status: One or more devices is currently being resilvered. The pool will<br />
continue to function, possibly in a degraded state.<br />
action: Wait for the resilver to complete.<br />
scan: resilver in progress since Sun Dec 30 22:24:04 2018<br />
32.3M scanned out of 19.5T at 2.49M/s, (scan is slow, no estimated time)<br />
6.22M resilvered, 0.00% done<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zdata DEGRADED 0 0 0<br />
raidz3-0 DEGRADED 0 0 0<br />
da6 ONLINE 0 0 0<br />
da7 ONLINE 0 0 0<br />
da8 ONLINE 0 0 0<br />
replacing-3 DEGRADED 0 0 0<br />
7675701080755519488 OFFLINE 0 0 0 was /dev/da4<br />
da2 ONLINE 0 0 0<br />
da1 ONLINE 0 0 0</p>
<p>errors: No known data errors</p></blockquote>
<p>こんな風になった。多分これでリビルド（？）してるんだろう。（とHDDのアクセスランプを見に行く）</p>
<p>raidz3だったら同時に2台目も入れ替えても大丈夫だろうけど、<del>若い頃だったら多分突っ走ってやってただろうけど大人になった今は</del>そういう危ない事はやらない。</p>
<p>で、後はda4をzbackupに復帰させてみる。</p>
<blockquote><p># zpool online zbackup da4</p>
<p># zpool status<br />
pool: zbackup<br />
state: ONLINE<br />
status: One or more devices is currently being resilvered. The pool will<br />
continue to function, possibly in a degraded state.<br />
action: Wait for the resilver to complete.<br />
scan: resilver in progress since Sun Dec 30 22:36:02 2018<br />
870M scanned out of 12.5T at 39.5M/s, 92h25m to go<br />
197M resilvered, 0.01% done<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zbackup ONLINE 0 0 0<br />
raidz1-0 ONLINE 0 0 0<br />
da3 ONLINE 0 0 0<br />
da4 ONLINE 0 0 0<br />
da5 ONLINE 0 0 0<br />
da0 ONLINE 0 0 0</p>
<p>errors: No known data errors</p>
<p>pool: zdata<br />
state: DEGRADED<br />
status: One or more devices is currently being resilvered. The pool will<br />
continue to function, possibly in a degraded state.<br />
action: Wait for the resilver to complete.<br />
scan: resilver in progress since Sun Dec 30 22:24:04 2018<br />
57.1G scanned out of 19.5T at 79.0M/s, 71h33m to go<br />
11.4G resilvered, 0.29% done<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zdata DEGRADED 0 0 0<br />
raidz3-0 DEGRADED 0 0 0<br />
da6 ONLINE 0 0 0<br />
da7 ONLINE 0 0 0<br />
da8 ONLINE 0 0 0<br />
replacing-3 DEGRADED 0 0 0<br />
7675701080755519488 OFFLINE 0 0 0 was /dev/da4<br />
da2 ONLINE 0 0 0<br />
da1 ONLINE 0 0 0</p>
<p>errors: No known data errors</p>
<p>pool: zroot<br />
state: ONLINE<br />
status: Some supported features are not enabled on the pool. The pool can<br />
still be used, but some features are unavailable.<br />
action: Enable all features using &#8216;zpool upgrade&#8217;. Once this is done,<br />
the pool may no longer be accessible by software that does not support<br />
the features. See zpool-features(7) for details.<br />
scan: none requested<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zroot ONLINE 0 0 0<br />
ada0p4 ONLINE 0 0 0</p>
<p>errors: No known data errors</p></blockquote>
<p>両方合わせて70時間ぐらい待ってれば良いっぽい。</p>
<p>という訳で今年の作業終了～。ふー</p>
<hr />
<p>2019/1/3追記。</p>
<p>ビルドが終わったようなので、14TBのHDD2台目を行ってみる。</p>
<blockquote><p># zpool replace zdata da1 da9</p>
<p># zpool status zdata<br />
pool: zdata<br />
state: ONLINE<br />
status: One or more devices is currently being resilvered. The pool will<br />
continue to function, possibly in a degraded state.<br />
action: Wait for the resilver to complete.<br />
scan: resilver in progress since Thu Jan 3 05:56:07 2019<br />
66.1M scanned out of 19.5T at 2.00M/s, (scan is slow, no estimated time)<br />
12.6M resilvered, 0.00% done<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zdata ONLINE 0 0 0<br />
raidz3-0 ONLINE 0 0 0<br />
da6 ONLINE 0 0 0<br />
da7 ONLINE 0 0 0<br />
da8 ONLINE 0 0 0<br />
da2 ONLINE 0 0 0<br />
replacing-4 ONLINE 0 0 0<br />
da1 ONLINE 0 0 0<br />
da9 ONLINE 0 0 0</p>
<p>errors: No known data errors</p></blockquote>
<p>よーし、これでまたリビルド待ち。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://kemanai.jp/2018/12/30/freebsd-zpool%e3%82%b9%e3%83%88%e3%83%ac%e3%83%bc%e3%82%b8%e3%81%ae%e3%81%82%e3%82%8c%e3%81%93%e3%82%8ctips%ef%bc%88%e4%bd%9c%e6%a5%ad%e3%83%a1%e3%83%a2%ef%bc%89/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
