<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>コンピュータ &#8211; kema&#039;s Homepage</title>
	<atom:link href="https://kemanai.jp/category/%E8%B6%A3%E5%91%B3/%E3%82%B3%E3%83%B3%E3%83%94%E3%83%A5%E3%83%BC%E3%82%BF/feed/" rel="self" type="application/rss+xml" />
	<link>https://kemanai.jp</link>
	<description>kemaの雑記置き場</description>
	<lastBuildDate>Thu, 15 Feb 2024 07:27:23 +0000</lastBuildDate>
	<language>ja</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9</generator>
	<item>
		<title>サーバクラッシュ顛末。</title>
		<link>https://kemanai.jp/2019/02/25/%e3%82%b5%e3%83%bc%e3%83%90%e3%82%af%e3%83%a9%e3%83%83%e3%82%b7%e3%83%a5%e9%a1%9b%e6%9c%ab%e3%80%82/</link>
					<comments>https://kemanai.jp/2019/02/25/%e3%82%b5%e3%83%bc%e3%83%90%e3%82%af%e3%83%a9%e3%83%83%e3%82%b7%e3%83%a5%e9%a1%9b%e6%9c%ab%e3%80%82/#respond</comments>
		
		<dc:creator><![CDATA[kema]]></dc:creator>
		<pubDate>Mon, 25 Feb 2019 04:20:28 +0000</pubDate>
				<category><![CDATA[仕事]]></category>
		<category><![CDATA[サーバ管理]]></category>
		<category><![CDATA[FreeBSD]]></category>
		<category><![CDATA[日記・雑記]]></category>
		<category><![CDATA[趣味]]></category>
		<category><![CDATA[コンピュータ]]></category>
		<category><![CDATA[HPE ProLiant MicroServer Gen10]]></category>
		<category><![CDATA[zfs]]></category>
		<category><![CDATA[zfs:zroot/ROOT/default failed with error 2: unknown file system]]></category>
		<category><![CDATA[クラッシュ]]></category>
		<guid isPermaLink="false">http://kemanai.jp/?p=3019</guid>

					<description><![CDATA[先週月曜日、サーバをクラッシュさせてしまい、この一週間復旧作業をしておりました。ようやく安定してきたので、自戒を込めて顛末を記しておきます。 サーバのクラッシュと言えば、ハードディスクが㌧だ、なんてのが定番ですが、今回は &#8230; <a href="https://kemanai.jp/2019/02/25/%e3%82%b5%e3%83%bc%e3%83%90%e3%82%af%e3%83%a9%e3%83%83%e3%82%b7%e3%83%a5%e9%a1%9b%e6%9c%ab%e3%80%82/" class="more-link">続きを読む <span class="screen-reader-text">サーバクラッシュ顛末。</span> <span class="meta-nav">&#8594;</span></a>]]></description>
										<content:encoded><![CDATA[<p>先週月曜日、サーバをクラッシュさせてしまい、この一週間復旧作業をしておりました。ようやく安定してきたので、自戒を込めて顛末を記しておきます。</p>
<p>サーバのクラッシュと言えば、ハードディスクが㌧だ、なんてのが定番ですが、今回は完全に自分のオペミス。こういう事が今後起こらないように…。</p>
<ul>
<li>起</li>
</ul>
<p>某所の重要サーバがそろそろ劣化してきたので、更新のために<a href="https://www.hpe.com/jp/ja/product-catalog/servers/proliant-servers/pip.hpe-proliant-microserver-gen10.1009955118.html">HPEのmicroserver Gen10</a>を購入したのが事の始まり。もっとも、その前にTM200を買って外部向けサーバとして構築していたのもあり、その流れでmicroserverを目が向いたという流れもあったりします。このとき、「microserver Gen10 いいじゃん？俺も家でこれ使おう」と思ったわけです。</p>
<p>これまで、サーバ専用機ではなく、ある時はノートパソコン、ある時はコンパクトPC、ある時はベアボーンキットと色々な構成を試した結果、<span style="color: #ff0000;">やっぱりサーバ専用機として売ってる機械が良いよね</span>という(当たり前の)結論に至った訳です。ファイルサーバとして大容量のストレージを組むのにzfsを使っていますが、10台収容の裸族タワーをUSBで接続して変なエラーに悩まされたり(←失笑千万だね)と、あえてわざわざ荊の道を歩むのもそろそろ疲れたという理由もあります。</p>
<p>TM200はディスクが2台しか入らないのに対して、microserverはHDD4台収容＋SSDという構成が取れるのも魅力でした。</p>
<ul>
<li>承</li>
</ul>
<p><a href="https://www.google.co.jp/search?source=hp&amp;ei=QltzXMq3H6O1mAWol42QAw&amp;q=microserver+gen10+samba&amp;oq=MicroServer+Gen10&amp;gs_l=psy-ab.1.1.35i39l2j0l6.486.486..2383...0.0..0.133.230.1j1......0....2j1..gws-wiz.....0.102qupGo0uU">microserver gen10 sambaでググって</a>みると、何やら<a href="https://blog.naotaco.com/archives/782">暗雲立ち込める記事</a>を発見。まぁ、俺が使っているのはFreeBSDだし、何とかなるべ？と思ってHPEのサイトでポチッとな。そして機材が届いたのが先週の月曜日なのでありました。</p>
<p>その日は丸一日仕事を終えてかなり疲れて帰ってきた日。もっと落ち着いたときに作業すればいいものを、オモチャを買ってもらった子供が我慢できずに開けて怒られるのと同じ。そう、<span style="color: #ff0000;"><strong>小学校の理科の時間に乾電池と豆電球の実験で教材を配られて、先生が「まだ駄目」というのに我慢できずに開封して怒られたあの日。秋葉原で部品を買ってもらい、我慢できずに帰りの電車の中で袋を開けて眺めたあの頃。何十年経っても自分は変わっていないのだ</strong></span>ということを再認識させられたのです。</p>
<p>★教訓：<strong><span style="color: #ff0000;">重要な仕事は手順を踏んで万が一に備えてから。後悔しても遅い</span></strong>。★</p>
<p>我慢できない私は、現在稼働中のサーバをおもむろに止め、現在稼働中のSSDを取り出し、新鯖にマウントして電源を入れたのでした。このとき、「<a href="https://bugs.freebsd.org/bugzilla/show_bug.cgi?id=221350">microserver gen10は癖があってしんどいよ～、気を付けないとダメだよ…</a>」というのを某所の鯖でさんざん体験して何とか動作にこぎつけた経験が、頭の中で赤信号を点灯させているのは感じつつ…。</p>
<p>★教訓：後悔先に立たず。昔の人は偉い。その通りだ。★</p>
<ul>
<li>転</li>
</ul>
<p>おもむろに電源を入れてOSが起動した…と思ったものの、ブート途中でハングアップ。CTRL-ALT-DELも効かず。仕方ないので電源ボタンをポチッとな…そんな事を数回繰り返し、「やっぱり後で落ち着いてやった方が良いね」と気付いたのだが時すでに遅かったのはその時気付いていなかった。</p>
<p>さて、渦中のSSDを元のマシンに戻して起動。</p>
<p>&nbsp;</p>
<blockquote>
<h1>zfs:zroot/ROOT/default failed with error 2: unknown file system</h1>
</blockquote>
<p>ブートしない。┌|ﾟ□ﾟ;|┐ガーソ！</p>
<p>&nbsp;</p>
<p>もちろん、長い経験のうちにブート途中で止まってしまうなんてことは何度も経験していたので、シングルユーザモードで起動してゴニョゴニョしたりとか、別の領域からマウントしてfsckするとか、それなりには経験したことがあったのだけど、今回のヤバいことはzfsが壊れて復旧できないという事態。</p>
<p>そう、ufsであれば何とかなったのに、zfsをシステム領域にしてそれが壊れるのは初体験。ググってみると、別のシステムでzpool importとかやってみると良いよ！って事なので、その日は<a href="https://www.yodobashi.com/product/100000001003793464/">ヨドバシ・ドット・コムでSSDを発注</a>し、次の日に繰り越すのでした。</p>
<p>次の日。つまり先週の火曜日。午前中出勤で、その際にFreeBSD12.0Rのインストールメディアを作って帰宅。嬉しいことにもうSSDが届いてる！</p>
<p>という訳で、FreeBSD12.0Rをインスコし、そこに旧SSDをマウントしてzpool importして…おや、出来ないぞ。なになに-fオプションで強制的にインポートか。</p>
<p>&nbsp;</p>
<p>…できないorz</p>
<p>&nbsp;</p>
<p>っちゅうーわけで、どうやら一筋縄ではいかないことが判明。他方、メールも送受信できなければDNSすら引けない状況はまずいので、新たにインスコしたFreeBSD12.0Rにて環境再構築。ひたすら色々なデーモンをコンパイルだの、dns設定データの再編集だの、ローカルPCに残っていたメールデータを退避させてからの新鯖へのインポートなど、それはそれは大変な作業に週一杯掛かっていたのでした。</p>
<ul>
<li>結</li>
</ul>
<ol>
<li>現在実稼働していて、万が一にも㌧だらまずいディスクで危険なことはしない。</li>
<li>バックアップはちゃんと取る。</li>
<li>疲れた時に大切な仕事をしない。</li>
</ol>
<p>等々。どれも昔っから言われてることじゃん！下手したら論語にも書いてありそうなレベル。</p>
<p>&nbsp;</p>
<p>子曰わく、疲労時に重要な作業をすることなかれ。</p>
<p>&nbsp;</p>
<p>合掌。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://kemanai.jp/2019/02/25/%e3%82%b5%e3%83%bc%e3%83%90%e3%82%af%e3%83%a9%e3%83%83%e3%82%b7%e3%83%a5%e9%a1%9b%e6%9c%ab%e3%80%82/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>FreeBSD12.0Rとzfsでsticky bitが無効である件</title>
		<link>https://kemanai.jp/2019/02/09/freebsd12-0r%e3%81%a8zfs%e3%81%a7sticky-bit%e3%81%8c%e7%84%a1%e5%8a%b9%e3%81%a7%e3%81%82%e3%82%8b%e4%bb%b6/</link>
					<comments>https://kemanai.jp/2019/02/09/freebsd12-0r%e3%81%a8zfs%e3%81%a7sticky-bit%e3%81%8c%e7%84%a1%e5%8a%b9%e3%81%a7%e3%81%82%e3%82%8b%e4%bb%b6/#respond</comments>
		
		<dc:creator><![CDATA[kema]]></dc:creator>
		<pubDate>Fri, 08 Feb 2019 19:25:52 +0000</pubDate>
				<category><![CDATA[samba]]></category>
		<category><![CDATA[サーバ管理]]></category>
		<category><![CDATA[FreeBSD]]></category>
		<category><![CDATA[趣味]]></category>
		<category><![CDATA[コンピュータ]]></category>
		<category><![CDATA[sticky bit]]></category>
		<category><![CDATA[zfs]]></category>
		<category><![CDATA[共有フォルダ]]></category>
		<guid isPermaLink="false">http://kemanai.jp/?p=2977</guid>

					<description><![CDATA[某所のファイルサーバを更新するため、FreeBSD12.0-RELEASEとzfsを使ってsambaを動かす下準備をしていたのだけれど、 「メンバーの誰もが書き込めて、メンバーの誰もが読み出せて、しかしフォルダやファイル &#8230; <a href="https://kemanai.jp/2019/02/09/freebsd12-0r%e3%81%a8zfs%e3%81%a7sticky-bit%e3%81%8c%e7%84%a1%e5%8a%b9%e3%81%a7%e3%81%82%e3%82%8b%e4%bb%b6/" class="more-link">続きを読む <span class="screen-reader-text">FreeBSD12.0Rとzfsでsticky bitが無効である件</span> <span class="meta-nav">&#8594;</span></a>]]></description>
										<content:encoded><![CDATA[<p>某所のファイルサーバを更新するため、FreeBSD12.0-RELEASEとzfsを使ってsambaを動かす下準備をしていたのだけれど、</p>
<blockquote><p>「メンバーの誰もが書き込めて、メンバーの誰もが読み出せて、しかしフォルダやファイルの削除だけは作成者本人しか出来ない領域」</p></blockquote>
<p>を作ろうとしてもなかなか上手く行かない。</p>
<p>ああそうだ、こういう場合はディレクトリにsticky bitを立てるんだったなと思ってchmod 1777 sharedとかやっても、やっぱり他人にもファイルを削除できてしまう。</p>
<p>最初はsamba側の設定がおかしい(force user=誰々とかね）のかと思っていたけど、そうでもない。散々試行錯誤していたところ、zfsのACLの問題じゃないかと思い至った。</p>
<p><a href="https://lists.freebsd.org/pipermail/freebsd-stable/2014-July/079340.html" target="_blank" rel="noopener">https://lists.freebsd.org/pipermail/freebsd-stable/2014-July/079340.html</a></p>
<p>ｷﾀ――(ﾟ∀ﾟ)――!!　まさにこれですよ！</p>
<p>…なるほどね。従来のchmodじゃあダメなのね。(でも/tmp/はsticky bitが上手く動いてる気もするんだけどまあ気にしない）</p>
<p>という訳で、samba共有フォルダに対して↑のようにaclを設定してあげたら希望通りの動作になったような気がしています。(後方互換的にsticky bitが動作するようにしといて欲しいけどまあその辺りは色々と事情があるんでしょう)</p>
<p>以上、個人的( ..)φメモメモ</p>
]]></content:encoded>
					
					<wfw:commentRss>https://kemanai.jp/2019/02/09/freebsd12-0r%e3%81%a8zfs%e3%81%a7sticky-bit%e3%81%8c%e7%84%a1%e5%8a%b9%e3%81%a7%e3%81%82%e3%82%8b%e4%bb%b6/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>FreeBSD zpoolストレージのあれこれtips（作業メモ）</title>
		<link>https://kemanai.jp/2018/12/30/freebsd-zpool%e3%82%b9%e3%83%88%e3%83%ac%e3%83%bc%e3%82%b8%e3%81%ae%e3%81%82%e3%82%8c%e3%81%93%e3%82%8ctips%ef%bc%88%e4%bd%9c%e6%a5%ad%e3%83%a1%e3%83%a2%ef%bc%89/</link>
					<comments>https://kemanai.jp/2018/12/30/freebsd-zpool%e3%82%b9%e3%83%88%e3%83%ac%e3%83%bc%e3%82%b8%e3%81%ae%e3%81%82%e3%82%8c%e3%81%93%e3%82%8ctips%ef%bc%88%e4%bd%9c%e6%a5%ad%e3%83%a1%e3%83%a2%ef%bc%89/#respond</comments>
		
		<dc:creator><![CDATA[kema]]></dc:creator>
		<pubDate>Sun, 30 Dec 2018 14:33:10 +0000</pubDate>
				<category><![CDATA[サーバ管理]]></category>
		<category><![CDATA[FreeBSD]]></category>
		<category><![CDATA[日記・雑記]]></category>
		<category><![CDATA[趣味]]></category>
		<category><![CDATA[コンピュータ]]></category>
		<category><![CDATA[HDD交換]]></category>
		<category><![CDATA[raidz1]]></category>
		<category><![CDATA[raidz3]]></category>
		<category><![CDATA[zfs]]></category>
		<category><![CDATA[zpool]]></category>
		<guid isPermaLink="false">http://wp.khz-net.co.jp/?p=2877</guid>

					<description><![CDATA[zfsのストレージプールを作っている。 dmesgの結果は次の通り。 da0 at umass-sim0 bus 0 scbus5 target 0 lun 0 da0: &#60;ST8000DM 005-2EH112  &#8230; <a href="https://kemanai.jp/2018/12/30/freebsd-zpool%e3%82%b9%e3%83%88%e3%83%ac%e3%83%bc%e3%82%b8%e3%81%ae%e3%81%82%e3%82%8c%e3%81%93%e3%82%8ctips%ef%bc%88%e4%bd%9c%e6%a5%ad%e3%83%a1%e3%83%a2%ef%bc%89/" class="more-link">続きを読む <span class="screen-reader-text">FreeBSD zpoolストレージのあれこれtips（作業メモ）</span> <span class="meta-nav">&#8594;</span></a>]]></description>
										<content:encoded><![CDATA[<p>zfsのストレージプールを作っている。</p>
<p>dmesgの結果は次の通り。</p>
<blockquote><p>da0 at umass-sim0 bus 0 scbus5 target 0 lun 0<br />
da0: &lt;ST8000DM 005-2EH112 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da0: Serial Number 152D00539000<br />
da0: 400.000MB/s transfers<br />
da0: 7630885MB (15628053168 512 byte sectors)<br />
da0: quirks=0xa&lt;NO_6_BYTE,4K&gt;<br />
da1 at umass-sim0 bus 0 scbus5 target 0 lun 1<br />
da2 at umass-sim0 bus 0 scbus5 target 0 lun 2<br />
da1: &lt;WDC WD80 PUZX-64NEAY0 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da1: Serial Number 152D00539000<br />
da1: 400.000MB/s transfers<br />
da1: 7630885MB (15628053168 512 byte sectors)<br />
da1: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da2: &lt;WDC WD80 PUZX-64NEAY0 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da2: Serial Number 152D00539000<br />
da2: 400.000MB/s transfers<br />
da2: 7630885MB (15628053168 512 byte sectors)<br />
da2: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da3 at umass-sim0 bus 0 scbus5 target 0 lun 3<br />
da3: &lt;WDC WD80 EFZX-68UW8N0 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da3: Serial Number 152D00539000<br />
da3: 400.000MB/s transfers<br />
da3: 7630885MB (15628053168 512 byte sectors)<br />
da3: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da4 at umass-sim0 bus 0 scbus5 target 0 lun 4<br />
da4: &lt;WDC WD80 EFZX-68UW8N0 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da4: Serial Number 152D00539000<br />
da4: 400.000MB/s transfers<br />
da4: 7630885MB (15628053168 512 byte sectors)<br />
da4: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da5 at umass-sim0 bus 0 scbus5 target 0 lun 5<br />
da5: &lt;ST8000AS 0002-1NA17Z 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da5: Serial Number 152D00539000<br />
da5: 400.000MB/s transfers<br />
da5: 7630885MB (15628053168 512 byte sectors)<br />
da5: quirks=0x2&lt;NO_6_BYTE&gt;<br />
random: unblocking device.<br />
da6 at umass-sim0 bus 0 scbus5 target 0 lun 6<br />
da6: &lt;ST8000AS 0002-1NA17Z 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da6: Serial Number 152D00539000<br />
da6: 400.000MB/s transfers<br />
da6: 7630885MB (15628053168 512 byte sectors)<br />
da6: quirks=0x2&lt;NO_6_BYTE&gt;<br />
Trying to mount root from zfs:zroot/ROOT/default []&#8230;<br />
da7 at umass-sim0 bus 0 scbus5 target 0 lun 7<br />
da7: &lt;ST8000AS 0002-1NA17Z 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da7: Serial Number 152D00539000<br />
da7: 400.000MB/s transfers<br />
da7: 7630885MB (15628053168 512 byte sectors)<br />
da7: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da8 at umass-sim0 bus 0 scbus5 target 0 lun 8<br />
da8: &lt;ST8000AS 0002-1NA17Z 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da8: Serial Number 152D00539000<br />
da8: 400.000MB/s transfers<br />
da8: 7630885MB (15628053168 512 byte sectors)<br />
da8: quirks=0x2&lt;NO_6_BYTE&gt;</p></blockquote>
<p>つまり、</p>
<p>da0:8TB（ST8000DM)</p>
<p>da1:8TB（WD80PUZX)</p>
<p>da2:8TB（WD80PUZX)</p>
<p>da3:8TB（WD80EFZX)</p>
<p>da4:8TB（WD80EFZX)</p>
<p>da5:8TB（ST8000AS)</p>
<p>da6:8TB（ST8000AS)</p>
<p>da7:8TB（ST8000AS)</p>
<p>da8:8TB（ST8000AS)</p>
<p>となっている。続いてzpoolのステータス</p>
<blockquote><p># zpool status<br />
pool: zbackup<br />
state: DEGRADED<br />
status: One or more devices could not be opened. Sufficient replicas exist for<br />
the pool to continue functioning in a degraded state.<br />
action: Attach the missing device and online it using &#8216;zpool online&#8217;.<br />
see: http://illumos.org/msg/ZFS-8000-2Q<br />
scan: resilvered 0 in 0h0m with 0 errors on Mon Apr 23 06:29:16 2018<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zbackup DEGRADED 0 0 0<br />
raidz1-0 DEGRADED 0 0 0<br />
da8 ONLINE 0 0 0<br />
5017281946433150361 UNAVAIL 0 0 0 was /dev/da4<br />
da0 ONLINE 0 0 0<br />
da5 ONLINE 0 0 0</p>
<p>errors: No known data errors</p>
<p>pool: zdata<br />
state: ONLINE<br />
status: Some supported features are not enabled on the pool. The pool can<br />
still be used, but some features are unavailable.<br />
action: Enable all features using &#8216;zpool upgrade&#8217;. Once this is done,<br />
the pool may no longer be accessible by software that does not support<br />
the features. See zpool-features(7) for details.<br />
scan: none requested<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zdata ONLINE 0 0 0<br />
raidz3-0 ONLINE 0 0 0<br />
da1 ONLINE 0 0 0<br />
da2 ONLINE 0 0 0<br />
da3 ONLINE 0 0 0<br />
da4 ONLINE 0 0 0<br />
da6 ONLINE 0 0 0</p>
<p>errors: No known data errors</p>
<p>pool: zroot<br />
state: ONLINE<br />
status: Some supported features are not enabled on the pool. The pool can<br />
still be used, but some features are unavailable.<br />
action: Enable all features using &#8216;zpool upgrade&#8217;. Once this is done,<br />
the pool may no longer be accessible by software that does not support<br />
the features. See zpool-features(7) for details.<br />
scan: none requested<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zroot ONLINE 0 0 0<br />
ada0p4 ONLINE 0 0 0</p>
<p>errors: No known data errors</p></blockquote>
<p>da1・da2・da3・da4・da6でRAIDZ3。これはトリプルパリティで最大3台までのHDDが同時に死んでもデータは保全されるってやつ。8TBのHDDを5台使って容量16TB。</p>
<p>…うーん。安全性(ryだけどちょっと無駄が多すぎる希ガス</p>
<p>da0・da4・da5・da8はRAIDZ1で24TBのストレージ。しかしエラーが発生してる…。</p>
<p>zpoolコマンドで復旧してみるってのもひとつの経験としてアリだけど、年末大出血(って何)ってことで東芝の14TBのHDDを3台購入してきましたわけで。</p>
<h1><strong><span style="color: #ff0000;">以上の状態を踏まえてですね、</span></strong></h1>
<p>さて、どうするか。</p>
<p>まず、raidz3は少々やり過ぎな気もしないでもないけど、しかし海門のHDDには過去痛い目に遭ってるから、なるべく冗長度は大きくしたい。</p>
<p>ちなみに現在の使用量は、df -gすると</p>
<blockquote><p>zdata 14327 8465 5861 59% /usr/home/jail/ほげほげ</p></blockquote>
<p>って訳でまぁ概算9TB弱ぐらい使ってる。</p>
<p>って事は、14TBのHDDで新たにRAIDZ3を組んで14TBのストレーｊ</p>
<h3><span style="color: #ff0000;">いや、3台じゃRAIDZ3組めないでしょ</span></h3>
<p>しまった。</p>
<p>…しかし、raidzの特徴として、<span style="color: #ff0000;">現在のストレージプールを構成しているハードディスクの容量が増えれば、勝手にプールの容量も増える</span>という、かつてnewfsとかシコシコやっていた頃に比べると考えれない利便性があるとのこと。</p>
<p>じゃあ、次の方針でやってみよう。</p>
<ol>
<li>現在raidz3を構成している、da1・da2・da3・da4・da6のうち3台を14TBに交換。そしてまたそのうち金があったら14TBを2枚買い足す( ﾉД`)ｼｸｼｸ…</li>
<li>その外した3台の8TBのHDDのうちどれかをda4の代わりに差し替える。</li>
</ol>
<p>あーでも、現在使っているストレージタワー(裸族の云々)はフルスロットル埋まっているから、手順としては次のようにせざるを得ないね。</p>
<ol>
<li>da4を物理的に切り離し、代わりに14TBの生HDDを突っ込む。</li>
<li>zdataからどれか1台を離脱させる。</li>
<li>離脱したHDDをzbackupに入れる。</li>
<li>zdataに14TBのHDDを参加させる。</li>
</ol>
<p>後はビルドが完了次第、zdataのうちどれか2台の8TBを離脱させ、そこに14TBのHDDを入れてやれば良いということ。ばっちぐー(古</p>
<hr />
<p>１．障害が発生しているda4を切り離す作業</p>
<blockquote><p>#zpool offline zbackup da4</p></blockquote>
<p>とかやってみると、zpool statusした結果は、</p>
<blockquote><p>pool: zbackup<br />
state: DEGRADED<br />
status: One or more devices has been taken offline by the administrator.<br />
Sufficient replicas exist for the pool to continue functioning in a<br />
degraded state.<br />
action: Online the device using &#8216;zpool online&#8217; or replace the device with<br />
&#8216;zpool replace&#8217;.<br />
scan: resilvered 0 in 0h0m with 0 errors on Mon Apr 23 06:29:16 2018<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zbackup DEGRADED 0 0 0<br />
raidz1-0 DEGRADED 0 0 0<br />
da8 ONLINE 0 0 0<br />
5017281946433150361 OFFLINE 0 0 0 was /dev/da4<br />
da0 ONLINE 0 0 0<br />
da5 ONLINE 0 0 0</p></blockquote>
<p>お、ちゃんとオフラインになった。</p>
<p>２．zdataからどれか1台を離脱させる作業</p>
<p>これ実稼働中のファイルシステムに行うのがメチャクチャ怖い…。もちろんraidz3だからHDDを離脱させても問題ないのは分かってるけど、心臓に悪いね。</p>
<p>（ST8000ASとST8000DMってどっちが信頼性高いんだろう。ASはアーカイブ用でDMの方が性能は高いのかな。でも昔クラッシュしてえらい目に遭ったのはDMだったよな。うーん…と5chで情報収集して悩む事ン十分)</p>
<p>&nbsp;</p>
<p>・・・ん？</p>
<p>なんでda4が両方のストレージプールにあったの？（？＿？）←今気づいた</p>
<p>と思って良く見たら。</p>
<p>da0・da5・da8でraidz0で構成しているのがzbackup</p>
<p>da1・da2・da3・da4・da6でraidz3を構成しているのがzdata</p>
<p>何だか良く分からなくなってきたから、da4を落とそう。えいやっ</p>
<blockquote><p># zpool offline zdata da4</p></blockquote>
<p>でzpool statusをすると</p>
<blockquote><p># zpool status<br />
pool: zbackup<br />
state: DEGRADED<br />
status: One or more devices has been taken offline by the administrator.<br />
Sufficient replicas exist for the pool to continue functioning in a<br />
degraded state.<br />
action: Online the device using &#8216;zpool online&#8217; or replace the device with<br />
&#8216;zpool replace&#8217;.<br />
scan: resilvered 0 in 0h0m with 0 errors on Mon Apr 23 06:29:16 2018<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zbackup DEGRADED 0 0 0<br />
raidz1-0 DEGRADED 0 0 0<br />
da8 ONLINE 0 0 0<br />
5017281946433150361 OFFLINE 0 0 0 was /dev/da4<br />
da0 ONLINE 0 0 0<br />
da5 ONLINE 0 0 0</p>
<p>errors: No known data errors</p>
<p>pool: zdata<br />
state: DEGRADED<br />
status: One or more devices has been taken offline by the administrator.<br />
Sufficient replicas exist for the pool to continue functioning in a<br />
degraded state.<br />
action: Online the device using &#8216;zpool online&#8217; or replace the device with<br />
&#8216;zpool replace&#8217;.<br />
scan: none requested<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zdata DEGRADED 0 0 0<br />
raidz3-0 DEGRADED 0 0 0<br />
da1 ONLINE 0 0 0<br />
da2 ONLINE 0 0 0<br />
da3 ONLINE 0 0 0<br />
7675701080755519488 OFFLINE 0 0 0 was /dev/da4<br />
da6 ONLINE 0 0 0</p>
<p>errors: No known data errors</p></blockquote>
<p>…大丈夫なんだろうか。</p>
<p>とりま、ここでda4を物理的に外して、代わりに14TBの1枚目を投入してみる。</p>
<p>またこれがアナログ的に手法で、</p>
<blockquote><p>#cat /dev/da4 &gt; /dev/null</p></blockquote>
<p>とかやってアクセスランプがパカパカするHDDを見つけるという方法。</p>
<p>よし。</p>
<blockquote><p>#shutdown -p now</p></blockquote>
<p>してHDDを取り出…</p>
<h3><span style="color: #ff0000;">あれ？da7はどこに行ったの？</span></h3>
<p>&nbsp;</p>
<p>そう。実は古いgmirrorな使い方をしていた/dev/da7が遊んでいることに今気づいたのですよ。</p>
<p>ってー訳で、da4とda7を取り外して14TBを突っ込む。dmesgしてみると、</p>
<blockquote><p>da0 at umass-sim0 bus 0 scbus5 target 0 lun 0<br />
da0: &lt;ST8000AS 0002-1NA17Z 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da0: Serial Number 152D00539000<br />
da0: 400.000MB/s transfers<br />
da0: 7630885MB (15628053168 512 byte sectors)<br />
da0: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da1 at umass-sim0 bus 0 scbus5 target 0 lun 1<br />
da1: &lt;ST8000AS 0002-1NA17Z 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da1: Serial Number 152D00539000<br />
da2 at umass-sim0 bus 0 scbus5 target 0 lun 2<br />
da1: 400.000MB/s transfers<br />
da1: 7630885MB (15628053168 512 byte sectors)<br />
da1: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da2: &lt;TOSHIBA MN07ACA14T 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da2: Serial Number 152D00539000<br />
da2: 400.000MB/s transfers<br />
da2: 13351936MB (27344764928 512 byte sectors)<br />
da2: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da3 at umass-sim0 bus 0 scbus5 target 0 lun 3<br />
da3: &lt;ST8000AS 0002-1NA17Z 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da3: Serial Number 152D00539000<br />
da3: 400.000MB/s transfers<br />
da3: 7630885MB (15628053168 512 byte sectors)<br />
da3: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da4 at umass-sim0 bus 0 scbus5 target 0 lun 4<br />
da4: &lt;ST8000AS 0002-1NA17Z 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da4: Serial Number 152D00539000<br />
da4: 400.000MB/s transfers<br />
da4: 7630885MB (15628053168 512 byte sectors)<br />
da4: quirks=0x2&lt;NO_6_BYTE&gt;<br />
random: unblocking device.<br />
da5 at umass-sim0 bus 0 scbus5 target 0 lun 5<br />
da5: &lt;ST8000DM 005-2EH112 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da5: Serial Number 152D00539000<br />
da5: 400.000MB/s transfers<br />
da5: 7630885MB (15628053168 512 byte sectors)<br />
da5: quirks=0xa&lt;NO_6_BYTE,4K&gt;<br />
Trying to mount root from zfs:zroot/ROOT/default []&#8230;<br />
da6 at umass-sim0 bus 0 scbus5 target 0 lun 6<br />
da6: &lt;WDC WD80 PUZX-64NEAY0 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da6: Serial Number 152D00539000<br />
da6: 400.000MB/s transfers<br />
da6: 7630885MB (15628053168 512 byte sectors)<br />
da6: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da7 at umass-sim0 bus 0 scbus5 target 0 lun 7<br />
da7: &lt;WDC WD80 PUZX-64NEAY0 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da7: Serial Number 152D00539000<br />
da7: 400.000MB/s transfers<br />
da7: 7630885MB (15628053168 512 byte sectors)<br />
da7: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da8 at umass-sim0 bus 0 scbus5 target 0 lun 8<br />
da8: &lt;WDC WD80 EFZX-68UW8N0 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da8: Serial Number 152D00539000<br />
da8: 400.000MB/s transfers<br />
da8: 7630885MB (15628053168 512 byte sectors)<br />
da8: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da9 at umass-sim0 bus 0 scbus5 target 0 lun 9<br />
da9: &lt;TOSHIBA MN07ACA14T 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da9: Serial Number 152D00539000<br />
da9: 400.000MB/s transfers<br />
da9: 13351936MB (27344764928 512 byte sectors)<br />
da9: quirks=0x2&lt;NO_6_BYTE&gt;</p></blockquote>
<p>ん？da2とda9でマウントされてる。<strong><del><span style="color: #ff0000;">まあいいや</span></del></strong></p>
<blockquote><p># zpool status<br />
pool: zbackup<br />
state: DEGRADED<br />
status: One or more devices has been taken offline by the administrator.<br />
Sufficient replicas exist for the pool to continue functioning in a<br />
degraded state.<br />
action: Online the device using &#8216;zpool online&#8217; or replace the device with<br />
&#8216;zpool replace&#8217;.<br />
scan: resilvered 0 in 0h0m with 0 errors on Mon Apr 23 06:29:16 2018<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zbackup DEGRADED 0 0 0<br />
raidz1-0 DEGRADED 0 0 0<br />
da3 ONLINE 0 0 0<br />
5017281946433150361 OFFLINE 0 0 0 was /dev/da4<br />
da5 ONLINE 0 0 0<br />
da0 ONLINE 0 0 0</p>
<p>errors: No known data errors</p>
<p>pool: zdata<br />
state: DEGRADED<br />
status: One or more devices has been taken offline by the administrator.<br />
Sufficient replicas exist for the pool to continue functioning in a<br />
degraded state.<br />
action: Online the device using &#8216;zpool online&#8217; or replace the device with<br />
&#8216;zpool replace&#8217;.<br />
scan: none requested<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zdata DEGRADED 0 0 0<br />
raidz3-0 DEGRADED 0 0 0<br />
da6 ONLINE 0 0 0<br />
da7 ONLINE 0 0 0<br />
da8 ONLINE 0 0 0<br />
7675701080755519488 OFFLINE 0 0 0 was /dev/da4<br />
da1 ONLINE 0 0 0</p>
<p>errors: No known data errors</p>
<p>pool: zroot<br />
state: ONLINE<br />
status: Some supported features are not enabled on the pool. The pool can<br />
still be used, but some features are unavailable.<br />
action: Enable all features using &#8216;zpool upgrade&#8217;. Once this is done,<br />
the pool may no longer be accessible by software that does not support<br />
the features. See zpool-features(7) for details.<br />
scan: none requested<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zroot ONLINE 0 0 0<br />
ada0p4 ONLINE 0 0 0</p>
<p>errors: No known data errors</p></blockquote>
<p>よしよし。じゃー突っ込むよー</p>
<p>あれ？こんなコマンドを使うのかな？</p>
<p># zpool replace zdata da4 da2</p>
<p>そしたら表示が</p>
<blockquote><p>pool: zdata<br />
state: DEGRADED<br />
status: One or more devices is currently being resilvered. The pool will<br />
continue to function, possibly in a degraded state.<br />
action: Wait for the resilver to complete.<br />
scan: resilver in progress since Sun Dec 30 22:24:04 2018<br />
32.3M scanned out of 19.5T at 2.49M/s, (scan is slow, no estimated time)<br />
6.22M resilvered, 0.00% done<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zdata DEGRADED 0 0 0<br />
raidz3-0 DEGRADED 0 0 0<br />
da6 ONLINE 0 0 0<br />
da7 ONLINE 0 0 0<br />
da8 ONLINE 0 0 0<br />
replacing-3 DEGRADED 0 0 0<br />
7675701080755519488 OFFLINE 0 0 0 was /dev/da4<br />
da2 ONLINE 0 0 0<br />
da1 ONLINE 0 0 0</p>
<p>errors: No known data errors</p></blockquote>
<p>こんな風になった。多分これでリビルド（？）してるんだろう。（とHDDのアクセスランプを見に行く）</p>
<p>raidz3だったら同時に2台目も入れ替えても大丈夫だろうけど、<del>若い頃だったら多分突っ走ってやってただろうけど大人になった今は</del>そういう危ない事はやらない。</p>
<p>で、後はda4をzbackupに復帰させてみる。</p>
<blockquote><p># zpool online zbackup da4</p>
<p># zpool status<br />
pool: zbackup<br />
state: ONLINE<br />
status: One or more devices is currently being resilvered. The pool will<br />
continue to function, possibly in a degraded state.<br />
action: Wait for the resilver to complete.<br />
scan: resilver in progress since Sun Dec 30 22:36:02 2018<br />
870M scanned out of 12.5T at 39.5M/s, 92h25m to go<br />
197M resilvered, 0.01% done<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zbackup ONLINE 0 0 0<br />
raidz1-0 ONLINE 0 0 0<br />
da3 ONLINE 0 0 0<br />
da4 ONLINE 0 0 0<br />
da5 ONLINE 0 0 0<br />
da0 ONLINE 0 0 0</p>
<p>errors: No known data errors</p>
<p>pool: zdata<br />
state: DEGRADED<br />
status: One or more devices is currently being resilvered. The pool will<br />
continue to function, possibly in a degraded state.<br />
action: Wait for the resilver to complete.<br />
scan: resilver in progress since Sun Dec 30 22:24:04 2018<br />
57.1G scanned out of 19.5T at 79.0M/s, 71h33m to go<br />
11.4G resilvered, 0.29% done<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zdata DEGRADED 0 0 0<br />
raidz3-0 DEGRADED 0 0 0<br />
da6 ONLINE 0 0 0<br />
da7 ONLINE 0 0 0<br />
da8 ONLINE 0 0 0<br />
replacing-3 DEGRADED 0 0 0<br />
7675701080755519488 OFFLINE 0 0 0 was /dev/da4<br />
da2 ONLINE 0 0 0<br />
da1 ONLINE 0 0 0</p>
<p>errors: No known data errors</p>
<p>pool: zroot<br />
state: ONLINE<br />
status: Some supported features are not enabled on the pool. The pool can<br />
still be used, but some features are unavailable.<br />
action: Enable all features using &#8216;zpool upgrade&#8217;. Once this is done,<br />
the pool may no longer be accessible by software that does not support<br />
the features. See zpool-features(7) for details.<br />
scan: none requested<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zroot ONLINE 0 0 0<br />
ada0p4 ONLINE 0 0 0</p>
<p>errors: No known data errors</p></blockquote>
<p>両方合わせて70時間ぐらい待ってれば良いっぽい。</p>
<p>という訳で今年の作業終了～。ふー</p>
<hr />
<p>2019/1/3追記。</p>
<p>ビルドが終わったようなので、14TBのHDD2台目を行ってみる。</p>
<blockquote><p># zpool replace zdata da1 da9</p>
<p># zpool status zdata<br />
pool: zdata<br />
state: ONLINE<br />
status: One or more devices is currently being resilvered. The pool will<br />
continue to function, possibly in a degraded state.<br />
action: Wait for the resilver to complete.<br />
scan: resilver in progress since Thu Jan 3 05:56:07 2019<br />
66.1M scanned out of 19.5T at 2.00M/s, (scan is slow, no estimated time)<br />
12.6M resilvered, 0.00% done<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zdata ONLINE 0 0 0<br />
raidz3-0 ONLINE 0 0 0<br />
da6 ONLINE 0 0 0<br />
da7 ONLINE 0 0 0<br />
da8 ONLINE 0 0 0<br />
da2 ONLINE 0 0 0<br />
replacing-4 ONLINE 0 0 0<br />
da1 ONLINE 0 0 0<br />
da9 ONLINE 0 0 0</p>
<p>errors: No known data errors</p></blockquote>
<p>よーし、これでまたリビルド待ち。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://kemanai.jp/2018/12/30/freebsd-zpool%e3%82%b9%e3%83%88%e3%83%ac%e3%83%bc%e3%82%b8%e3%81%ae%e3%81%82%e3%82%8c%e3%81%93%e3%82%8ctips%ef%bc%88%e4%bd%9c%e6%a5%ad%e3%83%a1%e3%83%a2%ef%bc%89/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Windows Tips のメモ</title>
		<link>https://kemanai.jp/2018/07/12/windows-tips-%e3%81%ae%e3%83%a1%e3%83%a2/</link>
					<comments>https://kemanai.jp/2018/07/12/windows-tips-%e3%81%ae%e3%83%a1%e3%83%a2/#respond</comments>
		
		<dc:creator><![CDATA[kema]]></dc:creator>
		<pubDate>Thu, 12 Jul 2018 10:54:04 +0000</pubDate>
				<category><![CDATA[趣味]]></category>
		<category><![CDATA[コンピュータ]]></category>
		<guid isPermaLink="false">http://wp.khz-net.co.jp/?p=2522</guid>

					<description><![CDATA[複数のユーザのホームフォルダ名が「ドキュメント」となってしまい、どれが誰のホームフォルダか分からなくなってしまうのは、各ユーザフォルダ内にあるdesktop.iniのせい。こんな時にdesktop.iniを一括削除するコ &#8230; <a href="https://kemanai.jp/2018/07/12/windows-tips-%e3%81%ae%e3%83%a1%e3%83%a2/" class="more-link">続きを読む <span class="screen-reader-text">Windows Tips のメモ</span> <span class="meta-nav">&#8594;</span></a>]]></description>
										<content:encoded><![CDATA[<p>複数のユーザのホームフォルダ名が「ドキュメント」となってしまい、どれが誰のホームフォルダか分からなくなってしまうのは、各ユーザフォルダ内にあるdesktop.iniのせい。こんな時にdesktop.iniを一括削除するコマンド。</p>
<blockquote><p>del x:\*desktop.ini /f /s /a:h　（x:\は削除したいディレクトリ）</p></blockquote>
<p>&nbsp;</p>
]]></content:encoded>
					
					<wfw:commentRss>https://kemanai.jp/2018/07/12/windows-tips-%e3%81%ae%e3%83%a1%e3%83%a2/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>最近sambaサーバに繋がったり繋がらなかったりしていた件</title>
		<link>https://kemanai.jp/2018/06/10/%e6%9c%80%e8%bf%91%e6%80%a5%e3%81%absamba%e3%82%b5%e3%83%bc%e3%83%90%e3%81%ab%e7%b9%8b%e3%81%8c%e3%81%a3%e3%81%9f%e3%82%8a%e7%b9%8b%e3%81%8c%e3%82%89%e3%81%aa%e3%81%8b%e3%81%a3%e3%81%9f%e3%82%8a/</link>
					<comments>https://kemanai.jp/2018/06/10/%e6%9c%80%e8%bf%91%e6%80%a5%e3%81%absamba%e3%82%b5%e3%83%bc%e3%83%90%e3%81%ab%e7%b9%8b%e3%81%8c%e3%81%a3%e3%81%9f%e3%82%8a%e7%b9%8b%e3%81%8c%e3%82%89%e3%81%aa%e3%81%8b%e3%81%a3%e3%81%9f%e3%82%8a/#respond</comments>
		
		<dc:creator><![CDATA[kema]]></dc:creator>
		<pubDate>Sun, 10 Jun 2018 13:57:24 +0000</pubDate>
				<category><![CDATA[日記・雑記]]></category>
		<category><![CDATA[コンピュータ]]></category>
		<category><![CDATA[FreeBSD]]></category>
		<category><![CDATA[samba]]></category>
		<category><![CDATA[サーバ管理]]></category>
		<guid isPermaLink="false">http://wp.khz-net.co.jp/?p=2502</guid>

					<description><![CDATA[先週頭に風邪を引いてしまい、この一週間、欠勤することができない仕事（学校の授業）以外は寝込んでました。授業の仕事も帰って速攻寝てましたが。 さて、最近何故か某所から某所へのsambaアクセスが繋がったり繋がらなかったりす &#8230; <a href="https://kemanai.jp/2018/06/10/%e6%9c%80%e8%bf%91%e6%80%a5%e3%81%absamba%e3%82%b5%e3%83%bc%e3%83%90%e3%81%ab%e7%b9%8b%e3%81%8c%e3%81%a3%e3%81%9f%e3%82%8a%e7%b9%8b%e3%81%8c%e3%82%89%e3%81%aa%e3%81%8b%e3%81%a3%e3%81%9f%e3%82%8a/" class="more-link">続きを読む <span class="screen-reader-text">最近sambaサーバに繋がったり繋がらなかったりしていた件</span> <span class="meta-nav">&#8594;</span></a>]]></description>
										<content:encoded><![CDATA[<p>先週頭に風邪を引いてしまい、この一週間、欠勤することができない仕事（学校の授業）以外は寝込んでました。授業の仕事も帰って速攻寝てましたが。</p>
<p>さて、最近何故か某所から某所へのsambaアクセスが繋がったり繋がらなかったりする事例が発生していました。VPN越しなのでVPNの問題か？と思いpingやtracerouteをしても、経路は問題無さそう。サーバ側からトレースすると到達するけどsamba歯繋がらなかったりと、訳の分からない挙動にしばらく悩まされていました。</p>
<p>で、先程原因が分かってようやく解決に至りました。原因は、パケットフィルタリングで</p>
<p>pass in quick on $int_if proto tcp from &lt;lan&gt; port 1024:65535 to $samba_ip port {20,21,110,139,445,49152:65535}</p>
<p>というルールを定めていたのが理由でしたわ。これまでは、Windowsファイル共有サービスのアクセス元ポートが1024～65535を使ってくれていたのが、最近特権ポートを使ってくれていて、それが元で切られていたという。</p>
<p>うーん。こういうWindows側の仕様変更？ってあるんですかね。良く分からん。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://kemanai.jp/2018/06/10/%e6%9c%80%e8%bf%91%e6%80%a5%e3%81%absamba%e3%82%b5%e3%83%bc%e3%83%90%e3%81%ab%e7%b9%8b%e3%81%8c%e3%81%a3%e3%81%9f%e3%82%8a%e7%b9%8b%e3%81%8c%e3%82%89%e3%81%aa%e3%81%8b%e3%81%a3%e3%81%9f%e3%82%8a/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>サーバ更新準備</title>
		<link>https://kemanai.jp/2017/03/26/%e3%82%b5%e3%83%bc%e3%83%90%e6%9b%b4%e6%96%b0%e6%ba%96%e5%82%99/</link>
					<comments>https://kemanai.jp/2017/03/26/%e3%82%b5%e3%83%bc%e3%83%90%e6%9b%b4%e6%96%b0%e6%ba%96%e5%82%99/#respond</comments>
		
		<dc:creator><![CDATA[kema]]></dc:creator>
		<pubDate>Sat, 25 Mar 2017 15:15:29 +0000</pubDate>
				<category><![CDATA[サーバ管理]]></category>
		<category><![CDATA[FreeBSD]]></category>
		<category><![CDATA[趣味]]></category>
		<category><![CDATA[コンピュータ]]></category>
		<category><![CDATA[サーバ構築]]></category>
		<guid isPermaLink="false">http://wp.khz-net.co.jp/?p=987</guid>

					<description><![CDATA[最近このブログ(WordPress)なども稼働させているため過負荷気味のサーバですが、OSもいつの間にかObsoleteになって久しいし、ここいらでOSも含めて更新しようと思い立ったのでその記録。 まず、FreeBSD1 &#8230; <a href="https://kemanai.jp/2017/03/26/%e3%82%b5%e3%83%bc%e3%83%90%e6%9b%b4%e6%96%b0%e6%ba%96%e5%82%99/" class="more-link">続きを読む <span class="screen-reader-text">サーバ更新準備</span> <span class="meta-nav">&#8594;</span></a>]]></description>
										<content:encoded><![CDATA[<p>最近このブログ(WordPress)なども稼働させているため過負荷気味のサーバですが、OSもいつの間にかObsoleteになって久しいし、ここいらでOSも含めて更新しようと思い立ったのでその記録。</p>
<p>まず、FreeBSD11.0Rをインストール。</p>
<p>1TBのSSDを持ってきてzfsにしてみた。zfsは扱ったことが無いので、これから慣れていかんとなぁ。</p>
<blockquote><p>freebsd-update fetch</p>
<p>freebsd-update install</p></blockquote>
<p>でパッチ当て。</p>
<p>/usr/src/以下でmake worldをかまし、make install INSTALLDIR=ごにょごにょとやってjailを構築。</p>
<p>その辺までは良いとして、いよいよjail環境の構築。</p>
<p>従来のように、/etc/rc.confにjailなんちゃらを書き込むのはもうobsoleteだよ！と怒られる。じゃあどうすれば良いかというと、/etc/jail.confに書く。</p>
<p>/etc/jail.confの書式は以前とは違うので注意。man jail.conf する。こんな感じ。</p>
<blockquote><p># cat /etc/jail.conf<br />
exec.start = &#8220;/bin/sh /etc/rc&#8221;;<br />
exec.stop = &#8220;/bin/sh /etc/rc.shutdown&#8221;;<br />
exec.clean;<br />
mount.devfs;<br />
path = &#8220;/home/jail/$name&#8221;;<br />
host.hostname = $name;</p>
<p># each jail<br />
khz {<br />
ip4.addr = 10.100.100.71,192.168.0.71,10.100.100.72,192.168.0.72,10.100.100.73,192.168.0.73,10.100.100.75,192.168.0.75 ;<br />
allow.chflags;<br />
allow.raw_sockets;<br />
}<br />
kemasv {<br />
ip4.addr =10.100.100.10,192.168.0.10 ;<br />
allow.chflags;<br />
allow.raw_sockets;<br />
}</p></blockquote>
<p>&nbsp;</p>
<p>今までは、apacheにしろsambaにしろ、基本的には全てソースからコンパイルしていたけれども、依存関係だの何だのでなかなか入らない。</p>
<p>portsを使ってみたところ、まあまあ動くんだけど、やっぱり動かないものもある。</p>
<p>って訳でpkgに戻ってきましたよ、っと</p>
<blockquote><p>pkg update</p>
<p>pkg install samba44</p></blockquote>
<p>おおお、ちゃんとsambaが入る(笑)。</p>
<p>起動スクリプトとか設定ファイルの在処がアレだったりするけど、まあ長い旅をしてここに戻ってきたということで良いんじゃないでしょーか。</p>
<p>パッケージを探すときは</p>
<blockquote><p>pkg search apache</p></blockquote>
<p>みたいにやればいい。</p>
<p>続く。かも。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://kemanai.jp/2017/03/26/%e3%82%b5%e3%83%bc%e3%83%90%e6%9b%b4%e6%96%b0%e6%ba%96%e5%82%99/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>EeePC1000HAにWindows10を入れてみた</title>
		<link>https://kemanai.jp/2017/02/27/eeepc1000ha%e3%81%abwindows10%e3%82%92%e5%85%a5%e3%82%8c%e3%81%a6%e3%81%bf%e3%81%9f/</link>
					<comments>https://kemanai.jp/2017/02/27/eeepc1000ha%e3%81%abwindows10%e3%82%92%e5%85%a5%e3%82%8c%e3%81%a6%e3%81%bf%e3%81%9f/#respond</comments>
		
		<dc:creator><![CDATA[kema]]></dc:creator>
		<pubDate>Mon, 27 Feb 2017 11:01:40 +0000</pubDate>
				<category><![CDATA[perseus]]></category>
		<category><![CDATA[趣味]]></category>
		<category><![CDATA[コンピュータ]]></category>
		<category><![CDATA[無線]]></category>
		<category><![CDATA[Perseus]]></category>
		<category><![CDATA[サーバ管理]]></category>
		<guid isPermaLink="false">http://wp.khz-net.co.jp/?p=421</guid>

					<description><![CDATA[radikoolの録音用マシンとして、ジャンクとして放り出してあったEeePCの1000HAに512GBのSSDを入れてインストールしてみました。 N270に2GBのRAMですが、意外にちゃんと動作しています。あとは放置 &#8230; <a href="https://kemanai.jp/2017/02/27/eeepc1000ha%e3%81%abwindows10%e3%82%92%e5%85%a5%e3%82%8c%e3%81%a6%e3%81%bf%e3%81%9f/" class="more-link">続きを読む <span class="screen-reader-text">EeePC1000HAにWindows10を入れてみた</span> <span class="meta-nav">&#8594;</span></a>]]></description>
										<content:encoded><![CDATA[<p>radikoolの録音用マシンとして、ジャンクとして放り出してあったEeePCの1000HAに512GBのSSDを入れてインストールしてみました。</p>
<p>N270に2GBのRAMですが、意外にちゃんと動作しています。あとは放置して様子を見るのみ。</p>
<p>この他、ペルセウスサーバ専用にノートパソコンを一台動かしているんですが、これもEeePC701で動くだろうか？後で試してみます。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://kemanai.jp/2017/02/27/eeepc1000ha%e3%81%abwindows10%e3%82%92%e5%85%a5%e3%82%8c%e3%81%a6%e3%81%bf%e3%81%9f/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>FreeBSDでqmail+imapサーバ構築</title>
		<link>https://kemanai.jp/2017/02/26/freebsd%e3%81%a7qmailimap%e3%82%b5%e3%83%bc%e3%83%90%e6%a7%8b%e7%af%89/</link>
		
		<dc:creator><![CDATA[kema]]></dc:creator>
		<pubDate>Sun, 26 Feb 2017 10:06:37 +0000</pubDate>
				<category><![CDATA[仕事]]></category>
		<category><![CDATA[dovecot]]></category>
		<category><![CDATA[qmail]]></category>
		<category><![CDATA[サーバ管理]]></category>
		<category><![CDATA[FreeBSD]]></category>
		<category><![CDATA[趣味]]></category>
		<category><![CDATA[コンピュータ]]></category>
		<guid isPermaLink="false">http://wp.khz-net.co.jp/?p=401</guid>

					<description><![CDATA[FreeBSDサーバでimapを使えるようにしたメモ。 imapデーモンとしてソースからコンパイルしてcourier-imapをソースからインストールしようとしてもどうしても上手くいかず、Makefileや各種ライブラリ &#8230; <a href="https://kemanai.jp/2017/02/26/freebsd%e3%81%a7qmailimap%e3%82%b5%e3%83%bc%e3%83%90%e6%a7%8b%e7%af%89/" class="more-link">続きを読む <span class="screen-reader-text">FreeBSDでqmail+imapサーバ構築</span> <span class="meta-nav">&#8594;</span></a>]]></description>
										<content:encoded><![CDATA[<p>FreeBSDサーバでimapを使えるようにしたメモ。</p>
<p>imapデーモンとしてソースからコンパイルしてcourier-imapをソースからインストールしようとしてもどうしても上手くいかず、Makefileや各種ライブラリなどを調整してもダメだったので放置していました。</p>
<p>ところが、ある日調べてみると、昨今のimapデーモンはdovecotってのが流行りだとか。それを見てdovecotを入れて上手く行ってるのでそのメモ。</p>
<p><a href="https://www.dovecot.org/" target="_blank" rel="noopener">https://www.dovecot.org/</a></p>
<p>ソースを取得してコンパイル。普通にconfigure、make、make installで行くはず。</p>
<p>smtp-authは、qmail-smtpd-authパッチを当てるけど、このとき64bitパッチを当てていると上手く行かないので、</p>
<ol>
<li>64bitパッチ等を当ててまずは普通にqmailのインストール</li>
<li>別途新たに展開したソースにsmtpauthパッチを当ててコンパイルし、qmail-smtpdのバイナリだけを取り出して別途保存</li>
</ol>
<p>でqmail本体もsmtpauthも上手く行くはずです。</p>
<p>dovecotの設定ファイルは、</p>
<ul>
<li>/usr/local/etc/dovecot/dovecot.conf</li>
<li>/usr/local/etc/dovecot/conf.d/10-auth.conf</li>
<li>/usr/local/etc/dovecot/conf.d/10-mail.conf</li>
<li>/usr/local/etc/dovecot/conf.d/10-master.conf</li>
<li>/usr/local/etc/dovecot/conf.d/auth-checkpassword.conf.ext</li>
</ul>
<p>あたり。とりあえずcheckpassword経由の認証にしてあります。(多分これで十分)</p>
<p>動かなかったら、ログを見ながら調整してください。確か権限か何かを調整した覚えがあります(うろ覚え)が、少々の試行錯誤で動くようにはなるはずです。</p>
<p>imapデーモンを入れてからというもの、メールの読み書きが<span style="color: #ff0000;">もんのすごく便利</span>になり、もうpop3には戻れませんて。はい。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>uptime</title>
		<link>https://kemanai.jp/2017/02/26/uptime/</link>
					<comments>https://kemanai.jp/2017/02/26/uptime/#respond</comments>
		
		<dc:creator><![CDATA[kema]]></dc:creator>
		<pubDate>Sat, 25 Feb 2017 17:13:33 +0000</pubDate>
				<category><![CDATA[仕事]]></category>
		<category><![CDATA[サーバ管理]]></category>
		<category><![CDATA[FreeBSD]]></category>
		<category><![CDATA[趣味]]></category>
		<category><![CDATA[コンピュータ]]></category>
		<guid isPermaLink="false">http://wp.khz-net.co.jp/?p=381</guid>

					<description><![CDATA[今管理しているサーバは、年に1度の設備点検時に電源を落としたり、ストレージのHDDを更新したりするため1年以上連続稼働する事は少ない(ほとんど無い)んだけど、ずっと前に保守契約が打ち切られたまま放置している某所のサーバが &#8230; <a href="https://kemanai.jp/2017/02/26/uptime/" class="more-link">続きを読む <span class="screen-reader-text">uptime</span> <span class="meta-nav">&#8594;</span></a>]]></description>
										<content:encoded><![CDATA[<p>今管理しているサーバは、年に1度の設備点検時に電源を落としたり、ストレージのHDDを更新したりするため1年以上連続稼働する事は少ない(ほとんど無い)んだけど、ずっと前に保守契約が打ち切られたまま放置している某所のサーバがあるのを思い出してログインしてみた。</p>
<p>&gt;uptime<br />
1:49AM up 715 days, 15:14, 1 user, load averages: 1.00, 1.00, 1.00</p>
<p>おおお！まだ動いてる(笑)。</p>
<p>なんかこのまま放っとけばuptimeが1000日超えそうだわ。</p>
<p>&gt;uname -a<br />
FreeBSD (略) 8.3-RELEASE FreeBSD 8.3-RELEASE #0: Fri Oct 26 23:28:24 JST 2012 root@(略):/usr/home/src/sys/i386/compile/USB i386</p>
<p>そっかー、8.3か(遠い目)</p>
]]></content:encoded>
					
					<wfw:commentRss>https://kemanai.jp/2017/02/26/uptime/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>自分のグローバルIPアドレスを知る方法</title>
		<link>https://kemanai.jp/2017/02/26/%e8%87%aa%e5%88%86%e3%81%ae%e3%82%b0%e3%83%ad%e3%83%bc%e3%83%90%e3%83%abip%e3%82%a2%e3%83%89%e3%83%ac%e3%82%b9%e3%82%92%e7%9f%a5%e3%82%8b%e6%96%b9%e6%b3%95/</link>
					<comments>https://kemanai.jp/2017/02/26/%e8%87%aa%e5%88%86%e3%81%ae%e3%82%b0%e3%83%ad%e3%83%bc%e3%83%90%e3%83%abip%e3%82%a2%e3%83%89%e3%83%ac%e3%82%b9%e3%82%92%e7%9f%a5%e3%82%8b%e6%96%b9%e6%b3%95/#comments</comments>
		
		<dc:creator><![CDATA[kema]]></dc:creator>
		<pubDate>Sat, 25 Feb 2017 16:30:26 +0000</pubDate>
				<category><![CDATA[仕事]]></category>
		<category><![CDATA[サーバ管理]]></category>
		<category><![CDATA[FreeBSD]]></category>
		<category><![CDATA[趣味]]></category>
		<category><![CDATA[コンピュータ]]></category>
		<guid isPermaLink="false">http://wp.khz-net.co.jp/?p=370</guid>

					<description><![CDATA[モバイル環境やNAT内からのアクセスなどで、自分が今インターネットにアクセスしているグローバルIPアドレスを知りたいことがあります。そんな時のためにスクリプトを作ってみました。(というか、5年以上前からこっそり動かしてい &#8230; <a href="https://kemanai.jp/2017/02/26/%e8%87%aa%e5%88%86%e3%81%ae%e3%82%b0%e3%83%ad%e3%83%bc%e3%83%90%e3%83%abip%e3%82%a2%e3%83%89%e3%83%ac%e3%82%b9%e3%82%92%e7%9f%a5%e3%82%8b%e6%96%b9%e6%b3%95/" class="more-link">続きを読む <span class="screen-reader-text">自分のグローバルIPアドレスを知る方法</span> <span class="meta-nav">&#8594;</span></a>]]></description>
										<content:encoded><![CDATA[<p>モバイル環境やNAT内からのアクセスなどで、自分が今インターネットにアクセスしているグローバルIPアドレスを知りたいことがあります。そんな時のためにスクリプトを作ってみました。(というか、5年以上前からこっそり動かしているんだけど)</p>
<p><a href="http://ipaddress.khz-net.co.jp/">http://ipaddress.khz-net.co.jp/</a></p>
<p>アクセスすると、HTMLなど一切無しでIPアドレスだけを吐き出します。従って、PHPなんかのスクリプトからアクセスしてIPアドレスを取得するとき、タグ除去などの面倒な作業が一切不要で便利かと思います。…というか、仕事上そういう必要性があったから自分用に作っただけなんだけどね。</p>
<p>使いたい方はご自由にどうぞ。もちろん、結果や正常動作については一切無保証です。過剰にアクセス負荷を掛けたりしないでね。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://kemanai.jp/2017/02/26/%e8%87%aa%e5%88%86%e3%81%ae%e3%82%b0%e3%83%ad%e3%83%bc%e3%83%90%e3%83%abip%e3%82%a2%e3%83%89%e3%83%ac%e3%82%b9%e3%82%92%e7%9f%a5%e3%82%8b%e6%96%b9%e6%b3%95/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
	</channel>
</rss>
