<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>趣味 &#8211; kema&#039;s Homepage</title>
	<atom:link href="https://kemanai.jp/category/%E8%B6%A3%E5%91%B3/feed/" rel="self" type="application/rss+xml" />
	<link>https://kemanai.jp</link>
	<description>kemaの雑記置き場</description>
	<lastBuildDate>Tue, 07 Jan 2025 08:19:04 +0000</lastBuildDate>
	<language>ja</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9</generator>
	<item>
		<title>アマチュア無線に関する備忘録</title>
		<link>https://kemanai.jp/2025/01/07/%e3%82%a2%e3%83%9e%e3%83%81%e3%83%a5%e3%82%a2%e7%84%a1%e7%b7%9a%e3%81%ab%e9%96%a2%e3%81%99%e3%82%8b%e5%82%99%e5%bf%98%e9%8c%b2/</link>
		
		<dc:creator><![CDATA[kema]]></dc:creator>
		<pubDate>Tue, 07 Jan 2025 08:19:04 +0000</pubDate>
				<category><![CDATA[アマチュア無線]]></category>
		<category><![CDATA[JL1XEU]]></category>
		<guid isPermaLink="false">https://kemanai.jp/?p=4634</guid>

					<description><![CDATA[1989年、中学3年の頃にアマチュア無線局を開局してから36年になります。最もアクティブにオンエアしていたのは高校の頃で、JARLのコンテストで入賞したりする程のめり込んでいましたが、色々な現実を目の当たりにして大いに幻 &#8230; <a href="https://kemanai.jp/2025/01/07/%e3%82%a2%e3%83%9e%e3%83%81%e3%83%a5%e3%82%a2%e7%84%a1%e7%b7%9a%e3%81%ab%e9%96%a2%e3%81%99%e3%82%8b%e5%82%99%e5%bf%98%e9%8c%b2/" class="more-link">続きを読む <span class="screen-reader-text">アマチュア無線に関する備忘録</span> <span class="meta-nav">&#8594;</span></a>]]></description>
										<content:encoded><![CDATA[
<p>1989年、中学3年の頃にアマチュア無線局を開局してから36年になります。最もアクティブにオンエアしていたのは高校の頃で、JARLのコンテストで入賞したりする程のめり込んでいましたが、色々な現実を目の当たりにして大いに幻滅したり、あるいは自分の身から出た錆で辛い思いをしたりしているうちにアクティビティが下がってしまいました。一時は局面を切らしてしまう程だったのですが、思い直して再開局し、コールサインだけは残してあります。とりあえず備忘録として、放っとけば忘れてしまう内容を残しておきます。</p>



<h2 class="wp-block-heading">固定局免許</h2>



<ul class="wp-block-list">
<li>R4.1.14～R9.1.13まで有効</li>



<li>1.9MHz～50MHz：100W</li>



<li>144MHz：50W</li>



<li>430MHz：20W</li>



<li>第1送信機：FT-897（IC-7100への変更申請中）</li>
</ul>



<h2 class="wp-block-heading">移動局免許</h2>



<ul class="wp-block-list">
<li>R4.11.28～R9.11.27まで有効</li>



<li>1.9MHz～144MHz：50W</li>



<li>430MHz：20W</li>



<li>1200MHz：10W</li>



<li>第？送信機：FT-857DM</li>



<li>第？送信機：FT-817</li>



<li>第？送信機：VX-3</li>



<li>第？送信機：VX-7</li>



<li>第？送信機：VX-8</li>



<li>第？送信機：C701</li>



<li>第？送信機：TH-F7</li>



<li>第？送信機：TH-D74</li>



<li>第？送信機：IC7100M</li>
</ul>



<p>移動局の工事設計、どこかに記録を残した覚えがあるのですが、未発見につき…引き続き探してみます</p>



<p></p>



<p></p>



<p></p>



<p></p>



<p></p>



<p></p>



<p></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>サーバクラッシュ顛末。</title>
		<link>https://kemanai.jp/2019/02/25/%e3%82%b5%e3%83%bc%e3%83%90%e3%82%af%e3%83%a9%e3%83%83%e3%82%b7%e3%83%a5%e9%a1%9b%e6%9c%ab%e3%80%82/</link>
					<comments>https://kemanai.jp/2019/02/25/%e3%82%b5%e3%83%bc%e3%83%90%e3%82%af%e3%83%a9%e3%83%83%e3%82%b7%e3%83%a5%e9%a1%9b%e6%9c%ab%e3%80%82/#respond</comments>
		
		<dc:creator><![CDATA[kema]]></dc:creator>
		<pubDate>Mon, 25 Feb 2019 04:20:28 +0000</pubDate>
				<category><![CDATA[仕事]]></category>
		<category><![CDATA[サーバ管理]]></category>
		<category><![CDATA[FreeBSD]]></category>
		<category><![CDATA[日記・雑記]]></category>
		<category><![CDATA[趣味]]></category>
		<category><![CDATA[コンピュータ]]></category>
		<category><![CDATA[HPE ProLiant MicroServer Gen10]]></category>
		<category><![CDATA[zfs]]></category>
		<category><![CDATA[zfs:zroot/ROOT/default failed with error 2: unknown file system]]></category>
		<category><![CDATA[クラッシュ]]></category>
		<guid isPermaLink="false">http://kemanai.jp/?p=3019</guid>

					<description><![CDATA[先週月曜日、サーバをクラッシュさせてしまい、この一週間復旧作業をしておりました。ようやく安定してきたので、自戒を込めて顛末を記しておきます。 サーバのクラッシュと言えば、ハードディスクが㌧だ、なんてのが定番ですが、今回は &#8230; <a href="https://kemanai.jp/2019/02/25/%e3%82%b5%e3%83%bc%e3%83%90%e3%82%af%e3%83%a9%e3%83%83%e3%82%b7%e3%83%a5%e9%a1%9b%e6%9c%ab%e3%80%82/" class="more-link">続きを読む <span class="screen-reader-text">サーバクラッシュ顛末。</span> <span class="meta-nav">&#8594;</span></a>]]></description>
										<content:encoded><![CDATA[<p>先週月曜日、サーバをクラッシュさせてしまい、この一週間復旧作業をしておりました。ようやく安定してきたので、自戒を込めて顛末を記しておきます。</p>
<p>サーバのクラッシュと言えば、ハードディスクが㌧だ、なんてのが定番ですが、今回は完全に自分のオペミス。こういう事が今後起こらないように…。</p>
<ul>
<li>起</li>
</ul>
<p>某所の重要サーバがそろそろ劣化してきたので、更新のために<a href="https://www.hpe.com/jp/ja/product-catalog/servers/proliant-servers/pip.hpe-proliant-microserver-gen10.1009955118.html">HPEのmicroserver Gen10</a>を購入したのが事の始まり。もっとも、その前にTM200を買って外部向けサーバとして構築していたのもあり、その流れでmicroserverを目が向いたという流れもあったりします。このとき、「microserver Gen10 いいじゃん？俺も家でこれ使おう」と思ったわけです。</p>
<p>これまで、サーバ専用機ではなく、ある時はノートパソコン、ある時はコンパクトPC、ある時はベアボーンキットと色々な構成を試した結果、<span style="color: #ff0000;">やっぱりサーバ専用機として売ってる機械が良いよね</span>という(当たり前の)結論に至った訳です。ファイルサーバとして大容量のストレージを組むのにzfsを使っていますが、10台収容の裸族タワーをUSBで接続して変なエラーに悩まされたり(←失笑千万だね)と、あえてわざわざ荊の道を歩むのもそろそろ疲れたという理由もあります。</p>
<p>TM200はディスクが2台しか入らないのに対して、microserverはHDD4台収容＋SSDという構成が取れるのも魅力でした。</p>
<ul>
<li>承</li>
</ul>
<p><a href="https://www.google.co.jp/search?source=hp&amp;ei=QltzXMq3H6O1mAWol42QAw&amp;q=microserver+gen10+samba&amp;oq=MicroServer+Gen10&amp;gs_l=psy-ab.1.1.35i39l2j0l6.486.486..2383...0.0..0.133.230.1j1......0....2j1..gws-wiz.....0.102qupGo0uU">microserver gen10 sambaでググって</a>みると、何やら<a href="https://blog.naotaco.com/archives/782">暗雲立ち込める記事</a>を発見。まぁ、俺が使っているのはFreeBSDだし、何とかなるべ？と思ってHPEのサイトでポチッとな。そして機材が届いたのが先週の月曜日なのでありました。</p>
<p>その日は丸一日仕事を終えてかなり疲れて帰ってきた日。もっと落ち着いたときに作業すればいいものを、オモチャを買ってもらった子供が我慢できずに開けて怒られるのと同じ。そう、<span style="color: #ff0000;"><strong>小学校の理科の時間に乾電池と豆電球の実験で教材を配られて、先生が「まだ駄目」というのに我慢できずに開封して怒られたあの日。秋葉原で部品を買ってもらい、我慢できずに帰りの電車の中で袋を開けて眺めたあの頃。何十年経っても自分は変わっていないのだ</strong></span>ということを再認識させられたのです。</p>
<p>★教訓：<strong><span style="color: #ff0000;">重要な仕事は手順を踏んで万が一に備えてから。後悔しても遅い</span></strong>。★</p>
<p>我慢できない私は、現在稼働中のサーバをおもむろに止め、現在稼働中のSSDを取り出し、新鯖にマウントして電源を入れたのでした。このとき、「<a href="https://bugs.freebsd.org/bugzilla/show_bug.cgi?id=221350">microserver gen10は癖があってしんどいよ～、気を付けないとダメだよ…</a>」というのを某所の鯖でさんざん体験して何とか動作にこぎつけた経験が、頭の中で赤信号を点灯させているのは感じつつ…。</p>
<p>★教訓：後悔先に立たず。昔の人は偉い。その通りだ。★</p>
<ul>
<li>転</li>
</ul>
<p>おもむろに電源を入れてOSが起動した…と思ったものの、ブート途中でハングアップ。CTRL-ALT-DELも効かず。仕方ないので電源ボタンをポチッとな…そんな事を数回繰り返し、「やっぱり後で落ち着いてやった方が良いね」と気付いたのだが時すでに遅かったのはその時気付いていなかった。</p>
<p>さて、渦中のSSDを元のマシンに戻して起動。</p>
<p>&nbsp;</p>
<blockquote>
<h1>zfs:zroot/ROOT/default failed with error 2: unknown file system</h1>
</blockquote>
<p>ブートしない。┌|ﾟ□ﾟ;|┐ガーソ！</p>
<p>&nbsp;</p>
<p>もちろん、長い経験のうちにブート途中で止まってしまうなんてことは何度も経験していたので、シングルユーザモードで起動してゴニョゴニョしたりとか、別の領域からマウントしてfsckするとか、それなりには経験したことがあったのだけど、今回のヤバいことはzfsが壊れて復旧できないという事態。</p>
<p>そう、ufsであれば何とかなったのに、zfsをシステム領域にしてそれが壊れるのは初体験。ググってみると、別のシステムでzpool importとかやってみると良いよ！って事なので、その日は<a href="https://www.yodobashi.com/product/100000001003793464/">ヨドバシ・ドット・コムでSSDを発注</a>し、次の日に繰り越すのでした。</p>
<p>次の日。つまり先週の火曜日。午前中出勤で、その際にFreeBSD12.0Rのインストールメディアを作って帰宅。嬉しいことにもうSSDが届いてる！</p>
<p>という訳で、FreeBSD12.0Rをインスコし、そこに旧SSDをマウントしてzpool importして…おや、出来ないぞ。なになに-fオプションで強制的にインポートか。</p>
<p>&nbsp;</p>
<p>…できないorz</p>
<p>&nbsp;</p>
<p>っちゅうーわけで、どうやら一筋縄ではいかないことが判明。他方、メールも送受信できなければDNSすら引けない状況はまずいので、新たにインスコしたFreeBSD12.0Rにて環境再構築。ひたすら色々なデーモンをコンパイルだの、dns設定データの再編集だの、ローカルPCに残っていたメールデータを退避させてからの新鯖へのインポートなど、それはそれは大変な作業に週一杯掛かっていたのでした。</p>
<ul>
<li>結</li>
</ul>
<ol>
<li>現在実稼働していて、万が一にも㌧だらまずいディスクで危険なことはしない。</li>
<li>バックアップはちゃんと取る。</li>
<li>疲れた時に大切な仕事をしない。</li>
</ol>
<p>等々。どれも昔っから言われてることじゃん！下手したら論語にも書いてありそうなレベル。</p>
<p>&nbsp;</p>
<p>子曰わく、疲労時に重要な作業をすることなかれ。</p>
<p>&nbsp;</p>
<p>合掌。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://kemanai.jp/2019/02/25/%e3%82%b5%e3%83%bc%e3%83%90%e3%82%af%e3%83%a9%e3%83%83%e3%82%b7%e3%83%a5%e9%a1%9b%e6%9c%ab%e3%80%82/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>FreeBSD12.0Rとzfsでsticky bitが無効である件</title>
		<link>https://kemanai.jp/2019/02/09/freebsd12-0r%e3%81%a8zfs%e3%81%a7sticky-bit%e3%81%8c%e7%84%a1%e5%8a%b9%e3%81%a7%e3%81%82%e3%82%8b%e4%bb%b6/</link>
					<comments>https://kemanai.jp/2019/02/09/freebsd12-0r%e3%81%a8zfs%e3%81%a7sticky-bit%e3%81%8c%e7%84%a1%e5%8a%b9%e3%81%a7%e3%81%82%e3%82%8b%e4%bb%b6/#respond</comments>
		
		<dc:creator><![CDATA[kema]]></dc:creator>
		<pubDate>Fri, 08 Feb 2019 19:25:52 +0000</pubDate>
				<category><![CDATA[samba]]></category>
		<category><![CDATA[サーバ管理]]></category>
		<category><![CDATA[FreeBSD]]></category>
		<category><![CDATA[趣味]]></category>
		<category><![CDATA[コンピュータ]]></category>
		<category><![CDATA[sticky bit]]></category>
		<category><![CDATA[zfs]]></category>
		<category><![CDATA[共有フォルダ]]></category>
		<guid isPermaLink="false">http://kemanai.jp/?p=2977</guid>

					<description><![CDATA[某所のファイルサーバを更新するため、FreeBSD12.0-RELEASEとzfsを使ってsambaを動かす下準備をしていたのだけれど、 「メンバーの誰もが書き込めて、メンバーの誰もが読み出せて、しかしフォルダやファイル &#8230; <a href="https://kemanai.jp/2019/02/09/freebsd12-0r%e3%81%a8zfs%e3%81%a7sticky-bit%e3%81%8c%e7%84%a1%e5%8a%b9%e3%81%a7%e3%81%82%e3%82%8b%e4%bb%b6/" class="more-link">続きを読む <span class="screen-reader-text">FreeBSD12.0Rとzfsでsticky bitが無効である件</span> <span class="meta-nav">&#8594;</span></a>]]></description>
										<content:encoded><![CDATA[<p>某所のファイルサーバを更新するため、FreeBSD12.0-RELEASEとzfsを使ってsambaを動かす下準備をしていたのだけれど、</p>
<blockquote><p>「メンバーの誰もが書き込めて、メンバーの誰もが読み出せて、しかしフォルダやファイルの削除だけは作成者本人しか出来ない領域」</p></blockquote>
<p>を作ろうとしてもなかなか上手く行かない。</p>
<p>ああそうだ、こういう場合はディレクトリにsticky bitを立てるんだったなと思ってchmod 1777 sharedとかやっても、やっぱり他人にもファイルを削除できてしまう。</p>
<p>最初はsamba側の設定がおかしい(force user=誰々とかね）のかと思っていたけど、そうでもない。散々試行錯誤していたところ、zfsのACLの問題じゃないかと思い至った。</p>
<p><a href="https://lists.freebsd.org/pipermail/freebsd-stable/2014-July/079340.html" target="_blank" rel="noopener">https://lists.freebsd.org/pipermail/freebsd-stable/2014-July/079340.html</a></p>
<p>ｷﾀ――(ﾟ∀ﾟ)――!!　まさにこれですよ！</p>
<p>…なるほどね。従来のchmodじゃあダメなのね。(でも/tmp/はsticky bitが上手く動いてる気もするんだけどまあ気にしない）</p>
<p>という訳で、samba共有フォルダに対して↑のようにaclを設定してあげたら希望通りの動作になったような気がしています。(後方互換的にsticky bitが動作するようにしといて欲しいけどまあその辺りは色々と事情があるんでしょう)</p>
<p>以上、個人的( ..)φメモメモ</p>
]]></content:encoded>
					
					<wfw:commentRss>https://kemanai.jp/2019/02/09/freebsd12-0r%e3%81%a8zfs%e3%81%a7sticky-bit%e3%81%8c%e7%84%a1%e5%8a%b9%e3%81%a7%e3%81%82%e3%82%8b%e4%bb%b6/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>FreeBSD zpoolストレージのあれこれtips（作業メモ）</title>
		<link>https://kemanai.jp/2018/12/30/freebsd-zpool%e3%82%b9%e3%83%88%e3%83%ac%e3%83%bc%e3%82%b8%e3%81%ae%e3%81%82%e3%82%8c%e3%81%93%e3%82%8ctips%ef%bc%88%e4%bd%9c%e6%a5%ad%e3%83%a1%e3%83%a2%ef%bc%89/</link>
					<comments>https://kemanai.jp/2018/12/30/freebsd-zpool%e3%82%b9%e3%83%88%e3%83%ac%e3%83%bc%e3%82%b8%e3%81%ae%e3%81%82%e3%82%8c%e3%81%93%e3%82%8ctips%ef%bc%88%e4%bd%9c%e6%a5%ad%e3%83%a1%e3%83%a2%ef%bc%89/#respond</comments>
		
		<dc:creator><![CDATA[kema]]></dc:creator>
		<pubDate>Sun, 30 Dec 2018 14:33:10 +0000</pubDate>
				<category><![CDATA[サーバ管理]]></category>
		<category><![CDATA[FreeBSD]]></category>
		<category><![CDATA[日記・雑記]]></category>
		<category><![CDATA[趣味]]></category>
		<category><![CDATA[コンピュータ]]></category>
		<category><![CDATA[HDD交換]]></category>
		<category><![CDATA[raidz1]]></category>
		<category><![CDATA[raidz3]]></category>
		<category><![CDATA[zfs]]></category>
		<category><![CDATA[zpool]]></category>
		<guid isPermaLink="false">http://wp.khz-net.co.jp/?p=2877</guid>

					<description><![CDATA[zfsのストレージプールを作っている。 dmesgの結果は次の通り。 da0 at umass-sim0 bus 0 scbus5 target 0 lun 0 da0: &#60;ST8000DM 005-2EH112  &#8230; <a href="https://kemanai.jp/2018/12/30/freebsd-zpool%e3%82%b9%e3%83%88%e3%83%ac%e3%83%bc%e3%82%b8%e3%81%ae%e3%81%82%e3%82%8c%e3%81%93%e3%82%8ctips%ef%bc%88%e4%bd%9c%e6%a5%ad%e3%83%a1%e3%83%a2%ef%bc%89/" class="more-link">続きを読む <span class="screen-reader-text">FreeBSD zpoolストレージのあれこれtips（作業メモ）</span> <span class="meta-nav">&#8594;</span></a>]]></description>
										<content:encoded><![CDATA[<p>zfsのストレージプールを作っている。</p>
<p>dmesgの結果は次の通り。</p>
<blockquote><p>da0 at umass-sim0 bus 0 scbus5 target 0 lun 0<br />
da0: &lt;ST8000DM 005-2EH112 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da0: Serial Number 152D00539000<br />
da0: 400.000MB/s transfers<br />
da0: 7630885MB (15628053168 512 byte sectors)<br />
da0: quirks=0xa&lt;NO_6_BYTE,4K&gt;<br />
da1 at umass-sim0 bus 0 scbus5 target 0 lun 1<br />
da2 at umass-sim0 bus 0 scbus5 target 0 lun 2<br />
da1: &lt;WDC WD80 PUZX-64NEAY0 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da1: Serial Number 152D00539000<br />
da1: 400.000MB/s transfers<br />
da1: 7630885MB (15628053168 512 byte sectors)<br />
da1: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da2: &lt;WDC WD80 PUZX-64NEAY0 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da2: Serial Number 152D00539000<br />
da2: 400.000MB/s transfers<br />
da2: 7630885MB (15628053168 512 byte sectors)<br />
da2: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da3 at umass-sim0 bus 0 scbus5 target 0 lun 3<br />
da3: &lt;WDC WD80 EFZX-68UW8N0 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da3: Serial Number 152D00539000<br />
da3: 400.000MB/s transfers<br />
da3: 7630885MB (15628053168 512 byte sectors)<br />
da3: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da4 at umass-sim0 bus 0 scbus5 target 0 lun 4<br />
da4: &lt;WDC WD80 EFZX-68UW8N0 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da4: Serial Number 152D00539000<br />
da4: 400.000MB/s transfers<br />
da4: 7630885MB (15628053168 512 byte sectors)<br />
da4: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da5 at umass-sim0 bus 0 scbus5 target 0 lun 5<br />
da5: &lt;ST8000AS 0002-1NA17Z 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da5: Serial Number 152D00539000<br />
da5: 400.000MB/s transfers<br />
da5: 7630885MB (15628053168 512 byte sectors)<br />
da5: quirks=0x2&lt;NO_6_BYTE&gt;<br />
random: unblocking device.<br />
da6 at umass-sim0 bus 0 scbus5 target 0 lun 6<br />
da6: &lt;ST8000AS 0002-1NA17Z 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da6: Serial Number 152D00539000<br />
da6: 400.000MB/s transfers<br />
da6: 7630885MB (15628053168 512 byte sectors)<br />
da6: quirks=0x2&lt;NO_6_BYTE&gt;<br />
Trying to mount root from zfs:zroot/ROOT/default []&#8230;<br />
da7 at umass-sim0 bus 0 scbus5 target 0 lun 7<br />
da7: &lt;ST8000AS 0002-1NA17Z 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da7: Serial Number 152D00539000<br />
da7: 400.000MB/s transfers<br />
da7: 7630885MB (15628053168 512 byte sectors)<br />
da7: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da8 at umass-sim0 bus 0 scbus5 target 0 lun 8<br />
da8: &lt;ST8000AS 0002-1NA17Z 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da8: Serial Number 152D00539000<br />
da8: 400.000MB/s transfers<br />
da8: 7630885MB (15628053168 512 byte sectors)<br />
da8: quirks=0x2&lt;NO_6_BYTE&gt;</p></blockquote>
<p>つまり、</p>
<p>da0:8TB（ST8000DM)</p>
<p>da1:8TB（WD80PUZX)</p>
<p>da2:8TB（WD80PUZX)</p>
<p>da3:8TB（WD80EFZX)</p>
<p>da4:8TB（WD80EFZX)</p>
<p>da5:8TB（ST8000AS)</p>
<p>da6:8TB（ST8000AS)</p>
<p>da7:8TB（ST8000AS)</p>
<p>da8:8TB（ST8000AS)</p>
<p>となっている。続いてzpoolのステータス</p>
<blockquote><p># zpool status<br />
pool: zbackup<br />
state: DEGRADED<br />
status: One or more devices could not be opened. Sufficient replicas exist for<br />
the pool to continue functioning in a degraded state.<br />
action: Attach the missing device and online it using &#8216;zpool online&#8217;.<br />
see: http://illumos.org/msg/ZFS-8000-2Q<br />
scan: resilvered 0 in 0h0m with 0 errors on Mon Apr 23 06:29:16 2018<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zbackup DEGRADED 0 0 0<br />
raidz1-0 DEGRADED 0 0 0<br />
da8 ONLINE 0 0 0<br />
5017281946433150361 UNAVAIL 0 0 0 was /dev/da4<br />
da0 ONLINE 0 0 0<br />
da5 ONLINE 0 0 0</p>
<p>errors: No known data errors</p>
<p>pool: zdata<br />
state: ONLINE<br />
status: Some supported features are not enabled on the pool. The pool can<br />
still be used, but some features are unavailable.<br />
action: Enable all features using &#8216;zpool upgrade&#8217;. Once this is done,<br />
the pool may no longer be accessible by software that does not support<br />
the features. See zpool-features(7) for details.<br />
scan: none requested<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zdata ONLINE 0 0 0<br />
raidz3-0 ONLINE 0 0 0<br />
da1 ONLINE 0 0 0<br />
da2 ONLINE 0 0 0<br />
da3 ONLINE 0 0 0<br />
da4 ONLINE 0 0 0<br />
da6 ONLINE 0 0 0</p>
<p>errors: No known data errors</p>
<p>pool: zroot<br />
state: ONLINE<br />
status: Some supported features are not enabled on the pool. The pool can<br />
still be used, but some features are unavailable.<br />
action: Enable all features using &#8216;zpool upgrade&#8217;. Once this is done,<br />
the pool may no longer be accessible by software that does not support<br />
the features. See zpool-features(7) for details.<br />
scan: none requested<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zroot ONLINE 0 0 0<br />
ada0p4 ONLINE 0 0 0</p>
<p>errors: No known data errors</p></blockquote>
<p>da1・da2・da3・da4・da6でRAIDZ3。これはトリプルパリティで最大3台までのHDDが同時に死んでもデータは保全されるってやつ。8TBのHDDを5台使って容量16TB。</p>
<p>…うーん。安全性(ryだけどちょっと無駄が多すぎる希ガス</p>
<p>da0・da4・da5・da8はRAIDZ1で24TBのストレージ。しかしエラーが発生してる…。</p>
<p>zpoolコマンドで復旧してみるってのもひとつの経験としてアリだけど、年末大出血(って何)ってことで東芝の14TBのHDDを3台購入してきましたわけで。</p>
<h1><strong><span style="color: #ff0000;">以上の状態を踏まえてですね、</span></strong></h1>
<p>さて、どうするか。</p>
<p>まず、raidz3は少々やり過ぎな気もしないでもないけど、しかし海門のHDDには過去痛い目に遭ってるから、なるべく冗長度は大きくしたい。</p>
<p>ちなみに現在の使用量は、df -gすると</p>
<blockquote><p>zdata 14327 8465 5861 59% /usr/home/jail/ほげほげ</p></blockquote>
<p>って訳でまぁ概算9TB弱ぐらい使ってる。</p>
<p>って事は、14TBのHDDで新たにRAIDZ3を組んで14TBのストレーｊ</p>
<h3><span style="color: #ff0000;">いや、3台じゃRAIDZ3組めないでしょ</span></h3>
<p>しまった。</p>
<p>…しかし、raidzの特徴として、<span style="color: #ff0000;">現在のストレージプールを構成しているハードディスクの容量が増えれば、勝手にプールの容量も増える</span>という、かつてnewfsとかシコシコやっていた頃に比べると考えれない利便性があるとのこと。</p>
<p>じゃあ、次の方針でやってみよう。</p>
<ol>
<li>現在raidz3を構成している、da1・da2・da3・da4・da6のうち3台を14TBに交換。そしてまたそのうち金があったら14TBを2枚買い足す( ﾉД`)ｼｸｼｸ…</li>
<li>その外した3台の8TBのHDDのうちどれかをda4の代わりに差し替える。</li>
</ol>
<p>あーでも、現在使っているストレージタワー(裸族の云々)はフルスロットル埋まっているから、手順としては次のようにせざるを得ないね。</p>
<ol>
<li>da4を物理的に切り離し、代わりに14TBの生HDDを突っ込む。</li>
<li>zdataからどれか1台を離脱させる。</li>
<li>離脱したHDDをzbackupに入れる。</li>
<li>zdataに14TBのHDDを参加させる。</li>
</ol>
<p>後はビルドが完了次第、zdataのうちどれか2台の8TBを離脱させ、そこに14TBのHDDを入れてやれば良いということ。ばっちぐー(古</p>
<hr />
<p>１．障害が発生しているda4を切り離す作業</p>
<blockquote><p>#zpool offline zbackup da4</p></blockquote>
<p>とかやってみると、zpool statusした結果は、</p>
<blockquote><p>pool: zbackup<br />
state: DEGRADED<br />
status: One or more devices has been taken offline by the administrator.<br />
Sufficient replicas exist for the pool to continue functioning in a<br />
degraded state.<br />
action: Online the device using &#8216;zpool online&#8217; or replace the device with<br />
&#8216;zpool replace&#8217;.<br />
scan: resilvered 0 in 0h0m with 0 errors on Mon Apr 23 06:29:16 2018<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zbackup DEGRADED 0 0 0<br />
raidz1-0 DEGRADED 0 0 0<br />
da8 ONLINE 0 0 0<br />
5017281946433150361 OFFLINE 0 0 0 was /dev/da4<br />
da0 ONLINE 0 0 0<br />
da5 ONLINE 0 0 0</p></blockquote>
<p>お、ちゃんとオフラインになった。</p>
<p>２．zdataからどれか1台を離脱させる作業</p>
<p>これ実稼働中のファイルシステムに行うのがメチャクチャ怖い…。もちろんraidz3だからHDDを離脱させても問題ないのは分かってるけど、心臓に悪いね。</p>
<p>（ST8000ASとST8000DMってどっちが信頼性高いんだろう。ASはアーカイブ用でDMの方が性能は高いのかな。でも昔クラッシュしてえらい目に遭ったのはDMだったよな。うーん…と5chで情報収集して悩む事ン十分)</p>
<p>&nbsp;</p>
<p>・・・ん？</p>
<p>なんでda4が両方のストレージプールにあったの？（？＿？）←今気づいた</p>
<p>と思って良く見たら。</p>
<p>da0・da5・da8でraidz0で構成しているのがzbackup</p>
<p>da1・da2・da3・da4・da6でraidz3を構成しているのがzdata</p>
<p>何だか良く分からなくなってきたから、da4を落とそう。えいやっ</p>
<blockquote><p># zpool offline zdata da4</p></blockquote>
<p>でzpool statusをすると</p>
<blockquote><p># zpool status<br />
pool: zbackup<br />
state: DEGRADED<br />
status: One or more devices has been taken offline by the administrator.<br />
Sufficient replicas exist for the pool to continue functioning in a<br />
degraded state.<br />
action: Online the device using &#8216;zpool online&#8217; or replace the device with<br />
&#8216;zpool replace&#8217;.<br />
scan: resilvered 0 in 0h0m with 0 errors on Mon Apr 23 06:29:16 2018<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zbackup DEGRADED 0 0 0<br />
raidz1-0 DEGRADED 0 0 0<br />
da8 ONLINE 0 0 0<br />
5017281946433150361 OFFLINE 0 0 0 was /dev/da4<br />
da0 ONLINE 0 0 0<br />
da5 ONLINE 0 0 0</p>
<p>errors: No known data errors</p>
<p>pool: zdata<br />
state: DEGRADED<br />
status: One or more devices has been taken offline by the administrator.<br />
Sufficient replicas exist for the pool to continue functioning in a<br />
degraded state.<br />
action: Online the device using &#8216;zpool online&#8217; or replace the device with<br />
&#8216;zpool replace&#8217;.<br />
scan: none requested<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zdata DEGRADED 0 0 0<br />
raidz3-0 DEGRADED 0 0 0<br />
da1 ONLINE 0 0 0<br />
da2 ONLINE 0 0 0<br />
da3 ONLINE 0 0 0<br />
7675701080755519488 OFFLINE 0 0 0 was /dev/da4<br />
da6 ONLINE 0 0 0</p>
<p>errors: No known data errors</p></blockquote>
<p>…大丈夫なんだろうか。</p>
<p>とりま、ここでda4を物理的に外して、代わりに14TBの1枚目を投入してみる。</p>
<p>またこれがアナログ的に手法で、</p>
<blockquote><p>#cat /dev/da4 &gt; /dev/null</p></blockquote>
<p>とかやってアクセスランプがパカパカするHDDを見つけるという方法。</p>
<p>よし。</p>
<blockquote><p>#shutdown -p now</p></blockquote>
<p>してHDDを取り出…</p>
<h3><span style="color: #ff0000;">あれ？da7はどこに行ったの？</span></h3>
<p>&nbsp;</p>
<p>そう。実は古いgmirrorな使い方をしていた/dev/da7が遊んでいることに今気づいたのですよ。</p>
<p>ってー訳で、da4とda7を取り外して14TBを突っ込む。dmesgしてみると、</p>
<blockquote><p>da0 at umass-sim0 bus 0 scbus5 target 0 lun 0<br />
da0: &lt;ST8000AS 0002-1NA17Z 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da0: Serial Number 152D00539000<br />
da0: 400.000MB/s transfers<br />
da0: 7630885MB (15628053168 512 byte sectors)<br />
da0: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da1 at umass-sim0 bus 0 scbus5 target 0 lun 1<br />
da1: &lt;ST8000AS 0002-1NA17Z 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da1: Serial Number 152D00539000<br />
da2 at umass-sim0 bus 0 scbus5 target 0 lun 2<br />
da1: 400.000MB/s transfers<br />
da1: 7630885MB (15628053168 512 byte sectors)<br />
da1: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da2: &lt;TOSHIBA MN07ACA14T 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da2: Serial Number 152D00539000<br />
da2: 400.000MB/s transfers<br />
da2: 13351936MB (27344764928 512 byte sectors)<br />
da2: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da3 at umass-sim0 bus 0 scbus5 target 0 lun 3<br />
da3: &lt;ST8000AS 0002-1NA17Z 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da3: Serial Number 152D00539000<br />
da3: 400.000MB/s transfers<br />
da3: 7630885MB (15628053168 512 byte sectors)<br />
da3: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da4 at umass-sim0 bus 0 scbus5 target 0 lun 4<br />
da4: &lt;ST8000AS 0002-1NA17Z 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da4: Serial Number 152D00539000<br />
da4: 400.000MB/s transfers<br />
da4: 7630885MB (15628053168 512 byte sectors)<br />
da4: quirks=0x2&lt;NO_6_BYTE&gt;<br />
random: unblocking device.<br />
da5 at umass-sim0 bus 0 scbus5 target 0 lun 5<br />
da5: &lt;ST8000DM 005-2EH112 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da5: Serial Number 152D00539000<br />
da5: 400.000MB/s transfers<br />
da5: 7630885MB (15628053168 512 byte sectors)<br />
da5: quirks=0xa&lt;NO_6_BYTE,4K&gt;<br />
Trying to mount root from zfs:zroot/ROOT/default []&#8230;<br />
da6 at umass-sim0 bus 0 scbus5 target 0 lun 6<br />
da6: &lt;WDC WD80 PUZX-64NEAY0 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da6: Serial Number 152D00539000<br />
da6: 400.000MB/s transfers<br />
da6: 7630885MB (15628053168 512 byte sectors)<br />
da6: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da7 at umass-sim0 bus 0 scbus5 target 0 lun 7<br />
da7: &lt;WDC WD80 PUZX-64NEAY0 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da7: Serial Number 152D00539000<br />
da7: 400.000MB/s transfers<br />
da7: 7630885MB (15628053168 512 byte sectors)<br />
da7: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da8 at umass-sim0 bus 0 scbus5 target 0 lun 8<br />
da8: &lt;WDC WD80 EFZX-68UW8N0 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da8: Serial Number 152D00539000<br />
da8: 400.000MB/s transfers<br />
da8: 7630885MB (15628053168 512 byte sectors)<br />
da8: quirks=0x2&lt;NO_6_BYTE&gt;<br />
da9 at umass-sim0 bus 0 scbus5 target 0 lun 9<br />
da9: &lt;TOSHIBA MN07ACA14T 1520&gt; Fixed Direct Access SPC-4 SCSI device<br />
da9: Serial Number 152D00539000<br />
da9: 400.000MB/s transfers<br />
da9: 13351936MB (27344764928 512 byte sectors)<br />
da9: quirks=0x2&lt;NO_6_BYTE&gt;</p></blockquote>
<p>ん？da2とda9でマウントされてる。<strong><del><span style="color: #ff0000;">まあいいや</span></del></strong></p>
<blockquote><p># zpool status<br />
pool: zbackup<br />
state: DEGRADED<br />
status: One or more devices has been taken offline by the administrator.<br />
Sufficient replicas exist for the pool to continue functioning in a<br />
degraded state.<br />
action: Online the device using &#8216;zpool online&#8217; or replace the device with<br />
&#8216;zpool replace&#8217;.<br />
scan: resilvered 0 in 0h0m with 0 errors on Mon Apr 23 06:29:16 2018<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zbackup DEGRADED 0 0 0<br />
raidz1-0 DEGRADED 0 0 0<br />
da3 ONLINE 0 0 0<br />
5017281946433150361 OFFLINE 0 0 0 was /dev/da4<br />
da5 ONLINE 0 0 0<br />
da0 ONLINE 0 0 0</p>
<p>errors: No known data errors</p>
<p>pool: zdata<br />
state: DEGRADED<br />
status: One or more devices has been taken offline by the administrator.<br />
Sufficient replicas exist for the pool to continue functioning in a<br />
degraded state.<br />
action: Online the device using &#8216;zpool online&#8217; or replace the device with<br />
&#8216;zpool replace&#8217;.<br />
scan: none requested<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zdata DEGRADED 0 0 0<br />
raidz3-0 DEGRADED 0 0 0<br />
da6 ONLINE 0 0 0<br />
da7 ONLINE 0 0 0<br />
da8 ONLINE 0 0 0<br />
7675701080755519488 OFFLINE 0 0 0 was /dev/da4<br />
da1 ONLINE 0 0 0</p>
<p>errors: No known data errors</p>
<p>pool: zroot<br />
state: ONLINE<br />
status: Some supported features are not enabled on the pool. The pool can<br />
still be used, but some features are unavailable.<br />
action: Enable all features using &#8216;zpool upgrade&#8217;. Once this is done,<br />
the pool may no longer be accessible by software that does not support<br />
the features. See zpool-features(7) for details.<br />
scan: none requested<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zroot ONLINE 0 0 0<br />
ada0p4 ONLINE 0 0 0</p>
<p>errors: No known data errors</p></blockquote>
<p>よしよし。じゃー突っ込むよー</p>
<p>あれ？こんなコマンドを使うのかな？</p>
<p># zpool replace zdata da4 da2</p>
<p>そしたら表示が</p>
<blockquote><p>pool: zdata<br />
state: DEGRADED<br />
status: One or more devices is currently being resilvered. The pool will<br />
continue to function, possibly in a degraded state.<br />
action: Wait for the resilver to complete.<br />
scan: resilver in progress since Sun Dec 30 22:24:04 2018<br />
32.3M scanned out of 19.5T at 2.49M/s, (scan is slow, no estimated time)<br />
6.22M resilvered, 0.00% done<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zdata DEGRADED 0 0 0<br />
raidz3-0 DEGRADED 0 0 0<br />
da6 ONLINE 0 0 0<br />
da7 ONLINE 0 0 0<br />
da8 ONLINE 0 0 0<br />
replacing-3 DEGRADED 0 0 0<br />
7675701080755519488 OFFLINE 0 0 0 was /dev/da4<br />
da2 ONLINE 0 0 0<br />
da1 ONLINE 0 0 0</p>
<p>errors: No known data errors</p></blockquote>
<p>こんな風になった。多分これでリビルド（？）してるんだろう。（とHDDのアクセスランプを見に行く）</p>
<p>raidz3だったら同時に2台目も入れ替えても大丈夫だろうけど、<del>若い頃だったら多分突っ走ってやってただろうけど大人になった今は</del>そういう危ない事はやらない。</p>
<p>で、後はda4をzbackupに復帰させてみる。</p>
<blockquote><p># zpool online zbackup da4</p>
<p># zpool status<br />
pool: zbackup<br />
state: ONLINE<br />
status: One or more devices is currently being resilvered. The pool will<br />
continue to function, possibly in a degraded state.<br />
action: Wait for the resilver to complete.<br />
scan: resilver in progress since Sun Dec 30 22:36:02 2018<br />
870M scanned out of 12.5T at 39.5M/s, 92h25m to go<br />
197M resilvered, 0.01% done<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zbackup ONLINE 0 0 0<br />
raidz1-0 ONLINE 0 0 0<br />
da3 ONLINE 0 0 0<br />
da4 ONLINE 0 0 0<br />
da5 ONLINE 0 0 0<br />
da0 ONLINE 0 0 0</p>
<p>errors: No known data errors</p>
<p>pool: zdata<br />
state: DEGRADED<br />
status: One or more devices is currently being resilvered. The pool will<br />
continue to function, possibly in a degraded state.<br />
action: Wait for the resilver to complete.<br />
scan: resilver in progress since Sun Dec 30 22:24:04 2018<br />
57.1G scanned out of 19.5T at 79.0M/s, 71h33m to go<br />
11.4G resilvered, 0.29% done<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zdata DEGRADED 0 0 0<br />
raidz3-0 DEGRADED 0 0 0<br />
da6 ONLINE 0 0 0<br />
da7 ONLINE 0 0 0<br />
da8 ONLINE 0 0 0<br />
replacing-3 DEGRADED 0 0 0<br />
7675701080755519488 OFFLINE 0 0 0 was /dev/da4<br />
da2 ONLINE 0 0 0<br />
da1 ONLINE 0 0 0</p>
<p>errors: No known data errors</p>
<p>pool: zroot<br />
state: ONLINE<br />
status: Some supported features are not enabled on the pool. The pool can<br />
still be used, but some features are unavailable.<br />
action: Enable all features using &#8216;zpool upgrade&#8217;. Once this is done,<br />
the pool may no longer be accessible by software that does not support<br />
the features. See zpool-features(7) for details.<br />
scan: none requested<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zroot ONLINE 0 0 0<br />
ada0p4 ONLINE 0 0 0</p>
<p>errors: No known data errors</p></blockquote>
<p>両方合わせて70時間ぐらい待ってれば良いっぽい。</p>
<p>という訳で今年の作業終了～。ふー</p>
<hr />
<p>2019/1/3追記。</p>
<p>ビルドが終わったようなので、14TBのHDD2台目を行ってみる。</p>
<blockquote><p># zpool replace zdata da1 da9</p>
<p># zpool status zdata<br />
pool: zdata<br />
state: ONLINE<br />
status: One or more devices is currently being resilvered. The pool will<br />
continue to function, possibly in a degraded state.<br />
action: Wait for the resilver to complete.<br />
scan: resilver in progress since Thu Jan 3 05:56:07 2019<br />
66.1M scanned out of 19.5T at 2.00M/s, (scan is slow, no estimated time)<br />
12.6M resilvered, 0.00% done<br />
config:</p>
<p>NAME STATE READ WRITE CKSUM<br />
zdata ONLINE 0 0 0<br />
raidz3-0 ONLINE 0 0 0<br />
da6 ONLINE 0 0 0<br />
da7 ONLINE 0 0 0<br />
da8 ONLINE 0 0 0<br />
da2 ONLINE 0 0 0<br />
replacing-4 ONLINE 0 0 0<br />
da1 ONLINE 0 0 0<br />
da9 ONLINE 0 0 0</p>
<p>errors: No known data errors</p></blockquote>
<p>よーし、これでまたリビルド待ち。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://kemanai.jp/2018/12/30/freebsd-zpool%e3%82%b9%e3%83%88%e3%83%ac%e3%83%bc%e3%82%b8%e3%81%ae%e3%81%82%e3%82%8c%e3%81%93%e3%82%8ctips%ef%bc%88%e4%bd%9c%e6%a5%ad%e3%83%a1%e3%83%a2%ef%bc%89/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Windows Tips のメモ</title>
		<link>https://kemanai.jp/2018/07/12/windows-tips-%e3%81%ae%e3%83%a1%e3%83%a2/</link>
					<comments>https://kemanai.jp/2018/07/12/windows-tips-%e3%81%ae%e3%83%a1%e3%83%a2/#respond</comments>
		
		<dc:creator><![CDATA[kema]]></dc:creator>
		<pubDate>Thu, 12 Jul 2018 10:54:04 +0000</pubDate>
				<category><![CDATA[趣味]]></category>
		<category><![CDATA[コンピュータ]]></category>
		<guid isPermaLink="false">http://wp.khz-net.co.jp/?p=2522</guid>

					<description><![CDATA[複数のユーザのホームフォルダ名が「ドキュメント」となってしまい、どれが誰のホームフォルダか分からなくなってしまうのは、各ユーザフォルダ内にあるdesktop.iniのせい。こんな時にdesktop.iniを一括削除するコ &#8230; <a href="https://kemanai.jp/2018/07/12/windows-tips-%e3%81%ae%e3%83%a1%e3%83%a2/" class="more-link">続きを読む <span class="screen-reader-text">Windows Tips のメモ</span> <span class="meta-nav">&#8594;</span></a>]]></description>
										<content:encoded><![CDATA[<p>複数のユーザのホームフォルダ名が「ドキュメント」となってしまい、どれが誰のホームフォルダか分からなくなってしまうのは、各ユーザフォルダ内にあるdesktop.iniのせい。こんな時にdesktop.iniを一括削除するコマンド。</p>
<blockquote><p>del x:\*desktop.ini /f /s /a:h　（x:\は削除したいディレクトリ）</p></blockquote>
<p>&nbsp;</p>
]]></content:encoded>
					
					<wfw:commentRss>https://kemanai.jp/2018/07/12/windows-tips-%e3%81%ae%e3%83%a1%e3%83%a2/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>最近sambaサーバに繋がったり繋がらなかったりしていた件</title>
		<link>https://kemanai.jp/2018/06/10/%e6%9c%80%e8%bf%91%e6%80%a5%e3%81%absamba%e3%82%b5%e3%83%bc%e3%83%90%e3%81%ab%e7%b9%8b%e3%81%8c%e3%81%a3%e3%81%9f%e3%82%8a%e7%b9%8b%e3%81%8c%e3%82%89%e3%81%aa%e3%81%8b%e3%81%a3%e3%81%9f%e3%82%8a/</link>
					<comments>https://kemanai.jp/2018/06/10/%e6%9c%80%e8%bf%91%e6%80%a5%e3%81%absamba%e3%82%b5%e3%83%bc%e3%83%90%e3%81%ab%e7%b9%8b%e3%81%8c%e3%81%a3%e3%81%9f%e3%82%8a%e7%b9%8b%e3%81%8c%e3%82%89%e3%81%aa%e3%81%8b%e3%81%a3%e3%81%9f%e3%82%8a/#respond</comments>
		
		<dc:creator><![CDATA[kema]]></dc:creator>
		<pubDate>Sun, 10 Jun 2018 13:57:24 +0000</pubDate>
				<category><![CDATA[日記・雑記]]></category>
		<category><![CDATA[コンピュータ]]></category>
		<category><![CDATA[FreeBSD]]></category>
		<category><![CDATA[samba]]></category>
		<category><![CDATA[サーバ管理]]></category>
		<guid isPermaLink="false">http://wp.khz-net.co.jp/?p=2502</guid>

					<description><![CDATA[先週頭に風邪を引いてしまい、この一週間、欠勤することができない仕事（学校の授業）以外は寝込んでました。授業の仕事も帰って速攻寝てましたが。 さて、最近何故か某所から某所へのsambaアクセスが繋がったり繋がらなかったりす &#8230; <a href="https://kemanai.jp/2018/06/10/%e6%9c%80%e8%bf%91%e6%80%a5%e3%81%absamba%e3%82%b5%e3%83%bc%e3%83%90%e3%81%ab%e7%b9%8b%e3%81%8c%e3%81%a3%e3%81%9f%e3%82%8a%e7%b9%8b%e3%81%8c%e3%82%89%e3%81%aa%e3%81%8b%e3%81%a3%e3%81%9f%e3%82%8a/" class="more-link">続きを読む <span class="screen-reader-text">最近sambaサーバに繋がったり繋がらなかったりしていた件</span> <span class="meta-nav">&#8594;</span></a>]]></description>
										<content:encoded><![CDATA[<p>先週頭に風邪を引いてしまい、この一週間、欠勤することができない仕事（学校の授業）以外は寝込んでました。授業の仕事も帰って速攻寝てましたが。</p>
<p>さて、最近何故か某所から某所へのsambaアクセスが繋がったり繋がらなかったりする事例が発生していました。VPN越しなのでVPNの問題か？と思いpingやtracerouteをしても、経路は問題無さそう。サーバ側からトレースすると到達するけどsamba歯繋がらなかったりと、訳の分からない挙動にしばらく悩まされていました。</p>
<p>で、先程原因が分かってようやく解決に至りました。原因は、パケットフィルタリングで</p>
<p>pass in quick on $int_if proto tcp from &lt;lan&gt; port 1024:65535 to $samba_ip port {20,21,110,139,445,49152:65535}</p>
<p>というルールを定めていたのが理由でしたわ。これまでは、Windowsファイル共有サービスのアクセス元ポートが1024～65535を使ってくれていたのが、最近特権ポートを使ってくれていて、それが元で切られていたという。</p>
<p>うーん。こういうWindows側の仕様変更？ってあるんですかね。良く分からん。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://kemanai.jp/2018/06/10/%e6%9c%80%e8%bf%91%e6%80%a5%e3%81%absamba%e3%82%b5%e3%83%bc%e3%83%90%e3%81%ab%e7%b9%8b%e3%81%8c%e3%81%a3%e3%81%9f%e3%82%8a%e7%b9%8b%e3%81%8c%e3%82%89%e3%81%aa%e3%81%8b%e3%81%a3%e3%81%9f%e3%82%8a/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>御意見・御要望などはこちらへ</title>
		<link>https://kemanai.jp/2017/06/18/%e5%be%a1%e6%84%8f%e8%a6%8b%e3%83%bb%e5%be%a1%e8%a6%81%e6%9c%9b%e3%81%aa%e3%81%a9%e3%81%af%e3%81%93%e3%81%a1%e3%82%89%e3%81%b8/</link>
					<comments>https://kemanai.jp/2017/06/18/%e5%be%a1%e6%84%8f%e8%a6%8b%e3%83%bb%e5%be%a1%e8%a6%81%e6%9c%9b%e3%81%aa%e3%81%a9%e3%81%af%e3%81%93%e3%81%a1%e3%82%89%e3%81%b8/#comments</comments>
		
		<dc:creator><![CDATA[kema]]></dc:creator>
		<pubDate>Sat, 17 Jun 2017 15:11:12 +0000</pubDate>
				<category><![CDATA[仕事]]></category>
		<category><![CDATA[免許・資格]]></category>
		<category><![CDATA[買い物]]></category>
		<category><![CDATA[趣味]]></category>
		<category><![CDATA[リクエスト]]></category>
		<category><![CDATA[御意見]]></category>
		<category><![CDATA[御要望]]></category>
		<guid isPermaLink="false">http://wp.khz-net.co.jp/?p=1189</guid>

					<description><![CDATA[一応ブログ形式となっている当サイト。リクエストや御意見、御要望などありましたら、こちらにコメントという形で付けていただければ返信できるかと思います。 よろしくお願いいたします。]]></description>
										<content:encoded><![CDATA[<p>一応ブログ形式となっている当サイト。リクエストや御意見、御要望などありましたら、こちらにコメントという形で付けていただければ返信できるかと思います。</p>
<p>よろしくお願いいたします。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://kemanai.jp/2017/06/18/%e5%be%a1%e6%84%8f%e8%a6%8b%e3%83%bb%e5%be%a1%e8%a6%81%e6%9c%9b%e3%81%aa%e3%81%a9%e3%81%af%e3%81%93%e3%81%a1%e3%82%89%e3%81%b8/feed/</wfw:commentRss>
			<slash:comments>75</slash:comments>
		
		
			</item>
		<item>
		<title>perseus</title>
		<link>https://kemanai.jp/2017/04/23/perseus/</link>
					<comments>https://kemanai.jp/2017/04/23/perseus/#comments</comments>
		
		<dc:creator><![CDATA[kema]]></dc:creator>
		<pubDate>Sun, 23 Apr 2017 14:09:47 +0000</pubDate>
				<category><![CDATA[BCL]]></category>
		<category><![CDATA[perseus]]></category>
		<category><![CDATA[趣味]]></category>
		<category><![CDATA[無線]]></category>
		<category><![CDATA[Amateur Radio]]></category>
		<category><![CDATA[JL1XEU]]></category>
		<category><![CDATA[Perseus]]></category>
		<category><![CDATA[アマチュア無線]]></category>
		<guid isPermaLink="false">http://wp.khz-net.co.jp/?p=1066</guid>

					<description><![CDATA[Perseus SDR. Location Kanagawa Pref., west side of Tokyo. Antenna Comet HA750BL broadband mobile-whip. It is o &#8230; <a href="https://kemanai.jp/2017/04/23/perseus/" class="more-link">続きを読む <span class="screen-reader-text">perseus</span> <span class="meta-nav">&#8594;</span></a>]]></description>
										<content:encoded><![CDATA[<p>Perseus SDR.</p>
<ul>
<li>Location</li>
</ul>
<p>Kanagawa Pref., west side of Tokyo.</p>
<ul>
<li>Antenna</li>
</ul>
<p><a href="http://www.comet-ant.co.jp/new/HTML/products_hf_2.html" target="_blank" rel="noopener noreferrer">Comet HA750BL broadband mobile-whip.</a></p>
<p>It is only 2.41mL extreme short antenna for automobile,mounted on balcony of 4th floor of apartment house.</p>
<ul>
<li>Owner</li>
</ul>
<p>JL1XEU/kema</p>
<p>Welcome to connect to my radio.</p>
<p>&nbsp;</p>
<p>ペルセウスに関する情報</p>
<ul>
<li>発信地</li>
</ul>
<p>神奈川県相模原市</p>
<ul>
<li>アンテナ</li>
</ul>
<p>コメットのHA750BLをマンション4階のベランダに設置しています。</p>
<p>諸先輩方のアンテナに比較して非常にpoorなのですが、それもまたある意味受信状況を知るための参考になるかと思います。</p>
<p>長時間占有中の時は、多分自分自身がラジオ受信用に使っている時です。空いているときは何時でもどうぞ。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://kemanai.jp/2017/04/23/perseus/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
		<item>
		<title>【BCL】金日成死去時と金正日死去時の平壌放送</title>
		<link>https://kemanai.jp/2017/03/30/%e9%87%91%e6%97%a5%e6%88%90%e6%ad%bb%e5%8e%bb%e6%99%82%e3%81%a8%e9%87%91%e6%ad%a3%e6%97%a5%e6%ad%bb%e5%8e%bb%e6%99%82%e3%81%ae%e5%b9%b3%e5%a3%8c%e6%94%be%e9%80%81/</link>
					<comments>https://kemanai.jp/2017/03/30/%e9%87%91%e6%97%a5%e6%88%90%e6%ad%bb%e5%8e%bb%e6%99%82%e3%81%a8%e9%87%91%e6%ad%a3%e6%97%a5%e6%ad%bb%e5%8e%bb%e6%99%82%e3%81%ae%e5%b9%b3%e5%a3%8c%e6%94%be%e9%80%81/#respond</comments>
		
		<dc:creator><![CDATA[kema]]></dc:creator>
		<pubDate>Wed, 29 Mar 2017 19:53:53 +0000</pubDate>
				<category><![CDATA[BCL]]></category>
		<category><![CDATA[趣味]]></category>
		<category><![CDATA[無線]]></category>
		<category><![CDATA[ピョンヤン放送]]></category>
		<category><![CDATA[平壌放送]]></category>
		<category><![CDATA[短波放送]]></category>
		<category><![CDATA[金日成]]></category>
		<category><![CDATA[金正日]]></category>
		<guid isPermaLink="false">http://wp.khz-net.co.jp/?p=1022</guid>

					<description><![CDATA[1994年7月9日、北朝鮮の金日成が死去した時の平壌放送の録音です。 続いて、2011年12月19日、金正日死去時の平壌放送。 短波放送も、インターネットの普及で年々寂しくなってきました。以前はあれほどひしめき合っていた &#8230; <a href="https://kemanai.jp/2017/03/30/%e9%87%91%e6%97%a5%e6%88%90%e6%ad%bb%e5%8e%bb%e6%99%82%e3%81%a8%e9%87%91%e6%ad%a3%e6%97%a5%e6%ad%bb%e5%8e%bb%e6%99%82%e3%81%ae%e5%b9%b3%e5%a3%8c%e6%94%be%e9%80%81/" class="more-link">続きを読む <span class="screen-reader-text">【BCL】金日成死去時と金正日死去時の平壌放送</span> <span class="meta-nav">&#8594;</span></a>]]></description>
										<content:encoded><![CDATA[<p>1994年7月9日、北朝鮮の金日成が死去した時の平壌放送の録音です。</p>
<p><audio class="wp-audio-shortcode" id="audio-1022-1" preload="none" style="width: 100%;" controls="controls"><source type="audio/mpeg" src="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/r-pyongyang-19940709.mp3?_=1" /><a href="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/r-pyongyang-19940709.mp3">http://wp.khz-net.co.jp/wp-content/uploads/2017/03/r-pyongyang-19940709.mp3</a></audio></p>
<p>続いて、2011年12月19日、金正日死去時の平壌放送。</p>
<p><audio class="wp-audio-shortcode" id="audio-1022-2" preload="none" style="width: 100%;" controls="controls"><source type="audio/mpeg" src="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/r-pyongyang-20111219.mp3?_=2" /><a href="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/r-pyongyang-20111219.mp3">http://wp.khz-net.co.jp/wp-content/uploads/2017/03/r-pyongyang-20111219.mp3</a></audio></p>
<p>短波放送も、インターネットの普及で年々寂しくなってきました。以前はあれほどひしめき合っていた周波数帯も、今は静かなものです。最近久しぶりにワッチしたところ、短波帯のどこでも聞こえていたVOAやBBCが全く聞こえない事に衝撃を受けました。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://kemanai.jp/2017/03/30/%e9%87%91%e6%97%a5%e6%88%90%e6%ad%bb%e5%8e%bb%e6%99%82%e3%81%a8%e9%87%91%e6%ad%a3%e6%97%a5%e6%ad%bb%e5%8e%bb%e6%99%82%e3%81%ae%e5%b9%b3%e5%a3%8c%e6%94%be%e9%80%81/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		<enclosure url="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/r-pyongyang-19940709.mp3" length="33673168" type="audio/mpeg" />
<enclosure url="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/r-pyongyang-20111219.mp3" length="27244669" type="audio/mpeg" />

			</item>
		<item>
		<title>2001年8月9日～10日 寝台特急はくつる81号</title>
		<link>https://kemanai.jp/2017/03/30/2001%e5%b9%b48%e6%9c%889%e6%97%a5%ef%bd%9e10%e6%97%a5-%e5%af%9d%e5%8f%b0%e7%89%b9%e6%80%a5%e3%81%af%e3%81%8f%e3%81%a4%e3%82%8b81%e5%8f%b7/</link>
					<comments>https://kemanai.jp/2017/03/30/2001%e5%b9%b48%e6%9c%889%e6%97%a5%ef%bd%9e10%e6%97%a5-%e5%af%9d%e5%8f%b0%e7%89%b9%e6%80%a5%e3%81%af%e3%81%8f%e3%81%a4%e3%82%8b81%e5%8f%b7/#respond</comments>
		
		<dc:creator><![CDATA[kema]]></dc:creator>
		<pubDate>Wed, 29 Mar 2017 16:16:53 +0000</pubDate>
				<category><![CDATA[趣味]]></category>
		<category><![CDATA[鉄道の音]]></category>
		<category><![CDATA[鉄道旅行]]></category>
		<category><![CDATA[旅行]]></category>
		<category><![CDATA[生録]]></category>
		<category><![CDATA[鉄道]]></category>
		<category><![CDATA[583系]]></category>
		<category><![CDATA[はくつる81号]]></category>
		<category><![CDATA[寝台特急]]></category>
		<category><![CDATA[音鉄]]></category>
		<guid isPermaLink="false">http://wp.khz-net.co.jp/?p=1012</guid>

					<description><![CDATA[583系寝台特急はくつる81号の録音です。モハネ582-100の1番中段で録音しました。 今となっては雑音が多くて聴くに堪えない部分も多いものです。しかし、当時はこれでも精一杯でした。もう15年以上も前になるんですね。  &#8230; <a href="https://kemanai.jp/2017/03/30/2001%e5%b9%b48%e6%9c%889%e6%97%a5%ef%bd%9e10%e6%97%a5-%e5%af%9d%e5%8f%b0%e7%89%b9%e6%80%a5%e3%81%af%e3%81%8f%e3%81%a4%e3%82%8b81%e5%8f%b7/" class="more-link">続きを読む <span class="screen-reader-text">2001年8月9日～10日 寝台特急はくつる81号</span> <span class="meta-nav">&#8594;</span></a>]]></description>
										<content:encoded><![CDATA[<p>583系寝台特急はくつる81号の録音です。モハネ582-100の1番中段で録音しました。</p>
<p style="text-align: center;"><a href="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81.jpg"><img fetchpriority="high" decoding="async" class="aligncenter size-full wp-image-1002" src="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81.jpg" alt="" width="320" height="240" srcset="https://kemanai.jp/wp-content/uploads/2017/03/hakuturu81.jpg 320w, https://kemanai.jp/wp-content/uploads/2017/03/hakuturu81-300x225.jpg 300w" sizes="(max-width: 320px) 100vw, 320px" /></a></p>
<p style="text-align: left;">今となっては雑音が多くて聴くに堪えない部分も多いものです。しかし、当時はこれでも精一杯でした。もう15年以上も前になるんですね。</p>
<ul>
<li>上野駅発車前の放送</li>
</ul>
<p><audio class="wp-audio-shortcode" id="audio-1012-3" preload="none" style="width: 100%;" controls="controls"><source type="audio/mpeg" src="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81-01-ueno.mp3?_=3" /><a href="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81-01-ueno.mp3">http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81-01-ueno.mp3</a></audio></p>
<ul>
<li>上野駅発車後の放送</li>
</ul>
<p><audio class="wp-audio-shortcode" id="audio-1012-4" preload="none" style="width: 100%;" controls="controls"><source type="audio/mpeg" src="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81-02-ueno.mp3?_=4" /><a href="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81-02-ueno.mp3">http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81-02-ueno.mp3</a></audio></p>
<ul>
<li>八戸到着前～八戸駅到着まで</li>
</ul>
<p><audio class="wp-audio-shortcode" id="audio-1012-5" preload="none" style="width: 100%;" controls="controls"><source type="audio/mpeg" src="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81-03-hatinohe.mp3?_=5" /><a href="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81-03-hatinohe.mp3">http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81-03-hatinohe.mp3</a></audio></p>
<ul>
<li>八戸駅～三沢駅</li>
</ul>
<p><audio class="wp-audio-shortcode" id="audio-1012-6" preload="none" style="width: 100%;" controls="controls"><source type="audio/mpeg" src="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81-04-hatinohe-misawa.mp3?_=6" /><a href="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81-04-hatinohe-misawa.mp3">http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81-04-hatinohe-misawa.mp3</a></audio></p>
<ul>
<li>三沢駅～野辺地駅</li>
</ul>
<p><audio class="wp-audio-shortcode" id="audio-1012-7" preload="none" style="width: 100%;" controls="controls"><source type="audio/mpeg" src="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81-05-misawa-noheji.mp3?_=7" /><a href="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81-05-misawa-noheji.mp3">http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81-05-misawa-noheji.mp3</a></audio></p>
<ul>
<li>野辺地駅～青森駅</li>
</ul>
<p><audio class="wp-audio-shortcode" id="audio-1012-8" preload="none" style="width: 100%;" controls="controls"><source type="audio/mpeg" src="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81-06-noheji-aomori.mp3?_=8" /><a href="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81-06-noheji-aomori.mp3">http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81-06-noheji-aomori.mp3</a></audio></p>
]]></content:encoded>
					
					<wfw:commentRss>https://kemanai.jp/2017/03/30/2001%e5%b9%b48%e6%9c%889%e6%97%a5%ef%bd%9e10%e6%97%a5-%e5%af%9d%e5%8f%b0%e7%89%b9%e6%80%a5%e3%81%af%e3%81%8f%e3%81%a4%e3%82%8b81%e5%8f%b7/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		<enclosure url="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81-01-ueno.mp3" length="799984" type="audio/mpeg" />
<enclosure url="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81-02-ueno.mp3" length="4819713" type="audio/mpeg" />
<enclosure url="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81-03-hatinohe.mp3" length="24599626" type="audio/mpeg" />
<enclosure url="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81-04-hatinohe-misawa.mp3" length="18159918" type="audio/mpeg" />
<enclosure url="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81-05-misawa-noheji.mp3" length="21700039" type="audio/mpeg" />
<enclosure url="http://wp.khz-net.co.jp/wp-content/uploads/2017/03/hakuturu81-06-noheji-aomori.mp3" length="36239794" type="audio/mpeg" />

			</item>
	</channel>
</rss>
