it-swarm-ja.com

ZFSとFreeBSDの使用に関するフィードバック

ファイルのバックアップ専用のサーバーを作成する必要があります。サーバーには、最初は2TBのRAID-5ストレージがありますが、後でストレージを追加したい場合があります。そのため、私は現在、OSおよびファイルシステムとしてFreeBSD + ZFSの使用を検討しています。

実稼働環境でZFSを使用していて、選択に満足しているシナリオを誰かが指摘できますか? OpenSolarisは通常、バージョンの更新と安定性に関してZFSの時代を先取りしているため、FreeBSDではなくOpenSolarisでZFSを使用する必要があることを読みました。ただし、このプロジェクトでOpenSolarisを使用することに興味はありません。

私が検討している別のオプションは、ext3を使い続け、必要に応じて複数のボリュームを作成することです。これは、2TBを超える単一の連続ボリュームは必要ないことがわかっているためです。

フィードバックをよろしくお願いします。

6
ToiletOverflow

私はFreeBSD8.0とそれに続く8.0-stable- 2010年2月のスナップショットを使用して、ZFSを数か月間実験してきました。システムには、2つの独立した4ディスクRAIDZ1プールがあります。最初はほぼ完璧に進んでいるように見えましたが、特定の状況や構成ではこの設定を避けるのが賢明だと思わせる、ますます厄介な問題に遭遇しました。私の最初の問題は、必ずしもFreeBSD/ZFS全体の安定性/機能ではなく、FreeBSDでの特定のデバイスドライバとディスクドライブの信頼性と機能にあります。デフォルトのata/ideドライバーは、使用しているコントローラーをサポートしていないことがわかりましたが、siisシリコンイメージストレージドライバーには、ドライブをFreeBSD 8で動作させるために必要なポートマルチプライヤSATAサポートがありました。ただし、そのドライバーコードを詳しく調べるとは実際には本番環境に対応しているわけではありません。最初のディスク関連のソフトエラー/タイムアウト/再試行条件を適切に処理しなかったため、アレイ内のドライブが数十秒間の応答遅延などを実行しました。何が起こったのか正確にはわかりませんが、アレイがタイムアウトし、リセットされ、動作を再確立するのに約1分かかりました。その間、アレイ内のすべてのドライブが動作ステータスから「失われ」、回復不能なデータ障害が発生しました。より高いファイルシステムレベルで。 AFAICTは、SIISドライバーのメンテナーでさえ、ドライバーのタイムアウト/リセット処理が実際には完全に完了していない/堅牢である/最適化されていないと述べています。十分に公平ですが、要点は、OSまたはZFSがどれほど優れていても、信頼性の低いディスクドライブ、コントローラー、またはドライバーがある場合、ZFSにもかかわらず、致命的なエラーやデータ損失を引き起こすのに十分な全体的な操作を確実に台無しにする可能性があるということです。また、SMART診断要求は、この特定のコントローラードライバーでは機能しないようです。エラーの原因については..シーゲイトドライブ/ファームウェアが不安定ですか?わかりませんが、ドライブエラーが1つありますRAIDZがRAIDZの信頼性のすべてのポイントを打ち負かしているにもかかわらず、アレイ全体が「失敗」する原因となるzpool scrup/zpool statusなどの問題に続く動作も少し疑わしいものであり、その診断が実際に行われているかどうかは不明です。 /リカバリプロセスはZFS/ZPOOLレベルで正しく機能しました。確かに、エラーステータスとエラークリアなどに関するいくつかの混合メッセージが表示されました。明示的なzpool clearコマンドがないにもかかわらず、再起動後にエラー表示が消えました。おそらくそれは意図されたものです。 、ただし、そうである場合は、zpoolステータス出力によって提案されませんでした。

潜在的にもっと深刻なことに、複数のファイルシステム(ZFS)を含むアレイの大部分が(ls)にリストされていない、および通常のI/Oアクセスから「消えた」数日間の稼働時間の後、操作中にサイレントに問題が発生したようです。 。 IIRC df -h、lsなどは、ファイルシステムが存在するものとしても報告しませんでしたが、zpool list/zpool statusは、プール内の予想される消費ストレージの量を示し続けましたが、リストされたマウント済みまたはリストされたストレージによって考慮されませんでした。マウントされていないファイルシステム。/var/log/messagesにはエラー状況メッセージが含まれていなかったため、その問題が発生する前は、操作は完全に正常に進行していました。 zpool list/zpool statusは、プールの問題を示していませんでした。 zfs unmount -aは、マウントされた最後のzfsファイルシステムがアンマウントされる前の数分間、対話型の使用に関連する明白な理由がないため、ビジー表示で失敗しました。/var/log/messages、zpool status、zpool listを再起動して再確認しても、問題は通知されませんでした。以前に欠落していたファイルシステムは、手動で要求されたときに実際に再マウントされ、最初は正しい内容であるように見えましたが、プールにさまざまなzfsシステムをマウントしてから約1分後に、一部が予期せず再び消えたことがわかりました。 zfsファイルシステムの定義で何か問題が発生し、何らかの問題が発生した可能性がありますが、現時点では、さまざまなzfsディレクトリに対してI/Oを実行している作業システムが突然全体のビューを失う可能性があることは説明できません。基本的なzpool/zfs構成を変更するためのsysadminコマンドが介在せずに、数分/数時間/数日前に正常に機能していたファイルシステム。

確かに、本番環境での使用は推奨されていない2010年2月の安定したスナップショットを実行していますが、8.0のリリース以降、既知のZFS /ストレージの問題に対する比較的注目に値するいくつかの修正が安定したブランチにコミットされているため、ストック8.0を実行すると一部の人々にとってこれらの問題のために信頼性/機能の点で不十分です。

とにかく、ほんの数週間のかなり軽いテストで、十分な潜在的に悲惨な信頼性/機能の問題が発生しました。そのすべてが、FBSD8.0の信頼に注意しているストレージドライブ/コントローラー/ドライバーの特定の欠陥に関係しているとは限りません。 +非常に注意深く制御されたハードウェアとソフトウェアの構成およびオフラインバックアップ戦略なしでの本番/信頼性使用のためのZFS。

OpenSolarisは、実行したい場合でも、とにかく今は立ち入り禁止です-zfs重複排除には深刻な既知の問題があり、ほとんど使用できなくなります。そのような問題により、待つことをお勧めしているようです。特に重複排除システムでOpenSolaris + ZFSを信頼する前に、さらにいくつかのパッチバージョンがリリースされる予定です。 B135/B136は、2010.03のメジャーOSリリースとともに、説明なしでリリースされていないようです。 Oracleはスケジュールのずれについて厳しい状況にあると言う人もいますが、予想されるコードは最終的に遅れてリリースされると言う人もいれば、Sunが開発中の予想される機能のフルセットが将来のオープンソースバージョンとしてリリースされるのではないかと考える人もいます。所有権/リーダーシップ/管理の移行を考慮したオラクルによる。

私はミラーのみを使用し、FreeBSD 8でのZFSの信頼性を最適化するために、非常に精査された安定したストレージコントローラードライバーとディスクドライブモデルのみを使用します。おそらく8.1を待ちます。

4
zuser

私は過去2年間、2TBを超えるストレージを備えたFreeBSD + ZFSを問題なく使用しています。ただし、ZFSバージョン13をサポートするFreeBSD 8(AMD64)を使用することをお勧めします。

3
Babak Farrokhi

あなたがあなたの決定の基礎となることができる一つのことは、あなたが必要とする機能と、zfsのfreebsd実装にある機能はどれですか?

http://wiki.freebsd.org/ZFS 未解決の問題をかなりよく指摘しています。

(たとえば、これを書いている時点では、fbsdはzfsでiscsiをサポートしていないようです。ボックスをストレージ/バックアップとして使用したいので、Appleが飛び回っている可能性があります) ...特にタイムマシンの場合、iscsiが好きです)

2
akira