フリーのダウンロードツールとしては、Iria およびその後継機種の Irvine が有名ですが、ポイントはファイル分割による高速化と、ファイルの用途別分類による効率化を目指すところにあるようです。ホームページまるごとダウンロードもできるようですが、そのような用途を主眼とする立場からは、取り扱いがやや煩雑です。
GetHTMLW と Getleft は、まるごとダウンロードする観点から便利なソフトです。GetHTMLW はネットサーフィンしながらのダウンロードが可能です。日本語の入門解説もありますし、詳しい解説がヘルプから得られます。Getleft は手軽なわりに強力なツールですが、日本語版がないので、ここに使い方を書いておきます。ほとんど英文ヘルプそのままですが。
GetHTMLWの方がより高機能のようですが、Getleftには、ダウンロードする前に取得するサイトの一覧表を表示する機能があり、不要なサイトをあらかじめ除外できるという便利さがあります。しばらくは両者を比較して見ようと考えています。
(030109記入)(updated 070607)()
目 次
1.ダウンローダーの特徴比較(Irvine,GetHTMLW,Getleft)
2.Getleft のインストール法
3.Getleftの使用法
3.1 とりあえず使ってみる
3.2 オプションの設定
3.3 ダウンロードの予約
3.4 プロキシの設定
3.5 過去の作業の更新
3.6 元ファイルの回復
Iria の後継のダウンロードマネージャー。主な機能は、任意の数で分割して分割ダウンロード機能、ダウンロード再開のレジューム機能、クリップボーを監視してzip/lzhなどのURLをコピーした時に登録するクリップボード監視機能、ブラウザの右クリックを拡張などなど。Irvineはキューフォルダと呼ばれるものを複数作成可能。ヘルプは同梱されていないので使うには根性がいる? 同型のソフトとしては、Iriaとか、FlashGet、ReGet、Net Vampire、Go!Zilla、DCさくら等がある。 |
|
オフラインで WebPage を閲覧するために開発された。WebPage データ(ホームページ)を階層ごと全て 取得できる。親サイト、ドメイン外リンクも追跡可能。データ取得後ファイルツリー表示。プロキシ機能を使い、取得 したデータをオフラインで閲覧できる。ネットサーフィンしながら見たデータを全て保存する機能があり、欲しいデータのみ取得したいとき便利。FTPをサポート。CGI追跡、Shockwave-Flash 内リンクも追跡可。 |
|
設定が簡単で手軽なわりに強力。ただし英語版のみ。Webサイトをまるごとダウンロードできるツール。オプションでダウンロードする範囲を設定可能。ダウンロードしたページは、相対リンクに変更されるので、オフラインでのブラウズが容易。中断されたダウンロードは再開可能。特定ファイルのダウンロードを防止できるフィルタリング機能も備える。開始前にサイトマップを表示できるほか、親サイト、ドメイン外リンクにも対応可能。FTPは限定サポートでダウンロードは一層のみ可能。CGIも追跡可。ダウンロードの時間予約が可能。以上開発者やZDNetの説明。 |
私の乏しい経験で後者二つを比較すると、GetHTMLWは、Getleft の持つ機能を強化し、さらに分割ダウンロードによるダウンロードの高速化も計っているのでベター。高級な設定が可能だが、設定法はかなり複雑で慣れる迄、時間がかかりそう。Getleft は手軽に使えるのと、上の表にある機能を使いたいときに有用か。
Getleftのホームページから、getleft-setup-v1.2b2-full.exe をダウンロードして、ダブルクリックして指示に従えばインストールされます。GetleftはTcl/Tk言語で書かれています。 プログラムはTcl/Tkを含むヴァージョンと含まないヴァージョンがあります。Tcl/Tk って何?と聞く人は(私もそうですが)、Tcl/Tk を持っていない人でしょうから、Tcl/Tkを含むヴァージョンをダウンロードします。
アンインストールするには、「コントロールパネル」「プログラムの追加と削除」から Getleft を選んで削除します。
(1) デスクトップの「Getleft v1.2b2」のアイコン、もしくは「プログラムファイル」「Getleft」の中のGetleft.exe をダブルクリックすれば、起動して下のような主画面が出ます。
<Getleft の起動して最初に現れる画面>
(2) ツールバーの「地球」アイコンをクリックすると、下のような「Enter Url」画面が出ますので、ダウンロードしたいサイトのURLを「Web Page」窓に入力し、「Directory」窓の右側のボタンを押して、保存したい場所のパスを入れます。
なお、URLはあらかじめコピー操作でクリップボードに入れておけば、画面が開くと自動的に入ります。その方が楽でしょう。
(3) 「Option」ボタン(左下のアイコン)を押すと下のような「Options」窓が開きます。
既定は「Image」欄の「All」がチェックされている以外は全てオフのはずです。
この設定では、指定のサイトのhtmlファイル以下が全てダウンロードされます。ただし、下に説明する「Choose Files」でサイトマップが表示されたときに、ダウンロードしないディレクトリーやファイルを指定できます。オプションの設定法については、次章で説明します。
「OK」ボタンを押しオプションを確定します。
(4) 直ぐにダウンロードを開始したいときは、「Enter Url」ダイアログ画面で「Web Page」欄の「Start now」にチェックマーク入れ、下方の「Start」ボタンを押します。
(5) 「Web Page」欄の「Start now」にチェックマークが入っていないときは、「Start」ボタンを押すことにより、主窓欄にURLが入力されます。繰り返してダウンロードすべき多数のURLをまとめて入れられます。この追加作業は、既に上位のURLのダウンロードが始まっていても可能です。
(5-1) キュー(待ち行列)上のURLは、右クリックすることにより、オプションの変更、キューの削除、順番の入れ替えなどが可能です。
(5-2) キューがある時は、ツールバーの三角印アイコン(Resume)をクリックすればスタートし、上から順にダウンロードをはじめます。
(6) 複数のリンクオプション(レベル数1以上)を設定したときは、ダウンロードする前に「Choose Files」画面が現れます。これはオプションで指定したダウンロード作業の及ぶ範囲のサイトマップです。
ここで、ダウンロードしたくないファイルのチェックをはずします。上にあるマイナス(プラス)ボタンを押せば、全ての該当ファイルのチェックを一度にはずせ(入れ)ます。また、特定のファイルを右クリックをすることにより、ここでオプション設定を変えることもできます。設定作業が完了したならば上の三角ボタン(Download)を押します。
(7) これでダウンロードが始まります。
(8) ダウンロード中は下の画面が現れます。途中で一時休止したいときは、
「Pause」ボタン(右下の)を押します。「Pause」を押すと「Resume
」へとアイコンが変わりますので、後で再開するときに押します。「Stop」ボタン(
)を押すと、中央のConfirm画面が出現します。ここで止めたいときは「はい」のボタンを押すと、ダウンローダがストップし、左の画面が消えますので、他のサイトを選んで別のダウンロードを開始できます。。主窓のキューにはURLが残るので、後にここを右クリックして「Resume」を選択すれば、中断したダウンロードを再開できます。右上の「閉じる」ボタン(
) を押すと「confirm」画面が出ますが、そこで「はい」を押すと右側の「Resume」ボタンが出るので、ダウンロードを止めるならば「いいえ」、後で再開したいときは「はい」を押します。
ダウンロードが終わると次の図が表示されます。
「Options」のダイアログウインドウを見てください。
「Links」欄
「Up links」: 通常は下位のリンクしかダウンロードしませんが、ここをチェックすると上位のサイトにもリンクしてダウンロードします。例えば、指定のURLが
http://www.somedomain.com/asahi/monday/index.html
であるとして、欲しいサイトがmondayディレクトリー以下の場合はチェックしないことです。
「Update」: 既にダウンロードしたサイトがあり、更新したいときにチェックします。
「CGI」: CGIスクリプトへのリンクも追跡したいときにチェックします。
「Levels」欄
「Levels」: 追跡すべきリンクの階層をを指定します。最初に指定するURLはレベル0です。そこのページのリンクサイトはレベル1です。「Levels」ボタンにチェックマークがないときは、階層無限大です。したがって、「Up links」「External links」「Levels」が全てノーチェックで、フィルターがかかっていないとき、一つのサイトをまるごとダウンロードします。
「External links」は、指定したURLのドメイン外のリンクの追跡指定です。例えば、ダウンロード指定のURLが
http://www.somedomain.com/asahi/monday/index.html の時、次のURL
http://www.anotherdomain.com/yomiuri/tuesday/index.html へのリンクがあってこれも追跡したいときにチェックします。
注意: ここをチェックしたときは、上の「Levels」に必ずチェックマークを入れ、階層数を有限値に設定しましょう。さもないと追跡が際限なく行われ悲惨なことになります。
「Filters」欄
「Get map」にチェックを入れると、指定オプションの範囲内でサイトの全てのhtmlファイルのリストを作り、ダウンロードすべきファイルを選択できるようにします。
** ただし、わたしの経験した限り、チェックなしでも上記の作業は実行されます。その上、チェックするとしばしばエラーが生じます。原因はよくわかりませんが、チェックしない方が安全のようです。
「Html only」: htmlファイルのみをダウンロードしたいとき、ここをチェックします。
「Choose filter」: ボタンを押すと「Exclude Files」画面(右図)が現れますので、ダウンロードしたくないファイルの拡張子をチェックした上でOKします。
「Image」欄
「All」: 全ての画像のダウンロード(ただし、上のフィルターで.jpg を選択すると.jpg 画像はダウンロードされません。)
「Only Thumnails」: サムネール(画像見本)のみダウンロード
「No Thumnails」: サムネールはダウンロードしない。
右方の四角ボタン類
「OK」: オプション設定の確定
「Cancel」: オプション設定をキャンセル
「Save」: オプション設定を保存。次回以降はこの設定が既定となる。
「Load」: オプション設定を初期化。
「Help」: ヘルプ
なおオプションの設定は、上記以外にも以下の操作で変更可能です。
終了時刻を設定したときは、「Stop」欄で、「直ちに」か、「ファイルダウンロード終了後」か、「ページ終了後」かいずれかを設定する必要があります。
「Days」欄では、今日だけの設定か、毎週の特定の曜日かの選択をします。
Getleftは主窓キューの最上列より始め、最下列が終了するまで作業します。
主窓のツールメニューから「Configure Proxy」を選択するとダイアログ画面が出るので、必要項目を入力します。
ダウンロードを終了すると、Getleftは、URLとデータ保存ディレクトリーのログを記録します。主窓の「本」アイコンをクリックするとログが現れるので、
望みのURLを右クリックして、作業(更新、ダウンロード、オプションの変更など)の指示をします。ログは100本までで、100を越えると最初のログから上書きされます。上書きされたくないときは、右クリックで「Do not erase」を選択します。
Getleftは複数のファイルをダウンロードすると、絶対リンクから相対リンクに変えます。これは、ブラウザーを使わずともファイルを開くだけで相互のリンクができる便利な動作です。オリジナルなファイルは、xxx.org という名で保存してあります。
(終わり)