以上、Webでの情報収集を簡便にするソフトを5本見てきたが、これらはそれぞれ機能や用途が異なるため、「このソフトがベスト」と言い切ることは難しい。ユーザ各自で自分の主な目的を考え、それに合ったソフトを選択するのがよいだろう。なお、それぞれのソフトの得意とする分野についてはすでに述べてきたが、ユーザの選択の便を図るため再度、傾向別にここでまとめてみることにしよう。
ファイルのダウンロードを主な目的とする場合
特定のサイトをミラーリングしてハードディスク上に再現したい場合、CGや音楽データなど各種のバイナリファイルを収集したい場合、Web上に公開されている各種のドキュメント類をその中のインライン画像なども含めてダウンロードしたい場合などがこれに該当する。大部分のWeb自動巡回ソフトはこれを目的として作成されており、激戦が繰り広げられている分野だ。
極力正確にミラーリングを行いたい、CGや画像ファイルなどサイズの大きなファイルのダウンロードが多い、ネットサーフィン中に発見したサイトをスナップショット的に収集したい。こうした用途には「Getweb! with ImageBrowser」がよいだろう。動作が安定しており、信頼性の高いソフトだ。リンクの書き換えとオリジナルへの復帰を自由に行えるのもおもしろい。
機能の豊富さを重視するならば「Vegas95 Proxy」もおもしろい。多くのWeb巡回ソフトの長所を集めたような多彩な機能が魅力のソフトだ。プロキシサーバとしても動作するので、ブラウザでネットサーフィン中に見たページを自動収集させるといった使い方もできる。
▲ 「PageDown」。内蔵のブラウザで、画像のチェックを手軽にできる
|
|
ページの都合で紹介はできなかったが、「PageDown」も人気が高いソフトだ。機能の数は上記2本のソフトよりも少ないが、自動巡回ソフトとして必要な機能はひと通り備えており、操作がシンプルでわかりやすい。ActiveXを使用したInternet Explorer互換ブラウザを内蔵しており、画像のチェックが手軽にできるのも便利だ。
|
▲ 「まいダウン」。指定したページのデータを半自動で収集する
|
やはり紹介できなかったが、目的のページからファイルを指定してダウンロードするだけでよいなら「まいダウン」もシンプルで使いやすいソフトだ。ダイヤルアップの制御などの機能はないが、Wizardの質問にいくつか答えるだけでOKという操作の簡単さがよい。ファイル名のパターンを書式指定によって設定し、連番のファイルを一括ダウンロードすることもできる。
変化が早い情報の収集を主な目的とする場合
新聞や雑誌など、頻繁に内容が更新されるサイトからの情報を効率的にすばやくキャッチしたい場合などがこれに該当する。この用途では、収集した情報の表示能力、検索能力などが重要で、ミラーリングなどのファイルの保管能力はあまり必要とされない。ハードディスクの容量を圧迫するという観点からは、むしろ不必要な機能といってもよいのかもしれない。
複数のサイトからテキストを中心とした情報を効率よくチェックしたいのであれば、「Flashnavi」がお勧め。画面を最大三分割して、各領域に異なるサイトからの情報を電光掲示板のように流すことができる。条件を指定して複数のサイトより情報を検索し、該当したページの情報を次々と流すことも可能だ。
Webは便利だが、いちいちマウスを操作しなくてはいけないのが面倒だと思っている人には「SiteCruise/Personal」をお勧めする。このソフトは指定したホームページの画面を順番に次々と自動的に表示してくれるのだ。一画面で収まらないページの場合は自動的にスクロールしてくれ、ユーザはあたかもTVを見ているかのような感覚でWebブラウジングを楽しむことができる。
そのほかのソフト
自分のホームページの管理とWebの自動巡回を同じ環境でやりたいのであれば「W3HELPER」を検討する価値があるだろう。専用のWeb自動巡回ソフトやHTMLエディタと比べるとそれぞれの機能は高機能とはいえないが、統合環境で手軽に操作できる点がよい。
|
▲ 「WWWC」。指定したページやファイルに変更があると知らせてくれる
|
そのほか、今回は紹介できなかったが、評判の高いソフトのひとつとして「WWWC」がある。これは、インターネット上の目的のページやファイルに更新があったかどうかをチェックするためのソフトだ。[Start]ボタンをクリックしてチェックするほか、常駐させて自動チェックさせることも可能だ。「WWWC」自体にはWebページからデータをダウンロードする機能はないが、「Wget」というソフトと組み合わせることでこれも可能になる。
|