back

サーチエンジン編

さて、今回はインターネットになくてはならない検索エンジンの話です。

検索エンジンを大まかに分けると以下の2つになります。

ディレクトリ型検索 (→ Yahoo! JAPAN)
情報をカテゴリ別に分類し、その中の情報を検索する方法です。また、この種の検索エンジンは登録が必須ですので、ウェブサイトの管理者が登録しない限り、そのサイトへのヒットはありません。
ロボット型検索 (→ gooinfoseekGoogle)
インターネットを走る情報収集プログラムによりサイトの情報を集め、その集めた情報を元に検索する方法です。プログラムはリンクをたどって情報を収集していくため、どこからかリンクが張ってあれば、そのサイトは大抵の場合*1検索の対象になります。

一般的にディレクトリ型検索は質、ロボット型検索は量、ということになっています。

検索エンジンの話をすると必ず出さなければならないような扱いを受けている「Yahoo!(以下ヤフー)」ですが、最近はあまり良い噂は聞きませんね。

ヤフーの良さは良く整理されたカテゴリと簡潔明瞭な説明文、そして登録されているサイトの良質さでしょう。これはヤフーの登録サイトが全て、ヤフーサーファーと呼ばれるヤフーの登録審査員のチェックをくぐり抜けてきた、一般的に見て良質なサイト*2だからでしょう。

しかし最近、ヤフーは「登録サービス」を停止し、「推薦サービス」という名前に変更しました。ヤフー推薦サービスには、頂いた推薦サイトが必ず登録される「登録サービス」ではありませんと、はっきり書かれてあります。こう書かれていても、「登録されるんでしょ?」と思った人、今のヤフーはそんなに甘くありません。今、個人のウェブサイト管理者の中では「ヤフーに登録されるのは東大入試よりも難しい」と冗談混じりに言われていますが、これは事実です。この問題についてはここのサイトの「ヤフーは墓穴を掘ってませんか?」を参照してもらうとして……兎も角、現在のヤフーにある種、使用法の限界があるのは決定的ではないでしょうか。

対して、現在のロボット検索は非常に優秀になってきています。登場したての頃のロボット検索は、ただ単に語句があっているだけの関係ないページを結果の上の方に持ってくることも多かったのですが、最近ではかなり改善されています。ただ、矢張り関係ないページが検索されることも間々あるのですが*3

要は検索する情報によっての使い分けが大事なのではないかと思います。

(そう言いつつも最近はGoogle以外はほとんど使ってませんが)

  1. 1, 例外として作成してから時間が経ってなかったり、ロボット排除タグのせいで情報が収集されてない場合は検索されません。

  2. 2, 例えばサイト構成などが普通でなくても、工事中が沢山あっても、ロボットの情報収集には引っかかってしまいます。

  3. 3, 性質上の問題ですので、これは仕方ありません。