2011年のホームページの更新作業手順メモ
<作業手順>
最近やることが多くて、人間の記憶メモリが混在してしまう。昨日の晩飯に何を食べたのか、1週間前に何を食べたか忘れてる。そこで、ささいなわかりやすいことでも、メモっておいて、忙しくて作業をしなくなったときに 改めて見直すことにする。
(1)ウェブ上のサイト−>検索クエリから「検索キーワード」の上位を選ぶ
ここで、検索結果は、約4、5日後のものである。つまりリアルタイムではない。該当のURLをメモする。
該当のURLをウェブで確認する。
重要なページにリンクをはる
MacXであれば、シェルから
> kedit ディレクトリパス/ファイル名
とすれば、keditアプリが起動して、ファイルが開く。
複数ファイルを一度に開きたいときは、
> kedit ディレクトリパス/ファイル名1 ディレクトリパス/ファイル名2 ディレクトリパス/ファイル名3 とスペースでつなげばよい。
(2)クロールエラーを減らして、グーグル検索上位絵への道
少々ややこしいので、全体の構成を説明すると、まず、「見つかりませんでした」エラーを表示させて、そのエラーのURLをチェックして、ファイルがあるかを確認し、実際に ファイルが存在しないときは、間違ってURLを記載した可能性が高い。しかし、グーグルは、エラーとして登録した。なので、グーグルに対して、検索されないように依頼する。
それを、クローラのアクセス項目から、「URLの削除」等で申請する。
なお、絶対に「URLの削除」の申請をする必要があるわけではなく、エラー箇所をチェックして、サーバにアップしているhtmlファイルを修正すればよい。
(2-1)診断−>クロールエラー−>ウェブタブ
で「見つかりませんでした」を確認する。

そして、該当するURLをコピペする。
また、メニューのサイト設定−>クローラのアクセス−>robots.txtを生成、URLの削除タブ
に登録する。
・まずは、「URLの削除」から始める
新しい削除リクエストボタンを押して、サブディレクトリ名、ファイル名を含むパスをコピペする。すると、ドメインを含むhttp://は勝手に付けてくれる。なお、すでに登録されているファイル名は、登録されない。そのため、うっかり重複を削除依頼してグーグルに嫌われることはないだろう。
・robots.txtを生成

1. デフォルトのクローラのアクセスを選択
すべてを許可(推奨 - 次の手順で調整できます) <−特にこのまま
2. その他のルールを指定(必要な場合のみ)
処理:ブロック
User-agent:すべてのロボットを選択
ディレクトリとファイル:/を付けてディレクトリ、ファイル名のパスを入力する
そして、ルールを追加ボタンを押す。
するとその下の
3. 新しい robots.txt ファイルをダウンロード
のフィールドに、記述される。 テキストフィールドに記述された内容をコピペして、
自分のドメインで使用するrobots.txtを開いて、必要なところをペーストする。
「robots.txtを生成」では、既存のrobots.txtのデータを読み込むわけでなく、新しく処理したい記述を追加するためのものである。よって、 新しくrobots.txtで制御、ブロックしたいディレクトリやパスをこのタブで追加する。
なお、robots.txtの記述方法を知っていた場合は、このツールの必要はない。
(2−2)グーグルの診断−>クロールエラーはどれくらいで解消されるか?
- 2011/6/12 見つかりませんでした:12924件
- 2011/6/22 見つかりませんでした:10721件
- 2011/6/30 見つかりませんでした:6109件
- 2011/7/02 見つかりませんでした:4640件
- 2011/7/06 見つかりませんでした:1448件
徐々に減っているが、エラーを情報は、90日間保有する。そのため約3ヶ月前のデータは削除されていくので、ほっておいてもエラーは消えていくのかもしれない。