上のメニューへ  
 
前へ | 次へ ▲Top

2011年のホームページの更新作業手順メモ

<作業手順>

最近やることが多くて、人間の記憶メモリが混在してしまう。昨日の晩飯に何を食べたのか、1週間前に何を食べたか忘れてる。
そこで、ささいなわかりやすいことでも、メモっておいて、忙しくて作業をしなくなったときに 改めて見直すことにする。

(1)ウェブ上のサイト−>検索クエリから「検索キーワード」の上位を選ぶ

ここで、検索結果は、約4、5日後のものである。つまりリアルタイムではない。
該当のURLをメモする。
該当のURLをウェブで確認する。
重要なページにリンクをはる
MacXであれば、シェルから
> kedit ディレクトリパス/ファイル名
とすれば、keditアプリが起動して、ファイルが開く。
複数ファイルを一度に開きたいときは、
> kedit ディレクトリパス/ファイル名1 ディレクトリパス/ファイル名2 ディレクトリパス/ファイル名3 とスペースでつなげばよい。

(2)クロールエラーを減らして、グーグル検索上位絵への道

少々ややこしいので、全体の構成を説明すると、まず、「見つかりませんでした」エラーを表示させて、そのエラーのURLをチェックして、ファイルがあるかを確認し、実際に ファイルが存在しないときは、間違ってURLを記載した可能性が高い。
しかし、グーグルは、エラーとして登録した。なので、グーグルに対して、検索されないように依頼する。
それを、クローラのアクセス項目から、「URLの削除」等で申請する。
なお、絶対に「URLの削除」の申請をする必要があるわけではなく、エラー箇所をチェックして、サーバにアップしているhtmlファイルを修正すればよい。

(2-1)診断−>クロールエラー−>ウェブタブ

で「見つかりませんでした」
 を確認する。

 そして、該当するURLをコピペする。
 また、メニューのサイト設定−>クローラのアクセス−>robots.txtを生成、URLの削除タブ
に登録する。
 ・まずは、「URLの削除」から始める
 新しい削除リクエストボタンを押して、サブディレクトリ名、ファイル名を含むパスをコピペする。すると、ドメインを含むhttp://は勝手に付けてくれる。なお、すでに登録されているファイル名は、登録されない。そのため、うっかり重複を削除依頼してグーグルに嫌われることはないだろう。
 ・robots.txtを生成

 1. デフォルトのクローラのアクセスを選択
 すべてを許可(推奨 - 次の手順で調整できます) <−特にこのまま
 2. その他のルールを指定(必要な場合のみ) 
 処理:ブロック
 User-agent:すべてのロボットを選択
 ディレクトリとファイル:/を付けてディレクトリ、ファイル名のパスを入力する
 そして、ルールを追加ボタンを押す。
するとその下の
 3. 新しい robots.txt ファイルをダウンロード
 のフィールドに、記述される。  テキストフィールドに記述された内容をコピペして、
 
 自分のドメインで使用するrobots.txtを開いて、必要なところをペーストする。
 「robots.txtを生成」では、既存のrobots.txtのデータを読み込むわけでなく、新しく処理したい記述を追加するためのものである。よって、  新しくrobots.txtで制御、ブロックしたいディレクトリやパスをこのタブで追加する。
 なお、robots.txtの記述方法を知っていた場合は、このツールの必要はない。

(2−2)グーグルの診断−>クロールエラーはどれくらいで解消されるか?

     
      2011/6/12 見つかりませんでした:12924件
     
      2011/6/22 見つかりませんでした:10721件
     
      2011/6/30 見つかりませんでした:6109件
     
      2011/7/02 見つかりませんでした:4640件
     
      2011/7/06 見つかりませんでした:1448件
 当初、1万件のクロールエラーがあって、robots.txtやURLの削除、ページの改善をした。
 徐々に減っているが、エラーを情報は、90日間保有する。そのため約3ヶ月前のデータは削除されていくので、ほっておいてもエラーは消えていくのかもしれない。





---(^_^)----
▲Topに戻る



 



パック旅行なあ

高速バス予約4000円

広告
.
  

Warning: include_once(/home/enjoygoodtown/www/php/cm/comic_cm.php): failed to open stream: No such file or directory in /home/pikucha/www/kabu_news/hp_mente1.php on line 193

Warning: include_once(): Failed opening '/home/enjoygoodtown/www/php/cm/comic_cm.php' for inclusion (include_path='.:/usr/local/php/7.4/lib/php') in /home/pikucha/www/kabu_news/hp_mente1.php on line 193

Fatal error: Uncaught Error: Call to undefined function f_comic_cm() in /home/pikucha/www/kabu_news/hp_mente1.php:194 Stack trace: #0 {main} thrown in /home/pikucha/www/kabu_news/hp_mente1.php on line 194