仕事を受けたら納品するべきファイル・設定するべきもの:SEO関連ファイル
ビジネスとしての案件は、最低限、標準レベルで納品したいと思います。
納品すべきと考えるファイルや設定などについてメモです。
robots.txt
クロール用ロボットに対して、クロールをブロックするためのファイルです。
ブロックしたいページやディレクトリなど個別に設定します。
長期にわたって運用しているWEBサイトで、古いファイルがサーバ上へ大量に保管されているときがあります。依頼をいただいてからサーバ内をみてみると、、、ファイルのほとんどがバックアップファイルのときなど…びっくりするときがあります。
そんなときにも利用できます。
User-agent:
以降のルールを適用するロボット。基本はアスタリスクでよいと思いますが、詳細な設定を行う場合にはロボット名をそれぞれ記述します。
Disallow:
ブロックするURL、ディレクトリなど
Allow:
許可するURL
記述パターン
- Disallow: /*?
パラメーターなどのURLのことです。?を含む全てのURLへのアクセスをブロック
- Disallow: /directory*/
directoryで始まる全てのディレクトリへのアクセスをブロック
- Disallow: /*.pdf$
URLの末尾(.pdf)が一致するURLへのアクセスをブロック
- User-agent: Googlebot-Image
Disallow: /img/xxx.jpg
画像検索に対し特定の画像(xxx.jpg)をブロック
サイトマップ
クロール用ロボットに対して、クロールして欲しいWEBページを知らせるための補強ファイルです。
便利なWEBサービス
http://www.sitemapxml.jp/
ウェブマスターツールのサイトマップ登録方法についてのページがあります。※スクリーンショットは前バージョンのようですが大変参考になります。
サイトの更新頻度の選択
個人的には1年もしくは更新しない(記述しない)など頻度を低くし、ファイルをダウンロード後に頻繁に更新するファイルを個別に書き換える方がよいかと思います。
※yearly (1年毎)、monthly (1ヶ月毎)
除外ディレクトリの入力
ワードプレスの場合は重複ページを防ぐために、除外ディレクトリを記述する方がよいかと思います。
※(例)category,tag,author,page,serch
Google アナリティクス
最近トラッキングコードが新しくなっていました。登録方法はあまり変わっていませんが、分析するための詳細設定がどんどん増えてます。乗り遅れないように定期的に勉強が必要だと感じます。
Javascriptファイルは1ページずつ記述する方法より、外部ファイルとして読込む方法が個人的に好きです。
ウェブマスターツール
https://www.google.com/webmasters/tools/home?hl=ja
アナリティクスと同じアカウントでログインし、登録します(間違って自分のアカウントへ設定しないように)。
簡単に設定できるのは「Google アナリティクス」の方法です。既に導入済みの場合には[確認]ボタンをクリックするだけです。
でも、CMS構築の場合に原因不明ですが確認とれません(たぶん複雑なディレクトリが原因)。ワードプレスなどでは、「HTMLファイルのアップロード」か「HTMLタグ」で確認を取るとスムーズです。
- HTMLタグ・・・metaタグ(name=google-site-verification)をテンプレートに記述
- HTMLファイル・・・googleから始まるHTMLファイルをWEBサイトのルートディレクトリへアップロード
構築後に設定することになると…
HTMLタグので確認する場合、全関連ファイルに追加記述しなければいけません。
静的ファイルのWEBサイトでは特に時間の無駄です。構築前にきちんと確認を取ることをおすすめします。
最後に。
構築の仕事を受けた際にはきちんと運用面を考慮して提案・確認しておくと、後々困ったことにはならないと思います。ただし、間違った設定をすると大変なことになるので気をつけよう。