Skip to content

「ブログ毎日更新 」という神話 / Googleが排除しようとしているもの

ブログ界隈を眺めていると「毎日更新」という言葉をよく耳にする。

毎日、新しい記事をアップロードすることでgoogleのAIに評価されやすいというSEO的な理由と、常に最新の情報を得られるとして読者が付きやすいという理由があるようだ。

さて、このブログは毎日更新していない。今回は、SEO的な視点で「ブログの毎日更新」について考えてみたい。

「毎日更新」という神話の始まり

毎日更新にSEO的効果はあるのだろうか? 僕は「無い」と思っている。よく考えてみてほしい。googleのAIがそんなにアホだろうか?

ブロガーの中には、一日の3記事とか、5記事とかを書く強者もいるが、結局、記事自体を読んでみると、Twitterから誰かのツイートを引用して貼り付けて並べたり、改行を多めにとってスクロール幅を確保したり、小手先の手法で記事を盛っているのが現状だ。

もし、しっかりと組織されたメディアがプロのライターを複数雇って運営されているというなら、それなりの質を担保した記事を毎日更新することは可能だろう。実際に、そういったメディアはすでにある。しっかりとした取材をベースに書かれた記事と、そうでない無駄に盛られた記事は、読者ならばすぐに判別できる。

大量に吐き出されたウェブ上の質の悪い情報の数々は、結局、googleのAIがまだ未熟だった頃に生まれた「毎日更新」という思想によるものだ。

時間をその頃に巻き戻してみよう。

ここに一つの市場がある。誰も参入していないブルーオーシャンだ。そこに新規参入者がやってくる。すばやくこの市場を占有しなければならない。取るべき戦略は一つだ。質は問わず、大量に記事を量産し、市場を埋め尽くすことだ。時には、プログラムによって自動生成された記事が使われることもあった。

後から質の良い情報が入って来たとしても、すでに検索上位は、質の悪い情報が占有しているので、ユーザーは質の良い情報を見つけることが出来ない。googleはずっとこの問題に頭を悩ませ、対策を打ってきた。

googleが必死になってボット対策を講じているということが、皮肉にも自動生成された文書に一定のSEO効果があったという事実を裏付けている。

プログラムによる自動生成される大量の無意味な記事。当時のgoogleの検索アルゴリズムの盲点をついた発想だが、僕は「毎日更新」という神話の発祥は、ここにあると考えている。

つまり、googleがボットによる自動生成文書を排除しはじめたから、今度は人の手で文書生成しようと始めたのが「毎日更新神話」となった。ボットよりもスピードは落ちるが、結局、市場を質の悪い大量のページで占有するという本質は変わっていない。

それによってネット上に溢れる情報は、翻訳機械的な無機質なページから、コピー&ペーストに手直しが加わっただけのオリジナリティの無い記事へと変わっていく。

googleが排除しようとしているのは、ボット自体ではなく、あくまで量産される質の悪いページであって、それが人間によって生成されたからといって問題が解決したわけではない。

googleは更新頻度を気にしてない?

素早く量を担保するために自動生成された記事と、毎日更新するために質を下げて量産される記事、本質的には同じ思想によって生まれた文章だ。

自動生成された文書をgoogleが排除するならば、後者の文章も同じく排除される対象に入るはずだ。そして、近年続いているgoogleのアップデートによって、それが実現しつつあるように感じている。

googleが更新される頻度によって評価に優劣をつけているという見方もあるが、僕自身、ブログを運営していて更新頻度は、googleの評価にほとんど影響を与えていないと考えている。

ここで面白いデータを見せよう。今年に入ってからブログを運用し始め、現在に至るまでのアクセス数の推移だ。

緑の丸で囲った部分、4月~8月末までの五ヵ月間、実は、全く投稿していない。しかし、この完全放置期間に記事のアクセス数は倍以上になっている。つまり、記事に何が書かれているのか、それに対して訪問者がどういったアクションを取ったかが重要であって、更新頻度は評価とは、ほぼ無関係だということが分かる。

僕は、この結果を見て、モチベーションが上がり、9月から再び記事投稿を始めた。2か月で35記事を投稿した。これによって記事の総数は70となる。つまり、倍の弾数を用意したことになる。

しかし、見てくれ。赤い丸で囲った二ヵ月のアクセスは横ばい、むしろ少し下降している。記事数を倍にしたが、googleに評価されなかったようだ。新たな記事を追加したから評価が下がったと見ることも出来るが、この部分のアルゴリズムは、まだ、よく分かっていない。ただ、新記事がプラスになっていないのは確かだ。

そして、最後にオレンジで囲った部分が直近だが、一段上がったように見える。これは、9月、10月で新たに追加した記事へのアクセスではなく、ほとんどがそれ以前の記事へのアクセスだ。つまり、新しく追加した記事が評価されたわけではない。

実は、4月から徐々に評価されはじめた古株の記事は、その数か月前に投稿したものでその当時は全く無視されていた。

記事が正しく評価されるまでの時間

googleが実際に記事の質を正確に評価するためには、訪問者のアクションを観察しなければならないが、そもそもアクセス数が少ないブログでそういったデータを一定量収集するためには相当の時間がかかる。

僕自身の感覚では、記事が正確に評価されるまでに早くても三ヵ月から、半年以上かかっている。

時折、サーチコンソールで特定のキーワードの検索順位を観察しているが、突然、新しいサイトが割り込んできて順位を落とされるということがあった。しかし、その半年後、新しいサイトが下落し、僕の記事が元の順位に戻る。もちろん、記事をリライトしてもいないし、タイトルを変えてもいない。

多分、googleは勢いのある新サイトを一時的に評価していたが、長い期間を経て十分なデータが蓄積された時点で評価を修正したのだろう。

それ以外のケースもある。とあるキーワードで記事を書いたのだが、どうしても某サイトが立ちはだかり、上に行くことが出来なかった。記事を何度もブラシュアップしたが、それは変わらなかった。僕はこれ以上食い下がっても無駄だと判断し、諦めて放置した。

半年以上経った頃、サーチコンソールで確認すると、某サイトを追い抜いていた。あれほどまでに鉄壁な地位を確立していたはずの。

僕の記事だけがこういった評価のされ方なのか、他のブロガーのアクセス解析データを見ていないので何とも言えないが、人間が小手先の技術抜きで真面目にブログの記事を書いた場合、多分、AIにとって最も評価しづらいものになるだろう。

2019年11月、人工知能を研究する非営利組織OpenAIが、高精度の文書自動生成プログラムをリリースして話題になった。「GPT-2」と呼ばれるこのプログラムは、その精度の高さから悪用を避けるため論文公開が延期されたと言う。

googleがアップデートを重ね、ボットによる自動生成文書を排除できるようになったとしても、ボットも同じく進化しているわけだ。もしかすると、ボット文書が返り咲く可能性もありえる。

究極のところ、ボットが生成した文章だったとしても、それが人間が書いた文章と遜色なく有用なものであれば、googleは、それを受け入れるのだろうか? ( あくまで、googleの前に、僕たちがそれを受け入れるという前提ではあるが )

もし、そうなら僕たちブロガーにとっては、恐ろしい未来が待っていることになる。将来、AIに仕事が奪われるという話もあるが、その中にブロガーも入っているということか・・・

 

この記事をシェア

Comments are closed, but trackbacks and pingbacks are open.