忍者ブログ
プロフィ~~~ル

Nicolasですっ♪
疑問に思ったことを検証したり、興味あることをつらつらかいていきます♪
ご意見・ご感想・苦情・苦言などがございましても、その場でグッと飲み込んじゃってください。
どうしても・・・という場合は ・・・・・@・・・・・ まで
(上記の@は半角にしてお送り下さい)

なぁ~んて言いながら、ヘビ好きな方・nicolasとメル友になってやっても良いという方、ヘビーなメール・ライトなメールお待ちしています。

なお、最近『マウスを売ってください』というメールが来ますが、プリップリの活マウスの販売は現在行っていません。(2006年6月の改正動物愛護法の施行によるものです)悪しからずご了承下さい。将来、活マウス屋を開業した暁には大々的に宣伝・販売を行いますので、その時は宜しくお願い致します。

またニコラシステムしゃぶしゃぶ仕上げ(冷凍マウスの解凍法)については、雑誌掲載の事もあるので、ジワジワッと順次書いていきます。

誰んだぁ?
12 2026/01 02
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
ブログの中を検索
携帯で撮ってみそ♪
来てくれはった人数

0(2006.07.02)
4000(2006.10.26)
5000(2006.11.01)
6000(2006.11.06)
7000(2006.11.12)
8000(2006.11.17)
9000(2006.11.24)
11111(2006.12.31)
12345(2007.02.13)
13579(2007.02.28)
14142(2007.03.08)
17320(2007.04.18)
22360(2007.06.25)
?????(2007.07.02)
30000(2007.10.12)
方言に変換する?
興味あることだけつらつらっとね
×

[PR]上記の広告は3ヶ月以上新規記事投稿のないブログに表示されています。新しい記事を書く事で広告が消えます。

スラッシュ・スプラッシュ作戦については数名の方からご質問メール等を頂戴しました。

●黒帽子じゃないの?
●どんなことしてるの?
●教えてよ♪
●なんかスゴそ~ね
●ヤバくない?

このブログで実験方法・実験結果について順次報告していこうと思っていましたが、悪用されることも考えられなくなくなくないので、封印することにしました。
(今回質問メールをいただいた方には詳細を送ってしまいましたが・・・)

●黒帽子ではありません。
検索エンジン側がどのような判断をされるかはわかりませんが、ネットビジネス界で少し意識の高い方なら、数ヶ月に一回はローカルからやっていることです。
そのことを頻繁に行う。しかもサーバーサイドで行う。perlのモジュールを1個使用し、ほんの数行で済む内容です。
サーバーサイドで行った方が・・・
 ●電気代が助かる
 ●指示をいちいち出さなくて済む(サーバーサイドでもcronは使用しませんが・・・)
 ●◎◎◎を○○できるので・・・
他にもメリットはたくさんあります。

検索エンジンに対して何かの働きかけを行うわけではありませんので、ヤバくはないと思います。
更新日をSSIで表示するよりも、検索エンジンに対しては友好的であると思います。

あぁ、これ以上は書けない。

スゴイ結果になってきています。
やはり仮説は正しいようです。

検索エンジン(特にG)は、世界中のあらゆる情報を検索可能にしたいという野望を持っています。
検索可能ということは、情報を基準に基づいてインデックスしなければなりません。

問題はその『基準』です。

検索エンジンは何を基準にしているのか?

WEBページは100項目以上の基準で表示順位を決定しているそうですね。
タグ(h1やstrongなど)で表示順位は変動し、バックリンクやGのPR(ペイジランク)はもっと影響を与えると言われていますね。

でもバックリンクはナチュラルでなければスパム判定されるし、最近PRは影響を与えないとも言われています。

100項目以上の基準の優先順位を想像しながら対策を打つことは楽しい事です。

皆さんもさらなる上位表示に挑戦しましょう♪

ところで・・・
最近読んだ本に、GのPRは『ページランク』ではなく『ペイジランク』なのだと解説されていました。(G関連本)
さて『ページランク』と『ペイジランク』の違い、わかります?


PR

ガバチョ

情報起業家の人たちの間で 『 ガバチョ 』というソフトがHOTです。

ネーミングが良いですよね。

ガバットじゃだめですよね。

やっぱりガバチョじゃなきゃ。

何をするかというと・・・

キーワードをいくつか入れて設定すると、数分で数十ページの静的なHTMLを吐き出すそうです。
しかもRSSを情報源にして。

ウチでもやってきたことです。ウチでは静的・動的ともにperlで作って実験してきました。
静的にした場合、経時的にリンク切れを起こす可能性があるので、そのあたりがどのようになっているのかなぁという疑問が残ります。
RSSを情報源にすると、必然的にブログなどが中心になるので、切れやすくなりますよね。

動的にすると検索エンジンが嫌がるので、上位表示にすぐ影響が出るでしょうね。

もうわかると思いますが、ワタクシはガバチョを買っていません。
ガバチョのアフィリエイトもやっていません。

自動記事作成ソフトが増えている中で、画期的といえばそうなんでしょうが、問題点を抱えているのは事実でしょう。

相当数のネット起業家が手を出しているそうです。
似たようなデザインのページが増えるのでしょうね。

加えて英語・仏語・独語でもサイト作成が可能だそうです。ス・バ・ラ・シ・イ・デ・ス・ネ !???

興味のある方は『ガバチョ』で検索してみてください。








Gに当たっているかもしれません。(えっ?シモネタ?)
いえいえGといってもGスポットのことではありません。もちろんゴッゴルです。
言葉足らずでした。Gにおいては仮説が当たっているかもしれません。


ある強烈な単独キーワードで、今まで全く歯が立ちませんでした。
でもここ数日の推移が・・・

2月22日
18100000件中 → 41位
2月25日
17100000件中 → 36位
2月27日
16100000件中 → 26位

3月に10位台にはいれるかどうか・・・いや~早く入りたい。Dreams Come True!!!

2月22日から27日の間には、バックリンクは増やしていません。
トップページなので、更新アップロードは4日間隔ぐらいです。
言葉を増やすだけでタグはイジッていません。

やっているのは●●●で●●●●しているだけです。
alexaで見ると、トラフィック順位が70万台まで来ました。(やっと100万台を切ったぁ、という感じです)

注目していきたいのは、ゴッゴルでの検索件数ですね。
徐々に減ってきています。
数日単位で100万件ずつ減っているわけで、100位以内に入っていても、いきなり500位圏外に飛ばされることもありますが、下位では全くインデックスされていないことも考えられますね。


まだ集中力が溜まってきていないのと、知識が足りないので、サーバーサイドで動かすプログラムが出来上がっていません。(仮称:スラッシュ・スプラッシュ作戦)

スラッシュ・スプラッシュとは・・・
スラッシュというのは文字通り 『  /  』ですね。
本家のあるサイトでは、各ページをすべてフォルダーの中に格納して、ファイル名を 『 index.html 』にしています。そしてサテライトサイトからのリンクは『スラッシュ止め』に統一しています。

本家の方のファイル読み込み順位は『 .htaccess』で・・・
index.php → index.cgi → index.html → index.htm にしてあります。
スラッシュ止めから入ってきたら、index.htmlにたどり着くまでにphpやcgiを読めるからです。

『たどりつく?』と思った方もいらっしゃるでしょうが・・・
そこで301が活躍するわけです。
律儀にindex.htmlまで入力してきた人のためにも、フォルダーの中にはindex.htmlは必要。
でも、スラッシュ止めから入ってきた人の『1アクセス』を有効に使用させてもらう(スプラッシュさせる)ためにphpやcgiを使うわけです。
間にphpやcgiをはさんでも、301を使用すれば、スラッシュ止めやindex.htmlの評価には影響が出ません。(たぶん・・・)
phpやcgiの中にはイロイロ書き放題で、アフィリエイトのクッキーを焼かせることも可能ですね。(自分ではやりませんが、やっている人を見かけました)


一説によると、チョットしたボタンをHTMLの中に置いておけば、自由形で泳いでくるロボットがボタンを押してくれるとか・・・

それだけでも上位表示に影響するかもデス。(笑々)

5位以内までに入ったら、友人のキムキムを豪遊に駆り出します。(血糖値のことは忘れるのだぁ~:笑)

ハムスターのペアがペットのコジマさんからやってきました。(サファイアジャンガリアン?)

が・・・またまたSEOの話です。

ある実験を本業のうちの1つのサイトで実施中です。

ローカルから情報発信することでアクセス数が上昇するか、検索エンジンでの表示順位が上がるかどうかを検証中です。

アクセス数には相関関係がハッキリと出ます。タイムラグは20分~30分ぐらいだと思います。

検索エンジンで表示順位が上がるかどうかは、ハッキリ言ってわかりません。他の要素(オープンになっていない評価項目)が多すぎて、相関関係はつかみようがありません。

でもGoogleとMSNで、注目しているキーワードがジワリ上昇しました。

グーグルでは、
1810000件中、3位4位だったものが、2位3位になっています。
MSNでは
598156件中、3位だったものが、1位になりました。

一時的なものかもしれませんので、今後も動きに注目していきます。

何をやっているかということですが・・・

まだチョット発表できる段階ではありません。

ローカルで動かしているソフトでは、●●●に完璧な情報を残していないのです。

サーバーサイドで完璧な情報を残すようなプログラムをPERLで書いています。

巷では相変わらずSEOについてはバックリンクが重要だと喧伝(けんでん)されています。

確かに大事なのですが、ナチュラルバックリンクでなければ、経時的には有効でなくなります。
特にYahoo!は時間をかけながらバックリンクを調べていくので、1ヶ月間ぐらい10位以内に入っていても、ジワリジワリと順位を下げていくものが多くなります。
SEO対策して『Yahoo!でウチは10位以内ですよ』と言っているのは、そういう時期なだけなのかもしれません。不動の10位以内かどうかをシッカリ見極める目(定点観測)が必要です。

10位以内に入っている時期を狙って情報商材を煽って(あおって)煽って、売り抜けようとする悪徳(???)業者が横行しています。

最近はバックリンクの評価ウエイトが少しずつ下がってきているように感じます。

人間は目に見えているものを99%信じる傾向があります。目に見えないモノは信用されません。
WEBの世界ではブラウザーに表示されるページ、ソースコード、検索エンジンで表示される順位、バックリンクの数などは見えやすい情報で、皆さんに見えますし信じられます。

でもHTTPヘッダーやアクセスログなどを見ている人は少ないようです。
情報がイッパイ詰まっています。
SEOを施しているサイトを見ると、イロイロなことが見えてきます。

一般的にはHTTPヘッダーに触れる機会は『404』ぐらいでしょうか・・・
最近は『301』がマニアックな人の間で注目されました。
でもホワイトハットSEOで本当に重要視するべきは『200』です。
『200』だけで飯が食えます。外車が買えます。蔵が建ちます。

HTTPヘッダーを知らずにアクセスログを読んでも面白くありません。
漢字を全く知らずに小説を読んでもつまらないでしょう。

SEOを極めるためにはこのあたりは必須でしょうね♪

ではまた・・・

最近、ネットの世界が楽しくてしょうがありません。

ボールパイソンの神君(しんくん)に肩の所で遊んでいただきながら、興味あることを検索しまくっています。

ふと疑問に思ったのですが、最近は大手検索エンジンでも、どのくらいの数のページをキャッシュしているか公表しなくなりました。

日々増えていくページを全部キャッシュしていたらハード面が追いつかず大変なことになるでしょう。

最近、ブログや通常のサイトを、自動で原稿作成するというのがハヤリのようです。(参照する側からみて意味があるかどうかは疑問ですが・・・。)

どうやら広告をクリックさせて収入を得ようとしている方々が、大量にページを自動作成しているようですね。

ここでまた疑問が発生します。

それぞれのページが単独で優秀でも(文法的にキレイに書かれていても)、一度上位に表示されたのち、徐々に表示順位は下がっていきますよね。

『だからSEO(検索上位表示対策)やるんじゃ~』という声が聞こえてきそうです。

そんなことは検索エンジン側もわかっていることで、SEOをやればやるほど、表示順位が乱高下することになります。

そしてそのうちキャッシュされなくなります。(特定のフィルターをかけられてサッと消えていく)

検索エンジンの発想のベクトルとは違った方向を見ているような気がしてなりません。

だから先行者利益はとれても、追随者は費用と時間をかけて徒労に終わる可能性もあります。


な~んて偉そうに言ってますが・・・1年以上前から、PERLとRSSを使ってページを大量に生産しています。(サテライト用に)

ところが、行き止まりのページばかりを量産してしまってきたため、
●裾野のページのキャッシュ&インデックス率が低い
●同じく、裾野のページへの訪問率が低い

反論が出そうです。
『確率論だから、インデックス率が低くても、インデックス量が増えれば良いじゃないか』
『サテライトページは、本体ページのSEO用だから、訪問率は高くなくても良いじゃないか』

いえいえ、そこが検索エンジンの発想とベクトルが違うんじゃないかと・・・

検索エンジンは検索のプロフェッショナルです。
それぞれのWEBページをインデックスすることにとどまっていません。
もっと全体を見ています。
だから『どのページを見せたくてSEOを施しているか』なんて先刻お見通しなんです。
だから、トップページよりも下位ののページの方がインデックスされやすかったり、GoogleのPR(ページランク)が上がったりします。

下手なSEOは、これまた費用と時間の浪費につながるわけです。(涙)

何が違うのか?ベクトルはどのようにズレているのか?


根拠のない仮説ですが・・・

検索エンジンの側は
『無料で提供してあげているのに、自分たちをテコにして儲かる人が出てきて欲しくない』
『多くの優秀なコンテンツをインデックスして、広告収入を増やしたい』
『優秀なコンテンツには自然に人(トラフィック)は集まるものである』
『優秀でないコンテンツは自然淘汰されるべきである』

SEOを施す側は
『SEO対策を施せば上位に表示され、トラフィックが増える』
『トラフィックが増えれば、広告収入が増える』
『大量に記事・ページを作成すれば、RSSを使った人のフンドシページであっても広告クリックは増える』

ズレはもっとあります。
検索エンジン側は、自分たちの所在をあまり明らかにしないのに、ページの作り手側には所在を要求する。(明示している方が上位表示されやすい)

明示した所在情報(メールアドレス・電話番号・住所・会社名・HNなど)をもとに、あなたや私の情報は検索エンジンには出てこないところに毎日蓄積されていきます。

検索エンジン側が持っている情報に比べれば『国民総背番号制』なんて鼻くそピンです。


ある実験をしています。
メインページの検索順位がジリジリ上がってきています。
サテライトページの裾野の方まで上位表示され始めています。
おかげでアクセス数は3倍くらい伸びています。

実験のコンセプトは『検索エンジンは何を基準に優秀なコンテンツと評価するか』です。

現在はローカルから情報発信していますが、近い将来、サーバーサイドから情報発信してみようと思います。(仮称:スラッシュ・スプラッシュ作戦)検索エンジンに対して発信するわけではありませんので、スパムにはなりません。大量のコンテンツを吐き出したりしません。

もちろん文法をキチンと書くなどの大前提はクリアした上で・・・

情報企業家ではないので、実験方法および結果はこのブログで公表していこうと思います。

乞う、ご期待。





Copyright © 爬虫類のことなど・・・。。All Rights Reserved.
Powered by NinjaBlog / Template by Ninja☆BT
忍者ブログ [PR]
ブログアフィリエイトで日給8万円(サイト) ブログアフィリエイトで日給8万円(ブログ)