にほんブログ村に入会しようかと検討中ですが辞めておこうとまだ思っている🐾

2022.02.22

Logging

おはよう御座います。
朝、4時起床しました、正確には3時半ぐらいに目覚めました。
でも8時間睡眠は取れてますよw。この頃?、凄く早い時間から寝ています、本格的に仕事を始めたらこんな生活は無理だろうけど…。

さて、にほんブログ村という人気ブログランキングポータルサイトとかいうモノに入会しようかと、昨日悩んでいましたが、結局辞めました。辞めた理由に関してはアクセス数が上がるとは思うけど、SEO的になんかマイナスじゃないかなって思えてならなくて辞めたですよね😣。

入会しようかと思ったきっかけは入会してボットとしてサイトを巡回するプログラムを作れれば、自ずとアクセス数は伸びるという確信があったからなんですが、それを実際して何になるのかと…。

にほんブログ村に登録しているユーザーも自分のアクセス数を少しでも伸ばして収益に繋げようとしている人が大半なわけですからね。そう考えるとあまり会員登録してボット巡回することに意味はないのかなって感じました。

因みに今月の広告収益は結構伸びてます、この季節は結構広告単価が良いので収益も良いです。ですが、これで生活するには程遠いアクセス数なので当分は難しいと思います。

具体的な金額をいうのは規約的に宜しくないみたいなので、例えると本一冊(小説)分の金額は稼いでいます、これが定期的に入るですけどこれでは生活できない。最低でも新卒サラリーマンの収益を得たいなと思います。こういう事を書いている記事が過去にも何本かあるけど、ここ数年、あまり成長がないですよね。ただ救いなのは昔の記事と今の記事を見比べると断然、今の記事の方が何を書いているのかが、わかりやすくなっています、それだけが救いですね。

トイウコトデ、これからもよろしくお願いいたします🙇。

タグ

, 4, 8, SEO, , アクセス, きっかけ, こと, サイト, それ, ニホン, ブログ, プログラム, ブログ村, ポータル, ボット, ますよ, もの, ユーザー, ランキング, , 人気, 仕事, 会員, 入会, , 収益, 大半, 実際, 少し, 巡回, 昨日, 時間, , 検討, 正確, 理由, 生活, 登録, , 睡眠, 確信, 自分, 起床, ,

なかなか大変と思うのとなんとかなるさと思うのとで全然違うって思います。

2022.02.18

Logging

おはよう御座います、昨日よりは寒さ控えめかなっていう感じですな😨。
本日は自分の近況をつれづれと書きました、同じ失業中やフリーランスの方々は何となく分かるかと思います。

自分は仕事を探していますが、なかなか就職先が見つからない状態が1年ぐらい続いています、だけども、なんとかなるさと思っています。因みにIT業界以外、運送業界などもあたっていたり他の業界なども志願しているのですが、なかなか面接までいかない状態です。

一年ぐらい前からハローワークの求人情報サイトを見ているのだけど、代わり映えしない求人が求人掲載期限が切れると、また掲載するという巡回を続けています。データとして高知県の6割の求人はこのずっと掲載している偽求人になります(今はもっと酷いかもしれません)。実際の求人はこのコロナ禍でかなり酷い事になっているではないかなと感じます。

毎週、一回はハローワークに足を運んでいるのだけど失業者も増えてきている感じも肌感覚であり、ひたひたと企業はコロナ禍でダメージが蓄積され続けているという印象を受けます。飲食業界だけがダメージを受けるわけではないですからね。業界は縦にも横にも他の業界と繋がっているわけですから、飲食業界が受けたダメージは他の業界にも徐々に広がりを見せているように思えてならないです😌。

そんな中、あれやDXだと言いますが、これを導入すると仕事を奪われる人々が増えていくだけで企業は生き残れるけども社員には全然嬉しくもない話です。これからずっとこんな感じが続くとなると社会が大きく変わると思っています、経済が右肩上がりの成長をしてこその社会ですからね。

コロナ禍でも成長できる社会へとおそらく社会は変わっていきます。それにはかなり痛みを伴うと思います、倒産する企業も益々、増えていく一方で新たな起業も増えていくと感じます。

ともあれ、そんな社会のことよりも自分が就職することの方が大事ですねw。
皆様もコロナ禍で大変だと思いますが、なんとかなるさ精神で生きていきましょい!!😏

タグ

, 6, IT, かなり, きてい, コロナ, サイト, つれづれ, データ, ハローワーク, フリー, ランス, , , , 仕事, , 代わり映え, , , 大変, 失業, 失業者, 実際, 就職, 巡回, 志願, 情報, 感じ, 控えめ, 掲載, 方々, 昨日, 期限, 本日, 業界, 毎週, 求人, 状態, , 自分, , 近況, 運送, 面接, 高知県,

wordpressの純正機能を使う。取り扱い注意!

2020.05.17

Logging

ワードプレスには更新情報サービスという機能があります。その機能を使うと若干ですがSEO対策になります。こんな事ですが塵も積もれば山となるということわざがあるように、日々の蓄積が大切になります。

http://blog.goo.ne.jp/XMLRPC
http://blogsearch.google.co.jp/ping/RPC2
http://blogsearch.google.com/ping/RPC2
http://ping.bloggers.jp/rpc/
http://ping.blogmura.jp/rpc/
http://ping.exblog.jp/xmlrpc
http://ping.fc2.com/
http://api.my.yahoo.com/RPC2

上記のような感じで更新情報を通知する内容を設定しています。たぶん大体のブロガーさんはこのような設定をワードプレスに設定しています、なので当たり前の作業になるかと思います。アクセス数を増やすとかいう本やサイトにもこのような記載をしている記事なども見かけます。それぐらいのレベルかと思います。

ブラックハット的な技意外は全て行っていたほうが良いと思います。なおを昔も今も変わらないですが、リンクを張ってもらえるのが一番、SEO対策に効果があると言われています。あと今でも人での目視巡回もあるらしいので、結局中身のあるコンテンツを作らないと意味はないらしいですけどね。

【WordPress(ワードプレス)の使い方講座】アフィリエイトサイトの作り方の基礎基本

今でもゼロディみたいに検索アルゴリズムの脆弱性をついてアクセス数を増やすことは可能なんだと思います。因みにいまはサイトの表示内容と表示速度が結構、検索の優位性を生むらしいです、唯これは今だけの話になりそうです。今後、10年ぐらいで消えてしまう話になりそうです。5G通信が普及し、10G通信が当たり前の世界になった時、殆どのサイトは瞬時に表示されることになるからです。最終的に評価の基準になるのはオリジナリティのある記事内容と滞在時間だと思います。

記事を認知してもらうにはリンクやSNSで発信することが大切になると思います。

※なお、記事を何回も更新するとスパム扱いになる場合がありますのでご注意くださいね(*´?`*)

タグ

https, SEO, WordPress, www, YOUT, アクセス, ことわざ, コンテンツ, サービス, サイト, それぐらい, ハット, ブラック, プレス, ブロガー, リンク, レベル, ワード, 上記, 中身, , , , 作業, 全て, 内容, 効果, , 大体, 大切, 対策, , 巡回, 当たり前, 情報, 意味, 意外, 感じ, , 日々, , 更新, , 機能, 注意, 目視, 純正, 若干, 蓄積, 記事, 記載, 設定, 通知,

もういくつ寝るとお正月って言うことで今年を振り返る。

2016.12.12

Logging


もういくつ寝るとお正月って言うことで今年を振り返るw。
今年のこのブログの最高アクセス数は339です。
ツイッターのBOTを辞めてからアクセス数は二桁台にまで
減った中、基本情報の即解答を載せたことによって340近くまでアクセス数を
達しましたが、数日後にはいつも通りのアクセス数に戻りました。

やはりUSERが必要とする情報を提供することで
アクセス数は伸びます、特にSNSと連携することにより
比例します。以前はツイッターと連携して
過去記事のボットをしていましたが、今は辞めてます。
辞めてからアクセス数は減りましたが、リピーターは
かなり増加しました。
なので、今後もこのサイトでボットをすることはないです。
ちなみにこのサイトは自分の思ったことや
情報系のメモを提供したり映画の感想を掲載したり
ゲームや日々の出来事などの巡回で毎日記事を更新しています。
毎日記事を更新する事が苦になることは
特にないですね、今のところ苦にならない。
苦にならないから続けられるですね。
あと、リピーターが増えているので
アクセス数が多くなるよりリピーターが増えていることのほうが
自分としては嬉しいですね。
トイウコトデ、今後ともヨロシクお願いします。

タグ

user, アクセス数, ういくつ, お正月, サイト, ツイッター, トイウコトデ, ところ苦, ボット, メモ, リピーター, 世界一, 出来事, 即解答, 巡回, 教科書, 最高アクセス数,

クローラーするサービスの基礎。

2016.11.19

Logging

クローラーするサービスの基礎のソースを載せときます。殆どサイボウズ・ラボの人が書いたコードです。
このサンプルソースをそのまま貼り付けても一階層のリンクしか取得できません。
再帰処理の部分をコメントアウトしているからです。ちなみにコメントアウトを外してもメモリオーバーでおそらく
大体のサーバでエラーが出力されます。どうしたら良いのかといえば、DBに1階層目のリンクデータ、2階層目のリンクデータという様に保存する機能を施す。次にajaxで階層を受け渡しながら、再帰処理を行う。
再帰処理が終わる要素はそれ以上、下階層がないことを判断する。そのためには保存したデータを検索することが重要になる。=(イコール)
新規にデータを登録しているうちは、再帰処理を終わらせないようにすることが大事になる。
これの機能を加えることで巡回する事が可能になる。ここで注意しないといけないのが、外部リンクを保存しないことです。外部リンクまで保存していると巡回は永遠に終わらないでしょう・・・。
トイウコトデ
ほぼ??コピペソースを貼っときます。

<?php
echo json_encode($obj);
exit;
function get_linkarray($link)
{
	$context = stream_context_create(array("http" => array("method" => "GET", "header" => "User-Agent: simplecrawler.library.php 0.0.1")));
	$resultR = array();
	$resultS = simplecrawler($context, $link, $link, parse_url($link));
	foreach ($resultS as $k => $v) {
		$resultR[] = $v;
	}
	return $resultR;
}
function simplecrawler($context, $link, $burl, $base, $linkArrayDat = array())
{
	$linkArrayPre = crawler_link(crawler_page($link, $burl, $base, $context), $link, parse_url($link));
	foreach ($linkArrayPre as $k => $v) {
		if (!isset($linkArrayDat[$v])) {
			$linkArrayDat[$v] = $v;
			//$linkArrayDat = array_merge($linkArrayDat, simplecrawler($context, $v, $burl, $base, $linkArrayDat));
		}
	}
	return $linkArrayDat;
}
function crawler_page($link, $burl, $base, $context)
{
	if (strpos($link, $burl) === 0) {
		$page = @file_get_contents($link, false, $context);
		return $page === FALSE ? null : $page;
	} else {
		return null;
	}
}
function crawler_link($page, $burl, $base)
{
	$linkArray = array();
	if ($page === null) {
		return $linkArray;
	}
	preg_match_all("/[\s\n\t]+href\s?=\s?”(.*?)”/i", $page, $href);
	for ($i = 0; $i < count($href[1]); $i++) {
		$link = $href[1][$i];
		if (preg_match("/^http(s)*\:\/\//", $link)) {
			$result = $link;
		} elseif (preg_match("/^\/.+$/", $link)) {
			$result = $base["scheme"] . "://" . $base["host"] . $link;
		} else {
			// echo $base["path"] . “\n”;
			$b = preg_split("/\//", dirname($base["path"]));
			$t = preg_split("/\//", $link);
			foreach ($t as $v) {
				$l = $v === "." ? true : ($v === ".." ? array_pop($b) : array_push($b, $v));
			}
			$result = $base["scheme"] . "://" . $base["host"] . join("/", $b);
		}
		$linkArray[$result] = $result;
	}
	return $linkArray;
}

タグ

, 2, ajax, db, アウト, イコール, うち, エラー, オーバー, クローラー, コード, ここ, こと, コメント, これ, サーバ, サービス, サイボウズ, サンプル, ソース, それ, ため, データ, トイウ, メモリ, ラボ, リンク, , , , , 保存, 再帰, 処理, 出力, 判断, 取得, 可能, 基礎, 外部, 大事, 大体, 巡回, 新規, 検索, 機能, 殆ど, 永遠, 注意, 登録, 要素, 部分, 重要, 階層,