本文目录一览:
- 1、搜索引擎蜘蛛访问日志查看器php版如何使用
- 2、PHP中如何调用JS代码实现判断是否是蜘蛛访问
- 3、搜索引擎蜘蛛访问日志查看器(php) v1.0 怎么使用?
- 4、PHP判断来访是搜索引擎蜘蛛还是普通用户的代码小结
- 5、PHP的网站怎么查询蜘蛛记录
- 6、PHP程序中如何判断来访者是蜘蛛还是普通用户?
搜索引擎蜘蛛访问日志查看器php版如何使用
这个软件可以查看搜索引擎的蜘蛛访问记录,根据这些记录可以看到蜘蛛什么时候来访问过你的站,抓取了什么内容。
使用方法:把你下载的文件解压出来有一个目录为phpzz的目录吧,把这个一起传到你的空间根目录下面,让后在你的页面用一下方式调用
!--#include file="robot.php"-- ----插入php页面调用
SCRIPT src="robot.php"/SCRIPT ----插入html页面JS调用
bot.mdb 记录数据库
访问蜘蛛记录的话就在 你域名后面加上 /phpzz/zhizhu.php可以查看蜘蛛访问记录记录
PHP中如何调用JS代码实现判断是否是蜘蛛访问
这个理论上是无法做到的,因为蜘蛛可以模仿得和浏览器点开完全相同。
一般的办法是判断浏览器的AGENT标志,一般蜘蛛这里比较特殊,你看看日期里面的AGENT就知道如何识别了。
我的代码如下,可以参考:
搜索引擎蜘蛛访问日志查看器(php) v1.0 怎么使用?
bot.mdb 记录数据库 这是access数据库asp上用的。但看你的提问标题,真的有些难易理解。以下是网上的查的:asp版。你也可以用的,不过得空间支付asp,且你得通过 这句代码来调用 ----插入html页面JS调用搜索引擎蜘蛛访问日志查看器V1.0(asp版)这个软件可以查看搜索引擎的蜘蛛访问记录,根据这些记录可以看到蜘蛛什么时候来访问过你的站,抓取了什么内容。使用方法: ----插入asp页面调用 ----插入html页面JS调用bot.mdb 记录数据库访问 zhizhu.asp 可以查看蜘蛛访问记录记录优点:1、程序简洁易用。2、记录所有爬行的页面。3、可以批量删除数据。4、用数据库记录而不是txt。不足:1、程序小,功能也少。2、不能记录返回值,如200 404等。3、适合小型的网站程序,或者流量不是太大的站。4、因为是测试版本功能不多,以后会有更新,现在够用就好。
PHP判断来访是搜索引擎蜘蛛还是普通用户的代码小结
1、推荐的一种方法:php判断搜索引擎蜘蛛爬虫还是人为访问代码,摘自Discuz x3.2
?php
function checkrobot($useragent=''){
static $kw_spiders = array('bot', 'crawl', 'spider' ,'slurp', 'sohu-search', 'lycos', 'robozilla');
static $kw_browsers = array('msie', 'netscape', 'opera', 'konqueror', 'mozilla');
$useragent = strtolower(empty($useragent) ? $_SERVER['HTTP_USER_AGENT'] : $useragent);
if(strpos($useragent, 'http://') === false dstrpos($useragent, $kw_browsers)) return false;
if(dstrpos($useragent, $kw_spiders)) return true;
return false;
}
function dstrpos($string, $arr, $returnvalue = false) {
if(empty($string)) return false;
foreach((array)$arr as $v) {
if(strpos($string, $v) !== false) {
$return = $returnvalue ? $v : true;
return $return;
}
}
return false;
}
if(checkrobot()){
echo '机器人爬虫';
}else{
echo '人';
}
?
实际应用中可以这样判断,直接不是搜索引擎才执行操作
?php
if(!checkrobot()){
//do something
}
?
2、第二种方法:
使用PHP实现蜘蛛访问日志统计
$useragent = addslashes(strtolower($_SERVER['HTTP_USER_AGENT']));
if (strpos($useragent, 'googlebot')!== false){$bot = 'Google';}
elseif (strpos($useragent,'mediapartners-google') !== false){$bot = 'Google Adsense';}
elseif (strpos($useragent,'baiduspider') !== false){$bot = 'Baidu';}
elseif (strpos($useragent,'sogou spider') !== false){$bot = 'Sogou';}
elseif (strpos($useragent,'sogou web') !== false){$bot = 'Sogou web';}
elseif (strpos($useragent,'sosospider') !== false){$bot = 'SOSO';}
elseif (strpos($useragent,'360spider') !== false){$bot = '360Spider';}
elseif (strpos($useragent,'yahoo') !== false){$bot = 'Yahoo';}
elseif (strpos($useragent,'msn') !== false){$bot = 'MSN';}
elseif (strpos($useragent,'msnbot') !== false){$bot = 'msnbot';}
elseif (strpos($useragent,'sohu') !== false){$bot = 'Sohu';}
elseif (strpos($useragent,'yodaoBot') !== false){$bot = 'Yodao';}
elseif (strpos($useragent,'twiceler') !== false){$bot = 'Twiceler';}
elseif (strpos($useragent,'ia_archiver') !== false){$bot = 'Alexa_';}
elseif (strpos($useragent,'iaarchiver') !== false){$bot = 'Alexa';}
elseif (strpos($useragent,'slurp') !== false){$bot = '雅虎';}
elseif (strpos($useragent,'bot') !== false){$bot = '其它蜘蛛';}
if(isset($bot)){
$fp = @fopen('bot.txt','a');
fwrite($fp,date('Y-m-d H:i:s')."\t".$_SERVER["REMOTE_ADDR"]."\t".$bot."\t".'http://'.$_SERVER['SERVER_NAME'].$_SERVER["REQUEST_URI"]."\r\n");
fclose($fp);
}
第三种方法:
我们可以通过HTTP_USER_AGENT来判断是否是蜘蛛,搜索引擎的蜘蛛都有自己的独特标志,下面列取了一部分。
function is_crawler() {
$userAgent = strtolower($_SERVER['HTTP_USER_AGENT']);
$spiders = array(
'Googlebot', // Google 爬虫
'Baiduspider', // 百度爬虫
'Yahoo! Slurp', // 雅虎爬虫
'YodaoBot', // 有道爬虫
'msnbot' // Bing爬虫
// 更多爬虫关键字
);
foreach ($spiders as $spider) {
$spider = strtolower($spider);
if (strpos($userAgent, $spider) !== false) {
return true;
}
}
return false;
}
下面的php代码附带了更多的蜘蛛标识
function isCrawler() {
echo $agent= strtolower($_SERVER['HTTP_USER_AGENT']);
if (!empty($agent)) {
$spiderSite= array(
"TencentTraveler",
"Baiduspider+",
"BaiduGame",
"Googlebot",
"msnbot",
"Sosospider+",
"Sogou web spider",
"ia_archiver",
"Yahoo! Slurp",
"YoudaoBot",
"Yahoo Slurp",
"MSNBot",
"Java (Often spam bot)",
"BaiDuSpider",
"Voila",
"Yandex bot",
"BSpider",
"twiceler",
"Sogou Spider",
"Speedy Spider",
"Google AdSense",
"Heritrix",
"Python-urllib",
"Alexa (IA Archiver)",
"Ask",
"Exabot",
"Custo",
"OutfoxBot/YodaoBot",
"yacy",
"SurveyBot",
"legs",
"lwp-trivial",
"Nutch",
"StackRambler",
"The web archive (IA Archiver)",
"Perl tool",
"MJ12bot",
"Netcraft",
"MSIECrawler",
"WGet tools",
"larbin",
"Fish search",
);
foreach($spiderSite as $val) {
$str = strtolower($val);
if (strpos($agent, $str) !== false) {
return true;
}
}
} else {
return false;
}
}
if (isCrawler()){
echo "你好蜘蛛精!";
}
else{
echo "你不是蜘蛛精啊!";
PHP的网站怎么查询蜘蛛记录
这很简单:$_SERVER['HTTP_USER_AGENT'],获取客户端浏览器的型号,也就是访问你网站的客户端用的是什么浏览器,比如:ie firefox......,但如果是蜘蛛,那就型号是什么呢,我们只要判断就可以知道了,下面是转网上的一段流行代码:?php
function get_naps_bot()
{
$useragent = strtolower($_SERVER['HTTP_USER_AGENT']);
if (strpos($useragent, ‘googlebot’) !== false){
return ‘Googlebot’;
}
if (strpos($useragent, ‘msnbot’) !== false){
return ‘MSNbot’;
}
if (strpos($useragent, ’slurp’) !== false){
return ‘Yahoobot’;
}
if (strpos($useragent, ‘baiduspider’) !== false){
return ‘Baiduspider’;
}
if (strpos($useragent, ’sohu-search’) !== false){
return ‘Sohubot’;
}
if (strpos($useragent, ‘lycos’) !== false){
return ‘Lycos’;
}
if (strpos($useragent, ‘robozilla’) !== false){
return ‘Robozilla’;
}
return false;
}
function nowtime(){
$date=date(“Y-m-d.G:i:s”);
return $date;
}
$searchbot = get_naps_bot();
if ($searchbot) {
$tlc_thispage = addslashes($_SERVER['HTTP_USER_AGENT']);
$url=$_SERVER['HTTP_REFERER'];
$file=”robotslogs.txt”;
$time=nowtime();
$data=fopen($file,”a”);
$PR=”$_SERVER[REQUEST_URI]“;
fwrite($data,”Time:$time robot:$searchbot URL:$tlc_thispage\n page:$PR\r\n”);
fclose($data);
}
?
PHP程序中如何判断来访者是蜘蛛还是普通用户?
根据在一定时间打开的链接和流量多少来判断。
如果用脚本的话,可以这样在全局配置文件里记录访问各个页面的ip地址、访问时间、访问的脚本页面,那么你根据某个ip在短时间内访问到多个页面,就可以认定是蜘蛛,否则为普通用户。