您的位置:

css阻止js(css阻止元素响应js点击事件)

css阻止js(css阻止元素响应js点击事件)

更新:

本文目录一览:

robots.txt可不可以屏蔽js或者css?

本帖最后由 ccutu 于 2015-4-26 03:12 编辑

最近发现百度蜘蛛每日抓取网站的js和css文件非常频繁,甚至能占每日抓取量的五分之一,百度蜘蛛每日抓取5000次,其中单独抓取js和css文件就有一千多次。

遇到这种情况,是否应该屏蔽蜘蛛抓取上述文件??

已经收到比较正确的答案,来源自版主:lvxianlei2010

需要说明,下面为个人见解:

1、robots全部屏蔽掉不太建议,因为随着网页的发展,资源种类越来越多,蜘蛛需要分析;

2、根据之前看到的百度对网页主体内容模板的专利的简单介绍可以得出下面几个观点:

A、百度能够根据前台页面的链接布局、框架,判断出一个站点的主要页面类型,及各页面适合用户浏览的主体内容;

B、因此如果js、css等如果对蜘蛛判断站点的主体内容没有什么影响,比如遮罩、跟踪用户行为返回区域内容变化,那么屏蔽完全可以,但是从实际的例子来说可能对站点其他主体内容页面的抓取频次没有多大帮助,因为主体内容与js、css本来就互不相关的两类东西;

C、如果js、css等如果对蜘蛛判断站点的主体内容有影响,如包含较多网址、图片地址、有效资源地址、文字资源等建议不屏蔽,蜘蛛爬取js/css文件的同时可以爬取里面的内容,并且尽量简单处理,不要采用ajax或多重逻辑判断的代码;

经过上述处理后,如果发现有价值的js、css抓取次数还是较多,那么建议使用百度的抓取频次工具,反馈提高下,对一个站点的抓取频次现在可以对百度进行反馈。

如何防止js和css缓存

解决办法一:每次修改js或css文件后,都要手工修改那个版本号,注意:是每修改一次(哪怕仅仅是改了一个字符)都要修改版本号;

解决办法二:如果嫌手工修改太麻烦,那可以通过程序来自动修改(用随机数做版本号)。如果你的网站是动态的,那可以通过后台程序来改,比如ASP的:

link rel="stylesheet" href="static/mimi/css/main.css?v=%=rnd()%" type="text/css"/

PHP的:

link rel="stylesheet" href="static/mimi/css/main.css?v=?php echo mt_rand(); ?" type="text/css"/

如果是静态网站那就要js脚本来实现了,这个稍微麻烦点,这里就不说了。

其实上述方法一和方法二的目的都是为了使每次打开的js或css的url不同,这样浏览器就不会去缓存区取数据,而是直接到网站下载。

如果上述方法仍然无效,那就是你的浏览器的缓存机制存在问题,比如“从不检查网页的新版本,除非手动刷新”,这个就要你自己去设置了。

iphone的微信内置浏览器网页,怎样用js或者css禁止复制内容

添加css样式,html,body{-webkit-user-select:none},整个网页就不能复制内容了,或者定义类或id,给特定的内容设置不能复制

在css里面怎么过滤JS脚本

CSS3也没这能力,估计CSS100也木有这能力。[:338:]呵呵知道你在下啥了。ABP挡不了,因为是弹出窗口,还真没法挡,我试过给页面加入干扰让 openpage() 失效,可是没成功。在找找Chrome挡弹窗的CRX吧~找到分离哦~

有没有办法让网页禁止另存JS和CSS

没有……除非用另一种载入的办法。让想下载的找不到下载路径