搜索列表
-
asp动态页面防采集的新方法
【ASP编程】防采集的原理非常简单,首先放一段动态语句,把访问者的IP加入到数据库的一个表里,然后在页面底部加入一个JS,JS直接访问动态页面,将访问者的IP加入到数据库的另外一个表里。
asp防采集 -
虚拟主机下实现多域名绑定不同的子目录的方法
【相关技巧】虚拟主机域名绑定子目录asp php html (通用)
虚拟主机域名绑定子目录 -
大型网站建站要考虑数据库压力和服务器负载
【建站经验】所谓大型网站就是访问量与流量都很大的一些网站,因此在建站初期就要考虑好当流量达到某一级别是是否可以支撑网站继续正常运营下去。
大型网站数据库压力服务器负载 -
大型网站建站要考虑数据库压力和服务器负载
【建站经验】所谓大型网站就是访问量与流量都很大的一些网站,因此在建站初期就要考虑好当流量达到某一级别是是否可以支撑网站继续正常运营下去。
大型网站数据库压力服务器负载 -
浅谈WAP网站和搜索引擎的关系
【建站经验】传统型网站,有人说有60%的流量来自百度,那么就有30%来自谷歌,对于wap来讲,谷歌也是未来的趋势。个人感觉,百度的wap网站,做得不够好(ps我也很喜欢百度)。
WAP网站 -
浅谈WAP网站和搜索引擎的关系
【建站经验】传统型网站,有人说有60%的流量来自百度,那么就有30%来自谷歌,对于wap来讲,谷歌也是未来的趋势。个人感觉,百度的wap网站,做得不够好(ps我也很喜欢百度)。
WAP网站 -
伪静态技术介绍与优缺点分析(较完整篇)
【其它综合】伪静态太适合用在普通的企业网站上了——既不要求高并发,但同时又很在乎seo(搜索引擎优化),而且也要求后台可动态更新。
伪静态 -
SEO教程 robots.txt文件常见用途
【网站优化】本文将为你介绍最常用的四种robots.txt文件格式。1. 允许所有的搜索引擎访问网站的任何部分User-agent: *Disallow: (或者也可以建一个空文件 "/robots.txt") 2. 禁止所有搜索引擎访问网站的任何部分 User-agent: * Disallow: /3. 禁止所有搜索引擎访
SEOrobots.txt -
SEO教程 robots.txt文件常见用途
【网站优化】本文将为你介绍最常用的四种robots.txt文件格式。1. 允许所有的搜索引擎访问网站的任何部分User-agent: *Disallow: (或者也可以建一个空文件 "/robots.txt") 2. 禁止所有搜索引擎访问网站的任何部分 User-agent: * Disallow: /3. 禁止所有搜索引擎访
SEOrobots.txt -
内容型网站面向搜索引擎蜘蛛和搜索用户的优化
【网站优化】一、缺省域名唯一化 缺省abc.com 设置301跳转到 www.abc.com 一方面减少搜索引擎页面消重的负担,一方面可以将针对相同内容的反向链接权重汇总。对于缺省使用https访问的网站,如果不跳转(比如以前的支付宝),往往还会有浏览器提示安全证书路径不匹配的问题; 另外: 在G
内容型网站搜索引擎 -
内容型网站面向搜索引擎蜘蛛和搜索用户的优化
【网站优化】一、缺省域名唯一化 缺省abc.com 设置301跳转到 www.abc.com 一方面减少搜索引擎页面消重的负担,一方面可以将针对相同内容的反向链接权重汇总。对于缺省使用https访问的网站,如果不跳转(比如以前的支付宝),往往还会有浏览器提示安全证书路径不匹配的问题; 另外: 在G
内容型网站搜索引擎 -
百度教你做 SEO 程序篇
【网站优化】重要的网页,应该能从网站比较浅层的位置找到,确保每个页面都可以通过至少一个文本链接到达。 注解:我认为百度的意思是网站构架越简单越利于百度抓取(千万别一个DIV或table里面套着无数个DIV或table) 尽量使用文字而不是flash、Javascript等来显示
SEO程序