现在大多数网站都是开源程序网站建设,博客站点有WP,z-blog,商业站点有dede,shopex,平台有discuz,php,在蜘蛛爬行方面已经有非常大进步,利于网站排名优化和蜘蛛爬行。但不少站长在网站建设之初并没做好栏目和版面的规划,路径太长太深,首页的具体不止三次点击,爬虫不会爬那样深。持续的增加删除页面,导致网站很多的404,减少蜘蛛的爬行兴趣,同样会干扰网站的网站权重。
加上后期的修改代码,调整插件,插件调整会好点,即使出错也可与时回复,只须不是删除。但代码不同,假如你修改header部分的次数过多,幅度过大,都会被搜索引擎觉得是一个新站,会导致之前已经网站收录页面遭到删除,爬虫的数目和次数也会大大减少。更换主题模板也是一样,尽可能一次敲定,后期的每一次修改都会导致非必须的网站权重损失。
也有部分网站是设计师设计的,这种网站通常都会经过多次调试无误,才会发布上线,这并不意味着没问题。外观上好看的flash,iframe页面,却没任何实用价值,蜘蛛几乎从不爬行,所以网站收录只能是0。上次听国平老师讲课,印度一个排名前三的购物网站,就是由于网站的代码问题,致使30000人注册,只有不到1%的成功率,而他们在没招聘网站优化之前,根本不了解这个事情。这就需要设计师在网站上线之后,还要协同网站优化做好追踪调试,链接问题,死循环,蜘蛛陷阱等问题的准时改进。期望以上信息可以非常不错的帮忙到各位站长。
新闻标题网站关键词排名上不去是什么原因?