亿企宝—深圳服务中心

华人云商,让传统企业在网上牛起来!

1对1的贴心服务 13510902079

新闻动态

  • 华人云商的网站建好刚上线需要做好的设置

  • 文章更新2016-02-29 10:18:47

    分享新闻到:


华人云商的网站建好刚上线需要做好的设置

第一,网站url设置有必要简短有意义.此类设置常常用于cms建立的网站,咱们常常看到的有之梦的cms,当咱们在创立一个栏意图时分,默许的是以该栏意图生成时刻以及名称作为节目和文章的url地址,这个地址非常长,而且关于查找引擎及其不友爱,别的站点也是一个道理,所以在进行内容更新之前咱们首先要做到节目和文章途径的url优化,要修正的当地在dedecms的后台,体系——体系基本参数.
 
节目办理里文章命名规矩{typedir}/{Y}/{M}{D}/{aid}.html改为{typedir}/{aid}.html删去中心的日期或许把中心部分改为栏意图简拼或许全拼的办法,列表列表命名规矩{typedir}/list_{tid}_{page}.html改为{typedir}/list_{page}.html删去中心生成的tid减小文章页的途径.
 
第二,网站的404页面设置.404页面主要为一些失效的无法翻开的网站连接预备的,许多网站由于改版或许数据库的更新致使url出现无法翻开的状况发作。404页面的效果是什么?一旦出现网页无法翻开,这个时分咱们就要经过404页面进行友爱的提示用户回来到咱们网站的主页,这样引导用户持续拜访别的的页面,增加了咱们网站体会度和用户阅读时刻,咱们能够依据自己喜好挑选页面规划办法,可是留意底部的回来主页是有必要要保留的.
 
第三,网站的301持久重定向.咱们知道新上线的站点通常同带www的域名和不带www的域名,可是这两个域名对用户翻开看到的主页没有什么区别,可是baidu会以为两个域名,权重会涣散,所以作为查找引擎优化人员咱们要做的就行对应url进行持久的重定向,办法是把不带www的地址跳转到带WWW的域名,以防权重涣散.
 
第四,网站Robots协议设置.Robots协议全称是“网络爬虫扫除规范”(Robots Exclusion Protocol),网站经过Robots协议通知查找引擎哪些页面能够抓取,哪些页面不能抓取.当一个查找蜘蛛拜访一个站点时,它会首先检查该站点根目录下是不是存在robots.txt,假如存在,查找机器人就会依照该文件中的内容来断定拜访的规模.具体的设置办法,笔者在这里举例说明:别的更多的常识能够经过baidu查找了解.
 
1)、制止所有查找引擎拜访网站的任何部分
 
  User-agent:*
  Disallow:/
 
  2)、允许所有的robot拜访(或许也能够建一个空文件“/robots.txt”file)
 
  User-agent:*
  Allow:/
 
  3)、制止某个查找引擎的拜访
 
  User-agent:Baiduspider
  allow:/
 
第五,网站地图的设置办法.多见的网站地图通常包括2种,一种是html静态地图,一种是xml格局的地图,xml格局的地图主要是站在查找引擎视点以一种索引的办法查找引擎能够理解的方法告知查找引擎,以进步网站的录入.别的一种是html格局的,这种通常是对网站的构造节目为出现办法,将网站的主页以及各级主要的节目页和列表页以连接的办法展现出来,便利用户检查网站内容.这些细节都是为了提高网站关于查找引擎的友爱度,提高查找引擎抓取重点页面的效率而进行的根底优化.
 

联系华人云商

  地址:深圳市龙岗区碧新路2123号梧桐空间8楼
  13510902079
  全国服务热线:13824307269
 
Copyright © 2016-2020 深圳龙岗网站建设公司,深圳营销网站设计公司,深圳网站制作公司 深圳市华人云商电子商务有限公司版权所有粤ICP备16000636号-1