收录的页面才有更多被爬取的机会
2014-10-14 09:43:36
引蜘蛛的说法是扯蛋 上篇投稿有人说被外链人骗了,还找理由说外链是为了引蜘蛛,软文才是做相关链接的。我把那篇文章和组里人分享了,老大用了公司里的log系统和我们说,首先引蜘蛛说法听上去没错,其实是大海捞针,大部分蜘蛛爬行是根据索引库里的记录直接来的,而不是在B网站上某个链接里来的。你去看,只要有蜘蛛登陆的页面,一定是被收录的页面。所以说只有被收录的页面才有更多被爬取的机会。引蜘蛛只是他的说辞罢了。
刷流量不如刷在线时间 原本这是一个不该涉及的话题,但seo行业里真有很多项目绩效是被刷出来的。但我想从一个角度来说下,我们都知道用户体验的重要性。但搜索引擎怎么来判别你的用户体验比别人好呢?蜘蛛是无法做这样的判断的,所以完全凭靠的是站内数据包括:跳出率和在线时间。因为好的用户体验代表用户喜欢这里的东西愿意停留获取信息,所以这2个指标很关键。再说大部分网站都装了百度统计或是谷歌GA,所以站内数据很轻易的能被读解出来。因此,如果你还在给客户刷流量,不如弄一下在线停留和跳出吧。
情景算法是未来,优化者无需过度优化 谁了解蜂鸟算法的举个手?我们大老板是个美国人,他和我们seo部门上过一次课,告诉我们谷歌蜂鸟到底是什么。简单点说就是:帮助搜索者匹配到符合情景的搜索内容。因为每次搜索情景是不一样的,比如现在我在地铁站用手机搜索“麦当劳优惠券”和我在公司里用电脑搜索“麦当劳优惠券”,前者应该出现离地铁站最近麦当劳餐厅结果,后者应该出现整个优惠活动版面。为什么?前者是移动搜索,意图是action(行动),后者是固定搜索意图可能偏向research(调查),当然给予的结果应该是不一样的。所以说搜索引擎的算法会把结果弄得更精准,对于优化者来说,你无需考虑各种情景,这个事情让搜索引擎去做吧。
用什么系统搭建对百度挺敏感的 任何网站优化前的一个重要点是选择什么系统搭建。国内市面上系统也很多,dede,帝国,wordpress,zblog,shopex等等。老大和我们说,尽量选择纯静态页面生成的系统相对百度而言更容易收录。虽然有时候安全系数不好,老是靠补丁救命,但是百度真有点偏好的。
动态生成网站地图真有用 xml地图越发有用了,要是你有个小程序去动态生成就更强大了。我们给Hugo Boss做一个这样的程序(PHP的),每当网站产生新页面或旧页面移除时,小程序会自动将sitemap.xml更新一遍。要是网站一直没有更新时,则自动每3天更新一次。根据栏目页面数来设定,根据栏目流量来设定。现在搜索引擎都会弄站长工具平台,对xml管理尤为方便。对于搜索引擎来讲也是大大方便了他们的索引工作量。
导航优化来自大数据 我们正在开发一个动态导航的程序。原理就是做几套CSS样式,用站内数据来控制展现哪一套CSS。这样客户网站的主导航就不会一层不变了。而且还可以很好的交替增加内链入口。