Archive for 九月, 2012

友情链接的意义何在?

星期五, 九月 28th, 2012

友情链接是一种比较有效的外链,然而友情链接的意义何在?友情链接到底要怎样去交换?站长,你真的懂友情链接吗?
友情链接的意义何在?
对于网站来说,宣传推广是必不可少的发展策略。流行的各类推广手段无非就是品牌推广和外链推广。对于大型站点和一些企业站点,网站本身树立了一定的品牌效应,运用品牌推广自是无可厚非。然而大多数网站并没有自己的特色品牌,外链是必然的选择。而很多朋友喜欢运用网络水军的力量。随着互联网的发展,网络水军所用的铺天盖地的简单外链已经意义不大。友情链接这一稳定有效的外链也被站长朋友们亲睐,这是为何?
1:友情链接稳定。友情链接是具有相互性。链接双方是合作共盈的目的。(即使买链接,你得到了想要的链接,对方得到了钱财)
2:友情链接是个大众的宣传方式。我们相互换友情链接,自己的外链时刻曝光在对方的网站访问都面前,这是一个对外宣传的有效窗口。
3:友情链接可引蜘蛛。(这个不用解释,大家心知肚明。)
怎样去交换友情链接呢?
怎样交换?大家都知道相关性、权重高、快照勤、收录快等等。但又有一个问题摆在面前:相关性就存在竞争,权重高人家也不愿意交换。难道买链接?所以选择权重快照相当的是关键,相关性也不用必须找同行。那么我们的友情链接怎样确定关键词呢?守护建议直接用网站名或者品牌名。这样可起到品牌效应,也是独一的更容易让人记住我们。不提倡用网站关键词,(除非你的关键词很冷门,不过冷门的关键词大家基本上不用。)比喻站长网、站长论坛这样的关键词能用吗?你争不过站长之家也抢不过A5。用这类词作友情链接效果就不那么理想。
站长你真的懂友情链接吗?
读罢此文上面的内容,相信大家对友情链接有了重新的认识。但我们真的懂友情链接吗?不少朋友都说友情链接要注重哪些问题比喻欺诈,那是还不懂友情链接。真正的友情链接是什么呢?守护谈谈个人的看法:友情链接注重的是友情。这是个相互的过程,是共盈的关系。选择对象上我们要注重相当与合作共盈。要交换过程中我们要用情。如果不能坦诚互信,友链的欺诈也会出现,如果不能合作共盈,肯定有一方会取消链接。友链的目的是要让我们的站点展现在更多网民面前。一味的为了提高所谓的权重或者引蜘蛛而忽略了本身友链的价值,这个友链就是失败的友链,也是没有任何意义的。友链有注重友情,我们是平等、互助、合作、共盈。(站长间能不能套交情呢?大家可以试试。)

分析网站外链下降的原因

星期五, 九月 28th, 2012

1、作弊手段得来的外链会被删去
大家在站长这个圈子里面混的久了就一定知道这样那样的作弊手法,有的站长还是很乐意用一些作弊手法来做做链接,例如博客群发,论坛群发,QQ邮件群发,这些都是比较经典的作弊手段,也是能够快速增长外链的一些方法,但是鉴于这种恶劣的势态,不说一些门户博客以及论坛已经很注意对这方面的限制,百度也对这些手段得来的外链做了一个非常低的评价,很多时候这样的链接收录快,但是删除的也非常快。
2、外链所在网站网页的权重低易被删去
我查看了很多我的网站外链,大多数都是一些权重比较高的网站的外链,虽然也有一些不知名的小网站,但是这些网页的权重还算不错。而以前看到过的一些小网站转载过我的文章的外链已经被百度毫不留情的剔除了。这个道理同样适用于自己动手发的外链,例如我在百度知道、天涯发的帖子很多都没有被删除,但是过一段时间后查看一些小的网站发的外链就找不到了。
当然我也查看了一些其他的网站外链页面,发现能收录在前几页的都是相当高权重网站的网页,大家也可以自己看看自己网站的外链收录页面,在第一页的外链绝对个个都是高权重外链。另外,网站网页访问量高的页面也算权重比较高的页面,所以这样的页面一般不会被删除,而访问量比较低的页面就很危险了。 所以做外链的时候首要要注意的就是选取高权重的网站,还要选择高人气的版块,因为你的这个链接有人看会显得重要,没人看你就是一个无用的链接,搜索引擎肯定就会觉得你这个链接无关紧要,删除掉也无妨

浅谈我对网站关键词密度的理解

星期五, 九月 28th, 2012

浅谈我对网站关键词密度的理解学的人都知道关键词的密度对排名有比较大的影响,新手操作网站时经常会纠结于关键词密度该设置多少才合适,设置高了,怕被搜索引擎认为是关键词堆砌,而受到搜索引擎的惩罚,关键词密度设置的少了,又不甘心。现在网络上普遍的说法是,关键词密度控制在左右是一个比较适当的范围。既不怕被,同时也有利于网站的排名。

在设置关键词密度时,应该遵循这些原则:

、在文章内容的写作中,合理的融入关键词,切勿在段落的首尾硬生生的加入关键词并带上链接,使得句子很难理解。

、关键词密度必须合理。密度不是越高越好,搜索引擎现在的技术很容易就能判断出你是否在刻意的做优化。

、整个页面上合理的分配关键词,避免出现局部关键词过密的情况,被搜索引擎误认为是关键词堆砌

设置页面的关键词密度,并不表示我们一定要去很精准去计算这个页面的关键词密度,而应该适当的增加当前页面的关键词,让其密度自然的增加。但求自然,无需刻意

可以从以下几个方面来增加

1、网页的三个标签中合理的设置关键词,标题标签和描述标签中合理出现关键词,使句子看起来通顺自然。

2、网页内容,都知道”内容为王”,写文章时就围绕关键词展开,根据文章的意思合理布局关键词,保证用户的良好体验,关键词在文章首次出现时做加粗。

3、链接标题,在出现关键词的意思加上链接的同时,将关键词放置在链接的标题位置。

4、图片的属性,搜索引擎不能识别图片上的信息,但是我们可以通过设置图片的属性告知搜索引擎本页面的是关于什么的内容,具体关键词是什么。

不管关键词密度多少,我们都要以提高用户体验度为目的来精心设计我们的网站,网站对用户的黏度高,网站的很高,跳出率很低的话,搜索引擎也会提高网站的权重,给网站一个好的排名。你要相信,搜索引擎的推出是以始终为用户提供最优质的,最需要的内容为出发点,因此,我们应该做的事情是尽可能为网站添加更多高质量原创内容,而不是纠结于关键词的密度。

查看网页源代码全是乱码,而页面显示正常,什么回事?

星期日, 九月 23rd, 2012

会不会影响搜索引擎(百度)收录?答案是:不会!
如果页面显示正常,查看网页源代码发现是乱码,这个情况一般来说是浏览器的问题。比如,你用IE看源代码是乱码,但用firefox看源代码就不会是乱码。(搜索引擎又不是用浏览器看网页,更不是用IE。)
但乱码还是挺讨厌的,怎么办?

这个根据很多网站的具体情况不同,处理办法也不同。原因一般是:1、UTF-8编码规范是将3个连续的字符计为单个字符,如果你在页面上加载了某一个长度不被3整除的字符串,那么页面就会出现乱码。2、一些多语言系统,如Joomla、manbo、phpfag等,如果你把汉字写入源代码,就会出现源代码是乱码的现象。
如果原来是正常的,你用了某个插件而导致出现这个情况,那么往往是那个插件中涉及到的提取字符长度问题。修改下即可。

我的站怎么就不被收录呀?

星期日, 九月 23rd, 2012

这个问题,被大家问过无数遍。我也回答了不下百遍。 下面是解决方案:
1、查下你的日志,在日志里搜索这几个:“baidu”“google”“yahoo” ;
2、从最近的日志里开始找,如果没有,再往前找一个;
3、日志中有这几个结果:
3.1、如果日志里,从来没有出现过这几位老大的机器人(Robot),那说明你没有提交成功或者是因为你发了太多spam(垃圾)链接被搜索引擎直接放入垃圾桶检索库了。 如果你的域名不是“一手的”,则不在此列。
办法是:再提交,然后是等待,可能是一年之后。如果你发了太多spam,你可以考虑换一个域名了。
3.2、找到baidu们了,看看昨天的日志里还有:”baidu”吗?还有的话,说明百度已经收录你了,只是还没展示出来。过几天吧。如果已经过了快2个月,还没展示出来,需要看看baiduspider的那行代码了。
3.3、如果以前的日志里有,后来的没有,最大的可能是你的内容不符合规则。你的站将一直不展示。(那为什么有些站点内容和我一样,却可以搜索到?搜索引擎一般都会给一个时间,对于已经被收录的站点,不会一出现禁词就封掉,而是再观察一段时间。当然,也可能是搜索引擎糊涂了。) 这个情况也有一点可能是你的站点做得不是很好。通过这篇相关的文章获得帮助:
我的站被收录了两次,被封掉两次,怎么办?
菜鸟?还不懂?往下看:
怎么看日志?
通过ftp去看你的网站根目录下面是否有一个包含log的文件夹。如果实在没有找到,问问虚拟主机商。 把它拿到本地 解压它 里面是一个记事本文件, 这个记事本的文件名就是日志的时间 还不懂? 无语

robots.txt 概论说明

星期日, 九月 23rd, 2012

robots.txt是什么?

有没有想过,如果我们某个站点不让百度和google收录,那怎么办?
搜索引擎已经和我们达成一个约定,如果我们按约定那样做了,它们就不要收录。
这个写约定的的文件命名为:robots.txt。
robots.txt是一个最简单的.txt文件,用以告诉搜索引擎哪些网页可以收录,哪些不允许收录。
关于robots.txt一般站长需要注意以下几点:
如果你的站点对所有搜索引擎公开,则不用做这个文件或者robots.txt为空就行。
必须命名为:robots.txt,都是小写,robot后面加”s”。
robots.txt必须放置在一个站点的根目录下。如:通过http://www.13101310738.com/robots.txt 可以成功访问到,则说明本站的放置正确。
一般情况下,robots.txt里只写着两个函数:User-agent和 Disallow。
观察这个页面并修改为自己的:http://www.13101310738.com/robots.txt
有几个禁止,就得有几个Disallow函数,并分行描述。
至少要有一个Disallow函数,如果都允许收录,则写: Disallow: ,如果都不允许收录,则写:Disallow: /  (注:只是差一个斜杆)。
补充说明:
User-agent: *  星号说明允许所有搜索引擎收录
Disallow: /search.html   说明  这个页面禁止搜索引擎抓取。
Disallow: /index.php?   说明类似这样的页面禁止搜索引擎抓取。

robots.txt文件有什么必要?

什么是robots.txt文件?
搜索引擎机器人通过链接抵达互联网上的每个网页,并抓取网页信息。搜索引擎机器人在访问一个网站时,会首先检查该网站的根目录下是否有一个叫做robots.txt的纯文本文件。当我们的网站有一些内容不想被搜索引擎收录,我们可以通过设置robots.txt文件告知搜索引擎机器人。
如果网站上没有禁止搜索引擎收录的内容,则不用设置robots.txt文件,或设置为空。
从SEO的角度,robots.txt文件是一定要设置的,原因:
1.网站上经常存在这种情况:不同的链接指向相似的网页内容。这不符合SEO上讲的“网页内容互异性原则”。采用robots.txt文件可以屏蔽掉次要的链接。
2.网站改版或URL重写优化时原来不符合搜索引擎友好的链接需要全部屏蔽掉。采用robots.txt文件删除旧的链接符合搜索引擎友好。
3.一些没有关键词的页面,比如本站的这个页面屏蔽掉更好。
4.一般情况下,站内的搜索结果页面屏蔽掉更好。

Robots.txt 文件应放在哪里?

Robots.txt 文件必须放在网站的根目录。放在子目录的 Robots.txt 文件搜索引擎不能爬取到,所以不会起任何作用。
例子:
http://www.13101310738.com/robots.txt 有效
http://www.13101310738.com/bbs/robots.txt 无效
如果你不能控制根目录的 robots.txt,则你可以通过在子目录网页中使用标签阻止网页被收录。
阅读本文的人还阅读
robots.txt文件有什么必要?
robots.txt

301重定向怎么进行URL标准化设置?

星期日, 九月 23rd, 2012

经常会碰到这样的情况,其他网站链接你的站点时,会用下面的链接:
ww.example.com
example.com/
www.example.om/index.html
example.com/index.php
而这样导致:你站点主域名的pr值分散到其他几个URLs了。
如果你用301重定向把其他三个URL转到
www.example.com
PR也就集中在主域名:www.example.com 了。
301重定向具体办法:
设置.htaccess文件(只适用于linux系统,并需要虚拟主机支持。)
使访问example.com/的时候就会自动转到www.example.com
在.htaccess文件里写上以下代码即可。
RewriteEngine on
RewriteCond %{http_host} ^mydomain.com [NC]
RewriteRule ^(.*)$ http://www.mydomain.com/$1 [L,R=301]

浏览量、访问量

星期日, 九月 23rd, 2012

网站流量的统计工具中最有价值的两个数据是网站的浏览量和访问量。
在这里,我们理清楚相关的几个概念。
浏览量:网站所有页面被点击的总次数。一个IP点击N次,按N次统计。
1、从技术层面讲,指浏览器加载网页的次数总和。
访问量:从来到网站到离开,算一次统计。你访问一个网站,离开后,再次重新访问,访问量按2次算。
2、关掉浏览器,或直接关掉网站,算离开网站。(一次访问结束)
3、如果一直没有关掉网站,访问网站的不同页面,算一次访问。
4、一天内不同时间访问网站N次,算N次访问。
PV:Page View 指的是以上的浏览量。很多时候,大家说的PV也指浏览量/访问量。比如本站:PV=8.7,说明平均每次访问,用户点击阅读了8.7页。
绝对唯一访问者:(英文UV,Unique Visitor)如果你统计的是一天,那么一天内同一台只算一次。统计访问你网站的人数,而不是访问次数。
从技术层面上讲,用Cookie 来确定绝对唯一访问者,而不是IP。
办公室内N台电脑访问,虽然同一个IP,统计时,按N次算。
同一个电脑访问,即使IP换了,但电脑没换,按一次算。
以上统计,时间可以选择。
比如,我统计近30天内,本站的绝对唯一访问者,不管某用户在这30天内访问了多少次,主要它用同一个电脑(保存着 Cookie),就只算一次。
我们推荐的统计工具是Google网站流量统计。我们大篇幅叙述了Google网站分析工具功能详解。

Google Analytics 分析的关键字怎么是乱码?

星期日, 九月 23rd, 2012

网站流量统计工具,我们推荐Google网站流量统计。

然而很多朋友在使用过程中发现:

Google Analytics(分析)后台显示的搜索关键字有很大一部分是乱码。

原因和解决办法:

原因:你采用了Google提供的新跟踪代码(ga.js)。虽然Google声称“使用此跟踪代码可及时获得各种令人兴奋的新功能。”但目前似乎不大适合中文站点使用。我们实验了4个站点都是关键词乱码的结果。
解决办法:采用原有跟踪代码(urchin.js)。

如:

<script src=”http://www.google-analytics.com/urchin.js” type=”text/javascript”>

</script>

<script type=”text/javascript”>

_uacct = “××××××”;

urchinTracker();

</script>

可以直接把这些代码放入,只需把其中的 “××××××”修改为你自己的。

你可能找不到 Google Analytics 后台修改跟踪代码的页面,以下指南可以帮你:

Google Analytics分析的跟踪代码在哪?

Google Analytics分析的跟踪代码在哪?

网站流量统计工具,我们推荐Google网站流量统计。

然而,在使用过程中很多用户找不到 Google Analytics 分析的跟踪代码。

Google Analytics分析的跟踪代码在哪?

通过账户登录进去的首页,选择相应名称右边的“修改”,进入“网站配置页面”,点击右上方“检查状态”。

如果你正在“控制台”页面,请点击本页左上方“Analytics 设置”回到后台首页,然后按以上操作。

写网页内容需要注意些什么?

星期二, 九月 11th, 2012

网页内容是写给谁看的?
这个问题不是客户问我的,而是我提出的。对这个问题的理解和把握,可以看出你对SEO的认识程度。
或许很多网站设计者会毫不犹豫地说:“网页内容,当然是给用户看的呀”。其实,这是第一代网站建设的思维,已经落伍了很多年。第三代SEO网站建设思想指出:网页内容,不只是给用户

看,更是给搜索引擎看。
网页内容要写给用户看,你需要:
1.懂得广告学思维:让不同类型的用户在你的站点上都能找到他们喜欢看的信息,用户认同的信息更容易赢得信任。从而使用户成为你的客户。
2.越短越好:用户的时间都很宝贵,他们从来不会那么认真看一个陌生站点的内容,正如我们对其他站点的态度那样。
3.内容要有主次重点。SEO十万个为什么的文章都带有黑体文字,就是这个目的。
4.美工、图片、动画等等,引导用户随你的思维进行。
网页内容写给搜索引擎看,你需要:
1.确定网页的关键词,然后频繁出现在文章内。
2.每个网页的关键词不要超过3个,让内容围绕着关键词展开。
3.关键词要出现在标题、meta keywords、meta description中。至关重要!
4.关键词重点突出。给关键词加黑体、斜体、或者放入H1之间。至关重要!
5.适当的时候,把一些关键词连向权威的专业站点。(别忘了权威两个字)
6.网页内容页面通过链接锚文本的形式互相连接。