English Sentence Loading...
英语句子加载中...
浏览模式: 普通 | 列表
分类: 『网站建設』 | << | < | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | >

避免被搜索引擎视为作弊

[ 2005-06-16 06:52:11 | 作者: Admin ]
一个网站要想成功注册,它起码应具备两个条件,一是网站本身要有较好的内容和设计,二是网站没有作弊行为。这里所谓的“作弊”,是指采用一些特殊的、有悖常规的网页设计手法,以期提高网站排名的行为。如何设计好网站,相关的资料很多,本文就不废话了。这里主要谈谈后者,即在提高网站排名的同时,如何避免被搜索引擎视为作弊而拒绝注册。那么,在搜索引擎看来,哪些行为算作弊呢?这里罗列了一下,从中你可看到,现在有些人还视为“密技”的东西,其实已经过时了。 

  堆砌页面关键字:为了增加某个词汇在网页上的出现频率,而故意重复它。这是有人常用的花招,不过,现在很多搜索引擎都能识破它。它们通过统计网页单词总数,判断某个单词出现的比例是否正常。一旦超过“内定标准”,就对你的网页说“ByeBye”了。  

  放置隐形文本:所谓的“鬼页法”。为了增加关键字数量,网页中放一段与背景颜色相同的、包含密集关键字的文本,访客看...

阅读全文...

搜索引擎是如何工作的

[ 2005-06-03 21:11:59 | 作者: Admin ]
本文旨在帮你揭示一些你对搜索引擎还不是很肯定的东西。毕竟,如果你想通过得到搜索引擎的收录而受益,你还是了解一下搜索引擎如何工作为好。

  合三为一

  基于爬行程序的搜索引擎是由三部分组成的:爬行程序、索引和软件。每一部分都具有自己的功能并且三个部分一起产生了我们在搜索引擎结果页面(SERPs)上所看到的内容。
饥饿的爬行程序

  另一个广为人知的名字是网络爬行程序或者机器人,搜索引擎爬行程序就是能阅读网页和跟踪站点内到其它网页任何链接的一个自动程序。我们经常将一个称为被“爬行”或“索引”。在网络上有三种非常饥饿、非常活跃的爬行程序。它们的名字为Googlebot(Google)、Slurp( Yahoo!)和MSNBot(MSN 搜索)。

  爬行程序会从先前添加到它们索引(数据库)中的系列网页URLs开始网络之旅。在它们访问这些网页时,它们爬行编码和副本,它将在网络上找到的新网...

阅读全文...

关于版权声明的写法

[ 2005-06-03 21:11:08 | 作者: Admin ]
看了不少朋友的个人网站,有一个小问题,似乎很多朋友都忽略了,那就是版权声明的写法。虽然那只是一小行字,不过作为设计师也好,作为个人的爱好也好,版权的标志都是满重要的。

从法律角度看,加入了伯尔尼公约的国家,版权保护是随着作品(无论是文字,还是图片)的问世的即刻就得到版权的保护的,并不是必须要声明。但是作为惯例,这一小行文字还是有很好加强意识,提醒浏览者,所观看的内容是受到版权保护的。

正确的格式应该是:Copyright [dates] by [author/owner]

© 通常可以代替Copyright, 但是不可以用(c)。 All Rights Reserved 在某些国家曾经是必须的,但是现在在大多数国家,都不是法律上必须有的字样。

参见下面几个正确的格式:

©1995-2005 Macromedia, Inc. All rights reserved.
...

阅读全文...
根据中华人民共和国公安部令第51号令《计算机病毒防治管理办法》中第五条的规定“任何单位和个人不得制作计算机病毒”;第六条的规定“任何单位和个人不得有下列传播计算机病毒的行为:(一)故意输入计算机病毒,危害计算机信息系统安全;(二)向他人提供含有计算机病毒的文件、软件、媒体;(三)销售、出租、附赠含有计算机病毒的媒体;(四)其他传播计算机病毒的行为。”;第八条的规定“从事计算机病毒防治产品生产的单位,应当及时向公安部公共信息网络安全监察部门批准的计算机病毒防治产品检测机构提交病毒样本”,所以只有取得从事计算机病毒防治产品生产资格的单位才能允许存储计算机病毒,并且需要在公安部门备案,没有取得从事计算机病毒防治产品生产资格的单位一律不允许存储病毒。

近期,我处将加大对联网单位的检查力度,将对违反以上规定的单位、个人依据中华人民共和国公安部令第51号令《计算机病毒防治管理办法》中的第十六条的规...

阅读全文...
1. 超长的页面下载时间.

如果页面下载时间超过30秒,很难有用户会喜欢你的网站.

2.无限制的使用flash及图片

无可否认,适当的用一些图片及flash,可以增加网站的生动性,增加视觉冲击力.但无限制的使用flash及图片.会造成页面文件超大,占用浏览者的cpu资源,并且不利于页面更新及搜索引擎对网站的抓取。

3。网站页面过长.

你认为有多少浏览都有兴趣看你网页中最下面的内容? 不要拿自己来作比喻,因为99%以上的人才刚学会上网.

在王建硕的一篇文章中提到."1995年Jakob Neilson做的互联网用户调查,美国的用户在1994年的时候,只有10%的用户会拖动浏览器右边的滚动条,而绝大多数,90%的用户,打开一个网站,只看浏览第一屏看到的内容,就以为看到了全部,而不会向下滚动。"

现在中国也有这样的人.而且为数不少.

在一个网站的首页,能看到第三屏内容的人只有10%以下 ...

阅读全文...

Google双重列表(Double-Listing)探析

[ 2005-05-30 23:42:03 | 作者: Admin ]
大家在Google中进行搜索时可能会注意到这样一个有趣的现象:有的网站在搜索结果上可以被连续列出两次(如下图所示):

WHAT

对上述例子,当我们将Google默认的每页显示10项搜索结果改为每页只显示4项后,就可以发现这两个来自同一地址的网站现在一个排在第一位,另一个则排在了第二页的第一位上(第四位)。
我们都知道,对于任一关键词查询,无论一个网站有多少网页与该查询密切相关,Google也只允许搜索结果中最多只能出现其中的两个页面列表。那么,是否当这两个网页的排名较为接近时或出现在同一搜索结果页上时Google将对数据有什么再处理?
为了验证我们的观察,我们挑选了下面这两个来自同一网站且排名分别为3和17的两个网页。当使用Google默认的每页显示10项搜索结果时它们分别位于搜索结果的第一和第二页上,但在我们将选项改成每页显示20项搜索结果后,这两个网页出现在了搜索结果第一页的第3位和4位上(如下图所示):
...

阅读全文...