网上有关“网络购买的正版音乐和普通的的音乐有什么不同”话题很是火热,小编也是针对网络购买的正版音乐和普通的的音乐有什么不同寻找了一些与之相关的一些信息进行分析,如果能碰巧解决你现在面临的问题,希望能够帮助到您。
P2P是一种技术,但更多的是一种思想,有着改变整个互联网基础的潜能的思想。
(1)p2p的概念
P2P是peer-to-peer的缩写,peer在英语里有“(地位、能力等)同等者”、“同事”和“伙伴”等意义。这样一来,P2P也就可以理解为“伙伴对伙伴”的意思,或称为对等联网。目前人们认为其在加强网络上人的交流、文件交换、分布计算等方面大有前途。
简单的说,P2P直接将人们联系起来,让人们通过互联网直接交互。P2P使得网络上的沟通变得容易、更直接共享和交互,真正地消除中间商。P2P就是人可以直接连接到其他用户的计算机、交换文件,而不是像过去那样连接到服务器去浏览与下载。P2P另一个重要特点是改变互联网现在的以大网站为中心的状态、重返“非中心化”,并把权力交还给用户。 P2P看起来似乎很新,但是正如B2C、B2B是将现实世界中很平常的东西移植到互联网上一样,P2P并不是什么新东西。在现实生活中我们每天都按照P2P模式面对面地或者通过电话交流和沟通。
即使从网络看,P2P也不是新概念,P2P是互联网整体架构的基础。互联网最基本的协议TCP/IP并没有客户机和服务器的概念,所有的设备都是通讯的平等的一端。在十年之前,所有的互联网上的系统都同时具有服务器和客户机的功能。当然,后来发展的那些架构在TCP/IP之上的软件的确采用了客户机/服务器的结构:浏览器和Web服务器,邮件客户端和邮件服务器。但是,对于服务器来说,它们之间仍然是对等联网的。以email为例,互联网上并没有一个巨大的、唯一的邮件服务器来处理所有的email,而是对等联网的邮件服务器相互协作把email传送到相应的服务器上去。另外用户之间email则一直对等的联络渠道。
当然但是过去的5年里,互联网的发展至少从表面上远离了P2P,互联网上绝大部分的节点也不能和其他节点直接地交流。Napster正是唤醒了深藏在互联网背后的对等联网。Napster的文件共享功能在局域网中共享目录也是再平常不过的事情。但是Napster的成功促使人们认识到把这种“对等联网”拓展到整个互联网范围的可能性。当然,在许多人的眼中,Napster并不是纯粹的P2P,它仍然需要一个处于中心协调机制。
事实上,网络上现有的许多服务可以归入P2P的行列。即时讯息系统譬如ICQ、AOL Instant Messenger、Yahoo Pager、微软的MSN Messenger以及国内的OICQ是最流行的P2P应用。它们允许用户互相沟通和交换信息、交换文件。用户之间的信息交流不是直接的,需要有位于中心的服务器来协调。但这些系统并没有诸如搜索这种对于大量信息共享非常重要的功能,这个特征的缺乏可能正 是为什么即时讯息出现很久但是并没有能够产生如Napster这样的影响的原因之一。
另外一个可以归入P2P是拍卖网站譬如eBay,人们在总结eBay的模式的时候用了C2C,是不是和P2P有一点类似?eBay就是一个将人们联系的和交易物品的社区,用户可以方便的搜索其他用户叫卖的商品。eBay提供了一些使得交易得以顺利进行的服务,但是交易是直接在用户之间进行的。如果将“交易”的概念推广,C2C就是P2P的一个特例,这里人们互相交换的是商品。
但如果仔细深究的话,Napster和即时讯息在赋予用户之间直接交流的能力、eBay使用户可以直接交易的同时,却破坏了服务器端的那种自互联网出现之初就存在的对等联网思想,因为它们都需要有一个位于中心的服务器来协调,而不是分布在世界上不同地方的、对等联网的许多服务器。这也正是诸如Gnotella和Freenet不断的宣称它们创造了“纯粹”的P2P,完全没有中心服务器的P2P服务。
(2)p2p的思想溯源:回到互联网的本质
如果回顾一下,我们会发现在WWW出现伊始P2P就是互联网的本质特征之一。人们各自建立网页、互相做链接,人们上网是沿着链接冲浪。那时的web是真正的“网”(web)。但是当Yahoo!和Lycos建立了搜索引擎和门户站点后,人们上网的方式被改变了,人们从此到一个地方去获取所有的信息。记得新浪曾经有一段时间说它们是“目标站点”模式,但是如果多问一句,现在人们一条一条地阅读新浪的新闻,在头脑中还有一个“网”的概念吗?最大的问题是,这些站点控制了信息的流动、充斥了过时的信息、阻碍了真正的交流,或者对于很多人来说,另外还有太多的广告。 P2P就是把控制权重新还到用户手中去。人们通过P2P可以共享硬盘上的文件、目录甚至整个硬盘。这种能量是非常令人激动的,那些费心存储在自己的硬盘上的东西肯定是我们认为最有价值,所有人都共享了他们认为最有价值的东西,这将使互联网上信息的价值得到极大的提升。是不是有一种和WWW刚刚出现的时候同样的激动呢?有一点。
因为每个Peer都代表了其后的人,基于自组织的网上社区也正在显现。与门户站点从上而下建立社区的方式不同,人们将以自发的方式形成社区。
当人们加入P2P网络的时候,所有人都拥有了平等的机会,所有人都拥有了极容易地在网络上创造“内容”的机会。当然,真正在网络上创造或提供内容的人还是少数的,据统计Gnotella的用户中仅仅有2%向其他用户提供了内容,即使在比较活跃的Usenet张贴文章的用户也仅占所有用户的7%。但是,P2P第一次使得所有上网的人都拥有了平等的机会。
下面试图用三句话来揭示P2P的影响:
对等联网:是只读的网络的终结(Peer-to-peer is the end of the read-only Web)
对等联网:使你重新参与互联网(Peer-to-peer allows you to participate in the Internet again)
对等联网:使网络远离电视(Peer-to-peer steering the Internet away from TV)如上文所言,P2P不是一个新思想,从某些角度看它甚至是整个最初创建互联网的最基本的思想。我们不妨花时间作一点回顾。
互联网的发展于近现代的许多尖端科学技术的发展模式并无不同,即都是先在军事工业形成,再转到民用领域。互联网发源于至今看来也十分新颖的战略思想:为了避免敌人的毁灭性武器命中全国的军事指挥控制中心,应该怎么办?传统的方法是一方面想方设法尽可能地不让敌人知道中心的确切位置,另一方面提高中心的抵御打击的能力。但在当今的核武器年代,对方有着连一个星球都可以炸毁的核弹,再固若金汤的防御措施一旦受到攻击肯定马上化为乌有。而只要有机密存在,总有打探出机密的方法,所以靠保密中心所在位置的方法也不是长远之计。在这种情况下,美国的军事人员充分发挥逆向思维,想到既然不可能长期、有效地保护中心免受攻击,那么还不如根本不设中心!让每一个基地乃至每一台电脑都能独立运作,这么一来等于有了无数中心,敌人除非真的将这个星球炸了,否则其中一个基地或电脑受损,也不影响其他基地或电脑继续发挥作用。正是这种“非中心化”的思想成为形成互联网最基本的概念。 但是许多技术出现之后往往并不会完全按照原先的设计发展,服务器/客户机的架构逐渐变成了互联网的主流,浏览变成了人们在互联网上最主要的生存方式。互联网的普通用户似乎在慢慢的退化、和电视观众一样被动地浏览着大网站们创造的内容。人们在网络上的主要活动访问了在这么门户站点上,读新闻、参与讨论组、聊天。但是这使得设计的互联网的一个特性消失了――如果Yahoo因故中断服务如出现什么情况?这种假设不太容易看到,但是年初的黑客攻击各大网站造成的混乱似乎可以给我们一点联想的线索。
上面提到像Napster和即时讯息还是需要位于中心的服务器,那么Gnotella网站上的一句话可能表达了它们所推广的“纯粹”的P2P所包含的“非中心化”的理念:设计Gnotella是为了在核战中生存(Gnotella Is Designed to Survive Nuclear War)。它的网站上这样描述,纽约的用户受到攻击至多只会影响那个地区的部分用户,而其他地方的Gnotella用户还能正常的使用,这不正是互联网最初的理想吗?
(3)Napster带来的革命
Napster是去年当时由只有18岁的肖恩?范宁(Shawn Fanning)开发的,它提供服务允许音乐迷们交流MP3文件。它与先前也被推上被告席的提供免费音乐下载MP3.com的不同就是在Napster服务器没有一首歌曲,Napster提供了一个新的软件供音乐迷在自己的硬盘上共享歌曲文件,搜索其他用户共享的歌曲文件,并到其他也使用Napster服务的用户硬盘上去下载歌曲。Napster在短时间里吸引了5000万用户,最终,它被五大唱片商以侵犯版权推上被告席而成为世界的焦点。
可能从来没有一个行业象唱片业这样,生存会因为一个小小的软件而受到如此深重的威胁。对于Napster引起的版权问题有过很多的讨论,但是多花一些时间讨论还是值得的,因为这个案件决定了也决定了P2P文件共享这一分支的前途,也决定了未来如何处理互联网上的版权问题。
10月31日原告之一BMG公司和Napster达成和解协议。舆论认为这表明唱片业意识到通过数字方式发布音乐将是不可阻挡的潮流,消灭Napster也无法阻止其他模仿Napster的服务商出现。因此还不如与之合作改变Napster,将之变成在线音乐销售的渠道。现在的唱片工业面临的可能不是如何“像压碎一个鸡蛋”那样压碎,而是与之合作,将Napster的5000万用户变成自己的客户。也就是将Napster的模式变成“合法化的Napster”模式。唱片工业的困境是如何防止那些Napster的模仿者继续免费提供歌曲。
2000年2月12日,美国旧金山第九巡回上诉法院的三名法官就音乐网站Napster版权纠纷案作出裁决,认为它侵害了各大唱片公司的版权。但是三名法官并没有应唱片公司的要求,决定立即关闭网站,而是把最初的判决送回给低一级的地方法院。法官们说,这项裁决内容过于复杂,需作进一步澄清。但错综复杂的法律过程和长达58页的判决书反映了现在既缺乏与互联网相关的版权法,也缺乏相应的司法实践。
但是,不管Napster案的结果如何都不能改变Napster后面的技术和思想给互联网带来的影响。“魔鬼”已经钻出了魔瓶,而魔瓶也已经被打破了。对于唱片界来说,至少它们销售唱片的方式被彻底改变了。下一个可能是好莱坞的**工业,压缩技术和宽带网络将使得人们会在网络上轻易地传输整部**。
事实上合法化的网络上已经出现了许多试图推出“合法化的Napster”模式的公司,譬如由Napster的创办人之一创办的lightshare.com和Flycode.com。P2P对于唱片商来说的确有吸引力,如果它们能够从用户身上收费的话。对于利用诸如一个集中的站点提供收费的mp3音乐下载,用户每次从网站下载的时候,网站都必须向电信交流量费,而使用P2P则使得这部分费用不再存在了。因此唱片商获得更多的利润,用户也应该可以得到更便宜的音乐。
从某种意义上软件也好像预测到了大规模盗版和文件共享可能带来的影响,这主要归功于开放源码软件给软件业带来的“头脑风暴”。在亚洲和东欧,软件业已经在反对盗版上打了败仗。这也正是微软极力推广一种“软件注册模式”,把软件作为按月付费的服务出售,而不再是向过去那样出售容易复制和盗版的硬拷贝。
当然,对所谓“合法化的Napster”模式还是有很多质疑。P2P的这种文件共享功能似乎没有带来什么附加值,尽管这个过程可能是非常有趣的。从另一方面来说,这项技术可能被用来推动人们重新参与互联网、创造他们自己的内容,这也许是价值所在。所有的社区网站都有一个“梦想”,让用户互动来产生内容,但是由于由上而下创建的社区的最根本上的问题,这种梦想从来没有真正实现过。P2P或许可以改变这一点。
Napster创造的奇迹同时也是揭示了在互联网时代普通人也具有改变整个世界的能力。当肖恩?范宁在波士顿的东北大学校园开发Napster的时候,他只不过是想和他在维吉尼亚的朋友共享mp3歌曲文件。现在这个小软件改变了整个世界。
(4)p2p改变了什么?内容转移到“边缘”
在回顾了Napster了问题和困境之后,下面将看看P2P的更多激动人心的东西和消除围绕这个新词的种种误解,以及看看P2P的机会主要在哪儿。
P2P带来的一个变化就是改变了“内容”所在的位置,内容正在从“中心”走向“边缘”,也就是说内容将主要不是存在几个主要的服务器上,而是存在所有用户的个人电脑上。
Napster的成功使我们不得不去质疑流传已久的两个断言,“应用服务提供商(ASP)是未来趋势”和“个人电脑死
了”。ASP的一个基本假设就是对于大多数客户来说购买和维护高性能的服务器的成本太高了,但是P2P使得每个人办公桌上的电脑都可以成为“服务器”。用户原来是用台式电脑准备好数据之后再把数据上载到服务器上去,而使用P2P将不再需要这个过程。“个人电脑死了”这个断言就是个人电脑将主要用来浏览互联网、字处理等,因此最简单的瘦客户机就可以满足需求。P2P使得个人电脑再一次成为“中心”。P2P使得个人电脑重新焕发活力、不再是被动的客户端,而成为具有服务器和客户端的特征的设备,个人电脑将重新成为互联网的中心。
互联网的存储模式将由现在的“内容位于中心”模式转变为“内容位于边缘”模式。从这个角度看P2P带来了几个改变:
首先,客户不再需要将文件上载到服务器,而只需要使用P2P将共享信息提供出去;
其次运行P2P的个人电脑不需要固定IP地址和永久的互联网连接,这使得那些拨号上网的用户也可以享受P2P带来的变革,这部分用户在所有用户中占有极大的比重;
最后,P2P完全改变过去控制互联网的客户机/服务器模式,消除客户机和服务器二者之间的差别。
上文对Napster所遭遇的法律问题有很多讨论,但是换个角度来阐述,盗版问题往往也正显示存在大量未能满足的需求。Napster的惊人成功(这里指吸引大量用户而不是获得利润)是一种难得的对P2P的概念上可行性的证明,揭示了P2P改变互联网的潜力。直通桌面的宽带网络逐渐成为现实、个人电脑越来越强大足以胜任“服务器”功能也从另外的方面确保P2P发挥其能量。
个人电脑取代位于中心的服务器成为内容的主要存储地将对互联网的几个主要发展方向有着意义深远的影响:这可能改变Windows和Linux几年的“战争”的局面,当“桌面”和服务器逐渐融合,微软可能会极力推广其基于Windows2000的Web服务和“内容处于边缘”(内容处于桌面)模式,从而可能破坏Linux在服务器市场上存在的基础。
提供免费个人主页服务的公司存在的一个理由就是目前互联网使得普通用户很难拥有自己的服务器放置自己的内容。可以预言类似Napster的服务将会出现供人们在自己的个人电脑上发布主页和内容。
WAP等移动服务协议目前还主要关注让人们去使用处于中心的商业服务如新闻、股票信息等。但更多的时候人们最需要的信息是那些在他们的个人电脑上的信息,P2P使这成为可能。人们可以通过无线联网P2P访问他们的个人电脑,这也就是一些公司所宣传的个人化P2P(Personal P2P)的“无线版本”。
当然,这也不是说使用P2P的个人电脑可以取代服务器,那些安全的备份和需要专家来不断更新的数据还将存在于位于中心的服务器上。 可以这样看待P2P带来的转变,“内容位于中心”模式较好的适应了互联网初期的情况,个人电脑性能太差因而需要有专门的服务器、带宽太窄使得个人电脑不得不退化到被动浏览。宽带互联网、更稳定的更高性能的个人电脑使得我们有理由预言下一个5年将是由“内容位于边缘”模式主导。
(5)重新解读P2P
每个具有划时代意义的创新出现的时候它往往可能被人们误读。P2P这次也不例外,Napster让人们开始关注P2P,但也使得许多人认为P2P就是歌曲交换、文件交换,甚至认为P2P和盗版有着必然的联系。可以说人们对P2P的理解是被误导的和不完全的。
自由软件(Free software)出现之初也面临着误读的困境,人们开始的时候将Free理解为免费的,从而认为自由软件是不可靠的、认为自由软件运动是激进的“反文化的”。事实上Free更多的应该指自由地探索想法、在软件中表达出来和共享软件。这一点对自由软件的鼓吹者们来说是自然而然的,但是需要有人去告诉商界、媒体和公众自由软件在经济上和逻辑上是可行的。当时著名出版人O'reilly组织了一次自由软件峰会重新定义自由软件,将自由软件改名为开放源码软件(open source software)。这一重新定义使得人们开始拨开误解的乌云,了解Free的本质。开放源码将人们从有缺陷的软件、锁定效应和传统的软件分发渠道中解脱出来。自由表示合作将可以跨越公司的边界、共享基础性的开发,使人们可以把注意力集中到高附加值的服务上去。 今年8月,O'Reilly又组织另一次峰会来帮助人们认识P2P的潜力和消除Napster、Gnotella造成的P2P是盗版技术的负面影响。另外,他认为目前P2P的状态类似于“盲人摸象”,P2P技术的领导者们每个人都看到了P2P这头“巨象”的一些特征。,如果他们能够有机会交流思想,P2P将会更快地发展。这次P2P峰会主要有三个目的:定义P2P,我们要从中的到什么以及为什么;描述P2P的机会,P2P能解决什么样的问题;形成一个提供给大众的关于P2P的信息,消除那些负面影响。
参与P2P峰会的有媒体不断报道的那些提供文件交换服务如Napster、Gnotella、Freenet的开发者,也有那些试图挖掘P2P分布计算能力的公司和组织如Popular Power、SETI@home、distributed.net等的开发者。后面的三家公司希望使用P2P技术集中那些联接在网络上的电脑的空闲的CPU时间片断、内存空间、硬盘空间来替代“超级计算机”。其它正在进行的P2P应用还有,IBM、微软、Ariba也在合作开展一个名为UDDI的项目以将B2B电子商务标准化;Eazel正在建立下一代的Linux桌面;Jabber已经开发了一种基于XML、开放的即时讯息标准,Jabber被认为是建立了未来使用P2P数据交换的标准;由Lotus Notes的开发者创建的Groove试图“帮助人们以全新的方式沟通”;英特尔也在推广它的P2P技术以帮助更有效地使用芯片的计算能力。
列这样一个名单有一点枯燥,尤其是对于那些对于具体细节没有太多兴趣的读者,但这又是必要的。因为这些描述可以让我们更全面的了解。
(6)尚未被了解的P2P
Napster是与设备相关的,用户连接到到由它创建的P2P网络上是为了获取Mp3歌曲文件。但是对于即时讯息这一类P2P应用来说是完全不同的,别人连接的目的是和另一个Peer交流,而不必管他使用的是电脑、手持电脑或者手机。P2P提供了在网络上与设备无关的实时交流的能力。
这种将把用户实时的连接起来的能力是P2P最令人感到激动的特性。事实上我们可以从AOL的AIM、国内Oicq受欢迎的程度认识到这个事实。
能够实时地寻找和联络需要的人是商业应用的基本要求,电话可以做到这一点,而在网络上最常用的E-mail并不能做到这一点。因此,即时讯息将不仅仅是一个有趣的服务,更多的它将是下一个最基本的互联网商业工具。即时讯息现在看起来可能成为诸如客户服务、供应链管理等商业应用的平台。开发了一个开放源码的基于XML和Java即时讯息服务的Jabber似乎正是创建了一个这样的平台。Jabber的开发者似乎刻意集中了互联网现有的所有激动人心的东西:P2P、Java、XML和开放源码。它是不是有这种潜力呢?我们最好拭目以待,但Jabber的模式至少要比Napster要清晰得多。
Negroponte在其《数字化生存》中曾经有一个著名的论述,“网络上的东西将比人要多”。P2P将使得这些“东西”之间的直接交流成为可能,网络上每个设备都是“活跃”的,而不是像过去那样有部分是非常活跃,而有的则被动的,有时候直接交流的那些设备可能都是某一个用户自己的,譬如说掌上电脑和台式电脑的数据同步是最好的例子。如果用户的掌上电脑上有些数据和内容是台式电脑上没有的,台式电脑也应该能够向掌上电脑要求获取那些信息,这应该跟我们通过Napster到其他用户那儿去搜索和下载mp3歌曲一样。
最重要的一点是,不是网络上的节点数目而是这些节点如何参与网络决定网络是否强大、是否有价值。怎样使得网络上几亿的人和更多的设备都活跃地参与呢?P2P正是一系列架构、技术、策略的开端,它使得互联网的这一理想开始变为现实。现在人们看到的和预言的都只是冰山露出的一个小角,更多的还在水下。
(7)P2P中的P是人(People)!
Dave Winner的论断P2P中的P是人(people)!这可能是我读到的关于P2P最深刻的解读之一。
事实上,我们所处的真实生活是P2P的环境,人们可以和其他人直接地的交流。信息技术将我们带到了网络空间,在网络空间我们仍然希望还能够按照原来的P2P方式交流沟通。尽管互联网本质上是支持对等交流模式,但是网络的发展给对等交流增加了许多障碍。
正如许多技术专家所指出的,动态IP地址、防火墙、代理服务器从技术上使得对等连接变得很困难。更不用说目前的网络主导模式已经发展成为服务器/客户端模式,人们在网络上只能被动的接受那些大公司诸如Yahoo!、ABCnews.com等提供的信息,交流是非常困难的。(当然,在现实生活中诸如空间、社会等级等也束缚了人们的对等交流。但是如果网络能够使我们看到对等交流的可能性,为什么不去追求?)
可以这样类比,互联网的出现和电话的发明是具有同样的意义的,但是互联网最开始的主要特征是非实时的,更类似于传真,而没有提供像电话那样实时交流,现在P2P的即时讯息可能使得互联网上的实时交流变得和Web页面、E-mail那样普遍和不可或缺。
对于所有的P2P应用来说,最先要做的就是恢复互联网曾经失去的对等联网能力。这也正是Napster从概念上最大的缺陷。(email是具有P2P交流的特征的,但email缺乏实时交流的能力,它类似与传真,但我们还需要“电话”的。)
从“人”的角度上将,P2P发展的要点并不是P2P网络架构是如何,而是P2P将人们在网络上连接起来了,人们可以在网络这个更迅疾的媒介上处理那些需要沟通的问题。这是最重要的。尽管到今天还有人在怀疑互联网作为零售商业和B2B媒介的有效性,但是互联网已经从根本上改变了我们的交流方式是不需要任何讨论的。过分的谈了“纯粹的”的、完全消除控制的P2P是毫无意义的。中心化或者非中心化都只是工具,都是为了创造出使人们可以更有效地沟通的工具。
人类在现实生活中的经验至今仍只有极少的部分被应用到网络上,如新闻、B2C、B2B。现在,人们最常使用的P2P被移植到了网络空间。P2P可能改变一些我们已经熟知的、习惯了的产品和服务,也会创造更多。
究竟会出现些什么?预言未来的最好办法是去创造。
p2p能做什么
P2P引导网络计算模式从集中式向分布式偏移,也就是说网络应用的核心从中央服务器向网络边缘的终端设备扩散:服务器到服务器、服务器到PC机、PC机到PC机,PC机到WAP手机……所有网络节点上的设备都可以建立P2P对话。这使人们在Internet上的共享行为被提到了一个更高的层次,使人们以更主动深刻的方式参与到网络中去,正如I2(第二代互联网)之父Doug. Van Houweling 在几个月前的中国之行时说到的:“下一代互联网民们将真正参与到网络中来,每个人都能为网络的资源和功能扩展作出自己的贡献。”
P2P给互联网的分布、共享精神带来了无限的遐想,有观点认为至少有100种应用能被开发出来,但从目前的应用来看,P2P的威力还主要体现在大范围的共享、搜索的优势上。在这方面主要引发了,或者是说更好的解决网络上四大类型的应用:对等计算、协同工作、搜索引擎、文件交换。
(1)对等计算
通过众多计算机来完成超级计算机的功能,一直是科学家梦寐以求的事情。采用P2P技术的对等计算,正是把网络中的众多计算机暂时不用的计算能力连结起来,使用积累的能力执行超级计算机的任务。任何需要大量数据处理的行业都可从对等计算中获利,如天气预报、动画制作、基因组的研究等,有了对等计算之后,就不再需要昂贵的超级计算机了。在硅谷现在有许多公司正在投入对等计算的开发,如Popular Power,Centrata,United Devices,Entropia等,并获得了巨大的风险资金。Intel也利用对等计算技术来设计其CPU,并为其节省极大的费用,同时对等计算的发展是以PC机资源的有效利用为根本出发点的,自然也极力受到Intel的极力推崇。从本质而言,对等计算就是网络上CPU资源的共享。
(2)协同工作
公司机构的日益分散,给员工和客户提供轻松、方便的消息和协作的工具,变得日益重要。网络的出现,使协同工作成为可能。但传统的WEB方式实现,给服务器带来了极大的负担,造成了昂贵的成本支出。P2P技术的出现,使得互联网上任意两台PC都可建立实时的联系,建立了这样一个安全、共享的虚拟空间,人们可以进行各种各样的活动,这些活动可以是同时进行,也可以交互进行。P2P技术可以帮助企业和关键客户,以及合作伙伴之间建立起一种安全的网上工作****,因此基于P2P技术的协同工作也受到了极大的重视,Lotous公司的创始人奥奇更是获得了6000万美元的风险投资,来开发其协同工作产品Groove。
全世界游戏发展史
In the early 1990s, before the rest of the world heard about the Internet, the primary source of technical hype and excitement was “virtual reality”. Early virtual reality systems showed exciting promise, but most implementations were expensive, fragile, and immature . In the mid-to-late 1990s, as the public began streaming onto the Internet, virtual reality was most often popularly associated with VRML, an attempt to merge the display technologies of virtual reality with the networking technologies of the Web . Today, virtual reality lives on in the form of massively multiplayer virtual worlds, systems that allow hundreds of thousands of distributed users to participate in rich entertainment simulations. It is the interactive entertainment, or game, industry that acts as the primary driving force for innovation in this space.
在90年代初,在世界听到互联网技术的主要来源地,经常出现"虚拟现实". 虚拟实境展示系统初期兴奋答应,但执行最昂贵而脆弱的,不够成熟. 中期到90年代后期,随着市民开始分流上网、虚拟现实是民众最常与VRML,企图将展示虚拟现实技术与网络技术的网络. 今天,生活在虚拟的形式大量虚拟热潮制度,使成千上万的用户分发丰富的娱乐参与模拟. 这是互动娱乐、游戏、行业行为为主要动力,这种创新的空间.
UO2 is Origin System’s next-generation virtual world, an imaginary planet inhabited by all manner of fantastic, mythical, and technological creatures, places, and things. To enter this world, users run client software locally, connect to remote UO2 servers, and create one or more player character avatars. Player characters are highly customizable alternate identities who can walk around, talk, interact with objects, fight with other characters, learn new skills, and generally live life under the direction of the user. While characters start off life with basic skills, abilities, and equipment, they gradually become more powerful through exploration of the virtual world, battling monsters and opponents, and solving quests.
UO2来源是系统的新一代虚拟世界里,居住着一个虚构的星球各种美妙、神秘、生物技术、地、事. 进入这个世界,客户管理软件,用户在当地UO2远程服务器连接,并建立一个或多个虚拟角色性格. 人物高度文明候补球员身份谁能走走,讲互动物体,跟其他人物,学习新技能,一般生活居住的指导下使用. 虽然起步字基本生活技能、能力和装备,逐渐变得更加强大,通过探索虚拟世界和怪兽作战对手,摸索解决.
The new world of UO2 builds on the legacy of the swords and sorcery Ultima fiction originally created by Richard Garriott [1]. Like the original Ultima Online, UO2 brings thousands of players together in an artificial world. However, in addition to adding new chapters to the Ultima story, UO2 also expands on several technical fronts, enabling a system flexible enough for the rapid creation of many future virtual worlds. The system has an entirely new technological foundation of a robust server architecture and network protocol on the back end and an advanced real-time 3D graphics engine on the front end. Further, UO2 combines a highly data-driven design with simulation classes on both client and server, using the standard and well supported dynamic object oriented language, Python.
依据新的世界遗产UO2的衣服,把原来的小说终极RichardGarriott1. 如原终极Online,使成千上万UO2球员一起人为的世界. 不过,除了增加新的章节>增刊,UO2还就一些技术领域扩展,为使系统灵活快速创建未来许多虚拟世界. 一个全新的制度基础,健全科技服务体系和网络协议的终止和恢复先进的实时三维图形引擎的前端. 还结合高度UO2数据驱动的设计与仿真两班、客户服务、支持和使用的标准与动态面向对象语言,参展.
搞网络安全应该学哪些知识
一、红白机时代
据说世界上第一台家用游戏机诞生于上世纪七十年代,只能呈现简单的方块线条,而且还是单色的,那时还不能称这是一个“产业”,改变历史的是日本任天堂(Nintendo),在上世纪八十年代,日本的任天堂开辟了一个崭新的红白机时代,这时,真正意义上的家用游戏机FC开始风靡世界,并逐步产生了一个庞大的家用游戏机产业。
任天堂FC 世嘉MD 任天堂SFC
发布日期 1983年7月15日 1988年10月29日 1990年11月21日
累计销量 6291万台 3075万台 4910万台
其中日本 1935万台 875万台 1717万台
其中美国 4256万台 2200万台 3193万台
CPU 摩托罗拉6502 摩托罗拉M68000 摩托罗拉65836
CPU运行频率 1.79MHz 7.67MHz 3.58MHz
画面解析度: 256X240 320X224 512X448
最大发色数 52色 512色 32768
同屏发色数 16色 64色 256色
最多活动块数量 64个 80个 128个
内存 2KB 64KB 128KB
显存 2KB 64KB 128KB
软件载体 32KB卡带ROM 容量为4MB的卡带 容量6MB的卡带
日本游戏产业的起点
任天堂的FC全称为Family Computer,是日本任天堂公司1983年生产的游戏主机,现在很多游戏的前身就是来自于FC。FC为游戏产业做出了相当大的贡献,甚至可以说FC游戏机是日本游戏产业的起点。FC也曾在80年代风靡中国大陆,那个时候很多人管它叫红白机。FC上出了非常多的经典游戏,例如大名鼎鼎的魂斗罗、勇者斗恶龙、超级马里奥、沙罗曼蛇、塞尔达传说、最终幻想、恶魔城、洛克人等等……
FC上市之后,Sega(世嘉)同期的游戏机SG-1000被彻底压制。不过FC上市不久,由于首批FC的硬件设计存在可能导致死机的严重Bug。为了挽救任天堂的声誉,山内溥毅然决定回收主机,因此而损失了15亿日元。不过这起事件让任天堂树立了卓越的品牌形象,次年FC重新上市后于一年内卖出了165万台。FC在美国的首发更加成功。1985年10月NES在纽约率先上市,首发游戏共15款。到1985年底,NES在纽约卖出了5万台。随后NES开始在美国全国上市,一年内卖出了100万台,让一度崩溃的美国家用机市场开始复苏。
16位主机时代
16位主机时代是以日本世嘉(SEGA)1988年推出的16位游戏机MD(Mega Driver)为起点的。对于世嘉而言,美国市场才是真正的战略重心。1989年9月15日该主机在全美上市,售价为190美元。由于当时美国游戏市场已经基本被任天堂垄断,世嘉决定开拓较高年龄层的新玩家群体,推出了大批面向成年玩家群体的游戏。
之后任天堂的SFC上市,世嘉与任天堂的竞争进入白热化。1992年,世嘉占领了北美55%的市场份额;1993年,世嘉家用机业务达到了空间绝后的顶峰,占据市场份额高达65%。
2D游戏最后的王朝
1987至1988年间,FC丰厚的收入让任天堂对于开发次世代主机毫无兴趣。然后,世嘉MD的市场占有率节节攀升迫使任天堂不得不开始投入16位主机的开发。SFC在设计上最大的特点就是采用了两颗图形协处理器。
SFC最初预定于1989年7月发售,其后数度延期。不过由于任天堂有大批第三方的支持,SFC虽然姗姗来迟,却毅然是日本玩家最关注的主机。在SFC发售之前,任天堂已经接到了150万台的订单。11月21日当天,东京街头的各电器店充满了排队等候SFC的人群,很多家长为了能给孩子买部主机而旷工排队,庞大的人流甚至严重影响了东京的交通。1991年8月13日,任天堂在美国推出了经过重新设计的SNES。可惜SNES的上市时间实在太晚,当时MD已经在美国建立了足够庞大的群众基础。SNES发售第一年就被MD轻易击败。任天堂势力的削弱业为其后PS轻易占领美国市场提供了契机。
然而这时候,任天堂的好日子却快要到头了。
二、索尼的PS帝国
1993年,任天堂和SONY开始合作并研发次时代主机,然而在研制期间,任天堂和SONY在游戏的存储介质上发生了严重冲突,SONY提出应该用CD光盘来做游戏的介质,因为光盘储存容量大,成本低,方便轻巧,而任天堂坚持使用卡带,认为卡带读取速度更快。双放争执很大,最终,任天堂单方面终止了合作。这无疑激怒了SONY,为了不让成型的产品流产,SONY决定独自将计划进行下去,SONY可能也没有想到,这个决定将会改变整个家用游戏机的发展进程。
1994年是游戏机具有历史意义的一年,这一年,SONY发布了32位基于CD的家庭电视游戏系统索尼PS游戏机(PlayStation)。秋叶原等地出现了数百人排队购买的浩大场面,首批出货的10万台在中午前被抢购一空,甚至连索尼社长大贺典雄的孙子都不得不空手而归。由于PS的品牌号召力使得众多知名软件厂商纷纷加盟,PS主机上开始逐渐呈现出百花齐放的局面,直至两大白金级游戏厂商Square与Enix陆续宣布将携巨作《最终幻想VII》与《勇者斗恶龙VII》投奔PS,它们所引起的雪崩效应无异于提早宣判了32位主机时代战争的完结。
世嘉SS 索尼PS 任天堂N64
发布日期 1994年11月22日 1994年12月3日 1996年6月23日
累计销量 926万台 1亿台以上 3293万台
CPU 日立32位SH2 32位RISC 64位MIPS R4300i
CPU运行频率 28.6MHz 33.8688MHz 94 MHZ
画面解析度: 640X480 640X480 640X480
最大发色数 1677万色 1677万色 1670万色
多边形处理能力 30万/秒 36万/秒 15万/秒
内存 32Mbit 28Mbit 4MB RDRAM
软件载体 2倍速CD-Rom CD-Rom 64MB的卡带
世嘉土星SS的溃败
1994年,世嘉也发布了自己的新一代游戏机,世嘉将该主机定名为“土星”(SS,SEGA SATURN)-太阳系的第六行星,代表世嘉的第六部主机。
在主机发售前一个月,首批20万台土星几乎已经被全部预订,首发当日15万台主机迅速售罄。购买土星的玩家多数都是冲着《VR战士》而来。1994年底,土星在日本总共卖出了50万台,销售成绩超过了同一时期的PS。1995年5月7日,索尼与世嘉同时宣布PS和SS销量超过100万台,两大32位主机的竞争进入白热化状态。
然而在美国市场,世嘉却没有继承MD的市场优势。美版土星的价格比PS高100美元,实际性能却不及PS。1995年世嘉与索尼狂打价格战,土星以微弱的优势领先,然后由于土星的造价比PS高,到了1996年之后,世嘉再也无法承受巨大的成本压力,土星在美国和日本全线溃败。
短命的任天堂N64
N64虽然比SS和PS晚上市了一年半,但是在日本由着雄厚根基的任天堂依然得到了玩家的广泛支持,N64在日本的首发规模比PS和SS强大得多,首批50万台主机只用了10天时间就已售罄。1996年9月30日,N64在北美上市后同样大获成功。人们对于在游戏机市场上垄断了十年的任天堂依然信心十足,N64似乎比PS和SS更受欢迎。
然后由于采用卡带为媒体,让所有第三方大失所望。N64的卡带制造成本高达25美元,而CD-ROM只要10美分,因此N64的游戏售价一般比PS高20~25美元。N64时历史上游戏种类最少的主流游戏机,其发售之后的好几个月内一直缺乏软件支持,而PS和SS却有着空前强大的游戏阵容。N64首发的强劲势头很快被《生化危机》等大作牢牢压制。由始至终,N64基本上都是任天堂只身作秀的舞台。
世嘉的末日之作DC
由于主机设计的缺陷,世嘉的SS在与PS的竞争中吃了大亏。在开发下一代主机时,当时世嘉的社长中山隼雄决定外聘IBM的高级工程师在美国成立了一个单独的开发组,而日本方面由佐腾秀树率领团队叶在同时进行主机设计,1997年7月,世嘉高层决定采用日本组的方案,并定名为Dreamcast,是梦(Dream)与传播(Broadcast)的合成词。意思是将梦传播给玩家。
该主机在发售之前,世嘉已经拿到了50万台的订单,然而世嘉的生产合作伙伴NEC却碰上了严重的生产问题。由于图形芯片的生产速度跟不上,DC在日本的首批出货只有15万台。1999年9月9日,DC在美国上市,当天就卖出了22万台。
截至1999年2月,DC在日本的总销量为90万台,未能达到当初预计的100万台。尽管尽管DC的性能远远高于PS,但是在《最终幻想VII》等PS大作的冲击下,缺乏软件支持的DC开始呈现颓势。进入2000年,随着PS2的上市,DC在日本和美国全面溃退。2001年3月,世嘉宣布DC停产,并彻底退出主机市场。
赢家和输家的经验教训
在这一次的游戏机大战中,索尼的PS成为最后的赢家,关于索尼的PS战胜劲敌世嘉的土星,原因很多,一些说法是土星的价格比PS高,而实际性能却不及PS。虽然土星和PS都不凡有大作支持,但是PS的大作相对多一些,最终决定PS命运的可能是那些名垂青史的游戏大作,例如《生化危机》、《寂静岭》、《合金装备》、《最终幻想》等等。
而任天堂的失败在于其落伍的观念,直到1996年,任天堂推出的游戏机N64还是基于游戏卡的主机。任天堂为他的这个愚蠢的决定付出了代价,而等到任天堂清醒过来,并于2001年推出以光盘做为介质的NGC(NINTENDO GAME CUBE)游戏机时,SONY的PS/PS2早已成为游戏机领域的新霸主。
三、索尼的PS2帝国
2000年初,PS2的网上预约正式开始,然而令人始料未及的是,网站竟然在开始的1分钟内接到了10万多份的订单。服务器不堪重负,当场瘫痪。狂热的预约活动一直持续到2月底,共有38万份PS2被订了出去。
2000年3月4日,PS2的发售引起了新一轮的抢购热潮。东京秋叶原电器街甚至出现了5000余人的长队,排在队首的几人则在四天前就已经搭好了帐篷,狂热度令人叹为观止。最后SCEI再次创造了业界的神话:三天内PS2总计销量达到了98万台,成为有史以来销量速度最快的电视游戏主机。
PS2在日本地区的首发出货量为115万台,超过了当年的初代PS主机。但由于市场需求量极为庞大,最终还是出现了供不应求的现象,价格炒作现象也开始在eBay等拍卖网站上蔓延,许多PS2被以数倍于官方零售价的价格拍卖,即便如此,照价买单的玩家依然大有人在。
PS2在2000年首发之初的游戏数量并不算少,但真正有影响力的大作并不多,再加上首发缺货情况严重,软件的销量也因此十分低靡。然而到了转年,随着主机供货的逐步趋于稳定和大作的陆续发售,PS2的销量也开始扶摇直上,直至最后坐上现有主机平台霸主的宝座。
该主机上诞生的著名游戏系列包括:《鬼泣》、《鬼武者》、《真三国无双》、《王国之心》。
世嘉DC 索尼PS2 任天堂NGC 微软Xbox
发布日期 1998年11月27日 2000年3月4日 2001年9月14日 2001年11月15日
累计销量 1045万台 1.11亿台以上 1850万台 2200万台以上
CPU 128位SH4 128位EE IBM PowerPC 750CXe Intel特制Pentium III
CPU运行频率 206MHz 295MHz 485MHz 733MHz
GPU PowerVR2 GS,主频 147.456MHz ATI Flipper 主频162MHz nVidia NV2A
最大发色数 1677万色(16位色) 1677万色(16位色) 1677万色(16位色) 429496万色(32位色)
多边形处理能力 300万/秒 7500万/秒 1200万/秒 1.165亿/秒
内存 16MB 32MB RDRAM 24MB 64MB
显存 8MB 4MB 16MB 显存和内存共用
软件载体 GD-Rom 4倍速DVD-Rom 特制8cm DVD DVD-Rom
任天堂NGC的反击
1999年3月3日,在索尼公开PS2的第二天,任天堂与松下共同召开记者招待会,宣布了新一代游戏机的开发,并宣布其性能规格将会在PS2之上。然后NGC的首发游戏阵容太过薄弱,NGC首批出货共有45万台,而首周之内只卖出了30万台,与其他主机普遍存在的缺货现象形成了鲜明对比。
NGC的仓促上阵不仅没有起到压制PS2的作用,反而让任天堂陷入进退两难的境地。NGC的美版首发又很不幸地遇到了Xbox这个强劲的对手,结果其在北美的首批销量为46.9万台,比Xbox少了将近10万台。游戏阵容薄弱,这是NGC从发售日起就从未跳脱的窘境。在《光环2》发售后,NGC在欧美被Xbox远远抛在了身后。
微软XBOX的挑战
2001年11月15日,微软发布了Xbox游戏主机。虽然Xbox在美国上市时,PS2的全球销量已经突破了2000万台,然而来势汹汹的Xbox依然令人畏惧。微软在纽约和旧金山举办了盛大的Xbox午夜首卖活动,比尔盖茨亲临纽约时代广场,并在零点一分亲自将第一部Xbox递给热心的玩家,并与其一同体验了Xbox的魅力。
不过,相对于Xbox强大的硬件性能而言,299美元这低廉的售价在当时而言简直与恶性倾销无异。以这样的价位销售,每卖一台Xbox,微软将会亏125美元。事实也确实如此,虽然现在全球销量两千万台的Xbox已经稳稳坐上了第二把交椅,但这些年来微软在硬件上10亿美元/年的蒸发式挥霍实在有些惊人。“第一代就像一局游戏,如果你玩得好,那么到最后他会说:‘你可以再玩一遍了。’就是这样!”比尔盖茨说。几十亿美元的亏损仅仅是为了“再玩一遍”!世界首富的耐心令所有人胆寒。
索尼帝国的成功
到这里,索尼的游戏机帝国已经初具雏形,索尼也从游戏的门外汉摇身一变成了电视游戏界最大的赢家。虽然在2001年微软的突然杀出和任天堂的蓄力反击为市场的走向带来了一些变数,但历史和事实证明,PS2是有史以来最成功的游戏主机。
四、次世代游戏机
时光流转,三大厂商的新世代主机已经全面上市,SONY、微软和任天堂都拿出了自己的侃价本事来推广各自的新产品,这一次游戏机大战到底是鹿死谁手呢?
随着微软的XBOX360、索尼PS3和任天堂Wii的发售,次世代游戏机大战日渐白热化。自从索尼PS系列一直领军游戏机市场独占鳌头以来,十年间都没有这样激烈的“战争”了。如今索尼、微软、任天堂三强鼎立,各自的次世代游戏机都有其优势和弱势,目前看来很难预料最后的结果会怎样,而且更大的竞争应该在于索尼和微软之间。任天堂很聪明的选择了另外一种方式。
索尼PS3 任天堂Wii 微软XBOX360
发布日期 2006年11月11日 2006年11月6日 2005年11月22日
累计销量(截至07年4月) 184万台 584万台 1000万台
CPU Cell处理器,每秒2.18T浮点运算 IBM Broadway 90nm IBM PowerPC
CPU频率 3.2Ghz 729MHz 3.2 GHz
GPU 550MHz RSX(NVIDIA) ATI Hollywood 定制的ATI图形处理器
视频 解析度最高1080i;HDMI输出端子(60GB版本),支持HDMI1.3标准 解析度最高853×480;输出端子AV多重 解析度最高1080i;输出端子:标准AV线、HDAV线
内存 512MB(256MB XDR主内存;256MB GDDR3显存) 系统内存650MHz;512MB闪存 512 MB GDDR3 内存,700 MHz DDR 频率
网络功能 网络平台:PlayStation Network Platform 网络平台:Wii Connect24 网络平台:XBOX Live是目前最成熟的游戏网络平台;服务:Live Anywhere
控制器 PS3手柄使用蓝牙技术,搭载动作感应技术,6轴感应系统,无震动功能。无线手柄有效距离30英尺 Wiimote,支持四个控制器,支持蓝牙,信号有效范围达到10米。具备震动功能,内置3轴动作感应器。 无动作感应功能;具备震动功能;最大支持4个无线手柄;无线手柄有效距离10米,电池时间40小时。
媒体和其他功能 USB2.0 × 6;
向下兼容PS、PS2;
Blue-ray 光驱,5.1声道的声卡
MemoryStickDuo记忆卡或SD记忆卡或CF卡;10/100/1000Mbps宽带以太网络接口;可外接2.5吋的硬盘;
可与PSP连动,通过无线LAN或者USB 2.0与PSP连动 USB2.0 × 2;
内存扩展槽:2个SD插槽;
向下兼容GameCube、NES、SNES、N64游戏;
光驱兼容8厘米GameCube光盘、12厘米Wii光盘;Wii主机GameCube存储卡插槽2个 USB2.0 × 3;
2个记忆卡插槽;
硬盘可拆卸并可升级的;
支持更换个性主机面板;
可拆卸并可升级的20GB硬盘;
12 速双层 DVD-ROM;
64 MB 起始的记忆卡容量;
对应视频摄像头
微软的XBOX360先发制人
2005年11月22日,微软推出了XBox360游戏机,这台“潘多拉的魔盒”实在充满了诱惑。次世代战争的帷幕已由Xbox360率先掀起。XBOX360拥有众多欧美玩家用户,在欧美占天时地利。提前发售的一年之中,占有了大量的欧美游戏市场,然而由于文化的差异,XBOX360始终难以打入日本市场。
索尼的PS3出师不利
直到2006年11月11日,索尼才推出了新一代的PS3游戏机,由于PS3使用的CELL处理器、蓝光DVD的成本都非常高,因此就算PS3的价格比Xbox360与Wii加起来还多,外界都一致认为SONY还是赔本在卖,如果按照SONY预期的,PS3要在发售半年内达到全球600万台的数量来预估,PS3在发售第一年就可能让SONY赔本20亿美金。
任天堂的Wii另辟蹊径
任天堂在2006年11月6日发布的Wii游戏机,虽然也加入了次世代游戏机的战役,但是游戏机的性能和XBOX360及PS3相差实在太大,因此不要指望Wii上的游戏画面能达到前两者的水准。
不过,Wii的成本是三个之中最低的,耗电量也非常低,Wii最大优势在于它独特的动作感应控制器,Wii能识别出玩家做出的动作,它将创造一种全新游戏方式。Wii的游戏手柄和其以往的手柄形状完全不同,它采用了一个运动感应控制器,用无线蓝牙与主机直接相连。这款新手柄突出“仿真体验”,通过放置在显示设备中的感应器,感知玩家的手臂运动。
Wii的这种建议操作使得很多非传统玩家(女性和中老年人)都乐意来玩这种游戏,有些人认为Wii可以用来健身。
谁会笑到最后?
目前进行的次世代游戏机大战到底谁会成为最后的赢家呢?其实看一看前几代游戏机大战,我们都会知道决定因素是什么,主机的胜败很大程度上在于第三方软件厂商的支持,而不是游戏机的机能。因此,越多的游戏开发商支持、越多的游戏大作的出现,将决定谁会是最后的赢家。
P2P什么意思
什么是网络安全
网络安全是指网络系统的硬件、软件及其系统中的数据受到保护,不受偶然的或者恶意的原因而遭到破坏、更改、泄露,系统连续可靠正常地运行,网络服务不中断。
1 .网络安全概述
随着计算机技术的迅速发展,在计算机上处理的业务也由基于单机的数学运算、文件处理,基于简单连接的内部网络的内部业务处理、办公自动化等发展到基于复杂的内部网(Intranet)、企业外部网(Extranet)、全球互连网(Internet)的企业级计算机处理系统和世界范围内的信息共享和业务处理。在系统处理能力提高的同时,系统的连接能力也在不断的提高。但在连接能力信息、流通能力提高的同时,基于网络连接的安全问题也日益突出,整体的网络安全主要表现在以下几个方面:网络的物理安全、网络拓扑结构安全、网络系统安全、应用系统安全和网络管理的安全等。
因此计算机安全问题,应该象每家每户的防火防盗问题一样,做到防范于未然。甚至不会想到你自己也会成为目标的时候,威胁就已经出现了,一旦发生,常常措手不及,造成极大的损失。
2 .物理安全分析
网络的物理安全是整个网络系统安全的前提。在校园网工程建设中,由于网络系统属于弱电工程,耐压值很低。因此,在网络工程的设计和施工中,必须优先考虑保护人和网络设备不受电、火灾和雷击的侵害;考虑布线系统与照明电线、动力电线、通信线路、暖气管道及冷热空气管道之间的距离;考虑布线系统和绝缘线、裸体线以及接地与焊接的安全;必须建设防雷系统,防雷系统不仅考虑建筑物防雷,还必须考虑计算机及其他弱电耐压设备的防雷。总体来说物理安全的风险主要有,地震、水灾、火灾等环境事故;电源故障;人为操作失误或错误;设备被盗、被毁;电磁干扰;线路截获;高可用性的硬件;双机多冗余的设计;机房环境及报警系统、安全意识等,因此要尽量避免网络的物理安全风险。
3 .网络结构的安全分析
网络拓扑结构设计也直接影响到网络系统的安全性。假如在外部和内部网络进行通信时,内部网络的机器安全就会受到威胁,同时也影响在同一网络上的许多其他系统。透过网络传播,还会影响到连上Internet/Intrant的其他的网络;影响所及,还可能涉及法律、金融等安全敏感领域。因此,我们在设计时有必要将公开服务器(WEB、DNS、EMAIL等)和外网及内部其它业务网络进行必要的隔离,避免网络结构信息外泄;同时还要对外网的服务请求加以过滤,只允许正常通信的数据包到达相应主机,其它的请求服务在到达主机之前就应该遭到拒绝。
4 .系统的安全分析
所谓系统的安全是指整个网络操作系统和网络硬件平台是否可靠且值得信任。目前恐怕没有绝对安全的操作系统可以选择,无论是Microsfot 的Windows NT或者其它任何商用UNIX操作系统,其开发厂商必然有其Back-Door。因此,我们可以得出如下结论:没有完全安全的操作系统。不同的用户应从不同的方面对其网络作详尽的分析,选择安全性尽可能高的操作系统。因此不但要选用尽可能可靠的操作系统和硬件平台,并对操作系统进行安全配置。而且,必须加强登录过程的认证(特别是在到达服务器主机之前的认证),确保用户的合法性;其次应该严格限制登录者的操作权限,将其完成的操作限制在最小的范围内。
5 .应用系统的安全分析
应用系统的安全跟具体的应用有关,它涉及面广。应用系统的安全是动态的、不断变化的。应用的安全性也涉及到信息的安全性,它包括很多方面。
--应用系统的安全是动态的、不断变化的。
应用的安全涉及方面很多,以目前Internet上应用最为广泛的E-mail系统来说,其解决方案有sendmail、Netscape Messaging Server、Software.Com Post.Office、Lotus Notes、Exchange Server、SUN CIMS等不下二十多种。其安全手段涉及LDAP、DES、RSA等各种方式。应用系统是不断发展且应用类型是不断增加的。在应用系统的安全性上,主要考虑尽可能建立安全的系统平台,而且通过专业的安全工具不断发现漏洞,修补漏洞,提高系统的安全性。
--应用的安全性涉及到信息、数据的安全性。
2006最新杀毒软件排名
金奖:BitDefender
银奖: Kaspersky
铜奖: F-Secure Anti-Virus
第四名: PC-cillin
第五名: ESET Nod32
第六名: McAfee VirusScan
第七名: Norton AntiVirus
第八名: AVG Anti-Virus
第九名: eTrust EZ Antivirus
第十名: Norman Virus Control
第十一名:AntiVirusKit
第十二名:AVAST!
第十三名:Panda Titanium
第十四名:F-Prot
信息的安全性涉及到机密信息泄露、未经授权的访问、 破坏信息完整性、假冒、破坏系统的可用性等。在某些网络系统中,涉及到很多机密信息,如果一些重要信息遭到窃取或破坏,它的经济、社会影响和政治影响将是很严重的。因此,对用户使用计算机必须进行身份认证,对于重要信息的通讯必须授权,传输必须加密。采用多层次的访问控制与权限控制手段,实现对数据的安全保护;采用加密技术,保证网上传输的信息(包括管理员口令与帐户、上传信息等)的机密性与完整性。
6 .管理的安全风险分析
管理是网络中安全最最重要的部分。责权不明,安全管理制度不健全及缺乏可操作性等都可能引起管理安全的风险。当网络出现攻击行为或网络受到其它一些安全威胁时(如内部人员的违规操作等),无法进行实时的检测、监控、报告与预警。同时,当事故发生后,也无法提供黑客攻击行为的追踪线索及破案依据,即缺乏对网络的可控性与可审查性。这就要求我们必须对站点的访问活动进行多层次的记录,及时发现非法入侵行为。
建立全新网络安全机制,必须深刻理解网络并能提供直接的解决方案,因此,最可行的做法是制定健全的管理制度和严格管理相结合。保障网络的安全运行,使其成为一个具有良好的安全性、可扩充性和易管理性的信息网络便成为了首要任务。一旦上述的安全隐患成为事实,所造成的对整个网络的损失都是难以估计的。因此,网络的安全建设是校园网建设过程中重要的一环。
7 .网络安全措施
--物理措施:例如,保护网络关键设备(如交换机、大型计算机等),制定严格的网络安全规章制度,采取防辐射、防火以及安装不间断电源(UPS)等措施。
--访问控制:对用户访问网络资源的权限进行严格的认证和控制。例如,进行用户身份认证,对口令加密、更新和鉴别,设置用户访问目录和文件的权限,控制网络设备配置的权限,等等。
--数据加密:加密是保护数据安全的重要手段。加密的作用是保障信息被人截获后不能读懂其含义。
防止计算机网络病毒,安装网络防病毒系统。
--其他措施:其他措施包括信息过滤、容错、数据镜像、数据备份和审计等。近年来,围绕网络安全问题提出了许多解决办法,例如数据加密技术和防火墙技术等。数据加密是对网络中传输的数据进行加密,到达目的地后再解密还原为原始数据,目的是防止非法用户截获后盗用信息。防火墙技术是通过对网络的隔离和限制访问等方法来控制网络的访问权限,从而保护网络资源。其他安全技术包括密钥管理、数字签名、认证技术、智能卡技术和访问控制等等。
网络安全是一门涉及计算机科学、网络技术、通信技术、密码技术、信息安全技术、应用数学、数论、信息论等多种学科的综合性学科。
网络安全是指网络系统的硬件、软件及其系统中的数据受到保护,不受偶然的或者恶意的原因而遭到破坏、更改、泄露,系统连续可靠正常地运行,网络服务不中断。
网络安全从其本质上来讲就是网络上的信息安全。从广义来说,凡是涉及到网络上信息的保密性、完整性、可用性、真实性和可控性的相关技术和理论都是网络安全的研究领域。
网络安全的具体含义会随着“角度”的变化而变化。比如:从用户(个人、企业等)的角度来说,他们希望涉及个人隐私或商业利益的信息在网络上传输时受到机密性、完整性和真实性的保护,避免其他人或对手利用窃听、冒充、篡改、抵赖等手段侵犯用户的利益和隐,? 问和破坏。
从网络运行和管理者角度说,他们希望对本地网络信息的访问、读写等操作受到保护和控制,避免出现“陷门”、病毒、非法存取、拒绝服务和网络资源非法占用和非法控制等威胁,制止和防御网络黑客的攻击。
对安全保密部门来说,他们希望对非法的、有害的或涉及国家机密的信息进行过滤和防堵,避免机要信息泄露,避免对社会产生危害,对国家造成巨大损失。
从社会教育和意识形态角度来讲,网络上不健康的内容,会对社会的稳定和人类的发展造成阻碍,必须对其进行控制。
2、增强网络安全意识刻不容缓
随着计算机技术的飞速发展,信息网络已经成为社会发展的重要保证。信息网络涉及到国家的政府、军事、文教等诸多领域。其中存贮、传输和处理的信息有许多是重要的政府宏观调控决策、商业经济信息、银行资金转帐、股票证券、能源资源数据、科研数据等重要信息。有很多是敏感信息,甚至是国家机密。所以难免会吸引来自世界各地的各种人为攻击(例如信息泄漏、信息窃取、数据篡改、数据删添、计算机病毒等)。同时,网络实体还要经受诸如水灾、火灾、地震、电磁辐射等方面的考验。
近年来,计算机犯罪案件也急剧上升,计算机犯罪已经成为普遍的国际性问题。据美国联邦调查局的报告,计算机犯罪是商业犯罪中最大的犯罪类型之一,每笔犯罪的平均金额为45000美元,每年计算机犯罪造成的经济损失高达50亿美元。
计算机犯罪大都具有瞬时性、广域性、专业性、时空分离性等特点。通常计算机罪犯很难留下犯罪证据,这大大刺激了计算机高技术犯罪案件的发生。
计算机犯罪案率的迅速增加,使各国的计算机系统特别是网络系统面临着很大的威胁,并成为严重的社会问题之一。
3、网络安全案例
96年初,据美国旧金山的计算机安全协会与联邦调查局的一次联合调查统计,有53%的企业受到过计算机病毒的侵害,42%的企业的计算机系统在过去的12个月被非法使用过。而五角大楼的一个研究小组称美国一年中遭受的攻击就达25万次之多。
94年末,俄罗斯黑客弗拉基米尔?利文与其伙伴从圣彼得堡的一家小软件公司的联网计算机上,向美国CITYBANK银行发动了一连串攻击,通过电子转帐方式,从CITYBANK银行在纽约的计算机主机里窃取1100万美元。
96年8月17日,美国司法部的网络服务器遭到黑客入侵,并将“ 美国司法部” 的主页改为“ 美国不公正部” ,将司法部部长的照片换成了阿道夫?希特勒,将司法部徽章换成了纳粹党徽,并加上一幅色情女郎的作为所谓司法部部长的助手。此外还留下了很多攻击美国司法政策的文字。
96年9月18日,黑客又光顾美国中央情报局的网络服务器,将其主页由“中央情报局” 改为“ 中央愚蠢局” 。
96年12月29日,黑客侵入美国空军的全球网网址并将其主页肆意改动,其中有关空军介绍、新闻发布等内容被替换成一段简短的**录象,且声称美国政府所说的一切都是谎言。迫使美国国防部一度关闭了其他80多个军方网址。
4、我国计算机互连网出现的安全问题案例
96年2月,刚开通不久的Chinanet受到攻击,且攻击得逞。
97年初,北京某ISP被黑客成功侵入,并在清华大学“ 水木清华” BBS站的“ 黑客与解密” 讨论区张贴有关如何免费通过该ISP进入Internet的文章。
97年4月23日,美国德克萨斯州内查德逊地区西南贝尔互联网络公司的某个PPP用户侵入中国互联网络信息中心的服务器,破译该系统的shutdown帐户,把中国互联网信息中心的主页换成了一个笑嘻嘻的骷髅头。
96年初CHINANET受到某高校的一个研究生的攻击;96年秋,北京某ISP和它的用户发生了一些矛盾,此用户便攻击该ISP的服务器,致使服务中断了数小时。
5、不同环境和应用中的网络安全
运行系统安全,即保证信息处理和传输系统的安全。它侧重于保证系统正常运行,避免因为系统的崩溃和损坏而对系统存贮、处理和传输的信息造成破坏和损失,避免由于电磁泄漏,产生信息泄露,干扰他人,受他人干扰。
网络上系统信息的安全。包括用户口令鉴别,用户存取权限控制,数据存取权限、方式控制,安全审计,安全问题跟踪,计算机病毒防治,数据加密。
网络上信息传播安全,即信息传播后果的安全。包括信息过滤等。它侧重于防止和控制非法、有害的信息进行传播后的后果。避免公用网络上大量自由传输的信息失控。
网络上信息内容的安全。它侧重于保护信息的保密性、真实性和完整性。避免攻击者利用系统的安全漏洞进行窃听、冒充、诈骗等有损于合法用户的行为。本质上是保护用户的利益和隐私。
6、网络安全的特征
网络安全应具有以下四个方面的特征:
保密性:信息不泄露给非授权用户、实体或过程,或供其利用的特性。
完整性:数据未经授权不能进行改变的特性。即信息在存储或传输过程中保持不被修改、不被破坏和丢失的特性。
可用性:可被授权实体访问并按需求使用的特性。即当需要时能否存取所需的信息。例如网络环境下拒绝服务、破坏网络和有关系统的正常运行等都属于对可用性的攻击;
可控性:对信息的传播及内容具有控制能力。
7、主要的网络安全威胁
自然灾害、意外事故;
计算机犯罪;
人为行为,比如使用不当,安全意识差等;
“黑客” 行为:由于黑客的入侵或侵扰,比如非法访问、拒绝服务计算机病毒、非法连接等;
内部泄密;
外部泄密;
信息丢失;
电子谍报,比如信息流量分析、信息窃取等;
信息战;
网络协议中的缺陷,例如TCP/IP协议的安全问题等等。
8、网络安全的结构层次
8.1 物理安全
自然灾害(如雷电、地震、火灾等),物理损坏(如硬盘损坏、设备使用寿命到期等),设备故障(如停电、电磁干扰等),意外事故。解决方案是:防护措施,安全制度,数据备份等。
电磁泄漏,信息泄漏,干扰他人,受他人干扰,乘机而入(如进入安全进程后半途离开),痕迹泄露(如口令密钥等保管不善)。解决方案是:辐射防护,屏幕口令,隐藏销毁等。
操作失误(如删除文件,格式化硬盘,线路拆除等),意外疏漏。解决方案是:状态检测,报警确认,应急恢复等。
计算机系统机房环境的安全。特点是:可控性强,损失也大。解决方案:加强机房管理,运行管理,安全组织和人事管理。
8.2 安全控制
微机操作系统的安全控制。如用户开机键入的口令(某些微机主板有“ 万能口令” ),对文件的读写存取的控制(如Unix系统的文件属性控制机制)。主要用于保护存贮在硬盘上的信息和数据。
网络接口模块的安全控制。在网络环境下对来自其他机器的网络通信进程进行安全控制。主要包括:身份认证,客户权限设置与判别,审计日志等。
网络互联设备的安全控制。对整个子网内的所有主机的传输信息和运行状态进行安全监测和控制。主要通过网管软件或路由器配置实现。
8.3 安全服务
对等实体认证服务
访问控制服务
数据保密服务
数据完整性服务
数据源点认证服务
禁止否认服务
8.4 安全机制
加密机制
数字签名机制
访问控制机制
数据完整性机制
认证机制
信息流填充机制
路由控制机制
公证机制
9、网络加密方式
链路加密方式
节点对节点加密方式
端对端加密方式
10、TCP/IP协议的安全问题
TCP/IP协议数据流采用明文传输。
源地址欺骗(Source address spoofing)或IP欺骗(IP spoofing)。
源路由选择欺骗(Source Routing spoofing)。
路由选择信息协议攻击(RIP Attacks)。
鉴别攻击(Authentication Attacks)。
TCP序列号欺骗(TCP Sequence number spoofing)。
TCP序列号轰炸攻击(TCP SYN Flooding Attack),简称SYN攻击。
易欺骗性(Ease of spoofing)。
11、一种常用的网络安全工具:扫描器
扫描器:是自动检测远程或本地主机安全性弱点的 程序,一个好的扫描器相当于一千个口令的价值。
如何工作:TCP端口扫描器,选择TCP/IP端口和服务(比如FTP),并记录目标的回答,可收集关于目标主机的有用信息(是否可匿名登录,是否提供某种服务)。扫描器告诉我们什么:能发现目标主机的内在弱点,这些弱点可能是破坏目标主机的关键因素。系统管理员使用扫描器,将有助于加强系统的安全性。黑客使用它,对网络的安全将不利。
扫描器的属性:1、寻找一台机器或一个网络。2、一旦发现一台机器,可以找出机器上正在运行的服务。3、测试哪些服务具有漏洞。
目前流行的扫描器:1、NSS网络安全扫描器,2、stroke超级优化TCP端口检测程序,可记录指定机器的所有开放端口。3、SATAN安全管理员的网络分析工具。4、JAKAL。5、XSCAN。
12、黑客常用的信息收集工具
信息收集是突破网络系统的第一步。黑客可以使用下面几种工具来收集所需信息:
SNMP协议,用来查阅非安全路由器的路由表,从而了解目标机构网络拓扑的内部细节。
TraceRoute程序,得出到达目标主机所经过的网络数和路由器数。
Whois协议,它是一种信息服务,能够提供有关所有DNS域和负责各个域的系统管理员数据。(不过这些数据常常是过时的)。
DNS服务器,可以访问主机的IP地址表和它们对应的主机名。
Finger协议,能够提供特定主机上用户们的详细信息(注册名、电话号码、最后一次注册的时间等)。
Ping实用程序,可以用来确定一个指定的主机的位置并确定其是否可达。把这个简单的工具用在扫描程序中,可以Ping网络上每个可能的主机地址,从而可以构造出实际驻留在网络上的主机清单。
13、 Internet 防 火 墙
Internet防火墙是这样的系统(或一组系统),它能增强机构内部网络的安全性。
防火墙系统决定了哪些内部服务可以被外界访问;外界的哪些人可以访问内部的哪些服务,以
及哪些外部服务可以被内部人员访问。要使一个防火墙有效,所有来自和去往Internet的信
息都必须经过防火墙,接受防火墙的检查。防火墙只允许授权的数据通过,并且防火墙本身也
必须能够免于渗透。
13.1 Internet防火墙与安全策略的关系
防火墙不仅仅是路由器、堡垒主机、或任何提供网络安全的设备的组合,防火墙是安全策略的一个部分。
安全策略建立全方位的防御体系,甚至包括:告诉用户应有的责任,公司规定的网络访问、服务访问、本地和远地的用户认证、拨入和拨出、磁盘和数据加密、病毒防护措施,以及雇员培训等。所有可能受到攻击的地方都必须以
同样安全级别加以保护。
仅设立防火墙系统,而没有全面的安全策略,那么防火墙就形同虚设。
13.2 防 火 墙 的 好 处
Internet防火墙负责管理Internet和机构内部网络之间的访问。在没有防火墙时,内部网络上的每个节点都暴露给Internet上的其它主机,极易受到攻击。这就意味着内部网络的安全性要由每一个主机的坚固程度来决定,并且安全性等同于其中最弱的系统。
13.3 Internet防火墙的作用
Internet防火墙允许网络管理员定义一个中心“ 扼制点” 来防止非法用户,比如防止黑客、网络破坏者等进入内部网络。禁止存在安全脆弱性的服务进出网络,并抗击来自各种路线的攻击。Internet防火墙能够简化安全管理,网络的安全性是在防火墙系统上得到加固,而不是分布在内部网络的所有主机上。
在防火墙上可以很方便的监视网络的安全性,并产生报警。(注意:对一个与Internet相联的内部网络来说,重要的问题并不是网络是否会受到攻击,而是何时受到攻击?谁在攻击?)网络管理员必须审计并记录所有通过防火墙的重要信息。如果网络管理员不能及时响应报警并审查常规记录,防火墙就形同虚设。在这种情况下,网络管理员永远不会知道防火墙是否受到攻击。
Internet防火墙可以作为部署NAT(Network Address Translator,网络地址变换)的逻辑地址。因此防火墙可以用来缓解地址空间短缺的问题,并消除机构在变换ISP时带来的重新编址的麻烦。
Internet防火墙是审计和记录Internet使用量的一个最佳地方。网络管理员可以在此向管理部门提供Internet连接的费用情况,查出潜在的带宽瓶颈的位置,并根据机构的核算模式提供部门级计费
1、什么是p2p
P2P是一种技术,但更多的是一种思想,有着改变整个互联网基础的潜能的思想。
(1)p2p的概念
P2P是peer-to-peer的缩写,peer在英语里有“(地位、能力等)同等者”、“同事”和“伙伴”等意义。这样一来,P2P也就可以理解为“伙伴对伙伴”的意思,或称为对等联网。目前人们认为其在加强网络上人的交流、文件交换、分布计算等方面大有前途。
简单的说,P2P直接将人们联系起来,让人们通过互联网直接交互。P2P使得网络上的沟通变得容易、更直接共享和交互,真正地消除中间商。P2P就是人可以直接连接到其他用户的计算机、交换文件,而不是像过去那样连接到服务器去浏览与下载。P2P另一个重要特点是改变互联网现在的以大网站为中心的状态、重返“非中心化”,并把权力交还给用户。 P2P看起来似乎很新,但是正如B2C、B2B是将现实世界中很平常的东西移植到互联网上一样,P2P并不是什么新东西。在现实生活中我们每天都按照P2P模式面对面地或者通过电话交流和沟通。
即使从网络看,P2P也不是新概念,P2P是互联网整体架构的基础。互联网最基本的协议TCP/IP并没有客户机和服务器的概念,所有的设备都是通讯的平等的一端。在十年之前,所有的互联网上的系统都同时具有服务器和客户机的功能。当然,后来发展的那些架构在TCP/IP之上的软件的确采用了客户机/服务器的结构:浏览器和Web服务器,邮件客户端和邮件服务器。但是,对于服务器来说,它们之间仍然是对等联网的。以email为例,互联网上并没有一个巨大的、唯一的邮件服务器来处理所有的email,而是对等联网的邮件服务器相互协作把email传送到相应的服务器上去。另外用户之间email则一直对等的联络渠道。 当然但是过去的5年里,互联网的发展至少从表面上远离了P2P,互联网上绝大部分的节点也不能和其他节点直接地交流。Napster正是唤醒了深藏在互联网背后的对等联网。Napster的文件共享功能在局域网中共享目录也是再平常不过的事情。但是Napster的成功促使人们认识到把这种“对等联网”拓展到整个互联网范围的可能性。当然,在许多人的眼中,Napster并不是纯粹的P2P,它仍然需要一个处于中心协调机制。
事实上,网络上现有的许多服务可以归入P2P的行列。即时讯息系统譬如ICQ、AOL Instant Messenger、Yahoo Pager、微软的MSN Messenger以及国内的OICQ是最流行的P2P应用。它们允许用户互相沟通和交换信息、交换文件。用户之间的信息交流不是直接的,需要有位于中心的服务器来协调。但这些系统并没有诸如搜索这种对于大量信息共享非常重要的功能,这个特征的缺乏可能正 是为什么即时讯息出现很久但是并没有能够产生如Napster这样的影响的原因之一。
另外一个可以归入P2P是拍卖网站譬如eBay,人们在总结eBay的模式的时候用了C2C,是不是和P2P有一点类似?eBay就是一个将人们联系的和交易物品的社区,用户可以方便的搜索其他用户叫卖的商品。eBay提供了一些使得交易得以顺利进行的服务,但是交易是直接在用户之间进行的。如果将“交易”的概念推广,C2C就是P2P的一个特例,这里人们互相交换的是商品。
但如果仔细深究的话,Napster和即时讯息在赋予用户之间直接交流的能力、eBay使用户可以直接交易的同时,却破坏了服务器端的那种自互联网出现之初就存在的对等联网思想,因为它们都需要有一个位于中心的服务器来协调,而不是分布在世界上不同地方的、对等联网的许多服务器。这也正是诸如Gnotella和Freenet不断的宣称它们创造了“纯粹”的P2P,完全没有中心服务器的P2P服务。
(2)p2p的思想溯源:回到互联网的本质
如果回顾一下,我们会发现在WWW出现伊始P2P就是互联网的本质特征之一。人们各自建立网页、互相做链接,人们上网是沿着链接冲浪。那时的web是真正的“网”(web)。但是当Yahoo!和Lycos建立了搜索引擎和门户站点后,人们上网的方式被改变了,人们从此到一个地方去获取所有的信息。记得新浪曾经有一段时间说它们是“目标站点”模式,但是如果多问一句,现在人们一条一条地阅读新浪的新闻,在头脑中还有一个“网”的概念吗?最大的问题是,这些站点控制了信息的流动、充斥了过时的信息、阻碍了真正的交流,或者对于很多人来说,另外还有太多的广告。 P2P就是把控制权重新还到用户手中去。人们通过P2P可以共享硬盘上的文件、目录甚至整个硬盘。这种能量是非常令人激动的,那些费心存储在自己的硬盘上的东西肯定是我们认为最有价值,所有人都共享了他们认为最有价值的东西,这将使互联网上信息的价值得到极大的提升。是不是有一种和WWW刚刚出现的时候同样的激动呢?有一点。
因为每个Peer都代表了其后的人,基于自组织的网上社区也正在显现。与门户站点从上而下建立社区的方式不同,人们将以自发的方式形成社区。
当人们加入P2P网络的时候,所有人都拥有了平等的机会,所有人都拥有了极容易地在网络上创造“内容”的机会。当然,真正在网络上创造或提供内容的人还是少数的,据统计Gnotella的用户中仅仅有2%向其他用户提供了内容,即使在比较活跃的Usenet张贴文章的用户也仅占所有用户的7%。但是,P2P第一次使得所有上网的人都拥有了平等的机会。
下面试图用三句话来揭示P2P的影响:
对等联网:是只读的网络的终结(Peer-to-peer is the end of the read-only Web)
对等联网:使你重新参与互联网(Peer-to-peer allows you to participate in the Internet again)
对等联网:使网络远离电视(Peer-to-peer steering the Internet away from TV)如上文所言,P2P不是一个新思想,从某些角度看它甚至是整个最初创建互联网的最基本的思想。我们不妨花时间作一点回顾。
互联网的发展于近现代的许多尖端科学技术的发展模式并无不同,即都是先在军事工业形成,再转到民用领域。互联网发源于至今看来也十分新颖的战略思想:为了避免敌人的毁灭性武器命中全国的军事指挥控制中心,应该怎么办?传统的方法是一方面想方设法尽可能地不让敌人知道中心的确切位置,另一方面提高中心的抵御打击的能力。但在当今的核武器年代,对方有着连一个星球都可以炸毁的核弹,再固若金汤的防御措施一旦受到攻击肯定马上化为乌有。而只要有机密存在,总有打探出机密的方法,所以靠保密中心所在位置的方法也不是长远之计。在这种情况下,美国的军事人员充分发挥逆向思维,想到既然不可能长期、有效地保护中心免受攻击,那么还不如根本不设中心!让每一个基地乃至每一台电脑都能独立运作,这么一来等于有了无数中心,敌人除非真的将这个星球炸了,否则其中一个基地或电脑受损,也不影响其他基地或电脑继续发挥作用。正是这种“非中心化”的思想成为形成互联网最基本的概念。 但是许多技术出现之后往往并不会完全按照原先的设计发展,服务器/客户机的架构逐渐变成了互联网的主流,浏览变成了人们在互联网上最主要的生存方式。互联网的普通用户似乎在慢慢的退化、和电视观众一样被动地浏览着大网站们创造的内容。人们在网络上的主要活动访问了在这么门户站点上,读新闻、参与讨论组、聊天。但是这使得设计的互联网的一个特性消失了——如果Yahoo因故中断服务如出现什么情况?这种假设不太容易看到,但是年初的黑客攻击各大网站造成的混乱似乎可以给我们一点联想的线索。
上面提到像Napster和即时讯息还是需要位于中心的服务器,那么Gnotella网站上的一句话可能表达了它们所推广的“纯粹”的P2P所包含的“非中心化”的理念:设计Gnotella是为了在核战中生存(Gnotella Is Designed to Survive Nuclear War)。它的网站上这样描述,纽约的用户受到攻击至多只会影响那个地区的部分用户,而其他地方的Gnotella用户还能正常的使用,这不正是互联网最初的理想吗?
(3)Napster带来的革命
Napster是去年当时由只有18岁的肖恩·范宁(Shawn Fanning)开发的,它提供服务允许音乐迷们交流MP3文件。它与先前也被推上被告席的提供免费音乐下载MP3.com的不同就是在Napster服务器没有一首歌曲,Napster提供了一个新的软件供音乐迷在自己的硬盘上共享歌曲文件,搜索其他用户共享的歌曲文件,并到其他也使用Napster服务的用户硬盘上去下载歌曲。Napster在短时间里吸引了5000万用户,最终,它被五大唱片商以侵犯版权推上被告席而成为世界的焦点。
可能从来没有一个行业象唱片业这样,生存会因为一个小小的软件而受到如此深重的威胁。对于Napster引起的版权问题有过很多的讨论,但是多花一些时间讨论还是值得的,因为这个案件决定了也决定了P2P文件共享这一分支的前途,也决定了未来如何处理互联网上的版权问题。
10月31日原告之一BMG公司和Napster达成和解协议。舆论认为这表明唱片业意识到通过数字方式发布音乐将是不可阻挡的潮流,消灭Napster也无法阻止其他模仿Napster的服务商出现。因此还不如与之合作改变Napster,将之变成在线音乐销售的渠道。现在的唱片工业面临的可能不是如何“像压碎一个鸡蛋”那样压碎,而是与之合作,将Napster的5000万用户变成自己的客户。也就是将Napster的模式变成“合法化的Napster”模式。唱片工业的困境是如何防止那些Napster的模仿者继续免费提供歌曲。
2000年2月12日,美国旧金山第九巡回上诉法院的三名法官就音乐网站Napster版权纠纷案作出裁决,认为它侵害了各大唱片公司的版权。但是三名法官并没有应唱片公司的要求,决定立即关闭网站,而是把最初的判决送回给低一级的地方法院。法官们说,这项裁决内容过于复杂,需作进一步澄清。但错综复杂的法律过程和长达58页的判决书反映了现在既缺乏与互联网相关的版权法,也缺乏相应的司法实践。
但是,不管Napster案的结果如何都不能改变Napster后面的技术和思想给互联网带来的影响。“魔鬼”已经钻出了魔瓶,而魔瓶也已经被打破了。对于唱片界来说,至少它们销售唱片的方式被彻底改变了。下一个可能是好莱坞的**工业,压缩技术和宽带网络将使得人们会在网络上轻易地传输整部**。
事实上合法化的网络上已经出现了许多试图推出“合法化的Napster”模式的公司,譬如由Napster的创办人之一创办的lightshare.com和Flycode.com。P2P对于唱片商来说的确有吸引力,如果它们能够从用户身上收费的话。对于利用诸如一个集中的站点提供收费的mp3音乐下载,用户每次从网站下载的时候,网站都必须向电信交流量费,而使用P2P则使得这部分费用不再存在了。因此唱片商获得更多的利润,用户也应该可以得到更便宜的音乐。
从某种意义上软件也好像预测到了大规模盗版和文件共享可能带来的影响,这主要归功于开放源码软件给软件业带来的“头脑风暴”。在亚洲和东欧,软件业已经在反对盗版上打了败仗。这也正是微软极力推广一种“软件注册模式”,把软件作为按月付费的服务出售,而不再是向过去那样出售容易复制和盗版的硬拷贝。
当然,对所谓“合法化的Napster”模式还是有很多质疑。P2P的这种文件共享功能似乎没有带来什么附加值,尽管这个过程可能是非常有趣的。从另一方面来说,这项技术可能被用来推动人们重新参与互联网、创造他们自己的内容,这也许是价值所在。所有的社区网站都有一个“梦想”,让用户互动来产生内容,但是由于由上而下创建的社区的最根本上的问题,这种梦想从来没有真正实现过。P2P或许可以改变这一点。
Napster创造的奇迹同时也是揭示了在互联网时代普通人也具有改变整个世界的能力。当肖恩·范宁在波士顿的东北大学校园开发Napster的时候,他只不过是想和他在维吉尼亚的朋友共享mp3歌曲文件。现在这个小软件改变了整个世界。
(4)p2p改变了什么?内容转移到“边缘”
在回顾了Napster了问题和困境之后,下面将看看P2P的更多激动人心的东西和消除围绕这个新词的种种误解,以及看看P2P的机会主要在哪儿。
P2P带来的一个变化就是改变了“内容”所在的位置,内容正在从“中心”走向“边缘”,也就是说内容将主要不是存在几个主要的服务器上,而是存在所有用户的个人电脑上。
Napster的成功使我们不得不去质疑流传已久的两个断言,“应用服务提供商(ASP)是未来趋势”和“个人电脑死了”。ASP的一个基本假设就是对于大多数客户来说购买和维护高性能的服务器的成本太高了,但是P2P使得每个人办公桌上的电脑都可以成为“服务器”。用户原来是用台式电脑准备好数据之后再把数据上载到服务器上去,而使用P2P将不再需要这个过程。“个人电脑死了”这个断言就是个人电脑将主要用来浏览互联网、字处理等,因此最简单的瘦客户机就可以满足需求。P2P使得个人电脑再一次成为“中心”。P2P使得个人电脑重新焕发活力、不再是被动的客户端,而成为具有服务器和客户端的特征的设备,个人电脑将重新成为互联网的中心。
互联网的存储模式将由现在的“内容位于中心”模式转变为“内容位于边缘”模式。从这个角度看P2P带来了几个改变:
首先,客户不再需要将文件上载到服务器,而只需要使用P2P将共享信息提供出去;
其次运行P2P的个人电脑不需要固定IP地址和永久的互联网连接,这使得那些拨号上网的用户也可以享受P2P带来的变革,这部分用户在所有用户中占有极大的比重;
最后,P2P完全改变过去控制互联网的客户机/服务器模式,消除客户机和服务器二者之间的差别。
上文对Napster所遭遇的法律问题有很多讨论,但是换个角度来阐述,盗版问题往往也正显示存在大量未能满足的需求。Napster的惊人成功(这里指吸引大量用户而不是获得利润)是一种难得的对P2P的概念上可行性的证明,揭示了P2P改变互联网的潜力。直通桌面的宽带网络逐渐成为现实、个人电脑越来越强大足以胜任“服务器”功能也从另外的方面确保P2P发挥其能量。
个人电脑取代位于中心的服务器成为内容的主要存储地将对互联网的几个主要发展方向有着意义深远的影响:这可能改变Windows和Linux几年的“战争”的局面,当“桌面”和服务器逐渐融合,微软可能会极力推广其基于Windows2000的Web服务和“内容处于边缘”(内容处于桌面)模式,从而可能破坏Linux在服务器市场上存在的基础。
提供免费个人主页服务的公司存在的一个理由就是目前互联网使得普通用户很难拥有自己的服务器放置自己的内容。可以预言类似Napster的服务将会出现供人们在自己的个人电脑上发布主页和内容。
WAP等移动服务协议目前还主要关注让人们去使用处于中心的商业服务如新闻、股票信息等。但更多的时候人们最需要的信息是那些在他们的个人电脑上的信息,P2P使这成为可能。人们可以通过无线联网P2P访问他们的个人电脑,这也就是一些公司所宣传的个人化P2P(Personal P2P)的“无线版本”。
当然,这也不是说使用P2P的个人电脑可以取代服务器,那些安全的备份和需要专家来不断更新的数据还将存在于位于中心的服务器上。 可以这样看待P2P带来的转变,“内容位于中心”模式较好的适应了互联网初期的情况,个人电脑性能太差因而需要有专门的服务器、带宽太窄使得个人电脑不得不退化到被动浏览。宽带互联网、更稳定的更高性能的个人电脑使得我们有理由预言下一个5年将是由“内容位于边缘”模式主导。
(5)重新解读P2P
每个具有划时代意义的创新出现的时候它往往可能被人们误读。P2P这次也不例外,Napster让人们开始关注P2P,但也使得许多人认为P2P就是歌曲交换、文件交换,甚至认为P2P和盗版有着必然的联系。可以说人们对P2P的理解是被误导的和不完全的。
自由软件(Free software)出现之初也面临着误读的困境,人们开始的时候将Free理解为免费的,从而认为自由软件是不可靠的、认为自由软件运动是激进的“反文化的”。事实上Free更多的应该指自由地探索想法、在软件中表达出来和共享软件。这一点对自由软件的鼓吹者们来说是自然而然的,但是需要有人去告诉商界、媒体和公众自由软件在经济上和逻辑上是可行的。当时著名出版人O’reilly组织了一次自由软件峰会重新定义自由软件,将自由软件改名为开放源码软件(open source software)。这一重新定义使得人们开始拨开误解的乌云,了解Free的本质。开放源码将人们从有缺陷的软件、锁定效应和传统的软件分发渠道中解脱出来。自由表示合作将可以跨越公司的边界、共享基础性的开发,使人们可以把注意力集中到高附加值的服务上去。 今年8月,O’Reilly又组织另一次峰会来帮助人们认识P2P的潜力和消除Napster、Gnotella造成的P2P是盗版技术的负面影响。另外,他认为目前P2P的状态类似于“盲人摸象”,P2P技术的领导者们每个人都看到了P2P这头“巨象”的一些特征。,如果他们能够有机会交流思想,P2P将会更快地发展。这次P2P峰会主要有三个目的:定义P2P,我们要从中的到什么以及为什么;描述P2P的机会,P2P能解决什么样的问题;形成一个提供给大众的关于P2P的信息,消除那些负面影响。
参与P2P峰会的有媒体不断报道的那些提供文件交换服务如Napster、Gnotella、Freenet的开发者,也有那些试图挖掘P2P分布计算能力的公司和组织如Popular Power、SETI@home、distributed.net等的开发者。后面的三家公司希望使用P2P技术集中那些联接在网络上的电脑的空闲的CPU时间片断、内存空间、硬盘空间来替代“超级计算机”。其它正在进行的P2P应用还有,IBM、微软、Ariba也在合作开展一个名为UDDI的项目以将B2B电子商务标准化;Eazel正在建立下一代的Linux桌面;Jabber已经开发了一种基于XML、开放的即时讯息标准,Jabber被认为是建立了未来使用P2P数据交换的标准;由Lotus Notes的开发者创建的Groove试图“帮助人们以全新的方式沟通”;英特尔也在推广它的P2P技术以帮助更有效地使用芯片的计算能力。
列这样一个名单有一点枯燥,尤其是对于那些对于具体细节没有太多兴趣的读者,但这又是必要的。因为这些描述可以让我们更全面的了解。
(6)尚未被了解的P2P
Napster是与设备相关的,用户连接到到由它创建的P2P网络上是为了获取Mp3歌曲文件。但是对于即时讯息这一类P2P应用来说是完全不同的,别人连接的目的是和另一个Peer交流,而不必管他使用的是电脑、手持电脑或者手机。P2P提供了在网络上与设备无关的实时交流的能力。
这种将把用户实时的连接起来的能力是P2P最令人感到激动的特性。事实上我们可以从AOL的AIM、国内Oicq受欢迎的程度认识到这个事实。
能够实时地寻找和联络需要的人是商业应用的基本要求,电话可以做到这一点,而在网络上最常用的E-mail并不能做到这一点。因此,即时讯息将不仅仅是一个有趣的服务,更多的它将是下一个最基本的互联网商业工具。即时讯息现在看起来可能成为诸如客户服务、供应链管理等商业应用的平台。开发了一个开放源码的基于XML和Java即时讯息服务的Jabber似乎正是创建了一个这样的平台。Jabber的开发者似乎刻意集中了互联网现有的所有激动人心的东西:P2P、Java、XML和开放源码。它是不是有这种潜力呢?我们最好拭目以待,但Jabber的模式至少要比Napster要清晰得多。
Negroponte在其《数字化生存》中曾经有一个著名的论述,“网络上的东西将比人要多”。P2P将使得这些“东西”之间的直接交流成为可能,网络上每个设备都是“活跃”的,而不是像过去那样有部分是非常活跃,而有的则被动的,有时候直接交流的那些设备可能都是某一个用户自己的,譬如说掌上电脑和台式电脑的数据同步是最好的例子。如果用户的掌上电脑上有些数据和内容是台式电脑上没有的,台式电脑也应该能够向掌上电脑要求获取那些信息,这应该跟我们通过Napster到其他用户那儿去搜索和下载mp3歌曲一样。
最重要的一点是,不是网络上的节点数目而是这些节点如何参与网络决定网络是否强大、是否有价值。怎样使得网络上几亿的人和更多的设备都活跃地参与呢?P2P正是一系列架构、技术、策略的开端,它使得互联网的这一理想开始变为现实。现在人们看到的和预言的都只是冰山露出的一个小角,更多的还在水下。
(7)P2P中的P是人(People)!
Dave Winner的论断P2P中的P是人(people)!这可能是我读到的关于P2P最深刻的解读之一。
事实上,我们所处的真实生活是P2P的环境,人们可以和其他人直接地的交流。信息技术将我们带到了网络空间,在网络空间我们仍然希望还能够按照原来的P2P方式交流沟通。尽管互联网本质上是支持对等交流模式,但是网络的发展给对等交流增加了许多障碍。
正如许多技术专家所指出的,动态IP地址、防火墙、代理服务器从技术上使得对等连接变得很困难。更不用说目前的网络主导模式已经发展成为服务器/客户端模式,人们在网络上只能被动的接受那些大公司诸如Yahoo!、ABCnews.com等提供的信息,交流是非常困难的。(当然,在现实生活中诸如空间、社会等级等也束缚了人们的对等交流。但是如果网络能够使我们看到对等交流的可能性,为什么不去追求?)
可以这样类比,互联网的出现和电话的发明是具有同样的意义的,但是互联网最开始的主要特征是非实时的,更类似于传真,而没有提供像电话那样实时交流,现在P2P的即时讯息可能使得互联网上的实时交流变得和Web页面、E-mail那样普遍和不可或缺。
对于所有的P2P应用来说,最先要做的就是恢复互联网曾经失去的对等联网能力。这也正是Napster从概念上最大的缺陷。(email是具有P2P交流的特征的,但email缺乏实时交流的能力,它类似与传真,但我们还需要“电话”的。)
从“人”的角度上将,P2P发展的要点并不是P2P网络架构是如何,而是P2P将人们在网络上连接起来了,人们可以在网络这个更迅疾的媒介上处理那些需要沟通的问题。这是最重要的。尽管到今天还有人在怀疑互联网作为零售商业和B2B媒介的有效性,但是互联网已经从根本上改变了我们的交流方式是不需要任何讨论的。过分的谈了“纯粹的”的、完全消除控制的P2P是毫无意义的。中心化或者非中心化都只是工具,都是为了创造出使人们可以更有效地沟通的工具。
人类在现实生活中的经验至今仍只有极少的部分被应用到网络上,如新闻、B2C、B2B。现在,人们最常使用的P2P被移植到了网络空间。P2P可能改变一些我们已经熟知的、习惯了的产品和服务,也会创造更多。
究竟会出现些什么?预言未来的最好办法是去创造。
2、p2p能做什么
P2P引导网络计算模式从集中式向分布式偏移,也就是说网络应用的核心从中央服务器向网络边缘的终端设备扩散:服务器到服务器、服务器到PC机、PC机到PC机,PC机到WAP手机……所有网络节点上的设备都可以建立P2P对话。这使人们在Internet上的共享行为被提到了一个更高的层次,使人们以更主动深刻的方式参与到网络中去,正如I2(第二代互联网)之父Doug. Van Houweling 在几个月前的中国之行时说到的:“下一代互联网民们将真正参与到网络中来,每个人都能为网络的资源和功能扩展作出自己的贡献。”
P2P给互联网的分布、共享精神带来了无限的遐想,有观点认为至少有100种应用能被开发出来,但从目前的应用来看,P2P的威力还主要体现在大范围的共享、搜索的优势上。在这方面主要引发了,或者是说更好的解决网络上四大类型的应用:对等计算、协同工作、搜索引擎、文件交换。
(1)对等计算
通过众多计算机来完成超级计算机的功能,一直是科学家梦寐以求的事情。采用P2P技术的对等计算,正是把网络中的众多计算机暂时不用的计算能力连结起来,使用积累的能力执行超级计算机的任务。任何需要大量数据处理的行业都可从对等计算中获利,如天气预报、动画制作、基因组的研究等,有了对等计算之后,就不再需要昂贵的超级计算机了。在硅谷现在有许多公司正在投入对等计算的开发,如Popular Power,Centrata,United Devices,Entropia等,并获得了巨大的风险资金。Intel也利用对等计算技术来设计其CPU,并为其节省极大的费用,同时对等计算的发展是以PC机资源的有效利用为根本出发点的,自然也极力受到Intel的极力推崇。从本质而言,对等计算就是网络上CPU资源的共享。
(2)协同工作
公司机构的日益分散,给员工和客户提供轻松、方便的消息和协作的工具,变得日益重要。网络的出现,使协同工作成为可能。但传统的WEB方式实现,给服务器带来了极大的负担,造成了昂贵的成本支出。P2P技术的出现,使得互联网上任意两台PC都可建立实时的联系,建立了这样一个安全、共享的虚拟空间,人们可以进行各种各样的活动,这些活动可以是同时进行,也可以交互进行。P2P技术可以帮助企业和关键客户,以及合作伙伴之间建立起一种安全的网上工作****,因此基于P2P技术的协同工作也受到了极大的重视,Lotous公司的创始人奥奇更是获得了6000万美元的风险投资,来开发其协同工作产品Groove。
(3)搜索引擎
P2P技术的另一个优势是开发出强大的搜索工具。P2P技术使用户能够深度搜索文档,而且这种搜索无需通过Web服务器,也可以不受信息文档格式和宿主设备的限制,可达到传统目录式搜索引擎(只能搜索到20%-30%的网络资源)无可比拟的深度(理论上将包括网络上的所有开放的信息资源)。以P2P技术发展的另一先锋Gnutella进行的搜索为例:一台PC上的Gnutella软件可将用户的?/td>
关于“网络购买的正版音乐和普通的的音乐有什么不同”这个话题的介绍,今天小编就给大家分享完了,如果对你有所帮助请保持对本站的关注!
本文来自作者[星闪闪]投稿,不代表溟宇号立场,如若转载,请注明出处:https://gumingyu.com/zhishi/202507-2292.html
评论列表(3条)
我是溟宇号的签约作者“星闪闪”
本文概览:网上有关“网络购买的正版音乐和普通的的音乐有什么不同”话题很是火热,小编也是针对网络购买的正版音乐和普通的的音乐有什么不同寻找了一些与之相关的一些信息进行分析,如果能碰巧解决你...
文章不错《网络购买的正版音乐和普通的的音乐有什么不同》内容很有帮助