惠普dl380G6主板上sd插槽是什么(惠普dl180g6主板接线图)

服务器概述

一、服务器的基本概念

服务器是计算机的一种,是网络中为客户端计算机提供各种服务的高性能的计算机;

服务器在网络操作系统的控制下,将与其相连的硬盘、磁带、打印机及昂贵的专用通讯设备提供给网络上的客户站点共享,也能为网络用户提供集中计算、信息发布及数据管理等服务。

服务器英文名称为Server。


2、服务器按处理器架构分类

X86架构服务器

RISC架构服务器

EPIC架构服务器(IA-64)

1)X86架构服务器

IA-32、x86-32、x86-64都属于x86,即英特尔的32位x86架构,x86-64是AMD在其最新的Athlon 64处理器系列中采用的新架构,但这一处理器基础架构还是IA-32(因英特尔的x86架构并未申请专利保护,所以绝大多数处理器厂商为了保持与Intel的主流处理器兼容,都不得不采用这一x86架构),只是在此架构基础之上作了一些扩展,以支持64位程序的应用,进一步提高处理器的运算性能。

2)RISC架构服务器

RISC的英文全称为“Reduced Instruction Set Computing”,中文即“精简指令集”,它的指令系统相对简单,它只要求硬件执行很有限且最常用的那部分执令,大部分复杂的操作则使用成熟的编译技术,由简单指令合成。目前在中高档服务器中普遍采用这一指令系统的CPU,特别是高档服务器全都采用RISC指令系统的CPU,并且此类服务器都采用UNIX操作系统。
在中高档服务器中采用RISC指令的CPU主要有Compaq(康柏,即新惠普)公司的Alpha、HP公司的PA-RISC、IBM公司的Power PC、SGI公司的MIPS和SUN公司的Sparc。


3)IA-64

EPIC(Explicitly Parallel InstructionComputers,精确并行指令计算机)。Intel采用EPIC技术的服务器CPU是安腾Itanium。它是64位处理器,也是IA-64系列中的第一款。在Intel采用了X86指令集之后,它又转而寻求更先进的64-bit微处理器,Intel这样做的原因是,它们想摆脱容量巨大的x86架构,从而引入精力充沛而又功能强大的指令集,于是采用EPIC指令集的IA-64架构便诞生了。IA-64在很多方面来说,都比x86有了长足的进步。突破了传统IA32架构的许多限制,在数据的处理能力,系统的稳定性、安全性、可用性、可观理性等方面获得了突破性的提高。IA-64微处理器最大的缺陷是它们缺乏与x86的兼容。


3、服务器按功能应用分类

域控制服务器(Domain Server)

文件服务器(File Server)

打印服务器(Print Server)

数据库服务器(Database Server)

邮件服务器(E-mail Server)

Web服务器(Web Server)
多媒体服务器(MultimediaServer)

通讯服务器(Communication Server)

终端服务器(Terminal Server)

基础架构服务器(Infrastructure Server)

虚拟化服务器(Virtualization Server)

目前的技术来说,这些功能划分为逻辑形态。从可以把多个功能把多个功能部署在一台服务器上面。从物理形态上来说,可以是一台服务器完成多个功能。


4、服务器按外观分类

服务器的1U、2U、4U是指什么?

服务器或者租用机柜的时候,有时会听到1U、2U、4U或者42U等类似这样子的名词。而这些名词又代表什么意思呢?

机架式服务器的外形看来不像计算机,而像交换机,有1U(1U=1.75英寸)、2U、4U等规格。机架式服务器安装在标准的19英寸机柜里面。这种结构的多为功能型服务器。

4.1关于“U”的单位

U是一种表示服务器外部尺寸的单位,是unit的缩略语。规定了服务器的尺寸,可以使服务器以一定的尺寸放在机架上。机架上有固定服务器的螺孔,以便它能与服务器的螺孔对上号,再用螺丝加以固定好,这样子可以方便安装每一部服务器所需要的空间。

4.2 1U服务器、2U服务器、4U服务器

服务器规定的尺寸是服务器的宽(48.26cm=19英寸)与高(4.445cm的倍数),厚度(高度))以4.445cm为基本单位。

在机架式服务器尺寸当中,常见的就是1U服务器、2U服务器、4U服务器,这些服务器的尺寸是:1U=4.445厘米,2U=4.445*2=8.89厘米,4U=4.445*4=17.78 厘米。在实际使用当中,1U或者2U服务器是最经常使用的。因为服务商是根据服务器占用空间来计算费用的,所以采用1U服务器是最节省空间的和价格最低的,但是1U服务器的扩展性不如2U服务器的好。1U的硬盘数最多可以插4个,2U可以插8个,另外PCI的插槽数目也不同,1U最多2个,2U的可以到6个。

U是服务器机箱的高度 1U等于4.45厘米 ,那3U就是3x4.5CM了。

U(unit的缩略语)是一种表示组合式机架外部尺寸的单位,详细尺寸由作为业界团体的美国电子工业协会(EIA)决定。

EIA 即Electronic Industries Alliance 电子工业协会,美国电子行业标准制定者之一。EIA(电子工业协会)创建于1924年,当时名为无线电制造商协会(Radio Manufacturers' Association:RMA),只有17名成员,代表不过200万美元产值的无线电制造业,而今,EIA成员已超过500名,代表美国2000亿美元产值电子工业制造商成为纯服务性的全国贸易组织,总部设在弗吉尼亚的阿灵顿。EIA广泛代表了设计生产电子元件、部件、通信系统和设备的制造商工业界、政府和用户的利益,在提高美国制造商的竞争力方面起到了重要的作用。

规定的尺寸是宽(48.26cm=19英寸)与高(4.445cm的倍数)。


厚度以4.445cm为基本单位。

服务器大小规格:

1U=4.45cm

2U=4.45cm * 2

3U=4.45cm * 3

4U=4.45cm * 4

U并不是服务器的专利,最早是用于通讯交换的机架结构,后备引用到服务器的机架。目前作为非正式标准用在机架结构上,包括规定的螺丝大小,孔距,划轨,等等。

1U和2U,是服务器的厚度,1U大概是相当于机柜的两个小格子,2U是四个格子。1U是4.445厘米。以下这个是图片:


4.3 19英寸

19英寸标准机柜,19表示的是宽度,就是可以放置下19英寸的机架式服务器的机柜。

19英寸是指服务器的宽度,那么具体指的是那个尺寸呢?19英寸=48.26cm,是指机架式设备两个挂耳之间的距离。

这是目前大部分机架式设备的结构标准。

标准机柜的结构比较简单,主要包括基本框架、内部支撑系统、布线系统、通风系统。19寸标准机柜外型有宽度、高度、深度三个常规指标。虽然对于19寸面板设备安装宽度为465.1mm,但机柜的物理宽度常见的产品为600mm和800mm两种。高度一般从0.7M-2.4M,常见的成品19寸机柜高度为1.6M和2M。机柜的深度一般从450mm-1000mm,根据柜内设备的尺寸而定,通常厂商也可以定制特殊深度的产品,常见的成品19寸机柜深度为450mm、600mm、800mm,900mm,1000mm。19寸标准机柜内设备安装所占高度用一个特殊单位"U"表示,1U=44.45mm。使用 19寸标准机柜的设备面板一般都是按nU的规格制造。对于一些非标准设备,大多可以通过附加适配档板装入19寸机箱并固定。很多工程级的设备的面板宽度都采用19寸,所以19寸的机柜是最常见的一种标准机柜。


4.4 42U机柜

42U机柜一般的分类是:


1)按宽度分:600mm和800mm宽的42U机柜,深度有:600mm,800mm,900mm,960mm,1000mm,1100mm,1200mm等;

2)按实际需求分:除了实际使用尺寸是42U之外,宽度和深度可以按照实际需求定制。

一个机柜所放的服务器是有限的,42U高度的机柜并不代表着实际能够放42个1U服务器。放了服务器之后还要留散热和挪动的空间,一些走线的空间,还有放交换机、防火墙、显示器等其他设备的空间。所以一个42U机柜能放多少服务器,需要根据具体的设备来计算。


塔式服务器


塔式服务器是最基本的服务器类型,通常被误认为台式计算机的传统CPU。在外部,塔式服务器的外观和感觉非常类似于传统的塔式PC。这些服务器旨在提供基本的性能水平,因此即使在价格方面也处于较低端。但是,当前有许多塔式服务器,它们成本很高,并且可以处理大量和多项任务。

塔式服务器会占用大量要安装和使用的物理空间。由于它们体积大(大多数情况下),因此对其进行物理管理变得困难。而且,由于尺寸的原因,很难将它们堆叠在一起或将它们从一个地方重新布置到另一个地方。

每个塔式服务器都占用大量办公空间,并且还需要一个单独的KVM(键盘,视频和鼠标)开关才能进行管理。否则,您必须拔下电源插头才能控制每个设备。而且,如果您有许多连接到服务器的网络设备或外围设备,那么处理电缆布线就不容易了,尤其是对于塔式服务器而言。

塔式服务器通常不预先安装任何其他功能,例如高级图形卡,用于冷却的专用风扇,专用的更高内存,KVM套件等。但是,对于计划在不久的将来升级其服务器的企业或组织而言,这使其成为理想的选择。话虽如此,升级塔式服务器很容易且具有成本效益。

优点可伸缩性和升级简便性:塔式服务器可以根据需要进行定制和升级。经济高效:塔式服务器可能是所有类型服务器中最便宜的,因此非常具有成本效益。易于冷却:由于塔式服务器的整体组件密度较低,因此很容易冷却。缺点占用大量空间:这些服务器占用大量物理空间,并且很难进行物理管理。提供基本的性能水平: 塔式服务器非常适合客户端数量有限的小型企业。复杂的电缆管理:设备不容易布线在一起;鼠标,键盘和显示器需要插入每台单独的服务器中,除非您想在每次需要使用其中一台服务器时都换掉它们。

机架服务器

机架服务器比塔式服务器小,安装在机架内部。这些机架与普通机架类似,我们使用它们来堆叠一组文件和文件夹。通过将服务器与其他设备(例如存储单元,冷却系统,SAN设备,网络外围设备和电池)垂直堆叠在一起,可以将机架服务器设计为位于机架中。

用于安装这些机架服务器的机架符合IEEE标准,通常以机架单位或“ U”进行测量。每个U宽约19英寸,高约1.5-1.75英寸。使用这些机架的优点是它允许用户将其他电子设备与服务器一起堆叠。单个机架可以包含多个服务器以及上述其他设备。因此,与塔式服务器相比,这些机架式服务器使用起来非常方便,并且占用的空间更少。

由于机架将所有设备放置在一起,因此电缆管理变得更加简洁,因为由于机架中存在管理工具,电缆管理相对容易组织。但是,您仍然必须处理机架服务器中的大量电缆。

与塔式服务器一样,大多数机架服务器也需要与KVM交换机连接才能运行。机架服务器可在处理器,RAM和存储方面进行扩展。但是,您需要在机架中安排空间以适应升级。

优点故障抑制:在机架式服务器中,只需花费很少的精力就可以识别,卸下和更换故障服务器。简化的电缆管理:机架中的管理工具可轻松有效地组织电缆。经济高效:它们以相对较低的成本提供了大量的计算能力和效率。缺点功耗:机架服务器由于总体组件密度高而常常需要具有附加的冷却系统,从而消耗更多的功率。维护:由于将多个设备一起放置在机架中,因此随着机架数量的增加,维护它们变得非常困难。

刀片服务器

刀片服务器是市场上最新,最先进的服务器。它们可以称为混合机架服务器,其中服务器被放置在刀片机箱内,形成刀片系统。刀片服务器的最大优势在于,这些服务器是目前可用的最小类型的服务器,非常适合节省空间。

刀片系统也符合机架单位的IEEE标准,每个机架均以“ U”为单位进行测量。这些刀片架还可以容纳其他电子设备,例如机架服务器。刀片机箱采用简化的模块化设计,以减少能源和空间消耗。这些服务器还包括一个热插拔系统,可以轻松地分别识别和处理每台服务器。由于其更高的处理能力和效率,刀片服务器经常用于网格计算中。

大多数最新的刀片服务器都以某种方式设计,使得无需关闭服务器就可以在刀片服务器系统中删除或添加服务器。此外,还可以通过添加新的通信,存储单元和处理器来重新配置或升级现有服务器系统,而不会对正在运行的服务造成任何干扰或干扰很小。

优点负载平衡和故障转移:由于其基础结构更简单,更苗条,服务器之间的负载平衡和故障转移管理也趋于简单得多。集中管理:在刀片服务器中,您可以通过一个接口连接所有刀片,从而使维护和监控变得容易。布线:刀片服务器不涉及设置布线的繁琐任务。尽管您可能仍需要处理电缆,但与塔式服务器和机架式服务器相比,它几乎可以忽略不计。尺寸和外形尺寸:它们是最小,最紧凑的服务器,需要的物理空间最少。缺点昂贵的配置:尽管升级刀片服务器很容易处理和管理,但是在复杂的环境中,初始配置或设置可能需要花费大量精力。暖通空调(HVAC):刀片服务器非常强大,并具有很高的组件密度。因此,必须为这些服务器安排特殊的容纳空间,以确保它们不会过热。对于刀片服务器,必须妥善管理加热,通风和空调系统。


5、 服务器的特点与PC机、工作站、小型机的区别

服务器与PC机的区别

服务器与工作站的区别

6、 服务器性能评价标准

二、服务器关键组件及技术


CPU

内存

硬盘

Raid

PCIe

HBA

网卡

电源

热插拔技术


CPU

中央处理器(CPU,Central Processing Unit)是是一台计算机的运算核心和控制核心。

计算机的性能在很大程度上由CPU的性能决定,而CPU的性能主要体现在其运行程序的速度上。影响运行速度的性能指标包括CPU的工作频率、Cache容量、指令系统和逻辑结构等参数。

主频:主频也叫时钟频率,单位是兆赫(MHz)或千兆赫(GHz),用来表示CPU的运算、处理数据的速度。通常,主频越高,CPU处理数据的速度就越快;

缓存(Cache):实际工作时,CPU往往需要重复读取同样的数据块,而缓存容量的增大,可以大幅度提升CPU内部读取数据的命中率,而不用再到内存或者硬盘上寻找,以此提高系统性能。但是由于CPU芯片面积和成本的因素来考虑,缓存都很小;

核心数:般情况下每个核心都有一个线程,几核心就有几线程,但是intel发明了超线程技术,可以让单核模拟多核心工作,intel的超线程可以让单核心具有两个线程,双核四线程 ;

线程数 :线程数多当然速度就快,但功耗就大 ;


从英特尔品牌来看,主要有酷睿、至强、奔腾、凌动、赛扬、安腾和应用在物联网领域的Quark几大品类。PC多以酷睿系列为主,至强则是服务器级处理器的唯一选择。在真实的攒机场景中,确实有玩家将至强E3处理器应用在PC之上,这主要是因为服务器级CPU会比一般PC能支持更大的缓存和多处理(安装了多个物理CPU)。


英特尔至强可扩展处理器架构


  在服务器应用场景下, 常常会在一台服务器上搭载两个甚至多达几十个物理CPU,各个处理器之间通过高效互联互通,提升计算力。在服务器处理器缓存方面,一般提供了三级缓存。以笔者之前测过的Intel Xeon Glod 6140 CPU(2.30GHz、18 Cores) 处理器为例,L2缓存为18*1024KB,L3缓存为25344KB(L表示缓存级别L2和L3的大小也是特定系列中CPU型号的主要区别之一)。


至强E7 v4处理器


  当然,服务器级处理器的稳定性也会远高于PC级处理器,这是因为在服务器应用的IDC场景中,需要7*24小时,一年365天不间断工作,而酷睿处理器显然不具备这样的特点。除此之外,二者的接口也略有不同,拿几年前的INTEL为例,当时其桌面级CPU为775接口,而服务器CPU则有775和771等。


处理器型号相关内容更新很快,以上内容仅供参考。

Intel命名也是几套,内部一套外部一套,过两天可能还改名。


内存是计算机中重要的部件之一,它是与CPU进行沟通的桥梁。计算机中所有程序的运行都是在内存中进行的,因此内存的性能对计算机的影响非常大。其作用是用于暂时存放CPU中的运算数据,以及与硬盘等外部存储器交换的数据。只要计算机在运行中,CPU就会把需要运算的数据调到内存中进行运算,当运算完成后CPU再将结果传送出来,内存的运行也决定了计算机的稳定运行。内存是由内存芯片、电路板、金手指等部分组成的。

中央处理器,也称微处理器(CPU,Central Processing Unit),是微型计算机的运算和指挥控制控制中心。不同型号的微型计算机,其性能的差别首先在于其微处理器性能的不同,而微处理器性能又与其内部结构、组成有关。

CPU从存储器或高速缓冲存储器中取出指令,放入指令寄存器,并对指令译码。它把指令分解成一系列的微操作,然后发出各种控制命令,执行微操作系列,从而完成一条指令的执行。指令是计算机规定执行操作的类型和操作数的基本命令。指令是由一个字节或者多个字节组成,其中包括操作码字段、一个或多个有关操作数地址的字段以及一些表征机器状态的状态字以及特征码。有的指令中也直接包含操作数本身。

CPU依靠指令来计算和控制系统,每款CPU在设计时就规定了一系列与其硬件电路相配合的指令系统。指令的强弱也是CPU的重要指标,指令集是提高微处理器效率的最有效工具之一。
在计算机指令系统的优化发展过程中,出现过两个截然不同的优化方向:CISC技术和RISC技术。CISC是指复杂指令系统计算机(ComplexInstructionSetComputer);RISC是指精减指令系统计算机(ReducedInstructionSetComputer)。这里的计算机指令系统指的是计算机的最低层的机器指令,也就是CPU能够直接识别的指令。随着计算机系统的复杂,要求计算机指令系统的构造能使计算机的整体性能更快更稳定。最初,人们采用的优化方法是通过设置一些功能复杂的指令,把一些原来由软件实现的、常用的功能改用硬件的指令系统实现,以此来提高计算机的执行速度,这种计算机系统就被称为复杂指令系统计算机,即ComplexInstructionSetComputer,简称CISC。另一种优化方法是在20世纪80年代才发展起来的,其基本思想是尽量简化计算机指令功能,只保留那些功能简单、能在一个节拍内执行完成的指令,而把较复杂的功能用一段子程序来实现,这种计算机系统就被称为精简指令系统计算机.即ReducedInstructionSetComputer,简称RISC。RISC技术的精华就是通过简化计算机指令功能,使指令的平均执行周期减少,从而提高计算机的工作主频,同时大量使用通用寄存器来提高子程序执行的速度。

CPU架构是CPU厂商给属于同一系列的CPU产品定的一个规范,主要目的是为了区分不同类型CPU的重要标示。我们日常使用的台式机,笔记本等采用X86架构的处理器,属于CISC范畴,而ARM架构的手机、平板等则属于RISC范畴。

由于CPU内部工作原理内容较多,比较复杂不宜学习并且对于选购CPU没有太大意义,本文主讲和CPU性能有关的参数内容。


x86或80x86是英特尔Intel首先开发制造的一种微处理器体系结构的泛称。该系列较早期的处理器名称是以数字来表示,并以“86”作为结尾,包括Intel 8086、80186、80286、80386以及80486,因此其架构被称为“x86”。由于数字并不能作为注册商标,因此Intel及其竞争者均在新一代处理器使用可注册的名称,如Pentium。现时Intel把x86-32称为IA-32,全名为“Intel Architecture, 32-bit”。

“X86”是Intel和其他几家公司处理器所支持的一组机器指令集,它大致确定了芯片的使用规范。从8086到80186、80286、80386、80486,再到后来的奔腾系列以及现在的多核技术,都是使用一脉相承的x86指令集,既不断扩展又向后兼容。

三十年前,英特尔发布了第一款16位微处理器—8086,当时的著名广告语是:“开启了一个时代”。而当8086的光环退去之后,其支撑架构—我们后来所熟知的x86也成为了最成功的业界技术标准之一。

在8086之后的30年间,x86家族横跨了桌面、服务器、便携式电脑,超级计算机等等。无数对手败在了它的脚下。


目前采用X86架构制造CPU的厂家有三个,INTEL、AMD和VIA,由于VIA制造的CPU性能市场占有率过小,在此忽略VIA的X86架构处理器。









移动版X86处理器和台式机CPU没有本质区别,外观上或许感觉差异较大,但这只是封装形式不同造成,其内部参数性能比较没有本质区别。
台式机CPU


X86的历史


1971 年,英特尔为一家日本计算器厂商制造了英特尔历史上的第一块处理器——4位的4004。很快,在1975年,英特尔又推出了8位处理器8008和8080。

3年以后,16位的8086初次登场。在上世纪80年代初,IBM选择了8086的衍生产品8088作为IBM PC的处理器。IBM的这一举措给x86带来了巨大的发展机遇,并且帮助它成为了行业标准——直到今天。

英特尔执行副总裁Patrick Gelsinger说:“PC行业发展的革命性转折点是1985年32位处理器80386的推出,它推动了整个行业的发展。”

386 之后,19**486诞生了。由于当时数字不能作为商标,英特尔从1993年开始改变了产品命名方法。第五代处理器被命名为Pentium而不是586。

所有的基于x86架构的芯片,开始于8086,一直延续到今天。当然他们的命名发生了变化,运算速度也有了惊人的提升。


X86成功的秘诀


x86为什么能一直成功,击退甚至完全打败其他的处理器架构?从一开始,x86的诞生就可谓生逢其时。1978年,计算机从巨大、昂贵的中型计算机转变为小型、便宜的微型计算机已经有几年了。台式电脑成为变革的前沿。

更重要的是,x86证明了戈登·摩尔在1965年提出的一个定律。戈登·摩尔后来成为英特尔的主席和CEO。摩尔说,在成本不变的前提下,微处理器每过二年其运算速度会翻一番。他的预言后来被称为摩尔定律,30年来始终被证明是有效的。

8086及其后续产品还一直与电脑业的两个大名鼎鼎的名字紧紧联系在一起。1972年,比尔 ·盖茨和保罗·艾伦就尝试用性能很弱的8008开发Basic编程语言,但没有成功。但他们最终在性能强劲一些的8080处理器上开发出了Basic语言,并在1975年把 Basic语言应用到Altair8800 PC。

这成为英特尔和微软亲密关系的开始。微软从那时起,便创造了一个庞大的软件帝国并推动了整个行业的发展。英特尔首席技术官Justin Rattner指出,x86体系架构的灵活性是它过去以及今后成功的关键。他说,虽然人们通常将x86指令集看作是某种一成不变的规范,但是不管是指令集还是体系架构本身,都在过去几年里发生了巨大的变革。Rattner说,x86在上世纪九十年代曾凭借其内置MMX和SSE指令集扩展,一举提高了多媒体和通信应用所需的速度,从而击退了其他专业媒体处理器对它发起的挑战。他还举例说明了x86体系架构在过去几年中新增的一些改进功能。比如在内存管理和虚拟化方面的硬件支持等。

Rattner指出,同样重要的是,英特尔在x86体系架构发展的每一个阶段都保持了向后兼容的特性。指令集的发展以及产品系列内部的兼容性大大扩展了x86体系架构的应用范围,将个人用户与企业用户、便携式电脑和超级计算机都包括了进来。

加州大学伯克利分校的计算机科学教授David Patterson说:“认识到x86体系架构并非一种凝固的设计这一点很重要。30多年来,它们每月都会增加一个说明。现在x86指令集的说明已经达到500多个。每一代都会增加20到100多个。前后兼容很重要,它也一直在增加新的内容。”


X86处理器遵循的原则


1)高性能原则

保证所选购的服务器,不仅能够满足运营系统的运行和业务处理的需要,而且能够满足一定时期的业务量增长的需要。一般可以根据经验公式计算出所需的服务器TpmC值,然后比较各服务器厂商和TPC组织公布的TpmC值,选择相应的机型。同时,用服务器的市场价/报价除去计算出来的TpmC值得出单位TpmC值的价格,进而选择高性能价格比的服务器。

2)可靠性原则

可靠性原则是所有选择设备和系统中首要考虑的,尤其是在大型的、有大量处理要求的、需要长期运行的系统。考虑服务器系统的可靠性,不仅要考虑服务器单个节点的可靠性或稳定性,而且要考虑服务器与相关辅助系统之间连接的整体可靠性,如:网络系统、安全系统、远程打印系统等。在必要时,还应考虑对关键服务器采用集群技术,如:双机热备份或集群并行访问技术,甚至采用可能的完全容错机。

比如,要保证系统(硬件和操作系统)在99.98%的时间内都能够正常运作(包括维修时间),则故障停机时间六个月不得超过0.5个小时。服务器需7×24小时连续运行,因而要求其具有很高的安全可靠性。系统整机平均无故障时间(MTBF)不低于80000小时。服务器如出现CPU损坏或其它机械故障,都能在20分钟内由备用的CPU和机器自动代替工作,无须人员操作,保证数据完整。

3)可扩展性原则

保证所选购的服务器具有优秀的可扩展性原则。因为服务器是所有系统处理的核心,要求具有大数据吞吐速率,包括:I/O速率和网络通讯速率,而且服务器需要能够处理一定时期的业务发展所带来的数据量,需要服务器能够在相应时间对其自身根据业务发展的需要进行相应的升级,如:CPU型号升级、内存扩大、硬盘扩大、更换网卡、增加终端数目、挂接磁盘阵列或与其他服务器组成对集中数据的并发访问的集群系统等。这都需要所选购的服务器在整体上具有一个良好的可扩充余地。一般数据库和计费应用服务器在大型计费系统的设计中就会采用集群方式来增加可靠性,其中挂接的磁盘存储系统,根据数据量和投资考虑,可以采用DAS、NAS或SAN等实现技术。

4)安全性原则

服务器处理的大都是相关系统的核心数据,其上存放和运行着关键的交易和重要的数据。这些交易和数据对于拥有者来说是一笔重要的资产,他们的安全性就非常敏感。服务器的安全性与系统的整体安全性密不可分,如:网络系统的安全、数据加密、密码体制等。服务器需要在其自身,包括软硬件,都应该从安全的角度上设计考虑,在借助于外界的安全设施保障下,更要保证本身的高安全性。

5)可管理性原则

服务器既是核心又是系统整体中的一个节点部分,就像网络系统需要进行管理维护一样,也需要对服务器进行有效的管理。这需要服务器的软硬件对标准的管理系统支持,尤其是其上的操作系统,也包括一些重要的系统部件。



X86 CPU参数讲解
下面以CPU-Z截图为基础,给大家介绍有关CPU的主要参数



上图为Intel至强E3-1230V3处理器的截图
主要包含的参数有以下:
1.型号
2.处理器架构
3.TDP
4.针脚
5.制程/工艺
6.步进
7.指令集
8.频率
9.睿频技术
10.前端总线
11.缓存
12.核心数/线程数


正式发售的CPU均有其自己的型号名称,这也是我们购买CPU时最直接记忆的信息。
CPU-Z提供了两个项目来确定该处理器的型号,一个是“名字”项,一个是“规格”。规格一栏为主板根据CPU内部编号来识别出的相应型号,而“名字”一栏则是CPU根据其他参数规格来推测出的大致型号。
有人会以为这样做岂不是多此一举,其实并不多余。
实际上,并非所有CPU都有对应的型号名称,主板仅能识别出内部编号而不能找出对应的型号,这类CPU通常是测试版样品,和正式版CPU参数有时差别较大。这样的CPU用该软件识别时,则会出现如下情况:

处理器型号有一些后缀,比如M,QM(MQ),XM(MX),T,S,TE,E,EQ,K,H(HQ),R,U(UM),Y等。
M代表移动版处理器
QM(MQ)代表四核移动版处理器
XM(MX)代表四核至尊版处理器,AMD的某些MX型号处理器仅为加强版的意思
T、S代表节能版,S还进行了低压处理,节能效果更高
TE,E,EQ代表嵌入式处理器
K代表不锁倍频版,超频专用
H(HQ)代表BGA封装的移动版处理器
R代表BGA封装的台式机处理器
U(UM)代表低压型移动版处理器
Y代表更激进的低压低功耗移动版处理器,面向平板使用


X86处理器微架构
每一代X86 CPU架构是CPU厂商给属于同一系列的CPU产品定的一个规范,主要目的是为了区分不同类型CPU的重要标示。CPU-Z对应的“代号”一栏,即为该处理器采用的架构。这里所指的架构并非大架构(X86)的不同,而是制造商自己更新换代的小架构名称而已。
架构决定了该处理器的新旧程度,比如Intel的第二代酷睿i系列架构为Sandy Bridge,第三代架构为Ivy Bridge,第四代架构为Haswell和Crystallwell。

架构后面有时还有子系列,比如DT、MB、ULT、ULX、WS、EP和EX等。DT代表桌面级产品,MB代表移动级产品,ULT、ULX代表低电压产品,WS代表工作站/服务器产品,EP代表High End进阶级产品(通常为服务器最高端级架构),EX代表Extreme Edition至尊级产品。
所以,服务器CPU、台式机CPU、笔记本CPU实际上只是子系列架构的不同而已。


例如:I7-4500U,架构为HASWELL-ULT


TDP
TDP散热设计功耗(TDP,Thermal Design Power)是指正式版CPU在满负荷(CPU 利用率为100%的理论上)可能会达到的最高散热热量,散热器必须保证在处理器TDP最大的时候,处理器的温度仍然在设计范围之内。
但要注意,由于CPU的核心电压与核心电流时刻都处于变化之中,这样CPU的实际功耗(其值:功率W=电流A×电压V)也会不断变化,因此TDP值并不等同于CPU的实际功耗,更没有算术关系。因此,TDP只是一个参考值,用来表征该CPU发热的高低。
随着技术的进步,TDP被赋予了新的意义,其作用在采用了睿频技术的CPU上。台式机由于TDP较大,往往在满载时也不会达到TDP值,而笔记本处理器差异较大。笔记本处理器的TDP普遍在50W以内,而四核处理器有时功耗确实超过了TDP规定的上限。


插槽类型

针脚是CPU与主板的CPU插槽连接的必要部件。CPU-Z上的“插槽”一栏显示的即为该CPU采用的针脚个数及其封装类型。CPU的封装类型分为BGA和PGA两种。
PGA是目前台式机和主流笔记本采用的形式,其主要特点是主板有CPU插槽,和CPU的针脚对应。INTEL在台式机的CPU上将原来的针脚改为触点形式,称为LGA,以避免CPU运输过程中发生针脚折损的问题。PGA还可分成mPGA和rPGA。rPGA未对硅晶顶部加装铝盖,而mPGA则有,避免硅晶因过度挤压受损。mPGA为台式CPU采用(LGA仅是底部针脚形式改变,实际上也属于mPGA),而rPGA为笔记本CPU采用。
BGA是将CPU直接焊接在主板上,以减少CPU和主板之间连接需要的高度,提高机器的集成度,这类CPU通常面向超极本,超薄笔记本和一体机。BGA的CPU由于直接焊接在主板上,想要更换非常困难,需要专业的BGA焊台才能拆下和再次封装。


型号:G3430 插槽:LGA1150


型号:B980 插槽:rPGA988B


型号:E-450 插槽:BGA FT1


制程工艺
制程工艺就是通常我们所说的CPU的“制作工艺”,是指在生产CPU过程中,集成电路的精细度,也就是说精度越高,生产工艺越先进。
制程的单位是纳米(以前曾用过微米),该数字大小是指IC内电路与电路之间的距离。提高处理器的制造工艺具有重大的意义,因为更先进的制造工艺会在CPU内部集成更多的晶体管,使处理器实现更多的功能和更高的性能;更先进的制造工艺会使处理器的核心面积进一步减小,也就是说在相同面积的晶圆上可以制造出更多的CPU产品,直接降低了CPU的产品成本,从而最终会降低CPU的销售价格使广大消费者得利;更先进的制造工艺还会减少处理器的功耗,从而减少其发热量,解决处理器性能提升的障碍。
计算公式:以当前处理器的制程工艺乘以0.714即可得出下一代CPU的制程工艺,如90*0.714=64.26,即65纳米。


不过,制程提升并非简单,目前制程的发现已经出现瓶颈,INTEL的下一代14nm技术再次延期。未来的制程提升可能会越来越困难。
越新的架构,采用的制程也越新,不过有时为了保证良品率,厂商可能在顶级CPU采用更为成熟的当代工艺,而在低端小规格CPU上采用更先进的新工艺。


最新的INTEL架构Crystallwell采用的是22nm制程工艺


指令集
指令集是存储在CPU内部,对CPU运算进行指导和优化的硬程序。CPU依靠指令来自计算和控制系统,每款CPU在设计时就规定了一系列与其硬件电路相配合的指令系统。指令的强弱也是CPU的重要指标,指令集是提高微处理器效率的最有效工具之一。不同的指令集,对CPU的某些方面产生特定的优化,例如AVX指令集理论上使CPU内核浮点运算性能提升到了2倍。一般说来,指令集支持越多,其CPU执行效率越高。Intel和AMD的CPU指令集不完全相同,因而对每个程序的执行效率也不同。
新架构往往会添加新的指令集支持。在同一代CPU中,为了区分CPU性能高低,也往往在低端CPU上减少对新指令集的支持。
不过,新指令集并不代表会带来性能的提升。新指令集需要相应的程序支持使用,才能得到应用,提高CPU的使用效率。因此,有时候我们并不用担心新指令集的缺少带来的性能损失。

频率
CPU的频率主要包含主频,外频和倍频三部分。
CPU的主频,即CPU内核工作的时钟频率(CPU Clock Speed)。通常所说的某某CPU是多少兆赫的,而这个多少兆赫就是“CPU的主频”。很多人认为CPU的主频就是其运行速度,其实不然。CPU的主频表示在CPU内数字脉冲信号震荡的速度,与CPU实际的运算能力并没有直接关系。由于主频并不直接代表运算速度,所以在一定情况下,很可能会出现主频较高的CPU实际运算速度较低的现象。


主频=外频*倍频,这是X86架构的CPU计算频率的公式。外频是CPU的基准频率,单位是MHz。CPU的外频决定着整块主板的运行速度。倍频系数是指CPU主频与外频之间的相对比例关系。一般情况下,同代(同针脚)的CPU,其外频往往是一样的,只是倍频系数的变化导致主频不同。
为什么会有外频和倍频的区分呢?这个是和CPU的发展有关的,如果大家感兴趣的话可以看最后给出的CPU发展史,这里仅作简单介绍。简单说来,就是CPU发展太快,而其他硬件无法达到同样频率来交互,于是CPU进行妥协,将外频作为和主板之间通讯的频率,而工作频率靠倍频来调节提升。


当下CPU的外频普遍为100mhz,曾经的产品有过最高默认400mhz外频。通常情况下,倍频是有限制的,也就是常说的锁倍频。只有一些工程样品和至尊版处理器或者黑盒版处理器才开放倍频。提高外频和倍频就可以提高CPU的频率,这也就是俗称的“超频”。超频需谨慎,新手不建议超频。



QX9775,默认外频最高的型号


近年来,Intel提出了一个新技术——睿频技术(turbo boost),随后AMD也对其产品增加了睿频技术(turbo core)的支持。实际上这个技术就是对倍频进行增加以达到类似“超频”效果的方式。


睿频技术(turbo boost)
睿频技术是指当处理器的功耗小于TDP而需要较大负载时,可以将倍频进行提高来进行“超频”,使得处理器获得更高的性能,更快的处理数据。

睿频技术最早由Intel提出,在一代酷睿i系列CPU中使用。其前身为Intel Dynamic Acceleration Technology(IDA)技术,在部分酷睿2处理器中使用,IDA技术当时仅是在另一核心休眠时提高该核心的0.5个倍频。而Intel Turbo Boost Technology的运行机制较为复杂。

睿频技术需要参照TDP的大小。当处理器启动睿频后,仍未超过TDP的规定值,则睿频功能继续保持,直至CPU负载减轻到一定数值。此外,如果CPU温度超过了主板设置的阈值范围,也会取消睿频支持。
Intel turbo boost 2.0加入了一些新的机制。TDP被分为两种,短时睿频TDP,长时睿频TDP,此外还有短时睿频时间。短时睿频TDP,是CPU进行睿频加速后的第一个TDP限制值,只要不超过该值,睿频就可以继续进行。如果超过后,睿频就会进行限制,逐渐缩小倍频大小,直至功耗降到TDP范围内。短时睿频时间很好理解,如果超过了这个时间后,处理器就会再次调节睿频的倍频,让TDP下降至CPU-Z中显示的数值。长时睿频其实就是CPU-Z中显示的数值。值得注意的是,一旦超过了主板设定的最高温度,睿频还是会强制停止。
台式机主板可以调节这三项的数值,笔记本中一般都将这些项目隐藏,防止用户将数值调高影响机器发热。

AMD的Turbo CORE技术与英特尔的Turbo Boost技术有着异曲同工之妙,虽然其运作流程不同,但是都是为了在TDP的允许范围内,尽可能的提高运行中核心的频率,以达到提升CPU工作效率的目的。因为AMD没有电源门控(power gating)技术,所以AMD采用P-State电源管理状态切换来达到控制核心功率的效果。举个例子,在一台安装了Phenom II X6 CPU的电脑中,正在运行某个对多线程支持不好,却需要较高频率的程序,使得目前CPU中六个核心中的三个或更多核心没有得到使用,那么Turbo CORE就会启动,将三个空闲核心的频率由默认频率降为800MHz,而另外的三个核心主频会提升500MHz左右。

AMD的Turbo Core 技术虽然在学习“师傅”,但是两点主要的不同看出还没有“出师”,火候未到:
第一:AMD的Turbo Core技术虽然可以将空载核心切换到低速状态,保持在800MHz,但无法全部关闭,因此运行时仍然会有能耗;
第二:AMD的Turbo Core 技术在超频时,并不能针对每个单一的核心进行超频,而是必须在三个以上的核心降频到800MHz的情况下,才能使其他的核心超频,这就大大限制了其超频的能力。而且加速的机会也少得多。

前端总线
前端总线的速度指的是CPU和北桥芯片间总线的速度,更实质性的表示了CPU和外界数据传输的速度。而外频的概念是建立在数字脉冲信号震荡速度基础之上的,也就是说,100MHz外频特指数字脉冲信号在每秒钟震荡一万万次,它更多的影响了PCI及其他总线的频率。之所以前端总线与外频这两个概念容易混淆,主要的原因是在以前的很长一段时间里(主要是在Pentium 4出现之前和刚出现Pentium 4时),前端总线频率与外频是相同的,因此往往直接称前端总线为外频,最终造成这样的误会。随着计算机技术的发展,人们发现前端总线频率需要高于外频,因此采用了QDR(Quad Date Rate)技术,或者其他类似的技术实现这个目的。
FSB是将CPU连接到北桥芯片的总线,也是CPU和外界交换数据的主要通道,因此前端总线的数据传输能力对整机性能影响很大,数据传输最大带宽取决于所有同时传输数据的宽度和传输频率,即数据带宽=总线频率×数据位宽÷8。
以前的CPU曾采用过其他总线,如HyperTransport(AMD)总线、QPI(INTEL)总线。


缓存(Cache)
CPU缓存(Cache Memory)是位于CPU与内存之间的临时存储器,缓存大小也是CPU的重要指标之一,而且缓存的结构和大小对CPU速度的影响非常大,CPU内缓存的运行频率极高,一般是和处理器同频运作,工作效率远远大于系统内存和硬盘。目前的CPU拥有一级、二级和三级缓存(L1 L2 L3 Cache),部分处理器还拥有四级缓存,主要看的是一级和二级缓存大小。注意,Intel和AMD的CPU定义的缓存并不相同,不能直接比较,同品牌不同针脚的CPU一般也不能直接比较缓存来区分性能高低。

一级缓存(L1 Cache)位于CPU内核的旁边,是与CPU结合最为紧密的CPU缓存,也是历史上最早出现的CPU缓存。由于一级缓存的技术难度和制造成本最高,提高容量所带来的技术难度增加和成本增加非常大,所带来的性能提升却不明显,性价比很低,而且现有的一级缓存的命中率已经很高,所以一级缓存是所有缓存中容量最小的,比二级缓存要小得多。
一般来说,一级缓存可以分为一级数据缓存(Data Cache,D-Cache)和一级指令缓存(Instruction Cache,I-Cache)。二者分别用来存放数据以及对执行这些数据的指令进行即时解码。大多数CPU的一级数据缓存和一级指令缓存具有相同的容量,例如AMD的Athlon XP就具有64KB的一级数据缓存和64KB的一级指令缓存,其一级缓存就以64KB 64KB来表示,其余的CPU的一级缓存表示方法以此类推。


二级缓存(L2 Cache)是CPU的第二层高速缓存,分内部和外部两种芯片。内部的芯片二级缓存运行速度与主频相同,而外部的二级缓存则只有主频的一半。L2高速缓存容量也会影响CPU的性能,原则是越大越好,现在家庭用CPU容量最大的是4MB,而服务器和工作站上用CPU的L2高速缓存更高达2MB—4MB,有的高达8MB或者19MB。

三级缓存是为读取二级缓存后未命中的数据设计的—种缓存,在拥有三级缓存的CPU中,只有约5%的数据需要从内存中调用,这进一步提高了CPU的效率。
L3 Cache(三级缓存),分为两种,早期的是外置,截止2012年都是内置的。而它的实际作用即是,L3缓存的应用可以进一步降低内存延迟,同时提升大数据量计算时处理器的性能。降低内存延迟和提升大数据量计算能力对游戏都很有帮助。而在服务器领域增加L3缓存在性能方面仍然有显著的提升。比方具有较大L3缓存的配置利用物理内存会更有效,故它比较慢的磁盘I/O子系统可以处理更多的数据请求。具有较大L3缓存的处理器提供更有效的文件系统缓存行为及较短消息和处理器队列长度。

四级缓存在消费级市场中出现是最近才有的。Intel的Crystallwell架构CPU采用了四级缓存,其本质实际上是eDRAM,给CPU中整合的的核显GT3e使用,当作临时显存。从相关评测中可以看出,这个四级缓存对于核显的性能提升比较显著,但是对于CPU原本的计算则没有影响。未来四级缓存的发展,还需要对市场的进一步观察。

CPU-Z的右下角可以查看CPU的缓存大小,查看四级缓存则需要切换到第二个选项卡“缓存(Caches)”


上图为拥有L4缓存的I7 4750HQ

CPU缓存是和对应型号搭配的,L1和L2都是和核心数成正比,仅L3缓存是低端CPU上进行阉割处理。L3主要影响部分游戏性能,但也不是很大。


核心数/线程数
多内核是指在一枚处理器中集成两个或多个完整的计算引擎(内核)。多核处理器是单枚芯片(也称为“硅核”),能够直接插入单一的处理器插槽中,但操作系统会利用所有相关的资源,将它的每个执行内核作为分立的逻辑处理器。通过在两个执行内核之间划分任务,多核处理器可在特定的时钟周期内执行更多任务。
多核心技术需要系统和软件的支持。windows2000以后的系统提供了多核心的支持,而之前的win me和win98等则仅支持单核。现阶段大部分程序都只是不超过4核心的优化支持,超过4核后性能提升不明显。

一般来说,线程数等于核心数。但Intel为了更充分的利用CPU资源,开发了超线程技术。


HT超线程技术,也就是Hyper-Threading,是Intel早在2001年就提出的一种技术。尽管提高时钟频率和缓存容量可以改善CPU的性能,但是受到工艺和成本的限制,CPU无法无限的提升参数来提升性能,实际上在应用中基于很多原因,CPU的执行单元都没有被充分使用。

为此,Intel则采用另一个思路去提高CPU的性能,让CPU可以同时执行多重线程,就能够让CPU发挥更大效率,即所谓“超线程(Hyper-Threading,简称“HT”)”技术。超线程技术就是利用特殊的硬件指令,把两个逻辑内核模拟成两个物理芯片,让单个处理器都能使用线程级并行计算,进而兼容多线程操作系统和软件,减少了CPU的闲置时间,提高的CPU的运行效率。目前的多线程技术一般采用多个微处理器即多处理器结构,线程与处理器形成一一对应关系。而英特尔Hyper-Threading技术的特点是:
(1)物理上用一个处理器处理多个线程
(2)多线程的分配采用根据计数器的空闲状态进行线程处理的SMT(simultaneous multi-threading)方式。

HT技术最早出现在2002年的Pentium4上,它是利用特殊的硬件指令,把两个逻辑内核模拟成两个物理芯片,让单个处理器都能使用线程级并行计算,进而兼容多线程操作系统和软件,减少了CPU的闲置时间,提高CPU的运行效率。但是,由于这个设计太过超前,奔腾4并没有借助HT大放光彩,在之后的酷睿架构中,Intel也再没有使用这个技术。然而,基于Nehalem架构的Core i7再次引入超线程技术,使四核的Corei7可同时处理八个线程操作,大幅增强其多线程性能。

现在的HT技术很成熟,超线程技术带来的效率提升可达30%之多。不过对于一般的程序来说,超线程带来的提升或许很小,尤其是超过了四线程之后。


Tick-Tock

Tick-Tock是Intel公司发展微处理器芯片设计制造业务的一种发展战略模式,在2007年正式提出。

“Tick-Tock”的名称源于时钟秒针行走时所发出的声响。Intel指,每一次“Tick”代表着一代微架构的处理器芯片制程的更新,意在处理器性能几近相同的情况下,缩小芯片面积、减小能耗和发热量;而每一次“Tock”代表着在上一次“Tick”的芯片制程的基础上,更新微处理器架构,提升性能。一般一次“Tick-Tock”的周期为两年,“Tick”占一年,“Tock”占一年。Intel指出,每一次处理器微架构的更新和每一次芯片制程的更新,它们的时机应该错开,使他们的微处理器芯片设计制造业务更有效率地发展。


Tick-Tock模式就是每隔两年就会推出新的制程技术,然后隔年推出新的微构架,如英特尔在2005年推出65nm工艺酷睿处理器以及酷睿微构架,2007年推出的45nm工艺Penryn处理器以及2008年Nehalem微构架,以及在2009年推出的32nm工艺Westmere处理器和2010年Sandy Bridge微构架,都是符合Tick-Tock研发模式。Tick-Tock研发模式将处理器技术不断推向新的高度,也是英特尔保持活力和市场占有率的重要战略。

Intel现在的处理器开发模式是“Tick-Tock”,也是每两年更新一次微架构(Tock),中间交替升级生产工艺(Tick)。Nehalem是采用45nm工艺的新架构,而2009年的Westmere将升级到32nm,2010年的Sandy Bridge又是新架构。最新情报显示,Intel将在2012年4月推出“IVY Bridge”,也就是Sandy Bridge的22nm工艺升级版;2013年再推出“Haswell”,基于22nm工艺的又一个新架构。 现在已经可以基本确定Intel 22nm之后的下一站将停留在15nm,已经有很多证据证明了这一点,据说台积电也是如此,不过也有说法提到了16nm、14nm等不同节点,而且IBM/AMD的规划就是16nm。再往后应该就是11nm,不过Intel也曾在不同场合提及过10nm,看来遥远的未来仍然充满了未知数。 代号方面之前有人说2013年的22nm Haswell后边是应该是Rockwell,按惯例架构不变、工艺升级,不过SemiAccurate网站今天曝料称,其实真正迈入后20nm时代的将是“Broadwell”,再往后工艺不变、架构革新的将是“SkyLake”(另一说Sky Lake),届时甚至可能会集成源于Larrabee项目的图形核心,当然前提是Intel能够真正找到充分发挥x86架构图形效率的门路。 还要往后?那我们再说一个名字“Skymont”。可以预料,到时候又会升级工艺了,按照现在的初步规划将会是11nm,但怎么着也得是2016年的事情了。

65nm Merom - Tock

45nm Penryn - Tick

45nm Nehalem - Tock

32nm Westmere - Tick

32nm Sandy Bridge - Tock

22nm Ivy Bridge - Tick

22nm Haswell - Tock

14nm Broadwell - Tick

14nmSkylake- Tock

11nm Skymont(平台代号) - Tick



芯片组

这里说的芯片组,是X86系统独有的,一般RISC处理器都是SoC,芯片即为系统;X86比较独特,以前是由CPU、南桥、北桥组成一个系统,现在是由CPU+PCH形成一个系统。因为接口和总线太多,太复杂,又由于X86系统一直传承着继承性,兼容性等特点,所以多个处理器可以匹配不同主板,同一个主板可以适配多种处理器,所以这样做了功能拆分。



内存

服务器内存与PC内存的区别:

性能更高

兼容性更好

可靠性更高





什么是Register?


拥有Registers功能的内存模组,可以通过重新驱动控制信号来改善内存的运作,提高电平信号的准确性,从而有助于保持系统长时间稳定运作。不过,由于Registers的信号重驱动需花费一个时钟周期,延迟时间有所增加,但是传输的速率相对可以提高,对走线的要求也降低了。

与逻辑设计中的流水线是一个原理。

这样控制信号的信号质量更好。


服务器内存上面要比普通内存多几颗芯片:主要是PLL (Phase Locked Loop)和Register IC,它们的具体用处如下 PLL(Phase Locked Loop) 琐相环集成电路芯片,内存条底部较小IC,比Register IC小,一般只有一个,起到调整时钟信号,保证内存条之间的信号同步的作用。Register IC内存条底部较小的集成电路芯片(2-3片),起提高驱动能力的作用。服务器产品需要支持大容量的内存,单靠主板无法驱动如此大容量的内存,而使用带Register的内存条,通过Register IC提高驱动能力,使服务器可支持高达32GB的内存。


图为DDR2 400 ECC REG

1 SPD芯片

2 PLL芯片

3 Register IC芯片

4 内存颗粒


什么是ECC内存?

目前是一谈到服务器内存,大家都一致强调要买ECC内存,认为ECC内存速度快,其实是一种错误地认识,ECC内存成功之处并不是因为它速度快(速度方面根本不关它事只与内存类型有关),而是因为它有特殊的纠错能力,使服务器保持稳定。ECC本身并不是一种内存型号,也不是一种内存专用技术,它是一种广泛应用于各种领域的计算机指令中,是一种指令纠错技术。它的英文全称是“Error Checking and Correcting”,对应的中文名称就叫做“错误检查和纠正”,从这个名称我们就可以看出它的主要功能就是“发现并纠正错误”,它比奇偶校正技术更先进的方面主要在于它不仅能发现错误,而且能纠正这些错误,这些错误纠正之后计算机才能正确执行下面的任务,确保服务器的正常运行。之所以说它并不是一种内存型号,那是因为并不是一种影响内存结构和存储速度的技术,它可以应用到不同的内存类型之中,就象我们在前面讲到的“奇偶校正”内存,它也不是一种内存,最开始应用这种技术的是EDO内存,现在的SD也有应用,而ECC内存主要是从SD内存开始得到广泛应用,而新的DDR、RDRAM也有相应的应用,目前主流的ECC内存其实是一种SD内存。


ECC通过数据位多一些位数,对数据进行校验,所以内存颗粒一般会多一颗。

ECC可发现2bit错误,并纠正1bit错误,可靠性更高。

一般情况下服务器内存都具有ECC功能,只有较低端的服务器采用普通台内存时不具有此功能;

服务器内存的其他典型技术:


Chipkill技术

Chipkill技术是IBM公司为了解决服务器内存中ECC技术的不足而开发的,是一种新的ECC内存保护标准。我们知道ECC内存只能同时检测和纠正单一比特错误,但如果同时检测出两个以上比特的数据有错误,则无能为力。ECC技术之所以在服务器内存中广泛采用,一则是因为在这以前其它新的内存技术还不成熟,再则在服务器中系统速度还是很高,在这种频率上一般来说同时出现多比特错误的现象很少发生,因为这样才使得ECC技术得到了充分地认可和应用,使得ECC内存技术成为几乎所有服务器上的内存标准。

但随着基于Intel处理器架构的服务器的CPU性能在以几何级的倍数提高,而硬盘驱动器的性能只提高少数的倍数,为了获得足够的性能,服务器需要大量的内存来临时保存CPU上需要读取的数据,这样大的数据访问量就导致单一内存芯片上每次访问时通常要提供4(32位)或8(64位)比特的数据,一次读取这么多数据,出现多位数据错误的可能性会大大地提高,而ECC又不能纠正双比特以上的错误,这样很可能造成全部比特数据的丢失,系统就很快崩溃了。IBM的Chipkill技术是利用内存的子系统来解决这一难题。内存子系统的设计原理是这样的,单一芯片,无论数据宽度是多少,只对于一个给定的ECC识别码,它的影响最多为一比特。举例来说,如果使用4比特宽的DRAM,4比特中的每一位的奇偶性将分别组成不同的ECC识别码,这个ECC识别码是用单独一个数据位来保存的,也就是说保存在不同的内存空间地址。因此,即使整个内存芯片出了故障,每个ECC识别码也将最多出现一比特坏数据,而这种情况完全可以通过ECC逻辑修复,从而保证内存子系统的容错性,保证服务器在出现故障时,有强大的自我恢复能力。采用这种技术的内存可以同时检查并修复4个错误数据位,服务器的可靠性和稳定得到了更充分的保障。


Memory ProteXion(内存保护)

  Memory ProteXion技术最初应用在IBM公司的z系列和i系列大型主机服务器中,相对Chipkill内存技术在保护能力上更加强。

  类似硬盘的热备份功能,能够自动利用备用的比特位自动找回数据,从而保证服务器的平稳运行。该技术可以纠正发生在每对DIMM内存中多达4个连续比特位的错误。即便永久性的硬件错误,也可利用热备份的比特位使得DIMM内存芯片继续工作,直到被替换为止。

  同时,Memory ProteXion技术比ECC技术纠错更加有效,标准的ECC内存虽然可以检测出2位的数据错误,但它只能纠正一位错误。采用内存保护技术,就可以立即隔离这个失效的内存,重写数据在空余的数据位。而且无需添加另外的硬件、无需增加额外的费用,独立操作系统工作,也不会给系统增加任何额外负担。这种技术可以使减少停机时间,使服务器持续保持高效的计算平台。


Memory Mirroring(内存镜像)

  IBM的另一种更高级内存技术就是内存镜像技术,在内存保护能力上更强,弥补了Chipkill修复技术和内存保护技校术都不能完全修复时,可以在系统中运行直到有故障内存被更换。

  一般说,内存镜像技术和磁盘镜像技术相仿,都是将数据同时写入到两个独立的内存卡中,内存只从活动内存卡中进行数据读取,当一个内存中有足以引起系统报警的软故障,系统会自动提醒管理员这个内存条将要出故障;同时服务器就会自动地切换到使用镜像内存卡,直到这个有故障的内存被更换。

另外,镜像内存允许进行热交换(Hot swap)和在线添加(Hot-add)内存。因为镜像内存采用的的两套内存中实际只有一套在使用,另一套用于备份,所以对于软件系统来说也就只有整个内存的一半容量是可用的。

PCIe


硬盘

SATA:Serial ATA接口,即串行ATA,采用串行技术以获得更高的传输速度及可靠性。目前是第二代即SATAII


SCSI:全称为“SmallComputer System Interface”(小型计算机系统接口),具有应用范围广、多任务、带宽大、CPU占用率低,以及热插拔等优点,主要应用于中、高端服务器和高档工作站


SAS:Serial Attached SCSI接口,即串行SCSI, 采用串行技术以获得更高的传输速度。目前仍然是第一代


SSD:固态存储硬盘(Solid State Disk)其特别之处在于没有机械结构,以区块写入和抹除的方式作读写的功能,与目前的传统硬盘相较,具有低耗电、耐震、稳定性高、耐低温等优点。


服务器硬盘接口有哪些种类

一、风光依旧的SATA接口

SATA接口又被称之为“串行接口”,所以现在采用SATA接口的硬盘都被习惯的叫做串口硬盘。它是继IDE硬盘之后的一次演变。SATA的物理设计是以光纤通道作为蓝本,所以采用了四芯的数据线。SATA接口发展至今主要有3种规格,其中目前普遍使用的是SATA-2规格,传输速度可达3GB/秒,如图1所示为某品牌固态硬盘采用的SATA-2接口规格。

现在已经有SATA-3接口出现,如图所示即为西部数据的一款SATA-3接口的服务器硬盘。SATA-3接口除了将传输速率提高到了6GB/秒之外,还对诸多数据类型提供了读取优化设置。当然对于用户来说,SATA-3接口的出现并不意味着现有的SATA-2产品会被淘汰,因为SATA-3虽然采用了全新INCITS ATA8-ACS标准,但依然可以兼容旧有的SATA设备。

由于SATA接口的服务器硬盘,技术相当成熟而且构造成本不高,因此相对于其他接口类型的产品来说,其市场价位是比较平民化的。相信对于预算不高的企业用户来说,在原来的服务器架构中升级同样接口但容量更大的SATA-2接口硬盘,是最好的选择了。

二、应用更普及的SCSI接口

SCSI接口的服务器硬盘是现在多数服务器中采用的一种,它具有数据吞吐量大、CPU占有率极低的特点:用于连接SCSI接口硬盘的SCSI控制器上有一个相当于CPU功能的控制芯片,能够替代CPU处理大部分工作;现在普遍采用的Ultra 320标准的SCSI接口硬盘,数据传输率可达320MB/秒。SCSI接口服务器硬盘及SCSI控制器如图所示。

另外,SCSI硬盘具有的支持热拔插技术的SCA2接口,也非常适合部署在现在的工作组和部门级服务器中。SCSI硬盘必须通过SCSI接口才能使用,现在服务器主板一般都集成了SCSI接口,也可以安装专门的SCSI接口卡来连接更多个SCSI设备,所以其横向扩展能力是比较强的。

那么,SCSI接口的服务器硬盘,主要强于哪些方面,又适用于怎样的企业环境中呢?首先,SCSI对磁盘冗余阵列(RAID)的良好支持,可以满足有大数据存储的企业环境,同时数据安全性也有保障;再者,SCSI硬盘的转速早已高达15000rpm,这让企业数据中心的处理性能得到了保障;再次,其较低的CPU占用率以及多任务的并行处理特性,都可为成长型企业环境提供较强力的数据处理及存储支持。最后,从如图6所示现在的市场价格对比来看,SCSI接口硬盘整体上要低于SAS接口硬盘,但明显高于SATA接口硬盘,所以,其更适合装配在对数据存储有一定的安全需求、容量需求、高处理性能需求的企业环境中。

三、追求性能最大化的SAS接口

“SAS”就是串行连接SCSI的意思,简单理解就是SCSI接口技术的升级改良,目的就是进一步改进SCSI技术的效能、可用性和扩充性。其特点就是可以同时连接更多的磁盘设备、更节省服务器内部空间;比如SAS接口减少了线缆的尺寸,且用更细的电缆搭配,而且SAS硬盘有2.5英寸的规格,如图7所示即为希捷(Savvio 15K.2)2.5英寸SAS硬盘接口。

更好的空间占用特点使得这种接口的硬盘可以广泛部署在刀片服务器中。在2U高度内使用 8个 2.5英寸的SAS硬盘位已经成为大多数OEM服务器厂商的选择。另外,对于预算不高无法更换现有服务器的企业来说,亦可采用SAS和SATA硬盘共存的升级方式,SAS接口良好的向下兼容性使得企业用户可以将它们用在不同的应用场合。比如SATA硬盘可用于一般事务性处理,而SAS硬盘则可专注于数据量大、数据可用性极为关键的应用中。如图所示为上亿信息(SNT)推出的ST-1042SAS-D7硬盘抽取盒,它就完美地混合支持SAS和SATA硬盘共存,且可以搭配SAS或SATA硬盘控制卡来支持RAID 0、1、5磁盘阵列模式。

比起同容量的Ultra 320 SCSI硬盘,SAS 硬盘要贵一些,这主要还是缘由其更好的扩展性、兼容性以及更可靠的容错能力。而从从服务器市场来看,国内外主力服务器厂商都已经纷纷推出采用SAS硬盘的机型,只是具体产品的应用和市场状况有所不同。比如定位于部门级应用的惠普 ProLiant DL380 G5、适用于流媒体服务及电子商务的IBM System x3650 M2 等,都提供了SAS硬盘的全面支持。

四 、应用高端的光纤接口

光纤通道(FC,Fibre Channel)是一种为提高多硬盘存储系统的速度和灵活性才开发的接口,其可大大提高多硬盘系统的通信速度。对于大型的ERP系统,或是在线实时交易系统等需要更大传输量、更快反应速度的应用环境而言,此类接口的服务器硬盘是最好的选择;当然其产品价格自然也就更高于前面几种。

总结起来看,不同接口技术的服务器硬盘也决定了它们各自更好的适用环境。单独存在的SATA硬盘服务器产品如今并不多见,大多是一些针对入门应用的塔式服务器中。而SCSI及SAS由于具有CPU占用率低、连接设备多等诸多特点,性能上明显优于SATA接口硬盘,因此可以在企业数据中心、安全服务器等应用环境中部署。目前看来,市面上的服务器硬盘或服务器产品,也大多呈现两种形态:Ultra320 SCSI及SAS/SATA。

不可否认的是,2009年SAS已经成为服务器界主流硬盘平台,近期有服务器硬盘升级需求的企业用户,还是多倾向于选择SAS平台为好,虽然其价格要明显高出一截,但带来的实际应用效果却是更好的。

服务器硬盘和普通硬盘区别在哪

第一, HDD for Server 和 HDD for PC 当然不一样, Server 一般采用 SCSI 接口硬盘(现在 SAS已经取代了 SCSI ),而 PC 一般采用 ATA 接口硬盘(现在 SATA 已经取代了 ATA ), SCSI 硬盘的优势是对系统占用非常小,比如说你将几十 GB 的数据 D 盘拷贝到 E 盘,同时将几十 GB 数据从 E盘拷贝到 D 盘,磁盘资源应该是基本耗净了,再同时运行 CS ,如果在 PC 上面,这两个拷贝动作会占用全部的 CPU 资源, CS 根本无法运行,但是在 Server 上,这两个拷贝动作几乎不会占用任何 CPU 资源, CS 除了刚刚进去略慢之外,一旦读取到了内存,可以非常正常流畅的运行。

普通 PC 机的硬盘相比,服务器上使用的硬盘具有如下四个特点。

1 、速度快

服务器使用的硬盘转速快,可以达到每分钟 7200 或 10000 转,甚至更高;它还配置了较大 ( 一般为 2MB 或 4MB) 的回写式缓存;平均访问时间比较短;外部传输率和内部传输率更高,采用 Ultra Wide SCSI 、 Ultra2 Wide SCSI 、 Ultra160 SCSI 、 Ultra320 SCSI 等标准的 SCSI 硬盘,每秒的数据传输率分别可以达到 40MB 、 80MB 、 160MB 、 320MB 。

2 、可靠性高

因为服务器硬盘几乎是 24 小时不停地运转,承受着巨大的工作量。可以说,硬盘如果出了问题,后果不堪设想。所以,现在的硬盘都采用了 S.M.A.R.T 技术 ( 自监测、分析和报告技术 ) ,同时硬盘厂商都采用了各自独有的先进技术来保证数据的安全。为了避免意外的损失,服务器硬盘一般都能承受 300G 到 1000G 的冲击力。

3 、多使用 SCSI 接口

多数服务器采用了数据吞吐量大、 CPU 占有率极低的 SCSI 硬盘。SCSI 硬盘必须通过 SCSI 接口才能使用,有的服务器主板集成了 SCSI 接口,有的安有专用的 SCSI 接口卡,一块 SCSI 接口卡可以接7 个 SCSI 设备,这是 IDE 接口所不能比拟的。

4 、可支持热插拔

热插拔( Hot Swap )是一些服务器支持的硬盘安装方式,可以在服务器不停机的情况下,拔出或插入一块硬盘,操作系统自动识别 硬盘 的改动。这种技术对于 24 小时不间断运行的服务器来说,是非常必要的。

关于服务器运用SSD

机械硬盘在读取速度上存在瓶颈早已是不争的事实,而固态硬盘在读取速度上要甩机械硬盘几条街条街。既然,SSD速度解决了计算机(服务器)硬件上的瓶颈,大多数普通用户都在用,很多企业服务器却依然坚守机械硬盘呢?原因无非以下几个方面。

1、最重要的一点是“钱”

普通固态硬盘比机械硬盘贵不少,而企业级固态硬盘更是不便宜,再加上固态硬盘容量普遍小,如果服务器全部用固态硬盘,成本会非常高,这是一般的企业难以负担的。但是随着存储遵循摩尔定律,固态硬盘的成本最终还是要比机械硬盘要低的。


2、硬盘容量

服务器存储的都是重要的海量数据,对硬盘容量有很高的要求。而目前服务器机械硬盘,单块容量可以达到2TB以上,主流大容量服务器机械硬盘达到了10TB左右。

而目前固态硬盘容量普遍不大,大一些的也不过1TB左右,并且价格非常昂贵。显然,固态硬盘容量也是制约服务器领域运用的一个重要原因。

但是一样随着半导体的发展,容量也会指数级增长。


3、安全型

传统的机械硬盘已经使用了几十年了,技术成熟,可靠性极佳,并且机械硬盘损坏还可以维修,数据丢失,还可以通过一些专业数据恢复软件,大概率找回。

而固态硬盘,起步较晚,虽然速度有绝对优势,但由于固态硬盘是芯片级存储,一旦硬盘损坏,数据几乎无法找回。另外,固态硬盘数据丢失,也几乎很难再恢复。

对于企业而言,服务器上的数据可以说是无价的,如果数据丢失,会造成难以估量的损失。因此,在安全性方面,机械硬盘依然有着明显的优势。当然,有人会说,服务器采用多块固态硬盘集群,一份数据存在多块硬盘,这样可以很好的保障数据安全,但这样的成本就非常高,又会回到“钱”的问题上了。


在存储技术飞速发展的二十年间,IT 架构经历了从简单到复杂,从单一性能处理到集群 虚拟化发展的阶段。每次重大的技术变革都能给人们的工作和生活带来崭新的变化。回顾这二十年,IT 技术的变化主要体现在三方面:首先,代表计算能力的 CPU 在短短 二十年性能将近提升 580 倍;其次,I/O 通道性能提升了近 1000 倍;最后,存储系统介 质在二十年中仅仅提升了 20 倍。硬盘已成为计算机系统的性能瓶颈,严重影响整个 IT 架构系统性能的提升,难以满足 人们对业务应用需求。而今,一种新型高效节能的硬盘技术 SSD(Solid State Disk 或 Solid State Drive)固态硬盘 应运而生。SSD 固态硬盘摆脱了机械硬盘的磁头,盘片转轴及控制电机等机械部件,没 有电机加速旋转的过程,内部不存在任何机械活动部件,不会发生机械故障,也不怕碰 撞、冲击和振动。所以其相对于 HDD 而言,在性能、可靠性、能耗、轻便性方面有着 绝对的优势,目前广泛应用于军事、军载、工控、电力、医疗、航空、导航设备等领域。


SSD硬盘包含:控制器芯片、NAND FLASH、DDR内存。这几个关键组件也就决定了SSD的档次和等级。

SSD硬盘由于具备以下几个特点,替代机械硬盘已经成为必然之势。

高性能

HSSD 盘的性能优势体现在以下两个方面:响应时间短和读写效率高。

(1)响应时间短:硬盘访问时间是由指令到达时间+寻道时间+命中时间+机械延迟组成的。传统硬盘的机械特性导致大部分时间浪费在寻道、查找数据和机械延迟上。数据传输受到严重影响。而 SSD 硬盘由于采用固态芯片(NAND 芯片)作为存储介质,内部没有机械结构,因此没有数据查找时间、延迟时间和寻道时间,数据传输速度较之传统硬盘有近 100 倍的提升。如图:SSD 盘与传统硬盘响应时间比较。

(2)读写效率高:传统硬盘在进行随机读写时需要把磁头不断地移来移去,导致效率低下。现在最快的机械硬盘的磁头平均移动时间是 5ms,也就是说 1 秒钟内磁头最多移动200 次,即最多处理 200 个随机读写请求。而 SSD 没有磁头,省去了机械操作的时间,只需计算数据存放在哪块 Flash 芯片的哪个位置,然后再对该位置进行读写即可。目前,典型的 SSD 硬盘每秒最多可进行 16000 次随机读写,是传统硬盘的 80 倍。

高可靠

部件级抗震

部件级:众所周知,磁盘表面涂有磁性介质,其在显微镜下呈现出来的便是一个个磁颗粒。微小的磁颗粒极性可以被磁头快速的改变,并且在改变之后可以稳定的保持,系统通过磁通量以及磁阻的变化来分辨二进制中的 0 或者 1。也正是因为所有的操作均是在微观情况下进行,所以如果硬盘在高速运行的同时受到外力的震荡,将会有可能因为磁头拍击磁盘表面而造成不可挽回的数据损失。此外,硬盘驱动器磁头的

飞行悬浮高度低、速度快,一旦有小的尘埃进入硬盘密封腔内,或者一旦磁头与盘体发生碰撞,就可能造成数据丢失,形成坏块,甚至造成磁头和盘体的损坏。而 SSD 硬盘是采用固态芯片作为存储介质,其工作抗震能力达到 15G(10~1000HZ)是传统硬盘的15 倍,抗冲击能力达到 1500G(0.5ms)是传统硬盘的 27 倍。高效地提升了 SSD 盘的稳定性。如图:SSD 盘与传统硬盘防震、抗冲击比较。

盘片级寿命

在软件方面,华为固态硬盘 HSSD 盘拥有业界领先的动静态磨损均衡算法和坏块管理策略,GC 算法等优化的 SSD 管理调度算法,NAND Flash 的内部处理有效的提高了 SSD盘的使用寿命;在硬件方面,实现 ECC 检错、纠错算法,保证数据完整性及一致性。软硬件结合,保证了系统的可靠性。

假设 SSD 上承载的主机业务是数据库类型的业务,且 7×24 小时无休,IOPS 持续在 5K左右,平均 IO 大小为 8KB,读写比例为 40% : 60%。这样的主机业务,每天写入的数据量约为:5K × 60% × 8KB × 60 × 60 × 24 ≈ 2TB 。将上述计算结果使用寿命计算公式,并让写放大系数取值为全随机业务时的 2.5,可以得到不同类型和容量的 HSSD 的使用寿命:

系统级可靠性

内存属于易失性介质,掉电后数据不会保存。如果系统出现异常掉电,硬盘内存的数据就会丢失,此时若存在主机写入内存的数据并未写入永久介质,这部分数据就会丢失,从而造成了数据丢失的问题。

HSSD 可以检测到硬盘异常掉电,在掉电以后,利用备用电源中的能量把内存中更新过的数据写入永久介质,从而为异常掉电时内存的数据提供了保障,实现了更高的可靠性。


另外SSD还有低功耗、易于管理等特点。


什么是Raid?

Raid——Redundant Array of IndependentDisks,独立磁盘冗余阵列

RAID是将同一阵列中的多个磁盘视为单一的虚拟磁盘,数据是以分段的方式顺序存放于磁盘阵列中

RAID技术主要有以下两个特点:

  (1)提高数据访问速度

  硬盘数据条带化

  多硬盘同时读取

  (2)数据冗余保护

  硬盘镜像

  奇偶校验 

由于RAID技术的存在,服务器的机械硬盘的速率比SSD速率慢还没有充分暴露,也是有些服务器仍然可以选择机械硬盘的一个原因。

Raid技术的三大特点:

1、通过对硬盘上的数据进行条带化,实现对数据成块存取,减少硬盘的机械寻道时间,提高数据存取速度;

2、通过对一阵列中的几块硬盘同时读取,减少硬盘的机械寻道时间,提高数据存取速度;

3、通过镜像或者存储奇偶校验信息的方式,实现对数据的冗余保护

存储相关的内容比较多,也比较复杂,此处不继续展开。


电源

服务器的电源标准有两类:

ATX标准 ——用于低端服务器或工作站。输出功率一般在125瓦~350瓦之间。通常采用20Pin(20针)的双排长方形插座给主板供电。

SSI标准 ——SSI(Server System Infrastructure)规范是IA服务器的电源规范,SSI规范的推出是为了规范服务器电源技术,降低开发成本,延长服务器的使用寿命而制定的,主要包括服务器电源规格、背板系统规格、服务器机箱系统规格和散热系统规格


SSI (Server System Infrastructure,服务器系统结构)规范是Intel联合一些主要的IA服务器生产商推出的新型服务器电源规范。根据使用的环境和规模的不同,SSI规范又可以分为EPS、TPS、MPS、DPS四种子规范

小贴士:通常将采用Intel(英特尔)处理器的服务器称之为IA(Intel Architecture)服务器,又称CISC(Complex Instruction Set Computer,复杂指令集)架构服务器。

1、EPS规范(Entry Power Supply Specification)

特点:基于ATX电源的服务器升级版本

EPS规范主要为单电源供电的中低端服务器设计,设计中秉承了ATX电源的基本规格,但在电性能指标上存在一些差异。EPS规范电源和ATX电源最直观的区别在于提供了24Pin的主板电源接口和8Pin的CPU电源接口(注:目前的PC主板也开始有24Pin的电源接口和8Pin的CPU电源接口)。

在EPS规范中只对电源的容量、引脚等作出了规定,而且没指定确定的电源额定功率,电源开发商可以根据各自不同的开发平台设计不同额定功率的电源,但必须在300W~400W范围内。后来该规范发展到EPS12V(2.0版本),适用的额定功率达到450W~650W。

2、TPS规范(Thin Power Supply Specification)

特点:适合冗余工作方式

TPS规范电源具有PFC(功率因数校正)、自动负载电流分配功能。电源系统最多可以实现4组电源并联冗余工作,由系统提供风扇散热。TPS规范电源对热插拔和电流均衡分配要求较高,它可用于“N+1”冗余工作,有冗余保护功能。

小贴士:PFC,功率因数校正,功率因数指有效功率与总功率的比值。功率因数值越大,代表电力利用率越高。

3、MPS规范(Midrange Power Supply Specification)

特点:适合高端的服务器使用

这种规范的电源针对4路以上CPU的高端服务器系统。MPS电源适用于额定功率在375W~450W的电源,可单独使用,也可冗余使用。它具有PFC、自动负载电流分配等功能。采用这种规范的电源元件的电压、电流规格设计和半导体、电容、电感等器件工作温度的设计余量超过15%,在环境温度25℃以上、最大负载、冗余工作方式下MTBF(平均无故障时间)可达到150000小时。

小贴士:MTBF,即平均无故障时间,指相邻两次故障之间的平均工作时间,也称为平均故障间隔。可用产品在总的使用阶段累计工作时间与故障次数的比值表示,单位为“小时”。

4、DPS规范(Distributed Power Supply Specification)

特点:简化服务器供电方式

DPS规范电源是单48V直流电压输出的供电系统,提供的最小功率为800W,输出为+48V和+12VSB。DPS规范电源采用二次供电方式,输入交流电经过AC-DC转换电路后输出48V直流电,48VDC再经过DC-DC转换电路输出负载需要的+5V、+12V、+3.3V直流电。制定这一规范主要是为简化电信用户的供电方式,便于机房供电,使IA服务器电源与电信所采用的电源系统接轨。

服务器与PC不同,通常支持多个CPU,使用多个SCSI硬盘,内存容量一般超过2GB,因此功耗要比普通PC大得多。因此功率起步标准也比普通电源要高。对1U机箱服务器来说,电源实际功率一般应达到300W,2U机箱服务器应达到350W,而机架式服务器则一般都配备400W以上电源,甚至有的服务器配备了1000W电源。功率越大的电源工作时的发热量便会越高,因此服务器电源的两端都装有风扇,具有良好的散热性能。


电源冗余特性:

1+1,此时每个模块承担50%的输出功率,当一个模块拔出时,另一个模块承担100%输出功率;

2+1,有三个模块,每个模块承担输出功率的1/3,当拔出一个模块,其余两个模块各承担50%的输出功率。


热插拔的概念:

热插拔(hot-plugging或Hot Swap)功能就是允许用户在不关闭系统,不切断电源的情况下取出和更换损坏的硬盘、电源或板卡等部件,从而提高了系统对灾难的及时恢复能力、扩展性和灵活性。


常见的热插拔设备:硬盘,电源,PCI设备,风扇等。


什么是IPMI

IPMI(Intelligent Platform Management Interface)—智能平台管理接口,是使硬件管理具备“智能化”的新一代通用接口标准。用户可以利用 IPMI 监视服务器的物理特征,如温度、电压、风扇工作状态、电源供应以及机箱入侵等。IPMI最大的优势在于它是独立于 CPU、

BIOS 和 OS 的,所以用户无论在开机还是关机的状态下,只要接通电源就可以实现对服务器的监控。IPMI 是一种规范的标准,其中最重要的物理部件就是BMC(Baseboard Management Controller),它是一种嵌入式管理微控制器,相当于整个平台管理的“大脑”,通过它 IPMI就可以监控各个传感器的数据并记录各种事件的日志。


BMC的作用

一般来说,BMC具有以下功能:

1、 通过系统的串行端口进行访问

2、故障日志记录和 SNMP 警报发送

3、访问系统事件日志 (System Event Log ,SEL) 和传感器状况

4、控制包括开机和关机

5、独立于系统电源或工作状态的支持

6、用于系统设置、基于文本公用程序和操作系统控制台的文本控制台重定向


服务器硬件自检启动过程

1、电源上电(启动电源,电源正常工作后,输出Power Good信号)

2、关键部件检测(CPU、芯片组、BIOS、基本内存等关键部件初始化自检)

3、检测显卡(屏幕上显示显卡信息)

4、显示BIOS的厂家和版本,显示CPU信息,检测全部内存,初始化IPMI和USB

5、检测外部设备(如:光驱、硬盘、HBA卡、RAID卡等)

6、根据BIOS启动项设置,加载操作系统


什么是BIOS?

BIOS是基本输入/输出系统(Basic Input Output System)的缩写。BIOS是开机过程中的关键组成部分。它负责将计算机系统的各种硬件组件寻址和映射到内存,使操作系统能够和硬件进行沟通。如果没有BIOS,计算机将无法启动并进入到操作系统。

BIOS的作用

1. 自检及初始化

2. 程序服务处理

3. 硬件中断处理

4.引导操作系统


结构设计和热设计

确定整体架构前首先要了解客户的需求,该款服务器的标配为两个双核 Intel CPU,12 个内存插槽,可以扩展到 64GB,集成多功能千兆网卡,支持 RAID0/1/5,支持 2 个 2.5’’ SATA 热插拔硬盘。

导风罩的作用是迫使流体按照想要的方向流动,集中一部风的风量来冷却 所需要的高功耗的元件,同时可以增加流体的流速而使被冷却元件的表面对流 换热系数增加从而更快的带走热量。

利用导风板,将更多的风量分配给功率更大的器件区域。


最近做的一款AI服务器拆机,以上两张照片也是来自于这款AI服务器的拆机照片,详情请点击:探秘算能AI高密度服务器


本文部分内容来自

《服务器基础知识篇》——盾联信息

《服务器硬件工程师从入门到精通》——51CTO

《华为固态硬盘HSSD技术白皮书》——百度文库

《服务器硬盘和普通硬盘区别》——IT百科

《解析IBM内存三技术:Chipkill、MPX、MM》——中关村在线

《SSI电源标准》——百度文库

《华硕LGA2011/LGA1366混合双路主板架构解密》——快科技
《刀片服务器的结构和散热优化设计》——尹秀忠


注:本文内容还比较浅,可以支撑去电脑城装机器,不足以支撑开发。