WebKeepers:$6.95 Virtuozzo VPS

webkeepers

WebKeepers 是 Webk.net 的一个分支,主要做基于 Virtuozzo 的 VPS. whois 域名显示 webkeepers.com 域名是2001年注册的,但是 WebKeeper 的 about us 页面上声称从1997年就开始进入 hosting 行业。VPSee 今天下午偶尔发现 webkeepers.com 不能访问,一个连自己网站都不稳定的 VPS 服务商,很让人怀疑其技术和服务质量。VPS 配置如下:

服务器在 San Jose CA
自制控制面板
10GB 硬盘
256MB Guaranteed RAM,256MB Burstable RAM
500GB 带宽
附带1个 Plesk License
6.95美元

在 Ubuntu 上安装和配置 Xen

服务器硬盘已经升级了,还在等内存,内存是和硬盘一起订的货不知道怎么还没到,终于发现前天 RAID 0 的测试结果为什么不正常,因为有个硬盘有问题,昏~新买的刚拆包装的硬盘居然就有问题。现在大多数 SUN 服务器上只有 2GB-8GB 的内存,升级后应该达到 8GB-32GB,这样就可以给每个 Xen 虚拟机更多的内存了。我们有一些操作系统还是32位的,现在也必须升级到64位以应付大内存的到来。今天在一台 Sun Fire X2200 M2 上最小化安装64位的 Ubuntu,升级更新后开始安装和配置 Xen. 下面的安装步骤和配置过程基于 Ubuntu 9.04 Server 版本,CentOS 版本可以参看:在 CentOS 上安装和配置 Xen,Debian 版本可以参看:在 Debian 上安装和配置 Xen,OpenSolaris 版本参看:在 OpenSolaris 上安装和配置 Xen,NetBSD 版本参看:在 NetBSD 上安装和配置 Xen.

安装 Xen

安装支持 Xen 的相关工具:

$ sudo apt-get install ubuntu-xen-server

下载和安装支持 Xen 的 Linux 内核:

http://security.debian.org/debian-security/pool/updates/main/l/linux-2.6/linux-modules-2.6.26-2-xen-amd64_2.6.26-17lenny2_amd64.deb
http://security.debian.org/debian-security/pool/updates/main/l/linux-2.6/linux-image-2.6.26-2-xen-amd64_2.6.26-17lenny2_amd64.deb

$ sudo dpkg -i linux-modules-2.6.26-2-xen-amd64_2.6.26-17lenny2_amd64.deb 
$ sudo dpkg -i linux-image-2.6.26-2-xen-amd64_2.6.26-17lenny2_amd64.deb

安装成功后,检查 Xen 内核是否已经装好:

$ sudo vi /boot/grub/menu.lst

...
title       Xen 3.3 / Ubuntu 9.04, kernel 2.6.26-2-xen-amd64
root        (hd0,0)
kernel      /xen-3.3.gz
module      /vmlinuz-2.6.26-2-xen-amd64 root=/dev/mapper/nvidia_igcjceec3 ro console=tty0
module      /initrd.img-2.6.26-2-xen-amd64
...

重启系统后检查一下是否是 Xen 的内核以及 Xen 是否启动:

$ uname -r
2.6.26-2-xen-amd64

$ sudo xm list
Name                                        ID   Mem VCPUs      State   Time(s)
Domain-0                                     0  1879     2     r-----      6.6

创建和安装 guest

如果把正在运行的 Xen 内核的操作系统看成 host 的话,那么运行在 host 上面的操作系统就可以看成 guest。先建一个目录用来存放所有的 guest 操作系统的 image,vm01.img,vm02.img,等等,1个 guest 对应1个 image. 使用 xen-create-image 后会在 /vm 下生成以 hostname 命名的目录,这个目录下会有 vm01.vpsee.com/disk.img,vm01.vpsee.com/swap.img 两个镜像文件。

$ sudo mkdir /vm

$ sudo xen-create-image --hostname=vm01.vpsee.com \
--ip=172.16.39.101 --gateway=172.16.38.1 --netmask=255.255.254.0  \
--dist=feisty --mirror=http://archive.ubuntu.com/ubuntu --size=10gb \
--memory=512mb --swap=512mb --arch=amd64 --dir=/vm \
--boot --passwd --role udev --dir=/etc/xen --force

可以根据需要调整 /etc/xen-tools/xen-tools.conf

进入 guest

安装成功后就可以登录 guest 了,

$ sudo xm console vm01

如果要退出 guest 的话,用 Ctrl + ],就会回到 host。

如果想每次启动 host 时自动启动 guest 的话:

$ sudo ln -s /etc/xen/vm01 /etc/xen/auto

更懒的办法

如果觉得安装 guest 操作系统太麻烦,可以到 http://stacklet.com/ 下载一个已经装好的镜像文件,调整 Xen guest 的配置文件,然后在 host 下启动 guest 镜像就可以了。

$ wget http://stacklet.com/sites/default/files/ubuntu/
ubuntu.9-04.x86-64.20090514.img.tar.bz2

$ tar jxvf ubuntu.9-04.x86-64.20090514.img.tar.bz2
$ sudo mv ubuntu.9-04.x86-64.xen3.pygrub.cfg /etc/xen/ubuntu.9-04.cfg
$ sudo vi /etc/xen/ubuntu.9-04.cfg
$ sudo mv ubuntu.9-04.x86-64.img /vm/ubuntu.9-04.img

$ sudo xm create -f ubuntu.9-04.cfg
Using config file "/etc/xen/ubuntu.9-04.cfg".
Error: Device 2049 (vbd) could not be connected. Failed to find an unused loop device

$ sudo vi /etc/modules
loop max_loop=64

$ sudo xm list
$ sudo xm console ubuntu.9-04

从 http://stacklet.com/ 下载的镜像文件的初始用户名和密码为:root/password

增加 swap

如何给 guest 系统(domU)增加 swap,这里有介绍。

用 SDAC 测试 SunRay 服务器的负载

上周在 Linux 上配置和简单测试了一下 Sun Ray Server Software (SRSS 4.2) ,并摸清了一些 Sun Ray 服务器的硬件配置要求后,这周开始把 Sun Ray Server 引入生产环境,在用户生产应用以前 VPSee 觉得还是需要再测一下,模拟大量用户终端登录,看看服务器、客户端的效果以及 Linux 下的 SRSS 会不会出问题。

如何模拟多个用户登录呢?在 Windows 上可以使用 Sun Desktop Access Client (SDAC) 软件来连接 SunRay Server,SDAC 实际上是 SunRay 瘦客户端的软件实现,其功能和 SunRay 瘦客户端基本一样。现在的问题就是如何在一个 Windows 上建立50-100个 SDAC 连接以便模拟出50-100个瘦客户端用户。

配置 SunRay 服务器软件

1、首先需要配置 policy,否则的话 SunRay 客户端软件(SDAC)会报错,错误号:47 Access for Sun Desktop Access Clients is disabled by default:

# /opt/SUNWut/sbin/utpolicy -a -g -z both -u pseudo
# /opt/SUNWut/sbin/utrestart

配置 SunRay 客户端软件

2、下载和安装 SDAC,SDAC 目前只有 Windows 版本,登录服务器后界面如下:

sun desktop access client on windows

3、在 Windows 上(这里用的是 Vista)修改 C:\Users\VPSee\AppData\Roaming\Sun\SDAC\default,删除以 DSAKey= 开头的一行,如:DSAKey=zFWoaDJPBLeCBXspye05KH5x0W,保存文件。

4、运行 cmd.exe,进入 C:\Users\VPSee\AppData\Roaming\Sun\SDAC 目录后拷贝50个文件:

FOR /L %i in (0,1,50) DO copy default SDAC%i.txt

测试

5、使用刚才创建的50个配置文件启动 SDAC 并连接 SunRay Server,需要注意的是每个 SDAC 连接大约消耗 15MB 左右的内存,2GB 内存的机器可以尝试创建100个配置文件、建立100个连接。进入 C:\Program Files\Sun\Sun Desktop Access Client 目录后运行:

FOR /L %i in (0,1,50) DO SDAC.exe --profile SDAC%i.txt 172.16.38.1

6、手动一个个登录,每个终端都启动几个应用程序看一下,并查看服务器状况。

可以在服务器上看看有多少客户端连进来:

# /opt/SUNWut/bin/utwho -Hac

utdesktop

TheSRV:$6.99 128MB OpenVZ VPS

thesrv

TheSRV 是一家英国 VPS 服务商,GBServers Ltd 的一个分支。whois 查询显示 thesrv.com 域名今年6月份才注册。公司太新,网上没有评论可以参考,VPS 也不是很便宜,不过他们家这周有 special,第一个月 80% 的 off. VPS 配置如下:

服务器在 Colostore Datacentre, Chicago
自制控制面板
7GB 硬盘
128MB Guaranteed RAM,256MB Burstable RAM
100GB 带宽
2个 IP
6.99美元

RAID 0 和 RAID 1 的性能

raid0

上个星期订购的硬盘到了,8个 Seagate 500GB SATA 2 硬盘用来升级几台 SUN 服务器,替换上面的几个 250GB 老硬盘。VPSee 一直在服务器上用的是 RAID 10 和 RAID 5,传说中 RAID 0 的 IO 性能有很大提高,VPSee 对 RAID 0 的 IO 性能向往已久,今天刚好有多余的硬盘,可以测试一下。理论上来说,RAID 0 实现了一个线性的磁盘阵列,数据被切分成块(blocks)后分别写入各自硬盘,分散了 IO 负载,IO 性能会有很大提高,如果磁盘阵列里的每个磁盘控制器都只对应一个硬盘,充分分散 IO,那么 IO 性能应该更好。今天的测试结果发现不管是硬件 RAID 0 还是软件 RAID 0 性能都很差,差得自己都不能解释,理论上双硬盘 RAID 0 的性能应该是无 RAID 0的2倍,VPSee 的实际测试数据结果刚好相反,无 RAID 0 的性能是有 RAID 0 的2倍。测试结果还显示硬件 RAID 和 软件 RAID 性能接近,这一点很好解释,测试用的是 SunFire X2100 M2 服务器,上面自带的是 Nvidia RAID,被称为 “FakeRAID”,FakeRAID 其实也是一种软件实现,和 Software RAID 一样都会消耗 CPU,其性能和 Software RAID 相似不奇怪。

10月15日更新:10月13日测试结果显示不带 RAID 0 的性能比带 RAID 0 的还好得多,原因查明是因为其中的一个硬盘有问题,没料到没拆封的新硬盘居然还会有故障,导致先前的测试环境不公平,测试的结果无法合理解释。换了硬盘重新测试硬件 RAID 0,新的测试结果显示 RAID 0 的 IO 性能有较大提高,与理论相符;软件 RAID 1 用 CPU 模拟 RAID 功能,导致系统负载(load average)保持较高状态,和理论相符。(下面的数据已经更新)

双硬盘 + 普通挂载

无 RAID 0 测试也是设置的两块硬盘,一个硬盘用来装系统,另外一个硬盘挂上去。分别用 hdparm,bonnie++,iozone 测试:

# /sbin/hdparm -Tt /dev/sda
/dev/sda:
 Timing cached reads:   4076 MB in  2.00 seconds = 2036.86 MB/sec
 Timing buffered disk reads:  162 MB in  3.00 seconds =  53.97 MB/sec

# ./bonnie++
Version 1.03e ------Sequential Output------ --Sequential Input- --Random-
                    -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine  Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
bang       4G 63786  98 68561  64 33488  16 35061  80 100811  19 232.2   0
              ------Sequential Create------ --------Random Create--------
              -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
        files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
           16 +++++ +++ +++++ +++ +++++ +++ +++++ +++ +++++ +++ +++++ +++
bang,4G,63786,98,68561,64,33488,16,35061,80,100811,19,232.2,0,16,+++++,+++,+++++,+++,+++++,+++,+++++,+++,+++++,+++,+++++,+++

# ./iozone -s 100M
                                                  random  random    bkwd   record   stride                                   
    KB  reclen   write rewrite    read    reread    read   write    read  rewrite     read   fwrite frewrite   fread  freread
102400       4  340155  508979   586930   599212  566258  520126  534720   590170   563886   320739   433341  528295   520245

双硬盘 + 硬件 RAID 0(FakeRaid)

分别用 hdparm,bonnie++,iozone 测试:

# /sbin/hdparm -tT /dev/mapper/nvidia_igcjceec3
/dev/mapper/nvidia_igcjceec3:
 Timing cached reads:   1766 MB in  2.00 seconds = 883.57 MB/sec
 Timing buffered disk reads:  374 MB in  3.01 seconds = 124.24 MB/sec

# ./bonnie++
Version 1.03e ------Sequential Output------ --Sequential Input- --Random-
                    -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine  Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
bang       4G 58566  92 116851  66 50132  30 27333  86 149623  35 364.4   1
              ------Sequential Create------ --------Random Create--------
              -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
        files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
           16 +++++ +++ +++++ +++ +++++ +++ +++++ +++ +++++ +++ +++++ +++
bang,4G,58566,92,116851,66,50132,30,27333,86,149623,35,364.4,1,16,+++++,+++,+++++,+++,+++++,+++,+++++,+++,+++++,+++,+++++,+++

# ./iozone -s 100M
                                                  random  random    bkwd   record   stride                                   
    KB  reclen   write rewrite    read    reread    read   write    read  rewrite     read   fwrite frewrite   fread  freread
102400       4  149748  507946   937291   798155  792109  399647  852672   524171   802494   254962  1249892 1514190  1291883

双硬盘 + 软件 RAID 1(Software RAID)

分别用 hdparm,bonnie++,iozone 测试,系统负载 load average 居高不下:

# /sbin/hdparm -tT /dev/sda
/dev/sda:
 Timing cached reads:   2236 MB in  2.00 seconds = 1118.92 MB/sec
 Timing buffered disk reads:   86 MB in  3.05 seconds =  28.19 MB/sec

# ./bonnie++
Version 1.03e ------Sequential Output------ --Sequential Input- --Random-
                    -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine  Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
bang       16G  4735  10  4831   2  4117   1 18128  50 48536   7 344.5   1
               ------Sequential Create------ --------Random Create--------
               -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
        files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
           16 17649  47 +++++ +++ +++++ +++ +++++ +++ +++++ +++ +++++ +++
bang,16G,4735,10,4831,2,4117,1,18128,50,48536,7,344.5,1,16,17649,47,+++++,+++,+++++,+++,+++++,+++,+++++,+++,+++++,+++

# ./iozone -s 100M
                                                  random  random    bkwd   record   stride                                   
    KB  reclen   write rewrite    read    reread    read   write    read  rewrite     read   fwrite frewrite   fread  freread
102400       4  285771  558272   910466  1622948 1803419  919134 1026424  1561120  1785501   327527   768025 1131377  1174904

Linux 发行版的选择

linux os components

最近常收到网友来信,大部分是关于 VPS 的,然后就是关于 Linux 版本的选择问题,这里 VPSee 集中回复一下,以后就不必每封信都回一遍了:)每个 Linux 版本都有自己的特点,没有一个 Linux 发行版比另外一个更好,只有合适不合适的问题、喜欢不喜欢的问题。Linux 发行版的选择和个人喜好有很大关系,讨论发行版就好像讨论菜系一样,有的人喜欢川菜,有的人喜欢粤菜。就像编程语言战争一样,关于这种类似宗教的比较,我们已经有很多例子了,比如:Fedora vs Ubuntu,Linux vs Freebsd,Windows vs Linux,MacOS X vs Vista,Mac vs PC,GNOME vs KDE,C++ vs Java,Python vs Ruby,Django vs Rails,VC vs Delphi,MySQL vs Postgres,Nginx vs Lighttpd,Vi vs Emacs,RAID10 vs RAID 5,……

现在主流的几个 Linux 发行版本都是非常棒的系统,主要可以分为几个系:RHEL/Fedora/CentOS 系,Debian/Ubuntu 系,SLES/openSUSE 系,Gentoo 系,Slackware/Arch 系。它们都是由同样的 Linux kernel,Shell,GNU tools,加上一系列的工具组合起来的(如图所示),本质上都是一样的,Fedora 上的 bash 和 Ubuntu 上的 bash 难道不同吗?Debian 上的 gcc 难道和 openSUSE 上的 gcc 不一样吗?就算不同也是 bash/gcc 版本的不同。所以选择发行版其实在选择不同发行版本的组合方式以及不同的软件包管理方式而已。

选择一个发行版选择背后的社区很重要,特别是一个友好并且活跃的社区能提供大量有价值的支持和帮助、文档更丰富、应用程序更多、厂商支持更多、遇到问题的人更多、回应的人也更多。选择发行版时还有一点要考虑的就是对特殊软件的支持,大多 Linux 上的商业软件都支持 RHEL 版本,有的只支持 RHEL,所以如果必须要用到这样的商业软件,选择 RHEL/CentOS 会轻松一些,对于这些的特殊应用,需要特别的考虑,比如 VPSee 最近在配置的 Sun Ray Server Software 只有 Solaris/RHEL/SLES 版本可供下载,虽然 Sun Ray Software 也可以装在 Ubuntu/Debian 上,但是要麻烦一些。

如果想挑一个发行版而对自己的选择没有信心的话,可以看看世界500强超级计算机使用的操作系统,这些超级计算机的厂商、系统管理员和决策人员都是一流的系统大师,都是经过深思熟虑、规划、测试才选定某个操作系统、某个发行版来部署超级计算机的,不会像桌面用户一样不爽了删了重装。这些 Linux 发行版连几千、几万个 CPU 的超级计算机都搞定了,难道还不能搞定小小的服务器?以下数据来自:Top 500 Super Computer Sites.

操作系统版本 使用的个数 所占百分比 处理器个数
Linux(未知版本) 387 77.40 % 1905658
SLES 9 5 1.00 % 62576
CNK/SLES 9 25 5.00 % 1232896
SUSE Linux 2 0.40 % 28160
Redhat Linux 4 0.80 % 48800
RedHat Enterprise 4 3 0.60 % 14736
UNICOS/SUSE Linux 2 0.40 % 46400
SLES 10 4 0.80 % 17866
SLES10 + SGI ProPack 5 16 3.20 % 139264
RedHat Enterprise 5 1 0.20 % 8256
CentOS 5 1.00 % 25784

Host Our Web:$10 512MB Xen VPS

hostourweb

Host Our Web 推出了很便宜的基于 Xen 的 VPS,512MB 的 Xen VPS 只要10美元。Host Our Web 在这里公开了自己服务器的 uptime 状态信息,可以看出 Host Our Web 目前只有两台服务器,只有1个人在运作,每个月有10分钟到2小时左右的 downtime,总体上来说每个月 uptime 都在 99.6% 以上,whois 显示域名是在2008年2月注册的。VPS 配置如下:

服务器在 Scranton PA
自制控制面板
19.5GB 硬盘
512MB RAM,500MB SWAP
300GB 带宽
10美元

服务器信息:

each server uses dual quad core intel processors, each node has no more then 15 customers and we have never had an issue with CPU usage.

Proaxxs:$7.99 512MB OpenVZ VPS

proaxxs

Proaxxs 1999年从一家消费类电子公司独立出来进入 hosting 行业,主要面对本地客户,至今仍是一家小公司,强调为客户提供高质量的专业服务。随便搜了一下,发现网上好评还是挺多的,尤其是很多人推荐他们家的 dedicated servers. 不过要注意的是他们家的 VPS 每个月只提供2小时的免费技术支持,1小时内回复,6小时内解决问题。VPS 配置如下:

Webmin 控制面板
10GB 硬盘
512MB Guaranteed RAM
500GB 带宽
2 IPs
7.99美元

网络信息:

To provide the best possible service to our customers, we deploy our servers in three different world class data centers – All located in the USA. Each offers multiple connections to the internet with redundant systems in the event of any problems. All using Tier 1 bandwidth.

由 SunRay 耗电量想到的

sunray2

最近一直在忙 SunRay 的事情,在学校部署 SunRay 服务器、虚拟化环境和 SunRay 瘦客户机解决方案。VPSee 渐渐体会到这种 ”瘦客户端+服务器“ 方案的巨大优势,感觉这种传统的 ”服务器中心“ 的计算模式又回来了,省心、省钱、省力。SunRay 瘦客户机方案已经问世多年,现在 SunRay 配上 Sun VDI 把虚拟技术带到了瘦客户端,SunRay 发现在这种虚拟化的环境下有更多的优势。国外企业很善于抓住这些能降低成本的技术和机会,相反国内企业还是 PC + Windows 天下,真正的虚拟技术、绿色节能计算、瘦客户端等的应用还是很少,总是跟不上技术的潮流。今天看了一下 SunRay 的参数,惊讶的发现 SunRay 耗电只有 4W,比一台 PC 节能多了,马上想到的就是每年能节省多少电费。除了节能,SunRay 还有什么优点呢?

零维护

如果一家企业有500台左右 PC,对于 IT 人员来说,“防范病毒、确保安全性、打补丁、升级、重装系统、安装软件、换硬件、开机箱、选购硬件、订货、维修”,这些工作十分耗费精力,而且枯燥乏味;对于企业来说,管理这些 PC 不仅十分昂贵,而且还耗费时间、人力,极大增加了企业的运营成本;对用户来说,病毒感染、数据丢失最可怕,把数据存在服务器上由 IT 人员管理备份更省心省力。相反,维护500个 SunRay 就容易多了,IT 人员只需要坐在那里管理好几台服务器就可以了,不用跑到用户那里解决电脑故障,而且服务器是 Solaris/Linux 系统,麻烦更少。有人做过统计,维护每个 Sun Ray 平均每年只需30分钟,而维护每台 PC 却需要12小时。

低成本

算一下初始成本,假设 500 PC VS 500 SunRay,每台 SunRay 200美元(包括 License)、每台服务器4000美元(Solaris/Linux 操作系统免费),每台 PC 450美元(Windows 操作系统算50美元)。SunRay 和 PC 都需要相同的显示器、鼠标、键盘等外设,所以这些价格不计算在内。

500 × 200 + 4000 × 6 = 124000美元
500 × 450 = 225000美元

上面只是初始化硬件设备支出,考虑到 IT 人员的人力成本,维护6台 SunRay 服务器只需要1个系统管理员,维护500台 PC至少需要5个管理员。

静音

静音对于有的企业、学校实验室、图书馆、呼叫中心等很重要。100台 PC 的实验室,风扇、硬盘噪音加在一起,恐怕老师讲话都听不见,SunRay 没有声音。

节能

SunRay 的耗电量仅有 4W,这意味着什么?意味着企业每年可以节省更多的费用。用下面的公式来算算电费,

(每小时耗电量瓦特 x 使用的小时数 / 1000) x 每小时每千瓦费用 = 总费用

假设 500 PC VS 500 SunRay,每个 SunRay 每小时耗费 4W,每台 PC 耗电 100W(平均,采用普通模式,不考虑高负荷运算,不考虑不同处理器节能能力,不考虑睡眠、屏保节能状态等),每天按使用10小时计算(很多人下班后不关电脑),每年按270天计算(除去节假日,有时候还需要加班)每度企业用电按0.76RMB 计算(不同地区不同时期费用不同):

500 × 4 × 10 × 270 / 1000 × 0.76 = 4104 RMB
500 × 100 × 10 × 270 / 1000 × 0.76 = 102600 RMB

对于拥有几万台电脑的大型企业、学校、政府机构来说这是一笔巨大的支出,这也是为什么现在 IT 巨头纷纷投资开发绿色节能计算的原因,他们可不是为了地球更美好,以前可是一个劲推更高更快更强大的处理器,丝毫没提到节能。Google 也在为它的几百万台服务器开发太阳能数据中心。

安全

SunRay 用一张 Smart 卡就可以完全实现客户在任何终端随时登录,随时随地无缝集成,数据不必拷来拷去,安全可靠,对电信、银行、呼叫中心、宾馆、医院、学校等多终端的环境极其适用

Linux 下的推荐分区方案

调查了 Sun Ray 服务器的硬件配置要求以后,VPSee 开始着手安装一台新服务器,从别的项目组扒了一台 SUN Fire X2200,4核的 Quad-Core AMD Opteron Processor 2218 2.6GHz,8GB DDR2-667 ECC 内存,250GB SATA 2 的硬盘,没多余的硬盘做不了 RAID 10,先用1个硬盘凑合。这台机器只做 Sun Ray Server 不做别的,所以分区简单没有用更灵活的 LVM,服务器分区如下:

/boot (100MB)
boot 分区用来存放 Linux 内核,100MB 足够了。

/ (5GB)
root 分区用来存放系统主要文件、程序等。CentOS/RHEL 5 最小安装需要 3GB,全安装(安装所有包)需要 5GB,所以给 5GB 应该够了。

/var (5GB)
var 分区通常包括一些日志、临时文件、运行时目录等,推荐 3GB 以上,5GB 应该够了。

/home
home 分区包含所有用户的数据,需要最多的硬盘空间,剩下的空间都分给它。

swap
上个世纪的时候,VPSee 看过的几乎所有 Linux 系统管理的书上都推荐设置交换分区大小为内存的2倍。这些建议到了现在就是那么适用了,现在的服务器动不动就是 16GB/32GB 内存,难道相应的交换分区也要扩大到 32GB/64GB?根据 OpenBSD 的安装建议

Many people follow an old rule of thumb that your swap partition should be twice the size of your main system RAM. This rule is nonsense. On a modern system, that’s a LOT of swap, most people prefer that their systems never swap. You don’t want your system to ever run out of RAM+swap, but you usually would rather have enough RAM in the system so it doesn’t need to swap. If you are using a flash device for disk, you probably want no swap partition at all. Use what is appropriate for your needs.

再看看 RHEL 5 推荐的 swap 分区大小

Swap should equal 2x physical RAM for up to 2 GB of physical RAM, and then an additional 1x physical RAM for any amount above 2 GB, but never less than 32 MB. For systems with really large amounts of RAM (more than 32 GB) you can likely get away with a smaller swap partition (around 1x, or less, of physical RAM).

上面说的是一般情况,在安装系统的时候很难决定多大的交换空间,往往需要根据服务器实际负载、运行情况、以及未来可能应用来综合考虑 swap 分区的大小,所以这里参考推荐最小 swap 大小更实际一些:

  • 4GB 或 4GB 以下内存的系统,最小需要 2GB 交换空间;
  • 大于 4GB 而小于 16GB 内存的系统,最小需要 4GB 交换空间;
  • 大于 16GB 而小于 64GB 内存的系统,最小需要 8GB 交换空间;
  • 大于 64GB 而小于 256GB 内存的系统,最小需要 16GB 交换空间。