Ruby Ring Technologies:$9.95 512MB OpenVZ VPS

rubyringtech

Ruby Ring Technologies,一家来自拉斯维加斯的小 hosting 服务商,基本上 web hosting, reseller, vps, semi dedicated, dedicated 业务什么都做。VPSee 发现一个有趣的事情,那些专业 VPS 公司,如:Linode, SliceHost;专业 dedicated hosting 公司,如:Rackspace, SoftLayer, The Planet;专业 shared hosting 公司:Bluehost 等都只做一种业务,反而这些 one man, two men 服务商什么都做,好像他们人很多、资源很足似的:),一两个人精力有限啊,什么都想做往往什么都做不好。很喜欢 Unix 的风格:Do one thing and do it well,又扯远了~~他们家现在用优惠码 lowendbox 的话半价,只要4.98美元每月,最近5美元左右的 512MB OpenVZ VPS 很多啊,比如前几天的 SimpleRack:$5 512MB OpenVZ VPSHazeNET:$4.8 512MB OpenVZ VPS. 他们的 VPS 使用 HyperVM 控制面板,服务器在 Dallas 数据中心,使用 Softlayer 的服务器,这也解释了为什么他们能给这么充足的流量(10Mbit 无限),Softlayer 的服务器就不用介绍了,服务和稳定性都很赞、流量也给的很足。他们的域名是2007年注册的,也是从 shared hosting 业务开始做的。VPS 配置如下:

512MB RAM
1GB Burst
10GB 硬盘
10Mbit 不限流量
1个 IP
9.95美元

无服务器硬件信息。

在 XenServer 上用 ISO 安装虚拟机

Citrix XenServer 是企业级面向云计算的虚拟平台,有 XenServer, Essentials for XenServer, Enterprise Edition 和 Platinum Edition 三种版本,其中 XenServer 是免费的,和 VMware ESXi 是同级别的竞争产品。XenServer 的安装过程和 VMware ESXi 一样容易,安装完后界面如下。和 VMware ESXi 类似,主要的操作和配置都可以在一个另外一台装有 XenCenter 客户端的机器上完成(和 VMware vShpere Client 一样)。

xenserver

和 VMware ESXi 有点不同的是,XenServer 不能在 XenCenter 客户端管理界面里直接导入 iso 后安装操作系统,需要先把这些 iso 预存到另一台机器上,然后用 NFS 的方式访问。所以我们先在其他的机器开设一个 iso 目录并收集一些 iso 文件,用 NFS 导出这个 iso 目录,然后在 XenServer 服务器上手动把这个目录挂上,这样才能在 XenServer 和 XenCenter 管理界面里看到所有的 iso 文件,也就是说 XenServer 鼓励你把 iso 文件分开存储到另外一台单独服务器以方便管理,对下面的 NFS 操作不清楚的话可以参考 在 CentOS 上安装和配置 NFS 4.0

# vi /etc/export
/home/vpsee/iso 172.16.240.164(rw,sync,no_root_squash) \
172.16.240.164(rw,sync,no_root_squash)

# /etc/init.d/portmap restart
# /etc/init.d/nfs restart

在 NFS 服务器上设置权限,允许 XenServer 服务器访问 NFS:

# vi /etc/hosts.deny
portmap:ALL

# vi /etc/hosts.allow
portmap:172.16.240.0/255.255.254.0

用 ssh 登录 XenServer 后挂在 NFS 服务器上的目录:

$ ssh [email protected]
[email protected]'s password:

# xe-mount-iso-sr 172.16.240.10:/home/vpsee/iso

成功挂载后,在 XenCenter 控制台上(目前 XenCenter 只有 Windows 版本)就可以看到所有的 iso 了:

xencenter

剩下就好办了,有了 iso 就可以直接安装操作系统了,注意如果机器 CPU 不支持全虚拟(Intel VT 或 AMD SVM)的话会导致安装失败、报错:

xenserver-imtxsji: HVM is required for this operation

INVALID_SOURCE - Unable to access a required file in the specified repository:
file:///timp/cdrom-repo-RZ1Yem/install.386/xen/vmlinuz.

如果是这样的话就只能通过网络(Install from URL)安装半虚拟系统了。

HazeNET:$4.8 512MB OpenVZ VPS

hazenet

HazeNET 开业优惠 40% OFF,使用优惠码 HAZELAUNCH 的话原价8美元的 512MB VPS 现在只要4.8美元,如果年付的话只要3.6美元每月,简直就是给小白的白菜价,不怕做小白的可以冲啊~~这是家英国服务商,主数据中心在美国的 Kansas City,服务器租用/托管部分在 Wholesale Internet 机房,部分在 Sentris Network 机房,这两个都是比较有名的低价机房,稳定性还可以,基本上靠自助,硬件不出事没关系,出点问题就要看运气了,有时候技术支持反应会很慢,一些低价 VPS 服务商都是用这家机房和服务器。他们的 VPS 配置很高端,从 512MB 起步,每个 VPS 都配置4核 CPU,使用 SolusVM 控制面板。根据 LowEndBox 上面的评论,这家服务商的服务反应挺快也很热心,只是服务器/机房不太稳定,甚至有1天 down 2次的情况,可能订购的人太多了,one man 忙不过来了吧。VPS 配置如下:

512MB RAM
1GB Burst
20GB 硬盘
250GB 流量
1个 IP
4.8美元

服务器硬件信息:

we use Core2Quads (You wont always get a q9550, but a similar Core2Quad CPU), that carry 8GB RAM each (max supported by that CPU), hard drives are dual 500GBs in RAID 1. we are getting in an i7 920 and an 8 core Xeon very soon.

计算 SMP IRQ Affinity

前天我们讨论了如何绑定特定的硬件中断到特定的 CPU 上,分散和平衡各个中断到不同的 CPU 上以获取更大性能的处理能力。上篇限于篇幅的关系,没有来得及进一步说明 “echo 2 > /proc/irq/90/smp_affinity” 中的 ”2“ 是怎么来的,这其实是个二进制数字,代表 00000010,00000001 代表 CPU0 的话,00000010 就代表 CPU1, “echo 2 > /proc/irq/90/smp_affinity” 的意思就是说把 90 中断绑定到 00000010(CPU1)上。所以各个 CPU 用二进制和十六进制表示就是:

               Binary       Hex 
    CPU 0    00000001         1 
    CPU 1    00000010         2
    CPU 2    00000100         4
    CPU 3    00001000         8

如果我想把 IRQ 绑定到 CPU2 上就是 00000100=4:

# echo "4" > /proc/irq/90/smp_affinity

如果我想把 IRQ 同时平衡到 CPU0 和 CPU2 上就是 00000001+00000100=00000101=5

# echo "5" > /proc/irq/90/smp_affinity

需要注意的是,在手动绑定 IRQ 到 CPU 之前需要先停掉 irqbalance 这个服务,irqbalance 是个服务进程、是用来自动绑定和平衡 IRQ 的:

# /etc/init.d/irqbalance stop

还有一个限制就是,IO-APIC 有两种工作模式:logic 和 physical,在 logic 模式下 IO-APIC 可以同时分布同一种 IO 中断到8颗 CPU (core) 上(受到 bitmask 寄存器的限制,因为 bitmask 只有8位长。);在 physical 模式下不能同时分布同一中断到不同 CPU 上,比如,不能让 eth0 中断同时由 CPU0 和 CPU1 处理,这个时候只能定位 eth0 到 CPU0、eth1 到 CPU1,也就是说 eth0 中断不能像 logic 模式那样可以同时由多个 CPU 处理。

Linux 多核下绑定硬件中断到不同 CPU(IRQ Affinity)

硬件中断发生频繁,是件很消耗 CPU 资源的事情,在多核 CPU 条件下如果有办法把大量硬件中断分配给不同的 CPU (core) 处理显然能很好的平衡性能。现在的服务器上动不动就是多 CPU 多核、多网卡、多硬盘,如果能让网卡中断独占1个 CPU (core)、磁盘 IO 中断独占1个 CPU 的话将会大大减轻单一 CPU 的负担、提高整体处理效率。VPSee 前天收到一位网友的邮件提到了 SMP IRQ Affinity,引发了今天的话题:D,以下操作在 SUN FIre X2100 M2 服务器+ 64位版本 CentOS 5.5 + Linux 2.6.18-194.3.1.el5 上执行。

什么是中断

中文教材上对 “中断” 的定义太生硬了,简单的说就是,每个硬件设备(如:硬盘、网卡等)都需要和 CPU 有某种形式的通信以便 CPU 及时知道发生了什么事情,这样 CPU 可能就会放下手中的事情去处理应急事件,硬件设备主动打扰 CPU 的现象就可称为硬件中断,就像你正在工作的时候受到 QQ 干扰一样,一次 QQ 摇头就可以被称为中断。

中断是一种比较好的 CPU 和硬件沟通的方式,还有一种方式叫做轮询(polling),就是让 CPU 定时对硬件状态进行查询然后做相应处理,就好像你每隔5分钟去检查一下 QQ 看看有没有人找你一样,这种方式是不是很浪费你(CPU)的时间?所以中断是硬件主动的方式,比轮询(CPU 主动)更有效一些。

好了,这里又有了一个问题,每个硬件设备都中断,那么如何区分不同硬件呢?不同设备同时中断如何知道哪个中断是来自硬盘、哪个来自网卡呢?这个很容易,不是每个 QQ 号码都不相同吗?同样的,系统上的每个硬件设备都会被分配一个 IRQ 号,通过这个唯一的 IRQ 号就能区别张三和李四了。

在计算机里,中断是一种电信号,由硬件产生,并直接送到中断控制器(如 8259A)上,然后再由中断控制器向 CPU 发送信号,CPU 检测到该信号后,就中断当前的工作转而去处理中断。然后,处理器会通知操作系统已经产生中断,这样操作系统就会对这个中断进行适当的处理。现在来看一下中断控制器,常见的中断控制器有两种:可编程中断控制器 8259A 和高级可编程中断控制器(APIC),中断控制器应该在大学的硬件接口和计算机体系结构的相关课程中都学过。传统的 8259A 只适合单 CPU 的情况,现在都是多 CPU 多核的 SMP 体系,所以为了充分利用 SMP 体系结构、把中断传递给系统上的每个 CPU 以便更好实现并行和提高性能,Intel 引入了高级可编程中断控制器(APIC)。

光有高级可编程中断控制器的硬件支持还不够,Linux 内核还必须能利用到这些硬件特质,所以只有 kernel 2.4 以后的版本才支持把不同的硬件中断请求(IRQs)分配到特定的 CPU 上,这个绑定技术被称为 SMP IRQ Affinity. 更多介绍请参看 Linux 内核源代码自带的文档:linux-2.6.31.8/Documentation/IRQ-affinity.txt

如何使用

先看看系统上的中断是怎么分配在 CPU 上的,很显然 CPU0 上处理的中断多一些:

# cat /proc/interrupts 
           CPU0       CPU1       
  0:  918926335          0    IO-APIC-edge  timer
  1:          2          0    IO-APIC-edge  i8042
  8:          0          0    IO-APIC-edge  rtc
  9:          0          0   IO-APIC-level  acpi
 12:          4          0    IO-APIC-edge  i8042
 14:    8248017          0    IO-APIC-edge  ide0
 50:        194          0   IO-APIC-level  ohci_hcd:usb2
 58:      31673          0   IO-APIC-level  sata_nv
 90:    1070374          0         PCI-MSI  eth0
233:         10          0   IO-APIC-level  ehci_hcd:usb1
NMI:       5077       2032 
LOC:  918809969  918809894 
ERR:          0
MIS:          0

为了不让 CPU0 很累怎么把部分中断转移到 CPU1 上呢?或者说如何把 eth0 网卡的中断转到 CPU1 上呢?先查看一下 IRQ 90 中断的 smp affinity,看看当前中断是怎么分配在不同 CPU 上的(ffffffff 意味着分配在所有可用 CPU 上):

# cat /proc/irq/90/smp_affinity 
7fffffff,ffffffff,ffffffff,ffffffff,ffffffff,ffffffff,ffffffff,ffffffff

在进一步动手之前我们需要先停掉 IRQ 自动调节的服务进程,这样才能手动绑定 IRQ 到不同 CPU,否则自己手动绑定做的更改将会被自动调节进程给覆盖掉。如果想修改 IRQ 90 的中断处理,绑定到第2个 CPU(CPU1):

# /etc/init.d/irqbalance stop

# echo "2" > /proc/irq/90/smp_affinity

(上面的 echo “2” 是怎么来的?为什么是 ”2“?请参考这篇:计算 SMP IRQ Affinity)过段时间在看 /proc/interrupts,是不是 90:eth0 在 CPU1 上的中断增加了(145)、在 CPU0 上的中断没变?不断打印 /proc/interrupts 就会发现 eth0 在 CPU0 上的中断数始终保持不变,而在 CPU1 上的中断数是持续增加的,这正是我们想要的结果:

# cat /proc/interrupts 
           CPU0       CPU1       
  0:  922506515          0    IO-APIC-edge  timer
  1:          2          0    IO-APIC-edge  i8042
  8:          0          0    IO-APIC-edge  rtc
  9:          0          0   IO-APIC-level  acpi
 12:          4          0    IO-APIC-edge  i8042
 14:    8280147          0    IO-APIC-edge  ide0
 50:        194          0   IO-APIC-level  ohci_hcd:usb2
 58:      31907          0   IO-APIC-level  sata_nv
 90:    1073399        145         PCI-MSI  eth0
233:         10          0   IO-APIC-level  ehci_hcd:usb1
NMI:       5093       2043 
LOC:  922389696  922389621 
ERR:          0
MIS:          0

有什么用

在网络非常 heavy 的情况下,对于文件服务器、高流量 Web 服务器这样的应用来说,把不同的网卡 IRQ 均衡绑定到不同的 CPU 上将会减轻某个 CPU 的负担,提高多个 CPU 整体处理中断的能力;对于数据库服务器这样的应用来说,把磁盘控制器绑到一个 CPU、把网卡绑定到另一个 CPU 将会提高数据库的响应时间、优化性能。合理的根据自己的生产环境和应用的特点来平衡 IRQ 中断有助于提高系统的整体吞吐能力和性能。

VPSee 经常收到网友来信问到如何优化 Linux、优化 VPS、这个问题不太好回答,要记住的是性能优化是一个过程而不是结果,不是看了些文档改了改参数就叫优化了,后面还需要大量的测试、监测以及持续的观察和改进。

SimpleRack:$5 512MB OpenVZ VPS

simplerack

SimpleRack 原价需要19美元的 512MB VPS 使用优惠码 5VPS 后只要5美元,那可是相当的便宜。他们家还有一个优惠码 30OFF,使用后所有 VPS 打7折,不过没有 5VPS 那个优惠码划算。他们的 VPS 使用 SolusVM 控制面板,自己拥有服务器、机柜和网络设备,并托管在 Kansas City 的 Joe’s Datacenter 机房。这家服务商可能也是 one man,他们的域名是去年4月份注册的,根据 linkedin 上的查询得知这家服务商的创办人2008年拿到 Red Hat Certified Engineer 认证,没有提到学位和大学,也没有什么闪光点。题外话:建议正在找工作的童鞋千万不要把这种 MCSE, CCNA, RHCE, SUN 认证写到简历上,业内人士一看就知道是怎么回事,这种认证就是浪费时间、精力和金钱,是用来骗非专业人士的,简历上最好多写写自己参与的开源项目,这一点非常重要,尤其是想去好公司的话。这家公司创办人2009年5月份还开了一家 Trower Hosting Service, LLC 公司,现在这家公司的网站打不开好像是关门了,难道是做不下去了换个名字(Simple Rack, Inc)和域名重新开始?VPS 配置如下:

512MB RAM
1GB Burst
30GB 硬盘
700GB 流量
1个 IP
5美元

网络设备信息:

Our robust and scalable network utilizes only routing and switching products from industry-leaders Cisco Systems and Juniper Networks. We use Juniper M-series routers in our border routing layer and Juniper EX4200 and Cisco 3750 series switch stacks in our core switching and aggregation layer.

备份 WordPress 博客到 Dropbox

有很多用户在我们的 VPS 上搭建了 WordPress 博客,出于成本的考虑,我们不对 VPS 做任何备份,数据中心里额外的最普通的 FTP 存储每 10GB 至少10美元每月,备份一个 256MB 10GB 的 VPS 就要10美元每月,这个价格可以再买一个 VPS 呢,我相信我们和我们的用户都无法承受这个价格。但是备份又是一件非常重要的事情,所以一个折衷的办法就是采用第三方某种形式的免费网络存储来做选择性的备份,比如用 Gmail 备份数据库文件、用 Dropbox 备份小博客或者购买其他服务商那种只要4美元的 OpenVZ VPS 来做备份等。

WordPress 有个 wp Time Machine 插件可以将 wp-content 下的所有内容和数据库整体打包,然后备份到 Dropbox, Amazon S3 或者 FTP 服务器上。本来想这个 wp Time Machine 插件肯定有很多人在用了,再写一篇博客有点浪费,让人惊讶的是 VPSee 在 Google 上搜索 ”wp Time Machine 插件“ 却没有发现一篇相关的中文介绍。使用和设置 wp Time Machine 非常容易,对于 vpsee.com 的读者群和玩 VPS 的用户来说完全不用详细介绍:D

在 WordPress->Settings->wp Time Machine 里设置 wp Time Machine:

backup wordpress blog to dropbox

上传到 Dropbox 后:

backup wordpress blog to dropbox

谢谢 “我就是 Dianso” 博主的提示,这个插件有安全问题,会在 wp-content 中保留备份的包,任何人都可以根据 wp-content/wpTimeMachine-archive.tar.gz 下载这个包并得到 wordpress 的数据库文件,所以上传到 DropBox 后不要忘了在 wp-content 里删除这个文件。

在 CentOS 上安装和配置 KVM

RedHat 的下一代旗舰产品 RedHat Enterprise Linux 6 将只包含 KVM,这一点 RedHat 官方已经在很久以前、在不同场合都确认过,也可以从 RHEL 6 的 Beta 版本中得到证实。KVM 发展很快,稳定性有了很大提高,随着 RHEL 6 的正式到来,KVM 应用到生产环境的日子应该不远了。VPSee 曾经测试过 KVM,也看过一些 KVM 的学术论文,在网络性能、扩展、稳定性方面 KVM 不如 Xen,这些因素是做 VPS 的关键,所以现在很少看到 KVM VPS,不知道 RHEL 6 以后会不会多起来,目前 KVM 应用比较少的还有一个原因就是对硬件要求高(CPU 需要 Intel VT 或 AMD SVM 的支持),硬件发展速度很快,以后应该不会有这个问题。由于 KVM 支持全虚拟,所以可以在上面安装各类操作系统,和 Xen HVM 一样。在 VPSee 看来,KVM 更适合做桌面一些,Xen 更适合做数据中心解决方案。以下操作在 SUN Fire X2100 服务器和 CentOS 5.5 上完成。对 OpenVZ 和 Xen 感兴趣的童鞋可以看:在 CentOS 上安装和配置 OpenVZ在 CentOS 上安装和配置 Xen.

检查 CPU

和 Xen 不同,KVM 需要有 CPU 的支持(Intel VT 或 AMD SVM),在安装 KVM 之前检查一下 CPU 是否提供了虚拟技术的支持:

# egrep 'vmx|svm' /proc/cpuinfo
flags		: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca 
cmov pat pse36 clflush mmx fxsr sse sse2 ht syscall nx mmxext fxsr_opt 
rdtscp lm 3dnowext 3dnow pni cx16 lahf_lm cmp_legacy svm 
extapic cr8_legacy
flags		: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca 
cmov pat pse36 clflush mmx fxsr sse sse2 ht syscall nx mmxext fxsr_opt 
rdtscp lm 3dnowext 3dnow pni cx16 lahf_lm cmp_legacy svm 
extapic cr8_legacy

安装 KVM

安装 KVM 所需要的软件包:

# yum install kvm kmod-kvm qemu kvm-qemu-img virt-viewer virt-manager \
libvirt libvirt-python python-virtinst

或者

# yum groupinstall KVM

安装完后重启系统,然后确认一下是否安装成功:

# reboot

# lsmod | grep kvm
kvm_amd                69416  0 
kvm                   226208  1 kvm_amd

# ls -l /dev/kvm 
crw-rw---- 1 root kvm 10, 232 Jun 25 15:56 /dev/kvm

安装虚拟机

用 virt-install 安装,这里以安装 FreeBSD 8.0 为例,os-variant 可以选择 freebsd7:

# virt-install \
--name freebsd \
--ram 512 \
--vcpus=1 \
--disk path=/home/vpsee/freebsd.img,size=4 \
--network network:default \
--os-variant=freebsd7 \
--accelerate \
--cdrom /home/vpsee/8.0-RELEASE-i386-disc1.iso \
--vnc

如果需要获得 virt-install 命令的更多选项和参数,可以查看在线帮助:

# man virt-install

用 virt-viewer 打开控制台连上 FreeBSD 的安装界面:

# virt-viewer freebsd

也可以直接用 virt-manager 图形化安装,安装过程很简单,KVM 中没有 Xen dom0, domU 的概念,更容易理解和使用,任何用过 VMware 和 VirtualBox 的人都会很容易上手,启动 virt-manager 图形界面创建一个虚拟机,创建硬盘、配置内存网络、指定安装光盘 iso 等,一步一步傻瓜操作:

# virt-manager

Tips

安装完 KVM 和上面的 FreeBSD 以后,以后就可以通过 virsh 命令行工具来启动、关闭、重启、进入控制台的工具来操作虚拟机了,就和在 Xen 里使用 xm 一样:

# virsh --connect qemu:///system
start freebsd
console freebsd
quit

如果你在客户端使用 Mac 或者 Linux 的话,而且没有 vnc viewer 之类的工具的话,可以直接用 ssh 和 X 连接到正在安装 FreeBSD 的那个控制台上:

# ssh -X -C [email protected]
# virt-viewer freebsd

freebsd kvm console

K-Disk:$3.99 128MB OpenVZ VPS

k-disk

K-Disk 自称是 “a leader in providing reseller hosting services”,reseller hosting 大小服务商有几百家,如果是 leader 的话大家应该至少听过吧,这是老外的一种表达方式,也是难理解的地方,一方面老外对数据、信誉、引用、版权等非常在意其真实性,一方面明目张胆的夸大一个 “非” 事实。如果听到老外别人夸自己,这样的表达其实更多的是一种鼓励,如果是老外夸自己则通常表示一种自豪感,不管怎么样老外夸奖都不要当真。这不是废话,因为 VPSee 在这里介绍的都是国外的 VPS,所以难免大家会遇到和老外沟通的地方,如何与 VPS 服务商有效沟通很重要。老外的表达方式和文化更多的是鼓励为主,所以建议大家在和国外的 VPS 服务商打交道的时候多说说谢谢,老外技术人员解决了问题的时候多说说 great, wonderful, well done, good job,多给别人一些鼓励,好听的话多说一些自己办事也好办一些。他们家的 VPS 采用 SolusVM 控制面板,这款 VPS 只能通过 WHT 上的连接购买到,有效期是7月1日以前,这款 VPS 可以在以后随时升级到其他配置的 VPS,他们官网上的几款 VPS 都较贵。他们的机房在纽约的 Turn-Key 数据中心,公司是在2007年创立的,已经运转两年多了。VPS 配置如下:

128MB RAM
256MB Burst
5GB 硬盘
50GB 流量
1个 IP
3.99美元

服务器硬件配置信息:

All of our custom servers contain a Genuine Intel Atom Dual-Core that is running at 1.6Ghz. Atoms are not just for netbooks anymore, They work very well for Web Hosting. All of our custom servers have a Minimum of 2 GB of 800 MHz RAM.

把简单的事情做好就是不简单

周末花时间对 VPS 的产品页面做了重新设计,参照了 Web 2.0 的设计风格:简单、简洁、专注,试图借助 Web 2.0 的典型设计元素,简洁的风格、大图标、大字体、大胆的颜色等来表达我们对产品的理念:简单。用户和读者来我们博客的目的是来看文章的,所以 vpsee.com 的设计一切都是为了看文方便,没有乱七八糟的排版、没有飘来飘去的广告、没有混头转向的导航条、没有多余的日历和插件,⋯⋯,同样的,对于我们的 VPS 产品,我们也力求简单,不需要填写一堆表单、不需要透露信用卡和个人信息、不需要阅读一堆条款、不需要等待24小时、不需要依赖 ticket 来处理问题、只需要一个 Email 和我们沟通就可以开通 VPS、实时解决可能遇到的问题。如果有用户认同 Unix 哲学(Do one thing and do it well.),KISS 风格(Keep it Simple, Stupid.)和 Google 的不作恶(Don’t be evil.)的话,那一定会对我们的运作方式和产品感兴趣,嗯,我们喜欢简单。

vpsee vps plans new look

我们的 VPS 产品和设计深受 Getting Real 的启发,Getting Real 是由 37signal 及 RoR 创始人 DHH(DHH 也是 37signal 的合伙人之一)撰写的,网上有免费版本可以在线阅读,书的篇幅不长,讲述了如何成功运营一个互联网产品,这本书对那些从事互联网工作的人来说会非常有帮助。轻装上阵,就是这本书讲的主题,精简的人员和组织结构、简洁的产品设计、精炼的代码、学会说不,还有就是要快,先上线运作起来再说,剩下的再慢慢改进,持续不断的改进。强烈推荐这本书给我们一些在 VPS 上做互联网产品、网站的用户。

曾经有句话是这么说的,把简单的事情做好就是不简单,我们打算做好简单的事情。