服务器虚拟在我的 lab 中是必选项,管理控制器端 RHEVM 安装在主服务的一个虚拟机里面。在主服务器上使用 targetcli 做了一个 iscsi 的共享存储。使用这个命令可以方便的实现 iscsi 设备。把最终的存储文件放在了 SSD 盘上的一个 100GB 的瘦制备文件上。 [bash] ╭─root@w540 ~ ╰─$ targetcli targetcli shell version 2.1.fb37 Copyright 2011-2013 by Datera, Inc and others. For help on commands, type ‘help’.
/> ls o- / …………………………………………………………………………………………………………. […] o- backstores ……………………………………………………………………………………………….. […] | o- block …………………………………………………………………………………….. [Storage Objects: 0] | o- fileio ……………………………………………………………………………………. [Storage Objects: 1] | | o- iscsi1 ………………………………………………………. [/root/iscsi01.img (100.0GiB) write-back activated] | o- pscsi …………………………………………………………………………………….. [Storage Objects: 0] | o- ramdisk …………………………………………………………………………………… [Storage Objects: 0] o- iscsi ……………………………………………………………………………………………… [Targets: 1] | o- iqn.2003-01.org.linux-iscsi.w540.x8664:sn.82939fa1cd49 …………………………………………………… [TPGs: 1] | o- tpg1 ………………………………………………………………………………….. [no-gen-acls, no-auth] | o- acls ……………………………………………………………………………………………. [ACLs: 0] | o- luns ……………………………………………………………………………………………. [LUNs: 1] | | o- lun0 …………………………………………………………………… [fileio/iscsi1 (/root/iscsi01.img)] | o- portals ………………………………………………………………………………………. [Portals: 1] | o- 0.0.0.0:3260 ……………………………………………………………………………………….. [OK] o- loopback …………………………………………………………………………………………… [Targets: 0] /> [/bash]
以上 iscsi 的存储配置参考:https://access.redhat.com/solutions/894163
如果需要让所有的节点都能无障碍访问 iscsi 存储,就需要把 acl 设置为允许所有节点访问。使用下面这个命令
[bash] /> iscsi/iqn.2003-01.org.setup.lun.test/tpg1/ set attribute authentication=0 demo_mode_write_protect=0 generate_node_acls=1 cache_dynamic_acls=1
Parameter demo_mode_write_protect is now ‘0’.
Parameter authentication is now ‘0’.
Parameter generate_node_acls is now ‘1’.
Parameter cache_dynamic_acls is now ‘1’.
/> ls
o- / ……………………………………………………………………… […]
o- backstores ……………………………………………………………. […]
| o- block …………………………………………………. [Storage Objects: 0]
| o- fileio ………………………………………………… [Storage Objects: 0]
| o- pscsi …………………………………………………. [Storage Objects: 0]
| o- ramdisk ……………………………………………….. [Storage Objects: 1]
| o- test1 ……………………………………….. [nullio (100.0MiB) activated]
o- iscsi ………………………………………………………….. [Targets: 1]
| o- iqn.2003-01.org.setup.lun.test …………………………………….. [TPGs: 1]
| o- tpg1 …………………………………………………. [gen-acls, no-auth]
| o- acls ………………………………………………………… [ACLs: 0]
| o- luns ………………………………………………………… [LUNs: 1]
| | o- lun0 …………………………………………………. [ramdisk/test1]
| o- portals …………………………………………………… [Portals: 1]
| o- 12.12.12.1:3260 ……………………………………………….. [iser]
o- loopback ……………………………………………………….. [Targets: 0]
o- srpt …………………………………………………………… [Targets: 0]
/> saveconfig
Last 10 configs saved in /etc/target/backup.
Configuration saved to /etc/target/saveconfig.json
/> exit
Global pref auto_save_on_exit=true
Last 10 configs saved in /etc/target/backup.
Configuration saved to /etc/target/saveconfig.json [/bash]
RHEVM 的安装过程非常简洁,基本用 Satellite 配置了一下它所需要的 repos,做好视图,然后就推送给了一个 kvm 虚拟机,使用 pxe 安装好之后就行了。
RHEVM 需要的 repos 和基本的安装命令: [bash]
subscription-manager repos –enable=rhel-6-server-rpms
subscription-manager repos –enable=rhel-6-server-supplementary-rpms
subscription-manager repos –enable=rhel-6-server-rhevm-3.5-rpms
subscription-manager repos –enable=jb-eap-6-for-rhel-6-server-rpms
subscription-manager repos –enable=rhel-6-server-rhevh-rpms
yum install rhevm rhevm-dwh rhevm-reports
engine-setup
[/bash]
回答完 engine-setup 的所有问题就可以登录风格统一的黑底色的 RHEM 界面了。实际上有三个登录界面:用户的,管理员,和报表的。
下面需要安装跑虚拟机的 Hypervisor 了,RHEV 的 Hypervisor 有两种,一种是精简话的裁剪 rhel 版本叫做 RHEVH(偏向 vshpere 的做法),还有一种就是 rhel 的标准版,然后安装 Hypervisor 相关的包(偏向 OpenStack 的做法)。下面我会安装第二种做法。目的是:我有两台相同配置的计算节点,我希望把动态的变更他们的功能;一会做 RHEV 虚拟机的演示,一会做 OpenStack nova 的演示。
用了一个组合视图安装了这两个服务器虚拟化节点。组合视图里如下所示: 如上图所示:1)视图 1 是基础的 RHEL 操作系统 repo;2)视图 2 是 RHEV 相关的 repos 视图,其中包括了安装 RHEVM 和 host 的所有需要的 repo。考激活秘钥控制每个 repo 的默认是否开启,它们对安装后的 os 可见,但是默认并不是开启的,因此,我设置 rhevm 和 jboss 为默认关闭的,由于安装 rhev host 的情况比较多,需要安装 rhevm 的话,可以手动 enable 这需要的 repos 即可。
目前由于没有安装 OpenStack 环境,所以没有 Glance 服务,因此 iso 镜像只能暂时放在了 dis06 的一个服务器虚拟化 Hypervisor 节点上,目前是临时的方案,回头一定把 iso 放到 Glance 服务上 host。
下面上传一个 iso 之后就可以创建虚拟机了。 [bash] [root@rhevm03 ~]# engine-iso-uploader –iso-domain=iso-dis06 upload /tmp/turnkey-jenkins-13.0-wheezy-amd64.iso Please provide the REST API password for the admin@internal oVirt Engine user (CTRL+D to abort): Uploading, please wait… ERROR: mount.nfs: Connection timed out
[/bash]
由于这个命令上传不成功,也不想排错了;到目前这个状态其实就可以在 Satellite 里面使用 RHEV 的资源提供者的方式来安装虚拟机了,如下图所示:
手动创建 RHEV 虚拟机 1:通过 New Host 设置相关参数。选择 Deploy on 为 rhevm03(rhevm),这个配置让 sat6 去联系 RHEVM,rhevm 的配置信息必须提前输入到 sat6 中。然后还要在 sat6 中设置虚拟机的三种规格,就是 Computer profile 中的选项,这个选项确定了 cpu,ram,磁盘和网络等信息。剩下的就是最重要的 Lifecycle Evn 和 Puppet Env 了,这两个选项确定把系统安装为标准的 rhel6 的核心最小化安装。当然可以一次性完成某种应用的全套安装和配置。
手动创建 RHEV 虚拟机 2:通过 Virtual Machine 参数可以看到 1,2,3 都来自标准的规格配置,如果需要手动修改的话,可以在这里修改,这里可以看到默认的存储是 w540-iscsi-lun0 这个之前在 RHEVM 里面配置好的 iscsi 存储。
手动创建 RHEV 虚拟机 3:点击提交之后,sat6 就开始了实时创建 rhev 虚拟机的过程,sat6 使用 REST API 告诉 RHEVM 这些信息,然后 RHEVM 再确定使用哪个 Hypervisor 来建立并运行虚拟机。
问题来了:如果需要在 RHEV 资源池里建立 n 个相同配置的虚拟机,管理员该如何操作?
在 sat6 里面,管理员重复以上操作,当然需要手动操作 n 次。这样是不是很麻烦,确实很麻烦!!如何解决?这就需要一种能够实现 Orchestration 功能的工具来做,也就是自动化编排工具。这种工具最好是统一的能够跨异构资源池的,能够满足如下需求:今天企业可能是纯的 vshpere 的虚拟化环境,接下来企业有可能引入其他服务器虚拟化资源池技术,如:RHEV,Hyper-V;在以后还可能引入 OpenStack 资源池。那么这种自动化编排工具和底层的类似 satellite6 的(标准化部署工具)必须形成一个统一的平台来操作所有异构的资源池。也就是说:在 Orchestration 工具中统一管理异构资源池,并配合标准化部署工具,实现 workload 的标准化自动化部署。红帽的 Orchestration 工具是 CloudForms。它能够对接业内所有流行的资源池,如下图所示:
上图是 Satellite 的上层 Orchestration 的能力,底层必须还有标准化的部署工具支持,也就是 Satellite6,它对以上基础架构类型的支持情况,如下图所示:
使用 CloudForms 做上层 Orchestration 的调度,必须依赖于底层的 workload 的标准化,标准化到什么程度,从虚拟机供给的角度可以参考 Amazon AWS 的 EC2 的实际案例。如下图所示:
AWS 服务的我曾研究过一点,上图的全图下载点这里 –> aws-服务-脑图
以上所有是 Martin’s Lab 的搭建的一部分,下周可能去一个银行客户演示。需要做的优化还很多,请关注后续更新。