KVM计算虚拟化原理,偏基础。KVM计算虚拟化原理,偏基础。

Technorati 标签:
云计算,虚拟化

Technorati 标签:
云计算,虚拟化

本文基于网上的素材整理而成。

正文基于网上的材料整理而改为。

第一章 服务器虚拟化概述

第一章 服务器虚拟化概述

1.1 为什么用服务器虚拟化

假定物理机上单独安排一种植工作,资源利用率太没有,不便于节省本钱。如果说生区域用利用物理机来保证平稳,对于开发测试区使用虚拟机不但可以节省有限的物理机资源,还可飞达标线。

1.1 为什么要服务器虚拟化

倘若物理机上只有布置一栽业务,资源利用率太没有,不便民省资金。如果说生区域要使用物理机来保证安居,对于开发测试区使用虚拟机不但可以节约有限的物理机资源,还可快直达丝。

1.2 虚拟化发展历史

  • 提出概念:1959年6月提出,在列国信息处理大会上登载之《大型高速计算机中的年月共享》论文被提出
  • 开发技术:20世纪60年代开始,IBM操作系统虚拟化技术应用在了大型机和微型机上
  • 蓬勃发展:20世纪90年份,VMware公司率先实现了X86劫持构上的虚拟化,于1999年出了x86平台及之首先磨蹭虚拟化商业软件VMware
    workstation。
  • 群雄逐鹿:更多之厂商在了虚拟化技术之师

第二章 服务器虚拟化

服务器虚拟化主要发生些许种办法:

  • 硬件虚拟化:通过Hypervisor层虚拟出硬件系统环境,将硬件系统CPU发出的吩咐经过处理后传至大体CPU上。

硬件虚拟化的关键在于Hypervisor层。

所谓Hypervisor层就是当大体服务器和操作系统中运行的软件层,可以本着拟硬件系统,将顺序对是硬件系统CPU发送的通令经过处理以后,加以虚拟传到物理CPU上。同时它可以协调访问服务器上之情理设备和虚拟机,也让虚拟机监视器(VMM
)。

  • 容器:只是虚拟化出以运行时的环境,是比较轻量的虚拟化,层次较浅。

1.2 虚拟化发展历史

  • 提出概念:1959年6月提出,在国际信息处理大会上刊之《大型高速计算机中的辰共享》论文被提出
  • 开发技术:20世纪60年代开始,IBM操作系统虚拟化技术运用在了大型机和袖珍机上
  • 蓬勃发展:20世纪90年代,VMware公司先是落实了X86劫持构上的虚拟化,于1999年出产了x86平台及之第一款虚拟化商业软件VMware
    workstation。
  • 群雄逐鹿:更多的厂商在了虚拟化技术的大军

第二章 服务器虚拟化

服务器虚拟化主要有少栽方式:

  • 硬件虚拟化:通过Hypervisor层虚拟出硬件系统环境,将硬件系统CPU发出之授命经过处理后传至大体CPU上。

硬件虚拟化的关键在于Hypervisor层。

所谓Hypervisor层就是在情理服务器和操作系统中运行的软件层,可以针对法硬件系统,将先后对斯硬件系统CPU发送的指令经过处理后,加以虚拟传到物理CPU上。同时其可协调访问服务器上之物理设备及虚拟机,也给虚拟机监视器(VMM
)。

  • 容器:只是虚拟化出利用运行时之环境,是于轻量的虚拟化,层次较浅。

2.1 服务器虚拟化架构

  • 裸金属架构:Hypervisor层直接运行于硬件系统上。典型事例是KVM。KVM其实就是Linux内核供的虚拟化架构,可将基本直接当Hypervisor,KVM一般需处理器本身支持虚拟化扩展技术,如Intel
    VT等。KVM使用内核模块kvm.ko来兑现核心虚拟化功能,但是单纯提供了CPU和内存的虚拟化,必须做QEMU才能够整合完整的虚拟化技术。

必威 1

  • 宿主架构:典型的虽是QEMU,它可以通过二进制转换来法CPU,使Guest
    OS认为好还跟硬件打交道。
    必威 2

2.1 服务器虚拟化架构

  • 裸金属架构:Hypervisor层直接运行于硬件系统及。典型例证是KVM。KVM其实就算是Linux内核供的虚拟化架构,可将本直接担任Hypervisor,KVM一般用处理器本身支持虚拟化扩展技术,如Intel
    VT等。KVM使用内核模块kvm.ko来兑现核心虚拟化功能,但是仅仅供了CPU和内存的虚拟化,必须做QEMU才能够做完整的虚拟化技术。

必威 3

  • 宿主架构:典型的哪怕是QEMU,它好经过二进制转换来效仿CPU,使Guest
    OS认为好再同硬件打交道。
    必威 4

2.2 CPU虚拟化

经过的施行有有限种状态

  • 外核态:主要用来硬件访问,修改要参数,
  • 故而户态:用户运行应用程序。

区区栽状态的权限不同,对硬件的访必须在内核态,可以保证系统的可靠性,只叫采用人员开用户态,不会见针对OS的运行带来格外的影响。避免系统给人工攻击。

OS内核数据及代码区应该跟用户区完全切断,也就是说程序可以视底地方都是为此户态地址,当程序执行系统调用的时光,进程会切入内核态进行基本访问,这页表也待切换至外核态的页表,带来的题材是性质于差。因为页表在内存中,切换会带来性能的下挫。

故此时主流的OS的做法是将根本代码和数据区放到用户进程虚拟地址控制器的高位区,32bit系统放到3~4G,windows默认占用2~4G区,64bit系统也在高位。这样带来的功利是,进程空间的内核区也让射到大体内存区,进程的切换不见面促成TLB中前缓存的对准内核区页表失效,保证了性。

事实上进程是无法访问内核区,因为强行访问的言辞,页表条目有权限位(进程时权限保存在寄存器的CPL字段,为Ring3,而根本页表的权柄为Ring0,所以CPU会禁止访问。)

小结一下即便是x86 架构提供四单特权级别为操作系统及应用程序来拜访硬件。
Ring 是据 CPU 的运行级别,Ring 0凡最高级别,Ring1糟的,Ring2更浅的……

  • 根本需要一直看硬件及内存,因此她的代码用周转于高运行级别
    Ring0上,这样它们可以采用特权指令以控制中断、修改页表、访问设备等等。
  • 应用程序的代码运行在低运行级别及Ring3达,如何如看磁盘,那便待实行系统调用,此时CPU的运行级别会生起ring3交ring0的切换,并超过反至网调用对应的本代码位置执行,这样基本就也而成功了配备看,完成后再也由ring0返回ring3。此历程吧如打算户态和内核态的切换。

必威 5

对于非虚拟化操作系统而言,应用程序和体系发出的日常指令都运行于用户级别指令中,只有特权指令运行于着力级别中,这样操作系统及利用解耦合。

那么,虚拟化在这边就碰到了一个难题,因为物理机OS是做事在 Ring0
的,虚拟机的操作系统就是不能够啊于 Ring0
了,所以有的特权指令是绝非履行权的

CPU虚拟化的方就是是

  • 特权解除:让Guest
    OS运行于用户级别,让hypervisor运行于中心级别,这样就败了Guest
    OS的特权级别。
  • 沦为模拟:运作在Guest
    OS的屡见不鲜指令像过去相同运行,当运行及特权指令时,会发出大并为hypervisor捕获。
    必威 6

那难在:

  • 何以模拟x86保护模式
  • 争堵住并施行虚拟机的Ring0指令。
    解决方式如下

2.2 CPU虚拟化

经过的履有半点种状态

  • 内核态:主要用以硬件访问,修改重点参数,
  • 所以户态:用户运行应用程序。

片栽状态的权位不同,对硬件的拜访必须在内核态,可以保证系统的可靠性,只吃使用人员开用户态,不会见针对OS的运转带来大之影响。避免系统让人工攻击。

OS内核数据与代码区应该同用户区完全隔离,也就是说程序可以见到的地方都是用户态地址,当程序执行系统调用的时段,进程会切入内核态进行基本访问,这页表也急需切换至内核态的页表,带来的问题是性比不同。因为页表在内存中,切换会带来性能的减退。

因而时主流的OS的做法是将基本代码和数据区放到用户进程虚拟地址控制器的高位区,32bit系统放到3~4G,windows默认占用2~4G区,64bit系统也在高位。这样拉动的功利是,进程空间的内核区也让射到大体内存区,进程的切换不见面招TLB中之前缓存的针对内核区页表失效,保证了性。

实际进程是无法访问内核区,因为强行访问的口舌,页表条目有权限位(进程时权限保存在寄存器的CPL字段,为Ring3,而基本页表的权力为Ring0,所以CPU会禁止访问。)

总一下不怕是x86 架构提供四单特权级别为操作系统和应用程序来聘硬件。
Ring 是依靠 CPU 的运作级别,Ring 0凡是最高级别,Ring1软的,Ring2复糟糕的……

  • 基础需要直接看硬件及内存,因此她的代码需要周转于嵩运行级别
    Ring0上,这样它好用特权指令以控制中断、修改页表、访问设备等等。
  • 应用程序的代码运行在低运行级别及Ring3及,如何使看磁盘,那便待实行系统调用,此时CPU的运作级别会有打ring3交ring0的切换,并超过反至系统调用对应之基础代码位置执行,这样基本就吧您完了了装备看,完成以后又由ring0返回ring3。斯进程为称打算户态和内核态的切换。

必威 7

对非虚拟化操作系统而言,应用程序和体系发出的通常指令都运作于用户级别指令中,只有特权指令运行于基本级别中,这样操作系统及用解耦合。

那,虚拟化在此虽撞了一个难题,因为物理机OS是做事于 Ring0
的,虚拟机的操作系统就是不克啊于 Ring0
了,所以有些特权指令是未曾尽权的

CPU虚拟化的措施就是是

  • 特权解除:让Guest
    OS运行于用户级别,让hypervisor运行于基本级别,这样即使解除了Guest
    OS的特权级别。
  • 沦为模拟:运作在Guest
    OS的平凡指令像过去一样运行,当运行至特权指令时,会生很并受hypervisor捕获。
    必威 8

那么困难在于:

  • 什么样模拟x86保护模式
  • 怎么堵住并施行虚拟机的Ring0指令。
    釜底抽薪方式如下
2.2.1 CPU虚拟化技术解决智
  • 全虚拟化:客户操作系统运行于 Ring
    1,它在实施特权指令时,会触发异常,然后
    hypervisor捕获这个大,在很里面做翻译,最后回来到客户操作系统内,客户操作系统认为自己之特权指令工作健康,继续运行。所以啊叫二进制翻译技术(Binary
    Translate)。
    只是这个特性损耗大的大,简单的一致漫长指令现在可使经过复杂的死处理过程
    必威 9

    • 亮点:不用修改GuestOS内核可以一直使用
    • 缺陷:在VMM捕获特权指令和翻译过程会促成性的降低。
      必威 10
      自上图可以观看,当虚拟机中之采取要运行在内核态的上,会经Hypervisor层的拟,通过二进制翻译技术,将指令替换为另外的命令。
  • 半虚拟化:修改操作系统内核,替换掉不能够虚拟化的下令,通过顶尖调用(hypercall)直接与脚的虚拟化层hypervisor来报道,
    相对于意虚拟化性能再强,因为省去了翻译的长河。但是急需针对Guest
    OS进行改动,应用场景不多。
    必威 11
  • 硬件辅助虚拟化: 2005年晚,CPU厂商Intel 和 AMD 开始支持虚拟化了。
    Intel 引入了 Intel-VT (Virtualization Technology)技术
    一言九鼎的落实方式是充实了一个VMX
    non-root操作模式,运行VM时,客户机OS运行在non-root模式,依然时有发生Ring0~ring3等级别
    当运行特权指令时还是出中断的时段,通过VM_EXIT就好切换到root模式,拦截VM对虚拟硬件的拜访。执行了,通过VM_ENTRY回到non-root即可。
    必威 12
    这种技能主要代表吧intel VT-X,AMD的AMD-V
    必威 13

全虚拟化

半虚拟化

硬件辅助虚拟化

实现技术

BT和直接执行

Hypercall

客户操作系统修改/兼容性

无需修改客户操作系统,最佳兼容性

客户操作系统需要修改来支持hypercall,因此它不能运行在物理硬件本身或其他的hypervisor上,兼容性差,不支持Windows

性能

好。半虚拟化下CPU性能开销几乎为0,虚机的性能接近于物理机。

应用厂商

VMware Workstation/QEMU/Virtual PC

Xen

KVM 是基于CPU
赞助的全虚拟化方案,它用CPU虚拟化特性的支撑。
总结:
必威 14

2.2.1 CPU虚拟化技术解决智
  • 全虚拟化:客户操作系统运行在 Ring
    1,它以实行特权指令时,会接触异常,然后
    hypervisor捕获这个很,在老里面做翻译,最后回到到客户操作系统内,客户操作系统认为好之特权指令工作正常,继续运行。所以呢给二进制翻译技术(Binary
    Translate)。
    唯独是特性损耗大之百般,简单的一律久指令现在却要经过复杂的不行处理过程
    必威 15

    • 亮点:不用修改GuestOS内核可以一直行使
    • 缺陷:在VMM捕获特权指令和翻译过程会促成性的落。
      必威 16
      自从上图可以观看,当虚拟机中之采取要运行在内核态的上,会透过Hypervisor层的法,通过二进制翻译技术,将指令替换为外的吩咐。
  • 半虚拟化:修改操作系统内核,替换掉不能够虚拟化的命,通过超级调用(hypercall)直接与脚的虚拟化层hypervisor来报道,
    相对于意虚拟化性能再胜,因为省去了翻的长河。但是需要对Guest
    OS进行修改,应用场景不多。
    必威 17
  • 硬件辅助虚拟化: 2005年晚,CPU厂商Intel 和 AMD 开始支持虚拟化了。
    Intel 引入了 Intel-VT (Virtualization Technology)技术
    第一的实现方式是加了一个VMX
    non-root操作模式,运行VM时,客户机OS运行在non-root模式,依然有Ring0~ring3等级别
    当运行特权指令时或发中断的时光,通过VM_EXIT就可切换到root模式,拦截VM对虚拟硬件的拜访。执行完毕,通过VM_ENTRY回到non-root即可。
    必威 18
    这种技能主要代表为intel VT-X,AMD的AMD-V
    必威 19

全虚拟化

半虚拟化

硬件辅助虚拟化

实现技术

BT和直接执行

Hypercall

客户操作系统修改/兼容性

无需修改客户操作系统,最佳兼容性

客户操作系统需要修改来支持hypercall,因此它不能运行在物理硬件本身或其他的hypervisor上,兼容性差,不支持Windows

性能

好。半虚拟化下CPU性能开销几乎为0,虚机的性能接近于物理机。

应用厂商

VMware Workstation/QEMU/Virtual PC

Xen

KVM 是基于CPU
帮的全虚拟化方案,它用CPU虚拟化特性的支撑。
总结:
必威 20

2.3 内存虚拟化原理

外存虚拟化指的凡共享物理系统内存,动态分配给虚拟机。虚拟机的内存虚拟化很象虚拟内存方式

虚拟内存是电脑体系内存管理的平等种植技术,目的是深受应用程序认为其具有连续的可用的内存(一个连完整的地点空间)。其实就是操作系统将内存资源的虚拟化,屏蔽了外存调用之细节,对应用程序而言,不欲关注内存访问的细节,可以将内存当作线性的内存池。

x86 CPU 都席卷了一个叫做内存管理之模块MMU(Memory Management Unit)和
TLB(Translation Lookaside Buffer),通过MMU和TLB来优化虚拟内存的习性。

OS将内存以4KB为单位展开分页,形成虚拟地址和物理地址的映射表。要OS在物理机上运行,只要OS提供者页表,MMU会于访存时自动开虚拟地址(Virtual
address, VA)到大体地址(Physical address, PA)的转会。

唯独只要虚拟机上运行OS,Guest
OS经过地方转化及的“物理地址”实际上是QEMU的逻辑地址,因此还亟需采取软件以那个转会为真物理内存地址

对此OS运行于大体机上的景

必威 21

若果经过看内存的时,发现映射表中还尚无物理内存进行相应。如下图

必威 22

这时候MMU向CPU发出缺页中断,操作系统会依据页表中之外存地址,在外存中找到所短的平等页,将那调入内存。同时创新页表的投关系。产同样差走访的时段可以直接命中物理内存。

必威 23

对此OS在虚拟机中之景象,过程将复杂很多。

对此虚拟机内的过程的易,需要进行两次转换。也就是说首先将使的逻辑地址转换为虚拟机的大体地址,而立实则是QEMU进程的逻辑地址,所以要是投到骨子里内存的物理地址还用举行相同破变。

必威 24

  • VA:应用之虚拟地址
  • PA:虚拟机物理地址,也是QEMU进程的逻辑地址
  • MA:物理机的物理地址

可见,KVM
为了以同一高机械上运行多只虚拟机,需要加一个初的外存虚拟化层,也就是说,必须虚拟
MMU 来支持客户OS,实现 VA -> PA -> MA 的翻。

客户操作系统继续控制虚拟地址到客户内存物理地址之映射 (VA ->
PA),但是客户操作系统不克一直看实际机器内存,因此VMM
需要担映射客户物理内存到实际机器内存 (PA -> MA)。

必威 25

VMM 内存虚拟化的落实方式:

  • 软件方式:通过软件实现内存地址的翻译,比如 Shadow page table
    (影子页表)技术
  • 硬件实现:基于 CPU 的援虚拟化功能,比如 AMD 的 NPT 和 Intel 的 EPT
    技术

2.3 内存虚拟化原理

外存虚拟化指的是共享物理系统内存,动态分配给虚拟机。虚拟机的内存虚拟化很象虚拟内存方式

虚拟内存是电脑体系内存管理的平种技术,目的是让应用程序认为它们有着连续的可用之内存(一个连接完整的地址空间)。其实就是操作系统将内存资源的虚拟化,屏蔽了内存调用之细节,对应用程序而言,不需要关爱内存访问的细节,可以拿内存当作线性的内存池。

x86 CPU 都囊括了一个称内存管理之模块MMU(Memory Management Unit)和
TLB(Translation Lookaside Buffer),通过MMU和TLB来优化虚拟内存的性。

OS将内存以4KB为单位开展分页,形成虚拟地址和情理地址之映射表。倘OS在物理机上运行,只要OS提供这页表,MMU会以走访存时自动开虚拟地址(Virtual
address, VA)到大体地址(Physical address, PA)的转折。

可只要虚拟机上运行OS,Guest
OS经过地方转化及之“物理地址”实际上是QEMU的逻辑地址,因此还得动用软件以那转化为真正物理内存地址

对OS运行在大体机上的情

必威 26

如若经过看内存的早晚,发现映射表中尚从未物理内存进行对应。如下图

必威 27

这儿MMU向CPU发出缺页中断,操作系统会冲页表中之外存地址,在外存中找到所缺的均等页,将那个调入内存。同时更新页表的映照关系。产同样差看的上可以直接命中物理内存。

必威 28

于OS在虚拟机中的状,过程将复杂很多。

对于虚拟机内之经过的易,需要开展两次转换。也就是说首先以运之逻辑地址转换为虚拟机的物理地址,而这实则是QEMU进程的逻辑地址,所以若投到实在内存的物理地址还得举行相同糟糕变。

必威 29

  • VA:应用之虚拟地址
  • PA:虚拟机物理地址,也是QEMU进程的逻辑地址
  • MA:物理机的大体地址

可见,KVM
为了在同一华机器及运行多独虚拟机,需要增加一个新的外存虚拟化层,也就是说,必须虚拟
MMU 来支持客户OS,实现 VA -> PA -> MA 的翻。

客户操作系统继续控制虚拟地址到客户内存物理地址之映射 (VA ->
PA),但是客户操作系统不克直接看实际机器内存,因此VMM
需要承受映射客户物理内存到实际机器内存 (PA -> MA)。

必威 30

VMM 内存虚拟化的兑现方式:

  • 软件方式:通过软件实现内存地址的翻,比如 Shadow page table
    (影子页表)技术
  • 硬件实现:基于 CPU 的辅虚拟化功能,比如 AMD 的 NPT 和 Intel 的 EPT
    技术
2.3.1 软件方式

阴影页表(SPT,shadow page
table):Hypervisor为虚拟机保障了一个虚拟机的虚拟地址至宿主机大体地址照的的页表。也就是说,在原本的有数层地址层次基础及加了相同重叠地下物理地址层次,通过就张表可以将客户机虚拟地址宿主机物理地址里进行映射。

客户OS创建之后,Hypervisor创建其对诺影子页表。刚开影子页表是拖欠的,此时外客户OS的访存操作都见面起缺页中断,然后Hypervisor捕获缺页异常

必威 31

透过个别糟地址映射转换获得虚拟机虚拟地址物理机物理地址的照耀关系,写副阴影页表,逐步完成所有虚拟地址到宿主机机器地址之照耀。
必威 32

代价是需保持虚拟机的页表和宿主机的影页表的一块儿。

2.3.1 软件方式

黑影页表(SPT,shadow page
table):Hypervisor为虚拟机维护了一个虚拟机的虚拟地址及宿主机大体地址投的之页表。也就是说,在原本的个别重合地址层次基础及加以了同叠地下物理地址层次,通过就张表可以用客户机虚拟地址宿主机物理地址中展开映射。

客户OS创建之后,Hypervisor创建其对许影子页表。刚开影子页表是拖欠的,此时其他客户OS的访存操作都见面生缺页中断,然后Hypervisor捕获缺页异常

必威 33

透过简单蹩脚地址映射转换获得虚拟机虚拟地址物理机物理地址的炫耀关系,写副影子页表,逐步做到具有虚拟地址到宿主机机器地址的炫耀。
必威 34

代价是得保障虚拟机的页表和宿主机的影子页表的同。

2.3.2 通过INTEL EPT技术来落实

KVM 中,虚机的大体内存即为 qemu-kvm 进程所占用的内存空间。KVM 使用
CPU 辅助的内存虚拟化方式。在 Intel 和 AMD
平台,其内存虚拟化的贯彻方式分别吗:

  • AMD 平台及之 NPT (Nested Page Tables) 技术
  • Intel 平台及之 EPT (Extended Page Tables)技术
    EPT 和 NPT采用类似之原理,都是当做 CPU
    中新的一律重合,通过硬件为此来用客户机的大体地址翻译为主机的大体地址。也就是说Guest
    OS完成虚拟机虚拟地址–>虚拟机物理地址第一重合转化,硬件同时完成虚拟机物理地址及物理机物理地址这第二交汇转化。第二重叠转换对Guest
    OS来说是透明底,Guest
    OS访问内存时和于物理机运行时凡同等之。这种艺术而称之为内存辅助虚拟化。

就此内存辅助虚拟化就是直用硬件来实现虚拟机的物理地址及宿主机的大体地址的一步到位映射。VMM不用再保留一卖
SPT (Shadow Page
Table),通过EPT技术,不再要一块两单页表,虚拟机内部的切换为无待qemu进程切换,所急需之凡止是简单不良页表查找,而且是经过硬件来就的,性能损耗低。

流程如下:

  • VM中的用发现页没分片,MMU发起中断,从虚拟机的大体地址(QEMU的逻辑地址)中分红一页,然后更新页表。
    必威 35
  • 这时虚拟机页的大体地址还尚未针对诺物理内存的地点,所以触发了qemu进程在宿主机的page
    fault。宿主机内核分配内存页,并更新页表。
    必威 36
  • 下次作客就好借助EPT来拓展,只需要查阅两涂鸦表明即可。

必威 37

总结:
必威 38

2.3.2 通过INTEL EPT技术来兑现

KVM 中,虚机的物理内存纵使为 qemu-kvm 进程所占据的内存空间。KVM 使用
CPU 辅助的内存虚拟化方式。在 Intel 和 AMD
平台,其内存虚拟化的兑现方式分别吗:

  • AMD 平台达成之 NPT (Nested Page Tables) 技术
  • Intel 平台上的 EPT (Extended Page Tables)技术
    EPT 和 NPT采用类似之规律,都是当做 CPU
    中新的一律层,通过硬件据此来用客户机的物理地址翻译为主机的情理地址。也就是说Guest
    OS完成虚拟机虚拟地址–>虚拟机物理地址第一重合转化,硬件同时做到虚拟机物理地址及物理机物理地址这第二重合转化。第二交汇转换对Guest
    OS来说是晶莹剔透的,Guest
    OS访问内存时和在物理机运行时是一律的。这种办法又称为内存辅助虚拟化。

用内存辅助虚拟化就是直用硬件来落实虚拟机的情理地址及宿主机的大体地址的一步到位映射。VMM不用再保留一份
SPT (Shadow Page
Table),通过EPT技术,不再要一块两独页表,虚拟机内部的切换为不需qemu进程切换,所急需之凡仅是少数涂鸦页表查找,而且是由此硬件来成功的,性能损耗低。

流程如下:

  • VM中的行使发现页没分片,MMU发起中断,从虚拟机的大体地址(QEMU的逻辑地址)中分红一页,然后更新页表。
    必威 39
  • 这儿虚拟机页的大体地址还无针对诺物理内存的地方,所以触发了qemu进程在宿主机的page
    fault。宿主机内核分配内存页,并更新页表。
    必威 40
  • 下次作客就可借助EPT来进行,只需要查阅两不成表明即可。

必威 41

总结:
必威 42

2.4 KVM其他内存管理技术

2.4 KVM其他内存管理技术

2.4.1 KSM (Kernel SamePage Merging 或者 Kernel Shared Memory)

KSM 是基本中之护理进程(称为
ksmd),它见面定期开展页面扫描,将副本页面进行联合,然后放多余的页面。KVM使用KSM来减少多个一般的虚拟机的内存占用,提高内存的以频率,在虚拟机使用同样镜像和操作系统时,效果更为明显。但是会增多基础开发,所以为了提升效率,可以用之特性关闭。

2.4.1 KSM (Kernel SamePage Merging 或者 Kernel Shared Memory)

KSM 是根本中之医护进程(称为
ksmd),它会定期进行页面扫描,将副本页面进行统一,然后放多余的页面。KVM使用KSM来压缩多单一般之虚拟机的内存占用,提高内存的使用频率,在虚拟机使用同样镜像和操作系统时,效果更明朗。但是会多基础开发,所以为了提升效率,可以拿这个特性关闭。

2.4.2 KVM Huge Page Backed Memory (巨页内存技术)

Intel 的 x86 CPU 通常采取4Kb内存页,当是经过安排,也克运用巨页(huge
page): (4MB on x86_32, 2MB on x86_64 and x86_32
PAE)使用巨页,KVM的虚拟机的页表将使用更不见的内存,并且以增长CPU的效率。最高情况下,可以增进20%之效率!

2.4.2 KVM Huge Page Backed Memory (巨页内存技术)

Intel 的 x86 CPU 通常采取4Kb内存页,当是经安排,也能使巨页(huge
page): (4MB on x86_32, 2MB on x86_64 and x86_32
PAE)使用巨页,KVM的虚拟机的页表将运用还不见之内存,并且以增长CPU的效率。最高情况下,可以增进20%之效率!

2.5 IO虚拟化

  • 法(完全虚拟):使用 QEMU 纯软件之法门来效仿 I/O
    设备。使用一个Service VM来模拟真硬件,性能非常不同。
    客户机的装置驱动程序发起 I/O
    请求操作请求,KVM会捕获此IO请求,然后放IO共享页,同时用户空间的QEMU进程,QEMU模拟出此次IO操作,同样置于共享页中并以KVM进行结果的取回。

在意:当客户机通过DMA (Direct Memory Access)访问大块I/O时,QEMU
模拟程序将非会见管结果放上一道享页中,而是经过内存映射的方法拿结果一直写及客户机的内存中,然后通知KVM模块告诉客户机DMA操作都就。

必威 43

  • 半虚拟化: KVM/QEMU就使这种模式,它于 Guest OS 内核中设置前端驱动
    (Front-end driver)和在 QEMU
    中贯彻后端驱动(Back-end)的法。前后端驱动通过 vring
    (实现虚拟队列的环形缓冲区)直接通信,这就是绕了了经 KVM
    内核模块的过程,提高了IO性能,相对于完全虚拟的模式,
    省去了纯粹模仿模式下的不可开交捕获环节,Guest OS 可以与 QEMU 的 I/O
    模块直接通信。

必威 44

  • IO-through:直接把机物理设备分配受虚拟机,不过需要硬件具备IO透传技术;,Intel
    定义的 I/O 虚拟化技术成 VT-d,AMD 的名叫 AMD-V。
    KVM 支持客户机以占方式访这个宿主机的 PCI/PCI-E
    设备。通过硬件支持的 VT-d
    技术以装备分被客户机后,在客户机看来,设备是情理及连续于PCI或者PCI-E总线上之
    差一点拥有的 PCI 和 PCI-E
    设备还支持直接分配,除了显卡以外(显卡的特殊性在此地)。PCI
    Pass-through 需要硬件平台 Intel VT-d 或者 AMD IOMMU
    的支持。这些特点必须于 BIOS 中于启用
    必威 45

    • 利益:减少了 VM-Exit 陷入到 Hypervisor
      的经过,极大地提高了性,可以达标几乎与原生系统一样的属性。而且VT-d
      克服了 virtio 兼容性不好以及 CPU 使用频率比较高之题目。
    • 不足:独占设备的话,无法落实设备的共享,成本增高。
    • 相差的解决方案:(1)在相同令物理宿主机上,仅少数 I/O
      如网性要求比较高的客户机使用
      VT-d直接分配设备,其他的下纯模仿或 virtio
      已上多只客户机共享同一个设备的目的
      (2)对于网络I/O的解决办法,可以择 SR-IOV
      是一个网卡产生多独独立的虚拟网卡,将每个虚拟网卡分配个一个客户机使用。

总结
必威 46

2.5 IO虚拟化

  • 法(完全虚拟):使用 QEMU 纯软件之法来效仿 I/O
    设备。使用一个Service VM来模拟真硬件,性能好不同。
    客户机的装备驱动程序发起 I/O
    请求操作请求,KVM会捕获此IO请求,然后放到IO共享页,同时用户空间的QEMU进程,QEMU模拟出此次IO操作,同样置于共享页中并同时KVM进行结果的取回。

小心:当客户机通过DMA (Direct Memory Access)访问大块I/O时,QEMU
模拟程序将非会见将结果放上同享页中,而是通过外存映射的法门将结果直接写及客户机的内存中,然后通知KVM模块告诉客户机DMA操作都完结。

必威 47

  • 半虚拟化: KVM/QEMU就利用这种模式,它在 Guest OS 内核中装置前端驱动
    (Front-end driver)和以 QEMU
    中落实后端驱动(Back-end)的不二法门。前后端驱动通过 vring
    (实现虚拟队列的环形缓冲区)直接通信,这便绕了了经 KVM
    内核模块的经过,提高了IO性能,相对于意虚拟的模式,
    省失去了纯模仿模式下之挺捕获环节,Guest OS 可以同 QEMU 的 I/O
    模块直接通信。

必威 48

  • IO-through:直接拿机物理设备分配给虚拟机,不过用硬件具备IO透传技术;,Intel
    定义之 I/O 虚拟化技术成为 VT-d,AMD 的叫 AMD-V。
    KVM 支持客户机以把方式访是宿主机的 PCI/PCI-E
    设备。通过硬件支撑之 VT-d
    技术以配备分吃客户机后,在客户机看来,设备是大体及连续在PCI或者PCI-E总线上的
    几乎有的 PCI 和 PCI-E
    设备还支持直接分配,除了显卡以外(显卡的特殊性在这里)。PCI
    Pass-through 需要硬件平台 Intel VT-d 或者 AMD IOMMU
    的支撑。这些特点必须于 BIOS 中于启用
    必威 49

    • 补:减少了 VM-Exit 陷入到 Hypervisor
      的历程,极大地提高了性能,可以上几乎与原生系统一样的性质。而且VT-d
      克服了 virtio 兼容性不好与 CPU 使用效率比较高的题材。
    • 相差:独占设备的话,无法落实设备的共享,成本增长。
    • 相差之化解方案:(1)在同宝物理宿主机及,仅少数 I/O
      如网性要求较高之客户机使用
      VT-d直接分配设备,其他的采用纯模仿或 virtio
      已落得多独客户机共享同一个装置的目的
      (2)对于网I/O的解决办法,可以择 SR-IOV
      是一个网卡产生多只独立的虚构网卡,将每个虚拟网卡分配个一个客户机使用。

总结
必威 50

2.6 网卡虚拟化

VM发出之流量一般生半点栽

  • 到物理机外部的设施,
  • 顶当地物理服务器上的虚拟机。

于是我们得保证不同虚拟机流量的互隔离,同时还要要考虑情理设备外虚拟机的互联互通。

解决办法:
对此对物理机外部的流量,给每个VM分配一个专用通道,共享物理网卡资源。
首要有如下几种植模式:

  • Bridge桥连通模式:把物理主机及的网卡当交换机,然后虚拟发一个Bridge来接收发朝物理机的保险。
    必威 51
  • isolation mode:仅guest OS之间通信;不与外表网络与宿主机通信。
    必威 52
  • routed mode:与外部主机通信,通过静态路由使得各Guest OS
    的流量需要经过物理网卡
    必威 53
  • nat:地址转换;在编造网卡和情理网卡之间成立一个nat转发服务器;对数码包进行源地址转换。
    必威 54

针对其中流量:

  • 每当hypervisor上起virtual
    switch,不过会损耗CPU资源,而且在比较充分安全隐患。(intel的VT-c用VMDq技术使网卡芯片处理部分vswitch的办事,同时用vFW来保障平安)
  • 足优先被流量产生服务器通过安全设备区域拓展数量清洗以后更回来。主流方式使硬件SR-IOV对VM流量进行辨认与拍卖

总结

必威 55

2.6 网卡虚拟化

VM发出之流量一般发生个别种

  • 交物理机外部的装置,
  • 及地方物理服务器上的虚拟机。

之所以我们得保证不同虚拟机流量的相互隔离,同时还要如考虑情理设备内虚拟机的互联互通。

缓解办法:
于针对物理机外部的流量,给每个VM分配一个专用通道,共享物理网卡资源。
重大出如下几种植模式:

  • Bridge桥过渡模式:把物理主机及之网卡当交换机,然后虚拟生一个Bridge来接收发于物理机的保险。
    必威 56
  • isolation mode:仅guest OS之间通信;不与表面网络以及宿主机通信。
    必威 57
  • routed mode:与外表主机通信,通过静态路由使得各Guest OS
    的流量用经过物理网卡
    必威 58
  • nat:地址转换;在编造网卡和物理网卡之间确立一个nat转发服务器;对数码包进行源地址转换。
    必威 59

对中间流量:

  • 于hypervisor上起virtual
    switch,不过会耗费CPU资源,而且有较生安全隐患。(intel的VT-c用VMDq技术如果网卡芯片处理局部vswitch的劳作,同时用vFW来保障安全)
  • 得先行让流量产生服务器通过安全设备区域进行数量清洗以后又回去。主流方式采用硬件SR-IOV对VM流量进行辨认与拍卖

总结

必威 60

2.7 Hypervisor层之虚拟化实现

操作系统是用户以及物理机的接口,也是使及大体硬件的接口。核心作用在任务调度和硬件抽象。

今非昔比操作系统的太酷异在于内核。

单内核、混合本、微内核、外内核的分别
必威 61

  • 单内核:内核所有的功效代码全部且运作于同一个水源空间内,优点是性性能好高,缺点是规划复杂,稳定性不足够好;
  • 微内核:类似C/S服务模式,只有极基础之代码会运作于本空间,其他的且运行为用户空间,优点是平安强,缺点性能于逊色;
  • 混本:性能和平稳的降产物,完全由设计者进行用户从定义;
  • 外内核:比微内核更加极端,连硬件抽象工作且提交用户空间,内核只需要保证应用程序访问硬件资源时,硬件是闲之

必威 62

2.7 Hypervisor层底虚拟化实现

操作系统是用户和物理机的接口,也是运用以及物理硬件的接口。核心职能在任务调度和硬件抽象。

不等操作系统的不过充分异在于内核。

单内核、混合本、微内核、外内核的分
必威 63

  • 单内核:内核所有的功效代码全部还运行在跟一个根本空间内,优点是性质性能大高,缺点是计划性复杂,稳定性不敷好;
  • 微内核:类似C/S服务模式,只有极基础的代码会运作于本空间,其他的且运作为用户空间,优点是泰强,缺点性能比逊色;
  • 夹本:性能与安宁的折衷产物,完全出于设计者进行用户从定义;
  • 外内核:比微内核更加极端,连硬件抽象工作还提交用户空间,内核只需要确保应用程序访问硬件资源时,硬件是空的

必威 64

2.7.1 主流的Hypervisor总结

Hypervisor的类别

KVM

Xen

Hyper-v

ESX/ESXi

内核类型

Linux

Linux(修改)&Nemesis

Windows&Hyper-V

Linux&VMernel

内核

单核

外内核

外内核

混合内核

I/O虚拟化方式

类Service VM Model

Service VM Model

Service VM Model

Monolithic Model

特点

集成在Linux内核中

有被KVM取代之势,性能低于KVM

捆绑Windows Server

技术积累深厚,Vmkernel是核心竞争力

2.7.1 主流的Hypervisor总结

Hypervisor的类别

KVM

Xen

Hyper-v

ESX/ESXi

内核类型

Linux

Linux(修改)&Nemesis

Windows&Hyper-V

Linux&VMernel

内核

单核

外内核

外内核

混合内核

I/O虚拟化方式

类Service VM Model

Service VM Model

Service VM Model

Monolithic Model

特点

集成在Linux内核中

有被KVM取代之势,性能低于KVM

捆绑Windows Server

技术积累深厚,Vmkernel是核心竞争力

Leave a Comment.