运维面试题总结:Etcd、Kubernetes、Lvs、HAProxy 等
时间:2022-07-05 14:00:00
运维面试题总结:Etcd、Kubernetes、Lvs、HAProxy 等
集群相关
简述 ETCD 及其特点?
etcd 是 CoreOS 团队发起的开源项目是管理配置信息和服务发现(service discovery)该项目的目标是构建高可用的分布式键值(key-value)基于 的数据库Go 语言实现。
特点:
- 简单:支持 REST 风格的 HTTP JSON API
- 安全:支持 HTTPS 访问方式
- 快速:支持并发 1k/s 的写操作
- 可靠性,支持分布式结构Raft 一致性算法,Raft 是通过选举主节点实现分布式系统一致性的算法。
简述 ETCD 适应场景?
etcd 可广泛应用于以下场景:
服务发现
(Service Discovery):服务发现主要解决了同一分布式集群中的过程或服务,以及如何找到彼此并建立连接。本质上,服务发现是为了了解集群中是否有监控 的过程udp 或 tcp 端口,并且可以通过名到和连接。新闻发布与订阅
:在分布式系统中,最合适的组件之间的通信方式之一是发布和订阅信息。也就是说,建立一个配置共享中心,数据提供商在该配置中心发布信息,而信息用户订阅他们关心的主题。一旦主题发布了信息,它将实时通知订阅者。这样,分布式系统配置的集中管理和动态更新就可以实现。将应用程序中使用的一些配置信息放入 etcd 集中管理。负载均衡
:在分布式系统中,为了保证服务的高可用性和数据的一致性,通常会部署多个数据和服务来实现平等服务,即使其中一个服务失败,也不会影响使用。etcd 分布式架构存储的信息访问支持负载平衡。etcd 集群化后,每个 etcd 的核心节点可以处理用户的要求。因此,将数据量小但访问频繁的新闻数据直接存储到 etcd 还能达到负载平衡的效果。分布式通知与协调
: 类似于新闻发布和订阅,用于 etcd 中的 Watcher 机制,通过注册和异步通知机制,实现分布式环境下不同系统之间的通知和协调,实时处理数据变更。分布式
锁
:因为 etcd 使用 Raft 算法保持了数据的强烈一致性,存储在集群中的操作值必须是全球一致的,因此很容易实现分布式锁。锁定服务有两种方式,一种是保持独家,另一种是控制时间顺序。集群监控与 Leader 竞选
:通过 etcd 监控非常简单实时。
简述 HAProxy 及其特点?
HAProxy 可以提供高可用性、平衡负载和基于 TCP 和 HTTP 应用代理是一种免费、快速、可靠的解决方案。HAProxy 非常适合并发大(并发达 1w 以上)web 站点,这些站点通常需要对话或七层处理。HAProxy 的运行模式使其能够简单、安全地整合到当前的架构中,同时保护 web 服务器不会暴露在网络上。
HAProxy 的主要特点是:
- 可靠性和稳定性都很好,可以和硬件级 一起使用F5 负载均衡设备堪比;
- 最万-5万 并发连接可同时维护。单位时间内处理的最大要求为 2万 ,最大处理能力可达 1万Git/s;
- 支持多达 8 负载平衡算法和会话维护;
- 支持虚 web 负载平衡更灵活;
- 支持连接拒绝、全透明代理等独特功能;
- 有很强的 ACL 访问控制支持;
- 其独特的弹性二叉树数据结构将数据结构的复杂性提高到 0(1),即随着数据条目的增加,数据搜索速度不会下降;
- 支持客户端keepalive 功能,减少客户端和 haproxy 多次握手导致资源浪费,多个请求在一个 tcp 完成连接;
- 支持 TCP 加速,零复制功能,类似 mmap 机制;
- 支持响应池(response buffering);
- 支持 RDP 协议;
- 基于源的粘度与 相似nginx 的 ip_hash 功能在一定时间内将同一客户端的请求调度到上游同一服务器;
- 它 web 接口显示接收、发送、拒绝、错误等数据的统计信息;
- 详细的健康状况检测,web 对上游服务器进行健康检测,并提供一定的管理功能;
- 基于流量的健康评估机制;
- 基于 http 认证;
- 基于命令行的管理接口;
- 可以分析日志的日志分析器。
简述 HAProxy 常见的负载均衡策略?
HAProxy 负载均衡策略很多,常见的有以下 8 :
- roundrobin:表示简单的轮询。
- static-rr:根据权重表示。
- leastconn:至少连接器应先处理。
- source:表示要求的源 IP,类似 Nginx 的 IP_hash 机制。
- ri:根据要求表示 URI。
- rl_param:表示根据 HTTP 每次都要求头锁定 HTTP 请求。
- rdp-cookie(name):表示依据 cookie(name)锁定哈希每次 TCP 请求。
四层和七层负载均衡的区别?
四层负载均衡器
又称 4 层交换机,主要通过分析 IP 层及 TCP/UDP 层的流量是基于 IP 端口负载平衡,如常见的 LVS、F5 等;
七层负载均衡器
又称 7 层交换机,位于 OSI 最高层,即应用层,支持各种协议,如 HTTP、FTP、SMTP 等等。7 层负载均衡器可根据报纸内容和一定的负载均衡算法选择后端服务器,即内容交换器。如常见的 HAProxy、Nginx。
简述 LVS、Nginx、HAproxy 的什么异同?
- 同样:三者都是软件负载均衡产品。
- 区别:
- LVS 基于 Linux 操作系统实现软负载平衡, HAProxy 和 Nginx 是基于第三方应用实现的软负载平衡;
- LVS 是 4 层 IP 基于目录无法实现负载平衡技术,URL而 HAProxy 和 Nginx 可实现 4 层和 7 层技术,HAProxy 可提供 TCP 和 HTTP 负载均衡综合解决方案;
- LVS 因为工作在 ISO 模型第四层状态监测功能单一, HAProxy 具有更丰富、更强大的状态监测功能,可支持端口,URL、脚本等多种状态检测方法;
- HAProxy 功能强大,但整体性能低于 4 层模式LVS 负载平衡。
- Nginx 主要用于 Web 服务器或缓存服务器。
简述 Heartbeat?
Heartbeat 是 Linux-HA 提供心跳检测、资源接管、集群服务监测、故障切换等功能。heartbeat 的核心功能包括心跳监测和资源接管两部分。心跳监测可以通过网络链路和串口进行,并支持冗余链路。他们互相发送报告,告诉对方他们目前的状态。如果他们在指定时间内没有收到对方发送的报告,他们认为对方无效。此时,需要启动资源接管模块,接管对方主机上运行的资源或服务。
简述 Keepalived 及其工作原理?
Keepalived 是基于 的VRRP 达成协议的 LVS 服务可用性高,可解决静态路由单点故障问题。
在一个 LVS 主服务器通常在服务集群中(MASTER)备份服务器(BACKUP)两种角色的服务器,但是对外表现为一个虚拟 IP,主服务器将发送 VRRP当备份服务器无法收到 通知备份服务器时VRRP 消息时,即主服务器异常时,备份服务器将接管虚拟 IP,继续提供服务,以确保高可用性。
简述 Keepalived 系统的主要模块及其功能?
keepalived 体系架构中主要有三个模块,分别是 core、check 和 vrrp。
core 模块
为 keepalived 的核心负责主流程的启动、维护和全球配置文件的加载和分析。vrrp 模块
是来实现 VRRP 协议的。check
负责健康检查。常见的方法有端口检查和 URL 检查。
简述 Keepalived 如何通过健康检查来保证高可用?
Keepalived 工作在 TCP/IP 模型的第三、四和五层,即网络层、传输层和应用层。
网络层
,Keepalived 采用 ICMP 协议向服务器集群中的每个节点发送一个 ICMP 的数据包,如果某个节点没有返回响应数据包,则认为此节点发生了故障,Keepalived 将报告次节点失效,并从服务器集群中剔除故障节点。传输层
,Keepalived 利用 TCP 的端口连接和扫描技术来判断集群节点是否正常。如常见的 web 服务默认端口 80,ssh 默认端口 22 等。Keepalived 一旦在传输层探测到相应端口没用响应数据返回,则认为此端口发生异常,从而将此端口对应的节点从服务器集群中剔除。应用层
,可以运行 FTP、telnet、smtp、dns 等各种不同类型的高层协议,Keepalived 的运行方式也更加全面化和复杂化,用户可以通过自定义 Keepalived 的工作方式,来设定监测各种程序或服务是否正常,若监测结果与设定的正常结果不一致,将此服务对应的节点从服务器集群中剔除。
Keepalived 通过完整的健康检查机制,保证集群中的所有节点均有效从而实现高可用。
简述 LVS 的概念及其作用?
LVS 是 linux virtual server 的简写 linux 虚拟服务器,是一个虚拟的服务器集群系统,可以在 unix/linux 平台下实现负载均衡集群功能。
LVS 的主要作用是:通过 LVS 提供的负载均衡技术实现一个高性能、高可用的服务器群集。因此 LVS 主要可以实现:
- 把单台计算机无法承受的大规模的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间,提升用户体验。
- 单个重负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,返回给用户,系统处理能力得到大幅度提高。
- 7*24 小时的服务保证,任意一个或多个设备节点设备宕机,不能影响到业务。在负载均衡集群中,所有计算机节点都应该提供相同的服务,集群负载均衡获取所有对该服务的如站请求。
简述 LVS 的工作模式及其工作过程?
LVS 有三种负载均衡的模式,分别是 VS/NAT(nat 模式)、VS/DR(路由模式)、VS/TUN(隧道模式)。
- NAT 模式(VS-NAT)
原理
:首先负载均衡器接收到客户的请求数据包时,根据调度算法决定将请求发送给哪个后端的真实服务器(RS)。然后负载均衡器就把客户端发送的请求数据包的目标 IP 地址及端口改成后端真实服务器的 IP 地址(RIP)。真实服务器响应完请求后,查看默认路由,把响应后的数据包发送给负载均衡器,负载均衡器在接收到响应包后,把包的源地址改成虚拟地址(VIP)然后发送回给客户端。优点
:集群中的服务器可以使用任何支持 TCP/IP 的操作系统,只要负载均衡器有一个合法的 IP 地址。缺点
:扩展性有限,当服务器节点增长过多时,由于所有的请求和应答都需要经过负载均衡器,因此负载均衡器将成为整个系统的瓶颈。- IP 隧道模式(VS-TUN)
原理
:首先负载均衡器接收到客户的请求数据包时,根据调度算法决定将请求发送给哪个后端的真实服务器(RS)。然后负载均衡器就把客户端发送的请求报文封装一层 IP 隧道(T-IP)转发到真实服务器(RS)。真实服务器响应完请求后,查看默认路由,把响应后的数据包直接发送给客户端,不需要经过负载均衡器。优点
:负载均衡器只负责将请求包分发给后端节点服务器,而 RS 将应答包直接发给用户。所以,减少了负载均衡器的大量数据流动,负载均衡器不再是系统的瓶颈,也能处理很巨大的请求量。缺点
:隧道模式的 RS 节点需要合法 IP,这种方式需要所有的服务器支持“IP Tunneling”。- 直接路由模式(VS-DR)
原理
:首先负载均衡器接收到客户的请求数据包时,根据调度算法决定将请求发送给哪个后端的真实服务器(RS)。然后负载均衡器就把客户端发送的请求数据包的目标 MAC 地址改成后端真实服务器的 MAC 地址(R-MAC)。真实服务器响应完请求后,查看默认路由,把响应后的数据包直接发送给客户端,不需要经过负载均衡器。优点
:负载均衡器只负责将请求包分发给后端节点服务器,而 RS 将应答包直接发给用户。所以,减少了负载均衡器的大量数据流动,负载均衡器不再是系统的瓶颈,也能处理很巨大的请求量。缺点
:需要负载均衡器与真实服务器 RS 都有一块网卡连接到同一物理网段上,必须在同一个局域网环境。
简述 LVS 调度器常见算法(均衡策略)?
LVS 调度器用的调度方法基本分为两类:
- 固定调度算法:rr,wrr,dh,sh
- rr:轮询算法,将请求依次分配给不同的 rs 节点,即 RS 节点中均摊分配。适合于 RS 所有节点处理性能接近的情况。
- wrr:加权轮训调度,依据不同 RS 的权值分配任务。权值较高的 RS 将优先获得任务,并且分配到的连接数将比权值低的 RS 更多。相同权值的 RS 得到相同数目的连接数。
- dh:目的地址哈希调度(destination hashing)以目的地址为关键字查找一个静态 hash 表来获得所需 RS。
- sh:源地址哈希调度(source hashing)以源地址为关键字查找一个静态 hash 表来获得需要的 RS。
- 动态调度算法:wlc,lc,lblc,lblcr
- wlc:加权最小连接数调度,假设各台 RS 的权值依次为 Wi,当前 tcp 连接数依次为 Ti,依次去 Ti/Wi 为最小的 RS 作为下一个分配的 RS。
- lc:最小连接数调度(least-connection),IPVS 表存储了所有活动的连接。LB 会比较将连接请求发送到当前连接最少的 RS。
- lblc:基于地址的最小连接数调度(locality-based least-connection):将来自同一个目的地址的请求分配给同一台 RS,此时这台服务器是尚未满负荷的。否则就将这个请求分配给连接数最小的 RS,并以它作为下一次分配的首先考虑。
简述 LVS、Nginx、HAProxy 各自优缺点?
- Nginx 的优点:
- 工作在网络的 7 层之上,可以针对 http 应用做一些分流的策略,比如针对域名、目录结构。Nginx 正则规则比 HAProxy 更为强大和灵活。
- Nginx 对网络稳定性的依赖非常小,理论上能 ping 通就就能进行负载功能,LVS 对网络稳定性依赖比较大,稳定要求相对更高。
- Nginx 安装和配置、测试比较简单、方便,有清晰的日志用于排查和管理,LVS 的配置、测试就要花比较长的时间了。
- 可以承担高负载压力且稳定,一般能支撑几万次的并发量,负载度比 LVS 相对小些。
- Nginx 可以通过端口检测到服务器内部的故障,比如根据服务器处理网页返回的状态码、超时等等。
- Nginx 不仅仅是一款优秀的负载均衡器/反向代理软件,它同时也是功能强大的 Web 应用服务器。
- Nginx 作为 Web 反向加速缓存越来越成熟了,速度比传统的 Squid 服务器更快,很多场景下都将其作为反向代理加速器。
- Nginx 作为静态网页和图片服务器,这方面的性能非常优秀,同时第三方模块也很多。
- Nginx 的缺点:
- Nginx 仅能支持 http、https 和 Email