23 视频:中级篇实操总结

你好,我是Chrono。

到今天我们“中级篇”的学习也告一段落了,在这段时间里我们使用kubeadm搭建了更接近生产环境的多节点Kubernetes集群,然后学习了Deployment、DaemonSet、Service、Ingress这4个非常重要的API对象。

这节课作为对“中级篇”的总结和回顾,仍然是视频的形式,把前面几节课里的一些操作都实际演示出来,方便你对照着操作上下文来学习。

首先我会带你看看kubeadm搭建集群的完整过程,然后编写YAML文件,示范Deployment、DaemonSet、Service、Ingress等对象的具体用法,最后是使用这些对象搭建WordPress网站。

让我们开始视频课程的学习吧。

一点说明:视频是我的操作实录,有些包安装比较慢,屏幕会几秒没有动作,在参考视频以及你自己操作的时候可以耐心一些。


一. 安装kubeadm

我们先来安装Master节点,当然在这之前你需要保证已经安装好了Docker(安装参考[第1讲])。

首先四步准备工作:改主机名、改Docker配置、改网络设置、改交换分区。

修改主机名,把它改成 master

sudo vi /etc/hostname

修改Docker的配置文件,把cgroup的驱动程序改成 systemd,然后是修改iptables的配置,启用 br_netfilter 模块,还有修改“/etc/fstab”,关闭Linux的swap分区。

这些操作步骤都已经列在了[第17讲]里了,因为一个个文件修改很麻烦,我就写了一个脚本文件,把这些操作都自动化了,大概看一下:

vi prepare.sh

第一部分是修改Docker配置文件然后重启,第二部分是修改iptables配置,第三部分是关闭Linux的swap分区。我们执行这个脚本,安装的准备工作就做好了。

接下来,下载kubeadm可执行文件,同样我也写成了一个方便的脚本文件:

vi admin.sh

基本流程和Kubernetes官方文档是一样的,只是改成了国内的软件源。

注意在使用 apt install 的时候,应该明确指定要安装的版本号,像这里我就使用的是Kubernetes 1.23.3,如果不指定就会使用当前的最新版本,也就是1.24。

安装完成之后,我们用 kubeadm versionkubectl version 来看一下版本是否正确:

kubeadm version
kubectl version --client

可以看到确实是安装了我们刚才指定的1.23.3版本。


二. 安装Kubernetes

有了kubeadm,我们就可以开始正式安装Kubernetes了。安装时需要从gcr.io拉取镜像,我这里从国内镜像网站上提前下载好了镜像,给你看一下:

docker images

这些镜像中包括Kubernetes的核心组件,比如etcd、apiserver、controller-manager。

现在我们来执行 kubeadm init 初始化Master节点,看一下脚本文件:

vi master.sh

初始化的时候我使用了参数 pod-network-cidr 指定Pod的IP地址范围是“10.10.0.0/16”,然后Kubernetes版本也指定使用1.23.3。

为了让kubectl在安装完成后能正常工作,脚本里还会把Kubernetes的配置文件拷贝到当前用户的 .kube 目录下。

好了,现在我们就运行这个脚本。

注意Master节点初始化完成后,kubeadm会给出一些重要的提示信息,一个是拷贝配置文件,这个我们已经在脚本里做过了,另一个是Worker节点加入集群的 kubeadm join 命令,一定要保存好。我们可以新建一个文件,比如k.txt,然后把它存下来。

我们再用 kubectl versionkubectl get node 来检查Kubernetes的版本和集群的节点状态了:

kubectl version
kubectl get node

Master节点的状态是“NotReady”,接下来还要安装网络插件Flannel。

Flannel的安装很简单,记得要修改它的YAML文件,“net-conf.json”里的网络范围必须和 kubeadm init 里的一样:

vi flannel.yml

现在我们用 kubectl apply 来安装Flannel网络:

kubectl apply -f kube-flannel.yml

稍等一小会,我们再执行 kubectl get node 来看节点状态:

kubectl get node

就看到Master节点的状态是“Ready”,表明节点网络也工作正常了。


三. Kubernetes集群部署

Worker节点的安装步骤和Master节点是差不多的,先是改主机名,再用prepare.sh做准备工作,修改Docker配置文件、iptables,关闭Linux的swap分区,然后下载kubeadm可执行文件和Kubernetes镜像。

这几步和Master节点完全一样,我就不展示脚本文件了,直接运行。

有了kubeadm之后,因为这个是Worker节点,所以我们不需要执行 kubeadm init而是要执行 kubeadm join,也就是之前安装Master节点时拷贝的那条命令。它会自动连接Master节点,然后拉取镜像,安装网络插件,最后把节点加入集群。

Worker节点安装好之后,让我们在控制台检查节点的状态,执行 kubectl get node,会看到两个节点都是“Ready”。

现在让我们用 kubectl run,运行Nginx来测试一下:

kubectl run ngx --image=nginx:alpine
kubectl get pod -o wide

会看到Pod运行在Worker节点上,表明我们的Kubernetes多节点集群部署成功。


四. Deployment的使用

接下来我们来看看Deployment的用法。

首先是 kubectl api-resources 来查看Deployment的基本信息:

kubectl api-resources | grep deploy

可以看到Deployment的简称是“deploy”,它的apiVersion是“apps/v1”,kind是“Deployment”。

然后我们执行 kubectl create,让Kubernetes为我们自动生成Deployment的样板文件。

先要定义一个环境变量out:

export out="--dry-run=client -o yaml"

然后创建名字叫“ngx-dep”的对象,使用的镜像是“nginx:alpine”:

kubectl create deploy ngx-dep --image=nginx:alpine $out

我们把这个样板存入一个文件ngx.yml:

kubectl create deploy ngx-dep --image=nginx:alpine $out > deploy.yml

这里可以删除一些不需要的字段,让YAML看起来更干净,然后把replicas改成2,意思是启动两个Nginx Pod。

把Deployment的YAML写好之后,我们就可以用 kubectl apply 来创建对象了:

kubectl apply -f deploy.yml

kubectl get 命令查看Deployment的状态:

kubectl get deploy
kubectl get pod

最后来试验一下Deployment的应用伸缩功能,使用命令 kubectl scale,把Pod数量改成5个:

kubectl scale --replicas=5 deploy ngx-dep

我们再用 kubectl get 命令查看,就会发现Pod已经成功变成了5个副本:

kubectl get pod 

最后删除这个Deployment:

kubectl delete deploy ngx-dep

五. DaemonSet的使用

看完Deployment,我再来演示DaemonSet。

因为DaemonSet不能使用 kubectl create 直接生成样板文件,但大体结构和Deployment是一样的,所以我们可以先生成一个Deployment,然后再修改几个字段就行了。

这里我使用了Linux系统里常用的小工具sed,直接替换Deployment里的名字,再删除replicas字段,这样就自动生成了DaemonSet的样板文件:

kubectl create deploy redis-ds --image=redis:5-alpine $out \
  | sed 's/Deployment/DaemonSet/g' - \
  | sed -e '/replicas/d' -

这个样板文件因为是从Deployment改来的,所以不会有tolerations字段,不能在Master节点上运行,需要手工添加。

下面这个就是已经改好的完整的DaemonSet YAML描述文件:

vi ds.yml

注意看里面的tolerations字段,它能够容忍节点的 node-role.kubernetes.io/master:NoSchedule 这个污点,也就是说能够运行在Master节点上。

现在让我们部署这个加上了“容忍度”的DaemonSet:

kubectl apply -f ds.yml

再用 kubectl get 查看对象的状态:

kubectl get ds
kubectl get pod -o wide

可以看到,这个Redis 的DaemonSet已经跑在了Master和Worker节点上。

最后删除这个DaemonSet:

kubectl delete -f ds.yml

六. Service的使用

下面我们来看看Kubernetes里的负载均衡对象Service。

因为Service对象服务于Pod、Deployment等对象,所以在创建它之前,我们需要先创建一个Deployment:

kubectl apply -f deploy.yml

这个Deployment管理了两个Nginx Pod:

kubectl get pod -o wide

然后我们我们使用 kubectl expose 创建Service样板文件:

kubectl expose deploy ngx-dep --port=80 --target-port=80 $out

修改之后就是svc.yml,再用 kubectl apply 创建Service对象:

kubectl apply -f svc.yml

kubectl get svc 可以列出Service对象,可以看到它的虚IP地址:

kubectl get svc

想要看Service代理了哪些后端的Pod,要用 kubectl describe 命令:

kubectl describe svc ngx-svc

kubectl get pod 可以对比验证Service是否正确代理了Nginx Pod:

kubectl get pod -o wide

现在让我们用 kubectl exec 进入Pod,验证Service的域名功能:

kubectl exec -it ngx-dep-6796688696-4h6lb -- sh

使用curl,加上域名“ngx-svc”,也就是Service对象的名字:

curl ngx-svc

多执行几次,就会看到通过这个域名,Service对象实现了对后端Pod的负载均衡,把流量分发到不同的Pod。

我们还可以再尝试Service的其他域名形式,比如加上名字空间:

curl ngx-svc.default
curl ngx-svc.default.svc.cluster.local

最后看一下Service使用NodePort方式对外暴露服务的用法,看一下Service对象:

kubectl get svc

在PORT里显示它分配了一个随机的端口号31980,只要访问集群里任意一个节点,加上这个端口号,就可以访问到Service对象和它后面的Pod。

我们来试验一下,注意210是Master节点,220是Worker节点:

curl 192.168.10.210:31980
curl 192.168.10.220:31980

最后删除Deployment和Service对象:

kubectl delete -f deploy.yml
kubectl delete -f svc.yml

七. Ingress的使用

学习了Service之后,我们再来看管理集群入口流量的Ingress对象。

我们使用Nginx公司开发的Ingress Controller,需要按照它的文档,创建名字空间、RBAC等相关的资源,这里我使用一个简单脚本来完成:

cat setup.sh
./setup.sh

使用命令 kubectl get ns 可以看到已经有了一个新的名字空间 nginx-ingress

为了测试验证Ingress和Ingress controller的用法,我们还是要先创建Deployment和Service对象:

kubectl apply -f deploy.yml
kubectl apply -f svc.yml

来看一下Ingress的定义:

vi ingress.yml

这个YAML里包含了两个API对象,第一个是Ingress Class,名字是ngx-ink,注意在spec里,controller要指定成Nginx Ingress Controller。

第二个对象就是路由规则对象Ingress了,我为它添加了一个注解nginx.org/lb-method,指定使用Round-Robin负载均衡算法,然后是关键字段ingressClassName,这样就可以把Ingress和Ingress Class联系起来。

后面的rules就是具体的路由规则,比较复杂,要指定host、path,还有后端要转发的Service,最好用kubectl create来自动生成,不然很容易写错

接下来我们看看Ingress Controller的定义,它在kic YAML 里:

vi kic.yml

它其实是从Nginx官方的示例文件修改而来的,所以只需要关注几个地方。

第一个是镜像,我改成了更精简的Alpine版本,第二个是启动参数args,一定要加上-ingress-class,关联上刚才的Ingress Class对象,否则Ingress Controller就无法找到路由规则Ingress。

它后面还有几个参数,比如-health-status、-ready-status等等,你可以参考官方文档了解它们的作用。

现在我们就应用这两个YAML 文件,创建Ingress对象:

kubectl apply -f ingress.yml
kubectl apply -f kic.yml

kubectl get 来逐个查看这些对象的状态:

kubectl get ingressclass
kubectl get ing
kubectl describe ing ngx-ing

kubectl get deploy -n nginx-ingress
kubectl get pod -n nginx-ingress

确认它们都工作正常,我们来做个测试,把本地的8080端口映射到Ingress Controller Pod的80端口:

kubectl port-forward -n nginx-ingress ngx-kic-dep-8859b7b86-cplgp 8080:80 &

因为在Ingress里我们设定的路由规则是ngx.test域名,所以要用curl的resolve参数来把它强制解析到127.0.0.1:

curl --resolve ngx.test:8080:127.0.0.1 http://ngx.test:8080

多执行几次,你就会发现Nginx Ingress Controller通过域名路由规则,把请求转发到了不同的后端Pod。

最后我们删除刚才创建的这些Deployment、Service、Ingress等对象:

kubectl delete -f deploy.yml
kubectl delete -f svc.yml
kubectl delete -f ingress.yml
kubectl delete -f kic.yml

八. 搭建WordPress网站

这里我们还是来搭建WordPress网站,实际操作Deployment、Service、Ingress这些对象的用法。

第一步是部署MariaDB:

wp-maria.yml

它的ConfigMap没有变化,还是“DATABASE”“USER”“PASSWORD”那几个环境变量。下面的部署方式改成了Deployment,简单起见只使用一个实例。之后又为它定义了一个Service对象,这样我们就可以使用域名而不是IP地址来访问数据库。

第二步是部署WordPress应用:

vi wp-dep.yml

注意在ConfigMap里我们不再使用固定IP地址了,而是改用了Service提供的域名maria-svc。然后在Deployment里,把WordPress实例设置为2,增加了冗余度,提高了可用性。之后我们还是为它定义了Service对象,并且设置为NodePort模式,指定使用端口30088。

第三步是部署Ingress:

vi wp-ing.yml

Ingress的定义和之前差不多,但Ingress Class的名字改成了wp-ink,Ingress路由的host改成了wp.test。

Ingress Controller的变化也不大:

vi wp-kic.yml

关键还是args里的参数-ingress-class,必须和Ingress Class匹配,也就是wp-ink。还有就是字段hostNetwork: true,让Pod直接使用节点的网络

看完了这些YAML ,让我们用kubectl apply来创建对象:

kubectl apply -f wp-maria.yml
kubectl apply -f wp-dep.yml
kubectl apply -f wp-ing.yml
kubectl apply -f wp-kic.yml

创建完成之后,我们再用kubectl get看一下对象的状态:

kubectl get deploy
kubectl get svc
kubectl get pod -n nginx-ingress

现在让我们来到集群之外,假设你已经修改了本地的hosts域名解析文件,把域名wp.test解析到Kubernetes的节点,那就可以直接在浏览器里输入http://wp.test来访问Nginx Ingress Controller,再访问WordPress网站了。

课后作业

如果你在操作过程中遇到困难,欢迎在留言区留言,记得把你的问题描述清楚,这样我和其他同学也能更好地就问题详细讨论。

希望你在这段时间的学习过程中有所收获,下节课就是最后的高级篇了,我们下节课再见。