艰难的K8s环境准备及集群安装--kuberneters

网友投稿 268 2022-11-01

艰难的K8s环境准备及集群安装--kuberneters

十年河东,十年河西,莫欺少年穷

学无止境,精益求精

参考文档:​​、 node1 、 node2

master  192.168.136.135

node1   192.168.136.136

node2   192.168.136.137

2、检查操作系统的版本(要求三台服务器操作系统的版本至少在7.5以上):

[root@localhost ~]# cat /etc/redhat-releaseCentOS Linux release 7.9.2009 (Core)

3、三台服务器上设置分别设置主机名及主机名解析

设置主机名

设置192.168.136.135 的主机名:

hostnamectl set-hostname master

设置192.168.136.136 的主机名:

hostnamectl set-hostname node1

设置192.168.136.137 的主机名:

hostnamectl set-hostname node2

主机名解析(三台服务器均要执行)

vim /etc/hosts

在三台虚拟机的 hosts 文件中增加如下配置

192.168.136.135 master192.168.136.136 node1192.168.136.137 node2

此时三台虚拟机可以相互 ping 通

我在master 中 ping node1虚拟机

4、三台服务器上关闭防火墙和禁止防火墙开机启动【生产环境谨慎操作】

关闭

systemctl stop firewalld

禁用

systemctl disable firewalld

5、三台服务器上进行时间同步

安装时间插件

yum install ntpdate -y

同步时间

ntpdate time.windows.com

6、三台服务器上关闭selinux

查看selinux是否开启

getenforce

永久关闭selinux,需要重启

sed -i 's/enforcing/disabled/' /etc/selinux/config

临时关闭selinux,重启之后,无效

setenforce 0

这里采用永久关闭,关闭后暂不重启,配置完后,一块重启

7、三台服务器上关闭swap分区

永久关闭swap分区,需要重启:

sed -ri 's/.*swap.*/#&/' /etc/fstab

临时关闭swap分区,重启之后,无效::

swapoff -a

这里采用永久关闭,关闭后暂不重启,配置完后,一块重启

8、三台服务器上将桥接的IPv4流量传递到iptables的链

在每个节点上将桥接的IPv4流量传递到iptables的链:

cat > /etc/sysctl.d/k8s.conf << EOFnet.bridge.bridge-nf-call-ip6tables = 1net.bridge.bridge-nf-call-iptables = 1net.ipv4.ip_forward = 1vm.swappiness = 0EOF

加载br_netfilter模块

# 加载br_netfilter模块modprobe br_netfilter

查看是否加载

# 查看是否加载lsmod | grep br_netfilter

生效

# 生效sysctl --system

9、三台服务器上开启ipvs

在kubernetes中service有两种代理模型,一种是基于iptables,另一种是基于ipvs的。ipvs的性能要高于iptables的,但是如果要使用它,需要手动载入ipvs模块。在每个节点安装ipset和ipvsadm:

yum -y install ipset ipvsadm

在所有节点执行如下脚本:

cat > /etc/sysconfig/modules/ipvs.modules <

授权、运行、检查是否加载:

chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules && lsmod | grep -e ip_vs -e nf_conntrack_ipv4

检查是否加载:

lsmod | grep -e ipvs -e nf_conntrack_ipv4

10、重启三台服务器

reboot

以上便完成了K8s环境的搭建

三台服务器上安装K8s所需的组件,Docker、kubeadm、kubelet和kubectl

11、三台服务器上安装docker

指定阿里云加速

wget -O /etc/yum.repos.d/docker-ce.repo

安装指定版本

yum -y install docker-ce-18.06.3.ce-3.el7

开机自启动docker

systemctl enable docker && systemctl start docker

查看docker 版本

docker version

设置Docker镜像加速器:

mkdir -p /etc/docker

设置阿里云Yum源 【可登录自己的阿里云,搜索容器镜像服务,配置docker镜像加速器】

sudo tee /etc/docker/daemon.json <<-'EOF'{ "exec-opts": ["native.cgroupdriver=systemd"], "registry-mirrors": [" "live-restore": true, "log-driver":"json-file", "log-opts": {"max-size":"500m", "max-file":"3"}, "storage-driver": "overlay2"}EOF

加载docker配置 并 重启docekr

sudo systemctl daemon-reload

重启docker

sudo systemctl restart docker

12、三台服务器上安装 kubeadm、kubelet和kubectl 三个组件

添加阿里云的YUM软件源

由于kubernetes的镜像源在国外,非常慢,这里切换成国内的阿里云镜像源:

cat > /etc/yum.repos.d/kubernetes.repo << EOF[kubernetes]name=Kubernetesbaseurl=install -y kubelet-1.18.0 kubeadm-1.18.0 kubectl-1.18.0

为了实现Docker使用的cgroup drvier和kubelet使用的cgroup drver一致,建议修改"/etc/sysconfig/kubelet"文件的内容:

vim /etc/sysconfig/kubelet

修改文件内容为:

KUBELET_EXTRA_ARGS="--cgroup-driver=systemd"KUBE_PROXY_MODE="ipvs"

设置为开机自启动即可,由于没有生成配置文件,集群初始化后自动启动:

systemctl enable kubelet

至此,K8s的四个组件安装及配置完毕

部署K8s集群

13、部署K8s集群的Master节点

查看K8s所需镜像

kubeadm config images list

14、部署K8s Master 节点【只需在Master节点执行即可,我的master节点的Ip地址为:192.168.136.135】

# 由于默认拉取镜像地址k8s.gcr.io国内无法访问,这里需要指定阿里云镜像仓库地址kubeadm init \ --apiserver-advertise-address=192.168.136.135 \ --image-repository registry.aliyuncs.com/google_containers \ --kubernetes-version v1.18.0 \ --service-cidr=10.96.0.0/12 \ --pod-network-cidr=10.244.0.0/16

根据提示,在master节点上做如下配置

mkdir -p $HOME/.kubesudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/configsudo chown $(id -u):$(id -g) $HOME/.kube/config

14、部署K8s集群的Node节点,Node节点加入集群

在两个Node节点,执行Master节点的提示语句,使子节点加入master集群

kubeadm join 192.168.136.135:6443 --token cuzc43.83wxhfwd4mgul4ts \ --discovery-token-ca-cert-hash sha256:6eac1ffac64643db9b89cc131a7f731c1ddb302ca3653c931c97283999ef2962

默认的token有效期为2小时,当过期之后,该token就不能用了,这时可以使用如下的命令创建token:

kubeadm token create --print-join-command

当然,为了防止以后其他子节点加入时Token过期,我们生产一个永不过期的token

# 生成一个永不过期的tokenkubeadm token create --ttl 0 --print-join-command

执行完毕后,在Master节点查看子节点的信息

kubectl get nodes

ok,截止到这儿,k8s节点集群就初步完成了。但三个节点的状态都是NotReady ,为什么?

15、部署CNI网络插件

kubernetes支持多种网络插件,比如flannel、calico、canal等,任选一种即可,本次选择flannel,在Master节点上获取flannel配置文件(可能会失败,如果失败,请下载到本地,然后安装):

wget kube-flannel.yml ,找到该文件后,上传至 Master 服务器的root 根目录下

kube-flannel.yml 文件内容为:

---apiVersion: policy/v1beta1kind: PodSecurityPolicymetadata: name: psp.flannel.unprivileged annotations: seccomp.security.alpha.kubernetes.io/allowedProfileNames: docker/default seccomp.security.alpha.kubernetes.io/defaultProfileName: docker/default apparmor.security.beta.kubernetes.io/allowedProfileNames: runtime/default apparmor.security.beta.kubernetes.io/defaultProfileName: runtime/defaultspec: privileged: false volumes: - configMap - secret - emptyDir - hostPath allowedHostPaths: - pathPrefix: "/etc/cni/net.d" - pathPrefix: "/etc/kube-flannel" - pathPrefix: "/run/flannel" readOnlyRootFilesystem: false # Users and groups runAsUser: rule: RunAsAny supplementalGroups: rule: RunAsAny fsGroup: rule: RunAsAny # Privilege Escalation allowPrivilegeEscalation: false defaultAllowPrivilegeEscalation: false # Capabilities allowedCapabilities: ['NET_ADMIN', 'NET_RAW'] defaultAddCapabilities: [] requiredDropCapabilities: [] # Host namespaces hostPID: false hostIPC: false hostNetwork: true hostPorts: - min: 0 max: 65535 # SELinux seLinux: # SELinux is unused in CaaSP rule: 'RunAsAny'---kind: ClusterRoleapiVersion: rbac.authorization.k8s.io/v1metadata: name: flannelrules:- apiGroups: ['extensions'] resources: ['podsecuritypolicies'] verbs: ['use'] resourceNames: ['psp.flannel.unprivileged']- apiGroups: - "" resources: - pods verbs: - get- apiGroups: - "" resources: - nodes verbs: - list - watch- apiGroups: - "" resources: - nodes/status verbs: - patch---kind: ClusterRoleBindingapiVersion: rbac.authorization.k8s.io/v1metadata: name: flannelroleRef: apiGroup: rbac.authorization.k8s.io kind: ClusterRole name: flannelsubjects:- kind: ServiceAccount name: flannel namespace: kube-system---apiVersion: v1kind: ServiceAccountmetadata: name: flannel namespace: kube-system---kind: ConfigMapapiVersion: v1metadata: name: kube-flannel-cfg namespace: kube-system labels: tier: node app: flanneldata: cni-conf.json: | { "name": "cbr0", "cniVersion": "0.3.1", "plugins": [ { "type": "flannel", "delegate": { "hairpinMode": true, "isDefaultGateway": true } }, { "type": "portmap", "capabilities": { "portMappings": true } } ] } net-conf.json: | { "Network": "10.244.0.0/16", "Backend": { "Type": "vxlan" } }---apiVersion: apps/v1kind: DaemonSetmetadata: name: kube-flannel-ds namespace: kube-system labels: tier: node app: flannelspec: selector: matchLabels: app: flannel template: metadata: labels: tier: node app: flannel spec: affinity: nodeAffinity: requiredDuringSchedulingIgnoredDuringExecution: nodeSelectorTerms: - matchExpressions: - key: kubernetes.io/os operator: In values: - linux hostNetwork: true priorityClassName: system-node-critical tolerations: - operator: Exists effect: NoSchedule serviceAccountName: flannel initContainers: - name: install-cni image: quay.io/coreos/flannel:v0.14.0 command: - cp args: - -f - /etc/kube-flannel/cni-conf.json - /etc/cni/net.d/10-flannel.conflist volumeMounts: - name: cni mountPath: /etc/cni/net.d - name: flannel-cfg mountPath: /etc/kube-flannel/ containers: - name: kube-flannel image: quay.io/coreos/flannel:v0.14.0 command: - /opt/bin/flanneld args: - --ip-masq - --kube-subnet-mgr resources: requests: cpu: "100m" memory: "50Mi" limits: cpu: "100m" memory: "50Mi" securityContext: privileged: false capabilities: add: ["NET_ADMIN", "NET_RAW"] env: - name: POD_NAME valueFrom: fieldRef: fieldPath: metadata.name - name: POD_NAMESPACE valueFrom: fieldRef: fieldPath: metadata.namespace volumeMounts: - name: run mountPath: /run/flannel - name: flannel-cfg mountPath: /etc/kube-flannel/ volumes: - name: run hostPath: path: /run/flannel - name: cni hostPath: path: /etc/cni/net.d - name: flannel-cfg configMap: name: kube-flannel-cfg

View Code

可以新建一个文本文件,粘贴内容后,修改文件类型后,上传至服务器

通过scp命令,上传至Master服务器

在root目录下执行如下语句,修改kube-flannel.yml中的镜像仓库地址为国内源

sed -i 's/quay.io/quay-mirror.qiniu.com/g' kube-flannel.yml

然后在root目录执行命令

kubectl apply -f kube-flannel.yml

安装完成后,重启 kubelet

systemctl restart kubelet

再次查看各节点状态

kubectl get nodes

还是NotReady ,怎么解决?

查看 kubelet 日志

journalctl -xefu kubelet

输入以下指令,查看 k8s 的 Pod 运行状态

kubectl get pod -n kube-system

可以看到 pod kube-flannel 的状态是ImagePullBackoff,意思是镜像拉取失败了

后来,查了大量资料,终于解决了这个问题。

按照上图,在/etc/hosts 文件中添加DNS解析,如下:

sudo vim /etc/hosts #在/etc/hosts增加以下这条199.232.28.133 raw.githubusercontent.com

在自己的电脑中 C:\Windows\System32\drivers\etc 目录下的 hosts文件中同样增加这个DNS解析,这样有助于你通过 网站下载 .yml 文件

然后,将kube-flannel.yml中的  quay-mirror.qiniu.com 替换为 quay.io ,并再次执行:

kubectl apply -f kube-flannel.yml

等个五分钟左右,查看Nodes节点状态,居然奇迹般的变成了 Ready,整个过程具体发生了什么,我也不清楚,总之成功了。

最后,我们通过K8s,部署一个Nginx服务,测试下集群是否部署成功。

16、在master节点部署一个Nginx

部署Nginx:

kubectl create deployment nginx --image=nginx:1.14-alpine

暴露端口:

kubectl expose deployment nginx --port=80 --type=NodePort

查看服务状态:

kubectl get pods,svc

访问 Master 服务器的 31673 端口,查看Nginx是否部署成功。

参考博客:​​https://zhuanlan.zhihu.com/p/265968760​​

参考博客:​​https://jianshu.com/p/bbd79e0444ea?ivk_sa=1024320u​​

@天才卧龙的博客

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:M24LR64-R:13.56 MHz双接口EEPROM开发方案
下一篇:java并发编程死锁定义及如何避免死锁
相关文章

 发表评论

暂时没有评论,来抢沙发吧~