k8s集群安装部署单机MySQL(使用StorageClass作为后端存储)

本文涉及的产品
RDS MySQL DuckDB 分析主实例,集群系列 4核8GB
简介: k8s集群安装部署单机MySQL(使用StorageClass作为后端存储)

前言:


k8s集群可以快速的部署各种服务,而MySQL作为有状态服务,必须要提供数据持久化存储,说人话就是volume。

在k8s中volume可以是本地目录提供,也可以是动态的由网络存储比如nfs或者块存储服务(比如,ceph,iscsi等等)提供,本文将使用nfs网络存储服务,动态的做这个volume持久化。

环境介绍:


实验环境应该是有一个正常运行的k8s环境,我的k8s版本是1.19.4

[root@master ~]# k version
Client Version: version.Info{Major:"1", Minor:"19", GitVersion:"v1.19.4", GitCommit:"d360454c9bcd1634cf4cc52d1867af5491dc9c5f", GitTreeState:"clean", BuildDate:"2020-11-11T13:17:17Z", GoVersion:"go1.15.2", Compiler:"gc", Platform:"linux/amd64"}
Server Version: version.Info{Major:"1", Minor:"19", GitVersion:"v1.19.3", GitCommit:"1e11e4a2108024935ecfcb2912226cedeafd99df", GitTreeState:"clean", BuildDate:"2020-10-14T12:41:49Z", GoVersion:"go1.15.2", Compiler:"gc", Platform:"linux/amd64"}

集群已经正常运行了

[root@master ~]# k get po -A
NAMESPACE              NAME                                                 READY   STATUS             RESTARTS   AGE
database               mysql-7c545744db-xzvnl                               1/1     Running            2          23h
database               mysql2-5db57c8bc8-xrnz6                              1/1     Running            1          13h
ingress-nginx          c7n3-ingress-nginx-controller-kmhz9                  1/1     Running            8          5d10h
ingress-nginx          c7n3-ingress-nginx-controller-z84cg                  1/1     Running            10         4d13h
ingress-nginx          c7n3-ingress-nginx-defaultbackend-7d64b4f74f-t7q7p   1/1     Running            7          4d
kube-system            coredns-6c76c8bb89-qt6zj                             1/1     Running            12         5d15h
kube-system            coredns-6c76c8bb89-r5vhq                             1/1     Running            12         5d15h
kube-system            etcd-c7n.gzinfo                                      1/1     Running            13         6d21h
kube-system            kube-apiserver-c7n.gzinfo                            1/1     Running            13         6d21h
kube-system            kube-controller-manager-c7n.gzinfo                   1/1     Running            14         6d21h
kube-system            kube-flannel-ds-d8sk8                                1/1     Running            8          4d14h
kube-system            kube-flannel-ds-jmnqj                                1/1     Running            8          4d13h
kube-system            kube-flannel-ds-lv57p                                1/1     Running            15         6d20h
kube-system            kube-proxy-dkxqz                                     1/1     Running            11         6d21h
kube-system            kube-proxy-llxrd                                     1/1     Running            14         6d21h
kube-system            kube-proxy-m49g2                                     1/1     Running            8          4d14h
kube-system            kube-scheduler-c7n.gzinfo                            1/1     Running            14         6d21h

集群所用网段是192.168.217.0/24

nfs的配置:

[root@master ~]# cat /etc/exports
/data/k8s 10.244.0.0/16(rw,no_root_squash,no_subtree_check) 192.168.217.16(rw,no_root_squash,no_subtree_check) 192.168.217.0/24(rw,no_root_squash,no_subtree_check)
/data/nfs-sc  10.244.0.0/16(rw,no_root_squash,no_subtree_check) 192.168.217.16(rw,no_root_squash,no_subtree_check) 192.168.217.0/24(rw,no_root_squash,no_subtree_check)

实验步骤:


一,查询StorageClass的name


[root@master ~]# k get sc -A
NAME              PROVISIONER                           RECLAIMPOLICY   VOLUMEBINDINGMODE   ALLOWVOLUMEEXPANSION   AGE
mynfs             mynfs                                 Delete          Immediate           true                   16h
nfs (default)     nfs                                   Delete          Immediate           true                   16h
nfs-provisioner   choerodon.io/nfs-client-provisioner   Delete          Immediate           false                  4d8h
nfs-sc            storage.pri/nfs                       Delete          Immediate           true                   17h

可以看到nfs是我设定的默认StorageClass  名称。详细信息也验证了default是这个,(StorageClass怎么来的这就不说了,现在只说pvc绑定StorageClass):

[root@master ~]# k describe sc nfs
Name:            nfs
IsDefaultClass:  Yes
Annotations:     kubectl.kubernetes.io/last-applied-configuration={"allowVolumeExpansion":true,"apiVersion":"storage.k8s.io/v1","kind":"StorageClass","metadata":{"annotations":{},"name":"nfs"},"provisioner":"nfs","reclaimPolicy":"Delete"}
,storageclass.kubernetes.io/is-default-class=true
Provisioner:           nfs
Parameters:            <none>
AllowVolumeExpansion:  True
MountOptions:          <none>
ReclaimPolicy:         Delete
VolumeBindingMode:     Immediate
Events:                <none>

二,建立pvc并与nfs这个默认的StorageClass绑定


[root@master mysql]# cat pvc_mysql.yaml
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
  name: nfs-pvc-test
  namespace: database
spec:
  accessModes:
    - ReadWriteOnce
  resources:
    requests:
      storage: 1.5Gi
  storageClassName: nfs

这里需要注意一点,有使用到namespace,因此,namespace需要建立,建立命令为:

k create namespace database

三,建立pv


[root@master mysql]# cat pv_mysql.yaml
kind: PersistentVolume
apiVersion: v1
metadata:
  name: nfs-pv-test
spec:
  accessModes:
    - ReadWriteOnce      
  capacity:
    storage: 1.5Gi
  persistentVolumeReclaimPolicy: Recycle 
  storageClassName: nfs
  nfs:
    path: /data/nfs_sc/nfs-pv-test
    server: 192.168.217.16

这里因为写的path是/data/nfs_sc/nfs-pv-test,因此,需要建立目录  mkdir /data/nfs_sc/nfs-pv-test&&chmod a+x /data/nfs_sc/nfs-pv-test

四,部署MySQL


[root@master mysql]# cat deploy_mysql.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
  name: mysql2
  namespace: database
spec:
  selector:
    matchLabels:
      app: mysql2
  template:
    metadata:
      labels:
        app: mysql2
    spec:
      containers:
      - name: mysql2
        image: mysql:5.7.23
        env:                        
        - name: MYSQL_ROOT_PASSWORD
          value: "mima"
        ports:
        - containerPort: 3306
        volumeMounts:
        - name: nfs-pvc-test
          mountPath: /var/lib/mysql         
          subPath: mysql
      volumes:
      - name: nfs-pvc-test
        persistentVolumeClaim:
          claimName: nfs-pvc-test

五,将部署的MySQL作为一个服务发布出去,从而可以进行维护


[root@master mysql]# cat svc_mysql.yaml
apiVersion: v1
kind: Service
metadata:
  name: mysql2
  namespace: database
spec:
  type: NodePort
  ports:
  - port: 3306
    targetPort: 3306
    nodePort: 32222
  selector:
    app: mysql2
  selector:
    app: mysql2

六,开始部署,执行顺序没有规定,但最好是按这个来啦


k apply -f pv_mysql.yaml
k apply -f pvc_mysql.yaml
k apply -f deploy_mysql.yaml
k apply -f svc_mysql.yaml

七,验证部署是否正确


image.png

image.png

查看pod

[root@master mysql]# k get po -A
NAMESPACE              NAME                                                 READY   STATUS             RESTARTS   AGE
database               mysql-7c545744db-xzvnl                               1/1     Running            2          24h
database               mysql2-5db57c8bc8-xrnz6                              1/1     Running            1          13h

查看端口

[root@master mysql]# netstat -antup |grep 32222
tcp        0      0 0.0.0.0:32222           0.0.0.0:*               LISTEN      3610/kube-proxy     

这个32222端口是由kube-proxy代理发布的,因此,填写任意一个集群内的主机IP都可以访问到MySQL。(我的集群有三个服务器,ip是192.168.217.16/17/18),随便写哪个IP都可以访问到MySQL。

查看pvc,第二行绑定的是nfs那个默认的

[root@master mysql]# k get pvc -A
NAMESPACE     NAME                               STATUS   VOLUME                                     CAPACITY   ACCESS MODES   STORAGECLASS      AGE
database      mysql-pvc-test                     Bound    mysql-pv-test                              1Gi        RWO            nfs-provisioner   47h
database      nfs-pvc-test                       Bound    nfs-pv-test                                1536Mi     RWO            nfs               16h

至此,k8s集群内部署单机MySQL就成功了。

相关实践学习
深入解析Docker容器化技术
Docker是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的Linux机器上,也可以实现虚拟化,容器是完全使用沙箱机制,相互之间不会有任何接口。Docker是世界领先的软件容器平台。开发人员利用Docker可以消除协作编码时“在我的机器上可正常工作”的问题。运维人员利用Docker可以在隔离容器中并行运行和管理应用,获得更好的计算密度。企业利用Docker可以构建敏捷的软件交付管道,以更快的速度、更高的安全性和可靠的信誉为Linux和Windows Server应用发布新功能。 在本套课程中,我们将全面的讲解Docker技术栈,从环境安装到容器、镜像操作以及生产环境如何部署开发的微服务应用。本课程由黑马程序员提供。 &nbsp; &nbsp; 相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
目录
相关文章
|
2月前
|
人工智能 算法 调度
阿里云ACK托管集群Pro版共享GPU调度操作指南
本文介绍在阿里云ACK托管集群Pro版中,如何通过共享GPU调度实现显存与算力的精细化分配,涵盖前提条件、使用限制、节点池配置及任务部署全流程,提升GPU资源利用率,适用于AI训练与推理场景。
323 1
|
2月前
|
弹性计算 监控 调度
ACK One 注册集群云端节点池升级:IDC 集群一键接入云端 GPU 算力,接入效率提升 80%
ACK One注册集群节点池实现“一键接入”,免去手动编写脚本与GPU驱动安装,支持自动扩缩容与多场景调度,大幅提升K8s集群管理效率。
266 89
|
7月前
|
资源调度 Kubernetes 调度
从单集群到多集群的快速无损转型:ACK One 多集群应用分发
ACK One 的多集群应用分发,可以最小成本地结合您已有的单集群 CD 系统,无需对原先应用资源 YAML 进行修改,即可快速构建成多集群的 CD 系统,并同时获得强大的多集群资源调度和分发的能力。
328 9
|
7月前
|
资源调度 Kubernetes 调度
从单集群到多集群的快速无损转型:ACK One 多集群应用分发
本文介绍如何利用阿里云的分布式云容器平台ACK One的多集群应用分发功能,结合云效CD能力,快速将单集群CD系统升级为多集群CD系统。通过增加分发策略(PropagationPolicy)和差异化策略(OverridePolicy),并修改单集群kubeconfig为舰队kubeconfig,可实现无损改造。该方案具备多地域多集群智能资源调度、重调度及故障迁移等能力,帮助用户提升业务效率与可靠性。
|
7月前
|
存储 关系型数据库 MySQL
【免费动手教程上线】阿里云RDS MySQL推出大容量高性能存储:高性能本地盘(最高16TB存储空间)、高性能云盘(最高64TB存储空间)
阿里云RDS MySQL提供高性能本地盘与高性能云盘等存储方案,满足用户大容量、低延迟需求。高性能本地盘单盘最大16TB,IO延时微秒级;高性能云盘兼容ESSD特性,支持IO性能突发、BPE及16K原子写等能力。此外,阿里云还提供免费动手体验教程,帮助用户直观感受云数据库 RDS 存储性能表现。
|
9月前
|
存储 Kubernetes 监控
K8s集群实战:使用kubeadm和kuboard部署Kubernetes集群
总之,使用kubeadm和kuboard部署K8s集群就像回归童年一样,简单又有趣。不要忘记,技术是为人服务的,用K8s集群操控云端资源,我们不过是想在复杂的世界找寻简单。尽管部署过程可能遇到困难,但朝着简化复杂的目标,我们就能找到意义和乐趣。希望你也能利用这些工具,找到你的乐趣,满足你的需求。
919 33
|
9月前
|
Kubernetes 开发者 Docker
集群部署:使用Rancher部署Kubernetes集群。
以上就是使用 Rancher 部署 Kubernetes 集群的流程。使用 Rancher 和 Kubernetes,开发者可以受益于灵活性和可扩展性,允许他们在多种环境中运行多种应用,同时利用自动化工具使工作负载更加高效。
541 19
|
9月前
|
人工智能 分布式计算 调度
打破资源边界、告别资源浪费:ACK One 多集群Spark和AI作业调度
ACK One多集群Spark作业调度,可以帮助您在不影响集群中正在运行的在线业务的前提下,打破资源边界,根据各集群实际剩余资源来进行调度,最大化您多集群中闲置资源的利用率。
|
9月前
|
Prometheus Kubernetes 监控
OpenAI故障复盘丨如何保障大规模K8s集群稳定性
OpenAI故障复盘丨如何保障大规模K8s集群稳定性
371 0
OpenAI故障复盘丨如何保障大规模K8s集群稳定性

推荐镜像

更多