虚拟化容器,大数据,DBA,中间件,监控。

Kubernetes部署(九):CoreDNS、Dashboard、Ingress部署

22 11月
作者:admin|分类:容器虚拟化

Kubernetes部署(九):CoreDNS、Dashboard、Ingress部署

运维开发网 https://www.qedev.com 2020-03-02 11:48 出处:51CTO 作者:李永峰Billy
创建CoreDNSkubernetes内部的服务发现以及pod之间的域名解析服务都是通过dns来实现,所以DNS对kubernets集群来说非常重要。目前dns有2种,一种是kubedns,一种是coredns,本次我们安装的是Coredns。所有的软件及配置文件都保存在前面文章提到的百度网盘里:百度共享链接在此文章里[ [email protected] ]#kubectlcreate-fcoredns

相关内容:

Kubernetes部署(一):架构及功能说明

Kubernetes部署(二):系统环境初始化

Kubernetes部署(三):CA证书制作

Kubernetes部署(四):ETCD集群部署

Kubernetes部署(五):Haproxy、Keppalived部署

Kubernetes部署(六):Master节点部署

Kubernetes部署(七):Node节点部署

Kubernetes部署(八):Flannel网络部署

Kubernetes部署(九):CoreDNS、Dashboard、Ingress部署

Kubernetes部署(十):储存之glusterfs和heketi部署

Kubernetes部署(十一):管理之Helm和Rancher部署

Kubernetes部署(十二):helm部署harbor企业级镜像仓库

创建CoreDNS

  • kubernetes内部的服务发现以及pod之间的域名解析服务都是通过dns来实现,所以DNS对kubernets集群来说非常重要。目前dns有2种,一种是kube dns,一种是core dns,本次我们安装的是Coredns。

所有的软件及配置文件都保存在前面文章提到的百度网盘里 :百度共享链接在此文章里

[[email protected] k8s]# kubectl create -f coredns/coredns.yaml 
serviceaccount/coredns created
clusterrole.rbac.authorization.k8s.io/system:coredns created
clusterrolebinding.rbac.authorization.k8s.io/system:coredns created
configmap/coredns created
deployment.extensions/coredns created
service/coredns created

[[email protected] yaml]# kubectl get pod -n kube-system 
NAME                       READY     STATUS    RESTARTS   AGE
coredns-5f94b495b5-58t47   1/1       Running   0          6m
coredns-5f94b495b5-wvcsg   1/1       Running   0          6m

然后我们就可以随便进入一个pod,去ping域名看dns是否可以正常解析。

[[email protected] yaml]# kubectl get pod
NAME                     READY     STATUS    RESTARTS   AGE
tomcat-7666b9764-mfgpb   1/1       Running   0          11h
[[email protected] yaml]# kubectl exec -it tomcat-7666b9764-mfgpb -- /bin/sh
# ping baidu.com
PING baidu.com (220.181.57.216) 56(84) bytes of data.
64 bytes from 220.181.57.216 (220.181.57.216): icmp_seq=1 ttl=54 time=37.2 ms
64 bytes from 220.181.57.216 (220.181.57.216): icmp_seq=2 ttl=54 time=37.0 ms
64 bytes from 220.181.57.216 (220.181.57.216): icmp_seq=3 ttl=54 time=36.6 ms
64 bytes from 220.181.57.216 (220.181.57.216): icmp_seq=4 ttl=54 time=37.9 ms
^C
--- baidu.com ping statistics ---
4 packets transmitted, 4 received, 0% packet loss, time 3000ms
rtt min/avg/max/mdev = 36.629/37.230/37.958/0.498 ms

创建Dashboard

[[email protected] yaml]# kubectl create -f dashboard/

[[email protected] yaml]# kubectl cluster-info
Kubernetes master is running at https://10.31.90.200:6443
CoreDNS is running at https://10.31.90.200:6443/api/v1/namespaces/kube-system/services/coredns:dns/proxy
kubernetes-dashboard is running at https://10.31.90.200:6443/api/v1/namespaces/kube-system/services/https:kubernetes-dashboard:/proxy

To further debug and diagnose cluster problems, use 'kubectl cluster-info dump'.

访问Dashboard

https://10.31.90.200:6443/api/v1/namespaces/kube-system/services/https:kubernetes-dashboard:/proxy

用户名:admin 密码:admin 选择令牌模式登录。

获取Token

kubectl -n kube-system describe secret $(kubectl -n kube-system get secret | grep admin-user | awk '{print $1}')

操作完以上步骤就可以看到dashboard了。

Kubernetes部署(九):CoreDNS、Dashboard、Ingress部署

Ingress部署

  • Kubernetes中,Service资源和Pod资源的IP地址仅能用于集群网络内部的通信,所有的网络流量都无法穿透边界路由器(Edge Router)以实 现集群内外通信。尽管可以为Service使用NodePort或LoadBalancer类型通过节点引入外部流量,但它依然是4层流量转发,可用的负载均衡器也 为传输层负载均衡机制。

  • Ingress是Kubernetes API的标准资源类型之一,它其实就是一组基于DNS名称(host)或URL路径把请求转发至指定的Service资源的规则, 用于将集群外部的请求流量转发至集群内部完成服务发布。然而,Ingress资源自身并不能进行“流量穿透”,它仅是一组路由规则的集合,这些 规则要想真正发挥作用还需要其他功能的辅助,如监听某套接字,然后根据这些规则的匹配机制路由请求流量。这种能够为Ingress资源监听套 接字并转发流量的组件称为Ingress控制器(Ingress Controller)。

    Kubernetes部署(九):CoreDNS、Dashboard、Ingress部署

  • Ingress控制器可以由任何具有反向代理(HTTP/HTTPS)功能的服务程序实现,如Nginx、Envoy、HAProxy、Vulcand和Traefik等。Ingress 控制器自身也是运行于集群中的Pod资源对象,它与被代理的运行为Pod资源的应用运行于同一网络中,如上图中ingress-nginx与pod1、pod3等 的关系所示。
  • 另一方面,使用Ingress资源进行流量分发时,Ingress控制器可基于某Ingress资源定义的规则将客户端的请求流量直接转发至与Service对应 的后端Pod资源之上,这种转发机制会绕过Service资源,从而省去了由kube-proxy实现的端口代理开销。如上图所示,Ingress规则需要由一个 Service资源对象辅助识别相关的所有Pod对象,但ingress-nginx控制器可经由api.iLinux.io规则的定义直接将请求流量调度至pod3或pod4,而无须 经由Service对象API的再次转发,WAP相关规则的作用方式与此类同。
  • 首先需要说明的是此次我们部署的是v0.21.0版本的ingress,在最新的v0.21.0版本历没有了default backend。

    Kubernetes部署(九):CoreDNS、Dashboard、Ingress部署

创建Ingress Controller

可以下载官方的mandatory.yaml到本地安装

[[email protected] ingress]# kubectl create -f mandatory.yaml 

或者

kubectl apply -f https://raw.githubusercontent.com/kubernetes/ingress-nginx/master/deploy/mandatory.yaml

由于官方的ingress也只是一个pod并没有对外暴露IP和端口,所以我们需要为ingress创建一个对外暴露的service,暴露nodePort 20080和20443端口。对于想部署在生产环境的,可以单独拿2个node服务器来单独部署ingress controller,然后暴露80和443端口就可以了。

apiVersion: v1
kind: Service
metadata:
  name: ingress-nginx
  namespace: ingress-nginx
  labels:
    app.kubernetes.io/name: ingress-nginx
    app.kubernetes.io/part-of: ingress-nginx
spec:
  type: NodePort
  ports:
    - name: http
      nodePort: 20080
      port: 80
      targetPort: 80
      protocol: TCP
    - name: https
      nodePort: 20443
      port: 443
      targetPort: 443
      protocol: TCP
  selector:
    app.kubernetes.io/name: ingress-nginx
    app.kubernetes.io/part-of: ingress-nginx

然后在haproxy的backend中加入3个node 的20080和20443端口,不明白我的网络架构的请看这里,然后将www.cnLinux.clubA记录解析到10.31.90.200

listen ingress-80
        bind 10.31.90.200:80
        mode tcp
        balance roundrobin
        timeout server 15s
        timeout connect 15s

        server apiserver01 10.31.90.204:20080 check port 20080 inter 5000 fall 5
        server apiserver02 10.31.90.205:20080 check port 20080 inter 5000 fall 5
        server apiserver03 10.31.90.206:20080 check port 20080 inter 5000 fall 5

listen ingress-443
        bind 10.31.90.200:443
        mode tcp
        balance roundrobin
        timeout server 15s
        timeout connect 15s

        server apiserver01 10.31.90.204:20443 check port 20443 inter 5000 fall 5
        server apiserver02 10.31.90.205:20443 check port 20443 inter 5000 fall 5
        server apiserver03 10.31.90.206:20443 check port 20443 inter 5000 fall 5

创建测试的tomcat demo

[[email protected] yaml]# kubectl create -f tomcat-demo.yaml 
apiVersion: apps/v1
kind: Deployment
metadata:
  name: tomcat
  labels:
    app: tomcat
spec:
  replicas: 1
  selector:
    matchLabels:
      app: tomcat
  template: 
    metadata:
      labels:
        app: tomcat
    spec:
      containers:
      - name: tomcat
        image: tomcat:latest
        ports:
        - containerPort: 8080
---
apiVersion: v1
kind: Service
metadata:
  name: tomcat
spec:
  selector:
    app: tomcat
  ports:
  - name: tomcat
    protocol: TCP
    port: 8080
    targetPort: 8080
  type: ClusterIP 

创建ingress

apiVersion: extensions/v1beta1
kind: Ingress
metadata:
  name: tomcat
  annotations:
    nginx.ingress.kubernetes.io/rewrite-target: /
    kubernetes.io/ingress.class: nginx
spec:
  rules:
    - host: www.cnLinux.club
      http:
        paths:
          - path: 
            backend:
              serviceName: tomcat
              servicePort: 8080

至此ingress就已创建完成。在浏览器打开www.cnLinux.club 就可以看到tomcat的页面。

Kubernetes部署(九):CoreDNS、Dashboard、Ingress部署

后续会陆续更新所有的k8s相关文档,如果你觉得我写的不错,希望大家多多关注点赞,非常感谢!

扫码领视频副本.gif

0
浏览432 评论0
返回
目录
返回
首页
Kubernetes部署(十):储存之glusterfs和heketi部署 Kubernetes部署(八):Flannel网络部署