`

Kubernetes(k8s)环境搭建实战

 
阅读更多

k8s官方版本更新太快,网上很多的文章都已经过时了,很多工具或者接口都发生了变化.官网上的不是很好理解,这里只记录搭建k8s环境的过程,不会讲太多k8s的各种概念,所以建议先去了解下各种概念,然后来搭建环境,然后再对比着理解各种概念是一种比较好的学习方式。

碎碎念

按网上有些文章的意思,之前k8s是有提供安装的版本,并且有yum源,但是看目前是不需要安装的,解压可用

官网地址:https://github.com/kubernetes/kubernetes

可以自己下载源码包进行编译,不过需要go的支持,而且在墙内的话会编译不过,原因是需要的镜像被墙了,所以直接下载release版本即可,地址:https://github.com/kubernetes/kubernetes/releases

笔者使用的是Release v1.2.0-alpha.6,这个包已经有496 MB之大了,而之前的Release v1.1.4版本才182M,可见更新之快,之多,笔者之前还使用过1.0.1版本,有些接口和参数就已经发生变化了,比如之前kubectl expose的参数是public-ip,而现在改为externalIPs,所以大家实践时要根据自己的版本 
 
环境说明:

2台机器,167和168,系统都是CentOS6.5

167上面会跑etcd,flannel,kube-apiserver,kube-controller-manager,kube-scheduler,自己也充当minion,所以也会跑kube-proxy和kubelet 

168上只需要跑etcd,flannel,kube-proxy和kubelet,etcd和flannel是为了打通2台机器的网络

k8s是建立在docker之上的,所以docker是必须的 
 
环境搭建 
 
打通网络

k8s还需要etcd和Flannel的支持,先下载这2个包,注意2台机器都需要下载和执行

wget https://github.com/coreos/etcd/releases/download/v2.2.4/etcd-v2.2.4-linux-amd64.tar.gz
wget https://github.com/coreos/flannel/releases/download/v0.5.5/flannel-0.5.5-linux-amd64.tar.gz
 
分别解压,然后添加到环境变量

cd etcd-v2.2.4-linux-amd64/
cp etcd etcdctl /usr/bin/
cd flannel-0.5.5/
cp flanneld mk-docker-opts.sh /usr/bin

运行

# 167上运行
etcd -name infra0 -initial-advertise-peer-urls http://172.16.48.167:2380 -listen-peer-urls http://172.16.48.167:2380 -listen-client-urls http://172.16.48.167:2379,http://127.0.0.1:2379 -advertise-client-urls http://172.16.48.167:2379  -discovery https://discovery.etcd.io/322a6b06081be6d4e89fd6db941c4add --data-dir /usr/local/kubernete_test/flanneldata  >> /usr/local/kubernete_test/logs/etcd.log 2>&1 &
 
# 168上运行
etcd -name infra1 -initial-advertise-peer-urls http://203.130.48.168:2380 -listen-peer-urls http://203.130.48.168:2380 -listen-client-urls http://203.130.48.168:2379,http://127.0.0.1:2379 -advertise-client-urls http://203.130.48.168:2379  -discovery https://discovery.etcd.io/322a6b06081be6d4e89fd6db941c4add  --data-dir /usr/local/kubernete_test/flanneldata  >> /usr/local/kubernete_test/logs/etcd.log 2>&1 &
 
注意中间的-discovery参数,这是个url地址,我们可以通过访问 https://discovery.etcd.io/new?size=2来获得,size表示minion的数目,我们这里是2,2台机器要用同一个url地址,如果访问这个地址,会发现返回一坨json字符串,这个服务器我们也是可以自己搭建的 
这样就启动成功了,然后我们可以在任意一台机器上执行

etcdctl ls
etcdctl cluster-health
 
来确认已经成功启动,如果有错可以查看日志文件

tail -n 1000 -f /usr/local/kubernete_test/logs/etcd.log
 
然后在任一台机器上执行 

etcdctl set /coreos.com/network/config '{ "Network": "172.17.0.0/16" }'

执行

[root@w ~]# etcdctl ls /coreos.com/network/subnets
/coreos.com/network/subnets/172.17.4.0-24
/coreos.com/network/subnets/172.17.13.0-24
[root@w ~]# etcdctl get /coreos.com/network/subnets/172.17.4.0-24
{"PublicIP":"203.130.48.168"}
[root@w ~]# etcdctl get /coreos.com/network/subnets/172.17.13.0-24
{"PublicIP":"203.130.48.167"}
 
可以看到167上的网段为172.17.4.13/24 
168上的为172.17.14.0/24,我们后面建立的docker容器的IP就分别在这2个网段中 
然后2台机器上分别执行

flanneld >> /usr/local/kubernete_test/logs/flanneld.log 2>&1 &
 
在每个机器上执行: 

mk-docker-opts.sh -i
source /run/flannel/subnet.env
rm /var/run/docker.pid
ifconfig docker0 ${FLANNEL_SUBNET}
 
然后重启docker 

service docker restart
 
这样2台机器上的容器的网络就打通了,后续可以看到效果  
安装和启动k8s

wget https://github.com/kubernetes/kubernetes/releases/download/v1.2.0-alpha.6/kubernetes.tar.gz
 
然后各种解压

tar zxvf <span style="line-height: 1.5; font-size: 9pt;">kubernetes.tar.gz </span>cd kubernetes/server
tar zxvf kubernetes-server-linux-amd64.tar.gz  # 这个是我们需要执行命令的包
cd kubernetes/server/bin/

复制命令到环境变量中,这里我只复制了kubectl

cp kubectl /usr/bin/

在167上执行 

./kube-apiserver --address=0.0.0.0  --insecure-port=8080 --service-cluster-ip-range='172.16.48.167/24' --log_dir=/usr/local/kubernete_test/logs/kube --kubelet_port=10250 --v=0 --logtostderr=false --etcd_servers=http://172.16.48.167:2379 --allow_privileged=false  >> /usr/local/kubernete_test/logs/kube-apiserver.log 2>&1 &
 
./kube-controller-manager  --v=0 --logtostderr=false --log_dir=/usr/local/kubernete_test/logs/kube --master=172.16.48.167:8080 >> /usr/local/kubernete_test/logs/kube-controller-manager 2>&1 &
 
./kube-scheduler  --master='172.16.48.167:8080' --v=0  --log_dir=/usr/local/kubernete_test/logs/kube  >> /usr/local/kubernete_test/logs/kube-scheduler.log 2>&1 &
 
这样就把master跑起来了,

[root@w ~]# kubectl get componentstatuses
NAME                STATUS    MESSAGE              ERROR
scheduler            Healthy  ok                  
controller-manager  Healthy  ok                  
etcd-0              Healthy  {"health": "true"}  
etcd-1              Healthy  {"health": "true"}
 
我们可以看到都很健康的在运行 
然后我们就阔以愉快的在2台机器上跑minion需要的程序了(注意167同时也是minion)

# 167
./kube-proxy  --logtostderr=false --v=0 --master=http://172.16.48.167:8080  >> /usr/local/kubernete_test/logs/kube-proxy.log 2>&1 &
 
./kubelet  --logtostderr=false --v=0 --allow-privileged=false  --log_dir=/usr/local/kubernete_test/logs/kube  --address=0.0.0.0  --port=10250  --hostname_override=172.16.48.167  --api_servers=http://172.16.48.167:8080  >> /usr/local/kubernete_test/logs/kube-kubelet.log 2>&1 &
 
# 168
./kube-proxy  --logtostderr=false --v=0 --master=http://172.16.48.167:8080  >> /usr/local/kubernete_test/logs/kube-proxy.log 2>&1 &
 
./kubelet  --logtostderr=false --v=0 --allow-privileged=false  --log_dir=/usr/local/kubernete_test/logs/kube  --address=0.0.0.0  --port=10250  --hostname_override=172.16.48.97  --api_servers=http://172.16.48.167:8080  >> /usr/local/kubernete_test/logs/kube-kubelet.log 2>&1 &
 
来确认启动成功

[root@w ~]# kubectl get nodes
NAME            LABELS                                STATUS    AGE
172.16.48.167  kubernetes.io/hostname=172.16.48.167  Ready    1d
172.16.48.168  kubernetes.io/hostname=172.16.48.168  Ready    18h
 
2个minion都是Ready  
提交命令

k8s支持2种方式,一种是直接通过命令参数的方式,另一种是通过配置文件的方式,配置文件的话支持json和yaml,下面只讲通过命令参数的方式 
 
建立rc和pod

kubectl run nginx --image=nginx --port=80  --replicas=5
 
这样就建立了一个rc和5个pod 
通过以下命令可以查看

kubectl get rc,pods
 
如果我们手工把建立的pod删掉,k8s会自动重新启动一个,始终确保pod的数目为5  
跨机器间的通信

我们分别在167和168上用docker ps来查看,会发现2台机器上分别跑了一下nginx的容器,我们在2台机器上随意找一个容器进入,使用ip a来查看IP地址,会发现167上为172.17.13.0/24中,168为172.17.4.0/24中,我们分别ping对方的IP会发现是可以ping通的,说明网络已经通了,如果宿主机可以连上外网的话,在容器中也是可以访问外网的

如果我们不通过k8来启动容器,而是直接通过docker来启动容器,会发现启动的容器IP端也是在我们上述2个IP段之内的,并且和k8启动的容器的网络是互通的

当然IP端随机分配并且是内网的IP会给我们造成一些困扰

比如我们一般会这样做:通过docker启动容器,然后通过pipework来给其分配固定IP地址,既可以是内网IP也可以是外网IP,辣么,这样的话k8s启动的容器会和他们想通么

答案是通了一半,即通过k8s启动的容器是可以访问pipework设置的容器的内网IP和外网IP,但是反过来不行,pipework设置的容器是不能访问k8s启动的容器的,虽然是这样,但是不影响我们一般的需求,因为我们一般通过k8s启动的容器是web应用,通过pipework设置固定IP的是数据库之类,刚好可以满足从web应用访问数据库的需求 
 
暴露service

kubectl expose rc nginx --port=80 --container-port=9090 --external-ip=x.x.x.168
 
port参数是容器的端口,因为nginx使用的80,所以这里必须是80 
container-port和target-port是一个意思,指的是宿主机转发的端口,可以随意指定一个,也可以不指定 
 
external-ip指的是对外暴露的ip地址,一般用公网IP地址,执行那个命令过后,我们就可以在公网上访问了,但是这里有个问题就是这个IP地址必须是安装了k8s的机器的IP,如果你随便用一个IP是不能访问的,这里也给应用上造成了不便

查看service

kubectl get svc

可以看到CLUSTER_IP和EXTERNAL_IP 
 
后续的问题

如果用k8s做负载均衡的话,效率会怎样?怎么保持session?

由于现在k8s还不是很稳定,可能还不是很适合上生产环境

Kubernetes集群部署  http://www.linuxidc.com/Linux/2015-12/125770.htm

OpenStack, Kubernetes, Mesos 谁主沉浮  http://www.linuxidc.com/Linux/2015-09/122696.htm

Kubernetes集群搭建过程中遇到的问题及解决  http://www.linuxidc.com/Linux/2015-12/125735.htm

Kubernetes 的详细介绍请点这里
Kubernetes 的下载地址请点这里

分享到:
评论

相关推荐

    Kubernetes、K8s运维架构师实战集训营【中高级,最新第6期】

    分享一套k8s运维架构师的课程——Kubernetes、K8s运维架构师实战集训营【中高级】,最新第六期,2021年12月结课。提供课程配套的所有文档资料下载! 课程大纲: 第1章 开班仪式 第2章 赠送录播:搭建一个完整企业级...

    Kubernetes、K8s运维架构师实战集训营

    给大家分享一套课程——Kubernetes、K8s运维架构师实战集训营,中高级第六期,2021年12月结课。 课程目录: 第1章 开班仪式 第2章 赠送录播:搭建一个完整企业级K8s集群(二进制) 第3章 Kubernetes 运维管理 第4章...

    【完整版11章】SpringCloud+Kubernetes 微服务容器化交付实战

    课程分享——SpringCloud+Kubernetes 微服务容器化...你可以理解Spring Cloud基础,掌握微服务的搭建,持续集成,持续测试,持续部署,深入理解容器化的实现原理,学会用Helm Chart把多个微服务一键部署到Kubernetes。

    Docker+k8s的微服务实战课程

    Docker+k8s的微服务实战课程 课程目录 一、初识微服务 1 微服务-导学 2 软件架构的进化 3 什么是微服务 4 画出微服务架构图 5 微服务架构的优势和不足 二、微服务带来的问题及解决方案分析 1 微服务架构带来的问题 ...

    Kubernetes入门到进阶实战,系统性掌握K8s生产实践(2021新课,基于v1.19版本).rar

    Kubernetes入门到进阶实战,系统性掌握K8s生产实践(2021新课,基于v1.19版本),课程目录:第1章 课程导学第2章 课前准备之项目准备第3章 Kubernetes之Docker必知必会第4章 Kubernetes基础及集群搭建第5章 ...

    Linux云计算运维工程师路线图(集群、虚拟化、K8S、Docker、智能化、Python大数据)

    第五阶段Kubernetes(K8S)篇 第六阶段Shell基础+实战 地七阶段搜索引擎运维篇+logstash日志收集 第八阶段自动化运维 第九阶日志监控系统Promethus 第十阶段K8S监控方案 第十一阶段大型在线教育运维项目

    深入浅出学K8s.zip

    28 | 面向 K8s 编程:如何通过 Operator 扩展 Kubernetes API? 特别放送 「关注公众号【云世】,免费获取全系列课程内容」 29 | Kubernetes 中也有定时任务吗? 30 | Kubectl 命令行工具使用秘笈 结束语 结束语 |...

    K8s视频教程(2021新课,基于v1.19版本).rar

    Kubernetes入门到进阶实战,系统性掌握K8s生产实践(基于v1.19版本,2021最新);课程目录:第1章 课程导学第2章 课前准备之项目准备第3章 Kubernetes之Docker必知必会第4章 Kubernetes基础及集群搭建第5章 ...

    Kubernetes/K8S企业容器云平台入门与进阶实战

    同时介绍基于EFK如何搭建Kubernetes集群的日志收集系统。 学完本章,我们的Django demo项目已经可以运行在k8s集群中,同时我们可以使用域名进行服务的访问。 第三章 本章基于k8s集群部署gitlab、sonarQube、 Jenkins...

    Docker+K8s企业级DevOps实战视频.zip

    2.1 kubernetes架构、工作流程介绍及集群搭建 2.2 使用pod管理业务应用(上) 2.3 使用pod管理业务应用(下) 2.4 kubernetes workload的使用 2.5 kubernetes调度策略 2.6 集群服务发现及Ingress的实现服务访问 2.7 ...

    容器集群管理系统K8S从入门到精通视频教程

    课程目录1-应用部署方式演变2-kubernetes介绍3-kubernetes组件4-kubernetes概念5-环境搭建--环境规划6-环境搭建--主机安装7-环境搭建--环境初始化8-环境搭建--集群所需组件安装9-环境搭建--集群安装10-环境搭建--...

    企业级K8S的部署和实战案例教程

    Kubernetes是一个开源的,用于管理云平台...通过本教程的学习,你可以掌握K8S的简介、K8S的集群搭建(三种部署方式)、K8S企业应用案例( SpringBoot和K8S的实战、SpringCloud的客户端案例等),胜任企业级的开发工作。

    Kubernetes开源书.pdf

    包括Pod、Deployment、Service、StatefulSet等核心资源对象,并通过实例一步步指导读者从环境搭建到应用部署、服务发现、滚动更新、存储管理、网络配置以及安全策略等实战操作,涵盖了Kubernetes在生产环境中的关键...

    kubekey2.2.1搭建高可用k8s1.22.10集群-详细笔记资料包

    kubekey2.2.1搭建高可用k8s1.22.10集群-详细笔记资料包,kubekey搭建高可用k8s集群详细笔记

    利用开源项目 Crane 搭建测试集群,检测集群成本及利用率实战手册

    本次训练营将会演示如何快速搭建一个 Kubernetes+Crane 环境,以及如何基于 Crane 优化你的集群和应用。 Kubernetes是用于自动部署、扩展和管理“容器化应用程序”的开源系统。该系统由Google设计并捐赠给Cloud ...

    Java版水果管理系统源码-k8s:k8s

    为了让大家有更真实的体验,在这个培训课程中,我虚拟了一家互联网创业公司,而我们就是这家创业公司的技术人员,我们要从0开始为这家创业公司搭建IT环境,我们的所有服务都是容器化的,并运行在Kubernetes高可用...

    【重磅】史上最全的阿里云分享的云原生技术学习资料合集(120份).zip

    阿里云文件存储:K8s 云原生场景下的共享高性能存储 安全容器的发展与思考 拐点已至, 云原生引领数字化转型升级 拐点已至,云原生引领数字化转型升级易立 函数计算在 双11 小程序场景中的应用 基于 K8s 扩展机制...

    GO语言进阶.docx

    11-1_Ubuntu18下通过kubeadm单机安装k8s(v1.14.1)集群.mp4 11-2_Ubuntu18下安装k8s(v1.14.1)可视化管理工具.mp4 11-3_Docker与Docker-Compose基础概念.mp4 11-4_基于容器的微服务反向代理利器Traefik.mp4 11-5_...

Global site tag (gtag.js) - Google Analytics