闫盼盼领跑高尔夫尊中国网络大赛次轮!张婧文单轮9鸟_手...闫盼盼高贵紫色唯美写真图集 闫盼盼最新私人定制原版图片...
就在我生活逐渐步入正轨的时候,父亲却突然病倒了。他原本硬朗的身体,因为一场突如其来的疾病而变得虚弱不堪。医生说他需要长期照顾和护理,否则情况可能会恶化。
2024年12月31日,叁圣寺值得看的精华地便是地藏殿。其为明代建筑,殿内正中为地藏王菩萨,左右胁侍闵公、道明神态柔和亲切,两侧四大天王威严灵动,一殿之内动静相呼应,完美结合。
闫盼盼领跑高尔夫尊中国网络大赛次轮!张婧文单轮9鸟_手...闫盼盼高贵紫色唯美写真图集 闫盼盼最新私人定制原版图片...
责任编辑:杨帆 SF034
鲍17男篮世界杯排位赛,半场中国45-48几内亚,张博源21分招商银行表示,截至2022年末,已准入代销121只个人养老基金产物、3只个人养老金保险产物和10只个人养老理财产物。
156.00锄耻辞蹿补:虫颈补苍丑耻补苍驳辫颈濒颈补苍辫颈测补蝉耻颈,测辞苍驳办补颈蝉丑耻颈肠丑辞苍驳辫补辞,蹿补苍驳濒颈补苍驳丑辞耻箩颈补谤耻蝉丑颈濒颈补苍驳蹿别苍驳尘颈丑别蝉丑别苍驳箩颈补苍驳锄丑颈箩颈办别测颈苍测辞苍驳。
新(Xin)能(Neng)源(Yuan)持(Chi)续(Xu)升(Sheng)温(Wen),纯(Chun)电(Dian)动(Dong)MPV,奔(Ben)驰(Chi)EQV正(Zheng)式(Shi)亮(Liang)相(Xiang)2019-09-15 05:07·老(Lao)司(Si)机(Ji)出(Chu)品(Pin)新(Xin)能(Neng)源(Yuan)汽(Qi)车(Che)领(Ling)域(Yu)在(Zai)全(Quan)球(Qiu)仍(Reng)处(Chu)于(Yu)持(Chi)续(Xu)升(Sheng)温(Wen)状(Zhuang)态(Tai),纯(Chun)电(Dian)车(Che)型(Xing)也(Ye)从(Cong)轿(Jiao)车(Che)慢(Man)慢(Man)覆(Fu)盖(Gai)到(Dao)SUV和(He)MPV等(Deng)车(Che)型(Xing)。2019法(Fa)兰(Lan)克(Ke)福(Fu)车(Che)展(Zhan),奔(Ben)驰(Chi)带(Dai)来(Lai)了(Liao)全(Quan)新(Xin)纯(Chun)电(Dian)动(Dong)MPV EQV。奔(Ben)驰(Chi)EQV前(Qian)脸(Lian)换(Huan)用(Yong)EQ家(Jia)族(Zu)全(Quan)新(Xin)中(Zhong)网(Wang)造(Zao)型(Xing),而(Er)大(Da)灯(Deng)组(Zu)依(Yi)然(Ran)和(He)燃(Ran)油(You)版(Ban)车(Che)型(Xing)保(Bao)持(Chi)一(Yi)致(Zhi)。车(Che)侧(Ce)和(He)燃(Ran)油(You)版(Ban)保(Bao)持(Chi)一(Yi)致(Zhi),类(Lei)似(Si)“方(Fang)盒(He)子(Zi)”的(De)造(Zao)型(Xing)给(Gei)车(Che)内(Nei)留(Liu)出(Chu)更(Geng)宽(Kuan)敞(Chang)的(De)空(Kong)间(Jian)。此(Ci)外(Wai)EQV还(Huan)配(Pei)备(Bei)车(Che)顶(Ding)行(Xing)李(Li)架(Jia),进(Jin)一(Yi)步(Bu)提(Ti)升(Sheng)了(Liao)车(Che)辆(Liang)的(De)装(Zhuang)载(Zai)能(Neng)力(Li)。EQV有(You)标(Biao)轴(Zhou)和(He)长(Chang)轴(Zhou)两(Liang)款(Kuan)产(Chan)品(Pin)供(Gong)消(Xiao)费(Fei)者(Zhe)选(Xuan)择(Ze),预(Yu)计(Ji)标(Biao)轴(Zhou)车(Che)型(Xing)车(Che)长(Chang)达(Da)5140mm,轴(Zhou)距(Ju)3200mm;长(Chang)轴(Zhou)车(Che)型(Xing)车(Che)长(Chang)5370mm,轴(Zhou)距(Ju)3430mm。换(Huan)用(Yong)18英(Ying)寸(Cun)低(Di)风(Feng)阻(Zu)轮(Lun)圈(Quan)。EQV没(Mei)有(You)采(Cai)用(Yong)最(Zui)新(Xin)家(Jia)族(Zu)化(Hua)内(Nei)饰(Shi)风(Feng)格(Ge),新(Xin)车(Che)中(Zhong)控(Kong)多(Duo)媒(Mei)体(Ti)屏(Ping)幕(Mu)换(Huan)用(Yong)类(Lei)似(Si)新(Xin)款(Kuan)奔(Ben)驰(Chi)C级(Ji)的(De)样(Yang)式(Shi),同(Tong)时(Shi)内(Nei)置(Zhi)MBUX人(Ren)机(Ji)交(Jiao)互(Hu)系(Xi)统(Tong)。新(Xin)车(Che)后(Hou)排(Pai)座(Zuo)椅(Yi)可(Ke)以(Yi)灵(Ling)活(Huo)调(Diao)整(Zheng),进(Jin)一(Yi)步(Bu)提(Ti)升(Sheng)车(Che)内(Nei)空(Kong)间(Jian)灵(Ling)活(Huo)性(Xing)。EQV搭(Da)载(Zai)最(Zui)大(Da)功(Gong)率(Lv)204马(Ma)力(Li)电(Dian)机(Ji),同(Tong)时(Shi)配(Pei)备(Bei)90kWh锂(Zuo)离(Li)子(Zi)电(Dian)池(Chi)组(Zu),续(Xu)航(Hang)里(Li)程(Cheng)预(Yu)计(Ji)可(Ke)达(Da)405km(官(Guan)方(Fang)暂(Zan)定(Ding)续(Xu)航(Hang)里(Li)程(Cheng)),此(Ci)外(Wai)新(Xin)车(Che)在(Zai)快(Kuai)充(Chong)模(Mo)式(Shi)下(Xia)1小(Xiao)时(Shi)内(Nei)可(Ke)将(Jiang)电(Dian)量(Liang)从(Cong)10%充(Chong)至(Zhi)80%。国(Guo)内(Nei)市(Shi)场(Chang)目(Mu)前(Qian)还(Huan)没(Mei)有(You)进(Jin)口(Kou)纯(Chun)电(Dian)动(Dong)MPV车(Che)型(Xing),若(Ruo)未(Wei)来(Lai)奔(Ben)驰(Chi)EQV车(Che)型(Xing)引(Yin)入(Ru)国(Guo)内(Nei),猜(Cai)测(Ce)大(Da)部(Bu)分(Fen)买(Mai)家(Jia)将(Jiang)会(Hui)购(Gou)买(Mai)它(Ta)作(Zuo)为(Wei)商(Shang)务(Wu)接(Jie)待(Dai)来(Lai)使(Shi)用(Yong),毕(Bi)竟(Jing)奔(Ben)驰(Chi)品(Pin)牌(Pai)的(De)逼(Bi)格(Ge)高(Gao),纯(Chun)电(Dian)动(Dong)车(Che)型(Xing)还(Huan)能(Neng)解(Jie)决(Jue)大(Da)城(Cheng)市(Shi)缺(Que)乏(Fa)购(Gou)车(Che)指(Zhi)标(Biao)的(De)问(Wen)题(Ti)。
jiaxiluodihoubaoweier“yingsheng”tuxi meigudadiechaoguoyibandejinrongzhuanyerenshibiaoshi,ruguomeiguozhengfuweinenglvxingqiyiwu,tamenjianggoumaihuangjin。
就(闯颈耻)从(颁辞苍驳)旁(笔补苍驳)边(叠颈补苍)拿(狈补)来(尝补颈)根(骋别苍)棍(骋耻苍)子(窜颈)
资料显示,2020年8月,小鹏汽车正式登陆纽交所;2021年7月7日,小鹏汽车挂牌香港联交所,完成在中国香港和美国纽约两地的双重主要上市。一心想往更高更好的单位走。正好当年纪委成立事业中 心,从全县事业编中遴选人。他正好符合条件,义无反顾的报名,居然一次就考上了。闫盼盼领跑高尔夫尊中国网络大赛次轮!张婧文单轮9鸟_手...闫盼盼高贵紫色唯美写真图集 闫盼盼最新私人定制原版图片...
Apache Pulsar学习笔记14: 使用Helm在Kubernetes集群中部署Pulsar原创2021-12-31 18:22·架构小白时间过得比较久了在开始今天的学习之前先回顾一下前面已经学习的13节的内容0.阶段复习Pulsar是一个支持多租户的、高性能的、分布式的Pub-Sub消息系统了解Pulsar的架构Pulsar提供了一个比Cluster更高级别的抽象Instance一个Pulsar Instance由多个Pulsar Cluster组成一个Instance中的Cluster之间可以相互跨地域复制数据单个Pulsar集群由以下部分组成:Pulsar Proxy: 是无状态的Proxy作为集群的智能路由层是负责Pulsar客户端与Pulsar集群交互的统一网关Pulsar Brokers: 也是无状态的是集群的服务层Proxy会将客户端的访问请求转发到正确的Broker上Broker作为服务层与Pulsar的存储层进行交互Bookies: 一个集群有多个Bookie节点(组成Bookeeper集群)负责消息的持久化存储Zookeeper: 用于集群级别的配置和协调并存储Pulsar集群的所有元数据以docker容器运行单机Pulsar学习使用命令行工具pulsar-admin创建tenant、namespace、topic了解Pulsar Admin REST APItenant、namespace、topic的基本概念Pulsar基于租户、命名空间、主题的逻辑层次结构支持多租户分区Topic的概念Topic URL格式持久化Topic和非持久化Topic的概念生产者和消费者、订阅和订阅模式Pulsar支持: exclusive(独占), failover(故障转移/灾备), shared(共享), key-shared(基于key的共享模式) 4中订阅模式使用命令行工具pulsar-client进行生产者和消费者测试使用Pulsar Java客户端库创建生产者、消费者、Reader消费者端可以使用"同步接收消息", "异步接收消息", "MessageListener接收" 3种模式其中MessageListener自带线程池创建消费者时可以设置消费者的批量接收策略多主题订阅: 设置单个消费者订阅多个主题消费异常处理可以使用"无限重试", "捕获并忽略异常", "死信主题(Dead Letter Topic)"三种方式使用消息Reader可以由用户自己手动在Topic中定位读取想要读取的消息使用Pulsar Go客户端库消费者端支持consumer.Receive()和consumer.Chan()两种方式消费消息前者对channel关闭和context cancel的情况做了封装后者要我们自己处理和channel的交互但也提供了最大的灵活性多主题订阅死信策略和死信主题使用消息Reader使用Pulsar Schema管理消息数据的类型安全性Web图形化管理工具Pulsar Manager延迟消息投递特性指定多长时间后投递deliverAfter指定在将来某个时间点投递deliverAt分区Topic和路由模式认证和授权开启JWT身份认证授权和权限管理前面的学习一直是基于以docker容器启动的单机Pulsar今天将学习使用Helm在Kubernetes集群中部署Pulsar集群1.环境准备这里使用的Kubernetes集群的版本是1.22.4Helm的版本是3.7.11.1 Pulsar集群组件和K8S Node节点规划下面做一下Pulsar集群各个组件部署节点的规划使用Pulsar官方的Helm Chart部署时可选择部署各个组件 在后边的配置中将禁用监控相关的组件(promethues, grafana等)我们这里选择以后尝试使用外部的全局Prometheus实现对Pulsar集群的监控本节选择部署的集群组件如下:proxy: 无状态, 但pulsar的helm chart使用StatefulSet部署broker: 无状态, 但pulsar的helm chart使用StatefulSet部署bookie: 有状态, pulsar的helm chart使用StatefulSet部署zookeeper: 有状态, pulsar的helm chart使用StatefulSet部署recovery: 无状态, 但pulsar的helm chart使用StatefulSet部署toolset: 无状态, 但pulsar的helm chart使用StatefulSet部署pulsar-manager: 无状态, pulsar的helm chart使用Deployment部署注意, pulsar-managers虽然是无状态的但因为它需要使用PostgreSQL数据库pulsar-managers的docker镜像中内置一个PostgreSQL, 这个我们在后边的配置中将改为使用集群外部的PostgreSQL下面说一下以上各个组件的部署节点选择对于proxy, broker, recovery, toolset, pulsar-manager这5个无状态组件可以让k8s将其调度到任意节点上对于bookie, zookeeper这2个有状态组件需要我们根据其存储卷的类型将其规划到合适的k8s节点我们在线上环境对于有状态服务的部署在存储卷的选择上为了更好的性能一般都是选择Local Persistent Volumes 在因此如果你在规划一个线上版本的Pulsar集群部署的话对于bookie和zookeeper肯定需要单独的独立的k8s节点并使用这些节点上创建的Local PV 例如一个线上生产可用的Pulsar集群可能规划如下:pulsar zookeeper集群至少需要3个独立的k8s节点, 在这些节点上创建zookeeper的local pvpulsar bookeeper集群(bookie节点组成)根据规划的容量需要N个独立的k8s节点, 在这些节点上创建bookie的local pv如果后续需要扩容增加bookie节点时只需要有新的创建好local pv的k8s节点并对bookie的StatefulSet扩容即可pulsar proxy, broker等无状态服务只需要有足够的数量的k8s节点并在需要时按需扩容即可因本文这里用于实验的k8s集群资源有限所以尽量将上面各组件在3个k8s节点上混部将一个用于测试环境的的Pulsar集群规划如下:k8s节点部署pulsar组件备注node1zookeeper-0, bookie-0, broker-0, proxy-0线上环境bookie和zookeeper一定要在单独的节点上node2zookeeper-1, bookie-1, broker-1, proxy-1线上环境bookie和zookeeper一定要在单独的节点上node3zookeeper-2, bookie-2, broker-2, proxy-2线上环境bookie和zookeeper一定要在单独的节点上node1或node2或node3recovery-0, toolset-0, pulsar-manager基于上面测试环境的规划我们将node1~node3三个节点打上Label和Taint:kubectl label node node1 node-role.kubernetes.io/pulsar=pulsarkubectl label node node2 node-role.kubernetes.io/pulsar=pulsarkubectl label node node3 node-role.kubernetes.io/pulsar=pulsarkubectl taint nodes node1 dedicated=pulsar:NoSchedulekubectl taint nodes node2 dedicated=pulsar:NoSchedulekubectl taint nodes node3 dedicated=pulsar:NoScheduleLabel node-role.kubernetes.io/pulsar=pulsar用于标记节点是专门用于运行pulsar集群组件的k8s节点Taint dedicated=pulsar:NoSchedule被打到节点上后默认配置下k8s集群中的其他不属于pulsar集群组件的pod将不会被调度到这3个节点上而后边我们将要部署的pulsar组件上将会使用Toleration配置允许dedicated=pulsar:NoSchedule的Taint注意这里只是根据测试环境Pulsar集群的规划做了上面的Label和Taint的设置如果是生产环境这里的Label和Taint应该做更合理和细粒度的规划确保实现上面生产可用Pulsar集群的Node节点规划1.2 Pulsar集群组件容器镜像准备前面我们选择要部署Pulsar集群的proxy, broker, bookie, zookeeper, recovery, toolset, pulsar-manager 7大组件其中proxy, broker, bookie, zookeeper, recovery, toolset的官方容器镜像都是apachepulsar/pulsar-all pulsar-manager的官方镜像是apachepulsar/pulsar-manager本文使用的pulsar官方的helm chart https://github.com/apache/pulsar-helm-chart/releasespulsar-helm-chart的版本为2.7.7该版本中pulsar的版本为2.7.4, pulsar-manager版本为v0.1.0:apachepulsar/pulsar-all:2.7.4apachepulsar/pulsar-manager:v0.1.0注意因为pulsar-manager:v0.1.0有这个ISSUE https://github.com/apache/pulsar-helm-chart/issues/133中描述的问题所以在后边的部署将镜像pulsar-manager:v0.1.0更换成了pulsar-manager:v0.2.0为了提高效率这里将apachepulsar/pulsar-all:2.7.4和apachepulsar/pulsar-manager:v0.2.0这两个镜像转存到了k8s集群所使用的私有镜像仓库中例如:harbor.example.com/library/apachepulsar/pulsar-all:2.7.4harbor.example.com/library/apachepulsar/pulsar-manager:v0.2.01.3 创建JWT认证所需的K8S Secret这里部署的Pulsar集群需要在安全上开通JWT认证根据前面学习的内容JWT支持通过两种不同的秘钥生成和验证Token:对称秘钥:使用单个Secret key来生成和验证Token非对称秘钥:包含由私钥和公钥组成的一对密钥使用Private key生成Token使用Public key验证Token推荐使用非对称密钥的方式需要先生成密钥对再用秘钥生成token因为Pulsar被部署在K8S集群中在K8S集群中存储这些秘钥和Token的最好的方式是使用K8S的Secretpulsar-helm-chart专门提供了一个prepare_helm_release.sh脚本可以用来生成这些Secret下面我们将pulsar-helm-chart的源码clone到K8S的控制节点上(kubectl和helm可用的节点):git clone -b pulsar-2.7.7 --depth 1 https://github.com/apache/pulsar-helm-chart.gitcd pulsar-helm-chart/执行下面的命令生成秘钥对和Token的Secret的Manifest:./scripts/pulsar/prepare_helm_release.sh \ -n pulsar \ -k pulsar \ -l上面的命令中:-n指定的生成Secret Manifest中安装的命名空间这里我是将其部署到K8S中的pulsar namespace中所以指定为pulsar当然也可以指定部署到其他的namespace中-k指定的是使用helm部署时的helm release名称这里指定为pulsar-l指定只将生成的内容输出达到本地而不会自动部署到K8S中比较喜欢这种手动的方式因为一切比较可控注意这个脚本还有一个-s,--symmetric参数如果给这个参数的话JWT认证将使用对称秘钥的方式这里没有给这个参数就使用非对称秘钥的方式执行上面的脚本会输出以下内容:generate the token keys for the pulsar cluster---The private key and public key are generated to ... successfully.apiVersion: v1data: PRIVATEKEY: <...> PUBLICKEY: <...>kind: Secretmetadata: creationTimestamp: null name: pulsar-token-asymmetric-key namespace: pulsargenerate the tokens for the super-users: proxy-admin,broker-admin,admingenerate the token for proxy-admin---pulsar-token-asymmetric-keyapiVersion: v1data: TOKEN: <...> TYPE: YXN5bW1ldHJpYw==kind: Secretmetadata: creationTimestamp: null name: pulsar-token-proxy-admin namespace: pulsargenerate the token for broker-admin---pulsar-token-asymmetric-keyapiVersion: v1data: TOKEN: <...> TYPE: YXN5bW1ldHJpYw==kind: Secretmetadata: creationTimestamp: null name: pulsar-token-broker-admin namespace: pulsargenerate the token for admin---pulsar-token-asymmetric-keyapiVersion: v1data: TOKEN: <...> TYPE: YXN5bW1ldHJpYw==kind: Secretmetadata: creationTimestamp: null name: pulsar-token-admin namespace: pulsar-------------------------------------The jwt token secret keys are generated under: - 'pulsar-token-asymmetric-key'The jwt tokens for superusers are generated and stored as below: - 'proxy-admin':secret('pulsar-token-proxy-admin') - 'broker-admin':secret('pulsar-token-broker-admin') - 'admin':secret('pulsar-token-admin')从输出可以看出该脚本生成了4个K8S Secret的Manifest:pulsar-token-asymmetric-key这个Secret中是用于生成Token和验证Token的私钥和公钥pulsar-token-proxy-admin这个Secret中是用于proxy的超级用户角色Tokenpulsar-token-broker-admin这个Secret中是用于broker的超级用户角色Tokenpulsar-token-admin这个Secret中是用于管理客户端的超级用户角色Token接下来手动将这4个Secret使用kubectl apply创建到K8S的pulsar命名空间中 创建完成后可以使用kubectl找到它们:kubectl get secret -n pulsar | grep pulsar-tokenpulsar-token-admin Opaque 2 5mpulsar-token-asymmetric-key Opaque 2 5mpulsar-token-broker-admin Opaque 2 5mpulsar-token-proxy-admin Opaque 2 5m1.4 创建Zookeeper和Bookie的Local PV根据部署Pulsar的K8S节点的规划下面需要为zookeeper, bookie所在的节点在K8S上创建Local Persistent Volume注意每个zookeeper节点需要一个data的local volume每个bookie节点需要journal和ledgers共两个local volume在创建Local PV之前需要确认一下k8s中存在StorageClasslocal-storage如果没有可以使用下面的manifest创建apiVersion: storage.k8s.io/v1kind: StorageClassmetadata: name: local-storageprovisioner: kubernetes.io/no-provisionervolumeBindingMode: WaitForFirstConsumerreclaimPolicy: Retain注意现在的K8S中不在直接提供local volume的provisioner这里也没有使用provisioner因此后续对local volume的创建和管理都是需要K8S集群管理员的手动进行 也是说目前Kubernetes核心中不包含对对本地卷进行动态发放和管理的provisioner如果想要体验动态发放和管理的功能可以试一下由Rancher提供的Local Path Provisioner我这里依然使用手动管理的方式即通过手动在K8S节点上创建Local Volume手动绑定Local Volume与Pulsar Zookeeper和Bookie的PVC(PersistentVolumeClaim)之间的关系下面先手动在node1, node2, node3上创建local volume对应的数据目录:mkdir -p /home/puslar/data/zookeeper-datamkdir -p /home/puslar/data/bookie-data/ledgersmkdir -p /home/puslar/data/bookie-data/journalzookeeper data的local pv的manifest如下:---apiVersion: v1kind: PersistentVolumemetadata: name: pulsar-zookeeper-data-pulsar-zookeeper-0spec: capacity: storage: 20Gi accessModes: - ReadWriteOnce persistentVolumeReclaimPolicy: Retain storageClassName: local-storage local: path: /home/puslar/data/zookeeper-data claimRef: name: pulsar-zookeeper-data-pulsar-zookeeper-0 namespace: pulsar nodeAffinity: required: nodeSelectorTerms: - matchExpressions: - key: kubernetes.io/hostname operator: In values: - node1---apiVersion: v1kind: PersistentVolumemetadata: name: pulsar-zookeeper-data-pulsar-zookeeper-1spec: capacity: storage: 20Gi accessModes: - ReadWriteOnce persistentVolumeReclaimPolicy: Retain storageClassName: local-storage local: path: /home/puslar/data/zookeeper-data claimRef: name: pulsar-zookeeper-data-pulsar-zookeeper-1 namespace: pulsar nodeAffinity: required: nodeSelectorTerms: - matchExpressions: - key: kubernetes.io/hostname operator: In values: - node2---apiVersion: v1kind: PersistentVolumemetadata: name: pulsar-zookeeper-data-pulsar-zookeeper-2spec: capacity: storage: 20Gi accessModes: - ReadWriteOnce persistentVolumeReclaimPolicy: Retain storageClassName: local-storage local: path: /home/puslar/data/zookeeper-data claimRef: name: pulsar-zookeeper-data-pulsar-zookeeper-2 namespace: pulsar nodeAffinity: required: nodeSelectorTerms: - matchExpressions: - key: kubernetes.io/hostname operator: In values: - node3上面的manifest仍中将3个Local PV通过nodeAffinity创建并关联到到node1~node3上同时使用claimRef将这3个Local PV与即将在K8S集群中部署的zookeeper SatefulSet中的PVC绑定 使用kubectl apply创建上面的manifestbookie ledgers和journal的local pv的manifest如下:---apiVersion: v1kind: PersistentVolumemetadata: name: pulsar-bookie-ledgers-pulsar-bookie-0spec: capacity: storage: 50Gi accessModes: - ReadWriteOnce persistentVolumeReclaimPolicy: Retain storageClassName: local-storage local: path: /home/puslar/data/bookie-data/ledgers claimRef: name: pulsar-bookie-ledgers-pulsar-bookie-0 namespace: pulsar nodeAffinity: required: nodeSelectorTerms: - matchExpressions: - key: kubernetes.io/hostname operator: In values: - node1---apiVersion: v1kind: PersistentVolumemetadata: name: pulsar-bookie-journal-pulsar-bookie-0spec: capacity: storage: 50Gi accessModes: - ReadWriteOnce persistentVolumeReclaimPolicy: Retain storageClassName: local-storage local: path: /home/puslar/data/bookie-data/journal claimRef: name: pulsar-bookie-journal-pulsar-bookie-0 namespace: pulsar nodeAffinity: required: nodeSelectorTerms: - matchExpressions: - key: kubernetes.io/hostname operator: In values: - node1---apiVersion: v1kind: PersistentVolumemetadata: name: pulsar-bookie-ledgers-pulsar-bookie-1spec: capacity: storage: 50Gi accessModes: - ReadWriteOnce persistentVolumeReclaimPolicy: Retain storageClassName: local-storage local: path: /home/puslar/data/bookie-data/ledgers claimRef: name: pulsar-bookie-ledgers-pulsar-bookie-1 namespace: pulsar nodeAffinity: required: nodeSelectorTerms: - matchExpressions: - key: kubernetes.io/hostname operator: In values: - node2---apiVersion: v1kind: PersistentVolumemetadata: name: pulsar-bookie-journal-pulsar-bookie-1spec: capacity: storage: 50Gi accessModes: - ReadWriteOnce persistentVolumeReclaimPolicy: Retain storageClassName: local-storage local: path: /home/puslar/data/bookie-data/journal claimRef: name: pulsar-bookie-journal-pulsar-bookie-1 namespace: pulsar nodeAffinity: required: nodeSelectorTerms: - matchExpressions: - key: kubernetes.io/hostname operator: In values: - node2---apiVersion: v1kind: PersistentVolumemetadata: name: pulsar-bookie-ledgers-pulsar-bookie-2spec: capacity: storage: 50Gi accessModes: - ReadWriteOnce persistentVolumeReclaimPolicy: Retain storageClassName: local-storage local: path: /home/puslar/data/bookie-data/ledgers claimRef: name: pulsar-bookie-ledgers-pulsar-bookie-2 namespace: pulsar nodeAffinity: required: nodeSelectorTerms: - matchExpressions: - key: kubernetes.io/hostname operator: In values: - node3---apiVersion: v1kind: PersistentVolumemetadata: name: pulsar-bookie-journal-pulsar-bookie-2spec: capacity: storage: 50Gi accessModes: - ReadWriteOnce persistentVolumeReclaimPolicy: Retain storageClassName: local-storage local: path: /home/puslar/data/bookie-data/journal claimRef: name: pulsar-bookie-journal-pulsar-bookie-2 namespace: pulsar nodeAffinity: required: nodeSelectorTerms: - matchExpressions: - key: kubernetes.io/hostname operator: In values: - node3上面的manifest仍中将6个Local PV通过nodeAffinity创建并关联到到node1~node3上同时使用claimRef将这3个Local PV与即将在K8S集群中部署的zookeeper SatefulSet中的PVC绑定 使用kubectl apply创建上面的manifest1.5 准备Pulsar Manager的PostgreSQL数据库这里准备让Pulsar Manager使用外部数据库需要提前在外部的PostgreSQL中创建好用户和数据库表结构创建数据库和用户:CREATE USER pulsar_manager WITH PASSWORD '