社内で行っているRustの勉強会でkube-rsを利用したKubernetes operatorを扱いました。 本記事ではそこで学んだkube-rsの使い方や仕組みについて書きます。 概要としては、Hello
Custom Resourceを定義してmanifestをapplyすると、対応するDeploymentをoperatorが作成し、manifestを削除するとDeploymentを削除するまでを実装します。
TL;DR
- kube-rsを利用するとRustから簡単にkubernetes apiを利用できる
- CRDをrustで定義することができ、yamlも出力できる
- Operatorのための機能も提供されているのでreconcileの処理に集中できる
前提
Kubernetes clusterとkubectl
が利用できること。
dependenciesは以下の通りです。
[]
= { = "1.0", = false, = ["std"] }
= { = "0.3.28", = false }
= { = "0.15.0" , = ["derive"] }
= { = "0.85.0", = false, = ["client", "rustls-tls", "derive", "runtime"] }
= { = "0.19.0", = false, = ["v1_27"] }
= { = "0.8.12", = false, = ["derive"] }
= { = "1.0", = false, = ["derive"]}
= { = "1.0.105", = false }
= { = "0.9.25", = false }
= { = "1.0.47", = false }
= { = "1.32.0", = false, = ["rt-multi-thread", "macros", "signal"] }
= { = "0.1.37", = false }
= { = "0.3.17", = false, = ["registry","fmt", "ansi", "env-filter" }
作成するoperatorはcargo run
でlocalで起動します。その際、kubernetes apiとの通信のためにKUBECONFIG
環境変数を参照してkubectlの設定fileを探します。
そのため、KUBECONFIG
に検証するclusterへの設定がなされている状態が必要です。 自分はk3sを利用したので、以下のように設定しました。
Custom Resource
まずは本記事で扱っていくCustom Resource、Hello
を定義します。
use Validate;
use ;
use JsonSchema;
use ;
/// See docs for possible properties
/// https://docs.rs/kube/latest/kube/derive.CustomResource.html#optional-kube-attributes
Userが定義する必要があるのは、spec
に対応するstructです。
ここでは、HelloSpec
としています。このstructに#[derive(kube::CustomResource)]
を指定します。
CustomResource
によって概ね以下のようなcodeが生成されます。
生成された各種処理がどのように利用できるかは実装を進めるとわかってきます。 概要としては
spec
に対応するrootのresource(Hello
)はderiveで生成される- 生成されたstructには
kube::Resource
traitが実装されており、PodやDeployment等、apiのresourceとして扱える - CRD関連の機能は
kube::CustomResourceExt
traitの実装を通じて提供される
CRDのapi group等の指定は#[kube()]
annotationによって行えます。
CRDの2重管理を避けられるように、以下のようにCustomResourceExt::crd()
を利用することで、CRD yamlを生成することができます。
use Hello;
use CustomResourceExt;
cargo run --quiet out> manifests/helloes-crd.yaml
生成されたyaml
apiVersion: apiextensions.k8s.io/v1
kind: CustomResourceDefinition
metadata:
name: helloes.fraim.co.jp
spec:
group: fraim.co.jp
names:
categories:
kind: Hello
plural: helloes
shortNames:
- hlo
singular: hello
scope: Namespaced
versions:
- additionalPrinterColumns:
name: v1
schema:
openAPIV3Schema:
description: Auto-generated derived type for HelloSpec via `CustomResource`
properties:
spec:
description: See docs for possible properties https://docs.rs/kube/latest/kube/derive.CustomResource.html#optional-kube-attributes
properties:
replicas:
format: uint32
minimum: 0.0
type: integer
required:
- replicas
type: object
required:
- spec
title: Hello
type: object
served: true
storage: true
subresources:
生成されたyamlをapplyすることで、Hello
CRDを定義できます。
|
kube-rsを利用してCRDをapplyする例も用意されていましたが今回はkubectlを利用しました。
最初は、operator起動時にCRDをapplyする処理があれば、operatorのuserが自身でCRDを適用する必要がなく便利だと考えていました。
しかしながら、そのためにはoperatorにcluster scopeのCRD作成権限の付与が必要で、通常それは大きすぎる権限のため、operatorには処理に必要な権限のみ付与して、CRDの適用は別で行うほうがよいとアドバイスされていました。
自分がこれまでに扱ってきたoperatorでもoperatorのdeployとCRDの適用は別で行う必要があったので、そういう理由だったのかと納得できました。
CRDのValidation
kube-rsのSchema ValidationではCRDのvalidationとして、server-sideとclient-sideの2種類の方法があると紹介されています。
Server side validation
Server sideのvalidationはvalidationの情報を生成されるschemaに埋め込むものです。
少々複雑なのが、kube-rsはvalidationの機構をvalidatorからgardeに変更しているのですが、schema生成を担うschemarsではvalidatorを採用していることです。
その結果、structのfieldにvalidatorのannotationを書くとschemars側でrespectされて生成されたschemaに反映されたりします。
また、自前でschemaを生成することもできます。
Client side validation
kube-rsのdocではserver-sideとclient-sideが並列に扱われていますが、client sideは自前でoperatorのcodeにvalidationの呼び出しを書くだけで、なにかkubenetes apiやkube-rs側で特別扱いされているわけではありません。kube-rsもdev-dependencies以外ではgardeに依存していませんでした。
そのため、CRDのstructにgardeのannotationを付与して生成されるvalidation()
methodもoperatorの処理で呼び出す必要があります。
Server side validationとの違いは、kubectl apply
時にvalidationがerrorになるかどうかと理解しています。
Operator
CRDが適用できたので、次にこのCRをwatchするoperatorを動かしていきます。 まずmainを含めたOperatorの起動処理は以下のように行いました。
use Context as _;
use Operator;
use Client;
use ;
async
async
async
kube::Client::try_default()
がkubernetes clientの生成処理です。環境変数KUBECONFIG
や~/.kube/config
の設定fileを参照してくれます。operatorがclusterの中にいるか今回のように外にいる場合両対応してくれます。
Operator::new()
が今回実装するoperatorです、第2引数のsignal()
は終了を通知するfutureです。
use ;
use StreamExt;
use Deployment;
use ;
;
順番にみていきます。
let crd_api: = all;
kube::Api
は以下のように定義されています。
基本的には、impl<K: Resource> Api<K> {}
でK
がResource
traitを実装している前提となっています。
Resoure
traitはKubernetesのresourceの情報取得用のmethodを定義しているtraitです。DynamicType
はcompile時に情報のないResourceを扱う仕組みのようですが、本記事では割愛します。
Api<Hello>
とできるのは、#[derive(CustomResource)]
でHello
にResource
traitが実装されているからです。(DynamicType = ()
)
let context: = new;
Context
はreconcile時に引き回す型で、自前で定義したものです。
let wc = default.any_semantic;
kube::runtime::watcher::Config
はkubernetes apiにResourceを問い合わせる際のparameterです。
any_semantics()
についてはこちらを参照。
// Check whether CRD is installed
if let Err = crd_api.list.await
Operator起動時に対象のclusterにCRDがinstallされているかを確認しています。
let deployment = all;
let deployment_wc = default
.any_semantic
.labels;
今回は、Hello
resourceに基づいてDeployment
を作成するために、Deployment
用のApi
を生成しています。
watcher::Config
には監視対象のリソースのselectorを指定できるようになっており、関心があるDeployment
はこのoperatorによって作成されたものだけなので、labelを付与しています。
new
.graceful_shutdown_on
.owns
.run
.for_each
.await;
kube::runtime::Controller
がkube-rsが提供してくれているOperatorの実装です。実態としてはkube-runtime crateをre-exportしたものです。
graceful_shutdown_on()
: 渡したfutureがreadyになった際にshutdownしてくれます。shutdown_on_signal()
も用意されており、この場合Controller
側でsignalを監視してくれます。unit test時にはsignalに頼ることなく終了を制御できるので、futureを渡すほうが自分は好きです。
owns()
: 監視するsub resourceを指定します。今回はDeployment
resourceを作成するので、owns()
にdeployment用のapiとwatch::Config
を渡しています。- これによって管理している
Deployment
の変更があった場合にもreconcile処理がcallされます metadata.ownerReferences
を設定する必要があります
- これによって管理している
run()
: Operatorのreconcile処理とerror時のretry設定、引き回すcontextを指定しますfor_each()
: reconcileの結果を処理します。- これは
Controller
のmethodではなく、run()
の戻り値、futures::Stream
(StreamExt
)のmethodです。
- これは
というように基本的にuser側で、clientの初期化、監視対象リソースの指定を行った後にreconcile処理を渡すだけで、operatorを動かせるようになっています。
Reconcile
次にメインとなるreconcile処理をみていきます。まず、kube::runtime::Controller::run()
のsignatureは以下のようになっています。
第1引数のreconciler
にはreconcile関数を渡します。Arc<K>
はここでは、Arc<Hello>
となります。
結果はTryFuture
なので、asyncで、Result<kube::runtime::controller::Action,MyError>
を返します。
Action
はreconcile処理の結果で、kube-runtimeのController
の中にschedulerに渡され次回のreconcileのschedulingに反映されます。
となっており、明示的にAction::requeue()
で次回のscheduling期間を定めるか、Action::await_change()
でResource(Hello
)に変更があるまで、reconcileを指定しなことが選べます。ここでどちらの方法を選択しても、監視Resourceが変更された場合にはreconcile処理は起動されるので、await_change()
でいいのではと思いましたが、コメントで指摘されているとおり、kubernetesの各種eventは様々な要因で、operatorに伝わらないことがあり得るので、短い頻度で変更されることがわかっている状況以外では、requeue()
が良さそうです。
第2引数のerror_policy: impl Fn(Arc<K>, &ReconcilerFut::Error, Arc<Ctx>) -> Action
はerror時の挙動を制御するためのものです。
ReconcilerFut::Error
はuserが定義するので、errorの要因が外部にある場合には、短くrequeueの時間を指定して、回復できるかを確認するといったことができそうです。
第3引数のcontext: Arc<Ctx>
はreconcileで引き回す情報で、今回は定義したContext
が使われます。定義は以下です。
use Client;
use Reporter;
Reporter
はkubernetesのeventを出力するための仕組みで、のちほど使い方をみていきます。
ということでreconcile処理の実装を行っていきます。
順番に見ていきます。まず関数のsignatureですが
async
Reconcileが必要なHello
resourceが渡されます。Hello
のspecを確認してあるべき状態を実現したのちに次にいつreconcileをschedulingするかを返すのがreconcile()
の役割です。
このsignatureでまず思ったことが、どうしてreconcileがtriggerされたかの理由が与えられていないことです。
そのため、Hello
が削除されたのか、作成されたのか、更新されたのかが与えられていないので、Hello
の定義やmetadataを確認してあるべき状態を判定するのもoperatorの責務となります。kube-rsのdocでは、これは意図的な設計とされています。
どういうことかというと、仮にreconcileのsignatureが以下のようにreconcileの理由も与えられるものだったとします。
async
Reconcileの理由がわかっているとuserとしては以下のような処理を書きたくなります。
async
しかしながら、このような実装してしまうとなんらかの理由でDeleted eventを見逃してしまうと(operatorの再起動等)、Hello
resourceを削除するタイミングを逸してしまいます。
そこで、意図的にreconcileの理由に依存させないようにするために現在のsignatureになっていると理解しています。
Validation
Reconcile時にまずvalidationを行うようにしました。
// Validate spec
if let Err = hello.spec.validate
hello.spec.validate(&())
は最初にHelloSpec
に定義したgarde::Validate
によるものです。 (引数はgardeの機構でvalidation時に引数渡せる仕組みなのでここでは()
)
Hello
のspecがvalidationに違反している場合、rencocileを継続できません。
Operatorとしてはlogに出力する以外でuserにこのこと伝えることはできるでしょうか。
ここでは、kube-rsが用意してくれたevent出力の仕組みを利用して、Kubernetesのeventとしてvalidation違反を表現してみます。 kube::runtime::events::Recorder
はevent出力の詳細を隠蔽してくれている型で、事前にoperatorの名前やResourceの識別子から生成できます。
Eventを出力すると以下のようにkubectlから確認できます。
> kubectl
上記はHelloSpec.replicas
の値をmaxを超えて指定したものです。gardeとあわせてわかりやすいメッセージが出力できています。
Validationが済んだので次はHello
のreconcile処理です。 まず行う必要があるのが、Hello
を削除すべきなのか、作成/更新すべきかの判断です。
これを判断するには、metadata.deletionTimestamp
が設定されているかを確認します。
また、仮にmetadata.deletionTimestamp
が設定されている場合は、Hello
の関連Resourceを削除したのち、metadata.finalizers
の更新が必要です。
このあたりの判定や処理はoperator共通の約束ごとに基づくものなので、kube-rs側で便利な処理を提供してくれています。
それがkube::runtime::finalizer::finalizer
です。
use finalizer;
async
ここでの必要な処理は以下です。
Hello
初回作成時はmetada.finalizers
に識別子を追加したのち、reconcile処理を実行- 更新時はreconcile処理のみ実行
- 初回削除時は、削除用のreconcile処理を実行したのち、
metadata.finalizers
から追加した識別子を削除 metadata.finalizers
に自身の識別子がない場合の削除時はなにもしない
kube::runtime:finalizer::finalizer
は削除の判定やfinalizerの処理を適切に実施したのちに、userからclosureで渡されたreconcile処理を実行してくれます。
その際、applyかcleanupかを教えてくれるので、そこで処理を分岐させます。
実装をみてみると、metadata.finalizers: ["aaa", "bbb"]
のようなarray型の更新をatomic(競合しないように)に処理してくれており、参考になります。
実際に操作することでFinalizersの仕組みの理解が進みました。operator作ってみることでkubernetesのことをいろいろ調べられるので楽しいです。
Hello
Apply
Validation, finalizer処理が済んだのでいよいよ、Hello
の実態のDeployment
を作成していきます。
async
use Deployment, DeploymentSpec;
pub async
Hello
から必要な情報を抽出して、KubernetesのDeployment
を作成する処理を呼び出します。
hello.name_any()
はmetadata.name
があれば利用し、設定されていなければgenerateされたものを利用します。
hello.namespace()
はmetadata.namespace
を参照します。manifestに設定されていなければerrorとします。
hello.controller_owner_ref(&())
はmetadata.ownerReferences
を取得するものです。作成するDeployment
のmetadataに付与することで、依存関係を表現します。これを付与しておかないと作成したDeployment
の変更でoperatorのreconcileがtriggerされないので注意が必要です。
続いてDeployment
をapplyする処理です。
use BTreeMap;
use ;
use ;
pub async
labelを設定したのち、基本的にはDeployment
のmanifestと同じ情報を設定していきます。
let api: = namespaced;
api.patch
.await
Api::patch()
でPatch::Apply
を利用するとServer side applyが利用できます。&PatchParams::aplly()
にはServer side applyで利用するfield managerを指定します。
Hello
delete
最後はdelete処理を確認します。
async
pub async
基本的な流れは同様です。削除後にeventを出力するようにしてみました。
いまいち、eventの出力基準がわかっていないので既存のresourceや他のoperatorの処理を参考にどんなeventを出力していくと良いか調べていきたいです。
tracing
Reconcile時のtracingについて。まずreconcile時にspanを作成したくなりますが、kube-rs側で作成してくれています。
let reconciler_span = info_span!;
reconciler_span
.in_scope
// ...
上記のようなspanの中でuser側のreconcile処理を呼んでくれているので、user側でresourceの識別子をlogにだす必要がありません。
INFO reconciling object{object.ref=Hello.v1.fraim.co.jp/hello.default object.reason=object updated}:reconcile: "User Message!"
概ね上記のようなspanになっていました。
また、LOG_LOG=kube=debug
のようにkube moduleにdebugを指定すると
DEBUG HTTP{http.method=GET http.url=https://127.0.0.1:6443/apis/fraim.co.jp/v1/helloes?&limit=500&resourceVersion=0&resourceVersionMatch=NotOlderThan otel.name="list" otel.kind="client"}: /foo/.cargo/registry/src/index.crates.io-6f17d22bba15001f/kube-client-0.85.0/src/client/builder.rs:127: requesting
otel.name
,otel.kind
のようにtracing-opentelemetryを利用して、opentelemetry用のtraceも作ってくれて素晴らしいです。
検証
最後に作成したoperatorを動かして、manifestをapply,deleteしてみます。 適用するmanifestは以下です。
apiVersion: fraim.co.jp/v1
kind: Hello
metadata:
name: hello
spec:
replicas: 2
> kubectl apply -f manifests/hello.yaml
hello.fraim.co.jp/hello created
> kubectl get deployments
NAME READY UP-TO-DATE AVAILABLE AGE
hello 2/2 2 2 9s
> kubectl port-forward deployments/hello 8000:80
Forwarding from 127.0.0.1:8000 -> 80
Forwarding from [::1]:8000 -> 80
# another terminal
> curl http://localhost:8000
Server address: 127.0.0.1:80
Server name: hello-b7f675f9-pcd7p
Date: 10/Sep/2023:12:19:19 +0000
URI: /
Request ID: 7152be71c211a7c507ec5d61ca47ae83
無事、deployできています。 次にvalidationに違反したmanifestをapplyしてみます。
---
apiVersion: fraim.co.jp/v1
kind: Hello
metadata:
name: hello
spec:
replicas: 100 # Invalid (max: 20)
> kubectl apply -f manifests/hello.yaml
> kubectl get events --field-selector 'involvedObject.kind==Hello,type=Warning'
LAST SEEN TYPE REASON OBJECT MESSAGE
5m4s Warning InvalidSpec hello/hello Invalid Hello spec: replicas: greater than 20
> kubectl get deployments
NAME READY UP-TO-DATE AVAILABLE AGE
hello 2/2 2 2 9m24s
Validationに違反しており、eventの出力も確認できました。
ただ、apply自体はできてしまうので、表現できるならserver side validationのほうが良いのかなと思いました。
最後にmanifestをもとにもどして削除してみます。
> kubectl
> kubectl
無事削除できました。
まとめ
kube-rsを利用して簡単なoperatorを作ることができました。
ResourceのCRUD apiだけでなく、reconcile関連(kube_runtime)や、finalizer, event等の仕組みも用意されており、userがreconcileに集中できるようになっていることがわかりました。
参考
- kube-rsのdoc
- 特に内部の実装の解説が非常にありがたかったです
- 勉強会で題材にしたoperatorのtutorial blog
- kube-rs projectで管理されている参照実装
- Kubertes Operators オライリー本。
ボーナストラック
本記事では以下のようにapi(client)とwatchの設定を渡すとreconcile処理が呼ばれるとしました。
new
// ...
.run
// ...
ただ、内部の実装がどのようになっているかは気になるところです。
また、kube-rsのdocを読んでいるとwatcherや、reflectorといったコンポーネントへの言及がしばしばなされます。
実装の詳細な理解は長くなってしまうので別の記事にしたいと思いますが、ここではkube-rsが内部的にやってくれていることのメンタルモデルだけでも持てればと思います。
実際にはもっと複雑なのですが、概要としては、Controller::new()
からController::run()
にいたるまでのkube_runtimeの処理はすべてfutures::stream::Stream
指向となっており、非常に感銘をうけました。
Streamは大きく、watcher, reflector, controllerで処理されています。
watcherは実際にkubenetes apiをcallしてresourceの監視結果を取得します。
reflectorは内部的にArc<RwLock<AHashMap<ObjectRef<Resource>,Arc<Resource>>>>
型のstoreを保持しており、そこにresourceの情報をcacheしています。
controller側では、それらの情報や終了処理のsignal, scheduling等を行い、最終的にuserのreconcile処理をtriggerしています。
watcherやreflectorもpubとして公開されているので、operatorの実装以外でもkubernetes関連のtoolを作成する際には利用できそうだと思いました。