stackit.guru
DE

STACKIT Kubernetes Engine (SKE) – Managed Kubernetes

#runtime
kubernetes containers orchestration

STACKIT Kubernetes Engine (SKE) – Managed Kubernetes

Du kennst die Kubernetes-Grundlagen bereits? Dann weißt du auch, dass der Betrieb eines Clusters – Control Plane patchen, etcd-Backups, Node-Upgrades koordinieren – schnell zum Vollzeitjob wird. Die STACKIT Kubernetes Engine (SKE) nimmt dir genau diesen operativen Aufwand ab, damit du dich auf deine Workloads konzentrieren kannst.

:::info Dieser Artikel setzt Kubernetes-Grundwissen voraus. Falls du neu bei Kubernetes bist, lies zuerst den Artikel Einführung in Kubernetes auf STACKIT. :::

Was ist die STACKIT Kubernetes Engine?

SKE ist ein vollständig verwalteter Kubernetes-Service auf der STACKIT-Infrastruktur. Du bekommst einen produktionsreifen Cluster, ohne dich um die Verwaltung der Control Plane kümmern zu müssen.

  • Managed Control Plane: API-Server, etcd, Scheduler und Controller Manager werden von STACKIT betrieben und gepatcht.
  • Cluster-Autoscaler: Node Pools skalieren automatisch basierend auf Ressourcenanforderungen deiner Pods.
  • Automatische Upgrades: Kubernetes-Versionen werden rollierend aktualisiert – ohne Downtime.
  • Integriertes Monitoring: Prometheus und Grafana sind vorinstalliert und vorkonfiguriert.
  • RBAC & OIDC: Nahtlose Integration mit STACKIT IAM für Authentifizierung und Autorisierung.

Tutorial: SKE-Cluster erstellen und nutzen

1. Cluster erstellen

stackit ske cluster create \
  --name mein-cluster \
  --project-id your-project-id \
  --version 1.30 \
  --node-pool default,machine-type=c1.4,min=2,max=10

2. Kubeconfig herunterladen

stackit ske kubeconfig --name mein-cluster > ~/.kube/config

kubectl get nodes
# NAME                    STATUS   ROLES    AGE   VERSION
# ske-default-pool-abc1   Ready    <none>   2m    v1.30.x
# ske-default-pool-abc2   Ready    <none>   2m    v1.30.x

3. Node Pool mit Autoscaling konfigurieren

stackit ske node-pool create \
  --cluster mein-cluster \
  --name high-memory \
  --machine-type m1.8 \
  --min 0 \
  --max 5 \
  --labels workload=data-processing

4. Anwendung deployen

# deployment.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
  name: meine-app
spec:
  replicas: 3
  selector:
    matchLabels:
      app: meine-app
  template:
    metadata:
      labels:
        app: meine-app
    spec:
      containers:
        - name: app
          image: registry.stackit.cloud/your-project-id/meine-app:latest
          resources:
            requests:
              cpu: "250m"
              memory: "256Mi"
            limits:
              cpu: "500m"
              memory: "512Mi"
kubectl apply -f deployment.yaml

5. Monitoring aufrufen

Das integrierte Grafana-Dashboard erreichst du über:

stackit ske monitoring --name mein-cluster

# Öffnet: https://grafana.mein-cluster.ske.stackit.cloud

Nächste Schritte

  • Richte STACKIT Load Balancing ein, um Traffic auf deine Services zu verteilen.
  • Nutze die STACKIT Container Registry, um deine Images sicher und nah am Cluster zu speichern.
  • Konfiguriere Cluster-Upgrades im Wartungsfenster, das zu deinem Team passt.