Stackable

Stackable

Stackable Data Platform (SDP) Release 26.3

Wir freuen uns, Stackable Data Platform 26.3 vorstellen zu können – ein Release voller leistungsstarker neuer Funktionen, spannender Produkt-Upgrades und sinnvoller Plattformverbesserungen auf allen Ebenen.

Diese Version erweitert die gesamte Plattform um generic object overrides und bietet Operatoren damit beispiellose Flexibilität bei der Anpassung beliebiger Kubernetes-Objekte. Der Stackable-Operator für OpenSearch wurde umfassend aktualisiert und unterstützt nun TLS-Konfiguration, Service Discovery und Keystore. SDP 26.3 wird mit Unterstützung für OpenSearch 3.4.0 ausgeliefert. Möchten Sie die KI-gestützte Suche in Ihren eigenen Daten testen? Unsere neue OpenSearch RAG-Demo zeigt Ihnen, wie Sie eine Retrieval Augmented Generation-Pipeline mit OpenSearch als Vektorspeicher erstellen.
Der User Info Fetcher (UIF) bietet nun experimentelle Unterstützung für OpenLDAP als Backend, und das Entra-Backend wurde stabilisiert. Der Restart-Controller ist jetzt für nahezu alle Produkte aktiviert und stellt sicher, dass Pods bei Konfigurationsänderungen automatisch neu gestartet werden. 

Mit 114 behobenen CVEs – darunter 9 kritische und 40 schwerwiegende Schwachstellen – und der Aktualisierung aller Operator-Basis-Images von UBI9 auf UBI10 ist die Plattform sicherer und einfacher zu bedienen als je zuvor.

SDP 26.3 unterstützt nun Kubernetes 1.31-1.35 und Red Hat OpenShift 4.18-4.20.

Produktseitig führt Apache Airflow 3.1 Human-in-the-Loop (HITL)-Workflows ein , die es Benutzern ermöglichen, mit laufenden Datenpipelines zu interagieren, diese zu genehmigen und zu steuern – ein bedeutender Fortschritt für KI-gestützte und GenAI-Workflows. Apache NiFi 2.7.2 bietet native Iceberg-Unterstützung und ermöglicht so das direkte Schreiben von Daten aus NiFi-Flows in Iceberg-Tabellen. 

Diese Version markiert einen wichtigen Meilenstein : Apache Spark 4.1.1 und Apache Superset 6.0 werden nun vollständig unterstützt, nicht mehr nur experimentell. Apache Spark 4.1.1 führt deklarative Pipelines ein , mit denen Entwickler den gewünschten Zustand ihrer Datenpipelines definieren können, anstatt imperative Ausführungsschritte festzulegen. Apache Superset 6.0 bietet eine komplett überarbeitete Benutzeroberfläche mit echtem Dunkelmodus (dark mode), dynamischen Designs und einer neuen Gantt-Diagrammvisualisierung – zwei bedeutende Fortschritte in einer einzigen Version. Kafka-Nutzer können nun von ZooKeeper zu KRaft migrieren und ihre Cluster so zukunftssicher für Kafka 4.x machen.

Neue Plattformfunktionen

Übergreifend

  • Generische Objektüberschreibungen (objectOverrides): Alle Operatoren unterstützen jetzt das Zusammenführen benutzerdefinierter Konfigurationen mit beliebigen Kubernetes-Objekten, die sie erstellen (StatefulSets, Listener, ConfigMaps usw.). Das ermöglicht die volle Kontrolle über die Anpassung auf Plattformebene, ohne die Operatorlogik zu verändern. Prioritätsreihenfolge: configOverrides → podOverrides → objectOverrides. Siehe die Dokumentation zu den Konzepten .
  • Neue RAG-Demo mit OpenSearch: Eine neue Demo, die Retrieval Augmented Generation (RAG) mit OpenSearch als Vektorspeicher vorstellt und so die Erkundung KI-gestützter Suchanwendungsfälle auf der Stackable-Plattform vereinfacht. Weitere Informationen in der Demo-Dokumentation.
  • CRD-Selbstverwaltung: Alle Operatoren verwalten ihre CRDs nun unabhängig von Helm selbst, wobei der Konvertierungs-Webhook parallel zum Controller läuft, um die zukünftige CRD-Versionierung zu unterstützen.

Apache Airflow

Git-sync unterstützt jetzt neben der Basisauthentifizierung auch die SSH-Schlüsselauthentifizierung. Der Operator kann das credentialsSecretFeld außerdem automatisch in das neue credentials: basicAuthSecretName konvertieren, sodass dieses Upgrade keine Kompatibilitätsprobleme verursacht. Siehe die Anleitung zum Einbinden von DAGs .

Apache HBase

Das hbase.rest.endpoint Feld wird nun in der ConfigMap zur Rollengruppenermittlung des REST-Servers veröffentlicht, wodurch es einfacher wird, die HBase REST-API von anderen Diensten aus bekannt zu machen und zu nutzen.

Apache Kafka

  • OPA mit TLS: Die OPA-Integration von Kafka unterstützt jetzt TLS (Nicht-TLS-Modi ist weiterhin verfügbar) und bietet somit Flexibilität bei der Sicherung der Policy-Durchsetzung (Hinweis: TLS wird für den Kafka Controller in Kafka 4.x noch nicht unterstützt).
  • Migration von ZooKeeper zu KRaft: Bestehende Kafka 3.9.1-Cluster können jetzt von ZooKeeper zu KRaft migriert werden. Dies reduziert die operative Komplexität und bereitet die Cluster auf Kafka 4.x vor. Weitere Informationen finden Sie im KRaft-Migrationsleitfaden .

Apache Spark

  • Kontrollierte Fehlerbehandlung: Spark-Anwendungen werden bei einem Fehler nicht mehr automatisch erneut gesendet. Dadurch haben Teams mehr Kontrolle über das Wiederholungsverhalten. Das vorherige Verhalten kann wiederhergestellt werden spec.job.retryOnFailureCount. Treiber-Pods werden im Endzustand gelöscht; Executor-Pods werden bei einem Treiber- oder Sendefehler bereinigt.
  • S3-Unterstützung für Spark Connect: First-class S3-Bucket- und Verbindungsunterstützung für Spark Connect-Server, wodurch Clients unkompliziert Zugriff auf Daten in S3 erhalten. Weitere Informationen finden sich im Spark Connect-Benutzerhandbuch .
  • Spark Application Templates: Häufig verwendete Anwendungskonfigurationen können nun zentralisiert und von SparkApplication-Objekten referenziert werden. Dies reduziert Redundanz und vereinfacht die Verwaltung. Weitere Informationen finden sich im Leitfaden zur Vorlagenverwendung .

Open Policy Agent

  • OpenLDAP-Backend für UIF: Der User Info Fetcher bietet nun experimentelle OpenLDAP-Unterstützung und erweitert damit die Integration von Unternehmensidentitäten über Keycloak und Entra hinaus. Weitere Informationen finden sich in der OpenLDAP-Backend-Dokumentation .
  • CLI-Überschreibungen: OPA-Befehlszeilenargumente können nun über cliOverridesdie CRD angepasst werden, wodurch eine präzise Steuerung des Laufzeitverhaltens von OPA ermöglicht wird. Siehe die OPA-Dokumentation.
  • Entra Backend für UIF: Jetzt stabil

OpenSearch

  • TLS-Konfiguration: TLS für die Server- und interne Kommunikation kann nun über SecretClasses konfiguriert werden, wodurch OpenSearch den Sicherheitsstandards der übrigen Plattform entspricht. Weitere Informationen finden sich im Leitfaden zur Sicherheitsnutzung .
  • Keystore-Unterstützung: Secrets wie S3-Zugangsdaten für Backups können nun über den Operator zum OpenSearch-Keystore hinzugefügt werden. Siehe Keystore-Leitfaden .
  • Service Discovery: Eine neue ConfigMap zur Dienstermittlung stellt Verbindungsparameter bereit und vereinfacht so die Konfiguration von OpenSearch-Clients ohne manuelle Koordination. Weitere Informationen finden sich in der Dokumentation zur Service Discovery.
  • Konfiguration des Sicherheits-Plugins: Das Sicherheits-Plugin ist nun innerhalb der OpenSearchCluster Spezifikation in zwei Modi konfigurierbar: API-verwaltet (nach der Initialisierung) oder Operator-verwaltet.

⚠️ Für ein Upgrade von Version 25.11 müssen alle vorhandenen podOverrides und configOverrides sicherheitsrelevanten Einstellungen entfernt werden. Vor dem Upgrade bitte den OpenSearch-Upgrade-Leitfaden konsultieren.

Stackable Listener Operator

  • Service-Überschreibungen für ListenerClasses: serviceOverrides können nun analog zu podOverridesStacklets auch für ListenerClasses konfiguriert werden, wodurch beliebige Änderungen an erstellten Diensten möglich sind.
  • Unabhängige Bereitstellung von ListenerClass-Voreinstellungen: Der Listener-Operator stellt nun die ausgewählte ListenerClass-Voreinstellung selbst bereit.

Stackable Secret Operator

Die neue secrets.stackable.tech/provision-parts Annotation von verborgenen Volumes ermöglicht eine präzise Steuerung der Bereitstellung sensibler Daten – beispielsweise nur die Bereitstellung eines Teils des verborgenen Materials ca.crt von einem autoTls Backend oder nur die Bereitstellung eines anderen krb5.confTeils von einem kerberosKeytabBackend. Dies ermöglicht gezieltere Muster für den Zugriff auf geheime Daten in komplexen Bereitstellungen. Weitere Informationen finden sich in der Volume-Dokumentation .

Plattformverbesserungen

Übergreifend

  • UBI10 Basis-Images: Alle Operator-Images wurden von UBI9 auf UBI10 aktualisiert.
  • Restart Controller: Jetzt für alle Produkte außer Apache Hadoop aktiviert – Pods werden bei Änderungen an ConfigMap oder Secret automatisch neu gestartet, wodurch der manuelle Eingriff bei Konfigurationsaktualisierungen reduziert wird.
  • Graceful Shutdown: Alle Operatoren leiten nun konsistent SIGTERM weiter und beenden gleichzeitig laufende Prozesse korrekt.
  • Fehlerbehebung im Vector-Log: Protokolleinträge konnten nach einem Sidecar-Neustart zuvor mehrfach an den Vector-Aggregator gesendet werden. Das Problem wurde behoben, indem der Vector-Status über Neustarts hinweg beibehalten wird.

Apache Airflow

  • Erweiterte Provider-Pakete: Alle verfügbaren Zusatzpakete für Airflow 3+ sind jetzt in den Produktimages enthalten, wobei explizite Ausschlüsse dokumentiert sind – so steht von Anfang an eine größere Auswahl an Integrationen zur Verfügung.
  • Celery-Redis-Verbindungsproblem behoben: Celery-Worker in Airflow 3 konnten manchmal nach einer Redis-Wiederverbindung die Ausführung von Aufgaben einstellen. Das Problem wurde durch ein Update des Celery-Pakets behoben.
  • Reduzierte Anzahl an API-Workern: Die Anzahl der standardmäßigen Webserver-API-Worker wurde von 4 auf 1 reduziert, wodurch der Ressourcenverbrauch in typischen Bereitstellungen gesenkt wird. Die Anzahl lässt sich einfach über configOverrides oder zusätzliche Replikate anpassen.

Apache Druid

⚠️ Wichtige Änderung: Die CPU-Anforderung und das Limit des Routers wurden erhöht von 100m/400m zu 300m/1200m um den höheren Ressourcenanforderungen von Druid 35 Rechnung zu tragen.

Apache Hadoop

Das format-namenodes Init-Container-Skript enthält nun eine Warnung und eine Abbruchbedingung, um beschädigte Daten nach der Formatierung zu erkennen. Shell-Ausgaben von Init-Containern, die zuvor nicht aggregiert wurden, werden nun korrekt erfasst.

Apache NiFi

  • ⚠️ Wichtige Änderung – Autorisierungsstrukturierung: Die Autorisierungskonfiguration entspricht nun den NiFi-Schnittstellen. opasingleUser, und standard sind explizit festgelegte Optionen, wobei standard die dateibasierte Autorisierung einschließlich eines initialAdminUser unterstützt. LDAP-Benutzer ohne OPA müssen nun explizit standard konfigurieren. Weitere Informationen finden sich im Leitfaden zur Sicherheitsnutzung .
  • Statische Autorisierungsdateien: Statische users.xmlauthorizer.xml, und authorizations.xml Dateien werden jetzt unterstützt, was für Organisationen nützlich ist, die Benutzer- und Gruppendaten aus AD/Entra beziehen.
  • Portweiterleitungs-Fix: NiFi-Pods hören jetzt auf der Loopback-Schnittstelle, wodurch die Kubernetes-Portweiterleitung für lokales Debugging ermöglicht wird.
  • OPA-Paketnamenkorrektur: Der Operator verwendet jetzt spec.clusterConfig.authorization.opa.package anstelle der festen Codierung nifi den, im Default zum Namen des NifiClusters.

Apache Spark

  • Pod-/Knotenaffinitäten werden nun für Spark-Anwendungsjobs unterstützt und ermöglichen so eine präzisere Workload-Platzierung. Weitere Informationen finden sich im Leitfaden zur Pod-Platzierung .
  • Treiber-Pods werden nun nach Abschluss des Auftrags automatisch gelöscht, wodurch Cluster aufgeräumt bleiben.
  • Es wurde ein Problem mit doppelten Volumes behoben, das auftrat, wenn sowohl der History-Server als auch eine S3-Verbindung auf dieselbe SecretClass verwiesen.

Open Policy Agent

  • Das Entra UIF-Backend ist jetzt stabil mit OpaCluster v1alpha2, mit automatischer Konvertierung zwischen v1alpha1und v1alpha2.
  • Eine fehlerhafte Protokollwarnung, die durch einen überflüssigen Dienstnamen in Bundle-POST-Anfragen verursacht wurde, wurde entfernt.

Trino

  • ⚠️ Wichtige Änderung – Spaltenmaskierung: Der Operator setzt nun opa.policy.batch-column-masking-uri anstelle von opa.policy.column-masking-uri, wodurch Trino mehrere Spaltenmasken in einer einzigen Anfrage abrufen kann, um die Leistung zu verbessern. Eine batchColumnMasks Regel im OPA-Trino-Regelsatz ist erforderlich. Dies kann deaktiviert werden, indem man enableColumnMasking: false setzt. Hinweis: opa under authorization ist nun eine obligatorische Enum-Variante.
  • spec.connector.iceberg.metastore in TrinoCatalog ist jetzt optional und unterstützt REST und andere Nicht-Metastore-Katalogtypen über configOverrides.

Apache ZooKeeper

Ein Fehler, bei dem zkCli Befehle aufgrund von ZOOKEEPER-4985 fehlschlagen konnten, wurde durch Setzen der ZOOCFGDIR Umgebungsvariablen behoben.

OpenSearch

Es wurde ein Fehler bei der Protokolldateirotation behoben, der dazu führte, dass beim Erreichen der 5-MB-Grenze wiederholt Fehler auftraten, anstatt die Datei zu rotieren.

Neue Produktversionen

Die folgenden neuen Produktversionen werden jetzt unterstützt (eine Liste aller unterstützten Produktversionen findet sich hier):

ProduktNeue Version/enWas ist neu ?
Airflow3.1.6Human-in-the-Loop (HITL)-Workflows HITLOperator, ApprovalOperator, HITLBranchOperator und HITLEntryOperator ermöglichen es Benutzern, laufende DAGs während der Ausführung zu genehmigen, abzulehnen, zu verzweigen oder Eingaben hinzuzufügen – besonders leistungsstark für GenAI-Workflows, die eine menschliche Überprüfung erfordern. Autorisierungsunterstützung wurde via is_authorized_hitl_task()in Version 3.1.6 hinzugefügt (PR #59399 ) .

Fristwarnungen (AIP-86): Zeitbasierte Fristen für DAG-Ausführungen mit Benachrichtigungen bei drohenden Fristüberschreitungen – der bisherige SLA-Mechanismus wird durch einen flexibleren und zuverlässigeren Ansatz ersetzt.

Kalender- und Gantt-Diagrammansichten : Eine neue Kalenderansicht ermöglicht das Erkennen von Mustern im DAG-Ausführungsverlauf, und ein Gantt-Diagramm veranschaulicht die Ausführungszeitpläne und die Parallelität von Aufgaben. Die Rasteransicht bietet nun Tastaturnavigation und erweiterte Filterfunktionen.

⚠️  AUTH_OID entfernt – Migration zu AUTH_OAUTH.
Druid35.0.1Virtueller Speicher / Fabric-Modus (Experimentell): Historical Server können nun mehr Segmente bedienen, als ihre physische Festplatte aufnehmen kann, indem sie diese bei Bedarf aus dem Tiefenspeicher laden. Dadurch wird die Rechenleistung effektiv von der lokalen Speicherkapazität entkoppelt.

MSQ-Engine jetzt Kernfunktion: Die Multi-Stage-Query-Engine ist nun eine Kernfunktion – keine Erweiterung mehr erforderlich. ⚠️ Wenn zuvor druid-multi-stage-query to druid.extensions.loadList via des Stackable-Druid-Operators  Erweiterungen über die Konfiguration hinzugefügt wurden, müssen diese vor dem Upgrade manuell entfernt werden – der Operator erledigt dies nicht automatisch. 

Java 21-Unterstützung, Java 11 wird nicht mehr unterstützt. Java 17 (bis Version 34) oder 21 (für neuere Versionen) erforderlich. 

Exact Count Bitmap Extension druid-exact-count-bitmap ermöglicht die exakte Kardinalitätszählung mittels Roaring Bitmap, was nützlich ist, wenn HyperLogLog-Approximationen nicht ausreichen. 

Abfrageleistung: 40 % schnellere Intervalldeserialisierung, Vektorisierung für CASE/IF/Zeitstempel-Ausdrücke. 

Jetty 12-Upgrade: Strengere Einhaltung von RFC 3986 URI und SNI. 
Anpassungen an druid.server.http.uriCompliance können erforderlich sein.
HBase2.6.4 (LTS)Wartungsrelease mit 86 behobenen Problemen. Fehlerbehebungen und Stabilitätsverbesserungen – keine neuen wesentlichen Funktionen. hbase-operator-tools wurde auf Version 1.3.0 aktualisiert.
Apache Hive4.2.0Iceberg V3 Löschvektoren: Effizientes Löschen auf Zeilenebene ohne Überschreiben ganzer Datendateien. (HIVE-29006)

Iceberg ViewCatalog über REST-API: Zugriff auf Iceberg-View-Kataloge über die REST-API sowie Spaltenstandardwerte mit ALTER-Befehlen. (HIVE-29036 , HIVE-29252)

JDK 21 als Minimum (HIVE-29027)

LDAP-Gruppenfilterung für Kerberos-Benutzer: Kerberos-authentifizierte Benutzer können jetzt nach LDAP-Gruppenzugehörigkeit gefiltert werden, was die Sicherheitsintegration in Unternehmensumgebungen verbessert. (HIVE-29211)
Hinweis: Für eine flexiblere, richtlinienbasierte Zugriffskontrolle sollte alternativ die OPA-Integration von Stackable in Betracht gezogen werden.

HMS HTTPS-Unterstützung: Der Hive Metastore unterstützt jetzt HTTPS für seine Katalog- und Eigenschaften-Servlets. (HIVE-29112)
Kafka4.1.1 (experimentell)Bugfix-Version mit 11 Fehlerbehebungen und 2 Verbesserungen. Wichtige Korrekturen betreffen die Verarbeitung speicherabgebildeter Dateien unter Linux sowie die Zustellungsgarantie „mindestens einmal“ von Kafka Streams.

Hinweis: Kafka 3.9.1 ist die letzte Version mit ZooKeeper-Unterstützung. Kafka 4.x verwendet ausschließlich KRaft.
NiFi2.7.2 (LTS)PutIcebergRecord-Prozesso: Strukturierte Datensätze direkt in Iceberg-Tabellen schreiben – mit AWS- und Azure FileIO-Unterstützung sowie REST-Katalog-/Parquet-Formatierung. NiFi wird so in die moderne Lakehouse-Architektur integriert.

ConsumeKinesis-Prozessor: Amazon Kinesis-Streams über die Kinesis Client Library 3 verarbeiten – für verbesserte Performance und Zuverlässigkeit.

Couchbase 3-Unterstützung: Neue GetCouchbase- und PutCouchbase-Prozessoren für die Couchbase-Datenintegration.

Parquet Content Viewer: Parquet-Dateiinhalte direkt in der NiFi-Benutzeroberfläche anzeigen – ohne externe Tools.

GCP Workload Identity Federation: Neue GCP-Authentifizierungsoption zusammen mit verbesserter Azure Event Hub-Authentifizierung und AWS SDK v2-Upgrades.

Wichtiger Fix: Falsche Ergebnisse von QueryRecord. Ein seit NiFi 2.0 bestehendes Problem, das zu falschen Ergebnissen des QueryRecord-Prozessors führte, wurde behoben.

Hinweis: Für die Iceberg-Unterstützung sind S3 und ein REST-Katalog erforderlich. Hive Metastore und HDFS werden nicht unterstützt. Weitere Informationen finden sich in der 
NiFi Iceberg-Dokumentation. Allgemeine Informationen zur Iceberg-Verwaltung in NiFi finden sich im 
Blog: How Apache NiFi 2 Integrates Apache Iceberg
Spark3.5.8 (LTS)
4.1.1
Deklarative Pipelines: Legen den gewünschten Zustand von Tabellen und Datenflüssen fest. Spark kümmert sich automatisch um Ausführungsreihenfolge, Parallelität, Checkpoints und Wiederholungsversuche und reduziert so den Pipeline-Code erheblich. (SPARK-51727)

SQL-Skripting allgemein verfügbar: Jetzt standardmäßig aktiviert, mit CONTINUE HANDLER, Unterstützung mehrerer DECLARE-Variablen und verbesserter NULL-Behandlung. (SPARK-54499)

VARIANT-Typ allgemein verfügbar: Allgemein verfügbar für semistrukturierte Daten, mit Unterstützung für CSV-, XML- und Parquet-Scans sowie Doppelpunkt-Operator für den Feldzugriff. (SPARK-54454)

Echtzeit-Streaming mit strukturierten Daten: Latenz im einstelligen Millisekundenbereich für zustandslose Workloads mit AQE-Unterstützung. Überwindet die Einschränkungen des traditionellen Micro-Batch-Modells – ein wichtiger Schritt für Streaming-Pipelines mit niedriger Latenz. (SPARK-53736)

JDBC-Treiber für Spark Connect: Standardmäßige BI-Tool- und JDBC-Anwendungsverbindung zu Spark Connect-Servern. (SPARK-53484)

Python Arrow UDF/UDTF: Die native Arrow-Integration eliminiert den Serialisierungsaufwand für Python-UDFs und -UDTFs und führt zu deutlichen Leistungssteigerungen. (SPARK-52214)

Unterstützung für rekursive CTEs: Die lang erwartete Unterstützung für rekursive Common Table Expressions ermöglicht hierarchische und Graphabfragen in SQL. (SPARK-24497)

77 neue integrierte Funktionen, darunter approx_top_k, KLL-Quantiles-Sketch, Theta-Sketch, BITMAP_AND_AGG und try_to_date.

Hinweis: Die Laufzeitbibliotheken Iceberg und Delta sind für Spark 4.1.1 noch nicht verfügbar.
Superset6.0.0 (LTS)Dunkelmodus (dark mode) und dynamische Designs: Echter Dunkelmodus mit tokenbasierter Gestaltung nach Ant Design v5. Designs können erstellt, bearbeitet, importiert/exportiert und systemweit oder pro Dashboard angewendet werden – so haben Datenteams die volle Kontrolle über das Erscheinungsbild ihrer BI-Umgebung. Bootstrap- und Font Awesome-Abhängigkeiten wurden vollständig entfernt.

Gantt-Diagrammtyp: Neue Gantt-Diagrammvisualisierung für zeitachsenbasierte Daten sowie verbesserte Zeitreihen mit Unterstützung für Datumsbereichs-Zeitverschiebung.

Neue Datenbankkonnektoren: Superset 5.0 fügte Parseable, Firebolt, YDB, Denodo Virtual DataPort und Apache Doris hinzu. Superset 6.0 fügt SingleStore hinzu und verbessert die bestehenden Konnektoren für Snowflake, DuckDB und Databricks.

Datensatzordner und -verwaltung: Datensätze können jetzt in Ordnern organisiert und erstellt werden, ohne vorher die Explore-Ansicht aufrufen zu müssen – eine deutliche Verbesserung der Benutzerfreundlichkeit für Datenteams, die eine große Anzahl von Datensätzen verwalten.

OAuth2-Datenbankunterstützung: OAuth2-Authentifizierung für Datenbankverbindungen, einschließlich BigQuery und Trino OAuth2, ermöglicht moderne Authentifizierungs-Workflows.

PDF-Export mit mehreren Registerkarten: Exportierte Dashboards mit mehreren Registerkarten als PDF; CSV-/Excel-Exporte berücksichtigen SQL_MAX_ROW.

React 19 und Frontend-Modernisierung: React 19, Ant Design 5, TypeScript v5, DayJS ersetzt Moment.js.

Hinweis: OpenStreetView ist jetzt Standard für Deck.gl-Visualisierungen – kein API-Schlüssel erforderlich. Lesen Sie die 
offiziellen Update-Hinweise vor dem Upgrade.

⚠️  AUTH_OID entfernt – Migration zu AUTH_OAUTH.
Open Policy Agent1.12.3String-Interpolation in Rego (1.12.0)$"..." Template-Syntax mit 
{expression} Platzhaltern – eine lesbarere Alternative zu
sprintf, die das Schreiben und Warten von Richtlinien vereinfacht. (v1.12.0)

SQL-Filterkompilierung (1.9.0): Generierung datenbankspezifischer SQL-WHERE-Klauseln aus Rego über die Compile-API – bisher exklusiv für Enterprise OPA. (v1.9.0)

Schnelleres Laden von Bundles (1.11.0): Gleichzeitiges Rego-Parsing reduziert die Startzeiten für große Policy-Bundles erheblich. (v1.11.0

10 % schnellere Kompilierung (1.12.0): Verbesserte Visitor-Implementierung und reduzierte Speicherzuweisungen ermöglichen eine schnellere Policy-kompilierung. (v1.12.0)

Security Fix: Speicherausschöpfung durch gefälschtes Gzip (1.11.1): Eine bösartige HTTP-Anfrage konnte zu Speichermangel führen und die Token-Authentifizierung umgehen – nur mTLS bietet vollständigen Schutz. Behoben in Version 1.11.1. (v1.11.1)
OpenSearch3.4.0gRPC-Transport wurde vom experimentellen Plugin zum vollwertigen Modul weiterentwickelt und unterstützt nun Match, Boolean, Range, Wildcard, Fuzzy, Nested und mehr – ein leistungsstarkes alternatives Transportprotokoll für OpenSearch-Cluster.

Streaming-Aggregationen: Neue Streaming-Kardinalitäts- und numerische Term-Aggregatoren über Apache Flight und Arrow ermöglichen die Echtzeit-Aggregation großer Datensätze ohne Wartezeit auf vollständige Ergebnisse.

Verbesserungen bei S3-Speicher: S3CrtClient für höheren Upload-Durchsatz (3.3); serverseitige und clientseitige Verschlüsselungsoptionen für die Repository-Speicherung (3.4).

Regelbasiertes Auto-Tagging: Automatisches Tagging von Sicherheitsattributen mit ACL-basiertem Routing – nützlich für Compliance- und Zugriffskontrollszenarien.

Pull-basierte Datenerfassung: Aktiver Erfassungsmodus, asynchrones periodisches Leeren, Message Mapper und dynamische Aktualisierungen der Consumer-Konfiguration – für eine flexiblere Datenerfassungspipeline.

FIPS-Compliance-Tools: Tools zum Erstellen und Testen für FIPS-konforme Umgebungen, wichtig für den Einsatz in Behörden und regulierten Branchen.

Lucene 10.3.2 wurde von Version 10.1.x aktualisiert und bietet Verbesserungen bei der Suchleistung und Korrektheit.
Trino479Automatische interne TLS-Verschlüsselung (479): Trino generiert jetzt automatisch TLS-Zertifikate für die interne Clusterkommunikation über die Knotenerkennung mit ANNOUNCE. Dies vereinfacht die Clustersicherheit erheblich, da keine manuelle Zertifikatsverwaltung mehr erforderlich ist. Während Stackable dies bereits auf Infrastrukturebene handhabte, integriert Trino nun natives TLS direkt in den Prozess. (Dokumentation

Experimentelle vektorisierte Serialisierung (479): Optimierter Datenaustausch zwischen Workern auf modernen CPU-Architekturen (Graviton 3, Skylake, Icelake, Zen 4+) verbessert den Abfragedurchsatz bei datenintensiven Operationen.

Neue Array-Funktionen (479)array_first(),  
array_last()und row-Literale mit Feldnamendeklarationen.

Verschlüsseltes Lesen von Parquet-Daten im Hive Connector (478): Verbesserte Leistung komplexer Prädikate für die 
$path Spalte.

Verbesserungen am Iceberg Connector (478, 479): Token-Austausch-Konfiguration, expire_snapshots Optionen, Speicheroptimierung für stark verschachtelte Felder, verbesserte Schreibleistung für sortierte Tabellen.

OPA-Abfrage-ID-Weitergabe (478): Die Abfrage-ID wird nun an den OPA-Authorisierer übergeben, wodurch detailliertere Policy-Entscheidungen pro Abfrage möglich sind.

Hinweis: Der Storage-Connector basiert weiterhin auf Trino 477.

⚠️ Breaking (479): JDK 25 erforderlich. task.statistics-cpu-timer-enabled und prefer_streaming_operators entfernt

stackablectl

Parallel zu SDP 26.3 ist nun stackablectl 1.4.0 verfügbar. Dieser Patch behebt einen Absturz während 
release upgrade in SDP 25.11, der durch einen 404-Fehler beim Suchen von CRD-Dateien für den Secret-Operator verursacht wurde. Dieser verwaltet seine CRDs nun unabhängig von Helm. Siehe die 
Versionshinweise.

Weitere Informationen

Weitere Details zum neuen Release und zum Upgrade finden sich in den Release-Notes sowie in den Changelogs der einzelnen Operatoren:

AirflowDruidHBaseHDFSHiveKafkaNiFiOpenPolicyAgentOpenSearchSparkSupersetTrinoZooKeeper

Comments are closed.