Stackable

Stackable

Stackable Data Platform (SDP) Release 25.11

Wir freuen uns, Stackable Data Platform 25.11 vorzustellen, ein Release, das die Datenplattform mit neuen Funktionen, verbesserter Sicherheit und optimierter Beobachtbarkeit erweitert.

Diese Version bietet experimentelle Unterstützung für OpenSearch 3.1.0 und ermöglicht so leistungsstarke Such- und Analysefunktionen direkt im Stackable-Ökosystem, und kann zusätzlich als Vector Datenbank für AI Use Cases verwendet werden. Außerdem werden KRaft-verwaltete Kafka-Cluster eingeführt, die ZooKeeper für moderne, skalierbare Kafka-Bereitstellungen ersetzen. Zusätzlich wird die TLS-Verschlüsselung für Open Policy Agent (OPA) implementiert , um eine sichere Kommunikation zwischen OPA und Ihren Datendiensten zu gewährleisten.

Mit 37 behobenen CVEs , darunter 2 kritische und 18 schwerwiegende, sowie verbesserter Metrikenerfassung für alle Operatoren, macht SDP 25.11 die Plattform sicherer und einfacher zu überwachen. Das Release beinhaltet außerdem verbesserte Trino-PerformanceAirflow 3.0.6 (LTS) mit Triggerer-Unterstützung und Spark 4.0.1 (experimentell) sowie erweiterte Unterstützung für Kubernetes 1.31–1.34 und Red Hat OpenShift 4.18–4.20. In Kombination mit unserer OCI-orientierten Bereitstellung auf oci.stackable.tech ermöglicht SDP 25.11 intelligentere und robustere Datenarchitekturen schneller als je zuvor zu entwickeln.

Neue Plattformfunktionen

  • Allgemeine Verbesserungen
    • Experimenteller OpenSearch-Operator: Bereitstellung und Verwaltung von OpenSearch-Clustern mit dem neuen Operator von Stackable, der Version 3.1.0 unterstützt.
    • Warnungen zum Supportende (EoS): Alle Operatoren geben jetzt Warnungen aus, wenn sich das Supportende nähert, damit Sie die Compliance-Anforderungen erfüllen und auf dem neuesten Stand bleiben.
    • KRaft für Apache Kafka: Experimentelle Unterstützung für KRaft-verwaltete Kafka-Cluster, die ZooKeeper für die Clusterverwaltung in Kafka 4.0+ ersetzen.
    • Verbesserte Trino-Performance: Durch Verwendung des OPA Batch Interfaces sind Trino-Abfragen mit großer Anzahl von Tabellen nun deutlich performanter.
  • Sicherheit
    • TLS für Open Policy Agent (OPA): Verschlüsselt den Datenverkehr zwischen OPA und Clients mit automatischer Integration für Trino- und NiFi-Authorisierer.
    • SecretClass v1alpha2: Neue Funktionen und Stabilitätsverbesserungen, einschließlich nicht-experimenteller samAccountNameGenerierung und certManagerBackend.
  • Überwachung:
    • Erweiterte Metriken: Alle Operatoren stellen nun Prometheus-Annotationen für das HTTP(S)-Schema, den Metrikpfad und den Port bereit, wodurch das Sammeln und Überwachen von Metriken verbessert wird.
    • Protokollintegrität: Probleme, die zu beschädigten Protokolleinträgen in mehreren unterstützten Produkten führten, wurden behoben.
  • Authorisierung
    • User Info Fetcher (UIF): Nicht mehr experimentell, ermöglicht nahtloses Abrufen von Benutzergruppen zur Autorisierung aus zentralen Identity Providern.
  • ArgoCD-Demo :
    • Neue Demo zur Veranschaulichung der GitOps-Integration mit Stackable-Operatoren und Airflow.

Plattformverbesserungen

  • Sicherheit & Schwachstellen
    • 37 CVEs behoben: Zwei kritische und 18 schwerwiegende Sicherheitslücken in Stackable-Produktabbildern wurden behoben.
  • Apache Airflow
    • Trigger-Unterstützung: Ermöglicht aufschiebbare Operatoren, wodurch Worker-Slots frei bleiben und die Hochverfügbarkeit verbessert wird.
    • DAG-Prozessorrolle: Optionale individuelle Rolle für separate Konfiguration und dedizierte Containerausführung.
    • Datenbankinitialisierung: Kann nun zur Fehlerbehebung deaktiviert werden, wobei deutliche Warnungen vor potenziellen Risiken angezeigt werden.
  • Apache Spark
    • ServiceAccount-Überschreibungen: Überschreiben Sie die ServiceAccounts der Spark-Anwendung mithilfe von podOverrides.
    • Spark 4.0.1 (Experimentell): Unterstützung hinzugefügt, mit bekannten Kompatibilitätsproblemen mit HBase und Iceberg.
  • Apache NiFi
    • Workaround für SNI-Prüfungen: Deaktivieren Sie die SNI-Prüfungen für NiFi in Szenarien, in denen externe Namen nicht in Zertifikaten enthalten sind.
    • Überwachungshinweise: Aktualisierte Dokumentation zum Abrufen von NiFi 2-Metriken mithilfe von mTLS.
  • Open Policy Agent
    • Dedizierter Metrikendienst: -metrics-Dienst pro Rollengruppe für Prometheus-Scraping sowie zusätzliche Metriken zur Umgebung und Bundle-Auslastung.
  • Trino
    • Version 477 von Trino unterstützt den neuen, universellen Lakehouse Connector.
  • Listener & Secret Operatoren
    • ListenerClass Defaults: .spec.externalTrafficPolicy verwendet jetzt standardmäßig 'null‚ um eine breitere LoadBalancer-Kompatibilität zu gewährleisten.
    • Secret-Operator Helm Chart: Wird jetzt in zwei Teilen bereitgestellt (Deployment für Controller, DaemonSet für CSI) mit separater Ressourcensteuerung.

Neue Produktversionen

Die folgenden neuen Produktversionen werden jetzt unterstützt (eine Liste aller unterstützten Produktversionen findet sich hier):

ProductNew version/sWhat’s new ?
Airflow3.0.6 (LTS)Unterstützung für Datenbank-Downgrades:
Ermöglicht ein Downgrade der Datenbank von Airflow 3.x auf 2.11 und bietet so Sicherheit für zukünftige Upgrades.
PR: #54399 , #54508

Leistungsverbesserungen der Rasteransicht:
Deutlich verbesserte Leistung und Reaktionsfähigkeit der Rasteransicht durch optimiertes Laden von Daten. Dadurch ist die Benutzeroberfläche bei großen Bereitstellungen wesentlich schneller.
PRs: #52718 , #52822 , #52919

Behebung eines Sicherheitsproblems bei der Verbindungsbearbeitung:
Kritischer Fehler behoben, bei dem sensible Felder wie Passwörter und Zusatzinformationen beim Aktualisieren von Verbindungen über die Benutzeroberfläche verloren gingen.
PRs: #53943 , #53973

Verbesserungen des Aufgabenprotokoll-Viewers:
Verbesserter Aufgabenprotokoll-Viewer mit virtualisierter Darstellung für bessere Leistung bei großen Protokollen. Dadurch wird die Navigation und Anzeige umfangreicher Protokolldateien vereinfacht.
PR: #50746

Verbesserte Visualisierung der Graphansicht:
Probleme bei der Darstellung der Ränder der Graphansicht für verschachtelte Aufgabengruppen behoben. Automatisches Umschalten auf ausgelöste DAG-Läufe bei manueller Auslösung hinzugefügt.
PRs: #54412 (3.0.5), #54336 (3.0.6)
Apache Hadoop3.4.2 (LTS)S3A: Unterstützung für bedingte Schreibvorgänge in S3.
Der S3A-Client verwendet nun bedingte S3-Überschreibungs-PUT-Anfragen für die atomare Dateierstellung. Dadurch entfällt die Notwendigkeit einer separaten HEAD-Anfrage und es werden echte atomare Operationen ermöglicht.
Issue: HADOOP-19256

S3A: Unterstützung des Analytics Accelerator für Parquet-Performance.
Die Unterstützung für den analytics-accelerator-s3 wurde hinzugefügt, um die Parquet-Leseleistung durch optimierte Eingabestreams deutlich zu verbessern.

Issue: HADOOP-19363 , HADOOP-19348

ABFS: Unterstützung für FNS-über-Blob-Endpunkte.
Umfassende Unterstützung für die Verwendung von Azure Blob Storage-Endpunkten mit hierarchischen Namespace-Konten (FNS), einschließlich Optimierungen der Auflistung und Entfernung von Duplikaten über Iterationen hinweg für eine bessere Performance.
JIRA: HADOOP-19179 , HADOOP-19474 , HADOOP-19543

Optimierte Schwellenwerte für vektorisierte E/A-Lesezugriffe:
Verbesserte Leistung beim Lesen von Cloud-Speichern durch Erhöhung der Zusammenführungsschwellenwerte – S3A und ABFS verwenden nun basierend auf Forschungsergebnissen von Facebook Velox minimal 128 KB und maximal 2 MB für das Zusammenführen benachbarter Lesebereiche.
JIRA: HADOOP-19229

S3A: Unterstützung für Prüfsummen bei S3-Objekten : Möglichkeit zum Festlegen von Prüfsummen für S3-Datei-Uploads mit Unterstützung für die Algorithmen CRC32, CRC32C, SHA1 und SHA256 über die Konfigurationsoption fs.s3a.create.checksum.algorithm hinzugefügt . 
JIRA: HADOOP-15224
Druid34.0.0SET-Anweisungen für Abfragekontextparameter:
Sie können jetzt SET-Anweisungen verwenden, um Abfragekontextparameter in SQL-Abfragen sowohl über die Webkonsole als auch über die API zu definieren. Dies vereinfacht die Konfiguration von Abfrageeinstellungen erheblich und macht JSON-Formatierung überflüssig. 

Die Unterstützung für Hadoop-basierte Datenaufnahme wird mit Druid 37.0.0 eingestellt.
Hadoop-basierte Datenaufnahme ist seit Druid 32.0 veraltet und wird voraussichtlich mit Druid 35.0.0 entfernt. Wir empfehlen eine der anderen von Druid unterstützten Aufnahmemethoden, z. B. 
SQL-basierte Datenaufnahme oder 
Datenaufnahme ohne MiddleManager mit Kubernetes .
Im Zuge dieser Änderung müssen Sie sich nun für die Verwendung des veralteten Aufgabentyps entscheiden 
index_hadoop. Andernfalls schlagen Ihre Hadoop-basierten Aufnahmeaufgaben fehl. 

Historisches Klonen (experimentell)
Konfigurieren Sie geklonte historische Datensätze für Rolling Updates und Hochverfügbarkeitsszenarien. Klone spiegeln Segmentzuweisungen von ursprünglichen historischen Datensätzen wider, ohne die Replikatanzahl zu erhöhen. 

Verbesserte Parallelverarbeitung für Batch- und Streaming-Datenerfassungsaufgaben
Die erweiterten Parallelverarbeitungsfunktionen für Batch- und Streaming-Datenerfassungsaufgaben verbessern die Gesamtleistung der Datenerfassung. 

Integrierte Kill-Tasks auf dem Overlord (Experimentell):
Kill-Tasks werden jetzt direkt auf dem Overlord ausgeführt und bieten mehrere Vorteile:
– Segmente werden sofort nach ihrer Verfügbarkeit gelöscht
– Keine Task-Slots werden belegt
– Optimierte Metadatenabfragen beschleunigen den Abschluss
– Gesperrte Intervalle werden übersprungen, um Blockierungen zu vermeiden
– Auch große Mengen ungenutzter Segmente können verarbeitet werden.
 
Multi-Stream-Supervisoren (Experimentell)
Mehrere Supervisoren können jetzt Daten in dieselbe Datenquelle einlesen und ermöglichen so flexiblere Datenerfassungsarchitekturen.
HBase2.6.3 (LTS)LDAP-Administratorzugriffskontrolle für die Web-Oberfläche:
Unterstützung für die Konfiguration von LDAP-Benutzern als Administratoren für alle HBase-Web-Oberflächen hinzugefügt. Privilegierte Seiten können nun nur noch von festgelegten Administratoren über die neue Konfigurationseigenschaft aufgerufen werden 
hbase.security.authentication.ldap.admin.users.
Issue: HBASE-29244

Aktualisierte OpenTelemetry-Bibliotheken:
Die OpenTelemetry-Pakete wurden von drei Jahre alten Versionen auf die neuesten Bibliotheken aktualisiert. 
io.opentelemetry:opentelemetry-semconvDie 
io.opentelemetry.semconv:opentelemetry-semconvGruppen-ID wurde verschoben und semantische Attribute wurden überarbeitet.
Issue: HBASE-29293
Aktualisierungen von Abhängigkeiten für Sicherheit und Stabilität:
Mehrere kritische Abhängigkeiten wurden im gesamten Code aktualisiert, darunter byte-buddy, hbase-thirdparty und JRuby.
Issues: HBASE-29327 , HBASE-29317, HBASE-29360
Hive4.1.0REST-basierter Katalogserver:
Ein REST-basierter Katalogserver, der auf dem Hive Metastore basiert, wurde eingeführt.
Issue: HIVE-28059

Erweiterte Iceberg-Integration:
Erweiterte Unterstützung für Iceberg-Tabellen, einschließlich Spaltenstatistiken auf Partitionsebene 

JDK 17-Unterstützung
Hive 4.1.0 bietet nun JDK 17-Unterstützung.
Issue: HIVE-26473

IPv6-Kompatibilität
IPv6-Kompatibilität wurde dem Metastore hinzugefügt
Issues: 
HIVE-28784 , HIVE-28783 , HIVE-28782 , HIVE-28781
Kafka4.1.0 (experimental)KRaft-Modus wird Standard (Entfernt ZooKeeper-Abhängigkeit)
Die ZooKeeper-Unterstützung wurde vollständig entfernt, KRaft ist nun die alleinige Metadatenverwaltungslösung, was die Bereitstellung vereinfacht und den Betriebsaufwand reduziert.
Links: KIP-500, KAFKA-9119

Consumer-Rebalance-Protokoll der nächsten Generation
Das neue Consumer-Rebalance-Protokoll verbessert die Leistung dramatisch, indem es Stop-the-World-Rebalances eliminiert und stattdessen eine brokerverwaltete Partitionszuweisung und inkrementelles Rebalancing durchführt, wodurch Ausfallzeiten und Latenz reduziert werden.
Links: KIP-848, KAFKA-14048

Queues für Kafka – Vorschauversion:
Wechselt vom Early-Access- zum Vorschaustatus und nähert die warteschlangenähnliche Semantik mit parallelem Partitionsverbrauch, Out-of-Order-Verarbeitung und individuellen Nachrichtenbestätigungen der Produktionsreife an.
Links: KIP-932 , KAFKA-15349

Verbesserte Client-Resilienz:
Ermöglicht Clients, proaktiv einen Neustart durchzuführen, wenn innerhalb eines Timeout-Zeitraums keine Metadatenaktualisierungen erfolgen oder wenn Server einen Neustart signalisieren. Dadurch wird verhindert, dass Clients mit veralteten Metadaten festsitzen.
Links: KIP-1102, KAFKA-15639

Kafka Streams Rebalance-Protokoll:
Führt ein dediziertes Protokoll für Kafka Streams mit brokerverwalteter Aufgabenzuweisung ein. Dadurch entfällt die Notwendigkeit, das Consumer-Rebalance-Protokoll zu nutzen, und Produktionsvorfälle, die durch clientseitige Rebalancing-Logik verursacht werden, werden behoben.
Links: KIP-1071, KAFKA-16554

Verbesserte Fehlerbehandlung für Transaktionsproduzenten
Aktualisiert die Fehlerbehandlungslogik und -dokumentation für alle Transaktions-APIs und vereinfacht so die Entwicklung robuster Anwendungen mit klaren Ausnahmekategorien für Wiederherstellungsstrategien.
Links: KIP-1050, KAFKA-15400

JWT-Bearer-OAuth-2.0-Unterstützung
Fügt Unterstützung für den JWT-Bearer-Grant-Typ für OAuth zusätzlich zu Client-Anmeldeinformationen hinzu und ermöglicht so eine sichere Zugriffsverwaltung ohne statische Geheimnisse in Konfigurationen.
Links: KIP-1139 , KAFKA-16965
NiFi2.6.0 (LTS)– Azure Git DevOps Flow Registry-Client
– ​​Hinzufügen eines Amazon Glue Schema Reference Readers
– StandardProtobufReader mit Unterstützung für Schema-Registries mit Protobuf
– Unterstützung von SASL/OAUTHBEARER in Kafka-Prozessoren
– Hinzufügen von Unterstützung für das binäre XLS-Format zum ExcelReader
– Ermöglichen der Versionsverfolgung eines nicht versionierten PG in einem Registry-Client
– ​​Optionen für den Umgang mit Parameterwerten in Git-Registry-Clients bei der Versionierung eines Flows
– Normalisierung der JSON-Flow-Definitionen bei Verwendung von Git-Registry-Clients
– Einführung der Strategie „Metadaten-Ausgabe einfügen“ in ConsumeKafka
– Hinzufügen von OAuth-Unterstützung zum SnowflakeComputingConnectionPool
OpenSearch3.1.0 (LTS)OpenSearch ist neu im Portfolio; daher werden hier nicht alle Funktionen aufgeführt.
Spark3.5.7 (LTS)
4.0.1 (experimental)
ANSI-SQL-Modus standardmäßig:
Spark 4.0 aktiviert den ANSI-SQL-Modus standardmäßig, wodurch die SQL-Kompatibilität verbessert und die Migration von SQL-Workloads aus anderen Datenbanken vereinfacht wird.
Issue: SPARK-44444

Unterstützung für String-Sortierung
Die Unterstützung für String-Sortierung wurde hinzugefügt. Dies ermöglicht einen lokalisierten String-Vergleich und eine Sortierung, was für die Internationalisierung und Kompatibilität mit traditionellen Datenbanken entscheidend ist. 

SQL-Pipe-Syntax:
Ziel ist es, die Komposition von Abfragen durch die Angabe einer Sequenz von SQL-Klauseln, getrennt durch das Pipe-Token |>, zu vereinfachen. Jeder Operator stellt dabei eine vollständig definierte Transformation der vorhergehenden Relation dar. Jeder Pipe-Operator darf sich nur auf die Namen und Zeilen beziehen, die vom vorhergehenden Pipe-Operator generiert wurden; andernfalls ist jeder Schritt zustandslos.
Issue: SPARK-49555

Neuer VARIANT-Datentyp:
Der VARIANT-Datentyp für semistrukturierte Daten wurde eingeführt und verbessert die Unterstützung für komplexe, verschachtelte Datenformate.
Issue: SPARK-45827
Superset4.1.4 (LTS)– Fehlerbehebungen und Stabilitätsverbesserungen
– Sicherheits- und Abhängigkeitsaktualisierungen
Trino477 (LTS)Allgemein:
– Lakehouse-Connector hinzugefügt . (#25347
– Unterstützung hinzugefügt für ALTER MATERIALIZED VIEW ... SET AUTHORIZATION. (#25910)
– Unterstützung für Standardspaltenwerte beim Erstellen von Tabellen oder Hinzufügen neuer Spalten hinzugefügt. (#25679
– Unterstützung hinzugefügt für ALTER VIEW ... REFRESH. (#25906)
– Unterstützung für die Verwaltung und Abfrage von Tabellenzweigen hinzugefügt. (#25751 , #26300 , #26136)
– Funktion für dünnbesetzte Vektoren hinzugefügt . (#24027
– ⚠️ Breaking change: Genauigkeit und Skalierungsinferenz für arithmetische Operationen mit Dezimalwerten verbessert. Das vorherige Verhalten kann durch Setzen der 
Konfigurationseigenschaft auf wiederhergestellt werden. (#26422
– ⚠️ Breaking change:  HTTP-Server-Event-Listener-Plugin aus der Server-Binärdistribution und dem Docker-Container entfernt. (25967
– ⚠️ Breaking Change: Kataloge müssen nun auf allen Knoten bereitgestellt werden. (#26063
– Physische Datenscan-Verfolgung für Ressourcengruppen hinzugefügt. (#25003
– Spalte internal_network_input_bytes zur Tabelle system.runtime.tasks hinzugefügt. (#26524)
– Unterstützung hinzugefügt für den Typ Geometry in to_geojson_geometry(). (#26451)

Hive Connector: 
– Unterstützung für die Verwendung von GCS ohne Anmeldeinformationen hinzugefügt. (#25810)
– Unterstützung für das Lesen von Tabellen im 
Esri-JSON- Format hinzugefügt. (#25241)
– Unterstützung für Textdateiformate 
hinzugefügt . (#21156
– Metriken für aus dem Dateisystemcache gelesene Daten in 
der Ausgabe EXPLAIN ANALYZE VERBOSE hinzugefügt. (#26342
– Unterstützung für die Twitter Elephantbird-Protobuf-Deserialisierung hinzugefügt. (#26305
– Durchsatz für schreibintensive Abfragen in Azure verbessert, wenn die Konfigurationsoption azure.multipart-write-enabled auf true gesetzt ist. (#26225
– Reduzierung von Abfragefehlern aufgrund von S3-Drosselung. (#26407
– Vermeidung von Worker-Abstürzen aufgrund von Speichermangel beim Dekodieren ungewöhnlich großer Parquet-Footer. (#25973
– Behebung fehlerhafter Ergebnisse beim Lesen von Parquet-Dateien, die von älteren PyArrow-Versionen erstellt wurden. (#26058
– Unterstützung für das Lesen von Hive OpenCSV-Tabellen mit deaktiviertem Anführungszeichen und Escaping hinzugefügt. (#26619

Iceberg Connector: 
– Unterstützung hinzugefügt für SIGV4als unabhängiges Authentifizierungsschema. Es kann durch Setzen der 
iceberg.rest-catalog.security Konfigurationseigenschaft auf SIGV4 aktiviert werden. Die iceberg.rest-catalog.sigv4-enabled Konfigurationseigenschaft wird nicht mehr unterstützt. (#26218)
– Unterstützung für die Verwendung von GCS ohne Anmeldeinformationen hinzugefügt. (#25810)
– Konfiguration des zu verwendenden Komprimierungs-Codecs zum Lesen einer Tabelle über die compression_codec Tabelleneigenschaft ermöglicht. Die compression_codec Session wird nicht mehr unterstützt. (#25755)
– Metriken für aus dem Dateisystemcache gelesene Daten in 
EXPLAIN ANALYZE VERBOSE der Ausgabe hinzugefügt. (#26342)
– Leistung der Prozedur expire_snapshots verbessert . (#26230)
– Leistung der Prozedur remove_orphan_files verbessert. (#26326 , #26438)
– Leistung von Abfragen auf $files Metadatentabellen verbessert . (#25677
– Leistung von Schreibvorgängen in Iceberg-Tabellen verbessert, wenn Aufgabenwiederholungen aktiviert sind. (#26620
– Speichernutzung der remove_orphan_files Prozedur reduziert. (#25847
– Durchsatz für schreibintensive Abfragen in Azure verbessert, wenn die Konfigurationsoption azure.multipart-write-enabled auf true gesetzt ist . (#26225
– Reduzierung von Abfragefehlern aufgrund von S3-Drosselung. (#26407 , #26432
– Vermeidung von Worker-Abstürzen aufgrund von Speichermangel beim Dekodieren ungewöhnlich großer Parquet-Footer. (#25973
– Behebung von Leistungseinbußen und potenziellen Abfragefehlern für REFRESH MATERIALIZED VIEW. (#26051)
Zookeeper3.9.4 (LTS)Netty-Upgrade zur Behebung von CVE-2025-24970:
Behebt eine kritische Sicherheitslücke in Netty und gewährleistet so eine sicherere Netzwerkkommunikation.
Issue: ZOOKEEPER-4897

Verwendung der FIPS-konformen Hostnamenverifizierung:
Wenn kein benutzerdefinierter Truststore angegeben ist, verwendet ZooKeeper nun die FIPS-konforme Hostnamenverifizierung und verbessert so die Sicherheit in regulierten Umgebungen.
Issue: ZOOKEEPER-4954

Protokollierung detaillierter Ausnahmen bei Server-JAAS-Konfigurationsfehlern
Die Protokollierung von JAAS-Konfigurationsfehlern wurde verbessert, um die Diagnose von Authentifizierungsproblemen zu vereinfachen.
Isssue: ZOOKEEPER-4906

Individuelle Berechtigungsprüfung bei der Admin-Server-
Authentifizierung: Die Admin-Server-Authentifizierung prüft nun Berechtigungen einzeln und ermöglicht so eine feinere Zugriffskontrolle und höhere Sicherheit.
Issue: ZOOKEEPER-4964

stackablectl

  • Parallel zur Veröffentlichung der Stackable Data-Plattform ermöglicht die Version 1.2.0 von stackablctl die automatische Erkennung von Kubernetes-Umgebungen und die Auswahl einer sinnvollen ListenerClass-Voreinstellung als Standard. Außerdem unterstützt sie die Konfiguration der ListenerClass-Voreinstellung. Weitere Informationen finden sich in den separaten Release Notes.

Weitere Informationen

Weitere Details zum neuen Release und zum Upgrade finden sich in den Release-Notes sowie in den Changelogs der einzelnen Operatoren:

Airflow, Druid, HBase, HDFS, Hive, Kafka, NiFi, OpenPolicyAgent, OpenSearch, Spark, Superset, Trino, ZooKeeper

Comments are closed.