Wir freuen uns, Stackable Data Platform 25.11 vorzustellen, ein Release, das die Datenplattform mit neuen Funktionen, verbesserter Sicherheit und optimierter Beobachtbarkeit erweitert.
Diese Version bietet experimentelle Unterstützung für OpenSearch 3.1.0 und ermöglicht so leistungsstarke Such- und Analysefunktionen direkt im Stackable-Ökosystem, und kann zusätzlich als Vector Datenbank für AI Use Cases verwendet werden. Außerdem werden KRaft-verwaltete Kafka-Cluster eingeführt, die ZooKeeper für moderne, skalierbare Kafka-Bereitstellungen ersetzen. Zusätzlich wird die TLS-Verschlüsselung für Open Policy Agent (OPA) implementiert , um eine sichere Kommunikation zwischen OPA und Ihren Datendiensten zu gewährleisten.
Mit 37 behobenen CVEs , darunter 2 kritische und 18 schwerwiegende, sowie verbesserter Metrikenerfassung für alle Operatoren, macht SDP 25.11 die Plattform sicherer und einfacher zu überwachen. Das Release beinhaltet außerdem verbesserte Trino-Performance, Airflow 3.0.6 (LTS) mit Triggerer-Unterstützung und Spark 4.0.1 (experimentell) sowie erweiterte Unterstützung für Kubernetes 1.31–1.34 und Red Hat OpenShift 4.18–4.20. In Kombination mit unserer OCI-orientierten Bereitstellung auf oci.stackable.tech ermöglicht SDP 25.11 intelligentere und robustere Datenarchitekturen schneller als je zuvor zu entwickeln.
Neue Plattformfunktionen
- Allgemeine Verbesserungen
- Experimenteller OpenSearch-Operator: Bereitstellung und Verwaltung von OpenSearch-Clustern mit dem neuen Operator von Stackable, der Version 3.1.0 unterstützt.
- Warnungen zum Supportende (EoS): Alle Operatoren geben jetzt Warnungen aus, wenn sich das Supportende nähert, damit Sie die Compliance-Anforderungen erfüllen und auf dem neuesten Stand bleiben.
- KRaft für Apache Kafka: Experimentelle Unterstützung für KRaft-verwaltete Kafka-Cluster, die ZooKeeper für die Clusterverwaltung in Kafka 4.0+ ersetzen.
- Verbesserte Trino-Performance: Durch Verwendung des OPA Batch Interfaces sind Trino-Abfragen mit großer Anzahl von Tabellen nun deutlich performanter.
- Sicherheit
- TLS für Open Policy Agent (OPA): Verschlüsselt den Datenverkehr zwischen OPA und Clients mit automatischer Integration für Trino- und NiFi-Authorisierer.
- SecretClass v1alpha2: Neue Funktionen und Stabilitätsverbesserungen, einschließlich nicht-experimenteller
samAccountNameGenerierung undcertManagerBackend.
- Überwachung:
- Erweiterte Metriken: Alle Operatoren stellen nun Prometheus-Annotationen für das HTTP(S)-Schema, den Metrikpfad und den Port bereit, wodurch das Sammeln und Überwachen von Metriken verbessert wird.
- Protokollintegrität: Probleme, die zu beschädigten Protokolleinträgen in mehreren unterstützten Produkten führten, wurden behoben.
- Authorisierung
- User Info Fetcher (UIF): Nicht mehr experimentell, ermöglicht nahtloses Abrufen von Benutzergruppen zur Autorisierung aus zentralen Identity Providern.
- ArgoCD-Demo :
- Neue Demo zur Veranschaulichung der GitOps-Integration mit Stackable-Operatoren und Airflow.
Plattformverbesserungen
- Sicherheit & Schwachstellen
- 37 CVEs behoben: Zwei kritische und 18 schwerwiegende Sicherheitslücken in Stackable-Produktabbildern wurden behoben.
- Apache Airflow
- Trigger-Unterstützung: Ermöglicht aufschiebbare Operatoren, wodurch Worker-Slots frei bleiben und die Hochverfügbarkeit verbessert wird.
- DAG-Prozessorrolle: Optionale individuelle Rolle für separate Konfiguration und dedizierte Containerausführung.
- Datenbankinitialisierung: Kann nun zur Fehlerbehebung deaktiviert werden, wobei deutliche Warnungen vor potenziellen Risiken angezeigt werden.
- Apache Spark
- ServiceAccount-Überschreibungen: Überschreiben Sie die ServiceAccounts der Spark-Anwendung mithilfe von
podOverrides. - Spark 4.0.1 (Experimentell): Unterstützung hinzugefügt, mit bekannten Kompatibilitätsproblemen mit HBase und Iceberg.
- ServiceAccount-Überschreibungen: Überschreiben Sie die ServiceAccounts der Spark-Anwendung mithilfe von
- Apache NiFi
- Workaround für SNI-Prüfungen: Deaktivieren Sie die SNI-Prüfungen für NiFi in Szenarien, in denen externe Namen nicht in Zertifikaten enthalten sind.
- Überwachungshinweise: Aktualisierte Dokumentation zum Abrufen von NiFi 2-Metriken mithilfe von mTLS.
- Open Policy Agent
- Dedizierter Metrikendienst:
-metrics-Dienst pro Rollengruppe für Prometheus-Scraping sowie zusätzliche Metriken zur Umgebung und Bundle-Auslastung.
- Dedizierter Metrikendienst:
- Trino
- Version 477 von Trino unterstützt den neuen, universellen Lakehouse Connector.
- Listener & Secret Operatoren
- ListenerClass Defaults:
.spec.externalTrafficPolicyverwendet jetzt standardmäßig'null‚ um eine breitere LoadBalancer-Kompatibilität zu gewährleisten. - Secret-Operator Helm Chart: Wird jetzt in zwei Teilen bereitgestellt (Deployment für Controller, DaemonSet für CSI) mit separater Ressourcensteuerung.
- ListenerClass Defaults:
Neue Produktversionen
Die folgenden neuen Produktversionen werden jetzt unterstützt (eine Liste aller unterstützten Produktversionen findet sich hier):
| Product | New version/s | What’s new ? |
|---|---|---|
| Airflow | 3.0.6 (LTS) | Unterstützung für Datenbank-Downgrades: Ermöglicht ein Downgrade der Datenbank von Airflow 3.x auf 2.11 und bietet so Sicherheit für zukünftige Upgrades. PR: #54399 , #54508 Leistungsverbesserungen der Rasteransicht: Deutlich verbesserte Leistung und Reaktionsfähigkeit der Rasteransicht durch optimiertes Laden von Daten. Dadurch ist die Benutzeroberfläche bei großen Bereitstellungen wesentlich schneller. PRs: #52718 , #52822 , #52919 Behebung eines Sicherheitsproblems bei der Verbindungsbearbeitung: Kritischer Fehler behoben, bei dem sensible Felder wie Passwörter und Zusatzinformationen beim Aktualisieren von Verbindungen über die Benutzeroberfläche verloren gingen. PRs: #53943 , #53973 Verbesserungen des Aufgabenprotokoll-Viewers: Verbesserter Aufgabenprotokoll-Viewer mit virtualisierter Darstellung für bessere Leistung bei großen Protokollen. Dadurch wird die Navigation und Anzeige umfangreicher Protokolldateien vereinfacht. PR: #50746 Verbesserte Visualisierung der Graphansicht: Probleme bei der Darstellung der Ränder der Graphansicht für verschachtelte Aufgabengruppen behoben. Automatisches Umschalten auf ausgelöste DAG-Läufe bei manueller Auslösung hinzugefügt. PRs: #54412 (3.0.5), #54336 (3.0.6) |
| Apache Hadoop | 3.4.2 (LTS) | S3A: Unterstützung für bedingte Schreibvorgänge in S3. Der S3A-Client verwendet nun bedingte S3-Überschreibungs-PUT-Anfragen für die atomare Dateierstellung. Dadurch entfällt die Notwendigkeit einer separaten HEAD-Anfrage und es werden echte atomare Operationen ermöglicht. Issue: HADOOP-19256 S3A: Unterstützung des Analytics Accelerator für Parquet-Performance. Die Unterstützung für den analytics-accelerator-s3 wurde hinzugefügt, um die Parquet-Leseleistung durch optimierte Eingabestreams deutlich zu verbessern. Issue: HADOOP-19363 , HADOOP-19348 ABFS: Unterstützung für FNS-über-Blob-Endpunkte. Umfassende Unterstützung für die Verwendung von Azure Blob Storage-Endpunkten mit hierarchischen Namespace-Konten (FNS), einschließlich Optimierungen der Auflistung und Entfernung von Duplikaten über Iterationen hinweg für eine bessere Performance. JIRA: HADOOP-19179 , HADOOP-19474 , HADOOP-19543 Optimierte Schwellenwerte für vektorisierte E/A-Lesezugriffe: Verbesserte Leistung beim Lesen von Cloud-Speichern durch Erhöhung der Zusammenführungsschwellenwerte – S3A und ABFS verwenden nun basierend auf Forschungsergebnissen von Facebook Velox minimal 128 KB und maximal 2 MB für das Zusammenführen benachbarter Lesebereiche. JIRA: HADOOP-19229 S3A: Unterstützung für Prüfsummen bei S3-Objekten : Möglichkeit zum Festlegen von Prüfsummen für S3-Datei-Uploads mit Unterstützung für die Algorithmen CRC32, CRC32C, SHA1 und SHA256 über die Konfigurationsoption fs.s3a.create.checksum.algorithm hinzugefügt . JIRA: HADOOP-15224 |
| Druid | 34.0.0 | SET-Anweisungen für Abfragekontextparameter: Sie können jetzt SET-Anweisungen verwenden, um Abfragekontextparameter in SQL-Abfragen sowohl über die Webkonsole als auch über die API zu definieren. Dies vereinfacht die Konfiguration von Abfrageeinstellungen erheblich und macht JSON-Formatierung überflüssig. Die Unterstützung für Hadoop-basierte Datenaufnahme wird mit Druid 37.0.0 eingestellt. Hadoop-basierte Datenaufnahme ist seit Druid 32.0 veraltet und wird voraussichtlich mit Druid 35.0.0 entfernt. Wir empfehlen eine der anderen von Druid unterstützten Aufnahmemethoden, z. B. SQL-basierte Datenaufnahme oder Datenaufnahme ohne MiddleManager mit Kubernetes . Im Zuge dieser Änderung müssen Sie sich nun für die Verwendung des veralteten Aufgabentyps entscheiden index_hadoop. Andernfalls schlagen Ihre Hadoop-basierten Aufnahmeaufgaben fehl. Historisches Klonen (experimentell) Konfigurieren Sie geklonte historische Datensätze für Rolling Updates und Hochverfügbarkeitsszenarien. Klone spiegeln Segmentzuweisungen von ursprünglichen historischen Datensätzen wider, ohne die Replikatanzahl zu erhöhen. Verbesserte Parallelverarbeitung für Batch- und Streaming-Datenerfassungsaufgaben Die erweiterten Parallelverarbeitungsfunktionen für Batch- und Streaming-Datenerfassungsaufgaben verbessern die Gesamtleistung der Datenerfassung. Integrierte Kill-Tasks auf dem Overlord (Experimentell): Kill-Tasks werden jetzt direkt auf dem Overlord ausgeführt und bieten mehrere Vorteile: – Segmente werden sofort nach ihrer Verfügbarkeit gelöscht – Keine Task-Slots werden belegt – Optimierte Metadatenabfragen beschleunigen den Abschluss – Gesperrte Intervalle werden übersprungen, um Blockierungen zu vermeiden – Auch große Mengen ungenutzter Segmente können verarbeitet werden. Multi-Stream-Supervisoren (Experimentell) Mehrere Supervisoren können jetzt Daten in dieselbe Datenquelle einlesen und ermöglichen so flexiblere Datenerfassungsarchitekturen. |
| HBase | 2.6.3 (LTS) | LDAP-Administratorzugriffskontrolle für die Web-Oberfläche: Unterstützung für die Konfiguration von LDAP-Benutzern als Administratoren für alle HBase-Web-Oberflächen hinzugefügt. Privilegierte Seiten können nun nur noch von festgelegten Administratoren über die neue Konfigurationseigenschaft aufgerufen werden hbase.security.authentication.ldap.admin.users.Issue: HBASE-29244 Aktualisierte OpenTelemetry-Bibliotheken: Die OpenTelemetry-Pakete wurden von drei Jahre alten Versionen auf die neuesten Bibliotheken aktualisiert. io.opentelemetry:opentelemetry-semconvDie io.opentelemetry.semconv:opentelemetry-semconvGruppen-ID wurde verschoben und semantische Attribute wurden überarbeitet.Issue: HBASE-29293 Aktualisierungen von Abhängigkeiten für Sicherheit und Stabilität: Mehrere kritische Abhängigkeiten wurden im gesamten Code aktualisiert, darunter byte-buddy, hbase-thirdparty und JRuby. Issues: HBASE-29327 , HBASE-29317, HBASE-29360 |
| Hive | 4.1.0 | REST-basierter Katalogserver: Ein REST-basierter Katalogserver, der auf dem Hive Metastore basiert, wurde eingeführt. Issue: HIVE-28059 Erweiterte Iceberg-Integration: Erweiterte Unterstützung für Iceberg-Tabellen, einschließlich Spaltenstatistiken auf Partitionsebene JDK 17-Unterstützung Hive 4.1.0 bietet nun JDK 17-Unterstützung. Issue: HIVE-26473 IPv6-Kompatibilität IPv6-Kompatibilität wurde dem Metastore hinzugefügt Issues: HIVE-28784 , HIVE-28783 , HIVE-28782 , HIVE-28781 |
| Kafka | 4.1.0 (experimental) | KRaft-Modus wird Standard (Entfernt ZooKeeper-Abhängigkeit) Die ZooKeeper-Unterstützung wurde vollständig entfernt, KRaft ist nun die alleinige Metadatenverwaltungslösung, was die Bereitstellung vereinfacht und den Betriebsaufwand reduziert. Links: KIP-500, KAFKA-9119 Consumer-Rebalance-Protokoll der nächsten Generation Das neue Consumer-Rebalance-Protokoll verbessert die Leistung dramatisch, indem es Stop-the-World-Rebalances eliminiert und stattdessen eine brokerverwaltete Partitionszuweisung und inkrementelles Rebalancing durchführt, wodurch Ausfallzeiten und Latenz reduziert werden. Links: KIP-848, KAFKA-14048 Queues für Kafka – Vorschauversion: Wechselt vom Early-Access- zum Vorschaustatus und nähert die warteschlangenähnliche Semantik mit parallelem Partitionsverbrauch, Out-of-Order-Verarbeitung und individuellen Nachrichtenbestätigungen der Produktionsreife an. Links: KIP-932 , KAFKA-15349 Verbesserte Client-Resilienz: Ermöglicht Clients, proaktiv einen Neustart durchzuführen, wenn innerhalb eines Timeout-Zeitraums keine Metadatenaktualisierungen erfolgen oder wenn Server einen Neustart signalisieren. Dadurch wird verhindert, dass Clients mit veralteten Metadaten festsitzen. Links: KIP-1102, KAFKA-15639 Kafka Streams Rebalance-Protokoll: Führt ein dediziertes Protokoll für Kafka Streams mit brokerverwalteter Aufgabenzuweisung ein. Dadurch entfällt die Notwendigkeit, das Consumer-Rebalance-Protokoll zu nutzen, und Produktionsvorfälle, die durch clientseitige Rebalancing-Logik verursacht werden, werden behoben. Links: KIP-1071, KAFKA-16554 Verbesserte Fehlerbehandlung für Transaktionsproduzenten Aktualisiert die Fehlerbehandlungslogik und -dokumentation für alle Transaktions-APIs und vereinfacht so die Entwicklung robuster Anwendungen mit klaren Ausnahmekategorien für Wiederherstellungsstrategien. Links: KIP-1050, KAFKA-15400 JWT-Bearer-OAuth-2.0-Unterstützung Fügt Unterstützung für den JWT-Bearer-Grant-Typ für OAuth zusätzlich zu Client-Anmeldeinformationen hinzu und ermöglicht so eine sichere Zugriffsverwaltung ohne statische Geheimnisse in Konfigurationen. Links: KIP-1139 , KAFKA-16965 |
| NiFi | 2.6.0 (LTS) | – Azure Git DevOps Flow Registry-Client – Hinzufügen eines Amazon Glue Schema Reference Readers – StandardProtobufReader mit Unterstützung für Schema-Registries mit Protobuf – Unterstützung von SASL/OAUTHBEARER in Kafka-Prozessoren – Hinzufügen von Unterstützung für das binäre XLS-Format zum ExcelReader – Ermöglichen der Versionsverfolgung eines nicht versionierten PG in einem Registry-Client – Optionen für den Umgang mit Parameterwerten in Git-Registry-Clients bei der Versionierung eines Flows – Normalisierung der JSON-Flow-Definitionen bei Verwendung von Git-Registry-Clients – Einführung der Strategie „Metadaten-Ausgabe einfügen“ in ConsumeKafka – Hinzufügen von OAuth-Unterstützung zum SnowflakeComputingConnectionPool |
| OpenSearch | 3.1.0 (LTS) | OpenSearch ist neu im Portfolio; daher werden hier nicht alle Funktionen aufgeführt. |
| Spark | 3.5.7 (LTS) 4.0.1 (experimental) | ANSI-SQL-Modus standardmäßig: Spark 4.0 aktiviert den ANSI-SQL-Modus standardmäßig, wodurch die SQL-Kompatibilität verbessert und die Migration von SQL-Workloads aus anderen Datenbanken vereinfacht wird. Issue: SPARK-44444 Unterstützung für String-Sortierung Die Unterstützung für String-Sortierung wurde hinzugefügt. Dies ermöglicht einen lokalisierten String-Vergleich und eine Sortierung, was für die Internationalisierung und Kompatibilität mit traditionellen Datenbanken entscheidend ist. SQL-Pipe-Syntax: Ziel ist es, die Komposition von Abfragen durch die Angabe einer Sequenz von SQL-Klauseln, getrennt durch das Pipe-Token |>, zu vereinfachen. Jeder Operator stellt dabei eine vollständig definierte Transformation der vorhergehenden Relation dar. Jeder Pipe-Operator darf sich nur auf die Namen und Zeilen beziehen, die vom vorhergehenden Pipe-Operator generiert wurden; andernfalls ist jeder Schritt zustandslos. Issue: SPARK-49555 Neuer VARIANT-Datentyp: Der VARIANT-Datentyp für semistrukturierte Daten wurde eingeführt und verbessert die Unterstützung für komplexe, verschachtelte Datenformate. Issue: SPARK-45827 |
| Superset | 4.1.4 (LTS) | – Fehlerbehebungen und Stabilitätsverbesserungen – Sicherheits- und Abhängigkeitsaktualisierungen |
| Trino | 477 (LTS) | Allgemein: – Lakehouse-Connector hinzugefügt . (#25347) – Unterstützung hinzugefügt für ALTER MATERIALIZED VIEW ... SET AUTHORIZATION. (#25910)– Unterstützung für Standardspaltenwerte beim Erstellen von Tabellen oder Hinzufügen neuer Spalten hinzugefügt. (#25679) – Unterstützung hinzugefügt für ALTER VIEW ... REFRESH. (#25906)– Unterstützung für die Verwaltung und Abfrage von Tabellenzweigen hinzugefügt. (#25751 , #26300 , #26136) – Funktion für dünnbesetzte Vektoren hinzugefügt . (#24027) – ⚠️ Breaking change: Genauigkeit und Skalierungsinferenz für arithmetische Operationen mit Dezimalwerten verbessert. Das vorherige Verhalten kann durch Setzen der Konfigurationseigenschaft auf wiederhergestellt werden. (#26422) – ⚠️ Breaking change: HTTP-Server-Event-Listener-Plugin aus der Server-Binärdistribution und dem Docker-Container entfernt. (25967) – ⚠️ Breaking Change: Kataloge müssen nun auf allen Knoten bereitgestellt werden. (#26063) – Physische Datenscan-Verfolgung für Ressourcengruppen hinzugefügt. (#25003) – Spalte internal_network_input_bytes zur Tabelle system.runtime.tasks hinzugefügt. (#26524)– Unterstützung hinzugefügt für den Typ Geometry in to_geojson_geometry(). (#26451)Hive Connector: – Unterstützung für die Verwendung von GCS ohne Anmeldeinformationen hinzugefügt. (#25810) – Unterstützung für das Lesen von Tabellen im Esri-JSON- Format hinzugefügt. (#25241) – Unterstützung für Textdateiformate hinzugefügt . (#21156) – Metriken für aus dem Dateisystemcache gelesene Daten in der Ausgabe EXPLAIN ANALYZE VERBOSE hinzugefügt. (#26342) – Unterstützung für die Twitter Elephantbird-Protobuf-Deserialisierung hinzugefügt. (#26305) – Durchsatz für schreibintensive Abfragen in Azure verbessert, wenn die Konfigurationsoption azure.multipart-write-enabled auf true gesetzt ist. (#26225) – Reduzierung von Abfragefehlern aufgrund von S3-Drosselung. (#26407) – Vermeidung von Worker-Abstürzen aufgrund von Speichermangel beim Dekodieren ungewöhnlich großer Parquet-Footer. (#25973) – Behebung fehlerhafter Ergebnisse beim Lesen von Parquet-Dateien, die von älteren PyArrow-Versionen erstellt wurden. (#26058) – Unterstützung für das Lesen von Hive OpenCSV-Tabellen mit deaktiviertem Anführungszeichen und Escaping hinzugefügt. (#26619) Iceberg Connector: – Unterstützung hinzugefügt für SIGV4als unabhängiges Authentifizierungsschema. Es kann durch Setzen der iceberg.rest-catalog.security Konfigurationseigenschaft auf SIGV4 aktiviert werden. Die iceberg.rest-catalog.sigv4-enabled Konfigurationseigenschaft wird nicht mehr unterstützt. (#26218)– Unterstützung für die Verwendung von GCS ohne Anmeldeinformationen hinzugefügt. (#25810) – Konfiguration des zu verwendenden Komprimierungs-Codecs zum Lesen einer Tabelle über die compression_codec Tabelleneigenschaft ermöglicht. Die compression_codec Session wird nicht mehr unterstützt. (#25755)– Metriken für aus dem Dateisystemcache gelesene Daten in EXPLAIN ANALYZE VERBOSE der Ausgabe hinzugefügt. (#26342)– Leistung der Prozedur expire_snapshots verbessert . (#26230)– Leistung der Prozedur remove_orphan_files verbessert. (#26326 , #26438) – Leistung von Abfragen auf $files Metadatentabellen verbessert . (#25677) – Leistung von Schreibvorgängen in Iceberg-Tabellen verbessert, wenn Aufgabenwiederholungen aktiviert sind. (#26620) – Speichernutzung der remove_orphan_files Prozedur reduziert. (#25847) – Durchsatz für schreibintensive Abfragen in Azure verbessert, wenn die Konfigurationsoption azure.multipart-write-enabled auf true gesetzt ist . (#26225) – Reduzierung von Abfragefehlern aufgrund von S3-Drosselung. (#26407 , #26432) – Vermeidung von Worker-Abstürzen aufgrund von Speichermangel beim Dekodieren ungewöhnlich großer Parquet-Footer. (#25973) – Behebung von Leistungseinbußen und potenziellen Abfragefehlern für REFRESH MATERIALIZED VIEW. (#26051) |
| Zookeeper | 3.9.4 (LTS) | Netty-Upgrade zur Behebung von CVE-2025-24970: Behebt eine kritische Sicherheitslücke in Netty und gewährleistet so eine sicherere Netzwerkkommunikation. Issue: ZOOKEEPER-4897 Verwendung der FIPS-konformen Hostnamenverifizierung: Wenn kein benutzerdefinierter Truststore angegeben ist, verwendet ZooKeeper nun die FIPS-konforme Hostnamenverifizierung und verbessert so die Sicherheit in regulierten Umgebungen. Issue: ZOOKEEPER-4954 Protokollierung detaillierter Ausnahmen bei Server-JAAS-Konfigurationsfehlern Die Protokollierung von JAAS-Konfigurationsfehlern wurde verbessert, um die Diagnose von Authentifizierungsproblemen zu vereinfachen. Isssue: ZOOKEEPER-4906 Individuelle Berechtigungsprüfung bei der Admin-Server- Authentifizierung: Die Admin-Server-Authentifizierung prüft nun Berechtigungen einzeln und ermöglicht so eine feinere Zugriffskontrolle und höhere Sicherheit. Issue: ZOOKEEPER-4964 |
stackablectl
- Parallel zur Veröffentlichung der Stackable Data-Plattform ermöglicht die Version 1.2.0 von stackablctl die automatische Erkennung von Kubernetes-Umgebungen und die Auswahl einer sinnvollen ListenerClass-Voreinstellung als Standard. Außerdem unterstützt sie die Konfiguration der ListenerClass-Voreinstellung. Weitere Informationen finden sich in den separaten Release Notes.
Weitere Informationen
Weitere Details zum neuen Release und zum Upgrade finden sich in den Release-Notes sowie in den Changelogs der einzelnen Operatoren:
Airflow, Druid, HBase, HDFS, Hive, Kafka, NiFi, OpenPolicyAgent, OpenSearch, Spark, Superset, Trino, ZooKeeper