Startseite › Produkte › Qlik Compose
Qlik Compose
Qlik Compose™ beschleunigt Projekte zu Data Warehouse und Data Lake
Die Data Integration Platform von Qlik unterstützt bei der Umsetzung einer unternehmensweiten Datenstrategie und beinhaltet Komponenten für die Datenhaltung und Datenflüsse im gesamten Unternehmen. Dabei spielt es keine Rolle, ob ein Data Warehouse, eine Clouddatenbank oder ein Datalake aufgebaut werden. Sicher ist, in jedem der Projekte ändern sich die Anforderungen schnell.
Traditionell werden die Anforderungen mithilfe von Programmierung umgesetzt. Qlik Compose (ehemals Attunity Compose) bietet eine effizientere Lösung, um Prozesse zu automatisieren und zu beschleunigen. Die Anforderungen werden dabei direkt in einer grafischen Oberfläche umgesetzt und führen so zu geringerem Zeit-, Kosten- und Entwicklungsaufwand.
Flexible Automatisierung von Data Warehouse
Qlik Compose for Data Warehouses (ehemals Attunity Compose) bietet ein modernes Konzept zur Automatisierung und Optimierung der Data Warehouse-Erstellung, –Bewirtschaftung und der -Administration.
Mit Qlik Compose entfällt die zeitaufwändige und fehleranfällige Entwicklung des ETL-Codes zur Einrichtung eines Data Warehouse.
Die Lösung automatisiert das Warehouse-Design, das Erzeugen des ETL-Codes und das Durchführen von Aktualisierungen. Dabei kommen Best Practices und bewährte Entwurfsmuster zum Einsatz. Ob On-Premise oder in der Cloud, Qlik Compose for Data Warehouses reduziert die Risiken, Zeit und Kosten für BI-Projekte erheblich.
Nutzen Sie die Vorteile durch die automatische ETL-Generierung: Qlik Compose ist bei der Bewirtschaftung eine große Entlastung.
Agile Data Warehouse-Automatisierung
Qlik Compose for Data Lakes
Qlik Compose für Data Lakes automatisiert Datenpipelines und sorgt für analysebereite Datensets.
Qlik standardisiert und kombiniert mehrere Änderungsströme zu einem verarbeitungsbereiten Datenspeicher im Data Lake. Daten aus mehreren Tabellen und/oder Quellen werden automatisch in ein flexibles Format und eine ebensolche Struktur überführt. Dabei bleibt die Änderungshistorie erhalten und wird sicher abgelegt.
So können Datennutzer:innen blitzschnell auf ihre zuverlässigen Daten zugreifen, inklusive der vollständigen Angaben zu deren Herkunft, ohne die vorausgehende automatische Strukturierung verstehen zu müssen:
- Pipeline-Automatisierung und -Orchestrierung
- Resilienz und automatische Reparaturfunktionen
- Problemlose Aufbereitung und Bereitstellung in jedem Maßstab
Der schnellste Weg zu analysebereiten Data Lake
Im Überblick
- Intuitive und geführte Workflows
- Data Warehouses werden schnell konzipiert, erstellt, geladen, aktualisiert.
- Der automatisch generierte ETL-Code spart Zeit, Kosten und Risiken
- Die Effizienz von BI-Projekten mit Best Practices und Vorlagen wird erhöht.
- Die Abhängigkeit von Technikspezia-listen wird reduziert.
IT-Teams aufgepasst
- Daten werden schnell und einfach geladen und synchronisiert.
- Die Quell-Feeds werden mittels Change Data Capture (CDC) geladen. Die Bewirtschaftung erfolgt via Scheduler.
- „Automatische E/R-Modellierung und automatische Datenmodellierung nach der Data-Vault-Methode.“
- Datenmodelle können erstellt oder importiert und anschließend manuell angepasst werden.
- Data-Warehouse – und ETL-Generierung werden beschleunigt. Der ETL-Code zum Befüllen und Laden von Data Warehouses wird automatisch erzeugt.
- Data Marts werden ohne manuellen Programmieraufwand implementiert. Dazu stehen mehrere Data-Mart-Typen zur Verfügung, z.B. transaktional, aggregiert oder zustandsorientiert.
Im Überblick
- Intuitive grafische Benutzeroberfläche für automatische Datenreplikation
- Bereitstellen von Echtzeit-Streamingdaten und Echtzeit-Updates durch Change Data Capture (CDC)
- Unterstützung für eine Vielzahl von Unternehmens-Datenquellen und Zielplattformen
- Zentrale Überwachung und Steuerung mit Zeitplanung, Benachrichtigungen und Alarmfunktionen.
- Übertragung großer Datenmengen aus unzähligen Quellen in Big-Data-Plattformen wird vereinfacht.
- Automatisches Generieren von Ziel-Schemata auf Basis der Quellmetadaten.
- Nutzen paralleler Threads zur effizienten Verarbeitung von Big-Data-Ladevorgängen.
- Verwenden der CDC-Prozesse (Change Data Capture), um den Aufwand für die Bereitstellung von Echtzeitanalysen zu minimieren.
Integrationsaufgaben / Anwendungsfälle:
- Replizieren von Änderungen an einer MySQL-Datenbank in eine PostgreSQL-Datenbank.
- Streamen von Datenänderungen nach Apache Kafka.
- Bereitstellen von Teradata-Daten für Apache Hadoop.
Im Überblick
- Data Catalog kann EIN Ort sein, an dem alle Mitarbeiter:innen Daten in Ihrem Unternehmen finden, verstehen und verwalten.
- Data Catalog stellt Daten transparent, vertrauenswürdig und analysebereit zur Verfügung.
- Enthält Funktionen zur Bestimmung der Datenherkunft zur Optimierung Ihrer Analysepipeline:
- Begriffe werden logisch nach Business-Kontext, der gemeinsam genutzten Terminologien eingeordnet.
- Korrektheit und Konsistenz der Daten wird gesichert.
Vorteile: - Mithilfe des Self-Service BI-Ansatzes mehr Einblicke und Erkenntnisse gewinnen.
- Die Planung von Migrationen wird erleichtert durch schnelle Überprüfung des Speicherorts und Lebenszyklus von Datenquellen.
- Datenüberschneidung vorgreifen und erkennen wenn doppelte Datennutzung in Qlik Sense, Tableau und PowerBI vorkommt.
- Data Governance ermöglichen.
- Mit Impact-Analyse ermitteln, welche Datenbanken, Apps, Dateien und Links von der Änderung eines Feldwerts betroffen sind.
- Die übergreifende Auswertung von hunderten, sogar tausenden QVD-Datendateien ermöglichen und managen.
Werden Sie Teil von Qlik Data Integration
„Data Driven Company“ ist aller Munde. Doch, welches Konzept für Datenmanagement, Datenspeicher, Data-Analytics ist das richtige für mein Unternehmen? Wie entscheide ich mich? Qlik Sense oder Data Warehouse? Data Lake? Data Lakehouse? Jedes Konzept hat seine eigenen Merkmale, Vorteile und Ansätze. Die Frage ist: Welchen Bedarf habe ich im Unternehmen? Wie gehe ich am besten vor? Wohin muss sich mein Unternehmen entwickeln? Welche Grundlagen sind im Unternehmen vorhanden?
- Nutzen und Orientierung für beide Wege
- Was macht welche Lösung?
- Wir streifen die aktuellen Themen, wie …
„Datenstrategie aus einer Hand“ mit Qlik.
Datenrückverfolgung durch „Data Lineage“.
Diskussion Qlik Sense? Data Warehouse?
Data Lake? oder Data Lakehouse?
60 Minuten „Wer braucht Was“? Qlik Sense oder Qlik Data Integration? Die integrierten Top-Features von Qlik data Intregration und Data Analytics. im Vergleich.
Qlik Compose Look & Feel
Möchten Sie Qlik Compose live erleben, dann sprechen Sie uns gezielt auf ein individuelles Webinar an: