Erhalten Sie integrierte Einblicke, indem Sie Echtzeit- und Vorhersageanalysen für komplexe, skalierte Daten aus Ihren operativen Datenbanken, Data Lakes, Data Warehouses und Tausenden von Datensätzen durch Drittanbieter durchführen.
Verbundabfrage: Mit der neuen Funktion für Verbundabfragen in Amazon Redshift können Sie auf Ihre betriebliche relationale Datenbank zugreifen. Führen Sie Abfragen für Live-Daten in einer oder mehreren Datenbanken von Amazon Relational Database Service (RDS), Aurora-PostgreSQL-, RDS-MySQL- und Aurora-MySQL-Datenbanken aus, um sofortigen Einblick in volle Betriebsabläufe zu erhalten, ohne dass Daten verschoben werden müssen. Sie können Daten aus Ihrem Redshift Data Warehouses, Daten in Ihren Data Lakes und auch Daten in Ihren betrieblichen Speichern zusammenführen, um bessere datengestützte Entscheidungen zu treffen. Amazon Redshift bietet Optimierungen zur Reduzierung der Datenbewegungen über das Netzwerk und ergänzt diese durch seine massiv parallele Datenverarbeitung für Hochleistungsabfragen. Weitere Informationen.
Datenfreigabe: Mit der Amazon-Redshift-Datenfreigabe können Sie die Benutzerfreundlichkeit, die Leistung und die Kostenvorteile von Amazon Redshift in einem einzelnen Cluster auf Bereitstellungen mit mehreren Clustern ausweiten und dabei Daten freigeben. Die Datenfreigabe ermöglicht einen sofortigen, granularen und leistungsstarken Datenzugriff über Redshift-Cluster hinweg, ohne dass dabei Daten kopiert oder verschoben werden müssen. Die Datenfreigabe bietet einen Live-Zugriff auf die Daten, sodass Ihre Benutzer immer die aktuellsten und konsistentesten Informationen sehen, sobald diese im Data Warehouse aktualisiert werden. Sie können Live-Daten auf sichere Weise mit Redshift-Clustern im selben oder in anderen AWS Konten und zwischen Regionen freigeben. Weitere Informationen.
AWS Data Exchange für Amazon Redshift: Abfrage von Amazon-Redshift-Datensätzen aus Ihrem eigenen Redshift-Cluster ohne Extrahieren, Extract, Transform, Load (ETL) der Daten. Sie können in AWS Data Exchange Produkte von Redshift Cloud Data Warehouse abonnieren. Sobald ein Anbieter eine Aktualisierung vornimmt, wird die Änderung für die Abonnenten sichtbar. Wenn Sie ein Datenanbieter sind, wird der Zugang automatisch gewährt, wenn ein Abonnement beginnt, und aufgehoben, wenn es endet, Rechnungen werden automatisch erstellt, wenn Zahlungen fällig sind, und Zahlungen werden über AWS eingezogen. Sie können den Zugriff auf Flatfiles, Daten in Amazon Redshift und über APIs bereitgestellte Daten lizenzieren – und das alles mit einem einzigen Abonnement. Weitere Informationen.
Redshift ML: Redshift ML macht es Datenanalysten, Datenwissenschaftlern, BI-Experten und Datenbankentwicklern leicht, Amazon-SageMaker-Modelle mit SQL zu entwickeln, schulen und bereitzustellen. Mit Redshift ML können Sie mithilfe von SQL-Anweisungen Amazon-SageMaker-Modelle aus Ihren Daten in Amazon Redshift erstellen und schulen und diese Modelle dann für Vorhersagen wie Churn-Erkennung, Finanzprognorsen, Personalisierung und Risikobewertung direkt in Ihren Abfragen und Berichten verwenden. Weitere Informationen.
Amazon Redshift Integration für Apache Spark: Diese Funktion erleichtert die Erstellung und Ausführung von Apache-Spark-Anwendungen auf Amazon-Redshift-Daten und ermöglicht es Kunden, das Data Warehouse für ein breiteres Spektrum von Analyse- und Machine-Learning-Lösungen zu öffnen. Mit der Amazon-Redshift-Integration für Apache Spark können Entwickler, die AWS-Analyse- und ML-Services wie Amazon EMR, AWS Glue, Amazon Athena Spark und Amazon SageMaker verwenden, in Sekundenschnelle loslegen und mühelos Apache-Spark-Anwendungen erstellen, die von ihrem Amazon-Redshift-Data-Warehouse lesen und in dieses schreiben, ohne die Leistung der Anwendungen oder die transaktionale Konsistenz der Daten zu beeinträchtigen. Die Amazon-Redshift-Integration für Apache Spark erleichtert auch die Überwachung und Fehlerbehebung bei Leistungsproblemen von Apache-Spark-Anwendungen bei der Verwendung mit Amazon Redshift.
Amazon Aurora Zero-ETL zu Amazon Redshift: Dabei handelt es sich um eine No-Code-Integration zwischen Amazon Aurora und Amazon Redshift, die es Amazon-Aurora-Kunden ermöglicht, Amazon Redshift für nahezu Echtzeit-Analysen und Machine Learning auf Petabytes von Transaktionsdaten zu nutzen. Innerhalb von Sekunden, nachdem Transaktionsdaten in Amazon Aurora geschrieben wurden, stellt Amazon Aurora Zero-ETL zu Amazon Redshift die Daten nahtlos in Amazon Redshift zur Verfügung. Damit entfällt für die Kunden die Notwendigkeit, komplexe Datenpipelines für Extract, Transform, Load (ETL)-Vorgänge zu erstellen und zu pflegen. Diese Integration reduziert den operativen Aufwand und die Kosten und ermöglicht es den Kunden, sich auf die Verbesserung ihrer Anwendungen zu konzentrieren. Mit dem nahezu in Echtzeit erfolgenden Zugriff auf Transaktionsdaten können Kunden die Analyse- und Machine-Learning-Funktionen von Amazon Redshift nutzen, um Erkenntnisse aus Transaktions- und anderen Daten abzuleiten und effektiv auf kritische, zeitkritische Ereignisse zu reagieren.
Streaming Ingestion: Data Engineers, Datenanalysten und Big-Data-Entwickler verwenden Echtzeit-Streaming-Engines, um die Reaktionsfähigkeit ihrer Kunden zu verbessern. Mit der neuen Streaming-Aufnahme-Funktion in Amazon Redshift können Sie SQL (Structured Query Language) verwenden, um sich mit Daten aus Amazon Kinesis Data Streams und Amazon Managed Streaming for Apache Kafka (MSK) zu verbinden und diese direkt zu importieren. Streaming-Aufnahme von Amazon Redshift erleichtert auch die Erstellung und Verwaltung nachgelagerter Pipelines, da Sie direkt auf Streams materialisierte Ansichten erstellen können. Die materialisierten Ansichten können als Teil Ihrer ELT (Extract Load Transform)-Pipeline auch SQL-Transformationenen enthalten. Sie können definierte materialisierte Ansichten manuell aktualisieren, um die neuesten Streaming-Daten abzufragen. Dieser Ansatz ermöglicht es Ihnen, nachgelagerte Verarbeitungen und Transformationen von Streaming-Daten mit den vorhandenen vertrauten Tools ohne zusätzliche Kosten durchzuführen.
Abfrage und Export von Daten in und aus Ihrem Data Lake: Kein anderes Cloud-basiertes Data Warehouse gestaltet sowohl die Abfrage von Daten als auch das Schreiben von Daten in Ihren Data Lake in offenen Formaten so einfach. Sie können Abfragen mit offenen Dateiformaten wie Parquet, ORC, JSON, Avro, CSV und unmittelbar in Amazon S3 mithilfe der vertrauten ANSI SQL ausführen. Um Daten in Ihren Data Lake zu exportieren, verwenden Sie einfach den Amazon-Redshift-UNLOAD-Befehl in Ihrem SQL-Code und geben Parquet als Dateiformat an. Anschließend übernimmt Amazon Redshift automatisch die Datenformatierung und Datenverschiebung in S3. So können Sie ganz flexibel stark strukturierte, häufig aufgerufene Daten und halbstrukturierte Daten in einem Amazon Redshift Data Warehouse speichern und dabei gleichzeitig strukturierte, teilweise strukturierte und unstrukturierte Daten im Exabyte-Umfang in Amazon S3 beibehalten. Durch den Export von Daten aus Amazon Redshift zurück in Ihren Data Lake können Sie die Daten mit AWS-Services wie zum Beispiel Amazon Athena, Amazon EMR und Amazon SageMaker weiter analysieren.
AWS-Services-Integration: Die native Integration mit AWS-Services, Datenbanken und Machine-Learning-Services erleichtert die reibungslose Abwicklung vollständiger Analyse-Workflows. AWS Lake Formation ist zum Beispiel ein Service, der es Ihnen ermöglicht, innerhalb weniger Tage einen sicheren Data Lake einzurichten. AWS Glue kann Daten extrahieren, transformieren und in Amazon Redshift laden (ETL). Amazon Kinesis Data Firehose bietet die einfachste Methode, Streaming-Daten zu erfassen, zu transformieren und in Amazon Redshift zu laden, um dort Analysen nahezu in Echtzeit auszuführen. Sie können mit Amazon EMR Daten mithilfe von Hadoop/Spark verarbeiten und die Ausgabe in Amazon Redshift laden, um dort BI- und Analyseaufgaben durchzuführen. Amazon QuickSight ist der erste BI-Service mit sitzungbasierten Gebühren, mit dem Sie Berichte, Visualisierungen und Dashboards zu Redshift-Daten erstellen können. Mit Amazon Redshift können Sie Ihre Daten für die Ausführung von Machine-Learning (ML)-Workloads mit Amazon SageMaker vorbereiten. Um Migrationen zu Amazon Redshift zu beschleunigen, können Sie das AWS Schema Conversion Tool und den AWS Database Migration Service (DMS) verwenden. Amazon Redshift ist zudem eng in Amazon Key Management Service (KMS) und Amazon CloudWatch integriert und bietet so Sicherheit, Überwachung und Compliance. Sie können auch benutzerdefinierte Funktionen (UDFs) von Lambda verwenden, um eine Lambda-Funktion aus Ihren SQL-Abfragen abzurufen, wenn Sie eine benutzerdefinierte Funktion (User Defined Function, UDF) in Redshift aufrufen. Sie können Lambda UDFs schreiben, um sie mit AWS-Partnerservices zu integrieren und auf weitere beliebte AWS-Services zuzugreifen, wie zum Beispiel Amazon DynamoDB und Amazon SageMaker.
Integration der Partnerkonsole: Durch die Integration ausgewählter Partnerlösungen in die Amazon-Redshift-Konsole können Sie das Daten-Onboarding beschleunigen und in wenigen Minuten wertvolle Geschäftseinblicke gewinnen. Mit diesen Lösungen können Sie Daten aus Anwendungen wie Salesforce, Google Analytics, Facebook-Anzeigen, Slack, Jira, Splunk und Marketo auf effiziente und optimierte Weise in Ihr Redshift-Data-Warehouse bringen. Außerdem können Sie diese unterschiedlichen Datensätze zusammenführen und gemeinsam analysieren, um umsetzbare Erkenntnisse zu erhalten.
Automatisches Kopieren von Amazon S3: Amazon Redshift unterstützt das automatische Kopieren, um das Laden von Daten aus Amazon S3 zu vereinfachen und zu automatisieren und so den Zeit- und Arbeitsaufwand für die Entwicklung benutzerdefinierter Lösungen oder die Verwaltung von Drittanbieterservices zu reduzieren. Mit dieser Funktion macht Amazon Redshift die manuelle und wiederholte Ausführung von Kopiervorgängen überflüssig, indem es den Dateieintrag automatisiert und die kontinuierlichen Schritte zum Laden der Daten im Hintergrund abwickelt. Die Unterstützung für das automatische Kopieren macht es für Fachanwender und Datenanalysten ohne Kenntnisse in der Datentechnik einfach, Aufnahmeregeln zu erstellen und den Speicherort der Daten zu konfigurieren, die sie aus Amazon S3 laden möchten. Wenn neue Daten in bestimmten Amazon-S3-Ordnern landen, wird der Aufnahmeprozess automatisch auf der Grundlage benutzerdefinierter Konfigurationen ausgelöst. Der Redshift-Kopierbefehl unterstützt alle Dateiformate, einschließlich CSV, JSON, Parquet und Avro.
Nativer Support für fortgeschrittene Analysen: Amazon Redshift unterstützt die standardmäßigen skalaren Datentypen wie NUMBER, VARCHAR und DATETIME und bietet native Unterstützung für die folgenden fortgeschrittenen Analysevorgänge:
- Raumbezogene Datenverarbeitung: Amazon Redshift umfasst den polymorphen Datentyp GEOMETRY, der mehrere geometrische Formen wie zum Beispiel Punkte, Linien und Polygone unterstützt. Außerdem bietet Amazon-Redshift-SQL-Funktionen, mit denen geometrische Formen erstellt und raumbezogene Daten importiert, exportiert, abgerufen und verarbeitet werden können. Sie können GEOMETRY-Spalten in Redshift hinzufügen und SQL-Abfragen schreiben, die räumliche und nicht räumliche Daten enthalten. Mithilfe dieser Funktion können Sie raumbezogene Daten speichern, abrufen und verarbeiten. Wenn Sie diese raumbezogenen Daten in Ihre Analyseabfragen integrieren, können Sie nahtlos neue geschäftliche Erkenntnisse gewinnen. Sie können die nahtlosen Data-Lake-Abfragen von Amazon Redshift verwenden, um externe Tabellen in raumbezogene Abfragen einzubinden und die Verarbeitung räumlicher Daten dadurch einfach auf Data Lakes zu erweitern. Weitere Informationen finden Sie in der Dokumentation.
- HyperLogLog-Skizzen: HyperLogLog ist ein neuartiger Algorithmus, der effizient die ungefähre Anzahl eindeutiger Werte in einem Datensatz einschätzt. Die HLL-Skizze fasst die Informationen über die eindeutigen Werte im Datensatz zusammen. Sie können dank HLL-Skizzen deutliche Leistungsvorteile für Abfragen erzielen, welche die ungefähre Kardinalität über große Datensätze berechnen, und zwar mit einem durchschnittlichen relativen Fehler zwischen 0,01–0,6 %. Amazon Redshift bietet einen erstklassigen Datentyp HLLSKETCH und zugehörige SQL-Funktionen, um HyperLogLog-Skizzen zu erzeugen, aufzubewahren und zu kombinieren. Die HyperLogLog-Funktion von Amazon Redshift setzt Verfahren zur Verzerrungskorrektur ein und bietet hohe Genauigkeit bei geringem Speicherbedarf. Weitere Informationen finden Sie in der Dokumentation.
- DATE- und TIME-Datentypen: Amazon Redshift bietet mehrere Datentypen DATE, TIME, TIMETZ, TIMESTAMP und TIMESTAMPTZ für die native Speicherung und Verarbeitung von Datums- und Uhrzeitdaten. Die Typen TIME und TIMESTAMP speichern die Uhrzeitdaten ohne die Informationen zur Zeitzone. Die Typen TIMETZ und TIMESTAMPTZ hingegen speichern die Uhrzeitdaten mit den Informationen zur Zeitzone. Sie können verschiedene Datums-/Uhrzeit-SQL-Funktionen verwenden, um die Datums/- und Zeitwerte in Redshift-Abfragen zu verarbeiten. Weitere Informationen finden Sie in der Dokumentation.
- Verarbeitung halbstrukturierter Daten: Der SUPER-Datentyp von Amazon Redshift speichert JSON und andere nativ halbstrukturierte Daten in Redshift-Tabellen und nutzt die Abfragesprache PartiQL zur nahtlosen Verarbeitung der halbstrukturierten Daten. Der Datentyp SUPER ist schemaloser Natur und ermöglicht die Speicherung verschachtelter Werte, die aus Redshift-Skalarwerten, verschachtelten Arrays oder anderen verschachtelten Strukturen bestehen können. PartiQL ist eine Erweiterung von SQL und bietet leistungsstarke Abfragefunktionen, wie zum Beispiel die Objekt- und Arraynavigation, das Unnesting von Arrays, dynamische Eingabe und schemalose Semantik. Damit können Sie fortgeschrittene Analysen durchführen, die klassischen strukturierten SQL-Daten mit den halbstrukturierten SUPER-Daten kombinieren und dabei überlegene Leistung, Flexibilität und Benutzerfreundlichkeit bieten. Weitere Informationen finden Sie in der Dokumentation.
- Integration in Tools von Drittanbietern: Es stehen viele Optionen zur Optimierung von Amazon Redshift zur Verfügung, indem Sie mit branchenführenden Tools und Experten, die Ihnen beim Laden, Umwandeln und Visualisieren Ihrer Daten helfen, arbeiten. Die Lösungen unserer zahlreichen und in verschiedenen Bereichen qualifizierten Partner sind für Amazon Redshift zertifiziert.
- Laden und transformieren Sie Ihre Daten mit Datenintegrationspartnern.
- Datenanalyse und Weitergabe von Erkenntnissen in Ihrem Unternehmen mit Business-Intelligence-Partnern.
- Planen und Implementieren Ihrer Analyseplattform mit Systemintegrations- und Beratungspartnern.
- Nutzen Sie die Tools und Serviceprogramme von Abfrage- und Datenmodellierungspartnern, um Ihre Daten abzufragen, zu untersuchen und zu modellieren.