Datenbank Cloud

Database-Cloud

Ihre eigene Cloud-Anwendung mit wenig Aufwand und ohne Programmierkenntnisse. Anpassen der Datenbank an Ihre Bedürfnisse. Deutschland/Deutschland (Deutsch) Die Verwaltung von Interaktions- und Applikationsdaten für massive Netzwerke von Mobilfunknutzern oder Remote-Geräten kann in Bezug auf Skalierbarkeit und Bereitstellung ein Alptraum sein. Die meisten Datenbestände müssen in einer zentralisierten "Master"-Datenbank aktualisiert werden. Auf diese Weise können Sie die Skalierung noch umfangreicher gestalten und sicherstellen, dass Applikationen auch dann ausgeführt werden können, wenn sie nicht erreichbar sind.

Hybriddatenbanken bilden eine dezentrale Hybrid-Datenwolke für mehr Performance, Reichweiten, Verfügbarkeit, Beweglichkeit und Kosteneinsparungen: Managen Sie die Cloud selbst oder lassen Sie das gesamte System dem Hersteller vorstehen. Zusammenführung von Cloud-Anbietern nach Bedarf zur Optimierung der geografischen Abdeckung, von Servicevereinbarungen (SLAs), Preisen und regulatorischen Vorgaben. Auf diesem Weg entsteht eine Hybrid-Cloud, die den steigenden Datenverwaltungsanforderungen und nicht den Erfordernissen der Infrastruktur entspricht.

Organisationen können die Datenschicht in Bezug auf Aufwand, Performance, Sicherheit bei gleichzeitiger Steigerung der Produktivität und Erreichbarkeit optimal ausnutzen. Deine Informationen können aufgeteilt, verteilt und den Benutzern nahe gebracht werden. Zum Beispiel wenden Finanzdienstleister den hybriden Ansatz an, indem sie die Datenbank als zentrale Ablage für all ihre verschiedenen Informationsquellen einsetzen und diese Finanzdaten dann im JSON-Format zur Verfügung stellen.

Anschließend werden diese Informationen an die Datenbank als Service weitergeleitet und für die einzelnen Weltregionen wiederhergestellt. Muss ein Singapur-Kunde mehr als vier Sek. auf den Abruf seiner Mobilfunkanwendungsdaten aus einer Datenbank in New Jersey, USA, gewartet werden, ist es unwahrscheinlich, dass dieser Konsument diese Applikationen erneut verwendet.

Durch Database as a Service können die Informationen sofort repliziert und verteilt werden. Dies ermöglicht einen weltweiten Echtzeit-Datenzugriff. Mit dem neuen hybriden Cloud-Konzept können Cloud-Datenbanken alle Ihre Informationen in der Umgebung aufnehmen, einsetzen, replizieren und darauf zugreifen. Anwender müssen keine zusätzliche Middelware mehr einsetzen, um Datenbankbedürfnisse an mehreren Standorten auf der ganzen Welt zu platzieren.

Du kannst Bewerbungen mit Deiner Datenbank verlinken.

Schneeflocke: Die Cloud erlaubt neue Datenbankdesigns

Mitten auf dem S3-Datensee, um ihn herum verschiedene künstliche Lager und als überlappende Ebene die Cloud-Dienste von Snowflake (Bild: Arian Rüdiger). In der Cloud ist die Nutzung von Datenbanken noch recht zeitig. Während alle großen Cloud-Anbieter alle möglichen Datenbank-Lösungen und analytischen Umfelder anbieten, oft auf Hadoop-Basis, gibt es keine. Sogar die klassische Herstellung von Produkten für relationale Datenbanken propagiert heute Cloud-Instanzen ihrer Artikel oder ermöglicht es zumindest den Anwendern, die Datenbank selbstständig in die Cloud zu überführen.

Bisher wurde vergebens nach einer Data Warehouse-Lösung gesucht, die die Chancen der Cloud von Beginn an einheitlich nutzt. Snowflake, der Servicedienst des Silicon Valley Startup mit dem gleichen Namen, der bisher exklusiv bei AWS erhältlich war, ist ein solcher Servicedienst jetzt erhältlich. Daß Snowflake auf AWS beginnt, ist etwas würzig, denn mit Rotverschiebung hat der Anbieter selbst einen eigenen Servicedienst auf dem Netz, dessen Funktion mit der von Snowflake vergleichbar ist.

Das Allerwichtigste: Mit Snowflake werden Gedächtnis- und Rechnerknoten konsistent in separaten Ebenen des gesamten Systems aufbewahrt und auch separat von einander skaliert, aber nicht mit Rotverschiebung. Die Rotverschiebung ist das Ergebnis eines Vor-Ort-Produkts, das bei AWS gekauft wurde, und nicht eines Cloud-Natives. Snowflake's Struktur ist in drei Ebenen aufgebaut: Dabei werden die gesammelten Informationen auf E3 gespeichert, so dass der Massenspeicher fast beliebig erweiterbar ist.

Darüber liegen die Rechnerknoten und können nach Kundenanforderung zu einer beliebigen Anzahl von virtuellen Lagern in verschiedenen so genannten T-Shirt-Größen, d.h. festgelegten Leistungsniveaus, aktuell zwischen einem und 128 Recheneinheiten, kombiniert werden. Weil diese Resourcen physikalisch von einander getrennt sind und auch auf Tastendruck skaliert werden können, sollten sie eine beliebige Anzahl paralleler Zugänge auf dieselbe Datenbank unter verschiedenen Gesichtspunkten erlauben.

DarÃ?ber hinaus gibt es eine Serviceebene, in der unter anderem Sicherheits-, Authentifizierungs- und Nutzungsstatistiken durchlaufen werden. Diese Ebene ist ebenfalls skalierbar, und zwar jeweils getrennt von den beiden anderen. Die Abrechnung erfolgt jedoch jede Sekunde, nur wenn ein soziales Lager wirklich in Betrieb ist und auswertet. Da das Ein- und Ausschalten und die Skalierung von Lagern so rasch erfolgt, kann mit Schneeflocke eine beliebige Anzahl von Lagern für einen Auftraggeber gleichzeitig betrieben werden, um z.B. verschiedenen Fachabteilungen oder Fachleuten eine Analyseinfrastruktur zur Verfügung zu stellen oder im Zuge von Versuchen verschiedene Problemlösungen zu erproben.

Datensicherheit und Verlässlichkeit entsprechen professionellen Anforderungen: Der Anwender kann eine Aufbewahrungsfrist für die gesammelten Informationen beliebig definieren und anschließend zu jedem Zeitpunkt in einen frühzeitigen Status zurückkehren, z.B. weil ein Data Warehouse mit einem Virenbefall infiziert ist oder aufgrund von Fehlereingaben nicht mehr funktioniert. Dabei werden die Informationen von Anfang bis Ende vom Zeitpunkt der Übermittlung an den Snowflake-Treiber kodiert. Snowflake Ã?bernimmt das Key Management, wodurch auch Lösungen möglich sind, bei denen ein wesentlicher Teil beim Endkunden liegt und erst die Kombination der beiden SchlÃ?sselkomponenten von Anbieter und KÃ?ufer zu einem Total Key die EntschlÃ?sselung der Angaben ermöglicht.

Snowflake ist bereits in fünf Regionen der AWS tätig, von denen zwei in Europa, Frankfurt und Dublin liegen. Die Dienstleistung erlaubt Anfragen in klassischer SQL, kann aber auch andere Anfrageformate über vom Haus entwickelte Connectoren verarbeiten, die dann in SQL umgewandelt werden.

Denn Formate wie JSON, mit denen herkömmliche Relationsdatenbanken nicht zurecht kommen, breiten sich im Web aus. Gleiches trifft auf andere Datenbank-Formate zu, bei denen der ELV-Spezialist Talk, mit dem Schneeflake eine intensive Zusammenarbeit hat, mitwirkt. Die Erbringung der Dienstleistung über AWS sollte dies nicht beibehalten.

"Die Zeit, zu der Schneeflocken von anderen Anbietern erhältlich sein werden, ist noch offen. Allerdings können Azure-Kunden, die den Test durchführen möchten, ihre Messdaten nun in die Schneeflocken-Instanz von Schneeflocken zur Auswertung mit Schneeflocken einlesen. Der Funktionsumfang wird ständig erweitert: Mit SnowPipe, das serverless oder Lambda-Computing von AWS nutzt, können Dateien rasch in den Snowflake-Service geladen werden.

Virtual Privat Snwoflake, eine benutzerdefinierte Cloud-Instanz des Services, wurde bekannt gegeben. Mithilfe von AWS Privat Link können in Kürze auch über gesicherte nicht-öffentliche Leitungen die gesammelten Informationen an Schneeflake übertragen werden. Tableau war neben Talk auch auf der ersten deutschsprachigen Unternehmenspräsentation in München präsent und ist spezialisiert auf ad-hoc Analysen, die am Arbeitplatz durchgeführt werden können, mit einer anspruchsvollen grafischen Darstellung der Ergebnisse. Snowflakes neuester Vertriebspartner ist Qubole, ein Big Data-as-a-Service-Anbieter.

Sie wollen es den Anwendern ermöglicht haben, den Cluster-Manager in einem Qubole-Dienst zusammen mit digitalen Datenlagern auf der Grundlage des Snowflake-Diensts zu nutzen. Ein Beispiel dafür, wie sich die Cloud heute zu integrierten Komplettleistungen aus mehreren Diensten entwickelt, die wie in der Vergangenheit oft aus OEM-Produkten verschiedener Hersteller bestanden, ist die Zusammenarbeit.

In diesem Zusammenhang empfiehlt er seinen Kundinnen und Servicemitarbeitern von Schneeflocke, wenn sie mit der Schnelligkeit früherer DS-Lösungen nicht zufrieden sind und auf die Cloud umsteigen wollen. Snowflakes Angebote verstehen sich als Ergänzung zu den oft teuren internen Datenseen, in denen viele Firmen in den letzten Jahren millionenschwere Summen an Anlagegeldern gesunken sind.

Obwohl Snowflake-Kunden nicht selbstständig davor geschützt sind, müssen sie beim Eintritt in die Analytical Computer in der Cloud keine großen Summen in Hard- und Software ausgeben.

Auch interessant

Mehr zum Thema