Big Data Cloud

Große Daten-Cloud

Im Zeitalter der Digitalisierung ist die Cloud die beste Grundlage für die Datenanalyse - insbesondere für das Internet der Dinge. Durch die Public Cloud können Unternehmen Technologien wie Big Data nutzen, neue Geschäftsmodelle entwickeln und Wachstum generieren. Großdaten Es ist das vollwertige Cloudera Hadoop-Ökosystem (einschließlich Hadoop-Funk) mit dabei. Durch automatisiertes Lifecycle-Management und Point-and-Click-Sicherheit ist Big Data Cloud Services darauf ausgelegt, eine Vielzahl von Big Data-Arbeitslasten und Technologien optimal und sicher auszuführen. Die Dienstleistung beinhaltet eine Palette von hochwertigen analytischen Komponenten, einschließlich: Ob es sich um datenwissenschaftliche Aufgaben oder das Freischalten von Datenseen handelt, Big Data SQL ermöglicht es einer größtmöglichen Anzahl von Endanwendern, vom Zugang zu Big Data zu partizipieren.

Die Big Data Cloud beim Kunden besteht unter anderem aus einer Vielzahl von hochwertigen Analysekomponenten:

Großdaten- und Cloud-Computing mit Abnahmeproblemen

Große Datenmengen in der Cloud. Große Daten in der Cloud sind eigentlich schon da. Hochwertige Cloud-Player wie Amazon Web Services (AWS), Google, Microsoft, IBM und Rackspace verfügen über Cloud-basierte Hado- und NoSQL-Datenbanken zur Unterstüzung großer Datenanwendungen. Einige Start-ups haben Managed Services vorgestellt, die auf solchen Cloud-Plattformen ablaufen. Bei Internet-Unternehmen - und insbesondere bei gerade erst begonnenen Soft- und Datendienstleistern - ist die Mischung von Big Data und Cloud Computing oft die erste Adresse.

Noch haben Sie nicht die Möglichkeit, im Gegensatz zu den Web-Wunderkindern die Informationen in der Cloud auf Ihrem Bildschirm zu verwalten. Für einige schwitzt die Angst, wenn sie an Datenschutz und Datenschutz in der Cloud denkt. Bei anderen läuft der Großteil des IT-Betriebs immer noch auf Großrechnern und anderen gut etablierten Rechnern, weit weg von Cloud-Architekturen.

Die enorme Datenmenge, die in solchen Anlagen abgelegt ist, macht auch den Wechsel in die Cloud zu einer echten Aufgabe. Zudem stellt die verfügbare Verarbeitungskapazität in den vorhandenen Datenzentren die zugesagten wirtschaftlichen Vorzüge von Public Clouds wie AWS und der Googleschen Cloud-Plattform als weniger überzeugend dar. Das Internet ist zur universellen Applikationsschnittstelle geworden, so dass der Anbieter von Finanzdienstleistungen mit einer regelrechten Fülle von unstrukturierten Informationen zu kämpfen hat.

Die MongoDB wird von AWS und anderen Cloud-Plattformen getragen und die Zitigroup setzt die Technologie in einem Cloud-Ansatz ein, sagt Michael Simone, Global Head of CitiData Platform Engineering. Es handelt sich in diesem Falle jedoch um eine Privat-Cloud, die innerhalb der Firewall-Grenzen des New Yorker Konzerns aufgebaut wurde und vollständig von der IT-Abteilung betreut wird.

"Wir sind im Augenblick nicht daran interessiert, diesen Lösungsansatz zu verlängern oder in eine öffentliche Cloud zu integrieren", sagte Simone den Teilnehmerinnen und Teilnehmer der MongoDB World 2015 im Juli in New York. "â??Die Datenzentren der Zitigroup sind groÃ? und ausreichend, um den BedÃ?rfnissen gerecht zu werden, und wir glauben, dass wir eine Privat-Cloud bauen können, die sich auszahlt.

"Derzeit sind große Datensysteme noch immer ein Minderheitsthema in der Cloud. Nur 19% der 222 IT- und Business-Experten, die zwischen September 2013 und April 2008 eine Online-Bewertung eines vom Data Warehousing Institute entwickelten Big Data Maturity-Modells durchführten, gaben an, dass ihre Unternehmen große Datenanwendungen über öffentliche, private Video- oder Hybrid-Clouds bereitstellen.

Andere 40 Prozentpunkte sagten, dass sie über Cloud-Bereitstellungen nachdenken, aber mehr als ein drittel sagte, sie hätten keine Lust, Cloud-Anwendungen zu nutzen. Allerdings ergab eine im Sommersemester 2013 von Enterprise Management Associates und 9sight Consultings durchgeführte Online-Umfrage eine etwas bessere Nutzung: 39% der 259 Teilnehmer gaben an, dass ihre großen Datenanlagen Cloud-Systeme einbeziehen.

Was die Kombination von Big Data und Cloud Computing bewirken kann, verdeutlichen einige Ausschnitte. Zum Beispiel ist Weather Kanal LLC ein Anbieter, der in die öffentliche Cloud gesprungen ist und reproduzierte Exemplare von Riak verwendet, einer Basho Technologies NoSQL-Datenbank, die über mehrere AWS-Verfügbarkeitszonen hinweg verstreut ist. Der Wetterkanal bearbeitet und archiviert eine Datenmischung aus Satellitendaten, Radarsignalen, Wetterstationen und anderen Datenquellen.

Sie stellt Prognosemaschinen für die Vorhersage von Wetterdaten zur Verfügung und ergänzt die Ergebnisse von 36.000 geografischen Wettergittern alle fünf Jahre. Es wird auch zur Archivierung historischer Informationen eingesetzt. Der Einsatz von NoSQL-Software in der Cloud ist bei TWC Teil einer breiteren IT-Strategie, die TWC die Möglichkeit gibt, den Kurs umzustellen.

Mit einem Zug kann man "eine Blockade vermeiden und sich nicht zu sehr an einen Anbieter oder eine Technik binden", erklärt Koch. So hat AWS zum Beispiel seine Cloud-Möglichkeiten im Lauf der Jahre deutlich ausgebaut. Darüber hinaus stehen das Rotverschiebungs-Data Warehouse und das Streaming-System für die Echtzeitverarbeitung großer, dezentraler Dateiströme zur Verfügung.

Derzeit haben AWS und andere Cloud-Anbieter "ziemlich ausgefeilte Services" entwickelt, so David Linthicum, Senior Vice President von Consulting Technology Partners. Ein Teil der Cloud-Datenmanagement-Plattformen ist inzwischen "in der fünften und sechsten Generation" verfügbar", sagt er. "Für große Firmen mit viel internem Rechenpower zahlt sich der Einsatz von externen, Cloud-basierten Systemen zur Verwaltung großer Datenbestände nicht immer aus.

In Speicherarchitekturen investierende Unternehmen werden diese Investitionen nicht so leicht aufgeben", sagt Aaron Ebertowski, leitender Infrastrukturarchitekt bei Nimbo, einem Beratungsunternehmen für Cloud Services. Leistungsstarke Anforderungen können auch ein Grund sein, die Verwendung einer öffentlichen Cloud nicht in Erwägung zu ziehen. der Einsatz einer öffentlichen Cloud. Ozean-Netzwerke Kanada (OCN), eine gemeinnützige Organisation, die mehrere Ozean-Observatorien in British Columbia unterhält, beabsichtigt, eine Privat-Cloud aufzusetzen.

Bei dieser Cloud wird eine Applikation auf der Grundlage von Datensätzen von Marinesensoren die Simulation von Erdstößen und Flutwellen durchführen. Laut Pyrenne werden jedoch viele Informationen und eine enorme Rechenleistung für die Erreichung dieses Ziels erforderlich. "Eine Echtzeitberechnung [der Simulationen] ist selbst auf einem sehr aufwändigen, parallelen Cloud-System nahezu unmöglich", sagte er.

Zur Verwaltung der Verarbeitungs- und Analyse-Workloads kooperiert ONC derzeit mit IBM beim Aufbau einer internen Cloud-Architektur. Der Markteintritt von Anbietern wie Aliscale, BitYota, Qubole, Treasure Data und der Rackspace-Tochtergesellschaft ObjectRocket behauptet, dass sie große Daten-Cloud-Installationen für die Nutzerunternehmen leichter und kosteneffizienter machen.

Möglich wird dies dadurch, dass die Anbieter Installations- und Verwaltungsaufgaben Ã?bernehmen und diese zu einem gÃ?nstigeren Tarif als die herkömmlichen Cloud-Plattformanbieter anbieten. Der Online-Marketing- und Analysedienstleister mit Sitz in Berlin, verwendet Hadoop zusammen mit seiner Funkenverarbeitungs-Engine, um in kürzester Zeit Datenbanken für die Suche nach "zweistelligen Terabyte kompressiblen Daten" über die Webaktivitäten der Verbraucher zu erstellen, sagt Benny Blum, Vice President of the Company.

Blum's Unternehmensgruppe hat zunächst ein eigenes Hochgeschwindigkeitssystem auf der Amazon Elastic Compute Cloud und der EC2-Plattform eingesetzt. Inzwischen haben sie das Gesamtsystem jedoch auf die Cloud-Plattform Altiscale aufgesetzt. In der Amazon-Cloud wird der Service ebenfalls ausgeführt, aber Blum sagt, dass sich das Abladen von Hadoop-Konfigurations- und -Managementaufgaben für Verkaufsstellen auszahlen würde.

Vor allem Cloud-basierte Hadoop-Dienste werden nach Ansicht von Rick Sherman, dem Begründer von Athena IT Solutions, eine größere Verbreitung finden. "Die Menschen stoßen im Moment mit Roll-your-own Hadoop gegen eine Wand", sagt er. Meiner Meinung nach wird Hadoop as a Service letztendlich viel interessanter sein als ein lokaler Hadoop vor Ort.

"Einige Firmen sind jedoch noch nicht ganz reif für die Nutzung von HDOOP aus der öffentlichen Cloud - und werden es vermutlich auch noch einige Zeit nicht sein. Ayad Shammout, Director of Data Platforms and Business Intelligence am Beth Israel Deaconess Medical Center (BIDMC) in Boston, ist mit einer solchen Entwicklung beschäftigt. Letztes Jahr, als er selbstständiger Consultant war, hat er mit einem Mitarbeiter an einem großen Daten- und Cloud Computing Proof-of-Concept-Projekt für den BIDMC gearbeitet.

Um den Speicher- und Verarbeitungsaufwand für eine SQL Server-Datenbank zu senken, wurde Azure HDInsight, die Cloud-basierte Hadoop-Distribution von Microsoft, verwendet. Laut Shammout zeigt das Demoprojekt, welches Potential Hadoop-Anwendungen in der Cloud haben. "Hätte ich vor drei oder vier Jahren mit dir über die Cloud geredet, hätte ich gesagt: "Nein, das wird nicht passieren", sagt Shammout.

Ich gehe davon aus, dass der Cloud-Datenschutz in weiteren drei oder vier Jahren nicht mehr das eigentliche Thema sein wird.

Mehr zum Thema