Amazon Web Services bietet Platz für große Datenspeicher

2014-01-10  |  Comebuy News

Betrachtete den wachsenden Markt für große Datenanalyse, hat Amazon Web Services (AWS) ein Ablagenpaket, genannt hohe Speicherkapazität, die schnellen Zugriff auf große Datenmengen anbieten können.

Comebuy Verwandte Artikel: Amazon startet Workflow Orchestrierung ServiceAmazon Wolke Set Bühne für schnelle Pinterest GrowthNetflix angepassten Amazon releases Steuerelement ConsoleAmazon verbindet node.js, AWS ServicesHP erweitert Asset-Zuordnung in Amazonas, VMware-Wolken

Hoher Speicherkapazität, ein Paket von Amazon Elastic Compute Cloud (EC2) soll laufen intensive Datenanalyse, dass Aufträge, wie z. B. seismische Analyse, Verarbeitung und Datawarehousing, nach Ansicht der Firma anmelden. Es basiert auf einer parallel-Datei-System-Architektur, die Daten ein- und ausschalten mehrere Festplatten auf einmal verschoben werden kann schnellere Durchlaufzeiten.

"Diese Varianten sorgen proportional höhere Speicherdichte pro Instanz und eignen sich ideal für Anwendungen, die hohe sequenzielle Serverleistung über sehr große Datenmengen profitieren" AWS-Staaten in der online-marketing-Literatur für diesen Dienst. Das Unternehmen ist den Dienst als Ergänzung zu seinem elastischen MapReduce-Service, pitching, die bietet eine Plattform für große Hadoop-Datenanalyse. AWS selbst ist die hohe Speicherkapazität-Instanzen verwenden, um seine Rotverschiebung Data-Warehouse-Dienst macht.

Eine AWS-Instanz ist ein Bündel von Compute-Einheiten, Arbeitsspeicher, Speicher und andere Dienste so konfiguriert, dass die Merkmale eines bestimmten Typs Arbeitsauslastung. Hoher Speicherkapazität ist der neunte Compute-Instanz, die AWS eingeführt hat. Er mündet in andere sofortigen Arten angepasst für bestimmten Arbeitslasten, z. B. Instanzen, die für die Verwendung von GPUs (Grafikprozessoren) oder für HPC (high-Performance computing) Arbeitsplätze optimiert.

Die hohe Speicherkapazität-Instanz bietet 35 EC2 compute Units (ECU) von Compute-Kapazität und 117GB Arbeitsspeicher. Bis zu 48TB Speicher ist auf 24 direct-attached Storage (DAS)-Festplatten verteilt. Daten über mehrere Festplatten verteilt kann Datenübertragungen beschleunigen, da die Lese- und Schreibgeschwindigkeit einer einzelnen Festplatte nicht mehr ein Engpass darstellt. Das System kann mehr als 2,4 GB pro Sekunde sequentiellen Serverleistung anbieten.

Kunden können hohe Speicherkapazität Instanzen von der AWS Management Console, von den EC2 oder elastische MapReduce-Befehlszeilen oder aus der AWS-SDK (Software Development Kit) oder Drittanbieter-Bibliotheken evozieren. Die hohe Speicherkapazität-Instanz steht derzeit an der US-Ostküste und werden in anderen Teilen der Welt in den nächsten Monaten. Hohe Storage-Instanzen Äther bei Bedarf erworben werden können oder vorzeitig zu ermäßigten Preisen reserviert werden.

Große Daten gesinnte Interessenten weiter zu helfen, hat Amazon auch seine Daten-Pipeline für den allgemeinen Gebrauch eingeschaltet die die Firma letzten Monat angekündigt.

Joab Jackson umfasst Unternehmenssoftware und allgemeine Technologie Eilmeldung für die IDG News Service. Folgen Sie Joab bei @Joab_Jackson auf Twitter. Joab die E-mail-Adresse ist Joab_Jackson@idg.com

« Back