HPE: Feedback der Kunden-Entwickler beeinflusst kommende Produktreleases

HPE galt lange als reines Technik-Unternehmen. Mit seinem neuen Tool- und Services-Paket adressiert das Unternehmen jetzt die Inhouse-Entwickler großer Firmen.

In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen
Lesezeit: 4 Min.
Von
  • Harald Weiss
Inhaltsverzeichnis

HPE hat auf einer Kundenveranstaltung in Frankfurt viel Neues für die Entwickler-Gemeinde angekündigt. Am interessantesten ist dabei das Early-Access-Programm für Ezmeral Unified Analytics sowie für deren Data Fabric. Ezmeral Unified Analytics ist eine neue Analyse- und Data-Lakehouse-Plattform für lokale und hybride Cloud-Bereitstellungen. Laut HPE lassen sich damit „traditionelle Engpässe bei Tools, Konfiguration und Zugriffen beseitigen“.

So ermöglicht Unified Analytics viele parallele Daten-Aktionen wie Datenaggregation mit Superset, Erstellen eines wiederholbaren Datenaufnahme-Workflow mit Airflow, Trainieren von Modellen sowie ein programmgesteuertes Experimentieren über Jupyter-Notebooks, um schließlich alles mit Kubeflow Kserve in der Produktion bereitzustellen. Die Unified Analytics lassen sich mit einem Tastenklick mit HPEs Data Fabric verbinden, um so die Lösung in einer hybriden Umgebung zu skalieren. Das ist vor allem für die Entwickler interessant, die mithilfe der neuesten Open-Source-Toolkits und -Frameworks schnell Ergebnisse vorweisen müssen.

HPE Data Fabric ist ein Managed Service, der einen einzigen konsistenten Namensraum bereitstellt, der für alle Dateien, Objekte und Streams gilt. Das umfasst die gesamte Infrastruktur, also Cloud, On-Prem und GreenLake. Data Fabric nimmt seinen Anwendern die Suche nach dem Datenursprung und dem geeigneten Speicherort ab. „Wir nutzen eine regelbasierte Automatisierung, um alle Daten korrekt zu verwalten“, erläutert Mohan Rajagopalan, HPEs Vice President und General Manager das System.

Der angekündigte Early Access für beide Bereiche bietet Firmen-Entwicklern die Möglichkeit, praktische Erfahrungen mit neuen Versionen und Funktionen zu sammeln, bevor diese auf den Markt kommen. Zudem sollen sie auch Feedback zu den Funktionen abgeben. „So wird sichergestellt, dass das endgültige Produktrelease deren Anforderungen entspricht“, sagt Rajagopalan. Wer sich für den Test anmeldet, erhält sofort Zugriff auf eine 300 GByte große Data Fabric mit voll ausgestatteten Datei-, Objekt- und Stream-Funktionen. Derzeit wird dieses Programm noch in einem HPE-Rechenzentrum gehostet, doch in den nächsten Wochen soll es bei allen drei Hyperscalern – AWS, Microsoft Azure und Google Cloud – verfügbar sein.

Neben dem neuen Programm zur Einbindung der Kunden-Entwickler in die HPE-Produktentwicklung gab es auf der Veranstaltung auch eine Reihe an Neuheiten, die sich vorwiegend an Entwickler auf der GreenLake-Plattform richten. Unter anderem wurde die eigene Version einer Kubernetes-Bereitstellung durch eine weitere Option ergänzt, bei der ab sofort Container auch mit Amazon EKS-Anywhere (Amazon Elastic Kubernetes Service) auf der GreenLake-Plattform genutzt werden können. Das verbessert das Laufzeitverhalten und vereinfacht das Verschieben von Anwendungen zwischen der internen und der AWS-Cloud. „Unsere Kunden können jetzt ihre AWS-Workloads unverändert auf einer GreenLake-Instanz bereitstellen“, sagte Bryan Thompson, Vice President of Product Management von HPE GreenLake Cloud bei der Ankündigung.

Des Weiteren wurde auch das Toolset von GreenLake speziell für Entwickler weiter ausgebaut. So lassen sich jetzt virtuelle Maschinen, Container und physische Server entweder per Self-Service, über Programmierschnittstellen (API), eine Befehlszeile oder mittels Infrastructure as Code (IaC) verwalten und steuern. Die Entwickler bekommen hierbei sofort Zugriff auf ihren Arbeitsbereich und können aus einer Vielzahl von Betriebssystemen, containerisierten Anwendungen und Toolchain-Integrationsdiensten wählen. Zur Unterstützung von IaC gehören auch verschiedene Allianzen, beispielsweise mit HashiCorp, Red Hat und Puppet. Die neuen Entwicklungs-Toolchains unterstützen einen kollaborativen Softwareentwicklungszyklus, der eine entscheidende Komponente von DevOps und der CI/CD-Pipeline ist.

(jvo)