KÜNSTLICHE INTELLIGENZ IN DEUTSCHLAND 2019

Johannes Wagmüller, Director Solutions Engineering Germany, NetApp, Foto NetApp

Anlässlich der Vorstellung der Ergebnisse der Studie „Künstliche Intelligenz in Deutschland 2019“ von IDC gab Johannes Wagmüller, Director Solutions Engineering Germany, NetApp ein Interview

Künstliche Intelligenz zählt derzeit zu den am intensivsten diskutierten Themen in den IT-Abteilungen, Fachbereichen und Führungsetagen. Die Vielfalt der Begriffe ist enorm. Hierzu zählen KI, AI, ML, kognitives Computing und RPA, um nur einige zu nennen. Wie finden Unternehmen die richtige Lösung für ihre KI-Initiativen? Worauf müssen sie achten?

 

Johannes Wagmüller: Begriffsverwirrungen sind ja leider keine Seltenheit in unserer Industrie. Im Prinzip geht es jedoch bei den heute in der Praxis eingesetzten Lösungen immer noch um maschinelles Lernen in seinen verschiedenen Ausprägungen, etwa Deep Learning (DL). Grundsätzlich sollten sich Unternehmen, ausgehend vom angedachten Anwendungsfall, zunächst einen Überblick verschaffen, welche Werk- zeuge und Services ihnen zur Verfügung stehen. Um den angestrebten Business Case in Angriff zu nehmen, ist ein rasches Prototyping unverzichtbar. Hier- für bieten sich cloudbasierte Services wie AWS, GCP oder Azure an.

 

Sobald erste Ergebnisse den Use Case und das Modell bestätigen, wird die bestmögliche „Produktionsplattform“ definiert. Erfolgsentscheidend ist dabei die sogenannte Datenpipeline: ein möglichst einfaches, schnelles und flexibles Datenmanagement von der Datenquelle bis zur Aufbereitung der Ergebnisse. Entwickler bevorzugen Umgebungen, die sie kennen. Unser Anspruch ist es, dafür zu sorgen, dass sie möglichst produktiv sein und ihre Zeit in Data Science stecken können.

 

FRAGE: Was sind aus Ihrer Sicht die wichtigsten drei Erfolgsfaktoren, die Firmen unbedingt berück- sichtigen müssen, um mit KI richtig zu starten bzw. KI-Projekte erfolgreich weiterzuentwickeln?

 

Wagmüller: Es sind vier Faktoren. Der Anwendungsfall muss für ML passen und das Know-how für die richtige Herangehensweise muss da sein. Dann müssen Daten in ausreichender Menge vorhanden sein, um das Modell zu trainieren, und schließlich wird eine flexible und leistungsfähige Entwicklungsumgebung benötigt. Dabei läuft es wieder auf die Datenpipeline hinaus. Technische Aspekte wie Datenmengen und Bandbreiten spielen genauso hinein wie Data-Privacy und Compliance, aber natürlich auch kommerzielle Überlegungen wie Rechenkosten. Oft gewinnt eine hybride Lösung. Sie erlaubt, große Modelle mit lokalen Datenmengen on-premises auf einer performanten Infrastruktur kostengünstig zu trainieren, um sie anschließend mit „fertigen“ kognitiven Modellen aus Cloud-Services zu ergänzen.

 

FRAGE: Woran scheitern Ihrer Erfahrung nach KI-Initiativen und warum?

Wagmüller: KI-Plattformen selbst bauen und vor allem unterhalten zu wollen, ist fatal. Die Gefahr ist groß, dass sich Data Scientists und Engineers haupt- sächlich mit der Implementation und Pflege einer komplexen Umgebung beschäftigen werden. Unsere Aufgabe ist es, den Entwicklern diese Aufgabe abzunehmen und eine leistungsfähige Plattform bereitzustellen, auf der sie ihre Frameworks ohne Aufwand nutzen und damit ihre Arbeitszeit besser einsetzen können. Letztlich ist jedes KI-Projekt eine Frage von Kosten und Ertrag. Die Entwicklungskosten können sehr hoch ausfallen, der Kundennutzen bleibt jedoch möglicherweise bescheiden. KI findet dann Akzeptanz beim Kunden, wenn sich der praktische Nutzen im Alltag einstellt: in der Spracherkennung bei Diktiersoftware für Ärzte, in fehlerfreien Übersetzungen mit Google Translate oder bei Kaufempfehlungen, die wirklich den Interessen des Kunden entsprechen.

 

FRAGE: Mit welchen Angeboten unterstützen Sie IT-Organisationen und Fachbereiche im Detail?

 

Wagmüller: NetApp hat zusammen mit NVIDIA die ONTAP AI Proven Architecture als ein gemeinsames Angebot entwickelt. Es kombiniert eine der leistungsstärksten GPU-Lösungen mit einem der schnellsten Cloud-integrierbaren Flash-Systeme, samt Software.

 

Das System umfasst NVIDIAs DGX-Supercomputer und NetApps All Flash Storage AFF A800. Dank der hohen Rechenleistung von ONTAP AI lassen sich bisherige Performance-Engpässe überwinden. Diese Lösung ermöglicht zudem den schnellen Einstieg in das KI-Umfeld, indem sie die Komplexität des Lösungsdesigns eliminiert und bei Bedarf im Wachstumsfall unbegrenzt nach oben skaliert. Die Integration der Data Fabric ermöglicht es Anwendern von ONTAP AI darüber hinaus, eine nahtlose Datenpipeline vom Entstehungsort bis ins Rechenzentrum oder in die Cloud zu nutzen. Die Architektur vereinfacht das Datenmanagement, beschleunigt ML bzw. DL und bietet eine multi-Cloudfähige, skalierbare KI-Plattform.

 

FRAGE: Werfen wir einen Blick voraus: Welchen Risiken setzen sich diejenigen Unternehmen aus, die die aktuelle Entwicklung verschlafen und nicht auf KI setzen?

 

Wagmüller: Bei Big-Data-Anwendungen, wo es gilt, aus einem großen Portfolio die richtigen Produkte an die passenden Käufer zu vermitteln, sind KI-Anwendungen seit einigen Jahren unverzichtbar. Zu ihren Anwendern zählen Banken, Versicherungen, Telekommunikation und Online-Händler. In der Materialforschung und in der personalisierten Medizin, in der Finanzindustrie und im Verkehr liegen große Potenziale. Nicht überall ist KI sinnvoll. Doch dort, wo sie unverzichtbar ist, laufen die Entwicklungen auf Hochtouren.

 

<< Neues Textfeld >>

Matthias Mühling, Direktor des Lenbachhauses bei der Eröffnung der William Turner Ausstellung 2023, Foto: Beate Obermann copyright
Druckversion | Sitemap
Copyright Beate Obermann M.A., 2018- 2024, alle Rechte vorbehalten