24. September 2019 | pArtikel drucken | kKommentieren

Wettbewerbsfaktor Künstliche Intelligenz (KI): Hürden und Umsetzungsmöglichkeiten

Künstliche Intelligenz (KI) wird für Unternehmen zunehmend hochrelevant. Um gegen die Konkurrenz zu bestehen, werden Firmen künftig die eigenen Produkte und Lösungen mit KI anreichern müssen. Doch meist ist die Umsetzung von KI-Projekten langwierig und kostspielig. Genau an diesem Punkt knüpft der Hersteller Fujitsu an.

KI-Technologie ist dabei, in den Mainstream zu gehen, und sie lebt – wie so vieles in der digitalen Welt – von Daten. Es ist die Verfügbarkeit riesiger Datenmengen, sogenannter „Data Lakes“, die es Machine- und Deep Learning-Technologien ermöglichen, Muster in Daten zu identifizieren und damit zu experimentieren. Dieses sogenannte „Training“ geschieht so lange, bis die Maschine ein Verständnis für die Daten entwickelt hat.

Dank diesem Verständnis bzw. dem Gelernten kann die Maschine unbekannte Daten mit sehr hoher Erfolgsrate klassifizieren. Dabei wird das Gelernte in einem trainierten Modell gespeichert – eine Art Datei, die sich flexibel an jeden Ort übertragen lässt. Im Gegensatz zum Training benötigt die Anwendung des trainierten Modells keine nennenswerte Rechenleistung. Das wesentliche Unterscheidungsmerkmal von aktuellen und zukünftigen KI-Infrastrukturen ist deshalb, wie schnell sie in der Lage sind, mit dem Trainingsprozess voranzukommen.

Umsetzung von KI-Projekten: in der Regel langwierig und teuer

Normalerweise dauert ein Trainingsprozess einer KI jedoch sehr lange und benötigt zudem eine Rechenleistung, die exponentielle Ausmaße annimmt. Wie hoch diese ausfällt, beschreibt ein Blogbeitrag von NVIDIA am Beispiel des autonomen Fahrens.

Demnach benötigt ein Unternehmen, das Daten von 100 Fahrzeugen erhält und daraus ein KI-System trainieren möchte, das die Fahrzeuge in ferner Zukunft selbstständig steuert, mindestens 21 Tage – und zwar für ein einziges Training. Voraussetzung sei, dass die Firma für das Training eine der schnellsten verfügbaren GPU-Grafikkarten nutzt. Sobald die Anzahl der Daten oder der Fahrzeuge steigt, seien deutlich mehr Tage nötig. Bei 125 Fahrzeugen würden mindestens 197 Tage unterbrechungsfreies Dauerrechnen anfallen.

Firmen können die Dauer der Berechnung indes nur reduzieren, wenn sie dafür im Rechenzentrum mehr Geräte einsetzen. Dies kann Kosten in Millionenhöhe verursachen – ohne Berücksichtigung des Stromverbrauchs.

Das Dilemma: Unternehmen müssen die Dauer des Trainingsprozesses reduzieren, um von KI-Projekten wirklich zu profitieren. Denn je schneller eine Firma eine KI-Lösung bereitstellt, umso früher kann sie neue, innovative Produkte vermarkten – und sich damit vom Wettbewerb abheben.

Predictive Maintenance als Anwendungsmöglichkeit

Dies zeigt sich am Beispiel Predictive Maintenance (vorausschauende Wartung). Wer eine KI-Technologie in eine Maschine implementiert, die permanent wichtige Betriebsparameter kontrolliert und Vorhersagen zum Ausfall der Maschinen abgibt, hat einen Vorteil. Denn so ist es möglich, dass ein Techniker die relevanten Teile vor dem Ausfall austauscht. Das freut nicht nur den Kunden sondern erhöht auch die Wettbewerbsfähigkeit der Maschine, wenn ein Unternehmen diese ausschreibt.

Der Grund: Die Firma hat die Möglichkeit, die Maschine günstiger zu konstruieren und anzubieten. Dank KI ist ein möglicher Ausfall nämlich nicht mehr so schlimm. Schließlich sieht die KI diesen vorher. Für Unternehmen, die langlebige und teure Maschinen ohne KI-Technologie produzieren, kann diese Situation langfristig existenzgefährdend sein.

Wie Fujitsu KI-Projekte beschleunigen möchte

Bild: © Fujitsu

Um Unternehmen bei der Durchführung von KI-Projekten zu unterstützen, hat Fujitsu neben „Shorlak“ insbesondere das KI-System Zinrai Deep Learning System (ZDLS) im Portfolio.

Laut Fujitsu lässt sich ZDLS beispielsweise für die Bilderkennung schulen. Hier „lernt“ das KI-System, was auf den Bildern steht, erstellt ein geschultes Modell und überträgt dieses resultierende Modell auf Edge-Devices. Dort kann das Modell genutzt werden. Neben der Bilderkennung gibt es insgesamt 14 sogenannte Neuronale Netze, die für ZDLS optimiert sind: Zum Beispiel für das Trainieren von Spracherkennung oder Reinforcement learning – das etwa Industrie und Mittelstand für intelligente Roboter benötigen.

Wie der Hersteller betont, beschleunigt ZDLS die Umsetzung von KI-Projekten erheblich. Seit diesem Jahr gelte dies mehr denn je: So wurde ZDLS um die sogenannte „Deep Learning Unit“ (DLU) erweitert. Dabei handelt es sich um einen Chip, den Fujitsu speziell für Deep Learning Workloads entwickelt hat. Laut Fujitsu ist es damit möglich, Trainingsprozesse, konkret Deep-Learning-Anwendungen, deutlich zu beschleunigen. Gleichzeitig verbrauche DLU viel weniger Strom als herkömmliche GPU-Grafikkarten. All dies mache KI sowohl für KMUs als auch Großkonzerne finanzier- und einsatzbar.

„Der große Vorteil der DLU liegt darin, dass wir uns bei diesem Prozessor auf eine wesentliche AI-Disziplin fokussiert haben – nämlich auf Deep Learning“, wird Alexander Kaffenberger, Senior Business Development Manager bei Fujitsu, in einem Beitrag der Computerwoche zitiert. „Funktionen, die normalerweise auf einem GPU-Prozessor zu finden sind, die aber für Deep Learning nichts oder wenig bringen, wurden zugunsten einer höheren Leistung und eines geringeren Energieverbrauchs eingespart.“ Weiter heißt es: „Bei Benchmarks zeigte sich ein klarer Leistungsvorteil im Vergleich zu normalen GPUs. Es wurden bis zu 10-fache Performance-Steigerungen pro Watt gemessen, das bedeutet: Schnelleres Rechnen bei weniger Energieverbrauch. Fujitsu hat damit einen Rennwagen mit Elektroantrieb geschaffen.“

Udo Würtz vom CTO Office Fujitsu, EMEIA, hat dafür eine Erklärung: „Der Chip wurde von Grund auf exakt für Anwendungen der Künstlichen Intelligenz designed. Unsere Lab’s in Japan haben für ihn sogar eine eigene Mathematik entwickelt, welche nicht nur deutlich schneller Neuronale Netze trainieren kann, sondern darüber hinaus auch kompatibel zu bestehenden Entwicklungen ist. Kunden, die bereits z.B. NVIDIA basierte Systeme für AI einsetzen, wollen nicht neu entwickeln. Das ist ein ganz wichtiger Punkt genauso wie die Tatsache, dass das trainierte Modell entsprechend präzise Ergebnisse liefern muss. Genau das erfüllt die DLU.“

Quelle Titelbild: © geralt/pixabay.com

Hier schreibt CANCOM.info Redaktion für Sie

Mehr Artikel vom Autor

Lesen Sie weiter auf CANCOM.info