Gerade der Release von ChatGPT im November 2022 hat einen regelrechten Hype um das Thema Künstliche Intelligenz ausgelöst. Dabei stand vor allem die neue, generative KI-Technologie im Mittelpunkt. Diesem Hype folgte eine gewisse Ernüchterung – die mittlerweile einer realistischen Sichtweise gewichen ist. Laut Eva Dölle (AI Consultant, CANCOM) spiegelt sich diese Sichtweise insbesondere im Trend hin zu schlanken KI-Modellen wider. Im Gastbeitrag erklärt die CANCOM-Expertin, warum das so ist – und zeigt auf, wie Intel mit der Strategie „AI Everywhere“ auf diesen Trend reagiert.
17. Oktober 2024
|
Lesedauer: ca. 4 Min.
Bild: © putilov_denis/stock.adobe.com
Die Geschichte der Künstlichen Intelligenz (KI) ist geprägt von Phasen des Hypes und des Rückschlags, oft als „KI-Winter“ bezeichnet, in denen Erwartungen und Realität stark auseinanderklaffen. Nach dem „KI-Winter“ folgt die Phase der realistischen Bewertung und Auseinandersetzung – sobald KI-Technologien ein nachhaltiges und praxistaugliches Niveau erreicht haben.
Es mag kaum überraschen, dass all diese Phasen auch im Fall der generativen KI-Technologie durchlaufen wurden. So hat sich der anfängliche Hype, gerade rund um ChatGPT, gelegt. Angesagt ist nun eine nüchterne, praktische Betrachtungsweise.
Tatsächlich ist eine solche Entwicklung bei neuen Technologien, wie es die generative KI Ende 2022 war, völlig normal. Der Gartner Hype Cycle illustriert diesen Verlauf anschaulich: Es ist die Regel, dass auf einen Hype eine Ernüchterung folgt, bevor eine Technologie schließlich in die produktive Phase übergeht.
Sehr deutlich zeigt sich dieser Wandel beim Thema KI-Modelle: Während in der Anfangsphase des KI-Hypes oft große, komplexe Modelle im Vordergrund standen, zeigt sich heute ein klarer Trend zu kleineren, effizienteren Modellen. Diese sogenannten „Nimble AI Models“, die sich auf spezifische Aufgaben konzentrieren, sind deutlich praktikabler. Denn sie bergen für Unternehmen in der Praxis einen klaren Vorteil: Sie senken die Einstiegshürden in die KI deutlich, weil sie es Firmen ermöglichen, mit überschaubarem Aufwand und vorhandener Infrastruktur erste Schritte in die Welt der KI zu gehen.
Entsprechend schnell können „Nimble AI Models“ erste Ergebnisse liefern und die Investitionen in KI „rentabel“ machen. Auf diese Weise werden sie insbesondere für mittelständische Unternehmen attraktiv.
Diesen Trend hin zu „Nimble AI Models“ hat Intel genau erkannt – und reagiert darauf mit der Vision „AI Everywhere“. Konkret bedeutet das: Intel möchte für eine Vielzahl von kleineren KI-Modellen, Anwendungsbereichen und Anforderungen sowohl die notwendige Hardware als auch Software entwickeln. Ob die anschließende Bereitstellung im lokalen Rechenzentrum, in der Cloud oder in hybriden IT-Umgebungen erfolgt, spielt keine Rolle.
Beispiele für Hardware- und Software-Lösungen von Intel, die speziell für den KI-Bereich gedacht sind, sind die neuen Intel Xeon 6-Prozessoren für die Ausführung von KI-Workloads, die Intel Gaudi KI-Beschleuniger und die Software-Tools der Intel Tiber-Plattform, die bei der Erstellung und Bereitstellung von KI-Modellen helfen können.
Dabei verfolgt Intel einen praxisorientierten Ansatz: Unternehmen sollen KI bereits mit vorhandenen Ressourcen aufbauen und dann mit den richtigen und gezielten Investitionen hochskalieren können. Damit soll KI für jedermann zugänglich gemacht werden.
Um die Vision „AI Everywhere“ zu verwirklichen, plant Intel für die Zukunft, ein ganzes KI-Ökosystem zu schaffen. Dafür baut Intel aktuell ein breites Partnernetzwerk mit weiteren Technologieführern und der Entwicklergemeinschaft auf. Schon heute pflegt der IT-Konzern zahlreiche Partnerschaften. Dadurch soll gewährleistet werden, dass neue Entwicklungen und Verbesserungen im KI-Bereich schnell und umfassend implementiert werden sowie den neuesten regulatorischen Anforderungen, etwa den Bestimmungen des AI Acts, entsprechen.
In diesem Kontext setzt Intel stark auf die Förderung von Open Source: So integriert das Unternehmen seine Softwareentwicklungen direkt in führende KI-Frameworks, damit Entwickler von optimierten Funktionen und einer verbesserten Performance profitieren. Durch eigens entwickelte Toolkits soll Entwicklern ermöglicht werden, KI-Anwendungen zu erstellen und nahtlos in bestehende Systeme zu integrieren – ohne an bestimmte Anbieter gebunden zu sein. Diese offene Herangehensweise soll einen Vendor Lock-in verhindern und sicherstellen, dass Entwickler die maximale Leistung aus Intel-Hardware herausholen können.
Das zeigt: Intel verfolgt mit „AI Everywhere“ einen sehr praxisorientierten Ansatz. Kleinere, effizientere KI-Modelle sowie eine flexible, skalierbare Infrastruktur stehen hier im Fokus. Ziel von Intel ist es, KI-Technologien für jedermann zugänglich zu machen und für eine Vielzahl von Branchen zu adaptieren – um KI von einer Hype-Technologie zu einem festen Bestandteil des täglichen Geschäftsbetriebs zu transformieren.
Dieser Ansatz von Intel harmoniert optimal mit unserer Herangehensweise an das Thema KI: Auch wir als CANCOM möchten unseren Kunden einen unkomplizierten Einstieg in das Thema KI ermöglichen. Dazu bieten wir sogenannte „AI in a Box“-Lösungen an. Mit „Box“ ist hier der Bare Metal Server gemeint, auf dem die jeweiligen KI-Modelle und -Workloads laufen.
Konkret bieten wir Kunden mit „AI in a Box“ drei vorkonfigurierte Servergrößen – S, M und L – an, die auf die Anforderungen konkreter Anwendungsfälle zugeschnitten sind: vom KI-Einsteiger bis zum KI-Profi. Sämtliche Servervarianten basieren auf der leistungsstarken Hardware von Intel und sind so konzipiert, dass sie nahtlos in bestehende IT-Infrastrukturen integriert werden können.
Größe S richtet sich an Unternehmen, für die KI noch nicht zum Unternehmensalltag gehört und einfache KI-Workloads betreiben möchten. Mit der M-Konfiguration erhalten Kunden ein System, das für fortgeschrittene Anwendungsfälle optimiert ist und durch KI-Beschleuniger unterstützt wird. Die L-Version wiederum bietet maximale Rechenleistung für Unternehmen, die auf massive Datenmengen und komplexe Modelle angewiesen sind – wie etwa bei der Entwicklung generativer KI-Lösungen.
Dank dieser beschriebenen, modularen Herangehensweise können Unternehmen eine Lösung erwerben, die genau auf ihre KI-Workloads zugeschnitten ist. Eine Lösung, die sicher im eigenen Rechenzentrum läuft und auf lizenzbasierte Einschränkungen verzichtet. Gleichzeitig können wir umfassend unterstützen, wenn es darum geht, „AI in a Box“ im Unternehmen zu implementieren und zu betreiben.
Sie wünschen eine unverbindliche Beratung rund um die Themen KI und Intel? Dann kontaktieren Sie gerne die Experten von CANCOM.
Eva Dölle
AI Consultant, CANCOM
Eva Dölle arbeitet als AI Consultant bei CANCOM. In ihrer Position beschäftigt sie sich täglich mit den unterschiedlichsten Facetten des Themas KI.
Ein besonderer Fokus liegt dabei auf den verschiedenen Hard- und Software-Lösungen von Intel für den KI-Bereich.