„AI Everywhere“: Wie Intel die Zukunft der Künstlichen Intelligenz mitgestaltet

Gerade der Release von ChatGPT im November 2022 hat einen regelrechten Hype um das Thema Künstliche Intelligenz ausgelöst. Dabei stand vor allem die neue, generative KI-Technologie im Mittelpunkt. Diesem Hype folgte eine gewisse Ernüchterung – die mittlerweile einer realistischen Sichtweise gewichen ist. Laut Eva Dölle (AI Consultant, CANCOM) spiegelt sich diese Sichtweise insbesondere im Trend hin zu schlanken KI-Modellen wider. Im Gastbeitrag erklärt die CANCOM-Expertin, warum das so ist – und zeigt auf, wie Intel mit der Strategie „AI Everywhere“ auf diesen Trend reagiert.

17. Oktober 2024

|

  • Eva Dölle

Lesedauer: ca. 4 Min.

ai-kuenstliche-intelligenz-intel

Bild: © putilov_denis/stock.adobe.com

Die Geschichte der Künstlichen Intelligenz (KI) ist geprägt von Phasen des Hypes und des Rückschlags, oft als „KI-Winter“ bezeichnet, in denen Erwartungen und Realität stark auseinanderklaffen. Nach dem „KI-Winter“ folgt die Phase der realistischen Bewertung und Auseinandersetzung – sobald KI-Technologien ein nachhaltiges und praxistaugliches Niveau erreicht haben.

Es mag kaum überraschen, dass all diese Phasen auch im Fall der generativen KI-Technologie durchlaufen wurden. So hat sich der anfängliche Hype, gerade rund um ChatGPT, gelegt. Angesagt ist nun eine nüchterne, praktische Betrachtungsweise.

Tatsächlich ist eine solche Entwicklung bei neuen Technologien, wie es die generative KI Ende 2022 war, völlig normal. Der Gartner Hype Cycle illustriert diesen Verlauf anschaulich: Es ist die Regel, dass auf einen Hype eine Ernüchterung folgt, bevor eine Technologie schließlich in die produktive Phase übergeht.

Überschaubar, aber mit großer Wirkung: Der Trend geht zu schlanken KI-Modellen

Sehr deutlich zeigt sich dieser Wandel beim Thema KI-Modelle: Während in der Anfangsphase des KI-Hypes oft große, komplexe Modelle im Vordergrund standen, zeigt sich heute ein klarer Trend zu kleineren, effizienteren Modellen. Diese sogenannten „Nimble AI Models“, die sich auf spezifische Aufgaben konzentrieren, sind deutlich praktikabler. Denn sie bergen für Unternehmen in der Praxis einen klaren Vorteil: Sie senken die Einstiegshürden in die KI deutlich, weil sie es Firmen ermöglichen, mit überschaubarem Aufwand und vorhandener Infrastruktur erste Schritte in die Welt der KI zu gehen.

Entsprechend schnell können „Nimble AI Models“ erste Ergebnisse liefern und die Investitionen in KI „rentabel“ machen. Auf diese Weise werden sie insbesondere für mittelständische Unternehmen attraktiv.

Die Strategie von Intel: KI für jeden zugänglich machen

Diesen Trend hin zu „Nimble AI Models“ hat Intel genau erkannt – und reagiert darauf mit der Vision „AI Everywhere“. Konkret bedeutet das: Intel möchte für eine Vielzahl von kleineren KI-Modellen, Anwendungsbereichen und Anforderungen sowohl die notwendige Hardware als auch Software entwickeln. Ob die anschließende Bereitstellung im lokalen Rechenzentrum, in der Cloud oder in hybriden IT-Umgebungen erfolgt, spielt keine Rolle.

Beispiele für Hardware- und Software-Lösungen von Intel, die speziell für den KI-Bereich gedacht sind, sind die neuen Intel Xeon 6-Prozessoren für die Ausführung von KI-Workloads, die Intel Gaudi KI-Beschleuniger und die Software-Tools der Intel Tiber-Plattform, die bei der Erstellung und Bereitstellung von KI-Modellen helfen können. 

Dabei verfolgt Intel einen praxisorientierten Ansatz: Unternehmen sollen KI bereits mit vorhandenen Ressourcen aufbauen und dann mit den richtigen und gezielten Investitionen hochskalieren können. Damit soll KI für jedermann zugänglich gemacht werden.

Das Ziel lautet: KI-Ökosystem

Um die Vision „AI Everywhere“ zu verwirklichen, plant Intel für die Zukunft, ein ganzes KI-Ökosystem zu schaffen. Dafür baut Intel aktuell ein breites Partnernetzwerk mit weiteren Technologieführern und der Entwicklergemeinschaft auf. Schon heute pflegt der IT-Konzern zahlreiche Partnerschaften. Dadurch soll gewährleistet werden, dass neue Entwicklungen und Verbesserungen im KI-Bereich schnell und umfassend implementiert werden sowie den neuesten regulatorischen Anforderungen, etwa den Bestimmungen des AI Acts, entsprechen.

In diesem Kontext setzt Intel stark auf die Förderung von Open Source: So integriert das Unternehmen seine Softwareentwicklungen direkt in führende KI-Frameworks, damit Entwickler von optimierten Funktionen und einer verbesserten Performance profitieren. Durch eigens entwickelte Toolkits soll Entwicklern ermöglicht werden, KI-Anwendungen zu erstellen und nahtlos in bestehende Systeme zu integrieren – ohne an bestimmte Anbieter gebunden zu sein. Diese offene Herangehensweise soll einen Vendor Lock-in verhindern und sicherstellen, dass Entwickler die maximale Leistung aus Intel-Hardware herausholen können.

AI in a Box von CANCOM: Konkrete Lösungen für spezifische Use Cases

Das zeigt: Intel verfolgt mit „AI Everywhere“ einen sehr praxisorientierten Ansatz. Kleinere, effizientere KI-Modelle sowie eine flexible, skalierbare Infrastruktur stehen hier im Fokus. Ziel von Intel ist es, KI-Technologien für jedermann zugänglich zu machen und für eine Vielzahl von Branchen zu adaptieren – um KI von einer Hype-Technologie zu einem festen Bestandteil des täglichen Geschäftsbetriebs zu transformieren.

Dieser Ansatz von Intel harmoniert optimal mit unserer Herangehensweise an das Thema KI: Auch wir als CANCOM möchten unseren Kunden einen unkomplizierten Einstieg in das Thema KI ermöglichen. Dazu bieten wir sogenannte „AI in a Box“-Lösungen an. Mit „Box“ ist hier der Bare Metal Server gemeint, auf dem die jeweiligen KI-Modelle und -Workloads laufen.

Konkret bieten wir Kunden mit „AI in a Box“ drei vorkonfigurierte Servergrößen – S, M und L – an, die auf die Anforderungen konkreter Anwendungsfälle zugeschnitten sind: vom KI-Einsteiger bis zum KI-Profi. Sämtliche Servervarianten basieren auf der leistungsstarken Hardware von Intel und sind so konzipiert, dass sie nahtlos in bestehende IT-Infrastrukturen integriert werden können.

Größe S richtet sich an Unternehmen, für die KI noch nicht zum Unternehmensalltag gehört und einfache KI-Workloads betreiben möchten. Mit der M-Konfiguration erhalten Kunden ein System, das für fortgeschrittene Anwendungsfälle optimiert ist und durch KI-Beschleuniger unterstützt wird. Die L-Version wiederum bietet maximale Rechenleistung für Unternehmen, die auf massive Datenmengen und komplexe Modelle angewiesen sind – wie etwa bei der Entwicklung generativer KI-Lösungen.

Dank dieser beschriebenen, modularen Herangehensweise können Unternehmen eine Lösung erwerben, die genau auf ihre KI-Workloads zugeschnitten ist. Eine Lösung, die sicher im eigenen Rechenzentrum läuft und auf lizenzbasierte Einschränkungen verzichtet. Gleichzeitig können wir umfassend unterstützen, wenn es darum geht, „AI in a Box“ im Unternehmen zu implementieren und zu betreiben.

Sie wünschen eine unverbindliche Beratung rund um die Themen KI und Intel? Dann kontaktieren Sie gerne die Experten von CANCOM.

Hintergrund zum Experten

Eva Dölle

AI Consultant, CANCOM

eva-doelle

Eva Dölle arbeitet als AI Consultant bei CANCOM. In ihrer Position beschäftigt sie sich täglich mit den unterschiedlichsten Facetten des Themas KI.

Ein besonderer Fokus liegt dabei auf den verschiedenen Hard- und Software-Lösungen von Intel für den KI-Bereich.

Mehr zum Thema „Artificial Intelligence“

240920_cc_info_samsung_galaxy_ai_Sprachbarrieren_abbauen
Mit KI Sprachbarrieren abbauen und visuelle Inhalte optimieren

Die neue Galaxy AI-Serie von Samsung ist mit KI-Funktionen ausgestattet, die Sprachbarrieren im Business-Alltag überwinden sollen.

Lesedauer: 3 Min.

kuenstliche-intelligenz-ki-ibm-cancom
Künstliche Intelligenz richtig einsetzen: So können CANCOM und IBM unterstützen

Wie können CANCOM und IBM Firmen beim Thema Künstliche Intelligenz unterstützen? Das erfahren Sie im Video mit Martin Mayr (CANCOM) und Steffen Güntzler (IBM).

Lesedauer: 1 Min.

dell-ai-factory
AI ganzheitlich denken: die Dell AI Factory

Der praktische Einsatz von AI-Lösungen birgt zahlreiche Herausforderungen. Die Dell AI Factory soll dazu beitragen, diese zu meistern.

Lesedauer: 7 Min.