Revolution im Datacenter: So baut Cancom die KI-Zukunft

100 Gäste auf dem exklusiven "Modern AI Datacenter Summit" in München, 100 potenzielle Kunden, die mit Cancom und den Technologiepartnern Nvidia und Arm auf die KI-Reise gehen. Der IT-Dienstleister stellt IT-Entscheidern seine Blaupause für KI-Projekte vor.

Zusammen mit Nvidia und Arm lud Cancom rund 100 Endkunden zum exklusiven "Modern AI Datacenter" Summit in DACH nach München ein

CRN fragt in der Pause des "Modern AI Datacenter Summit" den IT-Leiter einer Wohnungsgesellschaft, welche KI-Szenarien er sich für sein Unternehmen vorstellen könne? Mehr als 70.000 Wohnungen, 1.000 Gewerbeeinheiten, 150.000 Mieter, 1.200 Beschäftigte: die städtische Firma gehöht zu den großen Playern im Wohnungsmarkt. Es sprudelt nur so von Ideen, wo KI zum Einsatz kommen könnte: Informationen zum Gebäudebestand, Sanierungsbedarfe, Kommunikation mit den Mietern in vielen Sprachen, die sich mit automatischen Übersetzungshilfen reibungsloser gestalten könnte, das gesamte Vertragswesen. Und da wäre die Sache mit der kürzlich in einem Gebäude ausgefallenen Heizungsanlage: hätten Sensoren den Defekt vor dem Ausfall erkannt, man hätte die Komponenten rechtzeitig austauschen und sich viel Ärger ersparen können. KI hat enormes Potenzial, kann die Produktivität bei jedem Unternehmen gewaltig steigern. Soweit der allgemeine Konsens auch bei den Entscheidern, die Cancom zu seinem exklusiven Event in den 8. Stock ins Hoch 5 und damit über den Dächern von München geladen hatte.

Ziel der Veranstaltung: IT-Entscheidern praxisnahe Lösungen, technologische Trends und strategische Impulse für die Weiterentwicklung ihrer Infrastruktur an die Hand zu geben – von der Planung bis zum Betrieb im KI-Zeitalter. Was sie von Cancom und seinen Technologiepartnern Nvidia und Arm zu hören bekommen ist nichts weniger als ein Paradigmenwechsel im Rechenzentrum: Moderne AI-Workloads stellen völlig neue Anforderungen an Leistung, Energieeffizienz und Skalierbarkeit. Referenten stellen neue Strategien für zukunftssichere Datacenter-Architekturen vor, diskutieren den Aufbau souveräner KI-Infrastruktur in Deutschland stellen Innovationen rund um IT-Automatisierung, Skalierung und Energieeffizienz vor.

Klassische Rechenzentren sind für allgemeines Computing und nicht für KI-Workloads gemacht. Für Letzteres braucht man eine "AI Factory", sagt Eoin McConnell, der das Grace-Portfolio von Nividia verantwortet. Eine solche Führungskraft des Chipherstellers kommt nicht zu jedem Event eines Partners. Dass sich der Topmanager die Ehre gibt auf dem "Modern AI Datacenter Summit" von Cancom in München, erfährt man spätestens dann, als die Speaker von Cancom Austria ihre personellen Ressourcen für KI-Projekte vorstellen: 150 IT-Architekten halten 475 Nvidia-Zertifizierungen, u.a. 35 als AI Advisor.

Eoin McConnell, Top-Manager bei Nividia: "Jedes Unternehmen wird eine AI Factory haben". Die aber baue Nvidia nicht selbst, sondern Partner wie Cancom.

"Wir beschäftigten uns schon lange mit KI", sagt Dietmar Wiesinger, Vorstand bei Cancom Austria. Lange vor dem Kauf der K-Business mit ihren mehr als 1.600 Beschäftigen, die Cancom 2023 erworben hatte. Und lange vor dem "iPhone-Moment" im November 2022. Da hatte ChatGPT die KI-Welle losgetreten. Seither ist für die IT-Branche eine neue Zeitrechnung angebrochen, was auch mehr und mehr Unternehmen zu begreifen, nicht aber unbedingt sofort zu realisieren beginnen, zu realisieren beginnen können.

"Jedes Unternehmen wird eine AI Factory haben"

Die Herausforderungen sind groß, die IT-Budgets freilich geben nicht sofort alles her, was sich IT-Leiter schon jetzt vorstellen können. Die Botschaft aus der Industrie ist allerdings unmissverständlich und wohl nicht nur vom Standpunkt des Marketings und Vertriebs getrieben. "Jedes Unternehmen wird eine AI Factory haben", sagt Nvidia-Manager McConnell und verweist auf das Partnernetzwerk des Chipherstellers: "Es ist nicht Nvidias Ziel, diese zu bauen. Dafür haben wir unser Ökosystem-Partner wie Cancom".

Nvidia liefert diese "Full Stack AI Factory". Hochleistungschips für KI-Workloads sind genauso wichtig wie zahlreiche Softwareplattformen. OEMs wie HPE und Dell bauen darauf Komplettlösungen, Cancom integriert sie. Davor allerdings steht eine umfassende Beratung: Vom ersten "AI Discovery Workshop" bis hin zum Betrieb von KI-Lösungen. Alle Stufen deckt Cancom ab, die Sinan Tankaz anhand einer Folie aufzeigt.

Cancom Orchestrator.AI

Der Director Digital Solutions & AI bei Cancom gibt einen Überblick zu Orchestrator.AI, die Blaupause, anhand derer Kunden sehen, welche Voraussetzungen Cancom abklopft, wo sie einsteigen können bis zur Betriebsreife einer KI-Lösung. "In jeder Phase ihres AI-Prozesses können Sie Cancom-Experten hinzuziehen", sagt Sinan Tankaz.

Das Rad erfindet Cancom nicht jedes Mal neu, vielmehr nutzt der IT-Dienstleister Module aus vielen schon realisierten KI-Projekten, die auch in KI-Lösungen anderer Kunden verwendet werden können. Je nach individuellem Bedarf werden neue Module entwickelt oder bereits vorhandene eingesetzt. Projektmanager, Software- und Business-Architekten, Software-Entwickler und Data-Scientists begleiten ein KI-Projekt in seiner gesamten Phase.

Gastgeber Martin Mayr, VP bei Cancom: "KI braucht ein starkes Partnerökosystem"

"Full Stack" heißt für KI-Berater Cancom auch, das Hosting von KI-Workloads zu betreiben. Wenn gewünscht in sicheren Rechenzentren, die alle regulatorischen Anforderungen vor allem für Kunden mit Sitz in Euro erfüllen. "Die Nachfrage nach digitalsouveränen Lösungen ist signifikant hoch", bestätigt Gernot Hafner, VP Competence Center bei Cancom, einen Trend, auf den auch die Hyperscaler aus den USA reagierten und dezidierte EU-Rechenzentren oder private AI-Cloud-Umgebungen anbieten.

"Wie stehen auf den Schultern von Riesen"

Denn eins ist für Martin Mayr, Gastgeber des Modern AI Datacenter Summit klar: "AI is a ecosystem play", sagt der VP, der seit der Gründung von Cancom 1992 beim Münchner IT-Dienstleister dabei ist und so einige IT-Revolutionen – den Personal Computer, das erste iPhone 2007, ASP bzw. Cloud Computing – erlebt hat. Die Schnelligkeit, mit der KI Einzug hält, übertrifft alle vorherigen Technologie-Inovationen. Das zeigt sich auch in den Geschäftszahlen der traditionellen Hardware- und Plattformanbieter, die explizit KI-bezogene Umsätze in Milliardenhöhe ausweisen. Sie wachsen deutlich schneller als andere Hardwarebereiche wie Server, Netzwerke oder Storage und auch schneller als Software-Lösungen und Security-Plattformen. Ob Cancom schon KI-Erlöse in dreistelliger Millionenhöhe verbuche, fragt CRN Mayr? Er nennt keine Details, zeigt sich aber nicht verwundert.

Ohne die enge und vertrauensvolle Zusammenarbeit mit US-Herstellern jedenfalls wäre weder Cancom noch der Wettbewerb in eine führende Rolle als Systemhaus aufgestiegen. "Wie stehen auf den Schultern von Riesen", beschließt Mayr den exklusiven KI-Summit von Cancom, Nvidia und Arm in München, den einzigen, den das Trio in DACH am 24. Juni veranstaltete. Auf der Dachterrasse im Hoch 5 mit Blick über den Dächern Münchens diskutierten die Teilnehmer noch lange über die KI-Revolution, die in ihren Rechenzentren einziehen wird.

CRN-Newsletter beziehen und Archiv nutzen - kostenlos: Jetzt bei der CRN Community anmelden