Robo ante portas: Unternehmen holen KI wieder nach Hause

Tatsächlich haben vier von fünf (79 %) Unternehmen KI-Workloads von der Public Cloud zurück auf die eigene On-premises-Infrastruktur migriert. Das ergibt die unabhängige Umfrage vom Forschungsunternehmen Centiment, für die im Auftrag von Cloudian 203 Entscheidungsträger im Bereich KI-Strategie, Investments oder Infrastruktur befragt wurden. Rund 73 % der Unternehmen geben an, zukünftig vermehrt auf On-premises- oder Hybride-Infrastrukturen setzen zu wollen. Der Enterprise AI Infrastructure Survey 2026 identifiziert drei zentrale Faktoren, die diese Entwicklung vorantreiben: Bedenken hinsichtlich der Datenhoheit, unvorhersehbare Kosten für die Cloud-Nutzung und Anforderungen an die Echtzeit-Performance.
Gute Gründe für On-premises-Infrastrukturen
Das Thema Datensouveränität ist mit Abstand der wichtigste Faktor, um auf lokale Server zu setzen. Bei der Implementierung von KI-Anwendungen, die sensible Unternehmensdaten verarbeiten, würden 91 % der Befragten Alternativen zur Public Cloud vorziehen. Zudem stufen rund drei Viertel (74 %) die unkontrollierteNutzung von Cloud-KI-Tools durch Mitarbeitende als kritisches oder erhebliches Sicherheitsrisiko ein. Und 58 % berichten, dass Bedenken hinsichtlich des Speicherortes sensibler Daten ihre KI-Initiativen verzögert oder negativ beeinflusst haben.
Auch finanziell sehen viele Unternehmen in der eigenen Infrastruktur eine besser planbare Alternative: 40 % der Unternehmen geben zu Protokoll, dass die tatsächlichen Ausgaben für die Nutzung von Cloud-basierten KI-Workloads das vorgesehene Budget überstiegen haben. Dementsprechend nennt fast die Hälfte die Unvorhersehbarkeit der Cloud-Kosten, einschließlich der schwierigen Prognose der Gesamtbetriebskosten und schwankender verbrauchsbasierter Preismodelle, als Hindernis für eine Ausweitung der generellen KI-Nutzung.
Der dritte Faktor, der für die Nutzung von On-premises-Infrastrukturen spricht, ist die Performance. Für drei Viertel der Befragten (75 %) bieten nur lokale Server eine akzeptable Leistung für aktuelle oder geplante KI-Workloads. Praktische Anwendungen, die von einer On-premises-Implementierung profitieren, umfassen die Echtzeit-Videoanalyse, Qualitätskontrolle in der Fertigung und die latenzarme Verarbeitung von Transaktionen.
KI-Budgets fließen in die lokale Infrastruktur
In diesem Jahr sorgen unter anderem diese Gründe dafür, dass auch die KI-Budgets steigen, das erwarten jedenfalls 86 % der Befragten. Und das nicht zu knapp: 40 % prognostizieren eine Budgetsteigerung für Investitionen in Künstliche Intelligenz von 25 % oder mehr. Da immer mehr Unternehmen auf Hybrid-Cloud- oder On-premises-Modelle setzen wollen oder müssen, wird aller Voraussicht nach ein Großteil dieser Finanzspritzen in den Auf- und Ausbau der lokalen KI-Infrastrukturen fließen.
„Unternehmen kehren der Public Cloud natürlich nicht den Rücken. Sie machen sich nur mehr Gedanken, wo welche KI-Workloads am besten angesiedelt sind“, betont Jon Toor, CMO bei Cloudian. „Der Enterprise AI Infrastructure Survey 2026 bestätigt, was wir täglich von unserenKunden hören: Wenn sensible Daten, planbare Kosten und Echtzeitleistung entscheidend sind, bietet eine lokale KI-Infrastruktur Vorteile, die die Public Cloud nicht erreichen kann.“
Die vollständige Studie steht hier zum kostenlosen Download bereit: https://cloudian.com/lp/ai-survey-report/
Diese Presseinformation, eine Grafik und das Bild in höherer Auflösung können unter www.pr-com.de/companies/cloudian abgerufen werden.
Categories: Allgemein
No Responses Yet
You must be logged in to post a comment.