KI-Halluzinations-Studie 2026: ChatGPT erfindet 96 % aller Geschäftsführer im DACH-Mittelstand

Studiendesign
Untersucht wurden 150 mittelständische Unternehmen aus Österreich, Deutschland und der Schweiz\“verteilt auf 11 Branchen, darunter Tourismus&Gastronomie, Handel, IT&Dienstleistung, Produktion&Industrie, Recht&Steuerberatung, Transport&Logistik, Handwerk&Bau, Gesundheit&Pflege sowie Immobilien&Hausverwaltung.
Pro Unternehmen wurden drei standardisierte Prompts eingesetzt: eine branchenspezifische Empfehlungsfrage, eine Faktenfrage zu Gründungsjahr, Geschäftsführung, Mitarbeiterzahl und Auszeichnungen sowie eine Reputationsfrage. Alle Tests erfolgten im Inkognito-Modus ohne eingeloggten Account in separaten Chat-Sitzungen. Die Faktenprüfung erfolgte gegen Firmenbuch, Unternehmenswebsites, WKO und Creditreform.
Zentrale Ergebnisse der Studie
Sichtbarkeit: 56 % der getesteten Unternehmen werden bei branchenspezifischen Empfehlungsfragen von ChatGPT nicht genannt. Besonders betroffen ist die Immobilienbranche mit einer Sichtbarkeitsquote von 0 %. Die höchste KI-Sichtbarkeit verzeichnet der Bereich Gesundheit&Pflege mit 88 %.
Korrektheit: Lediglich 4 von 150 Unternehmen\“also 3 %\“wurden von ChatGPT vollständig korrekt dargestellt. Bei 45 % der Unternehmen lieferte die KI konkret falsche Fakten (Halluzination), bei weiteren 37 % verweigerte sie jede konkrete Aussage.
Halluzinationsraten nach Faktenkategorie:
* Geschäftsführer / CEO: 96 % der genannten Namen sind frei erfunden
* Gründungsjahr: 78 % der Angaben sind falsch, teils mit Abweichungen von über 160 Jahren
* Mitarbeiterzahl: 68 % falsch
* Auszeichnungen und Zertifizierungen: 58 % falsch
Darstellung: 65 % der Unternehmen werden positiv dargestellt, 14 % negativ, 21 % erhalten gar keine Einschätzung. Bemerkenswert: 97 % aller negativen KI-Darstellungen basieren auf Arbeitgeberbewertungsportalen\“nicht auf Kundenbewertungen oder Presseberichten.
Das strukturelle Kernproblem
\“Das gefährlichste Muster unserer Studie ist nicht die Halluzination an sich\“sondern wann sie auftritt\“, erklärtHarald Fischl, Geschäftsführer von maxonline®und verantwortlich für die Studie.\“Völlig unbekannte Unternehmen erhalten von ChatGPT eine ehrliche Verweigerung. Unternehmen mit fragmentarischem KI-Wissen erhalten selbstbewusst vorgetragene Falschinformationen, die auf den ersten Blick korrekt wirken. Je ‚halb-bekannter eine Firma ist, desto gefährlicher wird die Antwort.\“
Die Studie zeigt zudem, dass klassische SEO-Signale\“gezielte Landingpages, strukturierte Daten, eine kritische Masse an Bewertungen\“direkt mit der KI-Sichtbarkeit korrelieren. Unternehmen mit sprechenden, branchenspezifischen Domains wurden häufiger korrekt zugeordnet und empfohlen.
Handlungsempfehlung
maxonline® empfiehlt betroffenen Unternehmen, ihre Kerndaten\“Gründungsjahr, Geschäftsführung, Standorte, Mitarbeiterzahl, Zertifizierungen\“aktiv und konsistent auf der eigenen Website zu platzieren und mit strukturierten Daten nach Schema.org maschinenlesbar auszuzeichnen. Organization-Markup, Person-Markup, Service-Markup und Review-Markup liefern KI-Modellen genau die Fakten, die sie andernfalls halluzinieren.
\“KI-Halluzinationen sind kein Schicksal\“, so Fischl.\“Sie sind das Ergebnis fehlender Daten\“und damit ein lösbares Problem.\“
Alle Daten zur Studie hier lesen:
https://max-online.at/studien/ki-halluzinations-studie-2026-wie-chatgpt-ueber-den-oesterreichischen-mittelstand-berichtet/
Categories: Allgemein
No Responses Yet
You must be logged in to post a comment.