« Vom Traum zum Portfolio: Risikoprofiling | Home | US-Marktmacht, enge Credit-Spreads und KI-Revolution: Anleger vor einer neuen Ära »
Grenzen von KI-Sprachmodellen bei Unternehmensinformationen
Von Dr. Oliver Everling | 3.November 2025
Große Sprachmodelle wie ChatGPT beeindrucken durch ihre Fähigkeit, in Sekunden komplexe Texte zu verstehen, zu strukturieren und zu formulieren. Sie können Zusammenhänge erklären, Konzepte analysieren und in nahezu jedem Themenfeld sprachlich überzeugend agieren. Doch wenn es um konkrete, überprüfbare Informationen über Unternehmen geht, stoßen diese Systeme schnell an ihre Grenzen.
LLMs werden auf riesigen Textmengen trainiert, die aus öffentlich verfügbaren Quellen stammen – Webseiten, Bücher, Artikel, Datenbanken mit offener Lizenz. Unternehmensdaten aus amtlichen Quellen, Handelsregistern oder professionellen Datenbanken gehören in der Regel nicht dazu. Wenn eine Gesellschaft wie die DEMET Deutsche Edelmetall Recycling AG & Co. KG schon vor Jahren liquidiert oder gelöscht wurde, taucht sie in den Trainingsdaten schlicht nicht auf – insbesondere dann, wenn sie nie in breiter Öffentlichkeit oder Medienberichterstattung erwähnt wurde. Ein Sprachmodell weiß also nur das, was in den verfügbaren Trainingsquellen enthalten war – und das ist bei kleineren oder längst aufgelösten Unternehmen meist so gut wie nichts.
Zwar kann ChatGPT inzwischen, je nach Version, auf das Internet zugreifen, doch dieser Zugriff ersetzt keine spezialisierte Wirtschaftsdatenbank. Die KI kann zwar eine Google-ähnliche Suche durchführen, ist aber auf öffentlich sichtbare Webinhalte beschränkt. Informationen, die nur in regulierten Datenbanken wie dem Handelsregister, Unternehmensregister, North Data oder in proprietären Wissensgraphen wie denen der Palturai GmbH vorliegen, bleiben verborgen. Während ChatGPT zu „DEMET Deutsche Edelmetall Recycling AG & Co. KG“ keine relevanten Treffer findet, zeigt der Datendienst Palturai Gründung und auch immerhin an, dass diese Gesellschaft bereits 2004 aufgelöst wurde. Der Unterschied liegt in der Art der Datenbasis: Palturai aggregiert strukturierte Register- und Netzwerkdaten aus offiziellen Quellen, während ChatGPT primär unstrukturierte Webtexte verarbeitet.
Ein weiteres Risiko besteht darin, dass LLMs in Ermangelung echter Informationen plausibel klingende, aber falsche Antworten generieren können – sogenannte Halluzinationen. Wenn eine Firma nicht bekannt ist, kann das Modell fälschlicherweise ähnliche Namen, Branchen oder Adressen miteinander vermischen. Gerade bei häufig verwendeten Begriffen wie „Edelmetall“ oder „Recycling“ ist das ein realistisches Risiko. Ohne klare Quellenangabe sollte man KI-generierte Unternehmensinformationen daher nie ungeprüft übernehmen.
Dienste wie Palturai, North Data, Creditreform, Bisnode/Dun & Bradstreet oder das Bundesanzeiger- und Handelsregisterportal bieten strukturierte, regelmäßig aktualisierte Informationen über Gesellschaften, ihre Beteiligungen und Statusänderungen. Sie sind – im Gegensatz zu allgemeinen KI-Systemen – explizit auf rechtliche und wirtschaftliche Datenhaltung ausgelegt und unterliegen klaren Compliance-Regeln.
ChatGPT und vergleichbare Systeme sind hervorragende Werkzeuge, um Texte zu verstehen, Muster zu erkennen oder Inhalte zu kontextualisieren, nicht aber, um verlässliche, rechtsverbindliche Unternehmensinformationen zu liefern. Wer wissen will, ob eine Gesellschaft noch existiert, wer hinter ihr steht oder wann sie aufgelöst wurde, sollte auf Fachportale oder amtliche Register zurückgreifen – oder auf spezialisierte Datenanbieter wie Palturai, die solche Informationen aufbereiten und vernetzen.
Themen: Ratings | Kommentare deaktiviert für Grenzen von KI-Sprachmodellen bei Unternehmensinformationen
Kommentare geschlossen.
Börse hören. Interviews zu aktuellen Ratingfragen im Börsen Radio Network. Hier klicken für alle Aufzeichnungen mit Dr. Oliver Everling seit 2006 als Podcasts.










