Jetzt ansehen: KI zwischen Hype und Handlungsdruck – Realitätscheck für 2026

«Dokumente aus 20 Jahren einfach in eine Vektordatenbank zu kippen, ist keine Strategie» 

Vom Fachbereich bis zum CIO spüren derzeit wohl alle denselben Druck: Wir müssen jetzt irgendetwas mit KI machen. Proof-of-Concepts werden gestartet, Pilotprojekte angekündigt – doch zentrale Fragen bleiben offen und Unsicherheiten bestehen: Können wir der KI vertrauen? Wie erklären wir ihre Entscheidungen? Und wer behält am Ende wirklich die Kontrolle?

Genau hier setzt unser Webinar an: Gemeinsam mit Prof. Dr. Ute Schmid von der Universität Bamberg und unserem CEO Thomas Gomell schauen wir hinter die Buzzwords und sprechen darüber, wie Sie LLMs und KI so einsetzen, dass Erklärbarkeit, Vertrauen und Steuerbarkeit nicht auf der Strecke bleiben

Jetzt die Aufzeichnung ansehen:



Künstliche Intelligenz im Realitätscheck: Warum Datenkuratierung wichtiger ist als das nächste Modell

KI ist überall: In Präsentationen, in Strategiepapieren – und gefühlt in jeder zweiten Software. Doch während der Hype zunimmt, bleiben viele grundlegende Fragen offen:

  • Kann ich den Antworten meiner KI vertrauen?
  • Wie halte ich meine Mitarbeitenden fachlich fit, wenn „die Maschine“ immer mehr übernimmt?
  • Und: Wie bereite ich Unternehmenswissen so auf, dass KI überhaupt sinnvolle Ergebnisse liefern kann?

Genau darum ging es im Experten-Webinar – mit einem klaren Fokus auf Wissensmanagement, Datenstrukturierung und Knowledge Graphs als Basis für erklärbare KI.

1. Zwischen Hype und Realität: Wo KI heute wirklich steht

Zu Beginn stand die Frage im Raum: Ist der aktuelle KI-Hype gerechtfertigt – oder sitzen wir auf einer Blase?

Prof. Dr. Ute Schmid, die seit den 1990er-Jahren zur Künstlichen Intelligenz forscht, ordnete ein: Die Blase werde nicht komplett platzen, „aber in manchen Ecken schon“.
Während aktuell der „Kampf der großen Modelle“ und generative KI die Schlagzeilen dominieren, passiert die eigentliche Innovation leiser – etwa bei agentischen Modellen und im Umfeld von Retrieval-Augmented Generation (RAG).

Entscheidend ist dabei weniger, wie groß ein Modell ist, sondern wie gut das Wissen dahinter strukturiert ist.

2. Das eigentliche Problem: Informationsflut, Datenmüll und Halluzinationen

Ein roter Faden des Webinars: Vertrauen in Informationen.

Halluzinationen sind oft ein Symptom – nicht die Ursache

Halluzinationen – also falsche oder frei erfundene Inhalte – sind kein exotisches Randproblem, sondern in vielen Unternehmensszenarien Alltag. Spannend dabei: Häufig sind sie nicht (nur) ein Modellproblem, sondern ein Kontextproblem.

Wenn die Eingabe unscharf, widersprüchlich oder unpräzise ist, liefert auch das beste Modell schlechte Antworten. Oder wie es zugespitzt formuliert wurde:

„Wenn du schlechte Fragen stellst, bekommst du schlechte Antworten.“

Big Data ohne Kuratierung: Mehr ist nicht gleich besser

Aus dem Big-Data-Zeitalter stammt noch die Hoffnung: Wir speichern einfach alles – KI wird es schon richten. Genau das sorgt heute für massive Reibungsverluste:

  • Unternehmen archivieren über Jahrzehnte hinweg nahezu alles, statt zu entscheiden, was wirklich wichtig ist.
  • Für Menschen wie für KI verschwimmt dadurch die Grenze zwischen relevantem Wissen und „Datenrauschen“.
  • Die KI muss aus einem unstrukturierten, übervollen Datenpool die wenigen hochwertigen Informationen herausfischen – ein Spiel mit schlechten Karten.

Das Ergebnis: Modelle haben es schwer, belastbare Antworten zu liefern, weil der Input weder kuratiert noch strukturiert ist.

„Mehr Content“ ist keine Strategie

Rund 40 % der Unternehmen setzen KI bereits aktiv ein, und zwar in erster Linie für Marketing, Content-Erstellung und Chatbots. Doch wenn KI nur genutzt wird, um noch schneller noch mehr Inhalte zu erzeugen, „vermüllen“ wir unsere digitale Landschaft weiter – ohne die zugrunde liegenden Strukturprobleme zu lösen.

3. Mensch und KI als Team: Human-in-the-Loop statt Autopilot

Ein zentrales Motiv des Webinars war die Frage: Wie verhindern wir, dass Mitarbeitende zu „Abnickern von KI-Ausgaben“ werden?

Skill-Skipping: Wenn Kompetenzen unbemerkt erodieren

In großen Unternehmen ist bereits zu beobachten, dass Mitarbeitende nach intensiver Nutzung von ChatGPT & Co. sich kaum noch in der Lage fühlen, einen Text „from scratch“ zu schreiben. Stattdessen wird nur noch gepromptet, korrigiert und freigegeben. Das birgt Gefahren:

  • Fachliche und sprachliche Kompetenzen werden schleichend abgebaut.
  • Mitarbeitende verlassen sich zunehmend auf Systeme, die sie weder kontrollieren noch wirklich verstehen.
  • Im Extremfall entsteht ein „WALL-E-Szenario“: Menschen geben Verantwortung ab und degradieren sich selbst zu Kommentatoren von KI-Ergebnissen.

Hochleister nutzen KI als Sparringspartner

Das Webinar machte aber auch deutlich: Es geht nicht darum, KI zu verteufeln – im Gegenteil. Wer KI als Sparringspartner nutzt, profitiert enorm:

  • Bessere Ideen durch schnelle Variation und Iteration
  • Höhere Qualität durch strukturierte Gegenprüfung
  • Mehr Output bei gleichbleibender oder sogar besserer inhaltlicher Tiefe

Die klare Prognose: Mitarbeitende und Unternehmen, die lernen, KI reflektiert einzusetzen und ihre eigenen Kompetenzen bewusst weiterzuentwickeln, werden diejenigen überholen, die sich der Technologie verschließen – und diejenigen, die sich ihr kritiklos ausliefern.

4. Knowledge Graphs & neuro-symbolische KI: Vom Datenhaufen zum Unternehmenswissen

Die spannendste Frage im zweiten Teil des Webinars lautete: Wie schaffen wir die Basis dafür, dass KI in Unternehmen verlässlich, erklärbar und kontrollierbar wird?Die Antwort: Wissensgraphen (Knowledge Graphs) und neuro-symbolische KI.

„Dokumente aus 20 Jahren einfach in eine Vektordatenbank zu kippen, ist keine Strategie.“

Stattdessen braucht es bewusstes Kuratieren von Daten:

  • Welche Dokumente sind fachlich relevant und aktuell?
  • Wo liegen verbindliche Wahrheiten (Policies, Verträge, Architekturstände, Freigaben)?
  • Welche Informationen dürfen überhaupt in KI-Kontexte einfließen (Compliance, Datenschutz)?

Das empfohlene Vorgehen: Cherry Picking – Nur ausgewählte, qualitativ hochwertige Informationen werden in den Wissensgraphen überführt. Das senkt Kosten, reduziert Umweltbelastung (weniger Rechenaufwand) und – vor allem – hebt die Qualität der Antworten.

Was macht einen Knowledge Graph so mächtig?

Ein Knowledge Graph zerlegt unstrukturierte Informationen – z. B. Dokumente, E-Mails oder Tickets – in Entitäten (Objekte, Personen, Systeme, Prozesse) und Beziehungen (wer hängt wie mit wem oder was zusammen). Statt Dateien einfach nur abzulegen, entsteht ein Netz aus:

  • Fachbegriffen
  • Systemen und Schnittstellen
  • Verantwortlichkeiten
  • Regeln, Richtlinien und Ausnahmen

Diese verknüpfte Information erzeugt eine „verbundene Energie“:
Die KI greift nicht mehr auf unzusammenhängende Textfragmente zu, sondern auf ein Unternehmensmodell mit Kontext und Struktur.

Neuro-symbolische KI: Das Beste aus zwei Welten

Wissensgraphen sind keine neue Idee – sie stammen aus einer Zeit, in der KI noch stark wissensbasiert war. Heute werden sie mit modernen Sprachmodellen kombiniert:

  • Neuronale Komponenten (LLMs) sorgen für Sprachverständnis, Generierung und Interaktion.
  • Symbolische Komponenten (Knowledge Graphs) liefern Struktur, Regeln, Beziehungen und überprüfbare Fakten.

Dieser neuro-symbolische Ansatz macht KI:

  • erklärbarer (Antworten lassen sich auf konkrete Knoten und Kanten im Graphen zurückführen),
  • kontrollierbarer (Regeln und Governance lassen sich abbilden),
  • nachhaltiger (Wissen überlebt Generationswechsel von Tools und Modellen).

Im Webinar wurde exemplarisch gezeigt, wie ein Knowledge-Graph-Framework wie aikux.Brain bzw. die dahinterliegende Graph-Technologie als Fundament für Lösungen wie migRaven.MAX dienen kann – und so Unternehmenswissen, IT-Daten und KI intelligent verbindet. (Migraven)

5. Technologische Souveränität: Warum Europa eigene Antworten braucht

Zum Abschluss ging es um eine strategische Perspektive: Wollen wir unsere Unternehmensintelligenz dauerhaft von einigen wenigen US- oder chinesischen Anbietern abhängig machen? Die Risiken liegen auf der Hand:

  • Strategische Abhängigkeit von einzelnen Plattformen und Clouds
  • Unklarheit über Datenflüsse und Nutzungsrechte
  • Schwierige Ausgangslage für Regulierung, Auditierbarkeit und Compliance

Gleichzeitig gilt: Wenn Mitarbeitende ihr eigenes Denken reduzieren und immer mehr Entscheidungen an (nicht-erklärbare) Systeme auslagern, entsteht eine „extreme Gefahr fürs Unternehmen“ – sowohl fachlich als auch organisatorisch.

Der Appell des Webinars:
Europa muss investieren – in eigene Plattformen, in erklärbare KI, in Daten- und Wissensarchitekturen, die nicht nur effizient, sondern auch souverän und auditierbar sind.

Fazit: Ohne Datenkurierung keine verantwortungsvolle KI

Das Webinar machte deutlich:

  • Das Problem ist nicht KI – es ist unser Umgang mit Wissen und Daten.
  • Wer seine Informationslandschaft nicht kuratiert, bekommt unzuverlässige, schwer erklärbare Antworten.
  • Wer Mitarbeitende nicht befähigt, reflektiert mit KI zu arbeiten, riskiert den Verlust wichtiger Kompetenzen.
  • Wer sein Unternehmenswissen strukturiert – z. B. in einem Knowledge Graph – schafft die Grundlage für erklärbare, sichere und souveräne KI-Anwendungen.

Für Unternehmen heißt das konkret:

  1. Daten aufräumen und kuratieren statt „einfach alles speichern“.
  2. Human-in-the-Loop-Strukturen etablieren, damit Fachkompetenz und KI sich gegenseitig verstärken.
  3. Knowledge-Graph-Ansätze prüfen, um Unternehmenswissen langfristig modellierbar, verknüpfbar und auditierbar zu machen.
  4. Eigene Souveränität sichern – technisch, organisatorisch und strategisch.