Knowledge Graph wird zur Grundlage für das Total Airport Management. Eine Analyse, wie die Kombination aus LLM und Knowledge Engineering das Problem der Daten und Nachverfolgbarkeit löst.
Das Problem zeigt sich nicht sofort — bis der Flughafen als eine Ansammlung isolierter Systeme zu arbeiten beginnt. Operative Daten sind zwischen den Abteilungen verteilt, die Terminologie ist nicht einheitlich, und die Prozesse sind in verstreuten Dokumenten beschrieben. Unter diesen Bedingungen wird selbst die grundlegende Synchronisation zwischen den Beteiligten (Piloten, Dispatcher, Bodenpersonal) zur Fehlerquelle. Die Kritikalität dieses Problems wird durch die Anforderungen an data provenance verstärkt — jede Entscheidung muss überprüfbar und an eine Quelle gebunden sein. Genau hier fungiert der Knowledge Graph als eine einheitliche semantische Schicht, aber sein Aufbau stößt traditionell auf manuelle Arbeit und schlechte Skalierbarkeit.
Die Autoren schlagen eine kompromissbehaftete Architektur vor: scaffolded symbolic fusion, bei der die formale Ontologie (Knowledge Engineering) das probabilistische Verhalten von LLM einschränkt. Im Kern steht ein vorgegebenes Schema basierend auf der NASA ATM Ontologie, das Klassen und Beziehungen definiert. LLM wird nicht als autonomer Generator verwendet, sondern als Mechanismus zur Extraktion von Tripeln (entity–relation–entity), die strikt an dieses Schema gebunden sind. Dafür wird LangExtract eingesetzt — eine Bibliothek, die Few-Shot-Prompting mit einer strengen Ausgabestruktur und einer obligatorischen Bindung an den Ausgangstext kombiniert. Ein wichtiger Punkt ist der doppelte Mechanismus: probabilistische Generierung + deterministische Überprüfung durch String-Matching (text.find, SequenceMatcher). Dies beseitigt das typische Problem von LLM — die “black box” ohne Erklärbarkeit.
Ein zentrales Experiment betrifft context window. Es werden zwei Modi getestet: segmentar (page-level) und vollständiges Dokument (document-level). Die Erwartung der Branche ist eine Qualitätsdegradation bei langen Kontexten aufgrund von “lost-in-the-middle”. Doch die Ergebnisse zeigen das Gegenteil. Bei der Verarbeitung des vollständigen Dokuments erreicht die Präzision 0.967, der Recall 0.982, F1 0.975. Die Anzahl der verpassten Verbindungen (FN) sinkt von 13 auf 8. Der Grund ist die nichtlineare Natur der Prozesse: In A-CDM sind die Abhängigkeiten oft im Text zerbrochen, und nur ein langer Kontext ermöglicht es, kausale Ketten wiederherzustellen. Segmentierung hingegen bricht diese Verbindungen. Dies ist ein wichtiges Signal für Systeme mit Prozesslogik: lokale Optimierung der Aufmerksamkeit verschlechtert die globale Integrität.
Eine separate Schicht ist die Nachverfolgbarkeit. Jedes extrahierte Tripel ist an einen bestimmten Satz der Quelle gebunden. Alle Extraktionen bestehen erfolgreich den Textübereinstimmungstest. Dies wird durch einen hybriden Ansatz erreicht: LLM generiert Kandidaten, aber die endgültige Fixierung erfolgt nur bei Bestätigung durch String-Matching (exact oder fuzzy). Interessanterweise entstehen die meisten Fehler (FP) genau in fuzzy-Matches, was zu erwarten ist — je weiter vom wörtlichen Text entfernt, desto höher das Risiko von Halluzinationen. Dennoch behält das System strenge Überprüfbarkeit, was für sicherheitskritische Bereiche entscheidend ist.
Die praktische Anwendung geht über den Knowledge Graph hinaus. Der erstellte Graph wird automatisch in swimlane diagrams umgewandelt, wobei jeder Schritt des Prozesses an einen bestimmten Stakeholder gebunden ist. Der Algorithmus verwendet eine modifizierte topologische Durchsuchung (BFS), um die Reihenfolge der Operationen wiederherzustellen und verteilt sie auf “Bahnen” der Verantwortung. Dies löst ein typisches Problem: KG ist an sich maschinenlesbar, wird aber von Menschen schlecht wahrgenommen. Die automatische Generierung visueller Artefakte schließt diese Lücke und macht die Daten für die operationale Analyse und das Lernen nutzbar.
Für die Branche erscheint dies als pragmatischer Weg zur Integration von LLM in strenge Bereiche. Vollständig automatisierte Systeme ohne Einschränkungen bieten bisher nicht die erforderliche Zuverlässigkeit. Aber die Kombination aus formaler Ontologie, gesteuerten Prompts und deterministischer Validierung bietet ein Gleichgewicht zwischen Skalierbarkeit und Genauigkeit. Separat sollte der Einfluss des langen Kontexts berücksichtigt werden: Wenn Prozesse nichtlinear sind, kann document-level inference vorzuziehen sein, trotz der Kosten.
Informationsquelle
arXiv ist das größte offene Preprint‑Repository (seit 1991 unter der Schirmherrschaft der Cornell University), in dem Forschende schnell Arbeitsfassungen von Artikeln veröffentlichen; die Materialien sind öffentlich zugänglich, unterliegen jedoch keiner vollständigen Begutachtung, weshalb Ergebnisse als vorläufig angesehen und möglichst in überarbeiteten Versionen oder in begutachteten Fachzeitschriften überprüft werden sollten. arxiv.org