„The world's most valuable resource is no longer oil, but data” titelte 2017 The Economist in einem Artikel, der sich mit der neuen Datenwirtschaft und den sich daraus ergebenden Fragen beschäftigte. Auch in der Medizin wird immer wieder über den Nutzen der Datenauswertung für den medizinischen Fortschritt gesprochen. Der aktuelle KI-Hype wird maßgeblich von den Unternehmen gestaltet, die in den letzten Jahren (und Jahrzehnten) den Fokus auf die Aggregation unvorstellbarer Mengen von Daten gelegt haben. Denn der Treibstoff – das Öl – der breit eingesetzten KI-Modelle sind: Daten. Gilt das auch für die Labormedizin?
Vom Modell in die Praxis
Uns allen ist klar, dass die Labormedizin ein sehr datengetriebenes Fach ist. Hier lohnt es sich, genauer hinzuschauen: Labore sind vor allem Hüter großer Mengen numerischer Daten. Dies ist im Zeitalter der Sprachmodelle ein entscheidender Faktor: Large Language Models (LLM) sind nach wie vor schlecht im Umgang mit Zahlen. Selbst die neuesten Frontier-Modelle machen immer wieder teils banale Fehler. Dies liegt maßgeblich in der aktuellen Architektur begründet. Transformer-Modelle sind darauf trainiert, auf Basis einer aus Trainingsdaten gelernten Wahrscheinlichkeitsverteilung die plausibelste Fortsetzung eines Inputs (Prompts) zu generieren. Es geht also um die Fortführung von Texten und nicht um die Lösung mathematischer Aufgaben oder – wie in der Labormedizin – zum Beispiel das Interpretieren numerischer Messergebnisse in Bezug auf Referenzintervallgrenzen, klinische Entscheidungswerte oder therapeutische Referenzbereiche. Das ist nur einer der Gründe, warum LLM (oder Small Language Models; SLM) bisher in der labormedizinischen Routine kaum eingesetzt werden. Neben simplen Rechenfehlern zeigen LLM weitere „Verhaltensweisen“, die den Einsatz in der (Labor-)Medizin infrage stellen wie „Halluzinationen“ oder „Sycophancy“ („Speichelleckerei“). Dies führt zu einem Vertrauensproblem, das im Artikel gegen die Vorteile der Sprachmodelle abgewogen wird.
Trotz der Probleme, die Sprachmodelle mit sich bringen, sollte die Technologie nicht vorschnell als „unbrauchbar“ über Bord geworfen werden. Vielmehr ist es an der Zeit, sich intensiv mit den Modellen und deren möglichen Anwendungsszenarien auseinanderzusetzen und klar herauszuarbeiten, wo ein Mehrwert für die Gesundheitsversorgung der Bevölkerung oder zur Optimierung der Prozesse im Gesundheitswesen geschaffen werden kann. In ihrem Beitrag zeigen Steffen Bauer et al., wie die Textgenerierungsfähigkeiten der im Frühjahr 2025 aktuellen Frontier-Modelle für die Erstellung von Befunden des Therapeutischen Drug Monitorings (TDM) genutzt werden kann. Auch wenn die aktuellen Ergebnisse noch nicht routinetauglich sind, so zeigt sich doch, dass LLM zur Generierung ausführlicher TDM-Befunde genutzt werden können. Allerdings muss die dabei anvisierte Zeitersparnis bei der Befunderstellung noch in der täglichen Routine validiert werden.
Bis die ersten LLM-basierten Medizinprodukte für das medizinische Labor den Markt erreichen, sind Labore gut beraten, sich der Organisation ihrer oftmals in vielen Silos verteilten Daten zu widmen – denn dies ist die Grundlage einer erfolgreichen KI-Implementation in der Zukunft. Wie dies gelingen kann, zeigen zwei Artikel dieser Ausgabe, die jeweils unterschiedliche Dimensionen des Umgangs mit Daten betrachten. Der Beitrag von Johannes Böhm et al. befasst sich mit der Kommunikation von Daten zwischen den verschiedenen Geräten und Softwarelösungen im Labor und legt den Fokus auf Schnittstellen, die zur Standardisierung und damit auch zur Interoperabilität von Datenströmen beitragen können. Auf Basis einer solchen modernen Kommunikation kann dann eine Infrastruktur entstehen, die zur systematischen Auswertung dieser Daten genutzt werden kann; Johannes Krefting zeigt dies am Beispiel eines klinischen Data Warehouse.
Architektur der Zukunft
Der „Hotspot“ der Labormedizin liegt aktuell hier: Werden wir als medizinische Laboratorien zu datengetriebenen Decision Engines des Gesundheitswesens oder bleiben wir passive Datenlieferanten? Wenn Daten das „neue Öl“ sind, dann sollten wir hier einen entsprechenden Fokus setzen. Das lässt sich allerdings nur mit einer klaren Data Governance, einem Bekenntnis zu einer starken IT-Infrastruktur (die nicht nur als Kostenfaktor, sondern als Basis der Zukunftsfähigkeit der Labore gesehen wird), sowie einer softwarezentrierten Sicht auf das Labor erreichen. Ein Labor 4.0 ohne Softwarestrategie – und perspektivisch ohne KI-Strategie – wird es nicht geben.