Zum Inhalt

AUTODIDACT: Automatisierte Annotation von Videodateien zur Unterstützung der klinischen Entscheidungsfindung auf der Cockpit-Plattform von Intensivstationen

Projektstatus

geschlossen

Projektbeginn

Mai 2022

Förderlaufzeit

9 Monate

Beteiligte Hochschulen

UZH ZHAW

Praxispartner

Universitätsspital Zürich

Förderbetrag DIZH

CHF 72'000

Die Entwicklung einer robusten  und effizienten Erkennungsmethode von Videoobjekten auf der Intensivstation ermöglicht  z.B.  die Erkennung der Pflegeintensität an einzelnen Betten. Dies könnte eine verbesserte Einsatzplanung von Pflegepersonal erlauben, und so dessen Überbelastung gezielt vermeiden. 

Das ICU Cockpit System des USZ kombiniert die Erfassung, Verarbeitung und Darstellung von Sensorwerten zur Überwachung von Patient:innen auf der Intensivmedizin.

Auf der Intensivstation werden Patient:innen kontinuierlich elektronisch überwacht, damit sofort alarmiert werden kann, wenn zum Beispiel ein Vitalparameter seinen Sollbereich verlässt. Auf der neurochirurgischen Intensivstation (NIPS) am Universitätsspital Zürich (USZ) ertönen durchschnittlich 700 Alarme pro Tag und Patient:in. Die hohe Anzahl von Alarmen beanspruchen dabei das medizinische Personal oft unnötig und binden wertvolle Zeit. Um die Belastung des Personals in Zukunft zu verringern, wurde am USZ eine IT-Infrastrukturen zur Aufzeichnung von Überwachungsdaten und zur Entwicklung von digitalen Systemen zur klinischen Unterstützung aufgebaut. Es zeigt sich jedoch, dass diese Systeme anfällig für Artefakte in den gemessenen Signalen sind, die durch die Bewegung des Patient:innen oder medizinische Interventionen verursacht werden können. Zudem sind solche Artefakte für sich genommen selbst für Menschen nur schwer von physiologischen Mustern zu unterscheiden. Viel einfacher ist es hingegen, wenn man sich direkt am Bett befindet und den Kontext sieht, in dem ein bestimmtes Signal gemessen wird.

Um genau diesen Kontext für die Erforschung und Entwicklung von zukünftigen Unterstützungssystemen verfügbar und diese dadurch resilienter zu machen, wurde im AUTODODACT Projekt ein Objekterkennungssystem entwickelt, das Kontextinformationen aus Videodaten extrahieren kann. Videodaten, die auf der NIPS, wie auf vielen modernen Intensivstationen, bereits heute zur Verfügung steht, da auf diesen Stationen Patient:innen standardmässig mit Kameras überwacht werden.

Als Kontextinformation wurde zu Beginn des Projekts die Erkennung des Bettes, der zu pflegenden Person sowie des Pflegepersonals und der medizinischen Geräte definiert. Zum Schutz der Privatsphäre der Kranken und des medizinischen Personals musste die Objekterkennung zudem auf unscharfe Videos basieren. Dies hatte dann zur Folge, dass eine ganz neue Objekterkennungssoftware entwickelt werden musste, da bereits trainierte Künstliche Intelligenz (KI) Systeme zur Objekterkennung nur für hoch aufgelösten Bildern verfügbar waren.

Das anonymisierte Video zeigt eine detektierte zu pflegende Person, medizinische Geräte und Mitarbeitende. Mit diesen Informationen können die gemessenen Sensorwerte wie etwa der Puls im Kontext dessen verstanden werden, was mit der Person im Spitalbett geschieht. 

Dazu wurden zuerst mit dem Einverständnis von Patient:innen unscharfe Videodaten als Trainingsdaten aufgezeichnet und in diesen durch Menschen annotiert.  Basierend auf diesen Videos wurde dann in einem ersten Ansatz ein YOLOv5 Modell (ein KI-System für Objekterkennung, das als Quasi-Industriestandard gilt) trainiert, um eine Baseline zu etablieren. Die Objekterkennung geschieht bei diesem Ansatz auf Basis einzelner Bilder. Obschon die Erkennung für unscharfe Bilder relativ gut war, konnte diese in einem zweiten Ansatz weiter verbessert werden. Die Verbesserung wurde durch das Mitberücksichtigen des zeitlichen Verlaufs über mehrere Bilder hinweg erreicht. Dazu wurden die drei Inputkanäle Blau, Rot, Grün des YOLOv5-Modells durch andere Bildinformation ausgetauscht. Der rote Kanal wurde mit dem Schwarzweissbild ersetzt, der grüne mit den Pixelveränderungen zwischen dem vorhergehenden Bild und der blaue mit den Positionen der vorher detektierten Objekte. Dieser “Trick” resultierte dann in einem Modell, dass sich zum einen viel schneller trainieren liess und zum anderen insgesamt stabilere und genauere Resultate lieferte, was auch den begrenzten Hardwareressourcen zu Gute kam.

Es ist geplant, die entwickelten Modelle in den Strukturen am Unispital zu verfeinern, bzw. neue Modell auf einer grösseren Datenbasis zu trainieren, um so die Genauigkeit der Objektdetektion weiter zu verbessern.

Team

Dr. Jens M. Boss, Universität Zürich, Neurosurgery and Intensive Care Medicine

Raphael Emberger, ZHAW School of Engineering, Centre for Artificial Intelligence

Lukas Tuggener, ZHAWSchool of Engineering, Centre for Artificial Intelligence

Prof. Dr. Thilo Stadelmann, ZHAW School of Engineering, Centre for Artificial Intelligence

Daniel Baumann,Universität Zürich, Neurosurgery and Intensive Care Medicine

Marko Seric,Universität Zürich, Neurosurgery and Intensive Care Medicine

PhD Shufan Huo, Universität Zürich, Neurosurgery and Intensive Care Medicine 

Dr. Gagan Narula, Universität Zürich, Neurosurgery and Intensive Care Medicine

Praxispartner

Prof. Dr. Emanuela Keller, Intensivmedizin Klinik für Neurochirurgie, Universitätsspital Zürich

Call-Typ: 1. Rapid-Action-Call