Deep Learning: Neue Methode macht auto­ma­ti­sierte Diagnose von Netz­haut­erkrankungen effizienter

Forschende des Helmholtz Zentrums München haben gemeinsam mit der Augenklinik des Klinikums der Ludwig Maximilians Universität (LMU) München und der Technischen Universität München (TUM) eine neue Methode entwickelt, die die auto­ma­ti­sierte Diagnose von Augen­krank­heiten wie Diabetischer Retinopathie (DR) effizienter macht.

Die Methode, so heißt es, sei für Kliniken besonders attraktiv, da sie den Bedarf an teuren annotierten Daten für das Trainieren des Algorithmus reduziere. Für den Anwen­dungs­fall der DR habe die For­schungs­gruppe einen Screening-Algorithmus entwickelt, der 75 Prozent weniger annotierte Daten benötige und Diagnosen mit der gleichen Leistung durchführen könne wie Fachkräfte.

Künstliche Intelligenz (KI) und Deep Learning sind in den letzten Jahren für Kliniken immer interessanter geworden – bei­spiels­weise zur auto­ma­ti­sierten Auswertung medizinischer Bilddaten. Um Deep-Learning-Algorithmen beizubringen, Bilder korrekt auszuwerten und Diagnosen vorherzusagen, sind große Mengen an annotierten (mit Informationen versehenen) Daten notwendig. In Kliniken sind annotierte Daten jedoch oft rar, da das Hinzufügen der Informationen durch Fachkräfte sehr kostspielig ist. In der Forschung war man deshalb auf der Suche nach Lösungen, um den Bedarf an großen Datenmengen mit teuren Annotationen zu reduzieren, ohne Einbuße in der Leistung des Algorithmus in Kauf nehmen zu müssen.

Anwen­dungs­fall DR

DR schädigt die Netzhaut und kann zur Erblindung führen. Zur frühzeitigen Diagnose der Krankheit bei Risi­ko­pa­ti­en­ten wird die Dicke der Netzhaut regelmäßig gemessen. Dafür nehmen Kliniken ein Bild des Fundus auf, der Oberfläche der Rückseite des Auges. Um die Auswertung dieser Aufnahmen zu auto­ma­ti­sie­ren, haben einige Kliniken begonnen, Deep-Learning-Algorithmen einzusetzen. Diese Algorithmen benötigen eine große Anzahl an Fundus-Bildern mit teuren Annotationen. Anhand dieser lernen sie, die Bilder korrekt auszuwerten.

Die Augenklinik der LMU verfügt nach Angaben des Helmholtz Zentrums München über einen Datensatz mit mehr als 120.000 Fundus- und dazu­ge­hö­ri­gen OCT-Bildern. Die OCT – optische Kohärenz­tomographie – liefert präzise Informationen über die Netzhautdicke, wird aber aufgrund der hohen Kosten nicht in jedem Augenzentrum durchgeführt. Die LMU stellte ihre Daten Forschenden des Helmholtz Zentrums München zur Verfügung, die auf dem Gebiet der KI in medizinischen Anwendungen Pionierarbeit leisten.

Pre-Training unter „Selbst­auf­sicht“

„Unser Ziel war es, diese einzigartig große Menge an Fundus- und OCT-Bildern zu nutzen, um eine Methode zu entwickeln, die den Bedarf an teuren annotierten Daten für das Training des Algorithmus reduziert“, sagt Olle Holmberg, Erstautor der Studie am Helmholtz Zentrum München und der TUM School of Life Sciences.

Die For­schungs­gruppe entwickelte eine neue Methode, die sie als „cross modal self-supervised retinal thickness prediction“ bezeichnet. Diese Methode nutzen sie zum „Pre-Training“ des Deep-Learning-Algorithmus mit den Daten der LMU. Dabei brachte sich der Algorithmus selbst bei, nicht annotierte Fundus-Bilder auf Basis unter­schied­li­cher OCT-abgeleiteter Profile der Netzhautdicke zu erkennen. Damit gelang es dem Algorithmus, die Netzhautdicke allein auf Basis des Fundus-Bildes vorherzusagen.

Hohe Leistung mit nur einem Viertel der Trai­nings­da­ten

Die neue Methode verringert den Bedarf an teuren annotierten Daten für das Training des Deep-Learning-Algorithmus erheblich. Bei auto­ma­ti­sierten Screenings für DR erreichte der Algorithmus laut Mitteilung des Helmholtz Zentrums München die diagnostische Leistung sowohl von medizinischen Fachkräften als auch von Algorithmen, die weit mehr Trai­nings­da­ten benötigten.

„Wir haben es geschafft, den Bedarf an annotierten Daten um 75 Prozent zu reduzieren”, sagt Prof. Fabian Theis, Direktor des Instituts für Computational Biology am Helmholtz Zentrum München und Wis­sen­schaft­li­cher Direktor von Helmholtz AI, der Plattform für künstliche Intelligenz der Helmholtz Gemeinschaft. „Die geringe Ver­füg­bar­keit annotierter Daten ist eine große Her­aus­for­de­rung für die Medizin. Wir haben es deshalb zu unserem Ziel gemacht, Methoden zu entwickeln, die weniger Daten benötigen und sich dadurch für den klinischen Einsatz eignen. Kliniken können unseren Screening-Algorithmus für diabetische Retinopathie ab sofort nutzen. Dies ist ein perfektes Beispiel dafür, wie wir mit künstlicher Intelligenz den Alltag in der Medizin und somit auch die Gesundheit aller verbessern können.“

„Die auto­ma­ti­sierte Erkennung und Diagnose der Diabetischen Retinopathie auf Basis der weit verbreiteten Fundus-Fotografie stellt für Vor­sor­ge­un­ter­su­chun­gen eine echte Verbesserung dar. Damit könnten auch die Überweisungen von Patienten an teilweise überfüllte spe­zi­a­li­sierte Augenkliniken reduziert werden“, sagt Dr. Karsten Kortüm von der Augenklinik der LMU, der für den klinischen Teil dieser Studie ver­ant­wort­lich war.

Darüber hinaus, so das Helmholtz Zentrum München, hätten die Forschenden eine weitere Reduktion erreicht, nämlich bei der „Größe des Algorithmus“ – der Anzahl seiner Parameter. Die neue Methode ermögliche bis zu 200-mal kleinere Algorithmen. Dies wiederum könnte den Einsatz auf mobilen oder eingebetteten Geräten im klinischen Umfeld erleichtern.

Weitere Anwendungen

Neben der DR kann die neue Methode nach Einschätzung der Forscher auch für andere Anwendungen genutzt werden – insbesondere für solche mit vielen Daten ohne Annotation durch Fachkräfte. Im Bereich von Augen­krank­heiten könnten Screenings für die alters­be­dingte Makula­degeneration (AMD) von der neuen Methode profitieren.

Der Algorithmus ist laut Mitteilung des Helmholtz Zentrums München auf GitHub verfügbar: https://github.com/theislab/DeepRT

Quelle: biermann-medizin.de

Datum