KI-gestütztes Navi­gations­system für Sehbehinderte

US-Wis­sen­schaft­ler haben gemeinsam ein Navi­gations­system entwickelt, das es blinden oder seh­be­hin­der­ten Nutzern ermöglicht, sich in ihrer Umgebung mit größerer Sicherheit und Genauigkeit zurecht­zu­fin­den.

Das System, so erklären die Forschenden aus zwei Abteilungen der Johns Hopkins University – dem Applied Physics Laboratory (APL) in Laurel, USA, und der Whiting School of Engineering in Baltimore, USA – , verwende künstliche Intelligenz (KI), um Umgebungen abzubilden, den Standort des Nutzers zu verfolgen und um diesen so in Echtzeit zu führen. Es verarbeite auch Daten von Tie­fen­bild­sen­so­ren sowie von den Rot-, Grün- und Blau(RGB)-Kanälen, die in Bildsensoren zur Erfassung visueller Informationen dienen, um detaillierte semantische Karten der Umgebung zu erstellen. Diese ermögliche es dem Navi­gations­system, nicht nur Hindernisse zu erkennen, sondern auch bestimmte Objekte und deren Eigenschaften zu iden­ti­fi­zie­ren. Die Wis­sen­schaft­ler betonen, dass dank dieser Fähigkeit, der Benutzer vom System Anweisungen zu bestimmten Objekten oder Merkmalen in seiner Umgebung abfragen kann. Das mache die Navigation intuitiver und effektiver.

„Was dieses System besonders innovativ macht, ist seine Fähigkeit, die Inter­pre­tier­bar­keit der Umgebung für die Benutzer erheblich zu verbessern“, erklärte der leitende Forscher Nicolas Norena Acosta, ein Software-Ingenieur für Robo­tik­for­schung bei APL. „Herkömmliche Navi­gations­systeme für Sehbehinderte stützen sich oft auf eine einfache sen­sor­ge­stützte Kartierung, die nur zwischen belegten und unbelegten Räumen unterscheiden kann“, erklärte der Ingenieur. „Der neue semantische Mapping-Ansatz bietet jedoch ein viel umfassenderes Verständnis der Umgebung und ermöglicht Mensch-Computer-Interaktionen auf hohem Niveau.“

Schaffung eines umfassenden Navi­gations­systems

Derzeitige Sehprothesen, so die Wis­sen­schaft­ler, könnten nur einen kleinen Bereich des Sehvermögens stimulieren und böten nur ein minimales visuelles Feedback. Das sei für die Benutzer nicht robust genug, um sicher und unabhängig in ihrer Umgebung zu navigieren. Norena Acosta und sein Team – Chigozie Ewulum, Michael Pekala und Seth Billings von APL und Marin Kobilarov von der Fakultät für Maschinenbau der Whiting School – haben dieses grundlegende visuelle Feedback durch zusätzliche haptische, visuelle und auditive Sin­nes­ein­drü­cke ergänzt, um ein umfassenderes Navi­gations­system zu schaffen.

Die haptische Rückmeldung erfolgt über ein von APL entwickeltes Stirnband, wie die Forscher berichten. Dieses vibriere an verschiedenen Stellen, um die Lage von Hindernissen oder den Weg anzuzeigen, dem der Benutzer folgen soll. Wenn der Weg zum Beispiel nach rechts führe, vibriere die rechte Seite des Stirnbands. Das auditive Feedback verwende Sprachansagen und räumliche Geräusche, um verbale Hinweise und Warnungen über die Umgebung mitzuteilen.

Die kombinierten sensorischen Eingaben an das System würden auch in ein visuelles Feedback umgesetzt, das die Fähigkeit des Benutzers verbessere, Hindernisse wahrzunehmen und effektiv zu navigieren. Das System biete eine klare, vereinfachte Sicht auf die Umgebung, merken die Forscher an. So hebe es nur die wichtigsten Informationen hervor, die zur Vermeidung von Hindernissen und zur sicheren Fortbewegung benötigt würden. „Die Her­aus­for­de­rung bestand darin, ein System zu entwickeln, das mehrere Arten von Sensordaten in Echtzeit syn­chro­ni­sie­ren und verarbeiten kann“, sagt Norena Acosta. „Die genaue Integration des visuellen, haptischen und auditiven Feedbacks erforderte aus­ge­klü­gelte Algorithmen und eine robuste Rechen­leis­tung sowie fort­s­chritt­li­che KI-Techniken.“

Die For­schungs­er­geb­nisse wurden der Mitteilung zufolge im April auf der SPIE Defense + Commercial Sensing 2024 vorgestellt. Das System, so heißt es, werde derzeit in einer klinischen Studie getestet, deren Ergebnisse für diesen Sommer erwartet würden. Finanziert werde diese Arbeit vom National Eye Institute.

Verbesserung der Lebens­qua­li­tät

Die Wis­sen­schaft­ler erwarten, dass dieses System die Fähigkeiten kommerzieller Netz­haut­pro­the­sen verbessern kann. Eine robuste, intuitive Navi­ga­ti­ons­hilfe wie dieses System habe das Potenzial, die Unab­hän­gig­keit und Mobilität seiner Nutzer erheblich zu steigern. „Die potenziellen Auswirkungen dieser Arbeit auf die Pati­en­ten­po­pu­la­ti­o­nen sind erheblich“, betonte Billings, leitender Forscher dieses Projekts. „Dies könnte zu einer größeren sozialen Eingliederung und Teilnahme an täglichen Aktivitäten führen, was letztlich die Lebens­qua­li­tät blinder und seh­be­hin­der­ter Menschen insgesamt verbessern würde.“

Quelle: biermann-medizin.de

Datum