unizeit Schriftzug

Hirnscans zum Anfassen

Wie bringt man Laien abstrakte radiologische Bilddaten näher? Ausgehend von dieser Frage entwickelt ein Team der Uni Kiel einen intelligenten MRT-Simulator.

Plastikkopf und Laptop mit Hirnscan
© Kerstin Nees

Das MRT-Bild auf dem Computerbildschirm entspricht der Blickrichtung auf den 3D-gedruckten-Kopf. Wird der Kopf gedreht, zeigt derBildschirm das dazugehörige Bild.

Eine Magnetresonanztomografie (MRT) des Kopfes wird immer dann gemacht, wenn es darum geht, krankhafte Veränderungen oder Verletzungen des Gehirns genau zu erfassen. So können Ärztinnen und Ärzte zum Beispiel anhand von MRT-Bildern Hirntumoren oder Aneurysmen, also Aussackungen der Blutgefäße, diagnostizieren, charakterisieren und präzise lokalisieren. So ganz trivial ist es aber nicht, aus den zweidimensionalen Bildern die richtigen Schlüsse zu ziehen. »Normalerweise brauchen Radiologinnen und Radiologen mehrere Jahre, bis sie sich daran gewöhnt haben, wie sie die Schnittbilder richtig anschauen und interpretieren«, erklärt Dr. Jan-Bernd Hövener von der Sektion Biomedizinische Bildgebung der Klinik für Radiologie und Neuroradiologie des UKSH, Campus Kiel, und Professor an der Medizinischen Fakultät der Christian-Albrechts-Universität zu Kiel. Wenn sie Patientinnen und Patienten anhand der Bilder erklären wollen, was das Problem im Kopf ist und wo es sitzt, wird es schnell schwierig. Zudem ist die Darstellung radiologischer Bilder für Laien sehr abstrakt.

Diese Aufklärungssituation lässt sich vereinfachen, dachte ein Team aus seiner Arbeitsgruppe am Molecular Imaging North Competence Center (MOIN CC), und entwickelte bei dem virtuell ausgerichteten UKSH Healthcare Hackathon im Juni eine Lösung. Ziel des fünfköpfigen Teams namens MOINCC-plus war es, ein intuitives Verständnis von abstrakten radiologischen Daten zu ermöglichen. Hierfür schufen sie mit dem 3D-Drucker einen Kopf und statteten diesen mit einem Mikrocontroller aus. Mit Hilfe von modernen nanomechanischen Sensoren und Bluetooth teilt das Kopfmodell seine Orientierung im Raum mit einem Computer. »Den Kopf kann ich in die Hand nehmen, nach Belieben bewegen und auf dem PC je nach Blickrichtung die dazugehörigen MRT- oder CT-Bilder betrachten«, erläutert Doktorand Frowin Ellermann vom Graduiertenkolleg 2154 »Materials for Brain«. Zusammen mit dem Informatiker Leonardo Töpsch stellte der Ingenieur einen ersten Prototyp des MRT-Simulators beim Hackathon vor und überzeugte damit die Jury. Das Team, zu dem auch Eva Peschke, Eren Yilmaz und Johannes Köpnick gehören, erreichte Platz zwei unter den Kieler Teams. Damit sicherten sie sich die Teilnahme beim Hackathon-Finale in Berlin, wo sie im Januar 2021 gegen die Gewinnerteams der Charité Berlin und der Universitätsmedizin Mainz antreten werden.

Dort wollen sie eine Weiterentwicklung ihres Prototyps präsentieren. Denn bisher kann man zwar die Perspektive, aus der man auf das Modell guckt, verändern, aber nicht die Schnitttiefe. Die Idee für die Weiterentwicklung ist, am anatomischen Modell mit einem Laserstrahl zu demonstrieren, welche Schicht gerade am PC betrachtet wird. Um das zu realisieren, verwenden sie ein Infrarot-Kamerasystem. Mittels Reflektoren, die auf dem anatomischen Modell aufgebracht werden, erkennt die Kamera Position und Drehung des Modells. »Und das in einer deutlich größeren Präzision als bisher. Anhand der Position kann man die Relation zum Laser erkennen und im Programm verarbeiten«, verdeutlicht Töpsch. Analog zum Kopfmodell könnte dann auch jedes andere 3D-gedruckte anatomische Modell mit Reflektoren ausgestattet und im MRT-Simulator an den Computer angeschlossen werden.

Die im Hintergrund laufende Software ist bereits fertig. Das Prinzip der Software erklärt Ellermann so: »Sie haben einen Kuchen, den schneiden Sie in dünne Scheiben. Das ist das, was das MRT macht. Unsere Software setzt den Kuchen aus den einzelnen Scheiben wieder zusammen. Dann wird der Kuchen aus der Richtung, von der man gerade guckt, wieder neu durchgeschnitten und diese Scheibe auf dem Bildschirm gezeigt.«

Eine Herausforderung ist es auch, an interessante Daten zu kommen. »Wir möchten gern die verschiedenen Bilddaten von CT und MRT gegenüberstellen. Wenn man die aus der gleichen Perspektive und von derselben Person nebeneinander stellt, lässt sich vielleicht eher verstehen, warum eine Methode der anderen bei bestimmten Erkrankungen oder bestimmten Körperteilen überlegen ist«, so Ellermann. Die Daten müssen außerdem aus Datenschutzgründen sehr aufwändig nachbearbeitet werden, damit eine Identifikation nicht mehr möglich ist. »Auch Bilder ohne Namen sind sehr individuell. Das muss anonymisiert werden, so dass die Herkunft der Bilddaten sich nicht mehr zurückverfolgen lässt«, erklärt Eva Peschke, die sich im Team auf die Beschaffung interessanter und vielseitiger Daten und deren Bearbeitung spezialisiert hat.

Für die neue Technologie hat das Entwicklungsteam drei Anwendungen im Blick: die Aufklärung von Patientinnen und Patienten, etwa vor bevorstehenden Operationen, die medizinische Lehre, um es Studierenden zu erleichtern, Bilder mit der Anatomie abzugleichen, und die Öffentlichkeitsarbeit.

Autorin: Kerstin Nees

Weitere Informationen: med-pris.com
Video: www.youtube.com/watch?v=gT1DmQWcoeo

 

unizeit-Suche:

In den unizeit-Ausgaben 27-96 suchen