unizeit | Naturwissenschaft & Mathematik | Technologie
unizeit Schriftzug

Auch Maschinen können irren

Schneller, effektiver und womöglich sogar klüger als der Mensch: Künstliche Intelligenz ruft oftmals Ängste hervor. Zu Recht?

 Roboterhand übergibt einer Frau eine Spritze.
© miriam-doerr/iStock

Künstliche Intelligenz im Dienste der Gesundheit: Eine Roboterhand übergibt einer älteren Frau eine Insulinspritze.

Als Professor Olaf Landsiedel Mitte November bei der »Night of the Profs« fragte, wer beim Gedanken an künstliche Intelligenz Unbehagen empfinde, hoben im vollbesetzten großen Hörsaal des Audimax ungefähr 50 Prozent der Anwesenden die Hand. Was schon mal zweierlei zeigt: In dem Thema scheint tatsächlich allerlei Unsicherheit zu stecken, und das Interesse daran ist sehr, sehr groß.

Egal ob es um selbstfahrende Autos oder Pflegeroboter geht, in Deutschland wird künstliche Intelligenz nach Einschätzung von Olaf Landsiedel »deutlich kritischer« betrachtet als in vielen anderen Ländern. »Die Risiken werden höher bewertet als der Nutzen«, formuliert es der Informatiker, für den diese Sicht allerdings ein gutes Stück zu pessimistisch ist. Schließlich handelt es sich nach Darstellung des Wissenschaftlers bei künstlicher Intelligenz keineswegs um eine unheimliche Macht, sondern um ein Phänomen, das einem eher simplen Prinzip folgt: dem Lernen anhand einer sehr großen Menge von Daten. Wird ein Computer mit genügend Bildern gefüttert, kann er bald ganz von allein und mit hoher Treffsicherheit Katzen von Hunden unterscheiden. Künstliche Intelligenz kann aber noch mehr und hat sich ein Stück weit tatsächlich vom Menschen gelöst. Den Algorithmus, also das Rezept, nach dessen Regeln Katzen identifiziert werden, kann sie beispielsweise völlig eigenständig anfertigen. Dabei greift sie auf ein neuronales Netzwerk zurück, das noch lange nicht in vollständiger Ausprägung, aber im Grundsatz einer digitalen Nachempfindung des menschlichen Gehirns gleichkommt.

Irren ist menschlich, und das gilt auch für Maschinen.

Reinhard Koch

Besonders neuartig ist das keineswegs, betont Landsiedels Kollege Professor Reinhard Koch. Schon vor fast 50 Jahren nutzte die Post künstliche Intelligenz zur automatischen Briefsortierung und speiste dazu Handschriften Pixel für Pixel in eine Datenbank. Heute funktioniert dieses System mit einer Genauigkeit von 99,8 Prozent und mithin exakter, als es Personal aus Fleisch und Blut könnte. Richtig ist allerdings nach wie vor: Je differenzierter die Aufgabe, desto schwerer tut sich auch die künstliche Intelligenz. So können Computer zwar ganz gut lernen, anhand von Schnauze, Fell und anderen Merkmalen Hunderassen zu unterscheiden, einen Collie identifizieren sie nach einem von Koch zitierten Versuch allerdings nur zu 77 Prozent. 20 Prozent der Treffer entfallen auf einen Schäferhund, drei Prozent gar auf eine Katze. »Irren ist menschlich, und das gilt auch für Maschinen«, bringt es Koch auf den Punkt.

Eine sinnvolle Unterstützung kann künstliche Intelligenz nach seiner Einschätzung trotzdem darstellen, und das nicht nur beim Sortieren von Briefen. So sind die Bildanalysen beim Mammographie-Screening nach seinen Worten »ziemlich genau« und stellen insofern eine wertvolle Ergänzung fürs menschliche Auge dar, das beim reihenweisen Betrachten von Aufnahmen durchaus seine eigenen Schwächen hat. Mit Blick aufs autonome Fahren gibt sich der Kieler Informatiker allerdings skeptischer. Zwar sei es durchaus möglich, dass Sensoren im Zusammenspiel mit Software Menschen, die zu Fuß, mit dem Rad oder dem Auto unterwegs sind, ebenso wie Gebäude oder andere Gegenstände erkennen, aber die Realität mit unverhofft eingerichteten Baustellen und Umleitungen oder auch mit irrationalen Verhaltensweisen sei immer noch oft zu komplex, um von wirklich zuverlässig arbeitenden Systemen reden zu können.

Gruppe von zwei Männern und einer Frau
© Geist

Olaf Landsiedel, Agnes Koschmider und Reinhard Koch (von links) wenden sich gegen Panikmacher in Sachen künstlicher Intelligenz.

Viele Wissenslücken der künstlichen Intelligenz dürften sich aber über kurz oder lang schließen, sodass sich das Thema vom Alltag nicht mehr fernhalten lässt. Davon geht zumindest Professorin Agnes Koschmider aus, die ebenfalls am Institut für Informatik forscht und lehrt.

Selbstverständlich, so betont sie, müssen dann auch Regeln für den Umgang mit künstlicher Intelligenz gefunden werden. »Das ist aber nichts Neues«, stellt sie fest und verweist darauf, dass schon vor ungefähr 100 Jahren Juristinnen und Juristen darüber diskutierten, ob Autos eine Moral haben. »Wir werden genauso wie damals Gesetze und Vorschriften finden, um die neuen Techniken anzuwenden«, prophezeit die Wirtschaftsinformatikerin, die ebenso wie ihre Kollegen kaum einen Grund für Angst vor künstlicher Intelligenz sieht. So gehen seriöse Schätzungen zwar davon aus, dass durch künstliche Intelligenz etwa 25 Prozent aller Arbeitsplätze entfallen könnten, ebenso seriös darf nach ihren Angaben aber angenommen werden, dass mit dieser Form der Digitalisierung mehr neue Jobs entstehen als alte wegfallen. Davon abgesehen führt nach Koschmiders Überzeugung vielfach schon wegen deren segensreicher Wirkungen kein Weg an der künstlichen Intelligenz vorbei. Wenn Ärztinnen und Ärzte dank digitaler Assistenz wieder mehr Zeit für kranke Menschen haben, sei das im Sinne aller Beteiligten. Nicht zuletzt das ist ein Grund dafür, weshalb sich die Uni Kiel mit den Universitäten Bremen, Hamburg und Lübeck zum Kompetenzcluster Künstliche Intelligenz in der Medizin zusammengeschlossen hat.

Autor: Martin Geist

unizeit-Suche:

In den unizeit-Ausgaben 27-96 suchen