Warnungen vor einer dunklen Seite von A.I. im Gesundheitswesen

Im vergangenen Jahr genehmigte die Food and Drug Administration ein Gerät, das ein Bild Ihrer Netzhaut aufnehmen und automatisch Anzeichen einer diabetischen Erblindung erkennen kann.

Diese neue Art der künstlichen Intelligenz breitet sich schnell im medizinischen Bereich aus, da Wissenschaftler Systeme entwickeln, die Krankheitszeichen in einer Vielzahl von Bildern identifizieren können, von Röntgenaufnahmen der Lunge bis hin zu C.A.T.-Scans des Gehirns. Diese Systeme versprechen, Ärzten zu helfen, Patienten effizienter und kostengünstiger als in der Vergangenheit zu bewerten.

Ähnliche Formen der künstlichen Intelligenz dürften über die Krankenhäuser hinaus in die Computersysteme der Gesundheitsbehörden, Abrechnungsunternehmen und Versicherungsanbieter übergehen. So wie A.I. Ärzten helfen wird, Ihre Augen, Lungen und andere Organe zu untersuchen, wird es den Versicherungsunternehmen helfen, Erstattungszahlungen und Policengebühren festzulegen.

Im Idealfall würden solche Systeme die Effizienz des Gesundheitssystems verbessern. Aber sie können unbeabsichtigte Folgen haben, warnt eine Gruppe von Forschern in Harvard und M.I.T..

In einem am Donnerstag in der Zeitschrift Science veröffentlichten Beitrag werfen die Forscher die Aussicht auf „feindliche Angriffe“ auf – Manipulationen, die das Verhalten von KI-Systemen mit winzigen digitalen Daten verändern können. Durch die Änderung einiger Pixel auf einem Lungenscan zum Beispiel könnte jemand ein KI-System täuschen, indem er eine Krankheit sieht, die nicht wirklich da ist, oder eine Krankheit, die nicht da ist.
Softwareentwickler und Regulierungsbehörden müssen solche Szenarien in Betracht ziehen, da sie in den kommenden Jahren A.I.-Technologien entwickeln und bewerten, argumentieren die Autoren. Die Sorge ist weniger groß, dass Hacker dazu führen könnten, dass Patienten falsch diagnostiziert werden, obwohl dieses Potenzial vorhanden ist. Wahrscheinlicher ist, dass Ärzte, Krankenhäuser und andere Organisationen die KI in Rechnungs- oder Versicherungssoftware manipulieren könnten, um das Geld, das ihnen in den Weg kommt, zu maximieren.

Samuel Finlayson, ein Forscher an der Harvard Medical School und M.I.T. und einer der Autoren der Studie, warnte davor, dass, weil sich so viel Geld in der gesamten Gesundheitsbranche ändert, die Interessengruppen das System bereits durch subtile Änderungen der Abrechnungscodes und anderer Daten in Computersystemen, die Gesundheitsbesuche verfolgen, in Rechnung stellen. KI könnte das Problem verschärfen.

„Die den medizinischen Informationen innewohnende Mehrdeutigkeit, gepaart mit oft konkurrierenden finanziellen Anreizen, ermöglicht es, dass Entscheidungen mit hohen Einsätzen auf sehr subtilen Informationen beruhen“, sagte er.

Das neue Papier trägt zu einer wachsenden Besorgnis über die Möglichkeit solcher Angriffe bei, die auf alles ausgerichtet sein könnten, von Gesichtserkennungsdiensten und fahrerlosen Autos bis hin zu Irisscannern und Fingerabdrucklesern.

Ein gegnerischer Angriff nutzt einen grundlegenden Aspekt der Art und Weise, wie viele A.I.-Systeme entworfen und gebaut werden. Zunehmend wird A.I. von neuronalen Netzwerken angetrieben, komplexen mathematischen Systemen, die Aufgaben weitgehend selbstständig durch die Analyse großer Datenmengen lernen.

Durch die Analyse von Tausenden von Augenscans zum Beispiel kann ein neuronales Netzwerk lernen, Anzeichen einer diabetischen Erblindung zu erkennen. Dieses „maschinelle Lernen“ geschieht in einem so enormen Ausmaß – menschliches Verhalten wird durch unzählige unterschiedliche Daten definiert -, dass es selbst unerwartetes Verhalten erzeugen kann.

Im Jahr 2016 verwendete ein Team von Carnegie Mellon Muster, die auf Brillengestellen gedruckt wurden, um Gesichtserkennungssysteme zu täuschen, die die Träger für Prominente hielten. Als die Forscher die Rahmen trugen, verwechselten die Systeme sie mit berühmten Persönlichkeiten, darunter Milla Jovovich und John Malkovich.

CMS Forum