Kolumne „Digital total“  Künstliche Intelligenz in der Forschung?

Fabian Scherschel
|
Eine Kolumne von Fabian Scherschel
| 21.03.2023 08:24 Uhr | 0 Kommentare | Lesedauer: ca. 2 Minuten
Fabian Scherschel
Fabian Scherschel
Artikel teilen:

Das Thema Künstliche Intelligenz ist derzeit in aller Munde. Warum die Technik, um die es dabei geht, seiner Meinung nach aber nicht für die Wissenschaft taugt, erklärt unser Kolumnist.

Neulich habe ich den Kommentar eines IT-Beraters gelesen, der die flächendeckende Einführung der elektronischen Patientenakte forderte, damit Ärzte und Krankenkassen die Daten von Patienten an KI-Algorithmen verfüttern können. „Experten schätzen, dass der Einsatz künstlicher Intelligenz in Forschung, Verwaltung und Versorgung das gesamte Gesundheitswesen stark verändern wird“, hieß es.

Der Einsatz „künstlicher Intelligenz“ in der Forschung? Wer so etwas fordert, hat nicht verstanden, was Künstliche Intelligenz ist. Oder will uns einen Bären aufbinden – wahrscheinlich, um irgendwo in diesem „dringend nötigen“ Digitalisierungsprozess kräftig zu verdienen.

Bei dem, was hier so flapsig „künstliche Intelligenz“ genannt wird, handelt es sich um Machine Learning. Also Algorithmen, die riesige Mengen an Daten statistisch analysieren und daraus Schlüsse ziehen. Der bekannteste Algorithmus dieser Art ist derzeit ChatGPT.

Warum sind diese Algorithmen nun aber nicht für die Forschung zu gebrauchen? Das liegt daran, dass in der Forschung, vor allem in den Naturwissenschaften, zwar viele statistische Analysen gemacht werden, diese aber immer nachvollziehbar sein müssen. Schließlich müssen andere Forscher die Experimente und Denkprozesse, die hinter dem Ergebnis stehen, replizieren können, um zu belegen, dass die vorliegende Forschung belastbar ist.

Bei KI-Algorithmen ist dies aber aufgrund der zu verarbeitenden Datenmengen und Komplexität der sich selbst anpassenden Algorithmen unmöglich. Man kann den Ergebnissen nur blind vertrauen, da menschliche Experten keine Möglichkeit haben, sie nachzuvollziehen.

Das ist auch der Grund, warum ChatGPT vielleicht dafür taugt, die Hausaufgaben eines Gymnasiasten zu machen, es aber ethisch unvertretbar ist, den Algorithmus journalistische Artikel oder wissenschaftliche Paper schreiben zu lassen. Und Entscheidungen über die Gesundheit von Patienten sollte KI erst recht nicht treffen.

Kontakt: kolumne@zgo.de

Ähnliche Artikel