Künstliche Intelligenz bietet schon für Kinder Chancen – doch gibt es Gefahren. Denn KI entscheidet immer häufiger mit. Foto: stock.adobe.com/Igor Yaruta

Künstliche Intelligenz steckt heute in Google, Alexa und Facebook sowie in Medizin, Aktien, Handys und Krediten. Doch was macht KI auch gefährlich? Zeit für den Fortgeschrittenenkurs.

Stuttgart - Suchmaschinen, Sprachassistenten und Roboter: Wir sind von Künstlicher Intelligenz (KI) umgeben. In einer Serie beleuchten wir, was das für den Menschen bedeutet und wo die Herausforderungen liegen. An dieser Stelle gibt es die wichtigsten Fragen und Antworten, wo Künstliche Intelligenz am weitesten fortgeschritten ist.

Wo ist Künstliche Intelligenz derzeit am weitesten entwickelt?

In der Bilderkennung und Spracherkennung. Handy- und Computernutzer kennen Sprachassistenten wie Apples Siri, Googles Assistant oder Microsofts Cortana. Am bekanntesten ist wohl Amazons vernetzte Sprachsoftware Alexa. Das Besondere dabei ist die Spracherkennung selbst, denn die inhaltliche Kommunikation beschränkt sich vor allem auf leicht programmierbare Fragen wie etwa Wetter, Navigation, Nachrichten, Buchungen oder was sonst leicht mit Internetdatenbanken abgeglichen werden kann.

Wo sind bei Künstlicher Intelligenz heute die Grenzen?

Mit KI kann man heute bereits riesige und komplexe Datenmengen analysieren – teils sogar etwas besser, als ein Mensch dies kann. Im Gegensatz zum Menschen kann sie aber keine Erkenntnisse von einem Bereich auf einen anderen Bereich übertragen. Deshalb wird sie als „schwache“ KI bezeichnet. Eine „starke“ oder „generelle“ KI ist nach Ansicht der meisten Experten noch nicht in Sichtweite.

Lesen Sie auch: Künstliche Intelligenz für Einsteiger

Muss ich wegen Künstlicher Intelligenz keine Fremdsprache mehr lernen?

Das ist noch nicht in Sicht, weil KI zwar von einer Quellsprache in eine Zielsprache übersetzt, aber es bleiben mathematische Formeln und Statistiken, die Bedeutungen kaum erfassen. Dennoch hat es bei den Übersetzungsalgorithmen in den vergangenen Jahren einen sprunghaften Fortschritt gegeben. Als führend gelten etwa das Kölner Unternehmen DeepL, Google mit Translate, aber auch Microsofts Translator. Sie übersetzen mittlerweile nicht mehr Wort für Wort, sondern erfassen auch Bezüge eines Satzes und werden damit immer genauer – und das praktisch in Echtzeit.

Wie sieht es bei der Bilderkennung aus?

Hier war in den vergangenen Jahren der Fortschritt ähnlich rasant. Mit der Gesichtserkennung werden etwa Smartphones entsperrt oder Menschen aus Datenbanken abgeglichen, in Deutschland allerdings in einem beschränkten und regulierten Rahmen. In der Medizin gibt es Beispiele, in denen KI Bilder auf Hautkrebs und Darmkrebs gleich gut oder sogar besser auswertete als Fachärzte. Ihr Erfolg beruht auf den künstlichen neuronalen Netzwerken, die Prozesse des menschlichen Gehirns imitieren.

Lesen Sie auch auch: Künstliche Intelligenz im Alltag.

Kann KI mit dem menschlichen Gehirn konkurrieren?

Nein. Das Gehirn ist ein enormes Netzwerk aus fast 100 Milliarden Nervenzellen. Zellen stehen in Verbund, weil, vereinfacht gesagt, ein Signal einen Folgeimpuls auslöst. Durch die Verknüpfungen schafft es das Gehirn, auch neue Zusammenhänge abzuleiten. Eine KI-Variante versucht, diese neuronalen Netze künstlich nachzuempfinden – die künstlichen neuronalen Netze. Diese KI modelliert die Neuronen des Gehirns und bildet sie mathematisch nach. Schaltet man mehrere Schichten hintereinander und trainiert sie, wird das als Deep Learning (tiefgehendes Lernen) bezeichnet.

Lesen Sie auch: Warum uns KI alle angeht

Wie funktioniert Deep Learning genau?

Am Anfang steht eine Trainingsphase. Angenommen, KI soll am Ende erkennen, ob auf Bildern von Patienten die Merkmale von Hautkrebs zu sehen sind. Hierzu werden die Algorithmen mit möglichst vielen Bildern, die Hautkrebs zeigen, gefüttert und die Merkmale ergänzend mit verschiedenen Regeln definiert. Nach jedem Durchlauf werden die Variablen geändert und verfeinert, dabei wird das Netzwerk Schicht für Schicht präzisiert. Dabei überwachen Menschen den Lernprozess und sortieren Fehlerkennungen idealerweise aus.

Wie gut ist Deep Learning heute?

Deep Learning kann die Funktionsweise eines Gehirns bislang nur minimal nachbilden. Je größer, vielschichtiger und genauer das Datenmaterial ist, desto besser arbeiten die Algorithmen und desto genauer werden die Ergebnisse. Am Ende geht es aber um Wahrscheinlichkeiten. Wie hoch die Trefferquote sein wird, lässt sich allerdings nicht vorhersagen. Deshalb geben die kommerziell genutzten Verfahren in der Regel auch nicht an, wie sicher oder wahrscheinlich eine getroffene Aussage ist.

Verstehen die Programmierer ihre Algorithmen selbst?

Wie die Algorithmen arbeiten, wissen die Programmierer sehr genau. Beim Deep Learning lernen die Algorithmen aber auch, wie sie eigenständig die definierte Aufgabe besser bearbeiten können. Die künstlichen neuronalen Netzwerke sind dabei so konzipiert, dass sie im Lernverlauf manche Informationen stärker gewichten als andere. Das können die Entwickler aber ab einer bestimmten Komplexität nicht mehr genau nachvollziehen, und damit lässt sich der genaue Entscheidungsprozess des Netzwerkes nicht zurückverfolgen.

Was ist die Gefahr dieser KI?

Auch wenn Künstliche Intelligenz nur als Hilfsmittel verwendet wird, sind die Auswirkungen – je nach Bereich – enorm. Mithilfe von KI kann man nach dem Gesicht eines flüchtigen Räubers suchen, nach Krebs, nach einem Produkt oder nach einem geeigneten Datingpartner. Am Ende steht eine gewisse Wahrscheinlichkeit. Die Folgen für die Betroffenen sind aber höchst unterschiedlich. Wer auf offener Straße von der Polizei vernommen wird, weil sein Gesicht dem eines flüchtigen Räubers ähnelt, wird stigmatisiert. Für einen Patienten liefert KI womöglich einen Hinweis auf Leben oder Tod. Für den Single dagegen ist es weniger tragisch, ob vorhergesagte Übereinstimmungen mit dem Date-Partner in der Realität zutreffen oder nicht. Wichtig ist es deshalb einzuschätzen, wie zuverlässig KI überhaupt sein kann und für welche Zwecke sie eingesetzt werden soll.

Lassen sich die Gefahren von Künstlicher Intelligenz entschärfen?

Das versucht die EU, die im April eine mögliche Reglementierung von Künstlicher Intelligenz vorgeschlagen hat. Das Prinzip: je größer die Gefahren bei der Anwendung von Künstlicher Intelligenz, desto höher die Standards und die Kontrolle. Zentral ist die Rolle von Hochrisiko-Anwendungen, zu denen Brüssel unter anderem die kritische Infrastruktur wie den Verkehrssektor, Programme zur Personaleinstellung oder die Bewertung der Kreditwürdigkeit zählt. So soll etwa verhindert werden, dass eine Software bestimmte Bewerbungen bei Einstellungsverfahren ohne objektiven Grund aussortiert.

Wo sieht die EU noch Gefahren für die Verbraucher?

Auch die biometrische Identifikation im öffentlichen Raum, etwa an Bahnhöfen, soll nur in engen Grenzen und nach behördlicher Genehmigung erlaubt werden – etwa bei der Suche nach einem vermissten Kind oder bei einem drohenden Terroranschlag. Technologien wie das Sozialkredit-System aus China, das regelkonformes Verhalten belohnt und Fehlverhalten bestraft, sollen gänzlich verboten werden.

Wie will die EU Künstliche Intelligenz regulieren?

Es sollen hohe Anforderungen für die Daten gelten, mit denen die Algorithmen gefüttert werden. Zudem müssen Entscheidungen im Nachhinein nachvollziehbar sein, und es muss eine menschliche Aufsicht geben. Von den allermeisten KI-Anwendungen – beispielsweise Spam-Filter oder Computerspiele – gehen nach Ansicht der EU-Kommission jedoch keine oder nur geringe Risiken aus. Für sie sollen daher deutlich weniger strenge oder gar keine Auflagen gelten. Bei Chatbots müssen die Nutzer beispielsweise darüber informiert werden, dass sie nicht mit einem Menschen kommunizieren.

Was will die EU damit erreichen?

Ähnlich wie bei der Datenschutzgrundverordnung, die auch auf anderen Kontinenten zum Vorbild genommen wurde, will die EU globale Standards setzen. Laut EU-Kommission ist es der erste mögliche weltweite Rechtsrahmen für Anwendungen auf Grundlage maschinellen Lernens. Das soll Vertrauen schaffen und Bürgerrechte schützen. Deshalb drohen auch Firmen drastische Strafen. Je größer die potenziellen Gefahren sind, desto höher sollen die Bußen sein. Details sind aber offen. Zuerst müssen die EU-Staaten und das Europaparlament über die Vorschläge verhandeln. Es dürfte also noch einige Jahre dauern, ehe in der EU neue Regeln gelten.

Weitere Teile unserer KI-Serie finden Sie auf dieser Seite.

Quellen: Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI), Karlsruher Institut für Technologie (KIT), Cyber Valley, Bundesverband Informationswirtschaft, Telekommunikation und neue Medien (Bitkom), Deutsches Krebsforschungszentrum Heidelberg (DKFZ), Bundesministerium für Familie, Senioren, Frauen und Jugend (BMFSFJ), Europäische Kommission, Enquetekommission „Künstliche Intelligenz“ des Deutschen Bundestags, Unternehmensangaben, weitere Recherchen.