Revolution oder Untergang?

Künstliche Intelligenz: Gefahren und Chancen

Die Entwicklung von künstlichen Superintelligenzen könnte das Paradies oder die Hölle bedeuten. Computer-Experten machen sich schon jetzt Gedanken.

Shutterstock Roboter Mensch künstliche Intelligenz KI

© Shutterstock - Zenzen

Künstliche Intelligenzen bieten viele Chancen. Allerdings sind sie auch potenziell gefährlich.

Künstliche Superintelligenz wird vielleicht erst in ein paar Jahrzehnten eine Technikrevolution auslösen. Doch Computer-Experten machen sich schon jetzt Gedanken, ob auf die Revolution das Paradies oder die Hölle folgen wird.

"Künstliche Intelligenz (KI) kann gefährlicher sein als Atombomben." Diese Aussage stammt nicht von paranoiden Technikgegnern, sondern von einer der Gallionsfiguren der Hightech-Industrie: Unternehmer Elon Musk, bekannt vor allem durch Tesla Motors. Dabei ließ er es nicht nur bei dem flotten Twitter-Zitat bewenden. 

Er spendete 2015 auch zehn Millionen Dollar an das Future-of-Life-Institute, das sich mit KI-Fragen beschäftigt. Außerdem lieferte er sich einen kurzen Schlagabtausch mit Facebook-Gründer Mark Zuckerberg, der KI-Schwarzmalerei für "unverantwortlich" hält. "Seine Kompetenz bei diesem Thema ist beschränkt", konterte der Tesla-CEO. Musk steht mit seinen Befürchtungen nicht allein. 

Auch Physiker Stephen Hawkings hat vor den Gefahren der künstlichen Intelligenz gewarnt und ein Institut zur Erforschung des Gebiets ins Leben gerufen, das Leverhulme Centre for the Future of Intelligence (CFI). Sogar ein Report des EU-Parlaments von 2017 (A8-0005/2017) befasst sich mit Chancen und Risiken der künstlichen Intelligenz. Der Report stellt unter anderem die Frage, wer für Schäden verantwortlich sein soll, die durch autonome Roboter angerichtet werden: Hersteller oder Anwender?

tpu_imag Google

© Google

Googles Tensor Processing Units (TPU) sollen selbstlernende Systeme leistungsfähiger machen. Ein weiterer Schritt zur Superintelligenz?

Gefahren der schwachen Intelligenz

Zurzeit gibt es nur schwache künstliche Intelligenzen, deren Leistungen aber respektabel sind. Als Meilenstein gilt der Sieg der KI Alpha Go gegen den Go-Meister Lee Sedol im März 2016. Alpha Go spielte stark und kreativ. Denn die Software entwickelte Taktiken, die in der jahrhundertealten Go-Theorie unbekannt waren. 

Die sogenannten schwachen Intelligenzen sind beeindruckend und haben ihre Tücken. Da sind zum einen technische Probleme, die gar nichts mit KI zu tun haben. Sicherheitsexperten von IOActive entdeckten zum Beispiel gravierende Sicherheitslücken in Fertigungsrobotern, die eng mit Menschen zusammenarbeiten

Ein Hacker kann ihnen laut Report aus der Ferne Bewegungen einprogrammieren, welche umstehende Menschen schwer verletzen würden. Auch Spielzeugroboter sind danach anfällig für Angriffe und könnten zum Beispiel als Überwachungswerkzeuge im Kinderzimmer missbraucht werden.

KI-Autounfälle

Bei KI-Gefahren fallen einem zunächst autonom fahrende Autos ein. Im Mai 2016 fuhr ein Tesla S im Autopilot-Modus laut Unfallberichten ungebremst unter den Anhänger eines querenden Lkw. Der Fahrer wurde bei dem Zusammenstoß getötet. Die genauen Ursachen des Unfalls sind immer noch nicht ermittelt. 

Es wurde spekuliert, dass der mit Kamera und Radar arbeitende Autopilot den Anhänger als Verkehrszeichen über der Fahrbahn missinterpretiert hätte. Tesla und die US-Sicherheitsbehörden argumentieren, dass der Autopilot des Fahrzeugs nicht dafür gedacht gewesen sei, selbstständig zu fahren. 

Der Fahrer hätte sein Auto immer kontrollieren müssen. Der Vorfall zeigt lediglich, dass die KI autonom fahrender Autos immer noch nicht ganz ausgereift ist. Forscher der Universität Washington zum Beispiel gelang es, eine Software für die Erkennung von Verkehrsschildern auszutricksen. 

Sie klebten kleine, bunte Papierzettelchen auf ein Stoppschild. Die Software hielt dieses prompt für eine Geschwindigkeitsbegrenzung. Fatal – ein KI-Auto könnte so ein Schild missachten und ungebremst in eine gefährliche Kreuzung rasen. Allerdings wurden die Versuche nur im Labor mit der Software durchgeführt, nicht mit einem richtigen Auto auf der Straße. 

Dort hätte vielleicht ein Radar den querenden Verkehr erkannt und das Fahrzeug gebremst. Der Versuch zeigt aber, dass Auto-KI immer noch mit – sicher lösbaren – Problemen zu kämpfen hat. Gleichzeitig sieht man, welche Probleme auftauchen, wenn im Labor trainierte und getestete Systeme mit den Tücken der wirklichen Welt kämp­fen müssen.

Shutterstock Auto KI

© Shutterstock Andrey Suslov

Selbst fahrende Autos müssen in Grenzsituationen "moralische" Entscheidungen treffen.

Mehr zum Thema

Sony Aibo 2017 Roboter
Intelligentes Spielzeug

Vor 10 Jahren stellte Sony die Produktion seines Roboterhundes ein. Nun feiert der neue Aibo sein Comeback - mit künstlicher Intelligenz.
Microsoftgebäude Ki-Camp
Barcamp #KiCamp

PC Magazin hat mit dem #KICamp das erste Barcamp zu Künstlicher Intelligenz in Deutschland veranstaltet. Hier lesen Sie alle Infos.
Chatbots von e-bot7
Künstliche Intelligenz im Einsatz

Kundenservice wird zunehmend über Chats abgewickelt. Doch auf der anderen Seite des Chats sitzen immer öfter keine Menschen mehr - sondern Bots.
IT Trends 2018
Prognose

Quo Vadis Tech-Welt? Wir blicken in unserer Prognose auf die IT-Trends 2018 - von Bitcoin über KI und VR bis hin zu Smarthome und 5G.
KI Prozessor - Künstliche Intelligenz, Neuronales Netz (Symbolbild)
Report

KI-Prozessoren, NPUs und Co: Der Wettstreit um neue Spezial-Chips ist in vollem Gange. Das Ziel: die Funktion unseres Gehirns nachzuahmen.