Revolution oder Untergang?

Künstliche Intelligenz: Gefahren und Chancen

Die Entwicklung von künstlichen Superintelligenzen könnte das Paradies oder die Hölle bedeuten. Computer-Experten machen sich schon jetzt Gedanken.

Shutterstock Roboter Mensch künstliche Intelligenz KI

© Shutterstock - Zenzen

Künstliche Intelligenzen bieten viele Chancen. Allerdings sind sie auch potenziell gefährlich.

Künstliche Superintelligenz wird vielleicht erst in ein paar Jahrzehnten eine Technikrevolution auslösen. Doch Computer-Experten machen sich schon jetzt Gedanken, ob auf die Revolution das Paradies oder die Hölle folgen wird.

"Künstliche Intelligenz (KI) kann gefährlicher sein als Atombomben." Diese Aussage stammt nicht von paranoiden Technikgegnern, sondern von einer der Gallionsfiguren der Hightech-Industrie: Unternehmer Elon Musk, bekannt vor allem durch Tesla Motors. Dabei ließ er es nicht nur bei dem flotten Twitter-Zitat bewenden. 

Er spendete 2015 auch zehn Millionen Dollar an das Future-of-Life-Institute, das sich mit KI-Fragen beschäftigt. Außerdem lieferte er sich einen kurzen Schlagabtausch mit Facebook-Gründer Mark Zuckerberg, der KI-Schwarzmalerei für "unverantwortlich" hält. "Seine Kompetenz bei diesem Thema ist beschränkt", konterte der Tesla-CEO. Musk steht mit seinen Befürchtungen nicht allein. 

Auch Physiker Stephen Hawkings hat vor den Gefahren der künstlichen Intelligenz gewarnt und ein Institut zur Erforschung des Gebiets ins Leben gerufen, das Leverhulme Centre for the Future of Intelligence (CFI). Sogar ein Report des EU-Parlaments von 2017 (A8-0005/2017) befasst sich mit Chancen und Risiken der künstlichen Intelligenz. Der Report stellt unter anderem die Frage, wer für Schäden verantwortlich sein soll, die durch autonome Roboter angerichtet werden: Hersteller oder Anwender?

Gefahren der schwachen Intelligenz

Zurzeit gibt es nur schwache künstliche Intelligenzen, deren Leistungen aber respektabel sind. Als Meilenstein gilt der Sieg der KI Alpha Go gegen den Go-Meister Lee Sedol im März 2016. Alpha Go spielte stark und kreativ. Denn die Software entwickelte Taktiken, die in der jahrhundertealten Go-Theorie unbekannt waren. 

Die sogenannten schwachen Intelligenzen sind beeindruckend und haben ihre Tücken. Da sind zum einen technische Probleme, die gar nichts mit KI zu tun haben. Sicherheitsexperten von IOActive entdeckten zum Beispiel gravierende Sicherheitslücken in Fertigungsrobotern, die eng mit Menschen zusammenarbeiten

Ein Hacker kann ihnen laut Report aus der Ferne Bewegungen einprogrammieren, welche umstehende Menschen schwer verletzen würden. Auch Spielzeugroboter sind danach anfällig für Angriffe und könnten zum Beispiel als Überwachungswerkzeuge im Kinderzimmer missbraucht werden.

KI-Autounfälle

Bei KI-Gefahren fallen einem zunächst autonom fahrende Autos ein. Im Mai 2016 fuhr ein Tesla S im Autopilot-Modus laut Unfallberichten ungebremst unter den Anhänger eines querenden Lkw. Der Fahrer wurde bei dem Zusammenstoß getötet. Die genauen Ursachen des Unfalls sind immer noch nicht ermittelt. 

Es wurde spekuliert, dass der mit Kamera und Radar arbeitende Autopilot den Anhänger als Verkehrszeichen über der Fahrbahn missinterpretiert hätte. Tesla und die US-Sicherheitsbehörden argumentieren, dass der Autopilot des Fahrzeugs nicht dafür gedacht gewesen sei, selbstständig zu fahren. 

Der Fahrer hätte sein Auto immer kontrollieren müssen. Der Vorfall zeigt lediglich, dass die KI autonom fahrender Autos immer noch nicht ganz ausgereift ist. Forscher der Universität Washington zum Beispiel gelang es, eine Software für die Erkennung von Verkehrsschildern auszutricksen. 

Sie klebten kleine, bunte Papierzettelchen auf ein Stoppschild. Die Software hielt dieses prompt für eine Geschwindigkeitsbegrenzung. Fatal – ein KI-Auto könnte so ein Schild missachten und ungebremst in eine gefährliche Kreuzung rasen. Allerdings wurden die Versuche nur im Labor mit der Software durchgeführt, nicht mit einem richtigen Auto auf der Straße. 

Dort hätte vielleicht ein Radar den querenden Verkehr erkannt und das Fahrzeug gebremst. Der Versuch zeigt aber, dass Auto-KI immer noch mit – sicher lösbaren – Problemen zu kämpfen hat. Gleichzeitig sieht man, welche Probleme auftauchen, wenn im Labor trainierte und getestete Systeme mit den Tücken der wirklichen Welt kämp­fen müssen.

tpu_imag Google

© Google

Googles Tensor Processing Units (TPU) sollen selbstlernende Systeme leistungsfähiger machen. Ein weiterer Schritt zur Superintelligenz?
Shutterstock Auto KI

© Shutterstock Andrey Suslov

Selbst fahrende Autos müssen in Grenzsituationen "moralische" Entscheidungen treffen.

Mehr zum Thema

Amazon Echo Look
Amazon

Für Echo Look kombiniert Amazon seinen Sprachassistenten Alexa mit einer smarten Kamera. Das Ergebnis: Ein sprechender Style-Berater.
Amazon Echo in Deutschland
Intelligente Sprachassistenten

Mittlerweile gibt es immer mehr intelligente Sprachassistenten, die nicht nur Befehle verfolgen, sondern auch dazu lernen sollen. Was können Sie…
KiCamp Logo
Barcamp

Am 11. Oktober findet in München kostenlos das 1. KiCamp statt. Als informelles Barcamp richtet es sich an Forscher, Startups und interessierte Laien.
Sony Aibo 2017 Roboter
Intelligentes Spielzeug

Vor 10 Jahren stellte Sony die Produktion seines Roboterhundes ein. Nun feiert der neue Aibo sein Comeback - mit künstlicher Intelligenz.
Cyber Monday Angebote
Schnäppchen

Amazon startet bald die Cyber Monday Woche. Schon jetzt gibt es attraktive Angebote für Dash-Buttons und Fire-Tablets.