Es gibt dieses schöne Wort im Deutschen: Urheber. Man braucht es vor allem im Zusammenhang mit Kunstwerken, aber es steckt ein grundlegenderer Beweg-Grund darin – die Wortherkunft ist verwandt mit der Ursache, einem Anfang von Etwas, was nicht zuletzt mit Verantwortung zu tun hat. Also kann der Urheber auch politisch verstanden werden, in diesem Fall meistens weniger unschuldig, es geht dann eher darum, die Anstifter zu finden.
Zum deutschen Begriff kam irgendwann der lateinische, dem Urheber wurde der Autor zur Seite gestellt. Der wiederum hat mit Autorität zu tun, und die hat auch eine wichtige juristische Komponente. Bei den Römern war die auctoritas überall dort die regulierende Entscheidungsgrundlage fehlte, wo es keine klaren juristischen Vorschriften gab. Auctoritas konnte sowohl Einzelpersonen als auch einem Kollektiv zukommen, insofern war der Begriff etwas weiter als heute gefasst: Er lässt sich am besten mit «Würde», «Ansehen», «Einfluss» umschreiben.
Taugen die beiden Begriffe, wenn man an Künstliche Intelligenz denkt? Im Feld der Kunst hat AI (Artificial Intelligence) noch lange nicht den Status einer Urheberschaft erlangt, auch wenn diverse Künstlerinnen- und Forschergruppen das unlängst immer wieder behauptet haben. AI kann Muster reproduzieren; wirklich kreativ sein kann sie kaum – zumal wenn man an die Art von Kreativität denkt, die sich im 20. Jahrhundert entwickelt hat: als Instrument der Kritik, als unbequeme und unberechenbare, kontingente Praxis. Auch gesellschaftlich einflussreich im römischen Sinn ist AI noch lange nicht. Entsprechende Visionen für eine in gesellschaftliche oder gar politische Prozesse eingreifende AI gibt es zwar, aber sie sind noch ohne konkrete Grundlage – wie genau Deep Learning uns aus dem Klimaschlammassel helfen soll, hat noch kein Forscherinnenteam aufgezeigt. Und überhaupt ist es einigermassen fraglich, ob eine Gesellschaft Maschinen je dermassen viel Autorität zugestehen würde.
Gleichzeitig gilt: Maschinen werden immer autonomer. Sie fällen Entscheide, sie können Fehler begehen, die fatale Auswirkungen haben – und die nicht einfach als «Defekt» verbucht werden können. Oder anders gesagt: Sie können vollkommen «richtig» funktionieren, und trotzdem etwas furchtbar Falsches machen. Das unterscheidet sie von den technischen Apparaturen, die das industrielle Zeitalter bis Ende des 20. Jahrhunderts geprägt haben.
Für eine Fehlfunktion kann eine Maschine nichts, es braucht schon so etwas wie eine Fehlhandlung, um für das Resultat verantwortlich zu sein. Die Maschine muss dabei nicht einfach einem Funktionsschema folgen, sie muss Optionen haben und sie muss abwägen, welche sie für die beste hält – und sie sollte insofern auch eine Ahnung davon haben, welche sie für die schlechteren hält, bestenfalls auch noch: aus welchen Gründen. Das allerdings führt rasch ins ethische Unterholz: Wenn ein selbstfahrendes Auto so plötzlich in eine unvorhersehbare Unfallsituation gerät, dass es nur noch zwischen schlechten Ausgängen entscheiden kann – geradeaus und das Kind überfahren, ausweichen und die Gruppe auf dem Trottoir erwischen, schleudernde Vollbremsung mit hohem Risiko für die Fahrzeuginsassen – dann muss es womöglich mit einer rasch durchrechenbaren Konzeption von Ethik ausgestattet sein, die jeden Menschen überfordern würde. Dem Zufall überlassen wird es die Entscheidung nicht können.
Könnten der AI bei dieser Hochgeschwindigkeitsethik (man denkt nicht umsonst auch ans High-Frequency-Trading) Fehler unterlaufen, die man nicht dem Softwareentwickler, sondern der Software selbst anlasten würde? Was gleich zur nächsten vertrackten Frage führt: Braucht es auch noch eine Einsicht in die Fehlerhaftigkeit des Handelns, um von Schuld zu reden? In der angelsächsischen Rechtssprechung wird mit der mens rea (lateinisch: schuldiger Geist; auch mental element oder fault element) argumentiert, wenn das Schuldmass eruiert werden soll. Erst wer weiss, dass er etwas Falsches tut, kann mit der vollen Härte des Gesetzes be- und verurteilt werden. «Actus non facit reum, nisi mens sit rea» – «Keine Schuld ohne Bewusstsein der Schuld»: Müssen Maschinen also so viel Bewusstsein für ihre Handlungen (und für mögliche Fehlhandlungen) entwickeln, dass sie selber einsehen, wo sie Fehler begehen? Braucht eine Maschine nicht nur einen Gerechtigkeitssinn (bis auf weiteres, als läppische Krücke: eine ethische Optimierungsfunktion), sondern auch ein Unrechtsbewusstsein?
Das würde dann allerdings erst einmal ein Bewusstsein bedingen, und dieses gehört zu den notorisch unscharfen Begriffen, mit denen sich die Philosophie des Geistes schon seit langem herumschlägt, viel länger als es AI-Systeme gibt. Neuerdings haben derlei Fragen im Zuge aktueller algorithmischer Entwicklungen wieder Konjunktur, nachdem sie ein wenig verschütt gegangen waren im dekonstruktionistischen Steinbruch des Denkens. Dumm nur: Da lauern wieder die alten Zirkelschlüsse. Kann eine Maschine Bewusstsein erlangen? Definiere: Bewusstsein. Kann eine Maschine intelligent sein? Definiere: Intelligenz. Und wer sagt uns denn mit Gewissheit, dass wir Menschen wirklich bewusst sind und dieses Bewusstsein (geschweige denn die Intelligenz) keine schmeichelhafte Selbsttäuschung ist? Turing wusste das übrigens auch, deshalb hat er seinen berühmten Turing Test explizit als philosophisches Ausweichmanöver konzipiert: Nicht über die Intelligenz der Maschine (bzw. des Menschen) wollte er nachdenken, sondern darüber, ob sie uns überzeugend genug suggerieren kann, intelligent zu sein. Dasselbe muss wohl auch für die Schuldfähigkeit gelten: Wenn ein Auto überzeugend genug selbst einen Unfall verursacht, wenn es überzeugend genug selbst einen Fehler begangen hat, dann werden wir mit dem Finger nicht mehr auf den Konstrukteur zeigen. Wenn wir es für schuldig halten, wird es schuldig sein.
Diese Fragen interessieren natürlich irgendwann auch den Gesetzgeber, doch weit früher und weit konkreter sorgen sich die Versicherungen um derlei philosophische Grautöne und Vertracktheiten. Wer ist schuld, heisst in dem Zusammenhang dann ganz prosaisch: Wer ist haftbar. Und da wird die derzeitige Schwierigkeit im Umgang mit Künstlicher Intelligenz sehr deutlich: Haben wir es nämlich nur mit (etwas komplexeren) Maschinen zu tun, dann ist das juristisch gar nicht viel Neues: Hersteller von Maschinen müssen dafür besorgt sein, diese so zu konstruieren, dass sie keinen Schaden anrichten. Das ist common sense – und auch entsprechend einklagbar.
Am Beispiel des selbstfahrenden Autos aber wird die Komplexität des Ganzen klar: Der Autohersteller haftet natürlich nur bei Fehlverhalten der Maschine, nicht bei einem solchen des Fahrers – auch das leuchtet unmittelbar ein. Was aber wenn nun zwei potentielle Fahrer im Wagen sitzen? Ein menschlicher und eine Künstliche Intelligenz? Muss diese womöglich auch irgendwie versichert werden? Inzwischen ist schon von ersten Fällen zu lesen, in denen AI-Systeme vor Gericht gezerrt werden. Bloomberg brachte unlängst eine Story über einen Streitfall aus Hongkong, der derzeit vor dem Handelsgericht in London ausgetragen wird. Es geht um eine AI, die besser traden sollte als ein menschlicher Broker, tatsächlich aber bald Unsummen verlor, einmal gleich 20 Millionen Dollar an einem Tag. Kein Wunder, versucht der Anleger diesen Verlust einzuklagen. Die Anwälte des Geschädigten argumentieren, dass es sich um einen durchaus vorhersehbaren Fehler im System handelte, man könnte auch sagen: um eine Dummheit, die als Intelligenz verkauft wurde. Die Gegenseite stellt sich auf den Standpunkt, dass nicht der menschliche Faktor entscheidend war, dass den Hersteller der Software also keine Schuld treffe. Bloomberg nennt es das «black box problem»: «If people don’t know how the computer is making decisions, who’s responsible when things go wrong?» So wie es im Moment aussieht: der KI-Scharlatan, der etwas verspricht, das die Maschine gar nicht halten kann.
Das könnte sich in Zukunft durchaus ändern. Wenn es bloss um finanzielle Abgeltung geht, um Schadenersatz, der sich leicht mit einer Transaktion regeln und damit auch aus der Welt schaffen lässt, finden wir wohl bald juristische Verfahrensweisen für eine Welt, in der KI immer stärker in Entscheidungsprozesse eingreift. Hier wird auch sie Rechenschaft ablegen müssen – ein sehr aktives Feld in der KI-Forschung heisst nicht umsonst «algorithmic accountability». Womit wir übrigens bei der Zurechnungsfähigkeit wären, ein weiterer sehr unscharfer Begriff, für Menschen gemacht, für Maschinen wohl kaum zu brauchen. Oder werden Anwälte bald argumentieren, dass das neuronale Netzwerk nicht in bester geistiger Verfassung war, als es das Auto direkt in die Wand gesteuert hat? Weil normalerweise würde es so etwas ja nie tun.
Was also, wenn es um eine Schuld geht, die sich nicht aufs Monetäre beschränkt, wenn Menschenleben zerstört werden? Wie soll ein selbstfahrendes Auto bestraft werden, sofern seine Schuld nachgewiesen ist? Es für ein halbes Jahr in die Garage stecken ohne Licht und Internetverbindung? Letztlich baut unser ganzes juristisches System auf der Schuldfähigkeit auf – weil es nicht nur strafen, sondern auch sühnen will. Es hat insofern eine hygienische Funktion für die Gesellschaft: Wenn ein kleines Kind überfahren wird, soll vor Gericht vor allem herausgefunden werden, wer die Schuld daran trägt, ob also ein Täter ausgemacht werden kann, oder anders gesagt: ob man es mit einer Tat oder einem Unglück zu tun hat. Und weiter, falls es einen Täter gibt: Wie dieser mit seiner Schuld umgeht – ob er sie einsieht, ob er sie bereut, ob es einen Weg der buchstäblichen Wiedergutmachung gibt. Oft gibt es ihn nicht, dann bleibt als gesamtgesellschaftliche Massnahme nur die Strafe, um der Gerechtigkeit genüge zu tun.
All diese Mechanismen laufen ins Leere, wenn eine Maschine «Schuld» hat. Da können die Vertreterinnen einer utilitaristischen Ethik noch lange argumentieren, dass selbstfahrende Autos bald so fähige Verkehrsteilnehmer sein werden, dass sie für weniger Unfälle sorgen wie Menschen hinter dem Steuer – und dass wir sofort umstellen sollten, sobald dieser Punkt erreicht ist. Doch das stimmt nicht: So lange wir auf dieser Ebene keinen Umgang mit der Autorschaft gefunden haben, wird jedes menschliche Opfer eines zu viel sein, eine Untolerierbarkeit. Menschliches Versagen: dafür können wir als Menschen Verständnis aufbringen, dafür haben wir einen ausgefeilten (und mit Grautönen bestens vertrauten) juristischen Apparat konstruiert, der es auffangen kann. Vereinzeltes maschinelles Versagen dagegen könnte zum Versagen eines ganzen technischen Komplexes führen.