• aktualisiert:

    Würzburg

    Welche Regeln braucht der Umgang mit künstlicher Intelligenz?

    Gut besucht war der Max-Stern-Keller der Alten Universität Würzburg beim Kellergespräch von Main-Post und Juristen-Alumni über Künstliche Intelligenz. Foto: Patty Varasano

    Künstliche Intelligenz (KI) wird helfen, viele Krankheiten schneller zu diagnostizieren, sie wird auf Dauer für weniger Verkehrstote sorgen. Eingesetzt in Waffensystemen, könnte KI aber auch die Kriegsgefahr erhöhen. Beispiele, die zeigen, die neue Technik birgt jede Menge Chancen, aber auch Risiken. Eine Herausforderung für die Gesellschaft, das machte die Diskussion beim Kellergespräch von Main-Post und Juristen-Alumni der Universität im Max-Stern-Keller in Würzburg deutlich. Das Interesse war groß, einige der knapp 100 Zuhörer mussten sogar stehen.

    Maschinen, die mit KI ausgerüstet sind, ersetzen niemals den Menschen, "sie sind ein Werkzeug, das ähnlich wie ein Hammer für gute und böse Dinge genutzt werden kann", sagt ein Zuhörer. Nur dass ein Hammer niemals selbst Initiative ergreift, eine mit Daten gefütterte und per Algorithmus gesteuerte Maschine womöglich aber schon. Wie die Gesellschaft die Kontrolle über technische Entwicklungen behalten kann, darüber forscht Dr. David Roth-Isigkeit. Der Jurist, Philosoph und Politikwissenschaftler ist Leiter des neu gegründeten "Instituts für soziale Implikationen künstlicher Intelligenz" an der Uni Würzburg. Wissenschaftler verschiedener Disziplinen werden hier erörtern, was es an gesetzlichen Regelungen im KI-Zeitalter braucht, welche ethischen Standards gelten sollen, wie die Menschenwürde dauerhaft geschützt werden kann. 

    Aufpassen, dass der mit KI erwirtschaftete Wohlstand gerecht verteilt wird 

    Was KI-gesteuerte Waffen betrifft, kann sich Roth-Isigkeit internationale Vereinbarungen im Rahmen des Völkerrechts vorstellen, wie es sie auch für atomare, biologische und chemische Waffen gibt. Spannend werde es, wenn durch KI die Arbeitswelt durcheinander gerät. Der Würzburger KI-Berater Dr. Tristan Behrens hofft, so erläutert er im Gespräch mit Moderator Andreas Jungbauer (Main-Post), dass die Menschen dann mehr Zeit für Kunst und Kultur oder ehrenamtliches Engagement haben. Ein schöner Gedanke, aber von irgendetwas muss der Mensch leben. Aktuell ist das in der Regel Lohnarbeit. Man müsse schon aufpassen, dass der Wohlstand, der mit KI erwirtschaftet wird, "gerecht verteilt wird", sagt Roth-Isigkeit. Sonst erodiere das demokratische Miteinander. Er habe kein Patentrezept, um dies zu verhindern, so der Wissenschaftler. "Aber die Debatte darüber, die muss die Politik, die müssen wir als Gesellschaft jetzt führen." 

    Diskutierten im Max-Stern-Keller in Würzburg (von links): David Roth-Isigkeit, Andreas Jungbauer, Eric Hilgendorf und Tristan Behrens. Foto: Patty Varasano

    Spannende Fragen ergeben sich für die Rechtsprechung. Anna Lohmann ist Mitglied der Forschungsstelle Robot-Recht an der Uni Würzburg. Dort werden unter anderem Fragen der Haftung und des Strafrechts diskutiert. Wer ist verantwortlich, wenn ein Industrieroboter aufgrund fehlerhaft gelernten Verhaltens einen Menschen schädigt. Zivilrechtlich könne man das Unternehmen, das die Maschine einsetzt, nach geltendem Recht verklagen. Strafrechtliche Ermittlungen richten sich dagegen immer gegen einen Menschen, für eine Verurteilung muss ein individuelles schuldhaftes Verhalten nachgewiesen werden. Gegen wen also soll man ermitteln? Gegen den Chef der Firma, die den Roboter einsetzt? Gegen den Hersteller, der die KI programmiert hat, aber selbst vielleicht gar nicht wissen kann, wie die Maschine in dieser oder jener Situation reagiert? Braucht es also neue Strafgesetze für den Umgang mit KI? Oder muss sich die Gesellschaft damit abfinden, dass es Unfälle geben kann, für die letztlich niemand belangt werden kann.

    Zwei Menschen sind tot – und niemand ist schuld?

    Ein drastisches Beispiel für eine Dilemma-Situation schildert Juraprofessor Eric Hilgendorf, der Leiter der Forschungsstelle, den Zuhörern. 2012 erlitt ein Autofahrer bei der Einfahrt nach Alzenau (Lkr. Aschaffenburg) einen Schlaganfall. Um Schlimmeres zu verhindern habe der Fahrer das Steuer verrissen, so dass das Auto "unter normalen Umständen" in einem Gebüsch vor dem Ortseingang zum Stehen gekommen wäre. Der eingebaute Spurhalteassistent habe das Fahrzeug aber wieder zurück auf die Straße geführt, wo es kurz darauf mit hoher Geschwindigkeit eine vierköpfige Familie erfasste. Die Mutter und ein siebenjähriges Kind starben.

    Zivilrechtlich haftete der Fahrer mit seiner Versicherung. Einen strafrechtlich Verantwortlichen konnte die Staatsanwaltschaft nicht ausmachen. Frustrierend für den überlebenden Vater. "Es stellte sich heraus", so Hilgendorf, "dass niemand im traditionellen juristischen Sinne schuld war". Autonomes Fahren werde niemals frei von Risiken sein, sagt der Jurist. Alles in allem aber, glaubt KI-Fachmann Behrens, "bekommen wir Autos, die ein bisschen besser fahren als der Mensch".  Und so helfen, Verkehrstote zu vermeiden.

    Weitere Artikel
    Fotos

      Kommentare (0)

      Der Diskussionszeitraum für diesen Artikel ist leider schon abgelaufen. Sie können daher keine neuen Beiträge zu diesem Artikel verfassen!