• aktualisiert:

    Würzburg

    Künstliche Intelligenz: Würzburger Ethik-Experte zieht Linien

    Künstliche Intelligenz (KI) ist zum Top-Thema geworden, spätestens seit dem Digital-Gipfel der Bundesregierung in dieser Woche. Schnell tauchen in diesem Zusammenhang Fragen grundsätzlicher Art auf. Wie weit kann der Mensch bei KI gehen? Was macht die allgegenwärtige Digitalisierung mit uns? Fragen, die ein Philosoph beantworten sollte. Professor Wolfgang Schröder von der Katholisch-Theologischen Fakultät der Uni Würzburg tut das. Er ist Mitglied des Anfang 2018 gegründete DIN-Ausschuss „Künstliche Intelligenz“ (KI) - als einziger Philosoph im 28-köpfigen Expertengremium.

    Frage: Herr Schröder, haben Sie Angst vor Künstlicher Intelligenz?

    Prof. Wolfgang Schröder: Nein. Was man von Fachleuten hört: Es gibt keinen Grund für Horrorszenarien wie in Science-Fiction-Romanen. Ich glaube, dass es Schwierigkeiten geben kann, wenn man die KI falsch einsetzt, was private Daten angeht. Aber die KI selbst ist kein Monster. Sie ist – wie fast jede Technik – zum Guten und zum Bösen handhabbar. Mein Interesse als Ethiker ist, dafür zu sorgen, dass wir die Chancen zum Positiven möglichst alle nutzen. Und den Leuten die Angst nehmen vor solchen diffusen Gedanken.

    Gutes Stichwort: Wie genau kann man den Menschen diese Angst nehmen?

    Schröder: Durch Aufklärung. Als Philosoph ist das für mich der Hauptpunkt. Das heißt: Wir brauchen mehr Bildung über KI.

    Wer ist hier in der Pflicht?

    Schröder: Natürlich die Schulen und die Universitäten. Aber auch jeder Mensch, der auf gutem Niveau mitdiskutieren will in der Gesellschaft. Er sollte selbstständig etwas für seine Weiterbildung tun.

    Sie sind Theologe. Sie könnten sagen: Gott hat den Menschen erschaffen und mit Intelligenz ausgestattet – was soll das jetzt mit der Künstlichen Intelligenz? Gibt der Mensch also jetzt ein Stück Intelligenz ab?

    Schröder: Ich bin nicht dafür, dass man die Intelligenz abgibt. Da sehe ich auch ein mögliches Missverständnis. Dass man also glaubt, die Künstliche Intelligenz könnte jetzt schon oder in Zukunft alles sehr viel besser – quasi gottähnlich. Es gibt ja in der sogenannten Natürlichen Theologie die Vorstellung, Gott sei ein Mastermind. Das ist für manche Leute in der KI-Forschung ein bisschen das Ziel: Diese Art von theologischer Gottesvorstellung, das Superhirn oder die Superweisheit – das bauen wir einfach technisch nach durch einen Computer. Ich halte das, auch nach Rücksprache mit Fachleuten aus der KI, für einen Witz. Das ist nicht realistisch.

    Man hört ja bei Künstlicher Intelligenz häufig auch die Meinung, dass diese digitale Hilfe in Fabriken die Menschen nicht abschafft, sondern als neuer Kollege anzusehen ist. Also: KI helfe dem Arbeiter und vernichte keine Jobs. Unterschreiben Sie das?

    Schröder: Ich würde nicht sagen, KI ist der Kollege des Menschen, weil es mir wichtig ist noch zu unterscheiden zwischen richtigem Menschen und Hilfsmitteln auf etwas anderem technischen Niveau, als wir das früher kannten. Ich bin nicht dafür, dass man den Unterschied zwischen Mensch und Maschine komplett nivelliert. Ich möchte auch nicht, dass man sich daran gewöhnt, mit Maschinen so zu sprechen und umzugehen, als wären sie Menschen. Das sind sie nicht, werden sie auch nicht werden. Aber ich finde es eine große Chance, dass wir für die Dinge, die wir nicht gerne oder nur mit großer Mühe selber machen wollen, jetzt eine große Hilfe haben. Ich bin sehr dafür, dass auch die menschlichen Grundfähigkeiten einer natürlichen Intelligenz weiter trainiert werden. Und nicht verloren gehen dadurch, dass man so viel auf Maschinen abschieben kann. Wir brauchen doch Menschen mit klarer Urteilskraft und Durchblick, sonst ist es eine große Gefahr.

    Wolfgang Schröder
    Der 50-Jährige ist Professor für Philosophie an der Universität Würzburg. Schröder hat Philosophie, Kunstgeschichte und katholische Theologie studiert und war von 1993 bis 2007 als Pfarrer tätig. Seit März 2018 sitzt Wolfgang M. Schröder neben Vertretern von Wirtschaft und Wissenschaft als einziger akademischer Philosoph im Ausschuss "Künstliche Intelligenz" des auf Normung spezialisierten DIN-Instituts in Berlin. Schröder ist außerdem Mitglied des Vereins "Charta digitale Vernetzung", der 2014 auf dem Nationalen IT-Gipfel (jetzt: Digital-Gipfel) der Bundesregierung aus Unternehmenskreisen heraus gegründet wurde, um die Digitalisierung unserer Gesellschaft wohlwollend zu begleiten. Auf dem Digital-Gipfel in Nürnberg legte Schröder für die Charta einen "Kompass für Künstliche Intelligenz" vor, der sich als Plädoyer für einen aufgeklärten, nach vorne gerichteten Umgang mit dem Thema ausspricht.

    Sie erwähnten es: mit Maschinen und Robotern sprechen. Nutzen Sie solche Dinge mit Spracherkennung wie Alexa oder Siri?

    Schröder: Nein. Das sind für mich auch keine sinnvollen Hilfsmittel. Ich kann das alles noch kurz selber machen. Ich möchte auch nicht ständig solche Dinge abgeben in Bereichen, wo alles leichter werden soll, ich es aber selber machen kann.

    Sie sitzen im Ausschuss „Künstliche Intelligenz“ des DIN-Instituts. Was gibt es bei Künstlicher Intelligenz zu normen?

    Schröder: Ganz schön viel. In erster Linie muss man Standards haben, was gute KI ist – im Sinne von technisch gut. Und was ethisch verantwortliche KI ist. Im Sinne von: Die Leute, die das programmieren, haben auch den möglichen Schaden im Blick, den man durch ethisch problematische Programmierung herstellen kann.

    Sie sprechen von guter KI. Was ist dann schlechte KI?

    Schröder: Das ist heute ein Schlagwort. Ich spreche lieber von problematischer KI. Also von einem Algorithmus, den man mit einseitigen Daten füttert. Dann kann dieser Algorithmus nur zwischen Schwarz und Weiß oder Null und Eins sortieren. Unsere Lebenswelt ist aber komplexer. Da sehe ich die Schwierigkeit.

    Auf was freuen Sie sich, wenn sich Künstliche Intelligenz hierzulande bald so richtig ausbreiten sollte?

    Schröder: Ich freue mich auf den Moment, wenn wir völlig entspannt über KI sprechen können. Und das auf einem Niveau, auf dem jeder weiß, was realistisch ist und was Horrorvorstellungen sind, die in den Bereich „Grimms Märchen 2018“ gehören.

    Es war ja gerade auf der Digital-Konferenz vor wenigen Tagen in Nürnberg zu hören gewesen: Deutschland müsse bei der Künstlichen Intelligenz viel mehr Gas geben, weil uns die Chinesen und Amerikaner da voraus sind. Sehen Sie das auch so?

    Schröder: Ja und nein. Wir sind an vielen Stellen vorne dabei. An anderen Stellen, an denen wir gar nicht vorne sein wollen, sind wir es nicht. Ich möchte etwa nicht vorne bei den Chinesen sein, wenn es um Social Scoring geht. Hier sollten wir ganz aus dem Rennen rausgehen. Hingegen haben wir schon gute Forschungszentren zur KI. Von 100 wichtigen dieser Zentren weltweit sind 33 in Europa. Das Deutsche Forschungszentrum für Künstliche Intelligenz ist eines der führenden. Was wir brauchen, sind mehr Kenntnisse in Informatik in der Schule und natürlich in den Universitäten. Da können wir aufholen.

    Tut die Politik genug?

    Schröder: Wir haben in Deutschland kein Erkenntnisproblem der Politik. Aber wir brauchen mutige Leute, die tun, was sie als richtig erkannt haben. Und zwar schnell.

    Würden Sie sich von einem selbstlernenden Roboter operieren lassen?

    Schröder: Wenn allein der Roboter an mir rumschnippelt, lieber nicht. Aber ich glaube, es kommt auch auf die Operation an. Zum Beispiel bei Augenoperationen oder sehr punktgenauen Eingriffen kann eine Maschine mehr Sicherheit zumindest versprechen. Jeder Mensch kann Fehler machen, die Maschine auch. Ich möchte deshalb beide Seiten nicht gegeneinander ausspielen. Ich würde mich also am ehesten da unters Messer legen, wo beides gut zusammenarbeitet.

    Gerade in Medizin und Pflege kommt man sehr schnell an moralisch-ethische Grenzen, wenn es um Digitalisierung und Künstliche Intelligenz geht. Wo ziehen Sie diese Grenzen?

    Schröder: Zum Beispiel das Thema E-Health. Wenn Sie durch Wearables sehr persönliche und sehr intime Daten generieren, dann muss Cybersicherheit ein ganz wichtiges Thema sein. Man darf Menschen also nicht regelrecht melken, was Daten angeht. Das sind keine Nutzobjekte, sondern Menschen, die einfach etwas für ihre Gesundheit tun wollen. Da muss die Datensouveränität gewahrt sein. Es darf uns niemand zum gläsernen Patienten machen.

    Vielleicht kommen wir ja einmal an den Punkt, an dem wir bei einem Pfarrer mit Künstlicher Intelligenz – also einem Sprachcomputer - die Beichte ablegen können.

    Schröder: Wen das reizt, der kann ja darauf warten. Ich glaube aber, es wäre keine Lösung, wenn zum Beispiel die Bischofskonferenz einen Roboter einsetzt, um irgendwelche Stellungnahmen abzugeben. Wenn es um das Reden über Schuld geht, ist das etwas Menschliches und muss zwischen Menschen besprochen werden.

    Warum brauchen wir Digitalethik? Warum brauchen wir Menschen wie Sie, die sich als Philosophen mit Künstlicher Intelligenz beschäftigen?

    Schröder: Weil wir hier eine Revolution in den Grundlagen unserer gesellschaftlichen Lebensformen haben. Fast alles – schon jetzt oder in der nahen Zukunft – wird auf digitale Grundlagen umgestellt. Bildung, Schule, Kommunikation. Da kann man vieles falsch oder richtig machen. Und Ethik ist die Reflexion darüber, was der bessere Weg, was die bessere Alternative ist. Deshalb braucht man die Ethik, gerade jetzt.

    Künstliche Intelligenz
    Ein Roboter steht im Raum eines Pflegebedürftigen, speichert permanent dessen Atemgeräusche auf und analysiert sie, ober dieser Mensch nur hustet oder lebensbedrohlich röchelt - und löst gegebenenfalls Alarm aus. Die Software in einem autonom fahrenden Auto erfasst permanent und in Sekundenschnelle alle möglichen Verkehrssituationen, "lernt" sie und steuert mit dieser Erfahrung das Auto zum Beispiel um Hindernisse herum. Sensoren nehmen rund um die Uhr die Betriebsgeräusche eines Windrades auf und erkennen anhand dieses ständig wachsenden Datensatzes im Voraus, wann und wo das Windrad kaputtgehen wird. So wird automatisch und rechtzeitig vor dem Störfall der Wartungsdienst informiert. Drei Beispiele für Künstliche Intelligenz. Sie zeigen: Es geht darum, dass Software aus eingehenden Daten lernt, was in bestimmten Fällen zu tun ist.
    Künstliche Intelligenz wird in der Medizin, im Verkehr sowie in der Industrie die größte Bedeutung beigemessen. In China wird KI unter anderem für Social Scoring eingesetzt. Dabei handelt es sich um ein digitales, selbst lernendes System, das Menschen zum Beispiel nach ihren sozialen Kompetenzen oder nach ihrer Straffälligkeit beurteilt.
    Lade TED

    Ted wird geladen, bitte warten...

    Weitere Artikel

    Kommentare (0)


    Sie sind noch kein Mitglied auf mainpost.de?
    Dann jetzt gleich hier registrieren.