Historiker Yuval Harari zu Ethik und Technologie

"Wir werden zu Göttern, aber zu sehr unverantwortlichen"

Der israelische Historiker Yuval Harari spricht über Künstliche Intelligenz, aufgenommen in Peking im Jahr 2017
Der Historiker Yuval Harari hält am heutigen Mittwoch die Eröffnungsrede zur Jahrestagung des Deutschen Ethikrats in Berlin. © imago/VCG
Yuval Harari im Gespräch mit Dieter Kassel · 27.06.2018
Die Technologie macht uns Menschen zu neuen Göttern: Wir schaffen plötzlich Körper, Gehirne und Seelen, so der israelische Historiker Yuval Harari. Doch die Algorithmen könnten uns bald schon überlegen sein. Müssen wir vor diesem Kontrollverlust Angst haben?

Das Interview im Wortlaut:

Dieter Kassel: Der israelische Historiker und Philosoph Yuval Harari hält am heutigen Mittwoch die Eröffnungsrede am Anfang der Jahrestagung des Deutschen Ethikrats in Berlin. Harari hat schon vor knapp drei Jahren in seinem Buch "Homo Deus" vor den möglichen Folgen digitaler Technologien für die gesamte Menschheit gewarnt. Auch in seinem neuen Buch, das in Deutschland erst im September herauskommen wird, zeigt er sich sehr pessimistisch.
Der Ethikrat ist andererseits ein Gremium, das Ratschläge zur Umsetzung von politischem Handeln und auch gesetzlichen Regelungen machen soll, Ratschläge, die uns helfen, die digitale Technik zu nutzen, ohne dass sie uns gefährlich wird. Und deshalb habe ich im Gespräch Yuval Harari zuerst mal gefragt, wie lange er eigentlich gebraucht hat, die Rede für den Deutschen Ethikrat zu entwerfen, eine Rede, in der er dann eben nicht nur warnt, sondern auch sinnvolle Hinweise geben soll.
Yuval Harari: Das fasst meine Arbeit der letzten Jahre eigentlich ganz gut zusammen. Aber mir geht es nicht nur darum, zu warnen oder Ratschläge zu erteilen, sondern die digitale Revolution hat ja auch dazu geführt, dass es Versprechen gibt. Und ich sehe mich ehrlich gesagt auch gar nicht als Pessimisten. Ich will nur vor gewissen Dingen warnen, die innerhalb dieser Versprechungen hin und wieder vergessen werden.
Ich möchte ausbalancieren. Der Privatsektor versucht natürlich, uns immer nur von den wunderbaren Möglichkeiten der digitalen Revolution zu erzählen, all diese wunderbaren Aussichten, die es gibt. Und dann ist es die Aufgabe von Historikern oder von Philosophen wie mir, eben auch die Gefahren zu unterstreichen, die dieser digitalen Revolution innewohnen.

Wissenschaft gibt uns Menschen Macht

Kassel: Dann lassen Sie uns doch gleich über etwas sprechen, was Sie gesagt und was Sie geschrieben haben und was doch nach sehr grundsätzlichen Gefahren klingt. Sie haben nämlich gesagt, Zitat "Die Geschichte begann, als Menschen Götter erfanden, und die Geschichte endet, wenn Menschen zu Göttern werden." Was genau hat das mit Wissenschaft und digitalen Entwicklungen zu tun?
Harari: Traditionell ist es ja so, dass Gott sozusagen das Leben geschaffen hat, ganz egal, ob das in der Religion ist oder in der Mythologie. Und heute wird Gott durch eine Form von Wissenschaft ersetzt, die es möglich macht, uns Menschen eine Macht zu geben, die wir bisher so nicht hatten. Das ersetzt sozusagen eine menschliche Mythologie.
Götter schaffen normalerweise das Leben, so ist es in den ersten Kapiteln der Bibel. Und das haben wir uns jetzt angeeignet. Und im 21. Jahrhundert schaffen wir plötzlich Körper, Gehirne und Seelen. Das heißt, wir stellen menschliche Wesen her, ob das nun Tiere sind, Menschen oder ganz neuartige Wesen, die es bisher auf der Welt noch gar nicht gab.
Kassel: Einerseits sagen Sie, wir werden zu Göttern. Andererseits warnen Sie aber auch davor, dass wir das, was wir geschaffen haben, nicht mehr selbst kontrollieren können, sondern dass es bald uns kontrolliert. Das könnte Göttern, echten Göttern ja eher nicht passieren.
Harari: Wir werden zu Göttern, aber vielleicht zu sehr unverantwortlichen Göttern, und nicht zu diesen Göttern aus der hebräischen Bibel, sondern ähneln da vielleicht mehr den griechischen Göttern, die ja auch sehr viele Fehler hatten und auch sehr viel Unfug angestellt haben. Da sind wir dann nicht so wie dieser biblische Vater. Und in der wissenschaftlichen Mythologie gibt es ja solche Kreaturen wie Frankenstein oder die Matrix, die uns irgendwann überlegen sind, die uns anfangen zu kontrollieren, uns, ihre Schöpfer.
Und wir sind gar nicht so weit davon entfernt, weil es gibt heutzutage Algorithmen oder Computerprogramme, die uns schon besser verstehen als wir uns selbst. Und wir sind sehr nahe dran, dass uns gewisse Algorithmen besser kennen, als wir Menschen uns selber kennen. Und dann verschiebt sich die Kontrolle des menschlichen Lebens von Menschen auf Algorithmen.

Die erste und letzte Frage geht an Google

Kassel: Aber passiert das wirklich? Wenn wir über Algorithmen reden, reden wir darüber, zum Beispiel Musikgeschmack zu analysieren, Verhalten bei Einkäufen, kommerzielle Fragen. Ist das wirklich etwas, was vergleichbar ist mit dem menschlichen Verstand und mit der Art und Weise, wie wir unser Schicksal zumindest versuchen, zu kontrollieren?
Harari: Wir Menschen haben ja schon sehr viele Dinge outgesourct sozusagen, übergeben an Algorithmen, sehr viele Fähigkeiten, die wir früher selbst ausgeübt haben. Wenn es beispielsweise darum geht, sich in einer fremden Stadt zurechtzufinden, also was die ganzen Navis angeht. Heute schauen wir auf unser Handy oder auf einen Navi, und nur noch so bewegen wir uns durch die Welt.
Und wenn wir irgendwelche Fragen haben, dann ist es doch oft so, dass wir heute einfach immer nur Google fragen. Die erste und die letzte Frage geht dann immer an Google. Das heißt, diese Algorithmen kennen uns immer besser als vorher. Und ich glaube, der Moment ist bald erreicht, dass wir dann durch Algorithmen gesagt bekommen, was wir kaufen sollen, wo wir studieren sollen, an welcher Uni, welche Arbeit wir ausüben sollen, und sogar, wen wir heiraten sollen.
Kassel: Dann an dieser Stelle jetzt mal eine ganz einfache Frage. Was können wir dagegen tun?
Harari: Wenn wir vom Kollektiv sprechen, dann ist natürlich das große Problem, wer kontrolliert die Daten und wer reguliert diese Kontrolle. Weil es werden ja immer mehr Infos angesammelt. Wer kontrolliert das Sammeln dieser Daten? Es ist beispielsweise sehr viel einfacher zu kontrollieren, wem das Land gehört. Das haben wir jahrhundertelang getan. Es ist auch sehr viel einfacher zu kontrollieren, wem die Maschinen in der Industriegesellschaft gehören. Auch das haben wir Menschen ganz gut hinbekommen.
Wenn du jedoch deine eigenen Ängste kennst und auch das, was du eigentlich hasst, mit dem du nicht klar kommst, dann ist es sehr viel einfacher für dich, diesen externen Faktoren zu widerstehen, also sich auch gegen Facebook, Google oder die Regierung durchzusetzen, damit du nicht mehr so leicht manipulierbar bist.

Wir können Einfluss nehmen

Kassel: Das klingt nach einer eher psychischen Lösung für ein technisches Problem.
Harari: Psychologie und Technologie waren immer miteinander verknüpft. Das war schon immer ein Problem, und das wird auch ein großes Problem im 21. Jahrhundert bleiben, wie man dieses Problem der Verknüpfung von Psychologie und Technologie – ja, wie man damit umgeht.
Kassel: Ist das aber nicht ein Rennen, das wir kaum gewinnen können? Denn während wir versuchen, die Daten zu kontrollieren, die jetzt gesammelt werden von Algorithmen, die, auch wenn sie teilweise selbstständig gesammelt werden, ja noch im Auftrag von Menschen gesammelt werden, arbeiten Wissenschaftler schon an verschiedenen Formen der künstlichen Intelligenz, die völlig selbstständig arbeitet. Laufen wir nicht Gefahr, dass wir Lösungen für das Problem, das wir jetzt haben, finden, wenn dieses Problem gar nicht mehr aktuell ist?
Harari: Das war eigentlich immer der Fall. Aber es gibt eine Lösung für all diese Probleme, und es war schon immer so, dass, wenn man für ein altes Problem eine Lösung gefunden hatte, dann wurde es zu einem neuen Problem. So hat sich die Menschheit, so hat sich Geschichte letztendlich immer weiterentwickelt. Wir dürfen nur nicht in eine Falle tappen, die ich den technologischen Determinismus nennen würde, der davon ausgeht, da können wir dann gar nichts mehr gegen tun, und dieses Worst-Case-Szenario muss unbedingt eintreten.
Ich als Historiker wehre mich ganz stark dagegen und halte es für falsch, von diesem Determinismus auszugehen, weil man kann jede Technik beeinflussen, das hat die Geschichte eigentlich auch bewiesen. In der Industriellen Revolution gab es Dampfmaschinen, gab es Züge und das Radio, und das ist von verschiedenen Gesellschaften ganz anders benutzt worden.
Wir nehmen uns einfach nur mal das deutsch-deutsche Beispiel, in der DDR und in der BRD hatte man den Zugriff auf die gleiche Technik, nämlich das Radio. Aber was das ostdeutsche und das westdeutsche Radio anging, das waren zwei ganz verschiedene Dinge im Kalten Krieg. Und so sehe ich es eigentlich auch heute. Wir können durchaus einen Einfluss ausüben, und wir müssen diesen Einfluss sozusagen auch geltend machen.
Kassel: Zum Schluss eine persönliche Frage. Sie sind noch relativ jung, geboren 1976. Haben Sie Angst vor der Zukunft?
Harari: Ich versuche natürlich, keine Angst zu haben, aber alles so realistisch wie möglich zu sehen, weil mein Job als Historiker und auch als öffentlicher Intellektueller ist ja, so viel Klarheit wie möglich zu schaffen. Ich muss herausfinden, was ist möglich zurzeit, was wird die Zukunft bringen. Und diese Klarheit besteht ja nur darin, wenn es eine gewisse Balance gibt. Und dafür habe ich zu sorgen. Wer nur Angst hat, wer nur pessimistisch ist, der hat diese Balance nicht mehr, und der kann seinen Job einfach nicht mehr richtig machen. Das führt dann nicht mehr zur Klarheit. Und hier geht es einfach nur darum, dass man akzeptieren muss, was dich umgibt, welche Möglichkeiten du hast.
Kassel: Mister Harari, thank you very much for your insights!
Harari: Thank you very much for listening, bye bye!
Kassel: Der israelische Historiker Yuval Harari. Er hält heute die Eröffnungsrede auf der Jahrestagung des Deutschen Ethikrats. Sein Buch "21 Lektionen für das 21. Jahrhundert" erscheint im September.
Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Deutschlandradio Kultur macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.
Mehr zum Thema