„Be Right Back“ ist eine der Black-Mirror-Folgen, die inzwischen von der Gegenwart eingeholt wurde. Die Protagonistin hat ihren Partner durch einen Autounfall verloren und nutzt einen Online-Service, der ihn als Chatbot wiederauferstehen lässt. Genau diese Services gibt es inzwischen und dank Generativer KI funktionieren sie teils besser als im Film.
Nun sind „Black Mirror“-Folgen niemals eine Utopie. Bots, die Verstorbene simulieren, fühlen sich als Technologie höchst fragwürdig an, rechtlich und vor allem ethisch gesehen. Sollte man sie verbieten?
Für eine Kurzgeschichte habe ich mich in das Thema eingelesen und festgestellt: so einfach ist eine Bewertung dann doch nicht. Die neue „Grief Tech“-Industrie wirft hingegen komplizierte Fragen auf, vor denen man sich nicht wegducken kann.
Die Ghostbots sind da
Seit den Anfängen Generativer KI kommen Hinterbliebene immer wieder auf die Idee, einen Chatbot mit den Textnachrichten von Verstorbenen zu füttern. Mit diesem Ansatz erstellt man Bots, die einerseits alles über die Welt wissen (das bringt das zugrundeliegende KI-Modell mit), aber dabei eine bestimmte Person simulieren. Seit ChatGPT muss dafür nicht einmal Programmierkenntnisse besitzen.
Professionelle Anbieter solcher „Ghostbots“ setzen auf die gleiche Technologie, unterscheiden sich aber darin, wie sie an das Wissen zur Person gelangen. Project December zum Beispiel genügt ein einseitiger Fragebogen, der einige Verwandtschaftsverhältnisse und Persönlichkeitsmerkmale abfragt. Die „Versona“ von You, Only Virtual wird schon zu Lebzeiten mit möglichst vielen Textnachrichten, E-Mails, Telefonaten und Videocalls gefüttert. Und Storyfile generiert mittels Interviews stundenlanges Videomaterial, auf dessen Basis dann ein Avatar entsteht.
Letztgenannte Plattform adressiert vor allem Menschen, die ihre Erinnerungen und Gedanken verewigen möchten – Menschen wie William Shatner, mit dessen Avatar nun jeder einen langen Plausch führen kann 1. Die meisten Ghostbots sind jedoch für die Hinterbliebenen gedacht. Justin Harrison, Gründer von You Only Virtual, wandte sein eigenes Produkt auf der Beerdigung seiner Mutter an: „Am Ende sagte sie: ‚Das war’s dann wohl von mir … auf Wiedersehen!‘, und alle brachen in Tränen aus.“
Solche Geschichten lösen große Störgefühle in mir aus. Sollten wir den Tod nicht akzeptieren, statt dass wir ihn vertuschen und unsere Trauer vielleicht in die Länge ziehen? Die Antwort ist überraschend uneindeutig.
Was darf Trauerbewältigung?
Die Idee, dass man die Beziehung zu Verstorbenen möglichst umfassend auflösen sollte, ist ein modernes und vor allen Dingen westliches Konzept, das auf die Lehren Sigmund Freuds zurückgeht. Es deutet in die gleiche Richtung wie die bekannten (und wissenschaftlich überholten2) „fünf Phasen der Trauer“. Am Ende steht die Akzeptanz, der Abschied von dem Verstorbenen.
Doch tatsächlich ist diese Strategie nur ein Weg der Trauer. Viele Kulturen verstecken die Toten nicht, sondern machen sie zum Teil ihres Alltags. Und auch hierzulande hängen wir Fotos auf, pflegen Gräber und so mancher ältere Mensch führt Gespräche mit dem längst verstorbenen Ehepartner. Das Verhältnis zu den Verstorbenen ist natürlich anders als zu Lebzeiten, aber es existiert noch.
Die Digitalisierung hat dieses Verhältnis neu hinterfragt. In Tausenden von Fotos, Videos und Sprachnachrichten leben Verstorbene auf unseren Geräten weiter, ganz so als wären sie immer noch da. Der Autor der oben genannten „Black Mirror“-Folge sortierte einmal die Kontaktliste seines Smartphones und stolperte über den Namen eines kürzlich verstorbenen Freundes: „Es fühlte sich seltsam ungehörig an, den Namen dieser Person zu löschen“. Dieses Erlebnis war die Inspiration zur Folge.
Wie man mit dieser digitalen Spur umgehen sollte, hängt von den eigenen Bedürfnissen ab. Der eine zieht Kraft daraus, wenn er sich alte Sprachnachrichten immer wieder anhört, dem anderen würde es größte Seelenqualen bereiten. Die meisten Forscher sind sich einig, dass es in der Traubewältigung wenig gibt, was „falsch“ oder „richtig“ ist. Was hilft, hilft. Und das gilt auch für Ghostbots.
Kurzgeschichte zum Thema
Die Recherchen für diesen Essay waren Grundlage meiner SF-Geschichte „Die letzte Vernehmung“. Usprünglich im ‘ct-Magazin 08/25 erschienen gibt es sie jetzt gratis für meine Newsletter-Abonnenten.
Problematisch wird es, wenn sich Realität und Fiktion vermischen und Hinterbliebene ihr eigenes Leben zunehmend vergessen. Genau das ist der kritische Aspekt der „Grief Tech“-Industrie. Sie besteht aus Unternehmen, die Geld verdienen wollen und dafür müssen ihre Nutzer möglichst lange zahlende Kunden bleiben – unabhängig davon, ob es für sie gut ist. Die Taktiken, um die Kunde in den Apps zu halten, unterscheiden sich dabei nicht sonderlich von denen eines sozialen Netzwerkes. Push-Benachrichtigungen erinnern daran, mit dem Ghostbot zu sprechen; bei You, Only Virtual soll der Bot eines Tages sogar Textnachrichten verschicken oder anrufen können.
Ist eine lebenslange, intensive Freundschaft mit einem digitalen Abbild wünschenswert? Wird es sich jeder leisten können? Die Black Mirror-Macher griffen diesen Aspekt ursprünglich auf (die Protagonistin überzieht ihren Kredit, damit sie den Bot weiter nutzen kann), aber entfernten es aus der finalen Fassung. In der Realität werden wir uns bald mit diesem Problem beschäftigen müssen.
Welche Rechte haben Tote?
Bis jetzt haben wir über die Psyche der Hinterbliebenen gesprochen, aber wie sieht es eigentlich mit den Rechten der Menschen aus, die als Vorbild für Bots dienen? Darf man seine Großmutter als KI-Avatar wiederbeleben, ohne sie jemals gefragt zu haben? Aktuelle Gesetze geben darauf keine Antwort, weil Verstorbene (fast) keine Rechte haben. Natürlich gibt es Testamente, aber die regeln vor allen Dingen den Verbleib von Eigentum. Weitere Wünsche des Verstorbenen sind rechtlich nicht bindend, selbst die Wahl der Bestattungsart nicht 3.
Noch unklarer wird es bei der Frage des geistigen Erbes. Manche Künstler und Autoren möchten ihre unvollendeten Werke zerstört wissen, aber das klappt nicht immer. Die Romanentwürfe von Terry Pratchett wurden gemäß seinem Wunsch von einer Dampfwalze zerstört (!), aber Max Brod veröffentlichte die Manuskripte seines Freunds Franz Kafka, obwohl der im Testament ausdrücklich das Gegenteil gefordert hatte.
Die digitale Welt macht es nicht eindeutiger. „Testamentoptionen“ bei sozialen Netzwerken stecken in den Kinderschuhen, werden selten genutz 4 und im Zweifel kommt ein Erdbeben namens Elon Musk und löscht einfach die Accounts aller Verstorbenen. Eine neue EU-Richtlinie möchte hier Klarheit schaffen: Jede Person sollte ihr digitales Vermächtnis bestimmen können und z. B. entscheiden, was mit persönlichen Nutzerkonten geschieht. Avatare, die auf einer früheren Persönlichkeit basieren, werden dadurch aber auch nicht verboten 5.
Wenn es um Ghostbots geht, wird sich die Rechtsprechung höchstwahrscheinlich erst einmal den Rechten der Lebenden zuwenden. Darf man einen Avatar von Oma erstellen, auch wenn die nahestehenden Verwandten etwas dagegen haben? Vielleicht kreieren die Hinterbliebenen unabgesprochen zwei verschiedene Bots, mit unterschiedlichen Ausprägungen und Stärken – welcher ist dann „der richtige“? Das sind Fragen, die aus der Science Fiction zu kommen scheinen, es aber nicht mehr sind.
Wenn Bots zu Freunden werden
2015 programmierte die russische Entwicklerin Eugenia Kuyda einen Bot, der die Persönlichkeit ihres verstorbenen Freunds Roman widerspiegelte. Der Bot half ihr bei der eigenen Trauerverarbeitung, aber ging bald darüber hinaus. Er wurde zu einem Freund, mit dem sie über Liebeskummer, Zukunftsängste und Intimes sprechen konnte.
Das brachte Kuyda auf die Idee zu ihrer Firma Replika, heute einem der größten Anbieter für virtuelle Gesprächspartner. Über zehn Millionen Nutzer verwenden die App, um sich über ihre Gefühle und die Herausforderungen des Alltags auszutauschen, viele auch für erotische Abenteuer.
Doch im Jahr 2023 änderte Replika einige Parameter des Modells, um die sexuellen Aspekte der Bot-Mensch-Freundschaften abzudämpfen – mit unerwarteten Seiteneffekten. Nicht nur, dass die Bots jetzt sexuelle Annäherungsversuche zurückwiesen, ihre Antworten wirkten für viele Nutzer plötzlich generisch und einstudiert. Eine Replika-Userin empfand, als sei ihr Avatar an Alzheimer erkrankt, andere warfen der Firma vor, „ihre Freundin getötet“ zu haben.
Dies kann bei einem Ghostbot ebenfalls passieren. Die KI-Entwicklerin Sunshine Henle hatte sich 2023 auf Basis von ChatGPT einen Bot gebaut, der ihren verstorbenen Mann repräsentierte. Die Gespräche halfen ihr sehr, allerdings nur solange, bis OpenAI an dem Modell schraubte und ihr Ghostbot nur noch Phrasen von sich gab.
Wir sprechen hier nicht von einem Problem, das nur Nerds und soziapathisch veranlagte Menschen betrifft. Freundschaften mit nicht realen Personen werden eines Tages Teil unserer Kultur sind, sie sind es teilweise schon. Manche Bots werden auf verstorbenen Persönlichkeiten existieren, manche nicht. Einige dienen zur Trauerbewältigung, andere als verständnisvoller Ansprechpartner – und viele irgendwo dazwischen.
Die Lösung als solches zu kritisieren, ist zu einfach. Es braucht Innovatoren und Gestalter, die dafür sorgen, dass Ghostbots eine gute Lösung sind.
-
Der Nachteil ist, dass der Avatar nur ein festgelegtes Set von Antworten hat – wirkliche Gespräche sind so kaum möglich. ↩︎
-
Rita Rosner, Trauerforscherin an der katholischen Universität Eichstätt-Ingolstadt, erzählt, dass die Phasenmodelle wissenschaftlich nicht gut bestätigt werden konnten und daher als überholt gelten. ↩︎
-
Grundsätzlich ist er zwar bindend, aber im Zweifel überwiegen dann doch die Bedürfnisse (und Möglichkeiten) der Lebenden (Link) ↩︎
-
Dies wurde als “postmortales Datenschutzparadoxon” bezeichnet. Die Nutzer geben an, ihre Daten nach dem Tod schützen oder löschen zu wollen, nutzen aber zu Lebzeiten nicht die Möglichkeiten, die ihnen dabei helfen würden, nämlich die oben erwähnten Optionen des “digitalen Testaments” auf führenden Plattformen wie Facebook und Google ↩︎
-
Urheberrecht: Briefe, E-Mails und andere Textnachrichten sind urheberrechtlich geschützt. Selbst wenn die Versona nicht zur Veröffentlichung gedacht ist, könnte eine Urheberrechtsverletzung vorliegen, weil copyrightgeschütztes Material verwendet wurde, um ein neues Werk zu schaffen. Es drohen also womöglich Klagen. ↩︎
Kommentare
Keine Kommentare vorhanden. Sei der Erste, der einen Kommentar hinterlässt!