weibelmaschine.net ist der Versuch, die Essenz von Peter Weibels Sprechen zu digitalisieren und so eine orakelhafte Version seines Geistes, auch als Inspiration für kommende Generationen, zu schaffen. Wir haben uns bewusst dafür entschieden, nur den Klang der Stimme zu simulieren, um den performativen Aspekt des Sprechens in den Vordergrund zu rücken. Die inhaltliche Ebene wird hingegen getrennt davon in Textform dargestellt.
SampleRNN, GPT2-Modell, Transformers Library von Huggingface, RaspberryPi
Auftrag durch
In Zusammenarbeit mit Johannes Bechberger und Alexander Liebrich, produziert in Kooperation mit dem ZKM | Zentrum für Kunst und Medien Karlsruhe. Die Arbeit wird bis zum 28.08.2022 in der Ausstellung BioMedien am ZKM Karlsruhe gezeigt und wird dann in die Sammlung des ZKM aufgenommen.
Testlauf einer 360°- Kamera in Ausstellungssituation. Kamera wird durch eine besseres Modell ausgetauscht, die einen hochauflösenden 360°- Stream liefert:
https://youtu.be/-YH7Z5Ao5Gs
Bemerkungen
Cloudserver gesponsort von Nitrado.
Ausführliche Beschreibung
Ein Roboter bewegt sich durch den Ausstellungsraum. Er bleibt stehen und spricht mit der Stimme Peter Weibels, aber es ist keine verständliche Sprache, sondern nur der Sound of Weibel zu hören. Dabei projiziert der Roboter einzelne Sätze vor die anderen Kunstwerke auf den Boden, die er damit scheinbar kommentiert. Die Sätze, wie die Stimme, werden von jeweils einer KI generiert, die an Material von Peter Weibel trainiert wurde.
Eine Website ermöglicht zusätzlich Zugang zu dem in Echtzeit ständig neu generierten Audio- und Textmaterial, sowie auf einen Livestream, der den Ausstellungsraum aus der Perspektive des Roboters zeigt. Der Livestream öffnet nicht nur örtlich den Rahmen einer Ausstellung für ein weltweites Publikum, sondern überwindet auch zeitlich das Ausstellungsformat, indem er auch zu Schließzeiten den Blick in den Ausstellungsraum ermöglicht.
weibelmaschine.net ist als eine Hommage gedacht, aber auch als institutionelle Kritik und Suche nach einer neuen Form des Denkmals für das 21. Jahrhundert.
Mit dem heutigen Stand der Technik des Machine Learnings (2020/2021) wurden zwei Künstliche Intelligenzen (KI) bzw. Neuronale Netze trainiert. Die erste KI wurde darauf trainiert, Peter Weibels Stimme zu simulieren. Dafür verwendeten wir Unisounds Implementation des neuronalen Netzes SampleRNN2.
Zur Textgenerierung wurde das deutsche GPT2-Modell3 des Münchener Digitalisierungszentrums der Bayerischen Staatsbibliothek von uns mit Peter Weibels Enzyklopädie der Medien optimiert. Dafür haben wir die Transformers Library von Huggingface4 verwendet. Die neuronalen Netze generieren auf einem Server in der Cloud fortlaufend neues Klang- und Textmaterial.
Der Roboter dient als Gestell für die Funktionen: Bewegung im Raum, Audioausgabe, Textprojektion und Livestream-Kamera. Diese sind mit handelsüblicher Hardware ausgeführt, die über einen auf den Roboter montierten RaspberryPi-Minicomputer angesteuert wird. Für die Bewegungsabläufe des Roboters wurde ein eigener Code geschrieben. Der RaspberryPi ist mit dem Internet verbunden und holt sich so die aktuellen Texte und Audiodateien vom Cloudserver. Somit sind diese synchron zu der Ausgabe auf der Website.