Wie Ueli Maurer Englisch gelernt hat
«I can nothing say to this issue»: Als Ueli Maurer nach seinem Besuch bei Donald Trump im letzten Mai von CNN interviewt wurde, haderte er ganz offensichtlich mit der englischen Sprache. Ob er sich für das neue Jahr(zehnt) vorgenommen hat, besser Englisch zu lernen? Als Bundesrat bleibt dafür wohl kaum Zeit. Wir haben deshalb ein Experiment gestartet: Können wir Deep Learning einsetzen, um Ueli Maurer seinen Wunsch bereits zum Jahresstart zu erfüllen?
Das Wort «Deepfake» setzt sich aus «Deep Learning» und «Fake» zusammen. Mithilfe von künstlicher Intelligenz werden täuschend echt wirkende Videos hergestellt, die nicht echt sind. Genau das haben wir mit Ueli Maurer gemacht: Als Grundlage für den Deep-Learning-Prozess dienten ein Abstimmungsvideo vom Bund und eine Aufnahme von einem englischen Sprecher, der einen von uns vorbereiteten Text vortrug. Ein sogenanntes «generative adversarial network» (GAN) analysierte das Ausgangsmaterial und generierte daraus ein neues Video. Je stärker die Grafikkarte, desto schneller kommt man zu brauchbaren Ergebnissen. Trotzdem dauerte es in unserem Fall mehrere Tage, damit das neuronalen Netzwerk ein Video von Ueli Maurer generieren konnten, welches mit den Gesichtsbewegungen unseres Sprechers übereinstimmte. Das Ergebnis unseres Experiments ist zwar verblüffend, aber nicht zu 100% überzeugend. Wir haben aber viel über die Deepfake-Technologie gelernt und wissen, was wir beim nächsten mal anders machen müssen.
Während wir hier die Technologie zum Spass eingesetzt haben (Ueli Maurer wird uns diesen Gag sicher verzeihen), gibt es natürlich auch Szenarien, bei denen Deepfakes für die Manipulation von Wählern eingesetzt werden. Gerade diese Woche hat Facebook bekanntgegeben, dass im Hinblick auf die US-Wahlen in diesem Jahr Deepfakes verboten werden (wobei für Parodien und Satire eine Ausnahme gemacht wird).
Vorläufig dienen aber die meisten Deepfake-Videos, die sich im Netz verbreiten, der Unterhaltung – zum Beispiel diese Parfum-Werbung mit Mr. Bean. Und auch im Marketing wird die Technologie schon eingesetzt, zum Beispiel in unserem Clip für Davos Klosters oder in diesem Projekt, bei dem Salvador Dalì zum Leben erweckt wurde.
Somit steht mit Deepfakes eine weitere Technologie zur Verfügung, die in der Kommunikation eingesetzt werden kann. Und die – wie im Fall von Ueli Maurer – sogar Wünsche verwirklichen kann. In diesem Sinne wünschen wir Ihnen ein wunschlos glückliches 2020.
Neuste Beiträge
Bandara Immersive Briefing: Ist das Metaverse wirklich tot? (Spoiler: jein)
29.01.2026WeiterlesenMit der Meldung, dass Meta rund 1500 Mitarbeitende bei den Reality Labs entlässt und das «Meta For Work» Programm 2030 einstellt, beschwören vor allem hiesige Medien das Ende des «Metaverse» und schreiben von verlorenen Milliardeninvestitionen bei Meta. Diese Geschichte greift jedoch zu kurz.
Bandara 2025: Unsere 10 Highlights
22.12.2025Weiterlesen2025 war ein besonderes Jahr für Bandara: Wir lancierten innovative Projekte, feierten unser 10-jähriges Jubiläum – und krönten das Jahr mit Gold beim Best of Swiss Apps Award. Hier sind unsere 10 Highlights.
Mit Virtual Reality Leben retten lernen
03.07.2025WeiterlesenDie Organisation «St John Ambulance» hat mit «Seconds to Save» ein neues Virtual-Reality-Tool vorgestellt, das Jugendliche für Erste Hilfe bei Gewaltvorfällen sensibilisieren und praktische Kenntnisse vermitteln soll. Hintergrund ist ein Anstieg von Messerangriffen unter jungen Menschen in England.
Meta und Oakley lancieren AI Smart Glasses
27.06.2025WeiterlesenOakley und Meta bringen gemeinsam Smart Glasses auf den Markt: die Oakley Meta HSTN (ausgesprochen «HOW-stuhn»). Das Modell bringt ein sportlich geprägtes Brillendesign mit der künstlichen Intelligenz von Meta AI zusammen. Zum Marktstart wird die Brille unter anderem von Athleten wie Kylian Mbappé und Patrick Mahomes getragen. Die Zielgruppe umfasst sportlich aktive Personen sowie Nutzer*innen mit Interesse an tragbarer Technologie im Alltag.