Deepfake

Il deepfake , hypertrucage , video infox o videotox è una tecnica di sintesi multimediale basata sull'intelligenza artificiale . Può essere utilizzato per sovrapporre file audio o video esistenti sopra altri file video (ad esempio cambiare il volto di una persona in un video) o audio (ad esempio riprodurre la voce di una persona per fargli dire cose. Inventato). Questa tecnica può essere utilizzata per creare infox e hoax dannosi. Il termine deepfake è un portmanteau formato da deep learning ("  deep learning  ") e fake ("fake").

Puoi trovare iper-cheat non pornografici su siti come YouTube o Vimeo . È anche possibile creare hyperframe utilizzando l'applicazione FakeApp, che utilizza TensorFlow , uno strumento open source sviluppato da Google .

Storia

Nel 2016 sono state presentate tecniche per simulare i movimenti facciali e trasporli a una persona target. Hanno permesso di contraffare , quasi in tempo reale , le espressioni facciali nei video 2D.

L'iperdrugging audio è apparso nel novembre 2016, con la presentazione del programma, Adobe Voco , il primo programma di hyperdrugging audio in grado di riprodurre la voce umana.

Nel luglio 2017 la BBC ha trasmesso un discorso tenuto da un'intelligenza artificiale che riproduce Obama, discorso sostanzialmente indistinguibile dalla realtà.

La pornografia iper-truccata è apparsa per la prima volta su Internet nel 2017, in particolare su Reddit , e da allora è stata bandita da Reddit , Twitter , Pornhub e altri.

Nel gennaio 2018, è stata lanciata un'applicazione chiamata FakeApp che semplifica la creazione di video con volti scambiati e la loro condivisione. Le celebrità sono gli obiettivi principali di questi falsi video di sesso, ma anche altre persone ne sono colpite.

Nell'agosto 2018, i ricercatori dell'Università della California a Berkeley hanno pubblicato uno studio sulla creazione di video falsi di ballerini. Un individuo può essere incollato ai movimenti di un ballerino professionista.

Aree di applicazione

Pornografia

Hyperchip è meglio conosciuto per essere stato utilizzato per creare falsi video erotici ( sextapes ), con celebrità e revenge porn .

Durante l'autunno del 2017, un utente anonimo del sito Reddit ha pubblicato  diversi video pornografici con lo pseudonimo diDeepfakes ". La premiere ha attirato l'attenzione e una delle attrici più famose, Daisy Ridley . Un altro mostra l'attrice Gal Gadot (protagonista del film Wonder Woman ) mentre fa sesso con suo cognato . Anche altre celebrità -  Emma Watson , Katy Perry , Taylor Swift o Scarlett Johansson  - sono state l'obiettivo dei video creati dall'utente "Deepfakes".

Col tempo, il falsario ha corretto i difetti nei video, rendendoli sempre più realistici. Il fenomeno dell'ipertrucage è stato denunciato per la prima volta neldicembre 2017nella sezione tecnica e scientifica della rivista Vice , che ha portato alla comparsa di numerosi servizi su altri media.

Nel Regno Unito, i produttori di iper-rigging possono essere perseguiti per molestie, ma ci sono richieste per rendere l'iper-rigging un reato a tutti gli effetti.

Politica

Lo scambio di volti è stato utilizzato per travisare politici noti su portali video, piattaforme di streaming e chat room. Ad esempio, il volto del presidente argentino Mauricio Macri è stato sostituito da quello di Adolf Hitler , e il volto di Angela Merkel da quello di Donald Trump . Nelaprile 2018, Jordan Peele e Jonah Peretti hanno mostrato i pericoli dell'iper-rigging creando un falso video di Barack Obama che fa un annuncio pubblico.

Arte

Nel marzo 2018, L'artista Joseph Ayerle pubblica la video arte dal titolo Un'emozione per sempre 2.0 , in cui mette in scena una virtuale Ornella Muti , ricreato da intelligenza artificiale. Il software è stato in grado di animare il volto dell'attrice italiana per realizzare scene che non ha mai interpretato.

Programmi di effetti speciali

FakeApp utilizza reti neurali artificiali . Utilizza la potenza della scheda grafica più 3 o 4  GB di memoria per generare il rendering finale. Per un buon rendering, il programma ha bisogno di molte foto della persona, perché il programma deve imparare quali aspetti del video di destinazione devono essere modificati e per farlo utilizza algoritmi di deep learning . Il software utilizza TensorFlow , uno strumento sviluppato da Google , che, tra le altre cose, è già stato utilizzato per creare DeepDream .

Programmi di hyperdrugging audio

La tecnologia presentata in Adobe MAX era un'anteprima che poteva essere potenzialmente integrata in Adobe Creative Cloud. A partire da luglio 2019, Adobe deve ancora rilasciare ulteriori informazioni su una potenziale data di rilascio.

La tecnica, descritta in un documento del settembre 2016, è in grado di generare voci simili a voci umane relativamente realistiche modellando direttamente forme d'onda utilizzando un metodo di rete neurale addestrato con registrazioni vocali. Secondo quanto riferito, i test con l'inglese americano e il mandarino hanno dimostrato che il sistema supera i migliori sistemi di sintesi vocale esistenti di Google, sebbene nel 2016 la sua sintesi testuale fosse ancora meno convincente del discorso umano reale.

La capacità di WaveNet di generare forme d'onda grezze consente di modellare qualsiasi tipo di audio, inclusa la musica.

Recensioni

Abuso

Il quotidiano svizzero di lingua tedesca Aargauer Zeitung afferma che l' editing di immagini e video utilizzando l'intelligenza artificiale potrebbe diventare un pericoloso fenomeno di massa. Tuttavia, la falsificazione di immagini e video precede l'avvento del software di editing video e dei programmi di editing di immagini  ; in questo caso, è il realismo che diventa un nuovo problema.

È anche possibile utilizzare l'iper-inganno per bufale mirate e divulgazione pornografica per scopi ideologici o cyberstalking .

Effetti sulla credibilità e sull'autenticità

Un altro effetto dell'iper-rigging è che non puoi più distinguere se il contenuto è satirico o genuino. Interrogato nel 2018 dal sito americano The Verge (che si occupa di news tecnologiche, informazione e media), il ricercatore americano di intelligenza artificiale Alex Champandard (programmatore e co-fondatore della startup Creative ) ritiene che

"Tutti dovrebbero essere consapevoli di quanto velocemente le cose possono essere cambiate oggi utilizzando questa tecnica e che il problema non dovrebbe venire dalla tecnica ma piuttosto essere risolto dalla fiducia delle persone nell'informazione e nel giornalismo. Il pericolo principale è che arriverà il momento in cui gli esseri umani non saranno più in grado di determinare se ciò che è in un video è la verità o no. "

Informazioni immateriali e non tangibili, video infox infrange la fiducia ingannando le persone.

Reazioni di Internet

I siti Twitter e Gfycat  (en) hanno annunciato che avrebbero rimosso gli hypertrucage e bloccato gli autori. In precedenza, la piattaforma Discord aveva bloccato un canale di chat con hyperkicker. Anche il sito pornografico Pornhub ha pianificato di bloccare questo contenuto, ma questo divieto non è ancora entrato in vigore dal 2017. Su Reddit, la situazione è rimasta incerta fino a quando il subreddit , la sottoparte tematica in questione, ha sospeso il7 febbraio 2018, a causa della violazione della politica sulla "pornografia involontaria".

Protezione

In definitiva, secondo Solange Ghernaouti, specialista in cybersecurity e cyber defence , l'ideale sarebbe che immagini e video digitali fossero dotati di tatuaggi digitali per sollevare il velo sull'origine del contenuto. Software come InVid e Amnesty Youtube Dataviewer, uno strumento offerto dal 2014 dall'organizzazione non governativa internazionale Amnesty International , consentono ai giornalisti di determinare se un video è contraffatto o manipolato.

Sviluppo di mezzi di controllo

La Cina vuole introdurre una legge che vieti i contenuti che non menzionano l'uso di sovrapposizioni video e audio. Dal1 ° gennaio 2020, il video infox che non è menzionato come tale sarà considerato illegale.

Facebook sta lanciando un concorsoDeepfake Detection Challenge  " (DDC) per creare tecnologie e software in grado di rilevare video utilizzando la tecnica del video infox.

Vedi anche

Articoli Correlati

link esterno

Riferimenti

  1. "  hypertrucage  " , Le Grand Dictionnaire terminologique , Office québécois de la langue française (accesso 18 marzo 2019 ) .
  2. Billy Joe Siekierski, Hyperfactor: What Can Be Done About Synthetic Audio and Video Content , Library of Parliament, 2019, 8 pages [ read online ] .
  3. Commissione per l'arricchimento della lingua francese , "  il video INFOX  " , FranceTerme , Ministero della Cultura (accessibile 17 giugno 2020 ) .
  4. (in) "  Gli esperti temono che la tecnologia dello scambio di faccia potrebbe iniziare la resa dei conti internazionale dell'anno  " su The Outline (accesso 28 febbraio 2018 ) .
  5. (it-US) Kevin Roose , "  Here Come the Fake Videos, Too  " , The New York Times ,4 marzo 2018( ISSN  0362-4331 , letto online , accesso 24 marzo 2018 ).
  6. (in) John Brandon, "  Terrificante porno high-tech: i video" deepfake "raccapriccianti sono in aumento  " su foxnews.com ,16 febbraio 2018.
  7. "  Cerca" deepfake "su YouTube  " , YouTube (accesso 11 ottobre 2019 ) .
  8. (in) "  FakeApp: finalmente un programma che ti permetterà di inserire perfettamente Donald Trump nel porno!  " , Reason.com ,25 gennaio 2018( leggi online , consultato il 24 marzo 2018 ).
  9. "  Sto usando l'intelligenza artificiale per scambiare faccia a faccia Elon Musk e Jeff Bezos, e non ci riesco  ", The Verge ,11 febbraio 2018( leggi online , consultato il 24 marzo 2018 ).
  10. Justus Thies , "  Face2Face: acquisizione di volti in tempo reale e rievocazione storica di video RGB  " , proc. Computer Vision and Pattern Recognition (CVPR), IEEE,2016(visitato il 24 febbraio 2018 ) .
  11. (a) "  Adobe Voco 'Photoshop-per-voce perche' preoccupazione  ' , sulla BBC ,7 novembre 2016. .
  12. (in) "  Falso Obama creato utilizzando lo strumento AI per fare discorsi fasulli  " sulla BBC . .
  13. (it-US) Janko Roettgers , "I  produttori di porno si offrono di aiutare Hollywood a portare giù i video deepfake  " , Variety ,21 febbraio 2018( leggi online , consultato il 28 febbraio 2018 ).
  14. (in) "  Ci sono voluti meno di 30 secondi per trovare" deepfake AI smut su Internet vietato  " , The Register ,9 febbraio 2018( leggi online , consultato il 20 febbraio 2018 ).
  15. Arjun Kharpal , "  Reddit, Pornhub vieta i video che usano l'intelligenza artificiale per sovrapporre il volto di una persona a un attore X  ", CNBC ,8 febbraio 2018( leggi online , consultato il 20 febbraio 2018 ).
  16. (in) "  PornHub, Deepfake di Twitter al divieto di porno modificato dall'intelligenza artificiale  " , PCMAG ,7 febbraio 2018( leggi online , consultato il 20 febbraio 2018 ).
  17. Britta Bauchmüller, "  " Fake-App ": Mit diesem Program kann jeder in Porno landen - ob er will oder nicht!  », Berliner-Kurier.de ,29 gennaio 2018( leggi online ).
  18. Eike Kühl, "  Künstliche Intelligenz: Auf Fake News folgt Fake Porn  ", Die Zeit ,26 gennaio 2018( ISSN  0044-2070 , leggi online ).
  19. heise online, "  deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien  ", Heise Online ,25 gennaio 2018( leggi online ).
  20. (in) Peter Farquhar , "  Presto sarà disponibile un programma di intelligenza artificiale per aiutarti a ballare deepfake, ma non chiamarlo deepfake  " , Business Insider Australia ,27 agosto 2018( leggi online , consultato il 27 agosto 2018 ).
  21. "  deepfakes per ballare: ora puoi usare l'intelligenza artificiale per simulare quei passi di danza che hai sempre desiderato  ", The Verge ,26 agosto 2018( leggi online , consultato il 27 agosto 2018 ).
  22. (it-US) Cosa sono i deepfake e perché il futuro del porno è terrificante  " , Highsnobiety , 20 febbraio 2018( leggi online , consultato il 20 febbraio 2018 ).
  23. "  Il porno falso assistito dall'intelligenza artificiale è qui e siamo tutti fottuti  ", scheda madre ,11 dicembre 2017( leggi online ).
  24. Invito a presentare una proposta di legge sull'upskirting che includa il divieto di pornografia "deepfake" The Guardian .
  25. "  Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos  " , az Aargauer Zeitung,3 febbraio 2018.
  26. Patrick Gensing, "  deepfakes: Auf dem Weg in eine alternative Realität?  " .
  27. Aja Romano , "  Il PSA di Obama simulato da Jordan Peele è un avvertimento a doppio taglio contro le fake news  " , su Vox ,18 aprile 2018(visitato il 10 settembre 2018 ) .
  28. (in) Katerina Cizek , William Uricchio e Sarah Wolozin , "Part 6: Media co-creation with non-human systems" in Collective Wisdom , PubPub,3 giugno 2019( leggi online ).
  29. (in) "  Un'emozione 2.0 per sempre  " , su Internet Movie Database ,24 marzo 2018(accesso 12 aprile 2021 ) .
  30. https://arxiv.org/pdf/1609.03499.pdf .
  31. "  Künstliche Intelligenz: Selfies sind eine gute Quelle  ", Die Zeit ,26 gennaio 2018( ISSN  0044-2070 , leggi online ).
  32. "  " deepfake "- FakeApp kann Personen in Pornos austauschen - Welche Rechte haben Geschädigte?  », Wilde Beuger Solmecke Rechtsanwälte ,2 febbraio 2018( leggi online ).
  33. Cosa può dirci un podcast "infinito" generato dall'IA sul futuro dell'intrattenimento , The Verge ,11 maggio 2018.
  34. Harold Grande , "  Dopo la notizia falsa, la minaccia di" falso in profondità "è in crescita sul web  " , Le Figaro ,2 gennaio 2019(accesso 18 dicembre 2019 ) .
  35. (en-US) "  Pornhub non ha applicato attivamente il suo divieto di deepfake  " , Engadget ,18 aprile 2018( leggi online , consultato il 21 aprile 2018 ).
  36. (in) "  Pornhub ha vietato i video di sesso di celebrità deepfake, ma il sito ne è ancora pieno  " , BuzzFeed ,18 aprile 2018( leggi online , consultato il 21 aprile 2018 ).
  37. Markus Böhm, "  " deepfakes ": Firmen gehen gegen gefälschte Promi-Pornos vor  ", Spiegel Online ,7 febbraio 2018( leggi online ).
  38. barbara.wimmer, "  deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos  ", futurzone ,8 febbraio 2018( leggi online ).
  39. heise online, "  deepfakes: Auch Reddit verbannt Fake-Porn  " .
  40. "  Reddit verbannt deepfake-Pornos  " .
  41. "  Come si controlla un video?  » , On Les Observateurs de France 24 (consultato il 18 dicembre 2019 ) .
  42. Corentin Bechade, "La  Cina vuole vietare il veleno e i deepfakes  " , Les Numériques ,2 dicembre 2019(accesso 11 dicembre 2019 ) .
  43. Léa Faure , "  Il deepfake in Cina ora considerato criminale se l'autore non segnala la natura ingannevole del contenuto  " , su IT Social (accesso 11 dicembre 2019 ) .
  44. Corentin Bechade, "  Facebook e Microsoft vanno a caccia di 'deepfakes'  " , Les Numériques ,6 settembre 2019(accesso 11 dicembre 2019 ) .