Siti Web > Notizie di Marketing e comunicazione

Consulta le nostre news di tecnologia ed informatica online !

Come Big Data e AI possono creare una realtà artificiale


fake
Andrea Tironi, Project Manager – Digital Transformation

Si stima che entro il 2025 produrremo più di 400 exabyte al giorno (400 trilioni). Ci sarà quindi la possibilità di raccogliere un numero di dati mai visto prima, con un livello di dettaglio inimmaginabile. Questo permettà di descrivere gli individui andando ben oltre le informazioni finora disponibili. Sarà infatti possibile, mediante l’intelligenza artificiale, analizzare gli acquisti di Amazon, le ricerche di Google, i tweet, le foto di Facebook, la storia dei debiti, i film visti su Netflix etc.etc. I Big Data permetteranno di capire quali utenti sono simili ad altri (mediante clustering o profilazione), basandosi su update di stato, video visti, chiamate al telefono, messaggi di testo, acquisti e tanto altro.

L’AI renderà quindi sempre più facile individuare gruppi affini di persone. E potrà provare (a velocità machine-speed), su più componenti dei gruppi individuati, a inviare messaggi per manipolare l’individuo. Se questo meccanismo dovesse funzionare, si potrebbe usare la stessa tecnica per tutti gli appartenenti al gruppo, producendo risultati simili in un numero molto maggiore, scaldando la tecnica.

L’alterazione della realtà, oggi

Intelligenza Artificiale e Big Data possono creare un drammatico aumento nel numero di oggetti non reali che vengono considerati tali (bot, video, immagini), riducendo la percezione del reale e il rischio di mettere in dubbio tutti i contenuti, nonché possono aiutare a creare persone-fake e rendere più difficile individuare comunicazioni reali da comunicazioni-fake. Ecco alcuni esempi.

Gli shallowfake sono immagini, video o audio creati ad hoc e solitamente messi fuori contesto per passare un messaggio diverso dall’originale. I deepfake, invece, usano l’intelligenza artificale per creare immagini, video e audio facendo dire o fare cose a persone conosciute, che non avrebbero mai detto o fatto. Il tutto creando media dal nulla difficili da distinguere da video/audio reali. Gli AI-driven social bot possono comunicare con gli esseri umani come se fossero persone.

Generative Adversarial Networks, reti a due modelli separati

Una delle tecnologie che permettono i deepfake sono le GAN. Le GAN sono una classe di sistemi di machine learning composte da due reti neurali. Queste hanno due modelli di rete separati: un generatore e un discriminatore-avversario. Il generatore prende dei dati di training (ad esempio foto) e impara a ricrearli come se fossero reali. Il discriminatore tenta di distinguere il dato di training dal dato generato arbitrariamente dalla rete generatrice. All’inizio sarà facile fare questa distizione tra immagini casuali generate e immagini corrette del training, ma con il tempo la rete avversaria farà sempre più fatica a individuare le immagini del dataset di training rispetto a quelle generate dal generatore, che grazie ai feedback suoi e della rete avversaria migliorerà sempre di più. Il tutto a machine-speed, con un’alta capacità quindi di raggiungere velocemente ottimi risultati.

L’alterazione della realtà, ieri

Ciò che è oggi possibile grazie al progresso dei sistemi basati sull’AI, in realtà esiste già da molto tempo. Gli esseri umani sono sempre stati vulnerabili a meccanismi di provocazione, condizionamento o manipolazione. Nel 1960, ad esempio, in Unione Sovietica l’esercito creò un progetto denominato “Reflexive control theory” che aveva come scopo proprio quello di creare un modello che permettesse di modificare la percezione della realtà di un individuo-obiettivo. La strategia si basava sull’inviare all’individuo-obiettivo delle informazioni in modo tale da cambiare lentamente la sua percezione della realtà e quindi le sue decisioni, pur mantenendolo convinto di continuare a decidere liberamente.

In maniera simile, negli anni Settanta la Germania dell’Est capì l’importanza di “costruire” la realtà per mantenere il controllo del territorio. Il ministero della Sicurezza Interna (Stasi) estese il proprio controllo dal mondo fisico (torture ed esecuzioni) al mondo psicologico.

La Stasi chiamò questa tecnica Zersetzung, che si può tradurre come “decomposizione”. L’obiettivo era quello di raccogliere informazioni su una persona e poi utilizzarle in modo da distruggere il senso del sè sia in privato che in pubblico, per questa persona. Il metodo prevedeva di entrare nelle case degli obiettivi rubando oggetti, mandare ai propri cari foto compromettenti, screditare le persone nel posto di lavoro. Le persone quindi vedevano un progressivo decadimento della loro vita, fino ad arrivare a non riconoscere più la propria esistenza con conseguenze psicologiche non da poco.

Conclusioni

Come sempre la tecnologia può essere utilizzata in modo positivo o negativo. Tutti i tool sopra indicati permettono grandi miglioramenti, ma costituiscono anche grandi rischi.

Ci sono alcune misure a difesa che si possono attuare. Vediamo quali.

La prima misura è data da decisioni governative che mirino a controllare (punendo) certi usi della tecnologia, come ad esempio i deepfake o gli shallowfake una volta individuati.

Una seconda misura è una limitazione da parte degli stessi social network per account fasulli e notizie e immagini false, una volta individuate.

Una terza possibilità è un uso consapevole delle proprie informazioni, in modo da evitare di distribuirne troppe e troppo dettagliate. In tale modo si riduce la superficie di attacco, contenendo il numero di informazioni in possesso di un terzo e a lui utili per una manipolazione.

Un quarto punto è avere un po’ di sano scetticismo e non dare più “trust” a ciò che si vede. Purtroppo quello che vediamo, che fino a pochi mesi fa era sicuramente “vero”, ormai con deepfake e shallowfake potrebbe non esserlo più.

 



Fonte: https://www.bigdata4innovation.it/

Realizzazione, creazione, sviluppo siti web ed assistenza informatica Napoli


Realizzazione siti web ed assistenza informatica Napoli


Cartomanzia basso costo


Fabbro idraulico elettricista – Bologna, Ferrara, Parma, Modena


Assistenza caldaie Firenze

Fiorai Napoli, Fioristi Napoli, Fiori Napoli, Fioraio Napoli

Aste Online, Aste al centesimo Online, Aste al ribasso gratuite, Aste online Iphone

cartomanti al telefono

Cartomanzia Divina

Tarocchi decani

Casa dei cartomanti

Astrocartomanti

Studio sibille cartomanzia

Pronto intervento Fabbro, Modena, Bologna, Ferrara

Pronto intervento elettricista, Modena, Bologna, Ferrara

Pronto Intervento idraulico, Bologna, Modena, Ferrara

Incantesimi e legamenti d’amore

Sitiwebs

Sviluppare siti internet

Websolutions

Cartomanti Roma

Cartomanti Napoli

Tarocchi amore futuro immediato relazione

Tarocchi del destino per single e della vita

Lettura tarocchi dell’amore

Studio Sibille Cartomanzia

Cartomanti Sibille

Consulti di cartomanzia

Cartomanzia Promozionale

Cartomanti Sensitive al telefono

Cartomanti Europei

Magia Rossa

Magia Bianca

Magia Nera

Sito web vetrina

Sito web per ristoranti

Realizzazione sito web e-commerce

Software aste al centesimo

Cartomanti al telefono

Tarocchi della zingara

Cartomanzia al telefono

Rate this post
Updated: 6 Febbraio 2020 — 9:28
Siti Web > Notizie di Marketing e comunicazione © 2018 Realizzazione, creazione, sviluppo, progettazione siti web-internet