• About Author

  • Tutta l'Informazione Ninja nella tua mail

  • I pericoli dell’Intelligenza Artificiale applicata al digital advertising

    Come l'AI sta plasmando la pubblicità digitale

    26 Aprile 2024

    Il digital advertising si evolve costantemente per adottare e riflettere le migliori innovazioni del momento. L’Intelligenza Artificiale ne è un esempio, ma quali sono i pericoli dell’AI applicata al digital advertising?

    Sicuramente sono già diversi anni che l’Intelligenza Artificiale è entrata nel mondo dell’adv. Da molto tempo, infatti, sentiamo parlare di Smart Bidding e di ottimizzazioni guidate dal Machine Learning.

    L’utilizzo dell’AI sta permettendo ai marketer di delegare i lavori più noiosi o time-consuming e di dedicarsi a compiti più strategici. Allo stesso tempo, l’utilizzo dell’AI permette di ottimizzare le campagne basandosi su dati raccolti e analizzati in tempo reale, riducendo il ritardo nella risposta che si riscontrava con i metodi tradizionali.

    Negli ultimi anni, poi, i big della tecnologia hanno iniziato a sviluppare soluzioni pubblicitarie interamente guidate dall’AI. Google ha lanciato le campagne Performance Max e Demand Gen mentre Meta sta ampliando massicciamente l’utilizzo delle campagne Advantage Shopping.

    LEGGI ANCHE: Scopriamo le nuove campagne Google guidate dall’Intelligenza Artificiale

    Nonostante gli innumerevoli vantaggi che l’applicazione dell’AI ha apportato al digital advertising, questa non è esente da pericoli ed errori di diverso tipo. Scopriamoli nel dettaglio.

    I pericoli dell’AI

    Pericoli dell’AI: Fallibilità

    Vi è una credenza diffusa, secondo la quale l’Intelligenza Artificiale non sbaglia mai. Nulla di più errato.

    L’Intelligenza artificiale può commettere errori come e più di un essere umano proprio perché non è umana. Vi sono alcuni tratti caratteristici dell’essere umano che non possono essere replicati, a partire dall’intuito e dal senso critico.

    Queste caratteristiche sono quelle che ci permettono di capire se un contenuto è appropriato per una determinata audience, se è il caso di impostare una campagna in un certo modo in base alle condizioni del mercato o semplicemente se è meglio non dire una certa frase.

    Non soltanto questo, l’Intelligenza Artificiale ha grossi problemi anche con l’ironia, cioè l’arte di esprimere un concetto dicendo il contrario.

    Ad oggi vi sono esempi potenti di ironia utilizzata per far crescere, per esempio, i profili social di un brand. L’Intelligenza Artificiale sarebbe stata capace di ottenere gli stessi risultati?

    Al di là della mancanza di questi elementi specifici, è molto semplice mettere alla prova l’Intelligenza Artificiale e rendersi conto che non è immune da errori, talvolta anche grossolani, che possono costare cari agli inserzionisti che non dovessero prestare la dovuta attenzione.

    Pericoli dell’AI: Falsificazione

    Un altro problema molto importante legato all’abuso delle capacità dell’intelligenza artificiale è legato alla possibilità di produrre contenuti falsi o ingannevoli.

    Il fatto che sulla base di un prompt l’AI possa generare interi testi o creare immagini da zero significa che in quei testi, in quelle immagini, si può rappresentare qualsiasi cosa.

    Hanno fatto il giro del mondo le immagini di Papa Francesco con un piumino bianco o quelle di Donald Trump circondato da ragazzi afroamericani.

    Benché queste immagini non siano state prese molto sul serio dall’opinione pubblica, sollevano un grande problema di sicurezza. Il problema diventa ancora più grande quando si pensa a privati, piuttosto che personaggi noti.

    La creazione dei immagini, video, suoni da zero è molto semplice soprattutto laddove si parla di persone comuni. Le foto postate, così come gli audio dei video caricati sui social media, possono facilmente diventare materiale di base per la creazione di nuovi contenuti del tutto fasulli.

    Tali contenuti possono poi essere falsificati e diffsi a scopo pubblicitario con tanta più facilità quanto più è ignoto il soggetto rappresentato.

    Pericoli dell’AI: Influencer e Fake News

    A volte, però, l’AI può produrre immagini o video senza utilizzare l’immagine di nessuno. È il caso di Emily Pellegrini, influencer da 300 mila follower su Instagram, o Francesca Giubelli, con 10 mila follower.

    Pericoli dell'AI e Advertising influencer e fake news


    Emily e Francesca sono entrambe influencer interamente generate dall’AI. Il pericolo rappresentato da queste figure non sta soltanto nell’immagine generata, ma nel fatto di poter far dire loro letteralmente qualsiasi cosa senza opposizione.

    Se pensiamo infatti agli influencer e ai creator tradizionali, queste figure hanno prima di tutto una propria integrità che può portarli a rifiutarsi di diffondere determinati messaggi.

    Gli influencer creati dall’AI non possono opporsi e possono quindi diventare il megafono di messaggi errati o di fake news.

    Questo pericolo, poi, è ulteriormente amplificato dal numero dei loro follower, che permette di moltiplicare in tempi record la diffusione di qualsiasi messaggio.

    LEGGI ANCHE: Influencer: definizione, chi è, cosa fa, come si diventa influencer

    Pericoli dell’AI: Pregiudizi

    Perché un’Intelligenza Artificiale funzioni, essa ha bisogno di materiali su cui essere allenata. Alla luce di ciò, diventa di primario interesse capire quali siano i materiali di partenza.

    Questo perchè è necessario sapere che ogni testo, ogni video, ogni pezzo di contenuto disponibile può portarsi dietro i pregiudizi del suo autore o tipici dell’epoca in cui sono stati scritti.

    Purtroppo, l’AI non ha il senso critico necessario a capire che alcuni concetti sono ormai superati, non sono politically correct o sono semplicemente privi di fondamento.

    Provate a pensare di allenare un’Intelligenza Artificiale solo utilizzando testi di fantascienza: quali potrebbero essere i risultati? Magari post in cui si esortano gli utenti a tirare fuori le chiavi, uscire di casa ed estrarre dal garage la loro comodissima astronave.

    Senza bisogno di arrivare a questi eccessi, provate, ancora, a pensare ad un’Intelligenza Artificiale allenata su testi fortemente maschilisti. Quali messaggi diffonderebbe? Non certo post che esortano alla partità di genere.

    Pericoli dell’AI: Privacy

    La privacy degli utenti è una delle preoccupazioni principali quando si parla di AI. L’entrata in vigore del GDPR, così come lo stop imposto dal Garante della Privacy a ChatGPT, hanno contribuito a riportare sotto i riflettori il tema della privacy degli utenti, soprattutto quando si parla di tecnologie ad alta complessità e sotto brevetto.

    LEGGI ANCHE: Stop a ChatGPT in Italia: il Garante della Privacy apre un’istruttoria

    Prendedo l’esempio di ChatGPT, trattandosi di una tecnologia proprietaria, non è semplice avere accesso alla descrizione del modo in cui i dati vengono raccolti, se ciò non viene volontariamente divulgato.

    Ma vale anche la pena riflettere sul fatto che ChatGPT è uno strumento sviluppato da un gigante della tecnologia come Microsoft e il cui utilizzo è del tutto legale.

    Se enti molto meno legali e molto meno sicuri dovessero comprendere come sviluppare il proprio ChatGPT o altri sistemi di Intelligenza Artificiale, la battaglia per la sicurezza dei dati degli utenti online potrebbe farsi estremamente difficile.

    Dobbiamo, quindi, perdere le speranze? Nonostante i pericoli che l’utilizzo massiccio dell’AI può presentare, non dobbiamo ancora darci per vinti.

    Intelligenza Artificiale e speranze per il futuro

    Da una parte, è bene ricordare la necessità di supervisionare sempre quanto prodotto dall’AI.

    Questo non solo per correggere eventuali errori o rimuovere parti non appropriate, ma anche per assicurarci che testi, immagini e copy siano in linea e rispecchino l’immagine del nostro brand.

    Dall’altra parte, è consolatorio sapere che le Big Tech sono le prime ad aver deciso di unire le forze per ridurre i pericoli.

    Machine Unlearning Challenge

    Nell’estate 2023 Google ha lanciato Machine Unlearning Challenge.

    Questo progetto, che al momento vede coinvolti scienziati, ingegneri, sviluppatori ma anche aziende, ha l’obiettivo di rimuovere dai modelli di intelligenza artificiale attualmente utilizzati dal gigante di Mountain View tutte quelle informazioni che violano la privacy degli utenti o che non sono interamente safe.

    Un compito non semplice, considerando che questa challenge non prevede solo di eliminare le informazioni “incriminate” ma anche e sopratutto di cancellare ogni traccia della loro influenza sul modello.

    AI Alliance

    Pochi mesi dopo, nell’ottobre del 2023, altre grandi aziende hanno deciso di unirsi al fine di creare un web più sicuro.

    Meta, assieme ad Harvard University, NASA, IBM e altre 50 aziende si sono unite nella AI Alliance, con un duplice obiettivo. Da una parte, le tecnologie di AI sviluppate sarebbero state di tipo Open Source, permettendo così a tutti di avere accesso alle informazioni e ai documenti su cui vengono allenate. Dall’altra, l’obiettivo è quello di creare un cordone di sorveglianza sullo sviluppo di tecnologie di Intelligenza Artificiale, che possa garantire un continuo processo di analisi e validazione da parte di esperti.

    Questi sforzi congiunti ci fanno capire che l’Intelligenza Artificiale ha ancora molta strada davanti a sè. Una strada lunga, impervia, ma che forse, un giorno, la porterà ad essere non solo uno strumento alla portata di tutti ma anche un tool privo di pericoli.

    Lavoratori del Digital, unitevi!

    FLASH SALES -30%

    Promo valida fino al 2 Maggio

    -30%

    su tutto

    Aggiungi qualsiasi corso o percorso formativo Ninja al carrello e automaticamente troverai il coupon 1May30 inserito