SE PIANGEREMO ARRIVERANNO I FAZZOLETTI - GLI SPOT DEL FUTURO UTILIZZERANNO I SENSORI EMOZIONALI - LE AZIENDE MANDERANNO LA PUBBLICITÀ IN BASE AI NOSTRI STATI D'ANIMO
Evgeny Morozov per il "Corriere della Sera - La Lettura"
Traduzione di Maria Sepa
Negli ultimi due decenni il dibattito sulla personalizzazione dei contenuti in rete, resa possibile dai media digitali, si è incentrato in gran parte sulla questione dell'isolamento determinato dai filtraggi, la filter bubble (per prendere in prestito un termine dello scrittore Eli Pariser).
Come è noto, ne è scaturito il forte timore di una polarizzazione della sfera pubblica, soprattutto per la preoccupazione che la gente non sarebbe più stata esposta a opinioni diverse dalle sue. Queste preoccupazioni avevano origini tecniche ben definite: i sensori usati per la personalizzazione erano di natura testuale. Anche chiamarli «sensori» è un po' esagerato, visto che indicavano più che altro delle tendenze. Le nostre ricerche in rete venivano usate per predire quello che avremmo ricercato nel futuro o per determinare priorità nei risultati.
Negli ultimi anni, però, c'è stato un cambiamento radicale, senza che la maggior parte di noi se ne accorgesse: i sensori addetti alla personalizzazione non sono più solo testuali, ma sono in grado di cogliere molte altre dimensioni delle nostre attività . Non si limitano a memorizzare le Url e le ricerche, riescono anche a captare ed elaborare elementi non linguistici, da quelli neurofisiologici (stiamo bruciando poche calorie?) a quelli emotivi (siamo in ansia o eccitati?).
Prendiamo in considerazione due recenti prodotti tecnologici: la macchina che rallenta quando rileva una diminuita attenzione e la scrivania che registra quante calorie bruciamo e regola di conseguenza la sua altezza. L'auto che registra l'attenzione è in fase di sperimentazione, e per ora il guidatore deve indossare un casco speciale, ma è facile prevedere che i sensori verranno in futuro integrati nel volante, rendendo la rilevazione dell'attenzione meno laboriosa.
La scrivania è invece già in commercio (anche se è ancora un prodotto costoso ed esclusivo). Gli ideatori credono che i loro sensori, combinando i dati raccolti da tutti gli altri sensori che scrutano la nostra vita, siano in grado di trasformare una scrivania statica in una macchina ginnica.
Il fondatore della società che produce questa scrivania dice che stanno pensando «di importare flussi di dati esterni per rendere la scrivania più intelligente - da altre attività di fitness, ad esempio. Se la scrivania sa che abbiamo corso per tre miglia prima di metterci al lavoro, modificherà il piano di attività che ci consiglia di fare quella mattina».
«Tecnologia intelligente» è in questo caso un'espressione impropria; sarebbe meglio dire «tecnologia adattabile». Sentiremo inevitabilmente raccontare le solite favole sul fatto che facendo esercizio fisico alla scrivania potremo evitare di andare in palestra e avremo quindi molto più tempo per noi.
Forse andrà effettivamente così, anche se il tempo di palestra risparmiato potrebbe servire a farci lavorare di più, seduti alla nostra meravigliosa scrivania intelligente (ma non crediate che qualcuno vi avvertirà di questo pericolo).
à più interessante, però, chiedersi in che modo un mondo pieno di sensori in grado di catturare e analizzare segnali non linguistici possa indurre mutamenti in un settore come quello della pubblicità , che è stato il principale stimolo allo sviluppo del commercio digitale. Se il nostro ambiente fisico può adattarsi ai nostri diversi stati d'animo, lo faranno anche gli annunci pubblicitari?
Qualche settimana fa mi è capitato di leggere un articolo dal titolo noioso, ma dal contenuto affascinante: Cavva, Computational Affective Video-in-Video Advertising . Scritto da tre scienziati informatici di Singapore, l'articolo proponeva un modo interessante di inserire annunci pubblicitari in un filmato, basandosi su un'attenta analisi dell'impatto emotivo che esso ha sull'utente.
I ricercatori hanno dimostrato che il loro metodo - fondato sull'analisi del contenuto emotivo di ogni scena del video - è più efficace di quello che si affida a dati puramente «testuali», usato oggi da servizi come YouTube. Il limite di questo metodo è che personalizza gli annunci - o almeno seleziona quali annunci mostrare, e quando - sulla base del contenuto emotivo del video e non del «contenuto» emotivo dell'utente.
Il passo successivo è quindi analizzare in tempo reale quel che gli utenti provano. Questo si può fare studiando le espressioni del viso mentre guardiamo il video, oppure contando le nostre pulsazioni, o monitorando i movimenti oculari.
Non è fantascienza.
Prendiamo un recente rapporto del «Wall Street Journal» che accennava a MediaBrix, una società specializzata in proprietary emotional targeting . Che cosa fa MediaBrix? Ci studia quando facciamo un gioco al computer e cerca di venderci un prodotto quando siamo più emotivamente vulnerabili.
Ovviamente, MediaBrix non la mette in questi termini: afferma piuttosto che l'azienda cerca di «raggiungere chi gioca nei momenti naturalmente critici del suo impegno, quando è più ricettivo ai messaggi pubblicitari». Con la proliferazione dei sensori nel nostro ambiente - propagandati con slogan tipo «Internet of Things» o «Smart City» - l'ambito di simili operazioni potrebbe espandersi in modo considerevole. Un decennio fa poteva sembrare poco realistica, ma oggi Google ha i suoi smart glasses e Apple ha introdotto nel suo ultimo iPhone un potente chip sensibile ai movimenti.
Google e Apple sono comunque un po' in ritardo in questo settore: l'anno scorso Microsoft ha registrato un brevetto per la «pubblicità mirata basata sulle emozioni» (in cui si parla del suo sensore di movimento Kinect). Samsung ha vari brevetti simili, da quelli che si occupano della condivisione delle emozioni nei social network a quelli per la produzione di profumi nei telefoni cellulari.
Se il futuro della pubblicità è nell'elaborazione di segnali non linguistici, chi controlla l'infrastruttura sensoriale (o, come afferma Samsung in uno dei suoi brevetti, «l'apparato per lo scambio di emozioni») che consente di analizzare e monetizzare quei segnali è destinato a diventare il successore dei magnati della pubblicità di oggi come Google e Facebook.
L'hardware - collegato a schermi, telecamere e tracciatori di dati - diventerà sempre più importante, semplicemente perché permetterà di attingere in tempo reale dati dinamici ed emotivi che sono molto più utili per la pubblicità di quelli testuali che i giganti di internet raccolgono quando navighiamo. Dire che i nostri legislatori - ora preoccupati di affrontare i problemi di privacy legati alla raccolta e alla conservazione di informazioni testuali - sono poco preparati ad affrontare le sfide dei dati non-linguistici, basati sulle emozioni, sarebbe un eufemismo.
Tecniche come il proprietary emotional targeting pongono dilemmi che vanno ben oltre la tutela della privacy, e confermano i timori nei confronti dei «persuasori occulti» che hanno afflitto la pubblicità per decenni. Queste paure non sembravano serie quando tutti guardavano gli stessi annunci pubblicitari allo stesso momento. Non sembravano serie neanche quando Google e Facebook sono entrati nel gioco, dato che gli annunci erano prevedibili e si potevano bloccare.
Ma la pubblicità altamente personalizzata e basata sulle emozioni - che potrebbe diventare possibile in un mondo in cui tutte le superfici «intelligenti» che tocchiamo riescono a capire come ci sentiamo per mostrarci un annuncio pubblicitario mirato - dovrebbe farci riconsiderare la questione.
![](/img/foto/12-2013/mediabrix-responsivedesign-e1355841903788-289499_800_q50.webp)
![](/img/foto/12-2013/media-brix-utuepbs78fr0x86z09ts-289498_800_q50.webp)
![](/img/foto/12-2013/images-289497_800_q50.webp)
![](/img/foto/08-2012/nuovo-logo-microsoft-185248_800_q50.webp)
![](/img/foto/01-2013/samsung-214144_800_q50.webp)
![](/img/foto/10-2008/770_800_q50.webp)
![](/img/foto/08-2009/30349_800_q50.webp)