Come l’intelligenza artificiale sta migliorando il lavoro dei designer

Giovanni Pola, CEO e fondatore di GreatPixel, ha raccontato a Dcommerce come sta cambiando il lavoro delle aziende di UX Design grazie a una nuova generazione di strumenti

design

In una recente indagine pubblicata da Workfront, su un campione di 2000 professionisti statunitensi, il 69% si dichiara molto ben disposto riguardo l’introduzione di strumenti dotati di intelligenza artificiale in ambito lavorativo. Un dato che risulta ancora più rilevante se si considera un altro studio, quello condotto dal National Business Research Institute, dove emerge che il 61% delle aziende statunitensi è intenzionato a investire in maniera sempre più consistente su tecnologie dotate di intelligenza artificiale come predictive analytics, machine learning e natural language generation. La ragione per cui l’intelligenza artificiale viene percepita positivamente è abbastanza semplice: da un lato le aziende possono sfruttarla per ottimizzare costi e tempi di produttività; dall’altro viene semplificato il lavoro dei dipendenti, automatizzando parte delle mansioni manuali e concedendo più spazio a processi creativi e progettuali. Ma qual è al momento il reale stato delle cose? Come stanno affrontando le aziende internazionali l’avvento dell’intelligenza artificiale e quanto sono in grado gli utenti finali di riconoscere, durante il suo utilizzo, la presenza di un servizio che opera grazie ad essa? A questa e a altre domande ha risposto Giovanni Pola, CEO di GreatPixel, che ha raccontato a Dcommerce come l’intelligenza artificiale stia cambiando il lavoro di chi progetta User Experience digitali.
In che modo GreatPixel sta studiando e adottando le novità in ambito di intelligenza artificiale all’interno dei suoi progetti?
La nostra policy è quella di sperimentare il più possibile e questo, per quanto riguarda l’ambito dell’intelligenza artificiale, si è tradotto nello sviluppo di due ambiti lavorativi. Il primo, focalizzato sugli strumenti di intelligenza artificiale che velocizzano e semplificano il lavoro, l’altro su applicazioni in grado di cambiare un determinato contenuto, nonché il processo con cui quel contenuto viene creato in modo da non prevedere l’interazione umana prima della messa online. Nel primo caso l’intelligenza artificiale viene utilizzata attraverso dei tool che usiamo per validare le interfacce utenti progettate. Sono strumenti che riproducono il funzionamento dell’occhio umano e forniscono uno screening dettagliato sui punti dove l’occhio dell’utente andrà a posizionarsi una volta aperta l’interfaccia. In questo modo riusciamo a capire se il lavoro di grafici e designer sia efficace o meno. Tool come Adobe Sensei permetteranno di riconoscere automaticamente all’interno delle immagini le aree che possono essere modificate. Un’operazione che consente di risparmiare moltissime ore lavorative, dal momento che una volta impostate le opzioni preferenziali sul risultato finale la macchina sarà in grado di prendere delle decisioni in maniera autonoma.
E nel secondo caso?
Nel secondo caso la faccenda è più complessa: le applicazioni di intelligenza artificiale con cui lavoriamo sono in grado di prendere delle decisioni che incidono direttamente sul risultato destinato al consumatore finale. Si tratta di strumenti che abbiamo cominciato a sperimentare in alcuni servizi di CRM e di marketing automation: applicazioni del genere sono capaci di creare testi in modo personalizzato e automatizzato analizzando una parte dei dati a disposizione. In questo modo è possibile, ad esempio, personalizzare il soggetto delle mail spedite ai clienti, oppure, personalizzare dei testi introduttivi o descrittivi o addirittura riassumere testi complessi creando degli abstract di articoli. Anche in questo caso le soluzioni presenti sul mercato sono sempre di più: Persado, la suite di Watson di IBM, Frase e Narrative Science sono solo alcuni esempi. Con GreatPixel faremo uso di queste applicazioni per progettare servizi che necessitano di una grande massa di messaggi da inoltrare.
Puoi farci un esempio pratico di come l’intelligenza artificiale abbia effettivamente semplificato il lavoro del designer?
Uno degli esempi più noti è quello di Netflix. L’azienda americana aveva un problema con l’impaginazione delle locandine a seconda della traduzione dei titoli. In alcuni casi, traducendo il nome del film o della serie di turno, la scritta rischiava di coprire l’immagine della locandina che quindi andava ridimensionata. L’intelligenza artificiale ha permesso ai designer di Netflix di ritagliare automaticamente le immagini in questione adattandole a qualsiasi tipo di formato e preservando l’elemento fondamentale, ad esempio il volto dell’attore o dell’attrice protagonista. L’applicazione è quindi un chiaro esempio di come l’intelligenza artificiale aiuti il designer a semplificare il suo lavoro risparmiando una grande quantità di tempo che in passato sarebbe servita per modificare le immagini manualmente.
In questo contesto l’aspetto creativo che ruolo assume?
Viene amplificato. Nel momento in cui la macchina si fa carico di quei lavori operativi che prima venivano svolti manualmente, il tempo da dedicare alla parte creativa aumenta. Se prima per ultimare un progetto, due ore erano destinate all’idea e otto alla realizzazione, oggi i designer potranno spendere cinque ore nello sviluppo di un’idea e cinque nella sua esecuzione. Questo processo permette alle idee, e quindi all’intero aspetto creativo, di assumere un ruolo molto più centrale rispetto al passato.
Dcommerce si occupa principalmente di commercio digitale. Come sta cambiando l’interazione dei consumatori con le piattaforme che utilizzano l’intelligenza artificiale?
Colossi dell’ecommerce come Amazon hanno già cambiato questo rapporto. Per i designer che sviluppano soluzioni destinate a questo mercato la sfida è duplice: essere più umili, ma allo stesso tempo più pretenziosi. Essere umili perché bisognerà “cedere” parte del lavoro creativo a degli automatismi basati sull’analisi dei dati, più pretenziosi perché lavorare in ottica di “anticipatory design” significa pensare di poter prevedere i bisogni di un utente prima ancora che li esprima. Avere fiducia nella possibilità di trovare l’associazione giusta fra un prodotto in carrello e una proposta di up-selling (“ti può interessare anche”), oppure creare liste della spesa intelligenti (“sulla base dei tuoi acquisti abbiamo preparato una lista intelligente di prodotti scelti per te”) e così via.
Cosa significa?
Mi spiego meglio. Attualmente, uno dei supporti più utilizzati in ambito di design thinking sono le famosissime personas, ovvero, profili di utenti attorno ai quali vengono disegnate le nostre storie. Sono strumenti importantissimi da utilizzare nella fase di mappatura per capire da un punto di vista umano-centrico la nostra esperienza utente. Nella pratica le personas verranno però sostituite da cluster di persone reali, i cui bisogni sono studiati da software di intelligenza artificiale e sono poi registrati all’interno di database creando banche dati molto più ricche e dettagliate. Un designer è quindi chiamato a predisporre ambienti in grado di adattarsi a scelte di contenuti e di design effettuate da software fuori dal suo controllo.
Quali sono al momento gli investimenti delle aziende italiane in ambito di intelligenza artificiale?
Questo è uno degli aspetti che intendiamo approfondire nel prossimo evento organizzato dall’Academy sulla User Experience, il progetto realizzato da GreatPixel insieme a POLI.design e Andrea Boaretto di PersonaLive. Il primo tema trattato dall’Academy – organizzato nel 2017 – è stato quello dei Dark Pattern, quest’anno invece, vogliamo parlare di intelligenza artificiale sia dal punto di vista del professionista che si occupa di progettazione, individuando strumenti e metodologie necessarie alle aziende, sia dal punto di vista dell’utente finale, cercando di capire attraverso interviste e ricerche il grado di consapevolezza degli utenti sulla presenza di strumenti dotati di intelligenza artificiale durante l’utilizzo di determinati servizi. Tornando alla domanda, in occasione dell’evento abbiamo intenzione di intervistare agenzie e clienti proprio per capire l’uso che fanno dell’intelligenza artificiale. Al momento, la mia sensazione è che solo gli OTT abbiano iniziato a utilizzare in modo massivo queste tecnologie, mentre piccole, medie e grandi aziende che non siano OTT stiano mantenendo ancora un approccio molto tradizionale. Nel frattempo, però, il consumatore si sta abituando a un certo tipo di “lusso” e di conseguenza anche le altre aziende dovranno adeguarsi al cambiamento se non vogliono rischiare l’estinzione.
Un’ultima domanda su GreatPixel. Il brand è stato lanciato quasi un anno fa, quali sono i risultati portati a casa fino ad oggi?
Negli ultimi due mesi i risultati ottenuti sono stati molto positivi, direi ampiamente sopra le aspettative. Questo è vero sia per quanto riguarda il fatturato e i margini, sia per la qualità e la dimensione dei progetti sviluppati. Hanno deciso di fare affidamento a GreatPixel player importanti, di cui molti provenienti dall’estero. In questo settore, l’Italia non è affatto l’ultima ruota del carro, come qualcuno vuole far credere. Ho la possibilità di confrontarmi spesso con operatori del mercato londinese, tra i più avanzati al mondo, e la percezione è di lavorare assolutamente ad armi pari. Nutriamo un senso di inferiorità non giustificato, se non dall’ecosistema. È chiaro che a Londra accadono più cose, le risorse economiche a disposizione in tema di innovazione sono maggiori rispetto all’Italia e l’adozione di tecnologie digitali è più diffusa tra la popolazione. Dal punto di vista qualitativo, invece, non siamo secondi a nessuno, e non parlo solo di GreatPixel ma dell’intero ecosistema italiano.