Gestire l’innovazione: soluzioni sartoriali di marketing technology

Di Andrea Marcante – Managing Director intech

Nessuno dubita che sia necessario nelle aziende, sfruttare le potenzialità del digitale per mantenere e aggiungere capacità competitiva anche a breve termine. E questa osservazione è sicuramente vera per il marketing.

Tuttavia, la retorica di cui sono permeati gli approcci sul digital marketing, è ammantata di disruptionrevolution, e di una serie di altri roboanti proclami che appiattiscono il discorso e non permettono neppure di capire che cosa è realmente in gioco. Anzi, un paio di recenti articoli della Harvard Business Review ricordano che introdurre innovazione digitale in termini di rivoluzione è – per utilizzare una vecchia similitudine del mondo analogico – come gettare sabbia negli ingranaggi.

L’approccio da cui ci sembra corretto partire dopo 20 anni di continua presenza nel mare del web, è semmai evolutivo: si tratta di introdurre in primis una visione strategica sulle potenziali innovazioni di processi e poi di progettare e implementare le soluzioni tecnologiche adatte caso per caso.

In fondo, se l’innovazione di prodotto e comunicazione verso i potenziali clienti parla di customizzazione, perché non partire dalla customizzazione dell’innovazione?

Senza rifuggire gli standard che permettono di inquadrare e replicare velocemente il contesto, si tratta di proporre soluzioni sartoriali che vanno dalla individuazione dei dati di interesse alla costruzione di processi di normalizzazione e modellazione dei dati, fino ad offrire insight e attivazione dei dati stessi sulle piattaforme di delivery. Ebbene sì, a questo punto possiamo anche iniziare a lavorare con machine learning e intelligenza artificiale.

Insomma, ci siamo resi conto che rende di più un lavoro fine da bottega artigiana piuttosto che una bella piattaforma industrializzata ready-to-use e non per una ragione distintiva, o quantomeno non solo per questo, quanto proprio per una ragione di efficienza ed efficacia di un progetto di innovazione digitale, che abbia tempi ragionevolmente brevi di prima implementazione ma anche un respiro evolutivo ad almeno tre anni.

Ciò che fa la differenza è la comprensione del contesto all’inizio di un progetto.

Ci è capitato di incontrare eccellenti proposte da un punto di vista tecnologico che, in fase di attuazione, hanno incontrato problemi di realizzazione enormi proprio per la mancanza di competenza specifica del contesto.

Se chi deve realizzare uno strumento di normalizzazione e manipolazione dei dati, non ha ben chiaro che la misurazione del numero di utenti o della reach è fortemente influenzata dal fattore temporale (e che quindi, per esempio, non posso sommare la reach di week 1 con la reach di week 2 per avere una reach totale di periodo) rischia di fornire una visione della situazione completamente distorta. E ancora, se il progettista non ha una conoscenza anche verticale di quali siano le domande e i bisogni di un dipartimento di marketing digitale, non si accorgerà che avere pronto da qualche parte il dato di placement trafficati può essere petrolio – giusto per utilizzare un’altra abusata metafora – per un analista e quindi rischierà di non accorgersi che fornirà un livello di aggregazione troppo alto e di sottovalutare il volume di dati di un fattore fino a 10.000 volte inferiore con ovvie conseguenze di costi ed effort.

Si noti che questi esempi, che riportano situazioni realmente affrontate, non vogliono insistere su un possibile errore di brief ma su una premessa a monte di un intero progetto di marketing technology. Nei casi qui esposti evidentemente ci si è mossi avendo a disposizione un bouquet di soluzioni tecnologiche da proporre pensando a un obiettivo di ottimizzazione di flussi dati e, quando ci si muove così, la proposizione quasi automatica è di adattare un sistema già pronto altrove.

Il cliente però non parte dal bisogno di ottimizzazione del flusso dati: il cliente necessita di capire quali informazioni permettono di verificare il comportamento di segmenti di utenti rispetto a prodotti e azioni di comunicazione e magari se sia possibile ottenere degli insights previsionali su cui poi prendere decisioni.

Da qui parte allora un doppio lavoro che potremmo definire di mappatura geografica”.

È necessario in primis una mappa degli stakeholder coinvolti nel progetto: chi fa parte del progetto di marketing technology lato aziendale? Vi sono eventuali altri consulenti o provider che hanno voce in capitolo nel progetto? Individuate queste figure, bisogna definire le aree specifiche di cui sono investite, le relazioni tra queste aree e declinare di conseguenza quali sono le risposte che si attendono dai dati. In questa fase, si configura un lavoro di vera e propria traduzione tra portatori di competenze, interessi e conseguentemente linguaggi diversi: è facile esemplificare questa fase nelle due grandi aree di marketing e tecnologia che usano appunto approcci e vocabolari molto diversi. I designer esperti di sistemi e tecnologie di comunicazione direbbero che ci posizioniamo all’interno, o meglio, come uno dei vertici di un triangolo semiotico a fare da codifica e decodifica per il marketing da una parte e l’IT dall’altra, discutendo e proponendo l’evoluzione della stack tecnologica all’IT e il set di informazioni significative al marketing e magari valutando già la forma visuale che semplifichi la lettura. Se questo posizionamento riesce, il progetto trova una velocizzazione decisiva in quanto si assicura al cliente il controllo di entrambi i lati del progetto e come consulenti sappiamo che stiamo ricevendo indicazioni dai decisori corretti.

È a questo punto che si può passare a mappare le fonti dati e le dipendenze tra loro. Generalmente in questa fase quello che emerge è la non connessione e la mancanza di normalizzazione tra i dati stessi. Intervenire sui processi di integrazione delle fonti di dati è di nuovo delicato perché spesso agire sui dati significa agire sui processi di lavoro e spesso con referenti diversi, non è raro infatti che, ad esempio, analytics, dati di advertising e CRM siano gestiti da tre team diversi. In questo caso, il lavoro non è tanto di traduttori, quanto di fluidificatori dei processi (un collega una volta si presentò come data plumber, per fortuna il cliente comprese l’ironia della situazione). Unire i vari pezzi del puzzle è conveniente a tutte le parti in gioco: quando tutti iniziano a vedere insights interessanti, si verifica anche un miglioramento della collaborazione tra reparti del cliente stesso.

Il risultato è quindi una mappa dettagliata che mostra stakeholder, fonti dati, e i processi che connettono stakeholder stessi con fonti dati. Da qui si può lavorare a normalizzare i dati e a estrarli in modo coerente e consistente. Su questi dati si costruiscono sistemi di visualizzazione, siano dashboard interattive o report, e si implementano eventuali processi automatici di delivery delle azioni di comunicazione, come ad esempio calibrare il bidding delle search ads o i messaggi su fattori esterni quali localizzazione geografica o meteo.

Su queste soluzioni, che chiamano in causa algoritmi di machine learning, e su un altro aspetto chiave, la privacy dei dati, torneremo in prossimi post. Entrambi questi aspetti si posizionano proprio nel processo consulenziale che abbiamo qui tratteggiato.

Fonte: Andrea Marcante, Forbes.it

X