L’Enterprise Data Management è essenziale per affrontare il GDPR

Con l’avvicinarsi del 25 maggio 2018, data fissata per l’entrata in vigore del GDPR (General Data Protection Regulation), è sempre maggiore la pressione all’interno delle organizzazioni, praticamente tutte, chiamate a conformarsi al regolamento.

Per adempiere alla normativa è infatti necessario interpretare e ‘scaricare a terra’ principi e indicazioni, definendo una roadmap e un framework attuativi concreti e sostenibili. Il regolamento impone infatti di dichiarare un percorso di consolidamento del sistema di protezione dei dati personali, partendo dalla definizione del perimetro, dall’analisi delle minacce a cui sono sottoposti i dati, fino alla esplicitazione delle misure organizzative e tecnologiche adottate a copertura dei rischi.

“Non basta però dire cosa si fa. Bisogna anche fare quello che si è detto,” sostiene Alberto Scavino, CEO di Irion, software house specializzata nell’Enterprise Data Management. “Le misure dichiarate devono essere implementate e organizzate in un sistema codificato di gestione dei dati personali, che ha molti punti in comune con la conformità a normative già attive in diversi settori, come il Finance, e con le migliori pratiche di governo del patrimonio informativo”.

Questa analogia è una grande opportunità in termini di efficienza e sostenibilità: gli stessi metodi, tecniche e strumenti di data management e data governance possono e devono essere estesi per coprire esigenze di conformità al GDPR.

Il ruolo dell’enterprise data management

Un approccio proattivo, integrato e coerente necessita di un solido supporto strumentale, ovvero di un sistema di [amazon_textlink asin=’B01MTBKS2U’ text=’Enterprise Data Management’ template=’ProductLink’ store=’antoniosavare-21′ marketplace=’IT’ link_id=’95920948-04fe-11e8-87c1-93c7eeda07d2′] in grado di assicurare la flessibilità e la dotazione funzionale necessarie a coprire i requisiti di differenti finalità di gestione dei dati.

Una piattaforma in grado di esplorare il system landscape (data discovery) per creare una mappa dei dati, categorizzarli in base alle singole tipologie e finalità di impiego, valutare i rischi connessi, configurare ed eseguire le regole di dismissione dei dati, verificarne l’esattezza eventualmente attivando le opportune azioni di rettifica. Per salvaguardare le informazioni può rivelarsi necessario lo sviluppo di una delle misure per la protezione dei dati suggerite dalla normativa stessa, la pseudonimizzazione, attraverso tecniche di [amazon_textlink asin=’1546377972′ text=’data masking.’ template=’ProductLink’ store=’antoniosavare-21′ marketplace=’IT’ link_id=’84b5eef3-04fe-11e8-8086-4f162dc340be’] La piattaforma deve inoltre disporre delle funzionalità necessarie a garantire una risposta efficace e tempestiva all’esercizio da parte degli interessati dei propri diritti (consenso, rettifica, oblio, portabilità) al verificarsi di violazioni (data breach), ai requisiti di reportistica regolamentare (es. registro dei trattamenti).

Ma lo strumento è solo uno dei fattori abilitanti: è necessario impiegarlo in modo corretto, con il supporto di professionisti del dato, per valorizzarne tutte le caratteristiche sulla base di un metodo concreto applicabile a differenti esigenze gestionali.

La piattaforma EDM, gli add-on RTG e i relativi servizi professionali abilitanti di Irion danno una risposta completa e integrata a queste esigenze, fornendo un potente ambiente integrato di governo e gestione dei dati con tutte le feature necessarie a coprire i requisiti tecnici introdotti dal GDPR: data quality, data discovery, data governance, gestione di business glossary e metadata, data masking, master data management e workflow management. Il tutto, arricchito da potenti funzionalità di autodocumentazione e di reporting, costituisce una risposta completa e modulare, basata su una chiara visione del percorso di adeguamento alla normativa e al suo presidio in esercizio.

Per approfondire tematiche connesse al regolamento, Irion ha inoltre creato il gruppo LinkedIn GDPR Italia, attraverso il quale è possibile entrare in contatto con Manager che si occupano della “protezione dei dati personali”: un luogo d’incontro virtuale dove condividere esperienze o confrontarsi con altri esperti, facendo chiarezza sulle indicazioni normative e trovando spunti, idee o soluzioni utili.

Non più big data, ecco le nuove sfide nella gestione dei dati

Irion: 5 previsioni per la data management nel 2018

La software house stila una lista di temi caldi: l’adeguamento al GDPR, la Data Preparation, la misurazione della qualità, la facilità di accesso ai dati e la formazione degli ‘Ingegneri dei dati’

 

Con il nuovo anno iniziato da pochi giorni, Irion, software house italiana specializzata nell’Enterprise Data Management, ha stilato una lista dei trend nella gestione dei dati, di cui sentiremo sicuramente parlare nei prossimi 12 mesi. Partendo da una premessa: la discussione sui Big Data non sarà più all’ordine del giorno, poiché ormai è data per assodata, con le aziende consapevoli dell’enorme mole di dati di cui dispongono. Il vero problema è capire cosa (e chi) serve per proteggerli e sfruttarli al meglio, traendo massimo valore e vantaggio competitivo e rispettando i requisiti normativi.

 

Il solito (ig)noto [amazon_textlink asin=’8890341912′ text=’GDPR.’ template=’ProductLink’ store=’antoniosavare-21′ marketplace=’IT’ link_id=’0116c0f4-f9d8-11e7-9333-3dffe7c37bb0′] Il 2018 sarà l’anno dell’applicazione del GDPR, che entrerà in vigore – senza se e senza ma – il 25 maggio. Un tema caldo già nel 2017, vista la portata del regolamento, che impone, alle aziende residenti nell’UE o che gestiscono dati di persone residenti nell’UE, la revisione dell’assetto tecnico e organizzativo per adottare le adeguate misure di Data Protection. Sebbene se ne sia molto parlato, buona parte delle aziende sembra non aver compreso a pieno i requisiti necessari e, soprattutto, ha fatto poco o nulla per adempiervi. Nei primi mesi del 2018 dovranno necessariamente prenderne atto, e correre in fretta ai ripari.

 [amazon_link asins=’8848131549,1118965833,8891621854,8811682479′ template=’ProductCarousel’ store=’antoniosavare-21′ marketplace=’IT’ link_id=’127ddd31-f9d8-11e7-a5ed-333b1acd7f60′]

La Data Preparation. Chi ben comincia è a metà dell’opera. Proprio per questo, e per evitare il fenomeno noto come “Garbage In, Garbage Out”, la Data Preparation, ovvero, a monte delle analytics, l’atto di predisposizione o pre-processing di dati grezzi e/o provenienti da fonti differenti, e conseguente traduzione in un formato condiviso, riveste e rivestirà sempre di più un ruolo fondamentale in ogni strategia di gestione dei dati.

 

Come misurare la qualità. Un’altra questione su cui si tornerà a ragionare nei mesi a venire, relativamente alla Data Management, è quella relativa alla misurazione della qualità: essenziale infatti sviluppare un metodo puntuale, preciso e condiviso.

 

Rendere facile l’accesso ai dati. Uno dei temi sempre più caldi è quello di rendere accessibile in modo semplice la gran massa di dati disponibile, evitando di impantanarsi in “laghi” che si trasformano rapidamente in “paludi”… In questo senso la disponibilità di una piattaforma in grado di pubblicare in modo organizzato e fruibile per gli obiettivi del destinatario è un fattore di successo.

 

Ingegneri dei dati cercasi. Si parla molto di Data Science e di Data Scientist, ma è arrivato il momento di passare a un livello successivo, ovvero all’Ingegneria dei dati. Tra la formazione accademica e le esigenze del mondo del lavoro resta infatti un divario troppo ampio, ed è necessario agire per colmarlo. Attualmente ci sono molti percorsi di ingegneria, ma nessuno dedicato ai dati: eppure i Data Engineer sono figure professionali sempre più appetibili e strategiche per le aziende.

 

“In generale, gestire e interpretare con precisione i dati di cui si dispone è essenziale per le aziende, in quanto crea un vantaggio concreto sulla concorrenza. Inoltre, nel 2018, la data management sarà ancora più cruciale per qualsiasi business, in un contesto di continuo aggiornamento normativo come quello attuale, con l’entrata in vigore del GDPR e le direttive verticali sui settori” ha dichiarato Alberto Scavino, CEO di Irion. 

Marketing & Big Data – La strategia Omnicanale in Italia è fondamentale per 2 imprese su 3, ma solo 1 su 10 sa interpretare i dati sul cliente

 

 Osservatori Digital Innovation del Politecnico di Milano

www.osservatori.net

 Osservatorio Omnichannel Customer Experience

  

Sono 31,7 milioni[1] (pari al 60% della popolazione di età superiore a 14 anni) gli italiani che utilizzano Internet in una o più fasi del processo di acquisto, ma la personalizzazione del contenuto in funzione dell’utente che accede a un sito o a un’app non è ancora particolarmente diffusa: il 29% delle aziende analizzate la fa, il 43% ci sta lavorando, ma il 28% non l’ha ancora inserita nella tabella di marcia. Più della metà delle aziende intervistate non ha un unico Crm in cui raccoglie tutte le informazioni sull’anagrafica clienti provenienti dai diversi prodotti/brand/canali.

[amazon_link asins=’8811682479,8838789894,8868951886,8848131549,8891621854′ template=’ProductCarousel’ store=’antoniosavare-21′ marketplace=’IT’ link_id=’e1e638e4-cec5-11e7-ac55-6dffa07be796′]

L’approccio Omnicanale in Italia: per il 63% delle aziende è strategico, ma solo una su dieci è in grado di incrociare molteplici dati sul cliente e garantire un’esperienza integrata e coerente sui diversi punti di contatto .

L’importanza dell’omnicanalità da parte del top management si riflette sul coinvolgimento di più funzioni organizzative: il Marketing è attivo nell’88% dei casi, il Crm nel 68%, l’IT nel 59%, la Comunicazione nel 55% e le Vendite nel 39%. Ma solo nel 24% delle realtà considerate tutte le business unit interessate hanno un elevato grado di coinvolgimento.

Gli obiettivi della strategia omnicanale sono sia tangibili – incremento delle vendite (indicato dall’81% delle aziende del campione) e miglioramento della customer acquisition/aumento dei lead (64%) – che intangibili – come la personalizzazione delle comunicazioni (62%), il miglioramento dell’engagement (59%) e della loyalty (55%). Ancora poco diffusi gli obiettivi legati alla modifica e alla creazione di prodotti e servizi (rispettivamente 25% e 21%).

La quasi totalità delle aziende italiane raccoglie e immagazzina i dati di anagrafica/contatto (98% dei casi analizzati) e storico di acquisto (86%) e circa tre su quattro i dati provenienti da sistemi di analytics su canali proprietari (79%), indagini di mercato e customer satisfaction (76%) e risultati delle campagne pubblicitarie online (74%). Tuttavia quasi un quarto delle realtà non integra ancora alcuno di questi dati per crearsi una vista unica sul cliente e il 40% gestisce in quest’ottica al più due o tre tipologie di informazioni, tendenzialmente quelle più semplici (come anagrafica clienti e storico di acquisto).

Nel 63% dei casi l’omnicanalità è considerata strategica dai vertici aziendali, mentre per il 23%, pur essendo ritenuta rilevante, non rientra nelle direttrici di sviluppo di breve/medio termine e per il 9% non figura per nulla tra le direzioni strategiche aziendali. La base di partenza è la creazione di un Crm unico che integri tutti i dati sull’anagrafica clienti provenienti dai diversi prodotti/brand/canali, ma solo il 47% delle aziende intervistate dichiara di disporne.

Queste alcune delle evidenze emerse dalla prima edizione dell’Osservatorio Omnichannel Customer Experience, promosso dalla School of Management del Politecnico di Milano*, che ha condotto una ricercaattraverso oltre 100 interviste lato domanda e offerta, una survey condotta su un campione di grandi e medio-grandi aziende italiane appartenenti ai principali settori e tre momenti plenari di confronto e discussione che hanno coinvolto complessivamente oltre 150 aziende della domanda.

“Siamo di fronte a profondi cambiamenti del comportamento dei consumatori nella loro relazione con la marca, che avviene sempre più secondo una molteplicità di canali, in qualsiasi momento e luogo” afferma Giuliano Noci, Responsabile Scientifico dell’Osservatorio Omnichannel Customer Experience. “Sono ormai 31,7 milioni[2], pari al 60% della popolazione di età superiore a 14 anni, gli italiani che utilizzano Internet in una o più fasi del processo di acquisto e si aspettano, pertanto, di vivere esperienze di marca integrate sui vari punti di contatto (punto vendita, sito internet, eCommerce, social network, contact center, pubblicità)”.

“È evidente come anche le imprese italiane abbiano ormai intrapreso un percorso che prevede la creazione di più canali e punti di contatto attraverso cui il cliente possa interagire con l’azienda”, afferma Raffaello Balocco, Responsabile Scientifico dell’Osservatorio Omnichannel Customer Experience “Tuttavia, sono ancora distanti da una gestione integrata della relazione con il consumatore che possa garantire una customer experience olistica, coerente su tutti i canali e senza interruzioni o ridondanze nel passaggio da uno all’altro (omnicanale appunto) e si trovano, pertanto, di fronte alla necessità di trasformare la logica dei propri modelli aziendali da prodotto centrico a cliente centrico”.

Per poter garantire un’esperienza omnicanale ai consumatori, occorre adottare una strategia basata sui dati lungo tutto il processo di relazione con il cliente, dalla comunicazione alla vendita e al post-vendita.

Raccolta e analisi dei dati

Il punto di partenza è la raccolta dei dati disponibili in azienda a supporto del processo di relazione con il consumatore: dati che provengono da diversi touchpoint (dal punto vendita al sito Internet/eCommerce, dal call center alla pubblicità, dai canali di direct marketing alle mobile app), dati immagazzinati in svariati sistemi informativi (come Crm o sistemi di cassa) e dati che possono provenire non solo dall’interno, ma anche dall’esterno dell’azienda (ad esempio, acquistati da data provider terzi).

La sola raccolta di dati non è però sufficiente senza un’accurata fase di analisi, in cui si vanno a selezionare i dati realmente utili e di valore e a generare insight rilevanti, per massimizzare l’efficacia delle azioni di marketing e vendita. Essa permette, inoltre, di generare cluster di segmenti di clienti e di individuare per ciascuno di essi uno o più customer journey, ossia il percorso che i clienti compiono, attraverso diversi punti di contatto, nel processo d’acquisto (e utilizzo) di un determinato bene o servizio. Infine, questa fase prevede l’analisi dei contenuti fruiti dal consumatore (content intelligence) per comprenderne gli interessi e arricchirne così il profilo così da essere più efficaci nelle successive fasi di contatto.

Dalla Ricerca emerge che la quasi totalità delle aziende raccoglie e immagazzina i dati di anagrafica cliente e informazioni di contatto (98% dei casi analizzati) e di storico di acquisto (86%), tipologie di dati tipicamente raccolte a livello di singolo individuo. Molto diffusa è, comunque, anche la raccolta di dati provenienti da sistemi di analytics su canali proprietari (79%), indagini di mercato e customer satisfaction (76%) e risultati delle campagne pubblicitarie online (74%): questi dati sono invece tendenzialmente gestiti a livello aggregato.

“La maggioranza delle realtà (40%), però, si limita al più ad incrociare due o tre tipologie di dati, tendenzialmente quelle di anagrafica clienti e storico d’acquisto, mentre poco più di una su tre è in grado di integrare anche dati più complessi (come quelli provenienti da analytics, advertising, interazioni one to one). Inoltre quasi un quarto delle realtà non integra ancora alcun dato per crearsi una vista unica sul cliente”, dichiara Marta Valsecchi, Direttore dell’Osservatorio Omnichannel Customer Experience. “Colpisce, inoltre, il fatto che più della metà delle aziende intervistate non abbia ancora un unico Crm che raggruppi tutti i dati sull’anagrafica clienti provenienti dai diversi prodotti/brand/canali.”

Oltre un terzo delle aziende rispondenti non traccia né ricostruisce, ad oggi, il customer journey del cliente, il 44% lo fa ma solo sui touchpoint digitali, mentre il 20% è in grado di farlo su tutti i canali (fisici e digitali).

Attivazione dei dati

A valle della creazione di una vista unica sul cliente e della generazione degli insight vi è la fase in cui i dati vengono “attivati” per generare iniziative di comunicazione, marketing o vendita profilate sulla base del consumatore a cui sono indirizzate (o del suo cluster di appartenenza). Lo scopo è interagire con lo specifico cliente attraverso azioni per lui rilevanti, nel momento più opportuno, nel giusto contesto e attraverso il corretto canale.

L’automazione di tale processo (Marketing Automation) consente alle aziende di mettere in campo azioni di marketing, comunicazione e vendita più tempestive e di misurarne rapidamente l’efficacia: se l’utilizzo di regole e automazioni è piuttosto frequente a livello di singolo canale di contatto, le aziende italiane sono ancora lontane da un approccio integrato su tutti – o almeno molti – dei touchpoint a disposizione. Solo il 16% delle aziende rispondenti alla survey dichiara, infatti, di gestire in maniera integrata tutti o quasi i propri punti di contatto e, inoltre, ben un quarto delle aziende interrogate non pratica alcuna gestione integrata. Anche la personalizzazione del contenuto in funzione dell’utente che accede a un sito/app non è ancora particolarmente diffusa: il 29% delle aziende del campione lo fa, il 43% ci sta lavorando, ma il 28% non l’ha ancora inserita nella tabella di marcia.

“In sintesi, dunque, in Italia, l’implementazione di strategie omnicanale è ancora agli inizi nella gran parte delle realtà, come testimoniato dai numerosi indicatori di maturità rilevati nel corso della Ricerca” afferma Nicola Spiller, Direttore dell’Osservatorio Omnichannel Customer Experience.“Possiamo affermare che solo il 10% del campione di imprese analizzato abbia già una discreta maturità nella gestione integrata dei punti di contatto e nella creazione di una vista unica sul cliente. All’opposto, quasi la metà delle aziende intervistate è ancora in una fase embrionale su entrambi i fronti”.

L’impatto sull’organizzazione aziendale e i possibili benefici

Andando ad analizzare la situazione italiana emerge che, in termini di commitment del vertice aziendale, nel 63% dei casi l’omnicanalità è considerata importante: è infatti prioritaria nell’8% delle imprese del campione, mentre nel 55% è una delle direzioni di sviluppo strategico. Per il 23% essa, pur essendo ritenuta rilevante, non rientra nelle direttrici di sviluppo di breve/medio termine. Infine per il 5% essa è prioritaria solo per una specifica business unit e per il 9% non rientra per nulla tra le direzioni strategiche aziendali. La generale consapevolezza dell’importanza dell’omnicanalità da parte del top management si riflette sul coinvolgimento di più funzioni organizzative: il Marketing è attivo nell’88% dei casi, il Crm nel 68%, l’IT nel 59%, la Comunicazione nel 55% e le Vendite nel 39%. A queste si aggiungono le funzioni Digital e Customer Experience, presenti in azienda rispettivamente nel 65% e nel 39% dei casi analizzati. A fronte di ciò emerge, tuttavia, come vi siano gradi di commitment molto diversificati a livello delle diverse funzioni aziendali coinvolte. Solo nel 24% delle realtà considerate tutte le business unit interessate hanno un elevato grado di commitment; nel 54% dei casi ciò non avviene per una diversa percezione dei benefici e nel 17% dei casi per un disallineamento negli obiettivi specifici di ciascuna funzione.

Dal punto di vista dell’impatto delle singole azioni, solo nel 25% delle aziende intervistate è presente un sistema di misurazione completo di tutti i principali obiettivi correlati alla customer experience, mentre per il 64% la misurazione è parziale o relativa solo ad alcuni obiettivi e il rimanente 11% dichiara di non disporre di un sistema di misurazione adeguato.

“Dalla fotografia delle aziende italiane emerge come una buona parte di esse abbia messo in campo azioni volte a rafforzare la propria capacità di generare insight: il 50% di esse, infatti, ha strutturato competenze di analisi dei dati e generazione di insight all’interno delle diverse funzioni aziendali”, aggiunge Nicola Spiller, Direttore dell’Osservatorio Omnichannel Customer Experience. “Un ulteriore 26%, inoltre, ha creato un team trasversale che si occupa di questa attività. Per quanto riguarda invece la gestione di progetti di revisione delle attività di marketing in ottica data driven, è evidente che ci siano ancora ampi margini di miglioramento: solo il 37% delle aziende intervistate, infatti, afferma di aver attualmente strutturato un gruppo deputato a gestire tali tipologie di progetti”.

“Attraverso strategie di omnicanalità può essere perseguita un’ampia varietà di obiettivi”, conclude Marta Valsecchi, Direttore dell’Osservatorio Omnichannel Customer Experience.“Tra quelli di maggior priorità per le aziende analizzate nella Ricerca vi sono sia obiettivi tangibili – quali incremento delle vendite (81% dei casi) e miglioramento della customer acquisition/aumento dei lead (64% dei casi) – sia obiettivi intangibili – quali personalizzazione delle comunicazioni (62% dei casi), miglioramento dell’engagement (59% dei casi) e miglioramento della loyalty (55% dei casi). Sono invece ancora poco diffusi obiettivi legati al miglioramento e alla creazione di prodotti e servizi (rispettivamente 25% e 21%)”.

*L’edizione 2017 dell’Osservatorio Omnichannel Customer Experience è realizzata con il supporto di Accenture Interactive, Adobe Systems Italia, Alpenite, Kettydo+, Poste Italiane, SPLIO, Stay Human Group, THRON; Adabra, Fastweb, GS1 Italy, MailUp, rdcom.it, Ubiquity.

[1] Osservatorio Multicanalità, 2017.

[2] Osservatorio Multicanalità, 2017.

Come diventare Data Scientist: pratica, intuito e specializzazione

I suggerimenti di Irion per chi vuole svolgere questa professione

 

Negli ultimi mesi si è sentito spesso parlare di Data Scientist; ma chi è, cosa fa e quali competenze deve avere questa figura professionale? E, soprattutto, come si diventa Data Scientist? Alcuni consigli per districarsi in questo stimolante ma insidioso contesto, arrivano da Irion, software house italiana specializzata nell’Enterprise Data Management, partner dell’Università degli Studi di Torino e da sempre attenta a formazione, ricerca e sviluppo.

 

Innanzitutto, per essere in grado leggere, analizzare e gestire i “big data” è necessario avere un solido background in matematica applicata, statistica, informatica o fisica, oltre a specifiche competenze di machine learning e data mining. In un contesto in rapidissima evoluzione come quello delle tecnologie digitali, in base alle quali vengono riprogettati un numero sempre maggiore di processi aziendali, le skill tradizionali non sono però più sufficienti, e l’aggiornamento continuo è fondamentale. I “maghi del dato” sono molto ricercati (e ben remunerati!), proprio perché per intraprendere questa professione, e svolgerla con profitto, è necessario un complesso background di competenze e attitudini.

[amazon_link asins=’8891743399,193550469X,012802044X,B01JXOJ5N6,B011YT2G6Q’ template=’ProductCarousel’ store=’antoniosavare-21′ marketplace=’IT’ link_id=’07d15c72-c074-11e7-8c0b-b1b088b7731a’]

 

Ecco quindi i tre suggerimenti di Alberto Scavino, CEO di Irion:

       Integrare la pratica allo studio teorico: Sembra banale, ma è la realtà. Un robusto background accademico è fondamentale per un Data Scientist, ma è ancora più importante “sporcarsi le mani” e lavorare su dati reali. Molte delle skill necessarie al professionista si possono infatti apprendere solo sul campo. Quindi, è essenziale accumulare esperienze, che siano stage o collaborazioni – già durante gli studi. Solo in questo modo, è possibile comprendere a pieno, e anticipare, i principali trend del settore.

       Sviluppare l’intuito: Un buon Data Scientist non deve solo avere forti competenze tecniche, ma deve anche essere dotato di un ottimo intuito. Non si tratta di gettare dati grezzi in uno strumento in grado di elaborarli, e aspettarsi che ne venga fuori qualcosa di buono: prima di tutto bisogna accertarsi che ciò che si sta facendo abbia un senso. Ad esempio, bisogna essere in grado di capire quali caratteristiche sono importanti e quali implicazioni vi stanno dietro, oltre a comprendere quale modello utilizzare in base a come i dati sono distribuiti.

       Massima specializzazione: In tutti i settori, dal finance, al pharma, alle utilities, solo per fare alcuni esempi, si registra una sempre crescente domanda di professionisti in grado di interpretare con precisione la mole di informazioni che quotidianamente le aziende ricevono: questo per trarre vantaggio competitivo, ma anche per conformarsi alle normative vigenti, in termini di privacy, protezione e sicurezza dei dati: uno su tutti il GDPR. Nelle infinite possibilità di applicazione, per un giovane che si avvia al mestiere, è fondamentale specializzarsi: le imprese ricercano infatti competenze sempre più specifiche.

        

In qualsiasi campo, dalla medicina alla finanza, passando per il marketing, è dunque necessario convergere e interpretare dati e informazioni, trasformandoli in indicazioni utili per il progresso di un’organizzazione. Per questo motivo, tra i profili più ricercati dalle aziende di ogni settore, negli anni a venire continueranno ad esserci proprio loro, gli “scienziati del dato”: professionisti dell’innovazione in grado di leggere, analizzare e gestire enormi quantità di informazioni digitali, permettendone l’utilizzo in infiniti ambiti applicativi, ponendo la massima attenzione su qualità, privacy e sicurezza.

 

Di conseguenza, anche il mondo accademico si sta muovendo per formare risorse con le competenze necessarie al ruolo di Data Scientist: all’Università La Sapienza di Roma, è nato persino un corso di laurea magistrale in Data Science, il primo del genere in Italia, che nei giorni scorsi ha visto la proclamazione dei suoi primi quattro laureati; l’Università di Torino, in collaborazione con il Collegio Carlo Alberto, propone invece il MADAS, Master in Data Science for Complex Economic System che, grazie a interventi curati da professionisti e aziende del settore, tra cui la stessa Irion, permette di coniugare lo studio teorico ad esercitazioni pratiche.

 

Data Dollar: una moneta che si basa sul valore dei dati personali diventa un nuovo metodo di pagamento  

Kaspersky Lab, ha creato un pop-up shop in cui i dati personali o meglio, i Data Dollar, sono l’unica moneta utilizzabile. L’obiettivo è dimostrare che i dati hanno un valore economico che può essere utilizzato per gli acquisti nei negozi del futuro.

 

Il Data Dollar Store è stato creato e allestito da Kaspersky Lab in Old Street a Londra, nel cuore della capitale della tecnologia. I clienti si sono messi in coda molto presto per aggiudicarsi le stampe esclusive del noto street artist Ben Eine, ma sono rimasti molto sorpresi di fronte al modo con cui avrebbero dovuto pagare le opere d’arte, veniva in effetti chiesto a loro di rinunciare alle proprie fotografie personali o ai video e utilizzarli come metodo di pagamento per gli acquisti. Dopo la sorpresa iniziale hanno però acconsentito favorendo l’aumento della valuta Data Dollar. Il Data Dollar Store, è stato ideato per far crescere negli utenti la consapevolezza del valore effettivo dei dati personali e attirare altri player di mercato ad unirsi a questa attività utilizzando il simbolo del Data Dollar. Per l’occasione è stato realizzato un video.

Tenuto conto che la quantità di dati personali continua a crescere in modo esponenziale, possiamo dire che le persone, in modo del tutto inconsapevole, portano con sè ogni giorno una vera e propria miniera d'oro fatta di 
monete preziose che non subiscono l’influenza dei tassi di cambio o della posizione geografica. 
Secondo Kaspersky Lab, la mancanza di consapevolezza rispetto al valore effettivo dei propri dati personali è 
un ostacolo enorme che impedisce alle persone di compredere quanto sia necessario proteggere i propri dati.
La speranza è che attraverso i Data Dollar questa consapevolezza possa aumentare e rendere quindi più sicura
 l'esperienza online di tutti.

“Per noi il Data Dollar è principalmente un mezzo per sensibilizzare gli utenti sul valore dei dati”, afferma Morten Lehn, General Manager Italy di Kaspersky Lab. “Quindi, se un sito web offre dei servizi gratuitamente, ma chiede in cambio i dati personali dei clienti per monetizzare il proprio servizio, dovrebbe utilizzare il simbolo del Data Dollar per dimostrare che si sta verificando una forma di scambio”, continua Lehn.

 [amazon_link asins=’8811682479,074947985X,8838662916,B06XWN7VCQ,B01J0RYDPQ’ template=’ProductCarousel’ store=’antoniosavare-21′ marketplace=’IT’ link_id=’06828932-ad7b-11e7-9229-d34717296eb0′]

Kaspersky Lab ha dimostrato che fare acquisti in un pop-up store temporaneo di Londra utilizzando i dati come
valuta può funzionare. Il negozio che è stato aperto per due giorni ha attirato diversi clienti che volevano 
aggiudicarsi ad ogni costo le stampe esclusive e le opere d'arte di Ben Eine, il noto street artist. 
I clienti erano convinti che avrebbero fatto una normalissima esperienza di shopping e che quindi dopo aver 
osservato i prodotti e scelto quelli da acquistare sarebbero andati alla cassa  per pagarli con del denaro. 
Quello che è accaduto invece è che al momento del pagamento ai clienti è stato chiesto di pagare in Data 
Dollars, la nuova valuta creata da Kaspersky Lab e che consiste nei dati personali dei clienti contenuti 
all’interno del loro smartphone: immagini, video o testi.

Morten Lehn ha aggiunto: “È facile dimenticarsi della quantità enorme di dati che condividiamo quotidianamente. La sensazione di perdita che si prova quando i dati personali vengono sottratti contro la nostra volontà, diventa molto più realistica quando qualcuno prende il nostro smartphone e davanti ai nostri occhi, scorre tutti i nostri dati decidendo quali prendere. L’effetto di questa esperienza di acquisto, che abbiamo potuto esplorare grazie al Data Dollar Store, è stata per noi molto interessante.  Secondo un sondaggio globale, anche se il 29% delle persone in tutto il mondo è stato vittima di un attacco informatico, il 39% non protegge i propri dispositivi dagli attacchi.

Le persone dovrebbero dare ai propri dati lo stesso valore che danno al denaro. Visto che i dati personali hanno valore e possono essere utilizzati come mezzo di scambio o per fare acquisti è importante proteggerli facendo di tutto per evitare che vengano rubati o persi”.


 

 

MapR e Talend collaborano per offrire una soluzione per la gestione dei data lake nel rispetto del GDPR

Un’offerta integrata per aiutare le aziende a essere conformi ai requisiti chiave del regolamento GDPR su data inventory, portabilità, anonimato e altro ancora

 

MapR Technologies, Inc., provider della piattaforma di convergenza per l’integrazione dei dati con processi operativi  in tempo reale, e Talend (NASDAQ: TLND), leader mondiale nelle soluzioni software di integrazione cloud e big data, annunciano la stretta collaborazione sullo sviluppo di una soluzione che aiuti i clienti a rispettare la legislazione europea relativa al regolamento GDPR (General Data Protection Regulation).

Grazie all’offerta di MapR e Talend, le aziende possono gestire i data lake restando conformi anche ai più rigorosi requisiti riguardanti archiviazione, inventory, protezione, conservazione, portabilità e sicurezza imposti dal GDPR.

In vigore dal prossimo maggio 2018, il GDPR riguarda qualsiasi azienda che raccolga o processi i dati personali relativi a soggetti residenti nell’Unione Europea. Secondo Gartner, entro la fine del 2018, oltre il 50% delle aziende non risponderanno del tutto ai requisiti richiesti dal GDPR.*

 “Il percorso verso il rispetto della regolamentazione GDPR non è complicato, ma le organizzazioni devono agire ora”, dichiara Ciaran Dynes, senior vice president of products di Talend.  “Grazie alla collaborazione con MapR, stiamo aiutando i clienti nel garantire la trasparenza dei dati utilizzando appropriate pratiche di gestione dei metadata, nel stabilire un approccio collaborativo per la data governance e nel modernizzare la loro piattaforma dati consentendo lo sviluppo dei data lake nel pieno rispetto del GDPR”.

[amazon_link asins=’1785888080,148913882X,B073B866RS,1787281345′ template=’ProductCarousel’ store=’antoniosavare-21′ marketplace=’IT’ link_id=’4134d70c-72d2-11e7-adad-99ed8504c1c1′]

I data lake sono utilizzati per centralizzare le informazioni delle aziende, includendo i dati personali provenienti da diverse fonti come le banche, i social media, le strutture che erogano cure mediche e altro ancora. La soluzione integrata MapR e Talend consente alle aziende a gestire i data lake in conformità ai seguenti aspetti:

     Classificazione e lineage dei dati

     Acquisizione e integrazione dei dati

     Anonimato dei dati

     Gestione e certificazione dei dati in modalità automatica

     Portabilità e accessibilità dei dati

 

“Secondo il GDPR, le aziende multinazionali dovranno dimostrare che i dati personali vengono acquisiti, condivisi e gestiti in modo controllato, legittimo ed equo,” dichiara Anoop Dawar, Vice Presidente, product marketing di MapR Technologies. “L’offerta congiunta MapR e Talend aiuta le aziende ad accelerare gli sforzi nell’adeguarsi al regolamento GDPR per mettere in atto i necessari meccanismi di governance dei dati”.

 

La piattaforma MapR Converged Data offre analytics e operation in un’unica soluzione software che integra i big data e le tecnologie open source con un accesso veloce e nativo allo streaming, funzionalità in tempo reale del database e storage scalabile su cloud. La piattaforma offre diverse funzionalità in conformità al GDPR, compresi i MapR Volume, che raggruppano logicamente i dati personali e applicano immediatamente a questi dati la policy e le autorizzazioni; auditing ad alte prestazioni per l’accesso ai dati; il mirroring e la replica per tracciare i dati “portatili”.

 

Talend Data Fabricè la prima piattaforma di integrazione che supporta nativamente MapR Streams e che aiuta i clienti a sincronizzare continuamente l’elaborazione dei dai attraverso i database, in quanto l’informazione viene aggiornata in tempo reale fornendo una visione accurata. Talend integra inoltre funzioni per il data quality, il metadata management, il data stewardship, il data lineage e i big data per raccogliere, standardizzare, riconciliare, certificare, proteggere e gestire il PII (Personally Identifiable Information).

 

Per ulteriori informazioni su come l’offerta MapR e Talend supporti i clienti nel soddisfare i requisiti GDPR, visita il sito:

https://mapr.com/why-mapr/regulatory-standards/ leggere questo blog.

 

Hai apprezzato questa notizia? Condividila con questo tweet: .@Talend e @MapR collaborano sulla soluzione di data lake che aiuta a soddisfare i requisiti del GDPR – http://bit.ly/2twZ2yW

 

* Gartner Insight, Focus on Five High-Priority Changes to Tackle the EU GDPR, Pubblicato il 30 Settembre 2016 ID: G00311301 by Bart Willemsen

Analista dei dati: chi è, cosa fa e quanto guadagna

Business Data Analyst:
chi è, cosa fa e quanto guadagna
una delle figure più richieste del 2020

Ogni giorno, rispetto al passato, generiamo una quantità enorme di dati, il 90% in più solo negli ultimi due anni. I dati rappresentano una vera miniera per chi offre prodotti e servizi.
Ma questi dati hanno valore solo se siamo in grado di analizzarli, aggregarli e visualizzarli. Così l’esigenza di trattare le informazioni diventa sempre più una necessità condivisa, che prevede l’intervento di un professionista specifico: il Business Data Analyst, la seconda figura più ricercata dalle aziende. Secondo una recente ricerca realizzata da TAG Innovation School, in collaborazione con Cisco Italia e Intesa Sanpaolo su un campione di 550 piccole e medie imprese italiane, infatti il 50% delle PMI dichiara di volere assumere un esperto di analisi dei dati entro i prossimi 3 anni. Tra le tendenze del 2017, le aziende hanno deciso di investire maggiormente in Visualization, Cloud Data, Rich Content, Internet of Things, Sensor Data Driven e Intelligenza Artificiale.

Il Business Data Analyst è un professionista, non uno scienziato o un ricercatore, portatore di una serie di competenze che permettono alle aziende di sfruttare i dati per creare nuovi modelli di business e generare vantaggio competitivo sul mercato. Le sue analisi coprono trasversalmente tutti i reparti di un’azienda, trasformando i dati in informazioni comprensibili. Tra le skill maggiormente apprezzate dalle aziende troviamo Machine Learning, Data Visualization, Data Mining e Data Auditing e Testing.

[amazon_link asins=’8811682479,8848131549,8868951886,1118965833,B071HHZ1H3′ template=’ProductCarousel’ store=’antoniosavare-21′ marketplace=’IT’ link_id=’2381bab8-50d5-11e7-bd6d-7940ec931f1b’]

Il Business Data Analyst è un mix sapiente di competenze gestionali, statistiche e comunicative. Comprende l’origine dei dati e le eventuali possibili distorsioni, analizza il flusso informatico delle informazioni grazie a una conoscenza tecnologica, legge i dati con metodi statistici al fine di identificare problemi di business e, infine, comunica con chiarezza alle varie aree aziendali i risultati.

Lo stipendio medio annuo è tra i più alti in assoluto con cifre che si aggirano tra i 30 mila e i 50 mila euro per una figura junior ma può arrivare fino 99 mila per una figura senior. Parlando di quote rosa, le donne Data Analyst sono il 41% contro un 59% di uomini.

Le aziende stanno comprendendo il valore degli esperti di analisi dei dati, grazie ai quali è possibile individuare degli actionable insight, cioè delle indicazioni su come sviluppare e orientare le proprie attività di business andando ad accrescere il proprio vantaggio competitivo. Per questo il Master in Business Data Analysis offerto da TAG Innovation School, la scuola dell’innovazione digitale di Talent Garden, ha l’obiettivo di formare professionisti in grado di sfruttare la consistente mole di dati scaturita dall’impiego delle nuove tecnologie, ricavandone preziose indicazioni per l’assunzione di decisioni strategiche, operative e per la conduzione e la competitività delle aziende. 

[gview file=”http://www.antoniosavarese.it/wp-content/uploads/2017/06/Infografica_Data-Analyst-TAG-Innovation-School.pdf”]

Indagine Talend: l’80 per cento dei CIO sta pianificando un progetto Big Data per il 2017

Analisi in tempo reale, self-service e gestione dei metadati hanno la precedenza su Intelligenza Artificiale e Machine Learning


Talend (NASDAQ: TLND), leader mondiale nelle soluzioni software di integrazione cloud e big data, ha condotto un sondaggio che, coinvolgendo 169 responsabili IT, indica come big data, analytics e governance siano nella lista delle priorità per il 2017. I risultati dell’indagine mostrano che analisi in tempo reale, gestione dei metadati e l’accesso self-service ai dati costituiscono quasi il 70 per cento dei progetti che i responsabili IT leader intendono realizzare nel 2017, strutturando i propri dati per sfruttare intelligenza artificiale e machine learning in un futuro prossimo.

Dall’indagine emerge anche che mentre la spinta verso la trasformazione digitale continua ad essere un obiettivo da perseguire, quotidianamente i CIO sono chiamati ad affrontare le sfide in termini di budget e di tempo per garantire le operazioni di business. Di conseguenza, il loro obiettivo è guardare al progresso tecnologico continuando a focalizzarsi sul core business.

“La tecnologia da sola non rende l’azienda più orientata ai dati”, ha affermato Ashley Stirrup, chief marketing officer di Talend. “E’ fondamentale comprendere l’importanza del giusto mix di risorse umane, tecnologie e processi necessari per incrementare il valore strategico dei dati. Il compito dei responsabili della trasformazione digitale è quello di creare una cultura aziendale che intende i dati come una risorsa strategica che deve essere considerata in ogni fase del processo decisionale. Questo approccio garantisce l’agilità e la flessibilità di business necessarie per rimanere competitivi sul mercato odierno”.

 

I principali risultati dell’indagine Talend sui CIO:

 

  • Aumento dei progetti Big Data: le aziende hanno raggiunto un nuovo livello di conoscenza sui big data, con oltre l’80 per cento degli intervistati che indica di aver pianificato almeno un’iniziativa big data nel 2017, cifra quasi doppia rispetto al numero dei progetti big data portati a termine nel 2016. Per il 2017 i progetti si concentreranno su analytics e client.
  • Le analisi in tempo reale sono una priorità assoluta per il 26% degli intervistati per il 2017, segue la gestione dei metadati per il 20% mentre la preparazione self-service dei dati è stata indicata come priorità dal 18%. Molti CIO prendono già in considerazione intelligenza artificiale e machine learning e Internet of Things (IoT) ma con un livello più basso di importanza, pari rispettivamente al 10% e 5%.
  • I Big Data sempre più spesso vengono utilizzati per migliorare i processi interni e l’assistenza clienti: il lavoro dei responsabili IT spesso si divide tra l’introdurre nuove tecnologie per migliorare il business e il garantire l’operatività in modo sicuro ed economico. Questo spiega come per il 27% degli intervistati l’impatto più significativo dei Big Data sulla loro organizzazione sia proprio rappresentato dal miglioramento dei processi interni. Mentre per il 20% è il customer service ad aver beneficiato dei Big Data, seguito dal 17% sia per la riduzione dei costi operativi sia per la creazione di nuovi flussi di reddito.
  • Il rapporto tra IT e Business è il più grande ostacolo per diventare un’azienda orientata ai dati: il 35% degli intervistati ha indicato quale sfida principale nel percorso per diventare data-driven il rapporto tra IT e business. In particolare, per il 23% questo rapporto è stato l’ostacolo da dover affrontare prima ancora di quello del budget o quello di disporre di competenze adeguate che è considerato come una sfida solo dal 16% degli intervistati.
  • Governance, qualità e self-service dei dati: quando è stato chiesto quale dei seguenti aspetti rappresenti la massima priorità per l’azienda, i responsabili IT hanno messo in evidenza governance dei dati (37%), qualità dei dati (33%) e self-service (31%). Questi risultati mettono in luce come per le aziende sia di primaria importanza poter garantire che i dati siano puliti, gestiti e ampiamente accessibili in modo che i dipendenti possano metterli al servizio del successo aziendale.

 

 

A proposito di Talend

Talend (NASDAQ: TLND)  è uno dei leader della prossima generazione di soluzioni di big data e cloud integration che aiuta le aziende che vogliono essere guidate dai dati, rendendoli più accessibili, migliorandone la qualità e fornendoli rapidamente là dove sono necessari per un processo decisionale in tempo reale.  Semplificando i dati grazie a questi passaggi, Talend permette alle aziende di agire con perspicacia basandosi su informazioni precise, minuto per minuto, relative alla loro attività, ai clienti e al settore. Le soluzioni open source innovative di Talend raccolgono, preparano e combinano i dati provenienti da centinaia di fonti con rapidità ed efficienza, in modo tale che le aziende possano ottimizzarli in ogni ambito delle loro attività. Talend ha sede a Redwood City, California. 

Advanced Analytics – ossia come usare i big data per innovare il business

A cura di Giuseppe Donvito, Partner di P101

 

Cresce l’importanza ed il numero dei dati per le aziende, e con essa matura anche la necessità di analizzarli, classificarli, e soprattutto utilizzarli in maniera consapevole. A questo fine, sta guadagnando uno spazio sempre maggiore il campo degli advanced analytics: ovvero l’analisi autonoma o semi-autonoma dei dati attraverso tecnologie sofisticate, al fine di raggiungere una più profonda comprensione delle informazioni e fare previsioni utili allo sviluppo futuro del business. Di seguito la riflessione di Giuseppe Donvito, Partner del fondo di venture capital P101.

 

Gli advanced analytics, a differenza dell’analisi tradizionale, non si concentrano solo sui dati storici, ma permettono di raccogliere e studiare le informazioni in tempo reale, persino di predire comportamenti e trend futuri. L’analisi predittiva infatti è una sottocategoria degli advanced analytics, ed una fondamentale: riuscire a padroneggiare queste tecnologie significa avere un vantaggio competitivo enorme, in quanto integrare queste informazioni nelle strategie di business significa poter influenzare i trend prima ancora che si formino.

 

Gli advanced analytics, quindi, più che una tecnica sono un insieme di tecniche (predictive analysis, data/text mining, machine learning, sentiment analysis, neural networks – solo per citarne alcune) che permette per esempio di comprendere meglio comportamenti e preferenze dei consumatori attraverso l’analisi di grandi masse di dati.

 

Quello delle analisi “avanzate” è uno strumento relativamente nuovo, ma già oggi le grandi aziende stanno cercando di integrarlo nel proprio lavoro: secondo la ricerca MIT Sloan Management Review, il 2016 ha visto un aumento sensibile del numero di società che utilizzano questo tipo di analisi per ottenere un vantaggio sui competitor. Stando allo studio di Sloan Management, nel periodo 2013-2015 si è verificato un rallentamento nell’utilizzo dei big data e degli analytics (dal 67% al 51%), dovuto in parte ad un surplus di dati e alla difficoltà di metterli a frutto in maniera competitiva. Nel 2016, invece, le aziende prese in esame hanno iniziato ad implementare sistemi di advanced analytics che hanno permesso loro di superare questo scoglio (57%) e di utilizzare dati approfondimenti analitici ai fini strategici di innovazione dei modelli di business. Oggi queste realtà sono in grado di accedere a pool di dati sempre più grandi e hanno finalmente incominciato ad integrare gli strumenti di analisi nei processi decisionali.

 

E il loro impegno sta già portando a risultati soddisfacenti: il report Data & Advanced Analytics: High Stakes, High Rewards pubblicato il mese scorso da Forbes Insights evidenzia come delle società che hanno posto al centro della business strategy un utilizzo sapiente degli advanced analytics, quasi due terzi abbiano riportato un incremento dei margini o dei ricavi del 15% o più nel corso del 2016. Nel dettaglio, il 66% ha visto crescere i ricavi mentre il 63% ha conseguito un crescita dei margini operativi. Inoltre, il 60% di queste imprese ha dichiarato di aver migliorato il proprio profilo di rischio grazie agli advanced analytics. Insomma, non c’è da stupirsi se più di metà dei dirigenti intervistati ha in programma di investire nei prossimi due anni cifre che partono da un minimo di 10 milioni di dollari in big data e advanced analytics, e se gli esperti del settore si aspettano che il mercato degli advanced analytics cresca del 33% entro il 2021, fino a raggiungere un valore di 60,44 miliardi di dollari.

 

P101 – Insightful Venture Capital

P101 è un fondo di venture capital specializzato in investimenti in società digital e technology driven. Nato nel 2013, con una dotazione corrente di quasi 70 milioni di euro e 26 società in portafoglio, P101 si distingue per la capacità di mettere a disposizione degli imprenditori di nuova generazione, oltre a risorse economiche, anche competenze e servizi necessari a dare impulso alla crescita delle aziende. Il fondo, promosso da Andrea Di Camillo – 15 anni di esperienza nel venture capital e tra i fondatori di Banzai e Vitaminic – e partecipato da Azimut, Fondo Italiano di Investimento e European Investment Fund, collabora con i maggiori acceleratori privati, tra cui HFarm, Nana Bianca, Boox e Club Italia Investimenti. Tra le partecipate: ContactLab, Cortilia, Tannico, Musement e MusixMatch. Le società partecipate da P101 occupano oggi complessivamente oltre 500 risorse e generano un fatturato in costante crescita e già oggi superiore agli 80M annui. P101 prende il nome dal primo personal computer prodotto da Olivetti, negli anni ’60, esempio di innovazione italiana che ha lasciato il segno nella storia della tecnologia digitale.

 

 

2017_03_15_P101_NFTP_Insiders-Opinion_Advanced-Analytics.pdf

Elezioni Sindaco – App per vedere chi è il candidato più social

Un’app realizzata da Qlik ha analizzato i candidati a primo cittadino di 5 città italiane per scoprire chi, alla vigilia delle elezioni amministrative, è più attivo e più apprezzato sui canali social

In occasione delle elezioni amministrative del prossimo 5 giugno che chiameranno alle urne i cittadini di 1.363 comuni italiani, Qlik® (NASDAQ: QLIK), leader nella Visual Analytics, ha creato un’applicazione gratuita e interattiva per scoprire chi è il candidato sindaco più Social del Bel Paese.

Qual è il candidato di cui si parla di più? Qual è la lista elettorale più seguita? Chi Twitta di più? Quali sono gli hashtag più utilizzati in ambito elettorale? Chi ha ricevuto più commenti su Facebook?

L’applicazione di Qlik combina una gamma di dati relativi ad alcuni dei candidati a primo cittadino di cinque città italiane: Milano, Roma, Torino, Napoli e Bologna, consentendo di analizzare la loro presenza sui due principali canali social, Twitter e Facebook.

L’app di Qlik fornisce un’analisi temporale a partire dal 14 maggio, aggiornata su base quotidiana, per capire l’utilizzo dei social e l’andamento del sentiment (informazioni soggettive) con l’avvicinarsi delle elezioni. Tra i cinque capoluoghi di provincia analizzati, Roma sembra essere la città più social, con 6.701 Tweet postati riguardanti i candidati, che stacca di gran lunga Milano, con soli 1.958 Tweet. Basta poi un semplice colpo d’occhio per capire l’andamento del sentiment nelle varie città: Bologna, la meno Social, è anche la città con la media del sentiment più positiva (0,57%), mentre Roma, insieme a Napoli (-0,12%) registra la media più negativa (- 0,13%).

Analizzando il solo capoluogo meneghino, il candidato che vanta la più capillare presenza sui Social nelle ultime settimane è Stefano Parisi, con quasi 700 Tweet, un sentiment mediamente positivo di 0,16%, mentre emergono i sentiment mediamente più negativi di Marco Cappato e Gianluca Corrado. #M5s, #iocorropermilano e #parisi sono gli hashtag più ricorrenti. Per quanto riguarda la Capitale invece, con 1.600 Tweet si aggiudica il primo posto Alfio Marchini, seguito da Virginia Raggi (circa 1.500). Giorgia Meloni si aggiudica il sentiment mediamente più negativo di tutti i candidati presi in considerazione (- 1.08%). Tra gli hashtag più diffusi ci sono #Roma, #Comuni5stelle, #Meloni e #MarchiniSindaco.

L’ultima parte dell’app è dedicata a Facebook: qui è possibile analizzare le pagine fan dei candidati, il livello di attività e il sentiment, anche in base a una selezione di argomenti oggetto di campagne elettorali. In totale, i candidati sindaci hanno ottenuto 926.000 commenti sulle loro pagine fan e oltre 8.000.000 di like. Con la semplice selezione del candidato prescelto, è possibile poi ottenere tutti i dati riferiti a quest’ultimo e molto altro.

Le intuizioni e le connessioni che possono emergere analizzando l’app di Qlik sono davvero infinite. L’app sarà disponibile gratuitamente a partire dalla mattina del 2 giugno al seguente link: bit.ly/QlikElezioni16

Questa applicazione, realizzata con Qlik Sense®, mette in relazione dati estratti da Twitter e Facebook relativi alle elezioni amministrative del prossimo 5 giugno, attraverso il motore di Sentiment Analysis Repustate e l’indice di gradimento Klout. Si tratta esclusivamente di un’analisi automatica dei dati e non di previsioni o suggerimenti di voto. I dati relativi a Twitter e Facebook sono stati estratti mediante meccanismi Qlik e QVSource che interrogano le interfacce di comunicazione dei Social Network.

Exit mobile version

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fonire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o clicchi su "Accetta" permetti al loro utilizzo.

Chiudi