La bagarre continua ecco la risposta di OpenAI.
OpenAI ha risposto a una causa intentata da Elon Musk, uno dei suoi co-fondatori, dichiarando l’intenzione di respingere tutte le sue affermazioni. In un dettagliato post sul blog, OpenAI delinea la propria prospettiva sulla relazione con Musk e sull’evoluzione della missione aziendale. Il post rivela che Musk aveva proposto di fondere OpenAI con Tesla e aveva cercato il pieno controllo, compresa la maggioranza delle azioni, il controllo iniziale del consiglio di amministrazione e la posizione di CEO. OpenAI ha rifiutato queste condizioni, ritenendo che sarebbe stato contrario alla loro missione concedere a un individuo il controllo assoluto sull’azienda.
Il post del blog affronta anche le accuse di Musk secondo cui OpenAI si è allontanata dalla sua missione originale no-profit ed è diventata una controllata closed-source di Microsoft focalizzata sul profitto. OpenAI respinge ciò sottolineando il proprio impegno nella costruzione di un’intelligenza artificiale generale (AGI) sicura e benefica e nell’assicurare che i benefici siano ampiamente distribuiti. Inoltre, chiariscono che sebbene la missione dell’azienda non implichi l’open-source dell’AGI, stanno rendendo la loro tecnologia ampiamente disponibile, anche attraverso contributi open-source.
OpenAI sottolinea i propri successi, come l’assistenza all’Albania per accelerare l’adesione all’UE e il supporto agli agricoltori in Kenya e India tramite Digital Green. Menzionano anche l’utilizzo dei loro strumenti nel settore sanitario e nella conservazione linguistica, mostrando le applicazioni pratiche della loro tecnologia AI.
Il post del blog include un resoconto storico degli impegni finanziari e dei cambiamenti di opinione di Musk sulla probabilità di successo dell’azienda, passando dal suggerire un impegno finanziario di 1 miliardo di dollari a lasciare in seguito OpenAI e avviare un concorrente all’interno di Tesla. OpenAI esprime rammarico per il conflitto legale con Musk, che un tempo ammiravano profondamente[1][3][4].
Citations:
[1] OpenAI answers Elon Musk’s lawsuit: ‘intention to dismiss’ | VentureBeat https://venturebeat.com/ai/openai-intends-to-move-to-dismiss-all-claims-of-elon-musks-lawsuit/
[2] OpenAI Responds to Musk Lawsuit: ‘Sad It’s Come to This’ – Bloomberg https://www.bloomberg.com/news/articles/2024-03-06/openai-responds-to-musk-lawsuit-sad-it-s-come-to-this
[3] OpenAI Responds to Musk Lawsuit: ‘Sad It’s Come to This’ (1) https://news.bloomberglaw.com/artificial-intelligence/openai-responds-to-musk-lawsuit-sad-its-come-to-this
[4] OpenAI seeks to dismiss all of Elon Musk’s claims in lawsuit https://economictimes.com/tech/technology/openai-seeks-to-dismiss-all-of-elon-musks-claims-in-lawsuit/articleshow/108251628.cms
[5] OpenAI seeks to dismiss all of Musk’s claims in lawsuit | Reuters https://www.reuters.com/technology/openai-seeks-dismiss-all-musks-claims-lawsuit-2024-03-06/
Adobe lancia un tool per generare musica con la AI
Adobe ha introdotto uno strumento AI rivoluzionario chiamato Project Music GenAI Control, progettato per rivoluzionare il modo in cui la musica viene creata e modificata.
Questo strumento generativo AI prototipo, annunciato durante il Hot Pod Summit a Brooklyn, consente agli utenti di generare musica da descrizioni testuali o melodie di riferimento e offre ampie capacità di modifica all’interno dello stesso flusso di lavoro. Gli utenti possono inserire prompt di testo che descrivono lo stile musicale desiderato, come “happy dance” o “sad jazz”, e lo strumento genera musica di conseguenza. Inoltre, consente la personalizzazione della musica generata, inclusi aggiustamenti al tempo, intensità, schemi ripetitivi e struttura. Gli utenti possono anche remixare sezioni di musica o creare loop ripetitivi, rendendolo adatto a varie esigenze di creazione di contenuti, come basi musicali o musica di sottofondo per podcast e animazioni[1][2].
Sviluppato in collaborazione con ricercatori dell’Università della California e della Carnegie Mellon University, Project Music GenAI Control si distingue dagli strumenti di musica generativa esistenti offrendo un’esperienza di modifica più integrata e user-friendly. A differenza di altri strumenti che richiedono agli utenti di generare audio da zero ripetutamente fino a ottenere il risultato desiderato o di utilizzare software di modifica audio separati per le modifiche, lo strumento di Adobe fornisce un “controllo a livello di pixel” per la musica, consentendo aggiustamenti diretti e dettagliati all’audio generato[1][2].
Adobe sottolinea il suo impegno verso considerazioni etiche e legali formando i suoi strumenti AI generativi su dati concessi in licenza o di dominio pubblico per evitare potenziali problemi di proprietà intellettuale. L’azienda sta anche esplorando la tecnologia di watermarking per aiutare a identificare l’audio prodotto da Project Music GenAI Control, sebbene i dettagli sull’implementazione e l’efficacia di questa tecnologia siano ancora in corso[2].
Sebbene lo strumento sia attualmente in fase di ricerca e manchi di un’interfaccia utente, l’iniziativa di Adobe rappresenta un passo significativo in avanti nella creazione e modifica di musica alimentata da AI. Apre nuove possibilità per individui senza esperienza audio professionale di dare vita alle loro idee musicali e contribuisce alla discussione in corso sulle implicazioni etiche e legali dei contenuti generati da AI[2].
Project Music GenAI Control fa parte degli sforzi più ampi di Adobe per sfruttare l’AI nel migliorare gli strumenti di creazione audio e video. Altri progetti, come Project Sound Lift, dimostrano l’impegno di Adobe nell’utilizzare l’AI per risolvere sfide audio comuni, come separare la voce dal rumore di fondo e migliorare le registrazioni vocali. Insieme, questi sviluppi evidenziano il ruolo di Adobe nell’avanzamento della tecnologia AI nelle industrie creative, offrendo strumenti che semplificano e migliorano il processo creativo per professionisti e appassionati.
Citations:
[1] Adobe’s new prototype generative AI tool is the “Photoshop” of music-making and editing https://www.theverge.com/2024/2/28/24085551/adobe-project-music-genai-control-prototype-tool-hot-pod
[2] Adobe reveals a GenAI tool for music | TechCrunch https://techcrunch.com/2024/02/28/adobe-reveals-a-genai-tool-for-music/
[3] Adobe Podcast https://podcast.adobe.com
IA generativa, sfide e opportunità per i responsabili aziendali
Articolo di
Benjamin Jolivet, Country Manager di Nutanix Italia
È evidente che l’IA generativa porterà un miglioramento sostanziale delle tecnologie utilizzate nelle aziende. Per i top manager aziendali (CxO) in ambito tecnologico ciò rappresenta sia una sfida che un’opportunità. Per trarre vantaggio dall’Intelligenza Artificiale (IA), le aziende hanno bisogno di un’infrastruttura tecnologica adeguata allo scopo, di una nuova cultura, di una governance – soprattutto per quanto riguarda i dati – e di un nuovo approccio alla tecnologia.
Il grande interesse per l’IA ha portato i leader tecnologici ad essere ancora una volta sotto i riflettori. I CxO in ambito tecnologico hanno il compito di favorire l’adozione dell’IA in tutta l’azienda; uno studio di Vanson Bourne condotto per Nutanix, rileva che il 90% delle aziende ha fatto dell’IA una priorità e gli analisti di Gartner hanno recentemente dichiarato, in occasione del loro evento Symposium, che il 51% dei CEO si aspetta che il CIO guidi la propria strategia di IA. I CxO in ambito tecnologico hanno la responsabilità di garantire il successo dell’IA.
Per conseguire tale successo i CxO devono valutare e implementare l’IA laddove farà la differenza nelle attività tipiche dell’azienda, ma anche in quei casi in cui l’IA potrebbe trasformare completamente l’azienda. L’IA, pertanto, avrà un duplice effetto: accelererà l’automazione delle attività quotidiane, riducendo la quantità di compiti manuali e ripetitivi – e tipicamente non a valore aggiunto – svolti da membri qualificati del team. Ma l’IA è più di uno strumento di automazione, come si è già visto, grazie alla sua capacità di diagnosticare malattie da grandi insiemi di dati, di prevedere onde anomale che possono affondare le navi o di comunicare a livello umano; l’IA creerà nuovi modelli di business.
Su cosa dovranno concentrarsi dunque i CxO?
1 – L’IA ha bisogno di un’infrastruttura
Solo le aziende che dispongono di un’infrastruttura tecnologica adeguata beneficeranno di tali opportunità. Sempre secondo lo studio Nutanix, molte aziende non hanno ancora definito quale sia l’ambiente tecnologico più adatto a gestire le diverse parti di un processo e di un carico di lavoro di IA. Parte di questa sfida è rappresentata dal fatto che devono ancora decidere quali applicazioni di IA siano più adatte al loro business e al loro settore. Ciò è comprensibile, poiché il ritmo di sviluppo è rapido e il GPT5 è già all’orizzonte.
Come è avvenuto per il mobile e il cloud computing, l’IA innescherà un processo di rinnovamento delle infrastrutture tecnologiche. Per ottenere valore dall’IA, le aziende avranno bisogno di un ambiente di dati interconnesso. Non sorprende quindi che più della metà dei CxO dichiari di dover migliorare le capacità di trasferimento dei dati tra ambienti multi-cloud, data center ed edge computing. Lo stesso studio rileva che la maggior parte dei CxO non è in grado di definire il piano di modernizzazione dell’infrastruttura necessario per supportare i carichi di lavoro dell’intelligenza artificiale.
Attualmente, oltre la metà (63%) delle aziende sta implementando l’IA su macchine virtuali mentre il 62% in un ambiente di container. Gli investimenti e il rinnovamento dell’infrastruttura tecnologica diventeranno un progetto continuativo e a lungo termine per i leader tecnologici, al fine di soddisfare le aspettative degli utilizzatori dell’IA. Lo studio Nutanix ha rilevato che l’85% delle aziende prevede di intensificare il processo di ammodernamento dell’infrastruttura nei prossimi uno-tre anni per supportare le iniziative di IA. L’84% prevede di ampliare l’organico dei team di data engineering e data science.
Questo percorso verso aziende ottimizzate per l’IA non esclude che i CxO in ambito tecnologico debbano essere attenti al budget. Il 90% dei CxO si aspetta un aumento dei costi IT e, in particolare, del cloud come conseguenza diretta dell’implementazione dell’IA.
2 – Governance
Chiamati a cogliere le opportunità dell’IA, i CxO responsabili della tecnologia sono altresì preoccupati per le implicazioni che ciò potrebbe comportare. La maggior parte (90%) è preoccupata per la sicurezza, la governance e la qualità dei dati.
Se le aziende non hanno ancora un’adeguata governance dei dati, rischiano di perdere le opportunità offerte dall’intelligenza artificiale. Il Digital Leadership Report di Nash Squared, rivela che solo un digital leader su quattro è davvero efficace nell’utilizzare le informazioni provenienti dall’analisi dei dati e sottolinea che molte azidnde hanno ancora problemi a definire una strategia di base per i dati.
I CxO in ambito tecnologico affermano che nei prossimi due anni le sfide di governance della modellazione e della sicurezza dei dati saranno tra le loro priorità. Oltre la metà (51%) afferma che la protezione dei dati e il disaster recovery entreranno a far parte dei loro piani di governance dell’AI. Questo dato è in linea con i risultati del Digital Leadership Report, secondo cui il 36% dei CxO è preoccupato che la privacy dei dati venga compromessa dalle implementazioni di IA generativa. Un quarto dei CxO è anche preoccupato per le possibili interpretazioni errate dei dati, che potrebbero avere un impatto sui clienti e, quindi, sul valore del brand dell’azienda.
Alla luce di queste sfide, non sorprende che i CxO in ambito tecnologico optino per Large Language Models (LLM) precostituiti. Questi modelli, forniti da provider affidabili, tra cui AWS, consentiranno ai CxO di velocizzare l’immissione sul mercato delle soluzioni di IA e forniranno soluzioni per incrementare l’utilizzo delle risorse esistenti.
3- Cambio culturale
"La tecnologia è la parte più facile" è una frase tipica dei CxO, ma la vera sfida per i leader tecnologici e per le loro aziende è il cambiamento culturale: lo stesso varrà per l’IA generativa. Le capacità conversazionali dell’IA generativa la rendono uno strumento semplice da utilizzare ma al tempo stesso un rischio per la sicurezza. I dipendenti possono caricare con facilità proprietà intellettuale o dati dei clienti, esponendo immediatamente l’azienda a rischi normativi e di mercato.
Questa stessa capacità conversazionale inaugurerà un nuovo tipo di rapporto tra le aziende e la tecnologia. Al Simposio, gli analisti di Gartner hanno raccomandato ai CXO di considerare l’IA non come una tecnologia da implementare in senso tradizionale, bensì come un collaboratore che, proprio come qualsiasi altro collega, deve essere istruito sulla cultura del team e dell’azienda.
L’IA rappresenterà un cambiamento importante nell’IT aziendale. Pertanto, segnerà anche un cambiamento nella leadership tecnologica. Per avere successo con l’IA, le aziende dovranno disporre della giusta infrastruttura, governance e cultura. Questi tre aspetti richiedono la consapevolezza che l’IA è una questione in carico all’azienda e non esclusivamente all’IT.
###
Nutanix
Nutanix è leader globale nel software cloud e offre alle aziende un’unica piattaforma per l’esecuzione di applicazioni e dati su diversi cloud. Grazie a Nutanix, le aziende sono in grado di ridurre la complessità e di semplificare le operations, potendosi così focalizzare sul raggiungimento dei risultati di business. Pioniere nelle infrastrutture convergenti, Nutanix è apprezzata da aziende di tutto il mondo per la gestione, coerente e vantaggiosa in termini di costi, di ambienti multicloud ibridi. Ulteriori informazioni sono disponibili all’indirizzo www.nutanix.it. Seguici su Twitter @Nutanix e @nutanixitaly. Clicca qui e seguici
AI , attenzione al data poisoning
Il data poisoning è un tipo di attacco informatico che prende di mira i modelli di apprendimento automatico (machine learning) manipolando i loro dati di addestramento. L’obiettivo di questi attacchi è manipolare il comportamento del modello introducendo, modificando o eliminando punti dati nel set di addestramento. Questo può portare il modello a prendere decisioni o previsioni errate una volta implementato.
Ci sono due tipi principali di attacchi di data poisoning:
1. **Attacchi mirati (Targeted Attacks)**: Questi hanno lo scopo di influenzare il comportamento del modello per input specifici, come ad esempio far sì che un sistema di riconoscimento facciale non riconosca un determinato individuo, senza degradare significativamente le sue prestazioni complessive[1].
2. **Attacchi non mirati (Nontargeted Attacks)**: Questi cercano di ridurre l’accuratezza, la precisione o il richiamo (recall) generale del modello aggiungendo rumore o punti dati irrilevanti, degradando così le sue prestazioni su vari input[1].
Il successo di un attacco di data poisoning dipende dalla capacità dei dati avvelenati di evitare il rilevamento durante la pulizia dei dati o il pre-processing, e dall’efficacia dell’attacco nel degradare le prestazioni del modello[1].
Il data poisoning può avere gravi implicazioni, specialmente poiché sempre più aziende si affidano a sistemi di intelligenza artificiale e apprendimento automatico. Può essere utilizzato per vari scopi malevoli, inclusi la disinformazione, le truffe phishing, l’alterazione dell’opinione pubblica o il discredito di individui o marchi.
Per proteggersi dal data poisoning, le organizzazioni possono impiegare robusti filtri dei dati, addestramento avversario, convalida degli input, monitoraggio e trasparenza del modello per identificare e mitigare l’impatto dei dati avvelenati.
Citations:
[1] Data Poisoning: The Essential Guide | Nightfall AI Security 101 https://www.nightfall.ai/ai-security-101/data-poisoning
[2] What is Data Poisoning & Why Should You Be Concerned? https://internationalsecurityjournal.com/data-poisoning/
[3] Papers with Code – Data Poisoning https://paperswithcode.com/task/data-poisoning
Quali sono alcuni esempi di attacchi basati sul data poisoning?
Esempi di attacchi di Data Poisoning includono:
1. **Sistemi di rilevazione di anomalie di rete**: Gli aggressori possono introdurre dati che riducono l’accuratezza dei modelli utilizzati per identificare attività di rete sospette, rendendo più difficile per il sistema riconoscere le vere minacce[1].
2. **Filtri antispam**: Gli attacchi di Data Poisoning possono essere diretti contro i filtri antispam, ad esempio, manipolando i dati in modo che il sistema non riconosca tentativi di accesso non autorizzati o violazioni della privacy[4].
3. **Sistemi di guida autonoma**: Un attacco di Data Poisoning potrebbe essere condotto su di un segnale stradale di “stop” semplicemente appiccicandoci sopra un adesivo, inducendo il sistema di AI dell’automobile ad interpretare erroneamente il segnale[7].
4. **Sistemi di underwriting assicurativo basati su AI**: Gli attacchi potrebbero portare a valutazioni di rischio errate, influenzando le decisioni su prezzi e coperture[2].
Per proteggere i modelli di AI dal Data Poisoning, è fondamentale adottare tecniche di difesa e strumenti di minimizzazione del rischio, come una buona tutela delle backdoor di accesso ai sistemi e lo sviluppo di AI più resilienti all’inquinamento dei dati[5].
Citations:
[1] Data poisoning, un pericolo per tutte le intelligenze artificiali – Cyber Security 360 https://www.cybersecurity360.it/outlook/data-poisoning-pericolo-ai/
[2] Che cos’è il data poisoning https://www.repubblica.it/tecnologia/2020/10/29/news/che-cos-e-il-data-poisoning-299481018/
[3] Avvelenare i modelli di AI: il Data Poisoning https://www.dirittoegiustizia.it
[4] Intelligenza artificiale e data poisoning: come “avvelenare” i dati https://www.diritto.it/intelligenza-artificiale-data-poisoning-avvelenare/
[5] Cos’è il Data Poisoning e come si può combattere? – WitIt https://www.witit.it/cose-il-data-poisoning-e-come-si-puo-combattere/
[6] Luca Andreola – Avvelenare i modelli di AI: il Data Poisoning – LinkedIn https://it.linkedin.com/posts/lucaandreola_avvelenare-i-modelli-di-ai-il-data-poisoning-activity-7163125709471789058-VDJ6
[7] Cos’è il Data Poisoning e perché merita immediata attenzione? https://www.ainewnormal.com/cultura/%5B8%5D-po.html
[8] toxicity data – Traduzione in italiano – Dizionario Linguee https://www.linguee.it/inglese-italiano/traduzione/toxicity+data.html
Perplexity.ai: la ricerca online guidata dall”intelligenza artificiale
Grazie ad un caro amico esperto di tecnologia, si direbbe un nerd, eh sì lo possiamo definire così, ho scoperto questo fantastico motore di ricerca guidato dall’intelligenza artificiale che si chiama perplexity.ai
Oltre alla segnalazione del mio amico Antonio l’interesse è cresciuto perché ho visto chi c’era dietro l’investimento di perplexity.ai
Chi ha investito in perplexity.ai?
Perplexity.ai, una startup innovativa nel campo dell’intelligenza artificiale, ha recentemente raccolto 73,6 milioni di dollari in un round di finanziamento, portando la sua valutazione a 520 milioni di dollari. Tra gli investitori che hanno scommesso su Perplexity.ai ci sono figure di spicco come il fondatore di Amazon, Jeff Bezos, il CEO di Shopify, Tobias Lütke, e la società NVIDIA. Questo round di finanziamento è stato guidato da IVP, con la partecipazione di NEA, Databricks Ventures, l’ex vicepresidente di Twitter Elad Gil, l’ex CEO di GitHub Nat Friedman, Guillermo Rauch, fondatore di Vercel, e altri.
L’obiettivo principale di Perplexity.ai è potenziare la tecnologia alla base del suo motore di ricerca per sfidare i giganti del web come Google e Bing, offrendo agli utenti risposte dirette basate sull’intelligenza artificiale generativa, piuttosto che semplici collegamenti a siti web. La startup, fondata nel 2022 da Aravind Srinivas, Denis Yarats, Johnny Ho e Andy Konwinski, ha sede in un coworking a San Francisco e conta meno di quaranta dipendenti.
Perplexity.ai si distingue per la sua capacità di fornire risposte immediate alle domande degli utenti, sfruttando una varietà di modelli linguistici di grandi dimensioni (LLM) che possono riassumere e generare informazioni. L’azienda ha dichiarato di aver servito più di 500 milioni di query nel 2023, spendendo pochi dollari in marketing, e prevede di utilizzare il finanziamento per assumere nuovi talenti e sviluppare ulteriormente i suoi prodotti.
Nonostante la sua rapida crescita e l’ambizioso obiettivo di rivoluzionare il mercato della ricerca online, Perplexity.ai si trova di fronte alla sfida di competere con Google, che detiene circa il 90% della quota di mercato. Tuttavia, con il sostegno di investitori di alto profilo e una tecnologia innovativa, Perplexity.ai si posiziona come un potenziale rivale nel panorama della ricerca online, puntando a diventare un punto di riferimento per l’accesso alle informazioni online basato sull’intelligenza artificiale.
Quali sono le applicazioni di perplexity.ai?
Perplexity.ai è un’innovativa piattaforma di ricerca che utilizza l’intelligenza artificiale per fornire risposte precise e dettagliate alle domande degli utenti. Le sue applicazioni principali includono:
1. **Ricerca e Risposta**: Perplexity.ai funziona come un motore di ricerca intelligente che, invece di restituire un elenco di link, fornisce direttamente risposte testuali basate sull’intelligenza artificiale. Questo approccio mira a offrire agli utenti informazioni più dirette e pertinenti senza dover navigare attraverso vari siti web.
2. **Apprendimento e Educazione**: Grazie alla sua capacità di fornire risposte dettagliate e ben argomentate, Perplexity.ai si presta come strumento educativo per studenti e ricercatori che cercano informazioni affidabili e approfondimenti su vari argomenti.
3. **Analisi del Linguaggio Naturale (NLP)**: Utilizzando tecnologie avanzate di NLP, Perplexity.ai è in grado di comprendere e processare le domande degli utenti in linguaggio naturale, rendendo l’interazione con la piattaforma intuitiva e accessibile a tutti.
4. **Supporto alla Ricerca**: Perplexity.ai può essere utilizzato per effettuare ricerche approfondite su internet, aggregando e sintetizzando informazioni da diverse fonti. Questo lo rende uno strumento utile per professionisti e ricercatori che necessitano di raccogliere dati e informazioni affidabili in modo efficiente.
5. **Assistenza nella Creazione di Contenuti**: Perplexity.ai può assistere gli utenti nella generazione di contenuti, fornendo spunti, riassunti e informazioni che possono essere utilizzati come base per articoli, report e altri materiali.
6. **Interazione Conversazionale**: Grazie alla sua interfaccia in stile chatbot, Perplexity.ai permette agli utenti di interagire in modo conversazionale, ponendo domande e ricevendo risposte in tempo reale. Questo rende la ricerca di informazioni un’esperienza più dinamica e interattiva.
In sintesi, Perplexity.ai si distingue nel panorama dell’intelligenza artificiale per la sua capacità di fornire risposte precise e approfondite a una vasta gamma di domande, rivoluzionando il modo in cui accediamo e interagiamo con le informazioni online.
Quali sono le fonti di informazione utilizzate da perplexity.ai per fornire risposte?
Perplexity.ai utilizza un modello linguistico di grandi dimensioni (LLM) che gli permette di accedere a una vasta gamma di fonti di informazione per fornire risposte accurate e dettagliate. Tra le fonti utilizzate da Perplexity.ai ci sono:
– Riviste accademiche
– Rapporti di settore
– Forum online
– Documenti accademici
– Video di YouTube
– Post di Reddit
Queste fonti consentono a Perplexity.ai di aggregare informazioni pertinenti e dettagliate da una serie di fonti affidabili, offrendo agli utenti una prospettiva completa su qualsiasi argomento. Inoltre, Perplexity.ai è stato addestrato a dare rilievo alle citazioni, permettendo agli utenti di valutare l’accuratezza e l’affidabilità delle informazioni fornite. Gli utenti possono anche modificare le informazioni fornite dall’IA e rimuovere qualsiasi informazione errata o che si basa su opinioni anziché su fatti.
Perplexity.ai è progettato per fornire risposte più complete e accurate rispetto ai motori di ricerca tradizionali, basandosi su fonti affidabili e aggiornate. Questo lo rende uno strumento utile per chi cerca informazioni aggiornate e affidabili su una vasta gamma di argomenti.
Come posso utilizzare perplexity.ai per la mia attività professionale?
Per utilizzare Perplexity.ai nel settore della tecnologia e del giornalismo, puoi sfruttare le sue capacità avanzate di ricerca e analisi basate sull’intelligenza artificiale per migliorare vari aspetti del tuo lavoro professionale. Ecco alcune applicazioni specifiche:
1. **Ricerca Approfondita**: Utilizza Perplexity.ai per condurre ricerche approfondite su argomenti tecnologici e giornalistici. Grazie alla sua capacità di fornire risposte dettagliate e dirette, puoi ottenere informazioni precise e approfondimenti su temi specifici senza dover navigare attraverso numerosi siti web.
2. **Analisi del Linguaggio Naturale (NLP)**: Sfrutta le tecnologie avanzate di NLP di Perplexity.ai per analizzare e comprendere meglio i testi, i documenti e le notizie. Questo può aiutarti a identificare tendenze, pattern e insight rilevanti nel settore tecnologico e giornalistico.
3. **Generazione di Contenuti**: Perplexity.ai può assisterti nella creazione di contenuti, fornendo spunti, riassunti e informazioni che possono essere utilizzati come base per articoli, report e altri materiali. Questo può migliorare significativamente l’efficienza e la qualità del tuo lavoro di scrittura.
4. **Supporto alla Ricerca**: Utilizza Perplexity.ai per effettuare ricerche approfondite su internet, aggregando e sintetizzando informazioni da diverse fonti. Questo strumento può essere particolarmente utile per professionisti e ricercatori che necessitano di raccogliere dati e informazioni affidabili in modo efficiente.
5. **Interazione Conversazionale**: Grazie alla sua interfaccia in stile chatbot, Perplexity.ai permette di interagire in modo conversazionale, ponendo domande e ricevendo risposte in tempo reale. Questo rende la ricerca di informazioni un’esperienza più dinamica e interattiva, facilitando l’accesso a dati e notizie rilevanti.
In conclusione, Perplexity.ai offre una serie di strumenti e funzionalità che possono essere estremamente utili nel settore della tecnologia e del giornalismo. Che tu stia conducendo ricerche approfondite, generando contenuti, o analizzando dati, questa piattaforma di intelligenza artificiale può aiutarti a migliorare l’efficienza e la qualità del tuo lavoro.
A proposito questo articolo è stato completamente scritto con l’intelligenza artificiale!
Sora, la rivoluzione AI arriva nel settore video
OpenAI ha presentato Sora, un nuovo modello di intelligenza artificiale generativa in grado di creare video a partire da istruzioni testuali. Sora è un modello di diffusione che utilizza un’architettura transformer, simile ai modelli GPT, per generare scene realistiche e immaginative, inclusi scenari complessi con più personaggi e tipi specifici di movimento[1][2][3]. Il modello può anche animare immagini statiche, estendere video esistenti e riempire fotogrammi mancanti, producendo video fino a un minuto di lunghezza in vari stili come fotorealistico, animato o in bianco e nero[1][2].
Nonostante le sue capacità, Sora ha delle limitazioni, come difficoltà nella simulazione di fisica complessa, nella comprensione di causa ed effetto e nel mantenere accuratamente i dettagli spaziali. Ad esempio, potrebbe non mostrare un segno di morso su un biscotto dopo che qualcuno ha dato un morso, o potrebbe confondere la sinistra con la destra in una scena[1][2].
OpenAI sta prendendo precauzioni di sicurezza prima di rendere Sora ampiamente disponibile. Stanno lavorando con red teamers per testare il modello per potenziali danni, come disinformazione, contenuti d’odio e pregiudizi. Stanno anche sviluppando strumenti per rilevare contenuti fuorvianti e prevedono di includere metadati C2PA in futuro per garantire la provenienza dei video generati da Sora[1][2].
Attualmente Sora è disponibile per i red teamers e un gruppo selezionato di artisti visivi, designer e cineasti per ricevere feedback. OpenAI sta interagendo con politici, educatori e artisti per comprendere le preoccupazioni e identificare casi d’uso positivi per la tecnologia. Sottolineano che imparare dall’uso nel mondo reale è fondamentale per creare e rilasciare sistemi di intelligenza artificiale sempre più sicuri[1][2][3].
L’introduzione di Sora segue il modello di sviluppo rapido di OpenAI negli strumenti di intelligenza artificiale generativa, inclusi ChatGPT, DALL-E 3 e ora Sora, che rappresenta un significativo avanzamento nella capacità dell’IA di generare contenuti video[3].
Citations:
[1] Sora: Creating video from text https://openai.com/sora
[2] OpenAI’s newest model Sora can generate videos — and they look decent | TechCrunch https://techcrunch.com/2024/02/15/openais-newest-model-can-generate-videos-and-they-look-decent/
[3] OpenAI announces Sora, a wild AI text-to-video model. See it in action. https://mashable.com/article/openai-sora-ai-text-to-video-model-announcement
Ecco un esempio di video generato da Sora utilizzando il seguente Prompt: A stylish woman walks down a Tokyo street filled with warm glowing neon and animated city signage. She wears a black leather jacket, a long red dress, and black boots, and carries a black purse. She wears sunglasses and red lipstick. She walks confidently and casually. The street is damp and reflective, creating a mirror effect of the colorful lights. Many pedestrians walk about.more
MANIFESTO PER LA SOSTENIBILITA’ DELL’INTELLIGENZA ARTIFICIALE
Fondazione per la Sostenibilità Digitale presenta il “Manifesto per la Sostenibilità Digitale dell’Intelligenza Artificiale (AI)”
La Fondazione per la Sostenibilità Digitale – la prima Fondazione di ricerca riconosciuta in Italia dedicata ad approfondire i temi della sostenibilità digitale – è lieta di annunciare il lancio del “Manifesto per la Sostenibilità Digitale dell’Intelligenza Artificiale (AI)”, il Position Paper sull’Intelligenza Artificiale (AI) e la Sostenibilità. Questo documento vuole essere una guida per approcciare l’AI in modo consapevole, responsabile e sostenibile.
Ciò che è accaduto a Tom Hanks mette in luce una condizione che potrebbe diventare sempre più comune e che non riguarderà solamente persone VIP, politici e personaggi pubblici ma anche, e sempre di più, il pubblico in generale.
L’evoluzione dei sistemi di Intelligenza Artificiale dedicati, semplici ed economici, spingerà la diffusione di tecniche di deep fake e quindi la realizzazione di video “falsi” non distinguibili da quelli originali, in cui vero e falso si sovrappongono. Per affrontarlo sono necessari tre elementi: la normativa, e grazie all’AI act le Intelligenze Artificiali devono rispettare rigorosi criteri; la cultura, attraverso programmi culturali capillari e generalizzati che creino cittadini consapevoli e informati; la tecnologia. Così come l’AI può generare deep fake, l’AI deve poter generare algoritmi che li smascherino e che diano la possibilità all’utente di comprendere la natura delle immagini che appaiono sul video.
Il Manifesto serve proprio ad analizzare sfide ed opportunità dell’AI in rapporto alla società e, nell’ultima parte del documento, identificare, per ciascun SDG (Sustainable Development Goal), quelle caratteristiche dell’AI che più di altre contribuiscono alla realizzazione dei singoli obiettivi di SDG. Partendo dall’assunto che l’AI è entrata in una fase di impatto di massa, coinvolgendo non solo utenti, ma anche istituzioni pubbliche e private, il Position Paper si pone come obiettivo quello di collocare l’AI in un contesto di sostenibilità digitale, fornendo una visione chiara dei principi e delle caratteristiche che dovrebbero guidare lo sviluppo e l’adozione di questa tecnologia. Non si tratta di limitare l’AI, ma di massimizzarne i benefici nel rispetto dei principi di sostenibilità.
“È fondamentale, per ciascuno di noi, approfondire la conoscenza di queste tecnologie per potere comprendere le loro potenzialità” ha dichiarato Marzio Bonelli, CIO di MM. “Scopriremmo quanto l’attuale Intelligenza Artificiale, anche quella generativa, non sia in grado di inventare nulla di nuovo ma sia un potente articolatore di una conoscenza esistente in grado di scoprire relazioni deboli che sfuggono alla nostra mente. Scopriremmo quanto gli algoritmi possono stravolgere nel mondo del lavoro i modelli di business, ma anche quanto essi siano condizionabili, consapevolmente o inconsapevolmente, da chi li ha generati, e quanto sia importante riconoscere tale rischio per interpretare correttamente i risultati che l’AI ci propone, approcciando a questa tecnologia in modo costruttivo e consapevole, senza pregiudizi.” – ha concluso Bonelli.
Il Position Paper si sviluppa in tre sezioni principali: la prima contiene la descrizione del dominio dell’AI e la sua definizione, la seconda fa riferimento ai criteri e ai principi che devono essere considerati per valutarla ed utilizzarla in modo consapevole, la terza riguarda gli SDG di Agenda 2030 come chiave di lettura per definire i caratteri connotanti per la realizzazione di sistemi e soluzioni AI sostenibili.
“Lo sviluppo del manifesto ha visto l’impegno attivo di un gruppo di lavoro differenziato e multidisciplinare, composto tanto dai professori delle Università del nostro network che dagli esperti delle aziende che sostengono la Fondazione.” – ha spiegato Stefano Epifani, Presidente della Fondazione per la Sostenibilità Digitale. “Nella riflessione che riguarda il futuro dell’AI la multidisciplinarietà è fondamentale: è stato entusiasmante veder ragionare assieme alcune tra le più brillanti menti che stanno sviluppando riflessioni in quest’ambito ibridando ed unendo visione giuridica (con l’apporto di esperti come Giovanni Battista Gallus e Lara Lazzaroni), con competenze tecnico-scientifiche ed approccio filosofico (con il contributo di studiosi come Tiziana Catarci e Fabio Ciracì). È, questo, il modus operandi della Fondazione, che fa della interdisciplinarità nell’approccio ai problemi collegati alla sostenibilità digitale uno dei suoi punti di forza.” – ha terminato Epifani.
Criteri di valutazione di sistemi e soluzioni di AI
Nel documento vengono presentati i principi e le caratteristiche necessarie per valutare qualsiasi prodotto realizzato a partire da una Intelligenza Artificiale.
Si parte dall’assunto che l‘AI non deve essere considerata una commodity a cui si accede in modo inconsapevole, ma piuttosto una tecnologia che richiede consapevolezza, competenza e capacità critica. L’obiettivo è utilizzare l’IA per costruire un mondo più sostenibile, affrontando i problemi reali che la società si trova a fronteggiare.
A questo scopo, la Fondazione per la Sostenibilità Digitale ha identificato alcuni criteri, elencati nel Manifesto per la Sostenibilità Digitale dell’Intelligenza Artificiale (AI), che tutte le organizzazioni (pubbliche e private) dovrebbero utilizzare nello sviluppo e adozione di sistemi di AI e che includono, tra le principali, la trasparenza, la non discriminazione nella strutturazione e applicazione dell’AI, l’equità, la sostenibilità economica, sociale e ambientale, l’interoperabilità e portabilità delle tecnologie di AI, la possibilità di revoca dell’azione, il rispetto della privacy, la sicurezza delle informazioni, la riconoscibilità di ciò che è stato creato con l’AI, la necessità di una formazione consapevole sulla conoscenza delle tecnologie digitali, fra cui l’AI, la valutazione su opportunità e rischi tra possibili danni ed elementi di vantaggio, l’attribuzione delle giuste responsabilità per chi trae vantaggi dall’AI.
I criteri indicati dal position paper sono funzionali a stabilire una scala di valutazione dei sistemi e soluzioni di AI e non possono prescindere dall’ambito di utilizzo degli stessi.
Come l’AI contribuisce a raggiungere gli Obiettivi di Sostenibilità (SDG)
Un aspetto cruciale dell’AI è la sua crescente importanza nella realizzazione degli obiettivi di sostenibilità stabiliti da Agenda 2030 delle Nazioni Unite. L’AI offre soluzioni innovative per affrontare sfide globali come il cambiamento climatico, la povertà, la salute pubblica e l’uguaglianza di genere.
Raggruppando gli SDG in 3 macrocategorie, Benessere e Sostenibilità Sociale (SDG 1, 2, 3, 4, 5, 8 e 10), Innovazione e Sostenibilità Ambientale (SSDG 6, 7, 9, 11, 12, 13, 15) e Pace, Giustizia e Istituzioni solide (SDG 16 e 17), si può osservare come l’AI, nelle sue caratteristiche specifiche può impattare il raggiungimento degli obiettivi di ogni singolo SDG:
- Gruppo Benessere e Sostenibilità sociale: questo gruppo di SDG risulta essere quello maggiormente sensibile alle caratteristiche intrinseche e di finalità di sistemi e soluzioni di AI. L’aspetto non discriminatorio dell’AI, come l’attenzione ai bias di genere nella fase di learning favorisce l’inclusione e la promozione dell’uguaglianza (SDG5), riducendo allo stesso tempo le disuguaglianze (SDG10). L’interoperabilità e la portabilità sono fondamentali per il SDG3 in quanto la possibilità di scambio dati in tempo reale tra più soluzioni di AI. La loro semplicità di adozione invece può essere determinante per la salvezza di vite umane. Il diritto di revoca dell’azione e il controllo umano sugli algoritmi possono evitare effetti indesiderati che, per rilevanza, impattano maggiormente sempre sul SDG3. L’accessibilità è una caratteristica che riduce le disuguaglianze e deve essere un punto di riferimento per tutte le tecnologie digitali che devono tendere a favorire l’inclusione. Infine, le caratteristiche di impatto ambientale fanno riferimento in modo particolare al SDG3 in quanto una AI sostenibile, che opera in modo ottimizzato, contenendo il consumo di risorse computazionali ha un impatto positivo sull’ambiente e di conseguenza sulla salute e il benessere delle persone.
- Gruppo Innovazione e Sostenibilità ambientale: questo gruppo di SDG è l’unico che risulta essere influenzabile in modo pervasivo, e questo conferma il ruolo portante dell’AI nel percorso di sviluppo e innovazione. L’AI può infatti contribuire alla riduzione dell’impatto ambientale delle attività industriali, ad esempio, ottimizzando l’efficienza energetica nei processi industriali o dando indicazioni in merito alle perdite di acqua. Attraverso il monitoraggio e l’analisi dei dati i processi gestiti attraverso l’AI possono promuovere un uso più sostenibile delle risorse (SDG6 e 7). Le caratteristiche tecniche sono fondamentali per il SDG9 (Innovazione ed Infrastrutture) poiché si tratta di requisiti impliciti. SDG11 (Città e comunità sostenibili) può essere raggiunto attraverso lo sviluppo di mobilità intelligenti, come sistemi di trasporto condiviso e ottimizzazione del traffico. Contribuendo quindi a ridurre le emissioni di gas serra e migliorare la qualità dell’aria nelle aree urbane. I dati prodotti e gestiti dalle AI possono essere utilizzati per comprendere i processi legati al cambiamento climatico e per sviluppare di conseguenza nuovi modelli di previsione del clima contribuendo a migliorare la resilienza delle comunità e ad affrontare i rischi ambientali (SDG13).
- Gruppo Pace, Giustizia e Istituzioni solide: questo gruppo di obiettivi SDG risulta influenzato da alcune delle caratteristiche dell’AI, in particolare quelle intrinseche e di finalità. Il SDG16 si propone di promuovere società pacifiche, giuste e inclusive. Una AI non discriminatoria e progettata in modo etico consente l’implementazione di sistemi e algoritmi che evitano discriminazioni basate su caratteristiche come l’etnia, il genere o la religione. L’AI può aiutare a garantire equità e giustizia nel processo decisionale, promuovendo un trattamento imparziale di tutte le persone, indipendentemente dalle loro caratteristiche personali. L’aspetto “inclusivo” dell’AI favorisce la coesione sociale e la fiducia tra i diversi gruppi della società, contribuendo ad eliminare pregiudizi o stereotipi, a ridurre le tensioni sociali e a promuovere la collaborazione e la costruzione di comunità pacifiche. Per quanto concerne invece l’SDG17 (Partenariato per gli obiettivi generali), abbiamo osservato negli ultimi anni come l’AI stia trasformando diversi settori e richieda un’adeguata preparazione per poter affrontare le sfide e cogliere le opportunità che essa presenta. La literacy consente alle persone di sviluppare competenze per utilizzare l’AI in modo efficace e responsabile, promuovendo l’innovazione e la sostenibilità.
Il Manifesto per la Sostenibilità Digitale dell’Intelligenza Artificiale può essere scaricato a questo link: https://sostenibilitadigitale.it/advocacy/manifesto-per-la-sostenibilita-digitale-dellintelligenza-artificiale/
L’elenco dei Partner e delle Università che attualmente fanno parte della Fondazione può essere consultato al seguente link
Per ulteriori informazioni o approfondimenti, visitare il sito: www.sostenibilitadigitale.it
Informazioni su Fondazione per la Sostenibilità Digitale:
La Fondazione per la Sostenibilità Digitale è la prima Fondazione di Ricerca in Italia che analizza le correlazioni tra trasformazione digitale e sostenibilità con l’obiettivo di supportare istituzioni e imprese nella costruzione di un futuro migliore. La sua mission è quella di studiare le dinamiche indotte dalla trasformazione digitale, con particolare riferimento agli impatti sulla sostenibilità ambientale, culturale, sociale ed economica. In quest’ottica la Fondazione sviluppa attività di ricerca, fornisce letture ed interpretazioni della trasformazione digitale, offre indicazioni operative per gli attori coinvolti, intercetta i trend del cambiamento e ne analizza gli impatti rispetto allo sviluppo sostenibile. La Fondazione agisce attraverso una struttura costituita da esperti indipendenti, istituzioni, imprese e università.
Ai soci e partner della Fondazione si affianca la Rete delle Università che costituisce il sistema di competenze al quale fa riferimento la Fondazione per lo sviluppo dei suoi progetti e che rappresenta un esempio virtuoso di collaborazione tra istituzioni ed aziende nello sviluppo di progetti e di attività dedicati alla sostenibilità digitale. Tra le Università che fanno parte della Rete, l’Università Sapienza di Roma, l’Università di Pavia, l’Università Ca’ Foscari di Venezia, l’Università degli Studi di Cagliari, l’Università degli Studi di Palermo, l’Università degli Studi di Firenze, l’Università degli Studi di Trieste, l’Università di Perugia, L’Università per Stranieri di Perugia, l’Università di Siena, l’Università degli Studi di Urbino Carlo Bo, l’Università degli Studi di Torino, l’Istituto di Studi Politici “S. Pio V”, l’Università degli Studi di Sassari.
Leggi il manifesto clicca sull’immagine seguente
L’intelligenza artificiale e la medicina: tre casi di successo
L’analisi di numeri, immagini e parole semplifica la vita dei medici e accelera le diagnosi, ma può velocizzare anche la ricerca scientifica, salvando vite umane. Ecco tre esempi virtuosi che nascono dalla collaborazione tra istituzioni governative, corporate e start-up
A cura di Gianluca Maruzzella, Founder & CEO di Indigo.ai
L’intelligenza artificiale sposa il mondo della salute e della medicina. Un matrimonio accelerato dall’emergenza sanitaria del Covid-19 e che lascia molti interrogativi ancora senza risposta, a cominciare dal delicato tema della privacy e della gestione dei dati sensibili dei pazienti, ma che permette di velocizzare le diagnosi e migliorare il dialogo tra dottore e paziente. Di più: può servire alle persone per assumere un determinato farmaco con maggiore consapevolezza, così come semplificare la vita dei ricercatori scientifici aiutandoli a districarsi tra migliaia di pubblicazioni.
L’intelligenza artificiale si muove in tre grandi insiemi: immagini, numeri e parole. Tre verticali che trovano la loro applicazione anche nel mondo della medicina, con obiettivi e sviluppi differenti.
Un classico esempio di applicazione dell’AI al verticale dei “numeri” in campo medico è il supporto dell’intelligenza artificiale nell’analisi quantitativa dei dati del paziente: il supporto di algoritmi predittivi permette di ridurre al minimo eventuali errori di interpretazione. Infatti, grazie ad una serie di dati e utilizzando degli algoritmi di machine learning, la macchina è in grado di aiutare il medico nell’analizzare un campione e diagnosticare la patologia. Se immaginare un’intelligenza artificiale che sappia interpretare e analizzare i numeri ci è tutto sommato semplice (dalla calcolatrice ai file excel ai primi computer, è un concetto a cui siamo abituati), come può invece una AI venire utilizzata nello studio di immagini e parole della medicina? Vediamo alcuni esempi.
Leggere le immagini: Il caso di InnerEye by Microsoft
Se i risultati degli esami e delle analisi sono i numeri che permettono al medico di capire come sta il paziente, le immagini sono le lastre e le risonanze magnetiche (così come le tac, ecc) – che aiutano il dottore a confermare le sue ipotesi in una sorta di combinato disposto. Ed è proprio partendo dall’analisi delle immagini che Microsoft ha creato InnerEye, un sistema che utilizza una libreria sterminata di foto scannerizzate che può capire se il paziente abbia un tumore. L’intelligenza si basa su un algoritmo che impara dalle lastre visionate dai dottori, immagazzina tutte le informazioni e arriva una diagnosi celere con un abbattimento dei costi per l’identificazione dell’eventuale malattia, ma soprattutto facendo risparmiare tempo prezioso al paziente.
Comprendere le parole: in UK è il robot a fare l’anamnesi in real-time
Applicare l’intelligenza artificiale alle parole in medicina è sicuramente più complesso, ma può aiutare il dottore, ad esempio, nel dialogo con il paziente. Come nel caso di Babylon Help, sicuramente un bell’esempio di partnership tra pubblico – il sistema sanitario del governo inglese – e privato, ovvero l’ex start-up britannica. In questo caso è il sistema di intelligenza artificiale a compilare l’anamnesi del paziente in tempo reale, ascoltando la conversazione a distanza tra medico e paziente. Grazie all’utilizzo della videocamera, Babylon Help è in grado di analizzare le espressioni del paziente per capire se sia preoccupato o meno o – per esempio – per essere certi che abbia compreso una domanda particolare. Il sistema, soprattutto, acquisisce e scrive tutte le informazioni necessarie al dottore per una prima diagnosi. In questo modo si abbattono i costi del sistema sanitario, ma si evitano anche lunghi tempi d’attesa negli ambulatori e si garantisce un servizio senza interruzioni. Ovviamente, cambiano anche le competenze stesse dei dottori, che sono chiamati anche ad acquisire conoscenze informatiche – però a vantaggio di uno snellimento notevole delle “carte” da compilare.
Il supporto alla ricerca: l’AI che aiuta gli scienziati contro il Covid-19
L’AI non corre in supporto solo dei medici o dei pazienti: in questo periodo di pandemia chi si occupa di intelligenza artificiale ha cercato di mettere le sue competenze a sostegno della lotta al Coronavirus. Ci abbiamo provato anche noi, insieme al Centro Medico Santagostino, sviluppando Record, un motore di ricerca a disposizione degli scienziati per aiutarli a districarsi tra le migliaia di articoli specialistici che quotidianamente vengono pubblicati sul tema. Infatti, il Covid-19 è un virus nuovo, il mondo intero lo sta studiando e ogni giorno si fanno grandi e piccole scoperte che avvicinano sempre più alla creazione di un vaccino. Per questo gli studiosi hanno bisogno di restare al passo con le ultime novità, senza però sottrarre tempo prezioso alla ricerca attiva. Record diventa uno strumento prezioso in questo senso. Funziona in due fasi: la prima passa attraverso la selezione dei documenti che con ogni probabilità contengono la risposta alla domanda del ricercatore; successivamente attraverso un modello di “question answering” viene fornita una risposta per ciascuno dei documenti selezionati, insieme ad ulteriori informazioni come il titolo, gli autori, la bibliografia e il giornale di pubblicazione con relativo impatto scientifico, per aiutare gli utenti a valutare la rilevanza del documento e l’attendibilità della risposta. Uno strumento per andare “diritti al punto” d’interesse. Uno strumento che speriamo si riveli utile nella realizzazione di un vaccino al virus.
Insomma, il matrimonio tra medicina e intelligenza artificiale non solo è già realtà, ma sta dimostrando in modo sempre più incisivo di poter funzionare, di poter avere un futuro roseo, di avere le basi solide per rivoluzionare in meglio, lentamente ma stabilmente, uno degli aspetti più importanti della vita umana, ovvero la gestione della salute personale e collettiva.
Siamo uno studio di Conversational AI che progetta e costruisce assistenti virtuali, tecnologie di linguaggio ed esperienze conversazionali. Nati a Settembre 2016 tra i banchi del Politecnico di Milano da un’idea di cinque giovani (Gianluca Maruzzella, Enrico Bertino, Marco Falcone, Andrea Tangredi e Denis Peroni – ad oggi quasi tutti under30), abbiamo realizzato assistenti virtuali per alcune delle aziende più innovative al mondo, tra cui banche, assicurazioni, case farmaceutiche, etc. Abbiamo costruito un framework proprietario di Natural Language Processing che, sfruttando l’intelligenza artificiale, è in grado di comprendere le informazioni nel testo o nella voce in maniera completamente automatica: grazie a questo framework aiutiamo le aziende ad automatizzare conversazioni, efficientare processi, alleggerire il customer care ed ingaggiare i clienti in maniera super personalizzata. Il nostro team è formato da 20 persone e operiamo sia in Italia che all’estero. Tra il 2017 e il 2020 siamo stati scelti due volte come rappresentanti della delegazione delle start-up italiane al CES di Las Vegas e abbiamo vinto tre riconoscimenti del premio Gaetano Marzotto – tra i più importanti nel panorama dell’innovazione.
Il futuro dei chatbot!
Spesso quando qualcuno mi intervista o parla con me dei chatbot, una delle domande più ricorrenti è:
“pensa che sostituiranno l’uomo?”
Io penso di no, e lo dico chiaramente alla fine di quest’intervista
è innegabile però che rappresentano un nuovo canale per entrare in contatto con i propri clienti, un nuovo touchpoint come piace chiamarlo ad Antonio Candela (amico e socio di hackBiz).
Gli studi parlano chiaro in merito ed i numeri implicano che i chatbots continueranno a creare maggiore redditività per il mondo delle imprese. Il mondo sta cambiando ed anche rapidamente!
Ne è convinto anhe Seth Louey – Founder di BotList la prima ed unica full cross-platform bot directory.
“The future is very bright for bots. We will see bots becoming more adopted in the near future and my prediction is that conversational apps (aka, bots) will merge with Augmented Reality.”
Date un occhio a questi insights:
-
CONVRG ran a survey via a chatbot experience giving away coupons. The response rate tripled compared to the traditional email survey.1
-
For Adidas women chatbot, in the first two weeks, 2,000 people signed up to participate, with repeat use at 80%. Retention after week one was 60%, which the brand claims far better compared to an app. 2
- Thousands of people have used Just Eat’s chatbot since the launch in September. The average user spent 1.53 minutes interacting with the bot. 13.5% are repeat users – and improved awareness of Just Eat’s 27,600 partner restaurants. Data shows the chatbot drove a 266% higher conversion rate than interacting with an average social ad in November 2016. 3
- Tec inStore launched a customer service chatbot. After one month of usage, chatbot had an 80% success rate. More than 1500 people have requested help from the chatbot. It reduced requests to the customer support. Chatbot received more than 1000 “Thank You” messages of 10000 total messages. 4
- Original research from DigitasLBi conducted by Harris Poll showed that more than 1 in 3 Americans (37%) would be willing to make a purchase through a chatbot. Consumers would spend an average of $55.80 per purchase. 5
- The number of countries that Facebook messengers are using chatbots in reached 200. 6
- Average time saving per chatbot inquiry when compared with traditional call centers is 4+ minutes in chatbots for the banking & healthcare sectors. By 2022 $8 billion in cost savings is expected. 7
- According to Business Insider report, 80% of businesses want chatbots by 2020. 8
- According to Gartner chatbots will power 85% of all customer service interactions by the year 2020. The average person will have more conversations with bots than with their spouse. 9
[amazon_link asins=’B01N9ZOEML,1484231104,B0756Q8MW7,B004DMG8RU’ template=’ProductCarousel’ store=’antoniosavare-21′ marketplace=’IT’ link_id=’f25bdade-ac4b-11e7-bc6e-c55a798ab8a2′]
Interessante l’infografica di Oracle sui Chatbot:
[gview file=”http://www.antoniosavarese.it/wp-content/uploads/2017/10/chatbot-infographic-3672253.pdf”]
Io ci credo tantissimo tanto è vero che con hackBiz stiamo portando in giro il #chatbotdaytour per informare e formare su questa tematica.
Ed inoltre stiamo sviluppando BOT per Facebook Messenger come quello di Food Makers che permette di cercare ricette o di trovare in base alla tua localizzazione un locale dove mangiare potendo scegliere tra varie categorie (sushi, asiatico, pub, pizza, etc)
Stiamo sperimentando sul campo come questi strumenti siano potenti, monitorando uso e interazioni con gli utenti.
Ah ovviamente quest’articolo non l’ho scritto io ma un Bot….:)
Sources:
1) https://chatbotsmagazine.com/the-state-of-chatbot-commerce-in-2017-78763f48227b
2) https://www.marketingweek.com/2017/05/18/how-adidas-just-eat-and-htc-are-using-chatbots/
3) https://www.marketingweek.com/2017/05/18/how-adidas-just-eat-and-htc-are-using-chatbots/
4) https://chatbotnewsdaily.com/5-industries-that-benefit-from-chatbots-already-b1cee62e7dad
5) http://www.huffingtonpost.com/advertising-week/chatbots-a-guide-for-bran_b_13629352.html
6) http://expandedramblings.com/index.php/facebook-messenger-statistics/
7) https://www.juniperresearch.com/resources/infographics/chatbots-infographic-key-statistics-2017
8) http://www.businessinsider.com/80-of-businesses-want-chatbots-by-2020-2016-12
9) https://www.forbes.com/sites/gilpress/2017/05/15/ai-by-the-numbers-33-facts-and-forecasts-about-chatbots-and-voice-assistants/3/#ab845fb3efdf