Il futuro della scienza dei dati

PorVincenzo D.

Feb 23, 2022
Il futuro della scienza dei dati

Nel 2012, un errore di comunicazione ha portato il padre diabetico di Rotem e Omri Shor a prendere una dose supplementare di insulina quando non avrebbe dovuto. Questo è stato un errore che ha messo in pericolo la sua vita, e che i fratelli hanno poi imparato che è abbastanza comune. I pazienti spesso dimenticano di prendere le loro medicine o, dimenticando che hanno già preso la loro dose abituale, ne prendono un’altra. I fratelli hanno fondato Medisafe nel tentativo di prevenire errori come questi.

Il compagno digitale Medisafe è iniziato come una “app mobile pillbox”: un modo semplice e visivo per i pazienti di tenere traccia dei loro farmaci e ricordarsi di prenderli in tempo. La prima versione combinava notifiche di testo sul telefono e un’interfaccia visiva con risorse educative e la capacità di inviare una notifica ai membri della famiglia del paziente se il paziente manca un controllo dei farmaci. Ma il compagno digitale dei farmaci si è evoluto da allora con l’espansione delle capacità di AI  come smodin english e di apprendimento automatico, diventando più personalizzato per soddisfare le esigenze di ogni paziente.

Nell’ultimo anno, l’azienda ha sviluppato un modello di apprendimento automatico che può prevedere quando un paziente è probabile che si impegni con l’app indicando che ha preso il suo farmaco, o rispondendo a una notifica di promemoria. Grazie in gran parte all’aumento delle capacità di memorizzazione e di elaborazione dei dati, oltre alla crescente disponibilità di applicazioni di AI e di apprendimento automatico, questo modello complesso può essere eseguito su un set di dati molto grande e in continua crescita a velocità in tempo reale o quasi. Ciò significa che l’app può adattare le sue notifiche alla situazione specifica di un paziente. Invece di inviare a un paziente un promemoria per prendere le medicine alla stessa ora ogni mattina, per esempio, l’app invia notifiche quando è probabile che il paziente sia in grado di prendere le medicine.

Tendenze della scienza dei grandi dati da tenere d’occhio nel prossimo futuro

  • Aumento dell’accessibilità all’AI as-a-service e alle soluzioni di apprendimento automatico che possono essere applicate dalle aziende senza team interni di data science.
  • I progressi nell’elaborazione del linguaggio naturale come il modello GPT-3 di OpenAI che permettono una maggiore comprensione del contesto nella comunicazione verbale.
  • Tecnologia degli agenti automatizzati, in particolare nelle esperienze di servizio al cliente e nella forza lavoro della conoscenza.

Per esempio, se un paziente sta guidando – sulla base dei dati GPS accoppiati con il comportamento di impegno passato – non avrebbe senso ricordargli di prendere le medicine. L’assistente può auto-snooppiare la notifica fino a quando l’utente non lascia l’auto.

Rotem Shor, chief technology officer di Medisafe, ha detto a Built In che l’azienda si aspetta di aumentare le capacità di personalizzazione della piattaforma fino al punto di identificare il livello di assertività di cui diversi pazienti hanno bisogno nel loro supporto. Mentre alcuni pazienti hanno bisogno di essere ricordati ripetutamente in rapida successione di prendere i loro farmaci, per esempio, alcuni hanno bisogno solo di un promemoria.

Questo livello di personalizzazione empatica alimentata dall’AI potrebbe suonare un po’ come fantascienza, ma potrebbe non essere così lontano. Shor e altri esperti con cui Built In ha parlato per questa storia indicano il crescente accesso delle aziende agli strumenti di AI e di apprendimento automatico – in particolare nell’area dell’elaborazione del linguaggio naturale – come probabile creazione di un futuro con strumenti e assistenti che sono più personalizzati, contestualizzati ed empatici.

Per saperne di più sull’automazione5 dipartimenti che hanno più da guadagnare dall’automazione dell’elaborazione intelligente dei documenti

Gli strumenti di apprendimento automatico sono più accessibili oggi

Negli anni passati, grandi attori come Google e Microsoft hanno creato supercomputer per addestrare modelli di AI per – tra le altre cose – l’elaborazione del linguaggio naturale. Questi supercomputer possono occupare più spazio di diverse case unifamiliari, richiedono enormi quantità di energia e acqua per funzionare, e il loro funzionamento richiede diversi team con competenze altamente specializzate.

Mentre molte aziende possono beneficiare dei risultati di questi processi, poche possono permettersi l’investimento in hardware e personale. Fortunatamente, i massicci investimenti delle grandi aziende hanno creato un ecosistema tentacolare di cloud computing as-a-service che include soluzioni di AI e machine learning. Questo ha permesso a più aziende senza data scientist interni di applicare “soluzioni eleganti e potenti di machine learning e AI” come il riconoscimento delle immagini, la traduzione del testo o l’analisi vocale al loro business, secondo Frederik Hagstroem, chief technology officer di Emergn, una società di consulenza focalizzata sulla tecnologia.

“Una volta che abbiamo alcune di queste capacità che sono davvero abilitate dall’AI, come pianeta, non torneremo indietro”.

Un esempio su larga scala sarebbe la BBC che usa Azure Cognitive Services e Bot Service di Microsoft per creare BEEB, il proprio assistente vocale di marca che aiuta i lettori (o gli spettatori o gli ascoltatori) a trovare i contenuti a cui sono interessati verbalmente piuttosto che via testo. Come Siri, ma per i contenuti della BBC.

È una buona cosa che l’AI e gli strumenti di apprendimento automatico stiano diventando più ampiamente disponibili, perché più aziende ne avranno bisogno, secondo Rodrigo Liang, co-fondatore e CEO di SambaNova Systems, una società di innovazione AI.

Nei prossimi anni, ha detto Liang, questi strumenti consentiranno invenzioni a cui non avremmo nemmeno pensato un decennio fa, ma che sembreranno indispensabili in retrospettiva. Come esempio, ha indicato le funzioni di assistenza alla guida come la frenata automatica di emergenza.

“Chi in realtà non vorrebbe fermare l’auto che colpisce quella davanti a sé?” Ha chiesto Liang. “Una volta che avremo alcune di queste capacità realmente abilitate dall’IA, come pianeta, semplicemente non torneremo indietro”.

&nbsp l’intelligenza artificiale è una buona carriera?;

Sistema di frenata automatica City Safety di Volvo 10 mph | Video: YOUCAR

Il miglioramento dell’elaborazione del linguaggio guiderà una maggiore personalizzazione

La traduzione del linguaggio naturale è uno strumento chiave dell’IA di cui ogni tipo di azienda avrà bisogno nel prossimo futuro, secondo Liang. Lui e altri con cui abbiamo parlato hanno sottolineato il crescente valore dei modelli che possono comprendere il discorso umano colloquiale e il suo contesto.

Liang ha fatto l’esempio di parlare con assistenti AI conversazionali come Siri, Alexa e Google Assistant che sono usati regolarmente da un quarto degli adulti statunitensi a partire dal 2020, secondo lo Smart Audio Report di NPR. Chiedete loro “che tempo fa oggi?” e loro prontamente tireranno fuori una panoramica delle previsioni del tempo del giorno per la vostra zona. Chiedigli invece “Ehi, com’è la situazione là fuori” e sarà confuso. Mentre una persona potrebbe capire questa domanda più informale come una richiesta delle stesse informazioni della prima domanda più specifica, quel contesto è perso dalle attuali IA conversazionali.

E il contesto è la chiave per andare avanti con la traduzione del linguaggio naturale per le imprese, secondo Liang. Ha sottolineato che non mandiamo gli avvocati nel campo medico e ci aspettiamo che capiscano il gergo medico e la terminologia senza addestramento, per esempio.

“Le macchine sono la stessa cosa”, ha detto. “Hanno bisogno di un contesto”.

Secondo Liang, la crescente sofisticazione dell’IA nella comprensione del contesto può essere attribuita in gran parte al modello GPT-3 sperimentato da OpenAI. È unico per le sue dimensioni – contiene 175 miliardi di parametri, rispetto ai circa 10 miliardi di parametri della sua iterazione precedente e di altri modelli NLP concorrenti – ed è un trasformatore generalizzato che può essere applicato ampiamente a una varietà di applicazioni invece che a un solo caso d’uso. Date le sue dimensioni, può estrapolare meglio il contesto da qualsiasi pezzo di testo.

Liang vede anche che le capacità di traduzione di GPT-3 hanno il potenziale di aprire opportunità di business per le aziende attualmente bloccate dalle barriere linguistiche, riducendo il costo associato alla traduzione.

“Quindi personalizzeremo la tua esperienza per essere non solo per te, ma per lo stato d’animo in cui pensiamo tu sia”.

“Si può prendere questo modello – un unico modello – e tradurlo in oltre 100 lingue in tutto il mondo”, ha detto. Finora, il costo per un’azienda di tradurre i suoi materiali in nuove lingue, in particolare in lingue con basi di parlanti più piccole, è stato di solito troppo alto perché avesse senso per le aziende cercare di espandersi in quei mercati.

“Che cosa succede se si può effettivamente avere una fonte e automaticamente la macchina può tradurre in [those] lingue? Colloquialmente?” Chiese Liang.

Ha notato che “non siamo ancora lì” perfettamente, ma vede le porte aprirsi presto a questa possibilità. E non è l’unico a guardare OpenAI e i suoi modelli linguistici per quello che può fare per la traduzione. Hagstroem ha detto che i modelli linguistici di OpenAI hanno reso la traduzione del testo quasi “un problema risolto”. Mentre ha anche riconosciuto che le capacità di traduzione non sono ancora perfette, ha fatto notare che le opzioni di traduzione integrate nei siti web, nei programmi o nei documenti digitali non erano così ampiamente disponibili cinque anni fa come lo sono oggi, ma sono cresciute rapidamente. Si aspetta anche che la capacità di tradurre si sposterà oltre il testo e in altri mezzi come l’audio.

Hagstoem vede anche un’altra personalizzazione basata sull’AI e l’apprendimento automatico della lingua in arrivo per le esperienze di assistenza clienti. In particolare, la personalizzazione sarà situazionale, basata su quali informazioni contestuali in tempo reale possono essere raccolte sui clienti in base alla loro voce e ai comportamenti in una specifica interazione.

“Le emozioni, tra cui lo stress, la delusione, la confusione, la felicità e l’aggressività possono essere relativamente facili da rilevare utilizzando l’AI attraverso il riconoscimento facciale, la voce o l’analisi del testo”, ha detto Hagstroem.

La rabbia è una delle più facili da rilevare, ha aggiunto. Se uno strumento di supporto clienti alimentato dall’AI riconosce i segni di un cliente arrabbiato, il cliente potrebbe ricevere un sondaggio progettato per ottenere un senso migliore delle sue frustrazioni e consegnato con un tono di voce più scusante, per esempio. Un cliente arrabbiato in una situazione di e-commerce potrebbe ottenere una risposta più veloce, un checkout più rapido e meno opzioni o suggerimenti extra. Un cliente frustrato da un processo di registrazione potrebbe ricevere un flusso utente più guidato passo dopo passo o testi di aiuto.

“Quindi personalizzeremo la tua esperienza per essere non solo per te, ma per lo stato d’animo in cui pensiamo tu sia”, ha detto Hagstroem.

Per saperne di più sull’innovazione dell’IANon temere il robot: Le conseguenze umane dell’automazione

Per trovare l’equilibrio tra sicurezza e lotta ai pregiudizi saperne di più su L’intelligenza artificiale è una buona carriera? Questi professionisti dell’AI la pensano così

L’AI guiderà la personalizzazione in medicina, dalla R&D al supporto del paziente

Il campo medico ha anche un occhio al miglioramento e alla personalizzazione delle esperienze dei pazienti attraverso un maggiore uso di AI e machine learning, secondo Shor. Oltre agli sforzi della sua stessa azienda per applicare l’IA al lato del supporto del paziente, egli vede l’industria farmaceutica adottare soluzioni di IA al lato della ricerca e dello sviluppo.

“Le aziende farmaceutiche [will] iniziano a muoversi in questo settore e investono sempre di più nelle aziende che li aiuteranno a trovare il prossimo farmaco”, ha detto, indicando come esempio il recente investimento di 180 milioni di dollari della casa farmaceutica Sanofi nella startup AI Owkin. Non solo l’AI potrebbe accelerare il processo di scoperta dei farmaci, ma Shor vede i farmaci personalizzati – formulazioni farmaceutiche su misura per le esigenze specifiche del singolo paziente che le assume – come il prossimo passo logico.

Shor si aspetta anche che l’accoppiamento di strumenti alimentati dall’IA con il campo medico fornirà ai pazienti anche più opzioni in altri settori, compreso il suo campo di assistenza ai pazienti.

“Sto guardando gli agenti automatizzati”, ha detto, riferendosi in particolare all’assistente di chiamata Google Duplex. Nel mondo dell’assistenza ai pazienti, a volte i pazienti hanno bisogno di una voce umana con cui interagire.

“Credo che gli agenti automatizzati saranno in grado di risparmiare un sacco di soldi per l’industria per essere in grado di interagire con i pazienti intorno alla burocrazia, l’assicurazione e cose del genere. E il supporto clinico sarà lì come punto di escalation”, ha detto Shor. Ha descritto questi potenziali agenti medici automatizzati come un altro strumento nella cassetta degli attrezzi del supporto ai pazienti del futuro, accanto a testi, e-mail e chiamate da persone reali.

Per saperne di più sull’automazione14 strategie per preparare la tua azienda alla rivoluzione dell’automazione

I colleghi digitali che cambiano il volto del lavoro della conoscenza

Diverse persone con cui Built In ha parlato anticipano un futuro in cui gli agenti automatizzati diventano parte della vita professionale dei lavoratori della conoscenza e parte delle esperienze dei consumatori. Questo è particolarmente vero per i compiti ripetitivi in campi ad alta intensità di dati. Pensate alle scartoffie.

Hagstroem ha dato un esempio attuale di automazione nel processo di reclamo dell’assicurazione auto, che in alcuni casi può essere automatizzato end-to-end oggi. I documenti possono essere letti ed elaborati automaticamente. Se manca qualcosa che è necessario per completare un processo di risarcimento, l’agente automatizzato può persino contattare il richiedente e richiedere le informazioni necessarie. In passato, tale contatto automatizzato era facile da individuare per la maggior parte delle persone.

“Ma ora stiamo arrivando al punto in cui non si può necessariamente sapere”, ha detto Hagstroem. O la gente non avrebbe necessariamente motivo di pensarci. “Avresti solo il servizio fornito e poi forse più tardi penseresti, ‘Mi chiedo se c’era un umano coinvolto o no’”, ha detto.

“Cinque anni fa, eravamo sul lato sicuro del test di Turing”, ha detto Hagstroem. “Ora non lo siamo più”.

Più che semplici assistenti che inviano promemoria al momento giusto e forniscono discretamente servizi utili, gli agenti automatizzati diventeranno “i nostri partner di lavoro quotidiani” con cui (chi?) possiamo conversare, secondo Peter Miscovich, amministratore delegato di strategia e innovazione presso JLL, una società di gestione immobiliare e di investimenti.

“Penso che potrebbe liberarci da un sacco di ciò che chiamerei alcune delle nostre attività lavorative impegnative … e si spera che permetta a tutti noi di avere più tempo per essere più creativi e più innovativi e ci permetta di fare il nostro miglior lavoro per i nostri migliori sé.”

Ma se i colleghi automatizzati saranno la norma nel posto di lavoro della conoscenza del futuro, i lavoratori della conoscenza dovranno aggiornarsi e spostare la loro attenzione. Hagstroem ha descritto quel potenziale futuro come uno in cui il lavoratore della conoscenza si sposta più nel ruolo di esperto di argomenti che addestra e supervisiona un algoritmo di apprendimento automatico – una sorta di rapporto maestro Jedi/padawan. Piuttosto che fare il lavoro direttamente, il lavoratore della conoscenza avrebbe la responsabilità di controllare il lavoro dell’agente automatizzato e lavorare per migliorare le sue capacità decisionali.

“Questo è il modo in cui pensiamo di spostare il lavoro dei colletti bianchi per essere un po’ di supervisione e funzionamento e lavorare sulle eccezioni più che lavorare su decisioni di routine e standard”, ha detto.

Miscovich ha riconosciuto che suona un po’ come fantascienza. Ma potrebbe non essere così lontano.

Leggete il nostro articolo su la Musica AI

“Simile a quello che è successo all’operaio di fabbrica, alla gente dell’assemblaggio, alla gente del magazzino che sono stati sostituiti dai robot, lo vedremo entro il 2025, e certamente oltre, alcuni segmenti della forza lavoro dei colletti bianchi saranno sostituiti dall’intelligenza delle macchine e dall’automazione intelligente”.

Mentre questo può sembrare minaccioso, Miscovich ha detto che è anche un’opportunità per una grande parte della forza lavoro.

“Penso che potrebbe liberarci da molte di quelle che chiamerei alcune delle nostre attività lavorative impegnative”, ha detto. “E si spera che permetta a tutti noi di avere più tempo per essere più creativi e più innovativi e ci permetta di fare il nostro miglior lavoro per noi stessi”.