menu

FRANCESCO TORRISI

Venerdì 9/2 II^ “Corso di Economia”- 3°serata

E siamo alla 3°! Sarà con noi il prof. Ernesto Damiani, professore ordinario presso il Dipartimento di Informatica dell’Università degli Studi di Milano, che terrà la sua lectio dal titolo: UNA RIVOLUZIONE CHE STA TRAFORMANDO RADICALMENTE L’INTERO MONDO ECONOMICO”.

UNA RIVOLUZIONE CHE STA TRASFORMANDO

RADICALMENTE L’INTERO MONDO ECONOMICO

(Pericoli e sfide di un promesso Eldorado)

Prof. Ernesto Damiani

Venerdì 9 febbraio, Sala Cremonesi, ore 21

Il Flash Crash e la crisi del 2008 sono solo due esempi storici

di ciò che può accadere quando le macro-organizzazioni

fanno troppo affidamento sui processi automatizzati

(Ernesto Damiani)

L’impatto delle tecnologie digitali nei vari settori dell’economia è enorme:

  • in agricoltura: con l’agricoltura di precisione, basata sulla elaborazione dei Big Data, si potrà ridurre drasticamente il problema della fame nel mondo e conterrà in modo drastico l’inquinamento;
  • nella ristorazione: è in fase di sperimentazione un robot in grado di preparare 360 hamburger all’ora;
  • nei centri commerciali in cui le cassiere saranno sostituite da casse self-service;
  • nell’industria 4.0 che genererà “fabbriche intelligenti” che cambieranno profondamente la qualità del lavoro;
  • nell’edilizia: una stampante 3D arriverà a fabbricare una casa in 24 ore;
  • nel settore dell’assistenza: in Giappone si sta investendo miliardi di dollari in robot-infermiere e robot-badanti;
  • nei trasporti: in fase di sperimentazioni sono i camion che si guidano da sé e trasporti tramite droni.

Sarà in questi ambiti che si muoverà venerdì 9 febbraio Ernesto Damiani: professore ordinario presso il Dipartimento di Informatica dell’Università degli Studi di Milano, dove dirige il laboratorio di ricerca SESAR e coordina diversi progetti di ricerca su larga scala finanziati dalla Commissione Europea, dal Ministero della Ricerca italiano e da società private come come British Telecom, Cisco Systems, SAP, Telecom Italia e molti altri. Un docente di spicco: è direttore del Centro di ricerca su Internet-of-Things presso la Khalifa University di Abu Dhabi e leader dell’Iniziativa sui Big Data presso l’Etisalat British Telecom Innovation Center. Gli interessi di ricerca di Ernesto includono le tecniche e i sistemi per l’analisi dei Big Data rispettando la privacy; è uno dei ricercatori italiani in Informatica più prolifici, con oltre 530 pubblicazioni sull’indice internazionale Scopus; è autore di numerosi libri in italiano e in inglese ed è titolare di diversi brevetti; è attualmente il Principal Investigator del progetto TOREADOR H2020 su modelli e strumenti per Big data-as-a-service, il più grande progetto europeo a guida italiana in questo settore.

Per i suoi contributi alla ricerca e alla didattica sui Big Data, Ernesto Damiani ha ricevuto il dottorato ad honorem dall’Institut National des Sciences Appliquees (INSA) di Lione, una delle principali Ecole d’Ingenieur francesi, e il premio internazionale “Stephen Yau” da IEEE ICWS/Services Society.

Oltre ad affrontare la rivoluzione in corso nei vari settori economici (da Industria 4.0 alla agricoltura di precisione e alla stampa 3D), il prof. Ernesto Damiani analizzerà la mole di informazioni (immensamente superiori a quelle del passato) che i consumatori forniscono alle aziende e la stessa mole di informazioni che passano da un’azienda all’altra (le moderne catene di fornitura sono basate sulla condivisione di una miriade di dati sulle località di produzione, le capacità di magazzino, persino sul personale impegnato nelle varie operazioni di filiera)

Come e quando le aziende “rubano” dette informazioni ai consumatori? Non solo quando questi navigano sul Web: con l’avvento dell’Internet-of-Things, ovvero la connessione continua alla Rete di dispositivi eterogenei dagli smartphone ai frigoriferi, le aziende registrano dati sui consumatori in ogni momento della loro vita. L’uso generalizzato delle tecnologie digitali sta creando così tanto “scarico di dati” che interi settori economici sono nati attorno alla raccolta, conservazione, protezione, implementazione e, soprattutto, comprensione dei nostri dati.

Oggi, le informazioni raccolte sono utilizzate soprattutto per studi di correlazione, che mirano a identificare opportunità commerciali verso i clienti finali oppure opportunità di abbattimento dei costi lungo la catena produttiva. Per esempio, i dati sugli accessi ai siti Web raccolti da Google e da altri operatori (i cosiddetti click-stream) dimostrano che le persone che hanno letto di recente necrologi online tendono ad essere acquirenti di auto a noleggio nel fine settimana. Il pensiero economico e quello filosofico ci dicono che concettualmente la correlazione tra questi eventi non permette di dedurre la causalità (a meno di non cadere nel classico errore del “post hoc ergo propter hoc”). Ma in questo caso la deduzione – potenzialmente erronea – è confermata dai fatti, o meglio dal comportamento dei soggetti economici: la correlazione è ritenuta abbastanza significativa dal mercato perché le pubblicità degli autonoleggi compaiano di fronte al cliente subito dopo che ha letto un necrologio.

Il cosiddetto “Devil’s Algorithm” di Facebook, che è stato indicato come responsabile della crescente insularità di pensieri e convinzioni sui social network (dove le persone che condividono opinioni e pregiudizi tendono a parlare solo tra loro e a rinforzare/estremizzare le loro opinioni) è in realtà un filtro che ci mostra preferenzialmente contenuti simili (nel senso di passate co-occorrenze, più che di similarità di contenuto) a quelli su cui abbiamo espresso gradimento in passato.

È facile prevedere che le aziende che prospereranno di più nei prossimi decenni sono quelle che riusciranno ad usare i dati dei loro consumatori per adeguare i loro prodotti o servizi in modo automatico. Google perfeziona il suo algoritmo di ricerca con ognuna delle 35.000 query che riceve ogni secondo. Quest’idea è alla base del successo di servizi post-televisivi come Netflix (“Perché il mio apparecchio televisivo non dovrebbe trasmettere solo programmi che mi piacciono?”).

La vulgata del pensiero della Silicon Valley è, grazie all’abbondanza dei dati, nei prossimi anni passeremo dagli studi di correlazione a interpretazioni più ricche, compreso il sacro Graal della causalità. La via maestra per la comprensione dei legami causali sembra essere non quella del ragionamento simbolico ma quella percettiva (su cui si basa l’apprendimento computazionale detto Deep Learning), che ha già dimostrato grande efficacia in termini di predizione del futuro.

La comprensione – e la stima – della causalità saranno alla base di sistemi di raccomandazione che considereranno non solo la cronologia degli acquisti e il comportamento di ricerca degli utenti, ma anche i loro comportamenti in ambiti differenti (ad esempio, se l’utente ha recentemente letto un necrologio).

Questa aspettativa del mercato si riflette già oggi sul valore delle aziende che raccolgono ed elaborano dati. Facebook vale la bellezza di 33,7 miliardi di dollari, in gran parte perché più di 500 milioni di persone in tutto il mondo hanno volontariamente condiviso con l’azienda i dettagli delle loro vite personali.

Non dobbiamo però nasconderci i pericoli e le sfide di questo promesso Eldorado. Oltre alla trasformazione dell’economia reale in un sistema in cui il decisore (e non più solo l’esecutore) umano viaggia “sul sedile posteriore”, con i rischi di obsolescenza e disoccupazione anche per i colletti bianchi, i sistemi data driven del futuro non saranno infallibili – almeno a giudicare da quelli del passato. Il Flash Crash e la crisi del 2008 sono solo due esempi storici di ciò che può accadere quando le macro-organizzazioni fanno troppo affidamento sui processi automatizzati.

FRANCESCO TORRISI

08 Feb 2018 in Economia

4 commenti

Commenti

  • Ho recepito il quando… ma non il dove, potete indicarmelo per favore?

  • Doriano, si tratta della sala Cremonesi, ore 21, presso il museo (Centro culturale S. Agostino).

    Dopo l’intervento del prof. Domenico De Masi che ha affrontato l’impatto (per certi aspetti devastante e per altri… liberatorio) delle tecnologie digitali sul mondo del lavoro, dopo la lectio magistralis del prof. Righini sul “motore” delle tecnologie digitali, vale a dire sugli “algoritmi”, questa sera avremo modo di sentire una lezione (sarà di sicuro di alto profilo – conosco bene il prof. Ernesto Damiani -) sulle principali “applicazioni” degli algoritmi nei settori produttivi, in primis su Industria 4.0 (applicazioni ma anche… rischi!).

  • Un altro pienone in sala Cremonesi.
    Ci rendiamo sempre più conto di avere risposto a un’esigenza: provare a capire quella grande rivoluzione (quella delle tecnologie digitali) che ci sta travolgendo.
    Il prof. Damiani ha sì – come promesso – parlato di applicazioni, in particolare di stampa 3D, ma si è diffuso sull’avventura dell’Intelligenza artificiale, o meglio sulla versione dell’Intelligenza artificiale che ha segnato una forte accelerazione, quella che si è aperta nel 2006.
    Pochi, forse, erano al corrente di tale svolta e della radicalità della svolta stessa.

    La lezione ha stimolato un grande dibattito sul “perché” di questa rivoluzione (che cosa sta dietro, ad esempio alle auto che si guidano da sè?) e su “a chi giova” la rivoluzione in questione?
    Si è sviluppato cioè un atteggiamento “critico” che è il… sale di una “scuola” come l’abbiamo concepita.

  • Questo ciclo che Mastro Piero ha lottato con successo per realizzare rende le cose estremamente concrete: tabù e utopie sono DEFINITIVAMENTE sfrondate, non lasciando più posto a tanti secondo me oppure mi sa che. Apre uno spiraglio su nuovi scenari, pieni di rischi, certo, ma le soluzioni si possono intravedere. Innanzitutto meno umani e più qualificati, e questo non è impossibile, perché qualcosa sia l’intelligenza, quella animale intendo, già sta migliorando grazie al confronto – integrazione con la macchina “pensante”.
    Sarà come andare a dormire con un brutto dubbio e svegliarsi con la soluzione in tasca; certo, con mutamenti drastici dei nostri costumi di vita. Non trovo azzeccata la definizione di super uomo e nemmeno quella citata da Damiani di “homo Deus”: solo un uomo integrato con sensi aumentati e connessioni rapide che rapidamente risolverà problemi e troverà adattamenti. Il termine è il titolo di un recente libro serio di prospettive, che ho letto solo per un terzo, Damiani tutto a quanto pare. Molto mi attendo da un’altra fonte: Mutare o perire : La sfida del transumanesimo / Riccardo Campa. Teniamo presente che l’evoluzione umana, quella biologica, è tutt’altro che ferma, come il mondo scientifico sosteneva a fine secolo scorso, anzi, è in piena accelerazione! E ciò senza bisogno di impasticcarsi, come fanno i bambini statunitensi per il 60% per aumentare il rendimento scolastico, o i soldati per quello bellico, né di andare a pasticciare con la genetica! Quella ci pensa da sola! Sotto pressione ambientale una mutazione utile diventa stabile in sole tre-cinque generazioni, non in secoli secondo l’evoluzionismo classico, e ciò è stato fatto nella speciazione animale; è intuibile nell’effetto definito “fuochi d’artificio genetici” degli astronauti (la demetilazione, come dire la messa a nudo – attivazione di miriadi di geni silenti) che non sappiamo dove potrebbe portare, perché un anno nello spazio non basta, ma sappiamo che qualcosa di drammatico succede sotto i nostri occhi! Monitorerò il fenomeno per opportuni canali e vi terrò informati.
    Certo, ripeto, sarà un mondo di molti meno uomini, perché ne basteranno pochi e molti peseranno solo, ma troppo pochi limitano la molteplicità genetica d’altra parte, ma una finestra si apre. Che ne dici ZEN?
    Sì, ho capito, che non c’è tempo sufficiente! Per te, cervello di genio ma solo con le capacità e gli strumenti di ora, non per chi ti seguirà.

Scrivi qui il commento

Commentare è libero (non serve registrarsi)

Iscriviti alla newsletter e rimani aggiornato sui nostri contenuti