Diventa Autore per CoreTech | Scopri di più
14/04/20 CoreTech Blog
di Carlo Parodo
Un’introduzione ai concetti su cui si basa l’Intelligenza Artificiale, come i Big Data, il Machine Learning o il Deep Learning, che viene intervallata da esempi del passato e possibilità future. Questo con lo scopo di dare degli spunti per capire gli eventi che sono stati propedeutici alle attuali tecnologie e per immaginare liberamente dove potrà portare l’AI.
Con il termine intelligenza artificiale (o AI) si indicano entrambi questi concetti:
Un agente intelligente è un sistema in grado di percepire il suo ambiente (un sistema che dimostra di avere la consapevolezza) e attuare le azioni che massimizzano le sue possibilità di successo. Il campo dell’intelligenza artificiale va quindi ancora oltre la definizione di intelligenza. Il suo obiettivo è comprendere e costruire entità intelligenti.
Possibili applicazioni dell'intelligenza artificiale (l’impatto è su svariati ambiti):
E tanto altro che ancora non sappiamo…
Un presupposto indispensabile per parlare di Intelligenza Artificiale è infatti il dato o meglio, i dati, tantissimi dati.
Si tratta proprio della base di conoscenza che deve essere trasferita ad un Agente Intelligente affinché sia poi in grado di prendere decisioni autonome.
Tuttavia la realtà non è sempre evidente, spesso abbiamo le informazioni, i dati, tutto davanti a noi. Ma non riusciamo a vederli, a percepirli. Un esempio famoso è quello della torta di mele.
Analizzando i dati degli acquisti del mercato retail americano, è risultato che era quella che i clienti dei supermercati preferivano. Questo fino a che non sono state messe in vendita torte più piccole, tipo monoporzioni. Aumentano così i dati rilevabili, non una torta per tutta la famiglia ma una torta (diciamo) per ogni persona. A questo punto la torta di mele non risulta più la preferita ma scende al 4° posto. La torta di mele mette d'accordo un po' tutti ma, se posso scegliere, non è proprio quella che preferisco.
Un altro esempio è quello di Google Maps. Semplici tragitti da un punto ad un altro, senza alcun apparente significato, all'aumentare del numero di dati hanno cominciato a mettere a fuoco qualcosa di più. Così, lo stesso tragitto compiuto per diversi mesi, nei giorni feriali, può rivelare il luogo di lavoro (tutto in modo anonimo).
Scopriamo così che, andando ad aumentare il numero di dati, possono venire alla luce delle realtà che non sarebbero immediatamente osservabili.
Questo è il concetto più importante dei Big Data, ci permettono di vedere meglio, di mettere a fuoco delle realtà che altrimenti non riusciremmo a percepire. Si chiamano Big Data perché superano i limiti dei database tradizionali, ma anche per questa caratteristica di estrarre conoscenza e valore dai dati stessi. Gli elementi che caratterizzano i Big Data sono:
Lo dice il nome, la quantità di dati che troviamo nei Big Data è enorme.
I dati arrivano dal Web, da macchinari scientifici, da operazioni finanziarie oppure da sensori. In pochissimo tempo possono assumere valori mastodontici. Con i Big Data occorre memorizzare tutto ciò che viene rilevato, indipendentemente da quando i dati verranno utilizzati. Altrimenti potremmo perdere grandi quantità di dati. Come per i dati rilevati dai sensori: se non vengono immediatamente salvati, andranno persi. Anche semplici operazioni di pulizia o di scelta sui dati potrebbero far perdere informazioni utili in futuro. Con questi presupposti (non si butta nulla!) le quantità aumentano a dismisura e occorrono sistemi per l'immagazzinamento dei dati diversi dai tradizionali database (RDBMS). Non che non si possa fare... diciamo che non è più conveniente in termini di costi di elaborazione (capacità di calcolo) e di storage.
I Big Data sono spesso formati da informazioni con formati diversi e una struttura non rigorosa.
Esempi di questo tipo di dati sono i file di testo (TXT, PDF, etc.) o i commenti di un post. Questa eterogeneità porta a dover adottare nuovi strumenti per l'organizzazione dei dati. Si utilizzano ad esempio database che, non avendo una struttura molto rigida, sono più flessibili per l'utilizzo con dati di formati diversi (ad es. database NoSQL chiave/valore).
Con grandi quantità di dati da gestire diventa molto importante la velocità con cui gli stessi dati sono disponibili.
Questo vale sia per i dati in ingresso che in uscita. I dati provenienti dai sensori ad esempio, possono essere generati con un'alta frequenza, il che significa dover avere sistemi per l'archiviazione dei dati in grado di reggerne il passo. E così per i dati in uscita, le applicazioni dei Big Data, richiedono di poter sfruttare i dati memorizzati con un'elevata rapidità, dalla loro estrazione alla loro elaborazione. Questo ad esempio per ricavare velocemente le informazioni di business di un processo aziendale.
Dai Big Data, il passo verso l'Intelligenza Artificiale (AI) è pressoché immediato. Quindi, qual è il valore dei Big Data? Avere più informazioni. Una delle aree più impressionanti dove questo concetto sta prendendo piede è proprio quella dell'apprendimento automatico.
L'apprendimento automatico fa parte dell'intelligenza artificiale. Si basa sull'idea generale di inviare i dati di un problema a un computer affinché lo risolva da solo (senza dirgli cosa fare).
Alle origini dell’AI c'è stato un software per giocare a dama contro un computer, scritto nel 1950 da un informatico dell'IBM (Arthur Samuel).
Nelle prime versioni del software Samuel vinceva sempre. Aveva infatti un vantaggio importante nei confronti del computer, il quale conosceva solamente le regole del gioco. Samuel invece conosceva anche le strategie per vincere.
Pensò allora di perfezionare il software con un sotto programma che lavorava parallelamente al primo, in background, registrando la probabilità che una certa disposizione delle pedine portasse ad un risultato vincente o perdente, dopo ogni mossa. Samuel ricominciò a giocare contro il computer, vincendo ancora.
Poi lasciò il computer a giocare da solo, contro sé stesso. In poco tempo il computer raccolse un numero elevato di dati, che gli permisero di migliorare le proprie previsioni. Quando Samuel ritornò a giocare contro il computer, perse tutte le sue partite: aveva creato una macchina in grado di apprendere un compito e farlo meglio di lui stesso che glielo aveva insegnato.
In base a questi nuovi concetti, si può allora dare un’altra definizione di AI, come la disciplina che si occupa di realizzare macchine in grado di “agire” autonomamente.
Prendendo come base di partenza il funzionamento del cervello umano (anche se ancora oggi non se ne comprende a fondo l’esatto meccanismo), una AI dovrebbe saper compiere alcune azioni tipiche dell’uomo:
Queste considerazioni sono molto importanti perché permettono di classificare l’AI in due grandi categorie:
Ciò che caratterizza l’Intelligenza Artificiale è il modello di apprendimento con cui l’intelligenza diventa abile in un compito. Questi modelli di apprendimento sono ciò che distinguono Machine Learning e Deep Learning.
Si tratta di un insieme di metodi che permettono ad un software di adattarsi. Metodi attraverso i quali si permette alle macchine di apprendere in modo che possano poi
svolgere un compito o una attività senza che siano preventivamente programmati.
Per dirlo con altre parole, si tratta di sistemi che servono ad “allenare” l’AI in modo che imparando, correggendo gli errori, allenando sé stessa, possa poi svolgere autonomamente un compito. Ciò che caratterizza il Machine Learning è quindi il “modello di apprendimento”. In base a questi modelli si può fare una classificazione degli algoritmi:
Si tratta di modelli di apprendimento ispirati alla struttura ed al funzionamento della mente umana.
Se il Machine Learning può essere definito come quel metodo che “allena” l’AI, il Deep Learning è quello che permette di emulare la mente di un uomo. Il modello matematico da solo non basta, il Deep Learning necessita di reti neurali artificiali progettate ad hoc e di una capacità computazionale molto potente, capace di supportare differenti strati di calcolo e analisi (come con le connessioni neurali del cervello umano).
Sono sistemi già in uso nelle applicazioni del riconoscimento vocale o delle immagini e nei sistemi di Natural Language Processing.
L'AI è nei motori di ricerca, negli algoritmi personalizzati di Amazon, nella traduzione computerizzata, nei sistemi di riconoscimento vocale.
Un caso molto interessante è quello che ha permesso di aprire nuove frontiere nella medicina e in particolare per identificare le biopsie tumorali: si è chiesto al computer di identificare, osservando i dati e le statistiche di sopravvivenza, se le cellule sono veramente tumorali oppure no.
La macchina è stata in grado di identificare i 12 segni distintivi che predicono al meglio se le cellule della biopsia del seno sono effettivamente tumorali, grazie ad un algoritmo per l'apprendimento automatico. Il problema: la letteratura medica ne conosce soltanto 9. Tre dei tratti erano quelli che non si cercavano, ma che la macchina ha individuato.
Un limite importante, emerso di recente e che impatta nelle tecniche di apprendimento dell’AI finora utilizzate, è nella capacità di prendere decisioni... “sbagliate”, ovvero che non costituiscono la scelta migliore. Ad esempio, immaginiamo una macchina a guida autonoma con dei passeggeri a bordo, che si trovi a percorrere una strada che confina con un burrone.
Se trovasse improvvisamente una persona in mezzo alla strada, senza avere lo spazio di frenata necessario a non investirla, dovrebbe scegliere se salvare i passeggeri (non finendo nel burrone) o il pedone. Entrambe le possibilità, non sono delle scelte ottimali e l’apprendimento dei comportamenti da attuare in queste situazioni ha dei confini etici molto labili. Una facile degenerazione potrebbe essere ad esempio quella che porta a salvare sempre i passeggeri, in quanto clienti della casa automobilistica proprietaria del sistema di AI.
Nelle AI esistono dei lati oscuri. Miglioreranno le nostre vite, ma ci sono dei problemi dei quali dobbiamo essere consapevoli.
Il primo è l'idea che potremmo avere algoritmi in grado di prevedere cosa stiamo per fare e potremmo essere ritenuti responsabili prima di aver effettivamente fatto qualcosa. La privacy era la sfida centrale nell'era dei “piccoli dati”. D'ora in poi la sfida sarà la salvaguardia del libero arbitrio, della scelta morale, della decisione umana.
Un altro problema è quello di cui tanto si parla: gli algoritmi di AI metteranno alla prova il lavoro del settore terziario.
Pensiamo ai tecnici di laboratorio, il lavoro di queste persone si rivelerà radicalmente cambiato oppure del tutto eliminato. E così per camionisti, autisti, operatori di call center. È auspicabile tuttavia che la tecnologia crei lavoro nel tempo, dopo un breve temporaneo periodo di crisi. È anche vero però che ci saranno alcune categorie di lavoro che verranno eliminate e non torneranno.
L’ AI porterà via i lavori ripetitivi e a tempo debito, ne saremo riconoscenti. L'AI diventerà un grande strumento per i creativi così che scienziati, artisti, musicisti e scrittori potranno essere più creativi. L'AI lavorerà con gli umani come strumento analitico a cui gli uomini potranno aggiungere il loro calore per lavori ad alta compassione (come i lavori nel sociale).
L'AI è la nostra fortuna inattesa. È qui per liberarci dai nostri lavori più noiosi, ed è qui per ricordarci cosa ci rende umani. Occorre prendere queste potenti tecnologie e adattarle alle nostre esigenze in quanto esseri umani. Dobbiamo essere padroni di queste tecnologie, non i suoi servitori.
Ancora non siamo bravi nel maneggiare tutti i dati che siamo in grado di raccogliere.
È un po' come la sfida dell’uomo con il fuoco: è uno strumento, ma è uno strumento che scotta se non si sta attenti. Con gli opportuni discernimenti, l’Intelligenza Artificiale trasformerà come viviamo, come lavoriamo, come pensiamo.
Riferimenti bibliograficii