raffaella.mencarelli ha scritto: AI, Chat GPT, intelligenza artificiale, cosa sono? come si inseriscono nella nostra vita quotidiana e artistica?
Sono un supporto, aiuto o portano alla distruzione delle nostra fantasia?
In che modo vanno utilizzate e come per renderle funzionali al nostro lavoro ?
A proposito questa è una delle mie 70 lezioni a Università Mercatorum, Facoltà di Economia, Corso di Laurea Comunicazione e Multimedialità su Tecnologie digitali e processi cognitivi
https://www.urbanexperience.it/eventi/digital-transformation-tecnologie-digitali-e-processi-cognitivi-a-universita-mercatorum Intelligenza artificiale
L’obiettivo della lezione è nel rilevare come l'intelligenza artificiale permetta la programmazione di sistemi digitali capaci di interpretare l’intelligenza nella sua articolazione più complessa, a partire da quella umana.
Non si tratta solo di intelligenza come capacità di calcolo o di conoscenza di dati astratti e simbolici ma elaborazione di percezioni, cognizioni e atti decisionali per ottimizzare i processi di organizzazione sociale.
Un sistema d'intelligenza artificiale si misura con le differenti forme di intelligenza espresse dalla condizione umana, per arrivare a ricreare particolari comportamenti che i sistemi digitali possono elaborare con processi di autoapprendimento come quelli del machine learning. Il punto strategico è nel creare ulteriori processi di reciprocità, cercando di orientare queste elaborazioni di dati, attraverso il processo bottom up, perchè siano il più possibile funzionali all'evoluzione umana, secondo il principio dell'innovazione adattiva.
Le intelligenze multiple
Quando si parla di intelligenza artificiale si immagina uno scenario futuribile con tecnologie che processano dati in un universo astratto e matematico, che rischia di contestualizzare la condizione umana. Ciò accadrà se non si controbilancia questa invasività procedurale con una maggiore consapevolezza nell'uso di questi sistemi intelligenti.
L’intelligenza artificiale è un campo dell’informatica che comporta la progettazione e la programmazione di sistemi digitali, sia hardware che software, che dotano le macchine di proprietà che emulano quelle umane, quali le percezioni visive e le decisioni. Si tratta non solo di intelligenza intesa come capacità di calcolo, ma soprattutto di quelle differenti forme di intelligenza riconosciute dalla teoria di Howard Gardner in quanto intelligenze multiple.
Gardner ha impostato, nel 1983, quella teoria nel libro “Frames of the Mind” (edito in Italia come “Formae mentis”) in cui sosteneva l’esistenza di diverse forme di intelligenza, articolata in sette abilità intellettive.
Secondo Gardner, i test usati per misurare l’intelligenza sono volti a rilevare soltanto due tipi di intelligenza: quella linguistica e quella logico-matematica, ma esistono in aggiunta altre cinque forme di intelligenza: l’intelligenza spaziale; l’intelligenza sociale; l’intelligenza introspettiva; l’intelligenza corporeo-cinestetica; l’intelligenza musicale.
Un sistema intelligente può essere configurato per ricreare queste differenti forme di intelligenza che possono essere ricondotte a particolari comportamenti riproducibili da alcune macchine creando dei modelli digitali.
Il sistema intelligente
L’intelligenza artificiale è contemplata già all'avvento dei computer che nel 1956 trova un preciso momento, quando fu realizzato il SAGE, un sistema dislocato su tutto il territorio degli USA, con 23 centri operativi. Fu allora che si iniziò a parlare di intelligenza artificiale definendola sistema intelligente, concependo il computer come un modello della mente.
In quella fase molte università e aziende informatiche, in particolare l’IBM, puntarono alla ricerca e allo sviluppo di software in grado di pensare e agire come gli esseri umani per ipotizzare soluzioni applicative in cerca di mercato. Nacquero così programmi informatici sempre più complessi e si sviluppò il Lisp, uno dei primi linguaggi di programmazione. Il Lisp (List Processor language: linguaggio per processare liste) è un linguaggio-macchina che nasce ad opera di John McCarthy nel 1959 che per oltre trent’anni fu alla base dei software di intelligenza artificiale.
A partire dagli anni Sessanta prese piede una tendenza per commisurarsi alla condizione umana, cercando soluzioni basate sull’evoluzione dei parametri in corso d’opera, per ragionare e prendere decisioni in base all’analisi di differenti possibilità. Si ragionò sul fatto di creare processi di elaborazione semantici per le macchine: linguaggi per programmare le diverse possibilità date da un ragionamento umano. La ricerca in questo settore fu però dirottata quasi integralmente nel grande progetto che vedeva gli USA investire il massimo delle risorse sulla messa punto della rete Internet.
Un nuovo slancio alla ricerca sull’intelligenza artificiale arrivò dal campo della ricerca biologica, quando nel 1969 i ricercatori del Carnegie Institute of Technology a Pittsburgh realizzarono DENDRAL, un linguaggio-macchina in grado di ricostruire molecole a partire dalle informazioni ottenute dallo spettrometro di massa, un sistema capace di separare gli ioni molecolari con campi elettrici e campi magnetici accoppiati.
Processi come questi erano basati sulla conoscenza profonda di determinati campi di applicazione, attivando un nuovo corso dell’intelligenza artificiale, basata sui sistemi esperti, in grado di trovare soluzioni specifiche per scenari complessi come quelli biologici.
Questa nuova era dell’intelligenza artificiale si connota con la realizzazione dell’algoritmo che permette l’apprendimento automatico per le reti neurali, una linea che comporterà anche l'interazione tra i campi informatici e quelli psicologici.
Il momento più plateale di questa fase è nel 1996, con il confronto tra Deep Blue, una macchina della IBM e Garry Kasparov, il campione sovietico del gioco degli scacchi. Kasparov vinse i primi incontri ma il sistema di auto-apprendimento di Deep Blue nel susseguirsi delle partite permise alla macchina di vincere. Il computer, nella sua elaborazione automatica, aveva non solo acquisito il know how di Kasparov ma aveva trovato soluzioni che lo stesso campione non riusciva a prevedere.
I parametri che i sistemi intelligenti seguono rappresentano alcuni aspetti del comportamento umano, come la cosiddetta conoscenza non sterile che induce decisioni non solo secondo la logica, esprimendo abilità nel risolvere problemi in maniera differente secondo diverse circostanze. Gli algoritmi possono essere programmati per impostare ragionamenti parametrati in differenti situazioni, permettendo ai sistemi intelligenti di ottimizzare le risposte pertinenti.
L’albero della decisione
Lo sviluppo di algoritmi simili, capaci di imitare i diversi comportamenti umani in relazione ai contesti differenziati ha messo in grado l'intelligenza artificiale di prendere decisioni in modo adeguato. Nel caso dei sistemi intelligenti applicati all'automotive, come nella guida di automobili senza conducente, il sistema pilota può decidere, in caso di pericolo, se sterzare o frenare a seconda della situazione, sulla base degli input dei sensori capaci di calcolare la migliore sicurezza per in caso di un fattore improvviso.
Le decisioni sono assunte da algoritmi che definiscono sia una conoscenza di base e sia una conoscenza allargata, ovvero quella generata dall’esperienza. Ciò viene definita rappresentazione della conoscenza, per cui vengono processate le diverse istanze di reattività umana e la capacità di rendere tale conoscenza comprensibile alle macchine tramite un linguaggio sempre più dettagliato. Non si tratta di trasferimento di conoscenza sterile, o meglio nozionistica, ma di esperienza che sottende la comprensione di nuove informazioni oltre quelle predefinite. Tali informazioni vengono acquisite dal computer con diverse modalità, come quelle che si basano sulla teoria dei linguaggi formali, per cui s'intende gli insiemi di stringhe (i linguaggi formali) e le loro proprietà applicate alla logica e alla linguistica e sulla teoria delle decisioni che studia le scelte degli agenti con metodo matematico-statistico, per cui da un insieme di scelte possibili si seleziona la decisione in grado di massimizzare l'utilità attesa. Nel primo caso, quando si utilizza la teoria dei linguaggi formali, si sceglie di utilizzare diversi approcci (come l’approccio generativo, riconoscitivo, denotazionale, algebrico e trasformazionale).
La teoria delle decisioni si basa su un albero di decisione che permette di valutare per ogni azione le possibili conseguenze prendendo la decisione più funzionale.
Un albero di decisione si basa su modelli predittivi a partire da una serie di informazioni iniziali predefinite per poi evolversi selezionando la gamma delle previsioni possibili. La peculiarità di questi dati permette ai sistemi intelligenti di attuare una differenziazione del feedback che si orientano verso le decisioni, con una progressiva precisione.
Un albero di decisione è un grafo di decisioni e delle relative conseguenze che ricrea un piano di azioni mirato ad uno scopo, orientando il processo decisionale (decision making).
Un albero di decisione è un modello dove ogni nodo rappresenta una variabile e si sviluppa a partire dall'insieme dei dati iniziali (data set) per poi dividersi in sottoinsiemi, come il training set sulla base del quale si crea la struttura dell'albero e il test set che va a testare l'efficacia del modello.
Machine Learning, l’autoapprendimento della macchina
Il salto di qualità dell’intelligenza artificiale è avvenuta quando si è potuto ricreare un complesso di algoritmi in grado di migliorare il comportamento della macchina stessa, capace di imparare tramite l’esperienza, proprio come nella condizione umana. Arrivare a sviluppare algoritmi in grado di imparare dai propri errori ha posto i programmatori di fronte alla complessità di prevedere la molteplicità dei contesti in cui il sistema si trova a operare. Con l’apprendimento automatico (machine learning), il computer è stato messo nelle condizioni di misurarsi con funzioni di feedback che non erano state programmate su modelli predefiniti.
La complessità dell’apprendimento automatico ha portato la teoria computazionale a misurarsi con differenti possibilità: l'apprendimento supervisionato, quello non supervisionato e quello per rinforzo.
Nell’apprendimento supervisionato al computer vengono dati gli obiettivi, delineando le relazioni tra input, output e risultato. Dall’insieme dei dati la macchina sarà in grado di elaborare una regola generale, che su precisi input rilascerà output corretto per raggiungere il goal.
Nell'apprendimento non supervisionato la macchina dovrà essere in grado di fare scelte senza essere stato impostata, per cui imparerà dai propri errori.
Le macchine che vengono impostate secondo un apprendimento per rinforzo si misurano con un ambiente dinamico in cui le caratteristiche sono variabili, quindi si raggiungerà il goal ricevendo feedback a seconda delle scelte dell'algoritmo, per cui una scelta corretta comporterà un successo mentre una scorretta un insuccesso, in un processo dinamico di stop and go.
L’apprendimento automatico si evolve nello sviluppo delle reti neurali, un modello costituito da interconnessioni costituite da neuroni artificiali che cambiano la propria struttura in base a informazioni esterne o interne che scorrono attraverso la rete stessa durante la fase di apprendimento creando un sistema adattivo.
Come nelle reti neurali biologiche, una rete neurale artificiale ha così la caratteristica di essere adattiva, ovvero di modellare la sua struttura adattandola alle necessità derivanti nelle diverse fasi di apprendimento.
Dal punto di vista matematico, una rete neurale può essere definita come una funzione composta, ossia dipendente da altre funzioni a loro volta definibili in maniera differente a seconda di ulteriori funzioni dalle quali esse dipendono. Questo significa che all’interno di una rete neurale, niente viene lasciato al caso: ogni azione del sistema intelligente sarà sempre il risultato dell’elaborazione di calcoli volti a verificare i parametri e a rilevare le incognite che insorgono per inscriverle nel thesaurus del linguaggio-macchina.
Dall’intelligent data processing all’autonomous robot
L’intelligenza artificiale è ormai sempre più presente nella quotidianità, molti dispositivi di riconoscimento vocale e gli stessi smartphone, per non parlare dei tanti sistemi di sicurezza, si basano su algoritmi di intelligenza artificiale, come quelli relativi il machine learning.
Tra i molteplici campi applicativi, l’intelligenza artificiale viene adoperata massicciamente nel mercato azionario, nella medicina e, ovviamente nella robotica.
Un campo è quello dell’intelligent data processing per cui si analizzano dati per estrapolare informazioni e compiere azioni conseguenti, come nell’analisi predittiva (analisi di dati per fornire previsioni sull’andamento futuro di un determinato fenomeno) e il rilevamento di frodi (identificazione di elementi non conformi a un modello previsto).
I virtual assistant attraverso cui agenti software possono svolgere funzioni in base a comandi ricevuti in maniera vocale o testuale come accade con le chatbot, sistemi sempre più usati nel customer care aziendale come primo livello di assistenza con il clienti.
Recommendation: applicazioni di intelligenza artificiale che indirizzano le scelte degli utenti in base ad informazioni da essi fornite, come quei sistemi che suggeriscono un acquisto in base a quelli precedenti, influenzando così il customer journey e, più in generale, il processo decisionale dell’utente.
Image processing, soluzioni che analizzano immagini statiche o video per il riconoscimento di oggetti o persone, come quelle utilizzate nell’ambito della videosorveglianza, dove l’analisi delle immagini permette di individuare eventuali situazioni anomale o di pericolo.
Autonomous vehicle, applicazione per i mezzi di trasporto autoguidati, destinato alla navigazione non solo su strada, ma anche marittima, fluviale e aerea.
Intelligent object, oggetti in grado di compiere azioni senza l’intervento umano e di prendere decisioni in base alle condizioni dell’ambiente circostante, come la valigia intelligente che, attraverso una connessione bluetooth o rfid, può rilevare la posizione del proprietario, riconoscendolo.
Language processing, soluzioni che elaborano il linguaggio con finalità come la comprensione del testo e la traduzione.
Autonomous robot, applicazioni robotiche come le soluzioni industriali per l’automazione di processi produttivi e logistici, o i robot destinati al mercato civile, come gli assistenti alla vendita presenti all’interno di negozi per fornire informazioni ai clienti.
Vi sono inoltre molteplici campi di applicazione medica in cui l’intelligenza artificiale sta facendo la differenza.
Oggi infatti è possibile diagnosticare con maggiore accuratezza la polmonite e particolari disfunzioni come quella dell’autismo in un bambino, con l’analisi computazionale delle scansioni cerebrali. Sembra infatti che il cervello di una persona autistica abbia un volume maggiore e che questo incremento si verifichi attorno al primo anno di età. È così possibile grazie all’intelligenza artificiale diagnosticare la patologia prima dell’anno di vita, mentre non viene diagnosticata se non tra il secondo e terzo anno di vita di un bambino, ed intervenire così sin da subito.
Inoltre, grazie all’analisi di oltre 10 anni di dati raccolti su pazienti che hanno avuto infarti o ictus nel Regno Unito, l'intelligenza artificiale è in grado di prevedere con maggiore certezza se un paziente sarà colpito da una di queste due patologie e anche definire un arco temporale entro il quale questo evento potrebbe avvenire.
Va tenuto conto che l’uso sistematico dell’intelligenza artificiale rivoluzionerà gli scenari produttivi, si perderanno posti di lavoro (come è già accaduto nelle catene di montaggio industriali con l'avvento dei sistemi robotici) ma è certo che si creeranno nuove opportunità con nuove tipologie di figure professionali e fondamentalmente uan riconfigurazione del codice etico nella relazione tra uomo e macchina.
La Commissione europea in tal senso sta sviluppando una linea d’indirizzo con il documento “Ethics guidelines for trustworthy AI”, con l’obiettivo di impostare una policy comunitaria per definire le strategie di sviluppo dell’Unione Europea nel campo dell’intelligenza artificiale.
Non avrebbe senso la dicotomia tra uomo e macchina, va contemplata bensì una strategia che contestualizzi questi processi che vedono protagonisti i sistemi intelligenti, per rendere possibile quell’innovazione adattiva basata sulla progettazione che nasce dal basso delle applicazioni sociali, secondo il principio bottom up, dell’intelligenza artificiale, come aveva teorizzato anni fa Domenico Parisi dell’Istituto di Psicologia del CNR trattando di vita artificiale.
La vita artificiale
Già nel 2005 Domenico Parisi pose il suo programma di ricerca sulla vita artificiale al CNR, distinguendola dall”intelligenza artificiale classica.
Mentre l’intelligenza artificiale classica segue un approccio top down al modellamento dell”intelligenza, concentrandosi su aspetti quali linguaggio e ragionamento, la vita artificiale cerca di modellare aspetti propriocettivi quali la sensibilità corporea e l'emozione.
L’intelligenza artificiale si basa sul principio funzionalista della realizzabilità multipla ignorando deliberatamente il substrato neurologico, la vita artificiale si ispira al funzionamento del sistema nervoso attraverso lo studio delle reti neurali.
L’intelligenza artificiale non considera nei suoi studi il corpo del sistema artificiale, mentre la vita artificiale colloca il sistema intelligente in un contesto ecologico per studiarne il comportamento in modo globale.
La Vita Artificiale studia il comportamento in modo unitario e olistico mentre l’intelligenza artificiale classica modella il comportamento per compartimenti stagni.
L’intelligenza artificiale classica è raziocentrica, occidentocentrica e antropocentrica per il fatto di studiare l”intelligenza solo in quanto un misto di logica e linguaggio, la vita artificiale studia l”intelligenza con un approccio bottom-up, ed è aperta alla considerazione di tutti gli attributi dell”agire intellettivo. (da “Sistemi Intelligenti”, 2005)