Il Mit sperimenta un algoritmo in grado di stabilire con anticipo il modo di agire e pensare di una persona
Dal Mit, il più importante istituto di ricerca al mondo che si occupa di tecnologia, arriva la macchina che attraverso un algoritmo è in grado di prevedere il comportamento umano. A realizzarla un team di ricercatori dell’Università del Massachusetts (La Repubblica, 7 dicembre).
Come tutti i meccanismi di data science (cioè di analisi scientifica di grandi set di dati), spiega La Repubblica, il dispositivo è pensato per estrarre informazioni, individuare pattern e relazioni da grandi database – come quelli sugli utenti di un sito internet (ad esempio Google e Facebook) -, e di estrapolare previsioni autonomamente.
Di regola, ad affiancare una macchina in questa attività c’è un operatore umano, che deve scegliere gli elementi rilevanti, chiamati variabili, tra quelli immagazzinati nel database (come ad esempio età, sesso, o formazione scolastica degli utenti di un sito internet), intuire quali correlazioni potrebbero nascondervisi (abitudini, tipo di acquisti, preferenze politiche o culturali) e chiedere poi al computer di effettuare i calcoli.
I ricercatori dell’Mit hanno però sviluppato una tecnica, definita Deep Feature Synthesis, che permette alla macchina di individuare da sola le variabili rilevanti all’interno di un database, e di intuire come utilizzarle.
IL DECLINO DOPO EINSTEIN
«Ma la questione non è nuova – sottolinea ad Aleteia padre Paolo Benanti, docente di Teologia morale e Bioetica alla Pontificia Università Gregoriana di Roma -: non è altro che l’evoluzione di una crisi della scienza iniziata nel Novecento. Da Einstein in poi si sono sviluppate poche teorie e molti progressi tecnologici».
COLLEZIONI GIGANTESCHE DI DATI
Secondo padre Benanti «i grandi problemi dell’uomo ormai li affrontiamo grazie ai petaflop, collezioni gigantesche di dati, database immensi. E ci siamo messi in testa che mettendo i dati in correlazione, invece di sviluppare teorie scientifiche, possiamo cercare degli schemi, dei pattern, per prevedere cosa succede. Ma senza conoscere la causa che genera quel fenomeno».
IL CASO DELL’INFLUENZA SUINA
Nel caso della macchina del Mit che prevede il comportamento umano si sta sviluppando un’operazione simile. «La potenza della correlazione di dati è immensa. Nel 2009 ero all’Università Georgetown University presso il Center Clinical of Bioetics. Era il periodo in cui si temeva la pandemia a causa del virus H1N1, quello dell’influenza suina. Il National Institutes of Health (NIH), l’istituto superiore di sanità, con il quale collaboravamo, ricevette da Google degli algoritmi attraverso i quali, con ricerche in tempo reale sui database di Google, si prevedeva chi e dove poteva ammalarsi del virus. Allora si riusciva a risalire correttamente a queste informazioni, senza tuttavia capire la causa del virus».
ANTI-CRIMINE
Il teologo fa anche l’esempio, sempre grazie alla correlazione di grandi “cassaforti” di dati, di come si possa risalire persino a dove vengono commessi i crimini. «Su un sistema di previsioni, molto efficace, lavora la polizia di Los Angeles che viene a sapere con molto anticipo l’area del potenziale fatto criminoso».
MANCA LO STUDIO DELLE CAUSE
Le potenzialità dei cosiddetti Big Data sono immense. «Il problema è che se nella capacità di prevedere i dati stiamo crescendo a dismisura. Non cresciamo però da un punto di vista scientifico, cioè nel risalire alle causa. Insomma…posso anche capire chi e quando si morirà, ma un vero sviluppo umano ci sarà quando si conosceranno le cause di questa sofferenza che vive l’uomo quando lascia il mondo terreno. Cioè il rischio limite è quello di arrivare a pensare che risolviamo ogni problema con dati ed equazioni».
GABBIE INVISIBILI
E qui sorge un problema etico. «Ben venga l’applicazione dei Big Data per debellare un virus, un crimine, ma diventano pericolosi se pensiamo di utilizzarli per azioni che hanno a che fare con la libertà dell’uomo. Costruiamo gabbie invisibili nei quali collochiamo l’uomo e ne controlliamo le azioni: questo è il pensiero sbagliato. Ne parla anche Papa Francesco in Laudato Sii, quando accenna al concetto di tecnocrazia. Il progresso che non diviene sviluppo umano rende i Big Data un rischio per l’uomo e per la sua libertà».
LIBERO ARBITRIO
Per padre Benanti la previsione dei comportamenti e il libero arbitrio dell’uomo non sono però incompatibili. «La compatibilità c’è perché l’esito di una correlazione stabilisce un nesso, una probabilità con cui una determinata cosa accade, ma non vincola l’azione dell’uomo affinché quella cosa debba per forza accadere».