Quello che segue è uno scambio di email datate 2016 in cui si esplora la possibilità di metter su una mostra di arte post-umana. Con lavori non soltanto realizzati ma anche concepiti dalla “Macchina”.
MB: Ciao Riccardo,
eccoti con questa email il bandolo da cui nei prossimi mesi proveremo a dipanare la matassa proverbiale.
Prima di tutto, però, dovremmo stabilire certe regole così da renderci la vita il più possibile semplice quando saremo arrivati alle conclusioni che speriamo siano illuminanti (…)
(…) Ribadendo che siamo già convenuti sul fatto che la non-presenza di artisti sarà il punto focale della mostra – giacché tutte le opere esposte saranno realizzate da macchine e non da esseri umani – dovremmo, da subito, chiarire un punto fondamentale, cioè il seguente. Di mostre di arte (soprattutto contemporanea e soprattutto degli ultimi decenni) sviluppate attorno all’idea di opera prodotta dalle macchine, ce ne sono state svariate, soprattutto negli ultimi anni.
Sull’unghia mi vengono in mente i nomi di Keith Tyson, James Capper, Arcangelo Sassolino. Tutti artisti che lavorano con macchine e robot, con intenti e risultati anche molto diversi tra loro. Chi divertendosi a stupire un pubblico di appassionati d’arte non aduso agli effetti speciali, chi, invece per suggerire la fine della “nostra” o forse, piuttosto, l’avvento prossimo di una nuova società. Diciamo qualcosa a là Metropolis o Blade runner, per capirci. E poi ancora altri artisti come Roxy Paine e Piero Golia che hanno un approccio più intelletuale, concettuale diremmo.
Golia recentemente alla fondazione Memmo di Roma ha realizzato un’installazione in cui tre bracci meccanici dipingevano su altrettante tele. Mentre Roxy Paine da più di un decennio, ormai, allestisce mostre in cui dei veri e propri macchinari industriali producono davanti agli occhi sgranati del pubblico una serie di sculture o più raramente di dipinti.
Ciononostante in tutti questi casi il ruolo dell’artista rimane centrale. L’artista è il protagonista della mostra che, infatti, porta il suo nome. La macchina esegue ciò per cui è stata programmata creando il lavoro così come è stato progettato dall’artista, secondo le sue “indicazioni”. La macchina non crea ma esegue. Non è mai dotata di reale autonomia. Non vi è accenno ad un’idea di senzienza del robot né del cervello elettronico (termine ormai così anacronistico!) che lo controlla.
L’idea di libero arbitrio non è mai contemplata in nessuno di questi lavori. Al massimo “l’imprevisto” viene lasciato alla casualità laddove la macchina è, volutamente o a volte per semplice ignavia, progettata per seguire delle linee di massima all’interno delle quali lasciare che sia il caso a “decidere”. All’imprevisto, cioè. Diciamo come se versassi della vernice su una superficie irregolare, e magari inclinata, lasciando che segua il suo percorso naturale di cui è normalmente impossibile prevedere ogni variabile.
Penso che noi due, invece, dovremmo cercare di ragionare proprio in termini di libero arbitrio, di intelligenza artificiale, di macchina senziente, appunto. Cioè dovremmo partire da questo concetto e mantenerlo centrale con tutta l’ossessività che saremo capaci di sopportare.
Inoltre c’è da tenere a mente che, come sai bene, nel corso dei secoli molti ingegneri e inventori si sono dedicati alla realizzazione di macchine e robot dei più svariati tipi sin da tempi remoti. Basti pensare ai marchingegni che Archita di Taranto progettava addirittura nel IV e V secolo avanti Cristo.
Oppure, più recentemente (nel XIX secolo), a Innocenzo Manzetti. Tuttavia anche in questi casi c’è un “ma”, non essendoci alcun intento artistico ma soltanto emulativo della natura. Che poi si potrebbe dire sia il sogno a monte del concetto stesso di scienza. Replicare artificialmente, attraverso l’ingegno, ciò che Dio o il Creatore a cui preferisci attribuire l’inizio di tutto.
Insomma, caro Riccardo, mi pare d’averti ammorbato abbastanza, adesso a te la parola.
Manfredi
PS: Ricordami di raccontarti della fotografa di Hong Kong nella prox email. Non pensar male… è attinente!
RC: [ CONERSAZIONE TELEFONICA SFORTUNATAMENTE NON REGISTRATA ]
MB: Congratulazioni per l’articolo del Fatto!
Stavo pensando che forse il punto d’arrivo potrebbe essere l’arte nell’era post-umana. Cioè l’uomo da poco non esiste più ma le “macchine” hanno scoperto l’importanza dell’arte. Forse nel tentativo di ricreare per se le emozioni che provava l’essere umano. Una specie di retroingegneria al contrario. Oppure, se l’uomo realmente finisse per integrarsi totalmente con le “macchine”, queste avrebbero un patrimonio genetico in parte umano…
RC: Ciao Manfredi,
Ti lascio le mie prime impressioni a caldo. L’idea di fare il passo finale e togliere gli artisti dal palcoscenico dell’arte mi pare, a questo punto, un passo necessario, doveroso. Non perché io ritenga che non vi sia più futuro per l’arte, ma perché gli artisti e i critici non possono continuare a restare chiusi in una torre d’avorio. Se si pone la questione della fine del lavoro, o addirittura della fine dell’uomo, è doveroso porre con tutta la forza possibile la questione della fine dell’artista. Cosi’ come ci si muove verso il post-umano, ci si muove di necessita’ verso il post-artista. Se l’artista vuole competere con le macchine, deve potenziarsi. Tanto più che i critici, da decenni, hanno decretato la fine dell’arte, la fine dell’opera d’arte, intesa in modo tradizionale. E gli artisti si sono adattati alla situazione. Non si può pensare di decretare la fine dell’arte e continuare a giocare intorno all’altare dell’arte, nella veste di critici o di artisti. Questo gioco ha ridotto l’arte ad operazione mediatica. Ecco, io vedo l’idea di un’esposizione d’opere d’arte senza artisti come qualcosa che va ben oltre la mera provocazione. Non deve essere l’ennesima provocazione che lascia il tempo che trova. L’artista si propone al mondo come l’esemplare d’uomo più libero e creativo – e dunque insostituibile. In realtà, per quanto l’artista cerchi di fuggire ai cliché è sempre prigioniero degli stessi. Oggi, se un artista volesse essere davvero originale, se volesse davvero cantare fuori dal coro, dovrebbe dipingere come Michelangelo. Ma nessuno lo fa. Ciò che fa l’artista odierno può essere prodotto da una macchina. Non riprodotto, ma prodotto. L’intelligenza artificiale è già capace di produrre un comportamento imprevedibile, ossia non programmato. A nulla vale l’argomento che la macchina, a differenza dell’uomo, non è cosciente. Che si possa trattare in modo dicotomico la questione della coscienza (c’è / non c’è) è frutto di una visione dualistica, fortemente radicata nella cultura occidentale, che non trova necessariamente riscontro nella realtà. Così come molti sono oggi propensi a riconoscere che anche gli animali posseggono un certo grado di coscienza, in altre culture extraeuropee sono già pronti a riconoscere che essa è presente anche nelle macchine, quand’anche a livello della coscienza di un insetto. È rimasto famoso un dibattito negli anni novanta tra David Chalmers e Christof Koch in cui si dibatteva la realtà della coscienza. Il primo sosteneva che non è insensato postulare che l’informazione abbia uno status ontologico, come la materia e l’energia. Il secondo negava questa posizione e finiva chiedendo a Chalmers: “Come faccio a sapere che lei è cosciente?”. Il senso della domanda era che noi assumiamo che gli altri abbiano le stesse esperienze soggettive che noi abbiamo, ma non ne abbiamo certezza. Commentando il dialogo, il giornalista scientifico John Horgan scrisse: “After all, one can certainly imagine a world of androids that resemble humans in every respect- except that they do not have conscious experience of the world.” In fondo potremmo già essere in questo mondo di androidi, in una sorta di Matrix, senza saperlo. Possiamo scacciare lo spettro del solipsismo soltanto attraverso un postulato: che chi ci circonda è dotato di coscienza. Nulla però vieta di fare la stessa assunzione a riguardo delle macchine più sofisticate. Quello che è un comportamento random, imprevedibile, potrebbe in realtà essere un comportamento libero. Andrò più nei dettagli della questione nei prossimi messaggi.
MB: Ti ribatto punto per punto.
- “L’idea di fare il passo finale e togliere gli artisti dal palcoscenico dell’arte mi pare, a questo punto, un passo necessario, doveroso. Non perché io ritenga che non vi sia più futuro per l’arte, ma perché gli artisti e i critici non possono continuare a restare chiusi in una torre d’avorio.“
La figura dell’artista (per quello che significhi oggi) sparirà con l’uomo, presto o tardi. L’arte invece continuerà ad esistere non fosse altro per ciò che ha sin quì significato nell’evoluzione dell’uomo (forse più di scienza e filosofia). O forse, chi può dirlo, perché le macchine avranno realmente acquisito una coscienza autonoma.
- “Oggi, se un artista volesse essere davvero originale, se volesse davvero cantare fuori dal coro, dovrebbe dipingere come Michelangelo. Ma nessuno lo fa.”
Questo punto è discutibile. Moltissimi artisti (pittori) oggi possono dipingere come Michelangelo grazie all’ausilio della tecnologia. Lui stesso faceva quello che ai suoi tempi facevano tutti, o quasi, cioè la pittura manierista eppure tu 500 anni più tardi sei qui a citarlo come un esempio. Qui si dovrebbe aprire una discussione sulla visibilità nell’arte ma… magari più in là.
- “Ciò che fa l’artista odierno può essere prodotto da una macchina. Non riprodotto, ma prodotto.”
Sappi che moltissimi dei lavori (o se preferisci “opere d’arte”) che affollano musei, gallerie, e pubbliche piazze, oggi di lavoro umano non portano in se alcuna traccia essendo prodotti da macchine che siano esse robot collegati a un pc o anche soltanto quest’ultimo. Pensa per esempio ai macchinari che si utilizzano a Carrara per la realizzazione di sculture di marmo, oppure all’elaborazione di certi progetti di grafica.
E per finire…
- Il giornalista scientifico John Horgan scrisse: “After all, one can certainly imagine a world of androids that resemble humans in every respect- except that they do not have conscious experience of the world.”
Siamo sicuri che l’affermazione di Horgan sia corretta? Mi viene subito in mente il caso del computer Watson* in cui si è supplito alla mancanza di “coscienza del mondo (circostante) e della vita (intesa come vissuto)” e quindi dell’ompossibilità di apprendere attraverso l’esperienza, si è supplito a queste mancanze, dicevo, attraverso l’immissione di una quantità gigantesca di dati enciclopedici. Il risultato, come sappiamo, è stato sbalorditivo.
Quindi la mia domanda è (in sintonia con Koch): siamo proprio sicuri che la nostra coscienza (quella umana) non sia semplicemente un’illusione o un fraintendimento come quando, ad esempio, classifichiamo il miele come prodotto naturale e la plastica come artificiale, mentre entrambi sono il risultato della trasformazione di materie naturali? Può darsi che, invece, la nostra coscienza sia, per quanto raffinata, nient’altro che il frutto dell’elaborazione di una grande quantità di nozioni? Ciò lascerebbe ipotizzare che lo stesso possano fare le macchine in un futuro prossimo.
RC: Il riferimento di Horgan e’ corretto (The End of Science, p. 181), ma questa affermazione non ci dovrebbe stupire. Se scriviamo un documento sull’Intelligenza Artificiale dobbiamo mostrare consapevolezza dei seguenti fatti:
- La maggioranza degli esseri umani (almeno nell’emisfero occidentale) pensa che le macchine NON siano coscienti. Credono che al massimo si possono costruire macchine che sembrano coscienti.
- Molti ingegneri della Silicon Valley sono convinti che IN FUTURO sara’ possibile creare la macchina cosciente. Diversi computer scientists lavorano a questo progetto, ma nessuno sostiene di avere gia’ costruito una macchina con una coscienza di tipo umano.
- Non mancano ingegneri che affermano che gia’ ora le macchine hanno una forma di coscienza (paragonabile a quella degli insetti).
- I comportamenti che sembrano creativi da parte delle macchine dipendono comunque da software, anche se si tratta di decisioni random. Se si postula che – comunque – anche il comportamento umano dipende da un sofware e che la maggior parte dei nostri comportamenti sono schematici, possiamo certamente sollevare il DUBBIO che le macchine che facciamo dipingere “sappiano” quello che fanno.
- Sollevare un dubbio e’ gia’ tanto, vista la convinzione diffusa. Ma sollevare un dubbio e’ diverso da proclamare una certezza. La certezza la lascerei ai dogmatici.
- Si puo’ anche aprire il capitolo del postumano. Ovvero dell’artista che coincide con l’opera d’arte. L’artista che modifica il proprio corpo innestando dispositivi tecnologici potenzianti. Qui il capostipite e’ sicuramente Stelarc.
. . .
MB: Questa nostra conversazione spazio-temporalmente (Cracovia, Palermo, Roma, Mantova, Los Angeles, Città del Messico,…) dilatata nasce proprio dalla mancanza di certezze e lo scopo è proprio quello di fare il più possibile chiarezza laddove al momento esiste al massimo qualche dubbio. Il dogma essendo, proprio per definizione, l’opposto della conclusione logica, non fa al nostro caso.
Riguardo l’esperienza di Sterlac e affini, essa attiene non tanto al postumano quanto al transumano, a mio modo di vedere. Infatti la presenza della figura umana rimane centrale nel suo lavoro mentre nel concetto di postumano non dovrebbe esserci spazio per la presenza fisica dell’essere umano. Sbaglio?
Quella dell’artista che coincide con l’opera d’arte è una conseguenza della disperazione generata dalla presa di coscienza di essere tremendamente vicini ad un punto di non ritorno nell’integrazione uomo-macchina. Mi pare puro romanticismo.
Può anche darsi che “i comportamenti che sembrano creativi da parte delle macchine dipendono comunque da software” ma come ti poni rispetto ai “comportamenti creativi” di una macchina che è stata progettata dalla “creatività” di un’altra macchina? così fosse come interpreteresti i comportamenti di una il cui software è stato progettato dalla “creatività” di un’altra macchina?
Potrebbe darsi che da qualche parte nel mondo ci siano già delle macchine di questo tipo e magari di decima, centesima generazione. In questo caso dell’iniziale intervento umano le tracce sarebbero, molto probabilmente, talmente diluite da risultare di difficile identificazione. Potrebbero rimanere presenti nel patrimonio genetico della macchina e magari, in seguito riaffiorare come i caratteri atavici d’un essere vivente.
RC: Sulle questioni “filosofiche” ti rispondo con calma tra qualche giorno. Domani parto per l’Africa e non mi portero’ il lavoro. Credo comunque che abbiamo gia’ trovato una sintonia. Per venire all’aspetto pratico, a questo punto, invece di invitare artisti, dovremmo trovare delle aziende in grado di mettere in campo robot capaci di produrre opere d’arte. Trattandosi di una esposizione prestigiosa, che – anche per la scelta “postumana” – promette di attirare l’attenzione dei media e di scatenare molte polemiche, le aziende potrebbero vederla come una vetrina. Servirebbero macchine evolute, come Atlas della Boston Dynamics.
MB: Su questo punto pensavo fossimo già d’accordo sin dall’inizio. E comunque… ho trovato questo articolo apparso su MIT Technology Review l’11 aprile a firma Will Knight:
Intelligent Machines
THE DARK SECRET AT THE HEART OF AI
No one really knows how the most advanced algorithms do what they do. That could be a problem.
by Will Knight
April 11, 2017
Last year, a strange self-driving car was released onto the quiet roads of Monmouth County, New Jersey. The experimental vehicle, developed by researchers at the chip maker Nvidia, didn’t look different from other autonomous cars, but it was unlike anything demonstrated by Google, Tesla, or General Motors, and it showed the rising power of artificial intelligence. The car didn’t follow a single instruction provided by an engineer or programmer. Instead, it relied entirely on an algorithm that had taught itself to drive by watching a human do it.
Getting a car to drive this way was an impressive feat. But it’s also a bit unsettling, since it isn’t completely clear how the car makes its decisions. Information from the vehicle’s sensors goes straight into a huge network of artificial neurons that process the data and then deliver the commands required to operate the steering wheel, the brakes, and other systems. The result seems to match the responses you’d expect from a human driver. But what if one day it did something unexpected—crashed into a tree, or sat at a green light? As things stand now, it might be difficult to find out why. The system is so complicated that even the engineers who designed it may struggle to isolate the reason for any single action. And you can’t ask it: there is no obvious way to design such a system so that it could always explain why it did what it did.
The mysterious mind of this vehicle points to a looming issue with artificial intelligence. The car’s underlying AI technology, known as deep learning, has proved very powerful at solving problems in recent years, and it has been widely deployed for tasks like image captioning, voice recognition, and language translation. There is now hope that the same techniques will be able to diagnose deadly diseases, make million-dollar trading decisions, and do countless other things to transform whole industries.
But this won’t happen—or shouldn’t happen—unless we find ways of making techniques like deep learning more understandable to their creators and accountable to their users. Otherwise it will be hard to predict when failures might occur—and it’s inevitable they will. That’s one reason Nvidia’s car is still experimental.
Already, mathematical models are being used to help determine who makes parole, who’s approved for a loan, and who gets hired for a job. If you could get access to these mathematical models, it would be possible to understand their reasoning. But banks, the military, employers, and others are now turning their attention to more complex machine-learning approaches that could make automated decision-making altogether inscrutable. Deep learning, the most common of these approaches, represents a fundamentally different way to program computers. “It is a problem that is already relevant, and it’s going to be much more relevant in the future,” says Tommi Jaakkola, a professor at MIT who works on applications of machine learning. “Whether it’s an investment decision, a medical decision, or maybe a military decision, you don’t want to just rely on a ‘black box’ method.”
There’s already an argument that being able to interrogate an AI system about how it reached its conclusions is a fundamental legal right. Starting in the summer of 2018, the European Union may require that companies be able to give users an explanation for decisions that automated systems reach. This might be impossible, even for systems that seem relatively simple on the surface, such as the apps and websites that use deep learning to serve ads or recommend songs. The computers that run those services have programmed themselves, and they have done it in ways we cannot understand. Even the engineers who build these apps cannot fully explain their behavior.
This raises mind-boggling questions. As the technology advances, we might soon cross some threshold beyond which using AI requires a leap of faith. Sure, we humans can’t always truly explain our thought processes either—but we find ways to intuitively trust and gauge people. Will that also be possible with machines that think and make decisions differently from the way a human would? We’ve never before built machines that operate in ways their creators don’t understand. How well can we expect to communicate—and get along with—intelligent machines that could be unpredictable and inscrutable? These questions took me on a journey to the bleeding edge of research on AI algorithms, from Google to Apple and many places in between, including a meeting with one of the great philosophers of our time.
In 2015, a research group at Mount Sinai Hospital in New York was inspired to apply deep learning to the hospital’s vast database of patient records. This data set features hundreds of variables on patients, drawn from their test results, doctor visits, and so on. The resulting program, which the researchers named Deep Patient, was trained using data from about 700,000 individuals, and when tested on new records, it proved incredibly good at predicting disease. Without any expert instruction, Deep Patient had discovered patterns hidden in the hospital data that seemed to indicate when people were on the way to a wide range of ailments, including cancer of the liver. There are a lot of methods that are “pretty good” at predicting disease from a patient’s records, says Joel Dudley, who leads the Mount Sinai team. But, he adds, “this was just way better.”
At the same time, Deep Patient is a bit puzzling. It appears to anticipate the onset of psychiatric disorders like schizophrenia surprisingly well. But since schizophrenia is notoriously difficult for physicians to predict, Dudley wondered how this was possible. He still doesn’t know. The new tool offers no clue as to how it does this. If something like Deep Patient is actually going to help doctors, it will ideally give them the rationale for its prediction, to reassure them that it is accurate and to justify, say, a change in the drugs someone is being prescribed. “We can build these models,” Dudley says ruefully, “but we don’t know how they work.”
Artificial intelligence hasn’t always been this way. From the outset, there were two schools of thought regarding how understandable, or explainable, AI ought to be. Many thought it made the most sense to build machines that reasoned according to rules and logic, making their inner workings transparent to anyone who cared to examine some code. Others felt that intelligence would more easily emerge if machines took inspiration from biology, and learned by observing and experiencing. This meant turning computer programming on its head. Instead of a programmer writing the commands to solve a problem, the program generates its own algorithm based on example data and a desired output. The machine-learning techniques that would later evolve into today’s most powerful AI systems followed the latter path: the machine essentially programs itself.
At first this approach was of limited practical use, and in the 1960s and ’70s it remained largely confined to the fringes of the field. Then the computerization of many industries and the emergence of large data sets renewed interest. That inspired the development of more powerful machine-learning techniques, especially new versions of one known as the artificial neural network. By the 1990s, neural networks could automatically digitize handwritten characters.
But it was not until the start of this decade, after several clever tweaks and refinements, that very large—or “deep”—neural networks demonstrated dramatic improvements in automated perception. Deep learning is responsible for today’s explosion of AI. It has given computers extraordinary powers, like the ability to recognize spoken words almost as well as a person could, a skill too complex to code into the machine by hand. Deep learning has transformed computer vision and dramatically improved machine translation. It is now being used to guide all sorts of key decisions in medicine, finance, manufacturing—and beyond.
The workings of any machine-learning technology are inherently more opaque, even to computer scientists, than a hand-coded system. This is not to say that all future AI techniques will be equally unknowable. But by its nature, deep learning is a particularly dark black box.
You can’t just look inside a deep neural network to see how it works. A network’s reasoning is embedded in the behavior of thousands of simulated neurons, arranged into dozens or even hundreds of intricately interconnected layers. The neurons in the first layer each receive an input, like the intensity of a pixel in an image, and then perform a calculation before outputting a new signal. These outputs are fed, in a complex web, to the neurons in the next layer, and so on, until an overall output is produced. Plus, there is a process known as back-propagation that tweaks the calculations of individual neurons in a way that lets the network learn to produce a desired output.
The many layers in a deep network enable it to recognize things at different levels of abstraction. In a system designed to recognize dogs, for instance, the lower layers recognize simple things like outlines or color; higher layers recognize more complex stuff like fur or eyes; and the topmost layer identifies it all as a dog. The same approach can be applied, roughly speaking, to other inputs that lead a machine to teach itself: the sounds that make up words in speech, the letters and words that create sentences in text, or the steering-wheel movements required for driving.
Ingenious strategies have been used to try to capture and thus explain in more detail what’s happening in such systems. In 2015, researchers at Google modified a deep-learning-based image recognition algorithm so that instead of spotting objects in photos, it would generate or modify them. By effectively running the algorithm in reverse, they could discover the features the program uses to recognize, say, a bird or building. The resulting images, produced by a project known as Deep Dream, showed grotesque, alien-like animals emerging from clouds and plants, and hallucinatory pagodas blooming across forests and mountain ranges. The images proved that deep learning need not be entirely inscrutable; they revealed that the algorithms home in on familiar visual features like a bird’s beak or feathers. But the images also hinted at how different deep learning is from human perception, in that it might make something out of an artifact that we would know to ignore. Google researchers noted that when its algorithm generated images of a dumbbell, it also generated a human arm holding it. The machine had concluded that an arm was part of the thing.
Further progress has been made using ideas borrowed from neuroscience and cognitive science. A team led by Jeff Clune, an assistant professor at the University of Wyoming, has employed the AI equivalent of optical illusions to test deep neural networks. In 2015, Clune’s group showed how certain images could fool such a network into perceiving things that aren’t there, because the images exploit the low-level patterns the system searches for. One of Clune’s collaborators, Jason Yosinski, also built a tool that acts like a probe stuck into a brain. His tool targets any neuron in the middle of the network and searches for the image that activates it the most. The images that turn up are abstract (imagine an impressionistic take on a flamingo or a school bus), highlighting the mysterious nature of the machine’s perceptual abilities.
We need more than a glimpse of AI’s thinking, however, and there is no easy solution. It is the interplay of calculations inside a deep neural network that is crucial to higher-level pattern recognition and complex decision-making, but those calculations are a quagmire of mathematical functions and variables. “If you had a very small neural network, you might be able to understand it,” Jaakkola says. “But once it becomes very large, and it has thousands of units per layer and maybe hundreds of layers, then it becomes quite un-understandable.”
In the office next to Jaakkola is Regina Barzilay, an MIT professor who is determined to apply machine learning to medicine. She was diagnosed with breast cancer a couple of years ago, at age 43. The diagnosis was shocking in itself, but Barzilay was also dismayed that cutting-edge statistical and machine-learning methods were not being used to help with oncological research or to guide patient treatment. She says AI has huge potential to revolutionize medicine, but realizing that potential will mean going beyond just medical records. She envisions using more of the raw data that she says is currently underutilized: “imaging data, pathology data, all this information.”
After she finished cancer treatment last year, Barzilay and her students began working with doctors at Massachusetts General Hospital to develop a system capable of mining pathology reports to identify patients with specific clinical characteristics that researchers might want to study. However, Barzilay understood that the system would need to explain its reasoning. So, together with Jaakkola and a student, she added a step: the system extracts and highlights snippets of text that are representative of a pattern it has discovered. Barzilay and her students are also developing a deep-learning algorithm capable of finding early signs of breast cancer in mammogram images, and they aim to give this system some ability to explain its reasoning, too. “You really need to have a loop where the machine and the human collaborate,” -Barzilay says.
The U.S. military is pouring billions into projects that will use machine learning to pilot vehicles and aircraft, identify targets, and help analysts sift through huge piles of intelligence data. Here more than anywhere else, even more than in medicine, there is little room for algorithmic mystery, and the Department of Defense has identified explainability as a key stumbling block.
David Gunning, a program manager at the Defense Advanced Research Projects Agency, is overseeing the aptly named Explainable Artificial Intelligence program. A silver-haired veteran of the agency who previously oversaw the DARPA project that eventually led to the creation of Siri, Gunning says automation is creeping into countless areas of the military. Intelligence analysts are testing machine learning as a way of identifying patterns in vast amounts of surveillance data. Many autonomous ground vehicles and aircraft are being developed and tested. But soldiers probably won’t feel comfortable in a robotic tank that doesn’t explain itself to them, and analysts will be reluctant to act on information without some reasoning. “It’s often the nature of these machine-learning systems that they produce a lot of false alarms, so an intel analyst really needs extra help to understand why a recommendation was made,” Gunning says.
This March, DARPA chose 13 projects from academia and industry for funding under Gunning’s program. Some of them could build on work led by Carlos Guestrin, a professor at the University of Washington. He and his colleagues have developed a way for machine-learning systems to provide a rationale for their outputs. Essentially, under this method a computer automatically finds a few examples from a data set and serves them up in a short explanation. A system designed to classify an e-mail message as coming from a terrorist, for example, might use many millions of messages in its training and decision-making. But using the Washington team’s approach, it could highlight certain keywords found in a message. Guestrin’s group has also devised ways for image recognition systems to hint at their reasoning by highlighting the parts of an image that were most significant.
One drawback to this approach and others like it, such as Barzilay’s, is that the explanations provided will always be simplified, meaning some vital information may be lost along the way. “We haven’t achieved the whole dream, which is where AI has a conversation with you, and it is able to explain,” says Guestrin. “We’re a long way from having truly interpretable AI.”
It doesn’t have to be a high-stakes situation like cancer diagnosis or military maneuvers for this to become an issue. Knowing AI’s reasoning is also going to be crucial if the technology is to become a common and useful part of our daily lives. Tom Gruber, who leads the Siri team at Apple, says explainability is a key consideration for his team as it tries to make Siri a smarter and more capable virtual assistant. Gruber wouldn’t discuss specific plans for Siri’s future, but it’s easy to imagine that if you receive a restaurant recommendation from Siri, you’ll want to know what the reasoning was. Ruslan Salakhutdinov, director of AI research at Apple and an associate professor at Carnegie Mellon University, sees explainability as the core of the evolving relationship between humans and intelligent machines. “It’s going to introduce trust,” he says.
Just as many aspects of human behavior are impossible to explain in detail, perhaps it won’t be possible for AI to explain everything it does. “Even if somebody can give you a reasonable-sounding explanation [for his or her actions], it probably is incomplete, and the same could very well be true for AI,” says Clune, of the University of Wyoming. “It might just be part of the nature of intelligence that only part of it is exposed to rational explanation. Some of it is just instinctual, or subconscious, or inscrutable.”
If that’s so, then at some stage we may have to simply trust AI’s judgment or do without using it. Likewise, that judgment will have to incorporate social intelligence. Just as society is built upon a contract of expected behavior, we will need to design AI systems to respect and fit with our social norms. If we are to create robot tanks and other killing machines, it is important that their decision-making be consistent with our ethical judgments.
To probe these metaphysical concepts, I went to Tufts University to meet with Daniel Dennett, a renowned philosopher and cognitive scientist who studies consciousness and the mind. A chapter of Dennett’s latest book, From Bacteria to Bach and Back, an encyclopedic treatise on consciousness, suggests that a natural part of the evolution of intelligence itself is the creation of systems capable of performing tasks their creators do not know how to do. “The question is, what accommodations do we have to make to do this wisely—what standards do we demand of them, and of ourselves?” he tells me in his cluttered office on the university’s idyllic campus.
He also has a word of warning about the quest for explainability. “I think by all means if we’re going to use these things and rely on them, then let’s get as firm a grip on how and why they’re giving us the answers as possible,” he says. But since there may be no perfect answer, we should be as cautious of AI explanations as we are of each other’s—no matter how clever a machine seems. “If it can’t do better than us at explaining what it’s doing,” he says, “then don’t trust it.”
RC: Esattamente! Di questo avevamo parlato nella nostra prima intervista, se ben ricordo.
Se ragioniamo in termini di “possibilita’” il discorso regge. Ora, come accenno nella risposta alla #6, il problema e’ trovare le macchine adeguate per la giustificazione filosofica della scelta siamo sufficientemente attrezzati.
Eccetera eccetera…
Ometto la restante parte in quanto non del tutto attinente all’argomento di cui trattiamo. O meglio… forse qualcosa potremmo riesumarla in seguito. Vedremo.
Questa conversazione, comunque, avveniva nel 2017, quando la vita aveva ancora un altro sapore, antico e rassicurante, se si vuole. Nel frattempo, come sappiamo, il mondo è stato rivoltato come un calzino. Un nuovo paradigma s’è imposto nella nostra esistenza e nelle nostre esperienze. La societa’ in cui gravitiamo non ci garantisce più alcuna certezza e pure ciò che chi ha un’eta’ diversa dalle varie generazioni Millennials e seguenti, era cresciuto dando per scontato oggi ci si presenta in forma di privilegio. Insomma questa conversazione e le altre che avevo intrattenuto con Riccardo in precedenza a partire dalla prima intervista che gli feci nel 2014, oggi non ha più alcun valore nei termini in cui era nata, con lo scopo di pensare una mostra per un evento dell’anno successivo. Nel frattempo, infatti il transumanesimo (non anora il post umanesimo, che resta materia ignota ai più) è diventato argomento da bar su cui chiunque ha una opinione più o meno suffragata da cognizioni reali. Per non parlare degli artisti che l’hanno masticato ingoiata e digerita da tempo tanto che ormai non ne subiscono quasi più il minimo fascino e sono gia’ proiettati, senza però saperne ancora parlare, nel post umanesimo. Affannosamente ciascuno di loro cercando di rimanere a galla, restando significativi in un modo o nell’altro. Aggrappati a ciò che le ultime tendenze gettano via come un calzino non sporco ma non più rammendabile. Nel frattempo la sacerdotessa Marina Abramovic ha alzato l’asticella sdoganando definitivamente la Realta’ Virtuale nell’arte. Nel frattempo …
Sebbene lo scrittore William Borroughs (come in generale tutta la Beat) non goda della mia ammirazione*, condivido la sua visione in fatto di scienza e scintificismo. Non le sue pratiche magiche da fattucchiere e tanto meno la sua adesione a eggregore settarie di sapore crowleriano quali Scientology e simili, chiaramente. Delle sue esternazioni ne condivido, credo, una soltanto (e soltanto in parte):
“In the magical universe there are no coincidences and there are no accidents. Nothing happens unless someone wills it to happen. The dogma of science is that the will cannot possibly affect external forces, and I think that’s just ridiculous. It’s as bad as the church. My viewpoint is the exact contrary of the scientific viewpoint. I believe that if you run into somebody in the street it’s for a reason. Among primitive people they say that if someone was bitten by a snake he was murdered. I believe that.”
Or, speaking in the 1970s:
“Since the word “magic” tends to cause confused thinking, I would like to say exactly what I mean by “magic” and the magical interpretation of so-called reality. The underlying assumption of magic is the assertion of “will” as the primary moving force in this universe – the deep conviction that nothing happens unless somebody or some being wills it to happen. To me this has always seemed self evident … From the viewpoint of magic, no death, no illness, no misfortune, accident, war or riot is accidental. There are no accidents in the world of magic.”
Il che è traducibile in un superomismo che può sovvertire l’ordine naturale delle cose attraverso la tecnica appresa da un percorso iniziatico che torna ad essere quella scienza che lui dice di ostare. Il serpente che si morde la coda, insomma. E siamo punto e a capo. Il troppo ragionare su ciò che per natura è ovvio nella sua semplicita’, porta a convinzioni equivoche. Come quella che ciò che fa l’Uomo è soprannaturale, ed è definito artificiale (in quanto opposto a naturale, in quanto frutto di artifizio della mente umana che è superiore persino al concetto stesso di origine). Ciò rende l’Uomo autore di se stesso, affrancato da legami biologici e spirituali col resto della natura (che qualcuno chiama Creato e qualcun altro no).
E’ uno stato d’animo, questo, una coscienza alterata, che porta a conseguenze estreme, quali finire impantanati in un progetto di Seconda Vita, Seconda Realta’, Seconda Natura, che sono necessarie per essere liberi.
Stesse aspirazioni di un Kurzweill, insomma.
(1) [sono troppo appassionato di John Fante per non vederne il plagio taciuto (o ignorato) dalla critica, sebbene velatamente messo in luce da Bukowski]