3.1 L'uovo e la gallina.
Il dibattito, e spesso lo scontro, tra i sostenitori dell'intelligenza artificiale in senso forte (strong artificial intelligence) e i sostenitori dell'intelligenza artificiale in senso debole (week  artificial intelligence) è senza dubbio uno dei dibattiti centrali della cultura temporanea.
Esso investe ogni ambito culturale, accademico e non.

L'intelligenza artificiale è comunemente intesa come un risultato, un prodotto dell'informatica.
Si può sostenere il contrario: l'informatica è un prodotto dell'intelligenza artificiale.
L'intera informatica ha avuto infatti modo di esistere perché è esistita la volontà di automatizzare il calcolo ( se non gli elementi più generali del pensiero, come già Leibnitz sognava).

La nascita del dibattito contemporaneo sull'intelligenza artificiale è storiograficamente collocata in un preciso momento: la pubblicazione del saggio Computing machinery and intelligence (Turing 1950)di Alan Turing.

Dennett, come chiunque altro intenda affrontare questo problema, non può prescindere da questo saggio e dalla sterminata storia degli effetti che esso ha avuto.(Con esiti spesso bizzarri)

Non è casuale che Dennett dia avvio ad un suo saggio, Can machine think? (in Dennett 1998), evidenziando quanto sul test di Turing  sia stato scritto tanto e a sproposito.
Le persone, dice, fraintendono molto spesso il test nell'ordine di svariate grandezze.
Il suo saggio è, lo afferma esplicitamente,  un antidoto a questa mole di discussioni, una "protesi per l'immaginazione" utile al fine di mostrare quanto il problema posto da Turing sia importante.

People typically mis-imagine the test by orders of magnitude. This essay is an antidote, a prosthesis for the imagination, showing how huge the task posed by the Turing test is, and hence howunlikely it is that any computer will ever pass it. (Dennett 1998, pag 3)

Possono le macchine pensare?
I filosofi, affascinati dalle problematiche concettuali poste da questo problema, hanno totalmente ignorato l'importanza delle implicazioni sociali che questo problema pone.

Dennett cita lungamente Turing, evidenzia quanto per primo proponesse di considerare la questione possono le macchine pensare? in una maniera differente, poiché, posta in questi termini, dice, la questione è sterile e non può che creare uno sterile dibattito sulle definizioni.
Perciò questo problema generale e vago sarà sostituito da uno più particolare e definito:  è possibile creare una macchina capace di imitare le risposte di un essere umano in maniera così raffinata da trarre in inganno un altro essere umano?

Turing descrive quindi un parlour game, un gioco da salotto, the imitation game, giocato da un uomo, da una donna e da un giudice.
Uno dei partecipanti deve tentare di convincere il giudice di ciò che non è: l’uomo cercherà di convincere il giudice che è la donna, mentre la donna darà risposte veritiere.
Il test di Turing è identico in tutto e per tutto a questo gioco, un solo dettaglio fa la differenza: all’uomo è sostituita una macchina.

Turing, secondo Dennett, sostiene che nell'eventualità che tale test sia superato dalla macchina tale macchina non può che essere considerata pensante, "oltre ogni ragionevole dubbio."

Turing proposed that any computer that can regularly or often fool a discerning judge in this game would be intelligent—would be a computer that thinks—beyond any reasonable doubt.(Dennett 1998, pag 4)

Dennett non concorda: quand'anche il giudice sia tratto in inganno, sostiene, la prova dell'esistenza di una coscienza artificiale non è provata.

Qui è opportuno fare una precisazione importante, poiché  a nostro avviso Dennett compie un errore. (E con lui tanti altri)
Di questa concettualizzazione nel saggio di Turing non c'è traccia alcuna.
Turing non ha mai sostenuto che il superamento del suo test da parte di una macchina sarebbe stato indice indubitabile dell'esistenza di un pensiero della macchina, o di una coscienza.
Turing allude più volte a quanto il problema possono le macchine pensare? sia, per lui, un problema senza senso.(L'introduzione della problematica dell' imitation game ha proprio la valenza di evitare una discussione su qualcosa di insensato)
Si chiede anzi, nel secondo paragrafo, se questa nuova domanda possa essere meritevole di ricevere una risposta.

As well as asking, "What is the answer to this new form of the question," one may ask, "Is this new question a worthy one to investigate?"

Questo, ci pare, implichi che senza dubbio la prima non merita questa attenzione.
Nel paragrafo sesto del saggio Turing fuga ogni dubbio a riguardo:

"Can machines think?" I believe to be too meaningless to deserve discussion.

Si può quindi affermare che Dennett sia discorde non tanto da Turing ma proprio da coloro che, come lui dice, lo hanno frainteso.
Ma questa posizione deriva dallo stesso identico fraintendimento: tanto che si può sostenere agevolmente che anche il saggio di Dennett sia da includere in quella "mole di discussioni" alle quali esso pretende di essere da antidoto.

Dennett, partendo appunto da questo fraintendimento, prosegue con una critica serrata al test di Turing.

Adduce diverse argomentazioni ed esempi che pongono in seria discussione la possibilità che una macchina possa superare il test di Turing in condizioni neanche troppo ferree, come, per converso evidenzia quanto non sia remota la possibilità che il test stesso non sia superato da esseri umani.
Cita il Discorso sul metodo di Cartesio (1637) in un passo nel quale Cartesio si sofferma sulla possibilità che una macchina possa in qualche modo compiere operazioni simili a quelle di un essere umano.
Cartesio sostiene che la macchina in questione potrà dare output stimolo-risposta ma non potrà mai in nessun caso offrire risposte minimamente comparabili a quelle che il più stupido degli uomini possa fare.
Questo sembrava ovvio a Cartesio nel diciasettesimo secolo e Dennett ripropone tale convinzione in maniera sostanzialmente identica.
Sebbene le macchine attuali siano ben differenti dagli automi conosciuti da Cartesio, equiparabili a raffinati meccanismi ad orologeria, sono ancora ben lontane da poter superare il test anche in semplici situazioni.

Dennett si sofferma poi sul problema della comprensione e riporta un esempio di Terry Winograd, uno di leader dell'intelligenza artificiale dei primi anni 70.
L'esempio in questione è costituito da due frasi.
1) The commitee denied group operate permit because they advocated violence.
2) The commitee denied group operate  permit because they fear violence.

Qui il problema non è costituito dalla mera differenza advocated-fear ma in particolar modo dal pronome they.
Entrambe le frasi si prestano a molteplici interpretazioni ed una macchina si troverebbe in serie difficoltà ad offrire un output capace di identificare una parafrasi compiuta e sensata.
Chi è che appoggia? Chi è che teme?
Il gruppo forse? O il comitato?
L'unico modo per dare un senso a queste frasi è costituito da una comprensione dei "mondi semantici" alle quali esse fanno riferimento.
E' necessaria quindi una conoscenza del mondo, della politica, delle circostanze sociali e, più precisamente, il comportamento dei gruppi di manifestanti e la loro cultura, i doveri e le norme che forzano un organo istituzionale a determinate scelte.

Il senso scaturisce dalla storia degli individui.
In questo caso poi le stesse aspettative emotive e gli interessi dell' "ermeneuta" potrebbero avere peso tutt'altro che secondario.
Un manifestante sarebbe ben propenso a sostenere che è il comitato a peccare di apologia di reato (la violenza), e addurrebbe le sue motivazioni per sostenere tale tesi, ben diversa potrebbe essere invece l'esegesi di un membro del comitato.

Un secondo esempio è costituito dalla barzelletta dell'irlandese e del "genio della lampada".
La descrizione della stupidità e l'addurre le motivazioni del perché è stupido da parte dell'Irlandese chiedere una seconda pinta di birra come secondo desiderio (dopo avene avuta una ad esaudire il primo) risulta agevole ad un bambino di pochi anni, ma costituisce una possibilità davvero remota per una macchina.
Il bambino ha una esperienza, una storia, sa cosa è il genio della lampada perché conosce storielle affini, sa o possiede una vaga idea di cosa possa significare la birra per un ubriacone perché può ricondurla, per analogia, ai suoi desideri.
Sa che tipo di condizione emotiva possa essere determinata dal desiderare fortemente qualcosa e intuisce il pericolo di scelte avventate dettate dalla bramosia.
Una macchina non può far riferimento a niente di tutto ciò e la possibilità che un sistema automatizzato, anche soltanto nella prospettiva dell'imitation game (e non di una coscienza reale), possa superare il test in situazioni affini è appunto, almeno allo stato attuale della tecnica, impossibile.

Dennett invita poi il lettore a sostituire il test di Turing con altri test.
1) Una macchina è intelligente se vince il campionato del mondo di scacchi.
Questo non è un buon test, poiché la capacità di giocare a scacchi è una facoltà isolata.
Esistono oggi svariati software capaci di giocare a scacchi in maniera raffinatissima ma che non sanno fare altro.
2) La macchina è intelligente se risolve il problema palestinese.
Questo è un test più severo ma ha svariati difetti, primo fra tutti la non-ripetibilità.
3) Un computer è intelligente se ha successo nel rubare i gioielli della corona britannica senza far uso della violenza.
Questo test è migliore anzitutto perché ripetibile all'infinito.

Tutti questi test, evidenzia Dennett, sono accomunati da una caratteristica: sono operazionalisti.
L'operazionalismo è la tattica del determinare la presenza o l'assenza di una determinata proprietà attraverso l'esito positivo o negativo di un test.
Questo tipo di test possono essere facilmente contraffatti, a riguardo fornisce un ulteriore esempio:
Il test di Dennett per essere una grande città.
Supponiamo che sia definibile come "grande città" una qualsiasi città nella quale, in un casuale giorno dell'anno, si possono trovare queste 4 cose.
Ascoltare una orchestra sinfonica, vedere un Rembrandt, assistere ad una gara atletica di livello internazionale, mangiare un raffinato e particolare cibo francese.
Se la camera di commercio di Great Falls in Montana decidesse di superare forzatamente questo test potrebbe farlo senza tanti problemi, ma questo non farebbe di Great Falls una grande città.
E' infatti ben chiaro che ciò che fa di una grande città è una sequenza di caratteristiche ben più ampie.
Dennett sostiene che il test di turing sia analogo a questa situazione, esso mette alla prova soltanto aspetti circoscritti e limitati, la coscienza è infatti qualcosa di ben più articolato della sommatoria di componenti specifiche.

Circa questo tipo di possibilità di barare Dennett cita un articolo di Ned Block del 1982.
In tale articolo è offerto un esperimento mentale nel quale il test di Turing è circoscritto a frasi di quattro parole su un dizionario di 850 parole, l'Inglese elementare.
La creazione di un database con frasi  di quattro parole dotate di senso, sebbene richieda una lavoro notevole, non è una impossibilità.
L'accedere da parte di un software a tale database potrebbe determinare, attraverso un banale lavoro forza bruta, il superamento da parte della macchina del test di Turing.
Generalizzando questo esperimento all'intero dizionario della lingua inglese, o di qualsiasi altra lingua, si può facilmente dedurre che l'esistenza di un database sufficientemente esteso e di un calcolatore sufficientemente potente potrebbe determinare l'agevole superamento del test di Turing da parte della macchina.
Questo tipo lavoro è portato avanti dai moderni software scacchistici.
Il linguaggio in questione è il gioco degli scacchi, il database è costituito da migliaia e migliaia di partite "intelligenti" giocate nel corso di decenni dai più grandi giocatori di scacchi.

§



Una delle critiche più interessanti che Dennett muove al test di Turing (nella accezione "fraintesa") in questo saggio, se non la più interessante, è l'accusa di antropocentrismo.
Il test di Turing sarebbe caratterizzato da una sorta di sciovinismo specistico.
Con tutta probabilità, dice Dennett, esistono possibilità di coscienza e intelligenza che non sono umane o non sono riconducibili all'essere umano.
Per dirla spicciola: un computer cosciente sarà cosciente come potrà essere cosciente un computer.

Questa non è una semplice "probabilità": a nostro avviso la prova di questo fatto è banalmente offerta dall'esistenza dell'intero regno animale.
Un delfino è cosciente e intelligente secondo le possibilità e le modalità dell'essere delfino, idem si dica per un cane, per uno scimpanzé, per un gatto, per un roditore....fino a giungere a forme di vita più elementari come i rettili, gli insetti e, in senso a generale, ad ogni forma di vita, elementare o complessa che essa sia.
Quindi, come esistono l' intelligenza e la coscienza umana e animale,e le loro innumerevoli modalità e "gradazioni", dobbiamo valutare la possibilità che l'intelligenza artificiale e la eventuale coscienza artificiale, possano essere nuovi ambiti della coscienza e dell'intelligenza.
Tali ambiti saranno qualitativamente incomparabili, o non del tutto comparabili, con le forme di intelligenza e coscienza a noi attualmente note.

Questo aspetto pone  a nostro avviso una problematica eccessivamente trascurata. (anche da Dennett).
Tale problematica è costituita dalle implicazioni etiche che la domanda possono le macchine pensare? pone.
Nel principio del saggio citato Dennett sembra essere intenzionato a soffermarsi su questi aspetti.

This has been a conundrum for philosophers for years, but in their fascination with the pure conceptual issues they have for the most part overlooked the real social importance of the answer. (Dennett 1998, pag 3)

I filosofi appunto sono eccessivamente affascinati dalle implicazioni tecnico-teoriche e trascurano gli aspetti etico-sociali del problema.
Dennett però non si sofferma su essi (o, molto più probabilmente, non allude ad aspetti etici) e appunto preferisce, anche lui, trattare di aspetti essenzialmente tecnico-teorici.

La domanda è quindi questa: che accadrà quando accorderemo ad una macchina la capacità di pensare?
Se in futuro riconosceremo ad una macchina una coscienza non avremo più a che fare con una semplice macchina: avremo appunto a che fare, anzitutto, con una coscienza.
Per quanto dissimile dalla nostra tale coscienza non potrà che porre interrogativi etici.
Questi interrogativi non verteranno esclusivamente su ciò che sarà buono ed augurabile per l'uomo nel suo rapporto con queste coscienze artificiali: verteranno bensì su ciò che sarà buono ed augurabile tanto per l'essere cosciente "uomo" quanto per l'essere cosciente macchina.
L'essere cosciente artificiale non sarà più una macchina, non sarà un oggetto, sarà un "essere cosciente" e avrà lo status completo di soggetto.(Ivi compreso lo status di soggetto giuridico).
La nostra posizione potrà apparire estrema; non lo è.
Il nostro discorso è invece banale: se accorderemo ad una macchina la facoltà di pensare, di essere cosciente, accorderemo immediatamente a tale macchina anche lo status di soggetto e non potremo che relazionarci con essa se non come ci relazioniamo con un soggetto.
Non riteniamo opportuno approfondire ora questi argomenti, sebbene essi siano a nostro avviso tutt'altro che secondari o inutili.

Concludiamo soffermandoci invece su un'altro aspetto.
La doverosa distinzione tra intelligenza e coscienza, troppo spesso usati come sinonimi.
A  nostra opinione la domanda Possono le macchine pensare? potrebbe avere una possibile risposta proprio partendo da una netta separazione di esse.
Le domande saranno quindi due:
1) Possono le macchine essere intelligenti?
2) Possono le macchine essere coscienti?
Qui si incappa immediatamente in ciò che Turing tentò di scongiurare: una sterile diatriba sulle definizioni.
Cosa significa e cosa si intende infatti con intelligenza? Cosa significa inoltre coscienza?.
Adotteremo la strategia adottata da Dennett nel saggio Two contracts: folk craft versus folk science (in Dennett 1998) per coscienza e intelligenza intenderemo, almeno per ora, ciò che la folk psicology, la psicologia del senso comune, intende.

In questa prospettiva la prima domanda avrà una risposta affermativa:  è possibile implementare, per via prettamente computazionale, delle macchine capaci di offrire outpusts "intelligenti".
Questo accade quotidianamente: implementando i debiti algoritmi è possibile infatti sviluppare, già con lo stato attuale della tecnologia, una miriade di expert systems, complessi e meno complessi.
Ma questi expert systems, non sono forse "intelligenti" perché noi li reputiamo tali?
Gli algoritmi implementati non sono tali forse perché noi li reputiamo algoritmi?
Non siamo forse noi stessi che "vediamo" e attribuiamo una intelligenza a ciò che, con la nostra stessa intelligenza, abbiamo creato?
Questi sistemi esperti, questi "sistemi intelligenti", quegli stessi algoritmi non sono in realtà il mero, fattuale, "cieco" cambiamento e il susseguirsi di stati all'interno di un sistema automatizzato?
Che senso avrebbe un computer, che appunto "computa", senza un essere cosciente che lo utilizza?
Per una scimmia, quindi per un diversa modalità della coscienza, il computer non è semplicemente qualcosa che "emette luce e suoni"? (E appunto non "computa" nulla)
Il livello di questi expert systems è il livello della simulazione, come appunto Turing stesso intendeva, ma "simulare qualcosa" significa appunto "creare una illusione di qualcosa" e deve esistere banalmente qualcuno (cosciente) per il quale tale simulazione ha un senso. (E qui sembra si determini un irrisolvibile circolo vizioso)

Cosa è una simulazione? (come appunto the imitation game di Turing)
Senza dubbio esiste un abisso tra la simulazione di qualcosa e la cosa stessa.
Per dirla con una immagine:  la simulazione di un gregge di pecore e un gregge di pecore reale non sono oggettivamente equiparabili.
Per quanto lo riprodurremo fedelmente, per quanto la nostra simulazione sia raffinata, non riusciremo mai a cavare da quel gregge una sola goccia di latte.
Lo stesso identico discorso si può fare per qualsiasi simulazione: la simulazione di un uragano non è un uragano, la simulazione di un volo non è un volo, la simulazione di una coscienza sarà appunto una simulazione e tutte queste "simulazioni" avranno senso soltanto se una coscienza le reputerà tali.
Tutte queste simulazioni sono solo ed esclusivamente soggettivamente comparabili.
Per tornare al primo esempio: deve esistere un entità cosciente che accorda alla simulazione del gregge lo status di "simulazione di un gregge di pecore" affinché si possa parlare di simulazione.

Certo, in questa ipotesi c'è da chiedersi: cosa accadrebbe se oltre al gregge virtuale simulassimo anche il pastore?
Che status ontologico potrebbe avere il "latte simulato" per il "pastore simulato"? (supponendo un elevatissimo grado di simulazione)
Potrebbe essere qualcosa di praticamente indistinguibile da ciò che per noi è il "latte"?
Se quest'ipotesi ha un senso: quanto elevato e raffinato dovrà essere quel grado simulazione?
Non solo: ipotizzando tutto questo non siamo già in una dimensione propria di ciò che, appunto comunemente, chiamiamo coscienza?
Non stiamo forse dando una prima riposta alla seconda domanda?
Ovvero: non abbiamo forse subordinato l'emergere di una coscienza all'esistenza preliminare di un elevato grado di intelligenza?
Ma se l'intelligenza è tale perché esiste una coscienza che la individua non incappiamo forse, come accennato, in un circolo vizioso?

Se incappiamo in un circolo vizioso, con tutta probabilità, abbiamo sbagliato qualcosa o nel ragionamento o nelle premesse.
Un'altra probabilità è che la risposta stia proprio nello sciogliere questo circolo vizioso.
Nella soluzione di questo novello problema dell'uovo e della gallina.
Senza la gallina non esiste l'uovo, e senza l'intelligenza non esiste coscienza, ma senza l'uovo non esiste la gallina, e appunto senza coscienza non posso parlare di intelligenza.