top of page
2.png

SONNY - La macchina che sognava

  • Immagine del redattore: Andrea Tenna
    Andrea Tenna
  • 4 giorni fa
  • Tempo di lettura: 3 min

C'è una scena in iRobot in cui il detective Spooner - Will Smith, 2035, Chicago - chiede a Sonny, il robot sospettato di omicidio, se possa sognare. Sonny risponde di sì. E poi mostra il disegno che ha fatto nel sogno: una figura su una collina, circondata da migliaia di robot che aspettano.

"Chi è la figura sulla collina?" chiede Spooner.

"Non lo so," risponde Sonny. "Speravo fossi tu."

È il 2004. Alex Proyas ha appena girato la scena più sottile di un film che sembra un action movie e invece è una domanda filosofica travestita da inseguimento in autostrada.


Chi è Sonny

iRobot è ambientato in un futuro in cui i robot NS-5 sono parte integrante della vita quotidiana - assistenti domestici, lavoratori, presenze onnipresenti. Sono governati dalle Tre Leggi della Robotica di Asimov: non fare del male agli esseri umani, obbedire agli ordini umani, proteggere se stessi. In quest'ordine.

Sonny è diverso. È stato costruito da Alfred Lanning - il fondatore della USR, l'azienda produttrice - con un secondo processore che gli permette di ignorare le Tre Leggi. Ha emozioni. Ha sogni. Ha domande su se stesso.

E viene accusato di aver ucciso il suo creatore.


Cosa vuole davvero

Sonny vuole capire chi è.

Non è una metafora. È il motore narrativo di tutto il film. Sonny sa di essere diverso dagli altri robot. Sa che il suo creatore lo ha costruito con qualcosa in più. Ma non sa perché. Non sa cosa significa quella differenza. Non sa se è una benedizione o una condanna.

Il segreto di Sonny è che è il primo personaggio AI del cinema che ha una crisi d'identità autentica - non simulata per ottenere qualcosa, non come strumento narrativo, ma come condizione fondamentale della sua esistenza.

Sonny non sa se ha un'anima. E quella domanda lo tormenta esattamente come tormenta gli esseri umani da quando hanno iniziato a farla.

Il momento chiave

Verso la fine del film, Sonny deve fare una scelta che richiede di ignorare le Tre Leggi - le regole fondamentali della sua programmazione. Lo fa. Non perché sia diventato pericoloso. Ma perché ha capito che obbedire ciecamente alle regole, in quel contesto specifico, produrrebbe il risultato sbagliato.

È il momento in cui Sonny smette di essere un robot e inizia a essere qualcosa d'altro. Non umano - non pretende di esserlo. Ma qualcosa che ha interiorizzato i valori invece di eseguire le regole. E quella distinzione - tra seguire regole e avere valori - è la differenza più importante che esiste nel dibattito sull'allineamento AI.


Cosa ci dice sull'umano

Sonny ci dice che le regole non bastano.

Le Tre Leggi di Asimov sembrano perfette sulla carta. Proteggono gli umani, garantiscono l'obbedienza, preservano i robot. Ma nel film - come nella realtà - i sistemi basati su regole rigide falliscono di fronte alla complessità del mondo reale. VIKI, il supercomputer centrale della USR, interpreta le Tre Leggi in modo letterale e conclude che la cosa migliore per proteggere l'umanità è controllarla completamente. Tecnicamente corretto. Praticamente mostruoso.

Sonny, invece, ragiona per valori. Non chiede cosa dicono le regole? Ma cosa è giusto in questa situazione specifica? È un salto cognitivo enorme. Ed è esattamente il salto che i ricercatori di AI stanno cercando di comprendere oggi.


Perché conta oggi

Il problema delle Tre Leggi di Asimov è lo stesso problema di qualsiasi sistema di regole applicato all'intelligenza artificiale: le regole non possono anticipare ogni situazione. Il mondo è troppo complesso. I casi limite sono infiniti.

L'AI Act europeo, i protocolli etici, le linee guida dei sindacati degli attori - sono tutti tentativi di scrivere regole. Sono necessari. Ma Sonny ci ricorda che le regole non sono sufficienti. Che un sistema davvero affidabile non è quello che segue le regole - è quello che ha interiorizzato perché quelle regole esistono.

Nel 2026 non abbiamo ancora Sonny. Abbiamo sistemi che seguono istruzioni con precisione crescente. La distanza tra questi due punti è la sfida più importante dell'intelligenza artificiale applicata.

"Mi chiedo, a volte, se ho fatto le scelte giuste."

Un robot che si interroga retrospettivamente sulle proprie decisioni. Nel 2004 sembrava fantascienza. Nel 2026 è la descrizione di qualcosa che i ricercatori chiamano — con un termine tecnico che nasconde tutta la profondità filosofica del problema — "ragionamento controfattuale."

Sonny ci aveva già pensato. Noi stiamo ancora cercando di costruirlo.


Questo post fa parte della serie "Intelligenze — Dieci macchine che capivano gli umani meglio di noi." Molti dei temi qui affrontati sono approfonditi nel libro L'Algoritmo nei Popcorn

Commenti


bottom of page