Siamo nel 2026 e il mondo sembra ormai rassegnato: le macchine scrivono codici complessi in pochi secondi, i modelli linguistici di ultima generazione creano testi quasi umani e l’IA compone sinfonie e analizza TAC mediche con una precisione sorprendente. Eppure, esiste un campo dove la stessa Intelligenza Artificiale ha difficoltà.
L’IA testuale fatica terribilmente con l’enigmistica. Risolvere uno schema di parole crociate è un incubo per chi non è umano. Il motivo è tecnico ma anche profondamente poetico. Ogni parola inserita ne vincola altre tre o quattro. È un incastro multidimensionale che richiede una visione d’insieme che i Large Language Models (LLM) ancora non possiedono pienamente. L’intelligenza artificiale lavora per probabilità statistica. Se legge “Il migliore amico dell’uomo”, scrive “cane” in un millisecondo. Ma se la definizione diventa un gioco di parole, impazzisce. Le metafore sono il suo punto debole. Gli autori dei giochi amano ingannare il lettore. Usano l’ironia e i doppi sensi per nascondere la verità. Un’IA interpreta spesso tutto letteralmente, mancando completamente il bersaglio finale.

Perché il cervello umano è ancora imbattibile tra rebus e incastri: il limite dell’IA
Il vero disastro per l’IA avviene però quando entrano in campo i rebus. In questo caso, la macchina deve compiere tre passi simultanei. Primo: deve riconoscere un oggetto in un’immagine. Secondo: deve trovare il termine esatto, non un sinonimo generico. Terzo: deve ignorare il significato di quel termine per unirlo a delle lettere sparse. Prendiamo un esempio classico. Se l’immagine mostra un Re e sopra ci sono le lettere “BUS”, l’IA vede un monarca e un mezzo di trasporto. L’umano invece fa un salto logico. Legge RE-BUS e basta. Questo processo richiede un’integrazione tra visione computerizzata e linguaggio naturale che il nostro cervello gestisce da millenni. Per la macchina, invece, è illeggibile.
Le parole crociate più difficili usano spesso definizioni che non hanno senso se prese singolarmente. Richiedono di conoscere il carattere dell’autore o il contesto culturale del paese. L’IA ad esempio non capisce il sarcasmo se non è esplicitato da un prompt specifico. Inoltre, c’è il problema dello spazio fisico. In uno schema, se una parola ha dieci lettere, non puoi inserirne nove. L’IA spesso propone la risposta corretta semanticamente, ma sbaglia il numero di caratteri. Oppure propone una parola che non “incrocia” con le altre già inserite. Questo accade perché non “vede” la griglia come noi.
L’enigmistica non è solo una lista di risposte. È un duello tra due menti: chi crea la sfida e chi la risolve. L’autore cerca di portarti fuori strada. Ti tende delle trappole linguistiche. Tu, come risolutore, devi intuire dove si nasconde l’inganno. Questa capacità di intuire l’intenzione altrui è la forma più alta di intelligenza umana. Ed è proprio ciò che manca alle macchine, ferme alla pura analisi sintattica. Forse, in un futuro prossimo, avremo modelli addestrati solo sui giochi di parole. Ma per ora, è bene godersi questo primato.
