La Brighella e il pensiero per immagini

Il rebus non è soltanto un gioco: nelle tavole di Maria Ghezzi, in arte La Brighella, diventa una forma di pensiero per immagini, un sistema visivo-linguistico in cui il disegno non accompagna la parola, ma la genera.

Maria Ghezzi è stata una designer dell’informazione ante litteram: ha tradotto il linguaggio in forma visiva, anticipando logiche di UX e micro-storytelling.

Nasce a Bresso nel 1927, studia all’Accademia di Brera e inizia come pittrice, disegnatrice (di figurini di moda) e decoratrice d’interni. Incontra Giancarlo Brighenti (“Briga”), autore di rebus per La Settimana Enigmistica e insieme danno vita a un sodalizio unico e duraturo: lui inventa i rebus, lei li disegna.

A partire dagli anni ’50, La Brighella crea quello che diventerà un nuovo standard visivo: inchiostro di china e pennino sono gli strumenti che usa tutta la vita per illustrare migliaia di rebus pubblicati settimanalmente su La Settimana Enigmistica. Tra le disegnatrici forse più prolifiche al mondo, il suo tratto, così riconoscibile e così esposto alla visione degli italiani, settimana dopo settimana, è diventato parte di un patrimonio visivo comune. Le ambientazioni dal realistico al surreale, i personaggi sospesi tra ironia e teatralità, spesso impegnati in azioni stravaganti o apparentemente prive di senso, sono concepiti come una vera e propria scenografia. La qualità dell’immagine diventa subito uno dei tre vertici del triangolo brighiano sulla perfezione dei rebus.

Dai rebus alle AI: il disegno come linguaggio

Il rebus è, per sua natura, una forma di linguaggio ibrido: mette insieme parola e immagine per creare un significato nuovo. Ogni dettaglio — un’azione, un oggetto, una posizione — contribuisce a costruire la soluzione. Le tavole della Brighella funzionano esattamente così: l’occhio cerca indizi, riconosce pattern visivi, li collega a suoni e parole.

È un processo mentale complesso, con analogie con i meccanismi di integrazione visivo-linguistica delle intelligenze artificiali multimodali. Con una differenza sostanziale: le intelligenze artificiali possono generare corrispondenze tra testo e immagine, ma restano deboli quando si tratta di integrare logica, linguaggio e intuizione visiva. La Brighella faceva l’opposto: partiva da un enunciato e ne creava una rappresentazione che non mostrava la risposta, ma la faceva emergere attraverso indizi, la trasformava in un enigma visivo, obbligando chi guarda a muoversi dentro il linguaggio, non solo a riconoscerlo.

Recenti studi hanno analizzato la capacità delle intelligenze artificiali di risolvere o creare rebus, e i risultati mostrano quanto questa forma di linguaggio resti complessa anche per i modelli più evoluti.

Uno studio del 20241 condotto da studiosi italiani del Center for Language and Cognition (CLCG), dell'Università di Groningen ha dimostrato che le AI possono riconoscere i simboli, ma non ne colgono il senso o la logica nascosta. Lo studio partendo da oltre 223.000 rebus della tradizione italiana, ha costruito un dataset di 83.000 rebus “verbalizzati”, cioè trasformati dalle loro immagini originali in descrizioni testuali: ogni elemento visivo del rebus (figure, oggetti, lettere associate) viene sostituito da una breve definizione, così da ottenere un rebus esclusivamente in forma linguistica. Su questo materiale sono stati messi alla prova diversi modelli linguistici. I risultati sono stati netti: anche i sistemi più avanzati (GPT-4o e Claude 3.5 al momento dello studio), hanno risolto correttamente solo una parte minima dei casi (11% e 24%), mentre i grandi modelli open-source non hanno superato lo 0%. Un modello più piccolo, addestrato appositamente su migliaia di esempi, è arrivato al 51% di soluzioni corrette, ma solo quando le parole coinvolte erano già presenti nei dati di addestramento: bastava introdurne una nuova perché l’accuratezza crollasse (dal 96% al 20% nella prima lettura). Le AI riconoscono gli elementi, ma faticano a ricostruire il filo logico, riescono a vedere, ma non a interpretare davvero.

Uno studio più recente (settembre 2025)2 ad opera dell' Università di Berkeley, California ha utilizzato invece un dataset di 432 rebus in inglese, costruiti e annotati a mano, che includono giochi visivi, idiomi, metafore e riferimenti culturali tipici dell’inglese, per testare la capacità dei modelli multimodali di ragionare su rebus visivi complessi. I risultati mostrano un pattern netto: i modelli sono molto più solidi nei compiti regolari e simbolici, come la manipolazione diretta di lettere o simboli (SS) e il ragionamento quantitativo (QMR, che nei modelli migliori supera il 70% di accuratezza). Le difficoltà aumentano invece quando serve un ragionamento astratto o laterale: i sistemi faticano nel riconoscere assenze o negazioni visive (AN, spesso tra 0% e 33%) e nel decifrare metafore visive o riferimenti culturali (VMCR, di solito sotto il 35%, salvo GPT-5). Il quadro rivela una frattura interessante: alcuni modelli comprendono bene la struttura spaziale degli elementi del rebus (SPR, fino a oltre il 60%), ma questa comprensione non si traduce automaticamente nella capacità di manipolare o reinterpretare le parole coinvolte (LWM, molto più bassa). Allo stesso modo, nonostante un buon riconoscimento del testo (TR), gli stessi modelli sfruttano meno bene indizi più sottili come stile o dimensione del font (FS).

Nel rebus emerge con evidenza la parte del ragionamento visivo che oggi sfugge ai modelli multimodali: la costruzione di un significato che nasce dall’intreccio di indizi diversi, non dalla loro semplice identificazione. È la stessa competenza che sostiene il visual thinking, la metodologia che utilizza immagini, relazioni spaziali e simboli per organizzare il pensiero. Un approccio che anche nella didattica dell’italiano aiuta a far emergere la natura dinamica e flessibile della lingua: un sistema in continua evoluzione, capace di adattarsi ai nuovi contesti comunicativi, alle culture, ai mezzi visivi. In questa prospettiva il rebus non è soltanto un gioco, ma una forma di progettazione cognitiva, un dispositivo che obbliga a leggere e vedere insieme.

Micro storytelling e modernità de La Brighella

Maria Ghezzi ha progettato nella sua lunga carriera ogni tavola come una piccola mappa con gli indizi, dove lettere, gesti e oggetti convivono in un (a volte surreale) equilibrio, per dare vita a un'enigma.

Oggi diremmo che costruiva esperienze visive — piccole interfacce di senso in cui l’occhio deve muoversi, esplorare e collegare. Era un modo di progettare che anticipava la logica del design dell’informazione:

  • sintetizzava il linguaggio;
  • organizzava lo spazio visivo in modo funzionale;
  • guidava l’occhio verso la soluzione (l’obiettivo cognitivo).

La sua tavola è un infogramma narrativo: un modello di interfaccia dove l’utente (il solutore) naviga visivamente tra segni e indizi, fino alla comprensione finale. Una vera e propria UX analogica, costruita con carta e inchiostro.

L’attualità del lavoro di questa artista, scomparsa nel 2021 alla vigilia del suo novantaquattresimo compleanno, è la capacità di raccontare in miniatura: costruire micro-storie, condensate in pochi segni essenziali. Nella mia personale “educazione sentimentale”, le illustrazioni di Maria Ghezzi si collocano accanto alle fotografie di Elliott Erwitt e alla Mafalda di Quino come radici dell’estetica del micro-racconto visivo di oggi.

Approfondimenti

  1. Non Verbis, Sed Rebus: Large Language Models are Weak Solvers of Italian Rebuses
  2. Puzzled by Puzzles: When Vision-Language Models Can't Take a Hint
  3. Measuring AI's Creativity with Visual Word Puzzles
  4. Avere piena libertà. Maria Ghezzi in arte Brighella di Daniela Annaro
  5. Le intelligenze artificiali che risolvono i rebus!
,