Un team di ricercatori dell’ETH di Zurigo ha sviluppato un sistema in grado di superare al 100% i test CAPTCHA basati sul riconoscimento di immagini. Lo studio, guidato dal dottorando Andreas Plesner, dimostra come un modello di intelligenza artificiale possa eguagliare le prestazioni umane nell’identificazione di oggetti come biciclette, semafori o attraversamenti pedonali nelle griglie di immagini di Google ReCAPTCHA v2.
Questo risultato mette in discussione l’efficacia dei CAPTCHA come strumento per distinguere utenti umani da bot automatizzati. Nonostante Google abbia iniziato a sostituire ReCAPTCHA v2 con una versione “invisibile”, il sistema è ancora ampiamente utilizzato come fallback su milioni di siti web.
I ricercatori hanno utilizzato una versione ottimizzata del modello di riconoscimento oggetti YOLO (“You Only Look Once”), addestrandolo su 14.000 immagini di traffico etichettate. Il sistema risultante è in grado di identificare con elevata precisione la probabilità che un’immagine appartenga a una delle 13 categorie utilizzate da ReCAPTCHA v2.
Per evitare il rilevamento, il team ha implementato anche:
- L’uso di una VPN per mascherare l’indirizzo IP
- Un modello di movimento del mouse per simulare l’attività umana
- Informazioni fittizie su browser e cookie
Grazie a questi accorgimenti, il bot è riuscito a superare i test CAPTCHA ogni volta, talvolta risolvendo le sfide più velocemente di un utente umano medio.
Questo studio segna un significativo passo avanti rispetto ai precedenti tentativi accademici di aggirare i CAPTCHA basati su immagini, che avevano raggiunto tassi di successo tra il 68% e il 71%.
Gli autori della ricerca affermano: “Un buon CAPTCHA segna esattamente il confine tra la macchina più intelligente e l’essere umano meno intelligente. Man mano che i modelli di machine learning si avvicinano alle capacità umane, trovare buoni CAPTCHA diventa più difficile”.
Questo progresso nelle capacità dell’AI pone nuove sfide per la sicurezza online e l’identificazione degli utenti umani. Google ha dichiarato di essere consapevole del problema e di concentrarsi su metodi di protezione invisibili, come evidenziato dal lancio di reCAPTCHA v3 nel 2018.
Tuttavia, mentre i sistemi di intelligenza artificiale continuano a migliorare nell’imitazione di compiti tradizionalmente umani, potrebbe diventare sempre più complesso garantire che l’utente dall’altra parte del browser sia effettivamente una persona.
La ricerca solleva importanti questioni sulla futura efficacia dei CAPTCHA e sulla necessità di sviluppare nuovi metodi per distinguere tra interazioni umane e automatizzate online. Mentre la tecnologia progredisce, il settore della sicurezza informatica dovrà continuare ad adattarsi per mantenere l’integrità delle interazioni online.
–