Internet sta cambiando volto. Secondo i dati più recenti di Cloudflare e Fastly, quasi un terzo del traffico globale non è più generato da esseri umani, ma da bot automatizzati, e la quota cresce soprattutto a causa dei crawler usati per addestrare modelli di intelligenza artificiale. Un fenomeno che mette a dura prova l’infrastruttura della rete e rischia di stravolgere l’equilibrio tra chi produce contenuti e chi li consuma
Se i primi robot digitali, come il pionieristico Web Wanderer del 1993, si limitavano a registrare nuove pagine, oggi la situazione è ben diversa. I moderni crawler AI non solo scandagliano il web, ma lo fanno in maniera aggressiva, scaricando interi testi, script e contenuti dinamici. Secondo le analisi, l’80% del traffico bot è legato a programmi che raccolgono dati in massa per l’addestramento dei modelli linguistici.
Tra i principali responsabili, Meta guida con il 52% del traffico, seguita da Google (23%) e OpenAI (20%). La differenza rispetto ai bot di indicizzazione tradizionali è sostanziale: mentre un passaggio del Googlebot poteva portare visibilità e nuovi lettori, le scansioni dei crawler AI non generano ritorno diretto per i siti.
Il problema non è solo teorico. Fastly ha documentato picchi di traffico fino a 30 terabit al secondo, capaci di sovraccaricare anche le infrastrutture più solide. Per i piccoli siti, spesso ospitati su server condivisi, basta un’ondata di richieste per rendere l’intera piattaforma inaccessibile per minuti o ore.
Gli effetti collaterali sono tangibili: tempi di caricamento oltre i tre secondi fanno crescere il bounce rate e spingono gli utenti ad abbandonare la pagina. Per i proprietari di siti, questo significa perdite economiche dirette e costi aggiuntivi per potenziare server, RAM e larghezza di banda.
Per decenni, il file robots.txt ha stabilito le regole di indicizzazione, ma oggi molti crawler AI lo ignorano. Di fronte a questa inefficacia, stanno emergendo nuove proposte come llms.txt, un formato pensato per comunicare in modo chiaro ai modelli linguistici cosa possono o non possono utilizzare.
Tuttavia, gli esperti restano scettici: senza un’adozione condivisa e obbligatoria da parte dei grandi player, llms.txt rischia di restare una buona idea mai applicata davvero.
Per ora, le contromisure sono ancora in fase sperimentale. Cloudflare e altri provider stanno sviluppando sistemi specifici per identificare e limitare il traffico dei bot AI, mentre soluzioni indipendenti come Anubis AI Crawler Blocker propongono un approccio diverso: non bloccare del tutto, ma rallentare le richieste fino a renderle non distruttive.
Il nodo resta però la classificazione: i bot AI non sono ufficialmente considerati dannosi, quindi i classici sistemi anti-DDoS non li fermano. In pratica, i siti si trovano a combattere un nemico invisibile che consuma risorse senza portare benefici.
Il web si trova davanti a una nuova corsa agli armamenti digitali. Da un lato i proprietari dei siti, che cercano di difendere le proprie risorse e mantenere la rete accessibile. Dall’altro, i giganti dell’intelligenza artificiale, che hanno bisogno di enormi quantità di dati per alimentare i propri modelli.
Il rischio? Una rete più chiusa e frammentata, dove molti contenuti finiranno dietro paywall o spariranno del tutto. La memoria di un internet libero diventa sempre più un ricordo, mentre l’era dell’AI invasiva è già iniziata.
Fonte: RedHotCyber.com
Nel panorama della cybersicurezza è emersa una nuova minaccia: ShadowV2, una botnet offerta in modalità Malware-as-a-Service (MaaS) progettata...
Il timore di avere il telefono spiato è diventato sempre più comune. Con l’aumento delle app di messaggistica,...
Un nuovo allarme per la sicurezza informatica italiana: su DarkForums è apparso un dump di credenziali FTP in...
Gli attacchi DDoS (Distributed Denial of Service) sono tra le minacce più diffuse e insidiose per chi gestisce...
Il backup del sito web è la tua polizza anti-disastro: se un attacco, un errore umano o un...
Il gruppo nordcoreano Lazarus APT, tra i più pericolosi nel panorama delle minacce informatiche globali, è tornato a...
ILOVEYOU: 25 Anni Dopo, la Cybersecurity è Davvero Cambiata? San Valentino non è solo il giorno degli innamorati....
In questi giorni è emerso un annuncio sul forum underground exploit.in: un exploit 0day per WinRAR e WinZIP...