In un anno, è aumentato del 50% il traffico su Wikipedia, soprattutto quello inerente il download di immagini e video. Un boom che si deve, come spiega Wikimedia Foundation che gestisce l'enciclopedia online, all'ascesa dell'intelligenza artificiale generativa. La crescita negli accessi non riguarda infatti utenti in carne e ossa ma i 'crawler', ossia i programmi automatizzati che estraggono contenuti multimediali dai siti web per addestrare i modelli di IA. Un'operazione lecita quando si tratta di Wikipedia, che ospita file liberi da copyright, ma non esente da conseguenze.
"La nostra infrastruttura è costruita per sostenere picchi di traffico improvvisi durante eventi di grande interesse" spiega la Wikimedia Foundation in un post sul blog ufficiale "ma la quantità di traffico generata dai bot è senza precedenti e presenta rischi e costi crescenti". Wikipedia fornisce contenuti ai suoi utenti tramite una rete globale di data center. Quando un articolo viene richiesto più volte, il contenuto viene conservato nel data center più vicino all'utente. A differenza nei navigatori, che tendono a concentrarsi su argomenti specifici, i bot di IA accedono a un'ampia gamma di articoli in blocco, inclusi file, immagini e video poco richiesti. Questo comporta un maggiore dispendio di risorse per Wikimedia, che deve rendere disponibile un archivio maggiore, a costi più elevati per il suo data center centrale. La fondazione sottolinea inoltre l'importanza di riconoscere la fonte dei contenuti, al fine di incentivare nuovi utenti a partecipare e contribuire.
"I nostri contenuti sono gratuiti, la nostra infrastruttura no" afferma. Tra le possibili soluzioni, la Foundation valuta la creazione di sistemi di attribuzione più rigorosi e la definizione di linee guida chiare per l'addestramento dei modelli di intelligenza artificiale.
Riproduzione riservata © Copyright ANSA