Chi non ha mai consultato Wikipedia? L’enciclopedia virtuale più famosa del mondo è la spiaggia a cui si rivolgono internauti di ogni tipo. Per avere informazioni sull’ultimo “acciacco” della nonna o per acquisire qualche nozione basica sul pittore fiammingo in mostra nella nostra città. Il ricorso compulsivo all’enciclopedia online non ci mette, però, al riparo da figuracce. La piattaforma “open suorce” consente, infatti, a chiunque di entrare e modificare le voci enciclopediche che, molto spesso, vengono inquinate da “bufale” e inesattezze che ne compromettono l’affidabilità.
Ne sono ben consapevoli i ricercatori della Wikimedia Foundation che hanno pensato di mettere a punto un sistema di auto-correzione per far guadagnare quota alla credibilità dell’enciclopedia virtuale. Il software, ideato da Aaron Halfaker, si chiama Ores (Objective revision evaluation service) e altro non è se non un sistema di intelligenza artificiale che scandaglia le modifiche dannose separandole da quelle apportate dai benintenzionati. Come lo fa? Sfruttando un complesso sistema di algoritmi che permette di incrociare i dati linguistici delle voci enciclopediche con quelli presenti in testi considerati lacunosi.
Si tratta di un importante passo avanti, che però – è doveroso precisarlo – non sancisce ancora la completa affidabilità di Wikipedia perché l’auto-correzione di Ores interviene solo sul piano della qualità del testo. In pratica, sullo stile della scrittura. “La cosa da notare – ha spiegato John Carroll, professore dell’Università del Sussex – è che il sistema non giudica se i contenuti che le persone stanno aggiungendo in realtà sono veri, perché è immensamente difficile, ma va a guardare la qualità”. Come dire: su Wikipedia potrete ancora trovare delle “bufale”, ma saranno per lo meno “bufale” ben scritte.
Cerchi un nuovo lavoro?
Per avere sempre offerte di lavoro reali e verificate nella tua casella email in linea con le tue esigenze: Registrati su Euspert Bianco Lavoro