Negli ultimi mesi però gli svilupatori di Google stanno lavorando partendo da una prospettiva diversa: dato che la classificazione tradizionale, come visto, non va a premiare i contenuti più affidabile diffusi in rete, Big G sta pensando di operare in base a un nuovo codice che sarà capace di verficare le informazioni mettendole a confronto con l’enorme masa di dati contenuta nell’archivio Knolewdge Vault, al cui interno vi sono circa 1,6 miliardi di notizie.
Insomma non si contano i link in entrata ma i numero di fatti non corretti al suo interno. Se una fonte ha poche notizie-bufala viene considerata affidabile e quindi beneficia di un miglioiore posizionamento nei motori di ricerca. I dettagli riguardo a questo nuovo algoritmo sono stati descritti nel sito Arxiv.org.