Nikita the Spider ist ein Crawler, den man über Websites jagen kann um Validierungs- und Linkfehler zu finden. Dessen Autor Philip Semanchuk hat nun Statistiken über HTML-Fehler auf den Seiten, die den Spider einsetzen gesammelt. Zweifellos interessant, aber man sollte beim Lesen im Hinterkopf behalten, dass die Nutzer von Nikita vermutlich ohnhin Ahnung von Webstandards haben, weswegen die Statistiken wohl nur begrenzten Informationswert haben.

Was man eigentlich bräuchte, wäre ein Freiwild-Crawler, der alle möglichen Seiten einsammelt. Aber den wird’s wohl nie geben.

Via 456 Berea Street