LexiBot sucht dynamische Webseiten
Im gesamten Internet befinden sich nach einer neuen Studie des US-amerikanischen Start-up-Unternehmens BrightPlanet derzeit rund 550 Milliarden Webseiten.
Selbst Suchmaschinen wie Yahoo!, Altavista oder Google können nach BrightPlanets Analysen nur einen Bruchteil davon finden, der Rest bleibe in der "Tiefsee des World Wide Web" verschollen.
Ein Problem beim Auffinden von Informationen im Internet ist, dass sich Suchmaschinen auf das Indexieren statischer Webseiten beschränkten, konstatieren die Autoren der Studie. Traditionelle Suchmaschinen hätten deshalb maximal eine Milliarde Seiten katalogisiert.
Studie von BrightPlanet
Behörden, Universitäten und Unternehmen hinterlegen im Internet
mittlerweile immer mehr dynamische Daten in Datenbanken. Zum
Vergleich: Lycos, eine der ersten Suchmaschinen überhaupt, verfügte
1994 über einen

Auch Datenbanken durchforsten
Suchmaschinen herkömmlicher Provenienz würden den Suchenden deshalb quasi nur bis vor die Tür dieser zu 95 Prozent frei zugänglichen Datensammlungen führen.
Um diese Inhalt erfassen zu können, seien aber zusätzliche Hilfsinstrumente notwendig, heißt es in der Studie.
BrightPlanet hat nun eigenen Angaben zufolge eine neuartige Suchhilfe entwickelt, die auch die in Datenbanken hinterlegten Informationen durchsucht.
Die LexiBot genannte Software
von BrightPlanet unterscheidet sich von bisherigen Suchangeboten nicht nur dadurch, dass sie kostenpflichtig ist. Das Programm kostet nach einer 30-tägigen Probezeit knapp 90 US-Dollar [rund 100 Euro|1.300 ATS).
Das Suchergebnis lässt mitunter auch bis zu 90 Minuten auf sich warten. Typische Suchen sind nach durchschnittlich zehn bis 25 Minuten abgeschlossen.
