09.07.2002

SUPERCOMPUTER

Bildquelle:

Optimale Suche in P2P-Netzwerken

Momentan sind die P2P-Netze noch so organisiert, dass schon ein paar zehntausend Rechner im Netzwerk die Suche nach Daten extrem verlangsamen. Dies könnte durch zentrale Server, die Schüsselfunktionen übernehmen, zwar verhindert werden; versagt jedoch ein Server, würde das ganze Netzwerk zusammenbrechen.

Ein Team der Princeton University in New Jersey, der University of California in Berkeley und der beiden Netzwerkspezialisten AT&T und Cisco will nun eine Lösung für dieses Problem gefunden haben.

Liegen die Wissenschaftler richtig, könnten in Zukunft Millionen von Rechnern miteinander verbunden sein, ohne die Performance oder Stabilität des Netzwerks zu schwächen.

Die errechneten Ergebnisse

Mit Hilfe spezieller Software simulierten die Wissenschaftler verschiedene P2P-Netzwerke. Anstatt unzählige Abfragen pro Suche in alle Richtungen zu starten und das Netzwerk somit zu überfluten und zu verlangsamen, zeigte sich, dass es effiktiver wäre, nur wenige Abfragen nach dem Zufallsprinzip auf den Rechnern suchen zu lassen.

Untersuchungen ergaben, dass die optimale Anzahl der Zufallsabfragen, die ausgeschickt werden, um eine Datei zu finden, zwischen 16 und 64 liegt.

Doch nicht nur Abfragen sollen auf einen zufälligen Weg geschickt werden. Die Studie geht sogar so weit, dass sie vorschlägt, ebenfalls nach dem Zufallsprinzip absichtlich Kopien der Dateien abzuspeichern, statt nur auf Abfrage. So soll eine optimale Anzahl an Files verteilt werden [abhängig von der Abfrage-Häufigkeit], um das Suchergebnis möglichst schnell zu erlangen.

Die Forscher sind dier Meinung, ihre Arbeit könnte das Tauschen von Musik- oder Videodateien über vorhandene P2P-Netzwerke rasant beschleunigen.

Reine Theorie

Kritiker meinen, dass dieses System zwar in der Theorie sinnvoll ist, praktisch jedoch nur die Suche nach populären Dateien beschleunigt. Für weniger oft abgefragte Files bräuchten die wenigen zufälligen Abfragen wohl entschieden länger als das jetzige System, da sie jeden Punkt des Netzwerks abgrasen müssten.

Auch die unterschiedliche Geschwindigkeit der Internet-Verbindungen und Hardware-Power der einzelnen Rechner im Netzwerk würde das Modell komplizieren, da die wenigen Zufallsabfragen sich wohl eher auf die schnelleren Punkte des Netzwerks konzentrieren würden.