Optimale Suche in P2P-Netzwerken
Momentan sind die P2P-Netze noch so organisiert, dass schon ein paar zehntausend Rechner im Netzwerk die Suche nach Daten extrem verlangsamen. Dies könnte durch zentrale Server, die Schüsselfunktionen übernehmen, zwar verhindert werden; versagt jedoch ein Server, würde das ganze Netzwerk zusammenbrechen.
Ein Team der Princeton University in New Jersey, der University of California in Berkeley und der beiden Netzwerkspezialisten AT&T und Cisco will nun eine Lösung für dieses Problem gefunden haben.
Liegen die Wissenschaftler richtig, könnten in Zukunft Millionen von Rechnern miteinander verbunden sein, ohne die Performance oder Stabilität des Netzwerks zu schwächen.
Was ist Peer-to-peer?
Peer-to-peer [P2P] beruht auf dem Prinzip der Dezentralisierung
von Information. Die Dateien werden nicht auf zentralen Servern
gespeichert, sondern liegen nur auf den Computern der Nutzer. Durch
diese Technik können Internet-Nutzer direkt auf die freigegebenen
Ressourcen anderer Nutzer bzw. ihrer Rechner zugreifen.
Die Forschungsarbeit der WissenschaftlerDie errechneten Ergebnisse
Mit Hilfe spezieller Software simulierten die Wissenschaftler verschiedene P2P-Netzwerke. Anstatt unzählige Abfragen pro Suche in alle Richtungen zu starten und das Netzwerk somit zu überfluten und zu verlangsamen, zeigte sich, dass es effiktiver wäre, nur wenige Abfragen nach dem Zufallsprinzip auf den Rechnern suchen zu lassen.
Untersuchungen ergaben, dass die optimale Anzahl der Zufallsabfragen, die ausgeschickt werden, um eine Datei zu finden, zwischen 16 und 64 liegt.
Doch nicht nur Abfragen sollen auf einen zufälligen Weg geschickt werden. Die Studie geht sogar so weit, dass sie vorschlägt, ebenfalls nach dem Zufallsprinzip absichtlich Kopien der Dateien abzuspeichern, statt nur auf Abfrage. So soll eine optimale Anzahl an Files verteilt werden [abhängig von der Abfrage-Häufigkeit], um das Suchergebnis möglichst schnell zu erlangen.
Die Forscher sind dier Meinung, ihre Arbeit könnte das Tauschen von Musik- oder Videodateien über vorhandene P2P-Netzwerke rasant beschleunigen.
Präsentation der Arbeit
Die Wissenschaftler präsentierten ihre Forschungsarbeit auf der
16th Annual ACM International Conference on Supercomputing in New
York.
Supercomputing ConferenceReine Theorie
Kritiker meinen, dass dieses System zwar in der Theorie sinnvoll ist, praktisch jedoch nur die Suche nach populären Dateien beschleunigt. Für weniger oft abgefragte Files bräuchten die wenigen zufälligen Abfragen wohl entschieden länger als das jetzige System, da sie jeden Punkt des Netzwerks abgrasen müssten.
Auch die unterschiedliche Geschwindigkeit der Internet-Verbindungen und Hardware-Power der einzelnen Rechner im Netzwerk würde das Modell komplizieren, da die wenigen Zufallsabfragen sich wohl eher auf die schnelleren Punkte des Netzwerks konzentrieren würden.
