Ranking-Forschung: Verwendung von Social-Bookmarking-Tools, um Relevanz zu extrahieren

Ranking-Forschung: Verwendung von Social-Bookmarking-Tools, um Relevanz zu extrahieren
Ranking-Forschung: Verwendung von Social-Bookmarking-Tools, um Relevanz zu extrahieren
Anonim

Ein neuer Ansatz zur Bewertung von Forschungsarbeiten nutzt Social-Bookmarking-Tools, um Relevanz zu extrahieren. Einzelheiten werden in der neuesten Ausgabe des International Journal of Internet Technology and Secured Transactions berichtet.

Social Bookmarking Systeme sind fast unverzichtbar. Sehr wenige von uns verwenden nicht mindestens ein System, sei es Delicious, Connotea, Trunk.ly, Reddit oder eines der unzähligen anderen. Für Akademiker und Forscher ist CiteUlike eines der beliebtesten und existiert seit November 2004. CiteUlike (http://www.CiteULike.org) ermöglicht es Benutzern, Referenzen mit Lesezeichen zu versehen, bettet aber auch eine konventionellere bibliografische Verw altung ein.Da Benutzer solcher Systeme schnell lernen, können Sie sie nur dann für andere nützlich machen, wenn Sie sicherstellen, dass Sie Ihre Referenzen umfassend, aber selektiv markieren.

Im Großen und Ganzen ist Social Bookmarking sehr nützlich, aber es könnte noch nützlicher sein, wenn es ein besseres Ranking-System hätte, anstatt ein Ähnlichkeits-Ranking oder ein abfrageabhängiges Ranking zur Generierung von Suchergebnissen zu verwenden.

Forscher in Thailand haben jetzt "CiteRank" vorgeschlagen, eine Kombination aus einem Ähnlichkeitsranking und einem statischen Ranking. "Das Ähnlichkeitsranking misst die Übereinstimmung zwischen einer Suchanfrage und einem Forschungspapierindex", erklären sie. "Während ein statisches Ranking oder ein abfrageunabhängiges Ranking die Qualität einer Forschungsarbeit misst." Siripun Sanguansintukul von der Chulalongkorn University in Bangkok und Kollegen haben eine Gruppe von Faktoren verwendet, darunter die Anzahl der Gruppen, die die veröffentlichte Arbeit zitieren, das Jahr der Veröffentlichung, das Veröffentlichungsdatum der Forschungsarbeit und die Priorität einer Forschungsarbeit, um einen statischen Ranking-Score zu bestimmen, der dann kombiniert wird mit dem abfrageunabhängigen Maß, um den CiteRank anzugeben.

Das Team testete seinen neuen Ranking-Algorithmus, indem es Literaturforscher aufforderte, die Ergebnisse zu bewerten, die es in Rankings von Forschungsarbeiten produzierte, die von Suchmaschinen bezogen wurden, basierend auf einem Index, der TTA, Tag-Titel-Abstract verwendet. Der gewichtete Algorithmus CiteRank 80:20, bei dem eine Kombination aus Ähnlichkeitsranking 80 % und statischem Ranking 20 % am effektivsten war. Sie fanden heraus, dass viele Literaturforscher es vorzogen, neuere Artikel oder gerade veröffentlichte Artikel zu lesen, aber sie bewerteten auch sehr klassische Artikel, die in den Ergebnissen auftauchten, wenn sie über verschiedene Benutzergruppen oder Gemeinschaften veröffentlicht wurden. Benutzer fanden gute Papiere basierend auf der Prioritätsbewertung, aber TTA war immer noch wichtig.

"CiteRank kombiniert statisches Ranking mit Ähnlichkeitsranking, um die Effektivität der Rangordnung zu verbessern", erklärt Sanguansintukul. „Ähnlichkeitsranking misst die Ähnlichkeit des Textes (Abfrage) mit dem Dokument. Beim statischen Ranking wurden die auf dem Papier veröffentlichten Faktoren verwendet."

"Die Verbesserung der Indexierung verbessert nicht nur die Leistung der Suche nach wissenschaftlichen Arbeiten, sondern auch aller Dokumentensuchen im Allgemeinen. Zukünftige Forschungen in diesem Bereich bestehen in der Erweiterung der Personalisierung, der Erstellung von Benutzerprofilen und einem Empfehlungssystem für die Suche nach Forschungsarbeiten." sagt das Team. Die aus der Studie hervorgegangenen experimentellen Faktoren können bei der Optimierung des Algorithmus helfen, Rankings anzupassen und die Suchergebnisse noch weiter zu verbessern.

Beliebtes Thema