Surface Web vs. Deep Web

Veröffentlicht am von Maria Günther

Deep down the Web...

Was Suchmaschinen nicht finden

Letzte Woche haben wir in unserem Blog bereits über Suchmaschinen und ihre Funktionsweise gesprochen. Dabei sind wir auch schon auf das Surface- und Deep Web eingegangen. Im dritten Teil unserer Serie „Wann beginnt die Zukunft?“ wollen wir den verstecken Teil des Web-Eisbergs beleuchten.

Die Spitze des Eisbergs

Das Web wird gern bildlich als Eisberg beschrieben. Der sichtbare Teil ist das Surface Web und stellt dabei den kleinsten Teil der Informationen dar. Diese Informationen sind die indizierten Daten, die durch Suchmaschinen-Algorithmen und Crawler verarbeitet und wieder ausgegeben werden. Demnach werden sie durch die Suchmaschinen für den Nutzer zugänglich gemacht.

Der verborgene Teil des Web

Das Deep Web (oder auch Hidden/Invisible Web) besteht zu großen Teilen aus themenspezifischen Datenbanken und Webseiten. Zusammengefasst handelt es sich um Inhalte, die nicht frei zugänglich sind, und/oder Inhalte, die nicht von Suchmaschinen indiziert werden oder nicht indiziert werden sollen. Geprägt wurde der Begriff 2001 von Michael K. Bergmann. Die Daten, die Suchmaschinen im Surface Web zumeist nicht indizieren können, sind zum Beispiel personenbezogene Dokumente, Arzt- oder Finanzberichte, wissenschaftliche Studien. Häufig sind sie Teil einer Datenbank oder eines privaten Netzwerks, welche nicht für die Veröffentlichung bestimmt sind und trotzdem auf Servern im Web existieren.

Das Durchbrechen der Filterblasen

Das Surface Web stellt für Recruiter und ihre Suchmethoden eine große Herausforderung dar, wenn es darum geht, ein umfassendes Anfrageergebnis zu erhalten. Durch die Interpretation und Listung der Ergebnisse nach Relevanz werden Suchanfragen häufig limitiert und verzerrt. Der Algorithmus der Suchmaschine weist Ergebnissen mit häufiger Klickrate die höchste Relevanz zu. Daher kann es vorkommen, dass ebenfalls passende Treffer nicht angezeigt bzw. Ergebnisse durch Suchmaschinen limitiert werden.

Durch die Ähnlichkeit von häufig gestellten Suchanfragen werden die Ergebnisse „homogenisiert“. Das bedeutet im Falle von Recruitern: „Je mehr Sourcer semantische Suchmaschinen mit ähnlichen Anfragen nutzen, umso mehr bekommen diese auch die Suchergebnisse der anderen angezeigt.“ Wie schon im zweiten Teil unseres Blogs angesprochen, landen Recruiter dadurch häufig in einer Filterblase (oder Echoraum) und bekommen keine differenzierten Ergebnisse mehr angezeigt. Die Suchmaschine „denkt“, dass nur homogene Ergebnisse zum gewünschten Ziel führen.

Keywords und Sourcing

Da die Filterblasen das Ergebnis der semantischen Suche sind, ist es von Vorteil die Keyword-Kombinationen im Sourcing-Prozess möglichst offen zu wählen beziehungsweise zu variieren. Die Kombinationen sollten dabei unterschiedlich konzipiert werden, also die Länge sowie die Wortverknüpfung so gewählt sein, dass der Algorithmus weniger Muster erkennen kann. Es ist ebenfalls hilfreich den Algorithmus durch wechselnde Suchanfragen hinters Licht zu führen und so sicherzustellen, nicht zu oft die gleichen Keywords zu suchen.

Welche Ergebnisse Recruiter durch den Sourcing Prozess erhalten und wie diese Daten ausgewertet werden, erfahrt ihr nächste Woche im vierten Teil unserer Serie. Wir beschäftigen uns mit der Frage nach der Ethik im Social Media Recruiting und den Wegen, Kandidaten zu gewinnen.

Bildquelle