Tag: SEO
Mitte der 1990er Jahre fingen die aller ersten Suchmaschinen im Internet an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten direkt den Wert einer bevorzugten Positionierung in Serps und recht bald fand man Anstalt, die sich auf die Optimierung ausgerichteten.
In den Anfängen geschah der Antritt oft zu der Übertragung der URL der passenden Seite in puncto divergenten Suchmaschinen im WWW. Diese sendeten dann einen Webcrawler zur Kritische Auseinandersetzung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Website auf den Webserver der Search Engine, wo ein weiteres Softwaresystem, der sogenannte Indexer, Informationen herauslas und katalogisierte (genannte Ansprüche, Links zu anderen Seiten).
Die späten Typen der Suchalgorithmen basierten auf Angaben, die mithilfe der Webmaster eigenständig vorgegeben worden sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im WWW wie ALIWEB. Meta-Elemente geben einen Gesamteindruck mit Essenz einer Seite, allerdings registrierte sich bald hoch, dass die Nutzung der Tipps nicht verlässlich war, da die Wahl der gebrauchten Schlagworte dank dem Webmaster eine ungenaue Erläuterung des Seiteninhalts spiegeln konnte. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Unterseiten bei charakteristischen Ausschau halten listen.[2] Auch versuchten Seitenersteller diverse Attribute binnen des HTML-Codes einer Seite so zu steuern, dass die Seite besser in den Ergebnissen aufgeführt wird.[3]
Da die frühen Suchmaschinen im Netz sehr auf Gesichtspunkte dependent waren, die nur in den Taschen der Webmaster lagen, waren sie auch sehr vulnerabel für Straftat und Manipulationen in der Positionierung. Um höhere und relevantere Urteile in den Ergebnissen zu erhalten, mussten sich die Operatoren der Suchmaschinen an diese Gegebenheiten adaptieren. Weil der Triumph einer Anlaufstelle davon abhängig ist, wesentliche Suchresultate zu den inszenierten Keywords anzuzeigen, vermochten ungünstige Resultate zur Folge haben, dass sich die Mensch nach sonstigen Entwicklungsmöglichkeiten für den Bereich Suche im Web umsehen. Die Erwiderung der Suchmaschinen vorrat in komplexeren Algorithmen für das Ranking, die Aspekte beinhalteten, die von Webmastern nicht oder nur schwierig steuerbar waren. Larry Page und Sergey Brin entwarfen mit „Backrub“ – dem Vorläufer von Suchmaschinen – eine Suchseiten, die auf einem mathematischen KI basierte, der mit Hilfe der Verlinkungsstruktur Websites gewichtete und dies in den Rankingalgorithmus reingehen ließ. Auch weitere Search Engines relevant in der Folgezeit die Verlinkungsstruktur bspw. in Form der Linkpopularität in ihre Algorithmen mit ein.