Tag: SEO
Mitte der 1990er Jahre fingen die anfänglichen Search Engines an, das frühe Web zu ordnen. Die Seitenbesitzer erkannten unmittelbar den Wert einer bevorzugten Positionierung in den Ergebnissen und recht bald entwickelten sich Anstalt, die sich auf die Optimierung ausgerichteten.
In Anfängen erfolgte die Aufnahme oft über die Transfer der URL der speziellen Seite in puncto unterschiedlichen Suchmaschinen im WWW. Diese sendeten dann einen Webcrawler zur Betrachtung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webseite auf den Webserver der Suchseite, wo ein 2. Computerprogramm, der allgemein so benannte Indexer, Angaben herauslas und katalogisierte (genannte Ansprüche, Links zu anderen Seiten).
Die späten Versionen der Suchalgorithmen basierten auf Informationen, die anhand der Webmaster selber existieren wurden von empirica, wie Meta-Elemente, oder durch Indexdateien in Internet Suchmaschinen wie ALIWEB. Meta-Elemente geben einen Eindruck über den Content einer Seite, doch setzte sich bald heraus, dass die Verwendung er Vorschläge nicht ordentlich war, da die Wahl der eingesetzten Schlagworte durch den Webmaster eine ungenaue Darstellung des Seiteninhalts spiegeln konnte. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Websites bei speziellen Suchen listen.[2] Auch versuchten Seitenersteller verschiedene Merkmale innert des HTML-Codes einer Seite so zu manipulieren, dass die Seite überlegen in den Ergebnissen gelistet wird.[3]
Da die neuzeitlichen Suchmaschinen sehr auf Kriterien dependent waren, die einzig in Koffern der Webmaster lagen, waren sie auch sehr empfänglich für Straftat und Manipulationen in der Positionierung. Um gehobenere und relevantere Testergebnisse in den Ergebnissen zu erhalten, mussten sich die Inhaber der Suchmaschinen im Netz an diese Gegebenheiten angleichen. Weil der Gewinn einer Suchseite davon abhängig ist, besondere Ergebnisse der Suchmaschine zu den inszenierten Keywords anzuzeigen, konnten ungeeignete Ergebnisse dazu führen, dass sich die Mensch nach diversen Möglichkeiten wofür Suche im Web umgucken. Die Auskunft der Suchmaschinen im Internet lagerbestand in komplexeren Algorithmen fürs Rangfolge, die Aspekte beinhalteten, die von Webmastern nicht oder nur nicht ohne Rest durch zwei teilbar leicht manipulierbar waren. Larry Page und Sergey Brin konstruierten mit „Backrub“ – dem Stammvater von Google – eine Anlaufstelle, die auf einem mathematischen Routine basierte, der anhand der Verlinkungsstruktur Webseiten gewichtete und dies in Rankingalgorithmus eingehen ließ. Auch andere Search Engines bezogen bei Folgezeit die Verlinkungsstruktur bspw. gesund der Linkpopularität in ihre Algorithmen mit ein.
Suchmaschinen