Tag: SEO
Mitte der 1990er Jahre fingen die 1. Suchmaschinen im Netz an, das frühe Web zu sortieren. Die Seitenbesitzer erkannten flott den Wert einer nahmen Listung in den Ergebnissen und recht bald entstanden Betrieb, die sich auf die Besserung professionellen.
In Anfängen vollzogen wurde die Aufnahme oft über die Übermittlung der URL der jeweiligen Seite in puncto diversen Suchmaschinen im Netz. Diese sendeten dann einen Webcrawler zur Analyse der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webseite auf den Server der Suchseiten, wo ein weiteres Anwendung, der allgemein so benannte Indexer, Angaben herauslas und katalogisierte (genannte Wörter, Links zu sonstigen Seiten).
Die frühen Varianten der Suchalgorithmen basierten auf Infos, die mithilfe der Webmaster sogar vorhanden wurden von empirica, wie Meta-Elemente, oder durch Indexdateien in Search Engines wie ALIWEB. Meta-Elemente geben einen Eindruck via Thema einer Seite, allerdings stellte sich bald herab, dass die Anwendung er Vorschläge nicht verlässlich war, da die Wahl der genutzten Schlüsselworte dank dem Webmaster eine ungenaue Präsentation des Seiteninhalts spiegeln kann. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Webseiten bei individuellen Stöbern listen.[2] Auch versuchten Seitenersteller mehrere Eigenschaften im Laufe des HTML-Codes einer Seite so zu beeinflussen, dass die Seite besser in den Serps gelistet wird.[3]
Da die zeitigen Suchmaschinen im WWW sehr auf Kriterien dependent waren, die einzig in den Taschen der Webmaster lagen, waren sie auch sehr empfänglich für Abusus und Manipulationen in der Positionierung. Um bessere und relevantere Ergebnisse in Suchergebnissen zu erhalten, musste ich sich die Besitzer der Search Engines an diese Faktoren integrieren. Weil der Ergebnis einer Suchseiten davon anhängig ist, relevante Suchresultate zu den gestellten Suchbegriffen anzuzeigen, konnten ungeeignete Testurteile dazu führen, dass sich die Benutzer nach anderen Wege für den Bereich Suche im Web umblicken. Die Auskunft der Internet Suchmaschinen vorrat in komplexeren Algorithmen für das Platz, die Faktoren beinhalteten, die von Webmastern nicht oder nur nicht leicht steuerbar waren. Larry Page und Sergey Brin gestalteten mit „Backrub“ – dem Vorläufer von Die Suchmaschine – eine Suchseite, die auf einem mathematischen Suchalgorithmus basierte, der mit Hilfe der Verlinkungsstruktur Internetseiten gewichtete und dies in Rankingalgorithmus eingehen ließ. Auch zusätzliche Search Engines orientiert während der Folgezeit die Verlinkungsstruktur bspw. fit der Linkpopularität in ihre Algorithmen mit ein.