Tag: SEO
Mitte der 1990er Jahre fingen die anstehenden Internet Suchmaschinen an, das frühe Web zu katalogisieren. Die Seitenbesitzer erkannten zügig den Wert einer nahmen Listung in den Serps und recht bald fand man Firma, die sich auf die Optimierung ausgerichteten.
In Anfängen erfolgte die Aufnahme oft bezüglich der Übermittlung der URL der speziellen Seite bei der vielfältigen Internet Suchmaschinen. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetseite auf den Web Server der Suchseite, wo ein weiteres Angebot, der bekannte Indexer, Infos herauslas und katalogisierte (genannte Wörter, Links zu diversen Seiten).
Die späten Modellen der Suchalgorithmen basierten auf Angaben, die mithilfe der Webmaster eigenhändig gegeben wurden, wie Meta-Elemente, oder durch Indexdateien in Internet Suchmaschinen wie ALIWEB. Meta-Elemente geben eine Übersicht mit Thema einer Seite, gewiss setzte sich bald hoch, dass die Anwendung der Tipps nicht ordentlich war, da die Wahl der gebrauchten Schlagworte dank dem Webmaster eine ungenaue Darstellung des Seiteninhalts widerspiegeln konnte. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Kanten bei einzigartigen Brauchen listen.[2] Auch versuchten Seitenersteller diverse Fähigkeiten innert des HTML-Codes einer Seite so zu lenken, dass die Seite passender in Ergebnissen aufgeführt wird.[3]
Da die zeitigen Suchmaschinen im WWW sehr auf Aspekte abhängig waren, die alleinig in Händen der Webmaster lagen, waren sie auch sehr vulnerabel für Schindluder und Manipulationen in der Positionierung. Um überlegenere und relevantere Ergebnisse in den Resultaten zu erhalten, musste ich sich die Inhaber der Internet Suchmaschinen an diese Ereignisse adaptieren. Weil der Riesenerfolg einer Suchseiten davon abhängt, relevante Suchresultate zu den gestellten Suchbegriffen anzuzeigen, konnten ungünstige Urteile dazu führen, dass sich die Anwender nach ähnlichen Chancen zur Suche im Web umschauen. Die Erwiderung der Suchmaschinen im Netz lagerbestand in komplexeren Algorithmen beim Ranking, die Kriterien beinhalteten, die von Webmastern nicht oder nur schwer kontrollierbar waren. Larry Page und Sergey Brin konstruierten mit „Backrub“ – dem Vorläufer von Google – eine Suchseiten, die auf einem mathematischen Matching-Verfahren basierte, der anhand der Verlinkungsstruktur Kanten gewichtete und dies in den Rankingalgorithmus einfluss besitzen ließ. Auch zusätzliche Search Engines bezogen pro Folgezeit die Verlinkungsstruktur bspw. fit der Linkpopularität in ihre Algorithmen mit ein.