In diesem Beitrag befassen wir uns grundsätzlich mit der Funktionalität von SEO, welche Schritte gibt es und wie laufen diese ab?
Beim Crawling wird ein Bot benutzt, um Seiten zu untersuchen und die Inhalte zu indexieren. Das bedeutet, dass ohne Crawling die Seite nicht angezeigt werden kann. Damit also alles gecrawled werden kann, muss man wissen was vermieden werden sollte.
Der Crawler kann sich nicht einloggen, erkennt keine Bilder und Videos (nur das <image> tag) und kann Suchformulare nicht nutzen. Außerdem kann der Crawler nur über Links alle Subseite anschauen, wenn also eine Subseite nicht verlinkt ist, kann diese auch nicht gecrawled werden.
Hierbei geht es nur um das Speichern der gecrawlten Informationen in einer Datenbank. Auf diesen Schritt hat man kaum Einfluss, man kann nur eine Sitemap für die Suchmaschine hinterlegen. Bei Google funktioniert das über die Search Console.
Im Ranking geht es um die Ergebnisanzeige, die vom Suchenden aufgerufen wird. Der Algorithmus von Suchmaschinen wertet die indexierten Seiten nach bestimmten Kriterien wie Keywords und Synonyme für diese, Relevanz der Inhalte, Vertrauenswürdigkeit (z.B. durch Links) und vielen weiteren aus. Hier ist es besonders wichtig manuell relevante Inhalte erstellt zu haben.
© 2021 by MXTM