Telefon: 0951-2099529 | E-Mail: info@jacor.de

SEO-Tutorial & Anleitung

Technisches SEO für Einsteiger

Die Wahl des Domain-Namens

Früher war es für ein gutes Ranking ausgesprochen förderlich, in dem Domain-Namen das Haupt-Keyword, um das es auf der Website geht, abzudecken. Das war allerdings zu Zeiten, als der Google-Algorithmus weitaus weniger ausgefeilt war. Inzwischen erkennt der Suchmaschinenriese anhand von vielerlei Faktoren sehr treffsicher, ob eine Seite relevant ist oder nicht. Im Umkehrschluss heißt das aber nicht, dass der Domain-Name im SEO 2018 völlig egal wäre. Der konkrete Einfluss auf das tatsächliche Ranking ist lediglich zurückgegangen. Nicht aber vollständig weg.

Wer nachhaltiges SEO betreibt, der weiß, dass sämtliche Inhalte in erster Linie für Nutzer gemacht werden sollten und nicht für Google. Am Ende sind es schließlich reale Menschen, die interagieren und ggf. kaufen / Dienstleistungen in Anspruch nehmen sollen. Und wer nach einem bestimmten Thema gesucht hat, der ist eher zu einem Klick bereit, wenn dieses Thema im Titel der Website bereits auftaucht. Weil der Domain-Name in der Ergebnisliste zu Suchanfragen ja bekannterweise recht prominent angezeigt wird, sollte dieser nicht dem Zufall obliegen.

Suche Dir also einen Domain-Name aus, den man sich leicht merken kann und der eventuell auch eines Deiner wichtigen Suchbegriffe enthält. Suchbegriffe im Domain-Namen ist aber wie beschrieben kein Muss.

Die Wahl der Domain-Endung

Mit „Domain-Endung“ ist unter anderem das Länderkürzel gemeint, mit dem Deine URL endet. In Deutschland üblich ist die Endung .de – eine sogenannte „Top-Level-Domain“ (kurz: TLD). Im Gratis-Bereich gibt es hier zahlreiche Abwandlungen oder Ergänzungen. Als das Internet noch in den Kinderschuhen steckte, galt es als tendenziell unseriös, wenn keine TLD gewählt worden war.

domainnamen

Davon einmal abgesehen spielt die Domain-Endung im Jahr 2018 nur noch eine ganz minimale Rolle bei der Suchmaschinenoptimierung. Länderspezifische Domains dürften im dazugehörigen Land zwar geringfügig bessere Chancen zum Ranken haben. Letztlich ist aber jede TLD hier so gut wie chancengleich. Selbst neuartige Endungen, wie beispielsweise der Trend, auf den Domain-Namen ein .städtename folgen zu lassen anstelle des üblichen .de, bringen das gleiche Rankingpotenzial mit. Kurzum: Sofern die URL im Gesamten der User-Experience nicht im Weg steht, kannst Du hier alles nutzen, was frei ist und Dir gefällt.

Du bist also aus SEO-Sicht an keine Domain-Endung gebunden. Unsere Erfahrung hat jedoch gezeigt, dass .de-Endungen in Deutschland schon einen leichten Vorteil genießen.

Webhosting

Zeit also, einen perfekten Anbieter für das Webhosting zu finden. Ein wichtiger Aspekt, auf die Du hier achten solltest, ist neben einem überzeugenden Preis-Leistungs-Verhältnis auch die Server-Performance. Wer ganz am Anfang steht und die jeweiligen Vor- und Nachteile der Anbieter nicht vollends erfassen kann, der ist bei einem der einsteigerfreundlichen Marktführer sicherlich am besten aufgehoben. All-Inkl ist ein Anbieter, den wir in diesem Zusammenhang gerne empfehlen.

In jedem Fall solltest Du einen Anbieter wählen, dessen Server in Deutschland stehen. Für Desktop-PCs mit schnellem Internet mag es zwar kaum einen Unterschied machen, wenn die Daten erst aus den USA oder gar irgendeinem exotischen Land übermittelt werden müssen. Du solltest allerdings auch hier an die mobile Suche denken, die stetig zunimmt. Und hier kann die Performance gerade im mobilen Netz darunter leiden, worauf wir unter Mobile Ladezeiten noch weiter eingehen werden.

Content-Management-System oder HTML Website?

Heutzutage braucht man eigentlich keine HTML-, geschweige denn CSS-Kenntnisse mehr, um eine Website hochzuziehen. Dank der etablierten Homepage-Baukästen kann das jeder Laie mit etwas Einarbeitung in die intuitiven Lösungen der Marktführer. Diese dürften neben WordPress in Deutschland vor allem Jimdo und Wix sein. Einen Vergleich der Vor- und Nachteile der drei Anbieter findest Du übrigens hier. https://jacor.de/homepage-baukasten-im-vergleich/

Optimal ist überdies, dass diese Homepage-Baukästen gleichzeitig auch als CMS dienen (Content-Management-System). Selbst wenn die erste Einrichtung der Website also an einen Profi übergeben wird, kann ein Laie mit wenigen Klicks und ganz intuitiv selbstständig weiteren Content auf der Website einarbeiten.

Wer einen Schritt weiter gehen will –und das würden wir nicht allein wegen der Flexibilität empfehlen– greift zu einem selbstgehosteten CMS wie z.B. WordPress, Typo3, NEOS oder Drupal. Wer eine dynamische Website betreiben will, egal ob Blog, Portal oder Online-Shop kommt an einem Content-Management-System nicht vorbei. Der große Vorteil liegt darin, dass Inhalte sehr leicht gepflegt werden können.

HTML-Seiten sind in der Regel nur durch Profis realisierbar. Muss die Website außerdem stetig erweitert werden, ist ein Webmaster, der regelmäßig zur Verfügung steht, praktisch unabdingbar. Dafür hingegen punkten reine HTML-Seiten ohne Skripte und anderen Schnickschnack stark über die Ladezeiten. Genau das ist das nächste Thema.

PageSpeed

Es ist streng genommen ein Thema für sich. Auch werden wir im zweiten Teil des SEO-Tutorials erneut auf die Ladezeiten eingehen müssen. Beispielsweise, wenn es um den Bilder-Content auf der Website geht. Dennoch kann im Bereich PageSpeed einiges bereits im Vorfeld der Website-Erstellung angepackt werden. Und das sollte es auch, denn gerade die mobilen Ladezeiten werden ein immer größerer Faktor für Google, was wir in diesem Blogbeitrag ausführlich besprochen haben: https://jacor.de/google-bestaetigt-mobile-ladezeiten-sind-wichtiger-rankingfaktor/

Unabdingbar ist, dass die Website sich bei mobilen Aufrufen an das Display des Nutzers anpasst. Beispielsweise durch „Responsive Design“, was sowohl von Google als auch von uns empfohlen wird. Eine Alternative wäre beispielsweise Dynamic Serving oder eine separate Website.

Vier wichtige Tipps gilt es hier zu berücksichtigen:

  1. Ladezeiten gering halten durch optimierte Grafiken, Browser-Caching und Zusammenfassung von CSS- und Java-Skripten
  2. PageSpeed Insights von Google nutzen
  3. Interstitials vermeiden
  4. Button-Größe beachten

Genauer besprechen wir diese Punkte übrigens in unserem Blogbeitrag zum Thema „Mobile SEO“. https://jacor.de/mobile-seo/

Google PageSpeed Insights: Google hat Anfang Dezember sein Tool zur Verbesserung der Ladezeiten neu gelauncht. Es macht in jedem Fall Sinn, seinen Website damit überprüfen zu lassen:

pagespeed insights

 

Hier gehts zum Google Tool Pagespeed Insights: https://developers.google.com/speed/pagespeed/insights/?hl=de

Der Mobile Friedly Test von Google ist ein weiteres Tool, mit dem Du Deine Website testen solltest. Durch das Mobile Friedly Update von Google, hat die Mobilfreundlichkeit einer Website eine neue Bedeutung erhalten. Das zeigt Google, in dem Websites, die für mobile Endgeräte gut optimiert sind, einen Vorteil im Ranking genießen.

mobile-friendly-test

Zum Mobile-Friendly Test: https://search.google.com/test/mobile-friendly

robots.txt

Die Datei mit dem Namen robots.txt hilft dabei, das Crawling durch Suchmaschinenrobots zu steuern. Sie liegt im Root-Verzeichnis des Webservers und ist damit ein wertvolles Indiz für Google. Der Crawler des Suchmaschinengiganten durchforstet quasi deine Website und fügt das, was er entdeckt, dem Index zu. Nun ist es so, dass mit dem Google-Crawler nur eine gewisse Tiefe erreicht wird. Mit der robots.txt-Datei kannst Du exakt übermitteln, was von Deinen Inhalten indexiert werden soll und was nicht.

So kannst Du in der robots.txt vermerken, wenn eine bestimmte Seite nicht indexiert werden soll. Das bietet sich natürlich für Bereich der Website an, die zahlenden Kunden oder Mitgliedern vorbehalten sind. Wichtig ist, dass Du nichts aus dem Index entfernen solltest, was für das Rendern erforderlich ist. Wird also eine Seite indexiert, Skripte darauf oder Bilder allerdings durch die robots.txt-Datei blockiert, so kann es passieren, dass diese Seite im Ranking fällt.

Möglichkeiten mit der robots.txt

Mit diesem Code erlaubst Du dem Googlebot alle Deine Seiten zu crawlen:

User-agent: Googlebot
Disallow:

Alternativ könntest Du den Webcrawlern das Crawlen Deiner kompletten Website verbieten. Das geht mit folgendem Eintrag in der robots.txt:

User-agent: Googlebot
Disallow: /

Wenn Du nach dem User-agent anstatt des Namens des Bots ein * einträgst, bedeutet das, dass diese Anweisung für alle Crawler gilt:

User-agent: *
Disallow: /

Es ist zudem wichtig, dass Du zunächst eine .xml-Sitemap hast! Den Pfad dorthin solltest Du auch in die robots.txt schreiben:

Sitemap: http://www.domain.de/sitemap.xml

Tipp: Mit diesem Tool kannst Du Deine robots.txt testen: https://technicalseo.com/seo-tools/robots-txt/

.htaccess

Ähnlich wie die Robots.txt-Datei kann für bestimmte Nutzer auch die .htaccess-Datei wichtig für die technische SEO-Seite sein. Du kannst damit Konfigurationen des Apache Webservers beeinflussen. Die .htaccess Datei liegt ebenfall im Root-Verzeichnis Deines Webservers. Die Konfigurationen in der .htaccess-Datei, beziehen sich dabei immer auf den gesamten Inhalt des aktuellen Verzeichnisses. Sprich alle Dateien und Unterordner die sich darin befinden.

Hierüber kannst Du Weiterleitungen einsetzen, um 404-Fehler von nicht mehr bestehenden Unterseiten zu verhindern. Solche sind nämlich überaus schädlich für Dein Ranking, sobald der Google-Bot beim Crawling darüber stolpert. Auch bei einem Relaunch nutzt man die .htaccess Datei um Weiterleitungen zur neuen URL einzurichten.

Über den Befehl RedirectPermanent oder Redirect301 kannst Du hier eine neue Unterseite eingeben, zu der der alte Link zukünftig weiterleiten soll.

Redirect 301 /alter-ordner/inhaltsverzeichnis.html http://www.deinedomain.de/neuer-ordner/inhalt.html

Hier findest Du einen .htaccess Generator, der Dir hilft, Weiterleitungen einzurichten, ein Verzeichnis mit einem Passwort zu schützen, Bots oder IPs zu blockieren und vieles mehr: https://www.htaccessredirect.net/