Allgemein

Nischenseiten-Challenge 2016 – Status Report #4 – Text Broker und serposcope

Woche fünf ist durch und ich habe sie hauptsächlich mit der OnPage-Optimierung der bestehenden Seiten verbracht. Das war im Wesentlichen die Optimierung der Seiten auf bestimmte Keywords und die interne Verlinkung.

Für die Optimierung benutze ich den EVERGREEN ON-SITE SEO GUIDE von Matt Diggity. Den bekommt man, wenn man sich auf seiner Seite in den Newsletter einträgt.

Die Keyword-Optimierung hat sich auch direkt in den Rankings bemerkbar gemacht. So haben bestimmte Seiten, die für bestimmte Keywords vorher sehr weit unten lagen oder gar nicht in den SERPs waren, direkt einen guten Sprung nach oben gemacht.

„Guter Sprung“ ist allerdings relativ zu sehen. Aktuell ist die Seite für drei Keywords auf der vierten Suchergebnisseite, für zwei Keywords auf der fünften und für vier auf der sechsten. Alle anderen Keywords liegen darunter bzw. kommen noch garnicht in den Suchergebenissen vor.

Neben der OnPage-Optimierung hab ich zum ersten Mal das Schreiben eines Textes ausgelagert und einen neuen Rank Tracker gefunden und ausprobiert:

Text Broker – Meine erste Bestellung

Ich hatte ja in der letzten Woche berichtet, dass ich zum ersten Mal das Schreiben eines Textes ausgelagert hab. Ich hatte den Text bei Text Broker bestellt. Der Preis lag bei rund 25 Euro.

Die Bearbeitung ging super rasch. Ich habe ihn am Sonntag bestellt und bereits am Montag hatte ich das Resultat, obwohl ich als Bearbeitungszeitraum drei Tage angegeben hatte.

Mit dem Resultat bin ich absolut zufrieden. Das gilt für die Sprache bzw. Stil und auch für die zusätzlichen Recherchearbeiten, die in dem Auftrag mit enthalten waren. Im Endeffekt hatte ich nur zwei kleiner Anmerkungen, die auch wieder super schnell binnen einer Stunde erledigt wurden.

Auch was die SEO-Optimierung angeht hat mir der Text einiges abgenommen. Bei Text Broker kann man direkt angeben, welche Keywords in welcher Anzahl vorkommen. Diese Angaben haben meinen Aufwand bei der nachträglichen OnPage-Optimierung insbesondere beim Unterbringen der relevanten Keywords im Text wesentlich reduziert.

Ich Texte definitiv wieder bestellen. Allerdings auch bei genau der Autorin, die auch meinen ersten Text bearbeitet hat. Das geht übrigens auch bei Text Broker. Man bekommt ein Pseudonym für die Autorin/den Autor und kann dieser/diesem auch einen Direkt-Auftrag erteilen.

Meine Erfahrung mit Text Broker sind auf jeden Fall positiv und ich würde es weiterempfehlen.

serposcope – Neuer Rank Tracker im Einsatz

Um die Platzierungen zu tracken habe ich bisher immer whatsmyserp.com und serpfox.com genutzt. Allerdings gefiel mir bei whatsmyserp nicht, dass es für eine große Anzahl an Keywords sehr lange dauert, bis diese geprüft sind. Bei serpfox.com gefiel mir der Preis nicht.

Also habe ich nach einer Alternative gesucht und bin auf serposcope gestoßen. Serposcope ist ein open source rank tracker. Er erlaubt eine unbegrenzte Anzahl an Keywords und Webseiten und checkt die Keywords auch in einer zufriedenstellenden Geschwindigkeit.

serposcope ist in Java geschrieben und damit plattform-unabhängig also sowohl mit Windows, OS X und Linux nutzbar. Alles was man tun muss, ist, über die Konsole mit Hilfe des Java-Interpreters die entsprechende JAR-Datei starten und schon kann man serposcope über den localhost auf Port 7134 aufrufen.

Für das Checken der Platzierungen empfiehlt es sich Proxies, zu nutzen. Ich habe mir für 10$ bei buyproxies.com zehn semi-dedicated Proxies gekauft.

Außerdem braucht man einen Service, um Captchas zu lösen. Ich habe mir den günstigsten Plan für 6,95$ bei deathbycapture.com gekauft. Dafür bekommt man 5000 Captchas. Das sollte für’s Erste reichen, wenn man täglich einmal checkt.

Mit serposcope bin ich bisher zufrieden und plane es weiterhin zu benutzen. Besonders gut gefallen mit die unterschiedlichen Ansichten, die dabei helfen, die Entwicklung einer Website hinsichtlich ihrer Platzierung in den Suchmaschinen darzustellen.

Hier noch ein Video über serposcope:

Aufwand und Kosten

Ok, zum guten Schluss wieder die Aufstellung der aktuellen Kosten bzw. des aktuellen Aufwandes. Die Kosten für die Proxies und den Captcha-Dienst nehme ich nicht mit rein, da ich diese Services auch anderweitig nutze.

Aufwand gesamt: 83,6h
Einmalige Kosten:

  • Aufwand x Mindestlohn = 83,6 x 8,5€ = 710,60€
  • Domain: 6,51€
  • Text: 24,69€
  • Gesamt: 741,80€

Laufende Kosten:

  • Hosting all-inkl: 4,95€/Monat
  1. Hi Julian,

    ich habe in der Vergangenheit auch versucht, mit Textbroker zu arbeiten und es hat so gar nicht geklappt. Vielleicht war ich auch zu geizig. Wenn du jemand gefunden hast, der es gut macht, ist es sicher ratsam, diese Person wieder zu buchen.

    Danke für den Serposcope-Tipp. Kannte ich noch nicht!

    Viele Grüße
    Till

  2. Hallo Julian,
    habe deinen Beitrag hier schon vor Wochen gelesen – und als Resultat auch Serposcope auf meinem Rechner installiert: Ich danke dir für diesen Tipp – ich benutze es bisher allerdings ohne Proxies und automatischem Capturelöser. Dabei kommt Serposcope bei aktuell 32 eingetragenen Keyword-Kombis für 3 Websites laut Logfile immer auf 20-21 erfolgreiche Abfragen, bevor das Einblenden eines Captures den Prozess abbricht… mir reicht das aber erst einmal 😉 .
    Schade finde ich, dass du nicht weiter zur NSC und deiner Seite berichtet hast. Hast du aufgegeben oder nur vertagt?

    Viele Grüße
    Christian

    • julian

      Hey Chris,

      du hast für drei 3 Websites 32 Wörter? Dann sind das ja für jede Website weniger als 11. Ich hab neulich an dem Webinar mit Matt Diggity teilgenommen. Vielleicht kennst du den. Falls nicht such ihn mal bei Google. Er hat einen super Guide für OnPage-SEO, wie ich finde. Jedenfalls hat er in dem Webinar auch erwähnt, dass Google mittlerweile Usage Metriken mit in die Rankings einfließen lässt. Unteranderem die Click Through Rate und auch, wie lange Leute auf deiner Seite verweilen, bis sie wieder nach Google zurückkehren.

      Mr. Diggity’s Tipp, um bei den Usage Metriken gute Werte zu erzielen war, Seiten nicht nur auf zwei bis drei Keywords zu optimieren, sondern eine ganze Latte an Keywords und verwandten Longtails unterzubringen. Denn für die profitablen Haupt-Keywords wird man erstmal auf den hinteren Rängen bei Google sein. Da wird dann wohl kaum einer durchklicken geschweige denn sehr lange auf der Seite verweilen. Aber für Longtails mit wenig Suchvolumen/Konkurrenz kommt man natürlich leichter nach oben und kann schon mal ein gewisses „Grundrauschen“ erzeugen.

      Lange Rede, kurzer Sinn: Ich lasse mittlerweile wesentlich mehr Keywords in eine einzelne Seite mit einfließen und tracke diese dann auch entsprechend. D.h. ich würde niemals mit knapp 11 Keywörtern pro Seite auskommen und deshalb auch nie ohne Proxies und Captcha Breaker 😉

      Ok, sehr weit ausgeholt und immer noch nicht auf die eigentliche Frage geantwortet. Das kommt jetzt:

      Ich habe nicht aufgegeben. Vielmehr ist es so, dass ich neben dem Nischenseiten-Projekt noch andere Methoden ausprobiert hab. Mein aktueller Eindruck ist, dass man viel mit Trial-and-Error zu tun hat, bis man auf Methoden stößt die wirklich funktionieren und vor allem auch wiederholbar sind. Entsprechend hatte ich viel zu tun und hab das mit den NSC-Reports runterpriorisiert. Mal sehen, vielleicht schreibe ich noch einen Abschlussbericht.

      Gruß
      Julian

      P.S. Hier noch ein Tipp für dich bzgl. SERP-Checker: Probier mal serplab.co.uk. Da kannst du 150 Keywords/Tag checken. Und das beste: Es ist gratis 😉

  3. Hallo Julian,
    du hast Recht, der (Zeit-)Aufwand für die Reports zur NSC war enorm – und die dazu verwendete Zeit geht dann leider für die konstruktiven Arbeiten an deinen Webseiten verloren. Zumal man in der Regel eh zu viele Sachen gleichzeitig voran bringen will, ja – da hilft nur priorisieren, sonst droht Stillstand gleich bei allen Themen…
    Im Gegensatz dazu war für mich aber der Gewinn, dass ich per Durchhalten nun eine 13-15 teilige Artikelserie in meinem Blog dauerhaft stehen habe ;-).

    Danke für deinen Tipp bzgl. Matt Diggity – seinen „Evergreen Onsite SEO Guide“ habe ich mir runtergeladen und folge ihm spaßeshalber auch mal per Twitter. Sein Guide ist für einen Einstieg auf jeden Fall gut geeignet.

    Und ja – es stimmt, 10 Keywordkombinationen pro Webseite sind recht wenig. Das Dilemma mit den betreffenden Seiten ist, dass noch kaum Content da ist, um die dann damit abgedeckten Head- und Longtail-Keywords zu tracken. Danke in diesem Zusammenhang auch für den Hinweis auf serplab.co.uk – habe ich probiert: Ist für einen schnellen Check umfangreicher Kombis sehr gut geeignet (die Seite beschwert sich bei mir aber immer, dass ich mit Adblocker unterwegs bin ;-)).
    Für eine stabile, dauerhafte Lösung würde ich trotzdem weiterhin auf Serposcope setzen, da die Ergebnisse der täglichen Läufe dann lokal auf meinen Systemen liegen bleiben – fühlt sich irgendwie besser an. Sobald die Menge an zu trackenden Keywords bei mir weiter ansteigt, werde ich sicher auch Proxies und Captcha-Löser dazu buchen – jetzt habe ich erstmal wieder auf 19 Keywords reduziert – was glatt durchläuft –, indem ich eine der getrackten Webseiten rausgenommen habe. Gut für mich wäre, wenn man die von Google generierten Captchas an die Oberfläche bekommen könnte – ich hätte vorerst kein Problem damit, diese dann zu lösen. Solch ein „Zusatzmodul“ für die manuelle Eingabe gibt es wohl für Serposcope nicht, oder?

    Viele Grüße
    Christian

Leave a Reply

Theme by Anders Norén