Beiträge von waldschrat

    Vielen Dank für eure Antworten, das Problem lag nicht an der .htaccess, sondern daran, dass in einem JavaScript ein Fehler aufgetreten ist, der in der letzten Zeile im Quelltext einen 500er Fehler ausgeworfen hat (Fehlende Klasse oder sowas). Nachdem ich diesen Fehler beseitigt habe, indiziert auch Google und Co :)

    Hallo liebe commerce:SEO - Gemeinde,

    ich habe commerce:SEO v2.2 CE installiert, der Shop läuft soweit auch einwandfrei, bis auf eine Ausnahme. Ich habe den Shop bei den Google-Webmaster Tools angemeldet und erhalte unter "Crawling-Fehler" bei jeder Seite einen 500er Antwortcode. Auch wenn ich unter "Abruf wie durch Google" eine beliebige Seite oder die Startseite eingeben, erhalte ich als Abrufstatus "Seite nicht erreichbar". Rufe ich unter der normalen Google suche meinen Domainnamen mit site: ab, so ist nur die "shopping_cart.php" aufgeführt, die allerdings per robots.txt ausgeschlossen sein sollte. An der robots.txt habe ich nichts verändert, die Änderungen an der .htaccess, die hier im Forum bei einem 500er Antwortcode vorgenommen werden sollten, habe ich gemacht, es hat allerdings nichts daran geändert.

    Auch beim Prüfen der Seite mit dem W3C Validator erscheint die Fehlermeldung "500 Internal Server Error". Interessehalber habe ich mir die Logdatei des Servers angesehen. Bots waren schon einige da (Google / Slurp / Yandex / Alexa) und wenn sie Dateien wie die robots.txt oder rss_news.php abrufen, kriegen sie einen 200er Antwortcode. Bei den restlichen Seiten erhalten sie allerdings einen 500er Code zurück.

    Weiß vielleicht jemand von euch Rat oder hat diesen Fehler selbst schon mal gehabt? Ich wäre euch sehr dankbar, wenn ihr mir bei der Lösung helfen könnt, ich probier hier schon stundenlang rum und komme einfach nicht drauf.

    Vielen Dank im Voraus!