404 Fehler bei jeder 2. Seite

  • Hi @ all,

    mein Shop verursacht irgendwie immer wieder Fehler sobald eine 2 Seite wegen Anzahl artikel erforderlich ist. Ich meine die erste Seite macht kein Problem, sobald man aber auf Seite 2 Klickt kommt 404.

    DirectURLV3 ist aktiv, SUMAfreundliche URLs ist aktiv. Bisher bin ich den Fehler aus den weg gegangen indem ich die Anzahl der Artikel pro Seite erhöht habe, dachte ich finde im Netz irgendwo eine Lösung. Bisher aber erfolglos und endlos weiter kann ich ja die Artikelanzahl nicht treiben...

    Der Link der auf Seite zwei führen soll sieht so aus: http://www.meine-domain.de/de/Kat1/Kat2--…th=7_53&cat=53&

    Hat jemand eine Idee?

    Einmal editiert, zuletzt von TigerX (23. November 2010 um 23:20)

  • Ich habe das gleiche Problem mit Seite 10,20,30 (die sind dann die gleichen wie 1,2,3 etc.). Das Problem taucht hier im Forum öfters aus. Eine Lösung gibt es sicherlich in der V3 ;)

  • So ein Mist :o ich kann doch nicht ewig die Artikelanzahl pro Seite hochtreiben, bis kein Mensch mehr geduldig genug ist eine Seite laden zu lassen :confused: Selbst wenn ich alles mögliche an Unterkategorien in den Shop reinquetsche...

    Ist das Problem etwa ein seltenes Phänomen bei manchen hier oder warum wird gibt es hierfür keine Lösung? Auf V2 kann ich dank nicht vorhandener DB Update nicht wechseln, nebenbei ist V2 recht buggy und mein V1 Shop ist reichlich modifiziert was den Wechsel allgemein erschwert.

    Oh man, da fährt man mit einem Onlineshopsystem mit angezogener Handbremse durch die Gegend.

  • Ich habe 2 Shops. Einmal V1 und einmal V2. Das Problem habe ich in beiden Versionen. Daher hatte ich ja auch geschrieben, daß dieses Problem wohl in der V3 gelöst sein wird :)

  • Klingt ganz und gar nicht gut :(

    Interessanterweise taucht das Problem bei meinem anderen shop (ist älter als dieser hier) nicht auf. Ich habe zwar im Moment keine weiteren Seiten mehr (da alle Artikel ausreichend kategoriesiert sind) doch früher als es mehrere Seiten waren gab es das Problem gar nicht...

    Und keiner hat wirklich eine Idee warum, Lösung etc.?

    Danke dir für die Antworten :) Wie bist du bisher das Problem aus dem Weg gegangen?

  • Wie bist du bisher das Problem aus dem Weg gegangen?

    Bei mir gibt es nur 9 Seiten pro Kategorie und da sehr viele verschiedene Varianten der Seiten von Google gefunden werden (mal mit language=de oder $language=de oder Seite--3$language=de oder ....) habe ich das in den Webmastertools gesperrt. Nun meckern die Webmastertools immer rum, da Hunderte Seiten von der robot.txt gesperrt sind aber kein noindex-Tag haben. Meine V2 hat auch noch eine Sprachenbox und wenn dann ein User oder Google die Sprache wechselt, dann kommen andere abenteuerlichere Links zustande oder auch 404er.

    Das einzige was da hilft ist fast alle Varianten in der robot.txt zu sperren oder ein nofollow-Link zu setzen. Oder auf die V3 warten :)

  • Echt übel der Bug... Dann muss ich wohl irgendwie damit klar kommen.

    Wo du schon die Webmastertools und Robots.txt erwähnst, ich habe mal durch die Robot.txt die URL anhängsel "?XTCsid=00109e9243.................." sperren lassen, jetzt meckert Google dass viele Links gesperrt oder eingeschränkt sind. Soweit ich weiß tauchen diese XTCid... immer beim ersten aufruf auf, ich fands einfach nicht schön. Nun weiß ich nicht ob das so eine gute Idee war.

    Soll ich den Code aus der Robot.txt vielleicht lieber rausnehmen?

    Danke für die Antworten.

    Gruß

  • Die XTCsid sollte auf keinen Fall von Google in den Index aufgenommen werden. Also so lassen.
    Man kann in den Webmastertool auch direkt angeben, daß Seiten die ein ? in der URL haben ignoriert werden.

  • Ah ja, bei denen kann man zwar viel mehr auswählen was die Sortierung angeht, aber der Fehler ist der gleiche, sobald man auf Seite 2 klickt ist der Link im Eimer. Gleicher Effekt bei mir :(

    EDIT: Ah ja die nutzen ja die V2, ich benutze weiterhin V1, gibts da also keine Lösung für?


    Zitat

    Die XTCsid sollte auf keinen Fall von Google in den Index aufgenommen werden. Also so lassen.
    Man kann in den Webmastertool auch direkt angeben, daß Seiten die ein ? in der URL haben ignoriert werden.


    Danke.
    Bei mri sind nun:
    Durch robots.txt gesperrt :4.605
    im Index sind 86 Aufgenommen.

    Dann lass ich es mal so, habe zusätzlich bei der "Parameterbehandlung" unter XTCid und product_id beides auf ignorieren...