Google Crawling Fehler bei eingeschaltetem SEO URI´s durch multisort und fehlendem ?

  • Geht wen du die nicht braucht auch so in
    robots.txt :

    user agent google dan den url/s in Kombination mit ? und oder * abschalten was google angeht
    So etwas aber ist für anderes website gedacht

    Disallow: /*currency=
    Disallow: /*filter=
    Disallow: /*language=fr

  • Soweit hab ich auch schon gedacht,

    Generell ist aber irgendwo ein Fehler, da 2 parameter doppelt an die URI angehangen werden, so what. Da mußte man mal nachsehen, ich weiß bis nu aber noch nicht, wo.


    Disallow /*multisort*

    Vorne Platzhalter, muß hinten auch, oder wird bei treffer *multisort schon übergangen?!