Det kan kun være skidt rent duplicate content mæssigt, men er der en smart måde hvorpå man kan fortælle Google at den ikke skal indexerer URL med fx denne "?options=cart" som særskilt side?
Kristian har ret i at benytte * (Wildcards) til at udelukke "dynamiske" URL´s. Jeg er dog ikke helt sikker på opsætning på den, men der er det bare at teste :)
At bruge robots.txt til dette er ikke helt optimalt. Tænk på en rigtig ondsindet konkurrent der smider et backink op til siden (eller en ubetænksom bruger). Søgemaskinerne vil følge linket og indeksere denne da der i din html står <meta name="robots" content="index, follow"> - så her vil kun et noindex på siden hjælpe.
Jeg er ikke programmør, men vil tro dette skal ændres i selve kildekoden til webshoppen. Men har i en brugergruppe kan i måske få udviklet et modul eller plugin til en rimelig pris.
Desuden kan man bruge google webmaster tool under webstedkonfiguration - indstillinger – parameterstyring – og sætte paremeterne til ignorer i stedet for ”lad google afgøre sagen”.
Det sidste man kan bruge er canonical tags – som er meget brugt på udenlandske udviklede programmer. Canonical tags sættes ind i <head> sektionen på de duplicate content ramte sider og peger mod den side du mener er den originale. <link rel="canonical" href="http://yoursite.com/yourpage.php"/>