Langt de fleste websites har mere end én side publiceret. Hver gang du opretter nye sider, kategorier, indlæg eller noget helt fjerde, genereres der en ny URL. Denne URL består af folders og/eller filer. I reglen kan man sige, at jo større dit website er, desto flere folders har du og jo dybere skal Google ned i din website-struktur for at indeksere alle sider korrekt. Det kan nemlig give indekseringsproblemer, hvis du har en for dyb struktur på dit website, og ikke har den interne linkstruktur på plads, eller f.eks. anvender et sitemap.
Identiske folders
Det bringer os til pointen med dette indlæg. Er navnet på disse folders identisk og gentages de mere en to gange i samme URL, så bliver de slet ikke indekseret. Det viser en undersøgelse som Deepcrawl har lavet.
Et eksempel kunne være at webshoppen, der sælger mobilcovers, havde et website på domænet www.flotte-covers.dk. Shoppen sælger mange covers, blandt andet til iPhone 7, hvorfor der er oprettet en kategori til disse – denne ligger på www.flotte-covers.dk/iphone7/ – en URL, der vil have et fint udgangspunkt for at rangere godt i søgemaskinerne. Var der derimod lavet en URL, der hed www.flotte-covers.dk/iphone7/iphone7/iphone7 ville shoppen være i store problemer, da den pågældende URL ikke ville blive indekseret. Det lyder skørt, men faktisk er det ikke et så ukendt fænomen, at folders hedder det samme.
Men der er mere til historien. Det er nemlig sådan, at du har samme dårlige udgangspunkt selvom URL’en brydes af en unik folder, som f.eks. sådan her: www.flotte-covers.dk/iphone7/covers/iphone7/iphone7 – denne vil altså heller ikke blive indekseret i følge testen fra Deepcrawl, som også præsenterer et andet ikke så ukendt fænomen, hvor der genereres folders, som udelukkende består af bindestreger /-/-/-/. Her har vi altså også problemet med tre identiske folders.
Google tror det er en fælde
Der findes et begreb inden for SEO, som hedder “URL trap”. En sådan fælde kan opstå af flere årsager, som f.eks. ved brug af parametre, for lange ustrukturerede URLs, URLs med for mange folders, eller, som indlægget her omhandler, URLs med mere end to identiske folders.
John Mueller skulle efter sigende også have bekræftet dette, med denne udtalelse (oversat)
Jeg kan godt se, at den slags optimering nogle gange giver mening – der er mange websites, der har uendelige indlejrede folders på grund af URL-omskrivningsfejl
Husk på at det jo ikke nødvendigvis er dig selv, der manuelt har oprettet disse uhensigtsmæssige URLs – det kan sagtens være dit CMS, der spiller dig et puds. Det er derfor vigtigt altid at foretage stikprøver af websitets struktur og løbende læse grundigt op på det valgte CMS – især når der lanceres opdateringer af dette.