Websites er lidt som biler: Jo ældre de er, jo mere outdated bliver de. De holder ikke evigt og i takt med at brugsadfærden stiger, trænger websitet til ny dele. Det kunne f.eks. være nye plugins, et nyt design eller generelt nyt indhold. Faktisk kan et website blive så ”træt”, at selve motoren skal skiftes ud – er det tilfældet og står du overfor en komplet omlægning af dit website, så er der én konkret ting, du skal overveje, så du ikke taber synlighed, mens dit nye website udvikles. Nøgleordene i denne artikel er ”testmiljø” og ”Googlebot”, så lad og kigge lidt nærmere på, hvordan du håndtere disse to ting, når du udvikler et nyt website.
Hvad er et testmiljø
Et testmiljø er dybest set bare en hjemmeside. Det kan, afhængig af formålet, enten være en klon af din nuværende hjemmeside, eller et helt nyt miljø, hvor du opbygger dit nye website. I testmiljøet er det meningen, at du kan teste ændringer, før du lægger dem live på det primære site. På den måde undgår du nedetid på dit website, eller et periodisk dårligt brugerengagement, hvis siden pludselig ikke virker optimalt.
Sub-domæne som testmiljø
Test-sitet ligger ofte på et subdomæne, altså f.eks. test.din-hjemmeside.dk. Er dette tilfældet skal du huske, at et sub-domæne behandles som et selvstændigt domæne og kan derfor, som de fleste andre domæner, tilgås af søgemaskinerne.
Problemet med dette er, at søgemaskiner som Google pludselig kan få adgang til to identiske versioner af dit website – et scenarie der skaber duplikeret indhold og dermed kan få fatale konsekvenser for dit websites organiske tilstedeværelse i søgemaskinerne.
Derfor er det vigtigt, at du altid blokerer for søgemaskinerne, når du håndterer et testmiljø. Dette kan gøres på flere måder – nogle mere sikre end andre – vigtigst er dog, at du kun vælger én af løsningerne.
Passwordbeskyttet testmiljø
Søgemaskinerne kan ikke crawle sider, der ligger bag et login – det ved vi, hvorfor denne metode også må betegnes som den mest sikre. Ud over at søgemaskinerne ikke kan få adgang til sitet, eliminerer ligeledes muligheden for, at andre, du ikke ønsker skal have adgang, får det.
Robots.txt
En anden mulighed er, at udelukke søgemaskinerne i robots.txt-filen, på dit website – hvis du altså har en. Har du en robots.txt fil, skal den ligge her: hjemmeside.dk/robots.txt. Selve udelukkelsen af søgemaskinerne i filen, ser således ud:
User-agent: *
Disallow: /
META-robots NOINDEX
Den sidste mulighed jeg vil præsentere dig for, er et META-robots-tag. En mulighed der også virker, men som er den, jeg mindst vil anbefale dig at bruge. Dette foregår ved, at implementere META-robots tagget “noindex” i header-sektionen på sitet. Dette forhindrer sider i at blive indekseret – men ikke i at blive crawlet af søgemaskinerne.
Selve tagget ser således ud:
<META NAME=”ROBOTS” CONTENT=”NOINDEX, NOFOLLOW”>
Som sagt er det vigtigste, at du kun vælger én af ovenstående løsninger. Den bedste og mest sikre løsning er, at placere dit test- eller udviklingssite bag en login-mur, da du med denne løsning kan være sikker på, at søgemaskinerne ikke kommer i nærheden af dit test-site. Med robots.txt-løsningen risikerer indeksering og med noindex-løsningen tillader du søgemaskinerne at crawle sitet. Så tænk dig grundigt om, eller lad os hjælpe dig, inden du igangsætter udviklingen af din nye hjemmeside.