Sökmotoroptimering

Hans Sandblom är SökmotoroptimerareSEO DESIGN AB i Göteborg och har arbetat med SEO sedan 1998, innan Google fanns

Använder ni http:// och https:// (SSL-certifikat ehandel)

Man vill definitivt inte ha samma sida som visas under två olika protokoll, det kallas för ”duplicate content”.

Min erfarenhet är att robots.txt inte alltid löser detta problemet. Ibland när man har en säker subdomän, exempelvis… som i http://secure.exempel.se …för sidor som skall vara https, kan man använda robots.txt för att kontrollera Google’s access till den säkra subdomänen men det kommer inte att till 100% lösa problemet. Den säkra subdomänen är nödvändig att accepteras i robots.txt för att kontrollera access till http och https protokollet som man vill ha säkrat. 

Men så snart man duplicerade url’er på nätet så kommer inte robots.txt att lösa problemet.

Notera att rel=”cannonical kan lösa problemet med Google-indexeringen men det är inte heller 100%’igt. Har man ett IIS’cms som automatiskt sätter rel=”canonical” så kan detta problem förvärras.

Man kan kontrollera om Google har indexerat några https url’er genom att göra följande:

site:exempel.se inurl:https://

a) Man kan presentera olika robots.txt-filer om förfrågan kommer från https och kontrollera Googles access till https där
b) Du kan använda canonical element på alla sidor för att tala om att http är canonical versionen.

För Windows, om du har  ISAPI_Rewrite…

RewriteCond %HTTPS ^on$
RewriteRule /robots.txt /robots.https.txt [I,O,L]

——
För Apache:

RewriteEngine on
RewriteCond %{SERVER_PORT} ^443$
RewriteRule ^robots\.txt$ robots_ssl.txt [L]

——————
Läs mer om Canonicalization code
https://support.google.com/webmasters/answer/139394?hl=en

hans-sandblom
Hans Sandblom på Google+

Leave a Reply