Dagen innan firandet av Google’s 15-årsdag återgick Google till samma position som dom hade när allting bokstavligen startade. I garaget där Larry Page och Sergey Brin huserade när världens största sökmotorföretag skapades så annonserade Google igår, en handfull nya uppdateringar till företagets sökfunktioner och en stor uppdatering i sökalgoritmen som Google kallar för ”Hummingbird.” Den …
Varför Googles algoritm är trasig
Matt Cutt’s tweetade om en ny hemsida som Google har lanserat som ger en inblick i hur man hanterar spam. Det är ingenting av detta som är nytt för oss men det förklarar en del som kan vara intressant. Exempelvis hur man tar ett manuellt grepp över 60.000 domäner per månad och över 20.000 begäran om …
Länkbygge är inte illegalt, Matt Cutts intervjuas
Detta är en direkt översatt intervju från http://www.stonetemple.com/link-building-is-not-illegal-or-bad/ Länkbygge är inte illegalt (eller generellt dåligt/farligt) med Matt Cutts Eric Enge: Det finns människor som tror att länkbygge är illegalt nu, är så fallet? Matt Cutts: Nej, länkbygge är inte illegalt. Eric Enge: Verkligen ? Matt Cutts: Det är roligt för att det finns vissa …
Vikten av att uppdatera sin hemsidas innehåll
Att skapa välorganiserad, välskriven hemsida är ett bra förutsättning och kan leda till en lukrativ affärsverksamhet, men det är inte där arbetet slutar. Oavsett om hemsidan skapades förra månaden eller förra året är det enormt viktigt att innehållet är bra och frekvent uppdaterat och färskt. Uppdatering av innehållet så det fortfarande är relevant kan hjälpa …
Vilka länkar skall man anmäla med Google’s disavow?
Här kommer några frågeställningar som man bör ta i beaktande med Google’s disavow verktyg: 1) Om en länk redan är taggad med ”nofollow”, behöver det verkligen disavowas / tas bort? Nej, men varför skulle du inte göra det som en försiktighetsåtgärd, eftersom du inte har kontroll över länken om status förändras. Är länken relaterad skulle …
Använder ni http:// och https:// (SSL-certifikat ehandel)
Man vill definitivt inte ha samma sida som visas under två olika protokoll, det kallas för ”duplicate content”. Min erfarenhet är att robots.txt inte alltid löser detta problemet. Ibland när man har en säker subdomän, exempelvis… som i http://secure.exempel.se …för sidor som skall vara https, kan man använda robots.txt för att kontrollera Google’s access till …
Google Webmaster Tools förser er nu med bredare och mer strukturerad länkdata
Google skrev igår att länkdatan i Webmaster tools är bredare och ett mer diverserat tvärsnitt av länkar. Vad menar dom med det? Istället för att visa oss länkar i alfabetisk ordning så visar Google nu exempellänkar likformigt från hela spektrumet av inlänkar stället alfabetiskt. Google säger att det betyder att dina länkar blir mer diverserade …
Nytt sätt att se manuell granskning av ”spamlänkar” i Webmaster Tools
Google skriver: Vi strävar efter att få bort spam från sökresultaten. Detta inkluderar förbättring av våra webspamalgoritmer samtidigt som vi vi genomför manuella kontroller för att finna spamlänkar som strider mot våra riktlinjer. Många webmasters vill se om deras hemsida påverkats av en manuell granskning så idag introducerar vi en ny funktion som borde underlätta. …