FAQ |
Kalender |
|
2010-10-16, 18:31 | #1 | ||
|
|||
Nykomling
|
Har en sajt med över 50 unika sidor. Google indexerade nästan 40 st av dessa men har sedan helt tvärt sluta indexera fler. Som om det inte var konstigt nog så har Google t.o.m. tagit bort vissa av mina sidor från sitt index. Antal indexerade sidor verkar nu hålla sig runt 40 st.
Sidor som jag tidigare rankade på top 10 på ett sökord är nu helt och hållet borttagna från index. Kanske värt att nämna att min sajt har PR0. Om det nu är så att Google inte vill indexera fler av mina sidor för att min PR är låg så är frågan isåfall varför vissa sidor har blivit indexerade för att sedan veckan efter försvinna från index? Mina sidor handlar om liknande saker, kan det vara så att Google anser att sidorna är för snarlika och anser att det handlar om duplicate content? Mina sidor har 200-400 ord på varje sida och varje textmassa är unik. Vad gör jag för fel? Tycker inte jag kör med några fultrick, har inga konstiga inlänkar eller kopierat innehåll från andra sajter. Fler än jag som fått sidor (enstaka sidor, inte hela sajter) borttagna ur index utan att ha kört med några fultrick? |
||
Svara med citat |
2010-10-16, 18:33 | #2 | ||
|
|||
Nykomling
|
Glömde skriva: sajten det handlar om är www.ekorrenochnoten.se.
Kör inga fuffens länknätverk, har inte anlitat några black hat SEO-företag som gjort något galet, har inte haft någon downtime på sajten etc. |
||
Svara med citat |
2010-10-17, 00:20 | #3 | |||
|
||||
Klarade millennium-buggen
|
Jag känner igen det där att man inte får alla sina sidor indexerade även om de kan tyckas vara fyllda med unikt innehåll. I många fall undrar man hur Google (algoritmen) tänkt när den valt att inte indexera en viss sida.
Har du mellan 200 och 400 ord i en unik text så borde det helt klart räcka. Jag har fått sidor med betydligt färre ord indexerade. Rekommendationen är dock att man ska ha 500 ord eller fler per sida för att vara på säkra sidan. Att Pageranken är låg har inget med saken att göra. Bara Google hittar sajten så ska de indexera allt som finns tillgängligt så länge innehållet når upp till kraven. Även om dina sidor handlar om liknande saker så är min uppfattning att man kan gå ganska långt utan att klassas för duplicate content. Jag har t.ex. kört två testsajter med exakt samma innehåll och ändå fått båda indexerade. Det var två år sedan och båda är fortfarande indexerade och synliga i sökresultatet. Jag har inget säkert tips, men vill rekommendera dig att försöka fixa djuplänkar genom länkbyten till enstaka sidor som du vill ha indexerade. Se även över din din interna länkning på sajten. Senast redigerad av kw_wasabi den 2010-10-17 klockan 00:22 |
|||
Svara med citat |
2010-10-17, 00:47 | #4 | ||
|
|||
Nykomling
|
Hade det bara varit indexeringsproblem hade jag provat med någon lösning i andra änden, dvs att försöka underlätta för Google att faktiskt lokalisera min sida.
Mitt problem nu är att jag har sidor som blir indexerade av Google och dessa sidor rankar bra på de sökord som de avser, men efter 1-2 veckor så försvinner sidorna ur index. Frågan är varför mina sidor (inte hela sajten, bara enstaka sidor) försvinner ur Googles index 1-2 veckor efter att de blivi indexerade? |
||
Svara med citat |
2010-10-17, 02:36 | #5 | |||
|
||||
Klarade millennium-buggen
|
Citat:
|
|||
Svara med citat |
2010-10-17, 18:29 | #6 | ||
|
|||
Mycket flitig postare
|
Kan kanske röra sig om olika datacenter.
Ge exempel på några specifika sidor som har varit men inte längre är indexerade. |
||
Svara med citat |
2010-10-18, 01:18 | #7 | ||
|
|||
Nykomling
|
Citat:
Den vet jag har varit indexerad och den har även rankat på Google top10 på sökorden "julklappstips leksaker". Efter ca 1-2 veckor har sidan försvunnit från Google index. Notera att sajten fortfarande rankar Google top10 på "julklappstips leksaker" men på en helt annan sida. Söker man på Google efter den specifika sidan http://www.ekorrenochnoten.se/blog/julklappstips.aspx så ser man att den inte är indexerad då den inte dyker upp i SERPen. Exempel 2: http://www.ekorrenochnoten.se/blog/i...a-varlden.aspx Som sagt, jag har över 50 st upplagda sidor på sajten - alla är nåbara och har besökts av googlebot. Men, jag får inte fler än 40 indexerade enligt Webmaster Central. Fram till ca 40 sidor fick jag mina sidor indexerade inom någon dag efter det att jag lagt upp dem så googlebot känner väl till min sajt. Skulle problemet vara att det rör sig om olika data centers så bör väl de vara mer eller mindre synkade efter ett tag? |
||
Svara med citat |
Svara |
|
|