FAQ |
Kalender |
2009-06-01, 21:23 | #1 | |||
|
||||
Medlem
|
Tja killar,
Säg att jag vill publicera en eller flera artiklar/webbsidor som tar hela/delar av artiklar från wikipedia. Har läst deras avtal och det verkar vara helt okey. Frågan är då ganska enkel, kommer artiklarna att indexeras av Google eller hamnar de i något filter? |
|||
Svara med citat |
2009-06-01, 22:09 | #2 | |||
|
||||
Flitig postare
|
Kommer att ses som duplicate content.
|
|||
Svara med citat |
2009-06-03, 19:29 | #3 | ||
|
|||
Flitig postare
|
Beror helt och hållet på HUR du använder innehållet.
I min värld säger Google till mig att "duplicate content" inte existerar. /Patrik Berggren |
||
Svara med citat |
2009-06-05, 03:55 | #4 | |||
|
||||
Klarade millennium-buggen
|
Jag tror precis som tidigare talare att Google kommer klassa det som duplicerat innehåll. För att få unikt innehåll kan du använda Wikipedia för att läsa på om det specifika ämnet och sedan själv skriva ned det du lärt dig med egna ord.
|
|||
Svara med citat |
2009-06-05, 04:04 | #5 | ||
|
|||
Supermoderator
|
Citat:
__________________
Full-stack developer, free for smaller assignments |
||
Svara med citat |
2009-06-05, 08:22 | #6 | ||
|
|||
Medlem
|
Det är knappast realistiskt att google skulle kontrollera duplicate content på varje webbsida som indexeras, däremot kanske det kontrolleras i samband med anmälningar
|
||
Svara med citat |
2009-06-05, 11:55 | #7 | ||
|
|||
Medlem
|
Citat:
Det räcker med att kunna lite om algoritmer och komplexitetsteori för att inse att detta är omöjligt, även för google. |
||
Svara med citat |
2009-06-05, 19:19 | #8 | ||
|
|||
Flitig postare
|
Citat:
Hur kommer det sig att jag själv, om och om igen, kan ta en exakt kopia av en text (skapad av mig) och få dessa att ranka i samma SERP, ofta i direkt anslutning till varandra. Varje gång jag använder duplicate content filtreras det inte bort. Har du däremot samma innehåll på FLERA url:er på samma webbplats, då filtreras det mycket lättare bort, men inte alltid. Kika in diverse listningar ifrån AdLibris. Exakt samma innehåll, olika urler, ändå listas det ett sådant inlägg där "den exakta kopian" ligger som indrag. WoHo! vilket bra filter Google har skapat /Patrik Berggren |
||
Svara med citat |
2009-06-05, 21:03 | #9 | |||
|
||||
Klarade millennium-buggen
|
Min erfarenhet är också att duplicate content till största delen är applicerbart på innehåll inom samma domän. Jag har dock haft en e-butik där samma innehåll fanns på upp till fem olika urlér och där samtliga har indexerats. Orsaken var att samma produkt förekom i flera olika produktkategorier.
EternalSunshine - Om du får kopiera texten lagligt så är mitt råd att helt enkelt testa och se vad som händer. |
|||
Svara med citat |
2009-06-05, 21:22 | #10 | |||
|
||||
Bara ett inlägg till!
|
Citat:
Tidningar är nåt man går till direkt utan några som helst sökningar. Jag tror inte de skulle förlora speciellt många besökare även om de i stort sett försvann fråjn indexet. <!--QuoteBegin--Gustav[/i] Min erfarenhet är också att duplicate content till största delen är applicerbart på innehåll inom samma domän. Jag har dock haft en e-butik där samma innehåll fanns på upp till fem olika urlér och där samtliga har indexerats. Orsaken var att samma produkt förekom i flera olika produktkategorier. [/quote] Har exakt samma erfarenhet. Duplicate content inom samma domäm är inga problem för Google. |
|||
Svara med citat |
Svara |
|
|