FAQ |
Kalender |
2005-04-25, 01:24 | #1 | ||
|
|||
Klarade millennium-buggen
|
http://www.article bot.com/
Hur tror ni att sökmotorerna kommer lösa det här? Om folk kan pumpa ut meningslös data som inte har nån relevans och dessutom bara är rakt av påhittad. Detta kommer ju i teorin att leda till att faktasökning via en sökmotor blir helt orelevant och att man måste söka sig till källor som är trovärdiga. Jag undrar jag hur google (tex) kommer att hantera den här typen av sidor på sikt, att urskilja spam pga hög keyword density och "automatiskt" innehåll, tex alla dmoz-mirrors kan jag köpa, men hur skall det här gå när det knappt är möjligt för en människa att se skillnaden utan att köra faktakoll. Ajajaj säger jag bara.. blogg-sfären har ju redan visat hur svårt det är för sökmotorerna att urskilja på fakta och fiktion. Med 100x så mycket skräp pga att ett fåtal skrupellösa människor. Hur kommer sökmotorerna att hantera det? Jag tror att det måste uppstå nån slags "trovärdighets"-ranking igen, påminnande om pagerank men kanske mer manuellt skött. Te.x. att siter som är garanterat trovärdiga och inte utnyttjar sin trovärdighet till att länka till skräp-siter i större utsträckning kommer att bli nån slags huvudpunker. Blir det ett A och B-internet? Kommer google lägga till en checkbox i sin sök "sök bara på siter som vi manuellt godkänt"? </rant> |
||
Svara med citat |
2005-04-25, 02:08 | #2 | ||
|
|||
Har WN som tidsfördriv
|
Intressant... nånstans har jag dock en känsla av att innehållet inte är fullt så "random" som de vill ge sken av. Hur skulle det vara möjligt. Jag tror helt enkelt inte det är det.
Jag tror framför allt två saker går att urskilja... 1 - hur snabbt informationen accumuleras, det är inte sannolikt at en site har 10 tusentals relevanta sidor över en natt. 2 - det är säkerligen visst mått av repetition i ordföljder osv. det kommer gå att kors-kontrollera och urskilja. Jag tror framtiden för motorerna ligger åt att ytterligare värdera upp länkarna. jag skulle gärna lägga vantarna på ett ex av det där programmet dock |
||
Svara med citat |
2005-04-25, 11:26 | #3 | ||
|
|||
Har WN som tidsfördriv
|
Tror bara att detta kommer göra att folk i större utsträckning kommer använda manuellt uppdaterade länkkataloger / sökarkiv men inte bara detta som kommer bidra till det utan även att seo mer och mer gjort att sökmotorer faktiskt inte hittar relevant faktamaterial högt upp utan mer komersiella sidor.
|
||
Svara med citat |
2005-04-26, 15:58 | #4 | ||
|
|||
Klarade millennium-buggen
|
http://slashdot.org/article.pl?sid=05/04/2...1157212&tid=217
Lustigt må jag säga :) Google verkar ha tänkt på detta .. :) |
||
Svara med citat |
2005-05-04, 13:38 | #5 | ||
|
|||
Har WN som tidsfördriv
|
|||
Svara med citat |
2005-05-05, 11:05 | #6 | |||
|
||||
Medlem
|
Läste om den vetenskapliga modellen i Ny Teknik. Tydligen har upphovsmännen på MIT lyckats få en av publikationerna antagna till någon vetenskaplig konferens.
Kul grej, men jag ser dock lite oroligt på vad som kan hända när sökmotorerna snappar upp artiklar av denna typ. Nonsens och rapparkalja det mesta men ändå näst intill olkanderlig engelska och med (många gånger) relevanta sökord. /Anders Holgersson |
|||
Svara med citat |
Svara |
|
|