FAQ |
Kalender |
2009-12-08, 13:45 | #1 | ||
|
|||
Flitig postare
|
Ok, känns lite spamvarning på detta va?
Då känns det ju bra att fråga (jag kan ju inte detta :-)) Jag skulle vilja söka igenom några sajter efter epostadresser med något script, hur gör man det bäst? Det är i gott syfte och anledningen är att jag inte orkar surfa runt själva och spara publika emails. Någon som har koll? |
||
Svara med citat |
2009-12-08, 13:48 | #2 | |||
|
||||
Klarade millennium-buggen
|
e-mail spider script varianter finns välla en del på nätet?
sök, ladda ner, testa |
|||
Svara med citat |
2009-12-08, 13:53 | #3 | |||
|
||||
Har WN som tidsfördriv
|
Du måste ha ett script eller program som läser in webbsidor, läser igenom deras htmlkod och sparar mailadresser. Det måste även spara alla länkar för att ha nånstans att fortsätta crawla. Förslagsvis sparar du även alla urler du besökt tillsammans med en tidsangivelse. Hoppas du också förstår att om du crawlar hela internet, kommer du bli fattig på diskutrymme.
edit: Läste inte ordentligt..... Som BarateaU säger finns färdiga sript att ladda ner. Alternativt skriver du ett själv, kan använda dej av file_get_contents() och preg_match() i php om du bara ska ha från några få sidor. |
|||
Svara med citat |
2009-12-08, 13:55 | #4 | ||
|
|||
Flitig postare
|
Tjena,
Hmm, har sökt lite innan faktiskt. Det känns som två världar, antinge är resultatet ett script för sajtägare att motverka epostkravlande, eller också mega-bad, typ download FREE *.RU Attans! Någon som har någon "vit" länk till en bra lösning? |
||
Svara med citat |
2009-12-08, 14:00 | #5 | ||
|
|||
Flitig postare
|
Tjena Crazzy,
Ja, tanken har slagit mig att göra ett eget. Men eftersom jag normalt inte kodar spindlar och mina timmar är dyra tänkte jag komma undan utan att uppfinna ett nytt hjul. Kanske inte skulle vara så svårt ändå, är ju bara ett fåtal domäner så det måste kunna hårdkodas i någon GET sats till att börja med. PM:a gärna om ni skulle vilja hjälpa till men inte vill posta i forumet. |
||
Svara med citat |
2009-12-08, 14:01 | #6 | ||
|
|||
Flitig postare
|
Jag kan rekommendera Nutch (www.nutch.org). Väldigt lätt att sätta igång globala eller begränsade spindlar för att sedan filtrera ut datat man vill. Tror till och med det finns exempelkonfigurationer för det du åtagit dig.
|
||
Svara med citat |
2009-12-08, 14:08 | #7 | |||
|
||||
Har WN som tidsfördriv
|
http://users.telenet.be/ahmadi/nettools.htm
I det här kitet finns en email crawler. Den ligger under Network Tools->Email Extractor Sen bara anger man en url, den fortsätter crawla tills du säger stopp och sparar ner alla emails. |
|||
Svara med citat |
2009-12-08, 14:13 | #8 | ||
|
|||
Flitig postare
|
Tackar!
Båda verkar bra, men nettools verkar passa bäst hittills då det blir enklare att kommia igång i windowsmiljö. |
||
Svara med citat |
2009-12-09, 05:24 | #9 | |||
|
||||
Bara ett inlägg till!
|
Tänk på att det i de flesta fall är ett brott mot marknadsföringslagen att skicka reklam till de e-postadresser du samlar in på detta sätt.
|
|||
Svara med citat |
2009-12-09, 16:00 | #10 | ||
|
|||
Medlem
|
Kan rekommendera följande tjänst:
http://80legs.com/ Superbilligt och du kan söka igenom miljontals sidor inom väldigt kort tid Kan kräva lite kunskap i programmering för att få det exakt som man vill dock. Men det bör räcka med vanlig regex.. |
||
Svara med citat |
Svara |
|
|