Lagra nån annans blogg ?

Diskutera fysik, kemi, biologi, samt direkta tillämpningar såsom teknik och medicin.

Lagra nån annans blogg ?

Inläggav skeptiskelars » sön 14 maj 2017, 17:41

Att arkivera en websida går ju.
Att göra en screenshot av något som syns på skärmen går ju.
Men är det tekniskt möjligt att kopiera / lagra ned en hel blogg med några hundra inlägg och lika många bilder utan att bloggägaren märker det och utan att vara ett it-geni ?
skeptiskelars
 
Inlägg: 1826
Blev medlem: tis 29 maj 2012, 09:06

Re: Lagra nån annans blogg ?

Inläggav Nemesis » sön 14 maj 2017, 20:08

"… all the data shows that most people are not influenced by rational arguments. They're influenced by social pressure. … That's just the human condition, and we just have to acknowledge it and accept it." - Steven Novella
Nemesis
 
Inlägg: 1666
Blev medlem: tor 12 okt 2006, 22:04
Ort: Stockholm

Re: Lagra nån annans blogg ?

Inläggav skeptiskelars » mån 15 maj 2017, 20:14

Jag ser inte att man kan använda sig av den sidan för något annat än att lagra en enstaka web-sida.
Jag är ute efter att lagra hela bloggen med kanske 200 enstaka websidor sidor i ett enda hugg. Går det ?
skeptiskelars
 
Inlägg: 1826
Blev medlem: tis 29 maj 2012, 09:06

Re: Lagra nån annans blogg ?

Inläggav Carborundum » tis 16 maj 2017, 12:46

Har du tillgång till ett Unix-operativsystem kan du kopiera en hel hemsida med wget-kommandot:
Kod: Markera allt
wget -r http://example.com/

Detta laddar ned hela domänen example.com. r-flaggan står för 'recursive', och betyder att alla undersidor också hämtas.

Vissa sidor gillar inte att man gör såhär. De kan t.ex. ha en inställning som inte tillåter automatiska verktyg som wget att komma åt innehållet. Då kan man luras att man är en webbläsare med U-flaggan:
Kod: Markera allt
wget -r -U Mozilla http://example.com/


Det kan även finnas begränsningar på hur många sidor som serveras inom en viss tid. Då kan man lägga till en väntetid (här 10 sekunder) mellan varje sidoförfrågan:
Kod: Markera allt
wget -r -U Mozilla --wait=10 http://example.com/


Resultatet sparas i en mapp med samma namn som domänen. I mappen ligger en index.html-fil, vilken kan öppnas i valfri webbläsare. Sidan bör se ut precis mer eller mindre som den gör online, men beroende på hur mycket externa JavaScript-beroenden som finns kan den eventuellt se lite konstig ut.
Carborundum
 
Inlägg: 25
Blev medlem: mån 10 okt 2011, 15:45

Re: Lagra nån annans blogg ?

Inläggav kurtl » tis 16 maj 2017, 12:47

HTTrack eller wget kan användas för att spara ned lokala versioner av hela web-sidor, hur bra det sedan fungerar beror på om de använder en masa script eller hämtar material från databaser
kurtl
 
Inlägg: 162
Blev medlem: sön 14 dec 2008, 19:31

Re: Lagra nån annans blogg ?

Inläggav Whey » mån 29 jan 2018, 21:25

kurtl skrev:HTTrack eller wget kan användas för att spara ned lokala versioner av hela web-sidor, hur bra det sedan fungerar beror på om de använder en masa script eller hämtar material från databaser


HTTrack är bra
men kan vara svårt att komma igång med.

Alla metoder ska kontrolleras till resultatet framförallt första och sista posten liksom om fotografier, bilder kommer med. Var medveten om att när du kopierar inläggen så behöver sidorna inte komma med automatiskt. etc

https://web.archive.org/save/http://for ... 36&t=24003

https://archive.is/
https://archive.is/jMird här är resultatet

https://megalodon.jp/
http://megalodon.jp/2018-0130-0527-54/f ... 36&t=24003

Samtliga av dessa kan ha svårt med att få med alla bilder
Användarvisningsbild
Whey
 
Inlägg: 108
Blev medlem: mån 20 jun 2016, 17:32
Ort: Stockholm Göteborg Malmö


Återgå till Naturvetenskap och teknik

Vilka är online

Användare som besöker denna kategori: Inga registrerade användare och 2 gäster