Lagra nån annans blogg ?

Diskutera fysik, kemi, biologi, samt direkta tillämpningar såsom teknik och medicin.
skeptiskelars
Inlägg: 1862
Blev medlem: tis 29 maj 2012, 09:06

Lagra nån annans blogg ?

Inlägg av skeptiskelars » sön 14 maj 2017, 17:41

Att arkivera en websida går ju.
Att göra en screenshot av något som syns på skärmen går ju.
Men är det tekniskt möjligt att kopiera / lagra ned en hel blogg med några hundra inlägg och lika många bilder utan att bloggägaren märker det och utan att vara ett it-geni ?

Nemesis
Inlägg: 1729
Blev medlem: tor 12 okt 2006, 22:04
Ort: Stockholm

Re: Lagra nån annans blogg ?

Inlägg av Nemesis » sön 14 maj 2017, 20:08

"… all the data shows that most people are not influenced by rational arguments. They're influenced by social pressure. … That's just the human condition, and we just have to acknowledge it and accept it." - Steven Novella

skeptiskelars
Inlägg: 1862
Blev medlem: tis 29 maj 2012, 09:06

Re: Lagra nån annans blogg ?

Inlägg av skeptiskelars » mån 15 maj 2017, 20:14

Jag ser inte att man kan använda sig av den sidan för något annat än att lagra en enstaka web-sida.
Jag är ute efter att lagra hela bloggen med kanske 200 enstaka websidor sidor i ett enda hugg. Går det ?

Carborundum
Inlägg: 25
Blev medlem: mån 10 okt 2011, 15:45

Re: Lagra nån annans blogg ?

Inlägg av Carborundum » tis 16 maj 2017, 12:46

Har du tillgång till ett Unix-operativsystem kan du kopiera en hel hemsida med wget-kommandot:

Kod: Markera allt

wget -r http://example.com/
Detta laddar ned hela domänen example.com. r-flaggan står för 'recursive', och betyder att alla undersidor också hämtas.

Vissa sidor gillar inte att man gör såhär. De kan t.ex. ha en inställning som inte tillåter automatiska verktyg som wget att komma åt innehållet. Då kan man luras att man är en webbläsare med U-flaggan:

Kod: Markera allt

wget -r -U Mozilla http://example.com/
Det kan även finnas begränsningar på hur många sidor som serveras inom en viss tid. Då kan man lägga till en väntetid (här 10 sekunder) mellan varje sidoförfrågan:

Kod: Markera allt

wget -r -U Mozilla --wait=10 http://example.com/
Resultatet sparas i en mapp med samma namn som domänen. I mappen ligger en index.html-fil, vilken kan öppnas i valfri webbläsare. Sidan bör se ut precis mer eller mindre som den gör online, men beroende på hur mycket externa JavaScript-beroenden som finns kan den eventuellt se lite konstig ut.

kurtl
Inlägg: 162
Blev medlem: sön 14 dec 2008, 19:31

Re: Lagra nån annans blogg ?

Inlägg av kurtl » tis 16 maj 2017, 12:47

HTTrack eller wget kan användas för att spara ned lokala versioner av hela web-sidor, hur bra det sedan fungerar beror på om de använder en masa script eller hämtar material från databaser

Användarvisningsbild
Whey
Inlägg: 108
Blev medlem: mån 20 jun 2016, 17:32
Ort: Stockholm Göteborg Malmö

Re: Lagra nån annans blogg ?

Inlägg av Whey » mån 29 jan 2018, 21:25

kurtl skrev:HTTrack eller wget kan användas för att spara ned lokala versioner av hela web-sidor, hur bra det sedan fungerar beror på om de använder en masa script eller hämtar material från databaser
HTTrack är bra
men kan vara svårt att komma igång med.

Alla metoder ska kontrolleras till resultatet framförallt första och sista posten liksom om fotografier, bilder kommer med. Var medveten om att när du kopierar inläggen så behöver sidorna inte komma med automatiskt. etc

https://web.archive.org/save/http://for ... 36&t=24003

https://archive.is/
https://archive.is/jMird här är resultatet

https://megalodon.jp/
http://megalodon.jp/2018-0130-0527-54/f ... 36&t=24003

Samtliga av dessa kan ha svårt med att få med alla bilder

Skriv svar