@Dxgiusti: In pratica ho solo automatizzato il tuo procedimento; purtroppo lo script può essere adattato a visualizzatori di immagini dello stesso tipo, altri visualizzatori usano modalità diverse (ma studiandoli un po' si trova il modo di scaricare di tutto).dxgiusti ha scritto: ↑venerdì 14 febbraio 2020, 9:52UbuNuovo sei fantastico. il sapere risolve, però.... non tutti hanno le tue conoscenze/capacità. il post chiedeva e poneva un esempio. ora mi chiedo, puoi elencare in maniera semplice come hai predisposto lo script in modo da poterlo usare anche per altre situazioni? vedo che usi wget e convert e fino a qui tutto bene ma il criterio per definire le pagine da scaricare e poi convertire?
magari imparo anche io qualche cosa. apprendere da chi sa è sempre utile.
Si deve vedere il funzionamento dell'applicazione web; si guarda se e come cambia l'URL (nella barra degli indirizzi) sfogliando le pagine.
In questo caso si può notare che c'è una parte fissa (URL vero e proprio e token=...) e un numero variabile (quello della/e pagine)
per la prima pagina è:
Codice: Seleziona tutto
https://reader.paperlit.com/read/prj_5c45a829a6736/pub_5cc70bf74bba0/5000-01-09?token=eyJ0eXAiOiJKV1QiLCJhbGciOiJIUzI1NiJ9.eyJwcm9qZWN0SWQiOiJwcmpfNWM0NWE4MjlhNjczNiIsInByb2plY3RQZXJtaXNzaW9uc0JpdG1hc2siOjF9.2NMGuh4NJd95NG8dERjMgfIM2qtWikXSvsKQ8JUbfYA&hasNewsstand=true&page=1
l'ultima pagina è:
Codice: Seleziona tutto
https://reader.paperlit.com/read/prj_5c45a829a6736/pub_5cc70bf74bba0/5000-01-09?token=eyJ0eXAiOiJKV1QiLCJhbGciOiJIUzI1NiJ9.eyJwcm9qZWN0SWQiOiJwcmpfNWM0NWE4MjlhNjczNiIsInByb2plY3RQZXJtaXNzaW9uc0JpdG1hc2siOjF9.2NMGuh4NJd95NG8dERjMgfIM2qtWikXSvsKQ8JUbfYA&hasNewsstand=true&page=12-13
A questo punto, come da tuo procedimento:
si copia l'URL di un'immagine e si prova a scaricarla con wget, per esempio:click dx sulla pagina, visualizza info pagina. nella finestra che si apre scelgo media, seleziona la riga immagine relativa alla pagina ( nel riquadro sotto vedi l'anteprima )
Codice: Seleziona tutto
wget 'https://api-ne.paperlit.com/v8/projects/prj_5c45a829a6736/issues/135015/variants/74673/pages/5/original?width=768&height=1024&accessToken=eyJ0eXAiOiJKV1QiLCJhbGciOiJIUzI1NiJ9.eyJwcm9qZWN0SWQiOiJwcmpfNWM0NWE4MjlhNjczNiIsInByb2plY3RQZXJtaXNzaW9uc0JpdG1hc2siOjF9.2NMGuh4NJd95NG8dERjMgfIM2qtWikXSvsKQ8JUbfYA'
Codice: Seleziona tutto
file 'original?...'
ora abbiamo tutto quello che serve.
Per praticità divido l'URL in due parti, con il taglio al numero della pagina .../pages/5/original?...
quindi ho due variabili per l'URL:
part1='https://api-ne.paperlit.com/v8/projects ... 673/pages/'
e
part2='/original?width=768&height=1024&accessToken=eyJ0eXAiOiJKV1QiLCJhbGciOiJIUzI1NiJ9.eyJwcm9qZWN0SWQiOiJwcmpfNWM0NWE4MjlhNjczNiIsInByb2plY3RQZXJtaXNzaW9uc0JpdG1hc2siOjF9.2NMGuh4NJd95NG8dERjMgfIM2qtWikXSvsKQ8JUbfYA'
tra queste due variabili devo inserire il numero dell'immagine/pagina da scaricare che, come abbiamo visto, va da 1 a 13, rappresentabile dalla sequenza {001..13} (utilizzo gli zero davanti per essere sicuro che convert converta e unisca le immagini nell'ordine corretto.
( 00 va bene fino a 99 file; se i file da scaricare sono di più, aumentare il numero zero).
A questo punto creo un ciclo for, per scaricare i file da 1 a 13 mediante wget
Codice: Seleziona tutto
for i in {001..13};do
wget -O "$i.jpg" "$part1$i$part2"
done
l'opzione -O di wget serve per dare un nome al file salvato, quindi "$i.jpg"
"$part1$i$part2" rappresenta l'URL da scaricare ad ogni ciclo.
Finito il ciclo, uso convert (fa parte di imagemagick) per convertire tutte le jpeg (*.jpg) scaricate, in unico file pdf cioè file-output.pdf.
Il procedimento è lungo a spiegarsi ma a fare tutto ci vogliono cinque minuti.
@Ingen: É un problema di impostazioni di sicurezza di imagemagick, guarda:
https://askubuntu.com/questions/1081695 ... jpg-to-pdf
Per trovare il tuo file con quelle impostazioni, esegui
Codice: Seleziona tutto
locate -i '/etc/ImageMagick*policy.xml'