http - Comment boucler ou miser une page Web?

Translate

Je voudrais faire un travail cron nocturne qui récupère ma page stackoverflow et la diffère de la page de la veille, afin que je puisse voir un résumé des modifications de mes questions, réponses, classement, etc.

Malheureusement, je n'ai pas pu obtenir le bon ensemble de cookies, etc., pour que cela fonctionne. Des idées?

De plus, une fois la version bêta terminée, ma page de statut sera-t-elle accessible sans me connecter?

This question and all comments follow the "Attribution Required."

Toutes les réponses

Translate

Votre page de statut est maintenant disponible sans connexion (cliquez surSe déconnecteret essayez-le). Lorsque le bêta-cookie est désactivé, il n'y aura rien entre vous et votre page de statut.

Pour wget:

wget --no-cookies --header "Cookie: soba=(LookItUpYourself)" https://stackoverflow.com/users/30/myProfile.html
La source
Translate

DeMark Harrison

Et voici ce qui fonctionne ...

curl -s --cookie soba =.https://stackoverflow.com/users

Et pour wget:

wget --no-cookies --header "Cookie: soba=(LookItUpYourself)" https://stackoverflow.com/users/30/myProfile.html
La source
Translate

Bonne idée :)

Je suppose que vous avez utilisé wget

--load-cookies (filename)

peut aider un peu mais il pourrait être plus facile d'utiliser quelque chose comme Mechanize (en Perl ou python) pour imiter un navigateur plus complètement et obtenir une bonne araignée.

La source
Translate

Je ne savais pas non plus comment faire fonctionner les cookies, mais j'ai pu accéder à ma page d'état dans mon navigateur pendant que j'étais déconnecté, donc je suppose que cela fonctionnera une fois que stackoverflow sera rendu public.

C'est une idée intéressante, mais ne récupérerez-vous pas également les différences du code html sous-jacent? Avez-vous une stratégie pour éviter de vous retrouver avec un diff du html et non le contenu réel?

La source
Translate

Et voici ce qui fonctionne ...

curl -s --cookie soba=. http://stackoverflow.com/users
La source