jeudi 25 octobre 2007

wget, va chercher!

Après avoir créé un fichier texte contenant les URL (et seulement ces URL) des pages qui nous intéressent nous pouvons passer à l'étape qui consiste à "aspirer" ces mêmes pages. Nous allons pour ce faire utiliser la commande/aspirateur wget.

Deux méthodes:
  • Pour aspirer manuellement les pages, l'une après l'autre (il faut le vouloir), la syntaxe est la suivante:
    wget [URL]
  • Pour aspirer toutes les pages d'une seule ligne de commande:
    wget -i [fichier texte contenant les URL]
*à noter que les pages extraites sont enregistrées dans le repertoire courant.

Aucun commentaire: