wget permet d'aspirer le contenu d'un site web, qui sont enregistrées dans un server on line, depuis la ligne de commande.
curl permet d'ajouter une colonne indiquant si le téléchargement des pages web s'est bien passé (0), ou s’il y a eu un erreur.
Le script: on utilise d'abord la commande wget pour aspirer le contenu des nos liens. On ajoute la commande au script qu'on vien d'écrir pour tous nos tableaux.
L'exécution donne des problèmes: pour chaque ligne des fichiers, le terminal dit qu'il n'y a aucun fichier à aspirer... On va réfléchir pour résoudre ce problème!
Petite remarque : il ne s'agit pas d'aspirer des sites mais juste les pages associées à chacune de vos URLs.
RépondreSupprimerPour ce qui concerne le pb de votre script (ou pê simplement de son exécution), difficile de voir d'où vient le pb, on regarde demain...