En effet, le principe est de scanner chaque page du site web et chaque version de la page pour contrôler quelles assets (images, PDF, vidéos, ...) sont liées à ces dernières. Plus la base de données est grande et plus cela peut prendre du temps. Si le temps est trop long, le serveur "coupe" la requête en cours et dès lors il n'y a pas de résultats retournés.
Dès lors nous travaillons sur une nouvelle méthode qui fera la tâche en fond et sera mise à jour 1 x par jour pour les sites web dépassant les 100'000 pages et/ou versions.
Merci de votre remarque qui est très pertinente.
Director - Strategic Consultant
#CMS #DigitalMarketing #WebSites #eCommerce #eBusiness #eGovernment #eGovernance #OnlineReputation