Générer un robots.txt
Le fichier robots.txt est utilisé par les moteurs de recherches pour connaître les pages que vous souhaitez voir apparaître ou non dans les résultats de recherches. cela va simplement vous donner la possiblité de dire si vous ne souhaitez pas voir apparaître une URL, un dossier ou un dossier dans les résultats de recherches.