Knowledge Base
Cerca:     Ricerca avanzata
Sfoglia per categorie:

Lentezza sito/sovraccarico - Spider motori di ricerca

Visite: 1544
Voti: 1
Posted: 10 giu, 2013
by: Admin A.
Updated: 10 giu, 2013
by: Admin A.
Gli spider di motori di ricerca, se non gestiti in modo corretto, posso causare un sovraccarico sul server e pi¨ in generale un rallentamento nella navigazione dei siti.


E' possibile creare directory principale del sito (httpdocs) il file robots.txt con il seguente contenuto:

User-agent: *
Crawl-delay: 10

Questo file indica ai agli spider di attendere 10 secondi tra le richieste HTTP.


E' opportuno far riferimento alla documentazione di singoli spider per verificare le configurazioni ottimali.
Altro in questa categoria
document Aggiungere risorse e servizi aggiuntivi
document Visualizzazione errori PHP
document Accesso diretto al pannello Plesk
document Modificare prioritÓ file index (Server Linux)
document Firefox - Errore accesso a pannello
document Inline linking - Protezione
document RoR - Ruby On Rails
document Migrazione Dati/Siti Web



RSS