Strateginen indeksoinnin hallinta Oppitunti 11/34 | SEMrush-akatemia

Sivustollamme on vakava liikenneongelma ja haluamme poistaa indeksoijat osana ongelmaa. Jos kiellämme indeksoinnin käytöstä robots.txt vain muutaman tunnin ajan, vahingoittaako se hakukoneoptimoijaamme?

  • 4 Googlebot voi noutaa vain robots.txt kerran päivässä. Ei ole mahdollista saada sitä tottelemaan robots.txt tunneittain. Googlen John Mueller varoittaa lähestymistavastasi täällä: webmasters.stackexchange.com/a/86429

Keskitä energiasi sivustosi / palvelimesi parantamiseen sen sijaan, että yrität hakkeroitua kiertotapaa. Et voi koskaan tietää, mihin aikaan päivästä hakukoneet indeksoivat sivustosi, joten vain niiden sallimisella tietyissä ikkunoissa voi olla mittava negatiivinen vaikutus. Jos estät indeksoijat, kun Google tulee, et pidä tuloksista.

Indeksointinopeus asetetaan Googlen hyväksi. Indeksointitaajuuden rajoittaminen ("kuinka monta pyyntöä sekunnissa Googlebot tekee sivustollesi indeksoidessaan sitä: esimerkiksi 5 pyyntöä sekunnissa") auttaa vähentämään kuormituksen vaikutuksia estämättä niitä kokonaan. Jos sinulla on valtava sivusto, se voi tarkoittaa pidempää viivettä ennen uusien päivitysten indeksointia, mutta se on parempi kuin pudottaa kokonaan.

Ainakin Bingille sinulla on hieman enemmän hallintaa. Niiden ohjeiden mukaan:

Voit kehottaa Bingbotia indeksoimaan sivustosi normaalia indeksointinopeutta nopeammin tai hitaammin jokaisen vuorokauden 24 tunnin aikana. Näin voit rajoittaa Bingbot-toimintaa, kun kävijät ovat sivustollasi, ja antaa meille enemmän kaistanleveyttä hiljaisempina aikoina.

työskennellyt sinulle: Charles Robertson | Haluatko yhteyttä?