Sivun hakukoneoptimointi - 9 toimivaa tekniikkaa

Kehitin sivuston lähes 2 vuotta (PHP, JAVA), mutta olen uusi SEOer.

Tietokannassani on melkein miljoona artikkelia. Minulla on joitain kysymyksiä, joissa tarvitsen apua:

  1. Onko hyvä idea luoda staattisia sivuja kaikista artikkeleista?
  2. Ovatko yhden sivuston useat sivut parempia hakukoneoptimoinnille?
  3. Jos luoin jokaisen artikkelin staattiseksi sivuksi, se voi olla useita gigatavuja. Kuinka annan hakukoneiden indeksoijan kerätä tietokantaani?

Sillä ei ole väliä, mistä sivusi tulevat (esim. Tietokanta / staattinen).

Sinun tarvitsee vain varmistaa, että kaikkiin sivuihisi pääsee seuraamalla sivustosi linkkejä (hakukoneet indeksoivat sivustosi tällä tavalla).

Joko lisäämällä URL-osoitteet valikkoon (ei oikeastaan ​​tapa edetä 1 miljoonan sivun kanssa :-)) tai linkkien avulla jossakin muussa paikassa sivustollasi.

Hakukoneiden hakukoneiden indeksoimiseksi voit lisätä HTML-sivukartan (pohjimmiltaan sivun, jolla on tärkeimmät linkit) ja / tai XML-sivustokartan.

XML-sivustokartta sisältää linkit sivuille tietyssä muodossa.

Tallenna tiedosto sitemap.xml verkkosivustosi juuriin.

Esimerkki sivukartan.xml sisällöstä:

  http://www.example.com/ 2005-01-01 monthly 0.8   http://www.example.com/page 2005-01-01 monthly 0.8   http://www.example.com/anotherpage 2005-01-01 monthly 0.8   
  • kuten sanot, on mahdotonta kirjoittaa 1M pages valikoihin, ja niitä on vaikea kirjoittaa sitemap, mutta jos tietokantaan on lisätty vain vähän uusia artikkeleita, kirjoitan uudestaan sitemap joka päivä valtavalla cronjobilla ... tämä saa minut todella päänsärkyyn.
  • Jos kaikki artikkelisi ovat käytettävissä siirtymällä verkkosivustollesi, hakukoneet löytävät ne.
  • nyt kuitenkin kysyn vain joitain artikkeleita etusivultani tarkistettavaksi, ja vaihdan sivun kuumia sanoja joka päivä. Kun sitten ihmiset pitävät artikkelista, jokainen napsautus tekee sql-kyselyn koko luetusta artikkelista.
  • Käytätkö permalinks? Eli. artikkeleihin pääsee samalla URL-osoitteella ikuisesti.
  • En ole varma, Minussa full article read page, URL-osoite on artikkelin tunnus, ja teen myös mysql-kyselyn, laitan artikkelin title sisään sivun head meta osa. mutta jos ei kyselytapahtumaa, tämä sivu ei ole mitään.

Hakukoneet eivät tiedä, tulevatko artikkelit tietokannasta vai eivät. He näkevät vain URL-osoitteen tuottaman HTML-koodin. Joten jos sinulla on yksi PHP / Java-tiedosto, joka saa jokaisen artikkelin tietokannasta käyttämällä yksilöllistä URL-osoitetta (ts. http://example.com?id=12345 12345 on artikkelin tunnus), sinulla on verkkosivusto, jolla on miljoona sivua. Jokainen noista sivuista luokitellaan omien ansioidensa mukaan (sisällön laatu, semanttiset merkinnät, linkkien suosio jne.).

  • joten luuletko, ettei niitä kaikkia tarvitse luoda staattisilla sivuilla, tee vain URL-säännöt. mutta mihin voin tallentaa nämä URL-säännöt? kaikki XML sitemap? vuonna menu links? Tai muulla viisaalla tavalla? Kiitos.
  • Jos teet XML-sivustokartan, sinun on luotava pari niistä ja lähetettävä sitten hakukoneille hakemistotiedosto. Sinulla on myös oltava jokin tapa löytää kyseiset sivut HTML: n kautta, muuten käyttäjät eivät koskaan löydä niitä. Dynaaminen sivustokartta näyttää olevan hyvä tapa edetä tässä, sillä miljoona sivua on tapa paljon listata yhdelle sivulle.
  • kiitos ehdotuksesta. Kuten tiedän, yksi alisivustokartta tukee vain muutamia tuhansia URL-linkkejä, joten 1 miljoonan linkin pitäisi jakautua tuhansiin alisivustokarttaan, joten onko sinulla hyvä idea miten generate sivustokartta nopeasti ja helposti? Toinen tapa, miten etsiä an index file for big site englanniksi googlesta? Tarvitsen lisää artikkeleita viitteeksi, kiitos vielä kerran.
  • 2 Voit sijoittaa 50000 URL-osoitetta yhteen sivustokarttaan. Sinulla olisi siis yksi hakemistotiedosto, johon sisältyy 200 XML-sivustokarttaa.

Käsittelen kohtaasi erikseen.

Onko hyvä idea luoda staattisia sivuja kaikista artikkeleista?

Ei, on parempi luoda yksi päätepiste (esim. PHP-komentosarja), joka noutaa artikkelin tietokannasta ja näyttää sen HTML-muodossa. Tietysti on aina hyvä ottaa käyttöön välimuistimekanismi, joka vähentää suosittujen artikkeleiden osumista tietokantaan yhä uudelleen.

Staattisen sivun luominen kaikille artikkeleille on kuitenkin tarpeetonta, koska ne tallennetaan tällä tavalla kahteen paikkaan - tietokantaan ja staattisiin HTML-tiedostoihin.

Ovatko yhden sivuston useat sivut parempia hakukoneoptimoinnille?

Oletan, että tarkoitat tällä: onko parempi, että miljoona artikkelia on yhdellä sivustolla vai jaetaanko ne useisiin sivustoihin?

Yksinkertaisin vastaus on - se riippuu. Jos artikkeleissasi on vaihtelevia aiheita tai voit erottaa ne luokista (esim. 10000 artikkelia luokkaa kohti), voi olla järkevää ajatus jakaa kukin luokka omalle verkkosivustolleen ja yrittää luokitella sivustot itse, jotta saat paremman SE erilaisten pitkän hännän avainsanojen / markkinarakojen sijoitukset. Jos tavoitteena on kuitenkin rakentaa yleinen artikkelihakemisto, saattaa olla parempi sisällyttää kaikki miljoona artikkelia yhteen sivustoon.Luonnollisesti haluat silti erottaa ne aiheista tai erillisiltä sivuilta, jotta hakukoneet ja todelliset ihmisvierailijat voivat paremmin navigoida ja löytää asiaankuuluvaa sisältöä.

Ei ole olemassa yhtä ainoaa ratkaisua, joka sopisi kaikkeen.

Kuinka annan hakukoneiden indeksoijan kerätä tietokantaani?

Et voi vain ladata tietokantaa hakukoneisiin, mutta saatat helpottaa heidän indeksoimaan sivustosi sivuja. Tarkistamalla sivustosi sisällön indeksoijat määrittävät, onko kyseinen sivu syytä sisällyttää tietyn avainsanan SERP-tiedostoihin (hakukoneiden tulossivut).

Sinun pitäisi tietää, että SE: t eivät käytä vain kvantitatiivisia tekijöitä luokitellessaan sivuja (esim. Jos sivusi on ensimmäinen tulos tai 1000.), mutta myös laadullisia - kuinka vanha sivustosi on, sen PageRank, auktoriteetti (kuinka paljon saapuvia linkkejä) muilta verkkosivustoilta ja niiden laadusta).

työskennellyt sinulle: Charles Robertson | Haluatko yhteyttä?