SEO ja Ajax voi aiheuttaa harmaita hiuksia

Yksi tärkeimmistä asioista hakukoneoptimoinnissa on sivujen nopea lataus. Tätä yritetäänkin parantaa kaikin mahdollisin tavoin ja yksi tapa on, että osa sisällöstä generoidaan sivun latauksen yhteydessä. Eli sivuille luodaan dynaamista sisältöä.

Joissakin tapauksissa hakubotit kokevat tällaisen sisällön hankalasti luettavaksi. Monesti ohjeistetaan, että klikkaamalla ”näytä sivun lähdekoodi” ikkuna auki, olisi tämä ainoa koodi, jota hakurobotti osaa tarkastella. Asia ei kuitenkaan ole aivan näin.

Googlen hakubotti on nykyisin hyvinkin kehittynyt ja osaa suorittaa jonkun verran javascriptia ja myös generoida Ajax-sisältöä. Paras tapa selvittää, että löytääkö botti sivusi sisällön, on käyttää Googlen Search Consolea.

En voi varmastikaan tarpeeksi mainostaa, kuinka suuressa asemassa Search Console on sivujen ylläpidossa, erityisesti SEO:n näkökulmasta. Tämän työkalun kautta voidaan hakea sivut, kuten Google ne botillaan hakee.  Kohdasta ”Crawl” > ”Fetch as Google” voidaan sivut crawlata läpi ja samalla valita Googlebotti piirtämään snapshot siitä, mitä botti näkee.

Jos botin näkemä sisältö vastaa sitä, mitä käyttäjän näkemä sisältö on, on hyvin mahdollista, että indeksoinnissa ei tule ongelmia. Samalla voidaan pyytää Google indexoimaan haluttu sivu. Indexointi ottaa sitten noin 4 pv – 4 viikkoa.

Jos botti taaseen ei pysty renderoimaan Ajax-sisältöä, on tähänkin olemassa apu. Esimerkiksi  Prerender-pavelu renderöi sivustasi Googlebotille html snapshotin, jolloinka botti näkee sivusi sisällön ja pystyy indeksoimaan kaiken tarvittavan.

Sivujen nopeus onkin yksi hyvä lähtökohta hakukoneoptimoinnissa, mutta joissakin tapauksissa siitä voi joutua maksamaan kalliin hinnan. Pitää muistaa, että sivut voidaan toteuttaa ilman dynaamista sisältöä, ja ne voivat silti olla hyvinkin nopeat.  Kannattaa siis miettiä, että onko ”ylimääräisten” scriptien käyttö sivujesi toimivuuden kannalta olennaista.

Vastaa

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *