
Googlen silmissä hyvän verkkosivuston ominaisuudet eivät muutu: sivusto tulee olla rakenteellisesti hyvä, sisällöltään asiantuntijuuttasi esille tuova ja sen sisällön tulee olla tuttujen optimointisääntöjen mukaan luotua.

Tätä kirjoittaessani hakukoneiden ehdoton kuningas on edelleen Google. Eihän meillä ole internetiä ilman Googlea, vai onko? Sivustot ja niiden sisällöt luodaan ajatellen nimenomaan Googlea, koska miten muuten sivustoille päädyttäisiin? Hakukoneista mahtavin on toistaiseksi sanellut kaiken lähtien siitä miten sivusto kannattaa luoda: tekniseltä toteutukseltaan, sisältörakenteiltaan, nopeudeltaan, saavutettavuudeltaan. Mutta ChatGPT, AI ja kaikki tämä tekoälyllä rikastettu verkko, mitä se tarkoittaa nykyisen internetin pelisääntöjen kannalta nyt ja tulevaisuudessa? Odotettavissa on vallankumous, mutta minkälainen? Kaikki muuttuu, mutta ei ihan kaikki kuitenkaan.
Myös Google on alkanut hyödyntämään tekoälyä hakukoneensa toiminnassa, mutta olemme vielä alkumetreillä ja uusi hakuominaisuus on EU:n alueella toistaiseksi vielä kielletty.
Mutta mitä tämä muutos tarkoittaa verkkosivustojen kannalta? Toistaiseksi näyttää siltä, että haku ei sittenkään mullistu perinpohjaisesti, ei ainakaan heti. Hakukone ei tarjoa käyttäjälleen vain automatisoitua sisältöä ilman linkkejä verkkosivustoille vaan hakutuloksen kärkeen käyttäjä saa nähtäväkseen tekoälyn luoman ”pikatuloksen”, hieman samaan tapaan kuin Wikipedia useasta aiheesta jo näyttää tiivistelmiä.
Googlen silmissä hyvän verkkosivuston ominaisuudet eivät muutu: sivusto tulee olla rakenteellisesti hyvä, sisällöltään asiantuntijuuttasi esille tuova ja sen sisällön tulee olla tuttujen optimointisääntöjen mukaan luotua. Asiantuntijuus korostuu sivustoilla yhä enemmän, joten blogien ja artikkeleiden merkitys ei ole vähenemässä, päin vastoin.
Ongelmana näen itse kuitenkin sen, että tekoäly madaltaa merkittävästi sisällön kirjoittamista ja tämän myötä verkko saattaa alkaa täyttyä toisiaan toistavasta sisällöstä, jossa vieläpä melko surutta käytetään muiden sivustojen luomaa tekstiä ja kuvia lähtökohtana. Sivustojen copyright-merkinnöillä ei suurta merkitystä tässä kehityskulussa ole.
Lannistumiseen ei kuitenkaan ole syytä. Sivustot erottuvat toisistaan uniikilla ja erottuvalla sisällöllä ja se vaatii toteutuakseen ihmisen kädenjälkeä. Tekoälyn rooli jää tällöin raakatyöskentelyä helpottavaksi, mutta sivuston omistajan tulee kuitenkin aivan itse tuottaa omat sisältönsä erottuakseen muista. Oletan, että hyvin pian harjaudumme erottamaan tekoälyllä luodun sisällön ja silloin tällainen sisältö sivuutetaan toissijaisena. Tämä puolestaan tekee sen, ettei muoviselta maistuvat sivustot tule menestymään hakukonekilpailussa kovin hyvin.
Levollisin mielin siis edelleen ja luodaan entistä laadukkaampia sivustoja!
Tämän artikkelin kirjoittamisessa ei käytetty apuna ChatGPT:tä 🙂