vrijdag 9 november 2012

Wat is de Google Pagerank

Het Page Rank Algoritme

 Page Rank is wellicht de belangrijkste van de honderden algoritmes die bepalen welke resultaten google je voorschotelt bij een zoekopdracht. Pagerank is genoemd naar Larry Page, een van de stichters van Google.
PageRank maakt gebruik van de linkstructuur van het internet als een indicator voor de waarde van een individuele pagina. In essentie interpreteert Google een link van pagina A naar pagina B als een stem van pagina A voor pagina B.
Google houdt met veel meer factoren rekening dan enkel het aantal linken die een pagina ontvangt. Het analyseert ook zowel de pagina die de link ontvangt als de pagina die de linkt uitstuurt op relevantie voor een zoekterm. Sinds de Penguin update speelt de analyse van de verwijzende site een veel belangrijkere rol. Stemmen of linken vanaf pagina's die zelf belangrijk zijn gooien meer gewicht in de schaal dan stemmen of linken van minder belangrijke pagina's.
Google combineert Pagerank met andere gesofisticeerde text analyse om pagina's te vinden die relevant zijn voor je zoekopdracht. Hierbij gaat Google veel verder dan tellen van het aantal keer dat een kernwoord voorkomt op een pagina. Het analyseert zowel de inhoud van de betreffende pagina als de inhoud van pagina's waarnaar en waarvandaan gelinkt wordt.

Doorgeven van je pagerank?


Het schema hierboven toont een sterk vereenvoudigd netwerk van websites.
  • Site B heeft een heel hoge pagerank.
  • Site B heeft slechts 1 link naar site C waardoor site C maximaal profiteert van de hoge pagerank van site B
  • Site E geeft zijn pagerank evenredig door aan de sites B, D en F 
  • Site E krijgt zijn pagerank door inkomende linken van de kleine sites (blauwe bollen) en site F

Pagerank punten

Op wikipedia staat een vereenvoudigde formule die het principe van het Pagerank algoritme benadert. Het volledige google algoritme is net als het recept van Coca Cola een goed bewaard geheim.
De onderstaande formule berekent niet de pagerank, maar wel het aantal Pagerank punten. Dit puntenaantal varieert van 0 tot meer dan 1 miljard bij bv. Facebook.

waarbij
  • PR(B), PR(C), PR(D), ...: Pagerank van de pagina's die naar pagina A verwijzen ,
  • d is een dempingsfactor tussen 0 en 1 (standaard d=0.85).  De dempingsfactor simuleert het feit dat een surfer niet alle linken op een pagina aanklikt.
  • PR(A) de pagerank van je de pagina waarvoor je de pagerankpunten wil bepalen.
  • L is het aantal linken op de verwijzende pagina
  • N is het aantal pagina's met linken die verwijzen naar site A
We kunnen zien dat het aantal Pagerankpunten van een pagina afhankelijk is van het aantal pagina's die doorlinken naar de site A  in de formule PR(A). Maar de link wordt in waarde verminderd als er meerdere linken op de verwijzende pagina staan.

Wat betekenen die Pagerank punten?

De pagerank varieert van 0 tot 10. Het bepalen van de pagerank gebeurt aan de hand van volgende tabel.
PR1 = 8 punten
PR2 = 64 punten
PR3 = 512 punten
PR4 = 4.096 punten
PR5 = 32.768 punten
PR6 = 262.144 punten
PR7 = 2.097.152 punten
PR8 = 16.777.216 punten
PR9 = 134.217.728 punten
PR10 = 1.073.741.824 punten

Een voorbeeld

Stel dat we een link krijgen vanaf een pagina met PR4 waarop reeds 49 linken staan. Met onze eigen site erbij komen we aan 50 linken.
We zoeken in de PR tabel op hoeveel punten een PR4 site waard is. Een PR 4 site heeft tussen de 4096 en 32768 punten. Laat ons veronderstellen dat de site waar onze link vandaan krijgen 4096 punten heeft.



PR(A) = 1-0,85/1 + 0,85*(4096/50)
PR(A) = 0,15 + 0,85*81,92
PR(A) = 0,15 + 69,63
PR(A) = 69,78
Een link vanaf deze pagina levert ons dus ongeveer 70 Pagerank punten op. Die ene link kan je nieuwe site direct een Pagerank 2 opleveren.

Wat is een haalbare Pagerank?

We moeten ons niet teveel illusies maken, een pagerank hoger dan 4 is heel moeilijk te halen. In het voorbeeld hieronder bekijken we vanaf hoeveel sites we een link moeten krijgen om een pagerank 4 te halen.
Een voorbeeld:
Als we voor een pagerank 4 pagina gaan hebben we 4096 pagerankpunten nodig.
  • Een link vanaf een pagerank 3 pagina waarop 10 linken staan, levert 44 pagerank punten op
  • Een link vanaf een pagerank 4 pagina waarop 10 linken staan, levert 346 pagerank punten op
Om dus zelf een pagerank 4 te halen heb je linken nodig vanaf minstens 94 Pagerank 3 sites of 12 pagerank 4 sites. Natuurlijk is een mix van sites met een verschillende PR ook mogelijk.
Een link vanaf een site met heel hoge pagerank met weinig uitgaande linken is als de jackpot winnen. 1 echt waardevolle link kan je in bepaalde uitzonderlijke gevallen direct een PR5 of zelfs PR6 opleveren. Hogere PR zijn enkel weggelegd voor de googles en facebooks van deze wereld.
Maar ik kan er niet genoeg de nadruk op leggen dat Google naast Pagerank nog met heel veel andere factoren rekening houdt om je positie voor bepaalde kernwoorden te bepalen. Hou er ook rekening mee dat reciprocal linking of "ik geef je een linkje als je mij er eentje teruggeeft" tegenwoordig afgestraft wordt indien overmatig gebruikt.
Het is heel belangrijk dat je linken krijgt vanaf pagina's en sites met verwante informatie. Een link vanaf een site over "herenmode" naar een site over "reizen" zal geen enkel voordeel bieden. Ook al heeft de verwijzende site een PR8.

Bescherm je pagerank met de Rel=nofollow tag.

Je kan google verhinderen om je pagerank door te geven aan andere pagina's. Dit kun je doen door een link de tag rel= nofollow mee te geven.
De HTML code voor een link die geen pagerankpunten doorgeeft is:
<a href="http://www.trainingconsulting.be/"rel="nofollow">link met rel=nofollow</a>
De HTML code voor een link die wel pagerankpunten doorgeeft is:
<a href="http://www.trainingconsulting.be/>link zonder rel=nofollow</a>
Met de Firefox add-on SEOQuake kun je voor elke pagina direct zien of een link al dan niet de rel=noffolow tag heeft.

Enkele belangrijke opmerking i.v.m. link building om pagerank te verhogen.

Linkfarms zijn systemen die opgezet worden met als enige bedoeling om zoveel mogeIijk linken te ontvangen.  Met de Penguin update werd het Google algoritme aangepast om linken vanuit en naar linkfarms zeker te ontdeken en af te straffen.
De ervaring leert dat Google rekening houdt met de ouderdom van een link.
  • De beste manier om je pagerank te verhogen is linken naar relevante en complementaire inhoud  (dit is inhoud die geen concurrentie is voor je eigen inhoud, maar deze aanvult). Dit soort linken hebben de meeste kans om langere tijd te blijven bestaan. Dit soort linken zal niet alleen je pagerank gunstig beinvloeden maar ook bezoekers naar jouw site brengen.
  • Voeg een “rel=nofollow” tag in al je backlinken, deze tag stopt Google van het delen van je eigen pagerank  naar andere blogs of websites. Op deze manier kun je je pagerank behouden voor de pagina's binnen je eigen site of blog.
  • Voeg ook “rel=nofollow” tags toe aan interne linken zoals de contact pagina, over ons en uiteindelijk elke pagina waarvoor je geen hoge pagerank nodig hebt. Plaats do follow linken naar je belangrijkste pagina's.
  • Verwijder linken naar minder relevante sites. (Je kan ze ook de rel-nofollow tag geven)

Met de Google Pagerank checker kun je de pagerank van je site controleren.

PAS OP
Pagerank is slechts een van de meer dan honderd parameters in het Google algoritme die je positie in de zoekmachines bepaalt.
Andere belangrijke factoren zijn o.a.
  • Leeftijd van de site (domeinnaam)
  • Unieke tekst
  • Kwaliteit van de uitgaande linken
  • Hoe dikwijls wordt een site aangepast
  • Gebruik van kernwoorden in tekst, title en headertags 
  • ...

vrijdag 26 oktober 2012

Belang van sociale media bij je SEO inspanning

Matt Cutts, hoofd van het Google Webspam team geeft antwoord op de vraag welke impact sociale media hebben op je ranking in Google.



De drie belangrijkste elementen bij je SEO inspanningen zijn dus:

Optimaliseer je technische omgeving

  • Zorg voor een voldoende snelle site
  • Zorg ervoor dat je CMS (Content management system) up to date is

Optimaliseer je on page factoren

Verzorg je inkomende en uitgaande linken (In andere posting heeft Matt Cutts al heel duidelijk gemaakt wat al dan niet kan)
  • Link enkel naar sites die voor jouw onderwerp relevant zijn.
  • Vermijd tot elke prijs aangekochte linken naar jouw site, Google gaat actief op zoek naar dergelijke schema's en bestraft zij die dergelijke systemen gebruiken met verlies aan pagerank.
  • Heb je een affiliate site, zet het nofollow attribute op elke link naar de affiliate partner.
  • Reciprocal linking is een normaal gegeven (Geef jij mij een linkje en dan link ik naar jouw site terug). Als beide sites echt relevant zijn voor een bepaald onderwerp kan dit zeker, maar probeer dit soort wederzijds linken toch te beperken.
Zorg voor goede degelijke inhoud.

Besteed aandacht aan Sociale media marketing.

Matt Cutts zegt in zijn video dat het zeker een goed idee is om te linken naar sociale media. Als je zijn hele verhaal beluisterd, ziet hij in sociale media vooral oportuniteiten om je site bekender te maken. Link je teksten naar Facebook en wellicht zal iemand een link naar je site leggen ... Matt Cutts zegt nergens dat je aanwezigheid op Facebook of  twitter een invloed heeft op je ranking.  Dit is een positieve zaak want in het Black- en Grey hat SEO wereldje zijn er heel veel mogelijkheden om spotgoedkoop aan 1000-den facebook en twitter likes, shares ... te geraken. Het zou dus heel erg zijn mocht een "like" op zichzelf invloed hebben op je ranking.

Facebook, twitter en andere sociale media zijn wel heel belangrijk om het bereik van je site potentiëel enorm uit te breiden.
In die zin zijn zoekmachine optimalisatie en sociale marketing onlosmakelijk verbonden in één en dezelfde marketing strategie.

dinsdag 23 oktober 2012

Negatieve SEO - penguin update bis.

Een nieuwe tool in Webmaster hulpprogramma's

Penguin update - een slipperig parcours
Google Penguin update: een slipperig traject.
In mijn vorige post over de Google Penguin update heb ik aangehaald dat de nieuwe update van het Google algoritme negatieve SEO wellicht mogelijk maakt.  De reden hiervoor is dat een website vanaf nu afgestraft kan worden voor slechte inkomende linken zoals linken vanaf sites die niets te maken hebben met het onderwerp van de eigen site. Probleem is dat je natuurlijk niet altijd invloed hebt op die inkomende linken.

Matt Cutts, hoofd van het webspam team bij Google kondigde op 16 oktober aan dat er een tool zou komen om slechte inkomende linken te weigeren. Enkele minuten na de aankondiging door Cutts  werd de mogelijkheid om linken te weigeren via Google webmastertools aangekondigd op de Google Webmaster Central.

Blackhat SEO

In het blackhat SEO wereldje bestaan er tools zoals Scrapejet om automatisch honderden backlinks te genereren. Die tools werken met anonieme proxies. Met zo'n tool kun je op allerlei forums en blogs zogenaamd commentaar leveren met natuurlijk een link naar je eigen site.

Meestal maken mensen die online medicatie of erotiek verkopen gebruik van dergelijke Spam systemen. Als je zelf een blog of forum hebt weet je hoe moeilijk het is om die spam buiten te houden. Dit is logisch want programma's zoals scrapejet hebben tools aan boord om zelfs de moeilijkste captchas te ontcijferen.

Bovendien werken die programma's met lijsten van proxies zodat de echte plaatser van die berichten niet te achterhalen zijn.
Met het nieuwe Google algoritme wordt dit soort van Spam praktijken afgestraft met een heel zware terugval in de Google zoekresultaten.


Negatieve SEO, de verleiding?

Stel dat je een concurrent hebt die in google steeds beter scoort dan jezelf of een site waarop iemand negatieve commentaar over je plaatst. Met negatieve SEO kun je duizenden irrelevante linken naar de site van je concurrent sturen en die zo wegduwen in de zoekresultaten. Geef toe dat het verleidelijk klinkt.

De reactie van Google:

Jarenlang heeft Google ontkend dat je de zoekresultaten van een concurrent op een negatieve wijze kan beïnvloeden. Het feit dat Google in z'n webmastertools nu een mogelijkheid biedt om negatieve linken te melden bewijst dat ze toch inzitten met de negatieve gevolgen van het penguin algoritme. Het bevestigd tegelijk ook dat inkomende linken nu een grotere invloed krijgen.

Link naar de pagina waar je afgewezen linken kan melden ...

Ik ben al benieuwd naar de volgende update van het Google algoritme ...






zaterdag 20 oktober 2012

Hoe zoeken mensen op google?

Het lezen van teksten op een scherm verloopt tot 25% trager dan lezen op papier. Het gevolg hiervan is dat websitebezoekers een website eerder “scannen” dan lezen. Ook het zoeken via een zoekmachine is hierop geen uitzondering. Het zoeken via Google gebeurt in 3 fasen die we hieronder kort beschrijven.

Eerste fase de vluchtige SCAN

In de afbeelding hieronder is te zien dat de surfer enkel oog heeft voor het deel van de zoekresultaten links bovenaan. Hij bekijkt in deze fase bovendien enkel de titels, zonder veel aandacht voor de inhoud van de tekst. Binnen enkele seconden beslist de surfer of hij al dan niet doorklikt op een link.  In deze fase is een goede titel van het allergrootste belang, want quasi enkel de titel verleidt de bezoeker tot doorklikken. Enkel het bovenste gesponserde resultaat krijgt aandacht.


heatmap zoeken google
Heatmap eye-tracking google

Tweede fase doorklikken naar volgende zoekpagina’s

Indien in die eerste fase geen bevredigende resultaten gevonden worden zal de bezoeker eerder doorklikken naar de bovenste resultaten van pagina 2 en 3.
In deze 2e fase  kan het interessanter zijn om met een site op de 2e pagina bovenaan vermeld te staan dan op pagina 1 ergens op de 5e of 6e plek. Ook hier baseert de surfer zich nog vooral op de titels. Het eye-tracking beeld is dus vergelijkbaar met dat uit fase 1.

Derde fase, het gedetailleerd “lezen” van de resultaten

Als de eerste 2 fases geen deftig zoekresultaten opleveren voor de zoekmachine gebruiker gaat hij de pagina’s veel gedetailleerder gaan lezen. In deze fase keert de bezoeker terug naar de eerste pagina met zoekresultaten en gaat de zoekresultaten meer gedetailleerd bekijken, de beschrijvende teksten krijgen nu ook meer aandacht. We zien ook dat de gesponserde zoekresultaten aan de rechterkant ook aandacht krijgen. De gesponserde resultaten aan de rechterkant krijgen nu ook iets meer aandacht.



Goede tip:


Het beeld hierboven zien we eigenlijk ook bij om het even welke website. De informatie aan de linker bovenkant wordt meest bekeken. Maak van dit gegeven gebruik als je een website bouwt.

donderdag 18 oktober 2012

Hoe bezoekers naar je site lokken?

Ok, je hebt een mooie site gebouwd en nu wil je natuurlijk zoveel mogelijk bezoekers.

Een eerste fout is er van uit gaan dat  "zoveel mogelijk bezoekers" aantrekken het doel is van elke site. In een andere posting ga ik verder in op de verschillende doelstellingen van je aanwezigheid op het internet. Maar het komt erop neer dat je bezoekers een gewenste actie moeten uitvoeren, in marketingtermen, je bezoekers moeten converteren. (vb. een download, een productbeschrijving lezen, een aankoop doen, je produkt "liken" op facebook ...).

Wees er bij al je inspanningen wel van bewust dat gewoon "bezoekers" aantrekken geld kost! Dus willen we zoveel mogelijk vermijden om "niet converterende" bezoekers aan te trekken.

Dit gezegd zijnde kunnen we nu een aantal tips geven:

1) Voor alles: Goede originele inhoud

Ik kan er niet genoeg de nadruk op leggen, je kan maar succesvol aanwezig zijn op het internet als je iets te bieden hebt. Goede inhoud met voldoende unieke tekst is een absolute noodzaak.

2) Maak je website indexeerbaar voor de zoekmachines

Hierover heb ik een andere post geschreven: Hoe starten met zoekmachine optimalisatie?

3) Aanmelden van je sites/blogs in de zoekmachines 

Het is eigenlijk een must om opgenomen te worden in DMOZ of het open Directory project (www.dmoz.org). Voor je je site aanmeld is het belangrijk om de aanmeldingsregels te lezen. De voorwaarden zijn vrij streng en elke site wordt door een mens geëvalueerd. Zowel Google, Altavista en andere zoekmachines hechten veel belang aan aanwezigheid in Dmoz. Je aanwezigheid in Dmoz kan je een echte pagerank boost geven en dus veel extra bezoekers opleveren. Zorg er wel voor dat je al een volwaardige site hebt voor je aan aanmelden bij zoekmachines denkt.

Daarnaast bestaan er heel wat programma's om je site automatisch aan te melden in verschillende zoekmachines. Je kan discuteren over nut of onnut van zo'n programma's, maar persoonlijk denk ik dat het geen kwaad kan.

4) Ga op Forums en blogs

Zoek forums en blogs die over verwante onderwerpen handelen. Leg zelf linken naar die sites, laat een link naar uw blog of website achter. Gebruik een aantrekkelijke avatar.  Reageer op artikels in verwante sites/blogs (niet spammen!!!)

5) Zorg voor Facebook verkeer

Deel artikelen van je blog en websites op facebook. Denk aan je eigen tijdlijn. Of creëer een Facebookpagina voor wat je wereldwijd bekend wil maken of een groep voor een kleiner maar erg betrokken publiek. Zorg ervoor dat de mensen je artikels op je site of blog kunnen delen op facebook. Dit kan je aantal bezoekers gerust verdubbelen.

6) Betaal voor verkeer (Google Adwords, Bing, Yahoo, facebook, verkeer  ...)

Er zijn verschillende betalende manieren om verkeer naar je site te lokken,
a) Koop gericht verkeer
je kan van een paar duizendend tot honderduizenden unieke bezoekers kopen via bv. http://www.fulltraffic.net/
 waar je heel gericht verkeer kan kopen, per land, per kernwoord, per niche ... De aankoop van 5000 unieke bezoekers gericht op België en Nederland, kernwoorden SEO, zoekmachine optimalisatie kost kost bv. 180€. Andere leveraciers bieden bv. 10.000 veel minder specifieke bezoekers vanaf bv. 15€.  Het grote voordeel van dergelijke systemen is dat je Alexa Ranking sterk kan stijgen. Ervaring leert dat je doorgaans minder goed converterende bezoekers aantrekt.

b) Facebook advertentie
Plaats een advertentie voor je Facebook pagina. Je kan vrij goed richten op je gewenste doelpubliek. Reken erop dat je uiteindelijk op ongeveer 1€ per "like" komt.

c) Adwords, Bing, Yahoo
Plaats advertenties in de zoekresultaten van de grote zoekmachines. Het voordeel is dat je het budget goed kan beheersen.

7) Persberichten

Heb je een nieuw product, een nieuwe site?  Stap naar de pers en vergeet uw site niet in het zonnetje te zetten. Ik heb zelf voor een product belangstelling gekregen in een nieuwsuitzending op de lokale televisie. Mijn verkoop vertie ennvoudigde tijdens de uitzending en dat effect bleef toch 2 dagen duren. Maar onderschat ook de impact van een artikel in een lokale of nationale krant niet.

8) RSS-feeds

Real Simple Syndication of RSS-feed is een methode om je boodschap rond te sturen. Maar er zit ook een gevaarlijk kantje aan. Als je RSS-feed aanbied kunnen je artikels en testen waar je zo lang aan gewerkt hebt heel gemakkelijk gestolen worden door anderen. je loopt het risico om gestraft te worden voor dubbele inhoud, zelfs voor je eigen artikels.

9) Youtube

Plaats korte beschrijvingen van je product op Youtube. Afhankelijk van het type product kan dit heel wat extra bezoekers opleveren.

10) Webinars

Maak een youtube video over je favoriete onderwerp. Post dit op je blog, website en de sociale media. Vergeet natuurlijk niet om de goede link te vermelden.

11) Nieuwsbrieven

Af en toe een nieuwsbrief met de laatste nieuwtjes versturen kan zorgen voor pieken in het aantal bezoekers. Zorg er wel voor dat je de nieuwsbrief enkel verstuurt naar de mensen die er echt om gevraagd hebben.

12) Iets Gratis weggeven

Lok mensen met iets gratis zoals een e-book in ruil voor  hun e-mailadres. Die e-mail adressen kun je dan weer goed gebruiken voor je nieuwsbrieven. Op die manier krijg je 100% geïnteresseerde mensen voor je nieuwsbrieven.

13) Schrijf meer inhoud

Een waarheid als een koe. Hoe meer inhoud, hoe meer pagina's met relevante inhoud, hoe meer bezoekers je kan aantrekken.




maandag 15 oktober 2012

Weg uit Google? De google Penguin update

Google wil zijn klanten (de mensen die via Google zoekmachine info zoeken) altijd de meest relevante zoekresultaten leveren.  het moment dat Google dit niet meer kan worden ze direct uit de markt weggeconcureerd. Denk maar aan wat er met het ooit zo dominante AltaVista gebeurd is.

Het Google Algoritme


Om die zoekresultaten te ordenen gebruikt Google een algoritme die o.a. met volgende elementen rekening hield:
  • De hoeveelheid unieke tekst
  • Het aantal inkomende linken
  • De waarde van inkomende linken (linken vanaf pagina's met hoge pagerank wegen zwaar door)
  • Het aantal no-follow en follow linken (Het is heel onnatuurlijk om enkel "follow" linken te hebben.
  • De ouderdom van de site
  • Google hield weinig rekening met met de slechte inkomende linken. (omdat je daar zogezegd geen controle over hebt).
  • De natuurlijke groei van webpagina's en domeinen. Zo is een site die van dag 1 op dag 2 plotseling van 1 inkomende link naar 100 inkomende linken gaat verdacht. 

  • ... en nog honderden andere parameters ...

Een goede positie behalen in Google was eigenlijk niet zo extreem moeilijk.
Doorgaans adviseerden de ernstige SEO-specialisten hun klanten om relevante unieke inhoud te plaatsen en om vrij veel inkomende linken te krijgen. Dit gebeurde o.a. door zogenaamd smart linking - we wisten al lang dat wederzijds linken niet altijd zo'n goed idee was. (Ik geef je een linkje als je me er een teruggeeft).


Google verandert regelmatig hun algoritme  om manipulatie van de zoekresultaten te voorkomen. Begin april is Google de zogenaamde Penguin update van hun algoritme beginnen gebruiken.

De Penguin Update

Zoals hiervoor reeds gezegd wil Google zijn klanten relevante, eerlijke en correcte zoekresultaten aanbieden. Over geoptimaliseerde pagina's beletten dit. Daarom gaf  google al eerder aan dat ze zouden werken aan een over-optimization penalty.

Sinds ongeveer april 2012 gebruikt Google voor steeds meer sites het zogenaamde Penguin algoritme. Sommigen zagen hun aan bezoekers vanuit Google van de ene dag op de andere verveelvoudigen terwijl weer anderen quasi volledig uit de zoekresultaten verdwenen.
De oorzaak van de terugval was zeker niet omdat er zogenaamde Blackhat SEO zoals doorwaypages toegepast werd.

Het heeft een tijdje geduurd voor het wereldje van de SEO-specialisten doorhadden wat er aan de hand was. Het was de fout van die mysterieuze penguin update.

Na zelf een testen opgezet te hebben, en heel wat literatuur gelezen te hebben heb ik toch een goed idee waardoor de Penguin update zo'n drastische gevolgen heeft op de zoekresultaten.

Wat verandert niet?

Het meeste van wat hierboven staat veranderd niet. Maar toch zijn een aantal elementen zoals de vraag naar unieke inhoud en goede linken belangrijker geworden.

1) Zorg voor een relevante site

Zorg er dus  voor dat je nog steeds een relevante website met unieke inhoud hebt.

2) Tekst, Tekst, Tekst

Toen ik nog professioneel actief was met zoekmachine optimalisatie was mijn Credo, zorg voor relevante, unieke tekst op je site. Dit blijft onverkort geldig.

Wat verandert er wel

1) Linkbuilding

We mogen bijna alles vergeten wat we ooit wisten over linkbuilding.
Vroeger hield Google quasi geen rekening met de kwaliteit van de inkomende linken vanuit de optiek dat wij daar als webmasters geen controle over hadden. Vanuit die optiek was het heel interessant om, ondanks de officiële google policy, toch zoveel mogelijk inkomende linken te bekomen. Reciprocal linken (ik geef een link jouw site als je me er eentje teruggeeft) werd al een hele tijd afgestraft. Maar met zogenaamde slimme linkbuilding kregen we nog altijd heel goede resultaten.

Voorbeeld van een heel eenvoudig slim linkbuilding schema:
site A linkt naar B
site B linkt naar C

site C linkt naar D
site D linkt naar A

Er bestaan ook heel wat complexere systemen waardoor op het eerste zicht iedereen unieke binnekomende linken ontvangt. Probleem was dat je weing invloed had op de kwaliteit van de sites die uiteindelijk naar jou. Vroeger was dit geen probleem. Nu kijkt Google wel heel sterk naar de kwaliteit van de inkomende linken.



Vanaf nu is 1 inkomende link van een hoge kwaliteitssite nog veel beter dan een massa inkomende linken van bedenkelijke kwaliteit.
Nog erger is dat inkomende linken van slechte  kwaliteit je positie in Google Negatief beïnvloeden.
Een gevaar zit erin dat Black-hat SEO specialisten dit element kunnen gaan gebruiken om aan negatieve SEO te doen door heel veel slechte linken naar de site van een concurrent te laten verwijzen. Ik heb gehoord dat Google er aan denkt om in de hulpprogramma's voor webmasters de mogelijkheid aan te bieden om slechte inkomende linken te weigeren zodat ze geen invloed hebben op je zoekresultaten. Maar zover is het nog niet.

Eigenlijk is het zo dat voortaan elke site met een "eigenaardig linkpatroon" door Google gestraft wordt.

2) Nog meer aandacht voor unieke inhoud

Unieke inhoud is nog 1000 keer belangrijker. Pas op met RSS-feeds

Ik heb persoonlijk ook gemerkt dat vooral sites die hun inhoud regelmatig aanvullen met gegevens uit RSS-feeds (vb. het laatste nieuws van een grote site), en zeker de sites die quasi volledige arftikels via RSS-feed overnemen slachtoffer zijn van de Penguin update. Uit persoonlijke ervaring heb ik gezien dat veel van deze sites tot 90% minder bezoekers krijgen van Google. De moraal van het verhaal is nogmaals, zorg voor Unieke, degelijke inhoud. Neem zeker zo weinig mogelijk volledige artikels over van andere sites!

3) Kwaliteit van de uitgaande linken!

Pas nu ook op met de linken die je naar een andere site legt. Google gaat er voortaan meer dan ooit van uit dat een ernstige site zijn bezoekers enkel doorverwijst naar een andere ernstige site. Linken naar sites die niets met het onderwerp van je eigen site te maken hebben moet je dus sterk beperken.

4) En wat met de sociale media?

Er is geen twijfel over dat het belangrijk is om je site te linken met de zogenaamde  sociale media. Ik heb zelf websites waar ik nu 60-70% meer bezoekers krijg dankzij linken naar de sociale media. Vermoedelijk houdt Google ook rekening met het aantal "likes" op facebook en het aantal Google+1 vermeldingen. Maar weet dat het in het Black-hat SEO wereldje slechts een paar euro kost om duizenden facebook likes of youtube likes te bekomen. Google weet dit ook en voor zover ik weet houdt google nog niet overdreven veel rekening met je aanwezigheid op facebook. Dit is misschien iets voor een later update als het Google algoritme de valsspelers kan detecteren.

Er zijn nog andere factoren die een rol kunnen spelen zoals het vermelden van een disclaimer, maar ik denk dat ik met deze 3 elementen de belangrijkste factoren vermeld heb.


Moraal van het verhaal:

Zoals gezegd wil Google zijn klanten de beste zoekresultaten aanbieden.
  • Zorg ervoor dat je goede inhoud hebt, 
  • Link naar 100% verwante sites die volgens jou goed zijn. 
  • Verwacht niet voor elke link een link terug.  
  • Promoot je site via de sociale media, het heeft misschien niet direct een invloed op je positie in Google, maar je trekt wel bezoekers aan. 

Hou het simpel en eerlijk en heb geduld. Dit biedt je de meeste kans op succes.



Is online verkoop anders dan offline verkoop?

In de off-line wereld moet een verkoper goede troeven in handen hebben om een klant ervan te overtuigen bij hem te kopen in plaats van bij een concurrent. De klant moet er “voordeel” bij hebben. Net zo in de on-line wereld. Wezenlijk moeten we klanten op dezelfde manier aanpakken als bij een klassieke winkel. In de tabel hieronder vergelijken we een aantal elementen die een klant zowel in de offline als online wereld kunnen aanzetten tot kopen of weglopen.


Gewone winkel (offline wereld)Website (online wereld)
BereikbaarheidMakkelijk bereikbaar met auto, fiets, in winkelcentrumGemakkelijk bereikbaar door intuïtieve domeinnaam, aanwezigheid in de zoekmachines, linken vanaf andere sites, …
Technisch functionerenKassa moet werken
verlichting moet kunnen branden,
roltrappen moeten werken
deur moet open kunnen
(als 1 van die elementen niet in orde is wordt het de klant een stuk moeilijker gemaakt om te winkelen)
Site moet technisch volledig in orde zijn, in de virtuele wereld haakt de klant snel af bij het kleinste technische probleem. (vermijd client side scripting of plugins – zoals javascript of java) en eigenlijk ook grafische plug-ins zoals flash. Deze zijn te afhankelijk van het perfect functioneren van de PC van de klant en dus buiten controle van de site-owner.
Aantrekkelijke etalageEen klant is sneller geneigd om een winkel binnen te stappen als de etalage aantrekkelijk ingericht is. In je etalage toont men wat de klant wil zien, en wat de verkoper wil verkopen. De etalage geeft de klant een goed idee van wat hij binnen mag verwachten.
Als de etalage niet aantrekkelijk is, is de klant binnen enkele seconden weg. En staat hij al aan het raam van de winkel ernaast
De on-line etalage is de homepagina van de site.
Zorg er voor dat de klant terechtkomt op een duidelijke homepagina die de klant uitnodigt om de site binnen te komen
Opstelling productenIn een grootwarenhuis staan de producten die uit zichzelf goed verkopen achteraan in de winkel. (De klant koopt ze toch)
De zaken die de handelaar als waardevolle “extra” wil verkopen (promoties, zaken buiten het normale assortiment) zet hij vooraan, op de beste plaats in de winkel.
Extra’s (zoals snoep, sigaretten, …) staan meestal bij de kassa.
Kondig promoties aan op de homepagina, (vooraan in de winkel). Voor het dagdagelijkse, bekende aanbod zijn klanten bereid een pagina verder te kijken.
Extra’s, opties (vb. ook nieuwsbrieven) nog eens aanbieden vlak voor het afsluiten van het verkoopsproces.
Maak het je klanten zo gemakkelijk mogelijk.Een kruidenier zet geen portier aan de deur die van alle potentiële klanten naam en adres vraagt. Iedereen begrijpt dat dit de klanten zou afschrikken.Op vele websites moet men zich inschrijven (persoonlijke gegevens meedelen) vóórdat men de site binnenkomt. Een beter middel om klanten weg te jagen bestaat er niet.
Als de klant op het einde van z’n winkelbeurt komt, Als de site reeds wat vertrouwen gewekt heeft, is hij zeker bereid om zich bekend te maken. (zolang de klant er maar iets voor terugkrijgt).

donderdag 11 oktober 2012

Bepaal het gedrag van de zoekmachine robot

Zoekmachines maken gebruik van software agents, ook wel robots of spiders genoemd. Dit zijn programma's die dag en nacht het internet afzoeken naar nieuwe websites of veranderingen aan websites. Als je site wordt herkend als iets nieuws, wordt deze toegevoegd aan de database van zo'n zoekmachine.

Doordat de zoekmachine-spiders de links op de pagina´s kunnen volgen komen ze weer uit op andere pagina´s waardoor zo het hele internet wordt afgezocht.

Met behulp van de 'robots' META tag geef je aan wat de robot van sommige zoekmachines mag doen zodra deze jouw site heeft gevonden. Mag hij jouw volledige site indexeren en alle links naar andere pagina's volgen? Of wil je liever niet dat een zoekmachine jouw site indexeert omdat deze bijvoorbeeld van persoonlijke aard is en niet gevonden hoeft te worden?

De links die wel of niet gevolgd mogen worden, kunnen links naar andere pagina's van jouw website zijn, maar ook links naar andere websites op het internet. Zoals gezegd werkt deze methode niet voor alle zoekmachines, maar het is toch een handige feature voor de zoekmachines die er wel mee werken.
De 'robots' META tag plaats je, net als alle andere META tags, tussen de  <head> en de </head>  tag van een HTML-document, zoals hieronder staat weergegeven:


Het attribuut content kan een aantal waarden bevatten. Hieronder volgt een opsomming van wat er mogelijk is:
Met content="index,follow" geef je aan dat de pagina waarop je 'robots' META tag is toegevoegd, geïndexeerd mag worden en de links naar andere pagina's gevolgd mogen worden. Een andere schrijfwijze is content="all", dat precies hetzelfde doet. Aangezien index en follow standaardwaarden zijn, hoef je de 'robots' META tag in principe niet toe te voegen als je deze combinatie wilt gebruiken. Dit is eigenlijk wat een robot zou doen als de 'robots' META tag niet was toegevoegd aan de betreffende pagina.

  • Met content="index,nofollow" geef je aan dat de pagina waarop je 'robots' META tag is toegevoegd, geïndexeerd mag worden, maar de links naar andere pagina's mogen niet gevolgd worden. Een verkorte schrijfwijze is content="nofollow", omdat index weer de standaardwaarde is.

  • Met content="noindex,follow" geef je aan dat de pagina waarop je 'robots' META tag is toegevoegd, niet geïndexeerd mag worden, maar de links naar andere pagina's mogen wel gevolgd worden. Een verkorte schrijfwijze is content="noindex", omdat follow weer de standaardwaarde is.

  • Met content="noindex,nofollow" geef je aan dat de pagina waarop je 'robots' META tag is toegevoegd, niet geïndexeerd mag worden EN de links naar andere pagina's mogen niet gevolgd worden. Een andere schrijfwijze is content="none", dat precies hetzelfde doet. De zoekmachine negeert dus deze pagina in zijn geheel.

Je kunt dus voor iedere pagina van je website aangeven of deze geïndexeerd mag worden of niet. Je gebruikt deze methode het beste als je pagina's niet wilt indexeren door de zoekmachines. Volgende keer gaan we kijken naar een aantal speciale META tags die je voor Google kunt gebruiken.


Bovenstaande tekst komt uit Web Succes Magazine en is 100% copyright Alphamega
Alphamegahosting.com.

hoe start ik met zoekmachine optimalisatie


Een goede aanwezigheid op internet is heel erg belangrijk. In veel teksten over zoekmachine optimalisatie wordt gesproken over goede kernwoorden (Keywords). Maar hoe bepaal je die bepaal je die kernwoorden? In dit artikel bekijken we stap voor stap hoe een site het beste kan geoptimaliseerd worden voor search engines zoals Google.


Het beste is om in een eerste fase gewoon je inhoud op een natuurlijke manier neer te schrijven. Schrijf over je onderwerp zonder na te denken over kernwoorden, hoeveel kernwoorden, ...
Google houdt het meest van gewone originele, natuurlijke tekst.

Registreer je wel voor google "Hulpmiddelen voor webmasters" en meld je site aan bij zoekmachines en indexen vermeld hem in forums, blogs, ...

Bepalen van je kernwoorden

Na een paar weken zul je in Google "Hulpprogramma's voor webmasters" onder - Verkeer - zoekopdrachten een overzicht zien van de kernwoorden waaronder je site al op natuurlijke wijze teruggevonden wordt. Als je voor bepaalde kernwoorden, of varianten beter wil scoren kun je nu op je site een aantal aanpassingen doen. Om te zien hoeveel keer een bepaald kernwoord best voorkomt kun je gebruik maken van een  kernwoordtool zoals in WEBCEO, een tool die ik zelf jarenlang met veel succes gebruikt heb. (Kies in Webceo voor page optimalisation).

Metadata aanpassen

 

Creer de "title-tag"

<title>--------</title> Max 60 karakters - 2 kernwoorden of groepjes van kernwooorden moet voorkomen in de titel. Belangrijkste kernwoord(en) komen vooraan in de titel.Titel moet "wervend" zijn voor uw bezoekers. 

Creer de "description tag"

Max 130 karakters. Deze USP moet duidelijk omschrijven waarover de pagina gaat:Actief taalgebruikGebruik minstens 3 belangrijke kernwoorden (helpen niet mee voor positionering, maar het is belangrijk voor de klant dat hij de woorden die hij gebruikt als zoekterm ook in de beschrijving terugvind). 

Body tekst:

Fases: 1) Schrijf eerst gewoon de tekst zonder rekening te houden met "kernwoorden". Vervang waar mogelijk woorden door "kernwoorden uit het lijstje".Belangrijkste kernwoorden komen voor in:
·         <h1>…..</h1>
·         <h2>…..</h2>
·         Linken (navigatie)
·         alternatieve tekst voor images
·         namen van afbeeldingen
·         body tekst  Gebruik ook regelmatig kernwoorden uit het lijstje met kernwoorden voor de hele site.Zorg voor voldoende Inhoud (+/- 1 A4-tje aan relevante tekst per pagina) 

URL

 

URL: probeer de URL als volgt samen te stellen:

  • Vermijd dynamische URL's: (vermijd zeker en vast "session ID's en url's waarin de content bepaald wordt door "id=??????"
  • in de domeinnaam zet je 1 of 2 kernwoorden uit het lijstje kernwoorden voor de hele site (kernwoorden scheiden met een "_" .
  • Rest van de URL: Kernwoorden uit het lijstje per pagina 

Navigatie:

 

RELEVANTE Externe linken :

·         Zorg voor linken naar relevante externe sites (hoe meer RELEVANTE linken, hoe beter)
·         Post in forums, plaats daar ook linken naar uw site
·         Vraag aan bv. klanten om op hun site linken te plaatsten naar uw site. 

Interne linken

·         Zorg ervoor dat de spiders elke gewenste pagina kunnen bereiken (Google)-sitemap.
·         Zorg voor linken van binnenin de pagina's naar andere pagina's op je website.

Waarom zoekmachine optimalisatie

Waarom zoekmachine optimalisatie?


Volgens recente schattingen bestaat het web uit ongeveer 175 miljoen websites, alleen al in 2005 kwamen er 75 miljoen sites bij. Binnen niet al te lange tijd gaan we dus naar meer dan een miljard websites. Het is de bedoeling dat uw potentiële klanten u in die massa terugvinden. Dit is meestal “zoeken naar een speld in een hooiberg”.
Tot 81% van de mensen informatie zoekt op het web via een zoekmachine. Het is dus van levensbelang dat een site goed teruggevonden kan worden via de zoekmachines. Onderzoek heeft het volgende uitgewezen:


    • 80% van de mensen gebruikt een zoekmachine
    • 70% van die mensen bekijken enkel de top 10 resultaten
    • 90% van die mensen klikt enkel door naar de top-3 sites.
    • 80% van diegenen die enkel de top 10 bekijken, klikt door naar sites die op het eerste gezicht interessant zijn (een goede beschrijving + titel).

Uit bovenstaande blijkt duidelijk dat een Top 10, en liefst top-3 resultaat uitermate belangrijk is voor elke site. Hieronder bespreken we een aantal elementen die ervoor kunnen zorgen dat een site een hogere rangschikking behaalt.

Belangrijkste regels:

Zoekmachines willen hun klanten degelijke resultaten bezorgen.
Daarom hebben ze een algoritme met een aantal parameters bedacht waarmee ze bepalen hoe representatief een webpagina is voor de zoektermen die hun gebruikers ingeven.
Het is de bedoeling dat de meest relevante sites bovenaan komen in de rangschikking.
Om te vermijden dat bepaalde gebruikers die regels gaan misbruiken om hun ranking te manipuleren veranderen de precieze regels nogal wat (voor Google een 100-tal parameters). Toch zijn er een aantal algemene regels waaraan je moet houden.

Opbouw van een site:

“Het internet is een medium waarnaar men kijkt”. Onderzoek (eyeball tracking) heeft uitgewezen dat klanten niet graag online teksten lezen. Bij een eerste blik op een pagina beslist hij al of hij al dan niet blijft. Een grafische site, waar grafische elementen ruim aanwezig zijn is dus de doelstelling. Het ideaal is hier een 100% grafische site.
MAAR
Zoekmachines herkennen enkel tekst. Java Script, Flash, en andere elementen kunnen dus niets bijdragen tot een betere positionering in de zoekmachines. (erg als tot 60% van je bezoekers vanuit zoekmachines kan komen). Het ideaal is een 100% tekst site.
De oefening is dus om een compromis te vinden tussen een grafische- en pure tekst site.

Metadata


Metadata zijn stukken code waarin de programmeur kan aangeven waarover een site gaat. Vroeger was je metadata allesbepalend voor de positie in zoekmachines. Omdat bepaalde sites metadata invoerden die helemaal niets met de inhoud van de site te maken had is het belang hiervan echter heel sterk afgenomen. Vooral erotische site hadden veel belang bij het opduiken in zoveel mogelijk zoekresultaten, vandaar dat er vroeger bij elke zoekopdracht ook erotische varianten opdoken.
Hieronder vind je een stukje correct ingevulde metadata:
“<head>
<title>Trainingen over internet en zoekmachine optimalisatie</title>
<meta http-equiv="Content-Type" content="text/html; charset=iso-8859-1">
<meta name="keywords" content="">
<meta name="description" content="gedegen training en consulting over internet, webmarketing en search engine optimalisatie alles vanuit een commercieel standpunt">
<meta name="Author" content="danny training en consulting">
<meta name="Publisher" content="trainingconsulting.be">
<meta name="robots" content="index, follow">
<meta name="revisit-after" content="30 days">
<meta name="distribution" content="global">
<meta name="rating" content="general">
<meta name="Content-Language" CONTENT="dutch">
<link href="traingconsulting.css" rel="stylesheet" type="text/css">
</head>”
Je ziet het niet, maar indien afwezig is dit dramatisch
Toch blijven metatags heel belangrijk bij je aanwezigheid in de zoekmachines. Ze kunnen er immers voor zorgen dat je zoekresultaten “leesbaarder” worden. Vooral de metatags “title” en “description” zijn daarbij belangrijk.
Indien er geen Title tag en description tag bepaald zijn, creëert Google die zelf uit de eerste lijnen tekst van de site.

Titel Tag

Google besteedt heel veel aandacht aan de Title Tag. Dit is de titel waaronder de website in de zoekresultaten getoond wordt.
Om als relevant aanvaard te worden moeten de woorden uit de Title Tag meerder keren voorkomen in de bodytekst. Als afbeeldingen, linken, domeinnaam ook woorden uit de title tag bevatten is dit een heel goede zaak.

Keywords Tag

Dit zijn de woorden waarvan we vermoeden dat klanten ze zullen gebruiken om informatie over je product op te zoeken. (Voor ADSL bv. adsl, breedband, internet, snel internet, … en … waarom niet kabel. (Belgacom wil dat klanten die informatie opzoeken over breedband-kabel ook op hun site terechtkomt). (10 à 20 woorden moet voldoende zijn -- meer kan als SPAM beschouwd worden). Vooral belangrijk zijn de mogelijke "koppels" van woorden vb. klanten die in de zoekmotor "internet" + "snel" ingeven moeten ook op de ADSL site terechtkomen.
Net zoals bij de "TITLE"-Tag bepaalt het aantal keer dat een keyword voorkomt in de bodytekst de relevantie van dat keyword. Als 6 à 10% van de bodytekst uit keywoorden bestaat zit je goed. Zorg ervoor dat alle keywoorden ook in de tekst voorkomen anders hebben ze niet veel belang. Je belangrijkste keywoorden moeten meer in je bodytekst voorkomen dan de minder belangrijke keywoorden.

Description-Tag

De description Tag beschrijft in "mensentaal" wat de bezoeker op deze pagina mag verwachten. Deze Tag is niet zo Keywoord afhankelijk, maar als je belangrijkste kernwoorden hierin voorkomen komt dit toch de ranking ten goede.
Probeer ook je belangrijkste Kernwoorden vooraan in je beschrijving te zetten.

Body tekst (eigenlijke inhoud).

Als de Metatags niet goed beschreven zijn gebruikt Google (en andere zoekmachines ook) de eerste regels van je eigenlijk pagina om de site te indexeren.
Zorg dat de eerste 200 karakters van je site een duidelijk leesbare en afgelijnde tekst bevatten.
Zorg ervoor dat de belangrijkste kernwoorden zeker in de eerste 200 karakters voorkomen.
Hieronder 2 voorbeelden: in het eerste voorbeeld werden de eerste regels goed beschreven, in het tweede voorbeeld is het begin van de bodytekst slecht aangemaakt.
Goed voorbeeld van body tekst

voorbeeld van slechte body tekst en niet ingevulde “title” en “description tag”

Verspreid je kernwoorden binnen je bodytekst. m.a.w. meerder keren een kernwoord na elkaar zal al snel beschouwd worden als SPAM met het risico dat je site uit Google verwijderd wordt.



Andere Aspecten die je ranking bepalen


Aantal bezoekers (Click-throughs)

Google hecht heel veel belang aan het aantal bezoekers die een site krijgt. Hoe hoger het aantal bezoekers, hoe waardevoller de zoekmachines de info op die site achten, en dus hoe hoger de Ranking op de site.

Aantal relevante linken naar je site. (referals)

Google gaat ervan uit dat een site waarnaar veel gerefereerd wordt ook een goede site is. Ze gaan dus kijken naar het aantal sites die een of meerdere linken leggen naar uw site. Hoe meer sites naar uw site doorverwijzen, hoe hoger de ranking.
Niet enkel het aantal linken telt, maar ook het soort site dat doorverwijst. Linken naar uw site vanaf sites die door Google "hoog" ingeschat worden zijn belangrijker in het bepalen van uw positie dan linken vanaf sites met weinig bezoekers en slechte informatie.
Een link vanaf een pagina met weinig linken wordt hoger ingeschat dan een link vanaf b.v. een startpagina met meerdere links.
Linken vanaf pagina's met gelijkaardige inhoud en veel bezoekers zijn van onschatbare waarde. (kan je ranking heel sterk beïnvloeden). Anderzijds kunnen linken vanaf sites die helemaal niets te maken hebben met uw site de ranking zelfs negatief beïnvloeden.
Andere belangrijke parameters die de listing in de zoekmachines bepalen zijn o.a.:

Grootte van de site

(een site met 2 pagina's heeft veel minder kans om opgenomen te worden dan een site met 200 pagina's).

Kernwoorden in de domeinnaam en url

 Als de belangrijkste kernwoorden in de domainnaam voorkomen wordt de site als meer ter zake doende beoordeeld door de zoekmachines.
Vandaar het belang van tenminste een domainnaam à la www.skynet.be/productnaam, nog beter op zoekmachinevlak zou zijn www.productnaam.be (maar dit laatste is niet altijd evident).

De website aanmelden in de zoeksystemen

Nu je rekening gehouden hebt met bovenstaande info zullen zoekmachines misschien je site bezoeken. (Enkel als er al andere sites naar je linken). Dit kan wel een 1 maand tot 3 maanden duren. (bv. Google scant het internet af op maandbasis).
Een iets snellere methode waarbij je site normaal binnen de 30 dagen opgenomen wordt in de index is je site submitten.
Dit moet regelmatig opnieuw gebeuren om er zeker van te zijn dat de site ook in de index blijft. Maar ook hier geldt dat je niet mag overdrijven, want spamming kan bestraft worden met het helemaal verwijderen van je site uit de listings.

Let op, er zijn firma’s die beweren dat ze je goede positiies kunnen garanderen in honderden zoekmachines tegelijk. Hier moet je heel voorzichtig mee omspringen. Het toevoegen van je site aan de belangrijkste indexen is sowieso een manueel werk die heel zorgvuldig moet gebeuren. (Dmoz.org, Yahoo directory). Voor je hieraan begint moet je goed nadenken over een krachtige USP (Unique Selling Proposition) waar je belangrijkste kernwoorden in voorkomen.

Over zoekmachine spamming

Het is de zoekmachines in de eerste plaats om “relevantie” van de zoekresultaten te doen. Bij Search-Engine Spamming is het de bedoeling van de Spammer om zijn site (onterecht) zo hoog mogelijk gerangschikt te zien voor bepaalde kernwoorden. De belangen van de Spammer en de zoekmachine zijn dus compleet tegengesteld. Vanzelfsprekend doen zoekmachines er dus alles aan om spammen te bestraffen. Onverbiddelijk gooien ze sites die van spamming verdacht worden zelfs helemaal uit de zoekresultaten.

Hoed je voor zoekmachineoptimalisatie bedrijven die zich van een van onderstaande technieken bedienen om goede zoekresultaten te bekomen. Leg contractueel zeker vast dat er niet gewerkt wordt tegen de algemene voorwaarden van de zoekmachines in.

Doorway pages:

Een doorway page is een pagina die specifiek ontworpen werd voor de zoekmachines. In zijn eenvoudigste vorm is het een pagina die volgepropt wordt met "keywords" en die enkel bedoeld is voor de zoekmachines. Gewone bezoekers krijgen de pagina niet of heel kort te zien. Op die pagina wordt dan ofwel een link geplaatst "klik hier om verder te gaan".
Pas hiermee op omdat dit tegen de policies van de zoekmachines ingaat. Bovendien garanderen doorway pagina’s zeker niet dat de site ook die topposities behaalt. Er spelen te veel andere factoren die meer invloed hebben op je positie binnen de zoekmachines. Denk daarbij bv. aan: de hoeveelheid informatie op je site, linken van en naar je site, aantal keer dat er binnen google doorgeklikt werd naar je site, domeinnaam, …
Door een aantal minder ernstige firma’s worden die doorway pagina’s ook wel “geoptimaliseerde” pagina’s genoemd. (Een echte geoptimaliseerde pagina is bedoeld voor de bezoeker en houdt rekening met o.a. kernwoorden in tekst, title-tag, kernwoorden in headings, ...)


Overdadig keyword gebruik (Keyword stuffing)
:

Je kernwoorden moeten in voldoende mate in de tekst aanwezig zijn. Als er echter overdreven wordt, en bepaalde pagina’s volgestouwd worden met kernwoorden (kernwoord spamming) dan dreigen strafpunten of in het slechtste geval zelfs uitsluiting van de zoekmachines.

Overdadig veel registeren van sites in de zoekmachines:

Als een site agressief veel aangemeld wordt, met verschillende URL’s die naar vergelijkbare inhoud verwijzen bestaat de reële kans om uit de zoekresultaten geweerd te worden.

6 misverstanden over zoekmachine optimalisatie

Als het om zoekmachine optimalisatie gaat wordt er heel veel verondersteld, maar zijn er toch weinig mensen die goed weten hoe de vork precies aan de steel zit. Hieronder bekijken we een aantal van die veel voorkomende misverstanden.



1) Alle metatags zijn even belangrijk


FOUT

Niet alle metadata zijn even belangrijk, google bijvoorbeeld houdt enkel rekening met volgende tags:

"description tag"

Google gebruikt deze als verklarende tekst in de zoekresultaten. De description tag heeft echter geen enkele invloed op de positionering van een site. Het is dus belangrijk dat de title tag

Title Tag

Dit is wat in Google getoond wordt als titel voor de zoekresultaten. Als je de title tag niet meegeeft werd vroeger "No Title" getoond. Tegenwoordig kiests Google zelf een stuk tekst waarin 1 van de zoekwoorden voorkomt.
Het komt erop neer dat je de manier waarop je verschijnt in de zoekresultaten van Google volledig kan controleren door de Title en

Keyword Tag.

Over de Keywords tag wordt veel onzin verteld. Feit is dat ze voor Google bijna geen of helemaal geen rol spelen.
Maar er zijn andere zoekmachines die wel nog indexeren op basis van keywords. vb. bij Exact-Seek en Alta Vista spelen ze wel een rol. En aangezien de meeste zoekmachines onderling resultaten uitwisselen kan een hoge positie in zoekmachine of index A wellicht meehelpen om een betere zoekpositie in zoekmachine B te bereiken.
Daarnaast spelen ook andere tags een rol. In bepaalde gevallen is het nodig dat een pagina NIET opgenomen wordt in de zoekmachines. Dit is bijvoorbeeld het geval voor pagina's die enkel mogen bekeken worden door leden of betalende inhoud bevatten. In dit geval kun je werken met het bestand "robots.txt" en/of met de robots metatag.
<meta name="robots" content="index,follow"> als je wenst dat de robot de pagina indexeert of
<meta name="robots" content="noindex,nofollow"> als je liever niet hebt dat de pagina opgenomen wordt door de zoekmachines.

2) met voldoende kernwoorden in mijn teksten krijg ik zeker een toppositie in Google



FOUT:
Er spelen zowel een aantal on-site elementen als off-site elementen mee bij het bepalen van de relevantie van een pagina in de zoekmachines. Kernwoord densiteit (aantal kernwoorden) in de body-tekst is slechts 1 van de elementen die Google gebruikt om de relevantie van een pagina te bepalen.

Daarnaast is o.a. het aantal "relevant links" naar uw website heel belangrijk. Op die manier slagen bepaalde groeperingen erin om bij de zoekterm "failure" de site van president Bush te laten verschijnen. Als er heel veel sites die relevant zijn voor het woord "Failure" verwijzen naar Bush wordt de site van President Bush ook relevant voor dit kernwoord. Zelfs al komt het woord "failure" in heel de site niet 1 keer voor.

3) Een goede SEO firma kan me een goede positionering garanderen

FOUT
De regels waarmee bv. Google, maar ook andere zoekmachines de relevantie van een webpagina trachten in te schatten veranderen dagelijks. De preciese regels worden angstvallig geheim gehouden.
Een ernstige SEO firma zal dus nooit top-posities garanderen. We kunnen enkel een site zo optimaliseren dat het eenvoudiger wordt voor de zoekmachines om de site terug te vinden EN goed te indexeren. Zoekmachine specialisten die garanties leveren werken meestal niet conform de "Google richtlijnen". Ze maken gebruik van methodes die ervoor zorgen dat zoekmachines andere pagina's te zien krijgen dan de gewone surfer. (doorway-pages, Page Cloacking, agent delivery, ip delivery, ... en andere verboden technieken. Dit heeft als gevolg dat hun klanten soms volledig uit de zoekresultaten verdwijnen.
Anderen die garanties leveren doen dit dan vooral voor exotische kernwoorden waarvoor heel weinig concurrentie bestaat. Zo is het niet moeilijk om top-rankings te krijgen voor bv. "pimpernellebolletjes".

4) Je sluit altijd beter een jaarcontract af met een SEO firma

FOUT
Tenzij je heel veel vetrouwen koestert in een zoekmachine specialist laat je je nooit binden voor een heel jaar. Eenmaal de aanzet gegeven is voor site optimalisatie kunnen kleinere en middelgrote sites perfect zelf een goede positionering onderhouden. De meeste energie kruipt in het opzetten van de optimalisatie. Nadien moeten er blijvend inspanningen gebeuren door vooral rekening te houden met:
  • linken van en naar Relevante sites
  • Doorlinken naar pagina' sop eigen site
  • Duidelijke navigatie (vb. opzetten van een sitemap)
  • Gebruik van kernwoorden in de inhoud, metadata en alt-tekst van afbeeldingen, ...
Een SEO-specialist kan het werk natuurlijk  lichter maken door te zorgen voor bv. maandelijkse rapporten met praktische tips om de positionering te behouden of te verbeteren, want zoekmachine optimalisatie is een steeds voortdurend verhaal.

5) Zoekmachine optimalisatie is duur


FOUT
Onderzoek heeft uitgewezen dat meer dan 80% van de surfers infromatie op het web gaan zoeken via zoekmachines.
Een goed gepositioneerde site kan tot 70% van zijn nieuwe bezoekers krijgen via de zoekmachines
Een goede positionering kan dus heel veel bezoekers aantrekken die specifiek op zoek zijn naar uw dienst.
Opzetten van zoekmachine optimalisatie via een SEO specialist kan al voor vrij bescheiden bedragen. (laat je niet misleiden door de hoge tarieven van sommige agentschappen). Voor minder dan de prijs van een advertentie van 1/4 pagina gedurende 1 week in een regionaal dagblad kom je al heel ver bij het opzetten van je zoekmachine optimalisatie. (met een veel groter potentieel publiek).

6) Zoekmachine advertising is efficienter dan zoekmachine optimalisatie

FOUT
Het gaat eigenlijk over 2 compleet verschillende manieren om aanwezig te zijn in de zoekmachines. Beiden zijn geschikt om een ander soort boodschap over te brengen. Ze vullen elkaar perfect aan.
Zoekmachine optimalisatie gaat over een lange termijnvisie. Het is dus het kanaal om boodschappen i.v.m. imago, kernactiviteiten, ... bekend te maken. (Het kan soms 1 maand duren voordat pagina's opgenomen worden in zoekresultaten). Bovendien is het aanwezig zijn in de zoekmachines volledig gratis.
Zoekmachine reclame (Search Engine Advertisement -- SEA) is meer geschikt voor kortlopende promoties. Een uitzonderlijke aanbieding hoort bijvoorbeeld thuis in een zoekmachine advertentie. De revaring leert dat efficiente campagnes (goede kernwoorden, efficiente teksten) conversion rates tot 20% kunnen opleveren. Zoekmachine advertenties kunnen dus heel efficient zijn indien goed opgezet.