26 sep

Valid HTML en SEO…

 

Ik zeg het al jaren: Google wordt steeds beter in het lezen van website code, en validatie for the sake of SEO is compleet onnodig. Vandaag bevestigt Matt Cutts van Google dat het niet uitmaakt hoe valid je HTML-code is opgebouwd, maar veel meer hoe goed je content is…

En toch… Bij het bouwen van een website is het altijd belangrijk om een website zo goed mogelijk volgens de bestaande webstandaarden te bouwen om niet-SEO redenen. Wij proberen alleen af te stappen van valid code om enkele praktische redenen:

  1. Bij het inbouwen van externe, niet-validerende code
  2. Om een website sneller te maken
  3. Net om SEO-redenen (schema.org, rel=”” attributes, …)

Long story short: het is voor je SEO geen ramp dat je website niet 100% valideert, maar probeer je website zo goed mogelijk te maken – en fouten vooral te maken tegen de validatie voor de juiste reden! 🙂

24 sep

De hreflang tag voor een international doelpubliek

 

Indien je website zich richt tot een internationaal doelpubliek en je om die reden ook tijd hebt geïnvesteerd in het voorzien van verschillende (taal)versies, wens je uiteraard dat je bezoekers meteen naar de voor hen relevante url’s gestuurd worden. In de meeste gevallen zal Google gaan kijkenGebruik maken van de hreflang tag naar de extensie van je ccTLD (ook gekend als de country-specific top level domains).

Deze methode is echter allesbehalve foutbestendig. Het is bijvoorbeeld niet zo dat iedere website zich op een landspecifieke domeinnaam bevindt. Daarnaast is het ook mogelijk dat iedere taalvariant van je website gehost is op een apart subdomein (bv. fr.inbound.be ipv inbound.fr). En zelfs dan nog slaagt Google de bal nu en dan wel eens mis. Om dergelijke problemen het best het hoofd te kunnen bieden, heeft Google een tijd geleden de rel=”alternate” hreflang=”x” tag in het leven geroepen.

29 jan

Duplicate Content: Wat is het, en hoe kan je het vermijden?

 

Met “duplicate content” bedoelen we het terugkomen van (grote stukken) tekstuele en andere inhoud over één of meerdere domeinnamen. Dit is een probleem omdat het voor zoekmachines moeilijk is om te kiezen welke url de meest relevante is voor een bepaalde zoekactie. Om de beste zoekervaring te geven zal eenkopieermachine zoekmachine bijna nooit verschillende keren dezelfde content tonen voor één zoekopdracht, en gokt ze dus vaak welk de meest originele versie is. Het kan gaan over exacte overeenkomsten of over heel grote gelijkenissen. Soms komt dit door plagiaat, maar meestal is er sprake van duplicate content die per ongeluk in de website is geslopen. Bekende voorbeelden zijn:

  • Een pagina die twee of meer verschillende urls heeft, bijvoorbeeld http://inbound.be/ en http://inbound.be/index.php, of http://www.jouwsite.be/ en https://www.jouwsite.be/, of http://www.uwwebsite.be/ en http://uwwebsite.be/
  • De printbare versie van een pagina met exact dezelfde inhoud als de versie die aan de surfer wordt getoond
  • Websites die zowel een normale versie als een versie voor mobiele surfers heeft met dezelfde inhoud (of terugkerende delen inhoud).

Voor de zoekmachines zorgt dit voor 2 zeer grote duplicate content problemen:

  1. De zoekmachine weet niet welke pagina op te nemen in zijn index, of welke te tonen voor een bepaalde zoekopdracht. In ’t kort: duplicate content brengt de zoekmachine in verwarring.
  2. De zoekmachine weet niet waar de autoriteit van een bepaalde pagina te plaatsen (denk aan links, auteurschap, …). Samengevat: de zoekmachine geeft niet één pagina alle autoriteir, maar verspreid deze over een aantal, niet geoptimaliseerde pagina’s.
28 jan

Responsive Web Design: Wat is het en waarom is het belangrijk?

 

Ons surfgedrag is de voorbije jaren enorm hard gewijzigd. Alsmaar meer mensen beschikken inmiddels over een moderne smartphone en/of tablet, en deze dienen voor heel wat meer dan te bellen of berichtjes te sturen. Alsmaar vaker bezoeken we websites  via deze “mobile devices” en niet meer uitsluitend via de grote beeldschermen die met onze computers verbonden zijn. Echter, doordat de beeldresoluties van deze toestellen heel wat lager zijn dan die responsief web designvan het klassieke beeldscherm zullen websites  op een minder duidelijke manier vertoond worden.

Zo gaat bijvoorbeeld de tekst op een webpagina in die mate verkleind worden dat deze haast onleesbaar wordt. Deze mobiele toestellen laten dan wel toe een pagina in te zoomen, maar van een fijne gebruikerservaring is helemaal geen sprake meer. Als web publishers zullen we hier dus iets op moeten vinden.

23 jan

SEO voor gepagineerde inhoud

 

Bij het verdelen van webinhoud over meerdere pagina’s is het aangewezen waakzaam te zijn. Zonder de nodige voorzorgsmaatregelen kan dit immers ernstige schadelijke gevolgen hebben voor de zoekmachineresultaten van jouw website. Een mogelijk probleem is het optreden van zogenaamde “duplicate content”, iets wat men kost wat kost dient te vermijden. Dit houdt namelijk in dat identieke inhoud bereikbaar is op meerdere verschillende URL’s. Websites met “duplicate content” worden onder meer door Google lager gewaardeerd in de rankings. Een gevolg is ook dat de mogelijke linkwaarde van de webpagina verdeeld wordt over alle verschillende URL’s waardoor diens waarde redelijk beperkt blijven. Vanuit een zoekmachineoptimalisatie standpunt is dat natuurlijk een probleem.

Om web publishers te helpen deze problemen te voorkomen of aan te pakken, heeft Google enige tijd geleden de HTML link elementen rel=”prev” en rel=”next” geintroduceerd. Door gebruik te maken van deze elementen kan je voortaan aanduiden dat er een relatie bestaat tussen meerdere webpagina’s. Gepagineerde inhoud kan heel wat verscheidene vormen hebben zoals een artikel verdeeld over meerdere pagina’s of een webshop die producten aanbiedt op vele pagina’s.