De 30 meest voorkomende fouten in je website 

Fouten in website gr

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn

Google hecht veel waarde aan websites die met zo min mogelijk fouten zijn gemaakt, dus is het maar beter om zo'n website te hebben. Ik denk dat er in jouw website ook kleine foutje aanwezig zijn, maar zonder dit te testen weet je dit niet natuurlijk.

In elke website kunnen foutjes zitten die tijdens het bouwen of het aanmaken van nieuwe artikelen ontstaan, ook in je eigen website kunnen er tijdens het bouwen of maken van nieuwe artikelen fouten insluipen, maar niet getreurd dit is op een eenvoudige manier te achterhalen.

Hoe test je een website op fouten?

Om te kijken of er fouten in je website zitten kun je het gratis te downloaden programma Website Auditor gebruiken. Ik gebruik dit programma meerdere keren als ik een nieuwe website aan het maken ben om er zeker van te zijn dat er zo min mogelijk fouten in een website zitten. 

Als je nu dit programma op je computer hebt staan en je hebt je eigen website getest en er komen een heleboel fouten naar boven dan is er werk aan de winkel.

In jouw website wordt op maar liefst 30 punten gekeken of er fouten inzitten die het goed funtioneren van je website belemmeren.

Als het niet lukt of niet weet waar je naar moet kijken kan ik ook een vrijblijvende test doen van je website, ik geef je dan advies waar je de verschillende fouten kunt oplossen, dit is geheel vrijblijvend.

Er zijn verschillende dingen die worden gecheckt zoals:

   Indexeer fouten

   Redirects

   Code en Technische factoren

   Url's

   Links

   Afbeeldingen

   On-page

Probeer zoveel mogelijk op te lossen, zeker de fouten met een rood kruis omdat deze erg belangrijk zijn voor het goed functioneren van je website. Mocht je nu ergens een fout hebben en niet weten hoe deze op te lossen, dan kun je altijd vrijblijvend contact opnemen.

Indexeer fouten

4xx fouten

De meeste 4xx fouten duiden vaak op een probleem op de website. Als je bijvoorbeeld een gebroken link op een pagina hebt en bezoekers klikken erop krijgen dat ze een 4xx fout te zien.

Het is belangrijk om deze fouten regelmatig te monitoren en op te lossen omdat ze een negatieve invloed kunnen hebben in de ogen van de gebruiker.

Het kunnen ook pagina's zijn die niet meer bestaan en daarom een foutmelding geven, is op zich niet heel erg, neem als voorbeeld een webshop die een artikel niet meer verkoopt, na verloop van tijd verdwijnen deze uit de index van Google.

5xx fouten

5xx foutmeldingen worden verzonden als er een server fout optreedt. Het is belangrijk om deze fouten te monitoren en op te lossen omdat ze een negatieve invloed kunnen hebben op de website authoriteit volgens de zoekmachines.

Uitgesloten van indexering

Een pagina kan uitgesloten zijn van indexering op verschillende manieren:
in een robots.txt bestand
mbv een Noindex X-Robots-Tag
mbv een Noindex Meta tag.
Elk van deze mogelijkheden is een regel HTML code die de zoekmachine crawlers aangeeft hoe bepaalde pagina's moeten worden behandeld. De tag verteld crawlers dat ze de pagina niet mogen indexeren, dat ze de links moeten volgen en/of de inhoud moeten archiveren. Zorg er dus voor dat de pagina's met unieke en goede inhoud beschikbaar zijn voor indexering. Dit is een belangrijk gegeven voor een betere vindbaarheid.

Is de 404 pagina goed ingesteld?

Een goede 404 pagina kan helpen om jouw bezoekers op jouw website te houden. Het moet bezoekers informeren dat de gevraagde pagina niet bestaat en moet het de bezoeker makkelijker maken om hetgene te vinden dat hij zoekt met behulp van een menu, sitemap en/of zoekformulier.

Maar nog belangrijker, de 404 fouten pagina moet een 404 status code retourneren. Dit klinkt logisch, maar dit gebeurt lang niet altijd. Volgens Google Search Console: "Het retourneren van een status code anders dan 404 of 410 voor een niet bestaande pagina kan problemen opleveren.

Het geeft de zoekmachines door dat er een echte pagina hoort bij de URL, waardoor deze gecrawld en geïndexeerd wordt. Doordat Googlebot tijd spendeert aan niet bestaande pagina's, kan dit ten koste gaan van de indexatie en crawl frequentie van jouw website. Het is aan te bevelen om altijd een 404 (Niet gevonden) of een 410 (Verdwenen) response code te retourneren bij een pagina die niet bestaat.

Het robot.txt bestand

Het robots.txt bestand wordt automatisch gecrawld door robots wanneer ze op jouw website komen. Dit bestand moet instructies voor robots bevatten, zoals welke pagina wel of niet geïndexeerd moeten worden.

Als je sommige pagina wilt uitsluiten (bijv. pagina's met privé of dubbele inhoud), gebruikt dan een instructie regel in het robots.txt bestand. Voor meer informatie over zulke regels, kijk op de robots txt pagina voor meer informatie.

Hou er wel rekening mee dat instructies in het robots.txt bestand meer gelden als suggesties, dan als orders. Er is geen garantie dat sommige robots de uitgesloten pagina's niet crawlen. Als je dus geheime of gevoelige informatie hebt op jouw website, is robots.txt niet de manier om het te verbergen voor het publiek.

Een xml sitemap

Een XML sitemap moet alle website pagina's bevatten die moeten worden geïndexeerd en moet geplaatst worden in de root directory van de webiste (bijv. http://www.site.com/sitemap.xml). Normaal gesproken versnelt dit de indexering. Iedere keer als de website wordt geupdate, moet ook de sitemap worden geupdate. Daarnaast moet de sitemap volgens bepaalde syntax regels worden opgesteld.
Met de sitemap kun je voor iedere pagina een prioriteit opgeven, zodat de zoekmachines weten welke pagina's en hoe vaak ze moeten crawlen. Kijk hier voor het maken van een XML sitemap.

Redirects

Met of zonder www

Normaal gesproken zijn websites beschikbaar met en zonder "www" in de domeinnaam. Dit is een veel voorkomend probleem, waarbij anderen linken naar de website met en zonder "www". Als je dit probleem oplost voor jouw website, helpt dit te voorkomen dat er 2 versies in de zoekmachine indexen bestaan. Hoewel indexatie van beide versies geen penalty veroorzaakt, is het aan te bevelen om maar 1 versie te hebben, voornamelijk om de maximale linkwaarde van pagina's te krijgen.

HTTP of HTTPS

Als de HTTP en HTTPS versies van jouw website niet goed ingesteld zijn, kunnen beide versies worden geïndexeerd en dubbele inhoud problemen veroorzaken. Om deze problemen op te lossen, is het aanbevolen om 1 versie (HTTP of HTTPS, afhankelijk van de inhoud van de pagina) als prioriteit in te stellen.

302 redirects

302 redirects zijn tijdelijk en sturen dus geen linkwaarde door. Als je ze gebruikt in plaats van 301 redirects, kunnen zoekmachines de oude pagina blijven indexeren en de nieuwe pagina negeren ivm dubbele content of ze kunnen de link populariteit verdelen tussen de 2 versies wat leidt tot lagere posities. Het is dus aan te bevelen om geen 302 redirects te gebruiken als je een pagina of website permanent verhuist. Gebruik daarvoor een 301 redirect om linkwaarde te bewaren en dubbele inhoud problemen te voorkomen.

301 redirects

301 redirects zijn permanent en worden doorgaans gebruikt om problemen met dubbele content op te lossen of als URLs niet langer meer nodig zijn. Het is absoluut legitiem om 301 redirects te gebruiken en het is goed voor SEO omdat een 301 redirect linkwaarde van de oude naar de nieuwe pagina stuurt. Stuur dus oude URLs door naar nieuwe relevante pagina's.

Pagina's met meerdere redirects

In sommige gevallen, door een slecht htaccess bestand of andere maatregelen, kan een pagina 2 of meer redirects krijgen. Het is aanbevolen om deze redirects te vermijden omdat ze kunnen leiden tot de volgende problemen:

  • Er is een grote kans dat de pagina niet wordt geïndexeerd door Google om dat Googlebot niet meer dan 5 redirects volgt.
  • Teveel redirects leiden tot langzamere pagina's
  • Hoge bounce rate: gebruikers willen niet wachten op een pagina die langer dan 3 seconden nodig heeft om te laden.

Pagina's met rel= ''canonical''

Meestal worden dubbele URLs verholpen met 301 redirects. Soms, wanneer er bijvoorbeeld producten in 2 verschillende categorieën staan met 2 verschillende URLs en beide live moeten zijn, kun je beter een prioriteit aangeven dmv rel="canonical" tags. Dit moet correct ingesteld worden in de tag van de pagina en verwijzen naar de pagina versie die goed moet scoren in de zoekmachines.

Code en Technische fouten

Mobiel vriendelijk

Volgens Google heeft het mobiel vriendelijk algoritme invloed op mobiele zoekopdrachten in alle talen wereldwijd en heeft het een significante impact op de posities in de zoekresultaten van Google. Het algoritme werkt per pagina - het gaat er niet om hoe mobiel vriendelijk jouw pagina's zijn (%), maar gewoon of de pagina mobiel vriendelijk is of niet. Het algoritme is gebasseerd op criteria als kleine letter typen, klikbare links, leesbare inhoud, etc.

HTTPS pagina's met gemixte inhoud

Het is sterk aanbevolen om beveiligde encryptie te gebruiken voor veel websites (bijvoorbeeld websites die vertrouwelijke informatie of transacties verwerken.) Vaak ondervinden webmasters problemen bij het switchen van HTTP naar HTTPS. 1 van deze problemen is gemixte inhoud - wanneer HTTPS pagina's inhoud via HTTP bevatten.

Wanneer een HTTPS pagina inhoud via HTTP bevat, dan gaat dit ten kosten van de veiligheid van de hele pagina omdat het niet beveiligde gedeelte toegankelijk is voor sniffers. Om deze reden wordt deze inhoud door veel moderne browsers geblokkeerd of wordt er een "onveilige verbinding" waarschuwing weergegeven.

Volgens Google zijn er 2 typen gemixte inhoud: actief en passief.

Passieve gemixte inhoud is inhoud die niet communiceert met de rest van de pagina en een man-in-the-middle aanval is dus beperkt tot het bewerken van deze inhoud. Passieve gemixte inhoud zijn bijvoorbeeld afbeeldingen, video en audio inhoud.

Actieve gemixte inhoud communiceert wel met de rest van de pagina en stelt de aanvaller in staat om veel te doen met de pagina. Voorbeelden van actieve gemixte inhoud zijn scripts, iframes, flash bronnen en andere code die de browser kan downloaden en uitvoeren.

Pagina's met dubbele rel canonical

Meerdere canonical URLs voor een pagina gebeuren regelmatig door SEO plugins die een standaard rel canonical link plaatsen, vaak onbekent bij de webmaster die de plugin installeert. Controleer de pagina bron code en de server rel canonical HTTP headers om de fout op te lossen.

Pagina's met I Frames

Met Frames kun je meer dan één HTML document tonen in hetzelfde scherm. Hierdoor kunnen zoekmachines belangrijke text en hyperlinks missen. Als je Frames gebruikt kunnen zoekmachines jouw pagina inhoud niet goed indexeren. Dit kan een negatieve invloed hebben op jouw zoekmachine posities.

Pagina's die te groot zijn

Natuurlijk is er een directe relatie tussen de grootte van de pagina en de laadsnelheid. De laadsnelheid is ook een belangrijke positie factor. Grote pagina's duren langer om te laden.Probeer dus om de pagina kleiner te houden.

Natuurlijk is dit niet altijd mogelijk. Als je bijvoorbeeld een ecommerce website hebt met een groot aantal afbeeldingen, kan dit oplopen tot meerdere kilobytes. Dit kan tot lange laadtijden leiden voor gebruikers met een langzame internet verbinding.

Url's

Dynamische Url's

Url's die dynamische karakters zoals komma's, vraagtekens en underscore tekens gebruiken zijn niet gebruikersvriendelijk omdat ze moeilijker zijn om te onthouden en niet beschrijven waar het artikel over gaat.

Om te zorgen dat jouw pagina's beter scoren, is het beter om beschrijvende Url's te gebruiken die zoekwoorden bevatten en geen nummers of parameters, probeer dit te voorkomen.

Lange Url's

Url's die kleiner zijn dan 115 karakters zijn makkelijker leesbaar door gebruikers en zoekmachines en werken gebruikersvriendelijker.

Links

Gebroken links

Gebroken uitgaande links kunnen een slecht signaal zijn naar zoekmachines en gebruikers. Als een website veel gebroken links heeft, gaan ze ervan uit dat de website niet meer actief wordt bijgehouden.

Dit heeft als gevolg dat de posities slechter worden. Hoewel 1-2 gebroken links geen straf van Google oplevert, probeer toch regelmatig jouw website te controleren op gebroken links, en zorg ervoor dat het aantal niet oploopt.

Gebroken uitgaande links kunnen een slecht signaal zijn naar zoekmachines en gebruikers en wordt jouw website gebruikersvriendelijker als er geen links naar niet-bestaande pagina's op staan.

Pagina's met erg veel links

Volgens Matt Cutss is er nog steeds een goede reden om te proberen beneden de 100 links te blijven: gebruikersvriendelijkheid.

Als je meer dan 100 links per pagina toont, kan dit overstelpend werken op de gebruikers en hun een slechte gebruikerservaring geven. Een pagina kan er goed voor jou uitzien, totdat je jouw "gebruikers pet" opzet en ziet hoe het eruitziet voor een nieuwe gebruiker".

Hoewel Google gebruikerservaring blijft benadrukken, kunnen teveel links ook een negatieve impact hebben op jouw posities. Het is heel simpel: hoe minder links, hoe beter de posities. Probeer dus het aantal uitgaande links (interne en externe) onder de 100 te houden.

Dofollow externe links

Simpel gezegd zijn dofollow links, links zonder het rel nofollow attribuut. Zulke links worden gevolgd door de zoekmachines en geven PageRank door (let op dat links ook worden uitgesloten van volgen dmv de nofollow tag).Hoewel er niets mis is met het linken naar andere websites mbv dofollow links, kunnen zoekmachines concluderen dat jouw website links verkoopt of deelneemt in andere link constructies en daardoor jouw website straffen.

Afbeeldingen

Gebroken afbeeldingen

Hoewel gebroken afbeeldingen op de website, niet direct gelinkt zijn aan zoekmachine posities, moeten ze wel worden opgelost. Ze zijn namelijk een belangrijke facter voor user experience en kunnen leiden tot bezoekers die weggaan, zonder dat ze gevonden hebben waar ze voor kwamen. 

Daarnaast kan het tenkoste gaan van de ranking omdat belangrijke inhoud gemist kan worden tijdens het crawlen door de zoekmachines, de afbeeldingen worden namelijk ook meegenomen in de database van Google.

Lege alt teksten

Omdat zoekmachines geen tekst uit afbeeldingen kunnen lezen, kunnen alt attributen de zoekmachines helpen om de inhoud te begrijpen. Maak een alt tektst voor elke afbeelding, en gebruik jouw zoekwoorden indien mogelijk om zo de zoekmachines te helpen, jouw pagina inhoud beter te begrijpen en hopelijk betere posities in de zoekresultaten te krijgen.

On Page

Lege Title tags

Als een pagina geen titel heeft, of als de title tag leeg is kunnen Google en andere zoekmachines zelf bepalen welke tekst ze tonen als jouw titel in de zoekresultaten. Dus als een pagina getoond wordt in de zoekresultaten, kan het zijn dat men er niet op klikt omdat de titel er niet aantrekkelijk uitziet.
Wanneer je een webpagina maakt, is het dus belangrijk om een beschrijvende, pakkende titel te bedenken die er aantrekkelijk uitziet voor potentiële bezoekers want anders klikken ze op een andere website en ben je weer een bezoeker misgelopen.

Dubbele titels

Een pagina titel wordt vaak behandeld als het belangrijkste on-page element. Het is een belangrijk signaal voor de zoekmachines, omdat het vertelt waar de pagina over gaat. Het is belangrijk dat de titel jouw belangrijkste zoekwoord bevat. Daarnaast moet een titel uniek zijn, zodat zoekmachines kunnen bepalen welke pagina bij welk zoekwoord past. Pagina's met dubbele titels hebben een kleinere kans op hoge posities. Dubbele titels kunnen ook een negatieve invloed hebben op de positie van andere pagina's.

Lange titels

Elke pagina moet een unieke title hebben die zoekwoorden bevat. Tegelijkertijd moet je de titel beknopt houden. Titels, langer dan 70 karakters, worden afgekort door zoekmachines en zien er onaantrekkelijk uit. Ook al staat jouw pagina op de eerste pagina in de zoekresultaten, dan worden de titels nog afgekort en zullen ze minder klikken krijgen dan anders.

Lege Meta description

Hoewel meta descriptions geen directe invloed hebben op de zoekmachine posities, zijn ze toch belangrijk omdat ze het fragment vormen dat men ziet in de zoekresultaten. Meta descriptions moeten dus de webpagina "verkopen" en ervoor zorgen dat men erop klikt. Als de meta description leeg is, bepalen zoekmachines zelf wat ze in het fragment zetten. Vaak is dit de eerste zin op de pagina. Het resultaat kan er onaantrekkelijk en irrelevant uitzien. Daarom moet je meta descriptions schrijven voor jouw webpagina's (in ieder geval voor jouw landingspagina's) en marketing tekst toevoegen die gebruikers overhaalt om erop te klikken.

Dubbele Meta descriptions

De afwezigheid van dubbele meta descriptions garandeert niet dat er geen andere problemen met meta description tags op jouw website zijn. Check jouw website ook op Lege META descriptions en Te lange META descriptions om eventuele problemen op te lossen.Volgens Matt Cutts (de grote man van Google) is het beter om unieke meta descriptions of zelfs helemaal geen meta descriptions te hebben, dan om dubbele meta descriptions te gebruiken. Zorg er dus voor dat jouw belangrijkste pagina's unieke en geoptimaliseerde meta descriptions hebben.

Te lange meta descriptions

Gebruik maximaal 320 karakters voor meta descriptions omdat ze anders worden afgekort door de zoekmachines. Men ziet dan jouw aantrekkelijke marketing teksten niet die je hebt gebruikt om meer klikken te genereren.

Hoewel meta descriptions geen directe invloed hebben op de zoekmachine posities, zijn ze toch belangrijk omdat ze het fragment vormen dat men ziet in de zoekresultaten. Meta descriptions moeten dus de webpagina "verkopen" en ervoor zorgen dat men erop klikt. Als de meta description te lang is, worden ze afgebroken door de zoekmachines. Dit kan er onaantrekkelijk uitzien.

Het oplossen van alle fouten in je website

Nu alle testen gedaan zijn is het tijd om alle fouten op te lossen, sommige zijn eenvoudig te doen, bij andere kan het zijn dat je hulp nodig hebt bij het verhelpen van een foutmelding.

Er kunnen dingen zijn waar je niet uitkomt, maar daar kan ik je prima mee helpen.

Kun je er niet uitkomen.

 

 

Wil jij mij ook helpen deze artikelen te delen?
Voor jou één simpele muisklik op deze pagina, voor mij een zeer gewaardeerd cadeautje!

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn