• 06-41226543
  • info@connectyourworld.nl

Technische SEO Optimalisatie

SEO migratie checklist

SEO migratie checklist 2024

SEO migratie checklist

Het omgaan met website migraties zonder verlies van SEO-waarde – Inleiding

Website migraties, of het nu gaat om redesigns, platformwijzigingen of domeinveranderingen, zijn cruciale momenten in de levenscyclus van een website. Echter, de mogelijkheid van een migratie kan ook angsten triggeren over het verliezen van hard verdiende SEO-waarde. Het nauwkeurig en zorgvuldig navigeren door deze overgangen is essentieel om zoekranglijsten, gebruikerservaring en over het algemeen online succes te behouden. In deze uitgebreide SEO migratie checklist zullen we ingaan op het belang van het omgaan met website migraties, gemeenschappelijke uitdagingen onderzoeken, en strategieën onthullen voor het uitvoeren van naadloze migraties die uw SEO – waarde behouden en uw digitale aanwezigheid vooruit helpen.

Geschatte leestijd: 5 minuten

Het belang van strategische website migraties

Website migraties hebben het potentieel om uw online aanwezigheid te verbeteren of tot aanzienlijke tegenslagen te leiden. Deze overgangen kunnen zoekmachineranglijsten, verkeer, gebruikersbetrokkenheid en zelfs inkomsten beïnvloeden. Het is essentieel om migraties strategisch aan te pakken, waarbij de integriteit van SEO prioriteit krijgt om ervoor te zorgen dat uw website zijn hard verdiende zichtbaarheid en autoriteit behoudt. Lees daarom onze SEO migratie checklist aandachtig door!

Begrip van gemeenschappelijke migratietypes

SEO migratie checklist – Redesign migraties

Bij een redesign kunnen veranderingen in de site-structuur, URL’s en content van invloed zijn op zoekranglijsten en gebruikerservaring.

Platform migraties

Overstappen naar een nieuw content management systeem (CMS) of e-commerce platform kan leiden tot veranderingen in URL’s, codering en site-architectuur.

SEO migratie checklist – Domeinnaamwijzigingen

Het veranderen van uw domein kan van invloed zijn op zoekranglijsten, merkzichtbaarheid en gebruikerstrouw.

Strategieën voor succesvolle website migraties in onze SEO migratie checklist.

Grondige planning

Maak een uitgebreid migratieplan, dat elke stap, mogelijke risico’s en noodplannen beschrijft.

SEO analyse

Voer een diepgaande SEO audit uit van uw bestaande website om de sterke en zwakke punten te begrijpen en gebieden voor verbetering te identificeren.

URL-mapping

Maak een duidelijke mapping van oude URL’s naar nieuwe om ervoor te zorgen dat er een juiste omleiding (redirect) plaatsvindt en gebroken links worden voorkomen.

301 Redirects

Implementeer 301 redirects om zoekmachines en gebruikers van oude URL’s naar hun overeenkomstige nieuwe URL’s te leiden.

Testen op staging

Voer grondige tests uit op een staging-omgeving om potentiële problemen te identificeren en te verhelpen voordat de migratie live gaat.

Gestructureerde data en schema-markering

Zorg ervoor dat gestructureerde gegevens (structured data) correct zijn geïmplementeerd op de nieuwe website om rijke zoekresultaten te behouden.

Canonieke tags

Gebruik canonieke tags om zoekmachines te begeleiden bij het omgaan met dubbele content tijdens de migratie.

Content migratie

Migreer de inhoud zorgvuldig, waarbij ervoor wordt gezorgd dat deze de kwaliteit, opmaak en relevantie behoudt.

Bijwerken van XML sitemap

Genereer en dien een nieuwe XML sitemap in om ervoor te zorgen dat zoekmachines uw nieuwe URL’s correct indexeren.

Minimaliseren van downtime en impact

Tijd

Kies een tijd voor de migratie wanneer het websiteverkeer relatief laag is om de impact op gebruikers te minimaliseren.

Monitoren

Blijf de website na de migratie continu controleren om eventuele onverwachte problemen snel aan te pakken.

SEO migratie checklist – Google Search Console

Informeer Google over de migratie met behulp van de change of address tool voor domeinwijzigingen.

Herindiening van XML Sitemap

Dien de bijgewerkte XML sitemap in om zoekmachines te helpen de nieuwe URL’s te ontdekken en te indexeren.

Gebruikerservaring en bruikbaarheid

Gebruikerstesten

Geef prioriteit aan gebruikerservaring door grondige tests uit te voeren van het ontwerp, de navigatie en de functionaliteit van de nieuwe website.

Gebruikerscommunicatie

Informeer gebruikers over de aankomende veranderingen en verbeteringen om vertrouwen en betrokkenheid te behouden.

SEO-audit na migratie

Verkeer en ranglijsten monitoren

Volg het verkeer, de SEO rankings en de gebruikersbetrokkenheid van uw website na de migratie om eventuele afwijkingen te identificeren.

SEO migratie checklist – Problemen snel aanpakken

Als u problemen ondervindt zoals een daling in ranglijsten of andere problemen, pak deze dan snel aan om langdurige negatieve effecten te voorkomen.

Het navigeren van migraties met finesse – Conclusie

Website migraties vertegenwoordigen een delicate balans tussen verandering en continuïteit. Door migraties met een strategische mindset te benaderen, zorgt u ervoor dat uw website zijn SEO-waarde, gebruikerstrouw en zoekzichtbaarheid behoudt. Terwijl u de complexiteiten van verschillende migratietypes doorloopt, onthoud dat de essentie van uw digitale reis ligt in het behouden van de integriteit van de content, structuur en gebruikerservaring van uw website. Door een zorgvuldig geplande migratie uit te voeren met behulp van deze SEO migratie checklist, baant u de weg voor een digitale aanwezigheid die niet alleen veranderingen aanpast maar ook gedijt, waardoor duurzaam succes wordt gegarandeerd in het steeds veranderende landschap van SEO en online zichtbaarheid.

SEO specialist Den Haag

Herman Geertsema is een ervaren SEO freelancer en content marketeer uit Den Haag. Tevens is hij eigenaar van Connect your World, een SEO bureau in Den Haag. Connect your World voert opdrachten uit in de regio Den Haag en in de rest van Nederland zoals bijvoorbeeld als:

Interessante technische SEO blogs

HTTP statuscodes – wat zijn dat precies?

http statuscodes

HTTP statuscodes – Inleiding

In de wereld van webontwikkeling en SEO (Search Engine Optimization) spelen HTTP statuscodes een cruciale rol. Deze codes geven aan hoe een webserver reageert op een verzoek van een browser. Het begrijpen van deze codes is essentieel voor het beheren van de gebruikerservaring op je website en het optimaliseren van je SEO-strategie. In dit artikel zullen we dieper ingaan op enkele belangrijke HTTP-statuscodes, namelijk 301, 311, 401, 410, en 500. We ontdekken, wat ze betekenen en wanneer je ze moet gebruiken.

1. 301 Permanent Redirect

De HTTP-statuscode 301 geeft aan dat een bron permanent is verplaatst naar een nieuwe locatie. Dit is uiterst handig bij het wijzigen van URL’s op je website of bij het omleiden van verkeer van een oude naar een nieuwe pagina. 301-redirects zijn belangrijk voor SEO omdat zoekmachines de waarde en ranking van de oude pagina overdragen naar de nieuwe URL. Dit helpt je om organisch zoekverkeer vast te houden, wanneer je wijzigingen aanbrengt op je website.

2. 401 Unauthorized

De HTTP-statuscode 401 geeft aan dat de toegang tot een bepaalde bron op de website is geweigerd omdat de gebruiker niet over de juiste authenticatiegegevens beschikt. Dit wordt vaak gebruikt voor beveiligde delen van een website of wanneer een gebruiker moet inloggen, voordat ze toegang krijgen tot bepaalde content. Het is belangrijk om 401-statuscodes correct te implementeren om de veiligheid van je website te waarborgen.

3. 404 Statuscode

De HTTP-statuscode 404 wordt gebruikt om aan te geven, dat de server de opgevraagde bron niet heeft kunnen vinden. Dit betekent dat de webserver geen informatie kan vinden over de URL (Uniform Resource Locator), die de client heeft aangevraagd. De 404-statuscode wordt vaak weergegeven als een “Pagina niet gevonden” foutmelding in een webbrowser.

404 code

Wanneer een webpagina of een ander bronverzoek wordt gedaan en de server niet kan bepalen waar de gevraagde bron zich bevindt, of als de bron eenvoudigweg niet bestaat, zal de server een HTTP 404-statuscode retourneren om aan te geven dat de bron niet is gevonden. Dit gebeurt bijvoorbeeld als een gebruiker een URL typt die niet overeenkomt met een bestaande pagina op een website.

404 pagina

Web-ontwikkelaars kunnen aangepaste 404-pagina’s maken om gebruikers een nuttige foutmelding te tonen en hen te helpen navigeren naar andere delen van de website in plaats van ze gewoon een generieke foutmelding te tonen. Dit helpt de gebruikerservaring te verbeteren wanneer ze per ongeluk of opzettelijk naar niet-bestaande pagina’s navigeren.

4. 410 Gone

De HTTP-statuscode 410 geeft aan dat een bron permanent is verwijderd en niet meer beschikbaar is. In tegenstelling tot een 404-fout, waarbij wordt aangegeven dat de bron niet kan worden gevonden, geeft een 410-status aan dat de bron bewust is verwijderd. Dit kan nuttig zijn voor SEO, omdat zoekmachines begrijpen dat de pagina niet langer beschikbaar is en deze uit hun index kunnen verwijderen.

5. 500 Internal Server Error

De HTTP-statuscode 500 duidt op een interne serverfout. Dit betekent, dat er iets mis is gegaan aan de kant van de webserver bij het verwerken van het verzoek van de browser. Dit kan variëren van technische problemen tot databasefouten. Het is van cruciaal belang om 500-fouten snel op te lossen, omdat ze de gebruikerservaring negatief beïnvloeden en de zoekmachines kunnen waarschuwen voor mogelijke problemen op je website.

HTTP statuscodes – Conclusie

In conclusie zijn HTTP-statuscodes essentiële tools voor webontwikkelaars en SEO-experts. Het begrijpen van deze codes en het correct implementeren ervan kan helpen bij het behouden van zoekverkeer, het verbeteren van de gebruikerservaring en het oplossen van technische problemen op je website. Zorg ervoor, dat je deze statuscodes op de juiste manier gebruikt om je website te optimaliseren en ervoor te zorgen, dat deze goed presteert op zowel technisch als SEO-gebied.

SEO specialist Den Haag

Herman Geertsema is de freelance SEO specialist en eigenaar van SEO bureau Connect your World gevestigd in Den Haag. Hij is een zeer ervaren SEO consultant en content marketeer. Heeft u vragen over HTTP statuscodes? Of wilt u ons als SEO specialist inhuren? Neem dan contact met ons op!

Als freelance SEO specialist werkzaam in:

Interessante blogs

SEO & Content Marketing Bureau Connect your World

Dr. J. Presserstraat 313
Den Haag, Nederland 2552 LW
Telefoon: +31641226543
E-mail: info@connectyourworld.nl
Google E.E.A.T, EEAT, SEO

Google EEAT is het nieuwe EAT 

Google E.E.A.T, EEAT, SEO

EEAT in Google

EEAT (of Double-EAT) is een concept dat door menselijke kwaliteitsbeoordelaars wordt gebruikt om de zoekrangschikkingssystemen van Google te evalueren. Oorspronkelijk bestond het uit slechts drie factoren (EAT). Maar in december 2022 voegde Google het criterium ‘ervaring’ toe aan het concept. Dus volgens Google moeten sommige soorten content worden geproduceerd met ervaring uit de eerste hand om betrouwbaar te zijn. Dit is wat dat betekent voor SEO.

Geschatte leestijd: 7 minuten

Is Google EEAT een rangschikkingssignaal?

Nee, in ieder geval niet direct. Hier is niets veranderd sinds het oorspronkelijke concept van EAT: 

Deze richtlijnen worden door onze zoekbeoordelaars gebruikt om de prestaties van onze verschillende zoekrangschikkingssystemen te helpen evalueren, en ze hebben geen directe invloed op de rangschikking.

Het algemene idee van Google hier is om content van hoge kwaliteit te belonen met hogere SEO rankings, die afkomstig is van vertrouwde bronnen. De boodschapper is dus minstens zo belangrijk als de boodschap. 

Hoe Google ervaring begrijpt

Ervaring in de Double-EAT betekent uit de eerste hand of levenservaring in het onderwerp. Dit betekent, dat Google ernaar streeft pagina’s te ‘belonen’ waar de auteur het onderwerp waarover hij schrijft daadwerkelijk heeft ervaren. Bijvoorbeeld:

  • Voor een iPhone-recensie moet de auteur het product daadwerkelijk hebben gebruikt.
  • Voor een gids over de beste jazzbars in Amsterdam moet de auteur ze daadwerkelijk hebben bezocht.
  • Voor een artikel over hoe je mensen kunt helpen om mentaal met een ziekte om te gaan, moet de auteur het persoonlijk hebben meegemaakt en/of andere mensen hebben geholpen.
  • Voor een gids over hoe u succesvol kunt zijn in zaken… u snapt het wel. 

Ervaring versus andere criteria

Ongeacht het onderwerp van de pagina, het belangrijkste van alle criteria is de ‘T’ of betrouwbaarheid. Andere criteria, zoals expertise, autoriteit en ervaring, zijn er om te helpen bepalen of de pagina betrouwbaar is. De andere criteria kun je zien als pijlers voor het scheppen van vertrouwen. Vervolgens komen er, afhankelijk van het onderwerp, andere criteria om de hoek kijken. Voor sommige onderwerpen kan ervaring belangrijker zijn dan voor andere. 

U moet het doel, het type en het onderwerp van de pagina overwegen en uzelf vervolgens afvragen wat de maker van de content in die context tot een betrouwbare bron zou maken.

Een persoonlijke reisblog hoeft bijvoorbeeld niet door een expert te zijn geschreven om betrouwbaar te zijn. Omgekeerd is een gids over doe-het-zelf-autoreparaties betrouwbaarder als deze afkomstig is van een automonteur. Het is vermeldenswaard het verschil tussen ervaring en expertise. Deskundigheid gaat over kennis en vaardigheden. Om dat op te doen heb je natuurlijk ook ervaring nodig. Maar:

  • Het werkt niet andersom. Ervaring alleen maakt je nog geen expert. 
  • Ervaring hoeft niet voort te komen uit expertise. 

Over wat voor soort onderwerpen gaat de nieuwe “E” in Google EEAT?

Er werd bevestigd, dat het oorspronkelijke concept van EAT alle onderwerpen betrof. Met de toevoeging van ervaring lijkt Google dat te herhalen door te zeggen: “Ervaring is waardevol voor bijna elk onderwerp”. Ervaring telt ook voor YMYL-onderwerpen (Your Money or Your Life). Maar deze categorie onderwerpen,waar Google speciale aandacht aan besteedt, is niet voorbehouden aan experts. Met andere woorden, als persoonlijke ervaring fundamenteel is om vertrouwen in het onderwerp te wekken, hoeft de auteur geen expert te zijn. 

Hoe ervaring aantonen

Hier zijn enkele ideeën over hoe u ervaring uit de eerste hand met uw content kunt demonstreren. Houd er rekening mee, dat deze gebaseerd zijn op een interpretatie van de richtlijnen van Google; misschien vind je ook andere manieren. 

Toon bewijs van persoonlijke ervaring met het onderwerp 

Laten we bijvoorbeeld product recensies nemen. Google heeft onlangs de uitbarsting van aangesloten websites die product recensies van lage kwaliteit hosten, aangepakt. Het zegt in feite dat het het beste is als de beoordelingen zijn gemaakt door experts op het gebied van het onderwerp. Het is echter niet genoeg om te bewijzen, dat u een expert bent. U moet bewijs kunnen overleggen van uw ervaring uit de eerste hand met het beoordeelde product of dienst. 

Lever bewijs zoals beeldmateriaal, audio of andere links van uw eigen ervaring met het product, om uw expertise te ondersteunen en de authenticiteit van uw beoordeling te versterken.

Leg uit hoe je de content hebt gemaakt 

Maak in de geschreven content een opmerking over hoe deze is gemaakt. Daarmee kunt u uw ervaring uit de eerste hand demonstreren.  

Demonstreer uw ervaring op een speciale pagina

Theoretisch hoef je niet elke keer, dat je erover schrijft je ervaring met het onderwerp te laten zien. Dat komt omdat Google kwaliteitsbeoordelaars adviseert om te kijken naar wat de auteur over zichzelf zegt. Overweeg dus om uw persoonlijke ervaring met het onderwerp uit te leggen op een ‘over’-pagina en zelfs een link naar uw sociale media profielen te maken als deze aanvullend bewijs leveren. Je kunt het natuurlijk samen doen met andere methoden om ervaring aan te tonen.

Uw reputatie telt voor het Google EEAT algoritme

Kwaliteitscijfers worden ook aangemoedigd om buiten uw site te kijken naar tekenen van ervaring (en vertrouwen in het algemeen). 

Zoek naar onafhankelijke beoordelingen, referenties, nieuwsartikelen en andere bronnen van geloofwaardige informatie over de website of makers van de content.

Je zou bijvoorbeeld een actuele inhoudsopgave van persvermeldingen aan je website kunnen toevoegen. Stel je voor, dat je dat vergelijkt met een compleet nieuwe blog over hetzelfde onderwerp, waar nog niemand van heeft gehoord – wat is betrouwbaarder? 

Een van de manieren waarop een zoekmachine die informatie kan afleiden, is door SEO backlinks naar een site te volgen. Goede backlinks en vermeldingen waren namelijk substantieel voor het oorspronkelijke EAT-concept. Dat is waarschijnlijk niet veranderd met de introductie van ervaring.

Als je de ervaring niet hebt, nodig dan iemand uit die die wel heeft 

Het feit, dat de auteur van de pagina ervaring moet aantonen, betekent niet, dat de eigenaar van de website dat ook moet doen. Dit betekent, dat je toch ervaring kunt aantonen over onderwerpen, waar je die persoonlijk niet hebt door gastauteurs of gastsprekers uit te nodigen. 

Kort gezegd: maak uw site betrouwbaar en zet in op Google EEAT 

De toevoeging van ervaring aan de vergelijking opent de categorie YMYL-onderwerpen voor videomakers met persoonlijke ervaring. Aan de andere kant legt het de lat hoger voor onderwerpen waar dit soort ervaring fundamenteel is. In ieder geval is dit weer een poging van Google om nuttigere, relevantere resultaten weer te geven door onbetrouwbare pagina’s eruit te filteren. Het draait nog steeds allemaal om vertrouwen: 

Ten slotte zijn er veel aspecten van vertrouwen, waarvan sommige niet onder ervaring, expertise en autoriteit vallen. Houd rekening met andere aspecten in uw algehele vertrouwensbeoordeling, zoals klantenservice-informatie voor online winkels of collegiaal getoetste publicaties voor academische auteurs. Als een pagina om welke reden dan ook onbetrouwbaar is, heeft deze een lage EEAT

Slot conclusies

Tot slot: met de introductie van EEAT heeft Google de gids voor zelfbeoordeling van de inhoudskwaliteit geüpdatet. SEO specialisten en content marketeers kunnen het gebruiken als hulpmiddel om content af te stemmen op Google EEAT. 

Google EEAT en AI

Voor uitgevers, die AI gebruiken voor het genereren van content, adviseert Google bijvoorbeeld om het gebruik van automatisering aan de lezer bekend te maken. Google is namelijk niet tegen AI-content). Maar daarvoor moet je je afvragen of het gebruik van AI om content te produceren door de gebruiker als redelijk kan worden gezien. 

SEO specialist Den Haag

Herman is een zeer ervaren content marketeer en SEO specialist freelancer en de eigenaar van Online marketing bureau Connect your World. Inmiddels heeft hij voor honderden bedrijven website teksten geschreven en hun websites geoptimaliseerd voor SEO. Connect your World is werkzaam in de volgende regio’s:

SEO specialist inhuren

U kunt een SEO specialist en content marketeer inhuren door te klikken op onderstaande button.

SEO & Content Marketing Bureau Connect your World

Dr. J. Presserstraat 313
Den Haag, Nederland 2552 LW
Telefoon: +31641226543
E-mail: info@connectyourworld.nl

Psst! Nog iets anders interessants lezen? Neem dan deze blog post over microsites en landingspagina’s door of How to use Chat GPT for SEO optimized content.

Google core web vitals. SEO Den Haag

Google core web vitals – meten is weten

Google core web vitals. SEO Den Haag

Core Web Vitals

Wat zijn Google Core Web Vitals?

Core Web Vitals zijn een reeks gestandaardiseerde statistieken van Google die ontwikkelaars helpen begrijpen hoe gebruikers een webpagina ervaren. Hoewel Core Web Vitals is gemaakt voor ontwikkelaars, kunnen deze tools door alle site-eigenaren worden gebruikt omdat ze de echte ervaring van de gebruiker op een pagina weergeven.

Geschatte leestijd: 13 minuten

Core web vitals pushen gebruikerservaring

Google Core Web Vitals zijn een reeks gestandaardiseerde statistieken van Google, die ontwikkelaars helpen begrijpen, hoe gebruikers een webpagina ervaren. Hoewel Core Web Vitals is gemaakt voor ontwikkelaars, kunnen deze tools door alle website eigenaren worden gebruikt. Dit komt doordat ze de echte ervaring van de gebruiker op een pagina weergeven.

3 problemen bij Google core web vitals

Core Web Vitals identificeren problemen met de gebruikerservaring door een statistiek te genereren voor drie primaire gebieden van gebruikerservaring, waaronder:

  • Prestaties bij het laden van pagina’s
  • Gemakkelijke interactie
  • Visuele stabiliteit van een pagina vanuit het perspectief van een gebruiker

Elk van deze statistieken biedt hun eigen perspectief op verschillende elementen, die van invloed zijn op hoe gebruikers omgaan met en omgaan met een website. Hoewel ontwikkelaars vanuit een holistisch perspectief moeten nadenken over ‘gebruikerservaring’, helpen deze onafhankelijke statistieken om de verschillende variabelen in kleinere stukjes op te splitsen. Op die manier kunnen site-eigenaren technische problemen op hun website identificeren en oplossen.

Gebruikerservaring bestaat uit meer dan de Google Core web vitals

Het is belangrijk om te onthouden, dat deze statistieken niet het hele verhaal vertellen over de gebruikerservaring op een website. Elke statistiek kan worden samengevoegd om ontwikkelaars te helpen problemen op een efficiënte en methodische manier op te lossen. Laten we eens kijken naar de drie belangrijkste meetwaarden in Core Web Vitals om uw websites vandaag nog te verbeteren!

1. Grootste contentvolle verf (LCP)

Largest Contentful Paint is een Google Core Web Vitals statistiek, die site eigenaren kunnen gebruiken om de gebruikerservaring te beoordelen en te zien of een gebruiker een pagina nuttig zal vinden. Dit doen zij op basis van de weergavetijd van de grootste blokken, die zichtbaar zijn voor een publiek. Website eigenaren hebben pagina’s op hun website nodig, die snel laden om een ​​plezierige gebruikerservaring te creëren. Niet alleen is de laadtijd een kritische factor voor een positieve gebruikerservaring, een pagina die snel laadt, heeft ook een grotere kans om hoger te scoren in Google. Bovendien is aangetoond, dat zeer snelle laadtijden van invloed zijn op de betrokkenheid en conversiepercentages in vergelijking met een pagina met langzame laadtijden.

Google core web vitals, website snelheid, SEO bureau Den Haag

Wat meet LCP?

LCP meet de tijd, die nodig is, om verschillende content blokken te laden in de gebruikersviewport (huidige scherm). Deze statistiek vertelt u alleen hoe snel inhoudssecties worden weergegeven op het zichtbare scherm. Er wordt niets onder de vouw overwogen.

  • Afbeeldingen
  • Afbeeldingen van videoposters
  • Achtergrondafbeeldingen
  • Tekst op blokniveau

Website eigenaren moeten streven naar LCP binnen 2,5 seconden, nadat een pagina begint te laden.

2. Cumulatieve lay-outverschuiving (CLS)

Site eigenaren moeten het zo gemakkelijk mogelijk maken om met links en knoppen op een site om te gaan om verkopen en conversies te stimuleren. Cumulatieve lay-outverschuiving is een statistiek, die links of knoppen identificeert, die verschuiven nadat een webpagina is geladen. Het weerspiegelt de moeilijkheidsgraad, die gebruikers zullen ervaren, wanneer ze proberen om elementen op uw website te gebruiken, zodra een pagina wordt weergegeven.

UX design

UX en design zijn essentiële componenten van een goede gebruikerservaring. Een gebruiker zal gefrustreerd raken als een webpagina elementen verschuift, terwijl een gebruiker aan het lezen is. CLS helpt ontwikkelaars te bepalen of afbeeldingen of links op de pagina verschuiven, zodat website eigenaren de bruikbaarheid kunnen verbeteren, de klikfrequenties kunnen verhogen en de online verkoop kunnen verbeteren.

Google core web vitals, website snelheid, SEO bureau Den Haag

Wat meet CLS?

CLS meet of elementen in de zichtbare viewport van hun startpositie tussen twee gerenderde frames verschuiven. In eenvoudige bewoordingen helpt deze statistiek site-eigenaren te begrijpen of content zoals tekst, knoppen en banners wordt rond geduwd terwijl een gebruiker content op een bepaalde pagina leest.

Visuele stabiliteit

Elementen die van positie veranderen, kunnen ervoor zorgen, dat gebruikers in de war raken en hun ervaring op een pagina belemmeren. Het is dus belangrijk om ervoor te zorgen, dat alle content op zijn plaats blijft, nadat een pagina op het apparaat van de gebruiker is geladen. CLS kijkt naar kernstatistieken om de visuele stabiliteit van een pagina vanuit een gebruikersperspectief te bepalen door rekening te houden met verschillende factoren:

  • Lay-outverschuiving
  • Impactfractie
  • Afstand breuk

Website eigenaren moeten een CLS van 0,1 of minder handhaven.

3. Eerste ingangsvertraging (FID)

Online consumenten willen pagina’s, die snel zijn en gemakkelijk om mee om te gaan. Eerste invoervertraging meet de invoerlatentie (de tijd die een pagina-element nodig heeft om te reageren op de invoer van een gebruiker) om pagina’s te identificeren, die frustratie bij uw publiek kunnen veroorzaken.

Moderne websites gebruiken een reeks geavanceerde technologieën en dynamische content widgets om content aan hun publiek te leveren. Hoewel dit type content de levering van content kan verbeteren, kunnen deze verbeteringen vertragingen veroorzaken, waardoor een gebruiker moet wachten tot zijn browser reageert op zijn invoer. Ontwikkelaars moeten de tijd die gebruikers besteden aan het wachten op een browser om te reageren op hun input verminderen om de betrokkenheid en bruikbaarheid op de hele site te verbeteren.

Wat meet FID?

FID meet hoe responsief een pagina is bij het laden van elementinvoer van een gebruiker. Dit betekent dat FID alleen gebeurtenissen zoals klikken en toetsaanslagen registreert. Website eigenaren moeten streven naar een goede gebruikerservaring met FID van minder dan 100 milliseconden. Opgemerkt moet worden dat FID moeilijk te meten is, omdat deze gegevens alleen in het veld kunnen worden gemeten. Dit betekent, dat je score afhankelijk is van variabelen, waar je geen controle over hebt, Denk bijvoorbeeld aan zaken zoals apparaat capaciteit van gebruikers en internetsnelheden zoals ervaren door je publiek.

Andere prestatiestatistieken

Zoals we hebben besproken, biedt Core Web Vitals een schat aan informatie die ontwikkelaars kunnen gebruiken om hun websites te verbeteren voor de gebruikerservaring. Naast de belangrijkste hierboven genoemde statistieken, kunnen ontwikkelaars ook begrijpen hoe hun code van invloed is op de manier waarop gebruikers content op hun site consumeren. Laten we daarom een paar andere statistieken bekijken, die u kunt gebruiken om de ervaring te begrijpen bezoekers op uw site hebben.

1. First content ful paint

First Contentful Paint (FCP) meet, hoe lang het duurt voordat de browser van een gebruiker DOM-elementen (afbeeldingen, niet-witte <canvas>-elementen en SVG’s) weergeeft. Deze statistiek identificeert render blokkerende bronnen en wordt gemeten in seconden, met een reeks FCP-scores:

  • 0-2 seconden: Groen (snel)
  • 2-4 seconden: Oranje (matig)
  • 4+ seconden: Rood (langzaam)

2. Snelheidsindex

Snappy-websites bieden verbeterde online-ervaringen en Speed ​​Index (SI) toont u de gemiddelde tijd die content op uw site nodig heeft om aan een gebruiker te worden weergegeven. Deze statistiek identificeert buitensporig JavaScript op een pagina en wordt gemeten in milliseconden, met een reeks SI-scores:

  • 0–4,3 seconden: Groen (snel)
  • 4,4-5,8 seconden: Oranje (matig)
  • 5,8+ seconden: Rood (langzaam)

3. Tijd voor interactief

Time to Interactive (TTI) is de hoeveelheid tijd, die nodig is, voordat de content op een pagina functioneel wordt voordat deze volledig interactief is. TTI helpt u bij het identificeren van pagina’s met onnodig JavaScript en wordt gemeten in seconden, met een reeks TTI-scores:

  • 0-3,8 seconden: Groen (snel)
  • 3,9–7,3 seconden: Oranje (matig)
  • 7,3+ seconden: Rood (langzaam)

4. Totale blokkeertijd

Total Blocking Time (TBT) helpt website eigenaren te beoordelen, hoe lang een webpagina reageert op specifieke gebruikersinvoer. Deze statistiek identificeert pagina’s met onnodig JavaScript en wordt gemeten in milliseconden met een reeks TBT-scores:

  • 0–300 ms: Groen (snel)
  • 300-600 ms: Oranje (matig)
  • 600+ ms: Rood (langzaam)

5. Paginaprestatiescores

Een paginaprestatiescore is een enkele statistiek, die alle belangrijke gebruikerservaring statistieken in Core Web Vitals in aanmerking neemt. Deze score maakt gebruik van een geaggregeerd scoresysteem voor alle mobiele en desktopbezoeken. Er is een gewogen gemiddelde nodig om één enkele score te geven om pagina’s te begrijpen, die snel nader moeten worden onderzocht. Hoewel deze statistieken zijn vereenvoudigd in de statistiek Pagina prestatiescore, kunnen ontwikkelaars scores in elke categorie raadplegen op basis van de specifieke score van 90 (goed), 50-90 (verbetering nodig) en lager dan 50 (slecht).

Hebben Core Web Vitals invloed op SEO als rankingfactor?

In juni 2021 ging Google Core Web Vitals gebruiken als ranking factor. Deze statistieken kunnen daarom van invloed zijn op uw SEO prestaties. Core Web Vitals zal deel uitmaken van  de nieuwe Page Experience signalen , samen met HTTPS beveiliging, veilig browsen, mobielvriendelijkheid en opdringerige richtlijnen voor interstitial.

De impact of Google Core Web Vitals

Google Core Web Vitals heeft invloed op zowel mobiele als desktop organische resultaten, evenals op het al dan niet verschijnen van uw site in Top Stories. Voorheen moest je site AMP gebruiken om in Top Stories te verschijnen. Dat zal niet langer het geval zijn, wanneer Google de wijziging uitrolt. Uw website moet echter wel aan specifieke minimale Google Core Web Vitals scores voldoen om in Top Stories te verschijnen. Bovendien lijkt het erop dat aan alle Core Web Vitals-statistieken moet worden voldaan om de organische ranking te verbeteren. En de Core Web Vitals-score voor niet-geïndexeerde pagina’s kan er ook toe doen. Kortom: als u om uw SEO prestaties geeft, is het verbeteren van uw Core Web Vitals scores nu verplicht.

Google Core Web Vitals testen en meten op WordPress

U kunt de Core Web Vitals testen en meten met alle tools van Google voor webontwikkelaars, van PageSpeed ​​Insights tot de Chrome DevTools, het CrUX-rapport en nog veel meer.

Google Core web vitals. SEO specialist inhuren

Het Google Core Web Vitals rapport lezen op Search Console

Als u problemen met uw site als geheel wilt diagnosticeren, moet u het Core Web Vitals-rapport in Google Search Console gebruiken. Het rapport is gebaseerd op een verzameling echte gebruikersgegevens van CrUX. Om deze reden kan het even duren, voordat de gegevens in het rapport worden gerapporteerd. Daarom is de Lab Data van Lighthouse altijd waardevol. Dat gezegd hebbende, het Core Web Vitals-rapport is geweldig om de groepen pagina’s te identificeren, die aandacht nodig hebben – zowel voor desktop als mobiel. Zodra u het rapport opent, vindt u een tabblad Details, dat de URL-prestaties groepeert op basis van verschillende criteria:

  • Status (slecht of verbetering nodig)
  • Metriektype (bijv. CLS-probleem: meer dan 0,25 (desktop))
  • URL-groep (de lijst met URL’s met vergelijkbare prestaties).

Zodra u de URL’s, die verbeterd moesten worden, heeft gecorrigeerd, kunt u ook op de kolom Validatie klikken en verder gaan met de optie “Fix valideren”. Houd er rekening mee, dat het validatieproces tot twee weken duurt – wees geduldig!

Hoe Google Core Web Vitals op WordPress te verbeteren

Nu voor de cruciale vraag: als u momenteel niet voldoet aan de aanbevelingen van Google voor de drie Core Web Vitals-statistieken, hoe kunt u uw WordPress-site dan optimaliseren om uw Core Web Vitals-scores te verbeteren? De strategieën zijn verschillend voor elke statistiek. De meeste optimalisaties omvatten het implementeren van best practices voor WordPress-prestaties, zij het met een paar aandachtspunten – en daarom zal het kiezen van de beste WordPress-caching-plug- in u helpen zonder enige inspanning van uw kant.

Google Core web vitals verbeteren in WordPress

Pagina caching instellen

Pagina caching versnelt, hoe snel uw server kan reageren en verkort de serverresponstijden (TTFB). Wist u, dat WP Rocket dit automatisch aanzet?

Optimaliseer browser caching

U moet de juiste optie instellen voor de statische bestanden, die uw browser in de cache bewaart. Door dit te doen, gaat u in op de aanbeveling van PageSpeed ​​Insights ” Serveer statische middelen met een efficiënt cachebeleid “. Raad eens? WP Rocket zorgt automatisch voor de optimale houdbaarheidsdatum.

Optimaliseer uw afbeeldingen

Vaak zal uw LCP-element een afbeelding zijn. Door uw afbeeldingen te optimaliseren , wordt uw site sneller en worden website snelheid aanbevelingen aangepakt, zoals ‘Afbeeldingen op de juiste maat’, ‘ Afwijkende afbeeldingen uitstellen ‘, ‘Afbeeldingen weergeven in next-gen-indelingen’ en ‘Afbeeldingen efficiënt coderen’. U kunt  Imagify of Smush Pro gebruiken om WordPress afbeeldingen automatisch te optimaliseren.

Optimaliseer uw code 

Het laden van onnodige CSS- of JavaScript bestanden vóór uw hoofd content vertraagt ​​de laadtijd. U kunt dit oplossen door middelen voor het blokkeren van renderen op uw WordPress-site te elimineren . U moet ook CSS- en Javascript-bestanden verkleinen en ongebruikte CSS verwijderen. Door uw code te optimaliseren, kunt u voldoen aan de aanbeveling “Vermijd het koppelen van kritieke verzoeken” PageSpeed. Nogmaals, u krijgt het meeste werk gedaan door deze optimalisaties in te stellen op het tabblad Bestandsoptimalisatie in WP Rocket.

Gebruik compressie op serverniveau 

Het gebruik van Gzip- of Brotli-compressie zal de bestandsgrootte van uw site verkleinen, wat LCP versnelt en de aanbeveling “Tekstcompressie inschakelen” aanpakt. WP Rocket schakelt automatisch Gzip-compressie in .

Gebruik preconnect voor belangrijke bronnen

Met Preconnect kunt u in een vroeg stadium belangrijke verbindingen met derden tot stand brengen en voldoet het aan de aanbevelingen voor ‘ Preload key requests ‘ en ‘Preconnect to required origins’. 

Gebruik een content delivery network (CDN)

Als u een wereldwijd publiek heeft, kan een CDN uw LCP-tijd voor bezoekers over de hele wereld versnellen. Het is een andere effectieve manier om de Time to First Byte (TTFB) te verminderen. U kunt gebruik maken van  onze RocketCDN-service .

WP Rocket

De eenvoudigste manier om de meeste van deze best practices te implementeren, is door WP Rocket te gebruiken. WP Rocket past automatisch pagina caching en compressie op serverniveau toe, zodra u deze activeert. Het bevat ook andere functies om u te helpen de code en prestaties van uw site te optimaliseren, die allemaal uw LCP-tijd verbeteren.

Blog posts Connect your World

SEO specialist Den Haag

Herman Geertsema is de eigenaar van Connect your World een SEO bureau in Den Haag. Hij is een zeer ervaren SEO freelancer en Content marketeer. Heeft u nog vragen over de Google core web vitals? Of wilt u ons als SEO specialist inhuren? Neem dan contact met ons op. Online marketing bureau Connect your World heeft de afgelopen jaren diverse projecten succesvol afgerond in de volgende regio´s:

SEO & Content Marketing Bureau Connect your World

Dr. J. Presserstraat 313
Den Haag, Nederland 2552 LW
Telefoon: +31641226543
E-mail: info@connectyourworld.nl

De Sitemap XML als Tom Tom – Handleiding

XML Sitemap, SEO Den Haag, Google Search Console

Sitemap XML – inleiding

In deze blog post gaan we het hebben over de XML sitemap. Eerst leggen we uit wat de XML sitemap precies is. We gaan in op de verschillen tussen de XML sitemap van Yoast en van WordPress. Tot slot laten we zien, waar je de XML sitemap voor Google van jouw eigen website kunt bekijken.

Geschatte leestijd: 4 minuten

Wat is een XML sitemap?

Een XML sitemap ziet er uit als een lijst met alle belangrijke pagina’s van jouw website. Op deze manier weet Google precies hoeveel en welke pagina’s er gecrawld moeten worden.

Waarom is een sitemap XML belangrijk?

Een vraag die misschien opkomt is waarom Google een XML sitemap nodig heeft, als Google ook gewoon de links op jouw website kan volgen. Aan de ene kant is het een soort van back-up plan. Is je interne link structuur om wat voor reden dan ook een rommeltje? Dan heb je altijd een overzichtelijke routekaart als Tom Tom. Aan de andere kant zorgen ze ervoor, dat zoekmachines sneller nieuwe content op je website kunnen vinden. Met een kaart vind je nu eenmaal sneller de weg dan zonder kaart.

XML sitemaps in Yoast SEO

Omdat ze belangrijk zijn voor je website, maakt de Yoast SEO plugin die automatisch voor je aan. Een voordeel van deze sitemap is, dat er gebruik gemaakt van sub categorieën. Dit zijn bijvoorbeeld categorieën zoals berichten, pagina’s, categorieën en auteurs. De structuur is op die manier direct duidelijk. Ook is er een categorie afbeeldingen beschikbaar. Zo kunnen de crawlers deze ook direct meenemen tijdens het crawlen. Achter elke URL staat bovendien een datum. Dankzij deze datum weet de zoekmachine precies welke pagina’s zijn toegevoegd of aangepast sinds zijn vorige bezoek. Zijn er pagina’s niet veranderd? Dan worden deze pagina’s ook niet meegenomen tijdens het crawlen.

SEO Yoast – XML sitemap

Als Yoast SEO een sitemap voor je aanmaakt, wordt deze direct op een handige plek gezet. Als je wilt , dat de zoekmachine die van jouw website nog sneller vindt, kun je hem toevoegen aan Google Search Console of Bing Webmaster Tools.

XML sitemaps van Yoast SEO bekijken of uitschakelen

Ben je benieuwd hoe jouw sitemap eruit ziet? Je kunt hem bekijken via een link in het tabblad functies van de Algemene instellingen van Yoast SEO.

XML Sitemap, SEO Den Haag, Google Search Console

XML Sitemap van WordPress

Als je WordPress 5.5 of hoger gebruikt, dan maakt WordPress automatisch een sitemap voor je aan. Die van Yoast wordt echter als veel krachtiger gezien en heeft daarom de voorkeur. De sitemap van Yoast is flexibeler in gebruik. Je kan heel gemakkelijk bepalen, wat er wel en wat niet in de sitemap komt.

SEO blogs van Connect your World

SEO specialist Den Haag

Herman Geertsema is de eigenaar van Online marketing bureau Connect your World gevestigd in Den Haag. Hij is een zeer ervaren SEO expert en content marketeer.

SEO specialist inhuren

U kunt bij Connect your World een SEO specialist, content marketeer en Google Ads specialist inhuren in de volgende regio’s: Den Haag, Amsterdam, Rotterdam, Utrecht, Leiden, Zoetermeer, Westland, Delft, Rijswijk en Breda.

SEO & Content Marketing Bureau Connect your World

Dr. J. Presserstraat 313
Den Haag, Nederland 2552 LW
Telefoon: +31641226543
E-mail: info@connectyourworld.nl

Waarom is structured data in SEO belangrijk?

Structured Data, SEO specialist Den Haag, SEO Den Haag

SEO structured data – Inleiding

In deze blog post gaan we het hebben over structured data. Wat is structured data precies? Waarom is structured data belangrijk voor SEO? Hoe kan de Yoast SEO Premium plugin helpen bij het toepassen van structured data in SEO? En wat is de impact van structured data op uw Google rankings? Extra aandacht besteden we hierbij aan het kruimelpad.

Geschatte leestijd: 7 minuten

Wat is structured data?

Door structured data code aan uw webpagina’s toe te voegen, helpt u de zoekmachines zoals Google om uw content beter te begrijpen. Mensen hebben die aanwijzingen niet nodig. We hebben al op jonge leeftijd geleerd om bepaalde elementen in een tekst te herkennen. Als u ons een recept voor Macaroni laat zien, kunnen we vrijwel direct de ingrediënten aanwijzen. Voor een zoekmachine zoals Google of Bing is dat veel moeilijker. Met structured data maken we onze content begrijpelijk voor zoekmachines.

Wat zijn rich snippets?

Rich snippets zorgen voor visueel meer aantrekkelijke zoekresultaten. U voegt toe en licht speciale onderdelen uit om meer op te vallen. Een bekend voorbeeld zijn de review sterretjes.

Wat zijn rich cards?

Rich cards zijn eigenlijk een nieuwe soort rich snippets. Met behulp van rich cards maakt u de zoek resultaten nog een stukje groter. Zo vallen uw zoekresultaten nog meer op.

structured data, schema

De voordelen van gestructureerde gegevens

  • U gaat meer opvallen in de zoekresultaten. Daardoor maakt u het aantrekkelijker om door te klikken naar uw website. Meer bezoekers op uw website heeft daarmee indirect een positieve impact op de SEO van uw website.
  • Google begrijpt uw content beter, als u uw web pagina of website markeert met gestructureerde gegevens.
  • Mooi uitziende zoekresultaten verleiden de bezoeker om uw product of dienst aan te schaffen. Het aantal conversies zal dan ook omhoog gaan.

Structured data en rich results

Door structured data code aan een web pagina toe te voegen, geeft u zoekmachines namelijk niet alleen de kans om uw content beter te begrijpen, maar ook om deze beter te laten presenteren.

Schema.org

Voor elk type content heeft u een andere set code nodig. Die sets of schema’s worden verzameld op de website www.schema.org. Dit is een soort van bibliotheek of catalogus met heel veel voorbeeldschema’s. Het mooie is echter, dat als u Yoast SEO gebruikt, er automatisch structured data code aan uw webpagina’s wordt toegevoegd.

Veel gebruikte Schema types

De volgende schema’s worden veel gebruikt:

  • Recepten
  • Afbeeldingen
  • Video
  • Evenementen
  • Video
  • Persoon
  • Plaats
  • Restaurant
  • Product
  • Aanbieding
  • Beoordeling
  • Review
  • Lokaal bedrijf
  • Carrousels
  • FAQ

Structured data guidelines van Google

Wilt u precies weten hoe het zit met structured data? Dan moet u de Google Guidelines over structured data doornemen. De volgende punten kwamen naar voren:

  • Als u structured data niet correct toepast, dan heeft u de kans, dat Google een handmatige actie toepast op uw website, waardoor u geen voordeel behaalt met structured data.
  • Google kan niet garanderen, dat gestructureerde gegevens, ondanks een correct toepassing worden toegepast in de zoekresultaten. Via de Rich Results Test kunt u nagaan of u alles goed gedaan hebt. Ook met de URL inspectietool kunt u informatie terugvinden over de gestructureerde gegevens op een pagina.
  • Bij strutured data is het belangrijk om actuele informatie te tonen. Tijdsgevoelige content, die niet langer relevant is, wordt niet getoond.
structured data, SEO Den Haag

De Yoast SEO grafiek

De Yoast SEO plugin implementeert structured data code op een unieke manier. Er wordt namelijk niet alleen code aan verschillende elementen toegevoegd, maar die elementen worden ook in een gestructureerde grafiek verbonden. Op die manier hoeft de zoekmachine niet alle losse eindjes info zelf aan elkaar te koppelen. Eerst identificeert Yoast SEO om wat voor soort type pagina het gaat. Het is bijvoorbeeld een artikel. Dit artikel staat weer op een specifieke webpagina. De webpagina is weer onderdeel van een website en geschreven door een bepaalde auteur. Kortom de grafiek identificeert de verschillende elementen van uw content en maakt vervolgens duidelijk, hoe die elementen met elkaar samenhangen. Dit is super handig voor de zoekmachines.

Moet uzelf toevallig ook iets doen?

Het fijne van de structured data implementatie is, dat de Yoast plugin bijna alles automatisch voor u regelt. Het enige waar u even naar moet kijken, zijn uw instellingen.

Schema instellingen

Yoast SEO omschrijft uw pagina’s standaard met het schematype Webpagina en uw berichten met het schema type Artikel. U kunt deze instellingen wijzigen, maar meestal is dat niet nodig.

Schema instellingen in de Yoast SEO zij balk

Wilt u het schematype aanpassen voor een specifieke blog post of pagina? Bijvoorbeeld voor een contactpagina of een betaalpagina? Dan kunt u dat doen in de Yoast SEO zij balk.

Structured data blokken

Gebruikt u de block editor in WordPress? Dan kunt u ook de structured data blokken aan uw berichten en pagina’s toe voegen. Deze blokken voegen automatisch de juiste structured data code toe.

Yoast geschatte leestijd

Online heeft u maar heel kort de tijd om een goede eerste indruk te maken. In een paar seconden bepalen mensen of uw pagina de moeite van het verder lezen waard is. Veel mensen vinden het fijn om te weten hoe lang het gemiddeld duurt om een pagina te lezen. Met het geschatte leestijdsblok kunt u die informatie eenvoudig aan uw bericht of pagina toe voegen. Yoast SEO premium berekent dit op basis van de tekst lengte.

Yoast How-to

Hoe bouw ik een hut? Hoe knip ik de nagels van mijn kat? Online content met stapsgewijze instructies noemen we ook wel ‘how to content’. Als u deze artikelen voorziet van de juiste structured data code kunnen daar opvallende (mobiele) zoekresultaten uit voortkomen. Het ‘how to blok’ van Yoast SEO helpt u bij het opbouwen van een ‘how to artikel’ en het voegt automatisch de juiste code toe. Gebruik How to niet voor recepten, want deze hebben hun eigen structured data code.

Yoast FAQ

FAQ staat voor ‘frequently asked questions’. Veel websites hebben een pagina met veel gestelde vragen. Op zo’n pagina kunt u alle vragen zetten, die klanten regelmatig stellen over uw producten, uw diensten of uw bedrijf. Met behulp van de juiste structured data code kunnen deze vragen en antwoorden direct zichtbaar worden in de zoekresultaten.

Kruimelpad

Het kruimelpad laat aan bezoekers van uw website zien, waar zij zich bevinden op de website. Die broodkruimels zijn niet alleen handig voor gebruikers, maar ook voor Google. Het kruimelpad geeft de zoekmachine inzicht in de structuur van uw website. Maar daarvoor moet Google de broodkruimels wel kunnen herkennen. Yoast SEO helpt mee door automatisch structured data code aan uw kruimelpad toe te voegen. Deze code zorgt er uiteindelijk voor, dat de URL in uw snippet verrijkt wordt met een kruimelpad.

SEO specialist Den Haag

Herman Geertsema is de eigenaar van Connect your World, een Online marketing bureau in Den Haag. Hij is een zeer ervaren freelance SEO specialist en Content Marketeer.

SEO specialist inhuren

U kunt Herman als freelance content marketeer of SEO freelancer inhuren om hoger in Google te komen in de volgende regio’s: Den Haag, Amsterdam, Rotterdam, Utrecht, Leiden, Zoetermeer, Rijswijk, Delft, Schiedam, Vlaardingen, Zwijndrecht, Dordrecht en Breda.

Andere SEO blogs van Connect your World

Structured data – from relevant sources

SEO & Content Marketing Bureau Connect your World

Dr. J. Presserstraat 313
Den Haag, Nederland 2552 LW
Telefoon: +31641226543
E-mail: info@connectyourworld.nl

Redirects in SEO Zoekmachineoptimalisatie

Redirects, SEO Den Haag

Redirects inleiding

In deze blog post gaan we in op de verschillende soorten Redirects in SEO. Daarnaast leggen wij u uit wanneer u precies een 301 redirect maakt en hoe u dat precies aanpakt met behulp van de redirect manager in Yoast SEO Premium. Deze staat ook wel bekend als de WordPress redirect plugin.

Geschatte leestijd: 17 minuten

1. Pagina’s verwijderen

Iedereen, die een website onderhoudt krijgt te maken met redirects in SEO. Er komt nu eenmaal een moment, dat u webpagina’s gaat verwijderen. Er zijn alleen wel verschillende punten, waar u rekening moet gaan houden. Als u een pagina verwijdert van uw website, betekent dat nog niet, dat de webpagina ook uit de index van de zoekmachine verdwijnt. Website bezoekers kunnen uw webpagina nog steeds vinden via de zoekresultaten of via links op andere websites. Als uw websitebezoeker op een verwijderde webpagina terecht komt, krijgen ze een 404 foutmelding. Dit is vergelijkbaar met een wegversperring of met een lift buiten werking. Maar wat dan? Wat doet u als er opeens een wegversperring is? Waarschijnlijk verlaat u de website. Er zijn bijna altijd genoeg alternatieven.

2. 404 foutmeldingen

Wat gebeurt er eigenlijk als u een website of een webpagina bezoekt? U typt de URL van een website in de adresbalk in of u voert een zoekwoord in in zoekmachines zoals Google en Bing en klikt daaropvolgend op een zoekresultaat; meestal op de 1e pagina. De browser stuurt vervolgens een aanvraag naar het IP adres van de webpagina of website. De server van deze website geeft antwoord met een HTTP statuscode. Als alles prima werkt, geeft de server antwoord met de statuscode 200. Het is echter een ander verhaal, als de server een reactie geeft met een 404 statuscode. De opgevraagde webpagina kan niet gevonden worden.

3. Gebruikerservaring

Dit soort foutmeldingen zijn verwarrend en irritant voor de gebruikers. Dat is voldoende reden om dit soort fouten op te sporen en te verhelpen. Daarnaast geven dit soort foutmeldingen de zoekmachines zoals Google het idee, dat u uw website niet goed onderhoudt. Het belang van gebruikerservaring in SEO optimalisatie neemt de laatste jaren toe. Denk hierbij bijvoorbeeld aan de Core Web Vitals update.

4. De 301 Redirects in SEO

Met een redirect maakt u een omleiding om bij een andere locatie aan te kunnen komen. U gebruikt een statuscode om te communiceren, dat er sprake is van een 301 redirect. Deze webpagina kunt u niet meer met een bezoekje vereren via deze URL. Maar er is een alternatief voor handen. De bezoeker wordt vervolgens via een andere webpagina doorgeleid. Het spreekt voor zich, dat er sprake moet zijn van een relevante webpagina. Ook voor zoekmachines zoals Google en Bing zijn redirects in SEO meer dan welkom. Door de dode links kan een webcrawler niet veel doen. Zolang er geen instructies of aanwijzingen volgen om de oude URL te vervangen of te verwijderen, blijft de crawler steeds terug komen naar de oude URL van de webpagina. Met een 301 redirect kan het verkeer weer zonder veel problemen doorrijden.

5. Waarom u mogelijk redirects nodig heeft

Er zijn 8 gevallen waarin u uw bestaande URL moet omzetten in een nieuwe:

  1. Wanneer u van plan bent een pagina te verwijderen , maar de link juice en het verkeer van de oude URL wilt behouden. 
  2. U heeft een pagina van uw website verwijderd en u wilt bezoekers omleiden naar een nieuwe, zodat ze niet door een 404 worden bekeken. 
  3. Wanneer u uw site herstructureert en sommige URL’s verouderd raken. 
  4. U moet gebruikers naar de hoofdversie van uw site brengen en dubbele pagina’s vermijden vanwege slashes, bestandsextensies, hoofdletters, niet-www-URL’s en wanneer u van HTTP naar HTTPS gaat.
  5. Tijdens het samenvoegen van twee websites om ervoor te zorgen, dat links naar verouderde URL’s worden omgeleid naar de nieuwe pagina’s.
  6. U heeft uw site naar een nieuw domein verplaatst en wilt link juice behouden.
  7. Omwille van marketing , bijvoorbeeld het verstrekken van een kortere en mooiere URL in advertenties, A/B-testen, targeting en het volgen van verkeer.
  8. Als er sprake is van overmacht , bijvoorbeeld als u een typefout heeft gemaakt in uw nieuwsbrieflink en duizenden mensen een 404-foutmelding krijgen.

PageRank is een algoritme dat Google heeft uitgevonden om het belang van webpagina’s te meten. Er wordt aangenomen dat het het aantal en de kwaliteit van links van en naar een pagina telt om te bepalen hoe belangrijk de website is. De veronderstelling van Google is dat gezaghebbende websites waarschijnlijk meer links van andere websites zullen ontvangen. Het betekent dat hoe meer links een webpagina heeft, hoe meer autoriteit deze krijgt.

6. Voordelen en bedreigingen van URL-omleiding

Dus, zijn omleidingen schadelijk of gunstig voor SEO? In feite kunnen ze beide. 

6.1 Voordelen van omleiding

  • Met omleiding verbeter je de gebruikerservaring. Het is beter dat uw bezoekers worden doorgestuurd naar een relevante pagina in plaats van 404 Page Not Found te zien. 
  • Omleidingen helpen u het crawlen en indexeren te beheren. Je geeft zoekmachines aanwijzingen over welke pagina is vervangen en wat de nieuwe is, en of de oude pagina moet worden geïndexeerd of niet. 
  • U kunt de PageRank van een oude pagina behouden. Als u permanente HTTP-omleidingen gebruikt (301, 308), zal Google hoogstwaarschijnlijk de PageRank van de oude pagina doorgeven aan de nieuwe URL. 

6.2 Bedreigingen van foutieve omleiding

  • U kunt linksap verliezen. Hoewel je met sommige omleidingen de link equity kunt behouden, zal deze hoogstwaarschijnlijk niet voor 100% worden doorgegeven. En als je tijdelijke omleidingen gebruikt, moet je niet verwachten dat er veel link juice zal stromen. 
  • U kunt verkeer verliezen. Nogmaals, als u omleidt naar de verkeerde pagina of omleiding verkeerd implementeert, kunt u aanzienlijk verkeersverlies zien. 
  • U kunt het crawlbudget verspillen. Als u uiteindelijk omleidingsketens maakt, kan dat zo veel druk uitoefenen op crawlers dat ze stoppen met proberen uw site te crawlen. 
  • U kunt de gebruikerservaring verslechteren. Als omleiding te veel tijd kost, is de interactie met uw site behoorlijk onbevredigend. 

Wees niet bang voor deze ‘bedreigingen’. Ze kunnen alleen werkelijkheid worden, als u op de verkeerde manier omleidt. Lees hier meer over het belang van urls in SEO.

7. Meest voorkomende omleidingsfouten

Bekijk nu de top 6 fouten bij het omleiden van URL’s en zorg ervoor, dat u ze vermijdt. 

7.1 Omleiden naar een irrelevante pagina

Wanneer u een omleiding instelt, moet u rekening houden met uw bezoekers. Krijgen ze de antwoorden, die ze verwachten te krijgen nadat ze zijn doorverwezen?  U moet ervoor zorgen dat de nieuwe content hen niet in verwarring brengt. Als een gebruiker op een link anker pure chocolade klikt en wordt doorgestuurd naar een pagina witte chocolade, zal dat verwarrend zijn. Dit kan leiden tot hogere bounce rate percentages en verkeersverlies.

Hoe deze fout te vermijden: U moet altijd doorverwijzen naar een pagina met een soortgelijk onderwerp. 

7.2 Leid ketens en lussen om

Omleidingsketens verschijnen wanneer er meer dan één omleiding is tussen de initiële URL en de bestemmings-URL. Bijv. Pagina 1 > Pagina 2 > Pagina 3 > Pagina 4 > Pagina 5. 

Het probleem met omleidingsketens is dat ze de crawler overbelasten. Google beweert, dat hun crawler tot 5 omleidingshops volgt en dan stopt . Dus als er meer omleidingen zijn, wordt de landingspagina mogelijk helemaal niet geïndexeerd. Bovendien kunt u al het linkjuice verliezen en de laadtijd van de pagina vertragen.

Loops zijn vergelijkbaar met kettingen, maar in dit geval wordt de eerste pagina teruggestuurd naar zichzelf. Bijv. Pagina 1 > Pagina 2 > Pagina 3 > Pagina 1. Op deze manier leidt u bezoekers helemaal niet naar een nieuwe URL, wat zo’n verspilling is van uw crawlbudget en linkvermogen. Omleidingsketens en -lussen zijn zo gemeen omdat ze supergemakkelijk over het hoofd worden gezien. De enige manier om ze te vermijden, is door uw omleidingen consequent bij te houden. 

Als u een omleidingsketen vindt, repareert u deze door de eerste pagina rechtstreeks naar de landingspagina om te leiden. Als u om wat voor reden dan ook niet rechtstreeks van de eerste pagina naar de uiteindelijke pagina kunt omleiden, probeer dan het aantal omleidingen in een keten zo veel mogelijk te verminderen.

7.3 Misbruik van tijdelijke omleidingen

Veel webmasters begrijpen het verschil tussen 301/308 en 302/307 omleidingen niet. Ze weten dat de eerste permanent is en de laatste tijdelijk. Ze houden er echter geen rekening mee, dat als u HTTP 302/307 gebruikt, de oude pagina nog steeds wordt geïndexeerd en er bijna geen link juice wordt doorgegeven aan de nieuwe URL. Dat is belangrijk. Hoewel Google begrijpt, dat u 302 per ongeluk hebt gebruikt en het in de loop van de tijd als 301 kan behandelen, weet u niet hoeveel tijd het zal kosten. En tijd is geld. 

Hoe misbruik van tijdelijke omleidingen te voorkomen: gebruik 301 of 308 als u niet van plan bent de omleiding in de nabije toekomst te verwijderen, als het niet voor een promotiecampagne of A/B-testen is.

Als u SEO goed uitvoert, zijn alle pagina’s van uw site met elkaar verbonden . En als u een van die pagina’s omleidt naar een andere, maakt u uiteindelijk te veel omleidingen. Die omleidingen zijn volledig overbodig, aangezien u deze interne links volledig kunt vervangen door naar de nieuwe URL te verwijzen.

7.5 Omgeleide URL’s niet verwijderen uit uw sitemap

Als u 301 of 308 (permanente) redirects gebruikt, moet u die op uw sitemap weergeven om de crawler niet in verwarring te brengen. Zoals u weet, instrueert een sitemap zoekmachines om enkele URL’s te gaan indexeren. Als u geen oude URL’s uit uw sitemap heeft verwijderd, gaat de crawler naar deze URL en probeert deze te indexeren. Maar in plaats van 200 (OK) responscode te krijgen, wordt de crawler omgeleid naar een andere URL. Dit kan leiden tot indexeerbaarheidsproblemen. 

Zo houdt u uw sitemap schoon: Houd uw sitemap op orde — verwijder de oude omgeleide URL’s en voeg de nieuwe URL’s toe aan uw sitemap.

7.6 Uw omleidingen niet regelmatig controleren

Het is moeilijk om zelf te ontdekken of uw site last heeft gehad van URL-omleiding. Hoogstwaarschijnlijk weet u niet eens, dat u iets verkeerd hebt gedaan. Daarom zijn regelmatige site-audits een must voor webmasters en SEO’s.

8. 3 typen redirects in SEO

Er zijn meerdere soorten redirects in SEO. Welke u moet kiezen, hangt geheel af van de situatie. In de redirectmanager van Yoast SEO Premium kunt u 3 typen redirects instellen:

  1. 301 permanent verhuisd
  2. 302 gevonden
  3. 307 tijdelijk verwijderd
  4. 410 inhoud verwijderd
  5. 451 niet beschikbaar vanwege juridische redenen

Strikt genomen zijn dit geen redirects. Ze leiden u namelijk niet naar een andere situatie. De boodschap is echter zo goed als het zelfde. Wat u zoekt, is hier geweest, maar is hier nu niet meer beschikbaar.

8.1. Redirect 301 permanent verhuisd

We starten met een redirect, die het vaakst wordt ingezet, namelijk de 301 redirect. Dit is een permanente redirect, die u kunt inzetten als u een pagina verwijdert of verplaatst of als u iets verandert in de URL structuur. De code 301 geeft aan, dat de desbetreffende webpagina niet meer beschikbaar is op deze locatie. De crawler hoeft de pagina ook niet meer te indexeren. Het mooie is, dat de linkwaarde van de oude URL niet verloren gaat. De redirect zorgt er namelijk voor, dat de waarde wordt overgedragen aan de nieuwe URL. Let goed op! Het betreft een permanente 301 redirect. Als u de oude URL in de toekomst nog wilt gebruiken, ga dan voor een tijdelijke redirect.

Wat is PageRank?

PageRank is een algoritme, dat Google heeft uitgevonden om het belang van webpagina’s te meten. 
Er wordt aangenomen, dat het het aantal en de kwaliteit van links van en naar een pagina telt om te bepalen hoe belangrijk de website is. De veronderstelling van Google is, dat gezaghebbende websites waarschijnlijk meer links van andere websites zullen ontvangen. Het betekent, dat hoe meer links een webpagina heeft, hoe meer autoriteit deze krijgt.

8.2. 302 gevonden

De 302 redirect geeft aan, dat de gevraagde content wel gevonden is, maar op een geheel andere URL. De 302 redirect wordt vaak gebruikt als tijdelijke redirect. Als u de URL die u nu wilt omleiden in de toekomst nog wil hergebruiken. Dan is de 302 een optie. De crawler zal de direct volgen, maar de oorspronkelijke URL bewaart hij ook in de index in de toekomst. Als een 302 te lang een 302 is, kan Google ze omzetten naar 301.

Redirects, SEO bureau Den Haag

8.3. Tijdelijke 307 redirect

De 307 is ook een tijdelijke redirect, maar deze is wel wat duidelijker dan 302. De 307 redirect geeft precies aan, dat de opgevraagde URL verhuisd is naar een tijdelijke locatie. Maar dat deze ook wel weer terugkomt naar de huidige locatie. Maak gebruik van deze tijdelijke redirect, als u zeker weet, dat het om een tijdelijke omleiding gaat. U wilt de oorspronkelijke URL later waarschijnlijk nog gebruiken.

8.4. 410 inhoud verwijderd

Stel u voor, u wilt een webpagina verwijderen, maar u heeft geen relevante pagina, die u als alternatief kunt aanbieden. Dan is het is een slimme move om dat volledig transparant aan de bezoekers en aan de zoekmachine te vertellen. De 401 code geeft aan, dat de content bewust is verwijderd. Zoekmachines zoals Google zijn zich er nu van bewust, dat de URL’s uit de index gehaald mogen worden.

8.5. 451 niet beschikbaar voor juridische redenen

Soms kan een rechter bepalen, dat u een stuk content van uw website dient te halen. Als uw content beledigend of lasterlijk is, kan een rechter opdracht geven om die content te verwijderen.

9. Yoast SEO Premium – Redirects manager

Met deze redirects manager kunt u eenvoudig en snel uw redirects aanmaken. Dat kan handmatig, maar de plu-gin maakt ook automatisch redirects aan bij het verwijderen van een bericht, pagina of taxonomie pagina. Redirects in SEO worden ook automatisch aangemaakt bij het aanpassen van de URL van een bericht, pagina of taxonomie pagina.

9.1 Regex Redirects

Als u aan een groot SEO project werkt, kunnen regex redirects enorm veel tijd besparen. Bij Connect your World adviseren we hier alleen mee aan de slag te gaan als u voldoende ervaring heeft met dit soort redirects. U kan namelijk ook dingen niet goed doen. Regex betekent regular expression. Bij een normale redirect maakt u een omleiding van een oorspronkelijke URL naar een nieuwe URL. Bij Regex redirects kunt u een groep URL´s die een bepaald woord of patroon bevatten allemaal tegelijk omleiden naar een nieuwe URL.

9.2 Redirects importen en exporteren

Als u uw redirects heeft aangemaakt in een ander systeem dan WordPress, kunt u eenvoudig redirects importeren naar WordPress. Exporteren is ook mogelijk.

Redirects, SEO specialist Den Haag

10. Redirects in SEO problemen en oplossingen (voor de pro’s)

Redirects in SEO kunnen ook voor vervelende problemen zorgen. Dus als u niet weet, wat u doet, laat het dan aan ervaren SEO specialist over.

10.1 Uw website heeft te maken met meerdere ‘redirect chains’

De redirect chain is een ketting of een serie van redirects, die van de ene naar de andere URL wordt doorgestuurd. Bij dubbele redirects verliest u bij elk volgende stap 10% aan de autoriteit. Dit soort redirects kunnen ook een grote negatieve impact hebben op de laadtijd van uw website.

10.1.1 Hoe ontdekt u een redirect chain?

Op welke manier ontdekt u deze redirect chains? Maak hierbij gebruik van Screaming Frog. Screaming Frog heeft de volgende functie:

  • Voer een volledige crawl van uw website uit in SreamingFrog
  • Ga naar het Redirects Chains rapport
  • Bestand opslaan

10.2 Interne redirects

Een interne redirect komt voor omdat men op de site nog een link plaatst naar de oude URL en niet direct naar de nieuwe.

10.2.1 Interne redirects opsporen

Maak weer gebruik van Screaming Frog. Crawl de gehele website en draai alle interne redirects uit. Ga naar: Bulk Export – Response Codes en vervolgens Redirection.

10.3 Onnodige redirects

Als u website al wat jaartjes oud is, is de kans groot, dat u al heel wat 301 redirects heeft verzameld. Als het htaccess bestand vol raakt met redirects, heeft dat als gevolg, dat uw website snelheid lager en lager wordt. Het is belangrijk om te onderzoeken welke redirects in SEO nog van nut zijn.

10.3.1 Hoe bepaalt u welke redirects nog echt nodig zijn?

U kunt UTM tags toevoegen aan de redirect URL. Op die manier kunt u simpel uitvinden welke redirect regelmatig wordt opgevraagd. De volgende tagging methode is hiervoor nuttig:

/oudeURL >>> /nieuweURL?utm_medium=301&utm_source=direct&utm_campaign=/oudeURL

Dit soort tag stuurt elke keer als de redirect gebruikt wordt data naar Google Analytics. In het rapport ‘Bron/medium’ leest u vervolgens terug welke redirects in de afgelopen periode zijn opgevraagd. Doe dit om de 6 maanden en verwijder daaropvolgend alle niet opgevraagde 301 redirects uit htaccess.

10.4 Canonical tags en redirects

Canonical tags en redirects in SEO gaan niet goed samen. Bij grote websites is het vaak onmogelijk om te checken of de pagina’s met een canonical tag ook geredirect worden. Daarom heeft Sreaming Frog hier iets handigs voor.

10.4.1 Hoe lost u dit op?

Start weer met een crawl van uw website. Na afloop gaat u zoekt u de tab ‘Directives’ op.  Scroll vervolgens naar de rechterkant en identificeer de kolom ‘Canonical Link Element 1’. Daarna kopieert u deze gehele lijst. Begin weer met een nieuwe crawl en maak gebruik van de ‘List Mode’ functie. Achterhaal de URL’s met een 301 statuscode.

Bij oudere websites bestaat de kans dat de URL structuur al een keer gewijzigd is. De kans is dan vrij groot, dat uw externe links ook een redirect hebben. Met een redirect verliest u altijd wat kracht (autoriteit). U kunt dus nog wat winst behalen met uw SEO optimalisatie inspanningen.

10.5.1 Hoe lossen we dit op?

Maak een uitdraai van uw backlinks en selecteer uw lijst met ‘TargetURL’s’. Kopieer deze lijst vervolgens in Screaming Frog. Let hierbij speciaal op de links, die een statuscode van 404 of 301 hebben. Doe onderzoek naar de kwaliteit van de backlinks. Bepaal daaropvolgend of het de moeite waard is om meerdere backlinks te laten aanpassen.

SEO en content marketing blogs

SEO specialist Den Haag

Herman Geertsema is een ervaren SEO specialist freelancer en Content marketeer uit Den Haag. Herman is tevens de eigenaar van SEO bureau Connect your World gevestigd in Den Haag.

SEO consultant inhuren

Bij Online marketing bureau Connect your World kunt u ook een content marketeer en een SEO expert inhuren in de volgende regio’s:

Gratis SEO tools

U vindt op deze website ook een overzicht met veelal free SEO tools. Deze lijst kunt u gebruiken bij de zoekmachinemarketing van uw eigen website. Uw SEO laten doen, blijft natuurlijk ook altijd een optie.

SEO & Content Marketing Bureau Connect your World

Dr. J. Presserstraat 313
Den Haag, Nederland 2552 LW
Telefoon: +31641226543
E-mail: info@connectyourworld.nl

Sitemap Robots TXT – Het belang voor SEO

Sitemap Robots TXT, wat kunt ermee?

Heeft u wel eens van de sitemap robots txt gehoord? Hoewel u een website kunt maken volgens, die goed is geoptimaliseerd voor SEO optimalisatie, moeten crawlers van zoekmachines zoals Google en Bing uw website nog steeds vinden en crawlen. Eigenlijk heeft u best wel een beetje controle over hoe web crawlers uw website indexeren met sitemap robots.txt. Dit kan zelfs per pagina worden aangepakt.

Geschatte leestijd: 13 minuten

Sitemap Robots TXT bestand, Technische SEO

In deze blog leert u:

  • Wat een Robots.txt-bestand is en waarom het belangrijk is voor SEO
  • De syntaxis uitleggen
  • Veelvoorkomende fouten die u moet vermijden

Aan de slag met Robots.txt

Als u inspraak wilt hebben in wat SEO robots op uw website doorkammen, heeft u hiervoor een robots.txt-bestand nodig. Hoewel het niet per se het laatste woord heeft over hoe Google uw website behandelt, kan het een krachtig effect hebben op uw SEO resultaten. Door u inspraak te geven in hoe Google uw site bekijkt, kunt u ook hun oordeel beïnvloeden. Dus, als u uw crawlfrequentie en zoekprestaties op Google wilt verbeteren, hoe kunt u dan een robots.txt voor SEO maken?

We gaan terug naar het begin van robots.txt-bestanden om het op te splitsen:

  • Wat zijn ze precies?
  • Waar ze te vinden zijn?
  • Hoe maak je jouw eigen robots txt bestand?
  • De syntaxis erachter
  • De voordelen van het gebruik ervan
  • Hoe te weigeren versus No-index
  • Fouten om te vermijden

Laten we beginnen door te onderzoeken wat een robots.txt-bestand is.

Wat is een Robots.Txt-bestand?

Toen het internet nog jong was en vol potentie zat, bedachten web ontwikkelaars een manier om nieuwe pagina’s op internet te crawlen en te indexeren. Deze tools werden crawlers, spiders of robots genoemd. U heeft ze waarschijnlijk allemaal door elkaar horen gebruiken.

Een Sitemap Robots.txt-bestand ziet er als volgt uit:

Zo nu en dan dwaalden deze robots af van waar ze hoorden te zijn. Ze begonnen namelijk met het crawlen en indexeren van websites, die niet bedoeld waren om geïndexeerd te worden. Er moest een oplossing komen. De maker van Aliweb, ’s werelds eerste zoekmachine, adviseerde een “roadmap”-oplossing die de robots zou helpen op koers te blijven. In juni 1994 werd dit protocol gerealiseerd. Hoe ziet dit protocol eruit, wanneer het wordt uitgevoerd? 

Het protocol stelt de richtlijnen vast die alle bots, inclusief die van Google, moeten volgen. Sommige robots met een donkere hoed, zoals spyware of malware, werken echter buiten deze regels. Wil je zelf zien hoe het is? Typ gewoon de URL van een website, gevolgd door “/robots.txt” aan het einde. 

Waar is het Robots TXT bestand te vinden?

U vindt uw sitemap robots txt bestand in de hoofdmap van uw site. Om toegang te krijgen, opent u uw FTP en zoekt u vervolgens in uw public html-sitemap. Er zijn niet veel van deze bestanden, dus ze zullen niet zo groot zijn. Verwacht maximaal een paar honderd bytes te zien. Zodra u het bestand hebt geopend in uw tekst editor, ziet u wat informatie over een sitemap en de termen ‘User-Agent’, ’toestaan’ en ‘niet toestaan’. U kunt ook gewoon /robots.txt toevoegen aan het einde van de meeste URL’s om het te vinden:

Hoe maakt u een Robots.txt-bestand voor SEO?

Als u er zelf een moet maken, weet dan dat Robots.txt een eenvoudig tekstbestand is dat eenvoudig genoeg is voor een echte beginner om te maken. Zorg ervoor, dat u een eenvoudige tekst editor hebt en open vervolgens een leeg blad dat je opslaat als “robots.txt”. Log vervolgens in en zoek de map public_html zoals hierboven vermeld. Met het bestand geopend en de map omhoog getrokken, sleept u het bestand naar de map. Stel nu de juiste machtigingen voor het bestand in. U wilt dat het zo wordt ingesteld dat u, als eigenaar, de enige partij bent met toestemming om dat bestand te lezen, schrijven en bewerken. U zou een machtigingscode “0644” moeten zien. Als u die code niet ziet, klikt u op het bestand en selecteert u vervolgens ‘bestandsmachtiging’. Helemaal klaar!

Robots.txt-syntaxis uitgelegd

Als u naar het bovenstaande robots.txt-voorbeeld kijkt, ziet u waarschijnlijk een onbekende syntaxis. Dus wat betekenen deze woorden? Laten we het uitzoeken. De bestanden bestaan ​​uit meerdere secties, elk een “richtlijn”. Elke instructie begint met een gespecificeerde user-agent, die onder de naam staat van de specifieke crawlbot waarop de code is gericht.

Je hebt hier twee opties:

  1. Gebruik een jokerteken om alle zoekmachines tegelijk aan te spreken
  2. Adresseer elke zoekmachine specifiek, één voor één

Wanneer een crawler naar een site wordt gestuurd, wordt deze aangetrokken door het gedeelte, dat erover spreekt. Elke zoekmachine zal SEO site robot.txt-bestanden een beetje anders behandelen. U kunt eenvoudig onderzoek doen om meer te weten te komen over hoe Google of Bing in het bijzonder met dingen omgaat.

Sitemap Robots TXT – User-Agent-richtlijn

Zie het gedeelte “user-agent”? Dit onderscheidt een bot van de rest, in wezen door hem bij naam te noemen. Als het uw doel is om een ​​van de crawlers van Google te vertellen, wat ze op uw site moeten doen, begin dan met ‘User-agent: Googlebot’. Hoe specifieker u echter kunt worden, hoe beter. Het is gebruikelijk om meer dan één richtlijn te hebben, dus noem elke bot indien nodig bij naam.

Pro-tip: de meeste zoekmachines gebruiken meer dan één bot. Een beetje onderzoek zal u de meest voorkomende bots vertellen waarop u zich kunt richten.

Gastrichtlijn

Dit gedeelte wordt momenteel alleen ondersteund door Yandex, hoewel u mogelijk enkele beweringen ziet dat Google dit ondersteunt. Met deze richtlijn heeft u de bevoegdheid om te bepalen of u de www. voor uw site-URL door zoiets als dit te zeggen:

Host:voorbeeld.com

Omdat we alleen kunnen bevestigen dat Yandex dit ondersteunt, is het niet aan te raden om er te veel op te vertrouwen.

Disallow-richtlijn

De tweede regel binnen een sectie is Disallow. Met deze tool kunt u aangeven welke delen van uw websites niet door bots mogen worden gecrawld. Als u de disallow leeg laat, vertelt het de bots in wezen dat het gratis is en dat ze kunnen kruipen wanneer ze willen.

Sitemap Robots TXTSitemaprichtlijn

De sitemap-richtlijn helpt u zoekmachines te vertellen waar ze uw XML-sitemap kunnen vinden, een digitale kaart die zoekmachines kan helpen belangrijke pagina’s op uw site te vinden en te leren hoe vaak ze worden bijgewerkt.

Richtlijn crawlvertraging

U zult merken, dat zoekmachines zoals Bing en Google een beetje trigger happy kunnen worden tijdens het crawlen. U kunt ze echter een tijdje op afstand houden met een crawl-delay-initiatief. Wanneer u een regel toepast met de tekst ‘Crawl-delay:10’, vertelt u de bots tien seconden te wachten voordat ze de site crawlen of tien seconden tussen crawls.

Voordelen van het gebruik van Sitemap Robots TXT voor SEO

Nu we de basisprincipes van robots.txt-bestanden hebben behandeld en een aantal richtlijngebruiken hebben besproken, is het tijd om uw bestand samen te stellen. Hoewel een robots.txt bestand geen verplicht onderdeel is van een succesvolle website, zijn er toch veel belangrijke voordelen waarvan u op de hoogte moet zijn:

  • Houd bots uit de buurt van privébestanden – U kunt voorkomen, dat crawlers in uw privémappen kijken, waardoor ze veel moeilijker te indexeren zijn.
  • Resources onderhouden – Elke keer dat een bot uw site crawlt, verbruikt hij serverbronnen zoals bandbreedte en meer. Als uw site veel content bevat, zoals een e-commerce site, zult u versteld staan ​​hoe snel deze bronnen kunnen worden opgebruikt. U kunt robots.txt gebruiken voor SEO om het voor spiders moeilijker te maken om toegang te krijgen tot individuele aspecten. Hierdoor blijven uw meest waardevolle bronnen voor echte sitebezoekers behouden.
  • Verduidelijk de locatie van de sitemap – Als u wilt, dat een crawler door uw sitemap gaat, moet u ervoor zorgen, dat deze weet waar hij heen moet. Robots.txt-bestanden kunnen hierbij helpen.
  • Bescherm duplicated content tegen SERP’s – Door een specifieke regel aan uw robots toe te voegen, kunt u voorkomen dat ze pagina’s op uw website indexeren die duplictaed content bevatten.

U wilt natuurlijk, dat zoekmachines zich een weg banen door de meest kritische pagina’s op uw website. Als u de bots beperkt tot specifieke pagina’s, heeft u betere controle over welke pagina’s vervolgens voor zoekers op Google worden geplaatst. Zorg er wel voor, dat u een crawler nooit helemaal blokkeert om bepaalde pagina’s te zien – u kunt er boetes voor krijgen.

Niet toestaan ​​versus No index

Als u niet wilt dat een crawler een pagina opent, gebruikt u meestal een disallow- of noindex-instructie. In 2019 kondigde Google echter aan dat ze het niet langer ondersteunen, samen met een paar andere regels. Voor degenen die de no index-richtlijn toch wilden toepassen, moesten we creatief zijn. Er zijn in plaats daarvan een paar opties om uit te kiezen:

  1. No index Tag – U kunt dit implementeren als een HTTP- responsheader met een X-Robots-Tag, of u kunt een <meta>-tag maken, die u kunt implementeren in de <head>-sectie. Houd er rekening mee, dat als u bots van deze pagina blokkeert, ze de tag waarschijnlijk nooit zullen zien en de pagina nog steeds in SERP’s kunnen opnemen.
  2. Wachtwoordbeveiliging – Als u een pagina achter een wachtwoordinvoer verbergt, zou deze in de meeste gevallen niet in de Google-index moeten staan.
  3. Disallow-regel – Wanneer u specifieke disallow-regels toevoegt, crawlen zoekmachines de pagina niet en wordt deze niet geïndexeerd. Houd er rekening mee dat ze het mogelijk nog steeds kunnen indexeren op basis van informatie die ze verzamelen van andere pagina’s en links.
  4. 404/410 HTTP-statuscodes – De 404- en 410-statuscodes zijn voorbeelden van webpagina’s die niet meer bestaan. Zodra dit soort pagina eenmaal volledig is verwerkt, wordt deze permanent verwijderd uit de index van Google.
  5. Search Console URL verwijderen – Deze tool lost het indexeringsprobleem niet volledig op, maar het zal de pagina tijdelijk verwijderen.

Dus, wat is beter? Noindex of de disallow-regel? Laten we erin duiken. Aangezien Google noindex officieel niet langer ondersteunt, moet u vertrouwen op de hierboven genoemde alternatieven of op de beproefde regel voor niet toestaan. Houd er rekening mee, dat de disallow-regel niet zo effectief zal zijn als de standaard noindex-tag zou zijn. Hoewel het de bots blokkeert om die pagina te crawlen, kunnen ze nog steeds informatie van andere pagina’s verzamelen, evenals zowel interne als externe links, wat ertoe kan leiden dat die pagina in SERP’s wordt weergegeven.

Bruikbare SEO Optimalisatie inzichten 

Geef ons uw site (of klanten) en we analyseren de SEO elementen van de site (on-page, URL-gelijkheid, concurrenten, enz.), en organiseren deze gegevens vervolgens in een bruikbare SEO audit.

5 Robots.txt-fouten die u moet vermijden

We hebben het nu gehad over wat een robots.txt-bestand is, hoe je er een kunt vinden of maken, en de verschillende manieren om het te gebruiken. Maar we hebben het nog niet gehad over de veelvoorkomende fouten die te veel mensen maken bij het gebruik van robots.txt-bestanden. Wanneer het niet correct wordt gebruikt, kunt u een SEO-ramp tegenkomen. Vermijd dit lot door deze veelvoorkomende fouten te vermijden:

1. Sitemap Robots TXTGoede content blokkeren

U wilt geen goede content blokkeren, die nuttig zou kunnen zijn voor sitecrawlers en gebruikers die naar uw site zoeken via zoekmachines. Als u een no index-tag of robots.txt-bestand gebruikt om goede content te blokkeren, schaadt u uw eigen SEO resultaten. Als u achterblijvende resultaten opmerkt, controleer dan uw pagina’s grondig op disallow-regels of noindex-tags.

2. Overmatig gebruik van de richtlijn crawlvertraging

Als u de crawl-delay-richtlijn te vaak gebruikt, beperkt u het aantal pagina’s, dat de bots kunnen crawlen. Hoewel dit misschien geen probleem is voor grote sites, kunnen kleinere sites met beperkte content hun eigen kansen op het behalen van hoge SERP-ranglijsten schaden door deze tools te veel te gebruiken.

3. Content indexering voorkomen

Als u wilt voorkomen dat bots de pagina rechtstreeks crawlen, kunt u dit het beste weigeren. Het zal echter niet altijd werken. Als de pagina extern is gelinkt, kan deze nog steeds doorstromen naar de pagina. Bovendien onderschrijven onwettige bots zoals malware deze regels niet, dus indexeren ze de content toch.

4. Onjuiste gevallen gebruiken

Het is belangrijk op te merken, dat sitemap robots.txt-bestanden hoofdlettergevoelig zijn. Een richtlijn maken en een hoofdletter gebruiken, werkt niet. Alles moet in kleine letters zijn als je wilt dat het effectief is.

5. Schadelijke dubbele content (duplicated content) afschermen

Soms is duplicated content nodig en wilt u deze verbergen zodat deze niet wordt geïndexeerd. Maar andere keren weten Google-bots, wanneer u iets probeert te verbergen, dat niet verborgen zou moeten zijn. Een gebrek aan content kan soms de aandacht vestigen op iets vreemds. Als Google ziet, dat u de ranglijst probeert te manipuleren om meer verkeer te krijgen, kunnen ze u straffen. Maar u kunt dit omzeilen door duplicated content te herschrijven, een 301-omleiding toe te voegen of een Rel=”canonieke tag te gebruiken.

Voeg het allemaal samen

Nu u alles weet over robots.txt voor SEO, is het tijd om wat u heeft geleerd te gebruiken om een ​​bestand te maken en het uit te testen. Het kan even duren voordat u het proces onder de knie hebt en ervoor zorgt dat u alles heeft ingesteld zoals u wilt, maar als u eenmaal alles heeft ingesteld, zult u het verschil zien. Dat is de kracht van sitemap robots txt bestanden.

SEO bureau Connect your World – Blogs

SEO specialist Den Haag

Herman Geertsema is een ervaren SEO consultant en Content Marketing expert uit Den Haag. Tevens is Herman eigenaar van Connect your World, een SEO bureau in Den Haag.

SEO specialist inhuren

Kies ook een SEO specialist uit om bovenaan Google te komen in de volgende regio´s:

Heeft u een vraag voor ons? Of wilt u ons als SEO specialist inhuren? Neem dan contact met ons op.

SEO & Content Marketing Bureau Connect your World

Dr. J. Presserstraat 313
Den Haag, Nederland 2552 LW
Telefoon: +31641226543
E-mail: info@connectyourworld.nl

Technische SEO Checklist in 2024

Technische SEO, On Page SEO, Off Page SEO

In 19 stappen naar een technisch perfecte site [SEO checklist 2024]

SEO Optimalisatie kan grofweg worden onderverdeeld in drie takken: On-page SEO, Off-page SEO en Technische SEO. On page SEO draait om de inhoud en HTML tags. Off-page SEO bestaat voornamelijk uit backlinks. Terwijl technische SEO in gaat op de toegankelijkheid van uw website. Technische SEO wordt vaak gezien als een van de moeilijkste onderdelen van SEO. Schakel daarom altijd een technische SEO specialist in als u vraagstukken heeft op het gebied van SEO techniek.

Wat is technische SEO?

Technische SEO, ook bekend als technische zoekmachineoptimalisatie, verwijst naar de praktijk van het optimaliseren van de technische aspecten van een website om de zichtbaarheid en rangschikking in zoekmachines zoals Google te verbeteren. Het richt zich op het verbeteren van de infrastructuur, codering en prestaties van een website om zoekmachines te helpen de content beter te begrijpen, te indexeren en te waarderen.

Wat valt er onder technische SEO?

Technische SEO omvat alle optimalisaties, die aan de backend van een website worden gedaan om de zoekmachine-indexering en -crawlbaarheid te verbeteren. Dit omvat het verbeteren van de laadsnelheid van de website, zorgen voor mobielvriendelijkheid en het optimaliseren van de site-architectuur. Het gaat ook om het implementeren van een goed gestructureerde URL-hiërarchie en het gebruik van veilige HTTPS-verbindingen. Daarnaast omvat technische SEO het corrigeren van fouten in robots.txt en het maken van een XML-sitemap om zoekmachines te helpen de website efficiënter te crawlen. Tot slot, het oplossen van eventuele dubbele contentproblemen en het implementeren van gestructureerde gegevens (schema markup) vallen ook onder technische SEO om de zichtbaarheid in zoekresultaten te verbeteren.

Geschatte leestijd: 32 minuten

Technische SEO

En hoewel u ze alle drie nodig heeft om goed te ranken, kunt u stellen, dat technische SEO eigenlijk op de eerste plaats komt. U moet een sterke technische basis voor uw website bouwen. Anders kan het gebeuren, dat voordat u deze met content vult en promoot met backlinks, alles in elkaar stort. In deze Technische SEO checklist concentreren wij ons op het controleren van technische problemen (SEO techniek) op uw website en het optimaliseren van uw websitestructuur. Het verbeteren van de website snelheid en de toegankelijkheid komen ook uitgebreid aan bod.

1. Identificeer de juiste tools om uw technische SEO van de website te verbeteren

  • Google Chrome
  • Google Analytics
  • GTmetrix
  • Google Search Console
  • Google Site Kit

Google Chrome

Binnen Chrome kan u gebruiken maken van diverse handige extensies, die het verbeteren van uw online marketing mogelijk maken zoals bijvoorbeeld:

  • MozBar
  • SEOquake
  • Extract People also search Phrases in Google
  • Google Tag Assistant

In Google Chrome is het mogelijk om websites te inspecteren. Klik met uw rechtermuisknop en dan inspecteren om de code van uw website te bekijken. Je kan zien hoe de website laadt en hoe de site er
per apparaat uitziet. Daarnaast ziet u ook waar er eventueel fouten in de website zitten.

Google Search Console nuttige voor technische SEO

  • Met Google Search Console heeft u een programma van Google in handen, waarmee u de aanwezigheid van uw website in Google kunt inspecteren en bijhouden. Google geeft u met deze tool wat macht over de indexatie van uw website. U kunt binnen de tool achterhalen:
  • of u een penalty heeft gehad;
  • hoe goed u scoort binnen Google en op welke zoekwoorden u gevonden wordt;
  • hoe u een pagina aanbiedt bij Google;
  • wat de problemen zijn binnen uw site;
  • hoe u een plattegrond (Google sitemap) van uw website indient;
  • hoe u optimalisaties binnen de structured data van uw website achterhaalt;
  • de mobiele bruikbaarheid van uw site checken.

2. Is de indexatie van uw website in orde?

Een voor de hand liggende plek om te beginnen is om te kijken of uw website überhaupt is geïndexeerd. En met geïndexeerd bedoelen wij of het wel of niet in de zoekresultaten wordt weergegeven. Het eerste, dat u daarom hier moet doen, is uw domeinnaam googelen en uw website zoeken tussen de zoekresultaten. Staat uw website tussen de zoekresultaten? Dan is het goed. Laten we nu eens kijken hoeveel van uw website daadwerkelijk in de zoekindex is terechtgekomen. Een goede plek om dit te controleren is het dekkingsrapport in Google Search Console.

Het rapport laat zien hoeveel van uw pagina’s momenteel zijn geïndexeerd, hoeveel zijn uitgesloten en wat enkele van de indexeringsproblemen op uw website zijn. Welke tool u ook kiest, het aantal geïndexeerde pagina’s moet dicht bij het werkelijke aantal pagina’s op uw website liggen. Dus als u bijvoorbeeld een e-commerce website heeft, moet het aantal geïndexeerde pagina’s overeenkomen met het aantal producten dat u heeft geüpload.

3. Technische SEO – Indexerings-problemen

Over het algemeen zijn er twee soorten indexeringsproblemen. Een daarvan is, wanneer een pagina niet wordt geïndexeerd, terwijl dat wel zou moeten. De andere is wanneer een pagina wordt geïndexeerd, hoewel dit niet de bedoeling is. Als u Google Search Console gebruikt om uw website te controleren, wordt het eerste type indexeringsprobleem meestal als een fout gemarkeerd:

Technische SEO, SEO Den Haag, Linkbuilding Den Haag

3.1 Problemen met indexeren

Indexeringsfouten treden op wanneer u Google heeft gevraagd een pagina te indexeren, maar deze wordt geblokkeerd. Een pagina is bijvoorbeeld toegevoegd aan een sitemap, maar is gemarkeerd met de noindex- tag of is geblokkeerd met robots.txt . Om het probleem op te lossen, controleert u of de pagina moet worden geïndexeerd. Zo ja, verwijder dan wat het blokkeert. Zo nee, verwijder dan de pagina uit uw sitemap. Het andere type indexeringsprobleem is, wanneer de pagina wordt geïndexeerd, maar Google weet niet zeker of deze geïndexeerd moest worden. In Google Search Console worden deze pagina’s meestal als geldig gemarkeerd met waarschuwingen:

3.2 No Index Tag

Dit soort indexeringsproblemen treden meestal op wanneer u heeft geprobeerd de pagina te blokkeren met behulp van sitemap robots txt instructies. Het is een veel voorkomende fout om te denken, dat robots.txt de indexering van de pagina kan blokkeren. In werkelijkheid staat het Google vrij om deze instructies te negeren. Als u de pagina echt wilt blokkeren, moet u de no index-tag gebruiken.

Google search Console, Technische SEO

4. Dekkingsfouten in Google Search Console oplossen

Dekkingsfouten zijn fouten, die Search Console rapporteert als verbeterpunten. Dit soort fouten kunnen impact hebben op de vindbaarheid van uw website. Ze kunnen cruciaal zijn of gewoon simpele tips, die u website net wat beter vindbaar maken. In dit artikel vertellen wij u alles over dekkingsfouten. U krijgt te horen, wat de 10 meeste voorkomende fouten zijn.

4.1 Waar vind je de dekkingsfouten terug?

Om de dekkingsfouten terug te zien, heeft u Google Search Console tot u beschikking. U vindt de dekkingsfouten links terug onder ‘Dekking’.

Vervolgens vind je daar 4 categorieën:
  • Fout
  • Geldig met waarschuwing
  • Geldig
  • Uitgesloten

U weet nu waar de dekkingsfouten staan. Daarom is het nu de hoogste tijd om het over de dekkingsfouten te hebben. Per dekkingsfout behandelen we drie dingen:

  • wat de dekkingsfout precies inhoudt;
  • hoe urgent het probleem is;
  • wat een mogelijke oplossing is.

4.2 Serverfout (5xx)

Betekenis: Een serverfout (5xx) is, zoals de naam al zegt, een probleem bij de server. Dit kunnen veel dingen betekenen. Dat er bijvoorbeeld iets tijdelijk niet werkt, dat er iets niet ondersteunt wordt of dat de server overbelast is.
Urgentie: De hoogste urgentie! Als er een 5xx-fout is, kan het zijn, dat uw pagina niet werkt. En als Google dan toevallig langskomt, bent u helemaal niet blij.
Oplossing: Omdat een serverfout zoveel oorzaken kan hebben, kunnen we u niet de precieze oplossing aanbieden. Stap 1 is om te kijken, wat u precies op de pagina ziet. Stel dat daar een 500- of een 503-fout staat, dan weet je al meer. Googel vervolgens op die term. Vervolgens schakelt u een developer in of neemt u contact op met uw hostingpartij. Vaak is het zo, dat u hier zelf niks aan kan doen of dat het een tijdelijk probleem was.

4.3 Fout met omleiding

Betekenis: Wanneer er een fout is met de omleiding, dan is er een fout met een redirect. Dit kan betekenen, dat de redirect niet juist is. Het kan ook zo zijn, dat er een redirect loop is. Zo’n loop ontstaat, wanneer, uw pagina A naar pagina B doorstuurt en pagina B weer naar pagina A.
Urgentie: Ook dit moet u echt prioriteit geven. Stel, dat u net de URL van uw belangrijkste blogs hebt geoptimaliseerd, dan wilt u wel, dat doet goed gaat.
Oplossing: De redirect verwijderen, de redirect aanpassen of de redirectloop eruit halen.

4.4 Ingediende URL niet gevonden (404)

Betekenis: Een ingediende URL is niks anders dan een URL, die is aangeboden bij Google voor indexering. Een 404 is een pagina, waar verder geen content op staat.
Urgentie: Als u een URL heeft ingediend, die een 404 is, dan kan dat twee dingen betekenen: of u heeft de verkeerde URL gepakt of u heeft de juiste URL gepakt, maar de content staat er nog niet op. En dat is wel een probleem.
Oplossing: Heeft u de verkeerde URL gekozen, bied dan gewoon de juiste URL aan in Search Console. Heeft u wel de goede URL, zorg dan dat er content op die pagina komt te staan en bied de pagina opnieuw aan.

4.5 Geïndexeerd, maar geblokkeerd door robots.txt

Betekenis: Als een URL is geïndexeerd, dan betekent dit dat hij op ’index’ staat. Als een artikel geblokkeerd is door de robots.txt, betekent dat hij op ‘disallow’ staat. De pagina kan dan wel geïndexeerd worden, maar de crawlers mogen er niet op komen. En dat is gek. Want u wilt dat een artikel toegestaan en geïndexeerd wordt, of u wilt, dat een pagina juist níet toegestaan en geïndexeerd wordt. En dat wordt nu door elkaar gehaald.
Urgentie: Dit is afhankelijk van de pagina waar het om gaat. Is het een belangrijke pagina, dan moet u hier direct wat aan doen. Is dit een of andere auteurspagina, dan heeft dit geen prioriteit.
Oplossing: Als het om een pagina gaat, die belangrijk voor u is, dan moet u de disallow uit de robots.txt halen. Wilt u, dat deze helemaal niet in Google staat? Dan hoeft u de pagina alleen nog maar op noindex te zetten.

4.6 Geïndexeerd, niet ingediend in sitemap

Betekenis: De sitemap is de plattegrond van uw website. Met andere woorden: daar staat precies welke pagina waar staat. Als u deze melding ziet in Search Console, dan staat de desbetreffende pagina niet in uw plattegrond. Al wordt-ie wel meegenomen in de indexatie.

Urgentie: Dit is afhankelijk van wat u fout doet. Is het goed, dat de pagina niet in de sitemap staat? Dan wilt u de pagina zeer waarschijnlijk niet geïndexeerd hebben. Is het wel een belangrijke pagina en moet hij dus in uw sitemap? Dan is dit belangrijk.

Oplossing: Een onbelangrijke pagina wilt u in dit geval op noindex zetten. Een belangrijke pagina wilt u in de sitemap hebben. U kan de sitemap opnieuw genereren.

4.7 Pagina met omleiding

Betekenis: U weet inmiddels wat een omleiding is. Dat is namelijk een redirect. Wanneer Search Console de melding ‘pagina met omleiding’ geeft. Dit betekent dan dat Google de URL (ooit) ergens is tegengekomen en dat deze geredirect wordt.
Urgentie: Dit is in het overgrote deel van de gevallen niet erg. Als u een aantal pagina’s heeftt aangepast en geredirect, dan zal Google dit zien.
Oplossing: Stel, u had vroeger een blog op /actueel/, maar nu staat datzelfde blog op /blog/. Als u nog /actueel/ in uw menu heeft staan, dan is dat niet bevorderlijk voor uw interne linkbuilding. Probeer dus geredirecte links zo goed mogelijk bij de bron aan te pakken. Dit kan er ook voor zorgen, dat u minder van dit soort meldingen terugziet.

4.8 Alternatieve pagina met correcte canonieke tag

Betekenis: Dit is wellicht een van de lastigste dekkingsfouten als u naar de titel kijkt. Maar eigenlijk is het heel simpel. Dit betekent, dat de pagina een canonical heeft naar de juiste pagina.
Urgentie: Totaal niet. Dit is namelijk iets goeds. U hoeft hier niks aan te doen. Google rapporteert dit alleen wel, zodat het in het overzicht staat. U moet natuurlijk wel controleren of het klopt, maar in 9 van de 10 gevallen hoeft u hier niks mee te doen.
Oplossing: Die is er dus niet 😉

4.9 Gecrawld – momenteel niet geïndexeerd

Betekenis: Als een pagina niet geïndexeerd is, betekent dit, dat deze niet wordt meegenomen in de zoekresultaten van Google. Wanneer een pagina is gecrawld, betekent dit dat Google als het ware langs is geweest. Met andere woorden: de pagina heeft geen disallow.

Dit is dus eigenlijk het tegenovergestelde van de dekkingsfout ‘Geïndexeerd, maar geblokkeerd door robots.txt’.

Urgentie: Als een belangrijke pagina is gecrawld maar niet geïndexeerd, dan moet u dat direct oplossen. Is het geen belangrijke pagina? Dan heeft dit geen hoge prioriteit.

Oplossing: Als het een belangrijke pagina is, dan moet u ervoor zorgen, dat deze zo snel mogelijk wordt geïndexeerd. Bied ‘m direct aan bij Google en verwijder de noindex als deze erop staat.

Wilt u, dat deze pagina niet geïndexeerd wordt? Zorg er dan ook voor dat hij niet meer gecrawld kan worden middels een disallow in uw robots.txt.

4.10 Dubbele pagina, Google heeft een andere canonieke pagina gekozen dan de gebruiker

Betekenis: De canonical is de oplossing voor dubbele content. Maar in bepaalde gevallen kan Google de canonical negeren, omdat ze denkt dat ze het beter weet. En dat is het geval bij deze dekkingsfout.

U kan misschien pagina A als canonical hebben ingesteld, maar Google overrulet dat door pagina B te pakken.

Urgentie: Als Google het bij het rechte eind heeft, dan is dat natuurlijk geen probleem. Maar als Google het níet bij het juiste eind heeft, dan is dit wél een probleem. Dan moet u er meteen aan werken.

Oplossing: De oplossing hier is niet ‘doe dit en u lost het op’. Het is heel belangrijk om uw canonicals goed te controleren en waar nodig aan te passen. Verder moet u dubbele content zo goed mogelijk vermijden en ook de noindex, disallow, etc. goed controleren en aanpassen.

4.11 Uitgesloten door tag noindex

Betekenis: Als een pagina de noindex tag heeft, dan wordt hij niet geïndexeerd door Google. Oftewel: Google neemt ‘m niet mee in de indexatie.

Urgentie: In het gros van de gevallen heeft een pagina een noindex, omdat u niet wilt, dat deze geïndexeerd wordt. Dan hoeft u er dus niks aan te doen.

Oplossing: De pagina op index zetten, als u wel wil, dat hij in Google te vinden is.

4.12 Dubbele pagina zonder door de gebruiker geselecteerde canonieke versie

Betekenis: Dit is eigenlijk bijna hetzelfde probleem als bij ‘Dubbele pagina, Google heeft een andere canonieke pagina gekozen dan de gebruiker’, alleen hier heeft de pagina geen canonical. Oftewel: Google is lekker aan het freestylen.
Urgentie: Dit is wel iets wat u echt op moet pakken. U wilt namelijk niet, dat Google gaat freestylen en zelf gaat nadenken.
Oplossing: De oplossing is om te gaan werken met canonicals. Zorg, dat u dubbele content vermijdt. Kan het niet anders, werk dan met canonical. Zorg bij alles wat geen dubbele content heeft voor een ‘self-referencing’ canonical. Dat laatste is een canonical die naar zichzelf verwijst. Dat kan voorkomen dat Google gaat freestylen.

4.13 Ingediende URL gemarkeerd als noindex

Betekenis: U weet inmiddels wat een ingediende URL is: een URL die u heeft aangeboden in Search Console. Als deze pagina een noindex heeft en u biedt ‘m aan, dan krijgt u deze melding.
Urgentie: Extreem hoog als u wilt dat de URL in Google te vinden is ;-).
Oplossing: De noindex van de pagina afhalen en de pagina opnieuw aanbieden.

4.14 Niet gevonden (404)

Betekenis: Als een URL op een 404-pagina uitkomt, dan betekent, dat er op die pagina geen content staat. Die kan verwijderd zijn, verkeerd zijn geredirect of überhaupt nooit hebben bestaan.
Urgentie: 404’s wilt u eigenlijk altijd vermijden. Google zegt zelf, dat een 404 niet erg is als u zeker weet, dat de URL nooit heeft bestaan. Maar ik zou 404’s altijd oppakken. Ze hebben niet de hoogste prioriteit, maar u mag ze zeker niet vergeten.
Oplossing: De URL redirecten naar de vervangende pagina, de pagina die er het meest op lijkt of anders naar de homepage.

4.15 Soft 404

Betekenis: Een soft 404 is een 404, maar dan softer ;-). Nee, dat is een beetje flauw. Een soft 404 is minder ‘hard’ dan een normale 404. Bij een 404 is het echt een dood eind en bij een soft 404 kan het zijn dat de server niet meegeeft dat er iets goed gaat. Het kan ook zo zijn dat de pagina wel bestaat, maar geen of nagenoeg geen content heeft. Dan kan Google ook het label soft 404 erop knallen.
Urgentie: Dezelfde urgentie als de reguliere 404’s.
Oplossing: De lege pagina eventueel verwijderen en redirecten. Of een redirect toevoegen als de pagina niet bestaat.

5. Technische SEO – Geef een voorkeursdomein op

Bij het opzetten van uw website of blog moet u uw voorkeursdomein specificeren. Hiermee instrueer u zoekmachines welke variant van het domein u wilt gebruiken gedurende de levensduur van uw website. Laten we eens kijken waarom u dit moet doen. Een website is standaard toegankelijk met www en zonder www voor een domeinnaam. Als uw domein bijvoorbeeld voorbeeld.com is, is uw website toegankelijk via zowel http://www.voorbeeld.com als http://voorbeeld.com (dus zonder www). Hoewel dit oké is voor gebruikers, is het verwarrend voor zoekmachines omdat ze deze als twee verschillende websites beschouwen. Dit betekent, dat u indexeringsproblemen, dubbele content problemen en verlies van paginarangschikking kunt tegenkomen. Om dit probleem op te lossen, moet u uw voorkeursdomein instellen en zoekmachines informeren over uw keuze.

www of geen www?

Een van de vragen, die veel mensen hebben, is of ze www voor hun domein moeten gebruiken of dat ze voor de niet-www-versie moeten gaan. Er is geen SEO – voordeel om het ene formaat boven het andere te kiezen. Het is een kwestie van persoonlijke voorkeur. Het is belangrijk om zoekmachines te informeren over uw beslissing en consistent te zijn gedurende de hele levensduur van uw website.

Hoe u uw voorkeursdomein instelt

In het verleden was de instelling om uw voorkeursdomein op te geven beschikbaar in Google Search Console, maar Google besloot deze optie te verwijderen en te vertrouwen op canonieke URL’s.

6. Optimaliseer uw Robots.txt

Als u klaar bent met het instellen van uw voorkeursdomein, is de volgende stap het controleren en optimaliseren van uw robots.txt-bestand.

Wat is robots.txt?

Robots.txt is een tekstbestand, dat zich in de hoofdmap van uw website bevindt. Het geeft instructies aan zoekmachines over welke pagina’s van uw website ze kunnen crawlen en aan hun index kunnen toevoegen. Het formaat van dit bestand is heel eenvoudig en in de meeste gevallen hoeft u er geen wijzigingen in aan te brengen.

7. Technische SEO – Controleer uw sitestructuur

Een ondiepe, logische sitestructuur is belangrijk voor gebruikers en zoekmachinebots. Bovendien helpt een interne linkstructuur om de rangschikkingskracht (zogenaamde link juice) efficiënter over uw pagina’s te verspreiden. Terwijl u uw interne links controleert, controleert u de klikdiepte. Zorg ervoor, dat de belangrijke pagina’s van uw site niet meer dan drie klikken verwijderd zijn van de startpagina. Paginering van blogpagina’s is noodzakelijk voor vindbaarheid door zoekmachines, maar vergroot de klikdiepte. Gebruik een eenvoudige structuur in combinatie met een krachtige zoekfunctie op de site om het voor gebruikers gemakkelijker te maken om elke bron te vinden.

8. Technische SEO – SEO vriendelijke URLS

Stop in de URL’s van uw webpagina’s en blogs geen tekens, liggende streepjes, onnodige cijfers of andere gekke dingen. Het is belangrijk om URL’s zo schoon mogelijk te houden. Maak URL’s zo kort mogelijk.
Zorg vervolgens, dat er een relevant zoekwoord in de URL staat. De URL moet er dus mooi en duidelijk uitzien.

9. Vergroot uw crawlbudget

Het crawlbudget is het aantal pagina’s, dat zoekmachines gedurende een bepaalde periode crawlen. Het crawlbudget is op zichzelf geen ranking factor. Het bepaalt echter wel, hoe vaak de pagina’s van uw site worden gecrawld (en of sommigen ervan überhaupt worden gecrawld). Afhankelijk van hoe belangrijk uw website is, geeft Google u een bepaald crawlbudget. Als uw pagina’s licht zijn en uw bronnen gemakkelijk toegankelijk zijn, zal dit budget een lange weg gaan. Maar als er te veel omleidingen en doodlopende wegen zijn, is uw budget al uitgegeven voordat het zelfs maar op belangrijke pagina’s komt.

Dit is wat u kunt doen om uw crawlbudget te vergroten:

Negeer bronnen met een lage prioriteit

Het is gebruikelijk om gifs, memes en video’s te gebruiken om uw pagina’s op te fleuren. Deze bronnen zijn bedoeld om uw gebruikers te entertainen, maar ze doen er eigenlijk niet toe voor zoekmachines. Het goede nieuws is, dat u Google kunt vragen deze bronnen te negeren en iets anders te gaan crawlen. Om dat te doen, bewerkt u uw robots.txt-bestand om afzonderlijke bronnen niet toe te staan:

User-agent: * Niet
toestaan: /images/filename.jpg

Of zelfs bepaalde bestandstypen:

User-agent: *
Niet toestaan: /*.gif$

Vermijd lange omleidingsketens

Wanneer er te veel omleidingen (redirects) zijn, stopt Google meestal met het volgen van het spoor en gaat naar andere delen van uw website. Wat betekent dat sommige van uw pagina’s misschien nooit het daglicht zullen zien. Dat komt bovenop het verspillen van een stel kruipende eenheden voor niets. Als u dergelijke pagina’s vindt, corrigeer dan de omleidingen om rechtstreeks naar de landingspagina te gaan.

Technische SEO – Dynamische URL’s beheren

Het is gebruikelijk, dat content management systemen een heleboel dynamische URL’s genereren. In principe kan elk van uw pagina’s een paar verschillende URL’s hebben, afhankelijk van hoe u daar bent gekomen of het type filters, dat u heeft gebruikt. Google kan elk van deze URL’s als een andere pagina zien, ook al is de content grotendeels hetzelfde. Om te voorkomen, dat Google een aantal bijna identieke pagina’s crawlt, kunt u Google vragen bepaalde URL-parameters te negeren. Om dat te doen, start u Google Search Console en gaat u naar Verouderde tools en rapporten > URL-parameters :

Klik aan de rechterkant op Bewerken en vertel Google welke parameters moeten worden genegeerd.

Wanneer een zoekbot een 4XX/5XX-pagina bereikt, gaat een deel van uw crawlbudget verloren. Daarom is het belangrijk om alle verbroken links op uw site te vinden en op te lossen. ‘Broken links’ verspillen niet alleen uw crawlbudget, maar brengen ook bezoekers in verwarring en verslinden ‘link juice’. 

10. Technische SEO – Duplicated content opschonen

Duplicated content is geen groot probleem voor SEO, maar het kan een beetje rommelig worden. Als er twee of meer bijna identieke pagina’s op uw website zijn, welke moet dan worden geïndexeerd? Wat als Google besluit, dat uw duplicated content een teken van plagiaat of spam zijn? Het is het beste om het niet te riskeren. Als u duplicated content vindt, kunt u deze ofwel helemaal verwijderen of verbergen voor zoekmachines.

11. Test en verbeter de paginasnelheid (website snelheid)

Google verwacht, dat pagina’s binnen twee seconden of minder worden geladen. Ondertussen is de gemiddelde pagespeed op internet ongeveer 15 seconden. De kans is dus groot, dat u ook uw SEO pagespeed moet verbeteren. Paginasnelheid is echter niet eenvoudig te meten en Google worstelt al heel lang met deze statistiek. Eindelijk is het aangekomen bij het ‘Core Web Vitals’. Dit zijn drie statistieken, die zijn ontworpen om de waargenomen snelheid van een bepaalde pagina te meten. De statistieken zijn Largest Contentful Pain (LCP), First Input Delay (FID) en Cumulatieve Layout Shift (CLS).

12. Ga uit van mobile-first benadering (SEO Mobile)

In 2018, na anderhalf jaar van zorgvuldig experimenteren en testen, begon Google met het migreren van sites naar mobile-first indexing. De algoritmen stellen zoekmachines in om de mobiele versies van websites te crawlen in plaats van hun desktopversies. En dit betekent letterlijk dat de mobiele versie van uw pagina’s bepaalt, hoe ze scoren in zowel mobiele als desktop-zoekresultaten. De mobielvriendelijke test van Google omvat een selectie van bruikbaarheidscriteria, zoals viewportconfiguratie, gebruik van plug-ins en de grootte van tekst en klikbare elementen. Het is ook belangrijk om te onthouden, dat mobielvriendelijkheid wordt beoordeeld op paginabasis, dus u moet elk van uw landingspagina’s afzonderlijk en één voor één controleren op mobielvriendelijkheid. Om u hele website te beoordelen kun je beter overstappen op Google Search Console. Daar, onder het tabblad ‘Ervaring’, vindt u het rapport Mobiel bruikbaarheid voor al uw pagina’s:

Technische SEO, SEO specialist Den Haag, SEO specialist inhuren

Onder de grafiek staat een tabel met de meest voorkomende problemen, die van invloed zijn op uw mobiele pagina’s. U kunt verder onderzoek doen door op één van de problemen te klikken.

13. Controleer uw HTTPS-inhoud

Google is in 2014 begonnen met het gebruik van HTTPS als ranking-signaal . Sindsdien komen HTTPS-migraties steeds vaker voor. Volgens het Google Transparantie Rapport gebruikt 95% van de websites op Google tegenwoordig HTTPS. Als uw site nog niet over HTTPS beschikt, kunt u een HTTPS-migratie overwegen. Als uw website al gebruik maakt van HTTPS (gedeeltelijk of volledig), is het belangrijk om de veelvoorkomende HTTPS-problemen te controleren als onderdeel van uw SEO Audit. Vergeet vooral niet te controleren op:

Gemengde content

Problemen met gemengde inhoud ontstaan ​​wanneer een anders beveiligde pagina een deel van de content (afbeeldingen, video’s, scripts, CSS-bestanden) laadt via een niet-beveiligde HTTP-verbinding. Dit verzwakt de beveiliging van de pagina en kan voorkomen dat browsers de niet-beveiligde inhoud of zelfs de hele pagina laden. 

Canonicals en omleidingen

Eerst moet u controleren op dubbele HTTP- versus HTTPS-versies van uw pagina’s, in het gedeelte Site-audit > Omleidingen . Als de HTTP- en HTTPS-versies van uw website niet correct zijn ingesteld, kunnen ze allebei tegelijkertijd worden geïndexeerd door zoekmachines. Dit veroorzaakt dubbele inhoudsproblemen die uw website rankings kunnen schaden. In het ideale geval zouden alle links op uw HTTPS-site, evenals omleidingen en canonicals, meteen naar HTTPS-pagina’s moeten verwijzen. Zorg ervoor, dat u de juiste omleiding van HTTP naar HTTPS instelt, merk problemen op met www en niet-www-versies van uw site. Ten tweede, zelfs als u de HTTP-naar-HTTPS-omleidingen correct op de hele site hebt geïmplementeerd, wilt u gebruikers niet door onnodige omleidingen leiden. Hierdoor zal uw website veel langzamer lijken dan hij is. Dergelijke omleidingen kunnen ook een probleem zijn voor het crawlen, omdat u een beetje van uw crawlbudget verspilt telkens wanneer een bot van een zoekmachine een omleiding bereikt.

14. Technische SEO – Structured data

Gestructureerde gegevens zijn in wezen HTML-code, die wordt gebruikt om specifieke elementen op uw pagina te taggen. Als uw pagina bijvoorbeeld een recept voor Spaghetti is, kunt u Google vertellen welke tekst de ingrediënten zijn, wat de kooktijd, het aantal calorieën, enzovoort is. Google kan de tags vervolgens gebruiken om rich snippets voor uw pagina’s in de SERP te maken:

Technische SEO, Bovenaan in Google

U kunt uw gestructureerde gegevens controleren in de Google Search Console onder het tabblad Verbeteringen. Google geeft de verbeteringen weer die u op uw website heeft geprobeerd te implementeren en laat u weten of dit is gelukt:

Als uw website een CMS gebruikt, kunnen gestructureerde gegevens standaard worden geïmplementeerd of u kunt dit implementeren door een plug-in te installeren. Als u een op maat gemaakte website heeft, kunt u een hulptool gebruiken om uw pagina’s te taggen.

Wat is het voordeel van het gebruik van gestructureerde data ?

Het kan u helpen de presentatie van uw vermeldingen in de SERPS te verbeteren, hetzij via aanbevolen fragmenten , kennisgrafieken, enz., en uw CTR te verhogen.

Wat zijn de toepassingen van gestructureerde gegevens?

Er zijn veel manieren waarop u gestructureerde gegevens kunt gebruiken om uw content te beschrijven. De meest populaire zijn: artikelen, recepten, evenementen, vacatures, lokale bedrijven en meer. U kunt de volledige lijst hier bekijken .

15. Technische SEO – Bekijk uw sitemap

Wat zijn XML-sitemaps?

Een XML-sitemap is een bestand dat de URL’s van uw site weergeeft en waarmee u informatie over elke pagina van uw site kunt verstrekken om de crawlers van zoekmachines te helpen deze beter te navigeren en te indexeren.

Hoe vind ik mijn XML-sitemap?

Vaker wel dan niet, bevindt uw XML-sitemap zich in de hoofdmap van uw domein, dus het is meestal vrij eenvoudig te vinden. Er zijn een aantal manieren waarop u de XML-sitemap op uw site kunt vinden – of zelfs om te ontdekken of u er een heeft. Gebruik veelvoorkomende formaten om te lokaliseren. Er zijn enkele standaard naamgevingsconventies, dus probeer die eerst. Begin met deze: URL + sitemap.xml of sitemap_index.xml of sitemap1.xml.

Waarom zijn XML-sitemaps belangrijk voor SEO?

In een wereld waar Google koning is, is het essentieel om uw site fris en bijgewerkt te houden met nieuwe content. Hierbij zijn XML-sitemaps essentieel voor SEO omdat ze zoekmachines zoals Google in staat stellen om alle pagina’s op uw website te vinden, die ze anders misschien niet zouden hebben gevonden. Dit kan betekenen, dat er meer organisch verkeer binnenkomt en meer geld voor uw bedrijf! XML-sitemaps helpen Google uw site te crawlen en snel naar nieuwe inhoud te gaan. Zie de XML-sitemap als een stappenplan. Langs komt Google, en het komt op een pagina op uw website. Laten we, omwille van het argument, zeggen dat dit de startpagina is. Van daaruit crawlt het je navigatie en begint het die pagina’s te ontdekken, en gaat dan op jacht om andere pagina’s te vinden.

Wat voor soort websites hebben een XML-sitemap nodig?

Google heeft in het verleden gezegd dat kleine sites niet echt een XML-sitemap nodig hebben (zie onderstaande quote van John Mueller) en dat ze nuttiger zijn voor grotere sites. Ik zou zeggen dat het niet uitmaakt hoe groot of klein je site is – u zou nog steeds een XML-sitemap moeten hebben. Ze zijn zo gemakkelijk te maken (met behulp van een plug-in zoals Yoast of een tool zoals Sitebulb of Screaming Frog), dat u gek zou zijn om dat niet te doen. Een taak die een paar minuten duurt voor een eenvoudige site, helpt Google de gewenste URL’s te vinden.

“Met een site van die grootte heb je niet echt een sitemapbestand nodig, we kunnen over het algemeen toch alles crawlen en indexeren.
Met zo’n klein sitemapbestand kun je ook gewoon de afzonderlijke URL’s controleren om te zien of ze op die manier zijn geïndexeerd.’

John Mueller – Google Webmaster Forum

Uw sitemap vertelt zoekmachines over uw sitestructuur en laat ze nieuwe content ontdekken. Als u geen sitemap heeft, moet u er nu echt een gaan maken. Als u uw sitemap controleert, zorg er dan voor dat deze:

Schoon. Houd uw sitemap vrij van fouten, omleidingen en URL’s die worden geblokkeerd voor indexering; anders loopt u het risico dat zoekmachines de sitemap negeren alsof deze er niet is.

Actueel. Zorg ervoor, dat uw sitemap wordt bijgewerkt, telkens wanneer nieuwe content aan uw website wordt toegevoegd of ervan wordt verwijderd. Dit zal zoekmachines zoals Google helpen nieuwe content snel te ontdekken.

Beknopt. Google crawlt geen sitemaps van meer dan 50.000 URL’s. Idealiter zou u het veel korter moeten houden om ervoor te zorgen dat uw belangrijkste pagina’s vaker worden gecrawld: technische SEO experimenten tonen aan dat kortere sitemaps resulteren in effectievere crawls .

Geregistreerd in Search Console. Laat Google weten, wat uw sitemap is. U kunt het handmatig indienen bij Google Search Console of de locatie op de volgende manier ergens in uw robots.txt-bestand opgeven:
Sitemap: http://uwdomein.com/sitemaplocatie.xml

16. Vraag Google om uw site opnieuw te crawlen

De bovenstaande SEO site-audit zal zeker een paar technische SEO problemen op uw site onder de aandacht brengen, die moeten worden opgelost. Zodra u ze heeft opgelost, kunt u Google expliciet vragen uw pagina’s opnieuw te crawlen, om ervoor te zorgen, dat de wijzigingen zo snel mogelijk worden doorgevoerd. U kunt uw bijgewerkte URL’s voor opnieuw crawlen verzenden vanuit Google Search Console met behulp van de URL-inspectietool. Voer de URL in van de pagina die u opnieuw wilt crawlen en klik op ‘Indexering aanvragen’. U kunt ook de Live URL testen (voorheen bekend als de functie Fetchen als Google) om uw pagina in zijn huidige vorm te zien en vervolgens indexering aanvragen.

Technische SEO, Bovenaan in Google

Met de URL-inspectietool kunt u het rapport uitbreiden voor meer details, de live-URL testen en indexering aanvragen.

SEO techniek – crawlen

U moet beoordelen wanneer u echt opnieuw moet crawlen. Bijvoorbeeld na het doorvoeren van serieuze wijzigingen op de site: u heeft uw site van http naar https verplaatst, gestructureerde gegevens ingevoerd of essentiële content optimalisatie uitgevoerd. Of u wilt, dat een dringende blogpost sneller op Google verschijnt. Er wordt aangenomen dat er een limiet is voor het aantal herhalingsacties per maand, dus maak er geen misbruik van. Het opnieuw crawlen kan 10 minuten tot enkele weken duren. Een beter alternatief voor opnieuw crawlen is om enorme wijzigingen door te geven via de sitemap. Google kan niet garanderen, dat alle pagina’s van uw website worden geïndexeerd, maar als de site vrij klein is, zal dit hoogstwaarschijnlijk wel gebeuren.

Bing Webmaster Tools

Er is ook een vergelijkbare optie in Bing Webmaster Tools. Zoek gewoon het gedeelte Mijn site configureren in uw dashboard en klik op URL’s indienen. Vul de URL in, die u opnieuw wilt laten indexeren, en Bing zal deze doorgaans binnen enkele minuten crawlen. Met de tool kunnen webmasters voor de meeste sites tot 10.000 URL’s per dag indienen.

17. Technische SEO – Core Web Vitals

Wat zijn Core Web Vitals?

Core Web Vitals zijn de nieuwe standaarden van Google om te evalueren of een pagina een goede gebruikerservaring biedt.

De Core Web Vitals bestaan ​​uit:

  • Largest Contentful Paint (LCP) : meet de snelheid waarmee de hoofdinhoud van een pagina wordt geladen. Dit zou binnen 2,5 seconden na het landen op een pagina moeten gebeuren .
  • First Input Delay (FID) : meet de snelheid waarmee gebruikers kunnen communiceren met een pagina nadat ze erop zijn beland. Dit zou binnen 100 milliseconden moeten gebeuren .
  • Cumulatieve lay-outverschuiving (CLS) : meet hoe vaak gebruikers onverwachte lay-outverschuivingen ervaren. Pagina’s moeten een CLS van minder dan 0,1 hebben.

Als het gaat om het testen van uw site om te zien hoe goed deze voldoet aan de Core Web Vitals-benchmarks, is het belangrijk dat aan alle drie de statistieken wordt voldaan, zegt John Mueller.

18. Controleer uw site regelmatig

Tenslotte. Een regelmatige site-audit moet een prioriteit zijn in uw SEO-strategie. Welke veranderingen er ook op internet verschijnen, ze kunnen de ranglijst op een zeer onvoorspelbare manier beïnvloeden. Daarom is het echt verstandig om SEO analyse tools in te stellen voor regelmatige technische SEO controles om SEO optimalisatie problemen te detecteren en op te lossen zodra ze zich voordoen.

19. Broodkruimel-menu’s

Een broodkruimelmenu is een reeks links boven of onder aan een pagina, waarmee gebruikers naar een vorige pagina (meestal de categoriepagina) of naar de startpagina van een website kunnen navigeren. Een broodkruimelmenu heeft twee hoofddoelen: het helpt gebruikers gemakkelijk door een website te navigeren zonder op de terugknop van hun browser te hoeven drukken. Het geeft zoekmachines nog een hint over de structuur van een website. ,Breadcrumbs worden in verschillende SEO Guides als SEO-element genoemd omdat ze sterk worden aanbevolen door Google. Als u breadcrumbs nog niet hebt ingeschakeld, zorg er dan voor dat ze zijn ingeschakeld op uw website en dat ze het juiste schema hebben.

Technische SEO – Conclusie

Deze technische SEO checklist heeft als doel om met u te delen, wat er allemaal op het gebied van SEO techniek moet gebeuren om van uw website een goed scorende site te maken. Technische SEO kan lastig zijn en heeft vele valkuilen. Een SEO specialist inhuren is daarom altijd een verstandige keuze. De SEO expert begeleidt u graag naar de posities bovenaan in Google met uw website.

SEO checklists – Connect your World

SEO specialist Den Haag

Herman Geertsema is de eigenaar en freelance SEO specialist van SEO en Content Marketing bureau Connect your World gevestigd in Den Haag. Hij is een ervaren SEO consultant en Content Marketeer. Connect your World voert online marketing projecten uit op het gebied van zoekmachineoptimalisatie, Linkbuilding, Contentmarketing, Sociale Media en Google Ads. Hij heeft ook kennis van de SEO techniek.

SEO specialist inhuren

Kies ook een SEO specialist voor een goede SEO analyse in de volgende regio’s:

Heeft u een vraag over technische SEO, Google Ads Campagnes of iets anders? Of wilt u ons als SEO tekstschrijver of SEO specialist inhuren om bovenaan in Google te komen? Neem dan contact op via onderstaande button.

SEO & Content Marketing Bureau Connect your World

Dr. J. Presserstraat 313
Den Haag, Nederland 2552 LW
Telefoon: +31641226543
E-mail: info@connectyourworld.nl

SEO check

Wilt u zelf een SEO check uitvoeren voor uw website? Maak dan gebruik van de vele SEO checklists op deze website of ons overzicht met veelal gratis SEO tools.

Je website snelheid testen, is important

SEO, gesproken zoekopdrachten, SEO ranking factor

Websitesnelheid – Prioriteit nr. 1 voor uw SEO rankings

Als de snelheid van uw site slecht is, kost u dat klanten. Iedereen haat een trage site. Dat komt, omdat de meeste mensen van nature ongeduldig zijn bij het gebruik van het internet. Binnen 3 seconden. bepalen websitebezoekers of uw site is, wat ze zoeken. Daarom is een te langzame site een SEO ranking factor met een stevige negatieve impact. Dit geldt zowel voor SEO (hogere bounce rate percentage) als voor de klantervaring (weglopende of weg surfende klanten). De bezoekers van uw site verwachten een rappe site van u. Vandaar is het van betekenis om uw website snelheid regelmatig te testen. Met de testresultaten in de hand weet u daardoor precies, wat u kunt doen om van uw site een snelle website te maken.

Geschatte leestijd: 22 minuten

Waarom een snelle website belangrijk is?

De snelheid van een site is cruciaal om een aantal redenen. Allereerst heeft het een directe invloed op de gebruikerservaring. Mensen zijn gewend geraakt aan snelle reactietijden op het internet en hebben geen geduld voor trage sites. Een site die langzaam laadt, kan frustratie veroorzaken. Ze kunnen site bezoekers ontmoedigen om op de site te blijven. Verder is website snelheid een beduidende factor voor SEO. De zoekmachines zoals bijvoorbeeld Bing, Google en Yahoo geven de voorkeur aan snelle sites en nemen laadtijd mee als een ranking factor. Een snellere site heeft dus meer kans om hoger te scoren in de zoekresultaten (SERP) van de zoekmachine, wat resulteert in meer organisch verkeer.

Mobiel vriendelijke website – belangrijk voor SEO

Naarmate de wereld steeds mobieler wordt, verwachten consumenten, dat ‘services on – demand’ zijn en direct worden geleverd. Google begrijpt als geen ander, dat de tijd die verstrijkt voordat een pagina is geladen een relevant onderdeel van de overall gebruikerservaring is. Daarom is websitesnelheid om die redenen zeer wezenlijk als SEO ranking factor. Het is uitermate belangrijk om de website snelheid op regelmatige basis te toetsen en indien nodig te perfectioneren. Daarvoor heeft Google een online tool genaamd Pagespeed Insights


Google Core Web Vitals

Core web vitals, pagespeed, SEO Den Haag

Snelle website

In mei 2021 is Google met de ‘Core Web Vitals’ update gekomen. Door deze update van de pagina ervaring zet Google de snelheid en gebruikerservaring van een website nog eens extra in het middelpunt. De verbetering van de ´Google Core Web Vitals´ bieden de bezoekers van uw site een verbeterde gebruikerservaring.

Website snelheid testen – Google Core web vitals verbeteren

Google gaat u daarmee beter inzicht geven in welke dingen op uw site vertragen en de gebruikersvriendelijkheid verminderen. Er zijn een aantal manieren om in Google uw Core Web Vitals te versterken.

  1. Optimaliseer uw SEO website afbeeldingen. Grote afbeeldingen zijn heel vaak de oorzaak van een trage website.
  2. Stel een specifiek afbeeldings CDN in. Dit geeft u meer controle over hoe de afbeeldingen worden weergegeven.
  3. Geef de ruimte voor een afbeelding (breedte en hoogte) weer in de CSS code. Dit voorkomt een schokkerige afbeelding.
  4. Verminder de laadtijd door de server te versnellen.
  5. Bekijk kritische CSS om sneller inhoud boven de vouw te laden.
  6. Verbeter het laden van scripts van anderen. Het is zeker een optie, dat traagheid van buitenaf komt.

Website snelheid testen en technische SEO

Wachten tot de content verschijnt, niet in staat om te communiceren met een pagina en zelfs vertragingen opmerken, zorgen voor irritatie. Die irritatie kost niet alleen tijd, enkel ook geld.

Uit onderzoek blijkt, dat een vertraging van 100 milliseconden de conversie optimalisatie met 7% doet dalen. 53% Van de bezoekers van mobiele websites vertrekt als een webpagina niet binnen drie seconden is geladen.

Dat soort slechte ervaringen kunnen voor een blijvende niet positieve indruk van een merk zorgen.

Snelheid mobiele site

Research verklaart zelfs, dat het stressniveau bij het wachten op trage mobiele resultaten zwaarder kan zijn, dan het kijken naar een horrorfilm. Het is dus geen verrassing, dat Google sinds 2010 de snelheid van uw site meet en gebruikt in hun ranking-algoritmen. In 2018, werd ook de pagespeed van uw site voor ‘mobile devices’ een belangrijkere SEO factor. Google begrijpt, dat een prettige gebruikerservaring een snelle gebruikerservaring is.

Een trage website kost omzet

Traagheid een belangrijke negatieve SEO factor, omdat dit omzet kost

Frustratie irriteert uw gebruikers en doet uw SEO rankings pijn. En het is niet alleen onderzoek van Google! Onderzoek uit namelijk alle hoeken van het web, op alle aspecten van het consumentengedrag toont aan, dat snelheid van een site een enorme invloed heeft op uw online resultaten. 47 procent van de gebruikers van uw site verwacht bijvoorbeeld, dat een site onder de 2 seconden is geladen. 20% van de gebruikers verlaat zijn winkelwagentje als het transactieproces te traag verloopt. Een trage site kost dus omzet, omdat bezoekers niet willen wachten.

Grote SEO gevolgen bij trage site

Slechte ervaringen wil zeggen, dat ze andere sites gaan bezoeken en converteren met concurrenten. Deze gedragingen kunnen eenvoudig worden bijgehouden door Google (door terug te gaan naar resultatenpagina’s van zoekmachines, korte bezoeken en andere signalen). Ze zijn een sterk signaal om een pagina lager te rangschikken, dan waar deze oorspronkelijk was. Een snelle laadtijd van uw site is dus duidelijk een SEO ranking factor van belang. In de SEO check hoort daarom altijd een ‘pagespeed’ test thuis. Yoast heeft over dit onderwerp recent ook een blog geschreven. How to check your sitespeed?

Google heeft zelf ook super veel belang bij snelle sites

Google wil snellere internet snelheden. Dat is niet alleen goed voor gebruikers, maar ook voor Google. Langzame sites zijn vaak traag, omdat ze inefficiënt zijn. Ze kunnen te veel grote bestanden laden, hebben hun media niet geoptimaliseerd of maken geen gebruik van moderne technologieën om hun pagina’s te bedienen. Dat betekent, dat Google meer bandbreedte moet verbruiken, meer bronnen moet toewijzen en meer geld moet uitgeven. Trage sites komen daarom niet snel bovenaan in Google.

website snelheid, SEO specialist Den Haag
SEO for webshops is belangrijk, waarbij website snelheid een SEO ranking factor is van belang. Een trage website gaat je echt omzet kosten.

Wat is een goede paginasnelheid? 

Er is niet echt een standaard site snelheid voor een pagina. Google – pagina’s worden meestal binnen 3 seconden geladen. Het punt is, dat als het gaat om pagespeed, uw doel moet zijn om uw site zo snel als mogelijk te maken. Het kan ook een concurrentievoordeel zijn om met een super ​​snelle site, meer klanten te winnen van concurrenten met langzame sites.  

Hoe kan ik de website snelheid verbeteren? 

Er zijn genoeg manieren om de snelheid van de site beter te maken. Vaak heeft u dan een web ontwikkelaar of een technische SEO consultant nodig. Toch zijn er een paar dingen, die u kunt doen om uw site te versnellen in Google zonder hulp van anderen.

1. Aantal redirects verminderen 

Elke keer, dat uw webpagina’s omleidt, vertraagt ​​het de pagina´s laadsnelheid. Dus als u aanvullende ‘redirects’ heeft, die niet nodig zijn, kan het tijd zijn om uw ‘redirects in SEO‘ op te schonen.    

2. Code opschonen 

Als er extra code op een webpagina staat, die niet meer van waarde voor uw site is, overweeg dan om deze te verwijderen. Dit kan overgebleven code zijn van functies, die u mogelijk al van uw site hebt verwijderd, of andere ´pagina elementen´ die u niet gebruikt. Er is geen reden voor deze code. Dus ga aan de slag om deze te verwijderen. 

3. SEO afbeeldingen optimaliseren 

Als de afbeeldingsformaten veel te groot zijn, overweeg dan om de grootte te wijzigen en te comprimeren. Veel site-eigenaren uploaden foto´s en andere SEO afbeeldingen op hun maximale grootte. De beste methode om dit probleem op te lossen, is door ze bij te snijden tot het exacte formaat dat nodig is voor een webpagina. Dit zou een gemakkelijke stap voorwaarts zijn om de websitesnelheid van uw webpagina’s te versnellen. Het op die correcte wijze van het verbeteren van de afbeeldingen op uw website is dus een SEO factor met grote impact.

4. Google, AMP – websitesnelheid

Bij het ‘world wide web’ kan elke milliseconde worden opgeslagen en elke byte, die ze niet hoeven te verwerken, telt snel op. Vaak kunnen eenvoudige wijzigingen in de configuratie, processen of code websites veel sneller maken, zonder nadelen. Dat is misschien een reden waarom Google zo zwaar geïnvesteerd heeft in het AMP – project. Een sneller internet is beter voor de bezoekers van uw website en verlaagt Google ’s operationele kosten beduidend. Hoe dan ook, dat betekent, dat ze doorgaan met het belonen van snelle (re) sites en dat websitesnelheid een belangrijke SEO topic blijft en zal blijven in de toekomst.

5. Google webmaster tools – website snelheid test Google

Het is niet verbazingwekkend, dat sommige van de beste bronnen voor site optimalisatie afkomstig zijn van Google. We raden u aan hun documentatie te verkennen om inzicht te krijgen in de technieken, hulpmiddelen en methoden voor het bouwen van snellere websites.


Website snelheid testen

  1. WebPageTest
  2. Pingdom
  3. Lighthouse, voor Google Chrome
  4. Page Speed Insights
  5. GT Metrix

6. Bounce rate verlagen 

Bezoekers van uw site willen niet wachten tot uw pagina’s zijn geladen. Ze bezoeken uw site met een reden en elke wrijving, die ze onderweg ervaren, zal ze uitschakelen. Als er een vertraging optreedt wanneer ze toegang proberen te krijgen tot de content, stuiteren ze waarschijnlijk van de pagina. Volgens Unbounce, is de bounce rate van pagina’s, die 2 seconden nodig hebben om te downloaden 9%, maar meer dan drievoudig wanneer het 5 seconden kost om te laden.  

Google website snelheid testen – zeker bij de landingspagina´s

Als het uw startpagina of landingspagina is waar mensen vanaf bouncen, kan dit problematisch zijn. Uw startpagina is de toegangspoort tot de rest van uw site. Dus u wilt ervoor zorgen, dat deze pagina zeer snel geladen wordt. Hoewel landingspagina´s uiterst belangrijk zijn, omdat u hier de bezoekers van uw site probeert te converteren.   

websitesnelheid, Conversie trechter

Conversie optimalisatie – landingspagina’s

Een ander gevolg van de slechte laad snelheid van de webpagina is, dat u een conversie of meerdere conversies misloopt. Als bezoekers van uw website bouncen, voltooien ze niet de actie die u wilt. Het komt erop neer, dat een snellere websitesnelheid waarschijnlijk ook zal leiden tot meer conversies.  

Website snelheid en SEO e-commerce

Als u zich in de e-commerce ruimte bevindt, kunt u het zich veroorloven om een ​​hoge bounce rate te hebben? Verbluffende  statistieken laten zien, dat zelfs een 1 seconde vertraging bij het laden van een pagina op een mobiel apparaat ervoor kan zorgen, dat conversies met 20% afnemen. Pagespeed SEO is dus een SEO factor van belang als u de eigenaar bent van een webshop.

Gemakkelijker crawlen

Hoe sneller een webpagina wordt geladen, hoe sneller de bots van Google de pagina kunnen crawlen en indexeren. Als gevolg hiervan geven zoekmachines deze factor de voorkeur. Door de snelheid van de website te optimaliseren voor SEO, zullen de bots uw pagina’s efficiënter crawlen en zullen ze uw pagina’s waarschijnlijker rangschikken in SERP’s.  

Mobiele apparaten versus snelheid van desktop website 

De snelheid van de site is een belangrijke SEO ranking factor op alle apparaten, niet alleen op de desktop. Nu meer mensen toegang hebben tot content en op zoek zijn naar antwoorden op hun mobiele apparaten, is het belangrijk om manieren te bedenken om de websitesnelheid op deze apparaten te verbeteren.

website snelheid testen

Snelheid website verhogen in 23 manieren

1. Elimineer bronnen, die het renderen blokkeren

JavaScript- en CSS-scripts verhinderen vaak dat uw pagina snel wordt geladen. Elke gebruiker moet deze bestanden downloaden en verwerken, voordat ze de rest van de pagina kunnen zien. Dus het hebben van veel of slecht geoptimaliseerde bestanden kan een negatieve invloed hebben op de snelheid van uw site.

Google raadt twee oplossingen aan:

  • Inline Javascript of CSS als u niet veel heeft. Dit betekent, dat u uw Javascript en CSS in uw HTML bestanden moet opnemen. Met name WordPress websites hebben vaak genoeg Javascript. Deze methode zal daarbij de pagina waarschijnlijk vertragen.
  • Stel uw Javascript uit. Als u het uitgestelde HTML attribuut toevoegt, wordt uw Javascript bestand gedownload tijdens het HTML parseren. Het wordt pas uitgevoerd nadat het parseren is voltooid. De scripts worden vervolgens uitgevoerd in de volgorde, waarin ze op de pagina zijn opgenomen.

2. Vermijd het aaneenschakelen van kritieke verzoeken

Dit controle bericht verwijst naar hoe browsers inhoud weergeven via het Critical Rendering Path (CRP). Bestanden zoals Javascript en CSS moeten volledig worden geladen, voordat al het andere op uw website zichtbaar wordt. Dus om de pagespeed te verbeteren, moet u het aantal afhankelijke verzoeken en hun grootte tot een minimum beperken. Een paar manieren om het aaneenschakelen van kritieke verzoeken te voorkomen, worden hier behandeld door andere aanbevelingen, waaronder:

  • Het elimineren van bronnen die het renderen blokkeren
  • Offscreen afbeeldingen uitstellen
  • CSS en JavaScript verkleinen

3. Houd het aantal aanvragen laag en de overdrachtsformaten klein

Elk verzoek vertraagt ​​uw site snelheid. Het is dus logisch om aan te bevelen, dat u het aantal vereiste verzoeken minimaliseert om de laadtijd te verkorten. Er is geen specifiek verzoeknummer of maximale verzoekgrootte om te volgen. In plaats daarvan raadt Google aan een prestatiebudget in te stellen met doelen, die verband houden met zaken als:

  • Maximale afbeeldingsformaten
  • Het aantal gebruikte weblettertypen
  • Het aantal externe bronnen dat u belt
  • De grootte van scripts en frameworks

4. Verklein CSS om de websitesnelheid te verbeteren

CSS bestanden zijn altijd groter dan nodig is. Om het gemakkelijker te maken om eraan te werken en te ontwikkelen, kunnen ze onnodige tekens bevatten. Denk hierbij aan regel teruglopen en spaties die verspilde ruimte zijn, waardoor computers ze niet sneller kunnen lezen. Het verkleinen van CSS is het proces, waarbij CSS bestanden worden gecomprimeerd door die onnodige tekens zoals spaties en duplicaten te verwijderen. Dit kan de grootte van uw CSS bestand aanzienlijk verkleinen.


5. JavaScript verkleinen

Het minimaliseren idee is ook van toepassing op Javascript bestanden. Verwijder onnodige tekens voor het begrip van de computer en verhoog de site snelheid.


6. Verwijder ongebruikte CSS om de website snelheid te verbeteren

Alle stijlen, die in uw CSS zijn opgenomen, zijn gegevens die moeten worden geladen, voordat uw webpagina zichtbaar is voor gebruikers. Als die gegevens niet echt worden gebruikt, verspilt u bronnen en vertraagt ​​u uw prestaties. Daarom wordt het vaak aanbevolen om ongebruikte CSS te verwijderen. Google Chrome Dev Tools heeft een dekkingstabblad dat u laat zien welke CSS een pagina daadwerkelijk gebruikt.

  1. Druk op Command + Shift + P (Mac) of Control + Shift + P (Windows, Linux, Chrome OS) terwijl DevTools in focus is om het Command-menu te openen.
  2. Begin met het typen van dekking en selecteer Dekking tonen. Het tabblad Dekking wordt weergegeven.
  1. Klik op de herlaadknop om opnieuw te laden en de dekking vast te leggen. De pagina wordt opnieuw geladen en het tabblad Dekking geeft een overzicht van hoeveel CSS en Javascript wordt gebruikt van elk bestand dat de browser laadt.
  2. Klik op een CSS bestand om regel voor regel te zien welke CSS het gebruikt.

7. Minimaliseer het werk aan de Main thread

Main thread is verantwoordelijk voor het omzetten van code in een webpagina waarmee gebruikers kunnen communiceren. Het parseert en voert al uw HTML, CSS en Javascript uit en is verantwoordelijk voor het afhandelen van gebruikersinteracties. Dus wanneer de hoofdthread door de code van uw site werkt, kan deze de gebruikersinvoer niet verwerken. Als uw site ervoor zorgt, dat de main thread te lang duurt, biedt u waarschijnlijk geen goede gebruikerservaring en trage laadtijden van pagina’s, die Google zal meewegen in de ranglijst. Manieren om methoden voor het delen van main threads voor andere secties te verminderen, waaronder:

  • Uw code verkleinen
  • Ongebruikte code verwijderen
  • Caching implementeren

8. Verkort de Javascript uitvoeringstijd om de website snelheid te verhogen

De uitvoeringstijd van Javascript is vaak de grootste vertraging van het main thread werk. De methoden die we hierboven hebben voorgesteld om het werk in de main thread te verminderen, moeten ook de Javascript-uitvoeringstijd verkorten en uw paginasnelheid verhogen.


9. Website snelheid – Verkort serverreactietijden (TTFB)

Time to First Byte (TTFB) meet hoe lang het duurt voordat een browser de eerste byte aan gegevens van uw server ontvangt nadat hij een verzoek heeft gedaan. Verschillende factoren, die uw TTFB kunnen beïnvloeden en verlagen, zijn onder meer:

  • Gebruikmakend van een hoogwaardige webhostingprovider
  • Lichtgewicht thema’s en plug-ins gebruiken
  • Het verminderen van het aantal plug-ins, dat op uw site is geïnstalleerd
  • Een Content Delivery Network (CDN) gebruiken
  • Implementeren van browser caching
  • Met behulp van een kwaliteitsvolle DNS-provider (Domain Name System)

10. De juiste grootte van afbeeldingen

Afbeeldingen worden al snel het grootste probleem voor de prestatie van uw site als u niet oppast. Afbeeldingen die groter zijn dan nodig, worden automatisch verkleind met CSS. Dit duurt echter langer dan het gebruik van afbeeldingen met de juiste grootte om mee te beginnen. De juiste grootte van afbeeldingen is een eenvoudige manier om uw laadtijden te verkorten. Upload afbeeldingen met de juiste afmetingen of gebruik responsieve afbeeldingen door afbeeldingen met verschillende afmetingen te maken voor verschillende apparaten en het srcset HTML kenmerk te gebruiken.


11. Offscreen-afbeeldingen uitstellen

Het uitstellen van off screen afbeeldingen is algemeen bekend als ‘lazy loading’. In plaats van de browser elke afbeelding op een pagina te laten laden voordat content boven de vouw wordt weergegeven, kunt u ervoor zorgen, dat de browser alleen afbeeldingen laadt, die te zien zijn bij het laden van de pagina. Minder laden betekent betere prestaties.


12. Website snelheid testen – Codeer afbeeldingen efficiënt

U begrijpt waarschijnlijk dat afbeeldingen een aanzienlijke invloed hebben op de prestaties van de site. Een van de meest elementaire optimalisaties die u kunt doen, is compressie. Hierdoor worden uw bestanden kleiner, zodat ze sneller worden geladen.

Aanvullende aanbevelingen voor het comprimeren van afbeeldingen zijn onder meer:

  • Afbeeldingen op de juiste maat serveren
  • Lazy loading implementeren (offscreen afbeeldingen uitstellen)
  • Afbeeldingen converteren naar bestandsindelingen van de volgende generatie, zoals WebP
  • Videoformaten gebruiken voor geanimeerde content, zoals GIF’s

13. Geef afbeeldingen weer in de volgende generatie-indelingen

Sommige bestandsindelingen voor afbeeldingen worden sneller geladen dan andere. We hebben het niet over uw PNG of JPEG’s. Maar afbeeldingsbestanden zoals WebP en AVIF worden de nieuwe standaard.


14. Gebruik videoformaten voor geanimeerde content

Geanimeerde content, die wordt geleverd via indelingen zoals GIF, kost uw prestaties. GIF’s zijn veeleisend om te laden en u ziet aanbevelingen om videoformaten te laden, zoals:

  • MP4: maakt iets grotere bestanden, maar is meestal compatibel met browsers.
  • WebM: sterk geoptimaliseerd videoformaat, maar heeft beperkte browsercompatibiliteit.

15. Zorg ervoor dat de tekst zichtbaar blijft tijdens het laden van weblettertypen

Net als bij afbeeldingen zijn lettertypen vaak grote bestanden, die veel tijd in beslag nemen om te laden. Browsers verbergen soms zelfs tekst totdat het lettertype volledig is geladen. U kunt dit probleem oplossen door de Font Display API swap-instructie toe te passen in uw @ font-face-stijl.


16. Schakel tekstcompressie in

In sommige gevallen wordt tekstcompressie automatisch ingeschakeld op uw server. Als dat niet het geval is voor uw site, kunt u het volgende doen.

  1. De eerste is om een ​​plug-in te installeren met een GZIP-compressiefunctie.
  2. Comprimeer uw tekst handmatig door uw .htaccess-bestand te bewerken.

17. Maak vooraf verbinding met de vereiste oorsprong

Preconnect HTML kenmerken vertelt browsers onmiddellijk, dat er scripts van derden op uw pagina staan, ​​die moeten worden geladen, zodat ze zo snel mogelijk kunnen starten en uw prestaties kunnen verbeteren. U heeft waarschijnlijk een aantal bronnen van derden op uw site. Deze bronnen hebben tijd nodig voor browsers om een ​​verbinding met deze bronnen tot stand te brengen en vertragen uw laadsnelheden. Het helpt dus om browsers te vertellen, dat ze zo snel mogelijk een verbinding tot stand moeten brengen.


18. Website snelheid testen – Laad sleutelverzoeken vooraf

Na het vooraf verbinden, minimaliseert preload het aantal verzoeken, dat browsers aan uw server moeten doen. Maar in plaats van verbinding te maken met derden, verwijst “preload key requests” naar het laden van kritieke activa op uw eigen server.


19. Vermijd omleidingen naar meerdere pagina’s om uw site snelheid te verbeteren

U krijgt vaak omleidingen, wanneer u een pagina op uw site verplaatst of verwijdert. Hoewel dit is waar u omleidingen voor moet gebruiken, moet u er rekening mee houden, dat omleidingen extra vertragingen in de laadtijd veroorzaken. Vermijd dus het gebruik van meerdere omleidingen, tenzij het absoluut noodzakelijk is.


20. Bedien statische activa met een efficiënt cachebeleid

Caching verwijst naar hoe browsers kopieën van uw pagina’s opslaan om sneller te laden bij toekomstige bezoeken. Browsers wissen periodiek hun caches om ze up-to-date te houden en u wilt dat deze tijd hoger is in plaats van lager. Het heeft geen zin om uw site om de paar uur uit browsercaches te verwijderen, dus u kunt de vervalperiode van uw cache optimaliseren met behulp van de headers Cache-Control en Expires.


21. Beperk de impact van code van derden

We hebben al besproken hoe scripts van derden grote hits kunnen maken voor uw prestaties. Het is dus belangrijk om hun impact op uw prestaties waar mogelijk te verminderen. Enkele methoden om de impact van code van derden op uw website snelheid te verminderen, zijn onder meer:

  • Stel het laden van JavaScript uit
  • Gebruik link-tags met vooraf verbonden attributen
  • Zelf-host scripts van derden

22. Website snelheid testen – Vermijd enorme netwerklasten

Grote netwerkpayloads gebruiken meer gegevens en kosten iedereen meer geld. Het minimaliseren van het aantal netwerkverzoeken, dat nodig is om uw site te laden, helpt dit te voorkomen. Google raadt aan om uw totale bytegrootte onder de 1.600 KB te houden.

Een paar manieren om de payload van uw netwerk te verlagen, zijn onder meer:

  • CSS, JavaScript en afbeeldingen die onder de vouw staan ​​uitstellen
  • Verkleinende code
  • Afbeeldingsbestanden comprimeren
  • Gebruik het WebP-formaat voor afbeeldingen
  • Caching implementeren

23. Vermijd een buitensporige grootte van het document object model (DOM)

De DOM is hoe browsers HTML zien als objecten in een boomstructuur met individuele knooppunten, die elk object vertegenwoordigen. Hoe groter uw DOM is, hoe langer het duurt om te laden. Google raadt u aan om DOM-bomen te behouden met:

  • In totaal minder dan 1.500 knooppunten
  • Onder 32 knoopdiepte
  • Minder dan 60 onderliggende notities voor elk bovenliggend knooppunt

Snelheid WordPress website in Google verbeteren

Er zijn tegenwoordig ontzettend veel sites gemaakt met WordPress als CMS. WordPress is redelijk makkelijk in gebruik. Daarnaast is er veel (online) documentatie over, hoe u een website met WordPress maakt. De snelheid van een WordPress site testen en verbeteren, kan op de volgende manieren:

  • Update uw WordPress installatie regelmatig
  • Beperk het aantal plug-ins
  • Gebruik alleen kwalitatieve goede plug-ins, die regelmatig worden bijgewerkt
  • Optimaliseer website afbeeldingen
  • Maak gebruik van een WordPress Cache plug-in zoals bijvoorbeeld WP Rocket of W3totalcache

Veel gestelde vragen

Hoe snel moet mijn website zijn?

De snelheid van uw website is een belangrijk aspect, omdat het een directe invloed heeft op de gebruikerservaring en zelfs op de rangschikking van uw site in zoekmachines. Het wordt aanbevolen, dat uw website binnen 2 tot 3 seconden laadt. Gebruikers hebben de neiging om af te haken als een website te langzaam laadt.

Waarom moet mijn website snel zijn?

Er zijn verschillende redenen te bedenken waarom een website snel moet zijn. Een snelle website draagt bij aan een betere gebruikerservaring van de website. Zoekmachines waarderen snellere website met een hogere ranking in de zoekresultaten. Daarnaast kunnen snellere laadtijden ook de conversieratio’s beïnvloeden.

Hoe kan je de snelheid van een website testen?

Er zijn verschillende tools en methoden beschikbaar om de snelheid van een website te testen en te verbeteren. Hier zijn enkele favorieten van mij: Google Pagespeed Insights, GTMetrix en Pingdom Tools.

Waarom is mijn website langzaam?

Er zijn verschillende redenen waarom een website traag kan laden. Hier zijn een paar veelvoorkomende oorzaken: Hostingproblemen: Als uw website op een slecht geconfigureerde server wordt gehost of als de server overbelast is, kan dit leiden tot langzame laadtijden. Te veel HTTP-verzoeken: Als uw website veel afbeeldingen, scripts en andere bronnen bevat, kan dit resulteren in te veel HTTP-verzoeken, wat de laadtijd kan vertragen. Zware afbeeldingen of video’s: Grote afbeeldingen of video’s kunnen de laadtijd van uw website aanzienlijk vertragen. Zorg ervoor, dat uw SEO afbeeldingen en video’s geoptimaliseerd zijn voor het web. Slechte code: Slecht geschreven code, zoals onnodige CSS of JavaScript, kan de prestaties van uw website negatief beïnvloeden. Caching problemen: Als caching niet correct is geconfigureerd, moet de server elke keer, dat iemand uw website bezoekt alle content opnieuw genereren, wat de laadtijd kan vertragen.
Geografische locatie van de server: Als de fysieke locatie van de server ver van de locatie van uw gebruikers verwijderd is, kan dit de laadtijd van uw website negatief beïnvloeden.

SEO, Zoekwoorden en Linkbuilding Blogs

SEO specialist Den Haag

Wilt u meer informatie over de belangrijke website snelheid ranking factor? Of wilt u ons inhuren als SEO expert om uw website snelheid te testen en te verhogen? Zeker als u een e-commerce webshop beheert, is website snelheid super belangrijk. Surf naar onze contactpagina en neem contact met ons op. De auteur is een ervaren SEO consultant en Content Marketing expert uit Den Haag. Hij is tevens eigenaar van Connect your World, een Content Marketing en SEO bureau in Den Haag. Hier komt u meer te weten over de auteur: Herman Geertsema.

SEO tarieven en mogelijkheden

SEO & Content Marketing Bureau Connect your World

Dr. J. Presserstraat 313
Den Haag, Nederland 2552 LW
Telefoon: +31641226543
E-mail: info@connectyourworld.nl

Gratis SEO tools

Er zijn tal van gratis SEO tools zoals Google Bedrijfsprofiel of Google Search Console. Dit zijn belangrijke tools om uw website verder te verbeteren en bovenaan in Google te komen. U kunt ook onze SEO checklist gebruiken met de beste SEO tips van Connect your World.

1
Connect your World
1
Hoe kan ik je helpen? Connect your World kan je helpen met het beter vindbaar maken van je website. Informeer naar de mogelijkheden of vraag direct een gratis SEO scan aan.