• 06-41226543
  • info@connectyourworld.nl

Technische SEO Optimalisatie

SEO migratie checklist

SEO migratie checklist 2024

SEO migratie checklist

Het omgaan met website migraties zonder verlies van SEO-waarde – Inleiding

Website migraties, of het nu gaat om redesigns, platformwijzigingen of domeinveranderingen, zijn cruciale momenten in de levenscyclus van een website. Echter, de mogelijkheid van een migratie kan ook angsten triggeren over het verliezen van hard verdiende SEO-waarde. Het nauwkeurig en zorgvuldig navigeren door deze overgangen is essentieel om zoekranglijsten, gebruikerservaring en over het algemeen online succes te behouden. In deze uitgebreide SEO migratie checklist zullen we ingaan op het belang van het omgaan met website migraties, gemeenschappelijke uitdagingen onderzoeken, en strategieën onthullen voor het uitvoeren van naadloze migraties die uw SEO – waarde behouden en uw digitale aanwezigheid vooruit helpen.

Geschatte leestijd: 5 minuten

Het belang van strategische website migraties

Website migraties hebben het potentieel om uw online aanwezigheid te verbeteren of tot aanzienlijke tegenslagen te leiden. Deze overgangen kunnen zoekmachineranglijsten, verkeer, gebruikersbetrokkenheid en zelfs inkomsten beïnvloeden. Het is essentieel om migraties strategisch aan te pakken, waarbij de integriteit van SEO prioriteit krijgt om ervoor te zorgen dat uw website zijn hard verdiende zichtbaarheid en autoriteit behoudt. Lees daarom onze SEO migratie checklist aandachtig door!

Begrip van gemeenschappelijke migratietypes

SEO migratie checklist – Redesign migraties

Bij een redesign kunnen veranderingen in de site-structuur, URL’s en content van invloed zijn op zoekranglijsten en gebruikerservaring.

Platform migraties

Overstappen naar een nieuw content management systeem (CMS) of e-commerce platform kan leiden tot veranderingen in URL’s, codering en site-architectuur.

SEO migratie checklist – Domeinnaamwijzigingen

Het veranderen van uw domein kan van invloed zijn op zoekranglijsten, merkzichtbaarheid en gebruikerstrouw.

Strategieën voor succesvolle website migraties in onze SEO migratie checklist.

Grondige planning

Maak een uitgebreid migratieplan, dat elke stap, mogelijke risico’s en noodplannen beschrijft.

SEO analyse

Voer een diepgaande SEO audit uit van uw bestaande website om de sterke en zwakke punten te begrijpen en gebieden voor verbetering te identificeren.

URL-mapping

Maak een duidelijke mapping van oude URL’s naar nieuwe om ervoor te zorgen dat er een juiste omleiding (redirect) plaatsvindt en gebroken links worden voorkomen.

301 Redirects

Implementeer 301 redirects om zoekmachines en gebruikers van oude URL’s naar hun overeenkomstige nieuwe URL’s te leiden.

Testen op staging

Voer grondige tests uit op een staging-omgeving om potentiële problemen te identificeren en te verhelpen voordat de migratie live gaat.

Gestructureerde data en schema-markering

Zorg ervoor dat gestructureerde gegevens (structured data) correct zijn geïmplementeerd op de nieuwe website om rijke zoekresultaten te behouden.

Canonieke tags

Gebruik canonieke tags om zoekmachines te begeleiden bij het omgaan met dubbele content tijdens de migratie.

Content migratie

Migreer de inhoud zorgvuldig, waarbij ervoor wordt gezorgd dat deze de kwaliteit, opmaak en relevantie behoudt.

Bijwerken van XML sitemap

Genereer en dien een nieuwe XML sitemap in om ervoor te zorgen dat zoekmachines uw nieuwe URL’s correct indexeren.

Minimaliseren van downtime en impact

Tijd

Kies een tijd voor de migratie wanneer het websiteverkeer relatief laag is om de impact op gebruikers te minimaliseren.

Monitoren

Blijf de website na de migratie continu controleren om eventuele onverwachte problemen snel aan te pakken.

SEO migratie checklist – Google Search Console

Informeer Google over de migratie met behulp van de change of address tool voor domeinwijzigingen.

Herindiening van XML Sitemap

Dien de bijgewerkte XML sitemap in om zoekmachines te helpen de nieuwe URL’s te ontdekken en te indexeren.

Gebruikerservaring en bruikbaarheid

Gebruikerstesten

Geef prioriteit aan gebruikerservaring door grondige tests uit te voeren van het ontwerp, de navigatie en de functionaliteit van de nieuwe website.

Gebruikerscommunicatie

Informeer gebruikers over de aankomende veranderingen en verbeteringen om vertrouwen en betrokkenheid te behouden.

SEO-audit na migratie

Verkeer en ranglijsten monitoren

Volg het verkeer, de SEO rankings en de gebruikersbetrokkenheid van uw website na de migratie om eventuele afwijkingen te identificeren.

SEO migratie checklist – Problemen snel aanpakken

Als u problemen ondervindt zoals een daling in ranglijsten of andere problemen, pak deze dan snel aan om langdurige negatieve effecten te voorkomen.

Het navigeren van migraties met finesse – Conclusie

Website migraties vertegenwoordigen een delicate balans tussen verandering en continuïteit. Door migraties met een strategische mindset te benaderen, zorgt u ervoor dat uw website zijn SEO-waarde, gebruikerstrouw en zoekzichtbaarheid behoudt. Terwijl u de complexiteiten van verschillende migratietypes doorloopt, onthoud dat de essentie van uw digitale reis ligt in het behouden van de integriteit van de content, structuur en gebruikerservaring van uw website. Door een zorgvuldig geplande migratie uit te voeren met behulp van deze SEO migratie checklist, baant u de weg voor een digitale aanwezigheid die niet alleen veranderingen aanpast maar ook gedijt, waardoor duurzaam succes wordt gegarandeerd in het steeds veranderende landschap van SEO en online zichtbaarheid.

SEO specialist Den Haag

Herman Geertsema is een ervaren SEO freelancer en content marketeer uit Den Haag. Tevens is hij eigenaar van Connect your World, een SEO bureau in Den Haag. Connect your World voert opdrachten uit in de regio Den Haag en in de rest van Nederland zoals bijvoorbeeld als:

Interessante technische SEO blogs

HTTP statuscodes – wat zijn dat precies?

http statuscodes

HTTP statuscodes – Inleiding

In de wereld van webontwikkeling en SEO (Search Engine Optimization) spelen HTTP statuscodes een cruciale rol. Deze codes geven aan hoe een webserver reageert op een verzoek van een browser. Het begrijpen van deze codes is essentieel voor het beheren van de gebruikerservaring op je website en het optimaliseren van je SEO-strategie. In dit artikel zullen we dieper ingaan op enkele belangrijke HTTP-statuscodes, namelijk 301, 311, 401, 410, en 500. We ontdekken, wat ze betekenen en wanneer je ze moet gebruiken.

1. 301 Permanent Redirect

De HTTP-statuscode 301 geeft aan dat een bron permanent is verplaatst naar een nieuwe locatie. Dit is uiterst handig bij het wijzigen van URL’s op je website of bij het omleiden van verkeer van een oude naar een nieuwe pagina. 301-redirects zijn belangrijk voor SEO omdat zoekmachines de waarde en ranking van de oude pagina overdragen naar de nieuwe URL. Dit helpt je om organisch zoekverkeer vast te houden, wanneer je wijzigingen aanbrengt op je website.

2. 401 Unauthorized

De HTTP-statuscode 401 geeft aan dat de toegang tot een bepaalde bron op de website is geweigerd omdat de gebruiker niet over de juiste authenticatiegegevens beschikt. Dit wordt vaak gebruikt voor beveiligde delen van een website of wanneer een gebruiker moet inloggen, voordat ze toegang krijgen tot bepaalde content. Het is belangrijk om 401-statuscodes correct te implementeren om de veiligheid van je website te waarborgen.

3. 404 Statuscode

De HTTP-statuscode 404 wordt gebruikt om aan te geven, dat de server de opgevraagde bron niet heeft kunnen vinden. Dit betekent dat de webserver geen informatie kan vinden over de URL (Uniform Resource Locator), die de client heeft aangevraagd. De 404-statuscode wordt vaak weergegeven als een “Pagina niet gevonden” foutmelding in een webbrowser.

404 code

Wanneer een webpagina of een ander bronverzoek wordt gedaan en de server niet kan bepalen waar de gevraagde bron zich bevindt, of als de bron eenvoudigweg niet bestaat, zal de server een HTTP 404-statuscode retourneren om aan te geven dat de bron niet is gevonden. Dit gebeurt bijvoorbeeld als een gebruiker een URL typt die niet overeenkomt met een bestaande pagina op een website.

404 pagina

Web-ontwikkelaars kunnen aangepaste 404-pagina’s maken om gebruikers een nuttige foutmelding te tonen en hen te helpen navigeren naar andere delen van de website in plaats van ze gewoon een generieke foutmelding te tonen. Dit helpt de gebruikerservaring te verbeteren wanneer ze per ongeluk of opzettelijk naar niet-bestaande pagina’s navigeren.

4. 410 Gone

De HTTP-statuscode 410 geeft aan dat een bron permanent is verwijderd en niet meer beschikbaar is. In tegenstelling tot een 404-fout, waarbij wordt aangegeven dat de bron niet kan worden gevonden, geeft een 410-status aan dat de bron bewust is verwijderd. Dit kan nuttig zijn voor SEO, omdat zoekmachines begrijpen dat de pagina niet langer beschikbaar is en deze uit hun index kunnen verwijderen.

5. 500 Internal Server Error

De HTTP-statuscode 500 duidt op een interne serverfout. Dit betekent, dat er iets mis is gegaan aan de kant van de webserver bij het verwerken van het verzoek van de browser. Dit kan variëren van technische problemen tot databasefouten. Het is van cruciaal belang om 500-fouten snel op te lossen, omdat ze de gebruikerservaring negatief beïnvloeden en de zoekmachines kunnen waarschuwen voor mogelijke problemen op je website.

HTTP statuscodes – Conclusie

In conclusie zijn HTTP-statuscodes essentiële tools voor webontwikkelaars en SEO-experts. Het begrijpen van deze codes en het correct implementeren ervan kan helpen bij het behouden van zoekverkeer, het verbeteren van de gebruikerservaring en het oplossen van technische problemen op je website. Zorg ervoor, dat je deze statuscodes op de juiste manier gebruikt om je website te optimaliseren en ervoor te zorgen, dat deze goed presteert op zowel technisch als SEO-gebied.

SEO specialist Den Haag

Herman Geertsema is de freelance SEO specialist en eigenaar van SEO bureau Connect your World gevestigd in Den Haag. Hij is een zeer ervaren SEO consultant en content marketeer. Heeft u vragen over HTTP statuscodes? Of wilt u ons als SEO specialist inhuren? Neem dan contact met ons op!

Als freelance SEO specialist werkzaam in:

Interessante blogs

SEO & Content Marketing Bureau Connect your World

Dr. J. Presserstraat 313
Den Haag, Nederland 2552 LW
Telefoon: +31641226543
E-mail: info@connectyourworld.nl
Google E.E.A.T, EEAT, SEO

Google EEAT is het nieuwe EAT 

Google E.E.A.T, EEAT, SEO

EEAT in Google

EEAT (of Double-EAT) is een concept dat door menselijke kwaliteitsbeoordelaars wordt gebruikt om de zoekrangschikkingssystemen van Google te evalueren. Oorspronkelijk bestond het uit slechts drie factoren (EAT). Maar in december 2022 voegde Google het criterium ‘ervaring’ toe aan het concept. Dus volgens Google moeten sommige soorten content worden geproduceerd met ervaring uit de eerste hand om betrouwbaar te zijn. Dit is wat dat betekent voor SEO.

Geschatte leestijd: 7 minuten

Is Google EEAT een rangschikkingssignaal?

Nee, in ieder geval niet direct. Hier is niets veranderd sinds het oorspronkelijke concept van EAT: 

Deze richtlijnen worden door onze zoekbeoordelaars gebruikt om de prestaties van onze verschillende zoekrangschikkingssystemen te helpen evalueren, en ze hebben geen directe invloed op de rangschikking.

Het algemene idee van Google hier is om content van hoge kwaliteit te belonen met hogere SEO rankings, die afkomstig is van vertrouwde bronnen. De boodschapper is dus minstens zo belangrijk als de boodschap. 

Hoe Google ervaring begrijpt

Ervaring in de Double-EAT betekent uit de eerste hand of levenservaring in het onderwerp. Dit betekent, dat Google ernaar streeft pagina’s te ‘belonen’ waar de auteur het onderwerp waarover hij schrijft daadwerkelijk heeft ervaren. Bijvoorbeeld:

  • Voor een iPhone-recensie moet de auteur het product daadwerkelijk hebben gebruikt.
  • Voor een gids over de beste jazzbars in Amsterdam moet de auteur ze daadwerkelijk hebben bezocht.
  • Voor een artikel over hoe je mensen kunt helpen om mentaal met een ziekte om te gaan, moet de auteur het persoonlijk hebben meegemaakt en/of andere mensen hebben geholpen.
  • Voor een gids over hoe u succesvol kunt zijn in zaken… u snapt het wel. 

Ervaring versus andere criteria

Ongeacht het onderwerp van de pagina, het belangrijkste van alle criteria is de ‘T’ of betrouwbaarheid. Andere criteria, zoals expertise, autoriteit en ervaring, zijn er om te helpen bepalen of de pagina betrouwbaar is. De andere criteria kun je zien als pijlers voor het scheppen van vertrouwen. Vervolgens komen er, afhankelijk van het onderwerp, andere criteria om de hoek kijken. Voor sommige onderwerpen kan ervaring belangrijker zijn dan voor andere. 

U moet het doel, het type en het onderwerp van de pagina overwegen en uzelf vervolgens afvragen wat de maker van de content in die context tot een betrouwbare bron zou maken.

Een persoonlijke reisblog hoeft bijvoorbeeld niet door een expert te zijn geschreven om betrouwbaar te zijn. Omgekeerd is een gids over doe-het-zelf-autoreparaties betrouwbaarder als deze afkomstig is van een automonteur. Het is vermeldenswaard het verschil tussen ervaring en expertise. Deskundigheid gaat over kennis en vaardigheden. Om dat op te doen heb je natuurlijk ook ervaring nodig. Maar:

  • Het werkt niet andersom. Ervaring alleen maakt je nog geen expert. 
  • Ervaring hoeft niet voort te komen uit expertise. 

Over wat voor soort onderwerpen gaat de nieuwe “E” in Google EEAT?

Er werd bevestigd, dat het oorspronkelijke concept van EAT alle onderwerpen betrof. Met de toevoeging van ervaring lijkt Google dat te herhalen door te zeggen: “Ervaring is waardevol voor bijna elk onderwerp”. Ervaring telt ook voor YMYL-onderwerpen (Your Money or Your Life). Maar deze categorie onderwerpen,waar Google speciale aandacht aan besteedt, is niet voorbehouden aan experts. Met andere woorden, als persoonlijke ervaring fundamenteel is om vertrouwen in het onderwerp te wekken, hoeft de auteur geen expert te zijn. 

Hoe ervaring aantonen

Hier zijn enkele ideeën over hoe u ervaring uit de eerste hand met uw content kunt demonstreren. Houd er rekening mee, dat deze gebaseerd zijn op een interpretatie van de richtlijnen van Google; misschien vind je ook andere manieren. 

Toon bewijs van persoonlijke ervaring met het onderwerp 

Laten we bijvoorbeeld product recensies nemen. Google heeft onlangs de uitbarsting van aangesloten websites die product recensies van lage kwaliteit hosten, aangepakt. Het zegt in feite dat het het beste is als de beoordelingen zijn gemaakt door experts op het gebied van het onderwerp. Het is echter niet genoeg om te bewijzen, dat u een expert bent. U moet bewijs kunnen overleggen van uw ervaring uit de eerste hand met het beoordeelde product of dienst. 

Lever bewijs zoals beeldmateriaal, audio of andere links van uw eigen ervaring met het product, om uw expertise te ondersteunen en de authenticiteit van uw beoordeling te versterken.

Leg uit hoe je de content hebt gemaakt 

Maak in de geschreven content een opmerking over hoe deze is gemaakt. Daarmee kunt u uw ervaring uit de eerste hand demonstreren.  

Demonstreer uw ervaring op een speciale pagina

Theoretisch hoef je niet elke keer, dat je erover schrijft je ervaring met het onderwerp te laten zien. Dat komt omdat Google kwaliteitsbeoordelaars adviseert om te kijken naar wat de auteur over zichzelf zegt. Overweeg dus om uw persoonlijke ervaring met het onderwerp uit te leggen op een ‘over’-pagina en zelfs een link naar uw sociale media profielen te maken als deze aanvullend bewijs leveren. Je kunt het natuurlijk samen doen met andere methoden om ervaring aan te tonen.

Uw reputatie telt voor het Google EEAT algoritme

Kwaliteitscijfers worden ook aangemoedigd om buiten uw site te kijken naar tekenen van ervaring (en vertrouwen in het algemeen). 

Zoek naar onafhankelijke beoordelingen, referenties, nieuwsartikelen en andere bronnen van geloofwaardige informatie over de website of makers van de content.

Je zou bijvoorbeeld een actuele inhoudsopgave van persvermeldingen aan je website kunnen toevoegen. Stel je voor, dat je dat vergelijkt met een compleet nieuwe blog over hetzelfde onderwerp, waar nog niemand van heeft gehoord – wat is betrouwbaarder? 

Een van de manieren waarop een zoekmachine die informatie kan afleiden, is door SEO backlinks naar een site te volgen. Goede backlinks en vermeldingen waren namelijk substantieel voor het oorspronkelijke EAT-concept. Dat is waarschijnlijk niet veranderd met de introductie van ervaring.

Als je de ervaring niet hebt, nodig dan iemand uit die die wel heeft 

Het feit, dat de auteur van de pagina ervaring moet aantonen, betekent niet, dat de eigenaar van de website dat ook moet doen. Dit betekent, dat je toch ervaring kunt aantonen over onderwerpen, waar je die persoonlijk niet hebt door gastauteurs of gastsprekers uit te nodigen. 

Kort gezegd: maak uw site betrouwbaar en zet in op Google EEAT 

De toevoeging van ervaring aan de vergelijking opent de categorie YMYL-onderwerpen voor videomakers met persoonlijke ervaring. Aan de andere kant legt het de lat hoger voor onderwerpen waar dit soort ervaring fundamenteel is. In ieder geval is dit weer een poging van Google om nuttigere, relevantere resultaten weer te geven door onbetrouwbare pagina’s eruit te filteren. Het draait nog steeds allemaal om vertrouwen: 

Ten slotte zijn er veel aspecten van vertrouwen, waarvan sommige niet onder ervaring, expertise en autoriteit vallen. Houd rekening met andere aspecten in uw algehele vertrouwensbeoordeling, zoals klantenservice-informatie voor online winkels of collegiaal getoetste publicaties voor academische auteurs. Als een pagina om welke reden dan ook onbetrouwbaar is, heeft deze een lage EEAT

Slot conclusies

Tot slot: met de introductie van EEAT heeft Google de gids voor zelfbeoordeling van de inhoudskwaliteit geüpdatet. SEO specialisten en content marketeers kunnen het gebruiken als hulpmiddel om content af te stemmen op Google EEAT. 

Google EEAT en AI

Voor uitgevers, die AI gebruiken voor het genereren van content, adviseert Google bijvoorbeeld om het gebruik van automatisering aan de lezer bekend te maken. Google is namelijk niet tegen AI-content). Maar daarvoor moet je je afvragen of het gebruik van AI om content te produceren door de gebruiker als redelijk kan worden gezien. 

SEO specialist Den Haag

Herman is een zeer ervaren content marketeer en SEO specialist freelancer en de eigenaar van Online marketing bureau Connect your World. Inmiddels heeft hij voor honderden bedrijven website teksten geschreven en hun websites geoptimaliseerd voor SEO. Connect your World is werkzaam in de volgende regio’s:

SEO specialist inhuren

U kunt een SEO specialist en content marketeer inhuren door te klikken op onderstaande button.

SEO & Content Marketing Bureau Connect your World

Dr. J. Presserstraat 313
Den Haag, Nederland 2552 LW
Telefoon: +31641226543
E-mail: info@connectyourworld.nl

Psst! Nog iets anders interessants lezen? Neem dan deze blog post over microsites en landingspagina’s door of How to use Chat GPT for SEO optimized content.

Google core web vitals. SEO Den Haag

Google core web vitals – meten is weten

Google core web vitals. SEO Den Haag

Core Web Vitals

Wat zijn Google Core Web Vitals?

Core Web Vitals zijn een reeks gestandaardiseerde statistieken van Google die ontwikkelaars helpen begrijpen hoe gebruikers een webpagina ervaren. Hoewel Core Web Vitals is gemaakt voor ontwikkelaars, kunnen deze tools door alle site-eigenaren worden gebruikt omdat ze de echte ervaring van de gebruiker op een pagina weergeven.

Geschatte leestijd: 13 minuten

Core web vitals pushen gebruikerservaring

Google Core Web Vitals zijn een reeks gestandaardiseerde statistieken van Google, die ontwikkelaars helpen begrijpen, hoe gebruikers een webpagina ervaren. Hoewel Core Web Vitals is gemaakt voor ontwikkelaars, kunnen deze tools door alle website eigenaren worden gebruikt. Dit komt doordat ze de echte ervaring van de gebruiker op een pagina weergeven.

3 problemen bij Google core web vitals

Core Web Vitals identificeren problemen met de gebruikerservaring door een statistiek te genereren voor drie primaire gebieden van gebruikerservaring, waaronder:

  • Prestaties bij het laden van pagina’s
  • Gemakkelijke interactie
  • Visuele stabiliteit van een pagina vanuit het perspectief van een gebruiker

Elk van deze statistieken biedt hun eigen perspectief op verschillende elementen, die van invloed zijn op hoe gebruikers omgaan met en omgaan met een website. Hoewel ontwikkelaars vanuit een holistisch perspectief moeten nadenken over ‘gebruikerservaring’, helpen deze onafhankelijke statistieken om de verschillende variabelen in kleinere stukjes op te splitsen. Op die manier kunnen site-eigenaren technische problemen op hun website identificeren en oplossen.

Gebruikerservaring bestaat uit meer dan de Google Core web vitals

Het is belangrijk om te onthouden, dat deze statistieken niet het hele verhaal vertellen over de gebruikerservaring op een website. Elke statistiek kan worden samengevoegd om ontwikkelaars te helpen problemen op een efficiënte en methodische manier op te lossen. Laten we eens kijken naar de drie belangrijkste meetwaarden in Core Web Vitals om uw websites vandaag nog te verbeteren!

1. Grootste contentvolle verf (LCP)

Largest Contentful Paint is een Google Core Web Vitals statistiek, die site eigenaren kunnen gebruiken om de gebruikerservaring te beoordelen en te zien of een gebruiker een pagina nuttig zal vinden. Dit doen zij op basis van de weergavetijd van de grootste blokken, die zichtbaar zijn voor een publiek. Website eigenaren hebben pagina’s op hun website nodig, die snel laden om een ​​plezierige gebruikerservaring te creëren. Niet alleen is de laadtijd een kritische factor voor een positieve gebruikerservaring, een pagina die snel laadt, heeft ook een grotere kans om hoger te scoren in Google. Bovendien is aangetoond, dat zeer snelle laadtijden van invloed zijn op de betrokkenheid en conversiepercentages in vergelijking met een pagina met langzame laadtijden.

Google core web vitals, website snelheid, SEO bureau Den Haag

Wat meet LCP?

LCP meet de tijd, die nodig is, om verschillende content blokken te laden in de gebruikersviewport (huidige scherm). Deze statistiek vertelt u alleen hoe snel inhoudssecties worden weergegeven op het zichtbare scherm. Er wordt niets onder de vouw overwogen.

  • Afbeeldingen
  • Afbeeldingen van videoposters
  • Achtergrondafbeeldingen
  • Tekst op blokniveau

Website eigenaren moeten streven naar LCP binnen 2,5 seconden, nadat een pagina begint te laden.

2. Cumulatieve lay-outverschuiving (CLS)

Site eigenaren moeten het zo gemakkelijk mogelijk maken om met links en knoppen op een site om te gaan om verkopen en conversies te stimuleren. Cumulatieve lay-outverschuiving is een statistiek, die links of knoppen identificeert, die verschuiven nadat een webpagina is geladen. Het weerspiegelt de moeilijkheidsgraad, die gebruikers zullen ervaren, wanneer ze proberen om elementen op uw website te gebruiken, zodra een pagina wordt weergegeven.

UX design

UX en design zijn essentiële componenten van een goede gebruikerservaring. Een gebruiker zal gefrustreerd raken als een webpagina elementen verschuift, terwijl een gebruiker aan het lezen is. CLS helpt ontwikkelaars te bepalen of afbeeldingen of links op de pagina verschuiven, zodat website eigenaren de bruikbaarheid kunnen verbeteren, de klikfrequenties kunnen verhogen en de online verkoop kunnen verbeteren.

Google core web vitals, website snelheid, SEO bureau Den Haag

Wat meet CLS?

CLS meet of elementen in de zichtbare viewport van hun startpositie tussen twee gerenderde frames verschuiven. In eenvoudige bewoordingen helpt deze statistiek site-eigenaren te begrijpen of content zoals tekst, knoppen en banners wordt rond geduwd terwijl een gebruiker content op een bepaalde pagina leest.

Visuele stabiliteit

Elementen die van positie veranderen, kunnen ervoor zorgen, dat gebruikers in de war raken en hun ervaring op een pagina belemmeren. Het is dus belangrijk om ervoor te zorgen, dat alle content op zijn plaats blijft, nadat een pagina op het apparaat van de gebruiker is geladen. CLS kijkt naar kernstatistieken om de visuele stabiliteit van een pagina vanuit een gebruikersperspectief te bepalen door rekening te houden met verschillende factoren:

  • Lay-outverschuiving
  • Impactfractie
  • Afstand breuk

Website eigenaren moeten een CLS van 0,1 of minder handhaven.

3. Eerste ingangsvertraging (FID)

Online consumenten willen pagina’s, die snel zijn en gemakkelijk om mee om te gaan. Eerste invoervertraging meet de invoerlatentie (de tijd die een pagina-element nodig heeft om te reageren op de invoer van een gebruiker) om pagina’s te identificeren, die frustratie bij uw publiek kunnen veroorzaken.

Moderne websites gebruiken een reeks geavanceerde technologieën en dynamische content widgets om content aan hun publiek te leveren. Hoewel dit type content de levering van content kan verbeteren, kunnen deze verbeteringen vertragingen veroorzaken, waardoor een gebruiker moet wachten tot zijn browser reageert op zijn invoer. Ontwikkelaars moeten de tijd die gebruikers besteden aan het wachten op een browser om te reageren op hun input verminderen om de betrokkenheid en bruikbaarheid op de hele site te verbeteren.

Wat meet FID?

FID meet hoe responsief een pagina is bij het laden van elementinvoer van een gebruiker. Dit betekent dat FID alleen gebeurtenissen zoals klikken en toetsaanslagen registreert. Website eigenaren moeten streven naar een goede gebruikerservaring met FID van minder dan 100 milliseconden. Opgemerkt moet worden dat FID moeilijk te meten is, omdat deze gegevens alleen in het veld kunnen worden gemeten. Dit betekent, dat je score afhankelijk is van variabelen, waar je geen controle over hebt, Denk bijvoorbeeld aan zaken zoals apparaat capaciteit van gebruikers en internetsnelheden zoals ervaren door je publiek.

Andere prestatiestatistieken

Zoals we hebben besproken, biedt Core Web Vitals een schat aan informatie die ontwikkelaars kunnen gebruiken om hun websites te verbeteren voor de gebruikerservaring. Naast de belangrijkste hierboven genoemde statistieken, kunnen ontwikkelaars ook begrijpen hoe hun code van invloed is op de manier waarop gebruikers content op hun site consumeren. Laten we daarom een paar andere statistieken bekijken, die u kunt gebruiken om de ervaring te begrijpen bezoekers op uw site hebben.

1. First content ful paint

First Contentful Paint (FCP) meet, hoe lang het duurt voordat de browser van een gebruiker DOM-elementen (afbeeldingen, niet-witte <canvas>-elementen en SVG’s) weergeeft. Deze statistiek identificeert render blokkerende bronnen en wordt gemeten in seconden, met een reeks FCP-scores:

  • 0-2 seconden: Groen (snel)
  • 2-4 seconden: Oranje (matig)
  • 4+ seconden: Rood (langzaam)

2. Snelheidsindex

Snappy-websites bieden verbeterde online-ervaringen en Speed ​​Index (SI) toont u de gemiddelde tijd die content op uw site nodig heeft om aan een gebruiker te worden weergegeven. Deze statistiek identificeert buitensporig JavaScript op een pagina en wordt gemeten in milliseconden, met een reeks SI-scores:

  • 0–4,3 seconden: Groen (snel)
  • 4,4-5,8 seconden: Oranje (matig)
  • 5,8+ seconden: Rood (langzaam)

3. Tijd voor interactief

Time to Interactive (TTI) is de hoeveelheid tijd, die nodig is, voordat de content op een pagina functioneel wordt voordat deze volledig interactief is. TTI helpt u bij het identificeren van pagina’s met onnodig JavaScript en wordt gemeten in seconden, met een reeks TTI-scores:

  • 0-3,8 seconden: Groen (snel)
  • 3,9–7,3 seconden: Oranje (matig)
  • 7,3+ seconden: Rood (langzaam)

4. Totale blokkeertijd

Total Blocking Time (TBT) helpt website eigenaren te beoordelen, hoe lang een webpagina reageert op specifieke gebruikersinvoer. Deze statistiek identificeert pagina’s met onnodig JavaScript en wordt gemeten in milliseconden met een reeks TBT-scores:

  • 0–300 ms: Groen (snel)
  • 300-600 ms: Oranje (matig)
  • 600+ ms: Rood (langzaam)

5. Paginaprestatiescores

Een paginaprestatiescore is een enkele statistiek, die alle belangrijke gebruikerservaring statistieken in Core Web Vitals in aanmerking neemt. Deze score maakt gebruik van een geaggregeerd scoresysteem voor alle mobiele en desktopbezoeken. Er is een gewogen gemiddelde nodig om één enkele score te geven om pagina’s te begrijpen, die snel nader moeten worden onderzocht. Hoewel deze statistieken zijn vereenvoudigd in de statistiek Pagina prestatiescore, kunnen ontwikkelaars scores in elke categorie raadplegen op basis van de specifieke score van 90 (goed), 50-90 (verbetering nodig) en lager dan 50 (slecht).

Hebben Core Web Vitals invloed op SEO als rankingfactor?

In juni 2021 ging Google Core Web Vitals gebruiken als ranking factor. Deze statistieken kunnen daarom van invloed zijn op uw SEO prestaties. Core Web Vitals zal deel uitmaken van  de nieuwe Page Experience signalen , samen met HTTPS beveiliging, veilig browsen, mobielvriendelijkheid en opdringerige richtlijnen voor interstitial.

De impact of Google Core Web Vitals

Google Core Web Vitals heeft invloed op zowel mobiele als desktop organische resultaten, evenals op het al dan niet verschijnen van uw site in Top Stories. Voorheen moest je site AMP gebruiken om in Top Stories te verschijnen. Dat zal niet langer het geval zijn, wanneer Google de wijziging uitrolt. Uw website moet echter wel aan specifieke minimale Google Core Web Vitals scores voldoen om in Top Stories te verschijnen. Bovendien lijkt het erop dat aan alle Core Web Vitals-statistieken moet worden voldaan om de organische ranking te verbeteren. En de Core Web Vitals-score voor niet-geïndexeerde pagina’s kan er ook toe doen. Kortom: als u om uw SEO prestaties geeft, is het verbeteren van uw Core Web Vitals scores nu verplicht.

Google Core Web Vitals testen en meten op WordPress

U kunt de Core Web Vitals testen en meten met alle tools van Google voor webontwikkelaars, van PageSpeed ​​Insights tot de Chrome DevTools, het CrUX-rapport en nog veel meer.

Google Core web vitals. SEO specialist inhuren

Het Google Core Web Vitals rapport lezen op Search Console

Als u problemen met uw site als geheel wilt diagnosticeren, moet u het Core Web Vitals-rapport in Google Search Console gebruiken. Het rapport is gebaseerd op een verzameling echte gebruikersgegevens van CrUX. Om deze reden kan het even duren, voordat de gegevens in het rapport worden gerapporteerd. Daarom is de Lab Data van Lighthouse altijd waardevol. Dat gezegd hebbende, het Core Web Vitals-rapport is geweldig om de groepen pagina’s te identificeren, die aandacht nodig hebben – zowel voor desktop als mobiel. Zodra u het rapport opent, vindt u een tabblad Details, dat de URL-prestaties groepeert op basis van verschillende criteria:

  • Status (slecht of verbetering nodig)
  • Metriektype (bijv. CLS-probleem: meer dan 0,25 (desktop))
  • URL-groep (de lijst met URL’s met vergelijkbare prestaties).

Zodra u de URL’s, die verbeterd moesten worden, heeft gecorrigeerd, kunt u ook op de kolom Validatie klikken en verder gaan met de optie “Fix valideren”. Houd er rekening mee, dat het validatieproces tot twee weken duurt – wees geduldig!

Hoe Google Core Web Vitals op WordPress te verbeteren

Nu voor de cruciale vraag: als u momenteel niet voldoet aan de aanbevelingen van Google voor de drie Core Web Vitals-statistieken, hoe kunt u uw WordPress-site dan optimaliseren om uw Core Web Vitals-scores te verbeteren? De strategieën zijn verschillend voor elke statistiek. De meeste optimalisaties omvatten het implementeren van best practices voor WordPress-prestaties, zij het met een paar aandachtspunten – en daarom zal het kiezen van de beste WordPress-caching-plug- in u helpen zonder enige inspanning van uw kant.

Google Core web vitals verbeteren in WordPress

Pagina caching instellen

Pagina caching versnelt, hoe snel uw server kan reageren en verkort de serverresponstijden (TTFB). Wist u, dat WP Rocket dit automatisch aanzet?

Optimaliseer browser caching

U moet de juiste optie instellen voor de statische bestanden, die uw browser in de cache bewaart. Door dit te doen, gaat u in op de aanbeveling van PageSpeed ​​Insights ” Serveer statische middelen met een efficiënt cachebeleid “. Raad eens? WP Rocket zorgt automatisch voor de optimale houdbaarheidsdatum.

Optimaliseer uw afbeeldingen

Vaak zal uw LCP-element een afbeelding zijn. Door uw afbeeldingen te optimaliseren , wordt uw site sneller en worden website snelheid aanbevelingen aangepakt, zoals ‘Afbeeldingen op de juiste maat’, ‘ Afwijkende afbeeldingen uitstellen ‘, ‘Afbeeldingen weergeven in next-gen-indelingen’ en ‘Afbeeldingen efficiënt coderen’. U kunt  Imagify of Smush Pro gebruiken om WordPress afbeeldingen automatisch te optimaliseren.

Optimaliseer uw code 

Het laden van onnodige CSS- of JavaScript bestanden vóór uw hoofd content vertraagt ​​de laadtijd. U kunt dit oplossen door middelen voor het blokkeren van renderen op uw WordPress-site te elimineren . U moet ook CSS- en Javascript-bestanden verkleinen en ongebruikte CSS verwijderen. Door uw code te optimaliseren, kunt u voldoen aan de aanbeveling “Vermijd het koppelen van kritieke verzoeken” PageSpeed. Nogmaals, u krijgt het meeste werk gedaan door deze optimalisaties in te stellen op het tabblad Bestandsoptimalisatie in WP Rocket.

Gebruik compressie op serverniveau 

Het gebruik van Gzip- of Brotli-compressie zal de bestandsgrootte van uw site verkleinen, wat LCP versnelt en de aanbeveling “Tekstcompressie inschakelen” aanpakt. WP Rocket schakelt automatisch Gzip-compressie in .

Gebruik preconnect voor belangrijke bronnen

Met Preconnect kunt u in een vroeg stadium belangrijke verbindingen met derden tot stand brengen en voldoet het aan de aanbevelingen voor ‘ Preload key requests ‘ en ‘Preconnect to required origins’. 

Gebruik een content delivery network (CDN)

Als u een wereldwijd publiek heeft, kan een CDN uw LCP-tijd voor bezoekers over de hele wereld versnellen. Het is een andere effectieve manier om de Time to First Byte (TTFB) te verminderen. U kunt gebruik maken van  onze RocketCDN-service .

WP Rocket

De eenvoudigste manier om de meeste van deze best practices te implementeren, is door WP Rocket te gebruiken. WP Rocket past automatisch pagina caching en compressie op serverniveau toe, zodra u deze activeert. Het bevat ook andere functies om u te helpen de code en prestaties van uw site te optimaliseren, die allemaal uw LCP-tijd verbeteren.

Blog posts Connect your World

SEO specialist Den Haag

Herman Geertsema is de eigenaar van Connect your World een SEO bureau in Den Haag. Hij is een zeer ervaren SEO freelancer en Content marketeer. Heeft u nog vragen over de Google core web vitals? Of wilt u ons als SEO specialist inhuren? Neem dan contact met ons op. Online marketing bureau Connect your World heeft de afgelopen jaren diverse projecten succesvol afgerond in de volgende regio´s:

SEO & Content Marketing Bureau Connect your World

Dr. J. Presserstraat 313
Den Haag, Nederland 2552 LW
Telefoon: +31641226543
E-mail: info@connectyourworld.nl

De Sitemap XML als Tom Tom – Handleiding

XML Sitemap, SEO Den Haag, Google Search Console

Sitemap XML – inleiding

In deze blog post gaan we het hebben over de XML sitemap. Eerst leggen we uit wat de XML sitemap precies is. We gaan in op de verschillen tussen de XML sitemap van Yoast en van WordPress. Tot slot laten we zien, waar je de XML sitemap voor Google van jouw eigen website kunt bekijken.

Geschatte leestijd: 4 minuten

Wat is een XML sitemap?

Een XML sitemap ziet er uit als een lijst met alle belangrijke pagina’s van jouw website. Op deze manier weet Google precies hoeveel en welke pagina’s er gecrawld moeten worden.

Waarom is een sitemap XML belangrijk?

Een vraag die misschien opkomt is waarom Google een XML sitemap nodig heeft, als Google ook gewoon de links op jouw website kan volgen. Aan de ene kant is het een soort van back-up plan. Is je interne link structuur om wat voor reden dan ook een rommeltje? Dan heb je altijd een overzichtelijke routekaart als Tom Tom. Aan de andere kant zorgen ze ervoor, dat zoekmachines sneller nieuwe content op je website kunnen vinden. Met een kaart vind je nu eenmaal sneller de weg dan zonder kaart.

XML sitemaps in Yoast SEO

Omdat ze belangrijk zijn voor je website, maakt de Yoast SEO plugin die automatisch voor je aan. Een voordeel van deze sitemap is, dat er gebruik gemaakt van sub categorieën. Dit zijn bijvoorbeeld categorieën zoals berichten, pagina’s, categorieën en auteurs. De structuur is op die manier direct duidelijk. Ook is er een categorie afbeeldingen beschikbaar. Zo kunnen de crawlers deze ook direct meenemen tijdens het crawlen. Achter elke URL staat bovendien een datum. Dankzij deze datum weet de zoekmachine precies welke pagina’s zijn toegevoegd of aangepast sinds zijn vorige bezoek. Zijn er pagina’s niet veranderd? Dan worden deze pagina’s ook niet meegenomen tijdens het crawlen.

SEO Yoast – XML sitemap

Als Yoast SEO een sitemap voor je aanmaakt, wordt deze direct op een handige plek gezet. Als je wilt , dat de zoekmachine die van jouw website nog sneller vindt, kun je hem toevoegen aan Google Search Console of Bing Webmaster Tools.

XML sitemaps van Yoast SEO bekijken of uitschakelen

Ben je benieuwd hoe jouw sitemap eruit ziet? Je kunt hem bekijken via een link in het tabblad functies van de Algemene instellingen van Yoast SEO.

XML Sitemap, SEO Den Haag, Google Search Console

XML Sitemap van WordPress

Als je WordPress 5.5 of hoger gebruikt, dan maakt WordPress automatisch een sitemap voor je aan. Die van Yoast wordt echter als veel krachtiger gezien en heeft daarom de voorkeur. De sitemap van Yoast is flexibeler in gebruik. Je kan heel gemakkelijk bepalen, wat er wel en wat niet in de sitemap komt.

SEO blogs van Connect your World

SEO specialist Den Haag

Herman Geertsema is de eigenaar van Online marketing bureau Connect your World gevestigd in Den Haag. Hij is een zeer ervaren SEO expert en content marketeer.

SEO specialist inhuren

U kunt bij Connect your World een SEO specialist, content marketeer en Google Ads specialist inhuren in de volgende regio’s: Den Haag, Amsterdam, Rotterdam, Utrecht, Leiden, Zoetermeer, Westland, Delft, Rijswijk en Breda.

SEO & Content Marketing Bureau Connect your World

Dr. J. Presserstraat 313
Den Haag, Nederland 2552 LW
Telefoon: +31641226543
E-mail: info@connectyourworld.nl

Waarom is structured data in SEO belangrijk?

Structured Data, SEO specialist Den Haag, SEO Den Haag

SEO structured data – Inleiding

In deze blog post gaan we het hebben over structured data. Wat is structured data precies? Waarom is structured data belangrijk voor SEO? Hoe kan de Yoast SEO Premium plugin helpen bij het toepassen van structured data in SEO? En wat is de impact van structured data op uw Google rankings? Extra aandacht besteden we hierbij aan het kruimelpad.

Geschatte leestijd: 7 minuten

Wat is structured data?

Door structured data code aan uw webpagina’s toe te voegen, helpt u de zoekmachines zoals Google om uw content beter te begrijpen. Mensen hebben die aanwijzingen niet nodig. We hebben al op jonge leeftijd geleerd om bepaalde elementen in een tekst te herkennen. Als u ons een recept voor Macaroni laat zien, kunnen we vrijwel direct de ingrediënten aanwijzen. Voor een zoekmachine zoals Google of Bing is dat veel moeilijker. Met structured data maken we onze content begrijpelijk voor zoekmachines.

Wat zijn rich snippets?

Rich snippets zorgen voor visueel meer aantrekkelijke zoekresultaten. U voegt toe en licht speciale onderdelen uit om meer op te vallen. Een bekend voorbeeld zijn de review sterretjes.

Wat zijn rich cards?

Rich cards zijn eigenlijk een nieuwe soort rich snippets. Met behulp van rich cards maakt u de zoek resultaten nog een stukje groter. Zo vallen uw zoekresultaten nog meer op.

structured data, schema

De voordelen van gestructureerde gegevens

  • U gaat meer opvallen in de zoekresultaten. Daardoor maakt u het aantrekkelijker om door te klikken naar uw website. Meer bezoekers op uw website heeft daarmee indirect een positieve impact op de SEO van uw website.
  • Google begrijpt uw content beter, als u uw web pagina of website markeert met gestructureerde gegevens.
  • Mooi uitziende zoekresultaten verleiden de bezoeker om uw product of dienst aan te schaffen. Het aantal conversies zal dan ook omhoog gaan.

Structured data en rich results

Door structured data code aan een web pagina toe te voegen, geeft u zoekmachines namelijk niet alleen de kans om uw content beter te begrijpen, maar ook om deze beter te laten presenteren.

Schema.org

Voor elk type content heeft u een andere set code nodig. Die sets of schema’s worden verzameld op de website www.schema.org. Dit is een soort van bibliotheek of catalogus met heel veel voorbeeldschema’s. Het mooie is echter, dat als u Yoast SEO gebruikt, er automatisch structured data code aan uw webpagina’s wordt toegevoegd.

Veel gebruikte Schema types

De volgende schema’s worden veel gebruikt:

  • Recepten
  • Afbeeldingen
  • Video
  • Evenementen
  • Video
  • Persoon
  • Plaats
  • Restaurant
  • Product
  • Aanbieding
  • Beoordeling
  • Review
  • Lokaal bedrijf
  • Carrousels
  • FAQ

Structured data guidelines van Google

Wilt u precies weten hoe het zit met structured data? Dan moet u de Google Guidelines over structured data doornemen. De volgende punten kwamen naar voren:

  • Als u structured data niet correct toepast, dan heeft u de kans, dat Google een handmatige actie toepast op uw website, waardoor u geen voordeel behaalt met structured data.
  • Google kan niet garanderen, dat gestructureerde gegevens, ondanks een correct toepassing worden toegepast in de zoekresultaten. Via de Rich Results Test kunt u nagaan of u alles goed gedaan hebt. Ook met de URL inspectietool kunt u informatie terugvinden over de gestructureerde gegevens op een pagina.
  • Bij strutured data is het belangrijk om actuele informatie te tonen. Tijdsgevoelige content, die niet langer relevant is, wordt niet getoond.
structured data, SEO Den Haag

De Yoast SEO grafiek

De Yoast SEO plugin implementeert structured data code op een unieke manier. Er wordt namelijk niet alleen code aan verschillende elementen toegevoegd, maar die elementen worden ook in een gestructureerde grafiek verbonden. Op die manier hoeft de zoekmachine niet alle losse eindjes info zelf aan elkaar te koppelen. Eerst identificeert Yoast SEO om wat voor soort type pagina het gaat. Het is bijvoorbeeld een artikel. Dit artikel staat weer op een specifieke webpagina. De webpagina is weer onderdeel van een website en geschreven door een bepaalde auteur. Kortom de grafiek identificeert de verschillende elementen van uw content en maakt vervolgens duidelijk, hoe die elementen met elkaar samenhangen. Dit is super handig voor de zoekmachines.

Moet uzelf toevallig ook iets doen?

Het fijne van de structured data implementatie is, dat de Yoast plugin bijna alles automatisch voor u regelt. Het enige waar u even naar moet kijken, zijn uw instellingen.

Schema instellingen

Yoast SEO omschrijft uw pagina’s standaard met het schematype Webpagina en uw berichten met het schema type Artikel. U kunt deze instellingen wijzigen, maar meestal is dat niet nodig.

Schema instellingen in de Yoast SEO zij balk

Wilt u het schematype aanpassen voor een specifieke blog post of pagina? Bijvoorbeeld voor een contactpagina of een betaalpagina? Dan kunt u dat doen in de Yoast SEO zij balk.

Structured data blokken

Gebruikt u de block editor in WordPress? Dan kunt u ook de structured data blokken aan uw berichten en pagina’s toe voegen. Deze blokken voegen automatisch de juiste structured data code toe.

Yoast geschatte leestijd

Online heeft u maar heel kort de tijd om een goede eerste indruk te maken. In een paar seconden bepalen mensen of uw pagina de moeite van het verder lezen waard is. Veel mensen vinden het fijn om te weten hoe lang het gemiddeld duurt om een pagina te lezen. Met het geschatte leestijdsblok kunt u die informatie eenvoudig aan uw bericht of pagina toe voegen. Yoast SEO premium berekent dit op basis van de tekst lengte.

Yoast How-to

Hoe bouw ik een hut? Hoe knip ik de nagels van mijn kat? Online content met stapsgewijze instructies noemen we ook wel ‘how to content’. Als u deze artikelen voorziet van de juiste structured data code kunnen daar opvallende (mobiele) zoekresultaten uit voortkomen. Het ‘how to blok’ van Yoast SEO helpt u bij het opbouwen van een ‘how to artikel’ en het voegt automatisch de juiste code toe. Gebruik How to niet voor recepten, want deze hebben hun eigen structured data code.

Yoast FAQ

FAQ staat voor ‘frequently asked questions’. Veel websites hebben een pagina met veel gestelde vragen. Op zo’n pagina kunt u alle vragen zetten, die klanten regelmatig stellen over uw producten, uw diensten of uw bedrijf. Met behulp van de juiste structured data code kunnen deze vragen en antwoorden direct zichtbaar worden in de zoekresultaten.

Kruimelpad

Het kruimelpad laat aan bezoekers van uw website zien, waar zij zich bevinden op de website. Die broodkruimels zijn niet alleen handig voor gebruikers, maar ook voor Google. Het kruimelpad geeft de zoekmachine inzicht in de structuur van uw website. Maar daarvoor moet Google de broodkruimels wel kunnen herkennen. Yoast SEO helpt mee door automatisch structured data code aan uw kruimelpad toe te voegen. Deze code zorgt er uiteindelijk voor, dat de URL in uw snippet verrijkt wordt met een kruimelpad.

SEO specialist Den Haag

Herman Geertsema is de eigenaar van Connect your World, een Online marketing bureau in Den Haag. Hij is een zeer ervaren freelance SEO specialist en Content Marketeer.

SEO specialist inhuren

U kunt Herman als freelance content marketeer of SEO freelancer inhuren om hoger in Google te komen in de volgende regio’s: Den Haag, Amsterdam, Rotterdam, Utrecht, Leiden, Zoetermeer, Rijswijk, Delft, Schiedam, Vlaardingen, Zwijndrecht, Dordrecht en Breda.

Andere SEO blogs van Connect your World

Structured data – from relevant sources

SEO & Content Marketing Bureau Connect your World

Dr. J. Presserstraat 313
Den Haag, Nederland 2552 LW
Telefoon: +31641226543
E-mail: info@connectyourworld.nl

Redirects in SEO Zoekmachineoptimalisatie

Redirects, SEO Den Haag

Redirects inleiding

In deze blog post gaan we in op de verschillende soorten Redirects in SEO. Daarnaast leggen wij u uit wanneer u precies een 301 redirect maakt en hoe u dat precies aanpakt met behulp van de redirect manager in Yoast SEO Premium. Deze staat ook wel bekend als de WordPress redirect plugin.

Geschatte leestijd: 17 minuten

1. Pagina’s verwijderen

Iedereen, die een website onderhoudt krijgt te maken met redirects in SEO. Er komt nu eenmaal een moment, dat u webpagina’s gaat verwijderen. Er zijn alleen wel verschillende punten, waar u rekening moet gaan houden. Als u een pagina verwijdert van uw website, betekent dat nog niet, dat de webpagina ook uit de index van de zoekmachine verdwijnt. Website bezoekers kunnen uw webpagina nog steeds vinden via de zoekresultaten of via links op andere websites. Als uw websitebezoeker op een verwijderde webpagina terecht komt, krijgen ze een 404 foutmelding. Dit is vergelijkbaar met een wegversperring of met een lift buiten werking. Maar wat dan? Wat doet u als er opeens een wegversperring is? Waarschijnlijk verlaat u de website. Er zijn bijna altijd genoeg alternatieven.

2. 404 foutmeldingen

Wat gebeurt er eigenlijk als u een website of een webpagina bezoekt? U typt de URL van een website in de adresbalk in of u voert een zoekwoord in in zoekmachines zoals Google en Bing en klikt daaropvolgend op een zoekresultaat; meestal op de 1e pagina. De browser stuurt vervolgens een aanvraag naar het IP adres van de webpagina of website. De server van deze website geeft antwoord met een HTTP statuscode. Als alles prima werkt, geeft de server antwoord met de statuscode 200. Het is echter een ander verhaal, als de server een reactie geeft met een 404 statuscode. De opgevraagde webpagina kan niet gevonden worden.

3. Gebruikerservaring

Dit soort foutmeldingen zijn verwarrend en irritant voor de gebruikers. Dat is voldoende reden om dit soort fouten op te sporen en te verhelpen. Daarnaast geven dit soort foutmeldingen de zoekmachines zoals Google het idee, dat u uw website niet goed onderhoudt. Het belang van gebruikerservaring in SEO optimalisatie neemt de laatste jaren toe. Denk hierbij bijvoorbeeld aan de Core Web Vitals update.

4. De 301 Redirects in SEO

Met een redirect maakt u een omleiding om bij een andere locatie aan te kunnen komen. U gebruikt een statuscode om te communiceren, dat er sprake is van een 301 redirect. Deze webpagina kunt u niet meer met een bezoekje vereren via deze URL. Maar er is een alternatief voor handen. De bezoeker wordt vervolgens via een andere webpagina doorgeleid. Het spreekt voor zich, dat er sprake moet zijn van een relevante webpagina. Ook voor zoekmachines zoals Google en Bing zijn redirects in SEO meer dan welkom. Door de dode links kan een webcrawler niet veel doen. Zolang er geen instructies of aanwijzingen volgen om de oude URL te vervangen of te verwijderen, blijft de crawler steeds terug komen naar de oude URL van de webpagina. Met een 301 redirect kan het verkeer weer zonder veel problemen doorrijden.

5. Waarom u mogelijk redirects nodig heeft

Er zijn 8 gevallen waarin u uw bestaande URL moet omzetten in een nieuwe:

  1. Wanneer u van plan bent een pagina te verwijderen , maar de link juice en het verkeer van de oude URL wilt behouden. 
  2. U heeft een pagina van uw website verwijderd en u wilt bezoekers omleiden naar een nieuwe, zodat ze niet door een 404 worden bekeken. 
  3. Wanneer u uw site herstructureert en sommige URL’s verouderd raken. 
  4. U moet gebruikers naar de hoofdversie van uw site brengen en dubbele pagina’s vermijden vanwege slashes, bestandsextensies, hoofdletters, niet-www-URL’s en wanneer u van HTTP naar HTTPS gaat.
  5. Tijdens het samenvoegen van twee websites om ervoor te zorgen, dat links naar verouderde URL’s worden omgeleid naar de nieuwe pagina’s.
  6. U heeft uw site naar een nieuw domein verplaatst en wilt link juice behouden.
  7. Omwille van marketing , bijvoorbeeld het verstrekken van een kortere en mooiere URL in advertenties, A/B-testen, targeting en het volgen van verkeer.
  8. Als er sprake is van overmacht , bijvoorbeeld als u een typefout heeft gemaakt in uw nieuwsbrieflink en duizenden mensen een 404-foutmelding krijgen.

PageRank is een algoritme dat Google heeft uitgevonden om het belang van webpagina’s te meten. Er wordt aangenomen dat het het aantal en de kwaliteit van links van en naar een pagina telt om te bepalen hoe belangrijk de website is. De veronderstelling van Google is dat gezaghebbende websites waarschijnlijk meer links van andere websites zullen ontvangen. Het betekent dat hoe meer links een webpagina heeft, hoe meer autoriteit deze krijgt.

6. Voordelen en bedreigingen van URL-omleiding

Dus, zijn omleidingen schadelijk of gunstig voor SEO? In feite kunnen ze beide. 

6.1 Voordelen van omleiding

  • Met omleiding verbeter je de gebruikerservaring. Het is beter dat uw bezoekers worden doorgestuurd naar een relevante pagina in plaats van 404 Page Not Found te zien. 
  • Omleidingen helpen u het crawlen en indexeren te beheren. Je geeft zoekmachines aanwijzingen over welke pagina is vervangen en wat de nieuwe is, en of de oude pagina moet worden geïndexeerd of niet. 
  • U kunt de PageRank van een oude pagina behouden. Als u permanente HTTP-omleidingen gebruikt (301, 308), zal Google hoogstwaarschijnlijk de PageRank van de oude pagina doorgeven aan de nieuwe URL. 

6.2 Bedreigingen van foutieve omleiding

  • U kunt linksap verliezen. Hoewel je met sommige omleidingen de link equity kunt behouden, zal deze hoogstwaarschijnlijk niet voor 100% worden doorgegeven. En als je tijdelijke omleidingen gebruikt, moet je niet verwachten dat er veel link juice zal stromen. 
  • U kunt verkeer verliezen. Nogmaals, als u omleidt naar de verkeerde pagina of omleiding verkeerd implementeert, kunt u aanzienlijk verkeersverlies zien. 
  • U kunt het crawlbudget verspillen. Als u uiteindelijk omleidingsketens maakt, kan dat zo veel druk uitoefenen op crawlers dat ze stoppen met proberen uw site te crawlen. 
  • U kunt de gebruikerservaring verslechteren. Als omleiding te veel tijd kost, is de interactie met uw site behoorlijk onbevredigend. 

Wees niet bang voor deze ‘bedreigingen’. Ze kunnen alleen werkelijkheid worden, als u op de verkeerde manier omleidt. Lees hier meer over het belang van urls in SEO.

7. Meest voorkomende omleidingsfouten

Bekijk nu de top 6 fouten bij het omleiden van URL’s en zorg ervoor, dat u ze vermijdt. 

7.1 Omleiden naar een irrelevante pagina

Wanneer u een omleiding instelt, moet u rekening houden met uw bezoekers. Krijgen ze de antwoorden, die ze verwachten te krijgen nadat ze zijn doorverwezen?  U moet ervoor zorgen dat de nieuwe content hen niet in verwarring brengt. Als een gebruiker op een link anker pure chocolade klikt en wordt doorgestuurd naar een pagina witte chocolade, zal dat verwarrend zijn. Dit kan leiden tot hogere bounce rate percentages en verkeersverlies.

Hoe deze fout te vermijden: U moet altijd doorverwijzen naar een pagina met een soortgelijk onderwerp. 

7.2 Leid ketens en lussen om

Omleidingsketens verschijnen wanneer er meer dan één omleiding is tussen de initiële URL en de bestemmings-URL. Bijv. Pagina 1 > Pagina 2 > Pagina 3 > Pagina 4 > Pagina 5. 

Het probleem met omleidingsketens is dat ze de crawler overbelasten. Google beweert, dat hun crawler tot 5 omleidingshops volgt en dan stopt . Dus als er meer omleidingen zijn, wordt de landingspagina mogelijk helemaal niet geïndexeerd. Bovendien kunt u al het linkjuice verliezen en de laadtijd van de pagina vertragen.

Loops zijn vergelijkbaar met kettingen, maar in dit geval wordt de eerste pagina teruggestuurd naar zichzelf. Bijv. Pagina 1 > Pagina 2 > Pagina 3 > Pagina 1. Op deze manier leidt u bezoekers helemaal niet naar een nieuwe URL, wat zo’n verspilling is van uw crawlbudget en linkvermogen. Omleidingsketens en -lussen zijn zo gemeen omdat ze supergemakkelijk over het hoofd worden gezien. De enige manier om ze te vermijden, is door uw omleidingen consequent bij te houden. 

Als u een omleidingsketen vindt, repareert u deze door de eerste pagina rechtstreeks naar de landingspagina om te leiden. Als u om wat voor reden dan ook niet rechtstreeks van de eerste pagina naar de uiteindelijke pagina kunt omleiden, probeer dan het aantal omleidingen in een keten zo veel mogelijk te verminderen.

7.3 Misbruik van tijdelijke omleidingen

Veel webmasters begrijpen het verschil tussen 301/308 en 302/307 omleidingen niet. Ze weten dat de eerste permanent is en de laatste tijdelijk. Ze houden er echter geen rekening mee, dat als u HTTP 302/307 gebruikt, de oude pagina nog steeds wordt geïndexeerd en er bijna geen link juice wordt doorgegeven aan de nieuwe URL. Dat is belangrijk. Hoewel Google begrijpt, dat u 302 per ongeluk hebt gebruikt en het in de loop van de tijd als 301 kan behandelen, weet u niet hoeveel tijd het zal kosten. En tijd is geld. 

Hoe misbruik van tijdelijke omleidingen te voorkomen: gebruik 301 of 308 als u niet van plan bent de omleiding in de nabije toekomst te verwijderen, als het niet voor een promotiecampagne of A/B-testen is.

Als u SEO goed uitvoert, zijn alle pagina’s van uw site met elkaar verbonden . En als u een van die pagina’s omleidt naar een andere, maakt u uiteindelijk te veel omleidingen. Die omleidingen zijn volledig overbodig, aangezien u deze interne links volledig kunt vervangen door naar de nieuwe URL te verwijzen.

7.5 Omgeleide URL’s niet verwijderen uit uw sitemap

Als u 301 of 308 (permanente) redirects gebruikt, moet u die op uw sitemap weergeven om de crawler niet in verwarring te brengen. Zoals u weet, instrueert een sitemap zoekmachines om enkele URL’s te gaan indexeren. Als u geen oude URL’s uit uw sitemap heeft verwijderd, gaat de crawler naar deze URL en probeert deze te indexeren. Maar in plaats van 200 (OK) responscode te krijgen, wordt de crawler omgeleid naar een andere URL. Dit kan leiden tot indexeerbaarheidsproblemen. 

Zo houdt u uw sitemap schoon: Houd uw sitemap op orde — verwijder de oude omgeleide URL’s en voeg de nieuwe URL’s toe aan uw sitemap.

7.6 Uw omleidingen niet regelmatig controleren

Het is moeilijk om zelf te ontdekken of uw site last heeft gehad van URL-omleiding. Hoogstwaarschijnlijk weet u niet eens, dat u iets verkeerd hebt gedaan. Daarom zijn regelmatige site-audits een must voor webmasters en SEO’s.

8. 3 typen redirects in SEO

Er zijn meerdere soorten redirects in SEO. Welke u moet kiezen, hangt geheel af van de situatie. In de redirectmanager van Yoast SEO Premium kunt u 3 typen redirects instellen:

  1. 301 permanent verhuisd
  2. 302 gevonden
  3. 307 tijdelijk verwijderd
  4. 410 inhoud verwijderd
  5. 451 niet beschikbaar vanwege juridische redenen

Strikt genomen zijn dit geen redirects. Ze leiden u namelijk niet naar een andere situatie. De boodschap is echter zo goed als het zelfde. Wat u zoekt, is hier geweest, maar is hier nu niet meer beschikbaar.

8.1. Redirect 301 permanent verhuisd

We starten met een redirect, die het vaakst wordt ingezet, namelijk de 301 redirect. Dit is een permanente redirect, die u kunt inzetten als u een pagina verwijdert of verplaatst of als u iets verandert in de URL structuur. De code 301 geeft aan, dat de desbetreffende webpagina niet meer beschikbaar is op deze locatie. De crawler hoeft de pagina ook niet meer te indexeren. Het mooie is, dat de linkwaarde van de oude URL niet verloren gaat. De redirect zorgt er namelijk voor, dat de waarde wordt overgedragen aan de nieuwe URL. Let goed op! Het betreft een permanente 301 redirect. Als u de oude URL in de toekomst nog wilt gebruiken, ga dan voor een tijdelijke redirect.

Wat is PageRank?

PageRank is een algoritme, dat Google heeft uitgevonden om het belang van webpagina’s te meten. 
Er wordt aangenomen, dat het het aantal en de kwaliteit van links van en naar een pagina telt om te bepalen hoe belangrijk de website is. De veronderstelling van Google is, dat gezaghebbende websites waarschijnlijk meer links van andere websites zullen ontvangen. Het betekent, dat hoe meer links een webpagina heeft, hoe meer autoriteit deze krijgt.

8.2. 302 gevonden

De 302 redirect geeft aan, dat de gevraagde content wel gevonden is, maar op een geheel andere URL. De 302 redirect wordt vaak gebruikt als tijdelijke redirect. Als u de URL die u nu wilt omleiden in de toekomst nog wil hergebruiken. Dan is de 302 een optie. De crawler zal de direct volgen, maar de oorspronkelijke URL bewaart hij ook in de index in de toekomst. Als een 302 te lang een 302 is, kan Google ze omzetten naar 301.

Redirects, SEO bureau Den Haag

8.3. Tijdelijke 307 redirect

De 307 is ook een tijdelijke redirect, maar deze is wel wat duidelijker dan 302. De 307 redirect geeft precies aan, dat de opgevraagde URL verhuisd is naar een tijdelijke locatie. Maar dat deze ook wel weer terugkomt naar de huidige locatie. Maak gebruik van deze tijdelijke redirect, als u zeker weet, dat het om een tijdelijke omleiding gaat. U wilt de oorspronkelijke URL later waarschijnlijk nog gebruiken.

8.4. 410 inhoud verwijderd

Stel u voor, u wilt een webpagina verwijderen, maar u heeft geen relevante pagina, die u als alternatief kunt aanbieden. Dan is het is een slimme move om dat volledig transparant aan de bezoekers en aan de zoekmachine te vertellen. De 401 code geeft aan, dat de content bewust is verwijderd. Zoekmachines zoals Google zijn zich er nu van bewust, dat de URL’s uit de index gehaald mogen worden.

8.5. 451 niet beschikbaar voor juridische redenen

Soms kan een rechter bepalen, dat u een stuk content van uw website dient te halen. Als uw content beledigend of lasterlijk is, kan een rechter opdracht geven om die content te verwijderen.

9. Yoast SEO Premium – Redirects manager

Met deze redirects manager kunt u eenvoudig en snel uw redirects aanmaken. Dat kan handmatig, maar de plu-gin maakt ook automatisch redirects aan bij het verwijderen van een bericht, pagina of taxonomie pagina. Redirects in SEO worden ook automatisch aangemaakt bij het aanpassen van de URL van een bericht, pagina of taxonomie pagina.

9.1 Regex Redirects

Als u aan een groot SEO project werkt, kunnen regex redirects enorm veel tijd besparen. Bij Connect your World adviseren we hier alleen mee aan de slag te gaan als u voldoende ervaring heeft met dit soort redirects. U kan namelijk ook dingen niet goed doen. Regex betekent regular expression. Bij een normale redirect maakt u een omleiding van een oorspronkelijke URL naar een nieuwe URL. Bij Regex redirects kunt u een groep URL´s die een bepaald woord of patroon bevatten allemaal tegelijk omleiden naar een nieuwe URL.

9.2 Redirects importen en exporteren

Als u uw redirects heeft aangemaakt in een ander systeem dan WordPress, kunt u eenvoudig redirects importeren naar WordPress. Exporteren is ook mogelijk.

Redirects, SEO specialist Den Haag

10. Redirects in SEO problemen en oplossingen (voor de pro’s)

Redirects in SEO kunnen ook voor vervelende problemen zorgen. Dus als u niet weet, wat u doet, laat het dan aan ervaren SEO specialist over.

10.1 Uw website heeft te maken met meerdere ‘redirect chains’

De redirect chain is een ketting of een serie van redirects, die van de ene naar de andere URL wordt doorgestuurd. Bij dubbele redirects verliest u bij elk volgende stap 10% aan de autoriteit. Dit soort redirects kunnen ook een grote negatieve impact hebben op de laadtijd van uw website.

10.1.1 Hoe ontdekt u een redirect chain?

Op welke manier ontdekt u deze redirect chains? Maak hierbij gebruik van Screaming Frog. Screaming Frog heeft de volgende functie:

  • Voer een volledige crawl van uw website uit in SreamingFrog
  • Ga naar het Redirects Chains rapport
  • Bestand opslaan

10.2 Interne redirects

Een interne redirect komt voor omdat men op de site nog een link plaatst naar de oude URL en niet direct naar de nieuwe.

10.2.1 Interne redirects opsporen

Maak weer gebruik van Screaming Frog. Crawl de gehele website en draai alle interne redirects uit. Ga naar: Bulk Export – Response Codes en vervolgens Redirection.

10.3 Onnodige redirects

Als u website al wat jaartjes oud is, is de kans groot, dat u al heel wat 301 redirects heeft verzameld. Als het htaccess bestand vol raakt met redirects, heeft dat als gevolg, dat uw website snelheid lager en lager wordt. Het is belangrijk om te onderzoeken welke redirects in SEO nog van nut zijn.

10.3.1 Hoe bepaalt u welke redirects nog echt nodig zijn?

U kunt UTM tags toevoegen aan de redirect URL. Op die manier kunt u simpel uitvinden welke redirect regelmatig wordt opgevraagd. De volgende tagging methode is hiervoor nuttig:

/oudeURL >>> /nieuweURL?utm_medium=301&utm_source=direct&utm_campaign=/oudeURL

Dit soort tag stuurt elke keer als de redirect gebruikt wordt data naar Google Analytics. In het rapport ‘Bron/medium’ leest u vervolgens terug welke redirects in de afgelopen periode zijn opgevraagd. Doe dit om de 6 maanden en verwijder daaropvolgend alle niet opgevraagde 301 redirects uit htaccess.

10.4 Canonical tags en redirects

Canonical tags en redirects in SEO gaan niet goed samen. Bij grote websites is het vaak onmogelijk om te checken of de pagina’s met een canonical tag ook geredirect worden. Daarom heeft Sreaming Frog hier iets handigs voor.

10.4.1 Hoe lost u dit op?

Start weer met een crawl van uw website. Na afloop gaat u zoekt u de tab ‘Directives’ op.  Scroll vervolgens naar de rechterkant en identificeer de kolom ‘Canonical Link Element 1’. Daarna kopieert u deze gehele lijst. Begin weer met een nieuwe crawl en maak gebruik van de ‘List Mode’ functie. Achterhaal de URL’s met een 301 statuscode.

Bij oudere websites bestaat de kans dat de URL structuur al een keer gewijzigd is. De kans is dan vrij groot, dat uw externe links ook een redirect hebben. Met een redirect verliest u altijd wat kracht (autoriteit). U kunt dus nog wat winst behalen met uw SEO optimalisatie inspanningen.

10.5.1 Hoe lossen we dit op?

Maak een uitdraai van uw backlinks en selecteer uw lijst met ‘TargetURL’s’. Kopieer deze lijst vervolgens in Screaming Frog. Let hierbij speciaal op de links, die een statuscode van 404 of 301 hebben. Doe onderzoek naar de kwaliteit van de backlinks. Bepaal daaropvolgend of het de moeite waard is om meerdere backlinks te laten aanpassen.

SEO en content marketing blogs

SEO specialist Den Haag

Herman Geertsema is een ervaren SEO specialist freelancer en Content marketeer uit Den Haag. Herman is tevens de eigenaar van SEO bureau Connect your World gevestigd in Den Haag.

SEO consultant inhuren

Bij Online marketing bureau Connect your World kunt u ook een content marketeer en een SEO expert inhuren in de volgende regio’s:

Gratis SEO tools

U vindt op deze website ook een overzicht met veelal free SEO tools. Deze lijst kunt u gebruiken bij de zoekmachinemarketing van uw eigen website. Uw SEO laten doen, blijft natuurlijk ook altijd een optie.

SEO & Content Marketing Bureau Connect your World

Dr. J. Presserstraat 313
Den Haag, Nederland 2552 LW
Telefoon: +31641226543
E-mail: info@connectyourworld.nl

Sitemap Robots TXT – Het belang voor SEO

Sitemap Robots TXT, wat kunt ermee?

Heeft u wel eens van de sitemap robots txt gehoord? Hoewel u een website kunt maken volgens, die goed is geoptimaliseerd voor SEO optimalisatie, moeten crawlers van zoekmachines zoals Google en Bing uw website nog steeds vinden en crawlen. Eigenlijk heeft u best wel een beetje controle over hoe web crawlers uw website indexeren met sitemap robots.txt. Dit kan zelfs per pagina worden aangepakt.

Geschatte leestijd: 13 minuten

Sitemap Robots TXT bestand, Technische SEO

In deze blog leert u:

  • Wat een Robots.txt-bestand is en waarom het belangrijk is voor SEO
  • De syntaxis uitleggen
  • Veelvoorkomende fouten die u moet vermijden

Aan de slag met Robots.txt

Als u inspraak wilt hebben in wat SEO robots op uw website doorkammen, heeft u hiervoor een robots.txt-bestand nodig. Hoewel het niet per se het laatste woord heeft over hoe Google uw website behandelt, kan het een krachtig effect hebben op uw SEO resultaten. Door u inspraak te geven in hoe Google uw site bekijkt, kunt u ook hun oordeel beïnvloeden. Dus, als u uw crawlfrequentie en zoekprestaties op Google wilt verbeteren, hoe kunt u dan een robots.txt voor SEO maken?

We gaan terug naar het begin van robots.txt-bestanden om het op te splitsen:

  • Wat zijn ze precies?
  • Waar ze te vinden zijn?
  • Hoe maak je jouw eigen robots txt bestand?
  • De syntaxis erachter
  • De voordelen van het gebruik ervan
  • Hoe te weigeren versus No-index
  • Fouten om te vermijden

Laten we beginnen door te onderzoeken wat een robots.txt-bestand is.

Wat is een Robots.Txt-bestand?

Toen het internet nog jong was en vol potentie zat, bedachten web ontwikkelaars een manier om nieuwe pagina’s op internet te crawlen en te indexeren. Deze tools werden crawlers, spiders of robots genoemd. U heeft ze waarschijnlijk allemaal door elkaar horen gebruiken.

Een Sitemap Robots.txt-bestand ziet er als volgt uit:

Zo nu en dan dwaalden deze robots af van waar ze hoorden te zijn. Ze begonnen namelijk met het crawlen en indexeren van websites, die niet bedoeld waren om geïndexeerd te worden. Er moest een oplossing komen. De maker van Aliweb, ‘s werelds eerste zoekmachine, adviseerde een “roadmap”-oplossing die de robots zou helpen op koers te blijven. In juni 1994 werd dit protocol gerealiseerd. Hoe ziet dit protocol eruit, wanneer het wordt uitgevoerd? 

Het protocol stelt de richtlijnen vast die alle bots, inclusief die van Google, moeten volgen. Sommige robots met een donkere hoed, zoals spyware of malware, werken echter buiten deze regels. Wil je zelf zien hoe het is? Typ gewoon de URL van een website, gevolgd door “/robots.txt” aan het einde. 

Waar is het Robots TXT bestand te vinden?

U vindt uw sitemap robots txt bestand in de hoofdmap van uw site. Om toegang te krijgen, opent u uw FTP en zoekt u vervolgens in uw public html-sitemap. Er zijn niet veel van deze bestanden, dus ze zullen niet zo groot zijn. Verwacht maximaal een paar honderd bytes te zien. Zodra u het bestand hebt geopend in uw tekst editor, ziet u wat informatie over een sitemap en de termen ‘User-Agent’, ‘toestaan’ en ‘niet toestaan’. U kunt ook gewoon /robots.txt toevoegen aan het einde van de meeste URL’s om het te vinden:

Hoe maakt u een Robots.txt-bestand voor SEO?

Als u er zelf een moet maken, weet dan dat Robots.txt een eenvoudig tekstbestand is dat eenvoudig genoeg is voor een echte beginner om te maken. Zorg ervoor, dat u een eenvoudige tekst editor hebt en open vervolgens een leeg blad dat je opslaat als “robots.txt”. Log vervolgens in en zoek de map public_html zoals hierboven vermeld. Met het bestand geopend en de map omhoog getrokken, sleept u het bestand naar de map. Stel nu de juiste machtigingen voor het bestand in. U wilt dat het zo wordt ingesteld dat u, als eigenaar, de enige partij bent met toestemming om dat bestand te lezen, schrijven en bewerken. U zou een machtigingscode “0644” moeten zien. Als u die code niet ziet, klikt u op het bestand en selecteert u vervolgens ‘bestandsmachtiging’. Helemaal klaar!

Robots.txt-syntaxis uitgelegd

Als u naar het bovenstaande robots.txt-voorbeeld kijkt, ziet u waarschijnlijk een onbekende syntaxis. Dus wat betekenen deze woorden? Laten we het uitzoeken. De bestanden bestaan ​​uit meerdere secties, elk een “richtlijn”. Elke instructie begint met een gespecificeerde user-agent, die onder de naam staat van de specifieke crawlbot waarop de code is gericht.

Je hebt hier twee opties:

  1. Gebruik een jokerteken om alle zoekmachines tegelijk aan te spreken
  2. Adresseer elke zoekmachine specifiek, één voor één

Wanneer een crawler naar een site wordt gestuurd, wordt deze aangetrokken door het gedeelte, dat erover spreekt. Elke zoekmachine zal SEO site robot.txt-bestanden een beetje anders behandelen. U kunt eenvoudig onderzoek doen om meer te weten te komen over hoe Google of Bing in het bijzonder met dingen omgaat.

Sitemap Robots TXT – User-Agent-richtlijn

Zie het gedeelte “user-agent”? Dit onderscheidt een bot van de rest, in wezen door hem bij naam te noemen. Als het uw doel is om een ​​van de crawlers van Google te vertellen, wat ze op uw site moeten doen, begin dan met ‘User-agent: Googlebot’. Hoe specifieker u echter kunt worden, hoe beter. Het is gebruikelijk om meer dan één richtlijn te hebben, dus noem elke bot indien nodig bij naam.

Pro-tip: de meeste zoekmachines gebruiken meer dan één bot. Een beetje onderzoek zal u de meest voorkomende bots vertellen waarop u zich kunt richten.

Gastrichtlijn

Dit gedeelte wordt momenteel alleen ondersteund door Yandex, hoewel u mogelijk enkele beweringen ziet dat Google dit ondersteunt. Met deze richtlijn heeft u de bevoegdheid om te bepalen of u de www. voor uw site-URL door zoiets als dit te zeggen:

Host:voorbeeld.com

Omdat we alleen kunnen bevestigen dat Yandex dit ondersteunt, is het niet aan te raden om er te veel op te vertrouwen.

Disallow-richtlijn

De tweede regel binnen een sectie is Disallow. Met deze tool kunt u aangeven welke delen van uw websites niet door bots mogen worden gecrawld. Als u de disallow leeg laat, vertelt het de bots in wezen dat het gratis is en dat ze kunnen kruipen wanneer ze willen.

Sitemap Robots TXTSitemaprichtlijn

De sitemap-richtlijn helpt u zoekmachines te vertellen waar ze uw XML-sitemap kunnen vinden, een digitale kaart die zoekmachines kan helpen belangrijke pagina’s op uw site te vinden en te leren hoe vaak ze worden bijgewerkt.

Richtlijn crawlvertraging

U zult merken, dat zoekmachines zoals Bing en Google een beetje trigger happy kunnen worden tijdens het crawlen. U kunt ze echter een tijdje op afstand houden met een crawl-delay-initiatief. Wanneer u een regel toepast met de tekst ‘Crawl-delay:10’, vertelt u de bots tien seconden te wachten voordat ze de site crawlen of tien seconden tussen crawls.

Voordelen van het gebruik van Sitemap Robots TXT voor SEO

Nu we de basisprincipes van robots.txt-bestanden hebben behandeld en een aantal richtlijngebruiken hebben besproken, is het tijd om uw bestand samen te stellen. Hoewel een robots.txt bestand geen verplicht onderdeel is van een succesvolle website, zijn er toch veel belangrijke voordelen waarvan u op de hoogte moet zijn:

  • Houd bots uit de buurt van privébestanden – U kunt voorkomen, dat crawlers in uw privémappen kijken, waardoor ze veel moeilijker te indexeren zijn.
  • Resources onderhouden – Elke keer dat een bot uw site crawlt, verbruikt hij serverbronnen zoals bandbreedte en meer. Als uw site veel content bevat, zoals een e-commerce site, zult u versteld staan ​​hoe snel deze bronnen kunnen worden opgebruikt. U kunt robots.txt gebruiken voor SEO om het voor spiders moeilijker te maken om toegang te krijgen tot individuele aspecten. Hierdoor blijven uw meest waardevolle bronnen voor echte sitebezoekers behouden.
  • Verduidelijk de locatie van de sitemap – Als u wilt, dat een crawler door uw sitemap gaat, moet u ervoor zorgen, dat deze weet waar hij heen moet. Robots.txt-bestanden kunnen hierbij helpen.
  • Bescherm duplicated content tegen SERP’s – Door een specifieke regel aan uw robots toe te voegen, kunt u voorkomen dat ze pagina’s op uw website indexeren die duplictaed content bevatten.

U wilt natuurlijk, dat zoekmachines zich een weg banen door de meest kritische pagina’s op uw website. Als u de bots beperkt tot specifieke pagina’s, heeft u betere controle over welke pagina’s vervolgens voor zoekers op Google worden geplaatst. Zorg er wel voor, dat u een crawler nooit helemaal blokkeert om bepaalde pagina’s te zien – u kunt er boetes voor krijgen.

Niet toestaan ​​versus No index

Als u niet wilt dat een crawler een pagina opent, gebruikt u meestal een disallow- of noindex-instructie. In 2019 kondigde Google echter aan dat ze het niet langer ondersteunen, samen met een paar andere regels. Voor degenen die de no index-richtlijn toch wilden toepassen, moesten we creatief zijn. Er zijn in plaats daarvan een paar opties om uit te kiezen:

  1. No index Tag – U kunt dit implementeren als een HTTP- responsheader met een X-Robots-Tag, of u kunt een <meta>-tag maken, die u kunt implementeren in de <head>-sectie. Houd er rekening mee, dat als u bots van deze pagina blokkeert, ze de tag waarschijnlijk nooit zullen zien en de pagina nog steeds in SERP’s kunnen opnemen.
  2. Wachtwoordbeveiliging – Als u een pagina achter een wachtwoordinvoer verbergt, zou deze in de meeste gevallen niet in de Google-index moeten staan.
  3. Disallow-regel – Wanneer u specifieke disallow-regels toevoegt, crawlen zoekmachines de pagina niet en wordt deze niet geïndexeerd. Houd er rekening mee dat ze het mogelijk nog steeds kunnen indexeren op basis van informatie die ze verzamelen van andere pagina’s en links.
  4. 404/410 HTTP-statuscodes – De 404- en 410-statuscodes zijn voorbeelden van webpagina’s die niet meer bestaan. Zodra dit soort pagina eenmaal volledig is verwerkt, wordt deze permanent verwijderd uit de index van Google.
  5. Search Console URL verwijderen – Deze tool lost het indexeringsprobleem niet volledig op, maar het zal de pagina tijdelijk verwijderen.

Dus, wat is beter? Noindex of de disallow-regel? Laten we erin duiken. Aangezien Google noindex officieel niet langer ondersteunt, moet u vertrouwen op de hierboven genoemde alternatieven of op de beproefde regel voor niet toestaan. Houd er rekening mee, dat de disallow-regel niet zo effectief zal zijn als de standaard noindex-tag zou zijn. Hoewel het de bots blokkeert om die pagina te crawlen, kunnen ze nog steeds informatie van andere pagina’s verzamelen, evenals zowel interne als externe links, wat ertoe kan leiden dat die pagina in SERP’s wordt weergegeven.

Bruikbare SEO Optimalisatie inzichten 

Geef ons uw site (of klanten) en we analyseren de SEO elementen van de site (on-page, URL-gelijkheid, concurrenten, enz.), en organiseren deze gegevens vervolgens in een bruikbare SEO audit.

5 Robots.txt-fouten die u moet vermijden

We hebben het nu gehad over wat een robots.txt-bestand is, hoe je er een kunt vinden of maken, en de verschillende manieren om het te gebruiken. Maar we hebben het nog niet gehad over de veelvoorkomende fouten die te veel mensen maken bij het gebruik van robots.txt-bestanden. Wanneer het niet correct wordt gebruikt, kunt u een SEO-ramp tegenkomen. Vermijd dit lot door deze veelvoorkomende fouten te vermijden:

1. Sitemap Robots TXTGoede content blokkeren

U wilt geen goede content blokkeren, die nuttig zou kunnen zijn voor sitecrawlers en gebruikers die naar uw site zoeken via zoekmachines. Als u een no index-tag of robots.txt-bestand gebruikt om goede content te blokkeren, schaadt u uw eigen SEO resultaten. Als u achterblijvende resultaten opmerkt, controleer dan uw pagina’s grondig op disallow-regels of noindex-tags.

2. Overmatig gebruik van de richtlijn crawlvertraging

Als u de crawl-delay-richtlijn te vaak gebruikt, beperkt u het aantal pagina’s, dat de bots kunnen crawlen. Hoewel dit misschien geen probleem is voor grote sites, kunnen kleinere sites met beperkte content hun eigen kansen op het behalen van hoge SERP-ranglijsten schaden door deze tools te veel te gebruiken.

3. Content indexering voorkomen

Als u wilt voorkomen dat bots de pagina rechtstreeks crawlen, kunt u dit het beste weigeren. Het zal echter niet altijd werken. Als de pagina extern is gelinkt, kan deze nog steeds doorstromen naar de pagina. Bovendien onderschrijven onwettige bots zoals malware deze regels niet, dus indexeren ze de content toch.

4. Onjuiste gevallen gebruiken

Het is belangrijk op te merken, dat sitemap robots.txt-bestanden hoofdlettergevoelig zijn. Een richtlijn maken en een hoofdletter gebruiken, werkt niet. Alles moet in kleine letters zijn als je wilt dat het effectief is.

5. Schadelijke dubbele content (duplicated content) afschermen

Soms is duplicated content nodig en wilt u deze verbergen zodat deze niet wordt geïndexeerd. Maar andere keren weten Google-bots, wanneer u iets probeert te verbergen, dat niet verborgen zou moeten zijn. Een gebrek aan content kan soms de aandacht vestigen op iets vreemds. Als Google ziet, dat u de ranglijst probeert te manipuleren om meer verkeer te krijgen, kunnen ze u straffen. Maar u kunt dit omzeilen door duplicated content te herschrijven, een 301-omleiding toe te voegen of een Rel=”canonieke tag te gebruiken.

Voeg het allemaal samen

Nu u alles weet over robots.txt voor SEO, is het tijd om wat u heeft geleerd te gebruiken om een ​​bestand te maken en het uit te testen. Het kan even duren voordat u het proces onder de knie hebt en ervoor zorgt dat u alles heeft ingesteld zoals u wilt, maar als u eenmaal alles heeft ingesteld, zult u het verschil zien. Dat is de kracht van sitemap robots txt bestanden.

SEO bureau Connect your World – Blogs

SEO specialist Den Haag

Herman Geertsema is een ervaren SEO consultant en Content Marketing expert uit Den Haag. Tevens is Herman eigenaar van Connect your World, een SEO bureau in Den Haag.

SEO specialist inhuren

Kies ook een SEO specialist uit om bovenaan Google te komen in de volgende regio´s:

Heeft u een vraag voor ons? Of wilt u ons als SEO specialist inhuren? Neem dan contact met ons op.

SEO & Content Marketing Bureau Connect your World

Dr. J. Presserstraat 313
Den Haag, Nederland 2552 LW
Telefoon: +31641226543
E-mail: info@connectyourworld.nl

Technische SEO Checklist in 2024

Technische SEO, On Page SEO, Off Page SEO

In 19 stappen naar een technisch perfecte site [SEO checklist 2024]

SEO Optimalisatie kan grofweg worden onderverdeeld in drie takken: On-page SEO, Off-page SEO en Technische SEO. On page SEO draait om de inhoud en HTML tags. Off-page SEO bestaat voornamelijk uit backlinks. Terwijl technische SEO in gaat op de toegankelijkheid van uw website. Technische SEO wordt vaak gezien als een van de moeilijkste onderdelen van SEO. Schakel daarom altijd een technische SEO specialist in als u vraagstukken heeft op het gebied van SEO techniek.

Wat is technische SEO?

Technische SEO, ook bekend als technische zoekmachineoptimalisatie, verwijst naar de praktijk van het optimaliseren van de technische aspecten van een website om de zichtbaarheid en rangschikking in zoekmachines zoals Google te verbeteren. Het richt zich op het verbeteren van de infrastructuur, codering en prestaties van een website om zoekmachines te helpen de content beter te begrijpen, te indexeren en te waarderen.

Geschatte leestijd: 31 minuten

Technische SEO

En hoewel u ze alle drie nodig heeft om goed te ranken, kunt u stellen, dat technische SEO eigenlijk op de eerste plaats komt. U moet een sterke technische basis voor uw website bouwen. Anders kan het gebeuren, dat voordat u deze met content vult en promoot met backlinks, alles in elkaar stort. In deze Technische SEO checklist concentreren wij ons op het controleren van technische problemen (SEO techniek) op uw website en het optimaliseren van uw websitestructuur. Het verbeteren van de website snelheid en de toegankelijkheid komen ook uitgebreid aan bod.

1. Identificeer de juiste tools om uw technische SEO van de website te verbeteren

  • Google Chrome
  • Google Analytics
  • GTmetrix
  • Google Search Console
  • Google Site Kit

Google Chrome

Binnen Chrome kan u gebruiken maken van diverse handige extensies, die het verbeteren van uw online marketing mogelijk maken zoals bijvoorbeeld:

  • MozBar
  • SEOquake
  • Extract People also search Phrases in Google
  • Google Tag Assistant

In Google Chrome is het mogelijk om websites te inspecteren. Klik met uw rechtermuisknop en dan inspecteren om de code van uw website te bekijken. Je kan zien hoe de website laadt en hoe de site er
per apparaat uitziet. Daarnaast ziet u ook waar er eventueel fouten in de website zitten.

Google Search Console nuttige voor technische SEO

  • Met Google Search Console heeft u een programma van Google in handen, waarmee u de aanwezigheid van uw website in Google kunt inspecteren en bijhouden. Google geeft u met deze tool wat macht over de indexatie van uw website. U kunt binnen de tool achterhalen:
  • of u een penalty heeft gehad;
  • hoe goed u scoort binnen Google en op welke zoekwoorden u gevonden wordt;
  • hoe u een pagina aanbiedt bij Google;
  • wat de problemen zijn binnen uw site;
  • hoe u een plattegrond (Google sitemap) van uw website indient;
  • hoe u optimalisaties binnen de structured data van uw website achterhaalt;
  • de mobiele bruikbaarheid van uw site checken.

2. Is de indexatie van uw website in orde?

Een voor de hand liggende plek om te beginnen is om te kijken of uw website überhaupt is geïndexeerd. En met geïndexeerd bedoelen wij of het wel of niet in de zoekresultaten wordt weergegeven. Het eerste, dat u daarom hier moet doen, is uw domeinnaam googelen en uw website zoeken tussen de zoekresultaten. Staat uw website tussen de zoekresultaten? Dan is het goed. Laten we nu eens kijken hoeveel van uw website daadwerkelijk in de zoekindex is terechtgekomen. Een goede plek om dit te controleren is het dekkingsrapport in Google Search Console.

Het rapport laat zien hoeveel van uw pagina’s momenteel zijn geïndexeerd, hoeveel zijn uitgesloten en wat enkele van de indexeringsproblemen op uw website zijn. Welke tool u ook kiest, het aantal geïndexeerde pagina’s moet dicht bij het werkelijke aantal pagina’s op uw website liggen. Dus als u bijvoorbeeld een e-commerce website heeft, moet het aantal geïndexeerde pagina’s overeenkomen met het aantal producten dat u heeft geüpload.

3. Technische SEO – Indexerings-problemen

Over het algemeen zijn er twee soorten indexeringsproblemen. Een daarvan is, wanneer een pagina niet wordt geïndexeerd, terwijl dat wel zou moeten. De andere is wanneer een pagina wordt geïndexeerd, hoewel dit niet de bedoeling is. Als u Google Search Console gebruikt om uw website te controleren, wordt het eerste type indexeringsprobleem meestal als een fout gemarkeerd:

Technische SEO, SEO Den Haag, Linkbuilding Den Haag

3.1 Problemen met indexeren

Indexeringsfouten treden op wanneer u Google heeft gevraagd een pagina te indexeren, maar deze wordt geblokkeerd. Een pagina is bijvoorbeeld toegevoegd aan een sitemap, maar is gemarkeerd met de noindex- tag of is geblokkeerd met robots.txt . Om het probleem op te lossen, controleert u of de pagina moet worden geïndexeerd. Zo ja, verwijder dan wat het blokkeert. Zo nee, verwijder dan de pagina uit uw sitemap. Het andere type indexeringsprobleem is, wanneer de pagina wordt geïndexeerd, maar Google weet niet zeker of deze geïndexeerd moest worden. In Google Search Console worden deze pagina’s meestal als geldig gemarkeerd met waarschuwingen:

3.2 No Index Tag

Dit soort indexeringsproblemen treden meestal op wanneer u heeft geprobeerd de pagina te blokkeren met behulp van sitemap robots txt instructies. Het is een veel voorkomende fout om te denken, dat robots.txt de indexering van de pagina kan blokkeren. In werkelijkheid staat het Google vrij om deze instructies te negeren. Als u de pagina echt wilt blokkeren, moet u de no index-tag gebruiken.

Google search Console, Technische SEO

4. Dekkingsfouten in Google Search Console oplossen

Dekkingsfouten zijn fouten, die Search Console rapporteert als verbeterpunten. Dit soort fouten kunnen impact hebben op de vindbaarheid van uw website. Ze kunnen cruciaal zijn of gewoon simpele tips, die u website net wat beter vindbaar maken. In dit artikel vertellen wij u alles over dekkingsfouten. U krijgt te horen, wat de 10 meeste voorkomende fouten zijn.

4.1 Waar vind je de dekkingsfouten terug?

Om de dekkingsfouten terug te zien, heeft u Google Search Console tot u beschikking. U vindt de dekkingsfouten links terug onder ‘Dekking’.

Vervolgens vind je daar 4 categorieën:
  • Fout
  • Geldig met waarschuwing
  • Geldig
  • Uitgesloten

U weet nu waar de dekkingsfouten staan. Daarom is het nu de hoogste tijd om het over de dekkingsfouten te hebben. Per dekkingsfout behandelen we drie dingen:

  • wat de dekkingsfout precies inhoudt;
  • hoe urgent het probleem is;
  • wat een mogelijke oplossing is.

4.2 Serverfout (5xx)

Betekenis: Een serverfout (5xx) is, zoals de naam al zegt, een probleem bij de server. Dit kunnen veel dingen betekenen. Dat er bijvoorbeeld iets tijdelijk niet werkt, dat er iets niet ondersteunt wordt of dat de server overbelast is.
Urgentie: De hoogste urgentie! Als er een 5xx-fout is, kan het zijn, dat uw pagina niet werkt. En als Google dan toevallig langskomt, bent u helemaal niet blij.
Oplossing: Omdat een serverfout zoveel oorzaken kan hebben, kunnen we u niet de precieze oplossing aanbieden. Stap 1 is om te kijken, wat u precies op de pagina ziet. Stel dat daar een 500- of een 503-fout staat, dan weet je al meer. Googel vervolgens op die term. Vervolgens schakelt u een developer in of neemt u contact op met uw hostingpartij. Vaak is het zo, dat u hier zelf niks aan kan doen of dat het een tijdelijk probleem was.

4.3 Fout met omleiding

Betekenis: Wanneer er een fout is met de omleiding, dan is er een fout met een redirect. Dit kan betekenen, dat de redirect niet juist is. Het kan ook zo zijn, dat er een redirect loop is. Zo’n loop ontstaat, wanneer, uw pagina A naar pagina B doorstuurt en pagina B weer naar pagina A.
Urgentie: Ook dit moet u echt prioriteit geven. Stel, dat u net de URL van uw belangrijkste blogs hebt geoptimaliseerd, dan wilt u wel, dat doet goed gaat.
Oplossing: De redirect verwijderen, de redirect aanpassen of de redirectloop eruit halen.

4.4 Ingediende URL niet gevonden (404)

Betekenis: Een ingediende URL is niks anders dan een URL, die is aangeboden bij Google voor indexering. Een 404 is een pagina, waar verder geen content op staat.
Urgentie: Als u een URL heeft ingediend, die een 404 is, dan kan dat twee dingen betekenen: of u heeft de verkeerde URL gepakt of u heeft de juiste URL gepakt, maar de content staat er nog niet op. En dat is wel een probleem.
Oplossing: Heeft u de verkeerde URL gekozen, bied dan gewoon de juiste URL aan in Search Console. Heeft u wel de goede URL, zorg dan dat er content op die pagina komt te staan en bied de pagina opnieuw aan.

4.5 Geïndexeerd, maar geblokkeerd door robots.txt

Betekenis: Als een URL is geïndexeerd, dan betekent dit dat hij op ’index’ staat. Als een artikel geblokkeerd is door de robots.txt, betekent dat hij op ‘disallow’ staat. De pagina kan dan wel geïndexeerd worden, maar de crawlers mogen er niet op komen. En dat is gek. Want u wilt dat een artikel toegestaan en geïndexeerd wordt, of u wilt, dat een pagina juist níet toegestaan en geïndexeerd wordt. En dat wordt nu door elkaar gehaald.
Urgentie: Dit is afhankelijk van de pagina waar het om gaat. Is het een belangrijke pagina, dan moet u hier direct wat aan doen. Is dit een of andere auteurspagina, dan heeft dit geen prioriteit.
Oplossing: Als het om een pagina gaat, die belangrijk voor u is, dan moet u de disallow uit de robots.txt halen. Wilt u, dat deze helemaal niet in Google staat? Dan hoeft u de pagina alleen nog maar op noindex te zetten.

4.6 Geïndexeerd, niet ingediend in sitemap

Betekenis: De sitemap is de plattegrond van uw website. Met andere woorden: daar staat precies welke pagina waar staat. Als u deze melding ziet in Search Console, dan staat de desbetreffende pagina niet in uw plattegrond. Al wordt-ie wel meegenomen in de indexatie.

Urgentie: Dit is afhankelijk van wat u fout doet. Is het goed, dat de pagina niet in de sitemap staat? Dan wilt u de pagina zeer waarschijnlijk niet geïndexeerd hebben. Is het wel een belangrijke pagina en moet hij dus in uw sitemap? Dan is dit belangrijk.

Oplossing: Een onbelangrijke pagina wilt u in dit geval op noindex zetten. Een belangrijke pagina wilt u in de sitemap hebben. U kan de sitemap opnieuw genereren.

4.7 Pagina met omleiding

Betekenis: U weet inmiddels wat een omleiding is. Dat is namelijk een redirect. Wanneer Search Console de melding ‘pagina met omleiding’ geeft. Dit betekent dan dat Google de URL (ooit) ergens is tegengekomen en dat deze geredirect wordt.
Urgentie: Dit is in het overgrote deel van de gevallen niet erg. Als u een aantal pagina’s heeftt aangepast en geredirect, dan zal Google dit zien.
Oplossing: Stel, u had vroeger een blog op /actueel/, maar nu staat datzelfde blog op /blog/. Als u nog /actueel/ in uw menu heeft staan, dan is dat niet bevorderlijk voor uw interne linkbuilding. Probeer dus geredirecte links zo goed mogelijk bij de bron aan te pakken. Dit kan er ook voor zorgen, dat u minder van dit soort meldingen terugziet.

4.8 Alternatieve pagina met correcte canonieke tag

Betekenis: Dit is wellicht een van de lastigste dekkingsfouten als u naar de titel kijkt. Maar eigenlijk is het heel simpel. Dit betekent, dat de pagina een canonical heeft naar de juiste pagina.
Urgentie: Totaal niet. Dit is namelijk iets goeds. U hoeft hier niks aan te doen. Google rapporteert dit alleen wel, zodat het in het overzicht staat. U moet natuurlijk wel controleren of het klopt, maar in 9 van de 10 gevallen hoeft u hier niks mee te doen.
Oplossing: Die is er dus niet 😉

4.9 Gecrawld – momenteel niet geïndexeerd

Betekenis: Als een pagina niet geïndexeerd is, betekent dit, dat deze niet wordt meegenomen in de zoekresultaten van Google. Wanneer een pagina is gecrawld, betekent dit dat Google als het ware langs is geweest. Met andere woorden: de pagina heeft geen disallow.

Dit is dus eigenlijk het tegenovergestelde van de dekkingsfout ‘Geïndexeerd, maar geblokkeerd door robots.txt’.

Urgentie: Als een belangrijke pagina is gecrawld maar niet geïndexeerd, dan moet u dat direct oplossen. Is het geen belangrijke pagina? Dan heeft dit geen hoge prioriteit.

Oplossing: Als het een belangrijke pagina is, dan moet u ervoor zorgen, dat deze zo snel mogelijk wordt geïndexeerd. Bied ‘m direct aan bij Google en verwijder de noindex als deze erop staat.

Wilt u, dat deze pagina niet geïndexeerd wordt? Zorg er dan ook voor dat hij niet meer gecrawld kan worden middels een disallow in uw robots.txt.

4.10 Dubbele pagina, Google heeft een andere canonieke pagina gekozen dan de gebruiker

Betekenis: De canonical is de oplossing voor dubbele content. Maar in bepaalde gevallen kan Google de canonical negeren, omdat ze denkt dat ze het beter weet. En dat is het geval bij deze dekkingsfout.

U kan misschien pagina A als canonical hebben ingesteld, maar Google overrulet dat door pagina B te pakken.

Urgentie: Als Google het bij het rechte eind heeft, dan is dat natuurlijk geen probleem. Maar als Google het níet bij het juiste eind heeft, dan is dit wél een probleem. Dan moet u er meteen aan werken.

Oplossing: De oplossing hier is niet ‘doe dit en u lost het op’. Het is heel belangrijk om uw canonicals goed te controleren en waar nodig aan te passen. Verder moet u dubbele content zo goed mogelijk vermijden en ook de noindex, disallow, etc. goed controleren en aanpassen.

4.11 Uitgesloten door tag noindex

Betekenis: Als een pagina de noindex tag heeft, dan wordt hij niet geïndexeerd door Google. Oftewel: Google neemt ‘m niet mee in de indexatie.

Urgentie: In het gros van de gevallen heeft een pagina een noindex, omdat u niet wilt, dat deze geïndexeerd wordt. Dan hoeft u er dus niks aan te doen.

Oplossing: De pagina op index zetten, als u wel wil, dat hij in Google te vinden is.

4.12 Dubbele pagina zonder door de gebruiker geselecteerde canonieke versie

Betekenis: Dit is eigenlijk bijna hetzelfde probleem als bij ‘Dubbele pagina, Google heeft een andere canonieke pagina gekozen dan de gebruiker’, alleen hier heeft de pagina geen canonical. Oftewel: Google is lekker aan het freestylen.
Urgentie: Dit is wel iets wat u echt op moet pakken. U wilt namelijk niet, dat Google gaat freestylen en zelf gaat nadenken.
Oplossing: De oplossing is om te gaan werken met canonicals. Zorg, dat u dubbele content vermijdt. Kan het niet anders, werk dan met canonical. Zorg bij alles wat geen dubbele content heeft voor een ‘self-referencing’ canonical. Dat laatste is een canonical die naar zichzelf verwijst. Dat kan voorkomen dat Google gaat freestylen.

4.13 Ingediende URL gemarkeerd als noindex

Betekenis: U weet inmiddels wat een ingediende URL is: een URL die u heeft aangeboden in Search Console. Als deze pagina een noindex heeft en u biedt ‘m aan, dan krijgt u deze melding.
Urgentie: Extreem hoog als u wilt dat de URL in Google te vinden is ;-).
Oplossing: De noindex van de pagina afhalen en de pagina opnieuw aanbieden.

4.14 Niet gevonden (404)

Betekenis: Als een URL op een 404-pagina uitkomt, dan betekent, dat er op die pagina geen content staat. Die kan verwijderd zijn, verkeerd zijn geredirect of überhaupt nooit hebben bestaan.
Urgentie: 404’s wilt u eigenlijk altijd vermijden. Google zegt zelf, dat een 404 niet erg is als u zeker weet, dat de URL nooit heeft bestaan. Maar ik zou 404’s altijd oppakken. Ze hebben niet de hoogste prioriteit, maar u mag ze zeker niet vergeten.
Oplossing: De URL redirecten naar de vervangende pagina, de pagina die er het meest op lijkt of anders naar de homepage.

4.15 Soft 404

Betekenis: Een soft 404 is een 404, maar dan softer ;-). Nee, dat is een beetje flauw. Een soft 404 is minder ‘hard’ dan een normale 404. Bij een 404 is het echt een dood eind en bij een soft 404 kan het zijn dat de server niet meegeeft dat er iets goed gaat. Het kan ook zo zijn dat de pagina wel bestaat, maar geen of nagenoeg geen content heeft. Dan kan Google ook het label soft 404 erop knallen.
Urgentie: Dezelfde urgentie als de reguliere 404’s.
Oplossing: De lege pagina eventueel verwijderen en redirecten. Of een redirect toevoegen als de pagina niet bestaat.

5. Technische SEO – Geef een voorkeursdomein op

Bij het opzetten van uw website of blog moet u uw voorkeursdomein specificeren. Hiermee instrueer u zoekmachines welke variant van het domein u wilt gebruiken gedurende de levensduur van uw website. Laten we eens kijken waarom u dit moet doen. Een website is standaard toegankelijk met www en zonder www voor een domeinnaam. Als uw domein bijvoorbeeld voorbeeld.com is, is uw website toegankelijk via zowel http://www.voorbeeld.com als http://voorbeeld.com (dus zonder www). Hoewel dit oké is voor gebruikers, is het verwarrend voor zoekmachines omdat ze deze als twee verschillende websites beschouwen. Dit betekent, dat u indexeringsproblemen, dubbele content problemen en verlies van paginarangschikking kunt tegenkomen. Om dit probleem op te lossen, moet u uw voorkeursdomein instellen en zoekmachines informeren over uw keuze.

www of geen www?

Een van de vragen, die veel mensen hebben, is of ze www voor hun domein moeten gebruiken of dat ze voor de niet-www-versie moeten gaan. Er is geen SEO – voordeel om het ene formaat boven het andere te kiezen. Het is een kwestie van persoonlijke voorkeur. Het is belangrijk om zoekmachines te informeren over uw beslissing en consistent te zijn gedurende de hele levensduur van uw website.

Hoe u uw voorkeursdomein instelt

In het verleden was de instelling om uw voorkeursdomein op te geven beschikbaar in Google Search Console, maar Google besloot deze optie te verwijderen en te vertrouwen op canonieke URL’s.

6. Optimaliseer uw Robots.txt

Als u klaar bent met het instellen van uw voorkeursdomein, is de volgende stap het controleren en optimaliseren van uw robots.txt-bestand.

Wat is robots.txt?

Robots.txt is een tekstbestand, dat zich in de hoofdmap van uw website bevindt. Het geeft instructies aan zoekmachines over welke pagina’s van uw website ze kunnen crawlen en aan hun index kunnen toevoegen. Het formaat van dit bestand is heel eenvoudig en in de meeste gevallen hoeft u er geen wijzigingen in aan te brengen.

7. Technische SEO – Controleer uw sitestructuur

Een ondiepe, logische sitestructuur is belangrijk voor gebruikers en zoekmachinebots. Bovendien helpt een interne linkstructuur om de rangschikkingskracht (zogenaamde link juice) efficiënter over uw pagina’s te verspreiden. Terwijl u uw interne links controleert, controleert u de klikdiepte. Zorg ervoor, dat de belangrijke pagina’s van uw site niet meer dan drie klikken verwijderd zijn van de startpagina. Paginering van blogpagina’s is noodzakelijk voor vindbaarheid door zoekmachines, maar vergroot de klikdiepte. Gebruik een eenvoudige structuur in combinatie met een krachtige zoekfunctie op de site om het voor gebruikers gemakkelijker te maken om elke bron te vinden.

8. Technische SEO – SEO vriendelijke URLS

Stop in de URL’s van uw webpagina’s en blogs geen tekens, liggende streepjes, onnodige cijfers of andere gekke dingen. Het is belangrijk om URL’s zo schoon mogelijk te houden. Maak URL’s zo kort mogelijk.
Zorg vervolgens, dat er een relevant zoekwoord in de URL staat. De URL moet er dus mooi en duidelijk uitzien.

9. Vergroot uw crawlbudget

Het crawlbudget is het aantal pagina’s, dat zoekmachines gedurende een bepaalde periode crawlen. Het crawlbudget is op zichzelf geen ranking factor. Het bepaalt echter wel, hoe vaak de pagina’s van uw site worden gecrawld (en of sommigen ervan überhaupt worden gecrawld). Afhankelijk van hoe belangrijk uw website is, geeft Google u een bepaald crawlbudget. Als uw pagina’s licht zijn en uw bronnen gemakkelijk toegankelijk zijn, zal dit budget een lange weg gaan. Maar als er te veel omleidingen en doodlopende wegen zijn, is uw budget al uitgegeven voordat het zelfs maar op belangrijke pagina’s komt.

Dit is wat u kunt doen om uw crawlbudget te vergroten:

Negeer bronnen met een lage prioriteit

Het is gebruikelijk om gifs, memes en video’s te gebruiken om uw pagina’s op te fleuren. Deze bronnen zijn bedoeld om uw gebruikers te entertainen, maar ze doen er eigenlijk niet toe voor zoekmachines. Het goede nieuws is, dat u Google kunt vragen deze bronnen te negeren en iets anders te gaan crawlen. Om dat te doen, bewerkt u uw robots.txt-bestand om afzonderlijke bronnen niet toe te staan:

User-agent: * Niet
toestaan: /images/filename.jpg

Of zelfs bepaalde bestandstypen:

User-agent: *
Niet toestaan: /*.gif$

Vermijd lange omleidingsketens

Wanneer er te veel omleidingen (redirects) zijn, stopt Google meestal met het volgen van het spoor en gaat naar andere delen van uw website. Wat betekent dat sommige van uw pagina’s misschien nooit het daglicht zullen zien. Dat komt bovenop het verspillen van een stel kruipende eenheden voor niets. Als u dergelijke pagina’s vindt, corrigeer dan de omleidingen om rechtstreeks naar de landingspagina te gaan.

Technische SEO – Dynamische URL’s beheren

Het is gebruikelijk, dat content management systemen een heleboel dynamische URL’s genereren. In principe kan elk van uw pagina’s een paar verschillende URL’s hebben, afhankelijk van hoe u daar bent gekomen of het type filters, dat u heeft gebruikt. Google kan elk van deze URL’s als een andere pagina zien, ook al is de content grotendeels hetzelfde. Om te voorkomen, dat Google een aantal bijna identieke pagina’s crawlt, kunt u Google vragen bepaalde URL-parameters te negeren. Om dat te doen, start u Google Search Console en gaat u naar Verouderde tools en rapporten > URL-parameters :

Klik aan de rechterkant op Bewerken en vertel Google welke parameters moeten worden genegeerd.

Wanneer een zoekbot een 4XX/5XX-pagina bereikt, gaat een deel van uw crawlbudget verloren. Daarom is het belangrijk om alle verbroken links op uw site te vinden en op te lossen. ‘Broken links’ verspillen niet alleen uw crawlbudget, maar brengen ook bezoekers in verwarring en verslinden ‘link juice’. 

10. Technische SEO – Duplicated content opschonen

Duplicated content is geen groot probleem voor SEO, maar het kan een beetje rommelig worden. Als er twee of meer bijna identieke pagina’s op uw website zijn, welke moet dan worden geïndexeerd? Wat als Google besluit, dat uw duplicated content een teken van plagiaat of spam zijn? Het is het beste om het niet te riskeren. Als u duplicated content vindt, kunt u deze ofwel helemaal verwijderen of verbergen voor zoekmachines.

11. Test en verbeter de paginasnelheid (website snelheid)

Google verwacht, dat pagina’s binnen twee seconden of minder worden geladen. Ondertussen is de gemiddelde pagespeed op internet ongeveer 15 seconden. De kans is dus groot, dat u ook uw SEO pagespeed moet verbeteren. Paginasnelheid is echter niet eenvoudig te meten en Google worstelt al heel lang met deze statistiek. Eindelijk is het aangekomen bij het ‘Core Web Vitals’. Dit zijn drie statistieken, die zijn ontworpen om de waargenomen snelheid van een bepaalde pagina te meten. De statistieken zijn Largest Contentful Pain (LCP), First Input Delay (FID) en Cumulatieve Layout Shift (CLS).

12. Ga uit van mobile-first benadering (SEO Mobile)

In 2018, na anderhalf jaar van zorgvuldig experimenteren en testen, begon Google met het migreren van sites naar mobile-first indexing. De algoritmen stellen zoekmachines in om de mobiele versies van websites te crawlen in plaats van hun desktopversies. En dit betekent letterlijk dat de mobiele versie van uw pagina’s bepaalt, hoe ze scoren in zowel mobiele als desktop-zoekresultaten. De mobielvriendelijke test van Google omvat een selectie van bruikbaarheidscriteria, zoals viewportconfiguratie, gebruik van plug-ins en de grootte van tekst en klikbare elementen. Het is ook belangrijk om te onthouden, dat mobielvriendelijkheid wordt beoordeeld op paginabasis, dus u moet elk van uw landingspagina’s afzonderlijk en één voor één controleren op mobielvriendelijkheid. Om u hele website te beoordelen kun je beter overstappen op Google Search Console. Daar, onder het tabblad ‘Ervaring’, vindt u het rapport Mobiel bruikbaarheid voor al uw pagina’s:

Technische SEO, SEO specialist Den Haag, SEO specialist inhuren

Onder de grafiek staat een tabel met de meest voorkomende problemen, die van invloed zijn op uw mobiele pagina’s. U kunt verder onderzoek doen door op één van de problemen te klikken.

13. Controleer uw HTTPS-inhoud

Google is in 2014 begonnen met het gebruik van HTTPS als ranking-signaal . Sindsdien komen HTTPS-migraties steeds vaker voor. Volgens het Google Transparantie Rapport gebruikt 95% van de websites op Google tegenwoordig HTTPS. Als uw site nog niet over HTTPS beschikt, kunt u een HTTPS-migratie overwegen. Als uw website al gebruik maakt van HTTPS (gedeeltelijk of volledig), is het belangrijk om de veelvoorkomende HTTPS-problemen te controleren als onderdeel van uw SEO Audit. Vergeet vooral niet te controleren op:

Gemengde content

Problemen met gemengde inhoud ontstaan ​​wanneer een anders beveiligde pagina een deel van de content (afbeeldingen, video’s, scripts, CSS-bestanden) laadt via een niet-beveiligde HTTP-verbinding. Dit verzwakt de beveiliging van de pagina en kan voorkomen dat browsers de niet-beveiligde inhoud of zelfs de hele pagina laden. 

Canonicals en omleidingen

Eerst moet u controleren op dubbele HTTP- versus HTTPS-versies van uw pagina’s, in het gedeelte Site-audit > Omleidingen . Als de HTTP- en HTTPS-versies van uw website niet correct zijn ingesteld, kunnen ze allebei tegelijkertijd worden geïndexeerd door zoekmachines. Dit veroorzaakt dubbele inhoudsproblemen die uw website rankings kunnen schaden. In het ideale geval zouden alle links op uw HTTPS-site, evenals omleidingen en canonicals, meteen naar HTTPS-pagina’s moeten verwijzen. Zorg ervoor, dat u de juiste omleiding van HTTP naar HTTPS instelt, merk problemen op met www en niet-www-versies van uw site. Ten tweede, zelfs als u de HTTP-naar-HTTPS-omleidingen correct op de hele site hebt geïmplementeerd, wilt u gebruikers niet door onnodige omleidingen leiden. Hierdoor zal uw website veel langzamer lijken dan hij is. Dergelijke omleidingen kunnen ook een probleem zijn voor het crawlen, omdat u een beetje van uw crawlbudget verspilt telkens wanneer een bot van een zoekmachine een omleiding bereikt.

14. Technische SEO – Structured data

Gestructureerde gegevens zijn in wezen HTML-code, die wordt gebruikt om specifieke elementen op uw pagina te taggen. Als uw pagina bijvoorbeeld een recept voor Spaghetti is, kunt u Google vertellen welke tekst de ingrediënten zijn, wat de kooktijd, het aantal calorieën, enzovoort is. Google kan de tags vervolgens gebruiken om rich snippets voor uw pagina’s in de SERP te maken:

Technische SEO, Bovenaan in Google

U kunt uw gestructureerde gegevens controleren in de Google Search Console onder het tabblad Verbeteringen. Google geeft de verbeteringen weer die u op uw website heeft geprobeerd te implementeren en laat u weten of dit is gelukt:

Als uw website een CMS gebruikt, kunnen gestructureerde gegevens standaard worden geïmplementeerd of u kunt dit implementeren door een plug-in te installeren. Als u een op maat gemaakte website heeft, kunt u een hulptool gebruiken om uw pagina’s te taggen.

Wat is het voordeel van het gebruik van gestructureerde data ?

Het kan u helpen de presentatie van uw vermeldingen in de SERPS te verbeteren, hetzij via aanbevolen fragmenten , kennisgrafieken, enz., en uw CTR te verhogen.

Wat zijn de toepassingen van gestructureerde gegevens?

Er zijn veel manieren waarop u gestructureerde gegevens kunt gebruiken om uw content te beschrijven. De meest populaire zijn: artikelen, recepten, evenementen, vacatures, lokale bedrijven en meer. U kunt de volledige lijst hier bekijken .

15. Technische SEO – Bekijk uw sitemap

Wat zijn XML-sitemaps?

Een XML-sitemap is een bestand dat de URL’s van uw site weergeeft en waarmee u informatie over elke pagina van uw site kunt verstrekken om de crawlers van zoekmachines te helpen deze beter te navigeren en te indexeren.

Hoe vind ik mijn XML-sitemap?

Vaker wel dan niet, bevindt uw XML-sitemap zich in de hoofdmap van uw domein, dus het is meestal vrij eenvoudig te vinden. Er zijn een aantal manieren waarop u de XML-sitemap op uw site kunt vinden – of zelfs om te ontdekken of u er een heeft. Gebruik veelvoorkomende formaten om te lokaliseren. Er zijn enkele standaard naamgevingsconventies, dus probeer die eerst. Begin met deze: URL + sitemap.xml of sitemap_index.xml of sitemap1.xml.

Waarom zijn XML-sitemaps belangrijk voor SEO?

In een wereld waar Google koning is, is het essentieel om uw site fris en bijgewerkt te houden met nieuwe content. Hierbij zijn XML-sitemaps essentieel voor SEO omdat ze zoekmachines zoals Google in staat stellen om alle pagina’s op uw website te vinden, die ze anders misschien niet zouden hebben gevonden. Dit kan betekenen, dat er meer organisch verkeer binnenkomt en meer geld voor uw bedrijf! XML-sitemaps helpen Google uw site te crawlen en snel naar nieuwe inhoud te gaan. Zie de XML-sitemap als een stappenplan. Langs komt Google, en het komt op een pagina op uw website. Laten we, omwille van het argument, zeggen dat dit de startpagina is. Van daaruit crawlt het je navigatie en begint het die pagina’s te ontdekken, en gaat dan op jacht om andere pagina’s te vinden.

Wat voor soort websites hebben een XML-sitemap nodig?

Google heeft in het verleden gezegd dat kleine sites niet echt een XML-sitemap nodig hebben (zie onderstaande quote van John Mueller) en dat ze nuttiger zijn voor grotere sites. Ik zou zeggen dat het niet uitmaakt hoe groot of klein je site is – u zou nog steeds een XML-sitemap moeten hebben. Ze zijn zo gemakkelijk te maken (met behulp van een plug-in zoals Yoast of een tool zoals Sitebulb of Screaming Frog), dat u gek zou zijn om dat niet te doen. Een taak die een paar minuten duurt voor een eenvoudige site, helpt Google de gewenste URL’s te vinden.

“Met een site van die grootte heb je niet echt een sitemapbestand nodig, we kunnen over het algemeen toch alles crawlen en indexeren.
Met zo’n klein sitemapbestand kun je ook gewoon de afzonderlijke URL’s controleren om te zien of ze op die manier zijn geïndexeerd.’

John Mueller – Google Webmaster Forum

Uw sitemap vertelt zoekmachines over uw sitestructuur en laat ze nieuwe content ontdekken. Als u geen sitemap heeft, moet u er nu echt een gaan maken. Als u uw sitemap controleert, zorg er dan voor dat deze:

Schoon. Houd uw sitemap vrij van fouten, omleidingen en URL’s die worden geblokkeerd voor indexering; anders loopt u het risico dat zoekmachines de sitemap negeren alsof deze er niet is.

Actueel. Zorg ervoor, dat uw sitemap wordt bijgewerkt, telkens wanneer nieuwe content aan uw website wordt toegevoegd of ervan wordt verwijderd. Dit zal zoekmachines zoals Google helpen nieuwe content snel te ontdekken.

Beknopt. Google crawlt geen sitemaps van meer dan 50.000 URL’s. Idealiter zou u het veel korter moeten houden om ervoor te zorgen dat uw belangrijkste pagina’s vaker worden gecrawld: technische SEO experimenten tonen aan dat kortere sitemaps resulteren in effectievere crawls .

Geregistreerd in Search Console. Laat Google weten, wat uw sitemap is. U kunt het handmatig indienen bij Google Search Console of de locatie op de volgende manier ergens in uw robots.txt-bestand opgeven:
Sitemap: http://uwdomein.com/sitemaplocatie.xml

16. Vraag Google om uw site opnieuw te crawlen

De bovenstaande SEO site-audit zal zeker een paar technische SEO problemen op uw site onder de aandacht brengen, die moeten worden opgelost. Zodra u ze heeft opgelost, kunt u Google expliciet vragen uw pagina’s opnieuw te crawlen, om ervoor te zorgen, dat de wijzigingen zo snel mogelijk worden doorgevoerd. U kunt uw bijgewerkte URL’s voor opnieuw crawlen verzenden vanuit Google Search Console met behulp van de URL-inspectietool. Voer de URL in van de pagina die u opnieuw wilt crawlen en klik op ‘Indexering aanvragen’. U kunt ook de Live URL testen (voorheen bekend als de functie Fetchen als Google) om uw pagina in zijn huidige vorm te zien en vervolgens indexering aanvragen.

Technische SEO, Bovenaan in Google

Met de URL-inspectietool kunt u het rapport uitbreiden voor meer details, de live-URL testen en indexering aanvragen.

SEO techniek – crawlen

U moet beoordelen wanneer u echt opnieuw moet crawlen. Bijvoorbeeld na het doorvoeren van serieuze wijzigingen op de site: u heeft uw site van http naar https verplaatst, gestructureerde gegevens ingevoerd of essentiële content optimalisatie uitgevoerd. Of u wilt, dat een dringende blogpost sneller op Google verschijnt. Er wordt aangenomen dat er een limiet is voor het aantal herhalingsacties per maand, dus maak er geen misbruik van. Het opnieuw crawlen kan 10 minuten tot enkele weken duren. Een beter alternatief voor opnieuw crawlen is om enorme wijzigingen door te geven via de sitemap. Google kan niet garanderen, dat alle pagina’s van uw website worden geïndexeerd, maar als de site vrij klein is, zal dit hoogstwaarschijnlijk wel gebeuren.

Bing Webmaster Tools

Er is ook een vergelijkbare optie in Bing Webmaster Tools. Zoek gewoon het gedeelte Mijn site configureren in uw dashboard en klik op URL’s indienen. Vul de URL in, die u opnieuw wilt laten indexeren, en Bing zal deze doorgaans binnen enkele minuten crawlen. Met de tool kunnen webmasters voor de meeste sites tot 10.000 URL’s per dag indienen.

17. Technische SEO – Core Web Vitals

Wat zijn Core Web Vitals?

Core Web Vitals zijn de nieuwe standaarden van Google om te evalueren of een pagina een goede gebruikerservaring biedt.

De Core Web Vitals bestaan ​​uit:

  • Largest Contentful Paint (LCP) : meet de snelheid waarmee de hoofdinhoud van een pagina wordt geladen. Dit zou binnen 2,5 seconden na het landen op een pagina moeten gebeuren .
  • First Input Delay (FID) : meet de snelheid waarmee gebruikers kunnen communiceren met een pagina nadat ze erop zijn beland. Dit zou binnen 100 milliseconden moeten gebeuren .
  • Cumulatieve lay-outverschuiving (CLS) : meet hoe vaak gebruikers onverwachte lay-outverschuivingen ervaren. Pagina’s moeten een CLS van minder dan 0,1 hebben.

Als het gaat om het testen van uw site om te zien hoe goed deze voldoet aan de Core Web Vitals-benchmarks, is het belangrijk dat aan alle drie de statistieken wordt voldaan, zegt John Mueller.

18. Controleer uw site regelmatig

Tenslotte. Een regelmatige site-audit moet een prioriteit zijn in uw SEO-strategie. Welke veranderingen er ook op internet verschijnen, ze kunnen de ranglijst op een zeer onvoorspelbare manier beïnvloeden. Daarom is het echt verstandig om SEO analyse tools in te stellen voor regelmatige technische SEO controles om SEO optimalisatie problemen te detecteren en op te lossen zodra ze zich voordoen.

19. Broodkruimel-menu’s

Een broodkruimelmenu is een reeks links boven of onder aan een pagina, waarmee gebruikers naar een vorige pagina (meestal de categoriepagina) of naar de startpagina van een website kunnen navigeren. Een broodkruimelmenu heeft twee hoofddoelen: het helpt gebruikers gemakkelijk door een website te navigeren zonder op de terugknop van hun browser te hoeven drukken. Het geeft zoekmachines nog een hint over de structuur van een website. ,Breadcrumbs worden in verschillende SEO Guides als SEO-element genoemd omdat ze sterk worden aanbevolen door Google. Als u breadcrumbs nog niet hebt ingeschakeld, zorg er dan voor dat ze zijn ingeschakeld op uw website en dat ze het juiste schema hebben.

Technische SEO – Conclusie

Deze technische SEO checklist heeft als doel om met u te delen, wat er allemaal op het gebied van SEO techniek moet gebeuren om van uw website een goed scorende site te maken. Technische SEO kan lastig zijn en heeft vele valkuilen. Een SEO specialist inhuren is daarom altijd een verstandige keuze. De SEO expert begeleidt u graag naar de posities bovenaan in Google met uw website.

SEO checklists – Connect your World

SEO specialist Den Haag

Herman Geertsema is de eigenaar en freelance SEO specialist van SEO en Content Marketing bureau Connect your World gevestigd in Den Haag. Hij is een ervaren SEO consultant en Content Marketeer. Connect your World voert online marketing projecten uit op het gebied van zoekmachineoptimalisatie, Linkbuilding, Contentmarketing, Sociale Media en Google Ads. Hij heeft ook kennis van de SEO techniek.

SEO specialist inhuren

Kies ook een SEO specialist voor een goede SEO analyse in de volgende regio’s:

Heeft u een vraag over technische SEO, Google Ads Campagnes of iets anders? Of wilt u ons als SEO tekstschrijver of SEO specialist inhuren om bovenaan in Google te komen? Neem dan contact op via onderstaande button.

SEO & Content Marketing Bureau Connect your World

Dr. J. Presserstraat 313
Den Haag, Nederland 2552 LW
Telefoon: +31641226543
E-mail: info@connectyourworld.nl

SEO check

Wilt u zelf een SEO check uitvoeren voor uw website? Maak dan gebruik van de vele SEO checklists op deze website of ons overzicht met veelal gratis SEO tools.

HTML-tags voor SEO

HTML-Tags, SEO optimalisatie, Zoekmachineoptimalisatie

HTML-tags behoren tot de eerste dingen, die we leren in SEO optimalisatie. Ze zijn onzichtbaar voor het blote oog, maar kunnen wonderen doen voor de posities van de website in de zoekmachine. HTML-tags zijn zelfs zo essentieel geworden, dat geen enkele website kan concurreren in de zoekresultaten van vandaag als ze HTML-tags of web page HTML negeren of verkeerd gebruiken.

Wat zijn HTML-tags?

HTML-tags zijn stukjes code, die kunnen worden gebruikt om onze content voor zoekmachines te beschrijven. We kunnen HTML-tags gebruiken om de belangrijke delen van onze content te markeren, afbeeldingen te beschrijven en zelfs instructies te geven aan zoekmachinebots. HTML-tags worden ook gebruikt om de manier waarop onze pagina’s in zoekresultaten worden weergegeven, te beïnvloeden. Met behulp van bepaalde tags kunnen we gewone zoekfragmenten omzetten in ‘rich snippets’ en misschien zelfs in ‘featured snippets’. En naarmate onze zoekfragmenten geavanceerder worden, kunnen ze betere SERP posities veiligstellen en meer verkeer aantrekken.

Geschatte leestijd: 21 minuten

Zijn HTML-tags vandaag de dag nog steeds belangrijk?

Absoluut! Sommigen zeggen, dat zoekmachines te slim zijn geworden voor HTML-tags. Ze zeggen dat zoekmachines geen hulp nodig hebben bij het begrijpen van onze content. Nou, dat is niet de hele waarheid. Ten eerste, hoewel kunstmatige intelligentie grote sprongen heeft gemaakt in het begrijpen van content, is het nog niet perfect. Er is nog steeds een aanzienlijke foutmarge en we hebben nog steeds web page HTML nodig om ervoor te zorgen, dat al onze content wordt geïnterpreteerd zoals het hoort. Ten tweede is het niet de enige functie van HTML-tags om zoekmachines te helpen onze content te begrijpen. Ze verbeteren ook de gebruikerservaring, creëren prachtige zoekfragmenten, lossen duplicated content problemen op en dwingen crawlregels af.

De volgende HTML-tags zijn belangrijk:

  1. Titel tag
  2. Meta beschrijving tag
  3. Koppen
  4. Alt-kenmerk
  5. Open Graph-tags
  6. Robots tag
  7. Canonieke tag
  8. Schema-opmaak

1. HTML Titel-tag

HTML Titel-tags worden door zoekmachines gebruikt om het onderwerp van een pagina te bepalen en deze in SERP weer te geven. In HTML ziet een titel tag er als volgt uit:<title>Uw Titel staat hier</title>

In SERP ziet een HTML titel tag er paars gedrukt uit:

SEO optimalisatie waarde

Titel-tags waren van groot belang voor zoekmachines zoals Google. De titel van de pagina is het hoofdonderwerp, dus Google zou naar de titel kijken om te beslissen of de pagina relevant is voor een zoekopdracht. Natuurlijk begonnen SEO specialisten titel tags met zoveel mogelijk zoekwoorden te vullen, in een poging hun pagina’s relevant te maken voor meerdere zoekopdrachten. Als reactie daarop begon Google het vullen van zoekwoorden te bestraffen en verloren pagina’s met spamtitels hun positie in de zoekresultaten.

Nu Google is overgestapt op semantisch zoeken, is de waarde van een geoptimaliseerde titel-tag zelfs nog lager. De onderzoekers van Backlinko ontdekten bijvoorbeeld, dat een voor zoekwoorden geoptimaliseerde titel-tag geassocieerd was met een betere ranking, maar dat de correlatie kleiner was dan ooit. Google is zelfs zo goed geworden in het begrijpen van onze webpagina’s, dat het onze titels soms voor ons herschrijft. Dat klopt, het is mogelijk, dat u een bepaalde titel voor uw pagina instelt, waarna Google een andere titel in de zoekresultaten weergeeft. Hoewel het nog steeds zeldzaam is, gebeurt het wanneer:

De titel is gevuld met trefwoorden

Google kan een titel met spam corrigeren als de pagina zelf content van hoge kwaliteit bevat. U hoeft geen goede content te verspillen alleen omdat u de fout heeft gemaakt om een ​​paar extra Google zoekwoorden aan uw titel toe te voegen.

De titel komt niet overeen met een zoekopdracht

Google kan uw webpagina voor een bepaalde zoekopdracht kiezen, zelfs als uw titel niet overeenkomt met deze zoekopdracht. In dit geval kan de titel soms worden herschreven voor de SERP. Het is duidelijk, dat u geen titel kunt schrijven, die overeenkomt met alle mogelijke zoekopdrachten. Als u echter ziet, dat Google uw titel herschrijft voor grote zoekopdrachten, overweeg dan om deze te herzien.

Er zijn enkele alternatieve titels

Facebook en Twitter hebben hun eigen tags in het <head> -gedeelte van uw pagina, dus als u de alternatieve titels voor deze sociale netwerken gebruikt, kan Google deze ook gebruiken in plaats van uw titel-tag.

Hoe HTML-tags zoals titel-tags te optimaliseren

Hier ziet u hoe u titels maakt volgens de richtlijnen van Google en best practices op het gebied van SEO.

Titel lengte in HTML-tags

Google heeft een bepaalde limiet voor het aantal titeltekens, dat in SERP kan worden weergegeven. Deze limiet is niet exact – deze verandert afhankelijk van de grootte van uw scherm. Als vuistregel geldt dat titels van minder dan 60 tekens op de meeste schermen passen. Als uw titel niet op een bepaald scherm past, zal Google deze afbreken. 

Het is niet per se slecht, dat uw titel wordt afgebroken. Soms kan het zelfs een positief effect hebben op de Click through rate. Afgekorte titels creëren een cliffhanger en stimuleren de nieuwsgierigheid van de gebruikers, zodat ze worden aangemoedigd om de pagina te bezoeken. De enige keer dat een afgekapte titel een probleem kan zijn, is wanneer een zichtbaar deel van uw titel niet relevant lijkt te zijn voor de zoekopdracht. Het is dus niet nodig, dat uw volledige titel zichtbaar is, maar het is belangrijk dat het zichtbare gedeelte uw ‘hoofd zoekwoord’ bevat.

Titel zoekwoorden

Zoekwoorden in uw titel hebben, is nog steeds belangrijk. Zo communiceert u de relevantie van uw webpagina naar de gebruikers. Maar als u te veel zoekwoorden opneemt, zal Google uw pagina degraderen of uw titel herschrijven om minder spam te bevatten. De huidige ‘best practice’ is om slechts één zoekwoord of korte zinsdeelgroep per titel op te nemen en vervolgens de rest van de titel te vullen met marketingwoorden. Hier zijn bijvoorbeeld twee populaire voorbeelden van titelstructuren:

Top 10 mountainbikes voor elk budget | Bikespecialist

De titel heeft aan het begin een korte zoekwoordgroep. We zien ook dat het een lijstje is, omdat het top 10 zegt. Er is een merk aan het einde om domein autoriteit te communiceren. Daarnaast zegt de titel elk budget, wat slechts een algemeen verkoopargument is.

Hoe u de beste telefoon voor het werk kiest | 2023

Deze titel heeft zijn trefwoord iets verderop, maar het is nog steeds binnen de lengtelimiet, dus het zal zichtbaar zijn in elke SERP. We kunnen zien, dat de pagina een gids wordt, omdat de titel zegt hoe dat moet. We kunnen ook zien dat het actueel is omdat het het huidige jaar bevat.

Merk in een titel

Als u een bekend merk heeft, is het een goed idee om dit in de titel te gebruiken. Wanneer gebruikers de resultatenpagina (SERP) doorbladeren, zullen ze eerder iets kiezen, dat ze herkennen. Als u geen gevestigd merk heeft, zult u geen direct voordeel zien als u het in de titel opneemt. Maar het kan u helpen om na verloop van tijd merkherkenning op te bouwen, zodat u uiteindelijk de voordelen zult gaan zien. We praten hierbij over jaren.

2. Metabeschrijvingstag

De meta beschrijving is een korte tekst paragraaf, die wordt gebruikt om uw pagina in zoekresultaten te beschrijven. In HTML ziet een metabeschrijvingstag er als volgt uit:

<meta name="description" content="Uw metabeschrijving staat hier">

In de SERP ziet u onder elke titel een paar regels. Dat is de metabeschrijving.

HTML-tags, SEO optimalisatie, metabeschrijving

SEO waarde van een metabeschrijving

De functie van metabeschrijving is vergelijkbaar met de titel. Het geeft wat meer details over uw pagina en helpt gebruikers beslissen of ze uw pagina willen bezoeken of niet. Hoewel de metabeschrijving geen directe rangschikkingsfactor is, kan het toch uw succes bij het zoeken vergroten. Als uw metabeschrijving relevant en aantrekkelijk is, zullen meer gebruikers op uw fragment klikken. Uiteindelijk zou Google kunnen overwegen om u een betere positie in de zoekresultaten te geven. Hoewel, net als bij titels, Google zich het recht voorbehoudt om uw metabeschrijving te herschrijven. Het gebeurt zelfs heel vaak! De meeste metabeschrijvingen, die u in SERP ziet, zijn gemaakt door Google en niet door website eigenaren. John Mueller van Google legt uit, dat metabeschrijvingen vaak aangepast worden om zelfs met de kleinste verandering aan de vraag van de gebruiker te voldoen. Dus Google bewijst je eigenlijk een plezier. Het toont verschillende metabeschrijvingen aan verschillende gebruikers en verbetert de relevantie van uw zoekfragmenten.

Waar moet u aan denken bij SEO optimalisatie

Hoewel metabeschrijvingen vaak door Google worden herschreven, wordt er nog steeds een behoorlijk deel van de originele beschrijvingen weergegeven in SERP. Laat het niet aan het toeval over, vertrouw niet op Google om uw metabeschrijving voor u te genereren, want dat is misschien niet de beste optie. En als dat niet het geval is, blijft er een slecht geoptimaliseerd fragment en slechte zoekprestaties over.

Meta beschrijving lengte

Er is geen technische limiet voor de lengte van de meta beschrijving, maar Google toont over het algemeen alleen de eerste 160 tekens in uw fragment. Het advies is hetzelfde als bij de titel-tag – maak het zo lang als u wilt, maar zorg ervoor, dat uw zoekwoorden en andere belangrijke informatie dichter bij het begin worden vermeld.

Meta beschrijving keywords

Er is meer ruimte in een meta description, daarom is het prima om meer dan één zoekwoord te gebruiken. De huidige ‘beste practice’ is om varianten van het zoekwoord te gebruiken, dat u in de titel heeft geplaatst. Als mijn titel bijvoorbeeld is Hoe kies je de beste telefoon voor werk , dan zeg ik in mijn beschrijving, in plaats van telefoons voor werk te zeggen, zakelijke telefoons. Op deze manier is de kans groter, dat de vraag van de gebruiker exact overeenkomt. Hoewel u meer zoekwoorden in de meta beschrijving kunt gebruiken, wordt aanbevolen om er niet meer dan twee of drie te gebruiken. Houd het natuurlijk. Doe geen moeite om nog een zoekwoord te plaatsen waar het niet thuishoort.

Geen aanhalingstekens in meta beschrijving

Wanneer u dubbele aanhalingstekens gebruikt in de HTML van de metabeschrijving, zal Google deze tekst bij het aanhalingsteken knippen, wanneer deze in de SERP’s wordt weergegeven. Het is dus beter om alle alfanumerieke tekens uit uw meta beschrijvingen te verwijderen.

3. HTML-tags koppen

Koppen (H1-H2) worden gebruikt om uw pagina op te splitsen in secties of hoofdstukken. Elke kop is als een kleine titel op de pagina. 

In Web page HTML ziet een kop er als volgt uit:<h1>Zakelijke telefoons</h1>

SEO relevantie

De oorspronkelijke functie van koppen was om de gebruikerservaring te verbeteren. Wanneer de pagina correct is georganiseerd met koppen, maakt u het gebruikers gemakkelijker om door de content te navigeren, irrelevante hoofdstukken over te slaan en de belangrijke dingen te vinden. En als de gebruikers tevreden zijn, is Google tevreden. Tegenwoordig is de rol van koppen veel geavanceerder. Sinds de introductie van passage – indexering kan Google bepaalde secties van uw pagina als afzonderlijk zoekresultaat gebruiken.

Waaraan denken bij SEO optimalisatie

Hier zijn de ‘best practices’ die u kunt volgen bij het optimaliseren van koppen:

Hiërarchie van koppen

Traditioneel is er slechts één H1-kop per pagina en dit is de titel van uw pagina. Het is echter niet hetzelfde als de titel-tag. De titel-tag wordt weergegeven in de zoekresultaten, terwijl de kop H1 op uw website wordt weergegeven. Een echt verschil is, dat er geen tekenlimiet is voor de H1 kop, dus u kunt deze langer maken dan uw titel-tag. Of u kunt ze hetzelfde maken. Dat is uw keuze. Dan zijn er H2 – koppen, die worden gebruikt om uw content in hoofdstukken op te splitsen. Vervolgens H3 – koppen, die worden gebruikt om uw hoofdstukken op te splitsen in subhoofdstukken. U kunt zelfs dezelfde logica volgen tot aan H6. In het algemeen wordt aanbevolen om niet verder te gaan dan H3-H4. De pagina’s met veel kopniveaus worden te rommelig.

Koppen met zoekwoorden

Weet u nog hoe elk van uw koppen een afzonderlijk zoekresultaat kan zijn? Om dit mogelijk te maken, moet u elke kop schrijven alsof het een paginatitel is. Voeg een trefwoord toe dat relevant is voor het gedeelte van de pagina en formuleer uw kop op een zoekopdrachtachtige manier. Laten we bijvoorbeeld teruggaan naar onze handleiding voor bakstenen muren. Aan de linkerkant hebben we koppen die niet zijn geoptimaliseerd voor zoeken. Ze werken prima voor navigatie binnen de pagina, maar ze zullen de SERP nooit halen. Terwijl we aan de rechterkant koppen hebben die veel informatiever zijn en door Google kunnen worden gebruikt om nauwere zoekopdrachten te beantwoorden.

Slechte koppenGoede rubrieken
WeggooienGooi de oude telefoon niet weg
KammenReinig de hond met een speciale borstel
BorstelenGebruik een zeepoplossing
AfdichtenDicht de afvoer met tape


Web page HTML – Parallelle syntaxis

Soms kan Google uw koppen omzetten in een uitgelicht fragment van het lijsttype. Om ervoor te zorgen, dat uw koppen in aanmerking komen voor een lijstfragment, moeten ze de parallelle syntaxis volgen. Dit betekent, dat al uw koppen op dezelfde manier moeten worden geformuleerd. Ze moeten bijvoorbeeld allemaal beginnen met een werkwoord. Of ze moeten allemaal zelfstandige woordgroepen zijn. Het helpt ook als alle koppen van hetzelfde niveau dezelfde lengte hebben en in een genummerde lijst zijn gerangschikt.

4. Alt tekst kenmerk

Het alt tekst kenmerk is een onderdeel van een afbeeldingstag en biedt een beschrijving voor een afbeelding. In HTML kan het er zo uitzien: <img src="url" alt="De beschrijving van je afbeelding staat hier">

SEO waarde

Alt tekst speelt een belangrijke rol bij het optimaliseren van afbeeldingen. Het maakt uw afbeeldingen toegankelijk voor zowel zoekmachines (door hen te vertellen wat een bepaalde afbeelding betekent) als voor mensen (door een alternatieve tekst weer te geven voor het geval een bepaalde afbeelding niet kan worden geladen of door schermlezers te helpen afbeeldingen over te brengen). Het belangrijkste voordeel in termen van zoekoptimalisatie is dat geoptimaliseerde alt tekst uw afbeeldingen helpen rangschikken bij het zoeken naar afbeeldingen. Hoewel kunstmatige intelligentie redelijk goed is geworden in het lezen van website afbeeldingen, helpt een schriftelijke beschrijving de resterende kloof te overbruggen.

Waaraan denken bij zoekmachineoptimalisatie

Hier zijn de ‘best practices’ die u kunt volgen bij het optimaliseren van Alt tekst:

Laat ze niet leeg achter

Wil u van deze extra mogelijkheid gebruik maken om door middel van beeldoptimalisatie hoger te scoren, controleer dan allereerst op lege alt-teksten. 

Website afbeeldingen prioriteren

Als u duizenden SEO afbeeldingen heeft, hoeft u ze niet allemaal te optimaliseren. Besteed aandacht aan degenen die nuttige gegevens overbrengen, niet degenen die worden gebruikt voor entertainment en decoratie. De bruikbare afbeeldingen zijn afbeeldingen van producten, screenshots van processen, uw logo, infographics en diagrammen.

Voeg zoekwoorden toe

Alt-teksten zijn nog een mogelijkheid om uw hoofd zoekwoorden te gebruiken. Gebruik ze niet te veel! Schrijf de beschrijving, die context geeft aan uw content en gebruik een zoekwoord waar dit geschikt is. Voor zoekwoorden geoptimaliseerde afbeeldingen werken uitstekend in combinatie met de factoren waarmee zoekmachines rekening houden bij het rangschikken van pagina’s.

5. Open Graph-tags

Open Graph (OG) -tags worden in het <head> -gedeelte van een pagina geplaatst en zorgen ervoor, dat elke webpagina een rijk object wordt in sociale netwerken. Het werd voor het eerst geïntroduceerd door Facebook in 2010 en verder erkend door andere grote sociale mediaplatforms zoals LinkedIn & Twitter. In HTML kan het er als volgt uitzien: <meta name="og:titel" property="og:titel" content="Uw Open Graph Titel staat hier">

SEO-waarde

Met OG-tags kunt u bepalen, hoe de informatie over uw pagina wordt weergegeven wanneer deze wordt gedeeld via sociale media kanalen. Deze mogelijkheid kan u helpen de prestaties van uw backlinks op sociale media te verbeteren, waardoor meer doorklikken en meer conversies worden gegenereerd.

Waarmee rekening mee houden bij zoekmachineoptimalisatie

Er zijn nogal wat Open Graph-tags, ik zal een paar tips geven over de belangrijkste.

OG-titel 

Ja, dat is weer een tag met de titel van uw pagina. Dus nu heeft u drie verschillende titels: de ene is voor zoeken (titel-tag), de andere is voor uw website (H1) en de derde is voor sociale netwerken (OG-titel). U kunt alle andere titels kopiëren en de zaken eenvoudig houden. U kunt ook een aparte titel bedenken voor sociaal delen. Houd er rekening mee dat het tussen de 60 en 90 tekens moet zijn. Anders kan het worden afgekapt.

OG-type

Gebruik deze tag om te beschrijven wat voor soort object u deelt: een website, post, video, bedrijf, etc. U kunt de volledige lijst hier bekijken. Deze tag wordt als belangrijk beschouwd wanneer uw pagina de ‘Vind ik leuk-knop’ heeft. Het kan helpen om te bepalen of uw content zal verschijnen in het interessegedeelte van de Facebook gebruiker voor het geval hij of zij deze “leuk” vindt. In de meeste gevallen is het type “website”, omdat u meestal links naar websites deelt. Als dit het geval is, hoeft u het type code niet op te geven. Deze wordt standaard als zodanig gelezen.

OG beschrijving

Deze lijkt erg op de metabeschrijvingstag. Het wordt echter niet weergegeven in de SERP’s. Het wordt weergegeven als een samenvatting wanneer uw pagina wordt gedeeld. Om deze reden heeft het geen zin om uw zoekwoorden op een slimme manier in deze specifieke beschrijving te plaatsen. Uw belangrijkste taak hier is om het te laten spreken voor uw potentiële publiek en meer klikken te genereren. Wat de lengte betreft, wordt het als een goede gewoonte beschouwd om deze ongeveer op 200 tekens te houden.

OG-afbeelding

Een afbeelding maakt uw deelbare link veel aantrekkelijker. Sommige tekst over de afbeelding is acceptabel, maar probeer deze in het midden van een afbeelding te plaatsen, aangezien sommige platforms de randen bijsnijden. De aanbevolen resolutie voor de OG-afbeelding is 1200×627 pixels, de grootte – tot 5 MB. Als u klaar bent met uw OG-metatags, kunt u controleren hoe alles eruitziet met behulp van Open Graph Object Debugger, een tool gemaakt door Facebook.

Twitter-kaarten

Twitter kaarten lijken erg op OG-tags met bijvoorbeeld titel, beschrijving en afbeelding. Ze worden uitsluitend door Twitter gebruikt. Hoewel tweets nu meer dan 140 tekens kunnen bevatten, zijn deze kaarten een mooie extensie waarmee uw tweet opvalt tussen de massa gewone tweets met tekst.

Er zijn een paar soorten Twitter-kaarten:

Overzichtskaart. Afgezien van de originele tweet is er een voorbeeld van de content van uw pagina, wat goed is voor het markeren van blogposts, producten, nieuws, enz.

Titel: 70 tekens
Beschrijving: 200 tekens
Afbeelding: 120x120px, tot 1 MB

Overzichtskaart met een grote afbeelding. Deze kaart is vergelijkbaar met de vorige, maar bevat een grotere afbeelding. De afbeelding kan ook wat tekst bevatten, die het belangrijkste punt van de content van uw webpagina weergeeft, een oproep tot actie of iets dat echt aanzet tot klikken.

Titel: 70 tekens
Beschrijving: 200 tekens
Afbeelding: 280x150px, maximaal 1 MB

Spelerskaarten. Met dergelijke kaarten kunnen gebruikers video’s of audio afspelen in een tweet.

Beschrijving: 200 tekens
Video: H.264, basislijnprofiel, niveau 3.0, tot 640 x 480 pixels bij 30 fps.
Audio: AAC, profiel met lage complexiteit

App-kaarten. Met dergelijke kaarten kunnen gebruikers mobiele apps rechtstreeks vanuit een tweet downloaden. Ze bevatten een naam, een beschrijving, een pictogram, een beoordeling en een prijs.

Titel: gerenderd vanuit app-ID
Beschrijving: 200 tekens
Afbeelding: weergegeven vanuit app-ID

Opmerking: er wordt  slechts één kaarttype per pagina ondersteund.

Opmerking: als u  eenmaal klaar bent met de elementen van uw Twitter-kaart, moet je de kaarten instellen en ze vervolgens valideren met een kaart validator .

6. HTML-tags – Robots-tag

Een robots-tag is een element in de HTML van een pagina dat zoekmachines informeert welke pagina’s op uw site moeten worden geïndexeerd en welke niet. De functies zijn vergelijkbaar met robots.txt, maar sitemap robots txt geeft suggesties. Terwijl robots-tags instructies geven.

In HTML kan het er als volgt uitzien: <meta name="robots" content="index, follow">

SEO-waarde

Het is niet zo, dat een robots-tag u kan helpen uw ranglijst te verbeteren, maar u kunt het gebruiken om uw ranglijst op te slaan voor het geval u sommige pagina’s moet blokkeren voor indexering. U kunt bijvoorbeeld enkele webpagina’s of blogs hebben met een vrij dunne content, waarvan u niet geïnteresseerd bent om geïndexeerd te worden tijdens het zoeken, maar die u wel wilt behouden. In dit geval kunt u gewoon een noindex-tag voor deze pagina toevoegen.

Waar rekening mee houden bij zoekmachineoptimalisatie

Hier zijn de ‘best practices’ die u kunt volgen bij het optimaliseren van robots-tags:

Adres bots op naam

Gebruik robots als u alle bots wilt aanspreken, maar gebruik individuele botnamen als u een bepaalde bot wilt aanspreken. Individuele botnamen worden vaak gebruikt om te voorkomen, dat kwaadwillende bots uw website crawlen.

Ken de relevante parameters

Google begrijpt en respecteert de volgende parameters in uw robots-tag:

Noindex – voorkomt dat zoekmachines een pagina indexeren;
Nofollow – voorkomt dat de zoekmachine alle links op de pagina volgt (daarom verschilt het van het nofollow-attribuut dat op een individueel URL-niveau wordt toegepast);
Volgen – links op de pagina moeten worden gevolgd, zelfs als de pagina noindex is;
Noimageindex – afbeeldingen op deze pagina worden niet geïndexeerd;
Noarchive – voorkomt dat een in het cachegeheugen opgeslagen kopie van de pagina wordt weergegeven in zoekresultaten;
Geen – hetzelfde als “noindex, nofollow”.

Houd er rekening mee, dat Google alle combinaties van kleine letters en hoofdletters begrijpt, die u gebruikt voor uw robots-tagparameters.

7. Canonieke tag

Als u een paar webpagina’s met identieke content heeft, kunt u een canonieke tag gebruiken om zoekmachines te vertellen welke pagina prioriteit moet krijgen.

In HTML kan het er als volgt uitzien: <link href="URL" rel="canonical">

SEO-waarde Canonieke HTML-tags

Een canonieke tag is op twee manieren belangrijk voor SEO optimalisatie.

Allereerst voorkomt het dat u duplicated content heeft. Duplicated content is niet per se slecht, maar kan verdacht zijn. Google kijkt naar uw webpagina’s en het lijken kopieën te zijn van een aantal andere pagina’s. Dan is er iets vreemds aan de hand.

Ten tweede voorkomt het kannibalisatie. Als u twee vergelijkbare webpagina’s heeft en beide worden geïndexeerd, beginnen ze met elkaar te concurreren in de zoekresultaten. Dat is een aanslag op zowel uw middelen als uw kansen op rangschikking.

Hoe SEO optimalisatie toe te passen

Start een WebSite Auditor en let op dubbele titels en dubbele metabeschrijvingen. Als u een paar URL’s met duplicated content heeft, specificeer dan een <link rel = “canonical”> – element in de HTML van de pagina.

8. Schema-opmaak

Last but not least is Schema-opmaak. Schema is eigenlijk een heel systeem van HTML-tags. Ze kunnen aan uw code worden toegevoegd om zoekmachines over allerlei dingen te vertellen zoals bijvoorbeeld uw contactgegevens, productprijzen, receptingrediënten en nog veel meer.

SEO-waarde

Schema-opmaak wordt gebruikt om specifieke stukjes informatie op een webpagina aan te geven en Google kan deze stukjes informatie gebruiken om ‘rich snippets’ te maken. Als u bijvoorbeeld Schema toepast op een receptenpagina, kent Google de kooktijd, de ingrediënten, het aantal recensies en zelfs het aantal calorieën van het recept. En het zal de informatie gebruiken om deze te maken:

HTML-tags, SEO optimalisatie

Dit worden ‘rich snippets’ genoemd. En Google heeft de afgelopen jaren steeds meer van dit soort fragmenten beschikbaar gemaakt. Tegenwoordig hebben we een artikel, product, evenement, boek, film en ongeveer een dozijn andere schema’s, die uw zoekweergave kunnen verbeteren.

Hoe pakt u SEO optimalisatie aan?

Schema kan een beetje ingewikkeld worden en het is niet iets, dat u met de hand kunt typen. De beste manier om een ​​schema op een pagina toe te passen, is met behulp van de gestructureerde gegevensopmaak hulp. Daar kunt u het type schema kiezen, uw URL invoeren en vervolgens eenvoudig de tekst op de pagina selecteren en deze markeren.

Slot conclusie – HTML-tags

HTML-tags nog steeds behoorlijk belangrijk voor SEO optimalisatie, misschien zelfs meer dan voorheen. De belangrijkste HTML-tags zijn koppen en Schema-opmaak. Google verandert de SERP vrij snel, maakt het interactiever en voegt nieuwe soorten fragmenten toe. Om aan dat alles deel te nemen, om concurrerend te blijven in het zoeken, zou u moeten gaan werken aan uw rubrieken en uw rich results.

SEO en Contentmarketing Blogs

SEO specialist Den Haag

Herman Geertsema is een freelance SEO specialist uit Den Haag. Verder is hij de eigenaar van Connect your World, een SEO bureau in Den Haag. Hij is een ervaren SEO consultant en Content Marketeer.

Online marketeer inhuren

Bij Online marketing bureau Connect your World kunt u ook een online marketeer inhuren om hoger in Google te komen in de volgende regio’s:

Heeft u nog vragen over HTML-tags? Of wilt u ons als SEO specialist inhuren voor een SEO audit? Neem dan contact op en druk op onderstaande button.

SEO & Content Marketing Bureau Connect your World

Dr. J. Presserstraat 313
Den Haag, Nederland 2552 LW
Telefoon: +31641226543
E-mail: info@connectyourworld.nl
12
Connect your World
1
Hoe kan ik je helpen? Connect your World kan je helpen met het beter vindbaar maken van je website. Informeer naar de mogelijkheden of vraag direct een gratis SEO scan aan.