• 06-41226543
  • info@connectyourworld.nl

Tagarchief Technische SEO optimalisatie

Google core web vitals. SEO Den Haag

Google core web vitals – meten is weten

Google core web vitals. SEO Den Haag
Wat zijn Core Web Vitals?

Core Web Vitals zijn een reeks gestandaardiseerde statistieken van Google die ontwikkelaars helpen begrijpen hoe gebruikers een webpagina ervaren. Hoewel Core Web Vitals is gemaakt voor ontwikkelaars, kunnen deze tools door alle site-eigenaren worden gebruikt omdat ze de echte ervaring van de gebruiker op een pagina weergeven.

Geschatte leestijd: 13 minuten

Core web vitals pushen gebruikerservaring

Core Web Vitals zijn een reeks gestandaardiseerde statistieken van Google, die ontwikkelaars helpen begrijpen, hoe gebruikers een webpagina ervaren. Hoewel Core Web Vitals is gemaakt voor ontwikkelaars, kunnen deze tools door alle website eigenaren worden gebruikt. Dit komt doordat ze de echte ervaring van de gebruiker op een pagina weergeven.

3 problemen bij Google core web vitals

Core Web Vitals identificeren problemen met de gebruikerservaring door een statistiek te genereren voor drie primaire gebieden van gebruikerservaring, waaronder:

  • Prestaties bij het laden van pagina’s
  • Gemakkelijke interactie
  • Visuele stabiliteit van een pagina vanuit het perspectief van een gebruiker

Elk van deze statistieken biedt hun eigen perspectief op verschillende elementen, die van invloed zijn op hoe gebruikers omgaan met en omgaan met een website. Hoewel ontwikkelaars vanuit een holistisch perspectief moeten nadenken over ‘gebruikerservaring’, helpen deze onafhankelijke statistieken om de verschillende variabelen in kleinere stukjes op te splitsen. Op die manier kunnen site-eigenaren technische problemen op hun website identificeren en oplossen.

Gebruikerservaring bestaat uit meer dan de Core web vitals

Het is belangrijk om te onthouden, dat deze statistieken niet het hele verhaal vertellen over de gebruikerservaring op een website. Elke statistiek kan worden samengevoegd om ontwikkelaars te helpen problemen op een efficiënte en methodische manier op te lossen.

Laten we eens kijken naar de drie belangrijkste meetwaarden in Core Web Vitals om uw websites vandaag nog te verbeteren!

1. Grootste contentvolle verf (LCP)

Largest Contentful Paint is een Google Core Web Vitals statistiek, die site eigenaren kunnen gebruiken om de gebruikerservaring te beoordelen en te zien of een gebruiker een pagina nuttig zal vinden. Dit doen zij op basis van de weergavetijd van de grootste blokken, die zichtbaar zijn voor een publiek.

Website eigenaren hebben pagina’s op hun website nodig, die snel laden om een ​​plezierige gebruikerservaring te creëren. Niet alleen is de laadtijd een kritische factor voor een positieve gebruikerservaring, een pagina die snel laadt, heeft ook een grotere kans om hoger te scoren in Google. Bovendien is aangetoond, dat zeer snelle laadtijden van invloed zijn op de betrokkenheid en conversiepercentages in vergelijking met een pagina met langzame laadtijden.

Google core web vitals, website snelheid, SEO bureau Den Haag

Wat meet LCP?

LCP meet de tijd, die nodig is, om verschillende content blokken te laden in de gebruikersviewport (huidige scherm). Deze statistiek vertelt u alleen hoe snel inhoudssecties worden weergegeven op het zichtbare scherm. Er wordt niets onder de vouw overwogen.

  • Afbeeldingen
  • Afbeeldingen van videoposters
  • Achtergrondafbeeldingen
  • Tekst op blokniveau

Website eigenaren moeten streven naar LCP binnen 2,5 seconden, nadat een pagina begint te laden.

2. Cumulatieve lay-outverschuiving (CLS)

Site eigenaren moeten het zo gemakkelijk mogelijk maken om met links en knoppen op een site om te gaan om verkopen en conversies te stimuleren. Cumulatieve lay-outverschuiving is een statistiek, die links of knoppen identificeert, die verschuiven nadat een webpagina is geladen. Het weerspiegelt de moeilijkheidsgraad, die gebruikers zullen ervaren, wanneer ze proberen om elementen op uw website te gebruiken, zodra een pagina wordt weergegeven.

UX design

UX en design zijn essentiële componenten van een goede gebruikerservaring. Een gebruiker zal gefrustreerd raken als een webpagina elementen verschuift, terwijl een gebruiker aan het lezen is. CLS helpt ontwikkelaars te bepalen of afbeeldingen of links op de pagina verschuiven, zodat website eigenaren de bruikbaarheid kunnen verbeteren, de klikfrequenties kunnen verhogen en de online verkoop kunnen verbeteren.

Google core web vitals, website snelheid, SEO bureau Den Haag

Wat meet CLS?

CLS meet of elementen in de zichtbare viewport van hun startpositie tussen twee gerenderde frames verschuiven. In eenvoudige bewoordingen helpt deze statistiek site-eigenaren te begrijpen of content zoals tekst, knoppen en banners wordt rond geduwd terwijl een gebruiker content op een bepaalde pagina leest.

Visuele stabiliteit

Elementen die van positie veranderen, kunnen ervoor zorgen, dat gebruikers in de war raken en hun ervaring op een pagina belemmeren. Het is dus belangrijk om ervoor te zorgen, dat alle content op zijn plaats blijft, nadat een pagina op het apparaat van de gebruiker is geladen. CLS kijkt naar kernstatistieken om de visuele stabiliteit van een pagina vanuit een gebruikersperspectief te bepalen door rekening te houden met verschillende factoren:

  • Lay-outverschuiving
  • Impactfractie
  • Afstand breuk

Website eigenaren moeten een CLS van 0,1 of minder handhaven.

3. Eerste ingangsvertraging (FID)

Online consumenten willen pagina’s, die snel zijn en gemakkelijk om mee om te gaan. Eerste invoervertraging meet de invoerlatentie (de tijd die een pagina-element nodig heeft om te reageren op de invoer van een gebruiker) om pagina’s te identificeren, die frustratie bij uw publiek kunnen veroorzaken.

Moderne websites gebruiken een reeks geavanceerde technologieën en dynamische content widgets om content aan hun publiek te leveren. Hoewel dit type content de levering van content kan verbeteren, kunnen deze verbeteringen vertragingen veroorzaken, waardoor een gebruiker moet wachten tot zijn browser reageert op zijn invoer. Ontwikkelaars moeten de tijd die gebruikers besteden aan het wachten op een browser om te reageren op hun input verminderen om de betrokkenheid en bruikbaarheid op de hele site te verbeteren.

Wat meet FID?

FID meet hoe responsief een pagina is bij het laden van elementinvoer van een gebruiker. Dit betekent dat FID alleen gebeurtenissen zoals klikken en toetsaanslagen registreert. Website eigenaren moeten streven naar een goede gebruikerservaring met FID van minder dan 100 milliseconden. Opgemerkt moet worden dat FID moeilijk te meten is, omdat deze gegevens alleen in het veld kunnen worden gemeten. Dit betekent, dat je score afhankelijk is van variabelen, waar je geen controle over hebt, Denk bijvoorbeeld aan zaken zoals apparaat capaciteit van gebruikers en internetsnelheden zoals ervaren door je publiek.

Andere prestatiestatistieken

Zoals we hebben besproken, biedt Core Web Vitals een schat aan informatie die ontwikkelaars kunnen gebruiken om hun websites te verbeteren voor de gebruikerservaring. Naast de belangrijkste hierboven genoemde statistieken, kunnen ontwikkelaars ook begrijpen hoe hun code van invloed is op de manier waarop gebruikers content op hun site consumeren. Laten we daarom een paar andere statistieken bekijken, die u kunt gebruiken om de ervaring te begrijpen bezoekers op uw site hebben.

1. First content ful paint

First Contentful Paint (FCP) meet, hoe lang het duurt voordat de browser van een gebruiker DOM-elementen (afbeeldingen, niet-witte <canvas>-elementen en SVG’s) weergeeft. Deze statistiek identificeert render blokkerende bronnen en wordt gemeten in seconden, met een reeks FCP-scores:

  • 0-2 seconden: Groen (snel)
  • 2-4 seconden: Oranje (matig)
  • 4+ seconden: Rood (langzaam)

2. Snelheidsindex

Snappy-websites bieden verbeterde online-ervaringen en Speed ​​Index (SI) toont u de gemiddelde tijd die content op uw site nodig heeft om aan een gebruiker te worden weergegeven. Deze statistiek identificeert buitensporig JavaScript op een pagina en wordt gemeten in milliseconden, met een reeks SI-scores:

  • 0–4,3 seconden: Groen (snel)
  • 4,4-5,8 seconden: Oranje (matig)
  • 5,8+ seconden: Rood (langzaam)

3. Tijd voor interactief

Time to Interactive (TTI) is de hoeveelheid tijd, die nodig is, voordat de content op een pagina functioneel wordt voordat deze volledig interactief is. TTI helpt u bij het identificeren van pagina’s met onnodig JavaScript en wordt gemeten in seconden, met een reeks TTI-scores:

  • 0-3,8 seconden: Groen (snel)
  • 3,9–7,3 seconden: Oranje (matig)
  • 7,3+ seconden: Rood (langzaam)

4. Totale blokkeertijd

Total Blocking Time (TBT) helpt website eigenaren te beoordelen, hoe lang een webpagina reageert op specifieke gebruikersinvoer. Deze statistiek identificeert pagina’s met onnodig JavaScript en wordt gemeten in milliseconden met een reeks TBT-scores:

  • 0–300 ms: Groen (snel)
  • 300-600 ms: Oranje (matig)
  • 600+ ms: Rood (langzaam)

5. Paginaprestatiescores

Een paginaprestatiescore is een enkele statistiek, die alle belangrijke gebruikerservaring statistieken in Core Web Vitals in aanmerking neemt. Deze score maakt gebruik van een geaggregeerd scoresysteem voor alle mobiele en desktopbezoeken. Er is een gewogen gemiddelde nodig om één enkele score te geven om pagina’s te begrijpen, die snel nader moeten worden onderzocht. Hoewel deze statistieken zijn vereenvoudigd in de statistiek Pagina prestatiescore, kunnen ontwikkelaars scores in elke categorie raadplegen op basis van de specifieke score van 90 (goed), 50-90 (verbetering nodig) en lager dan 50 (slecht).

Hebben Core Web Vitals invloed op SEO als rankingfactor?

In juni 2021 ging Google Core Web Vitals gebruiken als ranking factor. Deze statistieken kunnen daarom van invloed zijn op uw SEO prestaties. Core Web Vitals zal deel uitmaken van  de nieuwe Page Experience signalen , samen met HTTPS beveiliging, veilig browsen, mobielvriendelijkheid en opdringerige richtlijnen voor interstitial.

De impact of Google Core Web Vitals

Google Core Web Vitals heeft invloed op zowel mobiele als desktop organische resultaten, evenals op het al dan niet verschijnen van uw site in Top Stories. Voorheen moest je site AMP gebruiken om in Top Stories te verschijnen. Dat zal niet langer het geval zijn, wanneer Google de wijziging uitrolt. Uw website moet echter wel aan specifieke minimale Google Core Web Vitals scores voldoen om in Top Stories te verschijnen. Bovendien lijkt het erop dat aan alle Core Web Vitals-statistieken moet worden voldaan om de organische ranking te verbeteren. En de Core Web Vitals-score voor niet-geïndexeerde pagina’s kan er ook toe doen. Kortom: als u om uw SEO prestaties geeft, is het verbeteren van uw Core Web Vitals scores nu verplicht.

Core Web Vitals testen en meten op WordPress

U kunt de Core Web Vitals testen en meten met alle tools van Google voor webontwikkelaars, van PageSpeed ​​Insights tot de Chrome DevTools, het CrUX-rapport en nog veel meer.

Google Core web vitals. SEO specialist inhuren

Het Google Core Web Vitals rapport lezen op Search Console

Als u problemen met uw site als geheel wilt diagnosticeren, moet u het Core Web Vitals-rapport in Google Search Console gebruiken. Het rapport is gebaseerd op een verzameling echte gebruikersgegevens van CrUX. Om deze reden kan het even duren, voordat de gegevens in het rapport worden gerapporteerd. Daarom is de Lab Data van Lighthouse altijd waardevol. Dat gezegd hebbende, het Core Web Vitals-rapport is geweldig om de groepen pagina’s te identificeren, die aandacht nodig hebben – zowel voor desktop als mobiel. Zodra u het rapport opent, vindt u een tabblad Details, dat de URL-prestaties groepeert op basis van verschillende criteria:

  • Status (slecht of verbetering nodig)
  • Metriektype (bijv. CLS-probleem: meer dan 0,25 (desktop))
  • URL-groep (de lijst met URL’s met vergelijkbare prestaties).

Zodra u de URL’s, die verbeterd moesten worden, heeft gecorrigeerd, kunt u ook op de kolom Validatie klikken en verder gaan met de optie “Fix valideren”. Houd er rekening mee, dat het validatieproces tot twee weken duurt – wees geduldig!

Hoe Core Web Vitals op WordPress te verbeteren

Nu voor de cruciale vraag: als u momenteel niet voldoet aan de aanbevelingen van Google voor de drie Core Web Vitals-statistieken, hoe kunt u uw WordPress-site dan optimaliseren om uw Core Web Vitals-scores te verbeteren?

De strategieën zijn verschillend voor elke statistiek. De meeste optimalisaties omvatten het implementeren van best practices voor WordPress-prestaties, zij het met een paar aandachtspunten – en daarom zal het kiezen van de beste WordPress-caching-plug- in u helpen zonder enige inspanning van uw kant.

Google Core web vitals verbeteren in WordPress

Pagina caching instellen

Pagina caching versnelt, hoe snel uw server kan reageren en verkort de serverresponstijden (TTFB). Wist u, dat WP Rocket dit automatisch aanzet?

Optimaliseer browser caching

U moet de juiste optie instellen voor de statische bestanden, die uw browser in de cache bewaart. Door dit te doen, gaat u in op de aanbeveling van PageSpeed ​​Insights ” Serveer statische middelen met een efficiënt cachebeleid “. Raad eens? WP Rocket zorgt automatisch voor de optimale houdbaarheidsdatum.

Optimaliseer uw afbeeldingen

Vaak zal uw LCP-element een afbeelding zijn. Door uw afbeeldingen te optimaliseren , wordt uw site sneller en worden website snelheid aanbevelingen aangepakt, zoals ‘Afbeeldingen op de juiste maat’, ‘ Afwijkende afbeeldingen uitstellen ‘, ‘Afbeeldingen weergeven in next-gen-indelingen’ en ‘Afbeeldingen efficiënt coderen’. U kunt  Imagify of Smush Pro gebruiken om WordPress afbeeldingen automatisch te optimaliseren.

Optimaliseer uw code 

Het laden van onnodige CSS- of JavaScript bestanden vóór uw hoofd content vertraagt ​​de laadtijd. U kunt dit oplossen door middelen voor het blokkeren van renderen op uw WordPress-site te elimineren . U moet ook CSS- en Javascript-bestanden verkleinen en ongebruikte CSS verwijderen. Door uw code te optimaliseren, kunt u voldoen aan de aanbeveling “Vermijd het koppelen van kritieke verzoeken” PageSpeed. Nogmaals, u krijgt het meeste werk gedaan door deze optimalisaties in te stellen op het tabblad Bestandsoptimalisatie in WP Rocket.

Gebruik compressie op serverniveau 

Het gebruik van Gzip- of Brotli-compressie zal de bestandsgrootte van uw site verkleinen, wat LCP versnelt en de aanbeveling “Tekstcompressie inschakelen” aanpakt. WP Rocket schakelt automatisch Gzip-compressie in .

Gebruik preconnect voor belangrijke bronnen

Met Preconnect kunt u in een vroeg stadium belangrijke verbindingen met derden tot stand brengen en voldoet het aan de aanbevelingen voor ‘ Preload key requests ‘ en ‘Preconnect to required origins’. 

Gebruik een content delivery network (CDN)

Als u een wereldwijd publiek heeft, kan een CDN uw LCP-tijd voor bezoekers over de hele wereld versnellen. Het is een andere effectieve manier om de Time to First Byte (TTFB) te verminderen. U kunt gebruik maken van  onze RocketCDN-service .

WP Rocket

De eenvoudigste manier om de meeste van deze best practices te implementeren, is door WP Rocket te gebruiken. WP Rocket past automatisch pagina caching en compressie op serverniveau toe, zodra u deze activeert. Het bevat ook andere functies om u te helpen de code en prestaties van uw site te optimaliseren, die allemaal uw LCP-tijd verbeteren.

Blog Posts Connect your World

SEO specialist Den Haag

Herman Geertsema is de eigenaar van Connect your World. Hij is een zeer ervaren SEO freelancer en Content marketeer. Heeft u nog vragen over de Google core web vitals? Of wilt u ons als SEO specialist inhuren? Neem dan contact met ons op.

De Sitemap XML als Tom Tom

XML Sitemap, SEO Den Haag, Google Search Console

Sitemap XML – Inleiding

In deze blogpost gaan we het hebben over de XML sitemap. Eerst leggen we uit wat de XML sitemap precies is. We gaan in op de verschillen tussen de XML sitemap van Yoast en van WordPress. Tot slot laten we zien waar je XML sitemap van jouw eigen website kunt bekijken.

Geschatte leestijd: 4 minuten

Wat is een XML sitemap?

Een XML sitemap ziet er uit als een lijst met alle belangrijke pagina’s van jouw website. Op deze manier weet Google precies hoeveel en welke pagina’s er gecrawld moeten worden.

Waarom is een sitemap XML belangrijk?

Een vraag die misschien opkomt is waarom Google een XML sitemap nodig heeft, als Google ook gewoon de links op jouw website kan volgen. Aan de ene kant is het een soort van back-up plan. Is je interne link structuur om wat voor reden dan ook een rommeltje? Dan heb je altijd een overzichtelijke routekaart als Tom Tom. Aan de andere kant zorgen ze ervoor, dat zoekmachines sneller nieuwe content op je website kunnen vinden. Met een kaart vind je nu eenmaal sneller de weg dan zonder kaart.

XML sitemaps in Yoast SEO

Omdat ze belangrijk zijn voor je website, maakt de Yoast SEO plugin die automatisch voor je aan. Een voordeel van deze sitemap is, dat er gebruik gemaakt van sub categorieën. Dit zijn bijvoorbeeld categorieën zoals berichten, pagina’s, categorieën en auteurs. De structuur is op die manier direct duidelijk. Ook is er een categorie afbeeldingen beschikbaar. Zo kunnen de crawlers deze ook direct meenemen tijdens het crawlen. Achter elke URL staat bovendien een datum. Dankzij deze datum weet de zoekmachine precies welke pagina’s zijn toegevoegd of aangepast sinds zijn vorige bezoek. Zijn er pagina’s niet veranderd? Dan worden deze pagina’s ook niet meegenomen tijdens het crawlen.

SEO Yoast – XML sitemap

Als Yoast SEO een XML sitemap voor je aanmaakt, wordt deze direct op een handige plek gezet. Als je wilt , dat de zoekmachine die van jouw website nog sneller vindt, kun je hem toevoegen aan Google Search Console of Bing Webmaster Tools.

XML Sitemaps van Yoast SEO bekijken of uitschakelen

Ben je benieuwd hoe jouw sitemap eruit ziet? Je kunt hem bekijken via een link in het tabblad functies van de Algemene instellingen van Yoast SEO.

XML Sitemap, SEO Den Haag, Google Search Console

XML Sitemap van WordPress

Als je WordPress 5.5 of hoger gebruikt, dan maakt WordPress automatisch een XML sitemap voor je aan. Die van Yoast wordt echter als veel krachtiger gezien en heeft daarom de voorkeur. De sitemap van Yoast is flexibeler in gebruik. Je kan heel gemakkelijk bepalen, wat er wel en wat niet in de sitemap komt.

SEO blogs van Connect your World

SEO specialist Den Haag

Herman Geertsema is de eigenaar van Online marketing bureau Connect your World gevestigd in Den Haag. Hij is een zeer ervaren SEO expert en content marketeer.

SEO specialist inhuren

U kunt bij Connect your World een SEO specialist, content marketeer en Google Ads specialist inhuren in de volgende regio’s: Den Haag, Amsterdam, Rotterdam, Utrecht, Leiden, Zoetermeer, Westland, Delft, Rijswijk en Breda.

Structured data in SEO waarom is het belangrijk?

Structured Data, SEO specialist Den Haag, SEO Den Haag

Structured data – Inleiding

In deze blog post gaan we het hebben over structured data. Wat is structured data precies? Waarom is structured data belangrijk voor SEO? Hoe kan de Yoast SEO Premium plugin helpen bij het toepassen van structured data in SEO? Extra aandacht besteden we hierbij aan het kruimelpad.

Geschatte leestijd: 7 minuten

Wat is structured data?

Door structured data code aan je webpagina’s toe te voegen, help je de zoekmachines om jouw content beter te begrijpen. Mensen hebben die aanwijzingen niet nodig. We hebben al op jonge leeftijd geleerd om bepaalde elementen in een tekst te herkennen. Als je ons een recept voor Macroni laat zien, kunnen we vrijwel direct de ingrediënten aanwijzen. Voor een zoekmachine zoals Google of Bing is dat veel moeilijker. Met structured data maken we onze content begrijpelijk voor zoekmachines.

Wat zijn rich snippets?

Rich snippets zorgen voor visueel meer aantrekkelijke zoekresultaten. Je voegt toe en licht speciale onderdelen uit om meer op te vallen. Een bekend voorbeeld zijn de review sterretjes.

Wat zijn rich cards?

Rich cards zijn eigenlijk een nieuwe soort rich snippets. Met behulp van rich cards maak je de zoek resultaten nog een stukje groter. Zo vallen jouw zoekresultaten nog meer op.

structured data, schema

De voordelen van gestructureerde gegevens

  • Je gaat meer opvallen in de zoekresultaten. Daardoor maak je het aantrekkelijker om door te klikken naar jouw website. Meer bezoekers op je website heeft daarmee indirect een positieve impact op de SEO van je website.
  • Google begrijpt jouw content beter, als je jouw web pagina of website markeert met gestructureerde gegevens.
  • Mooi uitziende zoekresultaten verleiden de bezoeker om jouw product of dienst aan te schaffen. Het aantal conversies zal dan ook omhoog gaan.

Structured data en rich results

Door structured data code aan je web pagina toe te voegen, geef je zoekmachines namelijk niet alleen de kans om jouw content beter te begrijpen, maar ook om deze beter te laten presenteren.

Schema.org

Voor elk type content heb je een andere set code nodig. Die sets of schema’s worden verzameld op de website www.schema.org. Dit is een soort van bibliotheek of catalogus met heel veel voorbeeldschema’s. Het mooie is echter, dat als je Yoast SEO gebruikt, er automatisch structured data code aan je webpagina’s wordt toegevoegd.

Veel gebruikte Schema types

De volgende schema’s worden veel gebruikt:

Recepten, afbeeldingen, video, evenementen, video, persoon, plaats, restaurant, product, aanbieding, beoordeling, review, lokaal bedrijf, carrousels en FAQ.

Structured data guidelines van Google

Wil je precies weten hoe het zit met structured data? Dan moet je de Google Guidelines over structured data doornemen. De volgende punten kwamen naar voren:

  • Als je structured data niet correct toepast, dan heb je de kans, dat Google een handmatige actie toepast op je website, waardoor je geen voordeel behaalt met structured data.
  • Google kan niet garanderen, dat gestructureerde gegevens, ondanks een correct toepassing worden toegepast in de zoekresultaten. Via de Rich Results Test kun je nagaan of je alles goed gedaan hebt. Ook met de URL inspectietool kan je informatie terugvinden over de gestructureerde gegevens op een pagina.
  • Bij strutured data is het belangrijk om actuele informatie te tonen. Tijdsgevoelige content, die niet langer relevant is, wordt niet getoond.
structured data, SEO Den Haag

De Yoast SEO grafiek

De Yoast SEO plugin implementeert structureddatacode op een unieke manier. Er wordt namelijk niet alleen code aan verschillende elementen toegevoegd, maar die elementen worden ook in een gestructureerde grafiek verbonden. Op die manier hoeft de zoekmachine niet alle losse eindjes info zelf aan elkaar te koppelen. Eerst identificeert Yoast SEO om wat voor soort type pagina het gaat. Het is bijvoorbeeld een artikel. Dit artikel staat weer op een specifieke webpagina. De webpagina is weer onderdeel van een website en geschreven door een bepaalde auteur. Kortom de grafiek identificeert de verschillende elementen van je content en maakt vervolgens duidelijk hoe die elementen met elkaar samenhangen. Dit is super handig voor de zoekmachines.

Moet jezelf toevallig ook iets doen?

Het fijne van de structured data implementatie is, dat de Yoast plugin bijna alles automatisch voor je regelt. Het enige waar je even naar moet kijken, zijn je instellingen.

Schema instellingen

Yoast SEO omschrijft jouw pagina’s standaard met het schematype Webpagina en jouw berichten met het schema type Artikel. Je kunt deze instellingen wijzigen, maar meestal is dat niet nodig.

Schema instellingen in de Yoast SEO zijbalk

Wil je het schematype aanpassen voor een specifieke blog post of pagina? Bijvoorbeeld voor een contactpagina of een betaalpagina? Dan kun je dat doen in de Yoast SEO zij balk.

Structured data blokken

Gebruik je de block editor in WordPress? Dan kun je ook de structured data blokken aan je berichten en pagina’s toe voegen. Deze blokken voegen automatisch de juiste structureddatacode toe.

Yoast geschatte leestijd

Online heb je maar heel kort de tijd om een goede eerste indruk te maken. In een paar seconden bepalen mensen of jouw pagina de moeite van het verder lezen waard is. Veel mensen vinden het fijn om te weten hoe lang het gemiddeld duurt om een pagina te lezen. Met het geschatte leestijdsblok kun je die informatie eenvoudig aan je bericht of pagina toe voegen. Yoast SEO premium berekent dit op basis van de tekst lengte.

Yoast How-to

Hoe bouw ik een hut? Hoe knip ik de nagels van mijn kat? Online content met stapsgewijze instructies noemen we ook wel ‘how to content’. Als je deze artikelen voorziet van de juiste structured data code kunnen daar opvallende (mobiele) zoekresultaten uit voortkomen. Het ‘how to blok’ van Yoast SEO helpt je bij het opbouwen van een ‘how to artikel’ en het voegt automatisch de juiste code toe. Gebruik How to niet voor recepten, want deze hebben hun eigen structured data code.

Yoast FAQ

FAQ staat voor frequently asked questions. Veel websites hebben een pagina met veel gestelde vragen. Op zo’n pagina kun je alle vragen zetten die klanten regelmatig stellen over je producten, je diensten of je bedrijf. Met behulp van de juiste structured data code kunnen deze vragen en antwoorden direct zichtbaar worden in de zoekresultaten.

Kruimelpad

Het kruimelpad laat aan bezoekers van je website zien, waar zij zich bevinden op de website. Die broodkruimels zijn niet alleen handig voor gebruiker, maar ook voor Google. Het kruimelpad geeft de zoekmachine inzicht in de structuur van je website. Maar daarvoor moet Google de broodkruimels wel kunnen herkennen. Yoast SEO helpt mee door automatisch structured data code aan je kruimelpad toe te voegen. Deze code zorgt er uiteindelijk voor, dat je URL in je snippet verrijkt wordt met een kruimelpad.

SEO specialist Den Haag

Herman Geertsema is de eigenaar van Online marketing bureau Connect your World uit Den Haag. Hij is een zeer ervaren freelance SEO specialist en Content Marketeer.

SEO specialist inhuren

U kunt Herman als content marketeer of SEO specialist inhuren in de volgende regio’s: Den Haag, Amsterdam, Rotterdam, Utrecht, Leiden, Zoetermeer, Rijswijk, Delft, Schiedam, Vlaardingen, Zwijndrecht, Dordrecht en Breda.

Andere SEO blogs van Connect your World

Structured data – from relevant sources

Redirects in SEO Zoekmachineoptimalisatie

Redirects, SEO Den Haag
SEO specialist Den Haag

Redirects inleiding

In deze blog post gaan we in op de verschillende soorten redirects. Daarnaast leggen wij u uit wanneer u precies een 301 redirect maakt en hoe u dat precies aanpakt met behulp van de redirectmanager in Yoast SEO Premium. Deze staat ook wel bekend als de WordPress redirect plugin.

Geschatte leestijd: 18 minuten

1. Pagina’s verwijderen

Iedereen, die een website onderhoudt krijgt te maken met redirects. Er komt nu eenmaal een moment, dat u webpagina’s gaat verwijderen. Er zijn alleen wel verschillende punten, waar u rekening moet gaan houden. Als u een pagina verwijdert van uw website, betekent dat nog niet, dat de webpagina ook uit de index van de zoekmachine verdwijnt. Website bezoekers kunnen uw webpagina nog steeds vinden via de zoekresultaten of via links op andere websites. Als uw websitebezoeker op een verwijderde webpagina terecht komt, krijgen ze een 404 foutmelding. Dit is vergelijkbaar met een wegversperring of met een lift buiten werking. Maar wat dan? Wat doet u als er opeens een wegversperring is? Waarschijnlijk verlaat u de website. Er zijn bijna altijd genoeg alternatieven.

2. 404 foutmeldingen

Wat gebeurt er eigenlijk als u een website of een webpagina bezoekt? U typt de URL van een website in de adresbalk in of u voert een zoekwoord in in zoekmachines zoals Google en Bing en klikt daaropvolgend op een zoekresultaat; meestal op de 1e pagina. De browser stuurt vervolgens een aanvraag naar het IP adres van de webpagina of website. De server van deze website geeft antwoord met een HTTP statuscode. Als alles prima werkt, geeft de server antwoord met de statuscode 200. Het is echter een ander verhaal, als de server een reactie geeft met een 404 statuscode. De opgevraagde webpagina kan niet gevonden worden.

3. Gebruikerservaring

Dit soort foutmeldingen zijn verwarrend en irritant voor de gebruikers. Dat is voldoende reden om dit soort fouten op te sporen en te verhelpen. Daarnaast geven dit soort foutmeldingen de zoekmachines zoals Google het idee, dat u uw website niet goed onderhoudt. Het belang van gebruikerservaring in SEO optimalisatie neemt de laatste jaren toe. Denk hierbij bijvoorbeeld aan de Core Web Vitals update.

4. De 301 Redirect

Met een redirect maakt u een omleiding om bij een andere locatie aan te kunnen komen. U gebruikt een statuscode om te communiceren, dat er sprake is van een 301 redirect. Deze webpagina kunt u niet meer met een bezoekje vereren via deze URL. Maar er is een alternatief voor handen. De bezoeker wordt vervolgens via een andere webpagina doorgeleid. Het spreekt voor zich, dat er sprake moet zijn van een relevante webpagina. Ook voor zoekmachines zoals Google en Bing zijn redirects meer dan welkom. Door de dode links kan een webcrawler niet veel doen. Zolang er geen instructies of aanwijzingen volgen om de oude URL te vervangen of te verwijderen, blijft de crawler steeds terug komen naar de oude URL van de webpagina. Met een 301 redirect kan het verkeer weer zonder veel problemen doorrijden.

5. Waarom u mogelijk redirects nodig heeft

Er zijn 8 gevallen waarin u uw bestaande URL moet omzetten in een nieuwe:

  1. Wanneer u van plan bent een pagina te verwijderen , maar de link juice en het verkeer van de oude URL wilt behouden. 
  2. U heeft een pagina van uw website verwijderd en u wilt bezoekers omleiden naar een nieuwe, zodat ze niet door een 404 worden bekeken. 
  3. Wanneer u uw site herstructureert en sommige URL’s verouderd raken. 
  4. U moet gebruikers naar de hoofdversie van uw site brengen en dubbele pagina’s vermijden vanwege slashes, bestandsextensies, hoofdletters, niet-www-URL’s en wanneer u van HTTP naar HTTPS gaat.
  5. Tijdens het samenvoegen van twee websites om ervoor te zorgen, dat links naar verouderde URL’s worden omgeleid naar de nieuwe pagina’s.
  6. U heeft uw site naar een nieuw domein verplaatst en wilt link juice behouden.
  7. Omwille van marketing , bijvoorbeeld het verstrekken van een kortere en mooiere URL in advertenties, A/B-testen, targeting en het volgen van verkeer.
  8. Als er sprake is van overmacht , bijvoorbeeld als u een typefout heeft gemaakt in uw nieuwsbrieflink en duizenden mensen een 404-foutmelding krijgen.

PageRank is een algoritme dat Google heeft uitgevonden om het belang van webpagina’s te meten. Er wordt aangenomen dat het het aantal en de kwaliteit van links van en naar een pagina telt om te bepalen hoe belangrijk de website is. De veronderstelling van Google is dat gezaghebbende websites waarschijnlijk meer links van andere websites zullen ontvangen. Het betekent dat hoe meer links een webpagina heeft, hoe meer autoriteit deze krijgt.

6. Voordelen en bedreigingen van URL-omleiding

Dus, zijn omleidingen schadelijk of gunstig voor SEO? In feite kunnen ze beide. 

6.1 Voordelen van omleiding

  • Met omleiding verbeter je de gebruikerservaring. Het is beter dat uw bezoekers worden doorgestuurd naar een relevante pagina in plaats van 404 Page Not Found te zien. 
  • Omleidingen helpen u het crawlen en indexeren te beheren. Je geeft zoekmachines aanwijzingen over welke pagina is vervangen en wat de nieuwe is, en of de oude pagina moet worden geïndexeerd of niet. 
  • U kunt de PageRank van een oude pagina behouden. Als u permanente HTTP-omleidingen gebruikt (301, 308), zal Google hoogstwaarschijnlijk de PageRank van de oude pagina doorgeven aan de nieuwe URL. 

6.2 Bedreigingen van foutieve omleiding

  • U kunt linksap verliezen. Hoewel je met sommige omleidingen de link equity kunt behouden, zal deze hoogstwaarschijnlijk niet voor 100% worden doorgegeven. En als je tijdelijke omleidingen gebruikt, moet je niet verwachten dat er veel link juice zal stromen. 
  • U kunt verkeer verliezen. Nogmaals, als u omleidt naar de verkeerde pagina of omleiding verkeerd implementeert, kunt u aanzienlijk verkeersverlies zien. 
  • U kunt het crawlbudget verspillen. Als u uiteindelijk omleidingsketens maakt, kan dat zo veel druk uitoefenen op crawlers dat ze stoppen met proberen uw site te crawlen. 
  • U kunt de gebruikerservaring verslechteren. Als omleiding te veel tijd kost, is de interactie met uw site behoorlijk onbevredigend. 

Wees niet bang voor deze ‘bedreigingen’. Ze kunnen alleen werkelijkheid worden, als u op de verkeerde manier omleidt. 

7. Meest voorkomende omleidingsfouten

Bekijk nu de top 6 fouten bij het omleiden van URL’s en zorg ervoor, dat u ze vermijdt. 

7.1 Omleiden naar een irrelevante pagina

Wanneer u een omleiding instelt, moet u rekening houden met uw bezoekers. Krijgen ze de antwoorden, die ze verwachten te krijgen nadat ze zijn doorverwezen?  U moet ervoor zorgen dat de nieuwe content hen niet in verwarring brengt. Als een gebruiker op een link anker pure chocolade klikt en wordt doorgestuurd naar een pagina witte chocolade, zal dat verwarrend zijn. Dit kan leiden tot hogere bounce rate percentages en verkeersverlies.

Hoe deze fout te vermijden: U moet altijd doorverwijzen naar een pagina met een soortgelijk onderwerp. 

7.2 Leid ketens en lussen om

Omleidingsketens verschijnen wanneer er meer dan één omleiding is tussen de initiële URL en de bestemmings-URL. Bijv. Pagina 1 > Pagina 2 > Pagina 3 > Pagina 4 > Pagina 5. 

Het probleem met omleidingsketens is dat ze de crawler overbelasten. Google beweert, dat hun crawler tot 5 omleidingshops volgt en dan stopt . Dus als er meer omleidingen zijn, wordt de landingspagina mogelijk helemaal niet geïndexeerd. Bovendien kunt u al het linkjuice verliezen en de laadtijd van de pagina vertragen.

Loops zijn vergelijkbaar met kettingen, maar in dit geval wordt de eerste pagina teruggestuurd naar zichzelf. Bijv. Pagina 1 > Pagina 2 > Pagina 3 > Pagina 1. Op deze manier leidt u bezoekers helemaal niet naar een nieuwe URL, wat zo’n verspilling is van uw crawlbudget en linkvermogen. Omleidingsketens en -lussen zijn zo gemeen omdat ze supergemakkelijk over het hoofd worden gezien. De enige manier om ze te vermijden, is door uw omleidingen consequent bij te houden. 

Als u een omleidingsketen vindt, repareert u deze door de eerste pagina rechtstreeks naar de landingspagina om te leiden. Als u om wat voor reden dan ook niet rechtstreeks van de eerste pagina naar de uiteindelijke pagina kunt omleiden, probeer dan het aantal omleidingen in een keten zo veel mogelijk te verminderen.

7.3 Misbruik van tijdelijke omleidingen

Veel webmasters begrijpen het verschil tussen 301/308 en 302/307 omleidingen niet. Ze weten dat de eerste permanent is en de laatste tijdelijk. Ze houden er echter geen rekening mee, dat als u HTTP 302/307 gebruikt, de oude pagina nog steeds wordt geïndexeerd en er bijna geen link juice wordt doorgegeven aan de nieuwe URL. Dat is belangrijk. Hoewel Google begrijpt, dat u 302 per ongeluk hebt gebruikt en het in de loop van de tijd als 301 kan behandelen, weet u niet hoeveel tijd het zal kosten. En tijd is geld. 

Hoe misbruik van tijdelijke omleidingen te voorkomen: gebruik 301 of 308 als u niet van plan bent de omleiding in de nabije toekomst te verwijderen, als het niet voor een promotiecampagne of A/B-testen is.

Als u SEO goed uitvoert, zijn alle pagina’s van uw site met elkaar verbonden . En als u een van die pagina’s omleidt naar een andere, maakt u uiteindelijk te veel omleidingen. Die omleidingen zijn volledig overbodig, aangezien u deze interne links volledig kunt vervangen door naar de nieuwe URL te verwijzen.

7.5 Omgeleide URL’s niet verwijderen uit uw sitemap

Als u 301 of 308 (permanente) redirects gebruikt, moet u die op uw sitemap weergeven om de crawler niet in verwarring te brengen. Zoals u weet, instrueert een sitemap zoekmachines om enkele URL’s te gaan indexeren. Als u geen oude URL’s uit uw sitemap heeft verwijderd, gaat de crawler naar deze URL en probeert deze te indexeren. Maar in plaats van 200 (OK) responscode te krijgen, wordt de crawler omgeleid naar een andere URL. Dit kan leiden tot indexeerbaarheidsproblemen. 

Zo houdt u uw sitemap schoon: Houd uw sitemap op orde — verwijder de oude omgeleide URL’s en voeg de nieuwe URL’s toe aan uw sitemap.

7.6 Uw omleidingen niet regelmatig controleren

Het is moeilijk om zelf te ontdekken of uw site last heeft gehad van URL-omleiding. Hoogstwaarschijnlijk weet u niet eens, dat u iets verkeerd hebt gedaan. Daarom zijn regelmatige site-audits een must voor webmasters en SEO’s.

8. 3 typen redirects

Er zijn meerdere soorten redirects. Welke u moet kiezen, hangt geheel af van de situatie. In de redirectmanager van Yoast SEO Premium kunt u 3 typen redirects instellen:

  1. 301 permanent verhuisd
  2. 302 gevonden
  3. 307 tijdelijk verwijderd
  4. 410 inhoud verwijderd
  5. 451 niet beschikbaar vanwege juridische redenen

Strikt genomen zijn dit geen redirects. Ze leiden u namelijk niet naar een andere situatie. De boodschap is echter zo goed als het zelfde. Wat u zoekt, is hier geweest, maar is hier nu niet meer beschikbaar.

8.1. Redirect 301 permanent verhuisd

We starten met een redirect, die het vaakst wordt ingezet, namelijk de 301 redirect. Dit is een permanente redirect, die u kunt inzetten als u een pagina verwijdert of verplaatst of als u iets verandert in de URL structuur. De code 301 geeft aan, dat de desbetreffende webpagina niet meer beschikbaar is op deze locatie. De crawler hoeft de pagina ook niet meer te indexeren. Het mooie is, dat de linkwaarde van de oude URL niet verloren gaat. De redirect zorgt er namelijk voor, dat de waarde wordt overgedragen aan de nieuwe URL. Let goed op! Het betreft een permanente 301 redirect. Als u de oude URL in de toekomst nog wilt gebruiken, ga dan voor een tijdelijke redirect.

Wat is PageRank?

PageRank is een algoritme, dat Google heeft uitgevonden om het belang van webpagina’s te meten. 
Er wordt aangenomen, dat het het aantal en de kwaliteit van links van en naar een pagina telt om te bepalen hoe belangrijk de website is. De veronderstelling van Google is, dat gezaghebbende websites waarschijnlijk meer links van andere websites zullen ontvangen. Het betekent, dat hoe meer links een webpagina heeft, hoe meer autoriteit deze krijgt.

8.2. 302 gevonden

De 302 redirect geeft aan, dat de gevraagde content wel gevonden is, maar op een geheel andere URL. De 302 redirect wordt vaak gebruikt als tijdelijke redirect. Als u de URL die u nu wilt omleiden in de toekomst nog wil hergebruiken. Dan is de 302 een optie. De crawler zal de direct volgen, maar de oorspronkelijke URL bewaart hij ook in de index in de toekomst. Als een 302 te lang een 302 is, kan Google ze omzetten naar 301.

Redirects, SEO bureau Den Haag

8.3. Tijdelijke 307 redirect

De 307 is ook een tijdelijke redirect, maar deze is wel wat duidelijker dan 302. De 307 redirect geeft precies aan, dat de opgevraagde URL verhuisd is naar een tijdelijke locatie. Maar dat deze ook wel weer terugkomt naar de huidige locatie. Maak gebruik van deze tijdelijke redirect, als u zeker weet, dat het om een tijdelijke omleiding gaat. U wilt de oorspronkelijke URL later waarschijnlijk nog gebruiken.

8.4. 410 inhoud verwijderd

Stel u voor, u wilt een webpagina verwijderen, maar u heeft geen relevante pagina, die u als alternatief kunt aanbieden. Dan is het is een slimme move om dat volledig transparant aan de bezoekers en aan de zoekmachine te vertellen. De 401 code geeft aan, dat de content bewust is verwijderd. Zoekmachines zoals Google zijn zich er nu van bewust, dat de URL’s uit de index gehaald mogen worden.

8.5. 451 niet beschikbaar voor juridische redenen

Soms kan een rechter bepalen, dat u een stuk content van uw website dient te halen. Als uw content beledigend of lasterlijk is, kan een rechter opdracht geven om die content te verwijderen.

9. Yoast SEO Premium – Redirects manager

Met deze redirects manager kunt u eenvoudig en snel uw redirects aanmaken. Dat kan handmatig, maar de plu-gin maakt ook automatisch redirects aan bij het verwijderen van een bericht, pagina of taxonomie pagina. Redirects worden ook automatisch aangemaakt bij het aanpassen van de URL van een bericht, pagina of taxonomie pagina.

9.1 Regex Redirects

Als u aan een groot SEO project werkt, kunnen regex redirects enorm veel tijd besparen. Bij Connect your World adviseren we hier alleen mee aan de slag te gaan als u voldoende ervaring heeft met dit soort redirects. U kan namelijk ook dingen niet goed doen. Regex betekent regular expression. Bij een normale redirect maakt u een omleiding van een oorspronkelijke URL naar een nieuwe URL. Bij Regex redirects kunt u een groep URL´s die een bepaald woord of patroon bevatten allemaal tegelijk omleiden naar een nieuwe URL.

9.2 Redirects importen en exporteren

Als u uw redirects heeft aangemaakt in een ander systeem dan WordPress, kunt u eenvoudig redirects importeren naar WordPress. Exporteren is ook mogelijk.

Redirects, SEO specialist Den Haag

10. Redirects problemen en oplossingen (voor de pro’s)

Redirects kunnen ook voor vervelende problemen zorgen. Dus als u niet weet, wat u doet, laat het dan aan ervaren SEO specialist over.

10.1 Uw website heeft te maken met meerdere ‘redirect chains’

De redirect chain is een ketting of een serie van redirects, die van de ene naar de andere URL wordt doorgestuurd. Bij dubbele redirects verliest u bij elk volgende stap 10% aan de autoriteit. Dit soort redirects kunnen ook een grote negatieve impact hebben op de laadtijd van uw website.

10.1.1 Hoe ontdekt u een redirect chain?

Op welke manier ontdekt u deze redirect chains? Maak hierbij gebruik van Screaming Frog. Screaming Frog heeft de volgende functie:

  • Voer een volledige crawl van uw website uit in SreamingFrog
  • Ga naar het Redirects Chains rapport
  • Bestand opslaan

10.2 Interne redirects

Een interne redirect komt voor omdat men op de site nog een link plaatst naar de oude URL en niet direct naar de nieuwe.

10.2.1 Interne redirects opsporen

Maak weer gebruik van Screaming Frog. Crawl de gehele website en draai alle interne redirects uit. Ga naar: Bulk Export – Response Codes en vervolgens Redirection.

10.3 Onnodige redirects

Als u website al wat jaartjes oud is, is de kans groot, dat u al heel wat 301 redirects heeft verzameld. Als het htaccess bestand vol raakt met redirects, heeft dat als gevolg, dat uw website snelheid lager en lager wordt. Het is belangrijk om te onderzoeken welke redirects nog van nut zijn.

10.3.1 Hoe bepaalt u welke redirects nog echt nodig zijn?

U kunt UTM tags toevoegen aan de redirect URL. Op die manier kunt u simpel uitvinden welke redirect regelmatig wordt opgevraagd. De volgende tagging methode is hiervoor nuttig:

/oudeURL >>> /nieuweURL?utm_medium=301&utm_source=direct&utm_campaign=/oudeURL

Dit soort tag stuurt elke keer als de redirect gebruikt wordt data naar Google Analytics. In het rapport ‘Bron/medium’ leest u vervolgens terug welke redirects in de afgelopen periode zijn opgevraagd. Doe dit om de 6 maanden en verwijder daaropvolgend alle niet opgevraagde 301 redirects uit htaccess.

10.4 Canonical tags en redirects

Canonical tags en redirects gaan niet goed samen. Bij grote websites is het vaak onmogelijk om te checken of de pagina’s met een canonical tag ook geredirect worden. Daarom heeft Sreaming Frog hier iets handigs voor.

10.4.1 Hoe lost u dit op?

Start weer met een crawl van uw website. Na afloop gaat u zoekt u de tab ‘Directives’ op.  Scroll vervolgens naar de rechterkant en identificeer de kolom ‘Canonical Link Element 1’. Daarna kopieert u deze gehele lijst. Begin weer met een nieuwe crawl en maak gebruik van de ‘List Mode’ functie. Achterhaal de URL’s met een 301 statuscode.

Bij oudere websites bestaat de kans dat de URL structuur al een keer gewijzigd is. De kans is dan vrij groot, dat uw externe links ook een redirect hebben. Met een redirect verliest u altijd wat kracht (autoriteit). U kunt dus nog wat winst behalen met uw SEO optimalisatie inspanningen.

10.5.1 Hoe lossen we dit op?

Maak een uitdraai van uw backlinks en selecteer uw lijst met ‘TargetURL’s’. Kopieer deze lijst vervolgens in Screaming Frog. Let hierbij speciaal op de links, die een statuscode van 404 of 301 hebben. Doe onderzoek naar de kwaliteit van de backlinks. Bepaal daaropvolgend of het de moeite waard is om meerdere backlinks te laten aanpassen.

SEO en Content Marketing Blogs

SEO specialist Den Haag

Herman Geertsema is een ervaren SEO freelancer en Content marketeer uit Den Haag. Herman is tevens de eigenaar van SEO bureau Connect your World gevestigd in Den Haag.

SEO consultant inhuren

Bij Online marketing bureau Connect your World kunt u ook een content marketeer en een SEO expert inhuren in de volgende regio’s:

SEO checklists

Op deze website vindt u talloze SEO checklists, die u kunt gebruiken om al vast zelf een start te maken met de SEO optimalisatie van uw website.

Gratis SEO tools

U vindt op deze website ook een overzicht met veelal gratis SEO tools. Deze lijst kunt u gebruiken bij de zoekmachinemarketing van uw eigen website. Uw SEO laten doen, blijft natuurlijk ook altijd een optie.

Waarom zijn URLS belangrijk voor SEO?

URLS SEO, SEO specialist Den Haag
SEO uitbesteden aan SEO specialist Den Haag

Als u aan SEO denkt, zijn zoekwoorden misschien het eerste, dat in u opkomt. Maar hoeveel aandacht heeft u besteed aan het optimaliseren van uw URLS voor SEO? SEO – vriendelijke URL’s zijn essentieel om ervoor te zorgen, dat uw doelgroep uw website vindt. Met meer dan 3,5 miljard Google zoekopdrachten per dag, heeft u elk voordeel nodig, als u wilt concurreren op de enorme online marktplaats. Laten we met dat in gedachten eens kijken, hoe een goede SEO URL structuur eruitziet. Hoe kunnen we URLS optimaliseren voor voor maximaal verkeer in Google?

Geschatte leestijd: 12 minuten

Wat is een URL?

Als het gaat om een ​​correct geoptimaliseerde URL, is de eerste stap het kennen van het verschil tussen een URL en een domeinnaam. URL staat voor Uniform Resource Locator en wordt gebruikt om te verwijzen naar de locatie van een web resource op een computernetwerk en het mechanisme dat wordt gebruikt om deze op te halen. Aan de andere kant is een domeinnaam slechts een onderdeel van uw URL.

Laten we eens kijken naar het belangrijkste onderdeel van een URL: connectyourworld.nl/gratis-seo-scan. In dit voorbeeld is “connectyourworld.nl” de domeinnaam. De “/” is het pad. En tot slot, “gratis-seo-scan” is de webpagina zelf. Bij het maken van een website is een SEO vriendelijke URL essentieel om uw pagina goed te optimaliseren voor zoekmachines zoals Google. Alleen zo kan uw doelgroep u vinden.

Waarom zijn URLS belangrijk voor SEO?

URL optimalisatie is een ongelooflijk belangrijk, maar vaak over het hoofd gezien onderdeel van het verkrijgen van een voorsprong op uw concurrenten.

Met effectieve URL optimalisatie kunt u bijvoorbeeld profiteren van de volgende voordelen:

  • Zoekmachinevriendelijke URL’s zijn een ranking factor en hebben daarom invloed op, waar uw site voorkomt in de zoekresultaten.
  • Maakt uw site gemakkelijker te navigeren voor de eindgebruiker. Dit kan van invloed zijn op hoe lang iemand op uw site doorbrengt en op hoeveel pagina’s ze doorklikken, wat ook uw SEO kan verbeteren.
  • Zoekmachine crawlers maken verbindingen tussen pagina’s via hun URL’s, wat zorgt voor nog meer SEO of Link Juice voor uw website.

Hoewel SEO vriendelijke links niet het allerbelangrijkste zijn van SEO, of zelfs het belangrijkste onderdeel ervan, is het van vitaal belang, dat u een sterke SEO URL niet verwaarloost als onderdeel van uw online marketing strategie.

15 Tips voor het maken van SEO vriendelijke URL’s

Wanneer u uw SEO strategie opstelt, is het belangrijk om rekening te houden met de gebieden, die uw concurrenten over het hoofd zien. Wij hebben een reeks praktische tips voor SEO URL’s samengesteld om u te helpen uw site naar een hoger niveau te tillen.

1. Koppel URL’s aan een paginatitel

De beste URL structuur voor SEO succes is om uw URL te laten overeenkomen met de content op de website. Uw URL is een van de eerste dingen, die crawlers van zoekmachines onderzoeken. De meeste websitebeheerders doen dit van nature. Het is echter een goed idee om te controleren of uw URL en paginatitel dezelfde zoekintentie (SEO search intent) hebben.

2. Houd SEO URLS eenvoudig

Een belangrijk onderdeel van de SEO best practice voor URL structuur is om zowel Google als uw doelgroep aan te spreken. Door onnodige woorden uit uw URL’s te verwijderen, kunnen zowel mens als machine in één oogopslag begrijpen, wat er op de pagina staat. Maak er een gewoonte van om alle woorden, die geen betekenis toevoegen te elimineren. Veelvoorkomende woorden zoals “en” en “de” kunnen bijvoorbeeld worden verwijderd.

3. Maak beschrijvende SEO URLS

De complexe algoritmen van Google vertrouwen op toegankelijkheid en bruikbaarheid om sites te rangschikken op een manier, die het beste aansluit bij de behoeften van de eindgebruiker. Hoe meer beschrijvend een URL is, hoe beter leesbaar deze is voor een mens, hoe beter deze is voor Google. Doe uw best om een ​​beschrijvend domein te gebruiken, dat relevant is voor uw merk en wat het doet om de leesbaarheid te maximaliseren. Dit moet direct, to the point en gemakkelijk te onthouden zijn.

4. SEO URLS – Blijf bij kleine letters

Leesbaarheid is essentieel in elke goede SEO URL. Om deze reden raden we aan om hoofdletters te vermijden om uw positie in zoekmachines te verbeteren. Het mengen van hoofdletters en kleine letters vermindert de leesbaarheid. Het zorgt er tevens voor, dat uw URL er rommelig uitziet. Hierdoor kan er een gevoel van wantrouwen ontstaan rond uw site. De structuur kan ook crawlers en gebruikers van zoekmachines verwarren. 

5. Elimineer interpunctie van URL’s

Zoekmachinevriendelijke URL’s bevatten nooit interpunctie. Hoewel interpunctie acceptabel en noodzakelijk is voor paginatitels en metabeschrijvingen, is het vaak verwarrend in URL’s. Zelfs vandaag de dag worstelen crawlers van zoekmachines met interpunctie. Het maakt URL’s ook moeilijker te onthouden voor gebruikers, omdat het niet zo eenvoudig is als alleen woorden. Hoewel het grammaticaal misschien niet correct is, is het verwijderen van interpunctie een van de gemakkelijkste manieren om te voldoen aan de ‘best practices’ voor URL SEO.

6. Vermijd het toevoegen van submappen aan uw URL’s

Om URL’s zo leesbaar en gebruiksvriendelijk mogelijk te maken, moet u ze kort, duidelijk en to the point maken. Binnen de structuur van uw website heeft u waarschijnlijk veel sub mappen. Veel webbouwers gebruiken automatisch de locatie van de sub map als de standaard URL. Vooral WordPress maakt zich hier bijvoorbeeld schuldig aan. Zoekmachines vinden sites moeilijker te crawlen wanneer URL’s sub mappen bevatten, wat kan resulteren in lagere rankings voor uw pagina.

7. Gebruik koppeltekens, verwijder onderstrepingstekens

Het opsplitsen van woorden binnen uw URL’s met koppeltekens verbetert de leesbaarheid voor zowel de eindgebruiker als zoekmachines. Een van de meest omstreden debatten in de SEO URL wereld is of koppeltekens of onderstrepingstekens de voorkeursoptie zijn voor Google. Google ziet koppeltekens en onderstrepingstekens niet als onderling uitwisselbaar. Koppeltekens worden gezien als woordscheidingstekens, terwijl onderstrepingstekens woord verbinders zijn. Met andere woorden, als u de URL van deze pagina zou nemen en de koppeltekens zou omzetten in onderstrepingstekens, zou Google de volledige URL als een enkel woord lezen. Onderstrepingstekens kunnen uw pagina moeilijker maken voor zoekmachines om correct te indexeren. Daardoor zijn ze moeilijker te vinden voor uw doelgroep.

8. Gebruik primaire zoekwoorden

Zoals met alles in de wereld van SEO, is het een enorm voordeel voor uw SEO optimalisatie, als u ergens een relevant zoekwoord kunt invoegen. Wanneer u SEO vriendelijke URL’s maakt, doe dan uw best om het primaire zoekwoord op te nemen. Bedenk wat uw primaire zoekwoord is voor die specifieke pagina. Zorg ervoor, dat u het ergens in uw URL gebruikt. Als uw URL’s relevant zijn voor de content op de pagina, is de kans groot, dat u dit van nature al doet.

9. Blijf uit de buurt van dynamische parameters

Wat is een dynamische URL? Een dynamische URL is gewoon een URL, die een script uitvoert. De eenvoudigste manier om deze te herkennen, is door te zoeken naar speciale symbolen in de URL. Ze zijn meestal te vinden op SEO ecommerce – websites. Google geeft expliciet aan, dat ze de voorkeur geven aan statische web URL’s. Voor een SEO URL structuur, die u helpt gevonden te worden door de juiste mensen, houdt u dus altijd vast aan statische URL’s. Overweeg om de link verkorter van Bitly te gebruiken. Hiermee lokaliseert en verwijdert u de dynamische parameters.

10. Gebruik waar nodig canonieke tags

Als uw website verschillende versies van dezelfde pagina heeft, moet u ervoor zorgen, dat Google niet elke versie als een afzonderlijke pagina indexeert. Verschillende versies kunnen zijn:

  • http://connectyourworld.nl
  • www.connectyourworld.com
  • https://connectyourworld.com

Deze URL’s leiden allemaal naar dezelfde plaats. Het is dus belangrijk om ervoor te zorgen, dat Google deze links als geconsolideerd beschouwt. Een backlink van een van de bovenstaande URL’s moet meetellen voor alle versies van de pagina. Door de canonieke tag op elke variant van dezelfde pagina te gebruiken, wordt Google geïnformeerd, dat alle versies als dezelfde URL moeten worden beschouwd. De canonieke tag is een meer technisch onderdeel van URL SEO, dat vaak over het hoofd wordt gezien. Het kan uw rankings echter maken of breken.

11. Beheer redirects met zorg

Redirects of omleidingen naar webpagina’s zijn frustrerend voor de eindgebruiker en hebben een negatieve invloed op hun ervaring. Niets zorgt ervoor, dat mensen uw website sneller verlaten dan irritatie. Sinds Google de gebruikerservaring in hun rankings begon te betrekken, spelen bounce rate percentages en tijd besteed aan een website beide een rol bij de positie van uw site op pagina’s van zoekmachines. Zoekmachinevriendelijke URL’s houden omleidingen tot een minimum beperkt of elimineren ze volledig. Het verwijderen van omleidingen versnelt de gebruikerservaring. Daarbij verbetert het de bruikbaarheid van de informatie, die vervolgens wordt gedeeld met Google.

301 Redirect

Soms volgen zoekmachines de omleidingen niet correct of helemaal niet. Dat betekent, dat een hele webpagina en de tijd die u heeft besteed aan het bouwen ervan) volledig verloren kan gaan. Maar het gebeurt, soms kunt u omleidingen gewoon niet vermijden. Dus wat doet u als u een redirect naar uw website moet toevoegen? De juiste SEO URL strategie is om een ​​301-omleiding te gebruiken in plaats van een permanente omleiding. 301-omleidingen brengen 90-99% van de rangschikkingskracht over naar de nieuwe pagina. Op die manier wordt u niet door Google bestraft voor het invoegen van een noodzakelijke redirect.

12. Kies de juiste domeinnamen voor toekomstige websites

Iedereen, die bekend is met de domeinnaam markt, weet dat bepaalde domeinnamen duizenden dollars kunnen kosten om te kopen. Hier is een reden voor. Veel premium domeinnamen zitten natuurlijk al vol met SEO zoekwoorden. Kortere domeinen met veelgebruikte Google zoekwoorden zullen altijd beter ranken. Hoewel dit minder belangrijk is dan vroeger (en zeker geen reden om uw huidige domein te dumpen), is het iets om in gedachten te houden bij het opzetten van toekomstige websites. Kanttekening: als het gaat om uw naaste concurrenten, zal Google vaak onderscheid maken tussen hen met behulp van merkquery’s. Als uw domeinnaam beter aansluit bij de zoekopdracht, waarvoor u probeert te ranken, geeft dit uw site een extra duwtje in de rug.

13. Maak uw SEO URLS toekomstbestendig

Het is niet ongebruikelijk, dat bepaalde pagina’s, vooral blogs, een datum bevatten. Als u bijvoorbeeld schrijft over de beste SEO tips, die op dit moment relevant zijn, kunt u ‘2022’ in de titel opnemen. Alleen omdat u het in de titel van het bericht opneemt, wil nog niet zeggen, dat het in de URL moet worden vermeld. Dit kan ertoe leiden, dat uw pagina verouderd raakt. Dus zorg ervoor, dat u uw URL’s toekomstbestendig maakt door datums te vermijden. Naarmate u bericht ouder wordt, kunt u ervoor kiezen om het bij te werken met actuele SEO content om het relevant te houden. Door de datum uit uw SEO URL structuur te laten, kunt u dezelfde URL en al het bijbehorende ‘link juice’ langer behouden. Denk extra goed na als u een webshop met veel producten gaat opbouwen. Een goede structuur zal u enorm helpen met de SEO optimalisatie van uw webshop.

14. Naar trailing slash of niet naar trailing slash?

Het lijkt misschien een relatief onbeduidende kwestie, maar het constante debat woedt over de vraag of URL’s de trailing slash moeten bevatten. De trailing slash wordt vaak gezien aan het einde van URL’s en ziet er als volgt uit: “/” Jarenlang was de positie van Google op de trailing slash onduidelijk. Maar Google heeft herhaaldelijk bevestigd dat de keuze aan u is. De trailing slash heeft geen invloed op uw ranking. Hoewel ´best practices´ aangeven, dat u de trailing slash moet gebruiken, is dit een van de zeldzame gevallen waarin de trailing slash kan worden genegeerd. De eigen URL’s van Google bevatten geen slash.

Consistentie

Ons advies is dat u moet letten op consistentie in uw gebruik van de trailing slash. Als u het op uw startpagina gebruikt, gebruik het dan ook op al uw andere pagina’s. Als u het niet op één pagina gebruikt, laat het dan ook weg op uw andere pagina’s. Het is ook verstandig om beide versies van uw trailing slash/no trailing slash-pagina te consolideren met een canonieke tag.

15. Gebruik aangepaste SEO URLS

Bij sommige links is het niet altijd mogelijk om de ‘best practices’ voor SEO URL’s te volgen. Soms heeft u de URL structuur niet in handen, of heeft u geen controle over de sub mappen op de website. Dus, wat doet u in deze situatie? Profiteer in plaats daarvan van merklinks. Merklinks hebben een sterke SEO URL structuur, die u kunnen helpen het gebrek aan controle over URL’s te omzeilen. Door een korte URL met merknaam te gebruiken, kunt u een aangepast domein en slash-tag opnemen. In plaats van een willekeurige reeks tekens die alleen bezoekers van de site zal afschrikken, kunt u een link maken die voldoet aan alle vereisten van URL SEO.

SEO Optimalisatie Blogs van Connect your World

SEO specialist Den Haag

Herman Geertsema is een ervaren freelance SEO specialist en content marketing expert uit Den Haag. Daarnaast is hij eigenaar van SEO bureau Connect your World gevestigd in Den Haag.

SEO specialist inhuren

Kies ook een SEO specialist in de volgende regio´s:

Heeft u een vraag over SEO? Of wilt u ons als SEO specialist inhuren? Neem dan contact met ons op.

Waarom is Sitemap Robots TXT belangrijk voor SEO

Robots TXT, wat kunt ermee?

Heeft u wel eens van de sitemap robots txt gehoord? Hoewel u een website kunt maken volgens, die goed is geoptimaliseerd voor SEO optimalisatie, moeten crawlers van zoekmachines zoals Google en Bing uw website nog steeds vinden en crawlen. Eigenlijk heeft u best wel een beetje controle over hoe web crawlers uw website indexeren met Robots.txt. Dit kan zelfs per pagina worden aangepakt.

Geschatte leestijd: 13 minuten

Sitemap Robots TXT bestand, Technische SEO
SEO specialist Den Haag

In deze blog leert u:

  • Wat een Robots.txt-bestand is en waarom het belangrijk is voor SEO
  • De syntaxis uitleggen
  • Veelvoorkomende fouten die u moet vermijden

Aan de slag met Robots.txt

Als u inspraak wilt hebben in wat SEO robots op uw website doorkammen, heeft u hiervoor een robots.txt-bestand nodig. Hoewel het niet per se het laatste woord heeft over hoe Google uw website behandelt, kan het een krachtig effect hebben op uw SEO resultaten. Door u inspraak te geven in hoe Google uw site bekijkt, kunt u ook hun oordeel beïnvloeden. Dus, als u uw crawlfrequentie en zoekprestaties op Google wilt verbeteren, hoe kunt u dan een robots.txt voor SEO maken?

We gaan terug naar het begin van robots.txt-bestanden om het op te splitsen:

  • Wat zijn ze precies?
  • Waar ze te vinden zijn?
  • Hoe maak je jouw eigen robots txt bestand?
  • De syntaxis erachter
  • De voordelen van het gebruik ervan
  • Hoe te weigeren versus No-index
  • Fouten om te vermijden

Laten we beginnen door te onderzoeken wat een robots.txt-bestand is.

Wat is een Robots.Txt-bestand?

Toen het internet nog jong was en vol potentie zat, bedachten web ontwikkelaars een manier om nieuwe pagina’s op internet te crawlen en te indexeren. Deze tools werden crawlers, spiders of robots genoemd. U heeft ze waarschijnlijk allemaal door elkaar horen gebruiken.

Een Robots.txt-bestand ziet er als volgt uit:

Zo nu en dan dwaalden deze robots af van waar ze hoorden te zijn. Ze begonnen namelijk met het crawlen en indexeren van websites, die niet bedoeld waren om geïndexeerd te worden. Er moest een oplossing komen. De maker van Aliweb, ‘s werelds eerste zoekmachine, adviseerde een “roadmap”-oplossing die de robots zou helpen op koers te blijven. In juni 1994 werd dit protocol gerealiseerd. Hoe ziet dit protocol eruit, wanneer het wordt uitgevoerd? 

Het protocol stelt de richtlijnen vast die alle bots, inclusief die van Google, moeten volgen. Sommige robots met een donkere hoed, zoals spyware of malware, werken echter buiten deze regels. Wil je zelf zien hoe het is? Typ gewoon de URL van een website, gevolgd door “/robots.txt” aan het einde. 

Waar is het Robots TXT bestand te vinden?

U vindt uw sitemap robots txt bestand in de hoofdmap van uw site. Om toegang te krijgen, opent u uw FTP en zoekt u vervolgens in uw public html-sitemap. Er zijn niet veel van deze bestanden, dus ze zullen niet zo groot zijn. Verwacht maximaal een paar honderd bytes te zien. Zodra u het bestand hebt geopend in uw tekst editor, ziet u wat informatie over een sitemap en de termen ‘User-Agent’, ‘toestaan’ en ‘niet toestaan’. U kunt ook gewoon /robots.txt toevoegen aan het einde van de meeste URL’s om het te vinden:

Hoe maakt u een Robots.txt-bestand voor SEO?

Als u er zelf een moet maken, weet dan dat Robots.txt een eenvoudig tekstbestand is dat eenvoudig genoeg is voor een echte beginner om te maken. Zorg ervoor, dat u een eenvoudige tekst editor hebt en open vervolgens een leeg blad dat je opslaat als “robots.txt”. Log vervolgens in en zoek de map public_html zoals hierboven vermeld. Met het bestand geopend en de map omhoog getrokken, sleept u het bestand naar de map. Stel nu de juiste machtigingen voor het bestand in. U wilt dat het zo wordt ingesteld dat u, als eigenaar, de enige partij bent met toestemming om dat bestand te lezen, schrijven en bewerken. U zou een machtigingscode “0644” moeten zien. Als u die code niet ziet, klikt u op het bestand en selecteert u vervolgens ‘bestandsmachtiging’. Helemaal klaar!

Robots.txt-syntaxis uitgelegd

Als u naar het bovenstaande robots.txt-voorbeeld kijkt, ziet u waarschijnlijk een onbekende syntaxis. Dus wat betekenen deze woorden? Laten we het uitzoeken. De bestanden bestaan ​​uit meerdere secties, elk een “richtlijn”. Elke instructie begint met een gespecificeerde user-agent, die onder de naam staat van de specifieke crawlbot waarop de code is gericht.

Je hebt hier twee opties:

  1. Gebruik een jokerteken om alle zoekmachines tegelijk aan te spreken
  2. Adresseer elke zoekmachine specifiek, één voor één

Wanneer een crawler naar een site wordt gestuurd, wordt deze aangetrokken door het gedeelte, dat erover spreekt. Elke zoekmachine zal SEO robots.txt-bestanden een beetje anders behandelen. U kunt eenvoudig onderzoek doen om meer te weten te komen over hoe Google of Bing in het bijzonder met dingen omgaat.

User-Agent-richtlijn

Zie het gedeelte “user-agent”? Dit onderscheidt een bot van de rest, in wezen door hem bij naam te noemen. Als het uw doel is om een ​​van de crawlers van Google te vertellen, wat ze op uw site moeten doen, begin dan met ‘User-agent: Googlebot’. Hoe specifieker u echter kunt worden, hoe beter. Het is gebruikelijk om meer dan één richtlijn te hebben, dus noem elke bot indien nodig bij naam.

Pro-tip: de meeste zoekmachines gebruiken meer dan één bot. Een beetje onderzoek zal u de meest voorkomende bots vertellen waarop u zich kunt richten.

Gastrichtlijn

Dit gedeelte wordt momenteel alleen ondersteund door Yandex, hoewel u mogelijk enkele beweringen ziet dat Google dit ondersteunt. Met deze richtlijn heeft u de bevoegdheid om te bepalen of u de www. voor uw site-URL door zoiets als dit te zeggen:

Host:voorbeeld.com

Omdat we alleen kunnen bevestigen dat Yandex dit ondersteunt, is het niet aan te raden om er te veel op te vertrouwen.

Disallow-richtlijn

De tweede regel binnen een sectie is Disallow. Met deze tool kunt u aangeven welke delen van uw websites niet door bots mogen worden gecrawld. Als u de disallow leeg laat, vertelt het de bots in wezen dat het gratis is en dat ze kunnen kruipen wanneer ze willen.

Sitemaprichtlijn

De sitemap-richtlijn helpt u zoekmachines te vertellen waar ze uw XML-sitemap kunnen vinden, een digitale kaart die zoekmachines kan helpen belangrijke pagina’s op uw site te vinden en te leren hoe vaak ze worden bijgewerkt.

Richtlijn crawlvertraging

U zult merken, dat zoekmachines zoals Bing en Google een beetje trigger happy kunnen worden tijdens het crawlen. U kunt ze echter een tijdje op afstand houden met een crawl-delay-initiatief. Wanneer u een regel toepast met de tekst ‘Crawl-delay:10’, vertelt u de bots tien seconden te wachten voordat ze de site crawlen of tien seconden tussen crawls.

Voordelen van het gebruik van Robots TXT voor SEO

Nu we de basisprincipes van robots.txt-bestanden hebben behandeld en een aantal richtlijngebruiken hebben besproken, is het tijd om uw bestand samen te stellen. Hoewel een robots.txt bestand geen verplicht onderdeel is van een succesvolle website, zijn er toch veel belangrijke voordelen waarvan u op de hoogte moet zijn:

  • Houd bots uit de buurt van privébestanden – U kunt voorkomen, dat crawlers in uw privémappen kijken, waardoor ze veel moeilijker te indexeren zijn.
  • Resources onderhouden – Elke keer dat een bot uw site crawlt, verbruikt hij serverbronnen zoals bandbreedte en meer. Als uw site veel content bevat, zoals een e-commerce site, zult u versteld staan ​​hoe snel deze bronnen kunnen worden opgebruikt. U kunt robots.txt gebruiken voor SEO om het voor spiders moeilijker te maken om toegang te krijgen tot individuele aspecten. Hierdoor blijven uw meest waardevolle bronnen voor echte sitebezoekers behouden.
  • Verduidelijk de locatie van de sitemap – Als u wilt, dat een crawler door uw sitemap gaat, moet u ervoor zorgen, dat deze weet waar hij heen moet. Robots.txt-bestanden kunnen hierbij helpen.
  • Bescherm duplicated content tegen SERP’s – Door een specifieke regel aan uw robots toe te voegen, kunt u voorkomen dat ze pagina’s op uw website indexeren die duplictaed content bevatten.

U wilt natuurlijk, dat zoekmachines zich een weg banen door de meest kritische pagina’s op uw website. Als u de bots beperkt tot specifieke pagina’s, heeft u betere controle over welke pagina’s vervolgens voor zoekers op Google worden geplaatst. Zorg er wel voor, dat u een crawler nooit helemaal blokkeert om bepaalde pagina’s te zien – u kunt er boetes voor krijgen.

Niet toestaan ​​versus No index

Als u niet wilt dat een crawler een pagina opent, gebruikt u meestal een disallow- of noindex-instructie. In 2019 kondigde Google echter aan dat ze het niet langer ondersteunen, samen met een paar andere regels. Voor degenen die de no index-richtlijn toch wilden toepassen, moesten we creatief zijn. Er zijn in plaats daarvan een paar opties om uit te kiezen:

  1. No index Tag – U kunt dit implementeren als een HTTP- responsheader met een X-Robots-Tag, of u kunt een <meta>-tag maken, die u kunt implementeren in de <head>-sectie. Houd er rekening mee, dat als u bots van deze pagina blokkeert, ze de tag waarschijnlijk nooit zullen zien en de pagina nog steeds in SERP’s kunnen opnemen.
  2. Wachtwoordbeveiliging – Als u een pagina achter een wachtwoordinvoer verbergt, zou deze in de meeste gevallen niet in de Google-index moeten staan.
  3. Disallow-regel – Wanneer u specifieke disallow-regels toevoegt, crawlen zoekmachines de pagina niet en wordt deze niet geïndexeerd. Houd er rekening mee dat ze het mogelijk nog steeds kunnen indexeren op basis van informatie die ze verzamelen van andere pagina’s en links.
  4. 404/410 HTTP-statuscodes – De 404- en 410-statuscodes zijn voorbeelden van webpagina’s die niet meer bestaan. Zodra dit soort pagina eenmaal volledig is verwerkt, wordt deze permanent verwijderd uit de index van Google.
  5. Search Console URL verwijderen – Deze tool lost het indexeringsprobleem niet volledig op, maar het zal de pagina tijdelijk verwijderen.

Dus, wat is beter? Noindex of de disallow-regel? Laten we erin duiken. Aangezien Google noindex officieel niet langer ondersteunt, moet u vertrouwen op de hierboven genoemde alternatieven of op de beproefde regel voor niet toestaan. Houd er rekening mee, dat de disallow-regel niet zo effectief zal zijn als de standaard noindex-tag zou zijn. Hoewel het de bots blokkeert om die pagina te crawlen, kunnen ze nog steeds informatie van andere pagina’s verzamelen, evenals zowel interne als externe links, wat ertoe kan leiden dat die pagina in SERP’s wordt weergegeven.

Bruikbare SEO Optimalisatie inzichten 

Geef ons uw site (of klanten) en we analyseren de SEO elementen van de site (on-page, URL-gelijkheid, concurrenten, enz.), en organiseren deze gegevens vervolgens in een bruikbare SEO audit.

5 Robots.txt-fouten die u moet vermijden

We hebben het nu gehad over wat een robots.txt-bestand is, hoe je er een kunt vinden of maken, en de verschillende manieren om het te gebruiken. Maar we hebben het nog niet gehad over de veelvoorkomende fouten die te veel mensen maken bij het gebruik van robots.txt-bestanden. Wanneer het niet correct wordt gebruikt, kunt u een SEO-ramp tegenkomen. Vermijd dit lot door deze veelvoorkomende fouten te vermijden:

1. Goede content blokkeren

U wilt geen goede content blokkeren, die nuttig zou kunnen zijn voor sitecrawlers en gebruikers die naar uw site zoeken via zoekmachines. Als u een no index-tag of robots.txt-bestand gebruikt om goede content te blokkeren, schaadt u uw eigen SEO resultaten. Als u achterblijvende resultaten opmerkt, controleer dan uw pagina’s grondig op disallow-regels of noindex-tags.

2. Overmatig gebruik van de richtlijn crawlvertraging

Als u de crawl-delay-richtlijn te vaak gebruikt, beperkt u het aantal pagina’s, dat de bots kunnen crawlen. Hoewel dit misschien geen probleem is voor grote sites, kunnen kleinere sites met beperkte content hun eigen kansen op het behalen van hoge SERP-ranglijsten schaden door deze tools te veel te gebruiken.

3. Content indexering voorkomen

Als u wilt voorkomen dat bots de pagina rechtstreeks crawlen, kunt u dit het beste weigeren. Het zal echter niet altijd werken. Als de pagina extern is gelinkt, kan deze nog steeds doorstromen naar de pagina. Bovendien onderschrijven onwettige bots zoals malware deze regels niet, dus indexeren ze de content toch.

4. Onjuiste gevallen gebruiken

Het is belangrijk op te merken, dat robots.txt-bestanden hoofdlettergevoelig zijn. Een richtlijn maken en een hoofdletter gebruiken, werkt niet. Alles moet in kleine letters zijn als je wilt dat het effectief is.

5. Schadelijke dubbele content afschermen

Soms is duplicated content nodig en wilt u deze verbergen zodat deze niet wordt geïndexeerd. Maar andere keren weten Google-bots, wanneer u iets probeert te verbergen, dat niet verborgen zou moeten zijn. Een gebrek aan content kan soms de aandacht vestigen op iets vreemds. Als Google ziet, dat u de ranglijst probeert te manipuleren om meer verkeer te krijgen, kunnen ze u straffen. Maar u kunt dit omzeilen door duplicated content te herschrijven, een 301-omleiding toe te voegen of een Rel=”canonieke tag te gebruiken.

Voeg het allemaal samen

Nu u alles weet over robots.txt voor SEO, is het tijd om wat u heeft geleerd te gebruiken om een ​​bestand te maken en het uit te testen. Het kan even duren voordat u het proces onder de knie hebt en ervoor zorgt dat u alles heeft ingesteld zoals u wilt, maar als u eenmaal alles heeft ingesteld, zult u het verschil zien. Dat is de kracht van sitemap robots txt bestanden.

SEO bureau Connect your World – Blogs

SEO specialist Den Haag

Herman Geertsema is een ervaren SEO consultant en Content Marketing expert uit Den Haag. Tevens is Herman eigenaar van SEO bureau Connect your World gevestigd in Den Haag.

SEO specialist inhuren

Kies ook een SEO specialist uit in de volgende regio´s:

Heeft u een vraag voor ons? Of wilt u ons als SEO specialist inhuren? Neem dan contact met ons op.

SEO & Content Marketing Bureau Connect your World

Dr. J. Presserstraat 313
Den Haag, Nederland 2552 LW
Telefoon: +31641226543
E-mail: info@connectyourworld.nl

Technische SEO optimalisatie checklist in 2022

Technische SEO, On Page SEO, Off Page SEO
SEO Uitbesteden

In 16 stappen naar een technisch perfecte site [SEO checklist]

SEO Optimalisatie kan grofweg worden onderverdeeld in drie takken: On-page SEO, Off-page SEO en Technische SEOOn page SEO draait om de inhoud en HTML tagsOff-page SEO bestaat voornamelijk uit backlinks. Terwijl technische SEO in gaat op de toegankelijkheid van uw website. Technische SEO wordt vaak gezien als een van de moeilijkste onderdelen van SEO. Schakel daarom altijd een technische SEO specialist als u vraagstukken heeft op het gebied van SEO techniek.

Wat is technische SEO?

Technische SEO verwijst naar het proces van het optimaliseren van uw website voor de crawl- en indexeringsfase. Met technische SEO kunt u zoekmachines helpen uw website zonder problemen te openen, te crawlen, te interpreteren en te indexeren.

Geschatte leestijd: 21 minuten

Technische SEO

En hoewel u ze alle drie nodig heeft om goed te ranken, kunt u stellen, dat technische SEO eigenlijk op de eerste plaats komt. U moet een sterke technische basis voor uw website bouwen. Anders kan het gebeuren, dat voordat u deze met content vult en promoot met backlinks, alles in elkaar stort. In deze Technische SEO checklist concentreren wij ons op het controleren van technische problemen (SEO techniek) op uw website en het optimaliseren van uw websitestructuur. Het verbeteren van de website snelheid en de toegankelijkheid komen ook uitgebreid aan bod.

1. Is de indexatie van uw website in orde?

Een voor de hand liggende plek om te beginnen is om te kijken of uw website überhaupt is geïndexeerd. En met geïndexeerd bedoelen wij of het wel of niet in de zoekresultaten wordt weergegeven. Het eerste, dat u daarom hier moet doen, is uw domeinnaam googelen en uw website zoeken tussen de zoekresultaten. Staat uw website tussen de zoekresultaten? Dan is het goed. Laten we nu eens kijken hoeveel van uw website daadwerkelijk in de zoekindex is terechtgekomen. Een goede plek om dit te controleren is het dekkingsrapport in Google Search Console.

Google Search Console, Technische SEO
SEO specialist Den Haag

Het rapport laat zien hoeveel van uw pagina’s momenteel zijn geïndexeerd, hoeveel zijn uitgesloten en wat enkele van de indexeringsproblemen op uw website zijn. Welke tool u ook kiest, het aantal geïndexeerde pagina’s moet dicht bij het werkelijke aantal pagina’s op uw website liggen. Dus als u bijvoorbeeld een e-commerce website heeft, moet het aantal geïndexeerde pagina’s overeenkomen met het aantal producten dat u heeft geüpload.

2. Indexeringsproblemen oplossen

Over het algemeen zijn er twee soorten indexeringsproblemen. Een daarvan is, wanneer een pagina niet wordt geïndexeerd, terwijl dat wel zou moeten. De andere is wanneer een pagina wordt geïndexeerd, hoewel dit niet de bedoeling is. Als u Google Search Console gebruikt om uw website te controleren, wordt het eerste type indexeringsprobleem meestal als een fout gemarkeerd:

Technische SEO, SEO Den Haag, Linkbuilding Den Haag

Problemen met indexeren

Indexeringsfouten treden op wanneer u Google heeft gevraagd een pagina te indexeren, maar deze wordt geblokkeerd. Een pagina is bijvoorbeeld toegevoegd aan een sitemap, maar is gemarkeerd met de noindex- tag of is geblokkeerd met robots.txt . Om het probleem op te lossen, controleert u of de pagina moet worden geïndexeerd. Zo ja, verwijder dan wat het blokkeert. Zo nee, verwijder dan de pagina uit uw sitemap. Het andere type indexeringsprobleem is, wanneer de pagina wordt geïndexeerd, maar Google weet niet zeker of deze geïndexeerd moest worden. In Google Search Console worden deze pagina’s meestal als geldig gemarkeerd met waarschuwingen:

No Index Tag

Dit soort indexeringsproblemen treden meestal op wanneer u heeft geprobeerd de pagina te blokkeren met behulp van sitemap robots txt instructies. Het is een veel voorkomende fout om te denken, dat robots.txt de indexering van de pagina kan blokkeren. In werkelijkheid staat het Google vrij om deze instructies te negeren. Als u de pagina echt wilt blokkeren, moet u de no index-tag gebruiken.

3. Geef een voorkeursdomein op

Bij het opzetten van uw website of blog moet u uw voorkeursdomein specificeren. Hiermee instrueer u zoekmachines welke variant van het domein u wilt gebruiken gedurende de levensduur van uw website. Laten we eens kijken waarom u dit moet doen. Een website is standaard toegankelijk met www en zonder www voor een domeinnaam. Als uw domein bijvoorbeeld voorbeeld.com is, is uw website toegankelijk via zowel http://www.voorbeeld.com als http://voorbeeld.com (dus zonder www). Hoewel dit oké is voor gebruikers, is het verwarrend voor zoekmachines omdat ze deze als twee verschillende websites beschouwen. Dit betekent, dat u indexeringsproblemen, dubbele content problemen en verlies van paginarangschikking kunt tegenkomen. Om dit probleem op te lossen, moet u uw voorkeursdomein instellen en zoekmachines informeren over uw keuze.

www of geen www?

Een van de vragen, die veel mensen hebben, is of ze www voor hun domein moeten gebruiken of dat ze voor de niet-www-versie moeten gaan. Er is geen SEO – voordeel om het ene formaat boven het andere te kiezen. Het is een kwestie van persoonlijke voorkeur. Het is belangrijk om zoekmachines te informeren over uw beslissing en consistent te zijn gedurende de hele levensduur van uw website.

Hoe u uw voorkeursdomein instelt

In het verleden was de instelling om uw voorkeursdomein op te geven beschikbaar in Google Search Console, maar Google besloot deze optie te verwijderen en te vertrouwen op canonieke URL’s.

4. Optimaliseer uw Robots.txt

Als u klaar bent met het instellen van uw voorkeursdomein, is de volgende stap het controleren en optimaliseren van uw robots.txt-bestand.

Wat is robots.txt?

Robots.txt is een tekstbestand, dat zich in de hoofdmap van uw website bevindt. Het geeft instructies aan zoekmachines over welke pagina’s van uw website ze kunnen crawlen en aan hun index kunnen toevoegen. Het formaat van dit bestand is heel eenvoudig en in de meeste gevallen hoeft u er geen wijzigingen in aan te brengen.

5. Controleer uw sitestructuur

Een ondiepe, logische sitestructuur is belangrijk voor gebruikers en zoekmachinebots. Bovendien helpt interne linking om de rangschikkingskracht (zogenaamde link juice) efficiënter over uw pagina’s te verspreiden. Terwijl u uw interne links controleert, controleert u de klikdiepte. Zorg ervoor, dat de belangrijke pagina’s van uw site niet meer dan drie klikken verwijderd zijn van de startpagina. Paginering van blogpagina’s is noodzakelijk voor vindbaarheid door zoekmachines, maar vergroot de klikdiepte. Gebruik een eenvoudige structuur in combinatie met een krachtige zoekfunctie op de site om het voor gebruikers gemakkelijker te maken om elke bron te vinden.

6. Vergroot uw crawlbudget

Het crawlbudget is het aantal pagina’s, dat zoekmachines gedurende een bepaalde periode crawlen. Het crawlbudget is op zichzelf geen ranking factor. Het bepaalt echter wel, hoe vaak de pagina’s van uw site worden gecrawld (en of sommigen ervan überhaupt worden gecrawld). Afhankelijk van hoe belangrijk uw website is, geeft Google u een bepaald crawlbudget. Als uw pagina’s licht zijn en uw bronnen gemakkelijk toegankelijk zijn, zal dit budget een lange weg gaan. Maar als er te veel omleidingen en doodlopende wegen zijn, is uw budget al uitgegeven voordat het zelfs maar op belangrijke pagina’s komt.

Dit is wat u kunt doen om uw crawlbudget te vergroten:

Negeer bronnen met een lage prioriteit

Het is gebruikelijk om gifs, memes en video’s te gebruiken om uw pagina’s op te fleuren. Deze bronnen zijn bedoeld om uw gebruikers te entertainen, maar ze doen er eigenlijk niet toe voor zoekmachines. Het goede nieuws is, dat u Google kunt vragen deze bronnen te negeren en iets anders te gaan crawlen. Om dat te doen, bewerkt u uw robots.txt-bestand om afzonderlijke bronnen niet toe te staan:

User-agent: * Niet
toestaan: /images/filename.jpg

Of zelfs bepaalde bestandstypen:

User-agent: *
Niet toestaan: /*.gif$

Vermijd lange omleidingsketens

Wanneer er te veel omleidingen (redirects) zijn, stopt Google meestal met het volgen van het spoor en gaat naar andere delen van uw website. Wat betekent dat sommige van uw pagina’s misschien nooit het daglicht zullen zien. Dat komt bovenop het verspillen van een stel kruipende eenheden voor niets. Als u dergelijke pagina’s vindt, corrigeer dan de omleidingen om rechtstreeks naar de landingspagina te gaan.

Dynamische URL’s beheren

Het is gebruikelijk, dat content management systemen een heleboel dynamische URL’s genereren. In principe kan elk van uw pagina’s een paar verschillende URL’s hebben, afhankelijk van hoe u daar bent gekomen of het type filters, dat u heeft gebruikt. Google kan elk van deze URL’s als een andere pagina zien, ook al is de content grotendeels hetzelfde. Om te voorkomen, dat Google een aantal bijna identieke pagina’s crawlt, kunt u Google vragen bepaalde URL-parameters te negeren. Om dat te doen, start u Google Search Console en gaat u naar Verouderde tools en rapporten > URL-parameters :

Klik aan de rechterkant op Bewerken en vertel Google welke parameters moeten worden genegeerd.

Wanneer een zoekbot een 4XX/5XX-pagina bereikt, gaat een deel van uw crawlbudget verloren. Daarom is het belangrijk om alle verbroken links op uw site te vinden en op te lossen. ‘Broken links’ verspillen niet alleen uw crawlbudget, maar brengen ook bezoekers in verwarring en verslinden ‘link juice’. 

7. Duplicated content opschonen

Duplicated content is geen groot probleem voor SEO, maar het kan een beetje rommelig worden. Als er twee of meer bijna identieke pagina’s op uw website zijn, welke moet dan worden geïndexeerd? Wat als Google besluit, dat uw duplicated content een teken van plagiaat of spam zijn? Het is het beste om het niet te riskeren. Als u duplicated content vindt, kunt u deze ofwel helemaal verwijderen of verbergen voor zoekmachines.

8. Test en verbeter de paginasnelheid (website snelheid)

Google verwacht, dat pagina’s binnen twee seconden of minder worden geladen. Ondertussen is de gemiddelde pagespeed op internet ongeveer 15 seconden. De kans is dus groot, dat u ook uw SEO pagespeed moet verbeteren. Paginasnelheid is echter niet eenvoudig te meten en Google worstelt al heel lang met deze statistiek. Eindelijk is het aangekomen bij het ‘Core Web Vitals’. Dit zijn drie statistieken, die zijn ontworpen om de waargenomen snelheid van een bepaalde pagina te meten. De statistieken zijn Largest Contentful Pain (LCP), First Input Delay (FID) en Cumulatieve Layout Shift (CLS).

9. Ga uit van mobile-first benadering (SEO Mobile)

In 2018, na anderhalf jaar van zorgvuldig experimenteren en testen, begon Google met het migreren van sites naar mobile-first indexing. De algoritmen stellen zoekmachines in om de mobiele versies van websites te crawlen in plaats van hun desktopversies. En dit betekent letterlijk dat de mobiele versie van uw pagina’s bepaalt, hoe ze scoren in zowel mobiele als desktop-zoekresultaten. De mobielvriendelijke test van Google omvat een selectie van bruikbaarheidscriteria, zoals viewportconfiguratie, gebruik van plug-ins en de grootte van tekst en klikbare elementen. Het is ook belangrijk om te onthouden, dat mobielvriendelijkheid wordt beoordeeld op paginabasis, dus u moet elk van uw landingspagina’s afzonderlijk en één voor één controleren op mobielvriendelijkheid. Om u hele website te beoordelen kun je beter overstappen op Google Search Console. Daar, onder het tabblad ‘Ervaring’, vindt u het rapport Mobiel bruikbaarheid voor al uw pagina’s:

Technische SEO, SEO specialist Den Haag, SEO specialist inhuren

Onder de grafiek staat een tabel met de meest voorkomende problemen, die van invloed zijn op uw mobiele pagina’s. U kunt verder onderzoek doen door op één van de problemen te klikken.

10. Controleer uw HTTPS-inhoud

Google is in 2014 begonnen met het gebruik van HTTPS als ranking-signaal . Sindsdien komen HTTPS-migraties steeds vaker voor. Volgens het Google Transparantie Rapport gebruikt 95% van de websites op Google tegenwoordig HTTPS. Als uw site nog niet over HTTPS beschikt, kunt u een HTTPS-migratie overwegen. Als uw website al gebruik maakt van HTTPS (gedeeltelijk of volledig), is het belangrijk om de veelvoorkomende HTTPS-problemen te controleren als onderdeel van uw SEO Audit. Vergeet vooral niet te controleren op:

Gemengde content

Problemen met gemengde inhoud ontstaan ​​wanneer een anders beveiligde pagina een deel van de content (afbeeldingen, video’s, scripts, CSS-bestanden) laadt via een niet-beveiligde HTTP-verbinding. Dit verzwakt de beveiliging van de pagina en kan voorkomen dat browsers de niet-beveiligde inhoud of zelfs de hele pagina laden. 

Canonicals en omleidingen

Eerst moet u controleren op dubbele HTTP- versus HTTPS-versies van uw pagina’s, in het gedeelte Site-audit > Omleidingen . Als de HTTP- en HTTPS-versies van uw website niet correct zijn ingesteld, kunnen ze allebei tegelijkertijd worden geïndexeerd door zoekmachines. Dit veroorzaakt dubbele inhoudsproblemen die uw website rankings kunnen schaden. In het ideale geval zouden alle links op uw HTTPS-site, evenals omleidingen en canonicals, meteen naar HTTPS-pagina’s moeten verwijzen. Zorg ervoor, dat u de juiste omleiding van HTTP naar HTTPS instelt, merk problemen op met www en niet-www-versies van uw site. Ten tweede, zelfs als u de HTTP-naar-HTTPS-omleidingen correct op de hele site hebt geïmplementeerd, wilt u gebruikers niet door onnodige omleidingen leiden. Hierdoor zal uw website veel langzamer lijken dan hij is. Dergelijke omleidingen kunnen ook een probleem zijn voor het crawlen, omdat u een beetje van uw crawlbudget verspilt telkens wanneer een bot van een zoekmachine een omleiding bereikt.

11. Gestructureerde gegevens toevoegen

Gestructureerde gegevens zijn in wezen HTML-code, die wordt gebruikt om specifieke elementen op uw pagina te taggen. Als uw pagina bijvoorbeeld een recept voor Spaghetti is, kunt u Google vertellen welke tekst de ingrediënten zijn, wat de kooktijd, het aantal calorieën, enzovoort is. Google kan de tags vervolgens gebruiken om rich snippets voor uw pagina’s in de SERP te maken:

Technische SEO, Bovenaan in Google

U kunt uw gestructureerde gegevens controleren in de Google Search Console onder het tabblad Verbeteringen. Google geeft de verbeteringen weer die u op uw website heeft geprobeerd te implementeren en laat u weten of dit is gelukt:

Als uw website een CMS gebruikt, kunnen gestructureerde gegevens standaard worden geïmplementeerd of u kunt dit implementeren door een plug-in te installeren. Als u een op maat gemaakte website heeft, kunt u een hulptool gebruiken om uw pagina’s te taggen.

Wat is het voordeel van het gebruik van gestructureerde data ?

Het kan u helpen de presentatie van uw vermeldingen in de SERPS te verbeteren, hetzij via aanbevolen fragmenten , kennisgrafieken, enz., en uw CTR te verhogen.

Wat zijn de toepassingen van gestructureerde gegevens?

Er zijn veel manieren waarop u gestructureerde gegevens kunt gebruiken om uw content te beschrijven. De meest populaire zijn: artikelen, recepten, evenementen, vacatures, lokale bedrijven en meer. U kunt de volledige lijst hier bekijken .

12. Bekijk uw sitemap

Wat zijn XML-sitemaps?

Een XML-sitemap is een bestand dat de URL’s van uw site weergeeft en waarmee u informatie over elke pagina van uw site kunt verstrekken om de crawlers van zoekmachines te helpen deze beter te navigeren en te indexeren.

Hoe vind ik mijn XML-sitemap?

Vaker wel dan niet, bevindt uw XML-sitemap zich in de hoofdmap van uw domein, dus het is meestal vrij eenvoudig te vinden. Er zijn een aantal manieren waarop u de XML-sitemap op uw site kunt vinden – of zelfs om te ontdekken of u er een heeft. Gebruik veelvoorkomende formaten om te lokaliseren. Er zijn enkele standaard naamgevingsconventies, dus probeer die eerst. Begin met deze: URL + sitemap.xml of sitemap_index.xml of sitemap1.xml.

Waarom zijn XML-sitemaps belangrijk voor SEO?

In een wereld waar Google koning is, is het essentieel om uw site fris en bijgewerkt te houden met nieuwe content. Hierbij zijn XML-sitemaps essentieel voor SEO omdat ze zoekmachines zoals Google in staat stellen om alle pagina’s op uw website te vinden, die ze anders misschien niet zouden hebben gevonden. Dit kan betekenen, dat er meer organisch verkeer binnenkomt en meer geld voor uw bedrijf! XML-sitemaps helpen Google uw site te crawlen en snel naar nieuwe inhoud te gaan. Zie de XML-sitemap als een stappenplan. Langs komt Google, en het komt op een pagina op uw website. Laten we, omwille van het argument, zeggen dat dit de startpagina is. Van daaruit crawlt het je navigatie en begint het die pagina’s te ontdekken, en gaat dan op jacht om andere pagina’s te vinden.

Wat voor soort websites hebben een XML-sitemap nodig?

Google heeft in het verleden gezegd dat kleine sites niet echt een XML-sitemap nodig hebben (zie onderstaande quote van John Mueller) en dat ze nuttiger zijn voor grotere sites. Ik zou zeggen dat het niet uitmaakt hoe groot of klein je site is – u zou nog steeds een XML-sitemap moeten hebben. Ze zijn zo gemakkelijk te maken (met behulp van een plug-in zoals Yoast of een tool zoals Sitebulb of Screaming Frog), dat u gek zou zijn om dat niet te doen. Een taak die een paar minuten duurt voor een eenvoudige site, helpt Google de gewenste URL’s te vinden.

“Met een site van die grootte heb je niet echt een sitemapbestand nodig, we kunnen over het algemeen toch alles crawlen en indexeren.

Met zo’n klein sitemapbestand kun je ook gewoon de afzonderlijke URL’s controleren om te zien of ze op die manier zijn geïndexeerd.’

John Mueller – Google Webmaster Forum

Uw sitemap vertelt zoekmachines over uw sitestructuur en laat ze nieuwe content ontdekken. Als u geen sitemap heeft, moet u er nu echt een gaan maken. Als u uw sitemap controleert, zorg er dan voor dat deze:

Schoon. Houd uw sitemap vrij van fouten, omleidingen en URL’s die worden geblokkeerd voor indexering; anders loopt u het risico dat zoekmachines de sitemap negeren alsof deze er niet is.

Actueel. Zorg ervoor, dat uw sitemap wordt bijgewerkt, telkens wanneer nieuwe content aan uw website wordt toegevoegd of ervan wordt verwijderd. Dit zal zoekmachines zoals Google helpen nieuwe content snel te ontdekken.

Beknopt. Google crawlt geen sitemaps van meer dan 50.000 URL’s. Idealiter zou u het veel korter moeten houden om ervoor te zorgen dat uw belangrijkste pagina’s vaker worden gecrawld: technische SEO experimenten tonen aan dat kortere sitemaps resulteren in effectievere crawls .

Geregistreerd in Search Console. Laat Google weten, wat uw sitemap is. U kunt het handmatig indienen bij Google Search Console of de locatie op de volgende manier ergens in uw robots.txt-bestand opgeven:
Sitemap: http://uwdomein.com/sitemaplocatie.xml

13. Vraag Google om uw site opnieuw te crawlen

De bovenstaande SEO site-audit zal zeker een paar problemen op uw site onder de aandacht brengen, die moeten worden opgelost. Zodra u ze heeft opgelost, kunt u Google expliciet vragen uw pagina’s opnieuw te crawlen, om ervoor te zorgen, dat de wijzigingen zo snel mogelijk worden doorgevoerd. U kunt uw bijgewerkte URL’s voor opnieuw crawlen verzenden vanuit Google Search Console met behulp van de URL-inspectietool. Voer de URL in van de pagina die u opnieuw wilt crawlen en klik op ‘Indexering aanvragen’. U kunt ook de Live URL testen (voorheen bekend als de functie Fetchen als Google) om uw pagina in zijn huidige vorm te zien en vervolgens indexering aanvragen.

Technische SEO, Bovenaan in Google

Met de URL-inspectietool kunt u het rapport uitbreiden voor meer details, de live-URL testen en indexering aanvragen.

SEO techniek – crawlen

U moet beoordelen wanneer u echt opnieuw moet crawlen. Bijvoorbeeld na het doorvoeren van serieuze wijzigingen op de site: u heeft uw site van http naar https verplaatst, gestructureerde gegevens ingevoerd of essentiële content optimalisatie uitgevoerd. Of u wilt, dat een dringende blogpost sneller op Google verschijnt. Er wordt aangenomen dat er een limiet is voor het aantal herhalingsacties per maand, dus maak er geen misbruik van. Het opnieuw crawlen kan 10 minuten tot enkele weken duren. Een beter alternatief voor opnieuw crawlen is om enorme wijzigingen door te geven via de sitemap. Google kan niet garanderen, dat alle pagina’s van uw website worden geïndexeerd, maar als de site vrij klein is, zal dit hoogstwaarschijnlijk wel gebeuren.

Bing Webmaster Tools

Er is ook een vergelijkbare optie in Bing Webmaster Tools. Zoek gewoon het gedeelte Mijn site configureren in uw dashboard en klik op URL’s indienen. Vul de URL in, die u opnieuw wilt laten indexeren, en Bing zal deze doorgaans binnen enkele minuten crawlen. Met de tool kunnen webmasters voor de meeste sites tot 10.000 URL’s per dag indienen.

14. Core Web Vitals

Wat zijn Core Web Vitals?

Core Web Vitals zijn de nieuwe standaarden van Google om te evalueren of een pagina een goede gebruikerservaring biedt.

De Core Web Vitals bestaan ​​uit:

  • Largest Contentful Paint (LCP) : meet de snelheid waarmee de hoofdinhoud van een pagina wordt geladen. Dit zou binnen 2,5 seconden na het landen op een pagina moeten gebeuren .
  • First Input Delay (FID) : meet de snelheid waarmee gebruikers kunnen communiceren met een pagina nadat ze erop zijn beland. Dit zou binnen 100 milliseconden moeten gebeuren .
  • Cumulatieve lay-outverschuiving (CLS) : meet hoe vaak gebruikers onverwachte lay-outverschuivingen ervaren. Pagina’s moeten een CLS van minder dan 0,1 hebben.

Als het gaat om het testen van uw site om te zien hoe goed deze voldoet aan de Core Web Vitals-benchmarks, is het belangrijk dat aan alle drie de statistieken wordt voldaan, zegt John Mueller.

15. Controleer uw site regelmatig

Tenslotte. Een regelmatige site-audit moet een prioriteit zijn in uw SEO-strategie. Welke veranderingen er ook op internet verschijnen, ze kunnen de ranglijst op een zeer onvoorspelbare manier beïnvloeden. Daarom is het echt verstandig om SEO analyse tools in te stellen voor regelmatige technische SEO controles om SEO optimalisatie problemen te detecteren en op te lossen zodra ze zich voordoen.

16. Broodkruimelmenu’s toevoegen

Een broodkruimelmenu is een reeks links boven of onder aan een pagina, waarmee gebruikers naar een vorige pagina (meestal de categoriepagina) of naar de startpagina van een website kunnen navigeren. Een broodkruimelmenu heeft twee hoofddoelen: het helpt gebruikers gemakkelijk door een website te navigeren zonder op de terugknop van hun browser te hoeven drukken. Het geeft zoekmachines nog een hint over de structuur van een website. ,Breadcrumbs worden in verschillende SEO Guides als SEO-element genoemd omdat ze sterk worden aanbevolen door Google. Als u breadcrumbs nog niet hebt ingeschakeld, zorg er dan voor dat ze zijn ingeschakeld op uw website en dat ze het juiste schema hebben.

Conclusie

Deze technische SEO checklist heeft als doel om met u te delen, wat er allemaal op het gebied van SEO techniek moet gebeuren om van uw website een goed scorende site te maken. Technische SEO kan lastig zijn en heeft vele valkuilen. Een SEO specialist inhuren is daarom altijd een verstandige keuze. De SEO expert begeleidt u graag naar de posities bovenaan in Google met uw website.

SEO checklists – Connect your World

SEO specialist Den Haag

Herman Geertsema is de eigenaar en freelance SEO specialist van SEO en Content Marketing bureau Connect your World gevestigd in Den Haag. Hij is een ervaren SEO consultant en Content Marketeer. Connect your World voert online marketing projecten uit op het gebied van zoekmachineoptimalisatie, Linkbuilding, Contentmarketing, Sociale Media en Google Ads. Hij heeft ook kennis van de SEO techniek.

SEO specialist inhuren

Kies ook een SEO specialist voor een goede SEO analyse in de volgende regio’s:

Heeft u een vraag over technische SEO, Google Ads Campagnes of iets anders? Of wilt u ons als SEO tekstschrijver of SEO specialist inhuren? Neem dan contact op via onderstaande button.

SEO & Content Marketing Bureau Connect your World

Dr. J. Presserstraat 313
Den Haag, Nederland 2552 LW
Telefoon: +31641226543
E-mail: info@connectyourworld.nl

SEO check

Wilt u zelf een SEO check uitvoeren voor uw website? Maak dan gebruik van de vele SEO checklists op deze website of ons overzicht met veelal gratis SEO tools.

8 voorname HTML-tags voor SEO

HTML-tags behoren tot de eerste dingen, die we leren in SEO optimalisatie. Ze zijn onzichtbaar voor het blote oog, maar kunnen wonderen doen voor de posities van de website in de zoekmachine. HTML-tags zijn zelfs zo essentieel geworden, dat geen enkele website kan concurreren in de zoekresultaten van vandaag als ze HTML-tags of web page HTML negeren of verkeerd gebruiken.

Wat zijn HTML-tags?

HTML-tags zijn stukjes code, die kunnen worden gebruikt om onze content voor zoekmachines te beschrijven. We kunnen HTML-tags gebruiken om de belangrijke delen van onze content te markeren, afbeeldingen te beschrijven en zelfs instructies te geven aan zoekmachinebots. HTML-tags worden ook gebruikt om de manier waarop onze pagina’s in zoekresultaten worden weergegeven, te beïnvloeden. Met behulp van bepaalde tags kunnen we gewone zoekfragmenten omzetten in ‘rich snippets’ en misschien zelfs in ‘featured snippets’. En naarmate onze zoekfragmenten geavanceerder worden, kunnen ze betere SERP posities veiligstellen en meer verkeer aantrekken.

Geschatte leestijd: 21 minuten

Zijn HTML-tags vandaag de dag nog steeds belangrijk?

Absoluut! Sommigen zeggen, dat zoekmachines te slim zijn geworden voor HTML-tags. Ze zeggen dat zoekmachines geen hulp nodig hebben bij het begrijpen van onze content. Nou, dat is niet de hele waarheid. Ten eerste, hoewel kunstmatige intelligentie grote sprongen heeft gemaakt in het begrijpen van content, is het nog niet perfect. Er is nog steeds een aanzienlijke foutmarge en we hebben nog steeds web page HTML nodig om ervoor te zorgen, dat al onze content wordt geïnterpreteerd zoals het hoort. Ten tweede is het niet de enige functie van HTML-tags om zoekmachines te helpen onze content te begrijpen. Ze verbeteren ook de gebruikerservaring, creëren prachtige zoekfragmenten, lossen duplicated content problemen op en dwingen crawlregels af.

De volgende HTML-tags zijn belangrijk:

  1. Titel tag
  2. Meta beschrijving tag
  3. Koppen
  4. Alt-kenmerk
  5. Open Graph-tags
  6. Robots tag
  7. Canonieke tag
  8. Schema-opmaak

1. HTML Titel-tag

HTML Titel-tags worden door zoekmachines gebruikt om het onderwerp van een pagina te bepalen en deze in SERP weer te geven. In HTML ziet een titel tag er als volgt uit:<title>Uw Titel staat hier</title>

In SERP ziet een HTML titel tag er paars gedrukt uit:

SEO optimalisatie waarde

Titel-tags waren van groot belang voor zoekmachines zoals Google. De titel van de pagina is het hoofdonderwerp, dus Google zou naar de titel kijken om te beslissen of de pagina relevant is voor een zoekopdracht. Natuurlijk begonnen SEO specialisten titel tags met zoveel mogelijk zoekwoorden te vullen, in een poging hun pagina’s relevant te maken voor meerdere zoekopdrachten. Als reactie daarop begon Google het vullen van zoekwoorden te bestraffen en verloren pagina’s met spamtitels hun positie in de zoekresultaten.

Nu Google is overgestapt op semantisch zoeken, is de waarde van een geoptimaliseerde titel-tag zelfs nog lager. De onderzoekers van Backlinko ontdekten bijvoorbeeld, dat een voor zoekwoorden geoptimaliseerde titel-tag geassocieerd was met een betere ranking, maar dat de correlatie kleiner was dan ooit. Google is zelfs zo goed geworden in het begrijpen van onze webpagina’s, dat het onze titels soms voor ons herschrijft. Dat klopt, het is mogelijk, dat u een bepaalde titel voor uw pagina instelt, waarna Google een andere titel in de zoekresultaten weergeeft. Hoewel het nog steeds zeldzaam is, gebeurt het wanneer:

De titel is gevuld met trefwoorden

Google kan een titel met spam corrigeren als de pagina zelf content van hoge kwaliteit bevat. U hoeft geen goede content te verspillen alleen omdat u de fout heeft gemaakt om een ​​paar extra Google zoekwoorden aan uw titel toe te voegen.

De titel komt niet overeen met een zoekopdracht

Google kan uw webpagina voor een bepaalde zoekopdracht kiezen, zelfs als uw titel niet overeenkomt met deze zoekopdracht. In dit geval kan de titel soms worden herschreven voor de SERP. Het is duidelijk, dat u geen titel kunt schrijven, die overeenkomt met alle mogelijke zoekopdrachten. Als u echter ziet, dat Google uw titel herschrijft voor grote zoekopdrachten, overweeg dan om deze te herzien.

Er zijn enkele alternatieve titels

Facebook en Twitter hebben hun eigen tags in het <head> -gedeelte van uw pagina, dus als u de alternatieve titels voor deze sociale netwerken gebruikt, kan Google deze ook gebruiken in plaats van uw titel-tag.

Hoe HTML-tags zoals titel-tags te optimaliseren

Hier ziet u hoe u titels maakt volgens de richtlijnen van Google en best practices op het gebied van SEO.

Titel lengte in HTML-tags

Google heeft een bepaalde limiet voor het aantal titeltekens, dat in SERP kan worden weergegeven. Deze limiet is niet exact – deze verandert afhankelijk van de grootte van uw scherm. Als vuistregel geldt dat titels van minder dan 60 tekens op de meeste schermen passen. Als uw titel niet op een bepaald scherm past, zal Google deze afbreken. 

Het is niet per se slecht, dat uw titel wordt afgebroken. Soms kan het zelfs een positief effect hebben op de Click through rate. Afgekorte titels creëren een cliffhanger en stimuleren de nieuwsgierigheid van de gebruikers, zodat ze worden aangemoedigd om de pagina te bezoeken. De enige keer dat een afgekapte titel een probleem kan zijn, is wanneer een zichtbaar deel van uw titel niet relevant lijkt te zijn voor de zoekopdracht. Het is dus niet nodig, dat uw volledige titel zichtbaar is, maar het is belangrijk dat het zichtbare gedeelte uw ‘hoofd zoekwoord’ bevat.

Titel zoekwoorden

Zoekwoorden in uw titel hebben, is nog steeds belangrijk. Zo communiceert u de relevantie van uw webpagina naar de gebruikers. Maar als u te veel zoekwoorden opneemt, zal Google uw pagina degraderen of uw titel herschrijven om minder spam te bevatten. De huidige ‘best practice’ is om slechts één zoekwoord of korte zinsdeelgroep per titel op te nemen en vervolgens de rest van de titel te vullen met marketingwoorden. Hier zijn bijvoorbeeld twee populaire voorbeelden van titelstructuren:

Top 10 mountainbikes voor elk budget | Bikespecialist

De titel heeft aan het begin een korte zoekwoordgroep. We zien ook dat het een lijstje is, omdat het top 10 zegt. Er is een merk aan het einde om domein autoriteit te communiceren. Daarnaast zegt de titel elk budget, wat slechts een algemeen verkoopargument is.

Hoe u de beste telefoon voor het werk kiest | 2021

Deze titel heeft zijn trefwoord iets verderop, maar het is nog steeds binnen de lengtelimiet, dus het zal zichtbaar zijn in elke SERP. We kunnen zien, dat de pagina een gids wordt, omdat de titel zegt hoe dat moet. We kunnen ook zien dat het actueel is omdat het het huidige jaar bevat.

Merk in een titel

Als u een bekend merk heeft, is het een goed idee om dit in de titel te gebruiken. Wanneer gebruikers de resultatenpagina (SERP) doorbladeren, zullen ze eerder iets kiezen, dat ze herkennen. Als u geen gevestigd merk heeft, zult u geen direct voordeel zien als u het in de titel opneemt. Maar het kan u helpen om na verloop van tijd merkherkenning op te bouwen, zodat u uiteindelijk de voordelen zult gaan zien. We praten hierbij over jaren.

2. Metabeschrijvingstag

De metabeschrijving is een korte tekst paragraaf, die wordt gebruikt om uw pagina in zoekresultaten te beschrijven. In HTML ziet een metabeschrijvingstag er als volgt uit:

<meta name="description" content="Uw metabeschrijving staat hier">

In de SERP ziet u onder elke titel een paar regels. Dat is de metabeschrijving.

HTML-tags, SEO optimalisatie, metabeschrijving

SEO waarde van een metabeschrijving

De functie van metabeschrijving is vergelijkbaar met de titel. Het geeft wat meer details over uw pagina en helpt gebruikers beslissen of ze uw pagina willen bezoeken of niet. Hoewel de metabeschrijving geen directe rangschikkingsfactor is, kan het toch uw succes bij het zoeken vergroten. Als uw metabeschrijving relevant en aantrekkelijk is, zullen meer gebruikers op uw fragment klikken. Uiteindelijk zou Google kunnen overwegen om u een betere positie in de zoekresultaten te geven. Hoewel, net als bij titels, Google zich het recht voorbehoudt om uw metabeschrijving te herschrijven. Het gebeurt zelfs heel vaak! De meeste metabeschrijvingen, die u in SERP ziet, zijn gemaakt door Google en niet door website eigenaren. John Mueller van Google legt uit, dat metabeschrijvingen vaak aangepast worden om zelfs met de kleinste verandering aan de vraag van de gebruiker te voldoen. Dus Google bewijst je eigenlijk een plezier. Het toont verschillende metabeschrijvingen aan verschillende gebruikers en verbetert de relevantie van uw zoekfragmenten.

Waar moet u aan denken bij SEO optimalisatie

Hoewel metabeschrijvingen vaak door Google worden herschreven, wordt er nog steeds een behoorlijk deel van de originele beschrijvingen weergegeven in SERP. Laat het niet aan het toeval over, vertrouw niet op Google om uw metabeschrijving voor u te genereren, want dat is misschien niet de beste optie. En als dat niet het geval is, blijft er een slecht geoptimaliseerd fragment en slechte zoekprestaties over.

Metabeschrijving lengte

Er is geen technische limiet voor de lengte van de metabeschrijving, maar Google toont over het algemeen alleen de eerste 160 tekens in uw fragment. Het advies is hetzelfde als bij de titel-tag – maak het zo lang als u wilt, maar zorg ervoor, dat uw zoekwoorden en andere belangrijke informatie dichter bij het begin worden vermeld.

Metabeschrijving keywords

Er is meer ruimte in een metabeschrijving, daarom is het prima om meer dan één zoekwoord te gebruiken. De huidige ‘beste practice’ is om varianten van het zoekwoord te gebruiken, dat u in de titel heeft geplaatst. Als mijn titel bijvoorbeeld is Hoe kies je de beste telefoon voor werk , dan zeg ik in mijn beschrijving, in plaats van telefoons voor werk te zeggen, zakelijke telefoons. Op deze manier is de kans groter, dat de vraag van de gebruiker exact overeenkomt. Hoewel u meer zoekwoorden in de beschrijving kunt gebruiken, wordt aanbevolen om er niet meer dan twee of drie te gebruiken. Houd het natuurlijk. Doe geen moeite om nog een zoekwoord te plaatsen waar het niet thuishoort.

Geen aanhalingstekens in metabeschrijving

Wanneer u dubbele aanhalingstekens gebruikt in de HTML van de metabeschrijving, zal Google deze tekst bij het aanhalingsteken knippen, wanneer deze in de SERP’s wordt weergegeven. Het is dus beter om alle alfanumerieke tekens uit uw metabeschrijvingen te verwijderen.

3. HTML-tags koppen

Koppen (H1-H2) worden gebruikt om uw pagina op te splitsen in secties of hoofdstukken. Elke kop is als een kleine titel op de pagina. 

In Web page HTML ziet een kop er als volgt uit:<h1>Zakelijke telefoons</h1>

SEO relevantie

De oorspronkelijke functie van koppen was om de gebruikerservaring te verbeteren. Wanneer de pagina correct is georganiseerd met koppen, maakt u het gebruikers gemakkelijker om door de content te navigeren, irrelevante hoofdstukken over te slaan en de belangrijke dingen te vinden. En als de gebruikers tevreden zijn, is Google tevreden. Tegenwoordig is de rol van koppen veel geavanceerder. Sinds de introductie van passage – indexering kan Google bepaalde secties van uw pagina als afzonderlijk zoekresultaat gebruiken.

Waaraan denken bij SEO optimalisatie

Hier zijn de ‘best practices’ die u kunt volgen bij het optimaliseren van koppen:

Hiërarchie van koppen

Traditioneel is er slechts één H1-kop per pagina en dit is de titel van uw pagina. Het is echter niet hetzelfde als de titel-tag. De titel-tag wordt weergegeven in de zoekresultaten, terwijl de kop H1 op uw website wordt weergegeven. Een echt verschil is, dat er geen tekenlimiet is voor de H1 kop, dus u kunt deze langer maken dan uw titel-tag. Of u kunt ze hetzelfde maken. Dat is uw keuze. Dan zijn er H2 – koppen, die worden gebruikt om uw content in hoofdstukken op te splitsen. Vervolgens H3 – koppen, die worden gebruikt om uw hoofdstukken op te splitsen in subhoofdstukken. U kunt zelfs dezelfde logica volgen tot aan H6. In het algemeen wordt aanbevolen om niet verder te gaan dan H3-H4. De pagina’s met veel kopniveaus worden te rommelig.

Koppen met zoekwoorden

Weet u nog hoe elk van uw koppen een afzonderlijk zoekresultaat kan zijn? Om dit mogelijk te maken, moet u elke kop schrijven alsof het een paginatitel is. Voeg een trefwoord toe dat relevant is voor het gedeelte van de pagina en formuleer uw kop op een zoekopdrachtachtige manier. Laten we bijvoorbeeld teruggaan naar onze handleiding voor bakstenen muren. Aan de linkerkant hebben we koppen die niet zijn geoptimaliseerd voor zoeken. Ze werken prima voor navigatie binnen de pagina, maar ze zullen de SERP nooit halen. Terwijl we aan de rechterkant koppen hebben die veel informatiever zijn en door Google kunnen worden gebruikt om nauwere zoekopdrachten te beantwoorden.

Slechte koppenGoede rubrieken
WeggooienGooi de oude telefoon niet weg
KammenReinig de hond met een speciale borstel
BorstelenGebruik een zeepoplossing
AfdichtenDicht de afvoer met tape


Web page HTML – Parallelle syntaxis

Soms kan Google uw koppen omzetten in een uitgelicht fragment van het lijsttype. Om ervoor te zorgen, dat uw koppen in aanmerking komen voor een lijstfragment, moeten ze de parallelle syntaxis volgen. Dit betekent, dat al uw koppen op dezelfde manier moeten worden geformuleerd. Ze moeten bijvoorbeeld allemaal beginnen met een werkwoord. Of ze moeten allemaal zelfstandige woordgroepen zijn. Het helpt ook als alle koppen van hetzelfde niveau dezelfde lengte hebben en in een genummerde lijst zijn gerangschikt.

4. Alt tekst kenmerk

Het alt tekst kenmerk is een onderdeel van een afbeeldingstag en biedt een beschrijving voor een afbeelding. In HTML kan het er zo uitzien: <img src="url" alt="De beschrijving van je afbeelding staat hier">

SEO waarde

Alt tekst speelt een belangrijke rol bij het optimaliseren van afbeeldingen. Het maakt uw afbeeldingen toegankelijk voor zowel zoekmachines (door hen te vertellen wat een bepaalde afbeelding betekent) als voor mensen (door een alternatieve tekst weer te geven voor het geval een bepaalde afbeelding niet kan worden geladen of door schermlezers te helpen afbeeldingen over te brengen). Het belangrijkste voordeel in termen van zoekoptimalisatie is dat geoptimaliseerde alt tekst uw afbeeldingen helpen rangschikken bij het zoeken naar afbeeldingen. Hoewel kunstmatige intelligentie redelijk goed is geworden in het lezen van website afbeeldingen, helpt een schriftelijke beschrijving de resterende kloof te overbruggen.

Waaraan denken bij zoekmachineoptimalisatie

Hier zijn de ‘best practices’ die u kunt volgen bij het optimaliseren van Alt tekst:

Laat ze niet leeg achter

Wil u van deze extra mogelijkheid gebruik maken om door middel van beeldoptimalisatie hoger te scoren, controleer dan allereerst op lege alt-teksten. 

Afbeeldingen prioriteren

Als u duizenden SEO afbeeldingen heeft, hoeft u ze niet allemaal te optimaliseren. Besteed aandacht aan degenen die nuttige gegevens overbrengen, niet degenen die worden gebruikt voor entertainment en decoratie. De bruikbare afbeeldingen zijn afbeeldingen van producten, screenshots van processen, uw logo, infographics en diagrammen.

Voeg zoekwoorden toe

Alt-teksten zijn nog een mogelijkheid om uw hoofd zoekwoorden te gebruiken. Gebruik ze niet te veel! Schrijf de beschrijving, die context geeft aan uw content en gebruik een zoekwoord waar dit geschikt is. Voor zoekwoorden geoptimaliseerde afbeeldingen werken uitstekend in combinatie met de factoren waarmee zoekmachines rekening houden bij het rangschikken van pagina’s.

5. Open Graph-tags

Open Graph (OG) -tags worden in het <head> -gedeelte van een pagina geplaatst en zorgen ervoor, dat elke webpagina een rijk object wordt in sociale netwerken. Het werd voor het eerst geïntroduceerd door Facebook in 2010 en verder erkend door andere grote sociale mediaplatforms zoals LinkedIn & Twitter. In HTML kan het er als volgt uitzien: <meta name="og:titel" property="og:titel" content="Uw Open Graph Titel staat hier">

SEO-waarde

Met OG-tags kunt u bepalen, hoe de informatie over uw pagina wordt weergegeven wanneer deze wordt gedeeld via sociale media kanalen. Deze mogelijkheid kan u helpen de prestaties van uw backlinks op sociale media te verbeteren, waardoor meer doorklikken en meer conversies worden gegenereerd.

Waarmee rekening mee houden bij zoekmachineoptimalisatie

Er zijn nogal wat Open Graph-tags, ik zal een paar tips geven over de belangrijkste.

OG-titel 

Ja, dat is weer een tag met de titel van uw pagina. Dus nu heeft u drie verschillende titels: de ene is voor zoeken (titel-tag), de andere is voor uw website (H1) en de derde is voor sociale netwerken (OG-titel). U kunt alle andere titels kopiëren en de zaken eenvoudig houden. U kunt ook een aparte titel bedenken voor sociaal delen. Houd er rekening mee dat het tussen de 60 en 90 tekens moet zijn. Anders kan het worden afgekapt.

OG-type

Gebruik deze tag om te beschrijven wat voor soort object u deelt: een website, post, video, bedrijf, etc. U kunt de volledige lijst hier bekijken. Deze tag wordt als belangrijk beschouwd wanneer uw pagina de ‘Vind ik leuk-knop’ heeft. Het kan helpen om te bepalen of uw content zal verschijnen in het interessegedeelte van de Facebook gebruiker voor het geval hij of zij deze “leuk” vindt. In de meeste gevallen is het type “website”, omdat u meestal links naar websites deelt. Als dit het geval is, hoeft u het type code niet op te geven. Deze wordt standaard als zodanig gelezen.

OG beschrijving

Deze lijkt erg op de metabeschrijvingstag. Het wordt echter niet weergegeven in de SERP’s. Het wordt weergegeven als een samenvatting wanneer uw pagina wordt gedeeld. Om deze reden heeft het geen zin om uw zoekwoorden op een slimme manier in deze specifieke beschrijving te plaatsen. Uw belangrijkste taak hier is om het te laten spreken voor uw potentiële publiek en meer klikken te genereren. Wat de lengte betreft, wordt het als een goede gewoonte beschouwd om deze ongeveer op 200 tekens te houden.

OG-afbeelding

Een afbeelding maakt uw deelbare link veel aantrekkelijker. Sommige tekst over de afbeelding is acceptabel, maar probeer deze in het midden van een afbeelding te plaatsen, aangezien sommige platforms de randen bijsnijden. De aanbevolen resolutie voor de OG-afbeelding is 1200×627 pixels, de grootte – tot 5 MB. Als u klaar bent met uw OG-metatags, kunt u controleren hoe alles eruitziet met behulp van Open Graph Object Debugger, een tool gemaakt door Facebook.

Twitter-kaarten

Twitter kaarten lijken erg op OG-tags met bijvoorbeeld titel, beschrijving en afbeelding. Ze worden uitsluitend door Twitter gebruikt. Hoewel tweets nu meer dan 140 tekens kunnen bevatten, zijn deze kaarten een mooie extensie waarmee uw tweet opvalt tussen de massa gewone tweets met tekst.

Er zijn een paar soorten Twitter-kaarten:

Overzichtskaart. Afgezien van de originele tweet is er een voorbeeld van de content van uw pagina, wat goed is voor het markeren van blogposts, producten, nieuws, enz.

Titel: 70 tekens
Beschrijving: 200 tekens
Afbeelding: 120x120px, tot 1 MB

Overzichtskaart met een grote afbeelding. Deze kaart is vergelijkbaar met de vorige, maar bevat een grotere afbeelding. De afbeelding kan ook wat tekst bevatten, die het belangrijkste punt van de content van uw webpagina weergeeft, een oproep tot actie of iets dat echt aanzet tot klikken.

Titel: 70 tekens
Beschrijving: 200 tekens
Afbeelding: 280x150px, maximaal 1 MB

Spelerskaarten. Met dergelijke kaarten kunnen gebruikers video’s of audio afspelen in een tweet.

Beschrijving: 200 tekens
Video: H.264, basislijnprofiel, niveau 3.0, tot 640 x 480 pixels bij 30 fps.
Audio: AAC, profiel met lage complexiteit

App-kaarten. Met dergelijke kaarten kunnen gebruikers mobiele apps rechtstreeks vanuit een tweet downloaden. Ze bevatten een naam, een beschrijving, een pictogram, een beoordeling en een prijs.

Titel: gerenderd vanuit app-ID
Beschrijving: 200 tekens
Afbeelding: weergegeven vanuit app-ID

Opmerking: er wordt  slechts één kaarttype per pagina ondersteund.

Opmerking: als u  eenmaal klaar bent met de elementen van uw Twitter-kaart, moet je de kaarten instellen en ze vervolgens valideren met een kaart validator .

6. HTML-tags – Robots-tag

Een robots-tag is een element in de HTML van een pagina dat zoekmachines informeert welke pagina’s op uw site moeten worden geïndexeerd en welke niet. De functies zijn vergelijkbaar met robots.txt, maar sitemap robots txt geeft suggesties. Terwijl robots-tags instructies geven.

In HTML kan het er als volgt uitzien: <meta name="robots" content="index, follow">

SEO-waarde

Het is niet zo, dat een robots-tag u kan helpen uw ranglijst te verbeteren, maar u kunt het gebruiken om uw ranglijst op te slaan voor het geval u sommige pagina’s moet blokkeren voor indexering. U kunt bijvoorbeeld enkele webpagina’s of blogs hebben met een vrij dunne content, waarvan u niet geïnteresseerd bent om geïndexeerd te worden tijdens het zoeken, maar die u wel wilt behouden. In dit geval kunt u gewoon een noindex-tag voor deze pagina toevoegen.

Waar rekening mee houden bij zoekmachineoptimalisatie

Hier zijn de ‘best practices’ die u kunt volgen bij het optimaliseren van robots-tags:

Adres bots op naam

Gebruik robots als u alle bots wilt aanspreken, maar gebruik individuele botnamen als u een bepaalde bot wilt aanspreken. Individuele botnamen worden vaak gebruikt om te voorkomen, dat kwaadwillende bots uw website crawlen.

Ken de relevante parameters

Google begrijpt en respecteert de volgende parameters in uw robots-tag:

Noindex – voorkomt dat zoekmachines een pagina indexeren;
Nofollow – voorkomt dat de zoekmachine alle links op de pagina volgt (daarom verschilt het van het nofollow-attribuut dat op een individueel URL-niveau wordt toegepast);
Volgen – links op de pagina moeten worden gevolgd, zelfs als de pagina noindex is;
Noimageindex – afbeeldingen op deze pagina worden niet geïndexeerd;
Noarchive – voorkomt dat een in het cachegeheugen opgeslagen kopie van de pagina wordt weergegeven in zoekresultaten;
Geen – hetzelfde als “noindex, nofollow”.

Houd er rekening mee, dat Google alle combinaties van kleine letters en hoofdletters begrijpt, die u gebruikt voor uw robots-tagparameters.

7. Canonieke tag

Als u een paar webpagina’s met identieke content heeft, kunt u een canonieke tag gebruiken om zoekmachines te vertellen welke pagina prioriteit moet krijgen.

In HTML kan het er als volgt uitzien: <link href="URL" rel="canonical">

SEO-waarde Canonieke HTML-tags

Een canonieke tag is op twee manieren belangrijk voor SEO optimalisatie.

Allereerst voorkomt het dat u duplicated content heeft. Duplicated content is niet per se slecht, maar kan verdacht zijn. Google kijkt naar uw webpagina’s en het lijken kopieën te zijn van een aantal andere pagina’s. Dan is er iets vreemds aan de hand.

Ten tweede voorkomt het kannibalisatie. Als u twee vergelijkbare webpagina’s heeft en beide worden geïndexeerd, beginnen ze met elkaar te concurreren in de zoekresultaten. Dat is een aanslag op zowel uw middelen als uw kansen op rangschikking.

Hoe SEO optimalisatie toe te passen

Start een WebSite Auditor en let op dubbele titels en dubbele metabeschrijvingen. Als u een paar URL’s met duplicated content heeft, specificeer dan een <link rel = “canonical”> – element in de HTML van de pagina.

8. Schema-opmaak

Last but not least is Schema-opmaak . Schema is eigenlijk een heel systeem van HTML-tags. Ze kunnen aan uw code worden toegevoegd om zoekmachines over allerlei dingen te vertellen zoals bijvoorbeeld uw contactgegevens, productprijzen, receptingrediënten en nog veel meer.

SEO-waarde

Schema-opmaak wordt gebruikt om specifieke stukjes informatie op een webpagina aan te geven en Google kan deze stukjes informatie gebruiken om ‘rich snippets’ te maken. Als u bijvoorbeeld Schema toepast op een receptenpagina, kent Google de kooktijd, de ingrediënten, het aantal recensies en zelfs het aantal calorieën van het recept. En het zal de informatie gebruiken om deze te maken:

HTML-tags, SEO optimalisatie

Dit worden ‘rich snippets’ genoemd. En Google heeft de afgelopen jaren steeds meer van dit soort fragmenten beschikbaar gemaakt. Tegenwoordig hebben we een artikel, product, evenement, boek, film en ongeveer een dozijn andere schema’s, die uw zoekweergave kunnen verbeteren.

Hoe pakt u SEO optimalisatie aan?

Schema kan een beetje ingewikkeld worden en het is niet iets, dat u met de hand kunt typen. De beste manier om een ​​schema op een pagina toe te passen, is met behulp van de gestructureerde gegevensopmaak hulp. Daar kunt u het type schema kiezen, uw URL invoeren en vervolgens eenvoudig de tekst op de pagina selecteren en deze markeren.

Slot conclusie – HTML-tags

HTML-tags nog steeds behoorlijk belangrijk voor SEO optimalisatie, misschien zelfs meer dan voorheen. De belangrijkste HTML-tags zijn koppen en Schema-opmaak. Google verandert de SERP vrij snel, maakt het interactiever en voegt nieuwe soorten fragmenten toe. Om aan dat alles deel te nemen, om concurrerend te blijven in het zoeken, zou u moeten gaan werken aan uw rubrieken en uw rich results.

SEO en Contentmarketing Blogs

SEO specialist Den Haag

Herman Geertsema is een freelance SEO specialist uit Den Haag. Verder is hij de eigenaar van SEO bureau Connect your World gevestigd in Den Haag. Hij is een ervaren SEO consultant en Content Marketeer.

Online marketeer inhuren

Bij Online marketing bureau Connect your World kunt u ook een online marketeer inhuren in de volgende regio’s:

Heeft u nog vragen over HTML-tags? Of wilt u ons als SEO specialist inhuren? Neem dan contact op en druk op onderstaande button.

SEO & Content Marketing Bureau Connect your World

Dr. J. Presserstraat 313
Den Haag, Nederland 2552 LW
Telefoon: +31641226543
E-mail: info@connectyourworld.nl

Wat is een bounce rate?

Alle ins en outs van de bounce rate

De term bounce rate is bij velen een bekende term. Maar weet u precies wat het is? Weet u wat een goede bouncing rate is? In deze blog leert u:

  • Wat een bounce rate is?
  • Bouncepercentage versus uitstap percentage
  • Wat is de relatie tussen een bounce rate en SEO?
  • Hoe u het bouncepercentage kunt bekijken in Google Analytics?
  • Hoe u uw bounce rate kunt verlagen?

Geschatte leestijd: 15 minuten

Wat is nu precies een goed bounce rate percentage?

Bijna iedereen heeft wel eens van de term Bounce rate of bouncepercentage gehoord. Een Bouncing rate is namelijk één van de statistieken, die de kwaliteit van een webpagina aangeven. Het is een percentage, dat wordt weergegeven in verschillende Google Analytics rapporten. Deze kunnen door webmasters gebruikt worden om te analyseren of de content van een pagina voldoet aan de gebruikersintentie.


Als vuistregel geldt: hoe lager het bounce rate percentage van een pagina, hoe beter.


Wat is een bounce rate?

Een bounce rate is een percentage, dat aangeeft hoeveel gebruikers op een webpagina zijn terechtgekomen en vervolgens de website hebben verlaten, zonder enige interactie op de pagina. Dit betekent, dat ze niet op links op de pagina hebben geklikt en dit omvat menu items en andere interne of externe links.

Wat is een uitstappercentage?

Het uitstappercentage is een andere statistiek voor web verkeer analyse, die het percentage mensen weergeeft, dat bepaalde pagina’s van uw website heeft bezocht en vervolgens van een bepaalde pagina is vertrokken. Deze statistiek laat zien, waar verschillende bezoekers hebben besloten hun reis door uw website te verkorten.

Hoe wordt het bounce rate percentage berekend in Google Analytics?

Wanneer u Google Analytics op uw website heeft geïnstalleerd, registreert het alle acties, die op een pagina zijn uitgevoerd. Zodra een pagina voor het eerst wordt geladen, wordt er een sessie geactiveerd en wordt er een verzoek naar de Google Analytics server gestuurd. Als de Google Analytics server geen tweede verzoek van dezelfde pagina ontvangt, betekent dit dat de gebruiker helemaal geen interactie met de pagina heeft gehad. Dit wordt door Analytics beschouwd als een sessie van één pagina. Er wordt daarmee rekening gehouden bij het berekenen van de bounce rate van een pagina.


De officiële formule, die Google Analytics gebruikt om het bouncepercentage te berekenen, is: Bounce rate is single page sessions divided by all sessions, or the percentage of all sessions on your site in which users viewed only a single page and triggered only a single request to the analytics server.


Een ander kenmerk van sessies met één pagina is dat de ‘tijd op site’ 0 (nul) is, omdat Google Analytics geen ander verzoek heeft om te berekenen hoeveel tijd een gebruiker op de pagina doorbrengt. Dus als u 10 bezoeken op een pagina heeft en er 8 op uw pagina zijn beland en vervolgens zijn vertrokken zonder op een van de links op uw pagina te klikken, is uw bounce rate 80%.


Het bounce rate percentage wordt alleen berekend voor landingspagina’s


Het bouncing rate percentage wordt berekend, wanneer gebruikers op een bepaalde pagina terechtkomen vanaf een externe bron (dwz Google zoekopdracht) en niet, wanneer ze een pagina bezoeken door op een interne link te klikken.

Bounce rate versus uitstap percentage

Veel mensen verwarren de bounce rate met het uitstappercentage, maar ze zijn niet hetzelfde. Het uitstappercentage is het percentage mensen, dat de website heeft verlaten vanaf een bepaalde pagina. Met andere woorden, is hoeveel mensen uw website hebben verlaten vanaf die bepaalde pagina/het aantal paginaweergaven, dat die pagina heeft ontvangen. Dus een bounce rate laat zien hoeveel mensen op een pagina zijn terechtgekomen en uw website hebben verlaten zonder iets anders te doen en het exit percentage laat zien hoeveel mensen uw website hebben verlaten vanaf een pagina in vergelijking met het aantal keer, dat die pagina is bekeken.

Bounce rate en SEO optimalisatie

Er is een grote verwarring in de SEO industrie over de relatie tussen bounce rate en SEO optimalisatie en of de bouncing rate een SEO factor is, die Google gebruikt tijdens het ranking proces. Veel mensen beweren, dat Google er rekening mee houdt, terwijl Google zegt dat ze geen Google Analytics statistieken gebruiken in hun ranking algoritme. De waarheid ligt ergens in het midden. De bounce rate is een statistiek, die beschikbaar is in Google Analytics en ja, het Google ranking algoritme houdt daar geen rekening mee omdat:

  • ze hebben er geen toegang toe en
  • het is niet altijd nauwkeurig.

Een hoge bouncing rate is niet altijd slecht. Wanneer een pagina echter een hoge bounce rate heeft, betekent dit 2 dingen, die rechtstreeks verband houden met SEO en ranglijsten.

Pagina voldoet niet aan de zoekintentie

De pagina voldoet niet aan de intentie van de gebruiker. Dit houdt in, dat bezoekers die die pagina bekijken, minder snel klanten of terugkerende gebruikers zullen worden. Ze hebben de pagina niet gedeeld of een opmerking toegevoegd. Omdat ze niet hebben gevonden waarnaar ze op zoek waren.

POGO sticking

Als de bezoeker afkomstig was van Google Zoeken, uw pagina bezocht en vervolgens terugging naar de zoekresultaten, dan weet Google dit. In de SEO wereld staat dit bekend als pogo sticking en het is een signaal voor Google dat uw pagina niet voldoet aan de gebruikersintentie. Google wil zijn gebruikers tevreden houden. Dus als veel gebruikers hetzelfde gedrag vertonen, zal dit uiteindelijk leiden tot een lagere SEO ranking. Uit een onderzoek van SEMRUSH bleek, dat pagina’s op de topposities van Google een gemiddeld bounce rate van 50% hebben, wat als goed wordt beschouwd.

bounce rate, bounce rate, SEO specialist Leiden

Is een hoge bounce rate altijd slecht?

Ik heb hierboven vermeld dat een hoog bouncepercentage niet altijd slecht is. Overweeg de volgende gevallen:

Case 1: pagina’s waar een enkele sessie wordt verwacht:

Bijvoorbeeld wanneer u een blogpost heeft die een specifieke vraag beantwoordt. Stel dat u een pagina heeft met de vakantiedagen voor schoolkinderen voor een bepaald jaar. Gebruikers komen op uw pagina terecht, zullen het antwoord lezen en vervolgens vertrekken. De pagina heeft een hoog bounce rate, maar dat is niet per se slecht omdat de gebruikersintentie tevreden was.

Case 2: Single-page websites

Er zijn websites die alleen een homepage hebben. Gebruikers kunnen de pagina bezoeken en vervolgens vertrekken omdat de interactie met de website beperkt is tot één pagina. Bijvoorbeeld wanneer u wilt dat gebruikers telefonisch contact met u opnemen. Ze bezoeken uw homepage, zien het telefoonnummer en bellen u. De pagina laat een hoge bounce rate zien, maar dat is geen probleem.


Meest voorkomende problemen, die leiden tot hoge bounce rates

  • Langzaam ladende websites
  • Pagina’s vol advertenties
  • Pop-up’s tonen zodra een gebruiker de pagina betreedt
  • Pagina’s zonder relevante content
  • Pagina’s met content die op een pagina wordt gegooid zonder zorg te dragen voor opmaak
  • Slecht geoptimaliseerde pagina’s voor mobiel

Wat wordt als een goede bounce rate beschouwd?

Over het algemeen geldt: hoe lager het bouncepercentage, hoe beter. In het geval, dat u wilt, dat gebruikers in het algemeen interactie hebben met de pagina en website, geeft een hoge bouncing rate aan dat er iets mis is met de pagina.

Hoe u uw bounce rate kunt verlagen

De meest gebruikelijke manieren om het bouncepercentage van een pagina te verlagen, zijn:

  1. Verbeter de laadsnelheid van de pagina zoveel mogelijk
  2. Gebruik geen pop-upvensters op volledig scherm die worden weergegeven wanneer een pagina wordt geladen
  3. Trek de aandacht van de lezer
  4. Minimaliseer het gebruik van advertenties
  5. Gebruik interne links verstandig
  6. Schrijf betere call-to-action-berichten
  7. Verbeter uw titels en beschrijvingen zodat ze bij uw content passen
  8. Verfraai uw content
  9. Begeleid gebruikers over wat ze vervolgens moeten doen
  10. Verbeter de kwaliteit van uw content

1. Verbeter de laadsnelheid van de pagina zoveel mogelijk

Verschillende onderzoeken tonen aan dat langzaam ladende pagina’s een van de factoren zijn, die gebruikers weghouden (vooral op mobiel). Een van de acties die u kunt ondernemen die niet alleen uw bounce rate percentage verlaagt, maar ook een positieve invloed heeft op uw SEO rankings en conversies, is het verbeteren van de tijd die nodig is om uw website te laden, ook wel de website snelheid genoemd.

2. Gebruik geen pop ups op volledig scherm, die verschijnen wanneer een pagina wordt geladen

Gebruikers vinden pop ups op volledig scherm vervelend en Google ook. Pop-ups, die worden geladen zodra een gebruiker een pagina binnenkomt, verdrijft ze en is een actie die wordt bestraft door Google (het is in strijd met de richtlijnen van Google). Een beter alternatief is om een ​​Exit-pop-up te gebruiken (weergegeven wanneer gebruikers de pagina proberen te verlaten). Een fly-out-pop-up, die wordt weergegeven wanneer gebruikers een aantal seconden op de pagina blijven of wanneer ze naar een bepaald deel van de pagina navigeren, is ook een optie .

3. Grijp de aandacht van de lezer

Een leuke manier om gebruikers op uw website te houden en de bouncing rate te verlagen, is door hun aandacht te trekken door middel van een uitklapvenster. Dit is een techniek, die door veel websites (meestal nieuwspublicaties) wordt gebruikt, omdat het een geweldige manier is om gebruikers uit te nodigen om meer pagina’s van uw website te bezoeken. Fly out-vensters kunnen op veel manieren worden gebruikt. 

4. Minimaliseer het gebruik van advertenties

Een webpagina vol advertenties is in strijd met de richtlijnen voor webmasters van Google en biedt een slechte ervaring voor de gebruikers. In tegenstelling tot wat veel mensen denken, zal het gebruik van te veel advertenties niet leiden tot meer advertentie klikken, maar tot een hoger bouncepercentage en gebruikers, die uw website verlaten en niet meer bezoeken. Wat belangrijk is, wanneer u meer geld wilt verdienen met AdSense (of andere vormen van advertenties), is de plaatsing van de advertenties en niet het aantal advertenties, dat u op een pagina heeft.

Een andere techniek om gebruikers aan te moedigen om met uw content te communiceren en meer pagina’s van uw website te bezoeken, is door interne links te gebruiken. Interne links helpt gebruikers niet alleen meer over een bepaald onderwerp te lezen, maar het is ook goed voor SEO en de bounce ratio.

6. Schrijf betere call-to-action-berichten

Elke pagina, die u op uw website heeft, moet een doel hebben. Het doel van een landingspagina kan zijn om een ​​product of dienst te verkopen. Het doel van een andere pagina kan zijn om meer e-mailabonnees te krijgen. U kunt een blogpost ook gebruiken om gebruikers om te leiden naar een andere pagina op uw website. Dat doel moet vanaf het begin aan de gebruiker duidelijk worden gemaakt en een manier om dit te doen, is door verschillende call to action berichten te testen. Dit betekent verschillende berichten proberen, verschillende kleuren, verschillende posities totdat u erachter komt wat meer interacties veroorzaakt.

7. Verbeter uw titels en beschrijvingen zodat ze bij uw content passen

Wat is de relatie tussen paginatitels en beschrijvingen en het verlagen van de bounce rate van een pagina? Het heeft te maken met het creëren van de juiste gebruikersverwachtingen, zelfs voordat gebruikers uw pagina bezoeken. Wanneer gebruikers vanuit Google Zoeken op uw link klikken, doen ze dit vanwege, wat ze in uw titel en beschrijving lezen. Als uw content niet levert wat in de titel of beschrijving is beloofd, is het bounce percentage hoog. Dus probeer bij het maken van uw titels en metabeschrijvingen geen gebruikers te misleiden, want uiteindelijk zal dit de tegenovergestelde resultaten opleveren.

8. Verfraai uw content

Het is niet langer de jaren 90 toen een webpagina slechts tekst op een pagina was. In de wereld van vandaag moet u de lezer bij de hand nemen. Gebruikers vinden het niet leuk om tekst op een pagina te zien. Doe wat werk op uw pagina om gebruikers de goede kant op te wijzen. Voeg de juiste koppen en afbeeldingen toe en verfraai uw tekst met kleine alinea’s, vet en cursief. Dit verhoogt de leesbaarheid, tijd op locatie met als gevolg een lagere bounce rate.

9. Begeleid gebruikers wat ze vervolgens moeten doen

Ik heb hierboven vermeld, dat een manier om uw bounce rate te verlagen, is om gebruik te maken van fly out-vensters en om gebruikers andere content aan te bevelen, die ze mogelijk interessant vinden. Hoewel dit een zeer efficiënte manier is, is een andere methode om gebruikers opties te geven over wat ze vervolgens moeten doen.

Goede voorbeelden zijn onder meer:

  • Onderaan uw pagina worden ‘gerelateerde artikelen’ weergegeven
  • Zorg, dat er een zoek vak beschikbaar is in uw zij balk
  • Plaats andere widgets in uw zij balk met links naar uw populaire berichten, populaire onderwerpen, enz.

Ik gebruik de bovenstaande technieken van tijd tot tijd, afhankelijk van wat mijn zakelijke doelen zijn. 

10. Verbeter de kwaliteit van uw content

‘Last but not least’, vergeet niet dat wat de gebruikers op een pagina en website in het algemeen houdt, de kwaliteit van uw content is. Op voorwaarde, dat u geen van de fouten maakt, zoals hierboven uitgelegd, is de belangrijkste factor de kwaliteit van uw content. In feite kan de bounce rate u helpen evalueren hoe goed uw content is.

Een pagina, die snel laadt, geen pop-ups heeft die bij het laden worden weergegeven en niet vol advertenties staat en content heeft, die gemakkelijk te lezen is maar toch een hoge bounce rate heeft, is een signaal om de content van uw pagina nodig te verbeteren. Wat u kunt doen, is uw koppen wijzigen en ze zinvoller maken. U kunt uw content herschrijven om gebruikers de informatie te geven, die ze nodig hebben.

Zoekwoorden in Google Search Console

Een goede plek om te beginnen is om naar het ‘prestatierapport’ in Google Search Console te kijken en te achterhalen op welke zoekwoorden uw pagina klikken heeft ontvangen. Evalueer uw content op basis van waar gebruikers naar zoeken en breng wijzigingen aan die overeenkomen met de gebruikersintentie.

Bounce rate conclusies

Het bouncepercentage is een belangrijke maatstaf om naar te kijken, terwijl u de efficiëntie van uw website evalueert. Het correct identificeren van welke pagina’s een hoge bounce rate hebben en acties ondernemen om dit te verminderen, is een stap om uw website nuttiger te maken voor gebruikers. Een van de voordelen, daarvan is een betere SEO ranking omdat bezoekers langer op uw website blijven, door meer pagina’s navigeren en zo het pogo-sticking- effect verminderen, wat uw SEO negatief kan beïnvloeden. Zorg er bij het analyseren van de bouncing rate van een pagina in Google Analytics voor, dat deze een behoorlijk aantal bezoeken (en paginaweergaven) heeft, anders zijn de resultaten mogelijk niet 100% nauwkeurig. Zodra u een wijziging op een pagina aanbrengt, vergelijkt u dezelfde periode, dat wil zeggen 28 dagen, voor en na het maken van de wijzigingen om te zien of de bounce rate van die pagina is verbeterd of niet.

SEO en Content Marketing Blogs

SEO tekstschrijver Den Haag

Herman Geertsema is de eigenaar van SEO en Content Marketing bureau Connect your World gevestigd in Den Haag. Hij is een ervaren freelance SEO specialist en Content Marketing expert. Hij kan u alles vertellen over de Bounce rate.

SEO consultant inhuren

Bij Connect your World kunt u ook een Content marketeer en SEO expert inhuren in de volgende regio’s:

Heeft u een vraag over uw bounce rate? Of wilt u ons inhuren als tekstschrijver of als SEO expert? Neem dan contact met ons op. Uw SEO laten doen is ook een optie. Zo houdt u meer tijd over om te ondernemen.

SEO & Content Marketing Bureau Connect your World

Dr. J. Presserstraat 313
Den Haag, Nederland 2552 LW
Telefoon: +31641226543
E-mail: info@connectyourworld.nl

Google indexering verbeteren door SEO expert

SEO expert, SEO specialist Den Haag, SEO consultant Den Haag
SEO specialist Den Haag

SEO expert Den Haag

Besteed u als SEO expert ook blijvende aandacht aan het crawlen en indexatie van uw website? Zodra een site namelijk live is of voorbij een bepaalde leeftijd is, leert de ervaring, dat de meeste webmasters of SEO specialisten zich niet meer bezig met hun crawlbudget. Zolang u echter op een bepaald punt in uw website blijft linken naar nieuwe blog posts, moeten deze gewoon in de index van Google of Bing worden weergegeven en gerangschikt. Een SEO expert kan bijvoorbeeld de webmaster ondersteunen met technische SEO als deze SEO kennis niet aanwezig is bij de webmaster. Door aandacht te schenken aan de indexering van uw website in Google bent u tijdig op de hoogte als er iets niet goed gaat op uw website. Dit helpt u uw website stapsgewijs te verbeteren.

Geschatte leestijd: 10 minuten

Waarom daalt mijn website in de rankings?

Alleen na verloop van tijd merkt u, dat uw website begint met dalen in de rankings op specifieke relevante SEO zoekwoorden combinaties. Geen van de nieuwe berichten haalt zelfs de top 100 van het doel zoekwoord. Het kan echter gewoon een gevolg zijn van de technische structuur, te dunne content of nieuwe algoritme wijzigingen. Het kan echter ook worden veroorzaakt door een zeer problematische crawlfout. Met honderden miljarden webpagina’s in de index van Google moet u uw crawlbudget optimaliseren om concurrerend te blijven. Hier volgen 11 tips en trucs van onze SEO expert om uw crawlsnelheid te optimaliseren. Op deze wijze gaan uw webpagina’s hoger scoren in de zoekresultaten. Daardoor is de kans, dat u bovenaan in Google komt een stukje groter.

1. Google Search Console voor Track Crawl status gebruiken

Fouten in uw crawlstatus kunnen wijzen op een dieper probleem op uw website. Het controleren van uw crawlstatus om de 30-60 dagen is belangrijk om mogelijke fouten te identificeren. Deze fouten kunnen namelijk van invloed zijn op de algehele marketingprestaties van uw site. Het is letterlijk de eerste stap van SEO optimalisatie door een SEO expert. Zonder deze stap zijn alle andere pogingen van nul waarde. Als u nu de toegang tot een bepaalde webpagina wilt verwijderen, kunt u Search Console dit direct laten weten. Dit is handig als een pagina tijdelijk wordt omgeleid of een 404 fout bevat. Een 410 parameter verwijdert een pagina permanent uit de index. Dus pas op voor het gebruik van de nucleaire optie.

Google indexering – Veel voorkomende crawlfouten en oplossingen

Als uw website een ​​crawlfout ervaart, kan het een eenvoudige oplossing vereisen of een indicatie zijn van een veel groter technisch probleem op uw site. De meest voorkomende crawlfouten zijn bijvoorbeeld:

  • DNS fouten
  • Server fouten
  • Robots.txt fouten
  • 404 fouten

Om een ​​aantal van deze fouten te diagnosticeren, kunt u gebruikmaken van de tool ‘Fetchen als Google’ om te zien hoe Google uw site effectief bekijkt. Het niet correct ophalen en weergeven van een pagina kan een aanwijzing zijn voor een diepere DNS fout, die door uw DNS provider moet worden opgelost. De meest voorkomende fouten zijn bijvoorbeeld:

  • Time-out
  • Verbinding geweigerd
  • Verbinden mislukt
  • Geen antwoord
  • Verbind time-out

Google indexering – Server fout

Meestal is een serverfout tijdelijk. Hoewel een hardnekkig probleem ertoe kan leiden, dat u rechtstreeks contact moet opnemen met uw hostingprovider.

Google indexering – Robot txt

Robots.txt fouten kunnen echter problematischer zijn voor uw site. Als uw robots.txt-bestand een 200- of 404-fout retourneert, betekent dit, dat zoekmachines problemen hebben dit bestand op te halen. U kunt een robots.txt-sitemap verzenden of het protocol helemaal vermijden. Daarbij kiest u ervoor om handmatig no index-pagina’s te gebruiken die een probleem kunnen vormen voor uw crawl. Als u deze fouten snel oplost, zorgt u ervoor, dat al uw doelpagina’s worden gecrawld en geïndexeerd wanneer zoekmachines uw site de volgende keer crawlen.

2. Mobielvriendelijke webpagina’s maken

Met de komst van de ‘mobile-first index‘, moeten we ook onze pagina’s optimaliseren om mobielvriendelijke kopieën weer te geven op de mobiele index. Het goede nieuws is, dat een desktopkopie daarom nog steeds wordt geïndexeerd en wordt weergegeven onder de mobiele index, als er geen mobielvriendelijke kopie bestaat. Het slechte nieuws is, dat uw SEO rankings hieronder kunnen lijden. Er zijn namelijk veel technische opties, die uw website meteen mobielvriendelijker kunnen maken, waaronder:

  • Implementeren van responsief webontwerp
  • De metatag voor gezichtspunt in content invoegen
  • Verkleinende bronnen op de pagina (CSS en JS)
  • Pagina’s labelen met de AMP-cache
  • Optimaliseren en comprimeren van afbeeldingen voor snellere laadtijden
  • Het verkleinen van de grootte van UI-elementen op de pagina

Check als SEO expert regelmatig op Pagespeed

Test uw website op een mobiel platform en voer het uit via ‘Google Pagespeed Insights’. Website snelheid is dus een belangrijke SEO ranking factor en kan van invloed zijn op de snelheid, waarmee zoekmachines uw website kunnen crawlen.

3. Verouderde content regelmatig updaten of verwijderen

Zoekmachines zullen uw website namelijk vaker crawlen, als u regelmatig nieuwe content produceert en oude content update. Dit is vooral handig voor uitgevers, die regelmatig nieuwe verhalen moeten publiceren en indexeren. Regelmatig content creëren geeft bijvoorbeeld signalen aan zoekmachines. De zoekmachines zien namelijk, dat uw website voortdurend wordt verbeterd en regelmatig van nieuwe content wordt voorzien. Op deze wijze geeft u een signaal af, dat uw website daarom vaker moet worden doorzocht om het beoogde publiek te bereiken.

Google indexering, xml sitemap
XML Sitemap

4. Dien een sitemap in bij elke zoekmachine

Eén van de beste tips voor indexering tot op heden is het verzenden van een sitemap naar Google Search Console en Bing Webmaster Tools. U kunt bijvoorbeeld een XML versie maken met behulp van een sitemapgenerator. Of u kunt een handmatige XML versie maken door de canonieke versie van elke pagina met duplicated content te taggen.

Het opzetten van een consistente informatiearchitectuur is cruciaal om ervoor te zorgen, dat uw website niet alleen goed wordt geïndexeerd, maar ook goed is georganiseerd. Door hoofddienstcategorieën te maken waar gerelateerde webpagina’s geplaatst worden, kunnen zoekmachines beter indexeren. Op deze wijze wordt de intentie van een pagina duidelijker voor een zoekmachine.

Als een webpagina op uw site of een sub domein afzonderlijk wordt gemaakt, heet dit een verweesde pagina. Het kan ook zijn, dat er een fout optreedt, waardoor deze niet kan worden gecrawld. U kunt deze indexeren door een koppeling op een extern domein te verkrijgen. Dit is een bijzonder nuttige strategie om nieuwe stukken content op uw website te promoten en sneller te laten indexeren. Schakel daarvoor wel een SEO expert in.

7. Verklein bronnen op de pagina en verhoog de laadtijden

Als u zoekmachines dwingt grote en niet geoptimaliseerde afbeeldingen te crawlen, wordt uw crawlbudget opgeslokt. Uw website wordt dan helaas niet zo vaak geïndexeerd. Zoekmachines hebben ook moeite met het crawlen van bepaalde backend elementen van uw website. Google heeft bijvoorbeeld in het verleden moeite gehad om Javascript te crawlen. Zelfs bepaalde bronnen zoals Flash en CSS kunnen slecht presteren op mobiele apparaten en uw crawlbudget opeten. In zekere zin is het een verlies-verlies scenario, waarbij men paginasnelheid en crawlbudget opoffert voor opdringerige elementen op de pagina. Zorg ervoor, dat u uw webpagina optimaliseert voor snelheid. Dit kan vooral voor mobiel, door resources op de pagina te verkleinen, zoals CSS. U kunt ook ‘caching en compressie’ inschakelen. Dit helpt spiders uw website sneller te crawlen.

8. Google indexering – Herstel pagina’s met No index-tags

In de loop van de ontwikkeling van uw website kan het zinvol zijn om een ​​noindex-tag te implementeren op pagina’s, die mogelijk gedupliceerd zijn of alleen bedoeld voor gebruikers, die een bepaalde actie ondernemen. Hoe dan ook, u kunt webpagina’s identificeren met noindex-tags en zo voorkomen, dat ze worden gecrawld door een gratis online tool zoals Screaming Frog. Met bijvoorbeeld de Yoast-plug-in voor WordPress schakelt u eenvoudig een pagina om van index in noindex. U kunt dit ook handmatig doen op de backend van pagina’s op uw site.

9. Stel een aangepaste crawlsnelheid in

In de oude versie van Google Search Console kunt u de snelheid van uw crawlsnelheid eigenlijk vertragen of aanpassen als de spiders van Google een negatieve invloed hebben op uw website. Dit geeft uw website ook de tijd om de nodige wijzigingen aan te brengen, als deze een belangrijk herontwerp of migratie ondergaat.

10. Duplicated content elimineren goed voor Google indexering

Het hebben van enorme hoeveelheden duplicated content kan uw crawlsnelheid aanzienlijk vertragen en uw crawlbudget opeten. U kunt deze problemen oplossen door te voorkomen, dat deze pagina’s worden geïndexeerd. Dit kan door een canonieke tag op de pagina te plaatsen, die u wilt indexeren. In dezelfde lijn loont het om de metatags van elke afzonderlijke pagina te optimaliseren. Dit voorkomt namelijk, dat zoekmachines vergelijkbare pagina’s als duplicated content in hun crawl verwarren.

11. Blokkeer pagina’s die u niet wilt, dat spiders ze crawlen

Er kunnen gevallen zijn waarin u wilt, voorkomen dat zoekmachines een specifieke pagina crawlen. U kunt dit bijvoorbeeld op de volgende manieren doen:

  • Een noindex-tag plaatsen
  • De URL in een robots.txt bestand plaatsen
  • De pagina helemaal verwijderen

Dit kan ook helpen om uw crawls efficiënter uit te voeren, in plaats van zoekmachines te verplichten duplicated content in te voeren. Als uw website slecht wordt weergegeven in Google, zijn er nog diverse andere opties waar dat aan zou kunnen liggen.

SEO optimalisatie en Content Marketing Blogs

SEO specialist Den Haag

Herman Geertsema is de eigenaar van SEO bureau Connect your World gevestigd in Den Haag. Hij is een ervaren SEO expert en Content Marketeer.

SEO expert inhuren

Bij Connect your World kunt u ook een SEO consultant inhuren in de volgende regio´s:

Heeft u een vraag voor ons of wilt u ons als SEO specialist inhuren? Surf naar onze Contactpagina en bel of mail ons.

SEO & Content Marketing Bureau Connect your World

Dr. J. Presserstraat 313
Den Haag, Nederland 2552 LW
Telefoon: +31641226543
E-mail: info@connectyourworld.nl

SEO checklist

Met deze SEO checklist gaat de vindbaarheid van uw website met sprongen vooruit.

Gratis SEO tools

Op deze site vindt u ook een lijst met veelal gratis SEO tools. Hiermee kunt u alvast een start maken met de SEO optimalisatie van uw website. U kunt natuurlijk ook uw SEO laten doen. De SEO specialist weet precies hoe de indexering in Google van uw website precies in zijn werk gaat.

12
Connect your World
1
Hoe kan ik je helpen? Connect your World kan je helpen met het beter vindbaar maken van je website. Informeer naar de mogelijkheden of vraag direct een gratis SEO scan aan.