Het is met stip de meest gestelde vraag aan een SEO specialist ‘Hoe kom ik hoger in Google?’. In deze ´how to´ geven we kort en bondig weer, hoe u de bovenste posities in Google kunt bereiken op de voor u relevante zoekwoorden.
Benodigde tijd: 10 minuten.
Hoe kom ik hoger in Google – SEO checklist
Zoek uit op welke termen gezocht wordt, hoe hoog het zoekvolume en de concurrentie is en met welke intentie er gezocht wordt. Gebruik voor zoekwoordonderzoek Google zelf, Google Search Console, De Google keyword planner of een ander SEO monitoring tool.
Eigenlijk draait SEO om het online beter te doen dan de concurrentie. Die eerste pagina van Google is van groot belang. Immers op de 2e pagina en lager wordt het aantal mogelijke bezoekers voor uw website steeds een stuk kleiner. Daarom is het belangrijk om uw concurrenten te analyseren. Daarbij is het niet de bedoeling, dat u klakkeloos overneemt wat zij doen. U doel moet zijn om het beter te doen dan de concurrent.
Het belang van goede content is in de meest recente Google algoritme update nog belangrijker geworden. Neem daarom geen content over van andere websites. Maak informatieve content waarin u vragen beantwoordt of problemen oplost van uw potentiële doelgroep. Zorg voor tekst hiërarchie, update uw content regelmatig en maak zeker bij e-commerce websites gebruik van categorie pagina’s.
Alles is meetbaar in online marketing, maak daar dan ook gebruik van. Harde data zegt precies of u iets goed heeft aangepakt of niet. Google Analytics is het centrale brein van uw online activiteiten. Hierin ontdekt u, waar website bezoekers vandaan komen, waarin ze wel en niet
geïnteresseerd zijn en welke campagnes tot een verkoop of telefoontje leiden.
Met Google Search Console kunt u onder motorkap van uw website kijken. Als er dingen fout gaan op uw website, dan wordt dat in Search Console gemeld. Daarnaast kunt u de XML sitemap van uw website indienen. Een individuele pagina voor indexering aanbieden, is ook een optie.
Titel tags zijn een belangrijke SEO factor. Daarnaast kunt u met een pakkende titel ook uw publiek verleiden om wat tijd door te brengen op uw website. Gebruik 1 titel tag per pagina. Gebruik ook niet 2 keer dezelfde titel op 1 website. Plaats tot slot belangrijke zoekwoorden in de titel.
De metabeschrijving is een soort van korte samenvatting van je webpagina in 1 tot 2 zinnen. De metadescription is zichtbaar onder de titel tag in de zoekmachine en kan slim gebruikt worden
om uw bezoekers naar uw site te trekken. Een meta beschrijving is 70 tot en met 160 tekens lang. Elke webpagina heeft een metabeschrijving. Elke meta description moet ook verschillend zijn.
De URL structuur vormt de basis van een goede website. Gebruik keywords in uw URL en leg een broodkruimelspoor aan.
De interne linkstructuur is een krachtig signaal, dat Google vertelt wat uw meest belangrijke webpagina’s zijn. Deze webpagina’s reflecteren corebusiness en zijn belangrijk om aan de buitenwereld te laten zien. Door middel van de interne link structuur verdeelt u de
‘autoriteit’ naar de juiste pagina’s. Hierbij is belangrijke content niet meer dan 3 stappen verwijderd van de homepage.
Inmiddels komt 22,6% van het verkeer op uw website door middel van foto’s. Plaats daarom een zoekwoord in de alt tekst van de Google afbeelding. Vergeet ook niet om gebruik te maken van de bestandsnaam en het bijschrift. Next level is om uw SEO afbeeldingen bij te werken met structured data en lazy loading.
Dien u Google Sitemap in via Google Search Console. Door de sitemap kan Google in een klap zien welke content er op een bepaalde website staat. Google meldt zelf, dat dit door sitemap sneller gebeurt.
Zoekmachines zoals bijvoorbeeld Google, Bing, Yahoo en Yandex zijn het initiatief ‘schema.org’ gestart. Het doel hiervan is dat iedereen dezelfde ‘structured data taal’ spreekt. In de structured darta bibliotheek vindt u bij elk type content een classificatie methode om uw SEO content te te verbeteren door het te verrijken. Op die wijze begrijpen zoekmachines als Google en Bing uw data een stuk beter.
Uit vele onderzoeken blijkt dat een trage website omzet kost. Daarom is het zowel voor SEO optimalisatie als voor gebruikerservaring slecht. Meet daarom uw website gratis door op https://gtmetrix.com. Vaak ligt een trage website aan de afbeeldingen op een site. Kijk daarom altijd naar de Google afbeeldingen of daar winst te behalen valt qua snelheid. Uw website snelheid verbeteren in Google is belangrijk voor uw SEO optimalisatie.
Autoriteit is een van de belangrijkste bouwstenen, op het moment dat u met zoekmachinemarketing aan de slag gaat. Met het verkrijgen van backlinks, vergroot u uw autoriteit volgens Google. Dit wordt ook wel ‘SEO linkbuilding’ genoemd. Belangrijk om te checken, is of de anchor teksten goed zijn aangebracht. Daarnaast kunt u slechte backlinks ook weren door het gebruik van de disavow tool.
Sinds 2021 zijn de core web vitals toegevoegd aan het Google algoritme. Deze Core Web Vitals zijn ‘key performance indicatoren (KPI’S), die grotendeels de gebruiksvriendelijkheid van uw website duidelijk maakt voor de zoekmachine Google.
EAT draait om de kwaliteit van de content. Verhoogt u de kwaliteit van de content, dan zullen uw rankings significant verbeteren. Probeer het aantal reviews in Google te verhogen. Reageer zowel op goede als op slechte reviews (kans voor de klantenservice). Zorg voor een biografie van de auteur. Zijn contact en adresgegevens van het bedrijf gemakkelijk te vinden? Staan er algemene voorwaarden op de website? Heeft u kwalitatief sterke backlinks in uw linkbuilding profiel?
Om hoger in Google te komen zijn er tal van knoppen waar de SEO expert aan zou kunnen draaien. Er zijn dan ook nog veel meer tips en adviezen te geven. Als de SEO optimalisatie niet de gewenste resultaten oplevert, dan zit de oplossing er vaak in om bijvoorbeeld het zoekwoordenonderzoek verder te verfijnen. Uit de nodige ervaring weet ik, dat goed ranken op ‘een huis kopen in Rotterdam’ een stuk gemakkelijker gaat dan bijvoorbeeld ‘makelaar Rotterdam’. Grote zoekvolumes zijn niet zaligmakend. Elk bedrijf heeft liever 10 klanten dan 100 website bezoekers. Daarom moet een SEO specialist ook altijd aandacht besteden aan conversie optimalisatie om de wens ‘hoe kom ik hoger in Google’ ook daadwerkelijk uit te laten komen.
Core Web Vitals zijn een reeks gestandaardiseerde statistieken van Google die ontwikkelaars helpen begrijpen hoe gebruikers een webpagina ervaren. Hoewel Core Web Vitals is gemaakt voor ontwikkelaars, kunnen deze tools door alle site-eigenaren worden gebruikt omdat ze de echte ervaring van de gebruiker op een pagina weergeven.
Geschatte leestijd: 13 minuten
Core Web Vitals zijn een reeks gestandaardiseerde statistieken van Google, die ontwikkelaars helpen begrijpen, hoe gebruikers een webpagina ervaren. Hoewel Core Web Vitals is gemaakt voor ontwikkelaars, kunnen deze tools door alle website eigenaren worden gebruikt. Dit komt doordat ze de echte ervaring van de gebruiker op een pagina weergeven.
Core Web Vitals identificeren problemen met de gebruikerservaring door een statistiek te genereren voor drie primaire gebieden van gebruikerservaring, waaronder:
Elk van deze statistieken biedt hun eigen perspectief op verschillende elementen, die van invloed zijn op hoe gebruikers omgaan met en omgaan met een website. Hoewel ontwikkelaars vanuit een holistisch perspectief moeten nadenken over ‘gebruikerservaring’, helpen deze onafhankelijke statistieken om de verschillende variabelen in kleinere stukjes op te splitsen. Op die manier kunnen site-eigenaren technische problemen op hun website identificeren en oplossen.
Het is belangrijk om te onthouden, dat deze statistieken niet het hele verhaal vertellen over de gebruikerservaring op een website. Elke statistiek kan worden samengevoegd om ontwikkelaars te helpen problemen op een efficiënte en methodische manier op te lossen.
Laten we eens kijken naar de drie belangrijkste meetwaarden in Core Web Vitals om uw websites vandaag nog te verbeteren!
Largest Contentful Paint is een Google Core Web Vitals statistiek, die site eigenaren kunnen gebruiken om de gebruikerservaring te beoordelen en te zien of een gebruiker een pagina nuttig zal vinden. Dit doen zij op basis van de weergavetijd van de grootste blokken, die zichtbaar zijn voor een publiek.
Website eigenaren hebben pagina’s op hun website nodig, die snel laden om een plezierige gebruikerservaring te creëren. Niet alleen is de laadtijd een kritische factor voor een positieve gebruikerservaring, een pagina die snel laadt, heeft ook een grotere kans om hoger te scoren in Google. Bovendien is aangetoond, dat zeer snelle laadtijden van invloed zijn op de betrokkenheid en conversiepercentages in vergelijking met een pagina met langzame laadtijden.
LCP meet de tijd, die nodig is, om verschillende content blokken te laden in de gebruikersviewport (huidige scherm). Deze statistiek vertelt u alleen hoe snel inhoudssecties worden weergegeven op het zichtbare scherm. Er wordt niets onder de vouw overwogen.
Website eigenaren moeten streven naar LCP binnen 2,5 seconden, nadat een pagina begint te laden.
Site eigenaren moeten het zo gemakkelijk mogelijk maken om met links en knoppen op een site om te gaan om verkopen en conversies te stimuleren. Cumulatieve lay-outverschuiving is een statistiek, die links of knoppen identificeert, die verschuiven nadat een webpagina is geladen. Het weerspiegelt de moeilijkheidsgraad, die gebruikers zullen ervaren, wanneer ze proberen om elementen op uw website te gebruiken, zodra een pagina wordt weergegeven.
UX en design zijn essentiële componenten van een goede gebruikerservaring. Een gebruiker zal gefrustreerd raken als een webpagina elementen verschuift, terwijl een gebruiker aan het lezen is. CLS helpt ontwikkelaars te bepalen of afbeeldingen of links op de pagina verschuiven, zodat website eigenaren de bruikbaarheid kunnen verbeteren, de klikfrequenties kunnen verhogen en de online verkoop kunnen verbeteren.
CLS meet of elementen in de zichtbare viewport van hun startpositie tussen twee gerenderde frames verschuiven. In eenvoudige bewoordingen helpt deze statistiek site-eigenaren te begrijpen of content zoals tekst, knoppen en banners wordt rond geduwd terwijl een gebruiker content op een bepaalde pagina leest.
Elementen die van positie veranderen, kunnen ervoor zorgen, dat gebruikers in de war raken en hun ervaring op een pagina belemmeren. Het is dus belangrijk om ervoor te zorgen, dat alle content op zijn plaats blijft, nadat een pagina op het apparaat van de gebruiker is geladen. CLS kijkt naar kernstatistieken om de visuele stabiliteit van een pagina vanuit een gebruikersperspectief te bepalen door rekening te houden met verschillende factoren:
Website eigenaren moeten een CLS van 0,1 of minder handhaven.
Online consumenten willen pagina’s, die snel zijn en gemakkelijk om mee om te gaan. Eerste invoervertraging meet de invoerlatentie (de tijd die een pagina-element nodig heeft om te reageren op de invoer van een gebruiker) om pagina’s te identificeren, die frustratie bij uw publiek kunnen veroorzaken.
Moderne websites gebruiken een reeks geavanceerde technologieën en dynamische content widgets om content aan hun publiek te leveren. Hoewel dit type content de levering van content kan verbeteren, kunnen deze verbeteringen vertragingen veroorzaken, waardoor een gebruiker moet wachten tot zijn browser reageert op zijn invoer. Ontwikkelaars moeten de tijd die gebruikers besteden aan het wachten op een browser om te reageren op hun input verminderen om de betrokkenheid en bruikbaarheid op de hele site te verbeteren.
FID meet hoe responsief een pagina is bij het laden van elementinvoer van een gebruiker. Dit betekent dat FID alleen gebeurtenissen zoals klikken en toetsaanslagen registreert. Website eigenaren moeten streven naar een goede gebruikerservaring met FID van minder dan 100 milliseconden. Opgemerkt moet worden dat FID moeilijk te meten is, omdat deze gegevens alleen in het veld kunnen worden gemeten. Dit betekent, dat je score afhankelijk is van variabelen, waar je geen controle over hebt, Denk bijvoorbeeld aan zaken zoals apparaat capaciteit van gebruikers en internetsnelheden zoals ervaren door je publiek.
Zoals we hebben besproken, biedt Core Web Vitals een schat aan informatie die ontwikkelaars kunnen gebruiken om hun websites te verbeteren voor de gebruikerservaring. Naast de belangrijkste hierboven genoemde statistieken, kunnen ontwikkelaars ook begrijpen hoe hun code van invloed is op de manier waarop gebruikers content op hun site consumeren. Laten we daarom een paar andere statistieken bekijken, die u kunt gebruiken om de ervaring te begrijpen bezoekers op uw site hebben.
First Contentful Paint (FCP) meet, hoe lang het duurt voordat de browser van een gebruiker DOM-elementen (afbeeldingen, niet-witte <canvas>-elementen en SVG’s) weergeeft. Deze statistiek identificeert render blokkerende bronnen en wordt gemeten in seconden, met een reeks FCP-scores:
Snappy-websites bieden verbeterde online-ervaringen en Speed Index (SI) toont u de gemiddelde tijd die content op uw site nodig heeft om aan een gebruiker te worden weergegeven. Deze statistiek identificeert buitensporig JavaScript op een pagina en wordt gemeten in milliseconden, met een reeks SI-scores:
Time to Interactive (TTI) is de hoeveelheid tijd, die nodig is, voordat de content op een pagina functioneel wordt voordat deze volledig interactief is. TTI helpt u bij het identificeren van pagina’s met onnodig JavaScript en wordt gemeten in seconden, met een reeks TTI-scores:
Total Blocking Time (TBT) helpt website eigenaren te beoordelen, hoe lang een webpagina reageert op specifieke gebruikersinvoer. Deze statistiek identificeert pagina’s met onnodig JavaScript en wordt gemeten in milliseconden met een reeks TBT-scores:
Een paginaprestatiescore is een enkele statistiek, die alle belangrijke gebruikerservaring statistieken in Core Web Vitals in aanmerking neemt. Deze score maakt gebruik van een geaggregeerd scoresysteem voor alle mobiele en desktopbezoeken. Er is een gewogen gemiddelde nodig om één enkele score te geven om pagina’s te begrijpen, die snel nader moeten worden onderzocht. Hoewel deze statistieken zijn vereenvoudigd in de statistiek Pagina prestatiescore, kunnen ontwikkelaars scores in elke categorie raadplegen op basis van de specifieke score van 90 (goed), 50-90 (verbetering nodig) en lager dan 50 (slecht).
In juni 2021 ging Google Core Web Vitals gebruiken als ranking factor. Deze statistieken kunnen daarom van invloed zijn op uw SEO prestaties. Core Web Vitals zal deel uitmaken van de nieuwe Page Experience signalen , samen met HTTPS beveiliging, veilig browsen, mobielvriendelijkheid en opdringerige richtlijnen voor interstitial.
Google Core Web Vitals heeft invloed op zowel mobiele als desktop organische resultaten, evenals op het al dan niet verschijnen van uw site in Top Stories. Voorheen moest je site AMP gebruiken om in Top Stories te verschijnen. Dat zal niet langer het geval zijn, wanneer Google de wijziging uitrolt. Uw website moet echter wel aan specifieke minimale Google Core Web Vitals scores voldoen om in Top Stories te verschijnen. Bovendien lijkt het erop dat aan alle Core Web Vitals-statistieken moet worden voldaan om de organische ranking te verbeteren. En de Core Web Vitals-score voor niet-geïndexeerde pagina’s kan er ook toe doen. Kortom: als u om uw SEO prestaties geeft, is het verbeteren van uw Core Web Vitals scores nu verplicht.
U kunt de Core Web Vitals testen en meten met alle tools van Google voor webontwikkelaars, van PageSpeed Insights tot de Chrome DevTools, het CrUX-rapport en nog veel meer.
Als u problemen met uw site als geheel wilt diagnosticeren, moet u het Core Web Vitals-rapport in Google Search Console gebruiken. Het rapport is gebaseerd op een verzameling echte gebruikersgegevens van CrUX. Om deze reden kan het even duren, voordat de gegevens in het rapport worden gerapporteerd. Daarom is de Lab Data van Lighthouse altijd waardevol. Dat gezegd hebbende, het Core Web Vitals-rapport is geweldig om de groepen pagina’s te identificeren, die aandacht nodig hebben – zowel voor desktop als mobiel. Zodra u het rapport opent, vindt u een tabblad Details, dat de URL-prestaties groepeert op basis van verschillende criteria:
Zodra u de URL’s, die verbeterd moesten worden, heeft gecorrigeerd, kunt u ook op de kolom Validatie klikken en verder gaan met de optie “Fix valideren”. Houd er rekening mee, dat het validatieproces tot twee weken duurt – wees geduldig!
Nu voor de cruciale vraag: als u momenteel niet voldoet aan de aanbevelingen van Google voor de drie Core Web Vitals-statistieken, hoe kunt u uw WordPress-site dan optimaliseren om uw Core Web Vitals-scores te verbeteren?
De strategieën zijn verschillend voor elke statistiek. De meeste optimalisaties omvatten het implementeren van best practices voor WordPress-prestaties, zij het met een paar aandachtspunten – en daarom zal het kiezen van de beste WordPress-caching-plug- in u helpen zonder enige inspanning van uw kant.
Pagina caching versnelt, hoe snel uw server kan reageren en verkort de serverresponstijden (TTFB). Wist u, dat WP Rocket dit automatisch aanzet?
U moet de juiste optie instellen voor de statische bestanden, die uw browser in de cache bewaart. Door dit te doen, gaat u in op de aanbeveling van PageSpeed Insights ” Serveer statische middelen met een efficiënt cachebeleid “. Raad eens? WP Rocket zorgt automatisch voor de optimale houdbaarheidsdatum.
Vaak zal uw LCP-element een afbeelding zijn. Door uw afbeeldingen te optimaliseren , wordt uw site sneller en worden website snelheid aanbevelingen aangepakt, zoals ‘Afbeeldingen op de juiste maat’, ‘ Afwijkende afbeeldingen uitstellen ‘, ‘Afbeeldingen weergeven in next-gen-indelingen’ en ‘Afbeeldingen efficiënt coderen’. U kunt Imagify of Smush Pro gebruiken om WordPress afbeeldingen automatisch te optimaliseren.
Het laden van onnodige CSS- of JavaScript bestanden vóór uw hoofd content vertraagt de laadtijd. U kunt dit oplossen door middelen voor het blokkeren van renderen op uw WordPress-site te elimineren . U moet ook CSS- en Javascript-bestanden verkleinen en ongebruikte CSS verwijderen. Door uw code te optimaliseren, kunt u voldoen aan de aanbeveling “Vermijd het koppelen van kritieke verzoeken” PageSpeed. Nogmaals, u krijgt het meeste werk gedaan door deze optimalisaties in te stellen op het tabblad Bestandsoptimalisatie in WP Rocket.
Het gebruik van Gzip- of Brotli-compressie zal de bestandsgrootte van uw site verkleinen, wat LCP versnelt en de aanbeveling “Tekstcompressie inschakelen” aanpakt. WP Rocket schakelt automatisch Gzip-compressie in .
Met Preconnect kunt u in een vroeg stadium belangrijke verbindingen met derden tot stand brengen en voldoet het aan de aanbevelingen voor ‘ Preload key requests ‘ en ‘Preconnect to required origins’.
Als u een wereldwijd publiek heeft, kan een CDN uw LCP-tijd voor bezoekers over de hele wereld versnellen. Het is een andere effectieve manier om de Time to First Byte (TTFB) te verminderen. U kunt gebruik maken van onze RocketCDN-service .
De eenvoudigste manier om de meeste van deze best practices te implementeren, is door WP Rocket te gebruiken. WP Rocket past automatisch pagina caching en compressie op serverniveau toe, zodra u deze activeert. Het bevat ook andere functies om u te helpen de code en prestaties van uw site te optimaliseren, die allemaal uw LCP-tijd verbeteren.
Herman Geertsema is de eigenaar van Connect your World. Hij is een zeer ervaren SEO freelancer en Content marketeer. Heeft u nog vragen over de Google core web vitals? Of wilt u ons als SEO specialist inhuren? Neem dan contact met ons op.
In deze blogpost gaan we het hebben over de XML sitemap. Eerst leggen we uit wat de XML sitemap precies is. We gaan in op de verschillen tussen de XML sitemap van Yoast en van WordPress. Tot slot laten we zien waar je XML sitemap van jouw eigen website kunt bekijken.
Geschatte leestijd: 4 minuten
Een XML sitemap ziet er uit als een lijst met alle belangrijke pagina’s van jouw website. Op deze manier weet Google precies hoeveel en welke pagina’s er gecrawld moeten worden.
Een vraag die misschien opkomt is waarom Google een XML sitemap nodig heeft, als Google ook gewoon de links op jouw website kan volgen. Aan de ene kant is het een soort van back-up plan. Is je interne link structuur om wat voor reden dan ook een rommeltje? Dan heb je altijd een overzichtelijke routekaart als Tom Tom. Aan de andere kant zorgen ze ervoor, dat zoekmachines sneller nieuwe content op je website kunnen vinden. Met een kaart vind je nu eenmaal sneller de weg dan zonder kaart.
Omdat ze belangrijk zijn voor je website, maakt de Yoast SEO plugin die automatisch voor je aan. Een voordeel van deze sitemap is, dat er gebruik gemaakt van sub categorieën. Dit zijn bijvoorbeeld categorieën zoals berichten, pagina’s, categorieën en auteurs. De structuur is op die manier direct duidelijk. Ook is er een categorie afbeeldingen beschikbaar. Zo kunnen de crawlers deze ook direct meenemen tijdens het crawlen. Achter elke URL staat bovendien een datum. Dankzij deze datum weet de zoekmachine precies welke pagina’s zijn toegevoegd of aangepast sinds zijn vorige bezoek. Zijn er pagina’s niet veranderd? Dan worden deze pagina’s ook niet meegenomen tijdens het crawlen.
Als Yoast SEO een XML sitemap voor je aanmaakt, wordt deze direct op een handige plek gezet. Als je wilt , dat de zoekmachine die van jouw website nog sneller vindt, kun je hem toevoegen aan Google Search Console of Bing Webmaster Tools.
Ben je benieuwd hoe jouw sitemap eruit ziet? Je kunt hem bekijken via een link in het tabblad functies van de Algemene instellingen van Yoast SEO.
Als je WordPress 5.5 of hoger gebruikt, dan maakt WordPress automatisch een XML sitemap voor je aan. Die van Yoast wordt echter als veel krachtiger gezien en heeft daarom de voorkeur. De sitemap van Yoast is flexibeler in gebruik. Je kan heel gemakkelijk bepalen, wat er wel en wat niet in de sitemap komt.
Herman Geertsema is de eigenaar van Online marketing bureau Connect your World gevestigd in Den Haag. Hij is een zeer ervaren SEO expert en content marketeer.
U kunt bij Connect your World een SEO specialist, content marketeer en Google Ads specialist inhuren in de volgende regio’s: Den Haag, Amsterdam, Rotterdam, Utrecht, Leiden, Zoetermeer, Westland, Delft, Rijswijk en Breda.
In deze blog post gaan we het hebben over structured data. Wat is structured data precies? Waarom is structured data belangrijk voor SEO? Hoe kan de Yoast SEO Premium plugin helpen bij het toepassen van structured data in SEO? Extra aandacht besteden we hierbij aan het kruimelpad.
Geschatte leestijd: 7 minuten
Door structured data code aan je webpagina’s toe te voegen, help je de zoekmachines om jouw content beter te begrijpen. Mensen hebben die aanwijzingen niet nodig. We hebben al op jonge leeftijd geleerd om bepaalde elementen in een tekst te herkennen. Als je ons een recept voor Macroni laat zien, kunnen we vrijwel direct de ingrediënten aanwijzen. Voor een zoekmachine zoals Google of Bing is dat veel moeilijker. Met structured data maken we onze content begrijpelijk voor zoekmachines.
Rich snippets zorgen voor visueel meer aantrekkelijke zoekresultaten. Je voegt toe en licht speciale onderdelen uit om meer op te vallen. Een bekend voorbeeld zijn de review sterretjes.
Rich cards zijn eigenlijk een nieuwe soort rich snippets. Met behulp van rich cards maak je de zoek resultaten nog een stukje groter. Zo vallen jouw zoekresultaten nog meer op.
Door structured data code aan je web pagina toe te voegen, geef je zoekmachines namelijk niet alleen de kans om jouw content beter te begrijpen, maar ook om deze beter te laten presenteren.
Voor elk type content heb je een andere set code nodig. Die sets of schema’s worden verzameld op de website www.schema.org. Dit is een soort van bibliotheek of catalogus met heel veel voorbeeldschema’s. Het mooie is echter, dat als je Yoast SEO gebruikt, er automatisch structured data code aan je webpagina’s wordt toegevoegd.
De volgende schema’s worden veel gebruikt:
Recepten, afbeeldingen, video, evenementen, video, persoon, plaats, restaurant, product, aanbieding, beoordeling, review, lokaal bedrijf, carrousels en FAQ.
Wil je precies weten hoe het zit met structured data? Dan moet je de Google Guidelines over structured data doornemen. De volgende punten kwamen naar voren:
De Yoast SEO plugin implementeert structureddatacode op een unieke manier. Er wordt namelijk niet alleen code aan verschillende elementen toegevoegd, maar die elementen worden ook in een gestructureerde grafiek verbonden. Op die manier hoeft de zoekmachine niet alle losse eindjes info zelf aan elkaar te koppelen. Eerst identificeert Yoast SEO om wat voor soort type pagina het gaat. Het is bijvoorbeeld een artikel. Dit artikel staat weer op een specifieke webpagina. De webpagina is weer onderdeel van een website en geschreven door een bepaalde auteur. Kortom de grafiek identificeert de verschillende elementen van je content en maakt vervolgens duidelijk hoe die elementen met elkaar samenhangen. Dit is super handig voor de zoekmachines.
Het fijne van de structured data implementatie is, dat de Yoast plugin bijna alles automatisch voor je regelt. Het enige waar je even naar moet kijken, zijn je instellingen.
Yoast SEO omschrijft jouw pagina’s standaard met het schematype Webpagina en jouw berichten met het schema type Artikel. Je kunt deze instellingen wijzigen, maar meestal is dat niet nodig.
Wil je het schematype aanpassen voor een specifieke blog post of pagina? Bijvoorbeeld voor een contactpagina of een betaalpagina? Dan kun je dat doen in de Yoast SEO zij balk.
Gebruik je de block editor in WordPress? Dan kun je ook de structured data blokken aan je berichten en pagina’s toe voegen. Deze blokken voegen automatisch de juiste structureddatacode toe.
Online heb je maar heel kort de tijd om een goede eerste indruk te maken. In een paar seconden bepalen mensen of jouw pagina de moeite van het verder lezen waard is. Veel mensen vinden het fijn om te weten hoe lang het gemiddeld duurt om een pagina te lezen. Met het geschatte leestijdsblok kun je die informatie eenvoudig aan je bericht of pagina toe voegen. Yoast SEO premium berekent dit op basis van de tekst lengte.
Hoe bouw ik een hut? Hoe knip ik de nagels van mijn kat? Online content met stapsgewijze instructies noemen we ook wel ‘how to content’. Als je deze artikelen voorziet van de juiste structured data code kunnen daar opvallende (mobiele) zoekresultaten uit voortkomen. Het ‘how to blok’ van Yoast SEO helpt je bij het opbouwen van een ‘how to artikel’ en het voegt automatisch de juiste code toe. Gebruik How to niet voor recepten, want deze hebben hun eigen structured data code.
FAQ staat voor frequently asked questions. Veel websites hebben een pagina met veel gestelde vragen. Op zo’n pagina kun je alle vragen zetten die klanten regelmatig stellen over je producten, je diensten of je bedrijf. Met behulp van de juiste structured data code kunnen deze vragen en antwoorden direct zichtbaar worden in de zoekresultaten.
Het kruimelpad laat aan bezoekers van je website zien, waar zij zich bevinden op de website. Die broodkruimels zijn niet alleen handig voor gebruiker, maar ook voor Google. Het kruimelpad geeft de zoekmachine inzicht in de structuur van je website. Maar daarvoor moet Google de broodkruimels wel kunnen herkennen. Yoast SEO helpt mee door automatisch structured data code aan je kruimelpad toe te voegen. Deze code zorgt er uiteindelijk voor, dat je URL in je snippet verrijkt wordt met een kruimelpad.
Herman Geertsema is de eigenaar van Online marketing bureau Connect your World uit Den Haag. Hij is een zeer ervaren freelance SEO specialist en Content Marketeer.
U kunt Herman als content marketeer of SEO specialist inhuren in de volgende regio’s: Den Haag, Amsterdam, Rotterdam, Utrecht, Leiden, Zoetermeer, Rijswijk, Delft, Schiedam, Vlaardingen, Zwijndrecht, Dordrecht en Breda.
In deze blog post gaan we in op de verschillende soorten redirects. Daarnaast leggen wij u uit wanneer u precies een 301 redirect maakt en hoe u dat precies aanpakt met behulp van de redirectmanager in Yoast SEO Premium. Deze staat ook wel bekend als de WordPress redirect plugin.
Geschatte leestijd: 18 minuten
Iedereen, die een website onderhoudt krijgt te maken met redirects. Er komt nu eenmaal een moment, dat u webpagina’s gaat verwijderen. Er zijn alleen wel verschillende punten, waar u rekening moet gaan houden. Als u een pagina verwijdert van uw website, betekent dat nog niet, dat de webpagina ook uit de index van de zoekmachine verdwijnt. Website bezoekers kunnen uw webpagina nog steeds vinden via de zoekresultaten of via links op andere websites. Als uw websitebezoeker op een verwijderde webpagina terecht komt, krijgen ze een 404 foutmelding. Dit is vergelijkbaar met een wegversperring of met een lift buiten werking. Maar wat dan? Wat doet u als er opeens een wegversperring is? Waarschijnlijk verlaat u de website. Er zijn bijna altijd genoeg alternatieven.
Wat gebeurt er eigenlijk als u een website of een webpagina bezoekt? U typt de URL van een website in de adresbalk in of u voert een zoekwoord in in zoekmachines zoals Google en Bing en klikt daaropvolgend op een zoekresultaat; meestal op de 1e pagina. De browser stuurt vervolgens een aanvraag naar het IP adres van de webpagina of website. De server van deze website geeft antwoord met een HTTP statuscode. Als alles prima werkt, geeft de server antwoord met de statuscode 200. Het is echter een ander verhaal, als de server een reactie geeft met een 404 statuscode. De opgevraagde webpagina kan niet gevonden worden.
Dit soort foutmeldingen zijn verwarrend en irritant voor de gebruikers. Dat is voldoende reden om dit soort fouten op te sporen en te verhelpen. Daarnaast geven dit soort foutmeldingen de zoekmachines zoals Google het idee, dat u uw website niet goed onderhoudt. Het belang van gebruikerservaring in SEO optimalisatie neemt de laatste jaren toe. Denk hierbij bijvoorbeeld aan de Core Web Vitals update.
Met een redirect maakt u een omleiding om bij een andere locatie aan te kunnen komen. U gebruikt een statuscode om te communiceren, dat er sprake is van een 301 redirect. Deze webpagina kunt u niet meer met een bezoekje vereren via deze URL. Maar er is een alternatief voor handen. De bezoeker wordt vervolgens via een andere webpagina doorgeleid. Het spreekt voor zich, dat er sprake moet zijn van een relevante webpagina. Ook voor zoekmachines zoals Google en Bing zijn redirects meer dan welkom. Door de dode links kan een webcrawler niet veel doen. Zolang er geen instructies of aanwijzingen volgen om de oude URL te vervangen of te verwijderen, blijft de crawler steeds terug komen naar de oude URL van de webpagina. Met een 301 redirect kan het verkeer weer zonder veel problemen doorrijden.
Er zijn 8 gevallen waarin u uw bestaande URL moet omzetten in een nieuwe:
PageRank is een algoritme dat Google heeft uitgevonden om het belang van webpagina’s te meten. Er wordt aangenomen dat het het aantal en de kwaliteit van links van en naar een pagina telt om te bepalen hoe belangrijk de website is. De veronderstelling van Google is dat gezaghebbende websites waarschijnlijk meer links van andere websites zullen ontvangen. Het betekent dat hoe meer links een webpagina heeft, hoe meer autoriteit deze krijgt.
Dus, zijn omleidingen schadelijk of gunstig voor SEO? In feite kunnen ze beide.
Wees niet bang voor deze ‘bedreigingen’. Ze kunnen alleen werkelijkheid worden, als u op de verkeerde manier omleidt.
Bekijk nu de top 6 fouten bij het omleiden van URL’s en zorg ervoor, dat u ze vermijdt.
Wanneer u een omleiding instelt, moet u rekening houden met uw bezoekers. Krijgen ze de antwoorden, die ze verwachten te krijgen nadat ze zijn doorverwezen? U moet ervoor zorgen dat de nieuwe content hen niet in verwarring brengt. Als een gebruiker op een link anker pure chocolade klikt en wordt doorgestuurd naar een pagina witte chocolade, zal dat verwarrend zijn. Dit kan leiden tot hogere bounce rate percentages en verkeersverlies.
Hoe deze fout te vermijden: U moet altijd doorverwijzen naar een pagina met een soortgelijk onderwerp.
Omleidingsketens verschijnen wanneer er meer dan één omleiding is tussen de initiële URL en de bestemmings-URL. Bijv. Pagina 1 > Pagina 2 > Pagina 3 > Pagina 4 > Pagina 5.
Het probleem met omleidingsketens is dat ze de crawler overbelasten. Google beweert, dat hun crawler tot 5 omleidingshops volgt en dan stopt . Dus als er meer omleidingen zijn, wordt de landingspagina mogelijk helemaal niet geïndexeerd. Bovendien kunt u al het linkjuice verliezen en de laadtijd van de pagina vertragen.
Loops zijn vergelijkbaar met kettingen, maar in dit geval wordt de eerste pagina teruggestuurd naar zichzelf. Bijv. Pagina 1 > Pagina 2 > Pagina 3 > Pagina 1. Op deze manier leidt u bezoekers helemaal niet naar een nieuwe URL, wat zo’n verspilling is van uw crawlbudget en linkvermogen. Omleidingsketens en -lussen zijn zo gemeen omdat ze supergemakkelijk over het hoofd worden gezien. De enige manier om ze te vermijden, is door uw omleidingen consequent bij te houden.
Als u een omleidingsketen vindt, repareert u deze door de eerste pagina rechtstreeks naar de landingspagina om te leiden. Als u om wat voor reden dan ook niet rechtstreeks van de eerste pagina naar de uiteindelijke pagina kunt omleiden, probeer dan het aantal omleidingen in een keten zo veel mogelijk te verminderen.
Veel webmasters begrijpen het verschil tussen 301/308 en 302/307 omleidingen niet. Ze weten dat de eerste permanent is en de laatste tijdelijk. Ze houden er echter geen rekening mee, dat als u HTTP 302/307 gebruikt, de oude pagina nog steeds wordt geïndexeerd en er bijna geen link juice wordt doorgegeven aan de nieuwe URL. Dat is belangrijk. Hoewel Google begrijpt, dat u 302 per ongeluk hebt gebruikt en het in de loop van de tijd als 301 kan behandelen, weet u niet hoeveel tijd het zal kosten. En tijd is geld.
Hoe misbruik van tijdelijke omleidingen te voorkomen: gebruik 301 of 308 als u niet van plan bent de omleiding in de nabije toekomst te verwijderen, als het niet voor een promotiecampagne of A/B-testen is.
Als u SEO goed uitvoert, zijn alle pagina’s van uw site met elkaar verbonden . En als u een van die pagina’s omleidt naar een andere, maakt u uiteindelijk te veel omleidingen. Die omleidingen zijn volledig overbodig, aangezien u deze interne links volledig kunt vervangen door naar de nieuwe URL te verwijzen.
Als u 301 of 308 (permanente) redirects gebruikt, moet u die op uw sitemap weergeven om de crawler niet in verwarring te brengen. Zoals u weet, instrueert een sitemap zoekmachines om enkele URL’s te gaan indexeren. Als u geen oude URL’s uit uw sitemap heeft verwijderd, gaat de crawler naar deze URL en probeert deze te indexeren. Maar in plaats van 200 (OK) responscode te krijgen, wordt de crawler omgeleid naar een andere URL. Dit kan leiden tot indexeerbaarheidsproblemen.
Zo houdt u uw sitemap schoon: Houd uw sitemap op orde — verwijder de oude omgeleide URL’s en voeg de nieuwe URL’s toe aan uw sitemap.
Het is moeilijk om zelf te ontdekken of uw site last heeft gehad van URL-omleiding. Hoogstwaarschijnlijk weet u niet eens, dat u iets verkeerd hebt gedaan. Daarom zijn regelmatige site-audits een must voor webmasters en SEO’s.
Er zijn meerdere soorten redirects. Welke u moet kiezen, hangt geheel af van de situatie. In de redirectmanager van Yoast SEO Premium kunt u 3 typen redirects instellen:
Strikt genomen zijn dit geen redirects. Ze leiden u namelijk niet naar een andere situatie. De boodschap is echter zo goed als het zelfde. Wat u zoekt, is hier geweest, maar is hier nu niet meer beschikbaar.
We starten met een redirect, die het vaakst wordt ingezet, namelijk de 301 redirect. Dit is een permanente redirect, die u kunt inzetten als u een pagina verwijdert of verplaatst of als u iets verandert in de URL structuur. De code 301 geeft aan, dat de desbetreffende webpagina niet meer beschikbaar is op deze locatie. De crawler hoeft de pagina ook niet meer te indexeren. Het mooie is, dat de linkwaarde van de oude URL niet verloren gaat. De redirect zorgt er namelijk voor, dat de waarde wordt overgedragen aan de nieuwe URL. Let goed op! Het betreft een permanente 301 redirect. Als u de oude URL in de toekomst nog wilt gebruiken, ga dan voor een tijdelijke redirect.
PageRank is een algoritme, dat Google heeft uitgevonden om het belang van webpagina’s te meten.
Er wordt aangenomen, dat het het aantal en de kwaliteit van links van en naar een pagina telt om te bepalen hoe belangrijk de website is. De veronderstelling van Google is, dat gezaghebbende websites waarschijnlijk meer links van andere websites zullen ontvangen. Het betekent, dat hoe meer links een webpagina heeft, hoe meer autoriteit deze krijgt.
De 302 redirect geeft aan, dat de gevraagde content wel gevonden is, maar op een geheel andere URL. De 302 redirect wordt vaak gebruikt als tijdelijke redirect. Als u de URL die u nu wilt omleiden in de toekomst nog wil hergebruiken. Dan is de 302 een optie. De crawler zal de direct volgen, maar de oorspronkelijke URL bewaart hij ook in de index in de toekomst. Als een 302 te lang een 302 is, kan Google ze omzetten naar 301.
De 307 is ook een tijdelijke redirect, maar deze is wel wat duidelijker dan 302. De 307 redirect geeft precies aan, dat de opgevraagde URL verhuisd is naar een tijdelijke locatie. Maar dat deze ook wel weer terugkomt naar de huidige locatie. Maak gebruik van deze tijdelijke redirect, als u zeker weet, dat het om een tijdelijke omleiding gaat. U wilt de oorspronkelijke URL later waarschijnlijk nog gebruiken.
Stel u voor, u wilt een webpagina verwijderen, maar u heeft geen relevante pagina, die u als alternatief kunt aanbieden. Dan is het is een slimme move om dat volledig transparant aan de bezoekers en aan de zoekmachine te vertellen. De 401 code geeft aan, dat de content bewust is verwijderd. Zoekmachines zoals Google zijn zich er nu van bewust, dat de URL’s uit de index gehaald mogen worden.
Soms kan een rechter bepalen, dat u een stuk content van uw website dient te halen. Als uw content beledigend of lasterlijk is, kan een rechter opdracht geven om die content te verwijderen.
Met deze redirects manager kunt u eenvoudig en snel uw redirects aanmaken. Dat kan handmatig, maar de plu-gin maakt ook automatisch redirects aan bij het verwijderen van een bericht, pagina of taxonomie pagina. Redirects worden ook automatisch aangemaakt bij het aanpassen van de URL van een bericht, pagina of taxonomie pagina.
Als u aan een groot SEO project werkt, kunnen regex redirects enorm veel tijd besparen. Bij Connect your World adviseren we hier alleen mee aan de slag te gaan als u voldoende ervaring heeft met dit soort redirects. U kan namelijk ook dingen niet goed doen. Regex betekent regular expression. Bij een normale redirect maakt u een omleiding van een oorspronkelijke URL naar een nieuwe URL. Bij Regex redirects kunt u een groep URL´s die een bepaald woord of patroon bevatten allemaal tegelijk omleiden naar een nieuwe URL.
Als u uw redirects heeft aangemaakt in een ander systeem dan WordPress, kunt u eenvoudig redirects importeren naar WordPress. Exporteren is ook mogelijk.
Redirects kunnen ook voor vervelende problemen zorgen. Dus als u niet weet, wat u doet, laat het dan aan ervaren SEO specialist over.
De redirect chain is een ketting of een serie van redirects, die van de ene naar de andere URL wordt doorgestuurd. Bij dubbele redirects verliest u bij elk volgende stap 10% aan de autoriteit. Dit soort redirects kunnen ook een grote negatieve impact hebben op de laadtijd van uw website.
Op welke manier ontdekt u deze redirect chains? Maak hierbij gebruik van Screaming Frog. Screaming Frog heeft de volgende functie:
Een interne redirect komt voor omdat men op de site nog een link plaatst naar de oude URL en niet direct naar de nieuwe.
Maak weer gebruik van Screaming Frog. Crawl de gehele website en draai alle interne redirects uit. Ga naar: Bulk Export – Response Codes en vervolgens Redirection.
Als u website al wat jaartjes oud is, is de kans groot, dat u al heel wat 301 redirects heeft verzameld. Als het htaccess bestand vol raakt met redirects, heeft dat als gevolg, dat uw website snelheid lager en lager wordt. Het is belangrijk om te onderzoeken welke redirects nog van nut zijn.
U kunt UTM tags toevoegen aan de redirect URL. Op die manier kunt u simpel uitvinden welke redirect regelmatig wordt opgevraagd. De volgende tagging methode is hiervoor nuttig:
/oudeURL >>> /nieuweURL?utm_medium=301&utm_source=direct&utm_campaign=/oudeURL
Dit soort tag stuurt elke keer als de redirect gebruikt wordt data naar Google Analytics. In het rapport ‘Bron/medium’ leest u vervolgens terug welke redirects in de afgelopen periode zijn opgevraagd. Doe dit om de 6 maanden en verwijder daaropvolgend alle niet opgevraagde 301 redirects uit htaccess.
Canonical tags en redirects gaan niet goed samen. Bij grote websites is het vaak onmogelijk om te checken of de pagina’s met een canonical tag ook geredirect worden. Daarom heeft Sreaming Frog hier iets handigs voor.
Start weer met een crawl van uw website. Na afloop gaat u zoekt u de tab ‘Directives’ op. Scroll vervolgens naar de rechterkant en identificeer de kolom ‘Canonical Link Element 1’. Daarna kopieert u deze gehele lijst. Begin weer met een nieuwe crawl en maak gebruik van de ‘List Mode’ functie. Achterhaal de URL’s met een 301 statuscode.
Bij oudere websites bestaat de kans dat de URL structuur al een keer gewijzigd is. De kans is dan vrij groot, dat uw externe links ook een redirect hebben. Met een redirect verliest u altijd wat kracht (autoriteit). U kunt dus nog wat winst behalen met uw SEO optimalisatie inspanningen.
Maak een uitdraai van uw backlinks en selecteer uw lijst met ‘TargetURL’s’. Kopieer deze lijst vervolgens in Screaming Frog. Let hierbij speciaal op de links, die een statuscode van 404 of 301 hebben. Doe onderzoek naar de kwaliteit van de backlinks. Bepaal daaropvolgend of het de moeite waard is om meerdere backlinks te laten aanpassen.
Herman Geertsema is een ervaren SEO freelancer en Content marketeer uit Den Haag. Herman is tevens de eigenaar van SEO bureau Connect your World gevestigd in Den Haag.
Bij Online marketing bureau Connect your World kunt u ook een content marketeer en een SEO expert inhuren in de volgende regio’s:
Op deze website vindt u talloze SEO checklists, die u kunt gebruiken om al vast zelf een start te maken met de SEO optimalisatie van uw website.
U vindt op deze website ook een overzicht met veelal free SEO tools. Deze lijst kunt u gebruiken bij de zoekmachinemarketing van uw eigen website. Uw SEO laten doen, blijft natuurlijk ook altijd een optie.
Als u aan SEO denkt, zijn zoekwoorden misschien het eerste, dat in u opkomt. Maar hoeveel aandacht heeft u besteed aan het optimaliseren van uw URLS voor SEO? SEO – vriendelijke URL’s zijn essentieel om ervoor te zorgen, dat uw doelgroep uw website vindt. Met meer dan 3,5 miljard Google zoekopdrachten per dag, heeft u elk voordeel nodig, als u wilt concurreren op de enorme online marktplaats. Laten we met dat in gedachten eens kijken, hoe een goede SEO URL structuur eruitziet. Hoe kunnen we URLS optimaliseren voor voor maximaal verkeer in Google?
Geschatte leestijd: 12 minuten
Als het gaat om een correct geoptimaliseerde URL, is de eerste stap het kennen van het verschil tussen een URL en een domeinnaam. URL staat voor Uniform Resource Locator en wordt gebruikt om te verwijzen naar de locatie van een web resource op een computernetwerk en het mechanisme dat wordt gebruikt om deze op te halen. Aan de andere kant is een domeinnaam slechts een onderdeel van uw URL.
Laten we eens kijken naar het belangrijkste onderdeel van een URL: connectyourworld.nl/gratis-seo-scan. In dit voorbeeld is “connectyourworld.nl” de domeinnaam. De “/” is het pad. En tot slot, “gratis-seo-scan” is de webpagina zelf. Bij het maken van een website is een SEO vriendelijke URL essentieel om uw pagina goed te optimaliseren voor zoekmachines zoals Google. Alleen zo kan uw doelgroep u vinden.
URL optimalisatie is een ongelooflijk belangrijk, maar vaak over het hoofd gezien onderdeel van het verkrijgen van een voorsprong op uw concurrenten.
Hoewel SEO vriendelijke links niet het allerbelangrijkste zijn van SEO, of zelfs het belangrijkste onderdeel ervan, is het van vitaal belang, dat u een sterke SEO URL niet verwaarloost als onderdeel van uw online marketing strategie.
Wanneer u uw SEO strategie opstelt, is het belangrijk om rekening te houden met de gebieden, die uw concurrenten over het hoofd zien. Wij hebben een reeks praktische tips voor SEO URL’s samengesteld om u te helpen uw site naar een hoger niveau te tillen.
De beste URL structuur voor SEO succes is om uw URL te laten overeenkomen met de content op de website. Uw URL is een van de eerste dingen, die crawlers van zoekmachines onderzoeken. De meeste websitebeheerders doen dit van nature. Het is echter een goed idee om te controleren of uw URL en paginatitel dezelfde zoekintentie (SEO search intent) hebben.
Een belangrijk onderdeel van de SEO best practice voor URL structuur is om zowel Google als uw doelgroep aan te spreken. Door onnodige woorden uit uw URL’s te verwijderen, kunnen zowel mens als machine in één oogopslag begrijpen, wat er op de pagina staat. Maak er een gewoonte van om alle woorden, die geen betekenis toevoegen te elimineren. Veelvoorkomende woorden zoals “en” en “de” kunnen bijvoorbeeld worden verwijderd.
De complexe algoritmen van Google vertrouwen op toegankelijkheid en bruikbaarheid om sites te rangschikken op een manier, die het beste aansluit bij de behoeften van de eindgebruiker. Hoe meer beschrijvend een URL is, hoe beter leesbaar deze is voor een mens, hoe beter deze is voor Google. Doe uw best om een beschrijvend domein te gebruiken, dat relevant is voor uw merk en wat het doet om de leesbaarheid te maximaliseren. Dit moet direct, to the point en gemakkelijk te onthouden zijn.
Leesbaarheid is essentieel in elke goede SEO URL. Om deze reden raden we aan om hoofdletters te vermijden om uw positie in zoekmachines te verbeteren. Het mengen van hoofdletters en kleine letters vermindert de leesbaarheid. Het zorgt er tevens voor, dat uw URL er rommelig uitziet. Hierdoor kan er een gevoel van wantrouwen ontstaan rond uw site. De structuur kan ook crawlers en gebruikers van zoekmachines verwarren.
Zoekmachinevriendelijke URL’s bevatten nooit interpunctie. Hoewel interpunctie acceptabel en noodzakelijk is voor paginatitels en metabeschrijvingen, is het vaak verwarrend in URL’s. Zelfs vandaag de dag worstelen crawlers van zoekmachines met interpunctie. Het maakt URL’s ook moeilijker te onthouden voor gebruikers, omdat het niet zo eenvoudig is als alleen woorden. Hoewel het grammaticaal misschien niet correct is, is het verwijderen van interpunctie een van de gemakkelijkste manieren om te voldoen aan de ‘best practices’ voor URL SEO.
Om URL’s zo leesbaar en gebruiksvriendelijk mogelijk te maken, moet u ze kort, duidelijk en to the point maken. Binnen de structuur van uw website heeft u waarschijnlijk veel sub mappen. Veel webbouwers gebruiken automatisch de locatie van de sub map als de standaard URL. Vooral WordPress maakt zich hier bijvoorbeeld schuldig aan. Zoekmachines vinden sites moeilijker te crawlen wanneer URL’s sub mappen bevatten, wat kan resulteren in lagere rankings voor uw pagina.
Het opsplitsen van woorden binnen uw URL’s met koppeltekens verbetert de leesbaarheid voor zowel de eindgebruiker als zoekmachines. Een van de meest omstreden debatten in de SEO URL wereld is of koppeltekens of onderstrepingstekens de voorkeursoptie zijn voor Google. Google ziet koppeltekens en onderstrepingstekens niet als onderling uitwisselbaar. Koppeltekens worden gezien als woordscheidingstekens, terwijl onderstrepingstekens woord verbinders zijn. Met andere woorden, als u de URL van deze pagina zou nemen en de koppeltekens zou omzetten in onderstrepingstekens, zou Google de volledige URL als een enkel woord lezen. Onderstrepingstekens kunnen uw pagina moeilijker maken voor zoekmachines om correct te indexeren. Daardoor zijn ze moeilijker te vinden voor uw doelgroep.
Zoals met alles in de wereld van SEO, is het een enorm voordeel voor uw SEO optimalisatie, als u ergens een relevant zoekwoord kunt invoegen. Wanneer u SEO vriendelijke URL’s maakt, doe dan uw best om het primaire zoekwoord op te nemen. Bedenk wat uw primaire zoekwoord is voor die specifieke pagina. Zorg ervoor, dat u het ergens in uw URL gebruikt. Als uw URL’s relevant zijn voor de content op de pagina, is de kans groot, dat u dit van nature al doet.
Wat is een dynamische URL? Een dynamische URL is gewoon een URL, die een script uitvoert. De eenvoudigste manier om deze te herkennen, is door te zoeken naar speciale symbolen in de URL. Ze zijn meestal te vinden op SEO ecommerce – websites. Google geeft expliciet aan, dat ze de voorkeur geven aan statische web URL’s. Voor een SEO URL structuur, die u helpt gevonden te worden door de juiste mensen, houdt u dus altijd vast aan statische URL’s. Overweeg om de link verkorter van Bitly te gebruiken. Hiermee lokaliseert en verwijdert u de dynamische parameters.
Als uw website verschillende versies van dezelfde pagina heeft, moet u ervoor zorgen, dat Google niet elke versie als een afzonderlijke pagina indexeert. Verschillende versies kunnen zijn:
Deze URL’s leiden allemaal naar dezelfde plaats. Het is dus belangrijk om ervoor te zorgen, dat Google deze links als geconsolideerd beschouwt. Een backlink van een van de bovenstaande URL’s moet meetellen voor alle versies van de pagina. Door de canonieke tag op elke variant van dezelfde pagina te gebruiken, wordt Google geïnformeerd, dat alle versies als dezelfde URL moeten worden beschouwd. De canonieke tag is een meer technisch onderdeel van URL SEO, dat vaak over het hoofd wordt gezien. Het kan uw rankings echter maken of breken.
Redirects of omleidingen naar webpagina’s zijn frustrerend voor de eindgebruiker en hebben een negatieve invloed op hun ervaring. Niets zorgt ervoor, dat mensen uw website sneller verlaten dan irritatie. Sinds Google de gebruikerservaring in hun rankings begon te betrekken, spelen bounce rate percentages en tijd besteed aan een website beide een rol bij de positie van uw site op pagina’s van zoekmachines. Zoekmachinevriendelijke URL’s houden omleidingen tot een minimum beperkt of elimineren ze volledig. Het verwijderen van omleidingen versnelt de gebruikerservaring. Daarbij verbetert het de bruikbaarheid van de informatie, die vervolgens wordt gedeeld met Google.
Soms volgen zoekmachines de omleidingen niet correct of helemaal niet. Dat betekent, dat een hele webpagina en de tijd die u heeft besteed aan het bouwen ervan) volledig verloren kan gaan. Maar het gebeurt, soms kunt u omleidingen gewoon niet vermijden. Dus wat doet u als u een redirect naar uw website moet toevoegen? De juiste SEO URL strategie is om een 301-omleiding te gebruiken in plaats van een permanente omleiding. 301-omleidingen brengen 90-99% van de rangschikkingskracht over naar de nieuwe pagina. Op die manier wordt u niet door Google bestraft voor het invoegen van een noodzakelijke redirect.
Iedereen, die bekend is met de domeinnaam markt, weet dat bepaalde domeinnamen duizenden dollars kunnen kosten om te kopen. Hier is een reden voor. Veel premium domeinnamen zitten natuurlijk al vol met SEO zoekwoorden. Kortere domeinen met veelgebruikte Google zoekwoorden zullen altijd beter ranken. Hoewel dit minder belangrijk is dan vroeger (en zeker geen reden om uw huidige domein te dumpen), is het iets om in gedachten te houden bij het opzetten van toekomstige websites. Kanttekening: als het gaat om uw naaste concurrenten, zal Google vaak onderscheid maken tussen hen met behulp van merkquery’s. Als uw domeinnaam beter aansluit bij de zoekopdracht, waarvoor u probeert te ranken, geeft dit uw site een extra duwtje in de rug.
Het is niet ongebruikelijk, dat bepaalde pagina’s, vooral blogs, een datum bevatten. Als u bijvoorbeeld schrijft over de beste SEO tips, die op dit moment relevant zijn, kunt u ‘2022’ in de titel opnemen. Alleen omdat u het in de titel van het bericht opneemt, wil nog niet zeggen, dat het in de URL moet worden vermeld. Dit kan ertoe leiden, dat uw pagina verouderd raakt. Dus zorg ervoor, dat u uw URL’s toekomstbestendig maakt door datums te vermijden. Naarmate u bericht ouder wordt, kunt u ervoor kiezen om het bij te werken met actuele SEO content om het relevant te houden. Door de datum uit uw SEO URL structuur te laten, kunt u dezelfde URL en al het bijbehorende ‘link juice’ langer behouden. Denk extra goed na als u een webshop met veel producten gaat opbouwen. Een goede structuur zal u enorm helpen met de SEO optimalisatie van uw webshop.
Het lijkt misschien een relatief onbeduidende kwestie, maar het constante debat woedt over de vraag of URL’s de trailing slash moeten bevatten. De trailing slash wordt vaak gezien aan het einde van URL’s en ziet er als volgt uit: “/” Jarenlang was de positie van Google op de trailing slash onduidelijk. Maar Google heeft herhaaldelijk bevestigd dat de keuze aan u is. De trailing slash heeft geen invloed op uw ranking. Hoewel ´best practices´ aangeven, dat u de trailing slash moet gebruiken, is dit een van de zeldzame gevallen waarin de trailing slash kan worden genegeerd. De eigen URL’s van Google bevatten geen slash.
Ons advies is dat u moet letten op consistentie in uw gebruik van de trailing slash. Als u het op uw startpagina gebruikt, gebruik het dan ook op al uw andere pagina’s. Als u het niet op één pagina gebruikt, laat het dan ook weg op uw andere pagina’s. Het is ook verstandig om beide versies van uw trailing slash/no trailing slash-pagina te consolideren met een canonieke tag.
Bij sommige links is het niet altijd mogelijk om de ‘best practices’ voor SEO URL’s te volgen. Soms heeft u de URL structuur niet in handen, of heeft u geen controle over de sub mappen op de website. Dus, wat doet u in deze situatie? Profiteer in plaats daarvan van merklinks. Merklinks hebben een sterke SEO URL structuur, die u kunnen helpen het gebrek aan controle over URL’s te omzeilen. Door een korte URL met merknaam te gebruiken, kunt u een aangepast domein en slash-tag opnemen. In plaats van een willekeurige reeks tekens die alleen bezoekers van de site zal afschrikken, kunt u een link maken die voldoet aan alle vereisten van URL SEO.
Herman Geertsema is een ervaren freelance SEO specialist en content marketing expert uit Den Haag. Daarnaast is hij eigenaar van SEO bureau Connect your World gevestigd in Den Haag.
Kies ook een SEO specialist in de volgende regio´s:
Heeft u een vraag over SEO? Of wilt u ons als SEO specialist inhuren? Neem dan contact met ons op.
Heeft u wel eens van de sitemap robots txt gehoord? Hoewel u een website kunt maken volgens, die goed is geoptimaliseerd voor SEO optimalisatie, moeten crawlers van zoekmachines zoals Google en Bing uw website nog steeds vinden en crawlen. Eigenlijk heeft u best wel een beetje controle over hoe web crawlers uw website indexeren met Robots.txt. Dit kan zelfs per pagina worden aangepakt.
Geschatte leestijd: 13 minuten
In deze blog leert u:
Als u inspraak wilt hebben in wat SEO robots op uw website doorkammen, heeft u hiervoor een robots.txt-bestand nodig. Hoewel het niet per se het laatste woord heeft over hoe Google uw website behandelt, kan het een krachtig effect hebben op uw SEO resultaten. Door u inspraak te geven in hoe Google uw site bekijkt, kunt u ook hun oordeel beïnvloeden. Dus, als u uw crawlfrequentie en zoekprestaties op Google wilt verbeteren, hoe kunt u dan een robots.txt voor SEO maken?
We gaan terug naar het begin van robots.txt-bestanden om het op te splitsen:
Laten we beginnen door te onderzoeken wat een robots.txt-bestand is.
Toen het internet nog jong was en vol potentie zat, bedachten web ontwikkelaars een manier om nieuwe pagina’s op internet te crawlen en te indexeren. Deze tools werden crawlers, spiders of robots genoemd. U heeft ze waarschijnlijk allemaal door elkaar horen gebruiken.
Zo nu en dan dwaalden deze robots af van waar ze hoorden te zijn. Ze begonnen namelijk met het crawlen en indexeren van websites, die niet bedoeld waren om geïndexeerd te worden. Er moest een oplossing komen. De maker van Aliweb, ‘s werelds eerste zoekmachine, adviseerde een “roadmap”-oplossing die de robots zou helpen op koers te blijven. In juni 1994 werd dit protocol gerealiseerd. Hoe ziet dit protocol eruit, wanneer het wordt uitgevoerd?
Het protocol stelt de richtlijnen vast die alle bots, inclusief die van Google, moeten volgen. Sommige robots met een donkere hoed, zoals spyware of malware, werken echter buiten deze regels. Wil je zelf zien hoe het is? Typ gewoon de URL van een website, gevolgd door “/robots.txt” aan het einde.
U vindt uw sitemap robots txt bestand in de hoofdmap van uw site. Om toegang te krijgen, opent u uw FTP en zoekt u vervolgens in uw public html-sitemap. Er zijn niet veel van deze bestanden, dus ze zullen niet zo groot zijn. Verwacht maximaal een paar honderd bytes te zien. Zodra u het bestand hebt geopend in uw tekst editor, ziet u wat informatie over een sitemap en de termen ‘User-Agent’, ‘toestaan’ en ‘niet toestaan’. U kunt ook gewoon /robots.txt toevoegen aan het einde van de meeste URL’s om het te vinden:
Als u er zelf een moet maken, weet dan dat Robots.txt een eenvoudig tekstbestand is dat eenvoudig genoeg is voor een echte beginner om te maken. Zorg ervoor, dat u een eenvoudige tekst editor hebt en open vervolgens een leeg blad dat je opslaat als “robots.txt”. Log vervolgens in en zoek de map public_html zoals hierboven vermeld. Met het bestand geopend en de map omhoog getrokken, sleept u het bestand naar de map. Stel nu de juiste machtigingen voor het bestand in. U wilt dat het zo wordt ingesteld dat u, als eigenaar, de enige partij bent met toestemming om dat bestand te lezen, schrijven en bewerken. U zou een machtigingscode “0644” moeten zien. Als u die code niet ziet, klikt u op het bestand en selecteert u vervolgens ‘bestandsmachtiging’. Helemaal klaar!
Als u naar het bovenstaande robots.txt-voorbeeld kijkt, ziet u waarschijnlijk een onbekende syntaxis. Dus wat betekenen deze woorden? Laten we het uitzoeken. De bestanden bestaan uit meerdere secties, elk een “richtlijn”. Elke instructie begint met een gespecificeerde user-agent, die onder de naam staat van de specifieke crawlbot waarop de code is gericht.
Je hebt hier twee opties:
Wanneer een crawler naar een site wordt gestuurd, wordt deze aangetrokken door het gedeelte, dat erover spreekt. Elke zoekmachine zal SEO robots.txt-bestanden een beetje anders behandelen. U kunt eenvoudig onderzoek doen om meer te weten te komen over hoe Google of Bing in het bijzonder met dingen omgaat.
Zie het gedeelte “user-agent”? Dit onderscheidt een bot van de rest, in wezen door hem bij naam te noemen. Als het uw doel is om een van de crawlers van Google te vertellen, wat ze op uw site moeten doen, begin dan met ‘User-agent: Googlebot’. Hoe specifieker u echter kunt worden, hoe beter. Het is gebruikelijk om meer dan één richtlijn te hebben, dus noem elke bot indien nodig bij naam.
Pro-tip: de meeste zoekmachines gebruiken meer dan één bot. Een beetje onderzoek zal u de meest voorkomende bots vertellen waarop u zich kunt richten.
Dit gedeelte wordt momenteel alleen ondersteund door Yandex, hoewel u mogelijk enkele beweringen ziet dat Google dit ondersteunt. Met deze richtlijn heeft u de bevoegdheid om te bepalen of u de www. voor uw site-URL door zoiets als dit te zeggen:
Host:voorbeeld.com
Omdat we alleen kunnen bevestigen dat Yandex dit ondersteunt, is het niet aan te raden om er te veel op te vertrouwen.
De tweede regel binnen een sectie is Disallow. Met deze tool kunt u aangeven welke delen van uw websites niet door bots mogen worden gecrawld. Als u de disallow leeg laat, vertelt het de bots in wezen dat het gratis is en dat ze kunnen kruipen wanneer ze willen.
De sitemap-richtlijn helpt u zoekmachines te vertellen waar ze uw XML-sitemap kunnen vinden, een digitale kaart die zoekmachines kan helpen belangrijke pagina’s op uw site te vinden en te leren hoe vaak ze worden bijgewerkt.
U zult merken, dat zoekmachines zoals Bing en Google een beetje trigger happy kunnen worden tijdens het crawlen. U kunt ze echter een tijdje op afstand houden met een crawl-delay-initiatief. Wanneer u een regel toepast met de tekst ‘Crawl-delay:10’, vertelt u de bots tien seconden te wachten voordat ze de site crawlen of tien seconden tussen crawls.
Nu we de basisprincipes van robots.txt-bestanden hebben behandeld en een aantal richtlijngebruiken hebben besproken, is het tijd om uw bestand samen te stellen. Hoewel een robots.txt bestand geen verplicht onderdeel is van een succesvolle website, zijn er toch veel belangrijke voordelen waarvan u op de hoogte moet zijn:
U wilt natuurlijk, dat zoekmachines zich een weg banen door de meest kritische pagina’s op uw website. Als u de bots beperkt tot specifieke pagina’s, heeft u betere controle over welke pagina’s vervolgens voor zoekers op Google worden geplaatst. Zorg er wel voor, dat u een crawler nooit helemaal blokkeert om bepaalde pagina’s te zien – u kunt er boetes voor krijgen.
Als u niet wilt dat een crawler een pagina opent, gebruikt u meestal een disallow- of noindex-instructie. In 2019 kondigde Google echter aan dat ze het niet langer ondersteunen, samen met een paar andere regels. Voor degenen die de no index-richtlijn toch wilden toepassen, moesten we creatief zijn. Er zijn in plaats daarvan een paar opties om uit te kiezen:
Dus, wat is beter? Noindex of de disallow-regel? Laten we erin duiken. Aangezien Google noindex officieel niet langer ondersteunt, moet u vertrouwen op de hierboven genoemde alternatieven of op de beproefde regel voor niet toestaan. Houd er rekening mee, dat de disallow-regel niet zo effectief zal zijn als de standaard noindex-tag zou zijn. Hoewel het de bots blokkeert om die pagina te crawlen, kunnen ze nog steeds informatie van andere pagina’s verzamelen, evenals zowel interne als externe links, wat ertoe kan leiden dat die pagina in SERP’s wordt weergegeven.
Geef ons uw site (of klanten) en we analyseren de SEO elementen van de site (on-page, URL-gelijkheid, concurrenten, enz.), en organiseren deze gegevens vervolgens in een bruikbare SEO audit.
We hebben het nu gehad over wat een robots.txt-bestand is, hoe je er een kunt vinden of maken, en de verschillende manieren om het te gebruiken. Maar we hebben het nog niet gehad over de veelvoorkomende fouten die te veel mensen maken bij het gebruik van robots.txt-bestanden. Wanneer het niet correct wordt gebruikt, kunt u een SEO-ramp tegenkomen. Vermijd dit lot door deze veelvoorkomende fouten te vermijden:
U wilt geen goede content blokkeren, die nuttig zou kunnen zijn voor sitecrawlers en gebruikers die naar uw site zoeken via zoekmachines. Als u een no index-tag of robots.txt-bestand gebruikt om goede content te blokkeren, schaadt u uw eigen SEO resultaten. Als u achterblijvende resultaten opmerkt, controleer dan uw pagina’s grondig op disallow-regels of noindex-tags.
Als u de crawl-delay-richtlijn te vaak gebruikt, beperkt u het aantal pagina’s, dat de bots kunnen crawlen. Hoewel dit misschien geen probleem is voor grote sites, kunnen kleinere sites met beperkte content hun eigen kansen op het behalen van hoge SERP-ranglijsten schaden door deze tools te veel te gebruiken.
Als u wilt voorkomen dat bots de pagina rechtstreeks crawlen, kunt u dit het beste weigeren. Het zal echter niet altijd werken. Als de pagina extern is gelinkt, kan deze nog steeds doorstromen naar de pagina. Bovendien onderschrijven onwettige bots zoals malware deze regels niet, dus indexeren ze de content toch.
Het is belangrijk op te merken, dat robots.txt-bestanden hoofdlettergevoelig zijn. Een richtlijn maken en een hoofdletter gebruiken, werkt niet. Alles moet in kleine letters zijn als je wilt dat het effectief is.
Soms is duplicated content nodig en wilt u deze verbergen zodat deze niet wordt geïndexeerd. Maar andere keren weten Google-bots, wanneer u iets probeert te verbergen, dat niet verborgen zou moeten zijn. Een gebrek aan content kan soms de aandacht vestigen op iets vreemds. Als Google ziet, dat u de ranglijst probeert te manipuleren om meer verkeer te krijgen, kunnen ze u straffen. Maar u kunt dit omzeilen door duplicated content te herschrijven, een 301-omleiding toe te voegen of een Rel=”canonieke tag te gebruiken.
Nu u alles weet over robots.txt voor SEO, is het tijd om wat u heeft geleerd te gebruiken om een bestand te maken en het uit te testen. Het kan even duren voordat u het proces onder de knie hebt en ervoor zorgt dat u alles heeft ingesteld zoals u wilt, maar als u eenmaal alles heeft ingesteld, zult u het verschil zien. Dat is de kracht van sitemap robots txt bestanden.
Herman Geertsema is een ervaren SEO consultant en Content Marketing expert uit Den Haag. Tevens is Herman eigenaar van SEO bureau Connect your World gevestigd in Den Haag.
Kies ook een SEO specialist uit in de volgende regio´s:
Heeft u een vraag voor ons? Of wilt u ons als SEO specialist inhuren? Neem dan contact met ons op.
SEO Optimalisatie kan grofweg worden onderverdeeld in drie takken: On-page SEO, Off-page SEO en Technische SEO. On page SEO draait om de inhoud en HTML tags. Off-page SEO bestaat voornamelijk uit backlinks. Terwijl technische SEO in gaat op de toegankelijkheid van uw website. Technische SEO wordt vaak gezien als een van de moeilijkste onderdelen van SEO. Schakel daarom altijd een technische SEO specialist als u vraagstukken heeft op het gebied van SEO techniek.
Technische SEO verwijst naar het proces van het optimaliseren van uw website voor de crawl- en indexeringsfase. Met technische SEO kunt u zoekmachines helpen uw website zonder problemen te openen, te crawlen, te interpreteren en te indexeren.
Estimated reading time: 21 minuten
En hoewel u ze alle drie nodig heeft om goed te ranken, kunt u stellen, dat technische SEO eigenlijk op de eerste plaats komt. U moet een sterke technische basis voor uw website bouwen. Anders kan het gebeuren, dat voordat u deze met content vult en promoot met backlinks, alles in elkaar stort. In deze Technische SEO checklist concentreren wij ons op het controleren van technische problemen (SEO techniek) op uw website en het optimaliseren van uw websitestructuur. Het verbeteren van de website snelheid en de toegankelijkheid komen ook uitgebreid aan bod.
Een voor de hand liggende plek om te beginnen is om te kijken of uw website überhaupt is geïndexeerd. En met geïndexeerd bedoelen wij of het wel of niet in de zoekresultaten wordt weergegeven. Het eerste, dat u daarom hier moet doen, is uw domeinnaam googelen en uw website zoeken tussen de zoekresultaten. Staat uw website tussen de zoekresultaten? Dan is het goed. Laten we nu eens kijken hoeveel van uw website daadwerkelijk in de zoekindex is terechtgekomen. Een goede plek om dit te controleren is het dekkingsrapport in Google Search Console.
Het rapport laat zien hoeveel van uw pagina’s momenteel zijn geïndexeerd, hoeveel zijn uitgesloten en wat enkele van de indexeringsproblemen op uw website zijn. Welke tool u ook kiest, het aantal geïndexeerde pagina’s moet dicht bij het werkelijke aantal pagina’s op uw website liggen. Dus als u bijvoorbeeld een e-commerce website heeft, moet het aantal geïndexeerde pagina’s overeenkomen met het aantal producten dat u heeft geüpload.
Over het algemeen zijn er twee soorten indexeringsproblemen. Een daarvan is, wanneer een pagina niet wordt geïndexeerd, terwijl dat wel zou moeten. De andere is wanneer een pagina wordt geïndexeerd, hoewel dit niet de bedoeling is. Als u Google Search Console gebruikt om uw website te controleren, wordt het eerste type indexeringsprobleem meestal als een fout gemarkeerd:
Indexeringsfouten treden op wanneer u Google heeft gevraagd een pagina te indexeren, maar deze wordt geblokkeerd. Een pagina is bijvoorbeeld toegevoegd aan een sitemap, maar is gemarkeerd met de noindex- tag of is geblokkeerd met robots.txt . Om het probleem op te lossen, controleert u of de pagina moet worden geïndexeerd. Zo ja, verwijder dan wat het blokkeert. Zo nee, verwijder dan de pagina uit uw sitemap. Het andere type indexeringsprobleem is, wanneer de pagina wordt geïndexeerd, maar Google weet niet zeker of deze geïndexeerd moest worden. In Google Search Console worden deze pagina’s meestal als geldig gemarkeerd met waarschuwingen:
Dit soort indexeringsproblemen treden meestal op wanneer u heeft geprobeerd de pagina te blokkeren met behulp van sitemap robots txt instructies. Het is een veel voorkomende fout om te denken, dat robots.txt de indexering van de pagina kan blokkeren. In werkelijkheid staat het Google vrij om deze instructies te negeren. Als u de pagina echt wilt blokkeren, moet u de no index-tag gebruiken.
Bij het opzetten van uw website of blog moet u uw voorkeursdomein specificeren. Hiermee instrueer u zoekmachines welke variant van het domein u wilt gebruiken gedurende de levensduur van uw website. Laten we eens kijken waarom u dit moet doen. Een website is standaard toegankelijk met www en zonder www voor een domeinnaam. Als uw domein bijvoorbeeld voorbeeld.com is, is uw website toegankelijk via zowel http://www.voorbeeld.com als http://voorbeeld.com (dus zonder www). Hoewel dit oké is voor gebruikers, is het verwarrend voor zoekmachines omdat ze deze als twee verschillende websites beschouwen. Dit betekent, dat u indexeringsproblemen, dubbele content problemen en verlies van paginarangschikking kunt tegenkomen. Om dit probleem op te lossen, moet u uw voorkeursdomein instellen en zoekmachines informeren over uw keuze.
Een van de vragen, die veel mensen hebben, is of ze www voor hun domein moeten gebruiken of dat ze voor de niet-www-versie moeten gaan. Er is geen SEO – voordeel om het ene formaat boven het andere te kiezen. Het is een kwestie van persoonlijke voorkeur. Het is belangrijk om zoekmachines te informeren over uw beslissing en consistent te zijn gedurende de hele levensduur van uw website.
Hoe u uw voorkeursdomein instelt
In het verleden was de instelling om uw voorkeursdomein op te geven beschikbaar in Google Search Console, maar Google besloot deze optie te verwijderen en te vertrouwen op canonieke URL’s.
Als u klaar bent met het instellen van uw voorkeursdomein, is de volgende stap het controleren en optimaliseren van uw robots.txt-bestand.
Robots.txt is een tekstbestand, dat zich in de hoofdmap van uw website bevindt. Het geeft instructies aan zoekmachines over welke pagina’s van uw website ze kunnen crawlen en aan hun index kunnen toevoegen. Het formaat van dit bestand is heel eenvoudig en in de meeste gevallen hoeft u er geen wijzigingen in aan te brengen.
Een ondiepe, logische sitestructuur is belangrijk voor gebruikers en zoekmachinebots. Bovendien helpt interne linking om de rangschikkingskracht (zogenaamde link juice) efficiënter over uw pagina’s te verspreiden. Terwijl u uw interne links controleert, controleert u de klikdiepte. Zorg ervoor, dat de belangrijke pagina’s van uw site niet meer dan drie klikken verwijderd zijn van de startpagina. Paginering van blogpagina’s is noodzakelijk voor vindbaarheid door zoekmachines, maar vergroot de klikdiepte. Gebruik een eenvoudige structuur in combinatie met een krachtige zoekfunctie op de site om het voor gebruikers gemakkelijker te maken om elke bron te vinden.
Het crawlbudget is het aantal pagina’s, dat zoekmachines gedurende een bepaalde periode crawlen. Het crawlbudget is op zichzelf geen ranking factor. Het bepaalt echter wel, hoe vaak de pagina’s van uw site worden gecrawld (en of sommigen ervan überhaupt worden gecrawld). Afhankelijk van hoe belangrijk uw website is, geeft Google u een bepaald crawlbudget. Als uw pagina’s licht zijn en uw bronnen gemakkelijk toegankelijk zijn, zal dit budget een lange weg gaan. Maar als er te veel omleidingen en doodlopende wegen zijn, is uw budget al uitgegeven voordat het zelfs maar op belangrijke pagina’s komt.
Het is gebruikelijk om gifs, memes en video’s te gebruiken om uw pagina’s op te fleuren. Deze bronnen zijn bedoeld om uw gebruikers te entertainen, maar ze doen er eigenlijk niet toe voor zoekmachines. Het goede nieuws is, dat u Google kunt vragen deze bronnen te negeren en iets anders te gaan crawlen. Om dat te doen, bewerkt u uw robots.txt-bestand om afzonderlijke bronnen niet toe te staan:
User-agent: * Niet
toestaan: /images/filename.jpg
Of zelfs bepaalde bestandstypen:
User-agent: *
Niet toestaan: /*.gif$
Wanneer er te veel omleidingen (redirects) zijn, stopt Google meestal met het volgen van het spoor en gaat naar andere delen van uw website. Wat betekent dat sommige van uw pagina’s misschien nooit het daglicht zullen zien. Dat komt bovenop het verspillen van een stel kruipende eenheden voor niets. Als u dergelijke pagina’s vindt, corrigeer dan de omleidingen om rechtstreeks naar de landingspagina te gaan.
Het is gebruikelijk, dat content management systemen een heleboel dynamische URL’s genereren. In principe kan elk van uw pagina’s een paar verschillende URL’s hebben, afhankelijk van hoe u daar bent gekomen of het type filters, dat u heeft gebruikt. Google kan elk van deze URL’s als een andere pagina zien, ook al is de content grotendeels hetzelfde. Om te voorkomen, dat Google een aantal bijna identieke pagina’s crawlt, kunt u Google vragen bepaalde URL-parameters te negeren. Om dat te doen, start u Google Search Console en gaat u naar Verouderde tools en rapporten > URL-parameters :
Klik aan de rechterkant op Bewerken en vertel Google welke parameters moeten worden genegeerd.
Wanneer een zoekbot een 4XX/5XX-pagina bereikt, gaat een deel van uw crawlbudget verloren. Daarom is het belangrijk om alle verbroken links op uw site te vinden en op te lossen. ‘Broken links’ verspillen niet alleen uw crawlbudget, maar brengen ook bezoekers in verwarring en verslinden ‘link juice’.
Duplicated content is geen groot probleem voor SEO, maar het kan een beetje rommelig worden. Als er twee of meer bijna identieke pagina’s op uw website zijn, welke moet dan worden geïndexeerd? Wat als Google besluit, dat uw duplicated content een teken van plagiaat of spam zijn? Het is het beste om het niet te riskeren. Als u duplicated content vindt, kunt u deze ofwel helemaal verwijderen of verbergen voor zoekmachines.
Google verwacht, dat pagina’s binnen twee seconden of minder worden geladen. Ondertussen is de gemiddelde pagespeed op internet ongeveer 15 seconden. De kans is dus groot, dat u ook uw SEO pagespeed moet verbeteren. Paginasnelheid is echter niet eenvoudig te meten en Google worstelt al heel lang met deze statistiek. Eindelijk is het aangekomen bij het ‘Core Web Vitals’. Dit zijn drie statistieken, die zijn ontworpen om de waargenomen snelheid van een bepaalde pagina te meten. De statistieken zijn Largest Contentful Pain (LCP), First Input Delay (FID) en Cumulatieve Layout Shift (CLS).
In 2018, na anderhalf jaar van zorgvuldig experimenteren en testen, begon Google met het migreren van sites naar mobile-first indexing. De algoritmen stellen zoekmachines in om de mobiele versies van websites te crawlen in plaats van hun desktopversies. En dit betekent letterlijk dat de mobiele versie van uw pagina’s bepaalt, hoe ze scoren in zowel mobiele als desktop-zoekresultaten. De mobielvriendelijke test van Google omvat een selectie van bruikbaarheidscriteria, zoals viewportconfiguratie, gebruik van plug-ins en de grootte van tekst en klikbare elementen. Het is ook belangrijk om te onthouden, dat mobielvriendelijkheid wordt beoordeeld op paginabasis, dus u moet elk van uw landingspagina’s afzonderlijk en één voor één controleren op mobielvriendelijkheid. Om u hele website te beoordelen kun je beter overstappen op Google Search Console. Daar, onder het tabblad ‘Ervaring’, vindt u het rapport Mobiel bruikbaarheid voor al uw pagina’s:
Onder de grafiek staat een tabel met de meest voorkomende problemen, die van invloed zijn op uw mobiele pagina’s. U kunt verder onderzoek doen door op één van de problemen te klikken.
Google is in 2014 begonnen met het gebruik van HTTPS als ranking-signaal . Sindsdien komen HTTPS-migraties steeds vaker voor. Volgens het Google Transparantie Rapport gebruikt 95% van de websites op Google tegenwoordig HTTPS. Als uw site nog niet over HTTPS beschikt, kunt u een HTTPS-migratie overwegen. Als uw website al gebruik maakt van HTTPS (gedeeltelijk of volledig), is het belangrijk om de veelvoorkomende HTTPS-problemen te controleren als onderdeel van uw SEO Audit. Vergeet vooral niet te controleren op:
Problemen met gemengde inhoud ontstaan wanneer een anders beveiligde pagina een deel van de content (afbeeldingen, video’s, scripts, CSS-bestanden) laadt via een niet-beveiligde HTTP-verbinding. Dit verzwakt de beveiliging van de pagina en kan voorkomen dat browsers de niet-beveiligde inhoud of zelfs de hele pagina laden.
Eerst moet u controleren op dubbele HTTP- versus HTTPS-versies van uw pagina’s, in het gedeelte Site-audit > Omleidingen . Als de HTTP- en HTTPS-versies van uw website niet correct zijn ingesteld, kunnen ze allebei tegelijkertijd worden geïndexeerd door zoekmachines. Dit veroorzaakt dubbele inhoudsproblemen die uw website rankings kunnen schaden. In het ideale geval zouden alle links op uw HTTPS-site, evenals omleidingen en canonicals, meteen naar HTTPS-pagina’s moeten verwijzen. Zorg ervoor, dat u de juiste omleiding van HTTP naar HTTPS instelt, merk problemen op met www en niet-www-versies van uw site. Ten tweede, zelfs als u de HTTP-naar-HTTPS-omleidingen correct op de hele site hebt geïmplementeerd, wilt u gebruikers niet door onnodige omleidingen leiden. Hierdoor zal uw website veel langzamer lijken dan hij is. Dergelijke omleidingen kunnen ook een probleem zijn voor het crawlen, omdat u een beetje van uw crawlbudget verspilt telkens wanneer een bot van een zoekmachine een omleiding bereikt.
Gestructureerde gegevens zijn in wezen HTML-code, die wordt gebruikt om specifieke elementen op uw pagina te taggen. Als uw pagina bijvoorbeeld een recept voor Spaghetti is, kunt u Google vertellen welke tekst de ingrediënten zijn, wat de kooktijd, het aantal calorieën, enzovoort is. Google kan de tags vervolgens gebruiken om rich snippets voor uw pagina’s in de SERP te maken:
U kunt uw gestructureerde gegevens controleren in de Google Search Console onder het tabblad Verbeteringen. Google geeft de verbeteringen weer die u op uw website heeft geprobeerd te implementeren en laat u weten of dit is gelukt:
Als uw website een CMS gebruikt, kunnen gestructureerde gegevens standaard worden geïmplementeerd of u kunt dit implementeren door een plug-in te installeren. Als u een op maat gemaakte website heeft, kunt u een hulptool gebruiken om uw pagina’s te taggen.
Wat is het voordeel van het gebruik van gestructureerde data ?
Het kan u helpen de presentatie van uw vermeldingen in de SERPS te verbeteren, hetzij via aanbevolen fragmenten , kennisgrafieken, enz., en uw CTR te verhogen.
Wat zijn de toepassingen van gestructureerde gegevens?
Er zijn veel manieren waarop u gestructureerde gegevens kunt gebruiken om uw content te beschrijven. De meest populaire zijn: artikelen, recepten, evenementen, vacatures, lokale bedrijven en meer. U kunt de volledige lijst hier bekijken .
Een XML-sitemap is een bestand dat de URL’s van uw site weergeeft en waarmee u informatie over elke pagina van uw site kunt verstrekken om de crawlers van zoekmachines te helpen deze beter te navigeren en te indexeren.
Vaker wel dan niet, bevindt uw XML-sitemap zich in de hoofdmap van uw domein, dus het is meestal vrij eenvoudig te vinden. Er zijn een aantal manieren waarop u de XML-sitemap op uw site kunt vinden – of zelfs om te ontdekken of u er een heeft. Gebruik veelvoorkomende formaten om te lokaliseren. Er zijn enkele standaard naamgevingsconventies, dus probeer die eerst. Begin met deze: URL + sitemap.xml of sitemap_index.xml of sitemap1.xml.
In een wereld waar Google koning is, is het essentieel om uw site fris en bijgewerkt te houden met nieuwe content. Hierbij zijn XML-sitemaps essentieel voor SEO omdat ze zoekmachines zoals Google in staat stellen om alle pagina’s op uw website te vinden, die ze anders misschien niet zouden hebben gevonden. Dit kan betekenen, dat er meer organisch verkeer binnenkomt en meer geld voor uw bedrijf! XML-sitemaps helpen Google uw site te crawlen en snel naar nieuwe inhoud te gaan. Zie de XML-sitemap als een stappenplan. Langs komt Google, en het komt op een pagina op uw website. Laten we, omwille van het argument, zeggen dat dit de startpagina is. Van daaruit crawlt het je navigatie en begint het die pagina’s te ontdekken, en gaat dan op jacht om andere pagina’s te vinden.
Google heeft in het verleden gezegd dat kleine sites niet echt een XML-sitemap nodig hebben (zie onderstaande quote van John Mueller) en dat ze nuttiger zijn voor grotere sites. Ik zou zeggen dat het niet uitmaakt hoe groot of klein je site is – u zou nog steeds een XML-sitemap moeten hebben. Ze zijn zo gemakkelijk te maken (met behulp van een plug-in zoals Yoast of een tool zoals Sitebulb of Screaming Frog), dat u gek zou zijn om dat niet te doen. Een taak die een paar minuten duurt voor een eenvoudige site, helpt Google de gewenste URL’s te vinden.
“Met een site van die grootte heb je niet echt een sitemapbestand nodig, we kunnen over het algemeen toch alles crawlen en indexeren.
John Mueller – Google Webmaster Forum
Met zo’n klein sitemapbestand kun je ook gewoon de afzonderlijke URL’s controleren om te zien of ze op die manier zijn geïndexeerd.’
Uw sitemap vertelt zoekmachines over uw sitestructuur en laat ze nieuwe content ontdekken. Als u geen sitemap heeft, moet u er nu echt een gaan maken. Als u uw sitemap controleert, zorg er dan voor dat deze:
Schoon. Houd uw sitemap vrij van fouten, omleidingen en URL’s die worden geblokkeerd voor indexering; anders loopt u het risico dat zoekmachines de sitemap negeren alsof deze er niet is.
Actueel. Zorg ervoor, dat uw sitemap wordt bijgewerkt, telkens wanneer nieuwe content aan uw website wordt toegevoegd of ervan wordt verwijderd. Dit zal zoekmachines zoals Google helpen nieuwe content snel te ontdekken.
Beknopt. Google crawlt geen sitemaps van meer dan 50.000 URL’s. Idealiter zou u het veel korter moeten houden om ervoor te zorgen dat uw belangrijkste pagina’s vaker worden gecrawld: technische SEO experimenten tonen aan dat kortere sitemaps resulteren in effectievere crawls .
Geregistreerd in Search Console. Laat Google weten, wat uw sitemap is. U kunt het handmatig indienen bij Google Search Console of de locatie op de volgende manier ergens in uw robots.txt-bestand opgeven:
Sitemap: http://uwdomein.com/sitemaplocatie.xml
De bovenstaande SEO site-audit zal zeker een paar problemen op uw site onder de aandacht brengen, die moeten worden opgelost. Zodra u ze heeft opgelost, kunt u Google expliciet vragen uw pagina’s opnieuw te crawlen, om ervoor te zorgen, dat de wijzigingen zo snel mogelijk worden doorgevoerd. U kunt uw bijgewerkte URL’s voor opnieuw crawlen verzenden vanuit Google Search Console met behulp van de URL-inspectietool. Voer de URL in van de pagina die u opnieuw wilt crawlen en klik op ‘Indexering aanvragen’. U kunt ook de Live URL testen (voorheen bekend als de functie Fetchen als Google) om uw pagina in zijn huidige vorm te zien en vervolgens indexering aanvragen.
Met de URL-inspectietool kunt u het rapport uitbreiden voor meer details, de live-URL testen en indexering aanvragen.
U moet beoordelen wanneer u echt opnieuw moet crawlen. Bijvoorbeeld na het doorvoeren van serieuze wijzigingen op de site: u heeft uw site van http naar https verplaatst, gestructureerde gegevens ingevoerd of essentiële content optimalisatie uitgevoerd. Of u wilt, dat een dringende blogpost sneller op Google verschijnt. Er wordt aangenomen dat er een limiet is voor het aantal herhalingsacties per maand, dus maak er geen misbruik van. Het opnieuw crawlen kan 10 minuten tot enkele weken duren. Een beter alternatief voor opnieuw crawlen is om enorme wijzigingen door te geven via de sitemap. Google kan niet garanderen, dat alle pagina’s van uw website worden geïndexeerd, maar als de site vrij klein is, zal dit hoogstwaarschijnlijk wel gebeuren.
Er is ook een vergelijkbare optie in Bing Webmaster Tools. Zoek gewoon het gedeelte Mijn site configureren in uw dashboard en klik op URL’s indienen. Vul de URL in, die u opnieuw wilt laten indexeren, en Bing zal deze doorgaans binnen enkele minuten crawlen. Met de tool kunnen webmasters voor de meeste sites tot 10.000 URL’s per dag indienen.
Core Web Vitals zijn de nieuwe standaarden van Google om te evalueren of een pagina een goede gebruikerservaring biedt.
De Core Web Vitals bestaan uit:
Als het gaat om het testen van uw site om te zien hoe goed deze voldoet aan de Core Web Vitals-benchmarks, is het belangrijk dat aan alle drie de statistieken wordt voldaan, zegt John Mueller.
Tenslotte. Een regelmatige site-audit moet een prioriteit zijn in uw SEO-strategie. Welke veranderingen er ook op internet verschijnen, ze kunnen de ranglijst op een zeer onvoorspelbare manier beïnvloeden. Daarom is het echt verstandig om SEO analyse tools in te stellen voor regelmatige technische SEO controles om SEO optimalisatie problemen te detecteren en op te lossen zodra ze zich voordoen.
Een broodkruimelmenu is een reeks links boven of onder aan een pagina, waarmee gebruikers naar een vorige pagina (meestal de categoriepagina) of naar de startpagina van een website kunnen navigeren. Een broodkruimelmenu heeft twee hoofddoelen: het helpt gebruikers gemakkelijk door een website te navigeren zonder op de terugknop van hun browser te hoeven drukken. Het geeft zoekmachines nog een hint over de structuur van een website. ,Breadcrumbs worden in verschillende SEO Guides als SEO-element genoemd omdat ze sterk worden aanbevolen door Google. Als u breadcrumbs nog niet hebt ingeschakeld, zorg er dan voor dat ze zijn ingeschakeld op uw website en dat ze het juiste schema hebben.
Deze technische SEO checklist heeft als doel om met u te delen, wat er allemaal op het gebied van SEO techniek moet gebeuren om van uw website een goed scorende site te maken. Technische SEO kan lastig zijn en heeft vele valkuilen. Een SEO specialist inhuren is daarom altijd een verstandige keuze. De SEO expert begeleidt u graag naar de posities bovenaan in Google met uw website.
Herman Geertsema is de eigenaar en freelance SEO specialist van SEO en Content Marketing bureau Connect your World gevestigd in Den Haag. Hij is een ervaren SEO consultant en Content Marketeer. Connect your World voert online marketing projecten uit op het gebied van zoekmachineoptimalisatie, Linkbuilding, Contentmarketing, Sociale Media en Google Ads. Hij heeft ook kennis van de SEO techniek.
Kies ook een SEO specialist voor een goede SEO analyse in de volgende regio’s:
Heeft u een vraag over technische SEO, Google Ads Campagnes of iets anders? Of wilt u ons als SEO tekstschrijver of SEO specialist inhuren? Neem dan contact op via onderstaande button.
Wilt u zelf een SEO check uitvoeren voor uw website? Maak dan gebruik van de vele SEO checklists op deze website of ons overzicht met veelal gratis SEO tools.
HTML-tags behoren tot de eerste dingen, die we leren in SEO optimalisatie. Ze zijn onzichtbaar voor het blote oog, maar kunnen wonderen doen voor de posities van de website in de zoekmachine. HTML-tags zijn zelfs zo essentieel geworden, dat geen enkele website kan concurreren in de zoekresultaten van vandaag als ze HTML-tags of web page HTML negeren of verkeerd gebruiken.
HTML-tags zijn stukjes code, die kunnen worden gebruikt om onze content voor zoekmachines te beschrijven. We kunnen HTML-tags gebruiken om de belangrijke delen van onze content te markeren, afbeeldingen te beschrijven en zelfs instructies te geven aan zoekmachinebots. HTML-tags worden ook gebruikt om de manier waarop onze pagina’s in zoekresultaten worden weergegeven, te beïnvloeden. Met behulp van bepaalde tags kunnen we gewone zoekfragmenten omzetten in ‘rich snippets’ en misschien zelfs in ‘featured snippets’. En naarmate onze zoekfragmenten geavanceerder worden, kunnen ze betere SERP posities veiligstellen en meer verkeer aantrekken.
Geschatte leestijd: 21 minuten
Absoluut! Sommigen zeggen, dat zoekmachines te slim zijn geworden voor HTML-tags. Ze zeggen dat zoekmachines geen hulp nodig hebben bij het begrijpen van onze content. Nou, dat is niet de hele waarheid. Ten eerste, hoewel kunstmatige intelligentie grote sprongen heeft gemaakt in het begrijpen van content, is het nog niet perfect. Er is nog steeds een aanzienlijke foutmarge en we hebben nog steeds web page HTML nodig om ervoor te zorgen, dat al onze content wordt geïnterpreteerd zoals het hoort. Ten tweede is het niet de enige functie van HTML-tags om zoekmachines te helpen onze content te begrijpen. Ze verbeteren ook de gebruikerservaring, creëren prachtige zoekfragmenten, lossen duplicated content problemen op en dwingen crawlregels af.
HTML Titel-tags worden door zoekmachines gebruikt om het onderwerp van een pagina te bepalen en deze in SERP weer te geven. In HTML ziet een titel tag er als volgt uit:<title>Uw Titel staat hier</title>
In SERP ziet een HTML titel tag er paars gedrukt uit:
Titel-tags waren van groot belang voor zoekmachines zoals Google. De titel van de pagina is het hoofdonderwerp, dus Google zou naar de titel kijken om te beslissen of de pagina relevant is voor een zoekopdracht. Natuurlijk begonnen SEO specialisten titel tags met zoveel mogelijk zoekwoorden te vullen, in een poging hun pagina’s relevant te maken voor meerdere zoekopdrachten. Als reactie daarop begon Google het vullen van zoekwoorden te bestraffen en verloren pagina’s met spamtitels hun positie in de zoekresultaten.
Nu Google is overgestapt op semantisch zoeken, is de waarde van een geoptimaliseerde titel-tag zelfs nog lager. De onderzoekers van Backlinko ontdekten bijvoorbeeld, dat een voor zoekwoorden geoptimaliseerde titel-tag geassocieerd was met een betere ranking, maar dat de correlatie kleiner was dan ooit. Google is zelfs zo goed geworden in het begrijpen van onze webpagina’s, dat het onze titels soms voor ons herschrijft. Dat klopt, het is mogelijk, dat u een bepaalde titel voor uw pagina instelt, waarna Google een andere titel in de zoekresultaten weergeeft. Hoewel het nog steeds zeldzaam is, gebeurt het wanneer:
Google kan een titel met spam corrigeren als de pagina zelf content van hoge kwaliteit bevat. U hoeft geen goede content te verspillen alleen omdat u de fout heeft gemaakt om een paar extra Google zoekwoorden aan uw titel toe te voegen.
Google kan uw webpagina voor een bepaalde zoekopdracht kiezen, zelfs als uw titel niet overeenkomt met deze zoekopdracht. In dit geval kan de titel soms worden herschreven voor de SERP. Het is duidelijk, dat u geen titel kunt schrijven, die overeenkomt met alle mogelijke zoekopdrachten. Als u echter ziet, dat Google uw titel herschrijft voor grote zoekopdrachten, overweeg dan om deze te herzien.
Facebook en Twitter hebben hun eigen tags in het <head> -gedeelte van uw pagina, dus als u de alternatieve titels voor deze sociale netwerken gebruikt, kan Google deze ook gebruiken in plaats van uw titel-tag.
Hier ziet u hoe u titels maakt volgens de richtlijnen van Google en best practices op het gebied van SEO.
Google heeft een bepaalde limiet voor het aantal titeltekens, dat in SERP kan worden weergegeven. Deze limiet is niet exact – deze verandert afhankelijk van de grootte van uw scherm. Als vuistregel geldt dat titels van minder dan 60 tekens op de meeste schermen passen. Als uw titel niet op een bepaald scherm past, zal Google deze afbreken.
Het is niet per se slecht, dat uw titel wordt afgebroken. Soms kan het zelfs een positief effect hebben op de Click through rate. Afgekorte titels creëren een cliffhanger en stimuleren de nieuwsgierigheid van de gebruikers, zodat ze worden aangemoedigd om de pagina te bezoeken. De enige keer dat een afgekapte titel een probleem kan zijn, is wanneer een zichtbaar deel van uw titel niet relevant lijkt te zijn voor de zoekopdracht. Het is dus niet nodig, dat uw volledige titel zichtbaar is, maar het is belangrijk dat het zichtbare gedeelte uw ‘hoofd zoekwoord’ bevat.
Zoekwoorden in uw titel hebben, is nog steeds belangrijk. Zo communiceert u de relevantie van uw webpagina naar de gebruikers. Maar als u te veel zoekwoorden opneemt, zal Google uw pagina degraderen of uw titel herschrijven om minder spam te bevatten. De huidige ‘best practice’ is om slechts één zoekwoord of korte zinsdeelgroep per titel op te nemen en vervolgens de rest van de titel te vullen met marketingwoorden. Hier zijn bijvoorbeeld twee populaire voorbeelden van titelstructuren:
Top 10 mountainbikes voor elk budget | Bikespecialist
De titel heeft aan het begin een korte zoekwoordgroep. We zien ook dat het een lijstje is, omdat het top 10 zegt. Er is een merk aan het einde om domein autoriteit te communiceren. Daarnaast zegt de titel elk budget, wat slechts een algemeen verkoopargument is.
Hoe u de beste telefoon voor het werk kiest | 2021
Deze titel heeft zijn trefwoord iets verderop, maar het is nog steeds binnen de lengtelimiet, dus het zal zichtbaar zijn in elke SERP. We kunnen zien, dat de pagina een gids wordt, omdat de titel zegt hoe dat moet. We kunnen ook zien dat het actueel is omdat het het huidige jaar bevat.
Als u een bekend merk heeft, is het een goed idee om dit in de titel te gebruiken. Wanneer gebruikers de resultatenpagina (SERP) doorbladeren, zullen ze eerder iets kiezen, dat ze herkennen. Als u geen gevestigd merk heeft, zult u geen direct voordeel zien als u het in de titel opneemt. Maar het kan u helpen om na verloop van tijd merkherkenning op te bouwen, zodat u uiteindelijk de voordelen zult gaan zien. We praten hierbij over jaren.
De metabeschrijving is een korte tekst paragraaf, die wordt gebruikt om uw pagina in zoekresultaten te beschrijven. In HTML ziet een metabeschrijvingstag er als volgt uit:
<meta name="description" content="Uw metabeschrijving staat hier">
In de SERP ziet u onder elke titel een paar regels. Dat is de metabeschrijving.
De functie van metabeschrijving is vergelijkbaar met de titel. Het geeft wat meer details over uw pagina en helpt gebruikers beslissen of ze uw pagina willen bezoeken of niet. Hoewel de metabeschrijving geen directe rangschikkingsfactor is, kan het toch uw succes bij het zoeken vergroten. Als uw metabeschrijving relevant en aantrekkelijk is, zullen meer gebruikers op uw fragment klikken. Uiteindelijk zou Google kunnen overwegen om u een betere positie in de zoekresultaten te geven. Hoewel, net als bij titels, Google zich het recht voorbehoudt om uw metabeschrijving te herschrijven. Het gebeurt zelfs heel vaak! De meeste metabeschrijvingen, die u in SERP ziet, zijn gemaakt door Google en niet door website eigenaren. John Mueller van Google legt uit, dat metabeschrijvingen vaak aangepast worden om zelfs met de kleinste verandering aan de vraag van de gebruiker te voldoen. Dus Google bewijst je eigenlijk een plezier. Het toont verschillende metabeschrijvingen aan verschillende gebruikers en verbetert de relevantie van uw zoekfragmenten.
Hoewel metabeschrijvingen vaak door Google worden herschreven, wordt er nog steeds een behoorlijk deel van de originele beschrijvingen weergegeven in SERP. Laat het niet aan het toeval over, vertrouw niet op Google om uw metabeschrijving voor u te genereren, want dat is misschien niet de beste optie. En als dat niet het geval is, blijft er een slecht geoptimaliseerd fragment en slechte zoekprestaties over.
Er is geen technische limiet voor de lengte van de metabeschrijving, maar Google toont over het algemeen alleen de eerste 160 tekens in uw fragment. Het advies is hetzelfde als bij de titel-tag – maak het zo lang als u wilt, maar zorg ervoor, dat uw zoekwoorden en andere belangrijke informatie dichter bij het begin worden vermeld.
Er is meer ruimte in een metabeschrijving, daarom is het prima om meer dan één zoekwoord te gebruiken. De huidige ‘beste practice’ is om varianten van het zoekwoord te gebruiken, dat u in de titel heeft geplaatst. Als mijn titel bijvoorbeeld is Hoe kies je de beste telefoon voor werk , dan zeg ik in mijn beschrijving, in plaats van telefoons voor werk te zeggen, zakelijke telefoons. Op deze manier is de kans groter, dat de vraag van de gebruiker exact overeenkomt. Hoewel u meer zoekwoorden in de beschrijving kunt gebruiken, wordt aanbevolen om er niet meer dan twee of drie te gebruiken. Houd het natuurlijk. Doe geen moeite om nog een zoekwoord te plaatsen waar het niet thuishoort.
Wanneer u dubbele aanhalingstekens gebruikt in de HTML van de metabeschrijving, zal Google deze tekst bij het aanhalingsteken knippen, wanneer deze in de SERP’s wordt weergegeven. Het is dus beter om alle alfanumerieke tekens uit uw metabeschrijvingen te verwijderen.
Koppen (H1-H2) worden gebruikt om uw pagina op te splitsen in secties of hoofdstukken. Elke kop is als een kleine titel op de pagina.
In Web page HTML ziet een kop er als volgt uit:<h1>Zakelijke telefoons</h1>
De oorspronkelijke functie van koppen was om de gebruikerservaring te verbeteren. Wanneer de pagina correct is georganiseerd met koppen, maakt u het gebruikers gemakkelijker om door de content te navigeren, irrelevante hoofdstukken over te slaan en de belangrijke dingen te vinden. En als de gebruikers tevreden zijn, is Google tevreden. Tegenwoordig is de rol van koppen veel geavanceerder. Sinds de introductie van passage – indexering kan Google bepaalde secties van uw pagina als afzonderlijk zoekresultaat gebruiken.
Hier zijn de ‘best practices’ die u kunt volgen bij het optimaliseren van koppen:
Traditioneel is er slechts één H1-kop per pagina en dit is de titel van uw pagina. Het is echter niet hetzelfde als de titel-tag. De titel-tag wordt weergegeven in de zoekresultaten, terwijl de kop H1 op uw website wordt weergegeven. Een echt verschil is, dat er geen tekenlimiet is voor de H1 kop, dus u kunt deze langer maken dan uw titel-tag. Of u kunt ze hetzelfde maken. Dat is uw keuze. Dan zijn er H2 – koppen, die worden gebruikt om uw content in hoofdstukken op te splitsen. Vervolgens H3 – koppen, die worden gebruikt om uw hoofdstukken op te splitsen in subhoofdstukken. U kunt zelfs dezelfde logica volgen tot aan H6. In het algemeen wordt aanbevolen om niet verder te gaan dan H3-H4. De pagina’s met veel kopniveaus worden te rommelig.
Weet u nog hoe elk van uw koppen een afzonderlijk zoekresultaat kan zijn? Om dit mogelijk te maken, moet u elke kop schrijven alsof het een paginatitel is. Voeg een trefwoord toe dat relevant is voor het gedeelte van de pagina en formuleer uw kop op een zoekopdrachtachtige manier. Laten we bijvoorbeeld teruggaan naar onze handleiding voor bakstenen muren. Aan de linkerkant hebben we koppen die niet zijn geoptimaliseerd voor zoeken. Ze werken prima voor navigatie binnen de pagina, maar ze zullen de SERP nooit halen. Terwijl we aan de rechterkant koppen hebben die veel informatiever zijn en door Google kunnen worden gebruikt om nauwere zoekopdrachten te beantwoorden.
Slechte koppen | Goede rubrieken |
---|---|
Weggooien | Gooi de oude telefoon niet weg |
Kammen | Reinig de hond met een speciale borstel |
Borstelen | Gebruik een zeepoplossing |
Afdichten | Dicht de afvoer met tape |
Soms kan Google uw koppen omzetten in een uitgelicht fragment van het lijsttype. Om ervoor te zorgen, dat uw koppen in aanmerking komen voor een lijstfragment, moeten ze de parallelle syntaxis volgen. Dit betekent, dat al uw koppen op dezelfde manier moeten worden geformuleerd. Ze moeten bijvoorbeeld allemaal beginnen met een werkwoord. Of ze moeten allemaal zelfstandige woordgroepen zijn. Het helpt ook als alle koppen van hetzelfde niveau dezelfde lengte hebben en in een genummerde lijst zijn gerangschikt.
Het alt tekst kenmerk is een onderdeel van een afbeeldingstag en biedt een beschrijving voor een afbeelding. In HTML kan het er zo uitzien: <img src="url" alt="De beschrijving van je afbeelding staat hier">
Alt tekst speelt een belangrijke rol bij het optimaliseren van afbeeldingen. Het maakt uw afbeeldingen toegankelijk voor zowel zoekmachines (door hen te vertellen wat een bepaalde afbeelding betekent) als voor mensen (door een alternatieve tekst weer te geven voor het geval een bepaalde afbeelding niet kan worden geladen of door schermlezers te helpen afbeeldingen over te brengen). Het belangrijkste voordeel in termen van zoekoptimalisatie is dat geoptimaliseerde alt tekst uw afbeeldingen helpen rangschikken bij het zoeken naar afbeeldingen. Hoewel kunstmatige intelligentie redelijk goed is geworden in het lezen van website afbeeldingen, helpt een schriftelijke beschrijving de resterende kloof te overbruggen.
Hier zijn de ‘best practices’ die u kunt volgen bij het optimaliseren van Alt tekst:
Wil u van deze extra mogelijkheid gebruik maken om door middel van beeldoptimalisatie hoger te scoren, controleer dan allereerst op lege alt-teksten.
Als u duizenden SEO afbeeldingen heeft, hoeft u ze niet allemaal te optimaliseren. Besteed aandacht aan degenen die nuttige gegevens overbrengen, niet degenen die worden gebruikt voor entertainment en decoratie. De bruikbare afbeeldingen zijn afbeeldingen van producten, screenshots van processen, uw logo, infographics en diagrammen.
Alt-teksten zijn nog een mogelijkheid om uw hoofd zoekwoorden te gebruiken. Gebruik ze niet te veel! Schrijf de beschrijving, die context geeft aan uw content en gebruik een zoekwoord waar dit geschikt is. Voor zoekwoorden geoptimaliseerde afbeeldingen werken uitstekend in combinatie met de factoren waarmee zoekmachines rekening houden bij het rangschikken van pagina’s.
Open Graph (OG) -tags worden in het <head> -gedeelte van een pagina geplaatst en zorgen ervoor, dat elke webpagina een rijk object wordt in sociale netwerken. Het werd voor het eerst geïntroduceerd door Facebook in 2010 en verder erkend door andere grote sociale mediaplatforms zoals LinkedIn & Twitter. In HTML kan het er als volgt uitzien: <meta name="og:titel" property="og:titel" content="Uw Open Graph Titel staat hier">
Met OG-tags kunt u bepalen, hoe de informatie over uw pagina wordt weergegeven wanneer deze wordt gedeeld via sociale media kanalen. Deze mogelijkheid kan u helpen de prestaties van uw backlinks op sociale media te verbeteren, waardoor meer doorklikken en meer conversies worden gegenereerd.
Er zijn nogal wat Open Graph-tags, ik zal een paar tips geven over de belangrijkste.
Ja, dat is weer een tag met de titel van uw pagina. Dus nu heeft u drie verschillende titels: de ene is voor zoeken (titel-tag), de andere is voor uw website (H1) en de derde is voor sociale netwerken (OG-titel). U kunt alle andere titels kopiëren en de zaken eenvoudig houden. U kunt ook een aparte titel bedenken voor sociaal delen. Houd er rekening mee dat het tussen de 60 en 90 tekens moet zijn. Anders kan het worden afgekapt.
Gebruik deze tag om te beschrijven wat voor soort object u deelt: een website, post, video, bedrijf, etc. U kunt de volledige lijst hier bekijken. Deze tag wordt als belangrijk beschouwd wanneer uw pagina de ‘Vind ik leuk-knop’ heeft. Het kan helpen om te bepalen of uw content zal verschijnen in het interessegedeelte van de Facebook gebruiker voor het geval hij of zij deze “leuk” vindt. In de meeste gevallen is het type “website”, omdat u meestal links naar websites deelt. Als dit het geval is, hoeft u het type code niet op te geven. Deze wordt standaard als zodanig gelezen.
Deze lijkt erg op de metabeschrijvingstag. Het wordt echter niet weergegeven in de SERP’s. Het wordt weergegeven als een samenvatting wanneer uw pagina wordt gedeeld. Om deze reden heeft het geen zin om uw zoekwoorden op een slimme manier in deze specifieke beschrijving te plaatsen. Uw belangrijkste taak hier is om het te laten spreken voor uw potentiële publiek en meer klikken te genereren. Wat de lengte betreft, wordt het als een goede gewoonte beschouwd om deze ongeveer op 200 tekens te houden.
Een afbeelding maakt uw deelbare link veel aantrekkelijker. Sommige tekst over de afbeelding is acceptabel, maar probeer deze in het midden van een afbeelding te plaatsen, aangezien sommige platforms de randen bijsnijden. De aanbevolen resolutie voor de OG-afbeelding is 1200×627 pixels, de grootte – tot 5 MB. Als u klaar bent met uw OG-metatags, kunt u controleren hoe alles eruitziet met behulp van Open Graph Object Debugger, een tool gemaakt door Facebook.
Twitter kaarten lijken erg op OG-tags met bijvoorbeeld titel, beschrijving en afbeelding. Ze worden uitsluitend door Twitter gebruikt. Hoewel tweets nu meer dan 140 tekens kunnen bevatten, zijn deze kaarten een mooie extensie waarmee uw tweet opvalt tussen de massa gewone tweets met tekst.
Overzichtskaart. Afgezien van de originele tweet is er een voorbeeld van de content van uw pagina, wat goed is voor het markeren van blogposts, producten, nieuws, enz.
Titel: 70 tekens
Beschrijving: 200 tekens
Afbeelding: 120x120px, tot 1 MB
Overzichtskaart met een grote afbeelding. Deze kaart is vergelijkbaar met de vorige, maar bevat een grotere afbeelding. De afbeelding kan ook wat tekst bevatten, die het belangrijkste punt van de content van uw webpagina weergeeft, een oproep tot actie of iets dat echt aanzet tot klikken.
Titel: 70 tekens
Beschrijving: 200 tekens
Afbeelding: 280x150px, maximaal 1 MB
Spelerskaarten. Met dergelijke kaarten kunnen gebruikers video’s of audio afspelen in een tweet.
Beschrijving: 200 tekens
Video: H.264, basislijnprofiel, niveau 3.0, tot 640 x 480 pixels bij 30 fps.
Audio: AAC, profiel met lage complexiteit
App-kaarten. Met dergelijke kaarten kunnen gebruikers mobiele apps rechtstreeks vanuit een tweet downloaden. Ze bevatten een naam, een beschrijving, een pictogram, een beoordeling en een prijs.
Titel: gerenderd vanuit app-ID
Beschrijving: 200 tekens
Afbeelding: weergegeven vanuit app-ID
Opmerking: er wordt slechts één kaarttype per pagina ondersteund.
Opmerking: als u eenmaal klaar bent met de elementen van uw Twitter-kaart, moet je de kaarten instellen en ze vervolgens valideren met een kaart validator .
Een robots-tag is een element in de HTML van een pagina dat zoekmachines informeert welke pagina’s op uw site moeten worden geïndexeerd en welke niet. De functies zijn vergelijkbaar met robots.txt, maar sitemap robots txt geeft suggesties. Terwijl robots-tags instructies geven.
In HTML kan het er als volgt uitzien: <meta name="robots" content="index, follow">
Het is niet zo, dat een robots-tag u kan helpen uw ranglijst te verbeteren, maar u kunt het gebruiken om uw ranglijst op te slaan voor het geval u sommige pagina’s moet blokkeren voor indexering. U kunt bijvoorbeeld enkele webpagina’s of blogs hebben met een vrij dunne content, waarvan u niet geïnteresseerd bent om geïndexeerd te worden tijdens het zoeken, maar die u wel wilt behouden. In dit geval kunt u gewoon een noindex-tag voor deze pagina toevoegen.
Hier zijn de ‘best practices’ die u kunt volgen bij het optimaliseren van robots-tags:
Gebruik robots als u alle bots wilt aanspreken, maar gebruik individuele botnamen als u een bepaalde bot wilt aanspreken. Individuele botnamen worden vaak gebruikt om te voorkomen, dat kwaadwillende bots uw website crawlen.
Google begrijpt en respecteert de volgende parameters in uw robots-tag:
Noindex – voorkomt dat zoekmachines een pagina indexeren;
Nofollow – voorkomt dat de zoekmachine alle links op de pagina volgt (daarom verschilt het van het nofollow-attribuut dat op een individueel URL-niveau wordt toegepast);
Volgen – links op de pagina moeten worden gevolgd, zelfs als de pagina noindex is;
Noimageindex – afbeeldingen op deze pagina worden niet geïndexeerd;
Noarchive – voorkomt dat een in het cachegeheugen opgeslagen kopie van de pagina wordt weergegeven in zoekresultaten;
Geen – hetzelfde als “noindex, nofollow”.
Houd er rekening mee, dat Google alle combinaties van kleine letters en hoofdletters begrijpt, die u gebruikt voor uw robots-tagparameters.
Als u een paar webpagina’s met identieke content heeft, kunt u een canonieke tag gebruiken om zoekmachines te vertellen welke pagina prioriteit moet krijgen.
In HTML kan het er als volgt uitzien: <link href="URL" rel="canonical">
Een canonieke tag is op twee manieren belangrijk voor SEO optimalisatie.
Allereerst voorkomt het dat u duplicated content heeft. Duplicated content is niet per se slecht, maar kan verdacht zijn. Google kijkt naar uw webpagina’s en het lijken kopieën te zijn van een aantal andere pagina’s. Dan is er iets vreemds aan de hand.
Ten tweede voorkomt het kannibalisatie. Als u twee vergelijkbare webpagina’s heeft en beide worden geïndexeerd, beginnen ze met elkaar te concurreren in de zoekresultaten. Dat is een aanslag op zowel uw middelen als uw kansen op rangschikking.
Start een WebSite Auditor en let op dubbele titels en dubbele metabeschrijvingen. Als u een paar URL’s met duplicated content heeft, specificeer dan een <link rel = “canonical”> – element in de HTML van de pagina.
Last but not least is Schema-opmaak . Schema is eigenlijk een heel systeem van HTML-tags. Ze kunnen aan uw code worden toegevoegd om zoekmachines over allerlei dingen te vertellen zoals bijvoorbeeld uw contactgegevens, productprijzen, receptingrediënten en nog veel meer.
Schema-opmaak wordt gebruikt om specifieke stukjes informatie op een webpagina aan te geven en Google kan deze stukjes informatie gebruiken om ‘rich snippets’ te maken. Als u bijvoorbeeld Schema toepast op een receptenpagina, kent Google de kooktijd, de ingrediënten, het aantal recensies en zelfs het aantal calorieën van het recept. En het zal de informatie gebruiken om deze te maken:
Dit worden ‘rich snippets’ genoemd. En Google heeft de afgelopen jaren steeds meer van dit soort fragmenten beschikbaar gemaakt. Tegenwoordig hebben we een artikel, product, evenement, boek, film en ongeveer een dozijn andere schema’s, die uw zoekweergave kunnen verbeteren.
Schema kan een beetje ingewikkeld worden en het is niet iets, dat u met de hand kunt typen. De beste manier om een schema op een pagina toe te passen, is met behulp van de gestructureerde gegevensopmaak hulp. Daar kunt u het type schema kiezen, uw URL invoeren en vervolgens eenvoudig de tekst op de pagina selecteren en deze markeren.
HTML-tags nog steeds behoorlijk belangrijk voor SEO optimalisatie, misschien zelfs meer dan voorheen. De belangrijkste HTML-tags zijn koppen en Schema-opmaak. Google verandert de SERP vrij snel, maakt het interactiever en voegt nieuwe soorten fragmenten toe. Om aan dat alles deel te nemen, om concurrerend te blijven in het zoeken, zou u moeten gaan werken aan uw rubrieken en uw rich results.
Herman Geertsema is een freelance SEO specialist uit Den Haag. Verder is hij de eigenaar van SEO bureau Connect your World gevestigd in Den Haag. Hij is een ervaren SEO consultant en Content Marketeer.
Bij Online marketing bureau Connect your World kunt u ook een online marketeer inhuren in de volgende regio’s:
Heeft u nog vragen over HTML-tags? Of wilt u ons als SEO specialist inhuren? Neem dan contact op en druk op onderstaande button.
De term bounce rate is bij velen een bekende term. Maar weet u precies wat het is? Weet u wat een goede bouncing rate is? In deze blog leert u:
Geschatte leestijd: 15 minuten
Bijna iedereen heeft wel eens van de term Bounce rate of bouncepercentage gehoord. Een Bouncing rate is namelijk één van de statistieken, die de kwaliteit van een webpagina aangeven. Het is een percentage, dat wordt weergegeven in verschillende Google Analytics rapporten. Deze kunnen door webmasters gebruikt worden om te analyseren of de content van een pagina voldoet aan de gebruikersintentie.
Als vuistregel geldt: hoe lager het bounce rate percentage van een pagina, hoe beter.
Een bounce rate is een percentage, dat aangeeft hoeveel gebruikers op een webpagina zijn terechtgekomen en vervolgens de website hebben verlaten, zonder enige interactie op de pagina. Dit betekent, dat ze niet op links op de pagina hebben geklikt en dit omvat menu items en andere interne of externe links.
Het uitstappercentage is een andere statistiek voor web verkeer analyse, die het percentage mensen weergeeft, dat bepaalde pagina’s van uw website heeft bezocht en vervolgens van een bepaalde pagina is vertrokken. Deze statistiek laat zien, waar verschillende bezoekers hebben besloten hun reis door uw website te verkorten.
Wanneer u Google Analytics op uw website heeft geïnstalleerd, registreert het alle acties, die op een pagina zijn uitgevoerd. Zodra een pagina voor het eerst wordt geladen, wordt er een sessie geactiveerd en wordt er een verzoek naar de Google Analytics server gestuurd. Als de Google Analytics server geen tweede verzoek van dezelfde pagina ontvangt, betekent dit dat de gebruiker helemaal geen interactie met de pagina heeft gehad. Dit wordt door Analytics beschouwd als een sessie van één pagina. Er wordt daarmee rekening gehouden bij het berekenen van de bounce rate van een pagina.
De officiële formule, die Google Analytics gebruikt om het bouncepercentage te berekenen, is: Bounce rate is single page sessions divided by all sessions, or the percentage of all sessions on your site in which users viewed only a single page and triggered only a single request to the analytics server.
Een ander kenmerk van sessies met één pagina is dat de ‘tijd op site’ 0 (nul) is, omdat Google Analytics geen ander verzoek heeft om te berekenen hoeveel tijd een gebruiker op de pagina doorbrengt. Dus als u 10 bezoeken op een pagina heeft en er 8 op uw pagina zijn beland en vervolgens zijn vertrokken zonder op een van de links op uw pagina te klikken, is uw bounce rate 80%.
Het bounce rate percentage wordt alleen berekend voor landingspagina’s
Het bouncing rate percentage wordt berekend, wanneer gebruikers op een bepaalde pagina terechtkomen vanaf een externe bron (dwz Google zoekopdracht) en niet, wanneer ze een pagina bezoeken door op een interne link te klikken.
Veel mensen verwarren de bounce rate met het uitstappercentage, maar ze zijn niet hetzelfde. Het uitstappercentage is het percentage mensen, dat de website heeft verlaten vanaf een bepaalde pagina. Met andere woorden, is hoeveel mensen uw website hebben verlaten vanaf die bepaalde pagina/het aantal paginaweergaven, dat die pagina heeft ontvangen. Dus een bounce rate laat zien hoeveel mensen op een pagina zijn terechtgekomen en uw website hebben verlaten zonder iets anders te doen en het exit percentage laat zien hoeveel mensen uw website hebben verlaten vanaf een pagina in vergelijking met het aantal keer, dat die pagina is bekeken.
Er is een grote verwarring in de SEO industrie over de relatie tussen bounce rate en SEO optimalisatie en of de bouncing rate een SEO factor is, die Google gebruikt tijdens het ranking proces. Veel mensen beweren, dat Google er rekening mee houdt, terwijl Google zegt dat ze geen Google Analytics statistieken gebruiken in hun ranking algoritme. De waarheid ligt ergens in het midden. De bounce rate is een statistiek, die beschikbaar is in Google Analytics en ja, het Google ranking algoritme houdt daar geen rekening mee omdat:
Een hoge bouncing rate is niet altijd slecht. Wanneer een pagina echter een hoge bounce rate heeft, betekent dit 2 dingen, die rechtstreeks verband houden met SEO en ranglijsten.
De pagina voldoet niet aan de intentie van de gebruiker. Dit houdt in, dat bezoekers die die pagina bekijken, minder snel klanten of terugkerende gebruikers zullen worden. Ze hebben de pagina niet gedeeld of een opmerking toegevoegd. Omdat ze niet hebben gevonden waarnaar ze op zoek waren.
Als de bezoeker afkomstig was van Google Zoeken, uw pagina bezocht en vervolgens terugging naar de zoekresultaten, dan weet Google dit. In de SEO wereld staat dit bekend als pogo sticking en het is een signaal voor Google dat uw pagina niet voldoet aan de gebruikersintentie. Google wil zijn gebruikers tevreden houden. Dus als veel gebruikers hetzelfde gedrag vertonen, zal dit uiteindelijk leiden tot een lagere SEO ranking. Uit een onderzoek van SEMRUSH bleek, dat pagina’s op de topposities van Google een gemiddeld bounce rate van 50% hebben, wat als goed wordt beschouwd.
Ik heb hierboven vermeld dat een hoog bouncepercentage niet altijd slecht is. Overweeg de volgende gevallen:
Bijvoorbeeld wanneer u een blogpost heeft die een specifieke vraag beantwoordt. Stel dat u een pagina heeft met de vakantiedagen voor schoolkinderen voor een bepaald jaar. Gebruikers komen op uw pagina terecht, zullen het antwoord lezen en vervolgens vertrekken. De pagina heeft een hoog bounce rate, maar dat is niet per se slecht omdat de gebruikersintentie tevreden was.
Er zijn websites die alleen een homepage hebben. Gebruikers kunnen de pagina bezoeken en vervolgens vertrekken omdat de interactie met de website beperkt is tot één pagina. Bijvoorbeeld wanneer u wilt dat gebruikers telefonisch contact met u opnemen. Ze bezoeken uw homepage, zien het telefoonnummer en bellen u. De pagina laat een hoge bounce rate zien, maar dat is geen probleem.
Over het algemeen geldt: hoe lager het bouncepercentage, hoe beter. In het geval, dat u wilt, dat gebruikers in het algemeen interactie hebben met de pagina en website, geeft een hoge bouncing rate aan dat er iets mis is met de pagina.
De meest gebruikelijke manieren om het bouncepercentage van een pagina te verlagen, zijn:
Verschillende onderzoeken tonen aan dat langzaam ladende pagina’s een van de factoren zijn, die gebruikers weghouden (vooral op mobiel). Een van de acties die u kunt ondernemen die niet alleen uw bounce rate percentage verlaagt, maar ook een positieve invloed heeft op uw SEO rankings en conversies, is het verbeteren van de tijd die nodig is om uw website te laden, ook wel de website snelheid genoemd.
Gebruikers vinden pop ups op volledig scherm vervelend en Google ook. Pop-ups, die worden geladen zodra een gebruiker een pagina binnenkomt, verdrijft ze en is een actie die wordt bestraft door Google (het is in strijd met de richtlijnen van Google). Een beter alternatief is om een Exit-pop-up te gebruiken (weergegeven wanneer gebruikers de pagina proberen te verlaten). Een fly-out-pop-up, die wordt weergegeven wanneer gebruikers een aantal seconden op de pagina blijven of wanneer ze naar een bepaald deel van de pagina navigeren, is ook een optie .
Een leuke manier om gebruikers op uw website te houden en de bouncing rate te verlagen, is door hun aandacht te trekken door middel van een uitklapvenster. Dit is een techniek, die door veel websites (meestal nieuwspublicaties) wordt gebruikt, omdat het een geweldige manier is om gebruikers uit te nodigen om meer pagina’s van uw website te bezoeken. Fly out-vensters kunnen op veel manieren worden gebruikt.
Een webpagina vol advertenties is in strijd met de richtlijnen voor webmasters van Google en biedt een slechte ervaring voor de gebruikers. In tegenstelling tot wat veel mensen denken, zal het gebruik van te veel advertenties niet leiden tot meer advertentie klikken, maar tot een hoger bouncepercentage en gebruikers, die uw website verlaten en niet meer bezoeken. Wat belangrijk is, wanneer u meer geld wilt verdienen met AdSense (of andere vormen van advertenties), is de plaatsing van de advertenties en niet het aantal advertenties, dat u op een pagina heeft.
Een andere techniek om gebruikers aan te moedigen om met uw content te communiceren en meer pagina’s van uw website te bezoeken, is door interne links te gebruiken. Interne links helpt gebruikers niet alleen meer over een bepaald onderwerp te lezen, maar het is ook goed voor SEO en de bounce ratio.
Elke pagina, die u op uw website heeft, moet een doel hebben. Het doel van een landingspagina kan zijn om een product of dienst te verkopen. Het doel van een andere pagina kan zijn om meer e-mailabonnees te krijgen. U kunt een blogpost ook gebruiken om gebruikers om te leiden naar een andere pagina op uw website. Dat doel moet vanaf het begin aan de gebruiker duidelijk worden gemaakt en een manier om dit te doen, is door verschillende call to action berichten te testen. Dit betekent verschillende berichten proberen, verschillende kleuren, verschillende posities totdat u erachter komt wat meer interacties veroorzaakt.
Wat is de relatie tussen paginatitels en beschrijvingen en het verlagen van de bounce rate van een pagina? Het heeft te maken met het creëren van de juiste gebruikersverwachtingen, zelfs voordat gebruikers uw pagina bezoeken. Wanneer gebruikers vanuit Google Zoeken op uw link klikken, doen ze dit vanwege, wat ze in uw titel en beschrijving lezen. Als uw content niet levert wat in de titel of beschrijving is beloofd, is het bounce percentage hoog. Dus probeer bij het maken van uw titels en metabeschrijvingen geen gebruikers te misleiden, want uiteindelijk zal dit de tegenovergestelde resultaten opleveren.
Het is niet langer de jaren 90 toen een webpagina slechts tekst op een pagina was. In de wereld van vandaag moet u de lezer bij de hand nemen. Gebruikers vinden het niet leuk om tekst op een pagina te zien. Doe wat werk op uw pagina om gebruikers de goede kant op te wijzen. Voeg de juiste koppen en afbeeldingen toe en verfraai uw tekst met kleine alinea’s, vet en cursief. Dit verhoogt de leesbaarheid, tijd op locatie met als gevolg een lagere bounce rate.
Ik heb hierboven vermeld, dat een manier om uw bounce rate te verlagen, is om gebruik te maken van fly out-vensters en om gebruikers andere content aan te bevelen, die ze mogelijk interessant vinden. Hoewel dit een zeer efficiënte manier is, is een andere methode om gebruikers opties te geven over wat ze vervolgens moeten doen.
Goede voorbeelden zijn onder meer:
Ik gebruik de bovenstaande technieken van tijd tot tijd, afhankelijk van wat mijn zakelijke doelen zijn.
‘Last but not least’, vergeet niet dat wat de gebruikers op een pagina en website in het algemeen houdt, de kwaliteit van uw content is. Op voorwaarde, dat u geen van de fouten maakt, zoals hierboven uitgelegd, is de belangrijkste factor de kwaliteit van uw content. In feite kan de bounce rate u helpen evalueren hoe goed uw content is.
Een pagina, die snel laadt, geen pop-ups heeft die bij het laden worden weergegeven en niet vol advertenties staat en content heeft, die gemakkelijk te lezen is maar toch een hoge bounce rate heeft, is een signaal om de content van uw pagina nodig te verbeteren. Wat u kunt doen, is uw koppen wijzigen en ze zinvoller maken. U kunt uw content herschrijven om gebruikers de informatie te geven, die ze nodig hebben.
Een goede plek om te beginnen is om naar het ‘prestatierapport’ in Google Search Console te kijken en te achterhalen op welke zoekwoorden uw pagina klikken heeft ontvangen. Evalueer uw content op basis van waar gebruikers naar zoeken en breng wijzigingen aan die overeenkomen met de gebruikersintentie.
Het bouncepercentage is een belangrijke maatstaf om naar te kijken, terwijl u de efficiëntie van uw website evalueert. Het correct identificeren van welke pagina’s een hoge bounce rate hebben en acties ondernemen om dit te verminderen, is een stap om uw website nuttiger te maken voor gebruikers. Een van de voordelen, daarvan is een betere SEO ranking omdat bezoekers langer op uw website blijven, door meer pagina’s navigeren en zo het pogo-sticking- effect verminderen, wat uw SEO negatief kan beïnvloeden. Zorg er bij het analyseren van de bouncing rate van een pagina in Google Analytics voor, dat deze een behoorlijk aantal bezoeken (en paginaweergaven) heeft, anders zijn de resultaten mogelijk niet 100% nauwkeurig. Zodra u een wijziging op een pagina aanbrengt, vergelijkt u dezelfde periode, dat wil zeggen 28 dagen, voor en na het maken van de wijzigingen om te zien of de bounce rate van die pagina is verbeterd of niet.
Herman Geertsema is de eigenaar van SEO en Content Marketing bureau Connect your World gevestigd in Den Haag. Hij is een ervaren freelance SEO specialist en Content Marketing expert. Hij kan u alles vertellen over de Bounce rate.
Bij Connect your World kunt u ook een Content marketeer en SEO expert inhuren in de volgende regio’s:
Heeft u een vraag over uw bounce rate? Of wilt u ons inhuren als tekstschrijver of als SEO expert? Neem dan contact met ons op. Uw SEO laten doen is ook een optie. Zo houdt u meer tijd over om te ondernemen.
Bij SEO bureau Connect your World uit Den Haag is een SEO scan van uw website gratis. Grijp die kans!
Connect your World
Dr. J. Pressserstraat 313
2552 LW Den Haag
E-mail en Telefoon
herman.geertsema@connectyourworld.nl
Tel: 06-41226543
Juridisch
KVK-nummer: 73081892
SEO bureau Connect your World, Den Haag (2022)
WordPress in meerdere talen met WPML