Op WordCamp 2022 gaf Joost de Valk, van Yoast, een presentatie met tips voor een energiezuinige website. Websites waarmee u duurzamer kunt zijn. Ook als het een site is waar maar 5 pagina’s op staan en die u nooit voorziet van nieuwe content is het belangrijk daar aandacht aan te besteden. De impact van spider bots is enorm. Wij laten u zien hoe groot precies.

Wat heeft een website met het milieu of duurzaamheid te maken?

Bedenk dit: uw website draait op een server. Die server staat dag en nacht aan en serveert de site(s) aan webbezoekers en spider bots. Dat kost stroom. Veel stroom. En bij het maken van die stroom wordt CO2 uitgestoten. Niet voor niets komen er zoveel tegengeluiden als er weer ergens een datacenter gebouwd moet worden. Al die servers bij elkaar gebruiken namelijk gigantische hoeveelheden energie. Dan hebben we het nog niet eens over de grondstoffen die nodig zijn voor de bouw en het onderhoud van een serverpark. Eigenaren van servers en serverparken kunnen veel doen om alles wat groener en duurzamer te maken. Als website eigenaar kunt u ook veel doen. En het mooie? U hoeft er niet voor te kunnen programmeren.

Tip: Lees meer over impact van digital op ons klimaat op de site van Theo van der Zee en lees ook hoe wij dat doen als 200% groene hostingpartij

Er zijn miljoenen websites, alleen al in Nederland, die op Nederlandse servers draaien. Al die websites krijgen bezoekers, van echte personen en van bots. Bots gebruiken algoritmes die voor een bepaald doel uw hele website doorbladeren en de data terugsturen naar andere servers over de hele wereld. En de meeste bots hoeven eigenlijk helemaal niet op uw website te zijn. Want wat hebt u eraan dat uw website in een Chinese zoekmachine te vinden is, als de content bedoeld is voor de Nederlandse markt? Precies. Het uitsluiten van zo’n bezoekje aan bots kan al veel verschil maken. Wij geven u tips voor een energiezuinige website.

Maar mijn website is super klein.

Denkt u nu: mijn website is superklein, wat maakt het uit? Hier een rekenvoorbeeld, van een echte website, overgenomen van de presentatie van Joost. Joost gaat uit van een hele kleine site, met maar 5 pagina’s en een enkel (klein) plaatje. Deze site wordt niet actief voorzien van nieuwe inhoud en heeft volgens google analytics 160 pageviews in 30 dagen (steekproef). De site gebruikt cloudflare.

How you think it’s going:

Rekenvoorbeeld CO2 uitstoot voor een eenvoudige website met dank aan Joost de Valk
Bron: Yoast

How it’s really going:

Grafiek CO2 uitstoot voor een eenvoudige website met dank aan Joost de Valk
Bron: Yoast

Wat zien we: de site krijgt elke dag heel veel requests en die requests kosten stroom. Er zitten bijna 1000x meer requests op deze site dan we denken. Daar zitten zinvolle requests tussen, zoals die van Google en Bing om de website te indexeren. Maar dat hoeft niet elke dag bij een website die amper wijzigt. Daarnaast zijn er heel veel tools op het web, die websites indexeren voor data, zoals Semrush, Ahrefs en andere SEO-tools. En ook die hoeven niet zo vaak een website te crawlen, als u überhaupt de rest van de wereld al wijzer wilt maken over uw website. En: ook hackers hebben bots die door websites heen gaan, op zoek naar kwetsbare plekken.

Niet alleen zichtbare pagina’s worden gecrawld.

Mocht u denken dat alleen de zichtbare pagina’s van uw website worden gecrawld (zoals alle linkjes in uw navigatiemenu) .. ook dat is niet zo. De bots ‘spideren’ heel de server, alles waar ze bij kunnen via de bronbestanden en hints van uw website. Dat zijn dus ook afzonderlijke afbeeldingen, ook de scripts, andere mapjes. Tenzij ze actief geblokkeerd worden, grazen die bots lekker door uw mappenstructuur heen. En dan zijn er nog heel veel URL’s die u niet meteen ziet, maar er wel zijn, zoals datumarchiefpagina’s, auteursarchieven, RSS feeds, URL’s die door API’s gebruikt worden, etc. In de meeste gevallen zijn die voor normaal functioneren niet eens nodig!

Wat is die milieu-impact van websites dan?

Met 0,005 kg per hit, komt ons voorbeeld al snel op 3080 kg CO2 uitstoot. (Noot: deze cijfers hebben we niet gecheckt). Deze uitstoot is gelijk aan het absorptievermogen van 141 bomen per jaar. U kunt het iets gedetailleerder uitrekenen: https://www.websitecarbon.com voor uw eigen website. Inclusief hoeveel stroom het ongeveer kost. Zo heeft onze website een geschat stroomverbruik van 102 kWh op jaarbasis op basis van het geschatte aantal hits. U kunt het gewoon zelf uitrekenen. Als u weet hoeveel hits uw websites hebben en u draait op een eigen server met een eigen stroomrekening en slimme meter, dan is dat een eenvoudig sommetje per hit. Als u dit van heel veel websites bij elkaar optelt, dan begrijpt u wel hoe groot het probleem is en waarom datacenters zoveel capaciteit nodig hebben. Daar zou u dus absoluut zelf iets aan moeten doen. Tips voor een energiezuinige website nodig? Lees verder.

Tip: Weet u al dat wij op groene stroom draaien en servers hergebruiken?

Welke URLs heeft mijn site precies?

Als u uitgaat van 5 pagina’s en 30 blogberichten denkt u dat u dus 35 URLs heeft. De werkelijkheid is helaas gecompliceerder.

Er zijn namelijk ook nog (met gemak) 60 tag pagina’s, 5 categorie pagina’s, 30-40 automatische datumpagina’s en een auteur archiefpagina. Daar komen nog eens RSS feeds per taxonomie en andere archiefpagina’s bij. Tot slot, elke blogpagina heeft weer een RSS commentaren feed, Embedded URLs, shortlink ( zoals site.nl?p=15 ) en een REST API link. Tel maar op, u zit zo al snel op een dikke 600 unieke URLS voor een simpele site!

De meeste URLs worden dus automatisch gegenereerd en aan de HTML bron van iedere pagina toegevoegd zodat ze vindbaar zijn voor spider bots en andere automatische tools. Lees verder hoe u dit kunt aanpakken.

Tips voor een energiezuinige en groene website?

In essentie is het zaak om zo min mogelijk URL’s te hebben op uw website, en er ook maar zo min mogelijk te linken. Dat staat een klein beetje haaks op advies wat vaak van SEO’s afkomstig is, maar doe het alleen als het zin heeft voor de bezoeker en de context. Zoekmachines komen er zelf wel uit via uw sitemap en menustructuur.
Het makkelijk duurzamer en dus groener maken kunt u voor elkaar krijgen op meer dan 1 manier. Wij leggen hieronder uit wat u met de Yoast SEO plugin kunt bereiken, gewoon vanuit je wp-admin beheeromgeving.

De Yoast Crawl instellingen bij “Algemeen” gaan u enorm blij maken. Schakel de REST API uit als u hem niet gebruikt. Weet u dit niet? Test na uitzetten of uw site nog werkt en het sitebeheer ook nog reageert zoals u verwacht.

Illustratie Yoast SEO Crawl instellingen voor een energiezuinige website

Op het moment van schrijven kunt u er de volgende items mee uitzetten die relevant zijn voor het verminderen van uw aantal URLs.
De dikgedrukte items zijn diegenen die wij ook zelf uit hebben staan (dit is vrij behoudend gedaan):

Shortlinks, REST API links, RSD / WLW links, oEmbed links, globale feed ( dit is de RSS feed ), globale reactie feeds ( de RSS voor commentaren ), bericht reactie feeds, bericht auteurs feeds, berichttype feeds, categorie feeds, tag feeds, aangepaste taxonomie feeds ( dit zijn alle extra taxonomieen buiten dus de tags en categorieen ), zoekresultaten feeds, Atom/RDF feeds.

Deze items kunt u makkelijk via de Yoast plugin uitzetten, via Algemeen -> Crawl instellingen. Spider bots hebben zo minder URLs die beschikbaar zijn.

Stap 2: Zorg dat uw bijlage attachment page naar de bijlage zelf doorverwijst.

Als u een plaatje uploadt, is dat plaatje direct oproepbaar via zijn eigen URL. WordPress maakt er echter een extra media pagina van waarin uw bijlage ook te zien is, maar ook de rest van uw site. Via Zoekweergave -> Media kunt u instellen dat u altijd uitkomt op de eigen URL.

Website zo instellen dat u uitkomt op eigen URL en u een energiezuinige website hebt
Via Zoekweergave -> Media kunt u instellen zodat u altijd uitkomt op de eigen URL.

Stap 3: Verzoek spider bots niet meer langs te komen.

Verzoek de bots met een Disallow directive via robots.txt (hier ons eigen voorbeeld) niet meer te komen, dit kunt u makkelijk via Yoast -> gereedschap doen

Stap 4: Blokkeer bots echt volledig.

Als het u lukt, blokkeer bots via .htaccess volledig met een deny op de user-agent (dit is voor geavanceerde gebruikers).

Stap 5: De rest 🙂

  1. Zorg voor goede canonicals op dubbele pagina’s (let op filterpagina’s, campagnetagging uit Facebook en Google en pagination)
  2. Zet ‘last modified’ in XML sitemaps, meestal staat dit al aan.
  3. Zoek een hostingpartij die servers heeft draaien op 100% groene stroom en ook slim omgaat met apparatuur (zoals wij dat doen).
  4. Zorg dat u de laadtijd van uw pagina’s zo laag mogelijk houdt. Dus geen full raw 8 megapixel plaatjes van uw Nikon camera volledig inladen in een blogbericht. Verklein de plaatjes op voorhand. Zie ook de snelheidsblogs op onze site.
  5. Goede caching (zeker voor websites waarvan de content amper verandert). Daarmee is je site sneller en hoeft de server minder zware calculaties uit te voeren. Hiermee bespaar je stroomkosten en uitstoot.

Klarned geeft niet alleen tips voor een energiezuinige website, wij doen meer.

Veel! We blokkeren smerige spider bots al voordat ze op uw webserver komen. Het raden van gebruikersnamen staat ook uit. Dat is een stukje veiligheid en het scheelt weer resources. Caching staat standaard aan en we blokkeren xmlrpc.php al standaard. Ook hebben we steengoede login preventiemaatregelen genomen. Hierdoor komen enkel de legitieme login-pogingen aan op de webserver. De rest blokkeren we al eerder in de keten. En dat spaart weer calculatietijd en dus stroom!

Wij hebben ook gekozen voor de snellere en veiligere versie van TLS encryptie. Hiermee beveiligen we de lijn tussen de websitebezoeker en onze servers. In plaats van de verouderde RSA/DSA gebruiken wij ECC. Door dit te doen zijn de encryptie uitwisselingen efficienter en dus ook sneller.

Ook niet onbelangrijk: we scannen ook op IP-adres reputatie en ongeschikte woorden als er bijvoorbeeld een commentaar op uw site wordt geplaatst. Zo voorkomen we ook hier onnodig rekenwerk en dataverkeer. Wilt u weten wat we qua bedrijfsvoering anders aanpakken dan anderen? Lees dan onze MVO pagina.

Hulp nodig?

Het is soms wat technisch. Hoe ziet uw robots.txt eruit? Wat hebt u zelf nog meer gedaan? Meld het via de reacties. Wist u al dat wij 1 uur snelheidsoptimalisatie gratis voor u beschikbaar stellen bij aanschaf van een Business of NVME WooCommerce pakket?

TLDR;

  • Uw website kost stroom, veel meer dan u denkt. Dat zorgt voor ronkende datacenters, hoge stroomkosten, hoge CO2-uitstoot, verstoring van de natuur, verpest uitzicht van uw leefomgeving. Volg onze tips voor een energiezuinige website op, maak uw website sneller en zorg ervoor dat uw site zo klein mogelijk is, met zo min mogelijk URL’s en zo min mogelijk hits van bots. Verzoek robots niet meer langs te komen (bekijk hier onze robots.txt en zie hoe we o.a. Baiduspider hebben staan) . Als u wilt weten hoe: u leest het in bovenstaande tekst. Hier bronnen: https://www.websitecarbon.com/ en presentatie van Yoast.

Deze blog is geschreven in samenwerking met Yoast