SEO voor Angular, Polymer en React volgens Google

  • Google heeft dit jaar in zijn conferentie uitgelegd hoe zijn Googlebot omgaat met websites die geprogrammeerd zijn in de nieuwe javascript frameworks zoals Angular, Polymer en React. Bovendien leggen ze ook uit hoe de crawler omgaat met Lazy loading van images en one-page apps.


    Indrukwekkend en tegelijk verontrustend.


    De belangrijkste dingen die ik onthouden heb:
    - Google gebruikt een oude versie van Chrome (van 2015) om je website te renderen. Gebruik dus zeker niet altijd de nieuwste functies in je websites.
    - Google indexeert je website 2x: de eerste keer met alles wat in je html leesbaar staat. Dan komt je site in een grote wachtlijst te staan (door gebrek aan capaciteit bij Google) en wordt je website gerendered in die oude chrome. Dan krijg je een 2de indexering en dan pas komen deze javascript websites goed in Google te staan.
    Er is dus een significante vertraging.
    - Lazy loading van images, endless scrolling pages (pagina's waarin je kunt blijven scrollen) etc hebben wel degelijk regelmatig problemen bij de indexering.
    Voor images kun je ze best alsnog bv in een noscript tag laden. ?(


    Kortom: wel eens de moeite om te zien. Het valt mij vooral op hoe Google heel goed is om nieuwe coole dingen te ontwerpen, maar dat hun eigen zoekmachine totaal nog niet klaar is om ze correct te indexeren. Hun zoekmachine heeft zware vertraging...


    External Content www.youtube.com
    Content embedded from external sources will not be displayed without your consent.
    Through the activation of external content, you agree that personal data may be transferred to third party platforms. We have provided more information on this in our privacy policy.

Participate now!

Heb je nog geen account? Registreer je nu en word deel van onze community!