Trouw niet eens met verwijdering uit Google
Begin november meldde Arjan Dasselaar als eerste dat de gehele website van Trouw uit Google gegooid was. Nu we een maand verder zijn is dat verholpen en staat de site er weer als vanouds in.
Het is al eerder voorgekomen dat sites uit de zoekmachine zijn verbannen, dit kan te maken hebben met het gebruik van illegale technieken zoals Arjan in het artikel al zegt. Of in andere gevallen door menselijke fouten aan de kant van de website zelf zoals gebeurde bij Tweakers.net zoals Ruben opmerkt.
Wat is dan de oorzaak bij Trouw geweest? Het lijkt er op dat er 2 layers in de pagina’s hebben gestaan die links bevatten naar andere artikelen. Deze layers werden verborgen met behulp van CSS en dat is een methode die Google niet waardeert aangezien deze ook vaak gebruikt wordt door notoire spammers. Vermoedelijk is deze techniek door iemand aangegeven via het Google spamreport en heeft Google daar vervolgens adequaat op gereageerd.
Trouw reageert hier 2 dagen geleden op met een artikel waarin ze melden dat het probleem inmiddels opgelost is. Er zouden contacten gelegd zijn met de PR afdeling van Google waardoor vervolgens binnen enkele dagen de ban opgeheven zou zijn. Ook wordt er een reactie gegeven op de gebruikte techniek:
Nu wil het dat bij Trouw die trefwoorden er niet stonden om vaker bij zoekopdrachten van Google gevonden te worden. Ze stonden er omdat de pagina’s anders moeilijk bruikbaar werden voor internetters die een bepaald programma nog niet op hun pc hebben staan. Die service kwam ons dus ’duur’ te staan.
Welk programma die extra links nodig heeft is mij persoonlijk onduidelijk, maar het feit is dat het op een andere manier opgelost had moeten worden dan de oplossing met de verborgen layers.
Verder gaat Trouw in op het feit dat Google met deze manier van verbannen kleinere sites zwaar kan benadelen omdat die geen actieve ICT’ers in dienst, en geen groot netwerk achter ze hebben. Hier ben ik het persoonlijk niet mee eens, als je niets verbergt op wat voor manier dan ook zul je nooit in de problemen komen. En als je echt serieus met zoekmachine marketing bezig bent heb je een gespecialiseerd bureau/ persoon ingeschakeld die nooit ‘foute technieken’ zal gebruiken.
Zou dit weer een publieke executie geweest zijn net zoals BMW Duitsland waarmee Google de webbeheerders even weer alert wil maken?
ik blijf dit soort gevallen toch verdacht vinden hoor. Welk zichzelf respecterend webbureau/persoon weet nou niet dat dit soort technieken niet bepaald gewaardeerd worden? (nog even in het midden latend wat de reden voor toepassing was)
Het is alleen maar goed dat Google er alert iets aan probeert te doen. Het is nou ook niet bepaald zo dat Google ontoegankelijk of onredelijk is. imho een goede actie dus.
Mee eens dat dit soort technieken niet gebruikt mogen worden.
De stelling van Trouw zou ik eerder willen omkeren. Het zijn niet de kleine sites die in het nadeel zijn, maar juist de grote bedrijven die het voordeel hebben van meer mogelijkheden om een ban ongedaan te maken, bijvoorbeeld door intensief contact met Google zelf.
Het siert Trouw in elk geval dat ze hier op een open manier aandacht aan besteden, het waarschuwt elke websitebouwer dat dit soort trucs anno 2006 toch echt niet meer kunnen.
Met css een layer met trefwoorden verbergen omdat ‘internetters een bepaald programma nog niet op hun pc hebben staan’?? Zo’n raar verhaal heb ik nog nooit gehoord. Ik geloof er geen snars van. Die hebben dus iets te verbergen.
In de column klinkt het allemaal een stuk spannender dan het in werkelijkheid was. Ze hadden gewoon op elke pagina de categoriën die in de “echte” krant gebruikt worden als verborgen tekst opgenomen (de verdieping, natuurtochten, filosofie, …).
Mijn gok is dat het automatisch door Google gedetecteerd is en het niet een handmatige ban is geweest, voornamelijk door de snelheid waarmee Google *opeens* op reinclusion requests reageert. Vorige week heb ik reinclusion requests ingediend voor twee andere grote sites die om twijfelachtige redenen gebanned waren en die werden direct de volgende dag teruggeplaatst zonder verder contact met Google. Normaal gesproken moet je daar minimaal een maand voor wachten.
Ik blijf dat toch dubieus vinden van Google. Niet alle verborgen content heeft direct te maken met zoekmachinemisleiding. Wat als je bijvoorbeeld verschillende stylesheets hanteert, een voor scherm en een voor print, zodat je bij op het scherm sommige tekst verbergt die bij het afdrukken wel wordt getoond (contactinformatie bijvoorbeeld)?
“als je niets verbergt op wat voor manier dan ook zul je nooit in de problemen komen.”
Hier wil ik het niet mee eens zijn. In deze tijd van xml, en scheiding van content en presentatie kan het best legitiem zijn content onder bepaalde voorwaarden niet te tonen. Ik noem maar een gespecialiseerde ‘eigen’ user agent of een raadsel-site waar je het antwoord wilt verbergen.
Als Google nu uit zou gaan van het motto “wat je niet ziet indexeren we niet” in plaats van “wat je niet ziet is misbruik” dan kan ik lekker innoveren met xml en heeft misbruik op deze wijze ook minder zin.
@Anders en Tobi, ik snap jullie argumenten wel, maar waar ligt de grens? Google blijft nou eenmaal afhankelijk van algoritmes die zaken bepalen. En die algoritmes zijn naar mijn mening al heel erg geavanceerd. Daarom moeten er scheidslijnen getrokken worden die aangeven wat wel en niet kan, en de legitieme zaken die jullie noemen zouden dan op een andere manier opgelost moeten worden. Er zijn nou eenmaal zaken die op exact dezelfde manier zowel legaal als illegaal toegepast worden.
@André, vandaar mijn laatste opmerking: Imiteer een gewone browser en indexeer alleen wat zichtbaar is voor iedereen. Volgens mij bereik je daarmee nog meer dan dat je – zoals nu – een schemergebied over laat waarbinnen je al dan niet je gang kunt gaan en al dan niet geblokkeerd wordt door Google.
Maar hoe bepaal je wat zichtbaar is en wat niet? Ik kan een zwarte achtergrond gebruik met zwarte letters. Maar daar vervolgens wel een wit achtergrondplaatje in stoppen.
Ik kan een layer op left: -100px zetten en vervolgens de text-indent op 150px. Dan is de tekst zichtbaar, maar hoe bepaal je dat.
Er zitten gewoon technische grenzen aan wat bepaald kan worden en wat niet.
Bij Google zitten toch slimme jongens en meisjes? 🙂
In mijn scenario doelde ik met name op het eenvoudige display: none. De voorbeelden die je noemt zijn volgens de huidige indexeerwijze van Google (waarschijnlijk) ook niet automatisch te achterhalen dus maken feitelijk geen verschil. (Al moet het tweede voorbeeld niet zo moeilijk zijn.)
Mij gaat het er vooral om dat *als* Google detecteert dat tekst onzichtbaar is, nu (waarschijnlijk) wordt besloten dat het misbruik is terwijl Google ook kan besluiten dat deel niet te indexeren.
Even wat dingen de wereld uithelpen.
Google licht gebruikers wel in, mits je gebruik maakt van hun webmastertools.
Tabjes niet laten zien is geen Cloaking, dat is informatie niet laten zien maar wel beschikbaar hebben. (en zal Google ook niet zo snel bestraffen, net als dropdown menu’s.)
Google raad ook het gebruik van prints tylesheets niet aan op de manier zoals jij het verteld Anders.
Verder bestraft Google je niet, ze halen je alleen uit de index omdat je niet aan hun richtlijnen voldoet, wat je met je site doet moet je helemaal zelf weten.
Verder ben ik het met ulco eens dat het waarschijnlijk een algoritmische ban is geweest ipv een handmatige ingreep.
@Roy – Trouw maakt gebruik van Adsense maar zegt taal noch teken van Google hebben ontvangen.
Voor het geval dat niet duidelijk is: je wordt niet “gestraft”* omdat je sec verborgen tekst op je site hebt staan. Je wordt gestraft als je bijvoorbeeeld op 259.000 pagina’s exact dezelfde tekst zonder structuur of logica hebt staan, ook nog eens verborgen. De discussie van Anders hierboven probeert te voeren is dan ook totaal niet relevant (sorry :)), het bestraffen van het gebruik van verborgen elementen is helemaal niet aan de orde.
* Ook ik ga ervan uit dat dit eerst automatisch is opgemerkt door Goolgle, en dat eventueel een spam-checker-mens op de grote rode kill knop heeft gedrukt toen het voorbeeld hem onder ogen kwam.
Het is denk ik erg goed dat er over gediscussieerd wordt. Echter is het wel zo dat Google in deze bepaald wat er gebeurt. Je hebt je er dus simpelweg bij neer te leggen.
Wat betreft de xml-varianten, printversie en css aanpassingen: Het kan legitiem zijn maar ook zeer goed weer niet. Ik kan het ook weer wel begrijpen dat een bedrijf als Google ergens een lijn moet trekken. Ook moeten ze daar erg ” hard” in zijn omdat er van die slimme gasten zijn die overal wel weer een antwoord op vinden.;-)
Wat trouw heeft gedaan ( of diegene die dat voor ze deed) was niet netjes.
Wat me wel opvalt is dat je als grote partij met wat druk snel weer terug bent. Kleinere partijen hebben die mogelijkheid denk ik niet….
Gerelateerde artikelen
Marketingfacts. Elke dag vers. Mis niks!
Marketingfacts. Elke dag vers. Mis niks!