Volgens mij heeft iedereen er wel last van, het schrijven van unieke content. Het blijft altijd een lastig verhaal. Daarom waardeer ik altijd de vele bloggers die veel tijd en energie steken in post die van een hoog orginaliteitsfactor is, (veel blogs posten alleen maar informatie wat ook al op andere blogs staat geschreven).

Zoals de meesten wel weten heb ik de website voor het inhuren van een Zwarte Piet. Op deze website heb ik jarenlang ook een vriend gepromoot. Hij is namelijk een goochelaar en daarmee ook beschikbaar als goochel Zwarte Piet, via de website kon ik hem gemakkelijk helpen aan opdrachten om kinderen te vermaken met zijn acts. Helaas heb ik de webpagina van de goochel Zwarte Piet verwijderd omdat deze dus niet meer bestond. De content op de site heb ik met veel pijn en moeite zelf geschreven, creatief ben ik, maar nu nog met goed lopende zinnen…dat vind ik een echte kunst en hierbij dus ook mijn advies om gebruik te maken van tekstcontroleurs of taalbureau’s voor het schrijven van (web)content.

In een post van een paar weken terug schreef ik over het voordeel dat image search mij bood. Hier kwam ik erachter dat orginele foto’s (waar ik veel voor heb betaald) gewoon letterlijk gebruikt worden op andere sites. Vandaag kom ik een andere versie tegen waar volgens mij meer mensen last van hebben, copyscraping. De website in kwestie is een bookingssite die, zoals de website beschrijft ‘pieten verhuurd’. Op deze pagina kwam ik letterlijk mijn tekst tegen, hoezo unieke content? Gelukkig heb ik de tekst nog bewaard in mijn database en kan ik deze zo terugvinden.

Maximaal Bookings, maximaal gescrapte content

Maximaal Bookings, maximaal gescrapte content

Hoe gaat een zoekmachine hier mee om? We weten dat orginele zoekmachinevriendelijk geschreven content goed kan scoren in de zoekresultaten bij Google…maar ik vraag me af hoe Google weet waar de ‘orginele content’ vandaan komt? Het is namelijk erg frustrerend om te zien dat een website een goede top 10 positie behaald met content die zijn niet zelf geschreven hebben, boeven zijn het ;). Hoe lang gaat het nog duren voordat zoekmachines binnen hun algoritmes een methode vinden om duplicate content op twee verschillende sites weten te bestraffen.

Een idee zou kunnen zijn dat content die als eerst gevonden gevonden wordt als ‘uniek’ wordt beschouwd. Dit is alleen weer niet 100% betrouwbaar. Hoe ga je bijvoorbeeld om met websites die hun content beschikbaar hebben op een site die volledig in Flash is ontwikkeld of waar een ‘noindex’ op aanwezig is. Is dan de eerste ‘gevonden’ website met content dan wel het orgineel? Lijkt me niet.

Gelukkig weet de website van Maximaal Bookings hier niet optimaal gebruik te maken van alle zoekmachine optimalisatie mogelijkheden en kunnen we hem er altijd bij helpen, alleen ik doe het niet.

Naast mijn vraag over het omgaan met dergelijke problemen zie ik vooral moeilijkheden voor bedrijven waarvan er in Nederland of zelfs wereldwijd veel van zijn. Denk alleen al aan verzekeringsbedrijven en tussenpersonen die met z’n allen een tekst moeten schrijven over een ‘autoverzekering’?

Ik begin er maar niet aan…geef mij maar gewoon de niches.

Comments are closed.