Goedendag,
Ik had een vraag omtrend content en zoekmachine`s.
Wat is volgens jullie beter:
Een website met unieke teksten die in totaal uit bijvoorbeeld 1000 woorden bestaan. Of een website met 30.000 woorden gekopierd van wikipedia (natuurlijk volgens voorwaarden met bronvermelding en alles erop en eraan).
Ik twijfel hierover omdat: Content is king hoevaker het zoekwoord op jou site voorkomt hoe hoger je komt,
maar unieke teksten zijn erg goed voor de SEO omdat ze uniek zijn.
Het is wel zo dat wikipedia miljoenen gebruikers heeft die de teksten aanpassen dus als ik vandaag alles kopier volgens de voorwaarden op mijn site zet en morgen past een van de leden de wikipedia teksten aan en mijn teksten niet dat heb ik ook unieke teksten.
Wat is jullie mening hierover?
mvg
M. van Kuyck
- Wikipedia
-
28-12-2009, 11:56 #1
- Berichten
- 171
- Lid sinds
- 16 Jaar
Wikipedia
-
28-12-2009, 11:58 #2
- Berichten
- 1.864
- Lid sinds
- 17 Jaar
Ik vermoed dat de teksten van wikipedia zodanig veel gekopieerd worden dat het enorm moeilijk is om te ranken met die teksten. Unieke content is altijd veel beter.
-
28-12-2009, 12:33 #3
- Berichten
- 171
- Lid sinds
- 16 Jaar
Daar heb je inderdaad wel gelijk in, dat dacht ik ook alleen zijn er mensen die zeggen van:
wiki. heeft miljoenen gebruikers dus die teksten worden zovaak gewijzigd dat ze altijd wel uniek blijven ook als je ze kopierd want je kopiert vandaag die tekst en morgen is hij op wike alweer anders als hij dan weer gekopierd wordt heeft die persoon dus een andere tekst als ik.
-
28-12-2009, 12:35 #4
- Berichten
- 145
- Lid sinds
- 15 Jaar
Het zou me niet verbazen als zoekmachines een algoritme hebben ingebouwd dat kopieën van Wikipedia-pagina's uit de zoekresultaten filtert, inclusief de pagina's met eerdere versies van de Wikipediatekst.
Maar ik weet dat dus niet zeker.
-
28-12-2009, 15:59 #5
- Berichten
- 54
- Lid sinds
- 15 Jaar
Dat zou misschien wel eens best kunnen, Peter.
Maar ook hier zeg ik altijd: zorg voor unieke content.
Zogenaamde duplicate content (lees: kopiëren van andere websites, twee verschillende url's met dezelfde content op je eigen website, ...) is de doodsteek voor je website of zeker en vast de desbetreffende pagina in Google.
-
28-12-2009, 17:55 #6
- Berichten
- 171
- Lid sinds
- 16 Jaar
het lijkt mij dus verstandig om wikipedia over te typen al wordt dit wel een hele grote klus.
Ik heb zelf 20 domeinen waar allemaal een financiele website op komt later worden deze voor de verkoop maar ik wil ze eerst bekend maken zorgen voor een perfecte SEO en een stabiel inkomen.
Alle 20 de domeinen zijn van mij maar google weet dit natuurlijk niet mijn vraag is dus:
Moet ik de teksten dan ook nog eens 20x uniek gaan maken voor 20 domeinen?
-
28-12-2009, 18:22 #7
- Berichten
- 54
- Lid sinds
- 15 Jaar
Google weet meer dan je denkt.
Elke website waar je op komt waar analytics geinstalleerd is, weet Google wie je bent.
Als je ook 20 sitemaps gaat maken op één webmaster account, weet Google wie je bent.
Big brother is watching you.
Waarom zou je ook 20 domeinen gaan nemen?
Als je ze écht bekend wil maken, lukt je dat nooit voor alle 20. Er zitten namelijk maar 24 uur in een dag.
Je website bekend maken begint bij het leggen van contacten. Zeggen dat het al moeilijk is om contacten te leggen voor 1-2-3 websites, (lees: geen spamberichten, maar relaties opbouwen) is dit niet te doen voor 20 websites.
Wat je wél kan doen is.
één website maken en de 19 andere domeinen daar het één primair domein laten verwijzen.
-
29-12-2009, 08:55 #8
- Berichten
- 171
- Lid sinds
- 16 Jaar
dus als ik goed begrijp,
Wanneer ik 20 website`s heb en ik installeer overal google analytics dan weet google wie ik ben?
ik hoef dus geen 20 unieke teksten te gaan schrijven?
Elke site krijgt zo`n 450 subdomeinen die allemaal naar elkaar verwijzen je krijgt dus 450 x 20 = 9000 subdomeinen die allemaal naar elkaar wijzen de content van al deze domeinen wordt via xml (rss nieuws) dagelijks meerdere malen bijgewerkt.
Voor het bekend maken ervan gaat er een grote nieuwsbrief verstuurd worden naar alleen opt-in adressen van de website`s die het voor mij versturen en banners adwords enz. heb ik ook al geregeld.
20 site`s bekend maken is inderdaad een zware taak maar met genoeg financien en de juiste "hoeveelheid" personen zeker niet onmogelijk.
alleen twijfel ik nog over de teksten ik ben er al achter dat ze allemaal uniek gemaakt gaan worden,
maar kan ik die unieke teksten wel op 20 domeinen zetten of moeten ze dan nog een keer 20x uniek?
-
29-12-2009, 10:02 #9
- Berichten
- 1.026
- Lid sinds
- 17 Jaar
20 domeinen betekent 20 unieke teksten. Dus niet 1 keer unieke teksten laten maken en dan op 20 domeinen zetten, want dan is het niet meer uniek he. Lijkt me logisch.
-
29-12-2009, 11:39 #10
- Berichten
- 145
- Lid sinds
- 15 Jaar
Waarom denk je dat je met 20 domeinen meer resultaat zult boeken dan met één domein dat goed in elkaar zit en bulkt van de unieke content?
Meer is niet altijd beter!
-
29-12-2009, 17:53 #11
- Berichten
- 171
- Lid sinds
- 16 Jaar
20 website`s is natuurlijk altijd beter dan 1 website wij hebben nu een aantal teksten met in totaal 20.000 woorden en deze 20.000 woorden hebben we al 3x opnieuw (dus op een andere manier geschreven) we zijn dus al met 3 website`s klaar.
Als je eenmaal alle dingen die je wil communiceren hebt gevonden dan is het opnieuw typen van de tekst niet zo enorm veel werk meer. Het meeste werk is het zoeken van de dingen die je wil vertellen en hoe je ze wil vertellen.
Als de website`s draaien dan worden deze bedoeld voor de website heb ik 20 goed lopende website`s dan kan ik er meerdere verkopen focus ik me maar op 1 website dan kan ik hem max. 1x verkopen.
Ook heb ik nu 20 x 450 subdomeinen waardoor alles op grote hoeveelheden via backlinks met elkaar verbonden is (soort spinnenweb van subdomeinen)
-
29-12-2009, 17:58 #12
- Berichten
- 1.026
- Lid sinds
- 17 Jaar
Die backlinks helpen ook alleen maar als de 20 websites ook daadwerkelijk allemaal op verschillende webservers staan. Anders heb je er nog niets aan. Dus ik moet echt meegaan met Peter, dat je beter 1 website kan maken waar het bulk van de unieke en relevante content.
-
30-12-2009, 13:06 #13
- Berichten
- 171
- Lid sinds
- 16 Jaar
Allemaal bedankt voor de vele reacties ik denk dat behalve ik ook andere mensen aan dit topic veel hebben, wie heeft er tegenwoordig nog een website zonder tekst? Dus voor iedereen kan dit interessant zijn.
Wat ik me zat af te vragen het komt er in dit topic op neer dat je moet zorgen voor unieke content (zelf geschreven teksten) en als je zelf 20 domeinen hebt dan moet je dus ook 20 unieke teksten hebben.
Maar hoe zit het dan met dingen zoals bijvoorbeeld nieuwsdiensten je hebt in Nederland een aantal enorme grote nieuwsdiensten die nieuws leveren aan televisie radio maar ook internet wat mij opvalt is dat de teksten overal het zelfde zijn. Dit is dus ook niet uniek maar de grote site`s doen het wel.
Een voorbeeld is ook autoweek deze website is toch wel een van de beste autosite`s als het om nieuws gaat maar hun testverslagen rijtesten nieuwsitems enz. zijn ook te vinden op bijvoorbeeld een topsite als marktplaats en nu.nl
Dingen zoals insluiten van teksten (youtube begon met embedden van filmpjes) nu zie je op grote website`s staat dat je hun tekst kan "embedden" op je eigen hyves , twitter , facebook . nujij enz.
Wat ik me dus afvraag als alle grote site`s in Nederland hun teksten juist zoveel mogelijk verspreiden en ze zo min mogelijk uniek maken hoeveel waarde heeft het dan dat ik voor 20 website`s of laat staan 1 website 20.000 woorden uniek ga typen?
-
30-12-2009, 16:36 #14
- Berichten
- 54
- Lid sinds
- 15 Jaar
Het is zo dat deze grote websites énorm gegeerd zijn bij google.
Als je bijvoorbeeld in google intikt: cache:nujij.nl (ik doe het even zelf) dan krijg je voor de homepagina van nujij.nl:
Dit is Google's cachegeheugen van http://www.nujij.nl/. Dit is een momentopname van hoe de pagina eruitzag op 30 dec 2009 15:57:31 GMT
Dat betekent dus dat Google minder dan anderhalf uur geleden deze webpagina heeft gecheckt. Google komt er dus hééél vaak langs.
Stel je nu voor dat een andere nieuwssite datzelfde bericht dat nujij.nl vanmiddag schreef, vanmorgen al heeft geschreven.
Maar Google komt die andere nieuwssite pas morgen voor het eerst bezoeken, dan is nujij.nl nog altijd de eerste zogezegd, en wordt de andere nieuwssite gezien als website die het artikel heeft gekopieerd. (tenzij google al een algoritme heeft om de datum van publicatie uit de pagina te filteren).
Als jij dan met jouw nieuwssite (kleiner dan beide anderen) een uniek, sterk en kwalitatief artikel over datzelfde onderwerp gaat publiceren, dan ziet de stand er waarschijnlijk zo uit:
1. Nujij.nl
2. Jouw nieuwssite
3. De andere nieuwssite die 'zogezegd' van nujij heeft gekopieerd.
Natuurlijk zal het er zo in de werkelijkheid niet uit zien, want in de werkelijkheid tellen nog tal van andere factoren mee (links, structuur enzovoort), maar dit zou dus de stand zijn als we enkel het aspect duplicate content gaan bekijken voor de 3 websites.
Plaats een
- + Advertentie
- + Onderwerp
Marktplaats
Webmasterforum
- Websites algemeen
- Sitechecks
- Marketing
- Domeinen algemeen
- Waardebepaling
- CMS
- Wordpress
- Joomla
- Magento
- Google algemeen
- SEO
- Analytics
- Adsense
- Adwords
- HTML / XHTML
- CSS
- Programmeren
- PHP
- Javascript
- JQuery
- MySQL
- Ondernemen algemeen
- Belastingen
- Juridisch
- Grafisch ontwerp
- Hosting Algemeen
- Hardware Info
- Offtopic