Ik wil een aantal url's verwijderen in google.
Ze krijgen allemaal een 404 error en zo ziet mijn robots.txt eruit:
User-agent: *
Disallow: /cgi-bin/
Disallow: /tag/
Sitemap: http://www.url.nl/sitemap.xml
Ik heb op verschillende websites een check laten uitvoeren en snap er geen drol meer van.
De ene website zegt dat er nog een allow bij moet en de ander zegt weer dat ik niks block ...
Wat is het probleem?
- Content verwijderen in google met behulp van robots.txt
-
17-07-2012, 18:36 #1
- Berichten
- 808
- Lid sinds
- 17 Jaar
Content verwijderen in google met behulp van robots.txt
-
In de schijnwerper
Professionele tekstschrijver (actie: 2,5 cent per woord)Freelance / WerkWhite label diensten (WordPress/ Divi/ Webhosting)Freelance / WerkTe Koop: Gratisproduct.nl – Jouw Sleutel tot Succes in de Online Wereld!Website te koopTe koop protogoto.nl - service marktplaats - t.e.a.b.Website te koop
Plaats een
- + Advertentie
- + Onderwerp
Marktplaats
Webmasterforum
- Websites algemeen
- Sitechecks
- Marketing
- Domeinen algemeen
- Waardebepaling
- CMS
- Wordpress
- Joomla
- Magento
- Google algemeen
- SEO
- Analytics
- Adsense
- Adwords
- HTML / XHTML
- CSS
- Programmeren
- PHP
- Javascript
- JQuery
- MySQL
- Ondernemen algemeen
- Belastingen
- Juridisch
- Grafisch ontwerp
- Hosting Algemeen
- Hardware Info
- Offtopic