Ik wil een aantal url's verwijderen in google.
Ze krijgen allemaal een 404 error en zo ziet mijn robots.txt eruit:
User-agent: *
Disallow: /cgi-bin/
Disallow: /tag/
Sitemap: http://www.url.nl/sitemap.xml
Ik heb op verschillende websites een check laten uitvoeren en snap er geen drol meer van.
De ene website zegt dat er nog een allow bij moet en de ander zegt weer dat ik niks block ...
Wat is het probleem?
- Content verwijderen in google met behulp van robots.txt
-
17-07-2012, 18:36 #1
- Berichten
- 808
- Lid sinds
- 16 Jaar
Content verwijderen in google met behulp van robots.txt
Plaats een
- + Advertentie
- + Onderwerp
Marktplaats
Webmasterforum
- Websites algemeen
- Sitechecks
- Marketing
- Domeinen algemeen
- Waardebepaling
- CMS
- Wordpress
- Joomla
- Magento
- Google algemeen
- SEO
- Analytics
- Adsense
- Adwords
- HTML / XHTML
- CSS
- Programmeren
- PHP
- Javascript
- JQuery
- MySQL
- Ondernemen algemeen
- Belastingen
- Juridisch
- Grafisch ontwerp
- Hosting Algemeen
- Hardware Info
- Offtopic