Club para webmasters › Foros › Creación de páginas web › Diferencia NoIndex/Disallow
- Este debate tiene 3 respuestas, 2 mensajes y ha sido actualizado por última vez el hace 2 años, 10 meses por David Cuesta.
-
AutorEntradas
-
Hola, tengo un debate interno que quiero compartir:
Cuando tenemos páginas como contacto, privacidad y toda eso que no queremos indexar veo que la gente pone NoIndex. Vale, ¿pero no es más eficiente el disallow en robots.txt? lo digo porque tengo la creencia de que con NoIndex Google se pasa a ver la página y pierde tiempo. Con robots la ignora y se centra en lo útil.
Yo lo hago así y creo que funciona mejor, pero no lo tengo claro porque miro los robots de otras webs y nadie lo hace. De hecho, la mayoría de robots no tienen nada!…¿qué opináis?,¿me estoy perdiendo algo?
Buenas!
Pues lo estás haciendo mal, te explico la diferencia:Noindex: parte de la URL que le dice a google que no quieres que la indexe
Robots disallow: directiva a nivel raíz que hace que un robot (el bot de google o cualquier otro) no tenga permitido ver el contenido (incluida la etiqueta noindex)
El resultado es que como no ve la etiqueta noindex, entiende que ese contenido que no puede ver sí debe ser indexado, y eso penaliza el rastreo y la calidad de la web.
Un saludo!
Perdona que insista,
He creado una web de 0. Tenemos páginas como «aviso legal». Ese tipo de páginas no aportan nada al SEO ni por contenido ni por enlaces. Por tanto, no me interesa que pierda el tiempo en ellas y desde el minuto 0 le he puesto noindex y disallow en robots.
Mi duda es por dos motivos:
1-En esta web nueva veo que ese tipo de páginas me las ha metido como advertencia con el mensaje «se ha indexado aunque un archivo robots.txt la ha bloqueado». Pero si hago un «site:» esas páginas no están, ¿me está mintiendo?
2-En un proyecto que lleva un año hice lo mismo y ahora están en descartadas y hace meses que no las rastrea. Por tanto, no pierde el tiempo. Si solamente fueran noindex las estaría rastreando (=perdiendo el tiempo).
Entonces mi conclusión es: «las páginas sin interés SEO mejor en disallow porque con el tiempo acaban en descartadas y no las rastrea nunca», ¿cómo lo ves?,¿por qué no es más eficiente?
- Esta respuesta fue modificada hace 2 años, 10 meses por orioricm.
El caso es que sí pierde el tiempo, porque sigue los enlaces, las rastrea y ve que le estás bloqueando.
El mensaje «se ha indexado aunque un archivo robots.txt la ha bloqueado» significa eso, ha entrado, ha visto que no podía rastrearla, por lo que no ha visto el noindex, pero como es una página de muy baja calidad no la muestra en la búsqueda, salvo quizás para algo muy especifico, prueba site:tudominio «url-bloqueada»Para hacer esto bien, primero deja que las rastree estando noindex
Después ofusca los enlaces con el plugin linkjuice optimizer de Fede Gómez
Después bloquea las urls en robotsUn saludo!
-
AutorEntradas
- Debes estar registrado para responder a este debate.