Tests para webmasters de Google

Desde el blog para Webmasters de Google están realizando una serie de tests para evaluar los conocimientos de cada uno con respecto a lo que la gran G opina que es el mejor método para resolver una serie de problemas o cuestiones. Aunque alguno no esté de acuerdo con la respuesta de Google, lo cierto es que todo Webmaster debería tener al menos la certeza de cuál es lo que recomienda Google, ya que cuando el 70-80% de tu tráfico depende de ello es algo a lo que no se le puede dar la espalda.

Hace una semana lanzaron el primer test y me animé a participar. Según mi autoevaluación he obtenido 34 puntos de 40 posibles, lo cuál no está mal. Mirando el ranking que han publicado salgo entre los 15 primeros de más de 400 participantes.

La respuesta que más duda me deja es la número 7. La pregunta era:
Necesitas que Google no indexe el contenido de la nueva carpeta /archivos-privados/, ¿cuál es la mejor manera de conseguirlo?

  1. Asegúrate de no enlazar a esos archivos
  2. Utiliza autenticación de servidor con nombre de usuario y contraseña para esta carpeta
  3. Utiliza las Herramientas para webmasters para reducir la frecuencia de rastreo a cero
  4. Bloquea esta carpeta en tu archivo robots.txt

Según Google la respuesta correcta es la 2. A mi personalmente me parece mas correcta la 4. ¿Alguien me puede explicar porque?. ¿No sería más sencillo bloquear la carpeta en el robots antes que poner un usuario y password solamente para que el buscador no lo indexe?


Deja tu comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*

*

  1.   David dijo

    Si hacemos caso estricto a lo que pone «archivos privados» y tenemos en cuenta también temas de privacidad sería más lógico protegerla con password (no lo indexa el buscador, pero tampoco puede leerlo ninguna otra persona…).

    De todas formas yo también hubiera contestado la 4 🙂

  2.   Jordi Bufí dijo

    Al estilo de lo que comenta David supongo que es la respuesta correcta porque se trata de las más «restrictiva». También puede ser porque Google a veces pasa del robots.txt? 😛

  3.   Miguel Angel Gaton dijo

    @David: en cierto modo tienes razon, pero la respuesta es cuanto menos discutida.

    @Jordi: jajaja, que razon tienes. Pero poner en un test de Google que ellos mismos se saltan el robots a la torera me parecía demasiado 😛

  4.   IdeasMX dijo

    Yo no creo que solo por poner el robots.txt o usar las herramientas para webmaster google no indexe algo que puede. Por eso es mejor con usuario y contraseña, asi nadie, ni google puede indexar nada.

  5.   Mohammed El Hanini dijo

    Efectivamente con un robot.txt Google ignoraría la carpeta.. ¿Pero qué pasa si otras páginas la empiezan a enlazar? 😉

    Podéis ver más info sobre este punto (con un caso práctico) mirando el primer resultado que sale en Google con la búsqueda: Why Pages Disallowed in robots.txt Still Appear in Google

    Suerte,

  6.   teresa dijo

    he recibido el mismo timo del tal jean michel y su abogado <gnoukoury Alexis, dice quereR comprar mi casa, sin verla ni nada, dice ser hotelero francés y que se vendrá a vivir con su novia a españa, me envian los contratos de compromiso de compraventa. ya huele mal, desde el principio, demasiado interés y demasiada amabilidad, y además de nombrar legalidades "ridiculas" de su país Francia. así los cazé: con unos miserables escaneos de contratos.Menuda basura, que hacen perder el tiempo al ciudadano de a pie. Y menos mal que tengo conocimientos de los tramites legales, que sino me lian. TENED CUIDADIN