© Copyright 2021 magicseo.

Posicionamiento SEO basado en Inteligencia Artificial

¿QUIERES MÁS INFORMACIÓN?

Ingresa tu email para recibir más información de forma ¡totalmente anónima! No lo guardaremos en ninguna base de datos.

     
     

    ¿Tiene Google un problema con los archivos Robots.txt grandes?

    La compañía afirma un límite en el tamaño de archivo

     

     

    Google aborda el tema de los archivos robots.txt y si es una buena práctica de SEO mantenerlos dentro de un tamaño razonable. Esta cuestión es tratada por John Mueller, defensor de las búsquedas de Google, durante el hangout de la oficina de SEO de Google Search Central, grabado el 14 de enero.

    ¿De qué tamaño estamos hablando?

    David Zieger, director de SEO de una gran editorial de noticias de Alemania, se une a la transmisión en directo con su preocupación por un archivo robots.txt “enorme” y “complejo”. Zieger dice que hay más de 1.500 líneas con una “multitud” de desautorizaciones que siguen creciendo con los años. Las desautorizaciones impiden a Google indexar fragmentos de HTML y URLs donde se utilizan llamadas AJAX.

    ¿Existen efectos negativos para el SEO?

    Un archivo robots.txt grande no causará directamente ningún impacto negativo en el SEO de un sitio. Sin embargo, un archivo grande es más difícil de mantener, lo que puede dar lugar a problemas accidentales en el futuro.

    Mueller explica:

        “No hay problemas de SEO negativos directos con eso, pero hace que sea mucho más difícil de mantener. Y hace que sea mucho más fácil introducir accidentalmente algo que cause problemas.

        Así que solo porque sea un archivo grande no significa que sea un problema, pero hace que sea más fácil crear problemas”.