LA WEB ES PARA HUMANOS


Muchos de vosotros habréis oído hablar de archivos y/o documentos que se suben al servidor donde se alojan las páginas web, pero que no suelen ser visitados por los usuarios, ya que "aparentemente" se encuentran ocultos.

Un claro ejemplo de este tipo de archivos pueden ser el archivo "sitemap.xml" o "robots.txt", los cuales suelen subirse en la raíz del servidor para que sean rastreados por las arañas de Google y especificar algunos patrones y exclusiones de indexación por parte de los buscadores.

En el artículo de hoy, nos adentraremos un poco más en el lado oscuro del servidor, donde es muy común encontrarnos con el archivo "humans.txt". A continuación mostraremos una serie de detalles que no conocías sobre dicho archivo:

- Se trata de un archivo de texto plano, el cual contiene información sobre las personas que han participado en el desarrollo, diseño, etc... del proyecto web.

- Es un archivo independiente a la web, que pesa poco, no reduce el tiempo de carga de la misma y permite insertar una especie de firma del autor (no propietario).

- Se aloja en la raíz del site, al igual que el archivo "robots.txt" y "sitemap.xml".

- Puede albergar a todas aquellas personas que han intervenido en la web de manera organizada, para que cualquier usuario curioso pueda ser consciente de todo el equipo que hay detrás de la web.

- "Humans.txt" es el equivalente al "robots.txt", con la única diferencia de que el "humans" está enfocado a los usuarios y el "robots" a los buscadores.

- Suele llevar la misma estructura, según definió Abel Cabans, pero se es libre de añadir o definir los campos deseados.

Ejemplos muy conocidos de "humans.txt" pueden ser el de Google (google.com/humans.txt) o GitHub (github.com/humans.txt) entre otros muchos.

Aunque no sea de gran utilidad, siempre es bueno conocer algunos conceptos que rodean a un página web, en este caso os traemos un complemento curioso que se está poniendo cada vez más de moda.

0 comentarios:

Publicar un comentario