Buenas prácticas SEO en la construcción de urls

Habitualmente tendemos a incluir en la optimización SEO “on-page” de nuestras páginas/aplicaciones web la estructura de las URLs. Una buena estructura de URLs es uno de los elementos importantes de cara a conseguir un buen posicionamiento SEO.

Por este motivo a continuación detallamos algunas buenas prácticas a tener presente en la construcción de la estructura de URLs de nuestro sitio web:

  • Palabras claves: Es muy importante que en la URL se destaquen las palabras claves de la página. La concordancia entre URL, Title y elemento H1 a nivel de keywords es importante para un buen posicionamiento SEO.
  • Keyword stuffing: Debemos evitar a toda costa la repetición de palabras clave en la URL. Esto puede ser considerado como spam por parte del robot de Google.

Mala práctica: www.pukkas.com/servicios/servicios-ecommerce.

Buena práctica: www.pukaks.com/servicios/ecommerce ó www.pukkas.com/servicios-ecommerce

  • Eliminar parámetros querystring: En la medida de lo posible debemos evitar la utilización de parámetros querystring en nuestras URLs.

Mala práctica: www.pukkas.com/servicios/ecommerce?id=137423&level=34

Buena práctica: www.pukkas.com/servicios/ecommerce/id/137423/level/34

  • Utilizar como separador de keywords el guión medio: El carácter que el robot de google entiende como separador de keywords es el guión medio “-“, en ningún caso debemos utilizar para separar los keywords el guión bajo “_” u otros carácteres.

Mala práctica: www.pukkas.com/servicios_ecommerce.

Buena práctica: www.pukkas.com/servicios-ecommerce.

  • Evitar la utilización de stop words: Entendemos como stop word aquellas palabras que no contienen un significado importante para su uso en consultas de búsqueda. Ejemplos: y, para, por, de, etc…

Mala práctica: www.pukkas.com/servicios-de-ecommerce.

Buena práctica: www.pukkas.com/servicios-ecommerce.

  • Cuidar la lógica de la estructura de la URL: No debemos olvidar que lo más probable es que finalmente nuestra URL será visualizada por un usuario como resultado de una búsqueda. Por este motivo dotar de una lógica fácilmente entendible a la URL ayuda a que los usuarios lleguen a nuestra web:

Mala práctica: www.pukkas.com/ecommerce/servicios-online

Buena práctica: www.pukkas.com/servicios/online/ecommerce ó www.pukkas.com/servicios-online-ecommerce

Es decir, si la estructura de nuestra URL permite seguir una clasificación lógica (en el ejemplo de una categoría superior a una inferior), ayudaremos a conseguir más visitas a nuestra web.

  • Versión www y sin www: Hemos de tener presente que para Google www.pukkas.com y pukkas.com son dos URLs diferentes. Por este motivo no debemos olvidar configurar correctamente webmastertools  indicando que somos propietarios de ambas URLs y cual de ellas es la preferente (Configuration >> Settings >> Preferred Domain). Otra opción sino se dispone de webmastertools es configurar una redirección permante (301) de un dominio al otro.
  • HTTP y HTTPs: Si en nuestra web se puede navegar con ambos protocolos por el mismo contenido esto puede ser considerado como contenido duplicado. Evitar, en la medida de lo posible, la navegación con ambos protocolos por el mismo contenido.
  • Barra al final de la URL: Un aspecto que no se suele tener presente es la posibilidad de que se acceda al mismo contenido con barra al final y sin barra:

www.pukkas.com/ecommerce y www.pukkas.com/ecommerce/

esto también podría ser considerado como contenido duplicado. Se resuelve facilmente definición la correspondiente regla de redirección en nuestro .htaccess

  • Uso de subdominios: Hemos de tener cuidado con la utilización de subdominios. Una excesiva utilización de los mismos puede hacer que la autoridad de nuestro dominio “domain authority” disminuya.
  • Longitud de la URL: Una url excesivamente larga no ayudará a nuestro posicionamiento. Un excesivo número de palabras clave hará que el peso SEO de la página se distribuya entre todas las keywords quitando importancia a las keywords más importantes para nosotros. Es aconsejable utilizar un máximo de 4 a 7 keywords.
  • El carácter #: Los robots ignoran todo lo que aparezca después del carácter #. Debemos revisar nuestras URLs para evitar que la utilización del citado carácter provoque que algunas palabras claves no sean visualizadas por los robots. También podemos utilizar esta característica para construir una URL más larga, adecuada para la programación del sitio web, sin penalizar las keywords que más nos interesan. Por ejemplo:

www.pukkas.com/servicios/ecommerce/tools#/id/23/category/shop/subcategory/online

  • Mayúsculas y minúsculas: Tampoco debemos olvidar que los robots distinguen entre mayúsculas y minúsculas lo que puede provocar contenido duplicado. www.pukkas.com/Servicios/ecommerce es una URL diferente de www.pukkas.com/servicios/ecommerc. És una buena práctica que todas las URLs de un sitio web se escriban en minúsculas.
  • Contenido duplicado: Algunas veces no es posible evitar que se acceda a una página web utilizando diferentes URLs. En estos casos para evitar la penalización por contenido duplicado utilizaremos el meta cannonical. En el head de nuestra página web indicaremos cual es la url que identifica la página web.

Referencias:

SeoMoz – Anatomía de una URL

Entendiendo las URLs “SEO Friendly

SeoMoz – Buenas práctias SEO en las URLs

SEO Friendly URL Encoding for Search Results

 

Recent Posts

Leave a Comment

Start typing and press Enter to search