Resolviendo los misterios del SEO on-page…
Hace tiempo que quiero escribir algo relacionado con el tema SEO, y por eso hoy hablo de los misterios del SEO on-page, y es que dentro de las técnicas que se utilizan para el posicionamiento web tenemos dos tipos, las on-page y las off-page.
Para aclarar un poco la diferencia entre ambas te diré que, las on-page son aquellas técnicas, aquellos procesos que nosotros realizamos en nuestra web, es decir, las palabras clave, el robots… todo aquello que nosotros aplicamos directamente a nuestra web.
Y las off-page, son aquellas técnicas o factores que vienen de fuera como por ejemplo, los enlaces externos… Otro dia ya entraremos en profundidad sobre el SEO off-page….
Cosas a tener en cuenta en el SEO on-page
- Debemos escoger previamente las palabras clave que utilizaremos en nuestro sitio web, lo recomendable es utilizar una palabra clave por página que tenga nuestra web.
- Escoger el dominio que mejor nos represente, no vamos a escoger un .fr si nuestro publico está en España, así como tampoco utilizaremos un .org si no somos una organización… o al menos, no deberíamos. Es importante tener en cuenta que para ayudarnos en SEO, deberíamos utilizar la palabra clave asociada a la home en nuestro dominio, aunque también podemos optar por utilizar nuestra marca si ya tenemos una reputación como tal.
- El hosting… es muy importante escoger bien el tipo de hosting que vamos a utilizar, puesto que de ello dependerá la velocidad de nuestra página web. Podéis leer este articulo que explica más a fondo que es un alojamiento web y los tipos de hosting existentes de Susana Barriga
- La estructura de la página, es importante que la página web tenga una estructura donde el usuario pueda acceder de forma sencilla a todas nuestras páginas.
- El sitemap, es necesario para indicarle al robot las páginas que tenemos y que queremos indexar, si una página no aparece en el sitemap y no está bien comunicada con el resto, el robot no podrá leerla, por lo que no podrá indexarla.
- El robots.txt, este archivo nos permite decirle a los crawlers (rastreadores) que páginas queremos que tenga en cuenta y que no, que queremos que indexe y que no. Nosotros podemos decirle que no nos indexe aquellas páginas que no nos interesan, por ejemplo contenido duplicado, o las páginas de administradores…
- Paginas jerarquizadas, es muy importante que las paginas tengan un contenido jerarquizado, es imprescindible que contengan una única etiqueta H1, y que el resto del contenido quede bien estructurado con el resto de etiquetas.
- Contenido relevante, que sea relacionado con la temática de nuestro sitio web, que tenga un mínimo de 300 palabras y que no repita la palabra clave más de un 2%.
- Imágenes optimizadas, es muy importante que las imágenes estén correctamente optimizadas, que no pesen en exceso y que tengan correctamente aplicado el atributo alt, así como el titulo de la imagen. Se recomienda utilizar la palabra clave en el atributo alt.
- Contenido duplicado, no debemos tener contenido duplicado, esto sucede cuando más de una página contienen el mismo titulo, o el mismo H1, también lo podemos encontrar cuando tenemos la misma web en distintos idiomas, esto puedes solucionarse con la etiqueta canónical.
- El snippet, debemos tener en cuenta que deben tener la etiqueta