Skip to main content

Screaming Frog – La herramienta esencial del SEO ON Page 1-2

Esta semana os voy a hablar de Screaming Frog, herramienta indispensable para realizar auditorias SEO On Page y que nos dará una visión global de los posibles fallos de nuestra WEB. En este caso no voy a profundizar en exceso, simplemente voy a mostrar las funciones principales del programa para ampliarlo más adelante.

¿Qué es screaming Frog?

Screaming Frog es una herramienta SEO que actúa como un araña(Spider), es decir un rastreador web como podría ser Google Bot, y cuya función es mostrarnos desde ese punto de vista como es nuestra web, así como detectar posibles errores de indexación, errores 404, redirecciones…etc

La versión básica es gratuita, y la podemos descargar de su web https://www.screamingfrog.co.uk/seo-spider/ también tiene una versión de pago, útil para personas que se dedican a analizar muchos sitios web, o una web muy grande.

Analizar las urls internas

La primera pestaña Internals, nos da todos los datos relevantes de las URL de nuestro sitio, donde podemos controlar datos relevantes de:

Word count: nos muestra rápidamente las palabras que tiene la URL. Recuerda que la longitud del contenido es relevante para el posicionamiento, en especial si es inferior a 300 palabras puede considerarse una página “pobre”.

Inlinks: nos muestra los links internos que derivan hacia esa URL. Importante para que le digamos al buscador nuestras secciones principales y un correcto “traspaso” del linkjuice.

Content: nos muestra el tipo de contenido de la URL como Html, imágenes, CSS, Javascript…

Los otros aspectos que vamos a valorar tienen su propia pestaña:

Status Code – Analiza los códigos de estado de tus URL

Aquí tenemos que revisar aquellos cuyo código no sea 200 (OK), y en especial los código 404 (página no encontrada), que se tratan de errores que los buscadores penalizan, y donde más alerta debemos estar. También tenemos que tener presente las redirecciones que empiezan por 3xx. En ocasiones hay redirecciones 301 que son automáticas del CMS por haber sido algún error al enlazarlo que debemos corregir. Por otro lado el estado 0 lo reserva a aquellas bloquedas por Robots.txt, útil para ver si tenemos alguna URL bloqueada que no debiera estar, o bien si todas aquellas URL que no debiera ver el rastreador y que no están debidamente bloqueadas.

H1 y H2- Gestiona las URL que carecen de encabezado o lo tienen duplicado

Para revisarlo lo mejor es acceder directamente a la propia pestaña (H1). Nos muestra los encabezados de las URL con la etiqueta <H1></H1>. Podemos filtrarlos en la opción filter para que nos de los siguientes datos relevantes:

Missing: muestra aquellas URL que carecen de título H1, lo que es una pista bastante claro de que hay un error, o hay que corregir nuestra plantilla para incluirlo.

Multiple: tu URL sólo debiera tener un título H1, ya que se trata del encabezado fundamental. En caso de haber más de un H1, los buscadores no lo tendrán en cuenta de la misma manera, así que con esta opción podrás ver y corregir todas las URL donde hay más de un título H1.

Duplicate: en esta ocasión lo que nos muestra son dos URL con el mismo título H1, esto suele pasar por varias razones, en general se solucionan con URL canónicas o con una redirección correspondiente.

Over 70 Characters: nos dice los títulos con más de 70 caracteres (por defecto) por si estimamos reducirlos.

La aplicación tiene las mismas opciones para la etiqueta H2 que puedes seleccionar en el mismo menú.

Meta description

Las meta description son aquellas etiquetas en el código HTML que se muestran en el buscador en los resultados de búsqueda, es decir la descripción de la web que muestra Google al buscar un resultado:

Meta_d

¿Influye en el posicionamiento?

No directamente, pero si que influye al incrementar el CTR, por lo que debemos ser particularmente atrayentes al crearlo para conseguir la mayor cantidad de clicks posibles. En este caso Screaming Frog nos ayuda filtrándonos los siguientes resultados en su pestaña:

Missing: una URL que vaya a ser indexada tiene que tener siempre esta etiqueta, en caso contrario no tendremos control sobre él, reduciendo el CTR y reduciendo los clicks y la posición en las SERP.

Duplicate y múltiple: igual que la parte de Title.

Below 70 Characters y Over 156 Characters : la descripción debe estar en ese margen de caracteres que se considera óptima (puedes modificarlo a tu gusto), por lo que nos resaltará las URL que no cumplan la condiciónpara poder corregirlo.

Images: optimiza el peso de las imagenes de tu web

En esta ocasión nos muestra las imágenes de la web y su tamaño (ya que entre otras cosas influirán en el tiempo de carga y experiencia de usuario). Podemos ver la URL donde es enlazada en el menu inferior pulsando de Inlinks. Además podemos filtrar rápidamente lo siguiente::

Missing alt text: recuerda que los buscadores no pueden ver las imagenes, lo que hacen es leer la descripción de ésta para hacerse una idea de su significado. Es por ello que no tiene ningún sentido carecer de esta etiqueta en las imagenes, ya que, en el mejor de los casos, será como si no existiera. También existe otra opción que nos indica que nuestro alt es demasiado grande Alt text over 100 Characters.

Over 100kb: sirve para que nos muestre las imagenes de más “peso” que el indicado. No obstante, no te obsesiones con esto y úsalo para tener una guía del tamaño de tus imagenes y su optimización, puedes ordenarlo por tamaño para ver las imagenes que más recursos ocupan.

 

 

 

 

Dwell time – Un factor muy probable en los nuevos algoritmos

Sabemos que el algoritmo de Google no es publicamente conocido.Lo cierto es que gracias a la investigación y trabajo de muchos SEO, así como de la experiencia, estadísticas y pruebas de acierto y error, sabemos cuales son los factores principales en el posicionamiento, sin embargo, no siempre hay certezas y muchos factores aún son desconocidos y otros simplemente mitos. Lo que valía el año pasado este no vale y estamos sujetos a un constante cambio. Uno de los factores SEO que más se está hablando es el dwell time.

Porcentaje de rebote y duración media de la sesión – el pasado del SEO en base a la analítica

Hasta ahora solíamos trabajar a base de analytics y ver el porcentaje de rebote, que sería el número de visitantes que abandonan la página sin haber interectuado con la página. La duración media de la sesión, sería la media de las duraciones en la páginas, concretamente es el tiempo que pasa desde que visita una página de una web, a otra del mismo sitio o bien realiza una interacción. Sin embargo, queda evidente que estos datos son totalmente subjetivos, veamos un ejemplo de cada uno.

Porcentaje de rebote: la lógica diría que es positivo un porcentaje de rebote bajo a uno alto, puesto que significaría que es más relevante para la búsqueda que ha realizado el usuario.

Supongamos que un usuario busca el autor de una novela, y siempre que el resultado no fuera directamente visible de las SERP, abre la primera página, encuentra rápidamente la información ya que el contenido está perfectamente estructurado y cierra la web sin interactuar con ella. Cuenta como rebote.

Ahora supongamos otro usuario que pulsa en otro resultado de las SERP, el usuario no encuentra lo que busca, sale de la web al buscador para buscar si en otra página se encuentra la información. Cuenta como rebote.

Como vemos en la primera ocasión el resultado es SATISFACTORIO (una de las cosas que Google tiene mas en cuenta) y el segundo caso abandona por ser un resultado pobre. Por lo tanto, estos dos casos no tienen comparación entre sí a efectos de SEO, independientemente de los objetivos de la página. No obstante, existen formas de solventar esto mediante eventos cuando considermos que es un tiempo suficiente como para no considerarlo rebote, pero esto servirá para mejorar nuestra visión acerca de como ven los usuarios nuestra web.

Duración media de la sesión: habría que evaluar cuando se considera un tiempo positivo o negativo a efectos de SEO, ya que si tenemos un sitio A con una web perfectamente estructurada, es probable que encuentre la información antes que la competencia B, con lo que un tiempo mayor no siempre significa satisfacción. Además en los sitios de una sóla página, Analytics no sabe si el usuario ha cerrado el explorador,y por lo tanto desconoce el tiempo que pasa hasta el cierre, al final el tiempo que aparecería sería de 0:00:00 con lo que tampoco tiene ningún sentido evaluar la calidad de un sitio mediante este indicador.

En todo caso, nunca se ha confirmado que Google tenga en consideración analytics para sus algoritmos, primariamente porque no todas las webs tienen que usar este sistema con lo que sería una “discriminación” a los sitios que no usan su herramienta, por otro lado, algunos resultados como el tiempo de rebote serían facilmente modificables mediante sencillas modificaciones. Otra cosa es que estas métricas nos sirvan para cumplir objetivos (como  campañas en Adwords) y tener una visión adecuada de como ve un usuario nuestros sitios.

Dwell time – Análisis de un factor probable

Debido a que estos datos no son certeros en relación a la satisfacción del usuario nace el Dwell Time. En el ámbito del posicionamiento el Dwell Time es el tiempo que pasa desde que un usuario hace clicks en las SERP en un resultado, hasta que vuelve atrás al buscador, o lo que es lo mismo, hasta que vuelve a buscar lo mismo.

¿Por qué esto es útil? Supongamos que buscas coches de boda, haces click en el primer resultado y lo que ves no es lo que estás buscando ya que es una página de reportaje y tu buscas alquiler de coches y con fotografías. Rápidamente haces click en el botón de atrás en el explorador para buscar otro resultado. El dwell time puede ser de 1-10 segundos. Esto le dice a los buscadores que para esa palabra clave la primera web no ha sido satisfactoria en absoluto. Ahora pulsas en el resultado dos,  encuentras el alquiler de coches de boda con varias fotografías para que puedas ver los distintos modelos,el precio y la disponibilidad. Después de ver varios modelos, te vas y vuelves a darle a atrás para ver más información. El dwell habría sido satisfactorio siendo al menos de 5 minutos. Falta el caso de que un usuario no vuelva a darle atrás en la búsqueda, lo que sin duda, sería todavía un signo de satisfacción total en lo que buscaba. Desgracaidamente Analytics no nos da el valor del dwell time.

El dwell time tiene varias ventajas para los buscadores respecto a las métricas anteriores:

  • Es más fácil de medir ya que no hacen falta tracks o códigos y universal.
  • Es más fiable: ya que es más justo con los sitios que tienen la información más accesible en una primera vista, ya que muchos de ellos al encontrarla no volverán a hacer click en “atrás”, y también en los sitios de una sóla página donde el usuario no tiene necesidad de realizar una interacción para encontrar la información.

¿Cuál podría ser un buen dwell time?

El primero en hablar públicamente de este factor fue Duane Forrester de Bing escribió que cuanto mayor fuere este tiempo mejor, y que el objetivo debía ser satisfacer las necesidades del usuario de tal manera que se mantuviera en nuestra página el mayor tiempo posible. Por establecer unos valores medios, podemos decir que una visita de 10 segundos se consideraría un resultado pobre, ya que podría verse como una huída de la página. Un dwell time de unos pocos minutos (de 1 a 3), podría verse como un consumo de información adecuado pero no excelente, y más de esos datos podría verse como buen contenido. Sin embargo, depende de la competencia y en especial del sector el valor que los buscadores den a estos datos. Ya que si por ejemplo sólo queremos ver el precio de un artículo en los primeros resultados el dwell time puede ser muy bajo en todos los resultados de las SERP.

¿Es un factor relevante en Google o Bing?

Actualmente no está confirmado que sea un factor relevante. No obstante, parece tener sentido que incluyan esta caraterísticas en sus algoritmos. En todo caso tener un contenido único, extenso, y que haga interactuar a los usuarios no sólo será positivo a nivel SEO, con lo que puede ser compatible con otras estrategias de marketing digital. En otro artículo veremos métodos para conseguir incrementar este tiempo mediante mejoras de contenido.

 

 

Keyword Research – Guia completa para encontrar la palabra clave perfecta

Una de las claves en el mundo SEO y el marketing online está en la keyword research o lo que es lo mismo, investigar las palabras claves adecuadas para posicionar una web en una búsqueda relevante con un volumen adecuado y con una competencia asequible. Sabemos que las palabras clave han ido perdiendo importancia según Google se ha ido moviendo al “lado semántico”. Hoy en día no es raro encontrarse resultados en las SERP donde no aparezca la palabra clave ni en el título (title) ni en la URL ya que Google es capaz de detectar sinónimos en sus resultados. En todo caso el keyword research ha de ser uno de los primeros pasos en una estrategia SEO y posiblemente el más importante.

Supongamos que tenemos una web acerca de móviles. Lo primero que nos vendría a la mente serían las palabras que nosotros mismos pondríamos en el buscador tales como  “móviles” “comprar móviles” “compra de móviles”, sin embargo, ese tipo de keywords suelen estar monopolizadas por las grandes empresas del sector en especial en los sectores ecommerce, echamos un vistazo:

En esa keyword vemos como empresas como Amazon, Carrefour, o algunas webs muy fuertes en su sector como Phone House (primer resultado) o MaxMovil. Competir con este tipo de sitios, en especial su relevancia en enlaces, menciones y conversión es practicamente una utopía, salvo que dispongas de una gran inversión económica, pero si este fuere tu caso posiblemente no estuvieras viendo este blog ;). La razón es que pueden invertir fuertemente en enlaces o en campañas publicitarias fuertes en medios que influirán directamente en la relevancia de su sitio.

Por lo tanto la misión del keyword research es encontrar palabras similares pero que no estén tan monopolizadas por este tipo de webs para poder competir y no quedarse en tercera o cuarta página que será poco más o menos que no recibir más de una decena de visitas al mes.

Vale, ¿Dónde obtengo esas keywords?

Para encontrar sugerencias de palabras clave podemos ayudarnos de varias herramientas, yo os voy a hablar de las que he usado personalmente y me han resultado útiles, no obstante existen otras herramientas que puedes encontrar en Google y que merece la pena investigar por tu cuenta.

1- Herramienta de Google de Palabra clave: la archiconocida herramienta de Google no está pensada para el SEO pero puede servir como complemento para obtener sugerencias de palabras similares.

Lo ideal de la herramienta son las sugerencias que aparecen a la izquierda. Para encontrar un buen “nicho” debemos evaluar varios parámetros. Aunque la competencia se refiere al coste por click que los anunciantes en Adwords están dispuestos a pagar suele coincidir con la una alta dificultad de palabra clave. Para llegar a una buena keyword debe cumplimentar una competencia baja / moderada con un promedio de búsquedas mensuales adecuada para tu negocio.

2 UbberSuggest: esta herramienta sirve para sugerir keywords a partir de una genérica que introduzcas. La herramienta es gratuita pero deberás evaluar la dificultad de la competencia y el número de búsquedas mensuales

3. KwFinder: esta herramienta tiene una versión gratuita, que se queda corta por dejarte sólo unos pequeños intentos. No obstante la herramienta te da información sobre las sugerencias como un grado de dificultad calculado por la propia herramienta

4. Otras herramientas e investigación en las SERP: existen otras herramientas que dan información y todas ellas son buenas. SemRush (para mi una de las mejores herramientas globales de SEO aunque es de pago dispone de una versión gratuita limitada) Keyword Research de Moz…

Otra forma de verlo es a través de los resultados de las SERP, con la extensión de MOZ puedes ver rápidamente la autoridad de página y dominio así como los enlaces que reciben. No obstante lo primero que suelo hacer es hacer una búsqueda en Google para la keyword en cuestión. Miro la relevancia de los sitios ya que en muchos casos es evidente (el caso de Amazon, PhoneHouse…etc) que la competencia es dura. Si los sitios no son especialmente conocidos o son páginas secundarias puedes evaluar su número de backlinks con herramientas como Majestic SEO, Moz o Semrush…Si el número de backlinks no es muy alto o son de baja calidad podría ser una buena oportunidad. Además existen otros aspectos de optimización on page como que la keyword no esté en el título o la URL, no contenga etiquetas ALT o tampoco aparezca la palabra clave en los primeros párrafos de la web que harían más asequible (o menos complicado) su posicionamiento.

RESUMEN

Para que una keyword sea una buena opción debe cumplir las siguientes características.

1 – Volumen de búsqueda interesante: la mejor manera de comprobarlo es a través de la herramienta de Google Palabra Clave, no obstante herramientas como SemRush puede ser más precisas a la hora de evaluar el número de búsquedas mensuales.

2- Competencia asumible: tenemos que tener en cuenta la competencia a la que nos vamos a enfrentar para ver si merece la pena el esfuerzo. Ten presente las herramientas que te he mencionado pero  lo más útil es evaluar la SERP y evaluar su optimización on-page, relevancia y backlinks, así como la calidad del contenido de estos sitios. Es mejor estar en primera página de una palabra clave de 1000 búsquedas mensuales que al final de la segunda en otra de 5000. En función del presupuesto del proyecto tenemos que evaluar si tenemos fuerza para enfrentarnos a esa competencia o buscar palabras más asequibles.

3 – Relación con la temática de la web o el negocio y de SU CONTENIDO: recuerda que una web sólo posicionará bien si el contenido de la página es de calidad y la web o negocio es de temática relacionada con la keyword, en otro caso no sólo no posicionará bien si no que los usuarios no encontrarán lo que estaban buscando e incrementarían el porcentaje de rebote del sitio.

¿Cuál es el siguiente paso?

Una vez que hemos encontrado la palabra clave y analizado la competencia sólo nos queda trabajar esa keyword tanto en optimización on-page u off-page. Si es un sitio web nuevo puedes plantearte adquirir dominios que concuerden con esa palabra clave, aunque como ya hablamos en este artículo sobre  los dominios EMD, sus beneficios son cada vez menores y no es recomendables para branding o estrategias a largo plazo. Recuerda siempre atraer y mantener a tus visitantes con contenido útil, relevante, que no ofrezca todo el mundo y apoyado en las redes sociales siguiendo las estrategias de inbound marketing. No olvides que el SEO es un trabajo de largo plazo y tardará en aparecer en los primeros resultados. Aun así no habrás acabado, tendrás que seguir mejorando y vigilando la analítica para optimizar la conversión del sitio. Paciencia y no desesperes 😉

Backlinks: todo lo que tienes que saber de este factor clave del SEO off page

Con backlinks nos referimos a los enlaces externos que recibe un dominio o una página en concreto. Es un factor relevante en el SEO y aunque posiblemente estés harto de oir la frase “el contenido es el rey” en esto del SEO muchos seguimos pensando que el rey, o mejor dicho, los reyes, siguen siendo los backlinks. Google toma un enlace como un “voto” de una web a otra y es el responsable de la RELEVANCIA de un dominio o página. Desde las actualización de Google Penguin se creo una doble responsabilidad en un enlace do follow. Por un lado una web es responsable del contenido que enlaza, lo cual es lógico teniendo en cuenta que sirve como “recurso” a sus visitantes. Esto puede influir en el posicionamiento, ya que si enlazamos a sitios spam o de baja calidad, Google puede considerar como una baja experiencia de usuario debido al riesgo de que el visitante acabe en una de estas páginas, con lo que conviene realizar enlaces sólo a sitios de autoridad o usar la etiqueta “nofollow” (hablaremos de esto más adelante).

Por otro lado una web es responsable de los enlaces que recibe, y aunque esto puede parecer un absurdo (en el fondo lo es), Google quiere que sea el propietario del sitio el que controle los enlaces que recibe, con lo que si hay algun competdior con una moral cuestionable podemos ser objeto de lo que se conoce como SEO negativo, es decir recibir enlaces de sitios SPAM provocados por un competidor con el único objetivo de que seamos penalizados. Evidentemente si estos enlaces han sido creados por nosotros mismos o alguien contratado por nosotros  (en general mediante sistemas artificiales automatizados) seremos merecidamente penalizados por intentar alterar las SERP de Google. La solución al problemadel SEO negativo consiste en intentar eliminar los enlaces problemáticos, primariamente mediante la solicitud al webmaster de esas web, según indica las directrices de Google, o utilizando el sistema de desautorización de enlaces entrantes de Google. Para monitorizar los enlaces que van entrando en nuestro sitio usaremos Search Console pulsando en tráfico de búsqueda /enlaces a tu sitio.

¿Qué es un enlace no follow?¿En que se diferencia de un enlace do follow?

Un enlace follow hace referencia a la definición que deciamos anteriormente de “voto” a una página web. Es decir, una web garantiza que el contenido que enlaza es de calidad y relevante al contenido de los usuarios. Como siempre en esto del SEO muchos utilizaron esto para crear enlaces artificiales en comentarios, granjas en enlaces, foros…siendo muchos de estos sitios de poca calidad o enlaces spam. Debido a esto aparecen los enlaces no follow que son enlaces con la siguiente estructura:

<a href=”enlace en cuestión” rel=”nofollow”>Enlace</a>

Seguramente te estás preguntando, ¿qué hace Google con esos enlaces? Para Google, estos enlaces es como si no existieran, es decir no pasa a formar parte de los links de una página que atribuyen un pagerank a esta y, por lo tanto, no incrementa su relevancia. Dicho de otra manera es un mensaje a Google de “no cuentes a este enlace” ¿Cuándo debemos enlazar con este sistema? Debemos introducir esta etiqueta cuándo no confiamos en el contenido envíado, lo que es bastante habitual en los comentarios de otros usuarios en un foro o un blog, ya que es contenido que no controlamos directamente. La mayoría de los CMS ya traen por defecto este tipo de enlace.

¿Cuentan estos enlaces para el SEO?

Podemos decir que no cuentan directamente, ya que precisamente ése es el sentido de esta etiqueta. No obstante tenemos que tener en cuenta que pueden contar INDIRECTAMENTE atrayendo tráfico de calidad al sitio repercutiendo en menciones o enlaces do follow en otros sitios. Por otro lado muchos SEO aseguran que debe existir una correlación entre enlaces no follow y follow para que Google no penalize el sitio. Aunque personalmente me he encontrado sitios de todo tipo y sin penalización alguna, es posible que un número similar de enlaces follow y not follow den un aspecto de mayor naturalidad a los ojos de Google.

¿Como evaluar los enlaces de la competencia?

Conocer los enlaces de la competencia son esenciales en una estrategia SEO, tanto en la fase previa de keyword research como a la hora de intentar “replicar” esos backlinks en la medida de lo posible. Para conocer los enlaces de un sitio web existen varias herramientas, la mayoría de pago, las más conocidas son:

Ahrefs: posiblemente el mejor de todos ya que suele ser el que más enlaces descubre.

Majestic: otorga dos métrica como son el trust flow y el citation flow, que otorgan información acerca de la calidad de los enlaces de un sitio web (link Quality).

Moz  open site explorer: desde mi experiencia adquiere menos backlinks que su competencia, aunque permite gratuitamente conocer los enlaces fundamentales de un sitio web otorgándole una autoridad tanto a la página como al dominio, lo que le ha dado mucha popularidad. Además mediante su extensión para chrome nos permite verlo rápidamente con una simple consulta en el explorador.

¿Cuáles son los enlaces óptimos para el SEO?

Los enlaces óptimos deben cumplir dos características. Por un lado es mejor cuanto más cercana sea la temática del sitio que nos enlaza. Si nuestra página es una ferretería, lo mejor es que nos enlacen sitios web relacionados con el bricolaje o sectores afines. Por otro lado una web con mayor relevancia nos pasará parte de ésta a nosotros con lo que las páginas más relevantes contribuirán a mejorar nuestro posicionamiento, como los medios digitales.

Otro factor que influye es la posición de los enlaces, ya que siempre será mejor que aparezcan dentro del contenido que en el footer o partes más ocultas de la web. Además hay cierta unanimidad en esto del SEO en que si aparecen varios enlaces en la misma página la autoridad cedida de alguna manera se “divide” entre todas ellas, siendo mejor aparecer lo más arriba posible. Por ultimo hay que tener cuidado de que la web que nos enlace no acostumbre a enlazar a sitios spam o de baja calidad y no conseguir enlaces artificiales o automatizados, ya que seremos penalizados y anulará cualquier posibilidad de posicionar, por lo menos en un largo periodo de tiempo.

Conclusión

Conseguir enlaces de calidad y naturales es uno de los trabajos claves en cualquier campaña de SEO. Los enlaces han de ser relevantes y de temática relacionada. Por su parte, y en la medida de lo posible, enlazaremos a sitios de reputación demostrada, y en caso de no ser posible usaremos la etiqueta no follow. Recuerda que los enlaces de mala calidad y la obtención de enlaces de forma antinatural puede penalizar nuestro sitio y desaparecer de los resultados de Google

¿Siguen siendo importantes los EDM? – SEO

Durante muchos años en el mundo del seo los EMD (exact match domain) eran ampliamente utilizados con el único fin de posicionar en una keyword específica. No era de extrañar encontrarse en la primera página varios dominios coincidentes total, o al menos parcialmente, con la búsqueda seleccionada. Esto contribuyó a la especulación en relación precio de los dominios (libres y caducados), en especial los dominios.com e incluso favoreción la aparición  de guiones en los dominios. Aún a día de hoy, es difícil registrar dominios libres para términos de búsqueda con más de 3000 búsquedas mensuales.

Sin embargo Matt Cutts (el responsable de evitar el posicionamiento abusivo y black seo) ya hizo entrever que esto tenían sus días contados en 2012.

Vemos como introduce el concepto low-quality (baja calidad) que nos hace pensar que de nuevo Google penalizaría de alguna manera la sobreoptimización, o como mínimo no tendría en cuenta esto en relación a sus competidores. A pesar de todo esto vemos cosas como estas:

Con la Keyword llaveros personalizados este es el primer resultado:

Otro ejemplo podría ser regalos publicitarios con el primer resultado tal que así:

A pesar de los ejemplos anteriores mi opinión es que los EMD han dejado de ser un factor clave en SEO, teniendo todavía una importancia menor en relación la competencia. El principal problema es que el riesgo de penalización es superior a un dominio diferente si el sitio es de baja calidad, y tendremos que poner aún mayor atención si cabe al mazo de Google. Desde mi experiencia mantengo dos dominios EMD en buenas posiciones sin penalización (toco madera), eso sí, los sitios son con contenido original, actualizado, content lenght adecuado.

Todavía tenemos que averiguar algunos aspectos en relación a los EMD puesto que Google también penaliza la sobre optimización en el Anchor Text, sin embargo, si una web es, por ejemplo, camisetaspersonalizadas .dom es posible que la mayoría de los anchor text hagan referencia a esas keyword por ser también el nombre de la página, así como aparecer en el Title del documento por la misma razón, con lo que quizás ésa es la razón de que aún nos encontremos sitios EMD en las primeras páginas de los resultados. En esa linea sigue el análisis de MOZ de los factores claves en el posicionamiento.  También queda por averiguar si como parece lógico un EMD con más palabras es más sospechoso que uno con menos. Es decir, no es lo mismo un dominio de camisetas personalizadas, que camisetas personalidas online en Barcelona. En todo caso tenemos que tener en cuenta que este tipo de dominios no facilita en absoluto la creación de branding, en especial cuando queremos VISITANTES RECURRENTES, con lo que cada vez son menos relevantes para proyectos a largo plazo, más sabiendo que Google mantiene fija la mirada en ellos. No obstante siguen siendo útiles para eventos o campañas muy específicas, pero lógicamente no a nivel de SEO, si no publicitariamente.

No me importa, sigo queriendo registrar un EMD

En ese caso, y siempre que ya tengas la keyword estudiada, comprobada el número de búsquedas mensuales estimadas, así como su nivel de competencia lo siguiente es ir a un registrador y comprobarlo. No antes metiendo la dirección en el navegador, pues lo normal es que te encuentres sitios de parking, e incluso aunque no obtengas respuesta del navegador, no significa que no esté registrado. Yo suelo usar Godaddy por regla general, que suele detectar aquellas extensiones que esten libres y a precios muy competitivos. Ten en cuenta que si existen otros EMD registrados con otra extensión que ya están en la primera página, será todavía más confuso para un visitante recurrente, detectar tu página en la segunda ocasión.

Conclusión:

Los dominios EMD han ido perdiendo fuerza con el paso del tiempo, quedando relegados a ligeras ventajas SEO procedentes de Anchor Text y optimización de keyword. No son recomendables para cualquier tipo de estrategia SEO que tenga como objetivos visitantes recurrentes o branding puesto que no genera imagen de marca y es complicado de recordar. No obstante, y aunque no los recomiendo para proyectos empresariales a largo plazo, para proyectos sólo SEO muy específicos pueden ser útiles teniendo en cuenta el riesgo de penalización si el sitio no es bueno.