Archivos de la categoría SEO

Como conseguir links en dominios .edu

Desde siempre que los links TLD .edu han sido considerados “la crème de la crème”. Muchos de los sitios ofrecían soluciones un poco “spammy”, como comentarios en los blogs en los foros de las universidades y otras técnicas que realmente no aportaban demasiado valor.

Hasta que me topé con este post en el que expone formas de conseguir links de universidades aportando valor al usuario sin usar el sombrero negro.

Para encontrar centros educativos o mayormente universidades buscaremos en Google “site:.edu keyword”. A partir de aquí aplicaremos la magia:

1. Buscar dentro la web alguna parte donde haya links hacia tus competidores, como por ejemplo links a restaurantes o acomodaciones recomendadas por la universidad y pedir que nos añadan a la lista también.

2. Ofrecer descuentos a los miembros de la universidad, estudiantes o personal. Prohibido ofrecer descuentos a cambios de links, en la práctica significa comprar links. Si son buenas personas crearan un enlace apuntando hacia tu web, ten en cuenta que para ir bien tiene que ser algo más o menos local.

3. Ofrece prácticas en tu empresa. A parte de la ventaja evidente de conseguir nuevos empleados, probablemente la universidad ponga un link con la oferta de las prácticas. Esto es un win-win, tu ganas un link y algunos estudiantes pueden venir a ganar experiencia. Quizás también pueda funcionar si ofreces simplemente puestos de trabajo.

4. Entrevista a los profesionales de la universidad y cuelga la entrevista a tu web. En un posible “ataque” de ego la web universidad creará un enlace hacia la entrevista para mostrar lo buenos que son. Evidentemente entrevista a profesores relacionados con el nicho de tu empresa.

5. Crea “curated content” como siempre si creas contenido de valor obtendrás links. En este caso quizás lo mejor sería un “case-study” en profundidad o un “research-paper” que aporte valiosa información para los estudiantes.

6. Aprovechar los enlaces rotos del sitio web del centro educativo para crear un contenido de valor similar o superior y ofrecerles cambiar la dirección del link.

Bonus: Parece ser que algún empleado de google dijo que [en] los .edu no aportan más credibilidad que otros links.  Pero esto no quita que no sean sitios de autoridad y calidad. Además de no usar técnicas black hat.

Como obtener enlaces de Wikipedia

Admitamoslo aunque sean no-follow todos los links de la Wikipedia nos morimos de ganas por conseguir algunos. No solamente porque sabemos que algo es algo, sino porque además cabe la posibilidad que gente que lea la entrada de la Wikipedia enlace algunas de sus fuentes.

Sobre la propia empresa

Si tu empresa es suficientemente grande puedes crear una propia entrada en la Wikipedia y poner un enlace hacia tu site. El problema recae en que se deben cumplir unos criterios de relevancia.

Dominios expirados

Si tienes la suerte de encontrarte con algún link en la Wikipedia (o en otro sitio) que enlace hacia un dominio que ha expirado deberías considerar si vale la pena comprarlo y llenarlo de contenido interesante. El link ya sabes que lo tienes.

Mejorando la Wikipedia

Algo que puedes hacer es escribir un post sobre algo muy concreto y luego ampliar el artículo de la Wikipedia y ponerte una referencia hacia tu site. Te va a resultar más fácil si ya tienes otro enlace, pero si el contenido es de suficiente calidad no debería haber problemas.

Mejorando la Wikipedia con traducciones

Como todos sabemos aunque la Wikipedia en versión española sea la caña todos terminamos leyendo la versión inglesa ya que casi todo es más extenso y detallado. Lo que podemos hacer es escoger un tema para nuestro nuevo post, lo redactamos usando algunos artículos de la Wikipedia inglesa (y linkando la fuente). Luego vamos a la versión española, ampliamos el tema y nos referenciamos.

Cosas a tener en cuenta:

1) No hagas spam

2) Si tienes publicidad en el site, quitala o no desperdicies tu tiempo.

3) Termina el artículo de la Wikipedia y luego pon el link y no al revés.

4) Escribe el post algunos meses antes que el articulo (o por lo menos cambia la data de publicación del post).

5) No se van a aceptar siempre tus modificaciones en la Wikipedia, así que lee lo que te dicen y aprende de tus errores.

Fuente [DE]: Trustlinks – So bekommt man einen Wikipedia Link!

Lo que nunca te contaron sobre el algoritmo de posicionamiento de imágenes

El otro día estuve indagando un poco sobre como funciona realmente el algoritmo de posicionamiento de imágenes. Lo único que conseguí encontrar era como posicionar imágenes, así que os voy a explicar lo que me contó un directivo del centro de I+D+i de Yahoo en Barcelona.

Lo que os voy a contar difícilmente lo encontraréis por la red, pero creo que se tiene que saber.

Cómo os pensáis que posicionan imágenes en los buscadores? Lo típico con atributos, etiquetas, links y demás no? Pues si y no! 😛

La parte que sí: De algún modo cualquier buscador tiene que clasificar la información, tiene que extraer el máximo de datos posibles.
Ahora es cuando decís, muy bien esto ya lo sabíamos.

Pues ahora es cuando aporto la información nueva 😀
Cuando el buscador ya ha escogido que imagen es más relevante basándose en los criterios anteriores después hace algo. De la información que obtiene de la foto hace un remix y consigue nueva información. Me explico, si en la foto que el buscador considera más importante hay una planta de color amarillo, el buscador va a creer que esto es lo que el usuario está buscando y va a posicionar las imágenes que se le parezcan a la primera. Es decir colores, contrastes…

Pero a esto tiene un problema, y si la primera no es buena? si es de un spammer? Que te crees que los buscadores se lo juegan todo a una carta? Pues no, realizan este mismo proceso con el número de imágenes óptimo 3, 5, 100… Las que son no lo sé.

Para comprobar esto buscad cualquier cosa en Google/Yahoo/Bing imágenes y veréis que la mayoría y sobretodo en las primeras posiciones todas las imágenes se parecen.

De nada! Espero que os haya gustado aprender esto! :)

Cómo saber las palabras clave que te aportan más tráfico a una landing page

Al saber las palabras clave que aportan mayor tráfico a una determinada landing page nos ayudará determinar u conseguir saber de algún modo cuales son las palabras que tenemos mejor posicionadas para una determinada página de nuestro sitio.

Aunque parezca extraño (porque se trata de contenido) para saber a través de que palabras clave llegan los usuarios debemos ir a “Fuentes de tráfico” > “Búsqueda” > “Visión general”.

Una vez allí seleccionaremos “Tabla dinámica” como en el cursor de la imagen.

Tabla dinámica Google Analytics

Finalmente en el desplegable precedido por “Crear tabla dinámica por:” seleccionaremos “Página de destino”.

De este modo podremos ver a la izquierda las palabras clave y en la parte superior cuanto tráfico aportan a cada landing page. La non provided posiblemente sea la que “aporte” más tráfico. Para saber que keywords nos aportan más tráfico a una landing solo debemos ordenar las palabras clave pulsando sobre el nombre de la página.

Como mejorar nuestra página web para que cargue más rápido

El motivo principal para deberíamos plantearnos que nuestro sitio cargue más rápido es que mejora la experiencia del usuario haciendo así que se incrementen las ventas. A parte de engrosar nuestro orgullo 😛

Nunca mejor dicho el tiempo es oro. Vamos a tratar los factores que influyen en el rendimiento de nuestro sitio web. Pues manos a la obra!

1- Reduce el número de peticiones HTTP

Las peticiones HTTP posiblemente sea lo que haga que tarde más en cargar un sitio. Cada petición es un request y answer, o lo que vendría a ser se envía información al servidor y este envía otra de vuelta. Como más veces lo hagamos más va a tardar. Lógico. He leído que el botoncito de “me gusta” de Facebook hace 30 peticiones así por vena, lo cual es bastante malo para el rendimiento. Así que el consejo es pon los mínimos botones sociales. Pero tranquilos!
Tengo algunos tips para reducir peticiones.

  • Poner todos los CSS en un fichero. Pero si hay algunas páginas de nuestra web que usan ficheros CSS muy grandes y son apenas visitadas podemos poner este CSS separado.

  • Cargar los Javascript de forma asíncrona evitando así que sólo se cargue el Javascript.

  • Utilizar sprites. De esta forma combinamos diversas imágenes en una sola evitando conexiones innecesarias.

2- Utiliza la caché

Ahora está de moda usar todas las caches posibles, y la verdad es que mola, pero también es interesante no tener un código, consultas a las BD y servidores horrendos. Usando Expires Header podemos indicar al navegador hasta cuando su versión de la página es válida.

Evita poner los ficheros CSS y Javascript dentro del código de la página, ya que estos pueden ser cacheados por le navegador y la segunda vez que se acceda a la página no volverán a ser cargados.

3-Comprime los ficheros usando Gzip

He dicho Gzip porque no lo hace nada mal, es gratuito y además los navegadores más usados lo soportan. Pero amigos, NO lo comprimamos todo! La mayoría de imágenes ya deberían estar optimizadas, por lo que comprimirlas pasaría a ser una sobrecarga inútil para el servidor además de que el tamaño de la imagen podría aumentar. Por lo que por regla general comprimiremos solamente los ficheros HTML, CSS y scripts como Javascript.

4-Minimiza los ficheros

Con esto me refiero a que a los documentos HTML, Javascript, CSS… quites los espacios en blanco, comentarios, saltos de linea, tabulaciones… Todo esto son caracteres que se envían a través de la red pero no sirve de nada y ocupa un ancho de banda precioso.

5-Evita las redirecciones

Las redirecciones tienen un tiempo de carga considerable, por lo que debemos intentar evitarlas siempre que sea posible. Sé que las redirecciones solucionan muchos problemas, pero es mejor no ponerlas. El problema radica en que primero se conecta a la página que redirige y luego se conecta a la página que toca, y esto es un tiempo muy valioso. No hace falta decir que encadenar redirecciones es ya mortal…

6-Otros consejos

  • Supongo que no hace falta decir que tengamos en cuenta de no poner scripts duplicados ya que por un despiste nos puede salir caro.
  • Poner los CSS para importarlos en el header. Aunque esto no mejora el rendimiento en si mismo si que da la impresión de que carga más rápido. Eso es debido a que los navegadores no muestran la página hasta que haya cargado el CSS por lo tanto cuanto antes lo cargue antes la mostrará.
  • Es recomendable poner los scripts después del body ya que al cargar los scripts no se carga nada más y además impide el renderizado de la página.

Finalmente y para terminar debemos tener en cuenta que no todas las mediciones usando la misma herramienta pueden dar las mismas mediciones. Esto es debido a que el servidor nuestro puede tener más o menos tráfico o también puede deberse a que el lugar del servidor de la herramienta puede estar situado en otro país distinto a la última vez.

Pero recuerda que no todo se basa en el rendimiento, no debemos empobrecer la expericencia de usuario quitando botones sociales o haciendo una web en texto plano, debemos encontrar el termino medio entre rendimiento y funcionalidades.

Como vincular los artículos de tu blog a Google+?

Hace ya un tiempo Google incluyó esta modificación en la visualización de las SERPs. Al vincular los artículos de tu sitio con tu cuenta en Google+ lo que haces es brindarle la posibilidad a Google para que muestre tu imagen de perfil de g+ al lado de tu snippet en las SERPs.

Personalmente esto me gusta bastante ya que refuerza la marca personal además de ayudar al usuario a recordar si los artículos de dicha persona le suelen gustar o no. Pero vamos al grano:

Primero tenemos que enlazar el sitio que queremos que nos salga el rich snippet desde nuestro perfil de Google+. Para hacerlo iremos al apartado “Sobre mi” de nuestro perfil y lo editaremos. Podemos enlazar más de un sitio, siempre y cuando sigamos el mismo proceso para todos.

Ahora hay dos formas de que salga tu foto en el snippet.

1) Poniendo el código en cada página:

Dentro de este apartados hay dos opciones:

  • Podemos usar <a href=”http://tuPerfilAgooglePlus.com/algo?rel=author”> Google+</a> No olvidemos poner el ?rel=author en el link y en el anchor poner Google+ (si con el símbolo +).
  • Este caso es lo mismo pero el author es pasado como atributo del enlace. Poniendo <a href=”http://tuPerfilAgooglePlus.com” rel=”author”> Tu Nombre </a>

2) La otra forma de poner el rich snippet de Authorship es poniendo el código en la página  que hayas escrito, exceptuando la home y páginas que por si solas carezcan de contenido. Primero pondremos <a href=”http://laUurlDeAboutMeDeTuSitio” rel=”author”>Tu Nombre</a> en cada página de tu sitio para hacerlo es mejor que modifiques el tema del blog. Ahora en la página “About Me” de tu blog tendremos que poner <a href= ”http://tuPerfilAgooglePlus.com” rel=”me”>Pon aquí lo que quieras</a>.

Esto era todo! Fácil eh! 😉

Bonus: Podemos comprobar como ha quedado usando este verificador que nos indicará si lo hemos hecho bien y nos mostrará como queda.

Para mas información podemos ir al support de google

5 formas de recuperarte de malos links

A todos nos puede pasar que algún día construyamos links de dudosa calidad, pero posiblemente lo que distinga un buen seo de uno más regular es la capacidad de reacción cuando las cosas salen mal.

Antes de nada debes asegurarte que el problema son los links y no otra cosa como caer en el SandBox. Pueden ser distintos motivos por los que tu sitio está penalizado, así que asegúrate que el problema son los links.

1- Se paciente y espera

Puedes esperar un tiempo hasta que los enlaces desaparezcan por un o otro motivo. Si un sitio es hackeado y ponen enlaces spam hacia tu web solamente tienes que esperar hasta que el webmaster solucione el problema y quite los enlaces. También puedes esperar que dicho sitio web desaparezca, normalmente algunos sitios spam aparecen por un tiempo y luego vuelven a desaparecer.

2- Quita los enlaces

Fácil no? (ironia) Tienes que ir webmaster a webmaster a pedir que quiten el link. Es algo lento, tedioso y poco práctico. Pero además tiene otras contraindicaciones, como sabes que no estas quitando un link que te ayuda? O si lo han hecho expresamente porque lo iban a quitar?

3- Quita la página

Si la página dónde apuntan es la típica que está al final del internet y nadie visita, puedes borrar la página o si la penalización no es demasiado severa puedes intentar un 301 cambiando los buenos links hacia la nueva página. Al hacer la redirección 301 y cambiando los enlaces buenos es que los links spam diluyen su “maldad” y los buenos al cambiarlos conservan toda su fuerza decantando la balanza hacia el lado bueno. La página borrada debe devolver un 404 (excepto en el caso de la redirección).

4- Construye buenos enlaces

Dando media vuelta a la tuerca y mirando el problema de una forma optimista puedes llegar a la conclusión que también se pueden volver a construir buenos links para contrarrestar los malos. Esta vez más que la cantidad prima la calidad, es conveniente NO arriesgarse a construir links “malos”.

5- Pídele una reconsideración a Google

Si has hecho lo que has podido y al cabo de un tiempo todo sigue igual puedes pedir una reconsideración a Google para que revaluar tu sitio. Puede pedir la reconsideración a través de Google Webmasters Tools. Pero recuerda, tienes que ser claro, conciso y haber solucionado el problema.

Espero que no te encuentres nunca en esta situación, pero si es así espero que te sirva.

¿Cómo asegurarnos de que Google encuentra mi contenido original?

La intención de Google Panda es intentar reducir el spam en las serps, para conseguirlo uno de los objetivos es eliminando el contenido duplicado. Hecho que ha preocupado algunos bloggers y webmasters ya que es habitual tener alguien que te plagie el contenido de tu blog atribuyéndoselo.
La duda está en cuando se indexa la copia antes que el original que pasa.
Para evitar penalizar a quien no debe Google sigue estos indicadores:
*Usando las redes sociales Google puede llegar a indexar primero el sitio que lo ha publicado ya que se le supone que tendrás más tweets y shares que el otro, o por lo menos habrá más posibilidades de que Google encuentre el contenido antes.
*Haciendo ping a diferentes sitios webs te aseguras que distintos servicios tengan tu ultimo post permitiendo así tener referencias externas sobre la creación del nuevo contenido con las que comparar los datos de cada uno de los sitios webs con el contenido duplicado.
*Puedes avisar a Digital Millennium Copyright Act, enviando una solicitud de DMCA. La información sobre el tema la puedes encontrar en http://www.google.es/dmca.html. Básicamente lo que dices es que otro sitio te está plagiando. El problema es que el otro sitio puede desmentirlo o aceptar la culpabilidad y retirarlo. Básicamente es tu palabra contra la suya pero quizás puede ayudar con algunos webmasters.
*Si es un sitio que plagia varias páginas web, puedes informar de que es un sitio de spam. Haciendo “ver” a Google que ese sitio no aporta calidad a las serps y que merece ser eliminado.
Está claro que no siempre se puede acertar, pero puedes ponérselo más difícil a los que te intenten plagiar, haciendo pings, compartiendo en las redes sociales y demandando a la gente que se aproveche de tu contenido.
El link del vídeo en youtube: How can I make sure that Google knows my content is original?

Como trakear las arañas de los buscadores usando Google Analytics en WordPress

Ser capaz de trakear lo que las arañas de los buscadores están rastreando en tu página web te puede ayudar a obtener mas información útil sobre tu sitio. En muchos casos no podemos ver como las spiders interactúan con nuestro site ya que el código está en Javascript nos perdemos mucha cantidad de información. Pero ahora he encontrado un modo de poder ver lo que hacen las arañas en nuestro sitio y además mostrarlo de un modo visual bonito.

Lo que he encontrado ha sido un plugin de WordPress WP Bots Analytics http://wordpress.org/extend/plugins/wp-bots-analytics/ sacado de la web http://www.stayonsearch.com/tracking-search-engine-bots-with-google-analytics-on-wordpress (inglés) y que a su vez ha obtenido la idea de aquí http://www.web-analytics.fr/google-analytics-seo-comment-mesurer-les-vistes-des-robots-et-crawlers-sur-votre-site/ (francés). <-{Ya no funciona}

Para hacer que funcione el plugin tienes que:

  1. Crear un nuevo perfil poniendo la url que quieras por ejemplo robots.sitio.com y anotar el ID de propiedad web.
  2. Luego tienes que ir al sitio al cual has instalado el plugin y buscar la cookie del sitio que tenga de nombre __utma y luego escoges los primeros números antes que el punto. Ver imagen.

Cokie Editor
Cokie Editor

Para esto yo he usado el plugin para Firefox Edit Cookies.

  1. Con ambos números nos vamos a Ajustes en administración de nuestro blog, y allí escogeremos WP Bots Analytics dónde pondremos ambos números y guardaremos.

Ahora solo nos queda esperar que analytics vaya recogiendo los datos. Pero que hacemos con esos datos?

  • Podemos saber cuales son las paginas de mas interés para los buscadores y mejorarlas.
  • Potenciar las páginas menos atractivas para conseguir que tengan mas peso.
  • Ver que bots nos gastan mucho ancho de banda y quizás bloquearlos.
  • Ver si las arañas acceden a páginas restringidas, ver porque no siguen nuestras restricciones y reparar el robots o introducir código html en la página que haga el hecho.
  • También puede suceder al revés, páginas que queremos que sean indexadas y concurridas pero que no sea así y conseguí algunos enlaces o revisar la accesibilidad.

¿Se os ocurre algo más que se pueda hacer con esta información?

Nuevos factores de un posicionamiento más social

Los factores de posicionamiento que funcionaron hace 5 o 10 años no tienen porque funcionar ahora. Si funcionara todo igual significaría que no hemos evolucionado. Por lo que los nuevos factores del posicionamiento actual y un poco del futuro son:

1- Social media

Las redes sociales son un peso creciente en los factores de posicionamiento de los buscadores. Cada vez más los motores de búsqueda dan más relevancia a los enlaces compartidos en las redes sociales, por lo cual vamos a hacer un especial hincapié en Twitter, Facebook, Youtube y Google+. Pero solo en los factores sociales, ya que hay muchos otros factores.

Twitter

Nº de followers, cuantos mas de ellos mas alcance tendrá tus tweets, pero además importa la calidad de estos. No es lo mismo que te sigan bots que personas reputadas en tu campo de conocimiento.
El numero de retweets que te hagan es un buen indicador para saber lo interesantes que pueden llegar a ser tus tweets.

Facebook

Como siempre es importante la cantidad pero también la calidad de seguidores de tu página en Facebook. Quizás en Facebook sea un poco mas importante la cantidad que la calidad (calidad referida a la cantidad de amigos que tienen tus seguidores). Google no puede acceder a los perfiles privados de Facebook. Debido a estas restricciones de accesibilidad solo se rastreará los links que pongas en la página de fans y las interacciones que haya en la fanpage. Cuando hablo de interacciones me refiero a me gusta y comentarios en la página.

Youtube

El número de reproducciones de un vídeo indica el interés que tiene la comunidad en tu filme. Además cuantos mas comentarios tenga el vídeo de mas interés será considerado, ya que creará buzz en la comunidad. Un fuerte indicador es la proporción de likes que tiene un vídeo frente a los dislikes, cuantos mas likes tenga mas autoridad tendrá el vídeo Finalmente los enlaces que otros perfiles en Youtube otorguen a tu vídeo, cuantos más, obtendrás mayor reputación, tu y tu vídeo.

Google+

Obviamente como ya habréis pensado es el numero de +1, cuantas mas personas le den +1 a tus contenidos mayor relevancia tendrán. Aunque también es importante la obtención de comentarios que haga la gente en Google+.

Cualquier mención en una red social para los buscadores es una cosa buena. Aunque la mención sea mala es una mención. Como dicen lo importante es que se hable de ti, sea bien o sea mal.

2- La usabilidad

Ahora con la última actualización de Google (la panda) se ha potenciado la usabilidad como un factor directo en el posicionamiento. Google es una de las compañías que mas datos recopilan (por no decir la que más) todos sus servicios recopilan datos y saben usarlos. Posiblemente tengas analytics en todos tus sitios. Des de ahí el gran buscador sabe la tasa de rebote y el tiempo en tu sitio de tus visitantes y a partir de ahí decide si el sitio es interesante o no. Además también controla la gente que busca una palabra clave y entra en una web, si luego todo el mundo vuelve atrás y va a al siguiente sitio Google sabrá que la segunda es mejor que la primera. Consecuentemente la segunda pasará encima la primera justamente porqué los usuarios la encuentran mejor.

3- El branding

Google premia a las marcas que son enlazadas con el nombre de la marca. Esto a ojos de los buscadores significa que tienes una autoridad y un peso. Significa que la marca es conocida y que los usuarios tienen (o han tenido) una buena sensación con ella.

4- Horario

Si pretendes posicionar tu sitio en un país determinado tienes que pensar que no tiene ningún sentido publicar tus artículos a altas horas de la madrugada. Lo ideal sería que publicases en el horario en el que tienes máxima audiencia o por lo menos que estén despiertos.

5- Accesibilidad

Desde el 2009 Google prioriza los sitios que usan el atributo alt en las imágenes. Como más accesible sea un sitio para los buscadores y los usuarios en mejor ranking saldrás. Pero es que además tu negocio se beneficiará ya que los usuarios les será más fácil navegar y encontrar las cosas.

6- La velocidad de adquisición de enlaces

Si consigues muchos enlaces de golpe mal rollo si lo haces de un modo artificial, si lo haces de un modo natural como una campaña viral. Tienes que intentar conseguirlos de forma paulatina. Tienes que pensar que no puedes finalizar la adquisición de enlaces con una keyword y empezar con otra nueva, eso se nota.

7- La posición de los enlaces

No todos los links que apuntan hacia tu sitio web tienen el mismo peso, ni aun viniendo del mismo sitio web. Por ejemplo actualmente no se valora del mismo modo un enlace en el sidebar o el footer que en medio del contenido. Un enlace en medio del contenido se le da la relevancia del texto que lo rodea y por lo tanto tiene un contexto.

8- El anchor text de los enlaces internos

Los enlaces dentro de un mismo sitio son igual o más importantes que los enlaces provenientes del exterior. Es importante no menospreciar los enlaces internos y sus textos ancla. Pon los textos ancla con los que te gustaría que te enlazaran y dedícale un tiempo a pensar en ello antes de actuar.

9- Diversidad de enlaces

La naturalidad es un factor importante a tener en cuenta cuando hagamos linkbuilding. La diversidad ofrece naturalidad. Es importante tener enlaces de Pagerank alto, pero también es importante tener enlaces de Pagerank bajo. Tienes que tener más enlaces de pr bajo que de pr alto, ya que es de la forma que está compuesta la web. Me explico, en todo internet hay muchas webs con bajo pr y pocas webs con un pr muy alto.

10- Ratio de anuncios

Si eres de los que tiene publicidad en tu sitio intenta no pasarte poniendo anuncios. Sería bueno que intentases limitar la cantidad de anuncios que ven los usuarios. No solo por los buscadores también por los usuarios ya que tampoco es agradable ver un sitio web plagado de anuncios.

“Reflexión”: Basar nuestro trabajo (y el de todos los SEOs) en el ranking no tiene sentido. Se tienen que cumplir unos objetivos y unas ventas. No por mas visitas de los buscadores se vende mas. Tienen que ser visitantes que estén interesados en nuestro producto.