Archivo de la etiqueta: analítica

Manual sobre “Open Graph Protocol”

Hasta hace poco Facebook “escaneaba” la página y con ella extraía los elementos que consideraba más interesantes, como el título, un breve resumen del sitio, un vídeo o una imagen si existían, etc. Con “Open Graph Protocol” puedes definir en cualquier página web el valor los elementos del objeto que se muestra en Facebook. Lo que resumiendo sería que si pones esto el usuario al compartir (o darle like) a tu página posiblemente mostrará más información que antes.

En este link podéis encontrar un vídeo (en inglés) sobre Open Graph Protocol, explicado por uno de los ingenieros de Facebook (tiene mucho acento indio, espero que no os cueste entenderle).

Estas “metas” se ponen dentro del head de la página. En los ejemplos lo ponen justo debajo del tag <title> yo lo pondría después de las meta “normales”, aunque cada cual que lo ponga dónde más le guste.

Probablemente las que vayas a necesitar estén dentro de este listado:

<meta property=”og:title” content=”Manual Open Graph Protocol”/>
<meta property=”og:url” content=”http://rocreguant.com/Manual-sobre-Open-Graph-Protocol”/>
<meta property=”og:description”content=”Brebe introducción sobre Open Graph protocol (impulsado Facebook), para implementarlo de forma simple en cualquier sitio web.”/>

Luego también se puede añadir metas como imágenes o vídeos (estos ejemplos han sido sacados de la web oficial)

<meta property=”og:image” content=”http://ia.media-imdb.com/rock.jpg”/>
<meta property=”og:video” content=”http://example.com/bond/trailer.swf” />

Pero esto no termina aquí! Utiliza Open Graph Protocol para que Facebook trate tu URL como una Fanpage! ([EN] fuente)

Esto lo puedes conseguir añadiendo una de las siguientes lineas de código.

<meta property=”fb:admins” value=”USER_ID1,USER_ID2″ /> (dónde USER_ID2 y USER_ID2 serian los administradores)

O bien usando:

<meta property=”fb:app_id” value=”1234567″ /> (dónde value sería el ID de vuestra app en facebook)

Con esto podrás acceder a tu panel de analytics como el de las Fanpages, en el que te muestra los usuarios activos diarios, los likes, los nuevos usuarios…

Para más información podéis consultar la web oficial de Open Graph Protocol.

Bonus: Lo que se comenta en las altas esferas es que puedes usarlo para “engañar” a Facebook. Por ejemplo, tu haces un vídeo relacionado sobre el post que has escrito pero sin ponerlo como embedded. Lo pones como meta, y la gente al darle al like a la página sin vídeo comparte el vídeo. (link black)

Monitoriza en que redes sociales tus visitas estan logeados

Hacia mucho tiempo que le estaba dando vueltas a la monitorización de las redes sociales en las que los usuarios estaban conectados. Hice algunos experimentos y no conseguí que me funcionara. Después de muchos intentos desisto y os pongo la información que he recopilado al respeto y que me parece interesante.

El artículo que me inspiró en hacer esta búsqueda fue [EN]: http://www.seomoz.org/blog/visitor-social-network-login-status-google-analytics

Aquí podréis encontrar los códigos que en seomoz son imágenes [EN]: http://www.tomanthony.co.uk/blog/detect-visitor-social-networks/

Y finalmente si os rendís (como yo) aquí tenéis el plugin para WordPress que lo hace: http://wordpress.org/extend/plugins/social-network-user-detection/

Aunque destacar que creo que era necesario hacer una app para Facebook aunque usases el plugin.

Si alguno de vosotros lo consigue hacer que no lo dude y haga un manual explicándolo y lo enlazaré desde aquí. Ya que me he quedado con las ganas de saber lo que hacía mal…

Posibles problemas del Big Data

No todo es maravilloso en el Big Data, también tiene algunos inconvenientes que es necesario saber para no caer en errores.

Correlación: Que algo suceda no quiere decir que tenga una correlación que nos afecte. Por ejemplo que la gente que viene a trabajar los lunes esté más cansada y que los lunes tengamos más trabajadores que vienen en bus no quiere decir que al venir en bus se cansen más. Puede ser que su fin de semana fuera agotador.

Ahora ya no se pueden trazar estadísticas desde el despacho de la oficina, se tiene que hacer experimentos en el mundo real y comprobar que las hipótesis con sus conclusiones son ciertas.

No todas las organizaciones (incluida la administración) son capaces o tienen ganas de adaptarse.

Comprender los resultados: Prácticamente cualquier ordenador ahora te puede calcular grandes cantidades de datos, pero detrás de los resultados tiene que haber una conclusión. Los números por si solos son estériles, tiene que haber una parte humana para interpretar los resultados correctamente y sacar las conclusiones acertadas.

Problemas de base: Todos los datos están en un mismo sitio? Los poseedores de estos son las mismas personas? Puede pasar que en una empresa los datos estén repartidos entre los diferentes departamentos y almacenados de distintas formas. Esto requeriría una colaboración distinta entre los distintos departamentos de la misma empresa.

Pero no sólo esto, sino que también puede pasar que la empresa no sea la propietaria de los datos y consecuentemente no los puedas usar en según que circunstancias o necesites permisos.

Problemas de identificación: Esta es la incapacidad de identificación de los datos. Pongo un ejemplo más aclarador. Si lo que transmite datos es una tarjeta SIM como sabemos si es hombre o mujer, su edad… Los datos son de más utilidad si están ligados con las personas.

Problemas de privacidad: cada vez más los clientes quieren tener más control sobre sus datos y en que forma se usan, por lo que normalmente tienen que autorizar un permiso expreso para que sus datos se usen. A parte de esto la ley de cada país dictamina como se tienen que tratar estos datos, y en ocasiones como España, esta ley es muy dura. Todo esto puede terminar como 1984 de George Orwell.

Información desactualizada: Algunas veces nos entestamos en guardar datos. Esto es bueno para hacer predicciones, pero no por eso tenemos que dejar de adquirir nueva información. Basar decisiones en datos desactualizados no es muy sabio. Siempre es mejor tener información actualizada, forzando un poco más la situación podemos encontrar el ejemplo de que un cliente se ha mudado y la residencia que tenemos ya no es válida.

Incapacidad de tratamiento de la información en tiempo real: Algunas veces no vamos a necesitar los datos de inmediato, pero otras veces si que necesitamos saber los resultados progresivos para actuar al respeto. Por ejemplo, de que sirve tener los niveles de existencias si sólo se calculan una vez por semana? Si los tienes actualizados posiblemente no tengas problemas de aprovisionamiento. Sé que es un ejemplo infrecuente raro pero sirve.

 No todos los datos son información: hay infinidad de motivos por los cuales el 100% de nuestros datos no aportan información. Como por ejemplo duplicidad de datos P.ej. Retweets manuales (o la misma info en diferentes redes sociales), backups, etc.

Problemas de relevancia: No toda la información tiene la misma importancia. Hay ruido en Internet, pero además para lo que algunos puede ser ruido para otros puede ser música. Seguro que los diarios Chinos son importantes para los Chinos, pero para mi no me aportarían demasiado a menos que viviera allí.

Como veis no todo son ventajas, aunque a mi parecer vale la pena intentarlo. El futuro está en la optimización de los recursos y en esto se basa el Big Data.

Cómo saber las palabras clave que te aportan más tráfico a una landing page

Al saber las palabras clave que aportan mayor tráfico a una determinada landing page nos ayudará determinar u conseguir saber de algún modo cuales son las palabras que tenemos mejor posicionadas para una determinada página de nuestro sitio.

Aunque parezca extraño (porque se trata de contenido) para saber a través de que palabras clave llegan los usuarios debemos ir a “Fuentes de tráfico” > “Búsqueda” > “Visión general”.

Una vez allí seleccionaremos “Tabla dinámica” como en el cursor de la imagen.

Tabla dinámica Google Analytics

Finalmente en el desplegable precedido por “Crear tabla dinámica por:” seleccionaremos “Página de destino”.

De este modo podremos ver a la izquierda las palabras clave y en la parte superior cuanto tráfico aportan a cada landing page. La non provided posiblemente sea la que “aporte” más tráfico. Para saber que keywords nos aportan más tráfico a una landing solo debemos ordenar las palabras clave pulsando sobre el nombre de la página.

Como trakear las arañas de los buscadores usando Google Analytics en WordPress

Ser capaz de trakear lo que las arañas de los buscadores están rastreando en tu página web te puede ayudar a obtener mas información útil sobre tu sitio. En muchos casos no podemos ver como las spiders interactúan con nuestro site ya que el código está en Javascript nos perdemos mucha cantidad de información. Pero ahora he encontrado un modo de poder ver lo que hacen las arañas en nuestro sitio y además mostrarlo de un modo visual bonito.

Lo que he encontrado ha sido un plugin de WordPress WP Bots Analytics http://wordpress.org/extend/plugins/wp-bots-analytics/ sacado de la web http://www.stayonsearch.com/tracking-search-engine-bots-with-google-analytics-on-wordpress (inglés) y que a su vez ha obtenido la idea de aquí http://www.web-analytics.fr/google-analytics-seo-comment-mesurer-les-vistes-des-robots-et-crawlers-sur-votre-site/ (francés). <-{Ya no funciona}

Para hacer que funcione el plugin tienes que:

  1. Crear un nuevo perfil poniendo la url que quieras por ejemplo robots.sitio.com y anotar el ID de propiedad web.
  2. Luego tienes que ir al sitio al cual has instalado el plugin y buscar la cookie del sitio que tenga de nombre __utma y luego escoges los primeros números antes que el punto. Ver imagen.

Cokie Editor
Cokie Editor

Para esto yo he usado el plugin para Firefox Edit Cookies.

  1. Con ambos números nos vamos a Ajustes en administración de nuestro blog, y allí escogeremos WP Bots Analytics dónde pondremos ambos números y guardaremos.

Ahora solo nos queda esperar que analytics vaya recogiendo los datos. Pero que hacemos con esos datos?

  • Podemos saber cuales son las paginas de mas interés para los buscadores y mejorarlas.
  • Potenciar las páginas menos atractivas para conseguir que tengan mas peso.
  • Ver que bots nos gastan mucho ancho de banda y quizás bloquearlos.
  • Ver si las arañas acceden a páginas restringidas, ver porque no siguen nuestras restricciones y reparar el robots o introducir código html en la página que haga el hecho.
  • También puede suceder al revés, páginas que queremos que sean indexadas y concurridas pero que no sea así y conseguí algunos enlaces o revisar la accesibilidad.

¿Se os ocurre algo más que se pueda hacer con esta información?