martes, 8 de julio de 2014

@analisisweb Novedad Universal Analytics "USUARIOS ACTIVOS"

       No creáis que voy a contar mucho, porque me lo acabo de encontrar hace un momento y no lo tengo en todas las cuentas de analytics, sólo en una.
       Me encontraba navegando con el objeto de actualizar el curso de Google ( Universal) Analytics y, por que no, el libro también, cuando unas letras de color naranja en el apartado de público parecían querer decirme algo:


      ¿Lo veis? BETA, pone BETA, justo encima de USUARIOS ACTIVOS. Buscadlo a ver si os aparece, porque ya os digo que a mi me aparece sólo en una cuenta, y tengo unas cuantas.

    En un primer momento pensé que se refería a usuarios de aplicaciones móviles, ya que cuando estamos en ese entorno podemos hablar de usuarios y usuarios activos dependiendo de si sólo han descargado la app o además la usan con cierta frecuencia. Pero no. Estamos hablando de usuarios en general ( ya sabéis que ahora se mezclan los datos de Apps con los de navegación web) Y, además, en el perfil en cuestión no tengo Apps...

    Una vez aclarado el misterio de apps y no apps, he investigado un poco en la ayuda de Google, y, cual ha sido mi sorpresa, no he encontrado nada ( bueno tampoco he buscado en profundidad). En este escenario he decidido ponerme a imaginar:



Nos encontramos con una métrica, USUARIOS ACTIVOS organizada en cuatro dimensiones:
  1. Activos en un día.
  2. Activos durante siete días.
  3. Activos durante 14 días.
  4. Activos durante 30 días.


Y ¿Qué quiere decir todo esto?


Sinceramente. NI idea. Así que me he puesto a imaginar. YO creo que se debe referir a la tendencia que siguen los usuarios según el tiempo que tardan en volver.
Es decir, los ACTIVOS EN UN DÍA puede ser que sean aquellos que han interactuado con nuestra web en el mismo día, aunque también pueden ser aquellos que SOLO lo han hecho un día... ( aquí me lío un poco)
El resto de puntos parece un poco mas claro, puede ser que sean aquellos que han tenido actividad a lo largo del período ( 7,14,30 días)
Aunque ya digo, ni idea de que puede ser todo esto..
Lo que si puedo decir es que en el gráfico podemos unir los cuatro tipos de usuarios activos y nos queda un gráfico tal que así:





Para que podamos comparar... una vez sepamos de que va todo esto, claro.
En fin, si alguien más lo tiene y puede poner un poco de luz en el asunto, que lo diga ahora.. o calle para siempre.


lunes, 2 de junio de 2014

@analisisweb te sigue enseñando a hacer dashboards via API


En el post anterior veíamos como conseguir tener acceso a los datos de Google Analytics vía API. Hemos aprendido a crear un proyecto en la consola de desarrolladores y nos han proporcionado unas claves, un email y un archivo que nos van a permitir acceder a los datos.


Lo que ahora necesitamos es una forma concreta de hacer las consultas. Para conseguirlo vamos a tirar de una librería php, que no es ni mas ni menos que una serie de archivos que nos vamos a descargar y nos van a proveer de las funciones necesarias para:



  • Configurar el acceso a nuestros datos para no tener que introducir login y password cada vez que hagamos una petición y
  • Funciones que nos van a permitir realizar las consultas  necesarias.
La librería la podéis descargar en el siguiente enlace:


Ésta librería realmente sirve para acceder a todas las APIS de Google, aunque la vamos a utilizar sólo para acceder a Analytics ( de momento).


Una vez descargada la librería, lo que tienes que hacer es subirla a tu servidor ( si no sabes como hacerlo o dónde ponerlo te paso un tutorial). No olvides también subir el archivo p12 que te descargaste desde la consola de desarrolladores de Google.

Intenta subirlo todo de una forma ordenada, al final de la serie de post de "crea tu dashboard" tendras un zip descargable con los archivos y la estructura ya montada, pero si quieres ir montándolo por tu cuenta mas vale que sigas un pequeño orden.


1.- Poniendo orden en las claves.

Conviene, para tener cambios posteriores controlados, hacernos u fichero con las constantes que vamos a utilizar. En otras palabras vamos a definir unas constantes para evitar problemas posteriores. Construye un archivo con el siguiente texto:


<?php
// definimos las constantes
        define("NOMBRE_APP""XXXXXX");//nombre que pusiste en APIs console
        define("ID""XXXXXX");// id que nos ha dado APIS console
        define("EMAIL""XXXXXX");//Email que nos ha dado APIS console
        define("FICHEROP_12""XXXXXX");// ubicación del fichero descargado
        define("CUENTA_GA"XXXXXX); // cuenta GA que utilizamos para acceder
?>

Ten cuidado, la cuenta_GA se consigue de la siguiente forma:

  • Ve al panel de administración de GA.
  • Elige una "vista", recuerda, ni cuenta ni propiedad "VISTA"
  • y en "VER Configuración" encontrarás el número correspondiente.
  • Ten en cuenta que es un NUMERO, no va entre comillas





Guarda el archivo y súbelo al servidor. Recuerda dónde los subes, porque luego deberá aparecer en un "include" en todos tus archivos.


2.-Estableciendo el acceso

Con un poco de orden ya establecido vamos con la siguiente fase en formato de archivo php. Ésta vez vamos a dejar preparado el código que nos da acceso a los datos, para poder hacer, posteriormente, las consultas necesarias. Presta atención, porque también es un archivo que tendrás que incluir ("include") en los  archivos de consulta. Vamos a ello,

<?php

//debes poner la ruta correcta para los siguientes archivos.dependerá de dónde decidas colocarlos.
require_once 'UBICACIÓN FICHERO DE CONSTANTES';
require_once 'ubicacionlibreria/src/Google_Client.php';
require_once 'ubicacionlibreria/src/Google/Service/Analytics.php';

session_start();

// Declaramos nuestra configuración 

$googleApi = array(
'id' => ID, // Id que nos ha dado la APIs Console
'email' => EMAIL', // email que nos ha dado la APIs Console
'keyFile' => FICHEROP_12// nombre del fichero llave
'gaAccount' => CUENTA_GA // id de la cuenta de analytics a la que nos conectamos
); 

// Creamos el cliente de conexión
$client = new Google_Client();
$client->setApplicationName(NOMBRE_APP);


$client->setAssertionCredentials(
new Google_AssertionCredentials(
$googleApi['email'],
array('https://www.googleapis.com/auth/analytics.readonly'),
file_get_contents($googleApi['keyFile'])
)
);

$client->setClientId($googleApi['id']);
$client->setAccessType('offline_access');

$service = new Google_AnalyticsService($client);

?>

Es un texto un poco largo para ponerlo e un post, pero seguro que te resulta útil. Lo primero que hacemos es llamar a los archivos donde están las constantes y las funciones necesarias para establecer el acceso sin necesidad de introducir constantemente login y password. no se a vosotros, pero a mi me parece bastante útil...

Ten en cuenta las rutas dónde ubicas la librería, las constantes y todo lo demás, ya que tendrás que cambiar el texto que te proporciono para poner bien dichas rutas ( lo que tienes que cambiar está en rojo)

A partir de éste momento estamos preparados para hacer...


3.- La primera consulta

Llega el momento de la verdad. En siguientes posts iremos construyendo consultas elaboradas, pero si quieres ver una consulta en acción aquí tienes el código.

         
$id=CUENTA QUE CONSULTAMOS ga:xxxxxx;
$fechainicio='aaaa-mm-dd';
$fechafin='aaaa-mm-dd';
$results = $analytics->data_ga->get($id,$fechainicio ,$fechafin,  'ga:sessions');
var_dump($results);

Con éste código podrás ver la respuesta que se obtiene al pedir el número de visitas (ga:sessions)  para un intervalo de fechas concreto. Es un array considerable con cantidad de información. Como el propósito de esta serie no es explicar toda la API de analyitcs, no veremos todo. Sólo veremos la parte que nos es interesante y que se encuentra en ['rows'] que es donde se encuentran los resultados.


Pero eso será en el siguiente post, donde veremos cómo hacer las diferentes consultas y qué podemos consultar, claro.

Un abrazaco, que me voy a dormir.

PD: es cierto que os prometí una serie de descargables. al final he decidido agruparlos todos y ponerlos a vuestra disposición al final.

miércoles, 28 de mayo de 2014

@analisisweb te enseña a hacer dashboards via API


Pues si. Creo que ha llegado el momento. Sacar los datos de la interfaz de Analytics está muy bien, pero llega un momento que viene bien tener tus informes personalizados de una forma en que sea comprensible para ti y no tengas que dar muchos pasos. No me enrollo, simplemente llega un momento en que lo mas eficiente es sacar los datos por tu cuenta y cocinarlos a tu manera.

¿Qué es lo que vamos a hacer?

Algo muy simple, vamos a ir montando poco a poco un sistema mediante el cual podremos extraer los datos de Google Analytics. En diferentes post os iré contando lo que necesitáis saber para llevarlo a cabo. Si yo lo he conseguido, que  a nivel de programación soy un mandril de culo rojo, para vosotros, que sois personas inteligentes seguro que no os resulta difícil.

¿Qué necesitaré?

Bien, como todo este sistema se va a mover en un entorno web las necesidades básicas son las siguientes:
  • Acceso a un servidor. Si, tendremos que subir unos ficheritos a un servidor para que seejecuten unos cuantos scripts..
  • Conocimiento muy básico de php. Yo lo aprendí en una semana así que...
  • Cuenta de Google Analyitcs.
Al lío, configurando el acceso a Google Analytics API

Ésto lo aprendí de @ikhuerta ya que os recuerdo que yo a nivel técnico soy mas bien un mandril de culo rojo..
En primer lugar vamos a crear un proyecto en la consola de Google para gestionar sus diferentes APIs.

Desde ahí dentro crearemos nuestro nuevo proyecto:
Aquí es donde le vamos a decir a Google que vamos a utilizar cualquiera de sus APIs. Buscamos la de Google Analytics y la activamos ( siempre leyendo las condiciones de servicio, claro)


Una vez hecho esto fíjate en las opciones de la columna izquierda. Debes crear unas credenciales de acceso para gestionar eso mismo... el acceso a los datos:
Presiona en "CREDENTIALS" y verás la siguiente pantalla:


Por si tienes alguna duda. Lo que tienes que hacer es crear un nuevo id de cliente ( El botón rojo) En ese momento tendrás que tomar una decisión. ¿qué opción elegimos para conectarnos? tenemos tres opciones:


La alternativa que queremos es "Service Account" ya que WEB APPLICATION nos obliga a montar un sistema de acceso de esos en los que hay que meter contraseña y demás cada vez que queramos acceder y el "Installed Application" es para eso... para aplicaciones.

Una vez elijas "Service Account" te mostrará una ventana con una contraseña que deberás guardar, ya que no aparecerá en ningún sitio mas y en ningún momento más:

Además se descargará un archivo de extensión .p12 ( y con un nombre rarísimo y larguísimo).
Guárdalo, porque luego tendrás que subirlo a tu servidor.

Al terminar este pequeño viaje obtendrás:
  • un ID de cliente.
  • una Dirección de Email.
  • una Clave pública.
Es importante que tomes nota de estos datos, ya que los necesitarás después para poder acceder a los datos. Además no olvides conservar el fichero "p12" que se ha descargado antes.

Con esto no acaba todo. Tenemos que dar acceso a nuestra cuenta de Google Analytics para poder acceder a los datos.
El proceso para conseguirlo es muy fácil. ¿Recuerdas que te han dado una dirección de correo electrónico?.
Dale acceso desde Google Analytics en el panel de administración (gestión de usuarios):


E introduce el correo electrónico que te ha dado la consola:


A partir de este momento ya tienes acceso a tu cuenta de Analytics vía Api. Bueno, realmente no, sólo has dado los primeros pasos, que no es poco.

En la próxima entrega veremos:
  • Cómo organizar el servidor (estructura de carpetas básica) para nuestro sistema.
  • Configurar una librería que nos da las funciones necesarias para hacer peticiones de datos.
Además tendréis los primeros descargables de ésta serie, que serán:
  • PDF con los diferentes textos ( para que lo tengáis para siempre)
  • Archivos de configuración para que los podáis subir directamente a vuestro servidor.
Espero que os guste, y que lo sigáis, porque una vez esté terminada esta serie de posts, los pdfs sólo se podrán conseguir pagando... y el que avisa no es traidor.

PD: no se si hacerlo en modo libro o montar un curso moodle... ¿qué os apetece mas?













viernes, 23 de mayo de 2014

@analisisweb habla de muestreo...#coñoya!

Llega un momento e que te planteas hacer una encuesta. En ese momento te coges unas cuantas preguntas y las lanzas a ver que pasa. Mas tarde tienes tus respuestas que puedes analizar y todo solucionado...
Como esta sea tu historia te retiro la palabra. #hedicho

Efectivamente, todo lo anterior es caca ( si, caca) si quieres tener alguna certeza de que las conclusiones que saques del grupo al que preguntas represente al total del grupo que estas estudiando, mas vale que hagas las cosas bien, vamos paso por paso:

1.-Especifica y acota la población a analizar:
Si, para escoger una muestra lo primero es saber cuál es el total. Y eso es así. En el caso de una web pueden ser todas las visitas, o sólo los nuevos, o sólo los que compran,  en fin lo que necesites según el caso.

2.-Realiza un diseño de la muestra:
Esta muestra va a ser representativa. Es decir que las conclusiones que saquemos de su estudio se podrán inferir a la población (universo).
Una de las decisiones mas importantes en lo referente a la muestra es el tamaño. Es (casi) cierto que con una muestra mas grande mas probable es que obtengamos resultados representativos, pero no siempre es así. Es mas importante conseguir una muestra representativa que una gran muestra, que encarecería el estudio y lo haría todo mas complicado. Recuerda que precisamente se utilizan los estudios mediante muestra por la imposibilidad e ineficiencia de trabajar sobre todo el censo, ya que si eso fuera posible ¿qué sentido tendría estudiar una muestra?
No me desvío, la forma más básica de escoger una muestra es mediante la siguiente fórmula:

N=(Z^2pq)/E^2

En otras palabras, N=tamaño muestral. Z=nivel de confianza.P=variabilidad positiva Q=variabilidad negativa y E=precisión del error que estamos dispuestos a asumir.

Lo mas habitual es que no conozcamos la varianza poblacional (pq) por eso nos encontraremos la mayoría de las veces que su valor asignado es 50.

El nivel de confianza puede variar, pero mi recomendación es que sea 2sigma (95,5%) ya que elevarlo puede suponer un incremento brutal del tamaño de la muestra, y con un nivel menor la gente empieza a no sentirse cómoda. 
En lo referente al error que asumimos, un par de datos. SI eliges un 5% obtendrás una muestra de 400 unidades mientas que si tienes poca tolerancia (0,1) el tamaño se dispara a 1.000.000... tu verás que eliges. Los errores elegidos habitualmente están entre el 2% y e l 2,5%.

Con todo esto no aseguramos la representatividad de la muestra. Además se tienen que cumplir unas cuantas cosas mas:
  • Cada unidad que participe en la muestra debe tener LA MISMA PROBABILIDAD de ser elegida para la muestra. ( no vale poner la encuesta a primera hora de la mañana en la web, no).
  • La elección de cada elemento de la muestra debe de ser independiente del resto.
Ahora si. Ahora ya tenemos una muestra en condiciones...
Para elegir la muestra podemos hacerlo de las siguientes formas:
  • Mediante muestreo aleatorio simple: La forma mas simple, como su propio nombre indica. Se escoge el marco muestral y generamos una tabla de números aleatorios que asignamos a los diferentes elementos para que sean elegidos. En el caso de la web es complicado. Los usuarios vienen cuando quieren... tendremos que afinar un poco más.
  • Mediante muestreo Sistemático: Elegimos a la "primera víctima" y volvemos a escoger cada "N" individuos. Esto afina un poco mas ¿no crees?, el problema que nos encontramos es que las visitas están ordenadas según el factor tiempo, lo que puede favorecer la sobrerepresentación de algún segmento. También tenemos el:
  • Muestreo Aleatorio estartificado: Muy útil cuando tenemos información sobre características de la población de interés (nuevos, recurrentes, etc) Supone clasificar a la población según esas caracterísitcas que nos interesan para asegurarnos que tienen representación en el estudio. Dentro del mundo de la "estartificación" hay muchas formas de hacerlo, de forma proporcional, por afijación simple u óptima ( no proporcionales)... sobre eso ya hablaremos más adelante.
  • Muestreo por Conglomerados:  es otra forma de clasificación, pero ahora, en lugar de elegir grupos que son homogéneos, elegimos una muestra de conglomerados que son heterogéneos en su composición...
En fin no me alargo mucho mas, que como siempre... es tarde mi entra el sueño.


martes, 20 de mayo de 2014

Second Screen.A @analisisweb se le está yendo la olla.


Yo sigo dándole vueltas, porque estas cosas de la "segunda pantalla" o "second screen" tienen que ser bien planteadas desde el principio, que luego todo es un lío...

En los últimos eventos voy comprobando que tal y como esta planteado el asunto de la segunda pantalla ocurre algo que o bien puede ser aprovechado por anunciantes ( ya avisaba +Francisco Asensi en un comentario en este mismo blog)


O bien nos puede servir para replantear que es lo que queremos de ésta nuestra "Segunda pantalla"

Según están las cosas creo que estamos volviendo esquizofrénica a la audiencia. Les requerimos que mientras ponen toda su atención en lo que están viendo en la pantalla principal además utilicen otra aplicación en otro dispositivo para realizar dios sabe qué actividad...
No es una invención que aparece por arte de magia, es de todos sabido la influencia de twitter en todo esto, algo ocurre y lo tuiteamos. Esto es así, pero lo que queremos ahora es que estén comentando todo el rato, en definitiva...
queremos que pongan plena atención en dos cosas/dispositivos a la vez
No dudo que con entrenamiento se pueda hacer, tenemos el caso de los video juegos, donde al tiempo que se presta atención a la pantalla el jugador maneja los mandos con bastante soltura. Pero el caso que nos ocupa es diferente,
pretendemos que la audiencia preste atención a dos cosas/dispositivos a la vez con los mismos sentidos
Es decir, queremos que miren a dos dispositivos a la vez, escuchen dos aplicaciones a la vez, etc
Difícil misión para una especie ( la humana) cuyo 52% de la población ( hombres) tenemos serias dificultades para caminar y hablar a al vez

En otras palabras, en el campo de la analítica y del CRO nos pasamos el día diciendo que no hay que poner distracciones al posible cliente, mostrarle el camino, un sólo camino y llevarle en volandas hacia la conversión... ( para mas información hablad con +Natzir Turrado que ahora está con éstas cosas y el neuromarketing) y ahora, llegan los de los medios audiovisuales (tv) y pretenden ponernos mil luciérnagas que nos distraigan de lo que queremos hacer.

Creo que debemos repensar una vez mas todo este asunto, yo empezaría por reducir dispositivos, porque en mi caso, el día de eurovisión..

Tecnología tenemos (HbbTV) y no le estamos dando toda la caña que se merece. En los noticieros ahora mismo nos dicen que apretemos el "botón rojo" para ampliar información, y lo único que ocurre es que al finalizar nos permite ver algo mas de información de las noticias... NO es que esté mal, las posibilidades son las que son, pero yo, personalmente, quiero más. 
Entiendo que un primer paso es solaparse con los rótulos e infografías que ya incluyen los realizadores en las propias emisiones, pero ¿qué pasaría? si ( y es posible hacerlo, no es utopía)
  • pudiésemos comentar las emisiones directamente en la pantalla principal ( y no en otro dispositivo) o,
  • pudiésemos comprar esos productos que vemos en las emisiones o publicidad directamente en la primera pantalla (¿ t-commerce?) y al tiempo que lo vemos, claro.
Son sólo dos ejemplos, los mas básicos, porque con este nivel de interacción podríamos llegar a encontraos programas en directo que modificasen el transcurso de los acontecimientos en base a las interacciones que reciban ( vale, esto si es utopía), pero ¡cuidado! que esto al final se convierte en los típicos SMS que aparecen en la zona baja de la pantalla, y tampoco es eso, tenemos que jugar con la tecnología... y nuestra imaginación no se...
  • ¿podrían darnos a elegir entre varios finales para una serie que estemos viendo? o
  • ¿podríamos seguir los resultados de las elecciones durante el día mientras vemos cualquier otro programa? ( ésta es realmente fácil, estaría bien verla la próxima semana)
Una vez reducido el número de dispositivos la cosa se pone mas fácil, el embudo ya está creado. Por un lado centralizamos la atención en un solo dispositivo, y por otro, al estar conectados, nuestras interacciones pueden salir a las redes y servir de llamada a aquellos que son navegantes pero no audiencia ( en algún caso podría ocurrir al revés)

En fin aquí lo dejo, que es tarde y me ha entrado sueño...

PD: +Francisco Gallego  ha vuelto a pasar, asi, sin planificar...  me ha salido otro post.


 

miércoles, 30 de abril de 2014

@analisisweb mide las player cards de twitter con Analytics


Hace muy poquito los amigos de twitter han sacado las "player cards". Son tweets que llevan un vídeo que puedes reproducir desde el mismo twitter. Sirven para incluir audio, video o presentaciones.
Esto tiene bastante gracia, permite que se incrementen las interacciones sobre el contenido que publicamos en twitter. Es decir, que no necesitamos llevarnos el tráfico a nuestra web para que consuman nuestro contenido. Y esto tiene consecuencias.

  • twitter mejora sus estadísiticas internas de  interacción y engagement.
  • TU web mejora sus KPI's de engagement en redes sociales, notoriedad, etc
  • PIERDES TRÁFICO.
El último punto no tiene problemas si puedes llevar a cabo tus conversiones en twitter, pero si dependes de que aterricen en tu web y del número de usuarios únicos... pues tienes un problema.
¿Cómo medir las Player Cards?
El secreto de todo esto, como dice la documentación, es que es contenido en un iFrame. Un iframe no es mas que un contenido HTML cargado en otro, así que la solución es fácil. No hay más que meter nuestro código de analytics en el iframe que vamos a compartir.
De ésta forma obtendremos estadísiticas de la tarjeta en nuestro Google Analytics.
¿Cómo lo veo en Analytics?
 Hay varias formas de verlo,  pero lo primero que te recomiendo es que ya que has metido el tag de analytics tengas la precaución de poner un nombre de página cuando envíes la información a analytics, de esta forma:

ga('send','pageview','NOMBRE DE PAGINA');

Donde 'NOMBRE DE PÁGINA', deberías poner algo descriptivo y con significado para ti, por ejemplo puedes incluir que es una twcard y el contenido que compartes no se, algo como 'tcard/videoComunionPaquirrin'.

Así, podrás hacer un segmento, o filtrar y tener controlado cuántas veces se ve tu card, pero...

¿Y si no le he puesto un título descriptivo?

¿Cómo encuentro ese contenido en analytics? No te preocupes, es fácil. Al estar en un Iframe dentro de twitter su fuente será Twitter.com. Como sabes el tráfico de twitter viene de Twitter.com o desde t.co ( acortador de twitter). Las TWcards siempre (de momento) vendrán de twitter.com, ya que no son enlaces acortados.
Pero aquí no se queda todo, porque además tienen una "ruta de referencia" que será algo parecido a: i/cards/tfw/v1/460737842....

Esa es la URL donde está alojado el iframe...
Si consigues llegar a éste contenido tendrás una pista muy buena de cuántas veces se ven tus cards. MOLA ¿no?

Bueno, esto también tiene sus pegas, en los sistemas donde no se pueden ver players en linea o iframes se cargará una imagen ( que tienes que proveer tú) y entonces no se va a cargar el tag, y no tendrás tus datos...

En fin, yo sigo investigando esto, porque es una forma fantástica de conseguir tráfico sin tener tráfico o ¿si?


jueves, 24 de abril de 2014

TV second screen a ver como mides eso.


De un tiempo a esta parte somos todos unos modernos. Si antes esperábamos a que un programa terminara o al día siguiente para comentar las mejores jugadas con los amigos ahora cogemos el móvil y lo tuiteamos...
Las televisiones no son ajenas a este comportamiento y, obviamente quieren intentar sacar tajada. Vale, que quieren "entablar conversación" con los televidentes, aumentar el "engagement"... bueno y de paso incrementar la cifra final de audiencia y tener mas puertas de entrada de dinero por publicidad...
No me lío...
A lo que quiero llegar es que ahora el contenido nace antes de su emisión, es mas grande que lo que vemos por la pantalla "principal" y no perece en el "the end"  y esto requiere unas cuantas cosas a tener en cuenta a la hora de la medición.
1.- El contenido nace antes de su emisión
Lo que quiero decir es que hacemos la llamada desde mucho antes, para tener prevenida a la audiencia. La misión es la siguiente:
  1. Hacer llegar al máximo de gente la noticia de la llegada de nuestro evento. Para ello utilizamos las redes sociales.
  2. Conseguir que sepan que existe una aplicación ( aparte de twitter) con la que podrán tener mas contenido extra y, lo mas importante, que aprendan a usarla
  3. Que descarguen la aplicación...
¿CÓMO MEDIMOS TODO ÉSTO?
Pues poco a poco... Lo primero que encontramos es que tenemos varias fuentes de datos.
Para saber si llegamos al máximo de gente en redes sociales tenemos las propias métricas de Facebook y Twitter, que nos van a decir el universo al que llegamos ( mas me gustas, like, followers con las acciones que llevemos a cabo). En segundo lugar, y si hemos etiquetado correctamente nuestros enlaces podremos saber, con la herramienta de analítica web si conseguimos que vengan a nuestra web a informarse sobre lo que va a venir y la existencia de la aplicación de segunda pantalla...
Por último nuestro "market" nos dirá si estamos consiguiendo esas descargas o no...

2.-Es mas grande de lo que vemos en la pantalla "principal" ( el contenido)
Llega el momento tan esperado. La emisión del evento en la "pantalla principal". Aquí volvemos a repetir la "llamada". Esta vez es más complicado, porque la atención empieza a centrarse en el evento, hay que aprovechar para repescar a los que están en redes sociales para que se dirijan a la aplicación y al evento en la pantalla principal y llamar a aquellos que están en la pantalla principal para que disfruten de la App... un cacao, vamos.
¿CÓMO MEDIMOS TODO ESTO?
Además de las formas de medir ya descritas, tenemos que añadir la medición de tv, y comparar como se mueve esa audiencia e interacciona con la app, etc. Aqui el reto es poder verlo todo en tiempo real  para poder actuar y modificar cosas. Por ejemplo, viendo como va la cosa podemos pedir a los comentaristas que recuerden la existencia de la aplicación o podemos intentar ( difícil misión) traer tráfico desde redes sociales, etc


Aquí, viendo los gráficos surgen varias hipótesis y retos.
  1. Mantener la atención de los usuarios sobre el contenido "segunda pantalla". La Competencia es dura, me pongo en la piel del usuario y pienso "¿a que estamos a rolex o a setas?"
  2. La "segunda pantalla" cobra protagonismo cuando la "primera" cesa su estímulo. Es decir, dejo de ver el evento principal y es cuando me pongo a comentar. Un comportamiento lógico, por muy multitarea que seas o estas a una cosa o estas a la otra, porque mientras comentas no ves lo que ocurre y tienes que ver lo que ocurre para poder comentarlo...
3.-No perece en el The End...

Y esto no es algo nuevo, comentar al día siguiente siempre ha ocurrido, pero ahora, además, podemos ir a algún sitio a volver a ver el vídeo de turno o e comentario del momento.

Es aquí donde ya juntamos todos los datos desde sus diferentes fuents y hacemos el análisis "post-mortem", vemos audiencias de tele, analizamos lo que hemos almacenado en tiempo real, comprobamos que nuestras redes sociales no nos traen todo el tráfico que pensábamos, pero sirven para generar atención ( ¿quizá llevaba la audiencia a la tv?) o para convertir en mejor jugador al portero...

En conclusión, tenemos que la aparición de la "segunda pantalla" plantea unos cuantos retos, tanto a nivel de medición, ya que tenemos medición pre y post y en tiempo real y tenemos también multitud de fuentes de datos y puntos diferentes de llegada de la audiencia ( web, tv, apps). Por otro lado también presenta unos cuantos retos, ¿queremos que el uso sea al mismo tiempo o que una pantalla complemente a la otra? ¿está el público preparado ( a todos los niveles) para esta forma de consumir contenidos? ¿podremos disfrutar de los contenidos y su extensión sin tener que estar con multitud de dispositivos? y, lo mas importante si estoy viendo la tv, tuiteando con el móvil y viendo contenidos en la tableta ¿Cómo c*j*n3s sujeto la cerveza para beber?

Abrazacos, amigos y amigas.