Patrocinamos Untagged IO 2016: Resumen de ponencias

Analítica Digital

El pasado 9 de noviembre tuvo lugar la primera edición del Untagged, evento internacional de Analítica Web, en el Google Campus de Madrid, al cual acudimos como patrocinadores.

Fue un evento realizado íntegramente en inglés y con gran nivel, tanto por el perfil de los ponentes como del público asistente. Dado que no es sencillo resumir más de seis horas de ponencias en un sólo post, aquí recogemos las ideas principales de la exposición de cada ponente, así como los enlaces a las ponencias que han sido hechas públicas por los autores.

Brian Clifton: “The Current State of Digital Analytics”

Brian hizo un breve recorrido por la analítica web desde sus comienzos hasta hoy, y su ponencia giró principalmente en torno a la importancia de la calidad de los datos.

Nos lanzó una pregunta esencial que hay que hacerse antes de realizar cualquier análisis: ¿Puedes confiar en los datos que da tu herramienta de analítica web?  Es una pregunta básica, sobre todo si inviertes más de 100.000$ en una herramienta premium de analítica web.

Y es que, según las investigaciones de Brian, ya sólo en la implementación básica de la herramienta la mitad de las webs lo hacen mal, con páginas donde falta el código de medición o está duplicado. Otros datos que nos ofreció: sólo el 21% hace un seguimiento correcto de los envíos de formularios, el 26% mide bien las transacciones, el 25% mide las campañas correctamente y sólo un 4% segmenta a sus usuarios correctamente…

Para saber si se pueden sacar conclusiones acertadas de los datos es esencial auditar la calidad de los datos antes de realizar cualquier otro proceso….y no es un proceso sencillo. Una auditoría puede llevar más de tres días de trabajo.

En cualquier caso, la recomendación que nos hizo es nunca realizar un dashboard hasta que el índice de calidad de los datos supere el 50%.

Twitter: @BrianClifton

Kristoffer Ewald: “Innovations in Digital: New Models and Metrics”

En un entorno en el que los datos están en todas partes, Kristoffer hizo una referencia al “Cluetrain Manifesto”, en el que se comienza afirmando que los mercados son conversaciones y esas conversaciones crean diálogos.

Conceptos como el de los seis grados de separación ya no son válidos, por el simple hecho de que con las redes sociales ahora estamos mucho más relacionados entre todos que antes. Hemos pasado de un mundo donde la información estaba centralizada con un único nodo, a un mundo donde está totalmente descentralizada, donde la popularidad no es influencia y donde la web no es el centro sino un canal más.

Actualmente, en el mundo digital nos encontramos a retos como los siguientes:

  • Sabemos qué tenemos que segmentar, pero no sabemos cuál es el criterio: entre una muestra de usuarios, los podemos segmentar por innumerables criterios: los que llevan sombreros, las mujeres, los que llevan jersey verde, los que visten con pantalones azules… ¿cuál es la segmentación correcta que necesitamos?
  • Aún a día de hoy, muchas herramientas siguen atribuyendo la conversión al último clic, cuando estamos en un mundo caracterizado por la multicanalidad y la superposición de dispositivos: el reto es encontrar el modelo correcto.
  • En analítica estándar habitualmente nos falta una métrica fundamental: las impresiones… ¿cómo podemos entonces medir la conversión correctamente?
  • El plazo de expiración de una cookie es ridículo, ya que muchas de las conversiones suceden más allá de los 90 días. Pueden pasar incluso años. Si compramos un coche, tiene muy poco sentido que nos hagan remarketing a los pocos días de comprarlo, pero sí que lo hagan años después cuando es presumible que estemos valorando cambiar de nuevo de coche.

En definitiva, todos estos retos nos llevan a replantearnos constantemente los modelos y las métricas a utilizar.

Twitter: @kewald

Simo Ahava: “Measuring engagement: Google Tag Manager & Google Analytics”

Google Analytics es una excelente herramienta, pero la simple medición de una métrica tan básica como la sesión puede ser problemática:

  • Se resetea a los 30 minutos.
  • Cambia a media noche y en función del huso horario seleccionado en cada vista.
  • Cambia en función de si se implementa la configuración cross-domain.
  • Puede haberse implementado incorrectamente en Google Analytics o en Google Tag manager.

Google Tag Manager nos permite hacer configuraciones súmamente útiles para la medición de contenidos.

Simo nos proporcionó al respecto consejos para implementar mediciones a través de agrupaciones de contenidos y, de ese modo, poder hacer agrupaciones como autor, fecha de publicación, encabezado, longitud del título, longitud del artículo… todo a través de variables personalizadas de JavaScript que luego podemos incluir en los campos de agrupación de contenido en Google Tag Manager o incluso como dimensiones personalizadas en las páginas vistas.

Con ello, se pueden hacer análisis avanzados muy útiles como estudiar el engagement de los artículos de un blog en función del número de palabras que tienen, el número de imágenes incluidas…

Como colofón, Simo nos dejó estas 5 frases que debemos tener en cuenta:

  1. La calidad de los datos hay que conseguirla, no viene por defecto.
  2. Google Analytics es demasiado genérica en su configuración básica.
  3. Las plataformas de analítica web hay que personalizarlas para obtener informaciones basadas en datos que sirvan a la organización.
  4. Entender cómo se puede medir el contenido es una gran oportunidad para medir objetivos.
  5. El conocimiento de la tecnología web es un requisito fundamental para un analista web moderno.

Twitter: @SimoAhava

Ani López: “Store, Extract, Transform, Load, Visualize”

Ani nos desgranó el proceso de tratamiento de los datos, desde el almacenamiento a la visualización. Para realizar un análisis debemos seguir los siguientes pasos:

1) Almacenar

Debemos crear nuestra propia base de datos, donde integremos todos los datos de las distintas fuentes y esto no es sencillo, a veces es complicado incluso tener acceso a los datos que nos piden analizar.

Esta base de datos puede ser desde un simple excel hasta una solución Cloud como Amazon Redshift.

2) Extraer

Disponemos de herramientas económicas, como Next Analytics o Supermetrics, otras no tan económicas como Analytics Canvas, Xplenty… y otras como Google Cloud Dataflow Amazon Kinesis para los cuales hace falta el apoyo de DBAs (administradores de bases de datos) o ingenieros.

3) Transformar

En primer lugar hay que limpiar, enriquecer y dar consistencia a la base de datos.

Después, viene la fase de modelado de datos, para la cual es importante tener conocimientos de SQL y JavaScritp y/o Python

4) Cargar

No es recomendable conectar directamente la herramienta de visualización a la base de datos, ya que podemos encontrarnos ante cálculos que pueden llevar varios días con el consiguiente gasto en datos de computación.

Es necesario pasar los datos a tablas intermedias y desde ahí conectarlas a herramientas de visualización como Tableau.

Como consejo para los que no conocen SQL, se puede utilizar Xplenty.

5) Visualizar

Como puntualización, no es lo mismo un dashboard que una herramienta de visualización. Los insights no vienen de los dashboards, sino de la labor de análisis del analista.

Herramientas recomendadas: Excel, Qlik, Tableau, Data Studio…

En las visualizaciones, es recomendable no utilizar diseños anticuados con colores extravagantes (Dashboards lady Gaga) o pretenciosamente futuristas (Tron Legacy).

Twitter: @anilopez

Virginia Relea y Nicolás Lozano: “DMP, segment & PUT your DATA to work”

Nos introdujeron en el uso de  Data Management Platfoms (DMP) o Plataformas de Gestión de Datos, que permiten centralizar, definir, personalizar, automatizar y enriquecer los datos.

Nos hicieron una demostración del uso que hacen de su DMP (Plataforma de gestión de datos) que permite hacer el seguimiento de una oferta de trabajo, desde su publicación en un portal especializado, un seguimiento de las sesiones que realiza el usuario al blog, creando después anuncios personalizados para el usuario que le llevan a una página de reclutamiento de la empresa. Si el usuario entonces se apunta y es entrevistado, el entrevistador tendrá a su disposición la trazabilidad completa de los pasos que ha seguido el usuario, y, por ejemplo, qué temas le han interesado más.

Twitter: @virelga @nlozanoargue

Yehoshua Coren: “Google Analytics For Smarties”

En un ambiente jovial y distendido Yehoshua insistió en la importancia de la segmentación y el remarketing a los usuarios segmentados.

Nos habló de las posibilidades que ofrece un análisis de embudos horizontales en Google Analytics, estableciendo funnels construidos a partir de objetivos de Google Analytics.

Recomendó utilizar métricas personalizadas para las principales interacciones del sitio, así como utilizar métricas calculadas, haciendo especial énfasis en utilizar usuarios en el denominador en lugar de sesiones.

Incidió entre otras cosas en el concepto de segmentación en dos niveles (“Two tiered segmentation”), integrando la base de datos de clientes con la de la herramienta de analítica web, así como en el concepto de Capa de datos inteligente (Smart Data Layer), colocando en el dataLayer parámetros relevantes para incorporar a los datos de analítica.

Finalmente, incidió en el análisis de la intención del usuario gracias a los segmentos secuenciales y en la importancia del concepto de Remarketing Grid.

Twitter: @AnalyticsNinja

Marie Loridan O’meara: «Firebase Analytics: Apps success made simple»

Nos hizo una introducción a Firebase, la herramienta adquirida por Google que ofrece grandes ventajas tanto para desarrolladores como para analistas. Firebase es una herramienta de analítica web gratuita que funciona tanto en apps de iOS como de Android.

Nos habló del potencial de las apps… justo en el momento que se empezaba a hablar de que el crecimiento de descargas estaban a punto de llegar a un techo y alcanzar su grado de madurez, se ha observado que los ingresos de estas están creciendo en mucha mayor medida, ofreciendo un horizonte creciente de rentabilidad.

Entre las ventajas para desarrolladores destaca que, gracias a Firebase, se pueden realizar modificaciones en la App sin necesidad de que solicitar constantemente a los usuarios que actualicen la app, informes de «crashes»…

Para los marketers, proporciona una plataforma de análisis con seguimiento de eventos, métricas de engagement y crecimiento, deeplinking y datos integrados tanto de Android como iOS.

Twitter: @marieloridan

Dave Sottimano: «Log Analytics and PRO use cases for search marketers»

Dave nos habló de la relación directa que hay entre la frecuencia de rastreo de los bots de google y el tráfico orgánico… todo ello para destacar la importancia de analizar el rastro que han dejado dichos bots en los logs.

Explicó el proceso de depuración de dichos logs: tener todos los logs del host correcto con los campos adecuados, tener las direcciones ip adecuadas, identificadas las vistas del GoogleBot e integrados los datos de rastreo y de Google Analytics.

Todo ello para realizar posteriormente un análisis completo y favorecer el rastreo, con el objetivo de que todas las páginas de un sitio sean visitadas por GoogleBot al menos una vez cada 28 días.

Twitter: @dsottimano

Conclusión

En definitiva, grandes ponentes, mucha información y excelente networking para un evento que esperemos que se repita.

Desde aquí, nuestra enhorabuena a los organizadores David Vallejo y Natzir Turrado por haber organizado con éxito total un evento internacional de alto nivel como este en Madri