El valor de la gestión de datos

Tipos de análisis de datos para la toma de decisiones

Posted on Mon, Sep 26, 2016

Como es bien sabido, los análisis de datos son un apoyo clave para la toma de mejores decisiones. Sobre todo, teniendo en cuenta el actual contexto digital en el que nos encontramos y su importante influencia en los sistemas de información de las organizaciones, ahora más complejos. Una moneda con su cruz y su cara, pues gracias a ello podemos sacar un gran partido de las nuevas fuentes de datos.


El nuevo panorama, lleno de retos y oportunidades, exige tipos de análisis de datos adaptados a las nuevas necesidades, con el fin de facilitar la toma de decisiones orientadas al dato. En suma, se trata de responder a las exigencias que plantean los distintos tipos de datos, los distintos planteamientos y, de forma especial, la necesidad del real time, decisiva en muchos casos.

 

Datos estructurados vs desestructurados

Los análisis basados en datos obtenidos de sistemas híbridos, en los que tengan cabida datos estructurados y no estructurados son un importante reto que pueden brindar importantes ventajas competitivas. Así pues, diseñar arquitecturas basadas en un enfoque integrador posibilitará análisis que aprovechen las ventajas de ambos paradigmas.

La integración y consolidación de fuentes de información de ambos tipos facilita análisis de todo tipo, ya sea para mejorar procesos internos como para conocer mejor al cliente o tomar decisiones estratégicas, incluso en tiempo real. En definitiva, se trata de aportar valor para la empresa mediante análisis que sacan partido de los dos sistemas.

 

Análisis cualitativo vs cuantitativo

Además de la naturaleza de los datos que queremos analizar, hay otros factores decisivos a la hora de decantarse por unos u otros tipos de técnicas de análisis. En particular, la carga de trabajo

El análisis cualitativo recolecta datos sin medición numérica con el fin de construir teorías, descubrir o afinar preguntas, revelar situaciones, describir sucesos, hechos o patrones y explicarlos para que ayuden en la toma de decisiones.

Por su parte, el análisis cuantitativo busca probar hipótesis y teorías o establecer patrones de comportamiento a partir de una recolección de datos del mismo tipo, con base a la medición numérica y análisis estadístico. Para cada uno de ellos se utilizan instrumentos de recolección de datos cuantitativos o cualitativos, respectivamente. 

Mientras los primeros están basados en la observación, las escalas de actitudes, el análisis de contenido o los cuestionarios, los instrumentos cualitativos lo hacen en la observación, las historias de vida, las entrevistas, los grupos de enfoques o los documentos.

Cada uno de ellos tendrá su propio diseño de investigación. Los cuantitativos pueden dividirse en empírico analíticos (descriptivos, correlacionales, experimentales, etc.), etnográficos, estudios de caso, histórico analíticos, investigaciónes evaluativas, colaborativa o participativas, pongamos por caso.

Se trata de un área en la que no hay modelos predeterminados de análisis que deban cumplirse a rajatabla. A la hora de verificar la calidad de la investigación se utiliza el intercambio de opiniones entre investigadores o la comprobación con los participantes, entre otros métodos.

 

 Técnicas de procesamiento y análisis de datos

Además de la naturaleza de los datos que queremos analizar, hay otros factores decisivos a la hora de decantarse por unas u otras técnicas de análisis. En particular, la carga de trabajo o las potencialidades del sistema de cara a afrontar los desafíos que plantea el análisis de los grandes datos en cuanto a la capacidad de almacenamiento, procesamiento y una mayor o menor latencia analítica.

En cuanto a este último aspecto, Apache Hadoop es un framework diseñado para un procesamiento batch, si bien entre su rico ecosistema encontramos componentes como Spark, idóneo para funcionar conjuntamente y trabajar en tiempo real. A su vez, éste puede hacerlo de forma independiente, constituyendo una interesante alternativa como técnica de análisis de datos inmediato, con un margen inferior a segundos. 

El procesamiento en stream o de flujo es otra funcionalidad muy utilizada dentro de las analíticas de Big Data, junto con la analítica de vídeo, de voz, geoespacial, de lenguaje natural, simulación, modelado predictivo, optimización, extracción de datos y, por supuesto, la consulta y generación de informes. De hecho, a la hora de tomar decisiones que permitan obtener el mayor valor de negocio se pueden aplicar una gran variedad de analíticas avanzadas.

Fuente imagen: cooldesign / FreeDigitalPhotos.net

 

Experiencia de cliente y omnicanalidad

 
 

Topics: Data Driven