El valor de la gestión de datos

El problema de la duplicidad de datos y cómo corregirlo

Publicado el 22/05/16 21:00

¿Preocupado por la duplicidad de datos en el negocio? La mejora de la calidad de los datos puede requerir la eliminación de información redundante o repetitiva en su almacenamiento. Su fin no es el archivado, en cuyo caso tendría un uso positivo. La duplicación a la que nos referimos deriva en equivocaciones y errores que se producen como consecuencia de una pobre calidad de los datos, a menudo a consecuencia de no contar con un enfoque integrado. 

duplicidad de datos

ANNECORDON

En la práctica, la duplicidad de datos es un inconveniente propio de las compañías que cuentan con numerosas aplicaciones empresariales en silos, con el problema añadido de la falta de visibilidad en las fuentes o causas de esas redundancias. A consecuencia de ello, se desconocen los grandes costes que esos datos redundantes pueden llegar a suponer, y por lo tanto su corrección resulta complicada, si no imposible.

Podríamos citar un sinfín de ejemplos de los inconvenientes que generan los datos duplicados. Se puede perder mucho dinero, pongamos por caso, enviando por error múltiples catálogos, folletos de publicidad o correspondencia de otro tipo a un mismo cliente. Por contra, identificar los problemas de duplicidad de datos permite corregir los errores y evitar gastos innecesarios, si bien hacerlo manualmente supone un esfuerzo inasumible por la organización que se torna en inviable cuando el objetivo es corregirlos en tiempo real.

La mala calidad de los datos, en efecto, puede aumentar el costo y reducir la eficacia de la atención al cliente, de los esfuerzos de marketing y de otros muchos aspectos a nivel operativo. De hecho, una información sin calidad puede traducirse en un deficiente rendimiento y también dificultar el cumplimiento normativo. 

Problema_duplicidad_datos_como_corregirlo.jpg

 

Beneficios de corregir la duplicidad de datos

Con la deduplicación corregimos el problema de duplicidad de datos de forma automatizada. Entre otras ventajas, implementar el proceso ayuda a:

  • Reducir los costes de almacenamiento.
  • Minimizar errores.
  • Disminuir la necesidad de dedicar recursos para ir solucionando constantemente las trabas que suponen los datos duplicados.

La deduplicación favorece su correcta utilización, además de ayudarnos a optimizar la transferencia de datos, simplificando también los procesos ETL. Al tiempo, repercute en una mayor eficiencia operativa que se traduce, por ejemplo, en un mejor servicio a los clientes y en una significativa reducción de costes.

 

 Accede GRATIS al Webinar sobre calidad de datos en el mundo Big Data

 

Cómo corregir la duplicidad de datos

Corregir el problema de la duplicidad de datos requiere de:

  1. Elegir soluciones que garanticen la integración en el entorno.
  2. Contar con un marco de gobernabilidad capaz de centralizarlo todo en un único sistema tecnológico. Es importante trabajar en base a una serie de normas de concordancia y otras reglas de negocio de calidad de datos prefijadas para cribar la información y así evitar que los datos sucios entre en el sistema. De este modo, los administradores podrán limpiar y validar la información, así como crear distintas entidades con el fin de minimizar este tipo de problemas.
  3. Elegir las tecnologías más adecuadas para llevar a cabo proceso de limpieza y eliminación de datos incompletos o parcialmente incorrectos desde su misma introducción, pues con frecuencia los problemas comienzan en el proceso de entrada. 
  4. Disponer de una fuente única y completa de información de los clientes o de otras entidades de negocio. En este sentido, la gestión de datos maestros o MDM es clave para apoyar la deduplicación de datos.

¿Listo para acabar con la duplicidad de datos en la organización?

Fuente imagen: digidreamgrafix / FreeDigitalPhotos.net

 

New Call-to-action

Temas: Data Quality