Hay varios pasos que una organización puede tomar para lograr que un proceso de data migration culmine con éxito. Realizar una evaluación del impacto de la migración para evaluar los niveles de calidad de los datos y el coste potencial de los retrasos en el proyecto; definir la metodología que se utilizará para la migración, establecer una línea de tiempo y revisar cada etapa del proceso son algunos de ellos.
Pero, además de estas medidas, es necesario conocer cómo evitar algunos de los cuellos de botella más frecuentes en data migration.
Data migration: problemas que pueden retrasar la migración de datos
Cada proceso de data migration es distinto y, a pesar de que los proyectos variarán en función de su alcance, plazos, tipo de información a migrar y otras circunstancias particulares, existen tres problemas que pueden retrasar la migración.
Entre los cuellos de botella que pueden surgir en una iniciativa de data migration destacan los tres siguientes:
- Falta de planificación de las necesidades de preparación de datos. Data migration no equivale a la copia de información y, por eso, trasladar datos al tipo de almacenamiento designado en la nube requiere de una buena preparación. El tiempo que se destine a la misma deberá ser contemplado en el plan de data migration y también en el presupuesto. Si se ignora este paso se pierde la oportunidad de filtrar datos innecesarios, como las copias de seguridad, versiones anteriores o archivos de borrador, que suelen estar en los conjuntos de datos, pero que no necesitan formar parte del flujo de trabajo de la nube. La clave es encontrar un medio automatizado para seleccionar qué datos se enviarán y cuándo, luego mantener los registros necesarios sin olvidar que los diferentes flujos de trabajo en la nube pueden requerir que los datos estén en un formato u organización diferente de las aplicaciones locales.
- No comprobación de la integridad de datos. La validación de la información es el paso más importante y también el más fácil de llevar a cabo, pero no hay que basarse en creencias y opiniones, sino en hechos probados. El problema está en que, a menudo, se asume que la corrupción ocurrirá durante el transporte de datos y que se puede evitar realizando comprobaciones antes y después. Sin embargo, en realidad es la preparación e importación de los datos donde es más probable que la información sufra pérdidas o corrupción. Cuando los datos cambian formatos y aplicaciones, el significado y la funcionalidad se pueden perder incluso cuando los bytes son los mismos. Una simple incompatibilidad entre versiones de software puede provocar la pérdida de valor de grandes volúmenes de datos y, por eso, hay que tratar de garantizar que, al menos se puedan detectar los problemas antes de que los sistemas heredados se retiren.
- Subestimar el escalado de la nube. Una vez que los datos llegan a su destino en el cloud, al proceso de data migration aún le queda la mitad del recorrido por completar. Además de asegurarse de que los datos enviados coinciden con los que han llegado a este entorno, llegaron coincidan con los que se enviaron, una comprobación que pueden complicar las capas de cachés del almacenamiento, hay que tener en cuenta que, una vez que se han verificado los datos transferidos, es posible que sea necesario extraerlos, reformatearlos y distribuirlos para que estén listos para su uso por parte de las aplicaciones y servicios basados en la nube.
Tal vez te interese leer:
La migración a la nube: una oportunidad para la flexibilidad
Planteamientos para un posible viaje a la nube
A medida que las organizaciones adoptan soluciones analíticas y aplicaciones en la nube, la complejidad de su gestión de datos aumenta, porque el cloud es sinónimo de múltiples ecosistemas y aplicaciones y, para muchos, se ha convertido en un mundo híbrido.
Para competir en este entorno, las organizaciones necesitan una plataforma de gestión de datos híbrida de extremo a extremo que les permita entregar datos empresariales de forma rápida y segura en entornos de nube, híbridos y locales. Esto puede conseguirse en base a distintos enfoques:
- Integración híbrida simple. Es la más indicada para empresas que buscan una plataforma que les ayude a integrar todas sus aplicaciones de SaaS basadas en la nube con sus datos locales existentes para conseguir una visión holística. En este caso, una solución de Plataforma de integración como servicio (iPaaS) ayudaría a cumplir los requisitos para integrar datos, aplicaciones y procesos en entornos híbridos, en la nube y en las instalaciones. El paradigma híbrido simple funciona bien cuando las organizaciones están comenzando con un enfoque de este tipo para integrar aplicaciones en la nube y fuentes de datos.
- Enfoque híbrido avanzado. A medida que las organizaciones evolucionan, la complejidad en torno a la gestión de datos también cambia, no sólo en lo que respecta a las fuentes de datos o el volumen de datos, sino también en relación con los nuevos casos de uso. Esto requiere una plataforma más madura para manejar la creciente complejidad, una forma avanzada de integración híbrida. Las empresas que deseen ver cubiertas sus necesidades en esta línea, deberían recurrir a las iPaaS de nueva generación, que son plataformas únicas, modulares y basadas en metadatos que integran big data, nube y sistemas locales, admitiendo incluso casos de uso de integración avanzada, como Internet de las cosas y otras soluciones complejas de gestión de datos, tanto para empresas como para usuarios de TI.
Tal vez te interese leer:
3 estrategias para la migración de aplicaciones a la nube
La nueva nube, el big data y las tecnologías de IoT son emocionantes y prometen mucho para el presente y el futuro. Pero para que toda esta tecnología sea de ayuda, debemos utilizarla, ajustar nuestros procesos y cambiar la forma en que trabajamos. De esa manera, logramos dominar la complejidad y disfrutar de las ventajas.
La migración a la nube no es tanto una cuestión de datos, como de procesos y, precisamente éste es el principio que debe tenerse en mente al plantear cualquier proyecto de data migration si se quieren evitar los principales cuellos de botella y se busca conseguir que la infraestructura en la nube resultante coincida con el flujo de trabajo deseado.