Un viaje por el procesamiento de datos y ¿dónde estamos hoy?

Un recorrido por la evolución del procesamiento de datos para entender por qué los proyectos fallan y cuál es el verdadero desafío para los CIO en la era del lakehouse, virtualización y la IA.

Se dice que “los datos son para una empresa lo que el petróleo para la economía industrial, pero  —al igual que el petróleo— se deben procesar, limpiar, analizar y refinar”, y aunque pareciera un cliché, es muy cierto, pero la realidad es un tanto más compleja, según Gartner, 80% de los proyectos de data y analítica que se iniciaron desde 2024 o están iniciando, fallarán, o no cumplirán las expectativas hacia 2027. 

¿Cómo puede ser que, con tecnologías muy avanzadas, los resultados no sean los esperados? Para entenderlo, demos un breve recorrido por la historia del procesamiento de datos y descubramos dónde estamos hoy. 

 

Del papel a la inteligencia artificial

En los años 60, en la era de las punch cards, el procesamiento era casi artesanal. Cada tarjeta almacenaba 80 bytes y, en su apogeo, Estados Unidos procesaba 10 millones de tarjetas al día: apenas 800 MB. El data warehouse (DWH) era, en esencia, un registro físico. Casos como el censo estadounidense demostraban que, incluso con limitaciones, los datos podían transformar la forma de gobernar.

 

 

Con la llegada de los años 70, también llegó una revolución en el procesamiento de datos con las bases de datos relacionales y el lenguaje SQL. Oracle V2, lanzado en 1979, permitió realizar consultas estructuradas y análisis más sofisticados. El DWH se convirtió en una colección organizada de datos, aunque con capacidades modestas: apenas unos megabytes.

Así, en los años 80, la popularización de las computadoras personales y las redes locales impulsaron el uso de DMBS. Aparecieron modelos dimensionales y relacionales y Excel se consolidó como “el data warehouse de facto”. Hoy, más de mil millones de personas lo usan, las mismas empresas lo siguen usando, prueba de su vigencia y capacidad. 

 

Con los 90, la explosión digital obligó a las empresas a adoptar arquitecturas más robustas, como ETL, repositorios centralizados y OLAP. Yahoo, Amazon y Netscape marcaron el inicio de una economía basada en datos. El DWH dejó de ser opcional y se convirtió en una prioridad estratégica.

Llegó el año 2000, de la analítica y el procesamiento masivo, en el que con tecnologías MPP como Netezza, Greenplum y Teradata, los DWH alcanzaron escalas de terabytes y respuestas en subsegundos. SAP llegó a registrar el mayor DWH del mundo: 12 petabytes cargando 34 TB por hora. Pero la complejidad y los costos seguían siendo enormes. ¿Entonces? 

Hadoop y Spark cambiaron las reglas allá por el 2010, con el big data y la nube, el procesamiento distribuido y el cómputo de memoria, el schema-on-read y la aparición del data lake. La promesa era almacenar todo, pero sin gobierno ni control, esto provocó que muchos lagos se convirtieran en pantanos de datos.

Hoy estamos en la era del lakehouse, la virtualización y la inteligencia artificial embebida. Plataformas como Databricks y Snowflake lideran el mercado, ofreciendo escalabilidad casi infinita y consultas en lenguaje natural. El concepto de artificial intelligence business intelligence (AIBI) redefine la forma en que interactuamos con los datos.

 

 

Luego de dar este recorrido por la evolución y la historia del procesamiento de datos, lo cierto es que la tecnología no es el problema, porque ha estado en constante evolución, respondiendo a las necesidades de cada época, el verdadero desafío está en el liderazgo, el enfoque y la colaboración en cada proyecto, así como la visión y abordaje del CIO, porque a lo que nos enfrentamos hoy en día, ya son errores comunes y constantes:

 

  • Falta de involucramiento del negocio: si las áreas operativas no son corresponsables, el proyecto es casi seguro que fallará.
  • Expectativas irreales: se exige desplegar en tres meses lo que requiere dos años, sacrificando la calidad y aumentando los costos.
  • Equipos sin una estructura de producto: un lakehouse no puede ser una responsabilidad secundaria; necesita visión, roadmap y atención continua.
  • Ausencia de enfoque de negocio: sin claridad sobre el “porqué”, los proyectos se convierten en ejercicios técnicos sin impacto real.

 

Por lo anterior, el CIO tiene una misión clara: habilitar a la empresa para operar con datos de manera sencilla. No se trata de grandes despliegues inmediatos, sino de proyectos concretos, bien definidos y con la corresponsabilidad del negocio. La pregunta no es si invertir en tecnología, sino cómo hacerlo sin perder el control ni depender de “cajas negras”.

En un mundo donde los datos son poder, la diferencia entre el éxito y el fracaso de un proyecto está en la estrategia, en trabajar con partners. Porque, al final, la tecnología es solo la herramienta; el verdadero valor lo generan la visión y la ejecución.

En Vinkos, trazamos contigo estrategias que harán que tu proyecto marque la diferencia entre el éxito y el fracaso. Síguenos en LinkedIn y acércate a nosotros. 

| De nuestro blog

Deep dive into Vinkos

Pentaho más APIS: intercambio, integración e interacción eficiente entre sistemas

Pentaho facilita el consumo e integración de APIs mediante flujos visuales y reutilizables que conectan sistemas, transforman datos y los publican en tiempo real, sin desarrollos complejos.

Pentaho más SharePoint: de la integración de datos a la acción colaborativa

La integración entre Pentaho y SharePoint permite automatizar, organizar y distribuir información de forma segura y eficiente, conectando equipos de negocio y TI en flujos colaborativos que reducen errores, eliminan procesos manuales y fortalecen la toma de decisiones.

Un viaje por el procesamiento de datos y ¿dónde estamos hoy?

Un recorrido por la evolución del procesamiento de datos para entender por qué los proyectos fallan y cuál es el verdadero desafío para los CIO en la era del lakehouse, virtualización y la IA.

Databricks Summit: reforzando alianzas estratégicas y conocimiento

Nuestro equipo participó en el Data + AI Summit en San Francisco, fortaleciendo alianzas, aprendiendo de líderes globales y explorando las tendencias que están marcando el futuro de los datos y la inteligencia artificial.

Impulsando la productividad y el análisis inteligente con IA: Genie & Databricks Assistant

Dos soluciones que llevan el análisis de datos al siguiente nivel: Genie para usuarios de negocio y Databricks Assistant para equipos técnicos. Productividad, insights en lenguaje natural y seguridad en un mismo lugar.

Pentaho + GenAI: sinergia que revoluciona la integración de datos

Pentaho une su solidez en integración de datos con el poder de la inteligencia artificial generativa, creando flujos de datos que transforman información dispersa en decisiones inteligentes.

Off-Site Costa Rica: conexión y aventura rodeados de naturaleza

Vinkos vivió una experiencia inolvidable que fortaleció nuestra cultura organizacional y reafirmó el valor de trabajar como un solo equipo.

Bienvenido a la nueva era de Vinkos

Vinkos inicia una nueva etapa: más visible, más ágil y con una mentalidad renovada para seguir transformando datos en soluciones con impacto.

Unificando la visión de tus datos con Vinkos

El framework de Vinkos es una metodología propia, que simplifica procesos complejos, acelera implementaciones y asegura resultados duraderos.