Técnicas definidas hace varias décadas atrás tales como esperar que los datos sigan un flujo a través de un modelo de datos complejo, lleguen a un data warehouse para luego finalmente, obtener los informes que se requieren, ya no es aceptable para los usuarios. La antigua forma de capturar datos, prepararlos, almacenarlos ya no es suficiente. Los negocios necesitan nuevas y más rápidas formas de obtener información y conocimiento para tomar las decisiones más inmediatas, efectivas y acertadas.
Muchos estudios y estadísticas demuestran que las organizaciones o bien no están recibiendo la información que necesitan, o no confían en los datos que analizan.
Este “fenómeno” o cambio de tendencia para obtener información, que se produce, básicamente por la concurrencia de factores como la gran cantidad de información (Volumen), la amplitud de fuentes de los datos (Variedad) y la necesidad de los usuarios que se procesen con inmediatez (Velocidad) se le ha venido denominar como Big Data.
Conocida la necesidad, se ha encontrado la solución, de todas las técnicas propuestas hasta la fecha, es el procesamiento en memoria (in-memory computing) la técnica que está resultando más efectiva para cubrir las necesidades de los negocios de este siglo.
SAP con su propuesta SAP HANA y Oracle con Exadata y Exalytics, son los primeros fabricantes que proponen amplias soluciones para el procesamiento en memoria, tendencia que están siguiendo otros fabricantes, el último en considerar seriamente el in-memory computing ha sido Microsoft, al anunciar su proyecto Hekaton el cual consiste en dotar a su base de datos MS SQL Server con esta capacidad de procesamiento. La propuesta de Microsoft no dependería de un hardware específico, se estima que estaría disponible en 2014.
Con menor repercusión mediática hay otras iniciativas de procesamiento en memoria como la Software AG e inclusive una iniciativa Open Source.
Referencias: (aquí)