Cómo sacarle partido a la necesidad de procesar y analizar de manera eficaz los datos

Numeros
Marsmet481, Flickr, Creative Commons

Si los ‘big data’ (término inglés que designa los conjuntos de datos de gran tamaño y generalmente desestructurados que resultan difíciles de manejar usando las aplicaciones de bases de datos convencionales) pueden procesarse, analizarse y explotarse eficazmente, podrían mejorar la productividad y la competitividad de las empresas, los sectores y, en última instancia, de economías enteras. Las empresas de distribución y los fabricantes ya están usando ‘big data’ para mejorar la cadena de suministro y acelerar el desarrollo de nuevos productos. Los equipos directivos de las empresas también emplean este sistema para controlar el rendimiento y hacer posible la toma de decisiones efectivas en tiempo real.

Las ventajas del análisis de los grandes conjuntos de datos desestructurados no se restringen al sector privado: pueden mejorar también los servicios públicos y, en especial, la atención sanitaria. Según explica Fidelity en un informe, el potencial de rentabilidad para los inversores reside en identificar a los beneficiarios de lo que parece que se convertirá en un sector valorado en muchos miles de millones de dólares. “La selección de valores es determinante, ya que los ganadores serán tanto gigantes tecnológicos actuales como empresas más pequeñas de rápido crecimiento. Las operaciones de adquisición probablemente sean un rasgo positivo de este sector. La gestión de grandes conjuntos de datos ofrece grandes oportunidades”.

El 80% de los datos que se generan en el mundo están desestructurados. En este sentido, la gestora asegura que los datos desestructurados crecen 15 veces más rápido que los estructurados. “Esto plantea un enorme problema técnico a las empresas que intentan analizar sus datos propios. Algunos ejemplos de big data son los siguientes: las consultas y resultados de los motores de búsqueda, los datos de las redes sociales (como los tuits), los datos meteorológicos, los datos astronómicos, la vigilancia militar, los datos económicos y bursátiles, los historiales médicos, los experimentos físicos (Gran Colisionador de Hadrones), los archivos fotográficos, la radio y la televisión, los vídeos (CCTV y YouTube) y los datos sobre transacciones”.

Si estos ingentes volúmenes de datos pueden capturarse y analizarse eficazmente, podrían mejorar la productividad y la competitividad de las empresas en una amplia gama de sectores. También encierran un gran potencial de creación de valor en el sector público y el privado. Las empresas tecnológicas especializadas en sistemas de información están construyendo grandes centros de procesamiento de datos para intentar sacar partido a este mercado. Las compañías de distribución y los fabricantes están usando soluciones para grandes conjuntos de datos con el fin de mejorar la gestión de la cadena de suministro, señalan.

Estos datos pueden ayudar –según Fidelity- a los equipos directivos de las empresas a tomar decisiones mejor informadas y a optimizar el gobierno corporativo creando sistemas de gestión de los riesgos más eficaces. “La rentabilidad potencial es elevada para las empresas que suministran soluciones para grandes conjuntos de datos, entre las que se encuentran los gigantes informáticos actuales así como empresas de reciente creación y actores más pequeños. El análisis fundamental es esencial para determinar quiénes serán los grandes beneficiados”.

¿Dónde están las oportunidades de inversión?

Empresas como General Electric, IBM, Oracle, Microsoft, SAP y Symantec han invertido mucho en centros de procesamiento de datos diseñados para interpretar big data. Estas empresas están dispuestas a pagar una prima para contratar a los profesionales más brillantes. Oracle, Microsoft, IBM y SAP han gastado conjuntamente más de 15.000 millones de dólares en adquisiciones de empresas tecnológicas especializadas en herramientas de inteligencia de negocio. Hay puestos para programadores, estadísticos, analistas cuantitativos, econometristas y analistas de extracción de datos. “El mercado de los grandes conjuntos de datos tiene su propia cadena de suministro y permite beneficiarse a las empresas, tanto si están especializadas en hardware o infraestructuras como en software o servicios”.

SAP y Oracle ya se consideran gigantes informáticos, si bien Fidelity cree que muchas empresas más pequeñas y de reciente creación podrían entrar en este grupo. “El potencial de crecimiento del mercado de 'big data' es inmenso y hay espacio para nuevos operadores con soluciones innovadoras. Algunas populares herramientas de bases de datos de código abierto como Hadoop están al alcance de las nuevas empresas. También hemos visto ejemplos de nuevas empresas especializadas en big data que se han convertido en multinacionales. De hecho, la amenaza de los nuevos jugadores plantea un problema a las grandes empresas informáticas que intentan entrar en este campo. Como resultado de ello, han aumentado las adquisiciones protagonizadas por grandes empresas tecnológicas”.

Un buen ejemplo es Autonomy, una empresa informática británica fundada en 1996 en Cambridge. Fue comprada por Hewlett-Packard en 2011 por 11.000 millones de dólares. Poco después de la operación, HP anunció una nueva plataforma de análisis de grandes conjuntos de datos llamada HP Next Generation Information Platform. Otras empresas tecnológicas pequeñas han visto cómo su cotización despuntaba a pesar de que todavía podrían no ser objetivos de adquisición. Esto lo evidencia Microgen, una empresa británica de software especializada en aplicaciones que alcanzó con éxito las 7.000 millones de transacciones a la hora y es utilizado por muchas empresas líderes como bancos, operadores de transporte y logística y empresas de contenidos digitales.