Entre los principales indicadores que marcan la transición a la llamada Nueva Economía, pueden destacarse el cambio industrial y ocupacional, la globalización, el dinamismo económico, el cambio en la naturaleza de la competencia y, por supuesto, la revolución de las tecnologías de la información.

De las tarjetas perforadas al Business Intelligence
No ha pasado tanto tiempo desde que la llamada “Informática de Gestión”, superando su papel inicial de automatizadora de procesos (nóminas, facturación, etc.), pasó a convertirse en auténtica herramienta de gestión de negocio. En la década de los 80 tomaron fuerza términos como Sistemas de Soporte a la Decisión (DSS) o Sistemas de Información a la Dirección (EIS), que se consolidaron a lo largo de los 90. Las grandes empresas afrontaban largos y costosos proyectos Data Warehousing. Desde entonces, muchas empresas han abordado o están abordando proyectos ERP (Enterprise Resources Planning) con el objeto de normalizar y optimizar su informática operacional; otros proyectos, bajo las siglas CRM (Customer Relationship Management), materializan en el campo tecnológico un enfoque de negocio centrado en el cliente como origen de la generación de valor... Se habla de OLAP, después de MOLAP, ROLAP, DOLAP, HOLAP..., de Data Mining, de gestión del conocimiento, de SRM, inteligencia emocional, inteligencia competitiva...

...Y más siglas
Por si todas estas siglas y términos fueran pocos, con la revolución de Internet, empezamos a utilizar la e y la i, en combinación con lo anterior: e-Business, e-Intelligence, i-Solutions... y también entraron en juego los números: B2B, B2C, B2A, P2P...
Esta guerra terminológica y de siglas que puede causar un natural mareo en todas aquellas personas que están obligadas a escucharlas una y otra vez, no debe ser interpretada más que como el efecto secundario de la “r-evolución” en las tecnologías de la información, que es, por otro lado, algo positivo. No se trata de recetas mágicas, pero dentro de las organizaciones, internet ha democratizado el uso de la información y las nuevas tecnologías son una importante herramienta a la hora de conseguir ventajas competitivas y facilitar la creación de valor.
La integración de las nuevas tecnologías en la gestión proporciona información de mayor calidad, y permite no sólo acortar el tiempo de reacción ante cambios en el mercado, sino una gestión proactiva del negocio, anticipándose a posibles cambios de escenario.

La incertidumbre
Estas nuevas herramientas permiten mejorar el proceso de toma de decisiones en las empresas y así reducir la incertidumbre asociada a cualquier negocio, y en consecuencia, la incertidumbre de las personas que trabajan en él.
Sin embargo, esta revolución ha aumentado otro tipo de dudas: la asociada a la elección de una determinada oferta de las muchas que hay en el mercado. El uso y sobre todo, el abuso de toda esta terminología genera incertidumbre en un potencial comprador. Esta situación, en muchos casos, va acompañada de una desconfianza hacia el fabricante o vendedor, ante la que se hace muy difícil para el potencial comprador tomar una decisión. Unos apuestan sobre seguro, escogiendo un producto de un fabricante prestigioso y conocido, aunque ese prestigio y ese reconocimiento venga por otros productos y no por el que se está evaluando; otros, los que se dejan asesorar por el fabricante, son los que corren mayor riesgo, porque dependiendo de la profesionalidad y habilidades comerciales de éste, pueden verse abocados al fracaso. Por último, los más osados escogen, tras haberse informado personalmente, la solución que en su opinión mejor se ajusta a sus necesidades, pero conscientes de que en ello se pueden jugar el puesto.

El proceso de selección: distintos productos para distintas necesidades
A la hora de evaluar la adquisición de una plataforma sobre la que implantar un sistema de inteligencia de negocio, no hay recetas mágicas. No hay malos ni buenos productos. Todo depende de las características del sistema a montar. ¿Conoce alguna gran empresa que se pueda permitir una flota en la que desde el director general hasta el menor nivel de la organización tenga un coche de lujo? Además del precio del software, inasumible en algunos casos, deben valorarse las características y funcionalidades de cada producto, pero huyendo de valoraciones generales, y centrándose en aquellas que son críticas para conseguir el objetivo que en cada caso se persigue. Lo que es bueno en unos casos, no tiene por qué serlo para otros. Conseguir que el dentista nos dé cita para mañana es todo un logro, pero ¿se imagina si los bomberos acudieran a una llamada al día siguiente?

La oferta
En el núcleo de cualquier solución Business Intelligence, se encuentra la tecnología OLAP (On Line Analytical Processing), una tecnología orientada al análisis multidimensional de la información. Con un enfoque orientado al usuario, la mayoría de estos productos utiliza, además, la hoja de cálculo como interfaz primario de acceso a la información multidimensional, acortando significativamente la curva de aprendizaje asociada a la adquisición de una nueva herramienta. Otra de sus características diferenciadoras es el tiempo de respuesta que proporcionan: dependiendo de la arquitectura elegida, en algunos casos concretos, un tiempo de respuesta superior a 7 segundos sólo es atribuible a un mal diseño.
Sin que parezca factible que este sector tenga un líder que domine claramente el mercado durante los próximos 2 años, hay más de 30 fabricantes que se autodeclaran proveedores de productos OLAP. A pesar de la esperada consolidación del sector, y de las fusiones que se han llevado a cabo, en la actualidad hay bastantes más proveedores OLAP que hace 5 años. Esto se explica, según el OLAP Report (20 de abril de 2001) por el hecho de que muchas de las operaciones de compra de proveedores de productos OLAP, se han llevado a cabo por empresas que anteriormente no estaban en este mercado. De esta forma, las adquisiciones y fusiones no han supuesto una reducción en la oferta. No ha habido ningún abandono relevante en el sector, desde el punto de vista de los productos y la mayoría de los vendedores siguen aumentando sus ingresos incluso perdiendo cuota de mercado.

La paradoja de precalcular la base de datos
Hay productos que intentan garantizar buenos tiempos de respuesta en las consultas, precalculando toda la base de datos y almacenando el resultado. Parece que si el sistema no tiene que calcular en “tiempo real”, será mucho más rápido. Pero esto puede convertirse a veces en una paradoja.
Cuando toda la base de datos está previamente calculada, al realizar una consulta no se lanzará ningún proceso de cálculo, ya que todos los cálculos han sido procesados con anterioridad y almacenados en la base de datos.
De esta forma, el tiempo de proceso es 0 y el tiempo de respuesta de la consulta, sólo dependerá del tiempo de acceso a los datos, ya sean elementales o calculados.
Esta forma de trabajar, válida cuando no existe un número excesivo de celdas teóricas (resultado de la combinación de los elementos de las distintas dimensiones, tanto elementales como calculados), presenta, en otros casos, serios inconvenientes de almacenamiento y rendimiento: puede originar un descontrolado crecimiento de la base de datos. La base de datos no cabrá en memoria y deberá almacenarse en disco. Incluso podrá agotar los recursos de disco disponibles. De producirse este hecho, conocido bajo el término anglosajón de database explosion el rendimiento del sistema se verá además drásticamente afectado: la rapidez en estos productos se basa en la utilización de la memoria, pero no hay memoria suficiente para cargar una base de datos con todas las celdas elementales y calculadas. La mayoría de los datos estarán en disco. Al calcular la base de datos, el sistema no podrá hacerlo en memoria, sino que tendrá que acceder al disco para cargar la información a procesar. Incluso cuando el usuario realice consultas contra datos calculados, el cálculo estará ya hecho, pero tendrá que buscar el resultado en disco, y el acceso a disco es mucho más lento que el trabajo en memoria. Aunque el tiempo de respuesta de esa consulta sólo se vea afectado por el tiempo de acceso a los datos, este tiempo de acceso, que tendrá que ser a disco, será incluso superior al tiempo de proceso en el caso de que éste se hiciera en memoria.

Cuando el tiempo es importante
Insistiendo en el hecho de que no hay malos ni buenos productos, y de que lo bueno en unos casos, no tiene porqué serlo para otros, lo que es también evidente es que el primer paso de un proceso de selección de este tipo de herramientas pasa por la previa identificación de los candidatos que ofrece el mercado. Y dado que en la práctica es imposible evaluar 30 productos, es necesario definir un filtro previo que reduzca a 3 ó 4 candidatos las alternativas a evaluar en profundidad. Dependiendo del criterio que se fije para este filtro inicial, los candidatos serán unos u otros, pero dada la distinta tipología de estos productos, es relativamente sencillo limitar el estudio a 3 ó 4 productos. Aunque algunos productos son más polivalentes que otros, en general, el resultado de ese filtro será distinto en función de lo que busquemos como prioridad número 1. Si, por ejemplo, buscamos plataformas con capacidad para gestionar grandes volúmenes de información, obtendremos unos candidatos finales distintos a los que conseguiríamos en el caso de buscar plataformas que proporcionen buenos rendimientos cuando el número de usuarios es muy elevado.
Cuando se ha identificado como requisito prioritario la necesidad de proporcionar buenos tiempos de respuesta, es fácil reducir a un tercio los posibles candidatos, simplemente a partir de la documentación que existe al respecto.

Tiempo de acceso y tiempo de proceso
Si se tiene en cuenta que el tiempo de respuesta puede dividirse en tiempo de acceso y tiempo de proceso (que se ve a su vez influido por el primero), el número de opciones ya pasa a reducirse a un número manejable de candidatos. Esta reducción también puede realizarse a partir de la documentación existente, eso sí, analizándola con mayor detalle. Aspectos como la arquitectura utilizada, la utilización de memoria, la forma de almacenar la información, etc., afectan significativamente el rendimiento del sistema.
Por ejemplo, hay productos que intentan garantizar buenos tiempos de respuesta en las consultas, precalculando toda la base de datos y almacenando el resultado. Parece que si el sistema no tiene que calcular en “tiempo real”, será mucho más rápido. Pero esto puede convertirse a veces en una paradoja.


¿BI en tiempo real?
Nueva gestión para la nueva economía:

  Enrique Sandino
  Director de Marketing BG&S
6