De la cultura de la reducción de costes a la cultura del rendimiento

Desde la crisis de 2008 y ahora ante el nuevo embate económico asociado a la pandemia de la Covid-19, la presión para reducir costes se ha convertido en obsesión en los entornos corporativos y, por supuesto, la partida destinada a las infraestructuras y aplicaciones tecnológicas se incluye entre las que son objeto de especial atención por parte de los CEOs como área potencial para mejorar la cuenta de resultados. De hecho, el control del coste de la tecnología ha sido más que notablemente agresivo en los últimos años.

Aunque las estrategias de reducción de costes no tienen por qué ser peores que las estrategias de generación de ingresos, lo cierto es que las primeras resultan más fáciles de llevar a la práctica. La explicación es bien sencilla, ya que las segundas requieren de un replanteamiento de los procesos de negocio, del modelo comercial y de la proposición de valor a los clientes; de modo que son mayoría las empresas que se decantan por la primera vía, con las poco deseables consecuencias socioeconómicas que ya conocemos.

Si hacemos un repaso sucinto de las estrategias más comunes de control de costes en el área de tecnología, podemos mencionar, por ejemplo, la congelación de las plantillas o la paralización de nuevos proyectos que, curiosamente, suelen ser los dirigidos a la generación de ingresos. Otras medidas que han ganado adeptos en los últimos tiempos son las migraciones a tecnologías más económicas que, en no pocas ocasiones. terminan por traducirse en otro tipo de costes añadidos; sin olvidar, por supuesto, la medida estrella, la renegociación de contratos con los proveedores.

En esta última línea, la tendencia que se ha impuesto son los contratos de outsourcing basados en volumen y la persistente bajada de precios, tanto a los proveedores de infraestructura, como a los integradores. En otras palabras, ajustar los precios se ha convertido en el camino preferido de las empresas para mantener su competitividad.

No obstante, y sin entrar en valoraciones éticas, es necesario llamar la atención sobre dos paradojas fácilmente apreciables en este tipo de estrategias. La primera se encuentra en la ausencia de una valoración del impacto en el nivel de calidad que va a suponer la bajada de precios a los subcontratistas y, la segunda, que roza el absurdo, es que, si la tecnología se considera verdaderamente estratégica, ¿no debería primarse su nivel de eficiencia por encima del control de sus costes?

En Orizon estos dos puntos son fundamentales para definir el concepto de rendimiento que, de acuerdo con nuestra experiencia, todavía no goza de la atención que verdaderamente merece. Cuando alertamos a los clientes de que las aplicaciones tecnológicas no funcionan como realmente deberían, lo que señalamos es, en primer lugar, que la empresa no está alcanzando los objetivos de negocio establecidos o que se están incumpliendo los compromisos de servicio fijados, ya sean internos o externos. La experiencia nos dice que, de media, un 20% de los Acuerdos de Nivel de Servicio (ANS) se incumplen, lo que en el actual escenario de hiperinterconexión coloca a las empresas en una situación muy complicada.

La segunda derivada del rendimiento defectuoso de las aplicaciones radica en un incremento directo del consumo de recursos tecnológicos, un sobreconsumo que, de acuerdo con nuestra experiencia, puede representar fácilmente hasta el 10% de los costes de infraestructura.

Y, en tercer lugar, no podemos perder de vista los problemas derivados de la mala calidad del software que, como ya hemos apuntado, en no pocas ocasiones, son consecuencia del recurrente ajuste del precio de los servicios de los integradores. A este respecto, hay que subrayar que la baja calidad del software, debido a malas prácticas tales como la repetición de tareas, la recodificación o no la ejecución de garantías, puede suponer hasta el 15% de los costes de los integradores.

Llegados a este punto, cabe añadir aquí que las posibilidades de mejora son enormes debido, en buena parte, a que el entorno tecnológico y, tal y como sucede en otros muchos ámbitos, también se cumple el principio de Pareto, regla del 80/20 o ley de los pocos vitales, según la cual muy pocas tipologías de malas prácticas generan la mayor parte de los problemas.

En esta tesitura, y si las empresas quieren verdaderamente ir más allá en la forma de medir el valor de la tecnología, es imperativo que la eficiencia sea un elemento fundamental del modelo de medición y esto implica abordar el elemento costes de una manera más radical. Se trata, en última instancia, de implantar una nueva cultura, la del rendimiento y abordar el proceso de mejora continua de la calidad del software desde el final, al contrario de lo que plantean las soluciones más habituales hoy en día.

El desarrollo y adopción de una cultura del rendimiento, entendida como un círculo de mejora perpetuo, es un proceso clave dentro de la gobernanza TI de una organización y tiene, además, impacto en todas y cada una de sus áreas, incluyendo, por supuesto, la cuenta de explotación de la empresa que, al fin y al cabo, es determinante para el negocio.

En conclusión, resulta imperativo saber a ciencia cierta si las aplicaciones e infraestructuras tecnológicas de las que disponemos funcionan adecuadamente y a pleno rendimiento, tanto desde un punto de vista técnico, como de soporte al negocio. Medir cómo funciona el software y determinar los problemas que genera permite a las empresas desarrollar una mejor gestión de sus proveedores y, lo que es aún más importante, generar un ciclo de mejora continua de calidad de software, no solo a corto, sino también a medio y largo plazo, una visión temporal poco habitual en nuestro entorno.