I am Lino
16 de marzo de 2026

Cómo tomar decisiones técnicas sin vender tu alma al hype

Publicado el 16 de marzo de 2026  •  15 minutos  • 3036 palabras
Table of contents

Hay decisiones técnicas que se toman con datos, tiempo y algo de criterio.

Y luego están las otras: las que se toman después de ver tres charlas, dos hilos de X y un caso de estudio mal leído, y acaban en frases como “bueno… ahora ya que lo tenemos montado, habrá que aprovecharlo, ¿no?”.

Un día estás feliz con tu API en un VPS normalito y, al siguiente, te descubres montando una arquitectura serverless-event-driven-data-mesh-multi-cloud porque viste un video donde decía que “así lo hace Netflix”.

El problema no es usar cosas nuevas; el problema es cuando tus decisiones responden más a “queda bien en mi curriculum” que a “le viene bien a mi sistema” (lecciones de migraciones reales , coste oculto de los microservicios ).

Este artículo va de cómo decidir tecnología sin venderle tu alma al hype. De cómo mirar propuestas seductoras como “pásalo todo a serverless”, “vayamos a microservicios”, “montemos un Data Mesh” y ser capaz de responder con algo mejor que un “pues depende”. Para eso, vamos a trataar con cinco criterios muy concretos: coste, complejidad, equipo, lock-in y ROI, y luego a usarlos como filtro cuando llegue el hype del mes.

Coste: cuánto te cuesta de verdad (no solo en euros)

La película suele empezar con una diapositiva muy bonita. Alguien enseña un gráfico donde, después de migrar a serverless , la línea de coste de infraestructura cae como si le hubieran quitado el gluten. “Pagas solo por lo que usas”, te dicen, y durante unos segundos te preguntas por qué sigues pagando ese VPS como si vivieras en 2009.

Empiezan los experimentos. Primero mueves un endpoint a funciones, luego otro, luego el cron job nocturno, luego “ya que estamos” el procesamiento de informes. Y es verdad: en muchos casos la factura de servidores baja… hasta que empiezas a sumar el resto de costes .

Te das cuenta de que has invertido semanas de gente cara desentrañando modelos de tarifas ("¿por request, por GB-segundo, por región?"), ajustando tiempos de espera a servicios externos, peleando con arranques en frío y reestructurando código para que encaje en funciones diminutas. A la vez, aparece una nueva categoría de “infra intangible ”: tiempo montando paneles nuevos, centralizando logs de decenas de funciones, afinando alarmas que ahora saltan desde tres sitios distintos .

Con las migraciones a microservicios pasa algo parecido: muchos estudios de “7 lecciones duramente aprendidas ” reconocen que el coste real no fue solo levantar más instancias, sino el sobreprecio en complejidad operativa y depuración que nadie había presupuestado.

Por eso, cuando alguien venda una decisión como “más barata”, la pregunta útil no es solo “¿cuánto nos ahorramos en cloud?”, sino:

“Si descontamos lo molón, ¿cuántas horas de personas y cuánta atención vamos a meter aquí de ahora a un año, y qué dejamos de hacer mientras tanto?”

Si la respuesta se parece a “bueno, ya veremos, pero el diagrama está hermosote”, eso es hay más hype que realidad.

Complejidad: cuántas cosas tienes que entender a la vez

La complejidad arquitectónica es como la humedad: entra despacio y cuando te quieres dar cuenta la tienes en todas partes. Nadie se levanta y dice: “propongo aumentar nuestra carga cognitiva hasta el colapso”. Se hace a base de pequeños “solo un servicio más”, “solo un topic más”, “solo un CRD más”.

Empiezas con una aplicación en una VM. Pasas a contenedores “para estar al día”: ahora tienes imágenes, un registry, redes virtuales. Luego alguien propone meter todo en Kubernetes, que “es el estándar”: aparecen deployments, services, ingress, configmaps, operators, CRDs y un diccionario nuevo que aprender para seguir sirviendo el mismo JSON de siempre.

Con serverless está pasando algo similar: en artículos recientes se habla del “trilema” de coste, rendimiento y complejidad y de cómo, a medida que crecen las soluciones, los equipos terminan con una telaraña de funciones, colas y permisos donde nadie tiene ya la foto completa en la cabeza. La promesa era “menos cosas que gestionar”; la realidad, en muchos sitios, es “otras cosas que gestionar, pero poco visibles”.

La pregunta clave no es “¿podemos hacerlo?”, sino:

“¿Nuestro equipo puede seguir razonando sobre este sistema sin tener que estudiar un máster cada vez que entra alguien nuevo?”

¿Puedes seguir el camino de una petición sin saltar entre cinco paneles? ¿Puedes explicarle a una persona recién llegada cómo fluye un dato sin necesitar tres pizarras?

En los relatos sobre migraciones fallidas a microservicios siempre se repite lo mismo: nadie calculó bien la envergadura real de la complejidad añadida, tanto técnica como mental.

Cuando un cambio tecnológico convierte tu sistema en algo que solo entienden dos personas, y a ratos, la complejidad ya ha ganado. El diagrama puede ser muy moderno, pero el trabajo diario se ha vuelto francamente más frágil.

Equipo: con las personas que tienes, no con las que querrías tener

Hay arquitecturas que quedan espectaculares… en organizaciones de mil personas.

Data Mesh, por ejemplo, se ha vendido como el futuro de los datos : dominios distribuidos, equipos dueños de sus productos de datos, plataformas autoservicio. Suena fantástico si tienes varios equipos de datos, analistas, SREs de plataforma y un presupuesto serio.

En empresas más pequeñas, algunos arquitectos hablan ya de “el lado oscuro del hype de Data Mesh” : mucho ruido organizativo, roles nuevos mal definidos, inversiones grandes en herramientas… para acabar, en la práctica, con cuatro pipelines rotos y una confusión generalizada sobre quién es responsable de qué datos .

Con los microservicios ha pasado lo mismo. Los casos de Netflix, Amazon o Uber son reales, pero van acompañados de años construyendo equipos de plataforma , invirtiendo en observabilidad , definiendo bounded contexts y repartiendo guardias entre gente muy experimentada. Cuando un equipo de cinco personas intenta copiar la arquitectura de una multinacional, lo que hereda no es la velocidad, es el cansancio.

Decidir con el equipo real en la cabeza es hacerse preguntas que a veces nadie quiere decir en voz alta: ¿quién va a operar esto cuando esté en producción? ¿Cuánta experiencia tenemos ya en sistemas distribuidos, tracing, permisos finos de cloud, incident response? Y, sobre todo, ¿qué curva de aprendizaje añadimos, y a cambio de qué?

Lo que dice cualquiera que haya trabajado con Data Mesh en serio es justamente eso: que no es un “patrón plug-and-play”, sino un modelo organizativo pesado que solo tiene sentido por encima de cierto tamaño. Lo mismo se aplica a muchas decisiones “enterprise”: pueden ser geniales a gran escala y un estorbo en equipos pequeños.

Aceptar que la arquitectura tiene que estar a la altura del equipo, y no al revés, es menos resultón, pero mucho más sano. Mejor una solución que tu equipo entienda y pueda mantener, que una catedral que solo conoce una persona y a medias.

Lock-in: a qué le estás entregando las llaves

Lock-in se ha convertido en la palabra comodín para asustar a cualquiera que use algo que no sea infraestructura pelada. “Si usas Lambda, estarás atrapado en AWS”, “si usas la base de datos gestionada X, nunca podrás irte”, “si apuestas por esta plataforma low-code, estás perdido”.

Pero si lees con calma a gente que lleva años en serverless, verás matices interesantes. Algunos hablan del “conundrum del lock-in y la complejidad en espiral”: si intentas evitar completamente el lock-in, acabas construyendo tantas capas de abstracción que pierdes casi todas las ventajas del servicio gestionado… y sigues estando atado, pero ahora a tu propia capa casera. Otros, desde empresas grandes , cuentan cómo han mitigado el lock-in usando estándares donde importa (datos, contratos, formatos) y aceptando cierta dependencia donde el beneficio es claro.

También existe el fenómeno contrario, el lock-out, del que advierten algunos ingenieros de cloud: tunear tanto tus sistemas (bases de datos, runtimes) que, cuando quieres aprovechar algo gestionado, descubres que ya no encajas en ningún sitio y te has autoexcluido de casi todas las opciones razonables.

La cuestión, entonces, no es “¿tenemos lock-in?”, porque la respuesta siempre es “sí, a algo”. La verdadera pregunta es:

“¿A qué nos estamos atando, con qué beneficio ahora, y cuánto nos costaría movernos si un día necesitamos hacerlo?”

Si usar el orquestador serverless propio de un cloud te ahorra meses de trabajo y te da resiliencia y escalado a coste bajo, quizá te compensa aceptar que migrar eso a otro proveedor no va a ser gratis. Si meter tu lógica de negocio en un entorno no-code propietario te saca las castañas del fuego en un caso interno, igual es perfecto… siempre que sepas que reescribirlo en otro sitio será el precio de crecer más adelante.

La experiencia acumulada en este tema suele apuntar en la misma dirección: “sácale partido a la plataforma, pero sabiendo lo que haces”. Saca partido a lo que el proveedor hace mejor que tú (infra, seguridad base, escalado), pero mantén tu dominio y tus datos en formas que no hagan imposible una futura migración.

ROI: qué te devuelve esto, más allá del ego arquitectónico

En muchos equipos hay algo que late por debajo y que nadie saca a la mesa. Dos años después de una gran re-arquitectura – monolito a microservicios, data warehouse a data mesh, VMs a serverless – alguien mira hacia atrás y se pregunta: “¿todo este esfuerzo nos ha devuelto lo que prometía?”.

Quien se ha tomado la molestia de medir el coste real de los microservicios ha confirmado lo que muchos intuían: en no pocos casos, el retorno no ha estado a la altura de la inversión. Equipos que se han pasado años peleando con despliegues, observabilidad, contratos entre servicios, para terminar con un sistema más caro y más complicado… que no entrega valor al usuario mucho más rápido que antes.

Algunas empresas han decidido incluso dar marcha atrás en parte: consolidar microservicios demasiado finos en servicios más gruesos, o volver a un monolito modular para rebajar coste y carga cognitiva. En varios casos de estudio, esa simplificación ha ahorrado un porcentaje escandaloso del gasto en infraestructura y ha reducido incidentes, sin sacrificar verdaderamente la capacidad de escalar.

El problema es que el ROI rara vez sale en las charlas. Vemos más fácilmente el “antes/después” del diagrama que el “antes/después” de los KPIs que importan: tiempo de entrega, tiempos de recuperación, satisfacción del usuario, coste operativo.

Por eso, una forma útil de aterrizar cualquier decisión de arquitectura es formularla en términos de “dentro de 6-12 meses, deberíamos notar esto”: menos interrupciones por incidentes, despliegues más frecuentes, menor tiempo para lanzar nuevas funcionalidades, menos gasto en infra para el mismo tráfico.

Si lo único que puedes prometer es “seremos más cloud-native, event-driven y alineados con lo que se lleva”, quizá el principal beneficiado es tu curriculum, no tu sistema.

Aplicando el filtro al hype del mes

Con estos cinco ejes en la cabeza – coste, complejidad, equipo, lock-in y ROI –, ya tienes algo con lo que responder cuando llegue el hype del mes.

Alguien propondrá pasar todo a serverless porque “así lo ha hecho tal banco/megaempresa”. Puedes tirar de casos donde serverless ha traído ahorros y velocidad, sí, pero también de análisis que advierten del aumento de complejidad y de la sensibilidad de costes cuando el volumen sube. En lugar de un “sí/no” visceral, puedes tener una conversación concreta: nuestro patrón de tráfico, nuestros tiempos de respuesta, nuestras habilidades, nuestra capacidad de observabilidad.

O llega la propuesta de ir a microservicios “porque somos modernos”. Puedes contraponer experiencias reales de migración donde se subestimó masivamente la complejidad, se acabó con más fallos y se aprendió, a base de porrazos, a ir más despacio y de forma gradual. Puedes preguntarte si ya habéis exprimido de verdad vuestro monolito modular, como recomiendan muchos autores… o si estáis intentando saltar etapas solo para no parecer “viejunos”.

Con Data Mesh pasa igual: frente al relato aspiracional, tienes voces que explican cuándo no es el enfoque adecuado, especialmente para organizaciones pequeñas o sin una cultura de datos madura. Eso te permite preguntarte si tu empresa se parece más a las que lo han hecho bien… o a las que han descubierto su lado oscuro.

Incluso con opciones que nadie suele poner en la portada de una charla, como no-code/low-code, es el mismo ejercicio: para ciertos casos internos, puede ser muy rentable a corto plazo; para sistemas centrales, puede convertirse en el mayor lock-in de tu historia. Depende de qué estés intentando resolver.

La idea no es coleccionar artículos para ganar discusiones, sino tener contexto: ver que, detrás de cada hype, hay historias de éxito y de fracaso, y que las segundas casi siempre tienen en común haber ignorado exactamente estos cinco factores.

Un detector de humo para el hype

No existe una fórmula infalible para tomar decisiones técnicas; si existiera, ya tendríamos un framework npm con ese nombre y un par de certificaciones muy caras detrás (la pela es la pela).

Lo que sí puedes tener es un buen detector de humo.

Cada vez que aparezca una gran idea arquitectónica – serverless, microservicios, Data Mesh, Event Sourcing, la que toque esa semana –, enciéndelo y hazte estas preguntas antes de que el humo te llegue a los ojos:

Si encuentras respuestas claras, puede que ese hype, para ti, no sea hype, sino la herramienta adecuada en el momento adecuado. Si todo suena a “porque lo han hecho otros” o “porque parece el futuro”, quizá lo más moderno que puedes hacer es seguir con algo más sencillo, mejorar lo que ya tienes y revisitar la idea más adelante.

Al final, no se trata de ser cínico con toda tecnología nueva (aunque a mí me encanta criticar), ni de convertirse en el abuelo que dice que todo tiempo pasado fue mejor (¡que vivan los 8 bits!).

Se trata de algo más difícil de vender y bastante más raro: practicar arquitectura orientada a la realidad.

Puede que eso no quede tan épico en las diapositivas de la próxima charla. Pero, con un poco de suerte, te ahorrará unas cuantas noches en vela y el disgusto de mirar atrás y no encontrar una razón técnica sólida para lo que hiciste.


Glosario rápido

Glosario de urgencia para que nadie se quede fuera de la conversación cuando el hype apriete.


Fuentes y referencias

Porque opinar sobre arquitectura sin referencias es como migrar a microservicios sin motivo: suena valiente, pero acaba regular.

Sígueme

Escribo y opino sobre tecnología, desarrollo de software y lo que se me pase por la cabeza.