Volver al Blog
Cloud 28 de febrero de 2026 6 min de lectura

Evolución en deploy de aplicaciones con Kubernetes

Guía completa sobre cómo desplegar y gestionar aplicaciones en producción usando Kubernetes y mejores prácticas DevOps.

Kubernetes Kubernetes DevOps Docker Docker
Neiser Custodio

Neiser Custodio

Desarrollador FullStack

Evolución en deploy de aplicaciones con Kubernetes

La evolución de Kubernetes en 2026

Kubernetes 1.35 “Timbernetes”, lanzado en diciembre de 2025, marca un hito importante en la evolución de la orquestación de contenedores. Con más de 60 mejoras y un enfoque renovado en seguridad y escalabilidad, K8s continúa siendo la plataforma líder para desplegar aplicaciones cloud-native.

Novedades clave en Kubernetes 1.35

In-Place Pod Resource Updates (GA)

Una de las características más esperadas finalmente llegó a disponibilidad general. Ahora puedes ajustar CPU y memoria de Pods sin reiniciarlos, lo cual es revolucionario para aplicaciones con estado y cargas batch.

Anteriormente, modificar recursos requería recrear Pods, lo que interrumpía workloads y complicaba el escalado vertical. Esta funcionalidad permite escalado más suave y eficiente.

Mejora significativa

El escalado vertical in-place mejora dramáticamente la experiencia para aplicaciones stateful como bases de datos, donde reiniciar Pods puede causar interrupciones de servicio.

Mejoras de seguridad

Kubernetes 1.35 trae avances significativos en seguridad que afectan directamente las operaciones del día 2. El sistema de certificados para Pods se ha simplificado, eliminando la necesidad de controladores externos como cert-manager para casos de uso básicos.

Deprecaciones importantes

Atención: Ingress NGINX

Ingress NGINX será retirado en marzo de 2026 debido a falta de mantenedores. Si aún lo usas, migra a alternativas como Gateway API o controladores Ingress mantenidos activamente.

Preparando tu cluster para producción

cgroup v2 es ahora obligatorio

Kubernetes 1.35 eliminó el soporte para cgroup v1. Si tus nodos corren en distribuciones antiguas de Linux sin soporte para cgroup v2, el kubelet fallará al iniciar.

Los administradores deben migrar sus nodos a sistemas con cgroup v2 habilitado antes de actualizar a 1.35.

Configuración de seguridad

Implementa Network Policies para controlar el tráfico entre Pods. Define claramente qué Pods pueden comunicarse entre sí y limita el tráfico a solo lo necesario.

Usa Pod Security Standards (PSS) para aplicar políticas de seguridad a nivel de namespace. Los tres niveles disponibles son:

  • Privileged: Sin restricciones (solo para workloads de sistema)
  • Baseline: Políticas mínimamente restrictivas que previenen escalaciones de privilegios conocidas
  • Restricted: Políticas altamente restrictivas siguiendo mejores prácticas de seguridad

Gang Scheduling para AI/ML Workloads

Con el auge de cargas de trabajo de AI en 2026, Kubernetes está introduciendo Gang Scheduling (KEP-4671), que permite asegurar que todos los Pods de un Job se programen juntos.

Esto es crítico para trabajos de ML distribuido donde si falla un Pod, todo el Job debe reiniciarse. Gang Scheduling garantiza que todos los recursos necesarios estén disponibles antes de iniciar el workload.

Optimización para GPU

Si ejecutas workloads de AI/ML, implementa Gang Scheduling junto con Kueue para mejor orquestación de Jobs. Esto previene fragmentación de GPU y mejora la utilización.

Gestión de GPU en 2026

GPU Sharing y Time-Slicing

Con GPUs siendo recursos extremadamente costosos, la capacidad de compartirlas entre múltiples Pods es crítica. Usa NVIDIA GPU Operator para habilitar:

  • Time-slicing: Múltiples Pods comparten una GPU alternando su uso
  • MIG (Multi-Instance GPU): Divide físicamente una GPU en instancias más pequeñas
  • MPS (Multi-Process Service): Permite que múltiples procesos compartan una GPU

Monitoreo de eficiencia de GPU

No basta con asignar GPUs - necesitas monitorear su utilización real. Instrumenta métricas como:

  • Saturación de GPU (% de uso)
  • Memoria GPU utilizada
  • Tiempo de espera en cola
  • Fragmentación (GPUs parcialmente usadas)

Autoscaling en 2026

Horizontal Pod Autoscaler (HPA)

HPA escala el número de replicas basándose en métricas. En 2026, las mejores prácticas incluyen:

  • Usar métricas personalizadas relevantes a tu aplicación (requests/segundo, tamaño de cola)
  • Configurar behavior para controlar la velocidad de escalado
  • Definir límites de escalado razonables

Vertical Pod Autoscaler (VPA)

VPA ajusta automáticamente requests y limits de recursos. Con la nueva capacidad de updates in-place, VPA es ahora mucho más viable para producción.

Combinación HPA + VPA

Usa HPA para responder a picos de tráfico rápido y VPA para optimizar recursos a largo plazo. Configúralos en diferentes dimensiones (HPA en CPU, VPA en memoria) para evitar conflictos.

Observabilidad moderna

OpenTelemetry Integration

OpenTelemetry se ha convertido en el estándar para observabilidad en 2026. Instrumenta tus aplicaciones para enviar:

  • Traces distribuidos para rastrear requests a través de microservicios
  • Métricas de aplicación y sistema
  • Logs estructurados con correlation IDs

eBPF para deep observability

Herramientas basadas en eBPF como Cilium y Pixie permiten observabilidad profunda sin modificar código:

  • Métricas de red a nivel de TCP/UDP
  • Trazado de syscalls
  • Security events

GitOps y Continuous Deployment

ArgoCD y Flux

GitOps se ha consolidado como el patrón preferido para deployments en 2026. Herramientas como ArgoCD y Flux automatizan la sincronización entre Git y tu cluster.

Beneficios clave:

  • Git como fuente única de verdad
  • Rollbacks triviales (git revert)
  • Auditoría completa de cambios
  • Sincronización automática

Progressive Delivery

Implementa estrategias de deployment avanzadas:

  • Canary deployments: Libera a pequeño porcentaje de usuarios primero
  • Blue-green deployments: Mantén dos ambientes y switch instantáneo
  • Feature flags: Control dinámico de features sin redesplegar

Multi-tenancy y aislamiento

Para clusters compartidos entre múltiples equipos:

Namespaces y Resource Quotas

  • Namespace por equipo/proyecto
  • ResourceQuotas para limitar uso de CPU/memoria/storage
  • LimitRanges para defaults y límites por Pod

Network Policies estrictas

Implementa zero-trust networking donde Pods solo pueden comunicarse con destinos explícitamente permitidos.

Cost Optimization

Right-sizing

Analiza métricas históricas para:

  • Identificar Pods sobre-provisionados
  • Ajustar requests/limits basándote en uso real
  • Escalar down clusters durante horas no-peak

Spot Instances y Preemptible VMs

Para workloads tolerantes a interrupciones:

  • Usa nodos spot para ahorrar hasta 70%
  • Implementa Pod Disruption Budgets
  • Configura replicación suficiente

Cuidado con spot instances

No uses spot instances para workloads críticos sin estrategia de fallback. Los nodos pueden ser terminados con poco aviso.

Conclusión

Kubernetes en 2026 es más maduro, seguro y optimizado que nunca. Las nuevas capacidades como in-place updates, mejoras de seguridad y mejor soporte para AI/ML lo consolidan como la plataforma de facto para orquestación de contenedores.

Mantente actualizado con las releases trimestrales, migra proactivamente de features deprecadas, y adopta las nuevas capacidades gradualmente después de probarlas en entornos no-productivos.

El futuro de Kubernetes incluye mayor automatización, mejor soporte para edge computing, y optimizaciones continuas para workloads de AI. Prepara tu infraestructura ahora para estar listo.

Neiser Custodio

Neiser Custodio

Desarrollador FullStack

Me apasiona crear soluciones web escalables y compartir conocimientos a través de publicaciones de blog enriquecedoras.