viernes, 28 de noviembre de 2025
Por Julio César Castrejón, Country Manager de Nutanix México
Los principales obstáculos para tener éxito en implementaciones de IA suelen ser el almacenamiento de datos, la latencia del sistema y la observabilidad. La inteligencia artificial se ha convertido en una herramienta para acelerar servicios, impulsar la innovación y optimizar operaciones. Sin embargo, cuando las empresas intentan implementarla, suelen enfrentarse a latencia, costos crecientes y resultados poco consistentes. Aunque con frecuencia se atribuyen estos obstáculos a modelos todavía inmaduros, también influye la forma en que las organizaciones recopilan, procesan, almacenan y suministran datos. Muchas empresas siguen utilizando arquitecturas heredadas diseñadas antes de la aparición de modelos como ChatGPT y esos modelos no están funcionando. La causa no es difícil de identificar. Las organizaciones siguen encontrando los mismos cuellos de botella: almacenamiento, latencia, seguridad y observabilidad. Como resultado, a pesar de las decenas de miles de millones de dólares invertidos en IA generativa, el 95 % de las organizaciones no reportan un retorno de la inversión medible de acuerdo a un estudio reciente del MIT. La mayoría de las herramientas de IA fallan debido a flujos de trabajo frágiles, falta de aprendizaje contextual y desalineación con las operaciones diarias. Los sistemas de agencia solo agravarán estos problemas, ya que revelan la poca comprensión que las empresas tienen de sus datos: dónde están, qué son y quién tiene acceso a ellos. Almacenamiento bajo presión Los sistemas heredados no fueron diseñados para gestionar los enormes conjuntos de datos no estructurados que alimentan la IA generativa, y escalarlos suele incrementar los costos. Las empresas invierten grandes cantidades para ampliar su capacidad, pero aún tienen dificultades para convertir los datos en un formato utilizable rápidamente. Esto conlleva costosas integraciones e indexaciones de información no estructurada, lo que constituye uno de los principales cuellos de botella. La latencia y la seguridad crean dolores de cabeza La latencia es otro punto crítico, a menudo agravado por la proliferación de los datos empresariales. Transferir información entre sistemas o proveedores genera fricción. Esta fricción se multiplica a medida que se expanden las fuentes de datos. Si no se presta atención a dónde se almacenan los datos y cómo se mueven, las empresas pagan el precio con un rendimiento más lento y facturas más elevadas. Las medidas de seguridad también pueden reducir el rendimiento. Los firewalls, las capas de cifrado, las comprobaciones de identidad y las herramientas de prevención de pérdida de datos introducen pasos adicionales en los flujos de datos. Contar con soluciones con seguridad y cumplimiento normativo integrados puede ayudar a reducir estos problemas de rendimiento. Observabilidad: Ver es saber La observabilidad se está convirtiendo en un factor decisivo para la IA. Las herramientas de monitorización tradicionales se diseñaron para aplicaciones estáticas, no para sistemas que modifican su comportamiento en función de las entradas de datos y los resultados probabilísticos. La observabilidad es lo que indica si el conjunto de datos está realmente listo. Sin ella, solo son conjeturas. Cómo se puede solucionar estos obstáculos: Adopción del almacenamiento unificado El almacenamiento unificado no solo elimina los silos y acelera el acceso a los datos para el entrenamiento de modelos y las aplicaciones del mundo real, sino que también escala con mayor facilidad entre entornos. Al establecer una base de datos sólida con una plataforma unificada de gestión de datos y servicios, las organizaciones pueden acelerar de forma rentable los procesos de IA y lograr resultados más rápidos y eficientes. Mirando hacia el futuro Para tener éxito con la IA empresarial, es fundamental considerar la entrega de datos como una competencia fundamental. Si bien elegir los modelos de IA adecuados es importante, la capacidad de gestionar el almacenamiento, la latencia y la observabilidad a escala es lo que distingue al 5 % que ve valor del 95 % que no. Para los líderes de TI, esto implica más que actualizaciones técnicas. Requiere priorizar el flujo y la confiabilidad de los datos por encima de la búsqueda de modelos experimentales. Sin ese cambio, la promesa de la IA seguirá siendo inalcanzable.


