Red Hat OpenShift AI extiende la flexibilidad de la IA predictiva y generativa a toda la nube híbrida

Desde centros de datos locales y múltiples nubes públicas hasta el edge, Red Hat OpenShift AI amplía la individualización y la capacidad que tienen las empresas para adaptarse al auge de las cargas de trabajo inteligente

Red Hat- el proveedor de soluciones open source- anunció hoy los avances en Red Hat OpenShift AI, una plataforma híbrida abierta de inteligencia artificial (IA) y aprendizaje automático (ML) construida sobre Red Hat OpenShift para crear y entregar aplicaciones basadas en IA a gran escala en la nube híbrida. Estas actualizaciones acentúan la visión de Red Hat de la IA y llevan el compromiso de Red Hat con la libertad de elección del cliente al universo de las cargas de trabajo inteligentes, desde el hardware subyacente hasta los servicios y las herramientas que se utilizan para crear sobre la plataforma.

Esto contribuye a acelerar la innovación, a mejorar la productividad y la capacidad de incorporar la IA en las operaciones comerciales diarias a través de una plataforma open source más flexible, escalable y adaptable que permite tanto modelos predictivos como generativos, con o sin el uso de entornos de nube.Al pasar los modelos de IA de la experimentación a producción, los clientes se enfrentan a muchos retos, que incluyen mayores costos de hardware, inquietudes respecto de la privacidad de los datos y falta de confianza a la hora de compartir sus datos con modelos basados en SaaS.

La IA generativa (IA gen) evoluciona rápidamente y a muchas organizaciones les resulta difícil crear una plataforma central de IA confiable capaz de ejecutarse en modo local o en la nube. “Ya no se trata de ‘si’ llevar la IA a la empresa, sino de ‘cuándo’ hacerlo. Las empresas necesitan contar con una plataforma de IA más confiable, uniforme y flexible capaz de incrementar la productividad, generar más ingresos e impulsar la diferenciación en el mercado. La respuesta de Red Hat a las demandas de IA empresarial a gran escala es Red Hat OpenShift AI, que hace posible que los líderes de TI implementen aplicaciones inteligentes en cualquier lugar de la nube híbrida, al mismo tiempo que crecen y regulan las operaciones y los modelos en función de las necesidades para poder dar soporte a las realidades de las aplicaciones y los servicios de producción,” dijo Jorge Payró, Country Manager de Red Hat para Argentina.

Según IDC1, para que puedan aprovechar la IA con éxito las empresas necesitarán modernizar muchas de sus aplicaciones y entornos de datos existentes, eliminar obstáculos entre sus actuales sistemas y plataformas de almacenamiento, mejorar la sostenibilidad de la infraestructura y elegir con cuidado dónde implementar diferentes cargas de trabajo en la nube, el centro de datos y el edge. Para Red Hat, esto es indicativo de que las plataformas de IA deben ser flexibles para poder apoyar a las empresas a medida que avanzan en la adopción de la IA y van adaptando sus necesidades y recursos.

La estrategia de IA de Red Hat aporta flexibilidad en toda la nube híbrida, brinda la capacidad de mejorar los modelos básicos previamente entrenados o seleccionados con los datos de los clientes y la libertad de habilitar diversos aceleradores de hardware y software. Las características nuevas y mejoradas de Red Hat OpenShift AI cubren estas necesidades al brindar acceso a las últimas innovaciones en AI/ML y al soporte de un extenso ecosistema de partners centrado en AI. La última versión de la plataforma ofrece lo siguiente:

●Servicio de modelos en el edge, que extiende la implementación de modelos de IA a ubicaciones remotas mediante OpenShift de un solo nodo. Proporciona capacidades de inferencia en entornos con recursos limitados con acceso a la red intermitente o aislado. Esta función en versión tecnológica preliminar proporciona a las empresas una experiencia operativa uniforme y escalable desde el núcleo hasta la nube y el edge, e incluye observabilidad lista para usar.
●Servicio de modelos mejorado, con la capacidad de utilizar múltiples servidores de modelos que admiten tanto la IA predictiva como la generativa e incluye soporte para KServe, una definición de recursos personalizada de Kubernetes que orquesta el servicio de toda clase de modelos, vLLM y servidor de inferencia de generación de texto (TGIS), motores de servicio para LLM y tiempo de ejecución Caikit-nlp-tgis, que maneja modelos y tareas de procesamiento de lenguaje natural (NLP). El servicio de modelos mejorado permite a los usuarios ejecutar IA predictiva y generativa en una única plataforma para múltiples casos de uso, lo cual reduce costos y simplifica las operaciones. Esto permite un servicio de modelos listo para usar para LLM y simplifica el flujo de trabajo del usuario.
●Cargas de trabajo distribuidas con Ray, mediante el uso de CodeFlare y RayKube, que utilizan múltiples nodos de clúster para lograr un procesamiento de datos y un entrenamiento de modelos más rápidos y eficientes. Ray es un marco que acelera las cargas de trabajo de IA y KubeRay ayuda a administrar estas cargas en Kubernetes. CodeFlare es fundamental para las capacidades de cargas de trabajo distribuidas de Red Hat OpenShift AI debido a que proporciona un marco sencillo que ayuda a simplificar la orquestación y el monitoreo de tareas. Las capacidades centrales de gestión y cola permiten un aprovechamiento óptimo de los nodos y la asignación de recursos, como las GPU, a los usuarios y a las cargas de trabajo correspondientes.
●Desarrollo de modelos optimizado, a través de espacios de trabajo del proyecto e imágenes de bancos de trabajo adicionales que proporcionan a los científicos de datos la flexibilidad para usar IDE y kits de herramientas, incluidos VS Code y RStudio, actualmente disponibles como versión tecnológica preliminar, y una CUDA mejorada, para distintos casos de uso y tipos de modelos.
●Visualizaciones del monitoreo de modelos, que permiten obtener métricas operativas y de funcionamiento, lo cual mejora la observabilidad del rendimiento de los modelos de IA.
●Nuevos perfiles de aceleradores, que permiten a los administradores configurar diferentes tipos de aceleradores de hardware disponibles para el desarrollo de modelos y los flujos de trabajo de servicio de modelos. Esto brinda a los usuarios un acceso sencillo y de autoservicio al tipo de acelerador adecuado para una carga de trabajo específica.

Más allá del respaldo que Red Hat OpenShift AI le brinda a watsonx.ai de IBM, empresas de todos los sectores se están equipando con Red Hat OpenShift AI para impulsar más innovación y crecimiento en IA, entre ellas, el Boston Children’s Hospital, AGESIC y Ortec Finanzas. A medida que las empresas experimenten y ajusten nuevos modelos dispondrán de una vía de acceso lista para escalar estos flujos de trabajo con Red Hat OpenShift AI para entrenar y servir modelos de IA a escala. De este modo, aportará capacidades adicionales para el desarrollo de IA empresarial, la gestión de datos y el gobierno de modelos.

1 Fuente: IDC, “The Future of Digital Infrastructure, 2024: AI-Ready Platforms, Operating Models, and Governance” (#US50614724), 2024