El uso del dato aterriza con fuerza en la industria manufacturera
El uso del dato ha aterrizado con fuerza en la industria manufacturera. Surgen por doquier compañías industriales cuyo objetivo es la generación de infraestructuras que integren el mundo operacional (OT) y el mundo de la información (IT) hasta conseguir que fluyan los datos desde el sensor y hasta la nube sin fisuras. Se trata de conseguir no sólo mejoras en la eficiencia de los procesos o la calidad de los productos sino, mucho más allá, la capacidad de generar nuevos modelos de negocio.
Comenzamos preguntando a los expertos cuáles son los casos más habituales que resuelven el uso del dato en empresas industriales manufactureras. José María de la Fuente, responsable sector Industria de Microsoft España, lo tiene claro: “Tecnologías, como la Inteligencia Artificial, el IoT, Big Data o la realidad mixta están transformando el sector industrial, impulsando su eficiencia y permitiendo la fabricación de nuevos productos, el despliegue de servicios innovadores y espacios de trabajo más seguros”. En su opinión, los datos pueden ayudar a identificar ineficiencias en los procesos de producción y encontrar formas de mejorarlos, como la identificación de cuellos de botella y la optimización de la programación de la producción para mejorar la utilización de la maquinaria y la capacidad productiva de la empresa.
Y es que el sector de la fabricación es una de las industrias que está liderando el camino para capitalizar todo el potencial de la innovación impulsada por la IA. De hecho, este tipo de tecnología añadirá casi 3.700 millones de dólares al sector de la fabricación para 2035, según Accenture. Hoy en día la Inteligencia Artificial es muy útil en el sector de la industria y la fabricación, especialmente en lo relativo al uso de la automatización. Pero, según indican desde Microsoft, la automatización con la que tradicionalmente hemos venido asociando al sector industrial y de la fabricación se centraba, a menudo, en líneas de producción, maquinaria pesada y, más recientemente, en robots industriales caros y máquinas voluminosas que se utilizaban sobre todo en grandes fábricas y fuera del alcance de pequeños y medianos fabricantes, debido a sus presupuestos limitados o simplemente por limitaciones de espacio en la fábrica. En los últimos años, sin embargo, gracias a los avances en la tecnología de IA, estos robots se han vuelto más pequeños y mucho más baratos y están llevando a cabo una interacción y relación muy diferente entre los humanos y la tecnología en la fábrica.
“Además, estamos trabajando en nuevas soluciones junto con clientes y partners líderes en la industria. Los ejemplos son innumerables y están permitiendo un salto cualitativo enorme en todos los campos, generando, incluso, nuevos modelos de negocio. Por poner algunos ejemplos, hablamos de casos como la iniciativa de Familia Martínez, que integra a cinco importantes empresas de la industria alimentaria: ha unificado sus fuentes de información en Azure, agilizando la toma de decisiones un 12%, acelerando el acceso a los datos un 35% y logrando un ahorro de tiempo del 26% en el tratamiento de datos. O el de Sacyr, que ha reducido los plazos de los proyectos de despliegue de activos sensorizados en más de un 35% gracias a Azure IoT Hub; o el de Girbau, empresa española líder mundial en soluciones integrales de lavandería profesional, que con nuestra nube ha puesto en marcha la ‘lavandería como servicio’ al mismo tiempo que logra un ahorro importante en el consumo de agua o una supervisión completa de los ciclos de lavado para garantizar, por ejemplo, la desinfección de tejidos”, apunta de la Fuente. Y añade: “Igualmente, las alianzas y el liderazgo de grandes compañías es clave. Por ejemplo, junto a otras cinco grandes empresas hemos creado el consorcio de inteligencia artificial IndesIA, identificando más de 60 casos de uso basados en IA y analítica de datos y orientando su aplicación a procesos comunes, como el mantenimiento predictivo de los equipos, la optimización de la planificación productiva, la logística inteligente, el desarrollo de plantas productivas autónomas, la optimización del consumo energético en la producción, el desarrollo de gemelos digitales, la robotización de procesos industriales, la optimización de la calidad y el desarrollo de materiales avanzados. Y gracias a la tecnología cloud estas soluciones se podrán aplicar en cualquier empresa independientemente del tamaño”.
Absel Hernández, Maintenance Architect Schneider Electric Iberia, enumera por su parte los siguientes casos:
- Detección temprana de anomalías (mantenimiento predictivo): contar con sistemas conectados que recopilan datos sobre la maquinaria, instalaciones, etc., “nos permite traquear los patrones de comportamiento del asset para anticiparnos a una posible avería”. De este modo, ofrecen la capacidad de anticipar y abordar problemas antes de que se conviertan en incidentes críticos, mitigando los riesgos de seguridad y evitando tiempos de parada no planificados, las pérdidas operativas y las costosas intervenciones de mantenimiento. EcoStruxure Asset Advisor de Schneider Electric evalúa los datos en tiempo real de los equipos críticos conectados y aplica análisis avanzados para identificar posibles amenazas. Con estos datos, Asset Advisor brinda el poder de elección para las decisiones críticas, ya sea para tomar medidas tú mismo o para aprovechar el Service Bureau de Schneider Electric para que lo haga por ti.Específicamente para el sector industrial, contamos con AVEVA Predictive Analytics y AVEVA Insight que ayudan a los usuarios industriales a identificar anomalías en los activos, semanas o meses antes de la falla. Pueden pronosticar el tiempo de falla, por lo que se pueden establecer prioridades de mantenimiento, y ofrece consejos prescriptivos, como acciones para remediar problemas.
- Eficiencia energética: los datos nos permiten controlar en todo momento los consumos de cada proceso y tomar decisiones en base a ellos. Esto permite la optimización del consumo energético, recomendando set points y condiciones de operación que minimicen el consumo, manteniendo los criterios de producción adecuados y detectando desviaciones de los consumos respecto a sus valores óptimos. Con Advance Analyticis (partner de AVEVA) podemos reducir la huella de carbono y facilitar los conocimientos para un mejor uso de la energía, así como controlar estrictamente el uso de energía para exponer los costes ocultos.
- Predicción de calidad: nos permite identificar acciones que debamos implementar en el proceso para mejorar la calidad del producto y detectar potenciales problemas que puedan afectarla, evitando mermas en la producción. Nos permite además calcular un valor de calidad que no puede ser calculado en tiempo real, en base al histórico de valores medidos en el laboratorio, por ejemplo. También con Advance Analytics de Schneider Electric y AVEVA, eliminamos los costes de mermas de producción y predice problemas de calidad. Permite que los operadores ajusten la configuración de producción en el momento adecuado para lograr una calidad constante y evitar el desperdicio.
Para Alberto Minaya, director de Industria de Arbentia, en el espectro analítico “existen dos visiones que ya podemos considerar como tradicionales, por el tiempo que llevan entre nosotros y que no deben entenderse la una sin la otra, ya que no son excluyentes, sino complementarias. El famoso BIG DATA, donde se recopilan y analizan grades volúmenes de datos, generalmente desestructurados, heterogéneos y a veces hasta caóticos y que, a través del software, se transforman en información, esto es, en datos procesables y útiles, para la toma de decisiones futura. Y el menos conocido, SMALL DATA, donde lo que se manejan son pequeños conjuntos de datos, que como se suele convenir, deben caber en un Excel y que impactan en las decisiones a cortísimo plazo, esto es, en el presente, en lo que está sucediendo ahora”.
En su opinión, desde la perspectiva de la automatización, “hay de todo y para todos”: el puro proceso productivo, control de calidad, almacenaje… procesos que son la suma de hardware y software y donde IA/Machine Learning y Digital Twins, “tienen mucho que decir”. Así, “el dato, después de las personas, es el activo más importante de cualquier organización. El dato está ahí, la cuestión es decidir qué hacer con él y el reto consiste en saber hacerlo: mejorar la productividad, entender lo que sucede, automatizar procesos y disponer de predicciones para ayudar en la toma de decisiones”, concluye.
Por último, Salomé Valero, Applications, Data and AI Practice Leader de Kyndryl, responde a esta primera pregunta: “Las organizaciones manufactureras están sumidas en un profundo proceso de cambio, enfocado en mejorar su gestión, en reducir sus costes y riesgos, y en impulsar su sostenibilidad. Un uso más inteligente de los datos es clave para el éxito de esta transformación y, por ello, éste es el foco principal de muchos proyectos tecnológicos que se están llevando a cabo en el sector. El ML, la inteligencia artificial y la analítica avanzada son aplicables y capaces de aportar mejoras clave en todas las áreas en las empresas industriales, desde las operaciones de gestión y toma de decisiones estratégicas, pasando por la recogida y análisis de datos en planta (para el correcto funcionamiento y mantenimiento preventivo de las máquinas, o para garantizar la seguridad de los empleados), hasta el control del uso de recursos y artículos en toda la cadena de suministro”.
¿Qué infraestructura mínima (software/ hardware) se requiere para la resolución de un caso de uso?
Respecto a esta segunda cuestión, desde Microsoft consideran que la infraestructura mínima requerida para la implementación del uso de datos en empresas industriales manufactureras puede variar según las necesidades específicas de cada empresa, pero todas deben abrazar el cloud. Hay una cosa que queda clara: implica un esfuerzo colaborativo y multidisciplinar que abarca el desarrollo de la nube, IoT, machine learning, Inteligencia Artificial, seguridad y privacidad. En cualquier caso, cada escenario debe ser evaluado para elegir la mejor solución o conjunto de ellas. Un ejemplo real de estos escenarios es el proyecto desarrollado por Nueva Pescanova y Microsoft. “Juntos hemos creado la primera granja acuícola inteligente de langostinos del mundo con ayuda de servicios en la nube de Azure y sus servicios de Inteligencia Artificial, Internet de las Cosas y Big Data. A través de la plataforma Smart Farm se recopilan diferentes datos de interés, desde los niveles de oxígeno y la temperatura hasta los animales por metro cuadrado, y proporciona información y alertas para ayudar a los trabajadores a aprovechar los recursos y mejorar la sostenibilidad y el bienestar animal. El proyecto se llevó a cabo en menos de un año y les ha permitido ya alcanzar los resultados que tenían previstos para 2024: han pasado de contar con 800 kilos de crustáceos por hectárea a 3.200 y se ha ampliado la contratación de trabajadores del entorno local, convirtiéndose así en una de las granjas con mayor productividad y rentabilidad de Pescanova”, ejemplifica de la Fuente y matiza: “A través de la Inteligencia Artificial, Microsoft 365 y Azure, la nube de Microsoft, Nueva Pescanova pudo ampliar el conocimiento de la información extraída de los animales masticando captados bajo el agua. Este indica la presencia de crustáceos en cada uno de los sectores de los estanques y la frecuencia de masticación cuando se alimentan. De ese modo, es posible extrapolar la cantidad de alimento que demandan, cuándo se sacian o cuándo vuelven a tener hambre. Así, las estaciones de alimentación automáticas depositan en el agua la comida bajo demanda real, permitiendo aportar la ración idónea en cada momento para maximizar el bienestar de los langostinos y lograr la máxima productividad de la explotación sin desperdicio de alimento”.
Por su parte, desde Schneider Electric aseguran que lo mínimo que se requiere en el caso de la solución Software as a Service, SaaS, como Advanced Analytics, es un Gateway que recopile los datos de la planta. En el caso de Predictive Analytics ya requiere de un servidor Windows. En ambos casos, “es posible aprovechar los datos existentes en los historizadores de planta, con lo que se puede aprovechar todo el histórico del proceso para poder levantar los modelos de Machine Learning”. Mientras, desde Arbentia opinan: “Simplificando, la digitalización en el sector industrial se basa en estos tres pilares: Nube, conectividad y seguridad, con el dato como vector multiplicador. Desde la perspectiva del hardware ha habido muchos cambios, por ejemplo a través de Azure, con la nube de Microsoft tenemos la posibilidad de eliminar barreras de entrada (ya no hay que hacer fuertes inversiones para empezar, se acabó el comprar máquinas o licencias de software), se pueden flexibilizar los costes, que antes eran fijos y ahora se convierten en variables mensuales (KAPEX por OPEX), y poder, en función de la necesidad y de la realidad del negocio, redimensionar las capacidades de la planta (por estacionalidad, turnos, variación significativa de la demanda o cuestiones de fuerza mayor)”.
Y sucede lo mismo con el software: la ofimática y las aplicaciones de negocio como Microsoft Dynamics 365, las cuales ya no se compran, se paga por usarlas y el cliente se desentiende de cuestiones que cada vez le son más molestas, como los backups, la seguridad ante intrusiones y fraudes, las actualizaciones de versión o la disponibilidad de estas, que le distraen del negocio. Adicionalmente, se pueden abordar proyectos de AI/Machine Learning, que antes estaban reservados para grandes empresas, porque exigían desembolsos importantes. Microsoft Azure y sus servicios AI/ML, ahora, ha democratizado el uso de estas herramientas, ya que cualquier empresa, independientemente de su tamaño y del lugar del mundo donde se ubique, tiene a su disposición toda esta tecnología. Adicionalmente, y de manera mucho más reciente (hace apenas unos 20 años), aparecen los Gemelos Digitales (Digital Twins) que surgen en la NASA ante la necesidad de entender cómo se comportarían elementos de las naves espaciales o de robots de exploración en condiciones diferentes a las de nuestro planeta. Este concepto se extiende a todas las industrias, como una representación digital de un objeto, proceso o servicio físico. “Hablamos de réplicas virtuales que son utilizadas para hacer simulaciones, con el objeto de recopilar datos para predecir cómo funcionarán”, concluyen.
¿Cómo se lleva a producción un modelo analítico para que intervenga de forma automática en el sistema de control?
José María de la Fuente responde a esta tercera cuestión que se nos plantea: “Para llevar a producción un modelo analítico que intervenga de forma automática en el sistema de control se deben recopilar datos relevantes, entrenar y validar el modelo analítico, integrarlo en el sistema de control y asegurarse de que tenga acceso a los datos relevantes en tiempo real y monitorear continuamente su rendimiento en producción. Y se necesitan establecer umbrales y acciones adecuados para el modelo y monitorear continuamente su rendimiento para garantizar que se mantenga un rendimiento óptimo”.
Según sus palabras, gracias a una plataforma tecnológica robusta, soluciones preconfiguradas y una dilatada experiencia como proveedor de servicios y fabricante, Microsoft permite a las personas aprovechar las oportunidades sin precedentes de la fábrica del futuro de tres formas fundamentales. En primer lugar, permitiendo a las organizaciones conseguir niveles excepcionales de productividad con servicios cognitivos, de realidad mixta e inteligentes, que aúnan a las personas, las máquinas y la Inteligencia Artificial. En segundo lugar, creando ecosistemas más amplios a través de alianzas con partners de telecomunicaciones, redes, hardware y software, entre otros. Y en tercer lugar, ofreciendo una plataforma de software robusta y sumamente flexible, que permite al mundo hiperconectado operar en modelos híbridos y posibilita la colaboración del Internet de las cosas, las personas y los servicios. Además, la próxima apertura de la Región Cloud de Centros de Datos de Microsoft en España va a suponer un catalizador de la innovación y una enorme oportunidad: ayudará a superar algunas de las barreras existentes en la adopción de la nube en España, en especial en lo que respecta a las pymes y el sector público, y también impulsará el crecimiento de la industria española de tecnología. Brindará la posibilidad de desarrollar servicios que requieran baja latencia, seguridad y un ancho de banda garantizado. “De esta manera, potenciaremos la apertura de la economía española a nuevos escenarios en torno a tecnologías 5G, Edge Computing e Industria 4.0. También somos la primera compañía de servicios cloud que ofrece a sus clientes de la UE la posibilidad de tratar y almacenar todos sus datos dentro del territorio de la Unión”.
“Tendríamos que pasar por varias fases: La primera sería el modelado, donde se entrenaría el modelo de Machine Learning. Luego iríamos a una etapa de validación del modelo. Normalmente estas dos etapas siempre van de la mano, pero de cara a una intervención automática del sistema de control, la fase de validación del modelo cobra mayor entidad, asegurando que lo que hemos modelado se corresponde con la realidad del funcionamiento del equipo. Una vez hecho esto, ya podríamos conectar el sistema de control con las salidas del modelo, para una actuación automática. Esto no es muy común a día de hoy. Todavía no hay suficiente confianza en este tipo de modelos, y normalmente siempre se pide una intervención del operador”, apunta Absel Hernández.
“Un escenario súper interesante es el uso Machine Learning en los sistemas de control, apoyarnos en servicios de reconocimiento de objetos y aprendizaje máquina. Esto implica que la ingeniería se basa en algo vivo y adaptable, en un algoritmo que aprende en base a datos muestrales, de ejemplos que le vamos dando, como si fuera un niño que debe aprender. Al algoritmo se le enseña lo que es estándar, lo que es normal, lo que está bien, para que de esa manera identifique, excluyendo lo que no lo es o lo que está fuera de los parámetros que se definieron como aceptables. Gracias a la computación en la nube y a los servicios de Azure, hoy no necesitamos trabajar en inventar el algoritmo, ya que esto ya lo ha hecho Microsoft, sino aplicarlo”, añade Alberto Minaya.
Finalmente, Salomé Valero indica que, una vez desarrollado el modelo analítico, su despliegue adecuado es clave para transformarlo en un beneficio real. Es una tarea compleja para la que las organizaciones necesitan el apoyo de herramientas específicas. Por ello, “desde Kyndryl acabamos de lanzar la Consola de Datos e IA, que integra las operaciones de datos y proporciona a las compañías de fabricación unos flujos de datos sin fisuras y una entrega de datos fiable”.
¿Cómo se garantiza la correcta implantación de modelos de analítica avanzada en procesos industriales?
Respecto a esta última interrogante, desde Microsoft aseguran que han definido una hoja de ruta con cinco pasos clave para ayudar a compañías de todos los sectores industriales a acelerar el despliegue de la Inteligencia Artificial en sus procesos. Su objetivo con esta guía es incrementar el interés y acercar esta tecnología a las empresas para incrementar el volumen de implementación de soluciones:
- Realizar una aproximación consistente a la IA, priorizando el ámbito de aplicación de estas soluciones, definiendo su alcance y las necesidades de negocio específicas en cada una de las cuatro áreas clave para las organizaciones: experiencia de cliente, optimización de operaciones, gestión del talento y transformación de productos y servicios.
- Garantizar el liderazgo al máximo nivel, comunicando de forma clara a la organización los objetivos con relación a la IA y apostando por la adopción de las soluciones de Inteligencia Artificial en todos los niveles, desde el comité de dirección hasta los empleados.
- Contar con las capacidades necesarias, enfocándose en la construcción de las habilidades y los conocimientos requeridos para progresar a lo largo de la curva de aprendizaje de la IA, contando también con las aportaciones de partners estratégicos tecnológicos en la construcción de soluciones de Inteligencia Artificial.
- Definir una estrategia de datos que permita contar con datos válidos para ‘alimentar’ las aplicaciones de IA, así como establecer una estrategia tecnológica que soporte los desarrollos de Inteligencia Artificial.
- Generar confianza en la IA. Es imprescindible optar por una aproximación de ‘primero las personas, luego la tecnología’, contemplando el desarrollo de la IA desde un diseño ético que garantice la privacidad y la seguridad, adaptando las experiencias a la manera en que se utiliza la tecnología, respetando la diversidad y promoviendo la confianza en las soluciones de Inteligencia Artificial.
“La experiencia de nuestros clientes nos muestra que, a medida que digitalizan sus operaciones y cumplen la promesa de Industria 4.0, demandan que la seguridad esté más integrada en cada capa para proteger los datos de diferentes procesos y operaciones industriales desde el perímetro hasta la nube. Quieren poder habilitar pruebas de concepto en menos tiempo para aumentar el ritmo de innovación y aprendizaje, y después escalar y administrar los recursos de forma rápida y efectiva. Para ello, desde Microsoft hemos añadido importantes innovaciones a nuestra plataforma de IoT para satisfacer esas necesidades: Azure Digital Twins y Azure Sphere, y la disponibilidad general de Azure IoT Central y Azure IoT Edge. Nuestro objetivo es facilitar a nuestros clientes la creación de soluciones de IoT industrial de nivel empresarial con estándares abiertos, al tiempo que garantizan la protección de la seguridad y la innovación en el Edge”, explica de la Fuente para concluir que, gracias a una plataforma tecnológica robusta, soluciones preconfiguradas y una dilatada experiencia como proveedor de servicios y fabricante, Microsoft permite a las personas aprovechar las oportunidades sin precedentes de la fábrica del futuro de tres formas fundamentales. En primer lugar, permitiendo a las organizaciones conseguir niveles excepcionales de productividad con servicios cognitivos, de realidad mixta e inteligentes, que aúnan a las personas, las máquinas y la Inteligencia Artificial. En segundo lugar, creando ecosistemas más amplios a través de alianzas con partners de telecomunicaciones, redes, hardware y software, entre otros. Y en tercer lugar, ofreciendo una plataforma de software robusta y sumamente flexible, que permite al mundo hiperconectado operar en modelos híbridos y posibilita la colaboración del Internet de las cosas, las personas y los servicios.
“Para que tenga éxito el despliegue de este tipo de modelos, es fundamental contar con un histórico adecuado de datos, con calidad, que sea lo suficientemente representativo del proceso y que incluya las señales necesarias en base al objetivo del modelo. La fase de validación es fundamental, ya que comprobamos que el modelo entrenado, realmente se corresponde con el funcionamiento de la máquina. Esta fase de validación nos permite asegurar que vamos a minimizar el número de falsos positivos (anomalías detectadas que no son reales). Por tanto, asegurar la calidad de los datos y validar el modelo es lo fundamental en mi opinión”, concluye, por su parte, Hernández, mientras que desde Arbentia aseguran que hay que ser “prudentemente ambiciosos, algo que puede sonar contradictorio, pero no lo es. La ambición de cambiar para crecer y mejorar debe guiar a las personas y a las organizaciones, pero siempre gobernados por la prudencia, ya que menos es más y éste debe ser el consenso entre clientes y partners. Debemos basarnos en enfoques dinámicos con pequeños proyectos de menor coste, poco plazo y rápido retorno”. Así, en opinión de este integrador de Microsoft, “hay que tener una visión basada en lo ágil, en trabajar por fases, con un concepto de Producto Mínimo Viable (MVP). Desplegar por proceso, áreas, departamentos… construir, entregar y recibir feedback y, con esa retroalimentación, replantearse lo que estaba previsto en el siguiente ciclo. Es la manera de hacer las cosas que nos llevará a tener éxito”.
Y finalizamos con Kyndryl: “Gracias al avance de las redes inteligentes y de los dispositivos IoT, entre otros avances, en los diversos entornos industriales hoy se recoge una ingente cantidad de datos, lo que hace muy difícil que un operario actúe y tome decisiones sobre los mismos. Esta dificultad requiere del apoyo del Big Data y de los algoritmos de Inteligencia Artificial que detectan los comportamientos anómalos y permiten que los centros de control actúen donde tengan que hacerlo. En estos entornos, la IA es ‘la guinda del pastel’ que ayuda a actuar de manera temprana o incluso proactiva para evitar problemas mayores, ayudar a la toma de mejores decisiones, al ahorro de recursos y al avance en sostenibilidad”.