Inteligencia
digital
en procesos

Industrial Data Intelligence

Si hay algo que tienen en común las nuevas tecnologías de la era digital ( IoT, robótica, gemelo digital, fabricación aditiva, realidad aumentada, etc.) en el desarrollo de nuevos servicios dentro de una aproximáción de ecosistemas software, es el dato. Datos, datos y analítica de datos en todas ellas.

Data Intelligence es el core de la Industria 4.0, la sangre de la Industria Inteligente, donde la explotación del dato es el propulsor de los nuevos modelos de negocio.

Los aspectos clave de la arquitectura RAMI4.0 de Industry 4.0 y la arquitectura IIRA de Industrial Internet Consortium, nos hablan del ciclo del dato y su valor y su calidad. Elementos clave para que la Inteligencia Artificial sea efectiva como habilitador tecnológico fundamental.

Data Intelligence viene acompañado de tecnologías de datos como Big Data Streaming, Data Mining, Visual analytics, Data Analytics, Inteligencia Artificial y el análisis de Series Temporales.

La revolución de los datos en el contexto de la industria 4.0 ha hecho que algunas cambien: el BIG DATA ahora es mucho más BIG y es esencial en la fábrica inteligente. Cualquier fábrica emite teras (TB) de datos por día. Nos enfrentamos a unas cantidades de datos tan grandes, que difícilmente pueden ser procesadas con un fin útil. Y por otro lado tenemos la granularidad del origen de los datos: diferentes procesos industriales obedecen a diferentes ciclos temporales, incluso muchos de ellos pueden no ser deterministas, lo cual implica la redefinición de las series temporales para contextos I4.0.

En I4.0 se trabaja con datos en diferentes niveles que deben de ser analizados por separado y diseñados en conjunto:

Cloud computing donde grandes cantidades de datos se extraen de diferentes fuentes y se procesan todas ellas en un servidor dedicado. Estas operaciones generalmente se enfocan hacia el direccionamiento de la empresa y de la producción.

Fog Computing, es el procesamiento de datos a nivel de planta o al menos de línea de producción. Las diferentes fases de un proceso de fabricación de comunican unas con otras optimizando el proceso de fabricación industrial.

Edge Computing es el procesamiento de datos que se ejecuta a nivel de dispositivo, interaccionando con el proceso físico es el nivel de sensores y actuadores. Va más allá del IoT y requiere de desarrollos específicos que en algunos casos pueden requerir conexion cloud.

Inherentemente al procesamiento masivo de datos, está el PARA QUÉ. En muchos casos queremos buscar en los datos la información que nos ayude a fines muy diversos como: fabricar mejor, vender mejor, optimizar la calidad y mejorar el beneficio.En estos casos recurrimos a las ciencias de los datos, para ayudar a mejorar el proceso industrial. Aquí aplicamos técnicas de descubrimiento de conocimiento, mediante las cuales buscamos correlaciones, informaciones y características de los datos respecto a eventos del proceso industrial.

Por último, una referencia a los algoritmos basados en Deep Learning. Una de sus características, es que requieren grandes cantidades de datos para poder realizar un aprendizaje efectivo. Es por ello, que merece la pena mencionarlos en el área de Data Intelligence, donde además tienen un futuro prometedor, no solo en el procesamiento de imágenes, sino también en el aprendizaje desde datos heterogéneos.

En qué estamos trabajando actualmente

En todas ellas se emiten gran cantidad de datos por segundo. En el caso de SLM (Single Layer Melting), contamos con una máquina RenAM 500Q que trabaja con 4 lasers simultaneamente. Monitorizar los datos en tiempo real es ya un ejercicio de Big Data Streaming, Data Analytics e Inteligencia Artificial cuyos esfuerzos se dirigen hacia la fabricacion sin defectos.

Más allá de la monitorización, en Lortek desarrollamos algoritmos de descubrimiento de conocimiento, que aprenden desde cero. Estos, son capaces detectar estados de estrés en el proceso, predecir la probabilidad de cometer fallos bajo ciertas condiciones, y aconsejar cómo evitarlas. Actualmente tenemos varios proyectos europeos en los que desarrollamos estas tecnologías como son HyProCell y DIGIQUAM.

Además de las máquinas de soldadura de una u otra tecnología, en Lortek trabajamos en procesos de digitalización industrial, I4.0. Los procesos industriales monitorizan miles de variables a diferentes niveles (edge, fog o cloud).

En el proyecto HyperCog, tenemos como misión desarrollar un sistema ciberfísico industrial (ICPS) que une los niveles edge, fog y cloud en una red híper-conectada con comunicaciones en tiempo real. Este ICPS representa todo un reto para el Big Data Streaming, donde el procesamiento de los datos (predicción, monitorización, optimización, etc.) puede ser tanto local como distribuido.

Equipamiento específico

Equipamiento de vanguardia

Lortek dispone de varios servidores dedicados para procesamiento masivo de datos.

Publicaciones
y descargas

Publicaciones
2019
R. Moreno, Juan Carlos Pereira, Alex López et al.
Time Series Display for Knowledge Discovery on Selective Laser Melting Machines
20th International Conference on Intelligent Data Engineering and Automated Learning

Retos

Desafíos que hay que afrontar en los próximos años:

Redefinición de series temporales

Para contextos industriales. Actualizaciones de datos dirigidas por eventos y conexión con smartContracts.

BlockChain

Es ya una realidad en la industria 4.0. todavía queda acelerarlo y adaptarlo a las necesidades industriales.

Ciberseguridad

Manejar cantidades de datos significa moverlas, probablemente fuera de las instalaciones donde se producen. Hoy en día, todo desarrollo que implica comunicaciones en red, ha de ser analizado y mantenido frente a ciberataques.

IoT es el canal conector de datos

La redefinición de los procesos industriales en función de aproximaciones orientadas a eventos en sistemas ubicuos es hoy una necesidad para hacer frente a las cada vez más complejas necesidades de producción.

Sistemas distribuidos

La computación tiende a ejecutarse en diferentes dispositivos conectados en red. Spark y hadoop son algunos ejemplos.