Expertos analizan impacto de inteligencia artificial, aprendizaje automático y Big Data en la industria

En una mesa redonda exclusiva organizada con Automation World, los expertos en ingeniería, ciencias e investigación de Georgia Tech compartieron sus conocimientos sobre las trayectorias y los efectos de la inteligencia artificial.

Durante el debate en el Georgia Tech. Foto: River West Photography www.riverwest.co
Durante el debate en el Georgia Tech. Foto: River West Photography www.riverwest.co

Participantes de la mesa redonda coincidieron en que sistema educativo tendrá que desempeñar un papel importante en la preparación de las personas para que formen parte de fuerza laboral del futuro. Preparación basada en el análisis de datos.

Es posible que se lo haya perdido, pero en febrero de 2017 el Parlamento Europeo adoptó una resolución sobre las "Leyes de Derecho Civil de la Robótica". La resolución proponía que la Comisión Europea creara "un estatus legal específico para los robots ... de modo que al menos las autoridades autónomas más sofisticadas pudieran establecer que los robots tienen el estatus de personas electrónicas, responsables de reparar cualquier daño que pudieran causar, y posiblemente aplicar personalidad electrónica a los casos en los cuales los robots toman decisiones autónomas o interactúan con terceros de manera independiente".

Hasta la fecha, un grupo de casi 300 líderes políticos de la Unión Europea (UE), investigadores de inteligencia artificial (IA)/robótica, líderes de la industria, especialistas en salud física y mental y expertos en derecho y ética han expresado su preocupación acerca de este enfoque. Su respuesta está de acuerdo en que el impacto económico, legal, social y ético de la IA y la robótica debe considerarse "sin prisas ni sesgos", pero que la resolución, tal como se propone, tiene algunas lagunas evidentes. En particular, la respuesta señala que, desde una perspectiva técnica, la resolución sobrevalora las "capacidades reales de incluso los robots más avanzados" y muestra "una comprensión muy superficial de la capacidad de imprevisibilidad y autoaprendizaje", así como una percepción de robots "distorsionada por la ciencia ficción y por algunos recientes anuncios sensacionalistas de la prensa".

Es muy curioso este debate actual de la UE sobre el estado legal de los robots y su capacidad para defender los derechos humanos, pues está muy desconectado del trabajo diario de la industria con la robótica y de la inteligencia artificial. Pero la raíz del debate de la UE sobre cómo se gestionan los datos es verdaderamente interesante en términos de cómo la industria aborda su manejo de datos e integración de dispositivos y sistemas, como parte de una iniciativa del Internet de las cosas (IoT) o la Industria 4.0.

Para comprender más acerca de cómo la ciencia de los computadores y la investigación de datos podría impactar el futuro de la industria, fui invitado por Alain Louchez, director gerente del CDAIT (Centro para el Desarrollo y Aplicación de Tecnologías de Internet de las Cosas) de Georgia Tech, para moderar una mesa redonda, con algunos de los principales expertos de Georgia Tech. Además de Louchez, entre los participantes en la mesa estaban: Jeff Evans, ingeniero principal de investigación del Instituto de Investigación de Georgia Tech (GTRI) y director de Transformación Digital de las Cosas en el Centro de Georgia Tech para Política de Comunicaciones Avanzada; Dr. Haesun Park de la Escuela de Ciencias Computacionales e Ingeniería; Dr. Umakishore Ramachandran de la Escuela de Ciencias de la Computación; el Dr. Yan Wang de la Escuela de Ingeniería Mecánica; y la Dra. Margaret Loper, científica principal del Laboratorio de Información y Comunicaciones de GTRI; la Dra. Elizabeth Whitaker, ingeniera principal de investigación del Laboratorio de Información y Comunicaciones de GTRI; y Barry Drake, investigador científico senior del Laboratorio de Información y Comunicaciones en GTRI.

Alain Louchez, director gerente del CDAIT (izquierda), y Jeff Evans, ingeniero investigador principal en el GTRI, Georgia Tech.Alain Louchez, director gerente del CDAIT (izquierda), y Jeff Evans, ingeniero investigador principal en el GTRI, Georgia Tech.

Dr. Yan Wang de la Escuela de Ingeniería Mecánica (derecha), Dra. Haesun Park de la Escuela de Ciencias Computacionales e Ingeniería (centro), David Greenfield, director de contenido de Automation World (izquierda).Dr. Yan Wang de la Escuela de Ingeniería Mecánica (derecha), Dra. Haesun Park de la Escuela de Ciencias Computacionales e Ingeniería (centro), David Greenfield, director de contenido de Automation World (izquierda).

Dra. Haesun Park de la Escuela de Ciencias Computacionales e Ingeniería. Foto: River West Photography.Dra. Haesun Park de la Escuela de Ciencias Computacionales e Ingeniería. Foto: River West Photography.

Nadie en el medio

"Probablemente haya escuchado la frase 'los datos son el nuevo petróleo'", dijo Evans. "Y es cierto, porque el control de los datos se ha vuelto tan importante para las empresas como [cualquier otro tipo de] propiedad intelectual. El gran desafío ahora es que, como todo está integrado, usted lógicamente desea compartir los datos para sacar el máximo provecho de ellos. Pero debe comprender que, en estos entornos integrados de análisis y de compartir de datos, la gran mayoría de ellos se manejarán de forma automática, de máquina a máquina sin una persona involucrada; sólo un porcentaje muy pequeño de toda la información debe estar en un formato que sea amigable para los usuarios humanos”.

Estos comentarios subrayan la conexión entre el enfoque de desarrollo de la UE para los robots y el manejo de datos por parte de la industria. En ambos casos, las decisiones y actividades humanas serán impulsadas cada vez más por análisis conducidos primero por máquinas. Y es importante darse cuenta de que confiar en estas decisiones impulsadas por las máquinas no es una opción para el futuro de la industria. El hecho de que los dispositivos industriales, las máquinas y los sistemas generen tanta información exige nuestro uso de análisis automatizado. Después de todo, simplemente existen demasiados datos para que los humanos los procesen por sí solos, como para que tengan un gran valor para la industria.

"Los usuarios están acumulando una gran cantidad de datos sin saber qué están obteniendo y por qué los están obteniendo", dijo Ramachandran. "Es por eso que la poda o recorte de datos en la fuente es un desafío", agregó.

Dr. Umakishore Ramachandran de la Escuela de Ciencias de Computadores (izquierda) y Alain Louchez, director gerente de CDAIT de Georgia Tech (derecha).Dr. Umakishore Ramachandran de la Escuela de Ciencias de Computadores (izquierda) y Alain Louchez, director gerente de CDAIT de Georgia Tech (derecha).

"Big data no significa todos los datos relevantes", agregó Park, coincidiendo con el comentario de Ramachandran. Añadió que primero es preciso entender otros ángulos de los datos, como las cuatro V: volumen, variedad, velocidad y veracidad. Advirtió, además, que cualquier poda de datos debe hacerse con prudencia. "Debido a que los datos existen en tantos formatos diferentes, vienen de tantas fuentes diversas, y sus valores difieren según los objetivos finales, existen ventajas y desventajas de clasificarlos en una etapa temprana", concluyó.

"Por supuesto vale la pena repetir que la seguridad de los datos y la privacidad son de suma importancia, y que deben proporcionarse desde el principio, por diseño", dijo Loper. "Se han logrado grandes avances en los últimos años en la industria, el mundo académico y las organizaciones de estándares para garantizar la confidencialidad, integridad y disponibilidad de los datos, pero estas áreas siempre seguirán siendo un trabajo en progreso", puntualizó.

Para comprender cómo deben manejarse de manera óptima los datos y para tener un impacto significativo para la industria, Wang dijo que debe haber conversaciones y colaboraciones continuas en tres comunidades de conocimiento relevantes para datos industriales –científicos de computación, científicos de datos y expertos en dominios. “Si tiene una cantidad limitada de datos puede ser difícil tomar una decisión; por otro lado, con una gran cantidad de datos puede sobrecargar a las personas y a los sistemas”, dijo. Por lo tanto, debe haber una participación en el conocimiento del dominio, en una etapa temprana, para "recopilar y procesar datos a un nivel que sea significativo para quien toma las decisiones".

Y ahí es donde los profesionales de la tecnología de operaciones (OT) desempeñarán un papel importante en el desarrollo de análisis de datos automatizados.

"La Tecnología de la Informacion, IT, necesita información de la Tecnología de Operaciones, OT", subrayó Ramachandran. “Necesitan expertos en el dominio para encontrar el área de enfoque. Las empresas deben transformarse en la experiencia de dominio para resolver problemas a un nivel aplicable en todos los dominios", concluyó.

Digestión de datos

Al describir un problema de rendimiento experimentado recientemente por una empresa de fabricación de condensadores, Ramachandran dijo que la compañía estudió el análisis de sus datos de producción como una forma potencial de resolver el problema. Ramachandran notó que el fabricante había identificado conjuntos específicos de datos que se estaban produciendo en cada paso del proceso de producción, pero debido a que estos datos no se estaban utilizando de manera específica, no se pasaba información de una etapa de producción a la siguiente.

"Tener un mapa de datos común para obtenerlos en un formato donde se puedan compartir y analizar, resulta crítico", dijo. Ordenar los datos en un formato de este tipo, con la ayuda de expertos de dominio en la planta, permitió que la fabricación de condensadores resolviera su problema de rendimiento y llevó a una enorme mejoría en la producción.

"Es preciso obtener datos para que puedan ser digeridos por la siguiente fase en la producción", agregó Ramachandran. "Pero sin expertos en dominio para ayudarlo a comprender el uso final de los datos, es difícil saber cómo diseñar el sistema. Es por eso que los científicos de datos siempre deben comenzar un proyecto trabajando con los usuarios finales ", indicó.

"Es importante diseñar características [de análisis de datos] para procesar solo la información que los usuarios finales necesitan entender, y excluir así el ruido", dijo Drake. "El mayor obstáculo para esto es reconocer el valor final de los datos y cómo se utilizarán", agregó.

Para ayudar con este proceso, Evans dijo que es importante dividir los datos en elementos discretos antes de escribir un algoritmo analítico. La relevancia de los datos para el análisis cambiará de acuerdo con la aplicación, como con los problemas de latencia relacionados con los programas de control o los análisis que se realizan en el extremo y en la nube. Los algoritmos IA pueden impulsar aún más la clasificación de los datos para su uso una vez que inicialmente se desglosan con la ayuda de expertos en dominios, agregó.

Incluso con expertos en dominios involucrados en el proceso de análisis de datos, Whitaker señala que muchos usuarios aún tienen dificultades para comprender cuál será el uso final de cualquier análisis de datos. Por eso es imperativo hacer que la interacción humana con estos sistemas sea lo más fácil posible. Esta necesidad de facilidad de interacción es una razón importante por la que el uso de clipboards para la captura de datos en la fabricación sigue siendo tan generalizado. Los sistemas tienen que ser tan fáciles de interactuar como un clipboard, dijo.

Antes de que se produzca cualquiera de estos cambios, desde el uso de expertos de la planta hasta la compartimentación de datos para el desarrollo de algoritmos, hasta el traslado de trabajadores del clipboard y el uso de sistemas automatizados, se requiere la participación de los ejecutivos. El problema es que actualmente "parece haber un abismo entre la suite C y el piso de la planta", dijo Louchez. “Existen numerosos ejemplos de ingenieros que producen una gran cantidad de datos que podrían usarse para extraer valor de una forma u otra, pero no existe una visión entre los directivos en cuanto a cómo hacerlo. "Para que todo esto funcione en el largo plazo es necesario que exista un plan general a nivel de negocios", expresó.

Wang sugirió que parte de esta desconexión se debe a que muchas compañías todavía están en la etapa de "esperar y ver" cuando se trata de IoT y Big data.

Evans agregó que el entorno actual de "salvaje oeste" en las comunicaciones está contribuyendo a este problema de esperar y ver. "Sabemos que todo va a ser un sensor de algún tipo, pero cómo se manejará la comunicación de esos datos del sensor sigue siendo una gran pregunta", dijo. "¿Cómo se aprovechan las operaciones más eficientes cuando los estándares de comunicación siguen evolucionando?", se pregunta.

Avanzando

Cuando se trata de compartir datos, la confianza siempre ha sido un problema importante ya sea que se trate de máquina a máquina, de máquina a persona o incluso entre humanos, dijo Drake. Teniendo en cuenta esta realidad, dijo que tenemos que ser capaces de responder a la pregunta: ¿Por qué debemos confiar en la IA? Señaló que actualmente existe un gran impulso en el aprendizaje automático y en la inteligencia artificial para "abrir la caja negra de las conexiones de máquina a persona y de persona a máquina, para involucrar a las personas en el proceso de análisis de datos y generar esta confianza. Es importante involucrar a las personas de manera que puedan visualizarlas y entenderlas, para que no sea solo una cuestión de confiar en la caja negra".

"Un componente importante de la confiabilidad de un sistema de IoT –que el Instituto Nacional de Estándares y Tecnología (NIST) considera— es que abarca a la ciberseguridad, la privacidad, la seguridad, la confiabilidad y la resiliencia, y que permita garantizar que existan reglas algorítmicas adaptativas que las máquinas puedan usar para determinar cómo confiar en los datos que se intercambian y en las decisiones que toman otras máquinas", señaló Loper.

"La reputación y la experiencia pasadas son factores importantes para construir esa comprensión de la confianza", agregó Whitaker, y desempeñarán un papel importante en el aumento del nivel de confianza entre las personas y los sistemas. Para que haya seres humanos en el circuito necesitamos una manera fácil de interactuar con estos sistemas y tener un enfoque basado en el conocimiento que funcione para que puedan trabajar --de forma híbrida— con análisis de datos. Hasta la fecha aún no se ha realizado mucho trabajo con un enfoque de arriba hacia abajo, y centrado en el ser humano para esto ", agregó.

Los participantes en la mesa redonda coincidieron en que el sistema educativo tendrá que desempeñar un papel importante en la preparación de las personas para que formen parte de la fuerza laboral del futuro, basada en el análisis de datos, que nos está llegando rápidamente.

El problema es que "el sistema educativo que tenemos hoy está medio roto, estamos demasiado aislados", dijo Ramachandran. "Para probar a los recursos humanos en el futuro no debemos producir silos de conocimiento, sino capacitar a las personas para que puedan comprender las disciplinas", añadió.

Evans agregó que forma parte de un grupo en Georgia Tech "que integra los conceptos de desarrollo de la fuerza laboral como parte de un programa que optimiza las operaciones básicas para un cliente del Departamento de Defensa de Estados Unidos, y el análisis de datos es una parte clave de lo que estamos haciendo. Lo que aprendimos al principio es que, para que los análisis de datos sean exitosos, las personas necesitan entender los protocolos de comunicación para poder evaluar los sistemas con los que están interactuando y crear paneles de control para un uso más amplio". Esto es una necesidad crítica –sin una solución clara en el horizonte a corto plazo (como todos en la industria conocen bien a través de la interacción con los distintos protocolos de la industria)—, Evans afirma que la capacitación específica para el desarrollo de la fuerza laboral debe centrarse aquí en programas educativos de dos años.

Al ver estas desconexiones desde un nivel superior, Louchez dijo que cuando observa algunas iniciativas fallidas de IoT, ve que "se llevan como actividades aisladas y no se integran perfectamente en toda la empresa. IoT, por su naturaleza, es una integración interna y externa. Entonces, si no es parte de un panorama más amplio dentro de la empresa, está destinado a fallar ".

Añadió que otro problema común de falla de IoT ocurre cuando las compañías intentan morder más de lo que pueden masticar. "Se embarcan en cambios masivos y esperan resultados rápidos, pero deben darse cuenta de que una transformación centrada en el IoT es una tarea a largo plazo e intrínsecamente compleja que probablemente llevará mucho más tiempo del que inicialmente se asumió".

Foto del Grupo (De izquierda a derecha): Ramachandran, Drake, Whitaker, Evans, Greenfield, Louchez, Park y Wang (no está en la foto Loper). Foto: River West Photography www.riverwest.coFoto del Grupo (De izquierda a derecha): Ramachandran, Drake, Whitaker, Evans, Greenfield, Louchez, Park y Wang (no está en la foto Loper). Foto: River West Photography www.riverwest.co