Juan Carlos, si te parece vamos a comenzar separando el grano de la paja ¿Se habla mucho de Inteligencia Artificial, Machine Learning, Deep Learning… pero ¿sabemos con certeza qué es cada cosa?
Claro. El Aprendizaje Automático, en inglés “Machine Learning”, es una disciplina enmarcada en el campo de la Inteligencia Artificial. Representa el conjunto de métodos que se denominan inductivos, por oposición a deductivos. Esto significa que la solución que implementan no está diseñada de antemano a partir de conocimiento a priori, de conocimiento adquirido o deducido previamente por las personas que desarrollan el sistema. Cuando un problema es demasiado complejo y no sabemos resolverlo, o bien cuando los seres humanos lo resolvemos de forma intuitiva gracias a capacidades derivadas de la especialización de nuestro cerebro, es muy difícil plasmar de forma explícita la solución en forma de un algoritmo y de un programa informático.
En esos casos, se utiliza un esquema genérico, un algoritmo de aprendizaje no específico para resolver ese problema, que se entrena o adapta empleando ejemplos, datos reales. Es decir, no sabemos cómo escribir una receta para cocinar el plato que buscamos, pero tenemos ejemplos de ese plato bien preparado y, si es posible, ejemplos también del plato mal cocinado. Son las muestras, u observaciones, positivas y negativas. El proceso de entrenamiento, adaptación o aprendizaje, y las técnicas que permiten hacerlo eficiente y eficazmente, constituyen lo que denominamos “Machine Learning”.
Por otro lado, el Aprendizaje de Redes Profundas o “Deep Learning” hace referencia a una de las arquitecturas y técnicas de entrenamiento de sistemas de “Machine Learning” que han demostrado en los últimos años que funcionan muy bien frente a algunos problemas. Son modelos conexionistas, es decir que se basan en conectar muchas unidades de cálculo relativamente sencillas y adaptar repetidamente los pesos que las enlazan hasta que el sistema funciona bien. Como las que mejor rendimiento dan son las que tienen muchas capas de conexiones en el camino de la entrada a la salida, se llaman redes profundas.
En la actualidad, cuando se habla de Inteligencia Artificial nos imaginamos máquinas con forma humana, que toman sus propias decisiones ¿Cuánto de ficción y cuánto de realidad hay en todo esto? ¿en qué nivel de IA nos encontramos ahora mismo?
La Inteligencia Artificial no tiene que ver con las máquinas en sí mismas, con qué forma, qué aspecto tienen o qué tecnología emplean, sino con los algoritmos que funcionan en su interior. Son algoritmos que resuelven problemas, que implementan tareas. Y las tareas más complejas que somos capaces de llevar a cabo hoy en día no tienen todavía mucho que ver con lo que entendemos como decisiones conscientes. Los sistemas más avanzados tienen unas capacidades sorprendentes, pero los problemas que resuelven están acotados. Se han definido, se han buscado ejemplos o muestras, se han entrenado e imitan, generalizando en alguna medida, las decisiones que esos ejemplos marcan.
¿Hoy en día sería posible entender el Big Data sin la Inteligencia Artificial?
Lo que se llama “Big Data” o análisis de datos a gran escala es un ámbito de trabajo que exige soluciones nuevas en varios frentes. Primero, en el de infraestructura de almacenamiento y cómputo. Y después en la algorítmica que permite aprovechar esos datos y extraer la información útil que puede haber enterrada entre tanto material menos útil. La medida de la utilidad de la información responde a las necesidades o intereses de quien puede beneficiarse de ella, por ejemplo, en la crisis sanitaria actual la información útil para un aprovechamiento, desde el punto de vista de la salud pública, no es la misma que la que podía ser hace unos meses.
Algunas cuestiones pueden resolverse, incluso cuando nos enfrentamos a grandes volúmenes de datos, mediante métodos combinatorios o estadísticos clásicos que funcionan muy bien. Pero las búsquedas más complejas, las preguntas más abstractas y los patrones de datos más intrincados requieren de procedimientos inductivos, más laboriosos y sofisticados, que corresponden ya al ámbito de la Inteligencia Artificial y el Aprendizaje Automático.
¿Cuáles son los sectores o las compañías más avanzados en este campo?
Las grandes compañías tecnológicas, como Google, Amazon, Microsoft, IBM, etc., disponen de equipos de investigación y desarrollo muy importantes y de acceso a grandes cantidades de datos y recursos de cálculo. Eso les permite estar a la vanguardia en la aplicación de estas tecnologías. No obstante, es posible competir con estos gigantes en ámbitos de estudio específicos que exigen conocimiento sobre un sector, un problema o un subconjunto particular de la realidad: de la población, de la producción, etc.
¿Cuánto tiempo lleváis investigando sobre Inteligencia Artificial un centro tecnológico como ITI?
Pues desde su creación. El primer proyecto importante que abordamos, en el año 1994, tuvo como objetivo una tarea de reconocimiento biométrico que funcionó muy bien y se implantó en numerosos países por parte de la empresa que nos la encargó. Era un problema que requería construir modelos, entrenarlos y ponerlos en producción para gestionar millones de registros. En aquel momento supuso un importante reto científico y tecnológico. Era “Big Data” antes de la era “Big Data”.
Desde entonces, hemos trabajado en ámbitos de aplicación de la Inteligencia Artificial como la clasificación de productos, el control de calidad, la medicina, el procesamiento del lenguaje natural o la genómica. En todos los casos, nuestra aproximación ha sido la de creación de conocimiento, aplicación inmediata y desarrollo de la solución hasta el final. La estructura del Instituto, con sus grupos de investigación y sus departamentos de desarrollo e implantación en el tejido productivo, ha hecho que esta posibilidad, que muchas veces se queda en la teoría, se haya hecho y se siga haciendo realidad.
Qué sectores o ámbitos de aplicación tocáis? ¿en qué proyectos estáis o habéis trabajado?
Ahora mismo tenemos activas líneas de trabajo en Factorías Inteligentes (“Smart Factories”), control de calidad industrial, modelado digital, también en la industria, para mantenimiento y optimización (“Digital Twins”), Internet de las Cosas (“IoT”), conducción autónoma de vehículos y en el ámbito de la salud. En esta última línea abordamos, colaborando con grupos de investigación de hospitales e instituciones sanitarias, problemas de medicina personalizada de precisión utilizando información genómica, transcriptómica, fenotípica, microbioma, imagen médica, etc., asistencia al diagnóstico y al pronóstico, así como a la búsqueda de marcadores de susceptibilidad, respuesta terapéutica y otras tareas relacionadas.
Es imposible no mencionar la crisis sanitaria que estamos viviendo ahora mismo provocada por el coronavirus. En este contexto podríamos decir que el “virus” ha propagado la digitalización ¿Desde ITI estáis reorientando vuestra I+D en IA frente a estas circunstancias?
Sí. Hemos reorientado y adaptado algunos grupos de trabajo para atender a cuestiones urgentes relacionadas con el Covid-19, como el análisis mediante “Machine Learning” de radiografías de tórax para descargar a los departamentos de radiología, focalizando el trabajo sobre las imágenes más sospechosas; analizando datos de los historiales clínicos y otros parámetros de la población de varios departamentos de salud, para identificar posibles marcadores de susceptibilidad al virus o al agravamiento de sus síntomas; participando en iniciativas internacionales de estudios de asociación de variantes genéticas también con la susceptibilidad y la morbilidad; optimización de rutas para la respuesta sanitaria, traslado de pacientes y abastecimiento de material y, finalmente, colaborando en el diseño de aplicaciones móviles para el control de la epidemia.
Además, estamos estudiando ya cómo van a cambiar las necesidades de digitalización de las empresas y la industria a partir de esta crisis sanitaria. Esta circunstancia puede suponer un antes y un después en la motivación y orientación de las infraestructuras, protocolos y herramientas de trabajo de compañías e instituciones.
Siguiendo en línea con la actualidad, antes de que el mundo se paralizara había un serio debate sobre la privacidad de los datos ¿Qué papel desempeña la legislación? ¿Existe un marco legal que ampare el desarrollo de esta disciplina?
El tema de la privacidad de los datos es un aspecto que complica mucho la gestión de los proyectos de IA debido, precisamente, a que se requieren muchos datos y normalmente no basta con la información agregada. La legalidad es muy estricta y el reto está en poder trabajar ágilmente respetándola a rajatabla, porque es necesaria. Se ha avanzado mucho en las técnicas de anonimización que permiten aliviar el problema, pero el diseño de un entorno seguro, en el que esté garantizada la privacidad de los datos y la seguridad de que solo podrán usarse para lo que se ha establecido y aprobado por una comisión ética y los departamentos legales, siempre acaba siendo una parte importante del trabajo de cada proyecto.
Es importante que se mantenga la confianza de la población en que los datos personales no se van a poder usar en ningún caso para perjudicar o menoscabar sus derechos y que su gestión va a ser clara y transparente. Es una preocupación que está presente a todos los niveles. Sin ir más lejos, la Comisión Europea publicó el 16 de abril una guía sobre la protección de datos de las personas usuarias en el diseño de las nuevas aplicaciones para teléfonos móviles orientadas a controlar la pandemia del Covid-19. En ella se remarca la importancia de “garantizar que los ciudadanos de la UE puedan confiar plenamente en estas soluciones digitales innovadoras y puedan adoptarlas sin temor. La mayor participación posible de los ciudadanos de la UE es necesaria para explotar todo el potencial de las aplicaciones de rastreo».