La ética y privacidad de los datos son condiciones imprescindibles para hacer confiable el uso por parte de las organizaciones de la inteligencia artificial (IA). Para que la implantación de la IA por parte de los diferentes sectores se acelere y aproveche todo su potencial, requiere la mejora de los algoritmos de aprendizaje automático, sin comprometer la confidencialidad de los datos. Ahora bien, ¿es utópico el equilibrio entre la privacidad y la posibilidad de utilizar los datos? Como respuesta a esta pregunta la multinacional tecnológica GMV acaba de presentar uTile PET (Privacy-Enhancing Technologies): solución que nos permite realizar cálculos de forma segura y privada sobre datos distribuidos, sin exponerlos ni moverlos de las organizaciones.
uTile permite aprovechar también los datos confidenciales para mejorar los algoritmos de aprendizaje automático y modelos analíticos, cumpliendo en todo momento con los requisitos organizativos, garantizando la privacidad de los datos, así como con las normativas vigentes. José Carlos Baquero, director de Inteligencia Artificial y Big Data de Secure e-Solutions de GMV ha declarado al respecto: «Con uTile no necesitamos elegir entre privacidad de los datos y la posibilidad de utilizarlos, ya que aprovecha métodos criptográficos avanzados que mantienen los datos cifrados mientras se realizan todos los cómputos necesarios. De esta forma uTile habilita la posibilidad de que los datos sensibles de las organizaciones nunca sean ni expuestos ni transferidos a través de departamentos, organizaciones o distintos países. Es más, ni siquiera los propietarios de los datos tienen que confiar sus datos a terceros. Estos permanecen protegidos detrás de los controles internos de las organizaciones, ya sea on-premise o cloud, y la información sensible permanece privada durante el cómputo que realicemos».
Por un lado, cada vez se generan más datos que contienen información sensible y privada y, por otro, las organizaciones cada vez más utilizan analítica avanzada cuyos algoritmos utilizan datos, con buena y mala calidad, con sus restricciones de seguridad y privacidad, etc., y los científicos de datos tienen a veces problemas para acceder a esa información.
Según el World Economic Forum en su informe “Transforming Paradigms: A Global AI in Financial Services Survey”, publicado el pasado 29 de febrero de 2020, destacaba que los requerimientos para la protección de datos y su compartición parecen ser la primera y, generalmente, la mayor dificultad regulatoria para la implementación de la IA.
Dentro del programa del Ministerio de Economía y Empresa de Tecnologías Habilitadoras Digitales, GMV está desarrollando el caso de uso relacionado con la comparativa de la eficacia de los tratamientos clínicos en el cual los hospitales, centros asistenciales, centros de investigación e industrias farmacéuticas tienen la necesidad de cotejar los resultados de salud para obtener mejores conclusiones en cuanto a la eficacia de los tratamientos. Sin embargo, los datos de los pacientes están especialmente protegidos por el GDPR, complementada en España por la Ley de Autonomía del Paciente. Con uTile podemos compartir información tan útil como la supervivencia, el valor de los biomarcadores, el pronóstico, la edad media de los pacientes, etc., de los tratamientos clínicos.
En definitiva, todas las organizaciones pueden beneficiarse de uTile (que logra el equilibrio entre privacidad y uso de datos), al compartir e incluso monetizar de forma segura el conocimiento basado en sus datos, gracias a la computación cifrada, cumpliendo con la privacidad de las fuentes de datos distribuidas, y facilitando el intercambio seguro de información.