“A diferencia del sistema anglosajón, Europa se resignará a poner las normas en un campo de juego, pero sin ser jugador. Seremos los campeones de la regulación, pero no de la innovación”.
Con estas palabras explicaba Borja Adsuara, experto en Derecho, Estrategia y Comunicación Digital y director de Divulgación de OdiseIA, cómo el sistema de código cerrado europeo está generando que solo se pueda llevar a cabo lo expresamente permitido, frente al anglosajón, de código abierto.
“Creo que el reglamento europeo de Inteligencia Artificial es transversal, pero, hasta que no se aplique a cada uno de los sectores y se comprueben los usos de riesgo, es muy genérico e incluso peligroso” comentaba.
Y es que, en abril de 2021, la Comisión Europea presentó su propuesta para un marco regulatorio de la UE sobre el uso de la inteligencia artificial (AI Act). Un proyecto de ley que pretende establecer una regulación horizontal sobre la IA, y una vez aprobada, todas las empresas deberán ajustarse a ella en menos de dos años.
Adsuara analizaba los peligros, los riesgos y los límites de la Inteligencia Artificial (IA) para la privacidad en el marco del encuentro ‘Privacidad, protección de datos e inteligencia artificial. ¿Una ecuación imposible?’ celebrado en la Universidad CEU San Pablo.
Una jornada en la que el experto ha invitado a perder el miedo a las tecnologías: “No hay que tener miedo a la inteligencia artificial, sino a la maldad humana”.
La irrupción de la Inteligencia Artificial (IA) ha hecho que las empresas que quieran desarrollar herramientas se dejen asesorar, por abogados expertos en derecho, de las tecnologías que conocen bien el marco normativo, tanto a nivel de privacidad y respeto a la protección de datos como también que puedan mitigar cualquier ciberataque.
Hay que recordar que OdiseIA , el observatorio del impacto social y ético de la inteligencia artificial, presentó hace unos días, junto a PwC, Google, Microsoft, IBM y Telefónica, la primera guía de buenas prácticas para el uso de la inteligencia artificial elaborada en España.
Se ha hecho con la colaboración de la Secretaría de Estado de Digitalización e Inteligencia Artificial.
El documento, de 232 páginas, ha sido elaborado por un equipo multidisciplinar de más de 30 profesionales (integrado por tecnólogos, juristas y expertos en distintos campos de las citadas compañías) y recoge un detallado estudio y un análisis jurídico de los principios éticos que aplican a la inteligencia artificial, realizado a partir del análisis de 27 iniciativas en todo el mundo.
Además, aterriza estos conceptos en el día a día de las empresas, incluye las tecnologías, herramientas y recomendaciones de Google, Microsoft e IBM, así como la experiencia de Telefónica en este ámbito.
Por este motivo, para dar seguridad a la sociedad civil, “se debería realizar no solo un análisis jurídico y ético de los algoritmos, sino también de transparencia por parte de las Administraciones Públicas”.
Los retos de la Inteligencia Artificial
En este sentido, el director de Área de OdiseIA apuntó que “la IA debe usarse para prevenir, no solo para sancionar. Debe divulgarse cuál es el sentido de la norma y cuál el de la sanción”.
También se preguntó: “¿Qué ocurriría si la Agencia Española de Protección de Datos se dedicase a vigilar exhaustivamente con IA, no solo a las empresas privadas, sino también a la Administración Pública?.
A su juicio, “hay que obligar a las empresas y las Administraciones a ser transparentes y a usar la IA no solo para la sanción, también para evaluación de políticas públicas”.
Junto al experto en Derecho, Estrategia y Comunicación Digital participó el director de Regulación y Derechos de OdiseIA, Lorenzo Cotino, quien explicó a importancia de la responsabilidad individual, que nos obliga a cambiar de modelo:
“No todo puede pasar por nuestro consentimiento, esto ha debilitado nuestra privacidad en las últimas décadas”.
Para el catedrático de Derecho Constitucional de la Universidad de Valencia “no solo se trata de implantar estas nuevas técnicas, sino que, en el caso de que se manejen datos anonimizados inferidos con técnicas de inteligencia artificial, hay que implementar más garantías”.
¿Quién gestiona mis datos?
Por su parte, la presidenta de la Asociación de Internautas, Ofelia Tejerina, analizó la importancia de controlar y seleccionar qué datos se quieren compartir. “Tenemos que saber a quién estoy dando mis datos. Como usuario, podemos ‘jugar’ con el algoritmo para mostrar aquello que queremos y lo que no”, ha explicado.
Asimismo, en línea con los otros ponentes, Tejerina ha destacado la importancia de implementar un marco regulatorio y de garantías que otorgue seguridad a los internautas.
“Las sanciones han hecho que la sociedad civil haya abandonado la confianza en grandes tecnológicas, lo que supone una pérdida de reputación y de usuarios, así como la consecuente renovación de la imagen por parte de la compañía”.
La rectora de la Universidad CEU San Pablo, Rosa Visiedo, clausuró esta jornada señalando que la transformación digital que estamos viviendo es ya irrenunciable.
“Debemos humanizar la tecnología, acercarla a la sociedad humana, y aprovechar todos los avances para lograr nuevos descubrimientos que contribuyan al bien común”, ha apuntado.
En este sentido, Visiedo aseguró que “la tecnología debe ser una fuerza para hacer el bien; siempre imprime un sentido, puede generar avances y soluciones técnicas”.
Sin embargo, subrayó, “puede generar nuevos problemas y conflictos como la privacidad de las personas, incluso la reputación y la dignidad, por eso es imprescindible proteger a las personas del mal uso”.
Aplicación para controlar los datos
Durante este encuentro presentó ‘My Identity’, la primera aplicación que permite proteger datos, identidad y reputación digital por 1 euro al mes; una herramienta impulsada por Human Trends, en colaboración con OdiseIA.
¿Cómo funciona? Primero se verifica que el usuario es quien dice ser con un selfie, para no entregar los datos a otro usuario.
Después, se detectan todos los documentos y las páginas webs en las que se muestran los datos personales, si las contraseñas están filtradas en internet e, incluso, las fotos públicas en las que aparece el usuario.
Finalmente, el usuario puede decidir si quiere que se gestione la retirada de algún contenido no deseado de internet. Para mantener la protección, el sistema realiza una búsqueda continuada de los datos para estar alerta ante cualquier nueva aparición. «Con esta aplicación queremos que los usuarios vuelvan a retomar el control de su identidad digital a un precio accesible para cualquier persona interesada», explicó Miguel Ángel Liébana, miembro de Human Trends.
Por @LuisjaSanchez, Periodista Jurídico.