«La ética de los sistemas inteligentes aplicada a la Seguridad y a la Defensa tiene que ser una ética de la responsabilidad»
La catedrática de Ética Adela Cortina ha pronunciado la conferencia de clausura del XXXI Curso de Defensa que ha presidido el teniente general José Manuel de la Esperanza, Jefe del MADOC
El teniente general jefe del Mando de Adiestramiento y Doctrina (MADOC) del Ejército de Tierra, José Manuel de la Esperanza, ha clausurado este viernes el XXXI Curso Internacional de Defensa que se ha celebrado en Jaca durante toda la semana. En el acto de clausura también han participado el General Director de la AGM, Prudencio Horche; la concejala de Cultura del Ayuntamiento de Jaca, Andrea Vargas, y el coronel director del Curso de Defensa, Carlos Domínguez.
En esta jornada se han analizado aspectos relacionados con los desafíos de la Inteligencia Artificial. En ello ha incidido especialmente la catedrática emérita de Ética y Filosofía Política de la Universidad de Valencia, Adela Cortina, que ha centrado su ponencia en los desafíos éticos.
Desafíos
«La ética de los sistemas inteligentes aplicada a la Defensa y la Seguridad tiene que ser una ética de la responsabilidad», ha señalado la ponente. Efectivamente, ha proseguido, «la IA ofrece unos medios extraordinarios para que se gane en precisión, agilidad y para que se potencien las capacidades militares, pero eso debe tener unos límites, y lo primero que hay que saber es hacia dónde se dirige el uso de esos medios».
A juicio de Adela Cortina, «esa dirección tiene que ir hacia la construcción de una paz justa. La Humanidad está soñando con la paz desde siempre y es cierto que a veces es difícil encontrar los caminos para llegar a ella, pero esa es la meta hacia la que tenemos que avanzar desde todos los ámbitos de la sociedad».
Además, ha ido un poco más allá al asegurar que en ese camino hacia la construcción de una paz justa, «hay que poner el foco y la responsabilidad en las personas, que son seres que tienen dignidad y no un simple precio. Todo tiene que estar al servicio de las personas; ese es el gran objetivo».
En su intervención, la catedrática emérita de Ética y Filosofía Política de la Universidad de Valencia también ha puesto de relieve “el carácter interdisciplinar del Curso de Defensa, que viene siendo así desde hace muchos años; que personas que provienen de ámbitos muy diferentes trabajen de forma conjunta en temas de Seguridad y Defensa es fundamental”.
Justicia
Por otra parte, el profesor de Derecho Civil de la Universidad de Zaragoza, Miguel Lacruz, ha centrado su ponencia en ‘La justicia humana y la justicia artificial’. En su intervención, ha asegurado que «en España ya tenemos leyes que permiten actuaciones automatizadas en la Justicia, y la ley de Inteligencia Artificial europea es la más importante».
Sobre la incidencia de la IA en el Derecho y en la Justicia, el ponente ha destacado que «de momento es bastante tímida y se circunscribe a temas como la trascripción oral a texto o la búsqueda de archivos».
Durante la conferencia se ha hecho la pregunta: «¿Cabe la posibilidad de llegar a la figura del juez robot?». En este sentido, ha asegurado que «todos los autores dicen que la utilización de la IA en la Justicia sólo puede ser instrumental; tiene que ayudar a mejorarla, pero no dictarla».
En esa misma línea argumental, el reglamento europeo de IA «califica de alto riesgo los sistemas de Inteligencia Artificial destinados a la administración de Justicia». Y lo deja claro: «La toma de decisiones finales debe seguir siendo una actividad humana». Además, el profesor Miguel Lacruz ha concluido que «hay una cosa que la IA no puede imitar, que es la conciencia humana».
Protección de datos
Finalmente, el profesor y doctor en Derecho del Centro Universitario de la Defensa, Andrés Cosialls, ha hablado de Inteligencia Artificial y protección de datos. En su intervención ha analizado diferentes sectores productivos y cómo les afecta la IA y el tratamiento de los datos.
El ponente ha puesto varios ejemplos. Entre ellos, el de una empresa que se encarga de análisis de datos genéticos y que recientemente ha llegado a un acuerdo con los usuarios porque vulneró sus bases. «La empresa ha tenido que resarcir a los perjudicados con 30 millones de dólares», ha asegurado.
En el ámbito de la salud, Andrés Cosialls considera que «hay aplicaciones que te hacen recomendaciones sobre salud y cuando das los datos, la aplicación ya los tiene. Te ofrece algunos consejos, pero esos datos ya los controla un tercero y no puedes saber si están en bases suficientemente seguras, ni tampoco si una cuarta persona o empresa puede conseguir esa información».
En este sentido, el ponente ha asegurado que «la inteligencia de datos es una herramienta muy potente que se nutre de la información personal de la gente, por lo que tenemos que ser muy cuidadosos con los que cedemos y huir de las aplicaciones sospechosas«.
Finalmente, Andrés Cosialls ha concluido que «vivimos en un mundo tan apresurado que la regulación legal va un paso por detrás de las implicaciones que supone la utilización de la IA, pero también debemos pensar que es algo que ha venido para quedarse y que hay que emplear de forma segura poniendo todas las barreras posibles a quienes la quieran usar con fines delictivos».