Compartir

JenTelMx

La Comisión Europea (CE) ha presentado los próximos pasos para generar confianza en la inteligencia artificial continuando el trabajo del grupo de expertos de alto nivel, nombrados en junio de 2018, con el fin de garantizar que las directrices éticas para el desarrollo y el uso de la inteligencia artificial puedan aplicarse en la práctica. Es por ello que la CE invita a la industria, institutos de investigación y autoridades públicas a probar la lista detallada de evaluación elaborada por el grupo de expertos, que complementa las directrices.

Los planes presentados son un resultado esperado en el marco de la estrategia para la inteligencia artificial de abril de 2018, cuyo objetivo es aumentar las inversiones públicas y privadas hasta un mínimo de 20 000 millones de euros anuales en los próximos diez años, facilitar el acceso a una mayor cantidad de datos, fomentar el talento y garantizar la confianza.

El vicepresidente responsable del Mercado Único Digital, Andrus Ansip, ha afirmado lo siguiente: “Acojo con satisfacción el trabajo realizado por nuestros expertos independientes. La dimensión ética de la inteligencia artificial no es un lujo ni un añadido. Nuestra sociedad solo puede beneficiarse plenamente de las tecnologías si existe confianza. La inteligencia artificial ética es una propuesta beneficiosa para todos, que puede convertirse en una ventaja competitiva para Europa: liderar una inteligencia artificial centrada en el ser humano en la que la gente pueda confiar”.

La comisaria responsable de la Economía y Sociedad Digitales, Mariya Gabriel, ha añadido: “Hoy damos un paso importante hacia la inteligencia artificial ética y segura en la UE. Tras un amplio y constructivo compromiso alcanzado por muchas partes interesadas, incluidas las empresas, el mundo académico y la sociedad civil, ahora contamos con unos fundamentos sólidos basados en los valores de la UE. Vamos a poner estos requisitos en práctica y, al mismo tiempo, fomentaremos un debate internacional sobre la inteligencia artificial centrada en el ser humano.”

La inteligencia artificial puede aportar beneficios a una amplia gama de sectores, como la asistencia sanitaria, el consumo de energía, la seguridad de los automóviles, la agricultura, el cambio climático y la gestión del riesgo financiero. La inteligencia artificial también puede ayudar a detectar el fraude y las amenazas de ciberseguridad y permite a las fuerzas y cuerpos de seguridad luchar contra la delincuencia con más eficacia. Sin embargo, también conlleva nuevos retos para el futuro del trabajo y plantea cuestiones jurídicas y éticas.

La Comisión Europea propugna un enfoque en tres etapas: establecimiento de los requisitos esenciales para una inteligencia artificial fiable, lanzamiento de una fase piloto a gran escala para recabar los comentarios de las partes interesadas y búsqueda de un consenso internacional para la inteligencia artificial centrada en el ser humano.

1. Siete requisitos esenciales para lograr una inteligencia artificial fiable

La inteligencia artificial fiable debe respetar todas las leyes y reglamentos aplicables, así como una serie de requisitos: las listas de evaluación específicas tienen por objeto facilitar la verificación del cumplimiento de cada uno de esos requisitos fundamentales:

Intervención y supervisión humanas: Los sistemas de inteligencia artificial deben facilitar sociedades equitativas, apoyando la intervención humana y los derechos fundamentales, y no disminuir, limitar o desorientar la autonomía humana.
Robustez y seguridad: La fiabilidad de la inteligencia artificial requiere que los algoritmos sean suficientemente seguros, fiables y sólidos para resolver errores o incoherencias durante todas las fases del ciclo de vida útil de los sistemas de inteligencia artificial.
Privacidad y gestión de datos: Los ciudadanos deben tener pleno control sobre sus propios datos, al tiempo que los datos que les conciernen no deben utilizarse para perjudicarles o discriminarles.
Transparencia: Debe garantizarse la trazabilidad de los sistemas de inteligencia artificial.
Diversidad, no discriminación y equidad: Los sistemas de inteligencia artificial deben tener en cuenta el conjunto de capacidades, competencias y necesidades humanas, y garantizar la accesibilidad.
Bienestar social y medioambiental: Los sistemas de inteligencia artificial deben utilizarse para mejorar el cambio social positivo y aumentar la sostenibilidad y la responsabilidad ecológicas.
Rendición de cuentas: Deben implantarse mecanismos que garanticen la responsabilidad y la rendición de cuentas de los sistemas de inteligencia artificial y de sus resultados.

2. Fase piloto a gran escala con los socios

En el verano de 2019, la Comisión pondrá en marcha una fase piloto en la que participará una amplia representación de partes interesadas. En la actualidad, las empresas, las administraciones públicas y las organizaciones ya pueden adherirse a la Alianza europea de la inteligencia artificial y recibir una notificación cuando comience el proyecto piloto. Además, los miembros del Grupo de expertos de alto nivel sobre inteligencia artificial ayudarán a presentar y explicar las directrices a los socios pertinentes en los Estados miembros.

3. Creación de consenso internacional para la inteligencia artificial centrada en el ser humano

La Comisión quiere llevar su enfoque sobre la ética de la inteligencia artificial a la escena mundial, ya que las tecnologías, los datos y los algoritmos no conocen fronteras. A tal fin, la Comisión reforzará la cooperación con socios afines, como Japón, Canadá o Singapur, y seguirá desempeñando un papel activo en las discusiones e iniciativas internacionales, incluidos el G7 y el G20. En la fase piloto también participarán empresas de otros países y organizaciones internacionales.

Con información de la Comisión Europea

Compartir