Europa quiere controlar la innovación de la Inteligencia Artificial ante las advertencias del propio fundador de Chat GPT

Para la Unión Europea, hay riesgos que son «inaceptables»: como por ejemplo, que la inteligencia artificial utilice técnicas para manipularnos, que use el reconocimiento facial en tiempo real para beneficio privado o que se aproveche de las vulnerabilidades de los individuos: «El aspecto, la raza, etnias, religión… opiniones políticas etc», explica Óscar Corcho, catedrático en Inteligencia Artificial de la Universidad Politécnica de Madrid.

Tampoco podría decidir quién tiene o no acceso a servicios públicos… «a que colegio pueden ir tus hijos, o a que instituto o universidad pueden ir, más allá de lo que ahora mismo estamos utilizando que es suficientemente objetivo en general», añade Óscar.

Por eso, desde la Unión Europea, quieren que sean los seres humanos, y solo los seres humanos, los que supervisen las decisiones tomadas por la inteligencia artificial: «Lo importante es saberlas gestionar bien, saber hasta que punto podemos utilizarlas, cuando se deberían utilizar y en que modo.»

Las decisiones que tome una IA estarán divididas en tres niveles: riesgo alto, medio o bajo en función de cómo afecta al día a día de la población. Óscar, especifica: «No cambiará excesivas cosas pero si pondrá más orden en aspectos relacionados con la apropiación y privacidad de datos.»

Todas estas directrices tienen que aprobarse en junio en el Parlamento Europeo. Aunque admiten que están teniendo mucha dificultad para ponerse de acuerdo, porque incluso quienes la estudian y entrenan desconocen cómo toman alguna de las decisiones, por qué contestan a algunas cosas. «Por tanto, de cara a lo que aplicación que esta nueva regulación está proponiendo, van a ser muy difíciles de denominar», aclara el experto.

Fuente: La Sexta

Autor