Varios gobiernos han estado de acuerdo en una cosa el año pasado: hay que regular la Inteligencia Artificial (IA). De lo contrario, existe el riesgo de que los humanos no puedan hacer frente a estos modelos informáticos, advirtieron los expertos. Por esta razón, varios gobiernos están elaborando normas adecuadas. La UE llegó a un acuerdo el viernes.
La Unión Europea pone freno a la IA
En un comunicado de prensa, el Parlamento Europeo señala que sabe lo que hará para proteger a la Unión Europea de los peligros de la IA. En concreto, quiere proteger los derechos fundamentales europeos, el cumplimiento de la ley, los intereses ecológicos y también la democracia, pero también quiere fomentar la innovación y garantizar que Europa se convierta en líder en este campo.
El Parlamento ha redactado varios usos prohibidos de la IA. Por ejemplo, no está permitido crear sistemas que utilicen datos biométricos y clasifiquen a las personas en función de ellos, por ejemplo, en función de su afiliación política, religión, raza, sexo e incluso opiniones filosóficas.
Tampoco está permitido utilizar imágenes de rostros publicadas en Internet para bases de datos de reconocimiento facial. Los empleadores y las instituciones educativas no pueden utilizar el reconocimiento de emociones.
A continuación se prohíben los sistemas de crédito social, que China utiliza, por ejemplo, para recompensar a los ciudadanos obedientes y castigar a los desobedientes. También están prohibidas las IA que manipulan a las personas y coartan su libre albedrío, así como los sistemas que explotan las debilidades de las personas.
Sin embargo, los propios gobiernos europeos tienen potestad para sobrepasar estos límites en materia policial en algunos casos. Pensemos en la búsqueda de víctimas, en la prevención de atentados o en la localización de sospechosos.
Los gobiernos son duros con la IA
El Gobierno de Estados Unidos fue el primero en mostrar su preocupación por la IA y su desarrollo. De hecho, el modelo de IA ChatGPT de la empresa estadounidense OpenAI ya fue un gran éxito poco después de su lanzamiento a finales de 2022. Incluso numerosos altos ejecutivos de empresas del sector estadounidense de la IA han advertido en voz alta de los riesgos que plantea esta joven tecnología. Un desarrollador de IA de renombre mundial incluso dejó su trabajo en Google porque considera que el riesgo de los modelos informáticos inteligentes es muy alto.