Rodrigo Pacheco

Suma de Negocios

Rodrigo Pacheco

16 Mar, 2024

Unión Europea regula el libre albedrío

Desde hace milenios, filósofos y líderes religiosos han intentado definir qué es el libre albedrío. Intentar regular un concepto tan nebuloso y esquivo parece más un esfuerzo por abordar un problema de manera superficial que por resolverlo a profundidad, lo que me lleva a evaluar con escepticismo la Ley de Inteligencia Artificial: acuerdo sobre reglas integrales para una IA confiable, aprobada por el Parlamento Europeo el 13 de marzo. Según la comunicación de la Unión Europea, se busca prohibir los sistemas de inteligencia artificial que manipulen el comportamiento humano para eludir el libre albedrío. ¿Cómo pretender codificar legalmente el libre albedrío? Siguiendo esta lógica, ¿no debería también prohibirse la publicidad que influye o elude nuestro libre albedrío, induciéndonos a comprar algo innecesario, o la propaganda política que manipula nuestros miedos y deseos para inclinarnos hacia un candidato?

  •  

LAGUNAS REGULATORIAS

Existen otros aspectos de la regulación que parecen más concretos, como la prohibición de recolectar fotografías de manera indiscriminada de internet y cámaras de vigilancia para el reconocimiento facial y la creación de bases de datos, o incluso impedir que los sistemas de inteligencia artificial analicen emociones en el lugar de trabajo o las escuelas. Sin embargo, se introduce una ambigüedad significativa al permitir excepciones para la policía e instituciones de seguridad pública con autorización judicial previa. Esta ambigüedad es aprovechada por diversas compañías tecnológicas para justificar operaciones basadas en la hipervigilancia estatal, amparándose en la ley, como ilustra el caso de Apple en China.

  •  

LAS AUSENCIAS

Más allá de una regulación específica, como la propuesta por la Unión Europea, un marco de referencia general podría ser más efectivo para mitigar los efectos negativos de la inteligencia artificial. Este marco debería incluir instituciones encargadas de utilizar sistemas de inteligencia artificial para identificar y atenuar dichos efectos adversos. Un claro ejemplo de la complejidad requerida para evaluar modelos fundacionales de inteligencia artificial generativa es lo que sucedió con el modelo de lenguaje natural de Google, Gemini, cuya generación de imágenes reveló errores que se podrían interpretar como excesiva corrección política. Esto plantea la pregunta: si las fallas no hubieran sido tan evidentes, ¿habrían podido ser detectadas?

  •  

PREGUNTAS SIN RESPUESTA

La Comisión Europea tendría que, al menos, esbozar concepto y pregunta: ¿cómo pretende evaluar no sólo el algoritmo, sino también las bases de datos y los núcleos neuronales? ¿Cuál es el marco de referencia para analizar sistemas de inteligencia artificial que operan con datos continuos, en contraposición a datos discretos? ¿Cuáles son los pasos para identificar y secuenciar estos elementos? La respuesta de la Comisión parece inclinarse hacia la adopción de principios generales, bien intencionados pero rígidos. Es equivalente a legislar una reducción en la ley de gravedad para aliviar a las personas con problemas de espalda. En lugar de confiar únicamente en la regulación para limitar los efectos adversos de la inteligencia artificial, se necesita un marco de referencia que incorpore diferentes mecanismos de inteligencia artificial con estructuras flexibles para manejar las potenciales áreas problemáticas que puedan surgir. Nos encontramos ante un desafío tecnológico de gran envergadura que demandará creatividad y adaptabilidad para ser plenamente aprovechado y no las viejas fórmulas políticas que están destinadas a la obsolescencia el mismo día en que ven la luz como ocurre con la regulación de inteligencia artificial de la Unión Europea.

 

Síguenos en Twitter @DineroEnImagen y Facebook, o visita nuestro canal de YouTube