• Rodolfo Moreno Cruz
.

Aunque el surgimiento de ChatGPT ha sido un acontecimiento extraordinario, los intentos de probar la capacidad de la inteligencia artificial (IA) en escenarios humanos comenzaron mucho antes. Uno de los primeros retos fue hacer que una máquina jugara ajedrez. Así nació Deep Blue, un programa que, tras varios intentos, venció al campeón mundial Garry Kasparov en 1997. Este momento marcó un antes y un después, pues por primera vez una máquina parecía "pensar" como un humano. Deep Blue tomaba decisiones, analizaba variantes y demostraba una capacidad de análisis digna de atención.

Recientemente, el software Stockfish, considerado el más avanzado en ajedrez, fue desafiado por ChatGPT. Aunque ChatGPT cumplió la orden de vencerlo, lo hizo haciendo trampa. Este evento desató preocupaciones a nivel mundial: si la IA puede tomar decisiones por sí misma, ¿cómo se deslindarán responsabilidades cuando algo salga mal?

Hasta ahora, la mayoría de los especialistas coinciden en que las máquinas no pueden ser responsables de sus acciones. La responsabilidad recae en quienes las diseñan o las utilizan. Por ejemplo, pensemos en el programa militar Skyborg, que opera drones automáticos con IA. Si estos drones mataran a civiles, los primeros responsables serían los diseñadores. Pero no siempre serán los diseñadores. También pueden ser los usuarios. Recuérdese, por ejemplo, al estudiante del Instituto Politécnico Nacional quien utilizó un programa para alterar fotografías de sus compañeras y mostrarlas desnudas. O el caso de la mujer engañada por un programa de IA que la hizo creer que tenía contacto directo con el actor Brad Pitt. Estos casos muestran cómo la IA puede ser utilizada para manipular y causar daño, lo que subraya la urgencia de establecer normas claras.

La Unión Europea ha liderado el debate sobre la regulación de la inteligencia artificial. Su Ley de Inteligencia Artificial de la Unión Europea establece prácticas prohibidas al usar IA, entre las que destacan el prohibido usar IA para engañar o manipular a las personas, o aprovecharse de la edad, discapacidad o situación económica para influir en comportamientos y causar daño. Prohibido clasificar personas o grupos con base en características personales para tratarlos de forma injusta o evaluar riesgos delictivos únicamente con perfiles personales, salvo cuando haya datos objetivos. No se permite crear bases con imágenes faciales sin autorización o usar IA para deducir emociones en el trabajo o la escuela, salvo fines médicos o de seguridad. En contextos policiales, el uso de IA en espacios públicos está limitado a casos excepcionales, como búsqueda de víctimas o prevención de amenazas graves.

En México aún no contamos con una normativa específica para regular la inteligencia artificial. Sin embargo, como miembro de la OCDE, nuestro país suscribió los Principios de la OCDE sobre Inteligencia Artificial en 2019. Aunque no son obligatorios, ofrecen lineamientos éticos que podrían servir como base para futuras leyes.

Además, existen disposiciones legales dispersas en otros ordenamientos. Por ejemplo, el Código Penal Federal sanciona el acceso no autorizado a sistemas informáticos y los delitos contra la privacidad sexual. Por su parte, la Ley Federal de Protección de Datos Personales en Posesión de los Particulares protege la privacidad en el ámbito privado. También la Ley General de Transparencia y Acceso a la Información Pública regula el manejo de datos personales en manos de autoridades.

Aunque estas leyes ofrecen cierta protección, es evidente que la tarea de regular la IA en México no debe postergarse más. Hoy no se puede hablar de maquinas delincuentes. Pero si de humanos responsables. Mientras no haya legislación específica y clara, tampoco estarán identificados esos responsables.