Caminas y una cámara te observa. Doblas la esquina y otra más registra tu paso. Entras a un restaurante, vuelves a salir, y siempre hay un ojo electrónico que guarda tu imagen. Esta situación —ya naturalizada en muchas ciudades de México— carece todavía de un marco legal sólido. Aquí comienza el problema: un asunto de seguridad cotidiana constituye, en realidad, una amenaza directa a derechos como la privacidad, la intimidad y a la dignidad humana.
Quizá la situación no sea catastrófica por sí sola; la verdadera dimensión del riesgo surge cuando esas imágenes se procesan con inteligencia artificial. Lo que para nosotros es una foto, para la máquina se convierte en un conjunto de números: vectores, matrices, distancias. La IA no “piensa”, traza fronteras geométricas que separan categorías: confiable o sospechoso, solvente o insolvente, riesgoso o inofensivo. Y lo hace sin reglas claras ni supervisión legislativa, dejando a los jueces frente a un vacío normativo.
Un ejemplo claro es la herramienta conocida como Máquinas de Soporte Vectorial (SVM). Estos algoritmos buscan un “hiperplano óptimo”, una frontera invisible que divide datos en clases distintas. En dos dimensiones es una línea; en tres, un plano; en muchas dimensiones, un hiperplano. Para explicarlo de manera sencilla: imagina un montón de canicas de dos colores, rojas y azules, esparcidas sobre una mesa. La tarea consiste en separarlas usando una regla o una cuerda. Lo ideal es colocarla de manera que todas las rojas queden de un lado y todas las azules del otro.
Eso hace una SVM: busca la mejor “línea invisible” o “plano” que separe distintos grupos de elementos. En una hoja (2D), la SVM dibuja una línea. En un espacio tridimensional, dibuja un plano, como una lámina invisible que divide los objetos. Con muchas características (altura, peso, edad, color de ojos, etc.), la SVM busca un hiperplano, la versión “superavanzada” de una línea o plano para múltiples datos al mismo tiempo. El objetivo principal consiste en encontrar la frontera más clara y segura para separar los grupos y predecir a qué grupo pertenece un nuevo dato.
Ese trazo abstracto puede determinar si un rostro detectado en una cámara corresponde a una persona buscada o si alguien queda marcado como “sospechoso”. Algunos estados ya utilizan reconocimiento facial en espacios públicos. Si el sistema falla, un juez debe decidir caso por caso si acepta la prueba o la desecha, sin contar con un estándar legislativo orientador.
Lo mismo ocurre en otras áreas: la banca puede usar algoritmos geométricos para diferenciar a clientes que obtienen crédito de los que no. El fisco puede clasificar contribuyentes en “buenos” o “malos riesgos” según su cercanía a ciertos patrones. En todos estos escenarios, lo que parece un cálculo técnico constituye en realidad una decisión jurídica encubierta, pues afecta libertades, patrimonio o reputación. Y, sin embargo, nadie está obligado a explicar cómo se trazaron esas fronteras matemáticas ni a permitir que la ciudadanía las cuestione.
El hilo conductor es claro: cámaras que vigilan, algoritmos que clasifican, decisiones que impactan derechos. Todo se sostiene sobre una geometría invisible que actúa sin que el derecho la haya alcanzado. El Congreso sigue sin establecer reglas básicas: cuándo captar una imagen, con qué fines, con qué controles, bajo qué estándares de precisión y, sobre todo, con qué responsabilidad en caso de error.
No se trata de frenar la tecnología, sino de regularla. México necesita legislación que garantice tres mínimos: consentimiento o control judicial para capturar imágenes, explicabilidad obligatoria de los algoritmos que procesan esos datos y derecho de toda persona a impugnar una clasificación automática.
Si no actuamos, los hiperplanos invisibles de la máquina —y no las leyes que votamos— decidirán quién es sospechoso, quién merece crédito o quién accede a la justicia. Entonces, habremos dejado que la geometría, y no el derecho, escriba el destino de nuestras libertades.

