La IA está reescribiendo el límite entre libertad y vigilancia



20 de noviembre de 2025

En Estados Unidos se está escribiendo, literalmente, un nuevo capítulo del derecho constitucional. La expansión de la inteligencia artificial (IA) en tareas policiales, administrativas y judiciales ha puesto a prueba a la Cuarta Enmienda —ese viejo escudo contra registros y detenciones irrazonables— en un escenario para el que nunca fue diseñada. El constitucionalismo norteamericano enfrenta así una paradoja histórica: ¿cómo proteger la privacidad individual cuando el Estado y las corporaciones cuentan con tecnologías capaces de rastrear rostros, predecir comportamientos o reconstruir la vida de una persona mediante algoritmos alimentados por millones de datos?

El profesor Orin Kerr, uno de los mayores especialistas actuales en derecho digital y Cuarta Enmienda, advierte que la jurisprudencia existente es insuficiente. “La doctrina fue construida para un mundo analógico: policías registrando casas, no algoritmos rastreando patrones invisibles”, afirma. Esa brecha conceptual ha producido una zona gris donde operan tecnologías que superan con creces la imaginación de los jueces que redactaron los precedentes clásicos.

El primer campo de batalla es el uso policial de reconocimiento facial. Ciudades como Detroit, Nueva York y Miami han incorporado sistemas capaces de identificar rostros en tiempo real mediante cámaras ubicuas. Sin embargo, la tecnología ha generado detenciones incorrectas, errores raciales y falsos positivos que han terminado en litigios federales. Para Andrew Ferguson, autor de The Rise of Big Data Policing, el reconocimiento facial convierte a la ciudad entera en una “escena del crimen perpetua”, donde la policía puede reconstruir los movimientos de cualquier persona sin supervisión judicial. En su visión, la tecnología amenaza con diluir el estándar de sospecha razonable que ha guiado por décadas el derecho penal estadounidense.

La Corte Suprema insinuó una posible ruta en Carpenter v. United States (2018), donde estableció que los datos de geolocalización celular requieren orden judicial. Pero Carpenter, pese a ser celebrado como una conquista en privacidad digital, no resolvió el dilema central: ¿qué ocurre cuando la información no proviene del Estado, sino de cámaras privadas, sistemas de videovigilancia comerciales o bases de datos de gigantes tecnológicos? La mayoría de los jueces adoptó una lógica basada en la expectativa razonable de privacidad, pero dejó intacta la pregunta más urgente del presente: ¿qué pasa cuando terceros privados —empresas tecnológicas, aseguradoras, plataformas— poseen mayor información que el propio gobierno?

Ese es precisamente el segundo frente: los datos biométricos almacenados por empresas privadas. Huellas digitales, reconocimiento de voz, iris, ritmo cardiaco, seguimiento ocular, hábitos de compra, patrones de navegación… Todo ello es capturado por corporaciones que no están sujetas a la Cuarta Enmienda. El constitucionalista Paul Ohm, profesor en Georgetown, sostiene que el derecho norteamericano está entrando en la era del “panóptico privado”, donde la vigilancia más invasiva no viene del gobierno, sino del sector privado. Y, sin embargo, cuando el Estado acude a estas bases de datos adquiridas legalmente, el control judicial se vuelve casi inexistente. “El gobierno puede comprar lo que constitucionalmente no podría obtener por orden judicial”, advierte Ohm.

A esta problemática se suma un fenómeno más disruptivo: la vigilancia digital sin orden judicial, facilitada por herramientas de IA capaces de analizar grandes volúmenes de información pública y semipública. Agencias federales han utilizado software predictivo para identificar amenazas potenciales, personas “de interés” o perfiles considerados riesgosos. El problema es que estas categorías son confeccionadas por algoritmos opacos, alimentados por datos que no siempre pasan por el tamiz del debido proceso. Para Danielle Citron, teórica del derecho tecnológico, esto representa una amenaza sistémica: “Cuando una decisión que afecta la libertad depende de un sistema que nadie puede auditar, estamos frente a un Estado que opera en la penumbra”.

El uso de algoritmos también ha alcanzado el proceso penal. Fiscales federales y estatales han intentado introducir como prueba los resultados de herramientas de IA: sistemas de identificación facial, programas de predicción de reincidencia como COMPAS, y análisis forense digital generados por algoritmos propietarios. Pero aquí surge un dilema constitucional: si el acusado no puede acceder al código, ¿cómo ejercer su derecho a confrontar la evidencia en su contra? En palabras del profesor Brandon Garrett, experto en evidencia criminal, “una condena basada en un algoritmo secreto es incompatible con la Sexta Enmienda”, que garantiza la confrontación y el escrutinio probatorio.

No menos compleja es la utilización de inteligencia artificial para tomar decisiones gubernamentales: desde asignación de beneficios sociales hasta perfiles de riesgo migratorio, decisiones administrativas automáticas y sistemas de selección de auditorías fiscales. ¿Puede el gobierno delegar su criterio en un algoritmo sin violar el debido proceso? La doctrina clásica del debido proceso —construida en Goldberg v. Kelly y Mathews v. Eldridge— exige oportunidad de audiencia y revisión. Pero, como señala Jerry Mashaw, pionero del derecho administrativo, los algoritmos plantean un nuevo desafío: “El debido proceso no solo requiere audiencia, sino comprensibilidad; un sistema que no puede ser explicado no satisface los estándares constitucionales”.

La realidad es contundente: no existe una doctrina consolidada. Los tribunales federales han intentado aplicar precedentes como Katz (expectativa de privacidad), Jones (rastreo GPS) o Riley (registros de dispositivos móviles), pero estos casos, aunque innovadores en su momento, no alcanzan para abarcar tecnologías que funcionan con lógica autónoma, procesan millones de datos por segundo y producen conclusiones probabilísticas invisibles al ojo humano.

El constitucionalismo norteamericano se encuentra ante una encrucijada que recuerda a la advertencia clásica de Justice Brandeis: “La mayor de todas las libertades es el derecho a ser dejado en paz”. Pero en la era de la inteligencia artificial, ese ideal se vuelve casi utópico. Si el Estado puede rastrear, predecir o analizar sin orden judicial; si las corporaciones almacenan información más íntima que la que cualquier policía podría reunir; y si los algoritmos opacos toman decisiones que afectan la libertad o los derechos civiles, entonces la Cuarta Enmienda corre el riesgo de convertirse en una reliquia de tiempos más simples.

La tarea de los jueces ahora es monumental. Reconstruir la protección constitucional de la privacidad no solo requiere reinterpretar la Cuarta Enmienda, sino rediseñar las bases mismas del derecho público frente a tecnologías que pueden saberlo todo. En este nuevo laboratorio constitucional, el desafío no es solo limitar al Estado, sino también evitar que el futuro de la libertad quede en manos de algoritmos que nadie supervisa.

Lo que decida la Corte Suprema en los próximos años definirá, quizá por generaciones, si la Cuarta Enmienda sigue siendo el guardián de la intimidad estadounidense o si la revolución tecnológica terminará desbordando los diques del constitucionalismo tradicional. En un mundo de reconocimiento facial, vigilancia masiva y decisiones automatizadas, la pregunta ya no es si el derecho está preparado, sino si llegará a tiempo.