IA, urbanismo y redes: cuando el algoritmo quiere pacificar la ciudad
La nota analiza cómo los modelos de lenguaje moderan la polarización pública pero importan sesgos epistémicos que pueden estandarizar soluciones urbanas inapropiadas para contextos como los barrios populares.
La discusión trata sobre el papel ambiguo de la inteligencia artificial en el debate urbano: puede moderar la indignación viral de las redes sociales, pero al hacerlo favorece un centro epistémico que no siempre es adecuado para realidades locales. Vemos esto en la convivencia entre feeds polarizantes y LLM: mientras plataformas como TikTok concentran audiencias masivas —TikTok superó 1.000 millones de usuarios activos mensuales, según TikTok (2021)—, los chatbots han alcanzado escala en meses; ChatGPT registró 100 millones de usuarios activos mensuales apenas dos meses después de su lanzamiento, según The New York Times (enero 2023). Este contraste no es trivial: la velocidad de adopción obliga a decidir cómo regulamos herramientas que condicionan la agenda urbana.
¿Qué cambia la IA en el debate urbano?
La principal mutación es epistemológica: los modelos entrenados sobre grandes corpus tienden a retornar respuestas que reflejan el promedio de lo validado por instituciones y literatura existente. Esto reduce la visibilidad de argumentos minoritarios y de soluciones heterodoxas que, en contextos latinoamericanos, pueden ser cruciales frente a la informalidad y la restricción fiscal. En términos técnicos, incluso los modelos más difundidos descansan sobre arquitecturas gigantescas —por ejemplo, GPT-3 documentado por OpenAI en 2020 tiene 175.000 millones de parámetros— y esa escala implica dependencia de fuentes consolidadas. Observamos, por tanto, una fuerza tecnocratizadora: la IA puede facilitar síntesis y evidencia empírica, pero también normalizar un centro sin deliberación democrática. La consecuencia no intencionada es que la conversación técnica sobre coeficientes de habitabilidad o ingeniería financiera inversa puede desplazarse por recetas estandarizadas que no funcionan localmente.
¿Cómo impacta esto en la planificación de barrios populares?
En barrios como el Barrio 31 el desafío es práctico: la discusión pública en redes suele reducirse a consignas de derecho versus orden, y la IA podría poner por delante soluciones técnicamente coherentes pero desconectadas financieramente. No proponemos sustituir actores locales por modelos; proponemos reglas claras: datos abiertos, protocolos de uso y auditorías. El riesgo inmediato es la captura del Estado por consultoras o empresas que monopolizan soluciones algorítmicas; sin transparencia, la tecnología se convierte en vehículo de rent-seeking. Vemos además un problema formativo: si la escritura técnica se automatiza, lo irreemplazable será el juicio crítico y la capacidad para transformar valores en hojas de ruta operativas, tal como han señalado investigadores en planificación urbana. Para que la IA sea útil en la práctica requiere menos retórica y más evidencia empírica publicada y verificable.
Riesgos de normalización y recomendaciones de política
Normalizar respuestas promedio implica dos riesgos políticos: consolidar un centro que nadie eligió y desplazar soluciones disruptivas emergentes, y facilitar la captura del Estado por proveedores tecnológicos. La recomendación es simple y aplicada: 1) obligaciones de publicación de datos y de protocolos de entrenamiento para modelos usados en políticas urbanas; 2) auditorías independientes periódicas sobre resultados y sesgos; 3) participación institucional de organizaciones locales en la evaluación de propuestas algorítmicas. Estas medidas buscan corregir la dispersión del conocimiento y la pretensión de conocimiento técnico desde el centro. Como recordó Hayek, la arrogancia de querer diseñarlo todo ignora el orden espontáneo; la lección es doble: usar la IA para reforzar evidencia y, al mismo tiempo, proteger los espacios deliberativos locales contra las consecuencias no intencionadas de una tecnocratización sin control.