“Estamos usando ChatGPT sin control”: La IA entra sin frenos en ayuntamientos y pone en riesgo datos personales de los ciudadanos

La implantación de modelos de lenguaje en ayuntamientos y otros organismos multiplica la eficiencia, pero también los riesgos de ceder soberanía y generar sesgos.

Las oficinas públicas españolas han descubierto en la inteligencia artificial un atajo para reducir la carga burocrática. Sin embargo, expertos y funcionarios alertan de que el uso “a mansalva” de sistemas como ChatGPT, sin un plan ni normas claras, puede comprometer los datos de los ciudadanos y la transparencia de las decisiones.

Qué tareas están delegando los funcionarios a ChatGPT y otras IAs generativas

El Ayuntamiento de Bétera (Valencia) ya calcula que ahorra “un 20 % del tiempo” en la redacción de informes, según su vicesecretario de Urbanismo, Marcos Gallart. Trámites repetitivos, lectura de pliegos o redacción de contratos son ahora cuestión de minutos. ¿El problema? La administración no está preparada, reconoce el propio Gallart: falta formación y acompañamiento para integrar estas herramientas de forma segura.

Por qué la falta de normativa deja expuestos derechos y datos personales ciudadanos

Pablo Sáez, abogado especialista en derechos digitales, advierte de que algunos empleados “cargan a ChatGPT expedientes con datos personales sin anonimizar”. Gabriele Vestri, presidente del Observatorio Sector Público e Inteligencia Artificial, confirma que la situación se repite en varias oficinas locales. De ahí que la promesa ministerial de una “plataforma soberana de IA” se reciba con tanto escepticismo como expectación.

Antes de profundizar, conviene repasar los principales peligros señalados por los expertos:

  • Cesión de soberanía sobre la información pública y dependencia tecnológica de proveedores privados
  • Posibles fugas de datos personales y sensibles al entrenar modelos externos
  • Discriminación racial o de género en decisiones automatizadas por falta de supervisión humana
  • Falta de transparencia sobre el código y el origen de los modelos utilizados

¿Te reconoces en alguno de estos escenarios? Si la respuesta es sí, no estás solo.

Cómo puede la administración crear estrategias de formación para el uso responsable

Concepción Campos, doctora en derecho, resume la clave: “Suena fashion tener un chatbot de IA, pero sin estrategia clara corres muchos riesgos”. El Reglamento Europeo de Inteligencia Artificial exige alfabetización urgente, aunque esa formación llega “a cuentagotas”. De momento, Cataluña, Andalucía y Galicia encabezan la elaboración de marcos normativos específicos, mientras otros territorios esperan al próximo 2 de agosto para ver si la actualización europea refuerza los controles.

Actores, preocupaciones y propuestas sobre la IA pública

Actores clavePreocupación principalPropuesta destacada
Ministerio de Función PúblicaAgilizar ayudas y trámitesPlataforma soberana de IA
Observatorio Sector Público e IAFalta de control localPlanes formativos obligatorios
Abogados expertos en tecnologíaCesión de datos a tercerosCertificación de modelos usados
Funcionario de BéteraExceso de tareas repetitivasLiberar tiempo para innovar

La tabla anterior muestra cómo cada parte señala el mismo reto desde ángulos distintos: la transformación es imparable, pero requiere reglas claras.

Qué pasos inmediatos pueden tomar los ayuntamientos para evitar males mayores

Primero, anonimizar cualquier expediente antes de subirlo a un modelo externo. Segundo, verificar que el proveedor acredite el origen y la seguridad del sistema. Y tercero, formar al personal: “Las horas que ganamos deben dedicarse a innovar”, recuerda Gallart. Solo así se pasará de un modelo “rocoso y reactivo” a otro proactivo y centrado en el ciudadano.

Deja un comentario