Artículo

Inteligencia artificial y colaboración publicoprivada: retos éticos y estratégicos

Las universidades pueden ejercer un rol estratégico como asesores éticos independientes en proyectos de colaboración publicoprivada. A diferencia de las empresas tecnológicas, aportan rigor científico, conocimiento actualizado de la regulación y una mirada crítica desvinculada de intereses comerciales. En este artículo, exploramos como esta capacidad universitaria acontece clave en el ecosistema de investigación e innovación en inteligencia artificial, especialmente ante la entrada en vigor de la AI Act a Europa y los retos técnicos y éticos que plantea su implementación.

Albert Gil
Albert Gil
Promotor Colaboraciones Universidad-Empresa

El 2 de agosto de 2026 marca un punto de inflexión para la inteligencia artificial a Europa. Es la fecha en que entrará en vigor la AI Act, el primer marco regulador integral que establece normas éticas y de transparencia para el desarrollo y uso de sistemas de IA. Con sanciones que pueden llegar hasta los 35 millones de euros o el 7% de la facturación anual mundial, el reglamento europeo no deja margen para la improvisación. Aun así, la implementación completa será gradual: las normas para sistemas de alto riesgo se han aplazado hasta el 2027-2028 en espera de los estándares técnicos europeos. Esto ofrece una oportunidad para prepararse adecuadamente. Más allá de las multas, la gran pregunta es: ¿cómo traducimos esta regulación en prácticas concretas para ayuntamientos, pequeñas empresas y administraciones locales?

Un reto de capacidad técnica

La AI Act clasifica los sistemas de inteligencia artificial según su nivel de riesgo: desde usos prohibidos (como la manipulación conductual o la puntuación social) hasta aplicaciones de riesgo mínimo. Los sistemas de alto riesgo (aquellos que se utilizan en salud, transporte, administración pública o recursos humanos) requieren evaluaciones previas rigurosas sobre sesgos algorítmicos, calidad de los datos, transparencia y supervisión humana.

Pero aquí surge el primer obstáculo: la mayoría de ayuntamientos, pymes y entidades locales no disponen de la pericia técnica necesaria para validar si un sistema de IA cumple estos requisitos. Cuando una empresa tecnológica presenta una solución basada en inteligencia artificial para gestionar expedientes administrativos, analizar datos municipales u optimizar servicios públicos, ¿quién garantiza que no contiene sesgos discriminatorios? ¿Quién evalúa la calidad de los datos de entrenamiento? ¿Quién verifica que existe supervisión humana efectiva?

Retos éticos en la transferencia de IA

La transferencia de tecnología de inteligencia artificial desde la universidad hacia la empresa y la administración pública plantea retos éticos específicos que hay que abordar desde el diseño de los acuerdos de colaboración. No basta con garantizar que un algoritmo funciona técnicamente: hay que asegurar que lo hace de manera transparente, equitativa y respetuosa con los derechos fundamentales.

Los criterios éticos clave que tendrían que integrarse en cualquier acuerdo universidad-emprendida para proyectos de IA incluyen:

  • Transparencia y explicabilidad: derecho de los ciudadanos a comprender como el sistema toma decisiones que los afectan, con documentación técnica accesible para auditorías y trazabilidad de los datos y algoritmos utilizados.
  • Ausencia de sesgos: evaluación sistemática de sesgos algorítmicos (género, etnia, edad, origen socioeconómico), con protocolos de validación con muestras representativas y mecanismos de corrección cuando se detecten discriminaciones.
  • Protección de datos y privacidad: cumplimiento riguroso del RGPD y la AI Act, minimización de datos personales y consentimiento informado y revocable.
  • Supervisión humana: ningún sistema de alto riesgo puede operar sin supervisión humana efectiva, con responsabilidad humana en decisiones finales y capacidad de intervención.
  • Sostenibilidad e impacto social: evaluación del impacto ambiental computacional, beneficio social medible y criterios de inclusión y accesibilidad.

Para traducir estos principios en práctica contractual, los acuerdos de colaboración tendrían que incorporar cláusulas específicas: derecho de la universidad a auditar sistemas para validar sesgos y transparencia; compromiso de formación del personal en uso ético de IA; derecho a publicar resultados (con excepciones justificadas de confidencialidad); prohibición de usos militares o contrarios a derechos fundamentales; y modelos de propiedad intelectual compartida o abiertos que favorezcan la innovación responsable.

Las universidades como asesores éticos independientes

Es precisamente aquí donde las universidades pueden ejercer un rol estratégico: actuar como asesores éticos independientes (como un sello de calidad) en proyectos de colaboración publicoprivada. A diferencia de las empresas tecnológicas, que son juez y parte en el desarrollo de sus propias soluciones, las universidades aportan rigor científico, conocimiento actualizado de la regulación y, sobre todo, una mirada crítica desvinculada de intereses comerciales.

Es importante aclarar el marco regulador: la certificación oficial de los sistemas de IA de alto riesgo corresponderá a los Notified Bodies, organismos independientes designados por los Estados miembros de la UE. Aun así, el despliegue completo de este marco presenta retos significativos. Los estándares técnicos europeos (CEN-CENELEC) que definen los requisitos de conformidad no estarán disponibles hasta el cuarto trimestre de 2026, y la Comisión Europea ha propuesto aplazar la aplicación de las normas para sistemas de alto riesgo hasta diciembre de 2027 (16 meses) o el agosto de 2028 (24 meses), dependiendo del tipo de sistema. Además, varios Estados miembros no han cumplido el plazo de agosto de 2025 para designar los suyos Notified Bodies, y hay preocupación por la escasez de organismos con la pericia necesaria para auditar sistemas complejos de IA.

Este contexto crea una ventana de oportunidad para las universidades: mientras se definen los estándares y se consolida la red de Notified Bodies, las universidades pueden avanzar en la investigación aplicada y colaborar con empresas y administraciones para desarrollar sistemas que anticipen los requisitos futuros. En la Universitat Autònoma de Barcelona, grupos de investigación como el de Pilar Dellunde (catedrática de Lógica y científica adjunta en el Instituto de Investigación en Inteligencia Artificial del CSIC) trabajan en el adelanto del estado del arte explicabilitat y ética de la IA. El Centro de Visión por Computador (CVC) cuenta con investigadores como Ernest Valveny y Oriol Ramos, expertos en procesamiento de documentos administrativos y extracción automática de información. En la Escuela de Ingeniería de la UAB, investigadores como Remo Suppi del grupo HPCA4SE,  trabajan en proceso de datos masivos e infraestructuras computacionales seguras. Esta capacidad técnica no solo sirve para la investigación básica: puede ser un activo transferible a empresas y administraciones públicas para preparar el terreno antes de la certificación formal.

Un ejemplo práctico de colaboración: la jornada DIBA-UAB

El próximo 2 de febrero de 2026, el Parc de Recercs UAB acogerá, en colaboración con la Diputación de Barcelona, una jornada sobre "IA y Gobierno del Dato a los ayuntamientos: por donde empezar?". El evento conectará responsables de datos de cerca de 50 ayuntamientos del Área Metropilitana de Barcelona con proveedores tecnológicos e investigadores universitarios, en un formato que combina demostraciones técnicas, validación científica y networking.

Esta jornada se enmarca dentro del programa Local.IA de la Diputación de Barcelona, una iniciativa estratégica para impulsar la transformación digital de los 311 ayuntamientos de la provincia basada en cinco principios fundamentales: ética (impacto en personas versus eficiencia pura), transparencia (explicabilitat de decisiones algorítmicas), seguridad (protección de datos y sistemas), supervisión humana (control y responsabilidad humana) y ausencia de sesgos (IA inclusiva y equitativa).

El programa Local.IA va más allá de la sensibilización: ofrece herramientas concretas como el portal de recursos para entes locales, el servicio de transformación digital SeTDIBA para ayuntamientos de menos de 20.000 habitantes, lo Visor2030 (un dashboard de indicadores ODS por municipio) y el canal Radar con información actualizada sobre IA, gobernanza de datos y datos abiertos. Muchos de los asistentes a la jornada del 2 de febrero son participantes de la microcredencial UAB-DIBA "Cimientos del Gobierno del Dato a Administraciones Públicas", cosa que garantiza un público altamente calificado.

Este es un ejemplo práctico de colaboración entre administración pública, empresa y universidad: administraciones públicas que identifican necesidades, empresas tecnológicas que aportan soluciones, y universidades que ofrecen asesoramiento ético y científico. El marco contractual es el Sistema Dinámico de Adquisición (SDA) de la Diputación de Barcelona (con un presupuesto de 3,18 millones de euros en cuatro años para servicios de IA y transformación digital), que permite que las empresas adjudicatarias incluyan en sus ofertas el asesoramiento de grupos de investigación universitarios.

La clave del éxito de este modelo es que la universidad no compite con las empresas. Las empresas ganan diferenciación competitiva al ofrecer garantías éticas con una base científica; los ayuntamientos obtienen soluciones técnicas “validadas” por expertos independientes; y la universidad genera impacto social a la vez que obtiene ingresos por transferencia de conocimiento.

Más allá de los ayuntamientos

El modelo de colaboración que estamos ensayando con la Diputación de Barcelona es replicable a otros sectores. En el ámbito de la salud, hospitales que contraten empresas tecnosanitàries para sistemas de IA de diagnóstico podrían incorporar grupos de Biomedicina de la UAB para validar la calidad de los datos y la seguridad de los algoritmos. En la industria 4.0, empresas manufactureras que integren soluciones de IA predictiva podrían contar con el asesoramiento de grupos de Ingeniería UAB. agrotecnologia, explotaciones agrícolas que adopten inteligencia artificial para la gestión de cultivos podrían trabajar con grupos de investigación de Veterinaria UAB.

La innovación responsable es una ventaja competitiva a nivel de territorio. Regiones que consigan implementar IA de manera ética, transparente y alineada con la regulación europea estarán mejor posicionadas para atraer inversión, talento y proyectos de alto valor añadido.

Cataluña cuenta con el ecosistema necesario para hacerlo posible, con iniciativas como la Estrategia Cataluña IA 2030 (anterior Catalunya.ai, 1.000M€), el Barcelona Supercomputing Center que alojará una de las siete primeras "fábricas de IA" europeas, y el Proyecto AINA para garantizar el futuro digital del catalán.

Un compromiso colectivo

La AI Act es una oportunidad para repensar como colaboramos en la construcción de tecnologías que pongan las personas en el centro. Las universidades, con su capacidad de generar conocimiento riguroso e independiente, tienen un papel clave a jugar como asesores éticos independientes en este proceso. Empresas, administraciones públicas y centros de investigación tenemos que trabajar plegados para traducir los principios de transparencia, equidad y supervisión humana en prácticas concretas, medibles y evaluables.

El próximo 2 de febrero, a la Jornada DIBA-UAB sobre IA y Gobierno del Dato, daremos un paso más en esta dirección. Os invitamos a formar parte de esta colaboración que sitúa la ética y la ciencia junto a la innovación tecnológica. Porque una IA responsable es una IA que genera confianza. Y la confianza, al final, es el que permite transformar la tecnología en progreso real para las personas.

Imatge d'una reunió de treball on apareixen quatre persones comentant les dades que es veuen a una pantalla