Intel·ligència artificial i col·laboració publicoprivada: reptes ètics i estratègics
Les universitats poden exercir un rol estratègic com a assessors ètics independents en projectes de col·laboració publicoprivada. A diferència de les empreses tecnològiques, aporten rigor científic, coneixement actualitzat de la regulació i una mirada crítica desvinculada d'interessos comercials. En aquest article, explorem com aquesta capacitat universitària esdevé clau en l’ecosistema de recerca i innovació en intel·ligència artificial, especialment davant l’entrada en vigor de l’AI Act a Europa i els reptes tècnics i ètics que planteja la seva implementació.

El 2 d'agost de 2026 marca un punt d'inflexió per a la intel·ligència artificial a Europa. És la data en què entrarà en vigor l'AI Act, el primer marc regulador integral que estableix normes ètiques i de transparència per al desenvolupament i ús de sistemes d'IA. Amb sancions que poden arribar fins als 35 milions d'euros o el 7% de la facturació anual mundial, el reglament europeu no deixa marge per a la improvisació. Tanmateix, la implementació completa serà gradual: les normes per a sistemes d'alt risc s'han ajornat fins al 2027-2028 en espera dels estàndards tècnics europeus. Això ofereix una oportunitat per preparar-se adequadament. Més enllà de les multes, la gran pregunta és: com traduïm aquesta regulació en pràctiques concretes per a ajuntaments, petites empreses i administracions locals?
Un repte de capacitat tècnica
L'AI Act classifica els sistemes d'intel·ligència artificial segons el seu nivell de risc: des d'usos prohibits (com la manipulació conductual o la puntuació social) fins a aplicacions de risc mínim. Els sistemes d'alt risc (aquells que s'utilitzen en salut, transport, administració pública o recursos humans) requereixen avaluacions prèvies rigoroses sobre biaixos algorítmics, qualitat de les dades, transparència i supervisió humana.
Però aquí sorgeix el primer obstacle: la majoria d'ajuntaments, pimes i entitats locals no disposen de l'expertesa tècnica necessària per validar si un sistema d'IA compleix aquests requisits. Quan una empresa tecnològica presenta una solució basada en intel·ligència artificial per gestionar expedients administratius, analitzar dades municipals o optimitzar serveis públics, qui garanteix que no conté biaixos discriminatoris? Qui avalua la qualitat de les dades d'entrenament? Qui verifica que existeix supervisió humana efectiva?
Reptes ètics en la transferència d'IA
La transferència de tecnologia d'intel·ligència artificial des de la universitat cap a l'empresa i l'administració pública planteja reptes ètics específics que cal abordar des del disseny dels acords de col·laboració. No n'hi ha prou amb garantir que un algoritme funciona tècnicament: cal assegurar que ho fa de manera transparent, equitativa i respectuosa amb els drets fonamentals.
Els criteris ètics clau que haurien d'integrar-se en qualsevol acord universitat-empresa per a projectes d'IA inclouen:
- Transparència i explicabilitat: dret dels ciutadans a comprendre com el sistema pren decisions que els afecten, amb documentació tècnica accessible per a auditories i traçabilitat de les dades i algoritmes utilitzats.
- Absència de biaixos: avaluació sistemàtica de biaixos algorítmics (gènere, ètnia, edat, origen socioeconòmic), amb protocols de validació amb mostres representatives i mecanismes de correcció quan es detectin discriminacions.
- Protecció de dades i privacitat: compliment rigorós del RGPD i l'AI Act, minimització de dades personals i consentiment informat i revocable.
- Supervisió humana: cap sistema d'alt risc pot operar sense supervisió humana efectiva, amb responsabilitat humana en decisions finals i capacitat d'intervenció.
- Sostenibilitat i impacte social: avaluació de l'impacte ambiental computacional, benefici social mesurable i criteris d'inclusió i accessibilitat.
Per traduir aquests principis en pràctica contractual, els acords de col·laboració haurien d'incorporar clàusules específiques: dret de la universitat a auditar sistemes per validar biaixos i transparència; compromís de formació del personal en ús ètic d'IA; dret a publicar resultats (amb excepcions justificades de confidencialitat); prohibició d'usos militars o contraris a drets fonamentals; i models de propietat intel·lectual compartida o oberts que afavoreixin la innovació responsable.
Les universitats com a assessors ètics independents
És precisament aquí on les universitats poden exercir un rol estratègic: actuar com a assessors ètics independents (com un segell de qualitat) en projectes de col·laboració publicoprivada. A diferència de les empreses tecnològiques, que són jutge i part en el desenvolupament de les seves pròpies solucions, les universitats aporten rigor científic, coneixement actualitzat de la regulació i, sobretot, una mirada crítica desvinculada d'interessos comercials.
És important aclarir el marc regulador: la certificació oficial dels sistemes d'IA d'alt risc correspondrà als Notified Bodies, organismes independents designats pels Estats membres de la UE. Tanmateix, el desplegament complet d'aquest marc presenta reptes significatius. Els estàndards tècnics europeus (CEN-CENELEC) que defineixen els requisits de conformitat no estaran disponibles fins al quart trimestre de 2026, i la Comissió Europea ha proposat ajornar l'aplicació de les normes per a sistemes d'alt risc fins al desembre de 2027 (16 mesos) o l'agost de 2028 (24 mesos), depenent del tipus de sistema. A més, diversos Estats membres no han complert el termini d'agost de 2025 per designar els seus Notified Bodies, i hi ha preocupació per l'escassetat d'organismes amb l'expertesa necessària per auditar sistemes complexos d'IA.
Aquest context crea una finestra d'oportunitat per a les universitats: mentre es defineixen els estàndards i es consolida la xarxa de Notified Bodies, les universitats poden avançar en la recerca aplicada i col·laborar amb empreses i administracions per desenvolupar sistemes que anticipin els requisits futurs. A la Universitat Autònoma de Barcelona, grups de recerca com el de Pilar Dellunde (catedràtica de Lògica i científica adjunta a l'Institut d'Investigació en Intel·ligència Artificial del CSIC) treballen en l'avenç de l'estat de l'art en explicabilitat i ètica de la IA. El Centre de Visió per Computador (CVC) compta amb investigadors com Ernest Valveny i Oriol Ramos, experts en processament de documents administratius i extracció automàtica d'informació. A l’Escola d’Enginyeria de la UAB, investigadors com Remo Suppi del grup HPCA4SE, treballen en processament de dades massius i infraestructures computacionals segures. Aquesta capacitat tècnica no només serveix per a la recerca bàsica: pot ser un actiu transferible a empreses i administracions públiques per preparar el terreny abans de la certificació formal.
Un exemple pràctic de col·laboració: la jornada DIBA-UAB
El proper 2 de febrer de 2026, el Parc de Recerca de la UAB acollirà, en col·laboració amb la Diputació de Barcelona, una jornada sobre "IA i Govern de la Dada als ajuntaments: per on començar?". L'esdeveniment connectarà responsables de dades de prop de 50 ajuntaments de l’Àrea Metropilitana de Barcelona amb proveïdors tecnològics i investigadors universitaris, en un format que combina demostracions tècniques, validació científica i networking.
Aquesta jornada s'emmarca dins del programa Local.IA de la Diputació de Barcelona, una iniciativa estratègica per impulsar la transformació digital dels 311 ajuntaments de la província basada en cinc principis fonamentals: ètica (impacte en persones versus eficiència pura), transparència (explicabilitat de decisions algorítmiques), seguretat (protecció de dades i sistemes), supervisió humana (control i responsabilitat humana) i absència de biaixos (IA inclusiva i equitativa).
El programa Local.IA va més enllà de la sensibilització: ofereix eines concretes com el portal de recursos per a ens locals, el servei de transformació digital SeTDIBA per a ajuntaments de menys de 20.000 habitants, el Visor2030 (un dashboard d'indicadors ODS per municipi) i el canal Radar amb informació actualitzada sobre IA, governança de dades i dades obertes. Molts dels assistents a la jornada del 2 de febrer són participants de la microcredencial UAB-DIBA "Fonaments del Govern de la Dada a Administracions Públiques", cosa que garanteix un públic altament qualificat.
Aquest és un exemple pràctic de col·laboració entre administració pública, empresa i universitat: administracions públiques que identifiquen necessitats, empreses tecnològiques que aporten solucions, i universitats que ofereixen assessorament ètic i científic. El marc contractual és el Sistema Dinàmic d'Adquisició (SDA) de la Diputació de Barcelona (amb un pressupost de 3,18 milions d'euros en quatre anys per a serveis d'IA i transformació digital), que permet que les empreses adjudicatàries incloguin en les seves ofertes l'assessorament de grups de recerca universitaris.
La clau de l'èxit d'aquest model és que la universitat no competeix amb les empreses. Les empreses guanyen diferenciació competitiva en oferir garanties ètiques amb una base científica; els ajuntaments obtenen solucions tècniques “validades” per experts independents; i la universitat genera impacte social alhora que obté ingressos per transferència de coneixement.
Més enllà dels ajuntaments
El model de col·laboració que estem assajant amb la Diputació de Barcelona és replicable a altres sectors. En l'àmbit de la salut, hospitals que contractin empreses tecnosanitàries per a sistemes d'IA de diagnòstic podrien incorporar grups de Biomedicina de la UAB per validar la qualitat de les dades i la seguretat dels algoritmes. En la indústria 4.0, empreses manufactureres que integrin solucions d'IA predictiva podrien comptar amb l'assessorament de grups d'Enginyeria UAB. En agrotecnologia, explotacions agrícoles que adoptin intel·ligència artificial per a la gestió de cultius podrien treballar amb grups de recerca de Veterinària UAB.
La innovació responsable és un avantatge competitiu a nivell de territori. Regions que aconsegueixin implementar IA de manera ètica, transparent i alineada amb la regulació europea estaran millor posicionades per atraure inversió, talent i projectes d'alt valor afegit.
Catalunya compta amb l'ecosistema necessari per fer-ho possible, amb iniciatives com l'Estratègia Catalunya IA 2030 (anterior Catalunya.AI, 1.000M€), el Barcelona Supercomputing Center que allotjarà una de les set primeres "fàbriques d'IA" europees, i el Projecte AINA per garantir el futur digital del català.
Un compromís col·lectiu
L'AI Act és una oportunitat per repensar com col·laborem en la construcció de tecnologies que posin les persones al centre. Les universitats, amb la seva capacitat de generar coneixement rigorós i independent, tenen un paper clau a jugar com a assessors ètics independents en aquest procés. Empreses, administracions públiques i centres de recerca hem de treballar plegats per traduir els principis de transparència, equitat i supervisió humana en pràctiques concretes, mesurables i avaluables.
El proper 2 de febrer, a la Jornada DIBA-UAB sobre IA i Govern de la Dada, donarem un pas més en aquesta direcció. Us convidem a formar part d'aquesta col·laboració que situa l'ètica i la ciència al costat de la innovació tecnològica. Perquè una IA responsable és una IA que genera confiança. I la confiança, al final, és el que permet transformar la tecnologia en progrés real per a les persones.






