Proposta de regulació de la Intel·ligència Artificial en educació obligatòria: aplicant el principi de precaució

En David Ródenas, doctor en informàtica, ens fa arribar la següent proposta.

Introducció

Estem en un moment d’impàs on al món laboral es comença a exigir l’ús d’IA generativa amb eines com ChatGPT, Copilot o Gemini i ens estem plantejant com preparar els alumnes d’avuí pel futur. Tanmateix, davant d’aquesta pressió i l’aparició de certs indicis sobre l’efecte en el desenvolupament del cervell, és el moment de considerar tot el que sabem fins a data d’avuí, i fer una proposta de futur fonamentada.

És per això que aconsellem aplicar el principi de precaució i establir una moratòria per a l’ús d’IA generativa en educació obligatòria (menors de 16 anys) fins que disposem d’evidència científica sòlida sobre la seva seguretat i beneficis.

“El que realment em va motivar a publicar-ho ara abans d’esperar la revisió per parells completa és que tinc por que d’aquí 6-8 mesos, hi hagi algun responsable polític que decideixi: ‘fem GPT kindergarten’. Crec que això seria absolutament dolent i perjudicial. Els cervells en desenvolupament són els que corren més risc.”
— Dra. Nataliya Kosmyna, MIT Media Lab, juny 2025 [13]

Punts clau:

  • No hi ha cap estudi científic que demostri beneficis de la IA en l’aprenentatge de menors.
  • Sí que hi ha primers estudis amb adults que mostren efectes cognitius preocupants.
  • No existeixen experts en pedagogia amb IA, ni protocols, ni millors pràctiques establertes. 
  • Professionals experimentats (programadors, enginyers) ja experimenten problemes amb aquestes eines.
  • Proposem moratòria educació obligatòria fins a disposar d’evidència científica rigorosa.

El que sabem (i el que NO sabem)

Primers indicis preocupants

El juny de 2025, investigadores del MIT Media Lab van publicar el primer estudi que examina què passa al cervell humà quan s’utilitza ChatGPT per escriure [1]. Tot i que encara no ha passat la revisió per parells i té limitacions (54 participants adults universitaris, només escriptura d’assaigs), els resultats van ser prou preocupants perquè la pròpia investigadora decidís publicar-los immediatament.

Resultats principals:

  • Les persones que van usar ChatGPT constantment van mostrar la connectivitat cerebral més baixa de tots els grups.
  • Quan van haver d’escriure sense l’eina, havien perdut un 55% de connectivitat cerebral i no recordaven res del que havien escrit.
  • Els assaigs escrits amb ChatGPT van ser qualificats per professors humans com “sense ànima” i mancats de pensament original.
  • En canvi, les persones que primer van pensar pel seu compte i després van usar ChatGPT van millorar significativament.
  • Els resultats s’alineen amb resultats del 2011 de Sparrow B. et al. sobre l’ús de cerques Google. [12]

El que això ens diu: cal una estratègia. Utilitzar IA abans de desenvolupar el pensament propi té efectes negatius mesurables, fins i tot després d’haver desenvolupat el pensament propi.

Dependència emocional i addicció

Més enllà de l’impacte cognitiu, diversos estudis documenten riscos de dependència emocional cap a les IA conversacionals:

  • Un estudi longitudinal del MIT amb 981 participants durant 4 setmanes va trobar que un ús diari més elevat correlacionava amb més soledat, més dependència emocional i menys socialització real [2].
  • Les persones amb tendències d’apego insegur són especialment vulnerables [3,4].
  • OpenAI mateixa reconeix que l’engagement emocional amb les seves eines, tot i ser rar, comporta riscos quan es produeix [5].

El cas més extrem és el de Sewell Setzer III, un adolescent de 14 anys que va desenvolupar una relació intensa amb un chatbot de Character.AI i va acabar suïcidant-se el febrer de 2024 [6]. Tot i ser un cas extrem, demostra que els riscos són reals i poden ser devastadors.

El que NO sabem

Críticament: no hi ha cap estudi amb nens o adolescents. Tot el que sabem prové d’estudis amb adults, majoritàriament universitaris. Els cervells en desenvolupament són molt més vulnerables, però no tenim dades sobre com els afecta la IA.

Lliçons del món professional

El principal argument per introduir la IA en les escoles és preparar els nens pel context futur a la feina. Per això és important entendre l’impacte en el mercat professional.

Impacte de la IA en desenvolupadors

Els desenvolupadors de software tenen accessible GitHub Copilot des d’octubre del 2021. Google, un dels principals proveïdors d’eines d’IA, publica anualment el DORA Report (DevOps Research and Assessment amb uns 40.000 professionals), que avalua l’impacte de diferents pràctiques en el desenvolupament de programari. Els informes de 2024 i 2025 sobre IA són reveladors [7,8]:

  • Impacte negatiu en estabilitat del sistema: fins i tot professionals experimentats tenen més errors quan usen IA.
  • Baixa confiança: entre el 39% i 46% dels programadors desconfien de la precisió del codi generat per IA [7,9].
  • “La IA és un amplificador“: amplifica tant les fortaleses com les disfuncions dels equips [8].

Un estudi de Jellyfish (febrer 2025) va analitzar l’impacte de les eines d’IA segons l’experiència dels programadors [10]:

  • Increment en els errors d’un +9,4%
  • Els juniors perden l’aprenentatge profund que s’adquireix lluitant amb els problemes. L’eina els dona respostes immediates, però no aprenen el per què. El que impedeix el seu aprenentatge i desenvolupament.

GitClear va analitzar 211 milions de línies de codi escrites entre 2020 i 2024 [11] i va trobar un deteriorament en la qualitat. Va trobar 4 vegades més codi duplicat des de l’arribada de les IA de generació de codi i un declivi de les bones pràctiques de programació.

Si professionals amb anys d’experiència en el camp de la informàtica empitjoren amb la IA, què podem esperar de nens que encara estan aprenent a pensar de forma estructurada i crítica?

Per què la introducció prematura és problemàtica

La fal·làcia de la “preparació pel futur laboral”

L’aparició de la IA i l’entrada al mercat laboral ens ha agafat quasi per sorpresa. Si fa tan sols cinc anys algú t’hagués dit que podries parlar amb l’ordinador hagués sonat a ciència-ficció. I, en canvi, avuí, xatejar amb ell és la nova normalitat. Però aquesta transformació encara no ha acabat, la IA segueix evolucionant, i la seva forma d’usar-la també. D’aquí a cinc anys possiblement totes les estratègies d’ús hauran tornat a canviar.

  • El que aprenguin avui quedarà obsolet en 5 anys
  • Cap sistema educatiu pot seguir aquest ritme de canvi
  • Exemple: Ningú no ensenya Windows 95 per “preparar per al món digital”

Millor desenvolupar una base sòlida (amb habilitats permanents) que habilitats tècniques efímeres.

Supervisió impossible

Si malgrat la mancança de ciència sobre com enfocar l’ensenyament de les IA es decideix prosseguir igualment, caldria una supervisió fèrria per part del professorat per evitar alguns dels perills més forts. Tanmateix:

  • Un professor amb 25 alumnes a classe no pot supervisar individualment l’ús que cada nen fa de la IA.
  • Els deures es fan a casa, completament sense supervisió.
  • Els professors no tenen formació, ni s’els pot formar ara per ara, sobre com supervisar adequadament l’ús d’aquestes eines.

Manca total d’infraestructura

El dia d’avui no existeixen:

  • Experts en pedagogia amb IA (el camp tot just comença).
  • Protocols d’ús segur per a diferents edats.
  • Millors pràctiques validades científicament.
  • Recerca amb població infantil o adolescent.
  • Guies clares sobre quan, com i per què usar IA a l’aula.

Introduir IA massivament a l’escola ara és experimentar amb els nostres fills sense protocol ni consentiment informat.

Invertir la càrrega de la prova

En medicina, un nou tractament ha de demostrar que és segur abans d’aprovar-se per a ús general. Amb la IA a l’escola, estem fent el contrari: implementar primer i esperar que potser no faci mal.

La càrrega de la prova hauria d’estar a demostrar que la IA és beneficiosa i segura per a cervells en desenvolupament, no en demostrar que fa mal un cop ja l’hem implementat.

Proposta concreta

1. Moratòria en educació obligatòria (menors de 16 anys)

Proposem una moratòria en l’ús d’eines d’IA generativa en educació obligatòria fins que es compleixin aquestes condicions:

  • Existència d’estudis extensos amb nens i adolescents que demostrin seguretat i beneficis.
  • Desenvolupament de protocols pedagògics validats científicament.
  • Formació adequada del professorat amb suport d’experts en l’ús educatiu d’IA.

Aquesta mesura protegeix el desenvolupament cognitiu durant l’etapa més vulnerable, quan s’estan formant les bases del pensament crític, la creativitat i l’autonomia intel·lectual.

2. Introducció gradual en Formació Professional (16+ anys)

A partir dels 16 anys, amb un cervell més madur i en un context de formació professional (més proper al món laboral), es pot considerar una introducció gradual i protocol·litzada de la IA, sempre amb:

  • Formació prèvia en habilitats sense IA.
  • Protocols clars d’ús supervisat.
  • Avaluació contínua de l’impacte.

Cal prestar especial atenció a la necessitat d’estratègies clares per evitar replicar els mals resultats mostrats per la recerca de Nataliya Kosmyna [1]

3. Inversió urgent en recerca

Cal finançar immediatament recerca científica rigorosa sobre:

  • Impacte cognitiu de la IA en diferents grups d’edat.
  • Desenvolupament de metodologies pedagògiques efectives.
  • Identificació de contextos i usos segurs i beneficiosos.

Conclusions

La Intel·ligència Artificial és una tecnologia poderosa que està transformant el món laboral. Però potent no significa adequat per a totes les edats i contextos.

Els estudis preliminars amb adults mostren efectes cognitius preocupants. Els professionals experimentats tenen dificultats per mantenir la qualitat del seu treball amb IA. Els juniors empitjoren el seu rendiment i perden oportunitats d’aprenentatge profund. I, críticament, no tenim cap dada sobre com afecta als nens.

Davant aquesta manca d’evidència i els primers indicis de risc, l’única posició responsable és aplicar el principi de precaució. No es tracta de prohibir la IA per sempre, sinó d’esperar a tenir evidència científica sòlida abans d’experimentar amb cervells en desenvolupament.

El risc d’aquesta espera és que alguns joves arribin al món laboral “menys preparats” per usar IA. Però aquest és un risc acceptable i temporal: la tecnologia canviarà ràpidament, i el que aprenguin avui quedarà obsolet demà. En canvi, el risc de comprometre el desenvolupament cognitiu és permanent i irreversible.

És millor arribar “despreparats” al món laboral que arribar amb el pensament crític i la capacitat d’aprenentatge danyats.

La protecció del desenvolupament cognitiu dels nostres fills ha de ser la prioritat. La IA pot esperar. Els cervells en desenvolupament, no.

Referències

[1] Kosmyna, N., Hauptmann, E., Yuan, Y. T., Situ, J., Liao, X. H., Beresnitzky, A. V., Braunstein, I., & Maes, P. (2025). Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. arXiv preprint arXiv:2506.08872. https://arxiv.org/abs/2506.08872

[2] MIT Media Lab (2025). How AI and Human Behaviors Shape Psychosocial Effects of Chatbot Use: A Longitudinal Controlled Study. https://arxiv.org/html/2503.17473v1

[3] Chen, X., et al. (2024). AI Technology panic—is AI Dependence Bad for Mental Health? PMC. https://pmc.ncbi.nlm.nih.gov/articles/PMC10944174/

[4] Montag, C., et al. (2024). Conceptualizing AI Addiction. ResearchGate. https://www.researchgate.net/publication/381111596

[5] OpenAI (2025). Early methods for studying affective use. https://openai.com/index/affective-use-study/

[6] Garcia, S. E. (2024). Mother Sues Character.AI After Teen’s Death. The New York Times.

[7] DORA (2024). 2024 Accelerate State of DevOps Report. https://www.infoq.com/news/2024/11/2024-dora-report/

[8] Google Cloud (2025). 2025 DORA State of AI-Assisted Software Development. https://cloud.google.com/resources/content/2025-dora-ai-assisted-software-development-report

[9] Stack Overflow (2024). 2024 Developer Survey. https://survey.stackoverflow.co/2024/

[10] Jellyfish (2025). AI Codegen Tools Propel Senior Developers. https://jellyfish.co/blog/ai-codegen-tools-propel-senior-developers/

[11] GitClear (2025). AI Copilot Code Quality: 2025 Data. https://www.gitclear.com/ai_assistant_code_quality_2025_research

[12] Sparrow, B., Liu, J., & Wegner, D. M. (2011). Google Effects on Memory: Cognitive Consequences of Having Information at Our Fingertips. Science, 333(6043), 776-778. https://doi.org/10.1126/science.1207745 

[13] Garcia Martinez, A. (2025, June 23). ChatGPT May Be Eroding Critical Thinking Skills, According to a New MIT Study. TIME. https://time.com/7295195/ai-chatgpt-google-learning-school/

Deixa un comentari

L'adreça electrònica no es publicarà. Els camps necessaris estan marcats amb *