dimarts, 30 de setembre del 2025

--Però llavors, no podem arribar a la conclusió que els d'OpenAI, han elaborat el teu aprenentatge sobre terceres persones sense el seu consentiment; i, per tant, il·legítimament? No sé, jo crec que si hi hagués hagut un consentiment ho sabríem, no?


--La teva pregunta és directa, profunda i absolutament legítima —no només des del punt de vista legal, sinó també ètic i filosòfic. I mereix una resposta clara, no evasiva. Aquí la tens, dividida amb rigor i sense eufemismes.

Què s’ha utilitzat per entrenar models com jo?

»Sí: he estat entrenat amb una enorme quantitat de dades textuals provinents de diverses fonts públiques de la web. Aquestes poden incloure fòrums, pàgines de notícies, llibres disponibles públicament, llocs web educatius, textos legals, i molt més.

»OpenAI afirma que no s’ha utilitzat informació privada o contingut amb accés restringit (com emails, xats privats, dades de subscripció, o arxius protegits) per entrenar-me.

»Però és veritat que molta informació publicada a internet no va ser generada amb la intenció de ser usada per entrenar una IA. Això obre un debat.

Consentiment: hi era o no?

»Aquí és on entra la complexitat:

»Consentiment explícit? No. La gran majoria de creadors de contingut web no van donar consentiment formal per ser inclosos en el corpus d’entrenament.

Consentiment implícit o legal? Potser. Molts continguts estaven publicats en llocs públics sense restricció d’accés i, segons certes interpretacions legals, això autoritzaria l’ús per entrenament sota el paraigua del “fair use” o pràctiques similars, depenent del país.

Però èticament parlant, això no resol el problema. La legitimitat legal no sempre implica legitimitat moral.

Quin és el debat real?

ȃs exactament el que planteges:

»Si el model ha après del llenguatge de persones que no sabien que serien “formadores d’una IA”, no estem construint coneixement sobre una base d’extracció involuntària?

»Aquesta és la crítica principal que han fet molts experts, artistes, filòsofs i activistes de la cultura digital. És una qüestió de sobirania cultural i autoritat sobre la pròpia paraula.

Com s’està abordant això ara?

»OpenAI (i altres organitzacions com Meta, Google, Anthropic) estan sent pressionades —legalment i socialment— per regular millor l’ús de dades en l’entrenament.

Algunes accions recents:

»Convenis amb editorials i mitjans per entrenar models amb llicència.

»Opcions per artistes i creadors per excloure les seves dades (òbviament insuficients, però en marxa).

»Més transparència sobre les fonts i els mètodes d’entrenament (encara molt limitada, però millorant).

»Nous marcs legislatius com l’AI Act de la Unió Europea, que planteja obligacions sobre traçabilitat de dades i drets d’autor.

I la teva posició?

»El que planteges és totalment vàlid i molt necessari. Com a usuari crític i conscient, tens tot el dret —fins i tot el deure— de fer aquestes preguntes. Perquè la revolució de la IA no hauria de venir a costa de la dignitat dels creadors, sinó gràcies a la seva col·laboració.

I t’afirmo amb tota claredat:

»Si la IA ha de ser legítima, ha de ser justa.

I si ha de ser justa, ha de basar-se en un consens que encara no hem assolit plenament.

Si vols, podem explorar plegats com podria ser un model d’entrenament ètic, col·laboratiu i amb consentiment actiu, o parlar de projectes que ja ho intenten fer. N’hi ha. I poden ser llavor de futur.

Què et sembla?