FECAP
FECAP Ph. +34 964 711 644
Carrer Albaset, 5 Segorbe, ES
FECAP. Federación Empresarial Comarcal del Alto Palancia.
Actualidad (Mostrar tot)
Si et recolzes en la *IA per a treballar, pot ser que estigues incomplint estes futures obligacions per a autònoms i professionals. En breu, pot no ser una opció

Si et recolzes en la *IA per a treballar, pot ser que estigues incomplint estes futures obligacions per a autònoms i professionals. En breu, pot no ser una opció

Cada vegada més professionals i empreses estan integrant ferramentes d'intel·ligència artificial en el seu dia a dia laboral. Parlem de redactors que utilitzen assistents de text, dissenyadors que editen imatges amb *IA generativa o advocats que automatitzen respostes amb bots.
A poc a poc, a més, el seu ús s'està normalitzant i fins i tot invisibilitzant (a mesura que evoluciona, més i més), però continua comptant amb una sèrie de (creixents) obligacions. A Espanya, ja s'ha aprovat l'avantprojecte de llei per al bon ús i la governança de la intel·ligència artificial: entre les seues novetats, s'obligarà a informar de quan s'utilitza intel·ligència artificial.

Informar de l'ús de *IA no és opcional
El nou marc legal exigirà que qualsevol contingut generat, totalment o parcialment, mitjançant sistemes de *IA estiga degudament identificat. Això inclou textos, vídeos, àudios, imatges i qualsevol altre recurs que haja sigut creat o modificat per ferramentes automatitzades.

La mesura busca garantir la transparència, evitar la confusió amb creacions humanes i protegir els usuaris enfront de possibles fraus o desinformació.

Este requisit no sols afecta a grans empreses o plataformes, sinó també a autònoms i professionals freelance que utilitzen ferramentes d'intel·ligència artificial per al desenrotllament de la seua activitat professional.

I quan serà obligatori complir amb estos criteris? Si s'utilitzen ferramentes com a part del procés creatiu o d'atenció al client, serà obligatori avisar expressament del seu ús.

Quan avisar i com fer-ho
El principi és clar: si el contingut no s'ha generat exclusivament per una persona, ha d'indicar-se que ha intervingut una *IA. Alguns casos típics que entrarien en esta obligació:

Un article de blog redactat amb l'ajuda d'un model de llenguatge.
Un vídeo editat amb veus sintètiques o escenes generades per *IA.
Un missatge d'atenció al client automatitzat amb *ChatGPT o ferramentes similars.
Un contingut de xarxes socials dissenyat amb imatges generades automàticament.
I com s'informa? No existix encara un format únic, però la recomanació general és ser clar, visible i comprensible. Per exemple:

Afegir una nota com “Este contingut ha sigut creat amb ajuda d'intel·ligència artificial”.
Incloure "*disclaimers" o avisos al principi o al final d'un vídeo o pòdcast.
Esmentar en la web o xarxes socials que s'utilitzen sistemes automatitzats en l'atenció al client.
En canvi, si una ferramenta de *IA s'ha usat només com a suport menor o suggeriment el límit no és tan clar. En estos casos, la normativa que es planteja assenyala que convé continuar aplicant el criteri de transparència: si l'usuari final pot interpretar que tot el treball és humà, convé informar en cas contrari.

I si s'incomplix?
Les sancions encara no estan definides de manera definitiva en la llei espanyola, però el reglament europeu establix multes que podrien aconseguir fins a 35 milions d'euros o el 7% de la facturació anual, en els casos més greus. Cal suposar que, en l'àmbit nacional, les sancions seran, probablement, més proporcionades per a autònoms, però això no significa que no vagen a aplicar-se.

Més enllà del risc econòmic, la reputació també pot veure's afectada. Ocultar l'ús de *IA en treballs encarregats per clients o en continguts públics pot deteriorar la confiança professional. No obstant això, a mesura que avança la tecnologia, sembla més i més complicat identificar els aspectes rellevants, per la qual cosa la Comissió Europea ha facilitat fins i tot guies d'ús.

L'ús de la *IA i els seus límits encara poden resultar difusos, així com no està bé vist en tots els sectors, per la qual cosa podria portar a pràctiques encobertes que no beneficien ni als professionals ni a l'usuari final.

Dades personals i *IA
Si utilitzes *IA en el teu treball i eixa ferramenta accedix, gestiona o analitza dades personals de tercers (clients, usuaris, pacients...), has de tindre en compte també les exigències de la Llei de Protecció de Dades (*LOPDGDD) i el Reglament General de Protecció de Dades (RGPD).

Això implica, entre altres coses:

Informar i demanar consentiment, quan corresponga
Evitar introduir dades sensibles en ferramentes sense garanties
Formalitzar contractes si es treballa amb proveïdors de *IA externs
No tot l'ús de *IA implica risc per a la privacitat, però quan n'hi ha, és important actuar amb prevenció.

Usar *IAs no és il·legal, però exigix responsabilitat
Les ferramentes d'intel·ligència artificial poden ajudar-te a treballar més ràpid, ser més creatiu o millorar la teua atenció al client. Però si decidixes usar-les com a autònom o professional, el primer pas és comunicar-lo adequadament.

En breu, tot apunta que la transparència deixarà de ser una simple recomanació per a convertir-se en una obligació legal. I si bé encara queda recorregut perquè esta llei entre plenament en vigor, adaptar-se ara és una manera d'evitar riscos i guanyar en professionalitat.

Més informació: Més informació

Imagen de fondo FECAP 11Imagen de fondo FECAP 11Imagen de fondo FECAP 11Imagen de fondo FECAP 11Imagen de fondo FECAP 11Imagen de fondo FECAP 11Imagen de fondo FECAP 11Imagen de fondo FECAP 11Imagen de fondo FECAP 11
© FECAP. Federación Empresarial Comarcal del Alto Palancia