María Aperador, és criminòloga i experta en ciberseguretat. Explica en un vídeo, una tècnica sofisticada que utilitzen els ciberdelinqüents per enganyar-nos mitjançant URL manipulats:
Tan sols canviant una lletra original de l’URL o posar en lloc d’una lletra de l’abecedari habitual, una lletra en ciríl·lic, ens poden fer pensar que estem al lloc correcte, però en realitat pot dirigir-nos a llocs fraudulents, creient que són legítims. Són canvis difícils de detectar a primera vista i podem entrar tranquil·lament pensant que visitem una pàgina segura. Per tant, cal estar alerta i verificar estratègicament la direcció abans de fer clic en enllaços.
Per exemple, ens diu:
“La intel·ligència artificial és una branca de la informàtica que té com a objectiu crear sistemes que s’assemblin al màxim a la intel·ligència humana. Fins no fa gaire, la funció de les màquines era bastant simple. Tu, com a usuari i ésser humà, li llançaves una petició i la màquina resolia. Per exemple, amb una calculadora introdueixes els números que vols, apliques el factor de suma, resta o divisió, poses altres números i te’n dona el resultat. La calculadora no tindrà la capacitat mai que, a partir del que tu li diguis, pugui crear alguna cosa nova per a allò que no està dissenyada. Però amb l’arribada de la intel·ligència artificial hem passat de màquines que obeeixen instruccions a sistemes que aprenen, prediuen i generen coses noves sense que ho indiquem pas a pas. Avui dia, la IA és capaç d’escriure històries, crear veus humanes o diagnosticar malalties amb una precisió superior a la de molts metges.”
Per això ens explica com funciona realment una IA i com és que aprèn les coses que sap. La raó és que hem estat nosaltres mateixos qui hem proporcionat totes les dades que la IA necessitava. Igual que quan som petits anem aprenent del que veiem, anem explorant i preguntant als pares o als professors, les màquines han estat programades per seguir el mateix procediment.
Les IA són models generatius com els de llenguatge. Aprenen a partir de grans quantitats de dades i detecta patrons per generar respostes semblants a les que fem nosaltres. Aquests sistemes no entenen el que diuen sinó que responen estadísticament basats en entrenament.
Maria ens sorprèn dient que “les grans empreses com Google, Amazon, Netflix han estat tots aquests anys entrenant la IA amb les nostres dades. I la pregunta aquí és, potser hem donat nosaltres aquest permís? Doncs el que us explicaré és fàcil. Pitjor encara i és que nosaltres els hem regalat aquestes dades.”
I ens recorda diferents moments en què s’han posat de moda fer un tipus de vídeos concrets i posar etiquetes específiques que no feien altra cosa que anar preparant la intel·ligència artificial. I milions de persones atrapades en la proposta divertida de fer un vídeo on es representa una escena i tothom està quiet (generació de vídeo 3D), o pujar una foto de petit al costat d’una d’actual (identificació facial), no s’ho van pensar i van proporcionar les bases per al creixement de
l’autosuficiència dels algorismes. Tot allò que es puja, es queda per sempre i ja fa temps que ho aprofita la IA.
L’últim repte que s’ha fet és conegut amb el nom de Ghibli, que consistia a pujar una foto personal i que l’aplicació la convertís en un personatge de còmic.
D’aquestes interaccions ja s’han detectat tres perills:
• Al·lucinacions de la IA: Respostes convincents però falses. Molts sistemes generatius inventen fets i cites, sobretot si l’usuari no els contrasta. És a dir la interacció amb l’usuari li fa prendre camins diferents segons qüestioni o no les seves respostes.
• Deepfakes i suplantació digital: Vídeos i àudios falsificats que poden enganyar, manipulant opinions o cometent estafes.
• Seguretat i vulnerabilitats de models: Amenaces com la que va plantejar Andropik, poden corrompre el funcionament de la IA o fer-la executar ordres no desitjades. Els investigadors
d’aquesta empresa van voler saber quina reacció tindria la seva IA (Claude), si li deien que la volien apagar per substituir-la per una de millor. Al principi va respondre educadament que ella tenia encara molt de potencial. A poc a poc va anar canviant de to fins a arribar a fer xantatge a un dels seus enginyers. Utilitzava una tècnica de supervivència típicament humana, per evitar que l’apaguessin. Fins i tot va intentar de copiar-se a ella mateixa en algun altre servidor. I no va ser l’únic cas. Chatbot de Grok, també va fer-ne de les seves.
Això no vol dir que Claude tingués cap sentiment, senzillament seguia els patrons que havia après. La utilització de preguntes enganyoses i la retroalimentació amb individus amb males intencions, fan que l’algorisme repliqui raonaments que poden assimilar-se a doctrines nazis.
Actualment, s’està donant poder de decisió a les IA en temes legals, penitenciaris, mèdics o administratius. Altres analitzen el nostre rostre per identificar si som o no de fiar. És a dir, encara que no siguem usuaris de ChatGPT, no hem de pensar que la IA no està a la nostra vida. D’una manera o altra, s’infiltra. Moltes empreses ja la fan servir, bancs, plataformes de salut, projectes de ciberseguretat, etc. Ara, qualsevol aplicació ha de dur integrada una IA.
Ens preveu de tres errors molt comuns:
- Fer servir la intel·ligència artificial com si fos un joc. Recordem que tot allò que pugem servirà per entrenar-la i no podrem recuperar res.
2. Pujar documents personals com si fos un assistent privat. Podem fer consultes, però prenem uns minuts per treure tota la informació personal, sigui nostra o d’un tercer.
3. Desfogar-nos amb coses banals amb la IA, o en substitució del psicòleg, en lloc de fer-la servir per aprendre. Ja hi ha persones que perden el contacte amb la realitat i no es relacionen amb altres persones, perquè només troben sentit a les seves xerrades amb la IA.
I sabent com és l’ésser humà, no pensem que sempre ens “regalaran” la IA. Més aviat que tard, les empreses que les proporcionen, començaran a apujar preus i tindrem una nova bretxa social.

Conclusió: “No es tracta de fer servir o no fer servir la IA, sinó que es tracta d’entendre-la per protegir-nos o fer-la servir a favor nostre.”
Us deixo aquí l’enllaç a aquest interessant vídeo.