P:
Com planteja el robot "Sophia" de l'Aràbia Saudita temibles noves qüestions de ciberseguretat?
R:Una de les noves tecnologies d’intel·ligència artificial més calentes és un robot realitzat per semblar i actuar com una dona.
El seu nom és Sophia i està produït per Hanson Robotics, una empresa amb seu a Hong Kong. Per què és la seva robot d’Aràbia Saudita? Perquè aquest estat del Golf ha donat a Sophia un dret humà clau: el dret de ciutadania.
Això fa que hi hagi molts titulars i desencadenant tot tipus de debats sobre la rapidesa que passa la intel·ligència artificial i per què ens hauria d’importar. Un dels grans problemes és la ciberseguretat: com s’adaptarà el camp de la ciberseguretat a aquest tipus de noves tecnologies?
Sophia i tecnologies similars plantegen problemes clau de ciberseguretat que no havíem tractat anteriorment. A continuació, es detallen algunes de les coses que han de pensar professionals i experts a mesura que s’exposen en robots que semblen, parlen i actuen com nosaltres.
En general, la nova interfície robòtica realista és més sofisticada que la que ens havíem acostumat en el passat, i això significa una sèrie de nous problemes de ciberseguretat. Al món de la tecnologia, la gent parla de tenir una “superfície d’atac prim”, per exemple, en una configuració d’hipervisor o integrada en seguretat del servidor. Un robot que camina, parlant, d’altra banda, és una superfície d’atac molt gruixuda: perquè les interfícies són sofisticades, hi ha moltes maneres per a que els pirates informàtics i els actors dolents exploten les vulnerabilitats.
Un tipus molt específic de problema de ciberseguretat es barreja amb una varietat de qüestions socials: es podria anomenar el "síndrome impostor", tot i que aquest terme s'ha utilitzat popularment per descriure el funcionament brillant dels científics de dades il·legítimes.
Sigui com ho anomenis, el problema és que, ja que la intel·ligència artificial imita a humans particulars amb majors èxits, serà més difícil assegurar-nos que no estem sotmesos a enganys extremadament elaborats que ens fan qüestionar la veritat. Ja podeu veure exemples de persones que utilitzen noves tecnologies per imitar polítics famosos com en aquest vídeo de Barack Obama amb el còmic Jordan Peele. El problema de l’impostor només creixerà i s’ampliarà a mesura que la intel·ligència artificial ens doni noves finestres cap a pensaments i comportaments humans d’enginyeria inversa.
A més, en general, aquestes noves interfícies i capacitats augmentaran la cursa d'armes que ja es troba entre els professionals de la seguretat i els hackers. James Maude escriu sobre això en un article sobre Xconomy, anomenant AI com a "espasa de doble tall" per al cibersec i assenyalant que, en general, atacar és menys costós que defensar i notar les preocupacions sobre privadesa i seguretat. Extrapoleu alguns d’aquests arguments al robot AI, i podreu veure com amb força i capacitat es presenta perill i una necessitat de disciplina.
Un altre dels grans problemes amb Sophia i robots mòbils és que estan en moviment.
Ens hem acostumat a tecnologies com el Watson d’IBM que fan un treball cognitiu d’alt nivell molt elevat mentre estem asseguts en un centre de dades o en alguna estructura de maquinari estacionària. Això és el que estem acostumats: des dels primers gràfics fins als portàtils actuals, tots hem estat utilitzant maquinari estacionari. Ara tenim telèfons mòbils, però realment són ordinadors de butxaca. Els ordinadors de robòtica sentient són sorprenentment diferents. Són peces mòbils autònomes que poden ser armades per part maliciosa. Un article de Reuters que analitza la velocitat de fer front als problemes de ciberseguretat dels robots mostra com, per exemple, els robots podrien fer-se "caure" o moure's ràpidament i de manera inadequada per provocar danys.
Al final, Sophia i robots com ella plantegen una gran quantitat de problemes de ciberseguretat i altres preocupacions. Com distingirem l’activitat legítima de l’activitat enganyosa i il·legítima quan la interfície no sigui una xarxa connectada digitalment, sinó un maquinari mòbil que ens pugui enganyar a pensar que actua de manera humana? Creuar aquest pont requerirà una gran quantitat de treballs ètics i tecnològics per assegurar-nos que els humans conserven les regnes i que utilitzem aquestes tecnologies molt potents per al bé cívic.