ROBÒTICA
Societat 12/02/2017

I si al final la intel·ligència artificial es gira contra la humanitat?

El Parlament Europeu alerta dels perills dels robots i reclama un codi ètic per a fabricants

Laia Forès
3 min
I si al final la intel·ligència artificial es gira contra la humanitat?

Brussel·lesPotser el text del reportatge que esteu llegint en aquest moment l’ha escrit un robot i no una periodista de carn i ossos. Les màquines que escriuen notícies pocs minuts després d’haver-se produït un fet noticiable ja són una realitat. Encara no són prou creatius, però ho podran ser d’aquí 30 anys. Potser menys. La revolució tecnològica dels robots avança a passos de gegant i està transformant el nostre entorn amb vehicles sense conductor, drons que sobrevolen les ciutats i robots quirúrgics, per posar alguns exemples.

El futur de la intel·ligència artificial és encara més ambiciós. Els robots capaços de pensar per ells mateixos, captar les emocions i, en definitiva, actuar gairebé com una persona podrien deixar de ser ciència-ficció d’aquí unes quantes dècades. La literatura i el cinema sempre hi han somiat, però en un futur ja no tan llunyà els replicants imaginats per Philip K. Dick -portats a la gran pantalla per Ridley Scott en la mítica Blade runner - poden ser una realitat.

“Tot està evolucionant ràpid. Hi ha gent que pensa que els robots ja poden fer tot el que fa una persona. I no, encara no poden. Però ens hem de preparar per al dia que sí que ho puguin fer”, assegura Tony Belpaeme, professor de robòtica de la Universitat de Plymouth.

Sense legislació comunitària

Davant la manca de legislació europea en matèria d’intel·ligència artificial, el Parlament Europeu ha alertat dels perills d’aquest buit legal. Els eurodiputats tenen previst aprovar dijous un informe en què demanen a la Comissió Europea (CE) que impulsi una normativa per a la indústria robòtica i que es creï una agència europea d’intel·ligència artificial. “La revolució tecnològica és més ràpida del que ens imaginàvem quan va començar. Per això demanem a la CE que llanci un debat per preparar-nos per a un futur en què els robots seran més independents i intel·ligents”, explica l’eurodiputada socialista Mady Delvaux, artífex de la iniciativa. “Demà no tindrem aquí els robots superintel·ligents, però en 20 anys sí que serà així”, afirma.

L’esborrany de l’informe que es votarà adverteix que la revolució tecnològica comporta riscos per a la seguretat de les persones i cal posar fil a l’agulla per minimitzar els perills d’una indústria que pot ser utilitzada per a moltes finalitats que augmentin la qualitat de vida de les persones però també amb finalitats delictives. Si s’aprova l’informe, el Parlament Europeu reclamarà un codi ètic per als fabricants, una mena de llei de la robòtica que Isaac Asimov va elaborar el 1942 i que prohibeix als robots fer mal als homes i desobeir les seves ordres. L’Eurocambra proposa una llei de la robòtica adaptada a la realitat del segle XXI -inclou també normes socials, mediambientals i de responsabilitat civil- però mantenint l’objectiu: evitar que els robots intel·ligents es girin contra la humanitat.

L’esborrany del text que votarà el ple de l’Eurocambra dijous adverteix de la possibilitat que, “a llarg termini”, la intel·ligència artificial “arribi a superar la capacitat intel·lectual humana” i del perill que els robots puguin aprendre de manera autònoma i “interactuar amb el seu entorn d’una manera imprevisible”.

El document recull la teoria de referents de la ciència o la tecnologia com el fundador de Microsoft, Bill Gates, i el físic Stephen Hawking, personalitats convençudes del perill de d’ensenyar a les màquines a pensar. “El desenvolupament de la intel·ligència artificial completa pot significar la fi de l’espècie humana”, deia Hawking fa dos anys. Per a Bill Gates, el desenvolupament de la intel·ligència artificial sense control “és prou potent per ser preocupant”.

Robòtica i filosofia

El professor de robòtica Tony Belpaeme és favorable a una regulació, però considera que hi ha aspectes enormement complexos. Balpaeme creu que per evitar que els robots es girin en contra no és tan fàcil com copiar les lleis d’Asimov. “Sovint s’ha pensat que amb aquestes lleis n’hi ha prou per protegir-nos de les conseqüències negatives dels robots, però no. La qüestió és complexa: ¿com sap un robot si les seves accions poden causar danys? És molt difícil de definir. No podem calcular totes les hipotètiques conseqüències”, assegura l’expert.

Per explicar la dificultat de tot plegat, Belpaeme posa l’exemple d’un vehicle sense conductor que circuli per una ciutat. Un nen creua de sobte el carrer i el cotxe no té temps de frenar. L’única opció que té per no atropellar-lo es fer un cop de volant a la dreta. Però si el fa, toparà contra un altre vehicle amb tres ocupants de mitjana edat, que podrien quedar greument ferits o fins i tot morir en l’impacte. Què ha de fer la màquina? ¿El fabricant l’ha de programar per fer què, en un cas així? “Això és un dilema ètic al qual les lleis d’Asimov tampoc responen. Els problemes ètics ara mateix són fonamentals en la robòtica”, assegura el professor de la Universitat de Plymouth.

stats