El sector de la intel·ligència artificial es mobilitza contra les armes autònomes

L’organització Future of Life Institute (FLI) ha aconseguit el compromís d’investigadors, experts i empreses per no construir armes autònomes de guerra. Entre ells es troben firmes com Google DeepMind o personalitats com Elon Musk.

double exposure image of virtual human on world map 3dillustration

double exposure image of virtual human 3dillustration on world map and learning technology background represent learning process.

Des que la intel·ligència artificial va començar a prendre forma com a ciència -fa aproximadament 60 anys- les implicacions ètiques i fins i tot legals han estat sempre una constant. Això sí, més afavorides per visions i relats futuristes que pel que en realitat podia mostrar de cara a la societat. Però ara, que vivim ja en una fase d’implementació -encara que sigui força inicial comparat amb el que pot arribar a realitzar-se en societats i empreses, els grups d’experts i de treball s’han posat mans a l’obra per fomentar un bon ús i moral de la intel·ligència artificial.

Clar exemple d’això és l’organització Future of Life Institute (FLI) que ha aconseguit el compromís d’investigadors, experts i empreses per no construir armes autònomes de guerra. De les 160 companyies i organitzacions signants de 36 països diferents i els 2.400 experts de 90 geografies es troben gegants com Google DeepMind, l’Associació Europea d’AI (EurAI) o personalitats com Elon Musk.

Aquest acord ha estat anunciat per Max Tegmark, president de la (FLI) en el marc de la Conferència Anual Internacional Conjunta sobre Intel·ligència Artificial (IJCAI) que ha portat a més de 5.000 persones a Estocolm (Suècia) durant aquesta setmana. Durant el seu discurs, va advertir dels perills que tanquen els sistemes d’armes autònomes que poden identificar, apuntar i matar a qualsevol sense necessitat que hi hagi una supervisió humana. “La veritat és que la intel·ligència artificial ja està a punt per a exercir un paper cada vegada més important en els exèrcits i sistemes militars“, ha exposat. “I en paral·lel ha sorgit la necessitat i l’oportunitat perquè ciutadans, legisladors i líders de tot el món distingeixin entre els usos acceptables i intolerables d’aquesta tecnologia“.

Una altra de les preocupacions que es van mostrar durant l’esdeveniment va ser la de la possibilitat que aquestes màquines siguin piratejats o acabin en el mercat negre i acabin en mans de bandes de delinqüents. “No podem atorgar la decisió sobre qui viu o qui mor a les màquines. No tenen l’ètica per fer-ho“, ha afirmat Toby Walhs, professor d’intel·ligència artificial de la Universitat de Nova Gal·les del Sud, a Sydney (Austràlia).

ComputerWorld

Deixa un comentari