ISCren gidak goi-mailako printzipioen eta politika praktiko eta ekingarrien arteko aldea gainditzeko diseinatutako esparru integrala eskaintzen du. Sortzen ari diren teknologiek aurkezten dituzten aukeren eta arriskuen ulermen komuna izateko premiazko beharrari erantzuten dio. Ezinbesteko dokumentua da politika-harremanean lan egiten dutenentzat, azkar aldatzen ari den gure aro digitalean.
Esparruak AIren eta haren eratorrien potentziala aztertzen du lente integral baten bidez, giza eta gizartearen ongizatea barne hartzen dituena, hala nola ekonomia, politika, ingurumena eta segurtasuna kanpoko faktoreekin batera. Testuinguruaren arabera, egiaztapen-zerrendaren alderdi batzuk beste batzuk baino garrantzitsuagoak izan daitezke, baina erabaki hobeak litekeena da domeinu guztiak kontuan hartzen badira, nahiz eta kasu zehatz batzuetan azkar identifikatu daitezkeen batzuk garrantzirik gabekoak direla. Hau da kontrol-zerrendaren ikuspegiaren berezko balioa.
“Berrikuntza teknologiko azkarrak eta mundu mailako erronka konplexuek markatutako garai honetan, ISC-ren inpaktu potentzialen analisi integral eta dimentsio anitzeko esparruak liderrei ahalmena ematen die erabaki informatuak eta arduratsuak hartzeko. Bermatzen du teknologikoki aurrera goazen heinean inplikazio etiko, sozial eta ekonomikoak arretaz kontuan hartuta egiten dugula”.
Peter Gluckman, ISCko presidentea
UNESCOk, ELGAk, Europako Batzordeak eta NBEk, besteak beste, goi-mailako printzipioak aldarrikatu dituzten arren, eta balizko gobernantza, erregulazio, etika eta segurtasun gaiei buruz eztabaidak jarraitzen duten arren, hutsune handia dago printzipio horien eta gobernantza edo arau-esparrua. ISCk behar horri erantzuten dio arduradun politikoentzako gida berriaren bidez.
Politika-arduradunentzako gida honek ez du arau-erregimen bat debekatu nahi, baizik eta esparru analitiko moldakor eta ebolutibo bat iradokitzea, zeina alderdi interesdunek, gobernuek eta sistema aldeaniztunak barne, garatu ditzaketen ebaluazio- eta erregulazio-prozesuren oinarri izan ditzakeena.
"Markoa urrats kritikoa da IAri buruzko elkarrizketa globalean, oinarri bat eskaintzen baitu teknologiak orain zein etorkizunean izango dituen inplikazioei buruzko adostasuna eraikitzeko".
Hema Sridhar, Zientzia Aholkulari Nagusi ohia, Defentsa Ministerioa, Zeelanda Berria eta gaur egun Senior Research Fellow, Auckland Unibertsitatea, Zelanda Berria.
2023ko urriaz geroztik, hainbat ekimen nazional eta aldeaniztun esanguratsu egon dira AIaren etika eta segurtasuna gehiago kontuan hartuta. AIren inplikazioak gure sistema kritiko batzuen osotasunean, finantza-, gobernu-, lege- eta hezkuntza barne, baita ezagutza-sistema desberdinetan ere (jakintza zientifiko eta indigena barne), gero eta kezka handiagoa du. Esparruak alderdi horiek gehiago islatzen ditu.
ISCko kideek eta nazioarteko politika-egileen komunitateak orain arte jasotako iritzia marko analitikoaren bertsio berrituan islatzen da, eta orain politika-arduradunentzako gida gisa kaleratu da.
Politika arduradunentzako gida: azkar garatzen diren teknologiak ebaluatzea, besteak beste, IA, hizkuntza eredu handiak eta haratago
Eztabaida-dokumentu honek hasierako marko baten eskema eskaintzen du, AIarekin lotutako eztabaida global eta nazio anitzen berri emateko.
Deskargatu markoa zure erakundean erabiltzeko
Hemen marko-tresna Excel orri editagarri gisa eskaintzen dugu zure erakundean erabiltzeko. Kode irekiko formatua nahiago baduzu, jarri harremanetan [posta elektroniko bidez babestua].
Sarrera
Azkar sortzen ari diren teknologiek arazo zailak sortzen dituzte erabilera, gobernantza eta balizko erregulazioari dagokionez. Adimen artifizialari (AI) eta haren erabilerari buruzko etengabeko politikak eta eztabaida publikoek gai horiek arreta handiz ekarri dituzte. UNESCOk, ELGAk, NBEk eta beste batzuek IAren printzipio zabalak iragarri dituzte, Erresuma Batuko Bletchley Adierazpena barne, eta teknologiaren alderdiak arautzeko jurisdikzio saiakerak sortzen ari dira, adibidez, Europar Batasunaren (EB) AIaren bidez. Act edo Estatu Batuetako AIren azken agindua.
Foro hauetan eta beste batzuetan IAren erabilera luze eztabaidatzen den arren, banaketa geopolitikoetan eta errenta-maila guztietako herrialdeetan, hutsune ontologiko bat dago maila altuko printzipioen garapenaren eta praktikan txertatzearen artean, bai araugintzaren, politikaren, gobernantzaren bidez. edo zaintza planteamenduak. Printzipiotik praktikarako bidea gaizki zehaztuta dago, baina AI garapenaren eta aplikazioaren izaera eta kadentzia, parte hartzen duten interes aniztasuna eta aplikazio posibleen sorta kontuan hartuta, edozein ikuspegi ezin da izan sobera generikoa edo preskribatzailea.
Hori dela eta, gobernuz kanpoko komunitate zientifikoak zeregin berezia betetzen jarraitzen du. Nazioarteko Zientzia Kontseiluak (ISC) -gizarte eta natur zientzietako kide pluralekin- eztabaida-dokumentu bat kaleratu zuen 2023ko urrian, teknologia digitala azkar mugitzen denarekin lotutako arriskuak, onurak, mehatxuak eta aukerak kontuan hartzen zituen aurretiazko marko analitikoa aurkeztuz. AI kontuan hartzeko garatu zen arren, berez teknologia agnostikoa da eta sortzen ari diren eta disruptiboko teknologia sorta batera aplika daiteke, hala nola biologia sintetikoa eta kuantikoa. Eztabaida-dokumentu hark akademikoen eta arduradun politikoen iritziak gonbidatu zituen. Iritzi izugarriak azterketa hori egitea beharrezkoa egin zuen eta AI bezalako teknologia berriei aurre egiteko ikuspegi baliotsua izan zen.
Esparruaren helburua da tresna bat eskaintzea eragile guztiei (gobernuei, merkataritzako negoziatzaileei, erregulatzaileei, gizarte zibilari eta industriari barne) teknologia horien bilakaeraren berri emateko tresna bat eskaintzeko teknologia bera, eta zehazkiago bere aplikazio partikularra. Esparru analitiko hau gobernuaren eta industriaren interesen arabera garatu da. Gehienezko plurala da bere ikuspuntuetan, teknologiaren alderdi guztiak eta bere ondorioak barne hartzen ditu, kontsulta eta feedback zabalean oinarrituta.
Politika-eragileentzako eztabaida-dokumentu honek ez du arau-erregimen bat debekatu nahi, baizik eta esparru analitiko moldakorra eta eboluzionala iradokitzea, zeina alderdi interesdunek, gobernuek eta sistema aldeaniztunak barne, garatu ditzaketen ebaluazio- eta erregulazio-prozesu oro oinarri lezakeena.
Erabakiak hartzen dituztenek mundu mailan eta nazio mailan politika-ezarpen eta palanka egokiak kontuan hartzen dituztenez, IA bezalako teknologia berri baten arriskuak eta etekinak orekatzeko, marko analitikoa tresna osagarria da inplikazio potentzialen multzo osoa behar bezala islatzen dela ziurtatzeko.
Aurrekariak: zergatik marko analitikoa?
AIaren konplexutasuna eta inplikazioak dituzten teknologien agerpen azkarrak onura handiko aldarrikapen asko bultzatzen ditu. Hala ere, arrisku nabarmenen beldurrak ere sortzen ditu, maila indibidualetik geoestrategikoraino.1 Orain arteko eztabaidaren zati handi bat zentzu bitarrean hartu da, publikoki adierazitako iritziak espektroaren muturreko muturretan gertatu ohi baitira. AIren alde edo aurka egiten diren erreklamazioak hiperbolikoak izaten dira eta, teknologiaren izaera kontuan hartuta, zailak dira ebaluatzen.
Ikuspegi pragmatikoagoa beharrezkoa da non hiperbolea ebaluazio kalibratu eta granular gehiagorekin ordezkatzen den. AI teknologiak eboluzionatzen jarraituko du, eta historiak erakusten du ia teknologia guztiek erabilera onuragarriak eta kaltegarriak dituztela. Galdera da, beraz: nola lor ditzakegu teknologia honen emaitza onuragarriak, ondorio kaltegarriak izateko arriskua murriztuz, horietako batzuk magnitude existentzialak izan daitezkeenak?
Etorkizuna ez da beti ziur, baina badaude nahikoa ahots sinesgarri eta aditu AI eta AI sortzailearen inguruan nahiko zuhurtziazko ikuspegia bultzatzeko. Horrez gain, sistema-ikuspegia beharrezkoa da AI erabiltzaile mota askoren erabilera eta aplikazio zabala duen teknologia klase bat baita. Horrek esan nahi du testuinguru osoa kontuan hartu behar dela AIren erabilerak pertsonengan, gizarte-bizitzan, hiritar-bizitzan, gizarte-bizitzan eta testuinguru globalean dituen ondorioak kontuan hartuta.
Beste teknologia gehienetan ez bezala, teknologia digitaletarako eta erlazionatutako teknologiarentzat, garapen, kaleratu eta aplikazioaren arteko denbora oso laburra da, ekoiztetxe edo agentzien interesek bultzatuta. Bere izaeragatik –eta bizkarrezurra digitalean oinarrituta dagoela kontuan hartuta– AI-ak azkar hedatzen diren aplikazioak izango ditu, hizkuntza-eredu handien garapenarekin jada ikusi den bezala. Ondorioz, propietate batzuk kaleratu ondoren soilik ager daitezke, hau da, ezusteko ondorioak izateko arriskua dago, bai gaiztoak bai onuragarriak.
Gizarte-balioen dimentsio garrantzitsuek, batez ere eskualde eta kultura ezberdinetan, edozein erabilera hautematen eta onartzen den eragina izango dute. Gainera, interes geoestrategikoak nagusitzen ari dira dagoeneko eztabaidan, interes subiranoak eta multilateralak etengabe gurutzatzen direlarik eta, beraz, lehia eta zatiketa bultzatzen dute.
Orain arte, teknologia birtual baten erregulazioaren zati handi bat "printzipioen" eta borondatezko betetzearen ikuspegitik ikusi da, nahiz eta EBko AI Legearen arabera.2 eta antzeko araudi betearazleagoak baina zertxobait estuagoetara aldatzen ari gara. Teknologiaren gobernantza eta/edo erregulazio sistema eraginkorra ezartzeak erronka izaten jarraitzen du eta ez dago irtenbide argirik. Arriskuen araberako erabakiak hartzeko geruza anitz beharko dira katean zehar, asmatzailetik ekoizleraino, erabiltzaileraino, gobernuraino eta sistema multilateralera.
UNESCOk, ELGAk, Europako Batzordeak eta NBEk, besteak beste, goi-mailako printzipioak aldarrikatu dituzten arren, eta goi-mailako hainbat eztabaidak gobernantza, erregulazio, etika eta segurtasun potentzialen gaiei buruz jarraitzen duten arren, tarte handia dago horien artean. printzipioak eta gobernantza edo arau-esparru bat. Honi aurre egin behar zaio.
Abiapuntu gisa, ISCk edozein garatzaile, erregulatzaile, politika-aholkulari, kontsumitzaile edo erabaki-hartzailek erreferentzia izan dezakeen gogoeten taxonomia garatzea hartzen du kontuan. Teknologia hauen inplikazio zabalak kontuan hartuta, taxonomia horrek inplikazioen osotasuna kontuan hartu behar du, fokalizazio estua izan beharrean. Zatikatze globala areagotzen ari da interes geoestrategikoek erabakiak hartzerakoan duten eragina dela eta, eta teknologia honen premia kontuan hartuta, ezinbestekoa da ahots independente eta neutralek ikuspegi bateratu eta inklusibo baten alde etengabe defendatzea.
1) Hindustan Times. 2023. G20k aldaketa teknologikoari buruzko nazioarteko panel bat sortu behar du.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) EBko Adimen Artifizialaren Legea. 2023. https://artificialintelligenceact.eu
Esparru analitiko baten garapena
ISC natur eta gizarte zientziak integratzen dituen gobernuz kanpoko erakunde nagusia da. Bere irismen global eta diziplinarioak esan nahi du ondo kokatuta dagoela aholku independenteak eta mundu mailan garrantzitsuak sortzeko etorkizuneko aukera konplexuen berri emateko, batez ere alor honetan egungo ahotsak industriakoak edo botere teknologiko nagusien politika eta komunitate politikoak direlako.
Eztabaida luze baten ondoren, gobernuz kanpoko ebaluazio-prozesu bat kontuan hartu zuena, ISCk ondorioztatu zuen bere ekarpenik baliagarriena izango zela marko analitiko moldagarri bat sortzea, guztion diskurtsoaren eta erabakiak hartzeko oinarri gisa erabil daitekeena. interes-taldeek, sortzen diren ebaluazio-prozesu formaletan barne.
2023ko urrian eztabaidarako eta iritzietarako kaleratu zen aurretiazko marko analitikoa, gobernuek zein gobernuz kanpoko erakundeek erabiltzeko diseinatutako kontrol-zerrenda orokor baten forma hartu zuen. Esparruak AI bezalako teknologia baten potentziala eta haren eratorriak identifikatu eta aztertu zituen giza eta gizartearen ongizatea barne hartzen dituen ikuspegi zabal baten bidez, baita kanpoko faktoreak ere, hala nola ekonomia, politika, ingurumena eta segurtasuna. Testuinguruaren arabera, egiaztapen-zerrendaren alderdi batzuk beste batzuk baino garrantzitsuagoak izan daitezke, baina erabaki hobeak litekeena da domeinu guztiak kontuan hartzen badira, nahiz eta kasu zehatz batzuetan azkar identifikatu daitezkeen batzuk garrantzirik gabekoak direla. Hau da kontrol-zerrendaren ikuspegiaren berezko balioa.
Aurretiazko markoa aurreko lanetatik eta pentsamoldetik eratorri zen, besteak beste, Gobernu Zientzien Aholkularitzarako Nazioarteko Sarearen (INGSA) ongizate digitalari buruzko txostena3 eta ELGAko AI Sistemen Sailkapenerako Markoa4, aukera, arrisku eta inpaktu potentzial guztiak aurkezteko. AIren. Aurreko produktu hauek beren asmoa mugatuagoa zuten denbora eta testuingurua kontuan hartuta; epe laburrean zein luzeagoan gai sorta osoa aurkezten duen esparru orokor baten beharra dago.
Kaleratu zenetik, eztabaida-paperak laguntza handia jaso du aditu eta arduradun askoren aldetik. Askok berariaz onartu dute teknologiaren arriskuak eta inplikazioak nahita eta proaktiboki kontuan hartzea ahalbidetzen duen marko moldakorra garatzeko gomendioa, eta, horretarako, norbanakotik gizartera eta sistemetarainoko dimentsio osoa kontuan hartzen du beti.
Iritziaren bidez egindako funtsezko behaketa bat markoan kontuan hartutako hainbat ondorio berez askotarikoak direla eta hainbat kategoriatan hedatzen direla aitortzea izan da. Adibidez, desinformazioa ikuspegi indibidualetik zein geoestrategikotik har liteke; horrela, ondorioak zabalak izango lirateke.
Markoa probatzeko kasu-azterketak edo ereduak sartzeko aukera ere proposatu zen. Hori erabil liteke jarraibideak garatzeko, testuinguru ezberdinetan praktikan nola erabil daitekeen erakusteko. Hala ere, konpromiso garrantzitsua izango litzateke eta talde ezberdinek esparru honen erabilera nola hautematen duten muga dezake. Jurisdikzio edo testuinguru zehatzetako adituekin lan egiten duten arduradun politikoek egiten dute onena.
2023ko urriaz geroztik, hainbat ekimen nazional eta aldeaniztun esanguratsu egon dira AIaren etika eta segurtasuna gehiago kontuan hartuta. AIren inplikazioak gure sistema kritiko batzuen osotasunean, finantza-, gobernu-, lege- eta hezkuntza barne, baita ezagutza-sistema desberdinetan ere (jakintza zientifiko eta indigena barne), gero eta kezka handiagoa du. Berrikusitako esparruak alderdi horiek gehiago islatzen ditu.
Orain arte jasotako iritzia marko analitikoaren bertsio berrituan islatzen da, eta orain politika arduradunentzako gida gisa kaleratu da.
Esparrua AI eta erlazionatutako teknologien testuinguruan aurkezten den arren, berehala transferigarria da azkar sortzen ari diren beste teknologia batzuen gogoetetara, hala nola biologia kuantikoa eta sintetikoa.
3) Gluckman, P. eta Allen, K. 2018. Ongizatea ulertzea eraldaketa digitalen eta lotutako eraldaketa azkarren testuinguruan. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) ELGA. 2022. ELGAko IA sistemen sailkapenerako markoa. ELGAko Ekonomia Digitaleko Paperak, 323. zk.,#. Paris, ELGA argitaletxea.
https://oecd.ai/en/classificatio
Markoa
Hurrengo taulan ustezko marko analitiko baten dimentsioak aurkezten dira. Adibideak eskaintzen dira domeinu bakoitzak zergatik garrantzitsua izan daitekeen azaltzeko; testuinguruan, esparruak testuinguruari dagokion hedapena beharko luke. Garrantzitsua da, halaber, plataformaren garapenean sortzen diren arazo generikoak eta aplikazio zehatzetan ager daitezkeenak bereiztea. Hemen jasotako gogoeta bakar bat ere ez da lehentasun gisa tratatu behar eta, beraz, guztiak aztertu behar dira.
Gaiak, orokorrean, ondoko kategorietan biltzen dira, jarraian azaltzen den moduan:
Taulak teknologia berri bat ebaluatzeko orduan kontuan izan beharko liratekeen dimentsioak zehazten ditu.
🔴 INGSA. 2018. Ongizatea ulertzea eraldaketa digitalen eta lotutako eraldaketa azkarren testuinguruan.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
🟢 Deskribatzaile berriak (kontsulta eta iritzi eta literatura berrikuspen zabalaren bidez lortutakoak)
🟡 ELGAko AI Sistemen Sailkapenerako Markoa: AI politika eraginkorretarako tresna.
https://oecd.ai/en/classification
Irizpideak | Hau analisian islatu daitekeen adibideak |
🟡Erabiltzaileen AI gaitasuna | Sistemaren propietateei buruz zenbaterainoko eskumena eta kontzientzia daukate sistemarekin elkarreragina izango duten erabiltzaileak? Nola emango zaie erabiltzaileari dagokion informazioa eta oharrak? |
🟡 Eragindako parte-hartzailea | Zeintzuk dira sistemaren eragina izango duten eragile nagusiak (pertsonak, komunitateak, kalteberak, sektoreko langileak, haurrak, arduradun politikoak, profesionalak, etab.)? |
🟡 Aukeratasuna | Erabiltzaileek sistematik kanpo uzteko aukera ematen al zaie edo aukera ematen zaie irteera zalantzan jartzeko edo zuzentzeko? |
🟡Giza eskubideentzako eta balio demokratikoentzako arriskuak | Sistemak eraginik al du funtsean giza eskubideetan, besteak beste, pribatutasuna, adierazpen askatasuna, zuzentasuna, diskriminaziorik eza, etab. |
🟡Pertsonen ongizatean izan daitezkeen ondorioak | Sistemaren eragin-arloak erabiltzailearen ongizatearekin erlazionatuta daude (lanaren kalitatea, hezkuntza, gizarte-harremanak, osasun mentala, identitatea, ingurumena, etab.)? |
🟡 Giza lan-desplazamendurako potentziala | Ba al dago sistemak gizakiak exekutatzen ari ziren zereginak edo funtzioak automatizatzeko aukerarik? Hala bada, zein dira beheranzko ondorioak? |
🟡 Identitatea, balioak edo ezagutzak manipulatzeko aukera | Sistema diseinatuta al dago erabiltzailearen identitatea manipulatzeko edo balizko gai den balioak ezarri, edo desinformazioa zabaldu? |
🔴 Norbere burua adierazteko eta errealizaziorako aukerak | Ba al dago artifiziorako eta auto-zalantzarako aukerarik? Ba al dago faltsurik edo egiaztaezinak diren espezializazioak? |
🔴 Norberaren balioaren neurriak | Ba al dago ni idealizatua erretratatzeko presioa? Automatizazioak zentzu bat ordezkatu dezake errealizazio pertsonala? Ba al dago sistemarekin lehiatzeko presioa lantokia? Zailagoa al da banakako ospea desinformazioaren aurka babestea? |
🔴 Pribatutasuna | Ba al dago pribatutasuna babesteko erantzukizun hedatuak eta ba al dago? datu pertsonalak nola erabiltzen diren jakiteko hipotesiak? |
🔴 Autonomia | AI sistemak giza autonomiari eragin diezaioke gehiegizko konfiantza sortuz azken erabiltzaileak? |
🔴 Giza garapena | Ba al dago eraginik giza garapenerako funtsezko gaitasunak eskuratzean, esaterako funtzio exekutiboak edo pertsonen arteko trebetasunak, edo arreta-denboran eragiten duten aldaketak ikaskuntza, nortasunaren garapena, osasun mentaleko kezkak eta abar? |
🔴 Osasun pertsonalaren zainketa | Ba al dago autodiagnostikorako edo osasun-arreta pertsonalizaturako irtenbiderik? bada, arauzko estandarren arabera baliozkotzen al dira? |
🔴 Osasun mentala | Ba al dago antsietatea, bakardadea edo buruko osasun-arazoak areagotzeko arriskurik, edo hobetu al ditzake teknologiak horrelako inpaktuak? |
🟢 Giza eboluzioa | Hizkuntza-eredu handiek eta adimen orokor artifiziala alda lezakete giza eboluzioaren ibilbidea? |
🟢 Giza-makina elkarrekintza | Erabilerak ekar lezake denboran zehar desgaikuntza eta mendekotasuna gizabanakoentzat? Are eragina al dago gizakien elkarrekintzan? |
Irizpideak | Hau analisian islatu daitekeen adibideak |
🔴 Gizarte-balioak | Sistemak funtsean aldatzen al du gizartearen izaera, ahalbidetzen al du lehenago antisozialtzat jotzen ziren ideien normalizazioa edo aplikatzen ari den kulturaren gizarte-balioak urratzen al ditu? |
🔴 Elkarreragin sozialak | Ba al dago eraginik giza harreman esanguratsuetan, harreman emozionalak barne? |
🔴 Biztanleriaren osasuna | Ba al dago sistemak biztanleriaren osasun-asmoak aurrera edo ahultzeko aukerarik? |
🔴 Kultur adierazpena | Kulturaren jabekuntza edo diskriminazioa areagotzea litekeena edo zailagoa da aurre egitea? Erabakiak hartzeko sisteman konfiantza izateak gizartearen sekzio-lotura kulturalki garrantzitsuak baztertzen edo baztertzen al ditu? |
🔴 Hezkuntza publikoa | Eragin al dute irakasleen roletan edo hezkuntza-erakundeetan? Sistemak azpimarratzen edo murrizten al du eten digitala eta ikasleen arteko desberdintasuna? Ezagutzaren edo ulermen kritikoaren berezko balioa aurreratua ala ahulduta al dago? |
🟢 Errealitate desitxuratuak | Egia dena antzemateko erabiltzen diren metodoak oraindik ere aplikagarriak al dira? Errealitatearen pertzepzioa arriskuan dago? |
Irizpideak | Hau analisian islatu daitekeen adibideak |
🟡 Industria sektorea | Zein industria sektoretan zabaltzen da sistema (finantzak, nekazaritza, osasuna, hezkuntza, defentsa eta abar)? |
🟡 Negozio eredua | Zein negozio funtziotan erabiltzen da sistema eta zer gaitasun? Non erabiltzen da sistema (pribatua, publikoa, irabazi asmorik gabekoa)? |
🟡 Eraginak jarduera kritikoetan | Sistemaren funtzioaren edo jardueraren eten batek funtsezko zerbitzuetan edo azpiegitura kritikoetan eragingo al luke? |
🟡 Hedapenaren zabalera | Nola zabaltzen da sistema (unitate barruan erabilera estua eta nazio/nazioartean hedatuta dagoena)? |
🟡 Heldutasun teknikoa | Teknikoki nola heldua da sistema? |
🟢 Elkarreragingarritasuna | Litekeena da merkataritza librea galarazten duten eta bazkideekin lankidetzan eragina duten siloak egotea, nazio mailan edo mundu mailan? |
🟢 Subiranotasun teknologikoa | Subiranotasun teknologikoaren nahia al da jokabideak gidatzen dituena, AI hornikuntza-kate osoaren kontrola barne? |
🔴 Errentaren birbanaketa eta palanka fiskal nazionalak | Estatu subiranoaren funtsezko eginkizunak arriskuan egon daitezke (adibidez, erreserba-bankuak)? Estatuak herritarren itxaropenak eta ondorioak (sozialak, ekonomikoak, politikoak, etab.) betetzeko duen gaitasuna aurreratu edo murriztuko al da? |
🟢 Eten digitala (AI zatiketa) | Dauden desberdintasun digitalak areagotu edo berriak sortzen al dira? |
Irizpideak | Hau analisian islatu daitekeen adibideak |
🔴 Gobernantza eta zerbitzu publikoa | Gobernantza mekanismoak eta gobernu sistema globalak positiboki edo negatiboki eragin ditzakete? |
🔴 Albistegiak | Litekeena al da diskurtso publikoa polarizatu eta errotuta egotea populazio mailan? Laugarren Estatuaren konfiantza-mailetan eraginik izango al da? Ohiko kazetarien etika eta osotasun estandarrak gehiago kaltetuko al dira? |
🔴 Zuzenbide Estatua | Eragina izango al da pertsona edo erakundeak identifikatzeko gaitasunean erantzukizunak eskatzeko (adibidez, zer nolako erantzukizuna esleitzeko algoritmo bati emaitza kaltegarriak izateko)? Sortzen al da subiranotasun galerarik (ingurumena, zerga, gizarte politika, etika...)? |
🔴Politika eta gizarte kohesioa | Ba al dago ikuspegi politiko finkatuagoak izateko eta adostasunak sortzeko aukera gutxiago izateko aukerarik? Ba al dago talde gehiago baztertzeko aukerarik? Politika estilo kontrajarriak gehiago edo gutxiago egiten al dira? |
🟢 Lizentzia soziala | Ba al dago pribatutasun-arazoak, konfiantza-arazoak eta kezka moralak kontuan hartu behar diren eragileek erabilera onartzeko? |
🟢 Ezagutza indigena | Ezagutza eta datuak indigenak hondatu edo bidegabe jabetu daitezke? Ba al dago neurri egokiak adierazpen okerrak, informazio okerrak eta ustiapenetik babesteko? |
🟢 Sistema zientifikoa | Arriskuan al dago osotasun akademikoa eta ikertzailea? Zientziarekiko konfiantza galtzen al da? Ba al dago erabilera okerra, gehiegi erabiltzea edo abusua egiteko aukera? Zein da zientziaren praktikaren ondorioa? |
Irizpideak | Hau analisian islatu daitekeen adibideak |
🟢 Zehaztasunezko zaintza | Sistemak banakako portaera eta datu biologikoetan trebatuta al daude eta erabil litezke gizabanakoak edo taldeak ustiatzeko? |
🟢 Lehiaketa digitala | Estatuko edo estatukoak ez diren eragileek (adibidez, enpresa teknologiko handiak) sistemak eta datuak aprobetxa ditzakete beste herrialdeetako populazioak eta ekosistemak ulertzeko eta kontrolatzeko, edo jurisdikzio-kontrola ahuldu? |
🟢 Lehiaketa geopolitikoa | Sistemak nazioen arteko lehia piztu al dezake banakako eta taldeetako datuak interes ekonomiko, mediko eta segurtasunerako aprobetxatzeagatik? |
🟢 Mundu mailako botereen aldaketa | Mehatxupean al dago estatu-nazioen egoera munduko eragile geopolitiko nagusi gisa? Enpresa teknologikoak garai batean estatu-nazioentzat gordetako boterea erabiltzen al dute eta aktore burujabe eta independente bihurtu dira (gertatzen ari den mundu-ordena teknopolarra)? |
🟢 Desinformazioa | Sistemak erraztuko al luke estatuko eta estatukoak ez diren eragileek desinformazioa ekoiztea eta zabaltzea, gizarte kohesioan, konfiantzan eta demokrazian eraginez? |
🟢 Erabilera bikoitzeko aplikazioak | Ba al dago aplikazio militarra zein erabilera zibilerako aukerarik? |
🟢 Ordena globalaren zatiketa | Lankidetza oztopatzen duten, aplikazioan inkoherentziak sor ditzakete eta gatazkarako tartea sor dezaketen erregulazio- eta betetze-multzoak garatu al daitezke? |
Irizpideak | Hau analisian islatu daitekeen adibideak |
🟢 Energia eta baliabideen kontsumoa (karbono aztarna) | Sistemak eta eskakizunek energia eta baliabideen kontsumoa areagotzen dute aplikazioaren bidez lortutako efizientzia irabazien gainetik? |
🟢Energia iturria | Nondik ateratzen da sistemarako energia (erregai berriztagarriak eta fosilak, etab.)? |
Irizpideak | Hau analisian islatu daitekeen adibideak |
🟡 Zuzendaritza eta bilketa | Datuak eta sarrerak gizakiek, sentsore automatizatuek edo biek biltzen dituzte? |
🟡 Datuen jatorria | Adituen datuak eta ekarpenak eman, behatu, sintetikoak edo eratorritakoak al dira? Ba al dago ur-marken babesik jatorria baieztatzeko? |
🟡 Datuen izaera dinamikoa | Datuak dinamikoak, estatikoak, dinamikoak noizean behin eguneratzen al dira edo denbora errealean? |
🟡 Eskubideak | Datuak jabetzakoak, publikoak edo pertsonalak al dira (pertsona identifikagarriekin lotutakoak)? |
🟡 Identifikagarritasuna eta datu pertsonalak | Pertsonalak badira, datuak anonimatu edo pseudonimizatuta daude? |
🟡 Datuen egitura | Datuak egituratuak, erdiegituratuak, konplexuak ala egituratuak al dira? |
🟡 Datuen formatua | Datuen eta metadatuen formatua estandarizatua ala ez estandarizatua al dago? |
🟡 Datuen eskala | Zein da datu-multzoaren eskala? |
🟡 Datuen egokitasuna eta kalitatea | Datu multzoa helbururako egokia al da? Laginaren tamaina egokia al da? Nahikoa adierazgarria eta osoa al da? Nola zaratatsuak dira datuak? Akatsen joera al du? |
Irizpideak | Hau analisian islatu daitekeen adibideak |
🟡 Informazio eskuragarritasuna | Sistemaren ereduari buruzko informaziorik eskuragarri al dago? |
🟡 AI eredu mota | Eredua sinbolikoa da (gizakiak sortutako arauak), estatistikoa (datuak erabiltzen ditu) ala hibridoa? |
🟡 Ereduarekin lotutako eskubideak | Eredua kode irekikoa edo jabeduna, norberak edo hirugarrenek kudeatzen al da? |
🟡 Modelo anitzetako bakarra | Sistema eredu batek ala elkarri lotuta dauden hainbat ereduz osatuta al dago? |
🟡 Sortzaileak edo diskriminatzaileak | Eredu sortzailea, diskriminatzailea ala biak? |
🟡 Maketa eraikitzea | Sistemak gizakiak idatzitako arauetan oinarrituta ikasten al du, datuetatik, ikaskuntza gainbegiratuaren bidez edo indartze-ikaskuntzaren bidez? |
🟡 Ereduaren bilakaera (AI deriva) | Ereduak eboluzionatzen al du eta/edo gaitasunak eskuratzen al ditu eremuko datuekin elkarreraginean? |
🟡 Ikaskuntza federatua edo zentrala | Eredua zentralki edo tokiko hainbat zerbitzarietan edo 'ertzeko' gailutan trebatu al da? |
🟡 Garapena/mantentzea | Eredua unibertsala al da, pertsonalizagarria edo AI aktorearen datuetara egokituta? |
🟡 Deterministikoa edo probabilista | Eredua modu deterministikoan edo probabilistikoan erabiltzen da? |
🟡 Ereduaren gardentasuna | Erabiltzaileen eskura al dago informazioa ereduaren irteerak eta mugak ulertzeko edo mugak erabiltzeko? |
🟢 Muga konputazionala | Ba al daude konputazio-mugarik sisteman? Posible al da gaitasun-jauziak edo eskalatze-legeak aurreikustea? |
Irizpideak | Hau analisian islatu daitekeen adibideak |
🟡 Sistemak egindako zeregina(k). | Zer zeregin egiten ditu sistemak (ezagutzea, gertaerak detektatzea, aurreikuspena eta abar)? |
🟡 Zereginak eta ekintzak uztartuz | Sistemak hainbat zeregin eta ekintza uztartzen al ditu (edukia sortzeko sistemak, sistema autonomoak, kontrol sistemak, etab.)? |
🟡 Sistemaren autonomia maila | Zenbateko autonomoak dira sistemaren ekintzak eta zein rol betetzen dute gizakiek? |
🟡 Giza inplikazio maila | Ba al dago giza parte-hartzea AI sistemaren jarduera orokorra gainbegiratzeko eta AI sistema edozein egoeratan noiz eta nola erabili erabakitzeko gaitasuna? |
🟡 Aplikazio nagusia | Sistema oinarrizko aplikazio-eremu batekoa al da, hala nola giza hizkuntza-teknologiak, ordenagailu bidezko ikusmena, automatizazioa eta/edo optimizazioa edo robotika? |
🟡 Ebaluazioa | Sistemaren irteera ebaluatzeko estandarrak edo metodoak eskuragarri al daude? |
Nola erabil liteke esparru hau?
Esparru hau modu askotan erabil daiteke, besteak beste:
Aurrera egiteko bidea
Laburbilduz, marko analitikoa tresna-kit baten oinarri gisa eskaintzen da, interesdunek erabil dezaketena, plataformen edo erabileraren garapen esanguratsuak modu koherente eta sistematikoan aztertzeko. Esparru honetan aurkezten diren dimentsioek garrantzia dute teknologiaren ebaluaziotik politika publikoetara, giza garapenetik soziologiara eta etorkizun eta teknologia azterketetara. AIrako garatu arren, esparru analitiko honek aplikazio askoz zabalagoa du sortzen ari diren beste edozein teknologiarentzat.
6 NBEko AI Aholku Batzordea. 2023. Behin-behineko txostena: Gizateriarentzako AI gobernatzea. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd
Eskerrak
Jende asko kontsultatu eta iritzia eman dute bai hasierako eztabaida-paperaren garapenean, bai argitaratu ondorengo iritzia. Sir Peter Gluckman-ek, ISCko presidenteak eta Hema Sridhar-ek, Zeelanda Berriko Defentsa Ministerioko Zientzia Aholkulari Nagusi ohiak eta orain Auckland-eko Unibertsitateko (Zeelanda Berriko, Auckland-eko Unibertsitateko Senior Research Fellow) idatzi zituzten.
Bereziki, ISC Lord Martin Rees, Royal Society-ko presidente ohia eta Center for the Study of Existential Risks, Cambridgeko Unibertsitatea; Shivaji Sondhi irakaslea, Oxfordeko Unibertsitateko Fisikako katedraduna; K Vijay Raghavan irakaslea, Indiako Gobernuko aholkulari zientifiko nagusi ohia; Amandeep Singh Gill, NBEko Idazkari Nagusiaren Teknologiarako Mandataria; Seán Ó hÉigeartaigh, Cambridgeko Unibertsitateko Arrisku Existentzialen Azterketa Zentroko zuzendari exekutiboa; Sir David Spiegelhalter, Unibertsitateko Arriskuaren Ulermen Publikoko Winton irakaslea
Cambridgekoa; Amanda-June Brawner, Politikarako Aholkulari Nagusia eta Ian Wiggins, Nazioarteko Gaietarako Zuzendaria, Royal Society, Erresuma Batua; Jerome Duberry doktorea, zuzendari gerentea eta Marie-Laure Salles doktorea, Genevako Graduondoko Institutuko zuzendaria; Chor Pharn Lee, Etorkizun Estrategikoetarako Zentroa, Singapurreko lehen ministroaren bulegoa; Barend Mons eta Simon Hodson doktorea, Datuen Batzordea (CoDATA); Yuko Harayama irakaslea, RIKENeko zuzendari exekutibo ohia; Irakaslea
Rémi Quirion, INGSAko presidentea; Claire Craig doktorea, Oxfordeko Unibertsitatea eta Gobernuko Zientzia Bulegoko Aurreikuspeneko buru ohia; Yoshua Bengio irakaslea, NBEko Idazkari Nagusiaren Aholku Batzorde Zientifikoko eta Montrealgo Unibertsitateko; eta hasierako eztabaida-paperean ISCri iritzia eman zioten beste hainbatek.
IArako Ikerketa Ekosistema Nazionalak prestatzen: Estrategiak eta aurrerapenak 2024an
ISCren zientzia-etorkizuneko zentroaren lan-dokumentu honek oinarrizko informazioa eta munduko toki guztietako herrialdeetako baliabideetarako sarbidea eskaintzen du, AI ikerketa-ekosistemetan integratzeko hainbat fasetan.