Adimen Artifizialaren Etika Europan

22/07/2021 24

Duela gutxi, Adimen Artifizialak (IA) lagundu egin dezake pandemian, horren iragarpenean eta jarraipenean adibide ugari emanez. Ikusmen-urritasuna duten pertsonen bizitza hobetzen nola lagun dezakeen ere ikusi dugu, Microsoft-en SeeingAI bezalako aplikazioen bidez, edo pertsona gorren aliatu handi bat izan daitekeen.

AA, gainera, eskola-jazarpenari aurrea hartzeko erabili da, WatsomApp startup-ak Espainian egiten duen bezala, eta, tumoreak modu eraginkorragoan atzematen laguntzeko, auto autonomoaren garapenean edo nekazaritza iraunkorrean laguntzeko, IoT-rekin konbinatuta, medikuntza-aplikazioetan erabiltzen diren hainbat adibide daude.

Azken batean, AA funtsezko teknologia bihurtu da hainbat industriatan, hala nola osasunean, bankuetan, fabrikazioan edo merkataritzan, eta aliatu handia da pertsonentzat. Mundu osoan EIn egingo den gastua aurten 50 bilioi dolarretik gorakoa izatea eta 2024an 110 bilioi izatea espero da, IDCren arabera. Gainera, txosten horrek azpimarratzen du hurrengo hamarkadan eragin handiena izango duen teknologia disruptiboa izango dela, eta negozio-ereduak aldatuko dituena arinagoak, berritzaileagoak eta eraginkorragoak izango dela.

Zalantzarik gabe, adimen artifizialeko sistemek gizarteari ekar diezazkioketen onurak oso garrantzitsuak dira, baina horiek erabiltzeak dakartzan erronkak ere garrantzitsuak dira. Ez da egun bat igaro inpaktu sozialari edo IAren ondorio etikoei buruzko berri garrantzitsurik izan gabe.

Adimen Artifiziala funtsezko teknologia bihurtu da hainbat industriatan.

Segur aski, guztiok gogoratuko dugu Microsoft-ek Tai txatbot bat argitaratu zuenean hodeian entrenatzeko, eta hura erretiratu zenean, hitz iraingarriekin entrenatu baitzuten. Oso ezaguna da, halaber, Amazonen adibidea. Kontratatu beharreko hautagaiak aukeratzeko algoritmoak gizon gehiago aukeratzen zituen emakumezkoak baino, entrenamendu desegokia zela eta.

Gainera, deep learning (defakes) bidez sortu eta benetakoak diruditen pertsonekin bideoak ikusi ditugu, algoritmo batek beste asko konbinatuz sortutako albiste faltsuak, eta oso ezaguna da Compas aplikazioak Estatu Batuetako justizia-sisteman duen joera.

La importancia de la ética en la inteligencia artificial | Transformación  Digital | Tecnología | EL PAÍS

Horiek dira, besteak beste, AA erabiltzeak izan ditzakeen ondorio etikoak zalantzan jartzen gaituzten adibide ugarietako batzuk. Teknologia horren fabrikatzaileen erantzukizuna ez ezik, teknologia hori erabiltzen duten enpresena ere bada. Azken urteotan horri buruzko gogoeta, artikulu zientifiko eta ekimen ugari sortu dira.

Alde batetik, Amazon, IBM edo Google bezalako fabrikatzaileek duela urte batzuk hasi ziren beren AA printzipioak enuntziatzen, eta gauza komunak dituzte, hala nola AA gizartea hobetzeko erabiltzea, pribatutasuna errespetatzea, gardentasuna, azalgarritasuna eta erantzukizuna, besteak beste. Aldi berean, behatoki ugari sortu dira eta sortzen jarraitzen dute, IAren garapen etikoaren garrantzia nabarmentzeko: Partnership on AI, AI Now Institute, The Institute for Ethical AI and Machine Learning, besteak beste, Odiseia eta WetheHuman.

Horien guztien helburua da gizartea sentsibilizatzea, enpresen, gobernuaren eta herritarren arteko zubi-lana egitea adimen artifizialaren erabilera etikorako. Argi dago gizarte osoa kezkatzen duen erronka dela, eta, nahiz eta AA ekoizten duten enpresa gehienak amerikarrak izan, Europa da, bitxia bada ere, aitzindari eremu horretako ekintzetan.

Lehenik eta behin, Europak jada ezarri zuen datu-babesari buruzko araudi zehatza (DBEO), 2018ko maiatzetik indarrean dagoena, eta, ikusi dugunez, datuak funtsezkoak dira IA modu etikoan erabiltzeko. Bigarrenik, Europatik aditu-batzorde bat ere sortu da (HLEG AI), IAren garapenaren etika ikuspegi guztietatik aztertzeko (ekonomikoa eta soziala), eta horri buruzko gomendioak eta legeria sortu dira. Hori izan da aurtengo apirilean iragarritako erregulazio berriaren oinarria.

Europako araudi berria estatu kide guztiei aplikatuko zaie, eta arriskuen azterketan oinarrituta dago. Lehenik eta behin, arrisku onartezinak debeku dira pertsonen segurtasuna edo bizitza arriskuan jartzen duten aplikazio motak, baita pertsonen eskubideak ere (adib. indarkeria sustatuko duen ahots-laguntzailea).

Bigarrenik, arrisku handikoak, besteak beste, azpiegitura kritikoak, hezkuntza, enplegua, funtsezko zerbitzu publiko eta pribatuak, legeen aplikazioa, justizia-administrazioa eta abar. Aplikazio-mota horietan, merkatura atera baino lehen, arriskuak kontrolatzeko betebehar zorrotza egongo da; esaterako, erabilitako datuek estandar oso zehatzak bete beharko dituzte, sistemak nola gauzatzen diren zehatz-mehatz dokumentatu beharko dute, eta erabiltzaileari informazio zehatza eman beharko diote, besteak beste.

Mota horretako adibide batzuk dira kontratazioko aplikazioei, kirurgia lagunduari, ikasleen hautaketari edo kredituak emateko aplikazio batzuei dagozkien guztiak. Bereziki, identifikazio biometrikoko sistema guztiak arrisku handiko aplikaziotzat hartzen dira, eta arestian aipatutakoen moduko eskakizun zorrotzak dituzte. Badira salbuespen batzuk, hala nola adingabeen bilaketa edo eraso terrorista baten prebentzioa.

Hirugarrenik, arrisku mugatukotzat jotzen direnak, gardentasuna eskatzen dutenak, hau da, erabiltzaileak erabakiak zein irizpideren arabera hartzen diren jakitea. Kategoria horretan sar litezke chatbot-ak, adibidez, erabiltzaileari pertsona batekin hitz egiten ez duela jakinarazteko.

Azkenik, arrisku txikienekoak, baldintza gutxiago behar dituzten bideo-jokoak edo spam-iragazkiak dituztenak. Egia da arriskuak sailkatzen eta arintzen jarraitu behar dela, baina oso hasiera garrantzitsua da.

Dudarik gabe, asko dago egiteko arlo horretan, eta ez da lehen aldia aurrerapen teknologikoak erronka etiko garrantzitsuak aurkezten dituela, baina inoiz ez halako garrantzia dutenak eta gizarte osoari eragiten diotenak. Europa aurrekari bat ezartzen ari da, eta baliteke beste geografia batzuk ere horretan hastea.