- Ang mga teknolohikal na pagkiling ay nagmumula sa hindi balanseng datos, malabong mga desisyon sa algorithm, at mga pagkiling ng tao na tumatagos sa buong siklo ng buhay ng AI.
- Pinag-iiba ng NIST ang mga komputasyonal, pantao, at sistematikong pagkiling, na nag-uugnayan at nagpapatibay sa isa't isa sa hindi pantay na kontekstong panlipunan.
- Ang mga totoong halimbawa sa pangangalagang pangkalusugan, hustisya, trabaho, at kredito ay nagpapakita ng konkretong pinsala at nagpapatibay sa pangangailangan para sa mga pag-awdit, pananagutan, at pangangasiwa ng tao.
- Ang regulasyon, edukasyon, at magkakaibang pangkat ay mahahalagang haligi para sa pagdidisenyo at pag-deploy ng mas patas at mas responsableng mga teknolohiya.
Nabubuhay tayo na napapaligiran ng mga algorithm: nagrerekomenda sila ng mga bagay-bagay sa atin. serye, mga kredito sa grant, mga resume na pansala at Mas inuuna nila ang mga balita sa social media.Madalas nating ipinapalagay na, dahil nagmumula ang mga ito sa isang kompyuter, ang mga desisyong ito ay mas obhetibo at patas kaysa sa mga ginagawa ng isang tao. Ngunit ang katotohanan ay mas hindi komportable: ang teknolohiya ay hindi rin neutral.
Kapag ang isang kompyuter o sistema artipisyal na katalinuhan Isinasama nito ang mga pagkiling; ang mga pagkakamaling ito ay hindi nananatili sa digital na mundo: isinasalin ang mga ito sa mga pinagkaitan ng pagkakataon, hindi gaanong tumpak na mga diagnosis, hindi pantay na pagsubaybay, o hindi patas na mga desisyon sa ekonomiyaAng pag-unawa sa kung saan nagmumula ang mga teknolohikal na bias na ito, kung paano ang mga ito inuuri, at kung anong pinsala ang dulot nito ay susi sa pagbuo at paggamit ng tunay na responsableng AI.
Ano ang mga teknolohikal na pagkiling at bakit hindi lamang ang mga ito ang mga "teknikal na aberya"?
Sa digital na larangan, pinag-uusapan natin ang bias kapag pinoproseso ng isang sistema ng computer ang impormasyon sa paraang... hindi pantay, sistematiko at mahuhulaanpinapaboran ang ilang grupo kaysa sa iba nang walang lehitimong dahilan. Hindi lamang ito mga nakahiwalay na pagkakamali, kundi mga paulit-ulit na padron sa mga resulta.
Ang mga teknolohikal na bias na ito ay maaaring lumitaw sa maraming antas: sa datos na ginagamit upang sanayin ang isang modelo, sa disenyo ng algorithm, sa kung paano minamarkahan ang mga halimbawa, sa mga sukatang pinili para sa pag-optimize, o kahit sa kung paano binibigyang-kahulugan ng mga tao ang mga output ng sistema. Sa huli, ang mga ito ay mga teknolohikal na bias. Sinasalamin at pinalalakas ng mga ito ang mga pagkiling ng tao, mga hindi pagkakapantay-pantay sa kasaysayan, at mga desisyon sa disenyo.
Isang karaniwang pagkakamali ang pag-aakalang ang mga kompyuter ay "hindi nagkakamali" dahil sinusunod nila ang mga tuntunin sa matematika. Sa likod ng bawat solusyon sa AI ay mayroong mga koponan na nagpapasya Anong datos ang gagamitin, aling mga baryabol ang mahalaga, paano susukatin ang tagumpay, at anong mga pagkakamali ang itinuturing na katanggap-tanggap. Kung ang mga pangkat na ito ay may parehong mga blind spot o gagawa gamit ang hindi kumpletong impormasyon, ang mga resultang sistema ay maaaring may depekto. lubos na hindi patas kahit na mahusay silang gumagana nang "teknikal".
Bias sa data ng pagsasanay: kapag ang problema ay nagmula sa database
Natututo ang mga sistema ng AI at machine learning mula sa mga halimbawa. Kung ang set ng data Kung ang paraan ng pagsasanay ay hindi balanse, mali ang pagkakalagay ng label, o may taglay na mga historical bias, matututunan ng modelo ang mga biased pattern na iyon na parang sila ang "normalidad" ng mundoDito nagmumula ang malaking bahagi ng problema.
Ang isang klasikong sanggunian ay ang bias sa representasyon: ang ilang grupo ay lumilitaw nang labis at ang iba ay halos hindi umiiral sa datos. Isang algorithm ng pagkilala sa mukha Dahil pangunahing sinanay sa mga larawan ng mga puting tao, ang AI ay may posibilidad na maging mahusay sa grupong iyon at makakagawa ng mas maraming pagkakamali sa mga Itim, Asyano, o iba pang mga indibidwal na minorya. Ganito rin ang totoo kung ang datos ng pulisya ay pangunahing nagmumula sa mga kapitbahayan na may lahi: Ipagpapalagay ng AI na mas mataas ang mga rate ng krimen doon, ngunit sa katotohanan ay mas malaki lamang ang presensya ng pulisya sa kasaysayan.
Mayroon ding kritikal na epekto kung paano nilalagay sa label ang datos. Kapag ang mga tao ay nagtatalaga ng mga kategorya, paglalarawan, o iskor, maaari silang magpakilala ng sarili nilang mga pagkiling. Mga kagamitan sa pagpili ng tauhan Ang mga nagmamarka sa ilang partikular na profile bilang mas "wasto" ay maaaring sinanay gamit ang mga label na nagbubukod, nang walang obhetibong dahilan, sa mga babae, matatanda, o mga kandidato mula sa ilang partikular na unibersidad o bansa.
Sa estadistika, pinag-uusapan natin ang bias kapag ang sample ay hindi tunay na kumakatawan sa populasyon na minomodelo. Ang resulta ay isang modelo na tila gumagana nang maayos sa datos ng pagsasanay, ngunit hindi maganda ang performance sa totoong mundo. Sistematikong pinapaboran nito ang ilang partikular na profile at pinaparusahan ang iba. na hindi gaanong representado o hindi mahusay na inilarawan sa orihinal na database.
Algorithmic bias: mga desisyon sa disenyo na nagpapalakas ng hindi pagkakapantay-pantay
Kahit na may mahusay na datos, ang disenyo ng algorithm ay maaaring magdulot ng bias. Pinag-uusapan natin ang algorithmic bias kapag, dahil sa paraan ng pagbuo ng modelo o sa mga patakarang inilalapat nito, ang mga bias ay paulit-ulit na nabubuo. hindi patas na mga resulta, may kinikilingang mga pagkakamali, o hindi katimbang na mga epekto tungkol sa ilang partikular na grupo.
Isang malinaw na halimbawa ang lumilitaw sa mga modelo na gumagamit ng tila neutral na mga baryabol, tulad ng postal code, antas ng kita, o ilang partikular na pattern ng pagkonsumo. Bagama't hindi direktang "nakikita" ng algorithm ang lahi o kasarian, ang mga baryabol na ito ay maaaring magsilbing mga proxy para sa mga sensitibong kategoryana nagpaparami ng mga pagkiling batay sa lahi, uri, o kasarian na hindi tahasang isinaad bilang kodigo.
Maaari ring makialam ang mga developer bias sa programming. Kung ang system designer ay magdesisyon, sinasadya man o hindi, na dapat bigyan ng mas malaking timbang ang ilang salik kaysa sa iba, maaaring inililipat nila ang sarili nilang mga bias. sariling may kinikilingang pananaw sa kung ano ang bumubuo ng "merito", "panganib" o "normalidad". Ang resulta: mga algorithm ng kredito na awtomatikong nagpaparusa sa mga indibidwal na may mababang kita, o mga sistema ng rekomendasyon na sistematikong nagpapatahimik sa ilang partikular na nilalaman o grupo.
Binibigyang-diin ng National Institute of Standards and Technology (NIST) na ang simpleng pagwawasto sa nakikita sa ibabaw (ang mga resulta ng sinanay nang modelo) ay ang manatili sa punta del icebergUpang matugunan nang mahigpit ang algorithmic bias, dapat suriin ang buong siklo ng disenyo, mula sa pagbuo ng problema hanggang sa mga sukatang ginamit upang masuri kung ang sistema ay katanggap-tanggap.
Mga bias ng tao at kognitibo: kung paano tayo nag-iisip ay tumatagos sa teknolohiya
Ang mga bias ay hindi ipinapanganak sa makina: ipinapanganak ang mga ito sa ating isipan. Tayong mga tao ay gumagamit ng mga shortcut sa pag-iisip, heuristics, at mga paunang paniniwala upang makagawa ng mabilis na mga desisyon sa isang masalimuot na mundo. Ang mga shortcut na ito ay lumilikha ng cognitive biases na, kapag nakikilahok tayo sa disenyo, pagsasanay o pangangasiwa ng mga sistema ng AI, ay nalilipat sa code at sa data.
Isa sa mga pinakakilala ay ang confirmation bias. May tendensiya tayong maghanap, magbigay-kahulugan, at matandaan ang impormasyong akma sa ating iniisip, binabalewala o minamaliit ang anumang sumasalungat sa atin. Kung naniniwala ang isang development team na ang isang partikular na pattern ay "normal," maaari silang pumili ng datos at mga sukatan na sumusuporta sa iyong hipotesishindi kasama ang mga kasong humahamon dito. Nakakaapekto ito kapwa sa pagpili ng mga baryabol at sa pagpapatunay ng modelo.
Isa pang klasikong halimbawa ay ang anchoring bias: binibigyan natin ng labis na bigat ang unang impormasyong natatanggap natin. Sa mga digital na konteksto, ang isang napakataas na paunang presyo ay maaaring magpamukhang isang "hindi mapaglabanan na alok" ang anumang kasunod na pagbaba ng presyo, kahit na hindi naman. Ganito rin ang nangyayari kapag ang isang AI system ay nagpapakita ng isang paunang rekomendasyon o hula: ang paunang output ay gumaganap bilang angkla para sa mga susunod na desisyon mula sa mga gumagamit, analyst, o mga tagapamahala ng negosyo.
Ang halo effect ay mahalaga rin: pinahahalagahan natin ang isang tao, produkto, o ideya batay sa isang kapansin-pansing katangian. Sa mga proseso ng awtomatikong pagpili, ang isang degree mula sa isang prestihiyosong unibersidad ay maaaring humantong sa isang algorithm, na sinanay batay sa makasaysayang datos, upang... sistematikong pinahahalagahan nang labis ang mga nagmumula sa mga sentrong iyon at minamaliit ang mga kandidatong may pantay o mas kwalipikadong antas mula sa mga institusyong hindi gaanong kilala.
Ang negatibidad na bias ay nangangahulugan na mas binibigyan natin ng pansin at mas binibigyang-halaga ang negatibong impormasyon. Sa mga modelo ng pagtuklas ng pandaraya o panganib, maaari itong maging mga algorithm na inuuna ang pag-iwas sa ilang partikular na error nang sa gayon ay mauwi ito sa pagbuo ng maraming maling positibopagpaparusa sa mga inosenteng tao dahil lamang sa istatistikal na pagkakahawig nila sa mga problematikong kaso mula sa nakaraan.
Ang lahat ng mga cognitive bias na ito ay ipinakikilala sa sistema sa maraming punto: kapag nagpapasya kung aling problema ang lulutasin, kapag nagdidisenyo ng arkitektura, kapag manu-manong naglalagay ng label sa datos, kapag pumipili ng mga loss function (na maaaring magdulot ng parusa sa ilang mga error nang higit kaysa sa iba), o kapag binibigyang-kahulugan ang mga resulta. Kaya naman iginiit ng NIST na mga salik na pantao, panlipunan at institusyonal Ang mga ito ay kasinghalaga ng pinagmumulan ng bias gaya ng datos o mga algorithm, at kadalasang nakaliligtaan.
Higit pa sa mga pagkakamali sa istatistika o kognitibo, may mga pagkiling na nakapaloob sa mismong istruktura ng lipunan: rasismo, sexism, hindi pagkakapantay-pantay ng uri, diskriminasyon laban sa ilang partikular na edad o pagkakakilanlan. Ang mga sistematikong pagkiling na ito ay hindi laging nagmumula sa mga malay na pagtatangi hindi ng mga partikular na indibidwal, kundi ng mga pamantayan, kasanayan, at institusyon na gumana sa loob ng mga dekada o siglo.
Kapag nangongolekta kami ng mga datos pangkasaysayan upang sanayin ang mga sistema ng AI, ang ginagawa namin ay binubuo ang hindi pantay na kasaysayan sa anyo ng mga numero at mga digital na tala. Ang mga algorithm na natututo mula sa datos na iyon ay nauuwi sa pagkopya ng "laging nangyayari": mas kaunting kababaihan sa mga posisyon sa pamumuno, mas maraming pag-aresto sa ilang mga kapitbahayan, mas kaunting access sa kredito para sa ilang mga komunidad. Ang AI, sa halip na itama ang kawalan ng katarungan, Pinatitibay nito ito sa pamamagitan ng pagpapakita ng pagiging obhetibo.
May ilang balangkas na nagpapakita ng pagkakaiba rito sa pagitan ng social bias at statistical bias. Ang social bias ay may kaugnayan sa mga prejudice, stereotype, at mga hilig na nakaugat sa isang kultura. Ang statistical bias ay lumilitaw kapag mayroong sistematikong pagkakaiba sa pagitan ng tinatantya ng datos at ang katotohanang sinasabing kinakatawan nilaParehong magkakaugnay: ang hindi balanseng datos ay kadalasang repleksyon ng numero ng isang dati nang umiiral na hindi pagkakapantay-pantay sa lipunan.
Nakakatulong din ang mga pamantayan, proseso, at kasanayan ng institusyon sa buong siklo ng buhay ng AI. Saklaw nito ang mga proyektong pinopondohan at kung aling mga sektor ang mas binibigyang pansin, hanggang sa kung paano ipinapatupad ang mga sistema sa mga negosyo at pampublikong administrasyon. Ang resulta ay ang mga sistematikong bias ay tumatagos sa mga dataset, sa mga modelo at sa paraan ng paggamit ng mga ito sa kalupaan.
Ang tipolohiya ng NIST: mga pagkiling sa komputasyon, pantao, at sistematiko
Ang NIST Special Publication 1270, na pinamagatang “Towards a Standard for Identifying and Managing Bias in Artificial Intelligence,” ay naging mahalagang sanggunian para sa pag-unawa sa paksang ito. Kinikilala ng dokumentong ito ang tatlong pangunahing kategorya ng bias sa AI: mga bias sa komputasyon o istatistika, mga bias ng tao, at mga sistematikong bias.
Ang mga computational bias ay ang mga direktang maaaring masukat sa pagganap ng isang sinanay na modelo ng AI: mga pagkakaiba sa mga rate ng error, mga marka, o mga resulta depende sa pangkat ng populasyon. Kabilang dito ang mga bagay tulad ng... bias sa pagpili ng datos (kapag ang set ng pagsasanay ay hindi tumpak na kumakatawan sa katotohanan) o algorithmic bias sa mahigpit na kahulugan (kapag ang paraan ng pagkalkula ay pinapaboran ang ilang mga resulta).
Saklaw ng mga pagkiling ng tao ang lahat ng mga pagkiling at sistematikong pagkakamali sa pag-iisip ng mga taong kasangkot sa siklo ng buhay ng AI. Kabilang dito ang mga cognitive bias na natalakay na (confirmation bias, anchoring bias, halo effect, negatibiti bias, atbp.), na nakakaapekto sa pagkolekta ng datos, paglalagay ng label, pagtatakda ng layunin, pagpili ng sukatan, at interpretasyon ng mga ulat na nabuo ng isang sistema.
Panghuli, ang mga sistematikong bias ay tumutukoy sa mga hindi pagkakapantay-pantay sa istruktura na nakaugat sa lipunan at mga institusyon nito. Ang mga bias na ito ay makikita sa mga makasaysayang datos, mga umiiral na regulasyon, at ang mga kasanayan sa organisasyon at sa mga insentibong pang-ekonomiya. Ang isang malinaw na halimbawa ay, kung sa loob ng mga dekada ay mas maraming tao mula sa isang partikular na minorya ang naaresto dahil sa mga diskriminasyong gawi ng pulisya, ang nagreresultang datos ay magiging sanhi ng paulit-ulit na pag-target ng isang sistema ng paghula ng krimen sa mga komunidad na iyon.
Itinatampok din ng NIST ang tatlong pangunahing hamon sa pagpapagaan ng mga bias na ito: pagpapabuti ng kalidad at pagkakaiba-iba ng mga dataset, pagbuo ng matatag na mga balangkas ng pagsubok at pagsusuri na kinabibilangan ng mga pamantayan sa pagiging patas, at direktang pagtugon sa mga salik ng tao at organisasyonpagsasama ng etika at superbisyon sa buong proseso.
Bias sa automation: labis na pag-asa sa makina
Bukod sa mga nabanggit nang bias, ang mga regulasyon sa Europa ay nakatuon sa isang lalong karaniwang penomeno: ang bias sa automation. Ang Regulasyon ng EU AI, sa Artikulo 14.4(b), ay tumutukoy sa panganib na maaaring may posibilidad na ang mga tao ay awtomatiko o labis na umaasa sa mga resultang nalilikha ng isang sistema ng AI, kahit na ang mga ito ay mali o may kinikilingan.
Ang automation bias na ito ay malapit na nauugnay sa confirmation bias at anchoring bias. Kung bulag tayong magtitiwala sa output ng isang sistema, mas malamang na maghanap tayo ng impormasyon na magpapatibay sa sinabi ng makina at kunin ang tugon na iyon bilang paunang sanggunian para sa lahat ng iba pa. Ang mga mungkahi ng AI ay nagiging isang "katotohanan bilang default" na siyang nagbubuo ng paghatol ng tao.
Kaya naman iginigiit ng mga regulasyon sa Europa ang pangangailangan para sa isang tao na palaging mangasiwa sa mga sistemang may mataas na panganib (halimbawa, iyong mga nakakaapekto sa mga pangunahing karapatan). Hindi ito tungkol sa pagkakaroon ng isang taong pumipindot ng buton sa dulo, kundi tungkol sa pagtiyak na kaya nilang... magbigay ng konteksto, kuwestiyunin ang awtomatikong desisyon at baligtarin ito kapag natukoy nito na hindi ito tugma sa realidad ng partikular na kaso.
Mga halimbawa sa totoong mundo ng mga teknolohikal na bias at ang kanilang mga kahihinatnan
Kapag ang mga teknolohikal na pagkiling ay lumitaw sa mga sistema sa totoong mundo, ang pinsala ay napaka-konkreto. Ang mga organisasyon ng lahat ng uri ay dumanas ng reputasyon at legal na dagok dahil sa hindi pag-antisipa sa mga sitwasyong ito, habang ang mga apektadong indibidwal ay maaaring hindi ko alam na isang hindi patas na desisyon ang ginawa ng isang algorithm.
Sa pangangalagang pangkalusugan, ang kakulangan ng representasyon ng mga kababaihan o mga minorya sa klinikal na datos ay humantong sa pag-aalok ng ilang diagnostic algorithm hindi gaanong tumpak na mga resulta para sa ilang partikular na grupoNaobserbahang mas mahina ang performance ng mga computer-assisted diagnostic support system sa mga pasyenteng Aprikano-Amerikano kaysa sa mga puting pasyente, na nagpapanatili sa mga umiiral na hindi pagkakapantay-pantay sa pangangalagang pangkalusugan.
Sa lugar ng trabaho, kinailangang ibasura ng isang malaking kumpanya ng teknolohiya ang isang sistema ng recruitment na nakabatay sa AI nang matuklasan nito na sistematiko nitong pinaparusahan ang mga kababaihan. Natuto ang algorithm mula sa kasaysayan ng pagkuha ng mga empleyado na karamihan ay mga lalaki, na humantong dito sa ang pabor ay nagpapatuloy na katulad ng sa mga lalaki na nasa kawani na at negatibong sinasala na ang mga palatandaan ng kasariang babae.
Isa pang halimbawa ay ang mga sistema ng pag-uuri ng panganib sa hustisyang kriminal, tulad ng COMPAS sa Estados Unidos, na inakusahan ng pagtatalaga ng mas mataas na antas ng panganib ng recidivism sa mga Itim kaysa sa mga puti sa mga katulad na sitwasyon. Bagama't ipinagtanggol ng mga provider ang kanilang teknolohiya, maraming independiyenteng pagsusuri ang nagbigay-diin [sa problema]. mga huwaran ng pagkakaiba-iba ng lahi.
Sa mundo ng computer vision, ang mga awtomatikong tool sa paglalagay ng label sa imahe ay umabot pa sa pag-uuri ng mga larawan ng mga Itim na tao gamit ang mga salitang lubhang nakakasakit, na nagpapakita ng kakulangan ng pagkakaiba-iba ng datos at kawalan ng mga kontrol sa kalidad at sensitibidad sa kultura. Ipinakita ng mga pag-aaral gamit ang mga image generator tulad ng Stable Diffusion o mga katulad na tool na kapag hiniling ang mga larawan ng mga partikular na propesyon, kadalasan ay lumalabas ang mga ito. mga puting lalaki bilang mga tagapamahalahabang ang mga babae at mga taong may maitim na balat ay iniuugnay sa mga trabahong mababa ang halaga o maging sa mga kriminal na tungkulin.
Sa kredito at pananalapi, ang mga modelong gumagamit ng kasaysayan ng pagbabangko, postal code, o ilang partikular na pattern ng paggastos bilang mga pangunahing baryabol ay maaaring humantong sa hindi direktang diskriminasyon. Ang mga indibidwal na may perpektong creditworthy ay maaaring matanggihan ang kanilang mga aplikasyon sa pautang dahil ang sistema, batay sa makasaysayang datos, ay isinasaalang-alang na ang mga nakatira sa ilang partikular na kapitbahayan o may isang partikular na socioeconomic profile ay hindi kanais-nais. "Mas maraming panganib"bagama't ibang kuwento ang sinasabi ng indibidwal na pagsusuri.
Sa pagmamatyag at seguridad, ang mga kagamitan sa predictive policing na gumagamit ng makasaysayang datos ng pag-aresto ay pinuna dahil sa pagpapatibay ng labis na pagpupulis sa mga partikular na komunidad. Kung ang isang lugar ay mas pinatrolya nang maraming taon dahil sa mga kadahilanang panlahi o uri, ang datos ay magpapakita ng mas maraming insidente doon, at ang algorithm ay magrerekomenda...
paulit-ulit na bumabalik, na lumilikha ng loop ng feedback na nagbibigay-katwiran sa mga diskriminasyong gawain.
Saan nagmumula ang mga bias sa pag-compute sa siklo ng teknolohiya?
Kung titingnan ang buong siklo ng pag-unlad ng teknolohiya, ang mga bias ay maaaring lumitaw sa halos anumang yugto. Sa pangongolekta ng datos, ang paggamit ng hindi balanseng mga makasaysayang mapagkukunan o sistematikong pagbubukod ng ilang partikular na populasyon ay naghahasik na ng mga binhi ng problema. Sa disenyo ng algorithm, ang pagpili ng mga baryabol, arkitektura, at mga layunin sa pag-optimize ay nakakaimpluwensya sa resulta. anong uri ng mga pagkakamali Mas matitiis sila.
Sa yugto ng pagsasanay, ang sikat na prinsipyo ng GIGO (Garbage In, Garbage Out) ay nagiging tunay na mahalaga: kung ilalagay mo ang isang modelo sa basurang datos, gaano man kasopistikado ang algorithm, ang resulta ay basura pa rin... ngunit nakabalot sa teknikal na wika at makintab na mga sukatan. Ang pagkiling ng datos ay maaaring maging sanhi ng mahinang pagganap ng modelo. kabisaduhin ang mga pattern ng karamihan at labis na nabibigo sa minorya.
Sa panahon ng pagpapatunay, kung ang mga pandaigdigang sukatan ng katumpakan lamang ang susukatin nang hindi pinaghihiwalay ang mga ito ayon sa mga subgroup (kasarian, edad, etnisidad, rehiyon, atbp.), ang isang hindi patas na modelo ay maaaring makapasa sa mga pagsusuri dahil "sa karaniwan" ay tila perpekto itong gumagana. Lumalala ito kung ang pangkat ng mga developer ay masyadong homogenous at Hindi ito nagtatanong ng ilang mga katanungan dahil hindi sila bahagi ng kanilang karanasan sa buhay.
Sa yugto ng pag-deploy, lumilitaw din ang mga epekto ng feedback loop: ang isang may kinikilingang sistema ay maaaring makaimpluwensya sa pag-uugali ng gumagamit at makabuo ng mga bagong datos na nagpapatibay sa parehong mga pattern. Halimbawa, kung ang isang recommendation engine ay nagpapakita lamang ng ilang uri ng nilalaman sa mga partikular na profile ng gumagamit, sa paglipas ng panahon ay lilitaw na ang mga gumagamit na iyon ay gumagamit lamang ng ganitong uri ng nilalaman dahil Wala silang access sa iba pa.
Panghuli, sa interpretasyon ng mga resulta, ang bias sa automation at kawalan ng kakayahang ipaliwanag ay maaaring humantong sa mga tagapamahala ng negosyo, mga doktor, mga hukom, o mga recruiter na tanggapin nang walang pag-aalinlangan ang sinasabi ng makina, kahit na sumasalungat ito. ebidensyang kwalitatibo na nasa harapan nila
Paano mabawasan ang bias sa teknolohiya at AI
Walang mahiwagang solusyon para tuluyang maalis ang bias, ngunit mayroong isang hanay ng mga kasanayan na maaaring makabuluhang bawasan ito. Ang una ay ang pag-iba-ibahin ang datos: tiyaking kasama sa mga set ng pagsasanay sapat na representasyon ng lahat ng mga kaugnay na grupo, pana-panahong suriin ang mga kawalan ng balanse at itama ang mga ito gamit ang mga pamamaraang pang-estadistika at sampling.
Kasabay nito, mahalaga ang pagkakaroon ng magkakaibang pangkat ng pag-unlad. Ang pagkakaiba-iba sa kasarian, kultural na pinagmulan, disiplina, at karanasan sa buhay ay nakakatulong upang matukoy ang mga problemang malamang na hindi mapapansin ng isang homogenous na grupo. Ang algorithmic fairness ay hindi lamang usapin ng matematika; ito ay usapin ng disenyo ng panlipunan at organisasyon.
Ang mga algorithm audit at fairness test ay nagiging mas karaniwan na rin. Bago i-deploy ang isang sistema sa produksyon, ipinapayong suriin kung paano ito gumaganap gamit ang iba't ibang subgroup, kung anong mga uri ng error ang nagagawa nito, at kung sino ang pinakaapektado. Ang mga audit na ito ay dapat na pana-panahon at malinawhindi lamang isang pormalidad sa simula ng proyekto.
Ang kakayahang ipaliwanag (Explainable AI, XAI) at transparency ay gumaganap din ng mahalagang papel. Kung mas mauunawaan ng mga gumagamit at regulator kung paano at bakit gumagawa ng mga desisyon ang isang sistema, mas madaling matukoy ang mga nakatagong bias at itama ang mga ito. Kabilang dito ang malinaw na pagdodokumento ng pinagmulan ng datos, ang mga limitasyon ng modelo, at ang mga sitwasyon kung saan hindi dapat gamitin.
Panghuli, ang mga regulasyon at etika ang nagbibigay ng balangkas na nagtutulak sa atin na seryosohin ang lahat ng ito. Ang mga inisyatibo tulad ng FATML (Fairness, Accountability, Transparency in Machine Learning), ang mga prinsipyo ng FAIR data (Findable, Accessible, Interoperable, Reusable), at mga regulasyon ng EU at US ay tumutukoy sa isang modelo kung saan ang AI ay dapat na patas, responsable at mapapatunayanlalo na kapag naaapektuhan nito ang mga pangunahing karapatan.
Edukasyon at regulasyon: ang iba pang mga haligi para sa paglaban sa bias
Ang pag-unlad ng mga responsableng teknolohiya ay hindi lamang nakasalalay sa mga inhinyero at kumpanya; nangangailangan din ito ng mga legal na balangkas at isang matalinong mamamayan. Sa Estados Unidos, halimbawa, isang utos ng ehekutibo ang naipasa na nagtatatag mga alituntunin para sa AIKabilang dito ang mga alituntunin sa transparency, seguridad, at paglaban sa algorithmic discrimination. Bukod sa iba pang mga bagay, nakatuon ito sa teknikal na pagsasanay at koordinasyon ng institusyon upang matukoy at malitis ang mga potensyal na paglabag sa karapatang pantao.
Sa European Union, ang Artificial Intelligence Regulation ay naglalayong tiyakin na ang mga sistema ay ligtas, transparent, walang diskriminasyon, at magalang sa mga pangunahing karapatan. Pinag-iiba ng regulasyon ang iba't ibang antas ng panganib at itinatatag na ang mga high-risk algorithm ay hindi maaaring gumawa ng mga desisyon nang ganap na awtonomiya: dapat palaging mayroong isang tao na may kakayahang gumawa ng mga desisyon. mamagitan, mangasiwa at magtama ang sistema.
Bukod pa rito, hinihiling ng Regulasyon ng Europa na ang mga modelo ay maging madaling maunawaan: dapat matukoy kung aling mga katangian ang nakakaimpluwensya sa mga desisyon, hanggang saan, at sa anong konteksto. Binubuksan nito ang pinto para sa mga apektadong indibidwal at awtoridad na tanongin ang mga desisyong algoritmo na itinuturing nilang hindi patas, isang bagay na halos imposibleng mangyari sa mga sistemang hindi maliwanag.
Gayunpaman, ang edukasyon ang ikatlong mahalagang haligi. Hindi sapat ang pagsasanay lamang sa mga developer sa mga pamamaraan ng machine learning; kailangan nilang maunawaan ang epekto sa lipunan ng kanilang mga nilikha, malaman na may mga bias na umiiral mula pa sa simula, at idisenyo ito nang isinasaalang-alang. Kung hindi, gaano man kabuti ang kanilang intensyon, mauulit lamang nila ang parehong mga bias. mga kawalang-katarungan na nakikita na natin sa labas ng screen.
Mahalaga rin na ang mga gumagamit, tagapamahala, mga propesyonal sa pangangalagang pangkalusugan, mga hukom, mga mamamahayag, at ang pangkalahatang publiko ay magkaroon ng pangunahing pag-unawa sa kung paano gumagana ang mga teknolohiyang ito at kung anong mga panganib ang kaakibat nito. Sa gayon lamang nila magagawang humiling ng transparency, kuwestiyunin ang mga resulta, at lumahok sa isang matalinong paraan sa debate tungkol sa mga ito. Anong uri ng artipisyal na katalinuhan ang gusto natin?.
Ang mga pagkiling ng teknolohiya ay hindi isang nakahiwalay na pagkabigo ng ilang mga algorithm na hindi maganda ang disenyo, kundi ang digital na manipestasyon ng ating sariling mga limitasyon, mga pagkiling, at mga hindi pagkakapantay-pantay sa kasaysayan; samakatuwid, ang pagtugon sa mga ito ay nangangailangan ng kombinasyon ng mas mahusay na datos, mas patas na mga modelo, tunay na pangangasiwa ng tao, matibay na mga balangkas ng batas, at malawak na edukasyon na nagbibigay-daan sa atin na gamitin ang AI bilang isang kasangkapan para sa pagkakapantay-pantay at hindi bilang isang salamin na nagpapatindi sa pinakamasama sa ating lipunan.
Talaan ng nilalaman
- Ano ang mga teknolohikal na pagkiling at bakit hindi lamang ang mga ito ang mga "teknikal na aberya"?
- Bias sa data ng pagsasanay: kapag ang problema ay nagmula sa database
- Algorithmic bias: mga desisyon sa disenyo na nagpapalakas ng hindi pagkakapantay-pantay
- Mga bias ng tao at kognitibo: kung paano tayo nag-iisip ay tumatagos sa teknolohiya
- Sistematikong at panlipunang mga bias: kapag minana ng AI ang kasaysayan
- Ang tipolohiya ng NIST: mga pagkiling sa komputasyon, pantao, at sistematiko
- Bias sa automation: labis na pag-asa sa makina
- Mga halimbawa sa totoong mundo ng mga teknolohikal na bias at ang kanilang mga kahihinatnan
- Saan nagmumula ang mga bias sa pag-compute sa siklo ng teknolohiya?
- Paano mabawasan ang bias sa teknolohiya at AI
- Edukasyon at regulasyon: ang iba pang mga haligi para sa paglaban sa bias