Ühenda meile

Arvutitehnika

OASI, esimene otsingumootor, mis leiab algoritmid, mida valitsused ja ettevõtted kodanike jaoks kasutavad

JAGA:

avaldatud

on

Kasutame teie registreerumist, et pakkuda sisu viisil, millega olete nõus, ja parandada meie arusaamist teist. Tellimuse saate igal ajal tühistada.

  • Sotsiaalse mõjuga algoritmide vaatluskeskus OASI, mille on loonud sihtasutus Eticas Foundation, kogub teavet kümnetelt algoritmidelt, mida haldusasutused ja ettevõtted kogu maailmas kasutavad, et saada rohkem teavet nende sotsiaalse mõju kohta.
  • Eesmärk on anda üldsusele juurdepääs teabele nii valitsuste kui ka ettevõtte algoritmide kohta ning teada saada, kes seda kasutab, kes neid arendab, milliseid ohte nad kujutavad ja kas neid on auditeeritud.
  • Algoritmide eelarvamused ja diskrimineerimine esinevad tavaliselt muude väärtuste hulgas tavaliselt vanuse, soo, rassi või puude alusel, kuid üldise läbipaistmatuse tõttu ei ole siiski võimalik teada kõiki selle tagajärgi mõjutatud rühmadele.

Mittetulundusühing Eticas Foundation, mis edendab algoritmide ja tehisintellekti (AI) vastutustundlikku kasutamist, on loonud sotsiaalse mõjuga algoritmide vaatluskeskuse (OASI). See vaatluskeskus tutvustab otsingumootorit, et saada rohkem teavet tööriistade kohta, mis teevad olulisi automatiseeritud otsuseid kodanike, tarbijate ja kasutajate kohta kogu maailmas.

Praegu automatiseerivad nii ettevõtted kui ka avalik haldus tänu algoritmidele otsuseid. Kuid, selle väljatöötamisel ja kasutuselevõtmisel ei järgita väliseid kvaliteedikontrolli ega ka nii läbipaistvat kui peaks, mis jätab elanikkonna kaitseta. Selle otsingumootori abil saab igaüks nende algoritmide kohta rohkem teada saada: kes on need välja töötanud, kes neid kasutab, nende rakendusala, kas need on auditeeritud, nende eesmärgid või sotsiaalne mõju ja ohud, mida nad esindavad.

Hetkel, OASI kogub 57 algoritmi, kuid loodab järgnevatel kuudel jõuda 100 -ni. Neist 24 on USA -s juba rakendatud valitsuse ja Big Tech'i ettevõtete poolt. Näiteks ShotSpotter, algoritmitööriist, mille Oaklandi politseiosakond kasutas relvavägivalla vastu võitlemiseks ja vähendamiseks heliseire mikrofonide abil, ning algoritm võimaliku laste väärkohtlemise ja hooletussejätmise ennustamiseks, mida kasutab Allegheny maakond, Pennsylvania. Teine näide ettevõttelt on Rekognition, Amazoni näotuvastussüsteem, mida MIT Media Lab auditeeris 2019. aasta alguses ja mille tulemuseks oli oluliselt halvem üksikisiku soo tuvastamisel, kui ta oli naissoost või tumedanahaline.

Kõige tavalisem diskrimineerimine on vanuse, soo, rassi või puude alusel, mille on tahtmatult välja töötanud arendajad, kellel puuduvad sotsiaalmajanduslikud oskused selle tehnoloogia mõju mõistmiseks. Selles mõttes kavandavad need insenerid algoritme ainult tehniliste oskuste põhjal ja kuna väliseid juhtelemente pole ja tundub, et see töötab ootuspäraselt, õpib algoritm puudulikest andmetest edasi.

Arvestades mõnede nende algoritmide toimimise läbipaistmatust, töötab Eticas Foundation lisaks OASI käivitamisele välja välisauditite projekti. Esimene on VioGén, algoritm, mida Hispaania siseministeerium kasutas riskide määramiseks naistele, kes otsivad kaitset pärast perevägivalla juhtumeid. Eticas viib läbi välisauditi pöördprojekteerimise ja haldusandmete, intervjuude, aruannete või kujundusskriptide abil, et koguda ulatuslikke tulemusi. Seda kõike eesmärgiga avastada nende naiste kaitse parandamise võimalusi.

"Hoolimata algoritmilistest kontrollimis- ja auditeerimismeetoditest, mis tagavad, et tehnoloogia järgib kehtivaid eeskirju ja põhiõigusi, on administratsioon ja paljud ettevõtted jätkuvalt kurtid kodanike ja institutsioonide läbipaistvusnõuete suhtes," teatas Gemma Galdon, SA Eticas asutaja . „Lisaks OASI-le oleme pärast mitme aasta jooksul, mil oleme välja töötanud rohkem kui tosinat auditit sellistele ettevõtetele nagu Alpha Telefónica, ÜRO, Koa Health või Ameerika Arengupank, avaldanud ka algoritmilise auditi juhendi. et igaüks saaks neid täita. Eesmärk on alati tõsta teadlikkust, tagada läbipaistvus ja taastada usaldus tehnoloogia vastu, mis iseenesest ei pea olema kahjulik. ”

Selles mõttes algoritmid, mida koolitatakse masinõppe tehnikatega, kasutades suurt hulka ajaloolisi andmeid, et "õpetada" neid valima, tuginedes varasematele otsustele. Tavaliselt ei esinda need andmed sotsiaalmajanduslikku ja kultuurilist tegelikkust, mille suhtes neid rakendatakse, kuid paljudel juhtudel peegeldavad need ebaõiglast olukorda, mida ei kavatseta jätkata. Sel moel teeks algoritm tehniliselt "õigeid" otsuseid vastavalt oma koolitusele, kuigi tegelikkuses on selle soovitused või ennustused kallutatud või diskrimineerivad.

reklaam

Eticase sihtasutuse kohta

Eticase Sihtasutus töötab selleks, et muuta tehnilisteks kirjeldusteks ühiskonda juhtivad põhimõtted, nagu võrdsed võimalused, läbipaistvus ja mittediskrimineerimine, mis on tehnoloogiates, mis teevad meie elu kohta automatiseeritud otsuseid. See otsib tasakaalu muutuvate sotsiaalsete väärtuste, viimaste edusammude tehniliste võimaluste ja õigusraamistiku vahel. Selleks auditeerib ta algoritme, kontrollib, et digitaalsele maailmale, eriti tehisintellektile, kohaldatakse õiguslikke tagatisi, ning teeb intensiivset tööd teadlikkuse tõstmiseks ja vastutustundliku kvaliteetse tehnoloogia vajaduse levitamiseks.

Jagage seda artiklit:

EU Reporter avaldab mitmesugustest välistest allikatest pärit artikleid, mis väljendavad mitmesuguseid seisukohti. Nendes artiklites võetud seisukohad ei pruugi olla EU Reporteri seisukohad.

Trendid