Voiko AI: llä olla puolueellisuuksia?

Kirjoittaja: Laura McKinney
Luomispäivä: 5 Huhtikuu 2021
Päivityspäivä: 26 Kesäkuu 2024
Anonim
Voiko AI: llä olla puolueellisuuksia? - Tekniikka
Voiko AI: llä olla puolueellisuuksia? - Tekniikka

Sisältö


Ottaa mukaan:

Viime vuosina AI on otettu yhä enemmän käyttöön ja sitä on sovellettu kaikkeen kauneuden arvioinnista uusiutumisen riskin arviointiin. Näin toimiessaan se on myös noudattanut standardeja, jotka tukevat puolueellisuutta ja syrjintää useissa tapauksissa.

Teknologian kehityksellä on potentiaali todella demokratisoida tiedon saanti ja mahdollisuudet. Toisinaan sitä käytetään kuitenkin tavoilla, jotka vahvistavat käsitystä, että yhteiskunnassamme jotkut ihmiset ovat tasa-arvoisempia kuin toiset.

Tämän olemme nähneet seuraavista seitsemästä tapauksesta, joissa tekoälyä käytetään tarkoituksella tiettyjen luokkien sulkemiseen pois tai jossa se heijastaa vain ihmisten ohjelmoijien upottamaa puolueellisuutta syrjivällä vaikutuksella.

AI-kauneuden puolueellisuus

Kauneus voi olla katsojan silmissä, mutta kun tämä subjektiivinen näkymä voi ohjelmoida AI: n, sinulla on harhaohjelmassa. Rachel Thomas kertoi yhdestä sellaisesta jaksosta beauty.ai: n kauneuskilpailussa vuonna 2016. Tulokset osoittivat, että vaaleammat värit arvioitiin houkuttelevammiksi kuin tummat.


Seuraavana vuonna ”FaceApp, joka käyttää hermostoverkkoja valokuvien suodattimien luomiseen, loi” kuumasuodattimen ”, joka vaalensi ihmisten ihoa ja antoi heille enemmän eurooppalaisia ​​piirteitä.”

Sukupuoleen liittyvä puolue kielillä

Thomas mainitsee myös dokumentoidun esimerkin käännöksistä, jotka siirtävät stereotyyppiset ura-odotukset. Lähtökohta on kaksi virkettä: "Hän on lääkäri. Hän on sairaanhoitaja."

Jos käännät ne sitten turkkiin ja takaisin englanniksi, saat sellaisia ​​tuloksia, joita olet voinut odottaa puhelinpelistä.

Sen sijaan, että saisit mitä aloitit, saat 1950-luvun tyyppisen odotuksen "Hän on lääkäri. Hän on sairaanhoitaja". Hän selittää, että johtuu turkin kielessä olevasta sukupuolesta riippumattomasta yksittäispronominista, joka antaa sukupuolen odotusten ja stereotyyppisen puolueellisuuden perusteella. (Lue Women in AI: Seksismin ja stereotyyppien vahvistaminen tekniikan avulla.)


Vaikka rotuun ja sukupuoleen perustuvat puolueellisuudet, jotka suodatetaan kuvaksi ja kieleksi, ovat huolestuttavia, ne eivät ole aivan samaa asiaa kuin AI: stä johtuva aktiivinen syrjintä, mutta niin on myös tapahtunut.

Sen todiste oli kuvakaappaus asumisluokan mainokselle asetetuista rajoituksista, jotka antoivat mahdollisuuden rajoittaa yleisöä tarkistamalla sellaisten luokkien poissulkemiset, kuten afrikkalainen amerikkalainen, aasialainen amerikkalainen tai latinalaisamerikkalainen. Mainoksen voi katsoa täältä.

Kuten ProPublica huomauttaa, tällaisten mainosten syrjivä vaikutus on laiton sekä vuoden 1968 oikeudenmukaista asumista koskevan lain että vuoden 1964 kansalaisoikeuslain nojalla. Ainoa puolustus tässä tapauksessa oli se, että mainos ei ollut tarkoitettu asunnolle, koska se ei ollut " t kiinteistöstä tai kodista, jota myydään tai vuokrataan.

Kuitenkin on ollut muitakin kohdistamistapauksia, jotka osoittavat rodullisen puolueellisuuden ja joka on motivoinut eri tahoja nostamaan siviilioikeudellisia kanteita sosiaaliseen verkostoon. Kuten Wired kertoi, päätti lopulta mukauttaa mainosten kohdistamistekniikkaansa viiden oikeusjutun ratkaisun seurauksena, jonka mukaan sille annettiin vähemmistöjen syrjinnän salliminen mainoksilla maaliskuussa 2019.

ACLU huomautti ratkaisua koskevassa raportissaan, kuinka salaperäiset tällaiset kohdennetut mainokset voivat olla, koska vähemmistöt ja naiset eivät edes tiedä, että heillä ei ole samoja pääsyä tietoihin, asumiseen ja työmahdollisuuksiin, joita jaetaan valkoisten miesten kanssa.

Kun yhä useammat ihmiset hakevat internetiä löytääkseen työpaikkoja, asuntoja ja lainoja, on todellinen riski, että mainosten kohdistaminen toistaa ja jopa pahentaa olemassa olevia rotuun ja sukupuoleen liittyviä puolueellisuuksia yhteiskunnassa. Kuvittele, jos työnantaja haluaa näyttää suunnittelutehtäviä koskevia mainoksia vain miehille. Sen lisäksi, että käyttäjät, joita ei tunnisteta miehiksi, eivät koskaan näe näitä mainoksia, he eivät myöskään koskaan tiedä mitä he menettivät.

Loppujen lopuksi meillä on harvoin tapa tunnistaa mainokset, joita näemme verkossa. Se, että tämä syrjintä on näkymätöntä syrjäytyneelle käyttäjälle, tekee siitä entistä vaikeamman lopettaa.

2. Sukupuoleen ja ikään perustuva syrjintä työpaikoissa

Oikeudellisten tapausten joukossa oli laiton syrjintä asumisessa, jonka kohdentaminen oli sallittua. ProPublica totesi ratkaisua koskevassa raportissaan, että se on testannut alustaa ja onnistunut ostamaan asuntoon liittyviä mainoksia niissä syrjäytyneissä ryhmissä, kuten afrikkalaiset amerikkalaiset ja juutalaiset, ja löysi aikaisemmin työpaikkailmoituksia, joissa jätettiin käyttäjien iän ja sukupuolen perusteella pois yritykset jotka ovat kotitalouksien nimiä. ”

Useat ACLU: n löytämät työpaikkailmoitukset, jotka oli nimenomaisesti tarkoitettu vain tietyssä ikäryhmän miehille, kuten käyttäjät löysivät napsauttamalla vastausta kysymykseen, miksi heille näytettiin kyseinen mainos, esiteltiin toisessa Wired-artikkelissa. ACLU asetti syytöksen Equal Employment Opportunity Commissionin vastaan ​​sosiaalisesta verkostosta ja mainoksia sijoittaneista yrityksistä sillä perusteella, että ne rikkoivat sekä työ- että kansalaisoikeuksia koskevia lakeja.

Yli 40-vuotiaiden palkkaamiseen kohdistuva syrjintä loukkaa liittovaltion ammatillista syrjintää työelämässä (ADEA). Mutta työpaikkailmoitusten kohdistaminen vain alle ikäisiin ihmisiin on yksi foorumin sallimista asioista.

ProPublica päätti, että yhdessä sen raportissa keskityttiin siihen, mitkä työpaikkailmoitukset hyödynsivät tätä laitonta syrjäytymismuotoa iän perusteella. ”Kotitalouksien nimiin” kuuluvat muun muassa Verizon, UPS, Uber, Target, Statefarm, Northwestern Mutual, Microsoft, J Street, HusbSpot, IKEA, Yleisen edun rahasto, Goldman Sach, OpenWorks ja itse.

Kasvojen tunnistus epäonnistui

”Kasvojentunnistus on tarkka, jos olet valkoinen kaveri” julisti helmikuussa 2018 julkaistun New York Times -artikkelin otsikon. Siinä viitattiin tuloksiin, jotka löysivät selvän korrelaation ihon sävyn ja viallisen tunnistamisen välillä:

"Mitä tummempi iho, sitä enemmän virheitä esiintyy - jopa 35% tummemman nahan kuvissa. Uuden tutkimuksen mukaan se katkaisee uuden kentän mittaamalla tekniikan toimivuutta eri rodun ja sukupuolen ihmisille."

Havainnot hyvitetään MIT Media Lab -yrityksen tutkijalle ja Algorithmic Justice League -järjestön (AJL) perustajalle Joy Buolamwinille. Hänen tutkimusalueensa on AI: n taustalla olevat puolueellisuudet, mikä johtaa niin vinoihin tuloksiin, kun on kyse kasvojen tunnistamisesta, jotka eivät vastaa mallille asetettuja valkoisten miesten normeja.

Buolamwini esitteli rodun ja sukupuolen puolueellisuuden ongelman kasvojentunnistuksessa vuoden 2017 TED-puheessa, johon hän viittasi vuoden 2018 alkupuolella MIT Lab: n The Gender Shades -projektin videossa:

<

Videon kuvauksessa todetaan, että jättämällä AI-puolueellisuuden valvomattomiksi "pilataan automaation ikä ja pahennetaan entisestään epätasa-arvoa, jos se jätetään kevyesti". Riskejä ei ole muuta kuin "kansalaisoikeusliikkeiden ja naisliikkeiden saavuttamien voittojen menettäminen koneen neutraalisuuden väärien oletusten perusteella".

Videokuvaus lisää varoituksen, jonka monet muut ovat nyt huomauttaneet, kuten olemme nähneet Women in AI: Seksismin ja stereotyyppien vahvistaminen tekniikalla: "Automatisoidut järjestelmät eivät ole luonnostaan ​​neutraaleja. Ne heijastavat prioriteetteja, mieltymyksiä ja ennakkoluuloja - koodattua. katse - niiltä, ​​joilla on valta muovata tekoälyä ".

Buolamnwini julkaisi 25. tammikuuta 2019 Medium-viestin, joka veti hänen ja muiden tutkijoiden tutkimusta. He huomauttivat, kuinka AI-puutteet johtavat virheisiin Amazonin tunnistuksessa, ja vaativat yritystä lopettamaan AI-palvelun myynnin poliisilaitoksille.

Vaikka tunnistus voisi ylpeillä 100-prosenttisesta tarkkuudesta vaaleannahkaisten miesten tunnistamisessa ja 98,7-prosenttiseen tarkkuuteen jopa tummemmilla miehillä, kun se tuli naispuoliseksi, tarkkuus laski 92,9 prosenttiin vaaleampien naisten osalta. Vielä räikeämpää oli jyrkkä pudotus vain 68,6 prosentin tarkkuudella tummimmilla naisilla.

Mutta Amazon kieltäytyi hellittämästä. Venture Beat -artikkelissa lainattiin AWS: n syvän oppimisen ja AI: n pääjohtaja Dr. Matt Woodin lausuntoa, jossa hän vaati, että tutkijoiden havainnot eivät heijasta sitä, kuinka AI: tä tosiasiallisesti käytetään, ja selittää:

”Kasvoanalyysi ja kasvojentunnistus ovat täysin erilaisia ​​tekniikan ja niiden kouluttamiseen tarvittavan tiedon suhteen. Kasvoanalyysin käyttäminen kasvojentunnistuksen tarkkuuden määrittämiseen on harkitsematonta, koska se ei ole tähän tarkoitukseen tarkoitettu algoritmi. "

Mutta ei vain suurten tutkimuskeskusten jäsenet, jotka ovat todenneet algoritmien olevan erittäin ongelmallisia. Gizmodo-raportin mukaan ACLU suoritti oman testin kohtuullisin kustannuksin 12,33 dollaria. Se totesi, että Rekognition vastasi 28 kongressin jäsentä valokuvilla rikollisista.

"Virheelliset tunnistukset tehtiin, kun Pohjois-Kalifornian ACLU antoi tehtäväksi tunnustusta vastaavilla valokuvilla kaikista kongressin 535 jäsenestä vastaan ​​25 000 julkisesti saatavilla olevaa kuvakuvaa."

Koska 11 28: sta 28: sta oli värihenkilöitä, heijastus osoitti heille merkittävän 39%: n virheasteen. Sitä vastoin virhetaso kokonaisuutena oli hyväksyttävämpi 5 prosenttia. Kuusi kongressin Black Caucuksen jäsentä, jotka kuuluivat mugshotoihin liittyvään tunnustamiseen, ilmaisivat huolensa avoimessa kirjeessä Amazonin toimitusjohtajalle.

Uusiutuva puolue

AI: hen upotetusta ennakkoluulosta värillisiä ihmisiä vastaan ​​tulee vakavampi ongelma, kun se tarkoittaa muutakin kuin yksilöintivirhettä. Se oli toisen ProPublica-tutkimuksen havainto vuonna 2016. Tällaisen puolueellisuuden seuraukset ovat vain henkilökohtainen vapaus yhdistettynä todellisen riskin jättämiseen huomioimatta henkilöä, jonka ihonväriä suositaan algoritmissa.

Artikkelissa viitattiin kahteen rinnakkaiseen tapaukseen, joissa yksi valkoinen tekijä ja yksi musta tekijä. Algoritmia käytettiin ennustamaan, mikä todennäköisesti rikkoo lakia uudelleen. Mustalle annettiin suuri riski ja valkoiselle matala riski.

Ennuste sai sen täysin vääräksi, ja vapaa, joka vapautui, joutui vangitsemaan uudelleen. Tämä on erittäin ongelmallista, koska tuomioistuimet luottavat ehdokkaiden päätökseen ehdokkaasta, ja tämä tarkoittaa, että ohjelmaan otettu rotuun liittyvä puolue tarkoittaa lain mukaista epätasa-arvoista kohtelua.

ProPublica asetti algoritmin omaan testiinsä vertaamalla yli 7000 ihmisen riskipisteitä, jotka pidätettiin Floridan Broward Countyssä vuosina 2013 ja 2014, lukumäärään, jolla heitä vastaan ​​asetettiin uusia rikossyytteitä seuraavan kahden vuoden aikana.

He havaitsivat, että vain 20% väkivaltaisten rikosten toistamisen ennusteista toteutui ja pienempiä rikoksia tapahtui vain 61%: lla niistä, joiden pisteet osoittavat riskiä.

Todellinen ongelma ei ole vain tarkkuuden puute, mutta siihen liittyvä rotuun liittyvä puolueellisuus:

  • Erityisen todennäköisesti kaava merkitsi väärin mustat vastaajat tulevina rikollisina, merkitsemällä heidät väärin tällä tavoin melkein kaksinkertaisen verran valkoisiksi vastaajiksi.
  • Valkoisia syytettyjä harhaanjohdettiin matalalla riskillä kuin mustia vastaajia.

Itse asiassa tämä muutti virhetasoksi 45% mustien ja 24% valkoisten ihmisten virhetasona. Tästä räikeästä tilastosta huolimatta Thomas kertoi, että Wisconsinin korkein oikeus puolusti edelleen tämän algoritmin käyttöä. Hän myös yksityiskohtia muista uusiutumisprosessien algoritmeihin liittyvistä ongelmista.