Ladataan
Pääaiheet 100 tuoreinta Satakunta Koronavirus Live Urheilu Ajanviete Näköislehti Kulttuuri Porilaine Tähtijutut

Tekoälykehittäjät väittävät heidän algoritminsa tunnistavan potentiaalisen rikoksen­tekijän kasvoista, yli 1 000 asiantuntijaa tuomitsee algoritmin rasistisena

Näkeekö sen naamasta, jos joku on rikollinen? Joukko Harrisburgin yliopiston professoreita ja väitöskirjatutkija ovat kehittäneet kasvojentunnistusta varten algoritmin, joka heidän mukaansa tunnistaa potentiaalisen rikoksentekijän pelkän kasvokuvan avulla. Kehittäjien mukaan järjestelmä antaa oikean vastauksen 80 prosentin tarkkuudella, eikä siinä ole rasistista vinoumaa. – Tiedämme jo, että koneoppimistekniikat ylittävät ihmisen kyvyt monissa tehtävissä, jotka liittyvät kasvojentunnistukseen ja tunteiden havaitsemiseen, sanoo professori Roozbeh Sadeghian tiedotteessa . Ryhmän artikkeli rikollisentunnistusjärjestelmästä oli määrä julkaista Springer Nature -kirjasarjassa. Yli 1 000 tutkijaa ja teknologian asiantuntijaa on nyt allekirjoittanut vetoomuksen , jossa vaaditaan paperin vetämistä pois julkaisusta. Allekirjoittaneet vaativat myös julkaisijaa sanoutumaan julkisesti irti vastaavista järjestelmistä ja lupaamaan, ettei sarjassa julkaista samankaltaisia tutkimuksia tulevaisuudessa. – Kertakaikkisesti ei ole olemassa keinoa kehittää rikollisuutta ennustavaa järjestelmää, joka ei olisi rasistisesti vinoutunut, sillä rikosoikeusdata itsessään on perimmältään rasistista, yksi kirjeen laatijoista, Audrey Beard sanoo tiedotteessa. Tämä ei ole ensimmäinen kerta, kun tekoälytutkijat ovat pyrkineet ennustamaan rikollista käytöstä naaman perusteella. Vuonna 2017 julkaistiin artikkeli, jonka kirjoittajat väittivät kykenevänsä ennustamaan rikollista käyttäytymistä opettamalla algoritmille aiemmin rikoksista tuomittujen ihmisten kasvojen piirteitä. Tuolloin asiantuntijat huomauttivat, että kyseinen menetelmä synnyttäisi itseään ruokkivan kehän, joka nostaisi marginalisoidut ryhmät entistä enemmän tikunnokkaan. – Kuten useat tutkijat ovat osoittaneet, tuomioistuimista ja pidätyksistä kerätty materiaali heijastelee rikosoikeudellisen järjestelmän käytäntöjä ja menetelmiä, kirjeessä sanotaan. – Data kertoo, keitä poliisi päättää pidättää, kuinka tuomarit valitsevat päätöksensä, ja keille myönnetään pidempiä tai lievempiä tuomioita. Mikä tahansa järjestelmä, joka rakennetaan olemassa olevan rikosoikeudellisen kehyksen sisään, väistämättä monistaa nuo samat ennakkoluulot ja perusteelliset epäkohdat, joiden perusteella päätellään, onko ihmisellä ”rikollisen kasvot”. Pelkona on, että virkavalta voisi perustella vähemmistöjen syrjintää ja heihin kohdistuvaa väkivaltaa nojaamalla kyseisiin ”objektiivisiin” algoritmeihin. Ympäri maailmaa George Floydin kuolemasta alkaneet poliisiväkivaltaa ja rakenteellista rasismia vastustavat mielenosoitukset ovat vaikuttaneet myös algoritmeihin perustuvien käytäntöjen, kuten kasvojentunnistuksen kriittiseen tarkasteluun. Aiemmin tässä kuussa teknologiayritys IBM kertoi lopettavansa kasvojentunnistusjärjestelmien kehittämisen ja myymisen virkavallan käyttöön. – IBM vastustaa eikä aio hyväksyä mitään kasvojentunnistusteknologiaa, mukaan lukien muiden yritysten teknologiaa, jota käytetään joukkovalvontaan, rasistiseen profilointiin, ihmisoikeuksien ja perusvapauksien rikkomuksiin, tai mihin tahansa tarkoitukseen joka ei ole linjassa omien arvojemme kanssa, IBM:n toimitusjohtaja Arvind Krishna ilmoitti Yhdysvaltain kongressille tiedotteessa. Myös Amazon ilmoitti jäädyttävänsä Rekognition-kasvojentunnistusohjelmansa poliisilta. Ohjelma on todistetusti rasistisesti vinoutunut ja muutenkin epätarkka: se esimerkiksi valheellisesti tunnisti 28 kongressiedustajaa rikollisiksi muiden ihmisten pidätyskuvien perusteella. – Aiomme antaa järjestöjen käyttää Amazon Rekognitionia ihmiskaupan uhrien auttamiseksi ja kadonneiden lasten löytämiseksi, Amazonista kerrottiin.