Kanada uus föderaalne direktiiv muudab eetilise tehisintellekti riiklikuks probleemiks

Tehnoloogia ja avaliku teenistuse täiuslikus ristumiskohas on iga valitsuse protsess automatiseeritud, mis muudab eelised, tulemused ja rakendused iga kodaniku jaoks digitaalselt toetatud riigis.

Selle lähenemisviisiga kaasneb märkimisväärne protokollikiht, mis on vajalik tagamaks, et kodanikud tunnevad end otsustusprotsessides ja nende valitsustes digitaalse vaatenurga vajadusi rahuldavana. Praegu on Kanada tehisintellekti vallas maailmas juhtival kohal, suuresti tänu tohututele valitsuse investeeringutele, nagu näiteks Üle-Kanada tehisintellekti strateegia . Kasvav valdkond on praegu kõikehõlmav – vaevalt leidub tööstust, mida see poleks häirinud, alates kaevandamisest kuni õigusabini. Valitsus ei erine. Tegelikult võib valitsus olla üks ilmsemaid valikuid, kus automatiseeritud otsustusprotsessid võivad aega ja raha säästa.



Dilemma, mis tuleneb valitsuse poolt tehisintellekti kehtestamisest, on probleemide võimendus, mis on seotud sellega, kuidas iga organisatsioon omaks kasvavat tehnoloogiat: kuidas tagada, et see tehisintellekti platvorm või teenus vastab õiglaselt ja adekvaatselt oma klientide vajadustele? Selline ettevõte nagu Facebook kasutab tehisintellekti mitmel põhjusel, näiteks reklaamide sihtimine või näotuvastus fotodel. Muidugi võivad nende algoritmid tuua kaasa hirmuäratavalt täpsete reklaamide ilmumise uudistevoos, kuid nende masinõppelahenduste eetika mõjutab tegelikult ainult inimese privaatsust või selle puudumist viimastel aastatel.



canada_ai 5

Seevastu valitsus peab uute tehnoloogiate, näiteks tehisintellekti, kasutuselevõttu alustades arvesse võtma paljusid üksikasju. Valitsused tegelevad loomulikult privaatsusega, kuid nad tegelevad ka tervishoiu, immigratsiooni, kuritegeliku tegevuse ja muuga. Seega on probleem nende jaoks vähem ümber, millist AI-lahendust peaksime kasutama? ja palju muud. Milliseid me ei peaks kasutama?



Tehisintellekti platvormid, mida valitsus ei saa puudutada, on need, mis pakuvad vähe või üldse mitte läbipaistvust ning on täis eelarvamusi ja ebakindlust. Kui valitsuse otsus tehakse automatiseeritud protsessi kaudu, on kodanikul õigus mõista, kuidas see otsus sündis. IP-aadressi kaitset ja hoolikalt kaitstud lähtekoodi ei saa olla. Näiteks kui ajalooliste andmetega koolitatud tehisintellektisüsteem keeldub potentsiaalse kuriteo armu taotlejale sellest armu andmisest, väärib see taotleja täpselt mõistmist, miks temast keelduti.

Kanada valitsuse lahendus sellele probleemile on automatiseeritud otsuste tegemise direktiiv, mis avaldati selle nädala alguses. Viidati sellele 2018. aasta lõpus tolleaegse digitaalvalitsuse ministri Scott Brisoni poolt on see käsiraamat, mis kirjeldab, kuidas valitsus kasutab tehisintellekti otsuste suunamiseks mitmes osakonnas. Direktiivi keskmes on Algorithmic Impact Assessment (AIA), tööriist, mis määrab täpselt, millist inimeste sekkumist, vastastikust eksperdihinnangut, järelevalvet ja situatsiooniplaneerimist kodanike teenindamiseks loodud tehisintellekti tööriist vajab.

Masina eetikajuhend



Kanada valitsuse tee eetiliste tavade juurutamiseks tehisintellekti otsustusprotsessides sai alguse umbes 14 kuud tagasi, kui riigikaitseministeeriumi andmepoliitika juht Michael Karlin märkas pimeala selles, kuidas valitsus nende andmeid käsitles. Raamistiku väljatöötamiseks moodustati meeskond ja see kasvas sealt välja, töötades täielikult avatud platvormide kaudu, nagu GitHub, ning saades tagasisidet eraettevõtetelt, teistelt valitsustelt ja keskkoolijärgsetelt asutustelt, nagu MIT ja Oxford.

Kui see meeskond, mida nüüd juhib Kanada teabejuht Alex Benay, vaatas ringi teistes valitsustes, mõistsid nad, et pole olemas vahendit, mis saaks täpselt mõõta automatiseeritud protsessi mõju kodanikele, kelle teenindamiseks see loodi. Sõltuvalt sellest, kuidas tehisintellekt oma klientidega töötab, on ilmselgelt omased riskid – mõned neist on odavad, teised aga äärmiselt olulised.

Kui vestlusbot ütleb teile, et liuväli on avatud ja te ilmute kohale, aga see pole avatud ja see vestlusbot oli vale, on see väike risk, selgitab Benay. Kuid kui kavatsete immigratsiooniotsuseid automatiseerida, on see risk nii suur, kui võimalik.



Äsja avaldatud direktiivis on need riskid kvantifitseeritud ja AIA pakutakse ettevõtetele, kes ehitavad tehisintellekti valitsuslahendusi, mis määrab täpselt, millist sekkumist nad võivad vajada. Ettevõtted pääsevad AIA-le veebis juurde ja täidavad oma platvormi kohta küsitluse, milles on rohkem kui 60 küsimust, ning kui need on lõpetatud, tagastatakse neile mõjutase. Küsitluses esitatakse selliseid küsimusi nagu Kas süsteem võimaldab inimlikke otsuseid alistada? ja Kas on olemas protsess, mis dokumenteeriks, kuidas andmekvaliteediga seotud probleemid projekteerimisprotsessi käigus lahendati?

Veel kaks näidet AIA-lt.

Valitsuse sõlmitud tehisintellekti platvormi mõjutase on järjestatud ühest neljani. Mida kõrgem on auaste, seda suurem on automatiseeritud otsustusprotsessi mõju üksikisikute ja kogukondade õigustele, tervisele ja majanduslikele huvidele. Protsesse, mille käigus tehakse otsuseid, mis hõlmavad näiteks kuritegelikku tegevust või isiku suutlikkust riigist lahkuda ja riiki siseneda, hinnatakse koheselt mõjuastmega kolm või neli.

Teatud mõjutasemetel peab sekkuma mitmel kujul. Kui automatiseeritud otsustusprotsess saab neljanda taseme mõjuhinnangu, nõuab see kahte sõltumatut vastastikust eksperdihinnangut, avalikku lihtsas keeles teadet, tõrkekindlat inimese sekkumist ja süsteemi korduvaid koolituskursusi.

AIA hindamine on tõesti tööriist, mis näitab teie tõsidust ja seda, kuidas peaksite probleemi käsitlema, ütleb Benay. Tõenäoliselt ei vaja te selle uisuväljaku probleemi lahendamiseks vastastikust eksperdihinnangut, kuid enne piiride või sotsiaalteenuste automatiseerimist vajate kindlasti eksperdihinnangu rühma.

Hoolimata asjaolust, et see direktiiv võib jätta mulje, et valitsus teeb kõik endast oleneva, et valmistuda tehnoloogiliste häirete rünnakuks, on see tegelikult täpselt vastupidine. Nii nüansirikka teemaga nagu eetika ja tehisintellekt on valitsuse esmatähtis läbipaistvus ja vastutus.

Püüame AIA-ga teha, et inimesed jääksid kontrolli alla, et nad saaksid otsuseid edasi kaevata.

Mida me ei taha, on musta kasti algoritm ettevõttelt, kes ei taha meile öelda, kuidas see algoritm otsuse tegi, ütleb Benay. See ei ole midagi, mida me ei saa järgida teeninduspõhise lähenemisviisi korral, kus inimesed peaksid pöörduma juhul, kui teenus oli ebaõiglane.

AIA ise on suur saavutus mitte ainult Kanada valitsuse, vaid valitsuste jaoks kogu maailmas. See on esimene omataoline tööriist ja selle võttis Mehhiko kasutusele neli kuud tagasi, vaatamata sellele, et see avaldati ametlikult alles sel nädalal. Benay ja tema meeskond peavad läbirääkimisi mitme liikmega D9 sealhulgas Portugal ja Ühendkuningriik, kui nad soovivad tööriista rakendada.

Nii olulised kui direktiiv ja AIA on eetika rakendamise tempo määramine, kuna need on seotud valitsuse tavadega, võivad eeskirjad tekitada vaidlusi mõnedele Kanada eelistatud tehisintellekti partneritele, eriti ettevõtetele, nagu Amazon Web Services, Microsoft. , ja teised.

Probleemi leidmine

Selleks, et ettevõte saaks pakkuda valitsusele automatiseeritud otsustusprotsessi, sunnib uus direktiiv ettevõtte kätt oma lähtekoodi valitsusele avaldama. See on teoreetiliselt mõttekas, kuna see kõik tugineb Benay sõnade kohaselt seletatavuse kontseptsioonile.

Ta ütleb, et peame näitama kodanikele, kuidas otsus tehti algoritmi kaudu. Kui jõuame punkti, kus näiteks automatiseeritud otsusega seotud kohtuasi, peame võib-olla algoritmi vabastama.

See vaidluspunkt on võib-olla eetilise tehisintellekti arutelu tõeline süda. Läbipaistvate otsuste ja intellektuaalomandi kaitse vahel peab valitsema tasakaal. Kui AI-ettevõte soovib valitsust kliendiks, peavad nad mõistma, et läbipaistvust hinnatakse ennekõike. Selline mõtlemine võib mõned töövõtjad eemale peletada.

Mõelge sellele järgmiselt: kui Amazon peaks teoreetiliselt pakkuma Kanada valitsusele tehisintellekti lahendust, on ainus asi, mis eraldab iga kodaniku juurdepääsust kogu Amazoni lähtekoodile – vähemalt selle konkreetse projekti puhul – teabevabaduse päring. Tähelepanelikult valvatud valge märgistatud lahenduste ja laenatud koodi ajastul on lihtne juurdepääs lähteteabele keeruline probleem. Neid juurdepääsu jälgitakse igal üksikjuhul eraldi, et kaitsta kolmandast osapoolest tarnija ärisaladusi või konfidentsiaalset äriteavet, kuid isegi seda tuleb tõlgendada. Neid, kes sellele lähtekoodile juurde pääsevad, kaitsevad endiselt autoriõigused, kuid koodiga saab piisavalt manipuleerida, et see hägustada ja algsetele väljaandjatele peavalu tekitada.

ElementAI_Toronto_Office_Techvibes-5

Kanada valitsuse eelistatud tehisintellekti müüja Element AI Toronto kontorid.

See on delikaatne arutelu, ütleb Benay. Ma tean, et IP on nende ettevõtete tulude vereliin. Kui aga kavatsete teha äri valitsusega ja suhelda kodanikega, olete lisanud vastutuse erasektori ettevõttena. See on tasakaal, mille peame leidma. Ma pole kindel, kas me selle leidsime. Võib-olla tegime seda, kuid jätkame tööd läbipaistvalt.

Lähtekoodi kaitstakse avaldamise eest vaid mõnel üksikul viisil ja need on seotud ka valitsusasutustega, mida see uus tehisintellekti direktiiv ei mõjuta. Kõik parlamendi agendid on kaitstud, mis hõlmab enam-vähem kõike julgeoleku ja konkurentsiluure valdkonnas. Mingil hetkel tulevikus hakatakse ebaseaduslike tegevuste jälitamiseks kasutama algoritme ja tehisintellekti ning arusaadavatel põhjustel ei saa valitsus nende otsuste lähtekoodi avalikult avaldada.

Kui kavatsete teha äri valitsusega ja suhelda otse kodanikega, olete lisanud vastutuse erasektori ettevõttena.

Benay möönab, et kõik, mis seda direktiivi ümbritseb, ei pruugi olla lõplikul kujul. Kuna tehisintellektiga seotud ökosüsteem nihkub nii kiiresti, kohustub valitsus direktiivi iga kuue kuu tagant ajakohastama ning valitsus on moodustamas ka tehisintellekti nõuandekogu, et tagada tulevaste otsuste vastutustundlik tegemine.

Tavaliselt on meil viis, kuus, isegi seitse aastat, et midagi sellist läbi töötada, ütleb Benay. Oleme pidanud seda kuude jooksul läbi töötama. See on väga uus poliitika- ja juhtimisperspektiiv, et probleeme nii kiiresti lahendada. Kuid te näete vastust. Eelmisel aastal oli meie tehisintellektipäeval ruumis 125 inimest. Selle aasta tehisintellektipäevaks oli meil 1000.

Trendiloojad

Järgmise paari aasta jooksul ei tule eetika ja tehisintellekti üle arutlustest puudust. Tegelik küsimus keerleb selle ümber, kui see arutelu pöördub automatiseeritud otsuste tulevikku käsitlevalt ennetavalt tegevuselt kaitsemeetmetele, püüdes kaitsta kodanikke ja majandust juba väljakujunenud tehisintellekti lahenduste eest. Selline tööriist nagu AIA ei ole veel kaitsemehhanism, kuid see on sama lähedane sellele, mida on kunagi välja töötatud.

Benay ütleb, et me ei tea liiga palju asju. Te ei taha jõuda olukorda, kus me anname otsuste üle kontrolli masinatele, teadmata neist kõike. Meie jaoks on hirmutav kogu maailmas see, et paljud valitsused ei paista mõistvat oma väärtuste automatiseerimise taset, mida nad esitavad potentsiaalsete müüjatega suheldes, kellel on musta kasti kood või IP.

kanadaaa

Vähemalt on häid uudiseid kaasa võtta. Kõik D9 liikmed arutavad, kas rakendada Kanada AIA-d ja Mehhiko on seda juba teinud. Eesmärk on, et võimalikult paljud riigid kasutaksid seda ja arendaksid direktiivi taga välja kollektiivse ajutrusti.

Benay ütleb, et kui suudame seda tööriista kasutama, kasvatama ja turgutama korraliku hulga riike, anname valitsusele parema positsiooni, et tulla toime automatiseerimise, privaatsuse ja kõigi nende probleemidega, mida näete. Praegu on maailmas väga raske olla keskmise suurusega riik. Kui see tööriist on avatud, saavad teised riigid selle poole pöörduda ja seda kasutama hakata. See on maailmas esimene avaliku sektori valitsuse lähenemine tehisintellektile.

See on tõenäoliselt meie kõige läbipaistvam poliitika, mille oleme kunagi rahandusnõukogu sekretariaadi halduspoliitika jaoks välja töötanud.

Kohalikul tasandil palub Kanada valitsus kõigil kvalifitseeritud tehisintellekti müüjatel anda avaliku lubaduse, et nad teevad koostööd ainult osakondadega, mis on AIA läbinud. Mõned ettevõtted on tõotuse juba võtnud, sealhulgas MindBridge AI, ThinkData Works ja CognitiveScale, ning Benay meeskond saadab mõne nädala jooksul ametlikult kirjad välja.

Avalik sisekaemus eetika ja tehisintellekti osas pole midagi uut. 2018. aasta keskel inimõiguste ja tehnoloogia rühmituste rühm avaldas Toronto deklaratsiooni , paludes kõigil tehisintellektiga seotud protsessidel keskenduda sellele, kuidas need tehnoloogiad mõjutavad üksikisikuid ja inimõigusi, sest kes masinõppesüsteemide maailmas vastutab inimõiguste kahjustamise eest? 2017. aastal toetasid Kanada AI-eksperdid a tapjarobotite keelamine samuti, mis on sisuliselt kõige otsesem viis eetilise tehisintellekti toetamiseks. Prantsusmaa ühines hiljuti Kanadaga avalikult toime panema tehisintellekti eetilisele mõistmisele. Lõpuks mõned Kanada suurimad AI-ettevõtted, sealhulgas Integre.ai ja AI element toetavad pidevalt ja häälekalt eetika ja tehisintellekti ristumiskohta.

Ma ei tea, kas kõik mõistavad, kui suur probleem on tehisintellekti eetiline pool õigluse ja eelarvamuste mõistmisel, ütles Integrate.ai tegevjuht ja asutaja Steve Irvine selle aasta alguses Techvibesile. Asi pole selles, et robotid võtavad maailma üle. Selle asemel kasutab see paljude ettevõtete kogutud ajalooliste andmete andmekogumeid, kus on minevikule omane eelarvamus. Sellega kohanemata riskime säilitada stereotüübid, millest oleme aastakümneid püüdnud eemalduda.

Selle direktiivi avaldamine Kanadas on oluline samm eetika ja tehisintellekti sügavale juurdunud normaliseerimise suunas. Kuna tohutuid ettevõtteid, nagu Facebook ja Google, kontrollitakse pidevalt selle üle, kuidas nad privaatsust ja andmeid käitlevad – ja samal ajal juhivad mõne maailma mõjukaima tehnoloogia loomist ja levitamist –, on oluline pidevalt mõelda, kuidas tehnoloogia mõjutab tavakodaniku elu.

Megakorporatsioone puudutavates lehtedes näete palju asju ja seda, kuidas nad otsustavad privaatsust kaitsta või mitte, ütleb Benay. Mitte, et väärtuste ümber tõmmatakse lahingjooni, kuid nende asjade ümber tuleb pidada sügavaid ja raskeid vestlusi ning me püüame vaid tagada, et oleme riiklikult hästi positsioneeritud, et olla võimelised neid vestlusi pidada.

Kategori: Uudised