Un gardian IA este necesar pentru a reglementa procesul automat de luare a deciziilor

Algoritmii pot lua decizii proaste, care au consecințe grave asupra vieții oamenilor, ceea ce duce la apeluri pentru un organism terț pentru a asigura transparența și corectitudinea.

Un gardian pentru inteligență artificială ar trebui creat pentru a vă asigura că oamenii nu sunt discriminate de sistemele informatice automatizate de luare a deciziilor importante cu privire la viața lor, spun expertii.

Creșterea inteligenței artificiale (AI) a dus la o explozie a numărului de algoritmi care sunt utilizate de către angajatori, bănci, forțele de poliție și altele, dar sistemele pot, și face, să ia decizii proaste care au un impact serios viața oamenilor. Dar, deoarece companiile de tehnologie sunt atat de secretos cu privire la modul în care funcționează algoritmii lor – pentru a preveni alte firme de la copierea acestora – rareori dezvăluie informații detaliate cu privire la modul în care identificatorii au luat decizii speciale.

Într-un nou raport, Sandra Wachter, Brent MITTELSTäDT, Luciano Floridi, o echipa de cercetare de la Turing Institute, Alan din Londra si la Universitatea din Oxford, apel pentru un organism de terță parte de încredere care poate investiga deciziile AI pentru persoanele care cred că au fost discriminat impotriva.

“Ceea ce am dori să vedem este o terță parte de încredere, probabil, un organism de reglementare sau de supraveghere, care ar avea puterea de a examina și de audit algoritmi, astfel încât acestea ar putea intra și a vedea dacă sistemul este de fapt transparent și echitabil”, a declarat Wachter.

Nu este o problemă nouă. Înapoi în anii 1980, un algoritm folosit pentru a cerne aplicatii de student la Spitalul Medial School St George din Londra, sa constatat discriminarea femeilor și a persoanelor cu nume non-europene cu aspect. Mai recent, un pilot veteran American Airlines a descris modul în care el a fost deținut în aeroporturi pe 80 de ocazii separate după un algoritm în mod repetat să-l confundat cu un lider IRA. Alții să scadă fault de erori AI-au pierdut locul de muncă, a avut licențele de autoturisme revocate, a fost dat startul în registrul electoral sau în mod greșit urmărit pentru facturile de sprijin pentru copii.

Oamenii care se găsesc la capătul greșit al unui AI defectuoasă poate contesta decizia în conformitate cu legile naționale – dar raportul constată că legile actuale pentru a proteja oamenii nu sunt suficient de eficiente acum.

In Marea Britanie, Legea privind protecția datelor permite decizii automate să fie contestate. Dar, firmele britanice, în comun cu cele din alte țări, nu trebuie să elibereze nici o informație pe care le consideră un secret comercial. În practică, acest lucru înseamnă că, în loc să elibereze o explicație completă pentru o decizie specifică AI, o companie poate pur și simplu descrie modul în care funcționează algoritmul. De exemplu, o persoană care a refuzat pentru un card de credit poate fi spus că algoritmul a luat istoria lor de credit, vârsta, și codul poștal în considerare, dar nu și să învețe de ce cererea lor a fost respinsă.

În 2018, statele membre ale Uniunii Europene, alături de Marea Britanie, va adopta o nouă legislație care reglementează modul în care poate fi contestată identificatorii. proiectele inițiale ale Regulamentului general privind protecția datelor (GDPR) consacrat ceea ce se numește “dreptul la o explicație” în lege. Dar autorii susțin că versiunea finală aprobată de anul trecut nu conține nici o garanție legală.

“Este o idee că GDPR va livra responsabilitate și transparență pentru AI, dar asta nu e deloc garantat. Totul depinde de modul în care este interpretată în viitor de către instanțele naționale și europene “, a spus MITTELSTäDT. Cele mai bune noi oferte de reglementare este “dreptul de a fi informat” companiile convingătoare pentru a dezvălui scopul unui algoritm, tipurile de date pe care le atrage asupra sa ia decizii sale, precum și alte informații de bază. In lucrarea lor, cercetatorii sustin ca regulamentul să fie modificat pentru a face “dreptul la explicații” din punct de vedere juridic.

“Suntem deja prea dependente de algoritmi pentru a renunța la dreptul de a pune la îndoială deciziile lor”, a spus Floridi. “The GDPR ar trebui îmbunătățită pentru a se asigura că un astfel de drept este sprijinit pe deplin și fără echivoc”.

Pentru acest studiu, autorii au examinat cazuri juridice din Austria și Germania, care au unele legi mai stricte în jurul decizionale de algoritmi. In multe cazuri, au constatat că instanțele solicitate companiilor să elibereze numai informațiile cele mai generale cu privire la deciziile algoritmi au făcut. “Ei nu au nevoie de a dezvălui detalii despre algoritmul în sine și nici un fel de detalii cu privire la decizia dumneavoastră individuală sau de modul în care a fost atins pe baza datelor”, a spus Wachter. O terță parte de încredere, a adăugat ea, ar putea echilibra preocuparile companiilor asupra secretelor comerciale cu dreptul pentru oameni să se asigure că o decizie a fost atins în mod echitabil. “În cazul în care algoritmii pot afecta într-adevăr viața oamenilor, avem nevoie de un fel de control astfel încât să putem vedea cum un algoritm de fapt a ajuns la o decizie”, a adăugat ea.

Dar, chiar dacă un câine de pază AI au fost înființate, ea le poate găsi greu de algoritmi de poliție. “Nu este foarte clar modul în care să echipeze în mod corespunzător un câine de pază pentru a face treaba, pur și simplu pentru că suntem de multe ori vorbim despre sisteme foarte complexe, care sunt imprevizibile, se schimbă în timp și sunt greu de înțeles, chiar și pentru echipele de dezvoltare a acestora”, a spus MITTELSTäDT. El adaugă că, forțând companiile să se asigure lor pot explica identificatorii ei înșiși ar putea declanșa proteste, deoarece unele metode AI moderne, cum ar fi învățarea profundă, sunt “în mod fundamental de nepătruns.”

Alan Winfield, profesor de etica robot de la Universitatea din vestul Angliei, se îndreaptă un proiect pentru a dezvolta standarde industriale pentru identificatorii care își propune să le facă transparente și așa mai responsabil. “Un câine de pază este o propunere foarte bună”, a spus el. “Aceasta nu este o problemă în viitor, este aici și acum.”

Dar el a fost de acord că firmele de tehnologie ar putea lupta pentru a explica deciziile AI lor. Algoritmi, în special cele bazate pe tehnici de învățare profundă, poate fi atât de opac încât este practic imposibil de a explica modul în care acestea ajung decizii. “Provocarea mea pentru place de la Google DeepMind este de a inventa un sistem de învățare profundă, care se poate explica”, a spus Winfield. “Ar putea fi greu, dar pentru numele lui Dumnezeu, există unii oameni destul de luminoase, care lucrează pe aceste sisteme.”

Nick Diakopoulos, un om de știință de calculator de la Universitatea din Maryland, a declarat că deciziile luate de algoritmi vor trebui să fie explicate în moduri diferite, în funcție de ceea ce fac. Atunci când o auto de conducere accidente de mașină, de exemplu, face sens pentru algoritmul de a explica deciziile sale sa se prabuseasca anchetatorilor, in acelasi fel anchetatorii de trafic aerian au acces la cutiile negre de aeronave, a spus el. Dar, atunci când un algoritm este folosit în instanță pentru a consilia un judecător de condamnare, acesta poate avea sens pentru judecător, inculpatul și echipa lor juridică să știe cum AI a ajuns la decizia sa.

“Cred că este esențial să existe un fel de organism de reglementare cu dintii juridice care pot obliga transparența în jurul unui set de decizii care au condus la un fel de eroare sau accident”, a spus Diakopoulos.

Atunci când AI merge într-o parte

Sarah Wysocki, un profesor de școală din Washington DC, a primit critici favorabile de la părinții elevilor ei și principalul ei. Dar, când orașul a introdus un algoritm în 2009, pentru a evalua performanțele profesorilor, ea și altele 205 și s-au înregistrat rezultate slabe trase. Sa dovedit faptul că programul a întemeiat deciziile pe numere mici ale rezultatelor elevilor, și că unii alți profesori au păcălit aparent sistemul prin consilierea elevilor să trișeze. Școala nu a putut explica de ce a fost concediat profesori excelent.

organizatorii concursului de frumusețe folosit un algoritm pentru a judeca un eveniment international de anul trecut. Ei au crezut că software-ul ar fi mai obiectivă decât oamenii și alege un câștigător bazat pe simetrie faciala, lipsa de riduri și alte măsuri posibile de frumusețe. Dar sistemul a fost antrenat în principal asupra femeilor albe si discriminate pielea inchisa la culoare.

John Gass, un rezident al Natick, Massachusetts, a avut permisul de conducere revocat atunci când un sistem de combatere a terorismului de recunoaștere facială l-au confundat pentru un alt șofer. I-au trebuit zece zile pentru a convinge autoritățile că el a fost cel care a spus că era. El nu a fost niciodată condamnat pentru eventualele infracțiuni de conducere.

Tay chatbot Microsoft a fost creat pentru a lovi conversații cu Millennials pe Twitter. Algoritmul a fost conceput pentru a învăța cum să imite alții prin copierea discursul lor. Dar, în termen de 24 de ore de a fi lăsați liberi pe internet, acesta a fost dus în rătăcire, și a devenit, anti-feministe nazista sprijinind genocid, ciripit mesaje, cum ar fi “HITLER nu au făcut nimic greșit.”

Un sistem automat proiectat pentru a prinde tatii care nu au ținut pasul cu plăți de îngrijire a copilului vizat sute de oameni nevinovați din Los Angeles, care a trebuit să plătească sau dovedească nevinovăția. Un singur om, Walter Vollmer, a fost trimis un proiect de lege pentru mai mult de 200.000 $. Soția lui a crezut că a condus o viață secretă și a devenit de sinucidere.

Mai mult de 1000 de persoane pe săptămână sunt semnalate în mod eronat ca teroriști prin algoritmii utilizați în aeroporturi. Un singur om, un pilot american Airlines, a fost reținut de 80 de ori pe parcursul unui an, deoarece numele său a fost similar cu cel al unui lider IRA.

Un copil de 22 de ani, din Asia DJ a fost refuzat un pașaport Noua Zeelandă anul trecut, deoarece sistemul automatizat care procesat fotografia sa decis că el a avut ochii închiși. Dar el nu a fost prea pus afară. “A fost un robot, fără resentimente. Am primit pașaportul meu reînnoit în cele din urmă “, a declarat el pentru Reuters.