Свържете се с нас

Компютърни технологии

OASI, първата търсачка, която открива алгоритмите, които правителствата и компаниите използват за гражданите

ДЯЛ:

Публикуван

on

Ние използваме вашата регистрация, за да предоставяме съдържание по начини, по които сте се съгласили, и за да подобрим разбирането ни за вас. Можете да се отпишете по всяко време.

  • Създадена от фондация Eticas, Обсерваторията на алгоритмите със социално въздействие, OASI, събира информация от десетки алгоритми, използвани от публичните администрации и компании по целия свят, за да научат повече за тяхното социално въздействие.
  • Целта е да се даде публичен достъп до информация както за правителствата, така и за алгоритмите на компанията, както и да се знае кой ги използва, кой ги разработва, какви заплахи представляват и дали са били одитирани, наред с други характеристики.
  • Пристрастията и дискриминацията на алгоритъма обикновено възникват въз основа на възраст, пол, раса или увреждане, наред с други ценности, но поради общата липса на прозрачност, все още не е възможно да се знаят всичките му последици върху засегнатите групи.

Фондация Eticas, организация с нестопанска цел, която насърчава отговорното използване на алгоритми и системи за изкуствен интелект (AI), създаде Обсерваторията на алгоритмите със социално въздействие (OASI). Тази обсерватория въвежда търсачка, за да научи повече за инструментите, които вземат важни автоматизирани решения за гражданите, потребителите и потребителите по целия свят.

В момента и компаниите, и публичните администрации автоматизират решенията благодарение на алгоритми. Въпреки това, нейното разработване и въвеждане в експлоатация не следва външен контрол на качеството, нито е толкова прозрачен, колкото би трябвало да бъде, което оставя населението незащитено. С тази търсачка всеки може да научи повече за тези алгоритми: кой ги е разработил, кой ги използва, обхвата им на приложение, дали са били одитирани, техните цели или тяхното социално въздействие и заплахите, които представляват.

В момента, OASI събира 57 алгоритма, но очаква да достигне 100 -те през следващите месеци. Сред тях 24 вече се прилагат в САЩ от правителството и големите технологични компании. Например ShotSpotter, инструмент за алгоритъм, внедрен от полицейското управление на Оукланд за борба и намаляване на насилието с оръжие чрез микрофони за наблюдение на звука, и алгоритъм за прогнозиране на потенциално насилие и пренебрегване на деца, използван от окръг Алегени, Пенсилвания. Друг пример от корпорация е Rekoggnition, системата за разпознаване на лица на Amazon, която беше одитирана от MIT Media Lab в началото на 2019 г. и установи, че се представя значително по-лошо при идентифициране на пола на дадено лице, ако е от женски пол или с по-тъмна кожа.

Най -честата дискриминация е по възраст, пол, раса или увреждане, произведени неволно от разработчици, които нямат социално -икономически умения, за да разберат въздействието на тази технология. В този смисъл тези инженери проектират алгоритмите само въз основа на технически умения и тъй като няма външни контроли и изглежда, че работи според очакванията, алгоритъмът продължава да се учи от дефицитни данни.

Предвид липсата на прозрачност относно функционирането на някои от тези алгоритми, Фондация Eticas, освен стартирането на OASI, разработва проект за външни одити. Първият е VioGén, алгоритъмът, използван от испанското вътрешно министерство за възлагане на риск на жени, които търсят защита, след като са претърпели случаи на домашно насилие. Eticas ще извърши външен одит чрез обратни инженерни и административни данни, интервюта, доклади или сценарии за проектиране, за да събере мащабни резултати. Всичко това с цел откриване на възможности за подобряване на защитата на тези жени.

„Въпреки наличието на алгоритмични методи за контрол и одит, за да се гарантира, че технологиите зачитат действащите разпоредби и основни права, администрацията и много компании продължават да се чуват за искания за прозрачност от граждани и институции“, заяви Джема Галдън, основател на фондация Eticas . „В допълнение към OASI, след няколко години, в които сме разработили повече от дузина одити за компании като Alpha Telefónica, ООН, Koa Health или Междуамериканската банка за развитие, ние също публикувахме Ръководство за алгоритмичен одит, така че че всеки може да ги изпълнява. Целта винаги е да се повиши осведомеността, да се осигури прозрачност и да се възстанови доверието в технологиите, което само по себе си не трябва да е вредно. "

В този смисъл алгоритмите, които се обучават с техники за машинно обучение, използват голямо количество исторически данни, за да ги „научат“ да избират въз основа на минали решения. Обикновено тези данни не са представителни за социално -икономическата и културната реалност, в която са приложени, но в много случаи отразяват несправедлива ситуация, която не е предназначена да бъде увековечена. По този начин алгоритъмът би взел технически "правилни" решения според обучението си, въпреки че реалността е, че препоръките или прогнозите му са предубедени или дискриминиращи.

реклама

За фондация Eticas

Фондация „Етикас“ работи, за да превърне в технически спецификации принципите, които ръководят обществото, като равни възможности, прозрачност и недискриминация, които са в технологиите, които вземат автоматизирани решения за живота ни. Той търси баланс между променящите се социални ценности, техническите възможности на най -новите постижения и правната рамка. За тази цел той одитира алгоритми, проверява дали правните гаранции се прилагат към цифровия свят, особено към изкуствения интелект, и извършва интензивна работа за повишаване на осведомеността и разпространение на необходимостта от отговорни, качествени технологии.

Споделете тази статия:

EU Reporter публикува статии от различни външни източници, които изразяват широк спектър от гледни точки. Позициите, заети в тези статии, не са непременно тези на EU Reporter.

Тенденции