Случаите на неисправно функционирање на интелигентни програми зачестија во последните години, па така во рамките на ЕУ и Европскиот совет, се усвоени голем број документи и предлози за подигнување на свеста за заканата од овие технолошки производи за човековите права, пишува Порталб.мк

Фото: Photo by Hitesh Choudhary on Unsplash

Успехот на ChatGPT и другите интелигентни апликации создаде впечаток во јавноста дека сега човечките обврски ќе бидат значително олеснети и во иднина сè ќе биде автоматски, без да се свесни за проблемите што ги имаат овие програми и колку лесно можат да донесат погрешни одлуки. Со оглед на тоа што вештачката интелигенција несомнено ќе остане дел од нашето секојдневие, важно е да бидеме информирани за нејзините придобивки, но и подготвени за ризиците што ги носи, пишува Порталб.мк.

Случаите на неисправно функционирање на интелигентни програми зачестија во последните години, па така во рамките на ЕУ и Европскиот совет, се усвоени голем број документи и предлози за подигнување на свеста за заканата од овие технолошки производи за човековите права.

Во истражувањето на Др. Игор Камбовски и М-р. Елена Стојановска за ефектот на новите технологии, со посебен осврт на вештачката интелигенција, се вели дека неговата употреба при носењето одлуки носи сериозен ризик да биде дискриминаторска, особено кога ќе го земеме во предвид фактот дека не може да се образложи како интелигентна програма дошла до одреден заклучок.

На пример, корисниците на банкарските услуги честопати немаат информација дека одлуките за нивните барања за кредити се носат од системи за вештачка интелигенција, а не од луѓе. Второ, корисниците на банкарските услуги, дури и кога знаат дека за нивните барања одлучува систем за вештачка интелигенција, немаат соодветно образложение зошто им е одбиено барањето, па логично е на клиентите да им е тешко да утврдат дали алгоритамската одлука е дискриминаторска или не, се наведува во истражувањето.

Слична дискусија имаше и минатата година во Скопје, со претставници од ФИТР, Здружението за технологија и интернет на Романија, Партнерите за демократски промени од Србија и Европската иницијатива за дигитални права од Белгија, каде беа изброени некои од најнесреќните случаи на неисправно функционирање на интелегентните софтвери.

Да не го заборавиме скандалот што се случи во Холандија со социјалната помош, која беше многу едноставен систем на вештачка интелигенција. Системот покажа дека има луѓе кои лажат кога поднесуваат барање за социјална помош. Овој систем на вештачка интелигенција анализираше работи како живеалиште, етничка припадност итн. Како резултат на функционирањето на овој систем, на некои луѓе бесправно им беше одземено правото на социјална помош, на други им ги одземаа децата, а некои дури и се самоубија, рече Ела Јакубовска, виш советник за политика во Европската иницијатива за дигитални права од Белгија.

Секако, и балканските земји ја истражувале популарноста на производите за вештачка интелигенција, а истовремено и зголемениот ризик од нивната употреба. Северна Македонија во 2021 година формираше работна група која требаше да развие Национална стратегија за вештачка интелигенција, за да им помогне на луѓето кои сакаат да ја запознаат и да се занимаваат со вештачката интелигенција. Во рамките на оваа стратегија, на многу локални старт-ап компании ќе им се даде можност да ги реализираат своите идеи и проекти со соодветна обука и пристап до современа опрема. Работната група вклучува претставници на компанијата Аспигел, Веб Фактори, Масит, Пиксел, Министерството за економија, Здружението Конект, Фондација Метаморфозис, Факултет за електротехника и информациски технологии како и Министерство за информатичко општество.

Зошто е тешко да се создаде интелигентна програма која не дискриминира?

Спротивно на различните теории кои се шират во широката јавност, развивачите на вештачката не ги „местат„ намерно интелигентните програми да работат на штета на општеството, ниту пак ги држат под контрола бидејќи во тој случај тоа би било заговар против човештвото. Вистината е дека логиката на една интелигентна програма не се „пишува“, нема линии на код каде што е напишано „ако X е Македонец, игнорирај го“. Најголемиот дел од работата лежи во тоа како се подготвуваат податоците.

Ако сакаме да обучиме интелигентна програма која избира идни вработени во една компанија, во наједноставно сценарио, би ни требале доволно податоци за да создадеме барем една статистичка табела (70% од менаџерите се постари од 30 години, 13,7% се од Европа, 23% се русокоси…) и тоа да и го понудиме на ВИ. Оваа табела се креира по собирање податоци од, на пример CV-јата на 10.000 вработени и ѝ овозможува на вештачката интелигенција да „учи“ врски како што се: Доколку кандидатот е над 30 години, тој е погоден да биде менаџер.

Првите пречки кои се појавуваат во ваква ситуација се предрасудите кои веќе ги има општеството и се разбира, се рефлектираат и кај податоците. На пример, ако во табелата само 14% од менаџерите се жени, тогаш вештачката интелигенција ќе биде пристрасна дека жените се несоодветни за менаџерски улоги, а таквите предрасуди е тешко да се елиминираат, бидејќи не можеме да создадеме лажни табели.

Така, еден начин на кој развивачите на вештачка интелигенција се справуваат со овие проблеми е преку додавање на индикатори на важност на секој фактор. За нашиот хипотетички случај, во однос на возраста и полот, можеме да „и ставиме на знаење“ на вештачката интелигенција да ѝ даде поголемо значење на возраста, бидејќи нејзиниот индикатор на важност е поголем.

Пример за создадената врска преку статистичките податоци без и со индекс на важност. Фото: Илустрација од Порталб.мк

Но, во една невронска мрежа има милиони такви фактори, кои се меѓусебно поврзани едни со други.

Можеме ли да предвидиме како еден од нив, или индикаторот на еден од нив, ќе влијае на конечниот резултат?

„Ефектот на пеперутка“што го создава една невронска мрежа е втората пречка што го условува и го отежнува развојот на ефективна интелигентна апликација.

Пример за тоа како се меѓусебно поврзани врските за да се создаде систем за одлучување. Фото: Илустрација од Порталб.мк

Дури и за развивачите на вештачка интелигенција, процесот на вештачко учење е случаен

Она што всушност се случува кога тренирате интелигентна програма е дека некој индикатор на важност случајно се менува или некој фактор се игнорира. Имено, случајно може да се игнорира возраста или да се намали индикаторот на нејзината важност и после секоја случајна конфигурација се тестира за да се види дали паметната програма работи добро, што значи дека, нејзините програмери немаат контрола врз неа и не можат да предвидат што ќе научи паметната програма.

Од податоците потребни за обука на вештачката интелигенција, еден дел се издвојува за да се тестира наученото и да се види колку е тоа функционално, но повторно, тоа не значи дека програмата е подготвена да биде пуштена на пазарот. ВИ бара сличности и разлики во податоците, но не може да предвиди какви сличности и разлики ќе најде. На пример, од голем број апликации таа може да научи дека повеќето апликанти кои се успешни менаџери го започнале својот опис со зборовите „Јас сум“ и следствено да го оцени секој апликант што го започнал своето CV на тој начин како доста погоден. Од фотографиите на адвокатите на компанијата, може да ги научи не цртите на лицето, туку нивото на светлина или нивото на контраст или пак должината на косата. Затоа, многу паметни програми можат да бидат 100% ефективни во донесувањето одлуки со податоците кои се подготвени за нив, но сепак да не успеваат на пазарот.

Јашари: Предизвикот не лежи во системите за вештачка интелигенција, туку во самите луѓе

Бардил Јашари, директор на Фондацијата Метаморфозис и истовремено дел од работната група на Националната стратегија за ВИ, изјави дека базата на податоци со која се учи програмата е многу поважна од моделот на учење. Податоците, според него, се темелот врз кој се градат системите за вештачка интелигенција и директно влијаат и ги обликуваат можностите и резултатите на овие системи.

Бардил Јашари / Фото: Ванчо Џамбаски

„Замислете куќа: можете да имате одличен архитект и вешт градежен тим, но ако темелот е слаб, целата структура е загрозена. Квалитетот на податоците истотака игра важна улога – дури и најсофистицираните алгоритми за вештачка интелигенција нема да можат да ги надминат недостатоците на нецелосните податоци“, вели Јашари.

Јашари додава дека интернетот е полн со дискриминаторски содржини, предрасуди и омраза, и доколку при дизајнирањето програми што користат вештачка интелигенција, дозволиме системот за вештачка интелигенција неконтролирано да учи од овие податоци, ќе имаме проблематични резултати. Затоа, податоците што се користат за обука или учење на системот базиран на вештачка интелигенција мора да бидат сеопфатни и непристрасни.

Според него, тоа може да се направи со собирање податоци од различни извори и со користење на техники за откривање и отстранување на предрасудите во рамките на користениот сет на податоци. Потоа, самите алгоритми за вештачка интелигенција може да се модифицираат за да бидат поправедни и да ги отстранат дискриминаторските предрасуди во процесот на донесување одлуки.

Во овој процес, транспарентноста е клучна. Правејќи ги системите за вештачка интелигенција потранспарентни, се овозможува проверка и идентификување на потенцијалните предрасуди. Редовните ревизии и проверки можат да помогнат во идентификувањето и решавањето на дискриминаторските прашања во системите за вештачка интелигенција пред да предизвикаат штета, вели тој.

Јашари го истакна фактот дека вештачката интелигенција не треба целосно да го замени човечкото расудување и оценување, особено за чувствителните теми. Сепак, според него, дури и човечкото расудување не е секогаш ослободено од предрасуди, што ја прави оваа мисија тешка, но не и невозможна.

„Предизвикот не лежи во системите за вештачка интелигенција“, рече Јашари, „туку во самите луѓе со нивните предрасуди и вредности“.

Линкот до оргиналниот текст: Вештачката интелигенција може да дискриминира: Зошто сè уште не е ефективна во донесувањето одлуки? | Meta.mk

Сподели: