Зголемена пристапност, независност и полесна комуникација – вештачката интелигенција нуди бројни можности за лицата со попреченост и веќе ги трансформира нивните животи. Оваа технологија, сепак, со себе носи и недостатоци, меѓу кои и ризици од дискриминација и пристрасност. Клучот за ослободување на целосниот потенцијал на ВИ лежи во посветеноста на ИТ компаниите на етичките стандарди и цврстите регулаторни рамки кои треба да обезбедат инклузивност и да ги заштитат човековите права.

Со години Кристијан Лазарев користел застарена технологија за да се движи и ориентира низ светот околу него, потпирајќи се на несмасни, роботски гласови и ограничени, често неточни апликации.

Сето ова се сменило со најновите технолошки изуми и напредокот на вештачката интелигенција.

„Ќе го сликам сега лаптопот и на апликацијата ѝ требаат 5-10 секунди за да ја прати сликата. Напредокот од оваа година е што можам да ѝ поставам конкретни прашања за тоа што го има на фотографијата. На пример, ме интересира кој бренд е лаптопот или која боја е“, вели Кристијан додека го слушаше аудио-читачот на неговиот телефон што му опишува како изгледа лаптопот фотографиран пред десетина секунди.

Кристијан е дипломиран професор по македонски јазик и литература, а во моментов е студент на Факултетот за електротехника и информациски технологии (ФЕИТ). Има 29 години и е лице со целосно оштетување на видот.

„Ако има лист хартија со напишан текст, ќе ми го прочита текстот. Можам да ѝ кажам ‘Не сакам цел текст, сакам да ми направиш кратко сиже од тоа што го има на листот’. И ќе го направи тоа“, вели тој.

Во разговорот со Кристијан, трансформативниот потенцијал на вештачката интелигенција за неговиот живот беше очигледен. Соговорникот опишуваше како од некогаш „ужасен“ и досаден „роботски“ глас, сега, благодарение на најновата технологија, користи современи апликации како „Seeing AI“ и „Be My Eyes“, кои се потпираат на ВИ за обезбедување помош во реално време за лицата со оштетување на видот.

Кристијан Лазарев / фото: лична архива

„Уште не е совршено добро, ама многу брзо напредува. На пример, лани немаше опција да може да се сликне и да се направи ваква интеракција со сликата. Тоа што сега го има е буквално интеракција со сликата. Може да ја прашувам да ми го објаснува секој дел од фотографијата“, вели Кристијан, кој и самиот пишува статии и рецензии за технолошки уреди и помагала за слепите лица.

Алатките што тој ги користи се пример за прогресот што се постигнува во однос на можностите за лицата со оштетен вид. „Seeing Ai“, развиена од Мајкрософт, нуди различни функции, вклучително и препознавање и опис на слики, превод на текст и одговарање на дополнителни прашања што можеби корисниците ги имаат.

„Be My Eyes“, пак – платформа управувана од волонтери, ја демонстрира моќта на заедницата во пристапноста, поврзувајќи ги слепите и лицата со оштетен вид со волонтери кои им помагаат во извршување на секојдневните задачи.

Со можностите што ги донесе најновата верзија на еден од најпопуларните јазични модели, ChatGPT (верзијата наречена „4о“), „Be My Eyes“ неодамна воведе виртуелен волонтер кој ја користи технологијата на „GPT-4“. Овој виртуелен волонтер може да понуди речиси исто ниво на контекст и разбирање како и човечкиот.

 

Вештачка интелигенција за сите

Со зголемувањето на популарноста и сложеноста на системите за вештачка интелигенција, се појавуваат сè повеќе решенија кои можат да им помогнат на луѓето со ментални, физички, визуелни или слушни нарушувања.

Извештај на Светската здравствена организација (СЗО) и УНИЦЕФ од 2022 година открива дека, до крајот на деценијата, повеќе од 2,5 милијарди луѓе во светот ќе имаат потреба од еден или повеќе помошни уреди како колички за движење, слушни помагала или апликации за поддршка во комуникацијата.

Покрај технологиите кои текстот го претвораат во говор (text-to-speech) и кои, со најновите достигнувања, може да го менуваат тонот или интонацијата на гласот врз основа на тоа што се изговара и според расположението на корисникот, вештачката интелигенција се очекува да ги подобри и направи подостапни и апликациите за навигација и ориентирање.

Најновите алатки може да го интерпретираат и знаковниот јазик во текст или говор, што ќе ја олесни комуникацијата помеѓу лицата со и без нарушувања во слухот и говорот. Таков пример, всушност, има и во Северна Македонија – минатата година, тројца тогашни матуранти го претставија својот проект – смарт ракавица, која го преведува знаковниот јазик, односно движењето на раката, во текст, што им овозможува на глувонемите лица да комуницираат со лицата кои слушаат и зборуваат.

ТРОЈЦА МАТУРАНТИ СОЗДАДОА ПАМЕТНА РАКАВИЦА СО КОЈА МОЖЕ ДА СЕ КОМУНИЦИРА СО ГЛУВОНЕМИ ЛИЦА

 

Ако разговарате со големите јазични модели како ChatGPT на „OpenAI“ или Gemini на „Гугл“, ќе ви набројат уште низа примери за тоа како технологијата на која се базирани може да го олесни секојдневното функционирање на лицата со физичка попреченост.

Така, ќе ви кажат (или напишат) дека значително ќе ги унапредат и системите за предупредување, на начин што аудио-сигналите (како алармите за пожар) може да се претворат во визуелни или вибрирачки известувања на паметните уреди, со што ќе им се обезбеди на лицата со оштетен слух да бидат свесни за звуците во нивната околина, а што е важно за нивната безбедност.

Гласовните асистенти како „Сири“, „Гугл Асистент“ и „Алекса“ им овозможуваат на корисниците со пречки во мобилноста да ги контролираат паметните домашни уреди, компјутери или телефони, без користење на раце. Додека за некои луѓе ова е само уште една функционалност на модерната технологија, за лицата со квадриплегија значи менување на животот.

Вештачката интелигенција што е достапна денес нуди и персонализирано учење и може да ја приспособи содржината на темпото и стилот на учење на лицата со когнитивни попречености. Така, платформите како „DreamBox“ и „Lexia“ ги приспособуваат лекциите врз основа на перформансите на корисникот.

„За луѓето со дислексија многу ќе се сменат работите. За нив, на пример, е многу мачно да читаат цела книга и веќе постојат апликации кои ќе им помогнат. Со најновата верзија на ChatGPT може да се прикачи цела книга и да се побара да се извадат клучните поенти од книгата во една или две страници и системот да го прочита тоа на глас, со што овие лица ќе имаат пристап до многу повеќе информации отколку што имале досега“, вели Кристијан Лазарев во разговорот околу можностите на ВИ.

Виртуелните терапевти се уште една предност на вештачката интелигенција. Внимателно тренирани чет-ботови веќе нудат техники за когнитивна бихевиорална терапија и кризна интервенција. Апликации како „Woebot Health“ и „Wysa“ веќе постојат за оваа цел. ВИ може да го следи и однесувањето на корисниците и да открива знаци на вознемиреност кај нив (преку промена во начинот на пишување на тастатурата или преку објавите на социјалните мрежи) и за тоа да ги предупреди асистентите, старателите или професионалците, што може да биде корисно за лицата со депресија, анксиозност или посттрауматско стресно растројство (ПТСН).

Апликациите базирани на најновата технологија го следат и расположението кај корисниците, распознавајќи визуелни знаци и знаци на вознемиреност во гласот. Ваквите апликации, во комбинација со паметните часовници кои го мерат отчукувањето на срцето, може да ги препознаат нашите емоции уште пред ние самите да станеме свесни за тоа како се чувствуваме.

 

Пристрасноста во развојот на ВИ и влијанието врз пристапноста и инклузијата

И додека вештачката интелигенција, очигледно, значително (ќе) ја подобрува пристапноста за многумина, важно е да се препознае дека, без внимателна имплементација, може (не)намерно да ги исклучи или дискриминира лицата со попреченост.

„Сега ќе ви покажам што значи пристапност и непристапност преку една единствена апликација“, вели Кристијан додека ни ги објаснуваше функциите на мобилна апликација за учење странски јазици.

OK“ (во ред), „Listen“ (слушај), „Speak“ (зборувај) – ги изговараше аудио-читачот копчињата во апликацијата, пред неколку пати да изговори „Unlabeled“ (неозначено). На повеќе копчиња што ги притискаше Кристијан не беше додадена ознака за што служат, поради што лицата со оштетен вид, како него, би имале проблем непречено да ја користат апликацијата.

„Самите копчиња на апликацијата се неозначени. И сега, јас не знам ова копче за што е, затоа што е неозначено. Пробува телефонот да го препознае, ми кажува дека е некаква иконка со нешто за глас, ама не знам што е и за што служи. Тоа значи непристапна апликација на телефон, истото е и со компјутер. Ќе влезам во некоја апликација, на пример банкарска, и читачот само ми кажува дека е некакво копче, но не и за што служи. Ако програмерите не му стават ознака „labeled“, нема да знам за што се работи“, вели Кристијан.

Алгоритмите за ВИ во одредени случаи може да ги зајакнат и предрасудите или стереотипите, што доведува до дискриминаторски исходи за лицата со попреченост. Таков пример е семејството Хакни од Питсбург, САД, чија ќерка минатата година била одземена од службениците за заштита на децата, кои ги обвиниле родителите за запоставување на своето дете.

Двајцата родители на девојчето, Ендру и Лорен, имаат пречки во развојот и се сомневаат дека алатката базирана на вештачка интелигенција која е дел од системот за заштита на децата во округот Алегени, ги обележала како ризични поради нивните попречености. Тие сметаат дека системот ги дискриминирал поради начинот на кој алгоритмот ги проценувал факторите на ризик, односно „АДХД“ на Лорен и нарушениот нервен систем на Ендрју, најверојатно довеле до повисоки оценки за ризик. Пристапот до услугите за ментално здравје, исто така, ја зголемувал севкупната оценка за ризик во системот, а семејството, поради попреченоста, најверојатно користело такви услуги.

Еднру и Лорен поднеле тужба против надлежната институција и неколку вработени, а Министерството за правда на САД истражува дали алгоритмот ги дискриминирал лицата со посебни потреби.

фото: Michael Dziedzic на Unsplash

Но, вештачката интелигенција, сама по себе, не дискриминира, затоа што системите базирани на ВИ се однесуваат и учат според податоци создадени и внесувани од луѓето. Според ова, предрасудите и дискриминацијата не потекнуваат од ВИ, туку од податоците врз кои овие системи биле тренирани, вели универзитетскиот професор Иван Чорбев.

„Алгоритмите за вештачката интелигенција во последно време се креираат со учење од податочни множества. Се собираат огромни податочни множества од порано, од разни системи и алгоритмите учат на база на нив и потоа се однесуваат според она што научиле. Проблемот е што има предрасуди инхерентно во податочните множества од кои вештачката интелигенција учи. Кога има инхерентни предрасуди во ваквите множества, ВИ која е тренирана врз нив ќе ги има истите предрасуди што веќе биле вградени внатре од страна на луѓето што одлучувале претходно. Сите предрасуди кои постоеле во тоа множество, ќе ги има и вештачката интелигенција“, вели професорот Чорбев.

Според него, станува збор за комплексен проблем, па во вткаените предрасуди е потребно да интервенира и човекот.

„Вештачката интелигенција да не биде строго базирана само на учење од податочни множества во кои има инхерентни податоци, туку да се интервенира и во тој модел на одлучување да се вградат дополнителни испрограмирани компоненти кои ќе ги надминат предрасудите“, вели професорот.

За вметнатата дискриминација во системите на ВИ, Кристијан Лазарев ќе каже:

„Исто е и со градењето на тротоарите. Ако некој сака да направи мала косина додека бетонира, никој нема да има проблем – ниту родителите со колички со деца, ниту патниците со куфери, ниту оние со количка за движење. Слични се проблемот и начинот на решавање на нештата“.

 

Етичка вештачка интелигенција

Покрај непристапноста кај дел од апликациите, вештачката интелигенција истовремено отвора и прашања за заштитата на основните човекови права и етичките стандарди и постулати, кои ги засегаат и лицата со попреченост, како маргинализирана група.

Во документот Истражување за ефектот на новите технологии, со особен фокус на вештачката интелигенција, врз човековите права на интернет, и развивање етички стандарди за заштита на човековите права на интернет при автоматско донесување одлуки на Фондацијата за интернет и општество Метаморфозис, се издвоени неколку етички принципи, за кои се вели дека „се препознаваат како појдовна точка за создавање, примена и употреба на системи за вештачка интелигенција, а кои треба да претставуваат применливи, достојни и неприкосновени правила за зачувување на човечкото достоинство поради нивната сигурност, доверливост и одговорност кон луѓето“.

Меѓу етичките принципи се наведени: објаснивост и проверливост, потоа достоинство, забрана за предизвикување штета, правичност, етичка и општествено одговорна употреба на податоците.

Во однос на забраната за предизвикување штета, во документот се вели:

„Системот за вештачка интелигенција мора да ги почитува безбедносните стандарди, односно да содржи соодветни механизми кои ќе спречат предизвикување штета на луѓето и нивниот имот. Во случај да настане штета, таа мора да се санира во најкус можен рок, а на оштетеното лице да му се надомести на начин утврден со закон“.

Во овој дел се додава дека посебно внимание треба да се посвети на заштитата на чувствителните категории како што се старите лица, лицата со попреченост или децата.

Приватноста и согласноста во врска со собирањето и користењето чувствителни лични податоци се дополнителни етички дилеми што ги отвора функционирањето на системите за ВИ. За да функционираат ефективно, овие системи бараат пристап до огромни количини податоци, што, за лицата со попреченост, може да значи собирање чувствителни податоци како што се здравствени информации, кои можат да бидат ранливи на злоупотреба.

„Сите институции, организации, компании кои се вклучени во процесот на развој и користење на вештачката интелигенција мора да обезбедат транспарентност во користењето на вештачката интелигенција, односно, да дадат јасни и концизни информации на корисниците за тоа дали и на кој начин нивните лични податоци се собираат и обработуваат при корисењето на системот кој користи вештачка интелигенција. Дополнително, на корисниците треба јасно да им биде дадено до знаење за која специфична цел нивните лични податоци ќе бидат собрани, складирани или на кој било друг начин обработувани, и да им биде понудена експлицитна можност да ја дадат или да не ја дадат својата согласност“, стои во документот на Метаморфозис.

Нашиот соговорник Кристијан вели дека не е „претерано“ загрижен околу начинот на кој се собираат информации за него, но додава дека надлежните институции треба да се осигурат оти компаниите управуваат одговорно со податоците.

 

Одговорот на предизвиците е во регулацијата, но одговорност имаат и компаниите и организациите

Во однос на проблемот со кој се соочува околу непристапноста, Кристијан вели дека одговорноста е кај развивачите на апликации, кои треба да внимаваат нивните производи да ги направат достапни за сите, така што „ќе допишат уште неколку редови во нивните кодови“ за да ги направат апликациите инклузивни.

„Самите девелопери треба да ја развијат таа свесност дека некогаш, нивните неколку секунди работа, на некој со попреченост ќе му спаси два или три часа и ќе му значи полесен пристап“, вели Кристијан.

Тој додава дека развивачите треба да ги почитуваат „W3C“ стандардите кои се оптимизирани за интероперабилност, безбедност, приватност и пристапност.

„Ако ги почитуваат тие стандарди, нивните апликации ќе бидат максимално пристапни, според можностите на сегашните технологии. Некои технологии сè уште не се стигнати до таму за сè да биде пристапно, затоа зборуваме за максимално пристапно, колку што дозволува моментот“, вели тој.

Освен тоа, Кристијан смета дека ИТ компаниите во своите оддели за тестирање на апликации треба да вработуваат и лица со попреченост, за да се осигурат дека нивните производи се пристапни за сите.

„ИТ компаниите во своите тимови имаат QA [Quality Assurance] тестери кои се млади и способни луѓе, вешти со технологија. Тоа се луѓе кои немаат никаква попреченост и многу лесно се снаоѓаат во тоа што нивните програмери го направиле. Наместо да тестираат само со такви луѓе, треба да вклучат и поширока, диверзифицирана категорија тестери, каде што би имало лица со попреченост и генерациски повозрасни луѓе за да на крај се осигура дека нивниот производ може да се употребува од страна на сите“, вели тој.

Во однос на пристрасноста и дискриминацијата, пак, во документот на Метаморфозис се вели:

„Системите на вештачка интелигенција можат да произведуваат различни форми на дискриминација благодарение на фактот што учат од претходните лоши примери или поради тоа што се програмирани да ги ставаат поединците во дискриминаторска положба. За да се елиминираат овие форми на дискриминација, неопходно е да се корегираат системите за вештачка интелигенција врз основа на примери на идеално однесување без дискриминација. Стереотипните однесувања кои водат до дискриминација не треба да се повторуваат од системите за вештачка интелигенција, но мора да се корегираат за да се укинат неправдите и да се почитуваат правилата за еднаквост за сите. Сите случаи во кои функционирањето на алгоритмот доведува до дискриминација, по која било основа, мора ефективно да се санкционираат.“

Кристијан вели дека никој не треба да се плаши од забрзаниот напредок на вештачката интелигенција, доколку развивањето на истата се прави внимателно и одговорно. Тој смета дека бенефитите од нејзиниот напредок ќе бидат видливи за сите, а меѓу оние што ќе имаат најголема корист, ќе бидат токму лицата со попреченост.

„Една од работите што најмногу ја чекаат слепите луѓе се автономните возила. А тие не би можеле да постојат ако ВИ не стане уште подобра од тоа што е сега – ако не почне да размислува со гледање видеа и да се тренира врз видеа. Така што, во некоја блиска до средно блиска иднина, мислам дека и тоа ќе се случи и тие автономни возила ќе станат реалност и нема да мора да зависиме од ЈСП кое не функционира како што треба, автобусите не стигаат на време и имаме непристапен јавен транспорт. Тоа ќе се реши“, вели Кристијан.

Уште со појавата на ChatGPT, која значеше своевидна пресвртница во развојот на генеративната вештачка интелигенција, Европската унија почна да работи на регулирање на новата технологија. Во април 2021 година, Европската Комисија ја предложи првата регулаторна рамка на ЕУ за вештачка интелигенција. Како дел од неа, се предлага да се анализираат и класифицираат системите со вештачка интелигенција според ризикот што го претставуваат за корисниците – различни нивоа на ризик ќе значат повеќе или помалку регулирање.

Откако беа одобрени минатиот месец, овие правила станаа први од ваков вид за вештачка интелигенција во светот.

Приоритет на Европскиот парламент, пак, е да се погрижи системите за вештачка интелигенција во ЕУ да се безбедни, транспарентни, да можат да се следат, да бидат недискриминаторски и еколошки. Тие треба да бидат надгледувани од луѓе за да се спречат негативни исходи. Парламентот, исто така, сака да воспостави технолошки неутрална и единствена дефиниција за вештачка интелигенција која може да се примени на идните ВИ системи.

Трансформативната моќ на вештачката интелигенција за лицата со попреченост е непобитна и нуди досега невидени можности за инклузија. Сепак, додека интегрирањето на овие технологии во човековото секојдневие продолжува, од клучно значење е да се даде приоритет на почитувањето на човековите права. Оттука, важно е да се воспостави баланс помеѓу потребата за технолошки достигнувања и потребата за почитување на правилата, насоките и законите.

Почитувањето на човековите права не смее да биде сфатено само како законска обврска со која мора да се усогласат оние кои работат на развивање на вештачката интелигенција, туку како една од основните компоненти за нејзино разумно користење. Системите на ВИ кои се развивани со пристапност и инклузивност во нивното јадро ќе донесат иднина во која технологијата навистина ќе им служи на сите, не оставајќи никого зад себе.

Линк до оргиналниот текст: Револуција во пристапноста: Трансформативната моќ на вештачката интелигенција за лицата со попреченост | Meta.mk

Сподели: