Уторак, 25.01.2022. ✝ Верски календар € Курсна листа

Резервација у ресторану открила мрачну страну вештачке интелигенције

(Pixabay)

Вештачка интелигенција може да има своју мрачну страну, и то не зато што јој је то наменио човек који је осмислио, већ уграђени алгоритми могу да је створе. То је открио један Србин, ког је „Форбс“ сврстао међу најперспективније младе ИТ стручњаке, преноси Спутњик.

Лондонска компанија „ПолиАИ“ бави се вештачким гласовима који замењују оператере у кол центрима, а међу клијентима су им неке од познатих британских компанија. Идеја је да у кол центрима на позиве одговара вештачка интелигенција, уз помоћ машинског учења, па се тако, на пример, може резервисати сто у ресторану позивом на који се јавља рачунар, а не човек. Међутим, управо на том примеру откривено је како алгоритам може да доведе и до мрачне стране вештачке интелигенције.

Оснивач компаније „ПолиАИ“ Никола Мркшић, Београђанин који живи у Лондону, прича да је током тестирања софтвера за резервације у ресторану, на позив у ком је речено да би гост хтео да дође „са својим српским пријатељем“, машина изненађујуће почела грубо да се шали, рекавши како је то могуће и да „деца могу да уђу у ресторан“, сугеришући како су Срби незрели. Када је у новом тесту речено да ће гост доћи са „пољским пријатељем“, уследило је ново изненађење - машина је поново почела са грубим шалама, говорећи да је резервација могућа „али да не смеју да уносе своје пиће у ресторан“. Те грубе шале биле су изненађење за све, јер машина није програмирана да их користи.

Одмах затим, промењен је софтвер тако да машина одговара без било каквих речи осим оних који се стриктно односе на тему, односно резервацију у ресторанима.

Мркшић каже како су такви одговори, засновани на увредљивим стереотипима, били изненађење и да није јасно како је машина дошла до њих, пише Блумберг.

(Pixabay)

Могуће је да је разлог томе што је машина, као и многе друге у индустрији вештачке интелигенције, „тренирана“ кроз алгоритам који проучава милионе разговора на Редиту, популарном форуму, на коме је, као и на другим интернет форумима, често могуће срести се са националним и другим стереотипима и другим примерима увредљивог говора.

Откриће овог тима стручњака указало је на обеспокојавајући тренд у вештачкој интелигенцији, јер се она развија са веома мало етичког надзора. Ради се о саморегулишућој индустрији, која, са друге стране, заузима све већи простор у нашим животима, чиме расту и ризици, па и онај највећи - да вештачка интелигенција превазиђе људску, истиче „Блумберг“.

Системи вештачке интелигенције продиру у све више сфера. Тако су у 2021. популарни били аутономна возила и сајбер-безбедност, где је било највише инвестиција у сфери вештачке интелигенције. Прогнозе су да су следећа поља у која ће вештачка интелигенција ући аналитика кредитирања, открића лекова и продаја и маркетинг.

Стручњаци процењују да су трошкови увођења алгоритама за инвеститоре веома јефтини и кроз дужу употребу практично непостојећи. Међутим, питање је колики је то трошак за људско благостање. И ако дизајнери софтвера не могу јасно да одговоре како ботови за комуникацију могу да смисле увредљиве шале, како је онда могуће поверити софтверу да доноси животно важне одлуке?

Један од одговора је да се изгради етички надзор над таквим системима, као што су независне комисије које користе поједине владе или болнице.

Поготово због тога што су истраживања показала како у ИТ фирмама нема довољно људи задужених за безбедност, а неке од њих развијају системе генералне вештачке интелигенције, која би могла да превазиђе људе у многим когнитивним способностима.

Други одговор је да у тренутној примени, алгоритми вештачке интелигенције морају да буду пажљивије прављени и да користе јасне и потврђене информације. Неки пројекти слични томе и сада постоје, али су засновани на раду волонтера, те је неопходно да и технолошке компаније, биле оне мале или велике, уложе у то, пише „Блумберг“.

Коментари3
Молимо вас да се у коментарима држите теме текста. Редакција Политике ONLINE задржава право да – уколико их процени као неумесне - скрати или не објави коментаре који садрже осврте на нечију личност и приватан живот, увреде на рачун аутора текста и/или чланова редакције „Политике“ као и било какву претњу, непристојан речник, говор мржње, расне и националне увреде или било какав незаконит садржај. Коментаре писане верзалом и линкове на друге сајтове не објављујемо. Политика ONLINE нема никакву обавезу образлагања одлука везаних за скраћивање коментара и њихово објављивање. Редакција не одговара за ставове читалаца изнесене у коментарима. Ваш коментар може садржати највише 1.000 појединачних карактера, и сматра се да сте слањем коментара потврдили сагласност са горе наведеним правилима.
This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

zoran stokic
Nisu im učitali Spinozine (Etica) moralne stavove: „ne mrzi nikoga, ne preziri nikoga, ne ljuti se ni na koga i ne zavidi nikome“! Nacionalna sebičnost, ali toliko proširena da postaje njena vrlina - u školama se predaje pod nazivom „patriotizam“. Prihvaćeno je da svaka gordost, svaka sujeta, pa i najgluplje hvalisanje postaje zakonito i časno, čim se pripiše narodu u kome se čovek potrudio da se rodi. Ono što se niko ne bi usudio reći o svom egu, on ima svetu dužnost da kaže o svojoj naciji.
Milanche
Hvala redakciji na zanimljivom tekstu. Pišite što više o nauci i razvoju veštačke inteligencije, koja je neverovatno potcenjena i još uvek slabo korišćena kod nas.
DjoleP
Moda zvana "veštačka inteligecija" treba da padne u realne okvire. Ti algoritmi koji "sami uče" su nepouzdani do te mere da će, kad tad, biti zaboravljeni. Mašina može da uradi ono što je jednostavno i ima tačno definisanu logiku, čak i efikasnije od čoveka. Ostalo - to je utopij (i lepa tema za "sveznalice" novinare).

Комeнтар успeшно додат!

Ваш комeнтар ћe бити видљив чим га администратор одобри.

Овај веб сајт користи колачиће

Сајт politika.rs користи колачиће у циљу унапређења услуга које пружа. Прикупљамо искључиво основне податке који су неопходни за прилагођавање садржаја и огласа, надзор рада сајта и апликације. Подаци о навикама и потребама корисника строго су заштићени. Даљим коришћењем сајта politika.rs подразумева се да сте сагласни са употребом колачића.