Бреакинг Невс

Праћење емоција – вештачка интелигенција на послу: Радници се плаше да буду посматрани – и погрешно схваћени.

Молимо вас да поделите нашу причу!

Чули смо упозорења Јувала Ноа Харарија да ако не схватимо како да регулишемо вештачку интелигенцију (ВИ) Људски мозгови ће ускоро бити хаковани„, изјава која вероватно говори о најгорим страховима човечанства у вези са вештачком интелигенцијом. Ово може бити посебно тачно када се чује од Швабовог саветника Харарија да „хаковање људског бића значи упознавање те особе боље него што она сама познаје себе“, што може омогућити онима који поседују технологију да нас све више манипулишу.

Можда верујемо да ће се ова екстремна претња нашој приватности догодити некада у будућности, али хаковање које Харари описује је више пословично него буквално и већ се дешава у окружењима као што су Фејсбук и Јутјуб где смо наведени да видимо садржај који су алгоритми сматрали занимљивим за нас. Сада се чини да су многи постепено постали неосетљиви на то „хаковање“ и манипулацију, што му омогућава да се повећава без превише протеста.

Али како бисте се осећали када би ваше радно место пратило како се осећате?, пита Назанин Андалиби који је ванредни професор информатике на Универзитету у Мичигену. и у чланку испод разматра вештачку интелигенцију емоција која се већ користи на радном месту.

Праћење емоција – вештачка интелигенција на послу: Радници се плаше да буду посматрани – и погрешно схваћени.

By Назанин Андалиби

Вештачка интелигенција за емоције користи биолошки сигнали као што су тон гласа, изрази лица и подаци са носивих уређаја, као и текст и начин на који људи користе своје рачунаре, обећавајући да ће открити и предвидети како се неко осећа. Користи се у контекстима и свакодневним, попут забаве, и онима са високим улогом, попут радног места, запошљавања и здравствене заштите.

Широк спектар индустрија већ користи вештачку интелигенцију емоција, укључујући кол центре, финансије, банкарство, негу и неговање. Више од 50% великих послодаваца у САД користи вештачку интелигенцију емоција са циљем да се закључи о унутрашњим стањима запослених, пракса која порасла током пандемије ЦОВИД-19На пример, кол центри прате шта њихови оператери говоре и њихов тон гласа.

Научници су изразили забринутост због Научна валидност емоционалне вештачке интелигенције и његово ослањање на спорне теорије о емоцијамаТакође су истакли потенцијал вештачке интелигенције емоција за нарушавање приватности и излагање расниpol   инвалидитет склоност.

Неки послодавци користе технологију као да је беспрекорно, док неки научници покушавају да смањити његову пристрасност и побољшати његову валидностдискредитовати га потпуно или предложити забрана вештачке интелигенције емоција, барем док се не сазна више о његовим импликацијама.

Ја проучавам друштвене импликације технологијеВерујем да је кључно испитати импликације вештачке интелигенције емоција за људе који су јој изложени, као што су радници – посебно они маргинализовани због своје расе, пола или инвалидитета. Да ли вештачка интелигенција заиста може да чита ваше емоције? Не баш.

Забринутост радника

Да бих разумео куда води употреба вештачке интелигенције за емоције на радном месту, мој колега Карен Бојд и кренуо сам да испитам замисли проналазача вештачке интелигенције емоција на радном месту. Анализирали смо пријаве патената које су предлагале технологије вештачке интелигенције емоција за радно место. Наводне користи које су тврдили подносиоци патената укључивале су процену и подршку добробити запослених, обезбеђивање безбедности на радном месту, повећање продуктивности и помоћ у доношењу одлука, као што су унапређења, отпуштање запослених и додељивање задатака.

Питали смо се шта радници мисле о овим технологијама. Да ли би и они приметили ове користи? На пример, да ли би радници сматрали да је корисно да им послодавци пруже подршку за добробит?

Моји сарадници Шенли КорвитеКет РемихТили Илана Розенберг и спровео сам анкету која је делимично репрезентативна за становништво САД, а делимично претерано узоркована за људе друге боје коже, трансродне и небинарне особе и људе који живе са менталним болестима. Ове групе могу бити склоније да доживе штету од емоционалне вештачке интелигенције. Наша студија је имала 289 учесника из репрезентативног узорка и 106 учесника из претерано узоркованог узорка. Открили смо да 32% испитаника је изјавило да нису доживели или очекивали никакву корист за себе од емоција које вештачка интелигенција користи, било да су тренутне или очекиване, на свом радном месту.

Иако су неки радници истакли потенцијалне користи од употребе вештачке интелигенције емоција на радном месту, попут повећане подршке за добробит и безбедности на раду, што одражава користи наведене у пријавама за патенте, сви су такође изразили забринутост. Били су забринути због штете по њихову добробит и приватност, штете по њихов радни учинак и радни статус, као и предрасуда и стигме менталног здравља према њима.

На пример, 51% учесника изразило је забринутост због приватности, 36% је приметило могућност погрешних закључака које би послодавци прихватили здраво за готово, а 33% је изразило забринутост да би се закључци генерисани вештачком интелигенцијом, засновани на емоцијама, могли користити за доношење неправедних одлука о запошљавању.

Гласови учесника

Један учесник који је имао више здравствених проблема рекао је: „Свест да ме анализирају иронично би негативно утицала на моје ментално здравље.“ То значи да упркос наводним циљевима вештачке интелигенције емоција да закључује и побољша благостање радника на радном месту, њена употреба може довести до супротног ефекта: смањења благостања због губитка приватности. Заиста, други радови мојих колега Ромиха, Флоријан Шауб и сугеришем да губитак приватности изазван вештачком интелигенцијом може обухватити низ штете по приватност, укључујући психолошки, аутономија, економски, односи, физички и дискриминација.

О забринутости да би емоционални надзор могао да угрози њихов посао, учесник са дијагностикованим менталним здравственим стањем је рекао: „Могли би да одлуче да више нисам добар за посао и да ме отпусте. Да одлуче да нисам довољно способан и да ми не дају повишицу, или да мисле да не радим довољно.“

Учесници студије су такође поменули могућност погоршања неравнотеже моћи и рекли да се плаше динамике коју би имали са послодавцима ако би се вештачка интелигенција емоција интегрисала у њихово радно место, указујући на то како би употреба вештачке интелигенције емоција потенцијално могла да појача већ постојеће тензије у односу послодавац-радник. На пример, један испитаник је рекао: „Количина контроле коју послодавци већ имају над запосленима сугерише да би било мало провера како би се ове информације користиле. Било каква „сагласност“ запослених је у великој мери илузорна у овом контексту.“ Вештачка интелигенција емоција је само један од начина на који компаније прате запослене.

На крају, учесници су истакли потенцијалне штете, као што су техничке нетачности емотивне вештачке интелигенције које потенцијално стварају лажне утиске о радницима, и емотивна вештачка интелигенција која ствара и одржава предрасуде и стигму према радницима. Описујући ове забринутости, учесници су истакли свој страх од послодаваца који се ослањају на нетачне и пристрасне системе емотивне вештачке интелигенције, посебно према људима друге боје коже, женама и трансродним особама.

На пример, један учесник је рекао: „Ко одлучује који изрази лица 'изгледају насилно' и како неко може да утврди да су људи претња само на основу израза лица? Систем може да чита лица, наравно, али не и умове. Једноставно не видим како би ово заправо могло бити било шта осим деструктивно за мањине на радном месту.“

Учесници су напоменули да би или одбили да раде на месту које користи вештачку интелигенцију емоција – опција која многима није доступна – или би се укључили у понашања која би навела вештачку интелигенцију емоција да их повољно чита како би заштитила њихову приватност. Један учесник је рекао: „Уложио бих огромну количину енергије у маскирање чак и када бих био сам у својој канцеларији, што би ме учинило веома расејаним и непродуктивним“, указујући на то како би коришћење вештачке интелигенције емоција наметнуло додатни емоционални напор радницима.

Вреди ли штете?

Ови налази указују да вештачка интелигенција емоција погоршава постојеће изазове са којима се радници суочавају на радном месту, упркос тврдњама заговорника да вештачка интелигенција емоција помаже у решавању ових проблема.

Ако емотивна вештачка интелигенција заиста функционише како се тврди и мери оно што тврди да мери, па чак и ако се проблеми са пристрасношћу реше у будућности, и даље постоје штете које радници доживљавају, као што су додатни емоционални рад и губитак приватности.

Ако ове технологије не мере оно што тврде или су пристрасне, онда су људи препуштени на милост и немилост алгоритама који се сматрају валидним и поузданим, када то нису. Радници би и даље морали да уложе труд како би покушали да смање шансе да их алгоритам погрешно протумачи или да се упусте у емоционалне изразе који би ишли у прилог алгоритму.

У сваком случају, ови системи функционишу као паноптицум-сличне технологије, стварајући повреде приватности и осећај да вас посматрају.

Извор: Назанин Андалиби za La conversación

Ваша влада и велике технолошке организације
покушајте да утишате и искључите The Expose.

Зато нам је потребна ваша помоћ да бисмо осигурали
можемо наставити да вам доносимо
чињенице које мејнстрим одбија.

Влада нас не финансира
да објављују лажи и пропаганду на својим
у име као што су мејнстрим медији.

Уместо тога, ослањамо се искључиво на вашу подршку. Зато
молимо вас да нас подржите у нашим напорима да донесемо
ви искрено, поуздано, истраживачко новинарство
данас. Безбедно је, брзо и једноставно.

Молимо вас да изаберете жељени начин испод како бисте показали своју подршку.

Останите ажурирани!

Останите у току са вестима путем имејла

Утовар


Молимо вас да поделите нашу причу!

Категорије: Бреакинг Невс

Означено као:

5 1 гласати
Чланак Оцена
Пријавите се
Обавести о
гост
14 Коментари
Инлине Феедбацкс
Погледајте све коментаре
Марк Дикон
Марк Дикон
Пре КСНУМКС година

Када ћемо моћи да хакујемо мозак Клауса Шваба да бисмо сазнали колико је зао?

Алуна
Алуна
Одговарати на  Марк Дикон
Пре КСНУМКС година

Већ је хакован, односно он је роб контролисаног ума, који се користи за представљање планова и тежњи елите.
Ништа од овога није он развио.
Зли творци Новог светског поретка налазе се у САД, наиме у ЦИА-и и америчкој војсци.
Они деценијама раде на остваривању ових циљева, они поседују све патенте.

гунђање/грмљање
гунђање/грмљање
Одговарати на  Алуна
Пре КСНУМКС година

Да, пре много година ми је у руку против моје воље убризган војни РФИД, а локална полиција га користи за узнемиравање. Покушаће да све што видим или чему сведочим прикажу као погрешно како би покушали да ме манипулишу или злостављају на неки начин. А ово је сада стара технологија у поређењу са оним што сада имају.
Чувајте се.

ЧарлиСијетл
ЧарлиСијетл
Одговарати на  Марк Дикон
Пре КСНУМКС година

Нуклеарно уништите Давос и освојите их све.

biggrump
biggrump
Пре КСНУМКС година

Веома сам забринут због све веће употребе вештачке интелигенције. Чини се да је то још један корак низ веома клизав терен.

вивие
вивие
Пре КСНУМКС година

Тако сам срећан што сам у пензији и што не морам да трпим такве глупости.

Робби
Робби
Пре КСНУМКС година

УКЛОНИТЕ ОВАЈ КАПАЦИТЕТ СА РАДНОГ МЕСТА…
ТО ЈЕ РОПСТВО И НЕПРИПЉИВО.
СТАЛНИ НАДЗОР ЈЕ ЗАТВОР.

Гуштер из Оза
Гуштер из Оза
Пре КСНУМКС година

С обзиром на демографске промене у многим западним и азијским земљама, старење радне снаге и пад стопе наталитета, моћ ће се пребацити на раднике. Смањује се број људи које треба запослити, а послодавци се налазе у конкуренцији за радну снагу. Промена ставова према обуци, где послодавци смањују број шегртова и приправника, значи да се смањује и расположиви број квалификованих радника.

Све ово је добар знак за људе, посебно оне са вештинама и извесним самопоуздањем да послодавцима кажу где могу да ставе своју вештачку интелигенцију и повезане уређаје. Несташица радне снаге након Црне смрти донела је повећану мобилност радне снаге и крај феудалног система. Наши садашњи господари и господари наћи ће се у сличној ситуацији као богаташи из 15. века који су се суочили са великом несташицом кметова.

Искрено, праћење емоција ми делује као још једна реклама за вештачку интелигенцију. Колико кошта? Да ли ради оно што тврди у сјајној брошури? Како се од тога добијају користи? Какво ће особље неко задржати када они са вештинама и способностима кажу „је*и ово“ и дају отказ?

Основни проблем са интелектуалном својином је то што се она креће по главама људи. Када те главе изађу, знање ваше компаније иде са њима.

dan
dan
Пре КСНУМКС година

Читав чланак је бесмислица. Само зато што је неки власник робова негде покушао да прати крвни притисак роба не значи да им је „мозак хакован“. То је само још једно јефтино новинарство ради зараде. И лепо вас одвлачи од ствари које су битне.

ЧарлиСијетл
ЧарлиСијетл
Пре КСНУМКС година

Увек сам изгледао збуњено док сам решавао неки проблем.

Крејг Марк
Крејг Марк
Пре КСНУМКС година

Прочитај Библију ако се усуђујеш. Откривење, поглавље 13.