Владе широм света журе да имплементирају системе вештачке интелигенције како би уштеделе време и новац. Неизбежно, предлози су усредсређени на повећање ефикасности као што су паметнији полицијски рад, бржи редови чекања и јасније откривање превара. Али стварност је много хаотичнија. Аутоматизовани системи су погрешно смањили бенефиције, препознавање лица расте брже од његових заштитних мера, а алати за предвиђање константно рециклирају предрасуде из прошлости. Овај глобални преглед приказује најозбиљније пропусте последњих година и на шта треба обратити пажњу у будућности.

Где је већ пошло по злу
Скандал са накнадама за бригу о деци у Холандији – 2021.
Аутоматизовано профилисање ризика и агресивна примена закона погрешно су означили хиљаде породица као преваранте. Отплата дугова је погрешно захтевана из стварних случајева, систем је био пољуљан, а политичке последице су изазвале оставку владе.
Дански алгоритам социјалне помоћи неуспео – 2024–2025
Десетине модела за откривање превара пратиле су подносиоце захтева за социјалну помоћ. Група за људска права Амнести интернешенел известила је да алгоритми представљају ризик од масовног надзора и дискриминације маргинализованих група. Системи су остали у употреби док се контрола настављала и 2025. године.
Предвиђајућа реакција француске полиције – 2025.
Цивилно друштво је документовало предиктивно распоређивање полиције и у мају 2025. године позвало на потпуну забрану. Докази показују да су алати за предвиђање ризика и алати за предвиђање ризика непрозирни и да вероватно репродукују пристрасност. Ови системи се обучавају на основу историјских података, што шаље полицајце назад у исте крајеве који су можда већ били прекомерно полицијски контролисани, док се врло мало ради на едукацији маса о томе како то функционише и не постоји веродостојан начин за жалбу.
САД проширују биометријске граничне контроле – 2025.
Поређења лица се врше на стотинама аеродрома, морских лука и копнених граница. Могућности искључивања очигледно постоје, али су збуњујуће за већину, а тачност варира у зависности од демографске групе, при чему транспарентне бројке тек треба да се појаве. Људски редови се наводно крећу спорије од аутоматизованих, претварајући погодност у индиректни притисак да се придржавају нове технологије.
Последице аустралијског система Robodebt и нови кварови аутоматизације – 2023–2025
Краљевска комисија је утврдила да је аутоматизована шема задуживања незаконита и штетна. Године 2025, надзорна тела су означила хиљаде неправедних отказивања захтева за посао повезаних са ИТ грешкама у оквиру за усклађеност са Таргетом. Објављене су стратегије и извињења су изнета, али подстицаји су и даље награђивали брзину у односу на бригу.
Индијски биометријски неуспеси у току – 2025.
Биометријски кварови и прекиди су блокирали испоруку и користи за многе. Власти тестирају препознавање лица како би исправиле кварове отисака прстију и обрнуто, али ако један биометријски документ не успе, а други се нагомила, грешка се може проширити на услуге које зависе од истог идентификационог документа.
Уобичајене теме које стоје иза неуспеха
У различитим земљама и случајевима употребе, исте особине се и даље појављују. Прво је непрозирност; добављачи и агенције тврде да су тајни, али људи остају у недоумици зашто их је модел означио, са мало простора за жалбу. Друго, обим имплементација је погодан за велике грешке. Грешка у коду која се примењује широм земље може наштетити хиљадама људи рекордном брзином, али би била откривена са споријим системима којима управљају људи. „Пристрасност унутра, пристрасност напоље“ је трећа заједничка тема у свим моделима, што значи да се обука заснива на јучерашњим предрасудама у полицијском раду или обрасцима социјалне помоћи и очекује се да ће доносити сутрашње одлуке. Четврто је политичка тешкоћа да се „пониште“ системи без обзира на грешке које производе. Када је алат активан и повезан са циљевима учинка или кључним владиним системима, враћање уназад постаје готово немогуће.
Шта сви сада граде?
САД
Агенције уводе аутоматизоване инвентаре и контроле ризика „високог утицаја“, док истовремено проширују препознавање лица на аеродромима, копненим границама и морским лукама. Пазите на националне пилот пројекте који постају трајни, ширу размену података између агенција и велике уговоре са платформама. Ризици овде укључују демографску пристрасност у софтверу за упоређивање лица и намерно непрозирну логику добављача закључану у приватним уговорима вредним више милијарди долара.
Kina
Постојећим мрежама камера и базама података у реалном времену додаје се богатија аналитика, са чвршћим везама са контролама путовања и боравка. Очекујте праћење хода и гласа уз тренутну идентификацију лица, што се све више приближава сталном праћењу становништва са изузетно високом тачношћу.
Европска унија
Недавни Закон о вештачкој интелигенцији подстиче владе да наведу своје алате вештачке интелигенције у јавним регистрима, објаве напомену на једноставном језику за сваки од њих и саставе уговоре који се могу ревидирати. Очекујте националне веб странице које наводе шта се користи у системима социјалне заштите, здравства и полиције. Нови документи ће бити објављени, али да ли ће то побољшати резултате? Постоји могућност да агенције објаве оно што је неопходно, али да наставе да користе системе са истом пристрасношћу и слабим начинима жалбе.
Јапан
Провере идентитета путем Мог броја се усклађују са очитавањем чипова и верификацијом лица, аутоматизујући све више услуга на рецепцији у здравству и финансијама. Обратите пажњу на регионална увођења повезивања евиденције између агенција и на то да ли ће још неусклађености података које су мучиле земљу наставити да спречавају људе да приступе јавним услугама.
Australija
Системи након „Robodebt“-а додају људски преглед одлука о дуговима и бенефицијама, јасније разлоге у комуникацији и омогућавају екстерне ревизије. Потражите аналитику превара са људским потписивањем и независним извештавањем о стопама грешака и да ли ИТ грешке и даље отказују исплате или успоравају надокнаде.
Индија
Државе пилотирају софтвер за препознавање лица тамо где отисци прстију не успевају и истражују аутоматизовану тријажу у социјалним помоћима и полицијским радовима. Очекујте дубље везе између база података о социјалној заштити, банкарству и путовањима, водећи рачуна о случајевима искључења када биометрија погреши и слабим правцима жалбе за грађане којима је додељена заштита.
Системи вештачке интелигенције постају свеобухватни
Границе и путовањаДок се скенирање лица у туристичким центрима експоненцијално увећава, листе праћења постају богатије, а лажна подударања ће зауставити праве људе. Намерно успорење редова за одјаву ће тихо натерати више људи да прихвате аутоматско снимање.
ПолицијаКоришћење старих података за обучавање полицијских модела једноставно ствара повратну спрегу која их враћа на претходно прекомерно посећена подручја, док ће новим проблематичним подручјима бити потребно више времена да се идентификују и унесу у алгоритам.
Дигитал ИДНационални програми за идентификацију, који се уводе широм света, ускоро ће се ускладити са банковним рачунима, пореским пријавама, здравственим системима и бенефицијама. Једна грешка може да се претвори у блокаду целог друштва, а додатни биометријски слојеви погоршавају проблем.
Како то Уколико Посао
Да би тако широко распрострањена имплементација аутоматизованих владиних система била успешна и транспарентна, морамо видети следеће принципе у акцији. Сваки владин алат за вештачку интелигенцију мора бити јасно објашњен својим људима, укључујући податке које користи, позната ограничења, нивое тачности и ко је одговоран када дође до неуспеха. Морамо имати стварне начине за жалбу на аутоматизоване одлуке, с обзиром на то да ће то утицати на новац, слободу и правни статус. Људи који су пријављени морају добити разлоге у писаној форми и преглед од стране стварне особе у року од неколико дана.
Осетљиве области треба полако уводити. За социјалну заштиту, полицију и границе, пилот пројекти треба да се користе за тестирање мале групе, мерење штете и проширивање само када независна рецензија покаже да је систем безбедан за скалирање. Лажне заставе морају се мерити, а подаци о томе колико брзо се грешке решавају треба да буду јавно доступни.
Свако распоређивање треба да буде додељено особи која је одговорна за његову услугу, са контакт подацима и једноставним поступком описаним за оне који износе забринутост и траже прави одговор.
Коначно, свако примењивање треба поново проценити у унапред договореном тренутку. Ако су користи нејасне или се ризици повећају, систем треба прегледати и ажурирати пре него што се настави са радом.
Финал Тхоугхт
Вештачка интелигенција не само да помаже држави, већ преобликује начин на који цео систем размишља. Добри системи повећавају брзину и ефикасност, а истовремено смањују ризик, али као што смо видели у последњих неколико година, аутоматизовано доношење одлука није увек прави одговор. Људска процена мора бити враћена, системи морају бити разумљиви, а људима је потребан брз и праведан начин да добију одговоре.
Придружите разговор
Шта се имплементира у вашој земљи? Како је до сада имплементација и перцепција јавности? Да ли сте оптимистични у погледу предстојеће аутоматизације у владиним одељењима или је то рецепт за контролисану катастрофу? Реците нам своје мишљење у наставку.
Експозу је хитно потребна ваша помоћ…
Можете ли, молим вас, помоћи да се одржи рад искреног, поузданог, моћног и истинитог новинарства часописа The Expose?
Ваша влада и велике технолошке организације
покушајте да утишате и искључите The Expose.
Зато нам је потребна ваша помоћ да бисмо осигурали
можемо наставити да вам доносимо
чињенице које мејнстрим одбија.
Влада нас не финансира
да објављују лажи и пропаганду на својим
у име као што су мејнстрим медији.
Уместо тога, ослањамо се искључиво на вашу подршку. Зато
молимо вас да нас подржите у нашим напорима да донесемо
ви искрено, поуздано, истраживачко новинарство
данас. Безбедно је, брзо и једноставно.
Молимо вас да изаберете жељени начин испод како бисте показали своју подршку.
Категорије: Да ли сте знали?
Не „ВИ“, „АС“, вештачка глупост.
Не, вештачка интелигенција је у праву. Вештачка индоктринација.
То је вештачка индоктринација путем вештачке глупости.
Шта ако су ове грешке које вештачка интелигенција прави намерне и јавност се наводи да криви машину, а не оне који је пројектују и користе? То јест, шта ако се вештачка интелигенција може натерати да се понаша глупо када то желе њени власници?
Или, шта ако вештачка интелигенција не прави никакве грешке, а политичари само тврде да прави? Шта ако кроз њу пропусте разне сценарије, а затим је замоле да им каже како најбоље да прикрију чињеницу да бирају да раде нешто што нам штети и да им то дозволи да се извуку? Лагали би нас о томе шта вештачка интелигенција говори и кривицу за последице сваљивали би на машину, а не на себе.
Ако могу да се сетим, зли генији који владају светом већ јесу. Не мислим на њихове марионетске вође, председнике и премијере, мислим на њихове господаре који се крију иза кулиса.
Нећу се препуштати. Ако неко покуша да ме искључи из друштва... па... Ово је објављени рат нашој слободи и аутономији и биће узвраћено каматом.
„Вештачка интелигенција“ у приватном сектору и целом јавном сектору у Великој Британији.
Ентитети попут компанија за енергију и воду краду наше личне податке. Предрасуде „вештачке интелигенције“ против живота их квари.
Затим широко шири лажи које је „вештачка интелигенција“ дизајнирана да ствара, а алгоритми да их ескалирају.
Изражавање забринутости је узалудно јер запослени са штиклираним кућицама функционишу као рачунари.
„Вештачка интелигенција“ обучава запослене који обучавају „Вештачку интелигенцију“ тако да ентитет брже трчи у круговима, попут безглавих пилића.
Седишта малопродаја сада без глава; замењена безмозгом „вештачком интелигенцијом“.
https://www.youtube-nocookie.com/embed/Tl5wqcT_hcc
Слово J или j или .i. уместо јединице настало је мешањем латинске и арапске калиграфије од стране писца, као што данас имамо различите фонтове. Само не мешамо фонтове заједно као што су то понекад радили пре 500 година. То би био збуњујући креативан додир нашем писању.
Збуњујућа ми је употреба слова „i“ за велико око и „ell“ и „jedan“. Фонт којим куцам не нуди различите симболе за око и „ell“, иначе бих их користио. Барем има јединицу.
Коментари овде су откуцани једним фонтом, али су објављени другим. Не могу да изменим свој коментар у горњем фонту да изгледа тачно онако како је изгледао када сам га откуцао. Фонтови за око и ел и онај горе се мало разликују један од другог. Желео бих да имам фонт за куцање који има исте разлике, ради лакшег разумевања и тачности.
Хвала вам што сте додали алтернативни поглед.
https://www.youtube-nocookie.com/embed/eUFsNoy24N4 Овце се воде у раздвајање. Решење Themythiscanada.com враћа моћ
Ко пише лажи које вештачка интелигенција избацује?
Наравно да ће владе широм света промовисати вештачку интелигенцију – али молим вас, реците нам како може бити јефтиније када сви државни службеници и даље седе на својим дебелим задњицама, не раде ништа и буду плаћени за то, и наравно када ствари крену по злу, што су радили и наставиће да раде, вештачка интелигенција ће бити окривљена, а владе ће изаћи беспрекорно чисте као и увек – само још једна фарса коју народ на крају плаћа као и обично.
Државни службеници се отпуштају, наводно да би се уштедео новац или због затварања. На крају ће скоро сви отићи, а замениће их роботи и вештачка интелигенција. Преостали људи биће пријатељи и рођаци политичара који ће седети итд., као што сте рекли. Али све се ово мења само постепено, како би изгледало као разумни одговори на променљиву ситуацију, а не као дугорочни план, што заправо јесте.
Са нашом гојазном, дрогираном и популацијом оптерећеном МСМ-ом, оно што је потребно је мало више праве интелигенције, а не било чега вештачког. Можда је први корак устати са кауча и довести се у форму. Ох, и прочитајте Устав (посебно Повељу о правима).
Заиста гнусно! Ово се сада дешава велика катастрофа.
Богатство се сада стиче захваљујући нашој приватности и слободама, које су веома јадне.
Ово лудило вештачке интелигенције мора бити ограничено и заустављено.
Ниједна земља није питала своје грађане да зауставе ову болесну нову технологију.