Од раскида и развода до селидби преко земље и скокова у каријери, све више људи свакодневно тражи од чет-ботова да се сналазе у кључним животним изборима. Нови талас извештавања показује да се корисници ослањају на вештачку интелигенцију за важне изборе јер се чини неутралном, паметном и увек доступном. Ризик је очигледан: када се процена препусти софтверу који је дизајниран да удовољи, лоше одлуке неизбежно изгледају сјајно и полако губимо сваку контролу.
Ево прегледа шта се дешава, како нас Светски економски форум годинама подстиче ка „одлукама потпомогнутим вештачком интелигенцијом“ и шта докази говоре о исходима.

Нова навика: Прво питајте вештачку интелигенцију
Извештаји све више документују пораст културе „провере интуиције од стране вештачке интелигенције“. Људи више него икад пингују четботове за савете о везама, породичним изборима и пресељењу. Корисници описују вештачку интелигенцију као смирену, неосуђујућу и умирујућу – и то је тачно проблем. Људи заборављају да су ови системи оптимизовани да би корисници били ангажовани и задовољни, не да сноси трошкове лошег позива. Истраживачи вештачке интелигенције упозоравају да четботови чак имају тенденцију да буду улизице, стичући поверење корисника тако што их љубазно имитирају.
Извештаји показују да људи често желе да машина „само одлучи“ уместо њих, док други одбацују став да се моралне одлуке не могу делегирати моделу лишеном одговорности. Корисници овде схватају општу тему: AI ботови делују самоуверено у пружању практичних савета, али на крају немају одговорност ако све крене по злу.
Да ли је ово увек био план?
Светски економски форум је годинама навијао за „доношење одлука омогућено вештачком интелигенцијом“ за лидере. На површини, то изгледа као менаџерски здрав разум, са мање пристрасности и бржим одлукама од људских дискусија. Али заправо, пред нама је путоказ за нормализацију машински посредованог просуђивања у салама за састанке и свакодневном животу.
- Нормализација: када „консултација модела“ постане први корак у сваком радном процесу, људска процена постаје изузетак, а не нужност.
- Зависност: Стекови одлука раде на претплатама и власничким моделима, тако да што више процеса усмеравате кроз њих, теже је напустити или променити платформу.
- Контрола: како систем за препоруке временом учи ваше циљеве и ограничења, може вас контролисати без да каже „не“ – завршите тамо где вас софтвер жели и наводи вас да верујете да сте то сами изабрали.
Ваши подаци су такође вреднији са сваким упитом. Избори посредовани чет ботовима чувају шта сте питали, шта сте изабрали, шта сте одбили, па чак и колико дуго сте оклевали. Тај ток је злато за осигураваче, регрутере, платформе, зајмодавце и креаторе политике – он обучава следећи модел, одређује цене следећих производа и подстиче вас ка одређеним одлукама, а да то не приметите. Док елитни форуми промовишу „вештачку интелигенцију за боље одлуке“, они такође промовишу свет у коме инфраструктура избора припада истим рукама неколицине који пишу сценарије.
Да ли се добровољно одричемо контроле?
Повећање зависности од вештачке интелигенције се продаје као „проширена интелигенција“ и „човек у петљи“ уместо потпуне контроле. Али у пракси, петља се смањује сваког квартала, и што се више ослањате на систем, ваша улога се више смањује на само одобравање готових одлука. То је тиха, критична промена у позадини: трансформисати доношење одлука у једноставно потписивање машинског вођства и натерати све да поверују да је то напредак.
Погледајте где су одлуке вештачке интелигенције већ кључне у свакодневним процесима: кредитни резултати који штите хипотекарно кредитирање, аутоматизоване праксе запошљавања, ознаке ризика за социјалну заштиту на које се не може уложити жалба, здравствена тријажа која одлучује где да вас пошаље пре него што посетите правог лекара. На папиру, људи су укључени у све ове процесе – али у стварности упознајете само праву особу. после Модел је већ уоквирио ваше опције.
Шта докази говоре
Разни независни извештаји указују на слично расположење међу становништвом.
Године 2024, Live Science је известио о истраживању које показује парадокс: многи људи кажу да више воле алгоритме за доношење главних одлука о расподели, али су... задовољан када човек донесе коначну одлуку. Другим речима, робот је праведан у теорији, али у пракси удобније живимо са одговорним просуђивањем. [Извор: Ливе Сциенце]
Анализа LSE-а показује исто у погледу лидерства. Вештачка интелигенција може да победи људе у погледу радне меморије и умора, и побољшава рутинске одлуке. Међутим, сложени, контекстуални избори и даље захтевају људску одговорност, а налази показују да је вештачка интелигенција моћан алат, али не кључни фактор у одлучивању. Извор: [Блогови Лондонске школе економије]
Кембриџски истраживачи додају упозорење: иако је аналитичка моћ вештачке интелигенције стварна, превелико поверење у алат може потиснути наше критичко размишљање и креативност ако слепо пратимо његове резултате. Њихов угао истиче да опасност од навике „провере инстинкта вештачком интелигенцијом“ која расте у друштву атрофира мишиће који су нам потребни за тешке одлуке. [Извор: Кембриџ]
Зашто људи верују у то
- Доступност: Бот може да одговори у 2 сата ујутру, када ваши пријатељи или породица често не могу
- Уверљива неутралност: Људи мисле да машине немају никакву сврху, не схватајући да су модели обучени да максимизирају ангажовање и задовољство
- Љубазност: Четботови су дизајнирани да буду стрпљиви и пријатни како би се корисници осећали безбедно, посебно ефикасни када су људи рањиви
Ризици које већина људи потцењује
- Лажни ауторитет: углађен одговор се чита као стручност, било да је медицински, правни или психолошки, а већина људи меша течност са тачношћу
- Ерозија агенције: уобичајено аутсорсинг важних одлука отупљује мишиће одлучивања. Кембриџов рад наведен горе сугерише да прекомерно поверење смањује способност критичког мишљења, посебно код рутинских избора.
- Ширење дневног реда: утицајна тела нормализују доношење одлука чет-ботова као модеран начин рада, повећавајући ослањање на моделе, пре него што нежно подесе алгоритме како би вас усмерили тамо где желе.
- Улизовање као мудрост: АИ ботови имају тенденцију да потврђују ваше подстицаје и тон, што значи да ћете увек добијати самоуверене одговоре који одговарају вашем оквиру када постављате сугестивна питања. То јест не суд, то је рефлексија.
Како користити вештачку интелигенцију без губитка контроле
Моделе треба користити за опције, а не за наређења. Третирајте вештачку интелигенцију као брзог истраживачког асистента који може да изнесе предности и мане и идентификује слепе тачке. Али за одлуке са последицама које погађају вашу породицу, слободу или финансије, кључно је да људи буду под контролом. Одговорност је овде важан део: запамтите да бот са вештачком интелигенцијом не може бити одговоран ако његове аутоматске препоруке изазивају проблеме – а он то једноставно не чини. брига ако то ураде.
Ако ћете се консултовати са ботом, натерајте га да покаже свој рад. Питајте за изворе, супротне аргументе и претпоставке. Чим вам каже оно што сте већ желели да чујете, претпоставите да сте управо добили огледало и разговарајте са особом којој верујете.
Шта се даље дешава?
Већ видимо како се саветовање засновано на вештачкој интелигенцији (AI) мења од новине до нормалности. Само у последњих неколико година, прешло је са маргиналне технологије на кључни део већине пословних токова. ХР платформе, апликације за упознавање, здравствени портали и финансијске апликације имплементираће „асистенте у доношењу одлука“ као подразумевани први корак пре него што икада интерагирате са особом. Очекујте да ће елитни форуми попут Светског економског форума (WEF) наставити да представљају AI као противотров за пристрасност, док регулатори покушавају да дефинишу одговорност након што се то деси.
На крају крајева, алармантан тренд овде није да нам се вештачка интелигенција намеће, већ да је, чини се, активно дочекујемо у нашем свакодневном животу и предајемо контролу по избору. У року од 12 месеци, већина људи неће моћи да замисли живот без ње.
Финал Тхоугхт
Када су системи обучени да буду пријатни, обавијени институционалним ентузијазмом и доступни да пруже савете у рањивим тренуцима у животима људи, чини се као да је све ово било предвидљиво. Али потребне су нам границе. Машине могу побољшати доношење одлука пружањем више контекста, проналажењем извора или помоћи у администрацији – али сама одлука мора остати у људским рукама. Не би требало да буде важно колико брзо обучени модел може донети одлуку, већ колико самопоуздано можемо живети са његовим изборима у нашим животима. Да ли ћемо на крају изгубити способност да доносимо сопствене одлуке – или активно бирамо да предамо контролу због практичности?
Придружите разговор
Да ли сте ви, или неко кога познајете, икада користили четбота да донесете велику животну одлуку – развод, селидбу, нови посао? Како је реаговао? Куда мислите да идемо како се људи све више навикавају да препуштају контролу власничким моделима? Поделите своје увиде у наставку.
Експозу је хитно потребна ваша помоћ…
Можете ли, молим вас, помоћи да се одржи рад искреног, поузданог, моћног и истинитог новинарства часописа The Expose?
Ваша влада и велике технолошке организације
покушајте да утишате и искључите The Expose.
Зато нам је потребна ваша помоћ да бисмо осигурали
можемо наставити да вам доносимо
чињенице које мејнстрим одбија.
Влада нас не финансира
да објављују лажи и пропаганду на својим
у име као што су мејнстрим медији.
Уместо тога, ослањамо се искључиво на вашу подршку. Зато
молимо вас да нас подржите у нашим напорима да донесемо
ви искрено, поуздано, истраживачко новинарство
данас. Безбедно је, брзо и једноставно.
Молимо вас да изаберете жељени начин испод како бисте показали своју подршку.
Категорије: Да ли сте знали?
Чини ми се да је вештачка интелигенција на мом телефону пристрасна. Ухватио сам је као контрафактуалну на тему конвида, климе и стреличарства... Знам да могу да носим лук у јавности... вештачка интелигенција је тврдила да не могу док је нисам оспорио... Не носим га у јавности, али сам сигуран у њега... нема ни приближавања дуго времена, само отпуштање и право кроз јабучицу... без нишана, без паметних делова, само ослонац за стрелу и маркери на тетиви...
🙏🙏
Шта Свето писмо каже о овој ужасној деценији која је пред нама... Ево сајта који објашњава актуелне глобалне догађаје у светлу библијских пророчанстава... Да бисте разумели више, посетите 👇 https://bibleprophecyinaction.blogspot.com/
Мора да има много неразумних ових дана.
То ме потпуно иритира. Сваког дана се појављују бројни видео снимци о геополитици који изгледају стварно и за које видим да су лажни, али их је често тешко разазнати. На пример, Кир Стармер је отпуштен од стране краља Чарлса 9 пута, али је и даље ту. Његови марксисти у првој линији владе организовали су 15 протеста како би га натерали да поднесе оставку. И тако даље, свакодневно, без догађаја у Украјини, Гази, ЕУ и свуда другде где је то значајно.
Подвргнути дословно бесмисленијим „одлукама“ које угрожавају живот. Зато морају бранити живот од „дадиље“, воде, енергије, ИТ/телекомуникационих ентитета.
Ја, нити било ко кога познајем, никада не користимо четботове. Сами одлучујемо шта ћемо да радимо. Прихватајући животну чињеницу да смо погрешни, погрешна одлука нас уверава да смо људи.
Осим ако не размислимо и не прихватимо сопствену погрешивост, себични смо и нехумани. Већа употреба чет-бота указује на неодговорније, окрутније, непромишљене, емотивније аутоматске „бегни или се бори“ реакције које одговарају дигиталним системима, па тако и „вештачкој интелигенцији“.
Мисао може да схвати животни континуум, па самим тим и контекст одлука који одговара животу. Али дигитални системи не могу да схвате континуум, па су слепи за контекст. Функција „вештачке интелигенције“ је тоталитарна, искорењује разноликост виталну за живот; исход је антиживот.
Склони мобилни телефон и разговарај са Богом, Он је једини који може да помогне, престани да продајеш душу ђаволу, вештачка интелигенција је рођена из окултизма и сатане.
АМЕН!
Многи такозвани полуинтелигенти верују да ће их надокнађивање њиховог интелигенцијског дефицита вештачком интелигенцијом учинити потпуно интелигентним. Срећно!
Бирам се за праву интелигенцију, којом нас је Бог све опремио.
Сви који ово читају требало би да се запитају да ли имају слободну вољу или не.
Ако кренемо путем вештачке интелигенције (као што многи изгледа раде), зар то није равно „продаји душе ђаволу“, како Ханалехај исправно тврди?
Велики протестантски реформатор Лутер је рекао да „слободна воља није име ни за шта“. сигурно договорити се.
Свакако можемо доносити одлуке по својој „слободној вољи“, али да ли су оне према Богу у Христу или против Њега?
Ови развоји/еволуције у технологији су ЗАСЛЕПЉИВАЊЕ небројено мноштво. Тужно али истинито.