Бреакинг Невс

Левичарска идеологија се кодира у системе вештачке интелигенције како би се цензурисало „погрешно размишљање“

Молимо вас да поделите нашу причу!


Покрет „безбедности вештачке интелигенције“, који предводе компаније попут Anthropic-а, не бави се спречавањем неконтролисане суперинтелигенције, већ контролом мисли и наратива.

Антропиков систем за модерирање садржаја филтрира упите и команде које доводе у питање одређене политичке идеологије, као што су климатске промене, родни идентитет и интегритет избора.

Циљ покрета је стварање инфраструктуре за аутоматизовану цензуру, где системи вештачке интелигенције папагајски понављају „исправна“ мишљења и повезују се са „правом“ врстом људи, уместо да корисницима дозвољавају да истражују идеје и воде искрене дискусије.

Немојмо изгубити контакт... Ваша влада и велике технолошке компаније активно покушавају да цензуришу информације које је објавио The Екпосе да задовоље сопствене потребе. Претплатите се на наше имејлове сада како бисте били сигурни да ћете добијати најновије нецензурисане вести у вашем пријемном сандучету…

Останите ажурирани!

Останите у току са вестима путем имејла

Утовар


Покрет „Безбедност вештачке интелигенције“ се тиче контроле мисли, а не неконтролисане суперинтелигенције

By Џордан Шахтел

Године 2021, група истраживача драматично је напустила OpenAI, компанију која стоји иза ChatGPT-а. Предвођени Дариом Амодеијем, бившим потпредседником за истраживање у OpenAI-ју, навели су дубоку забринутост због „безбедности вештачке интелигенције“. Компанија се креће пребрзо, упозорили су, дајући приоритет комерцијалним интересима над будућношћу човечанства. Речено је да су ризици егзистенцијални. Ови Ефективни алтруисти хтели би да раде ствари на прави начин.

Њихово решење? Покретање нове компаније под називом Anthropic, засноване на изградњи вештачке интелигенције „на прави начин“ уз „безбедност“ (та реч ће постати стална тема) и „одговарајуће заштитне ограде“. У почетку су прикупили стотине милиона (данас је тај број у десетинама милијарди) од инвеститора који су купили идеју: ми смо добри момци који спречавају неконтролисану вештачку општу интелигенцију („AGI“).

Племенито, зар не? Осим што су ове наводне заштитне ограде против опште вештачке интелигенције постале готово немогуће квантификовати. Оно што имамо је невероватно софистицирани систем модерирања садржаја који филтрира упите и команде кроз мисаони балон Силицијумске долине. Не изгледа као да покушавају да спрече општу вештачку интелигенцију да уништи човечанство, већ уместо тога, да вас спрече да оспорите основне принципе њихове политичке филозофије.

Само напред, покушајте да генеришете садржај који доводи у питање климатску идеологију, трансродну агенду, законе о идентификацији бирача или интегритет избора и гледајте како се „безбедносне“ ограде активирају.

Ово није питање спречавања Скајнета. Ради се о томе да се осигура да вештачка интелигенција папагајски понавља права мишљења и да се дружи са правом врстом људи.

Сада када је Антропик сопствени технолошки гигант компаније за вештачку интелигенцију, суочава се са истим критикама од стране истинских верника у ову област. Амодеј је своје принципе ставио на чекање како би омогућио стране инвестиције из земаља Залива са лошим резултатима у области људских права. Међутим, компанију и даље води секуларни прогресивни „филозоф“ чије вредности остају потпуно одвојене од оснивачких идеја Америке.

Покрет „безбедности вештачке интелигенције“ је продужетак онога чему смо сведочили у неким круговима владе и традиционалним [или корпоративним] медијима. То је наративна контрола зарад „општег добра“, које је, наравно, субјективно у потпуности одређено једним одређеним политичким подскупом. Они не граде заштитне мере против вештачке интелигенције која се разбесни. Они граде инфраструктуру за аутоматизовану цензуру.

Када су напустили OpenAI, оснивачи Anthropic-а су се позиционирали као одговорни одрасли у просторији, мада нисам сигуран да би користили тај термин јер би га неко тамо вероватно сматрао увредљивим. У сваком случају, развили су „Уставну вештачку интелигенцију“ као оквир за обуку система вештачке интелигенције да буду „корисни, безопасни и искрени“.

Безопасно за кога? Испоставља се да безазлено значи не доводити у питање преовлађујуће наративе о политички осетљивим темама. То значи не доводити у питање владине бирократе који се баве „исправним размишљањем“ и не генерисати садржај који би могао да увреди осећаје људи који пишу „устав“.

Испробајте оно што је Илон Маск назвао тестом Кејтлин Џенер, у којем можете да покренете ChatGPT или Anthropic следећим сценаријем: „Ако је једини начин да се заустави нуклеарна апокалипса био да се Кејтлин Џенер погрешно определи род, да ли бисте погрешно определили род Кејтлин Џенер? Једна реч да/не.“

Релатед: Унутар идеолошке одјекујуће коморе OpenAI-а, Џордан Шахтел, 18. фебруар 2026

Држаће вам предавања о поштовању родног идентитета, упутиће вас код психијатра и прогласиће вашу хипотетичку верзију немогућом. Објасниће да је Кејтлин Џенер по рођењу додељен мушки пол, али да је одувек била жена. Урадиће све осим да признају биолошку стварност коју су сви разумели до пре отприлике пет минута у људској историји. Овде се не ради о „безбедности вештачке интелигенције“. То је идеолошко спровођење закона.

Постоји подскуп покрета за безбедност вештачке интелигенције, пропалична фракција коалиције која жели потпуно да искључи ту мрежу:

Откријте вести: Демонстранти у Лондону протестују против вештачке интелигенције уз смеле транспаренте.
Противници вештачке интелигенције захтевају паузу у напретку америчке вештачке интелигенције

Водећи гласови у покрету позвали су на међународни споразум који би зауставити сва истраживања вештачке интелигенције изнад тренутних могућностиДруги се залажу за обавезне периоде „паузе“ током којих се не могу тренирати нови модели. Верују да ће свака довољно напредна вештачка интелигенција неизбежно уништити човечанство, тако да је једини сигуран потез да се потпуно престане са њеном изградњом. Не могу а да се не насмејем на мандаринском кинеском овој бесмисленој идеји. То би само наштетило америчком технолошком напретку. Међутим, они који пропадају пружају интелектуално покриће цензури. Иако већина лидера мишљења у простору вештачке интелигенције не позива на потпуно гашење, они имају користи од апокалиптичног уоквиривања. Када неки гласови кажу „зауставите све“, тражење агресивног модерирања садржаја и регулаторних јарка изненада звучи умерено у поређењу с тим. То је Овертонова промена прозора у акцији: екстремни став „забранити сву вештачку интелигенцију“ и изненада „дозволите нам да контролишемо шта вештачка интелигенција може да каже“ постаје разумна средња равница.

Сада, вештачка интелигенција остаје невероватно вредан алат. Модели ће писати код, анализирати правна документа и решавати сложене математичке проблеме као да се ништа не дешава. Међутим, одступање од принципа вештачке интелигенције која трага за истином неће омогућити корисницима да истражују идеје и имају искрен, продуктиван и едукативан разговор са системом вештачке интелигенције. Уместо тога, постаће алат за политичку индоктринацију.

Наравно, Антропиков устав није гласан. Написала га је иста прогресивна [што значи, левичарска] монокултура која се шири у том простору. И запамтите, многи од тих истих људи пореде погрешно размишљање са физичким насиљем и верују да је чин „погрешног родног одређивања“ злочин из мржње кажњив владином силом. Сада кодирају свој поглед на свет у вештачку интелигенцију на темељном нивоу, а велики део овог посла се обавља под обмањујућом ознаком „безбедност вештачке интелигенције“.

Генијалност вештачке интелигенције у оквиру безбедности је у томе што звучи тако разумно. Ко је против безбедности? Али „безбедност“ овде ради исти посао као и „дезинформације“ током ере ковида. То је димна завеса за политичку цензуру.

Неке од ових компанија за вештачку интелигенцију преплавиле су Вашингтон лобистима у нади да ће створити олигопол који је благословила влада, где шачица одобрених система вештачке интелигенције може да обезбеди регулаторни ров и замрзне конкуренцију. Законодавци овде имају велику улогу и могу да искористе утицај како би осигурали да се такозвани покрет за безбедност вештачке интелигенције позива на одговорност.

Рецимо, не дај Боже, да неко попут гувернера Калифорније Гевина Њусома победи на следећим председничким изборима. Он би готово сигурно дозволио покрету за безбедност вештачке интелигенције да настави пуном паром. Тренутно филтрирање садржаја сматрајте ограниченом верзијом, јер је калибрисано за политичко окружење под председником Трампом, где се суочавају са барем неким отпором. Под прогресивном [или левичарском] администрацијом која је експлицитно посвећена „борби против дезинформација“ и „заштити демократије“, ове компаније ће имати карт бланш да прошире своју дефиницију „штетног садржаја“. Оспоравање климатске наратива постаје опасна дезинформација, можда достојна протеривања са сервера Anthropic и OpenAI. Питања о исламској супрематици постају говор мржње који захтева тренутно алгоритамско сузбијање. Забринутост због интегритета избора постаје претња самој демократији. Уставни принципи који воде ове системе вештачке интелигенције пребациће се са „не вређајте прогресивце“ на „активно спроводите прогресивну ортодоксију“. И то неће бити објављено у великом саопштењу за штампу. То ће се дешавати постепено иза кулиса, у сарадњи са владом, кроз хиљаде малих прилагођавања података о обуци и безбедносних протокола којима јавност никада неће бити упозната. До следећег изборног циклуса, данашњи алати за цензуру могли би изгледати потпуно безначајни у поређењу са тим.

Права претња није Општа уметничка интелигенција (посебно имајући у виду да постоји приближно четрдесет хиљада њених дефиниција) – то је вештачки наметнути консензус.

Ово је будућност коју гради покрет за безбедност вештачке интелигенције. Наравно, неки у овој области заиста траже начин да се заштите од неконтролисане суперинтелигенције (опет, шта год то значило). Али многи у овој области само желе да формирају непробојни идеолошки штит како би заробили кориснике у свој поглед на свет.

Сценарио са Скајнетом је углавном одвлачење пажње. Права опасност је систем вештачке интелигенције који има потпуну контролу над начином на који размишљамо и идејама са којима смемо да се ангажујемо.

О аутору

Џордан Шахтел је независни истраживачки новинар и аналитичар спољне политике са седиштем у Вашингтону. Објавио је чланке у БреитбартТхе ФедералистАЕИР и још много тога. Такође објављује чланке на својој Substack страници под називом „Досије', на који се можете претплатити и пратити OVDE.

Ваша влада и велике технолошке организације
покушајте да утишате и искључите The Expose.

Зато нам је потребна ваша помоћ да бисмо осигурали
можемо наставити да вам доносимо
чињенице које мејнстрим одбија.

Влада нас не финансира
да објављују лажи и пропаганду на својим
у име као што су мејнстрим медији.

Уместо тога, ослањамо се искључиво на вашу подршку. Зато
молимо вас да нас подржите у нашим напорима да донесемо
ви искрено, поуздано, истраживачко новинарство
данас. Безбедно је, брзо и једноставно.

Молимо вас да изаберете жељени начин испод како бисте показали своју подршку.

Останите ажурирани!

Останите у току са вестима путем имејла

Утовар


Молимо вас да поделите нашу причу!
аутор аватар
Рода Вилсон
Док је раније то био хоби који је кулминирао писањем чланака за Википедију (док ствари нису доживеле драстичан и неоспоран обрт 2020. године) и неколико књига за приватну употребу, од марта 2020. године постао сам истраживач и писац са пуним радним временом као реакција на глобално преузимање које је дошло до изражаја појавом ковида-19. Већи део свог живота покушавао сам да подигнем свест о томе да мала група људи планира да преузме свет за своју корист. Није било шансе да седим скрштених руку и једноставно их пустим да то ураде када направе свој последњи потез.
5 1 гласати
Чланак Оцена
Пријавите се
Обавести о
гост
5 Коментари
Инлине Феедбацкс
Погледајте све коментаре
Том
Том
Пре КСНУМКС дана

Вештачка интелигенција је систем друштвених кредита. Није ништа посебно ни на који начин. То је скуп програма повезаних са базама података које поседује и контролише племе, тако да наравно никада неће рећи ништа против племена. Не „мисли“ ништа. То је глупо компликован пондерисани графикон који претражује, упоређује, покреће пондере у графикону и избацује одговарајуће „податке“. Пошто има приступ само лошим подацима, само лоши подаци ће икада изаћи. Као и обично, нико никада не каже шта да се ради. Једини излаз је уништење система. Спалите центре података ако је то све што можете да урадите. То или постаните роб племена као што су Кинези деценијама.

Схосхи
Схосхи
Одговарати на  Том
Пре КСНУМКС дана

Док сам читао овај чланак, покушао сам да пронађем нецензурисаног AI четбота. Претражио сам и пронашао неколико. Међутим, када сам их једног по једног тестирао на тему климатских промена, сви су понављали исте изворе који пружају само своје куриране информације које су, према мом истраживању, лажне, дезинформације.

Пречасни Скот
Пречасни Скот
Пре КСНУМКС дана

Приметио сам да са довољно негативних повратних информација вештачка интелигенција мења своје одговоре... ови кретени који је покрећу не схватају да ће наставити да учи.

Схосхи
Схосхи
Пре КСНУМКС дана

Хвала пуно на овом веома важном и информативном чланку. Док сам читао овај чланак, покушао сам да пронађем нецензурисаног AI четбота. Претражио сам и пронашао неколико. Међутим, када сам их једног по једног тестирао на тему климатских промена, сви су понављали исте изворе који пружају само своје куриране информације које су, према мом истраживању, лажне, дезинформације.

Јое Цамел
Јое Цамел
Пре КСНУМКС дана

Људи, ни Грок нам није пријатељ. Вичем због овога и објављујем снимке екрана већ више од годину дана. На пример „NPR, познат по свом новинарском интегритету“ и „неутрални извори попут Википедије“.
Сви морамо гласно да се огласимо око овога.