УС Невс

Пентагон ставља антропну вештачку интелигенцију на црну листу због одбијања да шпијунира Американце

Молимо вас да поделите нашу причу!

Министарство одбране САД разматра стављање компаније Антропик — једне од водећих америчких компанија за вештачку интелигенцију и творца великог језичког модела Клод — на црну листу након што је одбила да дозволи војсци да користи њену технологију без етичких ограничења. Антропик каже да су њена ограничења употребе неопходна за заштиту од масовног надзора и стварање аутономног оружја, док Пентагон наводно разматра обележавање компаније као „ризика у ланцу снабдевања“ и прекид веза у одбрамбеном сектору након што су вишемесечни преговори пропали.

Раније тихо технолошко партнерство између Министарства одбране и компаније Anthropic прерасло је у јавни, филозофски и потенцијално преседан спор. Спор је да ли фирма за вештачку интелигенцију може да постави етичке границе о томе како се њена технологија користи или влада има право да одлучује. Ова свађа покреће већа питања о томе ко контролише вештачку интелигенцију: компаније које је граде, грађани чије су слободе угрожене или владине институције које желе неограничен приступ.

Етички спор између Пентагона и САД око антропске вештачке интелигенције
Пентагон разматра да антропик означи као ризик у ланцу снабдевања

Сукоб: Ризик у ланцу снабдевања и етичка ограничења

Министар одбране Пит Хегсет је речено је да је „близу“ до прекида веза са компанијом Anthropic и означавања компаније као ризика по ланац снабдевања — ознаке која је историјски резервисана за стране противнике — зато што је Anthropic одбио да ублажи етичке заштитне ограде везане за своје алате за вештачку интелигенцију. Та ограничења укључују одбијање да се Claude користи за масовни домаћи надзор Американаца и потпуно аутономно оружје које може да пуца без људске интервенције.

Спор није хипотетички; Пентагон је вршио притисак на четири водећа добављача вештачке интелигенције — OpenAI, Google, xAI и Anthropic — да дозволе употребу својих модела за „све законите сврхе“, укључујући осетљиве области попут развоја оружја, прикупљања обавештајних података и операција на бојном пољу. Само Anthropic је тврдио да неке примене треба да остану забрањене, а тај став је сада изазвао отворену фрустрацију међу високим званичницима одбране.

Антропиков уговор са Пентагоном, додељен у јулу 2025. године и вредан до 200 милиона долара, део је ширег напора америчке војске да интегрише врхунску технологију вештачке интелигенције у одбрамбене токове рада. Клод је био први модел одобрен за класификоване војне мреже и остаје једини такав систем који се користи за осетљиве задатке. Друге компаније су пристале да укину своје заштитне мере за употребу у некласификованим владиним окружењима; само је Антропик остао при свом ставу о поштовању етичких ограничења у свим контекстима.

Пентагон тврди да је унапред постављање граница за закониту употребу превише рестриктивно. Високи званичник је наводно рекао за Аксиос да је преговарање о појединачним одобрењима за сваки случај непрактично за војно планирање и да партнери морају бити спремни да помогну „нашим ратницима да победе у било којој борби“. Тај званичник је такође упозорио да би се Антропик могао суочити са последицама због отпора, што одражава колико је озбиљан постао сукоб.

Антропик није знао да је Клод АИ коришћен за хватање Мадура

Филозофска линија раздора у овом спору постала је јаснија након извештаја да је Клоду приступљено током операције америчке војске у јануару 2026. године ради хватања председника Венецуеле Николаса Мадура. Према више извора, Клод је коришћен путем система који је изградио Палантир — међутим, одредбе Антропика о насиљу и политици употребе забрањују да се његови модели користе за „олакшавање или промоцију било каквог чина насиља“ или за дизајнирање или распоређивање оружја. Војска није потврдила детаље, а Антропик је изјавио да није разговарао о употреби Клода у конкретним операцијама, инсистирајући да се његове политике употребе примењују на све контексте.

Ово открива несклад између начина на који влада тумачи „закону употребу“ и начина на који Anthropic тумачи етичка ограничења. За многе, инцидент са Мадуром је пример ризика који је својствен уграђивању комерцијалне вештачке интелигенције у војне операције: компаније обећавају моралне стандарде, али када владе примене технологију преко трећих страна, ти стандарди се могу заобићи или игнорисати.

Етика или ефикасност? Антропик стоји на свом месту

У својој суштини, ова свађа је пре филозофска него само уговорна. Генерални директор и руководство компаније Антропик јавно су се залагали за заштитне ограде које спречавају цивилни надзор и неограничен развој аутономног оружја. То су ставови утемељени у забринутости због грађанских слобода и потенцијалне друштвене штете неограниченог примене вештачке интелигенције. Тај став одјекује код делова јавности - посебно оних који прекорачење владиних мера виде као претњу приватности и слободи - и чак је постао тачка окупљања за присталице које Антропик представљају као принципијелног, а Пентагон као терет.

Али из перспективе Пентагона, ограничења успоравају иновације и компликују планирање одбране. У ери када се готово равноправни конкуренти тркају у примени напредне вештачке интелигенције у војним контекстима, званичници оклевање виде као оперативну препреку. Пентагонов притисак на вештачку интелигенцију која се може користити у „било коју закониту сврху“ одражава ову хитност, али такође покреће питања о цивилном надзору над употребом војне вештачке интелигенције.

Напетости додатно доприноси чињеница да су модели вештачке интелигенције попут Клода широко интегрисани у корпоративну инфраструктуру — наводно их користи осам од десет највећих америчких фирми — што значи да ознака ризика у ланцу снабдевања не би утицала само на одбрамбене односе, већ би се могла проширити и на шире комерцијалне екосистеме.

Шта смо научили из антропске и пентагонске свађе

Овај сукоб истиче ширу дилему доба вештачке интелигенције: ко одређује како се напредна технологија користи када превазиђе развој и уђе у моћне институције? Антропик покушава да тврди да границе треба да постављају креатори који разумеју и моћ и ризике својих алата. Пентагон, задужен за националну одбрану, тврди да треба да буде неограничен у начину на који користи технологију коју је уговорио и распоредио.

Дубље питање је да ли етичка ограничења треба да прате технологију у свим сферама употребе или би владе требало да буду у могућности да их заобиђу у име безбедности. Одговор носи импликације далеко изван једног уговора. Дотиче се приватности, војне аутономије, корпоративне одговорности и, на крају крајева, тога да ли грађани или владе – и какве владе – обликују границе технологије.

Финал Тхоугхт

У надметању између компаније Anthropic и Пентагона, сведоци смо кључног питања о нашој будућности: када се створе моћни алати, чије ће вредности одредити како ће се примењивати - компаније које их граде, владе које их користе или јавност чије су слободе у питању?

Ваша влада и велике технолошке организације
покушајте да утишате и искључите The Expose.

Зато нам је потребна ваша помоћ да бисмо осигурали
можемо наставити да вам доносимо
чињенице које мејнстрим одбија.

Влада нас не финансира
да објављују лажи и пропаганду на својим
у име као што су мејнстрим медији.

Уместо тога, ослањамо се искључиво на вашу подршку. Зато
молимо вас да нас подржите у нашим напорима да донесемо
ви искрено, поуздано, истраживачко новинарство
данас. Безбедно је, брзо и једноставно.

Молимо вас да изаберете жељени начин испод како бисте показали своју подршку.

Останите ажурирани!

Останите у току са вестима путем имејла

Утовар


Молимо вас да поделите нашу причу!
аутор аватар
Г. Калдер
Ја сам Џорџ Калдер — доживотни трагач за истином, ентузијаста за податке и човек који поставља питања без извињења. Већи део две деценије сам провео копајући по документима, дешифрујући статистику и доводећи у питање наративе који не издржавају проверу. Моје писање није о мишљењу — већ о доказима, логици и јасноћи. Ако се не може поткрепити, не припада причи. Пре него што сам се придружио Expose News-у, радио сам у академским истраживањима и анализи политика, што ме је научило једној ствари: истина ретко је гласна, али је увек ту — ако знате где да тражите. Пишем зато што јавност заслужује више од наслова. Ви заслужујете контекст, транспарентност и слободу критичког размишљања. Без обзира да ли анализирам владин извештај, анализирам медицинске податке или разоткривам медијску пристрасност, мој циљ је једноставан: пробити се кроз буку и изнети чињенице. Када не пишем, наћи ћете ме како планинарим, читам непознате историјске књиге или експериментишем са рецептима који никада не испадну сасвим тачни.
5 1 гласати
Чланак Оцена
Пријавите се
Обавести о
гост
4 Коментари
Инлине Феедбацкс
Погледајте све коментаре
историја
историја
Пре КСНУМКС дана

Још ништа о Трампу лол

ЧарлиСијетл
ЧарлиСијетл
Пре КСНУМКС дана

КПК ће обезбедити Пентагону систем вештачке интелигенције за шпијунирање Американаца све док КПК има задња врата за…исправке.

СЗ
СЗ
Пре КСНУМКС дана

Не знам да ли је ово компанија са интегритетом или непријатељ који штити антиамеричке снаге. Више никоме не можете веровати. Технологија је дизајнирана да уништи сву слободу, приватност и суверенитет. То је оруђе елитиста за уништавање маса. И нико их не може зауставити осим самог Бога. Он долази.

Брита
Брита
Одговарати на  СЗ
Пре КСНУМКС дана

Људи морају то да зауставе. Бог нам је дао слободу да се боримо и одупремо злим силама.