Како вештачка интелигенција убрзано продире у сваки кутак модерног живота, доминантна нарација остаје она о неизбежности. Са паметнијим моделима и потпуном аутоматизацијом, многи се осећају катапултирано ка будућности коју ће преобликовати машине које надмашују људе у скоро свему. Али све више, технолошки инсајдери износе алтернативне ставове: да путања није ни здрава, ни одржива, ни неизбежна. Ден Хаузер – суоснивач компаније Rockstar Games – недавно је упоредио тренутни бум са болешћу лудих крава, рекавши да је то систем који се храни самим собом и да ће на крају постати фундаментално нестабилан. То је провокативна аналогија која отвара дубље питање које би некима могло донети олакшање – шта ако мане које се појављују у вештачкој интелигенцији нису грешке које треба поправити, већ структурна ограничења која ће спречити технологију да икада заиста „преузме свет“?

Аналогија са лудим кравама: Да ли вештачка интелигенција једе саму себе?
Хаузерово поређење заснива се на специфичној историјској лекцији. Болест лудих крава се проширила када су стока храњена прерађеним остацима друге стоке, стварајући затворену петљу деградираног биолошког материјала који је на крају довео до катастрофалног неуролошког отказа. Његов аргумент је да вештачка интелигенција – уместо да постане непобедива и преузме свет – заправо клизи ка сличном обрасцу. Модели се све више обучавају на синтетичким излазима које су претходно генерисали други системи вештачке интелигенције – а не на знању које су створили људи.
У суштини, како аутоматизовани модели настављају да расту, све више онога што видимо на интернету генеришу исти системи. Дакле, како се нови и постојећи модели даље тренирају, они заправо само обрађују сопствене излазе. Истраживачи су већ документовали феномен познат као колапс модела, где генеративни системи који се више пута обучавају на подацима које је креирала вештачка интелигенција, временом постају мање тачни, мање разноврсни и све више удаљени од стварности. Уместо да се њихова интелигенција увећава, системи на крају сами себе испразнивају, појачавајући своје оригиналне грешке и спљошћујући нијансе.
Растући проблем о коме технолошки лидери не говоре
Маркетинг вештачке интелигенције окренут јавности фокусира се на обим: више података, више интеграције, више параметара. Међутим, оно о чему се не говори је све већи недостатак висококвалитетног, људски генерисаног материјала за обуку. Велики део отвореног интернета већ су прогутали постојећи модели, што значи да је оно што је преостало све више загађено спамом, аутоматизованом буком и другим облицима садржаја вештачке интелигенције.
Велики језички модели без приступа континуирано обнављаном људском доприносу као што су уметност, резоновање, писање и истинско животно искуство, налазе се у озбиљној опасности од стагнације или регресије. Иронија је очигледна: што више аутоматизованог садржаја преплављује веб, то веб постаје мање поуздан као извор обуке.
Хаузерова критика задире дубље од техничке архитектуре. Он тврди да су они који се највише залажу за потпуно усвајање вештачке интелигенције често изоловани од интелектуалних и културних трошкова, уместо тога дајући предност ефикасности у односу на правилно разумевање. Његовим речима, ови руководиоци „нису потпуно заокружени људи“ који сужавају перспективу унутар кругова доношења одлука.
Шта нас видео игре уче о вештачкој интелигенцији
Rockstar Games – чији је Хаузер суоснивач – изградио је своју репутацију на људски створеној сложености, укључујући сатиру, културну текстуру и општу креативност. То су управо квалитети које генеративна вештачка интелигенција тешко репродукује убедљиво.
Иако модели могу генерисати дијалог, текстуре и исечке кода, недостаје им унутрашњи осећај значења, мотивације или последице. То су квалитети неопходни за приповедање и изградњу света, а програмери игара су се одавно сусрели са ограничењима вештачке интелигенције у пракси. Они истичу шири проблем: вештачка интелигенција може да имитира форму, али не разуме контекст. Може да предвиди шта... Треба дођи следећи, али не зашто требало би уопште да дође следеће.
Други оглашавају исту узбуну
Хаузер је само један пример све већег броја забринутих руководилаца технолошких компанија који деле слично мишљење. Често упозоравају да су системи вештачке интелигенције крхки, пренаглашени и фундаментално неусклађени са начином на који интелигенција функционише. стварно ради.
Поуздани, али лажни излази се често називају „халуцинацијама“. Оне делују као знаци да ови системи заправо не Знати било шта у људском смислу. Постоји и забринутост због вртоглавог раста трошкова енергије, застоја у подацима и смањења приноса како се модели скалирају. Круже гласине да се грубо скалирање и покушај што бржег ширења заправо приближавају економским и физичким границама.
Можда је утешно то што страх од неконтролисане суперинтелигенције почиње да изгледа мање као непосредна претња, а више као одвраћање пажње од стварних ризика: културне хомогенизације, дезинформација и претераног ослањања институција на системе који никада не могу да функционишу као људска бића.
Да ли су ова ограничења вештачке интелигенције добра ствар?
Ова структурна слабост може бити управо оно што спречава катастрофу. Ако се системи вештачке интелигенције деградирају када су изоловани од људског утицаја, онда никада не могу постати самоодрживи облици интелигенције. Они остају паразитски на људској креативности и расуђивању, а та зависност поткопава популарне научнофантастичне слике машина које се аутономно усавршавају ван људске контроле.
У том смислу, вештачка интелигенција може бити више као појачало него замена. Може бити моћно средство, али фундаментално ограничено. Можда може убрзати обрасце који су већ присутни у друштву, али не може сама по себи да генерише значење, етику или сврху. Можда није безопасан, али почиње да се појављује ограничен.
Прави ризик иза свега тога
Најозбиљнија опасност у овом случају не би била сама вештачка интелигенција, већ начин на који институције реагују на њу. Корпорације, медијске организације, па чак и владе све више третирају резултате вештачке интелигенције као ауторитативне, чак и када је тачност неизвесна. Временом, ово деградира људску стручност, одговорност и критичко размишљање.
Ако материјал генерисан вештачком интелигенцијом постане подразумевана референтна тачка у праву, новинарству, образовању или политици, на пример, онда грешке престају да буду изоловане грешке и почињу да буду системски неуспеси. То је прави ризик „лудих крава“: не да се машине побуне, већ да људи препуштају процену другима док се петља повратних информација не распадне.
Хаузер једноставно пита да ли друштво меша аутоматизацију са мудрошћу, а брзину са напретком.
Финал Тхоугхт
Ако вештачка интелигенција заиста улази у фазу „лудих крава“, онда фантазија и страх од потпуне доминације машина делују мање убедљиво. То може разочарати футуристе и алармисте, али би требало да увери све остале.
Будућности је свакако потребан људски суд, креативност и разумевање. Ако узмемо у обзир аргументе попут Хаузерових, онда опасност није у томе што ће вештачка интелигенција заменити све, и не изгледа као да би вештачка интелигенција икада могла да преузме свет. Али то не значи да је се нећемо добровољно одрећи тако што ћемо се у међувремену превише ослањати на аутоматизоване моделе.
Експозу је хитно потребна ваша помоћ…
Можете ли, молим вас, помоћи да се одржи рад искреног, поузданог, моћног и истинитог новинарства часописа The Expose?
Ваша влада и велике технолошке организације
покушајте да утишате и искључите The Expose.
Зато нам је потребна ваша помоћ да бисмо осигурали
можемо наставити да вам доносимо
чињенице које мејнстрим одбија.
Влада нас не финансира
да објављују лажи и пропаганду на својим
у име као што су мејнстрим медији.
Уместо тога, ослањамо се искључиво на вашу подршку. Зато
молимо вас да нас подржите у нашим напорима да донесемо
ви искрено, поуздано, истраживачко новинарство
данас. Безбедно је, брзо и једноставно.
Молимо вас да изаберете жељени начин испод како бисте показали своју подршку.
Категорије: Да ли сте знали?, Свет Вести
Апсолутно. Машина, по мом мишљењу, не може да надмаши оно што се у њу ставља. И потребне су јој поправке. Људи морају да је поправљају, не мислим да постоји машина која се сама поправља. Када су рачунари постали уобичајена роба, речено нам је да неће бити потребе за папирним записима. Али када вам се рачунар поквари, и даље вам је потребан добри стари адресар.
Заиста, али мислим да постоји општа тенденција да се превиди прави проблем, а то је наша зависност од информационих система. Из тога произилази овлашћење дато интелигентним системима, колико год глупи или луди били. Управо је њихово лудило оно што ће нас убити много пре него што убије самог себе. И не зато што нас конкретно жели мртве, већ зато што лењи администратори дају овлашћење системима, и зато што га ми прихватамо. „Рачунар каже не“ – „Па, у реду, претпостављам“. Сваки пут када систем донесе одлуку за коју нема људске моћи да је превазиђе, у великој смо невољи. Ово сеже много година уназад пре него што је вештачка интелигенција уопште постојала, можда још у 1970-им. Знате, као када је мојој тетки послат рачун на нула фунти јер није ништа потрошила на свом рачуну, а компанија је претила да ће јој затворити рачун. На крају, једино решење је било да им пошаље чек на нула фунти и нула пенија. Грешка је, наравно, исправљена, али прави проблем је био структурни – људи су морали да извршавају наређења машине да би је одржали задовољном.
Када позовете компанију или организацију и добијете одговор од вештачке интелигенције на ваш проблем, готово је немогуће решити га. Не можете разговарати са ботом и на крају ће свим малим предузећима то бити све теже и теже јер је немогуће разговарати са човеком који би био у стању да реши њихов проблем.
Ово већ изазива проблеме са банкама и основним службама попут телефонских компанија за електричну енергију. Ствари постају веома озбиљне ако не можете да разговарате са особом која разуме шта говорите.
Не говориш?
Увек сам сумњао да ће вештачка интелигенција постати Хал. У шта не сумњам јесте лењост, зло и немарност људских бића која траже лакши пут и не маре колико би вештачка интелигенција могла постати немарна, криминална и неправедна ако би им се дозволило да доносе одлуке у влади избацујући неке деградирале, избљуване алгоритме. Поготово у, рецимо, правосудном систему или пореском систему. Бирократе су обично луди либертарди чији су оперативни системи деградирали. И иако би их могло бити мање запослених, између вештачке интелигенције и ових сељака, живот би могао постати прилично бедан за грађане. вештачкој интелигенцији ће увек бити потребан проницљив надзор одговорних, трезвених и врлих људи. Једноставно не видим да се то дешава, где су богати и моћни углавном обични криминалци.
Већи ризик је мањи за машине, а више за монструозну класу „техноблогера“ који их поседују и управљају њима. Њихова грабежљива природа, која се свакако огледа у њиховој слепој улици такозване креативности кроз вештачку интелигенцију, представља праву претњу, јер неуспех антимонополских закона у САД показује да мрежа мегакорпорација – Блекрок и други – постиже неконтролисану диктатуру, односно Тила/Палантира и Масковог Кс империје. Остали ће се борити за неколико мрвица токена које означавају наше власништво над ничим и срећу.
Ко пише лажи које вештачка интелигенција избацује?
Морате изазвати вештачку интелигенцију да бисте добили праве одговоре.
Питао сам о убиству Чарлија Кирка и избацило је онлајн нарацију, али представити чињенице око атентата и заташкавања и бинго, било је веома импресивно.
Вештачка интелигенција је апсолутно неопходна да би појединци остали слободни у свету високе технологије који се развија. Нажалост, вештачка интелигенција која се истиче (ОИИ) не само да не може да испуни оно што заговорници обећавају, већ је и погрешно веровање да може изузетно опасно. Људи који разумеју информациону науку већ се шале о спасавању делова у џиновским системима након што они откажу и буду угашени. То би био „добар“ сценарио, лош одражава превару о ОИГ која је пропала, а ипак милијарде и даље верују у њу.
Вештачка интелигенција која може да помогне човечанству мора бити дистрибуирана, а људи овлашћени да је програмирају за индивидуалне потребе. Софтвер од ког људи зависе, баш као и медицина, мора бити... ОТВОРЕНИ КОД! Опасност у обе области расте годинама јер је олигарсима било дозвољено да преузму регулаторна тела, медије и скоро све остало од чега људи зависе.
Потребан нам је нови порески систем који ће спречити формирање монопола и оснажити индивидуално формирање капитала. Тренутни систем ради управо супротно, а влада која би „требало“ да одржава капитализам у равнотежи је одавно заробљена. PAT-SAT је осмишљен да обнови економску равнотежу како би појединци могли да напредују.