Да ли сте знали?

OpenAI мора да повуче Сору: Како нас све угрожавају дипфејк видео снимци вештачке интелигенције

Молимо вас да поделите нашу причу!

OpenAI показује „безобзирно непоштовање“ безбедности производа, права људи на сопствени лик, па чак и стабилности демократије, наводи се у писму које је написала организација Public Citizen. Видео платформа Sora се обично користи за кратки садржај на друштвеним мрежама, креирајући клипове довољно забавне да би се лајковали и делили. Популарна тема су снимци са лажних камера на вратима, где се дешава нешто помало необично, а да притом остане донекле уверљиво – попут кенгура који долази на нечија врата или лабаво забавне уличне сцене – али софтвер би брзо могао да постане опасност за све нас. 

Јавни грађанин је управо позвао OpenAI да повуче Сору из јавне употребе, називајући то непромишљеним објављивањем које појачава дипфејкове, крађу идентитета и дезинформације о изборима. Да ли је то толико лоше колико кажу? 

OpenAI показује „безобзирно непоштовање“ безбедности производа, права људи на сопствени лик, стабилности демократије, па је чак довео и до самоубистава, са својим Sora AI видео софтвером, према подацима Public Citizen-а.

Опасност од дипфејкова

Организација Public Citizen је написала писмо компанији OpenAI и америчком Конгресу захтевајући да се апликација Sora искључи из мреже док се не имплементирају робусне, тестиране заштитне ограде. Њихова тврдња је да је апликација покренута неодговорно рано како би се стекла конкурентска предност, а да се нису размотриле неопходне мере безбедности. Кључни ризици су коришћење сличности без пристанка и широко распрострањена обмана, јер се синтетички видео снимци шире брже него што јавност може да потврди њихову аутентичност.  

Заговорник технолошке политике организације Public Citizen, Џеј Би Бранч – аутор писма – каже: „Наша највећа брига је потенцијална претња демократији. Мислим да улазимо у свет у коме људи не могу заиста да верују ономе што виде. И почињемо да виђамо стратегије у политици где је прва слика или први видео који се објави оно чега се људи сећају“. 

Бранч је наставио: „Они притискају педалу газе без обзира на штету. Много тога делује предвидљиво. Али радије би избацили производ на тржиште, натерали људе да га преузму, навели људе који су зависни од њега, него да раде праву ствар и претходно тестирају ове ствари и брину о тешкој ситуацији свакодневних корисника“. 

OpenAI је изазвао самоубиства, наводи се у тужбама

Седам нових тужби поднетих прошле недеље у калифорнијским судовима тврди да је четбот доводио људе до самоубиства и штетних заблуда, чак и када нису имали претходних проблема са менталним здрављем. У име шест одраслих и једног тинејџера, Центар за право жртава друштвених медија и Пројекат за право технолошке правде поднели су тужбе тврдећи да је OpenAI свесно прерано објавио своју GPT-4o итерацију прошле године, упркос интерним упозорењима да је опасно улизична и психолошки манипулативна. Четири жртве су умрле самоубиством.  

Организација „Јавни грађанин“ није укључена у тужбе, али понавља забринутост изнету у њима. Бранч каже да OpenAI блокира голотињу, али ипак „жене виде да су узнемираване на мрежи“ на друге начине. Извештај организације 404 Media прошле недеље открио је поплаву видео снимака жена које је направио Сора, на којима се види како их даве.  

За шта се користе Sora AI видео снимци

Сора омогућава свима да праве кинематографске лажне филмове, било да су то измишљене сцене звона на вратима, познате личности које певају уз усне или фотореалистичне мини драме које изгледају као снимци очевидаца. Ови клипови су дизајнирани да буду смешни, дељиви и застрашујући – у крајњој линији због допамина. Али када се деле на онлајн платформама, контекст нестаје и многи људи их схватају као да су стварни.  

Вашингтон пост је тестирао теорију. Поставили су лажни видео који је направио Сора на осам главних платформи са уграђеним подацима о садржају отпорним на неовлашћено коришћење. Само једна платформа – Јутјуб – идентификовала је и открила његову вештачку природу, али је сакрила ознаку у опису. Ако платформе не могу, или неће, да пренесу јасне сигнале о томе шта је стварно, а шта лажно, онда не постоји начин да се гледаоци заштите од обмањујућег садржаја. 

Где би могло да крене по злу – и већ јесте

  • ИзбориШачица реалистичних фалсификата, попут измишљених полицијских пуцњава, фалсификованих признања кандидата и фалсификованих извештаја о спољној политици, може утицати на излазност бирача и изазвати немире много пре него што се провере чињеница могу спровести. Организација „Јавни грађанин“ упозорава на Сорин утицај на „стабилност демократије“. 
  • Узнемиравање и изнудаНеконсензуални дипфејкови сексуалног живота, блаћење репутације и опште кампање изнуде већ су проблем са фотографијама – видео умножава штету  
  • Преваре о јавној безбедностиЛажни снимци катастрофа или упозорења о ванредним ситуацијама шире се брже од исправки, збуњујући прве реаговаоце и јавност. Сорин невероватан реализам у свакодневном контексту је неупоредив, а уочавање разлике је теже него икад. 
  • Економска превараСинтетички видео снимци извршних директора, јавних личности или познатих инфлуенсера могу створити класичне преваре са гласовним или имејл лажним имејловима, терајући запослене или појединце да шаљу новац путем банковног трансфера. Клонирање гласа већ вара банке – замислите и моћ лажних видео снимака. 

Шта OpenAI каже да ради на решавању опасности

OpenAI је почео да ограничава појављивање јавних личности у камео формату и увео је контроле корисника над „AI селфовима“ где би се могао појавити лични аватар. С једне стране, они јасно признају ризик. Али с друге стране, не решавају ефикасно проблем у потпуности. Речено је да је „прекомерна модерација изузетно фрустрирајућа“ за нове кориснике и да је важно бити конзервативан „док се свет још увек прилагођава овој новој технологији“. 

У октобру су јавно објавили споразуме са породицом Мартина Лутера Кинга Млађег, спречавајући „непоштовање“ лидера за грађанска права док је компанија радила на бољим заштитним мерама. OpenAI је такође објавио исти споразум са познатим глумцима, синдикатом SAG-AFTRA и агенцијама за таленте. 

„Све је то лепо и у реду ако сте познати“, рекао је Бранч, али је истакао још један проблем. „То је само образац који OpenAI има где су спремни да одговоре на негодовање веома мале популације. Спремни су да објаве нешто и да се потом извине. Али многа од ових питања су дизајнерски избори које могу да направе пре објављивања.“ 

Шира слика вештачке интелигенције

Писмо организације „Public Citizen“ стиже усред све већег сазнања да градимо платформе које олакшавају обману него икад, уместо да стварамо системе за заштиту од ње. Сора видео снимци могу бити занимљиви, али неразлучиви брзином скроловања, а без веродостојних ознака које истичу синтетички садржај за кориснике, једноставно дозвољавамо јавности да се навикне на лажни садржај, на крају постајући неспособна да примети разлику.  

OpenAI није измислио дипфејкове, а конкуренти ће се тркати да му парирају. Право вођство би захтевало успоравање док се не поставе заштитне ограде, уместо да се креће тако брзо да никада не можемо да изградимо праву заштиту. У међувремену, надзорна тела ће наставити да захтевају његово уклањање из јавног домена док обични људи не буду могли да разликују чињенице од фикције. 

Финал Тхоугхт

Да ли мислите да бисте могли тачно да разликујете најновије видео записе вештачке интелигенције од стварности? Који је највећи ризик у вези са доступношћу ове технологије свима? Шта можемо да урадимо поводом тога? Поделите своје мишљење испод. 

Ваша влада и велике технолошке организације
покушајте да утишате и искључите The Expose.

Зато нам је потребна ваша помоћ да бисмо осигурали
можемо наставити да вам доносимо
чињенице које мејнстрим одбија.

Влада нас не финансира
да објављују лажи и пропаганду на својим
у име као што су мејнстрим медији.

Уместо тога, ослањамо се искључиво на вашу подршку. Зато
молимо вас да нас подржите у нашим напорима да донесемо
ви искрено, поуздано, истраживачко новинарство
данас. Безбедно је, брзо и једноставно.

Молимо вас да изаберете жељени начин испод како бисте показали своју подршку.

Останите ажурирани!

Останите у току са вестима путем имејла

Утовар


Молимо вас да поделите нашу причу!
аутор аватар
Г. Калдер
Ја сам Џорџ Калдер — доживотни трагач за истином, ентузијаста за податке и човек који поставља питања без извињења. Већи део две деценије сам провео копајући по документима, дешифрујући статистику и доводећи у питање наративе који не издржавају проверу. Моје писање није о мишљењу — већ о доказима, логици и јасноћи. Ако се не може поткрепити, не припада причи. Пре него што сам се придружио Expose News-у, радио сам у академским истраживањима и анализи политика, што ме је научило једној ствари: истина ретко је гласна, али је увек ту — ако знате где да тражите. Пишем зато што јавност заслужује више од наслова. Ви заслужујете контекст, транспарентност и слободу критичког размишљања. Без обзира да ли анализирам владин извештај, анализирам медицинске податке или разоткривам медијску пристрасност, мој циљ је једноставан: пробити се кроз буку и изнети чињенице. Када не пишем, наћи ћете ме како планинарим, читам непознате историјске књиге или експериментишем са рецептима који никада не испадну сасвим тачни.
4.5 2 гласова
Чланак Оцена
Пријавите се
Обавести о
гост
12 Коментари
Инлине Феедбацкс
Погледајте све коментаре
Пречасни Скот
Пречасни Скот
КСНУМКС месеци пре

Одувек сам говорио да вештачку интелигенцију треба уништити. Још боље, никада је не треба развијати. Сада је прекасно. Мачка је напољу, сада знате да нам је продата мачка у џаку. Боље је да се решимо видео надзора јер ниједан дигитални снимак више није важећи. Дигитални идентификациони број? Никако, превише је ризично. Човечанство открива да је вештачка интелигенција гори изум од атомске бомбе. Научнике треба изоловати од остатка друштва. Лако их је потплатити... превара о климатским променама, превара о ковиду и много штете...

Роберт Скапел
Роберт Скапел
КСНУМКС месеци пре

Да, слажем се да вештачка интелигенција у садашњем облику мора да нестане! Веома је опасна, посебно за децу!

плебеј
плебеј
КСНУМКС месеци пре

То је добра ствар. Вештачка интелигенција је релативно нова, тако да ће требати мало времена да шира јавност схвати да се апсолутно ничему што се нађе на интернету не може веровати. Вештачка интелигенција која генерише лажне податке помаже у томе.
Ускоро ће већина људи знати да се ничему од тога не може веровати. Ово је, наравно, одувек требало знати, али ће сазнање брзо допрети чак и до најглупљих људи.
Скенирајте цео чланак. Такозвана „опасност“ не долази од лагања, већ од људи који верују у лажи. На пример, чак и неки од најглупљих људи сада разумеју да их политичари лажу.
Колико људи може рећи „Боже, никада ме нису лагали у целом животу док нисам погледао видео са вештачком интелигенцијом.“ Такозвана мотивација „безбедношћу“ никада није ништа више од покушаја цензуре и контроле.
Неки лудак креће у пуцњаву зато што му гласови у глави говоре да убија људе? Гласови у глави су опасност за све! Хајде да забранимо гласове у људским главама!

Џим Педен
Џим Педен
Одговарати на  Г. Калдер
КСНУМКС месеци пре

Добар чланак! Наравно, није само Сора – сада их има много. Користио сам Гуглов Veo3 да направим кратки филм (мој први покушај и није било лако!) – https://panocracy.substack.com/p/panocracy-the-movie-introduction)

Мислим да ће људи посматрати било коју информацију из емитовања кроз призму сопствених предрасуда. Ако сте присталица господина Трампа, онда ћете бити скептични према сваком негативном писању које добија и прихватићете ако је позитивно. Исто важи и за господина Стармера итд.

Тренутна ситуација са фалсификовањем снимака Трампа од стране ББЦ-ја за своје програме Панорама и Њузнајт показује (ако је то било потребно) да погрешне/дезинформације нису ограничене само на вештачку интелигенцију.

Открио сам да су они у професионалним класама најосетљивији на дезинформације. Радничка класа има тенденцију да скоро све одбаци као менаџерски трик! Они чија егзистенција зависи од писане и усмене речи имају тенденцију да буду много лаковернији.

БертМ
БертМ
Одговарати на  плебеј
Пре КСНУМКС дана

Изгледа да игноришете чињеницу да вештачка интелигенција чини видео доказе безвредним, осим ако садржај генерисан вештачком интелигенцијом није законски обавезан да се означи као синтетички (путем стеганографије).

БертМ
БертМ
Одговарати на  плебеј
Пре КСНУМКС дана

Изгледа да игноришете чињеницу да вештачка интелигенција чини видео доказе безвредним, осим ако садржај генерисан вештачком интелигенцијом није законски обавезан да се означи као синтетички (путем стеганографије).

Келман
Келман
КСНУМКС месеци пре

Много пре него што је ова вештачка интелигенција дошла у први план, узастопне владе су се редовно упуштале у све врсте обмана.
Изгледа да нема ни одговорности.

Џој Н.
Џој Н.
КСНУМКС месеци пре

🙏🙏
Шта Свето писмо каже о овој ужасној деценији која је пред нама... Ево сајта који објашњава актуелне глобалне догађаје у светлу библијских пророчанстава... Да бисте разумели више, посетите 👇 https://bibleprophecyinaction.blogspot.com/

Јуслех Зетер
Јуслех Зетер
КСНУМКС месеци пре

Мој син има апликацију коју користи без обавеза... Тренутно га стварно занима време, посебно торнада. Направио је видео записе снимајући напољу, а затим генерише торнада која уништавају локалне куће, остављајући рушевине. Заправо изгледају прилично реалистично!... Мана је ако се користи у злонамерне сврхе и ко зна да ли ће следећа лажна застава бити створена на овај начин... Већ смо имали 11. септембар и 7. септембар много пре ове технологије!...

Исландер
Исландер
КСНУМКС месеци пре

„Стабилност демократије“???

Демократија је , врхунски симбол нестабилности - човек са једном ногом је стабилнији!

Сигурно су ваши читаоци до сада већ могли да виде да је демократија „пронађена као неопходна“?

новак
новак
КСНУМКС месеци пре

Вше, јак се зда, уж тади било речено. Цо дал? Неделејме си илузе. Џин (Кракен) бил випуштен. Тохле уж никдо незастави. Последни зхасне. Преји хезкы ден.

Последње жасне.