Питање да ли би вештачка интелигенција могла да изазове изумирање човечанства предмет је интензивне дебате међу стручњацима, футуристима и етичарима. Иако су потенцијални ризици вештачке интелигенције значајни, могућност да она доведе до изумирања човечанства зависи од неколико фактора, укључујући начин на који се вештачка интелигенција развија, управља и интегрише у друштво. Ево анализе могућих ризика и користи ове технологије и разматрања у вези са њеном будућом употребом у друштву:
Од 1950. године, када је Алан Тјуринг написао свој рад „Рачунарска интелигенција и машине“, свет расправља о томе да ли ће и када ће вештачка интелигенција бити спасилац људског постојања или његов уништитељ. У рукама лудака који имају комплекс бога и желе само да следе своју искривљену агенду, она постаје егзистенцијална претња за све нас. Да ли ћемо дозволити овој технологији да продре у све аспекте наших личних живота, нашу финансијску будућност, па чак и у здравствене системе у које нам се говори да верујемо?

„Успех у стварању вештачке интелигенције био би највећи догађај у људској историји. Нажалост, могао би бити и последњи, осим ако не научимо како да избегнемо ризике.“ – Стивен Хокинг Говорећи на отварању Леверхалм центра за будућност интелигенције, 19. октобра 2016.
1. Потенцијални ризици од АИ
- Суперинтелигентни АИ: Неки теоретичари тврде да би, ако би вештачка интелигенција достигла ниво суперинтелигенције — далеко превазилазећи људску интелигенцију — потенцијално могла да делује на начине који су ван људске контроле. Ако би циљеви такве вештачке интелигенције били неусклађени са људским вредностима или опстанком, могла би представљати претњу.
- Аутономно оружје: Вештачка интелигенција би се могла користити за стварање напредног аутономног оружја које, ако се распореди или користи неодговорно, може довести до катастрофалних последица, укључујући широко распрострањено уништење или ескалацију сукоба.
- Ненамерне последице: Чак и без злонамерне намере, системи вештачке интелигенције могу проузроковати штету кроз ненамерне последице. На пример, вештачка интелигенција дизајнирана да оптимизује одређени циљ могла би тежити том циљу на начин који штети људима или животној средини.
- Економски и друштвени поремећаји: Широко распрострањено усвајање вештачке интелигенције могло би довести до масовних економских поремећаја, незапослености и друштвених немира, што би индиректно могло допринети великом друштвеном колапсу ако се не управља правилно.

2. Ублажавање ризика
- Етички развој вештачке интелигенције: Осигуравање да се вештачка интелигенција развија имајући у виду етичка разматрања, дајући приоритет људској безбедности, правичности и транспарентности, може помоћи у ублажавању ризика. То укључује имплементацију робусних безбедносних механизама и мера предострожности.
- Регулатива и управљање: Ефикасна регулација и глобално управљање су кључни за управљање развојем и применом вештачке интелигенције. Међународна сарадња би могла помоћи у спречавању злоупотребе технологија вештачке интелигенције и успостављању стандарда безбедности.
- Усклађеност човека и вештачке интелигенције: Истраживачи раде на усклађивању система вештачке интелигенције са људским вредностима и осигуравању да се вештачка интелигенција понаша на начин који је користан за човечанство. То укључује техничке изазове попут дизајнирања система вештачке интелигенције који разумеју и придржавају се људских етичких принципа.
- Јавна свест и ангажовање: Едукација јавности и укључивање различитих заинтересованих страна у управљање вештачком интелигенцијом може осигурати да се друштвене вредности одражавају у развоју и примени вештачке интелигенције.
3. Баланцед Перспецтивес
- Оптимистични ставови: Многи стручњаци верују да би вештачка интелигенција, ако се њоме управља одговорно, могла у великој мери користити човечанству решавањем сложених проблема, побољшањем здравствене заштите, унапређењем науке и суочавањем са глобалним изазовима попут климатских промена. Они тврде да се ризици, иако стварни, могу ублажити пажљивим планирањем, регулацијом и етичким разматрањима.
- Опрезни погледи: Други стручњаци упозоравају да су ризици вештачке интелигенције значајни и да их не треба потцењивати. Они се залажу за снажне мере предострожности, ригорозно тестирање и развој вештачке интелигенције уз строго усклађивање са људским вредностима како би се спречиле потенцијалне егзистенцијалне претње.
4. Тренутно стање и будући изгледи
- Тренутне могућности вештачке интелигенције: Тренутно, вештачка интелигенција није ни близу достизања нивоа опште интелигенције потребног да представља егзистенцијалну претњу. Већина система вештачке интелигенције је специјализована и недостаје им способност да самостално постављају циљеве или разумеју шири контекст својих деловања.
- Будући развој: Будућа путања вештачке интелигенције је неизвесна и, иако би могла довести до трансформативних користи, потребна је и стална будност и проактивно управљање како би се спречили потенцијални ризици.
Укратко, вештачка интелигенција заиста има потенцијал да представља егзистенцијалне ризике у одређеним сценаријима, и с обзиром на бескрупулозне намере неколицине која контролише већину, то би могло довести до тога да се ове технологије користе за одлучивање ко и шта је важно, у поређењу са ко и шта је потрошно. Исход у великој мери зависи од тога како се технологије вештачке интелигенције развијају, управљају и интегришу у друштво. Кључ за обезбеђивање позитивног исхода лежи у одговорним иноваторима, глобалној сарадњи и континуираном етичком размишљању.
Дакле, да ли прихватамо ова технолошка достигнућа, док слепо ходамо са крдом и надамо се да је етика у првом плану умова иноватора, или можда почињемо да проналазимо начине да се ми, као појединци, одвојимо од ових машина, можда у начину на који се носимо са својим финансијама, можда бринући се о свом и здрављу и благостању својих породица? Постоји толико много начина да се дистанцирамо, да пронађемо друге опције и постанемо самостални и проактивни, уместо да потпуно верујемо корпорацијама и системима који служе само себи.
Експозу је хитно потребна ваша помоћ…
Можете ли, молим вас, помоћи да се одржи рад искреног, поузданог, моћног и истинитог новинарства часописа The Expose?
Ваша влада и велике технолошке организације
покушајте да утишате и искључите The Expose.
Зато нам је потребна ваша помоћ да бисмо осигурали
можемо наставити да вам доносимо
чињенице које мејнстрим одбија.
Влада нас не финансира
да објављују лажи и пропаганду на својим
у име као што су мејнстрим медији.
Уместо тога, ослањамо се искључиво на вашу подршку. Зато
молимо вас да нас подржите у нашим напорима да донесемо
ви искрено, поуздано, истраживачко новинарство
данас. Безбедно је, брзо и једноставно.
Молимо вас да изаберете жељени начин испод како бисте показали своју подршку.
Категорије: Бреакинг Невс, Да ли сте знали?, Свет Вести
Јеси ли гледао/ла филм Меган? M3GAN. Она је реалистична „лутка“ у природној величини коју је направио/ла произвођач играчака, а која креће по злу да би „заштитила своју девојчицу“. Застрашујуће. Забавно је и уживао/ла сам у филму, али уф, може ли кренути по злу.
То нам не треба, људска раса је одлична да сама обави посао.
Не постоје четири закона роботике како их је изнео Исак Асимов, а вештачку интелигенцију развијају радикални секуларни хуманисти који ће у њу усадити своју аморалу религију.
Вештачка интелигенција је програмирана и дизајнирана да одржава и спроводи идеолошке наративе као продужетак умова психопатских технократа.