ВЕШТАЧКА „ИНТЕЛИГЕНЦИЈА“ СЕ МОРА ТЕСТИРАТИ И РЕГУЛИСАТИ, КАЖУ ЊЕНИ ТВОРЦИ

Творци вештачке интелигенције упозоравају на разорне последице ако програми измакну контроли.

Водећи стручњаци за вештачку интелигенцију, укључујући генералног директора компаније OpenAI Сема Алтмана, објавили су саопштење у ком изјављују да би контрола потенцијалних ризика од вештачке интелигенције требало да буде приоритет као да је у питању нуклеарни рат или пандемија. Сажето саопштење, које је објавила кровна организација лидера AI (вештачке интелигенције), има за циљ да подстакне дискусију и подигне свест међу све већим бројем стручњака забринутих због озбиљних ризика повезаних с напретком вештачке интелигенције. Међу потписницима су познате личности као што су Џефри Хинтон и Јошуа Бенђо, двојица од тројице „кумова вештачке интелигенције“, као и Демис Хасабис, извршни директор Гугловог ДипМајнда и Дарио Амодеј, извршни директор компаније за вештачку интелигенцију Антропик, преноси DW.

Њихово саопштење објављено је у тренутку када се политичари и лидери технолошке индустрије окупљају на састанку Савета за трговину и технологију ЕУ-САД у Шведској како би разговарали о регулисању вештачке интелигенције. Очекује се да ће се Сем Алтман састати са шефом индустрије ЕУ Тјеријем Бретоном како би разговарали о предстојећем спровођењу прописа Европске уније о вештачкој интелигенцији. Алтман је још раније изразио забринутост због предложених прописа, али је од тада ублажио свој став.

Иако се изјава не бави специфичним ризицима или стратегијама за ублажавање ризика, у њој се наводе недавне примедбе Јошуе Бенђа, који је указао на потенцијалне ризике повезане с вештачком интелигенцијом и њеном потрагом за циљевима који су у супротности с људским вредностима. Ови ризици укључују злонамерне људске актере који усмеравају вештачку интелигенцију да се упусти у штетне активности, погрешно тумачење непрописно одређених циљева, појаву потциљева с негативним последицама и развијање понашања вештачке интелигенције према сопственим интересима како би обезбедила свој опстанак.

Бенђо предлаже да се повећају истраживања о безбедности вештачке интелигенције, да се привремено ограниче могућности вештачке интелигенције да остварује стварне циљеве и да се забрани смртоносно аутономно оружје. Саопштење стручњака, као и Бенђови предлози доприносе текућем дијалогу о етици вештачке интелигенције и потреби за одговорним развојем и регулативом како би се осигурало да човечанство има што више користи од вештачке интелигенције, док истовремено потенцијалне ризике треба свести на минимум.

Exit mobile version