Затвори оглас

Област технологије је угрожена бројним факторима. Корисници се плаше, на пример, злонамерног софтвера или губитка приватности. Али према утицајним личностима технолошке индустрије, не треба да бринемо толико о самом људском фактору, већ о његовој повезаности са вештачком интелигенцијом. На овогодишњем Светском економском форуму у Давосу, руководиоци бројних великих технолошких компанија позвали су на законску регулативу индустрије. Који су њихови разлози за то?

„Вештачка интелигенција је једна од најдубљих ствари на којима ми као човечанство радимо. Има више дубине од ватре или струје, рекао је извршни директор Алпхабет Инц. прошле среде на Светском економском форуму. Сундар Пицхаи, додајући да регулација вештачке интелигенције захтева глобални оквир обраде. Директор Мајкрософта Сатја Надела и директор ИБМ-а Гини Ромети такође позивају на стандардизацију правила у вези са коришћењем вештачке интелигенције. Према речима Наделе, данас, пре више од тридесет година, неопходно је да САД, Кина и Европска унија успоставе правила која одређују значај вештачке интелигенције за наше друштво и за свет.

Покушаји појединих компанија да успоставе своја етичка правила за вештачку интелигенцију у прошлости су наилазили на протесте не само запослених у овим компанијама. На пример, Гугл је 2018. морао да се повуче из тајног владиног програма Пројецт Мавен, који је користио технологију за анализу слика са војних дронова, након масовне реакције. Стефан Хојман из берлинског истраживачког центра Стифтунг Неуе Верантвортунг, у вези са етичким контроверзама око вештачке интелигенције, каже да политичке организације треба да постављају правила, а не саме компаније.

Гоогле Хоме паметни звучник користи вештачку интелигенцију

Садашњи талас протеста против вештачке интелигенције има јасан разлог за овај тајминг. За само неколико недеља, Европска унија мора да промени своје планове за релевантно законодавство. Ово би могло да укључи, на пример, прописе који се односе на развој вештачке интелигенције у такозваним високоризичним секторима као што су здравство или транспорт. Према новим правилима, на пример, компаније би морале да документују у оквиру транспарентности како граде своје АИ системе.

У вези са вештачком интелигенцијом, у прошлости се већ појавило неколико скандала – један од њих је, на пример, афера Кембриџ аналитика. У компанији Амазон запослени су прислушкивали кориснике преко дигиталног асистента Алекса, а у лето прошле године поново је избио скандал због чињенице да је компанија Гугл – односно платформа Јутјуб – прикупљала податке од деце млађе од тринаест година. без сагласности родитеља.

Док неке компаније ћуте на ову тему, према изјави њеног потпредседника Николе Менделсона, Фејсбук је недавно успоставио своја правила, слична европској ГДПР уредби. Менделсон је у изјави рекао да је то резултат Фацебооковог притиска на глобалну регулативу. Кит Енрајт, који је задужен за приватност у Гуглу, рекао је на недавној конференцији у Бриселу да компанија тренутно тражи начине да минимизира количину корисничких података које треба прикупити. "Али широко распрострањена популарна тврдња је да компаније попут наше покушавају да прикупе што више података", навео је даље, додајући да је држање података који корисницима не доносе никакву вредност ризично.

Чини се да регулатори ни у ком случају не потцењују заштиту података корисника. Сједињене Државе тренутно раде на федералном законодавству сличном ГДПР-у. На основу њих, компаније би морале да добију сагласност својих купаца да дају своје податке трећим лицима.

Сири ФБ

Извор: Блоомберг

.