Преглед садржаја:
Очекује се да ће лажне вести представљати велики трн на страни предстојећих председничких избора, а да не спомињемо њен укупни корозивни утицај на наш јавни дискурс уопште. У данашњем повезаном друштву, разликовање чињеница од фикције постаје све теже, због чега се неки истраживачи почињу фокусирати на моћ вештачке интелигенције да би решили овај проблем.
Надамо се, наравно, да ће машине, или тачније алгоритми, бити бољи од људи у примећивању лажи. Али да ли је ово реално очекивање или је само још један случај бацања технологије на наизглед неизрецив проблем?
Ухватити лопова. . .
Један од начина на који научници података планирају да пооштре акуитет АИ у овој области омогућава му генерирање лажних вести. Аллен Институт за АИ на Универзитету у Васхингтону развио је и јавно објавио Гровер, мотор за обраду природних језика који је дизајниран да створи лажне приче о широком распону тема. Иако се ово у почетку може чинити контрапродуктивним, ово је у ствари прилично уобичајена тактика АИ тренинга у којој једна машина анализира излаз друге. На овај начин се аналитичка страна може убрзати много брже од ослањања на стварне лажне вести. Из института тврде да Гровер већ може радити са оцјеном тачности од 92%, али важно је напоменути да је само вјешт у разликовању садржаја који ствара АИ од садржаја који ствара човјек, што значи да би паметна особа и даље могла лагати лажну причу мимо њега. (Да бисте сазнали више, погледајте технологију око борбе против лажних вести.)