П:
Зашто је машинска пристраност проблем у машинском учењу?
А:На ово питање се може одговорити на два различита начина. Прво, зашто је проблем пристраности машином, као и зашто, постоји у процесима машинског учења?
Машинско учење, иако софистицирано и сложено, у одређеној мери је ограничено на основу скупова података које користи. Конструкција скупа података укључује својствене пристраности. Баш као у медијима, где пропусти и намерни избори укључивања могу показати одређену пристрасност, при машинском учењу се скупови података који се користе морају испитати да би се утврдило какве пристраности постоје.
Бесплатно преузимање: Машинско учење и зашто је то важно |
На пример, чест је проблем за тестирање технологије и процесе дизајнирања како би показали предност једне врсте корисника над другом. Велики пример је неједнакост полова у свету технологије.
Зашто се то разликује и зашто се то односи на машинско учење?
Будући да недостатак постојећих женки у окружењу за тестирање може довести до произведене технологије која је женској публици мање прилагођена. Начин на који неки стручњаци то описују је тај да без постојећег тестирања на женама крајњи производ можда неће препознати унос женских корисника - можда неће имати алате за препознавање женског идентитета или за адекватан рад са уносом жена.
Исто важи за различите етничке групе, људе различитих религија или било коју другу врсту демографије. Без правих података алгоритми машинског учења неће радити исправно за одређени кориснички скуп тако да се подаци о укључивању морају намерно додавати у технологију. Уместо да узимају само примарне скупове података и појачавају својствене пристраности, људи који се баве људским ресурсима морају стварно да размотре проблем.
Други пример је машински механизам за учење који узима податке о послу и платама и даје резултате. Ако тај инхерентни скуп података није анализиран, машина ће појачати пристраност. Ако опази да мушкарци држе велику већину извршних послова, а процес машинског учења укључује филтрирање кроз сирови скуп података и враћање одговарајућих резултата, вратиће резултате који показују мушку пристрасност.
Други део питања укључује зашто је таква пристраност толико штетна. Без адекватног надзора и тестирања, нове технологије могу нашкодити, а не помоћи нашем осећају укључености и једнакости. Ако се представи нови технолошки производ који препознаје лица са светлијом кожом, али не тамније коже, то може довести до ескалације етничких тензија и осећаја да компанија о којој је реч није осетљива на различитост. Ако алгоритам машинског учења репродукује и појачава пристрасност у скуповима података, тада ће вештачка интелигенција додати свој глас људским гласовима и људским тенденцијама које већ постоје у друштвеном систему које фаворизују једну групу људи над другом.
Најбољи начин да се то решимо је да се пажљиво погледају основни скупови података, користи се избор функција, дода се варијабилни унос и манипулирају самим необрађеним сетовима података и повећа се стварна снага машинског учења намерним људским прављењем података да би се добио резултат који доноси велику аналитичку снагу, али и неке од тих људских увида који рачунари још не могу да копирају.