Кућа Аудио Зашто неке компаније размишљају о додавању „људске повратне информације“ модерним аи системима?

Зашто неке компаније размишљају о додавању „људске повратне информације“ модерним аи системима?

Anonim

П:

Зашто неке компаније размишљају о додавању "људске повратне информације" модерним АИ системима?

А:

Неке компаније које раде са врхунском АИ технологијом раде на успостављању људских контрола над овим системима, дајући алатима за машинско учење и дубоко учење неке директне људске надзоре. Ни ове компаније нису мали играчи - Гоогле-ови ДеепМинд и Опенлон Алон Елон Муск два су примера великих компанија које се баве напретком вештачке интелигенције. Имајући то у виду, резултати се разликују - на пример, ДеепМинд је био предмет расправе због уоченог неспремности да јавности достави кључне податке, док је ОпенАИ много више, па и отворен у свом раду на контроли вештачке интелигенције.

Чак је и такав значај који је Билл Гатес разматрао о том питању, Гатес је рекао да је један од многих који су забринути због појаве вештачке суперинтелигенце која би на неки начин могла да надиђе људску контролу. Муск је са своје стране такође изнео неки алармантни језик о могућности „рогуе АИ“.

То је вероватно најнужнији разлог што компаније раде на примени људских контрола на АИ - идеја да ће нека технолошка јединственост резултирати супер-моћном осећајном технологијом коју људи једноставно више не могу да контролишу. Од зоре људских амбиција, поставили смо алате како бисмо били сигурни да можемо контролисати моћи које поседујемо - било да су то коњи са узде и каблови, електрична енергија у изолованим жицама или било који други механизам управљања, који има контрола је урођено људска функција и зато има смисла у свету да се како се вештачка интелигенција ближи стварној функционалности, људи примењују сопствене изравне контроле како би одржали ту моћ под контролом.

Међутим, страх од супер интелигентних робота није једини разлог зашто компаније примењују људске контроле за машинско учење и АИ пројекте. Други главни разлог је машинска пристраност - то је идеја да су системи вештачке интелигенције често ограничени у процени дотичних података - тако да појачавају сваку пристраност својствену систему. Већина професионалаца који се баве машинским учењем могу испричати грозне приче о ИТ системима који нису били у стању да третирају људске корисничке групе - било да је реч о роду или етничкој неједнакости или неком другом неуспеху система да заиста разуме нијансе наших људских друштава и како комуницирамо са људима.

У одређеном смислу, можемо ставити људску контролу на системе, јер се бојимо да би могли бити превише моћни - или наизменично, јер се бојимо да можда неће бити довољно моћни. Људске контроле помажу у усмеравању скупова података о стројном учењу ради пружања веће прецизности. Помажу у јачању идеја које рачунар једноставно не може сам научити, било зато што модел није довољно софистициран, зато што АИ није напредовао довољно далеко, или зато што неке ствари леже у провинцији људске спознаје. Вештачка интелигенција одлична је за неке ствари - на пример, систем заснован на награђивању и постизању резултата омогућио је вештачкој интелигенцији да победи људског играча у неизмерно сложеној друштвеној игри „Иди“ - али за друге ствари, овај систем заснован на подстицајима је потпуно неадекватно.

Укратко, постоје бројни увјерљиви разлози да се људски корисници директно укључе у начин на који дјелују пројекти умјетне интелигенције. Чак и најбоље технологије вештачке интелигенције могу пуно размишљати самостално - али без стварног биолошког људског мозга који може обрађивати ствари попут емоција и друштвених обичаја, они једноставно не могу видети велику слику на људски начин.

Квалификована компанија за машинско учење може помоћи да се успостави ова равнотежа са комбинацијом стручњака за пословање и теме и програмерима машинског учења са вештинама за решавање великих пословних проблема.

Зашто неке компаније размишљају о додавању „људске повратне информације“ модерним аи системима?