Бивши инжењер Гоогле-а оснива религију за обожавање АИ. Прекасно је деценијама.

Двестогодишњица

Наслови на овом би могли да се напишу сами. Антхони Левандовски, осрамоћени бивши инжењер Гоогле-а чије је копирање пословне тајне навело Ваимо (Алпхабет-ову самосталну аутомобилску компанију) да покрене тужбу против Убера за 1,86 милијарди долара, основао је организацију под називом „Пут будућности“ још 2015. Његова сврха, према државним пријавама, требало је да „развије и промовише остварење Божанства заснованог на вештачкој интелигенцији“.

На први поглед идеја делује крајње бесмислено. Али тврдио бих да грешка Левандовског није његов сумњив покушај да постави дигитално божанство као замену за одлучније аналогне верзије конвенционалних религија. У томе што није успео да схвати да је деценијама прекасно. Људи то већ чине.



Још од постанка модерног рачунарства, рачунари се у многим погледима гледају и приказују као да нуде боље од људских могућности. Првобитно значење речи „рачунар“ датира из 1613. године и значило је „онај који рачуна“. Људски рачунари коришћени су за стварање табела тригонометрије и логаритма крајем 19. века, као и за истраживање динамике флуида и метеорологије. Како су дигитални рачунари постајали све моћнији средином 20. века, људска дефиниција замењена је идејом да је рачунар ствар који се рачуна више него личност. Као Бетти Јеннингс, једна од жена која је радила на ЕНИАЦ-у раних 1940-их,посматрано, „ЕНИАЦ (сматра се једним од првих, ако нетхепрво, електронски рачунари опште намене) израчунали су путању брже него што је метак требао да путује “.



Неколико година касније, главни рачунар УНИВАЦ И успешно је предвидео изборе за избацивање Еисенховера 1952. године, чак и када су анкетари људи расписали изборе за Адлаи Стевенсон. Део онога што је значајно за тај догађај је рачунар назван трка сати пре времена, али ЦБС је одбио да поверује и није покренуо УНИВАЦ-ове пројекције, упркос томе што је претходно изјавио да ће то учинити. ЦБС је организовао снимке и објавио да је рачунар предвидео шансе за победу Еисенховера на 8-7, када су стварне предвиђене шансе биле 100-1. Једном када је постало јасно УНИВАЦ је био у оквиру 1 процента праве пројекције, емитована мрежа морала је да призна да је рачунар био у праву, а сопствени стручњаци у криву.

УНИВАЦ И у Музеју историје рачунара. Заслуге: Арнолд Реинхолд / Цреативе Цоммонс



Идеја да су дигитални рачунари у одређеним аспектима били знатно супериорнији од људи почела је да се пушта укорењење најкасније почетком 1950-их. Левандовски’с веровање тај АИ могао испунити такву улогу започете деценијама пре успона Интернета, или чак проналаска личног рачунара.

Научна фантастика из тог временског периода, међутим, још увек је изразила знатну нелагоду око различитих аспеката технологије. Док су неки ликови, попут Р. Данеел Оливава Исааца Асимова, приказани позитивно, оригинал Звездане стазе приказао је андроиде или рачунаре као примарне или секундарне антагонисте у 16 ​​процената његових епизода (укупно 13 епизода). Можда још значајније, само је једна епизода приказала осећајну (или опонашајућу) машину у неутралном светлу: „Град на ивици заувек“. У сваком другом случају, андроиди, роботи и напредни рачунарски системи били су приказани као противници. Повукао сам прилично уску линију за ово поређење и нисам обухватио случајеве где технологија је погрешно функционисао или створио проблем. Епизоде ​​попут „Машине судњег дана“, где безумни робот уништава читаве планете, нису биле обухваћене. Да би се уврстио на мој списак од 13 епизода, примарни или секундарни антагонист морао је бити вештачке или механичке природе и морао је показивати софистициране способности одлучивања, чак и ако се његова интелигенција примењивала у једној области стручности или према јединствени циљ. Ако би се уврстио шири списак епизода у којима су технолошке неисправности извор сукоба, листа би била нешто дужа.

Иако неколико ових епизода приказује АИ као експлицитно зло, уобичајено је било да се покаже вештачка интелигенција која се разбила из различитих разлога или је била заробљена у модусима малигног неуспеха као што је перверзна инстанца - дефинисана као АИ која остаје верна циљеви својих твораца, али постизање тих циљева деструктивним понашањем које његови креатори никада нису намеравали. Мекојева највећа и најдоследнија критика Спока је што није у контакту са својим осећањима и прославио је рачунар на бази меса са ногама. Ни у једном тренутку оригиналне емисије вештачки облик живота није приказан у потпуности позитивно или без значајног (и заслуженог) привођења од стране екипе Ентерприсе.



ЦитиИмаге

Једна жива машина која није била антагонист ТОС-а била је слабо ограничена свемирска крофна.

Звездане стазе је овде корисна референтна тачка јер емисија и њени издвајања обухватају тако велики временски период. Током ТНГ ере, вештачки облици живота нису једнострано представљани као претње. Подаци и његова тежња да потпуније разуме човечанство и себе приказани су позитивно и супротстављени су поступцима других вештачких ликова, попут Датаове старије и мање стабилне „браће“ Лоре. Дата-ова права као појединца, његову способност да заповеда свемирским бродом и његову страствену одбрану вештачког облика живота коју нико други не препознаје као да је жив сви су приказани с нијансом.

У време Путовање била у етеру, епизода која се бавила перверзним примерком читаве врсте вештачких облика живота било је необичније од епизода које истражују како вештачки и органски живот могу да раде заједно и уче једни од других. То ни у ком случају није лоше, али разлика у овим причама одражавала је друштвене промене у начину на који су рачунари и АИ доживљавани. Те промене - и заиста, перцепција да су алгоритми некако неутрални евалуациони критеријуми који се могу уздићи изнад несвесних пристрасности или предрасуда човечанства - створиле су несвесно поштовање према алгоритамском доношењу одлука које се можда не рачуна као „обожавање“, али дефинитивно представљају неке степен продуженог вера.

Жичан је извео одлично извештавање о томе како се алгоритми користе за утврђивање да ли су криминалци ризик од лета, без дозвољеног увида у то како раде или тежи својим закључцима и како родна пристрасност(ПДФ) се може увући у софтвер за препознавање слика. Прошле године је Мицрософтов цхатбот Таи избачен из шина Нацистичка реторика–И донекле да одговоре самостално на сличном народном језику - за мање од једног дана.

ТаиТвеетс

Да будемо поштени, нешто од онога што је Таи твитовала било је једноставно чудно.

Неисправни алгоритми одузели су погрешним људима возачке дозволе и укинуо здравствене бенефиције хиљада старијих и становника са ниским примањима у Калифорнији. Ови проблеми нису нови; још крајем 1980-их, истрага о употреби алгоритама за одабир ученика који ће бити примљени у Медицинску школу Ст. Георге'с у Великој Британији (ПДФ) је открио да алгоритам није спречио расну или родну пристрасност, већ је кодирао пристрасност сопствених дизајнера у своје наводно неутралне одлуке. Али све док су АИ и неуронске мреже остали куле од слоноваче и академска истраживања, главна јавност није имала разлога да брине.

Међутим, у последњој деценији видели смо експлозију употребе алгоритама у свему, од одређивања вести које ћете видети у свом Фацебоок феед-у до тога да ли сте добар ризик зајма на основу тога ко су вам пријатељи на друштвеним мрежама. Циљ има предиктивни алгоритми који „знају“ да сте трудни пре него што то учини ваша породица, чак и ако бисте више волели да те податке држите приватним. Компаније попут Фацебоок-а, Гоогле-а и Твиттер-а нагињу се уназад да би се сликале као неутралне платформе за садржај. Испод површине, Фацебоок алгоритамски систем оглашавања нудио је куповину огласа људима који су се идентификовали као „мрзитељи Јевреја“ или су били заинтересовани за теме попут „како спалити јевреје,“И„ зашто Јевреји уништавају свет “. За алгоритам који жели да се подудара са оглашивачима и циљевима огласа, „Мрзитељ Јевреја“ једнако је важна категорија као и „Вал-Март купац“. ИоуТубе је претрпео значајне губитке у оглашавању раније ове године када су главни оглашивачи открили да се њихови огласи приказују екстремистички садржај.

ДидХолоцаустХаппен

Заправо је било горе од овога. Знам, јер сам посебно проверио видевши људе како тврде да је то истина на друштвеним мрежама. Једноставно тражење „Холокауста“ дало је врхунске резултате са белих супремацистичких и нацистичких локација. Људи могу да разликују врсте садржаја и изворе. Алгоритми нису ни приближно толико добри у томе.

Слично томе, Гоогле се сложио да направи ретко ручно подешавање до сопствених резултата претраге након вести да су најбољи резултати претраживача за упите о Холокаусту указивали на истакнуту нацистичку веб страницу. Гоогле-ови инжењери могу у свету имати сваку намеру да створе неутралан алгоритам рангирања. Али алгоритми и аутоматизовани системи који управљају нашим друштвеним интеракцијама, огласи за проналажење партнера, препоруке производа, профили ризика и огласи које видимо нису неутралан. Дизајнирани су да прикажу одређени садржај, да вас подстакну да купите више производа или проведете више времена на веб локацији. И за сваку дораду коју Гоогле покушава да побољша своје резултате, следи легија услуга оптимизације претраживача (СЕО), која обећава најновије трикове и начине за унапређење Гоогле-ових система рангирања и подизање ваше компаније или организације, док истовремено доводи ваше конкуренте доле.

Било је више од неколико људи убијен или насукан ГПС упутствима која су их водила у погрешном смеру, понекад чак и када су докази њихових властитих чула указивали да је рута постајала све гора, а не боља. Изазов у ​​процени када алгоритми и машинска интелигенција враћају добре податке је тај што су рачунари у неким случајевима апсолутно супериорнији од наших сопствених могућности.

Тим инжењера који раде на новој шасији возила не могу да симулирају његове перформансе у десетак различитих хиљадитих радних погона колико и рачунар. Фацебоок-ова функција Људи које можда познајеш повремено искашљава људе И учинио некада знао и волео би да поново буде у контакту. Иако вас услуге ГПС навигације и мапирања могу одвести у погрешном смеру - Аппле Мапс ме је једном незаборавно одвео на пут од 15 миља и одбацио у мирно предграђе када сам тражио да пронађе најближу Цхасе Банк у непознатом граду - углавном немојте, а ови системи су се временом само побољшавали.

То је део проблема. Када компанија избаци нову верзију софтвера, води са закрпама попут: „Побољшано управљање рутом“, а не „Возачи који се приближавају Спрингфиелду на И-95 више неће бити усмерени преко ивице напуштеног каменолома за шљунак“. Квантитативна побољшања многих платформи често се замућују на начине који их чине системским проценама тешким. Ми им ионако верујемо.

Сервери

Препуштање људске интеракције алгоритмима има и друге импликације. Особа у боји која редовно види 10-20 празних таксија пролази, пре него што нађе један да се заустави за њих, док белци у близини немају такав проблем, имају бар посредне доказе да су против њега дискриминисани на незаконит начин. Супротно томе, особа која чека Убер уопште не „види“ свог потенцијалног возача. Да би Убер то чуо, везу између возача и путника ствара неутрални алгоритам подударања. Ипак једна студија прошле године пронашли су мушкарце и жене који су користили афроамеричка „звучна“ имена у својим Убер профилима, а далеко већи проценат њихових вожњи је отказан: 11,2 процента наспрам 4,5 процента код мушкараца који користе бело звучна имена и 8,4 процента насупрот 5,4 процента код жена које користе афричке -Америчка наспрам белог звука имена. У овом случају, Уберов алгоритам за подударање возача са возачима можда је неутралан, али његови исходи нису. Сама природа услуге замагљује доказе који би се иначе могли користити као део дискриминаторне жалбе против компаније.

Не обожавамо Аналогног Оца, Дигиталног Сина и Духа Светих података, нити их проглашавамо преплетеном представом Светог Тернарја. Вероватно никада нећемо. Али све чешће, а често и несвесно, ослањамо се на алгоритме и наводно неутралне рачунарске услуге како би обликовали наш живот на дубок и небитан начин. Верујемо да у оба случаја алгоритми који управљају производима и услугама које користимо имају најмање неки наших најбољих интереса у срцу. У међувремену, лажни пророци Црква неутралног алгоритма живимо даље, обликујући наше разумевање основног мита о уметничкој интелигенцији који се ретко доводи у питање, али има дубоке ефекте на наше разумевање света и нашег места у њему.

Copyright © Сва Права Задржана | 2007es.com