Redaktora piezīme: tā ir atkāpe no mūsu parastā pamācības un paskaidrojošā formāta, kurā mēs ļaujam mūsu autoriem izpētīt un iepazīstināt ar tehnoloģiju, kas domā par izaicinājumu.
No lielām vasaras slavenībām, piemēram, Avengers: Age of Ultron un Džonijs Depa smieklīgums Transcendence, mazākiem indie filmas, piemēram, Ex-Machina vai Channel 4 hit drama Humans, scenāristi, šķietami nevar iegūt pietiekami daudz no trope, neatkarīgi no tā, kādā veidā AI iespējams, nākamajās desmitgadēs notiks, jūs varat likties, ka tā būs elle, kas ir nolēmis mācīt cilvēci par stundu, kurā cietusi pati savs cilvēks.
Bet vai kāds no šīs mašīnas bailēm ir attaisnots? Šajā rakstā mēs apskatīsim AI pasauli no zinātnieku, inženieru, programmētāju un šajā jomā strādājošo uzņēmēju skatpunkta viedokļa un varam noliegt to, ko viņi uzskata par nākamo lielo revolūciju cilvēku un datoru izlūkošanas jomā.
Tātad, vai vajadzētu sākt uzkrāt lodes nākamajam karam ar Skynet vai pacelties kājām, kamēr savvaļas dronu armija rūpējas par katru jūsu kaprīnu? Lasiet tālāk, lai uzzinātu.
Zināt tavu ienaidnieku
Lai sāktu, tas palīdz uzzināt, ko tieši mēs runājam, kad mēs izmantojam vispārīgo terminu "AI". Šis vārds ir izmests un rediģēts simts reižu, jo pašnodarbināto datoru jēdzienu pirmo reizi ierosināja AI neoficiālais tēvs Džons Makkarti 1955. gadā … bet ko tas tiešām nozīmē?
Vispirms lasītājiem jāzina, ka mākslīgais intelekts, kā mēs to saprotam, šodien faktiski iedala divās atsevišķās kategorijās: "ANI" un "AGI".
Pirmais, kas attiecas uz mākslīgo šaurajai izlūkošanai, aptver to, ko parasti sauc par "vāju" AI vai AI, kas var darboties tikai vienā ierobežotā specializācijas jomā. Pārdomājiet Deep Blue - superdatoru, kuru IBM izstrādāja 1997. gadā, lai ķertos pie pasaules šaha meistariem. Deep Blue var patiešām paveikt vienu lietu patiešām patiešām labi: pārspēt cilvēkus šahos … bet tas ir par to.
ANI ir noderīga un samērā nekaitīga mašīntīkla ieviešana, ko var gūt labums no visas cilvēces, jo, lai gan tā spēj apstrādāt miljardus skaitļu un pieprasījumu vienlaicīgi, tā joprojām darbojas ierobežotā vidē, ko ierobežo to tranzistoru skaits, kurus mēs atļaujam. tas ir jebkurā brīdī. No otras puses, AI, par kuru mēs arvien biežāk uztraucāmies, ir kaut kas sauc par "mākslīgo vispārējo izlūkošanu" jeb AGI.
Pašreizējā situācijā ir radīts viss, ko var pat izsaukt no attāluma, jo AGI joprojām ir datorzinātņu Svētais Grāls, un, ja tas ir sasniegts, tas varētu būtiski mainīt visu pasauli, kā mēs to zinām. Ir daudz dažādu šķēršļu, lai pārvarētu izaicinājumu radīt patiesu AGI par vienlīdzību ar cilvēka prātu, no kā arī tas, ka, lai gan ir daudz līdzību starp to, kā darbojas mūsu smadzenes un kā datoriem tiek apstrādāta informācija, kad tas nonāk faktiski interpretēt lietas tā, kā mēs to darām; mašīnām ir slikts ieradums, ka viņi var tikt piekārti detaļām un trūkst koku meža.
"Es baidos, ka es nevaru ļaut jums to darīt, ka Bullsh * t, Dave"
Kad IBM Watson dators brīnišķīgi iemācījās nolādēt pēc Pilsētas vārdnīcas lasīšanas, mēs uzzinājām, cik tālu mēs esam no AI, kas patiešām spēj sakārtot cilvēka pieredzes mīnusus un radīt precīzu priekšstatu par to, kas "Doma" ir jāveido no.
Redzot Watson izstrādes laikā, inženieriem bija grūti mēģināt iemācīt to kā dabisku runas modeli, kas vairāk simulēja mūsu pašu, nevis to, ka jēgpilnā mašīna runāja ideālos teikumos. Lai to novērstu, viņi uzskatīja, ka būtu ieteicams pilnībā izmantot Urban Dictionary ar savām atmiņas bankām, pēc kuras Watson atbildēja uz kādu no grupas testiem, nosaucot to par "bullsh * t".
Šausmīgs ir tas, ka, lai gan Vatsons zināja, ka tas ir lāstu un ka tas, ko viņš teica, bija aizskarošs, tas pilnībā nesaprot kāpēc tas nebija paredzēts izmantot šo vārdu, kas ir kritiskais komponents, kas šodien atdala standarta ANI, no rītdienas AGI. Protams, šīs mašīnas var lasīt faktus, rakstīt teikumus un pat imitēt žurku neironu tīklu, bet, runājot par kritisku domāšanas un sprieduma prasmēm, šodienas AI vēl aizvien atpaliek no līknes.
Šī atšķirība starp zināšanām un izpratni ir nekas, lai netiktu iešet, un tas ir tas, ko pesimisti norāda, apgalvojot, ka mēs joprojām esam tālu no AGI veidošanas, kas spēj uztvert sevi tā, kā mēs darām. Tas ir milzīgs līcis, viens no tiem, ka ne datoru inženieri, ne cilvēka psihologi nevar apgalvot, ka viņiem ir griešanās mūsdienu definīcijā par to, kas padara apzinīgu būtni, labi apzināta.
Ko darīt, ja Skynet kļūs pašpārliecināts?
Taču pat tad, ja nākamajā desmitgadē mums kaut kā izdodas izveidot AGI (kas, ņemot vērā pašreizējās prognozes, ir diezgan optimistisks), viss būtu jāpiesprādzē no tā, vai ne? Cilvēki, kas dzīvo kopā ar AI, AI sarunājas ar cilvēkiem nedēļas nogalēs pēc garās dienas pie krāšņu skaita. Iepakties un mēs esam pabeidzuši šeit?
Ceru, ka mēs esam ne tikai bioloģiskais boot loader digitālās superintelligence. Diemžēl tas arvien vairāk ir iespējams
- Elons Musks (@elonmusk) 2014. gada 3. augusts
Nu ne gluži. Vēl joprojām ir vēl viena AI kategorija, un tā ir tā, ka visas filmas un TV pārraides daudzus gadus ir mēģinājuši brīdināt mūs: ASI, citādi pazīstama kā "mākslīgais super inteliģents". Teorētiski ASI būtu dzimis no AGI, kas nemieros ar savu partiju dzīvē, un padarot iepriekš apzinātu lēmumu kaut ko darīt pats par sevi bez mūsu atļaujas vispirms. Bažas, ko daudzi pētnieki šajā jomā ir ierosinājuši, ir tāda, ka, tiklīdz AGI saskarsies ar jutīgumu, tas nebūs apmierināts ar to, ko tā iegūs, un darīs visu iespējamo, lai uzlabotu savas spējas ar jebkādiem vajadzīgajiem līdzekļiem.
Iespējamais laika grafiks ir šāds: cilvēki rada mašīnu, mašīna kļūst tikpat gudra kā cilvēki. Mašīna, kas tagad ir tikpat gudra kā cilvēks, kas izveidoja mašīnu tikpat gudru kā sevi (turiet pie manis šeit), iemācās pašreplikācijas mākslu, pašizaugsmi un pašpilnveidošanu. Tas nenogurst, tas nesaņem slimu un tas var bezgalīgi augt, bet pārējie no mums uzlādē mūsu baterijas gultā.
Tiklīdz tam būs lielāka kontrole, tam varētu būt potenciāls izmantot savu varu, lai lēnām sāktu uzkrāt tādu mašīnu armiju, kuras ir tikpat viedas kā tā radītājs un spējīgas attīstīties pēc eksponenciālas likmes, jo tīklam tiek pievienoti arvien vairāk mezglu. No šejienes, visi modeļi, kas uz mašīnas izlūkošanas līknes tiek vilkti, nekavējoties raita caur jumtu.
Tomēr teica, ka tie galvenokārt balstās uz spekulācijām, nevis uz jebkādu materiālu. Šim jautājumam abās pusēs ir daudz iespēju uzņemties desmitiem dažādu ekspertu vārdā, un pat pēc vairāku gadu karstajiem debatēm joprojām nav vienotas izpratnes par to, vai ASI būs žēlīgs dievs vai arī cilvēki kā oglekļa dedzināšana, ēdiena nogatavināšanas sugas, kuras mēs esam, un noslaukiet mūs no vēstures grāmatām, piemēram, mēs skrubām skudras taku pie virtuves galda.
Viņš teica: Viņa teica: vai mums jābaidās?
Pēdējā gada laikā pēdējā gada laikā daudzi no pasaules lielākajiem zinātniekiem, inženieriem un uzņēmējiem ir sasnieguši lielu pieredzi par to, kā mākslīgais intelekts varētu izskatīties ārpus Holivudas skaņas posmiem. nākamajās desmitgadēs.
No vienas puses, jums ir tādi drūmi un nomierinoši faktori kā Elons Musks, Stephen Hokings un Bill Gates, kuri visi ir bažas par to, ka bez atbilstošu drošības pasākumu ieviešanas tas būs tikai jautājums par laiku pirms ASI sapņo veidu, kā iznīcināt cilvēci.
"Iedomājieties, ka šāda tehnoloģija pārspēj finanšu tirgus, izgudroju cilvēkus no pētniekiem, izvairoties no manipulācijām ar cilvēku vadītājiem un izstrādājot ieročus, kurus mēs pat nevaram saprast," Hokings rakstīja atklātā vēstulē AI kopienai šogad.
"Tā kā AI īstermiņa ietekme ir atkarīga no tā, kurš to kontrolē, ilgtermiņa ietekme ir atkarīga no tā, vai to var vispār kontrolēt."
No otras puses, mēs atrodam spilgtāku portretu, ko apguvuši futūristi, piemēram, Microsoft galvenais pētnieks Ēriks Horovičs Ray Kurzweill un visi citsiecienītākais Apple dibinātājs; Steve Wozniak. Gan Hokinga, gan Muska tiek uzskatīti par diviem no mūsu paaudzes vislielākajiem prātiem, tādēļ apšaubīt viņu prognozes par kaitējumu, ko tehnoloģija var izraisīt ilgtermiņā, nav viegli. Bet atstājiet gaismekļiem, piemēram, Wozniak, lai ieietu vietā, kur citi uzdrošināsies.
Un tieši šeit mēs atrodam filozofisko dilemmu, ka neviens nav pilnībā apmierināts, lai nonāktu pie vienprātības attiecībā uz to, vai ASI redzēs mūs kā nekaitīgu mājdzīvnieku, kuru varēs pasargāt, vai nevēlamu kaitēkli, kas pelna ātru un nesāpīgu iznīcināšanu?
Hasta la Vista, Baby
Lai gan tas būtu muļķības uzdevums prasīt precīzi zināt, kas notiek reālās dzīves Tony Stark galā, es domāju, ka, kad Musks un draugi mūs brīdina par AI briesmām, tie nenozīmē neko, kas līdzinās Terminatoram, Ultron vai Ava.
Pat ar milzīgu inovāciju daudzumu, kas ir mūsu rokai, mūsdienās esošie roboti var gandrīz pāriet tūkstoš stundas, pirms tie sasniedz necaurlaidīgu barjeru, sajaucas un smieklīgi ēst segas. Un, lai gan varētu mēģināt norādīt uz Moore likumu kā piemēru tam, cik ātri robotikas tehnoloģijas nākotnē var attīstīties, otrajam ir jāaplūko Asimo, kas pirmoreiz debuta gandrīz pirms 15 gadiem un nav veikusi nevienu kopš tā laika ir ievērojami uzlabojumi.
Tik daudz, kā mēs to vēlētos, robotika nav tuvu tam, lai ievērotu to pašu eksponenciālā progresa modeli, kādu mēs esam redzējuši datorprocesoru attīstībā. Viņus ierobežo fiziskie ierobežojumi, cik daudz jaudas mēs varam ievietot bateriju komplektā, bojātais hidraulisko mehānismu raksturs un nebeidzamā cīņa, lai apgūtu cīņu pret savu smaguma centru.
Tātad pagaidām; nē, lai gan patiess AGI vai ASI potenciāli varētu tikt izveidots statiskā superdatoru kādā serveru fermā Arizonā, joprojām ir ļoti maz ticams, ka mēs atradīsim sevi sprinta pa Manhetenas ielām kā metāla skeletu orda, kas mūs pļauj no aizmugures.
Tā vietā AI, par kuru Elons un Hokings tik ļoti vēlas brīdināt pasauli, ir "karjeras nomaiņas" šķirnes aizsardzība, kas var domāt ātrāk nekā mēs, organizēt datus ar mazākām kļūdām un pat mācīties, kā labāk strādāt mūsu darbā nekā mēs jebkad varētu cerēt - visi, neprasot veselības apdrošināšanu, vai dažas dienas, lai bērnus nogādātu uz Disnejlendu Spring Break.
Barista Bots un Perfect Cappuccino
Pirms dažiem mēnešiem NPR izlaida parocīgu rīku savai tīmekļa vietnei, kur podcast klausītāji varēja izvēlēties no dažādu karjeru saraksta, lai noskaidrotu riska procentuālo īpatsvaru, kāds ir viņu konkrētajam darba posmam, lai kādā nākamo 30 gadu laikā tiktu automatizēts.
Daudzām darbavietām, tostarp, bet ne tikai: klerikas pozīcijas, aprūpe, IT, diagnostika un pat kafejnīcu baristas, roboti un to ANI kolēģi gandrīz noteikti likt miljoniem cilvēku no darba un nonākt maizes līnijā ātrāk nekā daudzi no mums domā. Bet šīs ir mašīnas, kas tiks ieprogrammētas, lai veiktu vienu uzdevumu un tikai vienu uzdevumu, un tām ir maz (ja tādas ir) spējas pārsniegt specializētas iepriekš ieprogrammētu instrukciju sērijas, kuras mēs rūpīgi instalējam iepriekš.
Ar lielu spēku, ir lieliska īpatnība
"Jūs zināt, es zinu, ka šis steiks nepastāv. Es zinu, ka, kad es ievietoju to manā mutē, Matrix man saka, ka tas ir sulīgs un garšīgs. Pēc deviņiem gadiem tu zini, ko es saprotu?"
"Nezināšana ir svētlaime". - Cypher
Lai gan tas joprojām ir jautājums par nežēlīgu argumentu, tagad vairāku vadošo zinātnieku un inženieru vienprātība AI pētījumu jomā šķietami ir tāds, ka mums ir daudz lielāks risks, ka mēs varam kļūt par azartspēju, ko var panākt ar mākslīgā intelekta pasauli varētu sniegt, nevis nošaušana ar reāllaika versiju Skynet. Tādējādi tas ir saistīts ar iespējamību, ka mūsu galīgais nāves gadījums, iespējams, nenāk kā lēna, metodiska progresa produkts lielajā nezināmā veidā. Tā vietā daudz lielāka iespēja kļūt par neparedzētu sekas, ko izraisījusi pārsteigta, pārāk entuziasma krustošanās ar mūsu pašu radītajiem un izdomājumiem, kas skāra kopā, lai radītu nākamo lielo tehnoloģisko īpatnību.
Padomā mazākTerminators un vēl Sienas-e. Tāpat kā roboti, kuri Pixar filmas laikā nobaroja cilvēkus, mums cilvēkiem nav problēmu saglabāt šimpanzes zoodārzā, un atšķirība ir tāda, vai AI būs pietiekami laipns, lai to izdarītu arī ar mums.
No šī viedokļa ir lietderīgāk baidīties no realitātes, kurā cilvēki tiek savienoti ar noturīgu planētas mēroga VR simulāciju à la Matrica, kas nobaroti līdz žaunām, izmantojot iecienītos ēdienus, un, ņemot vērā visu, ko viņi kādreiz gribētu, kamēr mašīnas rūpējas par pārējo. Vieta, kur attīstīta ASI neredz mūs kā kļūdu, lai noķertu no savas kurpes, bet tā vietā, kā glītu pērtiķu gaļas somas, mēs esam viegli priecīgi un pelnījuši vismaz mazliet lielu kredītu, lai radītu visu zinošu, visaptverošs kvazi dievs, kas galu galā pārņēma planētu.
Šajā ziņā viss ir atkarīgs no jūsu definīcijas par to, ko nozīmē "dzīvot", izmantojot AI revolūciju.Ideja, ka kaut kas "bezjēdzīgs" ir jāizbeidz, ir tikai cilvēka jēdziens, domāšanas veids, ka mums nevajadzētu nekavējoties sagaidīt, ka mūsu mašīnu valdnieki pieņems no mūsu ierobežotās morālās jomas. Iespējams, ka mūsu digitālās izlūkošanas iespējamā attīstība nebūs tīra ļauna, bet bezgalīga, neobjektīvi līdzjūtība visām dzīvajām būtnēm; neatkarīgi no tā, cik tie ir savtīgi, paštaisīgi vai pašiznīcinoši.
Tātad … Vai mums par to jāuztraucas?
Tas ir atkarīgs no tā, ko jūs lūdzat.
Ja jūs aptaujāties divus gudrākos tehnoloģiskos inženierus un matemātiķus mūsdienu pasaulē, jūs saņemsiet četras dažādas atbildes, un skaitļi netiks mainīti, jo vairāk cilvēku jūs pievienosit rādītāju tabulai. Jebkurā gadījumā galvenā problēma, kas mums jārisina, nav par "vai AI nāk?", Jo tā ir, un neviens no mums nespēs to apturēt. Aplūkojot tik daudz dažādas perspektīvas, patiesais jautājums, ka neviens nav apmierināts, atbildot ar pārāk lielu uzskatu, ir: "vai tas būs žēlsirdīgs?"
Pat pēc tam, kad kāds no pasaules lielākajiem prātiem ir nosvērts par šo jautājumu, priekšstats par to, kā mašīna izlūkošanas varētu izskatīties 20, 30 vai 50 gadus nākotnē joprojām iznāk diezgan tumšs. Tā kā AI lauks pastāvīgi pārveidojas par kaut ko citu ikreiz, kad tiek ražota jauna datora mikroshēma vai tiek izstrādāts tranzistora materiāls, pieprasa galīgo autoritāti par to, kas var notikt vai var nenotikt, ir mazliet tāds, ka jūs zināt, ka dice roll ir drošs nākt klajā čūska acis nākamajā mest.
Viena lieta, ar ko mēs varam droši teikt, ir tāda, ka, ja jūs nobažīsit par rozā slīdēšanu nākamajā nedēļā no sava datorizētā kases aparāta, mēģiniet to neuztvert. Taco Bell joprojām būs atvērts Taco otrdienās, un cilvēks visvairāk noteikti veiks jūsu pasūtījumu pie loga (un aizmirstot zaļo mērci atkal). Saskaņā ar pētījumu, ko Džeims Barrats veica pagājušā gada AGI augstākā līmeņa sanāksmē Kvebekā, žūrija, kas piedalījās smagajā AI laika grafikā, vēl arvien neizdodas. Mazāk nekā puse no visiem apmeklētajiem teica, ka viņi domā, ka mēs sasniegsim patiesu AGI līdz 2025. gadam, savukārt vairāk nekā 60 procenti teica, ka tas aizņems vismaz 2050. gadu, ja ne nākamo nākamajā gadsimtā un tālāk.
Iedomājieties, ka mēs varam nejauši radīt mākslīgu prātu, kas ir plaši izplatīts ar visiem saviem trūkumiem un evolucionārām nepareizām ugunsgrēkām - pirms mēs pat zinām, kas tas ir, kas padara mūs par to, kas mēs esam, ir cilvēka ego būtības būtība.
Galu galā, neskatoties uz mūsu nemitīgo vēlmi izlemt, kas nāk klajā nākamajā karā un / vai miera līgumā starp cilvēci un mašīnām, tas ir ierobežotu cerību un neierobežotu iespēju konkurss, un viss, ko mēs darām, ir argumentācija par semantiku starp. Protams, ja jūs esat svaigi no vidusskolas un vēlaties iegūt savu taksometru vadītāja apliecību, Uber izpilddirektoram ir pusmiljona iemeslu, kāpēc jums, iespējams, būtu jādomā par karjeras atrašanu kaut kur citur.
Bet, ja jūs uzkrājat ieročus un konservētas pupiņas AI apokalipsei, iespējams, jums būs labāk pavadīt laiku, mācot krāsot, kodēt vai rakstīt nākamo lielisko amerikāņu romānu. Pat pēc viskonkrētākajām aplēsēm būs vairāki desmiti gadi, pirms jebkura mašīna iemācīsies kļūt par Monet vai pati mācīsies par C # un Java, jo cilvēki ir piepildījuši tāda veida radošumu, izdomu un spēju izteikt savu visdziļāko sevi kā nē automatizēta kafijas automāts jebkad varētu.
Jā, mēs dažreiz varam mazliet emocionāli saskarties ar darbu, vai arī ir jāturpina darbs dienas vidū, bet varbūt tieši tas jo mēs esam cilvēks, ka draudi radīt kaut ko lielāku nekā mēs iekšā mašīna joprojām ir garš, tāls ceļš.
Attēlu kredīti: Disney Pixar, Paramount Pictures, Bosch, Youtube / TopGear, Flickr / LWP Communications Flickr / BagoGames, Wikimedia Foundation, Twitter, WaitButWhy 1, 2