Vigtigste Forkant 16 ubehagelige spørgsmål, som alle har brug for at stille om kunstig intelligens

16 ubehagelige spørgsmål, som alle har brug for at stille om kunstig intelligens

Dit Horoskop Til I Morgen

Bare ni gigantiske teknologivirksomheder i USA og Kina står bag langt størstedelen af ​​fremskridt inden for kunstig intelligens verden over. I sin nye bog, The Big Nine: Hvordan Tech Titans og deres tænkemaskiner kunne vride menneskeheden (PublicAffairs, 5. marts), Amy Webb forestiller sig tre mulige futures, lige fra optimistisk til apokalyptisk, der kan være resultatet af de handlinger, vi tager - eller ikke tager - for at kontrollere udviklingen af ​​A.I. og forme dets globale indvirkning. I dette uddrag fremsætter hun en række hårde etiske spørgsmål, som mennesker, der bygger A.I. systemer skal bruge til at styre deres arbejde.

Reglerne - algoritmen - hvormed enhver kultur, samfund og nation lever og nogensinde har levet, blev altid skabt af nogle få mennesker. Demokrati, kommunisme, socialisme, religion, veganisme, nativisme, kolonialisme - dette er konstruktioner, vi har udviklet gennem historien for at hjælpe med at styre vores beslutninger. Selv i de bedste tilfælde er de ikke fremtidssikre. Teknologiske, sociale og økonomiske kræfter griber altid ind og får os til at tilpasse os.

De ti bud udgør en algoritme, der skal skabe et bedre samfund for mennesker i live for mere end 5.000 år siden. Et af budene er at tage en hel hviledag om ugen og slet ikke udføre noget arbejde den dag. I moderne tid arbejder de fleste ikke nøjagtigt de samme dage eller timer fra uge til uge, så det ville være umuligt ikke at bryde reglen. Som et resultat er folk, der følger de ti bud som et ledende princip, fleksible i deres fortolkning i betragtning af virkeligheden af ​​længere arbejdsdage, fodboldøvelse og e-mail. Tilpasning er fint - det fungerer rigtig godt for os og for vores samfund, så vi kan holde os på sporet. Enighed om et grundlæggende sæt retningslinjer giver os mulighed for at optimere for os selv.

hvem er trish stratus gift med

Der ville ikke være nogen måde at oprette et sæt befalinger til A.I. Vi kunne ikke skrive alle reglerne ud for korrekt optimering til menneskeheden, og det er fordi mens tænkemaskiner måske er hurtige og kraftfulde, mangler de fleksibilitet. Der er ikke en nem måde at simulere undtagelser på eller prøve at tænke igennem hver enkelt beredskab på forhånd. Uanset hvilke regler der bliver skrevet, vil der altid være en situation i fremtiden, hvor nogle mennesker måske vil fortolke reglerne forskelligt eller ignorere dem fuldstændigt eller skabe ændringer for at styre en uforudset omstændighed.

Når vi ved, at vi umuligt kan skrive et sæt strenge befalinger at følge, skal vi i stedet fokusere vores opmærksomhed på mennesker, der bygger systemerne? Disse mennesker - A.I.s stammer - burde stille sig ubehagelige spørgsmål begyndende med:

tisha campbell nettoværdi 2017
  • Hvad er vores motivation for A.I.? Er det i overensstemmelse med menneskehedens bedste langsigtede interesser?
  • Hvad er vores egne fordomme? Hvilke ideer, oplevelser og værdier har vi undladt at medtage i vores stamme? Hvem har vi overset?
  • Har vi inkluderet mennesker i modsætning til os selv med det formål at gøre fremtiden for A.I. bedre - eller har vi simpelthen inkluderet mangfoldighed i vores team for at opfylde visse kvoter?
  • Hvordan kan vi sikre, at vores adfærd er inkluderende?
  • Hvordan er de teknologiske, økonomiske og sociale konsekvenser af A.I. forstået af dem, der er involveret i dets oprettelse?
  • Hvilke grundlæggende rettigheder skal vi have til at forhøre de datasæt, algoritmer og processer, der bruges til at træffe beslutninger på vores vegne?
  • Hvem får defineret værdien af ​​menneskeliv? Mod hvilken vejes denne værdi?
  • Hvornår og hvorfor føler dem i A.I.s stammer, at det er deres ansvar at tage de sociale konsekvenser af A.I.
  • Har ledelsen af ​​vores organisation og vores A.I. stammer afspejler mange forskellige slags mennesker?
  • Hvilken rolle spiller de, der kommercialiserer A.I. spille i at tackle de sociale implikationer af A.I.?
  • Skal vi fortsætte med at sammenligne A.I. til menneskelig tænkning, eller er det bedre for os at kategorisere det som noget andet?
  • Er det OK at bygge A.I. der genkender og reagerer på menneskelige følelser?
  • Er det OK at lave A.I. systemer, der er i stand til at efterligne menneskelige følelser, især hvis det lærer af os i realtid?
  • Hvad er det acceptable punkt, hvor vi alle er OK med A.I. udvikler sig uden mennesker direkte i løkken?
  • Under hvilke omstændigheder kunne en A.I. simulere og opleve fælles menneskelige følelser? Hvad med smerte, tab og ensomhed? Er det OK, der forårsager den lidelse?
  • Udvikler vi A.I. at søge en dybere forståelse af os selv? Kan vi bruge A.I. for at hjælpe menneskeheden med at leve et mere undersøgt liv?

Der er ni store teknologiske virksomheder - seks amerikanske og tre kinesere - der er overvældende ansvarlige for fremtiden for kunstig intelligens. I USA er de Google, Microsoft, Amazon, Facebook, IBM og Apple ('G-MAFIA'). I Kina er det BAT: Baidu, Alibaba og Tencent.

G-MAFIA er begyndt at løse problemet med vejledende principper gennem forskellige forsknings- og studiegrupper. Inden for Microsoft er et team kaldet FATE - for retfærdighed, ansvarlighed, gennemsigtighed og etik i A.I. I kølvandet på Cambridge Analytica-skandalen lancerede Facebook et etikhold, der udviklede software for at sikre, at dets A.I. systemer undgik bias. (Især gik Facebook ikke så langt som at oprette et etisk bord med fokus på A.I.) DeepMind oprettede et etisk og samfundsteam. IBM offentliggør regelmæssigt om etik og A.I. I kølvandet på en skandale ved Baidu - søgemaskinen prioriterede vildledende medicinske påstande fra et militærdrevet hospital, hvor en behandling resulterede i en 21-årig studerendes død - indrømmede Baidu-administrerende direktør Robin Li, at medarbejderne havde lavet kompromiser af hensyn til Baidus indtjeningsvækst og lovede at fokusere på etik i fremtiden.

hvor høj er michael smith

The Big Nine producerer etiske studier og hvidbøger, den indkalder eksperter til at diskutere etik, og den er vært for paneler om etik - men den indsats er ikke sammenflettet nok med den daglige drift af de forskellige hold, der arbejder med A.I.

The Big Nine's A.I. systemer får i stigende grad adgang til vores virkelige data for at bygge produkter, der viser kommerciel værdi. Udviklingscyklussen er ved at blive hurtigere for at holde trit med investorernes forventninger. Vi har været villige - hvis vi ikke er opmærksomme - på deltagere i en fremtid, der oprettes hurtigt og uden først at besvare alle disse spørgsmål. Som A.I. systemer går videre, og mere af hverdagen bliver automatiseret, jo mindre kontrol har vi faktisk over de beslutninger, der træffes om og for os.

Amy Webb vises på Inc. Founders House i Austin den 11. marts.