4 vprašanja za pomoč začetek zanimiv pogovor
Navdih / / December 26, 2019
Zračna plovila brez posadke, umetna inteligenca, urejanje gen - ti koncepti zapustil veliko odprtih vprašanj. Razmislite o tem, kako bi jim odgovorili sami, nato pa prosite prijatelje.
1. Če bi bilo mogoče, da prenesete svoje možgane v računalniku, bi si to naredil?
Predstavljajte si, da bo v prihodnosti mogoče prenesti možgane z računalnikom, ki ustvarja popolno digitalno kopijo zavesti. Samo ta nova verzija je pametnejši od tebe, in na koncu se je začel nabirati vtise, ki dejansko še nikoli niste doživeli. Odločili ste se na njem? Zakaj? Bo to digitalna kopija še vedno velja vi? Ali ste odgovorni za odločitve, ki jih vaš izvod sprejetih? Ali bi morali biti prav začeti odnos z nekom, ki je digitalno kopijo?
2. Če bi starši lahko urejali vašega otroka gene?
Če je vaš otrok našel prirojeno srčno bolezen, in prihranite njim bi morali odstraniti določen gen, kaj bi ti naredil? Večina staršev bi se verjetno strinjali.
Kaj pa, če si lahko pametnejši otrok? Lepši? Starši imajo pravico do izbire spolne usmerjenosti ali kože barve otroka? In kaj, če je bilo na voljo le bogati? Kaj pa, če vsi drugi starši odločili, da "uredi" svoje otroke, in si - ne?
3. Če bi brez posadke vozila ubiti potnikov rešiti pet pešcev?
Predstavljajte si, da potujete brez posadke vozila na cesti z dvosmernim prometom, ko je nenadoma zmanjkalo na ulico s petimi otroki. Stroj ima tri možnosti: na narežemo na otroke, treskav v avto na nasprotni vozni pas in udaril v drevo ob cesti. V prvem primeru se lahko ubil pet ljudi, v drugem - dva v tretjem - enega. Kako programirati stroj za tak dogodek? Ona mora poskušali rešiti potnika ali rešiti čim več življenj, kot je to mogoče?
Ali ste pripravljeni, da se v avto, ki se lahko odloči, da bo ubil? bi šel skupaj s svojim otrokom? Če bi vse brezpilotna letala delujejo po enakih pravilih, ali pa plačati za avto, ki je v prvi vrsti reši potniki?
4. Kaj moralne vrednote pa moramo dati v AI?
Predstavljajte si svet, z inteligentnimi roboti - stroji mnogokrat boljši od človeka -, ki ne morejo razlikovati dobro od zla, prav od narobe. Tam bo veliko težav. Toda ležala v njihovi moralne vrednote bolj problematično, ker izbrati te vrednote moramo, ljudje.
Katere vrednote izbrati? Kdo bi moral odločiti, kaj je videti najbolj "prav"? Če bi vse države, da se dogovorijo o določenem nizu vrednosti? In ali je mogoče, da bi robot možnost, da spremeni svoje mnenje?