A da, bolje tako nego da netko unosi svoje predrasude u proces. Ljudi su nesavrseni.
Autonomni dron samostalno odlučuje koga će ubiti.
- poruka: 13
- |
- čitano: 23.123
- |
- moderatori:
vincimus
- +/- sve poruke
- ravni prikaz
- starije poruke gore
a kad se predomisli, padne kraj studentskog na savi.
I, zaista, što može poći po zlu?!?
Kao ono, sad sve dobro funkcionira, ljudi nisu nikad pogodili svatove ili svoj avion pa bi sad ovo moglo biti problem.
A da, bolje tako nego da netko unosi svoje predrasude u proces. Ljudi su nesavrseni.
E moj prijatelju, da onaj Sovjet nije osobno odbio pritisnuti dugme za lansiranje nuklearnih raketa, nakon što je cijeli sustav vrištao da je SSSR napadnut, sada nitko nebi mogao koristiti Bugov forum.
Ljudi nisu savršeni, ali ljudi se mogu u trenu zapitati koje će biti posljedice, što je to moralno, a što nije. Umjetna inteligencija vidi ono što vidi, ako su zadovoljeni osnovni parametri za ispaljivanje oružja, isto će se i ispaliti.
E moj prijatelju, da onaj Sovjet nije osobno odbio pritisnuti dugme za lansiranje nuklearnih raketa, nakon što je cijeli sustav vrištao da je SSSR napadnut, sada nitko nebi mogao koristiti Bugov forum.
Ljudi nisu savršeni, ali ljudi se mogu u trenu zapitati koje će biti posljedice, što je to moralno, a što nije. Umjetna inteligencija vidi ono što vidi, ako su zadovoljeni osnovni parametri za ispaljivanje oružja, isto će se i ispaliti.
Slucaj koji opisujes je rezultat greske u senzorima, ljudski faktor je samo primjetio i ispravio tu gresku. AI sustav, da je tad postojao bi napravio istu tu stvar, brze i preciznije, i nitko ne bi pricao o tome.
SVO u Ukrajini je dobar primjer gdje bi umjetna inteligencija to rjesila puno brze i s daleko manjim zrtvama. Ljudi zbog moralnih nacela i straha nemaju hrabrosti donositi prave odluke, ili ih donose puno prekasno. A.I. nema tih problema, misija je uvijek na prvom mjestu.
Samo se mi ljudi ne veselimo manje mrtvih nego se brinemo što nemamo koga strpati u zatvor.
Vojska stalno ubija krive, “friendl fire” je, od kad je rata, bio izvor ubijanja. S AI bi toga moglo biti manje.
..... govorio poručnik Tucker "Cinco" Hamilton, .....
Originalen članek:
.... presentations came from Col Tucker ‘Cinco’ Hamilton, the Chief of AI Test and Operations .....
Col pomeni Colonel ali polkovnik
Supreme, kažeš misija je na prvom mjestu. Molio bih da opet pogledaš 2001. Odiseju u svemir, a nebi bilo zgorega bilo pogledati i Logan's run.
E moj prijatelju, da onaj Sovjet nije osobno odbio pritisnuti dugme za lansiranje nuklearnih raketa, nakon što je cijeli sustav vrištao da je SSSR napadnut, sada nitko nebi mogao koristiti Bugov forum.
Ljudi nisu savršeni, ali ljudi se mogu u trenu zapitati koje će biti posljedice, što je to moralno, a što nije. Umjetna inteligencija vidi ono što vidi, ako su zadovoljeni osnovni parametri za ispaljivanje oružja, isto će se i ispaliti.
Slucaj koji opisujes je rezultat greske u senzorima, ljudski faktor je samo primjetio i ispravio tu gresku. AI sustav, da je tad postojao bi napravio istu tu stvar, brze i preciznije, i nitko ne bi pricao o tome.
SVO u Ukrajini je dobar primjer gdje bi umjetna inteligencija to rjesila puno brze i s daleko manjim zrtvama. Ljudi zbog moralnih nacela i straha nemaju hrabrosti donositi prave odluke, ili ih donose puno prekasno. A.I. nema tih problema, misija je uvijek na prvom mjestu.
...je SAMO ispravio tu grešku... SAMO??