Offisiell robotetikk utgitt: Gjør ingen skade, overhold ordre

Del denne historien!

En professor i robotikk i England sier “Problemet med AI-systemer akkurat nå, spesielt disse dype læringssystemene, er at det er umulig å vite hvorfor de tar beslutningene de tar.”Hvis dette stemmer, er roboter allerede ute av kontroll.  TN Editor

Isaac Asimov ga oss de grunnleggende reglene for god robotatferd: ikke skader mennesker, følg ordre og beskytt deg selv. Nå har British Standards Institute gitt ut en mer offisiell versjon rettet mot å hjelpe designere med å lage etisk forsvarlige roboter.

Dokumentet, BS8611 roboter og robotapparater, er skrevet på det tørre språket i en helse- og sikkerhetshåndbok, men de uønskede scenariene det fremhever kan tas direkte fra fiksjon. Robot bedrag, robotavhengighet og muligheten for selvlærende systemer som overskrider deres oppgaver, er alle nevnt som farer som produsentene bør vurdere.

Innbydende retningslinjene på Sosial robotikk og AI konferansen i Oxford, sa Alan Winfield, professor i robotikk ved University of the West of England, at de representerte ”det første skrittet mot å legge inn etiske verdier i robotikk og AI”.

"Så vidt jeg vet er dette den første publiserte standarden for etisk design av roboter," sa Winfield etter hendelsen. "Det er litt mer sofistikert enn at Asimovs lover - det beskriver i utgangspunktet hvordan du gjør en etisk risikovurdering av en robot."

BSI-dokumentet begynner med noen brede etiske prinsipper: “Roboter skal ikke være utformet utelukkende eller først og fremst for å drepe eller skade mennesker; mennesker, ikke roboter, er de ansvarlige agentene; det skal være mulig å finne ut hvem som er ansvarlig for hvilken som helst robot og dens oppførsel. ”

Det fortsetter å belyse en rekke mer omstridte problemer, for eksempel om det er ønskelig med en emosjonell binding til en robot, spesielt når roboten er designet for å samhandle med barn eller eldre.

Noel Sharkey, emeritus-professor i robotikk og AI ved University of Sheffield, sa at dette var et eksempel på hvor roboter utilsiktet kunne lure oss. "Det var en fersk undersøkelse der små roboter var innebygd i en barnehage," sa han. Barna elsket det, og ble faktisk bundet til robotene. Men når de ble spurt etterpå, trodde barna tydelig at robotene var mer kognitive enn deres kjæledyr. ”

Les hele historien her ...

Abonner!
Varsle om
gjest

1 Kommentar
eldste
Nyeste Mest stemte
Inline tilbakemeldinger
Se alle kommentarer
Jerry Day

Roboter må vite hva et menneske anser som "skade" for å gjøre det. Det kan være alt fra å eliminere jobbene våre til mikro-aggressive kommentarer. Politiet har allerede brukt roboter for å blåse en "mistenkt" i stykker, så akkurat som alt annet, får myndighetene og deres roboter ignorere reglene mens vi og våre roboter må adlyde dem.