Isaac Asimov bedacht 3 wetten (inmiddels 4) waaraan robotten (in zijn toekomst) zich zouden moeten houden. Daarbij ging het voornamelijk om robotten, die niet "intelligent" waren.
In de tussentijd (anno 2015) komen robotten met kunstmatige intelligentie "steeds dichterbij", met een bijna 100% kans tegen het einde van deze eeuw. (en 50% waarschijnlijkheid rond 2050)
Wat precies de definitie is van "kunstmatige intelligentie" is daarbij wel belangrijk. Gaat het alleen om het "kunnen leren" , of gaat het ook om een "ziel" ,"identiteit" e.d.
Aan welke wetten zou zo'n kunstmatig intelligente robot zich moeten houden ? Zijn de wetten van Asimov nog voldoende ? Wanneer wij, mensen, ons niet aan gestelde wetten houden, waarom zou een kunstmatige intelligentie dat dan wel doen. Moeten we een "killswitch" inbouwen (een soort knop waarmee wij (mensen) een robot die zich niet aan de wet houdt kunnen uitschakelen ? Is dat wel "menselijk" ? Of zou een kunstmatig intelligente robot daar zelf iets opvinden ? En hoe zou die dan over zou "killswitch" denken (en over de mens) ?
Wie durft het aan hierover te filosoferen/debatteren ?
@meesterhenkvink 2015