Gifted:
Om man tillverkar en AI med ett syfte, så verkar det lite hardcore att kräva att den skall ha massa rättigheter, men om man "hittar" en AI någonstans, antingen en dator som programmerats av någon utomjordisk varelse, eller om den uppstår spontant(!) i en härva av kretskort etc, så skulle jag ge den mer rättigheter.
Är inte det jämförbart med att skapa barn i ett syfte. Bör ett barn som skapats i syfte att generera avkomma inte få rättigheter? Är inte andra människors intellekt lika oåtkomliga som en dators som agerar identiskt med en människa?
Ett tankeexperiment kan ju vara att vi bygger en dator med syftet att vara en människa till alla aspekter utom materialet den är uppbyggd av. När vi slår den rycker den till och skriker etc. Vad ger vi datorn för rättigheter då, och har den ett medvetande? Är det inte lika oåtkomligt som frågan om andra människor har medvetanden?
Om vi anser att en dator då har ett medvetande så följer väl också att medvetandet uppstår i och med datorns komplexitet och inte existerar som något enbart givet människan?
Klockan är tre och jag lär ha virrat lite. Rätta mig om något är uppåt väggarna.
Gifted:
Exakt, det är en simulering, en simulering är en algoritm.
Jag antar att du inte har någon erfarenhet av programmering...?
Vad försöker du säga? Varför påstår du att jag inte har någon erfarenhet av programmering?
Ja, det är en algoritm. Precis som de miljardtals evolutionära algoritmer som under varje stund körs i alla människors hjärnor.
Gifted:
Nja, stor skillnad. Vi (människor) har via evolutionen fått massa saker som vi måste uppfylla: gemenskap, kärlek, mat, trygghet etc. Detta är något som måste uppfyllas, annars känner vi oss olyckliga (de som var lyckliga när de var ensamma och utsvultna dog snabbt, av naturliga skäl).
Att vara lycklig är något helt annat än att inte bli dödad. Om att vara lycklig vore en okränkbar rättighet så hade vi drogat ihjäl alla människor: då blir de lyckliga. Men det gör vi inte, eftersom människors liv är värt så mycket mer än att de är lyckliga.
Samma sak gäller såklart en AI. Lycka är ingen rättighet, åtminstone inte en rättighet i nivå med rätten till liv.
Gifted:
Jag menar, förklara VARFÖR en AI måste ha rättigheter.
Egentligen, enda anledningen till att vi har mänskliga rättigheter är för att det minimerar vår egna smärta/ångest. Det är helt enkelt en rationell följd av själviskhet, och det ligger i vår natur att vara själviska.
Gifted:
Det ligger också i vår natur att ta hand om söta saker, (bebisar), men detta övergeneraliseras, och vi tycker även om söta djur. (Att tycka synd om sälar går bra, men ormar, inte lika mycket).
Ja? Jag kan acceptera att man inte vill ge rättigheter alls till någon, men inte att på något sätt diskriminera AIs bara för att de inte är människor. Jag vill att AIs ska ha rättigheter för att det är orimligt att de inte skulle ha det samtidigt som människor har det.
Nej, du har en poäng, även om jag inte stödjer din speciesism (främst på emotionella, och därmed icke godtagbara, grunder) så har du rätt i att det är svårt att hitta logiska argument för rättigheter. Jag har vad jag vet inte påstått något annat.
k1337oris:
Att vara lycklig är något helt annat än att inte bli dödad.
Ja, men ar rattigheter inte nagot som ar till for att oka lycka?
Dvs. inte tvinga folk att gifta sig mot sin vilja, religionsfrihet, etc.
Om en AI inte har vilja att ha dessa rattigheter, sa kanns det lite konstigt att kampa for det. Det vore lite som att lagstadga religionsfrihet for hundar... Meningslost.
Jag tror rattigheterna valdigt starkt kommer bero pa hur AI:n fungerar.
Om det inte ar annat en nagot som uppfyller Turing-testet, sa skulle jag saga att den inte bor ha nagra rattigheter, eftersom det antagligen bara ar en avancerad text-analyserare... inga akta kanslor, etc...
Gifted:
Ja, men ar rattigheter inte nagot som ar till for att oka lycka?
Nej?
Gifted:
Det vore lite som att lagstadga religionsfrihet for hundar... Meningslost.
...fast det är ju för att religionsfrihet öht. är meningslöst? Väldigt dåligt exempel med religionsfrihet. Yttrandefrihet täcker mer än tillräckligt religionsfriheten.
Gifted:
Om det inte ar annat en nagot som uppfyller Turing-testet, sa skulle jag saga att den inte bor ha nagra rattigheter, eftersom det antagligen bara ar en avancerad text-analyserare... inga akta kanslor, etc...
Du är en oerhört avancerad text-analyserare själv? Varför skulle dina känslor vara mer "äkta" än de känslor en AI-entitet har?
Känns lite väl mycket appeal to nature kring idén att vissa känslor skulle vara mer "äkta" än andra. Drogar jag ner dig så blir du glad: det är inte några "falska" känslor.
nrg89:
Skall den behandlas som ett verktyg som gör allt kreativt tänkande när vi inte orkar, eller skall den få ha rätt att söka upp lycka och ta del i vårat samhälle om den vill?
Den bör förstå känslor, och agera uifrån hur andra känner, men att ge den känslor vore dumt då en artificiell intelligens antagligen kan klara sig utan att själv uppleva dem.
Det skulle öka risken för potentiellt lidande i onödan, dessutom kan dem korrumpera det en artificiell intelligens är designad för.
Dens rättigheter bör väl vara att upprätthålla sin förmåga att verka sålänge den inte orsakar de med "riktiga känslor" lidande i orimlig omfattning.
Om man däremot råkat skapa en artificiell intelligens som själv kan uppleva känslor så blir det en annan sak.
Se filmen Bicentennial Man eller som på svenska 200-årsmannen... Den går igenom typ hela min åsikt.
Som någon sade på första sidan i tråden, så låter det väl klokt att utgå ifrån Asimovs tre lagar:
1. En robot får aldrig skada en människa eller, genom att inte ingripa, tillåta att en människa kommer till skada.
2. En robot måste lyda order från en människa, förutom om sådana order kommer i konflikt med första lagen.
3. En robot måste skydda sin egen existens, såvida detta inte kommer i konflikt med första eller andra lagen.
Nu gällde väl detta i och för sig skyldigheter och inte rättigheter, och så har jag bara skummat igenom tråden.
Asimov tar upp en intressant sak angående det här med huruvida en robot kan tänkas vara mänsklig, när det gäller känslor och så. I "Död, Robot" tror jag det är, så frågar sig någon karaktär hur deras imitation av mänskligt beteende är en biprodukt utav deras programmering eller medvetet försök till att agera mänskligt (som de skapat själva eller av programmeraren). Och vad det än är, hur man ska ta det, ska man se det som "känslor". Allt är ju bara artificiellt, eller?
Tror att karaktärens tankegångar gick något i stil med det.
Intressant diskussion btw, ska läsa hela tråden när jag orkar.
läste först "artificiella civilingenjörer" det var weird
Hjälp, vill ej leva bland robotar.