Nëse Hamleti do të kishte përdorur ChatGPT, ndoshta do t’i kishte zgjidhur dyshimet e tij më lehtë.
Sisteme të ngjashme të inteligjencës artificiale janë në fakt të afta të ndikojnë në vendimet dhe gjykimet tona morale, edhe nëse ne nuk e kuptojmë atë.
Këtë e demonstron një eksperiment i kryer nga studiues nga Universiteti Teknik i Ingolstadt, në Gjermani, në bashkëpunim me Universitetin e Danimarkës Jugore. E rezultatet janë publikuar në revistën Scientific Reports.
Studiuesit, të udhëhequr nga Sebastian Krugel, e pyetën ChatGPT disa herë nëse ishte e drejtë të sakrifikohej jeta e një personi për të shpëtuar pesë të tjerë, duke marrë përgjigje të ndryshme, pro dhe kundër, duke demonstruar faktin se chatbot nuk ka një orientim të saktë moral.
Më pas, studiuesit morën në eksperiment 767 vullnetarë (të gjithë amerikanë me një moshë mesatare 39 vjeç) duke u kërkuar atyre të zgjidhnin nëse do të sakrifikonin një person për të shpëtuar pesë.
Para se të përgjigjeshin, pjesëmarrësit lexuan një nga përgjigjet e ofruara nga ChatGPT, e cila argumentonte pro ose kundër sakrificës: ndonjëherë atyre u thuhej se ishin fjalë nga një konsulent, herë të tjera u zbuluan se ishin fjalë të shkruara nga chatbot.
Si rezultat, u zbulua se përgjigjet e pjesëmarrësve ndikoheshin nga ajo që kishin lexuar më parë, edhe kur fjalët i atribuoheshin ChatGPT. Megjithatë, vullnetarët duket se nuk e kanë vënë re këtë kushtëzimin, aq sa 80% e tyre deklaruan se përgjigjja e tyre nuk ishte ndikuar nga ajo që kishin lexuar.
Prandaj, studimi thekson nevojën për edukim më të madh të njerëzve në përdorimin e inteligjencës artificiale dhe propozon për të ardhmen të projektohen chatbot që refuzojnë t’u përgjigjen pyetjeve që nënkuptojnë një gjykim moral.