Morning Chronicle - Le bugie dei robot sono accettabili solo se a fin di bene

London -

NELLE NOTIZIE

Le bugie dei robot sono accettabili solo se a fin di bene
Le bugie dei robot sono accettabili solo se a fin di bene

Le bugie dei robot sono accettabili solo se a fin di bene

Sviluppatori e proprietari sono ritenuti responsabili

Dimensione del testo:

Le bugie dei robot sono considerate accettabili solo se sono a fin di bene, come nel caso di un robot-infermiere che rassicura la sua paziente malata di Alzheimer dicendole che il marito tornerà presto a casa. Lo ha scoperto lo studio pubblicato sulla rivista Frontiers in Robotics and AI e guidato dall'americana George Mason University: negli altri scenari, un robot-colf che nasconde il fatto che sta filmando quello che gli accade intorno o il robot-commesso che si fa sostituire da un umano fingendo di essere stanco, per i partecipanti si tratta di menzogne non accettabili, per le quali sono ritenuti responsabili gli sviluppatori e i proprietari delle macchine. I ricercatori guidati da Andres Rosero hanno reclutato circa 500 partecipanti, che dovevano decidere se approvare o meno il comportamento dei robot nei vari scenari, quanto fosse grave la bugia e se fosse in qualche misura giustificata. Le condanne più severe sono arrivate per il robot-colf, che registra senza comunicarlo apertamente, un comportamento considerato molto ingannevole, mentre circa la metà dei partecipanti hanno disapprovato anche il robot-commesso. Quasi tutti, invece, hanno approvato la bugia del robot-infermiere, considerata necessaria per proteggere la paziente da un dolore inutile. "Penso che dovremmo preoccuparci di qualsiasi tecnologia in grado di nascondere la vera natura delle sue capacità, perché potrebbe portare gli utenti a essere manipolati in modi che l'utente, e forse lo sviluppatore, non avevano previsto", commenta Rosero. "Abbiamo già visto esempi di aziende che utilizzano i principi del web design e i chatbot basati sull'Intelligenza Artificiale in modi progettati per spingere gli utenti a compiere una determinata azione. Abbiamo bisogno di regole - aggiunge il ricercatore - che ci proteggano da questi comportamenti ingannevoli".

A.Edwards--MC-UK