The first study (children aged 4–8) explored moral judgments, general moral orientations, and white lie-telling behavior in morally salient scenarios involving either a human partner or a QT robot. Findings reveal distinct moral-orientation profiles toward prosocial lies (strict condemnation of all lies; an ambiguous stance condemning both lies and truths; and a positive evaluation of prosocial lies). Older children tended to evaluate white lies more favorably, in line with increased social competence. Developmental differences also emerged in children’s understanding and accurate definitions of lies and truths, while no significant differences were found between responses to human versus robot partners. The second study (children aged 4–6) examined moral emotion attribution within the Happy Victimizer framework when the transgressor was either a human or a robot. Results indicate a developmental shift: around age six, children begin to attribute more “moral” emotions to themselves as victims compared to external agents. However, six-year-olds still show difficulties coordinating first- and third-person perspectives and assigning coherent moral emotions to the transgressor, whether human or robot. Associations with socio-cognitive variables support a differentiation between attributing moral emotions to self versus others, although mixed patterns suggest that broader perspective-taking challenges may shape these links. Again, no differences emerged between human and robot transgressors. The third study (adolescents aged 14–18) investigated moral judgments in a revised Trolley Dilemma featuring either a human or a NAO robot as the decision-making agent. Adolescents generally evaluated human and robot decisions similarly; nonetheless, sacrificing a human to save five robots elicited particularly harsh moral evaluation, with increased blame and greater recommended punishment. In personal choice, adolescents largely favored a utilitarian approach, except when the utilitarian option required sacrificing a human to save robots. Overall, the findings suggest that adolescents apply broadly consistent moral principles to human and robotic agents, with moral evaluation driven primarily by the social and moral consequences of actions rather than by the decision-maker’s nature.

Questa tesi esplora i fattori che definiscono l’interazione morale tra esseri umani e robot durante infanzia e adolescenza, fasi cruciali per lo sviluppo cognitivo ed emotivo. Attraverso tre studi sperimentali, il lavoro analizza diverse componenti del ragionamento morale in contesti di interazione bambino/robot e adolescente/robot: i giudizi morali e la produzione di bugie prosociali, l’attribuzione di emozioni morali, e la valutazione di dilemmi morali complessi.Nel primo studio (bambini 4–8 anni), sono stati esaminati giudizi morali, orientamenti morali generali e comportamento di “white lie-telling” in scenari con un partner umano o un robot (QT). I risultati mostrano profili distinti di orientamento morale verso le bugie prosociali (condanna rigida di tutte le bugie; valutazione ambigua che condanna sia bugie sia verità; valutazione positiva delle bugie prosociali), con una tendenza degli older children a giudicare più favorevolmente le white lies in associazione a maggior competenza sociale. Emergono inoltre differenze evolutive nella comprensione e definizione di bugia e verità, mentre non si rilevano differenze tra partner umano e robot. Il secondo studio (bambini 4–6 anni) indaga, nel framework dell’Happy Victimizer, come i bambini attribuiscono emozioni morali quando il trasgressore è umano o robot. Si osserva un cambiamento evolutivo: intorno ai 6 anni i bambini iniziano ad attribuire emozioni più “morali” a sé come vittime rispetto ad agenti esterni, ma permane una difficoltà nell’integrare prospettive in prima e terza persona e nell’assegnare emozioni morali coerenti al trasgressore (umano o robot). Le associazioni con variabili socio-cognitive indicano una distinzione tra attribuzioni a sé e agli altri, pur con risultati non sempre coerenti, probabilmente legati alla complessità dell’assunzione di prospettiva. Anche qui non emergono differenze tra trasgressore umano e robot. Il terzo studio (adolescenti 14–18 anni) analizza i giudizi morali in una versione rivista del Trolley Dilemma con agente umano o robot (NAO). Gli adolescenti valutano in modo simile le decisioni di umani e robot; tuttavia, sacrificare un umano per salvare cinque robot è giudicato particolarmente grave, con maggiore biasimo e punizione suggerita. Nelle scelte personali prevale un orientamento utilitarista, tranne quando l’esito richiede di sacrificare un umano per salvare robot. Complessivamente, i risultati suggeriscono che, in queste fasce d’età, i principi morali applicati tendono a essere coerenti indipendentemente dalla natura dell’agente, e che il giudizio morale si concentra soprattutto sulle conseguenze sociali e morali delle azioni.

Tacci, Andrea Luna, DEVELOPING MORALITY: HOW YOUNG MINDS ENGAGE WITH SOCIAL ROBOTS IN MORAL CONTEXTS, Massaro, Davide, Manzi, Federico, Università Cattolica del Sacro Cuore MILANO:Ciclo XXXVIII [https://hdl.handle.net/10807/331780]

DEVELOPING MORALITY: HOW YOUNG MINDS ENGAGE WITH SOCIAL ROBOTS IN MORAL CONTEXTS

Tacci, Andrea Luna
2026

Abstract

The first study (children aged 4–8) explored moral judgments, general moral orientations, and white lie-telling behavior in morally salient scenarios involving either a human partner or a QT robot. Findings reveal distinct moral-orientation profiles toward prosocial lies (strict condemnation of all lies; an ambiguous stance condemning both lies and truths; and a positive evaluation of prosocial lies). Older children tended to evaluate white lies more favorably, in line with increased social competence. Developmental differences also emerged in children’s understanding and accurate definitions of lies and truths, while no significant differences were found between responses to human versus robot partners. The second study (children aged 4–6) examined moral emotion attribution within the Happy Victimizer framework when the transgressor was either a human or a robot. Results indicate a developmental shift: around age six, children begin to attribute more “moral” emotions to themselves as victims compared to external agents. However, six-year-olds still show difficulties coordinating first- and third-person perspectives and assigning coherent moral emotions to the transgressor, whether human or robot. Associations with socio-cognitive variables support a differentiation between attributing moral emotions to self versus others, although mixed patterns suggest that broader perspective-taking challenges may shape these links. Again, no differences emerged between human and robot transgressors. The third study (adolescents aged 14–18) investigated moral judgments in a revised Trolley Dilemma featuring either a human or a NAO robot as the decision-making agent. Adolescents generally evaluated human and robot decisions similarly; nonetheless, sacrificing a human to save five robots elicited particularly harsh moral evaluation, with increased blame and greater recommended punishment. In personal choice, adolescents largely favored a utilitarian approach, except when the utilitarian option required sacrificing a human to save robots. Overall, the findings suggest that adolescents apply broadly consistent moral principles to human and robotic agents, with moral evaluation driven primarily by the social and moral consequences of actions rather than by the decision-maker’s nature.
17-apr-2026
XXXVIII
CORSO DI DOTTORATO IN SCIENZE DELLA PERSONA E DELLA FORMAZIONE
Questa tesi esplora i fattori che definiscono l’interazione morale tra esseri umani e robot durante infanzia e adolescenza, fasi cruciali per lo sviluppo cognitivo ed emotivo. Attraverso tre studi sperimentali, il lavoro analizza diverse componenti del ragionamento morale in contesti di interazione bambino/robot e adolescente/robot: i giudizi morali e la produzione di bugie prosociali, l’attribuzione di emozioni morali, e la valutazione di dilemmi morali complessi.Nel primo studio (bambini 4–8 anni), sono stati esaminati giudizi morali, orientamenti morali generali e comportamento di “white lie-telling” in scenari con un partner umano o un robot (QT). I risultati mostrano profili distinti di orientamento morale verso le bugie prosociali (condanna rigida di tutte le bugie; valutazione ambigua che condanna sia bugie sia verità; valutazione positiva delle bugie prosociali), con una tendenza degli older children a giudicare più favorevolmente le white lies in associazione a maggior competenza sociale. Emergono inoltre differenze evolutive nella comprensione e definizione di bugia e verità, mentre non si rilevano differenze tra partner umano e robot. Il secondo studio (bambini 4–6 anni) indaga, nel framework dell’Happy Victimizer, come i bambini attribuiscono emozioni morali quando il trasgressore è umano o robot. Si osserva un cambiamento evolutivo: intorno ai 6 anni i bambini iniziano ad attribuire emozioni più “morali” a sé come vittime rispetto ad agenti esterni, ma permane una difficoltà nell’integrare prospettive in prima e terza persona e nell’assegnare emozioni morali coerenti al trasgressore (umano o robot). Le associazioni con variabili socio-cognitive indicano una distinzione tra attribuzioni a sé e agli altri, pur con risultati non sempre coerenti, probabilmente legati alla complessità dell’assunzione di prospettiva. Anche qui non emergono differenze tra trasgressore umano e robot. Il terzo studio (adolescenti 14–18 anni) analizza i giudizi morali in una versione rivista del Trolley Dilemma con agente umano o robot (NAO). Gli adolescenti valutano in modo simile le decisioni di umani e robot; tuttavia, sacrificare un umano per salvare cinque robot è giudicato particolarmente grave, con maggiore biasimo e punizione suggerita. Nelle scelte personali prevale un orientamento utilitarista, tranne quando l’esito richiede di sacrificare un umano per salvare robot. Complessivamente, i risultati suggeriscono che, in queste fasce d’età, i principi morali applicati tendono a essere coerenti indipendentemente dalla natura dell’agente, e che il giudizio morale si concentra soprattutto sulle conseguenze sociali e morali delle azioni.
Massaro, Davide
Manzi, Federico
Marchetti, Antonella
Tacci, Andrea Luna, DEVELOPING MORALITY: HOW YOUNG MINDS ENGAGE WITH SOCIAL ROBOTS IN MORAL CONTEXTS, Massaro, Davide, Manzi, Federico, Università Cattolica del Sacro Cuore MILANO:Ciclo XXXVIII [https://hdl.handle.net/10807/331780]
File in questo prodotto:
File Dimensione Formato  
tesiphd_completa_Tacci.pdf

non disponibili

Descrizione: Tesi di dottorato
Tipologia file ?: Tesi di dottorato
Licenza: Creative commons
Dimensione 1.73 MB
Formato Adobe PDF
1.73 MB Adobe PDF   Visualizza/Apri

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10807/331780
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact