This doctoral thesis investigates the role of trust in human-artificial agent interaction, with a particular focus on social humanoid robots. As artificial intelligence systems become increasingly integrated into everyday contexts, understanding how users develop trust in these technologies is essential for their acceptance and effective use. Social robots represent a unique case because their human-like appearance and ability to simulate social interaction activate cognitive mechanisms such as anthropomorphism and the application of social norms. As a result, human–robot interaction resembles human-human interaction while remaining fundamentally distinct. The thesis examines trust in artificial agents from three complementary perspectives: the conceptualization and measurement of trust in AI, the influence of robot design and performance, and the role of multisensory signals in shaping human-robot interaction. Chapter 2 presents a systematic review of quantitative measures used to assess trust in artificial intelligence. The review adopts a theoretical framework that distinguishes between cognitive trust, related to perceived competence and reliability, and affective trust, associated with emotional and relational dimensions. The analysis highlights considerable heterogeneity in both definitions and measurement tools across studies on AI. In particular, a discrepancy emerges between theoretical definitions that include affective components and measurement approaches that primarily focus on cognitive aspects. The findings emphasize the importance of aligning theoretical definitions, measurement strategies, and the level of anthropomorphism of the AI systems under investigation. Chapter 3 presents two experimental studies examining how anthropomorphism, knowledge domain, and mechanical reliability influence trust in social robots. The results show that humans are generally perceived as more trustworthy in emotional contexts, whereas the most anthropomorphic robot is the most trusted agent in general knowledge tasks, sometimes even surpassing the human agent. Mechanical reliability tends to increase trust overall, although its effect appears stronger in cognitive contexts than in emotional ones. Finally, Chapter 4 explores the role of chemosensory signals in human-robot interaction. Participants interacted with a humanoid robot under different combinations of odour and voice conditions. The results indicate that odours associated with putative pheromones increase situational trust compared to a neutral condition. These findings highlight the potential role of olfactory cues in modulating trust and engagement during human-robot interactions.

Questa tesi di dottorato indaga il ruolo della fiducia nell’interazione tra esseri umani e agenti artificiali, con particolare attenzione ai robot sociali umanoidi. Con la crescente diffusione dei sistemi di intelligenza artificiale nella vita quotidiana, comprendere i processi che portano gli utenti a fidarsi di queste tecnologie diventa fondamentale per la loro accettazione e utilizzo efficace. I robot sociali rappresentano un caso peculiare, poiché il loro aspetto umanoide e la capacità di simulare interazioni sociali attivano meccanismi cognitivi come l’antropomorfismo e l’applicazione di norme sociali. L’interazione uomo-robot risulta quindi simile, ma non identica, a quella tra esseri umani. La tesi esplora la fiducia negli agenti artificiali attraverso tre prospettive: la concettualizzazione e misurazione della fiducia nell’IA, il ruolo del design e delle prestazioni dei robot e l’influenza di segnali multisensoriali nell’interazione uomo-robot. Il Capitolo 2 presenta una revisione sistematica delle misure quantitative utilizzate per studiare la fiducia nell’intelligenza artificiale. La revisione adotta un modello teorico che distingue tra fiducia cognitiva, legata alla percezione di competenza e affidabilità, e fiducia affettiva, connessa alle dimensioni emotive e relazionali. L’analisi evidenzia una notevole eterogeneità nelle definizioni e negli strumenti di misura utilizzati negli studi sull’IA. In particolare, emerge una discrepanza tra definizioni teoriche che includono componenti affettive e strumenti di misura che si concentrano prevalentemente su aspetti cognitivi. I risultati sottolineano l’importanza di allineare definizione teorica, strumenti di misura e livello di antropomorfismo del sistema studiato. Il Capitolo 3 presenta due studi sperimentali che analizzano l’influenza dell’antropomorfismo, del dominio di conoscenza e dell’affidabilità meccanica sulla fiducia nei robot sociali. I risultati mostrano che gli esseri umani sono maggiormente considerati affidabili in contesti emotivi, mentre il robot più antropomorfo risulta il più affidabile nei compiti di conoscenza generale, talvolta superando l’agente umano. L’affidabilità della performance aumenta generalmente la fiducia, ma con effetti più evidenti nei contesti cognitivi rispetto a quelli emotivi. Il Capitolo 4 esplora il ruolo dei segnali chemosensoriali nell’interazione uomo–robot. Attraverso un’interazione con un robot umanoide in diverse condizioni olfattive e vocali, lo studio mostra che odori associati a feromoni aumentano la fiducia situazionale rispetto a una condizione neutra. I risultati evidenziano il potenziale dei segnali olfattivi nel modulare la fiducia e l’engagement nelle interazioni uomo-robot.

Aquilino, Letizia, TRUSTING ARTIFICIAL AGENTS: ANTHROPOMORPHISM, RELIABILITY, AND MULTISENSORY SIGNALS IN HUMAN-ROBOT INTERACTION, Marchetti, Antonella, Università Cattolica del Sacro Cuore MILANO:Ciclo XXXVIII [https://hdl.handle.net/10807/331781]

TRUSTING ARTIFICIAL AGENTS: ANTHROPOMORPHISM, RELIABILITY, AND MULTISENSORY SIGNALS IN HUMAN-ROBOT INTERACTION

Aquilino, Letizia
2026

Abstract

This doctoral thesis investigates the role of trust in human-artificial agent interaction, with a particular focus on social humanoid robots. As artificial intelligence systems become increasingly integrated into everyday contexts, understanding how users develop trust in these technologies is essential for their acceptance and effective use. Social robots represent a unique case because their human-like appearance and ability to simulate social interaction activate cognitive mechanisms such as anthropomorphism and the application of social norms. As a result, human–robot interaction resembles human-human interaction while remaining fundamentally distinct. The thesis examines trust in artificial agents from three complementary perspectives: the conceptualization and measurement of trust in AI, the influence of robot design and performance, and the role of multisensory signals in shaping human-robot interaction. Chapter 2 presents a systematic review of quantitative measures used to assess trust in artificial intelligence. The review adopts a theoretical framework that distinguishes between cognitive trust, related to perceived competence and reliability, and affective trust, associated with emotional and relational dimensions. The analysis highlights considerable heterogeneity in both definitions and measurement tools across studies on AI. In particular, a discrepancy emerges between theoretical definitions that include affective components and measurement approaches that primarily focus on cognitive aspects. The findings emphasize the importance of aligning theoretical definitions, measurement strategies, and the level of anthropomorphism of the AI systems under investigation. Chapter 3 presents two experimental studies examining how anthropomorphism, knowledge domain, and mechanical reliability influence trust in social robots. The results show that humans are generally perceived as more trustworthy in emotional contexts, whereas the most anthropomorphic robot is the most trusted agent in general knowledge tasks, sometimes even surpassing the human agent. Mechanical reliability tends to increase trust overall, although its effect appears stronger in cognitive contexts than in emotional ones. Finally, Chapter 4 explores the role of chemosensory signals in human-robot interaction. Participants interacted with a humanoid robot under different combinations of odour and voice conditions. The results indicate that odours associated with putative pheromones increase situational trust compared to a neutral condition. These findings highlight the potential role of olfactory cues in modulating trust and engagement during human-robot interactions.
17-apr-2026
XXXVIII
CORSO DI DOTTORATO IN SCIENZE DELLA PERSONA E DELLA FORMAZIONE
Questa tesi di dottorato indaga il ruolo della fiducia nell’interazione tra esseri umani e agenti artificiali, con particolare attenzione ai robot sociali umanoidi. Con la crescente diffusione dei sistemi di intelligenza artificiale nella vita quotidiana, comprendere i processi che portano gli utenti a fidarsi di queste tecnologie diventa fondamentale per la loro accettazione e utilizzo efficace. I robot sociali rappresentano un caso peculiare, poiché il loro aspetto umanoide e la capacità di simulare interazioni sociali attivano meccanismi cognitivi come l’antropomorfismo e l’applicazione di norme sociali. L’interazione uomo-robot risulta quindi simile, ma non identica, a quella tra esseri umani. La tesi esplora la fiducia negli agenti artificiali attraverso tre prospettive: la concettualizzazione e misurazione della fiducia nell’IA, il ruolo del design e delle prestazioni dei robot e l’influenza di segnali multisensoriali nell’interazione uomo-robot. Il Capitolo 2 presenta una revisione sistematica delle misure quantitative utilizzate per studiare la fiducia nell’intelligenza artificiale. La revisione adotta un modello teorico che distingue tra fiducia cognitiva, legata alla percezione di competenza e affidabilità, e fiducia affettiva, connessa alle dimensioni emotive e relazionali. L’analisi evidenzia una notevole eterogeneità nelle definizioni e negli strumenti di misura utilizzati negli studi sull’IA. In particolare, emerge una discrepanza tra definizioni teoriche che includono componenti affettive e strumenti di misura che si concentrano prevalentemente su aspetti cognitivi. I risultati sottolineano l’importanza di allineare definizione teorica, strumenti di misura e livello di antropomorfismo del sistema studiato. Il Capitolo 3 presenta due studi sperimentali che analizzano l’influenza dell’antropomorfismo, del dominio di conoscenza e dell’affidabilità meccanica sulla fiducia nei robot sociali. I risultati mostrano che gli esseri umani sono maggiormente considerati affidabili in contesti emotivi, mentre il robot più antropomorfo risulta il più affidabile nei compiti di conoscenza generale, talvolta superando l’agente umano. L’affidabilità della performance aumenta generalmente la fiducia, ma con effetti più evidenti nei contesti cognitivi rispetto a quelli emotivi. Il Capitolo 4 esplora il ruolo dei segnali chemosensoriali nell’interazione uomo–robot. Attraverso un’interazione con un robot umanoide in diverse condizioni olfattive e vocali, lo studio mostra che odori associati a feromoni aumentano la fiducia situazionale rispetto a una condizione neutra. I risultati evidenziano il potenziale dei segnali olfattivi nel modulare la fiducia e l’engagement nelle interazioni uomo-robot.
Marchetti, Antonella
Marchetti, Antonella
Aquilino, Letizia, TRUSTING ARTIFICIAL AGENTS: ANTHROPOMORPHISM, RELIABILITY, AND MULTISENSORY SIGNALS IN HUMAN-ROBOT INTERACTION, Marchetti, Antonella, Università Cattolica del Sacro Cuore MILANO:Ciclo XXXVIII [https://hdl.handle.net/10807/331781]
File in questo prodotto:
File Dimensione Formato  
Trusting Artificial Agents: Anthropomorphism, Reliability, and Multisensory Signals in Human-Robot Interaction.pdf

non disponibili

Tipologia file ?: Tesi di dottorato
Licenza: Creative commons
Dimensione 5.26 MB
Formato Adobe PDF
5.26 MB Adobe PDF   Visualizza/Apri

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10807/331781
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact