Il saggio muove da una constatazione della realtà: la trasformazione tecnologica, dovuta all’intelligenza artificiale di nuova generazione (qui anche “Frontier AI”, secondo la definizione dell’AI Safety Summit di Londra del 2023), ci costringe a fare una nuova mappatura degli effettivi rischi e delle possibilità di innovazione che derivano dall’interazione tra lavoratori e macchina intelligente. Il che ci pone di fronte a domande più complesse di quelle che ci siamo posti sino a oggi. Qui, a tal fine, si sceglie l’angolo visuale dei nuovi rischi sociali e psico-fisici derivanti da tale interazione persona/macchina intelligente. Pur essendo convinti che da quella interazione possano derivare certamente maggiore produttività e maggiore benessere, non si può non indagare ciò che sta per accadere nei luoghi di lavoro ri-plasmati dalla tecnologia avanzata (Frontier AI), nei quali la nozione classica di rischio probabilmente non riesce più a essere adeguata in ragione della presenza operativa di un terzo elemento tra datore di lavoro e lavoratore. Tale terzo elemento esercita poteri, si confronta con obblighi nonché può determinare danni, creando forme di responsabilità contrattuale e extracontrattuale. Il saggio, nell’ambito di un progetto di ricerca più ampio e transdisciplinare, intende avviare il confronto accademico per poter creare un substrato teorico di una nuova branca della disciplina giuslavoristica che attiene allo studio della regolazione dell’intelligenza artificiale/robot in interazione attiva/biunivoca con lavoratori in contesti produttivi tecnologici avanzati (qui definita anche Robot Labor Law – “RLL”).

Faioli, M., Robot Labor Law. Linee di ricerca per una nuova branca del diritto del lavoro e in vista della sessione sull’intelligenza artificiale del G7 del 2024., <<FEDERALISMI.IT>>, 2024; 2024 (3): 182-205 [https://hdl.handle.net/10807/298101]

Robot Labor Law. Linee di ricerca per una nuova branca del diritto del lavoro e in vista della sessione sull’intelligenza artificiale del G7 del 2024.

Faioli, Michele
2024

Abstract

Il saggio muove da una constatazione della realtà: la trasformazione tecnologica, dovuta all’intelligenza artificiale di nuova generazione (qui anche “Frontier AI”, secondo la definizione dell’AI Safety Summit di Londra del 2023), ci costringe a fare una nuova mappatura degli effettivi rischi e delle possibilità di innovazione che derivano dall’interazione tra lavoratori e macchina intelligente. Il che ci pone di fronte a domande più complesse di quelle che ci siamo posti sino a oggi. Qui, a tal fine, si sceglie l’angolo visuale dei nuovi rischi sociali e psico-fisici derivanti da tale interazione persona/macchina intelligente. Pur essendo convinti che da quella interazione possano derivare certamente maggiore produttività e maggiore benessere, non si può non indagare ciò che sta per accadere nei luoghi di lavoro ri-plasmati dalla tecnologia avanzata (Frontier AI), nei quali la nozione classica di rischio probabilmente non riesce più a essere adeguata in ragione della presenza operativa di un terzo elemento tra datore di lavoro e lavoratore. Tale terzo elemento esercita poteri, si confronta con obblighi nonché può determinare danni, creando forme di responsabilità contrattuale e extracontrattuale. Il saggio, nell’ambito di un progetto di ricerca più ampio e transdisciplinare, intende avviare il confronto accademico per poter creare un substrato teorico di una nuova branca della disciplina giuslavoristica che attiene allo studio della regolazione dell’intelligenza artificiale/robot in interazione attiva/biunivoca con lavoratori in contesti produttivi tecnologici avanzati (qui definita anche Robot Labor Law – “RLL”).
2024
Italiano
Faioli, M., Robot Labor Law. Linee di ricerca per una nuova branca del diritto del lavoro e in vista della sessione sull’intelligenza artificiale del G7 del 2024., <<FEDERALISMI.IT>>, 2024; 2024 (3): 182-205 [https://hdl.handle.net/10807/298101]
File in questo prodotto:
Non ci sono file associati a questo prodotto.

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10807/298101
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact