Le site des activités des étudiants
et du personnel de l'UQTR
Chargement Évènements

« Tous les Évènements

  • Cet évènement est passé

16e Séminaire en IA et ses applications: Automatisation de la prise de décision éthique : Possibilité et problèmes. Clayton Peterson.

24 novembre 2023, 10 h 00 à 11 h 30

Gratuit

Plusieurs auteurs au sein de la littérature scientifique en éthique des machines et en « intelligence artificielle éthique » (ethical AI) voient l’automatisation des raisonnements et des comportements éthiques comme une solution plausible pour la résolution des dilemmes moraux. Ainsi, l’idée véhiculée est non seulement que les agents artificiels autonomes moraux, comme les machines et les algorithmes, sont possibles, mais que ceux-ci pourraient éventuellement dépasser l’être humain quant à l’analyse des problèmes éthiques pratiques, à la prise de décision, ainsi qu’aux comportements éthiques.  Partant de la distinction de Moor (2006) entre les agents moraux implicites (principes éthiques imposés lors de la programmation et de la conception), explicites (capacité à représenter l’éthique et à faire des choix basés sur cette représentation) et complets (capacité à faire des jugements moraux explicites et à les « justifier »), certains auteurs, comme Anderson et Anderson (2007), soutiennent qu’un objectif important en éthique des machines est la conception d’agents éthiques explicites ou complets dont les actions seraient justifiées d’un point de vue éthique. Or, en plus d’être inquiétante, cette position repose sur une mécompréhension de ce qu’est l’éthique, en supposant notamment que celle-ci puisse se définir de manière algorithmique et fonctionnelle. En nous basant sur le pluralisme éthique et sur l’argument à question ouverte de Moore, nous argumenterons que cette prémisse est erronée et, incidemment, que les approches en éthique des machines devraient réévaluer leurs objectifs. Parallèlement, nous exemplifierons comment l’automatisation de la prise de décision basée sur la théorie du choix rationnel et l’évaluation du risque à long terme dépend de choix techniques ayant une prégnance morale, remettant ainsi en doute la possibilité d’automatiser la prise de décision éthique.

Pour participer à la conférence ZOOM:
https://uqtr.zoom.us/j/89350307726?pwd=SGt0QXNrem1FbTNxUWwxUHpsZVhCUT09

Détails

Date:
24 novembre 2023
Heure :
10 h 00 à 11 h 30
Prix :
Gratuit
Catégories d’évènement:
, , , ,
évènement Tags:
,
Site :
https://oraprdnt.uqtr.uquebec.ca/pls/public/gscw031?owa_no_site=6345&owa_no_fiche=5

Lieu

En ligne

Organisateur

Laboratoire d’intelligence appliquée (LI2A) – Nadia Ghazzali
E-mail :
Nadia.Ghazzali@uqtr.ca