Intelligence artificielle et psychopathologie implications pour la clinique et la recherche
Le Pr David Cohen nous expose dans cette vidéo de la 8ème Journée du C3RP, diverses études et projets concernant l’apport de l’intelligence artificielle à la réhabilitation. Captation réalisée le 28 juin 2019 au GHU Paris psychiatrie & neurosciences.
Quelques diapositives :
(1) Intelligence artificielle et psychopathologie implications pour la clinique et la recherche
David Cohen, Mohamed Chetouani
Service de Psychiatrie de l’Enfant et de l’Adolescent
Institut des Sytèmes Intelligents et Robotiques, CNRS UMR 7222
GH Pitié-Salpêtrière, Sorbonne Université, Paris France
L’intelligence artificielle permet d’améliorer l’interaction humain-machine en adaptant l’interaction aux utilisateurs, en prenant en compte leurs individualités mais aussi leurs états affectifs, leurs capacités cognitives et sensori-motrices, leurs intentions, leur culture…
De nombreux travaux visent à modéliser une interaction avec un ou des agents virtuels ou physiques capables de s’adapter dynamiquement aux besoins et états affectifs des utilisateurs pour améliorer non seulement les performances du système mais aussi la qualité de leur expérience avec le système (déterminée par leur engagement, leur degré de confiance, etc).
Les agents virtuels ou physiques sont dotés de capacités proches de celles des humains :
percevoir,
comprendre les intentions,
raisonner,
prendre des décisions,
montrer des affects,
des intentions,
etc.
Ils peuvent déterminer une stratégie pour mener l’interaction, communiquer par la voix, les gestes, le regard, les expressions du visage mais aussi par le toucher.
De telles interactions humain-machine demandent de prendre en compte les signaux multimodaux émis par l’humain, de les reconnaitre et de les interpréter (ce que l’humain dit, comment il le dit, ce qu’il fait..), de raisonner et décider quoi répondre, de générer une réponse multimodale, de définir des stratégies d’interaction.
Catherine Pelachaud
(3) What is a serious game ?
« digital games and equipment with an agenda of educationnal design and beyond entertainment »
Socio emotional skills
Neurocognitive skills
Grossard et al., Cog Comp 2017
Grynszpan et al., Autism, 2014
(4-6) Robots still used with children with autism in 2017-2018 ?
Description
Targetedskills
Nao N=15
50 cm tall
25 degrees of freedom
2 cameras
Microphones
Speakers
Touch sensors
LEDS
Sonars
Wi-Fi and ethernet connection
Software allows personalization
Can be used in classroom, hospital,…
Joint attention
Imitation
Turn taking
Eye contact
Pointing
Basic academic skills
Facial expressions Verbal communication
Improve spontaneous social interaction
Improve robot response to children’s affective state and engagement
Support interaction
Support simple facial and body expressions, gestures and speech.
Learn about socially acceptable tactile interaction
Imitation
Turn taking
Collaboration skills
Hygiene or food learning
Kaspar N=4
Semi-autonomous
oftware allows creation of new scenarios Child sized
Touch sensors
Head, arm and hand movements
Customizable
Speaker
Charlie N=1
Low cost (200 USD)
2 degrees of freedom in arms
2 degrees of freedom in the head
1 webcam
1 speaker
Can be connected to a PC via USB
Can detect hands and head
Joint attention
Imitation
Turn taking
Teo N=1
80 cm tall
2.5 hour autonomy
Possibility to stick different faces magnetically
Dedicated to children with ASD Distance sensors
Touch sensors
1 camera
Autonomous reactions but can also be driven by an operator
Can move and speak
Teo is used in the krog project [57] as a companion for the child during game sessions on a large screen. It reacts when it is touch.
Riby N=1
The new version of TEO robot
Dedicated to adult with ASD
130 cm tall
Engaging interaction
Alice N=2
9 cm tall
32 degrees of freedom with 11 degrees of freedom in the head where 8 are for facial expression and 3 for the neck movements
Speaker
Facial expression production
Facial expression recognition
Imitation
QT robot N=1
Screen at his face
14 degrees of freedom for upper-body gestures
3D camera
1 microphone
Connection by Wi-Fi
Training emotional abilities
Body language
Increasing the efficiency of therapy by encouraging an active and engaged interaction
IRobiQ N=1
45 cm tall
Speakers
1 touch screen
Touch sensors
Sonars sensors
IR sensors
1 RGB camera in the head LEDS
Irobiq showed the following four emotions with the different shapes of its mouth: happiness, sadness, surprise, and shyness. It is a commercial robot that had access to many children’s songs that were accompanied by adjustable arm movements
Caro N=1
93 cm tall
1 touch screen
Touch sensors
Depth camera
RGB camera
LEDS
Caro is specially designed to engage in emotional interplay that was focused on emotions that are expressed through the eyes for children with ASD
Kiliro N=2
Semi-autonomous
2 degrees of freedom in each leg
Head can move down, up, right and left Tail can move right and left
One speaker attached on the robot
Improve learning and social interaction abilities
Grossard et al, Curr Op Psychiatry, 2018
(7) JeStiMulE : a serious game to teach emotion recognition to chidlren and adolescents with ASD (both high and low functioning)
Les liens vers les autres vidéos de la 8ème journée C3RP :