Résumé

The development of driving assistance aims to increase user safety, reduce accidents, traffic and the environmental impact of driving. Another challenge is to assist drivers in their driving and navigation tasks. Thus, vehicles become more and more autonomous in certain tasks related to driving. The framework of this thesis work is placed in the context of conditionally automated vehicles. That is to say that drivers are not required to monitor the behavior of their vehicle but that they must be able to take over control of it at the request of the latter. Thus, this automation modality tends to change the role of drivers. They will go from being the main actor in the driving to being the supervisor. However, if drivers are engaged in a non-driving related task when takeover is requested, it can be even more dangerous because they are no longer in the control loop. This is why it is important to keep the drivers aware of the situation during the autonomous driving phases in order to be able to perform an efficient and safe takeover if necessary. The main objective of this thesis is to propose an adaptive multimodal system taking into account the whole interior environment of the car in the form of peripheral and subtle interactions in order to support the drivers in their supervision task and to increase/- maintain their situational awareness. For this purpose, a first analysis has been performed in order to highlight the factors limiting the proper functioning of autonomous systems and the information to be transmitted. A second analysis was performed in order to identify the parts of the vehicle used to transmit the peripheral information. This second analysis allowed to propose the association of interfaces using different modalities and parts of the vehicle which will be implemented in the adaptive system. These interfaces are ambient lights around the dashboard, vibrations in the driver’s seat and contextual and visual information displayed on the drivers personal device used to perform a non-driving task. The proposed system is part of a larger architecture allowing to predict the driver’s state and to adapt the interfaces to support the supervision of the drivers but also their intervention in case of takeover request. In order to test and validate the system, several scenarios and interaction prototypes have been realized and evaluated. Finally, the proposed system is governed by a rule-based model. The combination and characteristics of the interfaces depend on the state of the driver and the situation. The results encourage further studies to provide adaptive contextual information depending on the circumstances and state of the driver. It seems beneficial to maintain situational awareness, confidence and user experience of drivers by using a combination of interfaces to provide a complete multisensory and body experience.

Le développement des aides à la conduite a pour but d’augmenter la sécurité des usagers, de réduire les accidents, le trafic et l’impact environnemental de la conduite. Un autre enjeu est d’assister les conducteurs dans leur tâche de conduite et de navigation. Ainsi les véhicules deviennent de plus autonomes dans certaines tâches liées à la conduite. Le cadre de ce travail de thèse se place dans le contexte des véhicules conditionnellement automatisés. C’est-à-dire que les conducteurs ne sont pas obligés de surveiller le comportement de leur véhicule mais qu’ils.elles doivent être capables d’en reprendre le contrôle à la demande de ce dernier. Ainsi, cette modalité d’automation tend à changer le rôle des conducteurs.trices. Ces derniers.ères vont passer d’acteur.trice principal.e de la conduite à celui de superviseur.e. Or, si les conducteurs.trices sont engagé.es dans une tâche non liée à la conduite lorsqu’une reprise de contrôle est demandée, cette dernière peut être encore plus dangereuse car ils.elles ne sont plus dans la boucle de contrôle. C’est pourquoi il est important de maintenir les conducteurs.trices au courant de la situation pendant les phases de conduite autonome afin de pouvoir réaliser une reprise de contrôle efficace et sécuritaire si nécessaire. L’objectif principal de cette thèse est de proposé un système adaptatif multimodal prenant en compte l’ensemble de l’environnement intérieur de la voiture sous forme d’interactions périphériques et subtiles afin de soutenir les conducteur.trices dans leur tâche de supervision et d’augmenter/maintenir leur conscience de la situation. Pour cela, une première analyse a été réalisée afin de mettre en avant les facteurs limitant le bon fonctionnement des systèmes autonomes et les informations à transmettre. Une seconde analyse a été effectué afin d’identifier les parties du véhicule utilisées pour transmettre les informations périphériques. Cette seconde analyse a permis de proposer l’association d’interfaces utilisant différentes modalités et parties du véhicule qui seront implémentées dans le système adaptatif. Ces interfaces sont des lumières ambiantes autour du tableau de bord, des vibrations dans le siège du conducteur et des informations contextuelles et visuelles affichées sur le dispositif personnel des conducteurs.trices utilisé pour effectuer une tâche non liée à la conduite. Le système proposé fait partie d’une architecture plus large permettant de prédire l’état du conducteur et d’adapter les interfaces pour supporter la supervision des conducteurs.trices mais aussi leur intervention en cas de demande de prise de contrôle. Afin de tester et de valider le système, plusieurs scénarios et prototypes d’interaction ont été réalisés et évalués. Pour finir, le système proposé est régi par un modèle basé sur des règles. La combinaison et les caractéristiques des interfaces dépendent de l’état du conducteur et de la situation. Les résultats encouragent la poursuite des études visant à fournir des informations contextuelles adaptatives en fonction des circonstances et de l’état du conducteur. Il semble avantageux de maintenir la conscience de la situation, la confiance et l’expérience utilisateur des conducteurs.trices en utilisant une combinaison d’interfaces pour proposer une expérience multisensorielle et corporelle complète.

Détails

Actions