FR3106009A1 - Procédé et dispositif de sélection de divertissements par un assistant personnel virtuel embarqué dans un véhicule automobile, et véhicule automobile l’incorporant - Google Patents

Procédé et dispositif de sélection de divertissements par un assistant personnel virtuel embarqué dans un véhicule automobile, et véhicule automobile l’incorporant Download PDF

Info

Publication number
FR3106009A1
FR3106009A1 FR2000059A FR2000059A FR3106009A1 FR 3106009 A1 FR3106009 A1 FR 3106009A1 FR 2000059 A FR2000059 A FR 2000059A FR 2000059 A FR2000059 A FR 2000059A FR 3106009 A1 FR3106009 A1 FR 3106009A1
Authority
FR
France
Prior art keywords
user
entertainment
assistant
dialogue
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR2000059A
Other languages
English (en)
Inventor
Stephane Barthelemy
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PSA Automobiles SA
Original Assignee
PSA Automobiles SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PSA Automobiles SA filed Critical PSA Automobiles SA
Priority to FR2000059A priority Critical patent/FR3106009A1/fr
Publication of FR3106009A1 publication Critical patent/FR3106009A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)

Abstract

Il est divulgué un procédé de sélection d’un divertissement pour divertir des utilisateurs à bord d’un véhicule automobile, au moyen d’un assistant personnel virtuel (104) à commande vocale doté d’une intelligence artificielle. Un dialogue est géré par un gestionnaire de dialogue (146) de l’assistant, entre l’utilisateur bénéficiaire du divertissement et l’assistant, qui comprend au moins une interaction vocale entre ledit utilisateur bénéficiaire et l’assistant. Un divertissement déterminé est ainsi en vue de sa diffusion à l’utilisateur, à partir d’un sous-groupe de divertissements qui sont présélectionnés par l’intelligence artificielle dans un groupe de divertissements disponibles en fonction de l’âge de l’utilisateur bénéficiaire (145) d’une part, et/ou en fonction de préférences (147) associées audit utilisateur bénéficiaire, d’autre part. Figure pour l’abrégé : Fig. 3

Description

Procédé et dispositif de sélection de divertissements par un assistant personnel virtuel embarqué dans un véhicule automobile, et véhicule automobile l’incorporant.
La présente invention se rapporte de manière générale aux assistants personnels virtuels mis en œuvre dans les véhicules automobiles, et plus particulièrement à un procédé et à un dispositif de sélection de divertissements par un assistant personnel virtuel embarqué dans un véhicule automobile, ainsi qu’à un véhicule automobile incorporant ledit dispositif et un produit programme d’ordinateur implémentant le procédé.
L'invention trouve des applications, en particulier, dans les systèmes qui gèrent l’info-divertissement à bord des véhicules automobiles (ou systèmes IVI, de l’anglais «In-Vehicle Infotainment»). Un tel système comprend une plateforme matérielle et logicielle, dont l’architecture est adaptée pour la gestion des aspects média (radio, musique, vidéo, etc.) et des aspects communication (téléphonie, connexion à l’Internet, Bluetooth, etc.) dans le véhicule.
Les Assistant Personnel Virtuel ou APV (en anglais VPA, mis pour «Virtual Personal Assistant») sont des dispositifs essentiellement logiciels qui permettent d’exécuter des tâches ou de fournir des services spécifiques à leurs utilisateurs. Ils utilisent pour cela des informations telles que le contexte de leur utilisation (le lieu, la date, etc.), un profil d’utilisateur (son identité, un historique de son usage antérieur, etc.) et des données d’entrée fournies par l’utilisateur (i.e., des commandes et/ou requêtes spécifiques). Ils permettent ainsi de fournir à chaque utilisateur une assistance pertinente et personnalisée pour l’utilisation d’un appareil, pour la réalisation de certaines tâches, pour obtenir de l’information utile, etc.
Dans l’état de la technique, on connaît l’intégration d’un APV dans un véhicule automobile. Dans cette application, un APV permet de faciliter l’entrée de commandes ou de requêtes d’information par le conducteur et des passagers du véhicule, grâce notamment à la mise en œuvre de la reconnaissance vocale. En lui associant une intelligence artificielle ou IA (en anglais AI, mis pour «Artificial Intelligence»), on obtient un Assistant Personnel Intelligent ou API (en anglais IPA, mis pour «Intelligent Personal Assistant»).
Le document DE202017105366 divulgue ainsi une interface-utilisateur à partir de laquelle un utilisateur peut discuter, parler ou autrement communiquer avec un APV pour obtenir des réponses à ses requêtes ou pour effectuer des opérations qui peuvent l’aider à effectuer diverses tâches du monde réel et/ou dans l’espace virtuel. Cette interface est également dotée d’une unité de stockage de données pour adresser à nouveau, et plus rapidement, des demandes déjà traitées auparavant.
Le document CN105416208 divulgue la commande d’un système de divertissement électronique par reconnaissance vocale. Le système permet le contrôle de la recherche audio, la commande du lecteur multimédia, mais aussi la commande du climatiseur pour l’ajustement de la température et le mode de circulation de l’air dans le véhicule.
Le document CN201254147 divulgue un système d'interaction homme-machine, utilisé dans l'électronique automobile et le divertissement multimédia, qui comprend un module d'identification du son, un module de connexion, un module multimédia, un module de système d'information embarqué et un module Bluetooth.
A travers le contrôle par reconnaissance vocale, ces systèmes permettent de libérer les mains et les yeux de l’utilisateur et, en réduisant ainsi la déconcentration du conducteur, d’améliorer la sécurité du véhicule ainsi que du conducteur lui-même et des passagers.
L'invention vise à préserver encore plus la concentration du conducteur, en tirant plus d’avantages de la mise en œuvre d’un assistant personnel à bord du véhicule.
Ce but est atteint grâce à une méthode efficace pour divertir les passagers à l’aide d’un assistant personnel qui offre une panoplie de divertissements qui leur sont spécifiquement adaptés. Par la réduction du niveau de stress et d’agitation des passagers à bord du véhicule, notamment des enfants, on préserve la capacité de concentration du conducteur sur la conduite, et on contribue ainsi à améliorer la sécurité du véhicule et de ses occupants.
Plus spécifiquement, il est proposé un procédé de sélection d’un divertissement parmi un groupe de divertissements disponibles qui sont adaptés pour divertir des utilisateurs à bord d’un véhicule automobile, au moyen d’un assistant personnel virtuel à commande vocale doté d’une intelligence artificielle, ledit procédé comprenant :
-le lancement d’un gestionnaire de dialogue de l’assistant configuré pour dialoguer avec un utilisateur bénéficiaire du divertissement à sélectionner;
-un dialogue, géré par le gestionnaire de dialogue de l’assistant, entre l’utilisateur bénéficiaire du divertissement et l’assistant, qui comprend au moins une interaction vocale entre ledit utilisateur bénéficiaire et l’assistant; et,
-l’identification, sur la base du dialogue entre l’utilisateur bénéficiaire du divertissement et l’assistant, d’un divertissement déterminé en vue de sa diffusion à l’utilisateur bénéficiaire, à partir d’un sous-groupe de divertissements qui sont présélectionnés par l’intelligence artificielle dans le groupe de divertissements disponibles en fonction de l’âge de l’utilisateur bénéficiaire d’une part, et/ou en fonction de préférences associées audit utilisateur bénéficiaire, d’autre part.
L’exécution du divertissement peut être réalisée via des moyens d’interface multimédia utilisables à la place de l’utilisateur bénéficiaire. Les utilisateurs comprenant des enfants, l’âge d’un enfant est pris en compte pour l’analyse d’une requête provenant dudit enfant, et pour sélectionner les activités proposées en réponse à la requête. De cette manière, les propositions faites à l’utilisateur bénéficiaire sont personnalisées en fonction de l’âge de l’enfant à l’origine de la requête, ou bénéficiaire de la requête formulée par un parent. Cependant, l’enfant est associé au choix définitif du divertissement sélectionné, à travers l’échange. Pour plus de convivialité et parce, en outre que les enfants ont besoin d’une méthode simple, le dialogue de sélection comprend au moins une interaction vocale entre l’assistant et l’enfant.
Ce procédé apporte une solution technique offrant un service de divertissement pour les enfants à bord du véhicule via son assistant personnel virtuel. Ce service a l’avantage:
-d’offrir aux parents des moyens de divertir leur(s) enfant(s) dans le véhicule en cas de long trajets, et de détourner leur attention de leur inconfort immédiat: manque d’espace, impossibilité de bouger pour sauter, courir, se détendre physiquement, etc.
-de permettre au conducteur de rester concentré sur sa tâche de conduite sans devoir gérer l’impatience et la surveillance des enfants à l’arrière du véhicule; et;
-d’offrir un excellent moyen aux parents de passer des moments de qualité avec leurs enfants au cours du trajet.
Des modes de mise en œuvre, pris isolément ou en combinaison, prévoient en outre que:
-le dialogue entre l’utilisateur bénéficiaire du divertissement et l’assistant personnel virtuel peut comprendre en outre au moins une interaction virtuelle/graphique entre l’utilisateur bénéficiaire du divertissement et l’assistant personnel virtuel;
-le gestionnaire de dialogue peut être lancé en réponse à une requête vocale de l’utilisateur bénéficiaire du divertissement ou d’un autre utilisateur à bord du véhicule;
-l’utilisateur bénéficiaire du divertissement est de préférence identifiable et peut être identifié à partir de la requête vocale;
-la gestion, par le gestionnaire de dialogue, du dialogue entre l’utilisateur bénéficiaire du divertissement et l’assistant tient compte de l’âge de l’utilisateur bénéficiaire du divertissement à sélectionner
-des préférences associées aux utilisateurs sont rendues disponibles à l’intelligence artificielle par configuration de profils respectivement associés aux utilisateurs et accessibles par l’intelligence artificielle; et/ou,
-des préférences associées aux utilisateurs peuvent être apprises par l’intelligence artificielle au fil de l’usage de l’assistant personnel virtuel par lesdits utilisateurs.
Dans un deuxième aspect, l’invention a également pour dispositif ayant des moyens adaptés pour pour exécuter toutes les étapes du procédé selon le premier aspect ci-dessus. Il peut s’agir d’un calculateur configuré à cet effet, par exemple, comme évoqué supra, du calculateur du système d’info-divertissement (ou IVI, de l’anglais «In-Vehicle Infotainment»), qui gère les aspects média et les aspects communication à bord du véhicule.
Un troisième aspect de l’invention se rapporte à un véhicule automobile comprenant un calculateur embarqué, selon le deuxième aspect ci-dessus.
Dans un quatrième et dernier aspect, l’invention a également pour objet un produit programme d'ordinateur comprenant une ou plusieurs séquences d'instructions stockées sur un support de mémoire lisible par une machine comprenant un processeur, lesdites séquences d'instructions étant adaptées pour réaliser toutes les étapes du procédé selon le premier aspect de l'invention lorsque le programme est lu dans le support de mémoire et exécuté par le processeur.
D’autres caractéristiques et avantages de l’invention apparaîtront encore à la lecture de la description qui va suivre. Celle-ci est purement illustrative et doit être lue en regard des dessins annexés sur lesquels:
la figure 1 est un une représentation schématique d’un contexte d’usage d’un APV embarqué dans un véhicule automobile, dans lequel des modes de réalisation de l’invention peuvent être mis en œuvre;
la figure 2 est un schéma simplifié de la chaîne technique de l’APV de la figure 1;
la figure 3 est un digramme fonctionnel illustrant la mise en œuvre des étapes du procédé de l’invention;
la figure 4a est une première copie d’écran montrant une proposition d’activités pour un jeune enfant qui peut être affichée sur un écran de l’IHM;
la figure 4b est une deuxième copie d’écran montrant une sélection de dessins animés qui peuvent être suggérés à un jeune enfant, à la place de l’activité de la figure 4a;
la figure 4c est une troisième copie d’écran montrant une sélection de jeux vidéo qui peuvent être suggérés à un enfant plus âgé, à la place de l’activité de la figure 4a et des dessins animés de la figure 4b;
la figure 4d est une quatrième copie d’écran montrant une sélection de chansons qui peuvent être suggérées à un enfant, à la place de l’activité de la figure 4a, des dessins animés de de la figure 4b et des chansons de la figure 4c;
la figure 5 est un tableau illustrant l’association entre l’âge des enfants et des divertissement disponibles qui sont susceptibles de leur être proposés, en fonction de leur âge; et,
la figure 6 est un tableau illustrant l’association entre des préférences d’utilisateur et des utilisateurs enregistrés dans l’APV, par exemple les enfants d’une famille, auxquels des divertissements disponibles sont susceptibles de leur être proposés, en fonction d’un paramétrage par l’enfant concerné ou par un parent, et/ou en fonction d’un apprentissage par l’APV.
Dans la description de modes de réalisation qui va suivre et dans les Figures des dessins annexés, les mêmes éléments ou des éléments similaires portent les mêmes références numériques aux dessins.
De manière générale, les APV sont intégrés à des équipements dits équipements intelligents («Smart device» en anglais) tels que les appareils nomades et communicants comme les smartphones ou les tablettes, ou d’autres appareils connectés, que ce soit pour un usage domestique (à la maison), dans un véhicule, ou en nomade, par exemple. Dans tous les cas, ils sont exécutés par une unité de traitement (i.e., un calculateur) de l’équipement intelligent dans lequel ils sont intégrés.
Pour les applications dans lesquelles l’APV est utilisé à bord d’un véhicule, cette unité de traitement peut être embarquée, en tout ou en partie, c’est-à-dire qu’il peut s’agir d’un calculateur du véhicule automobile. Tout du moins, une partie des traitements peut être effectuée dans un tel calculateur. En variante, l’unité de traitement peut aussi être débarquée, c’est-à-dire qu’elle peut être comprise dans un appareil distinct du véhicule, comme un appareil nomade et communicant d’un utilisateur, du type de ceux envisagés dans le paragraphe ci-dessus, par exemple. Dans ce cas, l’appareil peut être adapté pour contrôler des fonctionnalités du véhicule afin par exemple, de permettre le réglage de paramètres de confort (la température à bord, le niveau sonore restitué par une installation multimédia embarquée, etc.) ou de piloter le fonctionnement de certains équipements du véhicule (par l’exemple l’ouverture des fenêtres électriques, le réglage de paramètres du chauffage ou de la climatisation, la commande de l’installation multimédia avec par exemple le réglage de la station radio écoutée ou du volume sonore d’écoute, l’allumage des phares, la mise en service des essuie-glaces, etc.).
Ainsi, un véhicule automobile peut embarquer un APV qui peut être exécuté par le processeur principal (ou mCPU, de l’anglais «main Central Processing Unit») d’un calculateur embarqué du véhicule (ou ECU, de l’anglais «Electronic Central Unit»). Il peut s’agir par exemple du calculateur qui gère l’info-divertissement à bord du véhicule (ou IVI, de l’anglais «In-Vehicle Infotainment»). Un tel calculateur offre une plateforme matérielle et logicielle, dont l’architecture est adaptée pour la gestion des aspects média (radio, musique, vidéo, etc.) et des aspects communication (téléphonie, connexion à l’Internet, Bluetooth, etc.) dans le véhicule.
L’utilisateur peut contrôler un APV par l’intermédiaire d’un dispositif d’interface homme/machine (IHM) de l’équipement intelligent auquel l’APV est intégré. Par exemple, l’APV peut être activé par l’appui sur un bouton dédié ou sur une touche ou une combinaison de touches d’un clavier physique (interface physique), ou sur un bouton virtuel sur un écran tactile (interface tactile), par exemple. Cependant, pour rendre leur utilisation plus ergonomique, la plupart des APV récents peuvent aussi être contrôlés vocalement, c’est-à-dire par la voix de l’utilisateur (interface vocale).
Par «contrôlé vocalement» on entend à la fois le fait d’être activé à partir d’un état de veille («Standby mode» en anglais) et le fait, en outre, d’être commandé par l’intermédiaire de commandes ou de requêtes exprimées oralement par l’utilisateur. La voix d’un utilisateur est captée par un ou plusieurs microphones disposés dans l’habitacle du véhicule. Une fonction de reconnaissance vocale (ou ASR mis pour «Automatic Speech Recognition», en anglais, est alors associée à l’APV. Elle s’exécute sur l’unité de traitement de l’équipement intelligent qui intègre l’APV, et permet de reconnaître des mots prononcés par un utilisateur. Plus particulièrement, la fonction est assurée par un moteur de reconnaissance vocale ou VRE (mis pour «Voice Recognition Engine», en anglais), qui est un module de nature logicielle pouvant être exécuté par le processeur principal du calculateur.
La fonction de reconnaissance vocale peut être exécutée en permanence par le processeur du calculateur, dès lors qu’un microphone est activé pour permettre de capter la voix d’un utilisateur présent à bord du véhicule. Une séquence de mots reconnus peut alors être traitée par l’APV, qui les analyse pour en déduire la commande ou la requête exprimée vocalement par l’utilisateur, et pour exécuter ensuite la tâche ou le service correspondant.
Un tel contrôle vocal d’un APV est particulièrement utile à bord d’un véhicule automobile, où l’aspect «mains libres» est favorable à la sécurité. Le conducteur peut en effet activer une fonctionnalité ou requérir un service sans utiliser ses mains qui demeurent donc libres pour la conduite, et sans devoir détourner le regard de la route en sorte que sa vigilance est peu affectée.
Afin de permettre l’activation de l’APV en réponse à une commande vocale prononcée par un utilisateur, le VRE peut mettre en œuvre une fonction de détection d’un mot-clé d’activation, aussi appelé mot de réveil (ou Wuw, mis pour «Wake-up word» en anglais). Cette fonction de détection du mot-clé d’activation est adaptée pour activer l’APV dès qu’elle reconnaît un ou plusieurs mots-clés d’activation prédéfinis. Dans le domaine des APV domestiques du marché ou dans le domaine des smartphones, on connaît par exemple les mots-clés ou séquences de mots-clés suivants: «OkGoogle», «Siri» ou «Alexa» pour les APV proposés par Google Assistant®, Apple® et Amazon®, respectivement. Dès qu’un tel mot-clé d’activation est reconnu, l’APV concerné peut être activé et la séquence de mots à laquelle le mot-clé appartient peut alors être traitée par le moteur d’ASR afin d’en déduire, le cas échéant, une commande ou une requête correspondante de l’utilisateur. Cette commande ou cette requête est ensuite traitée par l’APV.
Un moteur de détection de mot-clé d’activation (ou moteur de Wuw) est spécialement adapté pour permettre, à partir d’un signal audio capté par un ou plusieurs microphones, d’identifier la prononciation d’un mot-clé d’activation par l’un quelconque des utilisateurs qui sont à bord du véhicule. La détection du mot-clé d’activation déclenche alors l’enregistrement du signal audio capté par le microphone, et son traitement par le moteur d’ASR.
Lafigure 1illustre schématiquement le contexte d’un cas d’usage dans lequel on peut mettre en œuvre le procédé et le dispositif selon l’invention. L’homme du métier appréciera que le contexte considéré n’est pas exclusif d’autres cas d’usage dans lesquels l’invention peut aussi être mise en œuvre.
Le véhicule 101 intègre un APV embarqué 104. L’APV embarqué 104 est par exemple commandé par la voix (i.e., la parole) d’un utilisateur 102 du véhicule, via un microphone. En complément, l’APC peut aussi être commandé par d’autres moyens, comme des boutons de commande ou un clavier formant une interface physique, ou encore un clavier virtuel affiché sur un écran tactile formant une interface tactile, qui permettent aussi l’entrée de commandes et/ou de requêtes par l’utilisateur.
En outre, l’APV embarqué 104 fait partie d’un système embarqué qui comprend aussi des moyens audios pour la restitution à l’utilisateur d’une information sonore sous la forme d’un message vocal, c’est-à-dire un message audio imitant,i.e., synthétisant, la voix d’un opérateur. Dans un cas d’usage typique, en réponse à une requête vocale de l’utilisateur 102 du véhicule 101, le système émet via un ou plusieurs haut-parleurs un message vocal synthétisé contenant des informations utiles destinées à l’utilisateur 102. En outre, dans d’autres modes de réalisation, le système peut comprendre des moyens d’affichage pour la restitution d’une information visuelle qui peuvent se substituer à et/ou compléter l’émission de messages vocaux. Par exemple, le système peut intégrer un écran, tactile ou non, sur lequel sont affichées les informations utiles destinées à l’utilisateur du véhicule. Avantageusement, une telle restitution visuelle permet de communiquer une information intelligible pour l’utilisateur dans un environnement bruyant.
Tous ces moyens d’entrée et de restitution forment l’interface homme/machine (IHM) du système.
L’utilisateur 102 représenté à la figure 1 est le conducteur du véhicule 101. Toutefois, il peut aussi s’agir d’un autre utilisateur à bord du véhicule: soit un passager assis à l’avant à côté du conducteur, soit un passager assis à l’arrière en deuxième rang, ou bien en troisième rang pour les véhicules équipés de plus d’un rang de sièges arrière pour les passagers (comme les grands monospaces, par exemple).
Dans le contexte d’usage considéré, l’utilisateur 102 prononce un mot ou une séquence de mots 103 qui sont reconnus par l’APV 104 et sont convertis en une (ou plusieurs) instruction(s) exécutable(s), et/ou une (ou plusieurs) requête(s) d’information à laquelle(auxquelles) l’APV apporte une réponse appropriée. La séquence de mots 103 prononcée commence par un mot-clé d’activation, qui est adapté pour réveiller l’APV embarqué 104. En effet, pour des raisons d’économie d’énergie, les moyens matériels et logiciels mettant en œuvre l’APV sont mis en sommeil («standby mode, en anglais) pendant les phases de non-utilisation prolongée. Et ils sont réveillés lorsque le mot-clé d’activation est prononcé par un utilisateur dans l’habitacle du véhicule, et est identifié par un dispositif d’identification dans le signal audio capté en continu par le (ou les) microphone(s) qui est(sont) disposé(s) dans l’habitable. Le reste de la séquence de mots 103 est alors traité par l’APV afin d’identifier les instructions et/ou les requêtes qu’elle comprend.
Les assistant personnels virtuels du domaine grand public («Consumer Electronic», en anglais) comme Google Assistant®, Siri®, Alexa® ou Bixby® permettent, via leur présence dans les smartphones, à un utilisateur lambda de pouvoir interagir avec son écosystème digital comme entre autres des fournisseurs de musique (Google Play Music®, Deezer®), Spotify®, etc.), de messagerie (Whatsapp®, Messenger®, Skype®, etc.) et d’information ou de résultats sportifs (Le Monde®, L’équipe Magazine®, etc.).
Dans le véhicule, ces assistants peuvent permettre de commander le réglage de la température dans l’habitacle, l’activation du siège massant, la sélection d’une ambiance lumineuse, la diffusion de fragrances, le déclenchement de l’ionisation, le typage sonore, l’activation des aides à la conduite (ADAS, navigation prédictive, etc.) ou la diffusion de contenus spécifiques (type de liste musicale, réglage du volume sonore, radio d’informations, livres audio). Ils peuvent également permettre de contrôler son application de navigation type Google Maps® ou Waze®, de rechercher des points d’intérêt ou de service (curiosités touristiques, stations-service ou restaurants à proximité de la position courante du véhicule, parkings sur lieu de rendez-vous …), ou de gérer des appels téléphoniques entrants, etc.
Cependant, les assistants personnels virtuels connus ne sont pas programmés pour animer et divertir de manière proactive et efficace des enfants de tous âges dans le véhicule. Or, les enfants sont des occupants de véhicules qui s’ennuient vite et qui ont du mal à focaliser leur attention longtemps sur la même activité. L’invention est basée sur le constat fait par les inventeurs que l’assistant personnel virtuel du véhicule peut être configuré pour proposer, organiser et renouveler des activités ludiques aux enfants, voire même de les surveiller en observant le comportement et les signes observables comme la fatigue.
En référence au schéma fonctionnel de lafigure 2, on va maintenant décrire les moyens techniques formant la chaîne technique nominale de l’assistant personnel virtuel 104 de la figure 1. L’assistant 104 comprend notamment une interface homme-machine (IHM) incluant des moyens d’entrée12 (ou interface d’entrée) et des moyens de sortie 13 (ou interface de sortie), adaptés pour coopérer avec les utilisateurs 11. L’assistant 104 comprend aussi une plateforme de traitement 14, qui met en œuvre des techniques de reconnaissance vocale (VR, de l’anglais «Voice Recognition») sous la forme de modules logiciels dont certains peuvent être basés sur des techniques d’intelligence artificielle (IA). Enfin, l’assistant 104 est adapté pour accéder à des données et/ou à des ressources applicatives externes, formant ce qu’on appelle communément son écosystème 15.
Dans l’exemple représenté à la figure 2, les utilisateurs 11 comprennent deux adultes 111 et 112, dont l’un est le conducteur et l’autre est un passager qui est par exemple assis à l’avant du véhicule à côté du conducteur. Les utilisateurs 11 comprennent aussi deux enfants 113 et 114 qui sont des passagers, et sont par exemple assis en l’arrière du véhicule en rang deux ou en rang trois le cas échéant. L’invention n’entend pas être limitée par le nombre des utilisateurs, ni par leur âge, ou autre. Néanmoins, l’invention trouve des applications avantageuses lorsque les utilisateurs comprennent au moins un enfant, et de préférence plusieurs enfants d’âges respectifs différents. Par «enfants», on entend des utilisateurs non adultes, y-compris donc des préadolescents et/ou des adolescents.
Les moyens d’entrée 12 de l’IHM comprennent au moins un transducteur électroacoustique d’acquisition,i.e.un microphone 121, qui appartient à une interface vocale pour la saisie de commandes et/ou de requêtes par la voix de l’utilisateur. De préférence, les moyens d’entrée 12 comprennent plusieurs microphones comme le microphone 121, par exemple un microphone agencé au niveau de chacune des places assises prévues pour chacun des utilisateurs 11, respectivement, susceptibles d’être présents dans le véhicule. Chaque microphone est adapté pour capter la voix d’un utilisateur dans l’habitacle du véhicule et pour générer un signal audio correspondant. Les données codant ce signal audio, ou flux audio, sont traitées par la plateforme de traitement 14. Les moyens d’entrée 12 peuvent aussi comprendre, en outre, d’autres moyens d’entrée (non représentés) comme des boutons et/ou les touches d’un clavier appartenant à une interface physique, et/ou un écran tactile formant clavier virtuel appartenant à une interface tactile.
Les moyens de sortie 13 de l’IHM peuvent comprendre au moins un transducteur électroacoustique de restitution,i.e.un haut-parleur 131, adapté pour restituer sous forme audible par les utilisateurs des messages de confirmation et/ou des réponses aux requêtes formulées par ces derniers. Plusieurs haut-parleurs peuvent être ainsi disposés à l’avant et/ou à l’arrière du véhicule. Une ou plusieurs prises casques peuvent compléter les moyens de sortie 13, ainsi qu’une interface Bluetooth™ adaptée pour coopérer avec un casque Bluetooth™, une oreillette Bluetooth™, une enceinte Bluetooth™ et/ou un smartphone d’un utilisateur, ou tout autre appareil communiquant ou non apte à restituer le son aux utilisateurs. Les moyens de sortie 13 peuvent aussi comprendre, en outre, d’autres moyens (non représentés) comme un ou plusieurs écrans adaptés pour afficher des informations, images, de la vidéo et/ou des contenus multimédia.
La plateforme de traitement 14 comprend des moyens de traitement du flux audio pour la reconnaissance vocale. Ce traitement comprend classiquement deux parties principales:
-d’une part la transcription de la parole (opération appelée «Speech-to-Text» en anglais, ou STT), qui consiste à convertir le flux audio capté par le microphone en une suite de mots formant un texte (i.e., une chaîne de caractères) dans une langue déterminée. Les moyens 141 qui mettent en œuvre cette opération STT retournent des transcriptions partielles («partial transcripts» en anglais) correspondant à la transcription (i.e., la transformation en texte) de mots reconnus dans le flux audio traité; et,
-d’autre part, l’interprétation (opération appelée «mining» en anglais) de la requête exprimée vocalement par l’utilisateur, et plus particulièrement des transcriptions partielles correspondantes telles que retournées par les moyens 141. Cette interprétation est réalisée par un module 140 de reconnaissance vocale («Voice Recognition» en anglais) qui peut mettre en œuvre des méthodologies d’intelligence artificielle. Ce module 140 est configuré pour générer des résultats de reconnaissance (ou «recognition results» en anglais), sous forme de commandes ou de requêtes avec un contenu sémantique qui est déterminé, par exemple par référence à des données précédemment acquises et/ou résultant d’un apprentissage profond («deep learning» en anglais).
La plateforme 14 comprend aussi des moyens pour accéder à des services et/ou des sources de données qui forment l’écosystème 15 de l’APV. Celui-ci peut comprendre des données stockées dans une mémoire embarquée 151, par exemple l’historique de requêtes antérieures et de leurs réponses. Dans une mise en œuvre hybride, l’écosystème 15 de l’APV peut aussi comprendre, en complément, des données stockées dans une base de données sur un serveur distant et/ou des interfaces de programmation applicatives (ou API, de l’anglais «Application Programming Interface»), qui sont accessibles par exemple dans le cloud 152 via des moyens de connectivité à l’Internet. Cet écosystème 15 est adapté pour prendre en charge des requêtes et apporter une réponse judicieuse et pertinente à chaque requête soumise par un utilisateur. Dans l’application envisagée, cette réponse comporte notamment des suggestions de divertissements pour les enfants, qui sont adaptées à l’âge et le cas échéant à des préférences des enfants. La réponse ainsi élaborée, a le formant d’une réponse texte.
C’est pourquoi la plateforme 14 comprend enfin des moyens de synthèse vocale (ou TTS, de l’anglais «Text-to-Speech»). Ces moyens sont configurés pour traduire la réponse texte en message vocal qui est audible par l’utilisateur lorsqu’il est restitué par les moyens de sortie 13 de l’IHM.
Tous les moyens précités de l’APV de la figure 2, et d’autres, vont maintenant être décrits plus en détail, en référence au diagramme laFigure 3, en même temps que le procédé et le dispositif selon des modes de mise en œuvre de l’invention. Ce diagramme est en effet un diagramme fonctionnel montrant plus spécifiquement les moyens du dispositif qui sont adaptés à la mise en œuvre des principales étapes du procédé de sélection d’un divertissement selon des modes de mise en œuvre de l’invention.
On rappelle que le procédé vise à sélectionner un divertissement déterminé parmi un groupe de divertissements disponibles qui sont adaptés pour divertir des utilisateurs à bord d’un véhicule automobile, au moyen d’un assistant personnel virtuel, en réponse à une requête d’un utilisateur. L’APC est à commande vocale, et de préférence doté d’une intelligence artificielle. La requête est par exemple soumise en langage naturel, et se matérialise par un flux audio généré par le microphone 121 de la figure 2. Une telle requête, aussi appelée «utérance» (en référence à l’expression anglaise «utterance» qui signifie littéralement «énoncé» en français), traduit une intention de l’utilisateur associée à des paramètres qui servent à préciser cette intention. Une telle requête est par exemple:
-«Hey Assistant, propose des activités de divertissement à Tommy».
Le divertissement est alors sélectionné en vue d’être exécuté, de préférence immédiatement suivant sa sélection. Par exemple une chanson ou un dessin animé sont lus, ou une session d’un jeu vidéo est lancée en conséquence directe de la sélection du divertissement correspondant, laquelle sélection est opérée conformément à des modes de réalisation. L’exécution du divertissement a lieu via les moyens d’interface multimédia du véhicule, utilisables à la place de l’utilisateur bénéficiaire dans ledit véhicule.
L’homme du métier appréciera que, en fonction de la configuration du véhicule, et notamment du nombre d’écrans ou de tablettes installées ou disponibles à bord, différents utilisateurs (tous des passagers, pas le conducteur) peuvent se voir proposer par l’assistant des contenus différents à leur place respective à bord. Cela permet à chaque passager, et notamment à chaque enfant, d’avoir des activités différentes et adaptées à ses préférences, et ce de façon indépendante des autres enfants.
En référence à la figure 3, l’assistant personnel virtuel 104 de la figure 2 comprend, au sein par exemple de l’interface d’entrée 12, des moyens 122 adaptés pour réaliser un prétraitement d’une requête soumise en langage naturel reçue sous forme de flux audio généré par le microphone 121 de la figure 2. Les moyens 122 peuvent être réalisés sous la forme d’un processeur de traitement numérique ou DSP (de l’anglais «Digital Signal Processor»). Un DSP est un processeur dont l’architecture et le fonctionnement sont optimisés pour exécuter des traitements numériques spécifiques appliqués à un signal et non à des données (tel que le filtrage, l’extraction de signaux, etc.), le plus rapidement possible. Dans l’application envisagée ici, le DSP est configuré pour l’exécution d’algorithmes réalisant des prétraitements du signal audio capté par le microphone 121 de la figure 2.
Toujours par exemple au sein de l’interface d’entrée 12, l’assistant peut comprendre en outre, un moteur 123 de détection de mot-clé d’activation, ou moteur de Wuw (mis pour «Wake-up word» en anglais), visant notamment à détecter un mot-clé d’activation (ou mot de réveil) de l’assistant personnel virtuel. Ce moteur de Wuw manipule des données codant un signal audio, en l’occurrence le signal audio capté par le microphone 121 de la figure 2 et prétraité par le DSP des moyens de pré-traitement 122 présentés ci-dessus. Le moteur de Wuw 123 peut être réalisé sous la forme d’un module de nature logicielle. Il peut être développé et fourni en tant que module générique (module du marché), par un fournisseur spécifique comme par exempleNuance Communications, Inc.,Qualcomm, Inc.,Soundhound, Inc.,Sensory,Inc., etc.
L’APV comprend par ailleurs, par exemple au sein de la plateforme 14 de la figure 2, des moyens pour identifier et interpréter la voix humaine dans le flux audio. Ces moyens comprennent notamment un module 143 de reconnaissance automatique de la parole (ou module ASR, mis pour «Automatic Speech Recognition») et un module 144 de compréhension du langage naturel (ou module NLU, mis pour «Natural Language Understanding»).
Par exemple, le module ASR utilise du matériel physique et des techniques logicielles pour identifier et interpréter une voix humaine. Il comprend par exemple un module de reconnaissance vocale ou STT (de l’anglais «Speech-To-Text») qui est configuré pour assurer la fonction de transformation du flux audio en chaîne de caractères, représentée à la figure 2 sous la référence 141. Ce module génère, en tenant compte du contexte, les transcriptions partielles correspondant au flux audio, aussi appelées messages textuels (ou messages textes, par raccourci).
Le module NLU a pour fonction d’aider la machine à comprendre le langage humain. Il permet d’analyser et décrypter les messages textes entrants pour en définir un sens et en extraire des informations structurées, selon une syntaxe déterminée, qu’une machine peut comprendre et analyser. Dit autrement, il interprète des données textuelles non structurées pour en déduire une représentation structurée de la requête ou utérance. Le module NLU produit une ou plusieurs analyses sémantiques basées sur le sens possible des mots contenus dans le message texte, puis un annotateur de confiance identifie la meilleure analyse. La syntaxe comprend par exemple une «intention» («intent» en anglais) de l’utilisateur comme par exemple le fait de souhaiter «aller à» un endroit particulier, et des «entités» («entities» en anglais) associées qui ont pour fonction de préciser l’intention de l’utilisateur et notamment ses paramètres, comme par exemple une «adresse», une «heure de départ», etc. Cette interprétation des transcriptions issues du flux audio permet à l’APV de déterminer une représentation structurée qui est ensuite transmise à l’écosystème distant 15 de l’assistant personnel virtuel, dont le rôle est d’apporter une réponse judicieuse et pertinente à la requête soumise par l’utilisateur.
Conformément à des modes de réalisation, l’APV comprend en outre un gestionnaire de dialogue 146 (ou DM, de l’anglais «Dialog Manager»), configuré pour dialoguer avec un utilisateur bénéficiaire du divertissement à sélectionner. Le gestionnaire de dialogue 146 peut être réalisé sous la forme d’un module logiciel. Il s’apparente à un agent conversationnel (appelé «Chatbot», ou encore «Bot» par raccourci, qui signifie robot conversationnel en anglais l’anglais), mais dont les échanges sont réalisés de manière vocale. Un tel agent conversationnel est aussi appelé, «Voicebot» par anologie avec les Chatbots précités.
L’homme du métier appréciera que le gestionnaire de dialogue 146 est de préférence spécifique à l’application d’animation de trajet,i.e.qu’il est spécialement adapté pour assurer un dialogue entre l’APV et un utilisateur pour lequel un divertissement est à sélectionner afin de le divertir pendant le trajet du véhicule. Dit autrement, l’APV peut comprendre d’autres arbres de dialogues comme les gestionnaires de dialogue 146a et 146b représentés, par exemple, qui sont chacun adapté plus particulièrement à une autre application offerte par l’APV, respectivement. Ces autres applications comprennent, par exemple, la commande de fonctions de confort à bord du véhicule, la commande du système de navigation embarqué, la gestion des appels téléphoniques, la recherche d’information sur Internet, etc.
Le choix du gestionnaire de dialogue qui est utilisé peut être réalisé par un commutateur 149 par lequel transitent les requêtes (utérances) vers le gestionnaire de dialogue 146 utilisé, ainsi que les réponses en provenance dudit gestionnaire de dialogue. L’homme du métier appréciera que la fonction du commutateur 149 est isolée de celle du gestionnaire de dialogue 146 proprement dit pour les besoins de la représentation schématique de la figure 3, afin de permettre de distinguer la pluralité des gestionnaires de dialogues 146, 146a, 146b, etc., d’une part, et le commutateur 149 qui aiguille les requêtes entrantes vers le gestionnaire actif 146 et récupère les réponses en retour, d’autre part, mais que ces deux éléments 146 et 149 forment un tout fonctionnel.
Dans un mode de réalisation, le gestionnaire de dialogue est lancé (et le dialogue est initié) en réponse à une requête vocale de l’utilisateur bénéficiaire du divertissement ou d’un autre utilisateur à bord du véhicule, par exemple un parent de l’enfant bénéficiaire, en prononçant une requête du type:
-"Hey Assistant, je suis Tommy, qu’est-ce que tu peux me proposer comme activité?"; ou,
-"Hey Assistant, Tommy voudrait regarder un dessin animé, que peux-tu lui proposer?"
dans lesquels «Hey Assistant» serait le mot-clé d’activation de l’APV.
En variante, le gestionnaire de dialogue peut se lancer automatiquement, de manière proactive, à la première utilisation du véhicule pour un long trajet (voire lors des premières utilisations sur de longs trajets. C’est alors l’assistant qui s’adresserait aux passagers, par exemple de la manière suivante, pour initier le dialogue:
-"Bonjour les enfants, je suis votre assistant personnel, voulez-vous jouer au jeu du «ni oui ni non»?"
Dans des exemples de mise en œuvre, l’utilisateur bénéficiaire du divertissement peut être identifiable et être identifié à partir de la requête vocale. Il en est ainsi, comme dans les deux exemples donnés plus haut concernant l’enfant Tommy, si l’enfant est nommé oralement dans la requête vocale. En variante, l’enfant bénéficiaire du divertissement à sélectionner peut être reconnu par identification vocale. Dans ce cas, un profil d’utilisateur avec sauvegarde de son empreinte vocale doit avoir été généré et sauvegardé. En variante, encore, l’utilisateur bénéficiaire du divertissement peut être identifié à partir de la localisation dans le véhicule du microphone ayant capté la requête vocale (sur la base par exemple d’un indice de confiance associé à la reconnaissance du mot-clé d’activation), lorsque l’IHM comprend un microphone agencé au niveau de chaque place assise dans le véhicule.
Le gestionnaire de dialogue décide ensuite des actions à réaliser en s’appuyant sur un arbre de dialogue, ou arbre de décision, préalablement défini lors de la construction de l’APV.
Le gestionnaire de dialogue valide les actions après analyse contextuelle de l’utérance et après communication avec son écosystème 15 qui historise les précédents dialogues, et/ou qui héberge une base de données externe, et/ou qui permet l’accès à des ressources distantes via des API tierces. Dans un mode de réalisation, la réponse à la requête, sous la forme d’une proposition de divertissements satisfaisant les critères de sélection à savoir l’âge et/ou les préférences de l’utilisateur bénéficiaire, est transmise directement par l’écosystème.
Le gestionnaire de dialogue 146 de l’APV est configuré pour assurer et gérer un dialogue entre l’utilisateur bénéficiaire du divertissement à sélectionner, d’une part, et l’APV, d’autre part. De préférence, ce dialogue comprend au moins une interaction vocale entre ledit utilisateur bénéficiaire et l’assistant. Il peut s’agir uniquement de la requête initiale (celle ayant débuté par le mot-clé d’activation de l’APV et ayant causé le lancement du gestionnaire de dialogue) et de la réponse que le gestionnaire de dialogue y apporte. Toutefois, si cette requête a été formulée par un adulte pour un enfant (Tommy, dans l’exemple donné plus haut), ou plus généralement par un utilisateur donné pour le compte d’un autre utilisateur qui est le bénéficiaire effectif du divertissement à sélectionner, alors le dialogue peut comprendre une autre interaction vocale entre l’assistant et ledit utilisateur bénéficiaire. Ainsi, la sélection est plus personnalisée encore. Cette interaction vocale est particulièrement adaptée pour le dialogue avec un enfant, étant donné que l’enfant peut ainsi exprimer sa (ou ses) requête(s) en langage naturel, alors que, compte tenu de son âge il ne maîtrise pas forcément les bases de l’utilisation d’une interface physique ou d’une interface tactile, et alors que les moyens d’une telle interface ne sont pas forcément accessibles depuis sa place dans le véhicule. Le fait que l’enfant soit associé à la sélection du divertissement qui va être exécuté pour lui participe à la résolution du problème technique en ce sens que cela contribue à son adhésion à l’activité qui lui est proposée, et est donc favorable au maintien de son attitude calme et détendue qui est le facteur de sécurité recherché par l’invention à travers la tranquillité du parent conducteur qui peut demeurer plus facilement concentré sur sa tâche de conduite.
Dans tous les cas, la conduite du dialogue avec l’utilisateur auquel le divertissement est destiné (utilisateur bénéficiaire) permet l’identification, par l’APV, sur la base des éléments de ce dialogue, d’un divertissement déterminé en vue de sa diffusion à l’utilisateur bénéficiaire. Avantageusement, cette sélection est opérée à partir d’un sous-groupe de divertissements parmi le groupe des divertissements disponibles, qui sont présélectionnés par l’intelligence artificielle en fonction de l’âge de l’utilisateur bénéficiaire d’une part, et/ou en fonction de préférences associées audit utilisateur bénéficiaire, d’autre part.
A cet effet, le gestionnaire de dialogue 146 peut s’appuyer sur des données décrivant la composition du groupe des utilisateurs potentiels 11 (figure 2), c’est-à-dire sur une structure de données 145 listant les utilisateurs en association, chacun, avec son âge respectif. D’autres informations peuvent être également associées à chaque utilisateur, par exemple le sexe (garçon ou fille), ou la langue maternelle.
En variante ou en complément, le gestionnaire de dialogue peut aussi s’appuyer sur des données représentatives des préférences des utilisateurs relativement aux divertissements, dans le cadre de la procédure de sélection d’un divertissement à sélectionner pour être exécuté à leur attention ou bénéfice. Ces données peuvent faire partie de profils d’utilisateur 147 stockés dans une mémoire non volatile de l’APV.
On notera que les structures de données 145 et 147 sont représentées à la figure 3 en liaison fonctionnelle avec le commutateur 149, mais que, comme il a été dit plus haut ce dernier forme un tout fonctionnel avec le gestionnaire de dialogue 146, en sorte que la liaison fonctionnelle doit être comprise comme s’appliquant audit gestionnaire de dialogue 146.
Dans des modes de mise en œuvre, la gestion, par le gestionnaire de dialogue 146, du dialogue entre l’utilisateur bénéficiaire du divertissement et l’APV tient compte de l’âge de l’utilisateur bénéficiaire du divertissement. Dit autrement, les utilisateurs comprenant des enfants, l’âge d’un enfant est pris en compte pour l’analyse d’une requête provenant dudit enfant, et pour sélectionner les activités proposées en réponse à la requête.
Par exemple, la transcription des requêtes par la fonction STT du module ASR peut être mise en œuvre sur la base d’un dictionnaire moins étendu pour des requêtes émanant d’un jeune enfant, que pour des requêtes émanant d’un adolescent, car de fait le vocabulaire d’un jeune enfant est plus restreint. La transcription peut ainsi être plus rapide et nécessiter moins de ressources de calcul. En variante u en complément, l’interprétation par le module NLU des transcriptions contenues dans le message texte peut être personnalisée en fonction de l’âge de l’enfant à l’origine de la requête. En effet, certaines analyses basées sur certains sens possibles de la transcription peuvent être écartées par l’annotateur de confiance, en raison de l’âge de l’enfant: soit parce qu’un sens possible d’un mot est très peu probable dans le vocabulaire habituel d’un enfant; soit parce que ce sens possible donnerait une analyse conduisant ensuite à proposer des divertissements inadaptés à l’âge de l’enfant.
De même, l’interprétation d’une requête peut être conduite de manières différentes, selon l’âge de l’enfant à l’origine d’une requête, ou au bénéfice duquel la requête a été formulée. Par exemple, il n’est en principe pas nécessaire que l’intelligence artificielle 149 cherche à savoir si un enfant de moins de trois ans demande l’affichage des sous-titres pour un dessin animé qui soient dans une autre langue, car un enfant de moins de trois ans ne sait généralement pas lire. On peut aussi gagner en rapidité de cette façon, et économiser des ressources de calcul.
La plateforme 14 comprend en outre un module 148 de génération automatique de textes (ou module NLG, mis pour «Natural Language Generation» en anglais) qui permet de produire la réponse sous forme d’un discours comparable à celui d’un être humain, à partir d’un ensemble de données caractérisant la réponse à la requête de l’utilisateur. Le module 148 est adapté pour générer des messages textuels (ou messages textes).
Finalement, la plateforme comprend un module 142 de synthèse vocale ou TTS (de l’anglais «Text-To-Speech») qui est configuré pour assurer la fonction de transformation des messages textes produits par le module 148 en flux audio, laquelle est représentée à la figure 2 sous la même référence 142. Ce module 142 génère un signal audio, qui est audible par l’utilisateur lorsqu’il est restitué par les moyens de sortie 13 de l’IHM.
Dans des modes de réalisation, le dialogue entre l’utilisateur bénéficiaire du divertissement et l’assistant personnel virtuel peut comprendre, en outre, au moins une interaction virtuelle/graphique entre l’un et l’autre, via l’interface homme-machine, en plus de l’interaction vocale mentionnée plus haut. Par exemple, une sélection de divertissements suggérés peut être affichée sur un écran 132 de l’interface de sortie 13 de l’APV. Cet affichage permet de compléter et d’enrichir le dialogue, aidant l’utilisateur à prendre sa décision quant au divertissement à sélectionner. Par exemple, quelques images d’un dessin animé proposé peuvent être affichées, ou la bande-annonce d’un film ou un court extrait d’un morceau de musique peuvent être joués. Si l’interface homme-machine comprend un écran tactile, comme l’écran 131 représenté à la figure 3, le dialogue entre l’utilisateur et l’assistant peut inclure un appui tactile par l’utilisateur sur l’écran pour interagir avec l’assistant dans le cadre du dialogue.
Dit autrement, en plus ou à la place d’un signal audio, les réponses de l’APV peuvent être complétées par ou bien consister en, respectivement, des illustrations graphiques sous une forme visible par l’utilisateur participant au dialogue. Ces illustrations graphiques peuvent prendre la forme, par exemple d’images fixes ou animées qui sont affichées sur un écran de l’IHM, comme l’écran 132 de la figure 3.
Lesfigures 4a-4bdonnent des exemples de telles illustrations graphiques (volontairement floutées, afin de masquer les éléments potentiellement soumis aux droits d’auteur) qui peuvent être affichée sur l’écran 132. Plus particulièrement:
-la figure 4a est une copie d’écran montrant une proposition d’activités pour un jeune enfant, en l’occurrence la page d’accueil d’un jeu de quizz;
-la figure 4b est une copie d’écran montrant une sélection de dessins animés;
-la figure 4c est une autre copie d’écran montrant une sélection de jeux vidéo; et,
-la figure 4d est encore une autre copie d’écran montrant une sélection de chansons.
Le tableau de lafigure 5montre, conformément à un exemple non limitatif, l’association entre l’âge des enfants et des catégories de divertissement disponibles qui sont susceptibles de leur être proposés, en fonction de leur âge. Dans l’exemple illustré par ce tableau, il est prévu quatre catégories d’activités en fonction de l’âge des utilisateurs auxquelles ces activités sont destinées:
-des enfants de moins de trois ans;
-des enfants ayant un âge compris entre trois ans et sept ans:
-des enfants ayant un âge compris entre sept ans et onze ans; et, enfin,
-des enfants ayant un âge compris entre onze ans et seize ans.
Comme on peut le lire dans le tableau de la figure 5, des divertissements de type berceuses/comptines ne sont proposées qu’aux enfants dont l’âge est inférieur à trois ans. Inversement, des divertissements de type jeux éducatifs ne sont proposées qu’aux enfants de plus de trois ans. Des divertissements de type activités scolaires ne sont proposées qu’aux enfants dont l’âge est compris entre trois ans et onze ans. Des divertissements de type jeux vidéo ne sont proposés qu’aux enfants ayant au moins sept ans. Finalement, des divertissements de type dessins animés, jeux de langages, quizz ou devinettes sont proposés à tous les enfants, quelque que soit leur âge. Bien entendu, toutefois, les divertissements dont le type appartient à plus d’une catégorie particulière d’enfants, définie comme dans les exemples ci-dessus en fonction de l’âge des enfants bénéficiaires, peuvent être proposés chacun spécifiquement à des enfants d’une tranche d’âge spécifique. Par exemple, il peut y avoir des dessins animés très simplistes spécifiquement pour les enfants de moins de trois ans, et d’autres plus sophistiqués voire avec du contenu qui ne convient pas à certains publics (par exemple car ils nécessitent un visa d’exploitation administratif en vertu de la règlementation applicable, le cas échéant) qui sont réservés à des enfants ayant plus de seize ans.
Les préférences associées aux utilisateurs sont rendues disponibles à l’intelligence artificielle du module 149 gestionnaire de dialogue, par configuration de profils 147 respectivement associés aux utilisateurs et accessibles par l’intelligence artificielle. Ces profils 147 sont stockés, par exemple, dans une mémoire non volatile de l’APV. La configuration des profils 147 des utilisateurs peut être faite par les parents pour les enfants si ces derniers sont trop petits pour le faire par eux-mêmes. En variante, la configuration peut aussi être réalisée par les enfants eux-mêmes s’ils sont assez grands pour cela, éventuellement avec l’aide et/ou sous la supervision d’un de leurs parents.
Dans un mode de réalisation, tout ou partie des préférences associées aux utilisateurs et stockées dans la structure de données 147 peuvent être apprises par l’intelligence artificielle au fil de l’usage de l’assistant personnel virtuel par lesdits utilisateurs.
Le tableau de lafigure 6est un tableau illustrant l’association entre des préférences d’utilisateur et des utilisateurs enregistrés dans l’APV, par exemple les enfants d’une famille, auxquels des divertissements disponibles sont susceptibles de leur être proposés, en fonction d’un paramétrage par l’enfant concerné ou par un parent, et/ou en fonction d’un apprentissage par l’APV.
L’homme du métier appréciera que le tableau de la figure 5 et celui de la figure 6 peuvent être implémentés sous la forme d’une structure de données adaptée, stockée de manière permanente dans une mémoire de l’APV, par exemple une mémoire embarquée dans le véhicule automobile.
En résumé, les modes de mise en œuvre de l’invention qui ont été présentés dans ce qui précède permettent de mettre à disposition de l’assistant personnel un gestionnaire de dialogue («dialog manager») spécifique et adapté à un échange interactif, ludique et pédagogique avec un ou des enfants de tous âges, et ce de manière proactive, afin de lui ou leur présenter vocalement (avec possiblement des éléments graphiques corroborant l’explication vocale) des moyens de se divertir et de s’occuper calmement, à la place, durant le trajet en voiture.
L’assistant personnel peut alterner les jeux collectifs et des activités solitaires. Dans la première catégorie, des chansons, des histoires ou comptines, des jeux de langage (le «ni oui ni non», jeux de rime, devinettes) sont toujours appréciés. Dans la seconde, cela pourra être des jeux électroniques, le visionnage d’un dessin animé sur un écran à l’arrière du véhicule ou l’écoute de musique à la place.
En fonction des signes observables par une caméra intérieure et/ou des capteurs, l’assistant personnel peut également adapter l’activité proposée afin, soit d’aider l’enfant à s’endormir en cas de fatigue observée, soit de canaliser son impatience en cas d’agitation excessive…
De manière avantageuse, ces dispositions contribuent à mieux seconder le conducteur ainsi qu’à lui permettre de rester concentré sur son activité de conduite, et améliorent ainsi la sécurité.
La présente invention a été décrite et illustrée dans la présente description détaillée et dans les figures des dessins annexés, dans des formes de réalisation possibles. La présente invention ne se limite pas, toutefois, aux formes de réalisation présentées. D’autres variantes et modes de réalisation peuvent être déduits et mis en œuvre par la personne du métier à la lecture de la présente description et des dessins annexés.
Dans les revendications, le terme "comprendre" ou "comporter" n’exclut pas d’autres éléments ou d’autres étapes. Un seul processeur ou plusieurs autres unités peuvent être utilisées pour mettre en œuvre l’invention. Les différentes caractéristiques présentées et/ou revendiquées peuvent être avantageusement combinées. Leur présence dans la description ou dans des revendications dépendantes différentes, n’excluent pas cette possibilité. Les signes de référence ne sauraient être compris comme limitant la portée de l’invention.

Claims (10)

  1. Procédé de sélection d’un divertissement parmi un groupe de divertissements disponibles qui sont adaptés pour divertir des utilisateurs (11) à bord d’un véhicule automobile (101), au moyen d’un assistant personnel virtuel (104) à commande vocale doté d’une intelligence artificielle, ledit procédé comprenant:
    -le lancement d’un gestionnaire de dialogue (146) de l’assistant configuré pour dialoguer avec un utilisateur bénéficiaire du divertissement à sélectionner;
    -un dialogue, géré par le gestionnaire de dialogue de l’assistant, entre l’utilisateur bénéficiaire du divertissement et l’assistant, qui comprend au moins une interaction vocale entre ledit utilisateur bénéficiaire et l’assistant; et,
    -l’identification, sur la base du dialogue entre l’utilisateur bénéficiaire du divertissement et l’assistant, d’un divertissement déterminé en vue de sa diffusion à l’utilisateur bénéficiaire, à partir d’un sous-groupe de divertissements qui sont présélectionnés par l’intelligence artificielle dans le groupe de divertissements disponibles en fonction de l’âge de l’utilisateur bénéficiaire (145) d’une part, et/ou en fonction de préférences (147) associées audit utilisateur bénéficiaire, d’autre part.
  2. Procédé selon la revendication 1, dans lequel le dialogue entre l’utilisateur bénéficiaire du divertissement et l’assistant personnel virtuel comprend en outre au moins une interaction virtuelle/graphique (132) entre l’utilisateur bénéficiaire et l’assistant personnel virtuel.
  3. Procédé selon la revendication 1, dans lequel le gestionnaire de dialogue est lancé en réponse à une requête vocale de l’utilisateur bénéficiaire du divertissement ou d’un autre utilisateur à bord du véhicule.
  4. Procédé selon la revendication 2, dans lequel l’utilisateur bénéficiaire du divertissement est identifiable et identifié à partir de la requête vocale.
  5. Procédé selon l’une quelconque des revendications 1 à 4, dans lequel la gestion, par le gestionnaire de dialogue, du dialogue entre l’utilisateur bénéficiaire du divertissement et l’assistant tient compte de l’âge de l’utilisateur bénéficiaire du divertissement à sélectionner.
  6. Procédé selon l’une quelconque des revendications 1 à 5, dans lequel des préférences associées aux utilisateurs sont rendues disponibles à l’intelligence artificielle par configuration de profils (147) respectivement associés aux utilisateurs et accessibles par l’intelligence artificielle.
  7. Procédé selon l’une quelconque des revendications 1 à 5, dans lequel des préférences associées aux utilisateurs sont apprises par l’intelligence artificielle au fil de l’usage de l’assistant personnel virtuel par lesdits utilisateurs.
  8. Dispositif (101) pour véhicule automobile configuré pour mettre en œuvre toutes les étapes d’un procédé selon l’une quelconque des revendications 1 à 7.
  9. Véhicule automobile comprenant un dispositif selon la revendication8.
  10. Produit programme d'ordinateur comprenant une ou plusieurs séquences d'instructions stockées sur un support de mémoire lisible par une machine comprenant un processeur, lesdites séquences d'instructions étant adaptées pour réaliser toutes les étapes du procédé selon l’une quelconque des revendications 1 à 7 lorsque le programme est lu dans le support de mémoire et exécuté par le processeur.
FR2000059A 2020-01-06 2020-01-06 Procédé et dispositif de sélection de divertissements par un assistant personnel virtuel embarqué dans un véhicule automobile, et véhicule automobile l’incorporant Withdrawn FR3106009A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2000059A FR3106009A1 (fr) 2020-01-06 2020-01-06 Procédé et dispositif de sélection de divertissements par un assistant personnel virtuel embarqué dans un véhicule automobile, et véhicule automobile l’incorporant

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2000059 2020-01-06
FR2000059A FR3106009A1 (fr) 2020-01-06 2020-01-06 Procédé et dispositif de sélection de divertissements par un assistant personnel virtuel embarqué dans un véhicule automobile, et véhicule automobile l’incorporant

Publications (1)

Publication Number Publication Date
FR3106009A1 true FR3106009A1 (fr) 2021-07-09

Family

ID=70614024

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2000059A Withdrawn FR3106009A1 (fr) 2020-01-06 2020-01-06 Procédé et dispositif de sélection de divertissements par un assistant personnel virtuel embarqué dans un véhicule automobile, et véhicule automobile l’incorporant

Country Status (1)

Country Link
FR (1) FR3106009A1 (fr)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN201254147Y (zh) 2008-07-22 2009-06-10 深圳市北科瑞声科技有限公司 应用于汽车电子通讯和多媒体娱乐的人机交互系统
US20150169284A1 (en) * 2013-12-16 2015-06-18 Nuance Communications, Inc. Systems and methods for providing a virtual assistant
CN105416208A (zh) 2015-12-08 2016-03-23 延锋伟世通电子科技(上海)有限公司 车载语音识别电子娱乐控制系统
DE202017105366U1 (de) 2016-10-03 2017-11-20 Google Inc. Personalisierung eines virtuellen Assistenten

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN201254147Y (zh) 2008-07-22 2009-06-10 深圳市北科瑞声科技有限公司 应用于汽车电子通讯和多媒体娱乐的人机交互系统
US20150169284A1 (en) * 2013-12-16 2015-06-18 Nuance Communications, Inc. Systems and methods for providing a virtual assistant
CN105416208A (zh) 2015-12-08 2016-03-23 延锋伟世通电子科技(上海)有限公司 车载语音识别电子娱乐控制系统
DE202017105366U1 (de) 2016-10-03 2017-11-20 Google Inc. Personalisierung eines virtuellen Assistenten

Similar Documents

Publication Publication Date Title
CN107870977B (zh) 基于用户状态形成聊天机器人输出的方法、系统和介质
JP7322076B2 (ja) 自動アシスタントを起動させるための動的および/またはコンテキスト固有のホットワード
CA2925930C (fr) Procede de dialogue entre une machine, telle qu'un robot humanoide, et un interlocuteur humain, produit programme d'ordinateur et robot humanoide pour la mise en oeuvre d'un tel procede
WO2017057170A1 (fr) Dispositif d'interaction et procédé d'interaction
US11302325B2 (en) Automatic dialogue design
CA2602633C (fr) Dispositif pour la communication par des personnes handicapees de la parole et/ou de l'ouie
EP2834811A1 (fr) Robot apte a integrer des dialogues naturels avec un utilisateur dans ses comportements, procedes de programmation et d'utilisation dudit robot
JP6904361B2 (ja) 情報処理装置、及び情報処理方法
CN110696756A (zh) 一种车辆的音量控制方法及装置、汽车、存储介质
CN113409778A (zh) 语音交互方法、系统和终端
FR2923928A1 (fr) Systeme d'interpretation simultanee automatique.
TW201909166A (zh) 主動聊天裝置
JP2019061098A (ja) 対話装置、サーバ装置、対話方法及びプログラム
CN112492400B (zh) 互动方法、装置、设备以及通信方法、拍摄方法
FR3106009A1 (fr) Procédé et dispositif de sélection de divertissements par un assistant personnel virtuel embarqué dans un véhicule automobile, et véhicule automobile l’incorporant
CN111861666A (zh) 车辆信息的交互方法及装置
CN113287117A (zh) 交互系统和方法
CN116991992A (zh) 交互方法、装置和设备
CN114005447A (zh) 一种语音对话交互方法、装置、车辆及介质
FR2899097A1 (fr) Systeme d'aide pour personne malentendante
WO2021064947A1 (fr) Procédé d'interaction, système d'interaction, dispositif d'interaction et programme
EP4062401B1 (fr) Dispositif pour mettre en oeuvre un assistant personnel virtuel dans un véhicule automobile avec contrôle par la voix d'un utilisateur, et véhicule automobile l'incorporant
FR3105499A1 (fr) Procédé et dispositif d’animation visuelle d’une interface de commande vocale d’un assistant personnel virtuel embarqué dans un véhicule automobile, et véhicule automobile l’incorporant
FR3102287A1 (fr) Procédé et dispositif de mise en œuvre d’un assistant personnel virtuel dans un véhicule automobile avec utilisation d’un dispositif connecté
FR3100206A1 (fr) Dispositif pour mettre en œuvre un assistant personnel virtuel dans un véhicule automobile avec contrôle par la voix d’un utilisateur, et véhicule automobile l’incorporant

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20210709

ST Notification of lapse

Effective date: 20220905