CH719303A2 - Procédé et système pour maintenir un premier utilisateur et un second utilisateur continuellement informés de leurs états émotionnels respectifs. - Google Patents

Procédé et système pour maintenir un premier utilisateur et un second utilisateur continuellement informés de leurs états émotionnels respectifs. Download PDF

Info

Publication number
CH719303A2
CH719303A2 CH070776/2021A CH0707762021A CH719303A2 CH 719303 A2 CH719303 A2 CH 719303A2 CH 070776/2021 A CH070776/2021 A CH 070776/2021A CH 0707762021 A CH0707762021 A CH 0707762021A CH 719303 A2 CH719303 A2 CH 719303A2
Authority
CH
Switzerland
Prior art keywords
user
connected watch
watch
emotional
region
Prior art date
Application number
CH070776/2021A
Other languages
English (en)
Inventor
Rossi Andrea
Franzi Edoardo
Koller Jean-Marc
Salame Selim
Verdon Yann
Original Assignee
Swatch Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Swatch Ag filed Critical Swatch Ag
Priority to CH070776/2021A priority Critical patent/CH719303A2/fr
Publication of CH719303A2 publication Critical patent/CH719303A2/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/724094Interfacing with a device worn on the user's body to provide access to telephonic functionalities, e.g. accepting a call, reading or composing a message
    • H04M1/724095Worn on the wrist, hand or arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/681Wristwatch-type devices
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/04Input or output devices integrated in time-pieces using radio waves
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G9/00Visual time or date indication means
    • G04G9/0064Visual time or date indication means in which functions not related to time can be displayed
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G99/00Subject matter not provided for in other groups of this subclass
    • G04G99/006Electronic time-pieces using a microcomputer, e.g. for multi-function clocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/20Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel
    • H04W4/21Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel for social networking applications
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/04Constructional details of apparatus
    • A61B2560/0462Apparatus with built-in sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72436User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. short messaging services [SMS] or e-mails

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Psychiatry (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Telephonic Communication Services (AREA)

Abstract

L'invention concerne un procédé pour maintenir un premier utilisateur et un second utilisateur continuellement informés de l'état émotionnel de chacun d'eux, le procédé comprenant les étapes suivantes : – l'appariement d'une première montre connectée (2a) du premier utilisateur avec une seconde montre connectée (2b) du second utilisateur ; – la réception par la seconde montre connectée (2b), d'une notification émotionnelle comprenant une représentation graphique relative à un état émotionnel du premier utilisateur ; et – l'affichage de la représentation graphique sur une première région d'un cadran de la seconde montre connectée (2b), et l'indication d'une heure actuelle dans une seconde région du cadran, dans lequel la première région occupe une zone d'affichage d'un affichage de la seconde montre connectée (2b).

Description

Domaine
[0001] Des modes de réalisation de la présente divulgation concernent un procédé pour maintenir un premier utilisateur et un second utilisateur continuellement informés de leurs états émotionnels respectifs par l'intermédiaire d'un affichage de leur montre connectée, et un système pour maintenir un premier utilisateur et un second utilisateur continuellement informés de leurs états émotionnels respectifs, mettant en oeuvre un tel procédé.
Contexte
[0002] Grâce aux progrès techniques, les montres connectées sont devenues plus fonctionnelles. Des exemples de telles fonctions sont notamment des communications de données et vocales, la capture d'images et de vidéo via une caméra, l'enregistrement audio, la lecture de fichiers de musique via un système de haut-parleur, et l'affichage d'images et de vidéo sur un affichage.
[0003] Ces montres connectées permettent ainsi à leurs utilisateurs de recevoir différents types d'alertes, comme des appels téléphoniques, des mises à jour de réseaux sociaux, des e-mails, des messages texte, et autres. En général, l'utilisateur est avisé d'un événement par l'intermédiaire d'un avertissement (comme des effets sonores et des vibrations par le dispositif mobile), et les avertissements peuvent être identifiés en fonction des réglages prédéfinis de la montre ou prédéfinis par l'utilisateur. Par exemple, l'utilisateur peut sélectionner un type d'alerte pour identifier la réception d'un message texte et un autre type d'alerte pour identifier la réception de l'e-mail.
Résumé
[0004] Dans ce contexte, des modes de réalisation de la présente divulgation proposent une alternative aux technologies existantes illustrées par les différents usages effectués de ces montres.
[0005] A cet effet, des modes de réalisation de la présente divulgation incluent un procédé pour maintenir un premier utilisateur et un second utilisateur continuellement informés de l'état émotionnel de chacun d'eux, le procédé comprenant les étapes suivantes : – l'appariement, d'une première montre connectée du premier utilisateur à une seconde montre connectée du second utilisateur ; – la réception, par la seconde montre connectée, d'une notification émotionnelle comprenant une représentation graphique relative à un état émotionnel du premier utilisateur ; et – l'affichage de la représentation graphique sur une première région d'un cadran de la seconde montre connectée, et l'indication d'une heure actuelle dans une seconde région du cadran, dans lequel la première région occupe une zone d'affichage d'un affichage de la seconde montre connectée.
[0006] Dans d'autres modes de réalisation de la présente divulgation : – l'étape d'appariement comprend une sous-étape d'interaction entre un premier dispositif mobile du premier utilisateur et un second dispositif mobile du second utilisateur qui sont respectivement connectés à la première montre connectée et la seconde montre connectée ; – l'étape d'appariement comprend une sous-étape d'interaction entre la première montre connectée et la seconde montre connectée ; – la sous-étape d'interaction comprend une phase d'échange d'identifiants d'appariement entre la première montre connectée et la seconde montre connectée après la détection d'un choc entre la première montre connectée et la seconde montre connectée ; – la sous-étape d'interaction comprend en outre une phase d'autorisation à la première montre connectée et à la seconde montre connectée d'échanger des notifications émotionnelles l'une avec l'autre, la phase d'autorisation comprenant une sous-phase de transmission d'une demande d'association des identifiants d'appariement l'un à l'autre; – l'étape d'affichage comprend une sous-étape de positionnement dynamique de la représentation graphique dans la première région par rapport à au moins un objet graphique compris dans le cadran ; – l'étape de réception comprend une sous-étape de conception de cette notification émotionnelle reçue incluant une phase de génération manuelle de cette notification émotionnelle ; – l'étape de réception comprend une sous-étape de conception de cette notification émotionnelle reçue incluant une phase de génération automatique de la notification émotionnelle.
[0007] Des modes de réalisation de la présente divulgation incluent un système pour maintenir un premier utilisateur et un second utilisateur continuellement informés de l'état émotionnel de chacun d'eux, le système comprenant : une première montre connectée du premier utilisateur, la première montre connectée étant configurée pour : – s'apparier avec une seconde montre connectée du second utilisateur ; – recevoir, depuis la seconde montre connectée, une notification émotionnelle comprenant une représentation graphique relative à un état émotionnel du second utilisateur ; et – afficher la représentation graphique sur une première région d'un cadran de la première montre connectée, et indiquer une heure actuelle dans une seconde région du cadran, dans lequel la première région occupe une zone d'affichage d'un affichage de la première montre connectée ; et un premier dispositif mobile du premier utilisateur qui est configuré pour être connecté à la première montre connectée et à un serveur, le premier dispositif mobile étant configuré pour transmettre des données entre la première montre connectée et la seconde montre connectée via le serveur.
[0008] Des modes de réalisation de la présente divulgation incluent un support non transitoire lisible par ordinateur stockant des instructions d'ordinateur qui sont configurées pour amener au moins un processeur d'une première montre connectée d'un premier utilisateur à : – s'apparier avec une seconde montre connectée d'un second utilisateur ; – recevoir, depuis la seconde montre connectée via un premier dispositif mobile du premier utilisateur qui est connecté à un serveur, une notification émotionnelle comprenant une représentation graphique relative à un état émotionnel du second utilisateur ; et – afficher la représentation graphique sur une première région d'un cadran de la première montre connectée, et indiquer une heure actuelle dans une seconde région du cadran, dans lequel la première région occupe une zone d'affichage d'un affichage de la première montre connectée.
Brève description des dessins
[0009] Des modes de réalisation exemplaires non limitatifs de la présente divulgation vont être décrits en détail ci-après en référence aux dessins annexés sur lesquels : – la figure 1 est un schéma illustrant un système pour maintenir un premier utilisateur et un second utilisateur continuellement informés de leurs états émotionnels respectifs par l'intermédiaire de l'affichage de leur montre connectée, selon un mode de réalisation de la présente divulgation ; et – la figure 2 est un organigramme relatif à un procédé pour maintenir le premier utilisateur et le second utilisateur continuellement informés de leurs états émotionnels respectifs, selon le mode de réalisation de la présente divulgation.
Description détaillée
[0010] En référence aux figures 1 et 2, il est décrit un système 1 et un procédé pour maintenir un premier utilisateur et un second utilisateur continuellement informés de leurs états émotionnels respectifs par l'intermédiaire de l'affichage de leur montre connectée 2a, 2b. Ce système 1 et ce procédé permettent aux premier et second utilisateurs de se tenir au courant de leurs états émotionnels respectifs en regardant simplement l'affichage de leur montre connectée 2a, 2b sans avoir à effectuer d'autres actions.
[0011] En référence à la figure 1, le système 1 comprend la montre connectée du premier utilisateur 2a et la montre connectée du second utilisateur 2b ainsi qu'un environnement de communication 5 pour la transmission de données entre la montre connectée du premier utilisateur 2a et la montre connectée du second utilisateur 2b.
[0012] Dans ce système 1, la montre connectée du premier utilisateur 2a est associée au premier utilisateur et la montre connectée du second utilisateur 2b est associée au second utilisateur, la montre connectée de chaque utilisateur 2a, 2b inclut un corps comme une boîte de montre, et un élément d'attache comme un bracelet pour fixer ce corps, par exemple au poignet du premier utilisateur ou du second utilisateur. Plus spécifiquement, la montre connectée de chaque utilisateur 2a, 2b comprend de manière non limitative et/ou non exhaustive : – une unité de traitement 10a, 10b (à laquelle il est également fait référence en tant que „dispositif de commande“) incluant des ressources matérielles et logicielles, en particulier au moins un processeur coopérant avec des éléments de mémoire ; – une interface de diffusion 11a, 11b d'un élément visuel d'information comme un affichage numérique ; – une interface de diffusion d'un élément audio d'information comme un haut-parleur ; – une interface de communication sans fil (par exemple cellulaire, WLAN, Bluetooth, etc.) ; – une interface d'entrée 12a, 12b comme une interface tactile comprise, par exemple, dans l'interface de diffusion d'un élément visuel d'information ; – un capteur de choc 13a, 13b comprenant un capteur d'accélération et/ou un capteur magnétique et/ou un capteur G et/ou un capteur gyroscopique et/ou un capteur de mouvement ; – un microphone ; et – un capteur d'informations biologiques 14a, 14b mesurant les informations biologiques du porteur.
[0013] Dans chaque montre connectée 2a, 2b, l'unité de traitement 10a, 10b est connectée, entre autres, aux interfaces de diffusion d'éléments visuels et sonores d'information, à l'interface d'entrée, au microphone ainsi qu'à l'interface de communication sans fil et au capteur d'informations biologiques 14a, 14b. Selon des modes de réalisation, le capteur d'informations biologiques 14a, 14b peut être agencé au fond de boîte de la montre connectée 2a, 2b et/ou dans l'élément d'attache.
[0014] Comme cela a été précédemment spécifié, le capteur d'informations biologiques mesure les informations biologiques du porteur. Ces informations biologiques portent principalement sur divers facteurs émotionnels liés à des caractéristiques comportementales et physiologiques du porteur. Dans ce contexte, les informations biologiques comprennent plusieurs catégories de facteurs émotionnels énumérés ci-après de manière non limitative et non exhaustive : respiration, quantité de transpiration, pouls, haleine, clignement, mouvement de globe oculaire, durée de regard, diamètre de pupille, pression artérielle, ondes cérébrales, mouvement de corps, posture, température de la peau, réponse galvanique de la peau (GSR), micro-vibration (MV), électromyographie (EMG), et saturation du sang en oxygène (SPO2). Ces catégories de facteurs émotionnels peuvent être mesurées par des unités de mesure cardiographique, des unités de mesure d'EMG, des unités de mesure de tension électrique de la tête, des analyses d'intensité d'image infrarouge, des capteurs de pression, des capteurs de température ou des capteurs de transpiration. Selon des modes de réalisation, le capteur d'informations biologiques 14a, 14b est configuré pour être supporté par le porteur à un emplacement lui permettant de détecter ce facteur émotionnel, par exemple le pouls du porteur, ou pour être porté par le porteur à un emplacement auquel il est en contact avec la peau du porteur et auquel il peut mesurer des paramètres comme la résistance.
[0015] Dans ce système 1, l'environnement de communication 5 comprend un dispositif mobile du premier utilisateur 3a et un dispositif mobile du second utilisateur 3b ainsi qu'un serveur 4. Cet environnement de communication 5 comprend également une architecture de réseau sans fil ou filaire connectant les dispositifs mobiles 3a, 3b, les montres connectées 2a, 2b et le serveur 4 les uns aux autres.
[0016] Dans ce système 1, le serveur 4 (par exemple un serveur distant) inclut une base de données. Ce serveur 4 comprend également une unité de commande (par exemple un dispositif de commande) et une unité de communication (par exemple un communicateur). Dans ce serveur 4, l'unité de commande inclut des ressources matérielles et logicielles, en particulier au moins un processeur coopérant avec des composants de mémoire. Cette unité de commande est capable d'exécuter des instructions pour la mise en oeuvre d'un programme d'ordinateur pour, par exemple : – gérer une base de données de serveur 4, traiter les interrogations/instructions/données provenant/envoyées des/aux dispositifs mobiles 3a, 3b, en particulier des/aux unités de traitement 6a, 6b de ceux-ci ; – mettre en oeuvre des procédures d'appariement entre au moins deux montres connectées 2a, 2b ; – gérer les échanges de notifications émotionnelles 16 entre au moins deux montres connectées 2a, 2b.
[0017] De plus, le dispositif mobile du premier utilisateur 3a est associé au premier utilisateur et le dispositif mobile du second utilisateur 3b est associé à un second utilisateur. Le dispositif mobile de chaque utilisateur 3a, 3b peut comprendre, par exemple : un ordinateur, un smartphone ou une tablette. Chaque dispositif mobile 3a, 3b inclut, de manière non limitative et/ou non exhaustive : – l'unité de traitement 6a, 6b (à laquelle il est également fait référence en tant que „dispositif de commande“) incluant des ressources matérielles et logicielles, en particulier au moins un processeur coopérant avec des éléments de mémoire ; – un module d'affichage 7a, 7b comme un écran d'affichage d'une représentation visuelle de données d'information ; – une interface de transmission d'informations audio, comme un haut-parleur ; – une interface de communication permettant à chaque dispositif mobile 3a, 3b d'établir une connexion de communication avec le serveur 4 ou avec chaque montre connectée 2a, 2b ; – une interface de sélection 8a, 8b comme un clavier ou une interface tactile ; et – au moins un module de capture de flux audio comprenant au moins un microphone ; – un module de capture/acquisition 9a, 9b d'au moins une image, en particulier comprenant au moins un capteur d'image.
[0018] Dans chaque dispositif mobile 3a, 3b, l'unité de traitement 6a, 6b est connectée, entre autres, à l'interface de diffusion, à l'interface de communication, au module d'acquisition, et à l'interface de sélection. L'interface de communication de chaque dispositif mobile 3a, 3b comprend des éléments de communication pour la réception et la transmission de données à distance via le réseau de téléphonie cellulaire, un réseau de données du type IP via un réseau de téléphonie, ou un réseau de données du type IP via un réseau de moyenne portée, par exemple WI-FI ou un réseau de courte portée mettant en oeuvre la technologie Bluetooth.
[0019] De plus, cette unité de traitement 6a, 6b est connectée, entre autres, au module d'affichage, à l'interface de transmission, à l'interface de communication, et à l'interface de sélection. Cette unité de traitement 6a, 6b est capable en particulier d'exécuter des instructions pour mettre en oeuvre les instructions de programme d'ordinateur pour traiter, par exemple, les interrogations/instructions/données qui sont reçues/envoyées : – depuis le/au serveur 4, en particulier depuis/à l'unité de commande de celui-ci, et/ou – depuis/à l'unité de traitement 10a, 10b de la montre connectée du premier ou second utilisateur 2a, 2b.
[0020] De plus, l'unité de traitement 6a, 6b de chaque dispositif mobile 3a, 3b est capable d'exécuter un programme d'ordinateur également appelé application ou app. Plus précisément, dans ce contexte, l'application est une „application d'état émotionnel“. Cette application, lorsque l'unité de traitement 6a, 6b l'exécute, est capable de participer à la mise en oeuvre d'une partie des étapes du procédé décrit ci-après.
[0021] En référence à la figure 2, le système 1 est capable de mettre en oeuvre le procédé pour maintenir un premier utilisateur et un second utilisateur continuellement informés de leurs états émotionnels respectifs par l'intermédiaire de l'affichage de leur montre connectée 2a, 2b.
[0022] Un tel procédé commence par une étape d'établissement 100 d'une connexion avec l'environnement de communication 5. A cet effet, cette étape inclut une sous-étape de connexion 101 de la montre connectée du premier utilisateur 2a et de la montre connectée du second utilisateur 2b respectivement au dispositif mobile du premier utilisateur 3a et au dispositif mobile du second utilisateur 3b. Dans cette sous-étape 101, les unités de traitement 10a, 10b, 6a, 6b de chaque montre connectée 2a, 2b et de chaque dispositif mobile 3a, 3b se connectent l'une à l'autre au moyen de leur interface de communication, de préférence par l'utilisation du protocole Bluetooth™.
[0023] Une fois cette connexion établie, l'application d'état émotionnel est active sur chaque dispositif mobile 3a, 3b et est capable d'échanger des données avec l'unité de traitement 10a, 10b de chaque montre connectée 2a, 2b ainsi qu'avec le serveur 4. En d'autres termes, l'application est active dès que l'unité de traitement 6a, 6b de chaque dispositif mobile 3a, 3b détecte que la connexion est établie entre chaque montre connectée 2a, 2b et chaque dispositif mobile 3a, 3b correspondant.
[0024] Cette étape d'établissement 100 d'une connexion a pour but de permettre à la montre connectée du premier utilisateur 2a et à la montre connectée du second utilisateur 2b d'échanger des données dans l'environnement de communication 5 en particulier avec le serveur 4 lorsqu'elles ne sont pas appariées l'une avec l'autre.
[0025] Le procédé comprend ensuite une étape d'appariement 102 de la montre connectée du premier utilisateur 2a avec la montre connectée du second utilisateur 2b. Cette étape 102 contribue à créer une liaison de communication entre ces montres connectées 2a, 2b afin de leur permettre d'échanger des données (par exemple des messages émotionnels) dans l'environnement de communication 5. L'étape 102 peut être fournie par au moins deux modes de réalisation de l'appariement entre les montres.
[0026] Dans un premier mode de réalisation, cette étape 102 comprend une sous-étape d'interaction 103 entre le dispositif mobile du premier utilisateur 3a et le dispositif mobile du second utilisateur 3b. Cette sous-étape 103 inclut une phase d'affichage 104 d'une représentation graphique comprenant un code matriciel sur l'affichage du dispositif mobile du premier utilisateur 3a. Ce code matriciel peut être un code-barres dans deux ou trois dimensions. Ce code matriciel peut par exemple comprendre un code QR ou un code matriciel de données. Ce code matriciel comprend des séquences d'informations binaires qui sont codées/chiffrées. Dans cette représentation graphique, le code matriciel comprend des séquences d'informations binaires incluant des données relatives à la montre connectée du premier utilisateur 2a, plus spécifiquement un identifiant d'appariement de premier utilisateur. La sous-étape 103 comprend ensuite une phase de numérisation 105 par le dispositif mobile du second utilisateur 3b de la représentation graphique comprenant le code matriciel. Au cours de cette phase 105, cette représentation graphique est acquise dès que le dispositif mobile du second utilisateur 3b est agencé à proximité du dispositif mobile du premier utilisateur 3a de sorte que son module de capture 9b soit disposé face à cette représentation graphique. Cette sous-étape 103 inclut ensuite une phase de décodage 106 du code matriciel de manière à obtenir des séquences d'informations binaires comprenant des données relatives à l'identifiant d'appariement de premier utilisateur pour mettre en oeuvre l'appariement.
[0027] Ensuite, la sous-étape 103 inclut une phase d'autorisation 107 à la montre connectée du premier utilisateur 2a et à la montre connectée du second utilisateur 2b d'échanger des messages émotionnels l'une avec l'autre. Cette phase 107 inclut une sous-phase d'association 108 de l'identifiant d'appariement de premier utilisateur à l'identifiant d'appariement de second utilisateur. Au cours de cette sous-phase 108, l'unité de traitement 10b du dispositif mobile du second utilisateur 3b exécutant l'application transmet, au serveur 4, une demande de configuration de l'association de l'identifiant d'appariement de premier utilisateur à l'identifiant d'appariement de second utilisateur. Dans l'environnement de communication 5, ce serveur 4 gère les échanges de notifications émotionnelles 16.
[0028] Dans le second mode de réalisation, cette étape 102 comprend une sous-étape d'interaction 109 entre la montre connectée du premier utilisateur 2a et la montre connectée du second utilisateur 2b. Cette sous-étape 109 inclut une phase d'activation 110 d'une fonction d'appariement de la montre connectée du premier utilisateur 2a et de la montre connectée du second utilisateur 2b. Au cours de cette phase 110, l'unité de traitement 10a, 10b de chaque montre connectée 2a, 2b reçoit un signal d'activation de la fonction d'appariement, lié à une entrée tactile sur son interface tactile par l'utilisateur correspondant (le premier ou le second). La sous-étape 109 comprend ensuite une phase de détection d'un choc 111 entre la montre connectée du premier utilisateur 2a et la montre connectée du second utilisateur 2b. Au cours de cette phase 111, l'unité de traitement 10a, 10b de chacune des première et seconde montres connectées 2a, 2b reçoit un signal depuis un capteur de choc 13a, 13b lorsque ces deux montres connectées 2a, 2b tapent l'une contre l'autre. La sous-étape 109 comprend ensuite une phase d'échange 112 d'identifiants d'appariement entre la montre connectée du premier utilisateur 2a et la montre connectée du second utilisateur 2b. De plus, la sous-étape 109 comprend une phase de transmission 113 des identifiants d'appariement reçus par la montre connectée du premier utilisateur 2a et la montre connectée du second utilisateur 2b respectivement au dispositif mobile du premier utilisateur 3a et au dispositif mobile du second utilisateur 3b auxquels elles sont connectées.
[0029] La sous-étape 109 inclut ensuite une phase d'autorisation 114 à la montre connectée du premier utilisateur 2a et à la montre connectée du second utilisateur 2b d'échanger des notifications émotionnelles l'une avec l'autre. Cette phase 114 inclut une sous-phase de transmission 115 d'une demande d'association des identifiants d'appariement l'un à l'autre afin d'associer l'identifiant d'appariement de premier utilisateur à l'identifiant d'appariement de second utilisateur. Au cours de cette sous-phase 115, l'unité de traitement 6a, 6b de chacun des dispositifs mobiles de premier et second utilisateurs 3a, 3b exécutant l'application transmet, au serveur 4, une demande de configuration de l'association de l'identifiant d'appariement de premier utilisateur à l'identifiant d'appariement de second utilisateur. Comme cela a été susmentionné, dans l'environnement de communication 5, ce serveur 4 gère les échanges de notifications émotionnelles 16.
[0030] De plus, le procédé comprend une étape de réception 116 par la montre connectée du premier ou second utilisateur 2a, 2b d'une notification émotionnelle comprenant une représentation graphique relative à un état émotionnel. En d'autres termes, l'unité de traitement 10a de la montre connectée du premier utilisateur 2a (ou de la montre connectée du second utilisateur 2b), reçoit cette notification émotionnelle depuis l'unité de traitement 10b de la montre connectée du second utilisateur 2b (ou de la montre connectée du premier utilisateur 2a).
[0031] Cette étape 116 comprend une sous-étape de conception 117 de la notification émotionnelle à recevoir. Cette sous-étape 117 inclut une phase de génération manuelle 118 de cette notification émotionnelle. Au cours de cette phase 118, l'unité de traitement 10a, 10b de la montre connectée du premier ou second utilisateur 2a, 2b peut recevoir, depuis son interface tactile, un signal de sélection d'une représentation graphique relative à l'état émotionnel du premier ou second utilisateur. En effet, ce premier ou second utilisateur peut choisir/sélectionner une représentation graphique affichée sur l'affichage de sa montre connectée 2a, 2b, qui correspond à son état émotionnel. Une fois la représentation graphique sélectionnée, l'unité de traitement 10a, 10b génère la notification par anticipation de la transmission de cette représentation graphique.
[0032] En variante, cette sous-étape 117 inclut une phase de génération automatique 119 de cette notification émotionnelle. Au cours de cette phase 119, l'unité de traitement 10a, 10b de la montre connectée du premier ou second utilisateur 2a, 2b peut recevoir un signal depuis le capteur d'informations biologiques 14a, 14b comprenant des données de mesure liées à au moins l'une des informations biologiques. Ensuite, l'unité de traitement 10a, 10b, 6a, 6b de cette montre connectée 2a, 2b ou du dispositif mobile 3a, 3b auquel elle est connectée peut mettre en oeuvre un algorithme de détermination d'un état émotionnel du premier ou second utilisateur, qui est appliqué à ces données de mesure. Plus précisément, cette unité de traitement 10a, 10b, 6a, 6b exécutant cet algorithme peut surveiller le flux de données de mesure fourni par ce capteur 14a, 14b et identifier un changement lié à un état émotionnel. Une fois l'état émotionnel identifié, l'unité de traitement 10a, 10b peut sélectionner, à partir de ses éléments de mémoire, une représentation graphique correspondant à cet état émotionnel puis elle génère la notification par anticipation de la transmission de cette représentation graphique.
[0033] De plus, le procédé comprend une étape d'affichage 120 de la représentation graphique (correspondant à l'état émotionnel) sur une première région d'un cadran occupant toute une zone d'affichage de l'affichage de la montre connectée 2a, 2b et l'indication d'une heure actuelle dans une seconde région. Dans cette montre connectée 2a, 2b, ce cadran est une représentation graphique d'un cadran affiché sur un affichage numérique de cette montre 2a, 2b. Cette étape 120 comprend une sous-étape de positionnement dynamique 121 de la représentation graphique dans la première région par rapport à au moins un objet graphique compris dans le cadran. Un objet graphique dans ce cadran est, par exemple, une icône liée à une activation/désactivation d'une fonction de cette montre connectée 2a, 2b, une représentation graphique, une information affichée dans ce cadran (température, phase lunaire, nombre de pas, pouls, etc.), la première région comprenant l'heure actuelle, etc. Au cours de cette sous-étape 121, l'unité de traitement 10a, 10b de la montre connectée du premier ou second utilisateur 2a, 2b met en oeuvre un algorithme de traitement d'image numérique qui est capable de détecter ledit au moins un objet graphique et de réaliser le positionnement de la première région par rapport audit au moins un objet graphique en tenant compte des critères suivants: – dimension graphique de la représentation graphique relative à l'état émotionnel ; – variation de la dimension graphique lorsque la représentation graphique est animée ; – dimension graphique de l'au moins un objet graphique du cadran ; – emplacement de l'au moins un objet graphique du cadran ; – emplacement dans le cadran de l'au moins un objet graphique ; – couleur(s) dudit au moins un objet graphique ; – etc.
[0034] Cette étape d'affichage permet ainsi d'optimiser la visibilité de la représentation graphique relative à l'état émotionnel dans le cadran en la distinguant en particulier de l'au moins un objet graphique de ce cadran.
[0035] L'homme du métier peut se rendre compte que diverses modifications peuvent être apportées à la présente divulgation, sans se départir de l'esprit et du périmètre de la divulgation. La présente divulgation est censée englober les modifications et les variations de modes de réalisation de celle-ci.

Claims (10)

1. Procédé pour maintenir un premier utilisateur et un second utilisateur continuellement informés de l'état émotionnel de chacun d'eux, le procédé comprenant les étapes suivantes : – l'appariement (102), d'une première montre connectée (2a) du premier utilisateur à une seconde montre connectée (2b) du second utilisateur ; – la réception (116), par la seconde montre connectée (2b), d'une notification émotionnelle comprenant une représentation graphique relative à un état émotionnel du premier utilisateur ; et – l'affichage (120) de la représentation graphique sur une première région d'un cadran de la seconde montre connectée (2b), et l'indication d'une heure actuelle dans une seconde région du cadran, dans lequel la première région occupe une zone d'affichage d'un affichage de la seconde montre connectée (2b).
2. Procédé selon la revendication 1, dans lequel l'étape d'appariement (102) comprend une sous-étape d'interaction (103) entre un premier dispositif mobile (3a) du premier utilisateur et un second dispositif mobile (3b) du second utilisateur qui sont respectivement connectés à la première montre connectée (2a) et à la seconde montre connectée (2b).
3. Procédé selon la revendication 1, dans lequel l'étape d'appariement (102) comprend une sous-étape d'interaction (103) entre la première montre connectée (2a) et la seconde montre connectée (2b).
4. Procédé selon la revendication 3, dans lequel la sous-étape d'interaction (109) comprend une phase d'échange (112) d'identifiants d'appariement entre la première montre connectée (2a) et la seconde montre connectée (2b) après la détection (111) d'un choc entre la première montre connectée (2a) et la seconde montre connectée (2b).
5. Procédé selon la revendication 4, dans lequel la sous-étape d'interaction (109) comprend en outre une phase d'autorisation (114) à la première montre connectée (2a) et à la seconde montre connectée (2b) d'échanger des notifications émotionnelles l'une avec l'autre, la phase d'autorisation (114) comprenant une sous-phase de transmission (115) d'une demande d'association des identifiants d'appariement l'un à l'autre.
6. Procédé selon la revendication 1, dans lequel l'étape d'affichage (120) comprend une sous-étape de positionnement dynamique (121) de la représentation graphique dans la première région par rapport à au moins un objet graphique compris dans le cadran.
7. Procédé selon la revendication 1, dans lequel l'étape de réception (116) comprend une sous-étape de conception (117) de cette notification émotionnelle reçue incluant une phase de génération manuelle (118) de cette notification émotionnelle.
8. Procédé selon la revendication 1, dans lequel l'étape de réception (116) comprend une sous-étape de conception (117) de cette notification émotionnelle reçue incluant une phase de génération automatique (119) de la notification émotionnelle.
9. Système (1) pour maintenir un premier utilisateur et un second utilisateur continuellement informés de l'état émotionnel de chacun d'eux, le système (1) comprenant : une première montre connectée (2a) du premier utilisateur, la première montre connectée (2a) étant configurée pour : – s'apparier avec une seconde montre connectée (2a) du second utilisateur ; – recevoir, depuis la seconde montre connectée (2a), une notification émotionnelle comprenant une représentation graphique relative à un état émotionnel du second utilisateur ; et – afficher la représentation graphique sur une première région d'un cadran de la première montre connectée (2a), et indiquer une heure actuelle dans une seconde région du cadran, dans lequel la première région occupe une zone d'affichage d'un affichage de la première montre connectée (2a) ; et un premier dispositif mobile (3a) du premier utilisateur qui est configuré pour être connecté à la première montre connectée (2a) et à un serveur, le premier dispositif mobile (3a) étant configuré pour transmettre des données entre la première montre connectée (2a) et la seconde montre connectée (2b) via le serveur.
10. Support non transitoire lisible par ordinateur stockant des instructions d'ordinateur qui sont configurées pour amener au moins un processeur d'une première montre connectée (2a) d'un premier utilisateur à : – s'apparier avec une seconde montre connectée (2b) d'un second utilisateur ; – recevoir, depuis la seconde montre connectée (2b) via un premier dispositif mobile (3a) du premier utilisateur qui est connecté à un serveur, une notification émotionnelle comprenant une représentation graphique relative à un état émotionnel du second utilisateur ; et – afficher la représentation graphique sur une première région d'un cadran de la première montre connectée (2a), et indiquer une heure actuelle dans une seconde région du cadran, dans lequel la première région occupe une zone d'affichage d'un affichage de la première montre connectée (2a).
CH070776/2021A 2021-12-22 2021-12-22 Procédé et système pour maintenir un premier utilisateur et un second utilisateur continuellement informés de leurs états émotionnels respectifs. CH719303A2 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CH070776/2021A CH719303A2 (fr) 2021-12-22 2021-12-22 Procédé et système pour maintenir un premier utilisateur et un second utilisateur continuellement informés de leurs états émotionnels respectifs.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CH070776/2021A CH719303A2 (fr) 2021-12-22 2021-12-22 Procédé et système pour maintenir un premier utilisateur et un second utilisateur continuellement informés de leurs états émotionnels respectifs.

Publications (1)

Publication Number Publication Date
CH719303A2 true CH719303A2 (fr) 2023-06-30

Family

ID=86942973

Family Applications (1)

Application Number Title Priority Date Filing Date
CH070776/2021A CH719303A2 (fr) 2021-12-22 2021-12-22 Procédé et système pour maintenir un premier utilisateur et un second utilisateur continuellement informés de leurs états émotionnels respectifs.

Country Status (1)

Country Link
CH (1) CH719303A2 (fr)

Similar Documents

Publication Publication Date Title
US10652504B2 (en) Simple video communication platform
US8892171B2 (en) System and method for user profiling from gathering user data through interaction with a wireless communication device
US10549173B2 (en) Sharing updatable graphical user interface elements
CA2941431C (fr) Simple plate-forme de communication video
JP6640857B2 (ja) 医療用ブレスレット規格
US20160000385A1 (en) Determining information flow using physiological parameters
US20140164945A1 (en) Context Dependent Application/Event Activation for People with Various Cognitive Ability Levels
WO2015072202A1 (fr) Dispositif de traitement des informations, procédé et programme de détection de la fatigue oculaire sur la base du diamètre des pupilles
EP2887162B1 (fr) Dispositif de restitution de notifications, et son procédé de pilotage
AU2015296833A1 (en) Providing notifications based on user activity data
JP2011523486A (ja) ユーザのステータスを示すためにアバタステータスを自動的に更新するための方法およびシステム
US12010647B2 (en) Method and system for keeping a first user and a second user continuously informed of their respective emotional states
CN107800891A (zh) 回电通知服务的电子设备和方法
CN111357022A (zh) 基于智能提醒的用户位置和活动
CH719303A2 (fr) Procédé et système pour maintenir un premier utilisateur et un second utilisateur continuellement informés de leurs états émotionnels respectifs.
JP7432249B2 (ja) 携帯端末、携帯端末による報知方法、携帯端末用報知プログラム、及び、携帯端末システム
RU2826162C2 (ru) Способ и система для непрерывного информирования первого пользователя и второго пользователя об их соответствующих эмоциональных состояниях
US11974250B2 (en) Method and system for keeping a first user and a second user continuously informed of their respective emotional states
EP4202578A1 (fr) Procédé et système pour maintenir un premier utilisateur et un second utilisateur informés en continu de leurs états émotionnels respectifs
AU2020102378A4 (en) MT-Family Member Activities and Location: FAMILY MEMBER ACTIVITIES AND LOCATION MANAGEMENT TECHNOLOGY
CH719293A2 (fr) Procédé d'archivage d'un évènement particulier de la vie d'un porteur d'une montre connectée.
US12107811B2 (en) Method for archiving a particular event in a life of a wearer of a connected watch
RU2821025C2 (ru) Способ архивирования конкретного события из жизни владельца подключенных часов
WO2014105782A1 (fr) Activation d'événement/application dépendant du contexte
CA3052732C (fr) Moteur de flux de travail pour la gestion de soins de sante d'un patient