CH719303A2 - Procédé et système pour maintenir un premier utilisateur et un second utilisateur continuellement informés de leurs états émotionnels respectifs. - Google Patents
Procédé et système pour maintenir un premier utilisateur et un second utilisateur continuellement informés de leurs états émotionnels respectifs. Download PDFInfo
- Publication number
- CH719303A2 CH719303A2 CH070776/2021A CH0707762021A CH719303A2 CH 719303 A2 CH719303 A2 CH 719303A2 CH 070776/2021 A CH070776/2021 A CH 070776/2021A CH 0707762021 A CH0707762021 A CH 0707762021A CH 719303 A2 CH719303 A2 CH 719303A2
- Authority
- CH
- Switzerland
- Prior art keywords
- user
- connected watch
- watch
- emotional
- region
- Prior art date
Links
- 230000002996 emotional effect Effects 0.000 title claims abstract description 64
- 238000000034 method Methods 0.000 title claims abstract description 26
- 230000003993 interaction Effects 0.000 claims description 10
- 238000013475 authorization Methods 0.000 claims description 5
- 230000035939 shock Effects 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 29
- 238000004891 communication Methods 0.000 description 20
- 230000005540 biological transmission Effects 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 8
- 238000005259 measurement Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 2
- 238000002567 electromyography Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 229910003798 SPO2 Inorganic materials 0.000 description 1
- 101100478210 Schizosaccharomyces pombe (strain 972 / ATCC 24843) spo2 gene Proteins 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 231100000430 skin reaction Toxicity 0.000 description 1
- 210000004243 sweat Anatomy 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72409—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
- H04M1/724094—Interfacing with a device worn on the user's body to provide access to telephonic functionalities, e.g. accepting a call, reading or composing a message
- H04M1/724095—Worn on the wrist, hand or arm
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
- A61B5/0015—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
- A61B5/0022—Monitoring a patient using a global network, e.g. telephone networks, internet
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6802—Sensor mounted on worn items
- A61B5/681—Wristwatch-type devices
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G21/00—Input or output devices integrated in time-pieces
- G04G21/04—Input or output devices integrated in time-pieces using radio waves
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G9/00—Visual time or date indication means
- G04G9/0064—Visual time or date indication means in which functions not related to time can be displayed
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G99/00—Subject matter not provided for in other groups of this subclass
- G04G99/006—Electronic time-pieces using a microcomputer, e.g. for multi-function clocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/20—Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel
- H04W4/21—Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel for social networking applications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2560/00—Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
- A61B2560/04—Constructional details of apparatus
- A61B2560/0462—Apparatus with built-in sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/7243—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
- H04M1/72436—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. short messaging services [SMS] or e-mails
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Public Health (AREA)
- Signal Processing (AREA)
- Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- Psychiatry (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Educational Technology (AREA)
- Developmental Disabilities (AREA)
- Child & Adolescent Psychology (AREA)
- Telephonic Communication Services (AREA)
Abstract
L'invention concerne un procédé pour maintenir un premier utilisateur et un second utilisateur continuellement informés de l'état émotionnel de chacun d'eux, le procédé comprenant les étapes suivantes : – l'appariement d'une première montre connectée (2a) du premier utilisateur avec une seconde montre connectée (2b) du second utilisateur ; – la réception par la seconde montre connectée (2b), d'une notification émotionnelle comprenant une représentation graphique relative à un état émotionnel du premier utilisateur ; et – l'affichage de la représentation graphique sur une première région d'un cadran de la seconde montre connectée (2b), et l'indication d'une heure actuelle dans une seconde région du cadran, dans lequel la première région occupe une zone d'affichage d'un affichage de la seconde montre connectée (2b).
Description
Domaine
[0001] Des modes de réalisation de la présente divulgation concernent un procédé pour maintenir un premier utilisateur et un second utilisateur continuellement informés de leurs états émotionnels respectifs par l'intermédiaire d'un affichage de leur montre connectée, et un système pour maintenir un premier utilisateur et un second utilisateur continuellement informés de leurs états émotionnels respectifs, mettant en oeuvre un tel procédé.
Contexte
[0002] Grâce aux progrès techniques, les montres connectées sont devenues plus fonctionnelles. Des exemples de telles fonctions sont notamment des communications de données et vocales, la capture d'images et de vidéo via une caméra, l'enregistrement audio, la lecture de fichiers de musique via un système de haut-parleur, et l'affichage d'images et de vidéo sur un affichage.
[0003] Ces montres connectées permettent ainsi à leurs utilisateurs de recevoir différents types d'alertes, comme des appels téléphoniques, des mises à jour de réseaux sociaux, des e-mails, des messages texte, et autres. En général, l'utilisateur est avisé d'un événement par l'intermédiaire d'un avertissement (comme des effets sonores et des vibrations par le dispositif mobile), et les avertissements peuvent être identifiés en fonction des réglages prédéfinis de la montre ou prédéfinis par l'utilisateur. Par exemple, l'utilisateur peut sélectionner un type d'alerte pour identifier la réception d'un message texte et un autre type d'alerte pour identifier la réception de l'e-mail.
Résumé
[0004] Dans ce contexte, des modes de réalisation de la présente divulgation proposent une alternative aux technologies existantes illustrées par les différents usages effectués de ces montres.
[0005] A cet effet, des modes de réalisation de la présente divulgation incluent un procédé pour maintenir un premier utilisateur et un second utilisateur continuellement informés de l'état émotionnel de chacun d'eux, le procédé comprenant les étapes suivantes : – l'appariement, d'une première montre connectée du premier utilisateur à une seconde montre connectée du second utilisateur ; – la réception, par la seconde montre connectée, d'une notification émotionnelle comprenant une représentation graphique relative à un état émotionnel du premier utilisateur ; et – l'affichage de la représentation graphique sur une première région d'un cadran de la seconde montre connectée, et l'indication d'une heure actuelle dans une seconde région du cadran, dans lequel la première région occupe une zone d'affichage d'un affichage de la seconde montre connectée.
[0006] Dans d'autres modes de réalisation de la présente divulgation : – l'étape d'appariement comprend une sous-étape d'interaction entre un premier dispositif mobile du premier utilisateur et un second dispositif mobile du second utilisateur qui sont respectivement connectés à la première montre connectée et la seconde montre connectée ; – l'étape d'appariement comprend une sous-étape d'interaction entre la première montre connectée et la seconde montre connectée ; – la sous-étape d'interaction comprend une phase d'échange d'identifiants d'appariement entre la première montre connectée et la seconde montre connectée après la détection d'un choc entre la première montre connectée et la seconde montre connectée ; – la sous-étape d'interaction comprend en outre une phase d'autorisation à la première montre connectée et à la seconde montre connectée d'échanger des notifications émotionnelles l'une avec l'autre, la phase d'autorisation comprenant une sous-phase de transmission d'une demande d'association des identifiants d'appariement l'un à l'autre; – l'étape d'affichage comprend une sous-étape de positionnement dynamique de la représentation graphique dans la première région par rapport à au moins un objet graphique compris dans le cadran ; – l'étape de réception comprend une sous-étape de conception de cette notification émotionnelle reçue incluant une phase de génération manuelle de cette notification émotionnelle ; – l'étape de réception comprend une sous-étape de conception de cette notification émotionnelle reçue incluant une phase de génération automatique de la notification émotionnelle.
[0007] Des modes de réalisation de la présente divulgation incluent un système pour maintenir un premier utilisateur et un second utilisateur continuellement informés de l'état émotionnel de chacun d'eux, le système comprenant : une première montre connectée du premier utilisateur, la première montre connectée étant configurée pour : – s'apparier avec une seconde montre connectée du second utilisateur ; – recevoir, depuis la seconde montre connectée, une notification émotionnelle comprenant une représentation graphique relative à un état émotionnel du second utilisateur ; et – afficher la représentation graphique sur une première région d'un cadran de la première montre connectée, et indiquer une heure actuelle dans une seconde région du cadran, dans lequel la première région occupe une zone d'affichage d'un affichage de la première montre connectée ; et un premier dispositif mobile du premier utilisateur qui est configuré pour être connecté à la première montre connectée et à un serveur, le premier dispositif mobile étant configuré pour transmettre des données entre la première montre connectée et la seconde montre connectée via le serveur.
[0008] Des modes de réalisation de la présente divulgation incluent un support non transitoire lisible par ordinateur stockant des instructions d'ordinateur qui sont configurées pour amener au moins un processeur d'une première montre connectée d'un premier utilisateur à : – s'apparier avec une seconde montre connectée d'un second utilisateur ; – recevoir, depuis la seconde montre connectée via un premier dispositif mobile du premier utilisateur qui est connecté à un serveur, une notification émotionnelle comprenant une représentation graphique relative à un état émotionnel du second utilisateur ; et – afficher la représentation graphique sur une première région d'un cadran de la première montre connectée, et indiquer une heure actuelle dans une seconde région du cadran, dans lequel la première région occupe une zone d'affichage d'un affichage de la première montre connectée.
Brève description des dessins
[0009] Des modes de réalisation exemplaires non limitatifs de la présente divulgation vont être décrits en détail ci-après en référence aux dessins annexés sur lesquels : – la figure 1 est un schéma illustrant un système pour maintenir un premier utilisateur et un second utilisateur continuellement informés de leurs états émotionnels respectifs par l'intermédiaire de l'affichage de leur montre connectée, selon un mode de réalisation de la présente divulgation ; et – la figure 2 est un organigramme relatif à un procédé pour maintenir le premier utilisateur et le second utilisateur continuellement informés de leurs états émotionnels respectifs, selon le mode de réalisation de la présente divulgation.
Description détaillée
[0010] En référence aux figures 1 et 2, il est décrit un système 1 et un procédé pour maintenir un premier utilisateur et un second utilisateur continuellement informés de leurs états émotionnels respectifs par l'intermédiaire de l'affichage de leur montre connectée 2a, 2b. Ce système 1 et ce procédé permettent aux premier et second utilisateurs de se tenir au courant de leurs états émotionnels respectifs en regardant simplement l'affichage de leur montre connectée 2a, 2b sans avoir à effectuer d'autres actions.
[0011] En référence à la figure 1, le système 1 comprend la montre connectée du premier utilisateur 2a et la montre connectée du second utilisateur 2b ainsi qu'un environnement de communication 5 pour la transmission de données entre la montre connectée du premier utilisateur 2a et la montre connectée du second utilisateur 2b.
[0012] Dans ce système 1, la montre connectée du premier utilisateur 2a est associée au premier utilisateur et la montre connectée du second utilisateur 2b est associée au second utilisateur, la montre connectée de chaque utilisateur 2a, 2b inclut un corps comme une boîte de montre, et un élément d'attache comme un bracelet pour fixer ce corps, par exemple au poignet du premier utilisateur ou du second utilisateur. Plus spécifiquement, la montre connectée de chaque utilisateur 2a, 2b comprend de manière non limitative et/ou non exhaustive : – une unité de traitement 10a, 10b (à laquelle il est également fait référence en tant que „dispositif de commande“) incluant des ressources matérielles et logicielles, en particulier au moins un processeur coopérant avec des éléments de mémoire ; – une interface de diffusion 11a, 11b d'un élément visuel d'information comme un affichage numérique ; – une interface de diffusion d'un élément audio d'information comme un haut-parleur ; – une interface de communication sans fil (par exemple cellulaire, WLAN, Bluetooth, etc.) ; – une interface d'entrée 12a, 12b comme une interface tactile comprise, par exemple, dans l'interface de diffusion d'un élément visuel d'information ; – un capteur de choc 13a, 13b comprenant un capteur d'accélération et/ou un capteur magnétique et/ou un capteur G et/ou un capteur gyroscopique et/ou un capteur de mouvement ; – un microphone ; et – un capteur d'informations biologiques 14a, 14b mesurant les informations biologiques du porteur.
[0013] Dans chaque montre connectée 2a, 2b, l'unité de traitement 10a, 10b est connectée, entre autres, aux interfaces de diffusion d'éléments visuels et sonores d'information, à l'interface d'entrée, au microphone ainsi qu'à l'interface de communication sans fil et au capteur d'informations biologiques 14a, 14b. Selon des modes de réalisation, le capteur d'informations biologiques 14a, 14b peut être agencé au fond de boîte de la montre connectée 2a, 2b et/ou dans l'élément d'attache.
[0014] Comme cela a été précédemment spécifié, le capteur d'informations biologiques mesure les informations biologiques du porteur. Ces informations biologiques portent principalement sur divers facteurs émotionnels liés à des caractéristiques comportementales et physiologiques du porteur. Dans ce contexte, les informations biologiques comprennent plusieurs catégories de facteurs émotionnels énumérés ci-après de manière non limitative et non exhaustive : respiration, quantité de transpiration, pouls, haleine, clignement, mouvement de globe oculaire, durée de regard, diamètre de pupille, pression artérielle, ondes cérébrales, mouvement de corps, posture, température de la peau, réponse galvanique de la peau (GSR), micro-vibration (MV), électromyographie (EMG), et saturation du sang en oxygène (SPO2). Ces catégories de facteurs émotionnels peuvent être mesurées par des unités de mesure cardiographique, des unités de mesure d'EMG, des unités de mesure de tension électrique de la tête, des analyses d'intensité d'image infrarouge, des capteurs de pression, des capteurs de température ou des capteurs de transpiration. Selon des modes de réalisation, le capteur d'informations biologiques 14a, 14b est configuré pour être supporté par le porteur à un emplacement lui permettant de détecter ce facteur émotionnel, par exemple le pouls du porteur, ou pour être porté par le porteur à un emplacement auquel il est en contact avec la peau du porteur et auquel il peut mesurer des paramètres comme la résistance.
[0015] Dans ce système 1, l'environnement de communication 5 comprend un dispositif mobile du premier utilisateur 3a et un dispositif mobile du second utilisateur 3b ainsi qu'un serveur 4. Cet environnement de communication 5 comprend également une architecture de réseau sans fil ou filaire connectant les dispositifs mobiles 3a, 3b, les montres connectées 2a, 2b et le serveur 4 les uns aux autres.
[0016] Dans ce système 1, le serveur 4 (par exemple un serveur distant) inclut une base de données. Ce serveur 4 comprend également une unité de commande (par exemple un dispositif de commande) et une unité de communication (par exemple un communicateur). Dans ce serveur 4, l'unité de commande inclut des ressources matérielles et logicielles, en particulier au moins un processeur coopérant avec des composants de mémoire. Cette unité de commande est capable d'exécuter des instructions pour la mise en oeuvre d'un programme d'ordinateur pour, par exemple : – gérer une base de données de serveur 4, traiter les interrogations/instructions/données provenant/envoyées des/aux dispositifs mobiles 3a, 3b, en particulier des/aux unités de traitement 6a, 6b de ceux-ci ; – mettre en oeuvre des procédures d'appariement entre au moins deux montres connectées 2a, 2b ; – gérer les échanges de notifications émotionnelles 16 entre au moins deux montres connectées 2a, 2b.
[0017] De plus, le dispositif mobile du premier utilisateur 3a est associé au premier utilisateur et le dispositif mobile du second utilisateur 3b est associé à un second utilisateur. Le dispositif mobile de chaque utilisateur 3a, 3b peut comprendre, par exemple : un ordinateur, un smartphone ou une tablette. Chaque dispositif mobile 3a, 3b inclut, de manière non limitative et/ou non exhaustive : – l'unité de traitement 6a, 6b (à laquelle il est également fait référence en tant que „dispositif de commande“) incluant des ressources matérielles et logicielles, en particulier au moins un processeur coopérant avec des éléments de mémoire ; – un module d'affichage 7a, 7b comme un écran d'affichage d'une représentation visuelle de données d'information ; – une interface de transmission d'informations audio, comme un haut-parleur ; – une interface de communication permettant à chaque dispositif mobile 3a, 3b d'établir une connexion de communication avec le serveur 4 ou avec chaque montre connectée 2a, 2b ; – une interface de sélection 8a, 8b comme un clavier ou une interface tactile ; et – au moins un module de capture de flux audio comprenant au moins un microphone ; – un module de capture/acquisition 9a, 9b d'au moins une image, en particulier comprenant au moins un capteur d'image.
[0018] Dans chaque dispositif mobile 3a, 3b, l'unité de traitement 6a, 6b est connectée, entre autres, à l'interface de diffusion, à l'interface de communication, au module d'acquisition, et à l'interface de sélection. L'interface de communication de chaque dispositif mobile 3a, 3b comprend des éléments de communication pour la réception et la transmission de données à distance via le réseau de téléphonie cellulaire, un réseau de données du type IP via un réseau de téléphonie, ou un réseau de données du type IP via un réseau de moyenne portée, par exemple WI-FI ou un réseau de courte portée mettant en oeuvre la technologie Bluetooth.
[0019] De plus, cette unité de traitement 6a, 6b est connectée, entre autres, au module d'affichage, à l'interface de transmission, à l'interface de communication, et à l'interface de sélection. Cette unité de traitement 6a, 6b est capable en particulier d'exécuter des instructions pour mettre en oeuvre les instructions de programme d'ordinateur pour traiter, par exemple, les interrogations/instructions/données qui sont reçues/envoyées : – depuis le/au serveur 4, en particulier depuis/à l'unité de commande de celui-ci, et/ou – depuis/à l'unité de traitement 10a, 10b de la montre connectée du premier ou second utilisateur 2a, 2b.
[0020] De plus, l'unité de traitement 6a, 6b de chaque dispositif mobile 3a, 3b est capable d'exécuter un programme d'ordinateur également appelé application ou app. Plus précisément, dans ce contexte, l'application est une „application d'état émotionnel“. Cette application, lorsque l'unité de traitement 6a, 6b l'exécute, est capable de participer à la mise en oeuvre d'une partie des étapes du procédé décrit ci-après.
[0021] En référence à la figure 2, le système 1 est capable de mettre en oeuvre le procédé pour maintenir un premier utilisateur et un second utilisateur continuellement informés de leurs états émotionnels respectifs par l'intermédiaire de l'affichage de leur montre connectée 2a, 2b.
[0022] Un tel procédé commence par une étape d'établissement 100 d'une connexion avec l'environnement de communication 5. A cet effet, cette étape inclut une sous-étape de connexion 101 de la montre connectée du premier utilisateur 2a et de la montre connectée du second utilisateur 2b respectivement au dispositif mobile du premier utilisateur 3a et au dispositif mobile du second utilisateur 3b. Dans cette sous-étape 101, les unités de traitement 10a, 10b, 6a, 6b de chaque montre connectée 2a, 2b et de chaque dispositif mobile 3a, 3b se connectent l'une à l'autre au moyen de leur interface de communication, de préférence par l'utilisation du protocole Bluetooth™.
[0023] Une fois cette connexion établie, l'application d'état émotionnel est active sur chaque dispositif mobile 3a, 3b et est capable d'échanger des données avec l'unité de traitement 10a, 10b de chaque montre connectée 2a, 2b ainsi qu'avec le serveur 4. En d'autres termes, l'application est active dès que l'unité de traitement 6a, 6b de chaque dispositif mobile 3a, 3b détecte que la connexion est établie entre chaque montre connectée 2a, 2b et chaque dispositif mobile 3a, 3b correspondant.
[0024] Cette étape d'établissement 100 d'une connexion a pour but de permettre à la montre connectée du premier utilisateur 2a et à la montre connectée du second utilisateur 2b d'échanger des données dans l'environnement de communication 5 en particulier avec le serveur 4 lorsqu'elles ne sont pas appariées l'une avec l'autre.
[0025] Le procédé comprend ensuite une étape d'appariement 102 de la montre connectée du premier utilisateur 2a avec la montre connectée du second utilisateur 2b. Cette étape 102 contribue à créer une liaison de communication entre ces montres connectées 2a, 2b afin de leur permettre d'échanger des données (par exemple des messages émotionnels) dans l'environnement de communication 5. L'étape 102 peut être fournie par au moins deux modes de réalisation de l'appariement entre les montres.
[0026] Dans un premier mode de réalisation, cette étape 102 comprend une sous-étape d'interaction 103 entre le dispositif mobile du premier utilisateur 3a et le dispositif mobile du second utilisateur 3b. Cette sous-étape 103 inclut une phase d'affichage 104 d'une représentation graphique comprenant un code matriciel sur l'affichage du dispositif mobile du premier utilisateur 3a. Ce code matriciel peut être un code-barres dans deux ou trois dimensions. Ce code matriciel peut par exemple comprendre un code QR ou un code matriciel de données. Ce code matriciel comprend des séquences d'informations binaires qui sont codées/chiffrées. Dans cette représentation graphique, le code matriciel comprend des séquences d'informations binaires incluant des données relatives à la montre connectée du premier utilisateur 2a, plus spécifiquement un identifiant d'appariement de premier utilisateur. La sous-étape 103 comprend ensuite une phase de numérisation 105 par le dispositif mobile du second utilisateur 3b de la représentation graphique comprenant le code matriciel. Au cours de cette phase 105, cette représentation graphique est acquise dès que le dispositif mobile du second utilisateur 3b est agencé à proximité du dispositif mobile du premier utilisateur 3a de sorte que son module de capture 9b soit disposé face à cette représentation graphique. Cette sous-étape 103 inclut ensuite une phase de décodage 106 du code matriciel de manière à obtenir des séquences d'informations binaires comprenant des données relatives à l'identifiant d'appariement de premier utilisateur pour mettre en oeuvre l'appariement.
[0027] Ensuite, la sous-étape 103 inclut une phase d'autorisation 107 à la montre connectée du premier utilisateur 2a et à la montre connectée du second utilisateur 2b d'échanger des messages émotionnels l'une avec l'autre. Cette phase 107 inclut une sous-phase d'association 108 de l'identifiant d'appariement de premier utilisateur à l'identifiant d'appariement de second utilisateur. Au cours de cette sous-phase 108, l'unité de traitement 10b du dispositif mobile du second utilisateur 3b exécutant l'application transmet, au serveur 4, une demande de configuration de l'association de l'identifiant d'appariement de premier utilisateur à l'identifiant d'appariement de second utilisateur. Dans l'environnement de communication 5, ce serveur 4 gère les échanges de notifications émotionnelles 16.
[0028] Dans le second mode de réalisation, cette étape 102 comprend une sous-étape d'interaction 109 entre la montre connectée du premier utilisateur 2a et la montre connectée du second utilisateur 2b. Cette sous-étape 109 inclut une phase d'activation 110 d'une fonction d'appariement de la montre connectée du premier utilisateur 2a et de la montre connectée du second utilisateur 2b. Au cours de cette phase 110, l'unité de traitement 10a, 10b de chaque montre connectée 2a, 2b reçoit un signal d'activation de la fonction d'appariement, lié à une entrée tactile sur son interface tactile par l'utilisateur correspondant (le premier ou le second). La sous-étape 109 comprend ensuite une phase de détection d'un choc 111 entre la montre connectée du premier utilisateur 2a et la montre connectée du second utilisateur 2b. Au cours de cette phase 111, l'unité de traitement 10a, 10b de chacune des première et seconde montres connectées 2a, 2b reçoit un signal depuis un capteur de choc 13a, 13b lorsque ces deux montres connectées 2a, 2b tapent l'une contre l'autre. La sous-étape 109 comprend ensuite une phase d'échange 112 d'identifiants d'appariement entre la montre connectée du premier utilisateur 2a et la montre connectée du second utilisateur 2b. De plus, la sous-étape 109 comprend une phase de transmission 113 des identifiants d'appariement reçus par la montre connectée du premier utilisateur 2a et la montre connectée du second utilisateur 2b respectivement au dispositif mobile du premier utilisateur 3a et au dispositif mobile du second utilisateur 3b auxquels elles sont connectées.
[0029] La sous-étape 109 inclut ensuite une phase d'autorisation 114 à la montre connectée du premier utilisateur 2a et à la montre connectée du second utilisateur 2b d'échanger des notifications émotionnelles l'une avec l'autre. Cette phase 114 inclut une sous-phase de transmission 115 d'une demande d'association des identifiants d'appariement l'un à l'autre afin d'associer l'identifiant d'appariement de premier utilisateur à l'identifiant d'appariement de second utilisateur. Au cours de cette sous-phase 115, l'unité de traitement 6a, 6b de chacun des dispositifs mobiles de premier et second utilisateurs 3a, 3b exécutant l'application transmet, au serveur 4, une demande de configuration de l'association de l'identifiant d'appariement de premier utilisateur à l'identifiant d'appariement de second utilisateur. Comme cela a été susmentionné, dans l'environnement de communication 5, ce serveur 4 gère les échanges de notifications émotionnelles 16.
[0030] De plus, le procédé comprend une étape de réception 116 par la montre connectée du premier ou second utilisateur 2a, 2b d'une notification émotionnelle comprenant une représentation graphique relative à un état émotionnel. En d'autres termes, l'unité de traitement 10a de la montre connectée du premier utilisateur 2a (ou de la montre connectée du second utilisateur 2b), reçoit cette notification émotionnelle depuis l'unité de traitement 10b de la montre connectée du second utilisateur 2b (ou de la montre connectée du premier utilisateur 2a).
[0031] Cette étape 116 comprend une sous-étape de conception 117 de la notification émotionnelle à recevoir. Cette sous-étape 117 inclut une phase de génération manuelle 118 de cette notification émotionnelle. Au cours de cette phase 118, l'unité de traitement 10a, 10b de la montre connectée du premier ou second utilisateur 2a, 2b peut recevoir, depuis son interface tactile, un signal de sélection d'une représentation graphique relative à l'état émotionnel du premier ou second utilisateur. En effet, ce premier ou second utilisateur peut choisir/sélectionner une représentation graphique affichée sur l'affichage de sa montre connectée 2a, 2b, qui correspond à son état émotionnel. Une fois la représentation graphique sélectionnée, l'unité de traitement 10a, 10b génère la notification par anticipation de la transmission de cette représentation graphique.
[0032] En variante, cette sous-étape 117 inclut une phase de génération automatique 119 de cette notification émotionnelle. Au cours de cette phase 119, l'unité de traitement 10a, 10b de la montre connectée du premier ou second utilisateur 2a, 2b peut recevoir un signal depuis le capteur d'informations biologiques 14a, 14b comprenant des données de mesure liées à au moins l'une des informations biologiques. Ensuite, l'unité de traitement 10a, 10b, 6a, 6b de cette montre connectée 2a, 2b ou du dispositif mobile 3a, 3b auquel elle est connectée peut mettre en oeuvre un algorithme de détermination d'un état émotionnel du premier ou second utilisateur, qui est appliqué à ces données de mesure. Plus précisément, cette unité de traitement 10a, 10b, 6a, 6b exécutant cet algorithme peut surveiller le flux de données de mesure fourni par ce capteur 14a, 14b et identifier un changement lié à un état émotionnel. Une fois l'état émotionnel identifié, l'unité de traitement 10a, 10b peut sélectionner, à partir de ses éléments de mémoire, une représentation graphique correspondant à cet état émotionnel puis elle génère la notification par anticipation de la transmission de cette représentation graphique.
[0033] De plus, le procédé comprend une étape d'affichage 120 de la représentation graphique (correspondant à l'état émotionnel) sur une première région d'un cadran occupant toute une zone d'affichage de l'affichage de la montre connectée 2a, 2b et l'indication d'une heure actuelle dans une seconde région. Dans cette montre connectée 2a, 2b, ce cadran est une représentation graphique d'un cadran affiché sur un affichage numérique de cette montre 2a, 2b. Cette étape 120 comprend une sous-étape de positionnement dynamique 121 de la représentation graphique dans la première région par rapport à au moins un objet graphique compris dans le cadran. Un objet graphique dans ce cadran est, par exemple, une icône liée à une activation/désactivation d'une fonction de cette montre connectée 2a, 2b, une représentation graphique, une information affichée dans ce cadran (température, phase lunaire, nombre de pas, pouls, etc.), la première région comprenant l'heure actuelle, etc. Au cours de cette sous-étape 121, l'unité de traitement 10a, 10b de la montre connectée du premier ou second utilisateur 2a, 2b met en oeuvre un algorithme de traitement d'image numérique qui est capable de détecter ledit au moins un objet graphique et de réaliser le positionnement de la première région par rapport audit au moins un objet graphique en tenant compte des critères suivants: – dimension graphique de la représentation graphique relative à l'état émotionnel ; – variation de la dimension graphique lorsque la représentation graphique est animée ; – dimension graphique de l'au moins un objet graphique du cadran ; – emplacement de l'au moins un objet graphique du cadran ; – emplacement dans le cadran de l'au moins un objet graphique ; – couleur(s) dudit au moins un objet graphique ; – etc.
[0034] Cette étape d'affichage permet ainsi d'optimiser la visibilité de la représentation graphique relative à l'état émotionnel dans le cadran en la distinguant en particulier de l'au moins un objet graphique de ce cadran.
[0035] L'homme du métier peut se rendre compte que diverses modifications peuvent être apportées à la présente divulgation, sans se départir de l'esprit et du périmètre de la divulgation. La présente divulgation est censée englober les modifications et les variations de modes de réalisation de celle-ci.
Claims (10)
1. Procédé pour maintenir un premier utilisateur et un second utilisateur continuellement informés de l'état émotionnel de chacun d'eux, le procédé comprenant les étapes suivantes :
– l'appariement (102), d'une première montre connectée (2a) du premier utilisateur à une seconde montre connectée (2b) du second utilisateur ;
– la réception (116), par la seconde montre connectée (2b), d'une notification émotionnelle comprenant une représentation graphique relative à un état émotionnel du premier utilisateur ; et
– l'affichage (120) de la représentation graphique sur une première région d'un cadran de la seconde montre connectée (2b), et l'indication d'une heure actuelle dans une seconde région du cadran, dans lequel la première région occupe une zone d'affichage d'un affichage de la seconde montre connectée (2b).
2. Procédé selon la revendication 1, dans lequel l'étape d'appariement (102) comprend une sous-étape d'interaction (103) entre un premier dispositif mobile (3a) du premier utilisateur et un second dispositif mobile (3b) du second utilisateur qui sont respectivement connectés à la première montre connectée (2a) et à la seconde montre connectée (2b).
3. Procédé selon la revendication 1, dans lequel l'étape d'appariement (102) comprend une sous-étape d'interaction (103) entre la première montre connectée (2a) et la seconde montre connectée (2b).
4. Procédé selon la revendication 3, dans lequel la sous-étape d'interaction (109) comprend une phase d'échange (112) d'identifiants d'appariement entre la première montre connectée (2a) et la seconde montre connectée (2b) après la détection (111) d'un choc entre la première montre connectée (2a) et la seconde montre connectée (2b).
5. Procédé selon la revendication 4, dans lequel la sous-étape d'interaction (109) comprend en outre une phase d'autorisation (114) à la première montre connectée (2a) et à la seconde montre connectée (2b) d'échanger des notifications émotionnelles l'une avec l'autre, la phase d'autorisation (114) comprenant une sous-phase de transmission (115) d'une demande d'association des identifiants d'appariement l'un à l'autre.
6. Procédé selon la revendication 1, dans lequel l'étape d'affichage (120) comprend une sous-étape de positionnement dynamique (121) de la représentation graphique dans la première région par rapport à au moins un objet graphique compris dans le cadran.
7. Procédé selon la revendication 1, dans lequel l'étape de réception (116) comprend une sous-étape de conception (117) de cette notification émotionnelle reçue incluant une phase de génération manuelle (118) de cette notification émotionnelle.
8. Procédé selon la revendication 1, dans lequel l'étape de réception (116) comprend une sous-étape de conception (117) de cette notification émotionnelle reçue incluant une phase de génération automatique (119) de la notification émotionnelle.
9. Système (1) pour maintenir un premier utilisateur et un second utilisateur continuellement informés de l'état émotionnel de chacun d'eux, le système (1) comprenant :
une première montre connectée (2a) du premier utilisateur, la première montre connectée (2a) étant configurée pour :
– s'apparier avec une seconde montre connectée (2a) du second utilisateur ;
– recevoir, depuis la seconde montre connectée (2a), une notification émotionnelle comprenant une représentation graphique relative à un état émotionnel du second utilisateur ; et
– afficher la représentation graphique sur une première région d'un cadran de la première montre connectée (2a), et indiquer une heure actuelle dans une seconde région du cadran, dans lequel la première région occupe une zone d'affichage d'un affichage de la première montre connectée (2a) ; et
un premier dispositif mobile (3a) du premier utilisateur qui est configuré pour être connecté à la première montre connectée (2a) et à un serveur, le premier dispositif mobile (3a) étant configuré pour transmettre des données entre la première montre connectée (2a) et la seconde montre connectée (2b) via le serveur.
10. Support non transitoire lisible par ordinateur stockant des instructions d'ordinateur qui sont configurées pour amener au moins un processeur d'une première montre connectée (2a) d'un premier utilisateur à :
– s'apparier avec une seconde montre connectée (2b) d'un second utilisateur ;
– recevoir, depuis la seconde montre connectée (2b) via un premier dispositif mobile (3a) du premier utilisateur qui est connecté à un serveur, une notification émotionnelle comprenant une représentation graphique relative à un état émotionnel du second utilisateur ; et
– afficher la représentation graphique sur une première région d'un cadran de la première montre connectée (2a), et indiquer une heure actuelle dans une seconde région du cadran, dans lequel la première région occupe une zone d'affichage d'un affichage de la première montre connectée (2a).
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CH070776/2021A CH719303A2 (fr) | 2021-12-22 | 2021-12-22 | Procédé et système pour maintenir un premier utilisateur et un second utilisateur continuellement informés de leurs états émotionnels respectifs. |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CH070776/2021A CH719303A2 (fr) | 2021-12-22 | 2021-12-22 | Procédé et système pour maintenir un premier utilisateur et un second utilisateur continuellement informés de leurs états émotionnels respectifs. |
Publications (1)
Publication Number | Publication Date |
---|---|
CH719303A2 true CH719303A2 (fr) | 2023-06-30 |
Family
ID=86942973
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CH070776/2021A CH719303A2 (fr) | 2021-12-22 | 2021-12-22 | Procédé et système pour maintenir un premier utilisateur et un second utilisateur continuellement informés de leurs états émotionnels respectifs. |
Country Status (1)
Country | Link |
---|---|
CH (1) | CH719303A2 (fr) |
-
2021
- 2021-12-22 CH CH070776/2021A patent/CH719303A2/fr unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10652504B2 (en) | Simple video communication platform | |
US8892171B2 (en) | System and method for user profiling from gathering user data through interaction with a wireless communication device | |
US10549173B2 (en) | Sharing updatable graphical user interface elements | |
CA2941431C (fr) | Simple plate-forme de communication video | |
JP6640857B2 (ja) | 医療用ブレスレット規格 | |
US20160000385A1 (en) | Determining information flow using physiological parameters | |
US20140164945A1 (en) | Context Dependent Application/Event Activation for People with Various Cognitive Ability Levels | |
WO2015072202A1 (fr) | Dispositif de traitement des informations, procédé et programme de détection de la fatigue oculaire sur la base du diamètre des pupilles | |
EP2887162B1 (fr) | Dispositif de restitution de notifications, et son procédé de pilotage | |
AU2015296833A1 (en) | Providing notifications based on user activity data | |
JP2011523486A (ja) | ユーザのステータスを示すためにアバタステータスを自動的に更新するための方法およびシステム | |
US12010647B2 (en) | Method and system for keeping a first user and a second user continuously informed of their respective emotional states | |
CN107800891A (zh) | 回电通知服务的电子设备和方法 | |
CN111357022A (zh) | 基于智能提醒的用户位置和活动 | |
CH719303A2 (fr) | Procédé et système pour maintenir un premier utilisateur et un second utilisateur continuellement informés de leurs états émotionnels respectifs. | |
JP7432249B2 (ja) | 携帯端末、携帯端末による報知方法、携帯端末用報知プログラム、及び、携帯端末システム | |
RU2826162C2 (ru) | Способ и система для непрерывного информирования первого пользователя и второго пользователя об их соответствующих эмоциональных состояниях | |
US11974250B2 (en) | Method and system for keeping a first user and a second user continuously informed of their respective emotional states | |
EP4202578A1 (fr) | Procédé et système pour maintenir un premier utilisateur et un second utilisateur informés en continu de leurs états émotionnels respectifs | |
AU2020102378A4 (en) | MT-Family Member Activities and Location: FAMILY MEMBER ACTIVITIES AND LOCATION MANAGEMENT TECHNOLOGY | |
CH719293A2 (fr) | Procédé d'archivage d'un évènement particulier de la vie d'un porteur d'une montre connectée. | |
US12107811B2 (en) | Method for archiving a particular event in a life of a wearer of a connected watch | |
RU2821025C2 (ru) | Способ архивирования конкретного события из жизни владельца подключенных часов | |
WO2014105782A1 (fr) | Activation d'événement/application dépendant du contexte | |
CA3052732C (fr) | Moteur de flux de travail pour la gestion de soins de sante d'un patient |