FR3017722A1 - Dispositif permettant a toutes personnes valide, ou handicapee moteur, ou sourde-muette d'editer, modifier et publier un logiciel informatique, de facon autonome, sans connaissances prealables en informatique et sans contact physique avec le terminal - Google Patents

Dispositif permettant a toutes personnes valide, ou handicapee moteur, ou sourde-muette d'editer, modifier et publier un logiciel informatique, de facon autonome, sans connaissances prealables en informatique et sans contact physique avec le terminal Download PDF

Info

Publication number
FR3017722A1
FR3017722A1 FR1400424A FR1400424A FR3017722A1 FR 3017722 A1 FR3017722 A1 FR 3017722A1 FR 1400424 A FR1400424 A FR 1400424A FR 1400424 A FR1400424 A FR 1400424A FR 3017722 A1 FR3017722 A1 FR 3017722A1
Authority
FR
France
Prior art keywords
terminal
software
computer software
computer
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1400424A
Other languages
English (en)
Inventor
Tounwendsida Ulysse Philippe Semde
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to FR1400424A priority Critical patent/FR3017722A1/fr
Publication of FR3017722A1 publication Critical patent/FR3017722A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Dermatology (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)

Description

- La présente invention est un dispositif permettant de rendre accessible à tous la création, la modification et la publication de logiciels informatiques et de systèmes d'information informatisés, sans connaissances préalables en informatique, plus précisément en programmation informatique, et sans contact physique avec un terminal (tel qu'un ordinateur personnel, un macintosh, une tablette électronique tactile ou un smartphone). L'interaction avec le terminal se fait de façon naturelle, via la voix et/ou les mouvements du corps (incluant les interactions avec les yeux) et/ou la pensée (interprétation des impulsions envoyés par le cerveau humain).
L'invention permet l'édition intuitive et naturelle de logiciels informatiques ou de systèmes d'informations automatisés, quel que soit la technologie ou le langage de programmation informatique cible, sans connaissances informatiques, et accessible aux personnes handicapés moteur, tétraplégiques ou sourdes muettes. Historiquement, l'utilisation d'un ordinateur était uniquement réservée à des professionnels en 15 informatique et/ou en électronique. Suite à la création de l'ordinateur personnel et du Macintosh, l'utilisation d'un ordinateur est devenue accessible aux personnes non-professionnelles du domaine informatique, les rendant ainsi autonome. C'est dans cette même dynamique que s'inscrit l'invention actuelle. Elle permet de rendre accessible la création, la modification et la publication de logiciels informatiques sans connaissances préalables 20 dans ce domaine et de la façon la plus naturelle qui soit, à savoir via la voix, les mouvements du corps (incluant les interactions avec les yeux) et la pensée (interprétation des signaux du cerveau humain). La création, la modification et la publication de logiciels est traditionnellement réalisée par des personnes ayant des connaissances spécifiques en informatique (notamment en programmation informatique) en utilisant le clavier, la souris ou des touches tactiles. Toute personne souhaitant 25 réaliser un logiciel doit le plus souvent passer par un professionnel qualifié dans l'édition de logiciels pour ce faire, ce qui implique: / une absence d'autonomie et une difficulté d'accès pour une personne non professionnelle du domaine informatique dans le cadre de la création, modification, maintenance et adaptation d'un logiciel ou d'un système d'information correspondant à ses besoins 30 / une absence d'autonomie pour une personne physiquement handicapée moteur, tétraplégique ou sourde-muette, non spécialisée de surcroît en informatique. Un programmeur informatique utilise traditionnellement le clavier et la souris comme outils de travail. Si un handicap des membres supérieurs survenait, le programmeur ne serait plus en mesure d'exercer - 2 - son métier avec autonomie. Une personne souffrant d'un handicap de surdité et/ou de mutisme ne peut, avec les outils actuels, réaliser un logiciel matérialisant ses idées. L'objectif de l'invention est de remédier à toutes les insuffisances précédemment décrites. 5 Avec cette invention, toute personne, qu'elle soit spécialiste ou non de l'édition logicielle, handicapée moteur ou non, tétraplégique ou sourde-muette, deviendra autonome, sans formation préalable et de la façon la plus naturelle qui soit, à savoir via la voix, les mouvements de son corps (incluant les interactions avec les yeux) et/ou la pensée, sans les coûts liés à la consultation d'un professionnel dédié de l'édition de logiciels. Toute travailleur indépendant, aura la liberté de créer par exemple, en toute 10 autonomie une plateforme de commerce en ligne lui permettant de réaliser ses produits, et tester ainsi à moindre coût l'adéquation de ses produits avec le marché sans connaissances informatiques. Le dispositif de l'invention se caractérise par les composants suivants : - un utilisateur: qui envoie un signal. Ce signal de l'utilisateur peut prendre plusieurs formes à savoir la voix, les mouvements du corps (incluant les interactions avec les yeux) ou sa pensée 15 (impulsions envoyées par son cerveau). - un capteur : ce composant sert à capter le signal envoyé/généré par l'utilisateur. Suivant le type de signal, les capteurs tels que la Kinect (de la société Microsoft), la Leap (de la société Leap Motion) ou l'Emotiv Insight (de la société Emotiv), ou une caméra embarquée sur un terminal, peuvent par exemple être utilisés. Ce capteur est relié à un terminal, et peut être externe ou interne 20 à ce dernier. Dans le cas où le capteur est externe, la connexion avec le terminal peut se faire avec ou sans fil (par exemple via une connexion de type Bluetooth, wifi, infrarouge etc.). En résumé, le capteur sert de relai au signal envoyé par l'utilisateur au terminal. un terminal : Le terminal peut être un ordinateur personnel, un macintosh, une tablette tactile ou un smartphone. Les signaux sont envoyés par l'utilisateur au capteur qui réceptionne le signal et 25 le relaye au terminal. C'est sur le terminal qu'est installé le logiciel permettant : / d'interpréter les signaux envoyés par l'utilisateur, / de traduire les signaux envoyés par l'utilisateur en actions qui concourent à l'édition d'un logiciel tel que la création du contenu d'un formulaire d'un site web par exemple. Les dessins annexés illustrent l'invention : 30 La figure 1 décrit un mode de réalisation du dispositif de l'invention. En effet, un utilisateur effectue la description du logiciel via un mouvement et/ou la voix à un terminal de type ordinateur personnel. Les signaux de type voix et mouvements sont reçus dans un premier temps par le capteur qui relaie ensuite le signal à l'ordinateur/terminal. La figure 2 décrit une variante du dispositif de l'invention. Cette figure est très proche de celle décrite par la figure 1, à la différence que le terminal utilisé est de type tablette tactile. Les capteurs 5 de signaux sont ainsi internes au terminal. Il s'agit ici d'une caméra interne et de micros intégrés dans ce mode de réalisation du dispositif de l'invention. La figure 3 décrit également une variante du dispositif de l'invention. On y retrouve le même principe à savoir un utilisateur, envoyant un signal à un capteur. Le capteur relaie à son tour le signal au terminal. Dans le cas de cette figure, le capteur est un composant permettant de récupérer les 10 signaux envoyés par le cerveau. On remarquera que ce dernier est disposé au contact de la tête de l'utilisateur. La figure 4 décrit l'architecture du logiciel du dispositif (12), installé sur le terminal. Cette figure décrit les différents composants permettant d'interpréter les signaux envoyés par le capteur et de traduire les signaux reçus en actions d'édition d'un logiciel informatique. 15 Les signaux envoyés (2), (7) ou (10) par l'utilisateur au terminal (5) ou (8) servent essentiellement à décrire les fonctionnalités du logiciel informatique en cours de réalisation. Le logiciel du dispositif de l'invention renseigne un fichier de description (17) dans une structure de données portable de type XML (Extensible Markup Language) ou JSON (JavaScript Object Notation) ou YML (Ain't Markup Language) ou tout autre langage informatique de structuration de données. 20 Lorsque l'utilisateur estime avoir fini de décrire son application informatique, le dispositif logiciel de l'invention envoie le fichier contenant la description de l'application informatique faite par l'utilisateur, à une autre couche logicielle dédiée à une technologie de programmation informatique (19), (20) ou (21). Les personnes ayant des connaissances avancées en programmation informatique peuvent procéder au choix de la technologie de programmation informatique qu'ils souhaitent voir utiliser pour 25 leur application logicielle cible à générer. Le logiciel du dispositif se caractérise par les composants suivants : - les couches d'interprétation des mouvements du corps(13), de la voix (14), des signaux du cerveau(15) - la couche logicielle (16) de traitement centralisée des différents types de signaux, la couche 30 logicielle (18) chargée d'interagir avec les technologies et langages de programmation divers pour l'envoi du fichier de description du logiciel à générer. - le kit de développement (22) et pilote (23) du capteur et le système d'exploitation du terminal (24) En référence à ces figures, le dispositif de l'invention décrit le principe fondamental selon lequel : - un terminal (5) ou (8) sur lequel est installé le logiciel faisant partie du dispositif. Ce logiciel implémente les fonctionnalités d'interprétation des signaux envoyés par les utilisateurs, réalise la traduction de ces signaux en actions. Le logiciel du dispositif implémente également des interfaces suivantes : / une synthèse vocale / un affichage adapté aux personnes souffrant de surdité et/ou de mutisme / un interprète des mouvements réalisés par les utilisateurs, incluant l'interprétation du langage des signes permettant la communication efficiente avec les personnes sourde-muette Ces interfaces permettent d'interagir avec l'utilisateur et de rendre la communication naturelle et interactive. - Un capteur (3) permettant de recevoir en entrée les signaux (voix, mouvements du corps par exemple) envoyés par l'utilisateur. Des capteurs appropriés existent suivant le ou les types de signaux à mettre à disposition de l'utilisateur. Pour la voix et les mouvements, nous pourrons utiliser le capteur Kinect (de la société Microsoft), qui contient des micros permettant de recevoir en entrée la voix de l'utilisateur et une caméra permettant de détecter les mouvements effectués par l'utilisateur. La Kinect est reliée (4) à un terminal (5) via ici une connexion filaire. Selon un exemple de réalisation, un entrepreneur, non professionnel de l'informatique et sans aucune connaissance en programmation informatique, souhaite réaliser un logiciel lui permettant d'effectuer le suivi de la prospection de ses clients. Il dispose d'un terminal de type ordinateur personnel, sur lequel est installé le partie logicielle du dispositif, d'un capteur de type Kinect relié via un câble à l'ordinateur. Il peut, à partir du dispositif de l'invention, réaliser la description intuitive et naturelle (via sa voix, les mouvements de son corps, sa pensée) de chacune des informations qu'ils souhaitent voir renseigner dans son logiciel informatique. Il peut également, via ces mêmes interactions naturelles, procéder au choix d'un modèle de design pour habiller son logiciel informatique. Le dispositif selon l'invention peut faire l'objet d'une application industrielle étant donné qu'il 30 peut être utilisé par toutes personnes souhaitant réaliser des logiciels dans le cadre d'une automatisation d'un système d'informations, aussi bien dans un cadre personnel que dans le monde professionnel de l'entreprise.
Le dispositif revêt une dimension sociale également vu qu'il permet de rendre autonome et encore plus active les personnes handicapées moteurs, tétraplégiques ou sourde-muette. Aucune connaissance en informatique n'est requise, seules des interactions naturelles humaines à savoir la voix, les mouvements du corps (incluant les interactions avec les yeux), la pensée (impulsions/signaux envoyées par le cerveau) sont suffisantes.

Claims (5)

  1. REVENDICATIONS1) Dispositif pour éditer, modifier et publier un logiciel informatique de façon naturelle et interactive, sans connaissances préalables en informatique , caractérisé en ce qu'il comporte un capteur (3)(9) , connecté avec ou sans fil (4) à un terminal(8) dans lequel est installé la partie logicielle du dispositif, interprétant les signaux envoyés par un utilisateur qui décrit les fonctionnalités avec ses capacités naturelles à savoir sa voix(1) et/ou les mouvements de son corps (6), et/ou ses pensées.
  2. 2) Dispositif selon la revendication 1 caractérisé en ce qu'un utilisateur décrit le logiciel informatique qu'il souhaite créer , modifier et publier dans la technologie de son choix, via sa voix (1) face à un capteur adapté (3) qui reçoit en entrée la voix et la relaie à un terminal (5)(8).
  3. 3) Dispositif selon la revendication 1, caractérisé en ce qu'un utilisateur décrit le logiciel informatique qu'il souhaite créer, modifier et publier dans la technologie de son choix, via les mouvements de son corps(6) envoyé à un capteur adapté (3) qui reçoit en entrée la voix et la relaie à un terminal (5)(8).
  4. 4) Dispositif selon la revendication 1, caractérisé en ce qu'un utilisateur décrit le logiciel informatique qu'il souhaite créer , modifier et publier un logiciel informatique dans la technologie de son choix, via ses pensées/signaux envoyés par son cerveau à un capteur (3) qui reçoit en entrée la voix et la relaie à un terminal (5)(8).
  5. 5) Dispositif selon les revendications 1,3 et 4 et la figure 4 caractérisé en ce qu'un utilisateur sourd muet soit autonome pour créer, modifier et publier dans la technologie de son choix via le langage des signes envoyés à un capteur (3) qui les relaie à un terminal sur lequel est installé un logiciel permettant l'interprétation de ces signes en actions d'édition de logiciels.
FR1400424A 2014-02-17 2014-02-17 Dispositif permettant a toutes personnes valide, ou handicapee moteur, ou sourde-muette d'editer, modifier et publier un logiciel informatique, de facon autonome, sans connaissances prealables en informatique et sans contact physique avec le terminal Withdrawn FR3017722A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1400424A FR3017722A1 (fr) 2014-02-17 2014-02-17 Dispositif permettant a toutes personnes valide, ou handicapee moteur, ou sourde-muette d'editer, modifier et publier un logiciel informatique, de facon autonome, sans connaissances prealables en informatique et sans contact physique avec le terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1400424A FR3017722A1 (fr) 2014-02-17 2014-02-17 Dispositif permettant a toutes personnes valide, ou handicapee moteur, ou sourde-muette d'editer, modifier et publier un logiciel informatique, de facon autonome, sans connaissances prealables en informatique et sans contact physique avec le terminal

Publications (1)

Publication Number Publication Date
FR3017722A1 true FR3017722A1 (fr) 2015-08-21

Family

ID=53782968

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1400424A Withdrawn FR3017722A1 (fr) 2014-02-17 2014-02-17 Dispositif permettant a toutes personnes valide, ou handicapee moteur, ou sourde-muette d'editer, modifier et publier un logiciel informatique, de facon autonome, sans connaissances prealables en informatique et sans contact physique avec le terminal

Country Status (1)

Country Link
FR (1) FR3017722A1 (fr)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160041618A1 (en) * 2014-08-07 2016-02-11 Google Inc. Radar-Based Gesture Sensing and Data Transmission
US10016162B1 (en) 2015-03-23 2018-07-10 Google Llc In-ear health monitoring
US10080528B2 (en) 2015-05-19 2018-09-25 Google Llc Optical central venous pressure measurement
US10155274B2 (en) 2015-05-27 2018-12-18 Google Llc Attaching electronic components to interactive textiles
US10310621B1 (en) 2015-10-06 2019-06-04 Google Llc Radar gesture sensing using existing data protocols
US10376195B1 (en) 2015-06-04 2019-08-13 Google Llc Automated nursing assessment
US10409385B2 (en) 2014-08-22 2019-09-10 Google Llc Occluded gesture recognition
US10496182B2 (en) 2015-04-30 2019-12-03 Google Llc Type-agnostic RF signal representations
US10509478B2 (en) 2014-06-03 2019-12-17 Google Llc Radar-based gesture-recognition from a surface radar field on which an interaction is sensed
US10572027B2 (en) 2015-05-27 2020-02-25 Google Llc Gesture detection and interactions
US10664061B2 (en) 2015-04-30 2020-05-26 Google Llc Wide-field radar-based gesture recognition
US10817070B2 (en) 2015-04-30 2020-10-27 Google Llc RF-based micro-motion tracking for gesture tracking and recognition
US11079470B2 (en) 2017-05-31 2021-08-03 Google Llc Radar modulation for radar sensing using a wireless communication chipset
US11140787B2 (en) 2016-05-03 2021-10-05 Google Llc Connecting an electronic component to an interactive textile
US11163371B2 (en) 2014-10-02 2021-11-02 Google Llc Non-line-of-sight radar-based gesture recognition
US11598844B2 (en) 2017-05-31 2023-03-07 Google Llc Full-duplex operation for radar sensing using a wireless communication chipset
US11740680B2 (en) 2019-06-17 2023-08-29 Google Llc Mobile device-based radar system for applying different power modes to a multi-mode interface
US11816101B2 (en) 2014-08-22 2023-11-14 Google Llc Radar recognition-aided search
US12019149B2 (en) 2017-05-10 2024-06-25 Google Llc Low-power radar

Cited By (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10509478B2 (en) 2014-06-03 2019-12-17 Google Llc Radar-based gesture-recognition from a surface radar field on which an interaction is sensed
US10948996B2 (en) 2014-06-03 2021-03-16 Google Llc Radar-based gesture-recognition at a surface of an object
US9811164B2 (en) * 2014-08-07 2017-11-07 Google Inc. Radar-based gesture sensing and data transmission
US20160041618A1 (en) * 2014-08-07 2016-02-11 Google Inc. Radar-Based Gesture Sensing and Data Transmission
US10642367B2 (en) 2014-08-07 2020-05-05 Google Llc Radar-based gesture sensing and data transmission
US10409385B2 (en) 2014-08-22 2019-09-10 Google Llc Occluded gesture recognition
US10936081B2 (en) 2014-08-22 2021-03-02 Google Llc Occluded gesture recognition
US11816101B2 (en) 2014-08-22 2023-11-14 Google Llc Radar recognition-aided search
US11221682B2 (en) 2014-08-22 2022-01-11 Google Llc Occluded gesture recognition
US11163371B2 (en) 2014-10-02 2021-11-02 Google Llc Non-line-of-sight radar-based gesture recognition
US10016162B1 (en) 2015-03-23 2018-07-10 Google Llc In-ear health monitoring
US10817070B2 (en) 2015-04-30 2020-10-27 Google Llc RF-based micro-motion tracking for gesture tracking and recognition
US10496182B2 (en) 2015-04-30 2019-12-03 Google Llc Type-agnostic RF signal representations
US11709552B2 (en) 2015-04-30 2023-07-25 Google Llc RF-based micro-motion tracking for gesture tracking and recognition
US10664061B2 (en) 2015-04-30 2020-05-26 Google Llc Wide-field radar-based gesture recognition
US10080528B2 (en) 2015-05-19 2018-09-25 Google Llc Optical central venous pressure measurement
US10936085B2 (en) 2015-05-27 2021-03-02 Google Llc Gesture detection and interactions
US10572027B2 (en) 2015-05-27 2020-02-25 Google Llc Gesture detection and interactions
US10155274B2 (en) 2015-05-27 2018-12-18 Google Llc Attaching electronic components to interactive textiles
US10376195B1 (en) 2015-06-04 2019-08-13 Google Llc Automated nursing assessment
US10908696B2 (en) 2015-10-06 2021-02-02 Google Llc Advanced gaming and virtual reality control using radar
US11385721B2 (en) 2015-10-06 2022-07-12 Google Llc Application-based signal processing parameters in radar-based detection
US10768712B2 (en) 2015-10-06 2020-09-08 Google Llc Gesture component with gesture library
US10705185B1 (en) 2015-10-06 2020-07-07 Google Llc Application-based signal processing parameters in radar-based detection
US10540001B1 (en) 2015-10-06 2020-01-21 Google Llc Fine-motion virtual-reality or augmented-reality control using radar
US10503883B1 (en) 2015-10-06 2019-12-10 Google Llc Radar-based authentication
US10310621B1 (en) 2015-10-06 2019-06-04 Google Llc Radar gesture sensing using existing data protocols
US11132065B2 (en) 2015-10-06 2021-09-28 Google Llc Radar-enabled sensor fusion
US10379621B2 (en) 2015-10-06 2019-08-13 Google Llc Gesture component with gesture library
US10459080B1 (en) 2015-10-06 2019-10-29 Google Llc Radar-based object detection for vehicles
US11175743B2 (en) 2015-10-06 2021-11-16 Google Llc Gesture recognition using multiple antenna
US10401490B2 (en) 2015-10-06 2019-09-03 Google Llc Radar-enabled sensor fusion
US11256335B2 (en) 2015-10-06 2022-02-22 Google Llc Fine-motion virtual-reality or augmented-reality control using radar
US10823841B1 (en) 2015-10-06 2020-11-03 Google Llc Radar imaging on a mobile computing device
US11481040B2 (en) 2015-10-06 2022-10-25 Google Llc User-customizable machine-learning in radar-based gesture detection
US11592909B2 (en) 2015-10-06 2023-02-28 Google Llc Fine-motion virtual-reality or augmented-reality control using radar
US11698438B2 (en) 2015-10-06 2023-07-11 Google Llc Gesture recognition using multiple antenna
US11656336B2 (en) 2015-10-06 2023-05-23 Google Llc Advanced gaming and virtual reality control using radar
US11693092B2 (en) 2015-10-06 2023-07-04 Google Llc Gesture recognition using multiple antenna
US11698439B2 (en) 2015-10-06 2023-07-11 Google Llc Gesture recognition using multiple antenna
US11140787B2 (en) 2016-05-03 2021-10-05 Google Llc Connecting an electronic component to an interactive textile
US12019149B2 (en) 2017-05-10 2024-06-25 Google Llc Low-power radar
US11598844B2 (en) 2017-05-31 2023-03-07 Google Llc Full-duplex operation for radar sensing using a wireless communication chipset
US11079470B2 (en) 2017-05-31 2021-08-03 Google Llc Radar modulation for radar sensing using a wireless communication chipset
US11740680B2 (en) 2019-06-17 2023-08-29 Google Llc Mobile device-based radar system for applying different power modes to a multi-mode interface

Similar Documents

Publication Publication Date Title
FR3017722A1 (fr) Dispositif permettant a toutes personnes valide, ou handicapee moteur, ou sourde-muette d'editer, modifier et publier un logiciel informatique, de facon autonome, sans connaissances prealables en informatique et sans contact physique avec le terminal
CN110473538B (zh) 检测数字助理的触发
CN107978313B (zh) 智能自动化助理
Hayhurst How augmented reality and virtual reality is being used to support people living with dementia—design challenges and future directions
CN107430501B (zh) 对语音触发进行响应的竞争设备
CN107408387B (zh) 虚拟助理激活
CN108604449B (zh) 说话者识别
Keshavarzian et al. Modified deep residual network architecture deployed on serverless framework of IoT platform based on human activity recognition application
KR102420118B1 (ko) 어시스턴트 애플리케이션을 위한 이미지 바로가기를 제공하기 위한 시스템, 방법 및 장치
CN116301492A (zh) 用户活动快捷方式建议
CN107491469A (zh) 智能任务发现
CN110058834A (zh) 智能设备仲裁和控制
CN105144029A (zh) 交互式徽章
CN118056172A (zh) 用于提供免提通知管理的数字助理
Mohd et al. Multi-modal data fusion in enhancing human-machine interaction for robotic applications: a survey
Pomboza-Junez et al. Toward the gestural interface: comparative analysis between touch user interfaces versus gesture-based user interfaces on mobile devices
Kbar et al. Utilizing sensors networks to develop a smart and context-aware solution for people with disabilities at the workplace (design and implementation)
Sivakumar et al. Virtual vision architecture for VIP in ubiquitous computing
Kwok et al. Unobtrusive interaction: a systematic literature review and expert survey
US20220224584A1 (en) Synchronizing virtual reality notifications
Altakrouri Ambient assisted living with dynamic interaction ensembles
US11047705B2 (en) Predictive navigation system
Allen et al. Gesticulate for Health’s Sake! Understanding the Use of Gestures as an Input Modality for Microtask Crowdsourcing
Sreekanth et al. Multimodal interface for effective man machine interaction
Nande et al. Study of Human Computer Interaction (HCI) with its Application

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 3

ST Notification of lapse

Effective date: 20171031