FR3059808A1 - Procede de gestion d'un ensemble d'objets, dispositif et programme d'ordinateur pour la mise en œuvre du procede. - Google Patents

Procede de gestion d'un ensemble d'objets, dispositif et programme d'ordinateur pour la mise en œuvre du procede. Download PDF

Info

Publication number
FR3059808A1
FR3059808A1 FR1661968A FR1661968A FR3059808A1 FR 3059808 A1 FR3059808 A1 FR 3059808A1 FR 1661968 A FR1661968 A FR 1661968A FR 1661968 A FR1661968 A FR 1661968A FR 3059808 A1 FR3059808 A1 FR 3059808A1
Authority
FR
France
Prior art keywords
objects
representation
virtual
space
room
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1661968A
Other languages
English (en)
Other versions
FR3059808B1 (fr
Inventor
Eric Villain
Fabienne Andro
Jean-Pierre Thomas
Christophe Floutier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
Orange SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orange SA filed Critical Orange SA
Priority to FR1661968A priority Critical patent/FR3059808B1/fr
Publication of FR3059808A1 publication Critical patent/FR3059808A1/fr
Application granted granted Critical
Publication of FR3059808B1 publication Critical patent/FR3059808B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4131Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B15/00Systems controlled by a computer
    • G05B15/02Systems controlled by a computer electric
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2852Metropolitan area networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

L'invention concerne un procédé de gestion d'un ensemble d'objets comprenant au moins un objet connecté. Selon l'invention, le procédé comprend une phase de construction (11) comprenant : - construction (111) d'une représentation des objets de l'ensemble d'objets, associant respectivement aux objets des représentations sous forme d'objets virtuels, - obtention (112) d'une représentation d'un espace dans lequel les objets de l'ensemble d'objets sont situés, et - association (113) de la représentation de l'espace avec les représentations des objets pour obtenir une représentation contextuelle des objets de l'ensemble.

Description

® RÉPUBLIQUE FRANÇAISE
INSTITUT NATIONAL DE LA PROPRIÉTÉ INDUSTRIELLE © N° de publication : 3 059 808 (à n’utiliser que pour les commandes de reproduction)
©) N° d’enregistrement national : 16 61968
COURBEVOIE
©) Int Cl8 : G 06 T17/00 (2017.01), G 06 F 3/01, G 05 B 15/02
DEMANDE DE BREVET D'INVENTION A1
©) Date de dépôt : 05.12.16. ©) Demandeur(s) : ORANGE Société anonyme — FR.
(30) Priorité :
©) Inventeur(s) : VILLAIN ERIC, ANDRO FABIENNE,
THOMAS JEAN-PIERRE et FLOUTIER CHRISTOPHE.
(43) Date de mise à la disposition du public de la
demande : 08.06.18 Bulletin 18/23.
(56) Liste des documents cités dans le rapport de
recherche préliminaire : Se reporter à la fin du
présent fascicule
(© Références à d’autres documents nationaux ©) Titulaire(s) : ORANGE Société anonyme.
apparentés :
©) Demande(s) d’extension : @) Mandataire(s) : CABINET PATRICE VIDON.
PROCEDE DE GESTION D'UN ENSEMBLE D'OBJETS, DISPOSITIF ET PROGRAMME D'ORDINATEUR POUR LA MISE EN OEUVRE DU PROCEDE.
FR 3 059 808 - A1 _ L'invention concerne un procédé de gestion d'un ensemble d'objets comprenant au moins un objet connecté.
Selon l'invention, le procédé comprend une phase de construction (11) comprenant:
- construction (111) d'une représentation des objets de l'ensemble d'objets, associant respectivement aux objets des représentations sous forme d'objets virtuels,
- obtention (112) d'une représentation d'un espace dans lequel les objets de l'ensemble d'objets sont situés, et
- association (113) de la représentation de l'espace avec les représentations des objets pour obtenir une représentation contextuelle des objets de l'ensemble.
i
Procédé de gestion d'un ensemble d'objets, dispositif et programme d'ordinateur pour la mise en œuvre du procédé.
1. Domaine de l'invention
Le domaine de l'invention est celui de la gestion automatisée des objets, en particulier des objets connectés.
Plus précisément, l'invention concerne une technique de gestion d'un ensemble d'objets comprenant au moins un objet connecté.
En particulier, l'invention trouve des applications dans le domaine de la surveillance et du contrôle à distance d'objets connectés, notamment de réseaux d'objets connectés, dans le domaine de la domotique, etc.
2. Art antérieur
Avec l'émergence des nouvelles technologies, on trouve de plus en plus d'objets connectés dans les bâtiments, à usage privé ou professionnel. Par exemple, une maison peut être équipée de caméras de surveillance, de thermostats, de volets roulants, ou autres objets connectés, qui peuvent être pilotés à distance par une tablette, un smartphone, etc.
Toutefois, la gestion (comme par exemple le contrôle) à distance de ces différents objets peut être fastidieux pour un utilisateur non expérimenté.
De plus, en cas de dysfonctionnement d'un objet connecté, ou d'un ensemble d'objets connectés, il est difficile pour l'utilisateur non expérimenté d'identifier la cause du problème et de le résoudre.
Il existe donc un besoin pour une nouvelle technique de gestion d'objets, notamment d'objets connectés.
3. Exposé de l'invention
L'invention propose une solution nouvelle qui ne présente pas l'ensemble des inconvénients de l'art antérieur, sous la forme d'un procédé de gestion d'un ensemble d'objets comprenant au moins un objet connecté, le procédé comprenant une phase de construction comprenant :
- construction d'une représentation des objets de l'ensemble d'objets, associant respectivement aux objets des représentations sous forme d'objets virtuels,
- obtention d'une représentation d'un espace dans lequel les objets de l'ensemble d'objets sont situés, et
- association de la représentation de l'espace avec les représentations des objets pour obtenir une représentation contextuelle des objets de l'ensemble.
L'invention propose ainsi une nouvelle solution pour la gestion d'un ensemble d'objets.
Selon la solution proposée, les objets que l'utilisateur souhaite gérer sont représentés sous forme d'objets virtuels, dans une représentation d'un espace dans lequel les objets sont réellement situés. En d'autres termes, on crée un double virtuel d'un objet, notamment d'un objet connecté, synchronisé avec l'objet « réel ».
L'utilisateur peut ainsi visualiser l'ensemble d'objets, sous la forme d'objets virtuels.
Au cours d'une phase d'exploitation, l'utilisateur peut agir sur les objets virtuels, pour contrôler les objets connectés ou obtenir des informations sur les objets connectés ou non connectés.
La solution proposée est ainsi intuitive, puisque l'utilisateur visualise l'objet sur lequel il souhaite agir ou obtenir des informations, grâce à la représentation sous forme virtuelle de l'objet.
Notamment, un superviseur de réseau peut surveiller à distance un ensemble d'objets, pour détecter une panne ou un objet défaillant, collecter des informations, etc.
La surveillance d'un ensemble d'objets, notamment d'un réseau d'objets connectés, est ainsi facilitée.
En particulier, les représentations des objets, i.e. les objets virtuels, peuvent être insérées dans une représentation multidimensionnelle (par exemple 3D) d'une pièce d'un bâtiment. Une telle représentation multidimensionnelle de la pièce peut être obtenue à partir d'images de l'environnement réel, captées par au moins un capteur et/ou au moins une caméra d'un dispositif de gestion. Par exemple, un tel dispositif de gestion est muni de fonctionnalités de type réalité augmentée (casque, lunettes holographiques, tablette, smartphone, etc). Un tel dispositif de gestion peut notamment mettre en œuvre une plateforme de réalité augmentée pour cartographier des bâtiments, par exemple la plateforme « Google Tango »®. Les objets virtuels, des informations relatives aux objets, et/ou la représentation multidimensionnelle de la pièce, peuvent notamment être restitués sur un écran appartenant au dispositif de gestion ou sur un écran déporté.
L'utilisation de fonctionnalités de type réalité augmentée facilite ainsi la supervision des objets par un utilisateur, en améliorant notamment l'ergonomie pour l'utilisateur, qui peut interagir de façon naturelle avec les différents objets. De plus, l'utilisation d'une technique de type réalité augmentée pour interagir avec les objets permet de s'affranchir de l'utilisation d'applications spécifiques.
L'invention concerne également un dispositif de gestion d'un ensemble d'objets connectés, comprenant au moins un processeur apte à et configuré pour :
- construire une représentation des objets de l'ensemble d'objets, associant respectivement aux objets des représentations sous forme d'objets virtuels,
- obtenir une représentation d'un espace dans lequel les objets de l'ensemble d'objets sont situés, et
- associer la représentation de l'espace avec les représentations des objets pour obtenir une représentation contextuelle des objets de l'ensemble.
Un tel dispositif est notamment adapté à mettre en oeuvre le procédé de gestion décrit précédemment.
Ce dispositif pourra bien sûr comporter les différentes caractéristiques relatives au procédé de gestion selon l'invention, qui peuvent être combinées ou prises isolément. Ainsi, les caractéristiques et avantages de ce dispositif sont les mêmes que ceux du procédé de gestion.
L'invention concerne encore un ou plusieurs programmes d'ordinateur comportant des instructions pour la mise en oeuvre d'un procédé de gestion tel que décrit ci-dessus lorsque ce ou ces programmes sont exécutés par au moins un processeur.
L'invention concerne aussi un support d'informations lisible par un ordinateur, et comportant des instructions d'un programme d'ordinateur tel que mentionné ci-dessus.
4. Liste des figures
D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement à la lecture de la description suivante d'un mode de réalisation particulier, donné à titre de simple exemple illustratif et non limitatif, et des dessins annexés, parmi lesquels :
la figure 1 illustre les principales étapes mises en oeuvre pour la gestion d'un ensemble d'objets selon un mode de réalisation de l'invention ;
les figures 2A à 2D présentent la construction d'une représentation 3D d'une pièce d'un bâtiment ;
les figures 3A à 3D illustrent le placement des objets virtuels dans la représentation de la pièce ;
les figures 4A et 4B présentent des exemples d'actions sur les objets virtuels ; la figure 5 illustre une représentation d'un ensemble de bâtiments ;
les figures 6A à 6D illustrent la sélection d'un appartement dans la représentation de l'ensemble de bâtiments, et la visualisation du réseau d'objets connectés associés à cet appartement ;
la figure 7 illustre la structure simplifiée d'un dispositif de gestion d'un ensemble d'objets selon un mode de réalisation particulier de l'invention ;
les figures 8A à 8G illustrent différentes vues d'une interface selon un mode de réalisation particulier de l'invention.
5. Description d'un mode de réalisation de l'invention
Le principe général du procédé proposé repose sur la gestion d'un ensemble d'objets, dont au moins un objet connecté, par l'intermédiaire d'objets virtuels associés à ces objets.
On décrit ci-après, en relation avec la figure 1, un mode de réalisation pour la gestion d'un ensemble d'objets connectés. L'homme de l'art comprendra cependant que le procédé proposé n'est pas limité à ce mode de réalisation, et peut être mis en oeuvre selon d'autres modes de réalisation pour la gestion d'un objet non connecté, d'un ensemble d'objets comprenant au moins un objet connecté, ou d'un ensemble d'objets comprenant au moins un objet connecté et au moins un objet non connecté.
Au cours d'une première phase 11, on construit 111 une représentation des objets d'un ensemble d'objets connectés, associant aux objets connectés des représentations sous forme d'objets virtuels. On obtient également, 112, une représentation d'un espace dans lequel les objets de l'ensemble d'objets sont situés. En fonction du mode de réalisation, l'espace représenté peut être à deux dimensions (comme par exemple une carte ou un plan), ou bien à trois dimensions (par exemple une carte en 3D). La représentation de l'espace peut être obtenue dans un mode de réalisation en numérisant une carte à deux dimensions. Dans un autre mode de réalisation, la représentation de l'espace peut être obtenue en construisant une représentation multidimensionnelle d'au moins une pièce du bâtiment, encore appelée cartographie. La représentation de l'espace est ensuite associée, 113, avec les représentations générées des objets, pour obtenir une représentation contextuelle des objets de l'ensemble d'objets à gérer.
Par exemple, dans un cas de figure où l'objet connecté est, dans la réalité, placé dans un bâtiment, l'association 113 peut comprendre, dans un ou plusieurs modes de réalisation :
- repérage 1131, dans la pièce, d'au moins un objet connecté, noté RO ;
- ajout 1132, dans la représentation de la pièce, d'au moins un objet virtuel, noté VO, associé à l'objet ou aux objets connecté(s).
Dans un ou plusieurs modes de réalisation, l'ajout d'un objet virtuel s'effectue à partir d'une interface utilisateur d'un dispositif de gestion d'objets, par exemple d'une interface graphique (GUI, pour Graphie User Interface) exposée sur un écran du dispositif, et présentant un menu d'ajout d'objet virtuel.
L'activation d'une commande d'ajout d'objet virtuel par un utilisateur peut déclencher l'affichage, en fonction du mode de réalisation, d'un ou plusieurs menus présentant différents types et sous-types de l'objet pour lequel l'utilisateur souhaite créer un objet virtuel (objet connecté, objet non connecté, objet connecté de type domotique, objet connecté de type sécurité, etc.).
L'interface utilisateur peut en outre être configurée pour permettre à l'utilisateur de sélectionner un type et, le cas échéant, sous-type de l'objet pour lequel il souhaite créer un objet virtuel.
La sélection d'un objet peut être effectuée dans une banque d'objet préchargée en mémoire du dispositif de gestion, ou chargée dynamiquement en mémoire. Le dispositif de gestion peut ainsi être configuré, dans un ou plusieurs modes de réalisation, pour charger des bibliothèques d'objets provenant de différentes sources, comme par exemple des serveurs de données dans lesquels des bibliothèques d'objets connectés sont consignées en mémoire. Ainsi, il est possible d'enrichir dynamiquement la banque de données relatives à des objets consignées en mémoire du dispositif de gestion, ou accessibles pour ce dispositif par le biais d'une connexion à un serveur de données.
Dans un ou plusieurs modes de réalisation, l'ajout d'un objet virtuel peut être effectué en activant une commande d'association entre l'objet réel et l'objet virtuel sélectionné, par exemple, dans un mode de réalisation dans lequel le dispositif est doté d'une caméra, en sélectionnant l'objet virtuel alors que l'on pointe la caméra du dispositif en direction de l'objet réel. En fonction du mode de réalisation du dispositif, le pointage en direction de l'objet pourra comprendre le pointage de la caméra vers l'objet, ou le pointage de la caméra sur une surface plane à proximité de l'objet.
Dans un ou plusieurs modes de réalisation, on exploite les objets virtuels pour gérer les objets pour lesquels une représentation a été construite au cours d'une deuxième phase 12.
Par exemple, on sélectionne 121 au moins un objet virtuel, pour obtenir 122 des informations relatives à un objet associé à l'objet virtuel sélectionné et/ou agir sur l'objet associé à l'objet virtuel sélectionné dans le cas d'un objet connecté.
On décrit ci-après un premier exemple de réalisation de l'invention, selon lequel on utilise un dispositif équipé de fonctionnalités de type de réalité augmentée pour gérer un ensemble d'objets, parmi lesquels au moins un objet connecté.
Par exemple, un tel dispositif est de type casque, lunettes holographiques, tablette, smartphone, etc. En fonction du mode de réalisation, un tel dispositif peut comprendre (ou communique avec) au moins un écran, permettant d'afficher les objets virtuels, des informations relatives aux objets connectés et/ou la représentation multidimensionnelle de la pièce. Un tel dispositif peut également comprendre au moins un capteur et/ou au moins une caméra, permettant notamment de réaliser une cartographie d'une pièce, d'un bâtiment, d'une ville, etc. Un tel dispositif peut également être équipé d'un gyroscope, d'un accéléromètre, d'une caméra infra-rouge, de plusieurs caméras pour calculer les distances dans l'espace, etc.
On considère, selon ce premier exemple, que le dispositif de gestion utilise une plateforme de réalité augmentée, par exemple la plateforme matérielle et logicielle « Google Tango »®, ou « Microsoft Hololens », pour réaliser des plans multidimensionnels de bâtiments, y ajouter des éléments, etc.
On propose ainsi une nouvelle interface pour la gestion d'un ensemble d'objets comprenant au moins un objet connecté.
Une telle interface permet notamment de gérer des opérations de type construction d'un plan / représentation multidimensionnelle d'une pièce, placement des objets virtuels dans le plan, action sur les objets connectés, création de scénarios entre les objets connectés.
On présente en relation avec les figures 2A à 2D, un exemple de mise en oeuvre de l'étape de construction d'une représentation multidimensionnelle d'une pièce d'un bâtiment, permettant par exemple de construire un plan 3D.
On capture le sol de la pièce que l'on cherche à représenter, par exemple en pointant au moins un capteur et/ou au moins une caméra du dispositif de gestion vers le sol. Si le dispositif est de type casque ou lunettes de réalité augmentée, l'utilisateur peut regarder en direction du sol pour le capter. On identifie ainsi le niveau du sol.
On capture en outre un premier mur de la pièce que l'on cherche à représenter, par exemple en pointant au moins un capteur et/ou au moins une caméra du dispositif de gestion vers le premier mur. A nouveau, si le dispositif est de type casque ou lunettes de réalité augmentée, l'utilisateur peut regarder en direction d'un mur pour le capter. Lorsqu'un mur est détecté, ce mur est représenté par une grille dans l'espace virtuel. On vise ainsi les différents murs, successivement, par exemple dans le sens des aiguilles d'une montre. Pour « fermer » une pièce, on capture à nouveau le premier mur de la pièce que l'on cherche à représenter. Une fois la pièce fermée, les grilles disparaissent, et le plan de la pièce est complet.
Par exemple, l'utilisation d'une caméra frontale grand angle et de capteurs permet de suivre les mouvements de l'utilisateur en temps réel, et de mesurer la profondeur de champ en permanence, ce qui permet de localiser le dispositif dans l'espace et de cartographier les espaces parcourus pour construire une représentation 3D par exemple de la pièce.
Les figures 2A à 2D illustrent différents exemples de vues de l'interface apparaissant sur l'écran du dispositif de gestion dans un mode de réalisation, lors de la construction du plan.
Sur chacune des figures 2A à 2C, on visualise en arrière-plan une vue 21 de la pièce réelle, telle que captée par le dispositif. Une zone 22 de l'écran est réservée à l'affichage du plan en cours de construction, par exemple une vue de dessus. La position du dispositif dans l'espace réel/virtuel (position et/ou orientation) peut être représentée par un point 23, une croix, etc. On visualise également le réticule central 24 de la caméra, ou viseur, utilisé pour viser/pointer vers le sol, les murs, etc. L'interface propose des boutons d'action pour ajouter un mur, revenir en arrière, obtenir de l'aide, etc.
En particulier, la figure 2A représente le niveau du sol, dans l'espace virtuel, par un disque 25 dans le plan (x, y) du sol, et où l'axe z représente l'altitude. Les figures 2B et 2C illustrent la superposition des grilles 26, dans l'espace virtuel, aux murs de la pièce réelle. La figure 2D illustre le plan de la pièce ainsi obtenu.
On peut ainsi construire, élément par élément, une représentation d'un espace, comme par exemple construire, pièce par pièce, une cartographie d'un bâtiment, d'un quartier, d'une ville, etc.
Une fois le plan de la pièce construit, on peut placer des objets virtuels dans le plan. De tels objets peuvent être associés à des objets connectés (par exemple de type caméra de surveillance, éclairage, prise électrique, thermostat, détecteur de fumée, etc) ou à des objets non connectés (armoires, tableau, livres (numéro d'inventaire, propriétaire, historique...), etc).
Par exemple, on repère dans la pièce réelle un objet connecté, et on pointe vers cet objet connecté, en plaçant l'objet connecté dans le réticule central ou viseur du dispositif de gestion. Comme déjà indiqué, si le dispositif est de type casque ou lunettes de réalité augmentée, l'utilisateur peut regarder en direction de l'objet connecté. On peut alors superposer une représentation multidimensionnelle de l'objet connecté, i.e. l'objet virtuel associé à cet objet connecté, dans l'espace virtuel. L'objet virtuel ainsi placé est ancré dans la représentation de la pièce, par exemple sur un mur du plan 3D de la pièce. Un changement de vue de la représentation de la pièce engendre donc un changement de vue de l'objet virtuel.
On peut également repérer un objet non-connecté pour pouvoir accéder à des informations relatives à cet objet. Dans ce cas, l'objet n'est pas directement porteur de l'information, qui est stockée dans une base de données. La réalité augmentée sert à faire le lien entre cet objet réel non-connecté et ces informations. L'objet virtuel associé à cet objet nonconnecté est ce point d'accès visuel qu'on pourra viser, comme expliqué par la suite, pour accéder à l'information.
Les figures 3A et 3B illustrent respectivement le pointage du dispositif de gestion vers un objet connecté présent dans la pièce, comme un détecteur de fumée 31, et la superposition d'un détecteur de fumée virtuel 32, dans l'espace virtuel, au détecteur de fumée réel 31. Par exemple, l'interface proposée inclut des commandes, comme par exemple des boutons d'action, pour, respectivement, ajouter un objet virtuel, supprimer un objet virtuel, accéder à une bibliothèque d'objets virtuels, par exemple des objets 3D de la gamme « Homelive »®. Un tel objet virtuel correspond donc à un avatar de l'objet à partir duquel il est construit.
Les objets virtuels insérés dans la pièce, par exemple le détecteur de fumée virtuel 32, un thermostat virtuel 33, et une caméra virtuelle 34, peuvent être visualisés dans l'environnement réel, en visualisant en arrière-plan une vue de la pièce réelle, comme illustré en figure 3C. Ces différents objets virtuels peuvent également être visualisés dans le plan de la pièce comme illustré en figure 3D.
Dans un ou plusieurs modes de réalisation, une fois les objets virtuels placés dans la représentation de la pièce, il est possible d'agir (par exemple par le biais d'une interface utilisateur d'un dispositif de gestion) sur ceux des objets associés à ces objets virtuels qui sont des objets connectés. En effet, les objets virtuels sont synchronisés avec les objets connectés auxquels ils sont associés.
Par exemple, on peut sélectionner (par exemple par le biais d'une interface utilisateur d'un dispositif de gestion) un objet virtuel dans la représentation de la pièce, pour agir sur l'objet connecté qui lui est associé.
De plus, le procédé proposé prévoit, dans un ou plusieurs modes de réalisation, la sélection (par exemple par le biais d'une interface utilisateur d'un dispositif de gestion) d'un objet virtuel pour obtenir des informations relatives à l'objet (connecté ou non) qui lui est associé.
Dans un ou plusieurs modes de réalisation de l'interface utilisateur du dispositif de gestion, pour sélectionner un objet virtuel, l'utilisateur peut viser l'objet virtuel, en plaçant l'objet virtuel dans une zone spécifique de l'écran, notamment dans le réticule central. En variante, la sélection d'un objet virtuel peut être mise en œuvre en pointant le capteur et/ou la caméra du dispositif de gestion vers l'objet correspondant, ou en regardant l'objet. II est alors possible de communiquer avec l'objet, par l'intermédiaire de son avatar, pour obtenir des informations sur cet objet, agir sur cet objet s'il est connecté, etc.
Par exemple, comme illustré en figure 4A, une fois l'objet virtuel sélectionné, une fenêtre s'ouvre, permettant de communiquer avec l'objet connecté. Selon cet exemple, on ne peut plus viser l'objet virtuel quand cette fenêtre est ouverte. Grâce à cette fenêtre, on peut vérifier le niveau de la batterie 41 du détecteur de fumée réel 31 en sélectionnant le détecteur de fumée virtuel 32 qui lui est associé. Pour ce faire, une commande de vérification est activée, par exemple par un utilisateur du dispositif. Dans un mode de réalisation, son exécution comprend l'établissement d'une connexion entre le dispositif et l'objet connecté en fonction du type d'interface de communication de l'objet connecté, l'envoi d'une requête de vérification du niveau de batterie 41 du détecteur de fumée 31, et la réception d'une réponse contenant une information sur le niveau de batterie 41 du détecteur de fumée. Dans un autre mode de réalisation, le dispositif transmet une requête non pas à l'objet connecté mais à un serveur de données auquel l'objet connecté aura envoyé des informations d'état, par exemple des informations sur son niveau de batterie.
Dans un ou plusieurs modes de réalisation, la fonctionnalité permettant d'agir sur un objet connecté peut comprendre l'activation de différentes fonctions ou de tests propres à l'objet connecté, comme par exemple, dans le cas d'un détecteur de fumée connecté, le test du fonctionnement du signal d'alarme du détecteur de fumée réel 31 en actionnant un bouton « test » du détecteur de fumée virtuel 32 sur une interface graphique représentant l'objet virtuel sur l'écran du dispositif.
D'autres actions sur des objets connectés sont également envisageables, selon le type d'objet. Par exemple, il est possible d'activer ou de désactiver une caméra de surveillance, de commander un thermostat, un interrupteur, etc. Notamment, lorsque l'objet virtuel correspondant au thermostat est sélectionné, comme illustré en figure 4B, on peut obtenir la température actuelle de la pièce telle que mesurée par le thermostat réel, ainsi que la température cible, et agir sur la température cible par l'intermédiaire du thermostat virtuel.
Dans un ou plusieurs modes de réalisation, il est également possible de définir des scénarios entre différents objets virtuels, engendrant plusieurs actions sur les objets auxquels ils sont associés.
Dans un ou plusieurs modes de réalisation, de tels scénarios peuvent être créés en pointant/visant successivement différents objets connectés. Un scénario peut par exemple être créé en sélectionnant un ou plusieurs objets virtuels, par exemple en ciblant/pointant vers les objets correspondants, et en définissant une ou plusieurs actions sur les objets virtuels sélectionnés. Les actions peuvent comprendre des tests effectués par le biais d'un objet connecté ίο (par exemple le test d'une caméra de surveillance pour savoir si la pièce dans laquelle elle est installée est considérée comme vide). Dans le cas de plusieurs objets sélectionnés, les actions correspondantes peuvent être ordonnées pour la création d'un scénario associant ces différentes actions.
Par exemple, l'utilisateur peut pointer vers un détecteur de présence, puis vers une caméra de surveillance, et créer au niveau des objets virtuels un scénario selon lequel si le détecteur de présence détecte une présence, la caméra de surveillance doit être activée. Un autre scénario pourrait être la commande de fermer les stores lorsque la température de la pièce est supérieure à 25°C et que la station météo indique un temps ensoleillé, etc.
En d'autres termes, la phase de construction met en œuvre une étape de définition d'au moins un scénario liant une pluralité d'objets virtuels, et la phase d'exploitation met en œuvre des étapes d'action sur une pluralité d'objets connectés associés à la pluralité d'objets virtuels, selon le scénario.
On note que les échanges entre l'objet connecté et le dispositif de gestion peuvent être mis en œuvre sous toute forme de transmission, par exemple en Wi-Fi, Bluetooth ®, ZigBee, ZWave, etc.
Par ailleurs, les informations spatiales et/ou temporelles relatives aux différents objets connectés peuvent être stockées dans une mémoire du dispositif de gestion ou sur un serveur distant. De cette façon, il est possible de conserver un historique de connexion des objets connectés.
On note que ce premier exemple peut être étendu à d'autres applications.
Par exemple, dans un ou plusieurs modes de réalisation, un dispositif de gestion peut être utilisé pour construire une cartographie d'un bâtiment, et utilisé par un opérateur pour mesurer la puissance d'un signal (couverture Wi-Fi par exemple) à l'intérieur du bâtiment. On dispose ainsi de mesures précises, géo-localisées, d'une puissance de signal à un instant t. L'opérateur peut, en temps réel, détecter une puissance de signal trop faible, et configurer le réseau pour améliorer la réception du signal dans tout le bâtiment, par exemple en ajoutant des répéteurs.
Selon un autre exemple, dans un ou plusieurs modes de réalisation, un tel dispositif pourrait être utilisé par un agent pour relever des compteurs de gaz, électricité, ou autre, même lorsque l'agent n'a pas accès au compteur « physique », placé à l'intérieur d'un bâtiment. En effet, l'agent peut directement relever la valeur d'un compteur virtuel associé au compteur physique, puisque les deux objets sont synchronisés.
On décrit désormais un deuxième exemple de réalisation de l'invention permettant de gérer un ensemble d'objets à grande échelle, utilisé par exemple pour gérer un réseau d'objets connectés d'un quartier, d'une ville, etc.
Selon ce deuxième exemple, on construit donc une représentation d'un ensemble d'objets en associant aux objets des représentations sous forme d'objets virtuels, et on place ces objets virtuels dans une représentation d'un quartier, de la ville, etc.
Comme dans le premier exemple, les informations spatiales et/ou temporelles relatives aux différents objets connectés peuvent être stockées dans une mémoire du dispositif de gestion ou sur un serveur distant. De cette façon, il est possible de conserver un historique de connexion des objets connectés.
On note que ce deuxième exemple de réalisation peut être combiné avec le premier exemple. En particulier, la cartographie du quartier, de la ville, i.e. de la pluralité de bâtiments, et/ou le placement des objets virtuels peuvent être mis en oeuvre selon la technique décrite en relation avec le premier exemple de réalisation. En variante, la cartographie de l'ensemble des bâtiments et/ou le placement des objets virtuels peuvent être obtenus par d'autres techniques, notamment à partir de bases de données réelles ou fictives, ou en utilisant les coordonnées spatiales des objets connectés pour placer les objets virtuels, etc.
On dispose donc d'une représentation de la ville et des objets connectés, sous la forme d'une cartographie (par exemple 3D) de la ville et d'objets virtuels (placés sur ce plan) synchronisés avec les objets connectés. On peut ainsi observer la densité des objets connectés dans une ville.
La figure 5 illustre un exemple d'une telle représentation. Par souci de simplification, la figure 5 propose une représentation d'un ensemble de trois bâtiments comprenant une maison et deux immeubles. Sur cette figure, on visualise une représentation des rues, des différents bâtiments, et des objets connectés associés à chacun de ces bâtiments. Par exemple, la maison est équipée d'une caméra de surveillance et d'un thermostat. Les deux immeubles sont équipés de détecteurs de fumée et de caméra de surveillance. Une caméra de surveillance est également prévue dans la rue. Dans la représentation illustrée en figure 5, à nouveau par souci de simplification, l'objet virtuel correspondant au thermostat est représenté par un pictogramme circulaire 51, les objets virtuels correspondant aux caméras sont représentés par un pictogramme rectangulaire 52, et les objets virtuels correspondant aux détecteurs de fumée sont représentés par un pictogramme en forme d'étoile 53.
Dans un ou plusieurs modes de réalisation, l'interface utilisateur proposée peut être configurée de manière à permettre à l'utilisateur de « zoomer » sur un bâtiment en particulier, auquel cas il peut visualiser les objets virtuels placés aux mêmes positions, dans la représentation du bâtiment, que les objets dans le bâtiment « physique ». Au contraire, l'interface utilisateur proposée peut être configurée de sorte que si l'utilisateur « dé-zoome » pour obtenir une vue d'ensemble des bâtiments, les objets virtuels apparaissent par exemple sur la représentation du toit des bâtiments.
Il est alors plus aisé pour un superviseur de superviser les objets connectés en exploitant les objets virtuels, puisqu'il dispose d'une vue d'ensemble des objets virtuels. Notamment, le superviseur peut (virtuellement) visualiser l'ensemble des objets connectés d'une ville, naviguer dans la ville, agir sur les objets connectés, en : visualisant l'ensemble des objets virtuels, en naviguant dans la représentation de la ville, et en agissant avec les objets virtuels.
On considère également, selon ce deuxième exemple, que le dispositif de gestion utilise une plateforme de réalité virtuelle pour interagir avec les objets connectés. Par exemple, l'utilisateur peut avancer pour « zoomer » sur un bâtiment particulier, reculer pour obtenir une vue d'ensemble, tourner pour avoir une autre vue, etc.
Notamment, le dispositif de gestion peut prendre la forme d'un casque de réalité virtuelle, couplé avec une manette d'interaction, par exemple de type HTC Vive ou Oculus. L'utilisateur peut se diriger et se déplacer dans la scène virtuelle par ses mouvements de tête (direction du regard), et éventuellement à la manipulation de la manette d'interaction. Par exemple, les mouvements réels de la manette d'interaction sont représentés sous la forme d'un faisceau laser dans la représentation de la ville. L'utilisateur peut ainsi diriger ce faisceau pour se déplacer, « zoomer » sur un bâtiment particulier, etc. Le casque de réalité virtuelle est équipé d'un écran, sur lequel apparaît la représentation des bâtiments et des objets connectés.
Une telle plateforme dispose d'une interface permettant notamment de gérer les différents affichages, d'agir sur les objets connectés, de créer des scénarios entre les objets connectés, etc.
Par exemple, l'interface utilisateur peut être configuré de sorte qu'en appuyant sur une gâchette de la manette d'interaction, ou en dirigeant le faisceau vers une position particulière, il soit possible, de sélectionner un élément d'un menu, de sélectionner un bâtiment, etc. La manette d'interaction peut également être équipée de boutons permettant d'afficher différents menus, de se déplacer dans la représentation de la ville, etc.
Notamment, une action sur la gâchette peut entraîner l'apparition d'un menu permettant d'expliquer les fonctionnalités d'interaction avec les objets virtuels / les objets connectés.
Ainsi, une telle interface permet de sélectionner les représentations des objets connectés que l'on souhaite afficher sur la représentation de la ville.
L'utilisateur peut ainsi, dans un ou plusieurs modes de réalisation, choisir différentes thématiques (habitat, transport, environnement, énergie, recyclage déchet, etc), et pour chaque thématique, choisir d'afficher tous les objets virtuels, aucun objet virtuel, uniquement certains objets virtuels. Par exemple, la thématique « habitat » permet d'afficher des objets virtuels de type caméra, prise intelligente, thermostat, volet roulant, sirène intérieure, détecteur de fuite d'eau ouverture d'une porte-fenêtre, détecteur de mouvement, etc. La thématique « transport » permet d'afficher des objets virtuels de type métro, bus, vélos, trafic routier, drone, etc. La thématique « environnement » permet d'afficher des objets virtuels de type appareil de mesure de la qualité de l'air, etc. La thématique « énergie » permet d'afficher des objets virtuels de type borne de recharge électrique, etc. La thématique « recyclage des déchets » permet d'afficher des objets virtuels de type « conteneurs de déchets », etc. Les figures 8A à 8C illustrent ces différentes thématiques. La sélection de la thématique et/ou des objets virtuels à afficher peut s'effectuer par l'intermédiaire de la manette interactive. En particulier, le faisceau de la manette peut être dirigé vers une case du menu pour la cocher ou la décocher.
En plus d'une visualisation géographique des différents objets virtuels, l'interface offre ainsi la possibilité d'obtenir une visualisation thématique des différents objets virtuels.
De plus, l'interface peut être configurée de sorte que dans un ou plusieurs modes de réalisation, il soit possible de sélectionner via l'un des menus une « vue système », permettant de regrouper les différents objets par thème (habitat, transport, environnement, ...), et de visualiser la densité d'objets connectés par thématique. Par exemple, comme illustré en figure 8F, la « vue système » de la thématique transport comprend un nuage de points comprenant des points de couleurs différentes pour représenter d'une part le transport par bus 81, d'autre part le transport par métro 82, d'autre part le transport par vélos 83, et enfin le transport par voiture 84.
Dans un ou plusieurs modes de réalisation, la « vue système » peut être visualisée à différents instants (par exemple au 1er janvier 2015, au 1er janvier 2016, au 1er janvier 2025, etc). II est ainsi possible de visualiser l'état du réseau d'objets connectés au cours d'une année ou de plusieurs années.
La «vue système» permet également de visualiser les liens entre les objets d'une thématique avec les objets d'une autre thématique : par exemple des objets de « Mon habitat » peuvent être reliés à des objets de la thématique « déchets ».
II est possible également de visualiser l'évolution dans le temps de la quantité d'objets par thématique en utilisant la manette d'interaction et en faisant défiler par appui droite ou gauche les années successives. Le menu d'interaction apparaît autour de la manette virtuelle pour interagir et sortir de la scène virtuelle.
Eventuellement, des autorisations d'accès aux objets virtuels, ou plus précisément aux informations relatives aux objets connectés correspondants, peuvent être prévues.
Par exemple, un agent du service de l'eau pourra n'avoir accès qu'aux objets virtuels de type détecteur de fuite d'eau ou compteur d'eau, et pourra visualiser facilement l'ensemble des compteurs et des fuites d'eau au niveau de la ville.
Lorsque l'utilisateur/superviseur souhaite avoir plus d'informations sur un bâtiment particulier, il peut sélectionner ce bâtiment, par exemple en le pointant avec le faisceau laser (« roll-over »). Lorsque l'utilisateur vise un bâtiment, l'adresse de ce bâtiment peut apparaître dans un espace dédié de l'écran de visualisation.
Par exemple, lorsqu'un appartement est sélectionné, le plan de l'appartement est restitué sur l'écran de visualisation, avec l'ensemble des objets virtuels, et les relations entre ces objets virtuels, dans une fenêtre. Ainsi, la figure 6A illustre un exemple de vue globale d'un appartement, avec le réseau d'objets connectés. Plus précisément, la figure 6A illustre une représentation de l'appartement, avec l'ensemble des objets virtuels (i.e. des avatars des objets dont on a construit une représentation), et les relations entre ces objets virtuels.
La figure 6B est un zoom sur le plan de l'appartement, avec une rotation de 90°. La figure 6C est une vue très simplifiée d'un plan d'appartement 61, dans lequel chaque carré 62 est un objet virtuel représentant un objet connecté, et chaque trait 63 une relation entre les objets connectés.
Dans un ou plusieurs modes de réalisation, lorsque l'utilisateur sélectionne un objet virtuel, par exemple en le pointant avec le faisceau laser, ou en actionnant la gâchette, une fenêtre s'ouvre, affichant des informations relatives à l'objet connecté. Par exemple, en pointant l'objet virtuel représentatif de la caméra du salon, il obtient les caractéristiques de l'objet connecté, de type marque et/ou numéro de série et/ou date de mise en service et/ou type de connectivité et/ou alimentation et/ou audio et/ou dimensions et/ou adresse MAC et/ou prix, etc, comme illustré en figure 8G.
Dans un ou plusieurs modes de réalisation, l'utilisateur peut également avoir accès en changeant de menu à l'état de l'objet (par exemple caméra activée ou non activée), avec un historique. Par exemple, la caméra salon a été activée du 12 au 31 août 2016, désactivée sinon. Ces informations peuvent être affichées sous la forme d'un chronographe.
Dans un ou plusieurs modes de réalisation, l'utilisateur peut également avoir accès en changeant de menu à la description de l'objet.
Dans un ou plusieurs modes de réalisation, lorsque l'utilisateur sélectionne un lien entre deux objets virtuels, par exemple en passant sur un trait entre deux objets virtuels avec le faisceau laser, ou en actionnant la gâchette, il obtient des informations sur les relations physiques et/ou fonctionnelles entre les objets connectés concernés.
De telles relations physiques sont par exemple de type protocole de communication, bande de fréquence, portée, etc, comme illustré en figure 8D.
Les relations fonctionnelles sont par exemple de type « les deux objets reliés peuvent interagir et s'échanger des informations entre eux », « une condition atteinte par un premier objet entraîne une action sur un deuxième objet » (par exemple, le détecteur de mouvements peut agir sur le thermostat et augmenter légèrement la température s'il détecte la présence d'une personne dans la pièce), etc, comme illustré en figure 8E.
De telles relations fonctionnelles peuvent être définies par le propriétaire ou l'utilisateur du réseau d'objets connectés de l'appartement : par exemple, en reprenant le premier exemple, lorsque le propriétaire du réseau d'objets connectés construit les représentations d'objets connectés, il peut créer des scénarios au niveau des objets virtuels, selon lequel si le détecteur de présence détecte une présence, la caméra de surveillance doit être activée, ou selon lequel les stores doivent être fermés lorsque la température de la pièce est supérieure à 25°C et que la station météo indique un temps ensoleillé, etc.
Grâce à l'interface, il est également possible dans un ou plusieurs modes de réalisation de définir des règles de comportement, assimilables à des scénarios impliquant plusieurs objets connectés, en complément et/ou en remplacement de scénarios définis par le propriétaire ou l'utilisateur du réseau d'objets connectés de l'appartement. Par exemple, en actionnant un bouton « engrenage » E apparaissant sur l'écran de restitution, il est possible de définir des règles de comportement de type : si « caractéristiques de l'objet virtuel 1 » « égale à / différente de / supérieure à / inférieure à » « condition 1 », alors « caractéristiques de l'objet virtuel 2 » « action ». Par exemple, si la température extérieure est égale à 20°C, alors «volets roulants » « ouvrir ». II est ainsi possible de définir des scénarios impliquant deux objets connectés ou plus, en définissant une action sur au moins un deuxième objet en fonction d'une condition sur un premier objet.
En particulier, comme illustré en figure 6A, une ligne des temps 66 (« en anglais « timeline ») peut être affichée dans un ou plusieurs modes de réalisation, permettant de visualiser les changements survenus dans le réseau au fil du temps. II est notamment possible de visualiser l'état du réseau d'objets connectés au cours de l'année, par exemple 2016, et de pointer vers différents points de la ligne des temps pour visualiser l'état du réseau à un instant t. Par exemple, l'appartement 61 à l'instant tl, illustré en figure 6C, comprend un réseau de quatre objets connectés 62. L'appartement 61 à l'instant t2, illustré en figure 6D, comprend un réseau de cinq objets connectés 62. L'utilisateur peut ainsi se placer à un instant précis pour visualiser l'état du réseau d'objets connectés.
II est également possible d'afficher l'état du réseau sur une autre année, par exemple une projection sur 2025. A chaque année / point sélectionné sur la ligne des temps, l'état du réseau se met à jour et s'affiche en fonction des informations stockées à la date concernée.
L'utilisation d'une ligne des temps permet ainsi d'adapter la représentation du réseau d'objets connectés à l'instant pointé (par exemple par le faisceau laser) dans la ligne de temps. Elle offre une représentation temporelle de l'apparition/disparition des objets virtuels, et de leurs relations.
L'utilisateur peut ainsi disposer, à différents instants, de toutes les informations relatives au réseau d'objets connectés, comme la position spatiale des objets connectés, leur relation physique et/ou fonctionnelle.
Ainsi, dans un ou plusieurs modes de réalisation, en cas de défaillance d'un réseau, un superviseur peut analyser la ligne des temps, et déterminer quand le réseau est devenu défaillant, si c'est suite à l'insertion d'un nouvel objet connecté dans le réseau, etc. Un superviseur, par exemple un administrateur réseau, peut ainsi détecter, grâce à la ligne des temps des objets virtuels, une défaillance d'un objet connecté, et agir à distance sur l'objet connecté / le réseau pour le reconfigurer. La solution proposée offre ainsi une solution pour le maintien à distance de réseaux.
II est aisé de parcourir la ligne des temps, puisqu'il suffit de déplacer un curseur / viser un point de la ligne des temps pour visualiser le réseau d'objets connectés, ou plus précisément l'ensemble des objets virtuels et les relations entre ces objets virtuels, à l'instant choisi.
Par ailleurs, comme également illustré en figure 6A, il est possible de contrôler des objets connectés présents dans le voisinage de l'appartement sélectionné, comme la caméra de surveillance 64 d'un voisin ou une caméra de surveillance du quartier, ou d'obtenir des informations de ces objets, par exemple la station météo 65 du voisin. En effet, comme le montre la figure 6A, il est possible de visualiser les objets connectés disponibles à l'extérieur de l'environnement domestique de l'appartement sélectionné, par exemple en passant le faisceau laser sur la représentation de l'appartement. Pour pouvoir accéder aux objets connectés du voisinage, une autorisation des propriétaires de ces objets peut être demandée et vérifiée.
Enfin, il est possible de fermer la fenêtre affichant le plan de l'appartement en actionnant un bouton F, comme illustré en figure 6A.
En particulier, comme décrit en relation avec le premier exemple, il est possible d'agir à distance sur un objet connecté, par exemple pour l'activer ou le désactiver, en agissant directement sur son avatar.
On note que la solution proposée peut également être utilisée, dans un ou plusieurs modes de réalisation, pour collecter des données de type informations sur le trafic, pollution, ou être utilisée à des fins de simulations pour voir comment un réseau se comporterait si on y ajoutait tel ou tel objet.
On présente finalement, en relation avec la figure 7, la structure simplifiée d'un dispositif de gestion mettant en oeuvre une technique de gestion selon un ou plusieurs modes de réalisation de l'invention. Seuls les principaux éléments relatifs à la mise en oeuvre de la technique proposée sont illustrés. Comme indiqué au fil de la description, un tel dispositif peut également être équipé de capteurs, de caméra, d'un écran, etc.
Le dispositif comprend une mémoire 71 comprenant une mémoire tampon, une unité de traitement 72, équipée par exemple d'un processeur P, et pilotée par une application ou un programme d'ordinateur 73, mettant en oeuvre les étapes du procédé proposé.
A l'initialisation, les instructions de code du programme d'ordinateur 73 sont par exemple chargées dans une mémoire RAM avant d'être exécutées par le processeur de l'unité de traitement 72. Le processeur de l'unité de traitement 72 est configuré pour mettre en oeuvre le procédé proposé dans ses différents modes de réalisation, selon les instructions du programme d'ordinateur 73, pour construire une représentation des objets d'un ensemble d'objets, associant respectivement aux objets des représentations sous forme d'objets virtuels, obtenir une représentation d'un espace dans lequel les objets de l'ensemble d'objets sont situés, et associer la représentation de l'espace avec les représentations des objets pour obtenir une représentation contextuelle des objets de l'ensemble.

Claims (15)

  1. REVENDICATIONS
    1. Procédé de gestion d'un ensemble d'objets comprenant au moins un objet connecté, le procédé comprenant une phase de construction (11) comprenant :
    - construction (111) d'une représentation des objets de l'ensemble d'objets, associant respectivement aux objets des représentations sous forme d'objets virtuels,
    - obtention (112) d'une représentation d'un espace dans lequel les objets de l'ensemble d'objets sont situés, et
    - association (113) de la représentation de l'espace avec les représentations des objets pour obtenir une représentation contextuelle des objets de l'ensemble.
  2. 2. Procédé selon la revendication 1, dans lequel l'obtention d'une représentation d'un espace comprend :
    - construction d'une représentation multidimensionnelle d'une pièce d'un bâtiment ;
    et dans lequel l'association de la représentation de l'espace avec les représentations des objets comprend :
    - repérage (1131), dans la pièce, d'un objet de l'ensemble ;
    - ajout (1132), dans la représentation de la pièce, d'au moins un objet virtuel associé à l'objet.
  3. 3. Procédé selon la revendication 2, dans lequel la construction d'une représentation multidimensionnelle d'une pièce d'un bâtiment comprend :
    - capture du sol de la pièce,
    - capture d'un premier mur formant la pièce,
    - capture d'au moins un deuxième mur formant la pièce,
    - capture du premier mur, pour finaliser la construction.
  4. 4. Procédé selon l'une quelconque des revendications 1 à 3, comprenant en outre une phase d'exploitation des objets virtuels pour superviser les objets correspondants.
  5. 5. Procédé selon la revendication 4, dans laquelle la phase d'exploitation (12) comprend :
    - sélection (121) d'un objet virtuel, et
    - obtention (122) d'informations relatives à l'objet associé à l'objet virtuel sélectionné et/ou action sur l'objet associé à l'objet virtuel sélectionné.
  6. 6. Procédé selon l'une quelconque des revendications 4 à 5, dans lequel la phase de construction met en oeuvre une définition d'au moins un scénario liant une pluralité d'objets virtuels, et en ce que la phase d'exploitation met en oeuvre une action sur le/les objets associés à la pluralité d'objets virtuels, selon le scénario.
  7. 7. Procédé selon l'une quelconque des revendications précédentes, comprenant en outre : stockage d'informations relatives aux objets de l'ensemble.
  8. 8. Procédé selon l'une quelconque des revendications précédentes, dans lequel l'espace représenté est à deux dimensions ou à trois dimensions.
  9. 9. Procédé selon l'une quelconque des revendications précédentes, comprenant en outre : affichage d'informations relatives aux objets de l'ensemble.
  10. 10. Procédé selon l'une quelconque des revendications précédentes, comprenant en outre : affichage des relations spatiales et/ou temporelles entre les objets de l'ensemble.
  11. 11. Procédé selon l'une quelconque des revendications précédentes, comprenant en outre : ajout, dans la représentation de l'espace, d'un objet virtuel non associé à un objet connecté de l'ensemble.
  12. 12. Procédé selon les revendications 3 et 5, dans lequel le procédé met en œuvre un équipement muni d'un écran, ou communiquant avec un écran, configuré pour restituer les objets virtuels, et d'un capteur et/ou une caméra, en ce que les captures selon la revendication 3 sont mises en œuvre en pointant le capteur et/ou la caméra vers le sol ou les murs de la pièce, et en ce que la sélection selon la revendication 5 est mise en œuvre en pointant le capteur et/ou la caméra vers l'objet, ou en plaçant l'objet virtuel dans une zone spécifique de l'écran.
  13. 13. Dispositif de gestion d'un ensemble d'objets comprenant au moins un objet connecté, le dispositif comprenant au moins un processeur apte à et configuré pour :
    - construire une représentation des objets de l'ensemble d'objets, associant respectivement aux objets des représentations sous forme d'objets virtuels,
    - obtenir une représentation d'un espace dans lequel les objets de l'ensemble d'objets sont situés, et
    - associer la représentation de l'espace avec les représentations des objets pour obtenir une représentation contextuelle des objets de l'ensemble.
  14. 14. Dispositif de gestion selon la revendication 13, caractérisé en ce qu'il comprend une plateforme matérielle de réalité augmentée, comprenant :
    - au moins un capteur et/ou au moins une caméra, configuré pour déterminer la position desdits objets dans l'espace ; et
    - au moins un écran, configuré pour restituer lesdits objets virtuels.
  15. 15. Programme d'ordinateur comportant des instructions pour la mise en œuvre d'un procédé selon la revendication 1 lorsque ce programme est exécuté par un processeur.
    1/9
    Γ — — — — — π
FR1661968A 2016-12-05 2016-12-05 Procede de gestion d'un ensemble d'objets, dispositif et programme d'ordinateur pour la mise en œuvre du procede. Active FR3059808B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1661968A FR3059808B1 (fr) 2016-12-05 2016-12-05 Procede de gestion d'un ensemble d'objets, dispositif et programme d'ordinateur pour la mise en œuvre du procede.

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1661968A FR3059808B1 (fr) 2016-12-05 2016-12-05 Procede de gestion d'un ensemble d'objets, dispositif et programme d'ordinateur pour la mise en œuvre du procede.
FR1661968 2016-12-05

Publications (2)

Publication Number Publication Date
FR3059808A1 true FR3059808A1 (fr) 2018-06-08
FR3059808B1 FR3059808B1 (fr) 2019-09-27

Family

ID=58401712

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1661968A Active FR3059808B1 (fr) 2016-12-05 2016-12-05 Procede de gestion d'un ensemble d'objets, dispositif et programme d'ordinateur pour la mise en œuvre du procede.

Country Status (1)

Country Link
FR (1) FR3059808B1 (fr)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001078307A2 (fr) * 2000-04-10 2001-10-18 Zensys A/S Systeme domotique rf pourvu de noeuds a fonctionnalite double
US20060074494A1 (en) * 2004-09-29 2006-04-06 Mcfarland Norman R Automated position detection for wireless building automation devices

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001078307A2 (fr) * 2000-04-10 2001-10-18 Zensys A/S Systeme domotique rf pourvu de noeuds a fonctionnalite double
US20060074494A1 (en) * 2004-09-29 2006-04-06 Mcfarland Norman R Automated position detection for wireless building automation devices

Also Published As

Publication number Publication date
FR3059808B1 (fr) 2019-09-27

Similar Documents

Publication Publication Date Title
CA3097163C (fr) Presentation de renseignements integres sur le batiment au moyen de modeles de batiment tridimensionnels
US11935196B2 (en) Presenting building information using building models
US11501224B2 (en) Project management system with client interaction
US11057561B2 (en) Capture, analysis and use of building data from mobile devices
CN105376121B (zh) 图像触发配对
EP2776895B1 (fr) Procédé de constitution d'une structure de données de référence et procédé de commande d'un actionneur
CN103543700B (zh) 控制传感器装置的方法和设备
CN112350441A (zh) 一种变电站在线智能巡视系统及方法
US20130335415A1 (en) Converged security management system and method
CA2956102A1 (fr) Procedes de determination et de commande d'un equipement a commander, dispositif, utilisation et systeme mettant en oeuvre ces procedes
US20120191223A1 (en) System and method for automatically selecting sensors
CN107038754A (zh) 一种基于三维实景的智慧园区管理系统及方法
FR2993385A1 (fr) Procede et systeme de reconstruction de trajectoire 3d en temps reel
US20140074733A1 (en) Photograph initiated appraisal process and application
KR101210505B1 (ko) 3차원 시설물 관리 시스템 및 이에 의한 방법
FR3059808B1 (fr) Procede de gestion d'un ensemble d'objets, dispositif et programme d'ordinateur pour la mise en œuvre du procede.
Hong et al. The use of CCTV in the emergency response: A 3D GIS perspective
WO2020254171A1 (fr) Procede de generation d'une representation virtuelle d'un environnement reel, dispositifs et systeme correspondant
JP2014182838A (ja) 地理的エリアの公開格付けを取得する情報システム
Suciu et al. 3D modeling using Parrot Bebop 2 FPV
US20240196107A1 (en) System and method for enhancing a collaborative camera installation experience
EP2059903B1 (fr) Procede et outil de configuration d'au moins un systeme de videosurveillance intelligente
KR102478908B1 (ko) 건물의 일조 시간 정보를 제공하는 방법 및 장치
WO2023227611A1 (fr) Procede d'ancrage d'un objet virtuel, systeme associe
WO2022123125A1 (fr) Outil de suivi de chantier par réalité augmentée intégrant la planification

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20180608

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8