FR2937158A1 - DEVICE FOR DEPTH EXPLORING OBJECTS, ESPECIALLY HUMAN BODIES, AND METHOD FOR EXPLORING AN OBJECT IN DEPTH - Google Patents

DEVICE FOR DEPTH EXPLORING OBJECTS, ESPECIALLY HUMAN BODIES, AND METHOD FOR EXPLORING AN OBJECT IN DEPTH Download PDF

Info

Publication number
FR2937158A1
FR2937158A1 FR0805662A FR0805662A FR2937158A1 FR 2937158 A1 FR2937158 A1 FR 2937158A1 FR 0805662 A FR0805662 A FR 0805662A FR 0805662 A FR0805662 A FR 0805662A FR 2937158 A1 FR2937158 A1 FR 2937158A1
Authority
FR
France
Prior art keywords
exploration
database
volumetric data
exploration device
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR0805662A
Other languages
French (fr)
Inventor
Emmanuel Duprat
Mehdi Khalfaoui
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to FR0805662A priority Critical patent/FR2937158A1/en
Priority to PCT/EP2009/063365 priority patent/WO2010043628A1/en
Publication of FR2937158A1 publication Critical patent/FR2937158A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Ce dispositif d'exploration pour explorer en profondeur des objets (10) tels qu'un corps humain, dispositif comporte : - un dispositif d'affichage '(1) pour permettre la visualisation d'écrans, - un dispositif de pointage (3) manoeuvrable par l'utilisateur, - une première base de données (8)comportant des données volumétriques concernant l'objet, - un ensemble de gestion (12) pour gérer l'interaction desdits dispositifs avec ladite base de données. Il est en outre prévu: - un gestionnaire de construction d'objet (a, b, c, d, e fig.3), pour construire l'objet à partir desdites données volumétriques - une caméra fictive (42) déplaçable par action sur le dispositif de pointage (3) pour fournir des visualisations dudit objet sur le dispositif d'affichageThis scanning device for deep exploration of objects (10) such as a human body, device comprises: - a display device (1) for enabling the display of screens, - a pointing device (3) operable by the user, - a first database (8) comprising volumetric data concerning the object, - a management set (12) for managing the interaction of said devices with said database. There is further provided: - an object construction manager (a, b, c, d, e fig.3) for constructing the object from said volumetric data - a dummy camera (42) movable by action on the pointing device (3) for providing visualizations of said object on the display device

Description

Dispositif pour explorer en profondeur, des objets, notamment, des corps humains et procédé pour explorer, en profondeur un objet La présente invention concerne un dispositif d'exploration pour explorer en profondeur des objets tels que des corps humains, dispositif comportant au moins : - un dispositif d'affichage pour permettre la visualisation d'écrans, - un dispositif de pointage manoeuvrable par l'utilisateur, - une première base de données comportant des données volumétriques concernant l'objet, - un ensemble de gestion pour gérer l'interaction desdits dispositifs d'affichage et de pointage avec ladite base de données. L'invention concerne aussi un procédé pour explorer, en profondeur, un objet. The present invention relates to an exploration device for in-depth exploration of objects such as human bodies, device comprising at least: a display device for enabling the display of screens, a user-controllable pointing device, a first database comprising volumetric data concerning the object, a management set for managing the interaction of said objects; display and pointing devices with said database. The invention also relates to a method for exploring, in depth, an object.

Les dispositifs de ce genre trouvent d'importantes applications. Notamment dans le domaine de la médecine pour l'exploration du corps humain. En effet pour avoir une vue détaillée d'un corps humain, il est nécessaire d'avoir une multitude de planches anatomiques montrant le corps à différents niveaux, peau, muscles, systèmes nerveux, organes, squelette. Devices of this kind find important applications. Especially in the field of medicine for the exploration of the human body. Indeed to have a detailed view of a human body, it is necessary to have a multitude of anatomical planks showing the body at different levels, skin, muscles, nervous systems, organs, skeleton.

Un procédé qui décrit ce genre d'exploration est divulgué dans le document de brevet français FR 2837316. Dans le procédé décrit, on fait appel à un logiciel gérant, en fait, des séries de planches anatomiques. Ceci ne permet pas une réelle exploration d'un objet tel qu'un corps humain. L'invention propose un dispositif du genre mentionné dans le préambule qui 20 présente une meilleure perception des objets en profondeur et, notamment, du corps humain et qui procure des facilités d'exploration à l'intérieur des objets. Conformément à l'invention, le dispositif selon le préambule est remarquable en ce qu'il est prévu : - 2 - un gestionnaire de construction d'objet pour construire l'objet à partir desdites données volumétriques, - une caméra fictive déplaçable par action sur le dispositif de pointage pour fournir des visualisations dudit objet sur le dispositif d'affichage. A method which describes this kind of exploration is disclosed in French patent document FR 2837316. In the method described, software is used that manages, in fact, series of anatomical boards. This does not allow a real exploration of an object such as a human body. The invention provides a device of the kind mentioned in the preamble which has a better perception of the objects in depth and, in particular, the human body and which provides exploration facilities within the objects. According to the invention, the device according to the preamble is remarkable in that there is provided: - 2 - an object construction manager for constructing the object from said volumetric data, - a fictional camera movable by action on the pointing device for providing visualizations of said object on the display device.

Conformément à l'invention, le procédé mentionné ci-dessus est remarquable en ce qu'il comporte les étapes suivantes : - construction de l'objet à partir d'éléments fournis à partir de la base de données volumétriques, - implication d'une caméra fictive, - une étape de visualisation obtenue par le déplacement de la caméra effectué par l'utilisateur, - une étape de recherche documentaire pour un élément choisi par l'utilisateur. L'idée de l'invention est que l'objet à explorer est formé d'éléments et de couches se présentant sous une forme à 3 dimensions (3D) et assemblés pour former un seul objet 3 D à explorer. Ainsi lors de l'exploration à l'intérieur de l'objet tous ces éléments peuvent être perçus comme faisant partie du même objet. Selon une caractéristique importante de l'invention, pour lequel l'objet à explorer est formé de couches internes, le dispositif mentionné dans le préambule est remarquable en ce que les couches sont affectées d'un attribut de niveau de transparence. On obtient ainsi l'avantage que l'utilisateur est guidé dans son exploration ce qui lui permet de s'orienter, dans de bonnes conditions, vers l'endroit qu'il souhaite aller. La description suivante accompagnée des dessins ci-annexés, le tout donné à titre d'exemple non limitatif, fera bien comprendre comment l'invention peut être réalisée. Dans les dessins, les figures représentent : la figure 1 montre un dispositif d'exploration autonome, la figure 2 montre un dispositif d'exploration impliquant un serveur, la figure 3 montre un schéma montrant comment les éléments constituant l'objet à explorer sont construits à partir d'éléments, la figure 4 montre les positions relatives d'une caméra fictive avec un objet à explorer, la figure 5 montre la caméra pénétrant dans l'objet, la figure 6 montre un écran montrant un corps humain avec en regard des informations concernant un organe et cet organe lui-même, La figure 7 montre un organigramme explicitant la recherche d'information 5 documentaire concernant un organe et l'organe lui-même. Les éléments communs à différentes figures portent les mêmes références. La figure 1 montre un premier dispositif conforme à l'invention il est constitué par un ensemble-ordinateur formé d'un écran 1, d'un clavier 2, d'un dispositif de pointage 3, d'une carte d'accès réseau 4 pour se connecter au réseau Internet 6, d'un 10 organe de mémorisation 8 pour contenir, notamment, une première base de concernant des données volumétriques relative à l'objet 10 à explorer et à visualiser sur l'écran 1, d'une deuxième base de données 9 concernant des données d'informations relatives à des éléments de l'objet et d'un ensemble de gestion d'ordinateur conventionnel 12 constitué à partir d'un microprocesseur 15 pour gérer le tout. Le dispositif de la 15 figure 1 peut fournir à la demande de l'utilisateur des visualisations des objets en empruntant des données contenues dans l'organe de mémorisation 8. Il peut obtenir aussi des données documentaires et complémentaires concernant une partie de l'objet comme un organe dans le cadre de l'exploration du corps humain en prélevant des données dans la base de données 9 et si, besoin est, il peut faire appel au réseau 20 Internet 6 pour recueillir d'autres données supplémentaires. Le dispositif montré à la figure 1 fonctionne donc en mode de station de travail. Bien qu'on ait décrit des bases de données locales 8 et 9 situées dans la station de travail, celles-ci peuvent se trouver sur des sites que l'on peut atteindre via des liens Internet. 25 La figure 2 montre, selon un mode de réalisation préféré, un dispositif fonctionnant en mode client-serveur. Sur la figure 2, le serveur porte la référence 20 tandis que le client, la référence 21. Sur la figure 2, on a représenté d'autres sites 25 ou 26 qui peuvent être des clients ou des sources de données supplémentaires. Le client 21 visualise l'objet 10 sur différents angles en manoeuvrant sa souris 3. Les 30 données qu'il visualise proviennent, en grande partie, de l'organe de mémorisation 8' 2937158 -4- rattaché au serveur 20. Il est bien évident que le client 21 se connecte au serveur 20 en utilisant son Internet explorateur, genre IE de Microsoft selon les processus connus. Le dispositif de l'invention fonctionne de la manière suivante. On se reporte à la figure 3 qui montre les différents constituants ou éléments d'un objet et comment le gestionnaire de construction d'objet opère. Cet objet peut être un corps humain. Ainsi en a de cette figure 3, on a la représentation de l'enveloppe du corps, son épiderme, donc. En b, c'est, par exemple, une couche représentant la masse musculaire, en ce sont différents organes du corps, comme l'estomac, le coeur etc. en d, le squelette. Il est à noter que les couches peuvent présenter une certaine transparence ce qui permet à l'utilisateur de s'orienter, dans de bonnes conditions, vers l'endroit il souhaite aller dans son exploration. L'attribut de transparence est obtenu , d'une façon usuelle par les logiciels traitant les objets en 3D : par exemple le logiciel Blender. Selon un aspect important de l'invention, l'objet est tout d'abord formé des différents constituants, comme ceux montrés en a, b, ç, d. Ces constituants sont des représentations en 3D. C'est-à-dire qu'ils sont définis par un système de points de coordonnées qui leur sont propres. Le gestionnaire de construction d'objet assemble ces différents constituants de manière à former un seul objet 3D en respectant leur place respective au sein de l'enveloppe montrée en a. Cet assemblage est montré en e à la figure 3. Chaque constituant aura donc une place fixe au sein de l'objet. Les coordonnées de leurs points feront partie de l'objet. Pour expliquer l'exploration de cet objet, on se reporte à la figure 4. La référence 40 est un plan de référence horizontal. La référence 10 est l'objet et la référence 42 une caméra munie d'un objectif 44. According to the invention, the method mentioned above is remarkable in that it comprises the following steps: - construction of the object from elements provided from the volumetric database, - implication of a fictitious camera, - a visualization step obtained by moving the camera made by the user, - a documentary search step for a user-selected item. The idea of the invention is that the object to be explored is formed of elements and layers in a 3-dimensional (3D) form and assembled to form a single object 3D to explore. So when exploring inside the object all these elements can be perceived as part of the same object. According to an important characteristic of the invention, for which the object to be explored is formed of internal layers, the device mentioned in the preamble is remarkable in that the layers are assigned a transparency level attribute. This gives the advantage that the user is guided in his exploration which allows him to orient, in good conditions, to the place he wants to go. The following description accompanied by the accompanying drawings, all given by way of non-limiting example, will make it clear how the invention can be realized. In the drawings, the figures show: FIG. 1 shows an autonomous exploration device, FIG. 2 shows an exploration device involving a server, FIG. 3 shows a diagram showing how the elements constituting the object to be explored are constructed. Figure 4 shows the relative positions of a dummy camera with an object to be explored, Figure 5 shows the camera penetrating the object, Figure 6 shows a screen showing a human body with information about an organ and that organ itself, Figure 7 shows a flow chart explaining the search for information about an organ and the organ itself. The elements common to different figures bear the same references. FIG. 1 shows a first device according to the invention it consists of a computer-set formed by a screen 1, a keyboard 2, a pointing device 3, a network access card 4 to connect to the Internet network 6, a storage device 8 to contain, in particular, a first base of volumetric data relating to the object 10 to be explored and displayed on the screen 1, a second database 9 concerning information data relating to elements of the object and a set of conventional computer management 12 constituted from a microprocessor 15 to manage the whole. The device of FIG. 1 can provide, at the request of the user, visualizations of the objects by borrowing data contained in the storage device 8. It can also obtain documentary and complementary data concerning a part of the object such as: an organ in the context of the exploration of the human body by taking data from the database 9 and if need be, it can use the Internet network 6 to collect other additional data. The device shown in FIG. 1 thus operates in workstation mode. Although local databases 8 and 9 located in the workstation have been described, these can be on sites that can be reached via Internet links. FIG. 2 shows, according to a preferred embodiment, a device operating in client-server mode. In Figure 2, the server is referenced 20 while the client is 21. In Figure 2, there are shown other sites 25 or 26 which may be additional clients or data sources. The client 21 visualizes the object 10 at different angles by operating its mouse 3. The data it displays comes largely from the storage member 8 '2937158 -4- attached to the server 20. It is well obvious that the client 21 connects to the server 20 using its Internet Explorer, kind IE of Microsoft according to the known processes. The device of the invention operates as follows. Referring to Figure 3 which shows the different components or elements of an object and how the object construction manager operates. This object can be a human body. Thus in this figure 3, we have the representation of the body envelope, its epidermis, therefore. In b, it is, for example, a layer representing the muscular mass, in this are different organs of the body, like the stomach, the heart etc. in d, the skeleton. It should be noted that the layers may have a certain transparency which allows the user to orient, in good conditions, to the place he wants to go in his exploration. The transparency attribute is obtained in the usual way by software processing objects in 3D: for example the Blender software. According to an important aspect of the invention, the object is first formed of the various constituents, such as those shown in a, b, c, d. These constituents are representations in 3D. That is, they are defined by a system of points of coordinates of their own. The object construction manager assembles these different constituents so as to form a single 3D object respecting their respective place within the envelope shown in a. This assembly is shown in e in Figure 3. Each constituent will have a fixed place within the object. The coordinates of their points will be part of the object. To explain the exploration of this object, refer to Figure 4. The reference 40 is a horizontal reference plane. The reference 10 is the object and the reference 42 a camera provided with a lens 44.

Selon un aspect important de l'invention, c'est le déplacement de la caméra 42 qui explore l'objet 10. La caméra se déplace en agissant sur la souris. Ce déplacement se fait selon des mouvements de rotation centrés sur l'objet 10. Un mouvement rotH qui déplace la caméra dans le plan 40 et un mouvement rotV dans un plan perpendiculaire au plan 40. Ces mouvements sont commandés de préférence par actions sur la souris 3 en cliquant sur une icône qui sera décrite dans la suite du présent mémoire. Il est prévu aussi une icône de type zoom qui permet à la caméra - 5 de se rapprocher ou de s'éloigner de l'objet 10, donc, la distance d qui sépare la caméra de l'objet varie. Lorsque la distance d diminue et devient inférieur à une certaine distance D qui définit l'extérieur de l'objet la caméra visualise alors l'intérieur de l'objet. According to an important aspect of the invention, it is the movement of the camera 42 which explores the object 10. The camera moves by acting on the mouse. This displacement is done according to rotational movements centered on the object 10. A rotH movement that moves the camera in the plane 40 and rotV motion in a plane perpendicular to the plane 40. These movements are preferably controlled by actions on the mouse 3 by clicking on an icon that will be described later in this memo. There is also a zoom-like icon that allows the camera 5 to move closer to or away from the object 10, so the distance d between the camera and the object varies. When the distance d decreases and becomes smaller than a certain distance D which defines the exterior of the object, the camera then visualises the interior of the object.

C'est ce que représente la figure 5 pour le cas où d< D. De là, il est possible d'explorer tout l'intérieur de l'objet en faisant déplacer la caméra. La figure 6 montre un écran qui visualise les fonctionnalités de l'invention. Cet écran est divisé en plusieurs parties. - une partie visualisation 50 qui visualise l'objet 10, un corps humain de sexe féminin, par exemple. La couche épidermique présente une certaine transparence qui laisse entrevoir le système veineux et la masse musculaire. - une partie de commande de navigation 52 représentant des icônes 54, 55 sur lesquelles on clique pour le déplacement de la caméra 42. Les flèches 60 et 61 permettent le mouvement de rotation horizontal rotH, dans un sens et dans l'autre, et les flèches 62 et 64, le mouvement de rotation vertical rotV dans un plan vertical par rapport au plan 40, dans un sens et dans l'autre. L'échelle 65 permet de faire varier la distance d lorsqu'on déplace le curseur 66 le long de cette échelle. - une partie informations 70 qui apparaît lorsque le curseur 72 de la souris est à proximité d'un organe. Ici, c'est le coeur. - une partie 75 pour visualiser le détail de l'organe dont le commentaire est affiché dans la partie 70. - une partie recherche 78 est aussi prévue pour accéder à des commentaires et/ou des informations concernant un organe sans avoir besoin de cliquer sur la région de l'organe ou bien alors pour obtenir directement des informations provenant d'Internet. This is shown in Figure 5 for the case where d <D. From there, it is possible to explore the entire interior of the object by moving the camera. Figure 6 shows a screen that displays the features of the invention. This screen is divided into several parts. a visualization part 50 which visualises the object 10, a human body of female sex, for example. The epidermal layer has a certain transparency that suggests the venous system and muscle mass. a navigation control part 52 representing icons 54, 55 on which one clicks for the displacement of the camera 42. The arrows 60 and 61 allow the rotational horizontal rotational movement, in one direction and in the other, and the arrows 62 and 64, the rotational vertical rotation rotV in a vertical plane relative to the plane 40, in one direction and the other. The scale 65 makes it possible to vary the distance d when moving the cursor 66 along this scale. an information part 70 which appears when the cursor 72 of the mouse is close to an organ. Here is the heart. a part 75 to display the detail of the organ whose comment is displayed in part 70. a search part 78 is also provided to access comments and / or information concerning an organ without having to click on the region of the organ or else to directly obtain information from the Internet.

Pour cela, au moins un mot est introduit dans la zone de recherche 80. Selon une caractéristique de l'invention, il est important d'avoir des données à jour de l'organe visé. Pour cela, on fait appel à un système de recherche mis en oeuvre par l'ensemble de gestion 12 pour se connecter sur un site pertinent concernant ledit organe. La figure 7 illustre le processus. For this, at least one word is entered in the search zone 80. According to one characteristic of the invention, it is important to have up-to-date data of the target organ. For this, we use a search system implemented by the management set 12 to connect to a relevant site on said body. Figure 7 illustrates the process.

Chaque organe est, comme on l'a déjà dit, repéré par ses coordonnées (rotH, rotV et d . Each organ is, as already mentioned, identified by its coordinates (rotH, rotV and d.

La case K1 montre les coordonnées du curseur 72 X, Y. Dès que le curseur se trouve sur l'objet visualisé 10, les coordonnées sont transformées pour correspondre aux système de coordonnées de l'objet (case K2). Ces coordonnées sont comparées, avec une certaine marge d'incertitude, avec celles de différents éléments Eleml, Elem2, Elem3 contenues dans une table relative à différents organes prédéfinis, etc. (par exemple le coeur, le cerveau, l'estomac, etc.), comme cela est montré à la case K3 A chacun de ces éléments correspond une adresse Internet @1, @2, @3. Si on sélectionne un élément son adresse est trouvée et elle est intégrée dans un explorateur Internet, (case K5) qui restitue, dans la partie 70 l'information recueillie pour qu'elle soit visible à l'utilisateur (case K7). The box K1 shows the coordinates of the cursor 72 X, Y. As soon as the cursor is on the displayed object 10, the coordinates are transformed to correspond to the coordinate system of the object (box K2). These coordinates are compared, with a certain margin of uncertainty, with those of various elements Eleml, Elem2, Elem3 contained in a table relating to different predefined organs, etc. (eg heart, brain, stomach, etc.), as shown in box K3 Each of these elements corresponds to an Internet address @ 1, @ 2, @ 3. If one selects an element his address is found and it is integrated in an Internet explorer, (box K5) which restores, in the part 70 the information collected so that it is visible to the user (box K7).

Claims (11)

REVENDICATIONS. 1- Dispositif d'exploration pour explorer en profondeur des objets (10) tels que des corps humains, dispositif comportant au moins : - un dispositif d'affichage (1) pour permettre la visualisation d'écrans, - un dispositif de pointage (3) manoeuvrable par l'utilisateur, - une première base de données (8) comportant des données volumétriques concernant l'objet, - un ensemble de gestion (12) pour gérer l'interaction desdits dispositifs d'affichage et de pointage avec ladite base de données, dispositif caractérisé en ce qu'il est prévu : - un gestionnaire de construction d'objet (a, b, c, d, e fig.3), pour construire l'objet à partir desdites données volumétriques - une caméra fictive (44) déplaçable par action sur le dispositif de pointage (3) pour fournir des visualisations dudit objet sur le dispositif d'affichage. CLAIMS. 1-exploration device for deep exploration of objects (10) such as human bodies, device comprising at least: - a display device (1) to allow viewing of screens, - a pointing device (3). ) operable by the user, - a first database (8) comprising volumetric data relating to the object, - a management set (12) for managing the interaction of said display and pointing devices with said database. data, device characterized in that there is provided: - an object construction manager (a, b, c, d, e fig.3), for constructing the object from said volumetric data - a fictional camera ( 44) movable by action on the pointing device (3) to provide visualizations of said object on the display device. 2- Dispositif d'exploration selon la revendication 1, caractérisé en ce que les données volumétriques concernent des couches internes (b ûfig.3) dudit objet. 2- An exploration device according to claim 1, characterized in that the volumetric data relate to inner layers (bifig.3) of said object. 3- Dispositif d'exploration selon la revendication 1 ou 2 caractérisé en ce que les données volumétriques concernent des éléments (e û fig.3) faisant partie dudit objet. 3- An exploration device according to claim 1 or 2 characterized in that the volumetric data relate to elements (e-fig.3) forming part of said object. 4- Dispositif d'exploration selon la revendication 1 ou 2 ou 3, caractérisé en ce qu'il est prévu une seconde base de données documentaire concernant des informations relatives à la vue montrée sur le dispositif d'affichage. 4- An exploration device according to claim 1 or 2 or 3, characterized in that there is provided a second database of information relating to information relating to the view shown on the display device. 5- Dispositif d'exploration selon l'une des revendications 2 à 4 caractérisé en ce que les couches sont affectées d'un attribut de niveau de transparence. 5- exploration device according to one of claims 2 to 4 characterized in that the layers are assigned a transparency level attribute. 6- Dispositif d'exploration selon l'une des revendications 1 à 5 caractérisé en ce qu'au moins une desdites bases des données est une base de données locale. 6- exploration device according to one of claims 1 to 5 characterized in that at least one of said database is a local database. 7- Dispositif d'exploration selon l'une des revendications 1 à 5 caractérisé en ce qu'au moins une des dites bases de données est située sur un site accessible par un lien. 7- exploration device according to one of claims 1 to 5 characterized in that at least one of said databases is located on a site accessible by a link. 8- Dispositif d'exploration selon l'une des revendications 1 à 6 caractérisé en ce qu'il est prévu un système de recherche qui permet d'accéder à une zone de saisie- 8 pour au moins un mot à introduire et pour fournir en retour des informations relative à ce mot. 8- An exploration device according to one of claims 1 to 6 characterized in that there is provided a search system that provides access to an input area-8 for at least one word to introduce and to provide in return of information relating to this word. 9- Dispositif d'exploration selon l'une des revendications 1 à 8 caractérisé en ce qu'il fonctionne en station de travail.. 9- exploration device according to one of claims 1 to 8 characterized in that it operates in work station .. 10- Dispositif d'exploration selon l'une des revendications 1 à 8 caractérisé en ce qu'il fonctionne en mode client-serveur via une liaison de type internet. 10- exploration device according to one of claims 1 to 8 characterized in that it operates in client-server mode via an internet type of connection. 11- Procédé d'exploration d'objet en profondeur mis en oeuvre dans le dispositif selon l'une des revendications 1 à 10 caractérisé en ce qu'il comporte les étapes suivantes : - construction de l'objet à partir d'éléments fournis par la base données volumétriques, - implication d'une caméra fictive, - une étape de visualisation obtenue par le déplacement de la caméra effectué par l'utilisateur, - une étape de recherche documentaire pour un élément choisi par l'utilisateur.15 11- depth object exploration method implemented in the device according to one of claims 1 to 10 characterized in that it comprises the following steps: - construction of the object from elements provided by the volumetric data base, - implication of a fictitious camera, - a visualization step obtained by the displacement of the camera made by the user, - a documentary search step for a member selected by the user.
FR0805662A 2008-10-14 2008-10-14 DEVICE FOR DEPTH EXPLORING OBJECTS, ESPECIALLY HUMAN BODIES, AND METHOD FOR EXPLORING AN OBJECT IN DEPTH Withdrawn FR2937158A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR0805662A FR2937158A1 (en) 2008-10-14 2008-10-14 DEVICE FOR DEPTH EXPLORING OBJECTS, ESPECIALLY HUMAN BODIES, AND METHOD FOR EXPLORING AN OBJECT IN DEPTH
PCT/EP2009/063365 WO2010043628A1 (en) 2008-10-14 2009-10-13 Device for exploring in depth, objects, in particular human bodies and method for exploring, in depth, an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0805662A FR2937158A1 (en) 2008-10-14 2008-10-14 DEVICE FOR DEPTH EXPLORING OBJECTS, ESPECIALLY HUMAN BODIES, AND METHOD FOR EXPLORING AN OBJECT IN DEPTH

Publications (1)

Publication Number Publication Date
FR2937158A1 true FR2937158A1 (en) 2010-04-16

Family

ID=40613001

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0805662A Withdrawn FR2937158A1 (en) 2008-10-14 2008-10-14 DEVICE FOR DEPTH EXPLORING OBJECTS, ESPECIALLY HUMAN BODIES, AND METHOD FOR EXPLORING AN OBJECT IN DEPTH

Country Status (2)

Country Link
FR (1) FR2937158A1 (en)
WO (1) WO2010043628A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9568030B2 (en) * 2014-03-24 2017-02-14 Caterpillar Inc. System and method for managing machine power system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2837316A1 (en) * 2002-03-12 2003-09-19 Geckomedia Sa Medical informing and communicating method in which patients and or other medical staff can be informed of details relating to a patient's illness or condition by display and editing of electronic images

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2837316A1 (en) * 2002-03-12 2003-09-19 Geckomedia Sa Medical informing and communicating method in which patients and or other medical staff can be informed of details relating to a patient's illness or condition by display and editing of electronic images

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HANQIU SUN ET AL: "Feature-based interactive visualization of volumetric medical data", SYSTEMS, MAN, AND CYBERNETICS, 1998. 1998 IEEE INTERNATIONAL CONFERENC E ON SAN DIEGO, CA, USA 11-14 OCT. 1998, NEW YORK, NY, USA,IEEE, US, vol. 2, 11 October 1998 (1998-10-11), pages 1162 - 1167, XP010311072, ISBN: 978-0-7803-4778-6 *
MAROVIC ET AL: "Web-based grid-enabled interaction with 3D medical data", FUTURE GENERATIONS COMPUTER SYSTEMS, ELSEVIER SCIENCE PUBLISHERS. AMSTERDAM, NL, vol. 22, no. 4, 1 March 2006 (2006-03-01), pages 385 - 392, XP005232032, ISSN: 0167-739X *
WEI ZHENG: "A WEB BASED DISTRIBUTED MEDICAL RECORD AND IMAGING ENTRY AND VISUALIZATION SYSTEM", THESIS PRESENTED TO THE GRADUATE SCHOOL OF THE UNIVERSITY OF FLORIDA IN PARTIAL FULFILLMENT OF THE REQUIREMENTS FOR THE DEGREE OF MASTER OF SCIENCE. UNIVERSITY OF FLORIDA,, 1 January 2000 (2000-01-01), pages 1 - 74, XP007908542, Retrieved from the Internet <URL:http://etd.fcla.edu/UF/ana7047/master.PDF> [retrieved on 20090512] *

Also Published As

Publication number Publication date
WO2010043628A1 (en) 2010-04-22

Similar Documents

Publication Publication Date Title
Ward A taxonomy of glyph placement strategies for multidimensional data visualization
Craglia et al. Next-generation digital earth
US7889888B2 (en) System and method for grouping and visualizing data
US9594771B2 (en) System for analysis and geospatial visualization
Windhager et al. Many views are not enough: Designing for synoptic insights in cultural collections
Meinecke et al. Towards enhancing virtual museums by contextualizing art through interactive visualizations
Kolov Main Cathedral of Mutual Legitimation: The Church of the Russian Armed Forces as a Site of Making Power Meaningful
Jenny Terrain generalization with line integral convolution
FR2937158A1 (en) DEVICE FOR DEPTH EXPLORING OBJECTS, ESPECIALLY HUMAN BODIES, AND METHOD FOR EXPLORING AN OBJECT IN DEPTH
Turetken et al. Visualization of web spaces: state of the art and future directions
Neogy et al. Representing real-time multi-user collaboration in visualizations
Legrady et al. Pockets full of memories: an interactive museum installation
US20120290612A1 (en) N-dimensional data searching and display
US9245055B2 (en) Visualization-based user interface system for exploratory search and media discovery
Dunn Space as an Artefact: A Perspective on'Neogeography'from the Digital Humanities
US20090006323A1 (en) System and Method for Analyzing Intelligence Information
Gena et al. Advanced visual interfaces for cultural heritage
Bettio et al. A novel approach for exploring annotated data with interactive lenses
Titov et al. Architecture of a spatial data service system for statistical analysis and visualization of regional climate changes
Aditya The national atlas as a metaphor for improved use of a national geospatial data infrastructure
Seifert A pool of queries: Interactive multidimensional query visualization for information seeking in digital libraries
Zhu et al. Using 3D interfaces to facilitate the spatial knowledge retrieval: a geo-referenced knowledge repository system
Kim et al. Adaptive interactions in shared virtual environments for heterogeneous devices
Vlahakis et al. 3D interactive, on-site visualization of ancient Olympia
Anastopoulou et al. Cartographic perspectives on spatial and thematic levels of detail in augmented reality: a review of existing approaches

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20110630

RN Application for restoration

Effective date: 20110823

FC Decision of inpi director general to approve request for restoration

Effective date: 20111019

ST Notification of lapse

Effective date: 20130628