FR2894684A1 - Systeme de visualisation pour la manipulation d'un objet - Google Patents
Systeme de visualisation pour la manipulation d'un objet Download PDFInfo
- Publication number
- FR2894684A1 FR2894684A1 FR0512676A FR0512676A FR2894684A1 FR 2894684 A1 FR2894684 A1 FR 2894684A1 FR 0512676 A FR0512676 A FR 0512676A FR 0512676 A FR0512676 A FR 0512676A FR 2894684 A1 FR2894684 A1 FR 2894684A1
- Authority
- FR
- France
- Prior art keywords
- space
- manipulation
- user
- image
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40122—Manipulate virtual object, for trajectory planning of real object, haptic display
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40126—Virtual landmarks, reference points for operator
Abstract
Dispositif de visualisation utilisé dans le domaine de la stéréoscopie pour permettre à un utilisateur de manipuler dans son proche environnement un objet réel ou virtuel disposé à une distance plus ou moins importante de l'utilisateur. L'utilisateur peut alors visualiser les espaces de manipulation ainsi que les espaces réels et virtuels dans le dispositif de visualisation.
Description
La présente invention se rapporte au domaine de la stéréoscopie et plus
particulièrement à une méthode ou à un système permettant d'agir à distance afin de modifier les propriétés d'un objet.
La stéréoscopie est un procédé permettant de restituer une sensation de relief à partir du fusionnement de deux images planes d'un même sujet. La stéréoscopie permet ainsi une représentation en 3 dimensions à partir de deux sources d'images. L'utilisation de la stéréoscopie est très répandue à l'heure actuelle.
La stéréoscopie intervient dans les jeux vidéo 15 afin de représenter l'environnement du jeu dans lequel l'utilisateur va jouer.
La stéréoscopie est également utilisée dans le domaine des recherches pétrolières afin de localiser 20 les nappes en profondeur.
La stéréoscopie est un outil très présent dans le domaine de la mécanique concernant les revues de design, les écoulements de fluide virtuel ainsi que 25 les entraînements sur simulateur.
Dans l'industrie, lorsqu'une modélisation statique d'un produit est achevée, l'un des premiers besoins essentiels est de valider le bon 30 fonctionnement dynamique. A ce stade, la perception du relief et l'interaction virtuelle sont déterminantes afin de visualiser le produit dans toutes les situations possibles, lors de son intégration au sein d'un système en attente de ce produit par exemple.
A l'heure actuelle, les simulations se font de plus en plus par une manipulation des modèles digitaux, ce qui sous-tend une modélisation virtuelle élevée : collision, retour d'effort. Les interfaces utilisateurs actuelles ne sont pas assez ergonomique ce qui entraîne donc une perte de temps non négligeable d'où un désavantage important.
Dans le domaine médical, un grand nombre d'interventions fait appel à la vidéo et utilise les voies naturelles ou non pour intervenir à l'aide d'instruments. Ces opérations ont un champ d'intervention visualisé sur un moniteur. Les instruments sont interchangeables mais toujours au bout de deux pinces d'intervention.
Actuellement, les élèves se forment à de telles techniques avec des moyens rares et onéreux. Ils font par exemple appel à des animaleries. En effet, les méthodes de formation ne prévoient pas d'outils de simulation pour de telles interventions. Les séances de formation sont donc limitées ce qui est d'autant plus pénalisant pour les élèves. En conséquence, un objet de la présente invention est de fournir un système qui permet d'effectuer une manipulation précise en trois dimensions dans un volume situé autour de la distance d'accomodation de l'utilisateur, sur un objet que l'on visualise dans un appareil adapté à cet effet. L'espace de manipulation est un volume en cohérence spatiale avec l'espace de visualisation.
Un autre avantage est que l'espace de manipulation est libre c'est à dire vide. Ainsi on ne visualise pas les mains ou les capteurs-actionneurs réels et physiques sur le dispositif de visualisation. La représentation des mains est donc occultée.
De plus, ce dispositif est un dispositif multi-univers qui peut combiner des espaces réels et virtuels. Dans ce dispositif, la réduction d'échelle est possible afin d'adapter, par exemple, la manipulation d'un objet d'un espace réel, avec la manipulaton d'un objet d'un espace virtuel.
Un avantage supplémentaire est la grande précision de la résolution puisque la densité de voxels est supérieure à dix mille voxels par centimètre cube.
Par ailleurs, le dispositif de visualisation 25 est compatible avec les applications informatiques.
Les buts, objets et caractéristiques de l'invention apparaîtront plus clairement à la lecture de la description qui suit faite en 30 référence aux dessins dans lesquels : la figure 1 représente une vue de profil d'un utilisateur assis devant un dispositif de visualisation ; la figure 2 représente une vue explosée du dispositif de visualisation, orientée selon sa face arrière ; la figure 3 représente une vue de dessus d'un des éléments du dispositif de visualisation : la figure 4 représente le dispositif de visualisation orienté selon sa face avant ; la figure 5 représente le schéma de connexion entre le dispositif de visualisation, un ordinateur et différents périphériques ; la figure 6 représente un capteur-actionneur manipulé par l'utilisateur ; la figure 7 représente le processus optique du système de manipulation ; la figure Ibis représente les chemins optiques dans le dispositif de visualisation la figure 8 représente la vue de dessus de la figure 1 ; la figure 9 représente le processus haptique du système de manipulation.
La figure 1 présente un utilisateur 1 situé devant un dispositif 2. L'utilisateur peut être assis sur un siège 3 ou bien debout face au dispositif.
Sous le dispositif, un support 4 est prévu. Sur ce support 4, un bras articulé 5 est fixé à une de ses extrémités, l'autre extrémité du bras étant directement fixé sur un emplacement 6 choisi par l'utilisateur (table, bureau,...). La fixation de ce support se situe donc sur la partie arrière du dispositif.
Comme présenté sur la figure 2, ce dispositif 2 est tout d'abord constitué d'une base 7. Cette base a la forme d'un demi-disque (figure 3). Le côté rectiligne 7a du demi-disque est la partie avant de la base. Le côté arrondi 7b du demi-disque est la partie arrière de la base. La partie arrière et avant de la base se rejoigne en formant à leurs deux extrémités un léger décroché rectangulaire 7c.
Au milieu du côté arrondi de ce demi-disque le bord de la surface décrit une forme arrondie 7d orientée vers l'intérieur du demi-disque. En vis à vis de cette forme arrondie, une forme plus rectangulaire 7e est découpée au milieu du côté rectiligne du demi-disque. De chaque côté de cette forme rectangulaire, le côté rectiligne du demi-disque présente une forme légèrement rebondie 7f.
Sur ce demi-disque, dans la figure 2, se trouve un support central 8. Ce support central 8 est composé de deux panneaux rectangulaires reliés entre eux selon leurs longueurs. Chaque largeur de ces panneaux est fixée sur la base au moyen de vis. Ce support central est fixé au centre du demi-disque 7, entre la forme arrondie 7d et la forme rectangulaire 7e. Ces panneaux forment entre eux un angle d'environ 45 . L'ouverture angulaire des panneaux est dirigée vers la forme arrondie 7d de la base 7. Les panneaux de ce support central 8 comporte chacun un miroir central 9.
Sur le demi-disque se trouve également deux supports latéraux 10. Ces supports latéraux sont situés aux deux extrémités de la base 7, de chaque côté du support central 8. Chaque support latéral 10 comprend deux parallélépipèdes reliés entre eux par une structure en z. Chaque support latéral est orienté d'environ 45 par rapport au côté reciligne 7a de la base vers l'intérieur de cette base. Chaque support latéral comprend également un miroir latéral 11. Ce miroir possède un indice de réflexion allant de 0 à 100% de réflexion. Ce miroir latéral peut être remplacé par un écran, un filtre ou encore des lentilles. Le miroir latéral et les parallélépipèdes sont fixés sur la base 7 au moyen de vis 20 et de pions 21. A l'une des extrémités de l'un des supports latéraux 10, du côté de l'extrémité de la base 7, deux connecteurs cinch 19 sont disposés sur une plaque vidéo 23.
A l'avant des supports latéraux 10 et du support central 8 se trouve le support d'écran 12 de l'écran 13. Ce support d'écran 12 possède une longueur égale à celle de la partie rectiligne 7a de la base. Ce support d'écran 12 est fixé sur la partie avant de la base au moyen de vis 20. A l'une de ses extrémités et du côté des connecteurs cinch 19, le support d'écran 12 comporte un interrupteur de type Bulgin 18 monté sur une plaque inter 22 au moyen de vis.
Une pièce volumique reprenant les contours de la base est disposée sur la base de manière à recouvrir le support central, les supports latéraux et le support d'écran. Cette pièce volumique comprend une ceinture 14 qui constitue la surface latérale de la pièce volumique. Sur la partie arrière du dispositif, la ceinture 14 reproduit la découpe de la forme arrondie 7d de la base. Sur l'extrémité de la ceinture 14, en vis à vis des connecteurs cinch 19, la ceinture présente un espace vide pour permettre l'emboîtement des connecteurs cinch du support latéral 10. Sur la partie avant du dispositif, la ceinture reproduit la forme rectangulaire 7e de la base. Comme présenté sur la figure 4, à une certaine hauteur de la base et verticalement alignée avec cette découpe rectangulaire, la ceinture 14 comporte une fenêtre de visualisation 15. Cette fenêtre 15 est donc située dans une sorte de renfoncement que présente la ceinture sur la partie avant du dispositif. Dans l'espace de visualisation 15a, derrière cette fenêtre, l'utilisateur peut visualiser une superposition d'images provenant de deux sources différemment combinées, comme nous le détaillerons plus tard.
La pièce volumique comporte également un couvercle 16 présenté en figure 3. Ce couvercle est o identique au demi-disque décrivant la base 7. Sur ce couvercle 16 se situe une tôle de décoration 17.
Lors de son utilisation, le dispositif 2 laisse donc seulement apparaître le couvercle 16, la face externe de la base 7, la ceinture 14. Sur la partie avant du dispositif, la ceinture comporte la fenêtre de visualisation 15 qui donne accès à l'espace de visualisation 15a. Sur la face arrière du dispositif, derrière la ceinture 14, se trouve l'espace de travail 15b de l'utilisateur, comme nous le détaillerons plus tard.
Comme présenté sur la figure 5, le dispositif est directement connecté à une unité centrale électronique 25 telle qu'un ordinateur. Cet ordinateur comprend différents logiciels de traitement de l'image ainsi que des cartes graphiques ou électroniques. Cet ordinateur comprend également des périphériques telles que par exemple un clavier 26, une souris 28 et un moniteur 27. De plus, cet ordinateur comprend un périphérique pour l'utilisation du dispositif 2 : il s'agit d'un ou plusieurs capteurs-actionneurs 29 comme présenté sur la figure 6. Ce capteur actionneur 29 est composé d'une base de support 30 connectée à l'ordinateur 25. Cette base 30 comprend une fente 31 dans laquelle un élément pivotant 32 est disposé. Cet élément pivotant a une longueur de quelques centimètres. Il est lui-même solidaire d'un élément allongé 33 et d'une longueur d'environ dix centimètres. Cet élément allongé possède une extrémité 34 en forme de pince ouverte. Cette sorte de pince 34 maintient l'extrémité d'un élément 35 qui ressemble à un stylo. Il s'agit d'un stylet qui possède six degrés de liberté dans l'espace. Ce stylet 35 comporte également latéralement un petit curseur 35a comme nous le détaillerons plus tard. L'utilisateur agit donc en manipulant ce stylet dans la zone de travail.
La figure 7 (optique) présente le mode de fonctionnement optique du dispositif de visualisation 2 en liaison avec l'ordinateur 25. Prenons par exemple un objet réel 36, une machine à café, disposé à une distance plus ou moins grande du dispositif de visualisation 2. Cet objet est situé dans un espace orthonormé réel 37 (xr, yr, zr).
L'image de cet objet est visible dans l'espace de visualisation 15a, dans un espace orthonormé de manipulation 38 (xm, ym, zm). En effet, au moins deux systèmes de capture d'image vidéo 39 et 40 situés de part et d'autre de l'objet retransmettent par un lien vidéo 40a l'image de l'objet réel 36 directement au dispositif de visualisation 2 sur des premières entrées 41. Ces systèmes de capture d'image sont, par exemple, des caméras vidéo, des systèmes d'imagerie par résonance magnétique ou encore des scanners utilisant des lasers.
A la suite de ce premier objet réel 36, on considère un deuxième objet, par exemple virtuel, tel qu'une tasse à café 42. Cet objet est situé dans un espace orthonormé virtuel 43 (xv, yv, zv). L'image de cet objet est visible dans l'espace de visualisation 15a, dans le même espace orthonormé de manipulation que précédemment 38 (xm, ym, zm). En effet au moins deux caméras virtuelles 44 et 45 situées de part et d'autre de l'objet virtuel envoient l'image de l'objet virtuel à l'ordinateur 25. Cet ordinateur traite les images de manière à les retransmettre au dispositif de visualisation sur des entrées 2 47 via une liaison 45a.
En fonction des entrées 41 ou 47 qui réceptionnent les images transmises au dispositif de visualisation, ces images donnent lieu à des cheminements optiques différents dans le dispositif de visualisation.
Ces cheminements optiques sont décrits sur la figure Ibis pour laquelle toute la symétrie des 20 différents miroirs et des écrans n'est pas représentée.
Ainsi l'écran arrière 60 du dispositif de visualisation génère deux rayons extrêmes 60a et 60b 25 qui correspondent à une image en provenance de l'arrière du dispositif de visualisation. Par symétrie du dispositif, cette image est reçue par l'ceil droit et par l'oeil gauche de l'utilisateur. De la même façon, l'écran avant 13 du dispositif de 30 visualisation génère, par exemple, un rayon moyen 13a qui correspond à une image en provenance de l'avant du dispositif de visualisation. Par symétrie15 du dispositif, cette image est reçue par l'oeil droit et par l'oeil gauche de l'utilisateur.
A l'arrière du dispositif de visualisation 2, dans la zone de travail ou encore zone de manipulation 15b, comme présenté sur la figure 8 l'utilisateur 1 peut manipuler les capteurs-actionneurs 35 à l'aide de ses mains 48, sans que l'image des mains n'apparaissent dans l'espace de visualisation 15a. Ainsi, le dispositif de visualisation 2 permet de visualiser la superposition des deux images réelles et virtuelles. Il s'agit alors de réalité virtuelle augmentée.
Le mode de fonctionnement (haptique) décrit en figure 9 permet de représenter l'utilisation des capteurs-actionneurs 35 et la conséquence de cette utilisation sur les objets visualisés en tant qu'images dans l'espace de visualisation 15a. Ces capteurs-actionneurs 35 possèdent un curseur 35a qui permet de choisir entre une action de positionnement sur l'objet dans l'image visualisée et une action de mouvement de l'objet sur l'image visualisée.
L'utilisateur peut commander des actions (de positionnement ou de mouvement) aussi bien sur l'objet entier ou seulement sur une partie. Ainsi l'utilisateur peut faire tourner un objet, l'orienter différemment, exercer une pression sur une certaine zone de cet objet. Cette manipulation peut s'exercer aussi bien par l'intermédiaire d'un capteur que sans le capteur. L'utilisateur peut par exemple directement utiliser ses doigts et effectuer ainsi tout type de manipulation. Il peut aussi effectuer ces manipulations par l'intermédiaire d'un gant. Lors de cette manipulation, l'utilisateur visualise les deux images (réelle et virtuelle) superposées dans l'espace de visualisation.
A l'aide des capteurs-actionneurs, dans l'espace de manipulation 15b, l'utilisateur agit, par exemple, sur l'image réelle et sur l'image virtuelle. Cette action est transmise dans l'espace réel 50 et virtuel 51 après un traitement par l'ordinateur 25. En effet, une première fonction de l'ordinateur effectue une synchronisation dans le temps entre les images de l'espace réel et celles de l'espace virtuel après les les modifications réalisées par l'utilisateur sur chaque objet de chaque espace. Dans chacun de ces espaces se trouvent des capteurs-actionneurs 52, 53, 54 et 55 situés de part et d'autre de l'objet réel ou virtuel. Chacun de ces capteurs-actionneurs est muni d'une unité de traitement 56. Ainsi, l'action transmise dans l'espace réel 50 est reçue par l'unité de traitement 56 des capteurs-actionneurs réels 52 et 53. Ces capteurs-actionneurs peuvent être par exemple des bras articulés de robots ou encore des vérins. De la même façon, l'action transmise dans l'espace virtuel 51 est reçue par l'unité de traitement 56 des capteursactionneurs virtuels 54 et 55. Les capteurs-actionneurs 52, 53, 54 et 55 ne sont pas visualisables puisqu'ils interviennent de façon numérique seulement.
Ainsi, ces capteurs-actionneurs réels et virtuels vont reproduire les mouvements induits par l'utilisateur 1 via les capteurs-actionneurs 35 localisés dans l'espace de manipulation 15b, derrière le dispositif de visualisation 2. Par conséquent, les actions engendrées par l'utilisateur grâce à la manipulation des capteurs-actionneurs dans l'espace de manipulation vont se répercuter sur l'objet aussi bien réel que virtuel.
En réaction à ces actions, les capteurs- actionneurs réels 52 et 53 transmettent des signaux de retour d'effort. Dans notre exemple, le signal de retour d'effort en provenance, du capteur-actionneur réel 52 est traité par l'unité de traitement de l'actionneurs réel 56 . Ensuite l'ordinateur 25 reçoit ce signal et le traite. En effet une deuxième fonction de l'ordinateur effectue une mise à l'échelle entre les images de l'espace réel et celles de l'espace virtuel avant la superposition de ces deux images dans l'espace de visualisation 15a.
Ensuite les images sont transmises à l'unité de traitement 56 du capteur-actionneur virtuel 52 ainsi qu'à l'unité de traitement 56 du capteur-actionneur 35 de l'espace de manipulation.
L'utilisateur peut alors ressentir le retour d'effort dans l'espace de visualisation 15a. Les capteurs-actionneurs de permettent donc de rentre le sens du toucher.
Ce type de fonctionnement s'applique également si, au lieu de considérer un objet réel et un objet virtuel, nous considérons deux objets virtuels (il s'agit alors de réalité virtuelle double), ou un seul objet virtuel (il s'agit d'un écran stéréoscopique) ou un seul objet réel (il s'agit de télévision autostéréoscopique).
Claims (15)
1)Système de visualisation pour la manipulation d'un objet par un utilisateur ledit objet étant situé dans un premier espace et la manipulation étant fournie dans un deuxième espace qui comprend un espace de manipulation, ledit système étant caractérisé en ce qu'il comprend : un système haptique situé dans le premier et le deuxième espace, afin que l'utilisateur effectue une manipulation dans le deuxième espace qui est traduite en une manipulation équivalente sur l'objet dans le premier espace un système optique pour fournir une image de cette manipulation à l'utilisateur, l'image étant formée en cohérence spatiale avec l'espace de manipulation dans le deuxième espace et avec l'image de la manipulation dans le premier espace.
2) Système de visualisation selon la revendication 1 caractérisé en ce que le deuxième espace est un espace physique réel.
3) Système de visualisation selon la revendication 1 caractérisé en ce que le premier espace est constitué d'un ou deux espaces. 30
4) Système de visualisation selon la revendication 3 caractérisé en ce que le premier espace est constitué d'un espace réel.25
5) Système de visualisation selon la revendication 3 caractérisé en ce que le premier espace est constitué d'un espace virtuel.
6) Système de visualisation selon la revendication 3 caractérisé en ce que le premier espace est constitué d'un espace réel et d'un espace virtuel.
7) Système de visualisation selon la revendication 3 caractérisé en ce que le premier espace est constitué de deux espaces virtuels.
8) Système de visualisation selon l'une quelconque des revendications précédentes, caractérisé en ce que le système haptique comprend des moyens pour effectuer la manipulation.
9) Système de visualisation selon l'une quelconque des revendications précédentes, caractérisé en ce que les moyens pour effectuer la manipulation appartiennent à l'espace de manipulation.
10) Système de visualisation selon les revendications 1 à 8, caractérisé en ce que les moyens pour effectuer la manipulation sont absents de l'image de la manipulation.
11) Système de visualisation selon l'une quelconque des revendications précédentes, caractérisé en ce que les moyens sont sélectionnés dans une liste qui inclut des capteurs-actionneurs, 5 les mains de l'utilisateur ou l'utilisateur.
12) Système de visualisation selon l'une quelconque des revendications précédentes, caractérisé en ce que le système optique comprend un 10 nombre d'éléments optiques pour produire une image.
13) Système de visualisation selon la revendication 12, caractérisé en ce que les éléments optiques sont sélectionnés dans une liste qui 15 inclut : un miroir dont la réflexion est comprise entre aucune réflexion et réflexion totale, un filtre, un écran, des lentilles.
14) Système de visualisation selon la 20 revendication 13, caractérisé en ce que lorsque le miroir est un miroir semi-réfléchissant, seul le deuxième espace est visible.
15) Méthode pour visualiser la manipulation 25 d'un objet par un utilisateur, ledit objet étant situé dans un premier espace et la manipulation étant fournie dans un deuxième espace qui comprend un espace de manipulation, ladite méthode comprenant les étapes de : 30 manipulation dans le deuxième espace qui est traduite en une manipulation équivalente sur l'objet dans le premier espace au moyen d'unsystème haptique situé dans le premier et le deuxième espace ; - production d'une image de cette manipulation à l'utilisateur au moyen du'n système optique, l'image étant formée en cohérence spatiale avec l'espace de manipulation dans le deuxième espace et avec l'image de la manipulation dans le premier espace.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0512676A FR2894684B1 (fr) | 2005-12-14 | 2005-12-14 | Systeme de visualisation pour la manipulation d'un objet |
US12/097,440 US8767054B2 (en) | 2005-12-14 | 2006-12-13 | Viewing system for the manipulation of an object |
JP2008545041A JP2009519481A (ja) | 2005-12-14 | 2006-12-13 | 物体の操作のための観察システム |
PCT/FR2006/002716 WO2007068824A2 (fr) | 2005-12-14 | 2006-12-13 | Systeme de visualisation pour la manipulation d'un objet |
EP06841920A EP1960159A2 (fr) | 2005-12-14 | 2006-12-13 | Systeme de visualisation pour la manipulation d'un objet |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0512676A FR2894684B1 (fr) | 2005-12-14 | 2005-12-14 | Systeme de visualisation pour la manipulation d'un objet |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2894684A1 true FR2894684A1 (fr) | 2007-06-15 |
FR2894684B1 FR2894684B1 (fr) | 2008-03-21 |
Family
ID=36168935
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR0512676A Expired - Fee Related FR2894684B1 (fr) | 2005-12-14 | 2005-12-14 | Systeme de visualisation pour la manipulation d'un objet |
Country Status (5)
Country | Link |
---|---|
US (1) | US8767054B2 (fr) |
EP (1) | EP1960159A2 (fr) |
JP (1) | JP2009519481A (fr) |
FR (1) | FR2894684B1 (fr) |
WO (1) | WO2007068824A2 (fr) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112423942A (zh) * | 2018-09-03 | 2021-02-26 | 川崎重工业株式会社 | 机器人系统 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9643314B2 (en) * | 2015-03-04 | 2017-05-09 | The Johns Hopkins University | Robot control, training and collaboration in an immersive virtual reality environment |
US11285607B2 (en) * | 2018-07-13 | 2022-03-29 | Massachusetts Institute Of Technology | Systems and methods for distributed training and management of AI-powered robots using teleoperation via virtual spaces |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002005217A1 (fr) * | 2000-07-07 | 2002-01-17 | Kent Ridge Digital Labs | Systeme chirurgical virtuel avec retroaction |
US6341869B1 (en) * | 1998-08-11 | 2002-01-29 | Minolta Co., Ltd. | Method and device for providing information |
US20030085866A1 (en) * | 2000-06-06 | 2003-05-08 | Oliver Bimber | Extended virtual table: an optical extension for table-like projection systems |
US20030228039A1 (en) * | 1992-01-21 | 2003-12-11 | Sri International, Inc. | Method and apparatus for transforming coordinate systems in a telemanipulation system |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1356781A3 (fr) * | 1992-01-21 | 2013-07-24 | SRI International | Système de chirurgie par téléopération |
JPH08280003A (ja) * | 1995-04-07 | 1996-10-22 | Olympus Optical Co Ltd | 立体撮影装置 |
US6181768B1 (en) * | 1999-06-04 | 2001-01-30 | Leonard F. Berliner | Radiological image acquisition and manipulation system for multiple view stereoscopic imaging |
GB0211229D0 (en) * | 2002-05-16 | 2002-06-26 | Stereoscopic Image Systems Ltd | Apparatus for the optical manipulation of a pair of landscape stereoscopic images |
US20050285854A1 (en) * | 2004-06-29 | 2005-12-29 | Ge Medical Systems Information Technologies, Inc. | 3D display system and method |
-
2005
- 2005-12-14 FR FR0512676A patent/FR2894684B1/fr not_active Expired - Fee Related
-
2006
- 2006-12-13 EP EP06841920A patent/EP1960159A2/fr not_active Withdrawn
- 2006-12-13 JP JP2008545041A patent/JP2009519481A/ja active Pending
- 2006-12-13 WO PCT/FR2006/002716 patent/WO2007068824A2/fr active Application Filing
- 2006-12-13 US US12/097,440 patent/US8767054B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030228039A1 (en) * | 1992-01-21 | 2003-12-11 | Sri International, Inc. | Method and apparatus for transforming coordinate systems in a telemanipulation system |
US6341869B1 (en) * | 1998-08-11 | 2002-01-29 | Minolta Co., Ltd. | Method and device for providing information |
US20030085866A1 (en) * | 2000-06-06 | 2003-05-08 | Oliver Bimber | Extended virtual table: an optical extension for table-like projection systems |
WO2002005217A1 (fr) * | 2000-07-07 | 2002-01-17 | Kent Ridge Digital Labs | Systeme chirurgical virtuel avec retroaction |
Non-Patent Citations (1)
Title |
---|
PORRO I ET AL: "An integrated environment for plastic surgery support: building virtual patients, simulating interventions, and supporting intraoperative decisions", COMPUTERIZED MEDICAL IMAGING AND GRAPHICS, PERGAMON PRESS, NEW YORK, NY, US, vol. 29, no. 5, July 2005 (2005-07-01), pages 385 - 394, XP004910623, ISSN: 0895-6111 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112423942A (zh) * | 2018-09-03 | 2021-02-26 | 川崎重工业株式会社 | 机器人系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2007068824B1 (fr) | 2007-10-18 |
US8767054B2 (en) | 2014-07-01 |
EP1960159A2 (fr) | 2008-08-27 |
WO2007068824A2 (fr) | 2007-06-21 |
FR2894684B1 (fr) | 2008-03-21 |
WO2007068824A3 (fr) | 2007-08-09 |
JP2009519481A (ja) | 2009-05-14 |
US20090273665A1 (en) | 2009-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ware et al. | Visualizing graphs in three dimensions | |
Ware et al. | Reevaluating stereo and motion cues for visualizing graphs in three dimensions | |
US9824485B2 (en) | Presenting a view within a three dimensional scene | |
WO2019140414A1 (fr) | Systèmes et procédés de rendu de données d'un environnement 3d | |
US20060250391A1 (en) | Three dimensional horizontal perspective workstation | |
US20070064098A1 (en) | Systems and methods for 3D rendering | |
CA2942652A1 (fr) | Systeme de simulation tridimensionnelle virtuelle propre a engendrer un environnement virtuel reunissant une pluralite d'utilisateurs et procede associe | |
EP2721444B1 (fr) | Système de colocalisation d'un écran tactile et d'un objet virtuel et dispositif pour la manipulation d'objets virtuels mettant en uvre un tel système | |
FR2894684A1 (fr) | Systeme de visualisation pour la manipulation d'un objet | |
EP2440975B1 (fr) | Système et procédé de génération d'image stéréoscopique a décalage des lointains paramétrable dans un système et procédé à n appareils de prise de vue (n>1). | |
EP2831847A1 (fr) | Procede et dispositif de creation d'images | |
Garagnani et al. | Virtual and augmented reality applications for Cultural Heritage | |
FR3023626A3 (fr) | Dispositif de navigation en realite virtuelle comportant une interface haptique | |
FR3056770A1 (fr) | Dispositif et procede de partage d'immersion dans un environnement virtuel | |
FR2971864A1 (fr) | Equipement de realite virtuelle equipe d'un dispositif de contact et utilisation d'un tel dispositif dans un equipement de realite virtuelle | |
WO2017149254A1 (fr) | Dispositif d'interface homme machine avec des applications graphiques en trois dimensions | |
EP2994813B1 (fr) | Procede de commande d'une interface graphique pour afficher des images d'un objet tridimensionnel | |
Manferdini et al. | virtual exhibition and fruition of archaeological finds | |
EP1124212B1 (fr) | Procédé et dispositif de présentation visuelle d'un espace virtuel à trois dimentsions simulant un véhicule automobile | |
He | Volume Visualization in Projection-Based Virtual Environments: Interaction and Exploration Tools Design and Evaluation | |
Barabas | Holographic television: measuring visual performance with holographic and other 3D television technologies | |
Perelman et al. | Designing an input device to interact with multidimensional data: disco | |
FR2947348A1 (fr) | Dispositif pour manipuler et visualiser un objet virtuel | |
Kim et al. | A tangible floating display system for interaction | |
FR3014228A1 (fr) | Systeme de detection virtuelle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
CL | Concession to grant licences |
Name of requester: KOLPI SUBSEA, FR Effective date: 20120216 |
|
PLFP | Fee payment |
Year of fee payment: 11 |
|
ST | Notification of lapse |
Effective date: 20170831 |