JP2016524262A - 3次元ユーザインタフェース - Google Patents
3次元ユーザインタフェース Download PDFInfo
- Publication number
- JP2016524262A JP2016524262A JP2016524941A JP2016524941A JP2016524262A JP 2016524262 A JP2016524262 A JP 2016524262A JP 2016524941 A JP2016524941 A JP 2016524941A JP 2016524941 A JP2016524941 A JP 2016524941A JP 2016524262 A JP2016524262 A JP 2016524262A
- Authority
- JP
- Japan
- Prior art keywords
- input
- display
- space
- scene
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 115
- 238000001093 holography Methods 0.000 claims description 4
- 230000004886 head movement Effects 0.000 claims description 2
- 210000003811 finger Anatomy 0.000 description 115
- 210000001508 eye Anatomy 0.000 description 45
- 238000010586 diagram Methods 0.000 description 28
- 210000004247 hand Anatomy 0.000 description 20
- 230000033001 locomotion Effects 0.000 description 19
- 230000009471 action Effects 0.000 description 15
- 238000005259 measurement Methods 0.000 description 15
- 238000002591 computed tomography Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 14
- 238000005520 cutting process Methods 0.000 description 13
- 210000000056 organ Anatomy 0.000 description 12
- 238000002604 ultrasonography Methods 0.000 description 12
- 230000004397 blinking Effects 0.000 description 11
- 210000004204 blood vessel Anatomy 0.000 description 11
- 230000004044 response Effects 0.000 description 10
- 230000004913 activation Effects 0.000 description 9
- 239000007787 solid Substances 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 238000002679 ablation Methods 0.000 description 5
- 210000003813 thumb Anatomy 0.000 description 5
- 230000002792 vascular Effects 0.000 description 5
- 238000002583 angiography Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 230000017531 blood circulation Effects 0.000 description 4
- 210000000988 bone and bone Anatomy 0.000 description 4
- 238000003780 insertion Methods 0.000 description 4
- 230000037431 insertion Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 206010003658 Atrial Fibrillation Diseases 0.000 description 3
- 230000004424 eye movement Effects 0.000 description 3
- 238000007667 floating Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 210000005246 left atrium Anatomy 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000007480 spreading Effects 0.000 description 3
- 238000003892 spreading Methods 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000003466 anti-cipated effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000001746 atrial effect Effects 0.000 description 2
- 238000010009 beating Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000004927 clay Substances 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000002592 echocardiography Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 210000005224 forefinger Anatomy 0.000 description 2
- 210000004932 little finger Anatomy 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000000465 moulding Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 210000005166 vasculature Anatomy 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000005481 NMR spectroscopy Methods 0.000 description 1
- 241001469893 Oxyzygonectes dovii Species 0.000 description 1
- 210000001765 aortic valve Anatomy 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000007664 blowing Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000747 cardiac effect Effects 0.000 description 1
- 238000013131 cardiovascular procedure Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000021615 conjugation Effects 0.000 description 1
- 239000002872 contrast media Substances 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000002001 electrophysiology Methods 0.000 description 1
- 230000007831 electrophysiology Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000007789 gas Substances 0.000 description 1
- 238000002513 implantation Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 239000004579 marble Substances 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 210000003492 pulmonary vein Anatomy 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H1/00—Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
- G03H1/22—Processes or apparatus for obtaining an optical image from holograms
- G03H1/2294—Addressing the hologram to an active spatial light modulator
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H1/00—Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
- G03H1/0005—Adaptation of holography to specific applications
- G03H2001/0061—Adaptation of holography to specific applications in haptic applications when the observer interacts with the holobject
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H2210/00—Object characteristics
- G03H2210/30—3D object
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明の実施形態例においては、入力を捕捉する種々の方法を、別々におよび/または組み合わせて用いる。
観察者追跡ユニット102;
目追跡ユニット103;
トラックボール等、種々のタイプのマウス入力ユニット104;
コンピュータ112に接続されたマイクロフォンまたはプロセッサを含む音認識モジュールまたは音声認識モジュール等の音入力ユニット105;および、
本明細書において特定しないが入力に用いられるその他の任意の入力ユニット109、例えば、GPS、加速度計、光センサ、音響位置モニタ等を備える。
なお、音認識には、任意選択で、音声および/または話し言葉認識に限らず、例えば、指を鳴らす音を認識するものも含まれるが、それについては本明細書の別の箇所において説明する。
3Dディスプレイ170が表示する3Dシーンにおける点132を選択すること、
3Dディスプレイ170が表示する3Dシーンにおけるエリア134を選択すること、
3Dディスプレイ170が表示する3Dシーンにおけるボリューム136を選択すること、
3Dディスプレイ170が表示する3Dシーンにおけるオブジェクト138を選択すること、
表示空間において、ユーザの指またはツールが指し示す方向140を判定すること、
入力空間における指142の位置を判定すること、
表示空間において、観察者の目が見ている方向144を判定すること
入力空間におけるツール146の位置を判定すること、
入力空間において行われたジェスチャ148を分類すること、
表示空間におけるオブジェクトの入力空間において行われた把持150の状態(ステータス)を識別すること、
入力空間におけるオブジェクト152の位置を判定すること、
入力空間におけるオブジェクト154の形状を判定すること、等がある。本明細書におけるさらなる分析については、3Dユーザインタフェースを参照して説明する。
図2Dに示す3D表示システム230は、特許文献1に教示されるような、真の3次元ディスプレイを示す。この真の3次元ディスプレイは空中に浮遊するシーンまたはオブジェクトを表示することもでき、ユーザはその表示空間中に手またはツールを挿入することができるものである。加えて、観察者追跡ユニットは、検出器および回転ミラー232を用い、3D表示ユニットと同じ方向から観察者を追跡し、また観察者が3Dシーンを見るのと反対の方向に追跡し、その際同じ光路の一部を使用する。回転ミラーの回転周期に基づいて3D画像投影および観察者追跡ユニットの相対的タイミングを調節することにより、観察者を追跡することができる。
いくつかの実施形態において、3Dディスプレイと相互作用する入力としては、入力空間における入力オブジェクトの位置が挙げられる。いくつかの実施形態において、入力は、入力空間中または上の特定の点の位置である。
空中に浮遊する3D画像を生成できるため、ユーザの手を3D画像と同じ空間に置くことができるようになる。3D画像と関連してハンドジェスチャを読み出すことにより、ユーザの相互作用を向上することが潜在的に可能である。人間の目が3D画像を自然に知覚するのと同様の方法で、3D画像と手が相互作用することにより、3D画像操作および3D画像コマンド機能について、より良好に自然な制御を行うことが潜在的に可能である。これらの自然なインタフェース能力は、画像と観察者との間の親密さを潜在的に促進する。
図2Dに示す各実施形態例において、入力は、任意選択で、目の動きとすることができる。図2Dに示す3D表示システムはユーザの目を追跡するものであるため、3D表示システムは、任意選択で、目の動きをとらえ、目の動きは、任意選択で、入力として機能する。
いくつかの実施形態において、ユーザは入力空間に手を挿入し、指を鳴らす。指を鳴らすことは、任意選択で、入力空間内で検出され、起動コマンドとして翻訳される。この起動コマンドは、任意選択で、マウスクリックと等価であってもよく、および/または、ユーザインタフェースコマンドの別の発現(manifestation)を生じさせて、メニュー表示を提示する、(CTRL+CまたはCTRL+Zと同様)コンピュータ処理を終了または停止する等してもよい。
いくつかの実施形態において、シーンまたはオブジェクトにおける点は、入力を提供するユーザが選択し、選択した点は、任意選択で、例えば選択したポイントをハイライトする等して3Dディスプレイに表示する。
任意選択で、複数の行為により複数の点をマークする。
任意選択で、有効化を複数回行って複数の点をマークする。
いくつかの実施形態において、入力空間における入力オブジェクトを用いて、任意選択で、3Dシーン中のオブジェクトを選択してもよい。
いくつかの実施形態において、3Dシーンにおける表示オブジェクトは、任意選択で、把持することができる。オブジェクトを把持することにより、ユーザは、3Dディスプレイを介して、そのオブジェクトを、入力オブジェクトの動きにより画定した何らかの方法で、移動させることが可能となる。
いくつかの実施形態において、上記の把持コマンド等の3Dユーザインタフェースコマンドにより、3Dディスプレイは表示空間において表示オブジェクトを移動する。任意選択で、表示オブジェクトを表示空間の別の場所に移動または平行移動することができる。
いくつかの実施形態において、任意選択の追加のコマンドおよび/またはインタフェース設定により、選択したオブジェクトを3D表示空間において自動センタリングする。
いくつかの実施形態において、ハンドジェスチャ等により、ズームコマンドを任意選択で実行する。
いくつかの実施形態において、上記方法のいずれかによってオブジェクトを選択し、回転コマンドを与えることにより、3Dシーンにおけるオブジェクトの回転を実施する。
なお、回転と平行移動を組み合わせることは、回転および平行移動についての上記の説明に基づいて、回転および平行移動用にユーザインタフェースを組み合わせて行ってもよい。
いくつかの実施形態において、3Dシーンにおける表示オブジェクトは、任意選択で、特別な把持起動コマンドなしに把持してもよい。オブジェクト表面に指先を載置すると、そのオブジェクトは把持されたものとして、ユーザインタフェースにより選択される。オブジェクト表面に何本かの指先を載置した後、ユーザはその手を動かし、その指の動きに対応する分だけ表示オブジェクトをディスプレイが動かすことにより、オブジェクトがユーザの手によって把持されているように見え、ユーザの手によって動かされているように見える。
いくつかの実施形態において、ユーザは、手またはツール等の入力オブジェクトを表示空間に挿入する。ユーザは、表示空間内で入力オブジェクトを動かす。表示空間に表示オブジェクトは、入力オブジェクトに対して固体であるかのように動作する。つまり、表示オブジェクトは、表示空間において、入力空間における前記入力オブジェクトの位置に対応する位置を占有しないように動く。
いくつかの実施形態において、ユーザは、手またはツール等の入力オブジェクトを表示空間に挿入する。ユーザは、表示空間内で入力オブジェクトを動かす。表示空間に表示オブジェクトは、入力オブジェクトに対して固体であるかのように動作する。つまり、表示オブジェクトは、表示空間において打たれたかのように知覚され、任意選択で、実オブジェクトをたたいたときの動きと同じように動く。
フリスビー(実際の手、表示されたフリスビー):実際の手は、「オブジェクトを把持すること」の実施形態例を説明する箇所において説明したように、任意選択で、表示オブジェクト、例えばフリスビー等を把持する。実の手は、「3Dシーンにおいて表示オブジェクトを押すこと」の実施形態例を説明する箇所において説明したように、任意選択で、表示オブジェクトであるフリスビーを動かし、回転させ、反転させる。実の手が、任意選択で、表示オブジェクトであるフリスビーを放つと、表示オブジェクトであるフリスビーは、任意選択で、実際に反転して投げられたかのように動くように見えるようになる;
卓球(実際のラケット、表示されたボール):実物の卓球ラケットは、実物大であってもなくてもよく、表示オブジェクトであるボールを打つことができる;
野球またはソフトボール(実物のバット、表示されたボール);
ビー玉遊び(Marbles)(1つ以上の実物のビー玉、1つ以上の表示されたビー玉):実物のビー玉を表示空間に打ち込み、表示された1つ以上のビー玉にぶつける。任意選択で、表示システムにより、表示オブジェクトであるビー玉が実際のビー玉同様に表示空間内を動くように表示する;
シャッフルボード(実物のキュー(paddle)、表示された円盤(puck));
ジャックス(Knucklebones)(実物のジャックス、表示されたボール):表示オブジェクトであるボールを表示空間内で把持および/またはたたき、実際のボールと同様に、またはそれより早くまたは遅く、上方に向かいその後戻ってくる軌道を表示する。表示されたボールが上下している間、ユーザは、任意選択で、ジャックスの試合にしたがって、ジャックスを実際に操作してもよい。このシステムによれば、任意選択で、初心者の試合のときにはボールが上昇下降する速度を遅くし、より高度なゲームでは、表示オブジェクトであるボールの上昇下降速度を実際的なものとし、任意選択で、さらに高度なゲームでは、ボールの上昇下降速度を実際の速度よりも速くしてもよい;
ボーリング(実物のボール−実物と同じサイズ、小さいサイズ、または大きいサイズ、表示されたピン);および
ビリヤードおよび同等のゲーム(実物のキュースティック、表示されたボール)。
いくつかの実施形態において、ユーザは、任意選択で、3Dシーン中に表示された1つ以上のオブジェクトを上記のように選択する。そして、ユーザは、ツールまたは手等の入力オブジェクトを表示空間に挿入する。ユーザは、表示空間内において入力オブジェクトを動かす。選択したオブジェクトは、入力オブジェクトに応答して、あたかも固体のようにふるまう。すなわち、選択したオブジェクトは、入力オブジェクトが画像空間におけるその対応する画像に接触したときに、表示空間において動く。選択しなかったオブジェクトは、入力オブジェクトに応答して、接触に対してあたかも透明であるかのようにふるまう。すなわち、選択しなかったオブジェクトは、入力オブジェクトが画像空間におけるその対応する画像に接触および/または通過するときに、表示空間において動かない。
いくつかの実施形態において、ユーザインタフェースコマンドを与えて、一の平面において、3Dオブジェクトまたは3Dシーンをスライスまたは切り取る。
いくつかの実施形態において、ユーザインタフェースコマンドを与えて、3Dシーンにおける特定のボリュームに対応する、3D表示空間におけるボリュームを画定する。
いくつかの実施形態において、のみ(チゼル)、ナイフ、または自由形式の切削用具等のツールを入力空間内に挿入する。追跡システムにより、入力空間における、チゼルの先端、または切削用具またはナイフの端縁を追跡する。チゼルの先端、または切削用具またはナイフの端縁は、本明細書において、ツールの有効部分(active portion)と呼ぶ。いくつかの実施形態において、チゼルの先端、または切削用具の端縁は塗装またはマークして、追跡システムによる入力空間での追跡を支援する。入力空間内でツールが動いて、入力空間における、表示空間のオブジェクトの位置に対応する位置に移動すると、表示空間におけるオブジェクトの一部分が、あたかもツールの有効部分によって表示空間におけるオブジェクトの当該部分を切除しているかのように、任意選択で消去される。
いくつかの実施形態において、3Dシーンにおける3Dオブジェクトを生成すなわちまたは構築する。任意選択で、最初の3Dシーンにはオブジェクトが無く、3Dオブジェクトを新規に構築してもよい。
いくつかの実施形態において、3Dシーンにおける3Dオブジェクトを変更し、または3Dオブジェクトを(上記のように)切削し、3Dオブジェクトを3Dプリンタに出力して生成する。
いくつかの実施形態において、3D入力空間および3D表示空間は、上述のように重なり合う。この場合、3Dディスプレイを任意選択で用いて、3Dディスプレイおよび入力空間に挿入した入力オブジェクトの位置において表示を行うようにする。
いくつかの実施形態において、3Dシーンにおける選択した2点間の距離を測定する。
いくつかの実施形態において、1つ以上の選択したオブジェクトのボリュームを3Dシーンにおいて測定する。
いくつかの実施形態において、3Dシーンにおける面積を測定する。
いくつかの実施形態において、3Dディスプレイによって画像生成した第2の3Dオブジェクトの表示に対応する位置において、第1の現実の世界の3Dオブジェクトを入力空間内に置く。
いくつかの実施形態において、上述したように、表示空間においてパスを画定する。実物または生成した3Dオブジェクトを把持してパスに沿って移動する。3Dオブジェクトがパスに沿って移動している間に各測定を行い、結果を生成する。
いくつかの実施形態において、3Dオブジェクトは、入力空間に挿入して追跡システムによって測定した実3Dオブジェクトであっても表示空間において表示した仮想3Dオブジェクトであっても、上述したようにマークしたパスに沿って移動させる。
手動位置合わせ:
いくつかの実施形態において、表示空間に第1の3Dオブジェクトおよび第2の3Dオブジェクトを表示する。ユーザは、入力空間に両手を挿入して、表示された3Dオブジェクトの一方または両方を把持する。表示オブジェクトを把持することについては既に述べた通りである。ユーザは、任意選択で、表示された3Dオブジェクトの一方または両方を操作して、2つの表示オブジェクト間の整列程度(a degree of registration)を求める。
いくつかの実施形態において、ユーザは、オブジェクトの第1の3D表示画像上の複数の点、同じオブジェクトの第2の3D表示画像上において各点に対応する複数のオブジェクトをマークし、コンピュータシステムは、任意選択で、オブジェクトの第1表示画像を、任意選択で、移動および/または回転および/またはズームして、同じオブジェクトの第2の表示画像と重ね合わせて位置合わせする。
いくつかの実施形態において、ユーザインタフェースにより、ユーザは、3Dシーンにおける点および方向をマークし、マークした点および指示した方向から見た3Dを表示させる入力をディスプレイに与えることで、3Dシーンを探査することが可能となる。
いくつかの実施形態において、上記の3Dユーザインタフェースを用いて、3Dシーンにおける1つ以上のオブジェクトを選択するか、または、3Dシーンの一部分を選択し、当該オブジェクトまたはシーンの当該部分についての情報を他のシステムに送信する。
いくつかの実施形態において、入力空間における入力オブジェクトの追跡に少なくとも部分的に基づいて、3Dシーン全体を回転する。入力オブジェクトを入力空間に挿入して回転する。3Dシーンは、入力オブジェクトにより上記のように画定された方向に対応する軸周りに、入力オブジェクトの回転角に相当する角度で回転する。入力オブジェクトは、任意選択で、手またはツールであってもよい。
CT等の3D医用データが既に取得され存在している種々の医用システム、例えば、コンピュータ断層撮影(CT)、核磁気共鳴画像法(MRI)、電気生理学3Dマッピングシステム(例えば、バイオセンスウェブスター社製CARTO(登録商標)3システム等)、超音波(US)、および3D回転血管造影(3DRA)等は、本発明の一実施形態による3Dディスプレイおよび3Dインタフェースを用いることにより潜在的に利益を得る。3D取得システム用のユーザインタフェースが含む機能は、たとえキーボード等のものであっても、3Dユーザインタフェースの各実施形態に任意選択で伝送される。
いくつかの実施形態において、表示されている3Dシーンまたはオブジェクトは、例えば、医学的器官、エンジン、風洞中の航空機、コンピュータゲーム等の動的システムのコンピュータモデルであり、ユーザは、3D画像中で手、指、またはツールを動かしてモデルと相互作用し、モデルにおいて動作を生じさせ、3Dディスプレイによって当該動作を表示させる。
脈管系のモデル内に指を挿入して、3Dディスプレイは、任意選択で、血管造影図において造影剤によって血流をハイライトするやり方と同様に、当該脈管系を指の下流に向かって徐々にハイライトすること;
指を脈管系のモデルに挿入することができ、3Dディスプレイは、任意選択で、指の指し示す位置で血流が止まったことを示すこと;
指を脈管系のモデルに挿入して、(本明細書の別の箇所で説明したように)血管壁を押すことができ、3Dディスプレイは、任意選択で、血流モデルの血管を拡大して示すこと;および
指を脈管系のモデルに挿入して、(本明細書の別の箇所において説明したように押すことにより)指を使って血管壁をつまむ(締め付ける)ことができ、3Dディスプレイは、任意選択で、つまんだ血管と共に血流モデルを示すこと、等である。
ここで図5Aを参照する。図5Aは、本発明の一実施形態例の簡略フローチャートである。
前記3Dユーザインタフェースの入力空間内から少なくとも部分的にユーザ入力を受信することであって、前記入力空間は3Dシーンの表示空間と対応付けられていることを特徴とする、受信すること(501)、
前記ユーザ入力を前記3Dシーンに対して評価すること(502)、および
前記ユーザ入力に基づき前記3Dシーンを変更すること、を含む。
入力空間中に3Dシーンを表示すること(511)、
前記表示空間と対応付けられた前記入力空間をモニタして、前記入力空間中の入力オブジェクトの位置を監視すること(512)、
入力空間における前記入力オブジェクトの1つ以上の点の位置を測定すること(513)、および
入力空間における前記入力オブジェクトの1つ以上の点の前記位置を3Dシーンに対するユーザ入力と対応付けること(514)、とを含む。
いくつかの実施形態において、3Dインタフェースをナチュラルインタフェースとして用いて、医用データおよび画像を閲覧するか、または治療計画を立てる。
Claims (51)
- 3次元(3D)ユーザインタフェースを提供する方法であって、
前記3Dユーザインタフェースの入力空間であって、3Dシーンの表示空間と対応している入力空間内から、少なくとも部分的に、ユーザ入力を受け取ること、
前記3Dシーンを基準として前記ユーザ入力を評価すること、および
前記3Dシーンを前記ユーザ入力に基づき変更すること、
を含む、方法。 - 前記入力空間は前記表示空間内に含まれている、請求項1に記載の方法。
- 前記入力空間は、前記表示空間と重なり合い、かつ範囲が同等である、請求項1に記載の方法。
- 前記3Dシーンはホログラフィにより作成する、請求項1に記載の方法。
- 前記3Dシーンはコンピュータ生成ホログラフィにより作成する、請求項1に記載の方法。
- 前記ユーザ入力は、前記ユーザが入力オブジェクトを前記入力空間内に置くことを含む、請求項1に記載の方法。
- 前記入力オブジェクトは前記ユーザの手を含む、請求項6に記載の方法。
- 前記ユーザ入力は、前記ユーザが前記手で形成する形状を含む、請求項7に記載の方法。
- 前記ユーザ入力はハンドジェスチャを含む、請求項7に記載の方法。
- 前記ユーザ入力は、入力オブジェクトの先端を前記入力空間内における一の位置に置くことにより、入力空間における位置に対応する位置を表示空間において選択することを含む、請求項6に記載の方法。
- 前記ユーザ入力は、前記入力オブジェクトの先端を入力空間内の複数の位置にわたって動かすことにより、該入力空間における前記複数の位置に対応する複数の位置を表示空間において選択することを含み、さらに、入力空間における前記複数の位置のそれぞれ一つずつに選択コマンドを付加することを含む、請求項10に記載の方法。
- 前記入力オブジェクトは複数の選択点を含み、
前記ユーザ入力は、入力オブジェクトの前記複数の選択点を入力空間内の複数の位置に置くことにより、該入力空間における該複数の位置に対応する複数の位置を表示空間において選択することを含む、請求項6に記載の方法。 - 表示空間における前記選択された複数の位置で包囲したボリューム内に含まれるオブジェクトを表示空間において選択することをさらに含む、請求項11に記載の方法。
- 表示空間における位置の表示を視覚的に変更して、選択した位置を表示空間に表示することをさらに含む、請求項10に記載の方法。
- 入力空間において選択された位置に対応する位置を含む表示空間においてオブジェクトを選択することをさらに含む、請求項10に記載の方法。
- 前記入力オブジェクトは長尺の入力オブジェクトを含み、前記入力オブジェクトの長軸は、前記長軸を通り前記入力空間内に延在する線を画定すると解釈される、請求項6に記載の方法。
- 前記ユーザ入力は、表示空間に表示したオブジェクトの表面と前記線がどこで交差するかを判断することによって、表示空間における位置に対応する位置を入力空間において選択することを含む、請求項16に記載の方法。
- 表示オブジェクトの表面と前記線が表示空間において交差する位置の表示を表示空間において視覚的に変更して、表示空間において選択した位置を表示することをさらに含む、請求項17に記載の方法。
- 前記ユーザ入力は、前記線を用いて、回転コマンドを示すユーザ入力について回転軸を特定することを含む、請求項16に記載の方法。
- 前記ユーザ入力は、表示空間において2つの点の選択することを利用して表示空間における回転軸を特定することを含む、請求項12に記載の方法。
- 前記ユーザが前記入力オブジェクトを回転すること、および、前記入力オブジェクトの回転角に対応付けた角度で前記3Dシーンを回転することをさらに含む、請求項19に記載の方法。
- 表示空間における前記表示オブジェクトの位置に対応する、入力空間における位置に前記入力オブジェクトが移動する場合、表示空間における表示オブジェクトを表示空間において移動する、請求項6に記載の方法。
- 前記入力オブジェクト上の点が、表示空間における前記表示オブジェクトの位置に対応する位置であって、入力空間における位置に到達すると、前記入力オブジェクト上の前記点の移動速度を測定し、前記点における前記入力オブジェクトの表面に垂直なベクトルの方向を計算する、請求項6に記載の方法。
- 前記入力オブジェクト上の点が、表示空間における前記表示オブジェクトの位置に対応する位置であって、入力空間における位置に到達すると、前記表示オブジェクト上の前記点の移動速度を測定し、前記点における前記表示オブジェクトの表面に垂直なベクトルの方向を計算する、請求項6に記載の方法。
- 前記表示オブジェクトは、前記表示オブジェクト上の前記点において、前記入力オブジェクト上の前記点の前記測定した速度で、前記ベクトルの方向に、前記入力オブジェクトによってあたかも打たれたかのように移動して表示される、請求項23および24のいずれか一項に記載の方法。
- 表示空間における表示オブジェクトの表面上の複数の位置を選択することは、前記表示オブジェクトを把持するユーザ入力を含む、請求項12に記載の方法。
- 表示オブジェクトを表示空間において把持することにより、前記ユーザインタフェースによって表示空間中の前記表示オブジェクトを見つけ、前記入力オブジェクトの前記複数の選択点における表示オブジェクトの前記表面上の前記複数の位置を追跡する、請求項26に記載の方法。
- 3D表示空間に表示された3Dオブジェクトのボリュームを通って前記入力オブジェクトを移動させることにより、前記3Dオブジェクトの形状を変更すること、および前記3Dオブジェクトにおいて前記ボリュームを前記3Dオブジェクトからマイナスして表示すること、をさらに含む、請求項1に記載の方法。
- 3D表示空間に表示された3Dオブジェクトのボリュームの少なくとも一部分を通過して前記入力オブジェクトを移動させること、およびボリュームの前記一部分を前記3Dオブジェクトからマイナスして表示すること、をさらに含む、請求項28に記載の方法。
- 前記3Dオブジェクトを表示することは、前記入力オブジェクトの有効領域(active region)が通ったボリュームの一部分のみを前記3Dオブジェクトからマイナスして表示することを含む、請求項29に記載の方法。
- 前記入力オブジェクトを前記入力ボリュームの少なくとも一部分に通過させること、および、前記入力ボリュームの前記一部分に対応する、表示空間に表示したオブジェクトを前記3Dシーンにプラスして表示することをさらに含む、請求項28に記載の方法。
- 前記3Dオブジェクトを表示することは、前記入力オブジェクトの有効領域が通過したボリュームの一部分のみを前記3Dオブジェクトにプラスして表示することを含む、請求項31に記載の方法。
- 3Dオブジェクトについての明細を3Dプリンタに送信することをさらに含む、請求項28に記載の方法。
- 前記ユーザ入力は、さらに、入力空間において指を追跡することにより、前記指を鳴らすことを検出することを含む、請求項1に記載の方法。
- 前記ユーザ入力は、さらに、
ボイスコマンド、
頭部運動、
マウスクリック、
キーボード入力、および
ボタン押下、
からなる群から選択した少なくとも1つの追加のユーザ入力を含む、請求項1に記載の方法。 - 前記選択した複数の位置を通過するパスに沿った距離を表示空間において測定することをさらに含む、請求項11に記載の方法。
- 表示空間における前記複数の選択した位置は、表示空間における3Dオブジェクトの表面上にあり、表示空間において、前記複数の選択した点で包囲した前記3Dオブジェクトの前記表面上のエリアを測定することをさらに含む、請求項11に記載の方法。
- 前記選択したオブジェクトのボリュームを測定することをさらに含む、請求項13および15のいずれか一項に記載の方法。
- 第1の画像における複数の点および第2の3D画像における複数の点を選択すること、および第1の画像および第2の3D画像を位置合わせすること、をさらに含む、請求項1に記載の方法。
- 第1の画像は2D画像である、請求項39に記載の方法。
- 第1の画像は3D画像である、請求項39に記載の方法。
- 少なくとも、前記選択した複数の点が表示空間において実質的に一致するように、第1の画像および第2の3D画像を表示することをさらに含む、請求項39に記載の方法。
- 3D表示空間に3Dシーンを表示するユニットと、
3D入力空間における入力オブジェクトの3D座標を追跡するユニットと、
コンピュータと、を備え、
該コンピュータは、
前記3D入力空間における前記入力オブジェクトの前記座標を受信し、
前記3D入力空間における前記入力オブジェクトの前記座標をユーザ入力に変換し、および
前記ユーザ入力に基づいて、前記3Dシーンの前記表示を変更する、
3次元(3D)ユーザインタフェースを提供するシステム。 - 前記入力空間は、前記表示空間と重なり合い、かつ範囲が同等である、請求項43に記載のシステム。
- 3D(3次元)ディスプレイに入力を提供する方法であって、
入力オブジェクトを、前記3Dディスプレイのボリュームを有する入力空間に挿入すること、
前記入力空間内において前記入力オブジェクトの位置を追跡すること、
前記追跡することに基づいて、前記3Dディスプレイにより表示された3Dシーンを変更すること、を含む方法において、
前記位置を追跡することは、ジェスチャを解釈することを含む、方法。 - 入力オブジェクトは手であり、ジェスチャは、前記3Dディスプレイにより表示されたオブジェクトの表面上の一の位置に指を置くことを含む、請求項45に記載の方法。
- 入力オブジェクトは手であり、ジェスチャは、前記3Dディスプレイにより表示されたオブジェクトの表面上の同じ位置に、前記手の複数の指をそろえて置くことを含む、請求項45に記載の方法。
- 入力オブジェクトは手であり、ジェスチャは、前記手の3本の指を3D入力空間における略垂直な3本の軸の形状とすること、および前記略垂直な3本の軸のうちの1本を中心に前記手を回転させることを含む、請求項45に記載の方法。
- 入力オブジェクトは手であり、ジェスチャは、前記3Dディスプレイにより表示されたオブジェクトの表面上の異なる位置に、前記手の複数の指を置くことを含む、請求項45に記載の方法。
- 前記3Dシーンを変更することは、前記入力オブジェクトの前記位置の移動に伴って移動する位置において前記3Dシーンを変更することを含む、請求項45に記載の方法。
- 前記3Dシーンはコンピュータ化モデルを含み、
前記3Dシーンを変更することは、
前記入力オブジェクトの前記位置に少なくとも部分的に基づいて、前記モデルについてパラメータを設定すること、
前記パラメータに少なくとも部分的に基づいて、前記モデルを表示すること、を含む、
請求項45に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361844503P | 2013-07-10 | 2013-07-10 | |
US61/844,503 | 2013-07-10 | ||
PCT/IL2014/050626 WO2015004670A1 (en) | 2013-07-10 | 2014-07-10 | Three dimensional user interface |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016524262A true JP2016524262A (ja) | 2016-08-12 |
JP2016524262A5 JP2016524262A5 (ja) | 2017-08-17 |
Family
ID=52279421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016524941A Pending JP2016524262A (ja) | 2013-07-10 | 2014-07-10 | 3次元ユーザインタフェース |
Country Status (6)
Country | Link |
---|---|
US (1) | US20160147308A1 (ja) |
EP (1) | EP3019913A4 (ja) |
JP (1) | JP2016524262A (ja) |
CA (1) | CA2917478A1 (ja) |
IL (1) | IL243492A0 (ja) |
WO (1) | WO2015004670A1 (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018088240A (ja) * | 2016-11-24 | 2018-06-07 | 株式会社齋藤創造研究所 | 入力装置および画像表示システム |
JP2019139306A (ja) * | 2018-02-06 | 2019-08-22 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
JP2019537459A (ja) * | 2016-09-29 | 2019-12-26 | シンバイオニクス リミテッド | 仮想現実環境または拡張現実環境の中の手術室内での医療シミュレーションのための方法およびシステム |
JP2020161006A (ja) * | 2019-03-27 | 2020-10-01 | 株式会社ミクシィ | オブジェクト姿勢制御プログラムおよび情報処理装置 |
WO2021140956A1 (ja) * | 2020-01-08 | 2021-07-15 | ソニーグループ株式会社 | 情報処理装置および方法 |
JP2021518498A (ja) * | 2018-03-21 | 2021-08-02 | ビュー, インコーポレイテッド | 外部3dモデリングおよびスケジュールベースのコンピューティングを使用した制御方法およびシステム |
JP2021136036A (ja) * | 2020-02-27 | 2021-09-13 | 幻景▲ケイ▼動股▲フン▼有限公司 | 浮遊画像表示装置、浮遊画像との対話方法及び浮遊画像表示システム |
JP2022028692A (ja) * | 2017-04-28 | 2022-02-16 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理装置の制御方法、及びプログラム |
JP7450289B2 (ja) | 2021-11-30 | 2024-03-15 | 幻景▲ケイ▼動股▲フン▼有限公司 | 立体視画像に対する対話操作方法および立体視画像表示システム |
Families Citing this family (63)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11264139B2 (en) * | 2007-11-21 | 2022-03-01 | Edda Technology, Inc. | Method and system for adjusting interactive 3D treatment zone for percutaneous treatment |
US9202297B1 (en) * | 2011-07-12 | 2015-12-01 | Domo, Inc. | Dynamic expansion of data visualizations |
US9792017B1 (en) | 2011-07-12 | 2017-10-17 | Domo, Inc. | Automatic creation of drill paths |
EP3107484B1 (en) | 2014-02-21 | 2022-03-30 | Trispera Dental Inc. | Augmented reality dental design method and system |
EP2957987A1 (en) * | 2014-06-19 | 2015-12-23 | Nokia Technologies OY | A non-depth multiple implement input and a depth multiple implement input |
WO2016103541A1 (ja) * | 2014-12-25 | 2016-06-30 | パナソニックIpマネジメント株式会社 | 投影装置 |
CN104932692B (zh) * | 2015-06-24 | 2017-12-08 | 京东方科技集团股份有限公司 | 三维触摸感测方法、三维显示设备、可穿戴设备 |
WO2017145158A1 (en) | 2016-02-22 | 2017-08-31 | Real View Imaging Ltd. | Zero order blocking and diverging for holographic imaging |
US10795316B2 (en) | 2016-02-22 | 2020-10-06 | Real View Imaging Ltd. | Wide field of view hybrid holographic display |
US11663937B2 (en) | 2016-02-22 | 2023-05-30 | Real View Imaging Ltd. | Pupil tracking in an image display system |
US10788791B2 (en) | 2016-02-22 | 2020-09-29 | Real View Imaging Ltd. | Method and system for displaying holographic images within a real object |
WO2017145156A2 (en) | 2016-02-22 | 2017-08-31 | Real View Imaging Ltd. | Holographic display |
US20170255580A1 (en) * | 2016-03-02 | 2017-09-07 | Northrop Grumman Systems Corporation | Multi-modal input system for a computer system |
CA3016346A1 (en) | 2016-03-21 | 2017-09-28 | Washington University | Virtual reality or augmented reality visualization of 3d medical images |
US10118696B1 (en) | 2016-03-31 | 2018-11-06 | Steven M. Hoffberg | Steerable rotating projectile |
WO2017192746A1 (en) | 2016-05-03 | 2017-11-09 | Affera, Inc. | Medical device visualization |
WO2017197114A1 (en) | 2016-05-11 | 2017-11-16 | Affera, Inc. | Anatomical model generation |
US20170325901A1 (en) | 2016-05-12 | 2017-11-16 | Affera, Inc. | Anatomical model controlling |
WO2018011105A1 (en) * | 2016-07-13 | 2018-01-18 | Koninklijke Philips N.V. | Systems and methods for three dimensional touchless manipulation of medical images |
WO2018067130A1 (en) * | 2016-10-04 | 2018-04-12 | Hewlett-Packard Development Company, L.P. | Three-dimensional input device |
SK289010B6 (sk) * | 2016-10-17 | 2022-11-24 | Ústav experimentálnej fyziky SAV, v. v. i. | Spôsob interaktívnej kvantifikácie digitalizovaných 3D objektov pomocou kamery snímajúcej pohľad |
CN108268120B (zh) * | 2016-12-29 | 2020-07-28 | 同方威视技术股份有限公司 | 基于vr或ar的图像数据处理方法、设备和安检系统 |
US10102665B2 (en) * | 2016-12-30 | 2018-10-16 | Biosense Webster (Israel) Ltd. | Selecting points on an electroanatomical map |
US10691066B2 (en) * | 2017-04-03 | 2020-06-23 | International Business Machines Corporation | User-directed holographic object design |
AU2018266132A1 (en) * | 2017-05-09 | 2019-10-10 | Boston Scientific Scimed, Inc. | Operating room devices, methods, and systems |
WO2018211494A1 (en) * | 2017-05-15 | 2018-11-22 | Real View Imaging Ltd. | System with multiple displays and methods of use |
EP3556702A1 (en) | 2018-03-13 | 2019-10-23 | Otis Elevator Company | Augmented reality car operating panel |
JP6847885B2 (ja) * | 2018-03-20 | 2021-03-24 | 株式会社東芝 | 情報処理装置、情報処理方法及びプログラム |
US11712637B1 (en) | 2018-03-23 | 2023-08-01 | Steven M. Hoffberg | Steerable disk or ball |
US11062527B2 (en) | 2018-09-28 | 2021-07-13 | General Electric Company | Overlay and manipulation of medical images in a virtual environment |
US10691418B1 (en) * | 2019-01-22 | 2020-06-23 | Sap Se | Process modeling on small resource constraint devices |
US11507019B2 (en) * | 2019-02-23 | 2022-11-22 | Microsoft Technology Licensing, Llc | Displaying holograms via hand location |
US11170576B2 (en) | 2019-09-20 | 2021-11-09 | Facebook Technologies, Llc | Progressive display of virtual objects |
US11176745B2 (en) | 2019-09-20 | 2021-11-16 | Facebook Technologies, Llc | Projection casting in virtual environments |
US10991163B2 (en) | 2019-09-20 | 2021-04-27 | Facebook Technologies, Llc | Projection casting in virtual environments |
US10802600B1 (en) * | 2019-09-20 | 2020-10-13 | Facebook Technologies, Llc | Virtual interactions at a distance |
US11086406B1 (en) | 2019-09-20 | 2021-08-10 | Facebook Technologies, Llc | Three-state gesture virtual controls |
US11189099B2 (en) | 2019-09-20 | 2021-11-30 | Facebook Technologies, Llc | Global and local mode virtual object interactions |
US11086476B2 (en) * | 2019-10-23 | 2021-08-10 | Facebook Technologies, Llc | 3D interactions with web content |
US11175730B2 (en) | 2019-12-06 | 2021-11-16 | Facebook Technologies, Llc | Posture-based virtual space configurations |
US11475639B2 (en) | 2020-01-03 | 2022-10-18 | Meta Platforms Technologies, Llc | Self presence in artificial reality |
US11209573B2 (en) | 2020-01-07 | 2021-12-28 | Northrop Grumman Systems Corporation | Radio occultation aircraft navigation aid system |
WO2021161302A1 (en) | 2020-02-14 | 2021-08-19 | Simbionix Ltd. | Airway management virtual reality training |
US11257280B1 (en) | 2020-05-28 | 2022-02-22 | Facebook Technologies, Llc | Element-based switching of ray casting rules |
US11194402B1 (en) * | 2020-05-29 | 2021-12-07 | Lixel Inc. | Floating image display, interactive method and system for the same |
US11256336B2 (en) | 2020-06-29 | 2022-02-22 | Facebook Technologies, Llc | Integration of artificial reality interaction modes |
CN112015268A (zh) * | 2020-07-21 | 2020-12-01 | 重庆非科智地科技有限公司 | 基于bim的虚实交互的交底方法及装置、系统和存储介质 |
US11227445B1 (en) | 2020-08-31 | 2022-01-18 | Facebook Technologies, Llc | Artificial reality augments and surfaces |
US11176755B1 (en) | 2020-08-31 | 2021-11-16 | Facebook Technologies, Llc | Artificial reality augments and surfaces |
US11178376B1 (en) | 2020-09-04 | 2021-11-16 | Facebook Technologies, Llc | Metering for display modes in artificial reality |
US11514799B2 (en) | 2020-11-11 | 2022-11-29 | Northrop Grumman Systems Corporation | Systems and methods for maneuvering an aerial vehicle during adverse weather conditions |
US11113893B1 (en) | 2020-11-17 | 2021-09-07 | Facebook Technologies, Llc | Artificial reality environment with glints displayed by an extra reality device |
US11461973B2 (en) | 2020-12-22 | 2022-10-04 | Meta Platforms Technologies, Llc | Virtual reality locomotion via hand gesture |
US11409405B1 (en) | 2020-12-22 | 2022-08-09 | Facebook Technologies, Llc | Augment orchestration in an artificial reality environment |
CN112862751B (zh) * | 2020-12-30 | 2022-05-31 | 电子科技大学 | 一种用于自闭症的自动诊断装置 |
US11294475B1 (en) | 2021-02-08 | 2022-04-05 | Facebook Technologies, Llc | Artificial reality multi-modal input switching model |
US11295503B1 (en) | 2021-06-28 | 2022-04-05 | Facebook Technologies, Llc | Interactive avatars in artificial reality |
US11762952B2 (en) | 2021-06-28 | 2023-09-19 | Meta Platforms Technologies, Llc | Artificial reality application lifecycle |
US12008717B2 (en) | 2021-07-07 | 2024-06-11 | Meta Platforms Technologies, Llc | Artificial reality environment control through an artificial reality environment schema |
US11798247B2 (en) | 2021-10-27 | 2023-10-24 | Meta Platforms Technologies, Llc | Virtual object structures and interrelationships |
US11748944B2 (en) | 2021-10-27 | 2023-09-05 | Meta Platforms Technologies, Llc | Virtual object structures and interrelationships |
US11947862B1 (en) | 2022-12-30 | 2024-04-02 | Meta Platforms Technologies, Llc | Streaming native application content to artificial reality devices |
US11991222B1 (en) | 2023-05-02 | 2024-05-21 | Meta Platforms Technologies, Llc | Persistent call control user interface element in an artificial reality environment |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010539590A (ja) * | 2007-09-14 | 2010-12-16 | インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー | ジェスチャベースのユーザインタラクションの処理 |
US20110107270A1 (en) * | 2009-10-30 | 2011-05-05 | Bai Wang | Treatment planning in a virtual environment |
JP2011159273A (ja) * | 2010-01-29 | 2011-08-18 | Pantech Co Ltd | ホログラムを利用したユーザインターフェース装置 |
JP2011527760A (ja) * | 2008-07-10 | 2011-11-04 | リアル ビュー イメージング リミテッド | 広視野角ディスプレイおよびユーザインタフェース |
JP2012108826A (ja) * | 2010-11-19 | 2012-06-07 | Canon Inc | 表示制御装置及び表示制御装置の制御方法、プログラム |
JP2013045255A (ja) * | 2011-08-23 | 2013-03-04 | Kyocera Corp | 表示機器 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6031519A (en) * | 1997-12-30 | 2000-02-29 | O'brien; Wayne P. | Holographic direct manipulation interface |
US7490941B2 (en) * | 2004-08-30 | 2009-02-17 | California Institute Of Technology | Three-dimensional hologram display system |
EP1851750A4 (en) * | 2005-02-08 | 2010-08-25 | Oblong Ind Inc | SYSTEM AND METHOD FOR CONTROL SYSTEM BASED ON GESTURES |
US20090280916A1 (en) * | 2005-03-02 | 2009-11-12 | Silvia Zambelli | Mobile holographic simulator of bowling pins and virtual objects |
US8233206B2 (en) * | 2008-03-18 | 2012-07-31 | Zebra Imaging, Inc. | User interaction with holographic images |
KR20100088094A (ko) * | 2009-01-29 | 2010-08-06 | 삼성전자주식회사 | 다중 입력 소스를 이용한 오브젝트 조작 장치 |
US8400398B2 (en) * | 2009-08-27 | 2013-03-19 | Schlumberger Technology Corporation | Visualization controls |
EP2390772A1 (en) * | 2010-05-31 | 2011-11-30 | Sony Ericsson Mobile Communications AB | User interface with three dimensional user input |
GB201009182D0 (en) * | 2010-06-01 | 2010-07-14 | Treadway Oliver | Method,apparatus and system for a graphical user interface |
CN103415255B (zh) * | 2011-02-24 | 2020-02-07 | 皇家飞利浦电子股份有限公司 | 利用血管内装置形状对血管图像进行非刚性体变形 |
US8823639B2 (en) * | 2011-05-27 | 2014-09-02 | Disney Enterprises, Inc. | Elastomeric input device |
WO2013093837A1 (en) * | 2011-12-23 | 2013-06-27 | Koninklijke Philips Electronics N.V. | Method and apparatus for interactive display of three dimensional ultrasound images |
KR101950939B1 (ko) * | 2012-09-13 | 2019-02-22 | 삼성전자주식회사 | 홀로그래픽 객체 처리 장치 및 그 동작 방법 |
-
2014
- 2014-07-10 WO PCT/IL2014/050626 patent/WO2015004670A1/en active Application Filing
- 2014-07-10 EP EP14823408.1A patent/EP3019913A4/en not_active Withdrawn
- 2014-07-10 JP JP2016524941A patent/JP2016524262A/ja active Pending
- 2014-07-10 CA CA2917478A patent/CA2917478A1/en not_active Abandoned
- 2014-07-10 US US14/903,374 patent/US20160147308A1/en not_active Abandoned
-
2016
- 2016-01-07 IL IL243492A patent/IL243492A0/en unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010539590A (ja) * | 2007-09-14 | 2010-12-16 | インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー | ジェスチャベースのユーザインタラクションの処理 |
JP2011527760A (ja) * | 2008-07-10 | 2011-11-04 | リアル ビュー イメージング リミテッド | 広視野角ディスプレイおよびユーザインタフェース |
US20110107270A1 (en) * | 2009-10-30 | 2011-05-05 | Bai Wang | Treatment planning in a virtual environment |
JP2011159273A (ja) * | 2010-01-29 | 2011-08-18 | Pantech Co Ltd | ホログラムを利用したユーザインターフェース装置 |
JP2012108826A (ja) * | 2010-11-19 | 2012-06-07 | Canon Inc | 表示制御装置及び表示制御装置の制御方法、プログラム |
JP2013045255A (ja) * | 2011-08-23 | 2013-03-04 | Kyocera Corp | 表示機器 |
Non-Patent Citations (2)
Title |
---|
"CG映像 素手で操作", 月刊E・コロンブス, vol. 第33巻, JPN6018011114, 28 April 2007 (2007-04-28), pages 36, ISSN: 0003908390 * |
DAVID M. BOURG, ゲーム開発のための物理シミュレーション入門, vol. 第1版, JPN6018011112, 25 July 2003 (2003-07-25), pages 89 - 97, ISSN: 0003908389 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7055988B2 (ja) | 2016-09-29 | 2022-04-19 | シンバイオニクス リミテッド | 仮想現実環境または拡張現実環境の中の手術室内での医療シミュレーションのための方法およびシステム |
JP2019537459A (ja) * | 2016-09-29 | 2019-12-26 | シンバイオニクス リミテッド | 仮想現実環境または拡張現実環境の中の手術室内での医療シミュレーションのための方法およびシステム |
JP2018088240A (ja) * | 2016-11-24 | 2018-06-07 | 株式会社齋藤創造研究所 | 入力装置および画像表示システム |
JP7209310B2 (ja) | 2016-11-24 | 2023-01-20 | 株式会社齋藤創造研究所 | 入力装置および画像表示システム |
JP2021180019A (ja) * | 2016-11-24 | 2021-11-18 | 株式会社齋藤創造研究所 | 入力装置および画像表示システム |
US11896893B2 (en) | 2017-04-28 | 2024-02-13 | Sony Interactive Entertainment Inc. | Information processing device, control method of information processing device, and program |
US11617942B2 (en) | 2017-04-28 | 2023-04-04 | Sony Interactive Entertainment Inc. | Information processing device, control method of information processing device, and program |
JP2022028692A (ja) * | 2017-04-28 | 2022-02-16 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理装置の制御方法、及びプログラム |
JP2019139306A (ja) * | 2018-02-06 | 2019-08-22 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
JP7260222B2 (ja) | 2018-03-21 | 2023-04-18 | ビュー, インコーポレイテッド | 外部3dモデリングおよびスケジュールベースのコンピューティングを使用した制御方法およびシステム |
JP2021518498A (ja) * | 2018-03-21 | 2021-08-02 | ビュー, インコーポレイテッド | 外部3dモデリングおよびスケジュールベースのコンピューティングを使用した制御方法およびシステム |
JP7299478B2 (ja) | 2019-03-27 | 2023-06-28 | 株式会社Mixi | オブジェクト姿勢制御プログラムおよび情報処理装置 |
JP2020161006A (ja) * | 2019-03-27 | 2020-10-01 | 株式会社ミクシィ | オブジェクト姿勢制御プログラムおよび情報処理装置 |
WO2021140956A1 (ja) * | 2020-01-08 | 2021-07-15 | ソニーグループ株式会社 | 情報処理装置および方法 |
JP2021136036A (ja) * | 2020-02-27 | 2021-09-13 | 幻景▲ケイ▼動股▲フン▼有限公司 | 浮遊画像表示装置、浮遊画像との対話方法及び浮遊画像表示システム |
JP7450289B2 (ja) | 2021-11-30 | 2024-03-15 | 幻景▲ケイ▼動股▲フン▼有限公司 | 立体視画像に対する対話操作方法および立体視画像表示システム |
Also Published As
Publication number | Publication date |
---|---|
WO2015004670A1 (en) | 2015-01-15 |
IL243492A0 (en) | 2016-02-29 |
CA2917478A1 (en) | 2015-01-15 |
EP3019913A4 (en) | 2017-03-08 |
US20160147308A1 (en) | 2016-05-26 |
EP3019913A1 (en) | 2016-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016524262A (ja) | 3次元ユーザインタフェース | |
CN103793060B (zh) | 一种用户交互系统和方法 | |
TWI377055B (en) | Interactive rehabilitation method and system for upper and lower extremities | |
JP5982542B2 (ja) | 低侵襲外科システムにおいて手の存在を検出するための方法およびシステム | |
KR101791366B1 (ko) | 증강된 가상 터치패드 및 터치스크린 | |
Ruppert et al. | Touchless gesture user interface for interactive image visualization in urological surgery | |
Hinckley | Haptic issues for virtual manipulation | |
EP2755194A1 (en) | 3D virtual training system and method | |
US20140267311A1 (en) | Interacting with user interface via avatar | |
BR112012011277B1 (pt) | dispositivo de rastreamento do dedo mestre e um método de uso num sistema cirúrgico minimamente invasivo | |
JP2013510673A (ja) | 低侵襲外科システムにおけるハンドジェスチャー制御の方法および装置 | |
US10433725B2 (en) | System and method for capturing spatially and temporally coherent eye gaze and hand data during performance of a manual task | |
US10996814B2 (en) | Tactile feedback in a display system | |
JP5431462B2 (ja) | 仮想現実の制御 | |
Long et al. | Integrating artificial intelligence and augmented reality in robotic surgery: An initial dvrk study using a surgical education scenario | |
CN209392096U (zh) | 一种手术导航系统 | |
LIU et al. | A preliminary study of kinect-based real-time hand gesture interaction systems for touchless visualizations of hepatic structures in surgery | |
CN109106448A (zh) | 一种手术导航方法和装置 | |
KR101903996B1 (ko) | 의료 영상 시뮬레이션 방법 및 그 방법을 이용한 장치 | |
JP5307060B2 (ja) | 画像処理装置、画像処理方法、ならびに、プログラム | |
Ruppert et al. | Touchless gesture user interface for 3D visualization using Kinect platform and open-source frameworks | |
Andersen et al. | Ar interfaces for mid-air 6-dof alignment: Ergonomics-aware design and evaluation | |
Juanes et al. | Practical applications of movement control technology in the acquisition of clinical skills | |
Zhou et al. | The study of using eye movements to control the laparoscope under a haptically-enabled laparoscopic surgery simulation environment | |
CN108922300A (zh) | 基于数字化人体模型的手术模拟3d系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170707 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170707 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180403 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181030 |