JP2016524262A - 3次元ユーザインタフェース - Google Patents

3次元ユーザインタフェース Download PDF

Info

Publication number
JP2016524262A
JP2016524262A JP2016524941A JP2016524941A JP2016524262A JP 2016524262 A JP2016524262 A JP 2016524262A JP 2016524941 A JP2016524941 A JP 2016524941A JP 2016524941 A JP2016524941 A JP 2016524941A JP 2016524262 A JP2016524262 A JP 2016524262A
Authority
JP
Japan
Prior art keywords
input
display
space
scene
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016524941A
Other languages
English (en)
Other versions
JP2016524262A5 (ja
Inventor
アレクサンダー ゲルマン シャウル
アレクサンダー ゲルマン シャウル
カウフマン アヴィアド
カウフマン アヴィアド
ロツチャイルド カーメル
ロツチャイルド カーメル
Original Assignee
リアル ビュー イメージング リミテッド
リアル ビュー イメージング リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by リアル ビュー イメージング リミテッド, リアル ビュー イメージング リミテッド filed Critical リアル ビュー イメージング リミテッド
Publication of JP2016524262A publication Critical patent/JP2016524262A/ja
Publication of JP2016524262A5 publication Critical patent/JP2016524262A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/22Processes or apparatus for obtaining an optical image from holograms
    • G03H1/2294Addressing the hologram to an active spatial light modulator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/0005Adaptation of holography to specific applications
    • G03H2001/0061Adaptation of holography to specific applications in haptic applications when the observer interacts with the holobject
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H2210/00Object characteristics
    • G03H2210/303D object

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

3次元(3D)ユーザインタフェースを提供する方法は、3Dユーザインタフェースの、3Dシーンの表示空間と対応している入力空間内から少なくとも部分的にユーザ入力を受け取ること、3Dシーンを基準としてユーザ入力を評価すること、および3Dシーンを前記ユーザ入力に基づき変更すること、を含む。3次元(3D)ユーザインタフェースを提供するシステムは、3Dシーンを3D表示空間に表示するユニットと、3D入力空間における入力オブジェクトの3D座標を追跡するユニットと、コンピュータと、を備え、該コンピュータは、前記3D入力空間における前記入力オブジェクトの前記座標を受信し、3D入力空間における前記入力オブジェクトの前記座標をユーザ入力に変換し、およびユーザ入力に基づいて、前記3Dシーンの前記表示を変更する。【選択図】図4A

Description

関連出願
本願は、2013年7月10日に出願された米国特許仮出願第61/844,503号からの優先権を主張するものであり、その内容は参照により本明細書に完全に援用される。
本発明は、そのいくつかの実施形態において、3次元ユーザインタフェースに関し、特に、限定はしないが、3次元ディスプレイと同様の空間を占有する3次元ユーザインタフェースに関する。
様々な種類の3次元ディスプレイが知られている。例えば、ステレオ方式(stereoscopic)3次元ディスプレイ等の3次元ディスプレイや、ホログラフィック3次元ディスプレイ等の真の3次元ディスプレイがある。ステレオ方式3次元ディスプレイは、目を2つ有する人間にとっては立体的に見えるが、1000個の眼(複眼)を有するハエにとっては必ずしもそうではない。また、ホログラフィック3次元ディスプレイは、実際の対象物から生じた光線のように見える光線であって、実際のオブジェクトから生じる光線と同様の挙動を示す光線を作成することにより、空中に浮遊するオブジェクト等を表示するものである。
例えば特許文献1に教示されるような真の3次元ディスプレイは、空中に浮遊するシーンまたはオブジェクトを表示して、ユーザはその表示空間内に手またはツールを挿入することができる。
以下に、その他の背景技術を先行技術文献として示す。
各先行技術文献および本明細書の全体にわたる開示は、これらの文献中に引用される文献等の開示と同様に、参照により本明細書に援用される。
国際出願PCT2010/004563号明細書(米国特許第8500284号号明細書) 米国特許出願公開第2013/091445号明細書 米国特許出願公開第2012/057806号明細書 米国特許第8500284号号明細書 米国特許公開2011/0128555号明細書
「回転式血管造影法による左心房再建の位置合わせのための心腔内心エコー法:心房細動アブレーションにおける2つの手続き間3次元撮像技術を統合する2つの新規なアプローチ(Intracardiac echocardiography for registration of rotational angiography-based left atrial reconstructions: a novel approach integrating two intraprocedural three-dimensional imaging techniques in atrial fibrillation ablation)」と題する記事、Nolker G、Gutleben KJ、Asbach S、Vogt J、Heintze J、Brachmann J、Horstkotte D、Sinha AMら著、2011年4月Europaceにて出版:13(4)、492−8 「左心房および肺血管の手続き内撮像:回転式血管造影法と心臓のコンピュータ断層撮影との比較考察(Intraprocedural imaging of left atrium and pulmonary veins: a comparison study between rotational angiography and cardiac computed tomography)」と題する記事、Kriatselis C、Nedios S、Akrivakis S、Tang M、Roser M、Gerds-Li JH、Fleck E、Orlov M.著、Pacing Clin Electrophysiol、2011年3月
本発明は、そのいくつかの実施形態において、手またはツールによるジェスチャ等を変換して、3次元ディスプレイ内に表示した内容についてのコンピュータ制御に対応させたユーザインタフェースコマンドとする方法を教示するものである。
いくつかの実施形態において、手またはツールによるジェスチャは、3次元ディスプレイの正にその空間内で行う。
本発明のいくつかの実施形態の一態様によれば、3次元(3D)ユーザインタフェースを提供する方法であって、3Dユーザインタフェースの入力空間であって、3Dシーンの表示空間と対応している入力空間内から、少なくとも部分的に、ユーザ入力を受け取ること、3Dシーンを基準としてユーザ入力を評価すること、および3Dシーンをユーザ入力に基づき変更すること、を含む方法を提供する。
本発明のいくつかの実施形態によれば、入力空間は表示空間と少なくとも部分的に重なり合う。本発明のいくつかの実施形態によれば、入力空間は表示空間内に含まれている。本発明のいくつかの実施形態によれば、入力空間は表示空間と重なり合い、かつ範囲が同等である。
本発明のいくつかの実施形態によれば、入力空間の座標は表示空間の座標とスケールが同等である。
本発明のいくつかの実施形態によれば、3Dシーンはホログラフィにより作成する。本発明のいくつかの実施形態によれば、3Dシーンはコンピュータ生成ホログラフィにより作成する。
本発明のいくつかの実施形態によれば、ユーザが入力オブジェクトを入力空間内に置くことを含む。
本発明のいくつかの実施形態によれば、入力オブジェクトはユーザの手を含む。本発明のいくつかの実施形態によれば、ユーザ入力は、ユーザが手で形成する形状を含む。本発明のいくつかの実施形態によれば、ユーザ入力はハンドジェスチャを含む。
本発明のいくつかの実施形態によれば、入力オブジェクトはツールを含む。
本発明のいくつかの実施形態によれば、ユーザ入力は、入力オブジェクトの先端を入力空間内における一の位置に置くことにより、入力空間における位置に対応する位置を表示空間において選択することを含む。
本発明のいくつかの実施形態によれば、ユーザ入力は、入力オブジェクトの先端を入力空間内の複数の位置にわたって動かすことにより、入力空間における複数の位置に対応する複数の位置を表示空間において選択することを含み、さらに、入力空間における複数の位置のそれぞれ一つずつに選択コマンドを付加することを含む。
本発明のいくつかの実施形態によれば、入力オブジェクトは複数の選択点を含み、ユーザ入力は、入力オブジェクトの複数の選択点を入力空間内の複数の位置に置くことにより、入力空間における該複数の位置に対応する複数の位置を表示空間において選択することを含む。
本発明のいくつかの実施形態によれば、表示空間における選択された複数の位置で包囲したボリューム内に含まれるオブジェクトを表示空間において選択することさらに含む。
本発明のいくつかの実施形態によれば、表示空間における位置の表示を視覚的に変更して、選択した位置を表示空間に表示することをさらに含む。
本発明のいくつかの実施形態によれば、入力空間において選択された位置に対応する位置を含む表示空間においてオブジェクトを選択することをさらに含む。
本発明のいくつかの実施形態によれば、入力オブジェクトは長尺の入力オブジェクトを含み、入力オブジェクトの長軸は、長軸を通り入力空間内に延在する線を画定すると解釈される。
本発明のいくつかの実施形態によれば、ユーザ入力は、表示空間に表示したオブジェクトの表面と線がどこで交差するかを判断することによって、表示空間における位置に対応する位置を入力空間において選択することを含む。
本発明のいくつかの実施形態によれば、表示オブジェクトの表面と線が表示空間において交差する位置の表示を表示空間において視覚的に変更して、表示空間において選択した位置を表示することをさらに含む。
本発明のいくつかの実施形態によれば、ユーザ入力は、線を用いて、回転コマンドを示すユーザ入力について回転軸を特定することを含む。
本発明のいくつかの実施形態によれば、ユーザ入力は、表示空間において2つの点の選択することを利用して表示空間における回転軸を特定することを含む。
本発明のいくつかの実施形態によれば、ユーザが入力オブジェクトを回転すること、および、入力オブジェクトの回転角に対応付けた角度で3Dシーンを回転することをさらに含む。
本発明のいくつかの実施形態によれば、ユーザが入力オブジェクトを回転すること、および、入力オブジェクトの回転角に対応付けた角度で3Dシーンにおいて選択された3Dオブジェクトを回転することをさらに含む。
本発明のいくつかの実施形態によれば、表示空間における表示オブジェクトの位置に対応する、入力空間における位置に入力オブジェクトが移動する場合、表示空間における表示オブジェクトを表示空間において移動する。
本発明のいくつかの実施形態によれば、入力オブジェクト上の点が、表示空間における表示オブジェクトの位置に対応する位置であって、入力空間における位置に到達すると、入力オブジェクト上の点の移動速度を測定し、点において入力オブジェクトの表面に垂直なベクトルの方向を計算する。
本発明のいくつかの実施形態によれば、入力オブジェクト上の点が、表示空間における表示オブジェクトの位置に対応する位置であって、入力空間における位置に到達すると、表示オブジェクト上の点の移動速度を測定し、点における表示オブジェクトの表面に垂直なベクトルの方向を計算する。
本発明のいくつかの実施形態によれば、表示オブジェクトは、表示オブジェクト上の点において、入力オブジェクト上の点の測定した速度で、ベクトルの方向に、入力オブジェクトによってあたかも打たれたかのように移動して表示される。
本発明のいくつかの実施形態によれば、表示空間における表示オブジェクトの表面上の複数の位置を選択することは、表示オブジェクトを把持するユーザ入力を含む。
本発明のいくつかの実施形態によれば、表示オブジェクトを表示空間において把持することにより、ユーザインタフェースによって表示空間中の表示オブジェクトを見つけ、入力オブジェクトの複数の選択点における表示オブジェクトの表面上の複数の位置を追跡する。
本発明のいくつかの実施形態によれば、3D表示空間に表示された3Dオブジェクトのボリュームを通って入力オブジェクトを移動させることにより、3Dオブジェクトの形状を変更すること、および3Dオブジェクトにおいてボリュームを3Dオブジェクトからマイナスして表示すること、をさらに含む。
本発明のいくつかの実施形態によれば、3D表示空間に表示された3Dオブジェクトのボリュームの少なくとも一部分を通過して入力オブジェクトを移動させること、およびボリュームの一部分を3Dオブジェクトからマイナスして表示すること、をさらに含む。
本発明のいくつかの実施形態によれば、3Dオブジェクトを表示することは、入力オブジェクトの有効領域が通ったボリュームの一部分のみを3Dオブジェクトからマイナスして表示することを含む。
本発明のいくつかの実施形態によれば、入力オブジェクトを入力ボリュームの少なくとも一部分に通過させること、および、入力ボリュームの一部分に対応する、表示空間に表示したオブジェクトを3Dシーンにプラスして表示することをさらに含む。
本発明のいくつかの実施形態によれば、3Dオブジェクトを表示することは、入力オブジェクトの有効領域が通過したボリュームの一部分のみを3Dオブジェクトにプラスして表示することを含む。
本発明のいくつかの実施形態によれば、3Dオブジェクトについての明細を3Dプリンタに送信することをさらに含む。
本発明のいくつかの実施形態によれば、ユーザ入力は、さらに、片目のまばたきおよび両目のまばたきからなる群から選択されるアイジェスチャを含む少なくとも1つの追加のユーザ入力を含む。
本発明のいくつかの実施形態によれば、ユーザ入力は、さらに、入力空間において指を追跡することにより、指を鳴らすことを検出することを含む。
本発明のいくつかの実施形態によれば、ユーザ入力は、さらに、ボイスコマンド、頭部運動、マウスクリック、キーボード入力、およびボタン押下、からなる群から選択した少なくとも1つの追加のユーザ入力を含む。
本発明のいくつかの実施形態によれば、表示空間において選択した複数の位置の間の直線からなるパスに沿った距離を測定することをさらに含む。本発明のいくつかの実施形態によれば、表示空間において選択した複数の位置を通過するパスに沿った距離を測定することをさらに含む。
本発明のいくつかの実施形態によれば、表示空間における複数の選択した位置は、表示空間における3Dオブジェクトの表面上にあり、表示空間において、複数の選択した点で包囲した3Dオブジェクトの表面上のエリアを測定することをさらに含む。
本発明のいくつかの実施形態によれば、選択したオブジェクトのボリュームを測定することをさらに含む。
本発明のいくつかの実施形態によれば、第1の画像における複数の点および第2の3D画像における複数の点を選択すること、および第1の画像および第2の3D画像を相互に位置合わせすること、をさらに含む。本発明のいくつかの実施形態によれば、第1の画像は2D画像である。本発明のいくつかの実施形態によれば、第1の画像は3D画像である。
本発明のいくつかの実施形態によれば、選択した複数の点が表示空間において実質的に一致するように、第1の画像および第2の3D画像を表示することをさらに含む。
本発明のいくつかの実施形態の一態様によれば、3D表示空間に3Dシーンを表示するユニットと、3D入力空間における入力オブジェクトの3D座標を追跡するユニットと、コンピュータと、を備え、該コンピュータは、3D入力空間における入力オブジェクトの座標を受信し、3D入力空間における入力オブジェクトの座標をユーザ入力に変換し、およびユーザ入力に基づいて、3Dシーンの表示を変更する、3次元(3D)ユーザインタフェースを提供するシステムを提供する。
本発明のいくつかの実施形態によれば、入力空間は表示空間と少なくとも部分的に重なり合う。本発明のいくつかの実施形態によれば、入力空間は表示空間内に含まれる。本発明のいくつかの実施形態によれば、入力空間は表示空間と重なり合い、かつ範囲が同等である。
本発明のいくつかの実施形態によれば、入力空間の座標は表示空間の座標とスケールが同等である。
本発明のいくつかの実施形態によれば、3Dシーンを表示するユニットは、3Dホログラム等を表示するユニットを含む。本発明のいくつかの実施形態によれば、3Dシーンを表示するユニットは、コンピュータ生成3Dホログラム等を表示するユニットを含む。
本発明のいくつかの実施形態の一態様によれば、3D(3次元)ディスプレイに入力を提供する方法であって、入力オブジェクトを、3Dディスプレイのボリュームを有する入力空間に挿入すること、入力空間内において入力オブジェクトの位置を追跡すること、追跡に基づいて、3Dディスプレイにより表示された3Dシーンを変更すること、を含む方法において、位置を追跡することはジェスチャを解釈することを含む、方法を提供する。
本発明のいくつかの実施形態によれば、入力オブジェクトは手であり、ジェスチャは、3Dディスプレイにより表示されたオブジェクトの表面上の一の位置に指を置くことを含む。
本発明のいくつかの実施形態によれば、入力オブジェクトはツールであり、ジェスチャは、3Dディスプレイにより表示されたオブジェクトの表面上の一の位置にツールの先端を置くことを含む。
本発明のいくつかの実施形態によれば、入力オブジェクトは手であり、ジェスチャは、3Dディスプレイにより表示されたオブジェクトの表面上の同じ位置に、手の複数の指をそろえて置くことを含む。
本発明のいくつかの実施形態によれば、入力オブジェクトは手であり、ジェスチャは、手の3本の指を3D入力空間における略垂直な3本の軸の形状とすること、および略垂直な3本の軸のうちの1本を中心に手を回転させることを含む。
本発明のいくつかの実施形態によれば、入力オブジェクトは手であり、ジェスチャは、3Dディスプレイにより表示されたオブジェクトの表面上の異なる位置に、手の複数の指を置くことを含む。
本発明のいくつかの実施形態によれば、手を動かすことをさらに含む。本発明のいくつかの実施形態によれば、手を回転させることをさらに含む。
本発明のいくつかの実施形態によれば、入力オブジェクトは手であり、ジェスチャは指を鳴らすことを含む。
本発明のいくつかの実施形態によれば、3Dシーンを変更することは、入力オブジェクトの位置の移動に伴って移動する位置において3Dシーンを変更することを含む。
本発明のいくつかの実施形態によれば、3Dシーンはコンピュータ化モデルを含み、3Dシーンを変更することは、入力オブジェクトの位置に少なくとも部分的に基づいて、モデルについてパラメータを設定すること、パラメータに少なくとも部分的に基づいて、モデルを表示すること、を含む。
他に別段定めのない限り、本明細書において使用するすべての技術的および/科学的用語は、本発明が属する技術分野の当業者によって一般に理解されるのと同様の意味を持つ。本明細書において説明した方法および材料と同様または等価のものを用いて本発明の各実施例を実施または検査することができるが、例示的な方法および/または材料を以下に記載する。両者が抵触する場合、定義を含め特許明細書を優先する。さらに、以下の材料、方法、実施例は、例示にすぎず、必ずしも限定を意図しない。
本発明の各実施形態の方法および/またはシステムを実施することは、手動で、自動的に、またはその組み合わせにより、選択した作業(task)を実施または完了することを含みうる。さらに、本発明の各実施形態の方法および/またはシステムの実際の器具類および機器によれば、いつかの選択した作業は、ハードウェアにより、ソフトウェアにより、またはファームウェアにより、またはその組み合わせにより、オペレーティング・システムを用いて実施しうる。
例えば、選択した作業を実施するハードウェアは、チップまたは回路として実装しうる。ソフトウェアとしては、本発明の各実施形態による選択した作業は、任意の適切なオペレーティング・システムを用いてコンピュータにより実行される複数のソフトウェア命令として実装しうる。本発明の例示的実施形態において、本明細書に記載の方法および/またはシステムの各例示的実施形態による1つ以上の作業は、複数の命令を実行するコンピューティングプラットフォーム等のデータプロセッサによって実施される。任意選択で、データプロセッサは、命令および/またはデータを記憶する揮発性メモリおよび/または、例えば、磁気ハードディスクおよび/またはリムーバブルメディア等の命令および/またはデータを記憶する揮発性記憶装置を含む。任意選択で、ネットワーク接続を設けてもよい。ディスプレイおよび/またはキーボードまたはマウス等のユーザ入力装置を任意選択で設けてもよい。
本発明の一実施形態例による、第1の入力空間に入力を行い、別の第2の表示空間における表示を閲覧しているユーザを示す簡略図である。 本発明の一実施形態例による、表示/入力空間に入力を行っているユーザを示す簡略図である。 本発明の一実施形態例において使用可能な例示的な入力装置および方法を示す簡略ブロック図である。 本発明の一実施形態例を示す簡略ブロック図である。 本発明の一実施形態例による、3次元表示システムの一部分を示す簡略図である。 本発明の一実施形態例による、3次元表示システムの等角図である。 本発明の一実施形態例による、3次元表示システムの部分等角図である。 本発明の一実施形態例による、3次元表示システムの等角図である。 親指から小指まで1〜5の番号を付した指を有する手を示す図である。 本発明の一実施形態例による、立体ディスプレイの表示/入力空間に手を挿入しているユーザを示す簡略図である。 本発明の一実施形態例による、入力空間における点を選択するためのジェスチャをしている手を示す簡略図である。 本発明の一実施形態例による、入力空間における点を選択するためのジェスチャをしている手を示す簡略図である。 本発明の一実施形態例による、立体ディスプレイの表示/入力空間にツールを挿入しているユーザを示す簡略図である。 本発明の一実施形態例による、入力空間において回転を示すジェスチャをしている手を示す簡略図である。 本発明の一実施形態例による、入力空間において指を伸ばして矩形を画定した状態の2つの手を示す簡略図である。 本発明の一実施形態例による、入力空間において指を伸ばして矩形を画定した状態の2つの手を示す簡略図である。 本発明の一実施形態例による、共通の表示/入力空間において第2の3次元オブジェクト中に第1の3次元オブジェクトを挿入しているユーザを示す簡略図である。 本発明の一実施形態例による立体ディスプレイの表示/入力空間にツールを挿入しているユーザを示す簡略図である。 本発明の一実施形態例の簡略フローチャートである。 本発明の一実施形態例の簡略フローチャートである。
ここに、添付の図面を参照して、本発明のいくつかの実施形態を例としてのみ説明する。特に図面を詳細に参照すると、各項目は例示にすぎず、本発明の実施形態の例証する目的で示すものであることをここに強調する。この点について、各図面に基づき説明を行うことにより、本発明の各実施形態をどのように実施できるかが当業者にとって明白になる
本発明は、そのいくつかの実施形態において、3次元ユーザインタフェースに関し、特に、限定はしないが、3次元ディスプレイと同じ空間を占有する3次元ユーザインタフェースに関する。
2次元ディスプレイ上にシーンを表示するものとして種々の装置および方法が知られており、2次元ディスプレイ上に表示されたシーンと相互作用するユーザインタフェースを提供するものとして種々の装置および方法が知られている。
例えば、平面上でコンピュータマウスを動かして、2次元ディスプレイ上の対応するカーソルを対応する方向に動かす。この今ではなじみのあるマウスインタフェースは、2次元ディスプレイ上の座標に変換したマウスの動きに由来するものである。
別の例としては、2次元コンピュータディスプレイ上のタッチスクリーンに触れることにより、コンピュータに位置を検知させ、場合によっては複数の位置を検知させる。この今ではなじみのあるタッチ/マルチタッチインタフェースは、2次元ディスプレイ上における1本またはそれ以上の指またはスタイラスの位置と動きに由来するものである。
本発明のいくつかの実施形態において、3次元(3D)インタフェース空間において手またはツールを動かすことにより、ユーザインタフェースを3Dディスプレイと相互作用可能とする。
本発明のいくつかの実施形態において、3Dインタフェース空間は、3D表示空間と部分的または完全に重なり合う。ユーザは、手またはツールを表示空間内で動かして、3Dオブジェクトまたは3Dスクリーンの表示内まで動かすことができる。こうすれば、ユーザの目と手が連動した自然な動作が可能となる。すなわち、目に見えるオブジェクトと同じ位置に手/ツールを到達させる。マウスを使用する場合、表示されたシーンとは別のエリアでマウスを動かすが、それとは対照的である。また、この目と手の連動は、タッチスクリーンに表示オブジェクトに触れることと同様であるが、本発明のタッチスクリーンは2Dではなく3Dである。
特許文献1に記載の3Dホログラフィックディスプレイによれば、ユーザは、3Dディスプレイを構成する装置に干渉することなく、手またはツールまたはその他のオブジェクトをその3D表示されたシーンに挿入することができる。ユーザは、また、その3Dシーンから、実際の手またはツールと同じ視覚的な奥行き感を得ることもできる。手またはツールが3Dシーン中の一の点にあるとき、ユーザは、その手と3Dシーン中の当該地点について、同じ視差(パララックス)を知覚し、同距離に焦点を合わせる。
いくつかの実施形態において、3Dシーンは3D表示ボリューム中に表示され、3Dユーザインタフェースに対する入力は、物質界(physical world)において、3D表示ボリューム中の3Dシーンと同様の実際のボリュームのすべてまたは一部を占有する入力空間内で受信する。
いくつかの実施形態において、3Dシーンが表示ボリューム中に表示され、3Dユーザインタフェースに対する入力を、物質界において、表示ボリュームと同じ実際のボリュームのすべてまたは一部を占有する入力空間内で受信する。
3Dユーザインタフェースに対する入力を、3Dシーンまたはオブジェクトが表示されるボリュームと同じボリューム内で受信する潜在的な利点は、手またはツールが表示オブジェクトと同じ位置にあるとき、任意選択で同じ座標系を用いて、任意選択で同じ拡縮(scale)で、手と目の連動が図られることである。
特許文献3に記載されたような空中浮遊ディスプレイ(floating-in-the-air display)を用いることの潜在的な利点は、表示ボリューム中のディスプレイハードウェアの位置による制約を受けずに、表示ボリューム全体を用いて入力ができることである。
しかしながら、本発明の各実施形態は、3Dディスプレイと同じボリュームを占有する3D入力空間に限定すべきものではない。本発明のいくつかの実施形態は、ステレオ方式3Dディスプレイおよび仮想現実3Dディスプレイと共に用いても十分良好に動作する。
いくつかの実施形態は、ナチュラルユーザインタフェースとして実装される。ナチュラルユーザインタフェースでは、ユーザは、あたかも実オブジェクトを表示空間において実際に操作するように、3Dシーン中に表示された3Dオブジェクトに対して、手またはツールを用いて、手(またはツール)を伸ばしたり、指し示したり、触れたり、把持したり、押したり、引っ張ったり、回転させたりする。3D表示システムによれば、3Dシーン中に表示された3Dオブジェクトを手またはツールと同じ方向に同じ量だけ動かすことによって、手またはツールがオブジェクトを操作しているような視覚的印象を与える。
本発明の少なくとも1つの実施形態を詳述する前に、次のことを理解されたい。すなわち、本発明の用途は、以下の説明において説明および/または各図面および/または実施例において説明する各要素および/または各方法の詳細な構成および配置に必ずしも限定されない。本発明は、他の実施形態が可能であり、様々な形で実施または実行可能である。
ここで、図1Aを参照する。図1Aは、本発明の一実施形態例による、第1の入力空間11に入力を行い、別の第2の表示空間12における表示を閲覧しているユーザ25を示す簡略図である。
図1Aに示すコンピュータ15は、立体ディスプレイ13を制御17する。この立体ディスプレイ13は表示空間12内のシーンに3Dオブジェクト8を表示するものである。ユーザ25は、表示空間12内のシーンを注視し、入力空間11に置かれた(非限定的な例として)手7を用いて、立体入力ユニット14を介して、コンピュータ15に入力16を行う。
いくつかの実施形態において、立体入力ユニット14は、例えば手7等の入力オブジェクトの3D入力空間11における3D座標を追跡(トラック)するユニット(図示せず)を備える。
本発明のいくつかの実施形態において、3次元(3D)インタフェース空間は3D表示空間と重なり合い、手またはツールは、3Dディスプレイによって表示されたシーン内で、または3D表示された各オブジェクトに混じって動く。ユーザが3D表示空間内に手またはツールを置くことを可能とするディスプレイの数はそう多くない。
特許文献4に記載の3Dディスプレイによれば、ユーザが手またはツールを画像またはシーンが表示されている空間そのものに手またはツールを挿入することができ、当該空間における表示画像と挿入オブジェクトの奥行き感は同じである。ユーザの目は、表示画像と挿入オブジェクトについて同じ視差を知覚し、ユーザの目は、表示オブジェクトについて、挿入オブジェクトと同距離に焦点を合わせる。このように真の3Dを閲覧することにより、ユーザインタフェースが向上する。一般に、3D表示空間には、3Dディスプレイを表示するのに用いる素子等を含む。しかしながら、例えば、上記特許文献4が教示する3Dディスプレイでは、シーン内または3Dディスプレイによる表示オブジェクトに混じって手またはツールを置くことが可能である。
「入力ボリューム」という用語は、そのすべての文法的形式も含め、本発明書および請求の範囲の全体にわたって、「入力空間」という用語およびそれに対応する文法的形式と同義で用いる。「入力ボリューム」という用語は、本発明の明細書および請求の範囲の全体にわたって、例えば、入力ボリューム内での入力オブジェクトの位置および/または動きを追跡することによりユーザ入力を受信するボリュームまたは空間という意味で用いる。
「表示ボリューム」という用語は、そのすべての文法的形式も含め、本発明書および請求の範囲の全体にわたって、「表示空間」という用語およびそれに対応する文法的形式と同義で用いる。「表示ボリューム」という用語は、本発明の明細書および請求の範囲の全体にわたって、表示されたシーンおよび/またはオブジェクトを観察者(viewer)に対して出力するボリュームまたは空間という意味で用いる。
いくつかの実施形態において、表示ボリュームを用いて空中浮遊(floating-in-the-air)シーンまたはオブジェクトを表示する。この空中浮遊シーンには、任意選択で、入力オブジェクト挿入してもよい。表示されたシーンまたはオブジェクトは、ディスプレイを表示するためのハードウェアと同じボリュームを占有しているからである。
3Dユーザインタフェースへの入力を、3Dシーンまたはオブジェクトが表示されるボリュームと同じボリュームにおける3Dユーザインタフェースにおいて受信する潜在的な利点は、手またはツールが表示されたオブジェことと同じ位置にあるとき、任意選択で同じ座標系を用いて、任意選択で同じスケールを用いて、手と目の連動が図られることである。
いくつかの実施形態において、表示ボリュームを用いて表示するシーンまたはオブジェクトは、そのディスプレイを表示する機材が占有するボリュームと少なくとも部分的に重なり合う。そのような表示ボリュームの例としては、例えば、ステレオ方式ディスプレイが挙げられ、3Dシーンの一部は任意選択でこのステレオ方式ディスプレイから前方に突出し、3Dシーンの一部は任意選択でこのステレオ方式ディスプレイから後方に後退する。このような場合、表示ボリュームは、当該ディスプレイを表示するハードウェアを含むボリュームを含み、入力オブジェクトは、表示ボリュームの全体には任意選択で自由に挿入できない場合がある。
ここで図1Bを参照する。図1Bは、本発明の一実施形態例による、表示/入力空間21に入力を行うユーザ25を示す簡略図である。
図1Bに示すコンピュータ24は、立体表示/入力ユニット22を制御23する。この立体表示/入力ユニット22は、表示/入力空間21内のシーンに3Dオブジェクト8を表示するものである。ユーザ25は、本発明の一実施形態例による表示/入力空間21内のシーンを見て、表示/入力空間21に置いた(非限定的な例として)手7を用いて、立体表示/入力ユニット22を介して、コンピュータ24に入力23を行う。
なお、図1Bに示す実施例において、表示空間と入力空間とが一致し、任意選択で同じ大きさであることに留意されたい。
また、他の実施形態において、表示空間と入力空間との大きさは異なってもよく、ことなるボリュームを占めてもよいことに留意されたい。いくつかの実施形態において、入力空間は表示空間よりも小さく、例えば、表示空間の中心に向かうにしたがってのみ小さくなり、または、一方の側、任意選択で、観察者により近い側に向かうにしたがって小さくなる。いくつかの実施形態において、入力空間は表示空間よりも大きく、任意選択で、3D表示空間よりも大きなボリュームにわたって追跡する追跡コンポーネントを有する。いくつかの実施形態において、表示空間および入力空間は部分的に重なり合い、かつ部分的に重なり合わない。例として、入力空間は表示空間の一部、例えば、表示空間の観察者に近い側と重なり合い、追跡コンポーネントは、入力空間における入力を、表示空間よりも観察者に向かってさらに追跡してもよい。
いくつかの実施形態において、立体表示/入力ユニット22は、3D表示/入力空間21において、例えば手7等の入力オブジェクトの3D座標を追跡するユニット(図示せず)を備える。
手および/または身体および/またはツールによる多くのジェスチャを以下に詳述するが、まず、手および/または身体および/またはツールによるジェスチャを追跡する点について説明する。
本明細書において「入力オブジェクト」という用語は、場合によって、インタフェース空間として用いる空間内にユーザ入力を提供するのに用いる手および/または別の身体部分および/またはツールという意味で用いる。
入力を捕捉すること
本発明の実施形態例においては、入力を捕捉する種々の方法を、別々におよび/または組み合わせて用いる。
いくつかの実施形態において、当技術分野において周知の方法を用いて、3Dにおける入力オブジェクトの位置を測定し、入力オブジェクトを用いて行われたジェスチャを測定して、入力オブジェクトを任意選択で追跡してもよい。例えば、インタフェース空間として用いる空間を、2台以上のカメラで見るようにしてもよい。
ここで図1Cを参照する。図1Cは、本発明の一実施形態例において使用可能な例示的な入力装置および方法を示す簡略ブロック図である。
図1Cに示す入力空間101において、本明細書において説明する種々の方法により、入力空間のモニタリング、オブジェクトの追跡、および任意選択である追加の入力方法を行う。追跡によって得られたデータは、任意選択でコンピュータ112に送られ、コンピュータ112は任意選択で当該データを分析し、任意選択で当該データを特定のユーザ入力に変換する。
適切なユーザ入力に応答して、コンピュータ112は、任意選択で、指示および/またはデータを3Dディスプレイ114に送信し、3Dディスプレイ114は、任意選択で、3Dシーンを3D表示空間116に表示する。
なお、いくつかの実施形態において、入力空間101は3Dディスプレイ116と一致し、ループを完成させる。また、いくつかの実施形態において、入力空間101は3Dディスプレイ116と一致しない。
入力空間101からの入力は、任意選択で、入力空間101内における、本明細書において入力オブジェクトと称する実オブジェクトの位置を含む。任意選択で、実オブジェクトの位置は、入力オブジェクトの1つ以上の点の座標を含む。任意選択で、入力空間101からの入力は、高レベルの記述、すなわち、例えば「点Aから点Bの円柱」等のオブジェクト形状およびオブジェクトを記載するのに十分な位置パラメータ等を含む。任意選択で、入力空間101からの入力は、さらに高レベルの記述、すなわち、「座標X、Y、Zにおける手」および「・・・の方向に沿って指し示す指」等を含む。
入力空間101のモニタリングに任意で用いることのできる3Dセンサの例として、PrimeSense社(28 Habarzel St.テルアビブ、69710、イスラエル)製のものがある。
コンピュータ112に関連した種々の任意選択の入力装置および入力方法について説明する。コンピュータ112は、
観察者追跡ユニット102;
目追跡ユニット103;
トラックボール等、種々のタイプのマウス入力ユニット104;
コンピュータ112に接続されたマイクロフォンまたはプロセッサを含む音認識モジュールまたは音声認識モジュール等の音入力ユニット105;および、
本明細書において特定しないが入力に用いられるその他の任意の入力ユニット109、例えば、GPS、加速度計、光センサ、音響位置モニタ等を備える。
なお、音認識には、任意選択で、音声および/または話し言葉認識に限らず、例えば、指を鳴らす音を認識するものも含まれるが、それについては本明細書の別の箇所において説明する。
ここで図1Dを参照する。図1Dは、本発明の一実施形態例を示す簡略ブロック図である。
図1Dに示す演算ユニット130は3Dディスプレイ170を制御する。
演算ユニット130は、種々の入力源120からの入力を任意選択で受信し、また、任意選択で、種々の入力源120の制御を行う。入力源120は、任意選択で、1つ以上のカメラ121、122;音声をとらえる1つ以上のマイクロフォン123;コンピュータマウス124または同等の入力装置;および、場合によっては、チルトセンサ、GPS等の付加的な入力等、種々のセンサを含む。
演算ユニット130は、入力源120からの入力を任意選択で用いて、本発明の本実施形態例によるユーザインタフェースに対するユーザ入力を判定する。ここで、入力源120は、例えば、入力空間におけるオブジェクトを測定および追跡するセンサ等であってもよい。
演算ユニット130における種々のコンピューティングモジュールは、任意選択で、入力源120からの入力を分析する。分析としては、例えば、
3Dディスプレイ170が表示する3Dシーンにおける点132を選択すること、
3Dディスプレイ170が表示する3Dシーンにおけるエリア134を選択すること、
3Dディスプレイ170が表示する3Dシーンにおけるボリューム136を選択すること、
3Dディスプレイ170が表示する3Dシーンにおけるオブジェクト138を選択すること、
表示空間において、ユーザの指またはツールが指し示す方向140を判定すること、
入力空間における指142の位置を判定すること、
表示空間において、観察者の目が見ている方向144を判定すること
入力空間におけるツール146の位置を判定すること、
入力空間において行われたジェスチャ148を分類すること、
表示空間におけるオブジェクトの入力空間において行われた把持150の状態(ステータス)を識別すること、
入力空間におけるオブジェクト152の位置を判定すること、
入力空間におけるオブジェクト154の形状を判定すること、等がある。本明細書におけるさらなる分析については、3Dユーザインタフェースを参照して説明する。
演算ユニット130における種々のコンピューティングモジュールは、また、任意選択で、追加のおよび/または外部モジュールまたはシステムと通信156する。
演算ユニット130における種々のコンピューティングモジュールは、また、任意選択で、3Dディスプレイ170によって表示158するための3Dシーンを生成する。
いくつかの実施形態において、非限定的な例として、図1Bに示すものと同様の一実施形態において、3D表示システムを用いて、入力オブジェクトの位置を判定する。この概念について、以下にさらに説明する。
なお、観察者の目は表示空間の外にあってもよい。
なお、特に、手/ツール追跡については、その他の追跡手法、例えば、電磁、慣性、音響、およびその他の手法等を用いてもよい。
ここで、図2Aを参照する。図2Aは、本発明の一実施形態例による3D表示システム200の一部分を示す簡略図である。
図2Aに示すようなシステムについては、先に述べた特許文献4に詳述されている。
図2Aに示す3D画像生成ユニット201は、例えば、ホログラフィック生成ユニット等であり、ミラー202、203によって変更された方向に3D画像を投影して任意選択の回転ミラー204上に該3D画像を投影する。この任意選択の回転ミラー204は、任意選択で、軸205を中心に回転することができ、ユーザの目207に合わせて投影方向を変更する。
投影された3D画像は、また、任意選択で、追加のミラー206により向きを変えられるが、そうすることにより、3D表示システム200のコンポーネント等が存在せず、また入力オブジェクト(図示せず)の挿入と干渉しない空間に3D画像を投影するのを潜在的に支援でき、入力空間を表示空間に重ね合わせることができ、ひいては一致させることもできる。
ここで図2Bを参照する。図2Bは本発明の一実施形態例による、3D表示システム210の等角図である。
図2Bに、図2Aに示す3D表示システム200と同様の3D表示システム210を示す。3D表示システム210は、円形ミラー211、およびユーザ213が3D表示システム210のどこへ移動しようともユーザ213の目を追跡して画像212をユーザの目213に投影するコンポーネントを有する。
ここで図2Cを参照する。図2Cは、本発明の一実施形態例による3D表示システム220の部分等角図である。
図2Cに、図2Aおよび図2Bに示す3D表示システム200、210と同様の3D表示システム220を示す。3D表示システム220は、3D表示システム220の一部分223を占有する3D画像生成ユニットのコンポーネント等と、投影された3D画像の向きを任意選択の回転ミラー221上へと変更する任意選択の回転ミラー222とを含む。回転ミラー222は、任意選択で、投影した3D画像をユーザの方向へ向ける。任意選択の回転ミラー222を用いて、ユーザから入射する光を追加のコンポーネントの方へ向けることもでき、また、ひいては3D表示システム220の追加の部分(図示せず)を占有するいくつかの追加のコンポーネントの方へも向けることもできる。
ここで図2Dを参照する。図2Dは、本発明の一実施形態例による3次元表示システム230の等角図である。
図2Dに、図2A、図2Bおよび図2Cに示す3D表示システム200、210、220と同様の3D表示システム230を示す。3D表示システム230は、円形ミラー231と、3D表示システム230の表示/入力空間と3D表示システム230の種々の各コンポーネント233、234、235との間で、光の方向を任意選択で変更して往復させる、任意選択の回転ミラー232を有する。
種々のコンポーネント233、234、235は、3D画像生成ユニット、目追跡ユニット、入力オブジェクト追跡ユニット、またはそれらの組み合わせを含んでもよい。
追加のコンポーネント233、234、235は、任意選択で、カメラを含みうる目追跡ユニット、および/または、図1Aおよび図1Bを参照して説明した入力オブジェクトの3D座標を追跡するユニット等の入力オブジェクト追跡ユニットを含んでもよい。入力オブジェクト追跡ユニットもカメラを含みうる。任意選択で、目追跡ユニットおよび入力オブジェクト追跡ユニットは同じカメラを使用する。任意選択で、入力オブジェクト追跡ユニットはステレオカメラおよび/または2台以上のカメラを使用して、入力空間内の入力オブジェクトの3次元位置を判定するが、入力空間は、任意選択で、表示空間と重なり合っても、さらには一致してもよい。
いくつかの実施形態において、目追跡ユニットおよび/または入力オブジェクト追跡ユニットは3D表示システム230の内部にない。いくつかの非限定的な例として、ウェブカメラおよび適切なソフトウェアおよび/またはキネクトシステムを用いて観察者を追跡したり、入力空間内の入力オブジェクトを追跡したり、またはユーザの目を追跡してもよい。
観察者追跡および目追跡(アイトラッキング)
図2Dに示す3D表示システム230は、特許文献1に教示されるような、真の3次元ディスプレイを示す。この真の3次元ディスプレイは空中に浮遊するシーンまたはオブジェクトを表示することもでき、ユーザはその表示空間中に手またはツールを挿入することができるものである。加えて、観察者追跡ユニットは、検出器および回転ミラー232を用い、3D表示ユニットと同じ方向から観察者を追跡し、また観察者が3Dシーンを見るのと反対の方向に追跡し、その際同じ光路の一部を使用する。回転ミラーの回転周期に基づいて3D画像投影および観察者追跡ユニットの相対的タイミングを調節することにより、観察者を追跡することができる。
いくつかの実施形態において、本明細書の別の箇所において説明したように、観察者の目が見ている方向をも追跡し、また、その情報を利用する。目追跡ユニット、または観察者追跡ユニットと協働するようにタイミングを合わせた追加のユニットは、例えば、図2Dに示す3D表示システム230の追加のコンポーネント233、234、235のうちの一つに設ける。当該ユニットは、任意選択で、赤外(IR)光または近赤外(NR)光を観察者の方向に投影する。この光は、観察者の目から反射して観察者追跡ユニットに戻る。
いくつかの実施形態において、観察者の目から戻ってきた再帰性反射は、観察者の目検出器上に結像する。いくつかの実施形態において、観察者の目からの反射光を光学的フーリエ変換したものが結像する。目の反射光は、任意選択で、フーリエ面上にスポットを生成し、フーリエ面におけるスポットの質量中心は、観察者の観察方向を表す。
いくつかの実施形態において、観察者の観察方向の追跡は、観察者の瞳の位置およびその周囲の、眼球を囲む白目に対して暗い部分を追跡することにより行う。
入力の種類
いくつかの実施形態において、3Dディスプレイと相互作用する入力としては、入力空間における入力オブジェクトの位置が挙げられる。いくつかの実施形態において、入力は、入力空間中または上の特定の点の位置である。
いくつかの実施形態において、入力は、ジェスチャであり、入力オブジェクトの動きである。例えば、手を回転すること、入力オブジェクトを、直線に沿って、または曲線軌道に沿って動かすことである。
いくつかの実施形態において、入力は、入力オブジェクトの形状である。例えば、矩形または円柱である。他のいくつかの例として、握り拳、開いた手、一部または全部の指先が接触している手、3本の指が互いに垂直に保持されて3つの垂直軸を画定している手等がある。
いくつかの実施形態において、入力オブジェクトを視覚的にマークして、追跡または位置システムがカメラを用いて入力オブジェクト上の特定の点を識別できるようにする。
いくつかの実施形態において、入力空間における入力オブジェクトからの入力を、コンピュータマウスボタンのクリック、音声コマンド、キーボードコマンド等の追加の入力と組み合わせる。
ジェスチャ
空中に浮遊する3D画像を生成できるため、ユーザの手を3D画像と同じ空間に置くことができるようになる。3D画像と関連してハンドジェスチャを読み出すことにより、ユーザの相互作用を向上することが潜在的に可能である。人間の目が3D画像を自然に知覚するのと同様の方法で、3D画像と手が相互作用することにより、3D画像操作および3D画像コマンド機能について、より良好に自然な制御を行うことが潜在的に可能である。これらの自然なインタフェース能力は、画像と観察者との間の親密さを潜在的に促進する。
本明細書および請求項全般にわたり、手の指を記載する目的で、親指から小指までの各指に1から5までの番号を付している。
ここで図3を参照する。図3は、親指から小指まで1〜5の番号を付した指を有する手300を示す図である。
追加の入力源としてのいくつかの非限定的な例
図2Dに示す各実施形態例において、入力は、任意選択で、目の動きとすることができる。図2Dに示す3D表示システムはユーザの目を追跡するものであるため、3D表示システムは、任意選択で、目の動きをとらえ、目の動きは、任意選択で、入力として機能する。
非限定的な例として、ウィンクが任意選択で入力として機能する。いくつかの実施形態において、ウィンクを、マウスクリックと同様の入力として受け入れる。
非限定的な例として、目を動かすことは、任意選択で、入力として機能する。いくつかの実施形態において、目を上下左右に動かうすことにより、任意選択で、表示オブジェクトまたはシーンを上下左右に回転させる。
非限定的な例として、目のジェスチャにより、ある位置を見ることによってその位置をマークすることができる。目追跡システムは、任意選択で、ユーザの目が見ている方向を追跡し、ユーザインタフェースは、任意選択で、その方向を表示オブジェクトと交差させる。ユーザは、任意選択で、片目または両目をウィンクまたは瞬目することにより位置をマークする。ある実施形態において、非限定的な例として、左目でウィンクすることをマウスの左ボタンのクリックと等価に設定し、右目でウィンクすることをマウスの右ボタンのクリックと等価に設定する。
別の非限定的な例として、目のジェスチャにより、メニューを選択することができ、または必要に応じてマウスクリックの代用とすることができる。
いくつかの実施形態において、入力は、任意選択で音声コマンドとすることができる。
3Dユーザインタフェースコマンドの一実施形態例−指を鳴らすこと
いくつかの実施形態において、ユーザは入力空間に手を挿入し、指を鳴らす。指を鳴らすことは、任意選択で、入力空間内で検出され、起動コマンドとして翻訳される。この起動コマンドは、任意選択で、マウスクリックと等価であってもよく、および/または、ユーザインタフェースコマンドの別の発現(manifestation)を生じさせて、メニュー表示を提示する、(CTRL+CまたはCTRL+Zと同様)コンピュータ処理を終了または停止する等してもよい。
いくつかの実施形態において、指を鳴らすコマンドは、任意選択で、マイクで指を鳴らす音をとらえ、音を分析することにより実施する。
いくつかの実施形態において、指を鳴らすコマンドは、入力空間におけるジェスチャを検出することにより行うが、このコマンドを、指を鳴らす音をマイクでとらえて分析することによってさらにサポートする。
3Dユーザインタフェースコマンドの一実施形態例−画像空間における点を選択すること
いくつかの実施形態において、シーンまたはオブジェクトにおける点は、入力を提供するユーザが選択し、選択した点は、任意選択で、例えば選択したポイントをハイライトする等して3Dディスプレイに表示する。
本明細書および請求項全般にわたり、3Dシーン等において、点、パス、メニューオプション、オブジェクトを選択することを説明する場合、この選択は、3Dシーン等において選択した点、パス、メニューオプション、オブジェクトを任意選択でハイライトすることにより、任意選択で表示することを意味する。
いくつかの実施形態において、この選択はハンドジェスチャにより行う。
ここで、図4Aを参照する。図4Aは、本発明の一実施形態例による、立体ディスプレイ466の表示/入力空間462に手468を挿入しているユーザ460を示す簡略図である。
図4Aに示す立体ディスプレイ466は、3Dオブジェクト471を表示している。本実施形態例では、3Dオブジェクト471は心臓の3D画像であり、この画像は、任意選択で、医用データセットから生成したものである。ユーザの手468は、3D表示システムの入力空間にあり、3D表示システムの入力空間は、3D表示空間に相当し、重なり合う。ユーザは、手または手の指先を伸ばすことにより3Dオブジェクト471上の点を選択し、ユーザ460が表示として見て470いる表示/入力空間462中の点に到達する。ユーザが触れることにより選択する点は、入力空間中の入力となる。この入力は、コンピュータ464に転送463され、コンピュータ464が入力を処理して、任意選択で、選択した際にマークした点を任意選択で有する3D画像を作成するためのデータを生成する。3D画像を作成するためのデータは立体ディスプレイ466に送られ465、立体ディスプレイ466は、選択した際にマークした点を任意選択で有する3D画像を表示/入力空間462に表示する。
なお、表示空間中に表示された3Dオブジェクトに触れることは、例えば、指先にかかる圧力や、オブジェクト内にツールを移動させることに対する障害物のような、触れることの感覚入力ではないことに留意されたい。
いくつかの実施形態において、接触した時点で感覚を、任意選択で生成する。非限定的な例として、ツールまたはツール先端が3Dディスプレイ中のオブジェクトに接触すると、ツールが振動する。別の非限定的な例として、指、手、またはツールが3Dディスプレイ中のオブジェクトに接触したときに、指、手、またはツールに向かって圧縮空気を強く吹きつける。
なお、入力空間中の入力オブジェクトが3Dディスプレイ中のオブジェクトにいつ接触したかは、任意選択で、3Dディスプレイ、および入力空間中のオブジェクト等を追跡する追跡システムの一方または両方の解像度(resolution)によって決まる。
いくつかの実施形態において、ハンドジェスチャは、例えば、任意選択で、指2が、または指2の先端が点を特定した状態で、手のすべての指を指2の周囲で閉じることである。いくつかの実施形態において、指2の回りで手のすべての指を閉じる行為により選択を有効にする。いくつかの実施形態において、例えば、非限定的な例として、瞬目、「マーク」等の音声コマンド、またはマウスのクリック等の追加のユーザ行為により選択を有効にする。
ここで図4Bを参照する。図4Bは、本発明の一実施形態例による、入力空間における点402の選択を有効にするためのジェスチャをしている手401を示す簡略図である。
いくつかの実施形態において、ハンドジェスチャとは、例えば指2等の指を3Dオブジェクト上の点に向けることである。指を向ける方向は、任意選択で、指の方向を入力としてとらえるコンピュータにより任意に算出し、点の位置は、指を向けた方向と表示された3Dオブジェクト表面との交点において算出する。
いくつかの実施形態において、交点をハイライトして、指を向けた点を表示し、このハイライトした交点は方向の変化に伴い移動する。
いくつかの実施形態において、例えば、非限定的な例として、瞬目、「マーク」等の音声コマンド、またはマウスのクリック等、追加のユーザ行為により、上記の選択を有効にする。いくつかの実施形態において、有効にした選択点を、指を向けた点とは別にハイライトする。例えば、非限定的な例として、別の色および/または別の輝度等でハイライトする。
いくつかの実施形態において、ハンドジェスチャは、2本の指先を接触することであり、例えば、非限定的な例として、指1の先端と指2の先端を接触することであり、接触点により点を特定する。いくつかの実施形態において、指先を接触する行為により選択を有効にする。いくつかの実施形態において、例えば、非限定的な例として、瞬目、「マーク」等の音声コマンド、またはマウスのクリック等、追加のユーザ行為により選択を有効にする。
ここで図4Cを参照する。図4Cは、本発明の一実施形態例による、入力空間における点406を選択するためのジェスチャをしている手405を示す簡略図である。
いくつかの実施形態において、アイジェスチャにより選択を行う。ユーザが、3Dディスプレイにより表示中の3Dオブジェクトおよび/または3Dシーン上の点を見ると、ユーザが見ている点が算出され、任意選択で、3Dディスプレイ上において選択した際にマークする。
ここで図4Dを参照する。図4Dは、本発明の一実施形態例による、立体ディスプレイ466の表示/入力空間462にツール469を挿入しているユーザ460を示す簡略図である。
図4Dの立体ディスプレイ466は、3Dオブジェクト471を表示している。本実施形態例では、3Dオブジェクト471は心臓の3D画像であり、この画像は、任意選択で、医用データセットから生成したものである。ツール469は、3D表示システムの入力空間にあり、3D表示システムの入力空間は、3D表示空間に相当し、重なり合う。ユーザは、ツールを伸ばすことにより3Dオブジェクト471上の点を選択し、ユーザ460が表示として見て470いる表示/入力空間462中の点472に到達する。ユーザが、後述するように「接触する」ことにより選択する点472は、入力空間中の入力となる。この入力は、コンピュータ464に転送463され、コンピュータ464が入力を処理して、任意選択で、選択した際にマークした点472を任意選択で有する3D画像を作成するためのデータを生成する。3D画像を作成するためのデータは立体ディスプレイ466に送られ465、立体ディスプレイ466は、選択した際にマークした点を任意選択で有する3D画像472を表示/入力空間462に表示する。
いくつかの実施形態において、この選択をツールにより行う。ツール先端は、任意選択で、表示空間中の点に置いて、その点を選択する。
いくつかの実施形態において、例えば、非限定的な例として、瞬目、「マーク」等の音声コマンド、またはマウスのクリック等の追加のユーザ行為により上記の選択を有効にする。
いくつかの実施形態において、選択した点は、任意選択で、例えば、選択した点をハイライトする等して、3Dディスプレイにより表示される。
いくつかの実施形態において、ツールを用いて、3Dオブジェクト上の点を指し示す。ツールが指し示す方向は、任意選択で、ツールの方向を入力としてとらえるコンピュータにより算出され、点の位置は、ツールが指し示す方向と表示された3Dオブジェクト表面との交点において算出する。
いくつかの実施形態において、この交点をハイライトして、ツールが指し示すポイントを表示し、このハイライトした交点は、ツールが指し示す方向の変化に伴い移動する。
いくつかの実施形態において、例えば、非限定的な例として、瞬目、「マーク」等の音声コマンド、またはマウスのクリック等、追加のユーザ行為により、上記の選択を有効にする。いくつかの実施形態において、有効にした選択点を、ツールが指し示す点とは別にハイライトする。例えば、非限定的な例として、別の色および/または別の輝度等でハイライトする。
3Dユーザインタフェースコマンドの一実施形態例−3D画像空間においてパスを選択すること
任意選択で、複数の行為により複数の点をマークする。
いくつかの実施形態において、その複数の点の間のパスをコンピュータにより記載する。いくつかの実施形態において、このパスは、複数の選択した点の間の直線を含む。いくつかの実施形態において、このパスは、複数の選択した点を通過するか、および/または複数の点の近傍を通過する、平滑化した線である。
いくつかの実施形態において、3D画像空間においてパスをマークすることは、例えば、指2以外の指を閉じて、指2の先端によって空間における位置を画定すること、およびパスに沿って指2の先端を動かすことを含む。
いくつかの実施形態において、指2以外のすべての指を閉じる行為により、パスの開始が有効となり、指が閉じている限りパス選択が継続する。いくつかの実施形態において、非限定的な例として、追加のユーザ行為、例えばマウスクリック等により、選択を有効にする。いくつかの実施形態において、マウスボタンを押下している限りパス選択が継続する。いくつかの実施形態において、2回目のマウスクリックによりパス選択が終了する。
いくつかの実施形態において、3D画像空間においてパスをマークすることは、ツール先端を用いて空間における一の位置を画定し、パスに沿ってツール先端を移動することを含む。
いくつかの実施形態において、追加のユーザ行為によりパス選択を有効にする。非限定的な例として、追加のユーザ行為、例えばマウスクリック等により、パス選択を有効にする。いくつかの実施形態において、マウスボタンを押下している限りパス選択が継続する。いくつかの実施形態において、2回目のマウスクリックによりパス選択が終了する。
いくつかの実施形態において、任意選択で、ツール上においてボタンクリックを行うことにより、パス選択を開始および/または終了する。
いくつかの実施形態において、パスの選択および任意選択によるマーキングは、マークする色、マーク用の筆のタイプ、マーク用のブラシの幅を選択してマークすることを含む。色/筆/幅の選択は、任意選択で、メニュー選択により行い、このメニューは、任意選択で、3Dディスプレイ内に表示される。
いくつかの実施形態において、本明細書において説明したオブジェクトの把持および移動と同様、3Dディスプレイにより表示したブラシを把持および移動し、ある時点で、ブラシによるパスのマーキング(色を塗ること)を有効にする。
いくつかの実施形態において、実際のブラシを入力空間に挿入し、ユーザインタフェースは、ブラシの毛の先端を追跡する。パスのマーキングを有効にしたら、ブラシの毛の先端が沿って動くパスを追跡し、任意選択で、マークする。
3Dユーザインタフェースコマンドの一実施形態例−画像空間において面を選択すること
任意選択で、有効化を複数回行って複数の点をマークする。
いくつかの実施形態において、コンピュータは、上記方法のいずれかによって選択した3つ以上の点を通過する面を算出する。
3Dユーザインタフェースコマンド−3Dシーン中のオブジェクトを選択すること
いくつかの実施形態において、入力空間における入力オブジェクトを用いて、任意選択で、3Dシーン中のオブジェクトを選択してもよい。
いくつかの実施形態において、例えば、上記方法のいずれかによりオブジェクト上の点を選択することにより、任意選択で、そのオブジェクト全体を選択するようにしてもよい。
いくつかの実施形態において、例えば、上記方法のいずれかによりオブジェクト上または中の点を選択することにより、任意選択で、そのオブジェクト中に画定した特定の層を選択するようにしてもよい。任意選択で、選択した点がオブジェクト内にある場合、選択した層は、そのオブジェクトの表面から等距離にある層である。
いくつかの実施形態において、選択したオブジェクトを、3Dシーンにおいてハイライトする。そのようなハイライトにより、任意選択で、どのオブジェクトが選択されたかをユーザに伝達してもよい。
非限定的な例として、表示された3Dシーンが医用シーンである場合、選択したオブジェクトは、任意選択で、医用画像における特定の臓器、および/または医用画像における特定の器官(例えば、骨、筋肉、血管)とすればよい。画像生成用のコンピュータは、潜在的に、医用データから3Dシーンを生成することにより、このオブジェクトを認識する。
3Dユーザインタフェースコマンドの一実施形態例−3Dシーンにおいてオブジェクトを把持すること
いくつかの実施形態において、3Dシーンにおける表示オブジェクトは、任意選択で、把持することができる。オブジェクトを把持することにより、ユーザは、3Dディスプレイを介して、そのオブジェクトを、入力オブジェクトの動きにより画定した何らかの方法で、移動させることが可能となる。
いくつかの実施形態において、画像空間において、オブジェクト上またはオブジェクト中の一の点に対応する入力空間における一の点において指1、指2、指3を閉じることにより、3D画像空間において把持点が画定される。把持することにより、任意選択で、把持したオブジェクトを、任意選択で指1、指2、および指3で把持し続けている間は、手の動きによって動かすことが可能となる。
いくつかの実施形態において、画像空間において、オブジェクト上またはオブジェクト中の一の点に対応する入力空間における一の点において指1および指2を閉じることにより、3D画像空間において把持点が画定される。把持することにより、任意選択で、把持したオブジェクトを、任意選択で指1および指2で把持し続けている間は、手の動きによって動かすことが可能となる。
いくつかの実施形態において、画像空間において、オブジェクト中またはオブジェクト上の一の点に対応する入力空間における一の点にツール先端を置くことにより、また、任意選択で、把持エミュレーションを有効にすることにより、把持を3D画像空間内でエミュレートする。
いくつかの実施形態において、追加のユーザ行為、例えば、非限定的な例としてマウスクリック等により、選択を有効にする。いくつかの実施形態において、マウスボタンを押下している限り把持が継続する。いくつかの実施形態において、2回目のマウスボタンのクリックにより、パスの選択を終了する。
いくつかの実施形態において、追加のユーザ行為、例えば、非限定的な例として、「把持」の音声コマンド等により選択を有効にする。いくつかの実施形態において、ツール先端を新たな位置に移動し、3Dディスプレイは把持されたオジェクトを同様に移動する。
いくつかの実施形態において、追加のユーザ行為、例えば、非限定的な例として、「把持」または「選択」等の音声コマンド等により、選択を有効にする。いくつかの実施形態において、ツール先端を新たな位置に移動して、「移動」という追加の音声コマンドにより、3Dディスプレイは、把持されたオブジェクトを同様に新たな点に移動する。
いくつかの実施形態において、3D表示空間においてオブジェクトを把持すること、またはオブジェクトに接触することに付随して、把持者にフィードバックを提供する。非限定的な例として、オブジェクトに接触している指に圧縮空気を吹きつけて、その接触を見ているユーザに、さらに接触の感覚を生じさせることにより、フィードバックを行う。別の非限定的な例として、このフィードバックは触覚グローブにより生じさせる。
3Dユーザインタフェースコマンドの一実施形態例−3Dシーンにおいてオブジェクトを移動または平行移動(translating)すること
いくつかの実施形態において、上記の把持コマンド等の3Dユーザインタフェースコマンドにより、3Dディスプレイは表示空間において表示オブジェクトを移動する。任意選択で、表示オブジェクトを表示空間の別の場所に移動または平行移動することができる。
いくつかの実施形態において、入力空間の座標は、表示空間の座標とスケールを同等として、手またはツール等の入力オブジェクトを入力空間において移動することにより、表示オブジェクトが、入力オブジェクトが移動するのと等しい距離および方向に移動するようにする。このような実施形態において、入力オブジェクトが移動すると、表示オブジェクトは入力オブジェクトに付随して移動するかのように見える。
いくつかの実施形態において、上記のように、入力オブジェクトを表示オブジェクトに「接触させる」ことにより、表示オブジェクト上の一の点を選択する。入力空間の座標が表示空間の座標とスケールが同等である場合、選択した点において、表示オブジェクトは入力オブジェクトに付随して移動するかのように見える。このユーザインタフェースにより、オブジェクトを把持して移動させている自然な感覚が得られる。
いくつかの実施形態において、上記のように、表示オブジェクトに入力オブジェクトを向けることにより、表示オブジェクト上の点を選択する。入力空間の座標が表示空間の座標とスケールが同等である場合、表示オブジェクトは、任意選択の目に見えない連結によって、入力オブジェクトに付随して移動するかのように見える。
いくつかの実施形態において、任意選択の追加のコマンドおよび/またはインタフェース設定により、移動のためのユーザ入力を、x、y、またはz等の特定の軸等の特定の方向または特定の対角線に沿った移動として実施する。
いくつかの実施形態において、任意選択の追加のコマンドおよび/またはインタフェース設定により、移動のためのユーザ入力を、上記のように選択および/または画定したパス等の特定のパスに沿った移動として実施する。
いくつかの実施形態において、任意選択の追加のコマンドおよび/またはインタフェース設定により、移動のためのユーザ入力を、選択したオブジェクトにより画定したパス等の特定のパスに沿った移動として実施する。非限定的な例として、オブジェクトを移動するためのパスは、医用および/また解剖学的データの3Dディスプレイにより表示された血管に沿った移動に限定してもよい。
3Dユーザインタフェースコマンドの一実施形態例−3D表示空間においてオブジェクトを自動センタリングすること
いくつかの実施形態において、任意選択の追加のコマンドおよび/またはインタフェース設定により、選択したオブジェクトを3D表示空間において自動センタリングする。
3Dユーザインタフェースコマンドの実施形態例−ズームインとズームアウト
いくつかの実施形態において、ハンドジェスチャ等により、ズームコマンドを任意選択で実行する。
いくつかの実施形態において、このズーミングのためのハンドジェスチャは、入力空間において指先を近づけるまたは遠ざけるものである。
いくつかの実施形態において、入力空間の特定の位置で一部またはすべての指を近づけることによりズームアウトを実施し、画像空間における対応する位置に対してズームアウトする。入力空間の特定の位置において、閉じていた指の一部またはすべてを広げることによりズームインを実施し、画像空間における対応する位置に対してズームインする。
いくつかの実施形態において、入力空間における特定の位置で2本の指の先端を互いに近づけることによりズームアウトを実施する。入力空間における特定の位置において、閉じていた2本の指を広げることによりズームインを実施して、画像空間における対応する位置に対してズームアウトする。
いくつかの実施形態において、入力空間における特定の位置で3本の指の先端を互いに近づけることによりズームアウトを実施する。入力空間における特定の位置において、閉じていた3本の指を広げることによりズームイズームアウトを実施して、画像空間における対応する位置に対してズームアウトする。
いくつかの実施形態において、入力空間における特定の位置で2つの手の指先を互いに近づけることによりズームアウトを実施する。入力空間における特定の位置において、閉じていた手を広げることによりズームイズームアウトを実施して、画像空間における対応する位置に対してズームアウトする。
いくつかの実施形態において、ズームアウトおよびズームインは、入力空間における特定の位置にツール先端を近づけることにより、また、マウスのスクロールまたはマウスボタンのクリック等の追加の入力を行うことにより、ズームアウトおよびズームインを実施する。
いくつかの実施形態において、入力空間内の位置を選択して、「ズームイン」または「ズームアウト」等の音声コマンドを付加することにより、ズームアウトおよびズームインを実施する。
いくつかの実施形態において、2つの手等で画像の2点を把持すること、および、その2つの手を動かすこと等によって把持した2点間の距離を変化させることにより、ズームアウトおよびズームインを実施する。
いくつかの実施形態において、ユーザは、入力空間において、親指および人差し指でCの字を作り、このCの字を開閉することにより入力空間において3D画像をズームする。
3Dユーザインタフェースコマンドの一実施形態例−3Dシーンにおいてオブジェクトを回転すること
いくつかの実施形態において、上記方法のいずれかによってオブジェクトを選択し、回転コマンドを与えることにより、3Dシーンにおけるオブジェクトの回転を実施する。
いくつかの実施形態において、以下に説明する回転コマンドを与えることにより、3Dシーン全体を回転する。
いくつかの実施形態において、入力空間において、手で次のようなジェスチャを行うことにより、手によって回転コマンドを与え、回転の中心となる軸を画定する。すなわち、指1、指2、および指3を広げて3本の略垂直な軸を作る。
ここで、図4Eを参照する。図4Eは、本発明の一実施形態例による、入力空間において回転412を示すジェスチャをしている手410を示す簡略図である。
いくつかの実施形態において、入力空間において、手で次のようなジェスチャを行うことにより、手によって回転コマンドを与え、回転の中心となる軸を画定する。すなわち、入力空間において、指1、指2、および指3を広げて入力空間における3本の略垂直な軸を示す。そして、手で回転のジェスチャを行い、いずれかの軸を中心とした回転を規定すると、このジェスチャが3Dディスプレイに入力されて、3Dディスプレイは、選択されたオブジェクトを同様に回転させる。
いくつかの実施形態において、入力空間において、手で次のようなジェスチャを行うことにより、手によって回転コマンドを与え、回転の中心となる軸を画定する。すなわち、入力空間において、指1、指2、および指3を広げて入力空間における3つの位置を示すことにより、入力空間における一の平面を画定する。そして、手で回転のジェスチャを行い、この平面の入力空間における回転を規定すると、このコマンドが3Dディスプレイに入力され、これに応じて、3Dディスプレイは、選択されたオブジェクトを回転させる。
いくつかの実施形態において、先に述べたような方法のいずれかによってオブジェクトを把持し、回転コマンドを与えることにより、3Dシーンにおいてオブジェクトを回転する。
いくつかの実施形態において、入力空間において手で次のようなジェスチャを行うことにより、手による回転コマンドを与え、回転の中心となる軸を画定する。すなわち、入力空間において、指1および指2を広げてこの2本の指先の間に軸を形成し、その他の指はひとまとめにする。そして、この軸を中心に手を回転する。3Dディスプレイは、選択されたオブジェクトまたはシーンを回転する。
いくつかの実施形態において、入力空間において手で次のようなジェスチャを行うことにより、手による回転コマンドを与え、回転の中心となる軸を画定する。すなわち、すべての指を広げて各指先を概ね一の平面上に置くようにする。そして、この面を中心にこの手を回転する。3Dディスプレイは、選択されたオブジェクトまたはシーンを回転する。
いくつかの実施形態において、入力空間において次のようなジェスチャを2つの手で行うことにより、2つの手で回転コマンドを与え、回転の中心となる軸を画定する。概ね一の平面上に、2つの手で円を形成し、そして2つの手をこの平面を中心に回転する。3Dディスプレイは、選択されたオブジェクトまたはシーンを回転する。
いくつかの実施形態において、入力空間において、次のようなジェスチャを2つの手で行うことにより、2つの手で回転コマンドを与え、回転の中心となる軸を画定する。指1、指3、指4、および指5、または指1、指2、指3、指4等の4本の指先をひとまとめにして、回転の中心となる点を画定し、1本の指、例えば指2または指5等をそれぞれ用いて、回転中心まわりの回転を示す。
いくつかの実施形態において、入力空間における一の点で各指先を閉じる。この閉じた指先を動かすと、入力空間においてあらかじめ規定した原点に対するこの点の回転に応じて、この所定の原点を中心に表示空間が回転する。
任意選択で、原点をハイライトして、この原点をユーザに可視表示可能とする。
任意選択で、原点は、表示空間座標の原点とする。
任意選択で、回転軸をメニューから選択し、閉じた指先の動きにより、どの程度回転するかについての入力を与える。
任意選択で、回転軸をハイライトする。
任意選択で、回転軸は、表示空間座標の主軸であるx軸、y軸、およびz軸のうちの1つとする。
いくつかの実施形態において、任意選択で、メニューから回転軸を選択することにより、または、3Dディスプレイにより表示された軸のセットから軸を選択することにより、または指または長尺のツールにより方向の表示を与えることにより、回転軸を画定する。さらに、ハンドジェスチャで回転中心をマークする。例えば、入力空間における一の点で指先を閉じることにより、回転中心の位置を画定する。指先を閉じた後、その手を回転させることにより、同じ回転角でシーンを回転させるという入力を3Dディスプレイに与える。任意選択で、および、場合によっては、指先を一緒に閉じることを含む他のジェスチャと区別する目的で、追加の入力、例えば、メニュー選択またはマウスクリック等を用いて、この場合のユーザ入力が回転入力コマンドであることを3Dディスプレイに対して指示する。
いくつかの実施形態において、ハンドジェスチャで回転中心をマークする。例えば、入力空間における一の点で指先を閉じることにより、回転中心の位置を画定する。指先を閉じた後、その手を回転させることにより、同じ回転角でシーンを回転させるという入力を3Dディスプレイに与える。任意選択で、および、場合によっては、指先を一緒に閉じることを含む他のジェスチャと区別する目的で、追加の入力、例えば、メニュー選択またはマウスクリック等を用いて、この場合のユーザ入力が回転入力コマンドであることを3Dディスプレイに対して指示する。
いくつかの実施形態において、任意選択で、メニューから回転軸を選択することにより、または、3Dディスプレイにより表示された軸のセットから軸を選択することにより、または指または長尺のツールにより方向の表示を与えることにより、回転軸を画定する。さらに、入力空間に挿入したツール先端で回転中心をマークする。このツールを回転することにより、同じ回転角でシーンを回転させるという入力を3Dディスプレイに与える。
いくつかの実施形態において、ツール先端で画像中の一の点をマークし、マウスクリック/音声コマンド/瞬目により回転コマンドを与えることにより、回転を実施する。ディスプレイは、任意選択で、その点に対するツール位置に応じてマークした点を中心に画像を回転する。任意選択で、ツール角を変更することにより画像を回転する。
いくつかの実施形態において、入力空間に挿入したツール先端により、回転中心の位置を画定する。ツールを回転することにより、3Dディスプレイに、同じ回転角でシーンを回転するという入力を与える。
いくつかの実施形態において、上記の回転コマンド入力方法を、音声コマンドにより実施する。この音声コマンドは、任意選択で、指先、ツール先端、または何本かのまとまった指先が回転中心にある時点を示すように機能する。
なお、上記の回転コマンド入力方法において、表示空間においてハイライトした点を表示することにより、選択された回転中心がどこであるのかをユーザに示す。また、上記したように、一の点を選択する際は、オブジェクト上またはシーン中における当該点を指し示すことによって選択してもよい。
いくつかの実施形態において、入力空間において、親指および人差し指でCの字を作り、このCの字を回転することにより、3Dシーンおよび/または3Dオブジェクトを回転する。
3Dユーザインタフェースコマンドの一実施形態例−3Dシーンにおけるオブジェクトの回転および平行移動を組み合わせること
なお、回転と平行移動を組み合わせることは、回転および平行移動についての上記の説明に基づいて、回転および平行移動用にユーザインタフェースを組み合わせて行ってもよい。
3Dユーザインタフェースコマンドの一実施形態例−3Dシーンにおけるオブジェクトを自然に把持すること
いくつかの実施形態において、3Dシーンにおける表示オブジェクトは、任意選択で、特別な把持起動コマンドなしに把持してもよい。オブジェクト表面に指先を載置すると、そのオブジェクトは把持されたものとして、ユーザインタフェースにより選択される。オブジェクト表面に何本かの指先を載置した後、ユーザはその手を動かし、その指の動きに対応する分だけ表示オブジェクトをディスプレイが動かすことにより、オブジェクトがユーザの手によって把持されているように見え、ユーザの手によって動かされているように見える。
同様に、任意選択で、表示オブジェクトを把持しているように知覚される手の回転に応じて、表示オブジェクトを回転する。
いくつかの実施形態において、以下に詳述するように、表示オブジェクトの表面に1本の指を載置した場合は、表示オブジェクトを押すことはできるものの、表示オブジェクトを把持したとはみなさない。
いくつかの実施形態において、表示オブジェクトの表面に2本の指を載置した場合、表示オブジェクトを把持したとみなす。
いくつかの実施形態において、表示オブジェクトの表面に2本の指を載置した場合、表示オブジェクトを、表示オブジェクトを通る軸を画定する2つの接触点で把持したとみなす。任意選択で、表示オブジェクトの表面に第3の指を載置して、入力ジェスチャを与えることにより、この第3の指が動く方向に、表示オブジェクトをディスプレイによって回転させてもよい。
いくつかの実施形態において、表示オブジェクトを把持したとみなすためには、オブジェクト表面に3本の指を載置する必要がある。
3Dユーザインタフェースコマンドの一実施形態例−3Dシーンにおいて表示オブジェクトを押すこと
いくつかの実施形態において、ユーザは、手またはツール等の入力オブジェクトを表示空間に挿入する。ユーザは、表示空間内で入力オブジェクトを動かす。表示空間に表示オブジェクトは、入力オブジェクトに対して固体であるかのように動作する。つまり、表示オブジェクトは、表示空間において、入力空間における前記入力オブジェクトの位置に対応する位置を占有しないように動く。
3Dユーザインタフェースコマンドの一実施形態例−3Dシーンにおいて表示オブジェクトをたたくこと
いくつかの実施形態において、ユーザは、手またはツール等の入力オブジェクトを表示空間に挿入する。ユーザは、表示空間内で入力オブジェクトを動かす。表示空間に表示オブジェクトは、入力オブジェクトに対して固体であるかのように動作する。つまり、表示オブジェクトは、表示空間において打たれたかのように知覚され、任意選択で、実オブジェクトをたたいたときの動きと同じように動く。
表示オブジェクトは、任意選択で、完全弾性オブジェクト、または部分弾性オブジェクト、ひいては脆性オブジェクトが衝突して崩壊するときのように動くように設定してもよい。
ここで図4Iを参照する。図4Iは、本発明の一実施形態例による立体ディスプレイ466の表示/入力空間462にツール480を挿入しているユーザ460を示す簡略図である。
なお、図4Iを参照すると、ユーザ460は、ツール480を容易に見て470操作することができ、表示中の3Dオブジェクト482までツール480を案内することができ、したがって、潜在的に、3Dオブジェクト482をツール480でたたくプロセスを簡易かつ自然なものとすることができる。
ツール480の1つ以上の点の位置は、任意選択で、表示/入力空間462において測定し、任意選択で、ツール480上の1つ以上の点の動作速度も測定する。
表示/入力空間462における、表示された3Dオブジェクト482の位置および寸法は既知および/または算出済みである。
ツール480上の点が、表示された3Dオブジェクト482上の点と一致した場合、表示/入力空間462におけるツール480上の点の動作速度および/または方向および表示/入力空間462における表示された3Dオブジェクト482上の点の動作速度および/または方向は、任意選択で、既知および/または算出済みである。
ツール480上の点が、表示された3Dオブジェクト482上の一の点に到達した場合、その点におけるツール480表面の法線ベクトルを任意選択で算出し、および/または、その点における表示された3Dオブジェクト482表面の法線ベクトルを任意選択で算出する。
いくつかの実施形態において、表示オブジェクトの接触点における手/ツールの速度を任意選択で測定し、任意選択で、算出された速度を用いて、表示オブジェクトの手/ツールに対する反応を割り出す。
いくつかの実施形態において、入力オブジェクトまたはツールまたは表示オブジェクトの速度は、任意選択で、位置および時間を測定することにより、または、移動距離を時間で除したものを速度として算出することにより測定する。
一実施形態例において、ツール480はテニスラケットとすることができ、表示された3Dオブジェクト482はテニスボールの表示とすることができる。上記の本実施形態例により、3D仮想テニスの潜在的なやり方を教示する。このような相互作用により、ユーザは、潜在的に、3D双方向型ゲームをすることが可能になる。
表示オブジェクトの手/ツールに対する反応は、必ずしも表示オブジェクトが固体であるかのような必要はない。むしろ、表示オブジェクトは、物理的にそこにあるかのような反応をし、固体であっても、液体であっても、気体であっても、プラズマであってもよい。いくつかの実施形態において、表示オブジェクトの反応として、変形が挙げられる。いくつかの実施形態において、ユーザが、表示オブジェクトの弾性率および/または脆性を示す物理パラメータおよび/または数値パラメータを入力してもよい。いくつかの実施形態において、コンピュータが生成した表示オブジェクトを作成するコンピュータシステムにより、任意選択で、当該コンピュータシステムにおけるオブジェクトを記述するデータにしたがって、表示オブジェクトの弾性率および/または脆性を示す物理パラメータおよび/または数値パラメータを設定してもよい。
先に述べた特許文献1には、例えば、当該文献の図15および明細書において、2つの別々の表示ボリュームに表示された同じオブジェクトと相互作用する2人のユーザが記載されている。このような、2つの表示ボリュームにおける相互作用により、潜在的に、2人のユーザは、2つの別々の場所で3D双方向型ゲームをすることが可能となる。
実際のラケットと表示されたボールを用いたテニスのゲームについて上記の記載を一般化すると、本発明の実施形態例を用いればその他のゲームも同様に行うことが潜在的に可能でありうる。
そのようなゲームの非限定的な例としては、次のようなものが挙げられる:
フリスビー(実際の手、表示されたフリスビー):実際の手は、「オブジェクトを把持すること」の実施形態例を説明する箇所において説明したように、任意選択で、表示オブジェクト、例えばフリスビー等を把持する。実の手は、「3Dシーンにおいて表示オブジェクトを押すこと」の実施形態例を説明する箇所において説明したように、任意選択で、表示オブジェクトであるフリスビーを動かし、回転させ、反転させる。実の手が、任意選択で、表示オブジェクトであるフリスビーを放つと、表示オブジェクトであるフリスビーは、任意選択で、実際に反転して投げられたかのように動くように見えるようになる
卓球(実際のラケット、表示されたボール):実物の卓球ラケットは、実物大であってもなくてもよく、表示オブジェクトであるボールを打つことができる;
野球またはソフトボール(実物のバット、表示されたボール);
ビー玉遊び(Marbles)(1つ以上の実物のビー玉、1つ以上の表示されたビー玉):実物のビー玉を表示空間に打ち込み、表示された1つ以上のビー玉にぶつける。任意選択で、表示システムにより、表示オブジェクトであるビー玉が実際のビー玉同様に表示空間内を動くように表示する;
シャッフルボード(実物のキュー(paddle)、表示された円盤(puck));
ジャックス(Knucklebones)(実物のジャックス、表示されたボール):表示オブジェクトであるボールを表示空間内で把持および/またはたたき、実際のボールと同様に、またはそれより早くまたは遅く、上方に向かいその後戻ってくる軌道を表示する。表示されたボールが上下している間、ユーザは、任意選択で、ジャックスの試合にしたがって、ジャックスを実際に操作してもよい。このシステムによれば、任意選択で、初心者の試合のときにはボールが上昇下降する速度を遅くし、より高度なゲームでは、表示オブジェクトであるボールの上昇下降速度を実際的なものとし、任意選択で、さらに高度なゲームでは、ボールの上昇下降速度を実際の速度よりも速くしてもよい;
ボーリング(実物のボール−実物と同じサイズ、小さいサイズ、または大きいサイズ、表示されたピン);および
ビリヤードおよび同等のゲーム(実物のキュースティック、表示されたボール)。
3Dユーザインタフェースコマンドの一実施形態例−3Dシーンにおいて、選択した表示オブジェクトを動かすこと、および選択していない表示オブジェクトを動かさないこと
いくつかの実施形態において、ユーザは、任意選択で、3Dシーン中に表示された1つ以上のオブジェクトを上記のように選択する。そして、ユーザは、ツールまたは手等の入力オブジェクトを表示空間に挿入する。ユーザは、表示空間内において入力オブジェクトを動かす。選択したオブジェクトは、入力オブジェクトに応答して、あたかも固体のようにふるまう。すなわち、選択したオブジェクトは、入力オブジェクトが画像空間におけるその対応する画像に接触したときに、表示空間において動く。選択しなかったオブジェクトは、入力オブジェクトに応答して、接触に対してあたかも透明であるかのようにふるまう。すなわち、選択しなかったオブジェクトは、入力オブジェクトが画像空間におけるその対応する画像に接触および/または通過するときに、表示空間において動かない。
3Dユーザインタフェースコマンドの一実施形態例−3Dシーンにおけるシーンまたはオブジェクトから平面を切り取るまたはスライスすること
いくつかの実施形態において、ユーザインタフェースコマンドを与えて、一の平面において、3Dオブジェクトまたは3Dシーンをスライスまたは切り取る。
スライスコマンドの場合、所定の平面においてオブジェクトまたはシーンをスライスすることを意味し、任意選択で、この平面の片側をオブジェクト/シーンから削除、および/またはハイライト、および/またはもう一方の側とは異なる透明度で表示してもよい。
切り取りコマンドの場合、所定の平面において、当該所定の平面の特定の範囲、例えば矩形等に限定して、オブジェクトまたはシーンをスライスすることを意味し、任意選択で、この平面の片側をオブジェクト/シーンから削除、および/またはハイライト、および/またはもう一方の側とは異なる透明度で表示してもよい。
いくつかの実施形態において、切り取りまたはスライスコマンドは、3Dオブジェクトまたは3Dシーンを切り取りまたはスライスせずに、平面が3Dオブジェクトまたは3Dシーンと交差する部分をハイライトするのみとする。
いくつかの実施形態において、3Dオブジェクトまたは3Dシーンを1つ以上の層で構成してもよい。切り取りのユーザインタフェースコマンドは、1層、2層、選択した層、またはすべての層に適用することができる。
いくつかの実施形態において、2つの手を組み合わせることにより、スライスまたは切り取る面を画定する。
ここで図4Fを参照する。図4Fは、本発明の一実施形態例による入力空間において指416を伸ばして矩形417を画定した状態の2つの手415を示す簡略図である。
なお、2つの手415の延ばした指416は、その間に矩形417を画定するために必ずしも接触している必要はない。4本の指416全体で矩形417の各辺を画定する。
なお、矩形417により、切り取り用の矩形またはスライス用の平面を画定する。
いくつかの実施形態において、図4Fに片方の手の指のように指を伸ばした1つの手(図示せず)により、スライス用の平面、または平面とその平面の2つの端縁を画定する。
ここで図4Gを参照する。図4Gは、本発明の一実施形態例による、入力空間において指421を伸ばして矩形422を画定した状態の2つの手420を示す簡略図である。伸ばした指421により、図4Fに示す形状(definition)と同様、矩形422の3つの端縁を画定し、離れた指先の間の線により矩形422の第4の端縁を画定する。
いくつかの実施形態において、入力空間において3点を画定する。この3点により平面を画定し、この平面を任意選択で用いてオブジェクトまたは画像をスライスする。
いくつかの実施形態において、入力空間において3点を画定する。この3点により三角形である平面を画定し、この三角形の平面を任意選択で用いてオブジェクトまたは画像をスライスする。
いくつかの実施形態において、3Dディスプレイは、スライスされた、または切り取ったオブジェクトまたはシーンを表示し、この平面を画定する入力オブジェクトが移動すると、平面の位置または方向を変更して、3Dディスプレイはこの新たな平面に応じて、スライスされた、または切り取ったオブジェクトを表示する。
いくつかの実施形態において、入力空間に任意選択で挿入したツールにより、スライスまたは切り取り平面の画定を行う。
いくつかの実施形態において、ツールは棹状であり、棹の長軸の方向は、任意選択で、当該方向に垂直な平面を画定する。棹上の一の点は、任意選択で、多数の平行な平面のうち実際に使用する面を画定する。いくつかの実施形態において、棹状ツール上の点とは、棹状ツールの先端である。
いくつかの実施形態において、ツールは矩形状である。いくつかの実施形態において、この矩形により、スライスするのに使用する平面を画定する。いくつかの実施形態において、矩形状のツールにより、切り取り用に使用する矩形を画定する。いくつかの実施形態において、この平面は、サイズ調整可能な矩形である。
いくつかの実施形態において、ツールは棹状であり、任意選択で、この棹の長軸の方向により切断線を画定する。ユーザがスライスモードを有効にすると、棹状ツールを動かすことにより3Dオブジェクトまたは3Dシーンはこの切断線に沿ってスライスされる。
いくつかの実施形態において、切り取りまたはスライスが設定されていたら、「切り取り」または「スライス」等の音声コマンドにより、切り取りおよび/またはスライスを有効にする。
いくつかの実施形態において、切断またはスライス面の所定の向き、例えば、非限定的な例として、平行または垂直等を選択し、3Dシーン内の点を選択し、平面のこの所定の方向および選択した点の位置に基づいて切り取りまたはスライスコマンドを入力する。
いくつかの実施形態において、3Dシーンが1つ以上のカテゴリのオブジェクトを含む場合、切り取りまたはスライスコマンドを特定のカテゴリのオブジェクトに適用する。カテゴリについては3Dシーンの表示を生成するコンピュータにより識別する。例えば、表示された3Dシーンが医用シーンである場合、スライスまたは切り取り対象のオブジェクトは、任意選択で、当該医用画像における特定の臓器とすることができ、および/または当該医用画像における特定の組織とすることができる。
3Dユーザインタフェースコマンドの一実施形態例−3Dシーンにおけるボリュームを選択すること
いくつかの実施形態において、ユーザインタフェースコマンドを与えて、3Dシーンにおける特定のボリュームに対応する、3D表示空間におけるボリュームを画定する。
いくつかの実施形態において、このボリュームは、入力空間において、ある程度離間して保持した2本の指先間のボリュームである。
いくつかの実施形態において、このボリュームは、入力空間において、ある程度離間して保持した2つの手の間のボリュームである。
いくつかの実施形態において、このボリュームは、カップのように丸めた2つの手の間のボリュームである。
いくつかの実施形態において、このボリュームは、カップのように丸めた1つの手の内側のボリュームである。
3Dユーザインタフェースコマンドの一実装例−3Dシーンにおける3Dオブジェクトを切削(sculping)すること
いくつかの実施形態において、のみ(チゼル)、ナイフ、または自由形式の切削用具等のツールを入力空間内に挿入する。追跡システムにより、入力空間における、チゼルの先端、または切削用具またはナイフの端縁を追跡する。チゼルの先端、または切削用具またはナイフの端縁は、本明細書において、ツールの有効部分(active portion)と呼ぶ。いくつかの実施形態において、チゼルの先端、または切削用具の端縁は塗装またはマークして、追跡システムによる入力空間での追跡を支援する。入力空間内でツールが動いて、入力空間における、表示空間のオブジェクトの位置に対応する位置に移動すると、表示空間におけるオブジェクトの一部分が、あたかもツールの有効部分によって表示空間におけるオブジェクトの当該部分を切除しているかのように、任意選択で消去される。
いくつかの実施形態において、表示空間におけるオブジェクトの当該部分を消去せずに、任意選択で、ハイライトする。任意選択で、ハイライトした部分を消去するコマンドにより、ハイライトした部分が消去する。ここで、このハイライト部分は、消去用にマークしたと考えることもできる。
場合により、上記のインタフェースは、任意選択で、現実の世界でそのような切削を実際に行う前に、3Dディスプレイにおける切削のプロセスを任意選択でシミュレートする。そうすることで、実際に作業を行う前に、その作業のプランニングおよびシミュレーションが潜在的に可能となる。
上記のシミュレーションは、医学的状況、例えば、手術の前、患者の身体のメディカルセットの3Dディスプレイを使用できる場合において、特に有用であると考えられる。別の医学的な一実施形態例としては、教育用の用途が挙げられ、この場合、学習者は、患者の身体のメディカルセットの3Dディスプレイ上で仮想手術を行うことができる。
先に述べたような切削に用いることのできる実ツールとして、非限定的な例として、先端の尖ったツール、鋭い刃をしたツール、筆、粘土成形ツール等が挙げられる。
いくつかの実施形態において、ツールは仮想ツール、すなわち、3Dディスプレイに3Dオブジェクトとして表示されたものである。ユーザは、任意選択で、表示空間におけるツール把持のための適切な位置に対応する、入力空間における適切な位置に手または指を置くことによって、ツールを適切に把持する。3Dユーザインタフェースの各実施形態例による把持についての詳細は、既に述べた通りである。
このような各実施形態において、追跡システムは、任意選択で、ツールではなくユーザの手を追跡する。
ユーザが仮想ツールを把持すると、入力空間におけるユーザの手の動きにより、ユーザインタフェースは表示空間における仮想ツールを動かす。仮想ツールの有効部分が動いて、表示空間において表示オブジェクトの一部分を通ることにより、表示オブジェクトの一部分を、実ツールを用いて上記のように切削すること、消去すること、またはハイライトすることが可能となる。
いくつかの実施形態において、仮想ツールはツールのライブラリから選抜するが、マウスクリックにより、または仮想メニューから選択することにより、この仮想ツールのいくつかまたはすべてを3Dディスプレイによって表示してもよい。
いくつかの実施形態において、仮想ツールの有効部分をハイライトする。
上記のような切削に用いることのできる仮想ツールとして、非限定的な例として、先端の尖ったツール、鋭い刃をしたツール、筆、粘土成形ツール等が挙げられる。さらに、一部のツールとして、現実の世界では存在しないが表示空間において存在しうるものがある。そのようなツールの例として、実際には連結していないが仮想的に連結した2つ以上のパーツが挙げられる。例えば、外輪内に内輪を保持する連結部分のないシャープリング(sharp ring)内のシャープリングは、実ツールとしてではなく、仮想ツールとして実装可能である。
いくつかの実施形態において、ツールは、実ツールと仮想ツールの組み合わせである。実ツールは、入力オブジェクトとして3D表示空間に挿入され、実ツールを、実ツールに対する追加表示により増強(enhance)する。
いくつかの実施形態において、ツール先端を付加して表示をする3Dディスプレイにより、この実ツールを増強する。非限定的な例として、ツールを挿入し、ツール先端を付加することにより、ツールを伸長して表示する。このように表示した伸長部は、あたかも実ツールに取り付けたもののように、実ツールと共に動く。非限定的な例として、ツールの柄を挿入し、ツール先端すなわち作動部分をツール先端のメニューから選択し、ツールの柄に取り付けたかのように3Dディスプレイによって表示する。
3Dユーザインタフェースコマンドの一実施形態例−3Dシーンにおいて3Dオブジェクトを生成すること
いくつかの実施形態において、3Dシーンにおける3Dオブジェクトを生成すなわちまたは構築する。任意選択で、最初の3Dシーンにはオブジェクトが無く、3Dオブジェクトを新規に構築してもよい。
ある実施形態において、ツールまたは手を入力空間に挿入する。任意選択でコマンドを与えてオブジェクトの生成を開始する。オブジェクトの生成を開始した時点から、生成を停止するコマンドが与えられるまで、ツールまたは手で一掃するボリュームを任意選択で検出し、このボリュームを3D表示空間におけるオブジェクトとして表示する。
いくつかの実施形態において、ツールまたは手の全ボリュームではなく、ツールまたは手の特定部分を有効部分として指定する。
いくつかの実施形態において、表示空間において有効部分をハイライトして、この有効部分をユーザに対して可視表示する。
3Dユーザインタフェース実装の一実施形態例−3Dシーンにおいて3Dオブジェクトを生成または変更すること、およびオブジェクトを3Dプリンタに送信すること
いくつかの実施形態において、3Dシーンにおける3Dオブジェクトを変更し、または3Dオブジェクトを(上記のように)切削し、3Dオブジェクトを3Dプリンタに出力して生成する。
3Dユーザインタフェースコマンドの一実施形態例−3D表示空間に挿入したオブジェクトをハイライトすること
いくつかの実施形態において、3D入力空間および3D表示空間は、上述のように重なり合う。この場合、3Dディスプレイを任意選択で用いて、3Dディスプレイおよび入力空間に挿入した入力オブジェクトの位置において表示を行うようにする。
非限定的な例として、指先またはツール先端において、異なる色および/または異なるアイコンを表示することが挙げられる。この色および/またはアイコンは、3D表示空間内において指先またはツール先端がどこへ移動しようとも、指先またはツール先端と共に移動する。ディスプレイは、任意選択で、指先またはツール先端が(非作動中に対して)作動中であることをマークするか、または、3Dインタフェース内における指またはツールの用途を示すように機能することができる。いくつかの実施形態において、3Dディスプレイによりメニューを表示してもよく、入力オブジェクトの先端で接触することまたは指し示すことによりメニュー選択を行ってもよい。メニュー選択は、任意選択で、ハイライト、またはメニューの選択肢に対応した特定の色、またはアイコンを、表示空間における入力オブジェクトの先端に追従させる。
いくつかの実施形態において、仮想オブジェクトのリストから一の仮想オブジェクトを選択し、この仮想オブジェクトをツールの先端に表示する。同様に、オブジェクトを選択した後、その実オブジェクトを任意選択で入力空間に挿入し、任意選択でシステムによって識別させ、ツール位置に追従してオブジェクトの各端縁を任意選択でハイライトする。
いくつかの実施形態において、非限定的な例として、メニューを、任意選択で、挿入した手の各指先に表示する。指先の1つでオブジェクトに接触することにより、3D入力は、接触したオブジェクトに、メニューの選択肢が適用されたものとして受け入れる。メニューの各選択肢の色が異なる場合、オブジェクトは該当する色で表示してもよい。メニューの選択肢が「カット」および「コピー」である場合、3Dシーンから当該オブジェクトをカットまたはコピーしてもよい。
いくつかの実施形態において、3Dディスプレイによりボタンを表示してもよい。また、ボタンを作動するには、任意選択で、表示空間において当該ボタンに触れるか、または表示空間において入力オブジェクトの先端で当該ボタンを指し示せばよい。
いくつかの実施形態において、ボタンは3次元ボタンとして表示してもよい。いくつかの実施形態において、ボタンは2D表示として表示してもよい。
いくつかの実施形態において、ボタンは、当該ボタンに触れたことに対して、あたかも押下されたかのような反応を示してもよい。いくつかの実施形態において、ボタンは、任意選択で、単にハイライトするだけでよく、必ずしも押下されたように表示しなくてもよい。
3Dユーザインタフェースコマンドの一実施形態例−3Dシーンにおいて距離を測定すること
いくつかの実施形態において、3Dシーンにおける選択した2点間の距離を測定する。
いくつかの実施形態において、2本の指を置いてこの2つの点を選択し、瞬目、または音声コマンド、またはボタンの作動により、距離測定コマンドを与える。
いくつかの実施形態において、1本の指を用いて2点を選択し、瞬目、または音声コマンド、またはボタンの作動により、距離測定コマンドを与える。
いくつかの実施形態において、ツールを用いて2点を選択し、瞬目、または音声コマンド、またはボタンの作動により、距離測定コマンドを与える。
ある実施形態において、測定した距離は、3D表示空間における直線距離である。
ある実施形態において、および、例えば先の2点がオブジェクトの表面上の点である場合等の特定の場合において、測定した距離は、3D表示空間におけるオブジェクトの表面上の最短距離である。例えば、世界の地球地図等の球体が表示されている場合、球体表面上の2点、例えば2つの都市等を選択し、任意選択で、球体表面上の最短距離を測定することにより、大圏距離(great circle distance)が得られる。
3Dユーザインタフェースコマンドの一実施形態例−3Dシーンにおいてボリュームを測定すること
いくつかの実施形態において、1つ以上の選択したオブジェクトのボリュームを3Dシーンにおいて測定する。
いくつかの実施形態において、選択することに関連して上述したように、1つ以上のオブジェクトを選択し、瞬目、または音声コマンド、またはボタンの作動により、ボリューム測定コマンドを与える。
いくつかの実施形態において、ボリュームは3Dシーンからあらかじめ分割されており、その非限定的な例として、CT画像等の3D医用画像の自動分割等が挙げられる。
いくつかの実施形態において、選択することに関連して上述したように、3Dシーンにおける複数の点を選択するが、このとき、すべての点が1つの平面にあるわけではない。そして、瞬目、または音声コマンド、またはボタンの作動により、ボリューム測定コマンドを与える。測定対象のボリュームは、任意選択で、各点により画定した各表面の中に含まれるボリュームである。
いくつかの実施形態において、表示オブジェクトの境界の実際のマーキングを容易に行うため、3Dシーンにおける近接するオブジェクトの最近隣表面(nearest surfaces)上に各点をスナップ可能とする。
いくつかの実施形態において、表示空間における各点により画定した表面を、3Dシーン中のオブジェクトの最近隣表面上に折り畳み(collapse)可能として、2D描画ソフトウェアにおいて2Dオブジェクトを選択する際に2Dオブジェクトの周囲に「投げ縄(lasso)」を描く場合同様、オブジェクトの選択を容易に行えるようにする。
いくつかの実施形態において、測定用のボリュームは、2D描画ソフトウェアにおいて中心および半径を選択する場合同様、前述したような点をマークするための方法によって、中心点をマークすることにより選択し、球状表面をマークする別のポイントへと点マーカーを移動する。測定したボリュームは、球体のボリュームであり、および/または、任意選択で、球体の表面は、球体内の表示オブジェクトの表面上に折り畳んで合致(conform)させ、折り畳まれた表面内に囲まれたボリュームを測定する。
いくつかの実施形態において、点の選択は指先で行う。いくつかの実施形態において、点の選択はツール先端で行う。
3Dユーザインタフェースコマンドの一実施形態例−3Dシーンにおける面積(エリア)を測定すること
いくつかの実施形態において、3Dシーンにおける面積を測定する。
いくつかの実施形態において、3Dディスプレイにおける点を選択することに関連して上述したように、3つ以上の点を選択する。そして、瞬目、または音声コマンド、またはボタンの作動により、面積測定コマンドを与える。
いくつかの実施形態において、1本の指を用いて各点を選択し、瞬目、または音声コマンド、またはボタンの作動により、面積測定コマンドを与える。
いくつかの実施形態において、ツールを用いて各点を選択し、瞬目、または音声コマンド、またはボタンの作動により、面積測定コマンドを与える。
いくつかの実施形態において、測定対象エリアは、3D表示空間における3つの点により画定された平面におけるエリアである。
ある実施形態において、および、例えば各点がオブジェクトの表面上の点である場合等の特定の場合において、測定対象エリアは、3D表示空間におけるオブジェクトの表面上のエリアである。例えば、球体が表示されている場合、この球体上の3点を選択して面積を測定すると、球体の面上のこの3点により画定した三角形の面積が得られる。
任意選択で、エリア外周部においてより多くの点をマークし、測定および算出の精度を潜在的に向上する。いくつかの実施形態において、画像コントラスト、端縁検出、または測定対象である所望のエリアの境界を定める同様の方法によって、測定したエリアの端縁を特定する。
いくつかの実施形態において、オブジェクトのボリュームを測定することに関連して上述した各方法を用いて、オブジェクトを選択し、オブジェクトの表面積を任意選択で測定する。
3Dユーザインタフェースコマンドの一実施形態例−第1の3Dオブジェクトの寸法を、3Dシーンにおいて表示された第2の3Dオブジェクトを参照して比較すること
いくつかの実施形態において、3Dディスプレイによって画像生成した第2の3Dオブジェクトの表示に対応する位置において、第1の現実の世界の3Dオブジェクトを入力空間内に置く。
いくつかの実施形態において、上述したように、入力空間は表示空間と重なり合い、第1の3Dオブジェクトは、第2の仮想オブジェクトの表示中へ置く。
ここで図4Hを参照する。図4Hは、本発明の一実施形態例による、共通の表示/入力空間452において第2の3次元オブジェクト454中に第1の3次元オブジェクト456を挿入しているユーザ450を示す簡略図である。
なお、図4Hを参照すると、ユーザ450は、第1の3Dオブジェクトを容易に見て操作することができ、第1の3Dオブジェクトを、表示中の第2の3Dオブジェクトと整合(align)し、したがって、潜在的に、2つのオブジェクトを比較するプロセスを簡易かつ自然なものとすることができる。
第1の3Dオブジェクトの位置と寸法を表示空間において測定し、第2の3Dオブジェクトの寸法と比較する。
寸法を比較した結果は、任意選択で、表面間の距離、表面間の平均距離、オブジェクトの表面間に収まるボリューム等を含む。
いくつかの実施形態において、第1の3Dオブジェクトは、3Dディスプレイによって生成および表示されたオブジェクトでもある。第1の3Dオブジェクトを入力空間に置いて把持して、入力コマンドにより、3Dディスプレイにより画像を生成した第2の3Dオブジェクトの表示に対応する位置へ平行移動および/回転させる。非限定的な例として、第1の3Dオブジェクトは、生成したオブジェクトのメニューまたはライブラリから選択すればよく、第1の3Dオブジェクトある時点で表示空間において表示してもよく、第2の3Dオブジェクトと比較するのに適切な位置へと把持して移動してもよい。
なお、図4Hは、第1の3Dオブジェクト、すなわち、3D表示空間において生成されているオブジェクトの概要(シナリオ)を描写するのに好適である。
いくつかの実施形態において、エリアまたはボリュームは、表示空間において点を選択およびマークすることにより画定され、画定したエリアまたはボリュームに実物または生成した3Dオブジェクトを挿入することにより画定する。3Dオブジェクトの位置および寸法を測定し、画定したエリアまたはボリュームの位置および寸応と比較する。寸法を比較した結果は、任意選択で、表面間の距離、表面間の平均距離、オブジェクトの表面間に収まるボリューム等を含む。
3Dユーザインタフェースコマンドの一実施形態例−第1の3Dオブジェクトの寸法を3Dシーンにおいて表示されたパスと比較すること
いくつかの実施形態において、上述したように、表示空間においてパスを画定する。実物または生成した3Dオブジェクトを把持してパスに沿って移動する。3Dオブジェクトがパスに沿って移動している間に各測定を行い、結果を生成する。
測定としては、例えば、3Dオブジェクトが常にパス内に完全に含まれているかどうか等がある。非限定的な例として、パスは、医用画像中において手動でマークした血管であっても、または、血管の長さに沿って自動的に生成したものであってもよく、3Dオブジェクトの表面と血管の表面との間の距離について測定を行うことができ、オブジェクトが血管の中を詰まらずに通っていけるかどうかに関する解を得ることができる。別の非限定的な例として、3Dオブジェクトとパスすなわち血管、血管壁との間の断面積を測定することもでき、3Dオブジェクトが任意の時点でパス断面をどのくらいの比率で塞いでしまうかについての解を得ることができる。
3Dユーザインタフェースコマンドの一実施形態例−3Dシーンにおいて表示されたパスに沿って3Dオブジェクトを動かすこと
いくつかの実施形態において、3Dオブジェクトは、入力空間に挿入して追跡システムによって測定した実3Dオブジェクトであっても表示空間において表示した仮想3Dオブジェクトであっても、上述したようにマークしたパスに沿って移動させる。
いくつかの実施形態において、3Dオブジェクトは3Dシーンの中を移動するが、オブジェクト自体が追加の3Dオブジェクトを含んでいる。
いくつかの実施形態において、3Dシーンの中を3Dオブジェクトが移動することにより、3Dディスプレイによって3Dシーン中の追加の3Dオブジェクトを脇へ移動させるため、3Dオブジェクトは追加の3Dオブジェクトを通過せず脇へ移動させるように見える。
いくつかの実施形態において、3Dシーンの中を3Dオブジェクトが移動することにより、3Dディスプレイによって3Dシーン中の追加の3Dオブジェクトを変形させるため、3Dオブジェクトは追加の3Dオブジェクトを通過せず変形するように見える。
一実施形態の実装例において、上述したように、ユーザは、任意選択で、1本以上の血管を表示している3D医用シーン中にステントを挿入する。追跡システムは、このステントの位置を判別し、ステントを包んでいるように見える血管の画像を変形させて、ステントの形状を含むようにする。
3Dユーザインタフェースコマンドの一実施形態例−2つの3D画像を相互に位置合わせすること
手動位置合わせ:
いくつかの実施形態において、表示空間に第1の3Dオブジェクトおよび第2の3Dオブジェクトを表示する。ユーザは、入力空間に両手を挿入して、表示された3Dオブジェクトの一方または両方を把持する。表示オブジェクトを把持することについては既に述べた通りである。ユーザは、任意選択で、表示された3Dオブジェクトの一方または両方を操作して、2つの表示オブジェクト間の整列程度(a degree of registration)を求める。
任意選択で、ユーザは、2つの3D表示画像が位置合わせされているか、および/または略位置合わせされているかを示す。
いくつかの実施形態において、ユーザは、2つの3D表示画像を解放し、または把持するのをやめて、2つの3D表示画像上に点をマークする。この点は、ユーザの意図により、2つの3D表示画像の位置合わせに用いるものである。
いくつかの実施形態において、2つの3D表示画像はおおよそ位置合わせされていることがユーザによって示されると、コンピュータシステムが、2つの表示画像における同様の点を認識し、コンピュータシステムは、2つの画像における同じ点が最大近似となるように、および/または2つの表示画像の重なり合いが最大となるように、2つの画像を置く。
なお、この位置合わせは、任意選択で、1つ以上の表示オブジェクトを平行移動および/または回転および/またはズームすることを含む。
一実施形態の一実装例において、上記したように、ユーザは、任意選択で、2つの表示画像について上記の操作を行うが、この2つの表示画像は、同じオブジェクトの医用画像であって、異なる収集システムから得た画像間を任意選択で位置合わせしたものである。
半自動式位置合わせおよび位置合わせの表示:
いくつかの実施形態において、ユーザは、オブジェクトの第1の3D表示画像上の複数の点、同じオブジェクトの第2の3D表示画像上において各点に対応する複数のオブジェクトをマークし、コンピュータシステムは、任意選択で、オブジェクトの第1表示画像を、任意選択で、移動および/または回転および/またはズームして、同じオブジェクトの第2の表示画像と重ね合わせて位置合わせする。
いくつかの実施形態において、ユーザは、3D表示空間において点をマークすることに関連して前述したように、ツールを用いてマークを行い、コンピュータシステムは、上記のようにして位置合わせを行う。
一実施形態の一実装例において、ユーザは、2つの異なる時点で撮像された、鼓動している心臓の2つの3D画像を、任意選択で、相互に位置合わせする。ある実施例において、心電図(electro-cardiogram(ECG))信号を用いて、心臓の鼓動周期中のどの段階でこれら2つの鼓動する心臓の3D画像が撮像されたかを判別する。
一実施形態の一実装例において、上記したように、ユーザは、任意選択で、2D画像を3D画像に相互に位置合わせする。この場合、2D画像は、潜在的に、3D画像とは異なる様式(modality)で撮像する。ユーザは、任意選択で、2D画像上の特定の点に対応する、3D画像上における点をマークする。
3Dユーザインタフェースコマンドの一実施形態−3Dシーンを探査すること、または3Dシーン内の視点を動かすこと
いくつかの実施形態において、ユーザインタフェースにより、ユーザは、3Dシーンにおける点および方向をマークし、マークした点および指示した方向から見た3Dを表示させる入力をディスプレイに与えることで、3Dシーンを探査することが可能となる。
いくつかの実施形態において、長尺の入力オブジェクトを表示空間に挿入することにより、3Dシーンにおいて点および方向を上記のようにマークする。オブジェクトの挿入については、点をマークすることおよび方向を指示することに関して先に記載した通りである。
いくつかの実施形態において、追跡システムにより、入力オブジェクトの位置および向きを経時的に追跡し、当該入力オブジェクトの位置および向きの変化に応じて、視点および視線方向を変更する。
いくつかの実施形態において、上記の方法を実施することにより、ユーザは、3Dシーンを見る際の視点を、当該3Dシーン外の視点から当該3Dシーン中の視点へと切り替えることが可能になる。
いくつかの実施形態において、上記の方法を実施することにより、ユーザは、3Dシーン中の視点を入力オブジェクトが示すパスに沿って移動して、あたかも3Dシーン中の当該パスに沿って進んでいるかのように3Dシーンを見ることができる。
いくつかの実施形態において、上記の方法を実施することにより、ユーザは、3Dシーン中の視点を3Dシーン中の既定のパスに沿って移動するが、ここで、パスをマークすることは、任意選択で、上記の通り行ってもよい。
非限定的な例として、ステントを挿入するためのパスに沿った視線方向は、任意選択で、ステントの先端を伝達する方向となるように選択する。観察者には、GPSシステムにおいて用いる「正面(head-on)ナビゲーション」と同様、伝達するステント(仮想ステント画像または当該3D医用画像に挿入された実ステント)を擁する3D医用画像を提示するが、この場合、マップが、観察者の向きに応じて(例えば、北を基準として)回転する。
3Dユーザインタフェースコマンドの一実施形態例−シーンの一部分または3Dオブジェクトを選択すること、および他のシステムに情報を送信すること
いくつかの実施形態において、上記の3Dユーザインタフェースを用いて、3Dシーンにおける1つ以上のオブジェクトを選択するか、または、3Dシーンの一部分を選択し、当該オブジェクトまたはシーンの当該部分についての情報を他のシステムに送信する。
いくつかの実施形態において、この情報は、当該オブジェクトまたはシーン部分を表示するためのデータであってもよい。
いくつかの実施形態において、この情報は、当該オブジェクトまたはシーン部分の座標とすることができ、任意選択で、他のデータシステムからの当該オブジェクトまたはシーン部分に関するデータ要請を含む。非限定的な例として、当該オブジェクトまたはシーン部分を表示するためのより高い解像度のデータを要請するものである。別の非限定的な例として、例えば医用システム等のシステムに当該オブジェクトまたはシーン部分を記憶することを要請するものである。
3Dユーザインタフェースコマンドの一実施形態例−3Dシーンを回転すること
いくつかの実施形態において、入力空間における入力オブジェクトの追跡に少なくとも部分的に基づいて、3Dシーン全体を回転する。入力オブジェクトを入力空間に挿入して回転する。3Dシーンは、入力オブジェクトにより上記のように画定された方向に対応する軸周りに、入力オブジェクトの回転角に相当する角度で回転する。入力オブジェクトは、任意選択で、手またはツールであってもよい。
3Dユーザインタフェースコマンドの一実施形態例−医用システム等のインタフェースとなること
CT等の3D医用データが既に取得され存在している種々の医用システム、例えば、コンピュータ断層撮影(CT)、核磁気共鳴画像法(MRI)、電気生理学3Dマッピングシステム(例えば、バイオセンスウェブスター社製CARTO(登録商標)3システム等)、超音波(US)、および3D回転血管造影(3DRA)等は、本発明の一実施形態による3Dディスプレイおよび3Dインタフェースを用いることにより潜在的に利益を得る。3D取得システム用のユーザインタフェースが含む機能は、たとえキーボード等のものであっても、3Dユーザインタフェースの各実施形態に任意選択で伝送される。
一機能例として、多断面再構成または多断面再フォーマット(MPR)が挙げられる。この用語は、医用撮像等において用いられ、コロナル面およびサジタル面における各画像を、元のアキシャルデータセットと連動して再構成することをいう。この機能は、一実施形態例によれば、任意選択で、3D画像における点をマークすることにより、また3Dインタフェースによって3D画像を自動的にスライスすることにより提供され、この機能により、当該点においてコロナル面およびサジタル面を表示する。このような機能は、非限定的な例として、例えばMRIおよびCT等において、潜在的に有用である。
一機能例として、3D画像表示用に用いるガンマ関数を変更すること、すなわち、3D画像の表示のコントラストを変更することによってヒストグラムを変更するコマンドを与えた後に、3D画像を横切って手またはツールを動かすことにより、画像品質調整用の入力を与えることが挙げられる。このような機能は、非限定的な例としての例えば3DRA、CT、おおよびMRI等において、潜在的に有用である。
一機能例として、CT画像等においてウィンドウ値と称するものを選択することにより、画像品質調整用の入力を与えることが挙げられる。3D画像の画質は、任意選択で、ボクセルグレー値の特定の値間で向上する。このウィンドウ値またはグレー値の範囲を任意選択で用いて、特定のオブジェクト、医用画像等の場合は、脳、肺、骨等の特定の医学的器官等の画質を向上する。いくつかの実施形態において、画質向上用のグレー値を有するウィンドウは、任意選択で、ウィンドウメニューから選択することにより規定する。いくつかの実施形態において、ウィンドウは、任意選択で、手またはツールの動きでウィンドウに対するトップレベルおよびボトムレベルを定義することにより規定し、または、マウス等の外部入力を用いてウィンドウに対するトップレベルおよびボトムレベルを定義することにより規定する。
一機能例として、3D医用画像中に表示しようとする臓器または医学的器官を選択することが挙げられ、非限定的な例として、CT画像において、脈管系を表示せずに骨を表示すること等がある。
一機能例として、3Dディスプレイにより表示されたタイムラインに沿って手、指、またはツールを動かすことにより3D立体ループ全体をスクロールすることが挙げられる。このような機能は、非限定的な例として、3D超音波、ライブX線画像および3D超音波画像を、高速解剖学的マッピングの心臓血管処置用にリアルタイムで集約するエコーナビゲータシステム(Echo Navigator system)(オランダ・ロイヤルフィリップスエレクトロニクス社製)等の2つ以上の様式から得られる集約画像、および、あらかじめ入手したCTによる3D画像にわたって心臓の3D電気マッピングを集約するCARTO(登録商標)3システム(バイオセンスウェブスター社製)による表示等において、潜在的に有用である。このような各システムにおいて、観察者は、任意選択で、表示3D画像中において点を動かすことが可能であり、取得モジュールにおいてその位置を変更する。
一機能例として、3D医用画像中に表示しようとする臓器または医学的器官を選択し、また、その色およびハイライトの種類を選択することが挙げられる。非限定的な例として、この機能は「臓器クロッピング」と称され、CT画像において脈管系を表示せずに骨を表示するものである。
一機能例として、選択したボリュームまたはオブジェクトまたは医学的器官または医学的臓器の表面積を測定することが挙げられる。任意選択で、選択したオブジェクトの表面を、エッジ検出により自動的に検出する。このような機能は、非限定的な例として、CTおよび3DRAにおいて、潜在的に有用である。
一機能例として、表示オブジェクトを3D医用画像にはめ込むことが挙げられ、例えば、非限定的な例として、経カテーテル大動脈弁植え込み術(TAVI)用の弁をはめ込むことが挙げられる。適正にはめ込まれた弁は、潜在的に、TAVI後の弁周囲の漏れを防ぐ。
一機能例として、2つの画像を位置合わせすること、すなわちスーパーインポーズすること(相互位置合わせ)が挙げられる。非限定的な例として、このような機能は、多様な画像を扱うときに、潜在的に役立つ。例えば、前述した非特許文献1および/または前述した非特許文献2に記載されるような、例えば、CTによってあらかじめ得た左心房/電気解剖学的マップ/超音波2dまたは3dTEEまたはICEを用いて行う、手続き間3D−RAによる左心房のAFIB位置合わせ等において、半自動式位置合わせを実施する際に有用である。
一機能例として、2次元X線平面等を、例えばエコーナビゲータシステム(EchoNavigator system)(オランダ・ロイヤルフィリップスエレクトロニクス社製)から得た3次元超音波画像等と相互に位置合わせすることが挙げられる。
一機能例として、仮想弁画像をCT/3DRA画像上に移動して、TAVI用の弁配置を評価することによる位置測定(localization)が挙げられる。
3Dユーザインタフェースコマンドの一実施形態例−表示されたモデルと相互作用すること
いくつかの実施形態において、表示されている3Dシーンまたはオブジェクトは、例えば、医学的器官、エンジン、風洞中の航空機、コンピュータゲーム等の動的システムのコンピュータモデルであり、ユーザは、3D画像中で手、指、またはツールを動かしてモデルと相互作用し、モデルにおいて動作を生じさせ、3Dディスプレイによって当該動作を表示させる。
いくつかの非例示的な例として、次のようなものが挙げられる:
脈管系のモデル内に指を挿入して、3Dディスプレイは、任意選択で、血管造影図において造影剤によって血流をハイライトするやり方と同様に、当該脈管系を指の下流に向かって徐々にハイライトすること;
指を脈管系のモデルに挿入することができ、3Dディスプレイは、任意選択で、指の指し示す位置で血流が止まったことを示すこと;
指を脈管系のモデルに挿入して、(本明細書の別の箇所で説明したように)血管壁を押すことができ、3Dディスプレイは、任意選択で、血流モデルの血管を拡大して示すこと;および
指を脈管系のモデルに挿入して、(本明細書の別の箇所において説明したように押すことにより)指を使って血管壁をつまむ(締め付ける)ことができ、3Dディスプレイは、任意選択で、つまんだ血管と共に血流モデルを示すこと、等である。
本明細書のいくつかの実施形態例についてのさらなる説明
ここで図5Aを参照する。図5Aは、本発明の一実施形態例の簡略フローチャートである。
図5Aは、3次元(3D)ユーザインタフェースを提供する方法を示し、該方法は、
前記3Dユーザインタフェースの入力空間内から少なくとも部分的にユーザ入力を受信することであって、前記入力空間は3Dシーンの表示空間と対応付けられていることを特徴とする、受信すること(501)、
前記ユーザ入力を前記3Dシーンに対して評価すること(502)、および
前記ユーザ入力に基づき前記3Dシーンを変更すること、を含む。
ここで図5Bを参照する。図5Bは、本発明の一実施形態例の簡略フローチャートである。
図5Bは、3Dシーンの表示に対するユーザ入力を受信する方法を示し、該方法は、
入力空間中に3Dシーンを表示すること(511)、
前記表示空間と対応付けられた前記入力空間をモニタして、前記入力空間中の入力オブジェクトの位置を監視すること(512)、
入力空間における前記入力オブジェクトの1つ以上の点の位置を測定すること(513)、および
入力空間における前記入力オブジェクトの1つ以上の点の前記位置を3Dシーンに対するユーザ入力と対応付けること(514)、とを含む。
3Dユーザインタフェースを使用するいくつかの例
いくつかの実施形態において、3Dインタフェースをナチュラルインタフェースとして用いて、医用データおよび画像を閲覧するか、または治療計画を立てる。
非限定的な例として、アブレーション用ロードマップ、すなわち、被験者上の焼灼点(ablation points)の選択は、身体の3D画像上に焼灼点をマークする3Dインタフェースを用いて呈示する。
非限定的な例として、3Dシーンにおいて3Dオブジェクトの選択、および3Dオブジェクトの測定は、当然、3Dディスプレイ環境を介して行われる。
本願から発達する特許の継続期間中に、多くの関連する3Dディスプレイが開発されるであろうことが予期されるが、3Dディスプレイという用語の範囲は、そのような新しい技術をすべて先験的に(a priori)含むことを意図したものである。
本願から発達する特許の継続期間中に、多くの関連するアイトラッキング/観察者トラッキング/オブジェクトトラッキング技術が開発されるであろうことが予期されるが、アイトラッキングおよび観察者トラッキングおよびオブジェクトトラッキングという用語の範囲はそのあらゆる文法形において、そのような新しい技術をすべて先験的に(a priori)含むことを意図したものである。
本明細書において使用する用語「約(about)」は、±10%を示す。
用語「含む(comprising)」、「含む(including)」、「有する(having)」およびその活用形は、「含むが、それに限定されない」ということを意味する。
用語「からなる(consisting of)」は、「含み、それに限定される」を意味することを意図したものである。
用語「実質的に成る(consisting essentially of)」は、その組成、方法、または構造が、追加の成分、ステップ、および/またはコンポーネントを含みうるが、当該追加の成分、ステップ、および/またはコンポーネントが請求の範囲に記載した組成、方法、または構造を物質的に変更しない限りにおいて、含みうることを意味する。
本明細書において使用する、単数形(冠詞)の「a」、「an」、および「the」は、文脈により別途規定されてない場合には、複数形にも言及するものである。例えば、用語「ユニット」または「少なくとも1つのユニット」は、複数のユニットおよびその組み合わせを含みうる。
本明細書において使用する語「例(example)」および「例示的な(exemplary)」は、「例、例証(instance)、または説明(illustration)として機能すること」を意味する。実施形態「例(example)」または「例示的な(exemplary)」実施例と記載された実施形態は、いずれも、その他の実施形態よりも好ましいまたは有利なものと解釈されるものではなく、および/またはその他の実施形態からの特徴点を組み込むことを除外するものではない。
本明細書において使用する語「任意選択で(optionally)」は、「いくつかの実施形態においては設けるが、他の実施形態においては設けない」ことを意味する。本発明の特定の実施形態は、いずれも、「任意選択の」特徴点を、その各特徴点が相反しない限りにおいて、備えることができる。
本願全体を通して、本発明の種々の実施形態を、範囲表示形式において(in a range format)、提示されることがあるが、範囲表示形式による記載は、単に便宜と簡潔さのためのものである理解されるべきであり、本発明の範囲を不動の制約として解釈されるべきではない。したがって、範囲の記載は、可能な部分範囲のすべて、およびその範囲内にある各数値を具体的に開示したと考慮されるべきである。例えば、1から6までの範囲が記載されている場合には、1から3、1から4、1から5、2から4、2から6、3から6等という部分範囲、および、この範囲内にある各数字、例えば1、2、3、4、5、および6を具体的に開示したとみなされるべきである。このことは、範囲の幅に関係なく適用される。
本明細書において、数値範囲を表示するときはいつも、表示した範囲内に引用した任意の数値(分数または整数)を含むことを意味する。第1の呈示数値(indicate number)と第2の呈示数値と「の間におよぶ/変動する(ranging/ranges between)」という句、および、第1の呈示数値(indicate number)「から」第2の呈示数値「まで」「およぶ/変動する(ranging/ranges from)」という句は、本明細書において、交換可能に使用され、第1の呈示数値および第2の呈示数値、およびその間のすべての分数または整数を指すことを意図したものである。
本発明の特定の特徴は、明確にするために、別々の実施形態の文脈において説明したが、単一の実施形態において組み合わせて設けてもよいことが理解されよう。逆に、本発明の種々の特徴点は、簡潔さのため、単一の実施形態の文脈で説明したが、別々に、または任意の適切な部分組み合わせ(sub combination)として、または本明細書に記載した本発明の他のいかなる実施形態において適用可能なように設けてもよい。種々の実施形態の文脈において説明した特定の特徴点は、これらの特徴点なしに実施不能でない限り、各実施形態の本質的特徴と考えるべきものではない。
本発明をその特定の実施形態とともに説明したが、当業者にとって幾多の代替物、変更、および変形がはっきりと理解されるであろうことは明白である。したがって、そのような代替物、変更、および変形はすべて、添付の請求項に規定する趣旨および幅広い範囲に含まれることを意図したものである。
本明細書において言及した刊行物、特許、および特許出願は、個々の刊行物、特許、または特許出願を参照により本明細書に組み込むことを明確かつ個別に示されたのと同様な方法、程度で、ここにその全体を参照により本明細書に組み込む。さらに、本願におけるいかなる参照文献の引用または認定は、そのような参照文献が本発明の先行技術として利用可能であることを認めるものであるとみなすべきではない。セクション見出しを使用する点について、必ずしも限定とみなすべきではない。

Claims (51)

  1. 3次元(3D)ユーザインタフェースを提供する方法であって、
    前記3Dユーザインタフェースの入力空間であって、3Dシーンの表示空間と対応している入力空間内から、少なくとも部分的に、ユーザ入力を受け取ること、
    前記3Dシーンを基準として前記ユーザ入力を評価すること、および
    前記3Dシーンを前記ユーザ入力に基づき変更すること、
    を含む、方法。
  2. 前記入力空間は前記表示空間内に含まれている、請求項1に記載の方法。
  3. 前記入力空間は、前記表示空間と重なり合い、かつ範囲が同等である、請求項1に記載の方法。
  4. 前記3Dシーンはホログラフィにより作成する、請求項1に記載の方法。
  5. 前記3Dシーンはコンピュータ生成ホログラフィにより作成する、請求項1に記載の方法。
  6. 前記ユーザ入力は、前記ユーザが入力オブジェクトを前記入力空間内に置くことを含む、請求項1に記載の方法。
  7. 前記入力オブジェクトは前記ユーザの手を含む、請求項6に記載の方法。
  8. 前記ユーザ入力は、前記ユーザが前記手で形成する形状を含む、請求項7に記載の方法。
  9. 前記ユーザ入力はハンドジェスチャを含む、請求項7に記載の方法。
  10. 前記ユーザ入力は、入力オブジェクトの先端を前記入力空間内における一の位置に置くことにより、入力空間における位置に対応する位置を表示空間において選択することを含む、請求項6に記載の方法。
  11. 前記ユーザ入力は、前記入力オブジェクトの先端を入力空間内の複数の位置にわたって動かすことにより、該入力空間における前記複数の位置に対応する複数の位置を表示空間において選択することを含み、さらに、入力空間における前記複数の位置のそれぞれ一つずつに選択コマンドを付加することを含む、請求項10に記載の方法。
  12. 前記入力オブジェクトは複数の選択点を含み、
    前記ユーザ入力は、入力オブジェクトの前記複数の選択点を入力空間内の複数の位置に置くことにより、該入力空間における該複数の位置に対応する複数の位置を表示空間において選択することを含む、請求項6に記載の方法。
  13. 表示空間における前記選択された複数の位置で包囲したボリューム内に含まれるオブジェクトを表示空間において選択することをさらに含む、請求項11に記載の方法。
  14. 表示空間における位置の表示を視覚的に変更して、選択した位置を表示空間に表示することをさらに含む、請求項10に記載の方法。
  15. 入力空間において選択された位置に対応する位置を含む表示空間においてオブジェクトを選択することをさらに含む、請求項10に記載の方法。
  16. 前記入力オブジェクトは長尺の入力オブジェクトを含み、前記入力オブジェクトの長軸は、前記長軸を通り前記入力空間内に延在する線を画定すると解釈される、請求項6に記載の方法。
  17. 前記ユーザ入力は、表示空間に表示したオブジェクトの表面と前記線がどこで交差するかを判断することによって、表示空間における位置に対応する位置を入力空間において選択することを含む、請求項16に記載の方法。
  18. 表示オブジェクトの表面と前記線が表示空間において交差する位置の表示を表示空間において視覚的に変更して、表示空間において選択した位置を表示することをさらに含む、請求項17に記載の方法。
  19. 前記ユーザ入力は、前記線を用いて、回転コマンドを示すユーザ入力について回転軸を特定することを含む、請求項16に記載の方法。
  20. 前記ユーザ入力は、表示空間において2つの点の選択することを利用して表示空間における回転軸を特定することを含む、請求項12に記載の方法。
  21. 前記ユーザが前記入力オブジェクトを回転すること、および、前記入力オブジェクトの回転角に対応付けた角度で前記3Dシーンを回転することをさらに含む、請求項19に記載の方法。
  22. 表示空間における前記表示オブジェクトの位置に対応する、入力空間における位置に前記入力オブジェクトが移動する場合、表示空間における表示オブジェクトを表示空間において移動する、請求項6に記載の方法。
  23. 前記入力オブジェクト上の点が、表示空間における前記表示オブジェクトの位置に対応する位置であって、入力空間における位置に到達すると、前記入力オブジェクト上の前記点の移動速度を測定し、前記点における前記入力オブジェクトの表面に垂直なベクトルの方向を計算する、請求項6に記載の方法。
  24. 前記入力オブジェクト上の点が、表示空間における前記表示オブジェクトの位置に対応する位置であって、入力空間における位置に到達すると、前記表示オブジェクト上の前記点の移動速度を測定し、前記点における前記表示オブジェクトの表面に垂直なベクトルの方向を計算する、請求項6に記載の方法。
  25. 前記表示オブジェクトは、前記表示オブジェクト上の前記点において、前記入力オブジェクト上の前記点の前記測定した速度で、前記ベクトルの方向に、前記入力オブジェクトによってあたかも打たれたかのように移動して表示される、請求項23および24のいずれか一項に記載の方法。
  26. 表示空間における表示オブジェクトの表面上の複数の位置を選択することは、前記表示オブジェクトを把持するユーザ入力を含む、請求項12に記載の方法。
  27. 表示オブジェクトを表示空間において把持することにより、前記ユーザインタフェースによって表示空間中の前記表示オブジェクトを見つけ、前記入力オブジェクトの前記複数の選択点における表示オブジェクトの前記表面上の前記複数の位置を追跡する、請求項26に記載の方法。
  28. 3D表示空間に表示された3Dオブジェクトのボリュームを通って前記入力オブジェクトを移動させることにより、前記3Dオブジェクトの形状を変更すること、および前記3Dオブジェクトにおいて前記ボリュームを前記3Dオブジェクトからマイナスして表示すること、をさらに含む、請求項1に記載の方法。
  29. 3D表示空間に表示された3Dオブジェクトのボリュームの少なくとも一部分を通過して前記入力オブジェクトを移動させること、およびボリュームの前記一部分を前記3Dオブジェクトからマイナスして表示すること、をさらに含む、請求項28に記載の方法。
  30. 前記3Dオブジェクトを表示することは、前記入力オブジェクトの有効領域(active region)が通ったボリュームの一部分のみを前記3Dオブジェクトからマイナスして表示することを含む、請求項29に記載の方法。
  31. 前記入力オブジェクトを前記入力ボリュームの少なくとも一部分に通過させること、および、前記入力ボリュームの前記一部分に対応する、表示空間に表示したオブジェクトを前記3Dシーンにプラスして表示することをさらに含む、請求項28に記載の方法。
  32. 前記3Dオブジェクトを表示することは、前記入力オブジェクトの有効領域が通過したボリュームの一部分のみを前記3Dオブジェクトにプラスして表示することを含む、請求項31に記載の方法。
  33. 3Dオブジェクトについての明細を3Dプリンタに送信することをさらに含む、請求項28に記載の方法。
  34. 前記ユーザ入力は、さらに、入力空間において指を追跡することにより、前記指を鳴らすことを検出することを含む、請求項1に記載の方法。
  35. 前記ユーザ入力は、さらに、
    ボイスコマンド、
    頭部運動、
    マウスクリック、
    キーボード入力、および
    ボタン押下、
    からなる群から選択した少なくとも1つの追加のユーザ入力を含む、請求項1に記載の方法。
  36. 前記選択した複数の位置を通過するパスに沿った距離を表示空間において測定することをさらに含む、請求項11に記載の方法。
  37. 表示空間における前記複数の選択した位置は、表示空間における3Dオブジェクトの表面上にあり、表示空間において、前記複数の選択した点で包囲した前記3Dオブジェクトの前記表面上のエリアを測定することをさらに含む、請求項11に記載の方法。
  38. 前記選択したオブジェクトのボリュームを測定することをさらに含む、請求項13および15のいずれか一項に記載の方法。
  39. 第1の画像における複数の点および第2の3D画像における複数の点を選択すること、および第1の画像および第2の3D画像を位置合わせすること、をさらに含む、請求項1に記載の方法。
  40. 第1の画像は2D画像である、請求項39に記載の方法。
  41. 第1の画像は3D画像である、請求項39に記載の方法。
  42. 少なくとも、前記選択した複数の点が表示空間において実質的に一致するように、第1の画像および第2の3D画像を表示することをさらに含む、請求項39に記載の方法。
  43. 3D表示空間に3Dシーンを表示するユニットと、
    3D入力空間における入力オブジェクトの3D座標を追跡するユニットと、
    コンピュータと、を備え、
    該コンピュータは、
    前記3D入力空間における前記入力オブジェクトの前記座標を受信し、
    前記3D入力空間における前記入力オブジェクトの前記座標をユーザ入力に変換し、および
    前記ユーザ入力に基づいて、前記3Dシーンの前記表示を変更する、
    3次元(3D)ユーザインタフェースを提供するシステム。
  44. 前記入力空間は、前記表示空間と重なり合い、かつ範囲が同等である、請求項43に記載のシステム。
  45. 3D(3次元)ディスプレイに入力を提供する方法であって、
    入力オブジェクトを、前記3Dディスプレイのボリュームを有する入力空間に挿入すること、
    前記入力空間内において前記入力オブジェクトの位置を追跡すること、
    前記追跡することに基づいて、前記3Dディスプレイにより表示された3Dシーンを変更すること、を含む方法において、
    前記位置を追跡することは、ジェスチャを解釈することを含む、方法。
  46. 入力オブジェクトは手であり、ジェスチャは、前記3Dディスプレイにより表示されたオブジェクトの表面上の一の位置に指を置くことを含む、請求項45に記載の方法。
  47. 入力オブジェクトは手であり、ジェスチャは、前記3Dディスプレイにより表示されたオブジェクトの表面上の同じ位置に、前記手の複数の指をそろえて置くことを含む、請求項45に記載の方法。
  48. 入力オブジェクトは手であり、ジェスチャは、前記手の3本の指を3D入力空間における略垂直な3本の軸の形状とすること、および前記略垂直な3本の軸のうちの1本を中心に前記手を回転させることを含む、請求項45に記載の方法。
  49. 入力オブジェクトは手であり、ジェスチャは、前記3Dディスプレイにより表示されたオブジェクトの表面上の異なる位置に、前記手の複数の指を置くことを含む、請求項45に記載の方法。
  50. 前記3Dシーンを変更することは、前記入力オブジェクトの前記位置の移動に伴って移動する位置において前記3Dシーンを変更することを含む、請求項45に記載の方法。
  51. 前記3Dシーンはコンピュータ化モデルを含み、
    前記3Dシーンを変更することは、
    前記入力オブジェクトの前記位置に少なくとも部分的に基づいて、前記モデルについてパラメータを設定すること、
    前記パラメータに少なくとも部分的に基づいて、前記モデルを表示すること、を含む、
    請求項45に記載の方法。
JP2016524941A 2013-07-10 2014-07-10 3次元ユーザインタフェース Pending JP2016524262A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361844503P 2013-07-10 2013-07-10
US61/844,503 2013-07-10
PCT/IL2014/050626 WO2015004670A1 (en) 2013-07-10 2014-07-10 Three dimensional user interface

Publications (2)

Publication Number Publication Date
JP2016524262A true JP2016524262A (ja) 2016-08-12
JP2016524262A5 JP2016524262A5 (ja) 2017-08-17

Family

ID=52279421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016524941A Pending JP2016524262A (ja) 2013-07-10 2014-07-10 3次元ユーザインタフェース

Country Status (6)

Country Link
US (1) US20160147308A1 (ja)
EP (1) EP3019913A4 (ja)
JP (1) JP2016524262A (ja)
CA (1) CA2917478A1 (ja)
IL (1) IL243492A0 (ja)
WO (1) WO2015004670A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018088240A (ja) * 2016-11-24 2018-06-07 株式会社齋藤創造研究所 入力装置および画像表示システム
JP2019139306A (ja) * 2018-02-06 2019-08-22 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2019537459A (ja) * 2016-09-29 2019-12-26 シンバイオニクス リミテッド 仮想現実環境または拡張現実環境の中の手術室内での医療シミュレーションのための方法およびシステム
JP2020161006A (ja) * 2019-03-27 2020-10-01 株式会社ミクシィ オブジェクト姿勢制御プログラムおよび情報処理装置
WO2021140956A1 (ja) * 2020-01-08 2021-07-15 ソニーグループ株式会社 情報処理装置および方法
JP2021518498A (ja) * 2018-03-21 2021-08-02 ビュー, インコーポレイテッド 外部3dモデリングおよびスケジュールベースのコンピューティングを使用した制御方法およびシステム
JP2021136036A (ja) * 2020-02-27 2021-09-13 幻景▲ケイ▼動股▲フン▼有限公司 浮遊画像表示装置、浮遊画像との対話方法及び浮遊画像表示システム
JP2022028692A (ja) * 2017-04-28 2022-02-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理装置の制御方法、及びプログラム
JP7450289B2 (ja) 2021-11-30 2024-03-15 幻景▲ケイ▼動股▲フン▼有限公司 立体視画像に対する対話操作方法および立体視画像表示システム

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11264139B2 (en) * 2007-11-21 2022-03-01 Edda Technology, Inc. Method and system for adjusting interactive 3D treatment zone for percutaneous treatment
US9202297B1 (en) * 2011-07-12 2015-12-01 Domo, Inc. Dynamic expansion of data visualizations
US9792017B1 (en) 2011-07-12 2017-10-17 Domo, Inc. Automatic creation of drill paths
EP3107484B1 (en) 2014-02-21 2022-03-30 Trispera Dental Inc. Augmented reality dental design method and system
EP2957987A1 (en) * 2014-06-19 2015-12-23 Nokia Technologies OY A non-depth multiple implement input and a depth multiple implement input
WO2016103541A1 (ja) * 2014-12-25 2016-06-30 パナソニックIpマネジメント株式会社 投影装置
CN104932692B (zh) * 2015-06-24 2017-12-08 京东方科技集团股份有限公司 三维触摸感测方法、三维显示设备、可穿戴设备
WO2017145158A1 (en) 2016-02-22 2017-08-31 Real View Imaging Ltd. Zero order blocking and diverging for holographic imaging
US10795316B2 (en) 2016-02-22 2020-10-06 Real View Imaging Ltd. Wide field of view hybrid holographic display
US11663937B2 (en) 2016-02-22 2023-05-30 Real View Imaging Ltd. Pupil tracking in an image display system
US10788791B2 (en) 2016-02-22 2020-09-29 Real View Imaging Ltd. Method and system for displaying holographic images within a real object
WO2017145156A2 (en) 2016-02-22 2017-08-31 Real View Imaging Ltd. Holographic display
US20170255580A1 (en) * 2016-03-02 2017-09-07 Northrop Grumman Systems Corporation Multi-modal input system for a computer system
CA3016346A1 (en) 2016-03-21 2017-09-28 Washington University Virtual reality or augmented reality visualization of 3d medical images
US10118696B1 (en) 2016-03-31 2018-11-06 Steven M. Hoffberg Steerable rotating projectile
WO2017192746A1 (en) 2016-05-03 2017-11-09 Affera, Inc. Medical device visualization
WO2017197114A1 (en) 2016-05-11 2017-11-16 Affera, Inc. Anatomical model generation
US20170325901A1 (en) 2016-05-12 2017-11-16 Affera, Inc. Anatomical model controlling
WO2018011105A1 (en) * 2016-07-13 2018-01-18 Koninklijke Philips N.V. Systems and methods for three dimensional touchless manipulation of medical images
WO2018067130A1 (en) * 2016-10-04 2018-04-12 Hewlett-Packard Development Company, L.P. Three-dimensional input device
SK289010B6 (sk) * 2016-10-17 2022-11-24 Ústav experimentálnej fyziky SAV, v. v. i. Spôsob interaktívnej kvantifikácie digitalizovaných 3D objektov pomocou kamery snímajúcej pohľad
CN108268120B (zh) * 2016-12-29 2020-07-28 同方威视技术股份有限公司 基于vr或ar的图像数据处理方法、设备和安检系统
US10102665B2 (en) * 2016-12-30 2018-10-16 Biosense Webster (Israel) Ltd. Selecting points on an electroanatomical map
US10691066B2 (en) * 2017-04-03 2020-06-23 International Business Machines Corporation User-directed holographic object design
AU2018266132A1 (en) * 2017-05-09 2019-10-10 Boston Scientific Scimed, Inc. Operating room devices, methods, and systems
WO2018211494A1 (en) * 2017-05-15 2018-11-22 Real View Imaging Ltd. System with multiple displays and methods of use
EP3556702A1 (en) 2018-03-13 2019-10-23 Otis Elevator Company Augmented reality car operating panel
JP6847885B2 (ja) * 2018-03-20 2021-03-24 株式会社東芝 情報処理装置、情報処理方法及びプログラム
US11712637B1 (en) 2018-03-23 2023-08-01 Steven M. Hoffberg Steerable disk or ball
US11062527B2 (en) 2018-09-28 2021-07-13 General Electric Company Overlay and manipulation of medical images in a virtual environment
US10691418B1 (en) * 2019-01-22 2020-06-23 Sap Se Process modeling on small resource constraint devices
US11507019B2 (en) * 2019-02-23 2022-11-22 Microsoft Technology Licensing, Llc Displaying holograms via hand location
US11170576B2 (en) 2019-09-20 2021-11-09 Facebook Technologies, Llc Progressive display of virtual objects
US11176745B2 (en) 2019-09-20 2021-11-16 Facebook Technologies, Llc Projection casting in virtual environments
US10991163B2 (en) 2019-09-20 2021-04-27 Facebook Technologies, Llc Projection casting in virtual environments
US10802600B1 (en) * 2019-09-20 2020-10-13 Facebook Technologies, Llc Virtual interactions at a distance
US11086406B1 (en) 2019-09-20 2021-08-10 Facebook Technologies, Llc Three-state gesture virtual controls
US11189099B2 (en) 2019-09-20 2021-11-30 Facebook Technologies, Llc Global and local mode virtual object interactions
US11086476B2 (en) * 2019-10-23 2021-08-10 Facebook Technologies, Llc 3D interactions with web content
US11175730B2 (en) 2019-12-06 2021-11-16 Facebook Technologies, Llc Posture-based virtual space configurations
US11475639B2 (en) 2020-01-03 2022-10-18 Meta Platforms Technologies, Llc Self presence in artificial reality
US11209573B2 (en) 2020-01-07 2021-12-28 Northrop Grumman Systems Corporation Radio occultation aircraft navigation aid system
WO2021161302A1 (en) 2020-02-14 2021-08-19 Simbionix Ltd. Airway management virtual reality training
US11257280B1 (en) 2020-05-28 2022-02-22 Facebook Technologies, Llc Element-based switching of ray casting rules
US11194402B1 (en) * 2020-05-29 2021-12-07 Lixel Inc. Floating image display, interactive method and system for the same
US11256336B2 (en) 2020-06-29 2022-02-22 Facebook Technologies, Llc Integration of artificial reality interaction modes
CN112015268A (zh) * 2020-07-21 2020-12-01 重庆非科智地科技有限公司 基于bim的虚实交互的交底方法及装置、系统和存储介质
US11227445B1 (en) 2020-08-31 2022-01-18 Facebook Technologies, Llc Artificial reality augments and surfaces
US11176755B1 (en) 2020-08-31 2021-11-16 Facebook Technologies, Llc Artificial reality augments and surfaces
US11178376B1 (en) 2020-09-04 2021-11-16 Facebook Technologies, Llc Metering for display modes in artificial reality
US11514799B2 (en) 2020-11-11 2022-11-29 Northrop Grumman Systems Corporation Systems and methods for maneuvering an aerial vehicle during adverse weather conditions
US11113893B1 (en) 2020-11-17 2021-09-07 Facebook Technologies, Llc Artificial reality environment with glints displayed by an extra reality device
US11461973B2 (en) 2020-12-22 2022-10-04 Meta Platforms Technologies, Llc Virtual reality locomotion via hand gesture
US11409405B1 (en) 2020-12-22 2022-08-09 Facebook Technologies, Llc Augment orchestration in an artificial reality environment
CN112862751B (zh) * 2020-12-30 2022-05-31 电子科技大学 一种用于自闭症的自动诊断装置
US11294475B1 (en) 2021-02-08 2022-04-05 Facebook Technologies, Llc Artificial reality multi-modal input switching model
US11295503B1 (en) 2021-06-28 2022-04-05 Facebook Technologies, Llc Interactive avatars in artificial reality
US11762952B2 (en) 2021-06-28 2023-09-19 Meta Platforms Technologies, Llc Artificial reality application lifecycle
US12008717B2 (en) 2021-07-07 2024-06-11 Meta Platforms Technologies, Llc Artificial reality environment control through an artificial reality environment schema
US11798247B2 (en) 2021-10-27 2023-10-24 Meta Platforms Technologies, Llc Virtual object structures and interrelationships
US11748944B2 (en) 2021-10-27 2023-09-05 Meta Platforms Technologies, Llc Virtual object structures and interrelationships
US11947862B1 (en) 2022-12-30 2024-04-02 Meta Platforms Technologies, Llc Streaming native application content to artificial reality devices
US11991222B1 (en) 2023-05-02 2024-05-21 Meta Platforms Technologies, Llc Persistent call control user interface element in an artificial reality environment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010539590A (ja) * 2007-09-14 2010-12-16 インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー ジェスチャベースのユーザインタラクションの処理
US20110107270A1 (en) * 2009-10-30 2011-05-05 Bai Wang Treatment planning in a virtual environment
JP2011159273A (ja) * 2010-01-29 2011-08-18 Pantech Co Ltd ホログラムを利用したユーザインターフェース装置
JP2011527760A (ja) * 2008-07-10 2011-11-04 リアル ビュー イメージング リミテッド 広視野角ディスプレイおよびユーザインタフェース
JP2012108826A (ja) * 2010-11-19 2012-06-07 Canon Inc 表示制御装置及び表示制御装置の制御方法、プログラム
JP2013045255A (ja) * 2011-08-23 2013-03-04 Kyocera Corp 表示機器

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6031519A (en) * 1997-12-30 2000-02-29 O'brien; Wayne P. Holographic direct manipulation interface
US7490941B2 (en) * 2004-08-30 2009-02-17 California Institute Of Technology Three-dimensional hologram display system
EP1851750A4 (en) * 2005-02-08 2010-08-25 Oblong Ind Inc SYSTEM AND METHOD FOR CONTROL SYSTEM BASED ON GESTURES
US20090280916A1 (en) * 2005-03-02 2009-11-12 Silvia Zambelli Mobile holographic simulator of bowling pins and virtual objects
US8233206B2 (en) * 2008-03-18 2012-07-31 Zebra Imaging, Inc. User interaction with holographic images
KR20100088094A (ko) * 2009-01-29 2010-08-06 삼성전자주식회사 다중 입력 소스를 이용한 오브젝트 조작 장치
US8400398B2 (en) * 2009-08-27 2013-03-19 Schlumberger Technology Corporation Visualization controls
EP2390772A1 (en) * 2010-05-31 2011-11-30 Sony Ericsson Mobile Communications AB User interface with three dimensional user input
GB201009182D0 (en) * 2010-06-01 2010-07-14 Treadway Oliver Method,apparatus and system for a graphical user interface
CN103415255B (zh) * 2011-02-24 2020-02-07 皇家飞利浦电子股份有限公司 利用血管内装置形状对血管图像进行非刚性体变形
US8823639B2 (en) * 2011-05-27 2014-09-02 Disney Enterprises, Inc. Elastomeric input device
WO2013093837A1 (en) * 2011-12-23 2013-06-27 Koninklijke Philips Electronics N.V. Method and apparatus for interactive display of three dimensional ultrasound images
KR101950939B1 (ko) * 2012-09-13 2019-02-22 삼성전자주식회사 홀로그래픽 객체 처리 장치 및 그 동작 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010539590A (ja) * 2007-09-14 2010-12-16 インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー ジェスチャベースのユーザインタラクションの処理
JP2011527760A (ja) * 2008-07-10 2011-11-04 リアル ビュー イメージング リミテッド 広視野角ディスプレイおよびユーザインタフェース
US20110107270A1 (en) * 2009-10-30 2011-05-05 Bai Wang Treatment planning in a virtual environment
JP2011159273A (ja) * 2010-01-29 2011-08-18 Pantech Co Ltd ホログラムを利用したユーザインターフェース装置
JP2012108826A (ja) * 2010-11-19 2012-06-07 Canon Inc 表示制御装置及び表示制御装置の制御方法、プログラム
JP2013045255A (ja) * 2011-08-23 2013-03-04 Kyocera Corp 表示機器

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"CG映像 素手で操作", 月刊E・コロンブス, vol. 第33巻, JPN6018011114, 28 April 2007 (2007-04-28), pages 36, ISSN: 0003908390 *
DAVID M. BOURG, ゲーム開発のための物理シミュレーション入門, vol. 第1版, JPN6018011112, 25 July 2003 (2003-07-25), pages 89 - 97, ISSN: 0003908389 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7055988B2 (ja) 2016-09-29 2022-04-19 シンバイオニクス リミテッド 仮想現実環境または拡張現実環境の中の手術室内での医療シミュレーションのための方法およびシステム
JP2019537459A (ja) * 2016-09-29 2019-12-26 シンバイオニクス リミテッド 仮想現実環境または拡張現実環境の中の手術室内での医療シミュレーションのための方法およびシステム
JP2018088240A (ja) * 2016-11-24 2018-06-07 株式会社齋藤創造研究所 入力装置および画像表示システム
JP7209310B2 (ja) 2016-11-24 2023-01-20 株式会社齋藤創造研究所 入力装置および画像表示システム
JP2021180019A (ja) * 2016-11-24 2021-11-18 株式会社齋藤創造研究所 入力装置および画像表示システム
US11896893B2 (en) 2017-04-28 2024-02-13 Sony Interactive Entertainment Inc. Information processing device, control method of information processing device, and program
US11617942B2 (en) 2017-04-28 2023-04-04 Sony Interactive Entertainment Inc. Information processing device, control method of information processing device, and program
JP2022028692A (ja) * 2017-04-28 2022-02-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理装置の制御方法、及びプログラム
JP2019139306A (ja) * 2018-02-06 2019-08-22 富士ゼロックス株式会社 情報処理装置及びプログラム
JP7260222B2 (ja) 2018-03-21 2023-04-18 ビュー, インコーポレイテッド 外部3dモデリングおよびスケジュールベースのコンピューティングを使用した制御方法およびシステム
JP2021518498A (ja) * 2018-03-21 2021-08-02 ビュー, インコーポレイテッド 外部3dモデリングおよびスケジュールベースのコンピューティングを使用した制御方法およびシステム
JP7299478B2 (ja) 2019-03-27 2023-06-28 株式会社Mixi オブジェクト姿勢制御プログラムおよび情報処理装置
JP2020161006A (ja) * 2019-03-27 2020-10-01 株式会社ミクシィ オブジェクト姿勢制御プログラムおよび情報処理装置
WO2021140956A1 (ja) * 2020-01-08 2021-07-15 ソニーグループ株式会社 情報処理装置および方法
JP2021136036A (ja) * 2020-02-27 2021-09-13 幻景▲ケイ▼動股▲フン▼有限公司 浮遊画像表示装置、浮遊画像との対話方法及び浮遊画像表示システム
JP7450289B2 (ja) 2021-11-30 2024-03-15 幻景▲ケイ▼動股▲フン▼有限公司 立体視画像に対する対話操作方法および立体視画像表示システム

Also Published As

Publication number Publication date
WO2015004670A1 (en) 2015-01-15
IL243492A0 (en) 2016-02-29
CA2917478A1 (en) 2015-01-15
EP3019913A4 (en) 2017-03-08
US20160147308A1 (en) 2016-05-26
EP3019913A1 (en) 2016-05-18

Similar Documents

Publication Publication Date Title
JP2016524262A (ja) 3次元ユーザインタフェース
CN103793060B (zh) 一种用户交互系统和方法
TWI377055B (en) Interactive rehabilitation method and system for upper and lower extremities
JP5982542B2 (ja) 低侵襲外科システムにおいて手の存在を検出するための方法およびシステム
KR101791366B1 (ko) 증강된 가상 터치패드 및 터치스크린
Ruppert et al. Touchless gesture user interface for interactive image visualization in urological surgery
Hinckley Haptic issues for virtual manipulation
EP2755194A1 (en) 3D virtual training system and method
US20140267311A1 (en) Interacting with user interface via avatar
BR112012011277B1 (pt) dispositivo de rastreamento do dedo mestre e um método de uso num sistema cirúrgico minimamente invasivo
JP2013510673A (ja) 低侵襲外科システムにおけるハンドジェスチャー制御の方法および装置
US10433725B2 (en) System and method for capturing spatially and temporally coherent eye gaze and hand data during performance of a manual task
US10996814B2 (en) Tactile feedback in a display system
JP5431462B2 (ja) 仮想現実の制御
Long et al. Integrating artificial intelligence and augmented reality in robotic surgery: An initial dvrk study using a surgical education scenario
CN209392096U (zh) 一种手术导航系统
LIU et al. A preliminary study of kinect-based real-time hand gesture interaction systems for touchless visualizations of hepatic structures in surgery
CN109106448A (zh) 一种手术导航方法和装置
KR101903996B1 (ko) 의료 영상 시뮬레이션 방법 및 그 방법을 이용한 장치
JP5307060B2 (ja) 画像処理装置、画像処理方法、ならびに、プログラム
Ruppert et al. Touchless gesture user interface for 3D visualization using Kinect platform and open-source frameworks
Andersen et al. Ar interfaces for mid-air 6-dof alignment: Ergonomics-aware design and evaluation
Juanes et al. Practical applications of movement control technology in the acquisition of clinical skills
Zhou et al. The study of using eye movements to control the laparoscope under a haptically-enabled laparoscopic surgery simulation environment
CN108922300A (zh) 基于数字化人体模型的手术模拟3d系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170707

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170707

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180403

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181030