JP2009517728A - 画像の非接触操作方法 - Google Patents
画像の非接触操作方法 Download PDFInfo
- Publication number
- JP2009517728A JP2009517728A JP2008541877A JP2008541877A JP2009517728A JP 2009517728 A JP2009517728 A JP 2009517728A JP 2008541877 A JP2008541877 A JP 2008541877A JP 2008541877 A JP2008541877 A JP 2008541877A JP 2009517728 A JP2009517728 A JP 2009517728A
- Authority
- JP
- Japan
- Prior art keywords
- contact
- axis
- image
- input device
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本発明は非接触入力装置(210)を通して画像の非接触操作を与えるための方法に関し、この方法は、非接触入力装置の検知領域(206,208)の面に関する第1の軸に沿うユーザーの非接触相互作用に応答して画像の操作モード特性を選択することと、前記選択された操作モード特性に従い前記第1の軸に実質的に直交する第2の軸に沿うユーザーの非接触相互作用に応答して画像を操作することを有する。本発明は、更に、コンピュータプログラム、コンピュータ記録媒体、表示装置及び医療ワークステーションに関する。
Description
本発明は、コンピュータプログラム本発明は非接触入力装置により画像を非接触で操作する方法に関する。
本発明は、更に、コンピュータ装置によってロードされる非接触入力装置により画像の非接触入力を与えるための指令を有するコンピュータプログラムに関し、コンピュータは処理ユニットとメモリを備え、コンピュータプログラムはロードされた後、前記処理ユニットに画像の非接触操作を与えるタスクを実行する能力を与える。
本発明は、更に、画像の非接触操作を実行するデータを有するコンピュータにより読み取り可能な記録媒体に関する。
本発明は、更に、画像の非接触操作を実行するデータを有するコンピュータにより読み取り可能な記録媒体に関する。
本発明は、更に、画像を表示するディスプレイと画像の非接触操作を与えるための非接触入力装置とを有する表示装置に関し、非接触入力装置は画像の非接触操作を実行するように設計されたプロセッサを有している。
本発明は、更に、画像を表示する表示装置と画像の非接触操作を与えるための非接触入力装置を備える医療ワークステーションに関し、非接触入力装置は画像の非接触操作を実行するように設計されたプロセッサを有している。
非接触入力装置は良く知られている。例えば、米国特許出願2002/0000977 A1は、スクリーン面上の透明なシールド層上に形成された透明キャパシフレクタカメラ(capaciflector camera)を備える3次元対話型表示システムを開示しており、そのシステムはスクリーン面の近傍に入り込むプローブ又は指のような対象物を検知することができる。
米国特許第6,025,726号(特許文献1)は、非接触検知領域を与えるために電界検知が使用される容量型検知の代替技術を開示している。
米国特許第6,130,663号(特許文献2)には他の代替技術が開示され、ここでは、要素から空間的に離れた所定のフィールド内で指のような制御対象の存在に応答するコンピュータディスプレイのグラフィック要素のような制御される要素の光学的非接触駆動を与えるために電気−光学スキャナが使用される。
更に、非接触入力装置はユーザーのより進んだ応答を可能とする。例えば、米国特許出願2005/0088409(特許文献3)は、非接触入力装置の検知領域の面内におけるユーザーの手の位置に対応する位置にディスプレイ上にポインタを表示するステップを含むグラフィカル ユーザー インターフェース(GUI)のためのディスプレイを提供する、方法、コンピュータプログラム、コンピュータにより読み取り可能な記録媒体及び入力装置を開示している。特に、この方法は、更に、ユーザーの手と検知領域内又はこれに隣接して位置する基準点との間、或いは検知領域を通して又はこれに隣接して位置する第1の面に平行な基準面との間の距離をディスプレイ上で表示するステップを有している。指示を表示することにより、ユーザーはいかなる与えられた手の位置に対しても感度の表示が与えられ、表示されたポインタを操作することができる。この感度は、非接触入力装置がユーザーの手の位置を測ることができる精度によって決定される。この精度は手がディスプレイに近づく程増加し、手がディスプレイから遠くに動くと減少する。しかしながら、このことはユーザーの装置との相互作用の予測可能性を制限することとなる。
米国特許第6,025,726号
米国特許第6,130,663号
米国特許出願2005/0088409
本発明の目的は、ユーザーが非接触入力装置との相互作用の予測可能性を支配することを可能とする方法を提供することである。
この目的を達成するため、本発明は導入項による方法を提供するものであり、この方法は、非接触入力装置の検知領域面に対して第1の軸に沿うユーザーの非接触の相互作用に応答して画像による操作特性を選択することと、操作モードの選択された特性に従って前記第1の軸に実質的に直交する第2の軸に沿うユーザーの非接触相互作用に応答して画像を操作することを含む。操作モードの特性を非接触装置の検査領域の面に対する第1の軸に関連付けることにより、ユーザーは対象物、例えば手をその軸に沿って動かすことによりその特定の特性を変えることができる。したがって、対象物を画像の予測される操作を与える第2の軸に沿って動かすことによって、得られる操作モードを画像に適用することができる。
本発明による方法の更なる例においては、第2の軸は前記平面に対して実質的に平行である。ユーザーが相互作用モードを操作することを可能とする軸として前記平面に対して実質的に平行軸を使用することにより、どの動きが所望の画像の操作であるかユーザーにとって明らかとなる。
本発明による方法の更なる例においては、その方法は、操作モードの特性を表示することを含む。操作モードの特性を表示することにより、ユーザーは選択された特性に関する付加的なフィードバックと操作モードについてその結果を得ることができる。
本発明による方法の更なる例においては、操作モードの表示された特性はその特性の値に比例する。表示された特性をその値に比例させることにより、ユーザーは選択された特性に関して更なるフィードバックを得る。例えば、その特性が高い値を持つときは、表示される特性は大きなサイズを持ち、特性が低い値を持つときは、表示される特性は小さい値を持つ。
本発明による方法の更なる例においては、操作モードは、明るさ、コントラスト、ズーム又は回転の一つであり、特性はそれに対応するステップのサイズとなる。一つの軸に沿ってステップのサイズを設定し、操作モードに対して直交する軸を使用することにより、ユーザーは、対象物、例えば、指を対応する軸に沿って動かすことによる操作の実行と設定したステップのサイズとの関係を容易に識別することができる。
本発明の更なる目的は、ユーザーが、非接触入力装置との相互作用の予測可能性を支配することを可能とするコンピュータプログラムを提供することにある。この目的を達成するため、コンピュータ装置によってロードされるコンピュータプログラムを提供することにあり、このコンピュータプログラムは、非接触入力装置を通じて画像の非接触操作を与えるための指令を含み、コンピュータ装置は、プロセスユニット、メモリ、ロードされたコンピュータプログラムを有し、前記プロセスユニットには以下のタスクを実行する能力を有する:
非接触入力装置の面の検知領域に関して第1の軸に沿うユーザーの非接触相互作用に応答して画像の操作の特性を選択すること、及び、操作モードの選択された特性に従って前記第1の軸に直交する第2の軸に沿うユーザーの非接触の相互作用に応答して画像を操作すること。
非接触入力装置の面の検知領域に関して第1の軸に沿うユーザーの非接触相互作用に応答して画像の操作の特性を選択すること、及び、操作モードの選択された特性に従って前記第1の軸に直交する第2の軸に沿うユーザーの非接触の相互作用に応答して画像を操作すること。
本発明の更なる目的は、ユーザーが非接触入力装置との相互作用の予測可能性を支配することを可能とするコンピュータにより読み取り可能な記録媒体を提供することにあり、このコンピュータにより読み取り可能な記録媒体は本発明の方法又は本発明による実施例の方法を実行する指令を表す記録されたデータを有する。
本発明の更なる目的は、ユーザーが、非接触入力装置との相互作用の予測性に影響を与えることを可能とする表示装置を提供することであり、この表示装置は、ディスプレイと、非接触入力装置と本発明による方法又は本発明の実施例による方法を実行するように設計されたプロセッサを有する。
本発明の更なる目的は、ユーザーが、非接触入力装置との相互作用の予測性に影響を与えることを可能とする医療ワークステーションを提供することであり、この医療ワークステーションは、ディスプレイと、非接触入力装置を備え、この非接触入力装置は本発明の方法又は本発明の実施例の方法を実行するように設計されたプロセッサを有している。
上記目的とその効果は、上記方法を参照して述べたコンピュータプログラムと、コンピュータにより読み取り可能な記録媒体と、表示装置と医療ワークステーションによって達成される。
これらの、或いは本発明の他の態様は以下の図面を参照して説明される実施例により明らかにされるであろう。
図1は、本発明の方法を図式的に示す図であり;
図2は、非接触入力装置をユーザーの手による非接触操作と共に示す図であり;
図3は、操作モードの特性の視覚的フィードバックを示す図であり、
図4aは、ステップのサイズと軸に沿うユーザーの手の非接触操作関係を、軸がZのときの場合について示す図であり;
図4bは、ステップのサイズと軸に沿うユーザーの手の非接触操作関係を、軸がyのときの場合について示す図であり;
図5は、本発明による非接触入力装置を有する表示装置を示す図である。
図2は、非接触入力装置をユーザーの手による非接触操作と共に示す図であり;
図3は、操作モードの特性の視覚的フィードバックを示す図であり、
図4aは、ステップのサイズと軸に沿うユーザーの手の非接触操作関係を、軸がZのときの場合について示す図であり;
図4bは、ステップのサイズと軸に沿うユーザーの手の非接触操作関係を、軸がyのときの場合について示す図であり;
図5は、本発明による非接触入力装置を有する表示装置を示す図である。
図1は本発明による方法を図式的に示す図である。本方法を説明するために図2を参照する。図2非接触入力装置210をユーザーの手208と共に示す図である。検知領域においてユーザーの手が検知される空間が206と208により示されている。この空間は二つの”箱”で示されているが、これは、空間全体が使用できるため、単に説明のためだけである。非接触入力装置210は面202と接続されている。代表的な応用例では、この面202はディスプレイにより形成され、検知領域は非接触入力装置210によりディスプレイの前面に形成されている。本方法は初期化ステップS102により開始される。直交座標システムが検知領域の空間に割り当てられる。このシステムの2つの次元が検知領域の空間に割り当てられている。一つが操作モードの特性を選択するためのものであり、他方がユーザーの非接触相互作用に応答する画像データを操作のためのものである。例えば、図2においては、カルテシアン座標システムが用いられる。カルテシアン座標システム212は非接触入力装置の検知領域の空間に割り当てられ、x軸は、図2に示されるように、非接触入力装置210の検知領域の面210に実質的に平行である。Y軸は面202に実質的に平行でx軸に直交しており、z軸は面20に実質的に垂直で、x軸に直交している。更に、x軸は二つの領域に分けられている。増加領域と減少領域である。ユーザーが対象物、例えば、ユーザーの手208を増加領域内でx軸に沿って保持したとき、ズームのような操作モードの値は増加する。ユーザーが対象物、例えば、ユーザーの手208を減少領域内でx軸に沿って保持したとき、その操作モードの値は減少する。
更に、残りの一つの軸は操作モードの値の特性を変えるために使用される。例えば、z軸にステップのサイズを割り当てることができが、y軸も同様に使用することができる。ユーザーがユーザーの手208のような対象物をz軸の一つの方向に動かすと特性値は増加する。ユーザーがユーザーの手208のような対象物をz軸の他の方向に動かすと特性値は減少する。
本方法の残りのステップは、上述したような非接触入力装置に接続されているディスプレイにより表示される画像を操作することを望むような一つの応用例で説明される。この目的のために、ユーザーはそれにより画像を操作することを望む操作モードを選択する。これらに限定されない操作モードの例としては:ズーム、回転、ウインドウ幅、ウインドウレベル、コントラスト、明るさがある。ユーザーが画像をズームすることにより画像を操作することを選択する場合を考えてみよう。
次のステップS104において、彼の手をz軸の沿って動かしてこのズームファクターのステップサイズを選択する。即ち、彼が小さいステップサイズで画像をズームすることを望むときは、彼は手を減少する方向、例えばディスプレイの方向に動かす。しかしながら、彼が大きいステップサイズで画像をズームすることを望むときは、彼は手を増加方向、例えば、ディスプレイから離れる方向に動かす。これは、例えば20のステップサイズのようなズームファクターの特定のステップサイズをもたらす。
ステップS106において、ユーザーは画像を操作する、即ち、操作モードの値の操作を可能とするように割り当てられたx軸に沿って画像をズームする。したがって、ここでは20のステップサイズによりズームファクターが増加又は減少する。この増加又は減少は手がx軸に沿って置かれる位置に従って増加又は減少する。
ステップファクターを変更、即ち、増加又は減少は、手をz軸に沿って動かすことにより達成され、その後は、ユーザーは新しくセットされたステップサイズで画像をズームすることができる。ステップサイズの調整とその操作モードへの適用は何回も行うことができる。
本方法はステップ108で終了し、その後は操作モードと特性はカルテシアン座標システムの異なる軸が割り当てられる。
図3は操作モードの特性の視覚的フィードバックを示す。特性値についてユーザーにフィードバックを与えるために、ディスプレイ302の所定の位置が視認できる指標を表示するために使用される。その所定の位置については、できるだけ表示される情報のじゃまとならないように、図3に示すようにディスプレイのコーナーの部分が選択される。視認できる指標については、“+”の符号がズームファクターの増加を示す場合に示され、“−”の符号がズームファクターが減少する場合に示される。上向き矢印や下向き矢印のような他の指標も示すことができる。符号のサイズを特性値に比例させることが有利であり、ステップサイズが高いときはより大きくし、ステップサイズが低いときはより小さくする。これは304と306により図式的に示されている。
図4aはステップサイズとユーザーの手によるZ軸方向への非接触操作との関係を示す。図示されたグラフの軸は上述の検知領域の面に関する軸と関連している。軸402は非接触入力装置のz軸に沿う検知領域との対象物の距離を示し、軸404は特性値のステップサイズを示す。このグラフでは、検知領域における距離が増加するときステップサイズが増加することを示している。
図4bはユーザーの手のy軸方向の非接触操作とステップサイズとの関係を示している。示されたグラフの軸は上述したような検知領域の面に関する軸と関連している。軸406は非接触入力装置の検知領域の面に実質的に平行なy軸に沿う対象物の垂直方向の動きを示す。軸408は特性値のステップサイズを示す。このグラフでは、検知領域における距離が増加するとき、ステップサイズがリニアに増加することを示している。
図4aと図bの両方において、グラフの形態は例示のものであり、他の形態、即ち、対象物の位置と特性値との関係も、また、本発明のコンセプトから離れない範囲において可能となる。
図5は本発明による非接触入力装置を備える表示装置を示す。表示装置516は、本発明に従って通常の平坦なパネルディスプレイ504にスクリーンディスプレイを形成するように設計され、図示されない非接触入力装置と共にその非接触入力装置に接続されるコンピュータ502を備えている。本発明は、非接触入力装置の検知領域において位置する又は動く対象物の3次元座標を与える入力装置に適用することができる。このような入力装置の例は既に述べられている。
このコンピュータは、他にプロセッサ506とランダムアクセスメモリ510のような一般的目的のメモリを備えている。このプロセッサとメモリはソフトウエアバス508を介して通信可能に接続されている。メモリ510は、プロセッサ506に、それに接続されている非接触入力装置と共に既に記載されたような本発明による方法を実行させることができるように設計された命令を含むコンピュータ読み取り可能なコードを有している。
コンピュータにより読み取り可能なコード514はコンパクトディスク(CD)又はデジタル多目的/ビデオディスク(DVD)又は他の記憶媒体のようなコンピュータにより読み取り可能な記録媒体を介してダウンロードすることができる。コンピュータにより読み取り可能なコード514は、また、インターネットとこれらをダウンロードすることのできる好適な媒体を備えるコンピュータを介してダウンロードすることができる。
本発明は医療環境において有利に適用することができる。例えば、患者に手術が行われる手術シアターの例について考えよう。患者の医療画像を示す手術シアターには医療ワークステーションが設けられている。この医療ワークステーションは、本発明に従って既に述べたユーザーの相互作用を可能とするスクリーンディスプレイを生成するように設計された非接触入力装置とコンピュータを備えている。手術の前に画像を得ることができるが、手術中においても画像を得ることができる。外科医は無菌環境において手術を行い、また、この環境を守るためにワークステーションに直接接触することを避けなければならない。ここで、本発明は画像を直接接触することなく操作することを可能とする。
本発明の方法の実施例に記載された順序は必須のものではなく、当業者であれば、本発明により意図されたコンセプトから離れない範囲においてステップの順序を変更し、または、変更モデル、マルチプロセッサシステム、或いは多重プロセスを同時に使用してステップを実行してもよい。
上述の実施例は本発明を限定的に説明するものであり、当業者は添附のクレームの範囲から離れない範囲で代替的な実施例を設計することができるであろうことは留意すべきである。クレームにおいては、いかなる括弧内の参照符号もクレームを限定するものとして解釈されるべきでない。“有する”の用語はクレームに挙げられたステップ以外のステップの存在を排除するものではない。要素の前の“一つの”はそのような要素を複数持つことを排除するものではない。本発明は複数の明確な要素を備えるハードウエアと、適切なコンピュータプログラムによって実行される。ある手段が互いに異なる従属クレームにおいて記載されているという事実のみでこれらの手段の組み合わせが有利に使用することができないということを示すということにはならない。
Claims (9)
- 非接触入力装置を介して画像の非接触操作を与える方法であって、
非接触入力装置の検知領域の面に関する第1の軸に沿うユーザーの非接触相互作用に応答して画像の操作モード特性を選択することと、
前記選択された操作モード特性に従い前記第1の軸に実質的に直交する第2の軸に沿うユーザーの非接触相互作用に応答して画像を操作すること、
を有する方法。 - 前記第2の軸は前記面に実質的に平行である請求項1に記載の方法。
- 操作モードの特性を表示することを更に有する請求項1に記載の方法。
- 前記表示される操作モード特性は特性の値に比例する請求項3に記載の方法。
- 前記操作モードは、明るさ、コントラスト、ズーム又は回転のうちの一つであり、前記特性は対応する操作モードのステップの大きさである請求項1に記載の方法。
- コンピュータ装置によりロードされるコンピュータプログラムであって、
非接触入力装置によって画像の非接触操作を与える命令を含み、前記コンピュータ装置はプロセスユニットとメモリを有し、前記コンピュータプログラムは、ロードされた後は、前記プロセスユニットに以下のタスクを実行する能力を与えるコンピュータプログラム:
-前記非接触入力装置の検知領域の面に関する第1の軸に沿うユーザーの非接触相互作用に応答して画像の操作モード特性を選択すること、及び
-前記選択された操作モード特性に従い前記第1の軸に対して直交する第2の軸に沿うユーザーの非接触相互作用に応答して前記画像を操作すること。 - 請求項1から5のいずれかの方法を実行する命令を表す記録されたデータをその上に有するコンピュータにより読み取り可能な記録媒体。
- ディスプレイと、非接触入力装置と、請求項1から5のいずれかの方法を実行するように設計されたプロセッサを有し、画像の非接触操作を与えるための表示装置。
- ディスプレイと画像の非接触操作を与える非接触入力装置を有する医療ワークステーションであって、前記非接触入力装置は、請求項1から5のいずれかの方法を実行するように設計されたプロセッサを有する医療ワークステーション。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP05111291 | 2005-11-25 | ||
PCT/IB2006/054354 WO2007060606A1 (en) | 2005-11-25 | 2006-11-21 | Touchless manipulation of an image |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009517728A true JP2009517728A (ja) | 2009-04-30 |
Family
ID=37814538
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008541877A Withdrawn JP2009517728A (ja) | 2005-11-25 | 2006-11-21 | 画像の非接触操作方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20080263479A1 (ja) |
EP (1) | EP1958040A1 (ja) |
JP (1) | JP2009517728A (ja) |
CN (1) | CN101313269A (ja) |
WO (1) | WO2007060606A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011130857A (ja) * | 2009-12-23 | 2011-07-07 | Morita Mfg Co Ltd | 医療用診療装置 |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE202007011152U1 (de) * | 2007-08-09 | 2007-12-13 | S-Cape Gmbh | Digitales Röntgenbildbetrachtungsgerät für die medizinische Diagnostik |
WO2009049681A1 (en) * | 2007-10-19 | 2009-04-23 | Vascops | Automatic geometrical and mechanical analyzing method and system for tubular structures |
JP2010279453A (ja) * | 2009-06-03 | 2010-12-16 | Sony Corp | 医療用電子機器および医療用電子機器の制御方法 |
US8843857B2 (en) * | 2009-11-19 | 2014-09-23 | Microsoft Corporation | Distance scalable no touch computing |
US9619036B2 (en) * | 2012-05-11 | 2017-04-11 | Comcast Cable Communications, Llc | System and methods for controlling a user experience |
JP6179412B2 (ja) * | 2013-01-31 | 2017-08-16 | 株式会社Jvcケンウッド | 入力表示装置 |
US20140282274A1 (en) * | 2013-03-15 | 2014-09-18 | Qualcomm Incorporated | Detection of a gesture performed with at least two control objects |
US9063578B2 (en) * | 2013-07-31 | 2015-06-23 | Microsoft Technology Licensing, Llc | Ergonomic physical interaction zone cursor mapping |
US9390726B1 (en) | 2013-12-30 | 2016-07-12 | Google Inc. | Supplementing speech commands with gestures |
US9213413B2 (en) | 2013-12-31 | 2015-12-15 | Google Inc. | Device interaction with spatially aware gestures |
CN106922190B (zh) | 2014-08-15 | 2020-09-18 | 不列颠哥伦比亚大学 | 用于执行医疗手术并且用于访问和/或操纵医学相关信息的方法和系统 |
WO2018148845A1 (en) | 2017-02-17 | 2018-08-23 | Nz Technologies Inc. | Methods and systems for touchless control of surgical environment |
WO2021214069A1 (en) * | 2020-04-24 | 2021-10-28 | Leica Instruments (Singapore) Pte. Ltd. | Microscope system and corresponding system, method and computer program for a microscope system |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5612719A (en) * | 1992-12-03 | 1997-03-18 | Apple Computer, Inc. | Gesture sensitive buttons for graphical user interfaces |
US5454043A (en) * | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
US5844415A (en) * | 1994-02-03 | 1998-12-01 | Massachusetts Institute Of Technology | Method for three-dimensional positions, orientation and mass distribution |
US5594469A (en) * | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
EP0823683B1 (en) * | 1995-04-28 | 2005-07-06 | Matsushita Electric Industrial Co., Ltd. | Interface device |
JP3968477B2 (ja) * | 1997-07-07 | 2007-08-29 | ソニー株式会社 | 情報入力装置及び情報入力方法 |
US6130663A (en) * | 1997-07-31 | 2000-10-10 | Null; Nathan D. | Touchless input method and apparatus |
US7227526B2 (en) * | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US20030025676A1 (en) * | 2001-08-02 | 2003-02-06 | Koninklijke Philips Electronics N.V. | Sensor-based menu for a touch screen panel |
US20030095154A1 (en) * | 2001-11-19 | 2003-05-22 | Koninklijke Philips Electronics N.V. | Method and apparatus for a gesture-based user interface |
US20030132913A1 (en) * | 2002-01-11 | 2003-07-17 | Anton Issinski | Touchless computer input device to control display cursor mark position by using stereovision input from two video cameras |
GB0204652D0 (en) * | 2002-02-28 | 2002-04-10 | Koninkl Philips Electronics Nv | A method of providing a display gor a gui |
US7312788B2 (en) * | 2003-03-11 | 2007-12-25 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Gesture-based input device for a user interface of a computer |
GB0311177D0 (en) * | 2003-05-15 | 2003-06-18 | Qinetiq Ltd | Non contact human-computer interface |
JP2005141102A (ja) * | 2003-11-07 | 2005-06-02 | Pioneer Electronic Corp | 立体的二次元画像表示装置及び方法 |
US8473869B2 (en) * | 2004-11-16 | 2013-06-25 | Koninklijke Philips Electronics N.V. | Touchless manipulation of images for regional enhancement |
-
2006
- 2006-11-21 WO PCT/IB2006/054354 patent/WO2007060606A1/en active Application Filing
- 2006-11-21 CN CNA2006800436940A patent/CN101313269A/zh active Pending
- 2006-11-21 EP EP06821514A patent/EP1958040A1/en not_active Withdrawn
- 2006-11-21 US US12/094,669 patent/US20080263479A1/en not_active Abandoned
- 2006-11-21 JP JP2008541877A patent/JP2009517728A/ja not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011130857A (ja) * | 2009-12-23 | 2011-07-07 | Morita Mfg Co Ltd | 医療用診療装置 |
Also Published As
Publication number | Publication date |
---|---|
EP1958040A1 (en) | 2008-08-20 |
WO2007060606A1 (en) | 2007-05-31 |
US20080263479A1 (en) | 2008-10-23 |
CN101313269A (zh) | 2008-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009517728A (ja) | 画像の非接触操作方法 | |
KR100851977B1 (ko) | 가상 평면을 이용하여 전자 기기의 사용자 인터페이스를제어하는 방법 및 장치. | |
JP4820285B2 (ja) | 自動位置合わせタッチシステムおよび方法 | |
JP5842000B2 (ja) | 表示画像のズームイン | |
US10671188B2 (en) | Method for using a two-dimensional touchpad to manipulate a three dimensional image | |
JP2006513503A (ja) | 三次元表示における複数箇所を管理する装置及び方法 | |
RU2612572C2 (ru) | Система обработки изображений и способ | |
US20090153472A1 (en) | Controlling a viewing parameter | |
JP2005519368A (ja) | Guiのためのディスプレイを提供する方法 | |
KR20150122678A (ko) | 깊이 변경에 따라 내부 구조를 디스플레이 하는 영상 디스플레이 | |
US20030146938A1 (en) | Fast scrolling through image sets containing markers | |
EP1157327B1 (en) | Display for a graphical user interface | |
CN103608761A (zh) | 输入设备、输入方法以及记录介质 | |
US20150023579A1 (en) | Diagnosis support apparatus, method for the same, and non-transitory computer-readable storage medium | |
US11086513B2 (en) | Method and apparatus for displaying function of button of ultrasound apparatus on the button | |
US20070186191A1 (en) | Method of visualizing a pointer during interaction | |
CN108509071B (zh) | 屏幕上坐标防抖的方法、装置、设备及计算机可读存储介质 | |
EP2779116B1 (en) | Smooth manipulation of three-dimensional objects | |
WO2024180631A1 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
CN113467605B (zh) | 用于对可视化数据进行预处理的方法、计算机程序产品和处理电路系统 | |
JP2023010138A (ja) | 入力装置、入力方法、及び入力プログラム | |
US8878772B2 (en) | Method and system for displaying images on moveable display devices | |
JP2023010137A (ja) | 入力装置、入力方法、及び入力プログラム | |
JP2017117166A (ja) | 電子機器、プログラム | |
TW200923760A (en) | Method of providing a graphical user interface |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091119 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20100423 |