JP2013045217A - 入力装置 - Google Patents
入力装置 Download PDFInfo
- Publication number
- JP2013045217A JP2013045217A JP2011181387A JP2011181387A JP2013045217A JP 2013045217 A JP2013045217 A JP 2013045217A JP 2011181387 A JP2011181387 A JP 2011181387A JP 2011181387 A JP2011181387 A JP 2011181387A JP 2013045217 A JP2013045217 A JP 2013045217A
- Authority
- JP
- Japan
- Prior art keywords
- input device
- user
- hand
- predetermined
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 claims abstract description 119
- 230000008859 change Effects 0.000 claims abstract description 33
- 230000004044 response Effects 0.000 claims description 7
- 238000000034 method Methods 0.000 description 66
- 238000010586 diagram Methods 0.000 description 35
- 230000008569 process Effects 0.000 description 28
- 238000003384 imaging method Methods 0.000 description 11
- 238000000605 extraction Methods 0.000 description 8
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 210000003811 finger Anatomy 0.000 description 4
- 230000005684 electric field Effects 0.000 description 2
- 238000003703 image analysis method Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
【解決手段】入力装置を操作するユーザの手などの操作物体の位置を検出する位置検出部と、前記位置検出部の検出結果に基づき、位置検出部から操作物体における最も近いポイントの位置の変化を検出する位置変化検出部と、映像表示部とを備え、前記位置変化検出部は、所定の範囲における位置検出部から最も近いポイントの位置の変化を検出し、前記映像表示部は、前記位置変化検出部の検出結果に応じて表示の変更を行う。
【選択図】図5
Description
特許文献2では、ユーザの操作となるジェスチャの認識対象を視覚的に表すためのジェスチャ画像表示を行うインタフェース装置が開示される。ユーザは、ジェスチャ画像を確認しながら、装置の操作を行うことができる。
特許文献4では、ステアリング上の手の状態と操作対象機器を示す選択ガイド情報を表示する車両用操作入力装置が開示される。ユーザは、当該ガイドを参照して、手を動かして、目的の操作機器を選択することができる。
(1)仮想的な操作面に対して操作を行うため、ユーザが、操作面の大きさや、操作面と操作の対応関係、あるいは操作面と画面上の表示の対応関係を把握することが難しい。
(2)手を出す前に操作面位置を決めるため、キャリブレーションのタイミングが難しい。特に複数人いる場合に、画面の前にいる誰に対して操作領域を設けるかが決まらない。
また、特許文献2ないし特許文献4では、いずれの特許文献も、操作のための動きやポーズが表示され、ユーザはこれらに従って、所定の装置に関する動作を実行することが開示されている。
つまり、いずれの特許文献も、ユーザが操作のためのジェスチャを行う際に、ユーザの動きが、物理的な物や画面表示とどのように対応し、操作としてどのように認識されるかをユーザに直感的に理解させることは考慮されていない。
そこで本発明は、かかる事情を考慮した上で、上記課題を解決するためになされたもので、その目的は、非接触で入力操作を行う入力装置において、操作を行う物体のセンサに最も位置が近い点(以下、物体検出点と記す)を検出して、該物体検出点の位置の変化に応じて、入力操作の操作状態をリアルタイムに画面上に表示することにより、ユーザが意図する操作を円滑に入力できる入力装置を提供することにある。
ここで、前記映像表示手段は、前記位置変化検出手段の検出結果に応じて、表示内で示す物体の大きさ、長さ、深さ、縮尺等の量に関する表示や形、表示する物体の位置を変化させる。
先ず、図1および図2を用いて第一の実施例における入力装置の構成を説明する。
映像表示装置101は、映像表示装置101の外部から与えられる操作入力信号に基づき、ユーザに映像情報を提示する装置であり、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、液晶プロジェクタ、レーザープロジェクタ、リアプロジェクタなどのディスプレイ装置と、映像コンテンツやGUI(Graphical User Interface)などの表示処理に必要な演算処理装置やメモリを有する装置である。
ユーザ103は、入力装置100に対して操作を行うユーザである。
図2は、実施例1の入力装置100の構成を示すブロック図である。
入力装置100は、図2に示すように、センシング部102、システム制御部200、信号出力部201、を備える。
システム制御部200は、距離検出部202、上下操作検出部203、を有する。
システム制御部200は、ユーザ103の手のセンシング部102からの距離を検出し、手を上下に動かす操作を検出するためのデータ処理をおこなう構成要素である。システム制御部200は、CPU(Central Processing Unit)が、メモリ上に記憶されているソフトウェアモジュールを実行することにより実現してもよいし、専用のハードウェア回路により実現してもよい。
次に、図3および図4を用いて第一の実施例に係る入力装置100による操作方法について説明する。
図4は、実施例1の入力装置の操作状態に応じた表示を説明する概観図である。図4では、映像表示装置101に画像を一覧するための表示がされており、ユーザ103の操作に応じて、一覧する画像のサイズや表示数が変更される様子を示している。
一方、図4の“操作状態B”に示されるように、ユーザ103の手を図3の“ホームポジション”の位置から、図3の“下方向操作領域”に移動させると、映像表示装置101に表示される画像の一覧は、個々の画像のサイズが大きくなり、同時に表示される画像の数が少なくなる。すなわち、ユーザ103の手が検出される位置が、図3の“ホームポジション”から、図3の“上方向操作領域”や図3の“下方向操作領域”に移動すると、入力装置100は映像出力装置101に対して、ユーザ103の手の移動方向に応じた指示を与え、映像出力装置101の表示が変更される。
入力操作の検出処理は、図2に示したシステム制御部200が行う処理である。
先ず、システム制御部200は、所定のユーザ操作に応じて、手の位置の検出を開始し(ステップS500)、距離検出部202にてセンシング部102から得られる距離データから、検出される距離を抽出あるいは分類する処理を行い、手のセンシング部102からの距離を検出する。手の距離が検出された際には(ステップS501:Yes)、検出された距離に対応する操作領域を求める(ステップS502)。
このように、入力装置100は、ユーザ103が入力装置100に対して手をかざしている距離の変化に応じて操作を検出し、映像表示装置101に操作の指示を与える。これにより、ユーザ103は、物理的な装置と手の距離の関係から、手の距離と操作の対応を直感的に把握でき、ユーザ103が意図する操作を円滑に入力できる。
第一の実施形態の入力装置100の表示制御方法は、手が位置する操作領域の変化に応じて操作を実行するインタフェースを提供するものであった。本実施例では、第一の実施例の操作方法に加えて、さらに、手と入力装置100の相対的な距離の変化応じて操作を実行するインタフェースを提供するものである。
本実施形態の入力装置100でも、図2に示したように、センシング部102、システム制御部200、信号出力部201からなることは、第一の実施例と同様であるが、システム制御部200が上下操作検出部で検出する操作のみが異なる。
図6は、実施例2の入力装置100の操作領域とユーザの操作方法を示す概観図である。
図7は、実施例2の入力装置100の操作状態に応じた表示を説明する概観図であり、ユーザ操作と操作結果の対応を示す。図7では、映像表示装置101に地図が表示されており、ユーザ103の操作に応じて、地図の縮尺が変更される様子を示している。
図8は、実施例2の入力装置100の動作を説明するフローチャートである。
入力操作の検出処理は、図2に示したシステム制御部200が行う処理である。
次に、信号出力部201において、操作基準600に対する、検出した手の相対的な位置より、地図の縮尺率を算出し、映像表示装置101に地図の縮尺率を変更する操作を指示するため操作入力信号が出力される(ステップS803)。
ユーザ103が所定の操作にて、操作終了の意思表示をしたときには(ステップS804:Yes)、処理を終了し(ステップS805)、そうでないときには(ステップS804:No)、ステップS801に戻り、前記した手の距離の検出を継続する。
図9は、実施例2の入力装置の操作状態に応じた表示を説明する概観図である。図9に示すように、映像表示装置101に複数の階層からなるメニューが表示される場合、操作基準600に対し、階層を割り当てることにより、図中の斜め線で示すように、操作対象となる階層を手の位置により変更することができる。これにより、ユーザ103は、物理的な装置と手の距離の関係から、手の距離と、操作対象となる階層の対応を直感的に把握でき、ユーザ103が意図する操作を円滑に入力できる。
第一の実施例の入力装置100の表示制御方法は、手と入力装置100の距離に応じて操作を実行するインタフェースを提供するものであった。本実施例では、第一の実施例の操作方法に加えて、さらに、手と入力装置100の距離を検出する際に、手の形状に応じて検出距離の検出基準を決定するものである。
図11は、実施例3の入力装置100の構成を示すブロック図である。
本実施形態の入力装置100でも、図10および図11に示すように、システム制御部200、信号出力部201を有することは、第一の実施例と同様であるが、センシング部102が撮像部1000に置き換わることと、システム制御部200が形状検出部1100を有することが異なる。このため図10で示すように、撮像部1000が指の形状を明確に捕らえられるよう、図1のセンシング部102とは異なる位置に設けられても良い。また、図1のセンシング部102と図10の撮像部1000の双方を備えるようにしても良い。
形状検出部1100は、撮像部1000から得られる撮像画像から、所定の手の形を検出する部分であり、例えば、パターンマッチング等の画像解析手法が用いられる。形状検出部1100に用いられる画像解析手法は、特に限定されず、得た撮像画像の中に所定の手の形が存在するか否かと、手の距離および位置を検出する機能を有すればよい。
図12は、実施例3の入力装置100の操作領域とユーザの操作方法を示す概観図である。
図12に示されるように、入力装置100は、撮像部1000から得られる撮像画像の中から、手の形1200を検出し、手の形1200を検出した際の入力装置100とユーザ103の手の距離を、検出基準1201とする。さらに、入力装置100は、前記検出基準1201に応じて、第一の実施例で示した操作領域の位置を変更する。操作領域が変更された後の操作については、第一の実施例と同様となる。
図13は、実施例3の入力装置100の動作を説明するフローチャートであり、第一の実施例で説明した図5のフローチャートに対して、ステップS501で手の位置を検出した後、ステップS502で操作領域を求めるまでの間に、ステップS1300及びステップS1301を加えている。
先ず、システム制御部200は、所定のユーザ操作に応じて、手の位置の検出を開始し(ステップS500)、距離検出部202にて撮像部1000から得られる撮像画像から手を検出し、操作として検出される距離を抽出あるいは分類する処理を経て、手の距離を検出する。手の距離が検出された際には(ステップS501:Yes)、形状検出部1100にて、所定の手の形状1200を検出する処理を行う(ステップS1300)。所定の手の形状は、例えば図12の“ホームポジション”で示すように、親指と人差し指を接触させた時の形状などと予め定めておけば良い。所定の手の形状1200が検出された際には(ステップ1300:Yes)、手の距離を検出する際の検出基準1201を設定し(ステップS1301)、ステップS502以降の処理を行う。
このように、第三の実施例に係る入力装置100は、ユーザ103が入力装置100に対してかざしている手の形状に応じて、検出基準1201を設定する。これにより、ユーザ103は、手と操作領域の相対的な位置を、意図したタイミングで変更することができ、ユーザ103が任意の位置でより確実に操作を入力できる。
第三の実施例の入力装置100の表示制御方法は、手の形状に応じて検出基準1201を設定することにより、第一の実施例で説明した操作における、手と操作領域の相対的な位置を、意図したタイミングで変更することができるものであった。本実施例では、第三の実施例の操作方法に加えて、さらに、第二の実施例で説明した操作における、手と操作基準600の相対的な位置を、意図したタイミングで変更できるものである。
先ず、図14を用いて第四の実施例の入力装置100の操作の検出方法について説明する。
図14は、実施例4の入力装置100の操作領域とユーザの操作方法を示す概観図である。
図15は、実施例4の入力装置100の動作を説明するフローチャートであり、第二の実施例で説明した図8のフローチャートに、ステップS1500ないしステップS1502を加えたフローチャートである。
入力操作の検出処理は、図11に示したシステム制御部200が行う。
一方、所定の手の形状1200が検出された際には(ステップ1500:Yes)、前回の手の検出時に所定の手の形状であったかを確認し(ステップS1501)、前回の手の検出時に所定の手の形状ではなかった場合は(ステップS1501:No)、手の距離を検出する際の検出基準1201を設定し(ステップS1502)、ステップS802以降の処理を行う。また、前回の手の検出時に所定の手の形状であった場合は(ステップ1501:Yes)、検出基準1201は新たには設定されず、ステップS802以降の処理が行われる。ステップ802以降の処理については、第二の実施例で説明した図8のフローチャートと同様となる。
以上、第一の実施例ないし第四の実施例で説明してきたように、本発明の入力装置の入力方法によれば、特許文献1ないし特許文献4の従来技術とは異なり、ユーザが手を出したときに表示され、さらに手と入力装置の間の距離に応じて変化する、画面上の表示を介して、入力装置に対して可能な入力操作と、操作状態を直感的に把握でき、操作性を向上させることができる。
第一ないし第四の実施例の入力装置100は、ユーザの手を認識して、手と入力装置100の間の距離をセンサにより検出し、該距離に応じて映像表示装置101の表示を変更する装置であった。本実施例の入力装置1600は、センシング部1602の距離検出結果を用いて物体検出点を検出し、該物体検出点の位置の変化(以下、動きと記す)に応じて映像表示装置1601の表示を変更する装置である。
図16は、実施例5の入力装置1600を示す概観図であり、映像表示装置1601、センシング部1602、ユーザ1603により、入力装置1600をユーザ1603が使用する際の動作環境の概観を示す。
映像表示装置1601は、上記第一の実施例の映像表示装置101と同様な構成要素である。
ユーザ1603は、入力装置1600に対して操作を行うユーザである。
センシング部1602が距離測定した結果を、例えば以下に説明するX軸およびY軸の各位置の組合せ(以下、XY座標値と記す)に対してZ軸の位置の値を示すテーブル2000で表す。これによって、センシング部1602に対して、前方する空間にある物体の各点の位置はX軸、Y軸およびZ軸位置の値の組合せ(XYZ座標値)で表すことができる。
入力装置1600は、図17に示すように、センシング部1602、システム制御部1700、信号出力部1701、を備える。
システム制御部1700は、操作ポインタ抽出部1702および入力操作検出部1703の機能を実現する部分を有する。システム制御部1700は、物体検出点を検出して、該物体検出点を操作ポインタとして扱い、入力装置1600に対する操作を検出するためのデータ処理をおこなう部分である。システム制御部1701は、上記第一の実施例のシステム制御部200と同様、CPUが、メモリ上に記憶されているソフトウェアモジュールを実行することにより実現してもよいし、専用のハードウェア回路により実現してもよい。
操作ポインタ抽出部1702は、上記センシング部1602の出力結果により、物体検出点を操作ポインタとしてみなす部分である。
入力操作部検出部1703は、上記操作ポインタの動きから、入力装置1600に対する入力操作の検出を行う部分である。ここで、入力操作とは、第一の実施例ないし第四の実施例に記載した、入力装置1600に対する手の動きと相当し、例えば手が入力装置1600に近づける、あるいは遠ざかるという動きのことを指す。
図19は、実施例5の入力装置1600の入力操作空間を示す概観図であり、入力操作空間1900とユーザ1603が操作する際の様子を説明するものである。
図20は、実施例5の入力装置1600の距離テーブルであり、入力操作空間におけるセンシング部1602の出力結果を表わす。テーブル2000は、XY座標値に対する各点のZ軸の位置を表す。
例えば、入力装置1600の電源がオンとなったときに、入力装置1600は入力操作の検出を開始する(ステップS1800)。
入力操作の検出が開始されると、入力装置1600は図19に示す入力操作空間1900を生成する(ステップS1801)。
以下に説明するステップS1802ないしステップS1806で行われる一連の処理は、終了命令がなされていない限り、繰り返しされるループである。
次に、センシング部1602を用いて、上記入力操作空間1900内の物体の距離測定を行う(ステップS1803)。センシング部1602が距離測定した結果を図20に示す距離テーブル2000として出力する。
次に、入力装置1600の操作ポインタ抽出部1702は、上記物体検出点を操作ポインタとして設定する(ステップS1805)。
ここで、上記ステップS1806で検出したユーザの操作に応じて、上記第一の実施例ないし第四の実施例と同様に、映像表示装置1601への表示を変化させる。
このように、本実施例の入力装置1600は、物体検出点の位置の変化に応じて、操作の入力を行う。これにより、高い処理負荷かつ処理時間がかかる手の形状を認識する処理等を行わなくても、低処理負荷の非接触の入力装置を実現することができる。
上記第五の実施例の入力装置1600は、物体検出点を操作ポインタの位置として扱い、該操作ポインタの動きに応じて映像表示装置1601の表示を変更する入力装置であった。本実施例の入力装置1600は、第五の実施例の入力装置1600と同様な構成を持つが、操作ポインタの抽出する方法が異なる入力装置1600に関するものである。
図21Bの線2103は、物体検出点2104が例えばユーザ1603の頭や胴体など大きいな物体のセンシング部1602に最も位置が近い点として検出した場合の、該物体検出点2104のY軸の位置における、X軸の位置に対するZ軸の位置を表す線である。
まず、操作ポインタ抽出部1702は、図21Aにおける物体検出点1901を操作ポインタの候補とする。次に、線2100上に存在する、物体検出点1901の周辺点が輪郭となる2次元の形状2101を生成する。ここで、本実施例の入力装置1600は上記形状2101のX軸の幅2102がある所定の条件幅A以内であり、かつZ軸の幅2012がある所定の条件幅B以上であるという条件を満たしていれば、物体検出点1901を入力装置1600の操作ポインタとしてみなし、該条件を満たさなければ物体検出点1901を操作ポインタとしてみなさない。
これにより、図21Aに関しては、形状2101が上記の条件を満たすものであるとして、点1901は操作ポインタとしてみなす。また、図21Bに関しては、点2104の周辺で生成された形状2105のX軸幅2106が、条件幅Aよりも長く、上記の条件を満たさないため、点2104を操作ポインタとしてみなさない。
なお、X軸の条件幅およびZ軸の条件幅で操作ポインタの判定を行うが、Y軸の条件幅を用いてもよい。
第五の実施例および第六の実施例の入力装置1600は、一つの入力操作空間における物体検出点を操作ポインタとして扱い、該操作ポインタの動きに応じて映像表示装置1601の表示を変更する入力装置であった。本実施例の入力装置1600は、複数の入力操作空間を生成し、各該入力操作空間に応じて操作ポインタの決め方を変えて、ユーザの入力操作を検出する入力装置1600に関するものである。
上記ステップS1801で、本実施例の入力装置1600は、3つの入力操作空間を作成する。第一の入力操作空間2210は、X1からX2のX軸区間、Y1からY2のY軸区間、Z1からZ2のZ軸区間で設定されるセンシング部1602から最も近い入力操作空間である。第二の入力操作空間2211は、X1からX2のX軸区間、Y1からY2のY軸区間、Z2からZ3のZ軸区間で設定される入力操作空間である。第三の入力操作空間2212は、X1からX2のX軸区間、Y1からY2のY軸区間、Z3からZ4のZ軸区間で設定される入力操作空間である。つまり、Z軸方向において、センシング部1602から最も近い順から、第一の入力操作空間2210、第二の入力操作空間2011と最後に第三の入力操作空間2012が作成される。
例えば、第一の操作空間2010において、操作ポインタとみなすための条件幅は、条件幅A1および条件幅B1とする。これによって、図22Aに示すように、ユーザの手が第一の入力操作空間2110に出した際に、手の先の点に生成される形状2201のX軸幅2202が条件幅A1の長さ以内、かつ形状2201のZ軸幅2203が条件幅B1の長さ以上であるため、ユーザの手の先は操作ポインタとしてみなす。このとき、入力装置1600は、手の動きを操作として検出する。
第三の操作空間2012において、操作ポインタとみなすための条件幅は、条件幅A3および条件幅B3とする。これによって、図22Cに示すように、例えば複数のユーザ集まって第三の入力操作空間2111にいる場合に、物体検出点の周辺から生成される形状2207のX軸幅2208が条件幅A3の長さ以内、かつ形状2207のZ軸幅2209が条件幅B3の長さ以上であるため、該物体検出点を操作ポインタとしてみなす。この場合、入力装置1600は、一人以上のユーザがZ3およびZ4の間にいることを認識することができる。
以上、第五の実施例ないし第七の実施例で説明してきたように、本発明の入力方法によれば、ユーザが手などの操作物体を出したときに、該物体のもっとも先端の点を操作ポインタとしてみなす。ユーザが該操作物体を動かすと、センサからみた手の先端の点の位置の変化に応じて、入力装置に対する操作を検出することができる。これにより、手の形状や人体モデルを使わなくても、低処理負荷の入力検出方法が実現できる。
200…システム制御部、201…信号出力部、202…距離検出部、203…上下操作
検出部、600…操作基準、1000…撮像部、1100…形状検出部、1200…手の
形状、1201…検出基準、1600…入力操作、1601…表示画面、1602…センシング部、1603…ユーザ、1700…システム制御部、1701…信号出力部、1702…操作ポインタ抽出部、1703…入力操作検出部、1900…入力操作空間。
Claims (5)
- 電子機器をはじめとする装置に該装置のユーザが指示を与えるためのユーザインタフェースを有する入力装置であって、
所定の検出空間にあるユーザの体における所定部の位置を検出する位置検出部と、
前記入力装置の動作を制御し、前記所定部の位置を操作の基準点と見做すか否かを決定するシステム制御部と、
該システム制御部が前記所定部の位置を操作の基準点と見做すと決定した場合に前記所定部の位置の変化を検出する位置変化検出部と、
前記システム制御部からの指示に応じて所定の画像を表示する表示部と、を備え、
前記システム制御部は、
前記位置変化検出部における前記位置の変化の検出結果に基づき、前記表示部に表示する画像を変更する
ことを特徴とする入力装置。 - 請求項1に記載の入力装置において、前記システム制御部は、前記位置検出部が検出した前記ユーザの体における所定部の前記入力装置からの距離に応じて、前記表示部に表示する画像を拡大または縮小することを特徴とする入力装置。
- 請求項1に記載の入力装置において、前記システム制御部は、前記所定部の位置を操作の基準点と見做すか否かを決定する際には、前記ユーザの体における所定部の形状に応じて決定することを特徴とする入力装置。
- 電子機器をはじめとする装置に該装置のユーザが該装置周辺の所定の検出空間から指示を与えるためのユーザインタフェースを有する入力装置であって、
物体の大きさを検出する物体大きさ検出部と、
前記入力装置の動作を制御し、前記ユーザの操作の基準点を決定するシステム制御部と、
該システム制御部が決定した前記基準点に対する前記ユーザの位置の変化を検出する位置変化検出部と、
前記システム制御部からの指示に応じて所定の画像を表示する表示部と、を備え、
前記物体の大きさ検出部は、前記検出空間に定めた所定の位置のうち最も前記入力装置に近い所定位置における周辺の物体の大きさを検出し、該物体の大きさが所定値よりも大きい場合には、
前記システム制御部は、前記最も近い所定位置を操作の基準点と決定し、前記位置変化検出部における前記位置の変化の検出結果に基づき、前記表示部に表示する画像を変更することを特徴とする入力装置。 - 請求項4に記載の入力装置において、前記システム制御部は、前記検出空間を複数の空間に分割し、分割された検出空間毎に前記物体大きさ検出部が検出した物体の大きさに対して異なる値の前記所定値を設定すること、を特徴とする入力装置。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011181387A JP5921835B2 (ja) | 2011-08-23 | 2011-08-23 | 入力装置 |
US13/565,115 US20130194174A1 (en) | 2011-08-23 | 2012-08-02 | Input unit |
EP20120005724 EP2562620A1 (en) | 2011-08-23 | 2012-08-07 | Input unit recognizing user's motion |
CN201210280039.4A CN102955568B (zh) | 2011-08-23 | 2012-08-08 | 输入装置 |
US14/588,565 US20150116213A1 (en) | 2011-08-23 | 2015-01-02 | Input unit |
US15/686,348 US20170351338A1 (en) | 2011-08-23 | 2017-08-25 | Input unit for controlling a display image according to a distance of the input unit and user |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011181387A JP5921835B2 (ja) | 2011-08-23 | 2011-08-23 | 入力装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013045217A true JP2013045217A (ja) | 2013-03-04 |
JP5921835B2 JP5921835B2 (ja) | 2016-05-24 |
Family
ID=46875619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011181387A Active JP5921835B2 (ja) | 2011-08-23 | 2011-08-23 | 入力装置 |
Country Status (4)
Country | Link |
---|---|
US (3) | US20130194174A1 (ja) |
EP (1) | EP2562620A1 (ja) |
JP (1) | JP5921835B2 (ja) |
CN (1) | CN102955568B (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015035103A (ja) * | 2013-08-08 | 2015-02-19 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
JP2015201064A (ja) * | 2014-04-09 | 2015-11-12 | 株式会社東芝 | 情報処理装置、映像投影装置、情報処理方法及びプログラム |
JP2016009301A (ja) * | 2014-06-24 | 2016-01-18 | 株式会社デンソー | 車両用入力装置 |
JP2016515268A (ja) * | 2013-03-15 | 2016-05-26 | クアルコム,インコーポレイテッド | ズーミングジェスチャの検出 |
JP2019139712A (ja) * | 2018-02-15 | 2019-08-22 | Necプラットフォームズ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US10521050B2 (en) | 2014-11-13 | 2019-12-31 | Maxell, Ltd. | Projection video display apparatus and video display method |
JP2020074081A (ja) * | 2015-10-14 | 2020-05-14 | マクセル株式会社 | 操作方法 |
US10915220B2 (en) | 2015-10-14 | 2021-02-09 | Maxell, Ltd. | Input terminal device and operation input method |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9274622B2 (en) * | 2012-09-11 | 2016-03-01 | Microsoft Technology Licensing, Llc | Device specific data in a unified pointer message |
US9626889B2 (en) * | 2012-09-24 | 2017-04-18 | Semiconductor Energy Laboratory Co., Ltd. | Method and program for driving information processing device |
JP5927342B2 (ja) * | 2013-05-28 | 2016-06-01 | 京セラドキュメントソリューションズ株式会社 | 表示装置及び画像形成装置 |
CN105765494B (zh) * | 2013-12-19 | 2019-01-22 | 麦克赛尔株式会社 | 投影型影像显示装置和投影型影像显示方法 |
TWI545461B (zh) * | 2014-01-03 | 2016-08-11 | 由田新技股份有限公司 | 校正方法及電子裝置 |
KR102279790B1 (ko) * | 2015-03-10 | 2021-07-19 | 엘지전자 주식회사 | 차량용 디스플레이 장치 |
JP2016201002A (ja) * | 2015-04-10 | 2016-12-01 | 船井電機株式会社 | 位置検出装置及び空間入力装置 |
US10881713B2 (en) | 2015-10-28 | 2021-01-05 | Atheer, Inc. | Method and apparatus for interface control with prompt and feedback |
US10248284B2 (en) * | 2015-11-16 | 2019-04-02 | Atheer, Inc. | Method and apparatus for interface control with prompt and feedback |
US11635827B2 (en) * | 2016-06-28 | 2023-04-25 | Nikon Corporation | Control device, display device, program, and detection method |
JP6822472B2 (ja) * | 2016-06-28 | 2021-01-27 | 株式会社ニコン | 表示装置、プログラム、表示方法および制御装置 |
US10126827B2 (en) * | 2016-08-11 | 2018-11-13 | Chi Fai Ho | Apparatus and method to navigate media content using repetitive 3D gestures |
US10254846B1 (en) * | 2017-03-15 | 2019-04-09 | Meta Company | Systems and methods to facilitate interactions with virtual content in an augmented reality environment |
US10620779B2 (en) * | 2017-04-24 | 2020-04-14 | Microsoft Technology Licensing, Llc | Navigating a holographic image |
DE102017216527A1 (de) * | 2017-09-19 | 2019-03-21 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Anzeigen von Informationspunkten auf einer digitalen Landkarte |
US11966569B2 (en) * | 2021-04-30 | 2024-04-23 | Zebra Technologies Corporation | Systems and methods for interacting with overlapping regions of interest in machine vision applications |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020041327A1 (en) * | 2000-07-24 | 2002-04-11 | Evan Hildreth | Video-based image control system |
JP2005301668A (ja) * | 2004-04-12 | 2005-10-27 | Seiko Epson Corp | 情報処理装置および情報処理プログラム |
JP2008117371A (ja) * | 2006-10-13 | 2008-05-22 | Sony Corp | 近接検知型情報表示装置およびこれを使用した情報表示方法 |
WO2009144685A2 (en) * | 2008-05-29 | 2009-12-03 | Anzola Carlos A | Human interface electronic device |
JP2011039844A (ja) * | 2009-08-12 | 2011-02-24 | Shimane Prefecture | 画像認識装置および操作判定方法並びにプログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001216069A (ja) | 2000-02-01 | 2001-08-10 | Toshiba Corp | 操作入力装置および方向検出方法 |
US7348963B2 (en) * | 2002-05-28 | 2008-03-25 | Reactrix Systems, Inc. | Interactive video display system |
JP3941786B2 (ja) | 2004-03-03 | 2007-07-04 | 日産自動車株式会社 | 車両用操作入力装置および方法 |
JP4267648B2 (ja) | 2006-08-25 | 2009-05-27 | 株式会社東芝 | インターフェース装置及びその方法 |
US9772689B2 (en) * | 2008-03-04 | 2017-09-26 | Qualcomm Incorporated | Enhanced gesture-based image manipulation |
JP4318056B1 (ja) | 2008-06-03 | 2009-08-19 | 島根県 | 画像認識装置および操作判定方法 |
JP2010176170A (ja) * | 2009-01-27 | 2010-08-12 | Sony Ericsson Mobilecommunications Japan Inc | 表示装置、表示制御方法および表示制御プログラム |
US8649554B2 (en) * | 2009-05-01 | 2014-02-11 | Microsoft Corporation | Method to control perspective for a camera-controlled computer |
-
2011
- 2011-08-23 JP JP2011181387A patent/JP5921835B2/ja active Active
-
2012
- 2012-08-02 US US13/565,115 patent/US20130194174A1/en not_active Abandoned
- 2012-08-07 EP EP20120005724 patent/EP2562620A1/en not_active Withdrawn
- 2012-08-08 CN CN201210280039.4A patent/CN102955568B/zh active Active
-
2015
- 2015-01-02 US US14/588,565 patent/US20150116213A1/en not_active Abandoned
-
2017
- 2017-08-25 US US15/686,348 patent/US20170351338A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020041327A1 (en) * | 2000-07-24 | 2002-04-11 | Evan Hildreth | Video-based image control system |
JP2005301668A (ja) * | 2004-04-12 | 2005-10-27 | Seiko Epson Corp | 情報処理装置および情報処理プログラム |
JP2008117371A (ja) * | 2006-10-13 | 2008-05-22 | Sony Corp | 近接検知型情報表示装置およびこれを使用した情報表示方法 |
WO2009144685A2 (en) * | 2008-05-29 | 2009-12-03 | Anzola Carlos A | Human interface electronic device |
JP2011039844A (ja) * | 2009-08-12 | 2011-02-24 | Shimane Prefecture | 画像認識装置および操作判定方法並びにプログラム |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016515268A (ja) * | 2013-03-15 | 2016-05-26 | クアルコム,インコーポレイテッド | ズーミングジェスチャの検出 |
JP2015035103A (ja) * | 2013-08-08 | 2015-02-19 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
JP2015201064A (ja) * | 2014-04-09 | 2015-11-12 | 株式会社東芝 | 情報処理装置、映像投影装置、情報処理方法及びプログラム |
JP2016009301A (ja) * | 2014-06-24 | 2016-01-18 | 株式会社デンソー | 車両用入力装置 |
US10915186B2 (en) | 2014-11-13 | 2021-02-09 | Maxell, Ltd. | Projection video display apparatus and video display method |
US10521050B2 (en) | 2014-11-13 | 2019-12-31 | Maxell, Ltd. | Projection video display apparatus and video display method |
JP2020074081A (ja) * | 2015-10-14 | 2020-05-14 | マクセル株式会社 | 操作方法 |
US10915220B2 (en) | 2015-10-14 | 2021-02-09 | Maxell, Ltd. | Input terminal device and operation input method |
US11775129B2 (en) | 2015-10-14 | 2023-10-03 | Maxell, Ltd. | Input terminal device and operation input method |
JP2019139712A (ja) * | 2018-02-15 | 2019-08-22 | Necプラットフォームズ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2021121962A (ja) * | 2019-10-10 | 2021-08-26 | マクセル株式会社 | 操作方法 |
JP7273098B2 (ja) | 2019-10-10 | 2023-05-12 | マクセル株式会社 | 操作方法 |
JP2023099106A (ja) * | 2019-10-10 | 2023-07-11 | マクセル株式会社 | 操作方法 |
JP7453450B2 (ja) | 2019-10-10 | 2024-03-19 | マクセル株式会社 | 操作方法 |
Also Published As
Publication number | Publication date |
---|---|
CN102955568A (zh) | 2013-03-06 |
EP2562620A1 (en) | 2013-02-27 |
JP5921835B2 (ja) | 2016-05-24 |
US20150116213A1 (en) | 2015-04-30 |
US20170351338A1 (en) | 2017-12-07 |
US20130194174A1 (en) | 2013-08-01 |
CN102955568B (zh) | 2017-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5921835B2 (ja) | 入力装置 | |
EP2620849B1 (en) | Operation input apparatus, operation input method, and program | |
KR100851977B1 (ko) | 가상 평면을 이용하여 전자 기기의 사용자 인터페이스를제어하는 방법 및 장치. | |
US9400560B2 (en) | Image display device and display control method thereof | |
US9342925B2 (en) | Information processing apparatus, information processing method, and program | |
JP2012027515A (ja) | 入力方法及び入力装置 | |
JP5921981B2 (ja) | 映像表示装置および映像表示方法 | |
JP2010224764A (ja) | タッチパネル式ディスプレイを持った携帯型ゲーム装置 | |
US20120218308A1 (en) | Electronic apparatus with touch screen and display control method thereof | |
KR101392936B1 (ko) | 사용자 맞춤형 인터페이스 시스템 및 그 구현 방법 | |
US20130234937A1 (en) | Three-dimensional position specification method | |
JP2012094085A (ja) | 入力装置 | |
JP6034281B2 (ja) | オブジェクト選択方法、装置及びコンピュータ・プログラム | |
JP2010272036A (ja) | 画像処理装置 | |
JP2013109538A (ja) | 入力方法及び入力装置 | |
US11656733B2 (en) | Position specifying method and program | |
KR101394604B1 (ko) | 모션 감지를 통한 사용자 인터페이스 구현 방법 및 그 장치 | |
JP5769841B2 (ja) | タッチパネル式ディスプレイを持った携帯型ゲーム装置 | |
KR101573287B1 (ko) | 전자기기에서 터치 위치 디스플레이 방법 및 장치 | |
JP6126639B2 (ja) | タッチパネル式ディスプレイを持った携帯型ゲーム装置及びゲームプログラム。 | |
US20240160294A1 (en) | Detection processing device, detection processing method, information processing system | |
TW201301877A (zh) | 以影像感測器為基礎之具有多輸入模式之多維度遙控器 | |
JP5523381B2 (ja) | タッチパネル式ディスプレイを持った携帯型ゲーム装置 | |
JP2012113653A (ja) | 制御装置、入力装置、入力判定方法、プログラム | |
WO2022191276A1 (ja) | 操作入力装置、操作入力方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140709 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20140908 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20140912 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20140918 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150609 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150804 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160310 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160329 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160413 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5921835 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |