JP2023010138A - Input device, input method, and input program - Google Patents
Input device, input method, and input program Download PDFInfo
- Publication number
- JP2023010138A JP2023010138A JP2021114051A JP2021114051A JP2023010138A JP 2023010138 A JP2023010138 A JP 2023010138A JP 2021114051 A JP2021114051 A JP 2021114051A JP 2021114051 A JP2021114051 A JP 2021114051A JP 2023010138 A JP2023010138 A JP 2023010138A
- Authority
- JP
- Japan
- Prior art keywords
- input
- user
- processing unit
- hand
- reference point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 117
- 238000012545 processing Methods 0.000 claims abstract description 210
- 238000001514 detection method Methods 0.000 claims abstract description 44
- 210000004932 little finger Anatomy 0.000 claims description 9
- 238000003384 imaging method Methods 0.000 abstract 1
- 238000004364 calculation method Methods 0.000 description 52
- 238000010586 diagram Methods 0.000 description 15
- 210000003813 thumb Anatomy 0.000 description 6
- 210000004247 hand Anatomy 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000001145 finger joint Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Abstract
Description
特許法第30条第2項適用申請有り 1.リテールテック JAPAN 2021 令和3年3月9日発表 2.シャープドキュメントサークル 令和3年4月22日発表There is an application for the application of Article 30,
本発明は、ユーザーの手によるジェスチャー操作を検出して表示画面の入力位置に対して入力処理を行う入力装置、入力方法、及び入力プログラムに関する。 The present invention relates to an input device, an input method, and an input program for detecting a gesture operation by a user's hand and performing input processing on an input position on a display screen.
従来、表示パネルの表示画面に対してジェスチャー操作による入力(画面操作)を行なうことが可能な入力装置が知られている。例えば、特許文献1には、仮想空間内のユーザーの手を撮像した画像から手の形状、動き、及び位置の少なくともいずれかを把握して、入力情報を判定する装置が開示されている。
2. Description of the Related Art Conventionally, there is known an input device capable of performing input (screen operation) by gesture operation on a display screen of a display panel. For example,
ここで、前記入力装置は、例えばユーザーの手によるジェスチャー操作により指示された表示画面上の位置(入力位置)を、手の位置に基づいて特定する。例えば、前記入力装置は、ユーザーの指の関節の位置や、ジェスチャー操作時の手を投影した全体領域の中心(重心)位置などを入力位置として特定する。しかし、この方法では、例えばユーザーが手を開く操作(第1ジェスチャー操作)から手を閉じる(握る)操作(第2ジェスチャー操作)に変化させた場合に前記入力位置がユーザーの意図しない方向に変化する問題が生じる。 Here, the input device specifies, for example, a position (input position) on the display screen indicated by gesture operation by the user's hand, based on the position of the hand. For example, the input device specifies, as input positions, the position of the user's finger joints, the center (center of gravity) position of the entire area where the hand is projected during the gesture operation, and the like. However, in this method, for example, when the user changes from opening the hand (first gesture operation) to closing (holding) the hand (second gesture operation), the input position changes in a direction not intended by the user. problem arises.
本発明の目的は、ユーザーのジェスチャー操作を検出して表示画面の入力位置に対して入力処理を行う入力装置においてユーザーのジェスチャー操作の変化によって入力位置がユーザーの意図しない方向に変化することを防止することが可能な入力装置、入力方法、及び入力プログラムを提供することにある。 An object of the present invention is to prevent the input position from changing in an unintended direction due to changes in the user's gesture operation in an input device that detects a user's gesture operation and performs input processing on the input position on the display screen. To provide an input device, an input method, and an input program capable of
本発明の一の態様に係る入力装置は、ユーザーの手によるジェスチャー操作を検出して表示画面の入力位置に対して入力処理を行う入力装置であって、前記ユーザーを撮像した撮像画像を取得する取得処理部と、前記取得処理部により取得される前記撮像画像から前記ユーザーの手を検出する検出処理部と、前記検出処理部により検出される前記ユーザーの手の形状を判定する判定処理部と、前記検出処理部により検出される前記ユーザーの手を囲む特定領域の下辺の所定位置に基準点を設定する基準点設定処理部と、前記検出処理部により検出される前記ユーザーの手の形状が所定の形状である場合に、前記基準点設定処理部により設定される前記基準点に対応する前記入力位置に対して前記入力処理を実行する入力処理部と、を備える装置である。 An input device according to one aspect of the present invention is an input device that detects a gesture operation by a user's hand and performs input processing at an input position on a display screen, and acquires a captured image of the user. an acquisition processing unit, a detection processing unit that detects the user's hand from the captured image acquired by the acquisition processing unit, and a determination processing unit that determines the shape of the user's hand detected by the detection processing unit; a reference point setting processing unit for setting a reference point at a predetermined position on the lower side of the specific area surrounding the user's hand detected by the detection processing unit; and a shape of the user's hand detected by the detection processing unit. and an input processing unit that executes the input processing for the input position corresponding to the reference point set by the reference point setting processing unit when the object has a predetermined shape.
本発明の他の態様に係る入力方法は、ユーザーの手によるジェスチャー操作を検出して表示画面の入力位置に対して入力処理を行う入力方法であって、一又は複数のプロセッサーが、前記ユーザーを撮像した撮像画像を取得する取得ステップと、前記取得ステップにより取得される前記撮像画像から前記ユーザーの手を検出する検出ステップと、前記検出ステップにおいて検出される前記ユーザーの手の形状を判定する判定ステップと、前記検出ステップにおいてより検出される前記ユーザーの手を囲む特定領域の下辺の所定位置に基準点を設定する設定ステップと、前記検出ステップにより検出される前記ユーザーの手の形状が所定の形状である場合に、前記設定ステップにより設定される前記基準点に対応する前記入力位置に対して前記入力処理を実行する入力ステップと、を実行する方法である。 An input method according to another aspect of the present invention is an input method that detects a gesture operation by a user's hand and performs input processing on an input position on a display screen, wherein one or more processors input the user's an acquisition step of acquiring an imaged captured image; a detection step of detecting the user's hand from the captured image acquired by the acquisition step; and a determination of determining the shape of the user's hand detected in the detection step. a setting step of setting a reference point at a predetermined position on the lower side of the specific area surrounding the user's hand detected in the detection step; an input step of executing the input process with respect to the input position corresponding to the reference point set by the setting step, if the shape is a shape.
本発明の他の態様に係る入力プログラムは、前記ユーザーを撮像した撮像画像を取得する取得ステップと、前記取得ステップにより取得される前記撮像画像から前記ユーザーの手を検出する検出ステップと、前記検出ステップにおいて検出される前記ユーザーの手の形状を判定する判定ステップと、前記検出ステップにおいてより検出される前記ユーザーの手を囲む特定領域の下辺の所定位置に基準点を設定する設定ステップと、前記検出ステップにより検出される前記ユーザーの手の形状が所定の形状である場合に、前記設定ステップにより設定される前記基準点に対応する前記入力位置に対して前記入力処理を実行する入力ステップと、を一又は複数のプロセッサーに実行させるためのプログラムである。 An input program according to another aspect of the present invention includes an acquisition step of acquiring a captured image of the user; a detection step of detecting the user's hand from the captured image acquired by the acquisition step; a determining step of determining the shape of the user's hand detected in the step; a setting step of setting a reference point at a predetermined position on the lower side of the specific area surrounding the user's hand detected in the detecting step; an input step of performing the input process on the input position corresponding to the reference point set by the setting step when the shape of the user's hand detected by the detection step is a predetermined shape; is executed by one or more processors.
本発明によれば、ユーザーのジェスチャー操作を検出して表示画面の入力位置に対して入力処理を行う入力装置においてユーザーのジェスチャー操作の変化によって入力位置がユーザーの意図しない方向に変化することを防止することが可能な入力装置、入力方法、及び入力プログラムを提供することができる。 According to the present invention, in an input device that detects a user's gesture operation and performs input processing on the input position on the display screen, it is possible to prevent the input position from changing in a direction not intended by the user due to a change in the user's gesture operation. It is possible to provide an input device, an input method, and an input program that can
以下、添付図面を参照しながら、本発明の実施形態について説明する。なお、以下の実施形態は、本発明を具体化した一例であって、本発明の技術的範囲を限定する性格を有さない。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. It should be noted that the following embodiment is an example that embodies the present invention, and does not have the character of limiting the technical scope of the present invention.
図1に示すように、本発明の実施形態に係る表示装置1は、制御部11と、記憶部12と、表示パネル13と、操作部14と、カメラ15とを備えている。図2には、表示装置1の模式図を示している。カメラ15は、表示パネル13の上部に設置され、表示パネル13の前方の所定エリアを撮像する。表示装置1は、本発明の入力装置の一例である。本発明の入力装置は、表示装置に限定されず、表示パネル13及びカメラ15とデータ通信可能なサーバーなどの情報処理装置であってもよい。
As shown in FIG. 1 , the
表示装置1は、表示画面13Aに対するユーザーの非接触による入力操作を受け付ける。例えば、表示装置1は、カメラ15の前方においてユーザーのジェスチャーによる入力操作(ジェスチャー操作)を検出すると、表示画面13Aに対するユーザーの前記入力操作に応じた入力処理を実行する。例えば、ユーザーがカメラ15の前方で手を閉じる操作(グーの状態)をした場合に、表示装置1は、表示画面13A上のマウスカーソルM1の位置においてタッチ入力を受け付ける。以下、表示装置1の具体的構成について説明する。
The
カメラ15は、被写体の画像を撮像してデジタル画像データとして出力するデジタルカメラである。カメラ15は、所定のフレームレートで画像を撮像し、デジタル画像データを制御部11に順次出力する。カメラ15は、1台であってもよいし複数台であってもよい。具体的には、カメラ15は、表示パネル13の上部に設置され、表示パネル13の前方の所定エリアを撮像する。
The
表示パネル13は、表示画面13Aに画像を表示するディスプレイであり、例えば液晶ディスプレイである。操作部14は、マウス、キーボードなどの操作機器である。なお、操作部14は、タッチパネルで構成されてもよい。
The
表示パネル13は、制御部11の指示に従って各種の画像を表示する。例えば図2に示すように、表示パネル13は、ユーザーの手に追従して移動するマウスカーソルM1(本発明の入力操作用アイコンの一例)、ユーザーの手による所定のジェスチャー操作に応じてタッチ入力を受け付ける操作ボタン(ここでは「Yes」ボタン、「No」ボタン)、カメラ15が撮像した撮像画像Wp(ワイプ画面)などを表示する。図3には、撮像画像Wpの拡大図を示している。詳細は後述するが、撮像画像Wpには、ユーザーの手を囲む矩形領域A1(本発明の特定領域の一例)の外枠を表す枠画像と、表示画面13Aにおける入力可能な入力可能領域F1(図2参照)に対応する操作領域A11の外枠を表す枠画像とが表示される。ユーザーは、表示画面13Aに重ねて表示される撮像画像Wpを見ながら、マウスカーソルM1の位置を移動させたり、マウスカーソルM1により操作ボタンを選択(クリック)したりする。例えば、ユーザーは、手を開いた状態(パーの状態)(図3参照)で動かすことによりマウスカーソルM1の表示位置を移動させ、マウスカーソルM1が「Yes」ボタンに重なる位置にある場合に手を閉じた状態(グーの状態)(図5参照)にすることにより「Yes」ボタンを選択(クリック)する。手を開く操作は本発明の第1ジェスチャー操作の一例であり、手を閉じる操作は本発明の第2ジェスチャー操作の一例である。
The
記憶部12は、各種の情報を記憶するHDD(Hard Disk Drive)又はSSD(Solid State Drive)などの不揮発性の記憶部である。記憶部12には、制御部11に後述の表示制御処理(図15等参照)を実行させるための表示制御プログラムなどの制御プログラムが記憶されている。例えば、前記表示制御プログラムは、CD又はDVDなどのコンピュータ読取可能な記録媒体に非一時的に記録され、表示装置1が備えるCDドライブ又はDVDドライブなどの読取装置(不図示)で読み取られて記憶部12に記憶される。なお、前記表示制御プログラムは、クラウドサーバーから配信されて記憶部12に記憶されてもよい。
The
制御部11は、CPU、ROM、及びRAMなどの制御機器を有する。前記CPUは、各種の演算処理を実行するプロセッサーである。前記ROMは、前記CPUに各種の演算処理を実行させるためのBIOS及びOSなどの制御プログラムが予め記憶される不揮発性の記憶部である。前記RAMは、各種の情報を記憶する揮発性又は不揮発性の記憶部であり、前記CPUが実行する各種の処理の一時記憶メモリー(作業領域)として使用される。そして、制御部11は、前記ROM又は記憶部12に予め記憶された各種の制御プログラムを前記CPUで実行することにより表示装置1を制御する。
The
ところで、従来の技術では、例えばユーザーが手を開く操作(図3参照)から手を閉じる操作(図5参照)に変化させた場合に表示画面13Aに対する入力位置がユーザーの意図しない方向に変化する問題が生じる。以下、この問題の具体例を説明する。
By the way, in the conventional technology, for example, when the user changes from opening the hand (see FIG. 3) to closing the hand (see FIG. 5), the input position on the
図4には、手を開いた状態の拡大図を示し、図6には、手を閉じた状態の拡大図を示している。従来の技術では、ジェスチャー操作時の手を投影した全体領域(矩形領域A1)の中心位置P0を入力位置として特定しているため、手を開いた状態から閉じた状態に変化させた場合に、図6に示すように中心位置P0が矩形領域A2の中心位置P0´に移動してしまう。このため、ユーザーが手を開いた状態から閉じた状態に変化させた場合に、中心位置P0に対応するマウスカーソルM1の位置も移動してしまい、ユーザーが意図した操作、例えば「Yes」ボタンの選択操作を正しく行うことができなくなる。これに対して、本実施形態に係る表示装置1では、以下に示すように、ユーザーのジェスチャー操作の変化によって入力位置がユーザーの意図しない方向に変化することを防止することが可能である。
FIG. 4 shows an enlarged view of the open hand, and FIG. 6 shows an enlarged view of the closed hand. In the conventional technology, since the center position P0 of the entire area (rectangular area A1) where the hand is projected at the time of gesture operation is specified as the input position, when the hand is changed from the open state to the closed state, As shown in FIG. 6, the central position P0 moves to the central position P0' of the rectangular area A2. Therefore, when the user changes the hand from the open state to the closed state, the position of the mouse cursor M1 corresponding to the center position P0 also moves, resulting in an operation intended by the user, such as pressing the "Yes" button. Selection operations cannot be performed correctly. On the other hand, in the
具体的に、制御部11は、図1に示すように、表示処理部111、取得処理部112、検出処理部113、判定処理部114、基準点設定処理部115、操作領域設定処理部116、仮想入力可能領域設定処理部117、及び入力処理部118などの各種の処理部を含む。なお、制御部11は、前記CPUで前記表示制御プログラム及びに従った各種の処理を実行することによって各処理部として機能する。また、制御部11に含まれる一部又は全部の処理部が電子回路で構成されていてもよい。なお、前記表示制御プログラムは、複数のプロセッサーを前記各種の処理部として機能させるためのプログラムであってもよい。
Specifically, as shown in FIG. 1, the
表示処理部111は、各種情報を表示パネル13に表示させる。表示処理部111は、各種アプリケーションの実行に従って各種画像を表示させる。例えば、表示処理部111は、図2に示す表示画面13Aを表示パネル13に表示させる。また、表示処理部111は、撮像画像Wpを表示画面13Aの端部(隅部)に表示させる。撮像画像Wpは、カメラ15により撮像された所定エリアの撮像画像のうち、検出されたユーザーの顔画像を含む特定の範囲の部分画像である。表示処理部111は、表示画面13Aの隅部の小画面に撮像画像Wpを表示させる。また、表示処理部111は、カメラ15から取得される撮像画像に応じて撮像画像Wpをリアルタイムで更新する。また、表示処理部111は、表示画面13Aにおいて、撮像画像Wpを表示させるとともに、操作領域A11に対応する枠画像(本発明の操作領域画像の一例)を撮像画像Wpに重ねて表示させる。なお、撮像画像Wpの表示位置は限定されない。また表示処理部111は、ユーザーの顔又は手が検出されたことを条件として撮像画像Wpを表示させてもよい。
The
また、表示処理部111は、表示画面13Aの下端から所定幅だけ内側に設定された入力可能領域F1内において、基準点P1に対応する入力位置にマウスカーソルM1(入力操作用アイコン)を表示させる。前記所定幅は、例えば撮像画像Wpの縦幅に設定される。ユーザーは、入力可能領域F1内においてマウスカーソルM1を移動させることが可能である。表示処理部111は、本発明の表示処理部の一例である。
Further, the
取得処理部112は、ユーザーを撮像した撮像画像を取得する。具体的には、取得処理部112は、カメラ15が所定のフレームレートで撮像した画像のデジタル画像データをカメラ15から順次取得する。取得処理部112は、本発明の取得処理部の一例である。
The
検出処理部113は、取得処理部112により取得される前記撮像画像からユーザー(例えば顔)を検出する。また、検出処理部113は、前記撮像画像からユーザーの手を検出する。ユーザーの顔及び手を検出する方法は、周知の方法を適用することができる。例えば、検出処理部113は、デジタル画像データに対してクロップ、リサイズ、反転、回転などの処理を実行し、ユーザーの顔及び手を検出する。検出処理部113は、手を検出すると、手の動きをトラッキング(追跡)する。検出処理部113は、本発明の検出処理部の一例である。
The
判定処理部114は、検出処理部113により検出されるユーザーの手の形状を判定する。例えば、判定処理部114は、ユーザーの手が開いた状態(パーの状態)(図3参照)であるか、又は、閉じた状態(グーの状態)(図5参照)であるかを判定する。また、判定処理部114は、検出処理部113により検出されるユーザーの手が右手であるか、又は、左手であるかを判定する。判定処理部114は、本発明の判定処理部の一例である。
The
基準点設定処理部115は、検出処理部113により検出されるユーザーの手を囲む矩形領域A1の下辺の所定位置に基準点P1を設定する。具体的には、基準点設定処理部115は、矩形領域A1の下辺における一方の端部E1から他方の端部E2までの間を所定の比率で分割した位置を基準点P1に設定する。基準点設定処理部115は、本発明の基準点設定処理部の一例である。
The reference point
基準点P1は、表示画面13Aにおける入力位置に対応する仮想空間の位置である。入力処理部118は、基準点P1に対応する入力位置に対して入力処理を実行する。具体的には、入力処理部118は、検出処理部113により検出されるユーザーの手の形状が所定の形状である場合に、基準点設定処理部115により設定される基準点P1に対応する入力位置に対して入力処理を実行する。例えば、入力処理部118は、表示画面13Aにおいて、基準点P1を表示画面13Aに対応する領域にマッピングした位置にマウスカーソルM1を表示させる。入力処理部118は、本発明の入力処理部の一例である。
The reference point P1 is a position in the virtual space corresponding to the input position on the
以下、基準点P1の具体的な設定方法を説明する。ここでは、前記設定方法の具体例として、第1設定方法、第2設定方法、及び第3設定方法を挙げる。 A specific method for setting the reference point P1 will be described below. Here, a first setting method, a second setting method, and a third setting method are given as specific examples of the setting method.
[第1設定方法]
図4には、第1設定方法の一例を示している。図4に示すように、基準点設定処理部115は、矩形領域A1の下辺L1の中心位置を基準点P1に設定する。ここで、矩形領域A1は、手が開いた状態で手の最外端部に接する矩形の領域であり、基準点P1は手が開いた状態における矩形領域A1の下辺L1の中心位置である。このため、図6に示すように、手を閉じた状態にした場合でも、基準点P1の位置は変化しない。このように、基準点設定処理部115は、手の形状の変化に関わらず、手が開いた状態における矩形領域A1の下辺L1の中心位置を基準点P1に設定する。なお、基準点設定処理部115は、手が閉じた状態における矩形領域A1の下辺L1の中心位置を基準点P1に設定してもよい。
[First setting method]
FIG. 4 shows an example of the first setting method. As shown in FIG. 4, the reference point
第1設定方法では、入力処理部118は、矩形領域A1の下辺L1の中心位置の座標を入力位置の座標として算出する。例えば、矩形領域A1の横幅をW1、縦幅をH1、左上端部E0を原点[x,y]とした場合に、入力処理部118は、基準点P1の座標として、[x+(W1)/2,y+H1]を算出する。入力処理部118は、算出した基準点P1の座標に基づいてマウスカーソルM1の位置座標を算出する。表示処理部111は、表示画面13Aにおいて、算出された位置座標にマウスカーソルM1を表示させる。
In the first setting method, the
[第2設定方法]
図7には、第2設定方法の一例を示している。図7に示すように、基準点設定処理部115は、矩形領域A1の下辺L1におけるユーザーの手の小指側の端部から1:2の比率の位置を基準点P1に設定する。ここで、手を開いた状態(図4参照)から手を閉じた状態(図6参照)に変化させると、中心位置P0の横方向位置は小指側に移動する。この移動量は、親指の面積及び移動量の影響を受け易い。そこで、基準点設定処理部115は、矩形領域A1のうち親指側から1/3の領域を親指の領域と仮定し、親指の領域を除く掌の領域(矩形領域A1のうち小指側の2/3の領域)を抽出し、当該掌の領域の下辺L1の中心位置を基準点P1に設定する。すなわち、基準点設定処理部115は、矩形領域A1の下辺L1におけるユーザーの手の小指側の端部E1から1:2の比率の位置を基準点P1に設定する。
[Second setting method]
FIG. 7 shows an example of the second setting method. As shown in FIG. 7, the reference point
第2設定方法では、入力処理部118は、矩形領域A1の下辺L1におけるユーザーの手の小指側の端部E1から1:2の比率の座標を入力位置の座標として算出する。例えば、入力処理部118は、基準点P1の座標として、[x+(W1)/3,y+H1]を算出する。入力処理部118は、算出した基準点P1の座標に基づいてマウスカーソルM1の位置座標を算出する。表示処理部111は、表示画面13Aにおいて、算出された位置座標にマウスカーソルM1を表示させる。
In the second setting method, the
[第3設定方法]
図8には、第3設定方法の一例を示している。図8に示すように、基準点設定処理部115は、矩形領域A1に含まれる複数の画素のうちユーザーの手の色を表示する特定画素を特定し、矩形領域A1の上辺から下辺L1に向かう列方向の画素列ごとの前記特定画素の合計画素数を算出し、下辺L1のうち前記合計画素数が閾値Cthを超える前記画素列の範囲に対応する部分辺の中心位置Xcを基準点P1に設定する。図8に示すグラフは、画素列ごとの前記特定画素の合計画素数を示している。基準点設定処理部115は、合計画素数が閾値Cthを超える画素列の最小位置Xmin及び最大位置Xmaxを算出し、最小位置Xminから最大位置Xmaxまでの部分辺の中心位置Xcを算出する。そして、基準点設定処理部115は、算出した中心位置Xcを基準点P1に設定する。
[Third setting method]
FIG. 8 shows an example of the third setting method. As shown in FIG. 8, the reference point
第3設定方法では、入力処理部118は、下辺L1のうち前記合計画素数が閾値Cthを超える前記画素列の範囲に対応する部分辺の中心位置Xcの座標を入力位置の座標として算出する。例えば、前記最小位置の座標を[Xmin,y+H1]とした場合に、入力処理部118は、基準点P1の座標として、[Xmin+(Xmax-Xmin)/2,y+H1]を算出する。入力処理部118は、算出した基準点P1の座標に基づいてマウスカーソルM1の位置座標を算出する。表示処理部111は、表示画面13Aにおいて、算出された位置座標にマウスカーソルM1を表示させる。
In the third setting method, the
基準点設定処理部115は、上述の第1設定方法、第2設定方法、及び第3設定方法のいずれかの方法により基準点P1を設定する。
The reference point
前記各設定方法によれば、基準点P1を矩形領域A1の下辺L1上に設定することにより、縦方向の位置ズレを生じ難くすることができる。また、手を開いた状態(第1ジェスチャー操作)の形状の矩形領域A1の情報を使用することにより、手を閉じた状態(第2ジェスチャー操作)の形状の矩形領域A2(図6参照)に変化した場合であっても、マウスカーソルM1の位置ズレを防止することができる。 According to each of the setting methods described above, by setting the reference point P1 on the lower side L1 of the rectangular area A1, it is possible to make the positional deviation in the vertical direction less likely to occur. Further, by using the information of the rectangular area A1 in the shape of the open hand (first gesture operation), the rectangular area A2 (see FIG. 6) in the shape of the closed hand (second gesture operation) can be obtained. Even if it changes, it is possible to prevent the mouse cursor M1 from being displaced.
また、前記第1設定方法によれば、基準点P1を下辺L1の中心に固定することができるため、入力位置の計算量を少なくすることができる。よって、CPUの処理能力が低い場合や、処理の高速化が必要とされる場合に有効である。 Further, according to the first setting method, the reference point P1 can be fixed at the center of the lower side L1, so the amount of calculation of the input position can be reduced. Therefore, it is effective when the processing power of the CPU is low or when high speed processing is required.
また、前記第2設定方法によれば、親指の領域が手の矩形領域A1の約1/3の領域と想定することにより、領域の変化の少ない掌の領域に着目して基準点P1を設定することができる。よって、横方向の入力位置を高精度かつ安定的に算出することができる。 Further, according to the second setting method, by assuming that the area of the thumb is about 1/3 of the rectangular area A1 of the hand, the reference point P1 is set focusing on the area of the palm where the area changes little. can do. Therefore, it is possible to stably calculate the input position in the lateral direction with high accuracy.
また、前記第3設定方法によれば、親指の領域を除外することにより、掌の領域に絞り込んで基準点P1を設定することができる。よって、横方向の入力位置をより高精度かつ安定的に算出することができる。 Further, according to the third setting method, by excluding the thumb area, the reference point P1 can be set by narrowing down to the palm area. Therefore, the horizontal input position can be calculated more accurately and stably.
入力処理部118は、基準点設定処理部115により上述したいずれかの設定方法により設定される基準点P1に対応する入力位置に対して入力処理を実行する。具体的には、入力処理部118は、検出処理部113により検出されるユーザーの手の形状が手を開いた形状(第1形状)である場合に、基準点P1の移動に応じて、表示画面13Aに表示されるマウスカーソルM1を移動させる移動処理を実行する。また、入力処理部118は、検出処理部113により検出されるユーザーの手の形状が手を開いた形状から閉じた形状(第2形状)に変化した場合に、基準点P1に対応するマウスカーソルM1の表示位置における選択対象(例えば図2の「Yes」ボタン又は「No」ボタン)の選択処理を実行する。
The
ここで、表示装置1は、例えばユーザーの手によるジェスチャー操作により指示された表示画面13A上の位置(入力位置)を、手の位置に基づいて特定する。ユーザーは、表示画面13Aに表示されるマウスカーソルM1を見ながら手を動かしたり手の形状を変化させたりすることによって入力操作を行う。しかし、従来の技術では、ユーザーは、自身の手を動かす範囲と、ユーザーの手の動きに応じて表示画面13A上で移動するマウスカーソルM1の表示画面13A内で移動可能な範囲との対応関係を把握し難い問題が生じる。例えばユーザーは、自身の手を所定距離だけ動かした場合に、表示画面13A上のマウスカーソルM1がどの程度移動するのかを把握し難い。このように、従来の技術では、ユーザーにとって操作性が低い問題がある。これに対して、本実施形態に係る表示装置1では、以下に示すように、表示装置1の操作性を向上させることが可能である。
Here, the
具体的には、操作領域設定処理部116は、検出処理部113により検出されるユーザーの手を含む領域であって、表示画面13A内のジェスチャー操作により入力可能な入力可能領域F1(図2参照)に対応するジェスチャー操作の操作領域A11を設定する。具体的には、操作領域設定処理部116は、検出処理部113がユーザーの手を検出すると手の外形を囲む矩形領域A1を設定し(図9参照)、予め設定されたマージンを用いて矩形領域A1よりも大きい操作領域A11を設定する(図10参照)。例えば、操作領域設定処理部116は、撮像画像Wpのうち前記検出された手の矩形領域A1を含む部分画像(W×3/5の領域)において、予め設定された上下左右のマージンm1~m4(図10参照)の位置に操作領域A11を設定する。また、操作領域設定処理部116は、左手又は右手を判定して、操作領域A11を設定する方向(左側又は右側)を決定する。なお、マージンm1~m4は、ユーザーが操作領域A11内の全領域において左右方向及び上下方向に手を移動させた場合に、マウスカーソルM1を入力可能領域F1(図2参照)内の全領域において左右方向及び上下方向に移動させることが可能となる値に設定される。
Specifically, the operation area setting
また例えば、操作領域設定処理部116は、矩形領域A1の横幅W1の半分の長さ(W1)/2を矩形領域A1の小指側に加算し、矩形領域A1の縦幅H1の半分の長さ(H1)/2を矩形領域A1の上側に加算し、矩形領域A1の縦幅H1の長さを矩形領域A1の下側に加算した領域を操作領域A11に設定してもよい。操作領域設定処理部116は、本発明の第1設定処理部の一例である。
Further, for example, the operation area setting
ここで、手の矩形領域A1の下辺の位置(基準点P1)をマウスカーソルM1の位置に対応付けているため、基準点P1を基準として操作領域A11を設定するとユーザーが手を上方に動かした場合に手が操作領域A11より上側にはみ出る状態まで動かさないとマウスカーソルM1を表示画面13Aの上端まで移動させることができず、ユーザーに違和感を与えてしまう。そこで、操作領域A11を実際の位置よりも上側に表示させることにより、ユーザーが違和感なく操作領域A11内でマウスカーソルM1を移動させることを可能にする。具体的には、表示処理部111は、表示画面13Aにおいて、撮像画像Wpを表示させるとともに、操作領域A11の外枠を表す枠画像を撮像画像Wpに対して実際の位置よりも上側にずらして表示させる。例えば図11に示すように、表示処理部111は、表示画面13Aにおいて、操作領域A11の外枠を表す枠画像を撮像画像Wpに対して、矩形領域A1の上下方向の半分の幅h((H1)/2)分だけ実際の位置(図11の点線枠)よりも上側にずらして表示させる。これにより、ユーザーは、掌の中心位置がマウスカーソルM1の位置に対応する感覚で、手の動作に応じたマウスカーソルM1を移動させることが可能となる。
Here, since the position of the lower side of the rectangular area A1 of the hand (reference point P1) is associated with the position of the mouse cursor M1, when the operation area A11 is set with the reference point P1 as the reference, the user moves the hand upward. In this case, the mouse cursor M1 cannot be moved to the upper end of the
仮想入力可能領域設定処理部117は、入力可能領域F1よりも大きい仮想入力可能領域F2(仮想画面)を設定する。例えば図12に示すように、表示画面13Aの横幅をW2、縦幅をH2とした場合に、仮想入力可能領域設定処理部117は、表示画面13Aの横幅W2の半分の長さ((W2)/2)を表示画面13Aの右側及び左側のそれぞれに加算し、表示画面13Aの縦幅H2の半分の長さ((H2)/2)を表示画面13Aの上側及び下側のそれぞれに加算した領域(入力可能領域F1の縦横2倍の領域)を仮想入力可能領域F2に設定する。仮想入力可能領域設定処理部117は、本発明の第2設定処理部の一例である。
The virtual input-enabled
入力処理部118は、操作領域A11、入力可能領域F1、及び仮想入力可能領域F2を利用して、表示画面13Aにおける入力位置を算出して入力処理を実行する。
The
以下、入力位置の具体的な算出方法を説明する。ここでは、前記算出方法の具体例として、第1算出方法、第2算出方法、及び第3算出方法を挙げる。 A specific method of calculating the input position will be described below. Here, a first calculation method, a second calculation method, and a third calculation method are given as specific examples of the calculation method.
[第1算出方法]
図12には、第1算出方法の一例を示している。図12に示すように、表示処理部111は、操作領域A11の外枠の枠画像を撮像画像Wp内に表示させる。また、入力処理部118は、基準点P1に対応する操作領域A11内の位置を仮想入力可能領域F2内に対応付けた位置を、前記入力位置として算出する。具体的には、入力処理部118は、操作領域A11の基準点P1を仮想入力可能領域F2にマッピングする。そして、マッピングした位置(マウスカーソルM1の位置)が入力可能領域F1内に収まっている場合は、入力処理部118は、当該位置を入力位置に決定し、当該入力位置にマウスカーソルM1を表示させる。一方、マッピングした位置(マウスカーソルM1の位置)が入力可能領域F1外にはみ出る場合には、入力処理部118は、入力可能領域F1内に再マッピングして、入力可能領域F1の端部の位置を入力位置に決定し、当該入力位置にマウスカーソルM1を表示させる。
[First calculation method]
FIG. 12 shows an example of the first calculation method. As shown in FIG. 12, the
このように、第1算出方法では、入力処理部118は、操作領域A11と入力可能領域F1とをマッピングする際に、操作領域A11を実際の表示画面13Aの画面サイズに対して縦横2倍の仮想入力可能領域F2に対してマッピングを行い、入力可能領域F1外にマウスカーソルM1がマッピングされた場合には入力可能領域F1内に再マッピングする。
As described above, in the first calculation method, when mapping the operation area A11 and the input-enabled area F1, the
[第2算出方法]
図13には、第2算出方法の一例を示している。図13に示すように、表示処理部111は、操作領域A11よりも大きい仮想操作領域B1の外枠の枠画像を撮像画像Wp内に表示させる。例えば、表示処理部111は、操作領域A11の横幅の半分の長さを操作領域A11の右側及び左側のそれぞれに加算し、操作領域A11の縦幅の半分の長さを操作領域A11の上側及び下側のそれぞれに加算した拡張領域(仮想操作領域B1)の枠画像を撮像画像Wp内に表示させる。すなわち、表示処理部111は、撮像画像Wpにおいて、操作領域A11の枠画像を表示させず、操作領域A11を拡張した仮想の仮想操作領域B1の枠画像を表示させる。これにより、ユーザーは、撮像画像Wp内に表示される仮想操作領域B1の枠画像を見ながら手を動かす。
[Second calculation method]
FIG. 13 shows an example of the second calculation method. As shown in FIG. 13, the
入力処理部118は、基準点P1に対応する操作領域A11内の位置を入力可能領域F1内に対応付けた位置を、前記入力位置として算出する。具体的には、入力処理部118は、操作領域A11の基準点P1を入力可能領域F1にマッピングする。そして、マッピングした位置(マウスカーソルM1の位置)が入力可能領域F1内に収まっている場合は、入力処理部118は、当該位置を入力位置に決定し、当該入力位置にマウスカーソルM1を表示させる。一方、マッピングした位置(マウスカーソルM1の位置)が入力可能領域F1外にはみ出る場合には、入力処理部118は、入力可能領域F1内に再マッピングして、入力可能領域F1の端部の位置を入力位置に決定し、当該入力位置にマウスカーソルM1を表示させる。
The
このように、第2算出方法では、操作領域A11の大きさに対して縦横2倍の仮想操作領域B1の枠画像を撮像画像Wp内に表示させつつ、入力処理部118は、操作領域A11を入力可能領域F1にマッピングを行い、入力可能領域F1外にマウスカーソルM1がマッピングされた場合には入力可能領域F1内に再マッピングする。
As described above, in the second calculation method, the
[第3算出方法]
図14には、第3算出方法の一例を示している。図14に示すように、表示処理部111は、前記第2算出方法と同様に、操作領域A11よりも大きい仮想操作領域B1の枠画像を撮像画像Wp内に表示させる。すなわち、表示処理部111は、撮像画像Wpにおいて、操作領域A11の枠画像を表示させず、仮想操作領域B1の枠画像を表示させる。また、入力処理部118は、基準点P1に対応する仮想操作領域B1内の位置を仮想入力可能領域F2内に対応付けた位置を、前記入力位置として算出する。具体的には、入力処理部118は、仮想操作領域B1の基準点P1を仮想入力可能領域F2にマッピングする。そして、マッピングした位置(マウスカーソルM1の位置)が入力可能領域F1内に収まっている場合は、入力処理部118は、当該位置を入力位置に決定し、当該入力位置にマウスカーソルM1を表示させる。一方、マッピングした位置(マウスカーソルM1の位置)が入力可能領域F1外にはみ出る場合には、入力処理部118は、入力可能領域F1内に再マッピングして、入力可能領域F1の端部の位置を入力位置に決定し、当該入力位置にマウスカーソルM1を表示させる。
[Third calculation method]
FIG. 14 shows an example of the third calculation method. As shown in FIG. 14, the
このように、第3算出方法では、操作領域A11の大きさに対して縦横2倍の仮想操作領域B1の枠画像を撮像画像Wp内に表示させつつ、入力処理部118は、仮想操作領域B1を仮想入力可能領域F2にマッピングを行い、入力可能領域F1外にマウスカーソルM1がマッピングされた場合には入力可能領域F1内に再マッピングする。
As described above, in the third calculation method, the
入力処理部118は、上述の第1算出方法、第2算出方法、及び第3算出方法のいずれかの方法により入力位置を算出する。
The
前記第1算出方法によれば、操作領域A11を入力可能領域F1に対して比較的狭く取ることになるため、ユーザーは、小さな手の動きによりマウスカーソルM1を移動させることができ、小さい領域内における手の動きにより表示画面13A全体にマウスカーソルM1を移動させることが可能となる。
According to the first calculation method, the operation area A11 is set relatively narrower than the input area F1. It is possible to move the mouse cursor M1 over the
また、前記第2算出方法によれば、操作領域A11を入力可能領域F1に対して広めに取ることができるため、ユーザーは、前記第1算出方法よりも手の細かい動きをマウスカーソルM1の移動に反映させることができる。 In addition, according to the second calculation method, the operation area A11 can be set wider than the input-enabled area F1. can be reflected in
また、前記第3算出方法によれば、操作領域A11を入力可能領域F1に対して適度な大きさに取ることができるため、前記第1算出方法よりも手の細かい動きをマウスカーソルM1の移動に反映させることができ、かつ、前記第2算出方法ほど手や腕を動かさなくても、表示画面13A全体にマウスカーソルM1を移動させることが可能となる。
In addition, according to the third calculation method, since the operation area A11 can be appropriately sized with respect to the input-enabled area F1, finer movements of the hand than the first calculation method can be applied to the movement of the mouse cursor M1. , and the mouse cursor M1 can be moved over the
また、前記各算出方法によれば、マウスカーソルM1が表示画面13Aからはみ出たり、表示画面13Aの下側の撮像画像Wp(ワイプ画面)にマウスカーソルM1が移動して誤動作を引き起こしたりすることを防止することができる。
Further, according to each of the calculation methods described above, it is possible to prevent the mouse cursor M1 from protruding from the
以上のように、表示装置1は、カメラ15の撮像画像からユーザーの手を検出すると、手の矩形領域A1の下辺L1上に所定の設定方法(前記第1~第3設定方法)により基準点P1を設定し、基準点P1を所定の算出方法(前記第1~第3算出方法)により入力可能領域F1における入力位置を算出して、算出した入力位置において、ユーザーのジェスチャー操作に応じた入力処理を実行する。
As described above, when the
[表示制御処理]
以下、図15を参照しつつ、表示装置1の制御部11によって実行される表示制御処理について説明する。
[Display control processing]
Display control processing executed by the
なお、本発明は、前記表示制御処理に含まれる一又は複数のステップを実行する表示制御方法(本発明の入力方法の一例)の発明として捉えることができ、ここで説明する表示制御処理に含まれる一又は複数のステップが適宜省略されてもよい。なお、前記表示制御処理における各ステップは同様の作用効果を生じる範囲で実行順序が異なってもよい。さらに、ここでは制御部11が前記表示制御処理における各ステップを実行する場合を例に挙げて説明するが、複数のプロセッサーが当該表示制御処理における各ステップを分散して実行する表示制御方法も他の実施形態として考えられる。
The present invention can be regarded as an invention of a display control method (an example of an input method of the present invention) for executing one or more steps included in the display control process. may be omitted as appropriate. It should be noted that the steps in the display control process may differ in execution order as long as similar effects are produced. Furthermore, here, a case where the
先ずステップS1において、制御部11は、カメラ15から撮像画像を取得したか否かを判定する。制御部11がカメラ15から撮像画像を取得すると(S1:Yes)、処理はステップS2に移行する。
First, in step S<b>1 , the
ステップS2において、制御部11は、ユーザーを検出したか否かを判定する。制御部11がユーザーを検出すると(S2:Yes)、処理はステップS3に移行する。
In step S2, the
ステップS3において、制御部11は、ユーザーの顔及び手を検出したか否かを判定する。制御部11がユーザーの顔及び手を検出すると(S3:Yes)、処理はステップS4に移行する。
In step S3, the
ステップS4において、制御部11は、撮像画像Wp(ワイプ画面)を表示画面13Aに表示させる。具体的には、制御部11は、カメラ15により撮像された所定エリアの撮像画像のうち、検出したユーザーの顔及び手を含む特定の範囲の部分画像(撮像画像Wp)を表示画面13Aの端部(隅部)に表示させる(図2参照)。また、制御部11は、撮像画像Wpに、ユーザーの手を囲む矩形領域A1を表す枠画像と、表示画面13Aの入力可能領域F1(図2参照)に対応する操作領域A11の枠画像(操作領域画像)とを重ねて表示させる(図3参照)。なお、表示処理部111は、操作領域A11の枠画像を撮像画像Wpに対して実際の位置よりも上側にずらして表示させてもよい(図11参照)。
In step S4, the
ステップS5において、制御部11は、基準点P1を設定する処理(基準点設定処理)を実行する。制御部11は、前記第1設定方法、前記第2設定方法、及び前記第3設定方法のいずれかの方法に対応する基準点設定処理を実行する。
In step S5, the
図16には、前記第1設定方法に対応する基準点設定処理の具体例を示している。具体的には、ステップS11において、制御部11は、カメラ15から取得した撮像画像から検出した手の検出結果を取得する。次にステップS12において、制御部11は、手の形状を判定する。例えば、制御部11が、手が開いた状態(パーの状態)の形状(第1形状)を判定した場合、処理はステップS13に移行する。一方、制御部11が、手が閉じた状態(グーの状態)の形状(第2形状)を判定した場合、処理はステップS121に移行する。
FIG. 16 shows a specific example of the reference point setting process corresponding to the first setting method. Specifically, in step S<b>11 , the
ステップS13では、制御部11は、矩形領域A1の下辺L1の中心位置(図4参照)を基準点P1に設定する。ステップS13の後、処理はステップS6に移行する。
In step S13, the
ステップS121では、制御部11は、前回算出した第1形状(パーの状態)の位置(図6参照)を基準点P1に設定する。ステップS121の後、処理はステップS6に移行する。
In step S121, the
図17には、前記第2設定方法に対応する基準点設定処理の具体例を示している。具体的には、ステップS21において、制御部11は、カメラ15から取得した撮像画像から検出した手の検出結果を取得する。次にステップS22において、制御部11は、手の形状を判定する。例えば、制御部11が、手が開いた状態(パーの状態)の形状(第1形状)を判定した場合、処理はステップS23に移行する。一方、制御部11が、手が閉じた状態(グーの状態)の形状(第2形状)を判定した場合、処理はステップS221に移行する。
FIG. 17 shows a specific example of reference point setting processing corresponding to the second setting method. Specifically, in step S<b>21 , the
ステップS23では、制御部11は、矩形領域A1の下辺L1におけるユーザーの手の小指側の端部から1:2の比率の位置(図7参照)を基準点P1に設定する。ステップS23の後、処理はステップS6に移行する。
In step S23, the
ステップS221では、制御部11は、前回算出した第1形状(パーの状態)の位置を基準点P1に設定する。ステップS221の後、処理はステップS6に移行する。
In step S221, the
図18には、前記第3設定方法に対応する基準点設定処理の具体例を示している。具体的には、ステップS31において、制御部11は、カメラ15から取得した撮像画像から検出した手の検出結果を取得する。次にステップS32において、制御部11は、手の形状を判定する。例えば、制御部11が、手が開いた状態(パーの状態)の形状(第1形状)を判定した場合、処理はステップS33に移行する。一方、制御部11が、手が閉じた状態(グーの状態)の形状(第2形状)を判定した場合、処理はステップS321に移行する。
FIG. 18 shows a specific example of reference point setting processing corresponding to the third setting method. Specifically, in step S<b>31 , the
ステップS33では、制御部11は、矩形領域A1に含まれる複数の画素のうちユーザーの手の色を表示する特定画素を特定し、矩形領域A1の上辺から下辺L1に向かう列方向の画素列ごとの前記特定画素の合計画素数を算出する(図8参照)。次にステップS34において、制御部11は、下辺L1のうち前記合計画素数が閾値Cthを超える前記画素列を抽出する。次にステップS35において、制御部11は、抽出した画素列に対応する部分辺の最小位置Xmin及び最大位置Xmaxの座標を算出する。次にステップS36において、制御部11は、最小位置Xmin及び最大位置Xmaxの中心位置Xcを基準点P1に設定する。ステップS36の後、処理はステップS6に移行する。
In step S33, the
ステップS321では、制御部11は、前回算出した第1形状(パーの状態)の位置を基準点P1に設定する。ステップS321の後、処理はステップS6に移行する。
In step S321, the
ステップS6(図15参照)では、制御部11は、基準点P1に対応する入力位置を算出する処理(入力位置算出処理)を実行する。制御部11は、前記第1算出方法、前記第2算出方法、及び前記第3算出方法のいずれかの方法に対応する入力位置算出処理を実行する。
In step S6 (see FIG. 15), the
図19には、前記第1算出方法に対応する入力位置算出処理の具体例を示している。なお、前記第1算出方法では、制御部11は、ステップS4(図15参照)において、操作領域A11の枠画像を撮像画像Wpに表示させる(図12参照)。
FIG. 19 shows a specific example of input position calculation processing corresponding to the first calculation method. In the first calculation method, in step S4 (see FIG. 15), the
ステップS41において、制御部11は、入力可能領域F1よりも大きい仮想入力可能領域F2を設定する(図12参照)。次にステップS42において、制御部11は、操作領域A11の基準点P1を仮想入力可能領域F2にマッピングする。
In step S41, the
次にステップS43において、制御部11は、仮想入力可能領域F2にマッピングした位置が入力可能領域F1内に収まっているか否かを判定する。仮想入力可能領域F2にマッピングした位置が入力可能領域F1内に収まっている場合(S43:Yes)、処理はステップS45に移行する。一方、仮想入力可能領域F2にマッピングした位置が入力可能領域F1内に収まっていない場合(S43:No)、処理はステップS44に移行する。
Next, in step S43, the
ステップS44では、制御部11は、入力可能領域F1内に再マッピングする。その後、処理はステップS45に移行する。
In step S44, the
ステップS45では、制御部11は、マッピングした位置を入力位置に決定する。仮想入力可能領域F2にマッピングした位置が入力可能領域F1内に収まっている場合(S43:Yes)、制御部11は、当該位置を入力位置に決定する。仮想入力可能領域F2にマッピングした位置が入力可能領域F1内に収まっていない場合(S43:No)、制御部11は、入力可能領域F1の端部の位置を入力位置に決定する。その後、処理はステップS7に移行する。
In step S45, the
図20には、前記第2算出方法に対応する入力位置算出処理の具体例を示している。なお、前記第2算出方法では、制御部11は、ステップS4(図15参照)において、操作領域A11よりも大きい仮想操作領域B1の枠画像を撮像画像Wpに表示させる(図13参照)。
FIG. 20 shows a specific example of input position calculation processing corresponding to the second calculation method. In the second calculation method, in step S4 (see FIG. 15), the
ステップS51において、制御部11は、操作領域A11の基準点P1を入力可能領域F1にマッピングする。
In step S51, the
次にステップS52において、制御部11は、入力可能領域F1にマッピングした位置が入力可能領域F1内に収まっているか否かを判定する。入力可能領域F1にマッピングした位置が入力可能領域F1内に収まっている場合(S52:Yes)、処理はステップS54に移行する。一方、入力可能領域F1にマッピングした位置が入力可能領域F1内に収まっていない場合(S52:No)、処理はステップS53に移行する。
Next, in step S52, the
ステップS53では、制御部11は、入力可能領域F1内に再マッピングする。その後、処理はステップS54に移行する。
In step S53, the
ステップS54では、制御部11は、マッピングした位置を入力位置に決定する。入力可能領域F1にマッピングした位置が入力可能領域F1内に収まっている場合(S52:Yes)、制御部11は、当該位置を入力位置に決定する。入力可能領域F1にマッピングした位置が入力可能領域F1内に収まっていない場合(S52:No)、制御部11は、入力可能領域F1の端部の位置を入力位置に決定する。その後、処理はステップS7に移行する。
In step S54, the
図21には、前記第3算出方法に対応する入力位置算出処理の具体例を示している。なお、前記第3算出方法では、制御部11は、ステップS4(図15参照)において、仮想操作領域B1の枠画像を撮像画像Wpに表示させる(図14参照)。
FIG. 21 shows a specific example of input position calculation processing corresponding to the third calculation method. In the third calculation method, in step S4 (see FIG. 15), the
ステップS61において、制御部11は、入力可能領域F1よりも大きい仮想入力可能領域F2を設定する(図14参照)。次にステップS62において、制御部11は、仮想操作領域B1の基準点P1を仮想入力可能領域F2にマッピングする。
In step S61, the
次にステップS63において、制御部11は、仮想入力可能領域F2にマッピングした位置が入力可能領域F1内に収まっているか否かを判定する。仮想入力可能領域F2にマッピングした位置が入力可能領域F1内に収まっている場合(S63:Yes)、処理はステップS65に移行する。一方、仮想入力可能領域F2にマッピングした位置が入力可能領域F1内に収まっていない場合(S63:No)、処理はステップS64に移行する。
Next, in step S63, the
ステップS64では、制御部11は、入力可能領域F1内に再マッピングする。その後、処理はステップS65に移行する。
In step S64, the
ステップS65では、制御部11は、マッピングした位置を入力位置に決定する。仮想入力可能領域F2にマッピングした位置が入力可能領域F1内に収まっている場合(S63:Yes)、制御部11は、当該位置を入力位置に決定する。仮想入力可能領域F2にマッピングした位置が入力可能領域F1内に収まっていない場合(S63:No)、制御部11は、入力可能領域F1の端部の位置を入力位置に決定する。その後、処理はステップS7に移行する。
In step S65, the
ステップS7(図15参照)では、制御部11は、決定した入力位置に基づいて入力処理を実行する。具体的には、制御部11は、決定した入力位置にマウスカーソルM1を表示させる。また、例えば決定した入力位置が「Yes」ボタン上の位置であって、マウスカーソルM1が「Yes」ボタン上に位置する状態でユーザーが手を閉じる操作を行うと、制御部11は、「Yes」ボタン操作を受け付けて所定の処理を実行する。
In step S7 (see FIG. 15), the
ステップS8において、制御部11は、ユーザーによる入力操作が終了したか否かを判定する。前記入力操作が終了した場合(S8:Yes)、制御部11は前記表示制御処理を終了する。前記入力操作が終了しない場合(S8:No)、制御部11はステップS1に戻る。以上のようにして、制御部11は、前記表示制御処理を実行する。
In step S8, the
以上説明したように、本実施形態に係る表示装置1は、ユーザーの手によるジェスチャー操作を検出して表示画面の入力位置に対して入力処理を行う。具体的には、表示装置1は、ユーザーを撮像した撮像画像を取得し、取得した前記撮像画像からユーザーの手を検出し、ユーザーの手の形状を判定する。また、表示装置1は、検出したユーザーの手を囲む特定領域(矩形領域A1)の下辺L1の所定位置に基準点P1を設定し、検出したユーザーの手の形状が所定の形状である場合に、設定した基準点P1を入力位置として入力処理を実行する。
As described above, the
この構成によれば、手の形状(ジェスチャー操作)の変化(例えばパーの状態からグーの状態への変化)に関わらず、入力位置に対応する基準点P1を固定することができる。このため、ユーザーのジェスチャー操作の変化によって入力位置がユーザーの意図しない方向に変化することを防止することが可能となる。 According to this configuration, the reference point P1 corresponding to the input position can be fixed regardless of the change in the shape of the hand (gesture operation) (for example, the change from the par state to the goo state). Therefore, it is possible to prevent the input position from changing in a direction not intended by the user due to a change in the user's gesture operation.
また、本実施形態に係る表示装置1は、ユーザーを撮像した撮像画像を取得し、取得した前記撮像画像からユーザーの手を検出し、検出したユーザーの手を含む領域であって、表示画面13A内のジェスチャー操作により入力可能な入力可能領域F1に対応するジェスチャー操作の操作領域A11を設定する。また表示装置1は、表示画面13Aにおいて、取得した撮像画像Wpを表示させるとともに、設定した操作領域A11に対応する操作領域画像(枠画像)を撮像画像Wpに重ねて表示させる。例えば、表示装置1は、操作領域A11の枠画像(図12参照)、又は、仮想操作領域B1(図13、図14参照)を撮像画像Wpに表示させる。
Further, the
この構成によれば、ユーザーは、撮像画像Wpに表示される前記枠画像を確認することにより、自身の手を動かす範囲と、ユーザーの手の動きに応じて表示画面13A上で移動するマウスカーソルM1の表示画面13A内で移動可能な範囲との対応関係を把握し易くなる。よって、表示装置1の操作性を向上させることが可能となる。
According to this configuration, by checking the frame image displayed in the captured image Wp, the user can move the mouse cursor on the
本発明は、上述した実施形態に示すように、前記第1~第3設定方法のいずれかを実行する処理と、前記第1~第3算出方法のいずれかを実行する処理とを備えた表示装置である。但し、本発明は上述の実施形態に限定されず、少なくとも前記第1~第3設定方法のいずれかを実行する処理を備えた表示装置であってもよい。また、本発明は、少なくとも前記第1~第3算出方法のいずれかを実行する処理を備えた表示装置であってもよい。 According to the present invention, as shown in the above-described embodiment, a display including a process for executing any one of the first to third setting methods and a process for executing any one of the first to third calculation methods is provided. It is a device. However, the present invention is not limited to the above-described embodiments, and the display device may include processing for executing at least one of the first to third setting methods. Further, the present invention may be a display device including processing for executing at least one of the first to third calculation methods.
なお、本発明の表示装置は、各請求項に記載された発明の範囲において、以上に示された各実施形態を自由に組み合わせること、或いは各実施形態を適宜、変形又は一部を省略することによって構成されることも可能である。 It should be noted that the display device of the present invention may be obtained by freely combining each of the embodiments shown above within the scope of the invention described in each claim, or by appropriately modifying or omitting a part of each embodiment. It is also possible to be configured by
1 :表示装置
11 :制御部
12 :記憶部
13 :表示パネル
13A :表示画面
14 :操作部
15 :カメラ
111 :表示処理部
112 :取得処理部
113 :検出処理部
114 :判定処理部
115 :基準点設定処理部
116 :操作領域設定処理部
117 :仮想入力可能領域設定処理部
118 :入力処理部
1: display device 11: control unit 12: storage unit 13:
Claims (10)
前記ユーザーを撮像した撮像画像を取得する取得処理部と、
前記取得処理部により取得される前記撮像画像から前記ユーザーの手を検出する検出処理部と、
前記検出処理部により検出される前記ユーザーの手の形状を判定する判定処理部と、
前記検出処理部により検出される前記ユーザーの手を囲む特定領域の下辺の所定位置に基準点を設定する基準点設定処理部と、
前記検出処理部により検出される前記ユーザーの手の形状が所定の形状である場合に、前記基準点設定処理部により設定される前記基準点に対応する前記入力位置に対して前記入力処理を実行する入力処理部と、
を備える入力装置。 An input device that detects a gesture operation by a user's hand and performs input processing on an input position on a display screen,
an acquisition processing unit that acquires a captured image of the user;
a detection processing unit that detects the hand of the user from the captured image acquired by the acquisition processing unit;
a determination processing unit that determines the shape of the user's hand detected by the detection processing unit;
a reference point setting processing unit that sets a reference point at a predetermined position on the lower side of the specific area surrounding the user's hand detected by the detection processing unit;
When the shape of the user's hand detected by the detection processing unit is a predetermined shape, the input processing is performed on the input position corresponding to the reference point set by the reference point setting processing unit. an input processing unit that
An input device comprising
請求項1に記載の入力装置。 The reference point setting processing unit sets a position obtained by dividing a lower side of the specific region from one end to the other end by a predetermined ratio as the reference point.
The input device according to claim 1.
請求項2に記載の入力装置。 The reference point setting processing unit sets the center position of the lower side of the specific area as the reference point.
The input device according to claim 2.
請求項2に記載の入力装置。 The reference point setting processing unit sets a position at a ratio of 1:2 from the end of the little finger side of the user's hand on the lower side of the specific area as the reference point.
The input device according to claim 2.
請求項2に記載の入力装置。 The reference point setting processing unit identifies a specific pixel that displays the color of the user's hand among a plurality of pixels included in the specific region, and sets each pixel row in the column direction from the upper side to the lower side of the specific region. calculating the total number of pixels of the specific pixels, and setting the center position of the partial side corresponding to the range of the pixel row in which the total number of pixels exceeds a threshold value as the reference point;
The input device according to claim 2.
請求項1から請求項5のいずれか1項に記載の入力装置。 further comprising a display processing unit that displays an input operation icon at the input position corresponding to the reference point in an input-enabled area set inside a lower end of the display screen by a predetermined width;
The input device according to any one of claims 1 to 5.
請求項1から請求項6のいずれか1項に記載の入力装置。 When the shape of the user's hand detected by the detection processing unit is the first shape, the input processing unit changes the input operation icon displayed on the display screen according to the movement of the reference point. When the shape of the user's hand detected by the detection processing unit changes from the first shape to the second shape, the input operation icon corresponding to the reference point is displayed. perform the selection process for the selection at the position,
The input device according to any one of claims 1 to 6.
請求項1から請求項7のいずれか1項に記載の入力装置。 The specific area is a rectangular area surrounding the user's hand,
The input device according to any one of claims 1 to 7.
一又は複数のプロセッサーが、
前記ユーザーを撮像した撮像画像を取得する取得ステップと、
前記取得ステップにより取得される前記撮像画像から前記ユーザーの手を検出する検出ステップと、
前記検出ステップにおいて検出される前記ユーザーの手の形状を判定する判定ステップと、
前記検出ステップにおいてより検出される前記ユーザーの手を囲む特定領域の下辺の所定位置に基準点を設定する設定ステップと、
前記検出ステップにより検出される前記ユーザーの手の形状が所定の形状である場合に、前記設定ステップにより設定される前記基準点に対応する前記入力位置に対して前記入力処理を実行する入力ステップと、
を実行する入力方法。 An input method for detecting a gesture operation by a user's hand and performing input processing for an input position on a display screen,
one or more processors
an acquisition step of acquiring a captured image of the user;
a detection step of detecting the hand of the user from the captured image acquired by the acquisition step;
a determination step of determining the shape of the user's hand detected in the detection step;
a setting step of setting a reference point at a predetermined position on the lower side of the specific area surrounding the user's hand detected in the detecting step;
an input step of executing the input process with respect to the input position corresponding to the reference point set by the setting step when the shape of the user's hand detected by the detection step is a predetermined shape; ,
The input method that executes the
前記ユーザーを撮像した撮像画像を取得する取得ステップと、
前記取得ステップにより取得される前記撮像画像から前記ユーザーの手を検出する検出ステップと、
前記検出ステップにおいて検出される前記ユーザーの手の形状を判定する判定ステップと、
前記検出ステップにおいてより検出される前記ユーザーの手を囲む特定領域の下辺の所定位置に基準点を設定する設定ステップと、
前記検出ステップにより検出される前記ユーザーの手の形状が所定の形状である場合に、前記設定ステップにより設定される前記基準点に対応する前記入力位置に対して前記入力処理を実行する入力ステップと、
を一又は複数のプロセッサーに実行させるための入力プログラム。 An input program that detects a gesture operation by a user's hand and performs input processing for an input position on a display screen,
an acquisition step of acquiring a captured image of the user;
a detection step of detecting the hand of the user from the captured image acquired by the acquisition step;
a determination step of determining the shape of the user's hand detected in the detection step;
a setting step of setting a reference point at a predetermined position on the lower side of the specific area surrounding the user's hand detected in the detecting step;
an input step of executing the input process with respect to the input position corresponding to the reference point set by the setting step when the shape of the user's hand detected by the detection step is a predetermined shape; ,
input program for execution by one or more processors.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021114051A JP2023010138A (en) | 2021-07-09 | 2021-07-09 | Input device, input method, and input program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021114051A JP2023010138A (en) | 2021-07-09 | 2021-07-09 | Input device, input method, and input program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023010138A true JP2023010138A (en) | 2023-01-20 |
Family
ID=85118961
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021114051A Pending JP2023010138A (en) | 2021-07-09 | 2021-07-09 | Input device, input method, and input program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023010138A (en) |
-
2021
- 2021-07-09 JP JP2021114051A patent/JP2023010138A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7415676B2 (en) | Visual field changing method | |
US9871962B2 (en) | Movable user interface shutter button for camera | |
JP4686150B2 (en) | Multi-monitor system, multi-monitor method, and mark display program | |
KR100851977B1 (en) | Controlling Method and apparatus for User Interface of electronic machine using Virtual plane. | |
JP5839220B2 (en) | Information processing apparatus, information processing method, and program | |
JP6146094B2 (en) | Information operation display system, display program, and display method | |
US9544556B2 (en) | Projection control apparatus and projection control method | |
US8769409B2 (en) | Systems and methods for improving object detection | |
US11003340B2 (en) | Display device | |
US11297303B2 (en) | Control apparatus, control method, and storage medium | |
BR112019019526A2 (en) | recording equipment, control method, and storage medium | |
CN104346072A (en) | Display control apparatus and control method thereof | |
US7466304B2 (en) | Image processing apparatus, storage medium having image processing program stored thereon, game apparatus and storage medium having game program stored thereon | |
TWI354223B (en) | ||
CN112198929B (en) | Control method and device | |
JP3355708B2 (en) | Command processing device | |
JP6197559B2 (en) | Object operation system, object operation control program, and object operation control method | |
JP2023010138A (en) | Input device, input method, and input program | |
JP2023010137A (en) | Input device, input method, and input program | |
US11543918B1 (en) | Input apparatus, input method, and recording medium recording input program | |
JPWO2015029222A1 (en) | Information processing apparatus, display control program, and display control method | |
US20220197498A1 (en) | Display device, display method, and recording medium recording display program | |
US20220197396A1 (en) | Display device, display method, and recording medium recording display program | |
US9082223B2 (en) | Smooth manipulation of three-dimensional objects | |
JP2012221262A (en) | Display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20210709 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240321 |