JP2014146236A - Input device, information processing method, and information processing program - Google Patents

Input device, information processing method, and information processing program Download PDF

Info

Publication number
JP2014146236A
JP2014146236A JP2013015268A JP2013015268A JP2014146236A JP 2014146236 A JP2014146236 A JP 2014146236A JP 2013015268 A JP2013015268 A JP 2013015268A JP 2013015268 A JP2013015268 A JP 2013015268A JP 2014146236 A JP2014146236 A JP 2014146236A
Authority
JP
Japan
Prior art keywords
hand
operation area
person
acquisition
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013015268A
Other languages
Japanese (ja)
Other versions
JP2014146236A5 (en
JP6029478B2 (en
Inventor
寛明 ▲高▼橋
Hiroaki Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013015268A priority Critical patent/JP6029478B2/en
Publication of JP2014146236A publication Critical patent/JP2014146236A/en
Publication of JP2014146236A5 publication Critical patent/JP2014146236A5/ja
Application granted granted Critical
Publication of JP6029478B2 publication Critical patent/JP6029478B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To prevent termination of information input when a user does not intend to terminate information input.SOLUTION: An input device 12 comprises: a person position acquisition unit 21 which acquires a position of a person; a hand position acquisition unit 22 which acquires a position of a hand; an operation area setting unit 23 which sets a virtual operation area in front of the person on the basis of an acquisition result of the person position acquisition unit 21; and an input information acquisition unit 25 which, on the basis of an acquisition result of the hand position acquisition unit 22, when it is determined that the hand is in contact with the operation area, starts to acquire input information on the basis of the hand position or movement, and when it is determined that the hand determined to leave the operation area moves in a predetermined direction, terminates acquisition of input information.

Description

本発明は、入力装置、情報処理方法、及び情報処理プログラムに関する。   The present invention relates to an input device, an information processing method, and an information processing program.

従来から、手の動きにより入力を行うジェスチャ入力装置が提案されている。例えば、特許文献1では、操作者の位置に基づいて仮想平面を設定し、操作者の手と仮想平面との接触時間と、仮想平面を貫く操作者の手の貫通量とに基づいて、ドラッグ操作の判定を行う画像表示装置が提案されている。特許文献1におけるドラッグ操作では、仮想平面に触れることなく開始点まで手を移動させて、手で仮想平面を貫き、そのままの状態で手を終了点まで移動させて、終了点において仮想平面から手を引き抜くことでドラッグ操作が完了する。   2. Description of the Related Art Conventionally, gesture input devices that perform input by hand movement have been proposed. For example, in Patent Document 1, a virtual plane is set based on the position of the operator, and dragging is performed based on the contact time between the operator's hand and the virtual plane and the penetration amount of the operator's hand passing through the virtual plane. There has been proposed an image display device that performs operation determination. In the drag operation in Patent Document 1, a hand is moved to the start point without touching the virtual plane, the hand penetrates the virtual plane, the hand is moved to the end point as it is, and the hand is moved from the virtual plane at the end point. Pull out to complete the drag operation.

特開2004−258714号公報JP 2004-258714 A

ところで、手が操作領域に接触した場合に手の位置または動きに基づく入力情報の取得を開始し、手が操作領域から離れた場合に入力情報の取得を終了する入力装置では、手が操作領域から離れたことのみを入力情報の取得の終了条件とする構成では、ユーザの意図しない情報入力の終了が発生する場合がある。   By the way, in an input device that starts acquisition of input information based on the position or movement of the hand when the hand touches the operation area and ends acquisition of input information when the hand leaves the operation area, the hand is in the operation area. In the configuration in which only the fact that the user has left the system is used as the end condition for acquiring the input information, the end of the input of information unintended by the user may occur.

本発明は、ユーザの意図しない情報入力の終了を抑制することができる入力装置、情報処理方法、及び情報処理プログラムを提供することを目的とする。   An object of the present invention is to provide an input device, an information processing method, and an information processing program that can suppress the end of information input unintended by a user.

本発明に係る入力装置は、人物の位置を取得する人物位置取得手段と、手の位置を取得する手位置取得手段と、前記人物位置取得手段の取得結果に基づき、前記人物の前方に仮想的な操作領域を設定する操作領域設定手段と、前記手位置取得手段の取得結果に基づき、前記手が前記操作領域に接触したと判定した場合に、前記手の位置または動きに基づく入力情報の取得を開始し、前記手が前記操作領域から離れたと判定した場合、前記手が前記操作領域から離れる際の前記手の動きが所定方向の動きであると判定したときに、前記入力情報の取得を終了する入力情報取得手段とを備えることを特徴とする。   An input device according to the present invention includes a person position acquisition unit that acquires a position of a person, a hand position acquisition unit that acquires a position of a hand, and a virtual position in front of the person based on the acquisition result of the person position acquisition unit. Acquisition of input information based on the position or movement of the hand when it is determined that the hand has touched the operation area based on the acquisition result of the operation area setting means for setting a correct operation area and the hand position acquisition means The input information is acquired when it is determined that the movement of the hand when the hand leaves the operation area is a movement in a predetermined direction. Input information acquisition means for ending.

また、本発明に係る情報処理方法は、人物の位置を取得する人物位置取得ステップと、手の位置を取得する手位置取得ステップと、前記人物位置取得ステップの取得結果に基づき、前記人物の前方に仮想的な操作領域を設定する操作領域設定ステップと、前記手位置取得ステップの取得結果に基づき、前記手が前記操作領域に接触したと判定した場合に、前記手の位置または動きに基づく入力情報の取得を開始し、前記手が前記操作領域から離れたと判定した場合、前記手が前記操作領域から離れる際の前記手の動きが所定方向の動きであると判定したときに、前記入力情報の取得を終了する入力情報取得ステップとを含むことを特徴とする。   Further, the information processing method according to the present invention includes a person position acquisition step for acquiring a person position, a hand position acquisition step for acquiring a hand position, and a front of the person based on the acquisition result of the person position acquisition step. Input based on the position or movement of the hand when it is determined that the hand has touched the operation area based on the operation area setting step for setting the virtual operation area and the acquisition result of the hand position acquisition step. When the acquisition of information is started and it is determined that the hand has moved away from the operation area, the input information is determined when it is determined that the movement of the hand when moving away from the operation area is a movement in a predetermined direction. And an input information acquisition step for ending the acquisition.

また、本発明に係る情報処理プログラムは、人物の位置を取得する人物位置取得ステップと、手の位置を取得する手位置取得ステップと、前記人物位置取得ステップの取得結果に基づき、前記人物の前方に仮想的な操作領域を設定する操作領域設定ステップと、前記手位置取得ステップの取得結果に基づき、前記手が前記操作領域に接触したと判定した場合に、前記手の位置または動きに基づく入力情報の取得を開始し、前記手が前記操作領域から離れたと判定した場合、前記手が前記操作領域から離れる際の前記手の動きが所定方向の動きであると判定したときに、前記入力情報の取得を終了する入力情報取得ステップとをコンピュータに実行させることを特徴とする。   Further, the information processing program according to the present invention includes a person position acquisition step for acquiring the position of the person, a hand position acquisition step for acquiring the position of the hand, and a front of the person based on the acquisition result of the person position acquisition step. Input based on the position or movement of the hand when it is determined that the hand has touched the operation area based on the operation area setting step for setting the virtual operation area and the acquisition result of the hand position acquisition step. When the acquisition of information is started and it is determined that the hand has moved away from the operation area, the input information is determined when it is determined that the movement of the hand when moving away from the operation area is a movement in a predetermined direction. And an input information acquisition step of ending acquisition of the computer.

本発明によれば、ユーザの意図しない情報入力の終了を抑制することができる。   ADVANTAGE OF THE INVENTION According to this invention, the completion | finish of the information input which a user does not intend can be suppressed.

実施の形態1における表示システムの構成の一例を示すブロック図である。3 is a block diagram illustrating an example of a configuration of a display system in Embodiment 1. FIG. 表示装置に表示される表示画面の一例を示す図である。It is a figure which shows an example of the display screen displayed on a display apparatus. 実施の形態1における入力装置の構成の一例を示すブロック図である。3 is a block diagram illustrating an example of a configuration of an input device according to Embodiment 1. FIG. 操作領域の一例を示す斜視図である。It is a perspective view which shows an example of an operation area | region. 基準領域の一例を示す図である。It is a figure which shows an example of a reference | standard area | region. 実施の形態1における算出タイミング決定部による処理を説明するための図である。6 is a diagram for explaining processing by a calculation timing determination unit in Embodiment 1. FIG. 座標算出部による座標の算出を説明するための図である。It is a figure for demonstrating the calculation of the coordinate by a coordinate calculation part. 実施の形態1における入力装置の処理の流れの一例を示すフローチャートである。3 is a flowchart illustrating an example of a process flow of the input device according to the first embodiment. 人物テーブルの一例を示す図である。It is a figure which shows an example of a person table. 手テーブルの一例を示す図である。It is a figure which shows an example of a hand table. 操作領域の一例を示す上面図である。It is a top view which shows an example of an operation area | region. 操作領域の一例を示す側面図である。It is a side view which shows an example of an operation area | region. 操作領域の別の一例を示す斜視図である。It is a perspective view which shows another example of an operation area | region. 操作領域の別の一例を示す上面図である。It is a top view which shows another example of an operation area | region. 操作領域の別の一例を示す側面図である。It is a side view which shows another example of an operation area | region. 実施の形態2における入力装置の構成の一例を示すブロック図である。10 is a block diagram illustrating an example of a configuration of an input device according to Embodiment 2. FIG. 実施の形態2における算出タイミング決定部による処理を説明するための図である。FIG. 11 is a diagram for explaining processing by a calculation timing determination unit in the second embodiment. 実施の形態3における操作領域および準操作領域の一例を示す斜視図である。FIG. 11 is a perspective view showing an example of an operation area and a semi-operation area in the third embodiment. 実施の形態5における入力装置の処理の流れの一例を示すフローチャートである。10 is a flowchart illustrating an example of a process flow of an input device according to a fifth embodiment. 実施の形態6における、入力情報の取得開始後に設定される操作領域の一例を示す上面図である。FIG. 25 is a top view illustrating an example of an operation region set after the start of acquisition of input information in the sixth embodiment. 実施の形態6における、入力情報の取得開始後に設定される操作領域の別の一例を示す上面図である。FIG. 20 is a top view showing another example of operation areas set after the start of acquisition of input information in the sixth embodiment.

以下、本発明の実施の形態を図面に従って説明する。
実施の形態1.
(表示システムの構成)
図1は、実施の形態1における入力装置12を備えた表示システム10の構成の一例を示すブロック図である。この表示システム10は、ユーザからの入力情報を入力装置12によって取得し、取得された入力情報に応じて画面を表示するシステムである。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
Embodiment 1 FIG.
(Display system configuration)
FIG. 1 is a block diagram illustrating an example of a configuration of a display system 10 including an input device 12 according to the first embodiment. The display system 10 is a system that acquires input information from a user by the input device 12 and displays a screen according to the acquired input information.

図1において、表示システム10は、画像取得装置11、入力装置12、表示制御装置13、および表示装置14を有する。画像取得装置11と入力装置12、入力装置12と表示制御装置13、表示制御装置13と表示装置14は、それぞれ、有線または無線により接続され通信が可能となっている。また、画像取得装置11、入力装置12、表示制御装置13、および表示装置14は、物理的に一体であってもよいし、互いに分離されていてもよい。例えば、画像取得装置11、入力装置12、表示制御装置13、および表示装置14は、1つの筐体に収納されている。別の例として、画像取得装置11および入力装置12が一体となりリモートコントローラを構成し、表示制御装置13および表示装置14が一体になり情報表示装置を構成し、リモートコントローラと情報表示装置とが無線通信を行う構成も考えられる。   In FIG. 1, the display system 10 includes an image acquisition device 11, an input device 12, a display control device 13, and a display device 14. The image acquisition device 11 and the input device 12, the input device 12 and the display control device 13, and the display control device 13 and the display device 14 are connected by wire or wireless, and can communicate with each other. The image acquisition device 11, the input device 12, the display control device 13, and the display device 14 may be physically integrated or separated from each other. For example, the image acquisition device 11, the input device 12, the display control device 13, and the display device 14 are housed in one housing. As another example, the image acquisition device 11 and the input device 12 are integrated to form a remote controller, the display control device 13 and the display device 14 are integrated to form an information display device, and the remote controller and the information display device are wirelessly connected. A configuration for performing communication is also conceivable.

以下、画像取得装置11、入力装置12、表示制御装置13、および表示装置14についてそれぞれ説明する。   Hereinafter, the image acquisition device 11, the input device 12, the display control device 13, and the display device 14 will be described.

画像取得装置11は、ユーザ(または人物)が撮像された画像を取得する。例えば、画像取得装置11は、表示装置14の前方の所定範囲の画像を取得する。具体的には、画像取得装置11は、レンズ等の光学部、撮像素子、この撮像素子からの信号を処理して画像データを生成する画像処理部、生成した画像データを記憶するフレームバッファ部等により構成される。取得された画像データは、入力装置12により参照される。画像の取得は、例えば1/30秒ごとといった一定期間ごとに行われる。   The image acquisition device 11 acquires an image captured by a user (or person). For example, the image acquisition device 11 acquires an image in a predetermined range in front of the display device 14. Specifically, the image acquisition device 11 includes an optical unit such as a lens, an image sensor, an image processing unit that processes a signal from the image sensor to generate image data, a frame buffer unit that stores the generated image data, and the like. Consists of. The acquired image data is referred to by the input device 12. Image acquisition is performed at regular intervals, for example, every 1/30 seconds.

本実施の形態では、画像取得装置11は、レンズ等の光学部および撮像素子の組を2対備え、2つの撮像素子からの信号を処理して2つの画像データを生成する、いわゆるステレオカメラである。ステレオカメラでは、2つの画像データに撮像されている物体の位置の差(視差)を利用して三角測量の原理に基づき物体の3次元位置を測定することができる。   In the present embodiment, the image acquisition apparatus 11 is a so-called stereo camera that includes two pairs of an optical unit such as a lens and an image sensor, and processes two signals to generate two image data. is there. The stereo camera can measure the three-dimensional position of the object based on the principle of triangulation using the difference (parallax) between the positions of the objects captured in the two image data.

入力装置12は、画像取得装置11が取得した画像データを基に、ユーザ(または人物)の手の位置または動き(またはジェスチャ)を検出し、検出した手の位置または動きに基づいて入力情報を取得し、取得した入力情報を表示制御装置13に出力する。入力装置12は、ジェスチャ入力装置とも呼ばれる。本例では、入力装置12は、入力情報として、ユーザの手の位置に基づき、所定の2次元座標系における2次元座標を取得する。なお、入力装置12の詳細な構成や処理については後述する。   The input device 12 detects the position or movement (or gesture) of the user's (or person's) hand based on the image data acquired by the image acquisition apparatus 11, and inputs input information based on the detected position or movement of the hand. The acquired input information is output to the display control device 13. The input device 12 is also called a gesture input device. In this example, the input device 12 acquires two-dimensional coordinates in a predetermined two-dimensional coordinate system based on the position of the user's hand as input information. The detailed configuration and processing of the input device 12 will be described later.

表示制御装置13は、入力装置12からの入力情報に基づき、表示画面の生成や画面の制御を行い、表示画面を示す表示信号を表示装置14に出力する。   The display control device 13 generates a display screen and controls the screen based on input information from the input device 12 and outputs a display signal indicating the display screen to the display device 14.

表示装置14は、例えば液晶パネルを備え、表示制御装置13からの表示信号に基づいて表示画面の表示を行う装置である。   The display device 14 includes a liquid crystal panel, for example, and is a device that displays a display screen based on a display signal from the display control device 13.

なお、入力装置12および表示制御装置13は、それぞれ、電気回路などのハードウェア資源のみにより実現されてもよいし、ハードウェア資源とソフトウェアとの協働により実現されてもよく、例えば、コンピュータプログラムが情報処理装置(またはコンピュータ)により実行されることによって実現されてもよい。具体的には、入力装置12および表示制御装置13のそれぞれの機能の一部または全部は、ROM(Read Only Memory)等の記録媒体に記録された情報処理プログラムがRAM(Random Access Memory)に読み出されて中央処理装置(CPU:Central Processing Unit)により実行されることによって実現されてもよい。情報処理プログラムは、光ディスク等のコンピュータ読み取り可能な記録媒体に記録されて提供されてもよいし、インターネット等の通信回線を介して提供されてもよい。   Each of the input device 12 and the display control device 13 may be realized only by hardware resources such as an electric circuit, or may be realized by cooperation of hardware resources and software. For example, a computer program May be realized by being executed by the information processing apparatus (or computer). Specifically, some or all of the functions of the input device 12 and the display control device 13 are read by an information processing program recorded on a recording medium such as a ROM (Read Only Memory) into a RAM (Random Access Memory). It may be realized by being issued and executed by a central processing unit (CPU). The information processing program may be provided by being recorded on a computer-readable recording medium such as an optical disk, or may be provided via a communication line such as the Internet.

また、本実施の形態における表示システム10は、具体的には、デジタルテレビや、デジタルサイネージ(または電子看板)、カーナビゲーションシステムといった表示機器として利用できるほか、パーソナルコンピュータなどの情報処理機器の一部として利用できる。また、表示システム10は、操作端末を備える工場用機器など、表示画面を備え、ユーザに操作される機器に広く適用可能である。   In addition, the display system 10 in the present embodiment can be used specifically as a display device such as a digital television, a digital signage (or electronic signboard), a car navigation system, or a part of an information processing device such as a personal computer. Available as The display system 10 includes a display screen such as a factory device including an operation terminal, and can be widely applied to devices operated by a user.

(ユーザの操作と表示制御の例)
図2は、表示制御装置13により生成されて表示装置14に表示される表示画面Sの一例を示す図である。以下、図2を参照して、表示制御装置13による表示制御の一例を説明する。ここでは、表示画面に地図を表示し、ユーザの操作により地図の表示範囲(表示画面に表示される地図の範囲)を移動させるスクロール処理を行う場合を例にとる。
(Example of user operation and display control)
FIG. 2 is a diagram illustrating an example of the display screen S that is generated by the display control device 13 and displayed on the display device 14. Hereinafter, an example of display control by the display control device 13 will be described with reference to FIG. Here, an example is shown in which a map is displayed on the display screen, and scroll processing is performed to move the map display range (the range of the map displayed on the display screen) by the user's operation.

図2(A)において、表示装置14の表示画面Sには、地図が表示されている。このとき、表示画面Sには表示可能な地図情報全体のうちの一部の範囲が表示されている。   In FIG. 2A, a map is displayed on the display screen S of the display device 14. At this time, a part of the entire map information that can be displayed is displayed on the display screen S.

ユーザは、表示画面Sをスクロールする際に、まず、手を体の前に突き出す。これにより、手の位置に対応する表示画面S上の座標にカーソルCが表示され、スクロール処理が開始される(図2(B)参照)。   When the user scrolls the display screen S, the user first projects his hand in front of the body. Thereby, the cursor C is displayed at the coordinates on the display screen S corresponding to the position of the hand, and the scroll process is started (see FIG. 2B).

スクロール処理が開始された後、ユーザが手を動かすと、ユーザの手の動きに応じてカーソルCが移動するとともに、カーソルCの移動と同じ移動方向および移動量で地図の表示範囲が移動する(図2(C)参照)。   When the user moves his / her hand after the scroll process is started, the cursor C moves in accordance with the movement of the user's hand, and the display range of the map moves in the same movement direction and movement amount as the movement of the cursor C ( (See FIG. 2C).

ユーザは、所望する位置に表示範囲を移動させた後、手を体の方に引き寄せる。これにより、表示画面S上のカーソルCが消滅し、スクロール処理が終了する(図2(D)参照)。一旦スクロール処理が終了すると、再度手を体の前に突き出してスクロール処理を開始しない限りは、手を動かしたとしても表示範囲が移動することはない。   The user moves the display range to a desired position and then draws his hand toward the body. As a result, the cursor C on the display screen S disappears, and the scroll process ends (see FIG. 2D). Once the scroll process is completed, the display range does not move even if the hand is moved unless the hand is pushed out in front of the body and the scroll process is started again.

本実施の形態においては、ユーザの手の動きに応じて入力装置12が2次元座標を算出し、表示制御装置13は、入力装置12により算出された2次元座標に対応する表示画面S上の位置にカーソルCを表示する。また、表示制御装置13は、入力装置12が2次元座標の算出を開始したときにカーソルCを表示してスクロール処理を開始し、入力装置12が2次元座標の算出を終了したときにカーソルCを消滅させてスクロール処理を終了する。   In the present embodiment, the input device 12 calculates two-dimensional coordinates in accordance with the movement of the user's hand, and the display control device 13 is on the display screen S corresponding to the two-dimensional coordinates calculated by the input device 12. A cursor C is displayed at the position. Further, the display control device 13 displays a cursor C when the input device 12 starts calculating the two-dimensional coordinates and starts scrolling processing. When the input device 12 finishes calculating the two-dimensional coordinates, the display control device 13 displays the cursor C. Disappears and the scroll process ends.

(入力装置の構成)
図3は、実施の形態1における入力装置12の構成の一例を示すブロック図である。以下、図3を参照して、入力装置12の構成を説明する。
(Configuration of input device)
FIG. 3 is a block diagram illustrating an example of the configuration of the input device 12 according to the first embodiment. The configuration of the input device 12 will be described below with reference to FIG.

図3において、入力装置12は、人物位置取得部21、手位置取得部22、操作領域設定部23、基準領域設定部24、および入力情報取得部25を有する。   In FIG. 3, the input device 12 includes a person position acquisition unit 21, a hand position acquisition unit 22, an operation region setting unit 23, a reference region setting unit 24, and an input information acquisition unit 25.

人物位置取得部21は、人物の位置を取得する。本例では、人物位置取得部21は、画像取得装置11が取得した2つの画像データから、人物(具体的には人物の像)を検出し、その3次元位置を取得する。具体的には、人物位置取得部21は、人物の位置として、人物の顔の位置を検出する。より具体的には、人物位置取得部21は、2つの画像データにおいて人物の顔の位置を検出し、三角測量の原理を利用して当該人物の顔の3次元位置を取得する。   The person position acquisition unit 21 acquires the position of a person. In this example, the person position acquisition unit 21 detects a person (specifically, an image of a person) from the two image data acquired by the image acquisition device 11, and acquires the three-dimensional position thereof. Specifically, the person position acquisition unit 21 detects the position of the person's face as the position of the person. More specifically, the person position acquisition unit 21 detects the position of the person's face in the two image data, and acquires the three-dimensional position of the person's face using the principle of triangulation.

画像中から人物の顔の位置を検出する手法として、ビオラ−ジョーンズ法と呼ばれる方式が知られている。ビオラ−ジョーンズ法は、要約すると、画像内における小領域の位置や大きさを変えながら画像内に小領域を設定し、当該小領域から特徴量を抽出し、識別器を利用して、当該小領域が顔であるか否かを判別するものである。人物位置取得部21は、例えば、画像データにビオラ−ジョーンズ法を適用した後、顔であると判別された小領域の位置や大きさから、画像データ(撮像された画像)の座標軸で表される顔の中心位置や顔の大きさを求めることができる。   As a method for detecting the position of a person's face from an image, a method called a viola-Jones method is known. In summary, the Viola-Jones method sets a small area in an image while changing the position and size of the small area in the image, extracts a feature amount from the small area, and uses the discriminator to extract the small area. It is determined whether or not the area is a face. For example, the person position acquisition unit 21 is represented by the coordinate axes of the image data (captured image) from the position and size of the small area determined to be a face after applying the Viola-Jones method to the image data. The center position of the face and the size of the face can be obtained.

人物位置取得部21は、画像データから複数の人物を検出した場合には、検出された複数の人物のそれぞれについて位置を取得する。   When a plurality of persons are detected from the image data, the person position acquisition unit 21 acquires a position for each of the detected plurality of persons.

また、人物位置取得部21は、例えば一定時間ごとに取得される各画像データから人物の位置を検出することにより、人物の位置を継続的に取得する。この場合、人物位置取得部21は、画像データに複数の人物が含まれる場合、各人物を識別し、識別された各人物の位置を継続的に取得して記録してもよい。   Further, the person position acquisition unit 21 continuously acquires the position of the person by detecting the position of the person from each image data acquired at regular intervals, for example. In this case, when the image data includes a plurality of persons, the person position acquisition unit 21 may identify each person and continuously acquire and record the position of each identified person.

手位置取得部22は、手の位置を取得する。本例では、手位置取得部22は、画像取得装置11が取得した2つの画像データから、人物の手(具体的には手の像)を検出し、その3次元位置を取得する。具体的には、手位置取得部22は、人物位置取得部21と同様に、2つの画像データにおける人物の手の位置を検出し、三角測量の原理を利用して手の3次元位置を取得する。   The hand position acquisition unit 22 acquires the position of the hand. In this example, the hand position acquisition unit 22 detects a person's hand (specifically, an image of the hand) from the two image data acquired by the image acquisition device 11, and acquires the three-dimensional position thereof. Specifically, the hand position acquisition unit 22 detects the position of the person's hand in the two image data, and acquires the three-dimensional position of the hand using the principle of triangulation, like the person position acquisition unit 21. To do.

画像中からの人物の手の位置の検出は、例えば、画像データから肌色の領域を抜き出すか輝度勾配が極大となる点を抜き出すことにより物体の輪郭を抜き出した後、テンプレートマッチング法等により物体の輪郭が手に類似するか否かを判断することにより行うことができる。あるいは、手の位置の取得の簡易化や高精度化を図る観点より、手位置取得部22は、画像データから、ユーザ(または人物)が手に持つか装着している物体または装置の位置を手の位置として検出してもよい。ユーザが手に持つ物体としては、リモコン(例えばテレビリモコン)のような形状の指示器が考えられる。また、ユーザが装着する物体としては、手袋や、指輪、腕輪のような形状のものが考えられる。例えば、表面が特定の色や特定のパターンを有している物体または装置をユーザが手に装着する場合は、手位置取得部22は、画像データから当該特定の色やパターンの領域を抽出し、その位置を手の位置として検出することができる。   The position of a person's hand in the image can be detected by, for example, extracting the outline of the object by extracting a skin color area from the image data or extracting a point where the luminance gradient is maximized, and then extracting the contour of the object by a template matching method or the like. This can be done by determining whether the contour resembles a hand. Alternatively, from the viewpoint of simplifying the acquisition of the hand position and increasing the accuracy, the hand position acquisition unit 22 determines the position of the object or device that the user (or person) holds or wears from the image data. You may detect as a position of a hand. As an object held by the user, an indicator shaped like a remote controller (for example, a TV remote controller) can be considered. In addition, the object worn by the user may be a shape such as a glove, a ring, or a bracelet. For example, when the user wears an object or device having a specific color or specific pattern on the hand, the hand position acquisition unit 22 extracts the specific color or pattern region from the image data. The position can be detected as the position of the hand.

手位置取得部22は、画像データから複数の手を検出した場合には、検出された複数の手のそれぞれについて位置を取得する。   When a plurality of hands are detected from the image data, the hand position acquisition unit 22 acquires a position for each of the detected plurality of hands.

また、手位置取得部22は、例えば一定時間ごとに取得される各画像データから手の位置を検出することにより、手の位置を継続的に取得する。この場合、手位置取得部22は、画像データに複数の手が含まれる場合、各手を識別し、識別された各手の位置を継続的に取得して記録してもよい。   The hand position acquisition unit 22 continuously acquires the position of the hand by detecting the position of the hand from each piece of image data acquired at regular intervals, for example. In this case, when a plurality of hands are included in the image data, the hand position acquisition unit 22 may identify each hand and continuously acquire and record the position of each identified hand.

操作領域設定部23は、人物位置取得部21の取得結果に基づき、人物の前方に仮想的な操作領域(または操作空間)を設定する。具体的には、操作領域設定部23は、人物位置取得部21が取得した人物の位置の前方に、当該人物に対応する操作領域を設定する。操作領域は、実空間内に割り当てられる領域である。概略的には、操作領域内に手が入れられると入力情報の取得が開始され、操作領域内での手の位置または動きを基に入力情報が取得され、操作領域外に手が出されると入力情報の取得が終了する。   The operation area setting unit 23 sets a virtual operation area (or operation space) in front of the person based on the acquisition result of the person position acquisition unit 21. Specifically, the operation area setting unit 23 sets an operation area corresponding to the person in front of the position of the person acquired by the person position acquisition unit 21. The operation area is an area allocated in the real space. Generally, when the hand is put in the operation area, the acquisition of the input information is started, the input information is acquired based on the position or movement of the hand in the operation area, and the hand is put out of the operation area. Acquisition of input information ends.

操作領域設定部23は、人物位置取得部21により複数の人物の位置が検出された場合は、当該複数の人物のそれぞれについて操作領域を設定する。   When the position of a plurality of persons is detected by the person position acquisition unit 21, the operation area setting unit 23 sets an operation area for each of the plurality of persons.

操作領域設定部23により設定される操作領域は、例えば図4に示すように、人物Aの前方の直方体状の領域R1である。操作領域は、人物が自然に手を前に伸ばしたときに、手が操作領域内に含まれるように設定されることが望ましい。操作領域の詳細な設定方法、および操作領域の形状の別様態については後述する。   The operation region set by the operation region setting unit 23 is a rectangular parallelepiped region R1 in front of the person A, for example, as shown in FIG. The operation area is preferably set so that the hand is included in the operation area when the person naturally extends his / her hand forward. A detailed setting method of the operation area and another aspect of the shape of the operation area will be described later.

基準領域設定部24は、人物位置取得部21の取得結果に基づき、人物に対して所定の位置に仮想的な基準領域(または基準空間)を設定する。基準領域は、操作領域と同様に、実空間内に割り当てられる領域である。本例では、基準領域は、人物位置取得部21が検出した人物の位置の近傍に設定され、手が操作領域から離れる際の手の位置変化が、手を体に引き寄せる動きに対応したものであるかを判別するために利用される。   The reference area setting unit 24 sets a virtual reference area (or reference space) at a predetermined position for the person based on the acquisition result of the person position acquisition unit 21. Similar to the operation area, the reference area is an area allocated in the real space. In this example, the reference area is set in the vicinity of the position of the person detected by the person position acquisition unit 21, and the change in the position of the hand when the hand leaves the operation area corresponds to the movement that draws the hand to the body. Used to determine if there is.

基準領域設定部24は、人物位置取得部21により複数の人物の位置が検出された場合は、当該複数の人物のそれぞれについて基準領域を設定する。   When the position of a plurality of persons is detected by the person position acquisition unit 21, the reference area setting unit 24 sets a reference area for each of the plurality of persons.

基準領域設定部24により設定される基準領域は、人物が自然に手を引き寄せる際の手の動きの方向を直線で示したとき、当該直線が基準領域を通過するように設定される。例えば、基準領域は、人物が自然に手を前に伸ばしたときに基準領域側から操作領域側に向けて手が移動し、また、人物が手を体の方に引き寄せたときに操作領域側から基準領域側に向けて手が移動するように設定される。また、基準領域は、例えば図5に示すように、人物Aの両肩の位置を含むように、また人物Aの前方を向くように設定される。具体的には、図5において、基準領域は、人物Aの前後方向に対して垂直な、人物Aの中心と両肩の位置を通過し、人物Aの肩幅よりやや広い幅を持つ長方形状の平面領域R2である。このとき、平面領域R2の幅としては、例えば、人物の肩幅に対して一定の数値(例えば1.2)を乗じた値が設定される。人物の肩幅は、あらかじめ人体の寸法に関する統計値などを参照して設定されていても良いし、あるいは、実際に操作を行う人物の肩幅を取得しても良い。実際に操作を行う人物の肩幅を取得する場合には、例えば、画像データ中から人物の顔の大きさを取得し、統計値などから設定された顔の大きさと人物の肩幅との相関を基に、人物の肩幅を推定する。   The reference area set by the reference area setting unit 24 is set so that the straight line passes through the reference area when the direction of hand movement when the person naturally draws his / her hand is indicated by a straight line. For example, the reference area moves from the reference area side toward the operation area when the person naturally extends his hand, and when the person pulls his hand toward the body, The hand is set to move toward the reference area side. Further, for example, as shown in FIG. 5, the reference region is set so as to include the positions of both shoulders of the person A and to face the front of the person A. Specifically, in FIG. 5, the reference area is a rectangular shape that passes through the center of the person A and the positions of both shoulders perpendicular to the front-rear direction of the person A and has a width slightly wider than the shoulder width of the person A. This is a plane region R2. At this time, as the width of the plane region R2, for example, a value obtained by multiplying the shoulder width of the person by a certain numerical value (for example, 1.2) is set. The shoulder width of the person may be set in advance by referring to statistical values related to the dimensions of the human body, or the shoulder width of the person who actually performs the operation may be acquired. When acquiring the shoulder width of the person who actually performs the operation, for example, the size of the face of the person is acquired from the image data, and the correlation between the face size set from the statistical values and the shoulder width of the person is used. Next, the shoulder width of the person is estimated.

再び図3を参照すると、入力情報取得部25は、手位置取得部22の取得結果に基づき、手が操作領域に接触したと判定した場合に、手の位置または動きに基づく入力情報の取得を開始し、手が操作領域から離れたと判定した場合、手が操作領域から離れる際の(または離れるまでの)手の動きが所定方向の動きであると判定したときに、入力情報の取得を終了する。一例では、所定方向の動きは、操作領域に対応する人物側に向かう方向の動きであり、入力情報取得部25は、人物が手を体の方向に引き寄せて操作領域から離した場合に、入力情報の取得を終了する。また、手が操作領域から離れる際の手の動きは、例えば、手が操作領域から離れたと判定された時点の直前の手の動きである。   Referring to FIG. 3 again, the input information acquisition unit 25 acquires input information based on the position or movement of the hand when it is determined that the hand has touched the operation region based on the acquisition result of the hand position acquisition unit 22. Start, when it is determined that the hand has moved away from the operation area, the acquisition of input information is terminated when it is determined that the movement of the hand when the hand leaves the operation area (or until the hand leaves) is movement in a predetermined direction. To do. In one example, the movement in the predetermined direction is a movement in a direction toward the person corresponding to the operation area, and the input information acquisition unit 25 performs input when the person pulls the hand toward the body and moves away from the operation area. End information acquisition. Further, the hand movement when the hand leaves the operation area is, for example, the hand movement immediately before it is determined that the hand has left the operation area.

本実施の形態では、入力情報取得部25は、手位置取得部22の取得結果に基づき、手が操作領域から離れたと判定した場合、手が操作領域から離れる際の(または離れるまでの)手の動きの方向を示す方向線を求め、当該方向線が操作領域に対応する人物に対して設定された基準領域を通過すると判定したときに、入力情報の取得を終了する。例えば、基準領域は、手が人物側に向かう方向に移動して操作領域から離れた場合に、方向線が基準領域を通過するように設定される。また、方向線は、手が操作領域から離れる際の一定期間における当該手の位置の変化を示す有向線分の始点から終点方向に延びる半直線である。   In the present embodiment, when the input information acquisition unit 25 determines that the hand has left the operation area based on the acquisition result of the hand position acquisition unit 22, the hand when the hand leaves (or until the hand leaves) from the operation area. When the direction line indicating the direction of the movement is obtained and it is determined that the direction line passes through the reference area set for the person corresponding to the operation area, the acquisition of the input information is terminated. For example, the reference area is set such that the direction line passes through the reference area when the hand moves in the direction toward the person and moves away from the operation area. The direction line is a half line extending in the direction from the start point of the directed line segment indicating the change in the position of the hand during a certain period when the hand leaves the operation area.

手が操作領域に接触したか否かを判定する際、入力情報取得部25は、例えば、手の位置が操作領域外から操作領域内に移動したときに、手が操作領域に接触したと判定する。あるいは、入力情報取得部25は、手の位置が操作領域外から操作領域内に移動した後、一定期間操作領域内に存在したときに、手が操作領域に接触したと判定してもよい。   When determining whether or not the hand has touched the operation area, the input information acquisition unit 25 determines that the hand has touched the operation area, for example, when the position of the hand has moved from outside the operation area into the operation area. To do. Alternatively, the input information acquisition unit 25 may determine that the hand has touched the operation area when the position of the hand has been within the operation area for a certain period of time after moving from outside the operation area into the operation area.

また、手が操作領域から離れたか否かを判定する際、入力情報取得部25は、例えば、手の位置が操作領域内から操作領域外に移動したときに、手が操作領域から離れたと判定する。あるいは、入力情報取得部25は、手の位置が操作領域内から操作領域外に移動した後、一定期間操作領域外に存在したときに、手が操作領域から離れたと判定してもよい。   Further, when determining whether or not the hand has left the operation area, the input information acquisition unit 25 determines that the hand has left the operation area, for example, when the position of the hand moves from the operation area to the outside of the operation area. To do. Alternatively, the input information acquisition unit 25 may determine that the hand has left the operation area when the position of the hand has moved out of the operation area from the operation area and has been outside the operation area for a certain period.

複数の人物のそれぞれに対して操作領域および基準領域が設定されている場合には、入力情報取得部25は、各操作領域について、手が当該操作領域に接触したか否かを判定し、接触したと判定した場合に、当該手の位置または動きに基づく入力情報の取得を開始し、その後、当該手が当該操作領域から離れたと判定した場合、手が操作領域から離れる際の手の動きが所定方向の動きであると判定したときに、入力情報の取得を終了する。   When the operation area and the reference area are set for each of the plurality of persons, the input information acquisition unit 25 determines, for each operation area, whether or not the hand has touched the operation area. If it is determined that the hand has moved away from the operation area, the acquisition of input information based on the position or movement of the hand is started, and then it is determined that the hand has left the operation area. When it is determined that the movement is in a predetermined direction, the acquisition of input information is terminated.

また、手位置取得部22により複数の手の位置が取得された場合には、入力情報取得部25は、複数の手のうちのいずれかの手が操作領域に接触したかを判定し、いずれかの手が接触したと判定した場合に、当該手の位置または動きに基づく入力情報の取得を開始し、その後、当該手が当該操作領域から離れたと判定した場合、手が操作領域から離れる際の手の動きが所定方向の動きであると判定したときに、入力情報の取得を終了する。   Further, when the positions of a plurality of hands are acquired by the hand position acquisition unit 22, the input information acquisition unit 25 determines whether any of the plurality of hands has touched the operation area, When it is determined that the hand has touched, acquisition of input information based on the position or movement of the hand is started, and then, when it is determined that the hand has left the operation area, the hand leaves the operation area. When it is determined that the hand moves in a predetermined direction, the acquisition of the input information is terminated.

なお、入力情報取得部25は、手が操作領域に接触したと判定した場合に、必ず入力情報の取得を開始するのではなく、所定の条件が成立するときに入力情報の取得を開始してもよい。所定の条件としては、例えば、後述の実施の形態5で示されるものがある。   When the input information acquisition unit 25 determines that the hand has touched the operation area, the input information acquisition unit 25 does not necessarily start acquiring input information, but starts acquiring input information when a predetermined condition is satisfied. Also good. As the predetermined condition, for example, there is one shown in a fifth embodiment described later.

図3の例では、入力情報取得部25は、接触判定部31、方向線算出部32、通過判定部33、算出タイミング決定部34、および座標算出部35を含む。   In the example of FIG. 3, the input information acquisition unit 25 includes a contact determination unit 31, a direction line calculation unit 32, a passage determination unit 33, a calculation timing determination unit 34, and a coordinate calculation unit 35.

接触判定部31は、人物の手が操作領域に接触しているか否かを判定する。例えば、接触判定部31は、手位置取得部22が取得した手の位置が、操作領域設定部23が設定した操作領域内に含まれているか否かを判断し、含まれている場合に接触していると判定し、含まれていない場合には接触していないと判定する。あるいは、接触判定部31は、手の位置が操作領域内に含まれている状態が一定時間(例えば1秒)継続したとき、手が操作領域に接触していると判定し、手の位置が操作領域内に含まれていない状態が一定時間継続したとき、手が操作領域に接触していないと判定し、手の位置が操作領域内に含まれている状態や含まれていない状態の継続時間が一定時間に満たない場合は、それ以前の判定結果を維持するようにしてもよい。これにより、意図しない瞬間的な手の接触などによる誤操作を抑制することができる。   The contact determination unit 31 determines whether a human hand is in contact with the operation area. For example, the contact determination unit 31 determines whether or not the hand position acquired by the hand position acquisition unit 22 is included in the operation region set by the operation region setting unit 23. If it is not included, it is determined that it is not in contact. Alternatively, the contact determination unit 31 determines that the hand is in contact with the operation area when the state in which the position of the hand is included in the operation area continues for a certain time (for example, 1 second), and the position of the hand is When a state not included in the operation area continues for a certain period of time, it is determined that the hand is not in contact with the operation area, and the state where the hand position is included in the operation area or not included is continued If the time is less than a certain time, the previous determination result may be maintained. Thereby, it is possible to suppress an erroneous operation due to an unintended instantaneous hand contact.

また、複数の手の位置が取得されている場合や、複数の操作領域が設定されている場合は、接触判定部31は、手の位置と操作領域との全ての組み合わせに対して、手の位置が操作領域内に含まれているか否か、または手が操作領域に接触しているか否かの判定を行う。   Further, when a plurality of hand positions are acquired, or when a plurality of operation areas are set, the contact determination unit 31 performs hand combinations for all combinations of hand positions and operation areas. It is determined whether the position is included in the operation area or whether the hand is in contact with the operation area.

接触判定部31は、その判定結果が非接触から接触に変化した場合に、人物の手が操作領域に接触したと判定してもよく、また、その判定結果が接触から非接触に変化した場合に、人物の手が操作領域から離れたと判定してもよい。   When the determination result changes from non-contact to contact, the contact determination unit 31 may determine that the person's hand has touched the operation area, and when the determination result changes from contact to non-contact In addition, it may be determined that the person's hand has left the operation area.

方向線算出部32は、手が操作領域から離れる際の手の動きの方向を示す方向線を算出する。例えば、方向線算出部32は、接触判定部31により手が操作領域から離れたと判定された場合に、その時点までの一定期間における当該手の位置に基づいて当該手の方向線を算出する。方向線は、例えば、手が操作領域から離れた時点よりも一定時間(例えば0.5秒)前の手の位置を始点とし、手が操作領域から離れた時点における手の位置を通過する半直線である。すなわち、方向線は、例えば、手が操作領域から離れた時点における位置を終点とし、手が操作領域から離れた時点よりも一定時間(例えば0.5秒)前の手の位置を始点として、始点と終点を結ぶ線を、始点から終点方向に延長して得られる半直線である。あるいは、方向線算出部32は、手が操作領域から離れた時点における手の位置を通過する直線であって、かつ、手が操作領域から離れた時点よりも前の複数の時点における手の位置と当該直線との距離の二乗の和が最小となる直線を方向線として算出してもよい。   The direction line calculation unit 32 calculates a direction line indicating the direction of movement of the hand when the hand leaves the operation area. For example, when the contact determination unit 31 determines that the hand has moved away from the operation area, the direction line calculation unit 32 calculates the direction line of the hand based on the position of the hand in a certain period until that time. For example, the direction line starts from the position of the hand before a certain time (for example, 0.5 seconds) before the time when the hand leaves the operation area, and passes through the position of the hand when the hand leaves the operation area. It is a straight line. That is, the direction line has, for example, the position at the time when the hand leaves the operation area as the end point, and the position of the hand before a certain time (for example, 0.5 seconds) from the time when the hand leaves the operation area as the start point. It is a half line obtained by extending a line connecting the start point and the end point from the start point to the end point direction. Alternatively, the direction line calculation unit 32 is a straight line that passes through the position of the hand when the hand leaves the operation area, and the position of the hand at a plurality of times before the time when the hand leaves the operation area. The straight line that minimizes the sum of the squares of the distances to the straight line may be calculated as the direction line.

なお、方向線算出部32は、接触判定部31の判定結果によらず、手位置取得部22により取得された全ての手について方向線を算出してもよい。   The direction line calculation unit 32 may calculate the direction lines for all the hands acquired by the hand position acquisition unit 22 regardless of the determination result of the contact determination unit 31.

通過判定部33は、方向線算出部32により算出された方向線が基準領域設定部24により設定された基準領域を通過するか(または基準領域に交差するか)を判定する。このとき、複数の方向線が算出されている場合や、複数の基準領域が設定されている場合は、通過判定部33は、方向線と基準領域との全ての組み合わせに対して、方向線が基準領域を通過するか否かの判定を行う。   The passage determination unit 33 determines whether the direction line calculated by the direction line calculation unit 32 passes through the reference region set by the reference region setting unit 24 (or crosses the reference region). At this time, when a plurality of direction lines are calculated, or when a plurality of reference areas are set, the passage determination unit 33 determines that the direction lines are the same for all combinations of the direction lines and the reference areas. It is determined whether or not the reference area is passed.

算出タイミング決定部34は、後述する座標算出部35による2次元座標の算出の開始および終了を決定する。座標算出部35による2次元座標の算出の開始および終了は、ユーザによる情報入力またはジェスチャ入力の開始および終了を意味する。   The calculation timing determination unit 34 determines the start and end of calculation of two-dimensional coordinates by a coordinate calculation unit 35 described later. The start and end of the calculation of the two-dimensional coordinates by the coordinate calculation unit 35 means the start and end of information input or gesture input by the user.

算出タイミング決定部34は、接触判定部31により手が操作領域に接触したと判定された場合に、座標算出部35による当該手の3次元位置に基づく2次元座標の算出の開始を決定する。ただし、すでに当該手の3次元位置に基づく2次元座標の算出が開始されている場合は、算出の開始の決定は行われない。   When the contact determination unit 31 determines that the hand has touched the operation area, the calculation timing determination unit 34 determines the start of calculation of the two-dimensional coordinates based on the three-dimensional position of the hand by the coordinate calculation unit 35. However, when the calculation of the two-dimensional coordinates based on the three-dimensional position of the hand has already been started, the calculation start is not determined.

また、算出タイミング決定部34は、接触判定部31により手が操作領域から離れたと判定され、かつ、通過判定部33により当該手の方向線が基準領域を通過していると判定された場合であって、さらに当該操作領域と当該基準領域とが同一の人物に対して設定されたものである場合に、座標算出部35による当該手の3次元位置に基づく2次元座標の算出の終了を決定する。ただし、当該手の3次元位置に基づく2次元座標の算出が行われていない場合は、算出の終了の決定は行われない。   The calculation timing determination unit 34 is a case where the contact determination unit 31 determines that the hand has moved away from the operation area, and the passage determination unit 33 determines that the direction line of the hand passes the reference area. Further, when the operation area and the reference area are set for the same person, the end of calculation of the two-dimensional coordinates based on the three-dimensional position of the hand by the coordinate calculation unit 35 is determined. To do. However, when the calculation of the two-dimensional coordinates based on the three-dimensional position of the hand is not performed, the end of the calculation is not determined.

図6(A)および(B)において、人物Aの操作領域R1は人物Aの位置の前方に設定されており、人物Aの基準領域R2は人物Aの位置の近傍に人物Aの前方を向くように設定されている。この場合、図6(A)に示すように、手Hが操作領域R1から離れ、かつ手Hの方向線Dが基準領域R2に交差している場合、手Hが操作領域R1から基準領域R2に向かう方向に移動した可能性が高く、当該手Hの動きは、人物Aが手を体の方に引き寄せる際の手の動きである可能性が高い。一方、図6(B)に示すように、手Hが操作領域R1から離れ、かつ手Hの方向線Dが基準領域R2に交差していない場合、当該手Hの動きは、人物Aが手を体の方に引き寄せる際の手の動きではなく、人物Aが操作領域R1内で手を動かす際の手の動きである可能性が高い。したがって、この場合は、ジェスチャ入力を終了する意図がなく、操作領域内で手を動かしているつもりであるにもかかわらず手が操作領域から抜け出てしまったという可能性がある。このようなことから、本実施の形態では、算出タイミング決定部34は、方向線が基準領域を通過するか否かを判定することによって、操作領域から離れる際の手の動きが、人物が手を体の方に引き寄せる際の手の動きであるか否かを判定し、手を体の方に引き寄せる際の動きであると判定したときに、2次元座標の算出を終了する。   6A and 6B, the operation area R1 of the person A is set in front of the position of the person A, and the reference area R2 of the person A faces the front of the person A in the vicinity of the position of the person A. Is set to In this case, as shown in FIG. 6A, when the hand H is separated from the operation region R1 and the direction line D of the hand H intersects the reference region R2, the hand H is moved from the operation region R1 to the reference region R2. The movement of the hand H is highly likely to be a movement of the hand when the person A draws his / her hand toward the body. On the other hand, as shown in FIG. 6B, when the hand H is away from the operation area R1 and the direction line D of the hand H does not intersect the reference area R2, the movement of the hand H is determined by the person A. There is a high possibility that the movement of the person A is moving the hand within the operation area R1 instead of the movement of the hand when the person is drawn toward the body. Therefore, in this case, there is a possibility that the hand has left the operation area even though the user does not intend to end the gesture input and intends to move the hand within the operation area. For this reason, in the present embodiment, the calculation timing determination unit 34 determines whether or not the direction line passes through the reference region, whereby the movement of the hand when leaving the operation region is detected by the person's hand. It is determined whether or not the movement is a hand movement when the hand is drawn toward the body. When it is determined that the movement is a movement when the hand is drawn toward the body, the calculation of the two-dimensional coordinates is terminated.

座標算出部35は、手の3次元位置を基に2次元座標の算出を行う。座標算出部35による座標の算出は、手の3次元座標を所定の2次元座標系に射影することにより行うことができる。所定の2次元座標系は、例えば、当該手が接触した操作領域を基準とする2次元座標系、または当該手が接触した操作領域に対応する人物の位置を基準とする2次元座標系である。   The coordinate calculation unit 35 calculates two-dimensional coordinates based on the three-dimensional position of the hand. The calculation of coordinates by the coordinate calculation unit 35 can be performed by projecting the three-dimensional coordinates of the hand onto a predetermined two-dimensional coordinate system. The predetermined two-dimensional coordinate system is, for example, a two-dimensional coordinate system based on the operation area touched by the hand or a two-dimensional coordinate system based on the position of a person corresponding to the operation area touched by the hand. .

例えば、図7に示すように、座標算出部35は、操作領域R1内に定義された2本のベクトルu、vにより張られる平面に対して、手の3次元座標を投影した際の座標を、当該2本のベクトルu、vを基底とする座標系における座標値として算出する。   For example, as shown in FIG. 7, the coordinate calculation unit 35 calculates the coordinates when the three-dimensional coordinates of the hand are projected on the plane stretched by the two vectors u and v defined in the operation region R1. The coordinate values in the coordinate system based on the two vectors u and v are calculated.

座標算出部35によって算出された2次元座標は、表示制御装置13に対して出力される。   The two-dimensional coordinates calculated by the coordinate calculation unit 35 are output to the display control device 13.

(処理の流れ)
図8は、実施の形態1における入力装置12の処理の一例を示すフローチャートである。以下、図8を参照して、入力装置12の処理を説明する。
(Process flow)
FIG. 8 is a flowchart illustrating an example of processing of the input device 12 according to the first embodiment. Hereinafter, the processing of the input device 12 will be described with reference to FIG.

以下に説明する一連の処理は、一定のタイミングごとに実行される。例えば、画像取得装置11が画像データを取得するタイミング(例えば1/30秒に1回)にあわせて、1/30秒に1回実行される。   A series of processing described below is executed at certain timings. For example, it is executed once every 1/30 seconds in accordance with the timing (for example, once every 1/30 seconds) at which the image acquisition device 11 acquires image data.

また、ここでは、入力装置12は、人物に関するデータを保持する人物テーブルと、手に関するデータを保持する手テーブルとを有する。   In addition, here, the input device 12 includes a person table that holds data related to a person and a hand table that holds data related to a hand.

図9は、人物テーブルを示す。人物テーブルには、人物を識別するための識別情報である人物ID、当該人物の位置、当該人物の操作領域、当該人物の基準領域、当該人物によるジェスチャ入力の開始を示す開始フラグ、およびジェスチャ入力を行う手の手IDが互いに対応付けて記録される。開始フラグは、「0」または「1」のいずれかの値をとり、「0」は開始されていないことを示し、「1」は開始されたことを示す。開始フラグの初期値は「0」である。図9において、M1(T)およびM2(T)は、それぞれ対応する人物の現在の3次元座標値である。   FIG. 9 shows a person table. The person table includes a person ID that is identification information for identifying a person, the position of the person, an operation area of the person, a reference area of the person, a start flag indicating the start of gesture input by the person, and a gesture input. Are recorded in association with each other. The start flag takes either a value of “0” or “1”, “0” indicates that it has not started, and “1” indicates that it has started. The initial value of the start flag is “0”. In FIG. 9, M1 (T) and M2 (T) are the current three-dimensional coordinate values of the corresponding person, respectively.

図10は、手テーブルを示す。手テーブルには、手を識別するための識別情報である手IDと、当該手の位置と、当該手の方向線とが互いに対応付けて記録される。手の位置は、現在までの位置が時系列的に記録される。図10において、H1(T)は対応する手の現在の3次元座標値であり、H1(T−N)は対応する手のN回前の3次元座標値である。   FIG. 10 shows a hand table. In the hand table, a hand ID, which is identification information for identifying a hand, a position of the hand, and a direction line of the hand are recorded in association with each other. The hand position is recorded in a time-series manner up to the present. In FIG. 10, H1 (T) is the current three-dimensional coordinate value of the corresponding hand, and H1 (TN) is the three-dimensional coordinate value N times before the corresponding hand.

図8を参照すると、まず、入力装置12は、画像取得装置11から画像データを取得し(S1)、取得した画像データから人物を検出し、検出された人物の位置を取得する(S2)。   Referring to FIG. 8, first, the input device 12 acquires image data from the image acquisition device 11 (S1), detects a person from the acquired image data, and acquires the position of the detected person (S2).

具体的には、入力装置12は、検出された人物それぞれについて、当該人物のデータが既に人物テーブルに登録されているか否かを判断し、登録されていない場合は、当該人物に人物IDを割り当て、当該人物の人物IDと位置とを人物テーブルに新規に登録する。一方、既に登録されている場合には、人物テーブルにおいて当該人物の位置を更新する。上記の判断は、例えば、今回取得された人物の位置と、人物テーブルに登録されている各人物の位置との位置関係に基づいてなされる。具体的には、入力装置12は、人物テーブルにおいて、今回検出された人物の位置からの距離が所定閾値以下である人物の位置が登録されているかを判断し、登録されていない場合には今回検出された人物のデータを新規登録し、登録されている場合には、人物テーブルに登録されている人物の位置のうち今回検出された人物の位置から最も近い人物の位置を、今回検出された位置によって更新する。ただし、入力装置12は、上記以外の方法で判断してもよく、例えば、画像データから各人物の特徴を抽出し、各人物の特徴を人物テーブルに記録しておき、今回検出された人物の特徴と人物テーブルに記録されている各人物の特徴との類似度に基づいて判断してもよい。   Specifically, for each detected person, the input device 12 determines whether or not the data of the person is already registered in the person table, and if not registered, assigns a person ID to the person. The person ID and position of the person are newly registered in the person table. On the other hand, if it is already registered, the position of the person is updated in the person table. The above determination is made based on, for example, the positional relationship between the position of the person acquired this time and the position of each person registered in the person table. Specifically, the input device 12 determines whether a position of a person whose distance from the position of the person detected this time is equal to or less than a predetermined threshold is registered in the person table. If the data of the detected person is newly registered and registered, the position of the person closest to the position of the detected person among the positions of the persons registered in the person table is detected this time. Update with position. However, the input device 12 may make a determination by a method other than the above. For example, the characteristics of each person are extracted from the image data, the characteristics of each person are recorded in the person table, and the person detected this time is recorded. The determination may be made based on the similarity between the feature and the feature of each person recorded in the person table.

また、入力装置12は、人物テーブルに登録されている人物のデータのうち、今回検出されなかった人物のデータ、すなわち位置が更新されなかった人物のデータを、人物テーブルから削除する。   Further, the input device 12 deletes, from the person table, the data of the person who has not been detected this time, that is, the data of the person whose position has not been updated among the person data registered in the person table.

次に、入力装置12は、ステップS2で人物の位置が取得されたか否かを判断し(S3)、人物の位置が取得されなかった場合は(S3:N)、処理を終了する。   Next, the input device 12 determines whether or not the position of the person has been acquired in step S2 (S3). If the position of the person has not been acquired (S3: N), the process is terminated.

一方、1人以上の人物の位置が取得された場合は(S3:Y)、入力装置12は、取得した人物の位置それぞれに対して、操作領域を設定するとともに(S4)、基準領域を設定する(S5)。具体的には、入力装置12は、人物テーブルに登録されている人物の人物IDのそれぞれに対応付けて、当該人物に対して設定された操作領域および基準領域を記録する。   On the other hand, when the position of one or more persons is acquired (S3: Y), the input device 12 sets an operation area for each acquired position of the person (S4) and sets a reference area. (S5). Specifically, the input device 12 records the operation area and the reference area set for the person in association with each person ID registered in the person table.

次に、入力装置12は、ステップS1で取得した画像データから人物の手を検出し、検出された手の位置を取得する(S6)。   Next, the input device 12 detects a person's hand from the image data acquired in step S1, and acquires the position of the detected hand (S6).

具体的には、入力装置12は、検出された手それぞれについて、当該手のデータが既に手テーブルに登録されているか否かを判断し、登録されていない場合は、当該手に手IDを割り当て、当該手の手IDと位置とを手テーブルに新規登録する。一方、既に登録されている場合には、手テーブルにおいて、当該手の位置の時系列データに今回取得された手の位置を追加する。上記の判断は、例えば、今回取得された手の位置と、手テーブルに登録されている各手の位置との位置関係に基づいてなされる。具体的には、入力装置12は、手テーブルにおいて、今回検出された手の位置からの距離が所定閾値以下である手の位置が登録されているかを判断し、登録されていない場合には今回検出された手のデータを新規登録し、登録されている場合には、手テーブルに登録されている手の位置のうち今回検出された手の位置から最も近い手の位置を、今回検出された位置によって更新する。ただし、入力装置12は、上記以外の方法で判断してもよく、例えば、画像データから各手の特徴を抽出し、各手の特徴を手テーブルに記録しておき、今回検出された手の特徴と手テーブルに記録されている各手の特徴との類似度に基づいて判断してもよい。   Specifically, for each detected hand, the input device 12 determines whether or not the hand data is already registered in the hand table, and if not, assigns a hand ID to the hand. The hand ID and position of the hand are newly registered in the hand table. On the other hand, if already registered, the hand position acquired this time is added to the time series data of the hand position in the hand table. The above determination is made based on, for example, the positional relationship between the hand position acquired this time and the position of each hand registered in the hand table. Specifically, the input device 12 determines whether a hand position whose distance from the currently detected hand position is equal to or smaller than a predetermined threshold is registered in the hand table. If the detected hand data is newly registered and registered, the position of the hand closest to the currently detected hand position among the hand positions registered in the hand table is detected this time. Update with position. However, the input device 12 may make a determination by a method other than the above. For example, the feature of each hand is extracted from the image data, the feature of each hand is recorded in the hand table, and the hand detected this time is recorded. The determination may be made based on the similarity between the feature and the feature of each hand recorded in the hand table.

また、入力装置12は、手テーブルに登録されている手のデータうち、今回検出されなかった手のデータ、すなわち位置が追加されなかった手のデータを、手テーブルから削除する。   Further, the input device 12 deletes, from the hand table, hand data that has not been detected this time, that is, hand data for which no position has been added, among the hand data registered in the hand table.

次に、入力装置12は、一定時間以上位置を取得した手が存在するか否かを判断し(S7)、そのような手が存在する場合(S7:Y)、そのような手のすべてに対して方向線を求める(S8)。具体的には、入力装置12は、手テーブルにおいて位置データが所定数以上登録されている手が存在する場合に、そのような手のそれぞれについて、方向線を求めて手テーブルに登録する。例えば、今回取得した手の位置(方向線が通過する点)と0.5秒前の手の位置(方向線の始点)とを、方向線を示すデータとして手テーブルに登録する。一方、一定時間以上位置を取得した手が1つも存在しない場合は(S7:N)、処理を終了する。   Next, the input device 12 determines whether or not there is a hand whose position has been acquired for a certain time or more (S7), and when such a hand exists (S7: Y), On the other hand, a direction line is obtained (S8). Specifically, the input device 12 obtains a direction line for each such hand and registers it in the hand table when there are hands whose position data is registered in a predetermined number or more in the hand table. For example, the hand position (point through which the direction line passes) acquired this time and the hand position (start point of the direction line) 0.5 seconds before are registered in the hand table as data indicating the direction line. On the other hand, if no hand has acquired a position for a certain time or longer (S7: N), the process ends.

上記ステップS8の後、処理はステップS9に進む。ステップS9以降の処理は、ステップS2で位置が取得された人物、すなわち人物テーブルに登録されている人物のそれぞれについて行われる。   After step S8, the process proceeds to step S9. The processes after step S9 are performed for each person whose position is acquired in step S2, that is, each person registered in the person table.

ステップS9では、入力装置12は、処理対象の人物(以下、「対象人物」と称する)がすでにジェスチャ入力を開始しているかを判断する。具体的には、人物テーブルにおいて、対象人物の開始フラグが「0」であれば開始していないと判断し、「1」であれば開始していると判断する。   In step S <b> 9, the input device 12 determines whether the person to be processed (hereinafter referred to as “target person”) has already started the gesture input. Specifically, in the person table, if the start flag of the target person is “0”, it is determined that it has not started, and if it is “1”, it is determined that it has started.

ジェスチャ入力を開始していない場合は(S9:N)、入力装置12は、次のように、ジェスチャ入力を開始するか否かの判断を行う。   If the gesture input has not started (S9: N), the input device 12 determines whether to start the gesture input as follows.

入力装置12は、対象人物に対して設定された操作領域に手が触れているかを判断する(S10)。具体的には、人物テーブルに記録されている対象人物の操作領域と、手テーブルに記録されている各手の現在の位置とに基づいて、操作領域に触れている手が存在するかを判断する。そして、操作領域に触れている手が存在しない場合は(S10:N)、処理を終了する。一方、操作領域に触れている手が存在する場合は(S10:Y)、対象人物によるジェスチャ入力を開始し(S11)、対象人物の操作領域に触れている手の3次元座標から2次元座標を算出し(S12)、処理を終了する。ステップS11では、入力装置12は、人物テーブルにおける対象人物のデータにおいて、開始フラグを「1」に設定し、対象人物の操作領域に触れている手の手IDをジェスチャ入力を行う手の手IDとして登録する。   The input device 12 determines whether or not the hand touches the operation area set for the target person (S10). Specifically, it is determined whether there is a hand touching the operation area based on the operation area of the target person recorded in the person table and the current position of each hand recorded in the hand table. To do. If there is no hand touching the operation area (S10: N), the process is terminated. On the other hand, when there is a hand touching the operation area (S10: Y), the gesture input by the target person is started (S11), and the two-dimensional coordinates from the three-dimensional coordinates of the hand touching the operation area of the target person are started. Is calculated (S12), and the process is terminated. In step S11, the input device 12 sets the start flag to “1” in the data of the target person in the person table, and the hand ID of the hand touching the operation area of the target person for performing gesture input. Register as

また、ステップS9において、対象人物がすでにジェスチャ入力を開始していると判断された場合は(S9:Y)、次のように、ジェスチャ入力を終了するか否かの判断を行う。   If it is determined in step S9 that the target person has already started the gesture input (S9: Y), it is determined whether or not the gesture input is terminated as follows.

入力装置12は、まず、対象人物に対して設定された操作領域に、ジェスチャ入力を行う手が触れているかを判断する(S13)。具体的には、人物テーブルに記録されている対象人物の操作領域と、人物テーブルに記録されている対象人物のジェスチャ入力を行う手の手IDと、当該手IDと対応付けて手テーブルに記録されている現在の手の位置とに基づいて、対象人物の操作領域にジェスチャ入力を行う手が触れているかを判断する。   First, the input device 12 determines whether or not the operation area set for the target person is touched by a hand performing gesture input (S13). Specifically, the operation area of the target person recorded in the person table, the hand ID for inputting the gesture of the target person recorded in the person table, and the hand ID associated with the hand ID are recorded in the hand table. Based on the current position of the hand, it is determined whether or not the hand performing gesture input touches the operation area of the target person.

そして、操作領域にジェスチャ入力を行う手が触れている場合は(S13:Y)、ジェスチャ入力を終了せずに、ジェスチャ入力を行う手の3次元座標に基づく2次元座標の算出を行い(S12)、処理を終了する。   If the hand that makes the gesture input touches the operation area (S13: Y), the two-dimensional coordinates based on the three-dimensional coordinates of the hand that makes the gesture input are calculated without ending the gesture input (S12). ), The process is terminated.

一方、操作領域にジェスチャ入力を行う手が触れていない場合には(S13:N)、入力装置12は、当該ジェスチャ入力を行う手に対して算出された方向線が、対象人物に対して設定された基準領域に交差しているかを判断する(S14)。   On the other hand, when the hand performing gesture input is not touching the operation area (S13: N), the input device 12 sets the direction line calculated for the hand performing gesture input for the target person. It is determined whether or not it intersects with the reference area (S14).

方向線が基準領域に交差している場合(S14:Y)、対象人物によるジェスチャ入力を終了し(S15)、処理を終了する。この場合、人物テーブルにおける対象人物のデータにおいて、開始フラグを「0」に戻し、ジェスチャ入力を行う手の手IDを消去する。   If the direction line intersects the reference area (S14: Y), the gesture input by the target person is terminated (S15), and the process is terminated. In this case, in the data of the target person in the person table, the start flag is returned to “0” and the hand ID of the hand performing the gesture input is deleted.

一方、方向線が基準領域に交差していない場合(S14:N)、ジェスチャ入力を終了せずに、ジェスチャ入力を行う手の3次元座標に基づく2次元座標の算出を行い(S12)、処理を終了する。   On the other hand, if the direction line does not intersect the reference area (S14: N), the two-dimensional coordinates are calculated based on the three-dimensional coordinates of the hand performing the gesture input without ending the gesture input (S12), and processing Exit.

(操作領域の設定)
本実施の形態における操作領域設定部23が人物の位置を基に設定する操作領域について説明する。
(Operation area setting)
The operation region set by the operation region setting unit 23 in the present embodiment based on the position of the person will be described.

操作領域は、例えば、図4に示すように、人物の前方に位置する直方体の領域である。この操作領域の位置および大きさの一例を図11および図12に示す。図11および図12は、それぞれ人物と操作領域との位置関係を示す上面図および側面図である。   For example, as shown in FIG. 4, the operation area is a rectangular parallelepiped area positioned in front of the person. An example of the position and size of the operation area is shown in FIGS. 11 and 12 are a top view and a side view showing the positional relationship between the person and the operation area, respectively.

なお、以下の説明では、人物Aの左右方向、上下方向、前後方向に平行な方向における寸法を、それぞれ、幅、高さ、奥行きと称する。   In the following description, the dimensions of the person A in the horizontal direction, the vertical direction, and the direction parallel to the front-rear direction are referred to as width, height, and depth, respectively.

図11および図12において、操作領域R1は、幅W、高さHの長方形を、人物Aの位置Pから距離L1離れた位置から距離L2離れた位置まで、人物Aの前後方向に平行移動させてできる直方体である。この直方体は、幅W、高さH、および奥行き(L2−L1)を有する。   In FIG. 11 and FIG. 12, the operation area R1 translates a rectangle having a width W and a height H in the front-rear direction of the person A from the position L1 away from the position P of the person A to the position away from the distance L2. It is a cuboid that can be. The rectangular parallelepiped has a width W, a height H, and a depth (L2-L1).

幅Wおよび高さHの値は、人物Aの位置Pから距離L1離れた位置に存在する幅W、高さHの長方形の全体に手が届くように設定されることが望ましい。例えば、幅Wは人物Aの肩幅よりもやや広い長さ、高さHは人物Aの頭頂から腰の位置までの長さである。また、例えば、操作領域R1は、人物Aの左右方向において操作領域R1の中心が人物Aの位置(例えば顔の中心位置)Pと一致するように、かつ人物Aの上下方向において操作領域R1の上端および下端がそれぞれ人物Aの頭頂および腰の位置と一致するように配置される。   The values of the width W and the height H are preferably set so that the entire rectangle having the width W and the height H existing at the position L1 away from the position P of the person A can be reached. For example, the width W is slightly longer than the shoulder width of the person A, and the height H is the length from the top of the person A to the waist position. Further, for example, the operation area R1 is arranged such that the center of the operation area R1 coincides with the position of the person A (for example, the center position of the face) P in the left-right direction of the person A, and The upper end and the lower end are arranged so as to coincide with the positions of the head and waist of the person A, respectively.

また、距離L1は人物Aの手の長さより小さい値、距離L2は人物Aの手の長さより大きい値であることが望ましい。これにより、人物Aが自然に手を前に伸ばした場合に手が操作領域R1に触れることができる。   The distance L1 is preferably a value smaller than the length of the hand of the person A, and the distance L2 is preferably a value larger than the length of the hand of the person A. Accordingly, when the person A naturally extends his / her hand forward, the hand can touch the operation area R1.

ここで、人物の肩幅や人物の頭頂から腰の位置までの長さ、さらに人物の手の長さは、あらかじめ人体の寸法に関する統計値などを参照して設定されていても良いし、あるいは、実際に操作を行う人物の寸法を取得しても良い。実際に操作を行う人物の寸法を取得する場合、例えば、画像データから人物の顔の大きさを取得し、統計値などから設定された顔の大きさと人物の寸法との相関を基に、人物の寸法を推定する。   Here, the shoulder width of the person, the length from the top of the person to the position of the waist, and the length of the hand of the person may be set in advance by referring to statistical values related to the dimensions of the human body, or You may acquire the dimension of the person who actually operates. When acquiring the dimensions of the person who actually performs the operation, for example, the person's face size is acquired from the image data, and the person's face size is calculated based on the correlation between the face size and the person's dimension set from statistical values. Estimate the dimensions of

また、入力装置12における操作領域や基準領域の設定等の処理において、人物の左右方向、上下方向、および前後方向は、例えば、画像データから取得される人物の姿勢や顔の向きなどから決定してもよいし、あらかじめ入力装置12や表示装置14の配置を基に設定してもよい。例えば、表示装置14の画面の左右方向を人物の左右方向、表示装置14の画面の上下方向を人物の上下方向、表示装置14の画面の法線方向を人物の前後方向と設定してもよい。   Further, in the process of setting the operation area and the reference area in the input device 12, the left / right direction, the up / down direction, and the front / rear direction of the person are determined based on, for example, the posture of the person or the face direction acquired from the image data. Alternatively, it may be set based on the arrangement of the input device 12 and the display device 14 in advance. For example, the horizontal direction of the screen of the display device 14 may be set as the horizontal direction of the person, the vertical direction of the screen of the display device 14 may be set as the vertical direction of the person, and the normal direction of the screen of the display device 14 may be set as the front-back direction of the person. .

図13、図14、および図15は、それぞれ操作領域の別の一例を示す斜視図、上面図、および側面図である。   FIGS. 13, 14, and 15 are a perspective view, a top view, and a side view, respectively, showing another example of the operation region.

本例では、操作領域R3は、直方体の両側に円筒状の立体の一部を組み合わせた形状を有する。人物Aを上方から見た場合、円筒状の立体は、人物Aの肩の位置SR、SLを中心とすることが望ましい。人物の手が届く範囲は、肩を中心とした円状の範囲であるため、部分円筒状の立体を操作領域R3に組み入れることで、全体に手が届きやすい操作領域を設定することができる。   In this example, the operation region R3 has a shape in which a part of a cylindrical solid body is combined on both sides of a rectangular parallelepiped. When the person A is viewed from above, the cylindrical solid is preferably centered on the shoulder positions SR and SL of the person A. Since the range within which a person's hand can reach is a circular range centered on the shoulder, by incorporating a partial cylindrical solid in the operation region R3, it is possible to set an operation region that can be easily reached by the whole.

具体的には、操作領域R3は、図14に示すように、人物Aから見て手前側に位置する第1の面S1と、奥側に位置する第2の面S2とに挟まれる領域である。第1の面S1は、人物Aの前方に位置し、人物Aの両肩を結ぶ線分および人物Aの上下方向に平行な平面部SC1と、人物Aから見て平面部SC1の左端に接続し、人物Aの左肩の位置SLを通り人物Aの上下方向に延びる直線を中心軸とする部分円筒面状の左曲面部SL1と、人物Aから見て平面部SC1の右端に接続し、人物Aの右肩の位置SRを通り人物Aの上下方向に延びる直線を中心軸とする部分円筒面状の右曲面部SR1とで構成される。第2の面S2は、人物Aの前方に位置し、人物Aの両肩を結ぶ線分および人物Aの上下方向に平行な平面部SC2と、人物Aから見て平面部SC2の左端に接続し、人物Aの左肩の位置SLを通り人物Aの上下方向に延びる直線を中心軸とする部分円筒面状の左曲面部SL2と、人物Aから見て平面部SC2の右端に接続し、人物Aの右肩の位置SRを通り人物Aの上下方向に延びる直線を中心軸とする部分円筒面状の右曲面部SR2とで構成される。   Specifically, as shown in FIG. 14, the operation region R3 is a region sandwiched between a first surface S1 located on the near side when viewed from the person A and a second surface S2 located on the far side. is there. The first surface S1 is located in front of the person A, and is connected to the line segment connecting both shoulders of the person A and the plane part SC1 parallel to the vertical direction of the person A, and the left end of the plane part SC1 when viewed from the person A. The left curved surface portion SL1 having a partial cylindrical surface centering on a straight line extending in the vertical direction of the person A through the position SL of the left shoulder of the person A and the right end of the plane portion SC1 when viewed from the person A are connected to the person A right curved surface portion SR1 having a partial cylindrical surface centered on a straight line extending through the position A of the right shoulder of A and extending in the vertical direction of the person A. The second surface S2 is located in front of the person A, and is connected to a line segment connecting both shoulders of the person A and the plane part SC2 parallel to the vertical direction of the person A, and the left end of the plane part SC2 when viewed from the person A. The left curved surface portion SL2 having a partial cylindrical surface centering on a straight line extending in the vertical direction of the person A through the position SL of the left shoulder of the person A and the right end of the plane portion SC2 when viewed from the person A are connected to the person A right curved surface portion SR2 having a partial cylindrical surface centered on a straight line passing through the position SR of the right shoulder of A and extending in the vertical direction of the person A.

第1の面S1について、人物Aの両肩を結ぶ線分から平面部SC1までの距離、左曲面部SL1の半径、および右曲面部SR1の半径は、人物Aの腕の長さよりも小さい。第2の面S2について、人物Aの両肩を結ぶ線分から平面部SC2までの距離、左曲面部SL2の半径、および右曲面部SR2の半径は、人物Aの腕の長さよりも大きい。図14の例では、人物Aの両肩を結ぶ線分から平面部SC1までの距離はL1であり、左曲面部SL1の半径および右曲面部SR1の半径はいずれもr1であり、人物Aの両肩を結ぶ線分から平面部SC2までの距離はL2(>L1)であり、左曲面部SL2の半径および右曲面部SR2の半径はいずれもr2(>r1)である。   Regarding the first surface S1, the distance from the line segment connecting both shoulders of the person A to the plane part SC1, the radius of the left curved surface part SL1, and the radius of the right curved surface part SR1 are smaller than the length of the arm of the person A. Regarding the second surface S2, the distance from the line segment connecting both shoulders of the person A to the plane part SC2, the radius of the left curved surface part SL2, and the radius of the right curved surface part SR2 are larger than the length of the arm of the person A. In the example of FIG. 14, the distance from the line connecting the shoulders of the person A to the plane portion SC1 is L1, the radius of the left curved surface portion SL1 and the radius of the right curved surface portion SR1 are both r1, The distance from the line connecting the shoulders to the plane portion SC2 is L2 (> L1), and the radius of the left curved surface portion SL2 and the radius of the right curved surface portion SR2 are both r2 (> r1).

あるいは、操作領域R3は、人物Aの前方に配置される直方体状の中央部RCと、人物Aから見て中央部RCの左側に接続する左側部RLと、人物Aから見て中央部RCの右側に接続する右側部RRとを有する。中央部RCは、上記図4および図11に示される操作領域R1と同様の形状を有する。左側部RLは、人物Aの左肩の位置SLを通り人物Aの上下方向に延びる直線を中心軸とする部分円筒状の立体であり、右側部RRは、人物Aの右肩の位置SRを通り人物Aの上下方向に延びる直線を中心軸とする部分円筒状の立体である。   Alternatively, the operation region R3 includes a rectangular parallelepiped central portion RC arranged in front of the person A, a left side RL connected to the left side of the central portion RC when viewed from the person A, and a central portion RC when viewed from the person A. And a right side RR connected to the right side. The central portion RC has the same shape as the operation region R1 shown in FIGS. The left side portion RL is a partially cylindrical solid centering on a straight line extending in the vertical direction of the person A through the position SL of the left shoulder of the person A, and the right side portion RR passes through the position SR of the right shoulder of the person A. It is a partial cylindrical solid whose central axis is a straight line extending in the vertical direction of the person A.

(効果)
以上説明した本実施の形態によれば、下記(1)〜(10)の効果が得られる。
(1)本実施の形態では、入力装置は、手が操作領域に接触したと判定した場合に、当該手の位置または動きに基づく入力情報の取得を開始し、手が操作領域から離れたと判定した場合、手が操作領域から離れる際の手の動きが所定方向の動きであると判定したときに、上記入力情報の取得を終了する。これにより、ユーザの意図しない情報入力の終了を抑制することができる。具体的には、ユーザが入力を終了する意図が無いにも関わらず手が操作領域から抜け出てしまったために操作が終了されてしまうことを防ぐことができる。例えば、所定方向の動きは、操作領域に対応する人物側に向かう方向の動きであり、この場合、人物が手を体の方向に引き寄せる動きをしたときにのみ、入力情報の取得を終了することができる。
(effect)
According to the present embodiment described above, the following effects (1) to (10) can be obtained.
(1) In this embodiment, when it is determined that the hand has touched the operation area, the input device starts acquiring input information based on the position or movement of the hand and determines that the hand has moved away from the operation area. In this case, when it is determined that the movement of the hand when the hand leaves the operation area is a movement in a predetermined direction, the acquisition of the input information is ended. Thereby, the end of information input not intended by the user can be suppressed. Specifically, it is possible to prevent the operation from being terminated because the hand has left the operation area even though the user does not intend to terminate the input. For example, the movement in the predetermined direction is a movement toward the person corresponding to the operation area. In this case, the acquisition of the input information is finished only when the person moves the hand toward the body. Can do.

より具体的には、ユーザが操作領域の範囲を正確には把握することができないので、ユーザは操作領域内で手を動かしているつもりであっても、実際には操作領域から手が抜け出る可能性がある。そのため、操作領域から手が離れたことのみによって入力の終了を判定する構成では、ユーザが入力を終了する意図が無いにも関わらず、手が操作領域から意図せず抜け出ることにより、入力が終了してしまう場合がある。こういった場合、例えば手を動かす操作により画面上の地図などの画像をスクロールさせるときにスクロールが途中で終了したり、手を動かす操作により画面上に線を描画するときに描画中の線が途切れたりと、ユーザの利便性が損なわれる。これに対し、本実施の形態では、手が操作領域から離れ、かつ操作領域から離れる際の手の動きが所定方向の動きであるときに入力を終了するので、手が操作領域から離れたことのみによって入力を終了する構成と比較して、ユーザの意図しない入力の終了を抑制することができる。   More specifically, since the user cannot accurately grasp the range of the operation area, even if the user intends to move his / her hand in the operation area, the user can actually get out of the operation area. There is sex. For this reason, in the configuration in which the end of input is determined only by the removal of the hand from the operation area, the input ends when the user unintentionally exits the operation area even though the user does not intend to end the input. May end up. In such a case, for example, when scrolling an image such as a map on the screen by moving the hand, the scrolling ends in the middle, or when drawing a line on the screen by moving the hand, If it is interrupted, user convenience is impaired. On the other hand, in this embodiment, the input ends when the hand moves away from the operation area and the movement of the hand when moving away from the operation area is a movement in a predetermined direction. Compared with the configuration in which the input is terminated only by the user, the termination of the input unintended by the user can be suppressed.

(2)入力装置は、人物の前方に操作領域を設定するとともに、人物に対して所定の位置に仮想的な基準領域を設定し、手が操作領域に接触したと判定した場合に、当該手の位置または動きに基づく入力情報の取得を開始し、手が操作領域から離れたと判定した場合、手が操作領域から離れる際の手の動きの方向を示す方向線を求め、当該方向線が操作領域に対応する人物に対して設定された基準領域を通過すると判定したときに、上記入力情報の取得を終了する。本態様によれば、方向線が基準領域を通過するか否かを判定することにより、手が操作領域から離れる際の手の動きが所定方向の動きであるか否かを判定することができ、ユーザの意図しない情報入力の終了を抑制することができる。例えば、基準領域は、手が人物側に向かう方向に移動して操作領域から離れた場合に方向線が基準領域を通過するように設定され、この場合、方向線が基準領域を通過するか否かを判定することで、人物側に向かう方向の手の動きを判別することができる。   (2) The input device sets the operation area in front of the person, sets a virtual reference area at a predetermined position with respect to the person, and determines that the hand has touched the operation area. When the acquisition of input information based on the position or movement of the hand is started and it is determined that the hand has moved away from the operation area, a direction line indicating the direction of movement of the hand when the hand leaves the operation area is obtained. When it is determined that the person passes through the reference area set for the person corresponding to the area, the acquisition of the input information is ended. According to this aspect, by determining whether or not the direction line passes through the reference area, it is possible to determine whether or not the movement of the hand when moving away from the operation area is a movement in a predetermined direction. It is possible to suppress the end of information input not intended by the user. For example, the reference area is set so that the direction line passes through the reference area when the hand moves in the direction toward the person and moves away from the operation area. In this case, whether or not the direction line passes through the reference area. It is possible to determine the movement of the hand in the direction toward the person.

(3)基準領域は、操作領域よりも人物の近傍に人物の前方を向くように設定される。この場合、手が操作領域から離れ、かつ方向線が基準領域を通過する場合、人物の動きは、手を体の方に引き寄せて操作領域から離す動きである可能性が高い。このため、本態様によれば、人物が手を体の方に引き寄せて操作領域から離す動作を判別し、当該動作により手が操作領域から離れた場合に、情報入力を終了することができる。   (3) The reference area is set to face the front of the person closer to the person than the operation area. In this case, when the hand moves away from the operation area and the direction line passes through the reference area, the person's movement is likely to be a movement that draws the hand toward the body and moves it away from the operation area. For this reason, according to this aspect, it is possible to determine an operation in which a person pulls his hand toward the body and separates it from the operation area, and when the hand leaves the operation area by the operation, information input can be terminated.

(4)方向線は、手が操作領域から離れる際の一定期間における手の位置の変化を示す有向線分の始点から終点方向に延びる半直線である。本態様によれば、方向線が延びる方向を一方に制限することにより、方向線が双方向に無限に延びる直線である場合と比較して、ユーザの意図しない情報入力の終了をより確実に抑制することができる。   (4) The direction line is a half line extending in the direction from the start point of the directed line segment indicating the change in the position of the hand during a certain period when the hand leaves the operation area. According to this aspect, by restricting the direction in which the direction line extends to one side, the end of information input unintended by the user is more reliably suppressed as compared to the case where the direction line is a straight line extending infinitely in both directions. can do.

(5)入力装置は、手の位置が操作領域外から操作領域内に移動した後、一定期間操作領域内に存在した場合に、手が操作領域に接触したと判定する。本態様によれば、ユーザの意図しない瞬間的な手の接触などによる情報入力の開始を防ぐことができる。   (5) The input device determines that the hand has touched the operation area when the position of the hand has been in the operation area for a certain period after moving from outside the operation area to the operation area. According to this aspect, it is possible to prevent the start of information input due to an instantaneous hand contact unintended by the user.

(6)入力装置は、手の位置が操作領域内から操作領域外に移動した後、一定期間操作領域外に存在した場合に、手が操作領域外に出たと判定する。本態様によれば、意図せず瞬間的に手が操作領域から出てしまった場合に情報入力が終了してしまうことを防ぐことができる。   (6) The input device determines that the hand has moved out of the operation area when the position of the hand has moved out of the operation area from the operation area and has been outside the operation area for a certain period of time. According to this aspect, it is possible to prevent the information input from ending when the hand unintentionally leaves the operation area instantaneously.

(7)操作領域は、人物の肩の位置を通り人物の上下方向に延びる直線を中心軸とする部分円筒状の領域を含む。本態様では、人物の手が届く範囲を考慮した適切な操作領域が得られる。具体的には、人物の手が届く範囲は、人物を上から見たときに肩を中心とした円状の範囲であるので、本態様によれば、範囲の過不足が少ない操作領域が得られる。   (7) The operation area includes a partial cylindrical area whose center axis is a straight line that passes through the position of the person's shoulder and extends in the vertical direction of the person. In this aspect, it is possible to obtain an appropriate operation region in consideration of the range that a person can reach. Specifically, since the reach of the person is a circular area centered on the shoulder when the person is viewed from above, according to this aspect, an operation area with less excess or deficiency of the range is obtained. It is done.

(8)操作領域は、人物から見て手前側に位置する第1の面と、奥側に位置する第2の面とに挟まれる領域であり、第1の面および第2の面は、それぞれ、上述した、平面部と、部分円筒面状の左曲面部と、部分円筒面状の右曲面部とで構成される。本態様によれば、全体に手が届きやすい操作領域が得られる。   (8) The operation region is a region sandwiched between a first surface located on the near side when viewed from a person and a second surface located on the back side, and the first surface and the second surface are Each of them is composed of the above-described flat surface portion, a left curved surface portion having a partial cylindrical surface shape, and a right curved surface portion having a partial cylindrical surface shape. According to this aspect, an operation region that can be easily reached is obtained.

(9)上記第1の面について、人物の両肩を結ぶ線分から平面部までの距離、左曲面部の半径、および右曲面部の半径は、人物の腕の長さよりも小さい。この場合、ユーザは、自然に手を伸ばして操作領域内に手を入れることができる。   (9) With respect to the first surface, the distance from the line connecting the shoulders of the person to the plane portion, the radius of the left curved surface portion, and the radius of the right curved surface portion are smaller than the length of the person's arm. In this case, the user can naturally reach out and put his hand in the operation area.

(10)上記第2の面について、人物の両肩を結ぶ線分から平面部までの距離、左曲面部の半径、および右曲面部の半径は、人物の腕の長さよりも大きい。これにより、ユーザが手を前方に完全に伸ばしたときに、手が操作領域外に出てしまうことを防ぐことができる。   (10) With respect to the second surface, the distance from the line segment connecting both shoulders of the person to the plane portion, the radius of the left curved surface portion, and the radius of the right curved surface portion are larger than the length of the person's arm. Thereby, it is possible to prevent the hand from going out of the operation area when the user fully extends the hand forward.

以下、実施の形態2〜6における入力装置について説明する。実施の形態2〜6の入力装置は、実施の形態1の入力装置と一部を除いて同様であり、実施の形態2〜6の説明では、実施の形態1と同様の部分については説明を省略または簡略化し、実施の形態1と同一または対応する要素については同一の符号を付す。   Hereinafter, input devices according to Embodiments 2 to 6 will be described. The input device according to the second to sixth embodiments is the same as the input device according to the first embodiment except for a part thereof. In the description of the second to sixth embodiments, the same portions as those of the first embodiment will be described. Omitted or simplified, the same or corresponding elements as those in the first embodiment are denoted by the same reference numerals.

実施の形態2.
実施の形態2における入力装置12は、実施の形態1と異なる判定方法により、手の動きが所定方向の動きかどうかを判定し、入力情報の取得の終了を判定するものである。
Embodiment 2. FIG.
The input device 12 according to the second embodiment determines whether or not the movement of the hand is in a predetermined direction by a determination method different from that of the first embodiment, and determines the end of acquisition of input information.

図16は、実施の形態2における入力装置12の構成の一例を示すブロック図である。図16において、入力装置12は、人物位置取得部21、手位置取得部22、操作領域設定部23、および入力情報取得部25を有する。   FIG. 16 is a block diagram illustrating an example of the configuration of the input device 12 according to the second embodiment. In FIG. 16, the input device 12 includes a person position acquisition unit 21, a hand position acquisition unit 22, an operation area setting unit 23, and an input information acquisition unit 25.

本実施の形態では、入力情報取得部25は、手位置取得部22の取得結果に基づき、手が操作領域に接触したと判定した場合に、手の位置または動きに基づく入力情報の取得を開始し、手が操作領域から離れたと判定した場合、操作領域から離れる際の手の動きの方向を示す方向線を求め、操作領域に対応する人物に対して所定の位置に定められる一点と手の位置を結ぶ直線と方向線とがなす角が所定範囲内(例えば、所定値未満または所定値以上)であると判定したときに、入力情報の取得を終了する。   In the present embodiment, the input information acquisition unit 25 starts acquiring input information based on the position or movement of the hand when it is determined that the hand has touched the operation area based on the acquisition result of the hand position acquisition unit 22. If it is determined that the hand has moved away from the operation area, a direction line indicating the direction of movement of the hand when moving away from the operation area is obtained, and a point determined at a predetermined position with respect to the person corresponding to the operation area and the hand When it is determined that the angle formed by the straight line connecting the position and the direction line is within a predetermined range (for example, less than a predetermined value or more than a predetermined value), the acquisition of input information is terminated.

一例では、方向線は、手が操作領域から離れる際の一定期間における当該手の位置の変化を示す有向線分の始点から終点方向に延びる半直線である。また、上記一点は、手が人物側に向かう方向に移動して操作領域から離れた場合に、上記なす角が上記所定範囲内となるように設定され、例えば操作領域よりも人物の近傍に設定される。また、上記一点と手の位置を結ぶ直線における当該手の位置は、例えば、操作領域から離れた時点における手の位置(例えば上記有向線分の終点)、または操作領域から離れた時点よりも一定時間(例えば0.5秒)前の手の位置(例えば上記有向線分の始点)である。   In one example, the direction line is a half line extending in the direction from the start point of the directed line segment indicating the change in the position of the hand during a certain period when the hand leaves the operation area. The one point is set such that the angle formed by the hand moves in the direction toward the person and leaves the operation area so that the angle formed is within the predetermined range. For example, the point is set closer to the person than the operation area. Is done. Further, the position of the hand on the straight line connecting the one point and the position of the hand is, for example, the position of the hand at the time of leaving the operation area (for example, the end point of the directed line segment) or the time of moving away from the operation area. The position of the hand (for example, the starting point of the directed line segment) before a certain time (for example, 0.5 seconds).

図16の例では、入力情報取得部25は、接触判定部31、方向線算出部32、算出タイミング決定部34、および座標算出部35を含む。   In the example of FIG. 16, the input information acquisition unit 25 includes a contact determination unit 31, a direction line calculation unit 32, a calculation timing determination unit 34, and a coordinate calculation unit 35.

算出タイミング決定部34は、接触判定部31により手が操作領域から離れたと判定された場合、人物の近傍に定める一点と操作領域から離れた時点における当該手の位置を結ぶ直線と、方向線算出部32により算出された当該手の方向線とのなす角を求め、当該なす角が所定範囲内であると判定した場合に、座標算出部35による当該手の3次元位置に基づく2次元座標の算出の終了を決定する。   When the contact determination unit 31 determines that the hand has moved away from the operation area, the calculation timing determination unit 34 calculates a straight line connecting a point determined in the vicinity of the person and the position of the hand at the time of moving away from the operation area, and a direction line An angle formed by the direction line of the hand calculated by the unit 32 is obtained, and when it is determined that the formed angle is within a predetermined range, the coordinate calculation unit 35 calculates the two-dimensional coordinates based on the three-dimensional position of the hand. Determine the end of the calculation.

図17に示すように、例えば、算出タイミング決定部34は、人物位置取得部21により取得された人物Aの3次元位置に基づいて、人物Aの両肩の位置SL,SRの中点PCを上記一点として設定する。そして、当該一点PCと操作領域から離れた時点における当該手の位置PHを結ぶ直線LHと、当該手の方向線DHとのなす角θを求め、なす角θが一定未満(例えば30度未満)であると判定した場合に、当該手の3次元位置に基づく2次元座標の算出の終了を決定する。   As illustrated in FIG. 17, for example, the calculation timing determination unit 34 determines the midpoint PC of the positions SL and SR of both shoulders of the person A based on the three-dimensional position of the person A acquired by the person position acquisition unit 21. Set as one point. Then, an angle θ formed by the straight line LH connecting the hand position PH when the point PC is away from the operation area and the direction line DH of the hand is obtained, and the formed angle θ is less than a certain value (for example, less than 30 degrees). When it is determined that the two-dimensional coordinates are calculated based on the three-dimensional position of the hand.

人物の近傍に定める一点と手の位置を結ぶ直線と当該手の方向線とのなす角が一定未満である場合には、人物の手の動きは、人物が手を体の方向に引き寄せる際の手の動きである可能性が高い。このようなことから、算出タイミング決定部34は、なす角が所定範囲内であるか否かを判定することによって、手が操作領域から離れる際の手の動きが、人物が手を体の方に引き寄せる際の手の動きであるか否かを判定し、手を体の方に引き寄せる際の動きであると判定したときに、2次元座標の算出を終了する。   If the angle between the straight line connecting the point in the vicinity of the person and the position of the hand and the direction line of the hand is less than a certain angle, the movement of the person's hand is caused when the person pulls the hand toward the body. This is likely a hand movement. For this reason, the calculation timing determination unit 34 determines whether or not the angle formed is within a predetermined range, so that the movement of the hand when the hand leaves the operation area It is determined whether or not the movement is a hand movement at the time of drawing, and the calculation of the two-dimensional coordinates is ended when it is determined that the movement is a movement at the time of drawing the hand toward the body.

次に、図8を参照して、実施の形態2における入力装置12の処理を説明する。本実施の形態では、基準領域を設定する処理(ステップS5の処理)は省略されてもよい。また、ステップS14において、入力装置12は、方向線が基準領域に交差しているかを判断する代わりに、人物テーブルに記録されている人物の位置と手テーブルに記録されている現在の手の位置とを結ぶ直線と、手テーブルに記録されている方向線とがなす角を求め、当該なす角が一定未満であるかを判断する。そして、なす角が一定未満である場合(S14:Y)、対象人物によるジェスチャ入力を終了し(S15)、なす角が一定未満でない場合(S14:N)、ジェスチャ入力を終了せずに、ジェスチャ入力を行う手の3次元座標に基づく2次元座標の算出を行い(S12)、処理を終了する。   Next, processing of the input device 12 in the second embodiment will be described with reference to FIG. In the present embodiment, the process of setting the reference area (the process of step S5) may be omitted. In step S14, the input device 12 determines the position of the person recorded in the person table and the current position of the hand recorded in the hand table instead of determining whether the direction line intersects the reference area. The angle formed by the straight line connecting the two and the direction line recorded on the hand table is obtained, and it is determined whether the formed angle is less than a certain value. If the angle to be formed is less than a certain value (S14: Y), the gesture input by the target person is terminated (S15). If the angle to be formed is not less than a certain value (S14: N), the gesture input is not terminated. Two-dimensional coordinates are calculated based on the three-dimensional coordinates of the input hand (S12), and the process ends.

以上の通り、本実施の形態では、入力装置は、手が操作領域に接触したと判定した場合に、当該手の位置または動きに基づく入力情報の取得を開始し、手が操作領域から離れたと判定した場合、手が操作領域から離れる際の手の動きの方向を示す方向線を求め、操作領域に対応する人物に対して所定の位置に定められる一点と手の位置を結ぶ直線と方向線とがなす角が所定範囲内であると判定したときに、上記入力情報の取得を終了する。本態様によれば、上記なす角が所定範囲内であるか否かを判定することにより、手が操作領域から離れる際の手の動きが所定方向の動きであるか否かを判定することができ、ユーザの意図しない情報入力の終了を抑制することができる。例えば、上記一点は、手が人物に向かう方向に移動して操作領域から離れた場合に上記なす角が上記所定範囲内となるように設定され、この場合、なす角が所定範囲内か否かを判定することで、人物側に向かう方向の手の動きを判別することができる。   As described above, in the present embodiment, when it is determined that the hand has touched the operation area, the input device starts acquiring input information based on the position or movement of the hand, and the hand has moved away from the operation area. If it is determined, a direction line indicating the direction of movement of the hand when the hand moves away from the operation area is obtained, and a straight line and a direction line connecting the position of the hand and a point determined at a predetermined position with respect to the person corresponding to the operation area When it is determined that the angle between and is within a predetermined range, the acquisition of the input information is terminated. According to this aspect, by determining whether or not the angle formed is within a predetermined range, it is possible to determine whether or not the movement of the hand when moving away from the operation area is a movement in a predetermined direction. It is possible to suppress the end of information input not intended by the user. For example, the one point is set so that the angle formed when the hand moves in the direction toward the person and leaves the operation area is within the predetermined range. In this case, whether or not the angle formed is within the predetermined range. It is possible to determine the movement of the hand in the direction toward the person.

なお、実施の形態2において、入力装置12は、実施の形態1と同様に方向線が基準領域を通過するか否かを判定するとともに、なす角が所定範囲内か否かを判定してもよい。この場合、入力装置12は、方向線が基準領域を通過するという第1の条件と、なす角が所定範囲内であるという第2の条件とのうち、少なくとも1つの条件が成立する場合に入力情報の取得を終了してもよいし、両方の条件が成立する場合に入力情報の取得を終了してもよい。また、第1の条件に用いられる方向線(第1の方向線)と、第2の条件に用いられる方向線(第2の方向線)とは、互いに同じであってもよいし、異なっていてもよい。   In the second embodiment, the input device 12 determines whether the direction line passes through the reference region as in the first embodiment, and also determines whether the angle formed is within a predetermined range. Good. In this case, the input device 12 is input when at least one of the first condition that the direction line passes through the reference region and the second condition that the angle formed is within a predetermined range is satisfied. The acquisition of information may be terminated, or the acquisition of input information may be terminated when both conditions are satisfied. In addition, the direction line (first direction line) used for the first condition and the direction line (second direction line) used for the second condition may be the same as or different from each other. May be.

実施の形態3.
本実施の形態3では、ユーザが操作を終了する意図をもって操作領域から手を引き出したにもかかわらず入力が終了されない状態が継続してしまうことを防止する観点より、入力情報取得部25は、手が操作領域から離れる際の手の動きが所定方向の動きでない場合であっても、所定の条件が成立すると判定した場合には、入力情報の取得を終了する。具体的には、算出タイミング決定部34は、方向線が基準領域を通過するか否かにかかわらず、所定の条件が満たされると判定した場合には、座標算出部35による2次元座標の算出の終了を決定する。
Embodiment 3 FIG.
In the third embodiment, from the viewpoint of preventing the state where the input is not ended even though the user has pulled out the hand from the operation area with the intention to end the operation, the input information acquisition unit 25 Even when the movement of the hand when the hand leaves the operation area is not a movement in a predetermined direction, when it is determined that the predetermined condition is satisfied, the acquisition of the input information is ended. Specifically, the calculation timing determination unit 34 calculates the two-dimensional coordinates by the coordinate calculation unit 35 when it is determined that the predetermined condition is satisfied regardless of whether or not the direction line passes through the reference region. Determine the end of.

例えば、入力情報取得部25は、手が操作領域に触れていない状態が一定期間(例えば3秒)以上継続したと判定した場合には、当該手による入力情報の取得を終了する。   For example, if the input information acquisition unit 25 determines that the state in which the hand is not touching the operation area has continued for a certain period (for example, 3 seconds) or longer, the input information acquisition unit 25 ends the acquisition of input information by the hand.

また、入力情報取得部25は、手が操作領域に触れておらず、かつ当該手の移動速度(例えば一定期間における手の3次元位置の変化を示す移動ベクトルの大きさ)が一定以上(例えば50cm/sec以上)であると判定した場合には、当該手による入力情報の取得を終了してもよい。ここで、ユーザが操作をするために操作領域内で手を動かしている場合は、手は高速には動かない傾向にあり、手の移動速度が一定以上である場合は、ユーザが操作を終了する意図を持っている可能性が高いと考えられる。   Further, the input information acquisition unit 25 does not touch the operation area, and the moving speed of the hand (for example, the magnitude of a moving vector indicating a change in the three-dimensional position of the hand in a certain period) is greater than a certain value (for example If it is determined that the input information is 50 cm / sec or more, the acquisition of input information by the hand may be terminated. Here, when the user moves his / her hand in the operation area to operate, the hand tends not to move at high speed, and when the moving speed of the hand exceeds a certain level, the user ends the operation. It is highly probable that they have an intention to do so.

また、図18に例示するように、操作領域設定部23が、人物位置取得部21の取得結果に基づき、操作領域R1に加えて、操作領域R1と隣接し、かつ操作領域R1よりも人物Aに近い位置に準操作領域R4を設定し、入力情報取得部25は、手が操作領域R1および準操作領域R4のどちらにも触れていない場合に、当該手による入力情報の取得を終了してもよい。ここで、手が操作領域R1および準操作領域R4のどちらにも触れていない場合は、手は人物の体に十分近い位置にあり、ユーザは手を体の方に引き寄せる意図があったものと考えられる。   Further, as illustrated in FIG. 18, the operation region setting unit 23 is adjacent to the operation region R1 in addition to the operation region R1 based on the acquisition result of the person position acquisition unit 21, and the person A more than the operation region R1. The semi-operation region R4 is set at a position close to, and the input information acquisition unit 25 ends the acquisition of input information by the hand when the hand does not touch either the operation region R1 or the semi-operation region R4. Also good. Here, when the hand does not touch either the operation region R1 or the semi-operation region R4, the hand is in a position sufficiently close to the person's body, and the user intends to draw the hand toward the body. Conceivable.

以上説明した本実施の形態によれば、ユーザが入力を終了する意図をもって操作領域から手を引き出したにもかかわらず入力が終了されない状態が継続してしまうことを防止することができる。
なお、上記実施の形態3の構成は、実施の形態2の入力装置に適用されてもよい。
According to the present embodiment described above, it is possible to prevent the state where the input is not ended even if the user pulls his / her hand from the operation area with the intention to end the input.
The configuration of the third embodiment may be applied to the input device of the second embodiment.

実施の形態4.
本実施の形態4では、入力情報取得部25は、下記(a)〜(f)のうちの一部または全部の複数の条件の論理演算の結果に基づき、入力情報の取得を終了する。具体的には、算出タイミング決定部34は、下記(a)〜(f)の中から選択される複数の条件を組み合わせた論理演算により、座標算出部35による2次元座標の算出の終了を決定する。
(a)手が操作領域の外にある。
(b)手が操作領域から離れる際の手の動きの方向を示す方向線が、操作領域に対応する人物に対して所定の位置に設定される基準領域を通過する。
(c)操作領域に対応する人物に対して所定の位置に定められる一点と手の位置を結ぶ直線と、手が操作領域から離れる際の手の動きの方向を示す方向線とがなす角が所定範囲内である。
(d)手が操作領域の外にある状態が一定期間以上継続した。
(e)手の移動速度が一定以上である。
(f)手が、操作領域と隣接し、かつ操作領域よりも人物に近い位置に設定される準操作領域の外にある。
Embodiment 4 FIG.
In the fourth embodiment, the input information acquisition unit 25 ends the acquisition of the input information based on the result of the logical operation of some or all of the following conditions (a) to (f). Specifically, the calculation timing determination unit 34 determines the end of the calculation of the two-dimensional coordinates by the coordinate calculation unit 35 by a logical operation combining a plurality of conditions selected from the following (a) to (f). To do.
(A) The hand is outside the operation area.
(B) A direction line indicating the direction of hand movement when the hand leaves the operation area passes through a reference area set at a predetermined position with respect to the person corresponding to the operation area.
(C) An angle formed by a straight line connecting a point determined at a predetermined position with respect to a person corresponding to the operation area and the position of the hand and a direction line indicating the direction of movement of the hand when the hand leaves the operation area. Within a predetermined range.
(D) The state in which the hand is outside the operation area continues for a certain period or more.
(E) The moving speed of the hand is above a certain level.
(F) The hand is outside the quasi-operation area set adjacent to the operation area and closer to the person than the operation area.

上記条件(b)は実施の形態1と同様に、条件(c)は実施の形態2と同様に、(d)〜(f)は実施の形態3と同様に判定される。   The condition (b) is determined as in the first embodiment, the condition (c) is determined as in the second embodiment, and (d) to (f) are determined as in the third embodiment.

上記論理演算は、一つの態様では、手が操作領域から離れ、かつ手が操作領域から離れる際の手の動きが所定方向の動きである場合に入力情報の取得が終了するように構成され、例えば、条件(a)と、条件(b)および(c)のうちの少なくとも1つとを含む。   In one aspect, the logical operation is configured such that the acquisition of input information is terminated when the hand moves away from the operation area and the movement of the hand when the hand leaves the operation area is a movement in a predetermined direction, For example, the condition (a) and at least one of the conditions (b) and (c) are included.

一例では、算出タイミング決定部34は、条件(a)および(f)が成立する場合、2次元座標の算出の終了を決定し、条件(a)が成立して条件(f)が成立しない場合、条件(b)が成立するときに2次元座標の算出の終了を決定する。   In one example, the calculation timing determination unit 34 determines the end of the calculation of the two-dimensional coordinates when the conditions (a) and (f) are satisfied, and the condition (a) is satisfied and the condition (f) is not satisfied. When the condition (b) is satisfied, the end of the calculation of the two-dimensional coordinates is determined.

以上説明した本実施の形態によれば、ユーザが入力を終了する意図をもって操作領域から手を引き出したにもかかわらず入力が終了されないことと、ユーザが入力を終了する意図が無いにもかかわらず手が操作領域から抜け出てしまったために操作が終了されてしまうことの両方を防止することができる。
なお、上記実施の形態4の構成は、実施の形態2または3の入力装置に適用されてもよい。
According to the present embodiment described above, the input is not ended even though the user has drawn his hand from the operation area with the intention to end the input, and the user has no intention to end the input. It is possible to prevent both the operation from being terminated because the hand has left the operation area.
Note that the configuration of the fourth embodiment may be applied to the input device of the second or third embodiment.

実施の形態5.
本実施の形態5における入力装置12は、手が操作領域に接触したと判定した場合、所定の条件が成立すると判定したときに、入力情報の取得を開始するものである。
Embodiment 5 FIG.
When it is determined that the hand has touched the operation area, the input device 12 according to the fifth embodiment starts acquiring input information when it is determined that a predetermined condition is satisfied.

本実施の形態では、基準領域設定部24は、人物位置取得部21の取得結果に基づき、人物に対して所定の位置に仮想的な開始判定用の基準領域(以下、「開始基準領域」と称す)を設定する。基準領域設定部24は、実施の形態1で説明した終了判定用の基準領域(以下、「終了基準領域」と称す)のほかに開始基準領域を設定してもよいし、開始基準領域および終了基準領域として共通の1つの基準領域を設定してもよい。開始基準領域は、例えば、人物位置取得部21が検出した人物の位置の近傍に設定され、手が操作領域に接触するまでの当該手の位置変化が、手を前に出す動きに対応したものであるかを判別するために利用される。   In the present embodiment, the reference area setting unit 24 is a virtual start determination reference area (hereinafter referred to as “start reference area”) at a predetermined position with respect to a person based on the acquisition result of the person position acquisition unit 21. ). The reference area setting unit 24 may set a start reference area in addition to the end determination reference area described in the first embodiment (hereinafter, referred to as “end reference area”), or may include a start reference area and an end reference area. A common reference area may be set as the reference area. For example, the start reference area is set in the vicinity of the position of the person detected by the person position acquisition unit 21, and the change in the position of the hand until the hand contacts the operation area corresponds to the movement of moving the hand forward. It is used to determine whether or not

基準領域設定部24は、人物位置取得部21により複数の人物の位置が検出された場合は、当該複数の人物のそれぞれについて開始基準領域を設定する。   When the position of a plurality of persons is detected by the person position acquisition unit 21, the reference area setting unit 24 sets a start reference area for each of the plurality of persons.

基準領域設定部24により設定される開始基準領域は、人物が自然に手を前に伸ばした際の手の動きの方向を直線で示したとき、当該直線が開始基準領域を通過するように設定され、例えば、人物が自然に手を前に伸ばしたとき、開始基準領域から操作領域に向かう方向に手が移動するように設定される。開始基準領域は、例えば図5に示すように、終了基準領域と同様に設定されてもよい。   The start reference area set by the reference area setting unit 24 is set so that the straight line passes through the start reference area when the direction of hand movement when the person naturally extends his / her hand forward is indicated by a straight line. For example, when the person naturally extends his hand forward, the hand is set to move in the direction from the start reference area to the operation area. The start reference area may be set similarly to the end reference area, for example, as shown in FIG.

入力情報取得部25は、手位置取得部22の取得結果に基づき、手が操作領域に接触したと判定した場合、手が操作領域に接触する際の(または接触するまでの)手の動きが所定方向の動きであると判定したときに、当該手の位置または動きに基づく入力情報の取得を開始する。一例では、所定方向の動きは、操作領域に対応する人物側から操作領域に向かう方向の動きであり、入力情報取得部25は、人物が手を前に伸ばして操作領域に接触した場合に、入力情報の取得を開始する。また、手が操作領域に接触する際の手の動きは、例えば、手が操作領域に接触したと判定された時点の直前の手の動きである。   When the input information acquisition unit 25 determines that the hand has touched the operation region based on the acquisition result of the hand position acquisition unit 22, the movement of the hand when the hand contacts the operation region (or until the hand contacts) When it is determined that the movement is in a predetermined direction, acquisition of input information based on the position or movement of the hand is started. In one example, the movement in the predetermined direction is a movement in the direction from the person side corresponding to the operation area to the operation area, and the input information acquisition unit 25 extends the hand forward and contacts the operation area. Start getting input information. The hand movement when the hand contacts the operation area is, for example, the hand movement immediately before it is determined that the hand has touched the operation area.

本例では、入力情報取得部25は、手位置取得部22の取得結果に基づき、手が操作領域に接触したと判定した場合、手が操作領域に接触する際の(または接触するまでの)手の動きの方向を示す開始判定用の方向線(以下、「開始方向線」と称す)を求め、当該開始方向線が操作領域に対応する人物に対して設定された開始基準領域を通過すると判定したときに、当該手の位置または動きに基づく入力情報の取得を開始する。例えば、開始基準領域は、手が人物側から操作領域に向かう方向に移動して操作領域に接触した場合に、開始方向線が開始基準領域を通過するように設定される。また、開始方向線は、例えば、手が操作領域に接触する際の一定期間における当該手の位置の変化を示す有向線分の終点から始点方向に延びる半直線である。   In this example, when the input information acquisition unit 25 determines that the hand has contacted the operation region based on the acquisition result of the hand position acquisition unit 22, the input information acquisition unit 25 is in contact with the operation region (or until the contact is made). When a direction line for start determination indicating the direction of hand movement (hereinafter referred to as “start direction line”) is obtained, and the start direction line passes through the start reference area set for the person corresponding to the operation area. When the determination is made, acquisition of input information based on the position or movement of the hand is started. For example, the start reference area is set so that the start direction line passes through the start reference area when the hand moves in the direction from the person side toward the operation area and contacts the operation area. The start direction line is, for example, a half straight line extending from the end point of the directed line segment indicating the change in the position of the hand during a certain period when the hand contacts the operation region to the start point direction.

複数の人物のそれぞれに対して操作領域および開始基準領域が設定されている場合には、入力情報取得部25は、各操作領域について、手が当該操作領域に接触したか否かを判定し、接触したと判定した場合に、当該手が当該操作領域に接触する際の当該手の動きの方向を示す開始方向線を求め、当該開始方向線が当該操作領域に対応する人物に対して設定された開始基準領域を通過するか否かを判定し、通過すると判定した場合に、当該手の位置または動きに基づく入力情報の取得を開始する。   When the operation area and the start reference area are set for each of the plurality of persons, the input information acquisition unit 25 determines, for each operation area, whether or not the hand has touched the operation area. When it is determined that the contact has occurred, a start direction line indicating the direction of movement of the hand when the hand contacts the operation area is obtained, and the start direction line is set for the person corresponding to the operation area. It is determined whether or not to pass the start reference area, and when it is determined to pass, acquisition of input information based on the position or movement of the hand is started.

また、手位置取得部22により複数の手の位置が取得された場合には、入力情報取得部25は、複数の手のうちのいずれかの手が操作領域に接触したかを判定し、いずれかの手が接触したと判定した場合に、当該手が操作領域に接触する際の当該手の動きの方向を示す開始方向線を求め、当該開始方向線が操作領域に対応する人物に対して設定された開始基準領域を通過するか否かを判定し、通過すると判定した場合に、当該手の位置または動きに基づく入力情報の取得を開始する。
なお、入力情報の取得の終了については、実施の形態1と同様である。
Further, when the positions of a plurality of hands are acquired by the hand position acquisition unit 22, the input information acquisition unit 25 determines whether any of the plurality of hands has touched the operation area, If it is determined that the hand has touched, a start direction line indicating the direction of movement of the hand when the hand contacts the operation area is obtained, and the start direction line is determined for a person corresponding to the operation area. It is determined whether or not to pass through the set start reference area, and when it is determined to pass, acquisition of input information based on the position or movement of the hand is started.
Note that the end of acquisition of input information is the same as in the first embodiment.

図3の例では、入力情報取得部25は、接触判定部31、方向線算出部32、通過判定部33、算出タイミング決定部34、および座標算出部35を含む。   In the example of FIG. 3, the input information acquisition unit 25 includes a contact determination unit 31, a direction line calculation unit 32, a passage determination unit 33, a calculation timing determination unit 34, and a coordinate calculation unit 35.

方向線算出部32は、実施の形態1で説明した終了判定用の方向線(以下、「終了方向線」と称す)の他に、手が操作領域に接触する際の手の動きの方向を示す開始方向線を算出する。例えば、方向線算出部32は、接触判定部31により手が操作領域に接触したと判定された場合に、その接触時点までの一定期間における当該手の位置に基づいて当該手の開始方向線を算出する。開始方向線は、例えば、手が操作領域に接触した位置を終点とする半直線であり、手が操作領域に接触した時点よりも一定時間(例えば0.5秒)前の手の位置を通過する半直線である。すなわち、開始方向線は、例えば、手が操作領域に接触した位置を終点とし、また、手が操作領域に接触した時点よりも一定時間(例えば0.5秒)前の手の位置を始点として、始点と終点を結ぶ線を、終点から始点方向に延長して得られる半直線である。あるいは、方向線算出部32は、手が操作領域に接触した位置を終点とする半直線であり、手が操作領域に接触するまでの一定期間における各時点(例えば接触時点の0.1秒前から1秒前までの0.1秒ごとの時点)での手の位置との距離の二乗の合計が最小となる半直線を開始方向線として算出してもよい。   In addition to the direction line for end determination (hereinafter referred to as “end direction line”) described in the first embodiment, the direction line calculation unit 32 determines the direction of hand movement when the hand contacts the operation area. The starting direction line shown is calculated. For example, when the contact determination unit 31 determines that the hand has touched the operation area, the direction line calculation unit 32 determines the start direction line of the hand based on the position of the hand during a certain period until the contact time. calculate. The start direction line is, for example, a half line with the position where the hand touches the operation area as the end point, and passes through the position of the hand a certain time (for example, 0.5 seconds) before the time when the hand contacts the operation area It is a half line. That is, the start direction line has, for example, the position where the hand touches the operation area as the end point, and the position of the hand a certain time (for example, 0.5 seconds) before the time when the hand touches the operation area. A half line obtained by extending a line connecting the start point and the end point in the direction of the start point from the end point. Alternatively, the direction line calculation unit 32 is a half straight line whose end point is a position where the hand touches the operation area, and each time point (for example, 0.1 second before the contact time point) until the hand touches the operation area. A half line that minimizes the sum of the squares of the distance to the hand position at the time of every 0.1 second from 1 second to 1 second before may be calculated as the start direction line.

方向線算出部32は、接触判定部31により複数の手が操作領域に接触したと判定された場合は、当該複数の手のそれぞれに対して開始方向線の算出を行う。   When the contact determination unit 31 determines that a plurality of hands have contacted the operation area, the direction line calculation unit 32 calculates a start direction line for each of the plurality of hands.

なお、方向線算出部32は、接触判定部31の判定結果によらず、手位置取得部22により取得された全ての手について開始方向線を算出してもよい。   The direction line calculation unit 32 may calculate start direction lines for all the hands acquired by the hand position acquisition unit 22 regardless of the determination result of the contact determination unit 31.

通過判定部33は、実施の形態1と同様に終了方向線が終了基準領域を通過するかを判定するとともに、方向線算出部32により算出された開始方向線が基準領域設定部24により設定された開始基準領域を通過するかを判定する。このとき、複数の開始方向線が算出されている場合や、複数の開始基準領域が設定されている場合は、通過判定部33は、開始方向線と開始基準領域との全ての組み合わせに対して、開始方向線が開始基準領域を通過するか否かの判定を行う。   Similar to the first embodiment, the passage determination unit 33 determines whether the end direction line passes through the end reference region, and the start direction line calculated by the direction line calculation unit 32 is set by the reference region setting unit 24. It is determined whether the starting reference area is passed. At this time, when a plurality of start direction lines are calculated, or when a plurality of start reference areas are set, the passage determining unit 33 applies to all combinations of the start direction lines and the start reference areas. Then, it is determined whether or not the start direction line passes through the start reference area.

算出タイミング決定部34は、接触判定部31により手が操作領域に接触したと判定され、かつ通過判定部33により当該手の開始方向線が開始基準領域を通過していると判定された場合であって、さらに当該操作領域と当該開始基準領域とが同一の人物に対して設定されたものである場合に、座標算出部35による2次元座標の算出の開始を決定する。   The calculation timing determination unit 34 is a case where the contact determination unit 31 determines that the hand has touched the operation area, and the passage determination unit 33 determines that the start direction line of the hand passes the start reference area. In addition, when the operation area and the start reference area are set for the same person, the start of calculation of the two-dimensional coordinates by the coordinate calculation unit 35 is determined.

図19は、実施の形態5における入力装置12の処理の一例を示すフローチャートである。以下、図19を参照して、本実施の形態における入力装置12の処理を説明する。   FIG. 19 is a flowchart illustrating an example of processing of the input device 12 according to the fifth embodiment. Hereinafter, with reference to FIG. 19, the processing of the input device 12 in the present embodiment will be described.

以下に説明する一連の処理は、一定のタイミングごとに実行される。例えば、画像取得装置11が画像データを取得するタイミング(例えば1/30秒に1回)にあわせて、1/30秒に1回実行される。   A series of processing described below is executed at certain timings. For example, it is executed once every 1/30 seconds in accordance with the timing (for example, once every 1/30 seconds) at which the image acquisition device 11 acquires image data.

また、ここでは、入力装置12は、開始基準領域および終了基準領域として共通の基準領域を設定し、図9に示す人物テーブルと、図10に示す手テーブルとを有する。   Here, the input device 12 sets a common reference area as the start reference area and the end reference area, and has a person table shown in FIG. 9 and a hand table shown in FIG.

図19を参照すると、本実施の形態では、ステップS8において、一定時間以上位置が取得された手に対して、開始方向線および終了方向線を求める。具体的には、入力装置12は、手テーブルにおいて位置データが所定数以上登録されている手が存在する場合に、そのような手のそれぞれについて、開始方向線および終了方向線を求めて手テーブルに登録する。ここでは、今回取得した手の位置(開始方向線の終点であり、終了方向線が通過する点である)と0.5秒前の手の位置(開始方向線が通過する点であり、終了方向線の始点)とを、開始方向線および終了方向線を示すデータとして手テーブルに登録する。   Referring to FIG. 19, in the present embodiment, in step S8, a start direction line and an end direction line are obtained for the hand whose position has been acquired for a certain time or more. Specifically, the input device 12 obtains a start direction line and an end direction line for each of such hands when there are hands whose position data is registered in a predetermined number or more in the hand table. Register with. Here, the hand position acquired this time (the end point of the start direction line, the point where the end direction line passes) and the hand position 0.5 seconds before (the point where the start direction line passes, the end The start point of the direction line) is registered in the hand table as data indicating the start direction line and the end direction line.

そして、ステップS10で操作領域に触れている手が存在すると判定された場合(S10:Y)、入力装置12は、当該手に対して算出された開始方向線が、対象人物に対して設定された基準領域に交差しているかを判断する(S20)。   If it is determined in step S10 that there is a hand touching the operation area (S10: Y), the input device 12 sets the start direction line calculated for the hand for the target person. It is determined whether it intersects the reference area (S20).

開始方向線が基準領域に交差している場合(S20:Y)、対象人物によるジェスチャー入力を開始し(S11)、対象人物の操作領域に触れている手の3次元座標から2次元座標を算出し(S12)、処理を終了する。一方、開始方向線が基準領域に交差していない場合には(S20:N)、処理を終了する。   When the start direction line intersects the reference area (S20: Y), the gesture input by the target person is started (S11), and the two-dimensional coordinates are calculated from the three-dimensional coordinates of the hand touching the operation area of the target person. (S12), and the process ends. On the other hand, if the start direction line does not intersect the reference area (S20: N), the process is terminated.

以上説明した本実施の形態によれば、下記(11)〜(16)の効果が得られる。
(11)本実施の形態では、入力装置は、手が操作領域に接触したと判定した場合、手が操作領域に接触する際の手の動きが所定方向の動きであると判定したときに、当該手の位置または動きに基づく入力情報の取得を開始する。これにより、ユーザの意図しない情報入力の開始を抑制することができる。具体的には、ユーザが入力を開始する意図が無いにも関わらず手が操作領域に触れたために情報入力や操作が開始されてしまうことを防ぐことができる。例えば、手を振る動作などにより、ユーザの手が当該ユーザの操作領域に偶然触れたことによる入力の開始や、ユーザ以外の人物の手が当該ユーザの操作領域に触れたことによる入力の開始を防ぐことができる。この結果、誤入力や誤操作を抑制することができる。
According to the present embodiment described above, the following effects (11) to (16) can be obtained.
(11) In this embodiment, when the input device determines that the hand has touched the operation area, the input device determines that the movement of the hand when contacting the operation area is a movement in a predetermined direction. Acquisition of input information based on the position or movement of the hand is started. Thereby, the start of the information input which a user does not intend can be suppressed. Specifically, it is possible to prevent the information input or the operation from being started because the hand touched the operation area even though the user does not intend to start the input. For example, when a user's hand accidentally touches the user's operation area, such as by waving his hand, or when an input of a person other than the user touches the user's operation area Can be prevented. As a result, erroneous input and erroneous operation can be suppressed.

例えば、上記所定方向の動きは、操作領域に対応する人物側から操作領域に向かう方向の動きであり、この場合、人物が手を前に出す動きをしたときにのみ、入力情報の取得を開始することができる。   For example, the movement in the predetermined direction is a movement in a direction from the person side corresponding to the operation area toward the operation area. In this case, acquisition of input information is started only when the person moves the hand forward. can do.

(12)入力装置は、人物の前方に操作領域を設定するとともに、人物に対して所定の位置に仮想的な開始基準領域を設定し、手が操作領域に接触したと判定した場合、手が操作領域に接触する際の手の動きの方向を示す開始方向線を求め、当該開始方向線が操作領域に対応する人物に対して設定された開始基準領域を通過すると判定したときに、当該手の位置または動きに基づく入力情報の取得を開始する。本態様によれば、開始方向線が開始基準領域を通過するか否かを判定することにより、手が操作領域に接触する際の手の動きが所定方向の動きであるか否かを判定することができ、ユーザの意図しない情報入力の開始を抑制することができる。例えば、開始基準領域は、手が人物側から操作領域に向かう方向に移動して操作領域に接触した場合に開始方向線が開始基準領域を通過するように設定され、この場合、開始方向線が開始基準領域を通過するか否かを判定することで、人物側から操作領域に向かう方向の手の動きを判別することができる。   (12) The input device sets an operation area in front of the person, sets a virtual start reference area at a predetermined position with respect to the person, and determines that the hand has touched the operation area. A start direction line indicating the direction of hand movement when contacting the operation area is obtained, and when it is determined that the start direction line passes the start reference area set for the person corresponding to the operation area, The acquisition of input information based on the position or movement of is started. According to this aspect, by determining whether or not the start direction line passes through the start reference area, it is determined whether or not the hand movement when the hand contacts the operation area is a movement in a predetermined direction. It is possible to suppress the start of information input not intended by the user. For example, the start reference area is set so that the start direction line passes through the start reference area when the hand moves in the direction from the person side toward the operation area and touches the operation area. By determining whether or not the start reference area is passed, it is possible to determine the movement of the hand in the direction from the person side toward the operation area.

(13)開始基準領域は、操作領域よりも人物の近傍に人物の前方を向くように設定される。この場合、手が操作領域に接触し、かつ開始方向線が開始基準領域を通過する場合、人物の動きは、手を前に出して操作領域に触れる動きである可能性が高い。このため、本態様によれば、人物が手を前に出して操作領域に触れる動作を検出し、当該動作により手が操作領域に接触した場合に、情報入力を開始することができる。   (13) The start reference area is set to face the front of the person closer to the person than the operation area. In this case, when the hand is in contact with the operation area and the start direction line passes through the start reference area, it is highly likely that the person's movement is a movement that moves the hand forward and touches the operation area. Therefore, according to this aspect, it is possible to detect an operation in which a person puts his hand forward and touches the operation area, and information input can be started when the hand touches the operation area.

(14)開始方向線は、手が操作領域に接触する際の一定期間における手の位置の変化を示す有向線分の終点から始点方向に延びる半直線である。本態様によれば、開始方向線が延びる方向を一方に制限することにより、開始方向線が双方向に無限に延びる直線である場合と比較して、ユーザの意図しない情報入力の開始をより確実に抑制することができる。   (14) The start direction line is a semi-straight line extending from the end point of the directed line segment indicating the change in the position of the hand during a certain period when the hand contacts the operation area to the start point direction. According to this aspect, by restricting the direction in which the start direction line extends to one side, the start of information input unintended by the user can be more reliably compared to the case where the start direction line is a straight line extending infinitely in both directions. Can be suppressed.

(15)入力装置は、複数の人物の位置を取得した場合、各人物に対して操作領域および開始基準領域を設定する。そして、各操作領域について、手が当該操作領域に接触したか否かを判定し、接触したと判定した場合に、手が当該操作領域に接触する際の手の動きの方向を示す開始方向線を求め、当該開始方向線が当該操作領域に対応する人物に対して設定された開始基準領域を通過するか否かを判定し、通過すると判定した場合に、当該手の位置または動きに基づく入力情報の取得を開始する。本構成によれば、複数の人物が存在する場合に、各人物は、自身に設定された操作領域内で手を動かして情報入力または操作を行うことができる。また、複数の人物が存在し、各人物に操作領域が設定された場合に、あるユーザが別の人物に設定された操作領域に触れたとしても情報入力が開始されないので、ユーザが入力を開始する意図が無いにも関わらずユーザの手が操作領域に触れたために情報入力が開始されてしまうことを防ぐことができる。   (15) When acquiring the positions of a plurality of persons, the input device sets an operation area and a start reference area for each person. Then, for each operation area, it is determined whether or not the hand has touched the operation area. When it is determined that the hand has touched, a start direction line indicating the direction of movement of the hand when the hand contacts the operation area And determines whether or not the start direction line passes through the start reference area set for the person corresponding to the operation area. Start acquiring information. According to this configuration, when there are a plurality of persons, each person can perform information input or operation by moving his / her hand within the operation area set for the person. In addition, when there are multiple persons and an operation area is set for each person, even if one user touches the operation area set for another person, information input will not start, so the user starts input It is possible to prevent information input from being started because the user's hand touches the operation area even though there is no intention to do so.

(16)入力装置は、複数の手の位置を取得した場合、当該複数の手のうちのいずれかの手が操作領域に接触したか否かを判定し、いずれかの手が接触したと判定した場合に、当該手が操作領域に接触する際の当該手の動きの方向を示す開始方向線を求め、当該開始方向線が操作領域に対応する人物に対して設定された開始基準領域を通過するか否かを判定し、通過すると判定した場合に、当該手の位置または動きに基づく入力情報の取得を開始する。本態様によれば、複数の手が存在する場合にも、適切に入力情報の取得を開始することができる。   (16) When the input device acquires the positions of a plurality of hands, the input device determines whether any of the plurality of hands has touched the operation area, and determines that any of the hands has touched. In this case, a start direction line indicating the direction of movement of the hand when the hand contacts the operation area is obtained, and the start direction line passes through the start reference area set for the person corresponding to the operation area. If it is determined whether or not to pass, and acquisition of input information based on the position or movement of the hand is started. According to this aspect, acquisition of input information can be appropriately started even when there are a plurality of hands.

なお、上記実施の形態5の構成は、実施の形態2〜4のいずれかの入力装置に適用されてもよい。   The configuration of the fifth embodiment may be applied to any input device of the second to fourth embodiments.

実施の形態6.
本実施の形態6における入力装置12は、入力情報の取得開始前と取得開始後とで、操作領域の形状または位置を変更するものである。
Embodiment 6 FIG.
The input device 12 according to the sixth embodiment changes the shape or position of the operation area before and after the start of input information acquisition.

本実施の形態では、入力情報取得部25による入力情報の取得開始後、または算出タイミング決定部34が入力情報の取得開始を決定した後、操作領域設定部23は、入力情報の取得開始前と異なる位置または形状の操作領域を設定する。例えば、図8のステップS4において、入力装置12は、ある人物に対して操作領域を設定する場合、当該人物の開始フラグが「0」であるときには開始前用の操作領域を設定し、開始フラグが「1」であるときには開始後用の操作領域を設定する。   In the present embodiment, after the input information acquisition unit 25 starts acquiring the input information, or after the calculation timing determination unit 34 determines the acquisition start of the input information, the operation area setting unit 23 Set operation areas with different positions or shapes. For example, in step S4 of FIG. 8, when the input device 12 sets an operation region for a certain person, when the start flag of the person is “0”, the input device 12 sets an operation region for the start, and the start flag When “1” is “1”, a post-start operation area is set.

例えば、操作領域設定部23は、入力情報取得部25による入力情報の取得開始後、入力情報の取得開始前よりも操作領域が人物に近づくように操作領域を設定するか、あるいは、入力情報の取得開始前よりも操作領域が大きくなるように操作領域を設定する。例えば、操作領域設定部23は、入力情報の取得開始後、図12または図15における距離L1の値を、入力情報の取得開始前よりも小さくすることで、操作領域を人物に近づけるとともに操作領域の範囲を広げる。   For example, after the input information acquisition unit 25 starts acquiring the input information, the operation region setting unit 23 sets the operation region so that the operation region is closer to the person than before the input information acquisition starts, The operation area is set so that the operation area becomes larger than before the acquisition starts. For example, after starting the acquisition of input information, the operation region setting unit 23 makes the operation region closer to a person and reduces the value of the distance L1 in FIG. Extend the range of

また例えば、操作領域設定部23は、入力情報取得部25による入力情報の取得開始後、入力情報の取得開始時(または2次元座標の算出の開始の決定時)における、手の位置および開始方向線が開始基準領域を通過する位置のうちの一方または両方を基に操作領域の設定を行う。例えば、操作領域設定部23は、入力情報の取得開始時における開始方向線が開始基準領域を通過する位置が人物の右側か左側かを判断し、その判断結果に応じた位置または形状の領域を操作領域として設定する。   Further, for example, the operation region setting unit 23 starts the input information acquisition by the input information acquisition unit 25 and then starts the input information acquisition (or determines the start of calculation of the two-dimensional coordinates) and the hand position and start direction. The operation area is set based on one or both of the positions where the line passes through the start reference area. For example, the operation area setting unit 23 determines whether the position where the start direction line at the start of input information acquisition passes through the start reference area is the right side or the left side of the person, and determines the area of the position or shape according to the determination result. Set as the operation area.

具体的には、開始方向線が開始基準領域に交差する位置が人物の右側である場合は、当該人物は右手を伸ばしている可能性が高い。そこで、交差する位置が人物の右側である場合には、例えば図20に示すように、取得開始前(図4、図11)よりも右手側にずらした位置に操作領域R5を設定し、交差する位置が人物の左側である場合には、取得開始前よりも左手側にずらした位置に操作領域を設定する。   Specifically, when the position where the start direction line intersects the start reference area is on the right side of the person, the person is highly likely to extend his right hand. Therefore, when the crossing position is on the right side of the person, for example, as shown in FIG. 20, the operation region R5 is set at a position shifted to the right hand side before the start of acquisition (FIGS. 4 and 11). When the position to be performed is on the left side of the person, the operation area is set at a position shifted to the left hand side before the start of acquisition.

あるいは、交差する位置が人物の右側である場合には、例えば図21に示すように、人物Aの右肩の位置SRを通り人物Aの上下方向に延びる直線を中心軸とする部分円筒面状の内周面SIと、人物Aの右肩の位置SRを通り人物Aの上下方向に延びる直線を中心軸とし、内周面SIよりも大きい半径を有する部分円筒面状の外周面SOとに挟まれる領域、または右肩の位置SRを中心とする部分円筒状の領域を操作領域R6として設定する。一方、交差する位置が人物の左側である場合には、人物の左肩の位置SLを通り人物の上下方向に延びる直線を中心軸とする部分円筒面状の内周面と、人物の左肩の位置SLを通り人物の上下方向に延びる直線を中心軸とし、内周面よりも大きい半径を有する部分円筒面状の外周面とに挟まれる領域、または左肩の位置を中心とする部分円筒状の領域を操作領域として設定する。   Alternatively, when the crossing position is on the right side of the person, for example, as shown in FIG. 21, a partial cylindrical surface shape having a straight line passing through the right shoulder position SR of the person A and extending in the vertical direction of the person A as the central axis. And a partially cylindrical outer peripheral surface SO having a radius larger than the inner peripheral surface SI and having a central axis as a straight line passing through the position SR of the right shoulder of the person A and extending in the vertical direction of the person A. A region that is sandwiched or a partial cylindrical region centered on the right shoulder position SR is set as the operation region R6. On the other hand, when the crossing position is on the left side of the person, a partially cylindrical inner peripheral surface having a straight line extending in the vertical direction of the person passing through the position SL of the person's left shoulder and the position of the person's left shoulder A region sandwiched between the outer peripheral surface of the partial cylindrical surface having a radius larger than the inner peripheral surface with a straight line extending through the SL in the vertical direction as the central axis, or a partial cylindrical region centered on the position of the left shoulder Is set as the operation area.

以上の通り、本実施の形態では、入力装置は、入力情報の取得開始後、取得開始前よりも操作領域が人物に近づくように、または操作領域が広くなるように操作領域を設定する。これにより、情報入力の開始後、意図せずに手が操作領域から離れ、情報入力が終了してしまうことを防ぐことができる。また、情報入力の開始前は、操作領域をある程度人物から離しておくことができ、または操作領域をある程度小さくしておくことができ、意図せずに手が操作領域に触れて情報入力が開始してしまうことを防ぐことができる。   As described above, in the present embodiment, after starting the acquisition of input information, the input device sets the operation region so that the operation region is closer to a person than before the acquisition is started or the operation region is wider. Thereby, after starting information input, it is possible to prevent the user from unintentionally leaving the operation area and ending information input. In addition, before the start of information input, the operation area can be kept away from a person to some extent, or the operation area can be reduced to some extent, and information input starts when the hand touches the operation area unintentionally. Can be prevented.

また、入力装置は、入力情報の取得開始後、取得開始時における、手の位置および開始方向線が開始基準領域を通過する位置のうちの一方または両方を基に操作領域の設定を行う。これにより、ユーザの手の位置や動きに応じて、入力しやすい操作領域を設定することができる。例えば、取得開始時における手の位置または開始方向線が開始基準領域を通過する位置が人物の右側である場合に、操作領域の位置を右側にずらすことにより、右手での入力または操作を行いやすい操作領域を設定することができる。   In addition, the input device sets the operation region based on one or both of the position of the hand and the position where the start direction line passes through the start reference region at the start of acquisition after the start of the acquisition of the input information. Thereby, it is possible to set an operation area that is easy to input in accordance with the position and movement of the user's hand. For example, when the position of the hand at the start of acquisition or the position where the start direction line passes through the start reference area is the right side of the person, it is easy to perform input or operation with the right hand by shifting the position of the operation area to the right side. An operation area can be set.

なお、上記実施の形態6の構成は、実施の形態2〜5のいずれかの入力装置に適用されてもよい。   The configuration of the sixth embodiment may be applied to any input device of the second to fifth embodiments.

また、本発明は、上記実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の態様で実施することができる。   Further, the present invention is not limited to the above-described embodiment, and can be implemented in various modes without departing from the gist of the present invention.

例えば、上記の説明では、人物および手の3次元位置を取得する場合を例示したが、入力装置12は、人物の2次元位置や手の2次元位置を取得してもよい。2次元位置としては、例えば、水平面に平行な2次元座標系における座標がある。この場合でも、例えば、人物が手を前に出す動きや引き寄せる動きを判別することができる。   For example, in the above description, the case where the three-dimensional position of the person and the hand is acquired is illustrated, but the input device 12 may acquire the two-dimensional position of the person and the two-dimensional position of the hand. Examples of the two-dimensional position include coordinates in a two-dimensional coordinate system parallel to the horizontal plane. Even in this case, for example, it is possible to discriminate the movement of the person putting the hand forward or the movement of drawing.

また、終了判定における所定方向の動きは、人物側に向かう方向の動きに限られず、他の方向であってもよい。同様に、開始判定における所定方向の動きは、人物側から操作領域に向かう方向の動きに限られず、他の方向であってもよい。   Further, the movement in the predetermined direction in the end determination is not limited to the movement in the direction toward the person, and may be in another direction. Similarly, the movement in the predetermined direction in the start determination is not limited to the movement in the direction from the person side toward the operation area, and may be in another direction.

また、終了基準領域の位置や形状は、上記に限られず、どのような方向の手の動きを情報入力の終了時の動作とするかなどによって適宜決められればよい。例えば、操作領域と人物との間に終了基準領域を設定してもよいし、人物の後方のある程度離れた位置に終了基準領域を設定してもよい。また例えば、右手を右斜め後方に引く動きを終了時の動作とする場合には、人物の右斜め後方に終了基準領域を設定してもよい。同様に、開始基準領域についても、どのような方向の手の動きを情報入力の開始時の動作とするかなどによって適宜決められればよい。   Further, the position and shape of the end reference area are not limited to the above, and may be determined as appropriate depending on the direction of hand movement used as the end operation of information input. For example, an end reference area may be set between the operation area and the person, or the end reference area may be set at a position somewhere behind the person. In addition, for example, when the movement of pulling the right hand diagonally to the right is used as the movement at the end, the end reference area may be set diagonally to the right of the person. Similarly, the start reference area may be determined as appropriate depending on which direction the hand movement is used as the operation at the start of information input.

また、上記の説明では、終了方向線として半直線を例示したが、終了方向線は、他の種類の線であってもよく、基準領域の位置や形状などに応じて適宜決められればよい。例えば、終了方向線は、手が操作領域から離れる際の手の位置の変化を示す有向線分の始点および終点を通って双方向に延びる直線であってもよいし、当該有向線分の始点から終点方向に延びる所定長さの線分であってもよい。同様に、開始方向線は、適宜決められればよく、例えば、手が操作領域に接触する際の手の位置の変化を示す有向線分の始点および終点を通って双方向に延びる直線であってもよいし、当該有向線分の終点から始点方向に延びる所定長さの線分であってもよい。   In the above description, a half straight line is illustrated as the end direction line. However, the end direction line may be another type of line, and may be appropriately determined according to the position and shape of the reference region. For example, the end direction line may be a straight line extending in both directions through the start and end points of the directed line segment indicating the change in the position of the hand when the hand leaves the operation area, or the directed line segment. It may be a line segment of a predetermined length extending from the start point to the end point direction. Similarly, the start direction line may be determined as appropriate. For example, the start direction line is a straight line extending in both directions through the start point and end point of the directed line segment indicating the change in the position of the hand when the hand contacts the operation area. Alternatively, it may be a line segment having a predetermined length extending from the end point of the directed line segment to the start point direction.

また、上記の説明では、複数の人物の位置が取得された場合に、当該複数の人物のそれぞれに対して操作領域および基準領域を設定する構成を例示したが、入力装置は、各人物の位置や特徴などに基づいて、複数の人物のうちの特定の人物(例えば1人の人物)に対して操作領域および基準領域を設定してもよい。   Further, in the above description, when the positions of a plurality of persons are acquired, the configuration in which the operation area and the reference area are set for each of the plurality of persons is exemplified. The operation area and the reference area may be set for a specific person (for example, one person) among a plurality of persons based on the characteristics and characteristics.

また、入力装置は、手が操作領域の外にある場合に当該手の位置に基づいて2次元座標を算出する場合(例えば、図8のステップS14で「N」と判定された後にステップS12で2次元座標を算出する場合)、手の位置(操作領域外の位置)に最も近い操作領域内の位置を求め、当該位置を基に2次元座標の算出を行ってもよい。   Further, when the input device calculates a two-dimensional coordinate based on the position of the hand when the hand is outside the operation region (for example, after determining “N” in step S14 in FIG. 8, in step S12). When calculating two-dimensional coordinates), a position in the operation region closest to the position of the hand (position outside the operation region) may be obtained, and the two-dimensional coordinates may be calculated based on the position.

また、上記の説明では、入力情報として、手の3次元位置を基に2次元座標を算出する場合を例示したが、入力情報取得部25は、手の位置変化または動きに基づいてユーザのジェスチャまたは指示を認識し、認識されたジェスチャまたは指示を出力してもよい。   In the above description, the case where the two-dimensional coordinates are calculated based on the three-dimensional position of the hand as the input information is illustrated. However, the input information acquisition unit 25 performs the user's gesture based on the change or movement of the hand position. Alternatively, the instruction may be recognized and the recognized gesture or instruction may be output.

また、上記の説明では、入力装置を表示システムに利用する場合を例示したが、入力装置は、入力情報を他の種類の対象機器に出力してもよいし、入力情報に基づいて他の種類の対象機器の制御を行ってもよい。   In the above description, the case where the input device is used for the display system has been exemplified. However, the input device may output the input information to other types of target devices, or other types based on the input information. The target device may be controlled.

10 表示システム、 11 画像取得装置、 12 入力装置、 13 表示制御装置、 14 表示装置、 21 人物位置取得部、 22 手位置取得部、 23 操作領域設定部、 24 基準領域設定部、 25 入力情報取得部、 31 接触判定部、 32 方向線算出部、 33 通過判定部、 34 算出タイミング決定部、 35 座標算出部。   DESCRIPTION OF SYMBOLS 10 Display system, 11 Image acquisition apparatus, 12 Input apparatus, 13 Display control apparatus, 14 Display apparatus, 21 Person position acquisition part, 22 Hand position acquisition part, 23 Operation area setting part, 24 Reference area setting part, 25 Input information acquisition Unit, 31 contact determination unit, 32 direction line calculation unit, 33 passage determination unit, 34 calculation timing determination unit, 35 coordinate calculation unit.

Claims (18)

人物の位置を取得する人物位置取得手段と、
手の位置を取得する手位置取得手段と、
前記人物位置取得手段の取得結果に基づき、前記人物の前方に仮想的な操作領域を設定する操作領域設定手段と、
前記手位置取得手段の取得結果に基づき、前記手が前記操作領域に接触したと判定した場合に、前記手の位置または動きに基づく入力情報の取得を開始し、前記手が前記操作領域から離れたと判定した場合、前記手が前記操作領域から離れる際の前記手の動きが所定方向の動きであると判定したときに、前記入力情報の取得を終了する入力情報取得手段と
を備えることを特徴とする入力装置。
Person position acquisition means for acquiring the position of the person;
Hand position acquisition means for acquiring the position of the hand;
Based on the acquisition result of the person position acquisition means, an operation area setting means for setting a virtual operation area in front of the person;
Based on the acquisition result of the hand position acquisition means, when it is determined that the hand has touched the operation area, acquisition of input information based on the position or movement of the hand is started, and the hand moves away from the operation area. Input information acquisition means for ending the acquisition of the input information when it is determined that the movement of the hand when the hand leaves the operation area is a movement in a predetermined direction. An input device.
前記所定方向の動きは、前記操作領域に対応する人物側に向かう方向の動きであることを特徴とする請求項1に記載の入力装置。   The input device according to claim 1, wherein the movement in the predetermined direction is a movement in a direction toward a person corresponding to the operation area. 前記人物位置取得手段の取得結果に基づき、前記人物に対して所定の位置に仮想的な基準領域を設定する基準領域設定手段をさらに備え、
前記入力情報取得手段は、前記手位置取得手段の取得結果に基づき、前記手が前記操作領域から離れたと判定した場合、前記手が前記操作領域から離れる際の前記手の動きの方向を示す第1の方向線を求め、当該第1の方向線が前記操作領域に対応する人物に対して設定された基準領域を通過すると判定したときに、前記入力情報の取得を終了することを特徴とする請求項1または2に記載の入力装置。
Based on the acquisition result of the person position acquisition means, further comprising a reference area setting means for setting a virtual reference area at a predetermined position with respect to the person,
When the input information acquisition unit determines, based on the acquisition result of the hand position acquisition unit, that the hand has moved away from the operation area, the input information acquisition unit indicates a direction of movement of the hand when the hand leaves the operation area. One direction line is obtained, and when it is determined that the first direction line passes through a reference area set for a person corresponding to the operation area, the acquisition of the input information is terminated. The input device according to claim 1 or 2.
前記基準領域は、前記操作領域よりも前記人物の近傍に前記人物の前方を向くように設定されることを特徴とする請求項3に記載の入力装置。   The input device according to claim 3, wherein the reference area is set so as to face the front of the person closer to the person than the operation area. 前記第1の方向線は、前記手が前記操作領域から離れる際の一定期間における前記手の位置の変化を示す有向線分の始点から終点方向に延びる半直線であることを特徴とする請求項3または4に記載の入力装置。   The first direction line is a half line extending from a start point of a directed line segment indicating a change in the position of the hand during a certain period when the hand leaves the operation area to an end point direction. Item 5. The input device according to Item 3 or 4. 前記入力情報取得手段は、前記手位置取得手段の取得結果に基づき、前記手が前記操作領域から離れたと判定した場合、前記手が前記操作領域から離れる際の前記手の動きの方向を示す第2の方向線を求め、前記操作領域に対応する人物に対して所定の位置に定められる一点と前記手の位置を結ぶ直線と前記第2の方向線とがなす角が所定範囲内であると判定したときに、前記入力情報の取得を終了することを特徴とする請求項1から5のいずれか1項に記載の入力装置。   When the input information acquisition unit determines, based on the acquisition result of the hand position acquisition unit, that the hand has moved away from the operation area, the input information acquisition unit indicates a direction of movement of the hand when the hand leaves the operation area. 2 direction lines are obtained, and an angle formed by a straight line connecting a point defined by a predetermined position with respect to the person corresponding to the operation region and the position of the hand and the second direction line is within a predetermined range. 6. The input device according to claim 1, wherein when the determination is made, the acquisition of the input information is terminated. 前記一点は、前記操作領域よりも前記人物の近傍に設定されることを特徴とする請求項6に記載の入力装置。   The input device according to claim 6, wherein the one point is set closer to the person than the operation area. 前記第2の方向線は、前記手が前記操作領域から離れる際の一定期間における前記手の位置の変化を示す有向線分の始点から終点方向に延びる半直線であることを特徴とする請求項6または7に記載の入力装置。   The second direction line is a half line extending in the direction from the start point to the end point of a directed line segment indicating a change in the position of the hand during a certain period when the hand leaves the operation area. Item 8. The input device according to Item 6 or 7. 前記入力情報取得手段は、前記手が前記操作領域の外にある状態が一定期間以上継続したと判定した場合には、前記手の動きが前記所定方向の動きでない場合であっても、前記入力情報の取得を終了することを特徴とする請求項1から8のいずれか1項に記載の入力装置。   When the input information acquisition unit determines that the state where the hand is outside the operation area has continued for a certain period or longer, the input information acquisition unit is configured to input the input even if the movement of the hand is not a movement in the predetermined direction. The input device according to any one of claims 1 to 8, wherein the acquisition of information is terminated. 前記入力情報取得手段は、前記手が前記操作領域の外にあって、かつ前記手の移動速度が一定以上であると判定した場合には、前記手の動きが前記所定方向の動きでない場合であっても、前記入力情報の取得を終了することを特徴とする請求項1から9のいずれか1項に記載の入力装置。   When the input information acquisition unit determines that the hand is outside the operation area and the moving speed of the hand is equal to or higher than a certain level, the movement of the hand is not a movement in the predetermined direction. Even if it exists, acquisition of the said input information is complete | finished, The input device of any one of Claim 1 to 9 characterized by the above-mentioned. 前記操作領域設定手段は、前記人物位置取得手段の取得結果に基づき、前記操作領域と隣接し、かつ前記操作領域よりも前記人物に近い位置に準操作領域をさらに設定し、
前記入力情報取得手段は、前記手が前記操作領域の外にあって、かつ前記手が前記準操作領域の外にあると判定した場合には、前記手の動きが前記所定方向の動きでない場合であっても、前記入力情報の取得を終了することを特徴とする請求項1から10のいずれか1項に記載の入力装置。
The operation area setting means further sets a semi-operation area at a position adjacent to the operation area and closer to the person than the operation area based on the acquisition result of the person position acquisition means,
When the input information acquisition means determines that the hand is outside the operation area and the hand is outside the semi-operation area, the movement of the hand is not movement in the predetermined direction. However, the input device according to claim 1, wherein acquisition of the input information is terminated.
前記入力情報取得手段は、下記(a)〜(f)のうちの一部または全部の複数の条件の論理演算の結果に基づき、前記入力情報の取得を終了することを特徴とする請求項1に記載の入力装置。
(a)前記手が前記操作領域の外にある。
(b)前記手が前記操作領域から離れる際の前記手の動きの方向を示す第1の方向線が、前記操作領域に対応する人物に対して所定の位置に設定される基準領域を通過する。
(c)前記操作領域に対応する人物に対して所定の位置に定められる一点と前記手の位置を結ぶ直線と、前記手が前記操作領域から離れる際の前記手の動きの方向を示す第2の方向線とがなす角が所定範囲内である。
(d)前記手が前記操作領域の外にある状態が一定期間以上継続した。
(e)前記手の移動速度が一定以上である。
(f)前記手が、前記操作領域と隣接し、かつ前記操作領域よりも前記人物に近い位置に設定される準操作領域の外にある。
2. The input information acquisition unit ends acquisition of the input information based on a result of a logical operation of some or all of the following conditions (a) to (f): The input device described in 1.
(A) The hand is outside the operation area.
(B) A first direction line indicating a direction of movement of the hand when the hand leaves the operation area passes through a reference area set at a predetermined position with respect to a person corresponding to the operation area. .
(C) a second line indicating a direction of movement of the hand when the hand moves away from the operation area, and a straight line connecting a point determined at a predetermined position with respect to the person corresponding to the operation area and the position of the hand The angle formed by the direction line is within a predetermined range.
(D) The state where the hand is outside the operation area continues for a certain period or more.
(E) The moving speed of the hand is above a certain level.
(F) The hand is outside the quasi-operation area set adjacent to the operation area and closer to the person than the operation area.
前記入力情報取得手段は、前記手位置取得手段の取得結果に基づき、前記手が前記操作領域に接触したと判定した場合、前記手が前記操作領域に接触する際の前記手の動きが所定方向の動きであると判定したときに、前記手の位置または動きに基づく入力情報の取得を開始することを特徴とする請求項1から12のいずれか1項に記載の入力装置。   When the input information acquisition unit determines that the hand has contacted the operation area based on the acquisition result of the hand position acquisition unit, the movement of the hand when the hand contacts the operation area is in a predetermined direction. The input device according to any one of claims 1 to 12, wherein acquisition of input information based on the position or movement of the hand is started when it is determined that the movement is a movement of the hand. 前記所定方向の動きは、前記操作領域に対応する人物側から前記操作領域に向かう方向の動きであることを特徴とする請求項13に記載の入力装置。   The input device according to claim 13, wherein the movement in the predetermined direction is a movement in a direction from the person corresponding to the operation area toward the operation area. 前記人物位置取得手段の取得結果に基づき、前記人物に対して所定の位置に仮想的な開始基準領域を設定する開始基準領域設定手段をさらに備え、
前記入力情報取得手段は、前記手位置取得手段の取得結果に基づき、前記手が前記操作領域に接触したと判定した場合に、前記手が前記操作領域に接触する際の前記手の動きの方向を示す第3の方向線を求め、当該第3の方向線が前記操作領域に対応する人物に対して設定された開始基準領域を通過すると判定したときに、前記手の位置または動きに基づく入力情報の取得を開始することを特徴とする請求項13または14に記載の入力装置。
Based on the acquisition result of the person position acquisition means, further comprising a start reference area setting means for setting a virtual start reference area at a predetermined position for the person,
The input information acquisition means, based on the acquisition result of the hand position acquisition means, when it is determined that the hand has contacted the operation area, the direction of movement of the hand when the hand contacts the operation area When the third direction line is obtained, and it is determined that the third direction line passes the start reference area set for the person corresponding to the operation area, the input based on the position or movement of the hand 15. The input device according to claim 13, wherein acquisition of information is started.
前記入力情報取得手段は、前記入力情報として、前記手の位置に基づいて所定の2次元座標系における2次元座標を取得することを特徴とする請求項1から15のいずれか1項に記載の入力装置。   The said input information acquisition means acquires the two-dimensional coordinate in a predetermined two-dimensional coordinate system based on the position of the said hand as said input information, The any one of Claim 1 to 15 characterized by the above-mentioned. Input device. 人物の位置を取得する人物位置取得ステップと、
手の位置を取得する手位置取得ステップと、
前記人物位置取得ステップの取得結果に基づき、前記人物の前方に仮想的な操作領域を設定する操作領域設定ステップと、
前記手位置取得ステップの取得結果に基づき、前記手が前記操作領域に接触したと判定した場合に、前記手の位置または動きに基づく入力情報の取得を開始し、前記手が前記操作領域から離れたと判定した場合、前記手が前記操作領域から離れる際の前記手の動きが所定方向の動きであると判定したときに、前記入力情報の取得を終了する入力情報取得ステップと
を含むことを特徴とする情報処理方法。
A person position obtaining step for obtaining a person position;
A hand position obtaining step for obtaining a hand position;
An operation area setting step for setting a virtual operation area in front of the person based on the acquisition result of the person position acquisition step;
When it is determined that the hand has touched the operation area based on the acquisition result of the hand position acquisition step, acquisition of input information based on the position or movement of the hand is started, and the hand moves away from the operation area. An input information acquisition step of ending the acquisition of the input information when it is determined that the movement of the hand when the hand leaves the operation area is a movement in a predetermined direction. Information processing method.
人物の位置を取得する人物位置取得ステップと、
手の位置を取得する手位置取得ステップと、
前記人物位置取得ステップの取得結果に基づき、前記人物の前方に仮想的な操作領域を設定する操作領域設定ステップと、
前記手位置取得ステップの取得結果に基づき、前記手が前記操作領域に接触したと判定した場合に、前記手の位置または動きに基づく入力情報の取得を開始し、前記手が前記操作領域から離れたと判定した場合、前記手が前記操作領域から離れる際の前記手の動きが所定方向の動きであると判定したときに、前記入力情報の取得を終了する入力情報取得ステップと
をコンピュータに実行させることを特徴とする情報処理プログラム。
A person position obtaining step for obtaining a person position;
A hand position obtaining step for obtaining a hand position;
An operation area setting step for setting a virtual operation area in front of the person based on the acquisition result of the person position acquisition step;
When it is determined that the hand has touched the operation area based on the acquisition result of the hand position acquisition step, acquisition of input information based on the position or movement of the hand is started, and the hand moves away from the operation area. If it is determined that the movement of the hand when the hand leaves the operation area is a movement in a predetermined direction, the computer is caused to execute an input information acquisition step of ending acquisition of the input information. An information processing program characterized by that.
JP2013015268A 2013-01-30 2013-01-30 Input device, information processing method, and information processing program Active JP6029478B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013015268A JP6029478B2 (en) 2013-01-30 2013-01-30 Input device, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013015268A JP6029478B2 (en) 2013-01-30 2013-01-30 Input device, information processing method, and information processing program

Publications (3)

Publication Number Publication Date
JP2014146236A true JP2014146236A (en) 2014-08-14
JP2014146236A5 JP2014146236A5 (en) 2015-10-29
JP6029478B2 JP6029478B2 (en) 2016-11-24

Family

ID=51426435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013015268A Active JP6029478B2 (en) 2013-01-30 2013-01-30 Input device, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP6029478B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023188774A1 (en) * 2022-03-31 2023-10-05 パナソニックIpマネジメント株式会社 Information processing device, information processing system, and information processing method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009064109A (en) * 2007-09-04 2009-03-26 Canon Inc Image projector and its control method
JP2010205223A (en) * 2009-03-06 2010-09-16 Seiko Epson Corp System and device for control following gesture for virtual object
JP2011028573A (en) * 2009-07-27 2011-02-10 Panasonic Electric Works Co Ltd Operation device
JP2011039844A (en) * 2009-08-12 2011-02-24 Shimane Prefecture Image recognition device, operation decision method and program
JP2011258130A (en) * 2010-06-11 2011-12-22 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2012175282A (en) * 2011-02-18 2012-09-10 Sharp Corp Manipulation apparatus, playback device and television receiver
JP2013003961A (en) * 2011-06-20 2013-01-07 Konica Minolta Business Technologies Inc Spatial handwriting system and electronic pen

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009064109A (en) * 2007-09-04 2009-03-26 Canon Inc Image projector and its control method
JP2010205223A (en) * 2009-03-06 2010-09-16 Seiko Epson Corp System and device for control following gesture for virtual object
JP2011028573A (en) * 2009-07-27 2011-02-10 Panasonic Electric Works Co Ltd Operation device
JP2011039844A (en) * 2009-08-12 2011-02-24 Shimane Prefecture Image recognition device, operation decision method and program
JP2011258130A (en) * 2010-06-11 2011-12-22 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2012175282A (en) * 2011-02-18 2012-09-10 Sharp Corp Manipulation apparatus, playback device and television receiver
JP2013003961A (en) * 2011-06-20 2013-01-07 Konica Minolta Business Technologies Inc Spatial handwriting system and electronic pen

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023188774A1 (en) * 2022-03-31 2023-10-05 パナソニックIpマネジメント株式会社 Information processing device, information processing system, and information processing method

Also Published As

Publication number Publication date
JP6029478B2 (en) 2016-11-24

Similar Documents

Publication Publication Date Title
JP6480434B2 (en) System and method for direct pointing detection for interaction with digital devices
CN107810465B (en) System and method for generating a drawing surface
TWI486629B (en) Optical-see-through head mounted display system and interactive operation
JP6057396B2 (en) 3D user interface device and 3D operation processing method
KR20160117207A (en) Image analyzing apparatus and image analyzing method
CN102012778A (en) Display control apparatus, display control method, and display control program
US20140098224A1 (en) Touch and motion detection using surface map, object shadow and a single camera
JP2017059062A (en) Information processing device, information processing method and program
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
WO2014106219A1 (en) User centric interface for interaction with visual display that recognizes user intentions
KR20160080109A (en) Systems and techniques for user interface control
US10409446B2 (en) Information processing apparatus and method for manipulating display position of a three-dimensional image
KR20120068253A (en) Method and apparatus for providing response of user interface
JP2017199289A (en) Information processor, control method thereof, program, and storage medium
US20150033157A1 (en) 3d displaying apparatus and the method thereof
US11508150B2 (en) Image processing apparatus and method of controlling the same
JP2017021530A (en) Interest level determination apparatus, interest level determination method, and interest level determination program
TWI521387B (en) A re-anchorable virtual panel in 3d space
US20180165853A1 (en) Head-mounted display apparatus and virtual object display system
US8963867B2 (en) Display device and display method
KR20130051319A (en) Apparatus for signal input and method thereof
US20180373392A1 (en) Information processing device and information processing method
JP5950845B2 (en) Input device, information processing method, and information processing program
JP6029478B2 (en) Input device, information processing method, and information processing program
JP5950806B2 (en) Input device, information processing method, and information processing program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150903

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160712

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161018

R150 Certificate of patent or registration of utility model

Ref document number: 6029478

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250