JP2011095984A - Image display apparatus - Google Patents
Image display apparatus Download PDFInfo
- Publication number
- JP2011095984A JP2011095984A JP2009249011A JP2009249011A JP2011095984A JP 2011095984 A JP2011095984 A JP 2011095984A JP 2009249011 A JP2009249011 A JP 2009249011A JP 2009249011 A JP2009249011 A JP 2009249011A JP 2011095984 A JP2011095984 A JP 2011095984A
- Authority
- JP
- Japan
- Prior art keywords
- hand
- face
- unit
- operator
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、画像表示装置に関するものである。 The present invention relates to an image display device.
ユーザを撮像するカメラを備え、カメラにより撮像された撮像画像に基づいてユーザの操作指示に係るコマンドを認識する画像表示装置が知られている(例えば、特許文献1参照)。この画像表示装置においては、ユーザがカメラに対して手を振ったことをトリガとしてコマンド認識を開始している。 There is known an image display device that includes a camera that captures a user and recognizes a command related to a user's operation instruction based on a captured image captured by the camera (see, for example, Patent Document 1). In this image display apparatus, command recognition is started by using a user's hand to the camera as a trigger.
しかし、この画像表示装置においては、コマンド認識に係るトリガとなるユーザの手の動作を撮像画像全体において常に観察しなければならずユーザの操作指示に係るコマンド認識処理にかかる負荷が大きかった。 However, in this image display device, it is necessary to always observe the movement of the user's hand as a trigger for command recognition in the entire captured image, and the load on the command recognition process related to the user's operation instruction is large.
本発明の目的は、撮像画像に基づくユーザの操作指示に係るコマンドの認識処理にかかる負荷を軽減することができる画像表示装置を提供することである。 The objective of this invention is providing the image display apparatus which can reduce the load concerning the recognition process of the command which concerns on the user's operation instruction based on a captured image.
本発明の画像表示装置は、画像を表示する表示部と、前記表示部に表示される画像を鑑賞する操作者を撮像する撮像部と、前記撮像部により撮像した撮像画像に基づいて前記操作者の顔を検出する顔検出部と、前記顔検出部により検出された前記操作者の前記撮像画像における顔の位置に基づいて前記操作者の手を検出するための手検出領域を設定する手検出領域設定部と、前記手検出領域において前記操作者の手を検出する手検出部と、前記手検出部により検出された前記操作者の手の動作、形状又は位置を操作指示として認識するコマンド認識部と、前記コマンド認識部により認識された前記操作指示に基づいて、前記表示部に表示する画像の表示態様を制御する表示制御部とを備えることを特徴とする。 The image display device of the present invention includes a display unit that displays an image, an imaging unit that captures an operator who appreciates an image displayed on the display unit, and the operator based on a captured image captured by the imaging unit. A face detection unit for detecting the face of the operator, and hand detection for setting a hand detection area for detecting the hand of the operator based on the position of the face in the captured image of the operator detected by the face detection unit An area setting unit; a hand detection unit that detects the operator's hand in the hand detection region; and a command recognition that recognizes the operation, shape, or position of the operator's hand detected by the hand detection unit as an operation instruction. And a display control unit that controls a display mode of an image displayed on the display unit based on the operation instruction recognized by the command recognition unit.
本発明の画像表示装置によれば、ユーザの操作指示に係るコマンドの認識処理にかかる負荷を軽減することができる。 According to the image display device of the present invention, it is possible to reduce a load on a command recognition process related to a user operation instruction.
以下、図面を参照して本発明の第1の実施の形態に係る画像表示装置についてデジタルフォトフレーム(以下、DPFという。)を例に説明する。図1は、第1の実施の形態に係るDPFの前面を示す図であり、図2は背面を示す図である。DPF2の前面には、画像や時刻等の情報を電気的に表示するLCD等により構成される表示部4、表示部4に表示される画像を鑑賞するユーザを撮像する撮像レンズ6が設けられている。また、DPF2の背面には、DPF2を設置するために用いられる支持部材8が設けられている。
Hereinafter, an image display apparatus according to a first embodiment of the present invention will be described with reference to the drawings, taking a digital photo frame (hereinafter referred to as DPF) as an example. FIG. 1 is a diagram showing the front surface of the DPF according to the first embodiment, and FIG. 2 is a diagram showing the back surface. On the front surface of the
図3は、第1の実施の形態に係るDPFのシステム構成を示すブロック図である。DPF2はCPU12を備え、CPU12には、後述するコマンドに基づいて表示部4の表示態様を制御する表示制御部13、撮像レンズ6を介した被写体光を撮像する撮像素子等を備える撮像部14、撮像部14により撮像された撮像画像を所定のフレーム数または所定時間分記憶するメモリ16、撮像画像のデータから特徴点や特定の形状、特定の色等を抽出することにより顔認識データを生成しユーザの顔を検出する顔検出部18、顔認識データから検出した顔の面積を算出する顔面積算出部20、検出した顔の検出時間を計測する検出時間計測部22、検出した顔の動作速度を検出する顔動作検出部24、検出した顔の位置を基準にしてユーザの手を検出するための手検出領域を設定する手検出領域設定部26、設定した手検出領域において特徴点や特定の形状、特定の色、位置等を抽出することによりユーザの手を検出する手検出部28、検出した手の撮像画像における面積を算出する手面積算出部30、手検出領域において検出したユーザの手の動作、形状又は位置を認識する手動作認識部32、所定の手の動作、形状又は位置と操作指示に係るコマンドとを対応付けて記憶する手動作記憶部34、表示部4に表示する画像や情報を記憶するメモリカード36が接続されている。
FIG. 3 is a block diagram showing a system configuration of the DPF according to the first embodiment. The
図4は、第1の実施の形態に係るDPFの手検出領域を説明するための図である。撮像画像40において顔検出部18によりユーザの顔38が検出されると、検出された顔の略中心を基準としてX軸方向に±a1ピクセル、Y軸方向に±b1ピクセルの手検出領域42を設定する。従って、手検出部28は、手検出領域42内にある手44の検出を行うが、手検出領域42外にある手46の検出は行わない。また、矢印48で示すように手検出領域42は、顔の動作に合わせて移動する。
FIG. 4 is a diagram for explaining a DPF hand detection area according to the first embodiment. When the
次に、図5に示すフローチャートを参照して第1の実施の形態に係るDPFのコマンド認識処理について説明する。撮像部14により表示部4の前方方向の表示部4に表示される画像を鑑賞するユーザの撮像を行うと(ステップS1:Y)、所定フレーム数または所定時間分の撮像画像データをメモリ16に記憶する(ステップS2)。撮像部14による撮像が行われない場合には(ステップS1:N)、撮像が行われるまで待機する。
Next, the DPF command recognition process according to the first embodiment will be described with reference to the flowchart shown in FIG. When a user who views an image displayed on the display unit 4 in the forward direction of the display unit 4 is imaged by the imaging unit 14 (step S1: Y), captured image data for a predetermined number of frames or a predetermined time is stored in the
次に、顔検出部18は、撮像された画像データから人物の顔の検出を行い、顔が検出されたか否かを判定する(ステップS3)。顔が検出された場合には、ステップS4〜S8に示す操作意思判定条件に合うか否かを判定することにより、顔が検出された人物にDPF2を操作する意思があるか否かを判定する。即ち、操作意思判定条件を満たすことをトリガとして、顔が検出された人物をユーザとして判定する。なお、複数の人物の顔が検出された場合には、DPF2に最も近い距離に位置する人物を検出してもよいし、予め登録された人物を検出してもよい。一方、顔が検出されなかった場合には、ステップS1の処理に戻る。
Next, the
ステップS3において顔が検出された場合には、操作意思判定条件として、まず、顔検出部18により検出された顔の位置が特定領域にあるか否かを判定する(ステップS4)。ここで、例えば顔の位置が画像の中央付近である場合には、顔の位置が特定領域にあると判定する。一方、顔の検出位置が画像の端である場合には、顔の位置が特定領域外にあると判定する。顔の位置が特定領域にない場合には(ステップS4:N)、ステップS1の処理に戻る。
When a face is detected in step S3, it is first determined whether or not the position of the face detected by the
顔の位置が特定領域にある場合には(ステップS4:Y)、ステップS5の処理に進み、次の操作意思判定条件に合致するか否かを判定する。即ち、顔面積算出部20により算出された撮像画像における顔の面積が所定の面積以上を占めるか否かを判定する(ステップS5)。所定の面積以上占める場合には、顔が検出された人物にDPF2を操作する意思があると判断し、ステップS9の処理に進む。
If the face position is in the specific area (step S4: Y), the process proceeds to step S5, and it is determined whether or not the next operation intention determination condition is met. That is, it is determined whether the face area in the captured image calculated by the face
一方、検出された顔面積が画像において所定の面積以下である場合には(ステップS5:N)、検出時間測定部22により測定される顔検出時間が所定時間以上であるか否かを判定する(ステップS6)。顔検出時間が所定時間以上である場合、即ち、ユーザが表示部4を所定時間以上連続して見ている場合には、顔が検出された人物にDPF2を操作する意思があるものと判断し、ステップS9の処理に進む。
On the other hand, when the detected face area is equal to or smaller than the predetermined area in the image (step S5: N), it is determined whether or not the face detection time measured by the detection
一方、顔検出時間が所定時間以下である場合には(ステップS6:N)、顔動作検出部24により検出された顔の動作速度が所定速度以下であるか否かを判定する(ステップS7)。所定速度以下である場合には顔が検出された人物にDPF2を操作する意思があるものと判断し、ステップS9の処理に進む。
On the other hand, when the face detection time is less than or equal to the predetermined time (step S6: N), it is determined whether or not the face motion speed detected by the face
一方、顔の動作速度が所定速度以上である場合には(ステップS7:N)、顔面積算出部20により算出された撮像画像における顔面積及び手面積算出部30により算出された撮像画像における手面積を用いて顔面積と手面積の比を算出し、面積比が所定の範囲にあるか否かを判定する(ステップS8)。面積比が所定の範囲にある場合には、顔が検出された人物にDPF2を操作する意思があるものと判断し、ステップS9の処理に進む。一方、顔と手の面積比が所定の範囲内にない場合には(ステップS8:N)、処理を終了する。
On the other hand, when the facial motion speed is equal to or higher than the predetermined speed (step S7: N), the face area in the captured image calculated by the face
ステップS4〜S8の処理において顔が検出された人物にDPF2を操作する意思があると判断された場合には、顔が検出された人物をユーザと判定し、ユーザの手を検出するための手検出領域を設定する(ステップS9)。このとき、図4に示すようにユーザの顔の略中心を基準としてX軸方向に±a1ピクセル、Y軸方向に±b1ピクセルの手検出領域42を設定する。
If it is determined in step S4 to S8 that the person whose face is detected has an intention to operate the
そして手検出部28により手検出領域42においてユーザの手を検出すると(ステップ10:Y)、CPU12は手動作認識部32の制御を開始し手の動作、形状また位置を解析する(ステップS11)。特に限定されるものではないが、手の形状、位置を解析する場合は、例えば、撮影画像の1フレームを解析し、また、動作を解析する場合は、複数フレームの解析をする。なお、手検出領域42内で手が複数検出された場合には、DPF2に距離が最も近い手の動作、形状又は位置を解析してもよいし、手面積算出部30により算出された手面積が最も大きい手の動作、形状又は位置を解析してもよい。
When the
解析した手の動作、形状又は位置が手動作記憶部34に記憶されている手動作に該当する場合には(ステップS12:Y)、手動作、形状または位置に対応付けられたコマンドを実行する(ステップS13)。例えば、手を左から右へ動かす動作である場合には、画像送りを実行する。また、手を開いた状態から閉じる動作である場合には電源をオフする処理を実行する。また、手のひらをDPF2に対して向けた状態で近づけると表示部4に表示されている画像の拡大、遠ざけると画像の縮小を実行する。なお、DPF2が表示部4による表示を行わずに撮像部14による撮像を行うスリープ状態において、手を閉じた状態から開く動作をした場合に電源をスリープ状態から起動状態に回復する処理を実行してもよい。なお、手の動きだけでなく、例えば、両腕を交差させ×印が形成された場合には電源をオフする処理を実行してもよい。なお、ステップS13の処理のあと、メモリ16に記憶された所定フレーム数または所定時間分の撮像画像データは削除してもよい。
When the analyzed hand motion, shape, or position corresponds to the hand motion stored in the hand motion storage unit 34 (step S12: Y), a command associated with the hand motion, shape, or position is executed. (Step S13). For example, in the case of moving the hand from left to right, image feed is executed. If the operation is to close the hand from the open state, a process of turning off the power is executed. When the palm is brought close to the
また、ステップS10において手が検出されなかった場合、ステップS12において解析した手の動作、形状又は位置が手動作記憶部34に記憶されている手動作に該当しない場合には、ステップS1の処理に戻る。 If no hand is detected in step S10, if the hand motion, shape, or position analyzed in step S12 does not correspond to the hand motion stored in the hand motion storage unit 34, the processing in step S1 is performed. Return.
本実施の形態に係るDPFによれば、人物の顔が検出され、検出された顔が特定領域にあることを条件として操作意思判定を行うため、ユーザの操作指示に係るコマンド認識処理にかかる負荷を軽減することができる。 According to the DPF according to the present embodiment, since a human face is detected and an operation intention determination is performed on the condition that the detected face is in a specific area, a load on a command recognition process related to a user operation instruction Can be reduced.
また、操作意思判定を行い操作意思が認められる人物について手動作認識を行うため、ユーザが意図しないDPFの動作を防ぐことができる。また、手検出領域内で手が検出されない場合には手動作認識を行わないため、ユーザの操作指示に係るコマンド認識処理にかかる負荷を軽減することができ、ユーザ以外の手の動作、形状又は位置の認識によるユーザの意図しないDPFの動作を防ぐことができる。 In addition, since the operation intention determination is performed and the hand movement recognition is performed for the person whose operation intention is recognized, it is possible to prevent the operation of the DPF that is not intended by the user. In addition, when a hand is not detected in the hand detection area, hand motion recognition is not performed, so it is possible to reduce the load on command recognition processing related to the user's operation instructions, It is possible to prevent DPF operation unintended by the user due to position recognition.
なお、上述の実施の形態においては、顔検出部18により検出された人物が複数である場合には1の人物について操作意思判定を行う構成としたが、検出された複数の人物全てについて操作意思判定を行い、操作意思が認められる人物について手検出領域を設定し手の検出を行う構成としてもよい。
In the above-described embodiment, the operation intention determination is performed for one person when there are a plurality of persons detected by the
また、上述の実施の形態に係る図5のフローチャートに示すステップS7の処理において、顔動作検出部24により検出された顔の動作速度が所定速度以下であるか否かを判定する構成としたが、検出された顔の動作の加速度が所定の値以下であるか否か、または検出された顔の撮像画像内での移動量が所定の値以下であるか否か等を判定する構成としてもよい。
Further, in the process of step S7 shown in the flowchart of FIG. 5 according to the above-described embodiment, it is configured to determine whether or not the face motion speed detected by the face
次に図6を参照して本発明の第2の実施の形態に係るDPFのコマンド認識処理について説明する。第1の実施の形態においてはコマンド認識処理を所定のフレーム数または所定時間分の撮像画像について行う構成としたが、この第2の実施の形態においては、手が検出された後は手を追尾してコマンド認識処理を行う構成に変更したものである。従って、第1の実施の形態と同一の構成についての詳細な説明は省略し、異なる部分のみについて詳細に説明する。また、第1の実施の形態と同一の構成には同一の符号を付して説明する。 Next, DPF command recognition processing according to the second embodiment of the present invention will be described with reference to FIG. In the first embodiment, the command recognition process is performed for a predetermined number of frames or captured images for a predetermined time. However, in the second embodiment, the hand is tracked after the hand is detected. Thus, the configuration for performing the command recognition process is changed. Therefore, a detailed description of the same configuration as that of the first embodiment is omitted, and only different portions will be described in detail. Further, the same components as those in the first embodiment will be described with the same reference numerals.
図6は、第2の実施の形態に係るコマンド認識処理を示すフローチャートである。撮像部14による前方方向の表示部4に表示される画像を鑑賞するユーザの撮像を開始すると(ステップS21:Y)、撮像画像データのメモリ16への記憶を開始する(ステップS22)。撮像部14による撮像が開始されない場合には(ステップS21:N)、撮像が開始されるまで待機する。
FIG. 6 is a flowchart showing command recognition processing according to the second embodiment. When the imaging of the user viewing the image displayed on the forward display unit 4 by the
次に、顔検出部18は、撮像された画像データから人物の顔の検出を行い、顔が検出されたか否かを判定する(ステップS23)。顔が検出された場合には、ステップS24〜S28に示す操作意思判定条件に合うか否かを判定することにより、顔が検出された人物にDPF2を操作する意思があるか否かを判定する。一方、顔が検出されなかった場合には、顔が検出されるまで待機する。
Next, the
ステップS24〜S29に示す処理は図5のフローチャートのステップS4〜S9に示す処理と同様であるため説明は省略する。なお、ステップS24において顔の位置が特定領域にない場合及びステップS28において顔と手の面積比が所定の範囲内にない場合には、ステップS23の処理に戻り新たな撮像画像データについて顔が検出された否かの判定を行う。 The processing shown in steps S24 to S29 is the same as the processing shown in steps S4 to S9 in the flowchart of FIG. If the face position is not in the specific area in step S24 or if the area ratio of the face to the hand is not within the predetermined range in step S28, the process returns to step S23 and the face is detected for new captured image data. It is determined whether or not it has been done.
そして手検出部28により手検出領域42においてユーザの手を検出すると(ステップ30:Y)、CPU12は手動作認識部32の制御を開始し手の動作、形状また位置を解析する(ステップS31)。解析した手の動作、形状又は位置が手動作記憶部34に記憶されている手動作に該当する場合には(ステップS32:Y)、手動作、形状または位置に対応付けられたコマンドを実行する(ステップS33)。
When the
また、ステップS30において手が検出されなかった場合、ステップS32において解析した手の動作、形状又は位置が手動作記憶部34に記憶されている手動作に該当しない場合には、ステップS34に示す処理に進む。 If no hand is detected in step S30, and if the hand motion, shape or position analyzed in step S32 does not correspond to the hand motion stored in the hand motion storage unit 34, the process shown in step S34 is performed. Proceed to
次に、操作意思判定条件の全てを満たさなくなったか否かを判定し(ステップS34)、操作意思判定条件を満たさない場合には処理を終了する。即ち、i)ユーザの顔が特定領域にあることを満たさない場合には撮像を停止し(ステップS35)、処理を終了する。また、ii)画像におけるユーザの顔面積が所定の面積以上であること、iii)顔検出時間が所定時間以上であること、vi)ユーザの顔の動作速度が一定速度以下であること、v)顔と手の面積比が所定の範囲内であることの4条件の何れをも満たさない場合には、撮像を停止し(ステップS35)、処理を終了する。一方、上述の顔検出条件i)を満たしかつ、ii)〜v)の何れかを満たす場合には、ステップS30に戻り、新たな撮像画像データについて手が検出されたか否かを判定し処理を継続する。 Next, it is determined whether or not all the operation intention determination conditions are satisfied (step S34). If the operation intention determination conditions are not satisfied, the process is terminated. That is, i) If the user's face does not satisfy the specific area, the imaging is stopped (step S35), and the process is terminated. Also, ii) the user's face area in the image is greater than or equal to a predetermined area, iii) the face detection time is greater than or equal to a predetermined time, vi) the user's face motion speed is less than a certain speed, v) When none of the four conditions that the area ratio of the face and the hand is within the predetermined range is satisfied, the imaging is stopped (step S35), and the process is terminated. On the other hand, when the above-described face detection condition i) is satisfied and any one of ii) to v) is satisfied, the process returns to step S30 to determine whether or not a hand has been detected for new captured image data. continue.
本実施の形態に係るDPFによれば、人物の顔が検出され、検出された顔が特定領域にあることを条件として操作意思判定を行い、さらに一旦顔検出を行った後は顔検出をおこなわないため、ユーザの操作指示に係るコマンド認識にかかる負荷を軽減することができる。また、ステップS34で手が検出されなかった場合に処理を終了してもよい。 According to the DPF according to the present embodiment, a human face is detected, an operation intention determination is performed on the condition that the detected face is in a specific area, and after face detection is performed once, the face detection is performed. Therefore, it is possible to reduce the load on command recognition related to user operation instructions. Further, the process may be terminated when no hand is detected in step S34.
なお、上述の各実施の形態においてはユーザの手を検出し手の動きを解析する構成を例に説明したが、図7に示すように肘や肩等の支点を検出する構成としてもよい。この場合には、検出された人物の顔38を基準にX軸方向に±a2ピクセル、Y軸方向に−b2ピクセルの支点検出領域50を設定する。支点検出領域50に例えば支点である肘52があり、かつ、手検出領域42に手44がある場合にのみ手検出部28による手の検出を行い、手動作認識部32により手の動作、形状又は位置の解析を行う。従って、高精度に手の検出を行うことができる。また、この場合においても矢印48,52に示すように顔38の動きに合わせて手検出領域42及び支点検出領域50は移動する。
In each of the above-described embodiments, the configuration in which the user's hand is detected and the motion of the hand is analyzed has been described as an example. However, as shown in FIG. In this case, a
また、図8に示すようにユーザの右手または左手の一方の動きのみを検出する構成としてもよい。この場合には、検出された人物の顔38を基準にX軸方向に+a3ピクセルまたは−a3ピクセル、Y軸方向に−b3ピクセルの点を手検出領域56の中心位置58とする。ここで、図8においては、ユーザの右手を検出する場合を例として人物の顔38を基準にX軸方向に−a3ピクセル、Y軸方向に−b3ピクセルの点を中心位置58としている。そして、中心位置58を基準にX軸方向に±a4ピクセル、Y軸方向に±b4ピクセルの手検出領域56を設定する。従って、一方の手の動きのみを検出することができ、手の動きの誤検出によるユーザの望まないDPF2の動作を防ぐことができる。また、矢印60に示すように手検出領域56は、顔38の動きに合わせて移動する。
Moreover, as shown in FIG. 8, it is good also as a structure which detects only one motion of a user's right hand or left hand. In this case, a point of + a 3 pixels or −a 3 pixels in the X-axis direction and −b 3 pixels in the Y-axis direction is set as the
また、上述の各実施の形態においては、操作意思判定としてi)ユーザの顔が特定領域にあることを満たし、かつ、ii)画像におけるユーザの顔面積が所定の面積以上であること、iii)顔検出時間が所定時間以上であること、vi)ユーザの顔の動作速度が一定速度以下であること、v)顔と手の面積比が所定の範囲内であることの4条件のうち1つを満たせば操作意思があるものとする構成としたが、i)〜v)の操作意思判定条件のうち予め定められた所定数の条件を満たした場合に操作意思があるものと判定する構成としてもよいし、特定の操作意思判定の条件を所定数組み合わせた判定基準を満たした場合に操作意思があるものと判定する構成としてもよい。また、例えばi)を満たす場合等、i)〜v)の操作意思判定条件のうち何れか1つを満たす場合に操作意思があるものと判定する構成としてもよい。 In each of the above-described embodiments, i) satisfies that the user's face is in a specific region as the operation intention determination, and ii) the user's face area in the image is equal to or larger than a predetermined area, iii) One of four conditions: face detection time is a predetermined time or longer, vi) the operation speed of the user's face is a predetermined speed or less, and v) the area ratio of the face to the hand is within a predetermined range. However, as a configuration for determining that there is an operation intention when a predetermined number of predetermined conditions among the operation intention determination conditions i) to v) are satisfied. Alternatively, a configuration may be adopted in which it is determined that there is an operation intention when a determination criterion in which a predetermined number of specific operation intention determination conditions are combined is satisfied. Moreover, for example, when i) is satisfied, it may be determined that there is an operation intention when any one of the operation intention determination conditions of i) to v) is satisfied.
また、同様に上述の実施の形態におけるコマンド認識処理の終了条件として上述のi)を満たさない場合、または、ii)〜v)の何れをも満たさない場合にコマンド認識処理を終了する構成したが、i)〜v)の条件をすべて満たさなくなった場合にコマンド認識処理を終了する構成としてもよい。また、これらのうち予め定められた所定数の条件を満たさなくなった場合にコマンド認識処理を終了する構成としてもよいし、特定の操作意思判定の条件を所定数組み合わせた判定基準を満たさなくなった場合にコマンド認識処理を終了する構成としてもよい。 Similarly, the command recognition process is terminated when the above-mentioned embodiment does not satisfy the above-mentioned i) or the conditions for ii) to v) as the termination condition of the command-recognition process in the above-described embodiment. , I) to v) may be configured to terminate the command recognition process when all the conditions are not satisfied. Moreover, it is good also as a structure which complete | finishes command recognition processing, when it stops satisfy | filling the predetermined number of conditions defined beforehand among these, and when it becomes no longer satisfying the determination criteria which combined the predetermined number of specific operation intention determination conditions Alternatively, the command recognition process may be terminated.
2…DPF、4…表示部、12…CPU、13…表示制御部、14…撮像部、16…メモリ、18…顔検出部、20・・・顔面積算出部、26…手検出領域設定部、28…手検出部、30…手面積算出部、32…手動作認識部、34…手動作記憶部
DESCRIPTION OF
Claims (8)
前記表示部に表示される画像を鑑賞する操作者を撮像する撮像部と、
前記撮像部により撮像した撮像画像に基づいて前記操作者の顔を検出する顔検出部と、
前記顔検出部により検出された前記操作者の前記撮像画像における顔の位置に基づいて前記操作者の手を検出するための手検出領域を設定する手検出領域設定部と、
前記手検出領域において前記操作者の手を検出する手検出部と、
前記手検出部により検出された前記操作者の手の動作、形状又は位置を操作指示として認識するコマンド認識部と、
前記コマンド認識部により認識された前記操作指示に基づいて、前記表示部に表示する画像の表示態様を制御する表示制御部と
を備えることを特徴とする画像表示装置。 A display for displaying an image;
An imaging unit for imaging an operator who appreciates an image displayed on the display unit;
A face detection unit that detects the face of the operator based on a captured image captured by the imaging unit;
A hand detection region setting unit that sets a hand detection region for detecting the operator's hand based on the position of the face in the captured image of the operator detected by the face detection unit;
A hand detection unit for detecting the hand of the operator in the hand detection region;
A command recognition unit for recognizing the operation, shape or position of the operator's hand detected by the hand detection unit as an operation instruction;
An image display device comprising: a display control unit that controls a display mode of an image displayed on the display unit based on the operation instruction recognized by the command recognition unit.
前記顔位置判定部が、前記顔の位置が前記特定領域に存在すると判定する場合には、前記手検出領域設定部は、前記操作者の顔の位置に基づいて前記操作者の手を検出するための前記手検出領域を設定することを特徴とする請求項1記載の画像表示装置。 A face position determination unit that determines whether or not the position of the operator's face detected by the face detection unit exists in a specific region in the captured image;
When the face position determination unit determines that the face position exists in the specific area, the hand detection area setting unit detects the operator's hand based on the position of the operator's face. The image display apparatus according to claim 1, wherein the hand detection area for setting is set.
前記顔の面積が所定値以上であるか否かを判定する顔面積判定部と
を備え、
前記顔面積判定部が、前記顔の面積が前記所定値以上であると判定する場合には、前記手検出領域設定部は、前記操作者の手を検出するための前記手検出領域を設定することを特徴とする請求項1または2記載の画像表示装置。 A face area calculation unit that calculates an area of the operator's face detected by the face detection unit;
A face area determination unit that determines whether or not the area of the face is a predetermined value or more,
When the face area determination unit determines that the area of the face is greater than or equal to the predetermined value, the hand detection region setting unit sets the hand detection region for detecting the operator's hand The image display device according to claim 1, wherein the image display device is an image display device.
前記顔検出時間が所定時間以上であるか否かを判定する時間判定部と
を備え、
前記時間判定部が、前記顔検出時間が所定時間以上であると判定する場合には、前記手検出領域設定部は、前記操作者の手を検出するための前記手検出領域を設定することを特徴とする請求項1〜3の何れか一項に記載の画像表示装置。 A detection time measurement unit that measures a face detection time during which the face of the operator is detected by the face detection unit;
A time determination unit that determines whether or not the face detection time is a predetermined time or more,
When the time determination unit determines that the face detection time is equal to or longer than a predetermined time, the hand detection region setting unit sets the hand detection region for detecting the operator's hand. The image display device according to claim 1, wherein the image display device is a display device.
前記動作速度検出部が、前記顔の動きが所定の値以下であると検出する場合には、前記手検出領域設定部は、前記操作者の手を検出するための前記手検出領域を設定することを特徴とする請求項1〜4の何れか一項に記載の画像表示装置。 A movement detection unit for detecting movement of the face of the operator detected by the face detection unit;
When the motion speed detection unit detects that the movement of the face is equal to or less than a predetermined value, the hand detection region setting unit sets the hand detection region for detecting the operator's hand. The image display apparatus according to claim 1, wherein the image display apparatus is an image display apparatus.
前記手検出部により検出された前記操作者の前記撮像画像における手の面積を算出する手面積算出部と、
前記顔の面積と前記手の面積とを比較する面積比較部と
を備え、
前記手検出領域設定部は、前記面積比較部における比較結果に基づいて前記操作者の手を検出するための前記手検出領域を設定することを特徴とする請求項1に記載の画像表示装置。 A face area calculation unit that calculates an area of the face in the captured image of the operator detected by the face detection unit;
A hand area calculation unit that calculates an area of a hand in the captured image of the operator detected by the hand detection unit;
An area comparison unit that compares the area of the face with the area of the hand;
The image display device according to claim 1, wherein the hand detection region setting unit sets the hand detection region for detecting the operator's hand based on a comparison result in the area comparison unit.
前記コマンド認識部が、前記操作者の手の動作、形状又は位置が前記記憶部に記憶されている動作、形状又は位置であると認識する場合には、前記表示制御部は、前記手の動作、形状又は位置に対応付けられた操作指示を実行することを特徴とする請求項1〜6の何れか一項に記載の画像表示装置。 A storage unit for storing the operation, shape or position of the operator's hand in association with a predetermined operation instruction;
When the command recognition unit recognizes that the movement, shape or position of the operator's hand is the movement, shape or position stored in the storage unit, the display control unit The image display apparatus according to claim 1, wherein an operation instruction associated with a shape or a position is executed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009249011A JP5360406B2 (en) | 2009-10-29 | 2009-10-29 | Image display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009249011A JP5360406B2 (en) | 2009-10-29 | 2009-10-29 | Image display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011095984A true JP2011095984A (en) | 2011-05-12 |
JP5360406B2 JP5360406B2 (en) | 2013-12-04 |
Family
ID=44112822
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009249011A Expired - Fee Related JP5360406B2 (en) | 2009-10-29 | 2009-10-29 | Image display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5360406B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013030140A (en) * | 2011-07-29 | 2013-02-07 | Toshiba Corp | Video processor and video processing method |
KR20130082216A (en) * | 2012-01-11 | 2013-07-19 | 한국전자통신연구원 | Apparatus and method for tracking human hand by using color features |
WO2013175845A1 (en) * | 2012-05-23 | 2013-11-28 | Kabushiki Kaisha Toshiba | Information processing apparatus, information processing method, and program |
US20130321580A1 (en) * | 2012-06-05 | 2013-12-05 | Wistron Corporation | 3-dimensional depth image generating system and method thereof |
JP2016092513A (en) * | 2014-10-31 | 2016-05-23 | カシオ計算機株式会社 | Image acquisition device, shake reduction method and program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002149302A (en) * | 2000-11-09 | 2002-05-24 | Sharp Corp | Interface device and recording medium with interface processing program recorded |
JP2003186596A (en) * | 2001-12-13 | 2003-07-04 | Seiko Epson Corp | Display device and input method of the same |
JP2004303014A (en) * | 2003-03-31 | 2004-10-28 | Honda Motor Co Ltd | Gesture recognition device, its method and gesture recognition program |
JP2005202653A (en) * | 2004-01-15 | 2005-07-28 | Canon Inc | Behavior recognition device and method, animal object recognition device and method, equipment control device and method, and program |
JP2007249595A (en) * | 2006-03-15 | 2007-09-27 | Omron Corp | Display, projector, display system, display method, display program, and recording medium |
JP2009037434A (en) * | 2007-08-02 | 2009-02-19 | Tokyo Metropolitan Univ | Control equipment operation gesture recognition device; control equipment operation gesture recognition system, and control equipment operation gesture recognition program |
JP2011505618A (en) * | 2007-11-21 | 2011-02-24 | ジェスチャー テック,インコーポレイテッド | Device access control |
-
2009
- 2009-10-29 JP JP2009249011A patent/JP5360406B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002149302A (en) * | 2000-11-09 | 2002-05-24 | Sharp Corp | Interface device and recording medium with interface processing program recorded |
JP2003186596A (en) * | 2001-12-13 | 2003-07-04 | Seiko Epson Corp | Display device and input method of the same |
JP2004303014A (en) * | 2003-03-31 | 2004-10-28 | Honda Motor Co Ltd | Gesture recognition device, its method and gesture recognition program |
JP2005202653A (en) * | 2004-01-15 | 2005-07-28 | Canon Inc | Behavior recognition device and method, animal object recognition device and method, equipment control device and method, and program |
JP2007249595A (en) * | 2006-03-15 | 2007-09-27 | Omron Corp | Display, projector, display system, display method, display program, and recording medium |
JP2009037434A (en) * | 2007-08-02 | 2009-02-19 | Tokyo Metropolitan Univ | Control equipment operation gesture recognition device; control equipment operation gesture recognition system, and control equipment operation gesture recognition program |
JP2011505618A (en) * | 2007-11-21 | 2011-02-24 | ジェスチャー テック,インコーポレイテッド | Device access control |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013030140A (en) * | 2011-07-29 | 2013-02-07 | Toshiba Corp | Video processor and video processing method |
KR20130082216A (en) * | 2012-01-11 | 2013-07-19 | 한국전자통신연구원 | Apparatus and method for tracking human hand by using color features |
KR101868903B1 (en) * | 2012-01-11 | 2018-06-20 | 한국전자통신연구원 | Apparatus and method for tracking human hand by using color features |
WO2013175845A1 (en) * | 2012-05-23 | 2013-11-28 | Kabushiki Kaisha Toshiba | Information processing apparatus, information processing method, and program |
JP2013246514A (en) * | 2012-05-23 | 2013-12-09 | Toshiba Corp | Information processing apparatus, information processing method, and program |
US20130321580A1 (en) * | 2012-06-05 | 2013-12-05 | Wistron Corporation | 3-dimensional depth image generating system and method thereof |
CN103475886A (en) * | 2012-06-05 | 2013-12-25 | 纬创资通股份有限公司 | Stereoscopic depth image establishing system and method thereof |
US9041776B2 (en) * | 2012-06-05 | 2015-05-26 | Wistron Corporation | 3-dimensional depth image generating system and method thereof |
CN103475886B (en) * | 2012-06-05 | 2017-12-08 | 纬创资通股份有限公司 | Stereoscopic depth image establishing system and method thereof |
JP2016092513A (en) * | 2014-10-31 | 2016-05-23 | カシオ計算機株式会社 | Image acquisition device, shake reduction method and program |
Also Published As
Publication number | Publication date |
---|---|
JP5360406B2 (en) | 2013-12-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20190121227A1 (en) | Projector | |
US8831282B2 (en) | Imaging device including a face detector | |
US8350896B2 (en) | Terminal apparatus, display control method, and display control program | |
US8659681B2 (en) | Method and apparatus for controlling zoom using touch screen | |
JP4702418B2 (en) | Imaging apparatus, image region existence determination method and program | |
US8531576B2 (en) | Information processing apparatus, information processing method, and program | |
JP2010086336A (en) | Image control apparatus, image control program, and image control method | |
JP5720275B2 (en) | Imaging apparatus and imaging method | |
US9807299B2 (en) | Image capture methods and systems with positioning and angling assistance | |
US20130235086A1 (en) | Electronic zoom device, electronic zoom method, and program | |
JP5258399B2 (en) | Image projection apparatus and control method thereof | |
US10044943B2 (en) | Display control apparatus, display controlling method, and program, for enlarging and displaying part of image around focus detection area | |
JP4730478B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM | |
JP2011095985A (en) | Image display apparatus | |
JP5360406B2 (en) | Image display device | |
JP2009199049A (en) | Imaging apparatus and imaging apparatus control method, and computer program | |
US20170111574A1 (en) | Imaging apparatus and imaging method | |
JP2009086703A (en) | Image display device, image display method and image display program | |
KR101493591B1 (en) | Imaging device, imaging processing method and storage medium | |
JPWO2018150569A1 (en) | Gesture recognition device, gesture recognition method, projector including gesture recognition device, and video signal supply device | |
US8749688B2 (en) | Portable device, operating method, and computer-readable storage medium | |
EP2690859B1 (en) | Digital photographing apparatus and method of controlling same | |
JP5951966B2 (en) | Image processing apparatus, image processing system, image processing method, and program | |
JP2006186658A (en) | Image display apparatus and cellular phone | |
CN113873160B (en) | Image processing method, device, electronic equipment and computer storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121011 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130424 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130521 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130719 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130807 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130820 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5360406 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |