JP2011095985A - Image display apparatus - Google Patents
Image display apparatus Download PDFInfo
- Publication number
- JP2011095985A JP2011095985A JP2009249012A JP2009249012A JP2011095985A JP 2011095985 A JP2011095985 A JP 2011095985A JP 2009249012 A JP2009249012 A JP 2009249012A JP 2009249012 A JP2009249012 A JP 2009249012A JP 2011095985 A JP2011095985 A JP 2011095985A
- Authority
- JP
- Japan
- Prior art keywords
- hand
- unit
- face
- operator
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、画像表示装置に関するものである。 The present invention relates to an image display device.
ユーザを撮像するカメラを備え、カメラにより撮像された撮像画像に基づいてユーザの操作指示に係るコマンドを認識する画像表示装置が知られている(例えば、特許文献1参照)。この画像表示装置においては、ユーザがカメラに対して手を振ったことをトリガとしてコマンド認識を開始している。 There is known an image display device that includes a camera that captures a user and recognizes a command related to a user's operation instruction based on a captured image captured by the camera (see, for example, Patent Document 1). In this image display apparatus, command recognition is started by using a user's hand to the camera as a trigger.
しかし、この画像表示装置においては、コマンド認識に係るトリガとなるユーザの手の動作を撮像画像全体において常に観察しなければならずユーザの操作指示に係るコマンド認識処理にかかる負荷が大きかった。また、特に暗所にあってはトリガであるユーザの手の動作を誤認識する虞があった。 However, in this image display device, it is necessary to always observe the movement of the user's hand as a trigger for command recognition in the entire captured image, and the load on the command recognition process related to the user's operation instruction is large. Further, particularly in a dark place, there is a risk of erroneously recognizing the action of the user's hand as a trigger.
本発明の目的は、撮像画像に基づくユーザの操作指示に係るコマンドの誤認識を防止することができる画像表示装置を提供することである。 The objective of this invention is providing the image display apparatus which can prevent the misrecognition of the command which concerns on the user's operation instruction based on a captured image.
本発明の画像表示装置は、画像を表示する表示部と、前記表示部に表示される画像を鑑賞する操作者に対して赤外光を射出する発光部と、前記操作者により反射された赤外光を撮像する撮像部と、前記撮像部により撮像した撮像画像に基づいて前記操作者の顔を検出する顔検出部と、前記顔検出部により検出された前記操作者の前記撮像画像における顔の位置に基づいて前記操作者の手を検出するための手検出領域を設定する手検出領域設定部と、前記手検出領域において前記操作者の手を検出する手検出部と、前記手検出部による検出結果に基づいて前記操作者の手の動作、形状又は位置を操作指示として認識するコマンド認識部と、前記コマンド認識部により認識された前記操作指示に基づいて、前記表示部に表示する画像の表示態様を制御する表示制御部とを備えることを特徴とする。 An image display device according to the present invention includes a display unit that displays an image, a light emitting unit that emits infrared light to an operator who views the image displayed on the display unit, and a red light reflected by the operator. An imaging unit that captures external light, a face detection unit that detects the operator's face based on a captured image captured by the imaging unit, and a face in the captured image of the operator that is detected by the face detection unit A hand detection region setting unit for setting a hand detection region for detecting the operator's hand based on the position of the operator, a hand detection unit for detecting the operator's hand in the hand detection region, and the hand detection unit A command recognition unit for recognizing the operation, shape, or position of the operator's hand as an operation instruction based on the detection result of the image, and an image displayed on the display unit based on the operation instruction recognized by the command recognition unit Display mode Characterized in that it comprises a Gosuru display control unit.
本発明の画像表示装置によれば、ユーザの操作指示に係るコマンドの認識処理にかかる負荷を軽減しつつ、暗所においてもコマンドの誤認識を防止することができる。 According to the image display device of the present invention, it is possible to prevent erroneous recognition of a command even in a dark place while reducing a load on a command recognition process related to a user operation instruction.
以下、図面を参照して本発明の第1の実施の形態に係る画像表示装置についてデジタルフォトフレーム(以下、DPFという。)を例に説明する。図1は、第1の実施の形態に係るDPFの前面を示す図であり、図2は背面を示す図である。DPF2の前面には、画像や時刻等の情報を電気的に表示するLCD等により構成される表示部4、表示部4に表示される画像を鑑賞するユーザに対して赤外光を射出する赤外線LED5、ユーザにより反射された赤外光を撮像する撮像レンズ6が設けられている。また、DPF2の背面には、DPF2を設置するために用いられる支持部材8が設けられている。
Hereinafter, an image display apparatus according to a first embodiment of the present invention will be described with reference to the drawings, taking a digital photo frame (hereinafter referred to as DPF) as an example. FIG. 1 is a diagram showing the front surface of the DPF according to the first embodiment, and FIG. 2 is a diagram showing the back surface. On the front surface of the
図3は、第1の実施の形態に係るDPFのシステム構成を示すブロック図である。DPF2はCPU12を備え、CPU12には、赤外線LED5、後述するコマンドに基づいて表示部4の表示態様を制御する表示制御部13、被写体により反射され撮像レンズ6を介した赤外光を撮像する撮像素子等を備える撮像部14、撮像部14により撮像された撮像画像を所定のフレーム数または所定時間分記憶するメモリ16、撮像画像のデータから特徴点や特定の形状等を抽出することにより顔認識データを生成しユーザの顔を検出する顔検出部18、顔認識データから検出した顔の面積を算出する顔面積算出部20、検出した顔の検出時間を計測する検出時間計測部22、検出した顔の動作速度を検出する顔動作検出部24、検出した顔の位置を基準にしてユーザの手を検出するための手検出領域を設定する手検出領域設定部26、設定した手検出領域において特徴点や特定の形状等を抽出することによりユーザの手を検出する手検出部28、検出した手の撮像画像における面積を算出する手面積算出部30、手検出領域において検出したユーザの手の動作、形状または位置を認識する手動作認識部32、所定の手の動作、形状または位置に対応付けて操作指示に係るコマンドを記憶する手動作記憶部34、表示部4に表示する画像や情報を記憶するメモリカード36が接続されている。ここで、撮像部14はモノクロの撮像素子を備えることにより被写体により反射された赤外線を撮像する。
FIG. 3 is a block diagram showing a system configuration of the DPF according to the first embodiment. The
図4は、第1の実施の形態に係るDPFの手検出領域を説明するための図である。撮像画像40において顔検出部18によりユーザの顔38が検出されると、検出された顔の略中心を基準としてX軸方向に±a1ピクセル、Y軸方向に±b1ピクセルの手検出領域42を設定する。従って、手検出部28は、手検出領域42内にある手44の検出を行うが、手検出領域42外にある手46の検出は行わない。また、矢印48で示すように手検出領域42は、顔の動作に合わせて移動する。
FIG. 4 is a diagram for explaining a DPF hand detection area according to the first embodiment. When the
次に、図5に示すフローチャートを参照して第1の実施の形態に係るDPFのコマンド認識処理について説明する。赤外線LED5によりDPF2の前方方向の表示部4に表示される画像を鑑賞するユーザに対して赤外光の射出を行い(ステップS1)、撮像部14により被写体光に含まれる赤外光の撮像を行うと(ステップS2:Y)、所定フレーム数または所定時間分の撮像画像データをメモリ16に記憶する(ステップS3)。撮像部14による撮像が行われない場合には(ステップS2:N)、撮像が行われるまで待機する。
Next, the DPF command recognition process according to the first embodiment will be described with reference to the flowchart shown in FIG. The
次に、顔検出部18は、撮像された画像データから人物の顔の検出を行い、顔が検出されたか否かを判定する(ステップS4)。顔が検出された場合には、ステップS5〜S9に示す操作意思判定条件に合致するか否かを判定することにより、顔が検出された人物にDPF2を操作する意思があるか否かを判定する。即ち、操作意思判定条件を満たすことをトリガとして、顔が検出された人物をユーザとして判定する。一方、顔が検出されなかった場合には、ステップS1の処理に戻る。
Next, the
なお、複数の人物の顔が検出された場合には、DPF2に最も近い距離に位置する人物の顔を検出してもよいし、予め登録された人物を検出してもよい。DPFに最も近い距離に位置する人物の顔を検出する場合には、例えば、赤外線LED5により赤外光が射出されてから被写体により反射され、DPF2の撮像部14において受光するまでの時間を計測することにより、DPF2と人物の顔との距離を求めてもよい。
If a plurality of human faces are detected, the face of the person located at the closest distance to the
ステップS4において顔が検出された場合には、操作意思判定条件として、まず、顔検出部18により検出された顔の位置が特定領域にあるか否かを判定する(ステップS5)。ここで、例えば顔の位置が画像の中央付近である場合には、顔の位置が特定領域にあると判定する。一方、顔の検出位置が画像の端である場合には、顔の位置が特定領域外にあると判定する。顔の位置が特定領域にない場合には(ステップS5:N)、ステップS1の処理に戻る。
When a face is detected in step S4, it is first determined whether or not the position of the face detected by the
顔の位置が特定領域にある場合には(ステップS5:Y)、ステップS6の処理に進み、次の操作意思判定条件に合致するか否かを判定する。即ち、顔面積算出部20により算出された撮像画像における顔の面積が所定の面積以上を占めるか否かを判定する(ステップS6)。所定の面積以上占める場合には、顔が検出された人物にDPF2を操作する意思があると判断し、ステップS10の処理に進む。
When the face position is in the specific area (step S5: Y), the process proceeds to step S6, and it is determined whether or not the next operation intention determination condition is met. That is, it is determined whether or not the face area in the captured image calculated by the face
一方、検出された顔面積が画像において所定の面積以下である場合には(ステップS6:N)、検出時間測定部22により測定される顔検出時間が所定時間以上であるか否かを判定する(ステップS7)。顔検出時間が所定時間以上である場合、即ち、ユーザが表示部4を所定時間以上連続して見ている場合には、顔が検出された人物にDPF2を操作する意思があるものと判断し、ステップS10の処理に進む。
On the other hand, when the detected face area is equal to or smaller than the predetermined area in the image (step S6: N), it is determined whether or not the face detection time measured by the detection
一方、顔検出時間が所定時間以下である場合には(ステップS7:N)、顔動作検出部24により検出された顔の動作速度が所定速度以下であるか否かを判定する(ステップS8)。所定速度以下である場合には顔が検出された人物にDPF2を操作する意思があるものと判断し、ステップS10の処理に進む。
On the other hand, when the face detection time is equal to or shorter than the predetermined time (step S7: N), it is determined whether or not the face motion speed detected by the face
一方、顔の動作速度が所定速度以上である場合には(ステップS8:N)、顔面積算出部20により算出された撮像画像における顔面積及び手面積算出部30により算出された撮像画像における手面積を用いて顔面積と手面積の比を算出し、面積比が所定の範囲にあるか否かを判定する(ステップS9)。面積比が所定の範囲にある場合には、顔が検出された人物にDPF2を操作する意思があるものと判断し、ステップS10の処理に進む。一方、顔と手の面積比が所定の範囲内にない場合には(ステップS9:N)、処理を終了する。
On the other hand, when the facial motion speed is equal to or higher than the predetermined speed (step S8: N), the face area in the captured image calculated by the face
ステップS5〜S9の処理において顔が検出された人物にDPF2を操作する意思があると判断された場合には、顔が検出された人物をユーザと判定し、ユーザの手を検出するための手検出領域を設定する(ステップS10)。このとき、図4に示すようにユーザの顔の略中心を基準としてX軸方向に±a1ピクセル、Y軸方向に±b1ピクセルの手検出領域42を設定する。
If it is determined in steps S5 to S9 that the person whose face is detected has an intention to operate the
そして手検出部28により手検出領域42においてユーザの手を検出すると(ステップ11:Y)、CPU12は手動作認識部32の制御を開始し手の動作、形状または位置を解析する(ステップS12)。特に限定されるものではないが、手の形状、位置を解析する場合は、例えば、撮影画像の1フレームを解析し、また、動作を解析する場合は、複数フレームの解析をする。なお、手検出領域42内で手が複数検出された場合には、DPF2に距離が最も近い手の動作、形状または位置を解析してもよいし、手面積算出部30により算出された手面積が最も大きい手の動作、形状または位置を解析してもよい。
When the
解析した手の動作、形状または位置が手動作記憶部34に記憶されている手の動作、形状または位置に該当する場合には(ステップS13:Y)、認識された手の動作、形状または位置に対応付けられた操作指示に係るコマンドを実行する(ステップS14)。例えば、手を左から右へ動かす動作である場合には、画像送りを実行する。また、手を開いた状態から閉じる動作である場合には電源をオフする処理を実行する。また、手のひらをDPF2に対して向けた状態で近づけると表示部4に表示されている画像の拡大、遠ざけると画像の縮小を実行する。なお、DPF2が表示部4による表示を行わずに撮像部14による撮像を行うスリープ状態において、手を閉じた状態から開く動作をした場合にスリープ状態から起動状態に回復する処理を実行してもよい。なお、手の動作、形状または位置だけでなく、例えば、両腕を交差させ×印が形成された場合には電源をオフする処理を実行してもよい。なお、ステップS13の処理のあと、メモリ16に記憶された所定フレーム数または所定時間分の撮像画像データは削除してもよい。
When the analyzed hand motion, shape or position corresponds to the hand motion, shape or position stored in the hand motion storage unit 34 (step S13: Y), the recognized hand motion, shape or position is recognized. A command related to the operation instruction associated with is executed (step S14). For example, in the case of moving the hand from left to right, image feed is executed. If the operation is to close the hand from the open state, a process of turning off the power is executed. When the palm is brought close to the
また、ステップS11において手が検出されなかった場合、ステップS13において解析した手の動作、形状または位置が手動作記憶部34に記憶されている手の動作、形状または位置に該当しない場合には、ステップS1の処理に戻る。
If the hand is not detected in step S11, the hand motion, shape or position analyzed in step S13 does not correspond to the hand motion, shape or position stored in the hand
本実施の形態に係るDPFによれば、操作意思判定を行い操作意思が認められる人物について手動作認識を行うため、ユーザが意図しないDPFの動作を防ぐことができる。 According to the DPF according to the present embodiment, since the operation intention is determined and the hand motion recognition is performed for the person who is recognized for the operation intention, it is possible to prevent the DPF operation unintended by the user.
また、人物の顔を検出し、検出された顔が特定領域にあることを条件として操作意思判定を行うため、ユーザの操作指示に係るコマンド認識処理にかかる負荷を軽減することができる。 In addition, since the person's face is detected and the operation intention is determined on the condition that the detected face is in the specific area, it is possible to reduce the load on the command recognition process related to the user's operation instruction.
また、手検出領域内で手が検出されない場合には手動作認識を行わないため、ユーザの操作指示に係るコマンド認識処理にかかる負荷を軽減することができ、ユーザ以外の手の動作等の認識によるユーザの意図しないDPFの動作を防ぐことができる。 In addition, when a hand is not detected in the hand detection area, hand motion recognition is not performed. Therefore, it is possible to reduce the load on the command recognition processing related to the user's operation instruction, and to recognize the motion of hands other than the user. It is possible to prevent DPF operation unintended by the user.
また、赤外光を撮像するため暗所においてもユーザの操作指示に係るコマンド認識を行うことができる。また、赤外光を撮像するためモノクロカメラで構成することもでき、製造コストを下げることが可能である。 In addition, since infrared light is imaged, command recognition related to user operation instructions can be performed even in a dark place. In addition, since it can be configured with a monochrome camera for imaging infrared light, manufacturing costs can be reduced.
なお、上述の実施の形態においては、顔検出部18により検出された人物が複数である場合には1の人物について操作意思判定を行う構成としたが、検出された複数の人物全てについて操作意思判定を行い、操作意思が認められる人物について手検出領域を設定し手の検出を行う構成としてもよい。
In the above-described embodiment, the operation intention determination is performed for one person when there are a plurality of persons detected by the
次に図面を参照して本発明の第2の実施の形態に係るDPFのコマンド認識処理について説明する。第1の実施の形態においてはコマンド認識処理を所定のフレーム数または所定時間分の撮像画像について行う構成としたが、この第2の実施の形態においては、手が検出された後は手を追尾してコマンド認識処理を行う構成に変更したものである。従って、第1の実施の形態と同一の構成についての詳細な説明は省略し、異なる部分のみについて詳細に説明する。また、第1の実施の形態と同一の構成には同一の符号を付して説明する。 Next, DPF command recognition processing according to the second embodiment of the present invention will be described with reference to the drawings. In the first embodiment, the command recognition process is performed for a predetermined number of frames or captured images for a predetermined time. However, in the second embodiment, the hand is tracked after the hand is detected. Thus, the configuration for performing the command recognition process is changed. Therefore, a detailed description of the same configuration as that of the first embodiment is omitted, and only different portions will be described in detail. Further, the same components as those in the first embodiment will be described with the same reference numerals.
図6は、第2の実施の形態に係るコマンド認識処理を示すフローチャートである。赤外線LED5によるDPF2の前方方向の表示部4に表示される画像を鑑賞するユーザに対する赤外光の射出を開始し(ステップS21)、撮像部14による被写体光に含まれる赤外光の撮像を開始すると(ステップS22:Y)、撮像画像データのメモリ16への記憶を開始する(ステップS23)。撮像部14による撮像が開始されない場合には(ステップS22:N)、撮像が開始されるまで待機する。
FIG. 6 is a flowchart showing command recognition processing according to the second embodiment. The
次に、顔検出部18は、撮像された画像データから人物の顔の検出を行い、顔が検出されたか否かを判定する(ステップS24)。顔が検出された場合には、ステップS25〜S29に示す操作意思判定条件に合うか否かを判定することにより、顔が検出された人物にDPF2を操作する意思があるか否かを判定する。一方、顔が検出されなかった場合には、顔が検出されるまで待機する。
Next, the
ステップS25〜S30に示す処理は図5のフローチャートのステップS5〜S10に示す処理と同様であるため説明は省略する。なお、ステップS25において顔の位置が特定領域にない場合及びステップS29において顔と手の面積比が所定の範囲内にない場合には、ステップS24の処理に戻り新たな撮像画像データについて顔が検出された否かの判定を行う。 The processing shown in steps S25 to S30 is the same as the processing shown in steps S5 to S10 in the flowchart of FIG. If the face position is not in the specific area in step S25 or if the area ratio of the face to the hand is not within the predetermined range in step S29, the process returns to step S24 and the face is detected for new captured image data. It is determined whether or not it has been done.
そして手検出部28により手検出領域42においてユーザの手を検出すると(ステップ31:Y)、CPU12は手動作認識部32の制御を開始し手の動作、形状また位置を解析する(ステップS32)。解析した手の動作が手動作記憶部34に記憶されている手の動作、形状または位置に該当する場合には(ステップS33:Y)、手の動作、形状または位置に対応付けられた操作指示に係るコマンドを実行する(ステップS34)。
When the
また、ステップS31において手が検出されなかった場合、ステップS33において解析した手の動作、形状または位置が手動作記憶部34に記憶されている手の動作、形状または位置に該当しない場合には、ステップS35に示す処理に進む。
If no hand is detected in step S31, the hand motion, shape or position analyzed in step S33 does not correspond to the hand motion, shape or position stored in the hand
次に、操作意思判定条件の全てを満たさなくなったか否かを判定し(ステップS35)、操作意思判定条件を満たさない場合には処理を終了する。即ち、i)ユーザの顔が特定領域にあることを満たさない場合には撮像を停止し(ステップS36)、処理を終了する。また、ii)画像におけるユーザの顔面積が所定の面積以上であること、iii)顔検出時間が所定時間以上であること、vi)ユーザの顔の動作速度が一定速度以下であること、v)顔と手の面積比が所定の範囲内であることの4条件の何れをも満たさない場合には、撮像を停止し(ステップS36)、処理を終了する。一方、上述の顔検出条件i)を満たしかつ、ii)〜v)の何れかを満たす場合には、ステップS31に戻り、新たな撮像画像データについて手が検出されたか否かを判定し処理を継続する。 Next, it is determined whether or not all the operation intention determination conditions are satisfied (step S35). If the operation intention determination conditions are not satisfied, the process is terminated. That is, i) If the user's face does not satisfy the specific area, the imaging is stopped (step S36), and the process is terminated. Also, ii) the user's face area in the image is greater than or equal to a predetermined area, iii) the face detection time is greater than or equal to a predetermined time, vi) the user's face motion speed is less than a certain speed, v) When none of the four conditions that the area ratio of the face and the hand is within the predetermined range is satisfied, the imaging is stopped (step S36), and the process is terminated. On the other hand, if the above-described face detection condition i) is satisfied and any one of ii) to v) is satisfied, the process returns to step S31 to determine whether or not a hand has been detected for the new captured image data. continue.
本実施の形態に係るDPFによれば、操作意思判定を行い操作意思が認められる人物について手動作認識を行うため、ユーザが意図しないDPFの動作を防ぐことができる。 According to the DPF according to the present embodiment, since the operation intention is determined and the hand motion recognition is performed for the person who is recognized for the operation intention, the operation of the DPF that is not intended by the user can be prevented.
また、人物の顔が検出され、検出された顔が特定領域にあることを条件として操作意思判定を行い、さらに一旦顔検出を行った後は顔検出を行わないため、ユーザの操作指示に係るコマンド認識にかかる負荷を軽減することができる。また、ステップS35で手が検出されなかった場合に処理を終了してもよい。 In addition, since the person's face is detected, the operation intention is determined on the condition that the detected face is in the specific area, and the face detection is not performed once the face is detected. The load on command recognition can be reduced. Further, the process may be terminated when no hand is detected in step S35.
なお、上述の各実施の形態においては手を検出し手の動作、形状または位置を解析する構成を例に説明したが、図7に示すように肘や肩等の支点を検出する構成としてもよい。この場合には、検出された人物の顔38を基準にX軸方向に±a2ピクセル、Y軸方向に−b2ピクセルの支点検出領域50を設定する。支点検出領域50に例えば支点である肘52があり、かつ、手検出領域42に手44がある場合にのみ手検出部28は手の検出を行い、手動作認識部32は手の動作、形状または位置の解析を行う。従って、高精度に手の検出を行うことができる。また、暗所においても高精度にユーザの操作指示に係るコマンド認識を行うことができる。また、この場合においても矢印48,52に示すように顔38の動きに合わせて手検出領域42及び支点検出領域50は移動する。
In each of the above-described embodiments, the configuration in which the hand is detected and the motion, shape, or position of the hand is analyzed has been described as an example. However, as shown in FIG. Good. In this case, a
また、図8に示すようにユーザの右手または左手の一方の動きのみを検出する構成としてもよい。この場合には、検出された人物の顔38を基準にX軸方向に+a3ピクセルまたは−a3ピクセル、Y軸方向に−b3ピクセルの点を手検出領域56の中心位置58とする。ここで、図8においては、ユーザの右手を検出する場合を例として人物の顔38を基準にX軸方向に−a3ピクセル、Y軸方向に−b3ピクセルの点を中心位置58としている。そして、中心位置58を基準にX軸方向に±a4ピクセル、Y軸方向に±b4ピクセルの手検出領域56を設定する。従って、一方の手の動作、形状また位置のみを検出することができ、手の動作、形状または位置の誤検出によるユーザの望まないDPF2の動作を防ぐことができる。また、矢印60に示すように手検出領域56は、顔38の動きに合わせて移動する。
Moreover, as shown in FIG. 8, it is good also as a structure which detects only one motion of a user's right hand or left hand. In this case, a point of + a 3 pixels or −a 3 pixels in the X-axis direction and −b 3 pixels in the Y-axis direction is set as the
また、上述の各実施の形態においては、操作意思判定としてi)ユーザの顔が特定領域にあることを満たし、かつ、ii)画像におけるユーザの顔面積が所定の面積以上であること、iii)顔検出時間が所定時間以上であること、vi)ユーザの顔の動作速度が一定速度以下であること、v)顔と手の面積比が所定の範囲内であることの4条件のうち1つを満たせば操作意思があるものとする構成としたが、i)〜v)の操作意思判定条件のうち予め定められた所定数の条件を満たした場合に操作意思があるものと判定する構成としてもよいし、特定の操作意思判定の条件を所定数組み合わせた判定基準を満たした場合に操作意思があるものと判定する構成としてもよい。また、例えばi)を満たす場合等、i)〜v)の操作意思判定条件のうち何れか1つを満たす場合に操作意思があるものと判定する構成としてもよい。 In each of the above-described embodiments, i) satisfies that the user's face is in a specific region as the operation intention determination, and ii) the user's face area in the image is equal to or larger than a predetermined area, iii) One of four conditions: face detection time is a predetermined time or longer, vi) the operation speed of the user's face is a predetermined speed or less, and v) the area ratio of the face to the hand is within a predetermined range. However, as a configuration for determining that there is an operation intention when a predetermined number of predetermined conditions among the operation intention determination conditions i) to v) are satisfied. Alternatively, a configuration may be adopted in which it is determined that there is an operation intention when a determination criterion in which a predetermined number of specific operation intention determination conditions are combined is satisfied. Moreover, for example, when i) is satisfied, it may be determined that there is an operation intention when any one of the operation intention determination conditions of i) to v) is satisfied.
また、同様に上述の実施の形態におけるコマンド認識処理の終了条件として上述のi)を満たさない場合、または、ii)〜v)の何れをも満たさない場合にコマンド認識処理を終了する構成したが、i)〜v)の条件をすべて満たさなくなった場合にコマンド認識処理を終了する構成としてもよい。また、これらのうち予め定められた所定数の条件を満たさなくなった場合にコマンド認識処理を終了する構成としてもよいし、特定の操作意思判定の条件を所定数組み合わせた判定基準を満たさなくなった場合にコマンド認識処理を終了する構成としてもよい。 Similarly, the command recognition process is terminated when the above-mentioned embodiment does not satisfy the above-mentioned i) or the conditions for ii) to v) as the termination condition of the command-recognition process in the above-described embodiment. , I) to v) may be configured to terminate the command recognition process when all the conditions are not satisfied. Moreover, it is good also as a structure which complete | finishes command recognition processing, when it stops satisfy | filling the predetermined number of conditions defined beforehand among these, and when it becomes no longer satisfying the determination criteria which combined the predetermined number of specific operation intention determination conditions Alternatively, the command recognition process may be terminated.
2…DPF、4…表示部、5…赤外線LED、12…CPU、13…表示制御部、14…撮像部、16…メモリ、18…顔検出部、20・・・顔面積算出部、26…手検出領域設定部、28…手検出部、30…手面積算出部、32…手動作認識部、34…手動作記憶部
DESCRIPTION OF
Claims (5)
前記表示部に表示される画像を鑑賞する操作者に対して赤外光を射出する発光部と、
前記操作者により反射された赤外光を撮像する撮像部と、
前記撮像部により撮像した撮像画像に基づいて前記操作者の顔を検出する顔検出部と、
前記顔検出部により検出された前記操作者の前記撮像画像における顔の位置に基づいて前記操作者の手を検出するための手検出領域を設定する手検出領域設定部と、
前記手検出領域において前記操作者の手を検出する手検出部と、
前記手検出部による検出結果に基づいて前記操作者の手の動作、形状又は位置を操作指示として認識するコマンド認識部と、
前記コマンド認識部により認識された前記操作指示に基づいて、前記表示部に表示する画像の表示態様を制御する表示制御部と
を備えることを特徴とする画像表示装置。 A display for displaying an image;
A light emitting unit for emitting infrared light to an operator who views an image displayed on the display unit;
An imaging unit for imaging infrared light reflected by the operator;
A face detection unit that detects the face of the operator based on a captured image captured by the imaging unit;
A hand detection region setting unit that sets a hand detection region for detecting the operator's hand based on the position of the face in the captured image of the operator detected by the face detection unit;
A hand detection unit for detecting the hand of the operator in the hand detection region;
A command recognition unit that recognizes the operation, shape, or position of the operator's hand as an operation instruction based on a detection result by the hand detection unit;
An image display device comprising: a display control unit that controls a display mode of an image displayed on the display unit based on the operation instruction recognized by the command recognition unit.
前記コマンド認識部が、前記操作者の手の動作、形状又は位置が前記記憶部に記憶されている前記手の動作、形状又は位置であると認識する場合には、前記表示制御部は、前記手の動作、形状又は位置に対応付けられた操作指示を実行することを特徴とする請求項1又は2に記載の画像表示装置。 A storage unit for storing the operation, shape or position of the operator's hand in association with a predetermined operation instruction;
When the command recognition unit recognizes that the movement, shape or position of the operator's hand is the movement, shape or position of the hand stored in the storage unit, the display control unit The image display apparatus according to claim 1, wherein an operation instruction associated with a movement, shape, or position of a hand is executed.
前記手検出部により検出された前記操作者の前記撮像画像における手の面積を算出する手面積算出部と、
前記顔の面積と前記手の面積とを比較する面積比較部と
を備え、
前記手検出領域設定部は、前記面積比較部における比較結果に基づいて前記操作者の手を検出するための前記手検出領域を設定することを特徴とする請求項1〜4の何れか一項に記載の画像表示装置。
A face area calculation unit that calculates an area of the face in the captured image of the operator detected by the face detection unit;
A hand area calculation unit that calculates an area of a hand in the captured image of the operator detected by the hand detection unit;
An area comparison unit that compares the area of the face with the area of the hand;
The said hand detection area | region setting part sets the said hand detection area | region for detecting the said operator's hand based on the comparison result in the said area comparison part, The any one of Claims 1-4 characterized by the above-mentioned. The image display device described in 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009249012A JP2011095985A (en) | 2009-10-29 | 2009-10-29 | Image display apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009249012A JP2011095985A (en) | 2009-10-29 | 2009-10-29 | Image display apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011095985A true JP2011095985A (en) | 2011-05-12 |
Family
ID=44112823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009249012A Pending JP2011095985A (en) | 2009-10-29 | 2009-10-29 | Image display apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011095985A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013161406A (en) * | 2012-02-08 | 2013-08-19 | Sharp Corp | Data input device, display device, data input method, and data input program |
JP2013190925A (en) * | 2012-03-13 | 2013-09-26 | Nikon Corp | Input device, and display device |
JP2013200654A (en) * | 2012-03-23 | 2013-10-03 | Yahoo Japan Corp | Display control device, display control method, information display system, and program |
WO2013175845A1 (en) * | 2012-05-23 | 2013-11-28 | Kabushiki Kaisha Toshiba | Information processing apparatus, information processing method, and program |
WO2013175844A1 (en) * | 2012-05-23 | 2013-11-28 | Kabushiki Kaisha Toshiba | Information processing apparatus, information processing method, and program |
JP2013242889A (en) * | 2012-04-26 | 2013-12-05 | Bank Of Tokyo-Mitsubishi Ufj Ltd | Information processing device |
KR20150033182A (en) * | 2013-09-23 | 2015-04-01 | 삼성전자주식회사 | Display apparatus and method for motion recognition |
-
2009
- 2009-10-29 JP JP2009249012A patent/JP2011095985A/en active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013161406A (en) * | 2012-02-08 | 2013-08-19 | Sharp Corp | Data input device, display device, data input method, and data input program |
JP2013190925A (en) * | 2012-03-13 | 2013-09-26 | Nikon Corp | Input device, and display device |
JP2013200654A (en) * | 2012-03-23 | 2013-10-03 | Yahoo Japan Corp | Display control device, display control method, information display system, and program |
JP2013242889A (en) * | 2012-04-26 | 2013-12-05 | Bank Of Tokyo-Mitsubishi Ufj Ltd | Information processing device |
WO2013175845A1 (en) * | 2012-05-23 | 2013-11-28 | Kabushiki Kaisha Toshiba | Information processing apparatus, information processing method, and program |
WO2013175844A1 (en) * | 2012-05-23 | 2013-11-28 | Kabushiki Kaisha Toshiba | Information processing apparatus, information processing method, and program |
JP2013246514A (en) * | 2012-05-23 | 2013-12-09 | Toshiba Corp | Information processing apparatus, information processing method, and program |
US20130342448A1 (en) * | 2012-05-23 | 2013-12-26 | Kabushiki Kaisha Toshiba | Information processing apparatus, information processing method, and program product |
KR20150033182A (en) * | 2013-09-23 | 2015-04-01 | 삼성전자주식회사 | Display apparatus and method for motion recognition |
KR101641091B1 (en) | 2013-09-23 | 2016-07-20 | 삼성전자주식회사 | Display apparatus and method for motion recognition |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8831282B2 (en) | Imaging device including a face detector | |
JP5159515B2 (en) | Image processing apparatus and control method thereof | |
US20190253612A1 (en) | Information processing apparatus, information processing method, and program | |
JP4843002B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM | |
JP2010086336A (en) | Image control apparatus, image control program, and image control method | |
JP2011095985A (en) | Image display apparatus | |
JP4732299B2 (en) | Method for detecting specific subject image and digital camera | |
JP4730478B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM | |
US8648960B2 (en) | Digital photographing apparatus and control method thereof | |
JP2013214858A (en) | Imaging apparatus, imaging apparatus control method, and computer program | |
JP2009295031A (en) | Image projection device and its control method | |
JP5771461B2 (en) | TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM | |
JP5360406B2 (en) | Image display device | |
KR101590334B1 (en) | Image photographing device and control method for the same | |
JP5254897B2 (en) | Hand image recognition device | |
WO2018150569A1 (en) | Gesture recognition device, gesture recognition method, projector equipped with gesture recognition device and video signal supply device | |
KR20100091844A (en) | Photographing apparatus and photographing method | |
CN107667522B (en) | Method and apparatus for forming moving image | |
JP2011188023A (en) | Information processing unit, method of processing information, and program | |
EP2690859B1 (en) | Digital photographing apparatus and method of controlling same | |
JP5229928B1 (en) | Gaze position specifying device and gaze position specifying program | |
JP2018085118A (en) | Information processor, information processing method and program | |
WO2011052120A1 (en) | Imaging control device and imaging control method | |
WO2020240989A1 (en) | Imaging device, imaging control method, and imaging control program | |
US20230300460A1 (en) | Imaging apparatus, imaging control method, and imaging control program |