JP2011095985A - Image display apparatus - Google Patents

Image display apparatus Download PDF

Info

Publication number
JP2011095985A
JP2011095985A JP2009249012A JP2009249012A JP2011095985A JP 2011095985 A JP2011095985 A JP 2011095985A JP 2009249012 A JP2009249012 A JP 2009249012A JP 2009249012 A JP2009249012 A JP 2009249012A JP 2011095985 A JP2011095985 A JP 2011095985A
Authority
JP
Japan
Prior art keywords
hand
unit
face
operator
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009249012A
Other languages
Japanese (ja)
Inventor
静二 ▲高▼野
Seiji Takano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009249012A priority Critical patent/JP2011095985A/en
Publication of JP2011095985A publication Critical patent/JP2011095985A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prevent the erroneous recognition of a command related to the operation instruction of a user based on a captured image. <P>SOLUTION: An image display apparatus includes: a display unit 4 for displaying an image; a light emitting unit 5 for emitting infrared light to an operator who appreciates an image displayed at the display unit; an imaging unit 14 for picking up the image of infrared light reflected by the operator; a face detection unit 18 for detecting the face of the operator based on the captured image captured by the imaging unit; a hand detection region setter 26 for setting a hand detection region for detecting the hand of the operator based on the position of the face in the captured image of the operator detected by the face detection unit; a hand detection unit 28 for detecting the hand of the operator in the hand detection region; a command recognition unit 32 for recognizing the operation, shape or position of the hand of the operator as an operation instruction based on the detection results of the hand detection unit; and a display control unit 13 for controlling the display mode of the image to be displayed at the display unit based on the operation instruction recognized by the command recognition unit. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像表示装置に関するものである。   The present invention relates to an image display device.

ユーザを撮像するカメラを備え、カメラにより撮像された撮像画像に基づいてユーザの操作指示に係るコマンドを認識する画像表示装置が知られている(例えば、特許文献1参照)。この画像表示装置においては、ユーザがカメラに対して手を振ったことをトリガとしてコマンド認識を開始している。   There is known an image display device that includes a camera that captures a user and recognizes a command related to a user's operation instruction based on a captured image captured by the camera (see, for example, Patent Document 1). In this image display apparatus, command recognition is started by using a user's hand to the camera as a trigger.

特開2009−75685号公報JP 2009-75685 A

しかし、この画像表示装置においては、コマンド認識に係るトリガとなるユーザの手の動作を撮像画像全体において常に観察しなければならずユーザの操作指示に係るコマンド認識処理にかかる負荷が大きかった。また、特に暗所にあってはトリガであるユーザの手の動作を誤認識する虞があった。   However, in this image display device, it is necessary to always observe the movement of the user's hand as a trigger for command recognition in the entire captured image, and the load on the command recognition process related to the user's operation instruction is large. Further, particularly in a dark place, there is a risk of erroneously recognizing the action of the user's hand as a trigger.

本発明の目的は、撮像画像に基づくユーザの操作指示に係るコマンドの誤認識を防止することができる画像表示装置を提供することである。   The objective of this invention is providing the image display apparatus which can prevent the misrecognition of the command which concerns on the user's operation instruction based on a captured image.

本発明の画像表示装置は、画像を表示する表示部と、前記表示部に表示される画像を鑑賞する操作者に対して赤外光を射出する発光部と、前記操作者により反射された赤外光を撮像する撮像部と、前記撮像部により撮像した撮像画像に基づいて前記操作者の顔を検出する顔検出部と、前記顔検出部により検出された前記操作者の前記撮像画像における顔の位置に基づいて前記操作者の手を検出するための手検出領域を設定する手検出領域設定部と、前記手検出領域において前記操作者の手を検出する手検出部と、前記手検出部による検出結果に基づいて前記操作者の手の動作、形状又は位置を操作指示として認識するコマンド認識部と、前記コマンド認識部により認識された前記操作指示に基づいて、前記表示部に表示する画像の表示態様を制御する表示制御部とを備えることを特徴とする。   An image display device according to the present invention includes a display unit that displays an image, a light emitting unit that emits infrared light to an operator who views the image displayed on the display unit, and a red light reflected by the operator. An imaging unit that captures external light, a face detection unit that detects the operator's face based on a captured image captured by the imaging unit, and a face in the captured image of the operator that is detected by the face detection unit A hand detection region setting unit for setting a hand detection region for detecting the operator's hand based on the position of the operator, a hand detection unit for detecting the operator's hand in the hand detection region, and the hand detection unit A command recognition unit for recognizing the operation, shape, or position of the operator's hand as an operation instruction based on the detection result of the image, and an image displayed on the display unit based on the operation instruction recognized by the command recognition unit Display mode Characterized in that it comprises a Gosuru display control unit.

本発明の画像表示装置によれば、ユーザの操作指示に係るコマンドの認識処理にかかる負荷を軽減しつつ、暗所においてもコマンドの誤認識を防止することができる。   According to the image display device of the present invention, it is possible to prevent erroneous recognition of a command even in a dark place while reducing a load on a command recognition process related to a user operation instruction.

本発明の第1の実施の形態に係るDPFの前面を示す図である。It is a figure which shows the front surface of DPF which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係るDPFの背面を示す図である。It is a figure which shows the back surface of DPF which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係るDPFのシステム構成を示すブロック図である。It is a block diagram which shows the system configuration | structure of DPF which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係るDPFの手検出領域を説明するための図である。It is a figure for demonstrating the hand detection area | region of DPF which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係るDPFのコマンド認識処理を示すフローチャートである。It is a flowchart which shows the command recognition process of DPF which concerns on the 1st Embodiment of this invention. 本発明の第2の実施の形態に係るDPFのコマンド認識処理を示すフローチャートである。It is a flowchart which shows the command recognition process of DPF which concerns on the 2nd Embodiment of this invention. 本発明の他の実施の形態に係るDPFの手検出領域を説明するための図である。It is a figure for demonstrating the hand detection area | region of DPF which concerns on other embodiment of this invention. 本発明の他の実施の形態に係るDPFの手検出領域を説明するための図である。It is a figure for demonstrating the hand detection area | region of DPF which concerns on other embodiment of this invention.

以下、図面を参照して本発明の第1の実施の形態に係る画像表示装置についてデジタルフォトフレーム(以下、DPFという。)を例に説明する。図1は、第1の実施の形態に係るDPFの前面を示す図であり、図2は背面を示す図である。DPF2の前面には、画像や時刻等の情報を電気的に表示するLCD等により構成される表示部4、表示部4に表示される画像を鑑賞するユーザに対して赤外光を射出する赤外線LED5、ユーザにより反射された赤外光を撮像する撮像レンズ6が設けられている。また、DPF2の背面には、DPF2を設置するために用いられる支持部材8が設けられている。   Hereinafter, an image display apparatus according to a first embodiment of the present invention will be described with reference to the drawings, taking a digital photo frame (hereinafter referred to as DPF) as an example. FIG. 1 is a diagram showing the front surface of the DPF according to the first embodiment, and FIG. 2 is a diagram showing the back surface. On the front surface of the DPF 2 is a display unit 4 configured by an LCD or the like that electrically displays information such as images and time, and an infrared ray that emits infrared light to a user who views the image displayed on the display unit 4 An LED 5 and an imaging lens 6 that images infrared light reflected by the user are provided. A support member 8 used for installing the DPF 2 is provided on the back surface of the DPF 2.

図3は、第1の実施の形態に係るDPFのシステム構成を示すブロック図である。DPF2はCPU12を備え、CPU12には、赤外線LED5、後述するコマンドに基づいて表示部4の表示態様を制御する表示制御部13、被写体により反射され撮像レンズ6を介した赤外光を撮像する撮像素子等を備える撮像部14、撮像部14により撮像された撮像画像を所定のフレーム数または所定時間分記憶するメモリ16、撮像画像のデータから特徴点や特定の形状等を抽出することにより顔認識データを生成しユーザの顔を検出する顔検出部18、顔認識データから検出した顔の面積を算出する顔面積算出部20、検出した顔の検出時間を計測する検出時間計測部22、検出した顔の動作速度を検出する顔動作検出部24、検出した顔の位置を基準にしてユーザの手を検出するための手検出領域を設定する手検出領域設定部26、設定した手検出領域において特徴点や特定の形状等を抽出することによりユーザの手を検出する手検出部28、検出した手の撮像画像における面積を算出する手面積算出部30、手検出領域において検出したユーザの手の動作、形状または位置を認識する手動作認識部32、所定の手の動作、形状または位置に対応付けて操作指示に係るコマンドを記憶する手動作記憶部34、表示部4に表示する画像や情報を記憶するメモリカード36が接続されている。ここで、撮像部14はモノクロの撮像素子を備えることにより被写体により反射された赤外線を撮像する。   FIG. 3 is a block diagram showing a system configuration of the DPF according to the first embodiment. The DPF 2 includes a CPU 12. The CPU 12 includes an infrared LED 5, a display control unit 13 that controls the display mode of the display unit 4 based on a command to be described later, and imaging that reflects infrared light reflected by the subject and through the imaging lens 6. An image capturing unit 14 including elements, a memory 16 that stores a captured image captured by the image capturing unit 14 for a predetermined number of frames or a predetermined time, and facial recognition by extracting feature points, a specific shape, and the like from captured image data A face detection unit 18 that generates data and detects the face of the user, a face area calculation unit 20 that calculates the area of the face detected from the face recognition data, a detection time measurement unit 22 that measures the detection time of the detected face, and Face motion detection unit 24 for detecting the motion speed of the face, hand detection region setting unit for setting a hand detection region for detecting the user's hand based on the detected face position 6. A hand detection unit 28 that detects a user's hand by extracting a feature point, a specific shape, and the like in the set hand detection region, a hand area calculation unit 30 that calculates an area in the captured image of the detected hand, and hand detection Hand motion recognition unit 32 for recognizing the user's hand motion, shape or position detected in the region, hand motion storage unit 34 for storing commands related to operation instructions in association with predetermined hand motion, shape or position, display A memory card 36 for storing images and information to be displayed on the unit 4 is connected. Here, the imaging unit 14 includes a monochrome imaging element to capture infrared rays reflected by the subject.

図4は、第1の実施の形態に係るDPFの手検出領域を説明するための図である。撮像画像40において顔検出部18によりユーザの顔38が検出されると、検出された顔の略中心を基準としてX軸方向に±aピクセル、Y軸方向に±bピクセルの手検出領域42を設定する。従って、手検出部28は、手検出領域42内にある手44の検出を行うが、手検出領域42外にある手46の検出は行わない。また、矢印48で示すように手検出領域42は、顔の動作に合わせて移動する。 FIG. 4 is a diagram for explaining a DPF hand detection area according to the first embodiment. When the face detection unit 18 detects the user's face 38 in the captured image 40, a hand detection area of ± a 1 pixel in the X-axis direction and ± b 1 pixel in the Y-axis direction with reference to the approximate center of the detected face. 42 is set. Therefore, the hand detection unit 28 detects the hand 44 in the hand detection area 42, but does not detect the hand 46 outside the hand detection area 42. Further, as indicated by an arrow 48, the hand detection area 42 moves in accordance with the face motion.

次に、図5に示すフローチャートを参照して第1の実施の形態に係るDPFのコマンド認識処理について説明する。赤外線LED5によりDPF2の前方方向の表示部4に表示される画像を鑑賞するユーザに対して赤外光の射出を行い(ステップS1)、撮像部14により被写体光に含まれる赤外光の撮像を行うと(ステップS2:Y)、所定フレーム数または所定時間分の撮像画像データをメモリ16に記憶する(ステップS3)。撮像部14による撮像が行われない場合には(ステップS2:N)、撮像が行われるまで待機する。   Next, the DPF command recognition process according to the first embodiment will be described with reference to the flowchart shown in FIG. The infrared LED 5 emits infrared light to a user who views the image displayed on the display unit 4 in the front direction of the DPF 2 (step S1), and the imaging unit 14 captures infrared light included in the subject light. If it is performed (step S2: Y), the captured image data for a predetermined number of frames or a predetermined time is stored in the memory 16 (step S3). When imaging by the imaging part 14 is not performed (step S2: N), it waits until imaging is performed.

次に、顔検出部18は、撮像された画像データから人物の顔の検出を行い、顔が検出されたか否かを判定する(ステップS4)。顔が検出された場合には、ステップS5〜S9に示す操作意思判定条件に合致するか否かを判定することにより、顔が検出された人物にDPF2を操作する意思があるか否かを判定する。即ち、操作意思判定条件を満たすことをトリガとして、顔が検出された人物をユーザとして判定する。一方、顔が検出されなかった場合には、ステップS1の処理に戻る。   Next, the face detection unit 18 detects a human face from the captured image data, and determines whether or not a face has been detected (step S4). When a face is detected, it is determined whether or not the person whose face is detected has an intention to operate the DPF 2 by determining whether or not the operation intention determination conditions shown in steps S5 to S9 are met. To do. In other words, a person whose face is detected is determined as a user by using a condition that satisfies an operation intention determination condition as a trigger. On the other hand, if no face is detected, the process returns to step S1.

なお、複数の人物の顔が検出された場合には、DPF2に最も近い距離に位置する人物の顔を検出してもよいし、予め登録された人物を検出してもよい。DPFに最も近い距離に位置する人物の顔を検出する場合には、例えば、赤外線LED5により赤外光が射出されてから被写体により反射され、DPF2の撮像部14において受光するまでの時間を計測することにより、DPF2と人物の顔との距離を求めてもよい。   If a plurality of human faces are detected, the face of the person located at the closest distance to the DPF 2 may be detected, or a person registered in advance may be detected. When detecting the face of a person located at the closest distance to the DPF, for example, the time from when infrared light is emitted by the infrared LED 5 until it is reflected by the subject and received by the imaging unit 14 of the DPF 2 is measured. Thus, the distance between the DPF 2 and the person's face may be obtained.

ステップS4において顔が検出された場合には、操作意思判定条件として、まず、顔検出部18により検出された顔の位置が特定領域にあるか否かを判定する(ステップS5)。ここで、例えば顔の位置が画像の中央付近である場合には、顔の位置が特定領域にあると判定する。一方、顔の検出位置が画像の端である場合には、顔の位置が特定領域外にあると判定する。顔の位置が特定領域にない場合には(ステップS5:N)、ステップS1の処理に戻る。   When a face is detected in step S4, it is first determined whether or not the position of the face detected by the face detection unit 18 is in a specific area as an operation intention determination condition (step S5). Here, for example, when the face position is near the center of the image, it is determined that the face position is in the specific region. On the other hand, if the detected position of the face is the edge of the image, it is determined that the face position is outside the specific area. If the position of the face is not in the specific area (step S5: N), the process returns to step S1.

顔の位置が特定領域にある場合には(ステップS5:Y)、ステップS6の処理に進み、次の操作意思判定条件に合致するか否かを判定する。即ち、顔面積算出部20により算出された撮像画像における顔の面積が所定の面積以上を占めるか否かを判定する(ステップS6)。所定の面積以上占める場合には、顔が検出された人物にDPF2を操作する意思があると判断し、ステップS10の処理に進む。   When the face position is in the specific area (step S5: Y), the process proceeds to step S6, and it is determined whether or not the next operation intention determination condition is met. That is, it is determined whether or not the face area in the captured image calculated by the face area calculation unit 20 occupies a predetermined area or more (step S6). If it occupies a predetermined area or more, it is determined that the person whose face is detected has an intention to operate the DPF 2, and the process proceeds to step S10.

一方、検出された顔面積が画像において所定の面積以下である場合には(ステップS6:N)、検出時間測定部22により測定される顔検出時間が所定時間以上であるか否かを判定する(ステップS7)。顔検出時間が所定時間以上である場合、即ち、ユーザが表示部4を所定時間以上連続して見ている場合には、顔が検出された人物にDPF2を操作する意思があるものと判断し、ステップS10の処理に進む。   On the other hand, when the detected face area is equal to or smaller than the predetermined area in the image (step S6: N), it is determined whether or not the face detection time measured by the detection time measuring unit 22 is equal to or longer than the predetermined time. (Step S7). If the face detection time is a predetermined time or more, that is, if the user is watching the display unit 4 continuously for a predetermined time or more, it is determined that the person whose face is detected has an intention to operate the DPF 2. The process proceeds to step S10.

一方、顔検出時間が所定時間以下である場合には(ステップS7:N)、顔動作検出部24により検出された顔の動作速度が所定速度以下であるか否かを判定する(ステップS8)。所定速度以下である場合には顔が検出された人物にDPF2を操作する意思があるものと判断し、ステップS10の処理に進む。   On the other hand, when the face detection time is equal to or shorter than the predetermined time (step S7: N), it is determined whether or not the face motion speed detected by the face motion detection unit 24 is equal to or lower than the predetermined speed (step S8). . If the speed is less than or equal to the predetermined speed, it is determined that the person whose face is detected has an intention to operate the DPF 2, and the process proceeds to step S10.

一方、顔の動作速度が所定速度以上である場合には(ステップS8:N)、顔面積算出部20により算出された撮像画像における顔面積及び手面積算出部30により算出された撮像画像における手面積を用いて顔面積と手面積の比を算出し、面積比が所定の範囲にあるか否かを判定する(ステップS9)。面積比が所定の範囲にある場合には、顔が検出された人物にDPF2を操作する意思があるものと判断し、ステップS10の処理に進む。一方、顔と手の面積比が所定の範囲内にない場合には(ステップS9:N)、処理を終了する。   On the other hand, when the facial motion speed is equal to or higher than the predetermined speed (step S8: N), the face area in the captured image calculated by the face area calculation unit 20 and the hand in the captured image calculated by the hand area calculation unit 30 A ratio between the face area and the hand area is calculated using the area, and it is determined whether or not the area ratio is within a predetermined range (step S9). If the area ratio is in the predetermined range, it is determined that the person whose face is detected has an intention to operate the DPF 2, and the process proceeds to step S10. On the other hand, when the area ratio of the face and the hand is not within the predetermined range (step S9: N), the process is terminated.

ステップS5〜S9の処理において顔が検出された人物にDPF2を操作する意思があると判断された場合には、顔が検出された人物をユーザと判定し、ユーザの手を検出するための手検出領域を設定する(ステップS10)。このとき、図4に示すようにユーザの顔の略中心を基準としてX軸方向に±aピクセル、Y軸方向に±bピクセルの手検出領域42を設定する。 If it is determined in steps S5 to S9 that the person whose face is detected has an intention to operate the DPF 2, the person whose face is detected is determined to be the user, and the user's hand is detected. A detection area is set (step S10). At this time, as shown in FIG. 4, a hand detection area 42 of ± a 1 pixel in the X-axis direction and ± b 1 pixel in the Y-axis direction is set with reference to the approximate center of the user's face.

そして手検出部28により手検出領域42においてユーザの手を検出すると(ステップ11:Y)、CPU12は手動作認識部32の制御を開始し手の動作、形状または位置を解析する(ステップS12)。特に限定されるものではないが、手の形状、位置を解析する場合は、例えば、撮影画像の1フレームを解析し、また、動作を解析する場合は、複数フレームの解析をする。なお、手検出領域42内で手が複数検出された場合には、DPF2に距離が最も近い手の動作、形状または位置を解析してもよいし、手面積算出部30により算出された手面積が最も大きい手の動作、形状または位置を解析してもよい。   When the hand detection unit 28 detects the user's hand in the hand detection area 42 (step 11: Y), the CPU 12 starts control of the hand motion recognition unit 32 and analyzes the motion, shape, or position of the hand (step S12). . Although not particularly limited, when analyzing the shape and position of the hand, for example, one frame of the photographed image is analyzed, and when analyzing the motion, a plurality of frames are analyzed. When a plurality of hands are detected in the hand detection area 42, the motion, shape, or position of the hand closest to the DPF 2 may be analyzed, or the hand area calculated by the hand area calculation unit 30 may be analyzed. The motion, shape or position of the hand with the largest may be analyzed.

解析した手の動作、形状または位置が手動作記憶部34に記憶されている手の動作、形状または位置に該当する場合には(ステップS13:Y)、認識された手の動作、形状または位置に対応付けられた操作指示に係るコマンドを実行する(ステップS14)。例えば、手を左から右へ動かす動作である場合には、画像送りを実行する。また、手を開いた状態から閉じる動作である場合には電源をオフする処理を実行する。また、手のひらをDPF2に対して向けた状態で近づけると表示部4に表示されている画像の拡大、遠ざけると画像の縮小を実行する。なお、DPF2が表示部4による表示を行わずに撮像部14による撮像を行うスリープ状態において、手を閉じた状態から開く動作をした場合にスリープ状態から起動状態に回復する処理を実行してもよい。なお、手の動作、形状または位置だけでなく、例えば、両腕を交差させ×印が形成された場合には電源をオフする処理を実行してもよい。なお、ステップS13の処理のあと、メモリ16に記憶された所定フレーム数または所定時間分の撮像画像データは削除してもよい。   When the analyzed hand motion, shape or position corresponds to the hand motion, shape or position stored in the hand motion storage unit 34 (step S13: Y), the recognized hand motion, shape or position is recognized. A command related to the operation instruction associated with is executed (step S14). For example, in the case of moving the hand from left to right, image feed is executed. If the operation is to close the hand from the open state, a process of turning off the power is executed. When the palm is brought close to the DPF 2, the image displayed on the display unit 4 is enlarged, and when the palm is moved away, the image is reduced. Even when the DPF 2 performs an operation of opening from the closed state in the sleep state in which the image is captured by the imaging unit 14 without performing the display on the display unit 4, the process of recovering from the sleep state to the activated state is performed. Good. In addition to the movement, shape, or position of the hand, for example, when both arms are crossed and a cross is formed, a process of turning off the power may be executed. Note that after the process of step S13, the captured image data for a predetermined number of frames or a predetermined time stored in the memory 16 may be deleted.

また、ステップS11において手が検出されなかった場合、ステップS13において解析した手の動作、形状または位置が手動作記憶部34に記憶されている手の動作、形状または位置に該当しない場合には、ステップS1の処理に戻る。   If the hand is not detected in step S11, the hand motion, shape or position analyzed in step S13 does not correspond to the hand motion, shape or position stored in the hand motion storage unit 34. The process returns to step S1.

本実施の形態に係るDPFによれば、操作意思判定を行い操作意思が認められる人物について手動作認識を行うため、ユーザが意図しないDPFの動作を防ぐことができる。   According to the DPF according to the present embodiment, since the operation intention is determined and the hand motion recognition is performed for the person who is recognized for the operation intention, it is possible to prevent the DPF operation unintended by the user.

また、人物の顔を検出し、検出された顔が特定領域にあることを条件として操作意思判定を行うため、ユーザの操作指示に係るコマンド認識処理にかかる負荷を軽減することができる。   In addition, since the person's face is detected and the operation intention is determined on the condition that the detected face is in the specific area, it is possible to reduce the load on the command recognition process related to the user's operation instruction.

また、手検出領域内で手が検出されない場合には手動作認識を行わないため、ユーザの操作指示に係るコマンド認識処理にかかる負荷を軽減することができ、ユーザ以外の手の動作等の認識によるユーザの意図しないDPFの動作を防ぐことができる。   In addition, when a hand is not detected in the hand detection area, hand motion recognition is not performed. Therefore, it is possible to reduce the load on the command recognition processing related to the user's operation instruction, and to recognize the motion of hands other than the user. It is possible to prevent DPF operation unintended by the user.

また、赤外光を撮像するため暗所においてもユーザの操作指示に係るコマンド認識を行うことができる。また、赤外光を撮像するためモノクロカメラで構成することもでき、製造コストを下げることが可能である。   In addition, since infrared light is imaged, command recognition related to user operation instructions can be performed even in a dark place. In addition, since it can be configured with a monochrome camera for imaging infrared light, manufacturing costs can be reduced.

なお、上述の実施の形態においては、顔検出部18により検出された人物が複数である場合には1の人物について操作意思判定を行う構成としたが、検出された複数の人物全てについて操作意思判定を行い、操作意思が認められる人物について手検出領域を設定し手の検出を行う構成としてもよい。   In the above-described embodiment, the operation intention determination is performed for one person when there are a plurality of persons detected by the face detection unit 18, but the operation intention is determined for all the detected persons. A configuration may be adopted in which a hand detection area is set for a person who is determined to make an operation intention and a hand is detected.

次に図面を参照して本発明の第2の実施の形態に係るDPFのコマンド認識処理について説明する。第1の実施の形態においてはコマンド認識処理を所定のフレーム数または所定時間分の撮像画像について行う構成としたが、この第2の実施の形態においては、手が検出された後は手を追尾してコマンド認識処理を行う構成に変更したものである。従って、第1の実施の形態と同一の構成についての詳細な説明は省略し、異なる部分のみについて詳細に説明する。また、第1の実施の形態と同一の構成には同一の符号を付して説明する。   Next, DPF command recognition processing according to the second embodiment of the present invention will be described with reference to the drawings. In the first embodiment, the command recognition process is performed for a predetermined number of frames or captured images for a predetermined time. However, in the second embodiment, the hand is tracked after the hand is detected. Thus, the configuration for performing the command recognition process is changed. Therefore, a detailed description of the same configuration as that of the first embodiment is omitted, and only different portions will be described in detail. Further, the same components as those in the first embodiment will be described with the same reference numerals.

図6は、第2の実施の形態に係るコマンド認識処理を示すフローチャートである。赤外線LED5によるDPF2の前方方向の表示部4に表示される画像を鑑賞するユーザに対する赤外光の射出を開始し(ステップS21)、撮像部14による被写体光に含まれる赤外光の撮像を開始すると(ステップS22:Y)、撮像画像データのメモリ16への記憶を開始する(ステップS23)。撮像部14による撮像が開始されない場合には(ステップS22:N)、撮像が開始されるまで待機する。   FIG. 6 is a flowchart showing command recognition processing according to the second embodiment. The infrared LED 5 starts emitting infrared light to the user viewing the image displayed on the display unit 4 in the forward direction of the DPF 2 (step S21), and starts imaging the infrared light included in the subject light by the imaging unit 14. Then (step S22: Y), storage of the captured image data in the memory 16 is started (step S23). When imaging by the imaging unit 14 is not started (step S22: N), the process waits until imaging is started.

次に、顔検出部18は、撮像された画像データから人物の顔の検出を行い、顔が検出されたか否かを判定する(ステップS24)。顔が検出された場合には、ステップS25〜S29に示す操作意思判定条件に合うか否かを判定することにより、顔が検出された人物にDPF2を操作する意思があるか否かを判定する。一方、顔が検出されなかった場合には、顔が検出されるまで待機する。   Next, the face detection unit 18 detects a human face from the captured image data, and determines whether or not a face has been detected (step S24). When a face is detected, it is determined whether or not the person whose face is detected has an intention to operate the DPF 2 by determining whether or not the operation intention determination conditions shown in steps S25 to S29 are met. . On the other hand, when a face is not detected, it waits until a face is detected.

ステップS25〜S30に示す処理は図5のフローチャートのステップS5〜S10に示す処理と同様であるため説明は省略する。なお、ステップS25において顔の位置が特定領域にない場合及びステップS29において顔と手の面積比が所定の範囲内にない場合には、ステップS24の処理に戻り新たな撮像画像データについて顔が検出された否かの判定を行う。   The processing shown in steps S25 to S30 is the same as the processing shown in steps S5 to S10 in the flowchart of FIG. If the face position is not in the specific area in step S25 or if the area ratio of the face to the hand is not within the predetermined range in step S29, the process returns to step S24 and the face is detected for new captured image data. It is determined whether or not it has been done.

そして手検出部28により手検出領域42においてユーザの手を検出すると(ステップ31:Y)、CPU12は手動作認識部32の制御を開始し手の動作、形状また位置を解析する(ステップS32)。解析した手の動作が手動作記憶部34に記憶されている手の動作、形状または位置に該当する場合には(ステップS33:Y)、手の動作、形状または位置に対応付けられた操作指示に係るコマンドを実行する(ステップS34)。   When the hand detection unit 28 detects the user's hand in the hand detection area 42 (step 31: Y), the CPU 12 starts control of the hand motion recognition unit 32 and analyzes the hand motion, shape, and position (step S32). . When the analyzed hand motion corresponds to the hand motion, shape, or position stored in the hand motion storage unit 34 (step S33: Y), an operation instruction associated with the hand motion, shape, or position The command related to is executed (step S34).

また、ステップS31において手が検出されなかった場合、ステップS33において解析した手の動作、形状または位置が手動作記憶部34に記憶されている手の動作、形状または位置に該当しない場合には、ステップS35に示す処理に進む。   If no hand is detected in step S31, the hand motion, shape or position analyzed in step S33 does not correspond to the hand motion, shape or position stored in the hand motion storage unit 34. The process proceeds to step S35.

次に、操作意思判定条件の全てを満たさなくなったか否かを判定し(ステップS35)、操作意思判定条件を満たさない場合には処理を終了する。即ち、i)ユーザの顔が特定領域にあることを満たさない場合には撮像を停止し(ステップS36)、処理を終了する。また、ii)画像におけるユーザの顔面積が所定の面積以上であること、iii)顔検出時間が所定時間以上であること、vi)ユーザの顔の動作速度が一定速度以下であること、v)顔と手の面積比が所定の範囲内であることの4条件の何れをも満たさない場合には、撮像を停止し(ステップS36)、処理を終了する。一方、上述の顔検出条件i)を満たしかつ、ii)〜v)の何れかを満たす場合には、ステップS31に戻り、新たな撮像画像データについて手が検出されたか否かを判定し処理を継続する。   Next, it is determined whether or not all the operation intention determination conditions are satisfied (step S35). If the operation intention determination conditions are not satisfied, the process is terminated. That is, i) If the user's face does not satisfy the specific area, the imaging is stopped (step S36), and the process is terminated. Also, ii) the user's face area in the image is greater than or equal to a predetermined area, iii) the face detection time is greater than or equal to a predetermined time, vi) the user's face motion speed is less than a certain speed, v) When none of the four conditions that the area ratio of the face and the hand is within the predetermined range is satisfied, the imaging is stopped (step S36), and the process is terminated. On the other hand, if the above-described face detection condition i) is satisfied and any one of ii) to v) is satisfied, the process returns to step S31 to determine whether or not a hand has been detected for the new captured image data. continue.

本実施の形態に係るDPFによれば、操作意思判定を行い操作意思が認められる人物について手動作認識を行うため、ユーザが意図しないDPFの動作を防ぐことができる。   According to the DPF according to the present embodiment, since the operation intention is determined and the hand motion recognition is performed for the person who is recognized for the operation intention, the operation of the DPF that is not intended by the user can be prevented.

また、人物の顔が検出され、検出された顔が特定領域にあることを条件として操作意思判定を行い、さらに一旦顔検出を行った後は顔検出を行わないため、ユーザの操作指示に係るコマンド認識にかかる負荷を軽減することができる。また、ステップS35で手が検出されなかった場合に処理を終了してもよい。   In addition, since the person's face is detected, the operation intention is determined on the condition that the detected face is in the specific area, and the face detection is not performed once the face is detected. The load on command recognition can be reduced. Further, the process may be terminated when no hand is detected in step S35.

なお、上述の各実施の形態においては手を検出し手の動作、形状または位置を解析する構成を例に説明したが、図7に示すように肘や肩等の支点を検出する構成としてもよい。この場合には、検出された人物の顔38を基準にX軸方向に±aピクセル、Y軸方向に−bピクセルの支点検出領域50を設定する。支点検出領域50に例えば支点である肘52があり、かつ、手検出領域42に手44がある場合にのみ手検出部28は手の検出を行い、手動作認識部32は手の動作、形状または位置の解析を行う。従って、高精度に手の検出を行うことができる。また、暗所においても高精度にユーザの操作指示に係るコマンド認識を行うことができる。また、この場合においても矢印48,52に示すように顔38の動きに合わせて手検出領域42及び支点検出領域50は移動する。 In each of the above-described embodiments, the configuration in which the hand is detected and the motion, shape, or position of the hand is analyzed has been described as an example. However, as shown in FIG. Good. In this case, a fulcrum detection area 50 of ± a 2 pixels in the X-axis direction and −b 2 pixels in the Y-axis direction is set based on the detected human face 38. The hand detection unit 28 detects a hand only when the fulcrum detection region 50 has, for example, an elbow 52 which is a fulcrum and the hand detection region 42 has a hand 44, and the hand motion recognition unit 32 detects the motion and shape of the hand. Or perform position analysis. Therefore, the hand can be detected with high accuracy. In addition, it is possible to perform command recognition related to user operation instructions with high accuracy even in a dark place. Also in this case, as indicated by arrows 48 and 52, the hand detection area 42 and the fulcrum detection area 50 move in accordance with the movement of the face 38.

また、図8に示すようにユーザの右手または左手の一方の動きのみを検出する構成としてもよい。この場合には、検出された人物の顔38を基準にX軸方向に+aピクセルまたは−aピクセル、Y軸方向に−bピクセルの点を手検出領域56の中心位置58とする。ここで、図8においては、ユーザの右手を検出する場合を例として人物の顔38を基準にX軸方向に−aピクセル、Y軸方向に−bピクセルの点を中心位置58としている。そして、中心位置58を基準にX軸方向に±aピクセル、Y軸方向に±bピクセルの手検出領域56を設定する。従って、一方の手の動作、形状また位置のみを検出することができ、手の動作、形状または位置の誤検出によるユーザの望まないDPF2の動作を防ぐことができる。また、矢印60に示すように手検出領域56は、顔38の動きに合わせて移動する。 Moreover, as shown in FIG. 8, it is good also as a structure which detects only one motion of a user's right hand or left hand. In this case, a point of + a 3 pixels or −a 3 pixels in the X-axis direction and −b 3 pixels in the Y-axis direction is set as the center position 58 of the hand detection area 56 with reference to the detected human face 38. Here, in FIG. 8, the case where the right hand of the user is detected is taken as an example, and a point of −a 3 pixels in the X-axis direction and −b 3 pixels in the Y-axis direction is set as the center position 58 with reference to the human face 38. . Then, ± a 4 pixels in the X-axis direction with respect to the center position 58, and sets the hand detection region 56 of the ± b 4 pixels in the Y-axis direction. Therefore, only the movement, shape and position of one hand can be detected, and the operation of the DPF 2 which is not desired by the user due to erroneous detection of the movement, shape or position of the hand can be prevented. Further, as indicated by the arrow 60, the hand detection area 56 moves in accordance with the movement of the face 38.

また、上述の各実施の形態においては、操作意思判定としてi)ユーザの顔が特定領域にあることを満たし、かつ、ii)画像におけるユーザの顔面積が所定の面積以上であること、iii)顔検出時間が所定時間以上であること、vi)ユーザの顔の動作速度が一定速度以下であること、v)顔と手の面積比が所定の範囲内であることの4条件のうち1つを満たせば操作意思があるものとする構成としたが、i)〜v)の操作意思判定条件のうち予め定められた所定数の条件を満たした場合に操作意思があるものと判定する構成としてもよいし、特定の操作意思判定の条件を所定数組み合わせた判定基準を満たした場合に操作意思があるものと判定する構成としてもよい。また、例えばi)を満たす場合等、i)〜v)の操作意思判定条件のうち何れか1つを満たす場合に操作意思があるものと判定する構成としてもよい。   In each of the above-described embodiments, i) satisfies that the user's face is in a specific region as the operation intention determination, and ii) the user's face area in the image is equal to or larger than a predetermined area, iii) One of four conditions: face detection time is a predetermined time or longer, vi) the operation speed of the user's face is a predetermined speed or less, and v) the area ratio of the face to the hand is within a predetermined range. However, as a configuration for determining that there is an operation intention when a predetermined number of predetermined conditions among the operation intention determination conditions i) to v) are satisfied. Alternatively, a configuration may be adopted in which it is determined that there is an operation intention when a determination criterion in which a predetermined number of specific operation intention determination conditions are combined is satisfied. Moreover, for example, when i) is satisfied, it may be determined that there is an operation intention when any one of the operation intention determination conditions of i) to v) is satisfied.

また、同様に上述の実施の形態におけるコマンド認識処理の終了条件として上述のi)を満たさない場合、または、ii)〜v)の何れをも満たさない場合にコマンド認識処理を終了する構成したが、i)〜v)の条件をすべて満たさなくなった場合にコマンド認識処理を終了する構成としてもよい。また、これらのうち予め定められた所定数の条件を満たさなくなった場合にコマンド認識処理を終了する構成としてもよいし、特定の操作意思判定の条件を所定数組み合わせた判定基準を満たさなくなった場合にコマンド認識処理を終了する構成としてもよい。   Similarly, the command recognition process is terminated when the above-mentioned embodiment does not satisfy the above-mentioned i) or the conditions for ii) to v) as the termination condition of the command-recognition process in the above-described embodiment. , I) to v) may be configured to terminate the command recognition process when all the conditions are not satisfied. Moreover, it is good also as a structure which complete | finishes command recognition processing, when it stops satisfy | filling the predetermined number of conditions defined beforehand among these, and when it becomes no longer satisfying the determination criteria which combined the predetermined number of specific operation intention determination conditions Alternatively, the command recognition process may be terminated.

2…DPF、4…表示部、5…赤外線LED、12…CPU、13…表示制御部、14…撮像部、16…メモリ、18…顔検出部、20・・・顔面積算出部、26…手検出領域設定部、28…手検出部、30…手面積算出部、32…手動作認識部、34…手動作記憶部 DESCRIPTION OF SYMBOLS 2 ... DPF, 4 ... Display part, 5 ... Infrared LED, 12 ... CPU, 13 ... Display control part, 14 ... Imaging part, 16 ... Memory, 18 ... Face detection part, 20 ... Face area calculation part, 26 ... Hand detection area setting unit, 28 ... hand detection unit, 30 ... hand area calculation unit, 32 ... hand motion recognition unit, 34 ... hand motion storage unit

Claims (5)

画像を表示する表示部と、
前記表示部に表示される画像を鑑賞する操作者に対して赤外光を射出する発光部と、
前記操作者により反射された赤外光を撮像する撮像部と、
前記撮像部により撮像した撮像画像に基づいて前記操作者の顔を検出する顔検出部と、
前記顔検出部により検出された前記操作者の前記撮像画像における顔の位置に基づいて前記操作者の手を検出するための手検出領域を設定する手検出領域設定部と、
前記手検出領域において前記操作者の手を検出する手検出部と、
前記手検出部による検出結果に基づいて前記操作者の手の動作、形状又は位置を操作指示として認識するコマンド認識部と、
前記コマンド認識部により認識された前記操作指示に基づいて、前記表示部に表示する画像の表示態様を制御する表示制御部と
を備えることを特徴とする画像表示装置。
A display for displaying an image;
A light emitting unit for emitting infrared light to an operator who views an image displayed on the display unit;
An imaging unit for imaging infrared light reflected by the operator;
A face detection unit that detects the face of the operator based on a captured image captured by the imaging unit;
A hand detection region setting unit that sets a hand detection region for detecting the operator's hand based on the position of the face in the captured image of the operator detected by the face detection unit;
A hand detection unit for detecting the hand of the operator in the hand detection region;
A command recognition unit that recognizes the operation, shape, or position of the operator's hand as an operation instruction based on a detection result by the hand detection unit;
An image display device comprising: a display control unit that controls a display mode of an image displayed on the display unit based on the operation instruction recognized by the command recognition unit.
前記手検出領域設定部は、前記顔検出部による検出結果に基づいて、前記操作者の手を検出するための手検出領域を設定するか否かを判定することを特徴とする請求項1記載の画像表示装置。   2. The hand detection area setting unit determines whether or not to set a hand detection area for detecting the operator's hand based on a detection result by the face detection unit. Image display device. 前記操作者の手の動作、形状又は位置を所定の操作指示と対応付けて記憶する記憶部を備え、
前記コマンド認識部が、前記操作者の手の動作、形状又は位置が前記記憶部に記憶されている前記手の動作、形状又は位置であると認識する場合には、前記表示制御部は、前記手の動作、形状又は位置に対応付けられた操作指示を実行することを特徴とする請求項1又は2に記載の画像表示装置。
A storage unit for storing the operation, shape or position of the operator's hand in association with a predetermined operation instruction;
When the command recognition unit recognizes that the movement, shape or position of the operator's hand is the movement, shape or position of the hand stored in the storage unit, the display control unit The image display apparatus according to claim 1, wherein an operation instruction associated with a movement, shape, or position of a hand is executed.
前記顔検出部は、前記手検出領域設定部による前記操作者の手を検出するための前記手検出領域が設定された場合には、前記操作者の顔の検出を停止することを特徴とする請求項1〜3の何れか一項に記載の画像表示装置。   The face detection unit stops detecting the operator's face when the hand detection region for detecting the operator's hand is set by the hand detection region setting unit. The image display apparatus as described in any one of Claims 1-3. 前記顔検出部により検出された前記操作者の前記撮像画像における顔の面積を算出する顔面積算出部と、
前記手検出部により検出された前記操作者の前記撮像画像における手の面積を算出する手面積算出部と、
前記顔の面積と前記手の面積とを比較する面積比較部と
を備え、
前記手検出領域設定部は、前記面積比較部における比較結果に基づいて前記操作者の手を検出するための前記手検出領域を設定することを特徴とする請求項1〜4の何れか一項に記載の画像表示装置。
A face area calculation unit that calculates an area of the face in the captured image of the operator detected by the face detection unit;
A hand area calculation unit that calculates an area of a hand in the captured image of the operator detected by the hand detection unit;
An area comparison unit that compares the area of the face with the area of the hand;
The said hand detection area | region setting part sets the said hand detection area | region for detecting the said operator's hand based on the comparison result in the said area comparison part, The any one of Claims 1-4 characterized by the above-mentioned. The image display device described in 1.
JP2009249012A 2009-10-29 2009-10-29 Image display apparatus Pending JP2011095985A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009249012A JP2011095985A (en) 2009-10-29 2009-10-29 Image display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009249012A JP2011095985A (en) 2009-10-29 2009-10-29 Image display apparatus

Publications (1)

Publication Number Publication Date
JP2011095985A true JP2011095985A (en) 2011-05-12

Family

ID=44112823

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009249012A Pending JP2011095985A (en) 2009-10-29 2009-10-29 Image display apparatus

Country Status (1)

Country Link
JP (1) JP2011095985A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013161406A (en) * 2012-02-08 2013-08-19 Sharp Corp Data input device, display device, data input method, and data input program
JP2013190925A (en) * 2012-03-13 2013-09-26 Nikon Corp Input device, and display device
JP2013200654A (en) * 2012-03-23 2013-10-03 Yahoo Japan Corp Display control device, display control method, information display system, and program
WO2013175845A1 (en) * 2012-05-23 2013-11-28 Kabushiki Kaisha Toshiba Information processing apparatus, information processing method, and program
WO2013175844A1 (en) * 2012-05-23 2013-11-28 Kabushiki Kaisha Toshiba Information processing apparatus, information processing method, and program
JP2013242889A (en) * 2012-04-26 2013-12-05 Bank Of Tokyo-Mitsubishi Ufj Ltd Information processing device
KR20150033182A (en) * 2013-09-23 2015-04-01 삼성전자주식회사 Display apparatus and method for motion recognition

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013161406A (en) * 2012-02-08 2013-08-19 Sharp Corp Data input device, display device, data input method, and data input program
JP2013190925A (en) * 2012-03-13 2013-09-26 Nikon Corp Input device, and display device
JP2013200654A (en) * 2012-03-23 2013-10-03 Yahoo Japan Corp Display control device, display control method, information display system, and program
JP2013242889A (en) * 2012-04-26 2013-12-05 Bank Of Tokyo-Mitsubishi Ufj Ltd Information processing device
WO2013175845A1 (en) * 2012-05-23 2013-11-28 Kabushiki Kaisha Toshiba Information processing apparatus, information processing method, and program
WO2013175844A1 (en) * 2012-05-23 2013-11-28 Kabushiki Kaisha Toshiba Information processing apparatus, information processing method, and program
JP2013246514A (en) * 2012-05-23 2013-12-09 Toshiba Corp Information processing apparatus, information processing method, and program
US20130342448A1 (en) * 2012-05-23 2013-12-26 Kabushiki Kaisha Toshiba Information processing apparatus, information processing method, and program product
KR20150033182A (en) * 2013-09-23 2015-04-01 삼성전자주식회사 Display apparatus and method for motion recognition
KR101641091B1 (en) 2013-09-23 2016-07-20 삼성전자주식회사 Display apparatus and method for motion recognition

Similar Documents

Publication Publication Date Title
US8831282B2 (en) Imaging device including a face detector
JP5159515B2 (en) Image processing apparatus and control method thereof
US20190253612A1 (en) Information processing apparatus, information processing method, and program
JP4843002B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP2010086336A (en) Image control apparatus, image control program, and image control method
JP2011095985A (en) Image display apparatus
JP4732299B2 (en) Method for detecting specific subject image and digital camera
JP4730478B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
US8648960B2 (en) Digital photographing apparatus and control method thereof
JP2013214858A (en) Imaging apparatus, imaging apparatus control method, and computer program
JP2009295031A (en) Image projection device and its control method
JP5771461B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
JP5360406B2 (en) Image display device
KR101590334B1 (en) Image photographing device and control method for the same
JP5254897B2 (en) Hand image recognition device
WO2018150569A1 (en) Gesture recognition device, gesture recognition method, projector equipped with gesture recognition device and video signal supply device
KR20100091844A (en) Photographing apparatus and photographing method
CN107667522B (en) Method and apparatus for forming moving image
JP2011188023A (en) Information processing unit, method of processing information, and program
EP2690859B1 (en) Digital photographing apparatus and method of controlling same
JP5229928B1 (en) Gaze position specifying device and gaze position specifying program
JP2018085118A (en) Information processor, information processing method and program
WO2011052120A1 (en) Imaging control device and imaging control method
WO2020240989A1 (en) Imaging device, imaging control method, and imaging control program
US20230300460A1 (en) Imaging apparatus, imaging control method, and imaging control program