JP2011095984A - Image display apparatus - Google Patents

Image display apparatus Download PDF

Info

Publication number
JP2011095984A
JP2011095984A JP2009249011A JP2009249011A JP2011095984A JP 2011095984 A JP2011095984 A JP 2011095984A JP 2009249011 A JP2009249011 A JP 2009249011A JP 2009249011 A JP2009249011 A JP 2009249011A JP 2011095984 A JP2011095984 A JP 2011095984A
Authority
JP
Japan
Prior art keywords
hand
face
unit
operator
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009249011A
Other languages
Japanese (ja)
Other versions
JP5360406B2 (en
Inventor
静二 ▲高▼野
Seiji Takano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009249011A priority Critical patent/JP5360406B2/en
Publication of JP2011095984A publication Critical patent/JP2011095984A/en
Application granted granted Critical
Publication of JP5360406B2 publication Critical patent/JP5360406B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image display apparatus for reducing a load to be imposed on the recognition processing of a command related to the operation instruction of a user based on a captured image. <P>SOLUTION: The image display apparatus includes: a display unit 4 for displaying an image; an imaging unit 14 for capturing the image of an operator who appreciates an image displayed at the display unit; a face detection unit 18 for detecting the face of the operator based on the captured image captured by the imaging unit; a hand detection region setter 26 for setting a hand detection region for detecting the hand of the operator based on the position of the face in the captured image of the operator detected by the face detection unit; a hand detection unit 28 for detecting the hand of the operator in the hand detection region; a command recognition unit 32 for recognizing the operation, shape or position of the hand of the operator detected by the hand detection unit as an operation instruction; and a display control unit 13 for controlling the display mode of the image displayed at the display unit based on the operation instruction recognized by the command recognition unit. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像表示装置に関するものである。   The present invention relates to an image display device.

ユーザを撮像するカメラを備え、カメラにより撮像された撮像画像に基づいてユーザの操作指示に係るコマンドを認識する画像表示装置が知られている(例えば、特許文献1参照)。この画像表示装置においては、ユーザがカメラに対して手を振ったことをトリガとしてコマンド認識を開始している。   There is known an image display device that includes a camera that captures a user and recognizes a command related to a user's operation instruction based on a captured image captured by the camera (see, for example, Patent Document 1). In this image display apparatus, command recognition is started by using a user's hand to the camera as a trigger.

特開2009−75685号公報JP 2009-75685 A

しかし、この画像表示装置においては、コマンド認識に係るトリガとなるユーザの手の動作を撮像画像全体において常に観察しなければならずユーザの操作指示に係るコマンド認識処理にかかる負荷が大きかった。   However, in this image display device, it is necessary to always observe the movement of the user's hand as a trigger for command recognition in the entire captured image, and the load on the command recognition process related to the user's operation instruction is large.

本発明の目的は、撮像画像に基づくユーザの操作指示に係るコマンドの認識処理にかかる負荷を軽減することができる画像表示装置を提供することである。   The objective of this invention is providing the image display apparatus which can reduce the load concerning the recognition process of the command which concerns on the user's operation instruction based on a captured image.

本発明の画像表示装置は、画像を表示する表示部と、前記表示部に表示される画像を鑑賞する操作者を撮像する撮像部と、前記撮像部により撮像した撮像画像に基づいて前記操作者の顔を検出する顔検出部と、前記顔検出部により検出された前記操作者の前記撮像画像における顔の位置に基づいて前記操作者の手を検出するための手検出領域を設定する手検出領域設定部と、前記手検出領域において前記操作者の手を検出する手検出部と、前記手検出部により検出された前記操作者の手の動作、形状又は位置を操作指示として認識するコマンド認識部と、前記コマンド認識部により認識された前記操作指示に基づいて、前記表示部に表示する画像の表示態様を制御する表示制御部とを備えることを特徴とする。   The image display device of the present invention includes a display unit that displays an image, an imaging unit that captures an operator who appreciates an image displayed on the display unit, and the operator based on a captured image captured by the imaging unit. A face detection unit for detecting the face of the operator, and hand detection for setting a hand detection area for detecting the hand of the operator based on the position of the face in the captured image of the operator detected by the face detection unit An area setting unit; a hand detection unit that detects the operator's hand in the hand detection region; and a command recognition that recognizes the operation, shape, or position of the operator's hand detected by the hand detection unit as an operation instruction. And a display control unit that controls a display mode of an image displayed on the display unit based on the operation instruction recognized by the command recognition unit.

本発明の画像表示装置によれば、ユーザの操作指示に係るコマンドの認識処理にかかる負荷を軽減することができる。   According to the image display device of the present invention, it is possible to reduce a load on a command recognition process related to a user operation instruction.

本発明の第1の実施の形態に係るDPFの前面を示す図である。It is a figure which shows the front surface of DPF which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係るDPFの背面を示す図である。It is a figure which shows the back surface of DPF which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係るDPFのシステム構成を示すブロック図である。It is a block diagram which shows the system configuration | structure of DPF which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係るDPFの手検出領域を説明するための図である。It is a figure for demonstrating the hand detection area | region of DPF which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係るDPFのコマンド認識処理を示すフローチャートである。It is a flowchart which shows the command recognition process of DPF which concerns on the 1st Embodiment of this invention. 本発明の第2の実施の形態に係るDPFのコマンド認識処理を示すフローチャートである。It is a flowchart which shows the command recognition process of DPF which concerns on the 2nd Embodiment of this invention. 本発明の他の実施の形態に係るDPFの手検出領域を説明するための図である。It is a figure for demonstrating the hand detection area | region of DPF which concerns on other embodiment of this invention. 本発明の他の実施の形態に係るDPFの手検出領域を説明するための図である。It is a figure for demonstrating the hand detection area | region of DPF which concerns on other embodiment of this invention.

以下、図面を参照して本発明の第1の実施の形態に係る画像表示装置についてデジタルフォトフレーム(以下、DPFという。)を例に説明する。図1は、第1の実施の形態に係るDPFの前面を示す図であり、図2は背面を示す図である。DPF2の前面には、画像や時刻等の情報を電気的に表示するLCD等により構成される表示部4、表示部4に表示される画像を鑑賞するユーザを撮像する撮像レンズ6が設けられている。また、DPF2の背面には、DPF2を設置するために用いられる支持部材8が設けられている。   Hereinafter, an image display apparatus according to a first embodiment of the present invention will be described with reference to the drawings, taking a digital photo frame (hereinafter referred to as DPF) as an example. FIG. 1 is a diagram showing the front surface of the DPF according to the first embodiment, and FIG. 2 is a diagram showing the back surface. On the front surface of the DPF 2, there are provided a display unit 4 configured by an LCD or the like that electrically displays information such as images and time, and an imaging lens 6 that captures a user who views an image displayed on the display unit 4. Yes. A support member 8 used for installing the DPF 2 is provided on the back surface of the DPF 2.

図3は、第1の実施の形態に係るDPFのシステム構成を示すブロック図である。DPF2はCPU12を備え、CPU12には、後述するコマンドに基づいて表示部4の表示態様を制御する表示制御部13、撮像レンズ6を介した被写体光を撮像する撮像素子等を備える撮像部14、撮像部14により撮像された撮像画像を所定のフレーム数または所定時間分記憶するメモリ16、撮像画像のデータから特徴点や特定の形状、特定の色等を抽出することにより顔認識データを生成しユーザの顔を検出する顔検出部18、顔認識データから検出した顔の面積を算出する顔面積算出部20、検出した顔の検出時間を計測する検出時間計測部22、検出した顔の動作速度を検出する顔動作検出部24、検出した顔の位置を基準にしてユーザの手を検出するための手検出領域を設定する手検出領域設定部26、設定した手検出領域において特徴点や特定の形状、特定の色、位置等を抽出することによりユーザの手を検出する手検出部28、検出した手の撮像画像における面積を算出する手面積算出部30、手検出領域において検出したユーザの手の動作、形状又は位置を認識する手動作認識部32、所定の手の動作、形状又は位置と操作指示に係るコマンドとを対応付けて記憶する手動作記憶部34、表示部4に表示する画像や情報を記憶するメモリカード36が接続されている。   FIG. 3 is a block diagram showing a system configuration of the DPF according to the first embodiment. The DPF 2 includes a CPU 12. The CPU 12 includes a display control unit 13 that controls a display mode of the display unit 4 based on a command that will be described later, an imaging unit 14 that includes an imaging element that images subject light via the imaging lens 6, and the like. A memory 16 that stores a predetermined number of frames or a predetermined time for a captured image captured by the imaging unit 14, and facial recognition data is generated by extracting feature points, a specific shape, a specific color, and the like from the captured image data. A face detection unit 18 that detects the face of the user, a face area calculation unit 20 that calculates the area of the face detected from the face recognition data, a detection time measurement unit 22 that measures the detection time of the detected face, and an operating speed of the detected face A face motion detection unit for detecting a hand, a hand detection region setting unit for setting a hand detection region for detecting a user's hand based on the detected face position, and a set hand detection region A hand detection unit 28 that detects a user's hand by extracting a feature point, a specific shape, a specific color, a position, and the like, a hand area calculation unit 30 that calculates an area in a captured image of the detected hand, and hand detection A hand motion recognition unit 32 for recognizing the motion, shape or position of the user's hand detected in the region; a hand motion storage unit 34 for storing a predetermined hand motion, shape or position and a command related to an operation instruction in association with each other; A memory card 36 for storing images and information to be displayed on the display unit 4 is connected.

図4は、第1の実施の形態に係るDPFの手検出領域を説明するための図である。撮像画像40において顔検出部18によりユーザの顔38が検出されると、検出された顔の略中心を基準としてX軸方向に±aピクセル、Y軸方向に±bピクセルの手検出領域42を設定する。従って、手検出部28は、手検出領域42内にある手44の検出を行うが、手検出領域42外にある手46の検出は行わない。また、矢印48で示すように手検出領域42は、顔の動作に合わせて移動する。 FIG. 4 is a diagram for explaining a DPF hand detection area according to the first embodiment. When the face detection unit 18 detects the user's face 38 in the captured image 40, a hand detection area of ± a 1 pixel in the X-axis direction and ± b 1 pixel in the Y-axis direction with reference to the approximate center of the detected face. 42 is set. Therefore, the hand detection unit 28 detects the hand 44 in the hand detection area 42, but does not detect the hand 46 outside the hand detection area 42. Further, as indicated by an arrow 48, the hand detection area 42 moves in accordance with the face motion.

次に、図5に示すフローチャートを参照して第1の実施の形態に係るDPFのコマンド認識処理について説明する。撮像部14により表示部4の前方方向の表示部4に表示される画像を鑑賞するユーザの撮像を行うと(ステップS1:Y)、所定フレーム数または所定時間分の撮像画像データをメモリ16に記憶する(ステップS2)。撮像部14による撮像が行われない場合には(ステップS1:N)、撮像が行われるまで待機する。   Next, the DPF command recognition process according to the first embodiment will be described with reference to the flowchart shown in FIG. When a user who views an image displayed on the display unit 4 in the forward direction of the display unit 4 is imaged by the imaging unit 14 (step S1: Y), captured image data for a predetermined number of frames or a predetermined time is stored in the memory 16. Store (step S2). When imaging by the imaging part 14 is not performed (step S1: N), it waits until imaging is performed.

次に、顔検出部18は、撮像された画像データから人物の顔の検出を行い、顔が検出されたか否かを判定する(ステップS3)。顔が検出された場合には、ステップS4〜S8に示す操作意思判定条件に合うか否かを判定することにより、顔が検出された人物にDPF2を操作する意思があるか否かを判定する。即ち、操作意思判定条件を満たすことをトリガとして、顔が検出された人物をユーザとして判定する。なお、複数の人物の顔が検出された場合には、DPF2に最も近い距離に位置する人物を検出してもよいし、予め登録された人物を検出してもよい。一方、顔が検出されなかった場合には、ステップS1の処理に戻る。   Next, the face detection unit 18 detects a human face from the captured image data, and determines whether or not a face has been detected (step S3). When a face is detected, it is determined whether or not the person with the detected face has an intention to operate the DPF 2 by determining whether or not the operation intention determination conditions shown in steps S4 to S8 are met. . In other words, a person whose face is detected is determined as a user by using a condition that satisfies an operation intention determination condition as a trigger. When a plurality of human faces are detected, a person located at a distance closest to the DPF 2 may be detected, or a person registered in advance may be detected. On the other hand, if no face is detected, the process returns to step S1.

ステップS3において顔が検出された場合には、操作意思判定条件として、まず、顔検出部18により検出された顔の位置が特定領域にあるか否かを判定する(ステップS4)。ここで、例えば顔の位置が画像の中央付近である場合には、顔の位置が特定領域にあると判定する。一方、顔の検出位置が画像の端である場合には、顔の位置が特定領域外にあると判定する。顔の位置が特定領域にない場合には(ステップS4:N)、ステップS1の処理に戻る。   When a face is detected in step S3, it is first determined whether or not the position of the face detected by the face detection unit 18 is in a specific region as an operation intention determination condition (step S4). Here, for example, when the face position is near the center of the image, it is determined that the face position is in the specific region. On the other hand, if the detected position of the face is the edge of the image, it is determined that the face position is outside the specific area. When the face position is not in the specific area (step S4: N), the process returns to step S1.

顔の位置が特定領域にある場合には(ステップS4:Y)、ステップS5の処理に進み、次の操作意思判定条件に合致するか否かを判定する。即ち、顔面積算出部20により算出された撮像画像における顔の面積が所定の面積以上を占めるか否かを判定する(ステップS5)。所定の面積以上占める場合には、顔が検出された人物にDPF2を操作する意思があると判断し、ステップS9の処理に進む。   If the face position is in the specific area (step S4: Y), the process proceeds to step S5, and it is determined whether or not the next operation intention determination condition is met. That is, it is determined whether the face area in the captured image calculated by the face area calculation unit 20 occupies a predetermined area or more (step S5). If it occupies a predetermined area or more, it is determined that the person whose face is detected has an intention to operate the DPF 2, and the process proceeds to step S9.

一方、検出された顔面積が画像において所定の面積以下である場合には(ステップS5:N)、検出時間測定部22により測定される顔検出時間が所定時間以上であるか否かを判定する(ステップS6)。顔検出時間が所定時間以上である場合、即ち、ユーザが表示部4を所定時間以上連続して見ている場合には、顔が検出された人物にDPF2を操作する意思があるものと判断し、ステップS9の処理に進む。   On the other hand, when the detected face area is equal to or smaller than the predetermined area in the image (step S5: N), it is determined whether or not the face detection time measured by the detection time measuring unit 22 is equal to or longer than the predetermined time. (Step S6). If the face detection time is a predetermined time or more, that is, if the user is watching the display unit 4 continuously for a predetermined time or more, it is determined that the person whose face is detected has an intention to operate the DPF 2. The process proceeds to step S9.

一方、顔検出時間が所定時間以下である場合には(ステップS6:N)、顔動作検出部24により検出された顔の動作速度が所定速度以下であるか否かを判定する(ステップS7)。所定速度以下である場合には顔が検出された人物にDPF2を操作する意思があるものと判断し、ステップS9の処理に進む。   On the other hand, when the face detection time is less than or equal to the predetermined time (step S6: N), it is determined whether or not the face motion speed detected by the face motion detection unit 24 is less than or equal to the predetermined speed (step S7). . If the speed is less than or equal to the predetermined speed, it is determined that the person whose face is detected has an intention to operate the DPF 2, and the process proceeds to step S9.

一方、顔の動作速度が所定速度以上である場合には(ステップS7:N)、顔面積算出部20により算出された撮像画像における顔面積及び手面積算出部30により算出された撮像画像における手面積を用いて顔面積と手面積の比を算出し、面積比が所定の範囲にあるか否かを判定する(ステップS8)。面積比が所定の範囲にある場合には、顔が検出された人物にDPF2を操作する意思があるものと判断し、ステップS9の処理に進む。一方、顔と手の面積比が所定の範囲内にない場合には(ステップS8:N)、処理を終了する。   On the other hand, when the facial motion speed is equal to or higher than the predetermined speed (step S7: N), the face area in the captured image calculated by the face area calculation unit 20 and the hand in the captured image calculated by the hand area calculation unit 30 A ratio between the face area and the hand area is calculated using the area, and it is determined whether or not the area ratio is within a predetermined range (step S8). If the area ratio is within the predetermined range, it is determined that the person whose face is detected has an intention to operate the DPF 2, and the process proceeds to step S9. On the other hand, when the area ratio of the face and the hand is not within the predetermined range (step S8: N), the process is terminated.

ステップS4〜S8の処理において顔が検出された人物にDPF2を操作する意思があると判断された場合には、顔が検出された人物をユーザと判定し、ユーザの手を検出するための手検出領域を設定する(ステップS9)。このとき、図4に示すようにユーザの顔の略中心を基準としてX軸方向に±aピクセル、Y軸方向に±bピクセルの手検出領域42を設定する。 If it is determined in step S4 to S8 that the person whose face is detected has an intention to operate the DPF 2, the person whose face is detected is determined to be the user, and the user's hand is detected. A detection area is set (step S9). At this time, as shown in FIG. 4, a hand detection area 42 of ± a 1 pixel in the X-axis direction and ± b 1 pixel in the Y-axis direction is set with reference to the approximate center of the user's face.

そして手検出部28により手検出領域42においてユーザの手を検出すると(ステップ10:Y)、CPU12は手動作認識部32の制御を開始し手の動作、形状また位置を解析する(ステップS11)。特に限定されるものではないが、手の形状、位置を解析する場合は、例えば、撮影画像の1フレームを解析し、また、動作を解析する場合は、複数フレームの解析をする。なお、手検出領域42内で手が複数検出された場合には、DPF2に距離が最も近い手の動作、形状又は位置を解析してもよいし、手面積算出部30により算出された手面積が最も大きい手の動作、形状又は位置を解析してもよい。   When the hand detection unit 28 detects the user's hand in the hand detection area 42 (step 10: Y), the CPU 12 starts control of the hand movement recognition unit 32 and analyzes the hand movement, shape, and position (step S11). . Although not particularly limited, when analyzing the shape and position of the hand, for example, one frame of the photographed image is analyzed, and when analyzing the motion, a plurality of frames are analyzed. When a plurality of hands are detected in the hand detection area 42, the motion, shape, or position of the hand closest to the DPF 2 may be analyzed, or the hand area calculated by the hand area calculation unit 30 may be analyzed. The motion, shape or position of the hand with the largest may be analyzed.

解析した手の動作、形状又は位置が手動作記憶部34に記憶されている手動作に該当する場合には(ステップS12:Y)、手動作、形状または位置に対応付けられたコマンドを実行する(ステップS13)。例えば、手を左から右へ動かす動作である場合には、画像送りを実行する。また、手を開いた状態から閉じる動作である場合には電源をオフする処理を実行する。また、手のひらをDPF2に対して向けた状態で近づけると表示部4に表示されている画像の拡大、遠ざけると画像の縮小を実行する。なお、DPF2が表示部4による表示を行わずに撮像部14による撮像を行うスリープ状態において、手を閉じた状態から開く動作をした場合に電源をスリープ状態から起動状態に回復する処理を実行してもよい。なお、手の動きだけでなく、例えば、両腕を交差させ×印が形成された場合には電源をオフする処理を実行してもよい。なお、ステップS13の処理のあと、メモリ16に記憶された所定フレーム数または所定時間分の撮像画像データは削除してもよい。   When the analyzed hand motion, shape, or position corresponds to the hand motion stored in the hand motion storage unit 34 (step S12: Y), a command associated with the hand motion, shape, or position is executed. (Step S13). For example, in the case of moving the hand from left to right, image feed is executed. If the operation is to close the hand from the open state, a process of turning off the power is executed. When the palm is brought close to the DPF 2, the image displayed on the display unit 4 is enlarged, and when the palm is moved away, the image is reduced. In the sleep state in which the DPF 2 performs imaging by the imaging unit 14 without performing display by the display unit 4, a process of restoring the power source from the sleep state to the activated state is performed when the hand is opened from the closed state. May be. In addition to the movement of the hand, for example, when both arms are crossed and a cross is formed, a process of turning off the power may be executed. Note that after the process of step S13, the captured image data for a predetermined number of frames or a predetermined time stored in the memory 16 may be deleted.

また、ステップS10において手が検出されなかった場合、ステップS12において解析した手の動作、形状又は位置が手動作記憶部34に記憶されている手動作に該当しない場合には、ステップS1の処理に戻る。   If no hand is detected in step S10, if the hand motion, shape, or position analyzed in step S12 does not correspond to the hand motion stored in the hand motion storage unit 34, the processing in step S1 is performed. Return.

本実施の形態に係るDPFによれば、人物の顔が検出され、検出された顔が特定領域にあることを条件として操作意思判定を行うため、ユーザの操作指示に係るコマンド認識処理にかかる負荷を軽減することができる。   According to the DPF according to the present embodiment, since a human face is detected and an operation intention determination is performed on the condition that the detected face is in a specific area, a load on a command recognition process related to a user operation instruction Can be reduced.

また、操作意思判定を行い操作意思が認められる人物について手動作認識を行うため、ユーザが意図しないDPFの動作を防ぐことができる。また、手検出領域内で手が検出されない場合には手動作認識を行わないため、ユーザの操作指示に係るコマンド認識処理にかかる負荷を軽減することができ、ユーザ以外の手の動作、形状又は位置の認識によるユーザの意図しないDPFの動作を防ぐことができる。   In addition, since the operation intention determination is performed and the hand movement recognition is performed for the person whose operation intention is recognized, it is possible to prevent the operation of the DPF that is not intended by the user. In addition, when a hand is not detected in the hand detection area, hand motion recognition is not performed, so it is possible to reduce the load on command recognition processing related to the user's operation instructions, It is possible to prevent DPF operation unintended by the user due to position recognition.

なお、上述の実施の形態においては、顔検出部18により検出された人物が複数である場合には1の人物について操作意思判定を行う構成としたが、検出された複数の人物全てについて操作意思判定を行い、操作意思が認められる人物について手検出領域を設定し手の検出を行う構成としてもよい。   In the above-described embodiment, the operation intention determination is performed for one person when there are a plurality of persons detected by the face detection unit 18, but the operation intention is determined for all the detected persons. A configuration may be adopted in which a hand detection area is set for a person who is determined to make an operation intention and a hand is detected.

また、上述の実施の形態に係る図5のフローチャートに示すステップS7の処理において、顔動作検出部24により検出された顔の動作速度が所定速度以下であるか否かを判定する構成としたが、検出された顔の動作の加速度が所定の値以下であるか否か、または検出された顔の撮像画像内での移動量が所定の値以下であるか否か等を判定する構成としてもよい。   Further, in the process of step S7 shown in the flowchart of FIG. 5 according to the above-described embodiment, it is configured to determine whether or not the face motion speed detected by the face motion detection unit 24 is equal to or lower than a predetermined speed. Further, it is possible to determine whether or not the acceleration of the detected face motion is equal to or less than a predetermined value, or whether or not the amount of movement of the detected face in the captured image is equal to or less than a predetermined value. Good.

次に図6を参照して本発明の第2の実施の形態に係るDPFのコマンド認識処理について説明する。第1の実施の形態においてはコマンド認識処理を所定のフレーム数または所定時間分の撮像画像について行う構成としたが、この第2の実施の形態においては、手が検出された後は手を追尾してコマンド認識処理を行う構成に変更したものである。従って、第1の実施の形態と同一の構成についての詳細な説明は省略し、異なる部分のみについて詳細に説明する。また、第1の実施の形態と同一の構成には同一の符号を付して説明する。   Next, DPF command recognition processing according to the second embodiment of the present invention will be described with reference to FIG. In the first embodiment, the command recognition process is performed for a predetermined number of frames or captured images for a predetermined time. However, in the second embodiment, the hand is tracked after the hand is detected. Thus, the configuration for performing the command recognition process is changed. Therefore, a detailed description of the same configuration as that of the first embodiment is omitted, and only different portions will be described in detail. Further, the same components as those in the first embodiment will be described with the same reference numerals.

図6は、第2の実施の形態に係るコマンド認識処理を示すフローチャートである。撮像部14による前方方向の表示部4に表示される画像を鑑賞するユーザの撮像を開始すると(ステップS21:Y)、撮像画像データのメモリ16への記憶を開始する(ステップS22)。撮像部14による撮像が開始されない場合には(ステップS21:N)、撮像が開始されるまで待機する。   FIG. 6 is a flowchart showing command recognition processing according to the second embodiment. When the imaging of the user viewing the image displayed on the forward display unit 4 by the imaging unit 14 is started (step S21: Y), the storage of the captured image data in the memory 16 is started (step S22). If imaging by the imaging unit 14 is not started (step S21: N), the process waits until imaging is started.

次に、顔検出部18は、撮像された画像データから人物の顔の検出を行い、顔が検出されたか否かを判定する(ステップS23)。顔が検出された場合には、ステップS24〜S28に示す操作意思判定条件に合うか否かを判定することにより、顔が検出された人物にDPF2を操作する意思があるか否かを判定する。一方、顔が検出されなかった場合には、顔が検出されるまで待機する。   Next, the face detection unit 18 detects a human face from the captured image data, and determines whether or not a face has been detected (step S23). When a face is detected, it is determined whether or not the person whose face is detected has an intention to operate the DPF 2 by determining whether or not the operation intention determination conditions shown in steps S24 to S28 are met. . On the other hand, when a face is not detected, it waits until a face is detected.

ステップS24〜S29に示す処理は図5のフローチャートのステップS4〜S9に示す処理と同様であるため説明は省略する。なお、ステップS24において顔の位置が特定領域にない場合及びステップS28において顔と手の面積比が所定の範囲内にない場合には、ステップS23の処理に戻り新たな撮像画像データについて顔が検出された否かの判定を行う。   The processing shown in steps S24 to S29 is the same as the processing shown in steps S4 to S9 in the flowchart of FIG. If the face position is not in the specific area in step S24 or if the area ratio of the face to the hand is not within the predetermined range in step S28, the process returns to step S23 and the face is detected for new captured image data. It is determined whether or not it has been done.

そして手検出部28により手検出領域42においてユーザの手を検出すると(ステップ30:Y)、CPU12は手動作認識部32の制御を開始し手の動作、形状また位置を解析する(ステップS31)。解析した手の動作、形状又は位置が手動作記憶部34に記憶されている手動作に該当する場合には(ステップS32:Y)、手動作、形状または位置に対応付けられたコマンドを実行する(ステップS33)。   When the hand detection unit 28 detects the user's hand in the hand detection area 42 (step 30: Y), the CPU 12 starts control of the hand movement recognition unit 32 and analyzes the movement, shape, and position of the hand (step S31). . When the analyzed hand motion, shape or position corresponds to the hand motion stored in the hand motion storage unit 34 (step S32: Y), a command associated with the hand motion, shape or position is executed. (Step S33).

また、ステップS30において手が検出されなかった場合、ステップS32において解析した手の動作、形状又は位置が手動作記憶部34に記憶されている手動作に該当しない場合には、ステップS34に示す処理に進む。   If no hand is detected in step S30, and if the hand motion, shape or position analyzed in step S32 does not correspond to the hand motion stored in the hand motion storage unit 34, the process shown in step S34 is performed. Proceed to

次に、操作意思判定条件の全てを満たさなくなったか否かを判定し(ステップS34)、操作意思判定条件を満たさない場合には処理を終了する。即ち、i)ユーザの顔が特定領域にあることを満たさない場合には撮像を停止し(ステップS35)、処理を終了する。また、ii)画像におけるユーザの顔面積が所定の面積以上であること、iii)顔検出時間が所定時間以上であること、vi)ユーザの顔の動作速度が一定速度以下であること、v)顔と手の面積比が所定の範囲内であることの4条件の何れをも満たさない場合には、撮像を停止し(ステップS35)、処理を終了する。一方、上述の顔検出条件i)を満たしかつ、ii)〜v)の何れかを満たす場合には、ステップS30に戻り、新たな撮像画像データについて手が検出されたか否かを判定し処理を継続する。   Next, it is determined whether or not all the operation intention determination conditions are satisfied (step S34). If the operation intention determination conditions are not satisfied, the process is terminated. That is, i) If the user's face does not satisfy the specific area, the imaging is stopped (step S35), and the process is terminated. Also, ii) the user's face area in the image is greater than or equal to a predetermined area, iii) the face detection time is greater than or equal to a predetermined time, vi) the user's face motion speed is less than a certain speed, v) When none of the four conditions that the area ratio of the face and the hand is within the predetermined range is satisfied, the imaging is stopped (step S35), and the process is terminated. On the other hand, when the above-described face detection condition i) is satisfied and any one of ii) to v) is satisfied, the process returns to step S30 to determine whether or not a hand has been detected for new captured image data. continue.

本実施の形態に係るDPFによれば、人物の顔が検出され、検出された顔が特定領域にあることを条件として操作意思判定を行い、さらに一旦顔検出を行った後は顔検出をおこなわないため、ユーザの操作指示に係るコマンド認識にかかる負荷を軽減することができる。また、ステップS34で手が検出されなかった場合に処理を終了してもよい。   According to the DPF according to the present embodiment, a human face is detected, an operation intention determination is performed on the condition that the detected face is in a specific area, and after face detection is performed once, the face detection is performed. Therefore, it is possible to reduce the load on command recognition related to user operation instructions. Further, the process may be terminated when no hand is detected in step S34.

なお、上述の各実施の形態においてはユーザの手を検出し手の動きを解析する構成を例に説明したが、図7に示すように肘や肩等の支点を検出する構成としてもよい。この場合には、検出された人物の顔38を基準にX軸方向に±aピクセル、Y軸方向に−bピクセルの支点検出領域50を設定する。支点検出領域50に例えば支点である肘52があり、かつ、手検出領域42に手44がある場合にのみ手検出部28による手の検出を行い、手動作認識部32により手の動作、形状又は位置の解析を行う。従って、高精度に手の検出を行うことができる。また、この場合においても矢印48,52に示すように顔38の動きに合わせて手検出領域42及び支点検出領域50は移動する。 In each of the above-described embodiments, the configuration in which the user's hand is detected and the motion of the hand is analyzed has been described as an example. However, as shown in FIG. In this case, a fulcrum detection area 50 of ± a 2 pixels in the X-axis direction and −b 2 pixels in the Y-axis direction is set based on the detected human face 38. The hand detection unit 28 detects the hand only when the fulcrum detection region 50 has, for example, an elbow 52 as a fulcrum and the hand detection region 42 has a hand 44, and the hand motion recognition unit 32 detects the motion and shape of the hand. Alternatively, position analysis is performed. Therefore, the hand can be detected with high accuracy. Also in this case, as indicated by arrows 48 and 52, the hand detection area 42 and the fulcrum detection area 50 move in accordance with the movement of the face 38.

また、図8に示すようにユーザの右手または左手の一方の動きのみを検出する構成としてもよい。この場合には、検出された人物の顔38を基準にX軸方向に+aピクセルまたは−aピクセル、Y軸方向に−bピクセルの点を手検出領域56の中心位置58とする。ここで、図8においては、ユーザの右手を検出する場合を例として人物の顔38を基準にX軸方向に−aピクセル、Y軸方向に−bピクセルの点を中心位置58としている。そして、中心位置58を基準にX軸方向に±aピクセル、Y軸方向に±bピクセルの手検出領域56を設定する。従って、一方の手の動きのみを検出することができ、手の動きの誤検出によるユーザの望まないDPF2の動作を防ぐことができる。また、矢印60に示すように手検出領域56は、顔38の動きに合わせて移動する。 Moreover, as shown in FIG. 8, it is good also as a structure which detects only one motion of a user's right hand or left hand. In this case, a point of + a 3 pixels or −a 3 pixels in the X-axis direction and −b 3 pixels in the Y-axis direction is set as the center position 58 of the hand detection area 56 with reference to the detected human face 38. Here, in FIG. 8, the case where the right hand of the user is detected is taken as an example, and a point of −a 3 pixels in the X-axis direction and −b 3 pixels in the Y-axis direction is set as the center position 58 with reference to the human face 38. . Then, ± a 4 pixels in the X-axis direction with respect to the center position 58, and sets the hand detection region 56 of the ± b 4 pixels in the Y-axis direction. Therefore, only the movement of one hand can be detected, and the operation of the DPF 2 not desired by the user due to erroneous detection of the movement of the hand can be prevented. Further, as indicated by the arrow 60, the hand detection area 56 moves in accordance with the movement of the face 38.

また、上述の各実施の形態においては、操作意思判定としてi)ユーザの顔が特定領域にあることを満たし、かつ、ii)画像におけるユーザの顔面積が所定の面積以上であること、iii)顔検出時間が所定時間以上であること、vi)ユーザの顔の動作速度が一定速度以下であること、v)顔と手の面積比が所定の範囲内であることの4条件のうち1つを満たせば操作意思があるものとする構成としたが、i)〜v)の操作意思判定条件のうち予め定められた所定数の条件を満たした場合に操作意思があるものと判定する構成としてもよいし、特定の操作意思判定の条件を所定数組み合わせた判定基準を満たした場合に操作意思があるものと判定する構成としてもよい。また、例えばi)を満たす場合等、i)〜v)の操作意思判定条件のうち何れか1つを満たす場合に操作意思があるものと判定する構成としてもよい。   In each of the above-described embodiments, i) satisfies that the user's face is in a specific region as the operation intention determination, and ii) the user's face area in the image is equal to or larger than a predetermined area, iii) One of four conditions: face detection time is a predetermined time or longer, vi) the operation speed of the user's face is a predetermined speed or less, and v) the area ratio of the face to the hand is within a predetermined range. However, as a configuration for determining that there is an operation intention when a predetermined number of predetermined conditions among the operation intention determination conditions i) to v) are satisfied. Alternatively, a configuration may be adopted in which it is determined that there is an operation intention when a determination criterion in which a predetermined number of specific operation intention determination conditions are combined is satisfied. Moreover, for example, when i) is satisfied, it may be determined that there is an operation intention when any one of the operation intention determination conditions of i) to v) is satisfied.

また、同様に上述の実施の形態におけるコマンド認識処理の終了条件として上述のi)を満たさない場合、または、ii)〜v)の何れをも満たさない場合にコマンド認識処理を終了する構成したが、i)〜v)の条件をすべて満たさなくなった場合にコマンド認識処理を終了する構成としてもよい。また、これらのうち予め定められた所定数の条件を満たさなくなった場合にコマンド認識処理を終了する構成としてもよいし、特定の操作意思判定の条件を所定数組み合わせた判定基準を満たさなくなった場合にコマンド認識処理を終了する構成としてもよい。   Similarly, the command recognition process is terminated when the above-mentioned embodiment does not satisfy the above-mentioned i) or the conditions for ii) to v) as the termination condition of the command-recognition process in the above-described embodiment. , I) to v) may be configured to terminate the command recognition process when all the conditions are not satisfied. Moreover, it is good also as a structure which complete | finishes command recognition processing, when it stops satisfy | filling the predetermined number of conditions defined beforehand among these, and when it becomes no longer satisfying the determination criteria which combined the predetermined number of specific operation intention determination conditions Alternatively, the command recognition process may be terminated.

2…DPF、4…表示部、12…CPU、13…表示制御部、14…撮像部、16…メモリ、18…顔検出部、20・・・顔面積算出部、26…手検出領域設定部、28…手検出部、30…手面積算出部、32…手動作認識部、34…手動作記憶部 DESCRIPTION OF SYMBOLS 2 ... DPF, 4 ... Display part, 12 ... CPU, 13 ... Display control part, 14 ... Imaging part, 16 ... Memory, 18 ... Face detection part, 20 ... Face area calculation part, 26 ... Hand detection area setting part , 28 ... hand detection unit, 30 ... hand area calculation unit, 32 ... hand motion recognition unit, 34 ... hand motion storage unit

Claims (8)

画像を表示する表示部と、
前記表示部に表示される画像を鑑賞する操作者を撮像する撮像部と、
前記撮像部により撮像した撮像画像に基づいて前記操作者の顔を検出する顔検出部と、
前記顔検出部により検出された前記操作者の前記撮像画像における顔の位置に基づいて前記操作者の手を検出するための手検出領域を設定する手検出領域設定部と、
前記手検出領域において前記操作者の手を検出する手検出部と、
前記手検出部により検出された前記操作者の手の動作、形状又は位置を操作指示として認識するコマンド認識部と、
前記コマンド認識部により認識された前記操作指示に基づいて、前記表示部に表示する画像の表示態様を制御する表示制御部と
を備えることを特徴とする画像表示装置。
A display for displaying an image;
An imaging unit for imaging an operator who appreciates an image displayed on the display unit;
A face detection unit that detects the face of the operator based on a captured image captured by the imaging unit;
A hand detection region setting unit that sets a hand detection region for detecting the operator's hand based on the position of the face in the captured image of the operator detected by the face detection unit;
A hand detection unit for detecting the hand of the operator in the hand detection region;
A command recognition unit for recognizing the operation, shape or position of the operator's hand detected by the hand detection unit as an operation instruction;
An image display device comprising: a display control unit that controls a display mode of an image displayed on the display unit based on the operation instruction recognized by the command recognition unit.
前記顔検出部により検出された前記操作者の顔の位置が前記撮像画像における特定領域に存在するか否かを判定する顔位置判定部を備え、
前記顔位置判定部が、前記顔の位置が前記特定領域に存在すると判定する場合には、前記手検出領域設定部は、前記操作者の顔の位置に基づいて前記操作者の手を検出するための前記手検出領域を設定することを特徴とする請求項1記載の画像表示装置。
A face position determination unit that determines whether or not the position of the operator's face detected by the face detection unit exists in a specific region in the captured image;
When the face position determination unit determines that the face position exists in the specific area, the hand detection area setting unit detects the operator's hand based on the position of the operator's face. The image display apparatus according to claim 1, wherein the hand detection area for setting is set.
前記顔検出部により検出された前記操作者の顔の面積を算出する顔面積算出部と、
前記顔の面積が所定値以上であるか否かを判定する顔面積判定部と
を備え、
前記顔面積判定部が、前記顔の面積が前記所定値以上であると判定する場合には、前記手検出領域設定部は、前記操作者の手を検出するための前記手検出領域を設定することを特徴とする請求項1または2記載の画像表示装置。
A face area calculation unit that calculates an area of the operator's face detected by the face detection unit;
A face area determination unit that determines whether or not the area of the face is a predetermined value or more,
When the face area determination unit determines that the area of the face is greater than or equal to the predetermined value, the hand detection region setting unit sets the hand detection region for detecting the operator's hand The image display device according to claim 1, wherein the image display device is an image display device.
前記顔検出部により前記操作者の顔が検出されている顔検出時間を計測する検出時間計測部と、
前記顔検出時間が所定時間以上であるか否かを判定する時間判定部と
を備え、
前記時間判定部が、前記顔検出時間が所定時間以上であると判定する場合には、前記手検出領域設定部は、前記操作者の手を検出するための前記手検出領域を設定することを特徴とする請求項1〜3の何れか一項に記載の画像表示装置。
A detection time measurement unit that measures a face detection time during which the face of the operator is detected by the face detection unit;
A time determination unit that determines whether or not the face detection time is a predetermined time or more,
When the time determination unit determines that the face detection time is equal to or longer than a predetermined time, the hand detection region setting unit sets the hand detection region for detecting the operator's hand. The image display device according to claim 1, wherein the image display device is a display device.
前記顔検出部により検出された前記操作者の顔の動きを検出する動き検出部を備え、
前記動作速度検出部が、前記顔の動きが所定の値以下であると検出する場合には、前記手検出領域設定部は、前記操作者の手を検出するための前記手検出領域を設定することを特徴とする請求項1〜4の何れか一項に記載の画像表示装置。
A movement detection unit for detecting movement of the face of the operator detected by the face detection unit;
When the motion speed detection unit detects that the movement of the face is equal to or less than a predetermined value, the hand detection region setting unit sets the hand detection region for detecting the operator's hand. The image display apparatus according to claim 1, wherein the image display apparatus is an image display apparatus.
前記顔検出部により検出された前記操作者の前記撮像画像における顔の面積を算出する顔面積算出部と、
前記手検出部により検出された前記操作者の前記撮像画像における手の面積を算出する手面積算出部と、
前記顔の面積と前記手の面積とを比較する面積比較部と
を備え、
前記手検出領域設定部は、前記面積比較部における比較結果に基づいて前記操作者の手を検出するための前記手検出領域を設定することを特徴とする請求項1に記載の画像表示装置。
A face area calculation unit that calculates an area of the face in the captured image of the operator detected by the face detection unit;
A hand area calculation unit that calculates an area of a hand in the captured image of the operator detected by the hand detection unit;
An area comparison unit that compares the area of the face with the area of the hand;
The image display device according to claim 1, wherein the hand detection region setting unit sets the hand detection region for detecting the operator's hand based on a comparison result in the area comparison unit.
前記操作者の手の動作、形状又は位置を所定の操作指示と対応付けて記憶する記憶部を備え、
前記コマンド認識部が、前記操作者の手の動作、形状又は位置が前記記憶部に記憶されている動作、形状又は位置であると認識する場合には、前記表示制御部は、前記手の動作、形状又は位置に対応付けられた操作指示を実行することを特徴とする請求項1〜6の何れか一項に記載の画像表示装置。
A storage unit for storing the operation, shape or position of the operator's hand in association with a predetermined operation instruction;
When the command recognition unit recognizes that the movement, shape or position of the operator's hand is the movement, shape or position stored in the storage unit, the display control unit The image display apparatus according to claim 1, wherein an operation instruction associated with a shape or a position is executed.
前記顔検出部は、前記手検出領域設定部による前記操作者の手を検出するための前記手検出領域が設定された場合には、前記操作者の顔の検出を停止することを特徴とする請求項1〜7の何れか一項に記載の画像表示装置。   The face detection unit stops detecting the operator's face when the hand detection region for detecting the operator's hand is set by the hand detection region setting unit. The image display apparatus as described in any one of Claims 1-7.
JP2009249011A 2009-10-29 2009-10-29 Image display device Expired - Fee Related JP5360406B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009249011A JP5360406B2 (en) 2009-10-29 2009-10-29 Image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009249011A JP5360406B2 (en) 2009-10-29 2009-10-29 Image display device

Publications (2)

Publication Number Publication Date
JP2011095984A true JP2011095984A (en) 2011-05-12
JP5360406B2 JP5360406B2 (en) 2013-12-04

Family

ID=44112822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009249011A Expired - Fee Related JP5360406B2 (en) 2009-10-29 2009-10-29 Image display device

Country Status (1)

Country Link
JP (1) JP5360406B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013030140A (en) * 2011-07-29 2013-02-07 Toshiba Corp Video processor and video processing method
KR20130082216A (en) * 2012-01-11 2013-07-19 한국전자통신연구원 Apparatus and method for tracking human hand by using color features
WO2013175845A1 (en) * 2012-05-23 2013-11-28 Kabushiki Kaisha Toshiba Information processing apparatus, information processing method, and program
US20130321580A1 (en) * 2012-06-05 2013-12-05 Wistron Corporation 3-dimensional depth image generating system and method thereof
JP2016092513A (en) * 2014-10-31 2016-05-23 カシオ計算機株式会社 Image acquisition device, shake reduction method and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149302A (en) * 2000-11-09 2002-05-24 Sharp Corp Interface device and recording medium with interface processing program recorded
JP2003186596A (en) * 2001-12-13 2003-07-04 Seiko Epson Corp Display device and input method of the same
JP2004303014A (en) * 2003-03-31 2004-10-28 Honda Motor Co Ltd Gesture recognition device, its method and gesture recognition program
JP2005202653A (en) * 2004-01-15 2005-07-28 Canon Inc Behavior recognition device and method, animal object recognition device and method, equipment control device and method, and program
JP2007249595A (en) * 2006-03-15 2007-09-27 Omron Corp Display, projector, display system, display method, display program, and recording medium
JP2009037434A (en) * 2007-08-02 2009-02-19 Tokyo Metropolitan Univ Control equipment operation gesture recognition device; control equipment operation gesture recognition system, and control equipment operation gesture recognition program
JP2011505618A (en) * 2007-11-21 2011-02-24 ジェスチャー テック,インコーポレイテッド Device access control

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149302A (en) * 2000-11-09 2002-05-24 Sharp Corp Interface device and recording medium with interface processing program recorded
JP2003186596A (en) * 2001-12-13 2003-07-04 Seiko Epson Corp Display device and input method of the same
JP2004303014A (en) * 2003-03-31 2004-10-28 Honda Motor Co Ltd Gesture recognition device, its method and gesture recognition program
JP2005202653A (en) * 2004-01-15 2005-07-28 Canon Inc Behavior recognition device and method, animal object recognition device and method, equipment control device and method, and program
JP2007249595A (en) * 2006-03-15 2007-09-27 Omron Corp Display, projector, display system, display method, display program, and recording medium
JP2009037434A (en) * 2007-08-02 2009-02-19 Tokyo Metropolitan Univ Control equipment operation gesture recognition device; control equipment operation gesture recognition system, and control equipment operation gesture recognition program
JP2011505618A (en) * 2007-11-21 2011-02-24 ジェスチャー テック,インコーポレイテッド Device access control

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013030140A (en) * 2011-07-29 2013-02-07 Toshiba Corp Video processor and video processing method
KR20130082216A (en) * 2012-01-11 2013-07-19 한국전자통신연구원 Apparatus and method for tracking human hand by using color features
KR101868903B1 (en) * 2012-01-11 2018-06-20 한국전자통신연구원 Apparatus and method for tracking human hand by using color features
WO2013175845A1 (en) * 2012-05-23 2013-11-28 Kabushiki Kaisha Toshiba Information processing apparatus, information processing method, and program
JP2013246514A (en) * 2012-05-23 2013-12-09 Toshiba Corp Information processing apparatus, information processing method, and program
US20130321580A1 (en) * 2012-06-05 2013-12-05 Wistron Corporation 3-dimensional depth image generating system and method thereof
CN103475886A (en) * 2012-06-05 2013-12-25 纬创资通股份有限公司 Stereoscopic depth image establishing system and method thereof
US9041776B2 (en) * 2012-06-05 2015-05-26 Wistron Corporation 3-dimensional depth image generating system and method thereof
CN103475886B (en) * 2012-06-05 2017-12-08 纬创资通股份有限公司 Stereoscopic depth image establishing system and method thereof
JP2016092513A (en) * 2014-10-31 2016-05-23 カシオ計算機株式会社 Image acquisition device, shake reduction method and program

Also Published As

Publication number Publication date
JP5360406B2 (en) 2013-12-04

Similar Documents

Publication Publication Date Title
US20190121227A1 (en) Projector
US8831282B2 (en) Imaging device including a face detector
US8350896B2 (en) Terminal apparatus, display control method, and display control program
US8659681B2 (en) Method and apparatus for controlling zoom using touch screen
JP4702418B2 (en) Imaging apparatus, image region existence determination method and program
US8531576B2 (en) Information processing apparatus, information processing method, and program
JP2010086336A (en) Image control apparatus, image control program, and image control method
JP5720275B2 (en) Imaging apparatus and imaging method
US9807299B2 (en) Image capture methods and systems with positioning and angling assistance
US20130235086A1 (en) Electronic zoom device, electronic zoom method, and program
JP5258399B2 (en) Image projection apparatus and control method thereof
US10044943B2 (en) Display control apparatus, display controlling method, and program, for enlarging and displaying part of image around focus detection area
JP4730478B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP2011095985A (en) Image display apparatus
JP5360406B2 (en) Image display device
JP2009199049A (en) Imaging apparatus and imaging apparatus control method, and computer program
US20170111574A1 (en) Imaging apparatus and imaging method
JP2009086703A (en) Image display device, image display method and image display program
KR101493591B1 (en) Imaging device, imaging processing method and storage medium
JPWO2018150569A1 (en) Gesture recognition device, gesture recognition method, projector including gesture recognition device, and video signal supply device
US8749688B2 (en) Portable device, operating method, and computer-readable storage medium
EP2690859B1 (en) Digital photographing apparatus and method of controlling same
JP5951966B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP2006186658A (en) Image display apparatus and cellular phone
CN113873160B (en) Image processing method, device, electronic equipment and computer storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130820

R150 Certificate of patent or registration of utility model

Ref document number: 5360406

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees