JP6033044B2 - Image display apparatus, control method thereof, control program, and imaging apparatus - Google Patents

Image display apparatus, control method thereof, control program, and imaging apparatus Download PDF

Info

Publication number
JP6033044B2
JP6033044B2 JP2012244455A JP2012244455A JP6033044B2 JP 6033044 B2 JP6033044 B2 JP 6033044B2 JP 2012244455 A JP2012244455 A JP 2012244455A JP 2012244455 A JP2012244455 A JP 2012244455A JP 6033044 B2 JP6033044 B2 JP 6033044B2
Authority
JP
Japan
Prior art keywords
display
detection
human body
face
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012244455A
Other languages
Japanese (ja)
Other versions
JP2014093715A (en
Inventor
明美 菊地
明美 菊地
悠一 野元
悠一 野元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012244455A priority Critical patent/JP6033044B2/en
Publication of JP2014093715A publication Critical patent/JP2014093715A/en
Application granted granted Critical
Publication of JP6033044B2 publication Critical patent/JP6033044B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像表示装置、その制御方法、および制御プログラム、並びに撮像装置に関し、特に、画像の特定領域を規定する特定情報の表示を行うための技術に関する。   The present invention relates to an image display device, a control method thereof, a control program, and an imaging device, and more particularly, to a technique for displaying specific information that defines a specific region of an image.

一般に、デジタルカメラなどの撮像装置には、撮影の結果得られた画像を表示するための画像表示装置が備えられている。そして、この種の撮像装置では、被写体の特定領域を検出して当該特定領域を特定する検出枠を画像とともに表示している。   In general, an imaging device such as a digital camera is provided with an image display device for displaying an image obtained as a result of photographing. In this type of imaging apparatus, a specific area of the subject is detected and a detection frame for specifying the specific area is displayed together with the image.

例えば、被写体の特定領域として顔領域を検出して、当該顔領域を示す検出枠を表示装置に表示するようにした撮像装置がある(特許文献1参照)。この場合に、被写体の顔の特徴値(顔の角度など)に応じて検出枠の属性(検出枠の色および形状など)を変更して表示装置に表示すれば、ユーザは被写体の顔の特徴を直感的に把握することができる。   For example, there is an imaging apparatus that detects a face area as a specific area of a subject and displays a detection frame indicating the face area on a display device (see Patent Document 1). In this case, if the attributes of the detection frame (such as the color and shape of the detection frame) are changed according to the facial feature value (such as the face angle) of the subject and displayed on the display device, the user can display the facial feature of the subject. Can be grasped intuitively.

さらに、被写体の顔領域を検出する顔検出部に加えて、被写体の人体の部分(人体領域)を検出する人体検出部を備える監視カメラなどの撮像装置が知られている。   Furthermore, in addition to a face detection unit that detects a face area of a subject, an imaging device such as a monitoring camera that includes a human body detection unit that detects a human body part (human body area) of the subject is known.

ところで、顔検出部および人体検出部を備える撮像装置では、顔検出部および人体検出部が独立的に動作しかつその処理時間が異なることがある。そして、顔検出結果および人体検出結果に応じてそれぞれ顔検出枠および人体検出枠が表示装置に表示される。   By the way, in an imaging device including a face detection unit and a human body detection unit, the face detection unit and the human body detection unit may operate independently and processing times thereof may be different. Then, a face detection frame and a human body detection frame are displayed on the display device according to the face detection result and the human body detection result, respectively.

図11は、従来の顔検出枠および人体検出枠の表示の一例を示す図である。   FIG. 11 is a diagram illustrating an example of display of a conventional face detection frame and human body detection frame.

図示のように、表示装置200の画面上には、顔検出枠201が表示されるとともに、顔検出枠201を囲むようにして人体検出枠202が表示される。   As illustrated, a face detection frame 201 is displayed on the screen of the display device 200, and a human body detection frame 202 is displayed so as to surround the face detection frame 201.

ここで、従来の顔検出枠および人体検出枠の表示処理について説明する。   Here, conventional display processing of the face detection frame and the human body detection frame will be described.

図12は従来の顔検出枠および人体検出枠の表示タイミングを示すタイミングチャートである。なお、図12においては、顔検出処理が人体検出処理よりも処理が早く終了するものとする。   FIG. 12 is a timing chart showing the display timing of the conventional face detection frame and human body detection frame. In FIG. 12, it is assumed that the face detection process is completed earlier than the human body detection process.

時間1において、被写体D1がキャプチャされて、被写体D1に係る顔検出処理および人体検出処理が開始される。続いて、時間2において被写体D1の顔検出が完了して、被写体D1の顔検出枠が画面表示される。また、時間2において被写体D2がキャプチャされて、被写体D2に係る顔検出処理および人体検出処理が開始される。   At time 1, the subject D1 is captured, and the face detection process and the human body detection process related to the subject D1 are started. Subsequently, the face detection of the subject D1 is completed at time 2, and the face detection frame of the subject D1 is displayed on the screen. In addition, the subject D2 is captured at time 2, and the face detection process and the human body detection process related to the subject D2 are started.

時間3において、被写体D2の顔検出が完了して、被写体D2の顔検出枠が画面表示される。また、時間3において被写体D3がキャプチャされて、被写体D3に係る顔検出処理および人体検出処理が開始される。   At time 3, the face detection of the subject D2 is completed, and the face detection frame of the subject D2 is displayed on the screen. In addition, the subject D3 is captured at time 3, and the face detection process and the human body detection process related to the subject D3 are started.

時間4において、被写体D3の顔検出が完了して、被写体D3の顔検出枠が画面表示される。この際、被写体D1に係る人体検出処理が完了しているので、被写体D1の人体検出枠が画面表示される。また、時間4において、被写体D4がキャプチャされて、被写体D4に係る顔検出処理および人体検出処理が開始される。   At time 4, the face detection of the subject D3 is completed, and the face detection frame of the subject D3 is displayed on the screen. At this time, since the human body detection process related to the subject D1 is completed, the human body detection frame of the subject D1 is displayed on the screen. At time 4, the subject D4 is captured, and the face detection process and the human body detection process related to the subject D4 are started.

このようにして、時間(t+2)まで同様にして処理が行われる。つまり、レリーズが行われるまで、時間4における処理と同様の処理が繰り返される。この結果、時間(t+1)では、被写体Dtまでの顔検出枠が画面表示され、被写体D(t−2)までの人体検出枠が画面表示される。   In this way, the process is performed in the same manner until time (t + 2). That is, the same processing as that in time 4 is repeated until the release is performed. As a result, at time (t + 1), the face detection frame up to the subject Dt is displayed on the screen, and the human body detection frame up to the subject D (t-2) is displayed on the screen.

図13は、図12に示すタイミングチャートに応じた処理によって画面表示される顔検出枠および人体検出枠の一例を示す図である。そして、図13(a)は時間tにおける画面表示を示す図であり、図13(b)は時間(t+2)における画面表示を示す図である。   FIG. 13 is a diagram illustrating an example of a face detection frame and a human body detection frame displayed on the screen by processing according to the timing chart illustrated in FIG. FIG. 13A shows a screen display at time t, and FIG. 13B shows a screen display at time (t + 2).

図13(a)に示すように、時間tにおいて、被写体203の顔検出枠201が表示されると、時間(t+2)において、図13(b)に示すように、被写体203の人体検出枠202が表示されることになる。つまり、時間tにおいて顔検出が完了した時点で顔検出枠201のみが表示され、時間(t+2)において顔検出とともに人体検出が完了した時点で顔検出枠202ととともに人体検出枠203が表示されることになる。   As shown in FIG. 13A, when the face detection frame 201 of the subject 203 is displayed at time t, the human body detection frame 202 of the subject 203 is shown at time (t + 2) as shown in FIG. Will be displayed. That is, only the face detection frame 201 is displayed when the face detection is completed at the time t, and the human body detection frame 203 is displayed together with the face detection frame 202 when the human body detection is completed together with the face detection at the time (t + 2). It will be.

特開2007−274207号公報JP 2007-274207 A

このように、顔検出部および人体検出部が独立的に動作し、かつ各々の処理時間が異なる場合には、早く検出された領域の検出枠(ここでは、顔検出枠)のみが一時的に表示されることがある。   As described above, when the face detection unit and the human body detection unit operate independently and each processing time is different, only the detection frame of the area detected earlier (here, the face detection frame) is temporarily stored. May be displayed.

そして、顔検出枠が表示されてから人体検出枠が表示されるまでの時間の開きが長いと、ユーザが違和感を覚える可能性がある。   If the time interval from when the face detection frame is displayed to when the human body detection frame is displayed is long, the user may feel uncomfortable.

さらに、上述のように、顔検出処理および人体検出処理に要する時間が異なる場合に、被写体が移動していると、顔検出枠のずれと人体検出枠のずれが異なってしまう。   Further, as described above, when the time required for the face detection process and the human body detection process is different, if the subject is moving, the shift of the face detection frame and the shift of the human body detection frame are different.

図14は、従来の顔検出枠および人体検出枠のずれを説明するための図である。そして、図14(a)は顔検出枠のみが表示された状態を示す図であり、図14(b)は顔検出枠および人体検出枠が表示された状態を示す図である。   FIG. 14 is a diagram for explaining a shift between a conventional face detection frame and a human body detection frame. FIG. 14A is a diagram showing a state where only the face detection frame is displayed, and FIG. 14B is a diagram showing a state where the face detection frame and the human body detection frame are displayed.

図14において、被写体203は静止しており、被写体204は移動しているものとする。この場合に、顔検出処理および人体検出処理に要する時間が異なると、まず、時間tにおいて、被写体203の顔検出枠201が表示されるとともに、被写体204の顔検出枠205が表示されているものとする。   In FIG. 14, it is assumed that the subject 203 is stationary and the subject 204 is moving. In this case, when the time required for the face detection process and the human body detection process is different, first, the face detection frame 201 of the subject 203 is displayed at the time t, and the face detection frame 205 of the subject 204 is displayed. And

そして、時間(t+n)において(ここでは、n=2である)、被写体203の人体検出枠202が表示されるとともに、被写体204の顔検出枠206が表示されたとする。この場合、人体検出処理は顔検出処理に比べて時間を要するので、被写体204のように被写体が移動していると、顔検出処理から人体検出処理までの時間に応じて、人体検出枠206が実際に被写体の存在する位置からずれて表示されてしまうことになる。   Then, it is assumed that the human body detection frame 202 of the subject 203 is displayed and the face detection frame 206 of the subject 204 is displayed at time (t + n) (here, n = 2). In this case, since the human body detection process requires more time than the face detection process, if the subject moves like the subject 204, the human body detection frame 206 is set according to the time from the face detection process to the human body detection process. Actually, the image is displayed with a deviation from the position where the subject exists.

この結果、ユーザは人体検出枠によって移動する被写体を的確に視認することが困難となってしまう。   As a result, it becomes difficult for the user to accurately visually recognize the moving subject by the human body detection frame.

従って、本発明の第1の目的は、被写体の顔領域を示す枠および人体領域を示す枠を同時に画面表示することのできる画像表示装置、その制御方法、および制御プログラム、並びに撮像装置を提供することにある。   Accordingly, a first object of the present invention is to provide an image display device capable of simultaneously displaying a frame indicating a face region of a subject and a frame indicating a human body region on the screen, a control method thereof, a control program, and an imaging device. There is.

また、本発明の第2の目的は、移動する被写体において検出を行った領域と検出枠とのずれを低減することのできる画像表示装置、その制御方法、および制御プログラム、並びに撮像装置を提供することにある。   A second object of the present invention is to provide an image display device, a control method thereof, a control program, and an imaging device capable of reducing a shift between a detection area and a detection frame in a moving subject. There is.

上記の目的を達成するために、本発明による画像表示装置は、被写体像を含む画像を表示部に表示する際、前記被写体像について第1の領域を特定する第1の表示体と第2の領域を特定する第2の表示体とを前記被写体像に対応づけて表示する画像表示装置であって、前記画像において前記被写体像における前記第1の領域の位置を検出して第1の検出結果を求める第1の検出手段と、前記画像において前記被写体像における前記第2の領域の位置を検出して第2の検出結果を求める第2の検出手段と、前記第1の検出結果に応じて前記第2の領域の位置を推定して推定結果を求める推定手段と、前記第1の検出結果、前記第2の検出結果、および前記推定結果に応じてそれぞれ前記第1の表示体、前記第2の表示体、および前記第2の領域の位置を推定する推定表示体を前記表示部に表示制御する表示制御手段とを有し、前記推定手段は、前記第1の検出結果に応じて前記第1の表示体が表示される際、前記第2の検出手段によって前記第2の検出結果が得られていない場合にのみ、前記第1の検出結果に応じて前記推定結果を求めることを特徴とする。   In order to achieve the above object, an image display device according to the present invention, when displaying an image including a subject image on a display unit, a first display body that specifies a first region for the subject image, and a second display An image display device that displays a second display for specifying a region in association with the subject image, wherein the first detection result is obtained by detecting the position of the first region in the subject image in the image. According to the first detection result, the second detection means for detecting the position of the second region in the subject image in the image and obtaining the second detection result, and the first detection result. Estimating means for estimating the position of the second region and obtaining an estimation result; and the first display body, the second detection result, and the estimation result, respectively, according to the first detection result, the second detection result, and the estimation result. 2 display bodies and the second region Display control means for controlling display of the estimated display body for estimating the position on the display unit, and the estimating means displays the first display body according to the first detection result when the first display body is displayed. The estimation result is obtained according to the first detection result only when the second detection result is not obtained by the second detection means.

本発明によれば、被写体像の顔領域である第1の領域を示す枠および人体領域である第2の領域を示す枠を同時に画面表示することができ、ユーザは短時間で被写体全体の視認を行うことができる。   According to the present invention, the frame indicating the first area that is the face area of the subject image and the frame indicating the second area that is the human body area can be simultaneously displayed on the screen, and the user can view the entire subject in a short time. It can be performed.

また、本発明によれば、移動する被写体において検出を行った領域と検出枠とのずれを低減することができ、ユーザは当該検出枠によって移動する被写体を的確に視認することができる。   Further, according to the present invention, it is possible to reduce the difference between the detection area and the detection frame in the moving subject, and the user can accurately visually recognize the moving subject by the detection frame.

本発明の第1の実施形態による画像表示装置を備える撮像装置の一例についてその構成を示すブロック図である。It is a block diagram which shows the structure about an example of an imaging device provided with the image display apparatus by the 1st Embodiment of this invention. 図1に示す顔検出部によって得られた顔情報の一例を示す図である。It is a figure which shows an example of the face information obtained by the face detection part shown in FIG. 図1に示す人体検出部によって得られた人体情報の一例を示す図である。It is a figure which shows an example of the human body information obtained by the human body detection part shown in FIG. 図1に示すシステム制御部が顔検出枠を生成する際に必要な顔表示情報の一例を示す図である。It is a figure which shows an example of the face display information required when the system control part shown in FIG. 1 produces | generates a face detection frame. 図1に示すシステム制御部が人体検出枠を生成する際に必要な人体表示情報の一例を示す図である。It is a figure which shows an example of the human body display information required when the system control part shown in FIG. 1 produces | generates a human body detection frame. 図1に示す撮像装置100で行われる顔検出枠および人体検出枠の枠表示処理を説明するためのフローチャートである。3 is a flowchart for explaining frame display processing of a face detection frame and a human body detection frame performed by the imaging apparatus 100 shown in FIG. 1. 図1に示す撮像装置で行われた枠表示処理の結果を説明するための図であり、(a)は顔検出枠および人体予測枠が表示された状態を示す図、(b)は顔検出枠および人体検出枠が表示された状態を示す図、(c)は顔検出枠のみが表示された状態を示す図、(d)は人体検出枠のみが表示された状態を示す図である。2A and 2B are diagrams for explaining the result of frame display processing performed by the imaging apparatus illustrated in FIG. 1, in which FIG. 1A illustrates a state in which a face detection frame and a human body prediction frame are displayed, and FIG. The figure which shows the state where the frame and the human body detection frame were displayed, (c) is the figure which shows the state where only the face detection frame is displayed, (d) is the figure which shows the state where only the human body detection frame is displayed. 図1に示す撮像装置で行われる顔検出枠、人体検出枠、および人体予測枠の表示タイミングを示すタイミングチャートである。It is a timing chart which shows the display timing of the face detection frame, human body detection frame, and human body prediction frame which are performed with the imaging device shown in FIG. 本発明の第1の実施形態による撮像装置で行われる枠表示処理を説明するためのフローチャートである。It is a flowchart for demonstrating the frame display process performed with the imaging device by the 1st Embodiment of this invention. 本発明の第2の実施形態による撮像装置で行われる移動ベクトルの算出を説明するための図であり、(a)は時刻tにおける顔検出枠の表示を示す図、(b)は時刻(t+n)における顔検出枠および人体検出枠の表示を示す図である。It is a figure for demonstrating the calculation of the movement vector performed with the imaging device by the 2nd Embodiment of this invention, (a) is a figure which shows the display of the face detection frame in the time t, (b) is time (t + n). FIG. 6 is a diagram illustrating display of a face detection frame and a human body detection frame in FIG. 従来の顔検出枠および人体検出枠の表示の一例を示す図である。It is a figure which shows an example of the display of the conventional face detection frame and a human body detection frame. 従来の顔検出枠および人体検出枠の表示タイミングを示すタイミングチャートである。It is a timing chart which shows the display timing of the conventional face detection frame and human body detection frame. 図12に示すタイミングチャートに応じた処理によって画面表示される顔検出枠および人体検出枠の一例を示す図であり、(a)は時刻tにおける画面表示を示す図、(b)は時刻(t+2)における画面表示を示す図である。It is a figure which shows an example of the face detection frame displayed on the screen by the process according to the timing chart shown in FIG. 12, and a human body detection frame, (a) is a figure which shows the screen display at the time t, (b) is time (t + 2). FIG. 従来の顔検出枠および人体検出枠のずれを説明するための図であり、(a)は顔検出枠のみが表示された状態を示す図、(b)は顔検出枠および人体検出枠が表示された状態を示す図である。It is a figure for demonstrating the shift | offset | difference of the conventional face detection frame and a human body detection frame, (a) is a figure which shows the state in which only the face detection frame was displayed, (b) is a face detection frame and a human body detection frame displayed It is a figure which shows the state made.

以下、本発明の実施の形態による画像表示装置の一例について図面を参照して説明する。   Hereinafter, an example of an image display device according to an embodiment of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、本発明の第1の実施形態による画像表示装置を備える撮像装置の一例についてその構成を示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram illustrating a configuration of an example of an imaging apparatus including an image display apparatus according to the first embodiment of the present invention.

図示の撮像装置はデジタルカメラ(以下単にカメラと呼ぶ)であり、カメラ100はフォーカスレンズを含む撮影レンズユニット(以下単に撮影レンズと呼ぶ)103を有している、撮影レンズ103の後段には絞り機能を備えるシャッター101が配置されている。   The illustrated image pickup apparatus is a digital camera (hereinafter simply referred to as a camera), and the camera 100 has a photographing lens unit (hereinafter simply referred to as a photographing lens) 103 including a focus lens. A shutter 101 having a function is arranged.

撮影レンズ103およびシャッター101を通過した光学像(被写体像)は撮像素子である撮像部22に結像する。この撮像部22はCCD又はCMOSイメージセンサで構成されており、光学像に応じた電気信号(アナログ信号、つまり、画像信号)を出力する。そして、このアナログ信号はA/D変換器23に与えられ、ここで、デジタル信号(画像データ)に変換される。   An optical image (subject image) that has passed through the photographing lens 103 and the shutter 101 is formed on the imaging unit 22 that is an imaging element. The imaging unit 22 is composed of a CCD or CMOS image sensor, and outputs an electrical signal (analog signal, that is, an image signal) corresponding to the optical image. This analog signal is supplied to the A / D converter 23 where it is converted into a digital signal (image data).

なお、撮影レンズ103の前面側にはバリア102が配置されている。このバリア102によって撮影レンズ103、シャッター101、および撮像部22を含む撮像系が覆われ、撮像系の汚れおよび破損を防止するようにしている。   A barrier 102 is disposed on the front side of the photographic lens 103. The imaging system including the photographing lens 103, the shutter 101, and the imaging unit 22 is covered by the barrier 102, so that the imaging system is prevented from being soiled and damaged.

画像処理部24はA/D変換器23からの画像データ、又はメモリ制御部15からの画像データに対して所定の画素補間および縮小などのリサイズ処理、そして、色変換処理を行う。また、画像処理部24は、撮影の結果得られた画像データを用いて所定の演算処理を行う。そして、システム制御部50は当該演算結果に基づいて露光制御および測距制御を行う。つまり、システム制御部50はTTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、およびEF(フラッシュプリ発光)処理を行う。   The image processing unit 24 performs resize processing such as predetermined pixel interpolation and reduction, and color conversion processing on the image data from the A / D converter 23 or the image data from the memory control unit 15. Further, the image processing unit 24 performs a predetermined calculation process using image data obtained as a result of photographing. The system control unit 50 performs exposure control and distance measurement control based on the calculation result. That is, the system control unit 50 performs TTL (through-the-lens) AF (autofocus) processing, AE (automatic exposure) processing, and EF (flash pre-flash) processing.

さらに、画像処理部24は、撮影の結果得られた画像データを用いて所定の演算処理を行って、当該演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。   Further, the image processing unit 24 performs predetermined calculation processing using image data obtained as a result of shooting, and performs TTL AWB (auto white balance) processing based on the calculation result.

A/D変換器23から出力された画像データは、画像処理部24およびメモリ制御部15を介して、又はメモリ制御部15を介してメモリ32に書き込まれる。メモリ32には、A/D変換器23の出力である画像データが書き込まれるとともに、表示部28に表示するための画像データが格納される。なお、メモリ32は、所定枚数の静止画像データおよび所定時間の動画像データ、そして、音声データを格納するための十分な記憶容量を有している。加えて、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。   The image data output from the A / D converter 23 is written into the memory 32 via the image processing unit 24 and the memory control unit 15 or via the memory control unit 15. In the memory 32, image data that is output from the A / D converter 23 is written, and image data to be displayed on the display unit 28 is stored. Note that the memory 32 has a sufficient storage capacity for storing a predetermined number of still image data, moving image data for a predetermined time, and audio data. In addition, the memory 32 also serves as an image display memory (video memory).

D/A変換器13はメモリ32に格納されている画像表示用の画像データをアナログ信号に変換して表示部28に与える。これによって、表示部28には画像データに応じた画像が表示される。なお、表示部28は、例えば、LCDである。   The D / A converter 13 converts the image display image data stored in the memory 32 into an analog signal and supplies it to the display unit 28. As a result, an image corresponding to the image data is displayed on the display unit 28. The display unit 28 is, for example, an LCD.

不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えば、EEPROMが用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数およびプログラムなどが記憶される。このプログラムとは後述する各種フローチャートを実行するためのプログラムである。   The nonvolatile memory 56 is an electrically erasable / recordable memory, and, for example, an EEPROM is used. The nonvolatile memory 56 stores constants and programs for operating the system control unit 50. This program is a program for executing various flowcharts described later.

システム制御部50はカメラ100の制御を司る。システム制御部50は、前述の不揮発性メモリ56に記録されたプログラムを実行して、後述する各処理を行う。システムメモリ52として、例えば、RAMが用いられる。システムメモリ52には、システム制御部50の動作用の定数、変数、および不揮発性メモリ56から読み出したプログラムなどが展開される。また、システム制御部50はメモリ32、D/A変換器13、および表示部28などを制御して表示制御を実行する。   The system control unit 50 controls the camera 100. The system control unit 50 executes a program recorded in the above-described nonvolatile memory 56 and performs each process described later. For example, a RAM is used as the system memory 52. In the system memory 52, constants and variables for the operation of the system control unit 50, a program read from the nonvolatile memory 56, and the like are expanded. Further, the system control unit 50 executes display control by controlling the memory 32, the D / A converter 13, the display unit 28, and the like.

モード切替スイッチ60、シャッターボタン61、および操作部70はシステム制御部50に各種の動作指示を入力するための入力操作部である。シャッターボタン61は撮影指示を行うためのものであり、第1シャッタースイッチおよび第2シャッタースイッチを有している。   The mode switch 60, the shutter button 61, and the operation unit 70 are input operation units for inputting various operation instructions to the system control unit 50. The shutter button 61 is for instructing photographing and has a first shutter switch and a second shutter switch.

モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画記録モード、および再生モードなどのいずれかに切り替える際に用いられる。   The mode switch 60 is used when the operation mode of the system control unit 50 is switched to any one of a still image recording mode, a moving image recording mode, a reproduction mode, and the like.

シャッターボタン61の操作によって、シャッターボタン61が所謂半押し状態となると、第1シャッタースイッチがオン(撮影準備指示)となって、第1シャッタースイッチ信号SW1がシステム制御部50に与えられる。そして、第1シャッタースイッチ信号SW1を受けると、システム制御部50はAF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、およびEF(フラッシュプリ発光)処理などが開始する。   When the shutter button 61 is in a so-called half-pressed state by operating the shutter button 61, the first shutter switch is turned on (imaging preparation instruction), and the first shutter switch signal SW1 is given to the system control unit 50. When the first shutter switch signal SW1 is received, the system control unit 50 starts AF (autofocus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, EF (flash pre-flash) processing, and the like. To do.

シャッターボタン61が所謂全押し状態となると、第2シャッタースイッチがオン(撮影指示)となって、第2シャッタースイッチ信号SW2がシステム制御部50に与えられる。第2シャッタースイッチ信号SW2を受けると、システム制御部50は撮像部22から画像信号を読み出して記録媒体200に画像データを書き込むまでの一連の撮影処理の動作を開始する。   When the shutter button 61 is in a fully-pressed state, the second shutter switch is turned on (shooting instruction), and the second shutter switch signal SW2 is given to the system control unit 50. Upon receiving the second shutter switch signal SW2, the system control unit 50 starts a series of photographing processing operations from reading out an image signal from the imaging unit 22 to writing image data in the recording medium 200.

表示部28に表示される種々の機能アイコンを選択操作すると、操作部70に備えられたボタンおよびキーなどの各操作部材には、場面毎に適宜機能が割り当てられて、各種機能ボタンとして機能する。   When various function icons displayed on the display unit 28 are selected and operated, the operation members such as buttons and keys provided in the operation unit 70 are appropriately assigned functions for each scene and function as various function buttons. .

機能ボタンとして、例えば、終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、および属性変更ボタンがある。例えば、メニューボタンが押されると、各種の設定を行うためのメニュー画面が表示部28に表示される。ユーザは表示部28に表示されたメニュー画面および4方向ボタン又はSETボタンを用いて直感的に各種の設定を行うことができる。   Examples of the function buttons include an end button, a return button, an image advance button, a jump button, a narrowing button, and an attribute change button. For example, when a menu button is pressed, a menu screen for performing various settings is displayed on the display unit 28. The user can make various settings intuitively using the menu screen displayed on the display unit 28 and the four-way button or the SET button.

電源制御部80は、電池検出回路、DC−DCコンバータ、および通電するブロックを切り替えるスイッチ回路などを有しており、電池装着の有無、電池の種類、および電池残量の検出を行う。また、電源制御部80は検出結果およびシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部に供給する。   The power supply control unit 80 includes a battery detection circuit, a DC-DC converter, a switch circuit that switches a block to be energized, and the like, and detects whether or not a battery is installed, the type of battery, and the remaining battery level. Further, the power control unit 80 controls the DC-DC converter based on the detection result and the instruction from the system control unit 50, and supplies a necessary voltage to each unit including the recording medium 200 for a necessary period.

電源部30はアルカリ電池又はリチウム電池などの一次電池、又はNiCd電池、NiMH電池、又はLi電池等の二次電池、そして、ACアダプターなどを有している。インターフェース(I/F)18はメモリカード又はハードディスクなどの記録媒体200とのインターフェースである。記録媒体200がメモリカードである場合には、当該メモリカードは、例えば、半導体メモリで構成される。電源スイッチ72はカメラ100の電源のオン/オフを行うためのスイッチである。   The power supply unit 30 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, and an AC adapter. An interface (I / F) 18 is an interface with a recording medium 200 such as a memory card or a hard disk. When the recording medium 200 is a memory card, the memory card is constituted by a semiconductor memory, for example. The power switch 72 is a switch for turning on / off the power of the camera 100.

図示のように、システム制御部50には顔検出部(顔検出手段)104および人体検出部(体検出手段)105が接続されており、顔検出部104はメモリ32に格納された画像データにおいて被写体像の顔領域(第1の領域)を検出する。人体検出部105はメモリ32に格納された画像データにおいて被写体像の人体領域(第2の領域:体領域)を検出する。これら顔領域および人体領域の各々は画像における特定領域である。   As shown in the figure, a face detection unit (face detection unit) 104 and a human body detection unit (body detection unit) 105 are connected to the system control unit 50, and the face detection unit 104 is connected to the image data stored in the memory 32. The face area (first area) of the subject image is detected. The human body detection unit 105 detects a human body region (second region: body region) of the subject image in the image data stored in the memory 32. Each of the face area and the human body area is a specific area in the image.

上述のカメラ100は、所謂中央1点AFおよび顔AFを用いた撮影が可能である。ここで、中央1点AFとは撮影画面の中央位置1点に対してAFを行うことをいう。また、顔AFとは顔検出機能(つまり、顔検出部104)によって検出された顔領域に対してAFを行うことをいう。   The above-described camera 100 can perform shooting using so-called center single point AF and face AF. Here, the central one-point AF means that AF is performed on one central position on the photographing screen. The face AF refers to performing AF on the face area detected by the face detection function (that is, the face detection unit 104).

ここで、顔検出機能について説明する。システム制御部50の制御下で、顔検出部104はメモリ32から入力した画像データに対して水平方向バンドパスフィルタ処理を行う。さらに、システム制御部50の制御下で、顔検出部104は水平方向バンドパスフィルタ処理された画像データに対して垂直方向バンドパスフィルタ処理を行う。これら水平および垂直方向バンドパスフィルタ処理によって、画像データからエッジ成分が検出される。   Here, the face detection function will be described. Under the control of the system control unit 50, the face detection unit 104 performs horizontal bandpass filter processing on the image data input from the memory 32. Further, under the control of the system control unit 50, the face detection unit 104 performs vertical bandpass filter processing on the image data that has been subjected to horizontal bandpass filter processing. By these horizontal and vertical band pass filter processes, edge components are detected from the image data.

続いて、システム制御部50の制御下で、顔検出部104は検出されたエッジ成分に関してパターンマッチングを行って、目、鼻、口、および耳の候補群を抽出する。そして、システム制御部50の制御下で、顔検出部104は抽出された目の候補群において予め設定された条件(例えば、2つの目の距離および傾きなどの条件)を満たす候補を目の対と判定する。そして、顔検出部104は目の対を目の候補群として絞り込む。   Subsequently, under the control of the system control unit 50, the face detection unit 104 performs pattern matching on the detected edge component, and extracts a candidate group of eyes, nose, mouth, and ears. Then, under the control of the system control unit 50, the face detection unit 104 selects candidates that satisfy a preset condition (for example, conditions such as the distance and inclination of two eyes) in the extracted eye candidate group. Is determined. Then, the face detection unit 104 narrows the eye pairs as eye candidate groups.

さらに、システム制御部50の制御下で、顔検出部104は絞り込んだ目の候補群と当該目に対応して顔を形成する他のパーツ(鼻、口、耳)とを対応づける。さらに、顔検出部104は予め設定された非顔条件フィルタ処理を行って、顔(顔領域)を検出する。そして、顔検出部104は顔領域の検出結果を示す顔情報をシステム制御部50に出力する。システム制御部50は顔情報をシステムメモリ52に記憶する。   Furthermore, under the control of the system control unit 50, the face detection unit 104 associates the narrowed-down eye candidate group with other parts (nose, mouth, ear) that form a face corresponding to the eye. Further, the face detection unit 104 performs a preset non-face condition filtering process to detect a face (face area). Then, the face detection unit 104 outputs face information indicating the detection result of the face area to the system control unit 50. The system control unit 50 stores face information in the system memory 52.

次に、人体検出機能について説明する。人体検出部105はメモリ32から入力した画像データに対して水平方向バンドパスフィルタ処理を行う。さらに、システム制御部50の制御下で、顔検出部104は水平方向バンドパスフィルタ処理された画像データに対して垂直方向バンドパスフィルタ処理を行う。これら水平および垂直方向バンドパスフィルタ処理によって、画像データからエッジ成分が検出される。   Next, the human body detection function will be described. The human body detection unit 105 performs horizontal bandpass filter processing on the image data input from the memory 32. Further, under the control of the system control unit 50, the face detection unit 104 performs vertical bandpass filter processing on the image data that has been subjected to horizontal bandpass filter processing. By these horizontal and vertical band pass filter processes, edge components are detected from the image data.

次に、システム制御部50の制御下で、人体検出部105は検出されたエッジ成分に関してパターンマッチングを行って、人体領域の輪郭形状に相当するか否かを判定する。そして、人体検出部105は人体領域の輪郭形状に相当するエッジ成分を人体領域であるとする。人体検出部105は人体領域の検出結果を示す人体情報をシステム制御部50に出力する。システム制御部50は人体情報をシステムメモリ52に記憶する。人体の形状パターンは、顔の形状パターンに比較してその種類が多いため、人体検出部105による人体領域の検出に要する時間は、顔検出部104による顔領域の検出に要する時間よりも長くなる。   Next, under the control of the system control unit 50, the human body detection unit 105 performs pattern matching on the detected edge component, and determines whether or not it corresponds to the contour shape of the human body region. The human body detection unit 105 assumes that an edge component corresponding to the contour shape of the human body region is the human body region. The human body detection unit 105 outputs human body information indicating the detection result of the human body region to the system control unit 50. The system control unit 50 stores human body information in the system memory 52. Since the human body shape pattern has more types than the face shape pattern, the time required for the human body region detection by the human body detection unit 105 is longer than the time required for the face detection unit 104 to detect the face region. .

図2は、図1に示す顔検出部104によって得られた顔情報(顔検出情報ともいう)の一例を示す図である。   FIG. 2 is a diagram illustrating an example of face information (also referred to as face detection information) obtained by the face detection unit 104 illustrated in FIG.

顔情報はX軸(pixel)およびY軸(pixel)を備えており、X軸には顔水平検出位置(Xf)307が規定されている。この顔水平検出位置(Xf)307は顔検出部104で検出された顔領域における水平方向(X軸方向)の始点となる位置である。   The face information includes an X axis (pixel) and a Y axis (pixel), and a face horizontal detection position (Xf) 307 is defined on the X axis. The face horizontal detection position (Xf) 307 is a position that is the starting point in the horizontal direction (X-axis direction) in the face area detected by the face detection unit 104.

さらに、Y軸には顔垂直検出位置(Yf)308が規定されている。この顔垂直検出位置(Yf)308は顔検出部104で検出された顔領域における垂直方向(Y軸方向)の始点となる位置である。   Further, a face vertical detection position (Yf) 308 is defined on the Y axis. The face vertical detection position (Yf) 308 is a position that is a start point in the vertical direction (Y-axis direction) in the face area detected by the face detection unit 104.

また、顔情報には、顔水平検出サイズ(Hf)302が規定されている。この顔水平検出サイズ(Hf)302は顔領域の水平方向の大きさを示すサイズ情報である。そして、顔情報には顔垂直検出サイズ(Vf)303が規定されている。この顔垂直検出サイズ(Vf)303は顔領域の垂直方向の大きさを示すサイズ情報である。   In the face information, a face horizontal detection size (Hf) 302 is defined. The face horizontal detection size (Hf) 302 is size information indicating the size of the face area in the horizontal direction. In the face information, a face vertical detection size (Vf) 303 is defined. The face vertical detection size (Vf) 303 is size information indicating the vertical size of the face area.

なお、顔検出位置情報301は顔水平検出位置307および顔垂直表示位置308の集合を示している。また、顔検出サイズ情報309は顔水平検出サイズ302および顔垂直検出サイズ303の集合を示している。   The face detection position information 301 indicates a set of the face horizontal detection position 307 and the face vertical display position 308. The face detection size information 309 indicates a set of the face horizontal detection size 302 and the face vertical detection size 303.

顔情報には、顔ヨー方向検出角度(Θfy)304が規定されている。この顔ヨー方向検出角度(Θfy)304は水平方向に対する顔の回転角度を示す角度情報である。   In the face information, a face yaw direction detection angle (Θfy) 304 is defined. The face yaw direction detection angle (Θfy) 304 is angle information indicating the rotation angle of the face with respect to the horizontal direction.

顔情報には、顔ロール方向検出角度(Θfr)305が規定されている。この顔ロール方向検出角度(Θfr)305は垂直方向に対する顔の回転角度を示す角度情報である。   In the face information, a face roll direction detection angle (Θfr) 305 is defined. This face roll direction detection angle (Θfr) 305 is angle information indicating the rotation angle of the face with respect to the vertical direction.

加えて、顔情報には顔ピッチ方向検出角度(Θfp)306が規定されている。この顔ピッチ方向検出角度(Θfp)306は、垂直方向に対する顔の傾きを示す角度情報である。   In addition, a face pitch direction detection angle (Θfp) 306 is defined in the face information. The face pitch direction detection angle (Θfp) 306 is angle information indicating the inclination of the face with respect to the vertical direction.

なお、顔検出角度情報310は、顔ヨー方向検出角度304、顔ロール方向検出角度305、および顔ピッチ検出角度306の集合を示している。   The face detection angle information 310 indicates a set of a face yaw direction detection angle 304, a face roll direction detection angle 305, and a face pitch detection angle 306.

図3は、図1に示す人体検出部105によって得られた人体情報(人体検出情報ともいう)の一例を示す図である。   FIG. 3 is a diagram illustrating an example of human body information (also referred to as human body detection information) obtained by the human body detection unit 105 illustrated in FIG.

人体情報はX軸(pixel)およびY軸(pixel)を備えており、X軸には人体水平検出位置(Xb)317が規定されている。この人体水平検出位置(Xb)317は人体検出部105で検出された人体領域における水平方向(X軸方向)の始点となる位置である。   The human body information includes an X axis and a Y axis, and a horizontal human body detection position (Xb) 317 is defined on the X axis. The human body horizontal detection position (Xb) 317 is a position that is the starting point in the horizontal direction (X-axis direction) in the human body region detected by the human body detection unit 105.

さらに、Y軸には人体垂直検出位置(Yb)318が規定されている。この人体垂直検出位置(Yb)318は人体検出部105で検出された人体領域における垂直方向(Y軸方向)の始点となる位置である。   Furthermore, a human body vertical detection position (Yb) 318 is defined on the Y axis. The human body vertical detection position (Yb) 318 is a position that is a starting point in the vertical direction (Y-axis direction) in the human body region detected by the human body detection unit 105.

なお、人体検出位置情報311は、人体水平検出位置317および人体垂直検出位置318の集合を示している。   The human body detection position information 311 indicates a set of the human body horizontal detection position 317 and the human body vertical detection position 318.

また、人体情報には、人体水平検出サイズ(Hb)312が規定されている。この人体水平検出サイズ(Hb)312は人体領域の水平方向の大きさを示すサイズ情報である。そして、人体情報には人体垂直検出サイズ(Vb)313が規定されている。この人体垂直検出サイズ(Vb)313は人体領域の垂直方向の大きさを示すサイズ情報である。   Further, the human body horizontal detection size (Hb) 312 is defined in the human body information. This human body horizontal detection size (Hb) 312 is size information indicating the horizontal size of the human body region. A human body vertical detection size (Vb) 313 is defined in the human body information. This human body vertical detection size (Vb) 313 is size information indicating the size of the human body region in the vertical direction.

なお、人体検出サイズ情報319は、人体水平検出サイズ312および人体垂直検出サイズ313の集合を示している。   The human body detection size information 319 indicates a set of the human body horizontal detection size 312 and the human body vertical detection size 313.

人体情報には、人体ヨー方向検出角度(Θby)314が規定されている。この人体ヨー方向検出角度(Θby)314は、水平方向に対する人体の回転角度を示す角度情報である。   In the human body information, a human yaw direction detection angle (Θby) 314 is defined. The human body yaw direction detection angle (Θby) 314 is angle information indicating the rotation angle of the human body with respect to the horizontal direction.

人体情報には、人体ロール方向検出角度(Θbr)315が規定されている。この人体ロール方向検出角度(Θbr)315は、垂直方向に対する人体の回転角度を示す角度情報である。   In the human body information, a human body roll direction detection angle (Θbr) 315 is defined. This human body roll direction detection angle (Θbr) 315 is angle information indicating the rotation angle of the human body with respect to the vertical direction.

加えて、人体情報には人体ピッチ方向検出角度(Θbp)316が規定されている。この人体ピッチ方向検出角度(Θbp)316は、垂直方向に対する人体の傾きを示す角度情報である。   In addition, a human body pitch direction detection angle (Θbp) 316 is defined in the human body information. The human body pitch direction detection angle (Θbp) 316 is angle information indicating the inclination of the human body with respect to the vertical direction.

なお、人体検出角度情報320は、人体ヨー方向検出角度314、人体ロール方向検出角度315、および人体ピッチ検出角度316の集合を示している。   The human body detection angle information 320 indicates a set of the human body yaw direction detection angle 314, the human body roll direction detection angle 315, and the human body pitch detection angle 316.

図4は、図1に示すシステム制御部50が顔検出枠を生成する際に必要な顔表示情報の一例を示す図である。   FIG. 4 is a diagram showing an example of face display information necessary when the system control unit 50 shown in FIG. 1 generates a face detection frame.

顔表示情報はX軸(pixel)およびY軸(pixel)を備えており、X軸には顔水平表示位置(XF)327が規定されている。この顔水平表示位置(XF)327は顔検出枠における水平方向(X軸方向)の始点となる位置である。   The face display information includes an X axis (pixel) and a Y axis (pixel), and a horizontal face display position (XF) 327 is defined on the X axis. The face horizontal display position (XF) 327 is a position that is a starting point in the horizontal direction (X-axis direction) in the face detection frame.

さらに、Y軸には顔垂直表示位置(YF)328が規定されている。この顔垂直表示位置(YF)328は顔検出枠における垂直方向(Y軸方向)の始点となる位置である。   Further, a face vertical display position (YF) 328 is defined on the Y axis. The face vertical display position (YF) 328 is a position that is a starting point in the vertical direction (Y-axis direction) in the face detection frame.

なお、顔表示位置情報321は、顔水平表示位置327および顔垂直表示位置328の集合を示している。   The face display position information 321 indicates a set of the face horizontal display position 327 and the face vertical display position 328.

また、顔表示情報には、顔水平表示サイズ(HF)322が規定されている。この顔水平表示サイズ(HF)322は顔検出枠の水平方向の大きさを示すサイズ情報である。そして、顔表示情報には顔垂直表示サイズ(VF)323が規定されている。この顔垂直表示サイズ(VF)323は顔検出枠の大きさを示すサイズ情報である。   The face display information defines a face horizontal display size (HF) 322. The face horizontal display size (HF) 322 is size information indicating the size of the face detection frame in the horizontal direction. In the face display information, a face vertical display size (VF) 323 is defined. The face vertical display size (VF) 323 is size information indicating the size of the face detection frame.

なお、顔表示サイズ情報329は顔水平表示サイズ322および顔垂直表示サイズ323の集合を示している。   The face display size information 329 indicates a set of the face horizontal display size 322 and the face vertical display size 323.

顔表示情報には、顔ヨー方向表示角度(ΘFy)324が規定されている。この顔ヨー方向表示角度(ΘFy)324は水平方向に対する顔検出枠の回転角度を示す角度情報である。   The face display information defines a face yaw direction display angle (ΘFy) 324. The face yaw direction display angle (ΘFy) 324 is angle information indicating the rotation angle of the face detection frame with respect to the horizontal direction.

顔表示情報には、顔ロール方向表示角度(ΘFr)325が規定されている。この顔ロール方向表示角度(ΘFr)325は垂直方向に対する顔検出枠の回転角度を示す角度情報である。加えて、顔表示情報には顔ピッチ方向表示角度(ΘFp)326が規定されている。この顔ピッチ方向表示角度(ΘFp)326は、垂直方向に対する顔検出枠の傾きを示す角度情報である。   In the face display information, a face roll direction display angle (ΘFr) 325 is defined. The face roll direction display angle (ΘFr) 325 is angle information indicating the rotation angle of the face detection frame with respect to the vertical direction. In addition, a face pitch direction display angle (ΘFp) 326 is defined in the face display information. The face pitch direction display angle (ΘFp) 326 is angle information indicating the inclination of the face detection frame with respect to the vertical direction.

なお、顔表示角度情報330は、顔ヨー方向表示角度324、顔ロール方向表示角度325、および顔ピッチ表示角度326の集合を示している。   The face display angle information 330 indicates a set of the face yaw direction display angle 324, the face roll direction display angle 325, and the face pitch display angle 326.

図5は、図1に示すシステム制御部50が人体検出枠を生成する際に必要な人体表示情報の一例を示す図である。   FIG. 5 is a diagram illustrating an example of human body display information necessary when the system control unit 50 illustrated in FIG. 1 generates a human body detection frame.

人体表示情報はX軸(pixel)およびY軸(pixel)を備えており、X軸には人体水平表示位置(XB)337が規定されている。この人体水平表示位置(XB)337は人体検出枠における水平方向(X軸方向)の始点となる位置である。さらに、Y軸には人体垂直表示位置(YB)338が規定されている。この人体垂直表示位置(YB)338は人体検出枠における垂直方向(Y軸方向)の始点となる位置である。   The human body display information includes an X axis (pixel) and a Y axis (pixel), and a human body horizontal display position (XB) 337 is defined on the X axis. The human body horizontal display position (XB) 337 is a position that is a starting point in the horizontal direction (X-axis direction) in the human body detection frame. Furthermore, a human body vertical display position (YB) 338 is defined on the Y axis. The human body vertical display position (YB) 338 is a position that is a starting point in the vertical direction (Y-axis direction) in the human body detection frame.

なお、人体表示位置情報331は、人体水平表示位置337および人体垂直表示位置338の集合を示している。   The human body display position information 331 indicates a set of the human body horizontal display position 337 and the human body vertical display position 338.

また、人体表示情報には、人体水平表示サイズ(HB)332が規定されている。この人体水平表示サイズ(HB)332は人体検出枠の水平方向の大きさを示すサイズ情報である。そして、人体表示情報には人体垂直表示検出サイズ(VB)333が規定されている。この人体垂直表示サイズ(VB)333は人体検出枠の垂直方向の大きさを示すサイズ情報である。   The human body display information defines a human body horizontal display size (HB) 332. The human body horizontal display size (HB) 332 is size information indicating the horizontal size of the human body detection frame. A human body vertical display detection size (VB) 333 is defined in the human body display information. The human body vertical display size (VB) 333 is size information indicating the size of the human body detection frame in the vertical direction.

なお、人体表示サイズ情報339は、人体水平表示サイズ332および人体垂直表示サイズ333の集合を示している。   The human body display size information 339 indicates a set of the human body horizontal display size 332 and the human body vertical display size 333.

人体表示情報には、人体ヨー方向表示角度(ΘBy)334が規定されている。この人体ヨー方向表示角度(ΘBy)334は、水平方向に対する人体検出枠の回転角度を示す角度情報である。   In the human body display information, a human body yaw direction display angle (ΘBy) 334 is defined. The human body yaw direction display angle (ΘBy) 334 is angle information indicating the rotation angle of the human body detection frame with respect to the horizontal direction.

人体表示情報には、人体ロール方向表示角度(ΘBr)335が規定されている。この人体ロール方向表示角度(ΘBr)335は、垂直方向に対する人体検出枠の回転角度を示す角度情報である。加えて、人体表示情報には人体ピッチ方向表示角度(ΘBp)336が規定されている。この人体ピッチ方向表示角度(ΘBp)336は、垂直方向に対する人体検出枠の傾きを示す角度情報である。   In the human body display information, a human body roll direction display angle (ΘBr) 335 is defined. This human body roll direction display angle (ΘBr) 335 is angle information indicating the rotation angle of the human body detection frame with respect to the vertical direction. In addition, a human body pitch direction display angle (ΘBp) 336 is defined in the human body display information. The human body pitch direction display angle (ΘBp) 336 is angle information indicating the inclination of the human body detection frame with respect to the vertical direction.

なお、人体表示角度情報340は、人体ヨー方向表示角度334、人体ロール方向表示角度335、および人体ピッチ表示角度336の集合を示している。   The human body display angle information 340 indicates a set of the human body yaw direction display angle 334, the human body roll direction display angle 335, and the human body pitch display angle 336.

図6は、図1に示す撮像装置100で行われる顔検出枠および人体検出枠の枠表示処理を説明するためのフローチャートである。なお、図6に示す枠表示処理では、システム制御部50がメモリ制御部15を介して表示部28を制御することになる。   FIG. 6 is a flowchart for explaining frame display processing of the face detection frame and the human body detection frame performed by the imaging apparatus 100 shown in FIG. In the frame display process shown in FIG. 6, the system control unit 50 controls the display unit 28 via the memory control unit 15.

システム制御部50の制御下で、顔検出部(第1の検出手段)104および人体検出部(第2の検出手段)105はメモリ32に格納された表示用画像データにおいて被写体をキャプチャする(ステップS401)。そして、被写体をキャプチャすると、顔検出部104および人体検出部105はそれぞれ顔検出および人体検出を開始する(ステップS402)。なお、ここでは、顔が第1の領域であり、人体が第2の領域である。   Under the control of the system control unit 50, the face detection unit (first detection unit) 104 and the human body detection unit (second detection unit) 105 capture the subject in the display image data stored in the memory 32 (step S401). When the subject is captured, the face detection unit 104 and the human body detection unit 105 start face detection and human body detection, respectively (step S402). Here, the face is the first region and the human body is the second region.

続いて、システム制御部50は顔検出部104における顔検出が完了したか否かを判定する(ステップS403)。顔検出が完了しないと(ステップS403において、NO)、システム制御部50は待機する。   Subsequently, the system control unit 50 determines whether or not face detection in the face detection unit 104 is completed (step S403). If face detection is not completed (NO in step S403), system control unit 50 stands by.

一方、顔検出が完了すると(ステップS403において、YES)、システム制御部50は顔検出部104の顔検出結果に応じて顔が存在するか否かを判定する(ステップS404)。   On the other hand, when the face detection is completed (YES in step S403), the system control unit 50 determines whether or not a face exists according to the face detection result of the face detection unit 104 (step S404).

顔が存在すると(ステップS404において、YES)、システム制御部50は人体検出部105における人体検出が完了したか否かを判定する(ステップS405)。人体検出が完了しないと(ステップS405において、NO)、システム制御部50は顔検出結果(第1の検出結果)に応じて人体領域を予測して人体予測領域(人体推定結果)を得る(ステップS406)。そして、システム制御部50は顔検出結果に応じて顔領域を特定する顔検出枠(第1の表示体)を実線で画面表示するとともに、人体予測領域(推定結果)に応じて人体領域を推定する人体推定枠(推定表示体)を破線(点線)で画面表示する(ステップS407)。   If a face is present (YES in step S404), system control unit 50 determines whether or not human body detection in human body detection unit 105 has been completed (step S405). If the human body detection is not completed (NO in step S405), the system control unit 50 predicts the human body region according to the face detection result (first detection result) and obtains a human body prediction region (human body estimation result) (step). S406). Then, the system control unit 50 displays a face detection frame (first display body) for specifying the face area according to the face detection result on the screen with a solid line, and estimates the human body area according to the human body prediction area (estimation result). The human body estimation frame (estimated display body) to be displayed is displayed on the screen as a broken line (dotted line) (step S407).

人体検出が完了すると(ステップS405において、YES)、システム制御部50は人体検出部105の人体検出結果に応じて人体が存在するか否かを判定する(ステップS408)。人体が存在すると(ステップS408において、YES)、システム制御部50は顔検出結果および人体検出結果(第2の検出結果)に応じてそれぞれ顔検出枠および人体領域を特定する人体検出枠(第2の表示体)を実線で画面表示する(ステップS409)。   When the human body detection is completed (YES in step S405), system control unit 50 determines whether or not a human body exists according to the human body detection result of human body detection unit 105 (step S408). If a human body exists (YES in step S408), system control unit 50 determines a human body detection frame (second body detection frame and second human body region) according to the face detection result and the human body detection result (second detection result), respectively. Is displayed on the screen as a solid line (step S409).

一方、人体が存在しないと(ステップS408において、NO)、システム制御部50は顔検出結果に応じて顔検出枠のみを実線で画面表示する(ステップS410)。   On the other hand, if there is no human body (NO in step S408), system control unit 50 displays only the face detection frame with a solid line on the screen according to the face detection result (step S410).

ステップS404において、顔が存在しないと(ステップS404において、NO)、システム制御部50は人体検出部105における人体検出が完了したか否かを判定する(ステップS411)。人体検出が完了しないと(ステップS411において、NO)、システム制御部50は待機する。   If there is no face in step S404 (NO in step S404), the system control unit 50 determines whether or not the human body detection in the human body detection unit 105 is completed (step S411). If human body detection is not completed (NO in step S411), system control unit 50 stands by.

人体検出が完了すると(ステップS411において、YES)、システム制御部50は人体が存在するか否かを判定する(ステップS412)。そして、人体が存在すると(ステップS412において、YES)、システム制御部50は人体検出部105の人体検出結果に応じて人体検出枠を実線で画面表示する(ステップS413)。   When the human body detection is completed (YES in step S411), the system control unit 50 determines whether or not a human body exists (step S412). If a human body exists (YES in step S412), system control unit 50 displays the human body detection frame on the screen as a solid line according to the human body detection result of human body detection unit 105 (step S413).

このように、システム制御部50は、顔検出枠および人体検出枠と推定検出枠とをその表示形態を異ならせて表示部28に表示する。   In this way, the system control unit 50 displays the face detection frame, the human body detection frame, and the estimated detection frame on the display unit 28 with different display forms.

ステップS407、S409、S410、又はS413の処理の後、システム制御部50はレリーズが行われたか否かを判定する(ステップS414)。つまり、システム制御部50はシャッターボタン61が全押しされたか否かを判定する。   After the process of step S407, S409, S410, or S413, the system control unit 50 determines whether a release has been performed (step S414). That is, the system control unit 50 determines whether or not the shutter button 61 is fully pressed.

レリーズが行われると(ステップS414において、YES)、システム制御部50の制御下で被写体の撮影が実行される(ステップS15)。そして、システム制御部50は枠表示処理を終了する。   When the release is performed (YES in step S414), the subject is shot under the control of the system control unit 50 (step S15). Then, the system control unit 50 ends the frame display process.

レリーズが行われないと(ステップS414において、YES)、処理はステップS401の処理に戻る。なお、ステップS412において、人体が存在しないと(ステップS412において、NO)、システム制御部50はステップS414の処理に進む。   If release is not performed (YES in step S414), the process returns to step S401. If no human body is present in step S412 (NO in step S412), system control unit 50 proceeds to the process of step S414.

図7は、図1に示す撮像装置100で行われた枠表示処理の結果を説明するための図である。そして、図7(a)は顔検出枠および人体推定枠が表示された状態を示す図であり、図7(b)は顔検出枠および人体検出枠が表示された状態を示す図である。また、図7(c)は顔検出枠のみが表示された状態を示す図であり、図7(d)は人体検出枠のみが表示された状態を示す図である。   FIG. 7 is a diagram for explaining the result of the frame display process performed by the imaging apparatus 100 shown in FIG. FIG. 7A is a diagram showing a state where the face detection frame and the human body estimation frame are displayed, and FIG. 7B is a diagram showing a state where the face detection frame and the human body detection frame are displayed. FIG. 7C is a diagram showing a state where only the face detection frame is displayed, and FIG. 7D is a diagram showing a state where only the human body detection frame is displayed.

前述のステップS407の処理では、図7(a)に示す顔検出枠501および人体予測枠502が表示部28に表示される。この際、人体予測枠502は顔検出結果に応じて予測された人体予測領域を示すので、点線で表示される。これによって、ユーザは人体予測枠502が予測によって表示されたと知ることができる。人体予測枠は、顔検出枠501に対する相対的な位置およびサイズが予め設定されており、顔検出枠501の位置を基準として演算によって求められる。   In the process of step S407 described above, the face detection frame 501 and the human body prediction frame 502 shown in FIG. At this time, since the human body prediction frame 502 indicates a human body prediction region predicted according to the face detection result, it is displayed with a dotted line. Thereby, the user can know that the human body prediction frame 502 is displayed by prediction. The relative position and size of the human body prediction frame relative to the face detection frame 501 are set in advance, and are obtained by calculation using the position of the face detection frame 501 as a reference.

ステップS409の処理では、図7(b)に示す顔検出枠501および人体検出枠503が表示部28に表示される。これによって、ユーザは顔領域および人体領域がともに検出されたことを知ることができる。   In the process of step S409, the face detection frame 501 and the human body detection frame 503 shown in FIG. Thus, the user can know that both the face area and the human body area have been detected.

ステップS410の処理では、図7(c)に示す顔検出枠501のみが表示部28に表示される。これによって、ユーザは人体領域が検出されなかったことを知ることができる。   In the process of step S410, only the face detection frame 501 shown in FIG. 7C is displayed on the display unit 28. As a result, the user can know that the human body region has not been detected.

ステップS413の処理では、図7(d)に示す人体検出枠503のみが表示部28に表示される。これによって、ユーザは顔領域が検出されなかったことを知ることができる。   In the process of step S413, only the human body detection frame 503 shown in FIG. 7D is displayed on the display unit 28. This allows the user to know that no face area has been detected.

図8は、図1に示す撮像装置100で行われる顔検出枠、人体検出枠、および人体予測枠の表示タイミングを示すタイミングチャートである。   FIG. 8 is a timing chart showing display timings of the face detection frame, the human body detection frame, and the human body prediction frame performed by the imaging apparatus 100 shown in FIG.

いま、時間1において被写体D1をキャプチャすると、被写体D1の顔検出処理および人体検出処理が開始される。そして、時間2において被写体D1の顔検出が完了すると、被写体D1に係る顔検出枠が画面表示される。   Now, when the subject D1 is captured at time 1, face detection processing and human body detection processing of the subject D1 are started. When the face detection of the subject D1 is completed at time 2, the face detection frame related to the subject D1 is displayed on the screen.

この際には、被写体D1について人体検出処理が完了していないので、被写体D1の顔検出結果に応じて被写体D1に係る人体領域の予測(推定)が行われる。そして、人体予測領域に応じて被写体D1の人体予測枠(人体予測枠)が画面表示される。   At this time, since the human body detection process is not completed for the subject D1, the human body region related to the subject D1 is predicted (estimated) according to the face detection result of the subject D1. Then, the human body prediction frame (human body prediction frame) of the subject D1 is displayed on the screen according to the human body prediction region.

なお、時間2において被写体D2をキャプチャして、被写体D2に係る顔検出処理および人体検出処理が開始される。   Note that the subject D2 is captured at time 2, and the face detection process and the human body detection process related to the subject D2 are started.

時間3において被写体D2の顔検出が完了すると、被写体D2に係る顔検出枠が画面表示される。この際には、被写体D1およびD2について人体検出処理が完了していないので、被写体D2の顔検出結果に応じて被写体D2に係る人体領域の予測が行われる。そして、人体予測領域に応じて被写体D2の人体予測枠が画面表示される。   When face detection of the subject D2 is completed at time 3, a face detection frame related to the subject D2 is displayed on the screen. At this time, since the human body detection process has not been completed for the subjects D1 and D2, the human body region related to the subject D2 is predicted according to the face detection result of the subject D2. Then, the human body prediction frame of the subject D2 is displayed on the screen according to the human body prediction area.

なお、時間3において被写体D3をキャプチャして、被写体D3の顔検出処理および人体検出処理が開始される。   At time 3, the subject D3 is captured, and the face detection process and human body detection process of the subject D3 are started.

時間4において被写体D3の顔検出が完了すると、被写体D3に係る顔検出枠が画面表示される。この際には、被写体D1に係る人体検出処理が完了しているので、人体予測枠(点線)に代えて被写体D1について人体検出枠(実線)が画面表示されることになる。   When face detection of the subject D3 is completed at time 4, a face detection frame related to the subject D3 is displayed on the screen. At this time, since the human body detection process related to the subject D1 is completed, the human body detection frame (solid line) is displayed on the screen for the subject D1 instead of the human body prediction frame (dotted line).

なお、時間4において被写体D4をキャプチャして、被写体D4に係る顔検出処理および人体検出処理が開始される。   Note that the subject D4 is captured at time 4, and the face detection process and the human body detection process related to the subject D4 are started.

このようにして、時間(t+2)まで同様にして処理が行われる。つまり、レリーズが行われるまで、時間4における処理と同様の処理が繰り返される。この結果、時間(t+1)では、被写体Dtまでの顔検出枠(実線)が画面表示されるとともに、被写体D(t−1)およびDtについて人体予測枠(点線)が画面表示される。さらに、被写体D(t−2)までの人体検出枠(実線)が画面表示される。   In this way, the process is performed in the same manner until time (t + 2). That is, the same processing as that in time 4 is repeated until the release is performed. As a result, at time (t + 1), the face detection frame (solid line) up to the subject Dt is displayed on the screen, and the human body prediction frame (dotted line) is displayed on the screen for the subjects D (t−1) and Dt. Further, a human body detection frame (solid line) up to the subject D (t-2) is displayed on the screen.

このように、本発明の第1の実施形態では、顔検出処理が完了した時点で、人体検出処理が完了していないと、顔検出枠および人体予測枠を画面表示するようにしたので、被写体の顔領域を示す枠および人体領域を示す枠を同時に画面表示することができることになる。この結果、ユーザは人体検出処理が終了するまで待つことなく、被写体全体を容易に視認することができる。   As described above, in the first embodiment of the present invention, when the human body detection process is not completed when the face detection process is completed, the face detection frame and the human body prediction frame are displayed on the screen. The frame indicating the face area and the frame indicating the human body area can be simultaneously displayed on the screen. As a result, the user can easily visually recognize the entire subject without waiting for the human body detection process to end.

[第2の実施形態]
続いて、本発明の第2の実施形態による画像表示装置を備える撮像装置について説明する。なお、第2の実施形態による撮像装置の構成は図1に示す撮像装置と同様であるので説明を省略する。
[Second Embodiment]
Subsequently, an imaging device including an image display device according to a second embodiment of the present invention will be described. The configuration of the imaging apparatus according to the second embodiment is the same as that of the imaging apparatus shown in FIG.

図9は、本発明の第1の実施形態による撮像装置100で行われる枠表示処理を説明するためのフローチャートである。   FIG. 9 is a flowchart for explaining frame display processing performed by the imaging apparatus 100 according to the first embodiment of the present invention.

なお、以下の説明では、連続する複数のフレームの各々について画像を表示部28に表示する場合について説明する。この際、システム制御部50は顔検出から顔検出枠の表示までの処理を、1つのフレーム内で処理することが可能であり、人体検出から人体検出枠の表示までの処理についてはnフレーム(nは2以上の整数)を要するものとする。   In the following description, a case where an image is displayed on the display unit 28 for each of a plurality of consecutive frames will be described. At this time, the system control unit 50 can process the process from the face detection to the display of the face detection frame within one frame. The process from the human body detection to the display of the human body detection frame can be performed with n frames ( n is an integer of 2 or more).

システム制御部50の制御下で、顔検出部104および人体検出部105はメモリ32に格納された表示用画像データ(1フレーム)において被写体をキャプチャする(ステップS901)。そして、顔検出部104は、キャプチャした被写体について顔検出を開始して、前述のように、システムメモリ52に顔情報を格納する(ステップS902)。これと並行して、人体検出部105は、キャプチャした被写体について人体検出を行う(ステップS903)。上述したように、この人体検出部105が人体検出に要する時間は、顔検出部104が顔検出に要する時間よりも長い。   Under the control of the system control unit 50, the face detection unit 104 and the human body detection unit 105 capture a subject in the display image data (one frame) stored in the memory 32 (step S901). Then, the face detection unit 104 starts face detection for the captured subject and stores the face information in the system memory 52 as described above (step S902). In parallel with this, the human body detection unit 105 performs human body detection on the captured subject (step S903). As described above, the time required for the human body detection unit 105 to detect the human body is longer than the time required for the face detection unit 104 to detect the face.

そして、システム制御部50は先に得られた顔情報(又は顔表示情報)、つまり、顔表示位置情報321に応じて顔検出枠を表示部28に表示する(ステップS904)。   Then, the system control unit 50 displays a face detection frame on the display unit 28 according to the previously obtained face information (or face display information), that is, the face display position information 321 (step S904).

続いて、システム制御部50は人体検出部105による人体の検出が完了したか否かを判定する(ステップS905)。   Subsequently, the system control unit 50 determines whether the human body detection by the human body detection unit 105 is completed (step S905).

人体の検出が完了していないと(ステップS905において、NO)、つまり、現在のフレームにおいて未だ人体検出が完了しない判定すると、システム制御部50はメモリ32に格納された次のフレームをキャプチャする(ステップS906)。   If the detection of the human body is not completed (NO in step S905), that is, if it is determined that the human body detection is not yet completed in the current frame, the system control unit 50 captures the next frame stored in the memory 32 ( Step S906).

続いて、システム制御部50はステップS902において顔検出が行われた顔について、ステップS906でキャプチャしたフレームで顔検出および顔追尾を行う(ステップS907)。   Subsequently, the system control unit 50 performs face detection and face tracking using the frame captured in step S906 for the face for which face detection has been performed in step S902 (step S907).

システム制御部50は、現フレームとその前のフレームの両方で1つの顔検出に成功していれば、検出できた顔領域を同一人物とみなして関連付けてその位置を記憶する。顔が複数検出できた場合には、フレーム間で最も位置の近い顔領域を同一人物の顔領域とみなして、関連付けてその位置を記憶する。   If one face is successfully detected in both the current frame and the previous frame, the system control unit 50 regards the detected face area as the same person, associates them, and stores the position. When a plurality of faces can be detected, the face area closest to the position between the frames is regarded as the face area of the same person, and the positions are stored in association with each other.

反対に、システム制御部50は、前のフレームで顔領域を特定できたにも関わらず、現フレームでの顔検出に失敗した場合には、例えば、動きベクトル検出を行って顔追尾が行なわれる。つまり、動画の場合、現フレームとその前のフレームについて被写体領域について動きベクトル検出を行って、この動きベクトル検出結果(動きベクトル量)を被写体領域の移動量として被写体領域の位置を逐次修正して追尾処理が行われる。なお、システム制御部50は現フレームとその前のフレームについて被写体領域におけるブロックマッチングなどの相関演算を用いて、動きベクトル量を求める。   On the other hand, if the face detection has failed in the current frame despite the fact that the face area has been specified in the previous frame, the system control unit 50 performs, for example, motion tracking to perform face tracking. . In other words, in the case of a moving image, motion vector detection is performed on the subject region for the current frame and the previous frame, and the position of the subject region is sequentially corrected using the motion vector detection result (motion vector amount) as the amount of movement of the subject region. Tracking processing is performed. The system control unit 50 obtains a motion vector amount for the current frame and the previous frame by using a correlation operation such as block matching in the subject area.

システム制御部50は顔検出または顔追尾の結果に応じて顔検出枠を表示部28に表示する(ステップS908)。そして、システム制御部50はステップS905の処理に戻る。   The system control unit 50 displays a face detection frame on the display unit 28 according to the result of face detection or face tracking (step S908). Then, the system control unit 50 returns to the process of step S905.

一方、人体の検出が完了すると(ステップS905において、YES)、システム制御部50は、人体の検出に要した期間における、顔についての移動方向および移動量を示す移動ベクトルを算出する(ステップS909)。   On the other hand, when the detection of the human body is completed (YES in step S905), system control unit 50 calculates a movement vector indicating the movement direction and movement amount of the face during the period required for the detection of the human body (step S909). .

いま、ステップS901で被写体のキャプチャを行った時刻がtであるとすると、人体の検出が完了した時点は時刻(t+n)となる。ここで、前述した図14を参照すると、顔検出枠の表示についてはキャプチャした1フレーム内で処理されるので、時刻tでは図14(a)に示すように、顔検出枠201および顔検出枠205が顔表示位置情報321に応じて表示される。   Assuming that the time when the subject is captured in step S901 is t, the time when the detection of the human body is completed is time (t + n). Here, referring to FIG. 14 described above, since the display of the face detection frame is processed within one captured frame, at time t, as shown in FIG. 14A, the face detection frame 201 and the face detection frame are displayed. 205 is displayed according to the face display position information 321.

さらに、顔については随時新たな検出結果あるいは追尾結果が得られているので、図14(b)に示す時刻(t+n)では、新たな顔の位置を顔枠201および205で表示することができる。   Furthermore, since new detection results or tracking results are obtained for the face at any time, the position of the new face can be displayed in the face frames 201 and 205 at the time (t + n) shown in FIG. .

一方、人体検出枠の表示についてはnフレームを要するので、時刻(t+n)においては、時刻tでキャプチャした被写体に係る人体表示位置情報331に応じて人体検出枠が表示されることになる。   On the other hand, since the display of the human body detection frame requires n frames, at time (t + n), the human body detection frame is displayed according to the human body display position information 331 related to the subject captured at time t.

このため、被写体203のようにnフレームの間にその位置が移動しなければ、時刻tにおける人体表示位置情報331を応じて人体検出枠202を画面表示しても人体の位置と人体検出枠202とのずれが生じず、ユーザに違和感を与えることはない。   Therefore, if the position does not move during n frames like the subject 203, the position of the human body and the human body detection frame 202 are displayed even if the human body detection frame 202 is displayed on the screen according to the human body display position information 331 at time t. Does not cause any discomfort to the user.

一方、被写体204のようにnフレームの間にその位置が移動すると、顔検出枠205については時刻(t+n)における被写体204の新たな顔の位置に表示することができる。ところが、人体検出枠206については、時刻tにおける人体表示位置情報331に応じて表示すると、被写体204の人体の位置とずれて表示されてしまう。   On the other hand, when the position of the subject 204 moves during n frames like the subject 204, the face detection frame 205 can be displayed at the new face position of the subject 204 at time (t + n). However, if the human body detection frame 206 is displayed according to the human body display position information 331 at time t, the human body detection frame 206 is displayed with a deviation from the position of the human body of the subject 204.

システム制御部50は、上記のずれを軽減するため、ステップS909において顔の移動ベクトルを算出する。つまり、システム制御部50は時刻tにおけるフレームの顔表示位置情報321と時刻(t+n)におけるフレームの顔の位置とに応じて顔領域の移動ベクトルを算出する。   In order to reduce the above-described shift, the system control unit 50 calculates a face movement vector in step S909. That is, the system control unit 50 calculates the movement vector of the face area according to the face display position information 321 of the frame at time t and the face position of the frame at time (t + n).

ここで、時刻(t+n)におけるフレームの顔の位置とは現フレームについてステップS907で行った顔追尾の結果獲られた顔表示位置情報である。   Here, the face position of the frame at time (t + n) is face display position information obtained as a result of the face tracking performed in step S907 for the current frame.

図10は、本発明の第2の実施形態による撮像装置100で行われる移動ベクトルの算出を説明するための図である。そして、図10(a)は時刻tにおける顔検出枠の表示を示す図であり、図10(b)は時刻(t+n)における顔検出枠および人体検出枠の表示を示す図である。   FIG. 10 is a diagram for explaining calculation of a movement vector performed by the imaging apparatus 100 according to the second embodiment of the present invention. FIG. 10A is a diagram showing the display of the face detection frame at time t, and FIG. 10B is a diagram showing the display of the face detection frame and the human body detection frame at time (t + n).

いま、被写体1001がnフレームの間に移動するとする。時刻tにおいて検出した顔領域を示す顔検出枠1002の位置座標を(Xf(t),Yf(t))とする。また、時刻(t+n)において顔追尾の結果得られた顔検出枠1003の位置座標を(Xf(t+n),Yf(t+n))とする。   Assume that the subject 1001 moves during n frames. Assume that the position coordinates of the face detection frame 1002 indicating the face area detected at time t are (Xf (t), Yf (t)). Further, the position coordinates of the face detection frame 1003 obtained as a result of face tracking at time (t + n) are (Xf (t + n), Yf (t + n)).

位置座標(Xf(t),Yf(t))および位置座標(Xf(t+n),Yf(t+n))を用いると、顔の移動ベクトルV=(Vx,Vy)は、次の式(1)で示される。   Using the position coordinates (Xf (t), Yf (t)) and the position coordinates (Xf (t + n), Yf (t + n)), the face movement vector V = (Vx, Vy) is expressed by the following equation (1): Indicated by

(Vx,Vy)=((Xf(t+n)−Xf(t)),(Yf(t+n)−Yf(t))) (1)
続いて、システム制御部50は人体検出部105で検出された人体表示位置情報331を、移動ベクトルVを用いて補正して、補正検出結果(補正人体表示位置情報を得る(ステップS910)。
(Vx, Vy) = ((Xf (t + n) −Xf (t)), (Yf (t + n) −Yf (t))) (1)
Subsequently, the system control unit 50 corrects the human body display position information 331 detected by the human body detection unit 105 using the movement vector V, and obtains a correction detection result (corrected human body display position information (step S910).

同一人物が所定の時間に移動する方向および距離は、顔と人体で同一であると推測されるので、システム制御部50は時刻(t+n)における人体表示位置情報(Xb(t+n),Yb(t+n))を、式(2)および式(3)に応じて算出する。   Since the direction and the distance that the same person moves at a predetermined time are estimated to be the same for the face and the human body, the system control unit 50 determines the human body display position information (Xb (t + n), Yb (t + n) at time (t + n). )) Is calculated according to equations (2) and (3).

Xb(t+n)=Xb(t)+Vx (2)
Yb(t+n)=Yb(t)+Vy (3)
なお、人体表示位置情報のみではなく、時刻tにおいて検出した顔および時刻(t+n)において顔追尾の結果得られた顔表示サイズ情報329に応じて顔サイズの変化量(サイズ変化量)も算出することができる。そして、顔サイズの変化量に応じて時刻tにおける人体表示サイズ情報339を補正して、時刻(t+n)において表示する人体検出枠のサイズと実際の人体サイズとのずれを軽減するようにしてもよい。
Xb (t + n) = Xb (t) + Vx (2)
Yb (t + n) = Yb (t) + Vy (3)
In addition to the human body display position information, the face size change amount (size change amount) is also calculated according to the face detected at time t and face display size information 329 obtained as a result of face tracking at time (t + n). be able to. Then, the human body display size information 339 at time t is corrected in accordance with the amount of change in face size so as to reduce the deviation between the size of the human body detection frame displayed at time (t + n) and the actual human body size. Good.

続いて、システム制御部50は、ステップS910で補正された人体表示位置情報(Xb(t+n),Yb(t+n))に応じて人体検出枠1004を表示部28に表示する(ステップS911)。そして、システム制御部50は人体枠表示処理を一旦終了する。この人体枠表示処理を繰り返すことによって、顔検出枠と人体検出枠の表示を継続して行う。   Subsequently, the system control unit 50 displays the human body detection frame 1004 on the display unit 28 in accordance with the human body display position information (Xb (t + n), Yb (t + n)) corrected in step S910 (step S911). Then, the system control unit 50 once ends the human body frame display process. By repeating this human body frame display process, the face detection frame and the human body detection frame are continuously displayed.

このようにして、時刻(t+n)における顔位置を追尾するとともに、人体表示位置情報を補正すれば、点線で示す顔表示枠1006および人体表示枠1007を矢印1005で示す方向および移動量だけ移動して、実際の顔領域および人体領域に合わせて顔検出枠1003および人体検出枠1004を表示することができる。   In this way, by tracking the face position at time (t + n) and correcting the human body display position information, the face display frame 1006 and the human body display frame 1007 indicated by dotted lines are moved by the direction and movement amount indicated by the arrow 1005. Thus, the face detection frame 1003 and the human body detection frame 1004 can be displayed in accordance with the actual face region and human body region.

以上のように、本発明の第2の実施形態では、被写体における顔領域(顔)を顔検出部104により検出して、人体検出が完了するまでの顔の移動ベクトルを算出する。そして、人体検出部105によって人体が検出された後、移動ベクトルに応じて人体表示位置情報を補正して表示部に人体検出枠を表示する。   As described above, in the second embodiment of the present invention, the face detection unit 104 detects the face area (face) in the subject, and calculates the face movement vector until the human body detection is completed. Then, after the human body is detected by the human body detection unit 105, the human body display position information is corrected according to the movement vector, and the human body detection frame is displayed on the display unit.

これによって、被写体が移動している場合に、人体の検出位置と現在の人体の位置のずれを軽減して人体検出枠を表示することができる。   As a result, when the subject is moving, the human body detection frame can be displayed while reducing the deviation between the human body detection position and the current human body position.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

上述の説明から明らかなように、図1に示す例においては、少なくともシステム制御部50、システムメモリ52、顔検出部104、人体検出部105、メモリ32、メモリ制御部15、D/A変換器13、および表示部28が画像表示装置を構成する。また、撮影レンズ103、シャッター101、撮像部22、A/D変換器23、および画像処理部24は撮像手段を構成する。   As is clear from the above description, in the example shown in FIG. 1, at least the system control unit 50, the system memory 52, the face detection unit 104, the human body detection unit 105, the memory 32, the memory control unit 15, and the D / A converter. 13 and the display unit 28 constitute an image display device. The photographing lens 103, the shutter 101, the imaging unit 22, the A / D converter 23, and the image processing unit 24 constitute an imaging unit.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

例えば、上記の実施の形態の機能を制御方法として、この制御方法を画像表示装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを画層表示装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   For example, the function of the above embodiment may be used as a control method, and the control method may be executed by the image display apparatus. The program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the layer display device. The control program is recorded on a computer-readable recording medium, for example.

また、本発明は、以下の処理を実行することによっても実現される。つまり、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種の記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. To be executed.

15 メモリ制御部
22 撮像部
24 画像処理部
28 表示部
50 システム制御部
60 モード切替スイッチ
61 シャッターボタン
70 操作部
104 顔検出部
105 人体検出部
DESCRIPTION OF SYMBOLS 15 Memory control part 22 Image pick-up part 24 Image processing part 28 Display part 50 System control part 60 Mode change switch 61 Shutter button 70 Operation part 104 Face detection part 105 Human body detection part

Claims (7)

被写体像を含む画像を表示部に表示する際、前記被写体像について第1の領域を特定する第1の表示体と第2の領域を特定する第2の表示体とを前記被写体像に対応づけて表示する画像表示装置であって、
前記画像において前記被写体像における前記第1の領域の位置を検出して第1の検出結果を求める第1の検出手段と、
前記画像において前記被写体像における前記第2の領域の位置を検出して第2の検出結果を求める第2の検出手段と、
前記第1の検出結果に応じて前記第2の領域の位置を推定して推定結果を求める推定手段と、
前記第1の検出結果、前記第2の検出結果、および前記推定結果に応じてそれぞれ前記第1の表示体、前記第2の表示体、および前記第2の領域の位置を推定する推定表示体を前記表示部に表示制御する表示制御手段とを有し、
前記推定手段は、前記第1の検出結果に応じて前記第1の表示体が表示される際、前記第2の検出手段によって前記第2の検出結果が得られていない場合にのみ、前記第1の検出結果に応じて前記推定結果を求めることを特徴とする画像表示装置。
When an image including a subject image is displayed on the display unit, a first display body that specifies a first area and a second display body that specifies a second area are associated with the subject image. An image display device for displaying
First detection means for detecting a position of the first region in the subject image and obtaining a first detection result in the image;
Second detection means for detecting a position of the second region in the subject image in the image and obtaining a second detection result;
Estimating means for estimating a position of the second region according to the first detection result and obtaining an estimation result;
An estimated display body that estimates the positions of the first display body, the second display body, and the second region according to the first detection result, the second detection result, and the estimation result, respectively. Display control means for controlling display on the display unit,
The estimation unit is configured to display the first display object according to the first detection result only when the second detection result is not obtained by the second detection unit. An image display device characterized in that the estimation result is obtained according to the detection result of 1.
前記表示制御手段は、前記推定手段によって前記推定結果が求められた際にのみ前記推定表示体を前記表示部に表示し、前記第2の検出手段によって前記第2の検出結果が得られると、前記推定表示体に代えて前記第2の表示体を前記表示部に表示することを特徴とする請求項1に記載の画像表示装置。   The display control means displays the estimated display body on the display unit only when the estimation result is obtained by the estimation means, and when the second detection result is obtained by the second detection means, The image display apparatus according to claim 1, wherein the second display body is displayed on the display unit instead of the estimated display body. 前記表示制御手段は前記第1の表示体および前記第2の表示体と前記推定表示体とをその表示形態を異ならせて前記表示部に表示することを特徴とする請求項1又は2に記載の画像表示装置。   3. The display control unit according to claim 1, wherein the display control unit displays the first display body, the second display body, and the estimated display body on the display unit in different display forms. Image display device. 前記第1の検出手段は前記第1の領域として顔領域を検出し、前記第2の検出手段は前記第2の領域として前記被写体像の全体である体領域を検出することを特徴とする請求項1〜のいずれか1項に記載の画像表示装置。 The first detection means detects a face area as the first area, and the second detection means detects a body area that is the entirety of the subject image as the second area. Item 4. The image display device according to any one of Items 1 to 3 . 被写体像を含む画像を表示部に表示する際、前記被写体像について第1の領域を特定する第1の表示体と第2の領域を特定する第2の表示体とを前記被写体像に対応づけて表示する画像表示装置の制御方法であって、
前記画像において前記被写体像における前記第1の領域の位置を検出して第1の検出結果を求める第1の検出ステップと、
前記画像において前記被写体像における前記第2の領域の位置を検出して第2の検出結果を求める第2の検出ステップと、
前記第1の検出結果に応じて前記第2の領域の位置を推定して推定結果を求める推定ステップと、
前記第1の検出結果、前記第2の検出結果、および前記推定結果に応じてそれぞれ前記第1の表示体、前記第2の表示体、および前記第2の領域の位置を推定する推定表示体を前記表示部に表示制御する表示制御ステップとを有し、
前記推定ステップでは、前記第1の検出結果に応じて前記第1の表示体が表示される際、前記第2の検出ステップで前記第2の検出結果が得られていない場合にのみ、前記第1の検出結果に応じて前記推定結果を求めることを特徴とする制御方法。
When an image including a subject image is displayed on the display unit, a first display body that specifies a first area and a second display body that specifies a second area are associated with the subject image. A method for controlling an image display device to display
A first detection step of detecting a first detection result by detecting a position of the first region in the subject image in the image;
A second detection step of detecting a position of the second region in the subject image in the image and obtaining a second detection result;
An estimation step for estimating a position of the second region in accordance with the first detection result and obtaining an estimation result;
An estimated display body that estimates the positions of the first display body, the second display body, and the second region according to the first detection result, the second detection result, and the estimation result, respectively. A display control step of controlling display on the display unit,
In the estimation step, when the first display body is displayed according to the first detection result, only when the second detection result is not obtained in the second detection step, the first display body is displayed. A control method characterized in that the estimation result is obtained according to a detection result of 1.
被写体像を含む画像を表示部に表示する際、前記被写体像について第1の領域を特定する第1の表示体と第2の領域を特定する第2の表示体とを前記被写体像に対応づけて表示する画像表示装置で用いられる制御プログラムであって、
前記画像表示装置が備えるコンピュータに、
前記画像において前記被写体像における前記第1の領域の位置を検出して第1の検出結果を求める第1の検出ステップと、
前記画像において前記被写体像における前記第2の領域の位置を検出して第2の検出結果を求める第2の検出ステップと、
前記第1の検出結果に応じて前記第2の領域の位置を推定して推定結果を求める推定ステップと、
前記第1の検出結果、前記第2の検出結果、および前記推定結果に応じてそれぞれ前記第1の表示体、前記第2の表示体、および前記第2の領域の位置を推定する推定表示体を前記表示部に表示制御する表示制御ステップとを実行させ、
前記推定ステップでは、前記第1の検出結果に応じて前記第1の表示体が表示される際、前記第2の検出ステップで前記第2の検出結果が得られていない場合にのみ、前記第1の検出結果に応じて前記推定結果を求めることを特徴とする制御プログラム。
When an image including a subject image is displayed on the display unit, a first display body that specifies a first area and a second display body that specifies a second area are associated with the subject image. A control program used in an image display device for displaying
A computer provided in the image display device,
A first detection step of detecting a first detection result by detecting a position of the first region in the subject image in the image;
A second detection step of detecting a position of the second region in the subject image in the image and obtaining a second detection result;
An estimation step for estimating a position of the second region in accordance with the first detection result and obtaining an estimation result;
An estimated display body that estimates the positions of the first display body, the second display body, and the second region according to the first detection result, the second detection result, and the estimation result, respectively. A display control step of controlling display on the display unit,
In the estimation step, when the first display body is displayed according to the first detection result, only when the second detection result is not obtained in the second detection step, the first display body is displayed. A control program for obtaining the estimation result according to a detection result of 1.
請求項1〜のいずれか1項に記載の画像表示装置と、
複数の被写体を撮像して画像データを得る撮像手段とを有し、
前記表示制御手段は前記画像データに応じた画像を前記表示部に表示することを特徴とする撮像装置。
The image display device according to any one of claims 1 to 4 ,
Imaging means for capturing a plurality of subjects and obtaining image data;
The image pickup apparatus, wherein the display control means displays an image corresponding to the image data on the display unit.
JP2012244455A 2012-11-06 2012-11-06 Image display apparatus, control method thereof, control program, and imaging apparatus Expired - Fee Related JP6033044B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012244455A JP6033044B2 (en) 2012-11-06 2012-11-06 Image display apparatus, control method thereof, control program, and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012244455A JP6033044B2 (en) 2012-11-06 2012-11-06 Image display apparatus, control method thereof, control program, and imaging apparatus

Publications (2)

Publication Number Publication Date
JP2014093715A JP2014093715A (en) 2014-05-19
JP6033044B2 true JP6033044B2 (en) 2016-11-30

Family

ID=50937493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012244455A Expired - Fee Related JP6033044B2 (en) 2012-11-06 2012-11-06 Image display apparatus, control method thereof, control program, and imaging apparatus

Country Status (1)

Country Link
JP (1) JP6033044B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6902181B2 (en) * 2016-12-07 2021-07-14 株式会社大林組 Monitoring system, monitoring method and monitoring program
US20240054805A1 (en) * 2021-03-30 2024-02-15 Nec Corporation Information processing apparatus, information processing method, and recording medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4830650B2 (en) * 2005-07-05 2011-12-07 オムロン株式会社 Tracking device
JP4912117B2 (en) * 2006-10-27 2012-04-11 三洋電機株式会社 Imaging device with tracking function
JP2009081714A (en) * 2007-09-26 2009-04-16 Olympus Imaging Corp Imaging device and face region determination method thereof
JP5203281B2 (en) * 2009-03-31 2013-06-05 綜合警備保障株式会社 Person detection device, person detection method, and person detection program
JP5814557B2 (en) * 2011-02-07 2015-11-17 キヤノン株式会社 Image display control device, imaging device, display control method, and control program

Also Published As

Publication number Publication date
JP2014093715A (en) 2014-05-19

Similar Documents

Publication Publication Date Title
US8786760B2 (en) Digital photographing apparatus and method using face recognition function
US8817158B2 (en) Image pickup apparatus and control method for image pickup apparatus with touch operation member control
JP5251215B2 (en) Digital camera
US9106834B2 (en) Image display controller capable of providing excellent visibility of display area frames, image pickup apparatus, method of controlling the image display controller, and storage medium
JP5736796B2 (en) Electronic camera, program and recording medium
US8441542B2 (en) Self-timer photographing apparatus and method involving checking the number of persons
US9398222B2 (en) Image display device that displays image and display bodies specifying image's particular regions, control method and storage medium therefor, and image pickup apparatus
US20160028944A1 (en) Image processing apparatus, imaging apparatus, and image processing method
US20190149719A1 (en) Image capturing apparatus, image capturing method, and storage medium
US20180316858A1 (en) Image processing apparatus and image processing apparatus control method
US11533425B2 (en) Image processing apparatus and method for changing a priority category for objection detection
JP6431429B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP6033044B2 (en) Image display apparatus, control method thereof, control program, and imaging apparatus
JP2014131190A (en) Image pick-up apparatus, control method thereof, and control program
US8866934B2 (en) Image pickup apparatus capable of deleting video effect superimposed on moving image, method of controlling the apparatus, and moving image-recording apparatus, as well as storage medium
JP2014110596A (en) Image pickup device, control method, and program therefor, and recording medium
JP6768449B2 (en) Imaging control device, control method and program of imaging device
JP2015034895A (en) Imaging device and control method for the same
JP6381416B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
JP2014225763A (en) Imaging apparatus, control method of the same, program, and storage medium
JP6225463B2 (en) Imaging apparatus, imaging method, and recording medium
JP2011055272A (en) Imaging apparatus and imaging method
JP6039410B2 (en) Image processing apparatus and image processing method
JP6512938B2 (en) Imaging apparatus and image processing method
JP6703057B2 (en) Electronic device, control method thereof, and program thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151028

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161025

R151 Written notification of patent or utility model registration

Ref document number: 6033044

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees