JP6033044B2 - Image display apparatus, control method thereof, control program, and imaging apparatus - Google Patents
Image display apparatus, control method thereof, control program, and imaging apparatus Download PDFInfo
- Publication number
- JP6033044B2 JP6033044B2 JP2012244455A JP2012244455A JP6033044B2 JP 6033044 B2 JP6033044 B2 JP 6033044B2 JP 2012244455 A JP2012244455 A JP 2012244455A JP 2012244455 A JP2012244455 A JP 2012244455A JP 6033044 B2 JP6033044 B2 JP 6033044B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- detection
- human body
- face
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Indication In Cameras, And Counting Of Exposures (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、画像表示装置、その制御方法、および制御プログラム、並びに撮像装置に関し、特に、画像の特定領域を規定する特定情報の表示を行うための技術に関する。 The present invention relates to an image display device, a control method thereof, a control program, and an imaging device, and more particularly, to a technique for displaying specific information that defines a specific region of an image.
一般に、デジタルカメラなどの撮像装置には、撮影の結果得られた画像を表示するための画像表示装置が備えられている。そして、この種の撮像装置では、被写体の特定領域を検出して当該特定領域を特定する検出枠を画像とともに表示している。 In general, an imaging device such as a digital camera is provided with an image display device for displaying an image obtained as a result of photographing. In this type of imaging apparatus, a specific area of the subject is detected and a detection frame for specifying the specific area is displayed together with the image.
例えば、被写体の特定領域として顔領域を検出して、当該顔領域を示す検出枠を表示装置に表示するようにした撮像装置がある(特許文献1参照)。この場合に、被写体の顔の特徴値(顔の角度など)に応じて検出枠の属性(検出枠の色および形状など)を変更して表示装置に表示すれば、ユーザは被写体の顔の特徴を直感的に把握することができる。 For example, there is an imaging apparatus that detects a face area as a specific area of a subject and displays a detection frame indicating the face area on a display device (see Patent Document 1). In this case, if the attributes of the detection frame (such as the color and shape of the detection frame) are changed according to the facial feature value (such as the face angle) of the subject and displayed on the display device, the user can display the facial feature of the subject. Can be grasped intuitively.
さらに、被写体の顔領域を検出する顔検出部に加えて、被写体の人体の部分(人体領域)を検出する人体検出部を備える監視カメラなどの撮像装置が知られている。 Furthermore, in addition to a face detection unit that detects a face area of a subject, an imaging device such as a monitoring camera that includes a human body detection unit that detects a human body part (human body area) of the subject is known.
ところで、顔検出部および人体検出部を備える撮像装置では、顔検出部および人体検出部が独立的に動作しかつその処理時間が異なることがある。そして、顔検出結果および人体検出結果に応じてそれぞれ顔検出枠および人体検出枠が表示装置に表示される。 By the way, in an imaging device including a face detection unit and a human body detection unit, the face detection unit and the human body detection unit may operate independently and processing times thereof may be different. Then, a face detection frame and a human body detection frame are displayed on the display device according to the face detection result and the human body detection result, respectively.
図11は、従来の顔検出枠および人体検出枠の表示の一例を示す図である。 FIG. 11 is a diagram illustrating an example of display of a conventional face detection frame and human body detection frame.
図示のように、表示装置200の画面上には、顔検出枠201が表示されるとともに、顔検出枠201を囲むようにして人体検出枠202が表示される。
As illustrated, a
ここで、従来の顔検出枠および人体検出枠の表示処理について説明する。 Here, conventional display processing of the face detection frame and the human body detection frame will be described.
図12は従来の顔検出枠および人体検出枠の表示タイミングを示すタイミングチャートである。なお、図12においては、顔検出処理が人体検出処理よりも処理が早く終了するものとする。 FIG. 12 is a timing chart showing the display timing of the conventional face detection frame and human body detection frame. In FIG. 12, it is assumed that the face detection process is completed earlier than the human body detection process.
時間1において、被写体D1がキャプチャされて、被写体D1に係る顔検出処理および人体検出処理が開始される。続いて、時間2において被写体D1の顔検出が完了して、被写体D1の顔検出枠が画面表示される。また、時間2において被写体D2がキャプチャされて、被写体D2に係る顔検出処理および人体検出処理が開始される。
At
時間3において、被写体D2の顔検出が完了して、被写体D2の顔検出枠が画面表示される。また、時間3において被写体D3がキャプチャされて、被写体D3に係る顔検出処理および人体検出処理が開始される。
At
時間4において、被写体D3の顔検出が完了して、被写体D3の顔検出枠が画面表示される。この際、被写体D1に係る人体検出処理が完了しているので、被写体D1の人体検出枠が画面表示される。また、時間4において、被写体D4がキャプチャされて、被写体D4に係る顔検出処理および人体検出処理が開始される。 At time 4, the face detection of the subject D3 is completed, and the face detection frame of the subject D3 is displayed on the screen. At this time, since the human body detection process related to the subject D1 is completed, the human body detection frame of the subject D1 is displayed on the screen. At time 4, the subject D4 is captured, and the face detection process and the human body detection process related to the subject D4 are started.
このようにして、時間(t+2)まで同様にして処理が行われる。つまり、レリーズが行われるまで、時間4における処理と同様の処理が繰り返される。この結果、時間(t+1)では、被写体Dtまでの顔検出枠が画面表示され、被写体D(t−2)までの人体検出枠が画面表示される。 In this way, the process is performed in the same manner until time (t + 2). That is, the same processing as that in time 4 is repeated until the release is performed. As a result, at time (t + 1), the face detection frame up to the subject Dt is displayed on the screen, and the human body detection frame up to the subject D (t-2) is displayed on the screen.
図13は、図12に示すタイミングチャートに応じた処理によって画面表示される顔検出枠および人体検出枠の一例を示す図である。そして、図13(a)は時間tにおける画面表示を示す図であり、図13(b)は時間(t+2)における画面表示を示す図である。 FIG. 13 is a diagram illustrating an example of a face detection frame and a human body detection frame displayed on the screen by processing according to the timing chart illustrated in FIG. FIG. 13A shows a screen display at time t, and FIG. 13B shows a screen display at time (t + 2).
図13(a)に示すように、時間tにおいて、被写体203の顔検出枠201が表示されると、時間(t+2)において、図13(b)に示すように、被写体203の人体検出枠202が表示されることになる。つまり、時間tにおいて顔検出が完了した時点で顔検出枠201のみが表示され、時間(t+2)において顔検出とともに人体検出が完了した時点で顔検出枠202ととともに人体検出枠203が表示されることになる。
As shown in FIG. 13A, when the
このように、顔検出部および人体検出部が独立的に動作し、かつ各々の処理時間が異なる場合には、早く検出された領域の検出枠(ここでは、顔検出枠)のみが一時的に表示されることがある。 As described above, when the face detection unit and the human body detection unit operate independently and each processing time is different, only the detection frame of the area detected earlier (here, the face detection frame) is temporarily stored. May be displayed.
そして、顔検出枠が表示されてから人体検出枠が表示されるまでの時間の開きが長いと、ユーザが違和感を覚える可能性がある。 If the time interval from when the face detection frame is displayed to when the human body detection frame is displayed is long, the user may feel uncomfortable.
さらに、上述のように、顔検出処理および人体検出処理に要する時間が異なる場合に、被写体が移動していると、顔検出枠のずれと人体検出枠のずれが異なってしまう。 Further, as described above, when the time required for the face detection process and the human body detection process is different, if the subject is moving, the shift of the face detection frame and the shift of the human body detection frame are different.
図14は、従来の顔検出枠および人体検出枠のずれを説明するための図である。そして、図14(a)は顔検出枠のみが表示された状態を示す図であり、図14(b)は顔検出枠および人体検出枠が表示された状態を示す図である。 FIG. 14 is a diagram for explaining a shift between a conventional face detection frame and a human body detection frame. FIG. 14A is a diagram showing a state where only the face detection frame is displayed, and FIG. 14B is a diagram showing a state where the face detection frame and the human body detection frame are displayed.
図14において、被写体203は静止しており、被写体204は移動しているものとする。この場合に、顔検出処理および人体検出処理に要する時間が異なると、まず、時間tにおいて、被写体203の顔検出枠201が表示されるとともに、被写体204の顔検出枠205が表示されているものとする。
In FIG. 14, it is assumed that the
そして、時間(t+n)において(ここでは、n=2である)、被写体203の人体検出枠202が表示されるとともに、被写体204の顔検出枠206が表示されたとする。この場合、人体検出処理は顔検出処理に比べて時間を要するので、被写体204のように被写体が移動していると、顔検出処理から人体検出処理までの時間に応じて、人体検出枠206が実際に被写体の存在する位置からずれて表示されてしまうことになる。
Then, it is assumed that the human
この結果、ユーザは人体検出枠によって移動する被写体を的確に視認することが困難となってしまう。 As a result, it becomes difficult for the user to accurately visually recognize the moving subject by the human body detection frame.
従って、本発明の第1の目的は、被写体の顔領域を示す枠および人体領域を示す枠を同時に画面表示することのできる画像表示装置、その制御方法、および制御プログラム、並びに撮像装置を提供することにある。 Accordingly, a first object of the present invention is to provide an image display device capable of simultaneously displaying a frame indicating a face region of a subject and a frame indicating a human body region on the screen, a control method thereof, a control program, and an imaging device. There is.
また、本発明の第2の目的は、移動する被写体において検出を行った領域と検出枠とのずれを低減することのできる画像表示装置、その制御方法、および制御プログラム、並びに撮像装置を提供することにある。 A second object of the present invention is to provide an image display device, a control method thereof, a control program, and an imaging device capable of reducing a shift between a detection area and a detection frame in a moving subject. There is.
上記の目的を達成するために、本発明による画像表示装置は、被写体像を含む画像を表示部に表示する際、前記被写体像について第1の領域を特定する第1の表示体と第2の領域を特定する第2の表示体とを前記被写体像に対応づけて表示する画像表示装置であって、前記画像において前記被写体像における前記第1の領域の位置を検出して第1の検出結果を求める第1の検出手段と、前記画像において前記被写体像における前記第2の領域の位置を検出して第2の検出結果を求める第2の検出手段と、前記第1の検出結果に応じて前記第2の領域の位置を推定して推定結果を求める推定手段と、前記第1の検出結果、前記第2の検出結果、および前記推定結果に応じてそれぞれ前記第1の表示体、前記第2の表示体、および前記第2の領域の位置を推定する推定表示体を前記表示部に表示制御する表示制御手段とを有し、前記推定手段は、前記第1の検出結果に応じて前記第1の表示体が表示される際、前記第2の検出手段によって前記第2の検出結果が得られていない場合にのみ、前記第1の検出結果に応じて前記推定結果を求めることを特徴とする。 In order to achieve the above object, an image display device according to the present invention, when displaying an image including a subject image on a display unit, a first display body that specifies a first region for the subject image, and a second display An image display device that displays a second display for specifying a region in association with the subject image, wherein the first detection result is obtained by detecting the position of the first region in the subject image in the image. According to the first detection result, the second detection means for detecting the position of the second region in the subject image in the image and obtaining the second detection result, and the first detection result. Estimating means for estimating the position of the second region and obtaining an estimation result; and the first display body, the second detection result, and the estimation result, respectively, according to the first detection result, the second detection result, and the estimation result. 2 display bodies and the second region Display control means for controlling display of the estimated display body for estimating the position on the display unit, and the estimating means displays the first display body according to the first detection result when the first display body is displayed. The estimation result is obtained according to the first detection result only when the second detection result is not obtained by the second detection means.
本発明によれば、被写体像の顔領域である第1の領域を示す枠および人体領域である第2の領域を示す枠を同時に画面表示することができ、ユーザは短時間で被写体全体の視認を行うことができる。 According to the present invention, the frame indicating the first area that is the face area of the subject image and the frame indicating the second area that is the human body area can be simultaneously displayed on the screen, and the user can view the entire subject in a short time. It can be performed.
また、本発明によれば、移動する被写体において検出を行った領域と検出枠とのずれを低減することができ、ユーザは当該検出枠によって移動する被写体を的確に視認することができる。 Further, according to the present invention, it is possible to reduce the difference between the detection area and the detection frame in the moving subject, and the user can accurately visually recognize the moving subject by the detection frame.
以下、本発明の実施の形態による画像表示装置の一例について図面を参照して説明する。 Hereinafter, an example of an image display device according to an embodiment of the present invention will be described with reference to the drawings.
[第1の実施形態]
図1は、本発明の第1の実施形態による画像表示装置を備える撮像装置の一例についてその構成を示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram illustrating a configuration of an example of an imaging apparatus including an image display apparatus according to the first embodiment of the present invention.
図示の撮像装置はデジタルカメラ(以下単にカメラと呼ぶ)であり、カメラ100はフォーカスレンズを含む撮影レンズユニット(以下単に撮影レンズと呼ぶ)103を有している、撮影レンズ103の後段には絞り機能を備えるシャッター101が配置されている。
The illustrated image pickup apparatus is a digital camera (hereinafter simply referred to as a camera), and the
撮影レンズ103およびシャッター101を通過した光学像(被写体像)は撮像素子である撮像部22に結像する。この撮像部22はCCD又はCMOSイメージセンサで構成されており、光学像に応じた電気信号(アナログ信号、つまり、画像信号)を出力する。そして、このアナログ信号はA/D変換器23に与えられ、ここで、デジタル信号(画像データ)に変換される。
An optical image (subject image) that has passed through the photographing
なお、撮影レンズ103の前面側にはバリア102が配置されている。このバリア102によって撮影レンズ103、シャッター101、および撮像部22を含む撮像系が覆われ、撮像系の汚れおよび破損を防止するようにしている。
A
画像処理部24はA/D変換器23からの画像データ、又はメモリ制御部15からの画像データに対して所定の画素補間および縮小などのリサイズ処理、そして、色変換処理を行う。また、画像処理部24は、撮影の結果得られた画像データを用いて所定の演算処理を行う。そして、システム制御部50は当該演算結果に基づいて露光制御および測距制御を行う。つまり、システム制御部50はTTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、およびEF(フラッシュプリ発光)処理を行う。
The
さらに、画像処理部24は、撮影の結果得られた画像データを用いて所定の演算処理を行って、当該演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。
Further, the
A/D変換器23から出力された画像データは、画像処理部24およびメモリ制御部15を介して、又はメモリ制御部15を介してメモリ32に書き込まれる。メモリ32には、A/D変換器23の出力である画像データが書き込まれるとともに、表示部28に表示するための画像データが格納される。なお、メモリ32は、所定枚数の静止画像データおよび所定時間の動画像データ、そして、音声データを格納するための十分な記憶容量を有している。加えて、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。
The image data output from the A /
D/A変換器13はメモリ32に格納されている画像表示用の画像データをアナログ信号に変換して表示部28に与える。これによって、表示部28には画像データに応じた画像が表示される。なお、表示部28は、例えば、LCDである。
The D /
不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えば、EEPROMが用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数およびプログラムなどが記憶される。このプログラムとは後述する各種フローチャートを実行するためのプログラムである。
The
システム制御部50はカメラ100の制御を司る。システム制御部50は、前述の不揮発性メモリ56に記録されたプログラムを実行して、後述する各処理を行う。システムメモリ52として、例えば、RAMが用いられる。システムメモリ52には、システム制御部50の動作用の定数、変数、および不揮発性メモリ56から読み出したプログラムなどが展開される。また、システム制御部50はメモリ32、D/A変換器13、および表示部28などを制御して表示制御を実行する。
The
モード切替スイッチ60、シャッターボタン61、および操作部70はシステム制御部50に各種の動作指示を入力するための入力操作部である。シャッターボタン61は撮影指示を行うためのものであり、第1シャッタースイッチおよび第2シャッタースイッチを有している。
The
モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画記録モード、および再生モードなどのいずれかに切り替える際に用いられる。
The
シャッターボタン61の操作によって、シャッターボタン61が所謂半押し状態となると、第1シャッタースイッチがオン(撮影準備指示)となって、第1シャッタースイッチ信号SW1がシステム制御部50に与えられる。そして、第1シャッタースイッチ信号SW1を受けると、システム制御部50はAF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、およびEF(フラッシュプリ発光)処理などが開始する。
When the shutter button 61 is in a so-called half-pressed state by operating the shutter button 61, the first shutter switch is turned on (imaging preparation instruction), and the first shutter switch signal SW1 is given to the
シャッターボタン61が所謂全押し状態となると、第2シャッタースイッチがオン(撮影指示)となって、第2シャッタースイッチ信号SW2がシステム制御部50に与えられる。第2シャッタースイッチ信号SW2を受けると、システム制御部50は撮像部22から画像信号を読み出して記録媒体200に画像データを書き込むまでの一連の撮影処理の動作を開始する。
When the shutter button 61 is in a fully-pressed state, the second shutter switch is turned on (shooting instruction), and the second shutter switch signal SW2 is given to the
表示部28に表示される種々の機能アイコンを選択操作すると、操作部70に備えられたボタンおよびキーなどの各操作部材には、場面毎に適宜機能が割り当てられて、各種機能ボタンとして機能する。
When various function icons displayed on the
機能ボタンとして、例えば、終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、および属性変更ボタンがある。例えば、メニューボタンが押されると、各種の設定を行うためのメニュー画面が表示部28に表示される。ユーザは表示部28に表示されたメニュー画面および4方向ボタン又はSETボタンを用いて直感的に各種の設定を行うことができる。
Examples of the function buttons include an end button, a return button, an image advance button, a jump button, a narrowing button, and an attribute change button. For example, when a menu button is pressed, a menu screen for performing various settings is displayed on the
電源制御部80は、電池検出回路、DC−DCコンバータ、および通電するブロックを切り替えるスイッチ回路などを有しており、電池装着の有無、電池の種類、および電池残量の検出を行う。また、電源制御部80は検出結果およびシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部に供給する。
The power
電源部30はアルカリ電池又はリチウム電池などの一次電池、又はNiCd電池、NiMH電池、又はLi電池等の二次電池、そして、ACアダプターなどを有している。インターフェース(I/F)18はメモリカード又はハードディスクなどの記録媒体200とのインターフェースである。記録媒体200がメモリカードである場合には、当該メモリカードは、例えば、半導体メモリで構成される。電源スイッチ72はカメラ100の電源のオン/オフを行うためのスイッチである。
The power supply unit 30 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, and an AC adapter. An interface (I / F) 18 is an interface with a
図示のように、システム制御部50には顔検出部(顔検出手段)104および人体検出部(体検出手段)105が接続されており、顔検出部104はメモリ32に格納された画像データにおいて被写体像の顔領域(第1の領域)を検出する。人体検出部105はメモリ32に格納された画像データにおいて被写体像の人体領域(第2の領域:体領域)を検出する。これら顔領域および人体領域の各々は画像における特定領域である。
As shown in the figure, a face detection unit (face detection unit) 104 and a human body detection unit (body detection unit) 105 are connected to the
上述のカメラ100は、所謂中央1点AFおよび顔AFを用いた撮影が可能である。ここで、中央1点AFとは撮影画面の中央位置1点に対してAFを行うことをいう。また、顔AFとは顔検出機能(つまり、顔検出部104)によって検出された顔領域に対してAFを行うことをいう。
The above-described
ここで、顔検出機能について説明する。システム制御部50の制御下で、顔検出部104はメモリ32から入力した画像データに対して水平方向バンドパスフィルタ処理を行う。さらに、システム制御部50の制御下で、顔検出部104は水平方向バンドパスフィルタ処理された画像データに対して垂直方向バンドパスフィルタ処理を行う。これら水平および垂直方向バンドパスフィルタ処理によって、画像データからエッジ成分が検出される。
Here, the face detection function will be described. Under the control of the
続いて、システム制御部50の制御下で、顔検出部104は検出されたエッジ成分に関してパターンマッチングを行って、目、鼻、口、および耳の候補群を抽出する。そして、システム制御部50の制御下で、顔検出部104は抽出された目の候補群において予め設定された条件(例えば、2つの目の距離および傾きなどの条件)を満たす候補を目の対と判定する。そして、顔検出部104は目の対を目の候補群として絞り込む。
Subsequently, under the control of the
さらに、システム制御部50の制御下で、顔検出部104は絞り込んだ目の候補群と当該目に対応して顔を形成する他のパーツ(鼻、口、耳)とを対応づける。さらに、顔検出部104は予め設定された非顔条件フィルタ処理を行って、顔(顔領域)を検出する。そして、顔検出部104は顔領域の検出結果を示す顔情報をシステム制御部50に出力する。システム制御部50は顔情報をシステムメモリ52に記憶する。
Furthermore, under the control of the
次に、人体検出機能について説明する。人体検出部105はメモリ32から入力した画像データに対して水平方向バンドパスフィルタ処理を行う。さらに、システム制御部50の制御下で、顔検出部104は水平方向バンドパスフィルタ処理された画像データに対して垂直方向バンドパスフィルタ処理を行う。これら水平および垂直方向バンドパスフィルタ処理によって、画像データからエッジ成分が検出される。
Next, the human body detection function will be described. The human
次に、システム制御部50の制御下で、人体検出部105は検出されたエッジ成分に関してパターンマッチングを行って、人体領域の輪郭形状に相当するか否かを判定する。そして、人体検出部105は人体領域の輪郭形状に相当するエッジ成分を人体領域であるとする。人体検出部105は人体領域の検出結果を示す人体情報をシステム制御部50に出力する。システム制御部50は人体情報をシステムメモリ52に記憶する。人体の形状パターンは、顔の形状パターンに比較してその種類が多いため、人体検出部105による人体領域の検出に要する時間は、顔検出部104による顔領域の検出に要する時間よりも長くなる。
Next, under the control of the
図2は、図1に示す顔検出部104によって得られた顔情報(顔検出情報ともいう)の一例を示す図である。
FIG. 2 is a diagram illustrating an example of face information (also referred to as face detection information) obtained by the
顔情報はX軸(pixel)およびY軸(pixel)を備えており、X軸には顔水平検出位置(Xf)307が規定されている。この顔水平検出位置(Xf)307は顔検出部104で検出された顔領域における水平方向(X軸方向)の始点となる位置である。
The face information includes an X axis (pixel) and a Y axis (pixel), and a face horizontal detection position (Xf) 307 is defined on the X axis. The face horizontal detection position (Xf) 307 is a position that is the starting point in the horizontal direction (X-axis direction) in the face area detected by the
さらに、Y軸には顔垂直検出位置(Yf)308が規定されている。この顔垂直検出位置(Yf)308は顔検出部104で検出された顔領域における垂直方向(Y軸方向)の始点となる位置である。
Further, a face vertical detection position (Yf) 308 is defined on the Y axis. The face vertical detection position (Yf) 308 is a position that is a start point in the vertical direction (Y-axis direction) in the face area detected by the
また、顔情報には、顔水平検出サイズ(Hf)302が規定されている。この顔水平検出サイズ(Hf)302は顔領域の水平方向の大きさを示すサイズ情報である。そして、顔情報には顔垂直検出サイズ(Vf)303が規定されている。この顔垂直検出サイズ(Vf)303は顔領域の垂直方向の大きさを示すサイズ情報である。 In the face information, a face horizontal detection size (Hf) 302 is defined. The face horizontal detection size (Hf) 302 is size information indicating the size of the face area in the horizontal direction. In the face information, a face vertical detection size (Vf) 303 is defined. The face vertical detection size (Vf) 303 is size information indicating the vertical size of the face area.
なお、顔検出位置情報301は顔水平検出位置307および顔垂直表示位置308の集合を示している。また、顔検出サイズ情報309は顔水平検出サイズ302および顔垂直検出サイズ303の集合を示している。
The face
顔情報には、顔ヨー方向検出角度(Θfy)304が規定されている。この顔ヨー方向検出角度(Θfy)304は水平方向に対する顔の回転角度を示す角度情報である。 In the face information, a face yaw direction detection angle (Θfy) 304 is defined. The face yaw direction detection angle (Θfy) 304 is angle information indicating the rotation angle of the face with respect to the horizontal direction.
顔情報には、顔ロール方向検出角度(Θfr)305が規定されている。この顔ロール方向検出角度(Θfr)305は垂直方向に対する顔の回転角度を示す角度情報である。 In the face information, a face roll direction detection angle (Θfr) 305 is defined. This face roll direction detection angle (Θfr) 305 is angle information indicating the rotation angle of the face with respect to the vertical direction.
加えて、顔情報には顔ピッチ方向検出角度(Θfp)306が規定されている。この顔ピッチ方向検出角度(Θfp)306は、垂直方向に対する顔の傾きを示す角度情報である。 In addition, a face pitch direction detection angle (Θfp) 306 is defined in the face information. The face pitch direction detection angle (Θfp) 306 is angle information indicating the inclination of the face with respect to the vertical direction.
なお、顔検出角度情報310は、顔ヨー方向検出角度304、顔ロール方向検出角度305、および顔ピッチ検出角度306の集合を示している。
The face
図3は、図1に示す人体検出部105によって得られた人体情報(人体検出情報ともいう)の一例を示す図である。
FIG. 3 is a diagram illustrating an example of human body information (also referred to as human body detection information) obtained by the human
人体情報はX軸(pixel)およびY軸(pixel)を備えており、X軸には人体水平検出位置(Xb)317が規定されている。この人体水平検出位置(Xb)317は人体検出部105で検出された人体領域における水平方向(X軸方向)の始点となる位置である。
The human body information includes an X axis and a Y axis, and a horizontal human body detection position (Xb) 317 is defined on the X axis. The human body horizontal detection position (Xb) 317 is a position that is the starting point in the horizontal direction (X-axis direction) in the human body region detected by the human
さらに、Y軸には人体垂直検出位置(Yb)318が規定されている。この人体垂直検出位置(Yb)318は人体検出部105で検出された人体領域における垂直方向(Y軸方向)の始点となる位置である。
Furthermore, a human body vertical detection position (Yb) 318 is defined on the Y axis. The human body vertical detection position (Yb) 318 is a position that is a starting point in the vertical direction (Y-axis direction) in the human body region detected by the human
なお、人体検出位置情報311は、人体水平検出位置317および人体垂直検出位置318の集合を示している。
The human body
また、人体情報には、人体水平検出サイズ(Hb)312が規定されている。この人体水平検出サイズ(Hb)312は人体領域の水平方向の大きさを示すサイズ情報である。そして、人体情報には人体垂直検出サイズ(Vb)313が規定されている。この人体垂直検出サイズ(Vb)313は人体領域の垂直方向の大きさを示すサイズ情報である。 Further, the human body horizontal detection size (Hb) 312 is defined in the human body information. This human body horizontal detection size (Hb) 312 is size information indicating the horizontal size of the human body region. A human body vertical detection size (Vb) 313 is defined in the human body information. This human body vertical detection size (Vb) 313 is size information indicating the size of the human body region in the vertical direction.
なお、人体検出サイズ情報319は、人体水平検出サイズ312および人体垂直検出サイズ313の集合を示している。
The human body
人体情報には、人体ヨー方向検出角度(Θby)314が規定されている。この人体ヨー方向検出角度(Θby)314は、水平方向に対する人体の回転角度を示す角度情報である。 In the human body information, a human yaw direction detection angle (Θby) 314 is defined. The human body yaw direction detection angle (Θby) 314 is angle information indicating the rotation angle of the human body with respect to the horizontal direction.
人体情報には、人体ロール方向検出角度(Θbr)315が規定されている。この人体ロール方向検出角度(Θbr)315は、垂直方向に対する人体の回転角度を示す角度情報である。 In the human body information, a human body roll direction detection angle (Θbr) 315 is defined. This human body roll direction detection angle (Θbr) 315 is angle information indicating the rotation angle of the human body with respect to the vertical direction.
加えて、人体情報には人体ピッチ方向検出角度(Θbp)316が規定されている。この人体ピッチ方向検出角度(Θbp)316は、垂直方向に対する人体の傾きを示す角度情報である。 In addition, a human body pitch direction detection angle (Θbp) 316 is defined in the human body information. The human body pitch direction detection angle (Θbp) 316 is angle information indicating the inclination of the human body with respect to the vertical direction.
なお、人体検出角度情報320は、人体ヨー方向検出角度314、人体ロール方向検出角度315、および人体ピッチ検出角度316の集合を示している。
The human body
図4は、図1に示すシステム制御部50が顔検出枠を生成する際に必要な顔表示情報の一例を示す図である。
FIG. 4 is a diagram showing an example of face display information necessary when the
顔表示情報はX軸(pixel)およびY軸(pixel)を備えており、X軸には顔水平表示位置(XF)327が規定されている。この顔水平表示位置(XF)327は顔検出枠における水平方向(X軸方向)の始点となる位置である。 The face display information includes an X axis (pixel) and a Y axis (pixel), and a horizontal face display position (XF) 327 is defined on the X axis. The face horizontal display position (XF) 327 is a position that is a starting point in the horizontal direction (X-axis direction) in the face detection frame.
さらに、Y軸には顔垂直表示位置(YF)328が規定されている。この顔垂直表示位置(YF)328は顔検出枠における垂直方向(Y軸方向)の始点となる位置である。 Further, a face vertical display position (YF) 328 is defined on the Y axis. The face vertical display position (YF) 328 is a position that is a starting point in the vertical direction (Y-axis direction) in the face detection frame.
なお、顔表示位置情報321は、顔水平表示位置327および顔垂直表示位置328の集合を示している。
The face
また、顔表示情報には、顔水平表示サイズ(HF)322が規定されている。この顔水平表示サイズ(HF)322は顔検出枠の水平方向の大きさを示すサイズ情報である。そして、顔表示情報には顔垂直表示サイズ(VF)323が規定されている。この顔垂直表示サイズ(VF)323は顔検出枠の大きさを示すサイズ情報である。 The face display information defines a face horizontal display size (HF) 322. The face horizontal display size (HF) 322 is size information indicating the size of the face detection frame in the horizontal direction. In the face display information, a face vertical display size (VF) 323 is defined. The face vertical display size (VF) 323 is size information indicating the size of the face detection frame.
なお、顔表示サイズ情報329は顔水平表示サイズ322および顔垂直表示サイズ323の集合を示している。
The face
顔表示情報には、顔ヨー方向表示角度(ΘFy)324が規定されている。この顔ヨー方向表示角度(ΘFy)324は水平方向に対する顔検出枠の回転角度を示す角度情報である。 The face display information defines a face yaw direction display angle (ΘFy) 324. The face yaw direction display angle (ΘFy) 324 is angle information indicating the rotation angle of the face detection frame with respect to the horizontal direction.
顔表示情報には、顔ロール方向表示角度(ΘFr)325が規定されている。この顔ロール方向表示角度(ΘFr)325は垂直方向に対する顔検出枠の回転角度を示す角度情報である。加えて、顔表示情報には顔ピッチ方向表示角度(ΘFp)326が規定されている。この顔ピッチ方向表示角度(ΘFp)326は、垂直方向に対する顔検出枠の傾きを示す角度情報である。 In the face display information, a face roll direction display angle (ΘFr) 325 is defined. The face roll direction display angle (ΘFr) 325 is angle information indicating the rotation angle of the face detection frame with respect to the vertical direction. In addition, a face pitch direction display angle (ΘFp) 326 is defined in the face display information. The face pitch direction display angle (ΘFp) 326 is angle information indicating the inclination of the face detection frame with respect to the vertical direction.
なお、顔表示角度情報330は、顔ヨー方向表示角度324、顔ロール方向表示角度325、および顔ピッチ表示角度326の集合を示している。
The face
図5は、図1に示すシステム制御部50が人体検出枠を生成する際に必要な人体表示情報の一例を示す図である。
FIG. 5 is a diagram illustrating an example of human body display information necessary when the
人体表示情報はX軸(pixel)およびY軸(pixel)を備えており、X軸には人体水平表示位置(XB)337が規定されている。この人体水平表示位置(XB)337は人体検出枠における水平方向(X軸方向)の始点となる位置である。さらに、Y軸には人体垂直表示位置(YB)338が規定されている。この人体垂直表示位置(YB)338は人体検出枠における垂直方向(Y軸方向)の始点となる位置である。 The human body display information includes an X axis (pixel) and a Y axis (pixel), and a human body horizontal display position (XB) 337 is defined on the X axis. The human body horizontal display position (XB) 337 is a position that is a starting point in the horizontal direction (X-axis direction) in the human body detection frame. Furthermore, a human body vertical display position (YB) 338 is defined on the Y axis. The human body vertical display position (YB) 338 is a position that is a starting point in the vertical direction (Y-axis direction) in the human body detection frame.
なお、人体表示位置情報331は、人体水平表示位置337および人体垂直表示位置338の集合を示している。
The human body
また、人体表示情報には、人体水平表示サイズ(HB)332が規定されている。この人体水平表示サイズ(HB)332は人体検出枠の水平方向の大きさを示すサイズ情報である。そして、人体表示情報には人体垂直表示検出サイズ(VB)333が規定されている。この人体垂直表示サイズ(VB)333は人体検出枠の垂直方向の大きさを示すサイズ情報である。 The human body display information defines a human body horizontal display size (HB) 332. The human body horizontal display size (HB) 332 is size information indicating the horizontal size of the human body detection frame. A human body vertical display detection size (VB) 333 is defined in the human body display information. The human body vertical display size (VB) 333 is size information indicating the size of the human body detection frame in the vertical direction.
なお、人体表示サイズ情報339は、人体水平表示サイズ332および人体垂直表示サイズ333の集合を示している。
The human body
人体表示情報には、人体ヨー方向表示角度(ΘBy)334が規定されている。この人体ヨー方向表示角度(ΘBy)334は、水平方向に対する人体検出枠の回転角度を示す角度情報である。 In the human body display information, a human body yaw direction display angle (ΘBy) 334 is defined. The human body yaw direction display angle (ΘBy) 334 is angle information indicating the rotation angle of the human body detection frame with respect to the horizontal direction.
人体表示情報には、人体ロール方向表示角度(ΘBr)335が規定されている。この人体ロール方向表示角度(ΘBr)335は、垂直方向に対する人体検出枠の回転角度を示す角度情報である。加えて、人体表示情報には人体ピッチ方向表示角度(ΘBp)336が規定されている。この人体ピッチ方向表示角度(ΘBp)336は、垂直方向に対する人体検出枠の傾きを示す角度情報である。 In the human body display information, a human body roll direction display angle (ΘBr) 335 is defined. This human body roll direction display angle (ΘBr) 335 is angle information indicating the rotation angle of the human body detection frame with respect to the vertical direction. In addition, a human body pitch direction display angle (ΘBp) 336 is defined in the human body display information. The human body pitch direction display angle (ΘBp) 336 is angle information indicating the inclination of the human body detection frame with respect to the vertical direction.
なお、人体表示角度情報340は、人体ヨー方向表示角度334、人体ロール方向表示角度335、および人体ピッチ表示角度336の集合を示している。
The human body
図6は、図1に示す撮像装置100で行われる顔検出枠および人体検出枠の枠表示処理を説明するためのフローチャートである。なお、図6に示す枠表示処理では、システム制御部50がメモリ制御部15を介して表示部28を制御することになる。
FIG. 6 is a flowchart for explaining frame display processing of the face detection frame and the human body detection frame performed by the
システム制御部50の制御下で、顔検出部(第1の検出手段)104および人体検出部(第2の検出手段)105はメモリ32に格納された表示用画像データにおいて被写体をキャプチャする(ステップS401)。そして、被写体をキャプチャすると、顔検出部104および人体検出部105はそれぞれ顔検出および人体検出を開始する(ステップS402)。なお、ここでは、顔が第1の領域であり、人体が第2の領域である。
Under the control of the
続いて、システム制御部50は顔検出部104における顔検出が完了したか否かを判定する(ステップS403)。顔検出が完了しないと(ステップS403において、NO)、システム制御部50は待機する。
Subsequently, the
一方、顔検出が完了すると(ステップS403において、YES)、システム制御部50は顔検出部104の顔検出結果に応じて顔が存在するか否かを判定する(ステップS404)。
On the other hand, when the face detection is completed (YES in step S403), the
顔が存在すると(ステップS404において、YES)、システム制御部50は人体検出部105における人体検出が完了したか否かを判定する(ステップS405)。人体検出が完了しないと(ステップS405において、NO)、システム制御部50は顔検出結果(第1の検出結果)に応じて人体領域を予測して人体予測領域(人体推定結果)を得る(ステップS406)。そして、システム制御部50は顔検出結果に応じて顔領域を特定する顔検出枠(第1の表示体)を実線で画面表示するとともに、人体予測領域(推定結果)に応じて人体領域を推定する人体推定枠(推定表示体)を破線(点線)で画面表示する(ステップS407)。
If a face is present (YES in step S404),
人体検出が完了すると(ステップS405において、YES)、システム制御部50は人体検出部105の人体検出結果に応じて人体が存在するか否かを判定する(ステップS408)。人体が存在すると(ステップS408において、YES)、システム制御部50は顔検出結果および人体検出結果(第2の検出結果)に応じてそれぞれ顔検出枠および人体領域を特定する人体検出枠(第2の表示体)を実線で画面表示する(ステップS409)。
When the human body detection is completed (YES in step S405),
一方、人体が存在しないと(ステップS408において、NO)、システム制御部50は顔検出結果に応じて顔検出枠のみを実線で画面表示する(ステップS410)。
On the other hand, if there is no human body (NO in step S408),
ステップS404において、顔が存在しないと(ステップS404において、NO)、システム制御部50は人体検出部105における人体検出が完了したか否かを判定する(ステップS411)。人体検出が完了しないと(ステップS411において、NO)、システム制御部50は待機する。
If there is no face in step S404 (NO in step S404), the
人体検出が完了すると(ステップS411において、YES)、システム制御部50は人体が存在するか否かを判定する(ステップS412)。そして、人体が存在すると(ステップS412において、YES)、システム制御部50は人体検出部105の人体検出結果に応じて人体検出枠を実線で画面表示する(ステップS413)。
When the human body detection is completed (YES in step S411), the
このように、システム制御部50は、顔検出枠および人体検出枠と推定検出枠とをその表示形態を異ならせて表示部28に表示する。
In this way, the
ステップS407、S409、S410、又はS413の処理の後、システム制御部50はレリーズが行われたか否かを判定する(ステップS414)。つまり、システム制御部50はシャッターボタン61が全押しされたか否かを判定する。
After the process of step S407, S409, S410, or S413, the
レリーズが行われると(ステップS414において、YES)、システム制御部50の制御下で被写体の撮影が実行される(ステップS15)。そして、システム制御部50は枠表示処理を終了する。
When the release is performed (YES in step S414), the subject is shot under the control of the system control unit 50 (step S15). Then, the
レリーズが行われないと(ステップS414において、YES)、処理はステップS401の処理に戻る。なお、ステップS412において、人体が存在しないと(ステップS412において、NO)、システム制御部50はステップS414の処理に進む。
If release is not performed (YES in step S414), the process returns to step S401. If no human body is present in step S412 (NO in step S412),
図7は、図1に示す撮像装置100で行われた枠表示処理の結果を説明するための図である。そして、図7(a)は顔検出枠および人体推定枠が表示された状態を示す図であり、図7(b)は顔検出枠および人体検出枠が表示された状態を示す図である。また、図7(c)は顔検出枠のみが表示された状態を示す図であり、図7(d)は人体検出枠のみが表示された状態を示す図である。
FIG. 7 is a diagram for explaining the result of the frame display process performed by the
前述のステップS407の処理では、図7(a)に示す顔検出枠501および人体予測枠502が表示部28に表示される。この際、人体予測枠502は顔検出結果に応じて予測された人体予測領域を示すので、点線で表示される。これによって、ユーザは人体予測枠502が予測によって表示されたと知ることができる。人体予測枠は、顔検出枠501に対する相対的な位置およびサイズが予め設定されており、顔検出枠501の位置を基準として演算によって求められる。
In the process of step S407 described above, the
ステップS409の処理では、図7(b)に示す顔検出枠501および人体検出枠503が表示部28に表示される。これによって、ユーザは顔領域および人体領域がともに検出されたことを知ることができる。
In the process of step S409, the
ステップS410の処理では、図7(c)に示す顔検出枠501のみが表示部28に表示される。これによって、ユーザは人体領域が検出されなかったことを知ることができる。
In the process of step S410, only the
ステップS413の処理では、図7(d)に示す人体検出枠503のみが表示部28に表示される。これによって、ユーザは顔領域が検出されなかったことを知ることができる。
In the process of step S413, only the human
図8は、図1に示す撮像装置100で行われる顔検出枠、人体検出枠、および人体予測枠の表示タイミングを示すタイミングチャートである。
FIG. 8 is a timing chart showing display timings of the face detection frame, the human body detection frame, and the human body prediction frame performed by the
いま、時間1において被写体D1をキャプチャすると、被写体D1の顔検出処理および人体検出処理が開始される。そして、時間2において被写体D1の顔検出が完了すると、被写体D1に係る顔検出枠が画面表示される。
Now, when the subject D1 is captured at
この際には、被写体D1について人体検出処理が完了していないので、被写体D1の顔検出結果に応じて被写体D1に係る人体領域の予測(推定)が行われる。そして、人体予測領域に応じて被写体D1の人体予測枠(人体予測枠)が画面表示される。 At this time, since the human body detection process is not completed for the subject D1, the human body region related to the subject D1 is predicted (estimated) according to the face detection result of the subject D1. Then, the human body prediction frame (human body prediction frame) of the subject D1 is displayed on the screen according to the human body prediction region.
なお、時間2において被写体D2をキャプチャして、被写体D2に係る顔検出処理および人体検出処理が開始される。
Note that the subject D2 is captured at
時間3において被写体D2の顔検出が完了すると、被写体D2に係る顔検出枠が画面表示される。この際には、被写体D1およびD2について人体検出処理が完了していないので、被写体D2の顔検出結果に応じて被写体D2に係る人体領域の予測が行われる。そして、人体予測領域に応じて被写体D2の人体予測枠が画面表示される。
When face detection of the subject D2 is completed at
なお、時間3において被写体D3をキャプチャして、被写体D3の顔検出処理および人体検出処理が開始される。
At
時間4において被写体D3の顔検出が完了すると、被写体D3に係る顔検出枠が画面表示される。この際には、被写体D1に係る人体検出処理が完了しているので、人体予測枠(点線)に代えて被写体D1について人体検出枠(実線)が画面表示されることになる。 When face detection of the subject D3 is completed at time 4, a face detection frame related to the subject D3 is displayed on the screen. At this time, since the human body detection process related to the subject D1 is completed, the human body detection frame (solid line) is displayed on the screen for the subject D1 instead of the human body prediction frame (dotted line).
なお、時間4において被写体D4をキャプチャして、被写体D4に係る顔検出処理および人体検出処理が開始される。 Note that the subject D4 is captured at time 4, and the face detection process and the human body detection process related to the subject D4 are started.
このようにして、時間(t+2)まで同様にして処理が行われる。つまり、レリーズが行われるまで、時間4における処理と同様の処理が繰り返される。この結果、時間(t+1)では、被写体Dtまでの顔検出枠(実線)が画面表示されるとともに、被写体D(t−1)およびDtについて人体予測枠(点線)が画面表示される。さらに、被写体D(t−2)までの人体検出枠(実線)が画面表示される。 In this way, the process is performed in the same manner until time (t + 2). That is, the same processing as that in time 4 is repeated until the release is performed. As a result, at time (t + 1), the face detection frame (solid line) up to the subject Dt is displayed on the screen, and the human body prediction frame (dotted line) is displayed on the screen for the subjects D (t−1) and Dt. Further, a human body detection frame (solid line) up to the subject D (t-2) is displayed on the screen.
このように、本発明の第1の実施形態では、顔検出処理が完了した時点で、人体検出処理が完了していないと、顔検出枠および人体予測枠を画面表示するようにしたので、被写体の顔領域を示す枠および人体領域を示す枠を同時に画面表示することができることになる。この結果、ユーザは人体検出処理が終了するまで待つことなく、被写体全体を容易に視認することができる。 As described above, in the first embodiment of the present invention, when the human body detection process is not completed when the face detection process is completed, the face detection frame and the human body prediction frame are displayed on the screen. The frame indicating the face area and the frame indicating the human body area can be simultaneously displayed on the screen. As a result, the user can easily visually recognize the entire subject without waiting for the human body detection process to end.
[第2の実施形態]
続いて、本発明の第2の実施形態による画像表示装置を備える撮像装置について説明する。なお、第2の実施形態による撮像装置の構成は図1に示す撮像装置と同様であるので説明を省略する。
[Second Embodiment]
Subsequently, an imaging device including an image display device according to a second embodiment of the present invention will be described. The configuration of the imaging apparatus according to the second embodiment is the same as that of the imaging apparatus shown in FIG.
図9は、本発明の第1の実施形態による撮像装置100で行われる枠表示処理を説明するためのフローチャートである。
FIG. 9 is a flowchart for explaining frame display processing performed by the
なお、以下の説明では、連続する複数のフレームの各々について画像を表示部28に表示する場合について説明する。この際、システム制御部50は顔検出から顔検出枠の表示までの処理を、1つのフレーム内で処理することが可能であり、人体検出から人体検出枠の表示までの処理についてはnフレーム(nは2以上の整数)を要するものとする。
In the following description, a case where an image is displayed on the
システム制御部50の制御下で、顔検出部104および人体検出部105はメモリ32に格納された表示用画像データ(1フレーム)において被写体をキャプチャする(ステップS901)。そして、顔検出部104は、キャプチャした被写体について顔検出を開始して、前述のように、システムメモリ52に顔情報を格納する(ステップS902)。これと並行して、人体検出部105は、キャプチャした被写体について人体検出を行う(ステップS903)。上述したように、この人体検出部105が人体検出に要する時間は、顔検出部104が顔検出に要する時間よりも長い。
Under the control of the
そして、システム制御部50は先に得られた顔情報(又は顔表示情報)、つまり、顔表示位置情報321に応じて顔検出枠を表示部28に表示する(ステップS904)。
Then, the
続いて、システム制御部50は人体検出部105による人体の検出が完了したか否かを判定する(ステップS905)。
Subsequently, the
人体の検出が完了していないと(ステップS905において、NO)、つまり、現在のフレームにおいて未だ人体検出が完了しない判定すると、システム制御部50はメモリ32に格納された次のフレームをキャプチャする(ステップS906)。
If the detection of the human body is not completed (NO in step S905), that is, if it is determined that the human body detection is not yet completed in the current frame, the
続いて、システム制御部50はステップS902において顔検出が行われた顔について、ステップS906でキャプチャしたフレームで顔検出および顔追尾を行う(ステップS907)。
Subsequently, the
システム制御部50は、現フレームとその前のフレームの両方で1つの顔検出に成功していれば、検出できた顔領域を同一人物とみなして関連付けてその位置を記憶する。顔が複数検出できた場合には、フレーム間で最も位置の近い顔領域を同一人物の顔領域とみなして、関連付けてその位置を記憶する。
If one face is successfully detected in both the current frame and the previous frame, the
反対に、システム制御部50は、前のフレームで顔領域を特定できたにも関わらず、現フレームでの顔検出に失敗した場合には、例えば、動きベクトル検出を行って顔追尾が行なわれる。つまり、動画の場合、現フレームとその前のフレームについて被写体領域について動きベクトル検出を行って、この動きベクトル検出結果(動きベクトル量)を被写体領域の移動量として被写体領域の位置を逐次修正して追尾処理が行われる。なお、システム制御部50は現フレームとその前のフレームについて被写体領域におけるブロックマッチングなどの相関演算を用いて、動きベクトル量を求める。
On the other hand, if the face detection has failed in the current frame despite the fact that the face area has been specified in the previous frame, the
システム制御部50は顔検出または顔追尾の結果に応じて顔検出枠を表示部28に表示する(ステップS908)。そして、システム制御部50はステップS905の処理に戻る。
The
一方、人体の検出が完了すると(ステップS905において、YES)、システム制御部50は、人体の検出に要した期間における、顔についての移動方向および移動量を示す移動ベクトルを算出する(ステップS909)。
On the other hand, when the detection of the human body is completed (YES in step S905),
いま、ステップS901で被写体のキャプチャを行った時刻がtであるとすると、人体の検出が完了した時点は時刻(t+n)となる。ここで、前述した図14を参照すると、顔検出枠の表示についてはキャプチャした1フレーム内で処理されるので、時刻tでは図14(a)に示すように、顔検出枠201および顔検出枠205が顔表示位置情報321に応じて表示される。
Assuming that the time when the subject is captured in step S901 is t, the time when the detection of the human body is completed is time (t + n). Here, referring to FIG. 14 described above, since the display of the face detection frame is processed within one captured frame, at time t, as shown in FIG. 14A, the
さらに、顔については随時新たな検出結果あるいは追尾結果が得られているので、図14(b)に示す時刻(t+n)では、新たな顔の位置を顔枠201および205で表示することができる。 Furthermore, since new detection results or tracking results are obtained for the face at any time, the position of the new face can be displayed in the face frames 201 and 205 at the time (t + n) shown in FIG. .
一方、人体検出枠の表示についてはnフレームを要するので、時刻(t+n)においては、時刻tでキャプチャした被写体に係る人体表示位置情報331に応じて人体検出枠が表示されることになる。
On the other hand, since the display of the human body detection frame requires n frames, at time (t + n), the human body detection frame is displayed according to the human body
このため、被写体203のようにnフレームの間にその位置が移動しなければ、時刻tにおける人体表示位置情報331を応じて人体検出枠202を画面表示しても人体の位置と人体検出枠202とのずれが生じず、ユーザに違和感を与えることはない。
Therefore, if the position does not move during n frames like the subject 203, the position of the human body and the human
一方、被写体204のようにnフレームの間にその位置が移動すると、顔検出枠205については時刻(t+n)における被写体204の新たな顔の位置に表示することができる。ところが、人体検出枠206については、時刻tにおける人体表示位置情報331に応じて表示すると、被写体204の人体の位置とずれて表示されてしまう。
On the other hand, when the position of the subject 204 moves during n frames like the subject 204, the
システム制御部50は、上記のずれを軽減するため、ステップS909において顔の移動ベクトルを算出する。つまり、システム制御部50は時刻tにおけるフレームの顔表示位置情報321と時刻(t+n)におけるフレームの顔の位置とに応じて顔領域の移動ベクトルを算出する。
In order to reduce the above-described shift, the
ここで、時刻(t+n)におけるフレームの顔の位置とは現フレームについてステップS907で行った顔追尾の結果獲られた顔表示位置情報である。 Here, the face position of the frame at time (t + n) is face display position information obtained as a result of the face tracking performed in step S907 for the current frame.
図10は、本発明の第2の実施形態による撮像装置100で行われる移動ベクトルの算出を説明するための図である。そして、図10(a)は時刻tにおける顔検出枠の表示を示す図であり、図10(b)は時刻(t+n)における顔検出枠および人体検出枠の表示を示す図である。
FIG. 10 is a diagram for explaining calculation of a movement vector performed by the
いま、被写体1001がnフレームの間に移動するとする。時刻tにおいて検出した顔領域を示す顔検出枠1002の位置座標を(Xf(t),Yf(t))とする。また、時刻(t+n)において顔追尾の結果得られた顔検出枠1003の位置座標を(Xf(t+n),Yf(t+n))とする。
Assume that the subject 1001 moves during n frames. Assume that the position coordinates of the
位置座標(Xf(t),Yf(t))および位置座標(Xf(t+n),Yf(t+n))を用いると、顔の移動ベクトルV=(Vx,Vy)は、次の式(1)で示される。 Using the position coordinates (Xf (t), Yf (t)) and the position coordinates (Xf (t + n), Yf (t + n)), the face movement vector V = (Vx, Vy) is expressed by the following equation (1): Indicated by
(Vx,Vy)=((Xf(t+n)−Xf(t)),(Yf(t+n)−Yf(t))) (1)
続いて、システム制御部50は人体検出部105で検出された人体表示位置情報331を、移動ベクトルVを用いて補正して、補正検出結果(補正人体表示位置情報を得る(ステップS910)。
(Vx, Vy) = ((Xf (t + n) −Xf (t)), (Yf (t + n) −Yf (t))) (1)
Subsequently, the
同一人物が所定の時間に移動する方向および距離は、顔と人体で同一であると推測されるので、システム制御部50は時刻(t+n)における人体表示位置情報(Xb(t+n),Yb(t+n))を、式(2)および式(3)に応じて算出する。
Since the direction and the distance that the same person moves at a predetermined time are estimated to be the same for the face and the human body, the
Xb(t+n)=Xb(t)+Vx (2)
Yb(t+n)=Yb(t)+Vy (3)
なお、人体表示位置情報のみではなく、時刻tにおいて検出した顔および時刻(t+n)において顔追尾の結果得られた顔表示サイズ情報329に応じて顔サイズの変化量(サイズ変化量)も算出することができる。そして、顔サイズの変化量に応じて時刻tにおける人体表示サイズ情報339を補正して、時刻(t+n)において表示する人体検出枠のサイズと実際の人体サイズとのずれを軽減するようにしてもよい。
Xb (t + n) = Xb (t) + Vx (2)
Yb (t + n) = Yb (t) + Vy (3)
In addition to the human body display position information, the face size change amount (size change amount) is also calculated according to the face detected at time t and face
続いて、システム制御部50は、ステップS910で補正された人体表示位置情報(Xb(t+n),Yb(t+n))に応じて人体検出枠1004を表示部28に表示する(ステップS911)。そして、システム制御部50は人体枠表示処理を一旦終了する。この人体枠表示処理を繰り返すことによって、顔検出枠と人体検出枠の表示を継続して行う。
Subsequently, the
このようにして、時刻(t+n)における顔位置を追尾するとともに、人体表示位置情報を補正すれば、点線で示す顔表示枠1006および人体表示枠1007を矢印1005で示す方向および移動量だけ移動して、実際の顔領域および人体領域に合わせて顔検出枠1003および人体検出枠1004を表示することができる。
In this way, by tracking the face position at time (t + n) and correcting the human body display position information, the
以上のように、本発明の第2の実施形態では、被写体における顔領域(顔)を顔検出部104により検出して、人体検出が完了するまでの顔の移動ベクトルを算出する。そして、人体検出部105によって人体が検出された後、移動ベクトルに応じて人体表示位置情報を補正して表示部に人体検出枠を表示する。
As described above, in the second embodiment of the present invention, the
これによって、被写体が移動している場合に、人体の検出位置と現在の人体の位置のずれを軽減して人体検出枠を表示することができる。 As a result, when the subject is moving, the human body detection frame can be displayed while reducing the deviation between the human body detection position and the current human body position.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.
上述の説明から明らかなように、図1に示す例においては、少なくともシステム制御部50、システムメモリ52、顔検出部104、人体検出部105、メモリ32、メモリ制御部15、D/A変換器13、および表示部28が画像表示装置を構成する。また、撮影レンズ103、シャッター101、撮像部22、A/D変換器23、および画像処理部24は撮像手段を構成する。
As is clear from the above description, in the example shown in FIG. 1, at least the
以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。 As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .
例えば、上記の実施の形態の機能を制御方法として、この制御方法を画像表示装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを画層表示装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。 For example, the function of the above embodiment may be used as a control method, and the control method may be executed by the image display apparatus. The program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the layer display device. The control program is recorded on a computer-readable recording medium, for example.
また、本発明は、以下の処理を実行することによっても実現される。つまり、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種の記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. To be executed.
15 メモリ制御部
22 撮像部
24 画像処理部
28 表示部
50 システム制御部
60 モード切替スイッチ
61 シャッターボタン
70 操作部
104 顔検出部
105 人体検出部
DESCRIPTION OF
Claims (7)
前記画像において前記被写体像における前記第1の領域の位置を検出して第1の検出結果を求める第1の検出手段と、
前記画像において前記被写体像における前記第2の領域の位置を検出して第2の検出結果を求める第2の検出手段と、
前記第1の検出結果に応じて前記第2の領域の位置を推定して推定結果を求める推定手段と、
前記第1の検出結果、前記第2の検出結果、および前記推定結果に応じてそれぞれ前記第1の表示体、前記第2の表示体、および前記第2の領域の位置を推定する推定表示体を前記表示部に表示制御する表示制御手段とを有し、
前記推定手段は、前記第1の検出結果に応じて前記第1の表示体が表示される際、前記第2の検出手段によって前記第2の検出結果が得られていない場合にのみ、前記第1の検出結果に応じて前記推定結果を求めることを特徴とする画像表示装置。 When an image including a subject image is displayed on the display unit, a first display body that specifies a first area and a second display body that specifies a second area are associated with the subject image. An image display device for displaying
First detection means for detecting a position of the first region in the subject image and obtaining a first detection result in the image;
Second detection means for detecting a position of the second region in the subject image in the image and obtaining a second detection result;
Estimating means for estimating a position of the second region according to the first detection result and obtaining an estimation result;
An estimated display body that estimates the positions of the first display body, the second display body, and the second region according to the first detection result, the second detection result, and the estimation result, respectively. Display control means for controlling display on the display unit,
The estimation unit is configured to display the first display object according to the first detection result only when the second detection result is not obtained by the second detection unit. An image display device characterized in that the estimation result is obtained according to the detection result of 1.
前記画像において前記被写体像における前記第1の領域の位置を検出して第1の検出結果を求める第1の検出ステップと、
前記画像において前記被写体像における前記第2の領域の位置を検出して第2の検出結果を求める第2の検出ステップと、
前記第1の検出結果に応じて前記第2の領域の位置を推定して推定結果を求める推定ステップと、
前記第1の検出結果、前記第2の検出結果、および前記推定結果に応じてそれぞれ前記第1の表示体、前記第2の表示体、および前記第2の領域の位置を推定する推定表示体を前記表示部に表示制御する表示制御ステップとを有し、
前記推定ステップでは、前記第1の検出結果に応じて前記第1の表示体が表示される際、前記第2の検出ステップで前記第2の検出結果が得られていない場合にのみ、前記第1の検出結果に応じて前記推定結果を求めることを特徴とする制御方法。 When an image including a subject image is displayed on the display unit, a first display body that specifies a first area and a second display body that specifies a second area are associated with the subject image. A method for controlling an image display device to display
A first detection step of detecting a first detection result by detecting a position of the first region in the subject image in the image;
A second detection step of detecting a position of the second region in the subject image in the image and obtaining a second detection result;
An estimation step for estimating a position of the second region in accordance with the first detection result and obtaining an estimation result;
An estimated display body that estimates the positions of the first display body, the second display body, and the second region according to the first detection result, the second detection result, and the estimation result, respectively. A display control step of controlling display on the display unit,
In the estimation step, when the first display body is displayed according to the first detection result, only when the second detection result is not obtained in the second detection step, the first display body is displayed. A control method characterized in that the estimation result is obtained according to a detection result of 1.
前記画像表示装置が備えるコンピュータに、
前記画像において前記被写体像における前記第1の領域の位置を検出して第1の検出結果を求める第1の検出ステップと、
前記画像において前記被写体像における前記第2の領域の位置を検出して第2の検出結果を求める第2の検出ステップと、
前記第1の検出結果に応じて前記第2の領域の位置を推定して推定結果を求める推定ステップと、
前記第1の検出結果、前記第2の検出結果、および前記推定結果に応じてそれぞれ前記第1の表示体、前記第2の表示体、および前記第2の領域の位置を推定する推定表示体を前記表示部に表示制御する表示制御ステップとを実行させ、
前記推定ステップでは、前記第1の検出結果に応じて前記第1の表示体が表示される際、前記第2の検出ステップで前記第2の検出結果が得られていない場合にのみ、前記第1の検出結果に応じて前記推定結果を求めることを特徴とする制御プログラム。 When an image including a subject image is displayed on the display unit, a first display body that specifies a first area and a second display body that specifies a second area are associated with the subject image. A control program used in an image display device for displaying
A computer provided in the image display device,
A first detection step of detecting a first detection result by detecting a position of the first region in the subject image in the image;
A second detection step of detecting a position of the second region in the subject image in the image and obtaining a second detection result;
An estimation step for estimating a position of the second region in accordance with the first detection result and obtaining an estimation result;
An estimated display body that estimates the positions of the first display body, the second display body, and the second region according to the first detection result, the second detection result, and the estimation result, respectively. A display control step of controlling display on the display unit,
In the estimation step, when the first display body is displayed according to the first detection result, only when the second detection result is not obtained in the second detection step, the first display body is displayed. A control program for obtaining the estimation result according to a detection result of 1.
複数の被写体を撮像して画像データを得る撮像手段とを有し、
前記表示制御手段は前記画像データに応じた画像を前記表示部に表示することを特徴とする撮像装置。 The image display device according to any one of claims 1 to 4 ,
Imaging means for capturing a plurality of subjects and obtaining image data;
The image pickup apparatus, wherein the display control means displays an image corresponding to the image data on the display unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012244455A JP6033044B2 (en) | 2012-11-06 | 2012-11-06 | Image display apparatus, control method thereof, control program, and imaging apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012244455A JP6033044B2 (en) | 2012-11-06 | 2012-11-06 | Image display apparatus, control method thereof, control program, and imaging apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014093715A JP2014093715A (en) | 2014-05-19 |
JP6033044B2 true JP6033044B2 (en) | 2016-11-30 |
Family
ID=50937493
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012244455A Expired - Fee Related JP6033044B2 (en) | 2012-11-06 | 2012-11-06 | Image display apparatus, control method thereof, control program, and imaging apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6033044B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6902181B2 (en) * | 2016-12-07 | 2021-07-14 | 株式会社大林組 | Monitoring system, monitoring method and monitoring program |
US20240054805A1 (en) * | 2021-03-30 | 2024-02-15 | Nec Corporation | Information processing apparatus, information processing method, and recording medium |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4830650B2 (en) * | 2005-07-05 | 2011-12-07 | オムロン株式会社 | Tracking device |
JP4912117B2 (en) * | 2006-10-27 | 2012-04-11 | 三洋電機株式会社 | Imaging device with tracking function |
JP2009081714A (en) * | 2007-09-26 | 2009-04-16 | Olympus Imaging Corp | Imaging device and face region determination method thereof |
JP5203281B2 (en) * | 2009-03-31 | 2013-06-05 | 綜合警備保障株式会社 | Person detection device, person detection method, and person detection program |
JP5814557B2 (en) * | 2011-02-07 | 2015-11-17 | キヤノン株式会社 | Image display control device, imaging device, display control method, and control program |
-
2012
- 2012-11-06 JP JP2012244455A patent/JP6033044B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014093715A (en) | 2014-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8786760B2 (en) | Digital photographing apparatus and method using face recognition function | |
US8817158B2 (en) | Image pickup apparatus and control method for image pickup apparatus with touch operation member control | |
JP5251215B2 (en) | Digital camera | |
US9106834B2 (en) | Image display controller capable of providing excellent visibility of display area frames, image pickup apparatus, method of controlling the image display controller, and storage medium | |
JP5736796B2 (en) | Electronic camera, program and recording medium | |
US8441542B2 (en) | Self-timer photographing apparatus and method involving checking the number of persons | |
US9398222B2 (en) | Image display device that displays image and display bodies specifying image's particular regions, control method and storage medium therefor, and image pickup apparatus | |
US20160028944A1 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
US20190149719A1 (en) | Image capturing apparatus, image capturing method, and storage medium | |
US20180316858A1 (en) | Image processing apparatus and image processing apparatus control method | |
US11533425B2 (en) | Image processing apparatus and method for changing a priority category for objection detection | |
JP6431429B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP6033044B2 (en) | Image display apparatus, control method thereof, control program, and imaging apparatus | |
JP2014131190A (en) | Image pick-up apparatus, control method thereof, and control program | |
US8866934B2 (en) | Image pickup apparatus capable of deleting video effect superimposed on moving image, method of controlling the apparatus, and moving image-recording apparatus, as well as storage medium | |
JP2014110596A (en) | Image pickup device, control method, and program therefor, and recording medium | |
JP6768449B2 (en) | Imaging control device, control method and program of imaging device | |
JP2015034895A (en) | Imaging device and control method for the same | |
JP6381416B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM | |
JP2014225763A (en) | Imaging apparatus, control method of the same, program, and storage medium | |
JP6225463B2 (en) | Imaging apparatus, imaging method, and recording medium | |
JP2011055272A (en) | Imaging apparatus and imaging method | |
JP6039410B2 (en) | Image processing apparatus and image processing method | |
JP6512938B2 (en) | Imaging apparatus and image processing method | |
JP6703057B2 (en) | Electronic device, control method thereof, and program thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151028 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160902 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160927 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161025 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6033044 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |