JP2014093715A - 画像表示装置、その制御方法、および制御プログラム、並びに撮像装置 - Google Patents

画像表示装置、その制御方法、および制御プログラム、並びに撮像装置 Download PDF

Info

Publication number
JP2014093715A
JP2014093715A JP2012244455A JP2012244455A JP2014093715A JP 2014093715 A JP2014093715 A JP 2014093715A JP 2012244455 A JP2012244455 A JP 2012244455A JP 2012244455 A JP2012244455 A JP 2012244455A JP 2014093715 A JP2014093715 A JP 2014093715A
Authority
JP
Japan
Prior art keywords
display
detection result
detection
image
human body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012244455A
Other languages
English (en)
Other versions
JP6033044B2 (ja
Inventor
Akiyoshi Kikuchi
明美 菊地
Yuichi Nomoto
悠一 野元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012244455A priority Critical patent/JP6033044B2/ja
Publication of JP2014093715A publication Critical patent/JP2014093715A/ja
Application granted granted Critical
Publication of JP6033044B2 publication Critical patent/JP6033044B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】被写体の顔領域を示す枠および人体領域を示す枠を同時に画面表示する。
【解決手段】顔検出部104は被写体の顔領域を検出して顔情報を求める。人体検出部105は被写体の人体領域を検出して人体情報を求める。システム制御部50は顔情報に応じて人体領域の位置を推定して推定結果を求め、顔情報、人体情報、および推定結果に応じてそれぞれ顔検出枠、人体検出枠、および人体推定枠を表示部28に表示する。この際、システム制御部は人体検出部で人体情報が得られていない場合にのみ、顔情報に応じて推定結果を求める。
【選択図】図1

Description

本発明は、画像表示装置、その制御方法、および制御プログラム、並びに撮像装置に関し、特に、画像の特定領域を規定する特定情報の表示を行うための技術に関する。
一般に、デジタルカメラなどの撮像装置には、撮影の結果得られた画像を表示するための画像表示装置が備えられている。そして、この種の撮像装置では、被写体の特定領域を検出して当該特定領域を特定する検出枠を画像とともに表示している。
例えば、被写体の特定領域として顔領域を検出して、当該顔領域を示す検出枠を表示装置に表示するようにした撮像装置がある(特許文献1参照)。この場合に、被写体の顔の特徴値(顔の角度など)に応じて検出枠の属性(検出枠の色および形状など)を変更して表示装置に表示すれば、ユーザは被写体の顔の特徴を直感的に把握することができる。
さらに、被写体の顔領域を検出する顔検出部に加えて、被写体の人体の部分(人体領域)を検出する人体検出部を備える監視カメラなどの撮像装置が知られている。
ところで、顔検出部および人体検出部を備える撮像装置では、顔検出部および人体検出部が独立的に動作しかつその処理時間が異なることがある。そして、顔検出結果および人体検出結果に応じてそれぞれ顔検出枠および人体検出枠が表示装置に表示される。
図11は、従来の顔検出枠および人体検出枠の表示の一例を示す図である。
図示のように、表示装置200の画面上には、顔検出枠201が表示されるとともに、顔検出枠201を囲むようにして人体検出枠202が表示される。
ここで、従来の顔検出枠および人体検出枠の表示処理について説明する。
図12は従来の顔検出枠および人体検出枠の表示タイミングを示すタイミングチャートである。なお、図12においては、顔検出処理が人体検出処理よりも処理が早く終了するものとする。
時間1において、被写体D1がキャプチャされて、被写体D1に係る顔検出処理および人体検出処理が開始される。続いて、時間2において被写体D1の顔検出が完了して、被写体D1の顔検出枠が画面表示される。また、時間2において被写体D2がキャプチャされて、被写体D2に係る顔検出処理および人体検出処理が開始される。
時間3において、被写体D2の顔検出が完了して、被写体D2の顔検出枠が画面表示される。また、時間3において被写体D3がキャプチャされて、被写体D3に係る顔検出処理および人体検出処理が開始される。
時間4において、被写体D3の顔検出が完了して、被写体D3の顔検出枠が画面表示される。この際、被写体D1に係る人体検出処理が完了しているので、被写体D1の人体検出枠が画面表示される。また、時間4において、被写体D4がキャプチャされて、被写体D4に係る顔検出処理および人体検出処理が開始される。
このようにして、時間(t+2)まで同様にして処理が行われる。つまり、レリーズが行われるまで、時間4における処理と同様の処理が繰り返される。この結果、時間(t+1)では、被写体Dtまでの顔検出枠が画面表示され、被写体D(t−2)までの人体検出枠が画面表示される。
図13は、図12に示すタイミングチャートに応じた処理によって画面表示される顔検出枠および人体検出枠の一例を示す図である。そして、図13(a)は時間tにおける画面表示を示す図であり、図13(b)は時間(t+2)における画面表示を示す図である。
図13(a)に示すように、時間tにおいて、被写体203の顔検出枠201が表示されると、時間(t+2)において、図13(b)に示すように、被写体203の人体検出枠202が表示されることになる。つまり、時間tにおいて顔検出が完了した時点で顔検出枠201のみが表示され、時間(t+2)において顔検出とともに人体検出が完了した時点で顔検出枠202ととともに人体検出枠203が表示されることになる。
特開2007−274207号公報
このように、顔検出部および人体検出部が独立的に動作し、かつ各々の処理時間が異なる場合には、早く検出された領域の検出枠(ここでは、顔検出枠)のみが一時的に表示されることがある。
そして、顔検出枠が表示されてから人体検出枠が表示されるまでの時間の開きが長いと、ユーザが違和感を覚える可能性がある。
さらに、上述のように、顔検出処理および人体検出処理に要する時間が異なる場合に、被写体が移動していると、顔検出枠のずれと人体検出枠のずれが異なってしまう。
図14は、従来の顔検出枠および人体検出枠のずれを説明するための図である。そして、図14(a)は顔検出枠のみが表示された状態を示す図であり、図14(b)は顔検出枠および人体検出枠が表示された状態を示す図である。
図14において、被写体203は静止しており、被写体204は移動しているものとする。この場合に、顔検出処理および人体検出処理に要する時間が異なると、まず、時間tにおいて、被写体203の顔検出枠201が表示されるとともに、被写体204の顔検出枠205が表示されているものとする。
そして、時間(t+n)において(ここでは、n=2である)、被写体203の人体検出枠202が表示されるとともに、被写体204の顔検出枠206が表示されたとする。この場合、人体検出処理は顔検出処理に比べて時間を要するので、被写体204のように被写体が移動していると、顔検出処理から人体検出処理までの時間に応じて、人体検出枠206が実際に被写体の存在する位置からずれて表示されてしまうことになる。
この結果、ユーザは人体検出枠によって移動する被写体を的確に視認することが困難となってしまう。
従って、本発明の第1の目的は、被写体の顔領域を示す枠および人体領域を示す枠を同時に画面表示することのできる画像表示装置、その制御方法、および制御プログラム、並びに撮像装置を提供することにある。
また、本発明の第2の目的は、移動する被写体において検出を行った領域と検出枠とのずれを低減することのできる画像表示装置、その制御方法、および制御プログラム、並びに撮像装置を提供することにある。
上記の目的を達成するために、本発明による画像表示装置は、被写体像を含む画像を表示部に表示する際、前記被写体像について第1の領域を特定する第1の表示体と第2の領域を特定する第2の表示体とを前記被写体像に対応づけて表示する画像表示装置であって、前記画像において前記被写体像における前記第1の領域の位置を検出して第1の検出結果を求める第1の検出手段と、前記画像において前記被写体像における前記第2の領域の位置を検出して第2の検出結果を求める第2の検出手段と、前記第1の検出結果に応じて前記第2の領域の位置を推定して推定結果を求める推定手段と、前記第1の検出結果、前記第2の検出結果、および前記推定結果に応じてそれぞれ前記第1の表示体、前記第2の表示体、および前記第2の領域の位置を推定する推定表示体を前記表示部に表示制御する表示制御手段とを有し、前記推定手段は、前記第1の検出結果に応じて前記第1の表示体が表示される際、前記第2の検出手段によって前記第2の検出結果が得られていない場合にのみ、前記第1の検出結果に応じて前記推定結果を求めることを特徴とする。
また、本発明による画像表示装置は、連続する複数のフレームの各々について画像を表示部に表示する際、前記画像の含まれる被写体像について第1の領域を特定する第1の表示体と第2の領域を特定する第2の表示体とを前記被写体像に対応づけて表示する画像表示装置であって、前記フレームの各々において前記被写体像における前記第1の領域の位置を検出して第1の検出結果を求める第1の検出手段と、前記フレームの各々において前記被写体像における前記第2の領域の位置を検出して第2の検出結果を求める第2の検出手段と、現フレームにおける画像が前記表示部に表示される際、前記現フレームよりも前のフレームにおける前記第1の検出結果と前記現フレームにおける前記第1の検出結果とに応じて前記第1の領域についてその移動方向および移動量を示す移動ベクトルを求めるベクトル算出手段と、前記現フレームにおける前記第1の検出結果に応じて前記第1の表示体を前記表示部に表示する際、前記第2の検出手段によって前記現フレームにおける前記第2の検出結果が求められていないと、前記現フレームよりも前のフレームにおける前記第1の検出結果を前記移動ベクトルで補正して補正検出結果を得る補正手段と、前記第1の検出結果および前記補正検出結果に応じてそれぞれ前記現フレームにおいて前記第1の表示体および前記第2の表示体を前記表示部に表示する表示制御手段とを有することを特徴とする。
本発明によれば、被写体像の顔領域である第1の領域を示す枠および人体領域である第2の領域を示す枠を同時に画面表示することができ、ユーザは短時間で被写体全体の視認を行うことができる。
また、本発明によれば、移動する被写体において検出を行った領域と検出枠とのずれを低減することができ、ユーザは当該検出枠によって移動する被写体を的確に視認することができる。
本発明の第1の実施形態による画像表示装置を備える撮像装置の一例についてその構成を示すブロック図である。 図1に示す顔検出部によって得られた顔情報の一例を示す図である。 図1に示す人体検出部によって得られた人体情報の一例を示す図である。 図1に示すシステム制御部が顔検出枠を生成する際に必要な顔表示情報の一例を示す図である。 図1に示すシステム制御部が人体検出枠を生成する際に必要な人体表示情報の一例を示す図である。 図1に示す撮像装置100で行われる顔検出枠および人体検出枠の枠表示処理を説明するためのフローチャートである。 図1に示す撮像装置で行われた枠表示処理の結果を説明するための図であり、(a)は顔検出枠および人体予測枠が表示された状態を示す図、(b)は顔検出枠および人体検出枠が表示された状態を示す図、(c)は顔検出枠のみが表示された状態を示す図、(d)は人体検出枠のみが表示された状態を示す図である。 図1に示す撮像装置で行われる顔検出枠、人体検出枠、および人体予測枠の表示タイミングを示すタイミングチャートである。 本発明の第1の実施形態による撮像装置で行われる枠表示処理を説明するためのフローチャートである。 本発明の第2の実施形態による撮像装置で行われる移動ベクトルの算出を説明するための図であり、(a)は時刻tにおける顔検出枠の表示を示す図、(b)は時刻(t+n)における顔検出枠および人体検出枠の表示を示す図である。 従来の顔検出枠および人体検出枠の表示の一例を示す図である。 従来の顔検出枠および人体検出枠の表示タイミングを示すタイミングチャートである。 図12に示すタイミングチャートに応じた処理によって画面表示される顔検出枠および人体検出枠の一例を示す図であり、(a)は時刻tにおける画面表示を示す図、(b)は時刻(t+2)における画面表示を示す図である。 従来の顔検出枠および人体検出枠のずれを説明するための図であり、(a)は顔検出枠のみが表示された状態を示す図、(b)は顔検出枠および人体検出枠が表示された状態を示す図である。
以下、本発明の実施の形態による画像表示装置の一例について図面を参照して説明する。
[第1の実施形態]
図1は、本発明の第1の実施形態による画像表示装置を備える撮像装置の一例についてその構成を示すブロック図である。
図示の撮像装置はデジタルカメラ(以下単にカメラと呼ぶ)であり、カメラ100はフォーカスレンズを含む撮影レンズユニット(以下単に撮影レンズと呼ぶ)103を有している、撮影レンズ103の後段には絞り機能を備えるシャッター101が配置されている。
撮影レンズ103およびシャッター101を通過した光学像(被写体像)は撮像素子である撮像部22に結像する。この撮像部22はCCD又はCMOSイメージセンサで構成されており、光学像に応じた電気信号(アナログ信号、つまり、画像信号)を出力する。そして、このアナログ信号はA/D変換器23に与えられ、ここで、デジタル信号(画像データ)に変換される。
なお、撮影レンズ103の前面側にはバリア102が配置されている。このバリア102によって撮影レンズ103、シャッター101、および撮像部22を含む撮像系が覆われ、撮像系の汚れおよび破損を防止するようにしている。
画像処理部24はA/D変換器23からの画像データ、又はメモリ制御部15からの画像データに対して所定の画素補間および縮小などのリサイズ処理、そして、色変換処理を行う。また、画像処理部24は、撮影の結果得られた画像データを用いて所定の演算処理を行う。そして、システム制御部50は当該演算結果に基づいて露光制御および測距制御を行う。つまり、システム制御部50はTTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、およびEF(フラッシュプリ発光)処理を行う。
さらに、画像処理部24は、撮影の結果得られた画像データを用いて所定の演算処理を行って、当該演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。
A/D変換器23から出力された画像データは、画像処理部24およびメモリ制御部15を介して、又はメモリ制御部15を介してメモリ32に書き込まれる。メモリ32には、A/D変換器23の出力である画像データが書き込まれるとともに、表示部28に表示するための画像データが格納される。なお、メモリ32は、所定枚数の静止画像データおよび所定時間の動画像データ、そして、音声データを格納するための十分な記憶容量を有している。加えて、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。
D/A変換器13はメモリ32に格納されている画像表示用の画像データをアナログ信号に変換して表示部28に与える。これによって、表示部28には画像データに応じた画像が表示される。なお、表示部28は、例えば、LCDである。
不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えば、EEPROMが用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数およびプログラムなどが記憶される。このプログラムとは後述する各種フローチャートを実行するためのプログラムである。
システム制御部50はカメラ100の制御を司る。システム制御部50は、前述の不揮発性メモリ56に記録されたプログラムを実行して、後述する各処理を行う。システムメモリ52として、例えば、RAMが用いられる。システムメモリ52には、システム制御部50の動作用の定数、変数、および不揮発性メモリ56から読み出したプログラムなどが展開される。また、システム制御部50はメモリ32、D/A変換器13、および表示部28などを制御して表示制御を実行する。
モード切替スイッチ60、シャッターボタン61、および操作部70はシステム制御部50に各種の動作指示を入力するための入力操作部である。シャッターボタン61は撮影指示を行うためのものであり、第1シャッタースイッチおよび第2シャッタースイッチを有している。
モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画記録モード、および再生モードなどのいずれかに切り替える際に用いられる。
シャッターボタン61の操作によって、シャッターボタン61が所謂半押し状態となると、第1シャッタースイッチがオン(撮影準備指示)となって、第1シャッタースイッチ信号SW1がシステム制御部50に与えられる。そして、第1シャッタースイッチ信号SW1を受けると、システム制御部50はAF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、およびEF(フラッシュプリ発光)処理などが開始する。
シャッターボタン61が所謂全押し状態となると、第2シャッタースイッチがオン(撮影指示)となって、第2シャッタースイッチ信号SW2がシステム制御部50に与えられる。第2シャッタースイッチ信号SW2を受けると、システム制御部50は撮像部22から画像信号を読み出して記録媒体200に画像データを書き込むまでの一連の撮影処理の動作を開始する。
表示部28に表示される種々の機能アイコンを選択操作すると、操作部70に備えられたボタンおよびキーなどの各操作部材には、場面毎に適宜機能が割り当てられて、各種機能ボタンとして機能する。
機能ボタンとして、例えば、終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、および属性変更ボタンがある。例えば、メニューボタンが押されると、各種の設定を行うためのメニュー画面が表示部28に表示される。ユーザは表示部28に表示されたメニュー画面および4方向ボタン又はSETボタンを用いて直感的に各種の設定を行うことができる。
電源制御部80は、電池検出回路、DC−DCコンバータ、および通電するブロックを切り替えるスイッチ回路などを有しており、電池装着の有無、電池の種類、および電池残量の検出を行う。また、電源制御部80は検出結果およびシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部に供給する。
電源部30はアルカリ電池又はリチウム電池などの一次電池、又はNiCd電池、NiMH電池、又はLi電池等の二次電池、そして、ACアダプターなどを有している。インターフェース(I/F)18はメモリカード又はハードディスクなどの記録媒体200とのインターフェースである。記録媒体200がメモリカードである場合には、当該メモリカードは、例えば、半導体メモリで構成される。電源スイッチ72はカメラ100の電源のオン/オフを行うためのスイッチである。
図示のように、システム制御部50には顔検出部(顔検出手段)104および人体検出部(体検出手段)105が接続されており、顔検出部104はメモリ32に格納された画像データにおいて被写体像の顔領域(第1の領域)を検出する。人体検出部105はメモリ32に格納された画像データにおいて被写体像の人体領域(第2の領域:体領域)を検出する。これら顔領域および人体領域の各々は画像における特定領域である。
上述のカメラ100は、所謂中央1点AFおよび顔AFを用いた撮影が可能である。ここで、中央1点AFとは撮影画面の中央位置1点に対してAFを行うことをいう。また、顔AFとは顔検出機能(つまり、顔検出部104)によって検出された顔領域に対してAFを行うことをいう。
ここで、顔検出機能について説明する。システム制御部50の制御下で、顔検出部104はメモリ32から入力した画像データに対して水平方向バンドパスフィルタ処理を行う。さらに、システム制御部50の制御下で、顔検出部104は水平方向バンドパスフィルタ処理された画像データに対して垂直方向バンドパスフィルタ処理を行う。これら水平および垂直方向バンドパスフィルタ処理によって、画像データからエッジ成分が検出される。
続いて、システム制御部50の制御下で、顔検出部104は検出されたエッジ成分に関してパターンマッチングを行って、目、鼻、口、および耳の候補群を抽出する。そして、システム制御部50の制御下で、顔検出部104は抽出された目の候補群において予め設定された条件(例えば、2つの目の距離および傾きなどの条件)を満たす候補を目の対と判定する。そして、顔検出部104は目の対を目の候補群として絞り込む。
さらに、システム制御部50の制御下で、顔検出部104は絞り込んだ目の候補群と当該目に対応して顔を形成する他のパーツ(鼻、口、耳)とを対応づける。さらに、顔検出部104は予め設定された非顔条件フィルタ処理を行って、顔(顔領域)を検出する。そして、顔検出部104は顔領域の検出結果を示す顔情報をシステム制御部50に出力する。システム制御部50は顔情報をシステムメモリ52に記憶する。
次に、人体検出機能について説明する。人体検出部105はメモリ32から入力した画像データに対して水平方向バンドパスフィルタ処理を行う。さらに、システム制御部50の制御下で、顔検出部104は水平方向バンドパスフィルタ処理された画像データに対して垂直方向バンドパスフィルタ処理を行う。これら水平および垂直方向バンドパスフィルタ処理によって、画像データからエッジ成分が検出される。
次に、システム制御部50の制御下で、人体検出部105は検出されたエッジ成分に関してパターンマッチングを行って、人体領域の輪郭形状に相当するか否かを判定する。そして、人体検出部105は人体領域の輪郭形状に相当するエッジ成分を人体領域であるとする。人体検出部105は人体領域の検出結果を示す人体情報をシステム制御部50に出力する。システム制御部50は人体情報をシステムメモリ52に記憶する。人体の形状パターンは、顔の形状パターンに比較してその種類が多いため、人体検出部105による人体領域の検出に要する時間は、顔検出部104による顔領域の検出に要する時間よりも長くなる。
図2は、図1に示す顔検出部104によって得られた顔情報(顔検出情報ともいう)の一例を示す図である。
顔情報はX軸(pixel)およびY軸(pixel)を備えており、X軸には顔水平検出位置(Xf)307が規定されている。この顔水平検出位置(Xf)307は顔検出部104で検出された顔領域における水平方向(X軸方向)の始点となる位置である。
さらに、Y軸には顔垂直検出位置(Yf)308が規定されている。この顔垂直検出位置(Yf)308は顔検出部104で検出された顔領域における垂直方向(Y軸方向)の始点となる位置である。
また、顔情報には、顔水平検出サイズ(Hf)302が規定されている。この顔水平検出サイズ(Hf)302は顔領域の水平方向の大きさを示すサイズ情報である。そして、顔情報には顔垂直検出サイズ(Vf)303が規定されている。この顔垂直検出サイズ(Vf)303は顔領域の垂直方向の大きさを示すサイズ情報である。
なお、顔検出位置情報301は顔水平検出位置307および顔垂直表示位置308の集合を示している。また、顔検出サイズ情報309は顔水平検出サイズ302および顔垂直検出サイズ303の集合を示している。
顔情報には、顔ヨー方向検出角度(Θfy)304が規定されている。この顔ヨー方向検出角度(Θfy)304は水平方向に対する顔の回転角度を示す角度情報である。
顔情報には、顔ロール方向検出角度(Θfr)305が規定されている。この顔ロール方向検出角度(Θfr)305は垂直方向に対する顔の回転角度を示す角度情報である。
加えて、顔情報には顔ピッチ方向検出角度(Θfp)306が規定されている。この顔ピッチ方向検出角度(Θfp)306は、垂直方向に対する顔の傾きを示す角度情報である。
なお、顔検出角度情報310は、顔ヨー方向検出角度304、顔ロール方向検出角度305、および顔ピッチ検出角度306の集合を示している。
図3は、図1に示す人体検出部105によって得られた人体情報(人体検出情報ともいう)の一例を示す図である。
人体情報はX軸(pixel)およびY軸(pixel)を備えており、X軸には人体水平検出位置(Xb)317が規定されている。この人体水平検出位置(Xb)317は人体検出部105で検出された人体領域における水平方向(X軸方向)の始点となる位置である。
さらに、Y軸には人体垂直検出位置(Yb)318が規定されている。この人体垂直検出位置(Yb)318は人体検出部105で検出された人体領域における垂直方向(Y軸方向)の始点となる位置である。
なお、人体検出位置情報311は、人体水平検出位置317および人体垂直検出位置318の集合を示している。
また、人体情報には、人体水平検出サイズ(Hb)312が規定されている。この人体水平検出サイズ(Hb)312は人体領域の水平方向の大きさを示すサイズ情報である。そして、人体情報には人体垂直検出サイズ(Vb)313が規定されている。この人体垂直検出サイズ(Vb)313は人体領域の垂直方向の大きさを示すサイズ情報である。
なお、人体検出サイズ情報319は、人体水平検出サイズ312および人体垂直検出サイズ313の集合を示している。
人体情報には、人体ヨー方向検出角度(Θby)314が規定されている。この人体ヨー方向検出角度(Θby)314は、水平方向に対する人体の回転角度を示す角度情報である。
人体情報には、人体ロール方向検出角度(Θbr)315が規定されている。この人体ロール方向検出角度(Θbr)315は、垂直方向に対する人体の回転角度を示す角度情報である。
加えて、人体情報には人体ピッチ方向検出角度(Θbp)316が規定されている。この人体ピッチ方向検出角度(Θbp)316は、垂直方向に対する人体の傾きを示す角度情報である。
なお、人体検出角度情報320は、人体ヨー方向検出角度314、人体ロール方向検出角度315、および人体ピッチ検出角度316の集合を示している。
図4は、図1に示すシステム制御部50が顔検出枠を生成する際に必要な顔表示情報の一例を示す図である。
顔表示情報はX軸(pixel)およびY軸(pixel)を備えており、X軸には顔水平表示位置(XF)327が規定されている。この顔水平表示位置(XF)327は顔検出枠における水平方向(X軸方向)の始点となる位置である。
さらに、Y軸には顔垂直表示位置(YF)328が規定されている。この顔垂直表示位置(YF)328は顔検出枠における垂直方向(Y軸方向)の始点となる位置である。
なお、顔表示位置情報321は、顔水平表示位置327および顔垂直表示位置328の集合を示している。
また、顔表示情報には、顔水平表示サイズ(HF)322が規定されている。この顔水平表示サイズ(HF)322は顔検出枠の水平方向の大きさを示すサイズ情報である。そして、顔表示情報には顔垂直表示サイズ(VF)323が規定されている。この顔垂直表示サイズ(VF)323は顔検出枠の大きさを示すサイズ情報である。
なお、顔表示サイズ情報329は顔水平表示サイズ322および顔垂直表示サイズ323の集合を示している。
顔表示情報には、顔ヨー方向表示角度(ΘFy)324が規定されている。この顔ヨー方向表示角度(ΘFy)324は水平方向に対する顔検出枠の回転角度を示す角度情報である。
顔表示情報には、顔ロール方向表示角度(ΘFr)325が規定されている。この顔ロール方向表示角度(ΘFr)325は垂直方向に対する顔検出枠の回転角度を示す角度情報である。加えて、顔表示情報には顔ピッチ方向表示角度(ΘFp)326が規定されている。この顔ピッチ方向表示角度(ΘFp)326は、垂直方向に対する顔検出枠の傾きを示す角度情報である。
なお、顔表示角度情報330は、顔ヨー方向表示角度324、顔ロール方向表示角度325、および顔ピッチ表示角度326の集合を示している。
図5は、図1に示すシステム制御部50が人体検出枠を生成する際に必要な人体表示情報の一例を示す図である。
人体表示情報はX軸(pixel)およびY軸(pixel)を備えており、X軸には人体水平表示位置(XB)337が規定されている。この人体水平表示位置(XB)337は人体検出枠における水平方向(X軸方向)の始点となる位置である。さらに、Y軸には人体垂直表示位置(YB)338が規定されている。この人体垂直表示位置(YB)338は人体検出枠における垂直方向(Y軸方向)の始点となる位置である。
なお、人体表示位置情報331は、人体水平表示位置337および人体垂直表示位置338の集合を示している。
また、人体表示情報には、人体水平表示サイズ(HB)332が規定されている。この人体水平表示サイズ(HB)332は人体検出枠の水平方向の大きさを示すサイズ情報である。そして、人体表示情報には人体垂直表示検出サイズ(VB)333が規定されている。この人体垂直表示サイズ(VB)333は人体検出枠の垂直方向の大きさを示すサイズ情報である。
なお、人体表示サイズ情報339は、人体水平表示サイズ332および人体垂直表示サイズ333の集合を示している。
人体表示情報には、人体ヨー方向表示角度(ΘBy)334が規定されている。この人体ヨー方向表示角度(ΘBy)334は、水平方向に対する人体検出枠の回転角度を示す角度情報である。
人体表示情報には、人体ロール方向表示角度(ΘBr)335が規定されている。この人体ロール方向表示角度(ΘBr)335は、垂直方向に対する人体検出枠の回転角度を示す角度情報である。加えて、人体表示情報には人体ピッチ方向表示角度(ΘBp)336が規定されている。この人体ピッチ方向表示角度(ΘBp)336は、垂直方向に対する人体検出枠の傾きを示す角度情報である。
なお、人体表示角度情報340は、人体ヨー方向表示角度334、人体ロール方向表示角度335、および人体ピッチ表示角度336の集合を示している。
図6は、図1に示す撮像装置100で行われる顔検出枠および人体検出枠の枠表示処理を説明するためのフローチャートである。なお、図6に示す枠表示処理では、システム制御部50がメモリ制御部15を介して表示部28を制御することになる。
システム制御部50の制御下で、顔検出部(第1の検出手段)104および人体検出部(第2の検出手段)105はメモリ32に格納された表示用画像データにおいて被写体をキャプチャする(ステップS401)。そして、被写体をキャプチャすると、顔検出部104および人体検出部105はそれぞれ顔検出および人体検出を開始する(ステップS402)。なお、ここでは、顔が第1の領域であり、人体が第2の領域である。
続いて、システム制御部50は顔検出部104における顔検出が完了したか否かを判定する(ステップS403)。顔検出が完了しないと(ステップS403において、NO)、システム制御部50は待機する。
一方、顔検出が完了すると(ステップS403において、YES)、システム制御部50は顔検出部104の顔検出結果に応じて顔が存在するか否かを判定する(ステップS404)。
顔が存在すると(ステップS404において、YES)、システム制御部50は人体検出部105における人体検出が完了したか否かを判定する(ステップS405)。人体検出が完了しないと(ステップS405において、NO)、システム制御部50は顔検出結果(第1の検出結果)に応じて人体領域を予測して人体予測領域(人体推定結果)を得る(ステップS406)。そして、システム制御部50は顔検出結果に応じて顔領域を特定する顔検出枠(第1の表示体)を実線で画面表示するとともに、人体予測領域(推定結果)に応じて人体領域を推定する人体推定枠(推定表示体)を破線(点線)で画面表示する(ステップS407)。
人体検出が完了すると(ステップS405において、YES)、システム制御部50は人体検出部105の人体検出結果に応じて人体が存在するか否かを判定する(ステップS408)。人体が存在すると(ステップS408において、YES)、システム制御部50は顔検出結果および人体検出結果(第2の検出結果)に応じてそれぞれ顔検出枠および人体領域を特定する人体検出枠(第2の表示体)を実線で画面表示する(ステップS409)。
一方、人体が存在しないと(ステップS408において、NO)、システム制御部50は顔検出結果に応じて顔検出枠のみを実線で画面表示する(ステップS410)。
ステップS404において、顔が存在しないと(ステップS404において、NO)、システム制御部50は人体検出部105における人体検出が完了したか否かを判定する(ステップS411)。人体検出が完了しないと(ステップS411において、NO)、システム制御部50は待機する。
人体検出が完了すると(ステップS411において、YES)、システム制御部50は人体が存在するか否かを判定する(ステップS412)。そして、人体が存在すると(ステップS412において、YES)、システム制御部50は人体検出部105の人体検出結果に応じて人体検出枠を実線で画面表示する(ステップS413)。
このように、システム制御部50は、顔検出枠および人体検出枠と推定検出枠とをその表示形態を異ならせて表示部28に表示する。
ステップS407、S409、S410、又はS413の処理の後、システム制御部50はレリーズが行われたか否かを判定する(ステップS414)。つまり、システム制御部50はシャッターボタン61が全押しされたか否かを判定する。
レリーズが行われると(ステップS414において、YES)、システム制御部50の制御下で被写体の撮影が実行される(ステップS15)。そして、システム制御部50は枠表示処理を終了する。
レリーズが行われないと(ステップS414において、YES)、処理はステップS401の処理に戻る。なお、ステップS412において、人体が存在しないと(ステップS412において、NO)、システム制御部50はステップS414の処理に進む。
図7は、図1に示す撮像装置100で行われた枠表示処理の結果を説明するための図である。そして、図7(a)は顔検出枠および人体推定枠が表示された状態を示す図であり、図7(b)は顔検出枠および人体検出枠が表示された状態を示す図である。また、図7(c)は顔検出枠のみが表示された状態を示す図であり、図7(d)は人体検出枠のみが表示された状態を示す図である。
前述のステップS407の処理では、図7(a)に示す顔検出枠501および人体予測枠502が表示部28に表示される。この際、人体予測枠502は顔検出結果に応じて予測された人体予測領域を示すので、点線で表示される。これによって、ユーザは人体予測枠502が予測によって表示されたと知ることができる。人体予測枠は、顔検出枠501に対する相対的な位置およびサイズが予め設定されており、顔検出枠501の位置を基準として演算によって求められる。
ステップS409の処理では、図7(b)に示す顔検出枠501および人体検出枠503が表示部28に表示される。これによって、ユーザは顔領域および人体領域がともに検出されたことを知ることができる。
ステップS410の処理では、図7(c)に示す顔検出枠501のみが表示部28に表示される。これによって、ユーザは人体領域が検出されなかったことを知ることができる。
ステップS413の処理では、図7(d)に示す人体検出枠503のみが表示部28に表示される。これによって、ユーザは顔領域が検出されなかったことを知ることができる。
図8は、図1に示す撮像装置100で行われる顔検出枠、人体検出枠、および人体予測枠の表示タイミングを示すタイミングチャートである。
いま、時間1において被写体D1をキャプチャすると、被写体D1の顔検出処理および人体検出処理が開始される。そして、時間2において被写体D1の顔検出が完了すると、被写体D1に係る顔検出枠が画面表示される。
この際には、被写体D1について人体検出処理が完了していないので、被写体D1の顔検出結果に応じて被写体D1に係る人体領域の予測(推定)が行われる。そして、人体予測領域に応じて被写体D1の人体予測枠(人体予測枠)が画面表示される。
なお、時間2において被写体D2をキャプチャして、被写体D2に係る顔検出処理および人体検出処理が開始される。
時間3において被写体D2の顔検出が完了すると、被写体D2に係る顔検出枠が画面表示される。この際には、被写体D1およびD2について人体検出処理が完了していないので、被写体D2の顔検出結果に応じて被写体D2に係る人体領域の予測が行われる。そして、人体予測領域に応じて被写体D2の人体予測枠が画面表示される。
なお、時間3において被写体D3をキャプチャして、被写体D3の顔検出処理および人体検出処理が開始される。
時間4において被写体D3の顔検出が完了すると、被写体D3に係る顔検出枠が画面表示される。この際には、被写体D1に係る人体検出処理が完了しているので、人体予測枠(点線)に代えて被写体D1について人体検出枠(実線)が画面表示されることになる。
なお、時間4において被写体D4をキャプチャして、被写体D4に係る顔検出処理および人体検出処理が開始される。
このようにして、時間(t+2)まで同様にして処理が行われる。つまり、レリーズが行われるまで、時間4における処理と同様の処理が繰り返される。この結果、時間(t+1)では、被写体Dtまでの顔検出枠(実線)が画面表示されるとともに、被写体D(t−1)およびDtについて人体予測枠(点線)が画面表示される。さらに、被写体D(t−2)までの人体検出枠(実線)が画面表示される。
このように、本発明の第1の実施形態では、顔検出処理が完了した時点で、人体検出処理が完了していないと、顔検出枠および人体予測枠を画面表示するようにしたので、被写体の顔領域を示す枠および人体領域を示す枠を同時に画面表示することができることになる。この結果、ユーザは人体検出処理が終了するまで待つことなく、被写体全体を容易に視認することができる。
[第2の実施形態]
続いて、本発明の第2の実施形態による画像表示装置を備える撮像装置について説明する。なお、第2の実施形態による撮像装置の構成は図1に示す撮像装置と同様であるので説明を省略する。
図9は、本発明の第1の実施形態による撮像装置100で行われる枠表示処理を説明するためのフローチャートである。
なお、以下の説明では、連続する複数のフレームの各々について画像を表示部28に表示する場合について説明する。この際、システム制御部50は顔検出から顔検出枠の表示までの処理を、1つのフレーム内で処理することが可能であり、人体検出から人体検出枠の表示までの処理についてはnフレーム(nは2以上の整数)を要するものとする。
システム制御部50の制御下で、顔検出部104および人体検出部105はメモリ32に格納された表示用画像データ(1フレーム)において被写体をキャプチャする(ステップS901)。そして、顔検出部104は、キャプチャした被写体について顔検出を開始して、前述のように、システムメモリ52に顔情報を格納する(ステップS902)。これと並行して、人体検出部105は、キャプチャした被写体について人体検出を行う(ステップS903)。上述したように、この人体検出部105が人体検出に要する時間は、顔検出部104が顔検出に要する時間よりも長い。
そして、システム制御部50は先に得られた顔情報(又は顔表示情報)、つまり、顔表示位置情報321に応じて顔検出枠を表示部28に表示する(ステップS904)。
続いて、システム制御部50は人体検出部105による人体の検出が完了したか否かを判定する(ステップS905)。
人体の検出が完了していないと(ステップS905において、NO)、つまり、現在のフレームにおいて未だ人体検出が完了しない判定すると、システム制御部50はメモリ32に格納された次のフレームをキャプチャする(ステップS906)。
続いて、システム制御部50はステップS902において顔検出が行われた顔について、ステップS906でキャプチャしたフレームで顔検出および顔追尾を行う(ステップS907)。
システム制御部50は、現フレームとその前のフレームの両方で1つの顔検出に成功していれば、検出できた顔領域を同一人物とみなして関連付けてその位置を記憶する。顔が複数検出できた場合には、フレーム間で最も位置の近い顔領域を同一人物の顔領域とみなして、関連付けてその位置を記憶する。
反対に、システム制御部50は、前のフレームで顔領域を特定できたにも関わらず、現フレームでの顔検出に失敗した場合には、例えば、動きベクトル検出を行って顔追尾が行なわれる。つまり、動画の場合、現フレームとその前のフレームについて被写体領域について動きベクトル検出を行って、この動きベクトル検出結果(動きベクトル量)を被写体領域の移動量として被写体領域の位置を逐次修正して追尾処理が行われる。なお、システム制御部50は現フレームとその前のフレームについて被写体領域におけるブロックマッチングなどの相関演算を用いて、動きベクトル量を求める。
システム制御部50は顔検出または顔追尾の結果に応じて顔検出枠を表示部28に表示する(ステップS908)。そして、システム制御部50はステップS905の処理に戻る。
一方、人体の検出が完了すると(ステップS905において、YES)、システム制御部50は、人体の検出に要した期間における、顔についての移動方向および移動量を示す移動ベクトルを算出する(ステップS909)。
いま、ステップS901で被写体のキャプチャを行った時刻がtであるとすると、人体の検出が完了した時点は時刻(t+n)となる。ここで、前述した図14を参照すると、顔検出枠の表示についてはキャプチャした1フレーム内で処理されるので、時刻tでは図14(a)に示すように、顔検出枠201および顔検出枠205が顔表示位置情報321に応じて表示される。
さらに、顔については随時新たな検出結果あるいは追尾結果が得られているので、図14(b)に示す時刻(t+n)では、新たな顔の位置を顔枠201および205で表示することができる。
一方、人体検出枠の表示についてはnフレームを要するので、時刻(t+n)においては、時刻tでキャプチャした被写体に係る人体表示位置情報331に応じて人体検出枠が表示されることになる。
このため、被写体203のようにnフレームの間にその位置が移動しなければ、時刻tにおける人体表示位置情報331を応じて人体検出枠202を画面表示しても人体の位置と人体検出枠202とのずれが生じず、ユーザに違和感を与えることはない。
一方、被写体204のようにnフレームの間にその位置が移動すると、顔検出枠205については時刻(t+n)における被写体204の新たな顔の位置に表示することができる。ところが、人体検出枠206については、時刻tにおける人体表示位置情報331に応じて表示すると、被写体204の人体の位置とずれて表示されてしまう。
システム制御部50は、上記のずれを軽減するため、ステップS909において顔の移動ベクトルを算出する。つまり、システム制御部50は時刻tにおけるフレームの顔表示位置情報321と時刻(t+n)におけるフレームの顔の位置とに応じて顔領域の移動ベクトルを算出する。
ここで、時刻(t+n)におけるフレームの顔の位置とは現フレームについてステップS907で行った顔追尾の結果獲られた顔表示位置情報である。
図10は、本発明の第2の実施形態による撮像装置100で行われる移動ベクトルの算出を説明するための図である。そして、図10(a)は時刻tにおける顔検出枠の表示を示す図であり、図10(b)は時刻(t+n)における顔検出枠および人体検出枠の表示を示す図である。
いま、被写体1001がnフレームの間に移動するとする。時刻tにおいて検出した顔領域を示す顔検出枠1002の位置座標を(Xf(t),Yf(t))とする。また、時刻(t+n)において顔追尾の結果得られた顔検出枠1003の位置座標を(Xf(t+n),Yf(t+n))とする。
位置座標(Xf(t),Yf(t))および位置座標(Xf(t+n),Yf(t+n))を用いると、顔の移動ベクトルV=(Vx,Vy)は、次の式(1)で示される。
(Vx,Vy)=((Xf(t+n)−Xf(t)),(Yf(t+n)−Yf(t))) (1)
続いて、システム制御部50は人体検出部105で検出された人体表示位置情報331を、移動ベクトルVを用いて補正して、補正検出結果(補正人体表示位置情報を得る(ステップS910)。
同一人物が所定の時間に移動する方向および距離は、顔と人体で同一であると推測されるので、システム制御部50は時刻(t+n)における人体表示位置情報(Xb(t+n),Yb(t+n))を、式(2)および式(3)に応じて算出する。
Xb(t+n)=Xb(t)+Vx (2)
Yb(t+n)=Yb(t)+Vy (3)
なお、人体表示位置情報のみではなく、時刻tにおいて検出した顔および時刻(t+n)において顔追尾の結果得られた顔表示サイズ情報329に応じて顔サイズの変化量(サイズ変化量)も算出することができる。そして、顔サイズの変化量に応じて時刻tにおける人体表示サイズ情報339を補正して、時刻(t+n)において表示する人体検出枠のサイズと実際の人体サイズとのずれを軽減するようにしてもよい。
続いて、システム制御部50は、ステップS910で補正された人体表示位置情報(Xb(t+n),Yb(t+n))に応じて人体検出枠1004を表示部28に表示する(ステップS911)。そして、システム制御部50は人体枠表示処理を一旦終了する。この人体枠表示処理を繰り返すことによって、顔検出枠と人体検出枠の表示を継続して行う。
このようにして、時刻(t+n)における顔位置を追尾するとともに、人体表示位置情報を補正すれば、点線で示す顔表示枠1006および人体表示枠1007を矢印1005で示す方向および移動量だけ移動して、実際の顔領域および人体領域に合わせて顔検出枠1003および人体検出枠1004を表示することができる。
以上のように、本発明の第2の実施形態では、被写体における顔領域(顔)を顔検出部104により検出して、人体検出が完了するまでの顔の移動ベクトルを算出する。そして、人体検出部105によって人体が検出された後、移動ベクトルに応じて人体表示位置情報を補正して表示部に人体検出枠を表示する。
これによって、被写体が移動している場合に、人体の検出位置と現在の人体の位置のずれを軽減して人体検出枠を表示することができる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
上述の説明から明らかなように、図1に示す例においては、少なくともシステム制御部50、システムメモリ52、顔検出部104、人体検出部105、メモリ32、メモリ制御部15、D/A変換器13、および表示部28が画像表示装置を構成する。また、撮影レンズ103、シャッター101、撮像部22、A/D変換器23、および画像処理部24は撮像手段を構成する。
さらに、システム制御部50は推定手段として機能し、さらに、システム制御部50はベクトル算出手段および補正手段として機能する。また、システム制御部50、メモリ制御部15、およびD/A変換器13は表示制御手段として機能する。そして、システム制御部50はサイズ変化算出手段としても機能する。
以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。
例えば、上記の実施の形態の機能を制御方法として、この制御方法を画像表示装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを画層表示装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。
上記の制御方法および制御プログラムの各々は、少なくとも第1の検出ステップ、第2の検出ステップ、推定ステップ、および表示制御ステップを有している。また、上記の制御方法および制御プログラムの各々は、少なくとも第1の検出ステップ、第2の検出ステップ、ベクトル算出ステップ、補正ステップ、および表示制御ステップを有している。
また、本発明は、以下の処理を実行することによっても実現される。つまり、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種の記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。
15 メモリ制御部
22 撮像部
24 画像処理部
28 表示部
50 システム制御部
60 モード切替スイッチ
61 シャッターボタン
70 操作部
104 顔検出部
105 人体検出部

Claims (12)

  1. 被写体像を含む画像を表示部に表示する際、前記被写体像について第1の領域を特定する第1の表示体と第2の領域を特定する第2の表示体とを前記被写体像に対応づけて表示する画像表示装置であって、
    前記画像において前記被写体像における前記第1の領域の位置を検出して第1の検出結果を求める第1の検出手段と、
    前記画像において前記被写体像における前記第2の領域の位置を検出して第2の検出結果を求める第2の検出手段と、
    前記第1の検出結果に応じて前記第2の領域の位置を推定して推定結果を求める推定手段と、
    前記第1の検出結果、前記第2の検出結果、および前記推定結果に応じてそれぞれ前記第1の表示体、前記第2の表示体、および前記第2の領域の位置を推定する推定表示体を前記表示部に表示制御する表示制御手段とを有し、
    前記推定手段は、前記第1の検出結果に応じて前記第1の表示体が表示される際、前記第2の検出手段によって前記第2の検出結果が得られていない場合にのみ、前記第1の検出結果に応じて前記推定結果を求めることを特徴とする画像表示装置。
  2. 前記表示制御手段は、前記推定手段によって前記推定結果が求められた際にのみ前記推定表示体を前記表示部に表示し、前記第2の検出手段によって前記第2の検出結果が得られると、前記推定表示体に代えて前記第2の表示体を前記表示部に表示することを特徴とする請求項1に記載の画像表示装置。
  3. 前記表示制御手段は前記第1の表示体および前記第2の表示体と前記推定表示体とをその表示形態を異ならせて前記表示部に表示することを特徴とする請求項1又は2に記載の画像表示装置。
  4. 連続する複数のフレームの各々について画像を表示部に表示する際、前記画像の含まれる被写体像について第1の領域を特定する第1の表示体と第2の領域を特定する第2の表示体とを前記被写体像に対応づけて表示する画像表示装置であって、
    前記フレームの各々において前記被写体像における前記第1の領域の位置を検出して第1の検出結果を求める第1の検出手段と、
    前記フレームの各々において前記被写体像における前記第2の領域の位置を検出して第2の検出結果を求める第2の検出手段と、
    現フレームにおける画像が前記表示部に表示される際、前記現フレームよりも前のフレームにおける前記第1の検出結果と前記現フレームにおける前記第1の検出結果とに応じて前記第1の領域についてその移動方向および移動量を示す移動ベクトルを求めるベクトル算出手段と、
    前記現フレームにおける前記第1の検出結果に応じて前記第1の表示体を前記表示部に表示する際、前記第2の検出手段によって前記現フレームにおける前記第2の検出結果が求められていないと、前記現フレームよりも前のフレームにおける前記第1の検出結果を前記移動ベクトルで補正して補正検出結果を得る補正手段と、
    前記第1の検出結果および前記補正検出結果に応じてそれぞれ前記現フレームにおいて前記第1の表示体および前記第2の表示体を前記表示部に表示する表示制御手段とを有することを特徴とする画像表示装置。
  5. 前記現フレームよりも前のフレームにおける前記第1の検出結果と前記現フレームにおける前記第1の検出結果とに応じて前記第1の領域についてその大きさの変化をサイズ変化量として求めるサイズ変化算出手段を備え、
    前記表示制御手段は前記補正検出結果に応じて前記第2の表示体を前記表示部に表示する際、前記サイズ変化量に応じて前記第2の表示体のサイズを変更することを特徴とする請求項4に記載の画像表示装置。
  6. 前記現フレームよりも前のフレームと前記現フレームとの間で前記第1の領域を追尾する追尾手段を有することを特徴とする請求項4又は5に記載の画像表示装置。
  7. 前記第1の検出手段は前記第1の領域として顔領域を検出し、前記第2の検出手段は前記第2の領域として前記被写体像の全体である体領域を検出することを特徴とする請求項1〜6のいずれか1項に記載の画像表示装置。
  8. 被写体像を含む画像を表示部に表示する際、前記被写体像について第1の領域を特定する第1の表示体と第2の領域を特定する第2の表示体とを前記被写体像に対応づけて表示する画像表示装置の制御方法であって、
    前記画像において前記被写体像における前記第1の領域の位置を検出して第1の検出結果を求める第1の検出ステップと、
    前記画像において前記被写体像における前記第2の領域の位置を検出して第2の検出結果を求める第2の検出ステップと、
    前記第1の検出結果に応じて前記第2の領域の位置を推定して推定結果を求める推定ステップと、
    前記第1の検出結果、前記第2の検出結果、および前記推定結果に応じてそれぞれ前記第1の表示体、前記第2の表示体、および前記第2の領域の位置を推定する推定表示体を前記表示部に表示制御する表示制御ステップとを有し、
    前記推定ステップでは、前記第1の検出結果に応じて前記第1の表示体が表示される際、前記第2の検出ステップで前記第2の検出結果が得られていない場合にのみ、前記第1の検出結果に応じて前記推定結果を求めることを特徴とする制御方法。
  9. 連続する複数のフレームの各々について画像を表示部に表示する際、前記画像の含まれる被写体像について第1の領域を特定する第1の表示体と第2の領域を特定する第2の表示体とを前記被写体像に対応づけて表示する画像表示装置の制御方法であって、
    前記フレームの各々において前記被写体像における前記第1の領域の位置を検出して第1の検出結果を求める第1の検出ステップと、
    前記フレームの各々において前記被写体像における前記第2の領域の位置を検出して第2の検出結果を求める第2の検出ステップと、
    現フレームにおける画像が前記表示部に表示される際、前記現フレームよりも前のフレームにおける前記第1の検出結果と前記現フレームにおける前記第1の検出結果とに応じて前記第1の領域についてその移動方向および移動量を示す移動ベクトルを求めるベクトル算出ステップと、
    前記現フレームにおける前記第1の検出結果に応じて前記第1の表示体を前記表示部に表示する際、前記第2の検出ステップで前記現フレームにおける前記第2の検出結果が求められていないと、前記現フレームよりも前のフレームにおける前記第1の検出結果を前記移動ベクトルで補正して補正検出結果を得る補正ステップと、
    前記第1の検出結果および前記補正検出結果に応じてそれぞれ前記現フレームにおいて前記第1の表示体および前記第2の表示体を前記表示部に表示する表示制御ステップとを有することを特徴とする制御方法。
  10. 被写体像を含む画像を表示部に表示する際、前記被写体像について第1の領域を特定する第1の表示体と第2の領域を特定する第2の表示体とを前記被写体像に対応づけて表示する画像表示装置で用いられる制御プログラムであって、
    前記画像表示装置が備えるコンピュータに、
    前記画像において前記被写体像における前記第1の領域の位置を検出して第1の検出結果を求める第1の検出ステップと、
    前記画像において前記被写体像における前記第2の領域の位置を検出して第2の検出結果を求める第2の検出ステップと、
    前記第1の検出結果に応じて前記第2の領域の位置を推定して推定結果を求める推定ステップと、
    前記第1の検出結果、前記第2の検出結果、および前記推定結果に応じてそれぞれ前記第1の表示体、前記第2の表示体、および前記第2の領域の位置を推定する推定表示体を前記表示部に表示制御する表示制御ステップとを実行させ、
    前記推定ステップでは、前記第1の検出結果に応じて前記第1の表示体が表示される際、前記第2の検出ステップで前記第2の検出結果が得られていない場合にのみ、前記第1の検出結果に応じて前記推定結果を求めることを特徴とする制御プログラム。
  11. 連続する複数のフレームの各々について画像を表示部に表示する際、前記画像の含まれる被写体像について第1の領域を特定する第1の表示体と第2の領域を特定する第2の表示体とを前記被写体像に対応づけて表示する画像表示装置で用いられる制御プログラムであって、
    前記画像表示装置が備えるコンピュータに、
    前記フレームの各々において前記被写体像における前記第1の領域の位置を検出して第1の検出結果を求める第1の検出ステップと、
    前記フレームの各々において前記被写体像における前記第2の領域の位置を検出して第2の検出結果を求める第2の検出ステップと、
    現フレームにおける画像が前記表示部に表示される際、前記現フレームよりも前のフレームにおける前記第1の検出結果と前記現フレームにおける前記第1の検出結果とに応じて前記第1の領域についてその移動方向および移動量を示す移動ベクトルを求めるベクトル算出ステップと、
    前記現フレームにおける前記第1の検出結果に応じて前記第1の表示体を前記表示部に表示する際、前記第2の検出ステップで前記現フレームにおける前記第2の検出結果が求められていないと、前記現フレームよりも前のフレームにおける前記第1の検出結果を前記移動ベクトルで補正して補正検出結果を得る補正ステップと、
    前記第1の検出結果および前記補正検出結果に応じてそれぞれ前記現フレームにおいて前記第1の表示体および前記第2の表示体を前記表示部に表示する表示制御ステップとを実行させることを特徴とする制御プログラム。
  12. 請求項1〜7のいずれか1項に記載の画像表示装置と、
    複数の被写体を撮像して画像データを得る撮像手段とを有し、
    前記表示制御手段は前記画像データに応じた画像を前記表示部に表示することを特徴とする撮像装置。
JP2012244455A 2012-11-06 2012-11-06 画像表示装置、その制御方法、および制御プログラム、並びに撮像装置 Expired - Fee Related JP6033044B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012244455A JP6033044B2 (ja) 2012-11-06 2012-11-06 画像表示装置、その制御方法、および制御プログラム、並びに撮像装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012244455A JP6033044B2 (ja) 2012-11-06 2012-11-06 画像表示装置、その制御方法、および制御プログラム、並びに撮像装置

Publications (2)

Publication Number Publication Date
JP2014093715A true JP2014093715A (ja) 2014-05-19
JP6033044B2 JP6033044B2 (ja) 2016-11-30

Family

ID=50937493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012244455A Expired - Fee Related JP6033044B2 (ja) 2012-11-06 2012-11-06 画像表示装置、その制御方法、および制御プログラム、並びに撮像装置

Country Status (1)

Country Link
JP (1) JP6033044B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018093445A (ja) * 2016-12-07 2018-06-14 株式会社大林組 監視システム、監視方法及び監視プログラム
WO2022208669A1 (ja) * 2021-03-30 2022-10-06 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007042072A (ja) * 2005-07-05 2007-02-15 Omron Corp 追跡装置
JP2008109552A (ja) * 2006-10-27 2008-05-08 Sanyo Electric Co Ltd 追跡機能付き撮像装置
JP2009081714A (ja) * 2007-09-26 2009-04-16 Olympus Imaging Corp 撮像装置および撮像装置における顔領域決定方法
JP2010244089A (ja) * 2009-03-31 2010-10-28 Sogo Keibi Hosho Co Ltd 人物検出装置、人物検出方法、及び人物検出プログラム
JP2012165174A (ja) * 2011-02-07 2012-08-30 Canon Inc 画像表示制御装置、撮像装置、およびその制御方法、並びに制御プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007042072A (ja) * 2005-07-05 2007-02-15 Omron Corp 追跡装置
JP2008109552A (ja) * 2006-10-27 2008-05-08 Sanyo Electric Co Ltd 追跡機能付き撮像装置
JP2009081714A (ja) * 2007-09-26 2009-04-16 Olympus Imaging Corp 撮像装置および撮像装置における顔領域決定方法
JP2010244089A (ja) * 2009-03-31 2010-10-28 Sogo Keibi Hosho Co Ltd 人物検出装置、人物検出方法、及び人物検出プログラム
JP2012165174A (ja) * 2011-02-07 2012-08-30 Canon Inc 画像表示制御装置、撮像装置、およびその制御方法、並びに制御プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018093445A (ja) * 2016-12-07 2018-06-14 株式会社大林組 監視システム、監視方法及び監視プログラム
WO2022208669A1 (ja) * 2021-03-30 2022-10-06 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体

Also Published As

Publication number Publication date
JP6033044B2 (ja) 2016-11-30

Similar Documents

Publication Publication Date Title
JP5251215B2 (ja) デジタルカメラ
US8786760B2 (en) Digital photographing apparatus and method using face recognition function
US9106834B2 (en) Image display controller capable of providing excellent visibility of display area frames, image pickup apparatus, method of controlling the image display controller, and storage medium
JP5736796B2 (ja) 電子カメラ、プログラム及び記録媒体
US9398222B2 (en) Image display device that displays image and display bodies specifying image's particular regions, control method and storage medium therefor, and image pickup apparatus
US20160028944A1 (en) Image processing apparatus, imaging apparatus, and image processing method
US20190149719A1 (en) Image capturing apparatus, image capturing method, and storage medium
US10388035B2 (en) Image processing apparatus, image processing method, and storage medium
US11533425B2 (en) Image processing apparatus and method for changing a priority category for objection detection
JP6431429B2 (ja) 撮像装置およびその制御方法、プログラム、ならびに記憶媒体
JP6033044B2 (ja) 画像表示装置、その制御方法、および制御プログラム、並びに撮像装置
US8866934B2 (en) Image pickup apparatus capable of deleting video effect superimposed on moving image, method of controlling the apparatus, and moving image-recording apparatus, as well as storage medium
JP6768449B2 (ja) 撮像制御装置、撮像装置の制御方法及びプログラム
JP2014110596A (ja) 撮像装置、その制御方法、およびプログラム、並びに記憶媒体
JP2014131190A (ja) 撮像装置、その制御方法、および制御プログラム
JP6381416B2 (ja) 撮像装置、撮像装置の制御方法、プログラムおよび記録媒体
JP2014225763A (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP6225463B2 (ja) 撮像装置、撮像方法および記録媒体
JP2011055272A (ja) 撮像装置及び撮像方法
JP2015034895A (ja) 撮像装置およびその制御方法
JP6039410B2 (ja) 画像処理装置及び画像処理方法
JP6512938B2 (ja) 撮像装置及び画像処理方法
JP6703057B2 (ja) 電子機器、その制御方法、およびそのプログラム
US20220277537A1 (en) Apparatus, image apparatus, method for apparatus, and storage medium
JP2012257157A (ja) 画像合成装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151028

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161025

R151 Written notification of patent or utility model registration

Ref document number: 6033044

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees