JP2005196252A - 目標物領域検出装置、撮影装置、目標物領域検出方法、およびコンピュータプログラム - Google Patents

目標物領域検出装置、撮影装置、目標物領域検出方法、およびコンピュータプログラム Download PDF

Info

Publication number
JP2005196252A
JP2005196252A JP2003435201A JP2003435201A JP2005196252A JP 2005196252 A JP2005196252 A JP 2005196252A JP 2003435201 A JP2003435201 A JP 2003435201A JP 2003435201 A JP2003435201 A JP 2003435201A JP 2005196252 A JP2005196252 A JP 2005196252A
Authority
JP
Japan
Prior art keywords
target
area
divided
image
color information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003435201A
Other languages
English (en)
Inventor
Motoyuki Yamaguchi
基志 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Photo Imaging Inc
Original Assignee
Konica Minolta Photo Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging Inc filed Critical Konica Minolta Photo Imaging Inc
Priority to JP2003435201A priority Critical patent/JP2005196252A/ja
Publication of JP2005196252A publication Critical patent/JP2005196252A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】従来よりも簡単にかつ正確に撮影範囲における撮影の目標物の領域を検出する。
【解決手段】デジタルカメラ1に、撮影範囲に写る画像を複数の分割領域からなる全体画像として取得する全体画像取得部101と、全体画像の各分割領域の画像の色情報を取得するセル色情報取得部102と、全体画像の各分割領域についてそこに目標物が写っている確からしさをその分割領域の色情報に基づいて求める被写体度合算出部103と、撮影範囲における目標物の位置する領域を各分割領域の、目標物が写っている確からしさに基づいて検出する、主被写体領域算出部105と、を設ける。
【選択図】図3

Description

本発明は、撮影範囲の中から撮影の目標物を検出する装置などに関する。
従来より、撮影の目標物つまり被写体が撮影範囲内のいずれの領域に位置するのかを検知し、その検知結果に基づいてカメラの焦点および露光レベルの自動調節を行う方法が提案されている。
例えば、特許文献1に記載される方法によると、撮影画像からエッジを検出し、そのエッジの形状を判別することによって被写体である人物を抽出する。そして、複数人物が検出された場合はいずれかの人物を主要被写体とする。
特許文献2に記載される方法によると、撮影画像より肌色領域を被写体領域として検出し、その領域について測光または測距を行う。さらに、その領域に対して輝度補正、色補正を行う。
特許文献3に記載される方法によると、ユーザが指定した部分の領域を被写体領域とする。例えば、赤いシャツを着ている人を被写体とする場合には、赤いシャツを被写体領域とする。
しかし、特許文献1に記載される方法では、画素単位で被写体の領域の抽出処理を実行するので、非常に多くの時間が掛かってしまう。よって、処理回路が大規模になってしまう。特許文献2に記載される方法では、肌色領域を被写体の領域とするだけなので、正確に被写体の領域を検出できないことがある。特許文献3に記載される方法では、ユーザによる指定の操作が必要となる。よって、係る方法は、デジタルカメラのような手軽に撮影するための撮影装置には、あまり向いていない。
特開2002−51255号公報 特開平11−146405号公報 特開平7−154666号公報
本発明は、このような問題点に鑑み、大規模な処理回路を要することなく従来よりも簡単にかつ正確に撮影範囲における撮影の目標物の領域を検出することを目的とする。
本発明に係る目標物領域検出装置は、撮影の目標物が撮影範囲の中のいずれの領域に位置するのかを検出する目標物領域検出装置であって、前記撮影範囲に写る画像を、複数の分割領域からなる全体画像として取得する全体画像取得手段と、前記全体画像の前記各分割領域について、当該分割領域に属する部分の画像の色情報を取得する色情報取得手段と、前記全体画像の前記各分割領域について、当該分割領域に前記目標物が写っている確からしさを当該分割領域の前記色情報に基づいて求める、確からしさ算出手段と、前記撮影範囲における前記目標物の位置する領域を前記各分割領域の前記確からしさに基づいて検出する目標物領域検出手段と、を有することを特徴とする。
好ましくは、前記撮影範囲における前記目標物の重心の位置を前記各分割領域の前記確からしさに基づいて求める重心算出手段と、前記撮影範囲における前記目標物の領域のサイズを前記各分割領域の前記確からしさに基づいて求める領域サイズ算出手段と、前記各分割領域の前記確からしさに基づいて前記目標物がどのような状況にあるのかを判別する状況判別手段と、を有し、前記目標物領域検出手段は、前記撮影範囲における前記目標物の位置する領域を、当該目標物の前記重心の位置および前記サイズに基づいて検出する。
または、前記領域サイズ算出手段は、前記目標物の前記重心の位置と所定の値以上の前記確からしさを有する前記分割領域の位置との差の標準偏差を算出することによって前記サイズを求める。
または、前記状況判別手段は、前記分割領域のうちの所定の値以上の前記確からしさを有する前記分割領域の前記確からしさおよびその個数に基づいて前記目標物がどのような状況にあるのかを判別する。前記分割領域のうちの所定の値以上の前記確からしさを有する前記分割領域の前記確からしさの平均値および分布密度に基づいて前記目標物がどのような状況にあるのかを判別してもよい。前記目標物の前記重心の位置および前記サイズに基づいて前記目標物がどのような状況にあるのかを判別してもよい。
または、前記確からしさ算出手段は、前記分割領域の前記確からしさを、当該分割領域の前記色情報に示される色が肌色に近いほど高い値になるように算出する。
本発明に係る撮影装置は、予備撮影によって得られる画像を、複数の分割領域からなる全体画像として取得する全体画像取得手段と、前記全体画像の前記各分割領域について、当該分割領域に属する部分の画像の色情報を取得する色情報取得手段と、前記全体画像の前記各分割領域について、当該分割領域に撮影の目標物が写っている確からしさを当該分割領域の前記色情報に基づいて求める、確からしさ算出手段と、前記撮影範囲における前記目標物の位置する領域を前記各分割領域の前記確からしさに基づいて検出する目標物領域検出手段と、前記確からしさおよび前記目標物の位置する領域に基づいて焦点および/または露出レベルの調節を行って本撮影を行う撮影制御手段と、を有することを特徴とする。
本発明によると、大規模な処理回路を要することなく従来よりも簡単にかつ正確に撮影範囲における撮影の目標物の領域を検出することができる。
請求項2ないし請求項9および請求項11の発明によると、目標物の領域を一層正確に検出することができる。請求項4ないし請求項9および請求項11の発明によると、被写体の状況を従来よりも正確に判別することができる。よって、デジタルカメラなどに適用することによって、撮影のための測光方法、露出、または焦点の調整などを従来よりも的確に行うことができる。
図1はデジタルカメラ1の外観の例を示す図、図2はデジタルカメラ1の内部構成の例を示す図、図3はデジタルカメラ1の機能的構成の例を示す図、図4は全体画像GAの例を示す図である。
本発明に係るデジタルカメラ1は、図1および図2に示すように、金属または合成樹脂などの材料で構成された筐体21の内部または表面に、プロセッサ31、メモリ32、CCDなどの撮像素子33、シャッタユニット34、絞りユニット35、十字キー22、撮影光学系23、フラッシュ24、ファインダ25、電源スイッチ26、液晶パネル27、およびレリーズボタン28などが設けられて構成される。
プロセッサ31は、図3に示す全体画像取得部101、セル色情報取得部102、被写体度合算出部103、主被写体重心算出部104、主被写体領域算出部105、被写体状況判別部106、および撮影制御部107などによって構成されており、ユーザの所望する物(目標物)を好条件で撮影するために、図1および図2に示す各構成要素に対する制御を行う。図3の各部の処理は基本的にハードウェア処理によって行われるが、一部についてはメモリ32に記憶(保存)されているプログラムを実行するなどしてソフトウェア処理によって行われる。また、メモリ32には、撮影によって得られた画像の画像データが保存される。
撮影光学系23は、複数のレンズおよび鏡胴などによって構成され、ズーム機能を有している。撮影光学系23は、レンズが受光した光を撮像素子33に結像させる。撮像素子33は、結像された光を電荷に変換する。これにより、例えば図4に示すような画像の画像データが得られる。この画像には、撮像範囲(撮影範囲)にある物、すなわち、撮影の目標物とそれ以外の物(背景)とが写っている。以下、このような撮影範囲全体の画像を「全体画像GA」と記載する。この全体画像GAの各画素のRGB値は、例えば、256階調で表される。
ファインダ25は、ユーザが接眼して撮影対象および撮影領域を確認するためのものである。液晶パネル27には、撮像素子33に現在写っている画像、過去に撮影した画像、メニュー画面、および設定画面などを表示することができる。
十字キー22は、上下左右の4方向のボタンからなり、ユーザが種々のモードを選択しまたは設定するためのものである。レリーズボタン28は、筐体21の上面に設けられており、ユーザによる半押し状態と全押し状態とを区別して検出可能な2段階押し込みスイッチである。
シャッタユニット34は、レリーズボタン28によって検出された状態(半押し状態または全押し状態)に基づいて撮像素子33をリセットするタイミングおよび電荷変換を行うタイミングなどを制御する。絞りユニット35は、撮像素子33が受光する光量の調節などを行う。
次に、ユーザがデジタルカメラ1を操作して目標物の撮影を行う際の、図3に示す各部の処理内容などについて説明する。なお、以下、撮影の目標物を「主被写体」と記載することがある。
図5は複数のセルCLに分割した全体画像GAの例を示す図、図6は色空間変換処理の流れの例を示すフローチャートである。
図3の全体画像取得部101は、レリーズボタン28が半押しされたタイミングで、撮像素子33に写った最新の全体画像GAの画像データを取得する。そして、その全体画像GAを、垂直方向にM個および水平方向にN個に等分する。つまり、N×M個の矩形の領域に分割する。以下、図5に示すように、図4の全体画像GAが10×7個の領域に分割された場合を例に説明する。以下、分割によって得られた領域を「セルCL」と記載する。また、セルCL同士を区別するために、「セルCL1」、「セルCL2」、…のように番号kを付すことがある。本実施形態では、j行目i列目に位置するセルCLの番号kを、「k=j×N+i」、とする。ただし、0≦j≦M−1、1≦i≦N、M=7、N=10である。
セル色情報取得部102は、図6に示すような手順で各セルCLのセル色情報DTCを取得する。図6において、まず、各セルCLのRGB値、輝度値(Y)、およびホワイトバランスを示す情報を取得する(#101)。これらの値は、そのセルCLに含まれる各画素のRGB値および輝度値などの平均的な値であり、公知のハードウェア処理によって簡単に取得できる。なお、輝度値として、RGB値を公知の変換式に代入して算出した値を用いてもよい。
求められたRGB値および輝度値を次の(1)式および(2)式に代入することによって、赤色差値(CrS)および青色差値(CbS)を求める(#102)。
CrS[k]=(R[k]−Y[k])/16 …… (1)
CbS[k]=(B[k]−Y[k])/16 …… (2)

ただし、CrS[k]およびCbS[k]は、それぞれ、セルCLkの赤色差値および青色差値である。Y[k]は、セルCLkの輝度値である。R[k]、G[k]、B[k]は、それぞれ、セルCLkのRGB値の赤色成分値、緑色成分値、青色成分値である。
このようにして求められたY[k]、CrS[k]、およびCbS[k]の値が、セルCLkのセル色情報DTCとなる。
図7は被写体度合算出処理の流れの例を説明するフローチャート、図8はセル色等の検出処理の流れの例を説明するフローチャート、図9は赤色差および青色差による色空間における色の分布の例を示す図、図10は肌色検出処理の流れの例を説明するフローチャート、図11は赤色検出処理の流れの例を説明するフローチャート、図12は緑色検出処理の流れの例を説明するフローチャート、図13は空色検出処理の流れの例を説明するフローチャート、図14は異常高輝度検出処理の流れの例を説明するフローチャート、図15は異常低輝度検出処理の流れの例を説明するフローチャート、図16は色または異常輝度と被写体度合との関係の例を示す図、図17はセルCLの被写体度合の分布の例を示す図である。
図3の被写体度合算出部103は、セル色情報取得部102によって得られた各セルCLのセル色情報DTCに基づいて、各セルCLに写っている物が何である蓋然性が高いかを求める。具体的には、その物が主被写体である蓋然性(確からしさ)がどれくらいの高さであるかまたは主被写体以外の物すなわち背景である蓋然性(確からしさ)がどれくらいの高さであるかを示す度合(値)を求める。以下、係る度合を「被写体度合」と記載する。本実施形態では、被写体度合が正である場合はその物が背景よりも主被写体である蓋然性が高いことを示し、負である場合は主被写体よりも背景である蓋然性が高いことを示す。また、被写体度合の絶対値が大きいほど、それぞれの蓋然性がより高いことを示す。各セルCLの被写体度合は、図7に示すような手順で求められる。
図7において、次の(3)式のように、各セルCLの被写体度合(deg_S)を初期化し、「+1」に設定しておく(#111)。
deg_S[k]=+1 …… (3)

ただし、deg_S[k]は、セルCLkの被写体度合を示す。
各セルCLが肌色(本実施形態では、ベージュ色を肌色とする。)であるか、赤色であるか、緑色(本実施形態では、植物の葉の色を緑色とする。)であるか、空色であるか、輝度が異常に高いか、または輝度が異常に低いかを、図8〜図15に示すような手順で検知する(#112)。
まず、セルCLごとに肌色フラグ、赤色フラグ、緑色フラグ、空色フラグ、異常高輝度フラグ、および異常低輝度フラグをそれぞれ1つずつ用意し、これらのフラグをオフにしておく。また、肌色セルカウンタ、赤色セルカウンタ、緑色セルカウンタ、空色セルカウンタを「0」にしておく(図8の#121)。
図9に示すように、赤色差および青色差がそれぞれ縦軸および横軸をなす2次元空間を仮想する。この2次元空間において、「k=1」であるセルCL(つまりセルCL1)の赤色差値および青色差値が示す座標(以下、「色差座標」と記載する。)が図9の肌色領域RA1に含まれる場合は、被写体度合算出部103は、セルCL1が肌色であると検知する(#122)。具体的には、次の(4a)式または(4b)式のいずれかを満たし、かつ、(4c)式を満たす場合に(図10の#131〜#133でYes)、セルCL1が肌色であると検知する。
0<CrS[k]≦20 かつ −18≦CbS[k]<0 …… (4a)
20<CrS[k]≦45 かつ −35≦CbS[k]<−8 …… (4b)
CrS[k]≦−2×CbS[k] …… (4c)

条件を満たす場合は、セルCL1の肌色フラグをオンにセットし(#134)、肌色セルカウンタに「1」を加算する(#135)。
セルCL1の色差座標が赤色領域RA2に含まれる場合は、セルCL1が赤色であると検知する(図8の#123)。具体的には、次の(5a)式または(5b)式のいずれかを満たし、かつ、(5c)式を満たす場合に(図11の#141〜#143でYes)、セルCL1が赤色であると検知する。
3<CrS[k]≦40 かつ −20≦CbS[k]<0 …… (5a)
40<CrS[k]≦70 かつ −35≦CbS[k]<−10 …… (5b)
CrS[k]>−2×CbS[k] …… (5c)

この場合は、セルCL1の赤色フラグをオンにセットし(#144)、赤色セルカウンタに「1」を加算する(#145)。
セルCL1の色差座標が緑色領域RA3に含まれかつ輝度値が所定の値未満である場合は、セルCL1が緑色であると検知する(図8の#124)。具体的には、次の(6)式を満たす場合に(図12の#151でYes)、セルCL1が緑色であると検知する。
−20<CrS[k]≦0 かつ −30≦CbS[k]<0
かつ Y[k]<480 …… (6)

この場合は、セルCL1の緑色フラグをオンにセットし(#152)、緑色セルカウンタに「1」を加算する(#153)。
セルCL1の色差座標が空色領域RA4に含まれかつ輝度値が所定の値を超える場合は、セルCL1が緑色であると検知する(図8の#125)。具体的には、次の(7a)式または(7b)式のいずれかを満たす場合に(図13の#161または#162のいずれかでYes)、セルCL1が空色であると検知する。
−20<CrS[k]≦0 かつ 0≦CbS[k]<40
かつ Y[k]>800 …… (7a)
−40<CrS[k]≦−15 かつ 40≦CbS[k]<80
かつ Y[k]>600 …… (7b)

この場合は、セルCL1の空色フラグをオンにセットし(#163)、空色セルカウンタに「1」を加算する(#164)。
輝度が異常に高いか否かを検知する(図8の#126)。具体的には、セルCL1の輝度値Y[1]が2000を超える場合に(図14の#171でYes)、輝度が異常に高いことを検知する。この場合は、セルCL1の異常高輝度フラグをオンにセットする(#172)。輝度が異常に低いか否かを検知する(図8の#127)。具体的には、セルCL1の輝度値Y[1]が100未満である場合に(図15の#181でYes)、輝度が異常に低いことを検知する。この場合は、セルCL1の異常低輝度フラグをオンにセットする(#182)。
そして、残りのセルCL2〜CL70についても、同様の検知処理を実行する(#128でNo)。このようにして、各セルCLの色および異常輝度を検知する。
図7に戻って、ステップ#112の処理の後、被写体度合算出部103は、肌色フラグ、赤色フラグ、緑色フラグ、空色フラグ、異常高輝度フラグ、および異常低輝度フラグの状態に基づいて、各セルCLの被写体度合(deg_S)の値を次のように更新する(#113)。
セルCLkの肌色フラグがオン:deg_S[k]=+16
セルCLkの赤色フラグがオン:deg_S[k]=+4
セルCLkの緑色フラグがオン:deg_S[k]=−4
セルCLkの空色フラグがオン:deg_S[k]=−8
セルCLkの異常高輝度フラグがオン:deg_S[k]=−16
セルCLkの異常低輝度フラグがオン:deg_S[k]=−16

これは、図16に示す、色または輝度と被写体度合との関係に基づいている。図16に示すように、本実施形態では、係る関係は、主被写体の画像によく見られる色ほどdeg_Sの値が大きくなるように設定され、背景の画像によく見られる色とdeg_Sの値が小さくなるように設定されている。係る関係は、実験的に求められたものである。
更新の結果、図4の全体画像GAの各セルCLのdeg_Sの値の分布は、図17に示すようになる。なお、いずれのフラグもオフであるセルCLのdeg_Sの値は、初期値の「+1」のままである。
図18は主被写体重心算出処理の流れの例を説明するフローチャート、図19は主被写体領域算出処理の流れの例を説明するフローチャート、図20は主被写体領域RYHの例を示す図、図21は被写体状況パラメータ算出処理の流れの例を説明するフローチャート、図22は全体画像GAのシーンの例を示す図である。
図3の主被写体重心算出部104は、図17のdeg_Sの値の分布に基づいて、図18に示すような手順で、全体画像GAに写っている主被写体の中心的な位置(以下、「重心」と記載する。)の位置を求める。まず、deg_Sが2以上であるセルCLに注目する(#191)。そして、注目したセルCLのdeg_Sの値、X座標の値、およびY座標の値を、次の(8)式に代入する(#192)。
Figure 2005196252
ただし、Px[k]、Py[k]は、それぞれ、注目したセルCLkのX座標の値、Y座標の値である。座標(Px[k],Py[k])は、セルCLkの所定の位置(例えば、中心)の画素の座標である。
このようにして求められた座標(x_cgS,y_cgS)が、主被写体の重心の座標となる。
図3の主被写体領域算出部105は、図19に示すような手順で、全体画像GAの中から主被写体の写っている矩形の領域(以下、「主被写体領域RYH」と記載する。)を求める。まず、deg_Sが2以上であるセルCLに注目し(#201)、そのセルの個数(num_S)をカウントする(#202)。そして、注目したセルCLのdeg_Sの値、X座標の値、Y座標の値、およびnum_Sの値を次の式(9)に代入する(#203)。
Figure 2005196252
つまり、主被写体の重心座標のX座標の値およびY座標の値に対する標準偏差の値をそれぞれ求め、さらにその値をそれぞれ2倍する。このようにして求められたx_devSおよびy_devSの値が、それぞれ、主被写体領域RYHの幅および高さを示している。
求められた主被写体の幅(x_devS)および高さ(y_devS)の中心をそれぞれ重心座標のX座標(x_cgS)およびY座標(y_cgS)と一致させる(#204)。以上のようにして、図20に示すような主被写体領域RYHが求められる。
図3の被写体状況判別部106は、図21に示すような手順で、図4の全体画像GAに写っている主被写体および背景の状況(シーン)について判別する。deg_Sが2以上であるセルCLに注目し(#211)、次の式(10)に基づいて、これらのセルCLの被写体度合(deg_S)の平均値を算出する(#212)。
Figure 2005196252
さらに、次の式(11)に基づいて被写体度合の分布密度を算出する(#213)。
Figure 2005196252
このようにして算出されたdeg_S_aveおよびdeg_S_disbの値など基づいて、主被写体および背景の状況(シーン)を次のようにして判別する(#214)。
通常、図22(a)に示すように、人物の顔面がアップで写っているシーンの場合は、被写体度合の平均値(deg_S_ave)および分布密度(deg_S_disb)のいずれも大きい値となる。そこで、被写体状況判別部106は、平均値および分布密度がそれぞれ閾値FN1、FN2よりも大きい場合に、全体画像GAのシーンを人物の顔面がアップになっている(撮影倍率が大きいまたは撮影距離が短い)シーンであると判別する。以下、このようなシーンを「シーンA」と記載する。
図22(b)に示すように、複数の人物が写っているシーンの場合は、平均値は大きい値となるが分布密度は小さい値となり、かつ、主被写体領域RYHの幅(x_devS)が広くなる。そこで、平均値が閾値FN3よりも大きく、分布密度が閾値FN4よりも小さく、かつ、x_devSが閾値FN5よりも大きい場合に、被写体状況判別部106は、全体画像GAのシーンを複数の人物がいるシーンであると判別する。以下、このようなシーンを「シーンB」と記載する。
図22(c)に示すように、1人の人物の体のほぼ全体が写っているシーンの場合は、平均値は大きい値となるが分布密度は小さい値となり、かつ、主被写体領域RYHの幅(x_devS)が狭くなる。そこで、平均値が閾値FN6よりも大きく、分布密度が閾値FN7よりも小さく、かつ、x_devSが閾値FN8よりも小さい場合に、被写体状況判別部106は、全体画像GAのシーンを1人の人物の体のほぼ全体が写っている(撮影倍率が小さいまたは撮影距離が長い)シーンであると判別する。以下、このようなシーンを「シーンC」と記載する。
図22(d)に示すように、人物でないもの(例えば、赤い花)が主被写体として写っている場合は、平均値は小さい値となるが分布密度は大きい値となる。そこで、被写体状況判別部106は、平均値が閾値FN9よりも小さく、かつ、分布密度が閾値FN10よりも大きい場合に、被写体状況判別部106は、全体画像GAのシーンを人物でないものが注目されているシーンであると判別する。以下、このようなシーンを「シーンD」と記載する。
図23は焦点調節処理の流れの例を説明するフローチャート、図24は露出レベル調節処理の流れの例を説明するフローチャート、図25は測光方法の例を示す図である。
図3の撮影制御部107は、本撮影のために必要な、焦点の調節および露出レベルの調節を、それぞれ、図23および図24に示すような手順で行う。
すなわち、撮影制御部107は、主被写体重心算出部104によって求められた主被写体の重心座標(x_cgS,y_cgS)の近傍の、コントラストの高い領域を探索する(図23の#221)。見つかったその領域が合焦領域となるように、図1の撮影光学系23などの制御(AF)を行う(#222)。
また、図23の処理と並行して、主被写体の重心座標を中心とする所定の領域を測光セル(測光領域)として選定する(図24(a)の#231)。選定した測光領域を中心に測光を行い(#232)、その結果に応じて露出レベルを決定し、図2の絞りユニット35を制御する(#233)。
または、図24(b)のように、被写体状況判別部106によって判別されたシーンに応じて露出レベルの調節を行ってもよい。例えば、シーンAであると判別された場合は、重心座標を中心とするスポット測光を行う(#241)。シーンBまたはシーンCであると判別された場合は、重心座標を中心とする平均測光を行う(#242)。例えば、図25(a)に示すように、重心座標の近傍ほど重みを持たせるようにして、撮像範囲全体の測光を行う。シーンDであると判別された場合は、重心座標を中心とする多分割測光を行う(#243)。具体的には、撮像範囲を図25(b)に示すように幾つかの領域に分割し、各領域について測光を行う。
そして、ステップ#241〜#243のいずれかの測光結果に応じて露出レベルを決定し、絞りユニット35を制御する(#244)。
図26は撮影時におけるデジタルカメラ1の全体の処理の流れの例を説明するフローチャート、図27は被写体領域検出処理の流れの例を説明するフローチャートである。次に、デジタルカメラ1の動作または処理内容について、フローチャートを参照して説明する。
図26において、図1の電源スイッチ26がオンになると、メモリのリセットなどの前処理を行う(#1)。ユーザは、撮影の目標物がデジタルカメラ1の被写界に入るようにデジタルカメラ1をその目標物の方に向け、撮影のための操作を開始する。レリーズボタン28が半押し状態になると(#2でYes)、予備撮影を行って全体画像GAの画像データを取得し、さらに、レンズに関するデータおよびモードやスイッチの設定などに関するデータを取得する(#3〜#5)。取得したデータに基づいて、現在の主被写体および背景の状況を判別するための被写体領域検出処理を行う(#6)。係る処理は、図27に示す手順で行われる。
全体画像GAを複数のセルCLに分割し、各セルCLのYCrCb値を算出する(#61)。算出したYCrCb値に基づいてそれぞれのセルCLが肌色であるか、赤色であるか、緑色であるか、空色であるか、輝度が異常に高いか、または輝度が異常に低いかを検知するなどして、各セルCLの被写体度合(deg_S)を算出する(#62)。そして、これらの被写体度合に基づいて主被写体の重心座標を算出し(#63)、主被写体の写っている領域(主被写体領域RYH)を算出し(#64)、全体画像GAに写っている主被写体および背景の状況(シーン)を判別してそのシーンを示すパラメータを算出する(#65)。ステップ#61、#62、#63、#64、および#65の処理の内容は、それぞれ、前に図6、図7、図18、図19、図21で説明した通りである。
図26に戻って、ステップ#6で判別された主被写体の重心座標またはシーンなどに応じて焦点の調整および露出レベルの調整を行う(#7、#8)。これらの処理の内容は、それぞれ、前に図23および図24で説明した通りである。
ステップ#4〜#8の処理と並行して、ステップ#3で取得した全体画像GAを図1の液晶パネル27に表示する(#9)。
他の条件が揃ってスタンバイが完了し(#10でYes)かつレリーズボタン28が全押し状態になったときに(#11でYes)、本撮影の動作を行う(#12)。つまり、レリーズボタン28が全押し状態になったときの全体画像GAの画像データを取得し、保存用の記録媒体(SDメモリカードまたはマルチメディアカード(MMC)など)に記録する。また、このとき取得した全体画像GAを液晶パネル27に表示する。撮影の終了後、ステップ#1に戻って、ユーザからの指示を待つ。レリーズボタン28が半押し状態になったら、上に述べた処理を再び実行する。
本実施形態によると、撮影範囲における主被写体の位置を示す矩形領域を簡単な構成で速くかつ正確に検出することができる。また、主被写体の状況に応じて測光方法、露出、および焦点を調整することによって、主被写体を的確に撮影することができる。特に、屋外で撮影する場合に適している。
本実施形態では、平均値(deg_S_ave)、分布密度(deg_S_disb)、および主被写体領域RYHの幅(x_devS)に基づいて、全体画像GAに写っている被写体の状況(シーン)を判別したが、さらに、主被写体領域RYHの高さ(y_devS)または重心座標(x_cgS,y_cgS)に基づいて判別するようにしてもよいし、これらを組み合わせて判別するようにしてもよい。
例えば、平均値および分布密度がそれぞれの閾値よりも大きくかつ重心座標が全体画像GAの右方である場合は、撮影範囲の右方にいる人物の顔面がアップになっているシーンであると判別する。
図3の全体画像取得部101、セル色情報取得部102、被写体度合算出部103、主被写体重心算出部104、主被写体領域算出部105、および被写体状況判別部106の機能をパーソナルコンピュータなどにおいて実現してもよい。この場合は、図26のステップ#3〜#6で説明した処理を実行するためのコンピュータプログラムをパーソナルコンピュータにインストールしておく。全体画像GAは、デジタルカメラ、デジタルビデオカメラ、またはスキャナなどの画像入力装置から取得する。または、ネットワークを介して他のコンピュータから取得するようにしてもよい。係るパーソナルコンピュータは、例えば、監視カメラで撮影を行って得た画像(全体画像GA)に写っている物(主被写体)が人物であるか否かを判別するためなどに用いられる。
その他、デジタルカメラ1の全体または各部の構成、セルCLの形状、セルCLの色および異常輝度を検知するために用いる値の色空間、処理内容、処理順序などは、本発明の趣旨に沿って適宜変更することができる。
本発明は、撮影範囲における撮影の目標物の位置するおよその領域を従来よりも簡単にかつ正確に検出することができる。よって、特に、デジタルカメラなどの測光、露出調整、および焦点調整などの制御のために好適に用いられる。
デジタルカメラの外観の例を示す図である。 デジタルカメラの内部構成の例を示す図である。 デジタルカメラの機能的構成の例を示す図である。 全体画像の例を示す図である。 複数のセルに分割した全体画像の例を示す図である。 色空間変換処理の流れの例を示すフローチャートである。 被写体度合算出処理の流れの例を説明するフローチャートである。 セル色等の検出処理の流れの例を説明するフローチャートである。 赤色差および青色差による色空間における色の分布の例を示す図である。 肌色検出処理の流れの例を説明するフローチャートである。 赤色検出処理の流れの例を説明するフローチャートである。 緑色検出処理の流れの例を説明するフローチャートである。 空色検出処理の流れの例を説明するフローチャートである。 異常高輝度検出処理の流れの例を説明するフローチャートである。 異常低輝度検出処理の流れの例を説明するフローチャートである。 色または異常輝度と被写体度合との関係の例を示す図である。 セルの被写体度合の分布の例を示す図である。 主被写体重心算出処理の流れの例を説明するフローチャートである。 主被写体領域算出処理の流れの例を説明するフローチャートである。 主被写体領域の例を示す図である。 被写体状況パラメータ算出処理の流れの例を説明するフローチャートである。 全体画像のシーンの例を示す図である。 焦点調節処理の流れの例を説明するフローチャートである。 露出レベル調節処理の流れの例を説明するフローチャートである。 測光方法の例を示す図である。 撮影時におけるデジタルカメラの全体の処理の流れの例を説明するフローチャートである。 被写体領域検出処理の流れの例を説明するフローチャートである。
符号の説明
1 デジタルカメラ(目標物領域検出装置)
101 全体画像取得部(全体画像取得手段)
102 セル色情報取得部(色情報取得手段)
103 被写体度合算出部(確からしさ算出手段)
104 主被写体重心算出部(重心算出手段)
105 主被写体領域算出部(領域サイズ算出手段、目標物領域検出手段)
106 被写体状況判別部(状況判別手段)
107 撮影制御部(撮影制御手段)
CL セル(分割領域)
GA 全体画像

Claims (13)

  1. 撮影の目標物が撮影範囲の中のいずれの領域に位置するのかを検出する目標物領域検出装置であって、
    前記撮影範囲に写る画像を、複数の分割領域からなる全体画像として取得する全体画像取得手段と、
    前記全体画像の前記各分割領域について、当該分割領域に属する部分の画像の色情報を取得する色情報取得手段と、
    前記全体画像の前記各分割領域について、当該分割領域に前記目標物が写っている確からしさを当該分割領域の前記色情報に基づいて求める、確からしさ算出手段と、
    前記撮影範囲における前記目標物の位置する領域を前記各分割領域の前記確からしさに基づいて検出する目標物領域検出手段と、
    を有することを特徴とする目標物領域検出装置。
  2. 撮影の目標物が撮影範囲の中のいずれの領域に位置するのかを検出する目標物領域検出装置であって、
    前記撮影範囲に写る画像を、複数の分割領域からなる全体画像として取得する全体画像取得手段と、
    前記全体画像の前記各分割領域について、当該分割領域に属する部分の画像の色情報を取得する色情報取得手段と、
    前記全体画像の前記各分割領域について、当該分割領域に前記目標物が写っている確からしさを当該分割領域の前記色情報に基づいて算出する、確からしさ算出手段と、
    前記撮影範囲における前記目標物の重心の位置を前記各分割領域の前記確からしさに基づいて求める重心算出手段と、
    前記撮影範囲における前記目標物の領域のサイズを前記各分割領域の前記確からしさに基づいて求める領域サイズ算出手段と、
    前記撮影範囲における前記目標物の位置する領域を、当該目標物の前記重心の位置および前記サイズに基づいて検出する目標物領域検出手段と、
    を有することを特徴とする目標物領域検出装置。
  3. 前記領域サイズ算出手段は、前記目標物の前記重心の位置と所定の値以上の前記確からしさを有する前記分割領域の位置との差の標準偏差を算出することによって前記サイズを求める、
    請求項2記載の目標物領域検出装置。
  4. 前記各分割領域の前記確からしさに基づいて前記目標物がどのような状況にあるのかを判別する状況判別手段を有する、
    請求項2または請求項3記載の目標物領域検出装置。
  5. 前記状況判別手段は、前記分割領域のうちの所定の値以上の前記確からしさを有する前記分割領域の前記確からしさおよびその個数に基づいて前記目標物がどのような状況にあるのかを判別する、
    請求項4記載の目標物領域検出装置。
  6. 前記状況判別手段は、前記分割領域のうちの所定の値以上の前記確からしさを有する前記分割領域の前記確からしさの平均値および分布密度に基づいて前記目標物がどのような状況にあるのかを判別する、
    請求項4記載の目標物領域検出装置。
  7. 前記状況判別手段は、前記平均値が所定の値よりも高くかつ前記分布密度が所定の値よりも高い場合は前記目標物が人でありかつ撮影倍率が大きい状況であると判別し、前記平均値が所定の値よりも高くかつ前記分布密度が所定の値よりも低い場合は前記目標物が人でありかつ撮影倍率が小さい状況であると判別し、前記平均値が所定の値よりも低い場合は前記目標物が人以外の物であると判別する、
    請求項6記載の目標物領域検出装置。
  8. 前記状況判別手段は、前記目標物の前記重心の位置および前記サイズに基づいて前記目標物がどのような状況にあるのかを判別する、
    請求項4ないし請求項7のいずれかに記載の目標物領域検出装置。
  9. 前記確からしさ算出手段は、前記分割領域の前記確からしさを、当該分割領域の前記色情報に示される色が肌色に近いほど高い値になるように算出する、
    請求項2ないし請求項8のいずれかに記載の目標物領域検出装置。
  10. 予備撮影によって得られる画像を、複数の分割領域からなる全体画像として取得する全体画像取得手段と、
    前記全体画像の前記各分割領域について、当該分割領域に属する部分の画像の色情報を取得する色情報取得手段と、
    前記全体画像の前記各分割領域について、当該分割領域に撮影の目標物が写っている確からしさを当該分割領域の前記色情報に基づいて求める、確からしさ算出手段と、
    前記撮影範囲における前記目標物の位置する領域を前記各分割領域の前記確からしさに基づいて検出する目標物領域検出手段と、
    前記確からしさおよび前記目標物の位置する領域に基づいて焦点および/または露出レベルの調節を行って本撮影を行う撮影制御手段と、
    を有することを特徴とする撮影装置。
  11. 予備撮影によって得られる画像を、複数の分割領域からなる全体画像として取得する全体画像取得手段と、
    前記全体画像の前記各分割領域について、当該分割領域に属する部分の画像の色情報を取得する色情報取得手段と、
    前記全体画像の前記各分割領域について、当該分割領域に撮影の目標物が写っている確からしさを当該分割領域の前記色情報に基づいて求める、確からしさ算出手段と、
    前記各分割領域の前記確からしさに基づいて前記目標物がどのような状況にあるのかを判別する状況判別手段と、
    前記状況判別手段による判別結果に基づいて焦点および/または露出レベルの調節を行って本撮影を行う撮影制御手段と、
    を有することを特徴とする撮影装置。
  12. 撮影の目標物が撮影範囲の中のいずれの領域に位置するのかを検出する目標物領域検出方法であって、
    前記撮影範囲に写る画像を、複数の分割領域からなる全体画像として取得し、
    前記全体画像の前記各分割領域について、当該分割領域に属する部分の画像の色情報を取得し、
    前記全体画像の前記各分割領域について、当該分割領域に前記目標物が写っている確からしさを当該分割領域の前記色情報に基づいて求め、
    前記撮影範囲における前記目標物の位置する領域を前記各分割領域の前記確からしさに基づいて検出する、
    ことを特徴とする目標物領域検出方法。
  13. 撮影の目標物が撮影範囲の中のいずれの領域に位置するのかを検出するためのコンピュータに用いられるコンピュータプログラムであって、
    前記撮影範囲に写る画像を、複数の分割領域からなる全体画像として取得する処理と、
    前記全体画像の前記各分割領域について、当該分割領域に属する部分の画像の色情報を取得する処理と、
    前記全体画像の前記各分割領域について、当該分割領域に前記目標物が写っている確からしさを当該分割領域の前記色情報に基づいて求める処理と、
    前記撮影範囲における前記目標物の位置する領域を前記各分割領域の前記確からしさに基づいて検出する処理と、
    をコンピュータに実行させるためのコンピュータプログラム。
JP2003435201A 2003-12-26 2003-12-26 目標物領域検出装置、撮影装置、目標物領域検出方法、およびコンピュータプログラム Pending JP2005196252A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003435201A JP2005196252A (ja) 2003-12-26 2003-12-26 目標物領域検出装置、撮影装置、目標物領域検出方法、およびコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003435201A JP2005196252A (ja) 2003-12-26 2003-12-26 目標物領域検出装置、撮影装置、目標物領域検出方法、およびコンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2005196252A true JP2005196252A (ja) 2005-07-21

Family

ID=34815394

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003435201A Pending JP2005196252A (ja) 2003-12-26 2003-12-26 目標物領域検出装置、撮影装置、目標物領域検出方法、およびコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP2005196252A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008145583A (ja) * 2006-12-07 2008-06-26 Nikon Corp カメラおよび発光量演算プログラム
JP2008257680A (ja) * 2007-11-06 2008-10-23 Mitsubishi Electric Corp 画像処理装置およびプログラム記録媒体
JP2012119994A (ja) * 2010-12-01 2012-06-21 Canon Inc 画像処理装置及びその制御方法、及びプログラム
JP2012133587A (ja) * 2010-12-21 2012-07-12 Canon Inc 画像解析装置、画像解析方法及びプログラム
JP2012242676A (ja) * 2011-05-20 2012-12-10 Canon Inc 撮像装置及び制御方法
US8417025B2 (en) 2007-03-30 2013-04-09 Mitsubishi Electric Corporation Image processing apparatus and program recording medium
JP5224069B2 (ja) * 2007-05-08 2013-07-03 日本電気株式会社 画像向き判定方法、画像向き判定装置及びプログラム
CN106856558A (zh) * 2015-12-09 2017-06-16 台达电子工业股份有限公司 具摄影机自动调派功能的3d影像监控系统及其监控方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008145583A (ja) * 2006-12-07 2008-06-26 Nikon Corp カメラおよび発光量演算プログラム
US8417025B2 (en) 2007-03-30 2013-04-09 Mitsubishi Electric Corporation Image processing apparatus and program recording medium
JP5224069B2 (ja) * 2007-05-08 2013-07-03 日本電気株式会社 画像向き判定方法、画像向き判定装置及びプログラム
JP2008257680A (ja) * 2007-11-06 2008-10-23 Mitsubishi Electric Corp 画像処理装置およびプログラム記録媒体
JP2012119994A (ja) * 2010-12-01 2012-06-21 Canon Inc 画像処理装置及びその制御方法、及びプログラム
JP2012133587A (ja) * 2010-12-21 2012-07-12 Canon Inc 画像解析装置、画像解析方法及びプログラム
JP2012242676A (ja) * 2011-05-20 2012-12-10 Canon Inc 撮像装置及び制御方法
CN106856558A (zh) * 2015-12-09 2017-06-16 台达电子工业股份有限公司 具摄影机自动调派功能的3d影像监控系统及其监控方法
CN106856558B (zh) * 2015-12-09 2019-09-20 台达电子工业股份有限公司 具有摄影机自动调派功能的3d影像监控系统及其监控方法

Similar Documents

Publication Publication Date Title
JP6101397B2 (ja) 写真出力方法および装置
CN111107276B (zh) 信息处理设备及其控制方法、存储介质以及摄像系统
JP2011134221A (ja) 撮像装置、3dモデリングデータ生成方法、および、プログラム
JP2006211139A (ja) 撮像装置
JP2007150601A (ja) 電子カメラ
CN111726521B (zh) 终端的拍照方法、拍照装置和终端
JP5279635B2 (ja) 画像処理装置、画像処理方法、および、プログラム
KR20110025621A (ko) 화상 처리 장치, 화상 처리 방법 및 컴퓨터 기억 매체
CN106791451B (zh) 一种智能终端的拍照方法
US20210158537A1 (en) Object tracking apparatus and control method thereof
JP2010072619A (ja) 露出演算装置およびカメラ
JP2007067934A (ja) 撮像装置及びその制御方法
CN107547789B (zh) 影像获取装置及其摄影构图的方法
CN108289170B (zh) 能够检测计量区域的拍照装置、方法及计算机可读介质
JP2005196252A (ja) 目標物領域検出装置、撮影装置、目標物領域検出方法、およびコンピュータプログラム
JP2011134117A (ja) 被写体領域抽出装置およびその制御方法、被写体追跡装置、並びにプログラム
JP2020102059A (ja) 画像処理装置
JP6346484B2 (ja) 画像処理装置およびその制御方法
JP5849515B2 (ja) 露出演算装置およびカメラ
US11727716B2 (en) Information processing apparatus, imaging apparatus, which determines exposure amount with respect to face detection and human body detection
JP7455656B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN110809119A (zh) 拍摄方法、拍摄装置及计算机可读存储介质
JP2005295465A (ja) 撮影範囲状況判別装置、撮影装置、撮影範囲状況判別方法、およびコンピュータプログラム
JP6493746B2 (ja) 画像追尾装置及び画像追尾方法
JP5423851B2 (ja) 電子カメラ