JP2015026926A - 画像判定装置、画像判定プログラムおよびカメラ - Google Patents

画像判定装置、画像判定プログラムおよびカメラ Download PDF

Info

Publication number
JP2015026926A
JP2015026926A JP2013154314A JP2013154314A JP2015026926A JP 2015026926 A JP2015026926 A JP 2015026926A JP 2013154314 A JP2013154314 A JP 2013154314A JP 2013154314 A JP2013154314 A JP 2013154314A JP 2015026926 A JP2015026926 A JP 2015026926A
Authority
JP
Japan
Prior art keywords
image
focus state
focus
subject
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013154314A
Other languages
English (en)
Inventor
浩史 金藤
Hiroshi Kinto
浩史 金藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013154314A priority Critical patent/JP2015026926A/ja
Publication of JP2015026926A publication Critical patent/JP2015026926A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

【課題】画像のピント状態(合焦、前ピン、後ピン)を判定すること。
【解決手段】画像判定装置100は、撮影画像から被写体を検出する被写体検出手段103aと、撮影画像のピント位置を推定するピント位置推定手段103bと、被写体検出手段103aにより検出された被写体の位置および大きさとピント位置推定手段103bにより推定されたピント位置との関係に基づいて、撮影画像のピント状態を判定するピント状態判定手段103cと、を備える。
【選択図】図1

Description

本発明は、画像判定装置、画像判定プログラムおよびカメラに関する。
次のような画像判定装置が知られている(特許文献1参照)。この画像判定装置は、JPEG(Joint Photographic Experts Group)画像のDCT(Discrete Cosine Transform)周波数成分から、画像がボケているかどうか判定する。一般に、ボケた画像は、低周波数成分が多く、高周波数成分が少ない傾向にある。逆に、シャープな画像は、低周波数成分が少なく、高周波数成分が多い傾向にある。そのため、この傾向に基づいてDCT周波数成分を解析することにより、画像がボケているかどうかを自動判定することができる。
特許第4513764号公報
上記従来技術は、画像がボケているかどうかを判定することはできるが、画像のピント状態が前ピンか後ピンかを判定することはできなかった。
(1)請求項1に記載の画像判定装置は、撮影画像から被写体を検出する被写体検出手段と、撮影画像のピント位置を推定するピント位置推定手段と、被写体検出手段により検出された被写体の位置および大きさとピント位置推定手段により推定されたピント位置との関係に基づいて、撮影画像のピント状態を判定するピント状態判定手段と、を備えることを特徴とする。
(2)請求項8に記載の画像判定プログラムは、撮影画像における被写体の位置および大きさを検出する被写体検出処理と、撮影画像のピント位置を推定するピント位置推定処理と、被写体検出処理により検出された被写体の位置および大きさとピント位置推定処理により推定されたピント位置との関係に基づいて、撮影画像のピント状態を判定するピント状態判定処理と、をコンピュータに実行させることを特徴とする。
(3)請求項9に記載のカメラは、請求項1〜7のいずれか一項に記載の画像判定装置を備えることを特徴とする。
本発明によれば、画像のピント状態(合焦、前ピン、後ピン)を判定することができる。
本発明の一実施の形態に係る画像判定装置の構成を示すブロック図である。 第1の実施形態における入力画像の一例を模式的に示す図である。 第1の実施形態における二値画像の一例を模式的に示す図である。 第1の実施形態における二値エッジ画像の一例を模式的に示す図である。 第1の実施形態におけるエッジの画素数のグラフを示す図である。 第1の実施形態における第1の特徴量を説明する図である。 第1の実施形態における第2の特徴量を説明する図である。 第1の実施形態におけるピント状態判定閾値を説明する図である。 第1の実施形態におけるピント状態判定処理の流れを説明するフローチャートである。 第1の実施形態における被写体検出処理の流れを説明するフローチャートである。 第2の実施形態におけるピント状態判定処理の流れを説明するフローチャートである。 図11のフローチャートに続くフローチャートである。 第2の実施形態における入力画像の一例を模式的に示す図である。 第2の実施形態における二値エッジ画像の一例を模式的に示す図である。 第2の実施形態における第1の特徴量を説明する図である。 第2の実施形態における第2の特徴量を説明する図である。 第2の実施形態におけるピント状態判定閾値を説明する図である。 第4の実施形態におけるピント状態判定処理の流れを説明するフローチャートである。 図18のフローチャートに続くフローチャートである。 第4の実施形態におけるピント状態判定閾値を説明する図である。 プログラムの提供の様子を説明する図である。 カメラの構成を示すブロック図である。
−第1の実施の形態−
図面を参照して本発明の第1の実施形態について説明する。図1は、本実施形態における画像判定装置100の構成を示すブロック図である。画像判定装置100は、たとえば、パーソナルコンピュータである。画像判定装置100は、操作部材101と、接続IF(インターフェース)102と、制御部103と、HDD(ハードディスクドライブ)104と、モニタ105とを備えている。
操作部材101は、使用者によって操作される種々の装置、例えばキーボードやマウスを含む。接続IF102は、画像判定装置100と外部機器とを接続するためのインターフェースである。接続IF102としては、たとえば、画像判定装置100とデジタルカメラとを有線接続するためのUSBインターフェースや、無線接続するための無線LANモジュールなどが用いられる。
制御部103は、被写体検出部103aと、ピント位置推定部103bと、ピント状態判定部103cと、を有する。制御部103は、CPU、メモリ、およびその周辺回路から構成され、メモリに格納された制御プログラムを実行することにより、これらの各部の機能を実現している。各部の機能の内容については、後で詳しく説明する。
HDD104は、接続IF102を介して取り込まれた画像ファイルや、制御部103で実行される処理で用いるデータ等を記録するための記録装置である。モニタ105は、例えば液晶モニタであって、制御部103から出力される種々の表示用データが表示される。
画像判定装置100は、撮影画像のピント状態(前ピン、後ピン、合焦)を判定するピント状態判定処理を実行する。ピント状態判定処理は、たとえば、カメラのAF(Auto Focus)性能を評価する際に利用される。カメラのAF性能を評価する場合、たとえば、評価対象のカメラを用いて、移動する被写体を連続的に複数枚撮影する。そして、この複数枚の撮影画像のそれぞれにおいてピント状態を判定し、カメラのAF性能の評価に用いる。ここで撮影画像が大量にある場合、1枚1枚の撮影画像に対して目視でピント状態を判定すると、作業時間が膨大となったり判定基準に揺らぎが出たりしてしまう。そこで、本実施形態では、撮影画像のピント状態を自動で判定することで、ピント状態の判定にかかる時間を低減し且つその判定基準を一定に保つことができるようにする。
以下、本実施形態におけるピント状態判定処理について説明する。ここでは、一例として、位置が固定されたカメラで走行中の電車を連続的に撮影した撮影画像のピント状態を判定する場合を説明する。上記カメラにより撮影された撮影画像は、接続IF102を介して画像判定装置100に入力される。制御部103の被写体検出部103aは、入力画像から被写体を検出する被写体検出処理を行う。図2は、入力画像の一例を模式的に示す図である。ここでは一例として、被写体が緑色の塗装が施された電車1であるとする。ここでは、電車1の前面に塗装されている緑色の長方形を、被写体領域2として検出する。
具体的に、被写体検出部103aは、入力画像に対して緑色が検出できる閾値を用いて二値化処理を行い、二値画像を作成する。図3は、二値画像の一例を模式的に示す図である。二値画像では、たとえば入力画像における緑色の領域が黒画素(ハッチングで示す)で示され、それ以外の領域が白画素で示されている。被写体検出部103aは、二値画像に対してラベリング処理を行い、電車の前面に塗装されている緑色の長方形である可能性が高い長方形を、被写体領域2として検出する。
また、制御部103のピント位置推定部103bは、入力画像のピント位置(入力画像内におけるピントが合っている位置)を推定する。なお、画像の座標は、画像の左上を原点とし、画像の左右方向(長辺方向)をx軸方向とし、画像の上下方向(短辺方向)をy軸方向とするxy座標で表されるものとする。本実施形態では、被写体の奥行方向が画像のy軸方向に対応するため、入力画像のピント位置をy座標値として求める。
具体的に、ピント位置推定部103bは、入力画像からエッジを検出するエッジ検出処理を行い、たとえばエッジの画素を黒画素で示し、それ以外の画素を白画素で示した二値エッジ画像を生成する。図4は、この二値エッジ画像を模式的に示す画像である。ピント位置の周辺部分では画像がシャープとなるため、多くのエッジが検出されると考えられる。本実施形態では、このことを利用して入力画像のピント位置を推定する。そのため、入力画像中には、遮蔽物がなく、また地面に構造(たとえば図2では線路など)があることが望ましい。
ピント位置推定部103bは、二値エッジ画像におけるエッジの画素数をy座標ごとにカウントし、図5に示すようにy座標ごとのエッジの画素数を示すグラフを作成する。図5に示すグラフでは、横軸がy座標値を示し、縦軸がエッジの画素数を示す。ピント位置推定部103bは、図5に示すグラフの半値幅を求めて半値幅の中心のy座標値を算出し、算出したy座標値を入力画像のピント位置として推定する。
そして、制御部103のピント状態判定部103cは、このようにして求められた被写体領域とピント位置とに基づいて、入力画像のピント状態を判定する。具体的に、ピント状態判定部103cは、図6に示すように、入力画像の長辺の長さ11を被写体領域2の長辺の長さ12で除算した値を、第1の特徴量として算出する。第1の特徴量は、カメラと被写体との距離(撮影距離)を表す値である。第1の特徴量は、被写体領域2の長辺の長さ12が短くなるほど、すなわち撮影距離が遠いほど、大きくなる。
また、ピント状態判定部103cは、図7に示すように、被写体領域2の中心位置からピント位置までの距離13を被写体領域2の長辺の長さ12で除算した値を、第2の特徴量として算出する。第2の特徴量は、ピント位置と被写体の位置とのずれ量を表す値である。図7(a)は前ピン状態(被写体の位置よりもピント位置がカメラ側にある状態)の例を示す。図7(b)は合焦状態(被写体の位置にピント位置が一致している状態)の例を示す。図7(c)は後ピン状態(被写体の位置よりもピント位置が奥側にある状態)の例を示す。図7(a)〜(c)に示す例では、カメラと被写体との距離(撮影距離)は同じ(すなわち被写体領域2の長辺の長さ12は同一)であり、ピント位置が異なっている。図7(a)と図7(b)とを比較してみると、前ピン状態では、合焦状態よりも被写体領域2の中心からピント位置までの距離13が長くなるため、第2の特徴量が大きくなる。一方、図7(b)と図7(c)とを比較してみると、後ピン状態では、合焦状態よりも被写体領域2の中心からピント位置までの距離13が短くなるため、第2の特徴量が小さくなる。
図8は、第1の特徴量と第2の特徴量との関係に基づいて、ピント状態が合焦状態か、前ピン状態か、後ピン状態かを判定するための閾値(以下、ピント状態判定閾値と表記する)を示すグラフである。このグラフでは、横軸が第1の特徴量を示し、縦軸が第2の特徴量を示す。ピント状態判定閾値は、前ピン状態か合焦状態かを判定するための前ピン閾値31と、後ピン状態か合焦状態かを判定するための後ピン閾値32とからなる。上述したように第1の特徴量は、カメラから被写体が遠いほど大きくなる。カメラから被写体が遠いほど被写界深度が深くなるため、図8に示すように、合焦状態と判定される範囲は、第1の特徴量が大きいほど広くなっている。
ピント状態判定閾値については、たとえば、予め同じ被写体(ここでは電車1)をレンズの絞り値および焦点距離を固定して複数枚撮影し、これらの撮影画像に対して目視でピント状態を判定して、ピント状態と第1の特徴量および第2の特徴量との関係を調べて、ピント状態判定閾値を決定しておく。そして、ピント状態判定閾値をHDD104に記憶させておく。
なお、本実施形態では、ピント状態判定閾値を決定する際に用いた撮影画像(以下、学習画像と表記する)と、ピント状態判定処理により判定される入力画像とで、撮影時におけるレンズの絞り値および焦点距離が同一であることを前提として、ピント状態を判定する。学習画像と入力画像とで、レンズの絞り値および焦点距離が異なっていると被写界深度が異なるため、合焦状態と判定される範囲が異なってしまうからである。また、焦点距離が異なっていると、学習画像とピント画像とで、撮影距離が同じである場合でも、撮影画面に写る(撮影画角に対する)被写体の大きさが異なり、第1の特徴量が異なってしまうからである。
ピント状態判定部103cは、上記算出した第1の特徴量および第2の特徴量とHDD104に記憶されているピント状態判定閾値を比較して、入力画像のピント状態を判定する。具体的には、上記算出した第2の特徴量が、上記算出した第1の特徴量に対応する前ピン閾値31以下であり且つ後ピン閾値32以上である場合には合焦状態であると判定し、前ピン閾値31よりも大きい場合は前ピン状態であると判定し、後ピン閾値32よりも小さい場合は後ピン状態であると判定する。
次に、図9に示すフローチャートを用いて、上述したピント状態判定処理の流れを説明する。制御部103は、たとえば使用者によってピント状態判定処理の実行が指示されると、図9の処理を行うプログラムを起動して、図9の処理を開始する。
ステップS101において、制御部103は、ピント状態を判定する入力画像を読み込んで、ステップS102に進む。
ステップS102において、制御部103は、ステップS101で読み込んだ入力画像がピント状態判定処理によってピント状態の判定が可能か否かを判定する。
上述したようにピント位置を推定するためには、入力画像中において、遮蔽物がなく、且つ地面に構造があることが求められる。また、入力画像からある程度のエッジが検出されることが求められる。このことをふまえ、制御部103は、たとえば、入力画像に対して直線検出処理を行い、検出された直線が途切れている場合は、遮蔽物があると判断して、ピント状態の判定が不可能であると判定してもよい。また、たとえば、制御部103は、入力画像から所定以上の長さの直線が検出されない場合は、地面に構造がないと判断して、ピント状態の判定が不可能であると判定するようにしてもよい。また、たとえば、制御部103は、入力画像に対してエッジ検出処理を行い、検出されたエッジが所定数よりも少ない場合は、ピント状態の判定が不可能であると判定するようにしてもよい。
また本実施形態では、上述したように、学習画像と入力画像とで撮影時のレンズの絞り値および焦点距離が同一であることを前提としてピント状態を判定する。そのため、制御部103は、入力画像のExif情報を参照して、入力画像の撮影時のレンズの絞り値および焦点距離が学習画像と同一であるか否かを判定し、同一ではない場合は、ピント状態の判定が不可能であると判定するようにしてもよい。
制御部103は、ピント状態の判定が不可能である場合には、ステップS102を否定判定してピント状態判定処理を終了し、ピント状態の判定が可能である場合には、ステップS102を肯定判定して、ステップS103へ進む。
ステップS103において、制御部103の被写体検出部103aは、入力画像から被写体領域を検出する被写体検出処理を行う。図10に示すフローチャートを用いて、この被写体検出処理の流れを説明する。図10のステップS103−1において、被写体検出部103aは、被写体検出処理において無駄な処理やノイズを防ぐための制限値であるSmallLimitを設定して、ステップS103−2に進む。なお、本実施形態では、たとえば、入力画像の画素数の0.07%の値をSmallLimitとして設定する。
ステップS103−2において、被写体検出部103aは、被写体の代表色を抽出した二値画像を作成する。上述したように、本実施形態では、緑色の塗装が施された電車を被写体とするため、被写体の代表色を緑色とし、緑色を抽出した二値画像を作成する。
ここで、入力画像はRGB色空間で表されているとする。被写体検出部103aは、入力画像(RGB)から、次式(1)および(2)、または次式(3)および(4)を用いて、色差画像(Cb,Cr)を作成する。
Cb = - 0.1687・R - 0.3313・G + 0.5000・B + 128 …(1)
Cr = 0.5000・R - 0.4187・G - 0.0813・B + 128 … (2)
Cb = - 0.25・R - 0.50・G + 0.75・B + 128 …(3)
Cr = 0.75・R - 0.50・G - 0.25・B + 128 … (4)
そして被写体検出部103aは、作成した色差画像から、次式(5)により、図3に示したような二値画像(BinaryImage)を作成する。すなわち、入力画像における緑色の領域を黒画素で示し、それ以外の領域を白画素で示す二値画像を作成する。なお、次式(5)において、xsizeは画像の長辺、ysizeは画像の短辺であり、(x,y)は画像の左上を原点とした座標値である。
for (y=0; y<ysize; y++) {
for (x=0; x<xsize; x++) {
if (Cb(x,y)>92 && Cb(x,y)<122 && Cr(x,y)>96 && Cr(x,y)<130) {
BinaryImage(x,y) = 1;
}
else {
BinaryImage(x,y) = 0;
}
}
} … (5)
このようにして二値画像を作成すると、被写体検出部103aは、次のステップS103−3に進む。
ステップS103−3において、被写体検出部103aは、ステップS103−2で作成した二値画像に対して、4方向または8方向のラベリング処理を行ってラベリング画像を作成し、ステップS103−4に進む。
ステップS103−4において、被写体検出部103aは、ステップS103−3で作成したラベリング画像から白画素の塊をマスクとして検出し、検出したマスクの面積を算出して、ステップS103−5へ進む。
ステップS103−5において、被写体検出部103aは、ステップS103−4で算出したマスクの面積に基づいて、主要被写体である可能性が低いマスクを除外するための足切りを行う。具体的には、ステップS103−1で設定した制限値SmallLimitより画素数の多いマスクのみを残し、その他のマスクを以降の処理対象から除外する。これにより、主要被写体である可能性が低いマスクを以降の処理対象から除外して、処理の高速化を図ることができる。
ステップS103−6において、被写体検出部103aは、処理対象のマスクが1つ以上あるか否かを判定する。ステップS103−5の処理の結果、処理対象のマスクが1つ以上残った場合には、被写体検出部103aは、ステップS103−6を肯定判定して、ステップS103−7に進む。一方、ステップS103−5の処理の結果、処理対象のマスクの数が0となった場合は、被写体領域を検出できず、ピント状態の判定を行うことが不可能となる。そのため、この場合には、被写体検出部103aは、ステップS103−6を否定判定して、ピント状態判定処理を終了する。
ステップS103−7において、被写体検出部103aは、残された各マスクの慣性モーメントIM22を、それぞれ次式(6)により算出し、ステップS103−8に進む。なお、式(6)において、(x,y)はマスクの各画素の座標であり、(x,y)は対称画像の中心座標である。
IM22 = ΣΣ{(x−xg)2+ (y−yg)2} … (6)
ステップS103−8において、被写体検出部103aは、ステップS103−4で算出したマスクの面積とステップS103−7で算出したマスクの慣性モーメントIM22に基づいて、次式(7)により各マスクの評価値を算出し、ステップS103−9に進む。なお、式(7)においては、βの値は1より大きな値が好ましく、たとえば1.5とする。
評価値 = (マスク面積)β/IM22 …(7)
ステップS103−9において、被写体検出部103aは、ステップS103−8で算出した評価値が最大であるマスクを、主要被写体を示す可能性が高いマスクとして特定し、ステップS103−10に進む。
ステップS103−10において、被写体検出部103aは、ステップS103−9で特定したマスクを包絡する外接矩形を作成し、この外接矩形を被写体領域として設定する。被写体検出部103aは、被写体領域(外接矩形)の頂点(四隅)の座標と中心座標を不図示のメモリに記録して、図10の被写体検出処理を終了し、図9のステップS104に進む。
ステップS104において、制御部103のピント位置推定部103bは、入力画像(RGB)から、次式(8)または(9)を用いて、輝度画像(Y)を作成する。
Y = 0.2990R + 0.5870G + 0.1140B … (8)
Y = 0.25R + 0.50G + 0.25B … (9)
ピント位置推定部103bは、作成した輝度画像(Y)に対して、たとえば3×3のGaussianフィルタを適用して平滑化輝度画像(SmoothY)を作成し、次式(10)を用いてエッジ画像(EdgeImage)を作成して、ステップS105に進む。
EdgeImage = Y - SmoothY … (10)
ステップS105において、ピント位置推定部103bは、ステップS104で作成したエッジ画像(EdgeImage)の画素値の平均(EdgeAve)と標準偏差(Edgeσ)を算出し、次式(11)により、図4に示したような二値エッジ画像(BinaryEdgeImage)を作成する。すなわち、エッジの画素を黒画素で示し、それ以外の領域を白画素で示す二値エッジ画像を作成する。なお、次式(11)において、xsizeは画像の長辺、ysizeは画像の短辺であり、(x,y)は画像の左上を原点とした座標値である。また、次式(11)において、γの値は1より大きな値が好ましく、たとえば3とする。
for (y=0; y<ysize; y++) {
for (x=0; x<xsize; x++) {
if (EdgeAve - Edgeσ×γ < EdgeImage(x, y) && EdgeImage(x, y) < EdgeAve + Edgeσ×γ) {
BinaryEdgeImage(x,y) = 0;
}
else {
BinaryEdgeImage(x,y) = 1;
}
}
} … (11)
ステップS106において、ピント位置推定部103bは、ステップS105で作成した二値エッジ画像のエッジ画素数をy座標ごとにカウントし、図5に示したようなy座標ごとのエッジの画素数を示すグラフを作成する。そして、制御部103は、上述したようにこのグラフの半値幅を求め、半値幅の中心のy座標を算出し、これを入力画像のピント位置として推定して、ステップS107に進む。
ステップS107において、制御部103のピント状態判定部103cは、ステップS103でメモリに記録した被写体領域の頂点(4隅)の座標に基づいて被写体領域の長辺の長さを算出する。そして、ピント状態判定部103cは、入力画像の長辺の長さを被写体領域の長辺の長さで除算した値を、第1の特徴量として算出して、ステップS108に進む。
ステップS108において、ピント状態判定部103cは、ステップS103でメモリに記録した被写体領域の中心座標からステップS106で推定したピント位置までの距離を算出する。そして、ピント状態判定部103cは、被写体領域の中心からピント位置までの距離を被写体領域の長辺の長さで除算した値を、第2の特徴量として算出して、ステップS109に進む。
ステップS109において、ピント状態判定部103cは、ステップS107で算出した第1の特徴量とステップS108で算出した第2の特徴量との関係に基づいて、図8に示したピント状態判定閾値により、入力画像のピント状態が合焦、前ピン、後ピンのいずれかを判定し、ピント状態判定処理を終了する。
以上説明した実施の形態によれば、次の作用効果が得られる。
画像判定装置100において、被写体検出部103aは、撮影画像における被写体の位置および大きさを検出する。ピント位置推定部103bは、撮影画像からエッジを検出するエッジ検出処理を行い、エッジ検出処理の結果に基づいて撮影画像のピント位置を推定する。HDD104には、撮影画像のピント状態が合焦状態か、前ピン状態か、後ピン状態かを判定するためのピント状態判定閾値が記憶されている。ピント状態判定部103cは、撮影画像の大きさ(入力画像の長辺の長さ11)と被写体の大きさ(被写体領域2の長辺の長さ12)との関係を表す第1の特徴量を算出する。ピント状態判定部103cは、被写体の位置(被写体領域2の中心)からピント位置までの距離13と被写体の大きさ(被写体領域2の長辺の長さ12)との関係を表す第2の特徴量を算出する。ピント状態判定部103cは、第1の特徴量および第2の特徴量とピント状態判定閾値とを比較して、撮影画像のピント状態を判定する。このような構成により、画像判定装置100は、撮影画像のピント状態(合焦、前ピン、後ピン)を判定することができる。また、画像判定装置100は、画像の鮮鋭度を判定の指標としないため、撮影時のカメラ機種、ISO感度、光線条件等が異なる画像であっても、それらの違いによる影響を受けずにピント状態を判定することができる。
−第2の実施の形態−
次に、本発明の第2の実施形態について説明する。なお、第2の実施形態に係る画像判定装置100の構成は、第1の実施形態に係る画像判定装置100と同様の構成(図1)であるため、同一の符号を付し、説明を省略する。
図11および図12は、第2の実施形態におけるピント状態判定処理の流れを説明するフローチャートである。なお、第2の実施形態では、図13に示すように、被写体が人物20である入力画像のピント状態を判定する場合を例に挙げて説明する。図13に示す入力画像は、たとえば陸上競技の様子を撮影した撮影画像であり、地面に陸上競技用の白線が写っている。
図11のステップS201〜S202において、制御部103は、第1の実施形態のステップS101〜S102と同様の処理を行う。すなわち、制御部103は、入力画像を読み込んでピント状態判定可能であるか否かを判定し、判定可能である場合はステップS203に進み、判定可能でない場合はピント状態判定処理を終了する。
ステップS203において、被写体検出部103aは、入力画像から人物の全身を検出する人物検出処理を行って、ステップS204に進む。人物検出処理には、たとえば、特徴量にHOG(Histograms of Oriented Gradients)、学習アルゴリズムにReal AdaBoostを用いて構築した検出器を使用する。
ステップS204において、被写体検出部103aは、ステップS203において人物を検出できたか否かを判定する。被写体検出部103aは、人物を検出できた場合はステップS204を肯定判定してステップS205に進み、検出できなかった場合はピント状態の判定ができないので、ステップS204を否定判定してピント状態判定処理を終了する。
ステップS205において、被写体検出部103aは、ステップS203において検出された人物が複数であるか否かを判定する。被写体検出部103aは、検出人数が複数である場合はステップS205を肯定判定してステップS206に進み、検出人数が一人である場合はその人物を主要被写体として選択し、ステップS205を否定判定してステップS207に進む。
ステップS206において、被写体検出部103aは、ステップS203において検出された複数の人物の中から主要被写体である可能性が高い人物を1人選択して、ステップS207に進む。たとえば、被写体検出部103aは、検出された複数の人物のうち入力画像の中心に最も近い人物を、主要被写体として選択する。
ステップS207において、ピント位置推定部103bは、第1の実施の形態のステップS104と同様の処理を行って、ステップS208に進む。すなわち、ピント位置推定部103bは、入力画像からエッジ画像を作成する。
ステップS208において、ピント位置推定部103bは、第1の実施の形態のステップS105と同様の処理を行って、ステップS209(図12)に進む。すなわち、ピント位置推定部103bは、ステップS207で作成したエッジ画像を二値化して、二値エッジ画像を作成する。図14に、第2の実施形態における二値エッジ画像の一例を模式的に示す。
ステップS209において、ピント位置推定部103bは、第1の実施の形態のステップS106と同様の処理を行って、ステップS210に進む。すなわち、ピント位置推定部103bは、ステップ208で作成した二値エッジ画像において、y座標ごとのエッジ画素数のグラフを作成し、このグラフから入力画像のピント位置を推定する。
ステップS210において、ピント状態判定部103cは、図15に示すように、ステップS203の人物検出処理により検出され、主要被写体として選択された人物20を包絡する外接矩形21を作成し、被写体領域として設定する。ピント状態判定部103cは、入力画像の長辺の長さ22を被写体領域(外接矩形21)の長辺の長さ23で除算した値を、第1の特徴量として算出して、ステップS211に進む。
ステップS211において、ピント状態判定部103cは、図16に示すように、被写体領域(外接矩形21)の中心からステップS209で推定したピント位置までの距離24を被写体領域(外接矩形21)の長辺の長さ23で除算した値を、第2の特徴量として算出して、ステップS212に進む。
ステップS212において、ピント状態判定部103cは、入力画像のExif情報を参照して、入力画像の撮影時のレンズの絞り値および焦点距離が学習画像(ピント状態判定閾値を決定する際に用いた撮影画像)と同一であるか否かを判定する。同一である場合はピント状態判定閾値および第1の特徴量を調整する必要がないので、ピント状態判定部103cは、ステップS212を肯定判定してステップS214へ進む。一方、同一ではない場合はピント状態判定閾値および第1の特徴量を調整する必要があるので、ピント状態判定部103cは、ステップS212を否定判定してステップS213へ進む。
ステップS213において、ピント状態判定部103cは、ピント状態判定閾値および第1の特徴量の調整を行って、ステップS214に進む。図17は、第2の実施の形態におけるピント状態判定閾値のグラフの一例を示す図である。図17では、調整前のピント状態判定閾値を点線で示し、調整後のピント状態判定閾値を実線で示す。たとえば、学習画像よりも入力画像において、撮影時のレンズ絞り値が大きいまたは焦点距離が短いことにより被写界深度が深くなる場合、ピント状態判定部103cは、図17(a)に示すように、学習画像によって作成したピント状態判定閾値よりも合焦状態と判定する範囲を広げるようにピント状態判定閾値を調整する(すなわち前ピン閾値31を大きくし且つ後ピン閾値32を小さくする)。一方、学習画像よりも入力画像において、撮影時のレンズの絞り値が小さいまたは焦点距離が長いことにより被写界深度が浅くなる場合、ピント状態判定部103cは、図17(b)に示すように、学習画像によって作成したピント状態判定閾値よりも合焦状態と判定する範囲を広げるようにピント状態判定閾値を調整する(すなわち前ピン閾値31を小さくし且つ後ピン閾値32を大きくする)。なお、調整量については、たとえば、学習画像と入力画像との被写界深度の差が大きくなるほど大きくするようにしてもよいし、所定の値を予め決めておいてもよい。
また、学習画像と入力画像とで撮影時のレンズの焦点距離が異なる場合には、撮影画角が異なるため、同じ撮影距離であっても第1の特徴量が異なる。そこで、この場合、ピント状態判定部103cは、同じ撮影距離の場合は第1の特徴量が同じになるように、ステップS210で算出した第1の特徴量に係数αを乗算する。係数αの値は、学習画像よりも入力画像において撮影時のレンズの焦点距離が長い(撮影画角が狭い)場合、1より大きい値が好ましく、反対に、焦点距離が短い(撮影画角が広い)場合、1より小さい値が好ましい。また、係数αは、たとえば、焦点距離が長いほど大きく焦点距離が短いほど小さくしてもよいし、所定の値を予め決めておいてもよい。
ステップS213において、ピント状態判定部103cは、上述した第1の実施形態のステップS109と同様の処理を行い、ピント状態判定処理を終了する。すなわち、ピント状態判定部103cは、第1の特徴量と第2の特徴量との関係に基づいて、ピント状態判定閾値により、入力画像のピント状態が合焦、前ピン、後ピンのいずれかを判定する。
以上説明した実施の形態によれば、次の作用効果が得られる。
画像判定装置100において、ピント状態判定部103cは、入力画像の撮影時におけるレンズの絞り値および焦点距離に応じてHDD104に記憶されているピント状態判定閾値を調整して、ピント状態の判定に用いるようにした。また、ピント状態判定部103cは、入力画像の撮影時におけるレンズの焦点距離に応じて第1の特徴量を調整して、ピント状態の判定に用いるようにした。これにより、画像判定装置100は、ピント状態判定閾値を決定するための学習画像と入力画像とで撮影時におけるレンズの絞り値や焦点距離が異なる場合であっても、ピント状態判定閾値を用いて入力画像のピント状態(合焦、前ピン、後ピン)を判定することができる。
−第3の実施の形態−
次に、本発明の第3の実施形態について説明する。なお、第3の実施形態に係る画像判定装置100の構成は、第1の実施形態に係る画像判定装置100と同様の構成(図1)であるため、同一の符号を付し、説明を省略する。また、第3の実施形態におけるピント状態判定処理については、第2の実施形態におけるピント状態判定処理(図11および図12)と共通部分の説明を省略し、異なる部分のみ説明する。
第3の実施形態では、被写体がペットである撮影画像のピント状態を判定する。第3の実施形態のピント状態判定処理において、被写体検出部103aは、上述した人物検出処理(ステップS203)の代わりに、ペット検出処理を行う。ペット検出処理には、たとえば、特徴量にhaar-like特徴、学習アルゴリズムにAdaBoostを用いて構築した検出器を使用する。また、入力画像が、ペット検出機能が搭載されたデジタルカメラで撮影された画像である場合には、ペット検出結果のメタデータを読み出してもよい。
被写体検出部103aは、ペット検出処理によってペットが検出されなかった場合にはピント状態判定処理を終了する。また、被写体検出部103aは、ペット検出処理で複数のペットが検出された場合には、上述したステップS206のように、複数のペットの中から主要被写体を一匹選択する。選択方法としては、たとえば、検出されたサイズが1番大きいペットを主要被写体として選択する。
−第4の実施の形態−
次に、本発明の第4の実施形態について説明する。なお、第4の実施形態に係る画像判定装置100の構成は、第1の実施形態に係る画像判定装置100と同様の構成(図1)であるため、同一の符号を付し、説明を省略する。第4の実施の形態では、複数枚の撮影画像についてそれぞれピント状態を判定し、判定結果に対応するレーティング情報を撮影画像に付加するようになっている。以下、図18および図19に示すフローチャートを用いて、第4の実施形態におけるピント状態判定処理の流れを説明する。
図18のステップS401において、制御部103は、複数枚の画像を含む画像フォルダの読み込みを行って、ステップS402に進む。
ステップS402において、制御部103は、ステップS401で読み込んだ画像フォルダの中から、ピント状態を判定する対象とする対象画像1枚の読み込みを行って、ステップS403に進む。
ステップS403において、制御部103は、ステップS402で読み込んだ対象画像について、第1の実施形態のステップS102と同様の処理を行う。すなわち、制御部103は、対象画像がピント状態判定可能であるか否かを判定する。制御部103は、判定可能である場合はステップS404に進み、判定可能でない場合はステップS413に進む。
ステップS404において、被写体検出部103aは、対象画像から主要被写体を検出する主要被写体検出処理を行って、ステップS405へ進む。なお、主要被写体検出処理としては、たとえば、第1の実施の形態における被写体検出処理(図9のステップS103−1〜S103−10)、第2の実施の形態における人物検出処理(図11のステップS203〜S206)、第3の実施の形態におけるペット検出処理などを行う。
ステップS405において、被写体検出部103aは、ステップS404の主要被写体検出処理において主要被写体を検出できたか否かを判定する。被写体検出部103aは、主要被写体を検出できた場合にはステップS405を肯定判定してステップS406に進み、検出できなかった場合にはステップS405を否定判定してステップS413に進む。
ステップS406において、ピント位置推定部103bは、第1の実施の形態のステップS104と同様の処理を行って、ステップS407に進む。すなわち、ピント位置推定部103bは、対象画像からエッジ画像を作成する。
ステップS407において、ピント位置推定部103bは、第1の実施の形態のステップS105と同様の処理を行って、ステップS408に進む。すなわち、ピント位置推定部103bは、ステップS406で作成したエッジ画像を二値化して、二値エッジ画像を作成する。
ステップS408において、ピント位置推定部103bは、第1の実施の形態のステップS106と同様の処理を行って、ステップS409(図19)に進む。すなわち、ピント位置推定部103bは、ステップ407で作成した二値エッジ画像において、y座標ごとのエッジ画素数のグラフを作成し、このグラフから対象画像のピント位置を推定する。
ステップS409において、ピント状態判定部103cは、ステップS404の主要被写体検出処理により検出された主要被写体を包絡する外接矩形を作成し、被写体領域として設定する。ピント状態判定部103cは、入力画像の長辺の長さを被写体領域(外接矩形)の長辺の長さで除算した値を、第1の特徴量として算出して、ステップS410に進む。
ステップS410において、ピント状態判定部103cは、被写体領域(外接矩形)の中心からステップS408で推定したピント位置までの距離を被写体領域(外接矩形)の長辺の長さで除算した値を、第2の特徴量として算出して、ステップS411に進む。
ステップS411において、ピント状態判定部103cは、ステップS409で算出した第1の特徴量とステップS410で算出した第2の特徴量との関係に基づいて、図20に示すピント状態判定閾値により対象画像のピント状態を判定し、ステップS412に進む。なお、第4の実施形態では、図20に示すように、対象画像のピント状態が、「合焦」、「やや前ピン」、「やや後ピン」、「前ピン」、「後ピン」のいずれかを判定する。「やや前ピン」の状態とは、ピント位置が「前ピン」状態よりも合焦位置に近い状態である。「やや後ピン」の状態とは、ピント位置が「後ピン」状態よりも合焦位置に近い状態である。
第4の実施の形態におけるピント状態判定閾値は、「前ピン」か「やや前ピン」かを判定するための前ピン閾値41と、「やや前ピン」か「合焦」かを判定するためのやや前ピン閾値42と、「やや後ピン」か「合焦」かを判定するためのやや後ピン閾値43と、「後ピン」か「やや後ピン」かを判定するための後ピン閾値44とからなる。ピント状態判定部103cは、上記算出した第2の特徴量が、上記算出した第1の特徴量に対応するやや前ピン閾値42以下であり且つやや後ピン閾値43以上である場合には「合焦」であると判定する。また、制御部103は、上記算出した第2の特徴量が、上記算出した第1の特徴量に対応するやや前ピン閾値42よりも大きく且つ前ピン閾値41以下である場合には「やや前ピン」であると判定し、前ピン閾値41よりも大きい場合には「前ピン」であると判定する。また、制御部103は、上記算出した第2の特徴量が、上記算出した第1の特徴量に対応するやや後ピン閾値43以下であり且つ後ピン閾値44よりも大きい場合には「やや後ピン」であると判定し、後ピン閾値44以下である場合には「後ピン」であると判定する。
ステップS412において、ピント状態判定部103cは、ステップ411で判定したピント状態に対応するレーティング情報を対象画像に付加してHDD104に記憶し、ステップS413に進む。本実施形態では、たとえば、図20に示すように、「前ピン」にレーティング「1」が対応し、「やや前ピン」にレーティング「2」が対応し、「合焦」にレーティング「3」が対応し、「やや後ピン」にレーティング「4」が対応し、「後ピン」にレーティング「5」が対応する。したがって、たとえば、ステップS411で「前ピン」と判定された対象画像には、レーティング情報「1」が付加される。
ステップS413において、制御部103は、ステップS401で読み込んだ画像フォルダ内の全ての画像に対して、ピント状態の判定が完了したか否かを判定する。制御部103は、全ての画像に対してピント状態の判定が完了した場合には、ステップS413を肯定判定して、ピント状態判定処理を終了する。一方、制御部103は、ステップS401で読み込んだ画像フォルダ内の画像のうち、まだ、ピント状態を判定していない画像がある場合は、ステップS413を否定判定してステップS402(図18)に戻り、ピント状態を判定していない画像を読み込んで、上述した処理を行う。
(変形例1)
上述したピント状態判定処理において、ピント状態判定閾値を決定するために用いた学習画像の被写体と入力画像の被写体とは、同一であることが望ましいが、異なっていてもよい。異なっている場合には、学習画像の被写体と入力画像の被写体とで、被写体の大きさが近い方が好ましい。また、被写体の大きさごとに複数のピント状態判定閾値を準備しておくようにしてもよい。たとえば、第2の実施の形態のように、被写体が人物である場合には大人と子供とで身長差があるため、大人用のピント状態判定閾値と子供用のピント状態判定閾値とをそれぞれ準備して、HDD104に記憶させておくようにしてもよい。この場合、制御部103は、被写体検出処理の際に、年齢判別処理も行って被写体が大人か子供かを判別し、判別結果に応じてピント状態判定閾値を使い分ける。
(変形例2)
上述した実施の形態では、エッジ検出の結果を用いて画像のピント位置を推定する例について説明したが、ピント位置の推定方法はこれに限らなくてもよい。たとえば、撮像面位相差検出方式の焦点検出処理を行うカメラで撮影した撮影画像である場合には、その検出結果に基づいて撮影画像内でのピント位置を推定するようにしてもよい。
(変形例3)
上述した各実施の形態は、適宜組み合わせてもよい。たとえば、第4の実施形態において、第2の実施の形態のように、対象画像の撮影時における絞り値や焦点距離に応じて、ピント状態判定閾値を調整するようにしてもよい。
(変形例4)
上述したピント状態判定処理に関するプログラムは、CD−ROMなどの記録媒体やインターネットなどのデータ信号を通じて提供することができる。図21はその様子を示す図である。パーソナルコンピュータ200は、CD−ROM204を介してプログラムの提供を受ける。また、パーソナルコンピュータ200は通信回線201との接続機能を有する。コンピュータ202は上記プログラムを提供するサーバーコンピュータであり、ハードディスク203などの記録媒体にプログラムを格納する。通信回線201は、インターネット、パソコン通信などの通信回線、あるいは専用通信回線などである。コンピュータ202はハードディスク203を使用してプログラムを読み出し、通信回線201を介してプログラムをパーソナルコンピュータ200に送信する。すなわち、プログラムをデータ信号として搬送波を介して、通信回線201を介して送信する。このように、プログラムは、記録媒体やデータ信号(搬送波)などの種々の形態のコンピュータ読み込み可能なコンピュータプログラム製品として供給できる。
(変形例5)
上述した実施の形態では、画像判定装置100がパーソナルコンピュータである例について説明したが、これに限らなくてよい。たとえば、カメラが上述した画像判定装置を備えるようにしてもよい。図22は、カメラ300の構成を示すブロック図である。カメラ300は、操作部材101と、制御部103と、モニタ105と、撮像光学系311と、撮像素子312と、を備える。カメラ300には、メモリカード313が着脱可能である。カメラ300の制御部103は、上述した実施の形態と同様に、被写体検出部103a、ピント位置推定部103b、およびピント状態判定部103cを有し、撮像素子312により得られた撮像画像に対して、上記ピント状態判定処理を行う。
上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
100…画像判定装置、101…操作部材、102…接続IF、103…制御部、103a…被写体検出部、103b…ピント位置推定部、103c…ピント状態判定部、104…HDD、105…モニタ

Claims (9)

  1. 撮影画像から被写体を検出する被写体検出手段と、
    前記撮影画像のピント位置を推定するピント位置推定手段と、
    前記被写体検出手段により検出された被写体の位置および大きさと前記ピント位置推定手段により推定されたピント位置との関係に基づいて、前記撮影画像のピント状態を判定するピント状態判定手段と、
    を備えることを特徴とする画像判定装置。
  2. 請求項1に記載の画像判定装置において、
    前記ピント状態判定手段は、前記撮影画像の大きさと前記被写体の大きさとの関係を表す第1の特徴量を算出し、前記被写体の位置から前記ピント位置までの距離と前記被写体の大きさとの関係を表す第2の特徴量を算出し、前記第1の特徴量と前記第2の特徴量との関係に基づいて、前記撮影画像のピント状態を判定することを特徴とする画像判定装置。
  3. 請求項2に記載の画像判定装置において、
    前記撮影画像のピント状態が合焦状態か、前ピン状態か、後ピン状態かを判定するための判定閾値が記憶されている記憶手段をさらに備え、
    前記ピント状態判定手段は、前記第1の特徴量および前記第2の特徴量と前記判定閾値とを比較して、前記撮影画像のピント状態を判定することを特徴とする画像判定装置。
  4. 請求項3に記載の画像判定装置において、
    前記ピント状態判定手段は、前記撮影画像の撮影時におけるレンズの絞り値および焦点距離に応じて前記記憶手段に記憶されている判定閾値を調整して、前記ピント状態の判定に用いることを特徴とする画像判定装置。
  5. 請求項2〜4のいずれか一項に記載の画像判定装置において、
    前記ピント状態判定手段は、前記撮影画像の撮影時におけるレンズの焦点距離に応じて前記第1の特徴量を調整して、前記ピント状態の判定に用いることを特徴とする画像判定装置。
  6. 請求項1〜5のいずれか一項に記載の画像判定装置において、
    前記ピント位置推定手段は、前記撮影画像からエッジを検出するエッジ検出処理を行い、前記エッジ検出処理の結果に基づいて前記撮影画像のピント位置を推定することを特徴とする画像判定装置。
  7. 請求項1〜6のいずれか一項に記載の画像判定装置において、
    前記ピント状態判定手段は、前記判定したピント状態に対応する情報を前記撮影画像に付加することを特徴とする画像判定装置。
  8. 撮影画像における被写体の位置および大きさを検出する被写体検出処理と、
    前記撮影画像のピント位置を推定するピント位置推定処理と、
    前記被写体検出処理により検出された被写体の位置および大きさと前記ピント位置推定処理により推定されたピント位置との関係に基づいて、前記撮影画像のピント状態を判定するピント状態判定処理と、
    をコンピュータに実行させることを特徴とする画像判定プログラム。
  9. 請求項1〜7のいずれか一項に記載の画像判定装置を備えることを特徴とするカメラ。
JP2013154314A 2013-07-25 2013-07-25 画像判定装置、画像判定プログラムおよびカメラ Pending JP2015026926A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013154314A JP2015026926A (ja) 2013-07-25 2013-07-25 画像判定装置、画像判定プログラムおよびカメラ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013154314A JP2015026926A (ja) 2013-07-25 2013-07-25 画像判定装置、画像判定プログラムおよびカメラ

Publications (1)

Publication Number Publication Date
JP2015026926A true JP2015026926A (ja) 2015-02-05

Family

ID=52491271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013154314A Pending JP2015026926A (ja) 2013-07-25 2013-07-25 画像判定装置、画像判定プログラムおよびカメラ

Country Status (1)

Country Link
JP (1) JP2015026926A (ja)

Similar Documents

Publication Publication Date Title
JP4351911B2 (ja) デジタルスチルカメラにおける取り込み画像の写真品質を評価する方法及び装置
US9251589B2 (en) Depth measurement apparatus, image pickup apparatus, and depth measurement program
US10115178B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
US10659676B2 (en) Method and apparatus for tracking a moving subject image based on reliability of the tracking state
JP2014057303A (ja) 深度推定手順において改善されたシーン検出を利用するためのシステム及び方法
TWI482468B (zh) 物體偵測裝置、方法及其電腦可讀取紀錄媒體
US10455163B2 (en) Image processing apparatus that generates a combined image, control method, and storage medium
JP5779089B2 (ja) エッジ検出装置、エッジ検出プログラム、およびエッジ検出方法
JP5725194B2 (ja) 夜景画像ボケ検出システム
US11301974B2 (en) Image processing apparatus, image processing method, image capturing apparatus, and storage medium
Chen et al. SmartDCap: semi-automatic capture of higher quality document images from a smartphone
JP5471130B2 (ja) 画像処理装置及び方法
US10373329B2 (en) Information processing apparatus, information processing method and storage medium for determining an image to be subjected to a character recognition processing
JP7047848B2 (ja) 顔三次元形状推定装置、顔三次元形状推定方法、及び、顔三次元形状推定プログラム
JP2010200270A (ja) 画像処理装置、カメラおよびプログラム
JP2015026926A (ja) 画像判定装置、画像判定プログラムおよびカメラ
CN103841312B (zh) 物体侦测装置及方法
JP5434057B2 (ja) 画像表示装置、および画像表示プログラム
JP2015156189A (ja) 画像評価装置、および画像評価プログラム
JP6776532B2 (ja) 画像処理装置、撮像装置、電子機器及び画像処理プログラム
JP2019096364A (ja) 画像評価装置
JP5631181B2 (ja) 画像処理装置及びその制御方法、及びプログラム
JP6326841B2 (ja) 画像処理装置、撮像装置及び画像処理プログラム
JP6911697B2 (ja) 水面判定プログラム、水面判定方法、及び水面判定装置
JP5629562B2 (ja) 画像処理装置及びその制御方法、及びプログラム