JP2019008830A - Subject detection device, imaging device, and program - Google Patents
Subject detection device, imaging device, and program Download PDFInfo
- Publication number
- JP2019008830A JP2019008830A JP2018175014A JP2018175014A JP2019008830A JP 2019008830 A JP2019008830 A JP 2019008830A JP 2018175014 A JP2018175014 A JP 2018175014A JP 2018175014 A JP2018175014 A JP 2018175014A JP 2019008830 A JP2019008830 A JP 2019008830A
- Authority
- JP
- Japan
- Prior art keywords
- image
- mask
- component
- pixel
- masks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、被写体検出装置、撮像装置及びプログラムに関する。 The present invention relates to a subject detection device, an imaging device, and a program.
従来、焦点調節に関する様々な技術が考えられている。例えば、特許文献1の発明では、被写体抽出の手法を用いた焦点調節を行う撮像装置が開示されている。特許文献1の発明では、被写体形状の変化量に応じてAF測距枠を変形することにより、被写体がカメラ方向に移動する場合でも、被写体に対して最適に自動焦点調節を行うことを可能としている。 Conventionally, various techniques relating to focus adjustment have been considered. For example, the invention of Patent Document 1 discloses an imaging apparatus that performs focus adjustment using a subject extraction technique. In the invention of Patent Document 1, it is possible to optimally perform automatic focus adjustment on a subject even when the subject moves in the camera direction by deforming the AF distance measurement frame in accordance with the amount of change in the subject shape. Yes.
ところで、被写体抽出に際しては、ユーザが撮影対象としている特定領域(例えば、被写体領域や注目領域など)を抽出する際に、背景である領域についても抽出を行ってしまう場合がある。 By the way, when extracting a subject, when a specific region (for example, a subject region, a region of interest, etc.) targeted by the user is extracted, the region that is the background may also be extracted.
一の観点の被写体検出装置は、処理対象の画像を用いて複数の異なる二値化画像を生成する二値化処理部と、各々の二値化画像で抽出された画素領域について、二値化処理前の画像から取得した前記画素領域に対応する画素の強度を用いて、前記画素領域の被写体らしさを示す評価値をそれぞれ算出する評価値算出部と、前記評価値を用いて、前記処理対象の画像の特定領域に相当する前記画素領域を抽出する抽出部と、を備える。 An object detection apparatus according to one aspect includes a binarization processing unit that generates a plurality of different binarized images using an image to be processed, and binarization of a pixel area extracted from each binarized image An evaluation value calculation unit that calculates an evaluation value indicating the subjectivity of the pixel region using the intensity of the pixel corresponding to the pixel region acquired from the image before processing, and the processing target using the evaluation value An extraction unit that extracts the pixel region corresponding to the specific region of the image.
一の観点の撮像装置は、被写体の像を撮像する撮像部と、一の観点の被写体検出装置とを備える。 An imaging device according to one aspect includes an imaging unit that captures an image of a subject and a subject detection device according to one aspect.
一の観点のプログラムは、処理対象の画像を用いて複数の異なる二値化画像を生成し、各々の二値化画像で抽出された画素領域について、二値化処理前の画像から取得した前記画素領域に対応する画素の強度を用いて、前記画素領域の被写体らしさを示す評価値をそれぞれ算出し、前記評価値を用いて、前記処理対象の画像の特定領域に相当する前記画素領域を抽出する処理をコンピュータに実行させる。 The program according to one aspect generates a plurality of different binarized images using an image to be processed, and the pixel area extracted from each binarized image is acquired from the image before binarization processing. Using the intensity of the pixel corresponding to the pixel area, an evaluation value indicating the subjectivity of the pixel area is calculated, and using the evaluation value, the pixel area corresponding to a specific area of the processing target image is extracted. Cause the computer to execute the process.
本発明によれば、被写体に応じて的確に特定領域の抽出を行うことができる。 According to the present invention, it is possible to accurately extract a specific area according to a subject.
<第1実施形態>
以下、本発明の実施の形態について説明する。図1は、本発明の撮像装置の一例を示す機能ブロック図である。なお、撮像装置10としては、デジタルカメラの他、例えばカメラ機能を備えた携帯電話機やタブレットPCなどの携帯型端末機器が挙げられる。
<First Embodiment>
Embodiments of the present invention will be described below. FIG. 1 is a functional block diagram illustrating an example of an imaging apparatus according to the present invention. In addition to the digital camera, examples of the imaging device 10 include portable terminal devices such as a mobile phone and a tablet PC having a camera function.
撮像装置10は、撮像光学系15、光学系駆動部16、撮像部17、焦点調節部18、制御部19、第1メモリ20、第2メモリ21、メディアI/F22、表示部23及び操作部24を備えている。ここで、光学系駆動部16、撮像部17、焦点調節部18、第1メモリ20、第2メモリ21、メディアI/F22、表示部23及び操作部24は、制御部19にそれぞれ接続される。
The imaging apparatus 10 includes an imaging
撮像光学系15は、例えばズームレンズやフォーカスレンズを含む複数のレンズを有している。簡単のため、図1では、撮像光学系15を1枚のレンズで示す。撮像光学系15に含まれるズームレンズやフォーカスレンズの各レンズ位置は、光学系駆動部16によってそれぞれ光軸方向に調整される。この撮像光学系15は、一眼レフレックスカメラなどのビューファインダカメラに代表されるように、撮像装置10の装置本体に対して着脱自在となるレンズ鏡筒内に設けてもよいし、コンパクトカメラに代表されるように、撮像装置10の装置本体に一体に設けられるレンズ鏡筒内に設けてもよい。
The imaging
撮像部17は、撮像光学系15を介して入射された光束による被写体の像を撮像(撮影)するモジュールである。撮像部17は、例えば、撮像光学系15により光電変換面に結像された光学像を撮像素子内でデジタル信号に変換して出力する撮像素子を備えてもよい。また、例えば、撮像部17は、撮像素子およびA/D変換部を備え、撮像素子は撮像光学系15により光電変換面に結像された光学像を電気信号に変換してA/D変換部に出力し、A/D変換部は、撮像素子によって変換された電気信号をデジタル化して、デジタル信号として出力する構成としてもよい。ここで、上述した撮像素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)などの光電変換素子で構成される。この撮像素子の画素には、例えば公知のベイヤ配列に従ってRGBのカラーフィルタが配置されており、カラーフィルタでの色分解によって各色に対応する画像信号を出力することができる。なお、撮像素子は、光電変換面の一部の領域について被写体の像を電気信号に変換する、所謂画像の切り出しを行えるようにしてもよい。
The
ここで、撮像部17は、操作部24からの撮像指示に応じて、不揮発性の記憶媒体35への記録を伴う記録用の静止画像を撮影する。このとき、撮像部17は、記録用の静止画像を連写撮影することもできる。また、撮像部17は、撮影待機時において所定の時間間隔ごとに観測用の画像(スルー画像)を撮影する。スルー画像は、記録用の静止画像と比べて間引きにより解像度(画像サイズ)が低くなっている。時系列に取得されたスルー画像のデータは、制御部19による各種の演算処理や、表示部23での動画表示(ライブビュー表示)に使用される。なお、撮像部17で取得される画像を、撮像画像と称することもある。
Here, the
焦点調節部18は、撮像部17の撮像範囲内に設定された焦点検出エリアの情報を用いて、フォーカスレンズの自動焦点調節(Auto Focus)を実行する。
The
例えば、焦点調節部18は、スルー画像を用いて公知のコントラスト検出によりAFを実行するものであってもよい。あるいは、焦点調節部18は、公知の位相差検出方式により、瞳分割された被写体像の像ズレ量からAFを実行するものであってもよい。位相差検出方式による場合、焦点調節部18は撮像光学系15から入射する光束の一部を用いて、撮像部17から独立して焦点検出を行うモジュール(例えば、一眼レフ形式のカメラに実装される焦点検出モジュール)であってもよい。あるいは、撮像部17の受光面に焦点検出用の受光素子を配置し、焦点調節部18が撮像面で位相差検出AFを行うようにしてもよい。
For example, the
制御部19は、撮像装置10の動作を統括的に制御するプロセッサである。例えば、制御部19は、撮像部17での撮像画像の撮影制御、自動露出(Auto Exposure)制御、表示部23での画像の表示制御、第1メモリ20およびメディアI/F22での画像の記録制御を行う。この制御部19は、画像処理部31を有している。画像処理部31は、スルー画像や撮像画像のデータに対して、色補間、階調変換、ホワイトバランス補正、輪郭強調、ノイズ除去などの画像処理を施す。この画像処理部31は、上述した画像処理を行う機能の他に、被写体検出装置の一例としての被写体検出部32の機能を備えている。なお、第1実施形態においては、被写体検出部32の機能を備えた画像処理部31の構成としているが、被写体検出部32は、画像処理部31とは異なる機能として設けることもできる。
The
被写体検出部32は、撮像部17で撮像された画像を用いて、画像に含まれる被写体の位置、形状および大きさを特定する。例えば、被写体検出部32は、カラーのスルー画像を用いて、画像に含まれる被写体の位置、形状および大きさを特定する。
The
ここで、図1に示す制御部19の各機能ブロックは、ハードウェア的には任意のプロセッサ、メモリ、その他の電子回路で実現でき、ソフトウェア的にはメモリにロードされたプログラムによって実現される。上述した画像処理部31、被写体検出部32は、制御部19によって処理されるプログラムモジュールである。しかし、画像処理部31、被写体検出部32の少なくとも一方は、ASIC(Application Specific Integrated Circuit)等であってもよい。
Here, each functional block of the
第1メモリ20は、画像処理の前工程や後工程で撮像画像のデータを一時的に記憶するバッファメモリである。例えば、第1メモリ20は、SDRAM等の揮発性メモリである。第2メモリ21は、制御部19で処理されるプログラムや、プログラムで使用される各種データを記憶するメモリである。例えば、第2メモリ21は、フラッシュメモリ等の不揮発性メモリである。
The
メディアI/F22は、不揮発性の記憶媒体35を接続するためのコネクタを有している。そして、メディアI/F22は、コネクタに接続された記憶媒体35に対してデータ(記録用画像)の書き込み/読み込みを実行する。記憶媒体35は、例えば、ハードディスクや、半導体メモリを内蔵したメモリカードである。なお、メディアI/F22が記憶媒体35に対して光学的にデータを読み取る又は書き込む場合には、記憶媒体35は、光学ディスクである。
The media I /
次に、図2を用いて、被写体検出部32の構成について説明する。被写体検出部32は、色空間変換部41、解像度変換部42、差分画像生成部43、画像判定部44、二値化処理部45、マスク絞込部46、評価値算出部47及びマスク抽出部48を備えている。ここで、被写体検出部32の各機能ブロックは、制御部19によって処理されるプログラムモジュールであってもよいし、ASIC等であってもよい。
Next, the configuration of the
色空間変換部41は、入力されるスルー画像のデータに対して色空間変換処理を実行する。制御部19に入力される画像のデータは、例えばRGB色空間で表されるデータである。したがって、色空間変換部41は、入力される画像のデータを、RGB色空間で表されるデータから、YCbCr色空間で表されるデータに変換する。
The color
解像度変換部42は、色空間変換処理が施されたスルー画像のデータに対して解像度変換処理を施す。この解像度変換処理により、入力されるスルー画像は、その解像度が元の解像度よりも低解像度となる、言い換えればスルー画像の画像サイズが小さくなる。
The
第1実施形態では、被写体検出部32として、色空間変換部41及び解像度変換部42を備えた構成としているが、色空間変換処理及び解像度変換処理が施されたスルー画像のデータが被写体検出部32に入力されることを前提とする場合には、色空間変換部41及び解像度変換部42の構成は省略することが可能である。また、色空間変換処理及び解像度変換処理を被写体検出処理における前処理として1処理でまとめて実行することを前提とするのであれば、色空間変換部41及び解像度変換部42の構成を1つの構成として(画像変換部の構成として)まとめることも可能である。
In the first embodiment, the
差分画像生成部43は、YCbCr色空間で表されるスルー画像の画素値の平均値を、Y成分、Cb成分及びCr成分毎に算出する。差分画像生成部43は、Y成分、Cb成分及びCr成分の各成分毎に算出された画素値の平均値を用いて、Y成分、Cb成分及びCr成分の各成分毎の基準濃度画像を生成する。ここで、Y成分、Cb成分及びCr成分の各成分毎の基準濃度画像は、解像度変換処理が施されたスルー画像の解像度と同一の解像度であり、各画素の画素値がいずれも共通する画像である。
The difference
ここで、Y成分、Cb成分及びCr成分のうち、Cb成分及びCr成分の画素値は、Y成分の画素値よりも小さいことがわかっている。つまり、二値化処理により得られる各成分のマスクのうち、Y成分のマスクは、その評価値が高い。ここで、評価値の高いY成分のマスクは、光が反射している領域や背景となる領域など、輝度が高い領域が多い。その結果、被写体がない領域が被写体の領域として特定されてしまう。したがって、各成分の二値化画像から生成されたマスクの評価値を適切に演算するために、Cb成分及びCr成分の画素値に対しては、予め所定の係数(例えば3など)を乗算しておくことも可能である。 Here, it is known that the pixel values of the Cb component and the Cr component among the Y component, the Cb component, and the Cr component are smaller than the pixel value of the Y component. That is, among the component masks obtained by the binarization process, the Y component mask has a high evaluation value. Here, the Y component mask having a high evaluation value has many areas with high luminance such as an area where light is reflected and an area which is a background. As a result, an area where there is no subject is specified as the subject area. Therefore, in order to appropriately calculate the evaluation value of the mask generated from the binarized image of each component, the pixel values of the Cb component and the Cr component are multiplied in advance by a predetermined coefficient (for example, 3). It is also possible to keep it.
差分画像生成部43は、解像度変換処理が施されたスルー画像と基準濃度画像とを用いて、Y成分、Cb成分及びCr成分の各成分毎に、2つの差分画像を生成する。この2つの差分画像は、正の差分画像と負の差分画像とからなる。ここで、正の差分画像は、解像度変換処理が施されたスルー画像において、基準濃度画像の画素値を超過する画素値を有する画素の分布を表す画像であり、負の差分画像とは、解像度変換処理が施されたスルー画像において、基準濃度画像の画素値未満となる画素値を有する画素の分布を表す画像である。
The difference
差分画像生成部43は、Y成分の正の差分画像を生成する際に、差分値が0を超過する画素の画素値を差分値に設定し、差分値が0以下となる画素の画素値を0に設定する。または、差分画像生成部43は、差分値が0以上となる画素の画素値を差分値に設定し、差分値が0未満となる画素については差分値はなしとしてもよい。いずれの場合においても、Y成分の正の差分画像では、Y成分の画像の画素値がY成分の基準濃度画像の画素値を超過する画素においては、その階調がそのまま保持される。ここで、Y成分の正の差分画像において、Y成分の画像の画素値がY成分の基準濃度画像の画素値を超過する画素の画素値の大きさは、Y成分の基準濃度画像からの乖離度合いを示している。
When generating the positive difference image of the Y component, the difference
また、差分画像生成部43は、Y成分の負の差分画像を生成する際に、差分値が0以上となる画素の画素値を0に設定し、差分値が0未満となる画素の画素値を差分値の絶対値に設定する。または、差分画像生成部43は、差分値が0超過する画素の画素値においては差分値を0に設定し、差分値が0未満となる画素を、差分値の絶対値に設定する。いずれの場合についても、Y成分の負の差分画像では、Y成分の画素値がY成分の基準濃度画像の画素値未満となる画素においては、その階調がそのまま保持される。ここで、負の差分画像において、Y成分の画像の画素値がY成分の基準濃度画像の画素値未満となる画素の画素値の大きさは、基準濃度画像からの乖離度合いを示している。
Further, when generating the negative difference image of the Y component, the difference
差分画像生成部43は、上述した方法でY成分の正の差分画像及び負の差分画像を生成すると同時に、Cb成分の正の差分画像及び負の差分画像、及びCr成分の正の差分画像及び負の差分画像を生成する。したがって、差分画像生成部43は、計6個の差分画像を生成する。
The difference
上述した記載では、差分画像生成部43は、各成分の画像から対応成分の基準濃度画像を減じた結果を用いて、Y成分、Cb成分及びCr成分の負の差分画像をそれぞれ生成しているが、これに限定する必要はなく、基準濃度画像から対応成分の画像を減じた後、差分値が0を超過する画素の画素値を差分値に設定し、差分値が0以下となる画素の画素値を0に設定することで、負の差分画像を生成してもよい。
In the above description, the difference
画像判定部44は、生成された6個の差分画像毎にヒストグラムを生成する。そして、画像判定部44は、生成したヒストグラム毎に、ヒストグラムの標準偏差σ及びピーク・ピーク値(peak to peak)ppを求める。ここで、ヒストグラムの標準偏差σ及びピーク・ピーク値ppは、ヒストグラムにおける画素値の分布のばらつき(または広がり)を示す指標となる。上述したように、差分値が0を超過する画素の画素値を差分値に設定し、差分値が0以下となる画素の画素値を0に設定した正の差分画像の場合、ピーク・ピーク値ppは、例えば度数が最も高くなる画素値から、度数が二番目に高くなる画素値までの幅である。また、差分値が0以上となる画素の画素値を差分値に設定し、差分値が0未満となる画素については差分値なしとした正の差分画像の場合、ピーク・ピーク値は、例えばヒストグラムの0から、最大値までの幅である。
The
なお、上述したピーク・ピーク値ppは一例であり、ヒストグラムにおける画素値及び度数の分布のばらつきを示す指標であれば、どのようなものであってもよい。例えば差分画像に代えて、YCbCr色空間で表されるスルー画像の各成分毎に対してヒストグラムを生成し、各成分毎のヒストグラムにおいて度数が最も高くなる値を基準として、ピーク・ピーク値ppを求めることも可能である。 Note that the above-described peak / peak value pp is an example, and any index may be used as long as it is an index indicating variations in the distribution of pixel values and frequencies in the histogram. For example, instead of the difference image, a histogram is generated for each component of the through image represented in the YCbCr color space, and the peak / peak value pp is set based on the value having the highest frequency in the histogram for each component. It is also possible to ask for it.
画像判定部44は、ヒストグラム毎に生成した標準偏差σと閾値Th1とを比較する。また、画像判定部44は、ヒストグラム毎のピーク・ピーク値ppと閾値Th2とを比較する。ここで、閾値Th1及び閾値Th2は、差分画像に含まれる画素の画素値の分布のばらつきを判断するための閾値である。また、閾値Th1及び閾値Th2は異なる閾値であり、それぞれ独立に定められる。
The
例えば複数の花を撮影範囲としたスルー画像が取得した場合を考慮する。この場合、取り込まれるスルー画像においては、花の領域が画像の大部分を占める。したがって、色差成分の差分画像においては、花の色に基づく色差成分の度数が高く、また、色差成分の値のばらつきは小さい。 For example, consider a case where a through image is acquired with a plurality of flowers in the shooting range. In this case, in the captured through image, the flower region occupies most of the image. Therefore, in the difference image of the color difference component, the frequency of the color difference component based on the color of the flower is high, and the variation in the value of the color difference component is small.
例えば複数の花が黄色の花であれば、Cb成分の負の差分画像から生成されるヒストグラムにおける標準偏差σ及びピーク・ピーク値ppは、標準偏差σ<閾値Th1、且つピーク・ピーク値pp<閾値Th2となる。一方、Cb成分の正の差分画像や、Cr成分の正及び負の差分画像のヒストグラムにおける標準偏差σ及びピーク・ピーク値ppは、標準偏差σ<閾値Th1、且つピーク・ピーク値pp<閾値Th2とはならない。このような場合、画像判定部44は、Cb成分の負の差分画像に対してのみ、被写体として特定できるオブジェクトが存在しないと判定し、Cb成分の負の差分画像を被写体を特定する際に用いる差分画像から除外する。
For example, if the plurality of flowers are yellow flowers, the standard deviation σ and the peak / peak value pp in the histogram generated from the negative difference image of the Cb component are the standard deviation σ <threshold Th1 and the peak / peak value pp < The threshold value Th2. On the other hand, the standard deviation σ and the peak / peak value pp in the positive difference image of the Cb component and the histogram of the positive and negative difference images of the Cr component are standard deviation σ <threshold Th1, and peak / peak value pp <threshold Th2. It will not be. In such a case, the
このように、花の色が他の単一色の場合には、Cb成分及びCr成分の差分画像のいずれかにおいて、標準偏差σ<閾値Th1、且つピーク・ピーク値pp<Th2となる。したがって、画像判定部44は、標準偏差σ<閾値Th1、且つピーク・ピーク値pp<Th2となる色差成分の差分画像を、被写体を特定する際に用いる差分画像から除外する。ここでは、複数の花の画像を例に挙げて説明しているが、森林の画像など、単一の色成分がスルー画像の大部分を占めている画像の場合には、いずれかの色差成分の差分画像において、上述した判定となりやすい。したがって、画像判定部44は、標準偏差σ<閾値Th1、且つピーク・ピーク値pp<閾値Th2となるCb成分又はCr成分の差分画像を、被写体を特定する際に用いる差分画像から除外する。
Thus, when the color of the flower is another single color, the standard deviation σ <threshold Th1 and the peak-peak value pp <Th2 are satisfied in either of the Cb component and Cr component difference images. Therefore, the
一方、複数の花の他に、異なる被写体や背景部分を含めた撮像範囲のスルー画像では、複数の花が占める領域が、異なる被写体の領域や背景部分の領域と同一の大きさ又はそれ以下の大きさとなる、つまり、撮像範囲に占める割合が小さくなる。この場合、色差成分の差分画像のヒストグラムでは、特定色の画素値の度数は高くなるが、画素値のばらつきが大きい。このような画像では、標準偏差σの値は小さいが、ピーク・ピーク値ppの値は大きくなりやすい。このような差分画像は、標準偏差σ<閾値Th1、且つピーク・ピーク値pp≧閾値Th2、又は、標準偏差σ≧閾値Th1、且つピーク・ピーク値pp<閾値Th2であると判定される。したがって、画像判定部44は、該当する差分画像を、被写体を特定する際に用いる差分画像から除外することはせずに保持する。
On the other hand, in the through image of the imaging range including different subjects and background parts in addition to a plurality of flowers, the area occupied by the plurality of flowers is the same size or smaller than the area of the different subjects and the background part area. It becomes the size, that is, the proportion of the imaging range is reduced. In this case, in the histogram of the difference image of the color difference component, the frequency of the pixel value of the specific color is high, but the variation of the pixel value is large. In such an image, the value of the standard deviation σ is small, but the peak / peak value pp tends to be large. Such a difference image is determined as standard deviation σ <threshold Th1, and peak-peak value pp ≧ threshold Th2, or standard deviation σ ≧ threshold Th1, and peak-peak value pp <threshold Th2. Therefore, the
さらに、突出した色差成分がないスルー画像の場合、差分画像のヒストグラムは、標準偏差σ≧閾値Th1、且つピーク・ピーク値pp≧閾値Th2となりやすい。この場合も、画像判定部44は、該当する差分画像を、被写体を特定する際に用いる差分画像から除外することはせずに保持する。
Further, in the case of a through image without a protruding color difference component, the histogram of the difference image tends to satisfy standard deviation σ ≧ threshold Th1 and peak-peak value pp ≧ threshold Th2. Also in this case, the
なお、色差成分の差分画像を対象にして説明しているが、上記判定は、Cb成分及びCr成分の差分画像の他、Y成分の差分画像に対しても実行される。 In addition, although it demonstrated demonstrating the difference image of a color difference component, the said determination is performed also about the difference image of Y component other than the difference image of Cb component and Cr component.
ここで、上記判定を行ったときに、生成した6個の差分画像の全ての差分画像が、被写体を特定する際に用いる差分画像から除外されてしまう場合もある。この場合、画像判定部44は、一旦除外された6個の差分画像を、被写体を特定する際に用いる差分画像として再度保持する。
Here, when the above determination is performed, all the difference images of the generated six difference images may be excluded from the difference images used when the subject is specified. In this case, the
二値化処理部45は、保持された差分画像を所定の閾値で二値化する二値化処理を行う。以下、保持される差分画像の種類に応じた二値化処理について説明する。
The
Y成分の正の差分画像に対する二値化処理を行う場合、二値化処理部45は、Y成分の正の差分画像のヒストグラムから求まる標準偏差σに、係数K1及びK2(K1<K2)を乗算した値を閾値K1σ、K2σとして設定する。これら閾値K1σ、K2σの設定の後、二値化処理部45は、Y成分の正の差分画像に対して、閾値K1σを用いて二値化処理を行う。次に、二値化処理部45は、Y成分の正の差分画像と、閾値K2σとを用いて二値化処理を行う。つまり、二値化処理部45は、Y成分の正の差分画像から2個の二値化画像を生成する。
When binarization processing is performed on a positive difference image of the Y component, the
また、Y成分の負の差分画像に対する二値化処理を行う場合、二値化処理部45は、Y成分の負の差分画像から求まる標準偏差σに係数K3を乗算した値を閾値K3σとして設定する。閾値K3σの設定の後、二値化処理部45は、Y成分の負の差分画像と、閾値K3σとを用いて二値化処理を行う。つまり、二値化処理部45は、Y成分の負の差分画像から、1個の二値化画像を生成する。ここで、上述した係数K1,係数K2,係数K3は、撮影シーンなどの撮影条件に応じて設定される値である。
When binarization processing is performed on the negative difference image of the Y component, the
Cb成分の正の差分画像に対する二値化処理を行う場合、二値化処理部45は、閾値として、閾値L1及び閾値L2(L1<L2)を設定する。二値化処理部45は、設定された閾値L1及び閾値L2と、Cb成分の正の差分画像とを用いて二値化処理を行う。つまり、二値化処理部45は、Cb成分の正の差分画像から、2個の二値化画像を生成する。
When performing binarization processing on a positive difference image of the Cb component, the
また、Cb成分の負の差分画像に対する二値化処理を行う場合、二値化処理部45は、閾値として、閾値L3を設定する。二値化処理部45は、設定された閾値L3と、Cb成分の正の差分画像とを用いて二値化処理を行う。つまり、二値化処理部45は、Cb成分の負の差分画像から、1個の二値化画像を生成する。ここで、上述した閾値L1,閾値L2,閾値L3は、撮影シーンなどの撮影条件に応じて設定される値である。
Also, when performing binarization processing for the negative difference image Cb component,
Cr成分の正の差分画像に対する二値化処理を行う場合、二値化処理部45は、Cr成分の正の差分画像に対して設定された閾値として、閾値M1及び閾値M2(M1<M2)を設定する。二値化処理部45は、設定された閾値M1及び閾値M2と、Cr成分の正の差分画像とを用いて二値化処理を行う。つまり、二値化処理部45は、Cr成分の正の差分画像から、2個の二値化画像を生成する。
When the binarization process is performed on the positive difference image of the Cr component, the
また、Cr成分の負の差分画像に対する二値化処理を行う場合、二値化処理部45は、閾値として閾値M3を設定する。二値化処理部45は、設定された閾値M3を用いて二値化処理を行う。つまり、二値化処理部45は、Cr成分の負の差分画像から、1個の二値化画像を生成する。ここで、上述した閾値M1,閾値M2,閾値M3は、撮影シーンなどの撮影条件に応じて設定される値である。
Also, when performing binarization processing for the negative difference image Cr component, the
第1実施形態では、各成分の正の差分画像に対しては、2つの閾値をそれぞれ用いて2つの二値化画像を、負の差分画像に対しては、1つの閾値を用いて1つの二値化画像を生成しているが、用いる閾値の数や、生成する二値化画像の数は、上記に限定されるものではなく、適宜設定してよい。 In the first embodiment, for a positive difference image of each component, two binary images are respectively used using two threshold values, and for a negative difference image, one threshold value is used. Although a binarized image is generated, the number of threshold values to be used and the number of binarized images to be generated are not limited to the above, and may be set as appropriate.
以下、各差分画像に対する二値化処理を行ったときに閾値以上となる画素を白画素とし、閾値未満となる画素を黒画素とする。二値化処理部45は、各差分画像に対する二値化処理を行って生成された二値化画像に対して、画素のまとまりを求めるラベリング処理を実行する。このラベリング処理を行った後、二値化処理部45は、白画素のかたまりをマスク(島領域)として抽出する。
Hereinafter, pixels that are equal to or higher than the threshold when binarization processing is performed on each difference image are white pixels, and pixels that are less than the threshold are black pixels. The
マスク絞込部46は、二値化画像から抽出されたマスクのうち、被写体候補として用いるマスクを絞り込む。以下、被写体候補として用いるマスクを被写体候補のマスクと称する。
The
二値化画像から抽出されたマスクの中には、二値化画像に対するマスクの面積比が1%以下となるマスクが存在する。マスク絞込部46は、二値化画像から抽出されたマスクに対して、二値化画像に対するマスクの面積比が1%以下となるか否かを判定する。マスク絞込部46は、二値化画像に対するマスクの面積比が1%以下となるマスクをノイズであると判定し、被写体候補のマスクから除外する。
Among the masks extracted from the binarized image, there is a mask in which the area ratio of the mask to the binarized image is 1% or less. The
また、二値化画像から抽出されたマスクの中には、二値化画像に対するマスクの面積比が60%以上となるマスクが存在する。マスク絞込部46は、二値化画像から抽出されたマスクに対して、二値化画像に対するマスクの面積比が60%以上となるか否かを判定する。マスク絞込部46は、二値化画像に対するマスクの面積比が60%以上となるマスクを背景であると判定し、被写体候補のマスクから除外する。
Among the masks extracted from the binarized image, there is a mask having an area ratio of the mask to the binarized image of 60% or more. The
また、二値化画像から抽出されたマスクの中には、マスクを含む矩形領域に対するマスクの面積比が所定の比率(例えば0.2)以下となるマスクもある。マスク絞込部46は、二値化画像から抽出されたマスクに対して、マスクを含む矩形領域に対するマスクの面積比が所定の比率以下となるか否かを判定する。マスク絞込部46は、マスクを含む矩形領域に対するマスクの面積比が所定の比率以下となるマスクを充填率が低いマスクであると判定し、被写体候補のマスクから除外する。
Among the masks extracted from the binarized image, there is a mask in which the area ratio of the mask to the rectangular area including the mask is a predetermined ratio (for example, 0.2) or less. The
なお、二値化画像から抽出されたマスクの中には、二値化画像の外周に相当する4辺のうち、隣り合う2辺にかかるマスクや、マスクを含む矩形領域の縦横比が所定の範囲(例えば0.2以上5未満)に含まれないマスクもある。したがって、抽出されるマスクの中に、これらのマスクが存在している場合、マスク絞込部46は、これらマスクを被写体としては適していないマスクとして、被写体候補のマスクから除外してもよい。
Among the masks extracted from the binarized image, among the four sides corresponding to the outer periphery of the binarized image, the masks on adjacent two sides and the aspect ratio of the rectangular area including the mask are predetermined. Some masks are not included in the range (for example, 0.2 or more and less than 5). Therefore, when these masks are present in the extracted masks, the
また、マスク絞込部46は、二値化画像から抽出されるマスクの数を二値化画像毎に計数する。マスク絞込部46は、1個の二値化画像から抽出されるマスクの数が閾値Th3以上であるか否かを判定する。そして、同一の二値化画像から抽出されるマスクの数が閾値Th3以上であると判定された場合に、マスク絞込部46は、対象となるマスク全体の平均強度を求める。ここで、マスク全体の平均強度とは、差分画像中の全てのマスクに該当する画素の画素値の平均値(平均画素値)が挙げられる。マスク絞込部46は、求めたマスク全体の平均強度が閾値Th4以下となる場合には、元になる差分画像には被写体が含まれていないと判定し、該当する差分画像から抽出される全てのマスクを被写体候補のマスクから除外する。一方、マスク全体の平均強度が閾値Th4を超過する場合には、マスク絞込部46は、元になる差分画像には被写体が含まれていると判定する。この場合、対象となるマスクは、被写体候補のマスクとして保持される。
In addition, the
なお、マスク絞込部46は、同一の二値化画像から抽出されるマスクの数が閾値Th3以上で、且つマスク全体の平均強度が閾値Th4以下となるか否かを判定している。しかしながら、二値化画像から抽出されるマスクの数が閾値Th3以上となるか否かを判定し、二値化画像から抽出されるマスクの数が閾値Th3以上となる場合に、該当する二値化画像から抽出されるマスクを被写体候補のマスクから除外することも可能である。
The
評価値算出部47は、マスク絞込部46により絞り込まれた被写体候補のマスクのそれぞれに対して評価値を算出する。評価値は、一例として、マスクの面積、マスクに対する慣性モーメント、マスクの平均強度から求まる値である。ここで、マスクの平均強度としては、差分画像中のマスクに該当する画素の画素値の平均値が挙げられる。
The evaluation
まず、評価値算出部47は、各マスクの慣性モーメントを算出する。慣性モーメントは、マスクの重心からの画素距離の2乗×(0または1)の和により算出される。ここで、マスクの重心とは、同一の二値化画像から抽出される被写体候補のマスクの重心である。なお、マスクの重心を基準として慣性モーメントを求めるのではなく、二値化画像の中心を基準として慣性モーメントを求めることも可能である。
First, the evaluation
次に、評価値算出部47は、マスクの面積と、マスクの平均強度とをそれぞれ求める。なお、マスクの強度は、マスク抽出の元になる差分画像のうちマスクに対応する画素の画素値から求めることができる。マスクの平均強度は、マスク抽出の元になる差分画像のうちマスクに対応する各画素の平均画素値である。
Next, the evaluation
最後に、以下の(1)式を用いて、マスクに対する評価値を求める。以下、マスクに対する評価値をEvと称する。 Finally, an evaluation value for the mask is obtained using the following equation (1). Hereinafter, the evaluation value for the mask is referred to as Ev.
Ev=Ar^α/MOI+Av/β・・・(1)
ここで、「Ar」はマスクの面積、「MOI」はマスクの慣性モーメント、「Av」はマスクの平均強度を示す。また、「α」及び「β」は、チューニングパラメータとしての係数である。係数αは1.5〜2程度に、係数βは100程度に設定されるが、これら係数α、係数βは上記の例に限定されるものではない。
Ev = Ar ^ α / MOI + Av / β (1)
Here, “Ar” represents the area of the mask, “MOI” represents the moment of inertia of the mask, and “Av” represents the average intensity of the mask. “Α” and “β” are coefficients as tuning parameters. The coefficient α is set to about 1.5 to 2, and the coefficient β is set to about 100. However, the coefficient α and the coefficient β are not limited to the above example.
上記の評価値Evは、マスクの面積Arが大きくなるほど大きな値となり、マスクの慣性モーメントMOIが大きくなるほど小さな値となる。また、上記の評価値Evは、マスクの平均強度が大きくなるほど大きな値となる。 The evaluation value Ev increases as the mask area Ar increases, and decreases as the mask inertia moment MOI increases. The evaluation value Ev becomes larger as the average intensity of the mask increases.
マスク抽出部48は、被写体候補のマスクから、被写体とするマスクを抽出する。まず、マスク抽出部48は、被写体候補のマスクのそれぞれに対して求めた評価値Evを用いて、被写体候補のマスクの順位付けを行う。マスク抽出部48は、順位付けされた被写体候補のマスクのうち、上位5位のマスクを最終候補のマスクとして選択する。マスク抽出部48は、最終候補として選択したマスクに対して、以下の処理を実行する。
The
マスク抽出部48は、最終候補となる上位5位のマスクの中に、Cb成分又はCr成分の差分画像を元にして抽出されたマスクがあるか否かを判定する。Cb成分又はCr成分の差分画像を元にして抽出されたマスクがあれば、マスク抽出部48は、該当するマスクの平均強度を求める。マスク抽出部48は、求めたマスクの平均強度が閾値Th5以下であるか否かを判定する。マスクの平均強度が閾値Th5以下の場合、マスク抽出部48は、該当するマスクを最終候補のマスクから除外する。例えば、スルー画像に含まれる背景の領域の色差成分には、黄色成分やシアンの成分が多く含まれる。したがって、この判定における閾値Th5は、黄色成分やシアン成分が多く含まれる背景部分のマスクを、被写体候補のマスクから除外するために設定される値となる。ここで、Cb成分又はCr成分の差分画像を元に抽出されたマスクで、且つマスクの平均強度が閾値Th5以下であるか否かの判定を、第1の抽出判定とする。
The
次に、マスク抽出部48は、最終候補となるマスクのうち、Cb成分又はCr成分の差分画像を元に抽出されたマスクの下位に、Y成分の差分画像を元に抽出されたマスクがあるか否かを判定する。そして、Cb成分及びCr成分の差分画像を元に抽出されたマスクの下位に、Y成分の差分画像を元に抽出されたマスクがあれば、マスク抽出部48は、該当するマスクの平均強度を求める。マスク抽出部48は、求めたマスクの平均強度が閾値Th6以下であるか否かを判定する。この閾値Th6は、例えば陰などの黒い領域や、色が抜けている白い領域などのマスクを、被写体候補のマスクから除外するために設定される値となる。ここで、Cb成分及びCr成分の差分画像を元に抽出されたマスクの下位に、Y成分の差分画像を元に抽出されたマスクがあるか否かの判定を第2の抽出判定とする。ここで、閾値Th6の値は、差分画像の種類に応じて異なる値を用いてもよいし、差分画像の種類に関係なく固定値であってもよい。
Next, the
次に、マスク抽出部48は、最終候補となるマスクのうち、Y成分の正の差分画像を元に抽出されたマスクと、Y成分の負の差分画像を元に抽出されたマスクとがあるか否かを判定する。この判定でY成分の正の差分画像を元に抽出されたマスクとY成分の負の差分画像を元に抽出されたマスクがある場合には、マスク抽出部48は、これらマスクのうち、上位のマスクを保持し、下位のマスクを被写体候補のマスクから除外する。画像中に輝度の高い(ハイライト)領域と、画像中に輝度の低い(シャドー)領域とが混在している場合、具体的には、晴天時に撮影をした場合、被写体の輝度は高く、被写体の陰の輝度は低い。また、これらに相当するマスクの評価値Evは、被写体に相当するマスクの評価値Evは被写体の陰に相当するマスクの評価値Evよりも高い。したがって、これら領域に相当するマスクが最終候補のマスクとなる場合には、被写体に相当するマスクを残し、被写体の陰に相当するマスクを除外する。ここで、Y成分の正の差分画像及びY成分の負の差分画像を元に抽出されたマスクがそれぞれ最終候補のマスクにあるか否かの判定を第3の抽出判定とする。
Next, the
上述した第1から第3の抽出判定の後、マスク抽出部48は、最終候補のマスクの中に、包含関係にあるマスクがあるか否かを判定する。包含関係にあるマスクがあれば、マスク抽出部48は、包含関係にあるマスクを統合する処理を行う。包含関係にあるマスクがあるか否かの判定を第4の抽出判定とする。
After the first to third extraction determinations described above, the
上述したように、二値化処理部45は、Y成分、Cb成分及びCr成分の正の差分画像のそれぞれに対して、異なる2つの閾値を用いた二値化処理を行っている。図3は、閾値Y成分の正の差分画像の一例を示す。図3に示すY成分の正の差分画像P1において、図3に示す領域A1は、含まれる画素の画素値が閾値K1σよりも高い領域を示す。閾値K1σを用いてY成分の正の差分画像P1に対する二値化処理を行うと、領域A1は白画素の領域、つまりマスクとなる。また、図3に示す領域A2は、領域A1に含まれる領域で、かつ領域A1に含まれる他の画素の画素値よりも高い画素値を有する画素の領域である。閾値K2σを用いてY成分の正の差分画像P1に対する二値化処理を行うと、領域A2が白画素の領域、つまりマスクとなる。ここで、領域A2は、閾値K1σを用いてY成分の正の差分画像P1に対する二値化処理においてもマスクとして抽出される領域である。したがって、領域A1と領域A2とは包含関係にあると言える。つまり、包含関係にあるとは、同一の差分画像を用いた異なる閾値を用いた二値化処理を実行したときに、一方の二値化画像から抽出されるマスクが他方の二値化画像から抽出されるマスクに含まれることを指している。このような包含関係にあるマスクが最終候補のマスクの中にある場合、マスク抽出部48は、これらマスクを統合する。ここで、マスクを統合するとは、包含関係にあるマスクのうち、一方のマスクが含まれる他方のマスクを保持し、該一方のマスクを除外することである。図3においては、マスク抽出部48は、領域A1及び領域A2に示すマスクのうち、領域A2に示すマスクを除外し、領域A1に示すマスクを保持する。なお、Y成分の正の差分画像から生成されるマスクについて説明しているが、Cb成分及びCr成分の正の差分画像から生成されるマスクについても同様である。
As described above, the
マスク抽出部48は、上述した第1から第4の抽出判定を行った後、保持されるマスクが3個を超過する場合には、保持されるマスクのうち、上位3位のマスクを被写体に相当するマスクとして抽出する。一方、保持されるマスクが3個以下の場合には、保持される全てのマスクを被写体に相当するマスクとして抽出する。マスク抽出部48は、スルー画像に対して、抽出したマスクに相当する領域を被写体の領域として特定する。そして、マスク抽出部48は、特定した被写体の領域を示す被写体領域データとして出力する。一方、上述した複数の判定で、全てのマスクが除外される場合、言い換えれば、保持されるマスクがない場合には、マスク抽出部48は、被写体に相当するマスクがないとする。
After performing the first to fourth extraction determinations described above, if the number of masks to be retained exceeds three, the
ここで、第1実施形態の撮像装置10は、動作モードとして、静止画像を撮影する静止画撮影モードの他、動画像を撮影する動画撮影モードや、取得した静止画像や動画像を表示部23にて再生する再生モードを備えている。以下、静止画撮影モードにおける処理の流れについて、図4のフローチャートを用いて説明する。
Here, the imaging apparatus 10 according to the first embodiment displays, as an operation mode, a still image shooting mode for shooting a still image, a moving image shooting mode for shooting a moving image, and the acquired still image or moving image as a
ステップS101は、スルー画像を取得する処理である。制御部19は、撮像部17を駆動させてスルー画像の撮像を行わせる。この撮像部17の駆動によりスルー画像が取得される。なお、撮像部17の駆動により取得されるスルー画像のデータは、撮像部17から制御部19に入力される。制御部19は、撮像部17からのスルー画像のデータに対して画像処理を実行する。ここで、制御部19は、画像処理が施されたスルー画像のデータを表示部23に出力し、表示部23に取得されたスルー画像を表示させることも可能である。
Step S101 is processing for acquiring a through image. The
ステップS102は、被写体検出処理である。制御部19は、ステップS101にて取得したスルー画像を用いて被写体検出処理を実行する。これにより、撮像部17の撮像範囲内での被写体の領域が検出される。
Step S102 is subject detection processing. The
ステップS103は、AF制御である。制御部19は、ステップS102で検出された被写体の領域を焦点検出エリアに設定したAF制御を実行する。ここで、ステップS102における被写体検出処理において被写体の領域が得られない場合には、制御部19は、撮像範囲の中心の領域を焦点検出エリアに設定したAF制御を実行する。ここで、撮像範囲の中心の領域としては、例えば風景撮影用に設定される領域が挙げられる。この風景撮影用に設定される領域は、撮像範囲の面積の60%の面積からなる領域である。このステップS103の処理を実行する際に、制御部19は、設定した焦点検出エリアを基準としたAE演算を行ってもよい。
Step S103 is AF control. The
ステップS104は、撮影指示があるか否かを判定する処理である。記録用の静止画像の撮影指示が操作部24の操作によって行われると、制御部19は、ステップS104の判定処理の結果をYesとする。この場合、ステップS105に進む。一方、記録用の静止画像の撮影指示が操作部24の操作により行われない場合、制御部19は、ステップS104の判定処理の結果をNoとする。この場合、ステップS106に進む。
Step S104 is processing to determine whether or not there is a shooting instruction. When an instruction to shoot a still image for recording is given by operating the
ステップS105は、撮像処理である。制御部19は、撮像部17を駆動させて、記録用の静止画像の撮像処理を実行する。制御部19は、記録用の静止画像のデータに対して所定の画像処理を施す。制御部19は、画像処理を施した記録用の静止画像のデータを、メディアI/F22を介して記憶媒体35に書き込む。この処理が終了すると、ステップS106に進む。
Step S105 is an imaging process. The
ステップS106は、撮影を終了させるか否かを判定する処理である。記録用の静止画像の撮影終了の指示が操作部24の操作によって行われると、制御部19は、ステップS106の判定処理の結果をYesとする。この場合、図4のフローチャートの処理が終了する。
Step S106 is processing to determine whether or not to end shooting. When an instruction to end the recording of the still image for recording is given by operating the
一方、記録用の静止画像の撮影終了の指示が操作部24の操作によって行われない場合、制御部19は、ステップS106の判定処理の結果をNoとする。この場合、ステップS101に戻る。したがって、ステップS106の判定処理がNoとなる場合には、ステップS101からステップS104の処理が繰り返し実行され、これら処理が繰り返し実行されるときに、必要に応じてステップS105の撮像処理が実行される。
On the other hand, if the instruction to end the recording of the still image for recording is not made by operating the
次に、図4のフローチャートのステップS102に示した被写体検出処理を、図5のフローチャートに基づいて説明する。 Next, the subject detection process shown in step S102 of the flowchart of FIG. 4 will be described based on the flowchart of FIG.
ステップS201は、色空間変換処理である。制御部19は、画像処理が施されたスルー画像に対して色空間変換処理を実行する。これにより、RGB色空間で表されるスルー画像が、YCbCr色空間で表されるスルー画像に変換される。
Step S201 is a color space conversion process. The
ステップS202は、解像度変換処理である。制御部19は、ステップS201の色空間変換処理が施されたスルー画像に対して解像度変換処理を実行する。これにより、スルー画像が元の解像度よりも低い解像度に変換される。つまり、画像サイズが縮小されたスルー画像が生成される。
Step S202 is resolution conversion processing. The
ステップS203は、差分画像を生成する処理である。制御部19は、ステップS202の解像度変換処理が施されたスルー画像を用いて、Y成分、Cb成分及びCr成分の各成分毎の基準濃度画像をそれぞれ生成する。そして、制御部19は、解像度変換処理が施されたスルー画像と基準濃度画像とを用いて、Y成分、Cb成分及びCr成分の各成分毎に、正の差分画像及び負の差分画像を生成する。なお、YCbCrの各成分で生成された正の差分画像及び負の差分画像は、制御部19の制御により、第1メモリ20または第2メモリ21に保持される。
Step S203 is processing for generating a difference image. The
ステップS204は、差分画像を絞り込む処理である。制御部19は、ステップS203にて生成した各成分の正の差分画像及び負の差分画像の計6個の差分画像のそれぞれからヒストグラムを生成する。制御部19は、生成したヒストグラムを用いて標準偏差σ及びピーク・ピーク値を求める。これら値を用いて、制御部19は、被写体を特定する際に用いる差分画像を絞り込む。このステップS204の処理については、後述する。
Step S204 is processing to narrow down the difference image. The
ステップS205は、二値化処理である。制御部19は、ステップS204の処理により絞り込まれた差分画像のそれぞれに対して二値化処理を行う。二値化画像を生成した後、制御部19は、生成された二値化画像に対してラベリング処理を行う。このラベリング処理を行うことで、制御部19は、二値化画像からマスクを抽出する。
Step S205 is a binarization process. The
ステップS206は、マスクを絞り込む処理である。制御部19は、二値化画像から抽出されたマスクから、被写体候補のマスクを絞り込む。このステップS206の処理については、後述する。
Step S206 is a process of narrowing down the mask. The
ステップS207は、評価値Evを算出する処理である。制御部19は、ステップS206の処理により絞り込まれたマスクに対する評価値Evを、上述した(1)式を用いて算出する。
Step S207 is processing for calculating the evaluation value Ev. The
ステップS208は、被写体に相当するマスクを抽出する処理である。制御部19は、ステップS207にて求めた各マスクの評価値Evに基づいて、被写体候補のマスクに対する順位付けを行う。制御部19は、順位付けされた被写体候補のマスクのうち、上位5位のマスクを最終候補のマスクとして選択する。そして、最終候補のマスクに対して上述した第1から第4の抽出判定を行う。そして、これら抽出判定の後に保持されるマスクを被写体に相当するマスクとして抽出する。なお、このステップS208の処理の詳細については、後述する。このステップS208の処理が終了すると、図5に示す被写体検出処理が終了する。
Step S208 is processing for extracting a mask corresponding to the subject. The
ここで、上述した被写体検出処理により、マスクが抽出されている場合には、制御部19は、抽出されたマスクに相当する領域を被写体の領域として設定する。その結果、スルー画像を表示部23に表示したときには、被写体の領域を含む矩形の枠(被写体枠)が、スルー画像に重畳して表示される。したがって、ステップS208の処理を行ったときにマスクが抽出されている場合には、撮影者は、スルー画像に重畳される被写体枠の表示により、撮像範囲に含まれる被写体の位置や大きさを認識することができる。
Here, when a mask is extracted by the subject detection process described above, the
次に、図5におけるステップS204に示す差分画像を絞り込む処理について、図6のフローチャートを用いて説明する。 Next, the process of narrowing down the difference image shown in step S204 in FIG. 5 will be described using the flowchart in FIG.
ステップS301は、ヒストグラムを生成する処理である。上述した図5におけるステップS203の処理を行うことで、制御部19は、Y成分、Cb成分及びCr成分毎の正の差分画像及び負の差分画像の計6個の差分画像を生成している。制御部19は、これら計6個の差分画像のそれぞれに対してヒストグラムを生成する。
Step S301 is processing for generating a histogram. By performing the process of step S203 in FIG. 5 described above, the
ステップS302は、標準偏差σ及びピーク・ピーク値ppを算出する処理である。制御部19は、ステップS302にて生成した各差分画像のヒストグラム毎に、標準偏差σ及びピーク・ピーク値ppを算出する。このステップS302の処理により、各ヒストグラムにおける画素値の分布のばらつきを示す指標が算出される。
Step S302 is processing for calculating the standard deviation σ and the peak / peak value pp. The
ステップS303は、標準偏差σと閾値Th1とを比較する処理である。制御部19は、ステップS302にて求めたヒストグラム毎の閾値σと、閾値Th1とを比較する。
Step S303 is processing for comparing the standard deviation σ with the threshold Th1. The
ステップS304は、ピーク・ピーク値ppと閾値Th2とを比較する処理である。制御部19は、ステップS303にて求めたヒストグラム毎のピーク・ピーク値ppと、閾値Th2とを比較する。
Step S304 is processing for comparing the peak / peak value pp with the threshold Th2. The
ステップS305は、除外する差分画像があるか否かを判定する処理である。制御部19は、ステップS303及びステップS304の判定処理の結果をそれぞれ用いて、生成された計6個の差分画像のうち、除外する差分画像があるか否かを判定する。計6個の差分画像のうち、例えば標準偏差σ<閾値Th1、且つピーク・ピーク値pp<Th2となる差分画像があれば、制御部19は、この差分画像を除外する差分画像とする。この場合、制御部19は、ステップS305の判定処理の結果をYesとし、ステップS306とする。一方、計6個の差分画像のいずれもが、標準偏差σ<閾値Th1、且つピーク・ピーク値pp<Th2とならない場合には、制御部19は、ステップS305の判定処理の結果をNoとする。この場合、除外する差分画像はないと判定される。したがって、ステップS305の判定処理の結果がNoとなる場合、制御部19は、計6個の差分画像をそのまま使用すると判定し、図6に示すフローチャートの処理を終了させる。
Step S305 is processing to determine whether there is a difference image to be excluded. The
ステップS306は、差分画像を除外する処理である。ステップS305において除外する差分画像があると判定されている。したがって、制御部19は、対象となる差分画像を除外する。このステップS306の処理を行うことで、差分画像が絞り込まれる。このステップS306の処理を実行した後、制御部は、図6に示すフローチャートの処理を終了する。
Step S306 is processing to exclude the difference image. In step S305, it is determined that there is a difference image to be excluded. Therefore, the
図7は、鳥を撮像範囲に収めたときに得られるスルー画像の一例を、図8は図7に示すスルー画像から得られるY成分、Cb成分及びCr成分の正及び負の差分画像の一例を示す。ここで、図8(a)はY成分の正の差分画像、図8(b)はY成分の負の差分画像である。また、図8(c)はCb成分の正の差分画像、図8(d)はCb成分の負の差分画像である。また、図8(e)はCr成分の正の差分画像、図8(f)はCr成分の負の差分画像である。 FIG. 7 shows an example of a through image obtained when a bird is within the imaging range, and FIG. 8 shows an example of positive and negative difference images of the Y component, Cb component, and Cr component obtained from the through image shown in FIG. Indicates. Here, FIG. 8A is a positive difference image of the Y component, and FIG. 8B is a negative difference image of the Y component. FIG. 8C shows a positive difference image of the Cb component, and FIG. 8D shows a negative difference image of the Cb component. FIG. 8E shows a positive difference image of the Cr component, and FIG. 8F shows a negative difference image of the Cr component.
上述したステップS301及びステップS302の処理が実行されると、制御部19は、生成された計6個の差分画像のそれぞれに対してヒストグラムを生成し、ヒストグラム毎に標準偏差σ及びピーク・ピーク値ppを算出する。ここで、図8(a)に示す差分画像に基づくヒストグラムの標準偏差σ及びピーク・ピーク値ppは、標準偏差σ<閾値Th1、且つピーク・ピーク値pp<閾値Th2となる。したがって、制御部19は、図8(a)の差分画像中には被写体に該当するオブジェクトはないと判定し、この生成された6個の差分画像のうち、図8(a)に示す差分画像を、被写体を特定する際に用いる差分画像から除外する。したがって、被写体を特定する際に用いる差分画像が、図8(b)から図8(f)に示す計5個の差分画像に絞り込まれる。
When the processing of step S301 and step S302 described above is executed, the
そして、ステップS205の処理が実行されると、制御部19は、図8(b)から図8(f)の計5個の差分画像のそれぞれに対して二値化処理を実行する。この二値化処理により、図9(c)から図9(i)の計7個の二値化画像が生成される。この図9においては、各成分の正の差分画像に対して二値化処理を行うときの閾値を2σ及び3σに、各成分の負の差分画像に対して二値化処理を行うときの閾値を2σに設定した場合を示す。
Then, when the processing of step S205 is executed, the
なお、図9では、Y成分の正の差分画像から得られる2個の二値化画像を図9(a)及び図9(b)として便宜上記載しているが、図8(a)の差分画像が除外される場合、図9(a)及び図9(b)に示す二値化画像は生成されない。なお、図9(c)から図9(i)の二値化画像に示すグレイ及び白の領域が、各二値化画像から抽出されるマスクを示している。 In FIG. 9, two binarized images obtained from the positive difference image of the Y component are illustrated for convenience as FIGS. 9A and 9B, but the difference of FIG. When the image is excluded, the binarized image shown in FIGS. 9A and 9B is not generated. Note that the gray and white regions shown in the binarized images in FIGS. 9C to 9I indicate the masks extracted from each binarized image.
ステップS206の処理が実行されると、制御部19は、図9(c)から図9(i)の二値化画像におけるマスクを用いてマスクを絞り込む処理を行う。そして、絞り込まれたマスクを用いて評価値Evを算出し、被写体に相当するマスクを抽出する。図9では、被写体に相当するマスクが抽出されない場合を示している。つまり、被写体に相当するマスクがない場合には、風景撮影時に用いる枠51をスルー画像P2に重畳して表示部23に表示する。
When the process of step S206 is executed, the
このように、上述した差分画像を絞り込む処理において、風景撮影を行うときに得られるスルー画像であれば、スルー画像の各画素の画素値は近似した値、つまり、画像中のコントラストは小さい。その結果、差分画像に基づくヒストグラムのいずれかは、その標準偏差σやピーク・ピーク値ppは小さい値をとる。一方、人物撮影を行うときに得られるスルー画像であれば、背景となる領域ではコントラストは小さいが、人物となる領域とのコントラストが大きくなる。その結果、差分画像に基づくヒストグラムでは、その標準偏差σやピーク・ピーク値ppは大きい値をとる。したがって、上述した標準偏差σと閾値Th1との比較や、ピーク・ピーク値ppと閾値Th2との比較を行った場合には、被写体が存在しないと想定される差分画像を除外することができる。その結果、後述する処理に係る処理負荷を軽減し、処理時間を短縮することができる。また、二値化処理の前に、被写体が存在しないと想定される差分画像を除外することで、被写体に相当するマスクの抽出精度を向上させ、的確に特定領域(例えば、被写体領域や注目領域など)の抽出を行うことができる。 In this way, in the above-described processing for narrowing down the difference image, if the through image is obtained when taking a landscape image, the pixel value of each pixel of the through image is an approximate value, that is, the contrast in the image is small. As a result, any one of the histograms based on the difference image has a small standard deviation σ and peak / peak value pp. On the other hand, in the case of a through image obtained when a person is photographed, the contrast in the background area is small, but the contrast with the person area is large. As a result, in the histogram based on the difference image, the standard deviation σ and the peak / peak value pp are large. Therefore, when the above-described standard deviation σ is compared with the threshold value Th1, or the peak-to-peak value pp is compared with the threshold value Th2, a difference image that is assumed to have no subject can be excluded. As a result, it is possible to reduce a processing load related to processing to be described later and to shorten a processing time. Further, by excluding the difference image that is assumed that the subject does not exist before the binarization process, the extraction accuracy of the mask corresponding to the subject is improved, and the specific region (for example, the subject region or the attention region) is accurately detected. Etc.) can be extracted.
なお、上述した差分画像を絞り込む処理は、特に、接写モード(マクロモード)による撮影時に有用である。したがって、接写モード(マクロモード)の設定に連動して差分画像を絞り込む処理を実行しても良いし、AF情報、AE情報、被写体解析の情報などに連動して差分画像を絞り込む処理を実行しても良い。 Note that the above-described processing for narrowing down the difference image is particularly useful when photographing in the close-up mode (macro mode). Therefore, the processing for narrowing the difference image may be executed in conjunction with the setting of the close-up mode (macro mode), or the processing for narrowing the difference image in conjunction with AF information, AE information, subject analysis information, or the like. May be.
次に、図5のフローチャートに示すステップS206のマスクを絞り込む処理について、図10のフローチャートに基づき説明する。 Next, the process of narrowing down the mask in step S206 shown in the flowchart of FIG. 5 will be described based on the flowchart of FIG.
ステップS401は、ノイズと認識されるマスクを除外する処理である。制御部19は、二値化画像から抽出されたマスクの面積を求めた後、二値化画像の面積とマスクの面積との面積比を求める。制御部19は、二値化画像の面積とマスクの面積との面積比を参照して、二値化画像の面積とマスクの面積との面積比が1%以下となるマスクがあるか否かを判定する。二値化画像の面積とマスクの面積との面積比が1%以下となるマスクがあれば、制御部19は、そのマスクをノイズとして、被写体候補のマスクから除外する。
Step S401 is processing to exclude a mask recognized as noise. After obtaining the area of the mask extracted from the binarized image, the
ステップS402は、背景と認識されるマスクを除外する処理である。制御部19は、ステップS401の処理により、二値化画像の面積とマスクの面積との面積比をマスク毎に求めている。制御部19は、二値化画像の面積とマスクの面積との面積比を参照して、面積比が60%以上となるマスクがあるか否かを判定する。二値化画像の面積とマスクの面積との面積比が60%以上となるマスクがあれば、制御部19は、そのマスクを背景であるとして、被写体候補のマスクから除外する。
Step S402 is processing to exclude a mask recognized as a background. The
ステップS403は、充填率の低いマスクを除外する処理である。制御部19は、マスクを含む矩形領域の面積に対するマスクの面積の比率が所定の閾値(例えば0.2)以下となるか否かを判定する。この判定で、マスクを含む矩形領域の面積に対するマスクの面積の比率が所定の閾値以下となるマスクがあれば、制御部19は、該当するマスクを、被写体候補のマスクから除外する。
Step S403 is processing for removing a mask with a low filling rate. The
ステップS404は、二値化画像におけるマスクの数を計数する処理である。制御部19は、二値化画像から抽出されたマスクの数を計数する。
Step S404 is processing to count the number of masks in the binarized image. The
ステップS405は、マスクの数が閾値Th3以上であるか否かを判定する処理である。制御部19は、計数されたマスクの数が閾値Th3以上となる場合、制御部19は、ステップS405の判定処理の結果をYesとする。この場合、ステップS406に進む。一方、計数されたマスクの数が閾値Th3未満となる場合には、ステップS409に進む。
Step S405 is processing for determining whether or not the number of masks is equal to or greater than the threshold value Th3. When the counted number of masks is equal to or greater than the threshold Th3, the
ステップS406は、マスク全体の平均強度を算出する処理である。制御部19は、二値化画像の元になる差分画像から、各マスクに該当する画素の画素値を読み出し、マスク全体の平均強度を算出する。
Step S406 is processing for calculating the average intensity of the entire mask. The
ステップS407は、マスク全体の平均強度が閾値Th4以下となるか否かを判定する処理である。ステップS406にて求めたマスク全体の平均強度が閾値Th4以下となる場合、制御部19は、ステップS407の判定処理の結果をYesとする。この場合、ステップS408に進む。一方、ステップS406にて求めたマスク全体の平均強度が閾値Th4を超過する場合、制御部19は、ステップS407の判定処理の結果をNoとする。この場合、ステップS409に進む。
Step S407 is processing for determining whether or not the average intensity of the entire mask is equal to or less than the threshold Th4. When the average intensity of the entire mask obtained in step S406 is equal to or less than the threshold Th4, the
ステップS408は、対象となるマスクを除外する処理である。ステップS407の判定処理でYesとなる場合、制御部19は、二値化画像から抽出されるマスクの中にはマスクが含まれていないと判断し、この二値化画像から抽出されたマスク全てを被写体候補のマスクから除外する。
Step S408 is processing to exclude the target mask. When the determination process in step S407 is Yes, the
ステップS409は、全ての二値化画像に対して実行したか否かを判定する処理である。全ての二値化画像に対してステップS405からステップS408の処理を行っている場合、制御部19は、ステップS409の判定処理の結果をYesとする。これにより、図10のフローチャートの処理を終了する。一方、全ての二値化画像に対してステップS404からステップS408の処理を行っていない場合、制御部19は、ステップS409の判定処理の結果をNoとする。この場合、ステップS404に戻る。したがって、全ての二値化画像に対して、ステップS404からステップS408の処理が実行される。
Step S409 is processing for determining whether or not the processing has been executed for all the binarized images. When the processes from step S405 to step S408 are performed on all the binarized images, the
図11は、キリンを撮像範囲に収めたときのスルー画像P3を示す。ここで、図12(a)から図12(i)の二値化画像において、グレイ及び白で表される領域がマスクとして抽出される。また、図12においては、各成分の正の差分画像に対して二値化処理を行うときの閾値を2σ及び3σに、各成分の負の差分画像に対して二値化処理を行うときの閾値を2σに設定した場合を示す。 FIG. 11 shows a through image P3 when the giraffe is within the imaging range. Here, in the binarized images of FIGS. 12A to 12I, regions represented by gray and white are extracted as masks. In FIG. 12, the threshold when binarization processing is performed on the positive difference image of each component is 2σ and 3σ, and the binarization processing is performed on the negative difference image of each component. The case where the threshold is set to 2σ is shown.
制御部19は、これら二値化画像から抽出されるマスクから、被写体候補のマスクを絞り込む。ここで、ステップS402及びステップS403の処理を行うことで、例えば図12(b)、図12(d)及び図12(e)のマスクが全て被写体候補のマスクから除外される。
The
ここで、図12(c)、図12(f)及び図12(i)の二値化画像からは、数多くのマスクが抽出されている。したがって、制御部19は、これら二値化画像に対しては、ステップS405の判定処理を行うと、その判定処理の結果がYesとなる。また、これら二値化画像から抽出されるマスクのマスク全体の平均輝度に対しても、ステップS407の判定処理の結果がYsとなる。したがって、図12(c)、図12(f)及び図12(i)の二値化画像のそれぞれから抽出されるマスクが全て除外される。したがって、マスクの絞り込み処理を実行すると、図12(a)の白の領域に示すマスク、図12(g)の白の領域に示す2つのマスク及び図12(h)の白の領域に示すマスクが被写体候補のマスクとして保持される。制御部19は、これら被写体候補のマスクに対して評価値Evを求め、求めた評価値Evを用いて、被写体候補のマスクの順位付けを行う。この順位付けの後、第1から第4の抽出判定が行われ、例えば図12(g)の白の領域に示す2つのマスクが、被写体に相当するマスクとして抽出される。したがって、図11のスルー画像を表示部23に表示すると、被写体枠52,53が重畳表示される。
Here, a large number of masks are extracted from the binarized images of FIG. 12C, FIG. 12F, and FIG. Therefore, if the
このように、二値化画像から数多くのマスクが抽出される場合には、そのマスク全体の平均強度を判断することにより、数多くの島が抽出される領域が背景のテクスチャによるものであるか、被写体自身のテクスチャなのかを判別することができる。つまり、背景のテクスチャであればマスク全体の平均強度が低くなるので、抽出されたマスクは、背景に相当する領域であり、被写体に相当する領域は存在していないと判断できる。一方、被写体自身のテクスチャであれば、マスク全体の平均強度は高い。したがって、抽出されるマスクには、被写体に相当するマスクが存在すると判断できる。このように、上記判定を行うことで、不要なマスクを被写体候補のマスクから除外でき、被写体候補のマスクを適切に絞り込むことができる。 In this way, when a large number of masks are extracted from the binarized image, by determining the average intensity of the entire mask, whether the area where a large number of islands are extracted is due to the background texture, It is possible to determine whether the texture of the subject itself. In other words, since the average intensity of the entire mask is low for a background texture, it can be determined that the extracted mask is an area corresponding to the background and no area corresponding to the subject exists. On the other hand, if the texture of the subject itself, the average intensity of the entire mask is high. Therefore, it can be determined that the extracted mask has a mask corresponding to the subject. In this way, by performing the above determination, unnecessary masks can be excluded from subject candidate masks, and subject candidate masks can be appropriately narrowed down.
次に、図5のフローチャートに示すステップS208の被写体に相当するマスクを抽出する処理の流れについて、図13のフローチャートに基づいて説明する。 Next, the flow of processing for extracting a mask corresponding to the subject in step S208 shown in the flowchart of FIG. 5 will be described based on the flowchart of FIG.
ステップS501は、最終候補のマスクを取得する処理である。制御部19は、ステップS207にて求めた、被写体候補のマスクに対する評価値Evを用いて、被写体候補のマスクの順位付けを行う。そして、制御部19は、順位付けされたマスクのうち、上位5位のマスクを最終候補のマスクとして選択する。
Step S501 is processing for obtaining a final candidate mask. The
ステップS502は、Cr成分の差分画像又はCb成分の差分画像を元に抽出されたマスクがあるか否かを判定する処理である。最終候補のマスクのうち、Cr成分及びCb成分の差分画像を元に抽出されたマスクがあれば、制御部19は、ステップS502の判定処理の結果をYesとする。この場合、ステップS503に進む。一方、上位5位のマスクのうち、Cr成分及びCb成分の差分画像を元に抽出されたマスクがない場合、制御部19は、ステップS502の判定処理の結果をNoとする。この場合、ステップS505に進む。
Step S502 is processing for determining whether or not there is a mask extracted based on the Cr component difference image or the Cb component difference image. If there is a mask extracted based on the difference image of the Cr component and the Cb component among the final candidate masks, the
ステップS503は、平均強度が閾値Th5以下となるマスクがあるか否かを判定する処理である。制御部19は、Cr成分又はCb成分の差分画像を元に抽出されたマスクの平均強度をマスク毎に求める。制御部19は、求めたマスクの平均強度と閾値Th5とを比較する。Cr成分又はCb成分の差分画像を元に抽出されたマスクの平均強度のいずれかが閾値Th5以下となる場合、制御部19は、ステップS503の判定処理の結果をYesとする。この場合、ステップS504に進む。一方、Cr成分又はCb成分の差分画像を元に抽出されたマスクの平均強度が全て閾値Th5を超過する場合、制御部19は、ステップS503の判定処理の結果をNoとする。この場合、ステップS505に進む。これらステップS502及びステップS503の処理が、第1の抽出判定に係る処理となる。
Step S503 is processing for determining whether or not there is a mask whose average intensity is equal to or less than the threshold Th5. The
ステップS504は、対象となるマスクを除外する処理である。ステップS503の判定処理において、制御部19は、平均強度が閾値Th5以下となるマスクがあると判定している。したがって、制御部19は、平均強度が閾値Th5以下となるマスクを背景部分から得られたマスクであるとし、該当するマスクを最終候補のマスクから除外する。
Step S504 is processing to exclude the target mask. In the determination process in step S503, the
ステップS505は、Cb成分又はCr成分の差分画像を元に抽出されたマスクの下位にY成分の差分画像を元に抽出されたマスクがあるか否かを判定する処理である。対象となるマスクは、ステップS504の処理によりマスクが除外されていない場合は、最終候補のマスク全てが該当する。一方、ステップS504の処理によりマスクが除外されている場合には、最終候補のマスクのうち、除外されたマスク以外のマスクが該当する。 Step S505 is a process of determining whether or not there is a mask extracted based on the Y component difference image below the mask extracted based on the Cb component or Cr component difference image. If the mask is not excluded by the process of step S504, the target mask is all the final candidate masks. On the other hand, when a mask is excluded by the process of step S504, a mask other than the excluded mask among the final candidate masks corresponds.
制御部19は、被写体検出処理における処理の履歴を示す情報を第1メモリ20から読み出す。制御部19は、読み出した情報から、対象となるマスクが、Cb成分、Cr成分又はY成分の差分画像のいずれかの差分画像を元に抽出されたかを特定する。この特定の後、制御部19は、対象となるマスクのうち、Cb成分又はCr成分の差分画像を元に抽出されたマスクの下位にY成分の差分画像を元に抽出されたマスクがあるか否かを判定する。Cb成分又はCr成分の差分画像を元に抽出されたマスクの下位にY成分の差分画像を元に抽出されたマスクがある場合、制御部19は、ステップS505の判定処理の結果をYesとする。この場合、ステップS506に進む。一方、Cb成分又はCr成分の差分画像を元に抽出されたマスクの下位にY成分の差分画像を元に抽出されたマスクがない場合には、制御部19は、ステップS505の判定処理の結果をNoとする。この場合、ステップS508に進む。
The
ステップS506は、平均強度が閾値Th6以下となるマスクがあるか否かを判定する処理である。制御部19は、Cb成分又はCr成分の差分画像を元に抽出されたマスクの下位にY成分の差分画像を元に抽出されたマスクを対象にして、マスクの平均強度を求める。そして、制御部19は、求めたマスクの平均強度と閾値Th6とを比較する。対象となるマスクのうち、平均強度が閾値Th6以下となるマスクがあれば、制御部19は、ステップS506の判定処理の結果をYesとする。この場合、ステップS507に進む。対象となるマスクの全てが、平均強度が閾値Th6を超過する場合、制御部19は、ステップS506の判定処理の結果をNoとする。この場合、ステップS508に進む。これらステップS505及びステップS506の処理が、第2の抽出判定に係る処理となる。
Step S506 is processing for determining whether there is a mask having an average intensity equal to or less than the threshold Th6. The
ステップS507は、対象となるマスクを除外する処理である。制御部19は、平均強度が閾値Th6以下となるマスクを最終候補のマスクから除外する。
Step S507 is processing to exclude the target mask. The
ステップS508は、Y成分の正の差分画像を元に抽出されたマスクと、Y成分の負の差分画像を元に抽出されたマスクとがあるか否かを判定する処理である。対象となるマスクは、最終候補のマスクのうち、ステップS504又はステップS507のいずれかの処理によって除外されたマスクを除いたマスクである。なお、ステップS504又はステップS507のいずれかの処理も行っていない場合には、最終候補のマスクの全てが、対象のマスクとなる。 Step S508 is processing for determining whether there is a mask extracted based on a positive difference image of Y component and a mask extracted based on a negative difference image of Y component. The target mask is a mask obtained by removing the masks excluded by the process of either step S504 or step S507 from among the final candidate masks. Note that if neither the processing in step S504 nor step S507 is performed, all of the final candidate masks are the target masks.
対象となるマスクの中に、Y成分の正の差分画像を元に抽出されたマスク及びY成分の負の差分画像を元に抽出されたマスクがあれば、制御部19は、ステップS508の判定処理の結果をYesとする。この場合、ステップS509に進む。一方、対象となるマスクの中に、Y成分の正の差分画像を元に抽出されたマスク又はY成分の負の差分画像を元に抽出されたマスクの一方のマスクしかない場合や、Y成分の正の差分画像を元に抽出されたマスク及びY成分の負の差分画像を元に抽出されたマスクの両方のマスクがない場合には、制御部19はステップS508の判定処理の結果をNoとし、ステップS510に進む。なお、ステップS508の処理が、第3の抽出判定に係る処理となる。
If the target mask includes a mask extracted based on the positive difference image of the Y component and a mask extracted based on the negative difference image of the Y component, the
ステップS509は、下位マスクを除外する処理である。ステップS508により、対象となるマスクには、Y成分の正の差分画像を元に抽出されたマスク及びY成分の負の差分画像を元に抽出されたマスクの両方のマスクがあると判定されている。したがって、制御部19は、これらマスクのうち、順位の高いマスクを最終候補のマスクとして保持し、順位の低いマスクを最終候補のマスクから除外する。
Step S509 is processing to exclude the lower mask. In step S508, it is determined that the target mask includes both a mask extracted based on a positive difference image of Y component and a mask extracted based on a negative difference image of Y component. Yes. Therefore, the
ステップS510は、同一成分の正の差分画像から生成されるマスクのうち、包含関係にあるマスクがあるか否かを判定する処理である。対象となるマスクは、最終候補のマスクのうち、ステップS504、ステップS507或いはステップS509のいずれかの処理によって除外されたマスクを除いたマスクである。なお、ステップS504、ステップS507或いはステップS509のいずれかの処理も行っていない場合には、最終候補のマスクの全てが、対象のマスクとなる。上述したように、Y成分、Cb成分及びCr成分の正の差分画像に対する二値化処理においては、異なる2つの閾値を用いている。したがって、包含関係にあるとは、同一成分の正の差分画像に対して閾値を用いた二値化処理により抽出されるマスクが、閾値を用いた二値化処理により抽出されるマスクに含まれる場合を指す。対象となるマスクの中に、包含関係にあるマスクがある場合には、制御部19は、ステップS510の判定処理の結果をYesとする。この場合、ステップS511に進む。一方、対象となるマスクの中に、包含関係にあるマスクがない場合には、制御部19は、ステップS510の判定処理の結果をNoとする。この場合、ステップS512に進む。
Step S510 is processing for determining whether there is a mask having an inclusion relationship among masks generated from positive difference images of the same component. The target mask is a mask obtained by removing the masks excluded by any one of the processes in step S504, step S507, or step S509 from among the final candidate masks. If none of the processes in step S504, step S507, or step S509 is performed, all of the final candidate masks are the target masks. As described above, in the binarization process for the positive difference image of the Y component, the Cb component, and the Cr component, two different threshold values are used. Therefore, a mask extracted by a binarization process using a threshold for a positive difference image of the same component is included in a mask extracted by a binarization process using a threshold. Refers to the case. If there is a mask in the inclusion relationship among the target masks, the
ステップS511は、包含関係にあるマスクを統合する処理である。制御部19は、例えば2つのマスクが包含関係にある場合、それらマスクを統合する。このステップS511の処理を実行することで、制御部19は、最終候補のマスクを絞ることができる。
Step S511 is processing for integrating masks in an inclusive relationship. For example, when two masks are in an inclusive relationship, the
ステップS512は、保持されるマスクの数が3を超過するか否かを判定する処理である。制御部19は、ステップS502からステップS511の処理を行うことで、最終候補のマスクに対して第1から第4の抽出判定を行っている。例えば最終候補のマスクが1個も除外されない場合や1個のみが除外された場合、最終候補として保持されるマスクの数は3個を超過している。したがって、制御部19は、ステップS512の判定処理の結果をYesとする。この場合、ステップS513に進む。
Step S512 is processing for determining whether or not the number of masks to be held exceeds three. The
一方、2個以上のマスクが最終候補のマスクから除外されてしまった場合には、保持されるマスクの数は3個以下となる。したがって、制御部19は、ステップS512の判定処理の結果をNoとする。この場合、ステップS514に進む。
ステップS513は、上位3位までのマスクを抽出する処理である。制御部19は、最終候補として保持されるマスクのうち、評価値Evの順位が上位3位のマスクを被写体の領域に相当するマスクとして抽出する。このステップS513の処理が実行されると、制御部19は、図13におけるフローチャートの処理を終了させる。
On the other hand, when two or more masks are excluded from the final candidate masks, the number of masks to be held is three or less. Therefore, the
Step S513 is processing to extract the top three masks. The
ステップS514は、保持されたマスクがないか否かを判定する処理である。上述した第1から第4の抽出判定を行うことで、最終候補となるマスクが全て除外されてしまう場合がある。このような場合、制御部19はステップS514の判定処理の結果をYesとする。つまり、このような場合には、制御部19は、被写体の領域に相当するマスクはないとし、図13におけるフローチャートの処理を終了させる。
Step S514 is processing to determine whether or not there is a held mask. By performing the first to fourth extraction determinations described above, all the masks that are final candidates may be excluded. In such a case, the
一方、第1から第4の抽出判定を行ったときに、2〜4個のマスクが最終候補のマスクから除外される場合、制御部19が保持するマスクは、1〜3個のマスクのいずれかである。したがって、制御部19は、ステップS514の判定処理の結果をNoとする。この場合ステップS515に進む。
On the other hand, when 2 to 4 masks are excluded from the final candidate masks when the first to fourth extraction determinations are performed, the mask held by the
ステップS515は、保持されたマスクを抽出する処理である。制御部19は、最終候補のマスクとして保持されるマスクの全てを被写体の領域に相当するマスクとして抽出する。このステップS515の処理が実行されると、制御部19は、図13におけるフローチャートの処理を終了させる。
Step S515 is processing to extract the held mask. The
以下、各成分の正の差分画像に対して二値化処理を行うときの閾値を2σ及び3σに、各成分の負の差分画像に対して二値化処理を行うときの閾値を2σに、それぞれ設定した場合について説明する。 Hereinafter, the threshold when performing binarization processing on the positive difference image of each component is 2σ and 3σ, and the threshold when performing binarization processing on the negative difference image of each component is 2σ, The case where each is set will be described.
図14は、赤い花を撮像範囲に収めたときのスルー画像を示す。上述したように、スルー画像P4が取得されると、制御部19は、Y成分、Cb成分及びCr成分の二値化画像を計9個生成する。図15(a)から図15(i)は、スルー画像P3から得られるY成分、Cb成分及びCr成分の二値化画像の一例を示す。図15では、各閾値の下に記載した「(正)」は、正の差分画像に基づいて生成された二値化画像であり、閾値の下に記載した「(負)」は、負の差分画像に基づいて生成された二値化画像であることを示している。
FIG. 14 shows a through image when a red flower is placed in the imaging range. As described above, when the through image P4 is acquired, the
図15(a)から図15(i)は、Y成分、Cb成分及びCr成分の二値化画像であり、各二値化画像においてグレイ及び白で表される領域がマスクとして抽出される。抽出された各二値化画像のマスクから被写体候補となるマスクを絞り込むことでグレイで表されるマスクが除外され、図15(a)、図15(d)から図15(h)の二値化画像中の白の領域で示すマスクが被写体候補のマスクとして絞り込まれる。上述したように、被写体候補となるマスクが絞り込まれると、制御部19は、被写体候補のマスクのそれぞれに対して評価値Evを求める。ここで、図15(a)、図15(d)から図15(h)に示す「×」印はマスクの重心であり、マスクの慣性モーメントを求める場合に基準となる。各マスクに対する評価値Evを求めた後、制御部19は、求めた評価値Evを用いてマスクの順位付けを行う。ここでは、図15(a)の白の領域として示すマスク、図15(d)の白の領域として示すマスク、図15(f)の白の領域として示すマスク、図15(g)の白の領域に示すマスク及び図15(h)の白の領域として示すマスクが最終候補のマスクとなる。
FIG. 15A to FIG. 15I are binarized images of a Y component, a Cb component, and a Cr component, and regions represented by gray and white in each binarized image are extracted as a mask. By narrowing down the masks that are subject candidates from the extracted masks of the respective binarized images, the masks expressed in gray are excluded, and the binary values shown in FIGS. 15A and 15D to 15H are used. Masks indicated by white areas in the digitized image are narrowed down as subject candidate masks. As described above, when the subject candidate masks are narrowed down, the
制御部19は、最終候補のマスクに対して第1の抽出判定を行う。この第1の抽出判定で、Cb成分及びCr成分の差分画像を元に抽出されたマスクがあれば、そのマスクの平均強度が閾値Th5以下となるかを判定する。なお、図15においては、図15(d)の白の領域として示すマスク及び図15(f)の白の領域として示すマスクが、Cb成分の差分画像を元に抽出されたマスクである。また、図15(g)の白の領域として示すマスク及び図15(h)の白の領域として示すマスクがCr成分の差分画像を元に抽出されたマスクである。この第1の抽出判定で、例えば図15(d)の白の領域として示すマスク及び図15(f)の白の領域として示すマスクが最終候補のマスクから除外される。
The
次に、制御部19は、対象となるマスクに対して第2の抽出判定を行う。この第2の抽出判定では、まず、対象となるマスクの中にY成分のマスクがあれば、Cb成分又はCr成分のマスクの下位に、該Y成分のマスクが位置あるか否かが判定される。例えば、図15(a)の白の領域として示すマスクが、図15(g)の白の領域として示すマスク及び図15(h)の白の領域として示すマスクよりも下位の順位であれば、制御部19は、図15(a)の白の領域として示すマスクの平均強度が閾値Th6以下であるか否かを判定する。この判定で、図15(a)の白の領域として示すマスクの平均強度が閾値Th6以下であると判定された場合には、制御部19は、図14(a)の白の領域として示すマスクを最終候補のマスクから除外する。つまり、図15(g)の白の領域として示すマスク及び図15(h)の白の領域として示すマスクが最終候補のマスクとして保持される。
Next, the
次に、制御部19は、第3の抽出判定を行う。ここでは、最終候補のマスクとして保持されているマスクは、図15(g)の白の領域として示すマスク及び図15(h)の白の領域として示すマスクである。これらマスクは、Cr成分の差分画像を元に抽出されたマスクであり、Y成分の正の差分画像及び負の差分画像を元に抽出されたマスクではない。したがって、第3の抽出判定により、最終候補のマスクから除外されるマスクはない。
Next, the
最後に、制御部19は、第4の抽出判定を行う。図15の例では、第3の抽出判定を行った後に保持されるマスクは、図15(g)の白の領域として示すマスク及び図15(h)の白の領域として示すマスクである。これらマスクは、Cr成分の正の差分画像に対して異なる閾値を用いることで生成された二値化画像からそれぞれ抽出されている。また、図15(g)の白の領域として示すマスクに、図15(h)の白の領域として示すマスクが含まれる。したがって、制御部19は、図15(g)の白の領域として示すマスク及び図15(h)の白の領域として示すマスクは包含関係にあると判定する。そして、制御部19は、図15(g)の白の領域として示すマスク及び図15(h)の白の領域として示すマスクを、図15(g)の白の領域として示すマスクに統合する。ここで、第1から第4の抽出判定を行った結果、最終候補のマスクとして保持されるマスクは、図15(g)の白の領域として示すマスクのみである。制御部19は、図15(g)の白の領域として示すマスクを被写体に相当するマスクとして抽出する。
Finally, the
ここで、図15(g)の白の領域として示すマスクは、スルー画像においては花の領域に相当する。したがって、図14(a)に示すように、スルー画像を表示部23に表示すると、花の領域に対して、被写体枠55が重畳表示される。
Here, the mask shown as a white region in FIG. 15G corresponds to a flower region in the through image. Accordingly, as shown in FIG. 14A, when the through image is displayed on the
例えば、従来の手法では、図15(a)の白の領域として示すマスク及び図15(g)の白の領域として示すマスクが上位3位までのマスクに入っていれば、制御部19は、図15(a)の白の領域として示すマスクに該当する領域と、図15(g)の白の領域として示すマスクに該当する領域を被写体の領域に特定する。なお、図15(a)の白の領域として示すマスクに該当する領域は、光が反射している領域である。また、図15(g)の白の領域として示すマスクに該当する領域は、花の領域である。したがって、図14(b)に示すように、スルー画像を表示部23に表示すると、花の領域と、光が反射している領域のそれぞれに対して、被写体枠55,56が重畳表示される。しかしながら、光が反射している領域は輝度が高い領域であり、被写体が位置する領域ではない。つまり、従来の手法では、被写体がない領域であっても輝度が高い領域であれば、被写体の領域に相当するマスクとして抽出されてしまう。
For example, in the conventional method, if the mask shown as the white region in FIG. 15A and the mask shown as the white region in FIG. The area corresponding to the mask shown as the white area in FIG. 15A and the area corresponding to the mask shown as the white area in FIG. Note that a region corresponding to a mask shown as a white region in FIG. 15A is a region where light is reflected. Further, the area corresponding to the mask shown as the white area in FIG. 15G is a flower area. Therefore, as shown in FIG. 14B, when the through image is displayed on the
しかしながら、第1実施形態では、上述した評価値Evの順位付けにより、Cb成分又はCr成分の差分画像を元に抽出されたマスクよりも下位に、輝度成分の差分画像を元に抽出されたマスクが位置する場合には、そのマスクの平均強度に基づいて、輝度成分の差分画像を元に抽出されたマスクを除外している。したがって、輝度が高い領域がマスクとして抽出されたとしても、色度成分のマスクよりも順位が低いと判断されれば、そのマスクは除外されやすくなる。したがって、被写体がなく、単に輝度が高い領域であるマスクを被写体に相当する領域として特定することが防止される。 However, in the first embodiment, by the ranking of the evaluation values Ev described above, the mask extracted based on the luminance component difference image lower than the mask extracted based on the Cb component or Cr component difference image. Is located, the mask extracted based on the luminance component difference image is excluded based on the average intensity of the mask. Therefore, even if an area with high luminance is extracted as a mask, if it is determined that the rank is lower than that of the chromaticity component mask, the mask is easily excluded. Therefore, it is possible to prevent a mask that has no subject and is simply a high luminance region from being identified as a region corresponding to the subject.
図16は、遊園地の乗り物を撮像範囲に収めたスルー画像P5である。この場合のY成分、Cb成分及びCr成分の二値化画像を、図17(a)から図17(i)に示す。ここで、図17(a)から図17(i)の二値化画像において、グレイ及び白で表される領域がマスクとして抽出される。各二値化画像から抽出されたマスクから被写体候補のマスクが絞り込まれる。なお、図17(f)の白の領域として示す2つのマスク、図17(g)の白の領域として示すマスク及び図17(h)の白の領域として示すマスクが、それぞれ被写体候補となるマスクである。 FIG. 16 is a through image P5 in which an amusement park vehicle is within the imaging range. The binarized images of the Y component, Cb component, and Cr component in this case are shown in FIGS. 17 (a) to 17 (i). Here, in the binarized images of FIGS. 17A to 17I, regions represented by gray and white are extracted as masks. The subject candidate masks are narrowed down from the masks extracted from the respective binary images. Note that the two masks shown as the white area in FIG. 17F, the mask shown as the white area in FIG. 17G, and the mask shown as the white area in FIG. It is.
制御部19は、これら被写体候補のマスクに対して評価値Evを算出し、算出された評価値Evを用いて各マスクの順位付けを行う。この場合、被写体候補のマスクは、上述した4個のマスクであることから、これら4個のマスクが最終候補のマスクとなる。
The
制御部19は、最終候補となる4個のマスクに対して第1の抽出判定を行う。ここで、図17(f)の白の領域として示す2つのマスクは、Cb成分の負の差分画像を元に抽出されたマスクであり、図17(g)の白の領域として示すマスク及び図17(h)の白の領域として示すマスクは、Cr成分の正の差分画像を元に抽出されたマスクである。この例では、図17(f)の白の領域として示す2つのマスクが閾値Th5以下となるので、これらマスクが最終候補のマスクから除外される。したがって、図17(g)の白の領域として示すマスク及び図17(f)の白の領域として示すマスクが最終候補のマスクとして保持される。その後、第2の抽出判定や第3の抽出判定を行うが、これら判定では該当するマスクがないので、第1の抽出判定で絞り込まれたマスクが、そのまま最終候補のマスクとして保持される。
The
最後に、制御部19は、最終候補のマスクに対して第4の抽出判定を行う。上述した図17(g)の白の領域として示すマスク及び図17(h)の白の領域として示すマスクは、それぞれ、Cr成分の差分画像に対して異なる閾値を用いた二値化処理により抽出されるマスクである。したがって、これら2つのマスクは包含関係にある。したがって、制御部19はマスクを統合する処理を行う。これにより、図17(g)の白の領域として示すマスクが最終候補のマスクとして保持される。この場合、制御部19は、図17(g)の白の領域として示すマスクを被写体の領域に相当するマスクとして抽出する。ここで、図17(g)の白の領域として示すマスクは、乗り物の領域に相当する。したがって、スルー画像P5を表示部23に表示すると、スルー画像P5中の乗り物の領域に対して枠58が重畳表示される(図16(a)参照)。
Finally, the
ここで、従来の方法では、被写体候補のマスクのうち、評価値Evに基づいた順位付けで、上位3位までのマスクであれば、それらマスクが被写体に相当するマスクであると判断される。つまり、図17(f)の白の領域として示す2つのマスクは、被写体の領域に相当するマスクであると判定される。ここで、図17(f)の白の領域として示す2つのマスクは、それぞれ木の領域である。したがって、スルー画像P5を表示部23に表示すると、乗り物の領域に対して被写体枠58が重畳表示される他、木の領域に対しても被写体枠59,60が重畳表示されてしまう。(図16(b)参照)。
Here, in the conventional method, among the masks of the subject candidates, if the ranking is based on the evaluation value Ev and the top three masks, the masks are determined to be masks corresponding to the subject. That is, the two masks shown as white areas in FIG. 17F are determined to be masks corresponding to the subject area. Here, the two masks shown as white areas in FIG. 17F are each a tree area. Therefore, when the through image P5 is displayed on the
しかしながら、第1実施形態では、第1の抽出判定により平均強度が低いマスクがあれば、そのマスクが背景部分であると判断され、最終候補のマスクから除外される。したがって、被写体がない領域がマスクとして抽出された場合であっても、そのマスクを確実に除外することができ、被写体に相当するマスクのみを抽出することができる。 However, in the first embodiment, if there is a mask having a low average intensity in the first extraction determination, it is determined that the mask is a background portion and is excluded from the final candidate mask. Therefore, even when an area without a subject is extracted as a mask, the mask can be reliably excluded, and only a mask corresponding to the subject can be extracted.
図18は、猫を被写体として撮像範囲内に収めたスルー画像P6である。ここで、図19(a)から図19(i)の二値化画像において、グレイ及び白で表される領域がマスクとして抽出される。この例では、各二値化画像から抽出されたマスクから、被写体候補のマスクが絞り込まれる。図19(a)の白の領域に示すマスク、図19(b)の白の領域に示すマスク、図19(c)の白の領域に示すマスク及び図19(d)の白の領域に示すマスクが、被写体候補のマスクとなる。 FIG. 18 is a through image P6 in which a cat is taken as a subject within the imaging range. Here, in the binarized images shown in FIGS. 19A to 19I, regions represented by gray and white are extracted as masks. In this example, subject candidate masks are narrowed down from masks extracted from the respective binarized images. 19A, the mask shown in the white area, the mask shown in the white area in FIG. 19B, the mask shown in the white area in FIG. 19C, and the white area in FIG. 19D. The mask becomes a subject candidate mask.
この例では、被写体候補のマスクの順位付けを行うと、図19(a)の白の領域に示すマスク、図19(b)の白の領域に示すマスク、図19(c)の白の領域に示すマスク、図19(d)の白の領域に示すマスクの順となる。また、この場合、被写体候補となるマスクは、上述した4個のマスクである。したがって、これら4個のマスクが最終候補のマスクとして選択される。制御部19は、これらマスクに対して第1の抽出判定を行う。ここで、図19(d)の白の領域に示すマスクは、Cb成分の差分画像を元に抽出されたマスクである。したがって、第1の抽出判定により、図19(d)の白の領域に示すマスクの平均強度が閾値Th3以下となれば、制御部19は、図19(d)の白の領域に示すマスクを、最終候補のマスクから除外する。次に、制御部19は、第2の抽出判定を行う。この場合、最終候補のマスクの中には、Cb成分及びCr成分の差分画像を元に抽出されたマスクの下位に、Y成分の差分画像を元に抽出されたマスクはないので、最終候補のマスクから除外されるマスクはない。
In this example, when the masks of the subject candidates are ranked, the mask shown in the white area in FIG. 19A, the mask shown in the white area in FIG. 19B, and the white area in FIG. And the mask shown in the white area in FIG. 19D. In this case, the masks that are subject candidates are the above-described four masks. Therefore, these four masks are selected as final candidate masks. The
ここで、図19(a)の白の領域に示すマスク及び図19(b)の白の領域に示すマスクは、Y成分の正の差分画像を元に抽出されたマスクであり、図19(c)の白の領域に示すマスクは、Y成分の負の差分画像を元に抽出されたマスクである。したがって、制御部19が第3の抽出判定を行うと、これらマスクのいずれかが最終候補のマスクから除外される。ここで、図19(a)の白の領域に示すマスク及び図19(b)の白の領域に示すマスクは、それぞれ図19(c)の白の領域に示すマスクよりも評価値Evの順位が高い。したがって、制御部19は、図19(c)の白の領域に示すマスクを最終候補のマスクから除外する。
Here, the mask shown in the white region in FIG. 19A and the mask shown in the white region in FIG. 19B are masks extracted based on the positive difference image of the Y component, and FIG. The mask shown in the white area of c) is a mask extracted based on the negative difference image of the Y component. Therefore, when the
例えば輝度が高いマスクが輝度の低いマスクよりも上位となる場合、輝度の低いマスクは、被写体の黒い部分に該当していることが多く、不要なマスクとなる。したがって、Y成分の正の二値化画像から抽出されたマスクと、Y成分の負の二値化画像から抽出されたマスクとの両方のマスクが上位5位までのマスクとなる場合には、制御部19は、Y成分の正の二値化画像から抽出されたマスクと、Y成分の負の二値化画像から抽出されたマスクとのうち、上位に位置しているマスクを保持し、下位に位置しているマスクを除外する。
For example, when a mask with high luminance is higher than a mask with low luminance, the mask with low luminance often corresponds to a black portion of the subject and becomes an unnecessary mask. Therefore, when both the mask extracted from the positive binary image of the Y component and the mask extracted from the negative binary image of the Y component are the top five masks, The
なお、Y成分の負の二値化画像から抽出されたマスクがY成分の正の二値化画像から抽出されたマスクよりも上位に位置している場合には、スルー画像においては、そのマスクに該当する被写体は被写体自体の色が濃いと想定でき、Y成分の正の二値化画像から抽出されたマスクに該当する領域は背景であることが多い。したがって、Y成分の正の二値化画像から抽出されたマスクと、Y成分の負の二値化画像から抽出されたマスクとの両方のマスクが上位5位までのマスクとなる場合には、制御部19は、上位に位置するマスクを保持し、下位に位置するマスクを除外する。
If the mask extracted from the negative binary image of the Y component is positioned higher than the mask extracted from the positive binary image of the Y component, the mask is displayed in the through image. It can be assumed that the subject corresponding to the color of the subject itself is dark, and the area corresponding to the mask extracted from the positive binary image of the Y component is often the background. Therefore, when both the mask extracted from the positive binary image of the Y component and the mask extracted from the negative binary image of the Y component are the top five masks, The
最後に、制御部19は、第4の抽出判定を行う。ここで、図19(a)の白の領域に示すマスクと、図19(b)の白の領域に示すマスクは、包含関係にある。したがって、制御部19は、これらマスクを統合する。その結果、図19(a)の白の領域に示すマスクが被写体の領域に相当するマスクとして抽出される。
Finally, the
図19(a)の白の領域に示すマスクは、猫の胴体及び足の領域である。したがって、スルー画像P6を表示部23に表示させたときには、猫の胴体及び足の領域に対して被写体枠61が重畳表示される。このように、輝度の高い領域と、輝度の低い領域との両方の領域がマスクとし抽出される場合には、評価の高いマスクのみを選択することで、被写体に相当する領域を適切に特定することが可能となる。
The mask shown in the white area | region of Fig.19 (a) is the area | region of a torso of a cat and a leg | foot. Accordingly, when the through image P6 is displayed on the
以下、上記実施形態での作用効果を述べる。上記実施形態の制御部19は、マスクの平均強度Avの値を用いて、マスクの評価値Evを算出する(S207)。そして、制御部19は、マスクの評価値Evに基づいて、被写体候補のマスクに対する順位付けを行うことで、被写体に相当するマスクを抽出する(S208)。
Hereinafter, the operational effects of the above embodiment will be described. The
図20は、複数の二値化画像からそれぞれ抽出されたマスクの位置を写像した例を示す。また、図21は、図20に示す各マスクの平均強度を示す。 FIG. 20 shows an example in which the positions of the masks extracted from a plurality of binarized images are mapped. FIG. 21 shows the average intensity of each mask shown in FIG.
図20は、ステップS501にて、上位4位のマスクとしてマスク1〜4が取得された状態を示している。図20において、マスク4は、マスク1〜3と比べて画面の中心から離れた位置にある。また、図20において、マスク1,4は細長い形状をしており、マスク2,3と比べると慣性モーメントが大きくなる。一方、図21に示すように、各マスクの平均強度は、マスク4、マスク3、マスク2、マスク1の順に小さくなる。なお、図21において、マスク1,2間の平均強度の差はマスク3,2間の平均強度の差よりも小さく、マスク3,4の平均強度はマスク1,2の平均強度よりも十分に大きい。 FIG. 20 shows a state in which the masks 1 to 4 are acquired as the top four masks in step S501. In FIG. 20, the mask 4 is located farther from the center of the screen than the masks 1 to 3. In FIG. 20, the masks 1 and 4 have an elongated shape, and the moment of inertia is larger than that of the masks 2 and 3. On the other hand, as shown in FIG. 21, the average intensity of each mask decreases in the order of mask 4, mask 3, mask 2, and mask 1. In FIG. 21, the difference in average intensity between the masks 1 and 2 is smaller than the difference in average intensity between the masks 3 and 2, and the average intensity of the masks 3 and 4 is sufficiently higher than the average intensity of the masks 1 and 2. large.
図22(a)は、上記実施形態で最終的に抽出される上位2つのマスクを示す。また、図22(b)は、比較例として、マスクの形状および位置のみに基づいて最終的に抽出される上位2つのマスクを示す。 FIG. 22A shows the top two masks finally extracted in the above embodiment. FIG. 22B shows, as a comparative example, the upper two masks that are finally extracted based only on the shape and position of the mask.
図22(b)に示す比較例の場合、マスクの平均強度は考慮されないので、画面中央に近く、形がまとまっている(慣性モーメントの小さい)マスク2,3が抽出される。しかし、形状のみに着目してマスクを抽出すると、画面中央近傍に周囲と異なる領域が存在すればその領域が抽出されやすくなる。そのため、目立ちにくく被写体にそぐわない対象のマスク(例えば画面中央部でのみ部分的に露出している地肌に対応したマスクなど)が誤って抽出される可能性もある。 In the case of the comparative example shown in FIG. 22B, the average intensity of the mask is not taken into consideration, so the masks 2 and 3 that are close to the center of the screen and have a uniform shape (small moment of inertia) are extracted. However, if a mask is extracted by paying attention only to the shape, if there is a region different from the surrounding in the vicinity of the center of the screen, that region is easily extracted. Therefore, there is a possibility that a target mask that is not conspicuous and does not match the subject (for example, a mask corresponding to the background partially exposed only in the center of the screen) may be erroneously extracted.
一方、図22(a)に示す上記実施形態の場合、マスクの平均強度を考慮して評価値が算出されるため、マスクの平均強度が高いマスク3,4が抽出される。このように、上記実施形態では、マスクの抽出のときに各々の差分画像におけるマスクの強度(マスク自体の顕著性)が反映されるため、より人間の感覚に近い条件でマスクの抽出を行うことが可能となる。 On the other hand, in the case of the above-described embodiment shown in FIG. 22A, the evaluation value is calculated in consideration of the average intensity of the mask, so that the masks 3 and 4 having the high average intensity of the mask are extracted. As described above, in the above embodiment, the mask intensity (saliency of the mask itself) in each difference image is reflected at the time of mask extraction, so that the mask extraction is performed under conditions closer to human senses. Is possible.
<変形例1>
上記実施形態において、評価値算出部47は、マスクの平均強度の大きさに応じてマスクの評価値に重み付けをしてもよい。この変形例1の重み付けの処理は、例えば、S207の評価値の算出のときに行われてもよく、ステップS208で被写体に該当するマスクを抽出するときに、抽出された上位のマスクに対して行うものでもよい。
<Modification 1>
In the above embodiment, the evaluation
例えば、評価値算出部47は、マスクの平均強度Avが閾値γ1以上となるマスクには式(1)のAvの値が大きくように重み付けし、マスクの平均強度Avが閾値γ1未満となるマスクには式(1)のAvの値が小さくなるように重み付けする。この場合には、マスクの平均強度が閾値γ1以上となるマスクの評価値が閾値γ1未満のマスクよりも相対的に高くなり、平均強度の高いマスクが優先的に抽出されやすくなる。
For example, the
また、評価値算出部47は、マスク間での平均強度の差が閾値γ2を超える場合には、マスクの平均強度Avの重み付けに差を与えてもよい。例えば、評価値算出部47は、基準となるマスクよりも平均強度が高く、基準となるマスクとの平均強度の差が閾値γ2を超えるマスクには式(1)のAvの値が大きくなるように重み付けする。あるいは、評価値算出部47は、基準となるマスクよりも平均強度が低く、基準となるマスクとの平均強度の差が閾値γ2を超えるマスクには式(1)のAvの値が小さくなるように重み付けする。これらの場合には、基準となるマスクに比べて平均強度が非常に高いマスクの評価値が相対的に高くなり、平均強度の高いマスクが抽出されやすくなる。
The evaluation
ここで、評価値算出部47は、例えば、重み付けの係数をAvの値に乗算することで上記の重み付けを行えばよい。上記の閾値γ1,γ2は、YCbCrの各成分でそれぞれ異なる値であってもよい。また、上記の閾値γ1,γ2は、同じ成分でも正の差分画像から抽出されたマスクと負の差分画像から抽出されたマスクとでそれぞれ異なる値であってもよい。
Here, for example, the evaluation
例えば、評価値算出部47は、Y成分についてCbCr成分と比べてマスクの平均強度による重み付けを小さくするか、重み付け自体を行わないようにする。Y成分の正の差分画像では、例えば白飛びしているハイライト領域で画素値が大きくなり、Y成分の負の差分画像では、例えば黒つぶれしているシャドー領域で画素値が大きくなる。ハイライト領域やシャドー領域は被写体としての特徴を有しない。そのため、Y成分についてマスクの平均強度による重み付けを抑制することで、ハイライト領域やシャドー領域に対応するマスクを抽出されにくくすることができる。
For example, the evaluation
<変形例2>
上記実施形態において、評価値算出部47は、マスクの面積およびマスクの慣性モーメントを用いることなく、マスクの平均強度に基づいてマスクの評価値を算出してもよい。
<Modification 2>
In the above embodiment, the evaluation
また、上記の実施形態において、評価値算出部47は、マスクの平均強度に基づく第1の評価値と、マスクの面積およびマスクの慣性モーメントに基づく第2の評価値とを別々に算出してもよい。そして、マスク抽出部48は、第1の評価値で所定順位までのマスクを抽出した後、第2の評価値を用いて所定順位までのマスクのうちから最終的な被写体のマスクを抽出してもよい。
In the above embodiment, the evaluation
<第1実施形態の補足事項>
第1実施形態では、解像度変換処理が施されたスルー画像の各画素の画素値の平均値を算出し、算出した画素値の平均値を用いて基準濃度画像を生成しているが、これに限定される必要はなく、スルー画像の各画素の画素値の中央値を用いて、基準濃度画像を生成することも可能である。
<Supplementary items of the first embodiment>
In the first embodiment, an average value of pixel values of each pixel of a through image subjected to resolution conversion processing is calculated, and a reference density image is generated using the calculated average value of pixel values. There is no need to be limited, and it is also possible to generate a reference density image using the median value of each pixel value of the through image.
第1実施形態では、Y成分、Cb成分及びCr成分の差分画像から、各成分の二値化画像を生成しているが、Y成分、Cb成分及びCr成分の画像から、各成分の二値化画像を生成することも可能である。この場合、各成分の画像に対して、異なる3以上の閾値を用いて、3以上の二値化画像を生成すればよい。また、この場合には、Y成分、Cb成分及びCr成分の画像毎にヒストグラムを生成し、生成したヒストグラムにおける標準偏差σやピーク・ピーク値ppを求め、これら標準偏差σやピーク・ピーク値ppを用いて、被写体候補を絞り込む際に使用する画像とするか否かを判定すればよい。 In the first embodiment, the binary image of each component is generated from the difference image of the Y component, Cb component, and Cr component. However, the binary of each component is generated from the image of the Y component, Cb component, and Cr component. It is also possible to generate a digitized image. In this case, three or more binarized images may be generated using three or more different thresholds for each component image. In this case, a histogram is generated for each image of the Y component, the Cb component, and the Cr component, and the standard deviation σ and the peak / peak value pp in the generated histogram are obtained, and the standard deviation σ and the peak / peak value pp are obtained. It is sufficient to determine whether or not to use an image for narrowing down subject candidates.
第1実施形態では、生成された差分画像に基づいたヒストグラムを生成し、生成したヒストグラムにおける標準偏差σやピーク・ピーク値ppを用いて、被写体候補を絞り込む際に使用する差分画像とするか否かを判定しているが、これに限定される必要はなく、差分画像から二値化画像を生成した後に、上記判定を行うことも可能である。 In the first embodiment, whether or not to generate a histogram based on the generated difference image and use the standard deviation σ and peak / peak value pp in the generated histogram as a difference image used when narrowing down subject candidates is determined. However, the present invention is not limited to this, and it is also possible to perform the above determination after generating a binarized image from the difference image.
第1実施形態では、二値化画像から抽出されるマスクの数が閾値Th3以上で、且つマスク全体の平均強度が閾値Th4以下となるか否かを判定し、これら条件を満足する場合に、該当する二値化画像から抽出される全てのマスクを被写体候補のマスクから除外している。しかしながら、この判定においては、全ての二値化画像から抽出されるマスクの全てが被写体候補のマスクから除外されてしまう場合もある。したがって、このような場合、閾値の数を増やして二値化処理を行ってもよい。 In the first embodiment, it is determined whether or not the number of masks extracted from the binarized image is equal to or greater than the threshold Th3 and the average intensity of the entire mask is equal to or less than the threshold Th4, and when these conditions are satisfied, All masks extracted from the corresponding binarized image are excluded from the subject candidate masks. However, in this determination, all of the masks extracted from all the binarized images may be excluded from the subject candidate masks. Therefore, in such a case, the binarization process may be performed by increasing the number of threshold values.
第1実施形態では、全ての二値化画像のそれぞれでマスクの数を計数し、二値化画像から抽出されるマスクの数が閾値Th3以上となる場合に、マスク全体の平均強度が閾値Th4以下となるか否かを判定している。しかしながら、全ての二値化画像を用いる必要はなく、例えば差分画像から生成されるヒストグラムにおいて標準偏差σが小さい差分画像に基づく二値化画像に対してのみ、上記判定を行うことも可能である。つまり、上述した差分画像における標準偏差σが小さい場合、差分画像における画素値が平均に近い画素値となる、つまり差分画像中に目立つオブジェクトがないと判断できる。したがって、このような標準偏差σが小さい差分画像から求まる二値化画像に対して、上記判定を行うのが効果的である。 In the first embodiment, the number of masks is counted for each of all binarized images, and when the number of masks extracted from the binarized image is equal to or greater than the threshold Th3, the average intensity of the entire mask is the threshold Th4. It is determined whether or not: However, it is not necessary to use all the binarized images. For example, the above determination can be performed only on the binarized image based on the difference image having a small standard deviation σ in the histogram generated from the difference image. . That is, when the standard deviation σ in the difference image described above is small, it can be determined that the pixel value in the difference image is a pixel value close to the average, that is, there is no conspicuous object in the difference image. Therefore, it is effective to perform the above determination on a binarized image obtained from a difference image having a small standard deviation σ.
また、この判定は、二値化画像を対象に行っているが、これに限定される必要はなく、二値化画像を複数の領域に分割し、分割した複数の領域のそれぞれで行うことも可能である。 In addition, this determination is performed on the binarized image, but the determination is not limited to this, and the binarized image may be divided into a plurality of regions, and may be performed on each of the divided regions. Is possible.
第1実施形態では、Y成分、Cb成分及びCr成分の正の差分画像及び負の差分画像をそれぞれ生成したときに標準偏差σを求めている。したがって、差分画像を生成したときに得られる標準偏差σの値から、二値化画像を生成する際に用いる差分画像を選択することも可能である。 In the first embodiment, the standard deviation σ is obtained when a positive difference image and a negative difference image of the Y component, the Cb component, and the Cr component are generated. Therefore, it is possible to select a difference image used when generating a binarized image from the value of the standard deviation σ obtained when the difference image is generated.
第1実施形態では、抽出されるマスクの数に対する閾値を閾値Th3、マスク全体の平均強度に対する閾値を閾値Th4とし、これら閾値の値を固定としているが、これら閾値は、Y成分、Cb成分及びCr成分毎に異なる値としてもよい。この場合、例えば撮影シーンや、スルー画像における画像構成に基づいて、Y成分、Cb成分及びCr成分のそれぞれに対する閾値Th3及び閾値Th4を個別に設定することも可能である。 In the first embodiment, the threshold value for the number of extracted masks is the threshold value Th3, the threshold value for the average intensity of the entire mask is the threshold value Th4, and these threshold values are fixed. These threshold values are the Y component, the Cb component, and the threshold value. It is good also as a different value for every Cr component. In this case, for example, the threshold Th3 and the threshold Th4 for each of the Y component, the Cb component, and the Cr component can be individually set based on the shooting scene and the image configuration in the through image.
第1実施形態では、最終候補のマスクのうち、包含関係にあるマスクを統合している。この統合においては、2つのマスクが包含関係にある場合、一方のマスクに含まれる他方のマスクを最終候補のマスクから除外し、一方のマスクを最終候補のマスクから除外している。しかしながら、包含関係にある2つのマスクの両方をそれぞれ最終候補となるマスクとして保持しておき、被写体枠を表示する際に、一方のマスクに相当する被写体の領域に対してのみ被写体枠を表示することも可能である。 In the first embodiment, of the final candidate masks, masks in an inclusive relationship are integrated. In this integration, when two masks are in an inclusive relationship, the other mask included in one mask is excluded from the final candidate mask, and one mask is excluded from the final candidate mask. However, both of the two masks in the inclusive relationship are held as final candidate masks, and when the subject frame is displayed, the subject frame is displayed only for the subject area corresponding to one mask. It is also possible.
第1実施形態では、最終候補のマスクのうち、包含関係にあるマスクを統合しているが、これに限定する必要はなく、例えば二値化画像からマスクを抽出したときに、包含関係にあるマスクを統合する処理を行った後、被写体候補のマスクを絞り込む処理を行うことも可能である。 In the first embodiment, the masks in the inclusion relationship among the final candidate masks are integrated. However, the present invention is not limited to this. For example, when the mask is extracted from the binarized image, the mask is in the inclusion relationship. After performing the process of integrating the masks, it is also possible to perform a process of narrowing down the subject candidate masks.
第1実施形態では、差分画像を絞り込む処理(図5に示すフローチャートのステップS204、図6に示すフローチャートの処理)、マスクを絞り込む処理(図5に示すフローチャートのステップS206、図10に示すフローチャートの処理)を行うようにしている。しかしながら、差分画像を絞り込む処理やマスクを絞り込む処理は、少なくともいずれか一方のみを行うようにしてもよいし、両方の処理を省略することが可能である。 In the first embodiment, the process for narrowing down the difference image (step S204 in the flowchart shown in FIG. 5 and the process in the flowchart shown in FIG. 6) and the process for narrowing down the mask (step S206 in the flowchart shown in FIG. 5 and the flowchart shown in FIG. 10). Process). However, at least one of the process of narrowing down the difference image and the process of narrowing down the mask may be performed, or both processes can be omitted.
第1実施形態では、被写体に相当するマスクを抽出する処理(図5に示すフローチャートのステップS208、図13に示すフローチャートの処理)として、第1から第4の抽出判定を行っている。しかしながら、第1から第4の抽出判定のうち、少なくとも1つの判定処理のみを行うようにすることも可能である。また、これら抽出判定を行わずに、最終候補のマスクのうち、評価値Evの最も高いマスクを被写体に相当するマスクとして抽出してもよい。 In the first embodiment, first to fourth extraction determinations are performed as processing for extracting a mask corresponding to a subject (step S208 in the flowchart shown in FIG. 5 and processing in the flowchart shown in FIG. 13). However, it is also possible to perform only at least one determination process among the first to fourth extraction determinations. Further, without performing these extraction determinations, a mask having the highest evaluation value Ev among the final candidate masks may be extracted as a mask corresponding to the subject.
第1実施形態において、マスク絞込部46は、以下の基準を用いて被写体候補のマスクを絞り込んでもよい。
In the first embodiment, the
例えば、マスク絞込部46は、画像全体に対して面積が6割となり、その重心が画像中央と一致する矩形の足きり領域を設定し、この足きり領域に50%以上属しないマスクを被写体候補から除外してもよい。
For example, the
また、例えば、マスク絞込部46は、連続して取得されたスルー画像間でマスクの動きベクトルを求め、他の条件で被写体候補から除外されるマスクのうち、動きベクトルのあるマスクは被写体候補として保持し、動きベクトルのないマスクはそのまま被写体候補から除外してもよい。
<第2実施形態>
図23は、第2実施形態の画像処理装置の構成例を示す図である。第2実施形態の画像処理装置90は、本発明の被写体検出装置として機能する。なお、画像処理装置90の具体例としては、コンピュータが挙げられる。
Further, for example, the
Second Embodiment
FIG. 23 is a diagram illustrating a configuration example of the image processing apparatus according to the second embodiment. The
図23に示す画像処理装置90は、データ読込部91、記憶装置92、CPU93、メモリ94、出力I/F95及びバス96を備えている。データ読込部91、記憶装置92、CPU93、メモリ94及び入出力I/F95は、バス96を介して相互に接続されている。この画像処理装置90には、入出力I/F95を介して、キーボードや、マウスなどの入力デバイス97や、モニタ98がそれぞれ接続される。入出力I/F95は、入力デバイス97からの各種入力を受け付けるとともに、モニタ98に対して表示用のデータを出力する。
23 includes a
データ読込部91は、画像のデータやプログラムを外部から読み込むときに用いられる。データ読込部91は、例えば着脱自在な記憶媒体99からデータを取得する読込デバイス(光ディスク、磁気ディスク、光磁気ディスクなどの読込装置など)や、公知の通信規格に準拠して外部の装置と通信を行う通信デバイス(USBインターフェース、有線又は無線のLANモジュールなど)である。なお、図23においては、データ読込部91が、着脱自在な記憶媒体99からデータを取得する読込デバイスの場合を示している。
The
記憶装置92は、例えばハードディスクや不揮発性の半導体メモリなどの記憶媒体からなる。記憶装置92は、上記プログラムや、プログラムの実行に必要となる各種データを記憶する。なお、記憶装置92は、データ読込部91が読み込んだ画像のデータなどを記憶することができる。
The
CPU93は、画像処理装置90の各部を統括的に制御するプロセッサである。このCPU93は、プログラムを実行したときに画像処理部31の機能を有している。この画像処理部31の機能の1つとして、被写体検出部32が設けられる。ここで、画像処理部31及び被写体検出部32は、第1実施形態と同一の機能を有することから第1実施形態と同一の符号を付している。つまり、被写体検出部32は、第1実施形態と同一構成(色空間変換部41、解像度変換部42、差分画像生成部43、画像判定部44、二値化処理部45、マスク絞込部46、評価値算出部47及びマスク抽出部48)を備えている。なお、この第2実施形態においても、画像処理部31の1つの機能として被写体検出部32を設ける他、CPU93が画像処理部31の機能を実行するプログラムとは別のプログラムを実行することで、被写体検出部32の機能を有する形態としてもよい。
The
メモリ94は、CPU93がプログラムを実行したときの各種演算結果を一時的に記憶する。このメモリ94は、例えば揮発性のSDRAMである。
The
この第2実施形態の画像処理装置90は、データ読込部91又は記憶装置92から入力画像となる画像のデータを取得すると、CPU93が図4、図5、図10及び図13に示す被写体検出処理を実行する。この第2実施形態の画像処理装置90においても、第1実施形態の被写体検出処理と同様の効果を得ることができる。
In the
10…撮像装置、19…制御部、31…画像処理部、32…被写体検出部、41…色空間変換部、42…解像度変換部、43…差分画像生成部、44…画像判定部、45…二値化処理部、46…マスク絞込部、47…評価値算出部、48…マスク抽出部、90…画像処理装置、93…CPU DESCRIPTION OF SYMBOLS 10 ... Imaging device, 19 ... Control part, 31 ... Image processing part, 32 ... Subject detection part, 41 ... Color space conversion part, 42 ... Resolution conversion part, 43 ... Difference image generation part, 44 ... Image determination part, 45 ... Binarization processing unit, 46... Mask narrowing unit, 47 .. evaluation value calculation unit, 48... Mask extraction unit, 90.
Claims (17)
各々の二値化画像で抽出された画素領域について、二値化処理前の画像から取得した前記画素領域に対応する画素の強度を用いて、前記画素領域の被写体らしさを示す評価値をそれぞれ算出する評価値算出部と、
前記評価値を用いて、前記処理対象の画像の特定領域に相当する前記画素領域を抽出する抽出部と、を備えることを特徴とする被写体検出装置。 A binarization processing unit that generates a plurality of different binarized images using an image to be processed;
For each pixel region extracted from each binarized image, an evaluation value indicating the subjectness of the pixel region is calculated using the pixel intensity corresponding to the pixel region acquired from the image before binarization processing. An evaluation value calculation unit to perform,
An object detection apparatus comprising: an extraction unit that extracts the pixel area corresponding to a specific area of the processing target image using the evaluation value.
前記処理対象の画像における画素値の平均値を用いて基準濃度画像を生成する第1の生成部と、
前記処理対象の画像と前記基準濃度画像との差分を用いて、前記画素値が前記基準濃度画像を上回る箇所で前記基準濃度画像からの前記画素値の乖離度合いを示す第1の差分画像と、前記画素値が前記基準濃度画像を下回る箇所で前記基準濃度画像からの前記画素値の乖離度合いを示す第2の差分画像とを生成する第2の生成部と、をさらに備え、
前記二値化処理部は、前記第1の差分画像と前記第2の差分画像とを二値化して複数の二値化画像を生成することを特徴とする被写体検出装置。 The subject detection apparatus according to claim 1,
A first generation unit that generates a reference density image using an average value of pixel values in the processing target image;
Using a difference between the image to be processed and the reference density image, a first difference image indicating a degree of deviation of the pixel value from the reference density image at a location where the pixel value exceeds the reference density image; A second generation unit that generates a second difference image indicating a degree of deviation of the pixel value from the reference density image at a location where the pixel value is lower than the reference density image;
The binarization processing unit binarizes the first difference image and the second difference image to generate a plurality of binarized images.
前記評価値算出部は、前記第1の差分画像または前記第2の差分画像から取得した前記乖離度合いを用いて、前記評価値を算出することを特徴とする被写体検出装置。 The subject detection apparatus according to claim 2,
The subject detection apparatus, wherein the evaluation value calculation unit calculates the evaluation value by using the degree of divergence acquired from the first difference image or the second difference image.
前記第1の生成部は、色空間の各成分に対応する前記基準濃度画像をそれぞれ生成し、
前記第2の生成部は、色空間の各成分で前記第1の差分画像および前記第2の差分画像をそれぞれ生成し、
前記二値化処理部は、色空間の各成分で複数の異なる二値化画像をそれぞれ生成することを特徴とする被写体検出装置。 In the subject detection apparatus according to claim 2 or 3,
The first generation unit generates the reference density image corresponding to each component of the color space,
The second generation unit generates the first difference image and the second difference image with each component of a color space,
The subject detection apparatus, wherein the binarization processing unit generates a plurality of different binarized images for each component of a color space.
前記評価値算出部は、前記画素領域の面積および前記画素領域の慣性モーメントをさらに用いて前記評価値を算出することを特徴とする被写体検出装置。 The subject detection apparatus according to any one of claims 1 to 4,
The evaluation value calculation unit calculates the evaluation value by further using the area of the pixel region and the moment of inertia of the pixel region.
前記評価値算出部は、前記画素領域に対応する前記画素の強度が閾値以上であるときに、被写体らしさが高くなるように前記評価値に重み付けをすることを特徴とする被写体検出装置。 The subject detection apparatus according to any one of claims 1 to 5,
The evaluation value calculation unit weights the evaluation value so that the evaluation value becomes high when the intensity of the pixel corresponding to the pixel area is equal to or greater than a threshold value.
前記評価値算出部は、2つの前記画素領域の間で前記画素の強度の差が閾値以上あるときに、前記画素の強度が高い方の前記画素領域に対して被写体らしさが高くなるように前記評価値に重み付けをすることを特徴とする被写体検出装置。 The subject detection apparatus according to any one of claims 1 to 5,
The evaluation value calculation unit is configured so that when the difference in pixel intensity between the two pixel areas is equal to or greater than a threshold, the subjectivity is higher with respect to the pixel area having the higher pixel intensity. A subject detection apparatus that weights evaluation values.
前記抽出部により抽出された前記画素領域の対応位置を示す表示部をさらに備えることを特徴とする被写体検出装置。 In the photographic subject detection device according to any one of claims 1 to 7,
The subject detection apparatus further comprising a display unit indicating a corresponding position of the pixel region extracted by the extraction unit.
請求項1から請求項8のいずれか1項に記載の被写体検出装置と、
を備えることを特徴とする撮像装置。 An imaging unit that captures an image of a subject;
The subject detection device according to any one of claims 1 to 8,
An imaging apparatus comprising:
各々の二値化画像で抽出された画素領域について、二値化処理前の画像から取得した前記画素領域に対応する画素の強度を用いて、前記画素領域の被写体らしさを示す評価値をそれぞれ算出し、
前記評価値を用いて、前記処理対象の画像の特定領域に相当する前記画素領域を抽出する処理をコンピュータに実行させることを特徴とするプログラム。 Generate multiple different binarized images using the image to be processed,
For each pixel region extracted from each binarized image, an evaluation value indicating the subjectness of the pixel region is calculated using the pixel intensity corresponding to the pixel region acquired from the image before binarization processing. And
A program that causes a computer to execute a process of extracting the pixel area corresponding to a specific area of the image to be processed using the evaluation value.
前記処理対象の画像における画素値の平均値を用いて基準濃度画像を生成し、
前記処理対象の画像と前記基準濃度画像との差分を用いて、前記画素値が前記基準濃度画像を上回る箇所で前記基準濃度画像からの前記画素値の乖離度合いを示す第1の差分画像と、前記画素値が前記基準濃度画像を下回る箇所で前記基準濃度画像からの前記画素値の乖離度合いを示す第2の差分画像とを生成し、
前記第1の差分画像と前記第2の差分画像とを二値化して複数の二値化画像を生成する処理をコンピュータに実行させることを特徴とするプログラム。 The program according to claim 10, wherein
A reference density image is generated using an average value of pixel values in the processing target image,
Using a difference between the image to be processed and the reference density image, a first difference image indicating a degree of deviation of the pixel value from the reference density image at a location where the pixel value exceeds the reference density image; Generating a second difference image indicating a degree of deviation of the pixel value from the reference density image at a location where the pixel value is lower than the reference density image;
A program for causing a computer to execute a process of binarizing the first difference image and the second difference image to generate a plurality of binarized images.
前記第1の差分画像または前記第2の差分画像から取得した前記乖離度合いを用いて、前記評価値を算出する処理をコンピュータに実行させることを特徴とするプログラム。 The program according to claim 11,
A program that causes a computer to execute a process of calculating the evaluation value using the degree of divergence acquired from the first difference image or the second difference image.
色空間の各成分に対応する前記基準濃度画像をそれぞれ生成し、
色空間の各成分で前記第1の差分画像および前記第2の差分画像をそれぞれ生成し、
色空間の各成分で複数の異なる二値化画像をそれぞれ生成する処理をコンピュータに実行させることを特徴とするプログラム。 In the program according to claim 11 or 12,
Generating the reference density image corresponding to each component of the color space,
Generating the first difference image and the second difference image with each component of the color space;
A program that causes a computer to execute a process of generating a plurality of different binarized images for each component of a color space.
前記画素領域の面積および前記画素領域の慣性モーメントをさらに用いて前記評価値を算出する処理をコンピュータに実行させることを特徴とするプログラム。 In the program according to any one of claims 10 to 13,
A program for causing a computer to execute processing for calculating the evaluation value by further using the area of the pixel region and the moment of inertia of the pixel region.
前記画素領域に対応する前記画素の強度が閾値以上であるときに、被写体らしさが高くなるように前記評価値に重み付けをする処理をコンピュータに実行させることを特徴とするプログラム。 The program according to any one of claims 10 to 14,
A program for causing a computer to execute a process of weighting the evaluation value so that the subjectness is high when the intensity of the pixel corresponding to the pixel area is equal to or greater than a threshold value.
2つの前記画素領域の間で前記画素の強度の差が閾値以上あるときに、前記画素の強度が高い方の前記画素領域に対して被写体らしさが高くなるように前記評価値に重み付けをする処理をコンピュータに実行させることを特徴とするプログラム。 The program according to any one of claims 10 to 14,
A process of weighting the evaluation value so that the subjectivity is higher with respect to the pixel area having the higher pixel intensity when the difference in intensity between the two pixel areas is equal to or greater than a threshold value. A program that causes a computer to execute.
抽出された前記画素領域の対応位置を表示装置に表示させる処理をコンピュータに実行させることを特徴とするプログラム。 The program according to any one of claims 10 to 16,
A program for causing a computer to execute processing for causing a display device to display a corresponding position of the extracted pixel area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018175014A JP2019008830A (en) | 2018-09-19 | 2018-09-19 | Subject detection device, imaging device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018175014A JP2019008830A (en) | 2018-09-19 | 2018-09-19 | Subject detection device, imaging device, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014020766A Division JP2015148904A (en) | 2014-02-05 | 2014-02-05 | Subject detection device, imaging device, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019008830A true JP2019008830A (en) | 2019-01-17 |
Family
ID=65026048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018175014A Pending JP2019008830A (en) | 2018-09-19 | 2018-09-19 | Subject detection device, imaging device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019008830A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11995835B2 (en) | 2020-04-23 | 2024-05-28 | Hitachi Systems, Ltd. | Pixel-level object detection system and program thereof |
CN118570214A (en) * | 2024-08-05 | 2024-08-30 | 陕西首铝模架科技有限公司 | Alloy plate rolling defect identification method for building template system |
-
2018
- 2018-09-19 JP JP2018175014A patent/JP2019008830A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11995835B2 (en) | 2020-04-23 | 2024-05-28 | Hitachi Systems, Ltd. | Pixel-level object detection system and program thereof |
CN118570214A (en) * | 2024-08-05 | 2024-08-30 | 陕西首铝模架科技有限公司 | Alloy plate rolling defect identification method for building template system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9251589B2 (en) | Depth measurement apparatus, image pickup apparatus, and depth measurement program | |
JP5744437B2 (en) | TRACKING DEVICE, TRACKING METHOD, AND PROGRAM | |
KR101155406B1 (en) | Image processing apparatus, image processing method and computer readable-medium | |
US8233094B2 (en) | Methods, systems and apparatuses for motion detection using auto-focus statistics | |
US20110052070A1 (en) | Image processing apparatus, image processing method and computer readable-medium | |
JP2019008830A (en) | Subject detection device, imaging device, and program | |
JP2018152095A (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP2018152096A (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP6326841B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP6248662B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP6405638B2 (en) | Subject detection device, imaging device, and program | |
JP6326840B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP6318661B2 (en) | Subject detection device, imaging device, and image processing program | |
JP6776532B2 (en) | Image processing equipment, imaging equipment, electronic devices and image processing programs | |
JP2019036972A (en) | Subject detection device, imaging device and program | |
JP2018206435A (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP2018141991A (en) | Subject detector | |
JP2018060567A (en) | Image processing apparatus | |
JP2015148904A (en) | Subject detection device, imaging device, and program | |
JP5146223B2 (en) | Program, camera, image processing apparatus, and image contour extraction method | |
JP2007288245A (en) | Imaging apparatus, image processing method, and image processing program | |
JP2015148906A (en) | Image processing apparatus, imaging apparatus, and image processing program | |
US11533440B2 (en) | Apparatus, method, and storage medium each relating to image composition | |
JP5631181B2 (en) | Image processing apparatus, control method therefor, and program | |
JP7458723B2 (en) | Image processing device, imaging device, control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180921 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190822 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191001 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200414 |