JP2014232477A - Subject specifying device, imaging device, subject specifying method, and subject specifying program - Google Patents
Subject specifying device, imaging device, subject specifying method, and subject specifying program Download PDFInfo
- Publication number
- JP2014232477A JP2014232477A JP2013113855A JP2013113855A JP2014232477A JP 2014232477 A JP2014232477 A JP 2014232477A JP 2013113855 A JP2013113855 A JP 2013113855A JP 2013113855 A JP2013113855 A JP 2013113855A JP 2014232477 A JP2014232477 A JP 2014232477A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- image
- image data
- white pixel
- pixel region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】 画像に含まれる被写体の位置の推定や被写体の抽出の精度を高める。【解決手段】 入力される第1画像の特徴量に基づいて生成される顕著性マップを用いて、第1画像における注目点の位置を推定する位置推定部と、第1画像の輝度情報及び色情報に基づいて生成される複数の第2画像を、輝度情報及び色情報により2値化処理し、複数の2値化画像を生成する2値化処理部と、推定された注目点の位置と複数の2値化画像とから、第1画像に含まれる被写体を推定する被写体推定部と、を備えたことを特徴とする。【選択図】 図2PROBLEM TO BE SOLVED: To improve the accuracy of estimation of the position of a subject included in an image and extraction of the subject. A position estimation unit that estimates a position of a point of interest in a first image using a saliency map generated based on a feature amount of the input first image; luminance information and color of the first image; A binarization processing unit that binarizes a plurality of second images generated based on information using luminance information and color information, and generates a plurality of binarized images; an estimated position of a target point; And a subject estimation unit that estimates a subject included in the first image from a plurality of binarized images. [Selection] Figure 2
Description
本発明は、被写体特定装置、撮像装置、被写体特定方法及び被写体特定プログラムに関する。 The present invention relates to a subject specifying device, an imaging device, a subject specifying method, and a subject specifying program.
一般に提供される撮像装置の中には、ユーザにより選択されたAF領域に基づいて被写体位置を特定し、特定した被写体を対象として焦点調節処理を行うものがある。このような撮像装置は、ユーザによって選択された領域に基づいて焦点調節処理を行うものであり、被写体の大きさや形状を特定するものではない。このため、輝度成分及び色差成分に区分された画像を2値化処理し、2値化処理された画像から被写体の位置や形状、大きさを特定することが提案されている(特許文献1参照)。 Some commonly provided imaging devices specify a subject position based on an AF area selected by a user and perform focus adjustment processing on the specified subject. Such an imaging apparatus performs focus adjustment processing based on an area selected by the user, and does not specify the size or shape of the subject. For this reason, it has been proposed to binarize the image divided into the luminance component and the color difference component and specify the position, shape, and size of the subject from the binarized image (see Patent Document 1). ).
この特許文献1では、2値化処理された画像に含まれる白画素の領域のそれぞれに対して、ユーザによって指定された位置や画像から検出される顔の位置からなる被写体推定位置を基準とした評価値を求め、評価値の高い白画素の領域を被写体として特定している。しかしながら、ユーザによる被写体推定位置の指定や顔の位置の検出を行わない場合には、白画素の領域に対する評価値の正確性が乏しくなり、被写体を正確に特定することができなくなる。 In this patent document 1, an estimated subject position consisting of a position designated by the user and a face position detected from the image is used as a reference for each white pixel area included in the binarized image. An evaluation value is obtained, and a white pixel region having a high evaluation value is specified as a subject. However, if the user does not specify the subject estimation position or the face position, the accuracy of the evaluation value for the white pixel area is poor, and the subject cannot be specified accurately.
本発明は、画像に含まれる被写体の位置の推定や被写体の抽出の精度を高めることができるようにした被写体特定装置、撮像装置、被写体特定方法及び被写体特定プログラムを提供することを目的とする。 An object of the present invention is to provide a subject specifying device, an imaging device, a subject specifying method, and a subject specifying program capable of improving the accuracy of estimating the position of a subject included in an image and extracting the subject.
上述した課題を解決するために、本発明の被写体特定装置は、入力される第1画像の特徴量に基づいて生成される顕著性マップを用いて、前記第1画像における注目点の位置を推定する位置推定部と、前記第1画像の輝度情報及び色情報に基づいて生成される複数の第2画像を、前記輝度情報及び前記色情報により2値化処理し、複数の2値化画像を生成する2値化処理部と、推定された前記注目点の位置と複数の前記2値化画像とから、前記第1画像に含まれる被写体を推定する被写体推定部と、を備えたことを特徴とする。 In order to solve the above-described problem, the subject specifying device of the present invention estimates the position of a point of interest in the first image using a saliency map generated based on the feature amount of the input first image. A plurality of second images generated on the basis of the luminance information and the color information of the first image, and binarizing the plurality of second images using the luminance information and the color information. A binarization processing unit to be generated, and a subject estimation unit that estimates a subject included in the first image from the estimated position of the target point and the plurality of binary images. And
また、本発明の撮像装置は、被写体光を取り込む撮像光学系と、取り込まれた被写体光に基づく画像信号を出力する撮像素子と、前記撮像素子から出力される画像信号に基づく画像が第1画像として入力される、上記に記載の被写体特定装置と、前記被写体特定装置において推定された被写体を含む領域を用いて、前記撮像光学系の焦点調節制御を実行する制御部と、を備えたことを特徴とする。 In the imaging apparatus of the present invention, an imaging optical system that captures subject light, an image sensor that outputs an image signal based on the captured subject light, and an image based on the image signal output from the image sensor are a first image. And a control unit that executes focus adjustment control of the imaging optical system using a region including the subject estimated by the subject specifying device. Features.
また、本発明の被写体特定方法は、入力される第1画像の特徴量に基づいて生成される顕著性マップを用いて、前記第1画像における注目点の位置を推定する位置推定手順と、前記第1画像の輝度情報及び色情報に基づいて生成される複数の第2画像を、前記輝度情報及び前記色情報により2値化処理し、複数の2値化画像を生成する2値化手順と、推定された前記注目点の位置と複数の前記2値化画像とから、前記第1画像に含まれる被写体を推定する被写体推定手順と、を備えたことを特徴とする。 Further, the subject specifying method of the present invention includes a position estimation procedure for estimating a position of a point of interest in the first image using a saliency map generated based on a feature amount of the input first image, A binarization procedure for binarizing a plurality of second images generated based on luminance information and color information of the first image using the luminance information and color information, and generating a plurality of binarized images; A subject estimation procedure for estimating a subject included in the first image from the estimated position of the target point and the plurality of binarized images.
また、本発明の被写体特定プログラムは、入力される第1画像の特徴量に基づいて生成される顕著性マップを用いて、前記第1画像における注目点の位置を推定する位置推定手順と、前記第1画像の輝度情報及び色情報に基づいて生成される複数の第2画像を、前記輝度情報及び前記色情報により2値化処理し、複数の2値化画像を生成する2値化手順と、推定された前記注目点の位置と複数の前記2値化画像とから、前記第1画像に含まれる被写体を推定する被写体推定手順と、を、コンピュータに実行させるためのものである。 Further, the subject specifying program of the present invention uses a saliency map generated based on the input first image feature amount to estimate a position of a point of interest in the first image, A binarization procedure for binarizing a plurality of second images generated based on luminance information and color information of the first image using the luminance information and color information, and generating a plurality of binarized images; And a subject estimation procedure for estimating a subject included in the first image from the estimated position of the target point and the plurality of binarized images.
本発明によれば、画像に含まれる被写体の位置の推定や、被写体の外形の抽出の精度を高めることができる。 ADVANTAGE OF THE INVENTION According to this invention, the precision of estimation of the position of the to-be-photographed object included in an image and extraction of a to-be-photographed object's outline can be improved.
図1に示すように、撮像装置10は、撮像光学系15、撮像素子16、A/D変換器17、ドライバ18、タイミングジェネレータ(TG)19、バッファメモリ20、画像処理回路21、符号化/復号化回路22、被写体特定回路23、表示制御回路24、モニタ25、メディアコントローラ26、CPU30、内蔵メモリ31、レリーズボタン32及び設定操作部33を備えている。ここで、A/D変換器17、バッファメモリ20、画像処理回路21、符号化/復号化回路22、表示制御回路23、メディアコントローラ26、CPU30、内蔵メモリ31は、バス35を介して接続される。 As shown in FIG. 1, the imaging apparatus 10 includes an imaging optical system 15, an imaging element 16, an A / D converter 17, a driver 18, a timing generator (TG) 19, a buffer memory 20, an image processing circuit 21, an encoding / coding circuit. A decoding circuit 22, a subject specifying circuit 23, a display control circuit 24, a monitor 25, a media controller 26, a CPU 30, a built-in memory 31, a release button 32, and a setting operation unit 33 are provided. Here, the A / D converter 17, buffer memory 20, image processing circuit 21, encoding / decoding circuit 22, display control circuit 23, media controller 26, CPU 30, and built-in memory 31 are connected via a bus 35. The
撮像光学系15は、図示を省略したズームレンズやフォーカスレンズなどを含むレンズ群から構成される。これらズームレンズやフォーカスレンズは図示を省略したレンズ駆動機構によって光軸L方向に移動する。なお、撮像光学系15を介して取り込まれる被写体光は、撮像素子16の受光面において結像される。 The imaging optical system 15 includes a lens group including a zoom lens, a focus lens, and the like that are not shown. These zoom lens and focus lens are moved in the direction of the optical axis L by a lens driving mechanism (not shown). Note that subject light captured via the imaging optical system 15 is imaged on the light receiving surface of the imaging element 16.
撮像素子16は、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal−Oxide Semiconductor)などから構成される。この撮像素子16は、ドライバ18によって駆動制御される。撮像素子16の駆動制御としては、撮像素子16の各画素における信号電荷の蓄積、及び蓄積された各画素の信号電荷の出力を制御することが挙げられる。なお、各画素の信号電荷は画像信号としてA/D変換器17に出力される。A/D変換器17は、入力される画像信号をアナログの信号からデジタルの信号に変換する。このA/D変換器17から出力されるデジタルの画像信号は、バッファメモリ20に記憶される。 The image pickup device 16 is configured by, for example, a charge coupled device (CCD), a complementary metal-oxide semiconductor (CMOS), or the like. The image sensor 16 is driven and controlled by a driver 18. The drive control of the image sensor 16 includes controlling the accumulation of signal charges in each pixel of the image sensor 16 and the output of the accumulated signal charges of each pixel. The signal charge of each pixel is output to the A / D converter 17 as an image signal. The A / D converter 17 converts an input image signal from an analog signal to a digital signal. The digital image signal output from the A / D converter 17 is stored in the buffer memory 20.
タイミングジェネレータ19は、A/D変換器17やドライバ18に対してクロックパルスを出力する。タイミングジェネレータ19からクロックパルスが出力されることで、撮像素子16やA/D変換器17の駆動タイミングが同期される。 The timing generator 19 outputs a clock pulse to the A / D converter 17 and the driver 18. By outputting clock pulses from the timing generator 19, the drive timing of the image sensor 16 and the A / D converter 17 is synchronized.
バッファメモリ20は、例えばEPPROMなどの不揮発性メモリからなる。このバッファメモリ20は、A/D変換器17から出力された画像信号、画像処理回路21にて画像処理が施された画像信号の他、記憶媒体40から読み出された画像信号が一時的に記憶される。 The buffer memory 20 is composed of a non-volatile memory such as EPPROM, for example. The buffer memory 20 temporarily receives the image signal output from the storage medium 40 in addition to the image signal output from the A / D converter 17 and the image signal subjected to image processing by the image processing circuit 21. Remembered.
画像処理回路21は、バッファメモリ20に書き込まれた画像信号に対して、ホワイトバランス処理、色補間処理、輪郭補償処理、ガンマ処理などの画像処理を施す。以下、画像処理が施された画像信号を、画像データと称する。 The image processing circuit 21 performs image processing such as white balance processing, color interpolation processing, contour compensation processing, and gamma processing on the image signal written in the buffer memory 20. Hereinafter, an image signal subjected to image processing is referred to as image data.
この画像処理回路21は、画像データに対して解像度変換処理を行う。この解像度変換処理により、元の画像データに対して、解像度の低い画像データが生成される。この解像度の低い画像データの例としては、画像の一覧表示を行う際に用いる画像データ(サムネイル画像データ)が挙げられる。また、画像処理回路21は、バッファメモリ20に記憶された画像データに基づく画像をモニタ25に表示させる場合に、モニタ25の解像度に併せた解像度となるように画像データに対する解像度変換処理を実行する。 The image processing circuit 21 performs resolution conversion processing on the image data. By this resolution conversion process, image data having a lower resolution than the original image data is generated. As an example of the low-resolution image data, there is image data (thumbnail image data) used when displaying a list of images. Further, the image processing circuit 21 executes resolution conversion processing on the image data so that the resolution is matched with the resolution of the monitor 25 when displaying an image based on the image data stored in the buffer memory 20 on the monitor 25. .
さらに、画像処理回路21は、撮影待機状態となる場合に取得される画像データに対して、被写体を特定する処理を行う。なお、被写体を特定する処理(以下、被写体特定処理)については、後述する。 Further, the image processing circuit 21 performs a process of specifying a subject for the image data acquired when the imaging standby state is set. Note that processing for specifying a subject (hereinafter, subject specifying processing) will be described later.
符号化/復号化回路22は、バッファメモリ20に記憶された画像データを読み出し、読み出した画像データに対して符号化処理を実行する。この符号化処理により、例えばJPEG圧縮された画像データが生成される。符号化処理が施された画像データは、バッファメモリ20に記憶される。また、符号化/復号化回路22は、符号化処理が施された画像データに対して復号化処理を施す。 The encoding / decoding circuit 22 reads the image data stored in the buffer memory 20 and executes an encoding process on the read image data. By this encoding process, for example, JPEG compressed image data is generated. The encoded image data is stored in the buffer memory 20. The encoding / decoding circuit 22 performs a decoding process on the image data that has been subjected to the encoding process.
被写体特定回路23は、バッファメモリ20に記憶された画像データを用いて被写体の位置、形状及び大きさを特定する。ここで、被写体特定回路において用いられる画像データとしては、撮影待機状態において得られるスルー画像データが挙げられる。この被写体特定回路23により特定された被写体の位置、形状及び大きさの情報は、CPU30に出力される。 The subject specifying circuit 23 uses the image data stored in the buffer memory 20 to specify the position, shape, and size of the subject. Here, as the image data used in the subject specifying circuit, through image data obtained in the shooting standby state can be cited. Information on the position, shape and size of the subject specified by the subject specifying circuit 23 is output to the CPU 30.
表示制御回路24は、画像処理回路21にて解像度変換処理が施された画像データを読み出す。そして、表示制御回路24は、読み出した画像データに基づく画像をモニタ25に表示する。ここで、モニタ25としては、例えばLCDや有機ELディスプレイなどが挙げられる。 The display control circuit 24 reads the image data that has been subjected to resolution conversion processing by the image processing circuit 21. Then, the display control circuit 24 displays an image based on the read image data on the monitor 25. Here, examples of the monitor 25 include an LCD and an organic EL display.
メディアコントローラ26は、例えばフラッシュメモリからなるメモリカードの他、光学ディスク、磁気ディスクなどの記憶媒体40と電気的に接続される。画像データを記憶媒体40に記憶させるときには、CPU30は、撮影条件、撮像装置10の機種、撮影日時、サムネイル画像データなどを付帯情報として生成し、生成された付帯情報を生成する。そして、CPU30は、バッファメモリ20に記憶された符号化された画像データと付帯情報とを、例えばEXIF形式の画像ファイルとして記憶媒体40に書き込む。 The media controller 26 is electrically connected to a storage medium 40 such as an optical disk or a magnetic disk, in addition to a memory card made of, for example, a flash memory. When the image data is stored in the storage medium 40, the CPU 30 generates shooting information, the model of the imaging device 10, shooting date and time, thumbnail image data, and the like as additional information, and generates the generated additional information. Then, the CPU 30 writes the encoded image data and supplementary information stored in the buffer memory 20 into the storage medium 40 as, for example, an EXIF format image file.
CPU30は、図示を省略した制御プログラムを実行することで、撮像装置10の各部を統括的に制御する。このCPU30にはレリーズボタン32や設定操作部33が接続され、CPU30は、これら操作に応じた処理を実行する。なお、CPU30における処理としては、AF処理、AE処理などが挙げられる。 CPU30 controls each part of the imaging device 10 centrally by executing the control program which abbreviate | omitted illustration. A release button 32 and a setting operation unit 33 are connected to the CPU 30, and the CPU 30 executes processing according to these operations. Examples of processing in the CPU 30 include AF processing and AE processing.
次に、被写体特定回路23の構成について、図2を用いて説明する。図2に示すように、被写体特定回路23は、データ生成部50、注目点推定部51、被写体推定部52を有する。以下、被写体特定回路23に入力される画像データとして、YCbCr色空間で示される画像データ(YCbCr画像データ)を例に挙げて説明する。 Next, the configuration of the subject specifying circuit 23 will be described with reference to FIG. As illustrated in FIG. 2, the subject specifying circuit 23 includes a data generation unit 50, a target point estimation unit 51, and a subject estimation unit 52. Hereinafter, image data (YCbCr image data) shown in the YCbCr color space will be described as an example of image data input to the subject specifying circuit 23.
データ生成部50は、入力されたYCbCr画像データから、輝度成分の画像データ、色差成分の画像データをそれぞれ生成する。以下、輝度成分の画像データをY画像データ、色差成分の画像データをCb画像データ及びCr画像データと称して説明する。データ生成部50は、生成した画像データのうち、Y画像データを注目点推定部51に出力する。また、データ生成部50は、Y画像データ、Cb画像データ及びCr画像データを被写体推定部52に出力する。なお、YCbCr色空間以外の色空間で示される画像データが入力される場合には、データ生成部50は、入力される画像データに対して色空間変換処理を施した後に、Y画像データ、Cb画像データ及びCr画像データを生成すればよい。 The data generation unit 50 generates luminance component image data and color difference component image data from the input YCbCr image data. Hereinafter, the luminance component image data is referred to as Y image data, and the color difference component image data is referred to as Cb image data and Cr image data. The data generation unit 50 outputs Y image data among the generated image data to the attention point estimation unit 51. Further, the data generation unit 50 outputs Y image data, Cb image data, and Cr image data to the subject estimation unit 52. When image data represented in a color space other than the YCbCr color space is input, the data generation unit 50 performs color space conversion processing on the input image data, and then performs Y image data, Cb Image data and Cr image data may be generated.
注目点推定部51は、入力されるY画像データを用いて、画像における注目点の位置を推定する。この注目点は、ユーザが画像を観察したときに注目する点である。この注目点推定部51は、フィルタ処理部55、2値化処理部56及び位置算出部57を有する。 The attention point estimation unit 51 estimates the position of the attention point in the image using the input Y image data. This attention point is a point to be noted when the user observes the image. The attention point estimation unit 51 includes a filter processing unit 55, a binarization processing unit 56, and a position calculation unit 57.
フィルタ処理部55は、入力されるY画像データに対して、例えばガボール関数を用いたフィルタ処理を施す。周知のように、ガボール関数は、人間の視覚における物体の認識方法に基づいたフィルタである。このガボール関数は、三角関数(正弦関数)と、ガウシアン関数との積からなる。本実施形態では、2次元の三角関数と2次元のガウシアン関数との積からなる2次元のガボール関数を用いる。以下、(1)式がガボール関数を示す式である。 The filter processing unit 55 performs filter processing using, for example, a Gabor function on the input Y image data. As is well known, the Gabor function is a filter based on an object recognition method in human vision. The Gabor function is a product of a trigonometric function (sine function) and a Gaussian function. In the present embodiment, a two-dimensional Gabor function that is a product of a two-dimensional trigonometric function and a two-dimensional Gaussian function is used. Hereinafter, the expression (1) is an expression indicating a Gabor function.
ここで、x,yは画像の座標値、λは空間周波数に対応する波長、θは方位(方向)、ψは位相、σはガウス分布の標準偏差、γはアスペクト比をそれぞれ表す。ここでの空間周波数とは、人間の目の1°(degree)の視角内に入る、白色と黒色の濃淡変化(コントラスト)で定義され、その単位はcpd(cycleper degree)である。 Here, x and y are coordinate values of an image, λ is a wavelength corresponding to a spatial frequency, θ is an azimuth (direction), ψ is a phase, σ is a standard deviation of a Gaussian distribution, and γ is an aspect ratio. The spatial frequency here is defined as a change in contrast between white and black (contrast) that falls within a viewing angle of 1 ° (degree) of the human eye, and its unit is cpd (cycler degree).
フィルタ処理部55は、Y画像データに対して、上述した(1)式で示すガボール関数の縞模様を複数の方向から画像と畳み込みし、その演算結果を加算する。ここで、複数の方向としては、例えばθ=45°及びθ=135°の方向が挙げられる。なお、図3(a)は、被写体特定回路23に入力される画像の一例を示し、また、図3(b)は、図3(a)に示す画像の輝度(Y)成分に対して畳み込み演算を行った際に生成されるマップ(以下、ガボールマップ)である。このガボールマップは、顕著性マップの一例である。 The filter processing unit 55 convolves the Gabor function striped pattern represented by the above-described equation (1) with the image from a plurality of directions with respect to the Y image data, and adds the calculation results. Here, examples of the plurality of directions include directions of θ = 45 ° and θ = 135 °. 3A shows an example of an image input to the subject specifying circuit 23, and FIG. 3B is a convolution with the luminance (Y) component of the image shown in FIG. 3A. It is a map (hereinafter referred to as a Gabor map) generated when an operation is performed. This Gabor map is an example of a saliency map.
2値化処理部56は、フィルタ処理部55により得られたガボールマップに対して2値化処理を行う。なお、この2値化処理時に用いる閾値を閾値Aとする。この閾値Aは、例えばY画像データにおける各画素の平均値や標準偏差などの統計値に対して係数(例えば3など)を乗算した値からなる。ここで、係数の値は予め実験、統計などにより設定される値である。 The binarization processing unit 56 performs binarization processing on the Gabor map obtained by the filter processing unit 55. Note that a threshold value used in the binarization process is a threshold value A. The threshold A is made up of a value obtained by multiplying a statistical value such as an average value or standard deviation of each pixel in Y image data by a coefficient (for example, 3). Here, the value of the coefficient is a value set in advance by experiments, statistics, or the like.
位置算出部57は、2値化処理されたガボールマップに含まれる白画素の重心の座標を算出する。位置算出部57は、2値化処理されたガボールマップに含まれる白画素のそれぞれの座標を用いて、白画素の重心となる位置の座標を求める。なお、図3(c)は、2値化処理されたガボールマップに含まれる白画素の重心を印「×」にて示している。一般に、画像においてユーザが注目する位置(以下、注目点)は、画像の中心ではなく、画像に含まれる被写体、或いは、その近傍を含む領域となる。また、画像に含まれる被写体の領域は、他の領域に較べて、高い周波数成分を含んでいる。つまり、Y画像データからガボールマップを生成し、生成したガボールマップを2値化処理した場合には、画像に含まれる被写体の領域は白画素の領域として出現しやすい。したがって、注目点推定部51は、位置算出部57により算出した2値化処理されたガボールマップに含まれる白画素の重心を、注目点として推定する。位置算出部57は、ラベリング領域における重心の座標データを、推定された注目点の座標データとして被写体推定部52に出力する。 The position calculation unit 57 calculates the coordinates of the center of gravity of the white pixel included in the binarized Gabor map. The position calculation unit 57 uses the coordinates of the white pixels included in the binarized Gabor map to determine the coordinates of the position that is the center of gravity of the white pixels. In FIG. 3C, the centroid of the white pixel included in the binarized Gabor map is indicated by a mark “x”. In general, a position (hereinafter, a point of interest) in which an image is noticed by a user is not a center of the image but a subject included in the image or a region including the vicinity thereof. In addition, the region of the subject included in the image includes a higher frequency component than other regions. That is, when a Gabor map is generated from Y image data and the generated Gabor map is binarized, the subject area included in the image tends to appear as a white pixel area. Accordingly, the attention point estimation unit 51 estimates the centroid of the white pixel included in the binarized Gabor map calculated by the position calculation unit 57 as the attention point. The position calculation unit 57 outputs the coordinate data of the center of gravity in the labeling region to the subject estimation unit 52 as the coordinate data of the estimated point of interest.
被写体推定部52は、入力されるY画像データ、Cb画像データ及びCr画像データと、注目点推定部51により求めた注目点の座標データとを用いて、被写体を推定する。この被写体推定部52は、2値化処理部61及び形状抽出部62を有する。 The subject estimation unit 52 estimates the subject using the input Y image data, Cb image data, and Cr image data, and the attention point coordinate data obtained by the attention point estimation unit 51. The subject estimation unit 52 includes a binarization processing unit 61 and a shape extraction unit 62.
2値化処理部61は、Y画像データ、Cb画像データ及びCr画像データの各データに対して2値化処理を実行する。まず、2値化処理部61は、Y画像データ、Cb画像データ、Cr画像データの各データから、各画素の平均輝度値Mと濃度値の標準偏差Bとを求める。そして、2値化処理部61は、求めた平均輝度値Mと濃度値の標準偏差Bとを用いて、2値化処理を行う際に用いる閾値Dを算出する。閾値Dは以下の(2)式から算出すればよい。 The binarization processing unit 61 performs binarization processing on each of the Y image data, Cb image data, and Cr image data. First, the binarization processing unit 61 obtains an average luminance value M and a standard deviation B of density values of each pixel from each data of Y image data, Cb image data, and Cr image data. Then, the binarization processing unit 61 calculates a threshold D used when the binarization process is performed using the obtained average luminance value M and the standard deviation B of the density values. The threshold value D may be calculated from the following equation (2).
[数2]
D=M+α×B ・・・(2)
ここで、係数αは、予め実験、統計などから求められる値である。以下、係数αとして、α1=1.6,α2=1,α3=−1.3を用いた場合を説明する。
[Equation 2]
D = M + α × B (2)
Here, the coefficient α is a value obtained in advance from experiments, statistics, and the like. Hereinafter, the case where α 1 = 1.6, α 2 = 1, α 3 = −1.3 is used as the coefficient α will be described.
2値化処理部61は、上述した(2)式を用いて、各画像データに対する2値化処理を実行する。図4は、Y画像、Cb画像及びCr画像のそれぞれに対して、上述した3種類の係数α1,α2,α3のそれぞれを用いて2値化処理を行った場合のサンプルを示す。ここで、サンプル1、サンプル2及びサンプル3に示す2値化画像は、Y画像、Cb画像及びCr画像に対して、係数α=α1(=1.6)に設定した2値化処理を実行した場合に得られる2値化画像である。また、サンプル4、サンプル5及びサンプル6に示す2値化画像は、Y画像、Cb画像及びCr画像に対して、係数α=α2(=1)に設定した2値化処理を実行した場合に得られる2値化画像である。さらに、サンプル7、サンプル8及びサンプル9に示す2値化画像は、Y画像、Cb画像及びCr画像に対して、係数α=α3(=−1.3)に設定した2値化処理を実行した場合に得られる2値化画像である。 The binarization processing unit 61 executes binarization processing on each image data using the above-described equation (2). FIG. 4 shows a sample when the binarization process is performed on each of the Y image, the Cb image, and the Cr image using each of the above-described three types of coefficients α 1 , α 2 , and α 3 . Here, the binarized images shown in Sample 1, Sample 2, and Sample 3 are binarized with a coefficient α = α 1 (= 1.6) for the Y image, Cb image, and Cr image. It is a binarized image obtained when executed. The binarized images shown in Sample 4, Sample 5 and Sample 6 are obtained when binarization processing with coefficient α = α 2 (= 1) is executed on the Y image, Cb image and Cr image. It is the binarized image obtained. Furthermore, the binarized images shown in Sample 7, Sample 8 and Sample 9 are binarized with a coefficient α = α 3 (= −1.3) for the Y image, Cb image and Cr image. It is a binarized image obtained when executed.
形状抽出部62は、取得された2値化画像に対してラベリング処理を行い、白画素のかたまりをラベリング領域として抽出する。以下、形状抽出部62よる抽出されるラベリング領域を島と称する。形状抽出部62は、抽出された島のうち、例えば2値化画像の総面積に対する総面積の面積比が60%以上となる島や、該面積比が1%以下となる島を除外する。また、形状抽出部62は、抽出された島のうち、画像の左端又は右端にかかる島を除外する。これら処理の後、形状抽出部62は、除外されていない残りの島を、被写体候補となる島として設定する。 The shape extraction unit 62 performs a labeling process on the acquired binarized image, and extracts a group of white pixels as a labeling region. Hereinafter, the labeling region extracted by the shape extraction unit 62 is referred to as an island. The shape extraction unit 62 excludes, for example, islands in which the area ratio of the total area to the total area of the binarized image is 60% or more and islands in which the area ratio is 1% or less among the extracted islands. In addition, the shape extraction unit 62 excludes the island at the left end or the right end of the image from the extracted islands. After these processes, the shape extraction unit 62 sets the remaining islands that are not excluded as islands that are subject candidates.
形状抽出部62は、被写体候補となる島が含まれる矩形の領域(以下、矩形領域)を島毎に求める。そして、形状抽出部62は、求めた矩形領域毎に、矩形領域に対して白画素が占める面積比(比率)と、矩形の領域における縦横比とを、被写体候補となる島を絞り込むための第1の評価値及び第2の評価値として求める。形状抽出部62は、算出した評価値を用いて被写体候補となる島に対する絞り込みを行う。この絞り込みの処理としては、第1の評価値が予め設定された閾値(例えば0.2)以下であるか否かを判定する処理と、第2の評価値が所定の範囲(例えば0.2以上5未満)に含まれるか否かを判定する処理とからなる。 The shape extraction unit 62 obtains a rectangular area (hereinafter referred to as a rectangular area) including islands that are subject candidates for each island. Then, the shape extraction unit 62 narrows down the islands that are subject candidates by the area ratio (ratio) occupied by white pixels with respect to the rectangular area and the aspect ratio in the rectangular area for each obtained rectangular area. Obtained as an evaluation value of 1 and a second evaluation value. The shape extraction unit 62 uses the calculated evaluation value to narrow down islands that are subject candidates. As the narrowing-down process, a process for determining whether or not the first evaluation value is equal to or less than a preset threshold value (for example, 0.2) and a second evaluation value for a predetermined range (for example, 0.2). And less than 5).
例えば、第1の評価値が予め設定された閾値以下であるか否かを判定する処理を行うことで、被写体として通常ありえない凹凸や、空洞部分がある島を被写体候補となる島から除外することができる。また、対象となる島毎に求めた第2の評価値が所定の範囲に含まれるか否かを判定する処理を行うことで、被写体としてあり得ない細長い島を被写体候補となる島から除外することができる。 For example, by performing a process of determining whether or not the first evaluation value is equal to or less than a preset threshold value, an island that has irregularities or cavities that are not normally possible as a subject is excluded from islands that are subject candidates. Can do. In addition, by performing a process of determining whether or not the second evaluation value obtained for each target island is included in a predetermined range, an elongated island that cannot be a subject is excluded from the subject candidate islands. be able to.
また、形状抽出部62は、被写体候補となる島を絞り込んだ後、被写体候補となる島の面積と、注目点推定部51において推定された注目点を中心とした慣性モーメントを算出する。ここで、慣性モーメントの算出方法については、公知のため詳細な説明を省略するが、例えば、注目点からの画素距離の2乗×(0または1)の和により算出することができる。 In addition, after narrowing down the islands that are subject candidates, the shape extracting unit 62 calculates the area of the island that is the subject candidate and the moment of inertia with the attention point estimated by the attention point estimation unit 51 as the center. Here, the method of calculating the moment of inertia is well known and will not be described in detail. For example, it can be calculated by the sum of the square of the pixel distance from the target point × (0 or 1).
形状抽出部62は、被写体候補となる島に対して、該島の面積を慣性モーメントで除算し、形状抽出用の評価値を算出する。そして、被写体候補となる島のうち、形状抽出用の評価値が最も大きい島を、被写体に該当する島として抽出する。 The shape extraction unit 62 calculates an evaluation value for shape extraction by dividing the area of the island as a subject candidate by the moment of inertia. Then, of the islands that are subject candidates, the island with the largest evaluation value for shape extraction is extracted as the island corresponding to the subject.
次に、被写体を抽出する処理の一実施態様について、図5のフローチャートに基づいて説明する。以下、ステップS102からステップS105までの処理が注目点を推定する処理となる。また、ステップS106からステップS111までの処理が被写体の形状を推定する処理となる。 Next, an embodiment of a process for extracting a subject will be described based on the flowchart of FIG. Hereinafter, the process from step S102 to step S105 is a process of estimating the attention point. The processing from step S106 to step S111 is processing for estimating the shape of the subject.
ステップS101は、Y画像データ、Cb画像データ及びCr画像データを生成する処理である。データ生成部50は、入力されたYCbCr画像データを用いて、Y画像データ、Cb画像データ及びCr画像データを生成する。そして、データ生成部50は、生成した画像データのうち、Y画像データを注目点推定部51に出力する。同時に、データ生成部50は、Y画像データ、Cb画像データ及びCr画像データを被写体推定部52に出力する。 Step S101 is processing for generating Y image data, Cb image data, and Cr image data. The data generation unit 50 generates Y image data, Cb image data, and Cr image data using the input YCbCr image data. Then, the data generation unit 50 outputs Y image data among the generated image data to the attention point estimation unit 51. At the same time, the data generation unit 50 outputs Y image data, Cb image data, and Cr image data to the subject estimation unit 52.
ステップS102は、ガボールマップを生成する処理である。フィルタ処理部55は、入力されたY画像データに対してガボール関数を用いたフィルタ処理を実行する。詳細には、Y画像データに対して上述した(1)式で示すガボール関数の縞模様を複数の方向から画像と畳み込みし、その演算結果を加算する(畳み込み和の算出)。ここで、2方向とは、(1)式において、θ=45°,135°の方向を指す。畳み込み和を算出する処理を全画素について行うことで、入力されるY画像データに基づくガボールマップが生成される(図3(b)参照)。 Step S102 is processing for generating a Gabor map. The filter processing unit 55 performs filter processing using a Gabor function on the input Y image data. More specifically, the Gabor function stripe pattern represented by the above-described equation (1) is convolved with the image from a plurality of directions with respect to the Y image data, and the calculation results are added (calculation of the convolution sum). Here, the two directions refer to directions of θ = 45 ° and 135 ° in the equation (1). A Gabor map based on the input Y image data is generated by performing the process of calculating the convolution sum for all the pixels (see FIG. 3B).
ステップS103は、ガボールマップを2値化する処理である。2値化処理部56は、生成されたガボールマップに対して閾値Aを用いた2値化処理を実行する。 Step S103 is a process for binarizing the Gabor map. The binarization processing unit 56 executes binarization processing using the threshold A on the generated Gabor map.
ステップS104は、2値化処理されたガボールマップに含まれる重心の座標を算出する処理である。位置算出部57は、2値化処理されたガボールマップに含まれる白画素のそれぞれの座標を用いて、白画素の重心となる位置の座標を求める。この処理の後、位置算出部57は、求めた白画素の重心の座標データを、推定される注目点の座標データとして被写体推定部52に出力する。 Step S104 is a process of calculating the coordinates of the center of gravity included in the binarized Gabor map. The position calculation unit 57 uses the coordinates of the white pixels included in the binarized Gabor map to determine the coordinates of the position that is the center of gravity of the white pixels. After this processing, the position calculation unit 57 outputs the obtained coordinate data of the center of gravity of the white pixel to the subject estimation unit 52 as the coordinate data of the estimated point of interest.
ステップS105は、Y画像データ、Cb画像データ及びCr画像データに対する2値化処理を行う処理である。上述したように、被写体推定部52には、Y画像データ、Cb画像データ及びCr画像データが入力される。まず、2値化処理部61は、入力されるY画像データ、Cb画像データ及びCr画像データの平均輝度値M及び濃度値の標準偏差Bを求める。そして、2値化処理部61は、求めた平均輝度値M及び濃度値の標準偏差Bと、2)式とを用いて閾値Dを求める。ここで、係数αとして、例えばα1=+1.6,α2=1,α3=−1.3の値が用いられる。そして、2値化処理部61は、求めた閾値Dを用いて各画像データを2値化処理する。これにより、2値化画像データが複数生成される。 Step S105 is a process of performing binarization processing on the Y image data, Cb image data, and Cr image data. As described above, the subject image estimation unit 52 receives Y image data, Cb image data, and Cr image data. First, the binarization processing unit 61 obtains an average luminance value M and a standard deviation B of density values of input Y image data, Cb image data, and Cr image data. Then, the binarization processing unit 61 obtains the threshold value D by using the obtained average luminance value M and standard deviation B of the density value and the expression 2). Here, as the coefficient α, for example, values of α 1 = + 1.6, α 2 = 1, α 3 = −1.3 are used. Then, the binarization processing unit 61 binarizes each image data using the obtained threshold value D. Thereby, a plurality of binarized image data is generated.
ステップS106は、ラベリング処理である。形状抽出部62は、2値化画像データのそれぞれに対してラベリング処理を行う。このラベリング処理により、複数の島が抽出される。形状抽出部62は、抽出された複数の島のうち、例えば2値化画像の総面積に対する面積比が60%以上となる島、又は該面積比が1%以下となる島を除外する。さらに、形状抽出部62は、2値化画像の左端、又は右端にかかる島を除外する。そして、形状抽出部62は、除外されていない残りの島を被写体候補となる島として設定する。 Step S106 is a labeling process. The shape extraction unit 62 performs a labeling process on each of the binarized image data. A plurality of islands are extracted by this labeling process. The shape extraction unit 62 excludes, for example, an island having an area ratio of 60% or more with respect to the total area of the binarized image or an island having an area ratio of 1% or less from among the extracted islands. Further, the shape extraction unit 62 excludes the island at the left end or the right end of the binarized image. Then, the shape extraction unit 62 sets the remaining islands that are not excluded as islands that are subject candidates.
ステップS107は、第1及び第2の評価値を算出する処理である。形状抽出部62は、被写体候補となる島のそれぞれに対して、該島が含まれる矩形の領域を求める。次に、形状抽出部62は、求めた矩形の領域毎に、矩形の領域に対して白画素が占める比率(第1の評価値)と、矩形の領域の縦横比(第2の評価値)とを求める。 Step S107 is processing to calculate the first and second evaluation values. The shape extraction unit 62 obtains a rectangular area including the island for each of the islands that are subject candidates. Next, the shape extraction unit 62 determines, for each obtained rectangular area, the ratio of the white pixels to the rectangular area (first evaluation value) and the aspect ratio of the rectangular area (second evaluation value). And ask.
ステップS108は、第1及び第2の評価値を用いて被写体候補となる島を絞り込む処理である。まず、形状抽出部62は、被写体候補となる島毎に求めた第1の評価値が、予め設定された閾値(例えば0.2)以下であるか否かを判定する。そして、形状抽出部62は、第1の評価値が閾値以下となる島を被写体候補となる島から除外する。 Step S108 is processing to narrow down islands that are subject candidates using the first and second evaluation values. First, the shape extraction unit 62 determines whether or not the first evaluation value obtained for each island that is a subject candidate is equal to or less than a preset threshold value (for example, 0.2). Then, the shape extraction unit 62 excludes islands whose first evaluation value is equal to or less than the threshold from the islands that are subject candidates.
次に、形状抽出部62は、除外された島を除く被写体候補となる島に対する第2の評価値が所定の範囲(例えば0.2以上5未満)に含まれるか否かを判定する。そして、形状抽出部62は、第2の評価値が所定の範囲に含まれる島を被写体候補となる島から除外する。このステップS108の処理を行うことで、被写体候補となる島が絞り込まれる。 Next, the shape extraction unit 62 determines whether or not the second evaluation value for an island that is a subject candidate excluding the excluded island is included in a predetermined range (for example, 0.2 or more and less than 5). Then, the shape extraction unit 62 excludes islands whose second evaluation values are included in a predetermined range from islands that are subject candidates. By performing the processing in step S108, islands that are subject candidates are narrowed down.
ステップS109は、被写体候補となる島の面積及び慣性モーメントを算出する処理である。形状抽出部62は、ステップS108の処理により絞り込まれた被写体候補となる島の面積を求める。また、形状抽出部62は、該被写体候補となる島が検出された2値化画像データを用いて慣性モーメントを求める。ここで、ステップS104にて求めた重心の座標データは、注目点の座標データとして、被写体推定部52に入力される。形状抽出部62は、注目点の座標データを用いて、島の慣性モーメントを求める。 Step S109 is processing for calculating the area and moment of inertia of the island that is the subject candidate. The shape extraction unit 62 obtains the area of islands that are subject candidates narrowed down by the processing in step S108. Further, the shape extraction unit 62 obtains the moment of inertia using the binarized image data in which the island that is the subject candidate is detected. Here, the coordinate data of the center of gravity obtained in step S104 is input to the subject estimation unit 52 as the coordinate data of the point of interest. The shape extraction unit 62 obtains the inertia moment of the island using the coordinate data of the target point.
ステップS110は、形状抽出用の評価値を求める処理である。形状抽出部62は、ステップS109にて求めた島の面積及び島の慣性モーメントを用いて、形状抽出用の評価値を算出する。具体的には、形状抽出部62は、島の面積を島の慣性モーメントで除算することで、形状推定用の評価値を求める。 Step S110 is processing for obtaining an evaluation value for shape extraction. The shape extraction unit 62 calculates an evaluation value for shape extraction using the island area and the inertia moment of the island obtained in step S109. Specifically, the shape extraction unit 62 calculates an evaluation value for shape estimation by dividing the area of the island by the inertia moment of the island.
ステップS111は、形状を抽出する処理である。形状抽出部62は、被写体候補となる島のうち、ステップS110にて求めた形状抽出用の評価値が最大となる島を被写体の領域であると推定し、該島の形状を被写体の形状として抽出する。 Step S111 is processing for extracting a shape. The shape extraction unit 62 estimates the island having the maximum shape extraction evaluation value obtained in step S110 among the islands that are subject candidates as the subject region, and uses the island shape as the subject shape. Extract.
図4に示すように、例えばY画像、Cb画像、Cr画像に対して異なる閾値を用いて2値化処理を施した2値化画像のそれぞれにおいては、ラベリング領域が1以上検出される。ここで、上述したステップS106〜ステップS109の処理を行うことで、被写体候補となる島が存在する2値化画像はサンプル1及びサンプル3の2値化画像となる(図6参照)。図6において、サンプル1の2値化画像に示す符号70、及びサンプル3の2値化画像に示す符号71が、それぞれ被写体候補となる島である。各2値化画像において、印「×」が注目点推定部51により求めた注目点となる。ここで、慣性モーメントは、例えば注目点から離れるほど値が大きくなる。つまり、形状抽出用の評価値は、慣性モーメントが大きくなればなるほど、その値は小さくなる。よって、図6の場合には、サンプル1の2値化画像に含まれる島70の評価値よりも、サンプル3の2値化画像に含まれる島71に対する評価値が大きくなる。よって、サンプル3の2値化画像に含まれる島71の形状が被写体の形状として抽出される。これにより、被写体の位置の推定や、被写体の形状の抽出に対する精度を高めることが可能となる。 As illustrated in FIG. 4, for example, one or more labeling regions are detected in each of the binarized images obtained by binarizing the Y image, the Cb image, and the Cr image using different threshold values. Here, by performing the above-described processing of step S106 to step S109, the binarized image in which the island as the subject candidate exists becomes the binarized image of the sample 1 and the sample 3 (see FIG. 6). In FIG. 6, reference numeral 70 shown in the binarized image of sample 1 and reference numeral 71 shown in the binarized image of sample 3 are islands that are subject candidates. In each binarized image, the mark “×” is the attention point obtained by the attention point estimation unit 51. Here, the value of the moment of inertia increases as the distance from the attention point increases, for example. That is, the evaluation value for shape extraction decreases as the moment of inertia increases. Therefore, in the case of FIG. 6, the evaluation value for the island 71 included in the binarized image of the sample 3 is larger than the evaluation value of the island 70 included in the binarized image of the sample 1. Therefore, the shape of the island 71 included in the binary image of the sample 3 is extracted as the shape of the subject. As a result, it is possible to improve the accuracy with respect to estimation of the position of the subject and extraction of the shape of the subject.
なお、形状抽出部62により抽出した被写体に係る情報(被写体情報)は、CPU30に出力される。CPU30は、この被写体情報に基づいてAF領域を設定し、AF処理を実行する。つまり、図7に示す枠72の領域をAF領域とするAF処理が実行される。 Information relating to the subject (subject information) extracted by the shape extraction unit 62 is output to the CPU 30. The CPU 30 sets an AF area based on the subject information and executes AF processing. That is, an AF process is performed in which the area of the frame 72 shown in FIG.
このように、被写体推定部52は、ガボールマップを用いて被写体の位置を推定した後、画像から得られる白画素の固まり(島)の大きさと、この推定された位置を中心とした島の慣性モーメントとを用いた評価値で、被写体の形状を評価している。このような方法を用いることで、例えば被写体の位置がわからない場合であっても、被写体の概略位置を推定することができ、その結果、画像に含まれる被写体の位置や形状を推定することが可能となる。 In this way, the subject estimation unit 52 estimates the position of the subject using the Gabor map, and then the size of the white pixel clusters (islands) obtained from the image and the inertia of the island centered on the estimated position. The shape of the subject is evaluated by an evaluation value using the moment. By using such a method, for example, even when the position of the subject is unknown, the approximate position of the subject can be estimated, and as a result, the position and shape of the subject included in the image can be estimated. It becomes.
本実施形態では、注目点を推定する処理が行われた後、被写体を推定する処理を行う構成としているが、これに限定される必要はなく、例えば注目点を推定する処理と被写体の形状を推定する処理とを並行して行うことも可能である。 In the present embodiment, the processing for estimating the subject is performed after the processing for estimating the attention point is performed. However, the present invention is not limited to this. For example, the processing for estimating the attention point and the shape of the subject are performed. It is also possible to perform the estimation process in parallel.
また、この他に、被写体の形状を推定する処理を行った後、注目点を推定する処理を行うことも可能である。この場合、被写体推定部52は、例えば画像データの中心や、顔検出処理を行うことで得られる被写体の顔の領域の中心を用いて、被写体候補となる島に対する評価を行う。この評価と、注目点推定部51にて求めた注目点の座標データを用いて、求めた評価値に対する再評価を行い、再評価の結果が最も高くなる島を、被写体として特定する。 In addition to this, it is also possible to perform the process of estimating the point of interest after performing the process of estimating the shape of the subject. In this case, the subject estimation unit 52 evaluates an island that is a subject candidate using, for example, the center of the image data or the center of the face area of the subject obtained by performing face detection processing. Using this evaluation and the coordinate data of the attention point obtained by the attention point estimation unit 51, the obtained evaluation value is re-evaluated, and the island having the highest re-evaluation result is identified as the subject.
本実施形態では、被写体特定回路23に入力される画像データの画像サイズについては、詳細を記載していないが、画像処理部21にて実行される画像処理の後に、解像度変換処理を行うことで画像サイズを縮小した画像データであることが好ましい。 In the present embodiment, the details of the image size of the image data input to the subject specifying circuit 23 are not described, but by performing resolution conversion processing after image processing executed by the image processing unit 21. It is preferable that the image data has a reduced image size.
本実施形態では、被写体特定回路23における被写体を特定する処理を実行するタイミングについては、特に詳細を述べていないが、撮影待機状態に移行した直後に得られるスルー画像データに対して上述した被写体を特定する処理を行い、その後得られるスルー画像データに対しては、特定されている被写体の位置、形状及び大きさを用いたテンプレートマッチングを行ってもよいし、生成されるスルー画像データのそれぞれを用いて被写体を特定することも可能である。また、この他に、撮影により得られた画像データに対して被写体を特定する処理を行ってもよい。この場合には、被写体を特定した結果を画像分類などの処理に用いることができる。 In this embodiment, the timing for executing the process of specifying the subject in the subject specifying circuit 23 is not described in detail, but the above-described subject is applied to the through image data obtained immediately after shifting to the shooting standby state. For the through image data obtained by performing the specifying process, template matching using the position, shape, and size of the specified subject may be performed, or each of the generated through image data is processed. It is also possible to specify the subject by using. In addition to this, processing for specifying a subject may be performed on image data obtained by photographing. In this case, the result of specifying the subject can be used for processing such as image classification.
本実施形態では、撮像装置の例を取り上げているが、これに限定される必要はなく、例えば図2の構成や、図5のフローチャートを実行することが可能な画像処理装置であってもよい。また、この他に、図2に示す機能や、図5のフローチャートの処理をコンピュータに実行させることが可能な被写体特定プログラムであってもよい。この場合、被写体特定プログラムは、不揮発性メモリからなるメモリカード、光学ディスク、磁気ディスク、HDDなど、コンピュータが認識することが可能な記憶媒体に記憶されていることが好ましい。 In the present embodiment, an example of an imaging device is taken up. However, the present invention is not limited to this, and may be an image processing device that can execute the configuration of FIG. 2 or the flowchart of FIG. . In addition to this, a subject specifying program that can cause a computer to execute the function shown in FIG. 2 or the processing of the flowchart of FIG. 5 may be used. In this case, the subject specifying program is preferably stored in a storage medium that can be recognized by the computer, such as a memory card including a nonvolatile memory, an optical disk, a magnetic disk, and an HDD.
10…撮像装置、21…画像処理回路、23…被写体特定回路、51…注目点推定部、52…被写体推定部、55…フィルタ処理部、56,61…2値化処理部、57…位置算出部、62…形状抽出部 DESCRIPTION OF SYMBOLS 10 ... Imaging device, 21 ... Image processing circuit, 23 ... Subject specific circuit, 51 ... Attention point estimation part, 52 ... Subject estimation part, 55 ... Filter processing part, 56, 61 ... Binarization processing part, 57 ... Position calculation 62, shape extraction unit
Claims (10)
前記第1画像の輝度情報及び色情報のいずれかを用いて生成される複数の第2画像に対して2値化処理を行い、複数の2値化画像を生成する2値化処理部と、
推定された前記注目点の位置と複数の前記2値化画像とから、前記第1画像に含まれる被写体を推定する被写体推定部と、
を備えたことを特徴とする被写体特定装置。 A position estimation unit that estimates a position of a point of interest in the first image using a saliency map generated based on a feature amount of the input first image;
A binarization processing unit that performs binarization processing on a plurality of second images generated using either the luminance information or the color information of the first image, and generates a plurality of binarized images;
A subject estimation unit that estimates a subject included in the first image from the estimated position of the target point and the plurality of binarized images;
A subject identification device comprising:
前記位置推定部は、前記第1画像に含まれる画素のうち、前記顕著性マップにおける特徴量が第1閾値以上となる画素を抽出し、抽出された前記特徴量が第1閾値以上となる画素の重心の位置を、前記注目点の位置として推定することを特徴とする被写体特定装置。 The subject specifying device according to claim 1,
The position estimation unit extracts a pixel whose feature amount in the saliency map is equal to or greater than a first threshold from among pixels included in the first image, and the extracted feature amount is equal to or greater than a first threshold. A subject identification device that estimates the position of the center of gravity as the position of the attention point.
前記第1画像に対して異なる方向に複数の方向選択性フィルタを適用し、前記複数の方向選択性フィルタを適応した結果を加算することで、前記顕著性マップを生成するフィルタ処理部を備えていることを特徴とする被写体特定装置。 The subject specifying device according to claim 1 or 2,
A filter processing unit that generates a saliency map by applying a plurality of direction selectivity filters in different directions to the first image and adding the results obtained by applying the plurality of direction selectivity filters; A subject specifying device.
前記方向選択性フィルタは、ガボールフィルタからなることを特徴とする画像処理装置。 The subject specifying device according to claim 3,
The image processing apparatus according to claim 1, wherein the direction selective filter is a Gabor filter.
前記被写体推定部は、前記2値化画像に含まれる白画素で構成される白画素領域のうち、前記白画素領域を含む矩形の面積に対する前記白画素領域の面積の比が第2閾値以下となる白画素領域を、前記被写体を推定する候補となる白画素領域から除外することを特徴とする被写体特定装置。 The subject specifying device according to claim 1,
The subject estimation unit has a ratio of an area of the white pixel region to a rectangular area including the white pixel region out of a white pixel region including white pixels included in the binarized image is equal to or less than a second threshold value. The white pixel region is excluded from white pixel regions that are candidates for estimating the subject.
前記被写体推定部は、前記2値化画像に含まれる白画素で構成される白画素領域のうち、前記白画素領域を含む矩形の縦横比が所定範囲内に含まれる白画素領域を、前記被写体を推定する候補となる白画素領域から除外することを特徴とする被写体特定装置。 The subject specifying device according to claim 1,
The subject estimation unit includes a white pixel region including a white pixel region that includes white pixels included in the binarized image and includes a white pixel region that includes a rectangular aspect ratio that includes the white pixel region within a predetermined range. Is excluded from a white pixel region that is a candidate for estimating the subject.
前記被写体推定部は、前記被写体を推定する候補となる白画素領域及び前記注目点の位置とを用いて評価値を算出し、算出された評価値が大きい白画素領域を、前記被写体の領域として推定することを特徴とする被写体特定装置。 In the subject specifying device according to claim 5 or 6,
The subject estimation unit calculates an evaluation value using a white pixel region that is a candidate for estimating the subject and the position of the attention point, and a white pixel region having a large calculated evaluation value is used as the subject region. A subject specifying device characterized by estimating.
取り込まれた被写体光に基づく画像信号を出力する撮像素子と、
前記撮像素子から出力される画像信号に基づく画像が第1画像として入力される、請求項1から請求項7のいずれか1項に記載の被写体特定装置と、
前記被写体特定装置において推定された被写体を含む領域を用いて、前記撮像光学系の焦点調節制御を実行する制御部と、
を備えたことを特徴とする撮像装置。 An imaging optical system that captures subject light;
An image sensor that outputs an image signal based on the captured subject light;
The subject specifying device according to any one of claims 1 to 7, wherein an image based on an image signal output from the imaging device is input as a first image.
A control unit that performs focus adjustment control of the imaging optical system using a region including the subject estimated in the subject identifying device;
An imaging apparatus comprising:
前記第1画像の輝度情報及び色情報に基づいて生成される複数の第2画像を、前記輝度情報及び前記色情報により2値化処理し、複数の2値化画像を生成する2値化手順と、
推定された前記注目点の位置と複数の前記2値化画像とから、前記第1画像に含まれる被写体を推定する被写体推定手順と、
を備えたことを特徴とする被写体特定方法。 A position estimation procedure for estimating the position of the point of interest in the first image using a saliency map generated based on the input feature quantity of the first image;
A binarization procedure for generating a plurality of binarized images by binarizing a plurality of second images generated based on the luminance information and color information of the first image using the luminance information and the color information. When,
A subject estimation procedure for estimating a subject included in the first image from the estimated position of the attention point and the plurality of binarized images;
A method for identifying a subject characterized by comprising:
前記第1画像の輝度情報及び色情報に基づいて生成される複数の第2画像を、前記輝度情報及び前記色情報により2値化処理し、複数の2値化画像を生成する2値化手順と、
推定された前記注目点の位置と複数の前記2値化画像とから、前記第1画像に含まれる被写体を推定する被写体推定手順と、
を、コンピュータに実行させるための被写体特定プログラム。 A position estimation procedure for estimating the position of the point of interest in the first image using a saliency map generated based on the input feature quantity of the first image;
A binarization procedure for generating a plurality of binarized images by binarizing a plurality of second images generated based on the luminance information and color information of the first image using the luminance information and the color information. When,
A subject estimation procedure for estimating a subject included in the first image from the estimated position of the attention point and the plurality of binarized images;
Is a subject specifying program for causing a computer to execute.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013113855A JP2014232477A (en) | 2013-05-30 | 2013-05-30 | Subject specifying device, imaging device, subject specifying method, and subject specifying program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013113855A JP2014232477A (en) | 2013-05-30 | 2013-05-30 | Subject specifying device, imaging device, subject specifying method, and subject specifying program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2014232477A true JP2014232477A (en) | 2014-12-11 |
Family
ID=52125802
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013113855A Pending JP2014232477A (en) | 2013-05-30 | 2013-05-30 | Subject specifying device, imaging device, subject specifying method, and subject specifying program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2014232477A (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019050007A (en) * | 2018-11-01 | 2019-03-28 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Method and device for determining position of mobile body and computer readable medium |
| US10599149B2 (en) | 2015-10-09 | 2020-03-24 | SZ DJI Technology Co., Ltd. | Salient feature based vehicle positioning |
| JP2021026526A (en) * | 2019-08-06 | 2021-02-22 | 凸版印刷株式会社 | Display control device, display control method and program |
-
2013
- 2013-05-30 JP JP2013113855A patent/JP2014232477A/en active Pending
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10599149B2 (en) | 2015-10-09 | 2020-03-24 | SZ DJI Technology Co., Ltd. | Salient feature based vehicle positioning |
| JP2019050007A (en) * | 2018-11-01 | 2019-03-28 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Method and device for determining position of mobile body and computer readable medium |
| JP2021026526A (en) * | 2019-08-06 | 2021-02-22 | 凸版印刷株式会社 | Display control device, display control method and program |
| JP7287172B2 (en) | 2019-08-06 | 2023-06-06 | 凸版印刷株式会社 | Display control device, display control method, and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN108537112B (en) | Image processing apparatus, image processing system, image processing method, and storage medium | |
| US9607240B2 (en) | Image processing apparatus, image capturing apparatus, image processing method, image capturing method, and non-transitory computer-readable medium for focus bracketing | |
| CN101650783B (en) | Image identification method and imaging apparatus | |
| EP1984892B1 (en) | Foreground/background segmentation in digital images | |
| US8213737B2 (en) | Digital image enhancement with reference images | |
| KR20230110618A (en) | Image correction method, device and system, electronic device | |
| TWI441095B (en) | Distance evaluation methods and apparatuses, and machine readable medium thereof | |
| US20170154424A1 (en) | Position detection device, position detection method, and storage medium | |
| US20170111576A1 (en) | Image processing apparatus, method, and medium for extracting feature amount of image | |
| WO2007125866A1 (en) | Object extracting method, object pursuing method, image synthesizing method, computer program for extracting object, computer program for pursuing object, computer program for synthesizing images, object extracting device, object pursuing device, and image synthesizing device | |
| CN106469455B (en) | Image processing method, image processing apparatus, and recording medium | |
| CN102006485B (en) | Image processing apparatus and image processing method | |
| CN104063709B (en) | Sight line detector and method, image capture apparatus and its control method | |
| TW201432620A (en) | Image processor with edge selection functionality | |
| CN113822942A (en) | Method for measuring object size by monocular camera based on two-dimensional code | |
| CN107491744A (en) | Human body personal identification method, device, mobile terminal and storage medium | |
| WO2019078310A1 (en) | Three-dimensional face shape derivation device, three-dimensional face shape deriving method, and non-transitory computer readable medium | |
| US20160093064A1 (en) | Image processing apparatus, image processing method, and storage medium | |
| US20100182495A1 (en) | Focusing measurement device, focusing measurement method, and program | |
| US8582813B2 (en) | Object detection device which detects object based on similarities in different frame images, and object detection method and computer-readable medium recording program | |
| JP2014232477A (en) | Subject specifying device, imaging device, subject specifying method, and subject specifying program | |
| KR101726692B1 (en) | Apparatus and method for extracting object | |
| JP2017016592A (en) | Main subject detection device, main subject detection method and program | |
| JP6221283B2 (en) | Image processing apparatus, image processing method, and image processing program | |
| US8675958B2 (en) | Subject determination method, computer program product for determining subject, and camera |