JP2011147076A - Image processing apparatus, image capturing apparatus and program - Google Patents

Image processing apparatus, image capturing apparatus and program Download PDF

Info

Publication number
JP2011147076A
JP2011147076A JP2010008251A JP2010008251A JP2011147076A JP 2011147076 A JP2011147076 A JP 2011147076A JP 2010008251 A JP2010008251 A JP 2010008251A JP 2010008251 A JP2010008251 A JP 2010008251A JP 2011147076 A JP2011147076 A JP 2011147076A
Authority
JP
Japan
Prior art keywords
image
processing apparatus
captured image
pixel
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010008251A
Other languages
Japanese (ja)
Inventor
Tsukasa Murata
司 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010008251A priority Critical patent/JP2011147076A/en
Publication of JP2011147076A publication Critical patent/JP2011147076A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a means for more promptly making an accurate focusing determination. <P>SOLUTION: An image processing apparatus includes an image acquisition part for acquiring a color captured image; a first feature amount acquisition part, an area setting part, a second feature amount acquisition part, and an edge amount detecting part. The first feature amount acquisition part uses a plurality of color information items of the captured image to determine a first feature amount at each position of the captured image, respectively. The area setting part uses first feature amount distribution information indicating the distribution of the first feature amounts in the capture image to determine a detection area to detect an edge amount in the captured image. The second feature amount acquisition part uses a plurality of color information items of the captured image to determine a second feature amount, different from the first feature amount, at each position of the captured image, respectively. The edge amount detecting part uses second feature amount distribution information indicating the distribution of the second feature amounts in the captured image to detect an edge amount at each position in the detection area. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像処理装置、撮像装置およびプログラムに関する。   The present invention relates to an image processing device, an imaging device, and a program.

従来から、画像の輝度値等から求まる被写体のコントラスト値を用いて、撮像装置で取得した画像の合焦評価を行う技術が公知である。   2. Description of the Related Art Conventionally, a technique for performing in-focus evaluation of an image acquired by an imaging device using a subject contrast value obtained from an image brightness value or the like is known.

一例として、特許文献1には、高輝度の点光源周りに生じる偽エッジの影響を抑制するために、輝度値を用いて画像内の飽和領域を抽出し、飽和領域以外でコントラスト値を求めて合焦判定を行う技術が開示されている。なお、特許文献1の例では、画像全体の輝度値から撮影シーンの分類を実行し、該分類結果に応じたモード(夜景モードや通常モード等)により合焦判定方法を変化させている。   As an example, in Patent Document 1, in order to suppress the influence of a false edge generated around a high-luminance point light source, a saturation region in an image is extracted using a luminance value, and a contrast value is obtained in a region other than the saturation region. A technique for performing in-focus determination is disclosed. In the example of Patent Document 1, the classification of the shooting scene is executed from the luminance value of the entire image, and the focus determination method is changed depending on the mode (night view mode, normal mode, etc.) according to the classification result.

特開2003−262783号公報Japanese Patent Laid-Open No. 2003-262833

ところで、上記の従来技術では、合焦判定全体での演算負荷が非常に大きくなり、精度の高い合焦判定を迅速に行うことが困難である点で改善の余地があった。   By the way, in the above-described conventional technology, there is room for improvement in that it is difficult to quickly perform highly accurate focus determination because the calculation load of the entire focus determination becomes very large.

そこで、本発明は、精度の高い合焦判定をより迅速に実行するための手段を提供することを目的とする。   Therefore, an object of the present invention is to provide means for more quickly executing a focus determination with high accuracy.

一の態様の画像処理装置は、カラーの撮影画像を取得する画像取得部と、第1特徴量取得部と、領域設定部と、第2特徴量取得部と、エッジ量検出部とを備える。第1特徴量取得部は、撮影画像の複数の色情報を用いて、撮影画像の各位置で第1特徴量をそれぞれ求める。領域設定部は、撮影画像での第1特徴量の分布を示す第1特徴量分布情報を用いて、撮影画像のうちでエッジ量を検出する検出領域を設定する。第2特徴量取得部は、撮影画像の複数の色情報を用いて、撮影画像の各位置で第1特徴量と異なる第2特徴量をそれぞれ求める。エッジ量検出部は、撮影画像での第2特徴量の分布を示す第2特徴量分布情報を用いて、検出領域内の各位置でエッジ量を検出する。   An image processing apparatus according to one aspect includes an image acquisition unit that acquires a color captured image, a first feature amount acquisition unit, a region setting unit, a second feature amount acquisition unit, and an edge amount detection unit. The first feature amount acquisition unit obtains a first feature amount at each position of the captured image using a plurality of pieces of color information of the captured image. The region setting unit sets a detection region for detecting an edge amount in the captured image, using the first feature amount distribution information indicating the distribution of the first feature amount in the captured image. The second feature quantity acquisition unit obtains a second feature quantity different from the first feature quantity at each position of the photographed image using a plurality of pieces of color information of the photographed image. The edge amount detection unit detects the edge amount at each position in the detection region using the second feature amount distribution information indicating the distribution of the second feature amount in the captured image.

上記の一の態様において、第2特徴量取得部は、撮影画像の各位置で、各々が異なる色成分に対応する複数の画素値のうち最小の画素値から第2特徴量を求めてもよい。   In the above aspect, the second feature amount acquisition unit may obtain the second feature amount from the minimum pixel value among a plurality of pixel values corresponding to different color components at each position of the captured image. .

上記の一の態様において、第1特徴量取得部は、撮影画像の各位置で、各々が異なる色成分に対応する複数の画素値のうち最大の画素値から第1特徴量を求めてもよい。   In the one aspect described above, the first feature quantity acquisition unit may obtain the first feature quantity from the maximum pixel value among a plurality of pixel values corresponding to different color components at each position of the captured image. .

上記の一の態様において、画像取得部は、各画素が単色の情報を有する色補間前の画像に対して画素加算処理を施し、各画素が複数色の情報を有する前記撮影画像を取得してもよい。   In the one aspect, the image acquisition unit performs pixel addition processing on an image before color interpolation in which each pixel has single color information, and acquires the captured image in which each pixel has information on multiple colors. Also good.

上記の一の態様の画像処理装置は、エッジ量検出部が検出したエッジ量に基づいて、撮影画像の合焦位置を求める合焦演算部をさらに備えていてもよい。   The image processing apparatus according to the one aspect may further include a focus calculation unit that obtains a focus position of the captured image based on the edge amount detected by the edge amount detection unit.

また、上記の画像処理装置を含む撮像装置や、コンピュータを上記の一の態様の画像処理装置として動作させるプログラムや、上記プログラムを記憶した記憶媒体や、上記の一の態様での画像処理装置の動作を方法のカテゴリで表現した態様も、本発明の具体的態様として有効である。   In addition, an imaging apparatus including the above-described image processing apparatus, a program that causes a computer to operate as the image processing apparatus according to the one aspect, a storage medium that stores the program, and an image processing apparatus according to the one aspect An aspect in which the operation is expressed by a method category is also effective as a specific aspect of the present invention.

本発明の一の態様では、複数の色情報に基づく第1特徴量を用いて撮影画像の検出領域を設定し、第1特徴量と異なる第2特徴量を用いて検出領域からエッジ量を検出することで、精度の高い合焦判定をより迅速に実行できる。   In one aspect of the present invention, a detection region of a captured image is set using a first feature amount based on a plurality of color information, and an edge amount is detected from the detection region using a second feature amount different from the first feature amount. By doing so, a highly accurate focus determination can be performed more quickly.

一の実施形態に係る画像処理装置の構成例を示すブロック図1 is a block diagram illustrating a configuration example of an image processing apparatus according to an embodiment. 一の実施形態におけるピント評価処理の動作例を示す流れ図The flowchart which shows the operation example of the focus evaluation process in one Embodiment 撮影画像の一例を示す図The figure which shows an example of the photographed image 図3の撮影画像に対応する有効エリアマップの例を示す図The figure which shows the example of the effective area map corresponding to the picked-up image of FIG. 他の実施形態における電子カメラの構成例を示すブロック図The block diagram which shows the structural example of the electronic camera in other embodiment. 他の実施形態の電子カメラにおける撮影モードでの動作例を示す流れ図The flowchart which shows the operation example in imaging | photography mode in the electronic camera of other embodiment

<一の実施態様の説明>
図1は、一の実施形態に係る画像処理装置の構成例を示すブロック図である。一の実施形態の画像処理装置は、画像処理プログラムがインストールされたパーソナルコンピュータである。この画像処理装置を構成するコンピュータは、画像処理プログラムの実行によって、電子カメラなどの撮像装置で生成された画像ファイルを読み込むとともに、この画像ファイルの撮影画像のピント評価処理を行う。
<Description of one embodiment>
FIG. 1 is a block diagram illustrating a configuration example of an image processing apparatus according to an embodiment. The image processing apparatus according to one embodiment is a personal computer in which an image processing program is installed. A computer constituting the image processing apparatus reads an image file generated by an imaging apparatus such as an electronic camera by executing an image processing program, and performs a focus evaluation process on a captured image of the image file.

ここで、一の実施形態で処理対象となる画像ファイルは、例えばExif(Exchangeable image file format for digital still cameras)規格に準拠したファイル形式で生成される。そして、一の実施形態で処理対象となる画像ファイルには、撮像装置で撮影されたカラーの撮影画像と、この撮影画像に関する撮影情報(オートフォーカス(AF)による焦点検出エリアの位置情報など)とが対応付けされて記憶されている。   Here, the image file to be processed in one embodiment is generated in a file format conforming to, for example, the Exif (Exchangeable image file format for digital still cameras) standard. In the image file to be processed in one embodiment, a color photographed image photographed by the imaging device, photographing information related to the photographed image (position information of a focus detection area by autofocus (AF), and the like) Are stored in association with each other.

図1に示すコンピュータ11は、データ読込部12、記憶装置13、CPU14、メモリ15および入出力I/F16、バス17を有している。データ読込部12、記憶装置13、CPU14、メモリ15および入出力I/F16は、バス17を介して相互に接続されている。さらに、コンピュータ11には、入出力I/F16を介して、入力デバイス18(キーボード、ポインティングデバイスなど)とモニタ19とがそれぞれ接続されている。なお、入出力I/F16は、入力デバイス18からの各種入力を受け付けるとともに、モニタ19に対して表示用のデータを出力する。   A computer 11 illustrated in FIG. 1 includes a data reading unit 12, a storage device 13, a CPU 14, a memory 15, an input / output I / F 16, and a bus 17. The data reading unit 12, the storage device 13, the CPU 14, the memory 15, and the input / output I / F 16 are connected to each other via a bus 17. Further, an input device 18 (keyboard, pointing device, etc.) and a monitor 19 are connected to the computer 11 via an input / output I / F 16. The input / output I / F 16 receives various inputs from the input device 18 and outputs display data to the monitor 19.

データ読込部12は、上記の画像ファイルや、画像処理プログラムを外部から読み込むときに用いられる。例えば、データ読込部12は、着脱可能な記憶媒体からデータを取得する読込デバイス(光ディスク、磁気ディスク、光磁気ディスクの読込装置など)や、公知の通信規格に準拠して外部の装置と通信を行う通信デバイス(USBインターフェース、LANモジュール、無線LANモジュールなど)で構成される。   The data reading unit 12 is used when reading the image file or the image processing program from the outside. For example, the data reading unit 12 communicates with a reading device (such as an optical disk, a magnetic disk, or a magneto-optical disk reading device) that acquires data from a removable storage medium, or an external device in accordance with a known communication standard. It consists of communication devices (USB interface, LAN module, wireless LAN module, etc.) to be performed.

記憶装置13は、例えば、ハードディスクや、不揮発性の半導体メモリなどの記憶媒体で構成される。この記憶装置13には、上記の画像処理プログラムと、プログラムの実行に必要となる各種のデータとが記録されている。なお、記憶装置13には、データ読込部12から読み込んだ画像ファイルを記憶しておくこともできる。   The storage device 13 is configured by a storage medium such as a hard disk or a nonvolatile semiconductor memory. The storage device 13 stores the image processing program and various data necessary for executing the program. The storage device 13 can also store the image file read from the data reading unit 12.

CPU14は、コンピュータ11の各部を統括的に制御するプロセッサである。このCPU14は、画像処理プログラムの実行によって、第1特徴量取得部21、領域設定部22、第2特徴量取得部23、エッジ量検出部24、合焦演算部25として機能する(なお、CPU14に含まれる各部の動作については後述する)。   The CPU 14 is a processor that comprehensively controls each unit of the computer 11. The CPU 14 functions as a first feature amount acquisition unit 21, a region setting unit 22, a second feature amount acquisition unit 23, an edge amount detection unit 24, and a focus calculation unit 25 by executing the image processing program (note that the CPU 14). (The operation of each part included in will be described later).

メモリ15は、画像処理プログラムの演算結果などを一時的に記憶する。このメモリ15は、例えば揮発性のSDRAMなどで構成される。   The memory 15 temporarily stores the calculation result of the image processing program. The memory 15 is composed of, for example, a volatile SDRAM.

次に、図2の流れ図を参照しつつ、一の実施形態におけるピント評価処理の動作例を説明する。なお、図2の処理は、ユーザによるプログラム実行指示に応じて、CPU14が画像処理プログラムを実行することで開始される。   Next, an operation example of the focus evaluation process in one embodiment will be described with reference to the flowchart of FIG. 2 is started when the CPU 14 executes the image processing program in accordance with a program execution instruction from the user.

ステップS101:CPU14は、データ読込部12を介して処理対象の画像ファイルを外部から取得する。S101で取得された画像ファイルは、CPU14の制御によって、記憶装置13またはメモリ15に記録される。なお、処理対象の画像ファイルが予め記憶装置13に記憶されている場合には、CPU14はS101の処理を省略してもよい。   Step S101: The CPU 14 acquires an image file to be processed from the outside via the data reading unit 12. The image file acquired in S101 is recorded in the storage device 13 or the memory 15 under the control of the CPU 14. Note that when the image file to be processed is stored in the storage device 13 in advance, the CPU 14 may omit the process of S101.

ステップS102:CPU14は、必要に応じて、S101の画像ファイルに含まれる撮影画像を、各画素でそれぞれR(赤)、G(緑)、B(青)の色情報を有する画像に変換する。以下の処理では、S102の変換後の画像が処理対象となる。なお、撮影画像が予め各画素でRGBの色情報を有する場合には、CPU14はS102の処理を省略してもよい。   Step S102: The CPU 14 converts the captured image included in the image file of S101 into an image having color information of R (red), G (green), and B (blue) at each pixel, as necessary. In the following processing, the image after the conversion in S102 is a processing target. If the captured image has RGB color information for each pixel in advance, the CPU 14 may omit the process of S102.

S102において、撮影画像のデータがYCbCr形式である場合、CPU14は色空間の変換によりRGB形式の撮影画像のデータを生成する。また、各画素がRGBのいずれかの単色情報のみ有する色補間前のベイヤ配列構造の画像が入力された場合には、CPU14は色補間処理を実行する。これにより、各画素でRGB各色の情報を有する撮影画像を取得できる。   In S102, when the captured image data is in the YCbCr format, the CPU 14 generates the captured image data in the RGB format by converting the color space. In addition, when an image having a Bayer array structure before color interpolation, in which each pixel has only any single color information of RGB, is input, the CPU 14 executes color interpolation processing. Thereby, the picked-up image which has the information of each RGB color in each pixel can be acquired.

また、S102で上記のベイヤ配列構造の画像が入力された場合において、CPU14は、隣接する複数の画素を束ねて1画素とする画素加算処理を実行してもよい。これにより、元画像よりも低い解像度であって、かつ各画素でRGBの画素値を有する撮影画像を容易に取得できる。   In addition, when an image having the above-described Bayer array structure is input in S102, the CPU 14 may execute a pixel addition process that bundles a plurality of adjacent pixels into one pixel. Thereby, it is possible to easily obtain a captured image having a resolution lower than that of the original image and having RGB pixel values in each pixel.

一例として、CPU14は、ベイヤ配列構造をもつ元画像の2×2画素の範囲から、変換後の撮影画像の1画素分のRGBの各画素値を生成する。このとき、元画像のR画素およびB画素の画素値は、変換後の撮影画像でそのままR、Bの画素値となる。また、変換後の撮影画像でのGの画素値は、元画像のGr画素およびGb画素の画素値を平均して求めればよい。   As an example, the CPU 14 generates RGB pixel values for one pixel of the converted captured image from a 2 × 2 pixel range of the original image having a Bayer array structure. At this time, the pixel values of the R pixel and the B pixel of the original image become the R and B pixel values as they are in the converted captured image. Further, the G pixel value in the converted captured image may be obtained by averaging the pixel values of the Gr pixel and Gb pixel of the original image.

また、図3に処理対象の撮影画像の一例を示す。図3の画像は夜景を撮影したものであって、画面右端に街灯が存在するとともに、画面の上側には赤色や青色のイルミネーションで電飾された橋が写っている。また、図3の画像中央には色分けされた看板が写っており、図3の画像左側にはピントがぼけた被写体(木)が写っている。なお、図3の画像は、色分けされた看板に最もピントが合っているものとする。   FIG. 3 shows an example of a captured image to be processed. The image in FIG. 3 is a night view taken with a streetlight on the right edge of the screen and a bridge illuminated with red and blue illuminations on the top of the screen. Also, a color-coded signboard is shown in the center of the image in FIG. 3, and a subject (tree) that is out of focus is shown on the left side of the image in FIG. Note that the image in FIG. 3 is most focused on the color-coded signboard.

ステップS103:第1特徴量取得部21は、各画素のRGBの色情報を用いて、撮影画像の各画素でそれぞれ第1特徴量を求める。具体的には、第1特徴量取得部21は、撮影画像の各画素において、RGBの画素値のうちの最大値を第1特徴量とする。例えば、撮影画像の注目画素でRの画素値が最も高くなる場合は、その注目画素での第1特徴量はRの画素値となる。また、撮影画像の全体をみたときに、第1特徴量は画素ごとにそれぞれ異なる色から抽出されうる。   Step S103: The first feature quantity acquisition unit 21 obtains a first feature quantity for each pixel of the captured image using the RGB color information of each pixel. Specifically, the first feature value acquisition unit 21 sets the maximum value among the RGB pixel values as the first feature value in each pixel of the captured image. For example, when the R pixel value is the highest at the target pixel of the captured image, the first feature amount at the target pixel is the R pixel value. Further, when the entire captured image is viewed, the first feature amount can be extracted from a different color for each pixel.

そして、第1特徴量取得部21は、撮影画像上の画素位置と第1特徴量との対応関係を示す第1特徴量分布マップを生成する。第1特徴量分布マップは撮影画像の各画素の第1特徴量をそれぞれ示すため、第1特徴量分布マップのサイズは、処理対象となった撮影画像の画像サイズと同じとなる。   Then, the first feature quantity acquisition unit 21 generates a first feature quantity distribution map indicating the correspondence between the pixel position on the captured image and the first feature quantity. Since the first feature quantity distribution map indicates the first feature quantity of each pixel of the photographed image, the size of the first feature quantity distribution map is the same as the image size of the photographed image to be processed.

ステップS104:領域設定部22は、第1特徴量分布マップ(S103)を用いて、撮影画像上でエッジ量を検出する検出領域を設定する。一例として、S104の領域設定部22は、以下の(a)−(c)の処理を実行する。   Step S104: The region setting unit 22 sets a detection region for detecting an edge amount on the captured image using the first feature amount distribution map (S103). As an example, the area setting unit 22 in S104 executes the following processes (a) to (c).

(a)領域設定部22は、第1特徴量分布マップにおいて、第1特徴量の値が閾値以上となる飽和画素を抽出する。一例として、撮影画像での画素値の階調が8ビット(0−255)であるときに、上記の閾値は250程度の値に設定される。   (A) The region setting unit 22 extracts saturated pixels in which the value of the first feature value is equal to or greater than a threshold value in the first feature value distribution map. As an example, when the gradation of the pixel value in the photographed image is 8 bits (0-255), the threshold value is set to a value of about 250.

(b)領域設定部22は、撮影画像上で飽和画素から所定距離内にある画素を疑似飽和画素に設定する。一例として、領域設定部22は、飽和画素から半径5画素の範囲にある画素を疑似飽和画素に設定する。   (B) The region setting unit 22 sets a pixel within a predetermined distance from the saturated pixel on the captured image as a pseudo saturated pixel. As an example, the region setting unit 22 sets pixels within a radius of 5 pixels from saturated pixels as pseudo-saturated pixels.

(c)領域設定部22は、撮影画像上で飽和画素および疑似飽和画素を除外した残りの画素領域を上記の検出領域とする。そして、領域設定部22は、撮影画像上での検出領域と、その他の非検出領域(飽和画素および疑似飽和画素)とを示す2値画像情報(有効エリアマップ)を生成する。   (C) The region setting unit 22 sets the remaining pixel region on the captured image excluding the saturated pixel and the pseudo-saturated pixel as the detection region. Then, the area setting unit 22 generates binary image information (effective area map) indicating a detection area on the captured image and other non-detection areas (saturated pixels and pseudo-saturated pixels).

なお、上記の有効エリアマップでは飽和画素の周囲に設定された疑似飽和画素が検出領域から除外されるので、ピント評価のときに輝点の周囲に生じる疑似輪郭の影響を抑制できる。   In the above effective area map, the pseudo saturated pixels set around the saturated pixels are excluded from the detection area, so that it is possible to suppress the influence of the pseudo contour generated around the bright spot during the focus evaluation.

また、図4に、図3の撮影画像に対応する有効エリアマップの例を示す。図3の撮影画像では、イルミネーションの点光源や街灯はいずれかの色成分の画素値が高くなり、それぞれ色が異なっていても第1特徴量での判定により飽和画素となる。よって、図4の有効エリアマップでは、イルミネーションの点光源や街灯の周囲を除外した領域が検出領域として設定される。   FIG. 4 shows an example of an effective area map corresponding to the captured image of FIG. In the captured image of FIG. 3, the pixel value of any one of the color components of the illumination point light source and the streetlight is high, and even if the colors are different from each other, the pixel becomes a saturated pixel by the determination with the first feature amount. Therefore, in the effective area map of FIG. 4, an area excluding the area around the illumination point light source and the streetlight is set as the detection area.

ステップS105:第2特徴量取得部23は、各画素のRGBの色情報を用いて、撮影画像の各画素でそれぞれ第2特徴量を求める。具体的には、第2特徴量取得部23は、撮影画像の各画素において、RGBの画素値のうちの最小値を第2特徴量とする。例えば、撮影画像の注目画素でBの画素値が最も小さくなる場合は、その注目画素での第2特徴量はBの画素値となる。また、撮影画像の全体をみたときに、第2特徴量は画素ごとにそれぞれ異なる色から抽出されうる。   Step S105: The second feature quantity acquisition unit 23 obtains a second feature quantity for each pixel of the captured image using the RGB color information of each pixel. Specifically, the second feature value acquisition unit 23 sets the minimum value of the RGB pixel values as the second feature value in each pixel of the captured image. For example, when the pixel value of B is the smallest among the target pixels of the captured image, the second feature amount at the target pixel is the B pixel value. Further, when the entire captured image is viewed, the second feature amount can be extracted from a different color for each pixel.

そして、第2特徴量取得部23は、撮影画像上の画素位置と第2特徴量との対応関係を示す第2特徴量分布マップを生成する。第2特徴量分布マップは撮影画像の各画素の第2特徴量をそれぞれ示すため、第2特徴量分布マップのサイズは、処理対象となった撮影画像の画像サイズと同じとなる。   Then, the second feature quantity acquisition unit 23 generates a second feature quantity distribution map indicating the correspondence between the pixel position on the captured image and the second feature quantity. Since the second feature quantity distribution map indicates the second feature quantity of each pixel of the photographed image, the size of the second feature quantity distribution map is the same as the image size of the photographed image to be processed.

ステップS106:エッジ量検出部24は、第2特徴量分布マップ(S105)を用いて、撮影画像内の各画素位置でそれぞれエッジ量(撮影画像のエッジ成分を示す量)を検出する。そして、エッジ量検出部24は、撮影画像の各画素でのエッジ量を示すエッジ量マップを生成する。   Step S106: The edge amount detection unit 24 detects the edge amount (the amount indicating the edge component of the captured image) at each pixel position in the captured image using the second feature amount distribution map (S105). Then, the edge amount detection unit 24 generates an edge amount map indicating the edge amount at each pixel of the captured image.

S106での処理の一例として、画像構造ベクトルを用いてエッジ量を検出する例を説明する。まず、エッジ量検出部24は、エッジ量を求める注目画素を中心として撮像画像内に所定の局所領域を設定する。次に、エッジ量検出部24は、局所領域に含まれる画素の第2特徴量の勾配から、主成分分析の手法を用いて注目画素の画像勾配ベクトルを求める。   As an example of the processing in S106, an example in which an edge amount is detected using an image structure vector will be described. First, the edge amount detection unit 24 sets a predetermined local region in the captured image around the target pixel for which the edge amount is obtained. Next, the edge amount detection unit 24 obtains an image gradient vector of the target pixel from the gradient of the second feature amount of the pixels included in the local region using a principal component analysis technique.

ここで、撮影画像の局所領域内の各画素xiについて、画素値の勾配を Here, for each pixel x i in the local area of the captured image, the gradient of the pixel value is set.

Figure 2011147076
Figure 2011147076

の固有値問題を解くことで求めることができる。但し、上記の式(2)中の「C」は、局所領域内の各画素xiにおける画素値f(xi)を用いて下式(3)により定義される行列を示している。 Can be obtained by solving the eigenvalue problem. However, “C” in the above equation (2) indicates a matrix defined by the following equation (3) using the pixel value f (x i ) at each pixel x i in the local region.

Figure 2011147076
Figure 2011147076

なお、上記の式(3)の「Σ」は、いずれも局所領域に含まれる全画素の和を示している。 Note that “Σ” in Equation (3) above represents the sum of all the pixels included in the local region.

また、上記の行列Cは2行2列の行列であるので、上記の式(2)は2つの固有値と、2つの異なる単位固有ベクトルとをもつことが分かる。   Further, since the matrix C is a 2 × 2 matrix, the above equation (2) has two eigenvalues and two different unit eigenvectors.

Figure 2011147076
Figure 2011147076

エッジ量検出部24は、上記動作を各画素で行うことで、各画素で画像構造ベクトル情報を取得する。そして、エッジ量検出部24は、上記の画像構造ベクトル情報から各画素のエッジ量を求める。例えば、エッジ量検出部24は、画像構造ベクトルの強度を用いて各画素のエッジ量を求めてもよい。なお、上記の画像構造ベクトルは、局所領域内における画素値の勾配から主成分分析の手法を用いて求めるので、ピント評価のときに画像のノイズの影響を非常に小さくできる。   The edge amount detection unit 24 performs the above operation on each pixel, and acquires image structure vector information on each pixel. Then, the edge amount detection unit 24 obtains the edge amount of each pixel from the above image structure vector information. For example, the edge amount detection unit 24 may obtain the edge amount of each pixel using the intensity of the image structure vector. Note that the image structure vector is obtained from the gradient of the pixel values in the local region using a principal component analysis technique, so that the influence of image noise can be extremely reduced during focus evaluation.

あるいは、エッジ量検出部24は、画像構造ベクトルの内積を用いて、上記のエッジ量を各画素で求めてもよい。画像内で合焦状態にある被写体については画像の構造の相関が高くなり、注目画素とその周囲の画素との画像構造ベクトルはそれぞれ同じ方向に向きやすくなる。一方、ピントが合っていない被写体については、画像がボケて構造の指向性が失われてしまい、合焦状態と比べると画像構造ベクトルの向きは不均一なものとなる。よって、隣接する注目画素間での画像構造ベクトルの方向の相関(画像構造ベクトルの内積の値)をみても、撮影画像のピント評価を行えることが分かる。   Alternatively, the edge amount detection unit 24 may obtain the edge amount for each pixel by using the inner product of the image structure vectors. For an object in focus in the image, the correlation of the image structure is high, and the image structure vectors of the pixel of interest and the surrounding pixels are easily oriented in the same direction. On the other hand, for an out-of-focus subject, the image is blurred and the directionality of the structure is lost, and the orientation of the image structure vector is non-uniform compared to the focused state. Therefore, it is understood that the focus evaluation of the captured image can be performed by looking at the correlation of the direction of the image structure vector between adjacent target pixels (the value of the inner product of the image structure vectors).

また、S106での処理の他の例として、エッジ量検出部24は、注目画素と周囲画素との間で第2特徴量の差分値の絶対値をそれぞれ求め、この絶対値の総和を注目画素でのエッジ量としてもよい。あるいは、S106での処理の他の例として、エッジ量検出部24は、注目画素と周囲画素との間で第2特徴量の差分値の絶対値をそれぞれ求め、この絶対値のうちの最大値を抽出して注目画素のエッジ量を求めてもよい。   As another example of the processing in S106, the edge amount detection unit 24 calculates the absolute value of the difference value of the second feature amount between the target pixel and the surrounding pixels, and calculates the sum of the absolute values as the target pixel. It is good also as edge amount in. Alternatively, as another example of the processing in S106, the edge amount detection unit 24 obtains the absolute value of the difference value of the second feature amount between the target pixel and the surrounding pixels, and the maximum value among the absolute values. May be extracted to determine the edge amount of the pixel of interest.

なお、図2の流れ図では、S103からS106の処理が直列的に行われるように表記したが、画像処理装置は、S103からS104の処理と、S105からS106の処理とを並列処理してもよい。   In the flowchart of FIG. 2, the processing from S <b> 103 to S <b> 106 is described as being performed in series, but the image processing apparatus may perform the processing from S <b> 103 to S <b> 104 and the processing from S <b> 105 to S <b> 106 in parallel. .

ここで、検出領域内の輝度差のある箇所でRGB画素値の最小値(第2特徴量)に注目すると、同じ色成分でも輝度差によって隣接画素の画素値の最小値には変化が生じる。よって、第2特徴量を用いることで、隣接画素の輝度差によるエッジを抽出できることが分かる。   Here, when attention is paid to the minimum value of the RGB pixel value (second feature amount) at a location where there is a luminance difference in the detection area, even in the same color component, the minimum value of the pixel value of the adjacent pixel changes due to the luminance difference. Therefore, it can be seen that by using the second feature amount, an edge due to a luminance difference between adjacent pixels can be extracted.

同様に、検出領域内の色差のある箇所で第2特徴量に注目すると、各画素の色が異なることから、隣接画素間で第2特徴量の値は全く異なる値となる。よって、第2特徴量を用いることで、輝度差は少ないが、色差をみるとエッジを検出できる被写体(例えば図3の看板の色境界など)についても、エッジを抽出できることが分かる。   Similarly, when attention is paid to the second feature amount in a portion having a color difference in the detection region, since the color of each pixel is different, the value of the second feature amount is completely different between adjacent pixels. Therefore, it can be seen that by using the second feature amount, the edge can be extracted also from a subject (for example, the color boundary of the signboard of FIG. 3) whose edge can be detected by looking at the color difference although the luminance difference is small.

ステップS107:CPU14は、有効エリアマップ(S104)とエッジ量マップ(S106)とを用いて、撮影画像の検出領域での各画素のエッジ量を抽出する。具体的には、CPU14は、エッジ量マップを有効エリアマップでマスクすることで、エッジ量マップのうちから検出領域の画素のデータを抽出する。   Step S107: The CPU 14 uses the effective area map (S104) and the edge amount map (S106) to extract the edge amount of each pixel in the detection area of the captured image. Specifically, the CPU 14 masks the edge amount map with the effective area map, thereby extracting pixel data of the detection region from the edge amount map.

ステップS108:合焦演算部25は、検出領域での各画素のエッジ量(S107)を用いて、上記の検出領域内で最もエッジ量の多い(すなわち最も合焦度が高い)画素位置を抽出する。   Step S108: The focus calculation unit 25 uses the edge amount (S107) of each pixel in the detection region to extract a pixel position having the largest edge amount (that is, the highest focus degree) in the detection region. To do.

ステップS109:合焦演算部25は、撮影画像のピント評価を実行する。一例として、合焦演算部25は、画像ファイルから焦点検出エリアの位置情報を取得する。そして、合焦演算部25は、撮影画像の焦点検出エリアの位置と、S108で求めた検出領域内での合焦位置との直線距離を求める。上記の直線距離がほぼ0とみなせる場合、処理対象の撮影画像は主要被写体にピントがあった状態と判断できる。一方、上記の直線距離が許容範囲よりも大きければ、処理対象の撮影画像は主要被写体にピントが合っていない状態と判断できる。   Step S109: The focusing calculation unit 25 performs focus evaluation of the captured image. As an example, the focus calculation unit 25 acquires the position information of the focus detection area from the image file. Then, the focus calculation unit 25 obtains a linear distance between the position of the focus detection area of the photographed image and the focus position in the detection area obtained in S108. When the straight line distance can be regarded as almost zero, it can be determined that the captured image to be processed is in focus on the main subject. On the other hand, if the linear distance is greater than the allowable range, it can be determined that the captured image to be processed is not in focus on the main subject.

これにより、合焦演算部25は、S109で求めた直線距離の大きさを指標として、撮影画像の合焦状態を評価し、合焦状態の良好な画像を自動的に選別できる。なお、合焦演算部25は、S109で求めた直線距離の大きさの情報をユーザに提示するのみに留めてもよい。以上で、図2の流れ図の説明を終了する。   Thereby, the focus calculation unit 25 can evaluate the in-focus state of the photographed image using the magnitude of the linear distance obtained in S109 as an index, and can automatically select an image in good in-focus state. Note that the focus calculation unit 25 may only present information on the magnitude of the linear distance obtained in S109 to the user. Above, description of the flowchart of FIG. 2 is complete | finished.

以下、一の実施形態におけるピント評価処理の作用効果を述べる。   Hereinafter, the effect of the focus evaluation processing in one embodiment will be described.

一の実施形態での画像処理装置は、撮影画像の各画素でRGB画素値の最大値を第1特徴量とする(S103)。画像処理装置は、第1特徴量に基づいて、撮影画像内でいずれかの色成分で画素値が飽和している領域を検出する(S104)。そして、画像処理装置は、飽和画素とその周囲を除外した検出領域を対象として撮影画像のピント評価を実行する(S107−S109)。   The image processing apparatus according to one embodiment sets the maximum value of the RGB pixel value for each pixel of the captured image as the first feature amount (S103). Based on the first feature amount, the image processing apparatus detects a region in which the pixel value is saturated with any color component in the captured image (S104). Then, the image processing apparatus performs focus evaluation of the captured image with respect to the detection area excluding the saturated pixel and the periphery thereof (S107 to S109).

つまり、一の実施形態での画像処理装置は、輝度値での飽和はないが、色情報をみると画素値に飽和が生じている赤色や青色の点光源(例えば図3のイルミネーションなど)を、高輝度の被写体とともに合焦判定の対象から除外できる。これにより、一の実施形態では、撮影画像の輝度値のみに注目して合焦判定を行う場合と比べて、ボケた点光源による偽エッジを合焦点と誤判定するおそれが低減し、より精度の高い合焦判定を行うことが可能となる。   In other words, the image processing apparatus according to the embodiment does not saturate with the luminance value, but uses a red or blue point light source (for example, the illumination in FIG. 3) in which the pixel value is saturated when the color information is viewed. In addition, it can be excluded from the focus determination target together with the high-luminance subject. Thereby, in one embodiment, compared with the case where focus determination is performed by focusing only on the luminance value of the captured image, the possibility of falsely determining a false edge due to a blurred point light source as the in-focus is reduced and more accurate. It is possible to perform a high focus determination.

また、一の実施形態での画像処理装置は、撮影画像の各画素でRGB画素値の最小値を第2特徴量とする(S105)。そして、画像処理装置は、検出領域内を対象として、第2特徴量から求まるエッジ量により撮影画像のピント評価を実行する(S106−S109)。これにより、一の実施形態では、隣接画素の輝度差によるエッジと隣接画素の色差によるエッジとを第2特徴量でそれぞれ抽出することができる。   Further, the image processing apparatus according to the embodiment sets the minimum value of the RGB pixel value as the second feature amount in each pixel of the captured image (S105). Then, the image processing apparatus performs focus evaluation of the captured image based on the edge amount obtained from the second feature amount with respect to the detection region (S106 to S109). Thereby, in one embodiment, the edge by the brightness | luminance difference of an adjacent pixel and the edge by the color difference of an adjacent pixel can each be extracted with a 2nd feature-value.

さらに、一の実施形態での画像処理装置は、それぞれ複数の色情報を用いて設定された2種類のパラメータ(第1特徴量、第2特徴量)を適用して、検出領域の設定処理と、エッジ量を用いた合焦判定処理とを行う。これにより、一の実施形態での画像処理装置は、
例えば、輝度面での合焦判定処理が好適な画像と、色差面での合焦判定処理が好適な画像とをいずれも同一の処理で精度よく評価できる。
Further, the image processing apparatus according to the embodiment applies two types of parameters (first feature amount and second feature amount) set using a plurality of pieces of color information, and performs detection region setting processing. In-focus determination processing using the edge amount is performed. Thereby, the image processing apparatus in one embodiment
For example, it is possible to accurately evaluate an image suitable for focus determination processing on the luminance plane and an image suitable for focus determination processing on the color difference plane by the same processing.

また、従来技術のように、1種類のパラメータで合焦判定処理を行う場合、撮影シーンの解析結果に応じて、輝度面での合焦判定処理と色差面での合焦判定処理との切り替えや、判定結果の重み付けの変更などの処理が必要となる。一方、一の実施形態の画像処理装置は、多様な撮影画像に同一の処理で対応できるので、精度の高い合焦判定を迅速に行うことができる。   Further, as in the prior art, when performing the focus determination process with one type of parameter, switching between the focus determination process on the luminance plane and the focus determination process on the color difference plane according to the analysis result of the shooting scene In addition, processing such as changing the weighting of the determination result is required. On the other hand, the image processing apparatus of one embodiment can deal with various captured images with the same processing, and therefore can perform highly accurate focus determination quickly.

<他の実施態様の説明>
図5は、他の実施形態における電子カメラの構成例を示すブロック図である。電子カメラ31は、フォーカシングレンズ32と、レンズ駆動部33と、撮像素子34と、制御部35と、ROM36と、メインメモリ37と、モニタ38と、記録I/F39と、レリーズ釦40とを有している。ここで、レンズ駆動部33、撮像素子34、ROM36、メインメモリ37、モニタ38、記録I/F39およびレリーズ釦40は、それぞれ制御部35に接続されている。
<Description of other embodiments>
FIG. 5 is a block diagram illustrating a configuration example of an electronic camera according to another embodiment. The electronic camera 31 includes a focusing lens 32, a lens driving unit 33, an image sensor 34, a control unit 35, a ROM 36, a main memory 37, a monitor 38, a recording I / F 39, and a release button 40. is doing. Here, the lens driving unit 33, the image sensor 34, the ROM 36, the main memory 37, the monitor 38, the recording I / F 39, and the release button 40 are respectively connected to the control unit 35.

フォーカシングレンズ32は、焦点調節を行うためのレンズである。このフォーカシングレンズ32のレンズ位置は、レンズ駆動部33によって光軸方向に調整される。   The focusing lens 32 is a lens for performing focus adjustment. The lens position of the focusing lens 32 is adjusted by the lens driving unit 33 in the optical axis direction.

撮像素子34は、フォーカシングレンズ32を含む撮像光学系によって結像される被写体の像を撮像し、カラーの撮影画像の画像信号を生成する。なお、撮像素子34から出力された画像信号は、A/D変換回路(不図示)を介して制御部35に入力される。   The image sensor 34 captures an image of a subject formed by an imaging optical system including the focusing lens 32 and generates an image signal of a color captured image. The image signal output from the image sensor 34 is input to the control unit 35 via an A / D conversion circuit (not shown).

ここで、電子カメラ31の撮影モードにおいて、撮像素子34はレリーズ釦40の全押し操作に応答して記録用の静止画像(本画像)を撮像する。また、撮影モードでの撮像素子34は、撮影待機時にも所定間隔毎に観測用の画像(スルー画像)を連続的に撮像する。ここで、時系列に取得されたスルー画像のデータは、モニタ38での動画像表示や制御部35による各種の演算処理に使用される。   Here, in the photographing mode of the electronic camera 31, the image sensor 34 captures a still image for recording (main image) in response to a full press operation of the release button 40. Further, the imaging device 34 in the shooting mode continuously takes images for observation (through images) at predetermined intervals even during standby for shooting. Here, the data of the through image acquired in time series is used for moving image display on the monitor 38 and various arithmetic processes by the control unit 35.

制御部35は、電子カメラ31の動作を統括的に制御するプロセッサである。例えば、制御部35は、撮影画像のデータに対して各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整、色変換処理など)を施す。   The control unit 35 is a processor that comprehensively controls the operation of the electronic camera 31. For example, the control unit 35 performs various types of image processing (color interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment, color conversion processing, etc.) on the captured image data.

また、制御部35は、ROM36に格納されたプログラムの実行により、一の実施形態の画像処理装置における第1特徴量取得部21、領域設定部22、第2特徴量取得部23、エッジ量検出部24、合焦演算部25として機能する。   In addition, the control unit 35 executes the program stored in the ROM 36 to thereby detect the first feature amount acquisition unit 21, the region setting unit 22, the second feature amount acquisition unit 23, and the edge amount detection in the image processing apparatus according to the embodiment. Functions as the unit 24 and the focus calculation unit 25.

ROM36には、制御部35によって実行されるプログラムが記憶されている。なお、このプログラムによる撮影モードでの動作例については後述する。また、メインメモリ37は、制御部35による画像処理の前工程や後工程で画像のデータを一時的に記憶する。また、モニタ38は、制御部35の指示に応じて各種画像を表示する。   The ROM 36 stores a program executed by the control unit 35. An example of the operation in the shooting mode by this program will be described later. The main memory 37 temporarily stores image data in the pre-process and post-process of image processing by the control unit 35. The monitor 38 displays various images according to instructions from the control unit 35.

記録I/F39は、不揮発性の記憶媒体39aを接続するためのコネクタを有している。そして、記録I/F39は、コネクタに接続された記憶媒体39aに対してデータの書き込み/読み込みを実行する。上記の記憶媒体39aは、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図5では記憶媒体39aの一例としてメモリカードを図示する。   The recording I / F 39 has a connector for connecting a nonvolatile storage medium 39a. The recording I / F 39 executes data writing / reading with respect to the storage medium 39a connected to the connector. The storage medium 39a is composed of a hard disk, a memory card incorporating a semiconductor memory, or the like. In FIG. 5, a memory card is illustrated as an example of the storage medium 39a.

レリーズ釦40は、半押し操作による撮影前のAF動作開始の指示入力と、全押し操作による撮像動作開始の指示入力とをユーザから受け付ける。   The release button 40 receives from the user an instruction input for starting an AF operation before photographing by a half-press operation and an instruction input for starting an imaging operation by a full-press operation.

次に、図6の流れ図を参照しつつ、他の実施形態の電子カメラ31における撮影モードでの動作例を説明する。なお、図6の流れ図の処理は、制御部35の制御によって、ユーザの撮影モードの起動操作に応じて開始される。   Next, with reference to the flowchart of FIG. 6, an operation example in the shooting mode in the electronic camera 31 of another embodiment will be described. Note that the processing of the flowchart of FIG. 6 is started in response to a user's shooting mode activation operation under the control of the control unit 35.

ステップS201:制御部35は、撮像素子34を駆動させてスルー画像の撮像を開始する。その後、スルー画像は所定間隔ごとに逐次生成されることとなる。なお、撮像素子34から出力されたスルー画像のデータは、制御部35に入力される。   Step S201: The control unit 35 drives the imaging device 34 to start capturing a through image. Thereafter, the through images are sequentially generated at predetermined intervals. The through image data output from the image sensor 34 is input to the control unit 35.

また、撮影モードでの制御部35は、スルー画像から生成された表示用の画像(ビュー画像)をモニタ38に動画表示させる。したがって、ユーザは、モニタ38のビュー画像を参照して、撮影構図を決定するためのフレーミングを行うことができる。   Further, the control unit 35 in the shooting mode causes the monitor 38 to display a moving image of the display image (view image) generated from the through image. Therefore, the user can perform framing for determining the shooting composition with reference to the view image on the monitor 38.

ステップS202:制御部35は、レリーズ釦40の半押し操作を受け付けたか否かを判定する。上記要件を満たす場合(YES側)にはS203に処理が移行する。一方、上記要件を満たさない場合(NO側)には、制御部35はレリーズ釦40の半押し操作を待機する。   Step S202: The control unit 35 determines whether or not a half-press operation of the release button 40 has been accepted. If the above requirement is satisfied (YES side), the process proceeds to S203. On the other hand, when the above requirement is not satisfied (NO side), the control unit 35 waits for a half-press operation of the release button 40.

ステップS203:制御部35は、スルー画像を用いて合焦制御を実行する。   Step S203: The control unit 35 performs focusing control using the through image.

一例として、制御部35は、フォーカシングレンズ32を移動させつつ、各々のレンズ位置でスルー画像を取得する。そして、制御部35は、各々のスルー画像を対象として上記の一の実施形態でのS101からS108の処理を実行する。また、制御部35は、至近優先や中央優先などのアルゴリズム(またはユーザのマニュアルでの指定)に基づいて撮影画面(スルー画像の撮影範囲)内に焦点検出エリアを設定する。そして、制御部35は、焦点検出エリアの被写体の合焦度が最も高くなるスルー画像のレンズ位置を用いて、フォーカシングレンズ32のAFを実行する。   As an example, the control unit 35 acquires a through image at each lens position while moving the focusing lens 32. And the control part 35 performs the process of S101 to S108 in said one embodiment for each through image. In addition, the control unit 35 sets a focus detection area in a shooting screen (shooting range of a through image) based on an algorithm such as closest priority or center priority (or designation by a user's manual). Then, the control unit 35 performs AF of the focusing lens 32 by using the lens position of the through image in which the focus degree of the subject in the focus detection area is the highest.

ステップS204:制御部35は、レリーズ釦40の全押し操作を受け付けたか否かを判定する。上記要件を満たす場合(YES側)にはS206に処理が移行する。一方、上記要件を満たさない場合(NO側)にはS205に処理が移行する。   Step S204: The control unit 35 determines whether or not a full pressing operation of the release button 40 has been accepted. If the above requirement is satisfied (YES side), the process proceeds to S206. On the other hand, if the above requirement is not satisfied (NO side), the process proceeds to S205.

ステップS205:制御部35は、レリーズ釦40の半押し操作が解除されたか否かを判定する。上記要件を満たす場合(YES側)には、制御部35はS202に戻って上記動作を繰り返す。一方、上記要件を満たさない場合(NO側)には、制御部35はS204に戻ってレリーズ釦40の全押し操作を待機する。   Step S205: The control unit 35 determines whether or not the half-press operation of the release button 40 has been released. If the above requirement is satisfied (YES side), the control unit 35 returns to S202 and repeats the above operation. On the other hand, if the above requirement is not satisfied (NO side), the control unit 35 returns to S204 and waits for a full pressing operation of the release button 40.

ステップS206:制御部35は、レリーズ釦40の全押しに応じて、撮像素子34を駆動させて本画像の撮像処理を実行する。本画像のデータは、制御部35で所定の処理が施された後に記録I/F39を介して記憶媒体39aに記録される。以上で、図6の流れ図の説明を終了する。   Step S206: In response to the release button 40 being fully pressed, the control unit 35 drives the imaging device 34 to execute the imaging process for the main image. The data of the main image is recorded on the storage medium 39a via the recording I / F 39 after a predetermined process is performed by the control unit 35. Above, description of the flowchart of FIG. 6 is complete | finished.

他の実施形態の電子カメラ31は、一の実施形態とほぼ同様のアルゴリズムによって、AFを実行する。したがって、他の実施形態の電子カメラ31は、一の実施形態と同様に精度の高い合焦判定を迅速に実行できる。   The electronic camera 31 of the other embodiment executes AF by an algorithm almost the same as that of the first embodiment. Therefore, the electronic camera 31 of the other embodiment can quickly execute the focus determination with high accuracy as in the case of the one embodiment.

<実施形態の補足事項>
(1)上記の各実施形態では、第1特徴量取得部21、領域設定部22、第2特徴量取得部23、エッジ量検出部24、合焦演算部25の機能をプログラムによってソフトウエア的に実現する例を説明したが、ASICを用いて上記の各部をハードウエア的に実現しても勿論かまわない。
<Supplementary items of the embodiment>
(1) In each of the embodiments described above, the functions of the first feature value acquisition unit 21, the region setting unit 22, the second feature value acquisition unit 23, the edge amount detection unit 24, and the focus calculation unit 25 are implemented by software. In the above example, the above-described units may be realized by hardware using an ASIC.

(2)上記の各実施形態ではRGBの画素値を用いて第1特徴量および第2特徴量を求める例を説明したが、例えば補色系(例えば、マゼンタ、シアン、イエローを用いる系)の色情報を用いるようにしてもよい。   (2) In each of the above-described embodiments, an example in which the first feature value and the second feature value are obtained using RGB pixel values has been described. For example, a complementary color system (for example, a system using magenta, cyan, yellow) Information may be used.

(3)一の実施形態のS104の処理では、飽和画素を判定する閾値を8ビットで250とする例を説明したが、上記の閾値は適宜変更してもよい。また、一の実施形態のS104の処理において、撮影画像に応じて、疑似飽和画素とする範囲を適宜変更してもよい。   (3) In the processing of S104 of one embodiment, an example in which the threshold value for determining a saturated pixel is set to 250 with 8 bits has been described, but the above threshold value may be changed as appropriate. Moreover, in the process of S104 of one embodiment, the range of pseudo-saturated pixels may be changed as appropriate according to the captured image.

(4)一の実施形態のS102の処理では、ベイヤ配列構造の画像を2×2画素で1画素とするケースを説明したが、より多数の画素(4×4画素など)をまとめて1画素の情報を生成してもよい。   (4) In the processing of S102 of one embodiment, a case has been described in which an image with a Bayer array structure is 2 × 2 pixels and 1 pixel. However, a larger number of pixels (such as 4 × 4 pixels) are combined into 1 pixel. The information may be generated.

(5)上記の一の実施形態において、画像処理装置は、有効エリアマップで撮影画像内の検出エリアを予め特定した後にS106の処理を実行してもよい。また、上記の一の実施形態において、画像処理装置は、撮影画像のうちの焦点検出エリアの範囲を対象としてピント評価処理を実行してもよい。   (5) In the one embodiment described above, the image processing apparatus may execute the process of S106 after specifying the detection area in the captured image in advance with the effective area map. In the above-described one embodiment, the image processing apparatus may execute the focus evaluation process for the range of the focus detection area in the captured image.

(6)上記の他の実施形態では、撮影レンズを構成要素に含むコンパクト型の電子カメラでの構成例を説明した。しかし、本発明の撮像装置は、レンズ交換可能な一眼レフレックス型の電子カメラにも適用することが勿論可能である。また、本発明の撮像装置は、例えば、携帯電話などの電子機器に内蔵されるカメラモジュールに適用することも可能である。   (6) In the other embodiments described above, the configuration example of the compact electronic camera including the photographing lens as a component has been described. However, the imaging apparatus of the present invention can of course be applied to a single-lens reflex type electronic camera in which lenses can be exchanged. The imaging device of the present invention can also be applied to a camera module built in an electronic device such as a mobile phone.

以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずであり、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物によることも可能である。   From the above detailed description, features and advantages of the embodiments will become apparent. It is intended that the scope of the claims extend to the features and advantages of the embodiments as described above without departing from the spirit and scope of the right. Further, any person having ordinary knowledge in the technical field should be able to easily come up with any improvements and modifications, and there is no intention to limit the scope of the embodiments having the invention to those described above. It is also possible to use appropriate improvements and equivalents within the scope disclosed in.

11…コンピュータ、12…データ読込部、13…記憶装置、14…CPU、15…メモリ、16…入出力I/F、17…バス、18…入力デバイス、19…モニタ、21…第1特徴量取得部、22…領域設定部、23…第2特徴量取得部、24…エッジ量検出部、25…合焦演算部、31…電子カメラ、32…フォーカシングレンズ、33…レンズ駆動部、34…撮像素子、35…制御部、36…ROM、37…メインメモリ、38…モニタ、39…記録I/F、39a…記憶媒体、40…レリーズ釦 DESCRIPTION OF SYMBOLS 11 ... Computer, 12 ... Data reading part, 13 ... Memory | storage device, 14 ... CPU, 15 ... Memory, 16 ... Input-output I / F, 17 ... Bus, 18 ... Input device, 19 ... Monitor, 21 ... 1st feature-value Acquisition unit, 22 ... area setting unit, 23 ... second feature quantity acquisition unit, 24 ... edge amount detection unit, 25 ... focusing calculation unit, 31 ... electronic camera, 32 ... focusing lens, 33 ... lens drive unit, 34 ... Image sensor 35 ... Control unit 36 ... ROM 37 ... Main memory 38 ... Monitor 39 ... Recording I / F 39a ... Storage medium 40 ... Release button

Claims (7)

カラーの撮影画像を取得する画像取得部と、
前記撮影画像の複数の色情報を用いて、前記撮影画像の各位置で第1特徴量をそれぞれ求める第1特徴量取得部と、
前記撮影画像での前記第1特徴量の分布を示す第1特徴量分布情報を用いて、前記撮影画像のうちでエッジ量を検出する検出領域を設定する領域設定部と、
前記撮影画像の複数の色情報を用いて、前記撮影画像の各位置で前記第1特徴量と異なる第2特徴量をそれぞれ求める第2特徴量取得部と、
前記撮影画像での前記第2特徴量の分布を示す第2特徴量分布情報を用いて、前記検出領域内の各位置でエッジ量を検出するエッジ量検出部と、
を備える画像処理装置。
An image acquisition unit for acquiring a color photographed image;
A first feature amount acquisition unit that obtains a first feature amount at each position of the captured image using a plurality of color information of the captured image;
An area setting unit that sets a detection area for detecting an edge amount in the photographed image using first feature quantity distribution information indicating a distribution of the first feature quantity in the photographed image;
A second feature amount acquisition unit that obtains a second feature amount different from the first feature amount at each position of the captured image using a plurality of pieces of color information of the captured image;
An edge amount detection unit that detects an edge amount at each position in the detection region using second feature amount distribution information indicating the distribution of the second feature amount in the captured image;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記第2特徴量取得部は、前記撮影画像の各位置で、各々が異なる色成分に対応する複数の画素値のうち最小の画素値から前記第2特徴量を求める画像処理装置。
The image processing apparatus according to claim 1.
The second feature quantity acquisition unit is an image processing apparatus that obtains the second feature quantity from a minimum pixel value among a plurality of pixel values each corresponding to a different color component at each position of the captured image.
請求項1または請求項2に記載の画像処理装置において、
前記第1特徴量取得部は、前記撮影画像の各位置で、各々が異なる色成分に対応する複数の画素値のうち最大の画素値から前記第1特徴量を求める画像処理装置。
画像処理装置。
The image processing apparatus according to claim 1 or 2,
The first feature quantity acquisition unit is an image processing apparatus that obtains the first feature quantity from a maximum pixel value among a plurality of pixel values corresponding to different color components at each position of the captured image.
Image processing device.
請求項1から請求項3のいずれか1項に記載の画像処理装置において、
前記画像取得部は、各画素が単色の情報を有する色補間前の画像に対して画素加算処理を施し、各画素が複数色の情報を有する前記撮影画像を取得する画像処理装置。
The image processing apparatus according to any one of claims 1 to 3,
The image acquisition unit is an image processing apparatus that performs pixel addition processing on an image before color interpolation in which each pixel has single-color information, and acquires the captured image in which each pixel has information on a plurality of colors.
請求項1から請求項4のいずれか1項に記載の画像処理装置において、
前記エッジ量検出部が検出した前記エッジ量に基づいて、前記撮影画像の合焦位置を求める合焦演算部をさらに備える画像処理装置。
The image processing apparatus according to claim 1, wherein:
An image processing apparatus further comprising a focus calculation unit that obtains a focus position of the captured image based on the edge amount detected by the edge amount detection unit.
撮影レンズを通過した光束による像を撮影する撮像部と、
請求項5に記載の画像処理装置と、
前記画像処理装置の出力に基づいて、前記撮影レンズの合焦状態を制御する制御部と、を備える撮像装置。
An imaging unit that captures an image of the light flux that has passed through the taking lens;
An image processing apparatus according to claim 5;
An imaging apparatus comprising: a control unit that controls a focused state of the photographing lens based on an output of the image processing apparatus.
コンピュータを、請求項1から請求項5のいずれか1項に記載の画像処理装置として動作させるプログラム。   A program that causes a computer to operate as the image processing apparatus according to any one of claims 1 to 5.
JP2010008251A 2010-01-18 2010-01-18 Image processing apparatus, image capturing apparatus and program Pending JP2011147076A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010008251A JP2011147076A (en) 2010-01-18 2010-01-18 Image processing apparatus, image capturing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010008251A JP2011147076A (en) 2010-01-18 2010-01-18 Image processing apparatus, image capturing apparatus and program

Publications (1)

Publication Number Publication Date
JP2011147076A true JP2011147076A (en) 2011-07-28

Family

ID=44461502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010008251A Pending JP2011147076A (en) 2010-01-18 2010-01-18 Image processing apparatus, image capturing apparatus and program

Country Status (1)

Country Link
JP (1) JP2011147076A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013160919A (en) * 2012-02-06 2013-08-19 Hitachi Ltd Image signal processing device and image signal processing method
JP2016126046A (en) * 2014-12-26 2016-07-11 オリンパス株式会社 Focal point detecting device and focal point detecting method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000013685A (en) * 1998-06-18 2000-01-14 Olympus Optical Co Ltd Image pickup device
JP2002182106A (en) * 2000-12-18 2002-06-26 Ricoh Co Ltd Focusing control system for digital still video camera
JP2007233222A (en) * 2006-03-03 2007-09-13 Matsushita Electric Ind Co Ltd Focus detecting device for video camera
JP2009089348A (en) * 2007-09-11 2009-04-23 Ricoh Co Ltd Electronic apparatus, imaging device, and reproducing device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000013685A (en) * 1998-06-18 2000-01-14 Olympus Optical Co Ltd Image pickup device
JP2002182106A (en) * 2000-12-18 2002-06-26 Ricoh Co Ltd Focusing control system for digital still video camera
JP2007233222A (en) * 2006-03-03 2007-09-13 Matsushita Electric Ind Co Ltd Focus detecting device for video camera
JP2009089348A (en) * 2007-09-11 2009-04-23 Ricoh Co Ltd Electronic apparatus, imaging device, and reproducing device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013160919A (en) * 2012-02-06 2013-08-19 Hitachi Ltd Image signal processing device and image signal processing method
JP2016126046A (en) * 2014-12-26 2016-07-11 オリンパス株式会社 Focal point detecting device and focal point detecting method

Similar Documents

Publication Publication Date Title
JP2004088149A (en) Imaging system and image processing program
JP2013065005A (en) Focus evaluation apparatus, imaging apparatus and program
JP5395650B2 (en) Subject area extraction device and control method thereof, subject tracking device, and program
JP2007258925A (en) Imaging apparatus, and method of acquiring image
KR20180138530A (en) Detection apparatus, image processing apparatus, detection method, and image processing method
JP5509621B2 (en) Image processing apparatus, camera, and program
JP2007258923A (en) Image processing apparatus, image processing method, image processing program
JP2011147076A (en) Image processing apparatus, image capturing apparatus and program
JP5146223B2 (en) Program, camera, image processing apparatus, and image contour extraction method
JP5463688B2 (en) Focus evaluation device, camera and program
JP2018152095A (en) Image processing apparatus, imaging apparatus, and image processing program
JP4271648B2 (en) Image composition apparatus, imaging means, and program
JP6776532B2 (en) Image processing equipment, imaging equipment, electronic devices and image processing programs
JP6326841B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP6248662B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP6464553B2 (en) Lens drive control device, electronic camera, and lens drive control program
JP5353141B2 (en) Program, camera, image processing apparatus, and method of calculating degree of focus of image
JP6314281B1 (en) Image processing method and foreground region acquisition method
JP7458723B2 (en) Image processing device, imaging device, control method, and program
JP2010091856A (en) Program, camera, and method for calculating focusing degree of image
JP6508259B2 (en) Imaging device and program
JP6318661B2 (en) Subject detection device, imaging device, and image processing program
JP2013161286A (en) Mask extraction program, image processing apparatus, and imaging device
JP6326840B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP6405638B2 (en) Subject detection device, imaging device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131227

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140520