JP5146223B2 - Program, camera, image processing apparatus, and image contour extraction method - Google Patents

Program, camera, image processing apparatus, and image contour extraction method Download PDF

Info

Publication number
JP5146223B2
JP5146223B2 JP2008244344A JP2008244344A JP5146223B2 JP 5146223 B2 JP5146223 B2 JP 5146223B2 JP 2008244344 A JP2008244344 A JP 2008244344A JP 2008244344 A JP2008244344 A JP 2008244344A JP 5146223 B2 JP5146223 B2 JP 5146223B2
Authority
JP
Japan
Prior art keywords
image
gradient
captured image
contour
local region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008244344A
Other languages
Japanese (ja)
Other versions
JP2010079414A (en
Inventor
司 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008244344A priority Critical patent/JP5146223B2/en
Publication of JP2010079414A publication Critical patent/JP2010079414A/en
Application granted granted Critical
Publication of JP5146223B2 publication Critical patent/JP5146223B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、プログラム、カメラ、画像処理装置および画像の輪郭抽出方法に関する。 The present invention, program, camera, relates contour extraction method of the image processing apparatus and an image.

従来から、電子カメラなどで取得したデジタルの撮像画像に関し、画像の注目領域に含まれるエッジ量を算出して、このエッジ量を閾値と比較することで輪郭の抽出を行って各種の処理を行う手法が公知である(一例として、特許文献1参照)。
特開2003-274258号公報
Conventionally, with respect to digital captured images acquired with an electronic camera or the like, an edge amount included in a region of interest of the image is calculated, and the edge amount is compared with a threshold value to extract a contour and perform various processes. The technique is known (see Patent Document 1 as an example).
JP 2003-274258 A

しかし、上記の従来技術の手法で撮像画像から輪郭を抽出する場合には、画像に含まれるノイズが多くなると画像の平坦な部分においてエッジ量の誤検出が生じやすくなり、特に高い撮像感度で撮像された画像については輪郭抽出の精度が大きく低下しうる。そのため、上記の従来技術でノイズの影響を抑制するためには、例えば、撮像感度を考慮してノイズ対策用のパラメータの設定を行うか、あるいは撮像感度に応じたノイズ除去処理を行うなどの煩雑な処理が要求される点で改善の余地があった。   However, when the contour is extracted from the captured image by the above-described conventional technique, if the noise included in the image increases, the edge amount is likely to be erroneously detected in a flat portion of the image, and the image is captured with particularly high imaging sensitivity. The accuracy of contour extraction can be greatly reduced for the processed image. Therefore, in order to suppress the influence of noise in the above-described conventional technology, for example, it is complicated to set parameters for noise countermeasures in consideration of imaging sensitivity or to perform noise removal processing according to imaging sensitivity. There is room for improvement in that it requires a special treatment.

そこで、本発明の目的は、ノイズの影響を受けにくく、パラメータ調整が不要な処理で撮像画像から輪郭を精度よく抽出するための手段を提供することにある。   Accordingly, an object of the present invention is to provide means for accurately extracting a contour from a captured image by a process that is not easily affected by noise and does not require parameter adjustment.

一の態様に係るプログラムは、撮像画像を取得する画像読込処理と、局所領域設定処理と、勾配情報演算処理と、輪郭抽出処理とをコンピュータに実行させる。局所領域設定処理では、コンピュータが、撮像画像に含まれる画素のうちから2つ以上の注目画素を指定するとともに、各注目画素の位置を基準として撮像画像内に所定サイズの局所領域を設定する。勾配情報演算処理では、コンピュータが、局所領域に含まれる複数の画素から求めた画素値の勾配情報を用いて、局所領域内での勾配情報の総和を変数とする主成分分析の固有値問題を解くことにより、各注目画素の位置での画像の勾配を示す画像勾配ベクトルを求める。輪郭抽出処理では、コンピュータが、各画像勾配ベクトルの情報を用いて、撮像画像から輪郭を抽出する。 A program according to one aspect causes a computer to execute an image reading process for acquiring a captured image, a local region setting process, a gradient information calculation process, and a contour extraction process. In the local region setting process, the computer designates two or more pixels of interest from among the pixels included in the captured image, and sets a local region of a predetermined size in the captured image based on the position of each pixel of interest. In gradient information calculation processing, the computer solves an eigenvalue problem of principal component analysis using the gradient information of pixel values obtained from a plurality of pixels included in the local region as a variable, the sum of the gradient information in the local region as a variable. Thus , an image gradient vector indicating the gradient of the image at the position of each target pixel is obtained. In the contour extraction process, the computer extracts a contour from the captured image using information on each image gradient vector.

本発明では、複数の注目画素の位置での画像の勾配に関する画像勾配ベクトルの情報を用いて、撮像画像から輪郭を精度よく抽出することができる。   In the present invention, it is possible to accurately extract a contour from a captured image by using information on an image gradient vector related to an image gradient at the positions of a plurality of target pixels.

<一の実施形態の説明>
図1は、一の実施形態に係る画像処理装置の構成例を示すブロック図である。一の実施形態の画像処理装置は、画像処理プログラムがインストールされたパーソナルコンピュータである。この画像処理装置を構成するコンピュータ11は、画像処理プログラムの実行によって、入力された撮像画像から輪郭を抽出することができる。
<Description of One Embodiment>
FIG. 1 is a block diagram illustrating a configuration example of an image processing apparatus according to an embodiment. The image processing apparatus according to one embodiment is a personal computer in which an image processing program is installed. The computer 11 constituting the image processing apparatus can extract a contour from the input captured image by executing the image processing program.

コンピュータ11は、データ読込部12、記憶装置13、CPU14、メモリ15および入出力I/F16、バス17を有している。データ読込部12、記憶装置13、CPU14、メモリ15および入出力I/F16は、バス17を介して相互に接続されている。さらに、コンピュータ11には、入出力I/F16を介して、入力デバイス18(キーボード、ポインティングデバイスなど)とモニタ19とがそれぞれ接続されている。なお、入出力I/F16は、入力デバイス18からの各種入力を受け付けるとともに、モニタ19に対して表示用のデータを出力する。   The computer 11 includes a data reading unit 12, a storage device 13, a CPU 14, a memory 15, an input / output I / F 16, and a bus 17. The data reading unit 12, the storage device 13, the CPU 14, the memory 15, and the input / output I / F 16 are connected to each other via a bus 17. Further, an input device 18 (keyboard, pointing device, etc.) and a monitor 19 are connected to the computer 11 via an input / output I / F 16. The input / output I / F 16 receives various inputs from the input device 18 and outputs display data to the monitor 19.

データ読込部12は、撮像画像のデータや、画像処理プログラムを外部から読み込むときに用いられる。例えば、データ読込部12は、着脱可能な記憶媒体からデータを取得する読込デバイス(光ディスク、磁気ディスク、光磁気ディスクの読込装置など)や、公知の通信規格に準拠して外部の装置と通信を行う通信デバイス(USBインターフェース、LANモジュール、無線LANモジュールなど)で構成される。   The data reading unit 12 is used when reading captured image data or an image processing program from the outside. For example, the data reading unit 12 communicates with a reading device (such as an optical disk, a magnetic disk, or a magneto-optical disk reading device) that acquires data from a removable storage medium, or an external device in accordance with a known communication standard. It consists of communication devices (USB interface, LAN module, wireless LAN module, etc.) to be performed.

記憶装置13は、上記の画像処理プログラムと、プログラムの実行に必要となる各種のデータとを記憶する。また、記憶装置13には、データ読込部12から取得した撮像画像のデータを記録することもできる。なお、一の実施形態での記憶装置13は、ハードディスクや、不揮発性の半導体メモリなどで構成される。   The storage device 13 stores the image processing program and various data necessary for executing the program. The storage device 13 can also record captured image data acquired from the data reading unit 12. Note that the storage device 13 in one embodiment is configured by a hard disk, a nonvolatile semiconductor memory, or the like.

CPU14は、コンピュータ11の各部動作を統括的に制御するプロセッサである。また、CPU14は、画像処理プログラムの実行によって、撮像画像の所定位置での画像のエッジの勾配を示す画像勾配ベクトルを求める。そして、CPU14は、この画像勾配ベクトルの情報を用いて撮像画像から輪郭の抽出を行う(なお、上記の演算処理の内容については後述する)。また、メモリ15は、画像処理プログラムの演算結果などを一時的に記憶する。このメモリ15は、例えば揮発性のSDRAMなどで構成される。   The CPU 14 is a processor that comprehensively controls the operation of each part of the computer 11. Further, the CPU 14 obtains an image gradient vector indicating the gradient of the edge of the image at a predetermined position of the captured image by executing the image processing program. Then, the CPU 14 uses the information of the image gradient vector to extract a contour from the captured image (note that the details of the above arithmetic processing will be described later). The memory 15 temporarily stores the calculation result of the image processing program. The memory 15 is composed of, for example, a volatile SDRAM.

次に、一の実施形態の画像処理プログラムによる撮像画像の輪郭抽出処理について説明する。   Next, the outline extraction process of the captured image by the image processing program of one embodiment will be described.

一般的に、撮像画像内のノイズは画像の構造やエッジの方向とは無関係に存在するため、画像のノイズに起因するエッジ量は指向性のないものとなる。一方、通常の撮像画像では、画像の構造に起因して、局所領域では構造方向の画素値同士に強い相関が生じることが知られている。そして、上記の局所領域において、相関の強い方向(画像の構造が類似する方向)における画素値の差分は小さな値を示し、相関の強い方向に対して垂直方向(エッジの接線に垂直な方向)の画素値の差分は大きな値を示す。   In general, noise in a captured image exists regardless of the structure of the image and the direction of the edge, so that the amount of edge due to the noise of the image has no directivity. On the other hand, in a normal captured image, it is known that a strong correlation occurs between pixel values in the structure direction in the local region due to the structure of the image. In the local region, the difference in pixel values in the direction with strong correlation (direction in which the image structure is similar) shows a small value, and the direction perpendicular to the direction with strong correlation (direction perpendicular to the edge tangent) The difference between the pixel values is a large value.

そのため、一の実施形態の画像処理プログラムは、上記性質を利用し、主成分分析の手法を用いて求まる、局所領域でのエッジの勾配を示す画像勾配ベクトルの情報に基づき撮像画像から輪郭を抽出する。   Therefore, the image processing program according to the embodiment extracts the contour from the captured image based on the information of the image gradient vector indicating the edge gradient in the local region, which is obtained by using the above-described property and using the principal component analysis method. To do.

以下、図2の流れ図を参照しつつ、一の実施形態の画像処理プログラムによる輪郭抽出処理の一例を説明する。なお、図2の流れ図の処理は、ユーザーによるプログラム実行指示に応じて開始される。   Hereinafter, an example of the contour extraction process by the image processing program of the embodiment will be described with reference to the flowchart of FIG. 2 is started in response to a program execution instruction from the user.

ステップS101:CPU14は、処理対象となる撮像画像のデータを、データ読込部12を介して外部から取得する。S101で取得された撮像画像のデータは、CPU14の制御によって、記憶装置13またはメモリ15に記録される。なお、CPU14は、撮像画像のデータが予め記憶装置13に記憶されている場合には、S101の処理を省略してもよい。   Step S101: The CPU 14 obtains data of a captured image to be processed from the outside via the data reading unit 12. The captured image data acquired in S101 is recorded in the storage device 13 or the memory 15 under the control of the CPU 14. Note that the CPU 14 may omit the processing of S101 when captured image data is stored in the storage device 13 in advance.

ステップS102:CPU14は、撮像画像に含まれる複数の画素のうちから、画像勾配ベクトルを求める注目画素Xの位置を指定する。   Step S102: The CPU 14 designates the position of the pixel of interest X for which the image gradient vector is obtained from the plurality of pixels included in the captured image.

ここで、一例としてS102でのCPU14は、撮像画像の全ての画素を注目画素Xとして順次指定するものとして説明を行うが、撮像画像内の所定画素からなる小領域において以下の処理を行ってもよい。なお、S102でのCPU14は、注目画素Xの位置を変更するときには、画像の左上隅を起点として1行ずつ左から右に注目画素Xを順番に指定してゆくものとする。   Here, as an example, the CPU 14 in S102 is described as sequentially specifying all the pixels of the captured image as the target pixel X. However, even if the following processing is performed in a small region including predetermined pixels in the captured image. Good. Note that when changing the position of the pixel of interest X in S102, the CPU 14 sequentially designates the pixel of interest X from left to right one line at a time starting from the upper left corner of the image.

ステップS103:CPU14は、注目画素Xの位置を基準として、撮像画像内に所定の局所領域を設定する(図3参照)。この局所領域のサイズと形は任意に設定できるが、一例として、S103でのCPU14は、撮像画像内において注目画素を中心とした矩形の範囲(例えば9×9画素の範囲)を局所領域として設定する。   Step S103: The CPU 14 sets a predetermined local region in the captured image with reference to the position of the target pixel X (see FIG. 3). Although the size and shape of the local area can be set arbitrarily, as an example, the CPU 14 in S103 sets a rectangular area (for example, a 9 × 9 pixel area) centered on the target pixel in the captured image as the local area. To do.

ステップS104:CPU14は、局所領域に含まれる各画素の画素値の勾配情報を用いて、注目画素Xの位置での画像勾配ベクトルを求める。ここでは一例として、S104でのCPU14は、画素値の勾配を求めるときに、撮像画像の輝度に着目して演算を行う。入力される撮像画像データがYCbCr形式のものであれば、CPU14はY成分の画素値の勾配を求めればよいが、撮像画像データがRGB形式の場合には、CPU14はRGBのいずれかの画素値の勾配を求めてもよく、あるいはRGBからYCbCrへ色空間変換後にY成分の画素値の勾配を求めればよい。   Step S104: The CPU 14 obtains an image gradient vector at the position of the target pixel X using the gradient information of the pixel value of each pixel included in the local region. Here, as an example, the CPU 14 in S104 performs calculation by paying attention to the luminance of the captured image when obtaining the gradient of the pixel value. If the input captured image data is in the YCbCr format, the CPU 14 only needs to obtain the gradient of the pixel value of the Y component. However, if the captured image data is in the RGB format, the CPU 14 determines any pixel value of RGB. The gradient of the pixel value of the Y component may be obtained after color space conversion from RGB to YCbCr.

次に、S104でのCPU14は、以下の要領で画像勾配ベクトルを求める演算処理を行う。上記の局所領域(S103)内の各画素xiについて、画素値の勾配を Next, the CPU 14 in S104 performs a calculation process for obtaining an image gradient vector in the following manner. For each pixel x i in the local region (S103), the gradient of the pixel value is

の固有値問題を解くことで求めることができる。但し、上記の式(2)中の「C」は、局所領域内の各画素xiにおける画素値f(x)を用いて下式(3)により定義される行列を示している。 Can be obtained by solving the eigenvalue problem. However, “C” in the above equation (2) indicates a matrix defined by the following equation (3) using the pixel value f (x) at each pixel x i in the local region.

なお、上記の式(3)の「Σ」は、いずれも局所領域に含まれる全画素の和を示している。 Note that “Σ” in Equation (3) above represents the sum of all the pixels included in the local region.

また、上記の行列Cは2行2列の行列であるので、上記の式(2)は2つの固有値と、2つの異なる単位固有ベクトルとをもつことが分かる。   Further, since the matrix C is a 2 × 2 matrix, the above equation (2) has two eigenvalues and two different unit eigenvectors.

ステップS105:CPU14は、現在の注目画素Xが最後の位置(画像の右下隅の画素)のものであるか否かを判定する。上記要件を満たす場合(YES側)にはS106に移行する。一方、上記要件を満たさない場合(NO側)には、CPU14はS102に戻って上記動作を繰り返す。なお、S105でのNO側のループにより、撮像画像の各位置で求められた画像勾配ベクトルの情報がそれぞれメモリ15に記憶されることとなる。   Step S105: The CPU 14 determines whether or not the current pixel of interest X is at the last position (pixel at the lower right corner of the image). If the above requirement is satisfied (YES side), the process proceeds to S106. On the other hand, if the above requirement is not satisfied (NO side), the CPU 14 returns to S102 and repeats the above operation. Note that the information on the image gradient vector obtained at each position of the captured image is stored in the memory 15 by the NO-side loop in S105.

ステップS106:CPU14は、画像勾配ベクトルの情報を用いて、以下の(イ)または(ロ)のいずれかの手法(あるいは両者の組み合わせ)によって、撮像画像の各位置でのエッジの強度を求める。   Step S106: The CPU 14 obtains the edge strength at each position of the captured image by using one of the following methods (a) and (b) (or a combination of both) using the information of the image gradient vector.

(イ)CPU14は、各注目画素の位置における画像勾配ベクトルの強度を示す固有値λl(S104で求まったもの)から、撮像画像の各位置でのエッジの強度を求める。 (A) The CPU 14 obtains the edge strength at each position of the captured image from the eigenvalue λ l (obtained in S104) indicating the strength of the image gradient vector at the position of each target pixel.

ここで、上記の固有値λlは画像のエッジの勾配の指向強度を2乗した量となっているので、固有値λlの2重根をエッジの強度とすることが好ましい。また、固有値λlは局所領域内の画素数に比例する値であるため、局所領域内の画素数で平均化することが好ましい。そのため、CPU14は、以下の式(4)により、各々の注目画素Xごとにエッジの強度Eを演算する。 Here, since the eigenvalue λ l is an amount obtained by squaring the directivity of the edge gradient of the image, it is preferable to use the double root of the eigenvalue λ l as the edge strength. Since the eigenvalue λ l is a value proportional to the number of pixels in the local area, it is preferable to average the number of pixels in the local area. Therefore, the CPU 14 calculates the edge strength E for each pixel of interest X according to the following equation (4).

なお、式(4)の「N」は、局所領域内の画素数を示している。また、上記の画像勾配ベクトルの強度が大きくなるほど、その注目画素の位置での画像のエッジの強度はより高くなることを示す。そのため、上記のエッジの強度の値を用いて画像から輪郭を抽出できることが分かる。 Note that “N” in Expression (4) indicates the number of pixels in the local region. In addition, as the intensity of the image gradient vector increases, the intensity of the edge of the image at the position of the target pixel increases. Therefore, it can be seen that the contour can be extracted from the image by using the value of the edge strength.

(ロ)CPU14は、隣接する注目画素間における画像勾配ベクトルの方向の相関に基づいて、撮像画像の各位置でのエッジの強度を求める。   (B) The CPU 14 obtains the strength of the edge at each position of the captured image based on the correlation of the direction of the image gradient vector between adjacent target pixels.

上記のように画像には相関があるため、画像の輪郭の部分では注目画素とその周囲の画素との画像勾配ベクトルの相関が高くなって同じ方向に向きやすくなる。一方、画像内で輪郭から離れている部分では上記の相関が無くなっていくため、輪郭の部分と比べると画像勾配ベクトルの向きは不均一なものとなる。そのため、隣接する注目画素間での画像勾配ベクトルの方向の相関をみれば、画像の各位置でのエッジの強度を求めることができる。   Since the images are correlated as described above, the image gradient vectors of the target pixel and the surrounding pixels are high in the contour portion of the image, and the images are easily oriented in the same direction. On the other hand, since the above correlation disappears in a portion away from the contour in the image, the direction of the image gradient vector is not uniform compared to the contour portion. Therefore, if the correlation of the direction of the image gradient vector between adjacent target pixels is observed, the edge strength at each position of the image can be obtained.

ステップS107:CPU14は、S106で求めた画像のエッジの強度の分布状態をモニタ19に表示する。これにより、ユーザーは、モニタ19の表示から画像の輪郭抽出の結果を容易に確認できる。   Step S107: The CPU 14 displays on the monitor 19 the distribution state of the edge intensity of the image obtained in S106. Thereby, the user can easily confirm the result of the contour extraction of the image from the display on the monitor 19.

一例として、図4に処理対象の撮像画像の例を示すとともに、図5に画像のエッジの強度の分布状態の表示画面を模式的に示す。なお、簡単のため、図5の表示画面ではエッジの強度が高いほど太い線で被写体を表現する。図4は、ピントが合った中央の人物は輪郭が鮮明であるが、背景の木はボケた状態となっている画像を示している。この場合、図5に示すエッジの強度の表示画面では、人物のエッジの強度が高い値で示される一方で、背景の木のエッジの強度は低い値で示される。以上で、図2の流れ図の説明を終了する。   As an example, FIG. 4 shows an example of a captured image to be processed, and FIG. 5 schematically shows a display screen of the edge intensity distribution state of the image. For simplicity, in the display screen of FIG. 5, the subject is represented by a thicker line as the edge strength is higher. FIG. 4 shows an image in which the center person in focus has a clear outline, but the background tree is blurred. In this case, in the edge strength display screen shown in FIG. 5, the strength of the edge of the person is indicated by a high value, while the strength of the edge of the background tree is indicated by a low value. Above, description of the flowchart of FIG. 2 is complete | finished.

なお、CPU14は、エッジの強度の情報を用いて撮像画像を複数の領域に分割する領域分割処理を行ってもよい。例えば、CPU14は、エッジの強度が一定以上となる画素を抽出して画像の輪郭線を求める。そして、画像処理部31は、撮像画像を上記の輪郭線で複数の領域に仕切って分割する。これにより、例えば、各種のフィルタ処理(例えば、ぼかしフィルタなど)を施す範囲やトリミングの範囲を指定するときに、ユーザーは、上記の分割領域単位での範囲指定が可能となる。   Note that the CPU 14 may perform an area dividing process for dividing the captured image into a plurality of areas using edge strength information. For example, the CPU 14 obtains a contour line of an image by extracting pixels whose edge strength is a certain level or more. Then, the image processing unit 31 divides the captured image by dividing the captured image into a plurality of regions by the contour line. As a result, for example, when designating a range for performing various types of filter processing (for example, a blurring filter) or a trimming range, the user can designate the range in units of the above-described divided regions.

以下、一の実施形態での作用効果を述べる。一の実施形態でのCPU14は、撮像画像の局所領域での画像勾配ベクトルをそれぞれ求めるとともに、画像勾配ベクトルの強度や画像勾配ベクトルの方向の相関に基づいて撮像画像から輪郭を抽出する。上記の画像勾配ベクトルは、局所領域内における画素値の勾配から主成分分析の手法を用いて求めるので、方向性のないノイズによる勾配成分から上記の画像勾配ベクトルへのノイズの影響は非常に小さなものとなる。そのため、一の実施形態では、画像のエッジ量を直接用いて画像の輪郭を抽出する手法よりも、より高い精度で画像の輪郭を抽出することが可能となる。   Hereinafter, the operational effects of the embodiment will be described. In one embodiment, the CPU 14 obtains an image gradient vector in a local region of the captured image, and extracts a contour from the captured image based on the correlation between the strength of the image gradient vector and the direction of the image gradient vector. Since the above image gradient vector is obtained from the gradient of pixel values in the local region using the principal component analysis method, the influence of noise from the gradient component due to non-directional noise on the above image gradient vector is very small. It will be a thing. Therefore, in one embodiment, it is possible to extract the contour of the image with higher accuracy than the method of extracting the contour of the image by directly using the edge amount of the image.

また、一の実施形態では、撮像画像の撮像感度に応じてパラメータを調整する必要はなく、コンピュータ11によって撮像画像から輪郭を抽出するときのユーザーの利便性が大きく向上する。   In one embodiment, it is not necessary to adjust parameters according to the imaging sensitivity of the captured image, and the convenience of the user when the computer 11 extracts the contour from the captured image is greatly improved.

<他の実施形態の説明>
図6は、他の実施形態の電子カメラの構成例を示すブロック図である。電子カメラ21は、フォーカシングレンズ22と、レンズ駆動部23と、撮像素子24と、制御部25と、ROM26と、バッファメモリ27と、モニタ28と、記録I/F29と、レリーズ釦30とを有している。ここで、レンズ駆動部23、撮像素子24、ROM26、バッファメモリ27、モニタ28、記録I/F29およびレリーズ釦30は、それぞれ制御部25に接続されている。
<Description of other embodiments>
FIG. 6 is a block diagram illustrating a configuration example of an electronic camera according to another embodiment. The electronic camera 21 includes a focusing lens 22, a lens driving unit 23, an image sensor 24, a control unit 25, a ROM 26, a buffer memory 27, a monitor 28, a recording I / F 29, and a release button 30. doing. Here, the lens driving unit 23, the image sensor 24, the ROM 26, the buffer memory 27, the monitor 28, the recording I / F 29, and the release button 30 are connected to the control unit 25, respectively.

フォーカシングレンズ22は、焦点調節を行うためのレンズである。このフォーカシングレンズ22のレンズ位置は、レンズ駆動部23によって光軸方向に調整される。   The focusing lens 22 is a lens for performing focus adjustment. The lens position of the focusing lens 22 is adjusted in the optical axis direction by the lens driving unit 23.

撮像素子24は、フォーカシングレンズ22を含む撮像光学系によって結像される被写体像を撮像して撮像画像の画像信号を生成する。なお、撮像素子24から出力された画像信号は、A/D変換回路(不図示)を介して制御部25に入力される。   The image sensor 24 captures a subject image formed by an imaging optical system including the focusing lens 22 and generates an image signal of the captured image. The image signal output from the image sensor 24 is input to the control unit 25 via an A / D conversion circuit (not shown).

ここで、電子カメラ21の撮影モードにおいて、撮像素子24はレリーズ釦30の全押し操作に応答して記録用の静止画像(本画像)を撮像する。また、撮影モードでの撮像素子24は、撮影待機時にも所定間隔毎に観測用の画像(スルー画像)を連続的に撮像する。ここで、時系列に取得されたスルー画像のデータは、モニタ28での動画像表示や制御部25による各種の演算処理に使用される。   Here, in the shooting mode of the electronic camera 21, the image sensor 24 captures a still image (main image) for recording in response to a full press operation of the release button 30. Further, the imaging element 24 in the shooting mode continuously captures images for observation (through images) at predetermined intervals even during standby for shooting. Here, the data of the through image acquired in time series is used for moving image display on the monitor 28 and various arithmetic processes by the control unit 25.

制御部25は、電子カメラ21の動作を統括的に制御するプロセッサである。また、制御部25は、ROM26に格納されたプログラムの実行により、画像処理部31として機能する。   The control unit 25 is a processor that comprehensively controls the operation of the electronic camera 21. The control unit 25 functions as an image processing unit 31 by executing a program stored in the ROM 26.

画像処理部31は、撮像画像のデータに対して各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整、色変換処理など)を施す。また、画像処理部31は、上記の一の実施形態と同様に、撮像画像の局所領域で画像勾配ベクトルをそれぞれ求めるとともに、画像勾配ベクトルの情報を用いてエッジの強度を求める。   The image processing unit 31 performs various types of image processing (color interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment, color conversion processing, etc.) on the captured image data. Similarly to the above-described one embodiment, the image processing unit 31 obtains an image gradient vector in each local region of the captured image, and obtains edge strength using information on the image gradient vector.

ROM26には、制御部25によって実行されるプログラムが記憶されている。なお、このプログラムによる撮影モードでの動作例については後述する。また、バッファメモリ27は、画像処理部31による画像処理の前工程や後工程で画像のデータを一時的に記憶する。このバッファメモリ27は揮発性の記憶媒体であるSDRAMにより構成される。また、モニタ28は、制御部25の指示に応じて各種画像を表示する。   The ROM 26 stores a program executed by the control unit 25. An example of the operation in the shooting mode by this program will be described later. The buffer memory 27 temporarily stores image data in a pre-process or post-process of image processing by the image processing unit 31. The buffer memory 27 is composed of SDRAM which is a volatile storage medium. The monitor 28 displays various images according to instructions from the control unit 25.

記録I/F29には、不揮発性の記憶媒体33を接続するためのコネクタが形成されている。そして、記録I/F29は、コネクタに接続された記憶媒体33に対してデータの書き込み/読み込みを実行する。上記の記憶媒体33は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図6では記憶媒体33の一例としてメモリカードを図示する。   The recording I / F 29 is formed with a connector for connecting a nonvolatile storage medium 33. The recording I / F 29 executes data writing / reading with respect to the storage medium 33 connected to the connector. The storage medium 33 includes a hard disk, a memory card incorporating a semiconductor memory, or the like. In FIG. 6, a memory card is illustrated as an example of the storage medium 33.

レリーズ釦30は、半押し操作による撮影前のオートフォーカス(AF)動作開始の指示入力と、全押し操作による撮像動作開始の指示入力とをユーザーから受け付ける。   The release button 30 receives from the user an instruction input for starting an autofocus (AF) operation before shooting by a half-press operation and an instruction input for starting an imaging operation by a full-press operation.

(電子カメラの撮影モードでの動作例)
次に、図7の流れ図を参照しつつ、他の実施形態の電子カメラ21の撮影モードでの動作例を説明する。この撮影モードでの電子カメラ21は、画像勾配ベクトルの情報を用いてスルー画像の領域分割を行うとともに、この領域分割の結果に基づいてシーン判別を行なう。なお、図7の流れ図の処理は、レリーズ釦30の半押し操作に応じて開始される。
(Operation example in shooting mode of electronic camera)
Next, an operation example in the shooting mode of the electronic camera 21 according to another embodiment will be described with reference to the flowchart of FIG. The electronic camera 21 in this shooting mode performs region segmentation of the through image using information of the image gradient vector, and performs scene discrimination based on the result of the region segmentation. 7 is started in response to a half-press operation of the release button 30.

ステップS201:制御部25は、撮像素子24を駆動させてスルー画像を撮像する。そして、撮像素子24から出力されたスルー画像のデータは、制御部25に入力される。   Step S201: The control unit 25 drives the image sensor 24 to capture a through image. The through image data output from the image sensor 24 is input to the control unit 25.

ステップS202:画像処理部31は、スルー画像に含まれる複数の画素のうちから、画像勾配ベクトルを求める注目画素Xの位置を指定する。なお、S202での画像処理部31は、一の実施形態とほぼ同じ要領で、スルー画像のうちの全ての画素を注目画素Xとして順次指定するものとする。   Step S202: The image processing unit 31 designates the position of the pixel of interest X for which the image gradient vector is obtained from the plurality of pixels included in the through image. Note that the image processing unit 31 in S202 sequentially designates all pixels in the through image as the target pixel X in substantially the same manner as in the first embodiment.

ステップS203:画像処理部31は、注目画素Xの位置を基準として、スルー画像内に所定サイズの局所領域を設定する。なお、S203の処理の内容は、図2のS103に対応するので重複説明は省略する。   Step S203: The image processing unit 31 sets a local area of a predetermined size in the through image with reference to the position of the target pixel X. Note that the content of the processing in S203 corresponds to S103 in FIG.

ステップS204:画像処理部31は、局所領域に含まれる各画素の画素値の勾配情報を用いて、注目画素Xの位置での画像勾配ベクトルを求める。なお、S204の処理の内容は、図2のS104に対応するので重複説明は省略する。   Step S204: The image processing unit 31 obtains an image gradient vector at the position of the pixel of interest X using the gradient information of the pixel value of each pixel included in the local region. Note that the content of the processing in S204 corresponds to S104 in FIG.

ステップS205:画像処理部31は、現在の注目画素Xが上記スルー画像内の最後の位置であるか否かを判定する。上記要件を満たす場合(YES側)にはS206に移行する。一方、上記要件を満たさない場合(NO側)には、画像処理部31はS202に戻って上記動作を繰り返す。   Step S205: The image processing unit 31 determines whether or not the current target pixel X is the last position in the through image. If the above requirement is satisfied (YES side), the process proceeds to S206. On the other hand, if the above requirement is not satisfied (NO side), the image processing unit 31 returns to S202 and repeats the above operation.

ステップS206:画像処理部31は、画像勾配ベクトルの情報を用いて、スルー画像の各位置でのエッジの強度を求める。S206での画像処理部31は、図2のS106での処理と同様に、画像勾配ベクトルの強度(固有値λl)からエッジの強度を求めるか、あるいは、隣接する注目画素間での固有単位ベクトルの内積からエッジの強度を求めればよい。そのため、上記のエッジの強度の演算についての重複説明は省略する。 Step S206: The image processing unit 31 obtains the strength of the edge at each position of the through image using the information of the image gradient vector. Similar to the processing in S106 of FIG. 2, the image processing unit 31 in S206 obtains the edge strength from the strength of the image gradient vector (eigenvalue λ l ), or the unique unit vector between adjacent target pixels. What is necessary is just to obtain | require the intensity | strength of an edge from the inner product of. For this reason, redundant description of the calculation of the edge strength is omitted.

ステップS207:画像処理部31は、エッジの強度の情報を用いてスルー画像を複数の領域に分割する。例えば、画像処理部31は、エッジの強度が一定以上となる画素を抽出して画像の輪郭線を求める。そして、画像処理部31は、スルー画像を上記の輪郭線で複数の領域に仕切って分割する。   Step S207: The image processing unit 31 divides the through image into a plurality of regions using the edge strength information. For example, the image processing unit 31 extracts a pixel whose edge strength is equal to or greater than a certain level and obtains an image outline. Then, the image processing unit 31 divides the through image by dividing the through image into a plurality of regions by the outline.

ステップS208:画像処理部31は、各々の分割領域(S207)での色情報(例えば色相および明度)に基づいて、スルー画像内に人物の肌に対応する領域があるか否かを判定する。上記要件を満たす場合(YES側)にはS209に移行する。一方、上記要件を満たさない場合(NO側)にはS210に移行する。   Step S208: The image processing unit 31 determines whether or not there is a region corresponding to the skin of the person in the through image, based on the color information (for example, hue and brightness) in each divided region (S207). If the above requirement is satisfied (YES side), the process proceeds to S209. On the other hand, if the above requirement is not satisfied (NO side), the process proceeds to S210.

ステップS209:この場合は、撮影画面内に人物が存在するシーンであると推測できる。そのため、制御部25は、撮影時のモード設定を人物撮影に適したモード(ポートレートモードなど)に自動的に変更する。これにより、人物撮影に適した撮影条件で人物を撮影することが可能となる。   Step S209: In this case, it can be estimated that the scene has a person in the shooting screen. Therefore, the control unit 25 automatically changes the mode setting at the time of shooting to a mode suitable for portrait shooting (portrait mode or the like). As a result, it is possible to shoot a person under shooting conditions suitable for portrait shooting.

なお、上記の人物撮影に適したモードにおいて、画像処理部31は画像処理のパラメータを調整してもよい。例えば、画像処理部31は、肌を白く表現するために肌色の領域の彩度を下げる色補正を行ったり、または、肌色のくすみなどを軽減するために肌色の領域の彩度を上げる色補正を行ってもよい。   In the above-described mode suitable for human photography, the image processing unit 31 may adjust image processing parameters. For example, the image processing unit 31 performs color correction that lowers the saturation of the skin color region in order to express the skin white, or color correction that increases the saturation of the skin color region in order to reduce dullness of the skin color. May be performed.

そして、制御部25は、ユーザーのレリーズ釦30の全押しに応じて、撮像素子24を駆動させて本画像の撮像処理を実行する。本画像のデータは、画像処理部31で所定の処理が施された後に記録I/F29を介して記憶媒体33に記録される。その後、制御部25は撮影モードの動作を終了する。   Then, in response to the user's full press of the release button 30, the control unit 25 drives the imaging device 24 to execute the imaging process for the main image. The data of the main image is recorded in the storage medium 33 through the recording I / F 29 after being subjected to predetermined processing by the image processing unit 31. Thereafter, the control unit 25 ends the operation in the shooting mode.

ステップS210:この場合は、撮影画面内に人物が存在しないシーンであると推測できる。そのため、制御部25は、撮影時のモード設定を通常の撮影モード(あるいは風景撮影に適した撮影モード)に自動的に変更する。   Step S210: In this case, it can be inferred that the scene has no person in the shooting screen. Therefore, the control unit 25 automatically changes the mode setting at the time of shooting to a normal shooting mode (or a shooting mode suitable for landscape shooting).

そして、制御部25は、ユーザーのレリーズ釦30の全押しに応じて、撮像素子24を駆動させて本画像の撮像処理を実行する。本画像のデータは、画像処理部31で所定の処理が施された後に記録I/F29を介して記憶媒体33に記録される。以上で、図7の流れ図の説明を終了する。   Then, in response to the user's full press of the release button 30, the control unit 25 drives the imaging device 24 to execute the imaging process for the main image. The data of the main image is recorded in the storage medium 33 through the recording I / F 29 after being subjected to predetermined processing by the image processing unit 31. Above, description of the flowchart of FIG. 7 is complete | finished.

他の実施形態の電子カメラ21は、画像勾配ベクトルの情報に基づいて画像の領域分割を行い、各分割領域の色情報を用いたシーン判別によって撮影モードの切り換えを行う。
よって、他の実施形態の電子カメラ21では、画像の領域分割を行うときにノイズによる輪郭の誤検出を抑制することができる。
The electronic camera 21 according to another embodiment performs image region division based on image gradient vector information, and switches shooting modes by scene discrimination using color information of each divided region.
Therefore, in the electronic camera 21 according to another embodiment, it is possible to suppress erroneous detection of a contour due to noise when performing image segmentation.

<実施形態の補足事項>
(1)本発明のプログラムを実行する装置は、上記実施形態のコンピュータ11や電子カメラ21の例に限定されることなく、画像の表示出力機能を有する電子機器全般(カメラ付携帯電話や画像のビューアなど)に広く適用できる。
<Supplementary items of the embodiment>
(1) The apparatus for executing the program of the present invention is not limited to the examples of the computer 11 and the electronic camera 21 of the above-described embodiment, and is a general electronic device having an image display output function (camera mobile phone with camera or image Widely applicable to viewers).

(2)上記の各実施形態では、輪郭抽出のための各種の演算処理をプログラムでソフトウェア的に実現する例を説明したが、これらの処理をASICを用いてハードウエア的に実現しても勿論かまわない。   (2) In each of the above-described embodiments, an example has been described in which various arithmetic processes for contour extraction are realized by software using a program. Of course, these processes may be realized by hardware using an ASIC. It doesn't matter.

(3)上記の他の実施形態では、電子カメラ21がシーン判別を行うときに画像勾配ベクトルの情報に基づいて画像の領域分割を行う例を説明した。しかし、他の実施形態の電子カメラ21も、一の実施形態の場合と同様に、撮影後の後処理工程に本画像を処理対象として輪郭抽出処理を行うことは勿論可能である。   (3) In the other embodiments described above, an example has been described in which image segmentation is performed based on image gradient vector information when the electronic camera 21 performs scene discrimination. However, as in the case of the first embodiment, the electronic camera 21 of the other embodiments can of course perform the contour extraction process using the main image as a processing target in a post-processing step after photographing.

また、上記の他の実施形態における電子カメラ21の領域分割処理は、例えば人物が主要被写体であるときに背景領域のみを画像処理でぼかしてポートレート調の画像を生成する場合などにも応用できる。   In addition, the area dividing process of the electronic camera 21 in the other embodiments described above can be applied to a case where a portrait image is generated by blurring only the background area by image processing when a person is a main subject, for example. .

以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずであり、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物によることも可能である。   From the above detailed description, features and advantages of the embodiments will become apparent. It is intended that the scope of the claims extend to the features and advantages of the embodiments as described above without departing from the spirit and scope of the right. Further, any person having ordinary knowledge in the technical field should be able to easily come up with any improvements and modifications, and there is no intention to limit the scope of the embodiments having the invention to those described above. It is also possible to use appropriate improvements and equivalents within the scope disclosed in.

一の実施形態に係る画像処理装置の構成例を示すブロック図1 is a block diagram illustrating a configuration example of an image processing apparatus according to an embodiment. 一の実施形態の画像処理プログラムによる輪郭抽出処理の一例を示す流れ図A flow chart showing an example of contour extraction processing by an image processing program of one embodiment 局所領域および画像勾配ベクトルの説明図Illustration of local region and image gradient vector 処理対象の撮像画像の例を示す図The figure which shows the example of the captured image of a process target 図4に対応する画像のエッジの強度の分布状態の表示画面の例を示す模式図The schematic diagram which shows the example of the display screen of the intensity distribution state of the edge of the image corresponding to FIG. 他の実施形態の電子カメラの構成例を示すブロック図The block diagram which shows the structural example of the electronic camera of other embodiment. 他の実施形態の電子カメラの撮影モードでの動作例を示す流れ図The flowchart which shows the operation example in the imaging | photography mode of the electronic camera of other embodiment

符号の説明Explanation of symbols

11…コンピュータ、12…データ読込部、13…記憶装置、14…CPU、15…メモリ、16…入出力I/F、17…バス、18…入力デバイス、19…モニタ、21…電子カメラ、22…フォーカシングレンズ、23…レンズ駆動部、24…撮像素子、25…制御部、26…ROM、27…バッファメモリ、28…モニタ、29…記録I/F、30…レリーズ釦、31…画像処理部、33…記憶媒体

DESCRIPTION OF SYMBOLS 11 ... Computer, 12 ... Data reading part, 13 ... Memory | storage device, 14 ... CPU, 15 ... Memory, 16 ... Input-output I / F, 17 ... Bus, 18 ... Input device, 19 ... Monitor, 21 ... Electronic camera, 22 DESCRIPTION OF SYMBOLS ... Focusing lens, 23 ... Lens drive part, 24 ... Image pick-up element, 25 ... Control part, 26 ... ROM, 27 ... Buffer memory, 28 ... Monitor, 29 ... Recording I / F, 30 ... Release button, 31 ... Image processing part 33 ... Storage medium

Claims (8)

撮像画像を取得する画像読込処理と、
前記撮像画像に含まれる画素のうちから注目画素を指定するとともに、前記注目画素の位置を基準として前記撮像画像内に所定サイズの局所領域を設定する局所領域設定処理と、
前記局所領域に含まれる複数の画素から求めた画素値の勾配情報を用いて、前記局所領域内での前記勾配情報の総和を変数とする主成分分析の固有値問題を解くことにより、前記注目画素の位置での画像の勾配を示す画像勾配ベクトルを求める勾配情報演算処理と、
少なくとも2つ以上の前記注目画素から求まる前記画像勾配ベクトルの情報を用いて、前記撮像画像から輪郭を抽出する輪郭抽出処理と、
をコンピュータに実行させることを特徴とするプログラム。
An image reading process for acquiring a captured image;
A local area setting process for designating a target pixel from among pixels included in the captured image and setting a local area of a predetermined size in the captured image with reference to the position of the target pixel;
Using the gradient information of pixel values obtained from a plurality of pixels included in the local region, solving the eigenvalue problem of principal component analysis using the sum of the gradient information in the local region as a variable, the pixel of interest A gradient information calculation process for obtaining an image gradient vector indicating the gradient of the image at the position;
A contour extraction process for extracting a contour from the captured image using information of the image gradient vector obtained from at least two or more pixels of interest;
A program that causes a computer to execute.
請求項1に記載のプログラムにおいて、The program according to claim 1,
前記勾配情報演算処理では、局所領域内の画素xIn the gradient information calculation process, the pixel x in the local region ii について、画素値の勾配をFor the slope of the pixel value
ただし、式(2)の「C」は下式(3)により定義される。However, “C” in Expression (2) is defined by Expression (3) below.
請求項1または請求項2に記載のプログラムにおいて、
前記輪郭抽出処理では、前記画像勾配ベクトルの強度を示す情報の比較を行うことで輪郭を抽出することを特徴とするプログラム。
In the program according to claim 1 or 2 ,
In the contour extracting process, a contour is extracted by comparing information indicating the intensity of the image gradient vector.
請求項1または請求項2に記載のプログラムにおいて、
前記輪郭抽出処理では、隣接する前記注目画素間における前記画像勾配ベクトルの方向の相関に基づいて輪郭を抽出することを特徴とするプログラム。
In the program according to claim 1 or 2 ,
In the contour extracting process, a contour is extracted based on the correlation of the direction of the image gradient vector between adjacent pixels of interest.
請求項1から請求項のいずれか1項に記載のプログラムにおいて、
前記輪郭抽出処理で抽出した輪郭の情報を用いて、前記撮像画像を複数の領域に分割する領域分割処理をさらに含むことを特徴とするプログラム。
In the program according to any one of claims 1 to 4 ,
A program further comprising an area dividing process for dividing the captured image into a plurality of areas using the information on the outline extracted by the outline extracting process.
請求項1から請求項のいずれか1項に記載のプログラムを実行するコンピュータを備えることを特徴とするカメラ。 A camera comprising a computer that executes the program according to any one of claims 1 to 5 . 撮像画像を取得する取得部と、  An acquisition unit for acquiring a captured image;
前記撮像画像に含まれる画素のうちから注目画素を指定するとともに、前記注目画素の位置を基準として前記撮像画像内に所定サイズの局所領域を設定する局所領域設定部と、  A local region setting unit that specifies a target pixel from among pixels included in the captured image, and sets a local region of a predetermined size in the captured image with reference to the position of the target pixel;
前記局所領域に含まれる複数の画素から求めた画素値の勾配情報の総和を用いて、前記局所領域内での前記勾配情報の総和を変数とする主成分分析の固有値問題を解くことにより、前記注目画素の位置での画像の勾配を示す画像勾配ベクトルを求める勾配情報演算部と、  By using the sum of gradient information of pixel values obtained from a plurality of pixels included in the local region, by solving the eigenvalue problem of principal component analysis using the sum of the gradient information in the local region as a variable, A gradient information calculation unit for obtaining an image gradient vector indicating the gradient of the image at the position of the target pixel;
少なくとも2つ以上の前記注目画素から求まる前記画像勾配ベクトルの情報を用いて、前記撮像画像から輪郭を抽出する輪郭抽出部と、A contour extraction unit that extracts a contour from the captured image using information on the image gradient vector obtained from at least two or more pixels of interest;
を備えることを特徴とする画像処理装置。  An image processing apparatus comprising:
撮像画像を取得する画像読込工程と、
前記撮像画像に含まれる画素のうちから注目画素を指定するとともに、前記注目画素の位置を基準として前記撮像画像内に所定サイズの局所領域を設定する局所領域設定工程と、
前記局所領域に含まれる複数の画素から求めた画素値の勾配情報を用いて、前記局所領域内での前記勾配情報の総和を変数とする主成分分析の固有値問題を解くことにより、前記注目画素の位置での画像の勾配を示す画像勾配ベクトルを求める勾配情報演算工程と、
少なくとも2つ以上の前記注目画素から求まる前記画像勾配ベクトルの情報を用いて、前記撮像画像から輪郭を抽出する輪郭抽出工程と、
を含むことを特徴とする画像の輪郭抽出方法。
An image reading process for acquiring a captured image;
A local region setting step of designating a target pixel from among pixels included in the captured image and setting a local region of a predetermined size in the captured image with reference to the position of the target pixel;
Using the gradient information of pixel values obtained from a plurality of pixels included in the local region, solving the eigenvalue problem of principal component analysis using the sum of the gradient information in the local region as a variable, the pixel of interest A gradient information calculation step for obtaining an image gradient vector indicating the gradient of the image at the position;
A contour extraction step of extracting a contour from the captured image using information on the image gradient vector obtained from at least two or more pixels of interest;
A method for extracting an outline of an image, comprising:
JP2008244344A 2008-09-24 2008-09-24 Program, camera, image processing apparatus, and image contour extraction method Active JP5146223B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008244344A JP5146223B2 (en) 2008-09-24 2008-09-24 Program, camera, image processing apparatus, and image contour extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008244344A JP5146223B2 (en) 2008-09-24 2008-09-24 Program, camera, image processing apparatus, and image contour extraction method

Publications (2)

Publication Number Publication Date
JP2010079414A JP2010079414A (en) 2010-04-08
JP5146223B2 true JP5146223B2 (en) 2013-02-20

Family

ID=42209819

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008244344A Active JP5146223B2 (en) 2008-09-24 2008-09-24 Program, camera, image processing apparatus, and image contour extraction method

Country Status (1)

Country Link
JP (1) JP5146223B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7228219B2 (en) * 2018-06-29 2023-02-24 国立大学法人金沢大学 Lateral position estimation device and lateral position estimation method
JP7345306B2 (en) 2019-07-30 2023-09-15 キヤノン株式会社 Image processing device, image processing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2859067B2 (en) * 1993-02-23 1999-02-17 松下電工株式会社 Edge detection method
JP4619112B2 (en) * 2004-12-27 2011-01-26 花王株式会社 Hair shape measurement method
JP4807284B2 (en) * 2007-03-07 2011-11-02 カシオ計算機株式会社 Camera device, camera device control program, and camera device control method

Also Published As

Publication number Publication date
JP2010079414A (en) 2010-04-08

Similar Documents

Publication Publication Date Title
JP5398156B2 (en) WHITE BALANCE CONTROL DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE
KR101441786B1 (en) Subject determination apparatus, subject determination method and recording medium storing program thereof
US10382671B2 (en) Image processing apparatus, image processing method, and recording medium
US8830359B2 (en) Image processing apparatus, imaging apparatus, and computer readable medium
US11272095B2 (en) Detection apparatus for detecting portion satisfying predetermined condition from image, image processing apparatus for applying predetermined image processing on image, detection method, and image processing method
JP2009111716A (en) Imaging apparatus, program and template generating method
US9489721B2 (en) Image processing apparatus, image processing method, and storage medium
JP5589660B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP2006295582A (en) Image processor, imaging apparatus, and image processing program
JP5499531B2 (en) Electronic camera
JPWO2012093663A1 (en) Image processing apparatus, imaging apparatus, and image processing program
JP5772446B2 (en) Image processing apparatus and image processing program
JP5369729B2 (en) Image processing apparatus, imaging apparatus, and program
JP5509621B2 (en) Image processing apparatus, camera, and program
JP5146223B2 (en) Program, camera, image processing apparatus, and image contour extraction method
JP6099973B2 (en) Subject area tracking device, control method thereof, and program
JP4534750B2 (en) Image processing apparatus and image processing program
JP5206300B2 (en) Program, camera, image processing apparatus, and method for calculating focus degree of image
JP2017229025A (en) Image processing apparatus, image processing method, and program
JP5353141B2 (en) Program, camera, image processing apparatus, and method of calculating degree of focus of image
JP5463688B2 (en) Focus evaluation device, camera and program
JP6556033B2 (en) Image processing apparatus, image processing method, and program
JP6314281B1 (en) Image processing method and foreground region acquisition method
JP2011147076A (en) Image processing apparatus, image capturing apparatus and program
JP2010245923A (en) Subject tracking device, and camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121112

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5146223

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250