JP2005331738A - Mis-focus judging method and program thereabout - Google Patents

Mis-focus judging method and program thereabout Download PDF

Info

Publication number
JP2005331738A
JP2005331738A JP2004150398A JP2004150398A JP2005331738A JP 2005331738 A JP2005331738 A JP 2005331738A JP 2004150398 A JP2004150398 A JP 2004150398A JP 2004150398 A JP2004150398 A JP 2004150398A JP 2005331738 A JP2005331738 A JP 2005331738A
Authority
JP
Japan
Prior art keywords
misfocus
block
image
edge
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004150398A
Other languages
Japanese (ja)
Other versions
JP4661084B2 (en
Inventor
Clark Ian
クラーク イアン
Megumi Kanda
めぐみ 神田
Poon Yunis
プーン ユニス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2004150398A priority Critical patent/JP4661084B2/en
Priority to US11/132,449 priority patent/US20060078217A1/en
Publication of JP2005331738A publication Critical patent/JP2005331738A/en
Application granted granted Critical
Publication of JP4661084B2 publication Critical patent/JP4661084B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To more properly judge mis-focus and further to more reduce a processing load. <P>SOLUTION: Magnitude of an edge gradient a(x y) and edge width w(x y) at each pixel position are calculated by using a luminance value of an image (S100-S130) and further mis-focus evaluation value M (x y) is calculated by using those (S140), the image is divided into blocks and mis-focus evaluation value Y(m, n) at each block unit is produced and further classification to a mis-focus block and an in-focus block is carried out by comparing Y(m, n) with a threshold value for block classification (S150, S160) and the image is judged whether it is mis-focus or not on the basis of the number of blocks in an in-focus block region and in a mis-focus block region and a position thereof toward the whole image or the like (S180). Consequently mis-focus can be more properly judged and treating load can be further reduced. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、ミスフォーカス判定方法およびこれに関するプログラムに関し、詳しくは、画像のミスフォーカスを判定するミスフォーカス判定方法およびこれをコンピュータに実行させるプログラムに関する。   The present invention relates to a misfocus determination method and a program related thereto, and more particularly to a misfocus determination method for determining a misfocus of an image and a program for causing a computer to execute the same.

従来、この種のミスフォーカス判定方法としては、カメラにより撮影する際に、撮影対象物に焦点が合うように対象物のエッジを検出する方法が提案されている(例えば、非特許文献1参照)。
Du-Ming Tsai,Hu-Jong Wang、「Segmenting Focused Objects in Complex Visual Images」、「Pattern Recognition Letters」、1998、19:929-940
Conventionally, as this type of misfocus determination method, there has been proposed a method of detecting an edge of an object so that the object to be imaged is in focus when the image is captured by a camera (for example, see Non-Patent Document 1). .
Du-Ming Tsai, Hu-Jong Wang, `` Segmenting Focused Objects in Complex Visual Images '', `` Pattern Recognition Letters '', 1998, 19: 929-940

しかしながら、こうしたミスフォーカス判定方法では、判定の精度が十分でない場合が生じる。例えば、画像にノイズが含まれる場合にノイズの影響を受けてしまったり、焦点が合っている領域のコントラストが低い場合に判定精度が低くなることがある。   However, in such a misfocus determination method, the determination accuracy may not be sufficient. For example, when the image includes noise, the determination accuracy may be lowered when the image is affected by the noise or when the contrast of the focused region is low.

本発明のミスフォーカス判定方法およびこれに関するプログラムは、より適正にミスフォーカスを判定することを目的の一つとする。また、本発明のミスフォーカス判定方法およびこれに関するプログラムは、ミスフォーカスの判定に掛かる処理負荷をより低減することを目的の一つとする。   One of the purposes of the misfocus determination method and the program related thereto according to the present invention is to determine misfocus more appropriately. Another object of the misfocus determination method and the program related thereto of the present invention is to further reduce the processing load required for misfocus determination.

本発明のミスフォーカス判定方法およびこれに関するプログラムは、上述の目的の少なくとも一部を達成するために以下の手段を採った。   The misfocus determination method and the program related thereto of the present invention employ the following means in order to achieve at least a part of the above-described object.

本発明の第1のミスフォーカス判定方法は、
画像のミスフォーカスを判定するミスフォーカス判定方法であって、
(a1)画像を構成する各画素の輝度情報に基づいて該画像の各位置におけるエッジの程度を示すエッジ評価値を演算し、
(b1)少なくとも一つの前記各位置を含むブロックに前記画像を分割すると共に該ブロックに含まれる該各位置のエッジ評価値に基づいて該ブロックがピントが合っているインフォーカスブロックであるか否かを判定し、
(c1)該判定によりインフォーカスブロックであると判定されたブロックにより構成されるインフォーカス領域と前記画像全体との割合に基づいて該画像のミスフォーカスを判定する、
ことを要旨とする。
The first misfocus determination method of the present invention is:
A misfocus determination method for determining misfocus of an image, comprising:
(A1) An edge evaluation value indicating the degree of edge at each position of the image is calculated based on luminance information of each pixel constituting the image,
(B1) Dividing the image into blocks including at least one of the positions and determining whether the block is an in-focus block in focus based on an edge evaluation value at each position included in the block Determine
(C1) determining a misfocus of the image based on a ratio between an in-focus area composed of blocks determined to be an in-focus block by the determination and the entire image;
This is the gist.

この本発明の第1のミスフォーカス判定方法では、各画素の輝度情報に基づいて画像の各位置におけるエッジ評価値を演算し、画像をブロックに分割すると共にこのブロック内の各位置のエッジ評価値に基づいてブロックがインフォーカスブロックであるか否かを判定し、インフォーカスブロックと判定されたブロックにより構成されるインフォーカス領域と画像全体との割合に基づいて画像のミスフォーカスを判定する。即ち、エッジの程度に応じてインフォーカス領域を判定すると共にこのインフォーカス領域の割合に基づいて画像のミスフォーカスを判定するから、より適正に画像のミスフォーカスを判定することができる。さらに、ブロック単位でインフォーカス領域の判定などを行なうから、画素単位で行なう場合などと比較して、処理負荷をより低減することができる。   In the first misfocus determination method of the present invention, the edge evaluation value at each position of the image is calculated based on the luminance information of each pixel, the image is divided into blocks, and the edge evaluation value at each position in this block is calculated. Whether or not the block is an in-focus block is determined based on the above, and the misfocus of the image is determined based on the ratio between the in-focus area constituted by the block determined to be the in-focus block and the entire image. In other words, since the in-focus area is determined according to the degree of the edge and the misfocus of the image is determined based on the ratio of the in-focus area, the misfocus of the image can be determined more appropriately. Further, since the in-focus area is determined in units of blocks, the processing load can be further reduced as compared with the case of performing in units of pixels.

本発明の第2のミスフォーカス判定方法は、
画像のミスフォーカスを判定するミスフォーカス判定方法であって、
(a2)画像を構成する各画素の輝度情報に基づいて該画像の各位置におけるエッジの程度を示すエッジ評価値を演算し、
(b2)少なくとも一つの前記各位置を含むブロックに前記画像を分割すると共に該ブロックに含まれる該各位置のエッジ評価値に基づいて該ブロックがピントが外れているミスフォーカスブロックであるか否かを判定し、
(c2)該判定によりミスフォーカスブロックであると判定されたブロックにより構成されるミスフォーカス領域と前記画像全体との割合に基づいて該画像のミスフォーカスを判定する、
ことを要旨とする。
The second misfocus determination method of the present invention is:
A misfocus determination method for determining misfocus of an image, comprising:
(A2) calculating an edge evaluation value indicating the degree of edge at each position of the image based on the luminance information of each pixel constituting the image;
(B2) whether or not the image is divided into blocks including at least one of the positions and whether the block is a misfocus block that is out of focus based on an edge evaluation value of each position included in the block Determine
(C2) determining a misfocus of the image based on a ratio between a misfocus area constituted by a block determined to be a misfocus block by the determination and the entire image;
This is the gist.

この本発明の第2のミスフォーカス判定方法では、各画素の輝度情報に基づいて画像の各位置におけるエッジ評価値を演算し、画像をブロックに分割すると共にこのブロック内の各位置のエッジ評価値に基づいてブロックがミスフォーカスブロックであるか否かを判定し、ミスフォーカスブロックと判定されたブロックにより構成されるミスフォーカス領域と画像全体との割合に基づいて画像のミスフォーカスを判定する。即ち、エッジの程度に応じてミスフォーカス領域を判定すると共にこのミスフォーカス領域の割合に基づいて画像のミスフォーカスを判定するから、より適正に画像のミスフォーカスを判定することができる。さらに、ブロック単位でミスフォーカス領域の判定などを行なうから、画素単位で行なう場合などと比較して、処理負荷をより低減することができる。   In the second misfocus determination method of the present invention, the edge evaluation value at each position of the image is calculated based on the luminance information of each pixel, the image is divided into blocks, and the edge evaluation value at each position in this block is calculated. Whether or not the block is a misfocus block is determined, and the misfocus of the image is determined based on the ratio of the misfocus area constituted by the block determined to be a misfocus block and the entire image. In other words, the misfocus area is determined according to the degree of the edge, and the misfocus of the image is determined based on the ratio of the misfocus area. Therefore, the misfocus of the image can be determined more appropriately. Further, since the misfocus area is determined in units of blocks, the processing load can be further reduced as compared with the case of performing in units of pixels.

本発明の第3のミスフォーカス判定方法は、
画像のミスフォーカスを判定するミスフォーカス判定方法であって、
(a3)画像を構成する各画素の輝度情報に基づいて該画像の各位置におけるエッジの程度を示すエッジ評価値を演算し、
(b3)少なくとも一つの前記各位置を含むブロックに前記画像を分割すると共に該ブロックに含まれる該各位置のエッジ評価値に基づいて該ブロックがピントが合っているインフォーカスブロックであるか否かを判定すると共に該ブロックがピントが外れているミスフォーカスブロックであるか否かを判定し、
(c3)該判定によりインフォーカスブロックであると判定されたブロックにより構成されるインフォーカス領域と該判定によりミスフォーカスブロックであると判定されたブロックにより構成されるミスフォーカス領域と前記画像全体との割合に基づいて該画像のミスフォーカスを判定する、
ことを要旨とする。
The third misfocus determination method of the present invention is:
A misfocus determination method for determining misfocus of an image, comprising:
(A3) calculating an edge evaluation value indicating the degree of edge at each position of the image based on the luminance information of each pixel constituting the image;
(B3) Whether the image is an in-focus block that is in focus based on the edge evaluation value of each position included in the block while the image is divided into at least one block including the position And whether the block is a misfocus block that is out of focus,
(C3) An in-focus area composed of blocks determined to be an in-focus block by the determination, a mis-focus area composed of blocks determined to be a mis-focus block by the determination, and the entire image Determining the misfocus of the image based on the percentage;
This is the gist.

この本発明の第3のミスフォーカス判定方法では、各画素の輝度情報に基づいて画像の各位置におけるエッジ評価値を演算し、画像をブロックに分割すると共にこのブロック内の各位置のエッジ評価値に基づいてブロックがインフォーカスブロックであるか否かを判定すると共にミスフォーカスブロックであるか否かを判定し、インフォーカスブロックと判定されたブロックにより構成されるインフォーカス領域とミスフォーカスブロックと判定されたブロックにより構成されるミスフォーカス領域と画像全体との割合に基づいて画像のミスフォーカスを判定する。即ち、エッジの程度に応じてインフォーカス領域やミスフォーカス領域を判定すると共にこのインフォーカス領域やミスフォーカス領域の割合に基づいて画像のミスフォーカスを判定するから、より適正に画像のミスフォーカスを判定することができる。さらに、ブロック単位でインフォーカス領域やミスフォーカス領域の判定などを行なうから、画素単位で行なう場合などと比較して、処理負荷をより低減することができる。   In the third misfocus determination method of the present invention, the edge evaluation value at each position of the image is calculated based on the luminance information of each pixel, the image is divided into blocks, and the edge evaluation value at each position in this block is calculated. Whether or not the block is an in-focus block and whether or not the block is a mis-focus block are determined, and an in-focus area and a mis-focus block configured by blocks determined to be an in-focus block are determined. The misfocus of the image is determined on the basis of the ratio between the misfocus area constituted by the formed blocks and the entire image. That is, the in-focus area and the mis-focus area are determined according to the degree of the edge, and the mis-focus of the image is determined based on the ratio of the in-focus area and the mis-focus area. can do. Furthermore, since the determination of the in-focus area and the misfocus area is performed in units of blocks, the processing load can be further reduced as compared with the case of performing in units of pixels.

こうした本発明のミスフォーカス判定方法において、前記ステップ(c1)〜(c3)は、前記インフォーカス領域の割合が小さいほど/前記ミスフォーカス領域の割合が大きいほど前記画像をミスフォーカスと判定しやすいステップであるものとすることもできる。こうすれば、インフォーカス領域の割合が小さい場合やミスフォーカス領域の割合が大きい場合に画像をミスフォーカスと判定しやすくすることができる。   In such a misfocus determination method of the present invention, the steps (c1) to (c3) are steps in which it is easier to determine that the image is misfocused as the ratio of the in-focus area is smaller / the ratio of the misfocus area is larger. It can also be assumed. This makes it easy to determine that the image is misfocused when the ratio of the in-focus area is small or when the ratio of the misfocus area is large.

また、本発明のミスフォーカス判定方法において、前記ステップ(c1)〜(c3)は、前記インフォーカス領域および/または前記ミスフォーカス領域の前記画像全体における位置に基づいて該画像のミスフォーカスを判定するステップであるものとすることもできる。こうすれば、インフォーカス領域やミスフォーカス領域の位置に応じて画像のミスフォーカスを判定することができる。   In the misfocus determination method of the present invention, the steps (c1) to (c3) determine misfocus of the image based on the position of the in-focus area and / or the misfocus area in the entire image. It can also be a step. In this way, it is possible to determine the misfocus of the image according to the position of the in-focus area or the misfocus area.

さらに、本発明のミスフォーカス判定方法において、前記エッジ評価値はエッジの程度が小さいほど大きくなる傾向の値であり、前記ステップ(b1)〜(b3)は前記ブロックに含まれる前記各位置のエッジ評価値が大きいほど該ブロックがインフォーカスブロックでない/ミスフォーカスブロックであると判定しやすいステップであるものとすることもできる。こうすれば、エッジ評価値が大きいほど、インフォーカスブロックでないと判定したりミスフォーカスブロックであると判定したりすることができる。   Furthermore, in the misfocus determination method of the present invention, the edge evaluation value is a value that tends to increase as the degree of the edge decreases, and the steps (b1) to (b3) include the edge at each position included in the block. The larger the evaluation value, the easier it is to determine that the block is not an in-focus block / a mis-focus block. In this way, as the edge evaluation value is larger, it can be determined that it is not an in-focus block or a misfocus block.

この態様の本発明のミスフォーカス判定方法において、前記ステップ(b1)〜(b3)は、前記ブロックに含まれる前記各位置のエッジ評価値に基づいて該ブロック単位のエッジ評価値を演算し、該ブロック単位のエッジ評価値が所定閾値以下のときには該ブロックがインフォーカスブロックである/ミスフォーカスブロックでないと判定し該ブロック単位のエッジ評価値が所定閾値より大きいときには該ブロックがインフォーカスブロックでない/ミスフォーカスブロックであると判定するステップであるものとすることもできる。こうすれば、ブロック単位のエッジ評価値と所定閾値との比較によりインフォーカスブロックやミスフォーカスブロックの判定を行なうことができる。   In this aspect of the misfocus determination method of the present invention, the steps (b1) to (b3) calculate an edge evaluation value for each block based on an edge evaluation value at each position included in the block, and When the edge evaluation value for each block is equal to or less than a predetermined threshold, it is determined that the block is an in-focus block / not a misfocus block. When the edge evaluation value for each block is greater than a predetermined threshold, the block is not an in-focus block / miss It may be a step for determining that the block is a focus block. In this way, it is possible to determine an in-focus block or a mis-focus block by comparing the edge evaluation value for each block with a predetermined threshold value.

この態様の本発明のミスフォーカス判定方法において、前記ステップ(a1)〜(a3)は、前記画像の各位置における垂直方向および/または水平方向に近接する画素間の輝度差を示すエッジ勾配を演算し、該演算したエッジ勾配が大きいほど小さな値となるように前記エッジ評価値を演算するステップであるものとすることもできる。こうすれば、エッジ勾配に基づいてエッジ評価値を演算することができる。この場合、前記ステップ(a1)〜(a3)は、Sobelエッジ検出用フィルタを用いて前記エッジ勾配を演算するステップであるものとすることもできる。   In the misfocus determination method of the present invention of this aspect, the steps (a1) to (a3) calculate an edge gradient indicating a luminance difference between pixels adjacent in the vertical direction and / or the horizontal direction at each position of the image. In addition, the edge evaluation value may be calculated such that the larger the calculated edge gradient is, the smaller the value is. In this way, the edge evaluation value can be calculated based on the edge gradient. In this case, the steps (a1) to (a3) may be steps of calculating the edge gradient using a Sobel edge detection filter.

この態様の本発明のミスフォーカス判定方法において、前記ステップ(a1)〜(a3)は、前記画像の各位置における垂直方向のエッジ勾配と水平方向のエッジ勾配とに基づいてエッジの方向を示すエッジ方向を演算し、該画像の各位置を中心として該演算したエッジ方向に近接する画素のうち輝度の極大値を有する画素と極小値を有する画素との距離を示すエッジ幅を演算し、該演算したエッジ幅が大きいほど大きな値となるように前記エッジ評価値を演算するステップであるものとすることもできる。こうすれば、エッジ幅に基づいてエッジ評価値を演算することができる。ここで「エッジの方向」とは、エッジを示す線に略直交する方向を意味する。   In this aspect of the misfocus determination method of the present invention, the steps (a1) to (a3) are edges that indicate the edge direction based on the vertical edge gradient and the horizontal edge gradient at each position of the image. The direction is calculated, and the edge width indicating the distance between the pixel having the maximum luminance value and the pixel having the minimum value among the pixels close to the calculated edge direction around each position of the image is calculated, and the calculation is performed. The edge evaluation value may be a step of calculating a larger value as the edge width is larger. In this way, the edge evaluation value can be calculated based on the edge width. Here, the “edge direction” means a direction substantially orthogonal to a line indicating the edge.

こうした本発明のミスフォーカス判定方法において、前記ステップ(b1)〜(b3)の後に、インフォーカスブロックおよび/またはミスフォーカスブロックが連続して配置される傾向で該ステップ(b1)〜(b3)による判定結果を修正するステップを備えるものとすることもできる。こうすれば、インフォーカスブロックやミスフォーカスブロックが連続するように判定結果を修正することができる。   In such a misfocus determination method of the present invention, after steps (b1) to (b3), in-focus blocks and / or misfocus blocks tend to be continuously arranged, and the steps (b1) to (b3) are performed. A step of correcting the determination result may be provided. In this way, the determination result can be corrected so that the in-focus block and the misfocus block are continuous.

本発明のプログラムは、上述したいずれかの態様の本発明のミスフォーカス判定方法をコンピュータに実行させることを要旨とする。   The gist of the program of the present invention is to cause a computer to execute the misfocus determination method of the present invention of any of the above-described aspects.

この本発明のプログラムでは、上述したいずれかの態様の本発明のミスフォーカス判定方法をコンピュータに実行させるから、本発明のミスフォーカス判定方法が奏する効果、例えば、より適正に画像のミスフォーカスを判定することができる効果や画素単位で行なう場合などと比較して処理負荷をより低減することができる効果などを奏することができる。   In the program according to the present invention, since the misfocus determination method of the present invention according to any one of the aspects described above is executed by the computer, the effect exerted by the misfocus determination method of the present invention, for example, the misfocus of the image is more appropriately determined. As a result, the processing load can be further reduced as compared with the case where the processing load can be achieved and the case where the processing is performed in units of pixels.

次に、本発明を実施するための最良の形態を実施例を用いて説明する。   Next, the best mode for carrying out the present invention will be described using examples.

図1は、実施例のミスフォーカス判定方法の一例を示すフローチャートである。実施例のミスフォーカス判定方法では、まず、図示するように、赤(R),緑(G),青(B)の表色系で表現された画像(RGB画像)を次式(1)〜(3)によりY(輝度),I(オレンジ−シアン),Q(緑−マゼンダ)の三要素からなるYIQ色空間に変換する(ステップS100)。   FIG. 1 is a flowchart illustrating an example of the misfocus determination method according to the embodiment. In the misfocus determination method of the embodiment, first, as shown in the figure, an image (RGB image) expressed in the color system of red (R), green (G), and blue (B) is expressed by the following equations (1) to (1) to According to (3), conversion is made into a YIQ color space composed of three elements of Y (luminance), I (orange-cyan), and Q (green-magenta) (step S100).

Y = 0.299R + 0.587G + 0.114B ・・・(1)
I = 0.596R - 0.274G + 0.322B ・・・(2)
Q = 0.211R - 0.523G + 0.312B ・・・(3)
Y = 0.299R + 0.587G + 0.114B (1)
I = 0.596R-0.274G + 0.322B (2)
Q = 0.211R-0.523G + 0.312B (3)

そして、YIQ色空間に変換した画像のYチャンネルの値(輝度値)を用いて各画素位置(x,y)における水平方向のエッジ勾配dxと垂直方向のエッジ勾配dyとを演算すると共にこのエッジ勾配dx,dyに基づいてエッジ勾配の大きさa(x,y)を次式(4)により計算する(ステップS110,S120)。実施例では、エッジ勾配dx,dyを演算する際には、図2に示すSobelフィルタを用いて行なうものとした。具体的には、対象となる画素位置(x,y)を中心として上下左右の9つの画素の輝度値に対してSobelフィルタの係数をそれぞれ乗算し、この乗算結果を合計することによりエッジ勾配dx,dyを演算する。   Then, using the Y channel value (luminance value) of the image converted to the YIQ color space, the horizontal edge gradient dx and the vertical edge gradient dy at each pixel position (x, y) are calculated and this edge is calculated. Based on the gradients dx and dy, the edge gradient magnitude a (x, y) is calculated by the following equation (4) (steps S110 and S120). In the embodiment, when calculating the edge gradients dx and dy, the Sobel filter shown in FIG. 2 is used. Specifically, the edge gradient dx is obtained by multiplying the luminance values of nine pixels above, below, left, and right around the target pixel position (x, y) by the Sobel filter coefficients and summing the multiplication results. , Dy are calculated.

Figure 2005331738
Figure 2005331738

続いて、エッジ勾配dx,dyに基づいてエッジ方向θを求めると共にこのエッジ方向θに基づいて定まる方向(水平方向か垂直方向)のエッジ幅w(x,y)を演算する(ステップS130)。図3は、エッジ方向θを概念的に説明する説明図である。図示するように、エッジ方向θはエッジ勾配dx,dyとの間で次式(5)の関係を満たすθとして求めることができ、エッジを示す線に対して略直交する方向となる。図4は、エッジ幅w(x,y)の一例を示す説明図である。図示するように、エッジ幅w(x,y)は、対象の画素位置(x,y)を基準として輝度値が極大値をとる最初の画素位置と輝度値が極小値をとる最初の画素位置との距離(画素数)である。エッジ幅w(x,y)を演算する際の方向は、実施例では、エッジ方向θが45°未満のときには水平方向とし、エッジ方向θが45°〜90°のときには垂直方向とした。   Subsequently, the edge direction θ is obtained based on the edge gradients dx, dy, and the edge width w (x, y) in the direction (horizontal direction or vertical direction) determined based on the edge direction θ is calculated (step S130). FIG. 3 is an explanatory diagram for conceptually explaining the edge direction θ. As shown in the figure, the edge direction θ can be obtained as θ satisfying the relationship of the following equation (5) between the edge gradients dx and dy, and is a direction substantially orthogonal to the line indicating the edge. FIG. 4 is an explanatory diagram showing an example of the edge width w (x, y). As shown in the drawing, the edge width w (x, y) is the first pixel position where the luminance value takes the maximum value and the first pixel position where the luminance value takes the minimum value with reference to the target pixel position (x, y). (The number of pixels). In the embodiment, the direction for calculating the edge width w (x, y) is the horizontal direction when the edge direction θ is less than 45 °, and the vertical direction when the edge direction θ is 45 ° to 90 °.

tanθ = dy/dx ・・・(5) tanθ = dy / dx (5)

そして、演算したエッジ勾配の大きさa(x,y)やエッジ幅w(x,y)に基づいて各画素位置(x,y)におけるミスフォーカスの程度を示すミスフォーカス評価値M(x,y)を次式(6)により演算する(ステップS140)。式(6)から分かるように、ミスフォーカス評価値M(x,y)は、エッジ勾配の大きさa(x,y)が大きいほど小さな値となり、エッジ幅w(x,y)が小さいほど小さな値となる。即ち、エッジ勾配が大きくてエッジ幅が短いような、はっきりとしたエッジが存在するほど、ミスフォーカス評価値M(x,y)は小さな値となるのである。なお、エッジ勾配の大きさa(x,y)が略値0の場合には、ミスフォーカス評価値M(x,y)には評価不能を示す値(例えば、“*”(アスタリスク)など)を設定するものとした。このようなケースとしては、画像のうち輝度の変化の少ない領域(例えば、空や海など)の画素位置におけるエッジ勾配の大きさa(x,y)などを考えることができる。   A misfocus evaluation value M (x, y) indicating the degree of misfocus at each pixel position (x, y) based on the calculated edge gradient magnitude a (x, y) and edge width w (x, y). y) is calculated by the following equation (6) (step S140). As can be seen from equation (6), the misfocus evaluation value M (x, y) becomes smaller as the edge gradient magnitude a (x, y) is larger, and the edge width w (x, y) is smaller. Small value. In other words, the misfocus evaluation value M (x, y) becomes smaller as there is a clear edge having a large edge gradient and a short edge width. When the edge gradient magnitude a (x, y) is approximately 0, the misfocus evaluation value M (x, y) is a value indicating that evaluation is impossible (for example, “*” (asterisk)). Was set. As such a case, the magnitude a (x, y) of the edge gradient at the pixel position of an area (for example, the sky or the sea) where the luminance change is small in the image can be considered.

M(x,y) = W(x,y)/a(x,y) ・・・(6) M (x, y) = W (x, y) / a (x, y) (6)

こうして各画素位置(x,y)におけるミスフォーカス評価値M(x,y)を演算すると、画像をm×nのブロックに分割し、分割したブロック内の各画素位置(x,y)におけるミスフォーカス評価値M(x,y)の中から最大値を抽出することによりブロック単位のミスフォーカス評価値Y(m,n)を生成する(ステップS150)。   When the misfocus evaluation value M (x, y) at each pixel position (x, y) is calculated in this way, the image is divided into m × n blocks, and a mistake at each pixel position (x, y) in the divided block is performed. By extracting the maximum value from the focus evaluation value M (x, y), a misfocus evaluation value Y (m, n) for each block is generated (step S150).

続いて、ブロック単位のミスフォーカス評価値Y(m,n)とブロック分類用の閾値とを比較することにより、各ブロックをピントが外れているミスフォーカスブロックとピントが合っているインフォーカスブロックとに分類してブロック分類X(m,n)を生成する(ステップS160)。具体的には、ミスフォーカス評価値Y(m,n)がブロック分類用の閾値より大きいときにはミスフォーカスブロックに分類し、ブロック分類用の閾値以下のときにはインフォーカスブロックに分類する。図5は、こうして生成されたブロック分類X(m,n)をイメージとして表す説明図である。図示するように、各ブロックは、ミスフォーカスブロックとインフォーカスブロックのほか、ブロック内の全ての画素位置のミスフォーカス評価値M(x,y)が評価不能を示す値であることを示す評価不能ブロックとに分類される。   Subsequently, by comparing the misfocus evaluation value Y (m, n) in units of blocks with a threshold for block classification, each block is out of focus and an in-focus block in focus. And block classification X (m, n) is generated (step S160). Specifically, when the misfocus evaluation value Y (m, n) is larger than the block classification threshold value, it is classified as a misfocus block, and when it is equal to or less than the block classification threshold value, it is classified as an infocus block. FIG. 5 is an explanatory diagram showing the block classification X (m, n) thus generated as an image. As shown in the drawing, each block has a misfocus evaluation value M (x, y) at all pixel positions in the block, in addition to the misfocus block and the in-focus block, indicating that the evaluation cannot be performed. It is classified as a block.

そして、ブロック分類X(m,n)や前述したブロック単位のミスフォーカス評価値Y(m,n)に基づいて、散在するインフォーカスブロックやミスフォーカスブロックを周辺のブロックに埋没させて分類が同じブロックを連続して配置するためのオブジェクト分割処理を実行する(ステップS170)。具体的には、ベイズの定理に基づく次式(7)〜(9)などを用いて、近接するブロックの分類を考慮して、各ブロックがミスフォーカスブロックである場合とインフォーカスブロックである場合の事後確率を演算し、この演算した事後確率が高い方の分類でブロック分類X(m,n)を更新する処理を繰り返し実行する。図6は、オブジェクト分割処理を実行する際のブロック分類X(m,n)の様子をイメージとして表す説明図である。このように、分類が同じブロックが連続して配置されるように、ブロック分類X(m,n)が更新される。なお、評価不能ブロックは、オブジェクト分類処理の最後に、周辺のブロックの分類に基づいてインフォーカスブロックかミスフォーカスブロックのどちらかに更新するものとした。   Then, based on the block classification X (m, n) and the above-mentioned block-unit misfocus evaluation value Y (m, n), the scattered infocus blocks and misfocus blocks are buried in the surrounding blocks and the classification is the same. Object division processing for arranging blocks in succession is executed (step S170). Specifically, the following equations (7) to (9) based on Bayes' theorem are used to consider the classification of adjacent blocks, and each block is a misfocus block or an in-focus block: The posterior probability is calculated, and the process of updating the block classification X (m, n) with the classification having the higher calculated posterior probability is repeatedly executed. FIG. 6 is an explanatory diagram showing the state of the block classification X (m, n) when executing the object division processing as an image. In this way, the block classification X (m, n) is updated so that blocks with the same classification are arranged consecutively. The block that cannot be evaluated is updated to either an in-focus block or a misfocus block based on the classification of the surrounding blocks at the end of the object classification process.

Figure 2005331738
Figure 2005331738

こうしてオブジェクト分割処理を実行すると、インフォーカスブロックの領域とミスフォーカスブロックの領域のブロック数や画像全体に対する位置などに基づいて画像がミスフォーカスであるか否かを判定する(ステップS180)。画像がミスフォーカスであるか否かの判定は各種の判断基準を適用して行なうことができる。実施例では、ミスフォーカスブロックの画像全体に対する割合(ミスフォーカスブロック数/画像全体のブロック数)が所定値(例えば、0.1)より大きく、かつ、画像の上下左右の四辺のうちインフォーカスブロックが接している辺の数が所定数(例えば、2)以下のときに、画像がミスフォーカスであると判定するものとした。なお、インフォーカスブロックの領域とミスフォーカスブロックの領域と画像全体との割合や位置に基づく判断基準であればその他の判断基準であっても構わないのは勿論であり、画像全体との割合のみに基づくものであっても構わない。   When the object division processing is executed in this manner, it is determined whether or not the image is misfocused based on the number of blocks in the in-focus block area and the misfocus block area, the position with respect to the entire image, and the like (step S180). Whether an image is misfocused can be determined by applying various criteria. In the embodiment, the ratio of the misfocus block to the entire image (number of misfocus blocks / number of blocks of the entire image) is greater than a predetermined value (for example, 0.1), and the in-focus block among the upper, lower, left, and right sides of the image. When the number of sides that are in contact with each other is a predetermined number (for example, 2) or less, it is determined that the image is misfocused. It should be noted that other criteria may be used as long as the criteria is based on the ratio and position of the in-focus block area, the misfocus block area, and the entire image, and only the ratio to the entire image. You may be based on.

以上説明した実施例のミスフォーカス判定方法によれば、画像の輝度値を用いて各画素位置(x,y)におけるエッジ勾配の大きさa(x,y)やエッジ幅w(x,y)を演算すると共にこれらを用いてミスフォーカス評価値M(x,y)を演算し、画像をブロックに分割してブロック単位のミスフォーカス評価値Y(m,n)を生成すると共にブロック分類用の閾値と比較してミスフォーカスブロックとインフォーカスブロックとに分類し、インフォーカスブロックの領域とミスフォーカスブロックの領域のブロック数や画像全体に対する位置などに基づいて画像がミスフォーカスであるか否かを判定することができる。したがって、より適正に画像のミスフォーカスを判定することができる。また、画像をm×nのブロックに分割すると共にこのブロック単位で処理を行なうから、画素単位で処理を行なう場合と比較して処理負荷をより低減することができる。さらに、散在するインフォーカスブロックやミスフォーカスブロックを周辺のブロックに埋没させて分類が同じブロックを連続して配置するオブジェクト分割処理を実行するから、より適正に画像のミスフォーカスを判定することができる。   According to the misfocus determination method of the embodiment described above, the edge gradient magnitude a (x, y) and edge width w (x, y) at each pixel position (x, y) using the luminance value of the image. And the misfocus evaluation value M (x, y) is calculated using these to divide the image into blocks to generate a block-unit misfocus evaluation value Y (m, n) and for block classification. Compared to the threshold value, it is classified into misfocus blocks and infocus blocks, and whether the image is misfocused based on the number of infocus block areas and misfocus block areas, the position of the entire image, etc. Can be determined. Therefore, it is possible to determine the misfocus of the image more appropriately. Further, since the image is divided into m × n blocks and the processing is performed in units of blocks, the processing load can be further reduced as compared with the case of performing processing in units of pixels. Furthermore, since the in-focus blocks and misfocus blocks that are scattered are buried in the surrounding blocks and the object division process is performed in which blocks with the same classification are continuously arranged, misfocus of the image can be determined more appropriately. .

ここで、実施例のミスフォーカス判定方法では、ミスフォーカス評価値M(x,y)がエッジ評価値に相当する。   Here, in the misfocus determination method of the embodiment, the misfocus evaluation value M (x, y) corresponds to the edge evaluation value.

実施例のミスフォーカス判定方法では、ミスフォーカス評価値M(x,y)は、エッジ勾配が大きくてエッジ幅が短いようなはっきりとしたエッジが存在するほど小さな値となるものとしたが、はっきりとしたエッジが存在するほど大きな値となるものとしてもよい。この場合、ブロックを分類する際には、ミスフォーカス評価値Y(m,n)がブロック分類用の閾値より大きいときにはインフォーカスブロックに分類しブロック分類用の閾値以下のときにはミスフォーカスブロックに分類するものとすればよい。   In the misfocus determination method of the embodiment, the misfocus evaluation value M (x, y) is set to a smaller value as there is a clear edge having a large edge gradient and a short edge width. It is good also as a thing with a big value, so that the edge which was made exists. In this case, when the block is classified, when the misfocus evaluation value Y (m, n) is larger than the block classification threshold, the block is classified as an in-focus block, and when the block is less than the block classification threshold, the block is classified as a misfocus block. It should be.

実施例のミスフォーカス判定方法では、エッジ勾配の大きさa(x,y)やエッジ幅w(x,y)に基づいてミスフォーカス評価値M(x,y)を演算するものとしたが、エッジ勾配の大きさa(x,y)のみに基づいて演算するものとしたり、エッジ幅w(x,y)のみに基づいて演算するものとしても構わない。さらに、ミスフォーカス評価値M(x,y)がエッジの程度に基づく値となれば、その他の各種の演算方法を適用するものとしても差し支えない。   In the misfocus determination method of the embodiment, the misfocus evaluation value M (x, y) is calculated based on the edge gradient size a (x, y) and the edge width w (x, y). The calculation may be performed based only on the edge gradient magnitude a (x, y) or may be performed based only on the edge width w (x, y). Furthermore, if the misfocus evaluation value M (x, y) is a value based on the degree of edge, other various calculation methods may be applied.

実施例のミスフォーカス判定方法では、ブロック内の各画素位置(x,y)におけるミスフォーカス評価値M(x,y)の中から最大値を抽出することによりブロック単位のミスフォーカス評価値Y(m,n)を生成するものとしたが、ブロック内のミスフォーカス評価値M(x,y)に基づいていればよく、例えば、ブロック内のミスフォーカス評価値M(x,y)の合計値や平均値,メディアンなどをブロック単位のミスフォーカス評価値Y(m,n)としてもよい。   In the misfocus determination method of the embodiment, the maximum value is extracted from the misfocus evaluation values M (x, y) at the respective pixel positions (x, y) in the block, so that the misfocus evaluation value Y ( m, n) is generated, but may be based on the misfocus evaluation value M (x, y) in the block. For example, the total value of the misfocus evaluation values M (x, y) in the block The average value, median, etc. may be used as the misfocus evaluation value Y (m, n) in units of blocks.

実施例のミスフォーカス判定方法では、散在するインフォーカスブロックやミスフォーカスブロックを周辺のブロックに埋没させて分類が同じブロックを連続して配置するためのオブジェクト分割処理を実行するものとしたが、こうしたオブジェクト分割処理を実行しなくても構わない。この場合、ステップS160により生成したブロック分類X(m,n)に基づいて画像がミスフォーカスであるか否かを判定すればよい。   In the misfocus determination method of the embodiment, scattered object in-focus blocks and misfocus blocks are buried in surrounding blocks, and object division processing is performed to continuously arrange blocks with the same classification. The object division process may not be executed. In this case, it may be determined whether or not the image is misfocused based on the block classification X (m, n) generated in step S160.

実施例のミスフォーカス判定方法では、インフォーカスブロックの領域とミスフォーカスブロックの領域のブロック数や画像全体に対する位置などに基づいて画像がミスフォーカスであるか否かを判定するものとしたが、インフォーカスブロックの領域のみに基づいて判定するものとしたりミスフォーカスブロックの領域のみに基づいて判定するものとしても構わない。   In the misfocus determination method of the embodiment, whether or not an image is misfocused is determined based on the number of in-focus block areas and the number of misfocus block areas, the position with respect to the entire image, and the like. The determination may be based only on the focus block area or may be determined based only on the misfocus block area.

実施例では、画像のミスフォーカスを判定する方法として説明したが、画像のミスフォーカスを判定するプログラムの形態としてもよい。この場合、図1に例示したミスフォーカス判定方法における各ステップを各手順として適当なプログラミング言語を用いてプログラムすればよい。   The embodiment has been described as a method for determining misfocus of an image, but may be in the form of a program for determining misfocus of an image. In this case, each step in the misfocus determination method illustrated in FIG. 1 may be programmed using an appropriate programming language as each procedure.

以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において、種々なる形態で実施し得ることは勿論である。   The best mode for carrying out the present invention has been described with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the gist of the present invention. Of course, it can be implemented in the form.

ミスフォーカス判定方法の一例を示すフローチャート。The flowchart which shows an example of the misfocus determination method. Sobelフィルタを示す説明図。Explanatory drawing which shows a Sobel filter. エッジ勾配dx,dyとエッジ方向θとの関係を示す説明図。Explanatory drawing which shows the relationship between edge gradient dx, dy and edge direction (theta). エッジ幅w(x,y)の一例を示す説明図。Explanatory drawing which shows an example of edge width w (x, y). ブロック分類X(m,n)をイメージとして表す説明図。Explanatory drawing showing block classification X (m, n) as an image. オブジェクト分割処理を実行する様子を表す説明図。Explanatory drawing showing a mode that an object division process is performed.

Claims (12)

画像のミスフォーカスを判定するミスフォーカス判定方法であって、
(a1)画像を構成する各画素の輝度情報に基づいて該画像の各位置におけるエッジの程度を示すエッジ評価値を演算し、
(b1)少なくとも一つの前記各位置を含むブロックに前記画像を分割すると共に該ブロックに含まれる該各位置のエッジ評価値に基づいて該ブロックがピントが合っているインフォーカスブロックであるか否かを判定し、
(c1)該判定によりインフォーカスブロックであると判定されたブロックにより構成されるインフォーカス領域と前記画像全体との割合に基づいて該画像のミスフォーカスを判定する、
ミスフォーカス判定方法。
A misfocus determination method for determining misfocus of an image, comprising:
(A1) An edge evaluation value indicating the degree of edge at each position of the image is calculated based on luminance information of each pixel constituting the image,
(B1) Dividing the image into blocks including at least one of the positions and determining whether the block is an in-focus block in focus based on an edge evaluation value at each position included in the block Determine
(C1) determining a misfocus of the image based on a ratio between an in-focus area composed of blocks determined to be an in-focus block by the determination and the entire image;
Misfocus determination method.
画像のミスフォーカスを判定するミスフォーカス判定方法であって、
(a2)画像を構成する各画素の輝度情報に基づいて該画像の各位置におけるエッジの程度を示すエッジ評価値を演算し、
(b2)少なくとも一つの前記各位置を含むブロックに前記画像を分割すると共に該ブロックに含まれる該各位置のエッジ評価値に基づいて該ブロックがピントが外れているミスフォーカスブロックであるか否かを判定し、
(c2)該判定によりミスフォーカスブロックであると判定されたブロックにより構成されるミスフォーカス領域と前記画像全体との割合に基づいて該画像のミスフォーカスを判定する、
ミスフォーカス判定方法。
A misfocus determination method for determining misfocus of an image, comprising:
(A2) calculating an edge evaluation value indicating the degree of edge at each position of the image based on the luminance information of each pixel constituting the image;
(B2) Whether or not the image is divided into at least one block including each of the positions, and whether the block is a misfocus block that is out of focus based on the edge evaluation value of each position included in the block Determine
(C2) determining a misfocus of the image based on a ratio between a misfocus area constituted by a block determined to be a misfocus block by the determination and the entire image;
Misfocus determination method.
画像のミスフォーカスを判定するミスフォーカス判定方法であって、
(a3)画像を構成する各画素の輝度情報に基づいて該画像の各位置におけるエッジの程度を示すエッジ評価値を演算し、
(b3)少なくとも一つの前記各位置を含むブロックに前記画像を分割すると共に該ブロックに含まれる該各位置のエッジ評価値に基づいて該ブロックがピントが合っているインフォーカスブロックであるか否かを判定すると共に該ブロックがピントが外れているミスフォーカスブロックであるか否かを判定し、
(c3)該判定によりインフォーカスブロックであると判定されたブロックにより構成されるインフォーカス領域と該判定によりミスフォーカスブロックであると判定されたブロックにより構成されるミスフォーカス領域と前記画像全体との割合に基づいて該画像のミスフォーカスを判定する、
ミスフォーカス判定方法。
A misfocus determination method for determining misfocus of an image, comprising:
(A3) calculating an edge evaluation value indicating the degree of edge at each position of the image based on the luminance information of each pixel constituting the image;
(B3) Whether the image is an in-focus block that is in focus based on the edge evaluation value of each position included in the block while the image is divided into at least one block including the position And whether the block is a misfocus block that is out of focus,
(C3) An in-focus area composed of blocks determined to be an in-focus block by the determination, a mis-focus area composed of blocks determined to be a mis-focus block by the determination, and the entire image Determining the misfocus of the image based on the percentage;
Misfocus determination method.
前記ステップ(c1)〜(c3)は、前記インフォーカス領域の割合が小さいほど/前記ミスフォーカス領域の割合が大きいほど前記画像をミスフォーカスと判定しやすいステップである請求項1ないし3いずれか記載のミスフォーカス判定方法。   4. The steps (c1) to (c3) are steps in which the image is more easily determined to be misfocused as the ratio of the in-focus area is smaller / the ratio of the misfocus area is larger. Misfocus determination method. 前記ステップ(c1)〜(c3)は、前記インフォーカス領域および/または前記ミスフォーカス領域の前記画像全体における位置に基づいて該画像のミスフォーカスを判定するステップである請求項1ないし4いずれか記載のミスフォーカス判定方法。   5. The step (c 1) to (c 3) is a step of determining misfocus of the image based on a position of the in-focus region and / or the misfocus region in the entire image. Misfocus determination method. 請求項1ないし5いずれか記載のミスフォーカス判定方法であって、
前記エッジ評価値は、エッジの程度が小さいほど大きくなる傾向の値であり、
前記ステップ(b1)〜(b3)は、前記ブロックに含まれる前記各位置のエッジ評価値が大きいほど該ブロックがインフォーカスブロックでない/ミスフォーカスブロックであると判定しやすいステップである、
ミスフォーカス判定方法。
A misfocus determination method according to any one of claims 1 to 5,
The edge evaluation value is a value that tends to increase as the degree of edge decreases.
The steps (b1) to (b3) are steps in which it is easier to determine that the block is not an in-focus block / a misfocus block as the edge evaluation value at each position included in the block is larger.
Misfocus determination method.
前記ステップ(b1)〜(b3)は、前記ブロックに含まれる前記各位置のエッジ評価値に基づいて該ブロック単位のエッジ評価値を演算し、該ブロック単位のエッジ評価値が所定閾値以下のときには該ブロックがインフォーカスブロックである/ミスフォーカスブロックでないと判定し該ブロック単位のエッジ評価値が所定閾値より大きいときには該ブロックがインフォーカスブロックでない/ミスフォーカスブロックであると判定するステップである請求項6記載のミスフォーカス判定方法。   The steps (b1) to (b3) calculate an edge evaluation value for each block based on an edge evaluation value at each position included in the block, and when the edge evaluation value for the block unit is equal to or less than a predetermined threshold value. The step of determining that the block is an in-focus block / not a mis-focus block and determining that the block is not an in-focus block / a mis-focus block when the edge evaluation value of the block unit is larger than a predetermined threshold. 6. The misfocus determination method according to 6. 前記ステップ(a1)〜(a3)は、前記画像の各位置における垂直方向および/または水平方向に近接する画素間の輝度差を示すエッジ勾配を演算し、該演算したエッジ勾配が大きいほど小さな値となるように前記エッジ評価値を演算するステップである請求項6または7記載のミスフォーカス判定方法。   The steps (a1) to (a3) calculate an edge gradient indicating a luminance difference between pixels adjacent to each other in the vertical direction and / or horizontal direction at each position of the image, and the larger the calculated edge gradient, the smaller the value. The misfocus determination method according to claim 6, wherein the edge evaluation value is calculated so that: 前記ステップ(a1)〜(a3)は、Sobelエッジ検出用フィルタを用いて前記エッジ勾配を演算するステップである請求項8記載のミスフォーカス判定方法。   9. The misfocus determination method according to claim 8, wherein the steps (a1) to (a3) are steps of calculating the edge gradient using a Sobel edge detection filter. 前記ステップ(a1)〜(a3)は、前記画像の各位置における垂直方向のエッジ勾配と水平方向のエッジ勾配とに基づいてエッジの方向を示すエッジ方向を演算し、該画像の各位置を中心として該演算したエッジ方向に近接する画素のうち輝度の極大値を有する画素と極小値を有する画素との距離を示すエッジ幅を演算し、該演算したエッジ幅が大きいほど大きな値となるように前記エッジ評価値を演算するステップである請求項6ないし9いずれか記載のミスフォーカス判定方法。   The steps (a1) to (a3) calculate an edge direction indicating an edge direction based on a vertical edge gradient and a horizontal edge gradient at each position of the image, and center each position of the image. As described above, the edge width indicating the distance between the pixel having the maximum luminance value and the pixel having the minimum value among the pixels adjacent to the calculated edge direction is calculated, and the larger the calculated edge width, the larger the value. The misfocus determination method according to claim 6, which is a step of calculating the edge evaluation value. 前記ステップ(b1)〜(b3)の後に、インフォーカスブロックおよび/またはミスフォーカスブロックが連続して配置される傾向で該ステップ(b1)〜(b3)による判定結果を修正するステップ(d)を備える請求項1ないし10いずれか記載のミスフォーカス判定方法。   After the steps (b1) to (b3), the step (d) of correcting the determination result according to the steps (b1) to (b3) in a tendency that in-focus blocks and / or misfocus blocks are continuously arranged. The misfocus determination method according to any one of claims 1 to 10. 請求項1ないし11いずれか記載のミスフォーカス判定方法をコンピュータに実行させるプログラム。   A program for causing a computer to execute the misfocus determination method according to any one of claims 1 to 11.
JP2004150398A 2004-05-20 2004-05-20 Misfocus determination method and related program Expired - Fee Related JP4661084B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004150398A JP4661084B2 (en) 2004-05-20 2004-05-20 Misfocus determination method and related program
US11/132,449 US20060078217A1 (en) 2004-05-20 2005-05-19 Out-of-focus detection method and imaging device control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004150398A JP4661084B2 (en) 2004-05-20 2004-05-20 Misfocus determination method and related program

Publications (2)

Publication Number Publication Date
JP2005331738A true JP2005331738A (en) 2005-12-02
JP4661084B2 JP4661084B2 (en) 2011-03-30

Family

ID=35486442

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004150398A Expired - Fee Related JP4661084B2 (en) 2004-05-20 2004-05-20 Misfocus determination method and related program

Country Status (1)

Country Link
JP (1) JP4661084B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011186452A (en) * 2010-02-15 2011-09-22 Nikon Corp Device and program for adjusting focus
JP2014521990A (en) * 2011-06-09 2014-08-28 ナム タイ,ヒョク Autofocus image system

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03125575A (en) * 1989-10-11 1991-05-28 Sony Corp Focus control circuit
JPH03162085A (en) * 1989-11-20 1991-07-12 Matsushita Electric Ind Co Ltd Picture coding/decoding device
JPH05300421A (en) * 1992-04-17 1993-11-12 Mitsubishi Electric Corp Automatic focusing device
JPH07298121A (en) * 1994-11-22 1995-11-10 Canon Inc Focusing detector
JPH09257424A (en) * 1996-03-19 1997-10-03 Omron Corp Distance-measuring apparatus and safe running system
JPH10200840A (en) * 1997-01-07 1998-07-31 Sony Corp Image signal recording device, recording and reproducing device, and recording method
JPH11133294A (en) * 1997-10-30 1999-05-21 Olympus Optical Co Ltd Focus detector
JPH11352392A (en) * 1998-06-12 1999-12-24 Dainippon Screen Mfg Co Ltd Focus controller and focus controlling method
JP2001331806A (en) * 2000-05-22 2001-11-30 Nec Corp Image processing system
WO2003100723A1 (en) * 2002-05-24 2003-12-04 Koninklijke Philips Electronics N.V. Unit for and method of calculating a sharpened edge
JP2004132933A (en) * 2002-10-15 2004-04-30 Japan Science & Technology Agency Position/attitude estimation method of active sensor, its device and position/attitude estimation program of active sensor

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03125575A (en) * 1989-10-11 1991-05-28 Sony Corp Focus control circuit
JPH03162085A (en) * 1989-11-20 1991-07-12 Matsushita Electric Ind Co Ltd Picture coding/decoding device
JPH05300421A (en) * 1992-04-17 1993-11-12 Mitsubishi Electric Corp Automatic focusing device
JPH07298121A (en) * 1994-11-22 1995-11-10 Canon Inc Focusing detector
JPH09257424A (en) * 1996-03-19 1997-10-03 Omron Corp Distance-measuring apparatus and safe running system
JPH10200840A (en) * 1997-01-07 1998-07-31 Sony Corp Image signal recording device, recording and reproducing device, and recording method
JPH11133294A (en) * 1997-10-30 1999-05-21 Olympus Optical Co Ltd Focus detector
JPH11352392A (en) * 1998-06-12 1999-12-24 Dainippon Screen Mfg Co Ltd Focus controller and focus controlling method
JP2001331806A (en) * 2000-05-22 2001-11-30 Nec Corp Image processing system
WO2003100723A1 (en) * 2002-05-24 2003-12-04 Koninklijke Philips Electronics N.V. Unit for and method of calculating a sharpened edge
JP2004132933A (en) * 2002-10-15 2004-04-30 Japan Science & Technology Agency Position/attitude estimation method of active sensor, its device and position/attitude estimation program of active sensor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011186452A (en) * 2010-02-15 2011-09-22 Nikon Corp Device and program for adjusting focus
JP2014521990A (en) * 2011-06-09 2014-08-28 ナム タイ,ヒョク Autofocus image system

Also Published As

Publication number Publication date
JP4661084B2 (en) 2011-03-30

Similar Documents

Publication Publication Date Title
CN110189349B (en) Image processing method and device
US8213738B2 (en) Method for eliminating noise from image generated by image sensor
KR101223046B1 (en) Image segmentation device and method based on sequential frame imagery of a static scene
JP5975598B2 (en) Image processing apparatus, image processing method, and program
CN107292828B (en) Image edge processing method and device
US8433153B2 (en) Image correction apparatus and image correction method
US20140064623A1 (en) Image feature extraction apparatus and image feature extraction method, and image processing system using the same
WO2017096814A1 (en) Image processing method and apparatus
JP5908844B2 (en) Image processing apparatus and image processing method
JP2005037378A (en) Depth measurement method and depth measurement device
JP7230507B2 (en) Deposit detection device
JP5812705B2 (en) Crack detection method
JP5705711B2 (en) Crack detection method
JP6398335B2 (en) Filtering method and filtering apparatus in image processing
JP4990876B2 (en) Image processing device
WO2017128646A1 (en) Image processing method and device
US9672447B2 (en) Segmentation based image transform
JP4661084B2 (en) Misfocus determination method and related program
CN111582100A (en) Target object detection method and device
JP3860540B2 (en) Entropy filter and region extraction method using the filter
JP2017076240A (en) Image processing apparatus, image processing method, and program
CN104112266A (en) Image edge blurring detecting method and device
US9437008B1 (en) Image segmentation using bayes risk estimation of scene foreground and background
KR101582800B1 (en) Method for detecting edge in color image adaptively and apparatus and computer-readable recording media using the same
KR19990062036A (en) Edge Detection Method Using Differential Operators

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101220

R150 Certificate of patent or registration of utility model

Ref document number: 4661084

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140114

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees