JP4635760B2 - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
JP4635760B2
JP4635760B2 JP2005209064A JP2005209064A JP4635760B2 JP 4635760 B2 JP4635760 B2 JP 4635760B2 JP 2005209064 A JP2005209064 A JP 2005209064A JP 2005209064 A JP2005209064 A JP 2005209064A JP 4635760 B2 JP4635760 B2 JP 4635760B2
Authority
JP
Japan
Prior art keywords
edge
image
reference edge
image processing
edges
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005209064A
Other languages
Japanese (ja)
Other versions
JP2007026224A (en
Inventor
明宏 塚田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2005209064A priority Critical patent/JP4635760B2/en
Publication of JP2007026224A publication Critical patent/JP2007026224A/en
Application granted granted Critical
Publication of JP4635760B2 publication Critical patent/JP4635760B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、入力画像からエッジを抽出する画像処理装置及びその方法に関する。   The present invention relates to an image processing apparatus and method for extracting an edge from an input image.

入力画像からエッジを抽出する画像処理装置(方法)が知られており、下記[特許文献1]にも開示がある。下記[特許文献1]に記載のものでは、画像を複数の閾値で2値化し、該2値化された画像に対して、境界画素判定オペレータを作用させた後、境界画像を統合する。
特開平5−225336号公報
An image processing apparatus (method) for extracting an edge from an input image is known and disclosed in [Patent Document 1] below. In what is described in [Patent Document 1] below, an image is binarized with a plurality of threshold values, and a boundary pixel determination operator is applied to the binarized image, and then the boundary image is integrated.
JP-A-5-225336

境界画像のエッジ部分を理論和で合成しているため、エッジ部分であれば全て統合されてしまうため、特定部分で連続したエッジのみを抽出するようなことができない(もともと特定部分のエッジのみを抽出しようという発想がない。)従って、本発明の目的は、入力画像中の特定のエッジ部分のみを抽出することのできる画像処理装置及びその方法を提供することにある。   Since the edge part of the boundary image is synthesized by the theoretical sum, all the edge parts are integrated, so it is not possible to extract only the edges that are continuous in the specific part (originally only the edges of the specific part) Therefore, an object of the present invention is to provide an image processing apparatus and method capable of extracting only a specific edge portion in an input image.

請求項1に記載の画像処理装置は、入力画像から基準エッジを抽出する基準エッジ抽出手段と、分割前の参照エッジを抽出する参照エッジ抽出手段と、分割前の参照エッジを分割して複数の分割後参照エッジを生成する分割手段と、分割後の参照エッジのそれぞれについて基準エッジとの重複度を算出し、複数の分割後の参照エッジのうち、重複度が所定基準以上の分割後の参照エッジを用いて入力画像中のエッジを構成するエッジ構成手段とを備え、参照エッジの両側の微小領域の比較により入力画像中の対象物体が透明物体であるか否かを判定することで、入力画像中の透明物体のエッジを検出することを特徴としている。 The image processing apparatus according to claim 1, wherein a reference edge extracting unit that extracts a reference edge from an input image, a reference edge extracting unit that extracts a reference edge before division, and a plurality of reference edges before dividing are divided into a plurality of pieces. Dividing means for generating a reference edge after division and the degree of overlap with the base edge for each of the reference edges after division are calculated, and among the plurality of reference edges after division, the reference after division having a degree of overlap of a predetermined standard or more and a edge configuration means for configuring the edge in the input image using the edge, the target object in the input image by comparing the both sides of the small area of the reference edge that determines whether a transparent object, the input It is characterized by detecting the edge of a transparent object in an image .

また、請求項に記載の画像処理方法は、入力画像からエッジを抽出する画像処理装置において、入力画像から基準エッジと、分割前の参照エッジとを抽出し、分割前の参照エッジを分割して複数の分割後参照エッジを生成し、分割後の参照エッジのそれぞれについて基準エッジとの重複度を算出し、複数の分割後の参照エッジのうち、重複度が所定基準以上の分割後の参照エッジを用いて入力画像中のエッジを構成し、参照エッジの両側の領域の比較により入力画像中の対象物体が透明物体であるか否かを判定することで、入力画像中の透明物体のエッジを検出することを特徴としている。 The image processing method according to claim 5 is an image processing apparatus that extracts an edge from an input image, extracts a reference edge and a reference edge before division from the input image, and divides the reference edge before division. A plurality of divided reference edges, and the degree of overlap with the reference edge is calculated for each of the divided reference edges, and among the plurality of divided reference edges, the divided reference having a degree of overlap of a predetermined standard or more Edges in the input image are configured using edges, and the edge of the transparent object in the input image is determined by comparing the areas on both sides of the reference edge to determine whether the target object in the input image is a transparent object. It is characterized by detecting .

請求項及びに記載の発明は、請求項1に記載の画像処理装置、又は、請求項に記載の画像処理方法において、分割前の参照エッジが、分割フィルタ、ソーベルフィルタ、又は、キャニーフィルタを用いて抽出されることを特徴としている。 The invention described in claims 2 and 6 is the image processing apparatus according to claim 1 or the image processing method according to claim 5 , wherein the reference edge before division is a division filter, a Sobel filter, or It is characterized by being extracted using a Canny filter.

請求項及びに記載の発明は、請求項1に記載の画像処理装置、又は、請求項に記載の画像処理方法において、参照エッジの分割をエッジの勾配の変化が不連続な点で行われることを特徴としている。 According to the third and seventh aspects of the present invention, in the image processing apparatus according to the first aspect or the image processing method according to the fifth aspect , the reference edge is divided at a point where the change in the gradient of the edge is discontinuous. It is characterized by being performed.

請求項及びに記載の発明は、請求項1に記載の画像処理装置、又は、請求項に記載の画像処理方法において、重複度が、分割後の参照エッジと基準エッジの画素の重複割合であることを特徴としている。 The inventions according to claims 4 and 8 are the image processing apparatus according to claim 1 or the image processing method according to claim 5 , wherein the overlapping degree is a pixel overlap of the reference edge and the reference edge after the division. It is characterized by a ratio.

本発明の画像処理装置又は方法によれば、入力画像中の特定のエッジ部分(例えば、透明物体のエッジ部分)のみを精度良く抽出することができる。透明物体のエッジ部分の注出を試みる場合、特徴が現れているエッジのみを基準エッジとして採用するために、途切れ途切れに分割されて基準エッジが抽出されるる場合がある。このような場合、一般的なエッジ抽出手段による参照エッジと、基準エッジとが重複する部分については参照エッジをエッジとして抽出することで、所望のエッジのみ、かつ、連続したエッジを抽出することが可能となる。   According to the image processing apparatus or method of the present invention, it is possible to accurately extract only a specific edge portion (for example, an edge portion of a transparent object) in an input image. When the extraction of the edge portion of the transparent object is attempted, in order to adopt only the edge where the feature appears as the reference edge, the reference edge may be extracted after being divided into discontinuities. In such a case, only a desired edge and a continuous edge can be extracted by extracting a reference edge as an edge for a portion where a reference edge by a general edge extracting means and a reference edge overlap. It becomes possible.

本発明の画像処理装置は、画像取得部と、この取得した画像に各種フィルタをかけて処理する画像処理部と、最終的に処理された画像を出力する画像出力部を備えている。画像取得部は、CCDカメラなどである。画像処理部は、各種フィルタをかけるだけでなく、画像処理によって得た基準エッジや参照エッジ(詳しくは後述する)などに関する演算処理も行うもので、CPUやGPU、ROM・RAMなどを備えたECUである。画像出力部は、ディスプレイであったりプリンタであったり、次工程の処理を行う他のECUなどに画像信号として出力を行う出力部であったりする。   The image processing apparatus of the present invention includes an image acquisition unit, an image processing unit that processes the acquired image by applying various filters, and an image output unit that outputs the finally processed image. The image acquisition unit is a CCD camera or the like. The image processing unit not only applies various filters, but also performs arithmetic processing related to a standard edge and a reference edge (details will be described later) obtained by image processing, and includes an ECU including a CPU, GPU, ROM / RAM, etc. It is. The image output unit may be a display, a printer, or an output unit that outputs an image signal to another ECU that performs the next process.

上述した画像処理装置による画像処理制御例について説明する。この制御例についてのフローチャートを図1に示す。ここでは、抽出する特定のエッジは透明物体のエッジである。透明な物体をCCDカメラなどの撮像系を用いて検出・認識することを課題とすると、絵柄や3D形状のような特徴量を導くためには、偏光を用いたり、光源位置を特定したりするなどの特殊な環境下でなければ困難であり、現状で最も有力な手がかりはエッジとなる。   An example of image processing control by the above-described image processing apparatus will be described. A flowchart for this control example is shown in FIG. Here, the specific edge to be extracted is the edge of the transparent object. If it is an issue to detect and recognize a transparent object using an imaging system such as a CCD camera, polarization is used or a light source position is specified in order to derive a feature amount such as a pattern or a 3D shape. It is difficult if it is not in a special environment such as, and the most powerful clue at present is the edge.

しかし、通常のエッジ検出(Sobel,Canny)法では、透明部分のエッジだけでなくあらゆる物体のエッジを均等に抽出してしまい、その中から透明な物体のエッジのみを抽出することは困難であった。ただし、透明部分に特有の輝度の高くなる「てかり」の検出を行って透明物体を抽出することも検討されているが、この[てかり]現象は透明物体のみに特有なものではなく、曲面全体に存在するために決定的な手法となってはいない。   However, in the normal edge detection (Sobel, Canny) method, not only the edge of the transparent part but also the edge of every object is extracted uniformly, and it is difficult to extract only the edge of the transparent object from among them. It was. However, the extraction of transparent objects by detecting the “light” that increases the brightness specific to the transparent part is also under consideration, but this [light] phenomenon is not specific to transparent objects, It is not a definitive technique because it exists on the entire curved surface.

以下に説明する本実施形態の検出制御は、このような問題を解決するものである。図1に示されるように、まず、CCDカメラなどの画像取得部によって画像を取得する(ステップ100:図2)。この画像に、Sobel等のエッジ抽出フィルタをかけ、参照エッジIedgeを抽出する(ステップ105:図3)。この参照エッジIedgeを抽出するフィルタは、微分フィルタやCannyフィルタなどのフィルタであってもよい。これらのフィルタはエッジ抽出の一般的なフィルタで、後述する基準フィルタよりも比較的はっきりとエッジを抽出できるものである。 The detection control of this embodiment described below solves such a problem. As shown in FIG. 1, first, an image is acquired by an image acquisition unit such as a CCD camera (step 100: FIG. 2). This image is subjected to an edge extraction filter such as Sobel to extract a reference edge I edge (step 105: FIG. 3). The filter for extracting the reference edge I edge may be a filter such as a differential filter or a Canny filter. These filters are general filters for edge extraction, and can extract edges relatively clearly than a reference filter described later.

また、参照エッジIedgeの抽出と並行して、図1の画像に対して基底フィルタ(ここではwaveletフィルタをかけており、マザーウェーブレットフィルタ)を用いて、多重解像解析(K[ここでは、i=1〜N:N=4]層とする)を行って基準エッジを抽出する(ステップ110:図4〜図7)。本実施形態では透明物体(ガラスコップ)のエッジ検出を例に説明しており、透明エッジ部に似た形の基底が好ましい。ここでの図4〜図7は、waveletフィルタにおける周波数帯域が異なるものであり、図4から図7にかけて順に周波数が大きくなっている。 In parallel with the extraction of the reference edge I edge , a multi-resolution analysis (K i [here, a wavelet filter is applied to the image in FIG. 1) using a basis filter (here, a wavelet filter is applied). , I = 1 to N: N = 4] to extract the reference edge (step 110: FIGS. 4 to 7). In the present embodiment, edge detection of a transparent object (glass cup) is described as an example, and a base having a shape similar to a transparent edge portion is preferable. Here, FIGS. 4 to 7 show different frequency bands in the wavelet filter, and the frequencies increase in order from FIGS. 4 to 7.

基準エッジの抽出に用いるフィルタは、waveletフィルタの他、ガボールフィルタなどであっても良い。これらのフィルタは、望ましい周波数帯域、方向性のエッジを抽出することが可能である。あるいは、グラフカットフィルタやmeanshift法によって基準エッジを抽出しても良い。これらのフィルタは、望ましい色、エッジの強さ、等の領域/輪郭を抽出することが可能である。これらの基準エッジ抽出フィルタに共通する特性は、抽出したい特性のエッジを狙って(例えば、透明物体のエッジを狙って、特定の色のエッジを狙って、など)抽出できるということがある。   The filter used for extracting the reference edge may be a Gabor filter or the like in addition to the wavelet filter. These filters can extract desired frequency bands and directional edges. Alternatively, the reference edge may be extracted by a graph cut filter or a mean shift method. These filters can extract regions / outlines such as desired color, edge strength, etc. A characteristic common to these reference edge extraction filters is that it can be extracted by aiming at an edge having a characteristic to be extracted (for example, aiming at an edge of a transparent object and an edge of a specific color).

ステップ105の後、参照エッジIedgeについては、細線化を行い(必要に応じて伸張処理を施しても良い)、ジャンクション点(勾配が不連続な点、勾配変化が急な点)を求め、エッジのセグメント化(分割化)を行う(ステップ115)。ここでは、図2の参照エッジの図では線が複雑であるため、図4をある閾値で二値化した図8を例にしてセグメント化の例を示す。図8をセグメント化し、各セグメントを線で囲ったものが図9になる。1つの線で囲まれたものが一つのセグメントとなる。このようなセグメント化を、図2の参照エッジについて行う。これにより、参照エッジIedgeは分割され、複数にセグメント化される。 After step 105, the reference edge I edge is thinned (extension processing may be performed if necessary) to obtain a junction point (a point where the gradient is discontinuous or a point where the gradient changes suddenly). Edge segmentation is performed (step 115). Here, since the line is complicated in the reference edge diagram of FIG. 2, an example of segmentation is shown by taking FIG. 8 as an example of FIG. 4 binarized with a certain threshold value. FIG. 9 is obtained by segmenting FIG. 8 and enclosing each segment with a line. A segment surrounded by one line is one segment. Such segmentation is performed on the reference edge of FIG. Thereby, the reference edge I edge is divided and segmented into a plurality of segments.

一方、各基準エッジ(N=1〜4)を示す画像については、ステップ110の後、それぞれについて以下の処理を行う。基準エッジと参照エッジIedgeとを重ね合わせ、参照エッジの両側に存在する微小領域に着目する。ここでは、透明物体のエッジを検出するが、透明物体の参照エッジIedgeであれば、その両側では背景が一致する可能性が非常に高い(あるいは、一致する)はずである。ただし、透明部分の参照エッジIedgeの内側と外側の領域では、透明物体を透過するため、透明物体を透過する内側の領域にはボケが存在する。そこで、両側の微小領域の差を測定し(ステップ125)、その閾値が基準値以下である(ほぼ一致する、一致する)場合は、その参照エッジIedgeを透明物体のエッジであると判定する。 On the other hand, for the image showing each reference edge (N = 1 to 4), after step 110, the following processing is performed for each. The reference edge and the reference edge I edge are overlapped, and attention is paid to minute regions existing on both sides of the reference edge. Here, the edge of the transparent object is detected, but if it is the reference edge I edge of the transparent object, the possibility that the backgrounds match on both sides should be very high (or match). However, since the transparent object is transmitted through the inner and outer regions of the reference edge I edge of the transparent portion, blur exists in the inner region that transmits the transparent object. Therefore, the difference between the minute regions on both sides is measured (step 125), and when the threshold value is equal to or less than the reference value (substantially matches or matches), it is determined that the reference edge I edge is the edge of the transparent object. .

この工程を、図10の図と図11のフローチャートに基づいて説明する。図10に示されるように、参照エッジの両側に、対となる微小領域(一辺10〜20pixel程度の矩形領域)を設定し、これらの一方、透明物体を透過しない外側の領域dSout−iにガウシアンフィルターなどの平滑化(ボカシ)処理を行った後に、透明物体を透過する内側の領域dSin−iとの差Diff=Sin−i−Sout−iを算出する(ステップ1110)。なお、ステップ1100,S1105は、それぞれ上述した図1のフローチャートのステップ100,105に相当する。 This process will be described based on the diagram of FIG. 10 and the flowchart of FIG. As shown in FIG. 10, a pair of minute regions (rectangular regions having a side of about 10 to 20 pixels) are set on both sides of the reference edge, and one of these is set to an outer region dS out-i that does not transmit a transparent object. After performing a smoothing (blurring) process such as a Gaussian filter, a difference Diff i = S in−i −S out−i from the inner region dS in−i that passes through the transparent object is calculated (step 1110). Steps 1100 and S1105 correspond to steps 100 and 105 in the flowchart of FIG. 1 described above, respectively.

なお、Sin−i,Sout−iは、差Diffを求めるために、それぞれ各領域dSin−i,dSout−iの状態をスカラー量に変換した値である。また、平滑化(ボカシ)処理を行うときに、実際には、エッジの両側のどちらが透明物体を透過した側かしていない側か分からないため、それぞれ片方の領域に平滑化処理を行い、その結果を見てどちらが内側でどちらが外側かを決めることとなる。その後、上述した差Diffが求められる。 Note that S in-i and S out-i are values obtained by converting the states of the respective regions dS in-i and dS out-i into scalar quantities in order to obtain the difference Diff i . In addition, when performing the smoothing (blurring) process, in fact, it is not known which side of the edge is the side that has passed through the transparent object or not, so the smoothing process is performed on one of the areas. Look at the results and decide which is inside and which is outside. Thereafter, the above-described difference Diff i is obtained.

差Diffの求め方は、種々の方法によればよい。例えば、領域内の全てのピクセルの色(グレースケールであれば濃度など)を数値化し、全ピクセルの平均値や総和などをSin−i,Sout−iの値としても良い。あるいは、色相、彩度、明度や、輝度値を数値化して利用しても良い。あるいは、各ピクセル毎に差を計算し、この差の平均値や総和を求めて全体の差Diffとしても良い。 The method for obtaining the difference Diff i may be based on various methods. For example, the color of all the pixels in the region (the density or the like in the case of gray scale) may be digitized, and the average value or total sum of all the pixels may be used as the S in-i and S out-i values. Alternatively, the hue, saturation, brightness, and luminance value may be digitized and used. Alternatively, a difference may be calculated for each pixel, and an average value or a sum of the differences may be obtained to obtain an overall difference Diff i .

そして、ステップ1110の後、図11では、差Diffが所定の閾値Th未満であるエッジのみを透明物体のエッジである抽出エッジIlastとして抽出する(ステップ1115)。この抽出エッジIlastは、透明物体(例えばコップ)の輪郭としては、一部が欠けていたりするものとして抽出される。そこで、ステップ1115の後、Snakeなどの輪郭抽出手法を用いて、透明物体の輪郭を決定する(ステップ1120)。ただし、図1のフローチャートでは、基準エッジを複数(図4〜図7)用いるため、ステップ1115,1120のステップの前に別のステップを経ることとする。ただし、図1のステップ120における差Diffの算出は、上述したように、算出される。 Then, after step 1110, in FIG. 11, only edges whose difference Diff i is less than the predetermined threshold Th are extracted as extracted edges I last that are edges of the transparent object (step 1115). The extracted edge I last is extracted as a part of the outline of a transparent object (for example, a cup) that is partially missing. Therefore, after step 1115, the contour of the transparent object is determined using a contour extraction method such as Snake (step 1120). However, in the flowchart of FIG. 1, since a plurality of reference edges (FIGS. 4 to 7) are used, another step is performed before steps 1115 and 1120. However, the difference Diff i in step 120 of FIG. 1 is calculated as described above.

図1のフローチャートのステップ120において、各基本エッジ画像について、全ての微小領域について、Diff<Thを満たす割合(=Ratio)が所定の閾値Th−ratioを超える階層Kを選択する(ステップ125)。図4〜図7の基準エッジに対して、図2の参照エッジと重ね合わせてDiff<Thを満たす参照エッジ部分を抽出した図を図12〜図15に示す。ここでは、Ratio>Th−ratioを満たす階層はKのみであるが、複数ある場合は、これらを全て重ね合わせた(統合した)ものを統合エッジIcombとして抽出する(ステップ130)。 In step 120 of the flowchart of FIG. 1, for each basic edge image, a layer K i in which the ratio satisfying Diff i <Th (= Ratio) exceeds a predetermined threshold Th-ratio is selected for all minute regions (step 125). ). FIGS. 12 to 15 are diagrams in which reference edge portions satisfying Diff i <Th are extracted by overlapping the reference edge of FIG. 2 with respect to the reference edge of FIGS. 4 to 7. Here, K 1 is the only hierarchy that satisfies Ratio> Th-ratio. However, if there are a plurality of layers, those obtained by superimposing (integrating) all of them are extracted as integrated edge I comb (step 130).

ステップ130の後、統合エッジIcombと「セグメント化された」参照エッジIedgeとを比較し、統合エッジIcomb領域と重なる(重複度:重複割合が所定基準以上である)参照エッジIedgeのセグメントを抽出エッジIlastとして抽出する(ステップ135)。この図を図16に示す。ここで、セグメント化した参照エッジIedgeと重ね合わせることで、統合エッジIcombとして抽出されなかったエッジをも回復させることができるため、より精度の高い検出が行える。例えば、図12(統合エッジIcomb)と図16(抽出エッジIlast)とを比較すると分かるが、左から二番目のコップなどは、もとの形状が正確に抽出されている。 After step 130, compares the synthesized edge I comb and "segmented" reference edge I edge, overlapping the integrated edge I comb region (multiplicity: Duplicate ratio is equal to or higher than a predetermined reference) of the reference edge I edge A segment is extracted as an extraction edge I last (step 135). This figure is shown in FIG. Here, by superimposing the segmented reference edge I edge , the edge that has not been extracted as the integrated edge I comb can be recovered, so that detection with higher accuracy can be performed. For example, as can be seen by comparing FIG. 12 (integrated edge I comb ) and FIG. 16 (extracted edge I last ), the original shape of the second cup and the like from the left is accurately extracted.

この抽出エッジIlastは、透明物体(例えばコップ)の輪郭としては、一部が欠けていたりするものとして抽出される。そこで、上述した図11のステップ1120と同様に、Snakeなどの輪郭抽出手法を用いて、透明物体の輪郭を決定する(ステップ140)。Snakeなどの輪郭抽出手法を用いて決定された透明物体の輪郭を表す図を図17に示す。このようにして、検出が難しい特定物体のエッジ(ここでは透明物体のエッジ)。 The extracted edge I last is extracted as a part of the outline of a transparent object (for example, a cup) that is missing. Therefore, the outline of the transparent object is determined using an outline extraction method such as Snake as in Step 1120 of FIG. 11 described above (Step 140). FIG. 17 shows a contour of a transparent object determined using a contour extraction method such as Snake. In this way, the edge of a specific object that is difficult to detect (here, the edge of a transparent object).

上述した実施形態は、透明物体のエッジを検出する場合を例に説明したが、本発明は必ずしも透明物体の検出に限られるものではない。物体を特定せずに一般化した場合のフローチャートを図18に示す。まず、CCDカメラなどの画像取得部によって画像を取得する(ステップ1800)。この画像に、異なる二つのエッジ抽出フィルタをかけ、参照エッジIedge1を抽出する(ステップ1805)と共に、基準エッジIedge2を抽出する(ステップ1810)。 In the above-described embodiment, the case where the edge of the transparent object is detected has been described as an example. However, the present invention is not necessarily limited to the detection of the transparent object. A flowchart in the case of generalization without specifying an object is shown in FIG. First, an image is acquired by an image acquisition unit such as a CCD camera (step 1800). The image is subjected to two different edge extraction filters to extract the reference edge I edge1 (step 1805) and the reference edge I edge2 (step 1810).

異なる二つのエッジ抽出フィルタは特性が異なり、参照エッジIedge1を抽出するフィルタは脆弱なエッジも抽出可能な(エッジを強く抽出可能な)フィルタを採用し、基準エッジIedge2を抽出するフィルタは輪郭を抽出したい対象物体のエッジをより強く(対象物体のエッジのみをより強く)抽出できるようなフィルタを採用し、組み合わせて使用する。ここでは、基準エッジIedge2を抽出した画像は一つのみであるとする。 The two different edge extraction filters have different characteristics, the filter that extracts the reference edge I edge1 employs a filter that can also extract weak edges (the edge can be strongly extracted), and the filter that extracts the reference edge I edge2 has an outline. A filter that can extract the edge of the target object to be extracted more strongly (only the edge of the target object is stronger) is used in combination. Here, it is assumed that there is only one image from which the reference edge I edge2 is extracted.

次に、参照エッジIedge1について、上述した図1のステップ115と同様に、ジャンクション点(勾配が不連続な点、勾配変化が急な点)を求め、エッジのセグメント化を行う(ステップ1815)。さらに、基準エッジIedge2とセグメント化された参照エッジIedge1とを重ね合わせて、各セグメント毎に、重複する部分が所定の閾値Th−ratioを超える参照エッジIedge1のセグメントを抽出エッジIlastとして抽出する(ステップ1820:図1のステップ120〜135を簡素化したものともいえる)。そして、図1のステップ140と同様に、Snakeなどの輪郭抽出手法を用いて、透明物体の輪郭を決定する(ステップ1825) Next, with respect to the reference edge I edge1 , as in step 115 of FIG. 1 described above, a junction point (a point where the gradient is discontinuous or a point where the gradient changes suddenly) is obtained, and edge segmentation is performed (step 1815). . Further, by superimposing the reference edge I edge2 and segmented reference edge I edge1, for each segment, a segment of the reference edge I edge1 overlapping portion exceeds a predetermined threshold value Th-ratio as extracting an edge I last (Step 1820: It can be said that steps 120 to 135 in FIG. 1 are simplified). Then, similarly to step 140 in FIG. 1, the contour of the transparent object is determined using a contour extraction method such as Snake (step 1825).

なお、本発明は上述した実施形態に限定されるものではない。例えば、上述した実施形態ではモノクロ画像を例に説明しているが、カラー画像に対しても本発明は適用し得る。   In addition, this invention is not limited to embodiment mentioned above. For example, in the above-described embodiment, a monochrome image has been described as an example, but the present invention can also be applied to a color image.

本発明の画像処理装置(方法)の一実施形態のフローチャートである。It is a flowchart of one Embodiment of the image processing apparatus (method) of this invention. 取得画像である。It is an acquired image. 取得画像に対してSobelフィルタをかけ、参照エッジを抽出した画像である。This is an image obtained by applying a Sobel filter to an acquired image and extracting a reference edge. 取得画像に対してwaveletフィルタ(第一周波数)をかけ、基準エッジを抽出した画像である。This is an image obtained by applying a wavelet filter (first frequency) to an acquired image and extracting a reference edge. 取得画像に対してwaveletフィルタ(第二周波数)をかけ、基準エッジを抽出した画像である。This is an image obtained by applying a wavelet filter (second frequency) to an acquired image and extracting a reference edge. 取得画像に対してwaveletフィルタ(第三周波数)をかけ、基準エッジを抽出した画像である。This is an image obtained by applying a wavelet filter (third frequency) to an acquired image and extracting a reference edge. 取得画像に対してwaveletフィルタ(第四周波数)をかけ、基準エッジを抽出した画像である。This is an image obtained by applying a wavelet filter (fourth frequency) to an acquired image and extracting a reference edge. 図4の画像を二値化した画像である。It is the image which binarized the image of FIG. 図8の画像をセグメント化した画像である。It is the image which segmented the image of FIG. 透明物体のエッジ検出を説明する説明図である。It is explanatory drawing explaining the edge detection of a transparent object. 透明物体のエッジ検出を説明するフローチャートである。It is a flowchart explaining edge detection of a transparent object. 図4の画像をもとに差Diff<所定閾値Thを満たすエッジを示す画像である。FIG. 5 is an image showing an edge satisfying a difference Diff <predetermined threshold Th based on the image of FIG. 4. 図5の画像をもとに差Diff<所定閾値Thを満たすエッジを示す画像である。FIG. 6 is an image showing an edge satisfying a difference Diff <predetermined threshold Th based on the image of FIG. 5. 図6の画像をもとに差Diff<所定閾値Thを満たすエッジを示す画像である。It is an image which shows the edge which satisfy | fills a difference Diff <predetermined threshold value Th based on the image of FIG. 図7の画像をもとに差Diff<所定閾値Thを満たすエッジを示す画像である。FIG. 8 is an image showing edges satisfying the difference Diff <predetermined threshold Th based on the image of FIG. 7. セグメント化された参照エッジ画像と所定割合Th−ratioを満たした統合エッジとを重ね合わせ、重複するセグメントを抽出した画像である。The segmented reference edge image and the integrated edge satisfying a predetermined ratio Th-ratio are overlapped to extract overlapping segments. 図16の画像から輪郭を抽出した画像である。It is the image which extracted the outline from the image of FIG. 本発明の画像処理装置(方法)の他の実施形態のフローチャートである。It is a flowchart of other embodiment of the image processing apparatus (method) of this invention.

Claims (8)

入力画像からエッジを抽出する画像処理装置において、
入力画像から基準エッジを抽出する基準エッジ抽出手段と、分割前の参照エッジを抽出する参照エッジ抽出手段と、分割前の参照エッジを分割して複数の分割後参照エッジを生成する分割手段と、分割後の参照エッジのそれぞれについて基準エッジとの重複度を算出し、複数の分割後の参照エッジのうち、重複度が所定基準以上の分割後の参照エッジを用いて入力画像中のエッジを構成するエッジ構成手段とを備え、
前記参照エッジの両側の微小領域の比較により前記入力画像中の対象物体が透明物体であるか否かを判定することで、前記入力画像中の透明物体のエッジを検出することを特徴とする画像処理装置。
を特徴とする画像処理装置。
In an image processing apparatus that extracts edges from an input image,
A reference edge extracting means for extracting a reference edge from an input image; a reference edge extracting means for extracting a reference edge before division; a dividing means for dividing a reference edge before division to generate a plurality of divided reference edges; The degree of overlap with the base edge is calculated for each of the divided reference edges, and the edges in the input image are configured using the divided reference edges with a degree of overlap greater than or equal to a predetermined standard among the plurality of divided reference edges Edge forming means to
An image in which an edge of a transparent object in the input image is detected by determining whether or not a target object in the input image is a transparent object by comparing minute regions on both sides of the reference edge. Processing equipment.
An image processing apparatus.
分割前の参照エッジを、微分フィルタ、ソーベルフィルタ、又は、キャニーフィルタを用いて抽出することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the reference edge before division is extracted using a differential filter, a Sobel filter, or a Canny filter. 参照エッジの分割をエッジの勾配の変化が不連続な点で行うことを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the reference edge is divided at a point where a change in edge gradient is discontinuous. 前記重複度は、分割後の参照エッジと基準エッジの画素の重複割合であることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the degree of overlap is an overlap ratio of pixels of a reference edge and a base edge after division. 入力画像からエッジを抽出する画像処理装置において、
入力画像から基準エッジと、分割の参照エッジとを抽出し、分割前の参照エッジを分割して複数の分割後参照エッジを生成し、分割後の参照エッジのそれぞれについて基準エッジとの重複度を算出し、複数の分割後の参照エッジのうち、重複度が所定基準以上の分割後の参照エッジを用いて入力画像中のエッジを構成し、
前記参照エッジの両側の領域の比較により前記入力画像中の対象物体が透明物体であるか否かを判定することで、前記入力画像中の透明物体のエッジを検出することを特徴とする画像処理方法。
In an image processing apparatus that extracts edges from an input image,
The reference edge and the reference edge before division are extracted from the input image, the reference edge before division is divided to generate a plurality of divided reference edges, and the degree of overlap with the reference edge for each of the divided reference edges And the edge in the input image is configured using the reference edge after the division having a degree of overlap equal to or greater than a predetermined standard among the plurality of reference edges after the division.
Image processing characterized in that an edge of a transparent object in the input image is detected by determining whether or not a target object in the input image is a transparent object by comparing regions on both sides of the reference edge Method.
分割前の参照エッジを、微分フィルタ、ソーベルフィルタ、又は、キャニーフィルタを用いて抽出することを特徴とする請求項5に記載の画像処理方法。   The image processing method according to claim 5, wherein the reference edge before division is extracted using a differential filter, a Sobel filter, or a Canny filter. 参照エッジの分割をエッジの勾配の変化が不連続な点で行うことを特徴とする請求項5に記載の画像処理方法。   6. The image processing method according to claim 5, wherein the reference edge is divided at points where the change in the edge gradient is discontinuous. 前記重複度は、分割後の参照エッジと基準エッジの画素の重複割合であることを特徴とする請求項5に記載の画像処理方法。   The image processing method according to claim 5, wherein the degree of overlap is an overlap ratio of pixels of a reference edge and a base edge after division.
JP2005209064A 2005-07-19 2005-07-19 Image processing apparatus and method Expired - Fee Related JP4635760B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005209064A JP4635760B2 (en) 2005-07-19 2005-07-19 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005209064A JP4635760B2 (en) 2005-07-19 2005-07-19 Image processing apparatus and method

Publications (2)

Publication Number Publication Date
JP2007026224A JP2007026224A (en) 2007-02-01
JP4635760B2 true JP4635760B2 (en) 2011-02-23

Family

ID=37786869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005209064A Expired - Fee Related JP4635760B2 (en) 2005-07-19 2005-07-19 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP4635760B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4613726B2 (en) * 2005-07-19 2011-01-19 トヨタ自動車株式会社 Image processing apparatus and method
JP6097597B2 (en) * 2013-02-28 2017-03-15 キヤノン株式会社 Image processing apparatus and control method thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08194716A (en) * 1995-01-17 1996-07-30 Canon Inc Picture processing method and its device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08194716A (en) * 1995-01-17 1996-07-30 Canon Inc Picture processing method and its device

Also Published As

Publication number Publication date
JP2007026224A (en) 2007-02-01

Similar Documents

Publication Publication Date Title
US9684966B2 (en) Foreground / background separation in digital images
EP3048579B1 (en) Structure analysis method for recovering missing structures in an image after object removal
CN111062931B (en) Detection method of spliced and tampered image
JP2016513320A (en) Method and apparatus for image enhancement and edge verification using at least one additional image
CN110163219A (en) Object detection method based on image border identification
JP2008286725A (en) Person detector and detection method
JP5908844B2 (en) Image processing apparatus and image processing method
JP5539343B2 (en) Video processing method
US8995730B2 (en) Image processing apparatus for analyzing and enhancing fingerprint images
JP2010205067A (en) Device, method and program for extracting area
JP4635760B2 (en) Image processing apparatus and method
JP2006170921A (en) Visual inspection method and its apparatus
JPH0961138A (en) Crack extraction apparatus
JPWO2019167453A1 (en) Image processing equipment, image processing methods, and programs
JP6872502B2 (en) Image processing equipment, image processing methods, and programs
JP4613726B2 (en) Image processing apparatus and method
JP2004062519A (en) Lane mark detector
JP4510560B2 (en) Image processing device
KR101643550B1 (en) System and method for detecting and describing color invariant features using fast explicit diffusion in nonlinear scale spaces
Rao et al. Image Pixel Contrast Enhancement Using Enhanced Multi Histogram Equalization Method.
Afreen et al. A method of shadow detection and shadow removal for high resolution remote sensing images
JP6752059B2 (en) Image processing equipment and image processing methods, programs and storage media
JP4188708B2 (en) An image processing procedure design expert system with features for sample preparation
JP4098097B2 (en) An image processing procedure design expert system with features in luminance evaluation.
Vakilian et al. A new satellite image segmentation enhancement technique for weak image boundaries

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101026

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101108

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131203

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4635760

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131203

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees