JP3065418B2 - Image processing apparatus and method - Google Patents

Image processing apparatus and method

Info

Publication number
JP3065418B2
JP3065418B2 JP4001399A JP139992A JP3065418B2 JP 3065418 B2 JP3065418 B2 JP 3065418B2 JP 4001399 A JP4001399 A JP 4001399A JP 139992 A JP139992 A JP 139992A JP 3065418 B2 JP3065418 B2 JP 3065418B2
Authority
JP
Japan
Prior art keywords
edge
image
threshold
value
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP4001399A
Other languages
Japanese (ja)
Other versions
JPH05189564A (en
Inventor
暢 尾崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP4001399A priority Critical patent/JP3065418B2/en
Publication of JPH05189564A publication Critical patent/JPH05189564A/en
Application granted granted Critical
Publication of JP3065418B2 publication Critical patent/JP3065418B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、画像処理装置及び方法
に係り、特に、ディジタル画像を供給し、供給されたデ
ィジタル画像の微分演算を行って、微分画像を算出し
て、供給された画像に含まれた対象からエッジの抽出を
行う画像処理装置及び方法に関する。本発明は、例え
ば、自然環境の中で自律動作するロボットや、自律走行
車の視覚部等に適用されるものである。ここで、「エッ
ジ」とは、濃度の急激な変化に対応する部分であって、
エッジ抽出は画像の特徴抽出を行う場合に用いられ、対
象の理解に役に立つものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and method, and more particularly, to a method for supplying a digital image, performing a differential operation on the supplied digital image, calculating a differential image, and supplying the supplied image. The present invention relates to an image processing apparatus and a method for extracting an edge from a target included in an image. The present invention is applied to, for example, a robot that operates autonomously in a natural environment, a visual part of an autonomous vehicle, and the like. Here, the “edge” is a portion corresponding to a rapid change in density,
Edge extraction is used when performing feature extraction of an image, and is useful for understanding an object.

【0002】[0002]

【従来の技術】従来、図12に示す画像処理装置があっ
た。本装置は、同図に示すように、ディジタル画像を供
給する画像供給部10と、画像供給部10から供給され
たディジタル画像の微分演算を行って、微分画像を算出
する画像微分処理部20と、当該微分処理部20により
算出された微分画像を形成する画素の値の絶対値と設定
された閾値との比較を行い、その比較結果に基づいてエ
ッジの抽出を行うエッジ抽出部114とを有するもので
ある。
2. Description of the Related Art Conventionally, there has been an image processing apparatus shown in FIG. As shown in the figure, the present apparatus includes an image supply unit 10 that supplies a digital image, an image differentiation processing unit 20 that performs a differential operation on the digital image supplied from the image supply unit 10 to calculate a differential image. And an edge extraction unit 114 that compares the absolute value of the pixel forming the differential image calculated by the differential processing unit 20 with a set threshold value and extracts an edge based on the comparison result. Things.

【0003】従来例に係る画像処理装置にあっては、画
像中のエッジを用いて自然の画像においては対象が日向
と日陰との双方に存在する場合がある。その場合、前記
画像供給部10から供給された画像に対し、前記微分処
理部20により微分を行い、前記エッジ抽出部114に
より、その画素の値の絶対値とある適当な閾値との比較
を行い、その画素の絶対値がある適当な閾値以上のとき
エッジを抽出するものである。
In an image processing apparatus according to a conventional example, an object may be present in both a sunny place and a shade in a natural image by using an edge in the image. In this case, the image supplied from the image supply unit 10 is differentiated by the differentiation processing unit 20, and the edge extraction unit 114 compares the absolute value of the value of the pixel with an appropriate threshold. The edge is extracted when the absolute value of the pixel is equal to or more than a certain appropriate threshold value.

【0004】[0004]

【発明が解決しようとする課題】ところで、従来例に係
る画像処理装置にあっては、夏の晴天時においては日向
と日陰では、コントラストが強い。例えば、日向では照
度が100,000 ルクス(lx)で、日陰では4,000 ルクスとな
り、自然画像において日向の中の物体と日陰の中の物体
の画像中のエッジを同一画像面内で抽出することが困難
であった。
By the way, in the image processing apparatus according to the prior art, when the weather is fine in summer, the contrast between the sun and the shade is strong. For example, the illuminance is 100,000 lux (lx) in the sun and 4,000 lux in the shade, making it difficult to extract the edges of the sunlit object and the shaded object in the natural image in the same image plane. there were.

【0005】図13(a)に、このような例として、路
面の原画像(日陰の白線より日向の路面の濃度が高い場
合)を示す。また、日陰路面、日陰白線、日向路面、及
び日向白線の、各濃度(照度にほぼ等しい)を同図
(b)に示すものとする。この例で示した原画像から、
その画像の微分画像を抽出した後に、日向の中の物体を
抽出するために、微分画像に対して適当な閾値Bにより
エッジを抽出すると、同図(c)に示すように、日陰の
中の物体のエッジの部分の微分値の絶対値はその閾値B
以下になってしまう為、そのエッジは抽出することがで
きない。また、日陰の中の物体を抽出するために、微分
画像に対して適当な閾値Aによりエッジを抽出すると、
同図(d)に示すように、日向領域では全面にエッジが
検出されることになる。これは日向領域にある路面及び
白線からの照り返しは、同図(b)に示すように、微小
部分での濃度変動の不安定さに起因するものであり、前
記閾値Aよりもこの変動が大きいことによるものであ
る。このため、従来例にあっては、日陰領域及び日向領
域の双方が含まれている原画像からエッジを識別して抽
出することが困難であるという問題点を有していた。
FIG. 13A shows, as an example, an original image of a road surface (when the density of a sunny road surface is higher than that of a shaded white line). Also, each density (almost equal to the illuminance) of the shaded road surface, the shaded white line, the sunlit road surface, and the sunlit white line is shown in FIG. From the original image shown in this example,
After extracting a differential image of the image, in order to extract an object in the sun, an edge is extracted from the differential image with an appropriate threshold value B. As shown in FIG. The absolute value of the differential value of the edge part of the object is the threshold B
Therefore, the edge cannot be extracted. Further, in order to extract an object in the shade, an edge is extracted from the differential image using an appropriate threshold value A.
As shown in FIG. 11D, an edge is detected on the entire surface in the sunshine area. This is because the reflection from the road surface and the white line in the sunshine area is caused by the instability of the density fluctuation in the minute part, as shown in FIG. It is because of that. Therefore, the conventional example has a problem that it is difficult to identify and extract an edge from an original image including both a shaded area and a sunlit area.

【0006】そこで、本発明は、照度が異なる領域を含
む条件下で作成された画像から、異なる照度の影響を排
除して、高品質のエッジを抽出することができる画像処
理装置を提供することができることを目的としてなされ
たものである。
It is an object of the present invention to provide an image processing apparatus capable of extracting a high-quality edge from an image created under conditions including regions with different illuminances while eliminating the influence of different illuminances. The purpose is to be able to do.

【0007】[0007]

【課題を解決するための手段】以上の技術的課題を解決
するため、第一の発明は、図1に示すように、ディジタ
ル画像を供給する画像供給部10と、供給されたディジ
タル画像の微分演算を行って、微分画像を算出する画像
微分処理部20とを有し、供給された画像に含まれた対
象からエッジの抽出を行う画像処理装置において、少な
くとも2種類の異なる照度領域の双方に存在する対象が
含まれたディジタル画像を形成する画素の値と第三閾値
との比較結果に基づき特定される特定照度領域の検出を
行う特定照度領域検出部30と、第一閾値と前記微分処
理部20により算出された微分画像を形成する画素の値
の絶対値との比較結果に基づきエッジの抽出を行う第一
閾値エッジ抽出部40と、第一閾値とは異なる第二閾値
と前記微分処理部20により算出された微分画像を形成
する画素の値の絶対値との比較結果に基づきエッジの抽
出を行う第二閾値エッジ抽出部50と、第一閾値エッジ
抽出部40により抽出されたエッジが含まれた画像のう
ち特定照度領域検出部30により検出された特定照度領
域内にあるエッジ部分をエッジとして抽出し、その領域
外にあるエッジ部分はエッジとして抽出しない特定照度
領域エッジ抽出部60と、特定照度領域エッジ抽出部6
0により抽出されたエッジが含まれた画像と第二閾値エ
ッジ抽出部50により抽出されたエッジが含まれた画像
との合成を行う画像合成部70とを有するものである。
In order to solve the above technical problems, a first invention is, as shown in FIG. 1, provided with an image supply section 10 for supplying a digital image, and a differential section for supplying the supplied digital image. An image differential processing unit 20 that performs an operation to calculate a differential image, and extracts an edge from a target included in the supplied image. A specific illuminance area detection unit 30 that detects a specific illuminance area specified based on a comparison result between a value of a pixel forming a digital image including an existing object and a third threshold, a first threshold, and the differentiation processing A first threshold edge extraction unit 40 for extracting an edge based on a result of comparison with an absolute value of a pixel forming a differential image calculated by the unit 20; a second threshold different from the first threshold; Department The second threshold edge extraction unit 50 that extracts an edge based on the comparison result with the absolute value of the pixel forming the differential image calculated by 0 and the edge extracted by the first threshold edge extraction unit 40 are included. A specific illuminance region edge extraction unit 60 that extracts an edge portion within the specific illuminance region detected by the specific illuminance region detection unit 30 from the extracted image as an edge and does not extract an edge portion outside the region as an edge; Specific illuminance area edge extraction unit 6
It has an image synthesizing unit 70 for synthesizing the image including the edge extracted by 0 and the image including the edge extracted by the second threshold edge extracting unit 50.

【0008】一方、第二の発明は、図2に示すように、
ディジタル画像を供給し(S1)、供給されたディジタ
ル画像の微分演算を行って、微分画像を算出し(S
2)、供給された画像に含まれた対象からエッジの抽出
を行う画像処理方法において、少なくとも2種類の異な
る照度領域の双方に存在する対象が含まれたディジタル
画像を形成する画素の値と第三閾値との比較結果に基づ
き特定される特定照度領域の検出を行い(S3)、第一
閾値と算出された微分画像を形成する画素の値の絶対値
との比較結果に基づいてエッジの抽出を行い(S4)、
第一閾値とは異なる第二閾値と算出された微分画像を形
成する画素の値の絶対値との比較結果に基づいてエッジ
の抽出を行い(S5)、第一閾値との比較結果に基づい
て抽出されたエッジのうち前記特定照度領域内にあるエ
ッジ部分だけをエッジとして抽出し(S6)、前記第二
閾値との比較結果に基づいて抽出されたエッジが含まれ
た画像と前記特定照度領域内にあるエッジ部分の含まれ
た画像との合成を行う(S7)ものである。
On the other hand, the second invention, as shown in FIG.
A digital image is supplied (S1), and a differential operation is performed on the supplied digital image to calculate a differential image (S1).
2) In an image processing method for extracting an edge from an object included in a supplied image, a value of a pixel forming a digital image including an object present in both of at least two types of different illuminance regions and a value A specific illuminance area specified based on a comparison result with the three threshold values is detected (S3), and an edge is extracted based on a comparison result between the first threshold value and the calculated absolute value of the pixel forming the differential image. (S4),
Edge extraction is performed based on a comparison result between the second threshold value different from the first threshold value and the calculated absolute value of the pixel forming the differential image (S5), and based on the comparison result with the first threshold value. Only the edge portion within the specific illuminance area among the extracted edges is extracted as an edge (S6), and the image including the extracted edge based on the comparison result with the second threshold value and the specific illuminance area (S7).

【0009】[0009]

【作用】続いて、本発明に係る画像処理装置の動作につ
いて説明する。ステップS1で、画像供給部10によ
り、画素から形成されるディジタル画像が当該画像処理
装置内の各部に供給される。当該ディジタル画像には少
なくとも2種類の異なる照度領域の双方に存在する対象
が含まれているものとする。ここで、「対象」とは、画
像の中でエッジの抽出を行おうとする部分をいう。ステ
ップS2で、画像微分処理部20は、供給された画像の
各画素について、微分処理を行うことになる。例えば、
位置(x,y) にある画素の値(濃度値または照度値に対応
する)をf(x,y) とした場合に、当該画素の値f(x,y)
について、縦方向に微分処置を行ったf'(x,y)は、例え
ば、f(x-1,y+1)+f(x,y+1)+f(x+1,y+1)-f(x-1,y-1)-
f(x,y-1)-f(x+1,y-1) と表される。ステップS3で特
定照度領域検出部50は、設定された第三閾値と供給さ
れた各画素の値との比較を行い、比較結果に基づいて特
定される特定照度領域の検出を行うことになる。請求項
2に記載された場合には、第三閾値として値Cを用い、
供給された画素の値が値C未満の場合を、特定照度領域
である日陰部分として、その検出が行われる。この場合
には、値Cは2種類の照度の中間値に等しく設定される
ことになる。
Next, the operation of the image processing apparatus according to the present invention will be described. In step S1, the image supply unit 10 supplies a digital image formed from pixels to each unit in the image processing apparatus. It is assumed that the digital image includes objects existing in both of at least two different illuminance regions. Here, the “target” refers to a portion of the image for which edge extraction is to be performed. In step S2, the image differentiating unit 20 performs a differentiating process on each pixel of the supplied image. For example,
If the value of the pixel at the position (x, y) (corresponding to the density value or the illuminance value) is f (x, y), the value f (x, y) of the pixel
F ′ (x, y) obtained by performing differential treatment in the vertical direction is, for example, f (x−1, y + 1) + f (x, y + 1) + f (x + 1, y + 1) ) -f (x-1, y-1)-
f (x, y-1) -f (x + 1, y-1). In step S3, the specific illuminance region detection unit 50 compares the set third threshold value with the supplied value of each pixel, and detects a specific illuminance region specified based on the comparison result. In the case described in claim 2, the value C is used as the third threshold value,
When the value of the supplied pixel is less than the value C, the detection is performed as a shade portion which is a specific illuminance region. In this case, the value C is set equal to an intermediate value between the two types of illuminance.

【0010】ステップS4で第二閾値エッジ抽出部50
により第一閾値とは異なる第二閾値と、前記微分処理部
20により算出された微分画像を形成する画素の値とを
比較し、その比較結果に基づいてエッジの抽出を行う。
例えば、請求項2に記載されている場合には、第二閾値
B(>第一閾値A)より小さい場合にエッジの抽出を行
う。
In step S4, the second threshold edge extracting unit 50
The second threshold value different from the first threshold value is compared with the value of the pixel forming the differential image calculated by the differential processing unit 20, and an edge is extracted based on the comparison result.
For example, in the case described in claim 2, the edge is extracted when it is smaller than the second threshold B (> first threshold A).

【0011】また、ステップS4の動作の際に、ステッ
プS5で、第一閾値エッジ抽出部40は第一閾値と、微
分画像を形成する画素の値とを比較し、その比較結果に
基づいてエッジの抽出を行う。例えば、請求項2に記載
されている場合には、前記微分処理部20により算出さ
れた微分画像を形成する画素の値が第二閾値である値B
よりも小さい場合のエッジの抽出を行う。ステップS6
で、前記第一閾値エッジ抽出部40が抽出したエッジの
うち、前記特定照度領域エッジ抽出部60によりステッ
プS3で特定された領域内にあるエッジ部分だけの抽出
が行われる。ステップS7で、前記画像合成部70によ
り、前記第二閾値エッジ抽出部50により抽出されたエ
ッジが含まれた画像と、前記特定照度領域エッジ抽出部
60により抽出されたエッジ部分が含まれた画像との合
成が行われる。このように構成したのは、異なる照度を
もつ領域では、微分画像から対象のエッジの抽出を行う
ための閾値が各々異なるためである。
At the time of the operation in step S4, in step S5, the first threshold edge extracting unit 40 compares the first threshold with the value of the pixel forming the differential image, and based on the comparison result, determines the edge. Is extracted. For example, in the case described in claim 2, the value of a pixel forming a differential image calculated by the differential processing unit 20 is a value B that is a second threshold value.
An edge is extracted when it is smaller than. Step S6
Then, among the edges extracted by the first threshold edge extracting unit 40, only the edge portions in the region specified in step S3 are extracted by the specific illuminance region edge extracting unit 60. In step S7, the image including the edge extracted by the second threshold edge extracting unit 50 and the image including the edge extracted by the specific illuminance region edge extracting unit 60 by the image combining unit 70. Is performed. The reason for this configuration is that in regions having different illuminances, threshold values for extracting a target edge from a differential image are different from each other.

【0012】[0012]

【実施例】本発明の実施例に係る画像処理装置について
説明する。図3に、本実施例に係る画像処理装置の機器
構成ブロック図の例を示す。同図に示すように、本実施
例に係る画像処理装置は、種々の制御用プログラムが格
納されているプログラム用メモリ52と、画像処理の対
象を読み取って、ディジタル化された画像データを出力
する画像読取部53と、画像処理されたデータの記録出
力を行う記録部55と、読み取られディジタル画像の格
納を行う画像メモリ54と、処理結果等の表示を行う表
示部56と、操作指示を行う操作パネル57と、前記プ
ログラムに基づいて種々の制御を行うCPU51とを有
するものである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An image processing apparatus according to an embodiment of the present invention will be described. FIG. 3 illustrates an example of a device configuration block diagram of the image processing apparatus according to the present embodiment. As shown in the figure, the image processing apparatus according to the present embodiment reads a program memory 52 in which various control programs are stored, an image processing target, and outputs digitized image data. An image reading unit 53, a recording unit 55 for recording and outputting image-processed data, an image memory 54 for storing read digital images, a display unit 56 for displaying processing results and the like, and performing operation instructions It has an operation panel 57 and a CPU 51 that performs various controls based on the program.

【0013】続いて、図4に第一の実施例に係る画像処
理装置の機能ブロック図を示す。同図に示すように、本
実施例にあっては、ディジタル画像を供給する画像供給
部1と、画像供給部1から供給されたディジタル画像の
微分演算を行って、微分画像を算出する画像微分処理部
2と、日陰と日向の2種類の異なる照度領域の両方に存
在する対象の含まれたディジタル画像を形成する画素の
値が第三閾値である値C未満の画素から形成される日陰
部分(特定照度領域)の検出を行う日陰部分検出部3
と、前記微分処理部2により算出された微分画像を形成
する画素の値の絶対値が,第二閾値Bより小さくされた
第一閾値Aよりも大きい場合のエッジの抽出を行う閾値
Aエッジ抽出部4と、前記微分処理部2により算出され
た微分画像を形成する画素の値の絶対値が、前記第二閾
値である値Bよりも大きい場合のエッジの抽出を行う閾
値Bエッジ抽出部5と、閾値Aエッジ抽出部4により抽
出されたエッジのうち特定照度領域である日陰部分内に
あるエッジ部分の抽出を行い日向部分内にあるエッジ部
分の抽出を行わない日陰部分エッジ抽出部6と、特定照
度領域エッジ抽出部6により抽出されたエッジの含まれ
る画像と、前記閾値Bエッジ抽出部5により抽出された
エッジの含まれた画像との合成を行う画像合成部7とを
有するものである。
FIG. 4 is a functional block diagram of the image processing apparatus according to the first embodiment. As shown in the figure, in the present embodiment, an image supply unit 1 for supplying a digital image, and an image differentiation unit for performing a differential operation on the digital image supplied from the image supply unit 1 to calculate a differential image A shading part formed by the processing unit 2 and a pixel having a value less than a third threshold value C that forms a digital image including a target that is present in both two types of different illuminance areas, ie, a shade area and a sunshine area. (Particular illuminance area) detection of a shaded part 3
And a threshold A edge extraction for extracting an edge when an absolute value of a pixel forming a differential image calculated by the differential processing unit 2 is larger than a first threshold A smaller than a second threshold B A threshold B edge extracting unit 5 for extracting an edge when the absolute value of the pixel forming the differential image calculated by the differential processing unit 2 is larger than the value B which is the second threshold A shade portion edge extractor 6 that extracts an edge portion within a shade portion, which is a specific illuminance region, from the edges extracted by the threshold A edge extractor 4 and does not extract an edge portion within a sunlit portion; An image combining unit 7 for combining an image including the edge extracted by the specific illuminance region edge extracting unit 6 and an image including the edge extracted by the threshold B edge extracting unit 5. is there

【0014】ここで、前記画像供給部1は前記画像読取
部53に相当し、前記画像微分処理部2、日陰部分検出
部3、閾値Aエッジ抽出部4、閾値Bエッジ抽出部5、
日陰部分エッジ抽出部6及び前記画像合成部7は前記C
PU51、プログラム用メモリ52、及び画像メモリ5
4に相当するものである。本例にあっては、図13
(a)に示した日向及び日陰にある白線が引かれた路面
に関する画像について、当該白線を対象としたエッジの
抽出を行う場合を説明する。この場合には、日陰白線の
照度が日向路面の照度よりも小さい場合であって、前記
閾値A,閾値B及び閾値Cは、同図(b)に示すように
設定されている。すなわち、閾値Aは日陰部分で白線の
エッジの抽出を行うために必要な値であって、日陰白線
の照度(濃度)と日陰路面の照度の差以下の値に設定さ
れる必要がある。閾値Bは、日向部分で白線のエッジの
抽出を行うために必要な値であって、日向白線の照度と
日向路面の照度との差以下であって、前記閾値Bよりも
大きい値に設定される必要がある。閾値Cは日向部分と
日陰部分とを分離するために必要な値であって、日陰白
線の照度と日向路面の照度との間の値に設定されてい
る。尚、図13(b)に示すように、日向部分にあって
は、日陰部分と異なり、照り返しのために、照度の空間
的変動が激しい。図6には、このような前提の下で、第
一の実施例に係る画像処理装置により画像処理を行った
場合の例が示されている。
Here, the image supply section 1 corresponds to the image reading section 53, and the image differentiation processing section 2, the shade portion detection section 3, the threshold A edge extraction section 4, the threshold B edge extraction section 5,
The shade portion edge extraction unit 6 and the image synthesis unit 7
PU 51, program memory 52, and image memory 5
This is equivalent to 4. In this example, FIG.
A description will be given of a case where, for an image related to a road surface on which a white line in the sun and shade shown in FIG. In this case, the illuminance of the shaded white line is smaller than the illuminance of the sunny road surface, and the thresholds A, B and C are set as shown in FIG. That is, the threshold value A is a value necessary for extracting the edge of the white line in the shade portion, and needs to be set to a value equal to or less than the difference between the illuminance (density) of the shade white line and the illuminance of the shade road surface. The threshold value B is a value necessary for extracting the edge of the white line in the sunlit part, and is set to a value that is equal to or less than the difference between the illuminance of the sunlit white line and the illuminance of the sunlit road surface, and is larger than the threshold value B. Need to be The threshold value C is a value necessary for separating the sunlit portion from the shaded portion, and is set to a value between the illuminance of the shaded white line and the illuminance of the sunlit road surface. Note that, as shown in FIG. 13B, in the sunlit part, unlike the shaded part, the spatial variation of the illuminance is severe due to the reflection. FIG. 6 illustrates an example in which image processing is performed by the image processing apparatus according to the first embodiment under such a premise.

【0015】前記日陰部分検出部3は、図13(b)に
示した前記閾値Cに基づいて二値化を行うことにより、
日陰部分と日向部分とを分離し、閾値C未満の領域を日
陰部分として図6(a)に示すように検出される。一
方、閾値Aエッジ抽出部4は、前記微分処理部2により
微分処理の行われた画素の値の絶対値と閾値Aとを比較
することによりエッジを抽出する。抽出されたエッジは
前記日陰部分エッジ抽出部6により、前記日陰部分検出
部3により検出された日陰部分内にあるエッジ部分をエ
ッジとして抽出し、日向部分にあるエッジ部分はエッジ
として抽出せず、図6(b)に示すものになる。さら
に、前記閾値Bエッジ抽出部5により、前記微分画像か
ら閾値Bで抽出された図6(c)に示すエッジを含んだ
画像との合成が前記画像合成部7により行われると、図
6(f)に示す合成画像が得られることになる。
The shade portion detector 3 performs binarization based on the threshold value C shown in FIG.
The shaded part and the sunlit part are separated, and an area smaller than the threshold value C is detected as a shaded part as shown in FIG. On the other hand, the threshold A edge extraction unit 4 extracts an edge by comparing the absolute value of the pixel value subjected to the differentiation processing by the differentiation processing unit 2 with the threshold A. For the extracted edges, the shade portion edge extraction unit 6 extracts an edge portion in the shade portion detected by the shade portion detection unit 3 as an edge, and does not extract an edge portion in a sunshine portion as an edge. The result is as shown in FIG. Further, when the threshold B edge extracting unit 5 synthesizes the differential image with the image including the edge shown in FIG. 6C extracted by the threshold B from the differential image by the image synthesizing unit 7, FIG. The composite image shown in f) is obtained.

【0016】続いて、第二の実施例について説明する。
本例は、図5に示すように、第一の実施例と異なり、指
示により前記日陰部分検出部3により検出された日陰部
分を形成する画素の収縮または膨張を行う画素収縮・膨
張部13を設けたものである。即ち、前記日陰部分検出
部3は、閾値C以下の部分はすべて日陰部分として検出
し、図6(a)の日陰部分を得るが、第一の実施例と異
なり、本実施例にあっては、前記画素収縮・膨張部13
により、検出された日陰部分を2 〜3 画素分収縮させ、
日陰と日向の境界のエッジを図6(d)に示すように削
除する。こうして2 〜3 画素分削除された日陰部分に対
して、前記日陰部分エッジ抽出部6により、閾値Aでエ
ッジを抽出すると、図6(e)のようになるので、その
画像と図6(c)の画像とを合成すれば、日陰部分と日
向部分との境界にあるエッジのない合成画像を得ること
ができることになる。
Next, a second embodiment will be described.
In this example, as shown in FIG. 5, unlike the first embodiment, the pixel shrinking / expanding unit 13 that shrinks or expands the pixels forming the shaded portion detected by the shaded portion detection unit 3 according to an instruction is provided. It is provided. That is, the shade portion detection unit 3 detects all portions below the threshold value C as shade portions and obtains the shade portion of FIG. 6A, but unlike the first embodiment, the present embodiment differs from the first embodiment. , The pixel contraction / expansion unit 13
To shrink the detected shade area by 2-3 pixels,
The edge of the boundary between the shade and the sun is deleted as shown in FIG. When an edge is extracted with a threshold value A by the shaded portion edge extracting unit 6 from the shaded portion deleted by a few pixels in this manner, the result is as shown in FIG. ), It is possible to obtain a synthesized image having no edge at the boundary between the shaded portion and the sunlit portion.

【0017】さらに、図7に第二の実施例の第二例を示
すものである。本例にあっては、第二の実施例の第一例
と同様に画素収縮・膨張部13を設け、さらに、第三閾
値として図13(b)に示した値C未満の画素から形成
される特定照度領域を日陰部分として検出する前記日陰
部分検出部3に代えて、第三閾値として図7(b)に示
すように値D未満の画素から形成される特定照度領域を
日陰部分として検出する日陰部分検出部30を設けたも
のである。即ち、本実施例にあっては、図7(b)に示
すように、第一の実施例と異なり、日陰白線の照度が日
向路面の照度よりも大きい場合を前提とし、前記第三閾
値Dは、日陰路面の照度よりも大きく、日向路面の照度
よりも小さく設定されている。日陰部分検出部30を用
いることにより、図7(c)に示すように日陰部分が検
出され、日陰白線の部分が日陰として抽出されない。そ
のため、この日陰部分において、日陰部分エッジ抽出部
6が閾値Aでエッジ抽出を行っても、エッジが細く切れ
る可能性が大きい。そこで、図7(d)に示すように、
前記画素収縮・膨張部13により、抽出された日陰部分
を2 〜3 画素膨張させ、その部分に対し、閾値Aでエッ
ジを抽出すれば、図7(e)に示すようになり、エッジ
は日陰部分に完全に覆われることになる。その画像と閾
値Bで抽出した画像を前記画像合成部7により合成する
ことにより高品質のエッジの合成画像が得られることに
なる。
FIG. 7 shows a second example of the second embodiment. In the present example, the pixel contraction / expansion unit 13 is provided as in the first example of the second embodiment, and the pixel is formed from pixels having a value less than the value C shown in FIG. Instead of the shade portion detection unit 3 that detects a particular illuminance region as a shade portion, a particular illuminance region formed from pixels having a value less than the value D as a third threshold is detected as a shade portion as shown in FIG. 7B. A shading part detecting unit 30 is provided. That is, in the present embodiment, as shown in FIG. 7B, unlike the first embodiment, on the assumption that the illuminance of the shaded white line is larger than the illuminance of the sunny road surface, the third threshold value D Is set to be larger than the illuminance on a shaded road surface and smaller than the illuminance on a sunny road surface. By using the shade part detection unit 30, a shade part is detected as shown in FIG. 7C, and a shade white line part is not extracted as shade. Therefore, even if the shaded portion edge extraction unit 6 performs the edge extraction with the threshold value A in the shaded portion, there is a high possibility that the edge is cut finely. Therefore, as shown in FIG.
When the extracted shade portion is expanded by 2 to 3 pixels by the pixel contraction / expansion unit 13 and the edge is extracted with the threshold value A for the portion, the result is as shown in FIG. The part will be completely covered. By synthesizing the image and the image extracted with the threshold B by the image synthesizing unit 7, a high-quality edge synthesized image can be obtained.

【0018】図8は第二の実施例に係る第三の例を示
す。本例は、図8(a)に示すように、白線に部分的に
日陰が掛かる場合についてエッジの抽出を行うものであ
る。図7に示した第二の実施例の第二例と同様にして、
前記画素収縮・膨張部13により日陰部分を図8(d)
に示すように膨張させて、前記日陰部分エッジ抽出部6
により日陰部分にあるエッジを同図(e)のようにして
抽出し、抽出された当該エッジと、閾値Bエッジ抽出部
5により抽出されたエッジと、を前記画像合成部7によ
り合成して、同図(g)に示す合成画像が得られる。
FIG. 8 shows a third example according to the second embodiment. In this example, as shown in FIG. 8A, an edge is extracted when a white line is partially shaded. As in the second example of the second embodiment shown in FIG. 7,
FIG. 8 (d) shows a shaded portion by the pixel contraction / expansion unit 13.
Is expanded as shown in FIG.
Then, an edge in the shaded area is extracted as shown in FIG. 9E, and the extracted edge and the edge extracted by the threshold B edge extraction unit 5 are synthesized by the image synthesis unit 7, A composite image shown in FIG.

【0019】続いて、第三の実施例について説明する。
図9に示すように、本例にあっては、画像を供給するた
めに、TVカメラ21a、当該カメラ21aから読み取
られたアナログデータをディジタル化するA/D変換器
21b、及びインタレース画像(飛び越し走査処理の行
われた画像)をノンインタレース画像に変換するノンイ
ンタレース変換部21cからなる画像供給部21を有す
る。また、供給された画像の二値化を行う日陰部分検出
部3に相当する二値化部23と、画素収縮・膨張部13
に相当する第一の最大値フィルタ部33a、第二の最大
値フィルタ部33b及び第三の最大値フィルタ部33c
とを有する。さらに、第一実施例及び第二実施例の画像
微分処理部2に相当する第一の空間フィルタ部22a、
及び第二の空間フィルタ部22bと、第一実施例及び第
二実施例の閾値Aエッジ部4及び閾値Bエッジ部5に相
当する第一の画素間演算部24と、前記日陰部分エッジ
抽出部6に相当する第二の画素間演算部26とを有する
ものである。ここで、第一の空間フィルタ部22a及び
第二の空間フィルタ部22bに各々用いられている空間
フィルタI 及び空間フィルタIIは各々図10(a)
(b)に示す係数でフィルタリングを行うものである。
空間フィルタI の出力としては、画像の横方向の微分値
が、空間フィルタIIの出力としては、画像の縦方向の微
分値が、各々出力されることになる。また、前記二値化
部23はある閾値Cにより日陰部分“0”と日向部分
“1”に分離する。前記第一の画素間演算部24は、閾
値A及び閾値Bによる水平/垂直方向の正負エッジを抽
出する。
Next, a third embodiment will be described.
As shown in FIG. 9, in this example, in order to supply an image, a TV camera 21a, an A / D converter 21b that digitizes analog data read from the camera 21a, and an interlaced image ( The image supply unit 21 includes a non-interlace conversion unit 21c that converts an image on which the interlaced scanning process has been performed) into a non-interlace image. Further, a binarizing unit 23 corresponding to the shade part detecting unit 3 for binarizing the supplied image, and a pixel shrinking / expanding unit 13
The first maximum value filter unit 33a, the second maximum value filter unit 33b, and the third maximum value filter unit 33c corresponding to
And Further, a first spatial filter unit 22a corresponding to the image differentiation processing unit 2 of the first embodiment and the second embodiment,
And a second spatial filter unit 22b, a first inter-pixel operation unit 24 corresponding to the threshold A edge unit 4 and the threshold B edge unit 5 of the first and second embodiments, and the shaded part edge extraction unit 6 and a second inter-pixel calculation unit 26 corresponding to the second pixel calculation unit 26. Here, the spatial filters I and II used in the first spatial filter unit 22a and the second spatial filter unit 22b are respectively shown in FIG.
Filtering is performed with the coefficient shown in FIG.
As an output of the spatial filter I, a differential value in the horizontal direction of the image is output, and as an output of the spatial filter II, a differential value in the vertical direction of the image is output. Further, the binarization unit 23 separates a shaded portion “0” and a sunlit portion “1” by a certain threshold value C. The first inter-pixel calculation unit 24 extracts positive / negative edges in the horizontal / vertical directions based on the thresholds A and B.

【0020】すなわち、第一の空間フィルタ部22aの
空間フィルタI の出力がB以上のとき垂直方向に正エッ
ジ大として最下位ビットをオン状態“1”とし、出力が
A以上のとき垂直方向に正エッジ小とし、第2ビットを
オン状態“1”とし、出力が−B以下のとき垂直方向負
エッジ大とし、第3ビットをオン状態“1”とし、出力
が−A以下のとき垂直方向負エッジ小とし、第4ビット
をオン状態“1”とし、前記第二の空間フィルタ部22
bの空間フィルタIIの出力がB以上のとき水平方向正エ
ッジ大とし、第5ビットをオン状態“1”とし、出力が
A以上のとき水平方向正エッジ小とし第6ビットをオン
状態“1”とし、出力が−B以下のとき水平方向負エッ
ジ大とし第7ビットをオン状態“1”とし、出力が−A
以下のとき水平方向負エッジ小とし、第8ビットをオン
状態“1”とした信号を出力して、第二の画素間演算部
26に送出する。
That is, when the output of the spatial filter I of the first spatial filter section 22a is B or more, the positive edge is increased in the vertical direction and the least significant bit is turned on "1". The positive edge is small, the second bit is in the ON state "1", the vertical direction negative edge is large when the output is -B or less, and the third bit is in the ON state "1" when the output is -A or less. When the negative edge is small, the fourth bit is turned on “1”, and the second spatial filter
When the output of the spatial filter II of b is greater than or equal to B, the positive edge in the horizontal direction is large, the fifth bit is in the on state "1", and when the output is greater than A, the positive edge in the horizontal direction is small, and the sixth bit is in the on state "1". When the output is -B or less, the negative edge in the horizontal direction is large, the seventh bit is turned on "1", and the output is -A
In the following cases, a signal in which the horizontal negative edge is small and the eighth bit is in the ON state “1” is output and sent to the second inter-pixel calculation unit 26.

【0021】また、前記画素収縮・膨張部33に用い
る、最小値フィルタ及び最大値フィルタについて説明す
る。最小値フィルタは3×3画素のウィンド内で、もし
値が“0”の画素があれば、真ん中の画素値を“0”と
する処理を行うものであり、3段にすることにより、二
値化の出力の日向部分を3画素収縮させ(逆に日陰部分
は膨張する)。一方、最大値フィルタは、ウィンド内で
値“1”が存在するとき真ん中の画素値を“1”とする
ものであって、当該最大値フィルタを3段にすることに
より、二値化の出力の日向部分を3画素膨張させること
になる(逆に日陰部分は収縮する)。
The minimum value filter and the maximum value filter used in the pixel contraction / expansion unit 33 will be described. The minimum value filter performs a process of setting the middle pixel value to “0” if there is a pixel having a value of “0” within the window of 3 × 3 pixels. The sunlit part of the output of the binarization is contracted by three pixels (conversely, the shaded part is dilated). On the other hand, the maximum value filter sets the middle pixel value to “1” when the value “1” exists in the window. Is expanded by three pixels (conversely, the shaded part is contracted).

【0022】第二の画素間演算部26は二値化の出力が
“1”の時に第一の画素間演算部24の出力の内第2,
4,6,8ビットをオフ状態“0”とし、二値化の出力
が“0”の時に第一の画素間演算部24の出力の内第
1,3,5,7ビットを“0”とする。この結果の出力
は、最下位ビットがオン状態のとき日向の垂直方向正エ
ッジで、第2ビットがオン状態のとき日陰の垂直方向正
エッジで、第3ビットがオン状態のとき日向の垂直方向
負エッジで、第4ビットがオン状態のとき日陰の垂直方
向負エッジで、第5ビットがオン状態のとき日向の水平
方向正エッジで、第6ビットがオン状態のとき日陰の水
平方向正エッジで、第7ビットがオン状態のとき日向の
水平方向負エッジで、第8ビットがオン状態のとき、日
陰の水平方向負エッジを表すことになる。したがって、
前記二値化部23の出力値が“1”の場合と、“0”の
場合と、に応じて、各々日向部分でのエッジと、日陰部
分でのエッジとが得られることになり、得られたエッジ
を合成することにより、異なる照度の影響が排除された
エッジを得ることができることになる。この第二の画素
間演算部26の出力結果に基づいて、各画素毎に日向部
分または日陰部分のエッジの抽出を行うことができる。
以上説明したように、本実施例にあっては、前記画素収
縮・膨張部を設けることにより、日陰と日向部分の境界
から生ずるエッジを容易に除去することができるので、
高品質のエッジを得ることができることになる。以上説
明したように、第二の実施例及び第三の実施例にあって
は、画素収縮・膨張部13,23を設けることにより、
エッジを得ようとする対象以外のエッジを除去すること
ができる。したがって、照度の差の影響に基づくノイズ
が画像に反映されない高品質のエッジを得ることができ
ることになる。
When the binarized output is "1", the second inter-pixel operation section 26 outputs the second and second outputs of the first inter-pixel operation section 24.
Bits 4, 6, and 8 are turned off, and the first, third, fifth, and seventh bits of the output of the first inter-pixel arithmetic unit 24 are set to "0" when the binarized output is "0". And The resulting output is the positive vertical edge of the sun when the least significant bit is on, the vertical positive edge of the shade when the second bit is on, and the vertical vertical edge when the third bit is on. A negative edge, a negative vertical edge in the shade when the fourth bit is on, a positive horizontal edge in the sun when the fifth bit is on, and a positive horizontal edge in the shade when the sixth bit is on. When the seventh bit is on, it represents a negative horizontal edge in the sun, and when the eighth bit is on, it represents a negative horizontal edge in the shade. Therefore,
Depending on whether the output value of the binarization unit 23 is "1" or "0", an edge in a sunlit part and an edge in a shaded part are obtained, respectively. By combining the edges thus obtained, it is possible to obtain an edge from which the influence of different illuminance is eliminated. Based on the output result of the second inter-pixel operation unit 26, it is possible to extract an edge of a sunlit portion or a shaded portion for each pixel.
As described above, in the present embodiment, by providing the pixel contraction / expansion portion, the edge generated from the boundary between the shade and the sunlit portion can be easily removed.
High quality edges can be obtained. As described above, in the second embodiment and the third embodiment, by providing the pixel contraction / expansion units 13 and 23,
Edges other than the object whose edge is to be obtained can be removed. Therefore, it is possible to obtain a high-quality edge in which noise based on the influence of the difference in illuminance is not reflected in the image.

【0023】さらに、第四の実施例を図11に示す。本
例にあっては、照度の異なる部分が3種類ある場合に対
応して、エッジの抽出のための画像処理を行うものであ
る。即ち、この照度の異なる3種類の領域を、通常領
域、第一領域、及び第二領域とした場合に、同図に示す
ように、第一及び第二の実施例にある日陰部分検出部3
に代えて、供給されたディジタル画像を形成する画素の
値と閾値Eとの比較結果に基づき特定される第一領域の
検出を行う第一領域検出部43aと、閾値Fとの比較結
果に基づき特定される第二領域の検出を行う第二領域検
出部43bとを設けたものである。さらに、前記閾値A
エッジ抽出部4に代えて、前記閾値Bとは異なる閾値G
と微分処理部2により算出された微分画像を形成する画
素の値の絶対値との比較結果に基づきエッジの抽出を行
う閾値Gエッジ抽出部34aと、閾値G及び閾値Bとは
異なる閾値Hと微分画像を形成する画素の値の絶対値と
の比較結果に基づきエッジの抽出を行う閾値Hエッジ抽
出部34bとを設けたものである。また、前記日陰部分
エッジ抽出部6に代えて、前記閾値Gエッジ抽出部34
aにより抽出されたエッジのうち前記第一領域検出部4
3aにより検出された第一領域内にあるエッジのみの抽
出を行う第一領域エッジ抽出部36aと、前記閾値Hエ
ッジ抽出部34bにより抽出されたエッジのうち前記第
二領域検出部43bにより検出された第二領域内にある
エッジのみの抽出を行う第二領域エッジ抽出部36bと
を有するものである。本例にあっては、3種類以上の照
度の異なる領域が含まれた画像に対し、異なる照度の影
響を排除して、対象とするエッジの抽出を行うことがで
きることになる。さらに、以上説明した、第一、第二、
第三及び第四の実施例にあっては、日陰部分及び日向部
分の両方にあるエッジを抽出するようにしたが、日陰部
分のみ、または日向部分のみにあるエッジを抽出するよ
うにしても良い。
FIG. 11 shows a fourth embodiment. In this example, image processing for edge extraction is performed in response to the case where there are three types of portions having different illuminances. That is, when the three types of regions having different illuminances are a normal region, a first region, and a second region, as shown in FIG.
Instead of the first area detection unit 43a that detects the first area specified based on the comparison result between the supplied pixel value forming the digital image and the threshold value E, based on the comparison result with the threshold value F A second area detection unit 43b for detecting the specified second area. Further, the threshold A
Instead of the edge extracting unit 4, a threshold G different from the threshold B
A threshold G edge extraction unit 34a for extracting an edge based on a comparison result between the absolute value of the pixel forming the differential image calculated by the differential processing unit 2 and a threshold H different from the threshold G and the threshold B A threshold H edge extraction unit 34b for extracting an edge based on a result of comparison with the absolute value of a pixel forming a differential image. Further, instead of the shaded part edge extraction unit 6, the threshold G edge extraction unit 34
a of the first region detection unit 4
3a, a first area edge extraction unit 36a that extracts only edges within the first area detected by the first area 3a, and an edge extracted by the second area detection unit 43b among the edges extracted by the threshold H edge extraction unit 34b. And a second area edge extraction unit 36b for extracting only the edges within the second area. In this example, it is possible to extract the target edge of an image including three or more types of regions having different illuminances while eliminating the influence of the different illuminances. In addition, the first, second,
In the third and fourth embodiments, edges in both the shaded portion and the sunlit portion are extracted. However, edges in only the shaded portion or only the sunlit portion may be extracted. .

【0024】[0024]

【発明の効果】以上説明したように、本発明にあって
は、前記特定照度領域検出部、第一閾値エッジ抽出部、
第二閾値エッジ抽出部及び特定照度領域エッジ抽出部に
より、特定照度領域と他の領域とで、各々異なる閾値に
よりエッジの抽出を行い、これらのエッジが含まれた画
像を画像合成部により合成するようにしている。したが
って、エッジを得ようとする対象が、少なくとも2種類
の異なる照度領域に存在する場合であっても、その異な
る照度の影響を排除して、高品質のエッジを抽出するこ
とができる。
As described above, according to the present invention, the specific illuminance area detecting section, the first threshold edge extracting section,
The second threshold edge extracting unit and the specific illuminance region edge extracting unit extract edges with different threshold values in the specific illuminance region and other regions, and synthesize an image including these edges by the image synthesizing unit. Like that. Therefore, even when an object whose edge is to be obtained exists in at least two types of different illuminance regions, a high-quality edge can be extracted by eliminating the influence of the different illuminance.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第一の発明の原理ブロック図FIG. 1 is a block diagram of the principle of the first invention.

【図2】第二の発明の原理流れ図FIG. 2 is a flowchart of the principle of the second invention.

【図3】実施例に係る機器構成ブロック図FIG. 3 is a block diagram of a device configuration according to the embodiment.

【図4】第一の実施例に係るブロック図FIG. 4 is a block diagram according to a first embodiment;

【図5】第二の実施例に係るブロック図FIG. 5 is a block diagram according to a second embodiment;

【図6】第一の実施例及び第二の実施例の第一例に係る
画像処理を示す図
FIG. 6 is a diagram showing image processing according to a first example of the first embodiment and the second embodiment.

【図7】第二の実施例に係る画像処理の第二例を示す図FIG. 7 is a diagram illustrating a second example of image processing according to the second embodiment;

【図8】第二の実施例に係る画像処理の第三例を示す図FIG. 8 is a diagram illustrating a third example of image processing according to the second embodiment;

【図9】第三の実施例に係るブロック図FIG. 9 is a block diagram according to a third embodiment.

【図10】第三の実施例に係る空間フィルタの例を示す
FIG. 10 is a diagram illustrating an example of a spatial filter according to a third embodiment.

【図11】第四の実施例に係るブロック図FIG. 11 is a block diagram according to a fourth embodiment.

【図12】従来例に係るブロック図FIG. 12 is a block diagram according to a conventional example.

【図13】従来例に係る画像処理を示す図FIG. 13 is a diagram showing image processing according to a conventional example.

【符号の説明】[Explanation of symbols]

10,1 画像供給部 20,2 画像微分処理部 30(3) 特定照度領域検出部(日陰部分検出部) 40(4) 第一閾値エッジ抽出部(閾値Aエッジ抽出
部) 50(5) 第二閾値エッジ抽出部(閾値Bエッジ抽出
部) 60(6) 特定照度領域エッジ抽出部(日陰部分エッ
ジ抽出部) 70,7 画像合成部
10, 1 image supply unit 20, 2 image differentiation processing unit 30 (3) specific illuminance area detection unit (shade part detection unit) 40 (4) first threshold edge extraction unit (threshold A edge extraction unit) 50 (5) Two-threshold edge extraction unit (threshold B edge extraction unit) 60 (6) Specific illuminance area edge extraction unit (shade portion edge extraction unit) 70,7 Image synthesis unit

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06T 9/20 G06T 7/00 ──────────────────────────────────────────────────続 き Continued on the front page (58) Field surveyed (Int.Cl. 7 , DB name) G06T 9/20 G06T 7/00

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】ディジタル画像を供給する画像供給部(1
0)と、供給されたディジタル画像の微分演算を行っ
て、微分画像を算出する画像微分処理部(20)とを有
し、供給された画像に含まれた対象からエッジの抽出を
行う画像処理装置において、 少なくとも2種類の異なる照度領域の双方に存在する対
象が含まれたディジタル画像を形成する画素の値と、第
三閾値と、の比較結果に基づき特定される特定照度領域
の検出を行う特定照度領域検出部(30)と、 第一閾値と、前記微分処理部(20)により算出された
微分画像を形成する画素の値の絶対値と、の比較結果に
基づき、エッジの抽出を行う第一閾値エッジ抽出部(4
0)と、 第一閾値とは異なる第二閾値と、前記微分処理部(2
0)により算出された微分画像を形成する画素の値の絶
対値と、の比較結果に基づきエッジの抽出を行う第二閾
値エッジ抽出部(50)と、 第一閾値エッジ抽出部(40)により抽出されたエッジ
が含まれた画像のうち特定照度領域検出部(30)によ
り検出された特定照度領域内にあるエッジ部分をエッジ
として抽出し、その領域外にあるエッジ部分はエッジと
して抽出しない特定照度領域エッジ抽出部(60)と、 特定照度領域エッジ抽出部(60)により抽出されたエ
ッジが含まれた画像と、第二閾値エッジ抽出部(50)
により抽出されたエッジが含まれた画像とを合成する画
像合成部(70)とを有することを特徴とする画像処理
装置。
An image supply unit (1) for supplying a digital image.
0) and an image differential processing unit (20) for performing a differential operation on the supplied digital image to calculate a differential image, and extracting an edge from a target included in the supplied image. In the apparatus, a specific illuminance area specified based on a comparison result between a value of a pixel forming a digital image including a target present in at least two different illuminance areas and a third threshold value is detected. Edge extraction is performed based on a comparison result of the specific illuminance area detection unit (30), the first threshold value, and the absolute value of the pixel forming the differential image calculated by the differentiation processing unit (20). First threshold edge extraction unit (4
0), a second threshold different from the first threshold, and the differential processing unit (2
A second threshold edge extracting unit (50) for extracting an edge based on a comparison result between the absolute value of the pixel forming the differential image calculated in step (0) and the first threshold edge extracting unit (40) An edge portion within the specific illuminance region detected by the specific illuminance region detection unit (30) is extracted as an edge from the image including the extracted edge, and an edge portion outside the region is not extracted as an edge. An illuminance area edge extraction unit (60), an image including an edge extracted by the specific illuminance area edge extraction unit (60), and a second threshold edge extraction unit (50)
An image synthesizing unit (70) for synthesizing an image including an edge extracted by the image synthesis method.
【請求項2】前記特定照度領域検出部(30)は、ディ
ジタル画像を形成する画素の値が第三閾値である値C未
満の画素から形成される特定照度領域を日陰部分として
検出するものであり、 前記第一閾値である値Aは前記第二閾値である値Bより
も小さく設定されるとともに、 前記第一閾値エッジ抽出部(40)は前記微分処理部
(20)により算出された微分画像を形成する画素の値
の絶対値が第一閾値である値Aよりも大きい場合のエッ
ジの抽出を行うものであり、 前記第二閾値エッジ抽出部(50)は前記微分処理部
(20)により算出された微分画像を形成する画素の値
の絶対値が第二閾値である値Bよりも大きい場合のエッ
ジの抽出を行うものであることを特徴とする請求項1記
載の画像処理装置。
2. The specific illuminance area detection section (30) detects a specific illuminance area formed from pixels whose digital image forming pixels are smaller than a value C which is a third threshold value as a shade portion. The value A that is the first threshold is set to be smaller than the value B that is the second threshold, and the first threshold edge extraction unit (40) performs the differentiation calculated by the differentiation processing unit (20). The edge extraction is performed when the absolute value of the value of the pixel forming the image is larger than the value A which is the first threshold, and the second threshold edge extraction unit (50) is the differential processing unit (20). 2. The image processing apparatus according to claim 1, wherein the edge is extracted when the absolute value of the value of the pixel forming the differential image calculated by the above is larger than the value B which is the second threshold value.
【請求項3】前記特定照度領域検出部(30)により検
出された特定照度領域を、指示により、縦または横方向
に所定画素数分縮小し、または拡大する画素縮小・膨張
部を設けたことを特徴とする請求項1記載の画像処理装
置。
3. A pixel reduction / expansion unit for reducing or expanding the specific illuminance area detected by the specific illuminance area detection unit (30) in a vertical or horizontal direction by a predetermined number of pixels according to an instruction. The image processing apparatus according to claim 1, wherein:
【請求項4】ディジタル画像を供給し(S1)、供給さ
れたディジタル画像の微分演算を行って、微分画像を算
出し(S2)、供給された画像に含まれた対象からエッ
ジの抽出を行う画像処理方法において、 少なくとも2種類の異なる照度の双方に存在する対象が
含まれたディジタル画像を形成する画素の値と、第三閾
値と、の比較結果に基づき特定される特定照度領域の検
出を行い(S3)、 第一閾値と、算出された微分画像を形成する画素の値の
絶対値と、の比較結果に基づいてエッジの抽出を行い
(S4)、 第一閾値とは異なる第二閾値と、算出された微分画像を
形成する画素の値の絶対値と、の比較結果に基づいてエ
ッジの抽出を行い(S5)、 第一閾値との比較結果に基づいて抽出されたエッジのう
ち前記特定照度領域内にあるエッジ部分だけをエッジと
して抽出し(S6)、 前記第二閾値との比較結果に基づいて抽出されたエッジ
が含まれた画像と、特定照度領域内にあるエッジ部分の
含まれた画像との合成を行う(S7)ことを特徴とする
画像処理方法。
4. A digital image is supplied (S1), a differential operation is performed on the supplied digital image to calculate a differential image (S2), and an edge is extracted from an object included in the supplied image. In the image processing method, detection of a specific illuminance area specified based on a comparison result of a pixel value forming a digital image including a target present in at least two types of different illuminances and a third threshold value is performed. Performing (S3), extracting an edge based on a comparison result of the first threshold value and the absolute value of the pixel value forming the calculated differential image (S4), and extracting a second threshold value different from the first threshold value An edge is extracted based on a comparison result between the calculated absolute value of the pixel forming the differential image and the calculated absolute value of the pixel (S5). Within the specific illuminance area Only the edge portion is extracted as an edge (S6), and an image including the edge extracted based on the comparison result with the second threshold and an image including the edge portion in the specific illuminance region are combined. (S7).
JP4001399A 1992-01-08 1992-01-08 Image processing apparatus and method Expired - Fee Related JP3065418B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4001399A JP3065418B2 (en) 1992-01-08 1992-01-08 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4001399A JP3065418B2 (en) 1992-01-08 1992-01-08 Image processing apparatus and method

Publications (2)

Publication Number Publication Date
JPH05189564A JPH05189564A (en) 1993-07-30
JP3065418B2 true JP3065418B2 (en) 2000-07-17

Family

ID=11500418

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4001399A Expired - Fee Related JP3065418B2 (en) 1992-01-08 1992-01-08 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP3065418B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6313081B2 (en) * 2014-03-20 2018-04-18 クラリオン株式会社 In-vehicle image processing apparatus and vehicle system using the same

Also Published As

Publication number Publication date
JPH05189564A (en) 1993-07-30

Similar Documents

Publication Publication Date Title
JPH0766446B2 (en) Method of extracting moving object image
US20160148356A1 (en) Efficient Methodology To Process Wide Dynamic Range Images
US20070291140A1 (en) Image processing method, image processing system, image pickup device, image processing device and computer program
JPS62118676A (en) Picture processing system
JP3800785B2 (en) White line recognition device
JP3065418B2 (en) Image processing apparatus and method
US5293255A (en) Method and system for extracting a specific image
Lai et al. Single image dehazing with optimal transmission map
JP2966084B2 (en) Local area division method in image processing
JP2001127999A (en) Device and method for processing image
JP2000020692A (en) Shade removing method in high resolution satellite data and satellite data processor using the same
CN110008918A (en) A kind of motorcycle simulator driver gestures recognition methods
JP3030126B2 (en) Image processing method
JPS62107383A (en) Contour depiction method
JPH1097625A (en) Parking vehicle detecting system
JPH1011581A (en) Parking vehicle detecting method and its device
Meng et al. A fast stitching method for container images using texture and weighted speed
JP5092958B2 (en) Image processing apparatus and program
JPH0894729A (en) Target-classifying method
JP2868233B2 (en) Vehicle movement detection device
JP2814315B2 (en) Vehicle dynamics measurement device
JPH0512441A (en) Edge image generator
JPH0143350B2 (en)
JPH09330416A (en) Traveling object detecting method and device therefor
JP3115629B2 (en) A device for extracting characters and figures in a landscape

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20000425

LAPS Cancellation because of no payment of annual fees