JPH07220066A - Picture processor - Google Patents

Picture processor

Info

Publication number
JPH07220066A
JPH07220066A JP6008467A JP846794A JPH07220066A JP H07220066 A JPH07220066 A JP H07220066A JP 6008467 A JP6008467 A JP 6008467A JP 846794 A JP846794 A JP 846794A JP H07220066 A JPH07220066 A JP H07220066A
Authority
JP
Japan
Prior art keywords
image
unit
input
picture
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6008467A
Other languages
Japanese (ja)
Inventor
Michiyo Moriie
みち代 森家
Koji Yamamoto
浩司 山本
Taro Imagawa
太郎 今川
Susumu Maruno
進 丸野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP6008467A priority Critical patent/JPH07220066A/en
Publication of JPH07220066A publication Critical patent/JPH07220066A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To provide the picture processor which accurately extracts edges of an area in a picture by adding the gradation correction processing for each partial area between a picture input means and in edge extraction processing means. CONSTITUTION:The input picture from a picture input means 1 is divided into plural picture blocks by a picture dividing means 2, and picture information of each picture block is obtained by a picture information extracting means 3, and gradation correction is performed by a gradation correction means 4. This means preliminarily learns the relations between picture information and nonlinear gamma curves and discriminates picture information based on the learnt result and corrects the objective picture block by a selected non-linear gamma curve. An edge extracting means 5 extracts edges from the corrected picture block, and a picture composing means 6 composes respective picture blocks into one picture again, and it is outputted from a picture output means 7. By this constitution, edges in the area of shadow which is difficult to extract in the conventional method can be extracted. Since nonlinear gamma curves are selected in accordance with learnt results, the stable processing is always easily performed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像処理装置、特にエ
ッジ抽出処理機能を備えた画像処理装置に関するもので
ある。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus having an edge extraction processing function.

【0002】[0002]

【従来の技術】従来、画像中の物体のエッジ抽出は、T
Vカメラからの画像信号をA/D変換し、そのまま微分
オペレータなどを用いたエッジ抽出手段に入力し、エッ
ジの抽出を行うものである。図11に従来のエッジ抽出
を行う画像処理装置のブロック図を示す。画像入力手段
111から入力したA/D変換後の画像信号(1枚分)
は、エッジ抽出手段112に送出される。エッジ抽出手
段112は微分部112aとしきい値処理部112b,
細線化処理部112cにより構成され、画像入力手段1
11から送出される画像信号はまず微分部112aに入
力される。微分部112aは、微分オペレータを1枚の
画像の各画素ごとに並列に適用して、各画素の濃度値を
微分する。微分オペレータの例としてプレヴィットのオ
ペレータとソーベルのオペレータを図12に示す。微分
後の画像信号はしきい値処理部112bに送出され、し
きい値処理部112bは各画素に対してしきい値処理を
施す。つまり、各画素の微分濃度値がある値よりも大き
ければ1,小さければ0を出力する。しきい値処理部1
12bで2値化された画像信号は細線化処理部112c
に送出され、線幅1の中心線を抽出する。細線化処理部
112cで細線化された画像、即ちエッジ画像は、画像
出力手段113から出力される。
2. Description of the Related Art Conventionally, edge extraction of an object in an image is performed by T
The image signal from the V camera is A / D converted and directly input to the edge extracting means using a differential operator or the like to extract the edge. FIG. 11 shows a block diagram of a conventional image processing apparatus that performs edge extraction. Image signal after A / D conversion input from the image input unit 111 (for one image)
Is sent to the edge extraction means 112. The edge extraction means 112 includes a differentiator 112a and a threshold processor 112b,
The image input unit 1 is configured by the thinning processing unit 112c.
The image signal sent from 11 is first inputted to the differentiator 112a. The differentiating unit 112a applies a differentiating operator in parallel to each pixel of one image to differentiate the density value of each pixel. As an example of the differential operator, FIG. 12 shows the Previt operator and the Sobel operator. The differentiated image signal is sent to the threshold processing unit 112b, and the threshold processing unit 112b performs threshold processing on each pixel. That is, if the differential density value of each pixel is larger than a certain value, 1 is output, and if it is smaller, 0 is output. Threshold processing unit 1
The image signal binarized by 12b is the thinning processing unit 112c.
To extract the center line of line width 1. The image thinned by the thinning processing unit 112c, that is, the edge image is output from the image output unit 113.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、TVカ
メラは自然の被写体に比べてダイナミックレンジが狭い
ため、上記の従来の構成でエッジ抽出を行うと、影の領
域の周囲を誤って抽出したり、影の領域中のエッジを正
しく抽出できないといった問題点を有する。具体例を図
13に示す。図13(a)は人の眼で見た室内画像であ
る。窓131から外光が差込み、外光により室内の箱1
32に影が生じている。窓131は非常に明るく、室内
は中程度、箱132の影の部分は暗い。しかし、人の眼
はダイナミックレンジが広いため、影の領域内や窓の外
の景色を認識することができる。一方、図13(b)は
TVカメラで撮像した室内画像である。先に述べたよう
に、TVカメラはダイナミックレンジが狭いため、窓1
31に絞りを合わせると、室内が非常に暗くなり、影の
領域内の箱132をはっきり認識することができない。
逆に室内に絞りを合わせると、窓131の領域の輝度が
飽和して白く見え、窓131の外の景色を認識すること
ができない。このような状態の画像に対してそのままエ
ッジ抽出を行うと、図13(c)のように箱132の影
をエッジとして誤って抽出したり、窓131の外の景色
や箱132の影の部分のエッジを抽出できないことが多
い。
However, since the dynamic range of the TV camera is narrower than that of a natural subject, when the edge extraction is performed with the above-described conventional configuration, the periphery of the shadow area is erroneously extracted, There is a problem that the edges in the shadow area cannot be extracted correctly. A specific example is shown in FIG. FIG. 13A is an indoor image viewed by the human eye. Outside light enters through the window 131, and the inside box 1 is exposed to the outside light.
32 has a shadow. The window 131 is very bright, the interior is medium and the shadow of the box 132 is dark. However, since the human eye has a wide dynamic range, it is possible to recognize the scenery inside the shadow area or outside the window. On the other hand, FIG. 13B is an indoor image captured by the TV camera. As mentioned above, the TV camera has a narrow dynamic range, so the window 1
When the aperture is adjusted to 31, the room becomes very dark and the box 132 in the shadow area cannot be clearly recognized.
On the other hand, when the aperture is adjusted to the room, the brightness of the area of the window 131 is saturated and the area looks white, and the scenery outside the window 131 cannot be recognized. When the edge extraction is performed on the image in such a state as it is, the shadow of the box 132 is erroneously extracted as an edge as shown in FIG. 13C, or the scenery outside the window 131 or the shadow portion of the box 132 is extracted. Often, the edge of cannot be extracted.

【0004】本発明は上記従来のエッジ抽出方法の課題
を解決するために、画像入力手段とエッジ抽出処理手段
との間に部分的な階調補正処理を付加するもので、画像
中の領域のエッジを正確に抽出できる画像処理装置を提
供する事を目的とする。
In order to solve the above-mentioned problems of the conventional edge extraction method, the present invention adds a partial gradation correction process between the image input means and the edge extraction processing means. An object is to provide an image processing device that can accurately extract edges.

【0005】[0005]

【課題を解決するための手段】本発明の画像処理装置
は、画像入力手段から入力された画像を複数の画像ブロ
ックに分割する画像分割手段と、各画像ブロックの画像
信号から1種もしくは複数種の画像信号を抽出する画像
情報抽出手段と、画像情報抽出手段で求めた画像情報に
基づいて各画像ブロックに適した階調補正を行って抽出
したいエッジを強調する階調補正手段と、階調補正後の
各画像ブロックからエッジを抽出するエッジ抽出手段
と、エッジ抽出後の画像を合成して1枚の画像に再合成
する画像合成手段とを有するものである。
An image processing apparatus according to the present invention comprises an image dividing means for dividing an image input from an image input means into a plurality of image blocks, and one or more kinds of image signals from each image block. Image information extracting means for extracting the image signal of, the tone correcting means for enhancing the edge to be extracted by performing the tone correction suitable for each image block based on the image information obtained by the image information extracting means, and the tone It has an edge extracting means for extracting an edge from each image block after correction, and an image synthesizing means for synthesizing the images after the edge extraction and re-synthesizing them into one image.

【0006】[0006]

【作用】以上のように構成した画像処理装置は、画像分
割手段に一枚の画像信号を入力すると、画像信号を複数
の画像ブロックに分割して、画像情報抽出手段に各画像
ブロックごとに画像信号を送出する。画像情報抽出手段
は、各画像ブロックの画像信号から1種もしくは複数種
の画像情報を抽出,算出し、階調補正手段に送出する。
階調補正手段は、画像情報に基づいて各画像ブロックに
適した階調補正を行って抽出したいエッジを強調する。
エッジ抽出手段は、階調補正後の各画像ブロックの画像
信号に対して、微分オペレータなどを用いてエッジを抽
出し、画像合成手段に結果を送出する。画像合成手段
は、エッジ抽出手段から送られる画像ブロックごとのエ
ッジ画像を1枚のエッジ画像に合成し、画像出力手段か
ら出力する。
In the image processing apparatus configured as described above, when one image signal is input to the image dividing means, the image signal is divided into a plurality of image blocks, and the image information extracting means makes an image for each image block. Send a signal. The image information extraction means extracts and calculates one or more types of image information from the image signal of each image block, and sends it to the gradation correction means.
The gradation correction unit performs gradation correction suitable for each image block based on the image information and emphasizes the edge to be extracted.
The edge extracting means extracts an edge from the image signal of each image block after gradation correction by using a differential operator or the like, and sends the result to the image synthesizing means. The image synthesizing unit synthesizes the edge image for each image block sent from the edge extracting unit into one edge image, and outputs it from the image output unit.

【0007】このように、エッジ抽出前に階調補正を施
してダイナミックレンジの広い画像にすることにより、
従来法では抽出できないエッジを抽出することができ
る。例えば、図13(b)の画像に階調補正を施して影
の領域内の物体のエッジを強調することにより、図13
(d)のように、箱のエッジを正しく抽出することがで
きる。また、通常の画像には明るい領域と暗い領域との
両方が存在するが、明るい領域に影響を及ぼさずに暗い
領域を明るく補正するには、画像1枚に対して1種類の
階調補正では不十分である。本発明の画像処理装置は、
明るい領域をそのままに、かつ暗い領域を明るく補正す
るために、画像を複数のブロックに分割し、各ブロック
に適した階調補正を行って、明るい領域と暗い領域の両
方からエッジを正しく抽出することができる。
As described above, gradation correction is performed before edge extraction to form an image with a wide dynamic range.
Edges that cannot be extracted by the conventional method can be extracted. For example, by performing gradation correction on the image of FIG. 13B to emphasize the edge of the object in the shadow area, the image of FIG.
As in (d), the edge of the box can be correctly extracted. In addition, although a normal image has both a bright area and a dark area, in order to correct the dark area brightly without affecting the bright area, one kind of gradation correction may be applied to one image. Is insufficient. The image processing apparatus of the present invention is
To correct bright areas as they are and dark areas as bright, divide the image into multiple blocks, perform gradation correction appropriate for each block, and extract edges correctly from both bright and dark areas. be able to.

【0008】[0008]

【実施例】以下、本発明の実施例について図面を参照し
て説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0009】図1は、本発明による画像処理装置の一実
施例のブロック図を示したものである。以下にその構成
を動作とともに説明する。図1において、1は画像入力
手段である。画像入力手段1から入力した1枚分の画像
信号を画像分割手段2において複数の画像ブロックに分
割する。分割した各画像ブロックの画像信号は画像情報
抽出手段3に送出される。画像情報抽出手段3は各画像
ブロックから1種類もしくは複数種の画像情報を抽出
し、階調補正手段4に送出する。階調補正手段4は各画
像ブロックの画像情報に基づいて、画像ブロック内の画
像信号に対して階調補正を行う。階調補正手段4は学習
型非線形ガンマ曲線選択部42と非線形ガンマ補正部4
1とで構成される。画像情報抽出手段3で求めた画像情
報は学習型非線形ガンマ曲線選択部42に送出される。
学習型非線形ガンマ曲線選択部42は、予め各種状態の
画像情報とガンマ補正に用いるべき非線形ガンマ曲線と
の関係を学習させてあり、学習結果に基づいて画像情報
を判断し、補正に用いるべき非線形ガンマ曲線(0〜
7)を選択する。選択されたガンマ曲線の結果と画像ブ
ロック内の補正対象領域の画像信号が非線形ガンマ補正
部41に送出され、非線形ガンマ補正部41では、選択
された非線形ガンマ曲線を用いて補正対象領域をガンマ
補正し、補正した画像信号の出力を行う。エッジ抽出手
段5は階調補正手段4で補正した各画像ブロックからエ
ッジを抽出する。エッジ抽出手段5で求めた各画像ブロ
ックのエッジ画像は画像合成手段6に送出され、画像合
成手段6では、送られてきた各画像ブロックのエッジ画
像を1枚の画像に合成する。合成された画像は画像出力
手段7から出力する。
FIG. 1 is a block diagram of an embodiment of an image processing apparatus according to the present invention. The configuration will be described below together with the operation. In FIG. 1, 1 is an image input means. An image signal for one image input from the image input unit 1 is divided into a plurality of image blocks by the image dividing unit 2. The image signal of each divided image block is sent to the image information extracting means 3. The image information extracting means 3 extracts one kind or plural kinds of image information from each image block and sends it to the gradation correcting means 4. The gradation correction unit 4 performs gradation correction on the image signal in the image block based on the image information of each image block. The gradation correction unit 4 includes a learning type non-linear gamma curve selection unit 42 and a non-linear gamma correction unit 4.
1 and. The image information obtained by the image information extracting means 3 is sent to the learning type non-linear gamma curve selecting section 42.
The learning-type non-linear gamma curve selection unit 42 has learned the relationship between the image information of various states and the non-linear gamma curve to be used for gamma correction in advance, determines the image information based on the learning result, and uses the non-linear gamma curve to be corrected. Gamma curve (0 to
Select 7). The result of the selected gamma curve and the image signal of the correction target area in the image block are sent to the non-linear gamma correction section 41, and the non-linear gamma correction section 41 uses the selected non-linear gamma curve to gamma-correct the correction target area. Then, the corrected image signal is output. The edge extraction unit 5 extracts an edge from each image block corrected by the gradation correction unit 4. The edge image of each image block obtained by the edge extracting means 5 is sent to the image synthesizing means 6, and the image synthesizing means 6 synthesizes the sent edge image of each image block into one image. The combined image is output from the image output means 7.

【0010】図2は画像分割手段2における分割方法の
例である。図2(a)のように1画像をいくつかの画像
ブロックに分割し、画像ブロック内の画像信号から求め
た画像情報に基づいて画像ブロック全域(図中のm×n
画素)を補正対象領域として補正処理を施す場合と、図
2(b)のように各画像ブロックが互いに重なり合うよ
うに画像ブロックを抽出し、画像ブロック内の画像信号
から求めた画像情報に基づいて画像ブロック内の中央部
分の領域(図中のk×l画素)に補正処理を施す場合が
挙げられる。つまり図2(b)の分割方法は、補正対象
領域の周りの情報も考慮することができる。図2(b)
の場合、k=m/2,l=n/2である。 図3(a)
は、図2(b)の場合の画像分割手段2の一実施例のブ
ロック図である。画像ブロック抽出部21はある点
(x,y)を重心とする、大きさm×n画素の画像ブロ
ックを抽出し、画像情報抽出手段3にその画像ブロック
内の画像信号を送出する。初期状態はx,yともに0で
ある。また、大きさk×l画素の画像ブロックを階調補
正手段4に送出する。抽出後、x,yの値は重心設定部
22により更新される。重心設定部22の具体的な実施
例を同図(b)に示す。画像ブロック抽出部21から送
られてきたx,yはそれぞれ経路選択部221a,22
1bに送出される。一枚の画像の大きさをX × Yとす
るとき、経路選択器221aは、x<Xであれば加算器
222aにxを送出し、kを加算して出力する。x=X
であれば代入器223aにxを送出し、xに0を代入し
て出力する。経路選択器221bは、x<Xであればそ
のままyを出力する。x=Xであれば経路選択器221
cに送出する。経路選択器221cでは、y<Yであれ
ば加算器222bにyを送出し、lを加算して出力す
る。y=Yであれば代入器223bにyを送出し、yに
−1を代入して出力する。重心設定部22から出力した
x’,y’はスイッチ23に送出され、y≠−1であれ
ば、画像ブロック抽出部21にx’,y’(新たに設定
した重心)を出力する。上記の構成により、画像情報抽
出用の画像ブロックが互いに重なり合うように、ラスタ
スキャン方向に画像ブロックの重心を移動させて、各画
像ブロックを抽出することができる。
FIG. 2 shows an example of a dividing method in the image dividing means 2. As shown in FIG. 2A, one image is divided into several image blocks, and the entire image block (m × n in the figure is calculated based on the image information obtained from the image signal in the image block).
Pixel) is used as a correction target area, and when an image block is extracted so that the image blocks overlap each other as shown in FIG. 2B, based on the image information obtained from the image signal in the image block. An example is a case where the correction process is applied to the central region (k × l pixel in the figure) in the image block. That is, the division method of FIG. 2B can also consider information around the correction target area. Figure 2 (b)
In the case of, k = m / 2 and l = n / 2. Figure 3 (a)
FIG. 3 is a block diagram of an embodiment of the image dividing means 2 in the case of FIG. The image block extraction unit 21 extracts an image block having a size of m × n pixels with a certain point (x, y) as the center of gravity, and sends the image signal in the image block to the image information extraction means 3. In the initial state, both x and y are 0. Further, the image block of size k × l pixels is sent to the gradation correction means 4. After extraction, the values of x and y are updated by the center of gravity setting unit 22. A specific example of the center of gravity setting unit 22 is shown in FIG. X and y sent from the image block extraction unit 21 are route selection units 221a and 22a, respectively.
1b. When the size of one image is X × Y, the path selector 221a sends x to the adder 222a if x <X, adds k and outputs it. x = X
If so, x is sent to the assigner 223a, 0 is assigned to x, and output. The path selector 221b outputs y as it is if x <X. If x = X, the route selector 221
send to c. In the route selector 221c, if y <Y, y is sent to the adder 222b, l is added and output. If y = Y, y is sent to the assigner 223b, -1 is assigned to y, and output. The x ′, y ′ output from the center of gravity setting unit 22 is sent to the switch 23, and if y ≠ −1, x ′, y ′ (newly set center of gravity) is output to the image block extracting unit 21. With the above configuration, it is possible to extract each image block by moving the center of gravity of the image block in the raster scan direction so that the image blocks for image information extraction overlap each other.

【0011】図4は画像情報抽出手段3の一実施例を示
したものである。ここでは画像情報として、画像ブロッ
ク内の画素の輝度値を求め、それらを高輝度,中輝度,
低輝度の3つのレベルに分けて各々の頻度値を画像情報
とする。図4において、31は輝度算出部であり、画像
分割手段2から送出される画像ブロックの各画素のR,
G,B信号から輝度信号Yを作成する。32は輝度レベ
ル値記憶部であり、輝度レベルの境界値(図中のa,
b)を記憶している。33aは輝度レベル比較器であ
り、輝度算出部31から送出される輝度値を輝度レベル
値記憶部32が記憶している値aと比較し、輝度値Yの
方が大きければカウンタ35aに1を加算し、小さけれ
ばAND回路34に1を送出する。33bも輝度レベル
比較器であり、33aと同様に輝度レベル値記憶部が記
憶している値bと輝度値Yとを比較し、輝度値Yの方が
大きければAND回路34に1を送出し、小さければカ
ウンタ35cに1を加算する。AND回路34は、輝度
レベル比較器33a,bからの出力がともに1であれ
ば、カウンタ35bに1を加算する。これにより、第1
レベル値aよりも大きい輝度(高輝度),第1レベル値
aと第2レベル値bとの間の輝度(中輝度),第2レベ
ル値よりも小さい輝度(低輝度)の3種類の頻度を、そ
れぞれカウンタ35a,35b,35cから求めること
ができる。なお、ここでは輝度を3つのレベルに分けて
いるが、輝度レベル比較器やAND回路を並列に接続す
ることにより、より多くのレベルに分けることができ
る。
FIG. 4 shows an embodiment of the image information extraction means 3. Here, as the image information, the brightness values of the pixels in the image block are obtained, and these are set to high brightness, medium brightness,
The frequency value is divided into three levels of low brightness to be image information. In FIG. 4, reference numeral 31 denotes a brightness calculation unit, which is used for the R of each pixel of the image block sent from the image dividing unit 2,
A luminance signal Y is created from the G and B signals. Reference numeral 32 denotes a brightness level value storage unit, which is a boundary value of brightness levels (a in the figure,
Remember b). Reference numeral 33a is a brightness level comparator, which compares the brightness value sent from the brightness calculation unit 31 with the value a stored in the brightness level value storage unit 32, and if the brightness value Y is larger, sets 1 to the counter 35a. Add, and if smaller, send 1 to AND circuit 34. 33b is also a brightness level comparator, and similarly to 33a, compares the value b stored in the brightness level value storage unit with the brightness value Y, and if the brightness value Y is larger, sends 1 to the AND circuit 34. If it is smaller, 1 is added to the counter 35c. The AND circuit 34 adds 1 to the counter 35b when the outputs from the brightness level comparators 33a and 33b are both 1. This makes the first
Three types of frequencies: brightness larger than level value a (high brightness), brightness between first level value a and second level value b (medium brightness), brightness smaller than second level value (low brightness) Can be obtained from the counters 35a, 35b, 35c, respectively. Note that the luminance is divided into three levels here, but it can be divided into more levels by connecting a luminance level comparator and an AND circuit in parallel.

【0012】以上のように構成した画像処理装置につい
て、以下その動作を説明する。
The operation of the image processing apparatus configured as described above will be described below.

【0013】まず、全体の処理の流れについて説明す
る。図1の画像入力手段1から入力した1枚分の画像信
号(画像の大きさをX × Yとする)は、画像分割手段
2で画像ブロックに分割される。以下図3(a)を用い
て画像分割手段の動作について説明する。入力された画
像信号は画像ブロック抽出部21に送出される。画像分
割ブロック抽出部21では、画像信号から2種類の画像
ブロックを抽出する。一つは画像情報抽出手段3に送る
画像ブロック1(m×n画素)、もう一つは階調補正手
段4に送る画像ブロック2(k×l画素。但し、k=m
/2,l=n/2)である。これら2つのブロックは同
心矩形であり、画像ブロック1の面積は画像ブロック2
の4倍である。つまり、階調補正の基準となる画像情報
を、階調補正対象の領域だけでなく、その周りの画素も
含めて算出することにより、周りの状況を考慮した階調
補正を行うことを目的としている。画像ブロックの抽出
はまず、画像の左上(重心(0,0))から開始する。
各画像ブロックを抽出した後、重心の位置座標(x,
y)を重心設定部22に送出する。重心設定部22では
ラスタスキャン方向に、kまたはlだけシフトする。例
えば、入力した重心が(0,0)であれば、加算器22
2aでx座標にkを加算し、(k,0)を出力する。x
<Xの間は同様にしてx座標にkを加算する。重心が
(0,X)まで移動すれば、代入器223aでx座標に
0を代入、加算器222bでy座標にlを加算して、
(l,0)を出力する。これらの処理を繰り返して、重
心が(X,Y)となれば、代入器223cでy座標に−
1を代入する。スイッチ23は、y=−1であれば経路
を解放し、画像分割処理を終了する。このようにして、
画像ブロック1が互いに重なりを持つように各画像ブロ
ックを順次抽出し、画像情報抽出手段3と階調補正手段
4とにそれぞれ画像ブロック1,画像ブロック2を送出
する。
First, the overall processing flow will be described. The image signal for one image (the size of the image is X × Y) input from the image input unit 1 of FIG. 1 is divided into image blocks by the image dividing unit 2. The operation of the image dividing means will be described below with reference to FIG. The input image signal is sent to the image block extraction unit 21. The image division block extraction unit 21 extracts two types of image blocks from the image signal. One is an image block 1 (m × n pixels) sent to the image information extraction means 3, and the other is an image block 2 (k × l pixels) sent to the gradation correction means 4, where k = m.
/ 2, l = n / 2). These two blocks are concentric rectangles, and the area of image block 1 is
Is four times. That is, for the purpose of performing the gradation correction in consideration of the surrounding situation, by calculating the image information serving as the reference for the gradation correction not only in the area of the gradation correction target but also in the surrounding pixels. There is. Extraction of an image block starts from the upper left of the image (center of gravity (0,0)).
After extracting each image block, the position coordinates (x,
y) is sent to the center of gravity setting unit 22. The center-of-gravity setting unit 22 shifts by k or l in the raster scan direction. For example, if the input centroid is (0,0), the adder 22
In 2a, k is added to the x coordinate and (k, 0) is output. x
During <X, k is similarly added to the x coordinate. When the center of gravity moves to (0, X), the assigner 223a substitutes 0 for the x coordinate, and the adder 222b adds 1 for the y coordinate,
Outputs (1, 0). When the center of gravity becomes (X, Y) by repeating these processes, the substituting unit 223c shifts the y coordinate to −.
Substitute 1 If y = −1, the switch 23 releases the route and ends the image division process. In this way
The image blocks are sequentially extracted so that the image blocks 1 overlap each other, and the image block 1 and the image block 2 are sent to the image information extraction means 3 and the gradation correction means 4, respectively.

【0014】画像情報抽出手段3では、画像分割手段か
ら送られる大きさm×n画素の画像ブロックから、その
画像ブロックの状態を示す情報を抽出する。本実施例で
は、画像ブロック内の各画素の輝度を求め、それらを3
つのレベル(高輝度,中輝度,低輝度に分類し、各レベ
ルの頻度を画像情報として用いる。以下図4を用いて説
明する。輝度算出部31は、画像分割手段2から送出さ
れる画像ブロックの各画素のR,G,B信号から輝度信
号Yを作成する。NTSC方式のテレビジョン信号では
輝度信号Yは(数1)で求められる。
The image information extracting means 3 extracts information indicating the state of the image block from the image block of size m × n pixels sent from the image dividing means. In the present embodiment, the brightness of each pixel in the image block is calculated, and the brightness is calculated as 3
Four levels (high brightness, medium brightness, and low brightness are used, and the frequency of each level is used as image information. This will be described below with reference to Fig. 4. The brightness calculation unit 31 sends an image block from the image dividing unit 2. The luminance signal Y is created from the R, G, and B signals of each pixel of 1. The luminance signal Y is obtained by (Equation 1) for the television signal of the NTSC system.

【0015】[0015]

【数1】 [Equation 1]

【0016】算出した輝度値は、輝度レベル比較器33
aにおいて、高輝度レベルと中輝度レベルとの境界値a
と比較し、Y≧aであれば高輝度レベル用カウンタ35
aに1を加算する。また、輝度レベル比較器33bにお
いて、中輝度レベルと低輝度レベルとの境界値bと輝度
Yとを比較し、Y<bであれば低輝度レベル用カウンタ
33cに1を加算する。Y<aかつY≧bであれば中輝
度レベル用カウンタ33bに1を加算する。このように
して画像ブロック内の画素を分類し、3種類の画像情報
を求める。これら3種類の画像情報は(数2)の関係式
で表わすことができるため、階調補正手段4には最低2
種類の情報を送出すればよい。
The calculated brightness value is used as a brightness level comparator 33.
In a, the boundary value a between the high brightness level and the middle brightness level
And if Y ≧ a, the high brightness level counter 35
Add 1 to a. In the brightness level comparator 33b, the boundary value b between the middle brightness level and the low brightness level is compared with the brightness Y, and if Y <b, 1 is added to the low brightness level counter 33c. If Y <a and Y ≧ b, 1 is added to the intermediate brightness level counter 33b. In this way, the pixels in the image block are classified to obtain three types of image information. Since these three types of image information can be expressed by the relational expression (Equation 2), the gradation correction unit 4 has at least 2
It suffices to send the type of information.

【0017】[0017]

【数2】 [Equation 2]

【0018】画像情報抽出手段3で求めた画像情報と画
像分割手段2で分割した画像ブロックは階調補正手段4
に送出される。先にも述べたように、画像情報抽出手段
3で求めた画像情報は学習型非線形ガンマ曲線選択部4
2に送出される。学習型非線形ガンマ曲線選択部42
は、予め各種状態の画像情報とガンマ補正に用いるべき
非線形ガンマ曲線との関係を学習させてある。例えば、
全体的に暗い画像ブロックから得た画像情報と全体的に
明るく補正する非線形ガンマ曲線との関係,全体的に明
るい画像ブロックから得た画像情報と暗い画素のみを明
るく補正する非線形ガンマ曲線との関係などを予め学習
させてある(学習についてはあとで詳しく述べる)。こ
のように学習させた結果に基づいて画像情報を判断し、
補正に用いるべき非線形ガンマ曲線(0〜7)を選択す
る。選択されたガンマ曲線の結果と画像ブロック内の補
正対象領域の画像信号が非線形ガンマ補正部41に送出
され、非線形ガンマ補正部41では、選択された非線形
ガンマ曲線を用いて補正対象領域をガンマ補正し、補正
した画像信号の出力を行う。このように、予め学習型非
線形ガンマ選択部42において学習させておくことによ
り、画像の状態に応じてこれらの中から最適な非線形ガ
ンマ曲線を選ぶことができる。なお、図9は補正に用い
る非線形ガンマ曲線の例を示したものであり、図中のガ
ンマ曲線は(数3)で求めることができる。
The image information obtained by the image information extracting means 3 and the image block divided by the image dividing means 2 are gradation correction means 4.
Sent to. As described above, the image information obtained by the image information extracting unit 3 is the learning type non-linear gamma curve selecting unit 4
2 is sent. Learning type non-linear gamma curve selection unit 42
Has learned the relationship between image information in various states and a non-linear gamma curve to be used for gamma correction in advance. For example,
Relationship between image information obtained from totally dark image block and non-linear gamma curve that corrects overall brightness, relationship between image information obtained from totally bright image block and non-linear gamma curve that corrects only dark pixels to bright Have been learned in advance (learn more about learning later). Judging image information based on the result of learning in this way,
Select the non-linear gamma curve (0-7) to be used for correction. The result of the selected gamma curve and the image signal of the correction target area in the image block are sent to the non-linear gamma correction section 41, and the non-linear gamma correction section 41 uses the selected non-linear gamma curve to gamma-correct the correction target area. Then, the corrected image signal is output. In this way, by preliminarily learning in the learning type non-linear gamma selection unit 42, the optimum non-linear gamma curve can be selected from these according to the state of the image. Note that FIG. 9 shows an example of a non-linear gamma curve used for correction, and the gamma curve in the figure can be obtained by (Equation 3).

【0019】[0019]

【数3】 [Equation 3]

【0020】以上のような学習型非線形ガンマ曲線選択
部を含む階調補正手段4で補正された各画像ブロック
は、エッジ抽出手段5に送出される。エッジ抽出手段5
は図11に示すような従来法を用いることが出来る。エ
ッジ抽出手段5でエッジ抽出を行ったあと、各画像ブロ
ックのエッジ画像は画像合成手段6で1枚の画像に合成
され、画像出力手段から出力する。
Each image block corrected by the gradation correcting means 4 including the learning type non-linear gamma curve selecting section as described above is sent to the edge extracting means 5. Edge extraction means 5
Can use a conventional method as shown in FIG. After the edge extraction unit 5 has performed edge extraction, the edge image of each image block is combined into one image by the image combination unit 6 and output from the image output unit.

【0021】以上の本発明の画像処理の具体例を図10
に示す。図10(a)は原画像である。この画像は窓1
01に絞りを合わせて撮像したもので、室内が非常に暗
く、影の領域内の箱102をはっきり認識することがで
きない状態にある。この画像を画像分割手段2で4等分
して各画像ブロックの状態を見ると、画像の右下の画像
ブロックが全体的に暗く、箱102のエッジがはっきり
認識できていないことがわかる。そこで図10(b)に
示すように、この画像ブロックを全体的に明るく補正し
て、影の部分の箱102のエッジを強調する。図10
(c)は画像補正後の各画像ブロック(図10(b))
に対してエッジ抽出処理を行った結果である。先に述べ
たように、右下の画像ブロックをガンマ補正して箱10
2のエッジを強調してあるため、これらにエッジ抽出処
理を施すと、図10(c)に示すように影の部分のエッ
ジを正しく抽出することができる。
A concrete example of the above image processing of the present invention is shown in FIG.
Shown in. FIG. 10A shows an original image. This image is window 1
The image is taken with the aperture set to 01, and the room is very dark, and the box 102 in the shadow area cannot be clearly recognized. When this image is divided into four equal parts by the image dividing means 2 and the state of each image block is examined, it can be seen that the lower right image block of the image is entirely dark and the edge of the box 102 cannot be clearly recognized. Therefore, as shown in FIG. 10B, the image block is corrected to be bright as a whole to emphasize the edge of the box 102 in the shadow portion. Figure 10
(C) is each image block after image correction (FIG. 10 (b))
This is the result of edge extraction processing performed on the. As described above, the gamma correction is performed on the lower right image block and the box 10
Since the edges of No. 2 are emphasized, if the edge extraction processing is applied to these, the edge of the shadow portion can be correctly extracted as shown in FIG.

【0022】このように、エッジ抽出前に階調補正を施
してダイナミックレンジの広い画像にすることにより、
従来法では抽出できないエッジを抽出することができ
る。また、画像を複数のブロックに分割し、各ブロック
に適した階調補正を行うことにより、明るい領域をその
ままに、かつ暗い領域を明るく補正することができ、明
るい領域と暗い領域の両方からエッジを正しく抽出する
ことができる。
In this way, gradation correction is performed before edge extraction to form an image with a wide dynamic range.
Edges that cannot be extracted by the conventional method can be extracted. Also, by dividing the image into multiple blocks and performing gradation correction suitable for each block, it is possible to correct bright areas as they are and bright areas as dark areas. Can be extracted correctly.

【0023】次に、学習型非線形ガンマ曲線選択部42
の動作について、以下の図を用いて説明する。
Next, the learning type non-linear gamma curve selecting section 42.
The operation of will be described with reference to the following figures.

【0024】図5は学習型非線形ガンマ曲線選択部42
のネットワークを構成する単位認識ユニット421の一
実施例を示したものである。図中(a)の信号入力部4
211と量子化器4212と経路選択部4213とで単
位ユニットを構成している。信号入力部4211は、信
号入力端子4211aを介して入力した、認識の対象と
なる特徴デ−タを量子化器4212に入力する。量子化
器4212は、入力された特徴デ−タを量子化し、量子
化した値を経路選択部4213に入力する。4213a
は経路入力端子、4213b1及び4213b2は経路
出力端子で、単位認識ユニットを組み合わせてネットワ
−クを構成するときに、これらの端子を相互に連結する
ものである。経路選択部4213は、量子化器4212
から入力された値に基づいて、経路入力端子4213a
と、経路出力端子4213b1又は4213b2との連
結の仕方を変化させる様に構成してある。構造記憶部4
214には、量子化器の量子化の範囲と、量子化の個数
と、経路選択部の経路入力端子数及び経路出力端子数を
記憶させてある。内部状態記憶部4215には、それま
でに入力された信号の平均、分散、入力総回数を単位認
識ユニットの内部状態として記憶させてある。複製部4
216は、前記内部状態記憶部に記憶させた内部状態が
ある一定値に達したときに、構造記憶部に記憶させた単
位認識ユニットの量子化の範囲を2分割し、前記単位認
識ユニットの複製を作成させるように構成してある。
FIG. 5 shows a learning type non-linear gamma curve selecting section 42.
Is an example of the unit recognition unit 421 that constitutes the network of FIG. Signal input unit 4 in FIG.
The unit 211 is composed of the quantizer 4212, the quantizer 4212, and the route selection unit 4213. The signal input unit 4211 inputs the feature data to be recognized, which is input via the signal input terminal 4211a, to the quantizer 4212. The quantizer 4212 quantizes the input feature data and inputs the quantized value to the route selection unit 4213. 4213a
Is a path input terminal, and 4213b1 and 4213b2 are path output terminals, which are connected to each other when the unit recognition units are combined to form a network. The route selection unit 4213 includes a quantizer 4212.
Based on the value input from the path input terminal 4213a
And the route output terminal 4213b1 or 4213b2. Structure storage unit 4
Reference numeral 214 stores the quantization range of the quantizer, the number of quantizations, the number of route input terminals and the number of route output terminals of the route selection unit. The internal state storage unit 4215 stores the average, variance, and total number of inputs of signals input so far as the internal state of the unit recognition unit. Duplication section 4
216, when the internal state stored in the internal state storage unit reaches a certain value, divides the quantization range of the unit recognition unit stored in the structure storage unit into two, and copies the unit recognition unit. Is configured to be created.

【0025】単位認識ユニットは上記以外にも以下のよ
うに構成することができる。(b)は、(a)の経路選
択部を、1個の経路入力端子4213a1を有する経路
入力部4213aと、2個の経路出力端子4213b1
と4213b2を有する経路出力部4213bと、スイ
ッチ4213cとによって構成した実施例を示すもので
ある。スイッチ4213cは、量子化器4212から入
力された値に基づき、経路入力部4213aの経路入力
端子4213a1と経路出力部4213bの経路出力端
子4213b1又は4213b2との連結の仕方を切り
換えるようにしたもので、(c)は、(a)の経路選択
部4213を、1個の経路入力端子4213a1を有す
る経路入力部4213aと、2個の経路出力端子421
3b1と4213b2を有する経路出力部4213b
と、経路荷重部4213cとによって構成した実施例を
示したものである。荷重4213c1、及び4213c
2は、経路出力部4213bの経路出力端子4213b
1及び4213b2に出力する経路出力信号に加える重
みで、荷重器4213c0は、量子化器4212の出力
する値に応じて、これらの荷重を変化させる。荷重42
13c1及び4213c2は、経路入力部から入力され
た経路信号を重み付けし、経路出力部4213bは、こ
の重み付けした経路信号を経路出力端子4213b1及
び4213b2に出力する。
The unit recognition unit can be configured as follows in addition to the above. (B) shows the route selection unit of (a), which includes a route input unit 4213a having one route input terminal 4213a1 and two route output terminals 4213b1.
4213b2 and a path output unit 4213b and a switch 4213c. The switch 4213c is configured to switch the connection method between the route input terminal 4213a1 of the route input unit 4213a and the route output terminal 4213b1 or 4213b2 of the route output unit 4213b based on the value input from the quantizer 4212. (C) shows the route selection unit 4213 of (a) including a route input unit 4213a having one route input terminal 4213a1 and two route output terminals 421.
Path output unit 4213b having 3b1 and 4213b2
And the path load part 4213c. Loads 4213c1 and 4213c
2 is a route output terminal 4213b of the route output unit 4213b.
1 and 4213b2 are weights to be added to the path output signals to be output to 4213b2, and the weighter 4213c0 changes these weights according to the value output from the quantizer 4212. Load 42
13c1 and 4213c2 weight the route signal input from the route input unit, and the route output unit 4213b outputs the weighted route signal to the route output terminals 4213b1 and 4213b2.

【0026】以上のように構成された単位認識ユニット
の複製作成動作について、以下図5(a)を用いてその
動作を説明する。実際に複製を作成するためには、他の
単位認識ユニットと全く結合がなく、使用していない空
の単位認識ユニットを用意する必要がある。複製の基と
なる単位認識ユニットの信号入力部4211の信号入力
端子4211aからは、例えば1〜10迄の値を取る信号
が入力され、又、量子化器4212の量子化の範囲は1
〜10に設定してある。内部状態記憶部421421は順
次入力されるデ−タ信号の平均、分散、入力回数を、デ
−タ信号が入力される毎に計算し、記憶する。そして、
入力回数と分散の積がある一定値を越えた時に、複製作
成部4216は構造記憶部4214に記憶させてある量
子化器の量子化の範囲と、量子化の個数と、経路選択部
4213の経路入力端子数及び経路出力端子数とを参照
し、この単位認識ユニットの情報を、空の使用していな
い単位認識ユニットにコピ−すると共に、他の単位認識
ユニットとの結合も含めて自分と全く同じ複製を作成す
る。その際に、1〜10迄必要な量子化の範囲を分割し、
例えば、基の単位認識ユニットの量子化器の量子化の範
囲を1〜5に、複製の単位認識ユニットの量子化器の量子
化の範囲を6〜10に設定し、基のユニットと複製のユニ
ットとで、機能を分担するように、複製を作成するわけ
である。
The operation of creating a copy of the unit recognition unit configured as described above will be described below with reference to FIG. In order to actually make a copy, it is necessary to prepare an empty unit recognition unit that is not used and has no connection with other unit recognition units. A signal having a value of 1 to 10, for example, is input from the signal input terminal 4211a of the signal input unit 4211 of the unit recognition unit serving as the duplication source, and the quantizer 4212 has a quantization range of 1
It is set to ~ 10. The internal state storage unit 421421 calculates and stores the average, variance, and the number of inputs of data signals that are sequentially input each time a data signal is input. And
When the product of the number of inputs and the variance exceeds a certain value, the copy creation unit 4216 causes the structure storage unit 4214 to store the quantization range of the quantizer, the number of quantizations, and the route selection unit 4213. By referring to the number of route input terminals and the number of route output terminals, the information of this unit recognition unit is copied to an empty unused unit recognition unit, and the unit recognition unit including the connection with other unit recognition units is copied. Make an exact duplicate. At that time, divide the required quantization range from 1 to 10,
For example, set the quantization range of the quantizer of the base unit recognition unit to 1 to 5 and the quantization range of the quantizer of the duplication unit recognition unit to 6 to 10, A copy is created so that the functions are shared with the unit.

【0027】図6はしきい値処理ユニット422の一実
施例を示したものである。4221経路入力部である。
4222は加算器で、複数の経路入力端子42211〜
42211n(nは任意の自然数)からの入力信号を加
算する。しきい値処理器4223は、加算器4222で
加算した信号に対してしきい値処理を行い、どのように
経路出力端子4224へ出力するかを決定する。
FIG. 6 shows an embodiment of the threshold processing unit 422. 4221 route input unit.
Reference numeral 4222 denotes an adder, which has a plurality of path input terminals
Input signals from 42211n (n is an arbitrary natural number) are added. The threshold processor 4223 performs threshold processing on the signals added by the adder 4222, and determines how to output to the path output terminal 4224.

【0028】図7は学習型非線形ガンマ曲線選択部42
の一実施例を示したものであり、単位認識ユニットを多
層の階層状に相互結合させて、ネットワ−クを構成して
ある。第1層、第2層、第3層を構成してある単位認識
ユニットn11〜n12,n21〜n24,及びn31
〜n38は、例えば、図5(a)に示した単位認識ユニ
ットを用いてあり、既に説明したように、経路選択部4
213を、1個の経路入力端子4213a1を有する経
路入力部4213aと、2個の経路出力端子4213b
1と4213b2を有する経路出力部4213bと、経
路選択部とによって構成してある。又、第4層のユニッ
トn41〜43は、図6に示したしきい値処理ユニット
を用いたもので、しきい値処理ユニットは既に説明した
ように、複数の経路入力端子をもつ経路入力部4221
と、経路入力端子からの入力信号を加算する加算器42
22と、経路信号をしきい値処理するしきい値処理器4
223と、経路出力部4224によって構成したもので
ある。第8図に示す学習型非線形ガンマ選択処理部は、
2個から成る3種類の特徴デ−タ(画像情報抽出手段で
求めた情報)に基づき、8種類のガンマ曲線に分類、認
識させるものである。
FIG. 7 shows a learning type non-linear gamma curve selecting section 42.
FIG. 1 shows an embodiment of the present invention, in which unit recognition units are interconnected in a multi-layered hierarchical form to form a network. The unit recognition units n11 to n12, n21 to n24, and n31 forming the first layer, the second layer, and the third layer.
5 to n38 use, for example, the unit recognition unit shown in FIG. 5A, and as described above, the route selection unit 4 is used.
213 includes a route input unit 4213a having one route input terminal 4213a1 and two route output terminals 4213b.
1 and 4213b2, and a route output unit 4213b and a route selection unit. Further, the units n41 to 43 of the fourth layer use the threshold value processing unit shown in FIG. 6, and the threshold value processing unit has a path input section having a plurality of path input terminals as already described. 4221
And an adder 42 for adding the input signal from the path input terminal
22 and a thresholder 4 for thresholding the path signal
223 and the route output unit 4224. The learning type non-linear gamma selection processing unit shown in FIG.
Based on three types of characteristic data (information obtained by the image information extraction means) consisting of two types, eight types of gamma curves are classified and recognized.

【0029】次に、第7図に示した学習型非線形ガンマ
曲線選択部42の学習動作を説明する。
Next, the learning operation of the learning type non-linear gamma curve selecting section 42 shown in FIG. 7 will be described.

【0030】第1層目の単位認識ユニットn11及びn
12の経路入力端子への経路信号として、先ず1を与え
る。又、これらのユニットの量子化器への信号入力端子
には、認識対象物の第1の一連の特徴デ−タを入力す
る。(この図の場合には、2個の第1特徴デ−タを、そ
れぞれ2個の単位認識ユニットに入力する。)これらの
第1特徴デ−タを、n11及びn12の量子化器が量子
化し、この量子化した値に基づいて、経路p11及びp
12が、第3図に示したスイッチによって選ばれ、第2
層目の単位認識ユニット n22及びn23の経路入力
端子へ、経路信号”1”が送られる。これらのユニット
の量子化器への信号入力端子には、認識対象物の第2の
一連の特徴デ−タを入力する。(この図の場合には、2
個の第2特徴デ−タを、それぞれ2個の単位認識ユニッ
トn22及びn23に入力する。)これらの第2特徴デ
−タを、n22及びn23の量子化器が量子化し、この
量子化した値に基づいて、経路p21及びp22が、図
5(b)に示したスイッチによって選ばれ、第4層目の
単位認識ユニットn34及びn36の経路入力端子へ、
経路信号”1”が送られる。これらのユニットの量子化
器への信号入力端子には、認識対象物が分類したい3項
目のどれに属するかを示す教師入力信号、即ち、n41
〜n48のどれを選ぶかを示す信号を入力する。(この
図の場合には、教師入力信号を2個の単位認識ユニット
n34及びn36に入力する。)この教師入力信号を、
n34及びn36の量子化器が量子化し、この量子化し
た値に基づいて、経路p31及びp32が、図5(b)
に示したスイッチによって選ばれる。
The unit recognition units n11 and n of the first layer
First, 1 is given as the route signal to the 12 route input terminals. The first series of feature data of the recognition object is input to the signal input terminals of the quantizers of these units. (In the case of this figure, the two first feature data are respectively input to two unit recognition units.) These first feature data are quantized by the quantizers n11 and n12. And based on this quantized value, the paths p11 and p
12 is selected by the switch shown in FIG.
The route signal "1" is sent to the route input terminals of the unit recognition units n22 and n23 of the layer. A second series of feature data of the recognition object is input to the signal input terminals of the quantizers of these units. (In the case of this figure, 2
The second feature data are input to the two unit recognition units n22 and n23, respectively. ) These second characteristic data are quantized by the quantizers of n22 and n23, and the paths p21 and p22 are selected by the switch shown in FIG. 5B based on the quantized values. To the path input terminals of the unit recognition units n34 and n36 of the fourth layer,
The route signal "1" is sent. At the signal input terminals to the quantizers of these units, a teacher input signal indicating which of the three items the recognition object belongs to, that is, n41
Input a signal indicating which one of n48 is selected. (In the case of this figure, the teacher input signal is input to the two unit recognition units n34 and n36.)
The quantizers of n34 and n36 quantize, and based on the quantized values, the paths p31 and p32 are calculated as shown in FIG.
It is selected by the switch shown in.

【0031】次に、本発明による学習型認識判断装置の
各単位認識ユニットが複製を作成する際の装置全体とし
ての動作を説明する。
Next, the operation of the entire apparatus when each unit recognition unit of the learning type recognition and judgment apparatus according to the present invention makes a copy will be described.

【0032】第4層までの各層の単位認識ユニットが複
製を作成する際には、各ユニットの下層に連結させた単
位認識ユニットの全てを含めて複製する必要がある。第
8図は、下層に連結させた単位認識ユニットの全てを含
めた複製の様子を示したものである。複製作成検出部S
は、複製動作を起こした全ての単位認識ユニットを検出
し、複製を作成する各ユニットの下層に連結させた単位
認識ユニットの全てを含めて複製する様に指示を出す。
例えば第8図に示すように、ユニット81は、下層に連
結させた単位認識ユニット811、812を含めて複製
するわけで、複製の単位認識ユニット82、及びその下
層の単位認識ユニット821、822が作成されるわけ
である。従って、入力デ−タに対してネットワ−クの学
習を行なうのみではなく、入力信号に応じて適応的にネ
ットワ−クの構造を自動的に変更、構築、及び自己組織
化が可能なわけである。
When the unit recognition units of the layers up to the fourth layer make a copy, it is necessary to copy the unit recognition unit including all the unit recognition units connected to the lower layer of each unit. FIG. 8 shows a state of duplication including all the unit recognition units connected to the lower layer. Duplicate detection unit S
Detects all the unit recognition units that have performed the duplication operation, and gives an instruction to perform duplication including all the unit recognition units connected to the lower layer of each unit that creates the duplication.
For example, as shown in FIG. 8, the unit 81 is duplicated including the unit recognition units 811 and 812 connected to the lower layer, so that the duplicated unit recognition unit 82 and the unit recognition units 821 and 822 of the lower layer are duplicated. It is created. Therefore, not only is network learning performed on the input data, but the network structure can be automatically changed, constructed, and self-organized adaptively according to the input signal. is there.

【0033】次に、認識動作について説明を行なう。Next, the recognition operation will be described.

【0034】認識過程では、内部状態憶部に記憶させた
単位認識ユニットの内部状態は変化せず、従って、複製
作成部も動作しない。
In the recognition process, the internal state of the unit recognition unit stored in the internal state storage unit does not change, and therefore, the copy creation unit does not operate.

【0035】第1層から第2層までの単位認識ユニット
n11,n12及びn22,n23は、学習の動作と全
く同様に、入力した特徴デ−タを量子化器が量子化し、
これに基づいてスイッチを切り換え、経路p11,p1
2及びp21,p22を順次選択する。認識動作の場
合、第3層の単位認識ユニットn34及びn36の信号
入力端子には、教師入力信号は入力されない。従って、
学習時のスイッチの状態が保持されており、これらのス
イッチの状態に応じて経路p31及びp32が選択さ
れ、第4層目の単位認識ユニットn42の経路入力端子
へ、経路信号”1”が送られる。このユニットの経路入
力部の加算器は、p31及びp32の経路を通して入力
された経路信号を加算する。信号入力部の信号入力端子
には、信号”1”が入力され、量子化器がこれを量子化
し、経路選択器は、経路出力を可能な状態にし、(信
号”0”が入力された場合には、経路出力をしない状態
に経路選択器が切り換える。)加算した経路入力信号を
経路出力器に送る。経路出力器は、この信号をしきい値
処理し、経路出力端子に出力する。従って、加算した信
号の値があるしきい値より大きければ、出力がなされる
わけであり、このようにして、入力した認識対象物特徴
デ−タに基づき、認識対象物の分類、認識判断を行なう
ことが出来るわけである。又、しきい値処理をする関数
としては、シグモイド関数、ステップ関数等を用いるこ
とが出来る。以上説明したように、学習型非線形ガンマ
曲線選択部の複製作成過程は、入力デ−タに応じて、各
単位認識ユニットの内部状態が変化し、複製作成部が動
作して、各単位認識ユニットの複製を作成するため、入
力信号に応じて適応的にネットワ−クの構造を自動的に
変更、構築、及び自己組織化が可能であり、学習してい
ない新規なデ−タ入力に対する汎化性にも優れている。
又、学習過程は、多層の階層ネットワ−クを構成する各
単位認識ユニットの信号入力部に、対象物の各種特徴デ
−タを入力し、量子化器の出力に応じて、単位認識ユニ
ット同士の結合経路を切り換え、最下層の前層に於いて
は、教師信号入力によって最下層までの選択経路を決定
するだけでよく、従って、非常に高速に学習処理が行え
る。さらに、認識過程は、多層の階層ネットワ−クを構
成する各単位認識ユニットの信号入力部に、対象物の各
種特徴デ−タを入力し、量子化器の出力に応じて、単位
認識ユニット同士の結合経路を切り換え、又、最下層の
前層に於ては、学習過程で設定された結合経路に基づい
て、最下層までの選択経路を決定するだけで認識結果が
得られ、従って、学習結果に基づいて、非常に高速に認
識処理が行える。
In the unit recognition units n11, n12 and n22, n23 from the first layer to the second layer, the quantizer quantizes the input feature data in exactly the same way as the learning operation.
Based on this, the switches are changed to the paths p11 and p1.
2 and p21 and p22 are sequentially selected. In the recognition operation, the teacher input signal is not input to the signal input terminals of the unit recognition units n34 and n36 of the third layer. Therefore,
The states of the switches at the time of learning are held, the routes p31 and p32 are selected according to the states of these switches, and the route signal "1" is sent to the route input terminal of the unit recognition unit n42 of the fourth layer. To be The adder in the path input section of this unit adds the path signals input through the paths p31 and p32. The signal "1" is input to the signal input terminal of the signal input unit, the quantizer quantizes it, and the route selector enables the route output. (When the signal "0" is input , The path selector switches to a state in which the path is not output.) The added path input signal is sent to the path output device. The path output device thresholds this signal and outputs it to the path output terminal. Therefore, if the value of the added signal is larger than a certain threshold value, an output is made. In this way, the classification and recognition judgment of the recognition target object are performed based on the input recognition target object feature data. It can be done. A sigmoid function, a step function, or the like can be used as the function for performing the threshold processing. As described above, in the copy creation process of the learning type non-linear gamma curve selection unit, the internal state of each unit recognition unit changes according to the input data, and the copy creation unit operates and each unit recognition unit operates. , It is possible to automatically change, construct, and self-organize the network structure adaptively according to the input signal, and generalize to new unlearned data input. It is also excellent in sex.
Also, in the learning process, various feature data of the object are input to the signal input section of each unit recognition unit constituting the multilayer hierarchical network, and the unit recognition units are connected to each other according to the output of the quantizer. It suffices to switch the coupling paths of the above and determine the selection path to the lowermost layer by inputting the teacher signal in the frontmost layer of the lowermost layer. Therefore, the learning process can be performed very quickly. Further, in the recognition process, various feature data of the object are input to the signal input section of each unit recognition unit constituting the multilayer hierarchical network, and the unit recognition units are connected to each other according to the output of the quantizer. The recognition result can be obtained only by switching the connection paths of the lowermost layer and by determining the selection path to the lowermost layer based on the connection path set in the learning process in the lowermost layer. Based on the result, the recognition process can be performed very fast.

【0036】以上説明したように、本発明の画像処理装
置は、従来のエッジ抽出処理の前処理として、非線形ガ
ンマ補正処理を行うことを特徴としており、これにより
画像のダイナミックレンジを向上させて、影の領域内の
物体のエッジなど従来の処理では摘出できないようなエ
ッジを抽出することが可能である。また、画像一枚に対
して一定のガンマ補正を行うのでなく、画像領域を複数
のブロックに分割し、そのブロックに適した非線形ガン
マ曲線を選択して補正することにより、細部の状況に適
した補正処理ができ、これらの補正画像から、より正確
なエッジ画像を得ることができる。さらに、上記の学習
型非線形ガンマ曲線選択部を用いることにより、高速な
学習,認識が可能であり、ユーザが画像情報と非線形ガ
ンマ曲線との関係を試行錯誤により決定する必要がな
い。
As described above, the image processing apparatus of the present invention is characterized by performing the non-linear gamma correction process as a pre-process of the conventional edge extraction process, thereby improving the dynamic range of the image. It is possible to extract edges that cannot be extracted by conventional processing, such as edges of objects in shadow areas. Also, instead of performing a fixed gamma correction on one image, the image area is divided into a plurality of blocks, and a non-linear gamma curve suitable for that block is selected and corrected to suit the detailed situation. Correction processing can be performed, and a more accurate edge image can be obtained from these corrected images. Furthermore, by using the learning type non-linear gamma curve selection unit, high-speed learning and recognition are possible, and the user does not need to determine the relationship between the image information and the non-linear gamma curve by trial and error.

【0037】なお、本発明の各手段は、コンピュータを
用いてソフトウェア的に実現し、あるいはそれら各機能
を有する専用のハード回路を用いて実現する事が出来
る。
Each means of the present invention can be realized by software using a computer, or can be realized by using a dedicated hardware circuit having these functions.

【0038】[0038]

【発明の効果】以上の説明から明らかなように本発明の
画像処理装置は、1枚の画像信号を複数の画像ブロック
に分割する画像分割手段と、画像ブロック内の画像信号
から1種もしくは複数種の画像情報を抽出する画像情報
抽出手段と、画像情報に基づいてその画像ブロックに最
適な階調補正を施す階調補正手段と、階調補正後の画像
信号に対してエッジ抽出を行うエッジ抽出手段と、エッ
ジ抽出後の画像信号を1枚の画像に再合成する画像合成
手段とを設けたことにより、細部にわたって画像のダイ
ナミックレンジを向上させて、影の領域内の物体のエッ
ジなど従来の処理では抽出できないようなエッジを抽出
することが可能である。
As is apparent from the above description, the image processing apparatus of the present invention includes an image dividing means for dividing one image signal into a plurality of image blocks, and one or a plurality of image signals in the image block. Image information extraction means for extracting seed image information, gradation correction means for performing optimum gradation correction on the image block based on the image information, and edge for edge extraction for the image signal after gradation correction By providing the extracting means and the image synthesizing means for re-synthesizing the image signal after the edge extraction into one image, the dynamic range of the image is improved in detail, and the edge of the object in the shadow area is conventionally used. It is possible to extract edges that cannot be extracted by the processing of.

【0039】また、画像情報と階調補正に用いるべき非
線形ガンマ曲線との関係を予め学習によって形成し、こ
れにより各画像情報を判断することにより、ユーザが画
像情報と非線形ガンマ曲線との関係を試行錯誤により決
定する必要がなく、非常に簡単に処理が行える。
Further, the relationship between the image information and the non-linear gamma curve is formed by learning in advance, and the user judges the relationship between the image information and the non-linear gamma curve by learning. There is no need to make a decision by trial and error, and the processing is very easy.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明による画像処理装置の一実施例を示す図FIG. 1 is a diagram showing an embodiment of an image processing apparatus according to the present invention.

【図2】図1の画像分割手段による画像分割方法の例を
示す図 (a)情報を抽出するための画像ブロックと階調補正を
施すための画像ブロックとが一致している例 (b)情報を抽出するための画像ブロックと階調補正を
施すための画像ブロックとが異なる例
FIG. 2 is a diagram showing an example of an image dividing method by the image dividing means of FIG. 1 (a) An example in which an image block for extracting information and an image block for performing gradation correction are the same (b) Example in which the image block for extracting information and the image block for performing gradation correction are different

【図3】(a)図1の画像分割手段の1実施例を示す図
(図2(b)の場合) (b)同図(a)の重心設定部の一実施例を示す図
3A is a diagram showing an embodiment of the image dividing means of FIG. 1 (in the case of FIG. 2B). FIG. 3B is a diagram showing an embodiment of the center of gravity setting unit of FIG. 3A.

【図4】図1の画像情報抽出手段の一実施例を示す図FIG. 4 is a diagram showing an embodiment of the image information extraction means of FIG.

【図5】(a)図1の学習型非線形ガンマ選択部のネッ
トワークを構成する単位認識ユニットの一実施例を示す
図 (b)同図(a)の経路選択部を経路入力部、経路出力
部、スイッチで構成した例を示す図 (c)同図(a)の経路選択部を経路入力部、経路出力
部、経路荷重部で構成した例を示す図
5 (a) is a diagram showing an embodiment of a unit recognition unit forming the network of the learning type non-linear gamma selection unit of FIG. 1 (b) is a route input unit and a route output unit of the route selection unit of FIG. (C) A diagram showing an example in which the route selection unit in FIG. 10A is configured by a route input unit, a route output unit, and a route load unit.

【図6】図1の学習型非線形ガンマ選択部のネットワー
クを構成するしきい値処理ユニットの一実施例を示す図
FIG. 6 is a diagram showing an embodiment of a threshold processing unit constituting the network of the learning type non-linear gamma selection unit of FIG.

【図7】図1の学習型非線形ガンマ選択部の一実施例を
示す図
7 is a diagram showing an embodiment of the learning type non-linear gamma selection unit of FIG.

【図8】図1の学習型非線形ガンマ選択部の、学習時に
おけるネットワークの複製動作を示す図
8 is a diagram showing the network replication operation of the learning-type non-linear gamma selection unit in FIG. 1 during learning.

【図9】図1の階調補正手段で用いる非線形ガンマ曲線
の例を示す図
FIG. 9 is a diagram showing an example of a non-linear gamma curve used in the gradation correction unit of FIG.

【図10】本発明の画像処理の具体例を示す図FIG. 10 is a diagram showing a specific example of image processing according to the present invention.

【図11】従来のエッジ抽出装置の一般的構成図FIG. 11 is a general configuration diagram of a conventional edge extraction device.

【図12】(a)プレヴィットのオペレータを示す図 (b)ソーベルのオペレータを示す図FIG. 12 (a) is a diagram showing a Prewitt operator. (B) is a diagram showing a Sobel operator.

【図13】従来のエッジ抽出処理の具体例を示す図FIG. 13 is a diagram showing a specific example of conventional edge extraction processing.

【符号の説明】[Explanation of symbols]

1 画像入力手段 2 画像分割手段 21 画像ブロック抽出部 22 重心設定部 221a〜221c 経路選択器 222a〜222b 加算器 223a〜223b 代入器 3 画像情報抽出手段 31 輝度算出部 32 輝度レベル値記憶部 33 輝度レベル比較器 34 AND回路 35 カウンタ 4 階調補正手段 41 非線形ガンマ補正部 42 学習型非線形ガンマ曲線選択部 421 単位認識ユニット 4211 信号入力部 4211a 信号入力端子 4212 量子化器 4213 経路選択部 4213a 経路入力部 4213a1 経路入力端子 4213b 経路出力部 4213b1〜4213b2 経路出力端子 4213c スイッチ 4213d 経路荷重部 4213d0 荷重器 4213d1〜4213d2 荷重 4214 構造記憶部 4215 内部状態記憶部 4216 複製作成部 422 しきい値処理ユニット 4221 経路入力部 42211〜4221n 経路入力端子 4222 加算器 4223 しきい値処理器 4224 経路出力部 5 エッジ抽出手段 6 画像合成手段 7 画像出力手段 81 基ユニット 82 複製 101 窓 102 箱 111 画像入力手段 112 エッジ抽出手段 112a 微分部 112b しきい値処理部 112c 細線化処理部 113 画像出力手段 131 窓 132 箱 1 image input means 2 image division means 21 image block extraction section 22 center of gravity setting section 221a to 221c route selectors 222a to 222b adders 223a to 223b substituter 3 image information extraction means 31 brightness calculation section 32 brightness level value storage section 33 brightness Level comparator 34 AND circuit 35 Counter 4 Gradation correction means 41 Non-linear gamma correction section 42 Learning type non-linear gamma curve selection section 421 Unit recognition unit 4211 Signal input section 4211a Signal input terminal 4212 Quantizer 4213 Path selection section 4213a Path input section 4213a1 Path input terminal 4213b Path output section 4213b1 to 4213b2 Path output terminal 4213c Switch 4213d Path load section 4213d0 Loader 4213d1 to 4213d2 Load 4214 Structure storage section 4215 Internal state storage section 4216 Duplicate creation section 422 Threshold processing unit 4221 Path input section 42211 to 4221n Path input terminal 4222 Adder 4223 Threshold value processor 4224 Path output section 5 Edge extraction means 6 Image combining means 7 Image output means 81 units Tsu DOO 82 replicate 101 window 102 Box 111 image input unit 112 the edge extracting unit 112a differentiating section 112b thresholding unit 112c thinning processing unit 113 an image output unit 131 a window 132 boxes

フロントページの続き (72)発明者 丸野 進 大阪府門真市大字門真1006番地 松下電器 産業株式会社内Front page continued (72) Inventor Susumu Maruno 1006 Kadoma, Kadoma City, Osaka Prefecture Matsushita Electric Industrial Co., Ltd.

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】画像を入力する画像入力手段と、前記画像
入力手段から入力した前記画像を複数の画像ブロックに
分割する画像分割手段と、前記画像分割手段から送出さ
れた前記各画像ブロックの画像信号から少なくとも1種
類の画像情報を抽出する画像情報抽出手段と、前記画像
情報に基づいて前記画像ブロックの画像信号に対して階
調補正を行う階調補正手段と、前記階調補正手段で補正
した前記各画像ブロックからエッジを抽出するエッジ抽
出手段と、前記エッジ抽出手段により抽出したエッジ画
像を1枚の画像に再合成する画像合成手段と、前記画像
合成手段で合成した画像を出力する画像出力手段とを備
えたことを特徴とする画像処理装置。
1. An image input unit for inputting an image, an image dividing unit for dividing the image input from the image input unit into a plurality of image blocks, and an image for each image block sent from the image dividing unit. Image information extraction means for extracting at least one type of image information from the signal, gradation correction means for performing gradation correction on the image signal of the image block based on the image information, and correction by the gradation correction means An edge extracting means for extracting an edge from each of the image blocks, an image synthesizing means for re-synthesizing the edge image extracted by the edge extracting means into one image, and an image for outputting the image synthesized by the image synthesizing means. An image processing apparatus comprising: an output unit.
【請求項2】画像分割手段は、画像中のある座標(x,
y)を重心としてm×n画素の領域とk×l画素の領域
(但し、k≦m,l≦n)とを画像ブロックとして抽出
し、前記m×n画素の画像ブロックを前記画像情報抽出
手段に送出し、前記k×l画素の画像ブロックを前記階
調補正手段に送出する画像ブロック抽出部と、次に抽出
する前記画像ブロックの重心を算出する重心設定部とを
具備し、前記重心設定部の出力を前記画像ブロック抽出
部に入力して画像ブロック抽出処理を繰り返し行うもの
であることを特徴とする請求項1記載の画像処理装置。
2. The image dividing means is a coordinate (x,
y) is the center of gravity, and an area of m × n pixels and an area of k × l pixels (where k ≦ m, l ≦ n) are extracted as image blocks, and the image block of m × n pixels is extracted as the image information. Means for sending the image block of k × l pixels to the gradation correcting means, and a center of gravity setting unit for calculating the center of gravity of the image block to be extracted next. The image processing apparatus according to claim 1, wherein the output of the setting unit is input to the image block extracting unit to repeatedly perform the image block extracting process.
【請求項3】階調補正部は、前記画像情報抽出部から送
出される画像情報と階調補正に用いるべき非線形ガンマ
曲線との関係を学習によって形成し、前記画像情報を前
記学習に基づいて判断し、前記階調補正に用いるべき前
記非線形ガンマ曲線を選択する学習型非線形ガンマ選択
部と、前記学習型非線形ガンマ選択部により選択した非
線形ガンマ曲線を用いて前記画像信号を補正する非線形
ガンマ補正部とを備えたことを特徴とする請求項2記載
の画像処理装置。
3. The gradation correction unit forms a relationship between the image information sent from the image information extraction unit and a non-linear gamma curve to be used for gradation correction by learning, and the image information is based on the learning. A learning-type non-linear gamma selecting unit that determines the non-linear gamma curve to be used for the gradation correction and a non-linear gamma correction that corrects the image signal using the non-linear gamma curve selected by the learning-type non-linear gamma selecting unit. The image processing apparatus according to claim 2, further comprising:
【請求項4】単位認識ユニットを多層の階層状に組合せ
てネットワークを構成し、少なくとも複数の経路入力端
子と前記入力端子からの入力信号を加算する加算器と前
記加算器の出力信号をしきい値処理するしきい値処理器
と前記しきい値処理器の出力を出力する経路出力端子に
よって構成したしきい値処理ユニットを最下層に配置
し、前記ネットワークの前記最下層の前層に位置する前
記単位認識ユニットの信号入力部に教師信号を入力する
教師信号入力端子を設けて学習型非線形ガンマ選択部を
構成し、信号入力部と前記信号入力部からの入力信号に
応じて量子化を行う量化器と単一または複数の経路入力
端子と単一または複数の経路出力端子と前記量子化器の
出力に応じて経路の選択を行う経路選択部とによって構
成した単位ユニットと、前記量子化器の量子化の範囲及
び量子化の個数を量子化定数として記憶させる構造記憶
手段と、前記単位ユニットへの入力信号の平均,分散,
入力回数を内部状態として記憶させる内部状態記憶手段
と、前記記憶させた内部状態に基づいて前記量子化の範
囲を2分割して分割前の単位ユニットをそれぞれ作成す
る複製手段とによって前記単位認識ユニットを構成した
ことを特徴とする請求項3記載の画像処理装置。
4. A network is formed by combining unit recognition units in a multi-layered structure, and an adder for adding input signals from at least a plurality of path input terminals and the input terminals and an output signal of the adder are thresholded. A thresholding unit constituted by a thresholding unit for value processing and a path output terminal for outputting the output of the thresholding unit is arranged at the lowermost layer and is located at the front layer of the lowermost layer of the network. A learning type non-linear gamma selection unit is configured by providing a teacher signal input terminal for inputting a teacher signal to the signal input unit of the unit recognition unit, and quantization is performed according to the input signals from the signal input unit and the signal input unit. A unit unit composed of a quantizer, a single or a plurality of path input terminals, a single or a plurality of path output terminals, and a path selection unit for selecting a path according to the output of the quantizer. , The average of the structure storage means for storing the number of ranges and quantization of the quantization of the quantizer as the quantization constant input signal to the unit unit, dispersing,
The unit recognition unit includes an internal state storage unit that stores the number of inputs as an internal state, and a duplication unit that divides the quantization range into two based on the stored internal state and creates unit units before division. The image processing apparatus according to claim 3, wherein the image processing apparatus comprises:
【請求項5】画像情報抽出手段は、各画像ブロックの画
像信号の輝度信号を抽出する輝度抽出部と、前記輝度抽
出部により抽出した前記輝度信号を一定範囲のレベル値
と比較して1または0を出力する複数の輝度レベル比較
器と、前記輝度レベル比較器の出力をカウントする複数
のカウンターとによって構成されていることを特徴とす
る請求項1記載の画像処理装置。
5. The image information extraction means compares the luminance signal extracted by the luminance signal of the image signal of each image block with the luminance signal extracted by the luminance extraction section with a level value within a predetermined range to obtain 1 or The image processing apparatus according to claim 1, comprising a plurality of brightness level comparators that output 0, and a plurality of counters that count the outputs of the brightness level comparators.
JP6008467A 1994-01-28 1994-01-28 Picture processor Pending JPH07220066A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6008467A JPH07220066A (en) 1994-01-28 1994-01-28 Picture processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6008467A JPH07220066A (en) 1994-01-28 1994-01-28 Picture processor

Publications (1)

Publication Number Publication Date
JPH07220066A true JPH07220066A (en) 1995-08-18

Family

ID=11693938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6008467A Pending JPH07220066A (en) 1994-01-28 1994-01-28 Picture processor

Country Status (1)

Country Link
JP (1) JPH07220066A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000508460A (en) * 1997-01-08 2000-07-04 ハイデルベルガー ドルツクマシーネン アクチエンゲゼルシヤフト How to determine the geometric data of an attention-related image section
JP2000508461A (en) * 1997-01-08 2000-07-04 ハイデルベルガー ドルツクマシーネン アクチエンゲゼルシヤフト How to determine the geometric data of the original scan
WO2005106789A1 (en) * 2004-04-30 2005-11-10 Mitsubishi Denki Kabushiki Kaisha Gradation correcting apparatus, mobile terminal device, image pickup apparatus, mobile telephone, gradation correcting method, and program
US7783126B2 (en) 2003-09-11 2010-08-24 Panasonic Corporation Visual processing device, visual processing method, visual processing program, and semiconductor device
US7860339B2 (en) 2003-09-11 2010-12-28 Panasonic Corporation Visual processing device, visual processing method, visual processing program, intergrated circuit, display device, image-capturing device, and portable information terminal
JP2013258526A (en) * 2012-06-12 2013-12-26 Dainippon Printing Co Ltd Image processing device, image processing method, program for image processing, and recording medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000508460A (en) * 1997-01-08 2000-07-04 ハイデルベルガー ドルツクマシーネン アクチエンゲゼルシヤフト How to determine the geometric data of an attention-related image section
JP2000508461A (en) * 1997-01-08 2000-07-04 ハイデルベルガー ドルツクマシーネン アクチエンゲゼルシヤフト How to determine the geometric data of the original scan
US7783126B2 (en) 2003-09-11 2010-08-24 Panasonic Corporation Visual processing device, visual processing method, visual processing program, and semiconductor device
US7860339B2 (en) 2003-09-11 2010-12-28 Panasonic Corporation Visual processing device, visual processing method, visual processing program, intergrated circuit, display device, image-capturing device, and portable information terminal
US7945115B2 (en) 2003-09-11 2011-05-17 Panasonic Corporation Visual processing device, visual processing method, visual processing program, and semiconductor device
US8165417B2 (en) 2003-09-11 2012-04-24 Panasonic Corporation Visual processing device, visual processing method, visual processing program, integrated circuit, display device, image-capturing device, and portable information terminal
WO2005106789A1 (en) * 2004-04-30 2005-11-10 Mitsubishi Denki Kabushiki Kaisha Gradation correcting apparatus, mobile terminal device, image pickup apparatus, mobile telephone, gradation correcting method, and program
US8107123B2 (en) 2004-04-30 2012-01-31 Mitsubishi Electric Corporation Tone correction apparatus, mobile terminal, image capturing apparatus, mobile phone, tone correction method and program for improve local contrast in bright and dark regions
JP2013258526A (en) * 2012-06-12 2013-12-26 Dainippon Printing Co Ltd Image processing device, image processing method, program for image processing, and recording medium

Similar Documents

Publication Publication Date Title
US5754709A (en) Method and apparatus for gradation correction and image edge extraction
US6983068B2 (en) Picture/graphics classification system and method
JP4176154B2 (en) Method and apparatus for segmenting an image into segments prior to encoding
JP2894113B2 (en) Image clustering device
EP0720390B1 (en) Non-linear color corrector and method thereof
US6947597B2 (en) Soft picture/graphics classification system and method
EP0449516A2 (en) Image processing using neural network
JPH05225332A (en) Method and apparatus for variable-space wave filtering
CN111047543A (en) Image enhancement method, device and storage medium
US8331695B1 (en) Integrated circuit having a circuit for and method of updating parameters associated with a background estimation portion of a video frame
EP0501450A2 (en) Apparatus for distinguishing between different areas of an image
JPH07220066A (en) Picture processor
CN112819017B (en) High-precision color cast image identification method based on histogram
CN113158963B (en) Method and device for detecting high-altitude parabolic objects
US5295202A (en) Method and apparatus for replicating a two-color original image with foreground and background colors exchanged
JP3849817B2 (en) Image processing apparatus and image processing method
JPH06113139A (en) Picture binarization device
CN113191376A (en) Image processing method, image processing device, electronic equipment and readable storage medium
JPH07320054A (en) Image processor
JPH08251404A (en) Method and device for discriminating attribute of image area
JP3145145B2 (en) Image processing device
Liu Three problems in imaging systems: texture re-rendering in online decoration design, a novel monochrome halftoning algorithm, and face set recognition with convolutional neural networks
JPH06319108A (en) Scene change detector
JPS62100884A (en) Picture processor
JPH08251405A (en) Device for discriminating attribute of image area