JPH09330418A - Binarizing converter - Google Patents

Binarizing converter

Info

Publication number
JPH09330418A
JPH09330418A JP8171889A JP17188996A JPH09330418A JP H09330418 A JPH09330418 A JP H09330418A JP 8171889 A JP8171889 A JP 8171889A JP 17188996 A JP17188996 A JP 17188996A JP H09330418 A JPH09330418 A JP H09330418A
Authority
JP
Japan
Prior art keywords
data
information
binarized
luminance
edge data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8171889A
Other languages
Japanese (ja)
Inventor
Tadashi Kondo
正 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP8171889A priority Critical patent/JPH09330418A/en
Publication of JPH09330418A publication Critical patent/JPH09330418A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce the omission of information caused by binarizing conversion by composing third edge data with respect to one value of binarizing information adjacent to third edge data on temporarily binarized picture information by the other value. SOLUTION: Processing objective picture data for one picture is fetched into a video RAM 408 to execute luminance data conversion. Then a CPU 401 inspects the luminance distribution for one picture from this luminance data to detect maximum luminance level data being a luminance level showing the distribution of the maximum luminance distribution. The detected luminance information is converted to one value of binarized information and the other detected luminance information is converted to obtain temporarily binarized picture information. With respect to one value of the binarized information adjacent to third edge data not including binarized information on the temporarily binarized picture information, third edge data are composed by the other value on the tenprarily binarized picture information. Thereby the omission of information caused by binarizing conversion is reduced.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【0001】[0001]

【0002】[0002]

【発明の属する技術分野】本発明は、濃度情報を持つ多
色画像から2値化変換を行う2値化変換装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a binarization conversion device which performs binarization conversion from a multicolor image having density information.

【0003】[0003]

【0002】[0002]

【0004】[0004]

【従来の技術】白黒表示部で画像を表示する場合、元の
カラー画像の輝度レベルに応じて白黒のデータの密度を
変え、濃淡により画像を表示する階調表示がある。
2. Description of the Related Art When an image is displayed on a black and white display unit, there is a gradation display in which the density of black and white data is changed according to the brightness level of an original color image and the image is displayed by shading.

【0005】[0005]

【0003】従来より、カラー静止画像を対象とした種
々の画像処理方式が提案されているが、カラー画像デー
タあるいは白黒の多階調データの情報を元に、白黒のプ
リント、モノクロームディスプレイ上の画像を得る場合
に、2値化処理を含む種々の方法で変換処理される。
Conventionally, various image processing methods for color still images have been proposed. However, based on the information of color image data or black-and-white multi-gradation data, black-and-white prints and images on a monochrome display. Is obtained, conversion processing is performed by various methods including binarization processing.

【0006】[0006]

【0004】そこで一般には、ある特定の閾値を設定
し、そのレベルを基準に2値化処理を行い、輪郭(エッ
ジ)抽出等を行っていた。
Therefore, in general, a certain threshold value is set, the binarization process is performed with the level as a reference, and the contour (edge) is extracted.

【0007】従来ファクシミリ等の装置で文書画像等を
伝送する場合には文書画像等を複数の画素に分割してさ
らに各画素の濃度レベルを光学的手段により各濃度に対
応したアナログ信号に変換し、さらにこの電気信号を閾
値を用いて2値のデジタル信号に変換することにより画
像情報を処理している。
Conventionally, when a document image or the like is transmitted by a device such as a facsimile, the document image or the like is divided into a plurality of pixels, and the density level of each pixel is converted by an optical means into an analog signal corresponding to each density. Further, the image information is processed by converting the electric signal into a binary digital signal using a threshold value.

【0008】[0008]

【0005】図7は従来における画像読取り装置の2値
化処理を示すブロック図である。
FIG. 7 is a block diagram showing a binarization process of a conventional image reading apparatus.

【0009】同図において文字や図形の画像データは、
図示しないビデオ出力装置、例えばビデオテープレコー
ダやパソコン等から、画像データとして入力信号501
となりメモリ502に入力される。メモリ502では例
えば8ビットの2進数を用いて量子化した値として保存
される。ここで2値化の対象となっている画素の周囲画
素濃度レベルの情報は平均算出部503に送られ、その
平均値が算出される。
In the figure, image data of characters and figures are
An input signal 501 as image data from a video output device (not shown) such as a video tape recorder or a personal computer.
Next, it is input to the memory 502. In the memory 502, it is stored as a quantized value using, for example, an 8-bit binary number. Here, the information of the peripheral pixel density level of the pixel to be binarized is sent to the average calculation unit 503, and the average value thereof is calculated.

【0010】[0010]

【0006】また閾値決定部504では平均算出部50
3で算出された平均値信号に対応して2値化の際に用い
られる閾値を比較器506へ出力する。ここで閾値決定
部504では平均算出部503で算出された平均値信号
と予め定められた範囲の画素濃度レベルに基づいて設定
された境界値信号505を比較して算出された平均値が
境界値よりも大なる時は予め基準化した閾値より下方に
設定された下方補正閾値を、また算出された平均値が境
界値よりも小なる時は予め基準化した閾値より上方に設
定された上方補正閾値が用いられる。また比較器506
ではメモリ502に保存された量子化値と、入力された
閾値とを比較して2値化信号に変換して出力する。この
ように閾値決定部504では比較器506に供給する閾
値を周囲画素濃度レベルに応じて適宜補正することによ
ってより適性な2値化出力を得ている。
In the threshold value determining unit 504, the average calculating unit 50
The threshold value used for binarization corresponding to the average value signal calculated in 3 is output to the comparator 506. Here, in the threshold value determining unit 504, the average value calculated by comparing the average value signal calculated by the average calculating unit 503 with the boundary value signal 505 set based on the pixel density level in a predetermined range is the boundary value. When the calculated average value is smaller than the boundary value, the upper correction value is set below the pre-standardized threshold value. A threshold is used. In addition, the comparator 506
Then, the quantized value stored in the memory 502 is compared with the input threshold value, converted into a binarized signal, and output. In this way, the threshold value determining unit 504 obtains a more appropriate binarized output by appropriately correcting the threshold value supplied to the comparator 506 according to the surrounding pixel density level.

【0011】[0011]

【0007】[0007]

【0012】[0012]

【発明が解決しようとする課題】従来の方法では、輝度
レベルが互いに接近する隣接したデータが存在すると、
カラー画像データ又は多階調データにおいては、色又は
階調により判別可能であったが、白黒表示の単階調の場
合には明確に読み取れないという問題が発生する。
In the conventional method, when there are adjacent data whose brightness levels are close to each other,
In color image data or multi-gradation data, it was possible to distinguish by color or gradation, but in the case of a single gradation of black and white display, there is a problem that it cannot be clearly read.

【0013】また、そのような輝度レベル上において、
隣接データを分離できる箇所に別の閾値を設け、閾値を
挟んだデータを反転変換する方法も考えられるが、閾値
以下、閾値以上の領域のデータが分離できなくなる場合
があった。そこで本発明は、2値化変換による情報の欠
落を少なくする2値化変換装置を提供することを目的と
するものである。
Further, on such a brightness level,
A method may be considered in which another threshold value is provided at a position where adjacent data can be separated and the data sandwiching the threshold value is inverted and converted. Therefore, an object of the present invention is to provide a binarization conversion device that reduces information loss due to the binarization conversion.

【0014】[0014]

【0008】[0008]

【0015】[0015]

【課題を解決するための手段】請求項1に記載の2値化
変換装置は、少なくとも輝度情報を有する輝度画像情報
を2値化画像情報に変換する2値化変換装置であって、
輝度画像情報の輝度分布を検出する輝度分布検出手段
と、輝度分布の最も多い分布を示す輝度レベルである最
多輝度レベルデータを検出する最多輝度レベル情報検出
手段と、最多輝度レベル情報を2値化情報の一方の値
に、その他の輝度を有する輝度情報を2値化情報の他方
の値に変換し、仮2値化画像情報を得る変換手段と、輝
度画像情報の輝度におけるエッジデータである第1エッ
ジデータを生成する第1エッジデータ生成手段と、仮2
値化画像情報の2値化情報におけるエッジデータである
第2エッジデータを生成する第2エッジデータ生成手段
と、第1エッジデータに存在し、第2エッジデータに存
在しないエッジデータである第3エッジデータを生成す
る第3エッジデータ生成手段と、仮2値化画像情報上に
おける第3エッジデータに隣接する2値化情報の一方の
値に対し、他方の値で第3エッジデータを仮2値化画像
情報上に合成する合成手段とを有することを特徴とす
る。
A binarization conversion device according to claim 1 is a binarization conversion device for converting luminance image information having at least luminance information into binary image information.
The brightness distribution detecting means for detecting the brightness distribution of the brightness image information, the maximum brightness level information detecting means for detecting the most brightness level data which is the brightness level showing the distribution with the most brightness distribution, and the most brightness level information are binarized. A conversion unit for converting the brightness information having the other brightness into one value of the information into the other value of the binarized information to obtain the temporary binarized image information; and edge data in the brightness of the brightness image information. First edge data generating means for generating one edge data;
Second edge data generating means for generating second edge data which is edge data in the binarized information of the binarized image information, and third edge data which is present in the first edge data and is not present in the second edge data. The third edge data generating means for generating the edge data and one value of the binarized information adjacent to the third edge data on the temporary binarized image information are used to temporarily store the third edge data in the other value. And a synthesizing means for synthesizing the binarized image information.

【0016】請求項2に記載の2値化変換装置は、請求
項1に記載の2値化変換装置であって、第3エッジデー
タ生成手段は第1エッジデータと第2エッジデータとの
排他的論理和をとることにより第3エッジデータを生成
し、合成手段は仮2値化画像情報と第3エッジデータと
の排他的論理和をとることにより合成することを特徴と
する。
A binary conversion device according to a second aspect of the present invention is the binary conversion device according to the first aspect, wherein the third edge data generating means excludes the first edge data and the second edge data. The third edge data is generated by taking a logical OR, and the synthesizing means synthesizes the temporary binary image information and the third edge data by taking an exclusive OR.

【0017】[0017]

【0009】[0009]

【0018】[0018]

【作用】本発明による2値化変換装置では、最多輝度レ
ベル情報を2値化情報の一方の値に、その他の輝度を有
する輝度情報を2値化情報の他方の値に変換し、仮2値
化画像情報を得るようにし、複数の2値化処理により情
報の欠落を防ぎ、大きな面積を有する2値化画像に反転
して加算表示できるようになる。
In the binarization conversion device according to the present invention, the maximum luminance level information is converted into one value of the binarized information, and the luminance information having the other brightness is converted into the other value of the binarized information, and the temporary 2 It is possible to obtain the binarized image information, prevent the information from being lost by a plurality of binarization processes, and invert and display the binarized image having a large area.

【0019】[0019]

【0010】[0010]

【0020】[0020]

【発明の実施の形態】本発明の実施の形態を図1〜図3
を参照して説明する。図1及び図2は、本発明の一実施
の形態の手法を示す例である。図3は、本発明の処理を
行うためのソフトウエアを実装して動作させる制御装置
の構成を示すブロック図である。図3において、401
はCPU(Central Processing U
nit)であり、バス413を介してROM(Read
Only Memory)402,RAM(Rand
om Access Memory)403と協働して
周辺装置404,408,409,411の各周辺装置
を制御する。ソフトウエアのコンピュータプログラムは
ROM402に格納されている。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described with reference to FIGS.
This will be described with reference to FIG. 1 and 2 are examples showing a method of an embodiment of the present invention. FIG. 3 is a block diagram showing the configuration of a control device that implements and operates software for performing the processing of the present invention. In FIG. 3, 401
Is a CPU (Central Processing U)
ROM (Read) via the bus 413.
Only Memory 402, RAM (Rand)
om Access Memory (403) to control the peripheral devices 404, 408, 409, 411. The computer program of the software is stored in the ROM 402.

【0021】[0021]

【0011】処理対象となる画像データは、図示しない
CD−ROMやフロッピーディスクあるいは通信回線か
ら取得し、処理した画像データを携帯端末I/F部41
1を経由してPDA(Personal Digita
l Assistant)412等の携帯端末へ伝送す
る。取り込んだ画像データは、ビデオRAM408へ取
り込まれる。主な操作はマウス等のポインティングデバ
イス410からポインティングデバイス制御部409を
通じて行われる。
The image data to be processed is obtained from a CD-ROM, a floppy disk or a communication line (not shown), and the processed image data is stored in the portable terminal I / F section 41.
1 through PDA (Personal Digital
l Assistant) 412 and other portable terminals. The captured image data is captured in the video RAM 408. The main operation is performed from the pointing device 410 such as a mouse through the pointing device control unit 409.

【0022】[0022]

【0012】図1(a)の画像信号がカラー信号の場
合、CPU401はROM402のソフトウエアにより
カラー信号から輝度信号へ変換した輝度変換画像をビデ
オRAM408へ蓄積しなおす。
When the image signal of FIG. 1A is a color signal, the CPU 401 re-stores in the video RAM 408 the brightness conversion image converted from the color signal to the brightness signal by the software of the ROM 402.

【0023】次に、この輝度データの輝度に対する出現
頻度をソフトウエアにより計測し、図1(b)に示すよ
うな輝度分布を調べる。分析結果は、ピーク輝度として
RAM403に蓄積しておく。
Next, the frequency of appearance of the brightness data with respect to the brightness is measured by software, and the brightness distribution as shown in FIG. 1B is examined. The analysis result is stored in the RAM 403 as peak brightness.

【0024】[0024]

【0013】次にRAM403に蓄積した輝度の中で最
大の輝度を基準値refとして選択し、基準値とした輝
度と隣接したピーク輝度のうち近い方の輝度と、基準値
とした輝度との差分をソフトウエアで計算し、RAM4
03に格納する。この輝度の差分は図1(d)に示す2
値化のための範囲rngとして使用する。
Next, the maximum luminance among the luminances stored in the RAM 403 is selected as the reference value ref, and the difference between the luminance of the reference value and the adjacent peak luminance and the luminance of the reference value is selected. Is calculated by software, RAM4
03. This luminance difference is 2 as shown in FIG.
Used as the range rng for quantification.

【0025】[0025]

【0014】次にソフトウエアにより、前述した基準値
refと範囲rngを用いて図1(a)の輝度データを
2値化変換して図(c)を得る。すなわち、輝度がre
f±rng/2内にあるデータを0(黒)、その他のデ
ータを1(白)としてビデオRAM408の別のフレー
ムに蓄積する。図1(c)の例では、図1(d)からわ
かるように、海の青色のみが0(黒)となり他の部分は
1(白)となる。
Next, the brightness data of FIG. 1A is binarized and converted by software using the above-mentioned reference value ref and range rng to obtain FIG. That is, the brightness is re
The data within f ± rng / 2 is stored in another frame of the video RAM 408 as 0 (black) and the other data as 1 (white). In the example of FIG. 1C, as can be seen from FIG. 1D, only the blue color of the sea is 0 (black) and the other portions are 1 (white).

【0026】[0026]

【0015】次にこの2値化画像データから、エッジ検
出(輪郭抽出)により図1(e)の画像を得る。すなわ
ち、海と他の部分との境界が輪郭として得られる。エッ
ジ検出は、例えば次のようにして行う。エッジとは異な
る色の領域が隣接している境界を指すものである。従っ
て、一水平走査期間の画像輝度データとそのデータを一
画素又は数画素遅延させたものとの差分を求めればその
水平走査期間の輝度変化データが得られる。
Next, the image of FIG. 1E is obtained from the binarized image data by edge detection (outline extraction). That is, the boundary between the sea and other parts is obtained as a contour. Edge detection is performed as follows, for example. The edge refers to a boundary where areas of different colors are adjacent to each other. Therefore, if the difference between the image luminance data in one horizontal scanning period and the data obtained by delaying the data by one pixel or several pixels is obtained, the luminance change data in the horizontal scanning period can be obtained.

【0027】[0027]

【0016】垂直走査期間に対しては、一水平走査期間
又は数水平走査期間遅延させたものを利用することで同
様に垂直方向の輝度変化データが得られる。ここではこ
の処理もソフトウエアで行う。すなわち、ビデオRAM
408に蓄積しておいた2値化画像データからソフトウ
エア処理を行い、ビデオRAM408のさらに別のフレ
ームに格納する。
For the vertical scanning period, the brightness change data in the vertical direction can be obtained in the same manner by using a signal delayed by one horizontal scanning period or several horizontal scanning periods. Here, this processing is also performed by software. Ie video RAM
Software processing is performed from the binarized image data accumulated in 408, and stored in another frame of the video RAM 408.

【0028】[0028]

【0017】ソフトウエア処理は、コンピュータプログ
ラムがROM402に格納されており、CPU401は
バス413を介して、ROM402のプログラムに従っ
てRAM403、ビデオRAM408を利用しながら実
行される。
A computer program is stored in the ROM 402, and the CPU 401 executes the software processing by using the RAM 403 and the video RAM 408 according to the program of the ROM 402 via the bus 413.

【0029】[0029]

【0018】次に前述した処理対象とした輝度変換画像
を同様にエッジ検出して、図1(f)の画像データを得
る。これもソフトウエア処理で行い、ビデオRAM40
8のさらに別のフレームに格納する。この図1(f)
は、図1(a)の輪郭を抽出したこととなる。
Then, the brightness-converted image to be processed is edge-detected in the same manner to obtain the image data of FIG. 1 (f). This is also done by software processing, and the video RAM 40
8 in yet another frame. This Figure 1 (f)
Means that the contour of FIG. 1A has been extracted.

【0030】[0030]

【0019】次にビデオRAM408に格納した図1
(e)と図1(f)の画像データの排他的論理和をソフ
トウエア処理にて行えば、図2(g)のように図1
(e)と図1(f)の片方にしか存在しないデータが抽
出できる。
Next, FIG. 1 stored in the video RAM 408.
If the exclusive OR of the image data of (e) and the image data of FIG. 1 (f) is performed by the software processing, as shown in FIG.
Data existing only in one of (e) and FIG. 1 (f) can be extracted.

【0031】[0031]

【0020】最後に、図1(c)の2値化画像データと
図2(g)のエッジデータの排他的論理和をソフトウエ
ア処理することで図2(h)の画像データが得られる。
すなわち、図2(h)の画像では、海の黒と陸の白とい
う2値化画像に道路部分が陸側では黒、海側では白で表
示され、必要な情報を2値化画像として得ることができ
る。
Finally, the exclusive OR of the binarized image data of FIG. 1 (c) and the edge data of FIG. 2 (g) is software processed to obtain the image data of FIG. 2 (h).
That is, in the image of FIG. 2H, the road portion is displayed in black on the land side and white on the sea side in the binarized image of black of the sea and white of the land, and necessary information is obtained as a binarized image. be able to.

【0032】[0032]

【0021】このようにして、CPU401はROM4
02のソフトウエアに従って、ビデオRAM408に蓄
積された画像データに対し2値化処理をRAM403を
介して実行し、その結果をRAM403に蓄積し、ポイ
ンティングデバイス410の指示に従ってビデオ制御回
路404を通じ、TV信号エンコーダ405へ出力し、
ビデオ出力用DAC406でアナログ信号としてモニタ
407へ出力する。
In this way, the CPU 401 controls the ROM 4
02 software, the image data accumulated in the video RAM 408 is binarized through the RAM 403, the result is accumulated in the RAM 403, and the TV signal is transmitted through the video control circuit 404 according to the instruction of the pointing device 410. Output to encoder 405,
The video output DAC 406 outputs the analog signal to the monitor 407.

【0033】[0033]

【0022】ここで図1(b)は、図1(a)の情報を
横軸に輝度レベル、縦軸に出現頻度をとって表したもの
である。例えば、地図では、一般に道路、鉄道、駅、等
高線、海湖沼河川等を表す記号の輪郭とそれぞれの固有
名詞を示す文字及び市町村や区、町等を表すカラー区分
とその境界線等で表されている。図1(a)の場合は、
青で示される海、灰色で示される道路、薄茶色で示され
る陸及び黒文字で表示される場合を示す。
Here, FIG. 1B shows the information of FIG. 1A with the horizontal axis representing the luminance level and the vertical axis representing the appearance frequency. For example, maps are generally represented by outlines of symbols that represent roads, railways, stations, contour lines, sea lakes, rivers, etc., characters that show proper nouns of each, and color divisions that represent cities, towns, wards, towns, and their boundaries. ing. In the case of FIG. 1 (a),
Shown is the case where the sea is shown in blue, the road is shown in gray, the land is shown in light brown, and it is displayed in black letters.

【0034】[0034]

【0023】文字や境界線、鉄道、主要道路等は濃い
黒、赤、青等で表されることが多く、一般道は灰色、海
湖沼河川は薄青、公園緑地の領域は薄緑等で表される。
また、輪郭線で囲まれる建物等は、互いの区別のために
色を変えて塗りつぶされる場合が多い。
Characters, boundaries, railroads, main roads, etc. are often expressed in dark black, red, blue, etc., general roads are gray, sea lakes and rivers are light blue, park green areas are light green, etc. expressed.
In addition, buildings and the like surrounded by contour lines are often painted in different colors to distinguish them from each other.

【0035】従って、地図の輝度−頻度分布は例えば、
図1(b)の如き例が得られる。また、入力されたデー
タが例えばスキャナ等で市販地図等から得られた場合
は、元々の情報にゴミや書き加えられたデータ等元々無
かった情報も加わってくる場合もある。
Therefore, the brightness-frequency distribution of the map is, for example,
An example as shown in FIG. 1B is obtained. In addition, when the input data is obtained from a commercial map or the like with a scanner or the like, for example, there may be a case where the originally existing information such as dust or added data is not included.

【0036】[0036]

【0024】しかしながら、大まかには、上述したよう
な記載がされておれば、輝度の最も高い部分は白、低い
部分は黒に対応し、黒の部分には輪郭線又は境界線及び
文字情報が大部分であり、灰色の部分は一般道、白に近
い部分は、その他の海湖沼河川、公園緑地等領域区分を
表すカラー部分の分布図が得られる。
However, roughly speaking, if the above description is made, the part having the highest brightness corresponds to white, the part having the lowest brightness corresponds to black, and the black part has a contour line or a boundary line and character information. The gray area is the general road, and the white area is the distribution map of the color area representing the area division such as other rivers, lakes and rivers.

【0037】[0037]

【0025】ここで、通常の地図では輪郭線がほとんど
の境界に用いられているが、道路地図の周辺図や観光地
図等では輪郭線が省かれている海と陸の境界等の例が考
えられる。そのような場合に、例えば海等の青の部分と
陸の薄茶の部分を区別して2値化しようとすると青及び
青の輝度レベルより低い部分を黒、そうでない部分を白
で表すこととなる。すると、青で塗りつぶされた海内で
はその中にある橋や文字等の、より輝度が低く表されて
いる部分は全て黒となり、情報が失われる。
[0025] Here, contour lines are used for most boundaries in normal maps, but examples are considered such as sea-land boundaries where contour lines are omitted in peripheral maps of road maps and tourist maps. To be In such a case, for example, if a blue portion of the sea or the like and a light brown portion of the land are discriminated and binarized, portions lower than the blue and blue luminance levels are represented by black, and portions other than that are represented by white. . Then, in the sea filled with blue, all the parts such as bridges and letters in which the brightness is lower are black, and the information is lost.

【0038】[0038]

【0026】このような場合に、カラーとしての輝度−
頻度分布は頻度順に、青、薄茶、灰、黒の各頻度が現れ
る。輝度レベル順には、薄茶、青、灰、黒となる。従っ
て、青の輝度レベルを黒、その他を白に2値化したのが
図1(c)である。これを仮2値化画像情報とし、その
2値化前の輝度−頻度分布が図1(d)である。
In such a case, the luminance as a color-
In the frequency distribution, frequencies of blue, light brown, gray, and black appear in order of frequency. The order of brightness levels is light brown, blue, gray, and black. Therefore, FIG. 1C shows that the brightness level of blue is binarized to black and the others are binarized to white. This is the temporary binarized image information, and the luminance-frequency distribution before the binarization is shown in FIG.

【0039】黒レベルに2値化する範囲は図1(d)に
示すように、青を中心にして青とその隣の灰の輝度の差
分を範囲とする。従ってこの場合は、青を中心に青と灰
の輝度差分の範囲を黒とすることになり、青のみを黒と
し他は白に置き換える。
As shown in FIG. 1D, the range of binarization to the black level is the range of the difference between the brightness of blue and the brightness of gray adjacent to the center of blue. Therefore, in this case, the range of the difference in brightness between blue and grey, centered on blue, is black, and only blue is replaced with black and the others are replaced with white.

【0040】[0040]

【0027】また、図1(c)からエッジ検出を行った
結果が図1(e)であり、変換の対象とする表示例の図
1(a)からエッジ検出を行った結果が図1(f)であ
る。
FIG. 1E shows the result of edge detection from FIG. 1C, and FIG. 1E shows the result of edge detection from FIG. 1A of the display example to be converted. f).

【0041】すると、図1(e)で欠落してしまった道
路や文字は、図1(f)に現れている。そこで、図1
(e)と図1(f)との排他的論理和をとれば、図1
(e)または、図1(f)の何れか片方にある情報が図
2(g)として得られる。そこでさらに、図2(g)と
前の仮2値化画像情報の図1(c)との排他的論理和を
とれば、陸の部分の道路や文字が図1(c)に付加され
て図2(h)が得られる。
Then, the roads and characters missing in FIG. 1 (e) appear in FIG. 1 (f). Therefore, in FIG.
If the exclusive OR of (e) and FIG.
Information in either (e) or FIG. 1 (f) is obtained as FIG. 2 (g). Then, if the exclusive OR of FIG. 2 (g) and FIG. 1 (c) of the previous temporary binarized image information is taken, roads and characters in the land portion are added to FIG. 1 (c). FIG. 2 (h) is obtained.

【0042】[0042]

【0028】図6は、前述した輝度−頻度分布の例を示
しており、図6(a)は黄色単色画面の場合、図6
(b)は白地に黒文字や黒枠の場合、図6(c)は多色
の複雑な表示の場合を模式的に表した図である。各々、
頻度ピーク数は、1、2、10となる。
FIG. 6 shows an example of the above-mentioned luminance-frequency distribution. FIG. 6A shows the case of a yellow monochrome screen as shown in FIG.
FIG. 6B is a diagram schematically showing a case of black characters or a black frame on a white background, and FIG. 6C is a diagram schematically showing a case of multicolor complicated display. Each,
The frequency peak numbers are 1, 2, and 10.

【0043】[0043]

【0029】次に、本発明の2値化処理方法を示すフロ
ーチャートの一例を図4及び図5に示す。STEP1〜
STEP5で輝度分布検出、STEP6〜STEP13
で最多輝度レベルデータ検出、STEP14では第2エ
ッジデータ生成、STEP15では第1エッジデータ生
成、STEP16では第3エッジデータ生成、STEP
17では第3エッジデータと仮2値化画像情報の合成を
行う。
Next, an example of a flowchart showing the binarization processing method of the present invention is shown in FIGS. STEP1
Brightness distribution detection in STEP 5, STEP 6 to STEP 13
In step 14, the second edge data is generated in STEP 14, the first edge data is generated in STEP 15, and the third edge data is generated in STEP 16.
At 17, the third edge data and the temporary binarized image information are combined.

【0044】[0044]

【0030】STEP1スタートから先ず、STEP2
で処理対象画像データ1画面分、例えば図1(a)のデ
ータをビデオRAM408に取り込み、STEP3で輝
度データ変換を行う。輝度データ変換は、例えば処理対
象画像データがRGBデータの場合は、 Y=0.2988×R + 0.5868×G +
0.5868B から輝度成分Yが求められ、YUVデータの場合は、Y
データだけを用いる。
From STEP 1 start, first, STEP 2
Then, one screen of image data to be processed, for example, the data shown in FIG. 1A is loaded into the video RAM 408, and brightness data conversion is performed in STEP3. The luminance data conversion is performed, for example, when the image data to be processed is RGB data, Y = 0.2988 × R + 0.5868 × G +
The luminance component Y is obtained from 0.5868B, and in the case of YUV data, Y
Use only data.

【0045】[0045]

【0031】こうして求めた輝度データをAとする。次
に、STEP4では、1画面分の輝度データから輝度分
布解析を行う。すなわち、横軸に輝度、縦軸に出現頻度
をとり、1画面分の輝度分布を調べる。このSTEPは
図1(b)に相当する。STEP5では、輝度分布解析
の結果から、頻度の最も高いY1 (Pmax)を基準値
refとする(図1(d))。
The brightness data thus obtained is A. Next, in STEP 4, the luminance distribution analysis is performed from the luminance data for one screen. That is, the luminance is plotted on the horizontal axis and the frequency of appearance on the vertical axis, and the luminance distribution for one screen is examined. This STEP corresponds to FIG. In STEP 5, Y 1 (Pmax) having the highest frequency is set as the reference value ref based on the result of the luminance distribution analysis (FIG. 1D).

【0046】[0046]

【0032】STEP6では、輝度分布解析の結果か
ら、頻度の局所ピーク値の数を調べその数が2以上かど
うかをチェックする。Yesであれば、STEP7の範
囲rngの設定に進み、頻度最高の輝度Y1 と、輝度軸
上でY1 に最も近い頻度ピークの輝度Y2 との差分を範
囲rngとして設定する。例えば図1(d)の場合は、
1 が海の青の輝度に相当し、灰の輝度がY2 に相当す
るので、青と灰の各輝度レベルの差分を範囲rngとし
て設定する。一方STEP6でNoであった場合は、頻
度ピークが1であり、1画面全体が単色で構成されてい
る場合にあたる。
In STEP 6, the number of local peak values of frequency is checked from the result of the luminance distribution analysis, and it is checked whether the number is 2 or more. If Yes, the process proceeds to the setting of the range rng in STEP 7, and the difference between the highest frequency luminance Y 1 and the frequency peak luminance Y 2 closest to Y 1 on the luminance axis is set as the range rng. For example, in the case of FIG. 1 (d),
Since Y 1 corresponds to the brightness of blue in the sea and the brightness of ash corresponds to Y 2 , the difference between the brightness levels of blue and ash is set as the range rng. On the other hand, when the result in STEP 6 is No, the frequency peak is 1, which corresponds to the case where the entire screen is composed of a single color.

【0047】この場合は、STEP8で最高輝度と最低
輝度の差分を範囲rngとして設定する。
In this case, in STEP 8, the difference between the highest luminance and the lowest luminance is set as the range rng.

【0048】[0048]

【0033】次に、STEP9では、基準値の輝度Y1
が中心輝度、すなわち、最高輝度と最低輝度の差分の1
/2より高いかどうかをチェックし、Yesであれば、
後で使用するパラメータPを0に設定する(STEP1
0)。Noであれば、STEP11でPを1に設定す
る。
Next, in STEP 9, the brightness of the reference value Y 1
Is the central brightness, that is, the difference between the maximum brightness and the minimum brightness is 1.
Check if it is higher than / 2, and if Yes,
The parameter P used later is set to 0 (STEP1
0). If No, P is set to 1 in STEP 11.

【0049】[0049]

【0034】次に、STEP12では、上記において設
定した基準値ref、範囲rng、及びパラメータPを
用い、輝度データAの各データを輝度データがY1 ±
rng/2内であればPにセットし、それ以外のデータ
はPの反転値にセットする。
Next, in STEP 12, each data of the brightness data A is changed to Y 1 ± by using the reference value ref, the range rng, and the parameter P set in the above.
If it is within rng / 2, it is set to P, and the other data is set to the inverted value of P.

【0050】こうして得られた画像データを2値化デー
タBとする。この2値化データBが仮2値化画像情報と
なる。
The image data thus obtained will be referred to as binarized data B. This binarized data B becomes temporary binarized image information.

【0051】[0051]

【0035】STEP13では、規定値以上の頻度を持
つピーク数が2以上かどうかをチェックする。規定値
は、例えば最高輝度の頻度の70%以上等と視覚上の効
果から設定する。Yesであれば、STEP14で上記
2値化データBからエッジ検出を行い、2値化データC
とする。この2値化データCが第2エッジデータとな
る。図1では(e)に相当する。
At STEP 13, it is checked whether the number of peaks having a frequency equal to or higher than the specified value is 2 or more. The specified value is set, for example, 70% or more of the frequency of the maximum brightness, or the like, from the visual effect. If Yes, in STEP 14, edge detection is performed from the binarized data B, and the binarized data C is detected.
And This binarized data C becomes the second edge data. In FIG. 1, it corresponds to (e).

【0052】[0052]

【0036】STEP15では、輝度データAからエッ
ジ検出を行い2値化データDとする。これは、図1
(f)に相当し、2値化データDが第1エッジデータと
なる。
In STEP 15, edge detection is performed from the brightness data A to obtain binarized data D. This is shown in FIG.
Corresponding to (f), the binarized data D becomes the first edge data.

【0053】さらに、STEP16で、2値化データC
と2値化データDの排他的論理和(EXOR)処理を行
い、得られたデータを2値化データEとする。2値化デ
ータEは第3エッジデータとなり、図1(g)に相当す
る。さらに、STEP17で、2値化データBと2値化
データEの排他的論理和(EXOR)処理を行い、得ら
れたデータを2値化データFとする。STEP17は、
第3エッジデータと仮2値化画像情報の合成を行うこと
となり、その結果の2値化データFは図1(h)に相当
する。
Further, in STEP 16, the binarized data C
And the binary data D are subjected to exclusive OR (EXOR) processing, and the obtained data is used as the binary data E. The binarized data E becomes the third edge data and corresponds to FIG. Further, in STEP 17, the exclusive OR (EXOR) processing of the binarized data B and the binarized data E is performed, and the obtained data is set as the binarized data F. STEP17 is
The synthesis of the third edge data and the temporary binarized image information is performed, and the resulting binarized data F corresponds to FIG.

【0054】[0054]

【0037】これにより、輝度範囲の処理を行った2値
化データCが持つエッジデータと元の輝度データから得
られるエッジデータの2値化データDの排他的論理和処
理で、2値化データDには現れなかったエッジデータが
2値化データEとして得られ、そのデータを領域の2値
化データである2値化データBとの排他的論理和処理
で、所望する2値化データFが得られることとなる。
As a result, the binarized data is obtained by exclusive OR processing of the edge data of the binarized data C that has undergone the luminance range processing and the binarized data D of the edge data obtained from the original luminance data. Edge data that does not appear in D is obtained as binarized data E, and the desired binarized data F is obtained by exclusive OR processing of the data with the binarized data B that is the binarized data of the area. Will be obtained.

【0055】[0055]

【0038】STEP18は、STEP13がNoの場
合を示し、規定値以上の輝度を有するピーク数が1又は
0の場合となり、この場合は2値化データBを出力す
る。
STEP 18 shows the case of No in STEP 13, which is the case where the number of peaks having the brightness equal to or higher than the specified value is 1 or 0. In this case, the binarized data B is output.

【0056】STEP19以降は、出力を反転出力とす
るかどうかであり、設定又は指示によりそのまま出力す
るか反転出力するかをSTEP19で選択し、反転出力
の場合はSTEP20、そのまま出力の場合は、STE
P21を経てフローは終了しSTEP22のエンドとな
る。
In STEP 19 and thereafter, whether the output is an inverted output or not is selected, and in STEP 19 it is selected whether to output the output as it is or the output is made as an inverted output according to the setting or the instruction.
After P21, the flow ends and STEP22 ends.

【0057】[0057]

【0039】上述したように、処理は1画面分の処理で
説明したが、処理の過程の一部にマスキング処理、すな
わち、画像の一部の領域を指定して部分的に上記処理を
行いはめ込みを行うことにより所望の画像を得ることも
可能である。また、処理対象画像が2値画像であった
り、他のフォーマット、例えばベクトル処理データ等で
あっても、前処理により本変換処理に利用可能なフォー
マットに変換し、後処理で他のフォーマットに変換する
ことで、他のフォーマットの画像データにも適用出来
る。
As described above, the processing has been described as the processing for one screen, but the masking processing is performed in a part of the process of the processing, that is, the above processing is partially performed by designating a partial area of the image and fitted. It is also possible to obtain a desired image by performing. Further, even if the image to be processed is a binary image or another format such as vector processing data, it is converted into a format usable for the main conversion processing by the pre-processing and converted into another format by the post-processing. By doing so, it can be applied to image data of other formats.

【0058】[0058]

【0040】[0040]

【0059】[0059]

【発明の効果】以上説明したように、本発明の2値化変
換装置では、2値化変換による情報の欠落を少なくでき
ると共に、面積の大きい2値化データ領域においても反
転して表示するため、変換後も視覚的に、より有効な表
示を得ることができる。
As described above, in the binarization conversion device of the present invention, the loss of information due to the binarization conversion can be reduced, and the binary data area having a large area can be displayed inverted. After conversion, it is possible to obtain a more effective display visually.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施形態の処理状況を示す概略図の一
部である。
FIG. 1 is a part of a schematic diagram showing a processing situation of an embodiment of the present invention.

【図2】本発明の実施形態の処理状況を示す概略図の一
部である。
FIG. 2 is a part of a schematic diagram showing a processing situation of an embodiment of the present invention.

【図3】本発明の実施形態の装置のブロック図である。FIG. 3 is a block diagram of an apparatus according to an embodiment of the present invention.

【図4】本発明の実施形態の処理例を示すフローチャー
トの一部である。
FIG. 4 is a part of a flowchart showing a processing example of the embodiment of the present invention.

【図5】本発明の実施形態の処理例を示すフローチャー
トの一部である。
FIG. 5 is a part of a flowchart showing a processing example of the embodiment of the present invention.

【図6】本発明の実施形態の輝度出現頻度分布の例を示
す図である。
FIG. 6 is a diagram showing an example of a luminance appearance frequency distribution according to the embodiment of the present invention.

【図7】従来の2値化変換装置のブロック図である。FIG. 7 is a block diagram of a conventional binarization conversion device.

【符号の説明】[Explanation of symbols]

401 ・・・・ CPU 402 ・・・・ ROM 403 ・・・・ RAM 404 ・・・・ ビデオ制御回路 405 ・・・・ TV信号エンコーダ 406 ・・・・ ビデオ出力用DAC 407 ・・・・ モニタ 408 ・・・・ ビデオRAM 409 ・・・・ ポインティングデバイス制御部 410 ・・・・ ポインティングデバイス 411 ・・・・ 携帯端末I/F部 412 ・・・・ PDA 413 ・・・・ バス 501 ・・・・ 入力信号 502 ・・・・ メモリ 503 ・・・・ 平均算出部 504 ・・・・ 閾値決定部 505 ・・・・ 境界値信号 506 ・・・・ 比較器 401 ・ ・ ・ CPU 402 ・ ・ ・ ROM 403 ・ ・ ・ RAM 404 ・ ・ ・ Video control circuit 405 ・ ・ ・ TV signal encoder 406 ・ ・ ・ Video output DAC 407 ・ ・ ・ Monitor 408・ ・ ・ Video RAM 409 ・ ・ ・ Pointing device controller 410 ・ ・ ・ Pointing device 411 ・ ・ ・ Mobile terminal I / F unit 412 ・ ・ ・ PDA 413 ・ ・ ・ Bus 501 ・ ・ ・Input signal 502 ... Memory 503 ... Average calculation unit 504 ... Threshold value determination unit 505 ... Boundary value signal 506 ... Comparator

─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成9年3月24日[Submission date] March 24, 1997

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】発明の詳細な説明[Correction target item name] Detailed description of the invention

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、濃度情報を持つ多
色画像から2値化変換を行う2値化変換装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a binarization conversion device which performs binarization conversion from a multicolor image having density information.

【0002】[0002]

【従来の技術】白黒表示部で画像を表示する場合、元の
カラー画像の輝度レベルに応じて白黒のデータの密度を
変え、濃淡により画像を表示する階調表示がある。
2. Description of the Related Art When an image is displayed on a black and white display unit, there is a gradation display in which the density of black and white data is changed according to the brightness level of an original color image and the image is displayed by shading.

【0003】従来より、カラー静止画像を対象とした種
々の画像処理方式が提案されているが、カラー画像デー
タあるいは白黒の多階調データの情報を元に、白黒のプ
リント、モノクロームディスプレイ上の画像を得る場合
に、2値化処理を含む種々の方法で変換処理される。
Conventionally, various image processing methods for color still images have been proposed. However, based on the information of color image data or black-and-white multi-gradation data, black-and-white prints and images on a monochrome display. Is obtained, conversion processing is performed by various methods including binarization processing.

【0004】そこで一般には、ある特定の閾値を設定
し、そのレベルを基準に2値化処理を行い、輪郭(エッ
ジ)抽出等を行っていた。従来ファクシミリ等の装置で
文書画像等を伝送する場合には文書画像等を複数の画素
に分割してさらに各画素の濃度レベルを光学的手段によ
り各濃度に対応したアナログ信号に変換し、さらにこの
電気信号を閾値を用いて2値のデジタル信号に変換する
ことにより画像情報を処理している。
Therefore, in general, a certain threshold value is set, the binarization process is performed with the level as a reference, and the contour (edge) is extracted. When a document image or the like is conventionally transmitted by a device such as a facsimile, the document image or the like is divided into a plurality of pixels, and the density level of each pixel is converted by an optical means into an analog signal corresponding to each density. Image information is processed by converting an electric signal into a binary digital signal using a threshold value.

【0005】図7は従来における画像読取り装置の2値
化処理を示すブロック図である。同図において文字や図
形の画像データは、図示しないビデオ出力装置、例えば
ビデオテープレコーダやパソコン等から、画像データと
して入力信号501となりメモリ502に入力される。
メモリ502では例えば8ビットの2進数を用いて量子
化した値として保存される。ここで2値化の対象となっ
ている画素の周囲画素濃度レベルの情報は平均算出部5
03に送られ、その平均値が算出される。
FIG. 7 is a block diagram showing a binarization process of a conventional image reading apparatus. In the figure, image data of characters and figures is input as an input signal 501 to the memory 502 as image data from a video output device (not shown) such as a video tape recorder or a personal computer.
In the memory 502, it is stored as a quantized value using, for example, an 8-bit binary number. Here, the information of the peripheral pixel density level of the pixel to be binarized is calculated by the average calculator 5
03, and the average value is calculated.

【0006】また閾値決定部504では平均算出部50
3で算出された平均値信号に対応して2値化の際に用い
られる閾値を比較器506へ出力する。ここで閾値決定
部504では平均算出部503で算出された平均値信号
と予め定められた範囲の画素濃度レベルに基づいて設定
された境界値信号505を比較して算出された平均値が
境界値よりも大なる時は予め基準化した閾値より下方に
設定された下方補正閾値を、また算出された平均値が境
界値よりも小なる時は予め基準化した閾値より上方に設
定された上方補正閾値が用いられる。また比較器506
ではメモリ502に保存された量子化値と、入力された
閾値とを比較して2値化信号に変換して出力する。この
ように閏値決定部504では比較器506に供給する閾
値を周囲画素濃度レベルに応じて適宜補正することによ
ってより適性な2値化出力を得ている。
In the threshold value determining unit 504, the average calculating unit 50
The threshold value used for binarization corresponding to the average value signal calculated in 3 is output to the comparator 506. Here, in the threshold value determining unit 504, the average value calculated by comparing the average value signal calculated by the average calculating unit 503 with the boundary value signal 505 set based on the pixel density level in a predetermined range is the boundary value. When the calculated average value is smaller than the boundary value, the upper correction value is set below the pre-standardized threshold value. A threshold is used. In addition, the comparator 506
Then, the quantized value stored in the memory 502 is compared with the input threshold value, converted into a binarized signal, and output. In this way, the leap value determination unit 504 obtains a more appropriate binarized output by appropriately correcting the threshold value supplied to the comparator 506 according to the surrounding pixel density level.

【0007】[0007]

【発明が解決しようとする課題】従来の方法では、輝度
レベルが互いに接近する隣接したデータが存在すると、
カラー画像データ又は多階調データにおいては、色又は
階調により判別可能であったが、白黒表示の単階調の場
合には明確に読み取れないという問題が発生する。ま
た、そのような輝度レベル上において、隣接データを分
離できる箇所に別の閾値を設け、閾値を挟んだデータを
反転変換する方法も考えられるが、閾値以下、閾値以上
の領域のデータが分離できなくなる場合があった。そこ
で本発明は、2値化変換による情報の欠落を少なくする
2値化変換装置を提供することを目的とするものであ
る。
In the conventional method, when there are adjacent data whose brightness levels are close to each other,
In color image data or multi-gradation data, it was possible to distinguish by color or gradation, but in the case of a single gradation of black and white display, there is a problem that it cannot be clearly read. In addition, on such a brightness level, another threshold value may be provided at a position where adjacent data can be separated, and the data having the threshold value sandwiched between them may be inverted. There were times when it disappeared. Therefore, an object of the present invention is to provide a binarization conversion device that reduces information loss due to the binarization conversion.

【0008】[0008]

【課題を解決するための手段】請求項1に記載の2値化
変換装置は、少なくとも輝度情報を有する輝度画像情報
を2値化画像情報に変換する2値化変換装置であって、
輝度画像情報の輝度分布を検出する輝度分布検出手段
と、輝度分布の最も多い分布を示す輝度レベルである最
多輝度レベルデータを検出する最多輝度レベル情報検出
手段と、最多輝度レベル情報を2値化情報の一方の値
に、その他の輝度を有する輝度情報を2値化情報の他方
の値に変換し、仮2値化画像情報を得る変換手段と、輝
度画像情報の輝度におけるエッジデータである第1エッ
ジデータを生成する第1エッジデータ生成手段と、仮2
値化画像情報の2値化情報におけるエッジデータである
第2エッジデータを生成する第2エッジデータ生成手段
と、第1エッジデータに存在し、第2エッジデータに存
在しないエッジデータである第3エッジデータを生成す
る第3エッジデータ生成手段と、仮2値化画像情報上に
おける第3エッジデータに隣接する2値化情報の一方の
値に対し、他方の値で第3エッジデータを仮2値化画像
情報上に合成する合成手段とを有することを特徴とす
る。請求項2に記載の2値化変換装置は、請求項1に記
載の2値化変換装置であって、第3エッジデータ生成手
段は第1エッジデータと第2エッジデータとの排他的論
理和をとることにより第3エッジデータを生成し、合成
手段は仮2値化画像情報と第3エッジデータとの排他的
論理和をとることにより合成することを特徴とする。
A binarization conversion device according to claim 1 is a binarization conversion device for converting luminance image information having at least luminance information into binary image information.
The brightness distribution detecting means for detecting the brightness distribution of the brightness image information, the maximum brightness level information detecting means for detecting the most brightness level data which is the brightness level showing the distribution with the most brightness distribution, and the most brightness level information are binarized. A conversion unit for converting the brightness information having the other brightness into one value of the information into the other value of the binarized information to obtain the temporary binarized image information; and edge data in the brightness of the brightness image information. First edge data generating means for generating one edge data;
Second edge data generating means for generating second edge data which is edge data in the binarized information of the binarized image information, and third edge data which is present in the first edge data and is not present in the second edge data. The third edge data generating means for generating the edge data and one value of the binarized information adjacent to the third edge data on the temporary binarized image information are used to temporarily store the third edge data in the other value. And a synthesizing means for synthesizing the binarized image information. The binarization conversion device according to claim 2 is the binarization conversion device according to claim 1, wherein the third edge data generation means is an exclusive OR of the first edge data and the second edge data. Is obtained to generate the third edge data, and the synthesizing means synthesizes the temporary binary image information and the third edge data by taking an exclusive OR.

【0009】[0009]

【作用】本発明による2値化変換装置では、最多輝度レ
ベル情報を2値化情報の一方の値に、その他の輝度を有
する輝度情報を2値化情報の他方の値に変換し、仮2値
化画像情報を得るようにし、複数の2値化処理により情
報の欠落を防ぎ、大きな面積を有する2値化画像に反転
して加算表示できるようになる。
In the binarization conversion device according to the present invention, the maximum luminance level information is converted into one value of the binarized information, and the luminance information having the other brightness is converted into the other value of the binarized information, and the temporary 2 It is possible to obtain the binarized image information, prevent the information from being lost by a plurality of binarization processes, and invert and display the binarized image having a large area.

【0010】[0010]

【発明の実施の形態】本発明の実施の形態を図1〜図3
を参照して説明する。図1及び図2は、本発明の一実施
の形態の手法を示す例である。図3は、本発明の処理を
行うためのソフトウエアを実装して動作させる制御装置
の構成を示すブロック図である。図3において、401
はCPU(Central Processing U
nit)であり、バス413を介してROM(Read
Only Memory)402,RAM(Rand
om Access Memory)403と協働して
周辺装置404,408,409,411の各周辺装置
を制御する。ソフトウエアのコンピュータプログラムは
ROM402に格納されている。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described with reference to FIGS.
This will be described with reference to FIG. 1 and 2 are examples showing a method of an embodiment of the present invention. FIG. 3 is a block diagram showing the configuration of a control device that implements and operates software for performing the processing of the present invention. In FIG. 3, 401
Is a CPU (Central Processing U)
ROM (Read) via the bus 413.
Only Memory 402, RAM (Rand)
om Access Memory (403) to control the peripheral devices 404, 408, 409, 411. The computer program of the software is stored in the ROM 402.

【0011】処理対象となる画像データは、図示しない
CD−ROMやフロッピーディスクあるいは通信回線か
ら取得し、処理した画像データを携帯端末I/F部41
1を経由してPDA(Personal Digita
l Assistant)412等の携帯端末へ伝送す
る。取り込んだ画像データは、ビデオRAM408へ取
り込まれる。主な操作はマウス等のポインティングデバ
イス410からポインティングデバイス制御部409を
通じて行われる。
The image data to be processed is obtained from a CD-ROM, a floppy disk or a communication line (not shown), and the processed image data is stored in the portable terminal I / F section 41.
1 through PDA (Personal Digital
l Assistant) 412 and other portable terminals. The captured image data is captured in the video RAM 408. The main operation is performed from the pointing device 410 such as a mouse through the pointing device control unit 409.

【0012】図1(a)の画像信号がカラー信号の場
合、CPU401はROM402のソフトウエアにより
カラー信号から輝度信号へ変換した輝度変換画像をビデ
オRAM408へ蓄積しなおす。次に、この輝度データ
の輝度に対する出現頻度をソフトウエアにより計測し、
図1(b)に示すような輝度分布を調べる。分析結果
は、ピーク輝度としてRAM403に蓄積しておく。
When the image signal of FIG. 1A is a color signal, the CPU 401 re-stores in the video RAM 408 the brightness conversion image converted from the color signal to the brightness signal by the software of the ROM 402. Next, measure the appearance frequency with respect to the brightness of this brightness data with software,
The luminance distribution as shown in FIG. 1 (b) is examined. The analysis result is stored in the RAM 403 as peak brightness.

【0013】次にRAM403に蓄積した輝度の中で最
大の輝度を基準値refとして選択し、基準値とした輝
度と隣接したピーク輝度のうち近い方の輝度と、基準値
とした輝度との差分をソフトウエアで計算し、RAM4
03に格納する。この輝度の差分は図1(d)に示す2
値化のための範囲rngとして使用する。
Next, the maximum luminance among the luminances stored in the RAM 403 is selected as the reference value ref, and the difference between the luminance of the reference value and the adjacent peak luminance and the luminance of the reference value is selected. Is calculated by software, RAM4
03. This luminance difference is 2 as shown in FIG.
Used as the range rng for quantification.

【0014】次にソフトウエアにより、前述した基準値
refと範囲rngを用いて図1(a)の輝度データを
2値化変換して図(c)を得る。すなわち、輝度がre
f±rng/2内にあるデータを0(黒)、その他のデ
ータを1(白)としてビデオRAM408の別のフレー
ムに蓄積する。図1(c)の例では、図1(d)からわ
かるように、海の青色のみが0(黒)となり他の部分は
1(白)となる。
Next, the brightness data of FIG. 1A is binarized and converted by software using the above-mentioned reference value ref and range rng to obtain FIG. That is, the brightness is re
The data within f ± rng / 2 is stored in another frame of the video RAM 408 as 0 (black) and the other data as 1 (white). In the example of FIG. 1C, as can be seen from FIG. 1D, only the blue color of the sea is 0 (black) and the other portions are 1 (white).

【0015】次にこの2値化画像データから、エッジ検
出(輪郭抽出)により図1(e)の画像を得る。すなわ
ち、海と他の部分との境界が輪郭として得られる。エッ
ジ検出は、例えば次のようにして行う。エッジとは異な
る色の領域が隣接している境界を指すものである。従っ
て、一水平走査期間の画像輝度データとそのデータを一
画素又は数画素遅延させたものとの差分を求めればその
水平走査期間の輝度変化データが得られる。
Next, the image of FIG. 1E is obtained from the binarized image data by edge detection (outline extraction). That is, the boundary between the sea and other parts is obtained as a contour. Edge detection is performed as follows, for example. The edge refers to a boundary where areas of different colors are adjacent to each other. Therefore, if the difference between the image luminance data in one horizontal scanning period and the data obtained by delaying the data by one pixel or several pixels is obtained, the luminance change data in the horizontal scanning period can be obtained.

【0016】垂直走査期間に対しては、一水平走査期間
又は数水平走査期間遅延させたものを利用することで同
様に垂直方向の輝度変化データが得られる。ここではこ
の処理もソフトウエアで行う。すなわち、ビデオRAM
408に蓄積しておいた2値化画像データからソフトウ
エア処理を行い、ビデオRAM408のさらに別のフレ
ームに格納する。
For the vertical scanning period, the brightness change data in the vertical direction can be obtained in the same manner by using a signal delayed by one horizontal scanning period or several horizontal scanning periods. Here, this processing is also performed by software. Ie video RAM
Software processing is performed from the binarized image data accumulated in 408, and stored in another frame of the video RAM 408.

【0017】ソフトウエア処理は、コンピュータプログ
ラムがROM402に格納されており、CPU401は
バス413を介して、ROM402のプログラムに従っ
てRAM403、ビデオRAM408を利用しながら実
行される。
A computer program is stored in the ROM 402, and the CPU 401 executes the software processing by using the RAM 403 and the video RAM 408 according to the program of the ROM 402 via the bus 413.

【0018】次に前述した処理対象とした輝度変換画像
を同様にエッジ検出して、図1(f)の画像データを得
る。これもソフトウエア処理で行い、ビデオRAM40
8のさらに別のフレームに格納する。この図1(f)
は、図1(a)の輪郭を抽出したこととなる。
Then, the brightness-converted image to be processed is edge-detected in the same manner to obtain the image data of FIG. 1 (f). This is also done by software processing, and the video RAM 40
8 in yet another frame. This Figure 1 (f)
Means that the contour of FIG. 1A has been extracted.

【0019】次にビデオRAM408に格納した図1
(e)と図1(f)の画像データの排他的論理和をソフ
トウエア処理にて行えば、図2(g)のように図1
(e)と図1(f)の片方にしか存在しないデータが抽
出できる。
Next, FIG. 1 stored in the video RAM 408.
If the exclusive OR of the image data of (e) and the image data of FIG. 1 (f) is performed by the software processing, as shown in FIG.
Data existing only in one of (e) and FIG. 1 (f) can be extracted.

【0020】最後に、図1(c)の2値化画像データと
図2(g)のエッジデータの排他的論理和をソフトウエ
ア処理することで図2(h)の画像データが得られる。
すなわち、図2(h)の画像では、海の黒と陸の白とい
う2値化画像に道路部分が陸側では黒、海側では白で表
示され、必要な情報を2値化画像として得ることができ
る。
Finally, the exclusive OR of the binarized image data of FIG. 1 (c) and the edge data of FIG. 2 (g) is software processed to obtain the image data of FIG. 2 (h).
That is, in the image of FIG. 2H, the road portion is displayed in black on the land side and white on the sea side in the binarized image of black of the sea and white of the land, and necessary information is obtained as a binarized image. be able to.

【0021】このようにして、CPU401はROM4
02のソフトウエアに従って、ビデオRAM408に蓄
積された画像データに対し2値化処理をRAM403を
介して実行し、その結果をRAM403に蓄積し、ポイ
ンティングデバイス410の指示に従ってビデオ制御回
路404を通じ、TV信号エンコーダ405へ出力し、
ビデオ出力用DAC406でアナログ信号としてモニタ
407へ出力する。
In this way, the CPU 401 controls the ROM 4
02 software, the image data accumulated in the video RAM 408 is binarized through the RAM 403, the result is accumulated in the RAM 403, and the TV signal is transmitted through the video control circuit 404 according to the instruction of the pointing device 410. Output to encoder 405,
The video output DAC 406 outputs the analog signal to the monitor 407.

【0022】ここで図1(b)は、図1(a)の情報を
横軸に輝度レベル、縦軸に出現頻度をとって表したもの
である。例えば、地図では、一般に道路、鉄道、駅、等
高線、海湖沼河川等を表す記号の輪郭とそれぞれの固有
名詞を示す文字及び市町村や区、町等を表すカラー区分
とその境界線等で表されている。図1(a)の場合は、
青で示される海、灰色で示される道路、薄茶色で示され
る陸及び黒文字で表示される場合を示す。
Here, FIG. 1B shows the information of FIG. 1A with the horizontal axis representing the luminance level and the vertical axis representing the appearance frequency. For example, maps are generally represented by outlines of symbols that represent roads, railways, stations, contour lines, sea lakes, rivers, etc., characters that show proper nouns of each, and color divisions that represent cities, towns, wards, towns, and their boundaries. ing. In the case of FIG. 1 (a),
Shown is the case where the sea is shown in blue, the road is shown in gray, the land is shown in light brown, and it is displayed in black letters.

【0023】文字や境界線、鉄道、主要道路等は濃い
黒、赤、青等で表されることが多く、一般道は灰色、海
湖沼河川は薄青、公園緑地の領域は薄緑等で表される。
また、輪郭線で囲まれる建物等は、互いの区別のために
色を変えて塗りつぶされる場合が多い。従って、地図の
輝度一頻度分布は例えば、図1(b)の如き例が得られ
る。また、入力されたデータが例えばスキャナ等で市販
地図等から得られた場合は、元々の情報にゴミや書き加
えられたデータ等元々無かった情報も加わってくる場合
もある。
Characters, boundaries, railroads, main roads, etc. are often expressed in dark black, red, blue, etc., general roads are gray, sea lakes and rivers are light blue, park green areas are light green, etc. expressed.
In addition, buildings and the like surrounded by contour lines are often painted in different colors to distinguish them from each other. Therefore, for example, the luminance-frequency distribution of the map is obtained as shown in FIG. In addition, when the input data is obtained from a commercial map or the like with a scanner or the like, for example, there may be a case where the originally existing information such as dust or added data is not included.

【0024】しかしながら、大まかには、上述したよう
な記載がされておれば、輝度の最も高い部分は白、低い
部分は黒に対応し、黒の部分には輪郭線又は境界線及び
文字情報が大部分であり、灰色の部分は一般道、白に近
い部分は、その他の海湖沼河川、公園緑地等領域区分を
表すカラー部分の分布図が得られる。
However, roughly speaking, if the above description is made, the part having the highest brightness corresponds to white, the part having the lowest brightness corresponds to black, and the black part has a contour line or a boundary line and character information. The gray area is the general road, and the white area is the distribution map of the color area representing the area division such as other rivers, lakes and rivers.

【0025】ここで、通常の地図では輪郭線がほとんど
の境界に用いられているが、道路地図の周辺図や観光地
図等では輪郭線が省かれている海と陸の境界等の例が考
えられる。そのような場合に、例えば海等の青の部分と
陸の薄茶の部分を区別して2値化しようとすると青及び
青の輝度レベルより低い部分を黒、そうでない部分を白
で表すこととなる。すると、青で塗りつぶされた海内で
はその中にある橋や文字等の、より輝度が低く表されて
いる部分は全て黒となり、情報が失われる。
[0025] Here, contour lines are used for most boundaries in normal maps, but examples are considered such as sea-land boundaries where contour lines are omitted in peripheral maps of road maps and tourist maps. To be In such a case, for example, if a blue portion of the sea or the like and a light brown portion of the land are discriminated and binarized, portions lower than the blue and blue luminance levels are represented by black, and portions other than that are represented by white. . Then, in the sea filled with blue, all the parts such as bridges and letters in which the brightness is lower are black, and the information is lost.

【0026】このような場合に、カラーとしての輝度−
頻度分布は頻度順に、青、薄茶、灰、黒の各頻度が現れ
る。輝度レベル順には、薄茶、青、灰、黒となる。従っ
て、青の輝度レベルを黒、その他を白に2値化したのが
図1(c)である。これを仮2値化画像情報とし、その
2値化前の輝度−頻度分布が図1(d)である。黒レベ
ルに2値化する範囲は図1(d)に示すように、青を中
心にして青とその隣の灰の輝度の差分を範囲とする。従
ってこの場合は、青を中心に青と灰の輝度差分の範囲を
黒とすることになり、青のみを黒とし他は白に置き換え
る。
In such a case, the luminance as a color-
In the frequency distribution, frequencies of blue, light brown, gray, and black appear in order of frequency. The order of brightness levels is light brown, blue, gray, and black. Therefore, FIG. 1C shows that the brightness level of blue is binarized to black and the others are binarized to white. This is the temporary binarized image information, and the luminance-frequency distribution before the binarization is shown in FIG. As shown in FIG. 1D, the range in which the black level is binarized is a range in which the difference between the brightness of blue and the brightness of ash adjacent to blue is centered. Therefore, in this case, the range of the difference in brightness between blue and grey, centered on blue, is black, and only blue is replaced with black and the others are replaced with white.

【0027】また、図1(c)からエッジ検出を行った
結果が図1(e)であり、変換の対象とする表示例の図
1(a)からエッジ検出を行った結果が図1(f)であ
る。すると、図1(e)で欠落してしまった道路や文字
は、図1(f)に現れている。そこで、図1(e)と図
1(f)との排他的論理和をとれば、図1(e)また
は、図1(f)の何れか片方にある情報が図2(g)と
して得られる。そこでさらに、図2(g)と前の仮2値
化画像情報の図1(c)との排他的論理和をとれば、陸
の部分の道路や文字が図1(c)に付加されて図2
(h)が得られる。
FIG. 1E shows the result of edge detection from FIG. 1C, and FIG. 1E shows the result of edge detection from FIG. 1A of the display example to be converted. f). Then, the roads and characters missing in FIG. 1E appear in FIG. 1F. Therefore, if the exclusive OR of FIG. 1 (e) and FIG. 1 (f) is taken, the information in either FIG. 1 (e) or FIG. 1 (f) is obtained as FIG. 2 (g). To be Therefore, if the exclusive OR of FIG. 2 (g) and FIG. 1 (c) of the previous temporary binarized image information is taken, roads and characters in the land portion are added to FIG. 1 (c). Figure 2
(H) is obtained.

【0028】図6は、前述した輝度一頻度分布の例を示
しており、図6(a)は黄色単色画面の場合、図6
(b)は白地に黒文字や黒枠の場合、図6(c)は多色
の複雑な表示の場合を模式的に表した図である。各々、
頻度ピーク数は、1、2、10となる。
FIG. 6 shows an example of the above-mentioned luminance-frequency distribution. FIG. 6A shows the case of a yellow single color screen.
FIG. 6B is a diagram schematically showing a case of black characters or a black frame on a white background, and FIG. 6C is a diagram schematically showing a case of multicolor complicated display. Each,
The frequency peak numbers are 1, 2, and 10.

【0029】次に、本発明の2値化処理方法を示すフロ
ーチャートの一例を図4及び図5に示す。STEP1〜
STEP5で輝度分布検出、STEP6〜STEP13
で最多輝度レベルデータ検出、STEP14では第2エ
ッジデータ生成、STEP15では第1エッジデータ生
成、STEP16では第3エッジデータ生成、STEP
17では第3エッジデータと仮2値化画像情報の合成を
行う。
Next, an example of a flowchart showing the binarization processing method of the present invention is shown in FIGS. STEP1
Brightness distribution detection in STEP 5, STEP 6 to STEP 13
In step 14, the second edge data is generated in STEP 14, the first edge data is generated in STEP 15, and the third edge data is generated in STEP 16.
At 17, the third edge data and the temporary binarized image information are combined.

【0030】STEP1スタートから先ず、STEP2
で処理対象画像データ1画面分、例えば図1(a)のデ
ータをビデオRAM408に取り込み、STEP3で輝
度データ変換を行う。輝度データ変換は、例えば処理対
象画像データがRGBデータの場合は、 Y=0.2988×R + 0.5868×G +
0.5868B から輝度成分Yが求められ、YUVデータの場合は、Y
データだけを用いる。
From STEP 1 start, first, STEP 2
Then, one screen of image data to be processed, for example, the data shown in FIG. 1A is loaded into the video RAM 408, and brightness data conversion is performed in STEP3. The luminance data conversion is performed, for example, when the image data to be processed is RGB data, Y = 0.2988 × R + 0.5868 × G +
The luminance component Y is obtained from 0.5868B, and in the case of YUV data, Y
Use only data.

【0031】こうして求めた輝度データをAとする。次
に、STEP4では、1画面分の輝度データから輝度分
布解析を行う。すなわち、横軸に輝度、縦軸に出現頻度
をとり、1画面分の輝度分布を調べる。このSTEPは
図1(b)に相当する。STEP5では、輝度分布解析
の結果から、頻度の最も高いY(Pmax)を基準値
refとする(図1(d))。
The brightness data thus obtained is A. Next, in STEP 4, the luminance distribution analysis is performed from the luminance data for one screen. That is, the luminance is plotted on the horizontal axis and the frequency of appearance on the vertical axis, and the luminance distribution for one screen is examined. This STEP corresponds to FIG. In STEP 5, Y 1 (Pmax) having the highest frequency is set as the reference value ref from the result of the luminance distribution analysis (FIG. 1 (d)).

【0032】STEP6では、輝度分布解析の結果か
ら、頻度の局所ピーク値の数を調べその数が2以上かど
うかをチェックする。Yesであれば、STEP7の範
囲rngの設定に進み、頻度最高の輝度Yと、輝度軸
上でYに最も近い頻度ピークの輝度Yとの差分を範
囲rngとして設定する。例えば図1(d)の場合は、
が海の青の輝度に相当し、灰の輝度がYに相当す
るので、青と灰の各輝度レベルの差分を範囲rngとし
て設定する。一方STEP6でNoであった場合は、頻
度ピークが1であり、1画面全体が単色で構成されてい
る場合にあたる。この場合は、STEP8で最高輝度と
最低輝度の差分を範囲rngとして設定する。
In STEP 6, the number of local peak values of frequency is checked from the result of the luminance distribution analysis, and it is checked whether the number is 2 or more. If Yes, the process proceeds to the setting of the range rng in STEP 7, and the difference between the highest frequency luminance Y 1 and the frequency Y 2 of the frequency peak closest to Y 1 on the luminance axis is set as the range rng. For example, in the case of FIG. 1 (d),
Since Y 1 corresponds to the brightness of blue in the sea and the brightness of ash corresponds to Y 2 , the difference between the brightness levels of blue and ash is set as the range rng. On the other hand, when the result in STEP 6 is No, the frequency peak is 1, which corresponds to the case where the entire screen is composed of a single color. In this case, the difference between the highest luminance and the lowest luminance is set as the range rng in STEP8.

【0033】次に、STEP9では、基準値の輝度Y
が中心輝度、すなわち、最高輝度と最低輝度の差分の1
/2より高いかどうかをチェックし、Yesであれば、
後で使用するパラメータPを0に設定する(STEP1
0)。Noであれば、STEP11でPを1に設定す
る。
Next, in STEP 9, the luminance of the reference value Y 1
Is the central brightness, that is, the difference between the maximum brightness and the minimum brightness is 1.
Check if it is higher than / 2, and if Yes,
The parameter P used later is set to 0 (STEP1
0). If No, P is set to 1 in STEP 11.

【0034】次に、STEP12では、上記において設
定した基準値ref、範囲rng、及びパラメータPを
用い、輝度データAの各データを輝度データがY±
rng/2内であればPにセットし、それ以外のデータ
はPの反転値にセットする。こうして得られた画像デー
タを2値化データBとする。この2値化データBが仮2
値化画像情報となる。
Next, in STEP 12, using the reference value ref, the range rng, and the parameter P set in the above, each data of the brightness data A is converted into the brightness data Y 1 ±.
If it is within rng / 2, it is set to P, and the other data is set to the inverted value of P. The image data thus obtained is called binarized data B. This binary data B is temporary 2
It becomes the digitized image information.

【0035】STEP13では、規定値以上の頻度を持
つピーク数が2以上かどうかをチェックする。規定値
は、例えば最高輝度の頻度の70%以上等と視覚上の効
果から設定する。Yesであれば、STEP14で上記
2値化データBからエッジ検出を行い、2値化データC
とする。この2値化データCが第2エッジデータとな
る。図1では(e)に相当する。
At STEP 13, it is checked whether the number of peaks having a frequency equal to or higher than the specified value is 2 or more. The specified value is set, for example, 70% or more of the frequency of the maximum brightness, or the like, from the visual effect. If Yes, in STEP 14, edge detection is performed from the binarized data B, and the binarized data C is detected.
And This binarized data C becomes the second edge data. In FIG. 1, it corresponds to (e).

【0036】STEP15では、輝度データAからエッ
ジ検出を行い2値化データDとする。これは、図1
(f)に相当し、2値化データDが第1エッジデータと
なる。さらに、STEP16で、2値化データCと2値
化データDの排他的論理和(EXOR)処理を行い、得
られたデータを2値化データEとする。2値化データE
は第3エッジデータとなり、図1(g)に相当する。さ
らに、STEP17で、2値化データBと2値化データ
Eの排他的論理和(EXOR)処理を行い、得られたデ
ータを2値化データFとする。STEP17は、第3エ
ッジデータと仮2値化画像情報の合成を行うこととな
り、その結果の2値化データFは図1(h)に相当す
る。
In STEP 15, edge detection is performed from the brightness data A to obtain binarized data D. This is shown in FIG.
Corresponding to (f), the binarized data D becomes the first edge data. Further, in STEP 16, the exclusive OR (EXOR) processing of the binarized data C and the binarized data D is performed, and the obtained data is set as the binarized data E. Binary data E
Is the third edge data and corresponds to FIG. Further, in STEP 17, the exclusive OR (EXOR) processing of the binarized data B and the binarized data E is performed, and the obtained data is set as the binarized data F. In STEP 17, the third edge data and the temporary binarized image information are combined, and the resulting binarized data F corresponds to FIG.

【0037】これにより、輝度範囲の処理を行った2値
化データCが持つエッジデータと元の輝度データから得
られるエッジデータの2値化データDの排他的論理和処
理で、2値化データDには現れなかったエッジデータが
2値化データEとして得られ、そのデータを領域の2値
化データである2値化データBとの排他的論理和処理
で、所望する2値化データFが得られることとなる。
As a result, the binarized data is obtained by exclusive OR processing of the edge data of the binarized data C that has undergone the luminance range processing and the binarized data D of the edge data obtained from the original luminance data. Edge data that does not appear in D is obtained as binarized data E, and the desired binarized data F is obtained by exclusive OR processing of the data with the binarized data B that is the binarized data of the area. Will be obtained.

【0038】STEP18は、STEP13がNoの場
合を示し、規定値以上の輝度を有するピーク数が1又は
0の場合となり、この場合は2値化データBを出力す
る。STEP19以降は、出力を反転出力とするかどう
かであり、設定又は指示によりそのまま出力するか反転
出力するかをSTEP19で選択し、反転出力の場合は
STEP20、そのまま出力の場合は、STEP21を
経てフローは終了しSTEP22のエンドとなる。
STEP 18 shows the case of No in STEP 13, which is the case where the number of peaks having the brightness equal to or higher than the specified value is 1 or 0. In this case, the binarized data B is output. After STEP 19, it is whether or not the output is inverted output. Depending on the setting or instruction, select whether to output as it is or invert output in STEP 19, and if it is inverted output, STEP 20; if it is output as it is, flow through STEP 21. Ends and the end of STEP 22 is reached.

【0039】上述したように、処理は1画面分の処理で
説明したが、処理の過程の一部にマスキング処理、すな
わち、画像の一部の領域を指定して部分的に上記処理を
行いはめ込みを行うことにより所望の画像を得ることも
可能である。また、処理対象画像が2値画像であった
り、他のフォーマット、例えばベクトル処理データ等で
あっても、前処理により本変換処理に利用可能なフォー
マットに変換し、後処理で他のフォーマットに変換する
ことで、他のフォーマットの画像データにも適用出来
る。
As described above, the process has been described as a process for one screen, but a masking process is performed as a part of the process, that is, a partial region of the image is designated and the above process is partially performed and fitted. It is also possible to obtain a desired image by performing. Further, even if the image to be processed is a binary image or another format such as vector processing data, it is converted into a format usable for the main conversion processing by the pre-processing and converted into another format by the post-processing. By doing so, it can be applied to image data of other formats.

【0040】[0040]

【発明の効果】以上説明したように、本発明の2値化変
換装置では、2値化変換による情報の欠落を少なくでき
ると共に、面積の大きい2値化データ領域においても反
転して表示するため、変換後も視覚的に、より有効な表
示を得ることができる。
As described above, in the binarization conversion device of the present invention, the loss of information due to the binarization conversion can be reduced, and the binary data area having a large area can be displayed inverted. After conversion, it is possible to obtain a more effective display visually.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 少なくとも輝度情報を有する輝度画像情
報を2値化画像情報に変換する2値化変換装置であっ
て、 前記輝度画像情報の輝度分布を検出する輝度分布検出手
段と、 前記輝度分布の最も多い分布を示す輝度レベルである最
多輝度レベルデータを検出する最多輝度レベル情報検出
手段と、 前記最多輝度レベル情報を2値化情報の一方の値に、そ
の他の輝度を有する輝度情報を2値化情報の他方の値に
変換し、仮2値化画像情報を得る変換手段と、 前記輝度画像情報の輝度におけるエッジデータである第
1エッジデータを生成する第1エッジデータ生成手段
と、 前記仮2値化画像情報の2値化情報におけるエッジデー
タである第2エッジデータを生成する第2エッジデータ
生成手段と、 前記第1エッジデータに存在し、前記第2エッジデータ
に存在しないエッジデータである第3エッジデータを生
成する第3エッジデータ生成手段と、 前記仮2値化画像情報上における前記第3エッジデータ
に隣接する2値化情報の一方の値に対し、他方の値で前
記第3エッジデータを前記仮2値化画像情報上に合成す
る合成手段とを有する2値化変換装置。
1. A binarization conversion device for converting luminance image information having at least luminance information into binarized image information, the luminance distribution detecting unit detecting a luminance distribution of the luminance image information, and the luminance distribution. The maximum brightness level information detecting means for detecting the maximum brightness level data which is the brightness level showing the most distribution of the distribution, the maximum brightness level information as one value of the binarized information, and the brightness information having the other brightness as 2 Conversion means for converting into the other value of the binarization information to obtain temporary binarized image information; first edge data generation means for generating first edge data which is edge data at the luminance of the luminance image information; Second edge data generating means for generating second edge data which is edge data in the binary information of the temporary binary image information; and the second edge data existing in the first edge data. Third edge data generating means for generating third edge data that is edge data that does not exist in the data, and one value of the binarized information adjacent to the third edge data on the temporary binarized image information. , A synthesizing means for synthesizing the third edge data with the other value on the temporary binarized image information.
【請求項2】 前記第3エッジデータ生成手段は前記第
1エッジデータと前記第2エッジデータとの排他的論理
和をとることにより第3エッジデータを生成し、 前記合成手段は前記仮2値化画像情報と前記第3エッジ
データとの排他的論理和をとることにより合成すること
を特徴とする請求項1に記載の2値化変換装置。
2. The third edge data generating means generates third edge data by taking an exclusive OR of the first edge data and the second edge data, and the synthesizing means generates the temporary binary value. 2. The binarization conversion device according to claim 1, wherein the binarized conversion device is configured to combine the binarized image information and the third edge data by taking an exclusive OR.
JP8171889A 1996-06-11 1996-06-11 Binarizing converter Pending JPH09330418A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8171889A JPH09330418A (en) 1996-06-11 1996-06-11 Binarizing converter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8171889A JPH09330418A (en) 1996-06-11 1996-06-11 Binarizing converter

Publications (1)

Publication Number Publication Date
JPH09330418A true JPH09330418A (en) 1997-12-22

Family

ID=15931689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8171889A Pending JPH09330418A (en) 1996-06-11 1996-06-11 Binarizing converter

Country Status (1)

Country Link
JP (1) JPH09330418A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013015452A (en) * 2011-07-05 2013-01-24 Ohbayashi Corp Reinforcement range extraction device, reinforcement range extraction method, and reinforcement range extraction program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013015452A (en) * 2011-07-05 2013-01-24 Ohbayashi Corp Reinforcement range extraction device, reinforcement range extraction method, and reinforcement range extraction program

Similar Documents

Publication Publication Date Title
US7227990B2 (en) Color image processing device and color image processing method
JP4732250B2 (en) Information processing apparatus, control method, and computer program
JPH05236260A (en) Picture processor
JP2000149018A (en) Image processing method, and device and recording medium thereof
JP2008005317A (en) Image processor and image processing method, and computer program and recording medium
US20090274368A1 (en) Image correction method and apparatus
JP2004166007A (en) Device, method and program for image processing, and storage medium
JP3040896B2 (en) Image processing device
JP4693289B2 (en) Image compression apparatus, image compression method, program code, and storage medium
JPH09330418A (en) Binarizing converter
JP2001045303A (en) Image thresholding method
JP2972172B2 (en) Halftone area detection method
JP3137702B2 (en) Image processing device
JP3838981B2 (en) Image processing apparatus, image processing method, and image processing program
JP2004260835A (en) Image processor, image processing method, and medium recording image processing control program
JP3737230B2 (en) Color image processing device
JPH11136505A (en) Picture processor and picture processing method
JP4560845B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
JP2972171B2 (en) Halftone area detection method
JP5024006B2 (en) Image processing program and image processing apparatus
JP2009032021A (en) Image processor, image processing method and computer program
JP2778669B2 (en) Halftone area detection method
JP2777378B2 (en) Halftone area detection method
JP3475606B2 (en) Image processing device
JPH10290374A (en) Image converter