JPH0520455A - Picture processing method - Google Patents

Picture processing method

Info

Publication number
JPH0520455A
JPH0520455A JP3173909A JP17390991A JPH0520455A JP H0520455 A JPH0520455 A JP H0520455A JP 3173909 A JP3173909 A JP 3173909A JP 17390991 A JP17390991 A JP 17390991A JP H0520455 A JPH0520455 A JP H0520455A
Authority
JP
Japan
Prior art keywords
area
color
information
candidate
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3173909A
Other languages
Japanese (ja)
Other versions
JP3030126B2 (en
Inventor
Hirokazu Genno
広和 源野
Yoshihisa Fujiwara
義久 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP3173909A priority Critical patent/JP3030126B2/en
Publication of JPH0520455A publication Critical patent/JPH0520455A/en
Application granted granted Critical
Publication of JP3030126B2 publication Critical patent/JP3030126B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To convert the color of an area showing specified information included in a picture. CONSTITUTION:The picture is made into mosaic (step 1), a picture element is binarized (step 2), and the area is enlarged so as to generate a candidate area (step 4). The form of the candidate area is restricted (step 5), and it is judged whether the candidate area shows specified area or not (step 10). The color is converted (step 12) and a picture processing is executed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、入力された画像に含ま
れる特定の情報を示す領域内で色を変換する画像処理方
法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method for converting a color within a region showing specific information contained in an input image.

【0002】[0002]

【従来の技術】従来、画像から特定の情報の候補領域、
例えば、人間の顔の候補領域を選び出す方法としては、
まず、入力された画像情報を肌色であるか否かで、肌色
であるなら1、肌色でないなら0というように2値化
し、2値化された画像情報の隣接する画素の値が1であ
るならば、領域を成長させ、値が1である画素のかたま
りを形成する方法がある。また、顔画像をモザイク化
し、ニューラルネットに入力して多人数の顔を識別する
といった技術が1990年電子情報通信学会秋季全国大
会講演論文集P6−409に開示されている。さらに、
1990年電子情報通信学会秋季全国大会講演論文集P
6−415には、入力された顔画像から特徴を抽出する
ことにより人物を検索する技術が開示されている。
2. Description of the Related Art Conventionally, a candidate area for specific information from an image,
For example, as a method of selecting candidate regions of human faces,
First, depending on whether the input image information is a flesh color or not, it is binarized as 1 if it is flesh color and 0 if it is not flesh color, and the value of the adjacent pixel of the binarized image information is 1. Then, there is a method of growing a region and forming a cluster of pixels having a value of 1. Further, a technique of mosaicing a face image and inputting it to a neural network to identify faces of a large number of people is disclosed in Proceedings of the Autumn Meeting of the Institute of Electronics, Information and Communication Engineers, 1990, P6-409. further,
Proceedings of the 1990 Autumn Meeting of the Institute of Electronics, Information and Communication Engineers P
6-415 discloses a technique of searching for a person by extracting features from an input face image.

【0003】[0003]

【発明が解決しようとする課題】上記従来の技術では、
あらかじめ特定の情報の候補領域として顔画像が入力さ
れることが分かっており、顔を含む画像か否かの判断は
前もって人間が行わなければならず、さらに、顔の候補
領域を選び出す時に使用される領域成長法は、候補領域
の形状が任意の形状に成長し、形状が限定されていない
ため、このような方法では任意の画像に対して自動的に
特定の情報である人物の顔を認識することは不可能であ
った。
SUMMARY OF THE INVENTION In the above conventional technique,
It is known in advance that a face image will be input as a candidate area for specific information, and it is necessary for a human to determine in advance whether or not the image includes a face. Furthermore, it is used when selecting a candidate area for a face. In the area growing method, the shape of the candidate area grows to an arbitrary shape and the shape is not limited, so such a method automatically recognizes a person's face, which is specific information, for an arbitrary image. It was impossible to do.

【0004】[0004]

【課題を解決するための手段】入力された画像情報をモ
ザイク化するステップと、モザイク化された画像情報に
基ずき、画像情報を特定色と特定色以外の色に判別する
ことにより2値化するステップと、2値化されたデータ
に基ずき候補領域を成長させるステップと、候補領域を
特定の形状に限定するステップと、候補領域が特定の情
報を示しているか否かを判定するステップと、特定の情
報であると判定された領域内で色を変換する画像処理を
行うステップとにより画像処理を行う。また、特定の形
状を長方形とし、候補領域が特定の情報を示しているか
否かをニューラルネットワークを用いて判定し、特定の
情報であると判定された領域内で特定の情報が好ましく
見えるような色に変換する。
[Means for Solving the Problems] A step of mosaicing input image information, and a binary value by discriminating the image information into a specific color and a color other than the specific color based on the mosaiced image information. Conversion, growing a candidate region based on binarized data, limiting the candidate region to a specific shape, and determining whether the candidate region shows specific information. The image processing is performed by the step and the step of performing the image processing for converting the color in the area determined to be the specific information. In addition, the specific shape is a rectangle, and it is determined by using a neural network whether or not the candidate area indicates specific information, so that the specific information looks preferable in the area determined to be the specific information. Convert to color.

【0005】[0005]

【作用】本発明によれば、入力された画像情報に含まれ
る特定の情報を示す領域内で色を変換することができ
る。
According to the present invention, the color can be converted within the area indicating the specific information included in the input image information.

【0006】[0006]

【実施例】本発明の実施例は、入力された画像情報から
特定の情報を示す領域として人物の顔のみを抽出し、顔
の肌色を好ましく見せるように色変換するものである。
以下に本発明の実施例を図面を用いて説明する。
In the embodiment of the present invention, only the face of a person is extracted from the input image information as an area showing specific information, and color conversion is performed so that the flesh color of the face can be seen favorably.
Embodiments of the present invention will be described below with reference to the drawings.

【0007】図1に本発明の実施例におけるフローチャ
ートを示す。まず、ビデオカメラ、スキャナ等からR、
G、B各8ビット信号として入力された画像情報は、本
実施例の場合、一般的な高解像度ディスプレイに対応し
た1280ドット×1024ラインを想定しており、約
4メガバイトである。この画像情報をステップ1で10
0ドット×100ラインにモザイク化する処理を行う。
これでデータ量(画素)が約1/131になり処理が高
速化される。
FIG. 1 shows a flowchart in the embodiment of the present invention. First, R from the video camera, scanner, etc.
In the case of the present embodiment, the image information input as 8-bit signals for G and B is assumed to be 1280 dots × 1024 lines corresponding to a general high-resolution display, and is about 4 megabytes. This image information is 10 in step 1
A process of mosaicting into 0 dots × 100 lines is performed.
As a result, the amount of data (pixels) becomes about 1/131, and the processing speed is increased.

【0008】次に、ステップ2で、ステップ1でモザイ
ク化された画像情報のR、G、B値から肌色を選択し、
画素を2値化する。画素の2値化には、
Next, in step 2, a skin color is selected from the R, G and B values of the image information mosaiced in step 1,
The pixel is binarized. To binarize a pixel,

【0009】[0009]

【数1】 [Equation 1]

【0010】により決定され、これに該当するものを
1、該当しないものを0とする。
It is determined according to the above, and those that correspond to this are set to 1, and those that do not correspond to 0.

【0011】次に、ステップ3では、ステップ2で肌色
と判定され2値化された値が1である画素があればステ
ップ4に進み、なければステップ13に進む。
Next, in step 3, if there is a pixel which is judged to be a skin color in step 2 and has a binarized value of 1, the process proceeds to step 4, and otherwise proceeds to step 13.

【0012】次に、ステップ4で、肌色と判定された画
素を単純領域拡張法に基ずき拡張させ、候補領域とす
る。
Next, in step 4, the pixels determined to be flesh-colored are expanded based on the simple area expansion method to be candidate areas.

【0013】ここで、図2を用いてステップ4での単純
領域拡張法を説明すると、ステップ41で画像でどの領
域にも属していない2値化された値が1である画素を探
す。
Here, the simple area expansion method in step 4 will be described with reference to FIG. 2. In step 41, a pixel whose binarized value is 1 which does not belong to any area in the image is searched.

【0014】次にステップ42では、新たに2値化され
た値が1である画素があるか否かを判定する。新たに2
値化された値が1である画素があれば、ステップ43に
進み、なければステップ44に進み領域を拡張する処理
を終了する。
Next, at step 42, it is judged whether or not there is a pixel whose newly binarized value is 1. 2 new
If there is a pixel whose binarized value is 1, the process proceeds to step 43, and if not, the process proceeds to step 44, and the process of expanding the region is completed.

【0015】次に、ステップ43では、その画素の2値
化された値1と、その近傍で、どの領域にもまだ属して
いない画素の2値化された値を比較し、値が1である画
素があればステップ45に進む。なければステップ41
に戻る。
Next, in step 43, the binarized value 1 of the pixel is compared with the binarized value of a pixel which does not yet belong to any region in the vicinity thereof, and the value is 1 If there is a pixel, the process proceeds to step 45. Otherwise step 41
Return to.

【0016】ステップ45では、ステップ43で探し出
された画素を1つの領域として統合しラベルを付加し、
ステップ46に進む。
In step 45, the pixels found in step 43 are integrated into one area and a label is added,
Go to step 46.

【0017】次に、ステップ46では、ステップ45で
新たに統合された画素に注目する。そして、ステップ4
3に戻り、ステップ43での操作を繰り返す。新たに統
合する画素がなければ、ステップ41に戻って新たな画
素を探す。このようにして、どの領域にも属していない
2値化された値が1である画素がなくなるまで処理を繰
り返し、肌色と判定された領域を拡張し、候補領域とす
る。
Next, in step 46, attention is paid to the pixels newly integrated in step 45. And step 4
Returning to step 3, the operation in step 43 is repeated. If there is no new pixel to be integrated, the process returns to step 41 to search for a new pixel. In this way, the process is repeated until there is no pixel whose binarized value is 1 that does not belong to any region, and the region determined to be skin color is expanded to be a candidate region.

【0018】以上のようにしてステップ4で得られた候
補領域が顔を示す領域であるか否かを判定するためにニ
ューラルネットワークに入力するのであるが、このまま
では得られた候補領域の形状が任意の形状でありニュー
ラルネットワークに入力できない。そこで、ステップ5
で、候補領域の形状を長方形に限定する。その具体例を
図3を用いて説明する。図において、○で示された領域
が領域拡張法により得られた候補領域である。この候補
領域に対して、所定の割合(ここでは75%)以上重合
する最も大きな斜線で示す長方形を選んだ。即ち、長方
形の画素数をn、長方形内に含まれる候補領域の画素数
をPとした場合、顔を示す領域であるか否かを判定され
る候補領域は、
As described above, the candidate area obtained in step 4 is input to the neural network in order to determine whether or not it is an area showing a face. It has an arbitrary shape and cannot be input to the neural network. Therefore, step 5
Then, the shape of the candidate area is limited to a rectangle. A specific example will be described with reference to FIG. In the figure, the area indicated by a circle is a candidate area obtained by the area expansion method. For this candidate region, the rectangle shown by the largest diagonal line that overlaps at a predetermined rate (here, 75%) or more was selected. That is, when the number of pixels in the rectangle is n and the number of pixels in the candidate region included in the rectangle is P, the candidate region for which it is determined whether or not the region is a face is

【0019】[0019]

【数2】 [Equation 2]

【0020】により決定される。Is determined by

【0021】次に、ステップ5で得られた候補領域が顔
を示す領域であるか否かを判定するためにニューラルネ
ットワークに候補領域のデータを入力するのであるが、
候補領域のデータを入力する際に以下の条件を設けた。
即ち、ステップ6で、候補領域の一辺の画素数が10画
素未満であれば顔を示す領域ではないと判断してステッ
プ7に進み、10画素以上であればステップ8に進む。
Next, in order to determine whether or not the candidate area obtained in step 5 is an area showing a face, the data of the candidate area is input to the neural network.
The following conditions were set when inputting the data of the candidate area.
That is, in step 6, if the number of pixels on one side of the candidate area is less than 10 pixels, it is determined that the area does not represent a face, and the process proceeds to step 7, and if it is 10 pixels or more, the process proceeds to step 8.

【0022】ステップ7では、新たな候補領域に注目
し、新たな候補領域があればステップ5に戻り、なけれ
ばステップ9に進む。
At step 7, attention is paid to the new candidate area, and if there is a new candidate area, the process returns to step 5, otherwise to step 9.

【0023】ステップ9では、顔を示す領域と判断さ
れ、フラグが立てられている領域があればステップ12
に進み、なければステップ13に進む。
In step 9, it is determined that the area is a face area, and if there is an area in which a flag is set, step 12
If not, go to step 13.

【0024】ステップ8では、候補領域の長方形の一辺
の画素数が10画素以上ならRGB8ビットデータから
明度8ビット値に変換後、線形補間により10画素に正
規化することにより、候補領域を10×10画素に正規
化し、ステップ9でニューラルネットワークに入力す
る。
In step 8, if the number of pixels on one side of the rectangle of the candidate area is 10 pixels or more, the candidate area is converted into 10 pixels by linear interpolation after converting from RGB 8-bit data to an 8-bit brightness value. Normalized to 10 pixels and input to the neural network in step 9.

【0025】ここで、ステップ10で候補領域のデータ
が入力されるニューラルネットワークについて説明す
る。ニューラルネットワークは、10×10=100画
素の8ビット明度値(白黒データ)が入力され、顔を示
す領域であるか否かを示す係数f(0≦f≦1)を出力
する3層構造バックプロパゲ−ションニューラルネット
ワークとした。この3層構造バックプロパゲ−ションニ
ューラルネットワークの学習は、あらかじめ標準的な数
種の顔のデータを教師信号として入力し、教師信号との
二乗誤差が最小となるように3層構造バックプロパゲ−
ションニューラルネットワークの内部係数を修正したも
のである。従って、学習済みのニューラルネットワーク
は、100入力1出力のブラックボックスとして使用で
きる。
The neural network to which the data of the candidate area is input in step 10 will be described. The neural network is a three-layer backpropagator that receives an 8-bit brightness value (black and white data) of 10 × 10 = 100 pixels and outputs a coefficient f (0 ≦ f ≦ 1) indicating whether or not it is a face area. -A neural network is used. The learning of the three-layer structure back propagation neural network is performed by inputting several kinds of standard face data as teacher signals in advance, and the three-layer structure back propagation is made to minimize the square error with the teacher signals.
This is a modification of the internal coefficient of the neural network. Therefore, the learned neural network can be used as a black box with 100 inputs and 1 output.

【0026】ステップ10では、以上のように説明した
3層構造バックプロパゲ−ションニューラルネットワー
クに10×10の候補領域のデータを入力し出力fが得
られるが、候補領域が顔を示す領域であるか否かの最終
判断は設定した閾値と比較して行う。即ち、閾値をTh
としたとき、
In step 10, the data of 10 × 10 candidate regions are input to the three-layer structure backpropagation neural network described above and the output f is obtained. Is the candidate region a face region? The final decision as to whether or not to make a decision is made by comparison with the set threshold value. That is, the threshold is Th
And when

【0027】[0027]

【数3】 [Equation 3]

【0028】で候補領域が顔を示す領域か否かが決定さ
れ、候補領域が顔を示す領域と判断されればステップ1
1に進み、顔を示す領域と判断されなければ、ステップ
7に戻り、新たな候補領域に注目する。
It is determined whether or not the candidate area is an area showing a face, and if it is judged that the candidate area is an area showing a face, step 1
If the area is not judged to be a face area, the process returns to step 7 to focus on a new candidate area.

【0029】次に、ステップ11では、顔を示す領域と
判断された領域にフラグを立てる。そして、ステップ7
に進む。
Next, at step 11, a flag is set in the area determined to be the area showing the face. And step 7
Proceed to.

【0030】次に、ステップ7で、新たに注目する候補
領域がなければステップ9に進み、ステップ9で、フラ
グが立てられている領域があればステップ12に進み、
なければステップ13に進む。
Next, in step 7, if there is no new candidate region to be noticed, the process proceeds to step 9, and if there is a flagged region in step 9, the process proceeds to step 12.
If not, proceed to step 13.

【0031】ステップ12では、フラグが立てられてい
る領域について、肌色が好ましく見えるような画像処理
を行う。そして、ステップ13に進み、画像処理を終了
する。
In step 12, image processing is performed so that the flesh color can be seen favorably in the flagged area. Then, the process proceeds to step 13 to end the image processing.

【0032】その後、ビデオプリンタ、複写機、あるい
はテレビ受像機などから画像を出力する。
After that, the image is output from a video printer, a copying machine, a television receiver, or the like.

【0033】以上のような画像処理を行うことによっ
て、特定の情報を示す領域(実施例では人物の顔)を画
像から選びだし、その特定の情報を示す領域の色を変換
(例えば、特定の情報が好ましく見えるような色)する
画像処理をし、ビデオプリンタ、複写機、あるいはテレ
ビ受像機などから画像を出力することができる。
By performing the image processing as described above, an area (specifically, a human face) indicating specific information is selected from the image, and the color of the area indicating the specific information is converted (for example, specific area). An image can be output from a video printer, a copying machine, a television receiver, or the like by performing image processing so that information can be viewed in a desirable color.

【0034】[0034]

【発明の効果】本発明によれば、入力された画像情報か
ら、特定の情報を示す領域を画像から選びだし、その特
定の情報を示す領域の色を変換する画像処理をすること
ができる。さらに、色の変換を特定の情報が好ましく見
える色に変換することによって画像処理後の画像がより
良く見えるようになる。
According to the present invention, it is possible to perform image processing for selecting a region indicating specific information from an image from input image information and converting a color of the region indicating the specific information. Further, the color conversion is converted into a color in which specific information is preferably viewed so that the image after image processing can be better viewed.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例を説明するためのフローチャー
トである。
FIG. 1 is a flow chart for explaining an embodiment of the present invention.

【図2】本発明の実施例における領域拡張法を説明する
ためのフロ−チャ−トである。
FIG. 2 is a flowchart for explaining a region expansion method in the embodiment of the present invention.

【図3】本発明の実施例における候補領域の形状の限定
を説明するための図である。
FIG. 3 is a diagram for explaining the limitation of the shape of a candidate area according to the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 画像をモザイク化するステップ 2 画素を2値化するステップ 4 候補領域を成長させるステップ 5 候補領域を特定の形状に限定するステップ 10 候補領域が特定の情報を示しているか否かを判定
するステップ 12 色を変換する画像処理を行うステップ
1 Step of mosaicing an image 2 Step of binarizing pixels 4 Step of growing a candidate region 5 Step of limiting a candidate region to a specific shape 10 Step of determining whether a candidate region shows specific information Steps of image processing to convert 12 colors

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 入力されたカラー画像情報をモザイク化
するステップと、モザイク化されたカラー画像情報に基
ずき、前記カラ−画像情報を特定色と前記特定色以外の
色に判別することにより2値化するステップと、前記2
値化されたデータに基ずき候補領域を成長させるステッ
プと、前記候補領域を特定の形状に限定するステップ
と、前記候補領域が特定の情報を示しているか否かを判
定するステップと、特定の情報であると判定された領域
の色を変換する画像処理を行うステップからなる画像処
理方法。
1. A step of mosaicing input color image information, and determining the color image information into a specific color and a color other than the specific color based on the mosaiced color image information. Binarizing step, and the above 2
Growing a candidate region based on the binarized data; limiting the candidate region to a specific shape; determining whether the candidate region indicates specific information; The image processing method comprising the step of performing image processing for converting the color of the area determined to be the information.
【請求項2】 特定の形状を長方形としたことを特徴と
する請求項1記載の画像処理方法。
2. The image processing method according to claim 1, wherein the specific shape is a rectangle.
【請求項3】 候補領域が特定の情報を示しているか否
かをニューラルネットワークを用いて判定することを特
徴とする請求項1記載の画像処理方法。
3. The image processing method according to claim 1, wherein whether or not the candidate area indicates specific information is determined by using a neural network.
【請求項4】 特定の情報であると判定された領域内で
特定の情報が好ましく見えるような色に変換する画像処
理を行うことを特徴とする請求項1記載の画像処理方
法。
4. The image processing method according to claim 1, wherein image processing is performed to convert the color into a color in which the specific information is preferably viewed in the area determined to be the specific information.
JP3173909A 1991-07-15 1991-07-15 Image processing method Expired - Fee Related JP3030126B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3173909A JP3030126B2 (en) 1991-07-15 1991-07-15 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3173909A JP3030126B2 (en) 1991-07-15 1991-07-15 Image processing method

Publications (2)

Publication Number Publication Date
JPH0520455A true JPH0520455A (en) 1993-01-29
JP3030126B2 JP3030126B2 (en) 2000-04-10

Family

ID=15969331

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3173909A Expired - Fee Related JP3030126B2 (en) 1991-07-15 1991-07-15 Image processing method

Country Status (1)

Country Link
JP (1) JP3030126B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07231733A (en) * 1993-09-30 1995-09-05 Hirobumi Matsuo Apparatus for discriminating fish species
JPH11136498A (en) * 1997-08-29 1999-05-21 Eastman Kodak Co Computer program matter for red eye detection
WO2013021823A1 (en) * 2011-08-05 2013-02-14 株式会社メガチップス Image recognition apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07231733A (en) * 1993-09-30 1995-09-05 Hirobumi Matsuo Apparatus for discriminating fish species
JPH11136498A (en) * 1997-08-29 1999-05-21 Eastman Kodak Co Computer program matter for red eye detection
WO2013021823A1 (en) * 2011-08-05 2013-02-14 株式会社メガチップス Image recognition apparatus
JP2013037488A (en) * 2011-08-05 2013-02-21 Mega Chips Corp Image recognition device
US9361534B2 (en) 2011-08-05 2016-06-07 Megachips Corporation Image recognition apparatus using neural network processing

Also Published As

Publication number Publication date
JP3030126B2 (en) 2000-04-10

Similar Documents

Publication Publication Date Title
EP0564201B1 (en) Image processing apparatus and method
US6226400B1 (en) Defining color borders in a raster image by identifying and breaking contrast ties
US7359568B2 (en) Image processing apparatus and image processing method
US7170647B2 (en) Document processing apparatus and method
CN105701489B (en) Novel digital extraction and identification method and system
US6924909B2 (en) High-speed scanner having image processing for improving the color reproduction and visual appearance thereof
US6396947B1 (en) Placing tags on surface string sequences representing a raster image
US7620246B2 (en) Method and apparatus for image processing
JP2000181992A (en) Color document image recognition device
JPH08317197A (en) Image processing unit
US8411940B2 (en) Method for fast up-scaling of color images and method for interpretation of digitally acquired documents
US6324300B1 (en) Defining color borders in a raster image
JP3030126B2 (en) Image processing method
US6983077B2 (en) Image processor
EP1229497B1 (en) Run length based connected components and contour following for enhancing the performance of circled region extraction algorithm
JP3073381B2 (en) Image processing method and apparatus
JP3783815B2 (en) Image processing device
JP3045555B2 (en) Binarization processing method for multi-tone image information
JP3183787B2 (en) Halftone area determination device
JPH11136505A (en) Picture processor and picture processing method
JP3564216B2 (en) Image processing device
JP2002290763A (en) Image processing method and image processing device
JP2001351068A (en) Device and method for recognizing character, device and method for processing image and computer readable recording medium
JPH0660220A (en) Area extracting method for document image
JPH03153167A (en) Character area separation system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees