JPH06195460A - Image extraction system - Google Patents

Image extraction system

Info

Publication number
JPH06195460A
JPH06195460A JP4346278A JP34627892A JPH06195460A JP H06195460 A JPH06195460 A JP H06195460A JP 4346278 A JP4346278 A JP 4346278A JP 34627892 A JP34627892 A JP 34627892A JP H06195460 A JPH06195460 A JP H06195460A
Authority
JP
Japan
Prior art keywords
pixel
area
image
edge
identifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP4346278A
Other languages
Japanese (ja)
Inventor
Kenichi Ozasa
健一 大笹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP4346278A priority Critical patent/JPH06195460A/en
Publication of JPH06195460A publication Critical patent/JPH06195460A/en
Withdrawn legal-status Critical Current

Links

Abstract

PURPOSE:To provide a system which is capable of performing an image extraction processing without using an exclusive processor for image processing and with using a simple program. CONSTITUTION:In a device where image data is converted into a digital signal and an arbitrary image edition processing is performed, this system is an image extraction system provided with an image memory 1 storing the image of a digital signal form every frame, an edge extraction means 4 analyzing each picture element of image data and discriminating whether it is the picture element of an edge part, and an image area extraction means 5 analyzing image data to be divided into plural areas by an edge and discriminating the area to which each picture element belongs.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、任意に撮像される画像
データに、合成等の編集処理を施す画像処理装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for subjecting arbitrarily picked-up image data to edit processing such as composition.

【0002】[0002]

【従来の技術】近年、映像処理技術の著しい進歩によ
り、種々の映像処理を駆使した装置が開発され、更にこ
れらの映像処理を行う処理装置の高速化、且つ小型化が
要求されている。
2. Description of the Related Art In recent years, due to remarkable progress in video processing technology, devices utilizing various video processing have been developed, and further, a processing device for performing these video processing has been required to be faster and smaller.

【0003】上記した映像処理としては、例えば、撮像
画像から任意の被写体を抽出し、色変更、回転、拡大/
縮小等を行う処理、または抽出した被写体を他の画像デ
ータに合成する処理、撮属画像にグラフィックス/アニ
メーション等を合成する処理、画質修正処理等が知られ
ている。これらの映像処理は、前処理として画像抽出を
行う必要がある。すなわち、入力時の撮像データは被写
体を濃淡、色等により表すアナログ信号であり、このア
ナログ信号をCRT等に出力した場合、個々の被写体の
輪郭部分が不明瞭となる。このため、被写体の輪郭を強
調させるための画像抽出処理が必要となる。
As the above-mentioned video processing, for example, an arbitrary subject is extracted from a picked-up image, and color change, rotation, enlargement / enlargement /
Known processes include a process of performing reduction, a process of combining the extracted subject with other image data, a process of combining a captured image with graphics / animation, an image quality correction process, and the like. In these video processing, it is necessary to perform image extraction as preprocessing. That is, the image pickup data at the time of input is an analog signal that represents a subject by shading, color, and the like, and when this analog signal is output to a CRT or the like, the contour portion of each subject becomes unclear. Therefore, image extraction processing for enhancing the contour of the subject is required.

【0004】さらに、画像抽出処理としては、アナログ
信号形式の撮像データをデジタル信号形式のデータへ変
換する場合に、任意に設定される閾値に基づいて各画素
の値を2値化する方法が知られている。詳細には、任意
に設定される閾値と各画素の濃度値を比較し、濃度値が
閾値より大きい画素の値を”1”、濃度値が閾値より小
さい画素の値を”0”と変換する。
Further, as the image extraction processing, there is known a method of binarizing the value of each pixel based on an arbitrarily set threshold value when converting the image pickup data in the analog signal format into the data in the digital signal format. Has been. Specifically, the threshold value set arbitrarily is compared with the density value of each pixel, and the value of the pixel whose density value is larger than the threshold value is converted to “1”, and the value of the pixel whose density value is smaller than the threshold value is converted to “0”. .

【0005】[0005]

【発明が解決しようとする課題】ところで、画像処理シ
ステムとしては、画像処理専用のプログラムにより汎用
プロセッサを動作させて画像処理を行うシステムが知ら
れている。そして、最近では上記のシステムにおいて画
像処理専用メモリを付加して表示・処理・入力等のバッ
ファメモリとしての機能を強化したシステム、処理量の
多い画像処理に対応した画像処理専用プロセッサを付加
して処理能力の向上を図ったシステムが知られている。
さらに、種々の画像処理を組み合わせたシステムの高速
化要求に応じて、画像専用メモリ及び画像専用プロセッ
サの双方を備えたシステムが利用されるようになってき
ている。
By the way, as an image processing system, a system is known in which a general-purpose processor is operated by a program dedicated to image processing to perform image processing. Recently, in the above system, an image processing dedicated memory was added to enhance the function as a buffer memory for display, processing, input, etc., and an image processing dedicated processor compatible with a large amount of image processing was added. A system that improves the processing capacity is known.
Further, in response to a demand for speeding up of a system in which various image processes are combined, a system including both an image dedicated memory and an image dedicated processor has come to be used.

【0006】ここで、画像処理の高速化を図る場合に、
画像処理の前処理である画像抽出処理を高速に行う必要
が生じる。しかし、上記の画像処理及び画像抽出処理を
高速に行える画像処理専用プロセッサを用いるにはコス
トがかかる上に、装置体系が複雑になるという欠点があ
る。
Here, in order to speed up image processing,
It is necessary to perform image extraction processing, which is a preprocessing of image processing, at high speed. However, there is a drawback in that the use of the image processing dedicated processor capable of performing the above-described image processing and image extraction processing at high speed is costly and the apparatus system is complicated.

【0007】そこで、本発明は、前記問題点に鑑みてな
されたものであり、画像処理専用プロセッサを用いず、
簡略なプログラムと汎用プロセッサとにより画像抽出の
高速化を図ることを課題とする。
Therefore, the present invention has been made in view of the above problems, and does not use an image processing dedicated processor,
An object is to speed up image extraction by using a simple program and a general-purpose processor.

【0008】[0008]

【課題を解決するための手段】本発明は、前記課題を解
決するために以下のようにした。これを図1の原理図に
基づいて説明する。
In order to solve the above-mentioned problems, the present invention is as follows. This will be described based on the principle diagram of FIG.

【0009】本発明にかかる画像抽出方式では、画像デ
ータをデジタル信号に変換し、任意の画像編集処理を施
す装置において、画像メモリ1、エッジ抽出手段4、画
像領域抽出手段5を備える。
In the image extracting method according to the present invention, an apparatus for converting image data into a digital signal and performing an arbitrary image editing process includes an image memory 1, an edge extracting means 4 and an image area extracting means 5.

【0010】前記した画像メモリ1は、フレーム単位に
画像データを格納するものである。エッジ抽出手段4
は、各フレームの画像データを、画素単位に解析してエ
ッジ部分の画素であるか否かを識別する。そして、エッ
ジ部分の画素とエッジ以外の画素には異なるエッジ識別
子を付加する。
The image memory 1 described above stores image data in frame units. Edge extraction means 4
The image data of each frame is analyzed on a pixel-by-pixel basis to identify whether or not the pixel is an edge portion pixel. Then, different edge identifiers are added to the pixels of the edge portion and the pixels other than the edge.

【0011】画像領域抽出手段5は、エッジ抽出により
複数の画像データを画素単位に解析する。そして、任意
の画素が何れの領域に属しているかを判別し、個々の領
域を特定する領域識別子を付加する。
The image area extracting means 5 analyzes a plurality of image data in pixel units by edge extraction. Then, it is determined which region an arbitrary pixel belongs to, and a region identifier for identifying each region is added.

【0012】また、領域抽出手段5は、画像データを走
査し、各画素のエッジ識別子に基づいてエッジ部分の画
素であるか否かを判別する判別部5aと、エッジ以外の
画素を走査すると共に、走査対象の画素に隣接する画素
のエッジ識別子及び領域識別子を参照して当該画素の属
する領域を判別する領域判別部5bを有するようにして
もよい。
Further, the area extracting means 5 scans the image data and, based on the edge identifier of each pixel, determines whether or not the pixel is an edge portion pixel, and scans pixels other than the edge. It is also possible to have an area discrimination unit 5b that discriminates the area to which the pixel belongs by referring to the edge identifier and the area identifier of the pixel adjacent to the pixel to be scanned.

【0013】[0013]

【作用】本発明によれば、エッジ抽出手段4は、画像メ
モリ1から1フレーム毎に画像データを読み出す。そし
て、この画像データを画素単位に解析してエッジ部分の
画素であるか否かを判別し、エッジ部分の画素にはエッ
ジ識別子として例えば”0”を付加すると共に、エッジ
以外の画素にはエッジ識別子として例えば”−1”を付
加する。
According to the present invention, the edge extracting means 4 reads the image data from the image memory 1 for each frame. Then, this image data is analyzed pixel by pixel to determine whether or not the pixel is an edge portion pixel, and for example, "0" is added to the edge portion pixel as an edge identifier, and the pixels other than the edge are edged. For example, "-1" is added as an identifier.

【0014】次に、画像領域抽出部5は、エッジ抽出後
の画像データを解析し、任意の画素が何れの領域に属し
ているかを判別する。そしてエッジ以外の画素には、そ
の画素が属する領域を個々に特定する領域識別子を付加
する。これにより、画像編集を行う際に、希望の領域を
領域識別子に基づいて取り出し可能となる。
Next, the image area extracting section 5 analyzes the image data after edge extraction, and determines which area an arbitrary pixel belongs to. Then, to the pixels other than the edge, a region identifier for individually specifying the region to which the pixel belongs is added. As a result, when the image is edited, the desired area can be taken out based on the area identifier.

【0015】ここで、各画素にエッジ識別子と領域識別
子の双方を付加するした場合、画像データ全体のデータ
量が増加するので、領域識別子の付加する際はエッジ識
別子を領域識別子へ書き換えるようにすると好ましい。
Here, if both the edge identifier and the area identifier are added to each pixel, the data amount of the entire image data increases. Therefore, when adding the area identifier, the edge identifier is rewritten to the area identifier. preferable.

【0016】また、画像抽出部5の詳細な動作過程を以
下に示す。画像抽出部5では、エッジ抽出後の画像デー
タを判別部5aにより各画素のエッジ識別子を判別させ
る。すなわちエッジ部分の画素であるか否かを判別す
る。
The detailed operation process of the image extraction unit 5 will be described below. In the image extraction unit 5, the discrimination unit 5a discriminates the edge identifier of each pixel from the image data after the edge extraction. That is, it is determined whether or not the pixel is an edge portion pixel.

【0017】ここで、エッジ以外の画素の場合には、領
域判別部5bは当該画素に隣接する画素の領域識別子を
参照して当該画素の属する領域を判別すると共に、その
領域を特定する領域識別子を付加する。
Here, in the case of a pixel other than the edge, the area discriminating unit 5b discriminates the area to which the pixel belongs by referring to the area identifier of the pixel adjacent to the pixel and the area identifier for specifying the area. Is added.

【0018】ここで、前記領域識別子を任意に更新され
る計数値とした場合、領域判別部5bは、任意の画素の
領域を識別する際に、走査対象の画素に隣接する画素の
エッジ識別子または領域識別子を参照する。このとき、
参照すべき画素がエッジ部分の画素である場合およびま
たは参照すべき画素に領域識別子が付加されていない場
合(すなわち当該画素が未走査領域の画素の場合)に
は、前記領域識別子を更新して当該画素に付加する。こ
れにより、各領域を特定する領域識別子の付加を容易に
行うことができる。
Here, when the area identifier is a count value that is arbitrarily updated, the area discriminating unit 5b identifies the area of an arbitrary pixel by identifying the edge identifier of the pixel adjacent to the pixel to be scanned or Refer to the area identifier. At this time,
If the pixel to be referenced is an edge pixel and / or if the region identifier is not added to the pixel to be referenced (that is, if the pixel is a pixel in the unscanned region), the region identifier is updated. Add to the pixel. As a result, it is possible to easily add an area identifier that specifies each area.

【0019】さらに、未走査領域の最初の画素の位置情
報、例えば二次元座標軸上の座標値と共に当該領域の領
域識別子を登録する画像領域登録テーブルを設けるよう
にしてもよい。特定領域の抽出を行う場合、処理装置は
この画像領域登録テーブルを参照することにより、容易
に特定領域の抽出を行える。
Further, an image area registration table may be provided for registering the position information of the first pixel of the unscanned area, for example, the coordinate value on the two-dimensional coordinate axis and the area identifier of the area. When extracting the specific area, the processing device can easily extract the specific area by referring to the image area registration table.

【0020】[0020]

【実施例】以下に本発明の具体的な実施例について説明
する。 (実施例1)図2は、本実施例1における画像抽出装置
7の構成ブロック図である。
EXAMPLES Specific examples of the present invention will be described below. (Embodiment 1) FIG. 2 is a configuration block diagram of the image extraction device 7 in the present embodiment 1.

【0021】同図において、本実施例1における画像抽
出装置7は、A/D変換部8、画像メモリ9、メモリ1
0、画像抽出処理部11から構成する。A/D変換部8
は、撮像部6により撮像される画像データをアナログ信
号形式の信号からデジタル信号形式のデータに変換する
ものである。
In FIG. 1, the image extracting apparatus 7 according to the first embodiment includes an A / D converter 8, an image memory 9, and a memory 1.
0, the image extraction processing unit 11. A / D converter 8
Is for converting the image data picked up by the image pickup unit 6 from a signal in an analog signal format to data in a digital signal format.

【0022】画像メモリ9は、デジタル信号形式の画像
データをフレーム単位に格納するものである。画像抽出
処理部11は、例えば汎用プロセッサであり、画像メモ
リ9からフレーム単位に画像データを読み出し、画像抽
出処理を施す。この詳細な説明は後述する。
The image memory 9 stores image data in digital signal format in frame units. The image extraction processing unit 11 is, for example, a general-purpose processor, reads image data from the image memory 9 in frame units, and performs image extraction processing. This detailed description will be given later.

【0023】メモリ10は、画像抽出処理にかかる制御
情報、すなわち画像抽出処理部11の制御プログラムを
格納し、この具体的な説明は後述する。図3に本実施例
1におけるメモリ10の内部構成例を示す。
The memory 10 stores the control information for the image extraction processing, that is, the control program of the image extraction processing unit 11, and a detailed description thereof will be described later. FIG. 3 shows an example of the internal configuration of the memory 10 according to the first embodiment.

【0024】本実施例1においては、エッジ抽出にかか
る処理プログラムを格納するエッジ抽出プログラム格納
メモリ10a、及び画像領域抽出にかかる処理プログラ
ムを格納する領域抽出プログラム格納メモリ10bを備
える。
The first embodiment includes an edge extraction program storage memory 10a for storing a processing program for edge extraction, and an area extraction program storage memory 10b for storing a processing program for image area extraction.

【0025】次に、図4に本実施例1における画像抽出
処理部11の内部構成を示す。同図において、画像抽出
処理部11は、エッジ抽出部11a、領域抽出部11
b、画像領域登録テーブル11c、再割当管理情報格納
部11d、カウンタ11eを備える。
Next, FIG. 4 shows the internal configuration of the image extraction processing unit 11 in the first embodiment. In the figure, the image extraction processing unit 11 includes an edge extraction unit 11a and a region extraction unit 11
b, an image area registration table 11c, a reallocation management information storage unit 11d, and a counter 11e.

【0026】前記したエッジ抽出部11aは、前記エッ
ジ抽出プログラムに基づいて任意の画像データからエッ
ジの抽出を行うものであり、各画素に対してエッジ部分
の画素か否かを示すエッジ識別子を付加する。
The edge extraction unit 11a extracts edges from arbitrary image data based on the edge extraction program, and adds an edge identifier indicating whether each pixel is an edge portion pixel or not. To do.

【0027】領域抽出部11bは、エッジ抽出後の画像
データに対して、前記の領域抽出プログラムに基づいて
各画素の領域を識別するものであり、各画素に対して個
々の領域を特定する領域識別子を付加する。
The area extracting unit 11b is for identifying the area of each pixel in the image data after the edge extraction based on the area extracting program, and is an area for specifying an individual area for each pixel. Add an identifier.

【0028】画像領域登録テーブル11cは、各領域の
開始位置情報及びその領域を特定する領域識別子を登録
するテーブルであり、この具体的な説明は後述する。再
割当管理情報登録部11dは、再割当処理を行う際に、
再割当処理終了時のリスタートポイント、すなわち領域
抽出処理再開位置情報を格納するものであり、この具体
的な説明は後述する。
The image area registration table 11c is a table for registering start position information of each area and an area identifier for specifying the area, and a detailed description thereof will be described later. The reallocation management information registration unit 11d, when performing the reallocation process,
The restart point at the end of the reallocation processing, that is, the area extraction processing restart position information is stored, and a specific description thereof will be described later.

【0029】カウンタ11eは領域抽出部11bの制御
の基にインクリメントされる加算計数装置であり、初期
設定値を”1”とする。本実施例1における領域識別子
は、このカウンタの計数値とし、新規領域を抽出した際
に1インクリメントする。
The counter 11e is an addition counting device that is incremented under the control of the area extracting unit 11b and has an initial setting value of "1". The area identifier in the first embodiment is the count value of this counter, and is incremented by 1 when a new area is extracted.

【0030】ここで、本実施例1におけるエッジ識別子
は、エッジ部分の画素に”0”、エッジ以外の画素に
は”−1”を付加する。図5に本実施例1におけるエッ
ジ抽出後の画像データ例、すなわちドットマトリックス
表を示す。
Here, in the edge identifier according to the first embodiment, "0" is added to the pixel of the edge portion and "-1" is added to the pixels other than the edge. FIG. 5 shows an example of image data after edge extraction in the first embodiment, that is, a dot matrix table.

【0031】同図は、行×列=8×8ドットの画像デー
タのドットマトリックス表であり、エッジ抽出部11a
は、エッジ抽出プログラム格納メモリ10aからエッジ
抽出プログラムを読み込んで、このエッジ抽出プログラ
ムに基づいて画像メモリ9から任意の画像データを読み
出す。そして、各画素を走査して個々の画素でエッジ部
分の画素であるか否かを判別する。
This figure is a dot matrix table of image data of 8 rows × 8 columns = 8 × 8 dots.
Reads the edge extraction program from the edge extraction program storage memory 10a, and reads arbitrary image data from the image memory 9 based on the edge extraction program. Then, each pixel is scanned to determine whether each pixel is an edge pixel.

【0032】ここで、エッジ部分の画素には”0”を設
定し、それ以外の部分の画素に”−1”を設定する。次
に、領域抽出部11bは、領域抽出プログラム格納メモ
リ10bから領域抽出プログラムを読み込む。そして、
このプログラムに基づいてエッジ抽出後の画像データを
画素単位に走査する。本実施例1では、画像データの左
上、すなわち第0行且つ第0列(以下、(0、0)と記
す)の画素から行に沿って右方向へ走査を行うものとす
る。例えば、第n行に関しては、(n、0)→(n、
1)→(n、2)→・・・・・→(n、6)→(n、
7)の順序に走査を行う。(n、7)の次には改行して
(n+1、0)から走査を再開する。尚、走査対象はエ
ッジ以外の画素とし、上記の図5において第0行では、
(0、2)及び(0、5)の画素を除いた(0、0)→
(0、1)→(0、3)→(0、4)→(0、6)→
(0、7)の順序で走査を行う。
Here, "0" is set to the pixels in the edge portion, and "-1" is set to the pixels in the other portions. Next, the area extraction unit 11b reads the area extraction program from the area extraction program storage memory 10b. And
Based on this program, the image data after edge extraction is scanned in pixel units. In the first embodiment, it is assumed that scanning is performed in the upper left direction of the image data, that is, from the pixel in the 0th row and the 0th column (hereinafter referred to as (0, 0)) to the right along the row. For example, for the nth row, (n, 0) → (n,
1) → (n, 2) → ・ ・ ・ ・ ・ → (n, 6) → (n,
Scanning is performed in the order of 7). After (n, 7), a line feed is performed and scanning is restarted from (n + 1, 0). It should be noted that the scan target is a pixel other than the edge, and in the above-mentioned FIG.
Pixels of (0, 2) and (0, 5) are removed (0, 0) →
(0,1) → (0,3) → (0,4) → (0,6) →
Scanning is performed in the order of (0, 7).

【0033】また、各画素の領域識別子を決定する手順
として、走査対象の画素に隣接する8画素のうち、上、
左、右上の3画素の領域識別子に基づいて決定する。以
下、この走査手順について図6に基づいて説明する。
As a procedure for determining the area identifier of each pixel, of the eight pixels adjacent to the pixel to be scanned,
It is determined based on the three-pixel area identifiers on the left and right. The scanning procedure will be described below with reference to FIG.

【0034】同図において、領域抽出部11bは、
(n、m)を走査する際に、第1に当該画素に隣接する
上方の画素、すなわち(n、m+1)の画素の領域識別
子を参照する。
In the figure, the area extraction unit 11b
When scanning (n, m), first, the area identifier of the upper pixel adjacent to the pixel, that is, the pixel of (n, m + 1) is referred to.

【0035】第2に、当該画素に隣接する左方の画素、
すなわち(n−1、m)の画素の領域識別子を参照す
る。この時点で、領域抽出部11bは、上方の画素がエ
ッジ以外の場合、左方の画素を参照してエッジ部分の画
素であるか否かを判別する。そして、エッジ部分の画素
の場合には上方の領域識別子を当該(n、m)の領域識
別子として設定する。また、上方の画素がエッジ以外の
画素且つ左方の画素がエッジ以外の画素の場合には、双
方の領域識別子を照合して一致した場合にかぎり当該
(n、m)の領域識別子として設定する。一方、双方の
領域識別子が不一致の場合について後述する。
Second, the left pixel adjacent to the pixel,
That is, the area identifier of the pixel of (n-1, m) is referred to. At this point, if the upper pixel is other than the edge, the area extracting unit 11b refers to the left pixel to determine whether or not the pixel is the edge pixel. Then, in the case of the pixel in the edge portion, the upper area identifier is set as the (n, m) area identifier. Further, when the upper pixel is a pixel other than the edge and the left pixel is a pixel other than the edge, the area identifier of the (n, m) is set only when both area identifiers are collated and matched. . On the other hand, the case where both area identifiers do not match will be described later.

【0036】さらに上方の画素及び左方の画素の双方が
エッジ部分の画素の場合には、領域抽出部11bは、第
3の処理として、当該画素に隣接する右上方の画素、す
なわち(n+1、m+1)の画素の領域識別子を参照す
る。
When both the pixel on the upper side and the pixel on the left side are pixels at the edge portion, the region extracting unit 11b performs the third processing, that is, the pixel on the upper right side adjacent to the pixel, that is, (n + 1, The area identifier of the pixel of (m + 1) is referred to.

【0037】ここで、右上方の画素がエッジ部分の画素
の場合には、カウンタ11eをインクリメントし、イン
クリメント後のカウンタ値を当該(n、m)の領域識別
子として設定する。
If the upper right pixel is an edge pixel, the counter 11e is incremented and the incremented counter value is set as the (n, m) area identifier.

【0038】さらに、右上方の画素がエッジ以外の画素
の場合、領域抽出部11bは当該(n、m)に隣接する
右方の画素を参照する。そして、この右方の画素がエッ
ジ文の画素であるか否かを判別する。ここで右方の画素
がエッジ部分の画素の場合には、領域抽出部11bは、
カウンタ11eをインクリメントし、インクリメント後
のカウンタ値を当該(n、m)の領域識別子として設定
する。一方、右方の画素がエッジ以外の画素の場合に
は、領域抽出部11bは前記した右上方の領域識別子を
当該(n、m)の領域識別子として設定する。
Further, when the upper right pixel is a pixel other than the edge pixel, the area extracting unit 11b refers to the right pixel adjacent to (n, m). Then, it is determined whether or not the pixel on the right side is the pixel of the edge sentence. Here, when the pixel on the right side is a pixel at the edge portion, the area extracting unit 11b
The counter 11e is incremented and the incremented counter value is set as the (n, m) area identifier. On the other hand, when the pixel on the right side is a pixel other than the edge, the area extracting unit 11b sets the above-mentioned area identifier on the upper right as the area identifier of (n, m).

【0039】また、領域抽出部11bは、カウンタ11
eをインクリメントした際に、画像領域登録テーブル1
1cにアクセスし、走査対象画素の位置情報として
(n、m)を登録すると共に、領域識別子を登録する。
In addition, the area extracting unit 11b includes a counter 11
Image area registration table 1 when e is incremented
1c is accessed and (n, m) is registered as the position information of the pixel to be scanned, and the area identifier is registered.

【0040】図7に画像抽出時におけるドットマトリッ
クス表の第1の具体例を示すと共に、図8に当該ドット
マトリックス表に対応する画像領域登録テーブル11c
の具体例を示す。
FIG. 7 shows a first concrete example of the dot matrix table at the time of image extraction, and FIG. 8 shows an image area registration table 11c corresponding to the dot matrix table.
A specific example of

【0041】本実施例1では領域識別子をエッジ識別子
に上書きする。すなわち領域識別子を決定した際に、エ
ッジ識別子を消去して領域識別子を設定する。同図で
は、(0、4)の””の位置まで走査を終了した旨を
示す。以下、この(0、4)までの領域抽出過程につい
て説明する。
In the first embodiment, the area identifier is overwritten on the edge identifier. That is, when the area identifier is determined, the edge identifier is erased and the area identifier is set. In the figure, it is shown that the scanning is completed up to the position of "" of (0, 4). The region extraction process up to (0, 4) will be described below.

【0042】領域抽出部11bは、(0、0)の領域識
別子を決定する際に、上方、左方、右上方、領域識別子
を参照するが、この場合は、上方、左方、右上方の3方
が総てエッジ部分であり、右方が未走査の画素であるた
め、(0、0)の領域識別子としてカウンタ11eの初
期値である”1”を設定する。さらに画像領域登録テー
ブル11cにアクセスして(0、0)及び領域識別子”
1”を登録する。
The region extracting unit 11b refers to the upper, left, upper right, and region identifiers when determining the region identifier of (0, 0). In this case, the upper, left, and upper right regions are referenced. Since all three sides are edge portions and the right side is an unscanned pixel, the initial value "1" of the counter 11e is set as the area identifier of (0, 0). Further, the image area registration table 11c is accessed (0, 0) and the area identifier "
Register 1 ”.

【0043】次に、(0、1)において、隣接する上
方、左方、右上方、画素を参照する。このとき、上方及
び右上方はエッジ部分であるため、左方(0、0)の画
素の領域識別子”1”を当該(0、1)の領域識別子と
して設定する。
Next, at (0, 1), adjacent upper, left, upper right and pixels are referred to. At this time, since the upper part and the upper right part are edge portions, the region identifier “1” of the pixel on the left (0, 0) is set as the region identifier of (0, 1).

【0044】(0、2)の画素は、エッジ部分の画素で
あるから領域識別子を変更せず、走査を次の画素へ移行
する。(0、3)の画素は、上方、左方、右上方の3方
がエッジ部分であるため、領域抽出部11bは、カウン
タ11eの値をインクリメントし、インクリメント後の
カウンタ値”2”を当該画素の領域識別子として設定す
る。このとき、画像領域登録テーブル11cにアクセス
して(0、3)及び領域識別子”2”を登録する。
Since the pixels of (0, 2) are pixels of the edge portion, the area identifier is not changed and the scanning is shifted to the next pixel. For the pixel (0, 3), the upper, left, and upper right three sides are edge portions, so the area extraction unit 11b increments the value of the counter 11e, and the incremented counter value “2” is applied. It is set as a pixel area identifier. At this time, the image area registration table 11c is accessed to register (0, 3) and the area identifier “2”.

【0045】図9に、画像抽出時におけるドットマトリ
ックス表の第2の具体例を示すと共に、図10及び図1
1に当該ドットマトリックス表に対応する画像領域登録
テーブル11c及び再割当管理情報格納部11dの具体
例を示す。
FIG. 9 shows a second concrete example of the dot matrix table at the time of image extraction, and FIGS.
1 shows a specific example of the image area registration table 11c and the reallocation management information storage unit 11d corresponding to the dot matrix table.

【0046】図9において、領域抽出部11bは、
(4、3)の画素の領域識別子を決定する際に、第1
に、隣接する情報の画素(3、3)の領域識別子”3”
を参照する。第2に、隣接する左方の画素(4、3)の
領域識別子”1”を参照する。ここで、領域抽出部11
bは、上方及び左方の画素の領域識別子を照合するが、
この場合は3≠1となり、不一致となる。このため、当
該領域抽出部11bは領域識別子の再割当処理を行う。
In FIG. 9, the area extracting unit 11b
When determining the area identifier of the pixel of (4, 3), the first
, The area identifier “3” of the adjacent information pixel (3, 3)
Refer to. Secondly, the area identifier “1” of the adjacent left pixel (4, 3) is referred to. Here, the area extraction unit 11
b matches the region identifiers of the upper and left pixels,
In this case, 3 ≠ 1, which is a mismatch. Therefore, the area extracting unit 11b performs the area identifier reallocation processing.

【0047】以下に再割当処理過程について説明する。
領域抽出部11bは、当該画素の位置情報及び再割当の
対象領域識別子を登録する(図11参照)。そして、画
像領域登録テーブル11cにアクセスし、当該領域識別
子”3”の開始位置情報(0、6)を読み出し、この
(0、6)から領域識別子の再割当を行う。再割当処理
は、領域識別子が”3”以上の画素を対象に行い、領域
識別子”3”の画素に対しては領域識別子を”1”へ書
き換えると共に、領域識別子が”4”以上の画素に対し
ては領域識別子を1でデクリメントした値へ書き換え
る。すなわち、図9において{(0,6)、(0,
7)、(1,5)、(1,6)、(2,4)、(2,
5)、(3,3)、(3,4)}の領域識別子を総て”
1”へ書き換えると共に、{(2,7)、(3,6)、
(3,7)}の領域識別子を”3”へ書き換える。
The reallocation process will be described below.
The area extracting unit 11b registers the position information of the pixel and the target area identifier for reallocation (see FIG. 11). Then, the image area registration table 11c is accessed, the start position information (0, 6) of the area identifier "3" is read, and the area identifier is reallocated from this (0, 6). The reallocation process is performed for pixels having an area identifier of "3" or more. For a pixel having an area identifier of "3", the area identifier is rewritten to "1", and the pixels having an area identifier of "4" or more are changed. On the other hand, the area identifier is rewritten to a value decremented by 1. That is, in FIG. 9, {(0,6), (0,
7), (1,5), (1,6), (2,4), (2
5), (3, 3), (3, 4)} are all area identifiers
While rewriting to 1 ", {(2,7), (3,6),
The area identifier of (3, 7)} is rewritten to "3".

【0048】さらに現時点におけるカウンタ11eの
値”4”を1デクリメントして”3”へ再設定する。以
下、本実施例1における画像領域抽出過程について説明
する。
Further, the value "4" of the counter 11e at the present time is decremented by 1 and reset to "3". Hereinafter, the image region extraction process in the first embodiment will be described.

【0049】図12は、画像抽出処理過程を示すフロー
チャート図であり、同図において、領域抽出部11b
は、エッジ抽出後の画像データを走査し、走査対象の画
素がエッジ部分の画素であるか否かを判別する(ステッ
プ1201)。ここで、当該走査対象の画素がエッジ以
外の画素である場合には、領域抽出部11bは、第1に
隣接する上方の画素を参照し、この画素がエッジ部分の
画素であるか否かを判別する(ステップ1203)。エ
ッジ部分の画素の場合、領域抽出部11bは、第2に隣
接する左方の画素がエッジ部分の画素であるか否かを判
別する(ステップ1204)。
FIG. 12 is a flow chart showing the process of image extraction processing. In FIG. 12, the region extraction unit 11b is shown.
Scans the image data after edge extraction, and determines whether or not the pixel to be scanned is a pixel in the edge portion (step 1201). Here, when the pixel to be scanned is a pixel other than an edge, the area extracting unit 11b refers to the first upper adjacent pixel and determines whether this pixel is an edge pixel. It is determined (step 1203). In the case of the pixel of the edge portion, the region extraction unit 11b determines whether the second adjacent pixel on the left side is the pixel of the edge portion (step 1204).

【0050】ここで、左方の画素もエッジ部分の画素で
ある場合には、右上方の画素がエッジであるか否かを判
別する(ステップ1204)。この右上方の画素がエッ
ジ以外の画素である場合、領域抽出部11bは、右方の
画素を参照し、エッジ部分の画素であるか否かを判別す
る(ステップ1205)。
If the left pixel is also an edge pixel, it is determined whether the upper right pixel is an edge (step 1204). If the upper right pixel is a pixel other than the edge pixel, the area extracting unit 11b refers to the right pixel and determines whether the pixel is the edge portion pixel (step 1205).

【0051】この右方の画素がエッジ以外の画素である
場合に、当該画素に右上方の領域識別子と同一の領域識
別子を設定する(ステップ1206)。そして、走査対
象の画素を更新する(ステップ1207)。すなわち隣
接する右方の画素を走査する。ここで、前記した走査対
象の画素が画像データの右端の画素である場合は走査対
象を改行する。
When the pixel on the right side is a pixel other than the edge, the same region identifier as the region identifier on the upper right side is set to the pixel (step 1206). Then, the pixel to be scanned is updated (step 1207). That is, the adjacent right pixel is scanned. Here, when the pixel to be scanned is the pixel on the right end of the image data, the line to be scanned is broken.

【0052】上記したステップ1201において、走査
対象の画素がエッジ部分の画素である場合には走査対象
を右方の画素へ変更し(ステップ1208)、上記のス
テップ1201以下の処理を繰り返し行う。
In step 1201 described above, if the pixel to be scanned is a pixel in the edge portion, the pixel to be scanned is changed to the pixel on the right side (step 1208), and the processing from step 1201 onwards is repeated.

【0053】また、ステップ1202において、当該画
素に隣接する上方の画素がエッジ部分の画素である場合
には、左方の画素を参照してこの画素がエッジ部分の画
素であるか否かを判別し(ステップ1209)、エッジ
部分の画素の場合には前記した上方の画素の領域識別子
を当該画素の領域識別子として設定する(ステップ12
12)。また、左方の画素がエッジ以外の画素の場合に
は前記した上方の画素と左方の画素の領域識別子を照合
し、両者が一致するか否かを判別する(ステップ121
0)。双方の領域識別子が不一致の場合には再割当処理
を行い(ステップ1211)、一致した場合には当該画
素の領域識別子として上方及び左方の領域識別子を設置
する(ステップ1212)。
If the upper pixel adjacent to the pixel is an edge pixel in step 1202, the left pixel is referenced to determine whether or not this pixel is an edge pixel. Then, in the case of the pixel at the edge portion (step 1209), the area identifier of the upper pixel is set as the area identifier of the pixel (step 12).
12). If the left pixel is a pixel other than the edge pixel, the area identifiers of the above-mentioned upper pixel and the left pixel are collated, and it is determined whether or not they match (step 121).
0). If both area identifiers do not match, reallocation processing is performed (step 1211), and if they match, the upper and left area identifiers are set as the area identifiers of the pixel (step 1212).

【0054】次に、前述のステップ1203において、
左方の画素がエッジ以外の画素の場合には、当該画素に
左方の領域識別子を設定する(ステップ1213)。さ
らに、前述のステップ1204において、右上方の画素
がエッジ部分の画素の場合にはカウンタ11eをインク
リメントして(ステップ1214)、当該画素の位置上
方及びインクリメントしたカウンタ値を画像領域登録テ
ーブル11cへ登録する(ステップ1215)。また前
記のカウンタ値を当該画素の領域識別子として設定する
(ステップ1216)。
Next, in step 1203 described above,
When the pixel on the left is a pixel other than the edge, the region identifier on the left is set to the pixel (step 1213). Further, in the above-mentioned step 1204, if the upper right pixel is the pixel of the edge portion, the counter 11e is incremented (step 1214), and the upper position of the pixel and the incremented counter value are registered in the image area registration table 11c. (Step 1215). The counter value is set as the area identifier of the pixel (step 1216).

【0055】以上の動作を画像データにおける最終画
素、この場合は最下位行の右端の画素に至るまで繰り返
し行う。図13に、本実施例1における領域識別子の再
割当処理フローを示す。
The above operation is repeated until the final pixel in the image data, in this case, the rightmost pixel in the lowest row. FIG. 13 shows the flow of processing for reallocating area identifiers in the first embodiment.

【0056】同図は、前述の図12のステップ1211
に対応する処理を示しており、走査対象画素に隣接する
上方の領域識別子と左方の領域識別子が不一致の場合
に、領域抽出部11bは、当該走査対象画素の領域識別
子として左方の領域識別子を設定する(ステップ130
1)と共に、走査対象画素の位置情報を再割当管理情報
格納部11dに格納する(ステップ1302)。さら
に、領域抽出部11bは、再割当管理情報格納部11d
に再割当識別子として、当該走査対象画素上方の領域識
別子を格納する(ステップ1303)。
This figure shows step 1211 of FIG.
In the case where the upper area identifier adjacent to the scan target pixel and the left area identifier do not match, the area extracting unit 11b uses the left area identifier as the area identifier of the scan target pixel. Is set (step 130)
Together with 1), the position information of the scan target pixel is stored in the reallocation management information storage unit 11d (step 1302). Furthermore, the area extracting unit 11b is configured to reallocate the management information storage unit 11d.
The area identifier above the pixel to be scanned is stored as the reallocation identifier (step 1303).

【0057】次に、領域抽出部11bは、画像領域登録
テーブル11cにアクセスして当該再割当識別子の開始
位置情報を認識し(ステップ1304)、この開始位置
と当該走査対象画素の位置が同一行に位置するか否かを
照合する(ステップ1305)。
Next, the area extracting unit 11b accesses the image area registration table 11c and recognizes the start position information of the reallocation identifier (step 1304), and the start position and the position of the scanning target pixel are in the same row. It is checked whether or not it is located at (step 1305).

【0058】ここで、双方の位置が異なる行の場合に
は、領域抽出部11bは、再割当開始位置の画素を参照
し、この画素の領域識別子と再割当領域識別子とを照合
する(ステップ1306)。ここで、双方の領域識別子
が一致した場合には、当該再割当対象画素の領域識別子
を前記の走査対象画素の領域識別子へ書き換える(ステ
ップ1307)。そして、再割当対象画素を隣接する右
へ移動する(ステップ1308)。領域抽出部11b
は、移動後の画素がエッジ部分の画素であるか否かを判
別し(ステップ1309)、エッジ以外の画素の場合に
は前述のステップ1306以下の処理を繰り返し行う。
Here, when the positions are different in both rows, the area extracting unit 11b refers to the pixel at the reallocation start position and collates the area identifier of this pixel with the reallocation area identifier (step 1306). ). If both area identifiers match, the area identifier of the reallocation target pixel is rewritten to the area identifier of the scanning target pixel (step 1307). Then, the reallocation target pixel is moved to the adjacent right (step 1308). Area extraction unit 11b
Determines whether or not the moved pixel is a pixel in the edge portion (step 1309), and if it is a pixel other than the edge, repeats the processing from step 1306 described above.

【0059】また、前述のステップ1305において、
当該走査対象画素の位置と開始位置の行が同一の場合に
は、再割当開始位置を当該走査対象画素の位置へ変更し
(ステップ1310)、前述のステップ1306以下の
処理を繰り返し行う。
Further, in the above step 1305,
When the position of the scan target pixel and the row of the start position are the same, the reallocation start position is changed to the position of the scan target pixel (step 1310), and the processes from step 1306 described above are repeated.

【0060】さらに、前述のステップ1306におい
て、再割当開始位置の画素の領域識別子と再割当領域識
別子が不一致の場合には再割当対象画素を右へ移動し
(ステップ1311)、前述のステップ1309以下の
処理を繰り返し行う。
Further, in step 1306, if the area identifier of the pixel at the reallocation start position and the reallocation area identifier do not match, the reallocation target pixel is moved to the right (step 1311), and the above steps 1309 and subsequent steps are performed. The process of is repeated.

【0061】また、前述のステップ1309において、
再割当対象画素がエッジ部分の画素の場合には、再割当
対象画素を下位行の左端へ移動し、前述のステップ13
05以下の処理を行う。以上、本実施例1によれば、汎
用プロセッサの簡潔な動作により画像抽出処理を行え
る。
In step 1309 described above,
If the pixel to be reallocated is an edge pixel, the pixel to be reallocated is moved to the left end of the lower row, and the above step 13 is performed.
The following processing is performed. As described above, according to the first embodiment, the image extraction process can be performed by the simple operation of the general-purpose processor.

【0062】(実施例2)本実施例2における画像抽出
処理部11の構成を図14に示す。本実施例2では、前
述の実施例1の構成に対し、領域抽出部11bを走査対
象となるドットマトリックスの行数と同数備える。同図
では、n×mドットの画像データを走査に対応する構成
であり、領域抽出部11bをn個備える。
(Embodiment 2) FIG. 14 shows the configuration of the image extraction processing unit 11 according to the second embodiment. In the second embodiment, in addition to the configuration of the above-described first embodiment, the area extraction units 11b are provided in the same number as the number of rows of the dot matrix to be scanned. In the figure, the image data of n × m dots corresponds to the scanning, and n area extracting units 11b are provided.

【0063】ここで、各領域抽出部11bは上段の領域
抽出部11bの走査開始後、2ドット遅延して走査を開
始するものとする。その他の構成は前述の実施例1と同
様である。
Here, it is assumed that each area extracting unit 11b starts scanning with a delay of 2 dots after the scanning of the upper area extracting unit 11b. Other configurations are similar to those of the above-described first embodiment.

【0064】図15に画像抽出処理時におけるドットマ
トリックス表のイメージ図を示す。同図において、第1
行の領域抽出部(1)11bは、(0、3)の画素の走
査を終了しており、このとき、第2行の領域抽出部
(2)11bは領域抽出部(1)11bに2ドット遅延
しており、(1、1)の画素の走査を終了している。さ
らに、前記した領域抽出部(1)及び領域抽出部(2)
が次の画素を走査すると同時に、第3行の領域識別子
(3)は処理を開始、すなわち(3、0)の画素の走査
を開始する。以降、同様の処理を行うことにより、nが
2以上の場合には、[m+2(n−1)]回の走査処理
により画像抽出処理を終了可能となる。なお、n=1の
場合にはm回の走査により処理を終了可能となる。
FIG. 15 shows an image diagram of a dot matrix table at the time of image extraction processing. In the figure, the first
The row area extraction unit (1) 11b has finished scanning the pixels of (0, 3), and at this time, the area extraction unit (2) 11b of the second row is set to the area extraction unit (1) 11b. The dot delay has occurred, and the scanning of the (1, 1) pixel has ended. Further, the area extracting unit (1) and the area extracting unit (2) described above.
Scans the next pixel, and at the same time, the region identifier (3) in the third row starts processing, that is, scans the pixel at (3,0). Thereafter, by performing the same processing, when n is 2 or more, the image extraction processing can be completed by [m + 2 (n-1)] times of scanning processing. When n = 1, the process can be completed by scanning m times.

【0065】[0065]

【発明の効果】本発明によれば、撮像データの編集処理
の前処理である画像抽出処理を低コストのシステムによ
り高速に行える。また、並列処理システムによればより
一層の高速処理を実現できる。
According to the present invention, the image extracting process, which is the pre-process of the image data editing process, can be performed at high speed by a low-cost system. Further, according to the parallel processing system, higher speed processing can be realized.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理図FIG. 1 is a principle diagram of the present invention.

【図2】本実施例1における画像抽出処理装置の全体概
略構成図
FIG. 2 is an overall schematic configuration diagram of an image extraction processing apparatus according to the first embodiment.

【図3】本実施例1におけるメモリの内部構成例FIG. 3 is an example of the internal configuration of a memory according to the first embodiment.

【図4】本実施例1における画像抽出処理部の内部構成
ブロック図
FIG. 4 is an internal configuration block diagram of an image extraction processing unit according to the first embodiment.

【図5】エッジ抽出5の画像データの具体例FIG. 5 is a specific example of image data of edge extraction 5.

【図6】本実施例1における画像領域抽出時の走査手順FIG. 6 is a scanning procedure when extracting an image area in the first embodiment.

【図7】画像抽出時の画像データの第1の具体例FIG. 7 is a first specific example of image data at the time of image extraction.

【図8】図7に対応する画像領域登録テーブルの具体例FIG. 8 is a specific example of an image area registration table corresponding to FIG.

【図9】画像抽出時の画像データの第2の具体例FIG. 9 is a second specific example of image data at the time of image extraction.

【図10】図9に対応する画像領域登録テーブルの具体
10 is a specific example of an image area registration table corresponding to FIG.

【図11】図9に対応する再割当管理情報格納部の具体
FIG. 11 is a specific example of a reallocation management information storage unit corresponding to FIG.

【図12】本実施例1における画像領域抽出処理過程を
示すフローチャート図
FIG. 12 is a flowchart showing an image area extraction process in the first embodiment.

【図13】本実施例1における再割当処理の過程を示す
フローチャート図
FIG. 13 is a flowchart showing a process of reallocation processing according to the first embodiment.

【図14】本実施例2における画像抽出処理部11の構
成ブロック図
FIG. 14 is a configuration block diagram of an image extraction processing unit 11 according to the second embodiment.

【図15】本実施例2における画像抽出処理のイメージ
FIG. 15 is an image diagram of image extraction processing according to the second embodiment.

【符号の説明】[Explanation of symbols]

1・・画像メモリ 4・・エッジ抽出手段 5・・画像領域抽出手段 5a・・判別部 5b・・領域判別部 6・・撮像部 7・・画像抽出装置 8・・A/D変換部 9・・画像メモリ 10・・メモリ 10a・・エッジ抽出プログラム格納メモリ 10b・・領域抽出プログラム格納メモリ 11・・画像抽出処理部 11a・・エッジ抽出部 11b・・領域抽出部 11c・・画像領域登録テーブル 11d・・再割当管理情報格納部 11e・・カウンタ 1 ... Image memory 4 ... Edge extraction means 5 ... Image area extraction means 5a ... Discrimination section 5b ... Area discrimination section 6 ... Imaging section 7 ... Image extraction device 8 ... A / D conversion section 9 ... Image memory 10 Memory 10a Edge storage program storage memory 10b Region extraction program storage memory 11 Image extraction processing unit 11a Edge extraction unit 11b Region extraction unit 11c Image region registration table 11d ..Relocation management information storage unit 11e..Counter

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 画像データをデジタル信号に変換し、任
意の画像編集処理を施す装置において、 前記デジタル信号形式の画像データを1フレーム毎に格
納する画像メモリ(1)と、 前記画像データの各画素を解析し、エッジ部分の画素か
否かを識別するエッジ抽出手段(4)と、 エッジにより複数の領域に分割される画像データを解析
し、各画素の属する領域を識別する画像領域抽出手段
(5)とを備え、 前記エッジ抽出手段(4)は、前記画像メモリ(1)か
ら1フレーム毎に画像データを読み出し、この画像デー
タを画素毎に解析して各画素がエッジ部分の画素である
か否かを判別すると共に、エッジ部分の画素か否かを識
別するエッジ識別子を付加し、 前記画像領域抽出部(5)は、エッジ抽出後の画像デー
タを画素毎に解析し、各画素が何れの領域に属している
かを判別すると共に、個々の領域を特定する領域識別子
を付加して画像領域の抽出を行うことを特徴とする画像
抽出方式。
1. An apparatus for converting image data into digital signals and performing arbitrary image editing processing, comprising: an image memory (1) for storing the image data in the digital signal format for each frame; and each of the image data. Edge extraction means (4) for analyzing pixels to identify whether or not the pixels are edge pixels, and image area extraction means for analyzing image data divided into a plurality of areas by edges to identify the area to which each pixel belongs (5), the edge extracting means (4) reads out image data from the image memory (1) for each frame, analyzes the image data for each pixel, and determines that each pixel is an edge portion pixel. In addition to determining whether or not there is an edge portion, an edge identifier for identifying whether or not the pixel is an edge portion is added, and the image area extraction unit (5) analyzes the image data after edge extraction for each pixel, Together to determine element belongs to which area, an image extraction method, characterized in that to extract an image area by adding a region identifier for identifying the individual regions.
【請求項2】 前記領域抽出手段(5)は、画像データ
を走査して各画素のエッジ識別子を参照し、エッジ部分
の画素であるか否かを判別する判別部(5a)と、 エッジ以外の画素を走査すると共に、走査対象の画素に
隣接する画素の領域識別子を参照して各画素の属する領
域を判別する領域判別部(5b)とを有し、 前記判別部(5a)は、任意の画像データを走査して、
各画素のエッジ識別子を参照し、当該画素がエッジ部分
の画素であるか否かを判別し、 前記画素がエッジ以外の画素の場合に、前記領域判別部
(5b)は、当該画素に隣接する画素の領域識別子を参
照して当該画素の属する領域を判別し、当該画素に対し
て領域識別子を付加することを特徴とする請求項1記載
の画像抽出方式。
2. The area extracting means (5) scans the image data, refers to the edge identifier of each pixel, and determines whether or not the pixel is an edge portion pixel; And a region discriminating unit (5b) for discriminating a region to which each pixel belongs by scanning a pixel of the pixel to be scanned and referring to a region identifier of a pixel adjacent to the pixel to be scanned, and the discriminating unit (5a) is arbitrary. Scan the image data of
By referring to the edge identifier of each pixel, it is determined whether or not the pixel is a pixel in the edge portion, and when the pixel is a pixel other than the edge, the area determination unit (5b) is adjacent to the pixel. The image extraction method according to claim 1, wherein the area identifier of the pixel is determined by referring to the area identifier of the pixel, and the area identifier is added to the pixel.
【請求項3】 前記領域識別子は任意に更新される計数
値であり、 前記領域判別部(5b)は、任意の画素の領域を識別す
る際に、走査対象の画素に隣接する画素のエッジ識別子
及び領域識別子を参照し、参照すべき画素がエッジ部分
の画素である場合およびまたは参照すべき画素に領域識
別子が付加されていない場合に、当該画素を未走査領域
の画素と判定して前記領域識別子を更新すると共に、当
該画素に前記更新値を付加することを特徴とする請求項
2記載の画像抽出方式。
3. The area identifier is a count value that is arbitrarily updated, and when identifying the area of an arbitrary pixel, the area discriminating unit (5b) is an edge identifier of a pixel adjacent to a pixel to be scanned. And the area identifier, and if the pixel to be referenced is an edge pixel and / or if the area identifier is not added to the pixel to be referenced, the pixel is determined to be a pixel in the unscanned area, and the area The image extracting method according to claim 2, wherein the identifier is updated and the updated value is added to the pixel.
JP4346278A 1992-12-25 1992-12-25 Image extraction system Withdrawn JPH06195460A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4346278A JPH06195460A (en) 1992-12-25 1992-12-25 Image extraction system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4346278A JPH06195460A (en) 1992-12-25 1992-12-25 Image extraction system

Publications (1)

Publication Number Publication Date
JPH06195460A true JPH06195460A (en) 1994-07-15

Family

ID=18382319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4346278A Withdrawn JPH06195460A (en) 1992-12-25 1992-12-25 Image extraction system

Country Status (1)

Country Link
JP (1) JPH06195460A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011135400A (en) * 2009-12-25 2011-07-07 Casio Computer Co Ltd Image processing apparatus and method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011135400A (en) * 2009-12-25 2011-07-07 Casio Computer Co Ltd Image processing apparatus and method, and program
US8345119B2 (en) 2009-12-25 2013-01-01 Casio Computer Co., Ltd. Image pickup device, image processing method, and storage medium storing program
US8787675B2 (en) 2009-12-25 2014-07-22 Casio Computer Co., Ltd. Image pickup device, image processing method, and storage medium storing program

Similar Documents

Publication Publication Date Title
US5048107A (en) Table region identification method
US5099521A (en) Cell image processing method and apparatus therefor
US7680339B2 (en) Image processing method and apparatus for edge detection in an image
JPH02277185A (en) Extracting method for rectangle coordinates
JP3753357B2 (en) Character extraction method and recording medium
US20110187721A1 (en) Line drawing processing apparatus, storage medium storing a computer-readable program, and line drawing processing method
JPH1166310A (en) Device and method for detecting amount of image feature and record medium recording amount of image feature extraction program
JPH06195460A (en) Image extraction system
JP2993007B2 (en) Image area identification device
JP3578947B2 (en) Uniform color area extraction method, apparatus and recording medium
JP2803736B2 (en) Character recognition method
JPS62121589A (en) Character segmenting system
JP2986185B2 (en) Line width classification method for line figures
JP2954218B2 (en) Image processing method and apparatus
JPH05165955A (en) Image processing method
JPS63113779A (en) Peak extraction method
JPH07334604A (en) Two-dimensional code reading device
JP2882056B2 (en) How to identify specific patterns
JP2784059B2 (en) Method and apparatus for removing noise from binary image
JPH07120392B2 (en) Character pattern cutting device
JP2966448B2 (en) Image processing device
JP3272381B2 (en) Region boundary point extraction method
JPS60136887A (en) Local area projection calculating device
JPH03224071A (en) Line thinning system for binary image
JP2002032713A (en) Character recognition processing method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20000307