JPS61208179A - Image describing device - Google Patents

Image describing device

Info

Publication number
JPS61208179A
JPS61208179A JP4743185A JP4743185A JPS61208179A JP S61208179 A JPS61208179 A JP S61208179A JP 4743185 A JP4743185 A JP 4743185A JP 4743185 A JP4743185 A JP 4743185A JP S61208179 A JPS61208179 A JP S61208179A
Authority
JP
Japan
Prior art keywords
data
area
image
boundary
areas
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4743185A
Other languages
Japanese (ja)
Inventor
Toshihiko Hata
秦 淑彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP4743185A priority Critical patent/JPS61208179A/en
Priority to CA000503746A priority patent/CA1255021A/en
Priority to US06/838,592 priority patent/US4805127A/en
Publication of JPS61208179A publication Critical patent/JPS61208179A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

PURPOSE:To obtain a description system which is small in the amount of data by forming a hierachical structure of areas extracted by detecting adjacency and inclusion relation between areas, approximating boundaries and straight lines of the areas by a primitive such as an arc, and describing even an area which includes an island by an external approximate boundary. CONSTITUTION:An original image 8 is converted by an image input means 1 into a many-valued or polychromatic digital image to generate input image data 9; and a boundary extracting means 2 extracts a boundary point sequence of each area of the input image data, and an area hierachical structuring means 3 detects adjacency and inclusion relation between areas to generate extracted area data 10 consisting of hierachical data of areas and boundary point sequences. Then, a boundary approximating means 4 approximates the boundary point sequence of the extracted area data 10 by a straight-light primitive or arc primitive to generate approximate area data 11, so that a description data display means 6 displays the contents of image description data 12 on a CRT display device 7.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、画像の云送、蓄積あるいは処理のために1
画像を構成する連結領域c以下単に領域と称す)に対し
て、その領域の境界を直線や円弧等のプリミティブで記
述する画像記述装置に関するものである。
[Detailed Description of the Invention] [Industrial Application Field] The present invention provides a method for transmitting, storing, or processing images.
The present invention relates to an image description device that describes the boundaries of connected regions (hereinafter simply referred to as regions) constituting an image using primitives such as straight lines and circular arcs.

〔従来の技術〕[Conventional technology]

従来この種の画像記述装置として、以下に説明する様な
方式(参考文献■:アイ・ビ一番エムージャーナル(I
BM I 、RB8 、DEVELOP 、Vow 、
コA44DT)。
Conventionally, as this type of image description device, the method described below (Reference ■: IB Ichiban M Journal
BM I, RB8, DEVELOP, Vow,
core A44DT).

7J4’〜りJ’l November  /デtコ)
参照)811図は従来例のシステム構成図であり、第1
コ図は従来例の手順を示fフローチャートであり、第1
3図は領域の輪郭を説明する図である。
7J4'~riJ'l November/Detco)
Reference) Figure 811 is a system configuration diagram of a conventional example, and the first
Figure 1 is a flowchart showing the procedure of the conventional example, and the first
FIG. 3 is a diagram illustrating the outline of the area.

第1/図において、(、zi)は画像入力装置、(λコ
)は画像メモリ、(ユ3)は処理プログラム、(コダ)
はCPU(中央処理装置)、(X、t)はワーキングメ
モリ、(26)は抽出領域用メモリ、(コt)は[1f
Ii僧記述用メモリ、(り)はCRT(陰極Nv)ディ
スプレイである。また第12図において、(9)は入力
画1象データ、(2tz)はコ鎮化画像データ、(コ/
A)は輪郭点列データ、(/コ)は画像記述データであ
る。
In Figure 1/, (, zi) is an image input device, (λko) is an image memory, (yu3) is a processing program, (koda)
is the CPU (central processing unit), (X, t) is the working memory, (26) is the memory for the extraction area, and (kot) is the [1f
Ii is a memory for description, and (ri) is a CRT (cathode Nv) display. In addition, in FIG. 12, (9) is input image 1 image data, (2tz) is ko-subdued image data, (ko/
A) is contour point sequence data, and (/) is image description data.

第1コ図忙示す様に、従来例ではまずステップ(2ti
)で、画像入力装@(コ/)より入力され画像メモリ(
コりK記憶されている多植あるいは多色の画像データ(
9)を、CPU(−りが処理プログラム(23)に従っ
て、あらかじめ定められた階調あるいは色単位に分離し
、各単位ごとにコ直の画像データ(コtl)に変換する
。例えば、白黒tビットで入力されたulIiillを
あらかじめ定められた2つのしきい直により分類し、1
つの階調の範囲にある画素の集合と他の一つの階調の範
囲にある画素の集合というコ直の1fii像データ(例
えば前者な′l”に、後者を”O”に変換する)を3枚
作成する。
As shown in Figure 1, in the conventional example, first step (2ti)
), input from the image input device @(ko/) is input to the image memory (
Multi-plant or multi-colored image data (
9) into predetermined gradation or color units according to the processing program (23), and converts each unit into direct image data (cotl). For example, black and white t The bit input ulIiill is classified according to two predetermined thresholds, and 1
Direct 1fii image data consisting of a set of pixels in one gradation range and a set of pixels in another gradation range (for example, convert the former to 'l' and the latter to 'O'). Create 3 sheets.

次にステップ(コ/コ)において、ステップ(211)
で得られたコ値の画像データ(コlj)の抽出すべき領
域(例えば値”l”を有する領域)の輪郭点列をその領
域の境界として抽出する。ここでいう輪郭点列とは、第
13図に示す様な、領域に属する画素の中でその領域の
最も外@に位置する画素の集合(外側の輪郭点列)と、
島を有する領域の場合にはその島を囲む画素の集合(内
側の輪郭点列である。コ[画像の輪郭点列の抽出方法は
一般的によく知られた方法であり、コ×コあるいは3×
3のマスクを用いて行われる。
Next, in step (co/co), step (211)
The outline point sequence of the region to be extracted (for example, the region having the value "l") of the image data of the value "lj" obtained in the above is extracted as the boundary of the region. The contour point sequence here refers to a set of pixels located at the outermost position of the area among the pixels belonging to the area (outer contour point sequence), as shown in FIG.
In the case of an area with an island, a set of pixels surrounding the island (inner contour point sequence). 3×
This is done using 3 masks.

最後にステップ(コ/J)において、ステップCコlコ
)で得られた輪郭点列データ(コ/6)を入力として、
その輪郭点列を直線プリミティブで近似して画像を記述
する。この近似はあらかじめ与えられた許容誤差内で輪
郭点列を折れ線の頂点座標により近似するものであり、
従来より非常に多くの方法が考案されている(参考文献
■、参考文献■:雑誌アイ・イー・イー・イーφ(Pr
ocjth。
Finally, in step (C/J), the contour point sequence data (C/6) obtained in step C) is input,
The image is described by approximating the contour point sequence with straight line primitives. This approximation approximates a sequence of contour points using the vertex coordinates of a polygonal line within a predetermined tolerance.
A large number of methods have been devised so far (Reference ■, Reference ■: Magazine I.E.E.
ocjth.

Int、Conf、Pattern  Recopn、
PP、t r 3〜tr s q  、  t  9 
g:1 。
Int, Conf, Pattern Recopn,
PP, tr3~trsq, t9
g:1.

IgFE)。作成される画像記述データ(I2)の構成
としては、各領域が階調あるいは色単位に7?とぬられ
、各領域は外側輪郭に対応する1つの近似輪郭と、島を
含む場合には内側輪郭に対応する島の数の近似輪郭より
記述される。
IgFE). The composition of the image description data (I2) to be created is that each area has 7? gradations or colors. Each region is described by one approximate contour corresponding to the outer contour and, if islands are included, approximate contours corresponding to the number of islands corresponding to the inner contour.

従来例では上述した様に、島を含む領域は外側輪郭に対
応する近似輪郭と内側輪郭に対応する近似輪郭忙より記
述され、また島となる領域は島を含む領域の内側輪郭と
接する外側輪郭に対応する近似輪郭で記述されるため、
島となる領域に対しては境界がコ重に定義されてしまう
In the conventional example, as described above, a region including an island is described by an approximate contour corresponding to an outer contour and an approximate contour corresponding to an inner contour, and an island region is described by an outer contour that is in contact with the inner contour of the region including an island. Since it is described by an approximate contour corresponding to
For areas that are islands, boundaries are defined in multiple ways.

〔発明が解決しよ5とする問題点1 以上説明した様に従来のものは、多値あるいは多色の画
像を階調あるいは色単位に分離し、各単位ととに抽出し
た領域の輪郭点列を直線近似し。
[Problem 5 to be solved by the invention 1 As explained above, the conventional method separates a multi-valued or multi-colored image into gradation or color units, and calculates the contour points of the area extracted for each unit. Approximate the column by a straight line.

領域を外側の近似輪郭と、島を含む場合にはその島に対
応する内側の近似輪郭で記述するため、島となる領域に
対し【は境界がコ重に定義され、さらに外側輪郭と内側
輪郭とを区別する情報を付す必要があり、画像記述デー
タ(/コ)のデータ量が増大するという問題点があった
A region is described by an outer approximate contour and, if an island is included, an inner approximate contour corresponding to the island. It is necessary to add information to distinguish between the two, and there is a problem in that the amount of image description data (/) increases.

この発明は、この様な問題点を解決するためkなされた
ものであり、領域を抽出する際に領域間の隣接・包含関
係を考慮して抽出領域を階層化し、領域を階層の順に並
べ各領域を外側の近似境界のみで記述するため、データ
量が少い画像記述データを作成することができる画像記
述方式を提供するものである。
This invention was made to solve these problems, and when extracting regions, the extracted regions are hierarchically arranged in consideration of the adjacency and inclusion relationships between regions, and the regions are arranged in the order of the hierarchy. The present invention provides an image description method that can create image description data with a small amount of data because a region is described using only the outer approximate boundaries.

〔問題点を解決するための手段〕[Means for solving problems]

この発明に係わる画像記述装菫は、画像を構成する領域
の境界点列を抽出する手段と、領域間の隣接、包含関係
を検出し領域の階層データを作成する手段と、抽出した
境界点列を直線や円弧等のプリミティブで近似する手段
とを設けたものである・ 〔作 用〕 この発明においては、領域間の隣接、包含関係を検出し
て抽出した領域を階層化し、領域の境界を直線や円弧等
のプリミティブで近似して、島を含む領域も外側の近似
境界のみで記述する。
The image description system according to the present invention includes means for extracting a sequence of boundary points of regions constituting an image, means for detecting adjacency and inclusion relationships between regions and creating hierarchical data of the regions, and a sequence of extracted boundary points. [Operation] In this invention, adjacency and inclusion relationships between regions are detected, the extracted regions are hierarchized, and the boundaries of the regions are Approximate with primitives such as straight lines and circular arcs, and describe areas including islands using only the outer approximate boundaries.

〔実施例〕。〔Example〕.

以下、この発明の実施例について説明する。Examples of the present invention will be described below.

第1図はこの発明の実施例の全体構成図であり、(1)
は画像入力手段、(コ)は境界抽出手段、(3)は領域
階層化手段、(qlは境界近似手段、(j)は記述デー
タ作成手段、(6)は記述データ表示手段、(り)はC
RTディスプレイ、(t)は原画儂、(?lは入力画像
データ、(10)は抽出領域データ、(ti)は近似領
域データ、(ti)は画像記述データである。
FIG. 1 is an overall configuration diagram of an embodiment of this invention, (1)
is an image input means, (j) is a boundary extraction means, (3) is an area hierarchization means, (ql is a boundary approximation means, (j) is a descriptive data creation means, (6) is a descriptive data display means, (ri) is C
RT display, (t) is the original picture, (?l is the input image data, (10) is the extracted region data, (ti) is the approximate region data, and (ti) is the image description data.

t4/図に示す実施列は、原11kI像(f)を画像入
力手段(1)により多値あるいは多色のディジタル画像
に変換して入力画像データ(?)を作成し、境界抽出手
段(コ)により入力画像データCデ)の各領域の境界点
列を抽出でるとともに、領域階層化手段(、?)により
領域間の隣接、包含届係を検出し、領域の階層データお
よび境界点列よりなる抽出領域データ(10)を作成し
、境界近似手段(61により抽出領域データ(10)の
境界点列を直線プリミティブや円弧プリミティブにより
近似して近似領域データ(ti)を作成し、記述データ
作成手段(j)により階層データに従つ【階層の順に領
域を記述して画像記述データ(/コ)を作成し、記述デ
ータ表示手段(AIKより画像記述データ(12)の内
容をCR’I’ディスプレイ(ワ)に表示するものであ
る。
t4/ In the implementation sequence shown in the figure, input image data (?) is created by converting the original 11kI image (f) into a multivalued or multicolor digital image using the image input means (1), and the boundary extraction means (co ) extracts the boundary point sequence of each region of the input image data Cd), and the area hierarchization means (,?) detects adjacency between regions and inclusion notification, and from the hierarchical data of the area and the boundary point sequence. The boundary approximation means (61) approximates the boundary point sequence of the extraction area data (10) using straight line primitives and circular arc primitives to create approximate area data (ti), and creates descriptive data. The means (j) creates image description data (/) by describing areas in the order of the hierarchy according to the hierarchical data, and the description data display means (AIK displays the contents of the image description data (12) in CR'I' This is what is displayed on the display (wa).

第一図は実施例のシステム構成図であり、(7)はCR
Tディスプレイ、(コl)は画1検入力装置、(ココ)
は画像メモリ、(コ3)は処理プログラム、(コリ)は
CPU、(2りはワーキングメモリ、(コロ)は抽出領
域用メモリ、(2り)は近似領域用メモリ。
Figure 1 is a system configuration diagram of the embodiment, and (7) is the CR
T display, (l) is the stroke 1 detection input device, (here)
is the image memory, (3) is the processing program, (2) is the CPU, (2) is the working memory, (2) is the memory for the extraction area, and (2) is the memory for the approximate area.

(コj)は1儂記述用メモリである。(j) is a memory for one-person description.

第コ図化おいて1画像入力装置(コl)はテレビカメラ
やイメージスキャナ等の画像入力部と、入力した画像信
号を画像メモリ(ココ)K記憶できる様な信号に変換す
る信号変換部よりなり、入力画像データ(9)は多値あ
るいは多色のディジタル画像として画像メモリ(ココ)
VC記憶される。画像メモリ(2コ)はRAM(ランダ
ムアクセスメモリ)により構成され、入力画像データ(
ワ)を記憶するとともに、後述する領域抽出処、8!に
おけるフラグ書き込み等のワーキングエリアとして使用
されたり1図示していないC’RTコントローラにより
画像メモリ(ココ)の内容をCRTディスプレイ(7)
k表示することも可能である。CPU乙日)は処理プロ
グラム(23)の内容釦従い第3図以降で説明する処理
を実行する。ワーキングメモリ(コりはCPU(2a)
が処理する際の中間データ等を記録するためのメモリで
あり、抽出領域用メモリ(コロ)、近似領域用メモリ(
コク)、画像記述用メモリ(2j)はE/図で説明した
抽出領域データ(lσ)、近似領域データ(ti)、画
像記述データ(ココ)を各々記憶するメモ刀であり、R
AM、ウィンチェスタ−ディスク等の書き換え可能な記
憶装rItにより構成される。
In Figure 1, one image input device (Col) consists of an image input unit such as a television camera or image scanner, and a signal conversion unit that converts the input image signal into a signal that can be stored in the image memory (Coco). The input image data (9) is stored in the image memory (here) as a multivalued or multicolor digital image.
VC is stored. The image memories (2) are composed of RAM (random access memory) and store input image data (
8! It is used as a working area for writing flags, etc. 1. The contents of the image memory (here) are transferred to the CRT display (7) by the C'RT controller (not shown).
It is also possible to display k. The CPU 2) executes the processing described in FIG. 3 and subsequent figures in accordance with the content button of the processing program (23). Working memory (stiffness is CPU (2a)
This is a memory for recording intermediate data etc. when processing, and includes memory for extraction area (CORO) and memory for approximate area (CORO).
The image description memory (2j) is a memo that stores the extraction area data (lσ), approximate area data (ti), and image description data (here) explained in the figure E/, respectively.
It is constituted by a rewritable storage device such as AM or Winchester disk.

また、結果として得られた画像記述データ(ココ)は、
CPU(211)あるいは図示していないグラフィック
・プロセッサによりラスター・データに変換され画像メ
モリ(2ユ)に記憶され、C!RTディスプレイ(り)
K表示される。
In addition, the resulting image description data (here) is
The data is converted into raster data by the CPU (211) or a graphics processor (not shown) and stored in the image memory (2 units), and the C! RT display (ri)
K is displayed.

第3図は、実施例において入力画像データ(9)を画像
記述データ(ココ)に変換するための処理の概略を示す
フローチャートであり、(q)は入力画像データ(/(
7)は抽出領域データ、(11)は近似領域データ、(
1コ)は画像記述データである。
FIG. 3 is a flowchart showing an outline of the process for converting input image data (9) into image description data (here) in the embodiment, and (q) is a flowchart showing the outline of the process for converting input image data (9) into image description data (here).
7) is extracted area data, (11) is approximate area data, (
1) is image description data.

また、第弘図〜第7図は第3図の説明を補足する図であ
り、第9図は領域抽出処理および境界点列の近似処理を
説明する図、jlE&図は領域の隣接関係グラフを説明
する図、第6図は抽出領域データ(10)のデータ構成
を示す図、第7図は近似領域データ(11)および画像
記述データ(tS)のデータ構成を示す図である。
In addition, Figures 1 to 7 are diagrams that supplement the explanation of Figure 3, Figure 9 is a diagram that explains region extraction processing and boundary point sequence approximation processing, and Figure 7 shows the adjacency relationship graph of regions. FIG. 6 is a diagram showing the data structure of extraction region data (10), and FIG. 7 is a diagram showing the data structure of approximate region data (11) and image description data (tS).

第3図のステップ(31)において、入力画像fflを
構成する各領域の境界点列が抽出されるとともに、領域
間の隣接、包含関係を検出することKより階層データを
作成し2階層データおよび境界点列からなる抽出領域デ
ータ(10)を作成する。ここで実施例において抽出さ
れる境界点列は、1つの領域忙対してその領域が島を含
むか否かによらず従来例における外側輪郭忙対応する慮
列である。
In step (31) in FIG. 3, a sequence of boundary points of each region constituting the input image ffl is extracted, and hierarchical data is created from K by detecting adjacency and inclusion relationships between regions. Extraction area data (10) consisting of a sequence of boundary points is created. Here, the boundary point sequence extracted in this embodiment is a boundary point sequence corresponding to the outer contour of one area, regardless of whether the area includes an island or not, in the conventional example.

例えば第一図(alにおける領域Aは、g*図(blに
示す様な一つの島を含む領域として外側輪郭と内側輪郭
より定義されるが、この実施例においては第一図(c)
 K示す様な島の存在しない領域にすなわち外側輪郭の
みで定義される領域とする。
For example, area A in Figure 1 (al) is defined by the outer and inner contours as a region including one island as shown in Figure 1 (g*) (bl), but in this example, area A in Figure 1 (c)
The area shown in K is defined as an area where no islands exist, that is, an area defined only by the outer contour.

また、実施例において作成される階層データは以下に説
明するデータである。#cq図において。
Furthermore, the hierarchical data created in the embodiment is data explained below. # In the cq diagram.

第一図(cl&c示す領域A’、 B’、 C’を用い
てZILt図(alを画像を作成するためには、はり絵
的な4i!領でまず領域大−を表示し、その上に領域B
’、C’な重畳して表示すればよい。これがこの発明の
根本的な原理であるが、この考えは画像を構成する領域
を階層化することであり、第9図の例では領域Aは領域
B、Cより1つ低いレベルの階層にあるといへ。
To create an image of the ZILt diagram (al) using areas A', B', and C' shown in Figure 1 (cl&c), first display the large area in the 4i! Area B
', C' may be displayed in a superimposed manner. This is the fundamental principle of this invention, and the idea is to hierarchize the regions that make up the image, and in the example in Figure 9, region A is one level lower than regions B and C. Toihe.

そして各領域がどのレベル化あるかということを示すの
が階層データである。以上の事を第3図を夕1]にとっ
てさらに詳しく説明する。まず領域りは領域E−Kを1
つの島内化合む領域であるから。
Hierarchical data indicates the level of each area. The above will be explained in more detail with reference to Figure 3. First, the area is 1 area E-K.
This is because it is an area where two islands are integrated.

8下位のレベルlにある領域である。次に領域E。This is an area at level l below 8. Next is area E.

F、Gは領域りの島の中で最下位のレベルにあるので、
レペルコの領域と定義される。以下領域H〜Kについて
も同様にしてレベルを定義していけば、第3図(b) 
K示す領域の隣接関係グラフが作成される。
F and G are at the lowest level among the islands in the area, so
Defined as the area of Leperco. If we define the levels in the same way for the following regions H to K, we can see Figure 3(b).
An adjacency relationship graph for regions indicated by K is created.

抽出領域データ(lO)のデータ構成は、@6図(a)
に示す階層データ(70)および瀉6図(blに示す境
界点列データ(7/)よりなり1階層データ(りθ)は
画像の全レベル数および各レベルに属する領域名で構成
され、また境界点列データ(7/)は領域名と各点列の
座標列あるいはチェーン符号列から構成される。尚、ス
テップ(31)の具体的な手順の説明は第ざ、デ図の説
明で行う。
The data structure of the extraction area data (lO) is shown in Figure 6 (a).
The first layer data (ri θ) consists of the hierarchical data (70) shown in Figure 6 (bl) and the boundary point sequence data (7/) shown in BL, and the first layer data (ri θ) is composed of the total number of levels of the image and the area name belonging to each level, and The boundary point sequence data (7/) is composed of the area name and the coordinate sequence or chain code sequence of each point sequence.The specific procedure of step (31) will be explained in the explanation of Figure D. .

ステップ(3コ)においては、ステップ(31)の処理
により得られた抽出領域データ(lO)を入力として、
境界点列を直線プリミティブや円弧プリミティブにより
近似し、近似領域データ(11)に記1意する。ステッ
プ(32)の処理により1図(C1に示される各領域が
同図(dlに示す様に近似される。
In step (3), the extraction area data (IO) obtained by the process in step (31) is input, and
The boundary point sequence is approximated by straight line primitives and circular arc primitives, and is recorded in approximate area data (11). Through the process of step (32), each region shown in Figure 1 (C1) is approximated as shown in Figure 1 (dl).

近似領域データ(it)は藁6図(a)に示す階層デー
タ(70)と、A7図に示すデータ構成の近似境界デー
タ(7コ)(記憶されている順番は纂6図(blに示す
順番である)よりなる。近似境界データ(クコ)は領域
名、直線プリミティブか円弧プリミティブかを゛示すオ
ペコードと座標データ(直線ならば始点と終点の座標デ
ータ、円弧ならば始点、中点および終点の座標データ)
から構成される。
The approximate area data (IT) is the hierarchical data (70) shown in Figure 6 (a), and the approximate boundary data (7 pieces) with the data structure shown in Figure A7 (the order in which they are stored is shown in Figure 6 (BL). Approximate boundary data consists of the area name, an operation code indicating whether it is a straight line primitive or a circular arc primitive, and coordinate data (for a straight line, the coordinate data of the start point and end point; for a circular arc, the start point, midpoint, and end point). coordinate data)
It consists of

尚、ステップ(3コ)における点列の直線1円弧近似方
法は、従来例で述べた点列の直線近似方法と同様に従来
から多くの方法が提案されており(参考文献1j〕参照
)、実施例においてはそのいかなる方法でも実現できる
。そこでここではその具体的な説明は省略する@ ステップ(JJ)においては、ステップ(3コ)の処理
により得られた近似領域データ(11)を入力として1
階層データ(70)に基づき下位のレベル忙ある領域か
ら順k、近似境界データ(り2)を並べかえて画像記述
データ(lコ)を作成する。例えばgt図の列では、領
域り、E、F、G、H,I。
Note that many methods have been proposed in the past for the straight-line one-circle-arc approximation method for a point sequence in step (3), similar to the method for linear approximation for a point sequence described in the conventional example (see Reference 1j). In the embodiment, any of these methods can be used. Therefore, the detailed explanation will be omitted here. @ In step (JJ), the approximate area data (11) obtained by the processing in step (3) is input and 1
Based on the hierarchical data (70), image description data (l) are created by rearranging the approximate boundary data (ri2) in order of k from the lower level busiest area. For example, in the column of the gt diagram, the areas are E, F, G, H, I.

J、にの順化記憶される。画像記述データ(zj)の各
領域に対するデータ構成はit7図に示す近似境界デー
タ(7コ)の構成と同一である。
J, is stored in acclimatization. The data structure for each area of the image description data (zz) is the same as the structure of the approximate boundary data (7 pieces) shown in the it7 diagram.

ステップ(、?/)の処理を実現する方法の1つは参考
文献■:アイ・ビー・エム・ジャーナル(IBMJoa
rnaJ Re5earch and Devojop
ment Vol、、24  /16A  pp、aデ
t〜り07 November (t9 gコ))に示
される方法であり、ここではその方法の要点のみを以下
釦説明する。
One of the methods to realize step (,?/) processing is the reference ■: IBM Journal (IBM Joa
rnaJ Re5earch and Devojop
ment Vol., 24/16A pp, adet-ri07 November (t9gco)), and only the main points of the method will be explained below.

第を図はステップ(31)の処理を実現する1つの方法
の構成を示す図、第を図はその方法の手順を示すフロー
チャートである。第を図において(?)は入力1僚デー
タ、 (10)は抽出領域データ、(り/)はラスク走
査型未抽出領域検出手段、(lIコ)は島輪郭追跡手段
、((I3)は領域輪郭追跡手段、(a4A)は領域階
層化手段である。
Fig. 5 is a diagram showing the configuration of one method for realizing the process of step (31), and Fig. 5 is a flowchart showing the procedure of the method. In the figure, (?) is the input 1 data, (10) is the extraction area data, (ri/) is the rask scanning type unextracted area detection means, (lIko) is the island contour tracking means, ((I3) is the The region contour tracking means (a4A) is the region hierarchization means.

第9図において、テスク走査型未抽出領域検出手段(I
It)により、まずステップ(21)においてラスク走
査方向に入力画像データ(テ)の各画像がチェックされ
る。ステップCタコ)において全ての画素のチェックが
終了したと判定されれば、ステップ(3/)の処理は終
了するが、さもなければステップ(zJ)、(s−e)
の処理が行われる。
In FIG. 9, the task scanning type unextracted area detection means (I
First, in step (21), each image of the input image data (TE) is checked in the rask scanning direction. If it is determined that all pixels have been checked in step C tach), the process in step (3/) ends; otherwise, steps (zJ), (s-e)
processing is performed.

ステップC!3)においてはチェック中の画素に抽出フ
ラグが付加されているか否かがチェックされる。未抽出
フラグは後述の島輪郭追跡または領域輪郭追跡の処理に
おいてしかるべき輪郭点列上の画素に付加されるフラグ
であり、このフラグが付加されて画素を含む領域は、島
輪郭追跡処理は終了したが領域輪郭追跡処理はまだ行わ
れていないことを示す。もしステップ(j3)において
未抽出フラグが付加されていないと判定された場合には
、ステップ(3弘)においてその画素が変化点であるか
否かを判定する。この変化点というのは、チェック中の
画素の値が階調あるいは色の備を有し、現在スキャン中
の領域のそれと異なることを意味する。またチェック中
の画素の咳が後述するラベルの時には、その画素は変化
点ではない。従つてステップ(33)およびステップ(
,1tI)で未抽出フラグが付加されておらず変化点で
あると判定された場合には、その画素は未だ追跡されて
いない島に含まれることになるのでステップ(1!r)
の島輪郭追跡処理が行われる。さもなければ、この画素
は1つ前の画素と同一の領域に属する画素であるので再
びステップCrt)のマスク走査がくり返される。
Step C! In step 3), it is checked whether an extraction flag is added to the pixel being checked. The unextracted flag is a flag that is added to pixels on the appropriate contour point sequence in the island contour tracing or area contour tracing process described later.If this flag is added and the area contains pixels, the island contour tracing process is finished. However, this indicates that area contour tracking processing has not yet been performed. If it is determined in step (j3) that the unextracted flag is not added, it is determined in step (3) whether or not that pixel is a changing point. This point of change means that the value of the pixel being checked has a gradation or color that is different from that of the area currently being scanned. Moreover, when the cough of the pixel being checked is a label, which will be described later, that pixel is not a change point. Therefore, step (33) and step (
, 1tI), if the unextracted flag is not added and it is determined that the pixel is a changing point, the pixel is included in an island that has not been tracked yet, so step (1!r) is performed.
Island contour tracking processing is performed. Otherwise, since this pixel belongs to the same area as the previous pixel, the mask scanning in step Crt) is repeated again.

ステップ(jよ)においては島輪郭追跡手段(弘ユ)に
より島輪郭追跡処理が行われる。島輪郭とは従来例を説
明した際の内側輪郭と同じものであり。
In step (j), island contour tracking processing is performed by the island contour tracking means (Hiroyu). The island contour is the same as the inner contour when explaining the conventional example.

この追跡くは2xコあるいは、7X、7のマスクを用い
て行われるが、追跡中に各輪郭点にその領域名に相当す
るラベルを記入し、またその島に含まれる領域の輪郭点
の中でスキャンライン上島の最も左側にある輪郭点に未
抽出フラグを付加する。ラベルは上述のステップ(3ケ
)の判定忙おいて、同じ島が複数回追跡されない様にす
る目的と、ステップ(37)の領域輪郭追跡処理におい
て隣接領域を検出する目的で記入される。次にステップ
(j6)において、ステップ(!り)で変イヒ点である
と判定した画素を含む領域輪郭の追跡が、ステップ(j
り)で行われる様に追跡開始点をその画素とする。
This tracking is performed using a 2x mask or a 7x, 7 mask, but during tracking, each contour point is given a label corresponding to its region name, and the contour points of the region included in the island are Adds an unextracted flag to the leftmost contour point of the scan line Kamijima. The label is written for the purpose of preventing the same island from being tracked multiple times during the determination in step (3) described above, and for the purpose of detecting adjacent regions in the region outline tracking process of step (37). Next, in step (j6), the tracing of the region outline including the pixel determined to be the change point in step (!ri) is performed in step (j6).
The tracking start point is set to that pixel as in (2).

ステップ(!り)においては、領域輪郭追跡手段C≠3
)により領域輪郭追跡処理が行われる。領域輪郭とは従
来例で説明した際の外側輪郭と同じである。この追跡に
もコ×コあるいはJXJのマスクが用いられるが、追跡
中に境界点列を抽出して抽出領域データ(/7)K記憶
し、各輪郭点にその領域のラベルを記入し、未抽出フラ
グを付加し。
In step (!ri), area contour tracking means C≠3
) performs area contour tracking processing. The area contour is the same as the outer contour described in the conventional example. Co×Co or JXJ masks are also used for this tracking, but during tracking, a sequence of boundary points is extracted and extracted area data (/7)K is stored, and a label of the area is written on each contour point. Add extraction flag.

その領域に接する領域のラベルを検出する。この処理で
未抽出フラグが付加される画素は、その領域に接し、ま
だ輪郭追跡が行われていない領域の輪郭点列の画素(従
って画素の値は階調あるいは色の直となる)の中で、現
在追跡中の画素とマスク方向111!l(向って右側)
K接する画素である。
Detect labels for regions that touch that region. Pixels to which an unextracted flag is added in this process are pixels in the contour point sequence of the area that is in contact with the area and for which contour tracking has not yet been performed (thus, the pixel value corresponds directly to the gradation or color). So, the pixel currently being tracked and the mask direction 111! l (facing the right side)
This is a pixel that is in contact with K.

ステップ(3g)においては、ステップ(!り)で検出
された隣接領域のラベルから、逐次ysS図(blk示
す様な隣接関係グラフが作成され、各レベルに属する領
域名を記憶した階層データ(り0)が作盛すれる。ステ
ップ(!t)が終了すれば、貴びステップ(51)のマ
スク走査が(り返される。
In step (3g), an adjacency relationship graph as shown in the ysS diagram (blk) is created sequentially from the labels of the adjacent regions detected in step (!ri), and hierarchical data (i.e., 0) is generated. When step (!t) is completed, the mask scanning of step (51) is (repeated).

上述の慣に作成された画像記述データ(12)を表示す
る記述データ表示手段(6)の方法としては。
The method of the descriptive data display means (6) for displaying the conventionally created image descriptive data (12) is as follows.

例えば(参考文献[4!]:昭和60年度電子通信学会
総合全国大会予稿「多色1儂の図形コマンド符号化方式
の一提案」)の従来例があり、ここではその説明を省略
する。
For example, there is a conventional example (Reference [4!]: 1985 IEICE General Conference Proceedings ``A Proposal of a Multicolor Single Graphic Command Coding System''), and its explanation will be omitted here.

以上説明した様にこの発明の実施例によれば。According to the embodiments of the present invention as described above.

ステップ(31)の処理において入力画像データ(9)
を構成する領域の境界点列を抽出するとともに。
Input image data (9) in the process of step (31)
As well as extracting the boundary point sequence of the region that makes up the area.

領域間の隣接、包含関係を検出して階層データ(70)
を作成しステップ(3コ)の処理においてステップ(3
))の処理で得られた境界的列データ(りl)を直線プ
リミティブや円弧プリミティブにより近似し、ステップ
(3J)の処理において、ステップ(Ji)の処理で得
られた階層データ(70)に基づき階層の順に領域を外
側の近似境界で記述すること忙より、データ量の少い画
像記述データ(12)を作成できる効果がある。
Hierarchical data by detecting adjacency and inclusion relationships between areas (70)
Create a step (3) in the process of step (3).
)) is approximated by straight line primitives and circular arc primitives, and in the process of step (3J), the hierarchical data (70) obtained in the process of step (Ji) is approximated. This has the advantage that image description data (12) with a smaller amount of data can be created, rather than describing regions in the order of hierarchy using outer approximate boundaries.

また、この発明の実施例によれば、島の存在する領域の
境界の近似において、内側の境界に対する近似は必要な
く、近似処理時間が短縮される。
Further, according to the embodiment of the present invention, in approximating the boundary of the area where the island exists, approximation to the inner boundary is not necessary, and the approximation processing time is shortened.

また、この発明の実施例によれば記述データ表示手段(
6)において、島の存在しない閉領域のみを表示すれば
よく1表示の手順が簡略化される。
Further, according to an embodiment of the present invention, the descriptive data display means (
In 6), it is sufficient to display only the closed region in which no islands exist, and the procedure for displaying one is simplified.

尚、上記実施例では表示装置としてCRTディスプレイ
(り)で説明したが、液晶ディスプレイ、プロッタ等で
もよい。さらに第一図のシステム構成において説明を容
易にするために、ワーキングメモリ(コり、抽出領域用
メモリ(コロ)、近似領域用メモリ(27)および画像
記述用メモリ(コt)を分離して図示したが、物理的化
量−のメモリ装置内で構成してもよく、各処理において
不要な情報は消去しその上に新たな情報を作成してもよ
い。
In the above embodiment, a CRT display was used as the display device, but a liquid crystal display, a plotter, etc. may also be used. Furthermore, in order to make the explanation easier in the system configuration shown in Figure 1, the working memory (Kori), the extraction region memory (Koro), the approximate region memory (27), and the image description memory (Kot) are separated. Although shown in the figure, it may be configured in a physical memory device, and in each process unnecessary information may be erased and new information may be created thereon.

また、ステップ(32)の処理において近似するプリミ
ティブとして直線あるいは円弧としたが、清円やスプラ
イン曲線等の他のプリミティブで近但し、画像を記述し
てもよい。
Further, in the process of step (32), a straight line or a circular arc is used as the approximated primitive, but the image may also be described using other primitives such as a clear circle or a spline curve.

また、ステップ(3/)の処理において抽出する境界点
列として領域の最も外側に位置する画素の果合(外側の
輪郭点列)としたが、@10(b)において太′%線と
@0”印で示す各輪郭点の間忙位置するディジタル格子
上の点列等の他の境界点列でもよい。
Also, in the process of step (3/), the result of the pixels located at the outermost position of the area (outer contour point sequence) was used as the boundary point sequence to be extracted, but in @10(b), the thick '% line and Other boundary point sequences, such as a sequence of points on a digital grid located between each contour point indicated by a 0" mark, may also be used.

また、上記実施例ではステップ(33)の処理で階層デ
ータ(りO)に基づき階層の順に領域を並べかえたが、
この処理を省略して近似領域データ(/l)を]而面記
”述データ(lコ)として、記述データ表示手段(6)
により階層データ(りO)の順番に領域を表示する構成
でもよい。
Furthermore, in the above embodiment, the areas are rearranged in the order of hierarchy based on the hierarchy data (RIO) in the process of step (33);
This process is omitted and the approximate area data (/l) is used as the surface description data (l), and the descriptive data display means (6)
The configuration may be such that the areas are displayed in the order of hierarchical data (RIO).

また、上記実施例では画像記述データ(12)を表示す
るシステムとして説明したが、画像記述データ(12)
をパターン認識や画像解析等のより高度な処理を行うシ
ステムにも転用できるものであり、上記実施列と同様な
効果を奏するばかりでなく、この1傷記述データ(lコ
)と階層データ(りQ)釦より画像の隣接1階層構造に
関する情報が得られる効果がある。
Furthermore, although the above embodiment has been described as a system that displays image description data (12), image description data (12)
can be used for systems that perform more advanced processing such as pattern recognition and image analysis, and it not only produces the same effect as the above implementation sequence, but also combines this single wound description data (1) and hierarchical data (R). Q) There is an effect that information regarding the adjacent one-layer structure of images can be obtained from the button.

〔発明の効果〕〔Effect of the invention〕

以上説明した様にこの発明は、入力、th像データを構
成する領域の境界点列を抽出し、領域間の隣接、包含関
係を検出して階層データを作成し、抽出された境界点列
を直線や円弧等のプリミティブで近似し1階層データ釦
従い階層の順に領域を外側の近似境界で記述することに
より、データ量の少い画像記述データが得られる効果が
ある。
As explained above, the present invention extracts a sequence of boundary points of regions constituting input th image data, detects adjacency and inclusion relationships between the areas, creates hierarchical data, and extracts a sequence of boundary points from the extracted boundary points. By approximating with primitives such as straight lines and circular arcs, and describing the area in the order of the first layer data button and the outer approximate boundaries, image description data with a small amount of data can be obtained.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明の実施例の全体構成図、第コ図はこの
発明の実施例のシステム構成図、第3図は入力1謙デー
タを画像記述データI/CK摸するための処理の概略を
示すフローチャート図、第9図は領域抽出処理および境
界点列の近似処理を説明する図、第3図は領域の隣接関
係グラフを説明する図、第6図は抽出領域データのデー
タ、#R成を示す図、gり図は近似領域データおよび+
m画像記述データデータ構成を示す図、81図は第3図
のステップ(31)の処理を実現する一方法の構成図、
第を図は鷹弘図の方法の手順を示すフローチャート図、
210図はこの発明の実施例において抽出される他の境
界点列を示す図、taii図は従来例のシステム構成図
、第1J図は従来例の手順を示すフローチャート図、第
1,7図は領域の輪郭を説明する図である。 図化おいて、(/lは画像入力手段、(コ)は境界抽出
手段、(J)は領域階層化手段、(りは境界近似手段。 (j)は記述データ作成子役、(1)は記述データ表示
手段、(り)はCRTディスプレイ、(g)は原画像、
(テ)は入力1儂データ、(to3は抽出領域データ、
(11)は近似領域データ、(iコ)は+ili像記述
データ、(コl)は画像入力装置、(ココ)はIIfI
i樗メモリ。 (コ3)は処理プログラム、(コク)はCPU、(コ3
)はワーキングメモリ、(コロ)は抽出領域用メモリ、
(コク)は近似領域用メモI)、(2g>は画像記述用
メモリ、(,7/)〜(33)は第3図のフローチャー
ト図における各ステップ、(70)は階層データ。 (り/)は境界点列データ、(クコ)は近似境界データ
、 r弘/)はテスク走査型未抽出領域検出手段、(ク
コ)は島輪郭追跡手段、(173)は領域輪郭追跡手段
、(弘ダ)は領域階層化手段、(31)〜(3g)は第
を図のフローチャート図における各ステップ、(コ/l
)〜(コ/J)は@/2図のフローチャート図における
各ステップ、(2ir)はコ値化画像データ、(コ/4
)は輪郭点列データである。 尚、各図中、同一符号は同一、又は相当部分を示す。 第2図 壓4図 (a) (C) 壓4図 (d) 懲5図 (b) 氾10図 (b) W)13の 手続補正書(自発) 昭和6゜ナ、。1月4 日
FIG. 1 is an overall configuration diagram of an embodiment of the present invention, FIG. FIG. 9 is a diagram explaining the region extraction process and the boundary point sequence approximation process. FIG. 3 is a diagram explaining the region adjacency relationship graph. FIG. 6 is the data of the extracted region data, #R Figures showing the composition and g diagrams are approximate area data and +
Figure 81 is a diagram showing the data structure of m-image description data; Figure 81 is a block diagram of one method for realizing the process of step (31) in Figure 3;
Figure 1 is a flowchart showing the steps of Takahiro's method.
Fig. 210 is a diagram showing another boundary point sequence extracted in the embodiment of the present invention, Fig. taii is a system configuration diagram of the conventional example, Fig. 1J is a flowchart showing the procedure of the conventional example, and Figs. 1 and 7 are FIG. 3 is a diagram illustrating the outline of a region. In the diagram, (/l is an image input means, (c) is a boundary extraction means, (J) is a region hierarchization means, (ri is a boundary approximation means. (j) is a descriptive data creation child actor, (1) is Descriptive data display means, (ri) is a CRT display, (g) is an original image,
(te) is input 1 data, (to3 is extraction area data,
(11) is approximate area data, (i) is +ili image description data, (l) is image input device, (here) is IIfI
i-ku memory. (3) is the processing program, (3) is the CPU, (3)
) is working memory, (coro) is memory for extraction area,
(Koku) is the approximate region memo I), (2g> is the memory for image description, (,7/) to (33) are each step in the flowchart diagram in Figure 3, and (70) is hierarchical data. (Ri/ ) is boundary point sequence data, (Kuko) is approximate boundary data, r Hiro/) is Tesk scanning type unextracted area detection means, (Kuko) is island contour tracking means, (173) is area contour tracking means, (Hiroda ) is the area hierarchization means, (31) to (3g) are each step in the flowchart of Fig.
) to (ko/J) are each step in the flowchart diagram of @/2, (2ir) is the co-valued image data, (ko/4
) is contour point sequence data. In each figure, the same reference numerals indicate the same or corresponding parts. Figure 2 Figure 4 (a) (C) Figure 4 (d) Figure 5 (b) Figure 10 (b) W) 13 procedural amendments (voluntary) Showa 6゜na. January 4th

Claims (1)

【特許請求の範囲】[Claims] 画像を構成する連結領域に対して該連結領域の境界を直
線や円弧等のプリミティブで記述する画像記述装置にお
いて、該連結領域の境界点列を抽出する手段と、該連結
領域間の隣接、包含関係を検出し該連結領域の階層デー
タを作成する手段と、前記境界点列を直線や円弧等のプ
リミティブで近似する手段とを備えていることを特徴と
する画像記述装置。
In an image description device that describes the boundaries of connected regions constituting an image using primitives such as straight lines and circular arcs, means for extracting a sequence of boundary points of the connected regions, and adjacency and inclusion between the connected regions. An image description device comprising: means for detecting a relationship and creating hierarchical data of the connected region; and means for approximating the boundary point sequence with a primitive such as a straight line or an arc.
JP4743185A 1985-03-12 1985-03-12 Image describing device Pending JPS61208179A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP4743185A JPS61208179A (en) 1985-03-12 1985-03-12 Image describing device
CA000503746A CA1255021A (en) 1985-03-12 1986-03-11 Image describing apparatus
US06/838,592 US4805127A (en) 1985-03-12 1986-03-11 Image describing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4743185A JPS61208179A (en) 1985-03-12 1985-03-12 Image describing device

Publications (1)

Publication Number Publication Date
JPS61208179A true JPS61208179A (en) 1986-09-16

Family

ID=12774959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4743185A Pending JPS61208179A (en) 1985-03-12 1985-03-12 Image describing device

Country Status (1)

Country Link
JP (1) JPS61208179A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015007955A (en) * 2013-05-29 2015-01-15 メタウォーター株式会社 Hierarchical structure construction device, hierarchical structure construction method, and program
JP2020176838A (en) * 2019-04-15 2020-10-29 株式会社Soken Road sign recognition device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015007955A (en) * 2013-05-29 2015-01-15 メタウォーター株式会社 Hierarchical structure construction device, hierarchical structure construction method, and program
JP2020176838A (en) * 2019-04-15 2020-10-29 株式会社Soken Road sign recognition device

Similar Documents

Publication Publication Date Title
US4189744A (en) Apparatus for generating signals representing operator-selected portions of a scene
JPH07200835A (en) Picture data analysis method
US4853971A (en) Method and apparatus for processing image data
CN115812221A (en) Image generation and coloring method and device
US5818962A (en) Coordinate transformation method for binary image
JPS61208179A (en) Image describing device
CN1248032A (en) Graphic obliterator
JPH0130180B2 (en)
JPH0767136B2 (en) Image processing device
US7170528B1 (en) Fast glyph rendering for vector based fonts
CN112233005B (en) Three-dimensional logo watermark generation method of train dispatching terminal
JP2988620B2 (en) Image saturator
CN115578130B (en) Method for generating advertisement position information display component by full image scanning
JPS61208180A (en) Image description device
JP2908451B2 (en) Method and apparatus for processing scanned video images
JP2511966B2 (en) Graphic processing device
JP2559359B2 (en) Image structure storage method and image registration apparatus
JP3212873B2 (en) Tone image generation method
EP0381794B1 (en) Method for registering image data
JP3191409B2 (en) Font data generator
JPH11296670A (en) Image data interpolation device, its method, and medium for recording image data interpolation program
CN112542230A (en) Multi-mode interactive segmentation method and system for medical image
JPS61208174A (en) Encoder for graphic command
JP2799041B2 (en) Dot development method and dot development device
JPS62126481A (en) Area extracting device