JPS62274467A - Intellectual conversation processing method - Google Patents

Intellectual conversation processing method

Info

Publication number
JPS62274467A
JPS62274467A JP61117590A JP11759086A JPS62274467A JP S62274467 A JPS62274467 A JP S62274467A JP 61117590 A JP61117590 A JP 61117590A JP 11759086 A JP11759086 A JP 11759086A JP S62274467 A JPS62274467 A JP S62274467A
Authority
JP
Japan
Prior art keywords
vector
center line
graphic
point
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP61117590A
Other languages
Japanese (ja)
Other versions
JPH0833917B2 (en
Inventor
Satoshi Suzuki
智 鈴木
Toyomichi Yamada
山田 豊通
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP61117590A priority Critical patent/JPH0833917B2/en
Publication of JPS62274467A publication Critical patent/JPS62274467A/en
Publication of JPH0833917B2 publication Critical patent/JPH0833917B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To improve the operability and to shorten the processing time by displaying superposedly a center line vector and a graphic vector over original image data on a display device. CONSTITUTION:A vector processing part 18 extracts the required part of a pertinent center line vector from a center line vector auxiliary memory 16 and displays and emphasizes it on the display device through a display control part 20. When an operator recognizes it, an identifier giving part 19 gives an identifier to the extracted center line vector and stores it in a graphic vector auxiliary memory 12 as a graphic pattern vector. The vector processing part stops displaying and emphasizing the center line vector and displays it as the graphic vector again. When the processing to convert the displayed center line vector to the graphic pattern vector is terminated, the contents of the graphic vector auxiliary memory 12 are transferred to a graphic vector memory 13.

Description

【発明の詳細な説明】 3、発明の詳細な説明 (発明の属する技術分野) 本発明は、会話処理により図形を点や線分等のベクトル
データとして計算機等に入力する図形入力方法に関する
ものである。
[Detailed Description of the Invention] 3. Detailed Description of the Invention (Technical Field to Which the Invention Pertains) The present invention relates to a figure input method for inputting figures as vector data such as points and line segments into a computer etc. through conversational processing. be.

(従来の技術) 従来の方法の第一の方法として、図形の描かれた図面等
をディジタイザ(指示した位置座標を検出する図形入力
機器)上に置き、その上から操作者が図形上の点を指示
することにより、図形をベクトルデータとして入力する
方法がある。
(Prior art) The first conventional method is to place a drawing or the like on which a figure is drawn on a digitizer (a figure input device that detects specified position coordinates), and from there an operator points out a point on the figure. There is a method of inputting a figure as vector data by specifying .

従来の方法の第二の方法として1図面をスキャナーによ
りイメージデータとして計算機等に入力し、ディスプレ
イに表示し、ディスプレイ上で操作者が図形上の点を指
示することにより1図形をベクトルデータに変換する方
法がある。
The second method of the conventional method is to input one drawing as image data into a computer etc. using a scanner, display it on a display, and convert one figure into vector data by having the operator specify points on the figure on the display. There is a way to do it.

第1図は従来の第二の方法の例を説明する図である。FIG. 1 is a diagram illustrating an example of the second conventional method.

同図はディスプレイに表示された図の一部である。説明
を容易にするために、入力すべき図形、つまり、原イメ
ージデータは、白地に黒く描かれているものとする。同
図で実線1.2で囲まれた部分は描画部分(点部分)を
示し、その他の部分は背景部分(白部分)を示す。
This figure is a part of the figure displayed on the display. For ease of explanation, it is assumed that the figure to be input, that is, the original image data, is drawn in black on a white background. In the figure, the area surrounded by solid lines 1.2 represents the drawn area (dot area), and the other areas represent the background area (white area).

操作者は原イメージデータを参考にしながら、点p 1
1 、 p 21.・・・、P、′を順次入力し、図形
ベクトル3を生成する。
The operator selects point p 1 while referring to the original image data.
1, p 21. ..., P,' are input sequentially to generate a graphic vector 3.

第2図は従来の第二の方法の構成例を示す図である。FIG. 2 is a diagram showing an example of the configuration of the second conventional method.

入力図面4は、スキャナー5によりラスク走査され、白
黒2値のディジタルでかつ2次元の原イメージデータに
変換され、原イメージデータメモリ6に蓄積される。
The input drawing 4 is scanned by a scanner 5, converted into black and white binary digital two-dimensional original image data, and stored in an original image data memory 6.

原イメージデータの内、表示に必要な部分のみ原イメー
ジデータ副メモリ7に蓄積され1表示制御部8を介して
ディスプレイ9に表示される。
Of the original image data, only the portion necessary for display is stored in the original image data sub-memory 7 and displayed on the display 9 via the display control section 8.

操作者はディスプレイ9上の原イメージデータを見なが
ら、その上の必要な点を指示器10で順次入力する。
While viewing the original image data on the display 9, the operator sequentially inputs necessary points thereon using the indicator 10.

ベクトル発生部11は、その入力された点を用いて操作
者の指示に従い図形ベクトルを生成し1図形ベクトル副
メモリ12に蓄積する。その副メモリは図形ベクトルを
ディスプレイに表示するためにラスク型の図形イメージ
データに復号し蓄積する機能を持つ。
The vector generating section 11 generates a graphic vector using the input points according to the operator's instructions, and stores the generated graphic vector in the one-graphic vector sub-memory 12 . The sub-memory has the function of decoding and storing graphic vectors into rask-type graphic image data for display on the display.

表示面の入力作業が終った段階で図形ベクトル副メモリ
の内容は図形ベクトルメモリ13に蓄積される。
The contents of the graphic vector sub-memory are stored in the graphic vector memory 13 at the stage when the input work on the display screen is completed.

従来の第一の図形入力方法においては、入力精度を上げ
ようとすると、予め入力図面を拡大i製して作業を行な
う等の付加的な工数が必要となる欠点があった。
The first conventional graphic input method has the disadvantage that, in order to improve the input accuracy, additional man-hours are required, such as enlarging the input drawing in advance.

また、操作者の熟練度により入力精度にバラツキがある
という欠点があった。
Another drawback is that input accuracy varies depending on the skill level of the operator.

さらに、入力済みの検証や、入力洩れがないかの確認の
ために、ディジタイザ上の図面とディスプレイ面を交互
に見比べなければならない等、操作が煩雑であり、多大
な時間を要するという欠点があった。
Furthermore, the operation is complicated and time-consuming, as it is necessary to alternately compare the drawing on the digitizer with the display screen to verify completed input and confirm that there are no omissions. Ta.

従来の第二の図形入力方法においては、イメージデータ
が線幅を有する場合は、操作者により端点や交点等の座
標の入力点が異なったり、逆に、線幅が細い場合には入
力点が第1図の点P工′のように線上からはみ出したり
するなど、入力精度がバラツクという欠点があった。
In the conventional second figure input method, when the image data has a line width, the input points of coordinates such as end points and intersection points may differ depending on the operator, and conversely, when the line width is thin, the input points may differ depending on the operator. There is a drawback that the input accuracy varies, such as point P' in FIG. 1, where it protrudes from the line.

さらに1曲線の入力には、操作者の勘により、適当な間
隔で線分近似するために、やはり、入力精度にバラツキ
が出る等の欠点があった。
Furthermore, inputting one curve has the disadvantage that the input accuracy varies because the line segments are approximated at appropriate intervals based on the intuition of the operator.

(発明の目的) 本発明は、上記のような欠点を除去するためになされた
もので、図形をベクトルデータとして精度良く、効率的
に入力する知的会話処理方法を提供することを目的とす
るものである。
(Object of the Invention) The present invention was made to eliminate the above-mentioned drawbacks, and an object of the present invention is to provide an intelligent conversation processing method that inputs figures as vector data accurately and efficiently. It is something.

(発明の構成) 本発明の第1の方法は、図面をファクシミリ等のスキャ
ナーを用いて一旦計算機にイメージデータとして入力し
、そのイメージデータと、中心線ベクトルとをディスプ
レイ上に重畳表示し、ディスプレイ上で入力図形の近傍
点を座標指示器で指示し、その指示された点を予め定め
られた中心線ベクトル上の点に位置補正し、1個あるい
は複数個の前記補正点に対応する中心線ベクトルを抽出
し、その抽出ベクトルに識別子を付与し図形ベクトルと
する半自動会話処理により、図形をベクトルデータとし
て入力するようにしたものである。
(Structure of the Invention) A first method of the present invention is to input a drawing into a computer as image data using a scanner such as a facsimile, and display the image data and center line vector in a superimposed manner on a display. Indicate the neighboring points of the input figure using the coordinate indicator above, correct the position of the indicated point to a point on a predetermined center line vector, and set the center line corresponding to one or more of the correction points. Graphics are input as vector data through semi-automatic conversation processing that extracts vectors, assigns identifiers to the extracted vectors, and converts them into graphic vectors.

本発明の第2の方法は、予め原イメージデータあるいは
中心線ベクトルに図形認識処理等の自動画像処理を施し
て、識別子を有する図形ベクトルを生成し、その図形ベ
クトルと原イメージデータと中心線ベクトルをお互いに
識別可能な形式で表示し、図形ベクトル化されていない
中心線ベクトル部分のみを第1の手段と同様の半自動会
話処理により、図形をベクトルデータとして入力するよ
うにしたものである。
The second method of the present invention is to perform automatic image processing such as figure recognition processing on the original image data or center line vector in advance to generate a figure vector having an identifier, and then combine the figure vector with the original image data and the center line vector. are displayed in a mutually distinguishable format, and only the center line vector portion that has not been converted into a graphic vector is inputted as vector data through semi-automatic conversation processing similar to the first means.

(実施例) 以下1本発明の第1の方法の実施例を図面を用いて詳細
に説明する。
(Example) Hereinafter, an example of the first method of the present invention will be described in detail using the drawings.

第3図〜第5図は自動画像処理機能を含む方式概念を説
明するためのディスプレイの表示面の一部を示す例であ
る。
3 to 5 are examples showing a part of the display surface of a display for explaining the concept of the method including the automatic image processing function.

これらの図で実線は原イメージデータの描画部分の境界
を示し、破線は中心線ベクトルで、簡単のために曲線も
線分で近似されているものとする。
In these figures, the solid lines indicate the boundaries of the drawn portions of the original image data, the broken lines are center line vectors, and for the sake of simplicity, it is assumed that curves are also approximated by line segments.

黒点P4〜PいP工、〜P2□、P、1〜P3gは中心
線ベクトルを構成する線分の始点あるいは終点で、以下
、点という。
The black points P4 to P, to P2□, P, and 1 to P3g are the starting points or ending points of the line segments that constitute the center line vector, and are hereinafter referred to as points.

点Q□〜Q、は操作者による指示器からの指示点である
Points Q□ to Q are points indicated by the operator from the indicator.

描画部分は例えば水色で表示し、中心線ベクトルは青色
で表示する。
For example, the drawn portion is displayed in light blue, and the center line vector is displayed in blue.

第3図は指示点の近傍の中心線ベクトル上の閉ループを
抽出する例を説明する図である。
FIG. 3 is a diagram illustrating an example of extracting a closed loop on a centerline vector near a designated point.

つまり、指示点Q、ガ入力されると、Q、の近傍の中心
線ベクトル上の点P工を検出する。点P1を起点として
1例えば、入力点Q工を左に見る方向に、中心線ベクト
ル上の閉ループを探す。
That is, when the designated point Q is input, a point P on the center line vector near Q is detected. Starting from the point P1, for example, look for a closed loop on the center line vector in the direction of looking at the input point Q to the left.

点P2では点P、の方向と点P7の方向に中心線ベクト
ルが分岐するが、このような場合は分岐点から直前の点
を見て、時計回りの方向に最初に現れた線分を選択する
。例では線分P2P、が選択される。
At point P2, the center line vector branches in the direction of point P and in the direction of point P7, but in this case, look at the point immediately before the branching point and select the line segment that first appears in the clockwise direction. do. In the example, line segment P2P is selected.

以下同様にして。Do the same below.

線分P 3 P 4− P 4 P s −P s P
 イP s P Lを選択して。
Line segment P 3 P 4- P 4 P s -P s P
Select I P s P L.

閉ループP工P、P、P4PSP、P1を抽出する。Extract the closed loop P-work P, P, P4PSP, P1.

抽出した閉ループは原イメージデータや中心線ベクトル
と識別できるように例えば赤色で表示したり、ブリンキ
ング表示するなどして強調表示する。
The extracted closed loop is highlighted by displaying it in red or blinking so that it can be distinguished from the original image data or center line vector.

操作者は強調表示された自動抽出結果が正しければ、上
記閉ループに例えば図形の種別を表す「建物」という識
別子を付与し、図形ベクトルとしで保存する。
If the highlighted automatic extraction result is correct, the operator assigns an identifier such as "building" representing the type of figure to the closed loop and saves it as a figure vector.

識別子付与が終了するとその閉ループの強調表示を停止
し、必要であれば建物を示す色、あるいは図形ベクトル
を示す色で再表示し、単なる中心線ベクトルでなく、既
に図面ベクトルとして識別済みである針操作者に判るよ
うにする。
Once the identifier has been assigned, the closed loop is highlighted, and if necessary, it is redisplayed in the color that indicates a building or the color that indicates a geometric vector, and the needle that has already been identified as a drawing vector, not just a center line vector, is displayed again. Make it clear to the operator.

第4図は2個の指示点間で急激にバク1−ルの向きが変
化したりしない滑らかな曲線を抽出する例を示す図であ
る。
FIG. 4 is a diagram showing an example of extracting a smooth curve in which the direction of the back wheel does not change suddenly between two designated points.

つまり、2個の指示点Q2、Q、が入力されると、Q2
、Q、の各々の近傍の中心線ベクトル上の点P工0.P
工、を抽出する。
In other words, when two pointing points Q2 and Q are input, Q2
, Q, on the center line vector in the vicinity of each point P 0. P
Extract the

点pitを起点として、点Pi。の方向に中心線ベクト
ルを追跡していく。
Starting from point pit, point Pi. The center line vector is traced in the direction of .

点P。のような分岐点に遭遇した時は、直前の線分の延
長方向からの角度の小さい線分を選択する。点P、では
線分P1□P工、を選択する。
Point P. When you encounter a branch point like this, select the line segment with the smallest angle from the extension direction of the previous line segment. At point P, select line segment P1□P.

以下同様にして、滑らかな曲線(この例では線分近似さ
れている)P工□pHP13 pz4p□5ptsPエ
フP工、を抽出し、強調表示する。
In the same manner, smooth curves (in this example, line segment approximation) Pp□pHP13 pz4p□5ptsPpp are extracted and highlighted.

自動抽出結果が正しければ、前記滑らかな曲線を例えば
図形の種別を表す「道路」という識別子を付与し、図形
ベクトルとして保存する。
If the automatic extraction result is correct, the smooth curve is given an identifier such as "road" representing the type of figure, and is saved as a figure vector.

第5図は2個の指示点間の内側境界を抽出する例を説明
する図である。
FIG. 5 is a diagram illustrating an example of extracting the inner boundary between two designated points.

つまり、2個の指示点Q、、Qsが入力されると。In other words, when two pointing points Q, , Qs are input.

Q、、Q、の各々の近傍の中心線ベクトル上の点P3□
、P、7を抽出する。
Point P3□ on the center line vector near each of Q,,Q,
,P,7 is extracted.

なお、最初の指示点は例えば内側境界が大局的には反時
計回り方向にカーブするように見た場合の起点とする。
Note that the first designated point is, for example, the starting point when the inner boundary is viewed as curving counterclockwise in a general perspective.

点P、□を起点として、各点の近傍を直前の点の方向か
ら居所的に時計回りの方向に線分を順次選択していく。
Starting from points P and □, line segments are sequentially selected in the vicinity of each point in a clockwise direction from the direction of the immediately previous point.

点P34では、方向P34P33から局所的に時計回り
に線分を探し、最初に検出された線分P、4P3Gを選
択する。
At point P34, a line segment is locally searched clockwise from direction P34P33, and the first detected line segment P, 4P3G is selected.

このようにして、内側境界を示すベクトルP3XP、□
P33P34P3GP、7を抽出し、強調表示する。自
動抽出結果が正しければ、その内側境界を。
In this way, the vector P3XP, □
P33P34P3GP,7 is extracted and highlighted. If the automatic extraction result is correct, its inner boundary.

例えば、図形の種別を表す「建物」という識別子を付与
し、図形ベクトルとして保存する。
For example, an identifier "building" indicating the type of figure is assigned and saved as a figure vector.

第6図は本発明の第1の方法の実施例の構成図の例を示
す。
FIG. 6 shows an example of a block diagram of an embodiment of the first method of the present invention.

同図で、4,5.6.7,9.10.12.13は第2
図で説明したものと同じである。
In the same figure, 4, 5. 6. 7, 9. 10. 12. 13 are the second
This is the same as explained in the figure.

14は中心線ベクトル変換部で、原イメージデータを細
線化処理等により幅1画素の中心線イメージデータに変
換し、さらに線分近似等によりベクトル化し中心線ベク
トルとする。
Reference numeral 14 denotes a center line vector conversion unit which converts the original image data into center line image data with a width of 1 pixel by thinning processing or the like, and further converts the data into a vector by line segment approximation or the like to obtain a center line vector.

細線化処理にについては。Regarding line thinning processing.

文献「電子通信学会技術研究報告、PRL75−66J
等に詳しく説明しであるのでここでは省略する。
Literature “IEICE Technical Research Report, PRL75-66J
This is omitted here as it has been explained in detail elsewhere.

また、線分近似処理については、文献 「昭和59年度電子通信学会総合全国大会NO,125
2J等に詳しく述べられているので省略する。
Regarding the line segment approximation process, please refer to the document "1982 Institute of Electronics and Communication Engineers General Conference No. 125".
2J etc., so it will be omitted here.

15は中心線ベクトルメモiハ16は中心線ベクトル副
メモリで、中心線ベクトルの白表示に必要な部分のみを
一時的に蓄積し、がっ、ディスプレイに表示可能なよう
にラスタ型の中心線イメージデータに復号し蓄積もする
Reference numeral 15 denotes a center line vector memo. 16 indicates a center line vector sub-memory, which temporarily stores only the part necessary for displaying the center line vector in white. It is also decoded and stored as image data.

17は指示点補正部、18はベクトル処理部で、指示点
に関連する中心線ベクトルを抽出したり、図形ベクトル
の追加、削除、新規作成等の編集を行ない、19は抽出
した中心線ベクトルに識別子を付与する識別子付与部、
20は原イメージデータ、中心線ベクトル、図形ベクト
ルおよび指示点等を、各々識別できる状態で表示制御す
る表示制御部である。
Reference numeral 17 denotes a pointing point correction unit, and 18 denotes a vector processing unit, which extracts a center line vector related to a pointed point, and performs editing such as adding, deleting, or creating a new figure vector. an identifier assigning unit that assigns an identifier;
Reference numeral 20 denotes a display control unit that controls the display of original image data, center line vectors, graphic vectors, indicated points, etc. in a state where they can be identified.

中心線ベクトル変換部14は原イメージデータメモリ6
から原イメージデータを読み取り中心線ベクトルに変換
し、中心線ベクトルメモリ15に蓄積する。このメモリ
には一図面全体の中心線ベクトルが蓄積され1表示に必
要な部分は中心線ベークトル副メモリ16に転送される
The center line vector converter 14 converts the original image data memory 6 into
The original image data is read from , converted into a centerline vector, and stored in the centerline vector memory 15 . This memory stores the centerline vectors of the entire drawing, and the portion necessary for one display is transferred to the centerline vector submemory 16.

一画面が一度にディスプレイに表示可能な場合は、中心
線ベクトルメモリ15を省略可能である。
If one screen can be displayed on the display at a time, the center line vector memory 15 can be omitted.

表示制御部20は、原イメージデータ副メモリ7の内容
と、その原イメージデータに対応する中心線ベクトル副
メモリ16の内容を読み出し、必要な表示形式でディス
プレイ9に表示する。
The display control unit 20 reads out the contents of the original image data sub-memory 7 and the contents of the centerline vector sub-memory 16 corresponding to the original image data, and displays them on the display 9 in a necessary display format.

指示器10で入力される指示点も必要な形状や色のカー
ソルとして表示制御部20によりディスプレイ9に同時
に表示される。
The pointing point inputted by the pointing device 10 is also simultaneously displayed on the display 9 by the display control section 20 as a cursor of a necessary shape and color.

指示点補正部17は、指示器10により入力された指示
点の近傍の中心線ベクトル副メモリ16内の中心線ベク
トル上の点を検索する。
The indicated point correction unit 17 searches for a point on the center line vector in the center line vector sub-memory 16 near the indicated point inputted by the indicator 10.

具体的には指示点の座標を(x、y)としてdを予め1
0画素等に定め、 X−d≦Xp≦X+d、 Y−d≦Yp≦Y+d の条件を満たす中心線ベクトル上の点(Xp、Yp)を
検索する。
Specifically, the coordinates of the indicated point are (x, y), and d is set to 1 in advance.
0 pixel, etc., and search for a point (Xp, Yp) on the center line vector that satisfies the following conditions: X-d≦Xp≦X+d, Y-d≦Yp≦Y+d.

条件を満たす点がなければ、その旨操作者に知らせ指示
点の再入力を促す。
If there is no point that satisfies the condition, the operator is informed of this fact and prompted to re-enter the designated point.

点(Xp、Yp)があれば、その点を指示点の補正点と
し、以下その点が入力されたものとして動作を続ける。
If there is a point (Xp, Yp), that point is set as the correction point for the designated point, and the operation continues assuming that point has been input.

1個あるいは複数個の指示点が入力され、その補正が完
了すれば、ベクトル処理部18は、例えば第3図〜第5
図で説明したような方法で中心線ベクトル副メモリ16
から該当する中心線ベクトルの必要部分を抽出し、表示
制御部20を介してディスプレイに強調表示する。
When one or more indicated points are input and the correction thereof is completed, the vector processing unit 18, for example, as shown in FIGS.
Centerline vector sub-memory 16 in the manner described in the figure.
A necessary part of the corresponding center line vector is extracted from the cursor and highlighted on the display via the display control unit 20.

操作者が認識したならば、識別子付与部19はその抽出
中心線ベクトルに識別子を付与し、図形ベクトルとして
図形ベクトル副メモリ12に格納する。
If the operator recognizes it, the identifier assigning unit 19 assigns an identifier to the extracted center line vector and stores it in the graphic vector sub-memory 12 as a graphic vector.

ベクトル処理部18は、その中心線ベクトルの強調表示
を停止し、図形ベクトルとして再表示する。
The vector processing unit 18 stops highlighting the centerline vector and displays it again as a graphic vector.

その表示中の中心線ベクトルの図形ベクトル化の処理が
終了すれば、図形ベクトル副メモリ12の内容を図形ベ
クトルメモリ13に転送する。
When the process of converting the center line vector being displayed into a graphic vector is completed, the contents of the graphic vector sub-memory 12 are transferred to the graphic vector memory 13.

この後、必要に応じて、入力図面4の他の領域の図形入
力処理を行なうために原イメージデータ副メモリ7、中
心線ベクトル副メモリ16あるいは必要に応じて図形ベ
クトル副メモリ12の内容を書き変えて上述の動作を繰
り返す。
Thereafter, the contents of the original image data sub-memory 7, the center line vector sub-memory 16, or the graphic vector sub-memory 12 are written as necessary in order to perform figure input processing in other areas of the input drawing 4. Change it and repeat the above operation.

次に本発明の第2の方法の実施例について図面を用いて
詳細に説明する。
Next, an embodiment of the second method of the present invention will be described in detail using the drawings.

第7図は本発明の第2方法の実施例を説明する図であり
、方式概念を説明するためのディスプレイの表示面の一
部を示す例である。
FIG. 7 is a diagram for explaining an embodiment of the second method of the present invention, and is an example showing a part of the display surface of a display for explaining the concept of the method.

図で、実線は原イメージデータの描画部分の境界を示し
、破線は中心線ベクトルで、一点鎖線は自動図形!!識
焙処理認識された図形ベクトルを示す。
In the figure, the solid line indicates the boundary of the drawing part of the original image data, the dashed line is the center line vector, and the dash-dotted line is the automatic figure! ! It shows the figure vector recognized by the cognitive process.

黒点P4゜〜P4.は中心線ベクトルを構成する線分の
端点である。
Sunspot P4°~P4. are the end points of the line segments that make up the centerline vector.

黒点P4゜〜P42.P4s、P□は図形ベクトルを構
成する線分の端点てもある。
Sunspot P4°~P42. P4s and P□ are also the end points of the line segments that constitute the figure vector.

点Q、、Q7は操作者による指示器からの指示点である
Points Q, , Q7 are points indicated by the operator using the indicator.

描画部分は例えば水色で表示し、中心線ベクトルは青色
で表示する。
For example, the drawn portion is displayed in light blue, and the center line vector is displayed in blue.

図形ベクトル−p4.p、1p4.と、P47P4.・
・・は「道路」の一部であり。
Graphic vector-p4. p, 1p4. and P47P4.・
... is part of the "road".

図形ベクトルP42P4sP□・・・は「等高線」の一
部である。
The graphic vector P42P4sP□... is part of the "contour line".

認識洩れの中心線ベクトルP4□P43P44を半自動
会話処理により「道路」に図形ベクトル化する方法を説
明する。
A method of converting the unrecognized center line vector P4□P43P44 into a "road" graphic vector by semi-automatic conversation processing will be explained.

予め「道路」の入力を行なうことを指示しておき、認識
済みの「道路」の図形ベクトル・・・P4゜P4、PI
3の端点P42の近傍Q6を指示し、点P、2に位置補
正する。
Instruct to input "road" in advance, and input the recognized "road" graphic vector...P4゜P4, PI
3, and the position is corrected to point P,2.

追加入力すべき中心線ベクトルの、もう一方の端点であ
るP44の近傍Q、を指示し、点P44に位置補正する
The neighborhood Q of P44, which is the other end point of the center line vector to be additionally input, is designated, and the position is corrected to point P44.

点P42を起点として第4図で示した方法等で曲線追跡
を行ない、中心線ベクトルP4□P43P44を抽出し
強調表示する。
Using the point P42 as a starting point, curve tracing is performed using the method shown in FIG. 4, etc., and the center line vector P4□P43P44 is extracted and highlighted.

操作者が確認したならば、その抽出ベクトルを認識済み
の図形ベクトル・・・P4゜P4iP42に追加し。
When the operator confirms it, the extracted vector is added to the recognized graphic vectors...P4°P4iP42.

図形ベクトル・・・P 40 P 41 P 42 P
 43 P 44とする。
Figure vector...P 40 P 41 P 42 P
43 P 44.

その抽出ベクトルの強調表示は停止し、図形ベクトル・
・・P4゜P 41 P 42 P 4) P 44と
して再表示する。
The extraction vector will no longer be highlighted, and the shape vector will no longer be highlighted.
...P4゜P41 P42 P4) Redisplay as P44.

第8図は本発明の第2の方法の実施例の構成を示す図で
あり、図形認識部21以外は第6図の構成要素と同じで
ある。
FIG. 8 is a diagram showing the configuration of an embodiment of the second method of the present invention, and the components other than the figure recognition section 21 are the same as those in FIG.

第1の実施例では、図形ベクトルは全て会話処理により
生成されたが、第2の実施例では、会話処理を行なう前
に図形の自動認識処理等の画像処理により、可能な範囲
で中心線ベクトルに識別子を付与し1図形ベクトル化す
る。
In the first embodiment, all figure vectors were generated by conversation processing, but in the second embodiment, center line vectors are generated to the extent possible by image processing such as automatic figure recognition processing before conversation processing. is given an identifier and converted into a single figure vector.

図形認識部21は、この画像処理を行なう部分である。The figure recognition unit 21 is a part that performs this image processing.

図形認識の具体的方法の例としては、文献「昭和60年
度電子通信学会全国大会情報システム部門予稿、No、
56−6」等が適用可能であり、ここでは詳細な説明は
省略する。
As an example of a specific method of figure recognition, please refer to the document “Preface of Information Systems Division of the 1985 National Conference of the Institute of Electronics and Communication Engineers, No.
56-6'' etc., and detailed explanation will be omitted here.

第8図で図形認識部21は原イメージデータメモリ6あ
るいは中心線ベクトルメモリ15より、原イメージデー
タあるいは中心線ベクトル(@合によっては両方のデー
タ)を読み取って建物や道路等の認識を行ない、識別し
たベクトルに各識別子を付与し、図形ベクトルとして図
形ベクトルメモリ13に蓄積する。
In FIG. 8, the figure recognition unit 21 reads the original image data or the center line vector (or both data depending on the case) from the original image data memory 6 or the center line vector memory 15, and recognizes buildings, roads, etc. Each identifier is assigned to the identified vector and stored in the graphic vector memory 13 as a graphic vector.

なお、ベクトル処理部18の自動画像処理機能は図形認
識部21の自動画像処理機能の一部と同一であり、それ
らの部分を共通化することも可能である。
Note that the automatic image processing function of the vector processing section 18 is the same as a part of the automatic image processing function of the figure recognition section 21, and it is also possible to make these parts common.

指示点補正部17は指示点と中心線ベクトル副メモリ1
6内中心線ベクトル上の点に位置補正することに加えて
、必要な場合は指示点を図形ベクトル副メモリ内の図形
ベクトル上の点に位置補正を行なう、その他の動作は第
6図で説明した場合と同じであり、説明を省略する。
The indicated point correction unit 17 stores the indicated point and center line vector sub-memory 1.
In addition to correcting the position of the point on the center line vector within 6, if necessary, the position of the indicated point is corrected to the point on the figure vector in the figure vector sub-memory.Other operations are explained in Figure 6. This is the same as in the case of

(発明の効果) 以上説明したように、本発明によれば、ディスプレイ上
に原イメージデータと中心線ベクトルと図形ベクトルを
重畳表示するので、操作性が向上し、処理時間の短縮が
図れるという効果がある。
(Effects of the Invention) As explained above, according to the present invention, the original image data, the center line vector, and the figure vector are displayed in a superimposed manner on the display, which improves operability and reduces processing time. There is.

また、イメージデータのベクトル化は予め中心線イメー
ジデータを用いて自動的に行なわれるので、操作者の個
人差や熟練度に無関係に、極めて精度良く図形のベクト
ル入力が可能となる効果がある。
Further, since vectorization of image data is automatically performed in advance using centerline image data, it is possible to input graphic vectors with extremely high accuracy, regardless of individual differences or skill level of the operator.

また、指示点を自動的に中心線ベクトル上の点に位置補
正するので、操作者はある程度ラフに指示点の入力が出
来るので、軽い負担で高速に処理出来るという効果があ
る。
Furthermore, since the position of the designated point is automatically corrected to a point on the center line vector, the operator can input the designated point somewhat roughly, which has the effect of allowing high-speed processing with a light burden.

また、会話処理においても認識機能を用いるので、少な
い指示点でより多くのベクトル図形を入力できるという
効果がある。
Furthermore, since the recognition function is also used in conversation processing, there is an effect that more vector figures can be input with fewer pointing points.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は従来の第二の方法の例を説明する図、第2図は
従来の第二の方法の構成例を示す図、第3図〜第5図は
自動画像処理機能を含む本発明の方式概念を説明するた
めの図、 第6図は本発明の第1の方法の実施例の構成図、第7図
は本発明の第2方法を説明する図、第8図は本発明の第
2の方法の実施例の構成を示す図である。 4 ・・・入力図面、5 ・・・スキャナー、6 ・・
・原イメージデータメモリ、 7 ・・・原イメージデータ副メモリ、8・・・表示制
御部、9 ・・・ディスプレイ、10・・・指示器、1
1・・・ベクトル発生部。 12・・・図形ベクトル副メモリ。 13・・・図形ベクトルメモリ、 14・・・中心線ベクトル変換部、 15・・・中心線ベクトルメモリ、 16・・・中心線ベクトル副メモリで。 17・・・指示点補正部、18・・・ベクトル処理部、
19・・・識別子付与部、20・・・表示制御部。 21・・・図形認識部。 特許出願人 日本電信電話株式会社 第1図 第2図 第3図 第4図 Q2 第5図 p、。
FIG. 1 is a diagram illustrating an example of the conventional second method, FIG. 2 is a diagram showing a configuration example of the conventional second method, and FIGS. 3 to 5 are diagrams illustrating the present invention including an automatic image processing function. FIG. 6 is a block diagram of an embodiment of the first method of the present invention, FIG. 7 is a diagram explaining the second method of the present invention, and FIG. 8 is a diagram of the embodiment of the first method of the present invention. It is a figure which shows the structure of the Example of a 2nd method. 4...Input drawing, 5...Scanner, 6...
・Original image data memory, 7: Original image data sub-memory, 8: Display control unit, 9: Display, 10: Indicator, 1
1... Vector generation part. 12...Graphic vector submemory. 13... Graphic vector memory, 14... Center line vector converter, 15... Center line vector memory, 16... Center line vector sub memory. 17... Indicated point correction section, 18... Vector processing section,
19...Identifier assigning unit, 20...Display control unit. 21...Graphic recognition section. Patent applicant Nippon Telegraph and Telephone Corporation Figure 1 Figure 2 Figure 3 Figure 4 Q2 Figure 5 p.

Claims (2)

【特許請求の範囲】[Claims] (1)図形をベクトルデータとして会話形式で入力する
方法において、 図形の原イメージデータを蓄積する第1の手段と、 その原イメージデータを中心線ベクトルに変換し蓄積す
る第2の手段と、 その原イメージデータと対応する中心線ベクトルを同一
ディスプレイに識別可能な状態で重畳表示する第3の手
段と、 ディスプレイ上の任意点を指示する第4の手段と、 第4の手段により入力された指示点を予め定められた中
心線ベクトル上の点に位置補正した補正点を得る第5の
手段と、 第5の手段により得られた1個あるいは複数個の補正点
に対応する中心線ベクトルの必要部分を自動画像処理機
能を用いて抽出する第6の手段と、第6の手段により得
られた中心線ベクトルに識別子を付与し図形ベクトルと
する第7の手段と、その図形ベクトルを認識可能な状態
で表示する第8の手段と、 その図形ベクトルを蓄積する第9の手段とを有すること
を特徴とする知的会話処理方法。
(1) A method for inputting a figure as vector data in a conversational format, which includes: a first means for accumulating original image data of the figure; a second means for converting and accumulating the original image data into a centerline vector; a third means for superimposing the center line vector corresponding to the original image data in an identifiable state on the same display; a fourth means for indicating an arbitrary point on the display; and an instruction input by the fourth means. A fifth means for obtaining a correction point whose position is corrected to a point on a predetermined centerline vector, and a centerline vector corresponding to one or more correction points obtained by the fifth means. a sixth means for extracting the portion using an automatic image processing function; a seventh means for adding an identifier to the center line vector obtained by the sixth means to make it a figure vector; and a seventh means for making the figure vector recognizable. An intelligent conversation processing method, comprising: an eighth means for displaying the state, and a ninth means for accumulating the graphic vector.
(2)図形をベクトルデータとして会話形式で入力する
方法において、 図形の原イメージデータを蓄積する第1の手段と、 その原イメージデータを中心線ベクトルに変換し蓄積す
る第2の手段と、 前記原イメージデータ又は前記中心線ベクトルに自動画
像処理を施し、識別子を有する図形ベクトルを生成する
第3の手段と。 図形ベクトルを蓄積する第4の手段と、 前記原イメージデータと対応する中心線ベクトルおよび
図形ベクトルを同一ディスプレイに識別可能な状態で重
畳表示する第5の手段と、 ディスプレイ上の任意点を指示する第6の手段と、 第6の手段により入力された指示点を予め定められた中
心線ベクトル上の点に位置補正した補正点を得る第7の
手段と、 第7の手段により得られた1個あるいは複数個の補正点
に対応する中心線ベクトルの必要部分を第3の手段の自
動画像処理機能を用いて抽出する第8の手段と、 第8の手段により得られた中心線ベクトルを識別可能な
状態で表示する第9の手段と、 第9の手段により得られた中心線ベクトルに識別子を付
与し図形ベクトルとする第10の手段とを有することを
特徴とする知的会話処理方法。
(2) A method for inputting a figure as vector data in a conversational format, comprising: a first means for accumulating original image data of the figure; a second means for converting and accumulating the original image data into a centerline vector; and third means for generating a graphic vector having an identifier by performing automatic image processing on the original image data or the center line vector. a fourth means for accumulating graphic vectors; a fifth means for superimposing a center line vector and a graphic vector corresponding to the original image data on the same display in a distinguishable state; and indicating an arbitrary point on the display. a sixth means; a seventh means for obtaining a correction point by correcting the position of the indicated point input by the sixth means to a point on a predetermined centerline vector; an eighth means for extracting a necessary part of the centerline vector corresponding to one or more correction points using the automatic image processing function of the third means; and identifying the centerline vector obtained by the eighth means. An intelligent conversation processing method, comprising: a ninth means for displaying in a possible state; and a tenth means for adding an identifier to the center line vector obtained by the ninth means and converting it into a graphic vector.
JP61117590A 1986-05-23 1986-05-23 Graphic input processing device by intelligent conversation processing Expired - Fee Related JPH0833917B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61117590A JPH0833917B2 (en) 1986-05-23 1986-05-23 Graphic input processing device by intelligent conversation processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61117590A JPH0833917B2 (en) 1986-05-23 1986-05-23 Graphic input processing device by intelligent conversation processing

Publications (2)

Publication Number Publication Date
JPS62274467A true JPS62274467A (en) 1987-11-28
JPH0833917B2 JPH0833917B2 (en) 1996-03-29

Family

ID=14715582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61117590A Expired - Fee Related JPH0833917B2 (en) 1986-05-23 1986-05-23 Graphic input processing device by intelligent conversation processing

Country Status (1)

Country Link
JP (1) JPH0833917B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02183374A (en) * 1989-01-10 1990-07-17 Fujitsu Ltd Overlapped display processing system for image data and vector data
JP2008059329A (en) * 2006-08-31 2008-03-13 Canon Inc Apparatus and method of closed loop automatic recognition

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ITMI20120053A1 (en) 2012-01-19 2013-07-20 Danieli Off Mecc DIRECT EXTRUSION PRESS FOR METAL PRODUCTS

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5856175A (en) * 1981-09-30 1983-04-02 Fujitsu Ltd Graph matching system
JPS59191667A (en) * 1983-04-16 1984-10-30 Dainippon Printing Co Ltd Picture data converting system
JPS60111490A (en) * 1983-11-22 1985-06-17 富士通株式会社 Printed board pattern drawing automatically digitizing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5856175A (en) * 1981-09-30 1983-04-02 Fujitsu Ltd Graph matching system
JPS59191667A (en) * 1983-04-16 1984-10-30 Dainippon Printing Co Ltd Picture data converting system
JPS60111490A (en) * 1983-11-22 1985-06-17 富士通株式会社 Printed board pattern drawing automatically digitizing device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02183374A (en) * 1989-01-10 1990-07-17 Fujitsu Ltd Overlapped display processing system for image data and vector data
JP2008059329A (en) * 2006-08-31 2008-03-13 Canon Inc Apparatus and method of closed loop automatic recognition

Also Published As

Publication number Publication date
JPH0833917B2 (en) 1996-03-29

Similar Documents

Publication Publication Date Title
Kaneko Line structure extraction from line-drawing images
US6728407B1 (en) Method for automatically determining trackers along contour and storage medium storing program for implementing the same
CN111738917A (en) Picture scaling method, device, equipment and storage medium
JPS62274467A (en) Intellectual conversation processing method
US20110187721A1 (en) Line drawing processing apparatus, storage medium storing a computer-readable program, and line drawing processing method
US5299301A (en) Image displaying method and apparatus
JPS62269276A (en) Interactive graphic inputting system
JPH1049688A (en) Method for partial erasing method and partial detection method for picture data
JPH01126717A (en) Linear graphic input device
JPH06119448A (en) Image processing method
JP3426005B2 (en) Line figure input device
JPS63204469A (en) Drawing processing system
JP2968028B2 (en) Figure input processing method
JP2876023B2 (en) How to segment skeleton points
JPS62107380A (en) Graphic inputting system
JPH08194804A (en) Map input processor and its method
JP2974744B2 (en) Boundary surrounding relation extraction processing method and processing apparatus therefor
JPH07320065A (en) Device and method for vector generation of drawing
JP3396374B2 (en) Image processing apparatus and image processing method
JP2578965B2 (en) Graphic processing unit
JPS63241625A (en) Line drawing input device
JPH1139366A (en) Computer input system and method therefor
JPS6344278A (en) Semi-automatic drawing input system
JPS6398788A (en) Recognizing device
JPH01229383A (en) Topological structure extracting method

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees