JP3668560B2 - Line figure recognition method and recognition apparatus - Google Patents

Line figure recognition method and recognition apparatus Download PDF

Info

Publication number
JP3668560B2
JP3668560B2 JP20153196A JP20153196A JP3668560B2 JP 3668560 B2 JP3668560 B2 JP 3668560B2 JP 20153196 A JP20153196 A JP 20153196A JP 20153196 A JP20153196 A JP 20153196A JP 3668560 B2 JP3668560 B2 JP 3668560B2
Authority
JP
Japan
Prior art keywords
line
recognition
route
search
agent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP20153196A
Other languages
Japanese (ja)
Other versions
JPH09102044A (en
Inventor
貴志子 丸山
茂 嶋田
一弘 開
好則 高原
厚 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Software Engineering Co Ltd
Hitachi Ltd
Original Assignee
Hitachi Software Engineering Co Ltd
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Software Engineering Co Ltd, Hitachi Ltd filed Critical Hitachi Software Engineering Co Ltd
Priority to JP20153196A priority Critical patent/JP3668560B2/en
Publication of JPH09102044A publication Critical patent/JPH09102044A/en
Application granted granted Critical
Publication of JP3668560B2 publication Critical patent/JP3668560B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、スキャナ・TVカメラ等の光電変換装置により読み込んだ地図や図面に含まれた図形をデータベースに登録する図形の登録方法に関わり、特に等高線のように複数の似通った線の集合によって表される図形を認識して登録する場合に有効な線図形の認識方法に関する。
【0002】
【従来の技術】
従来の線図形の認識方法として、等高線情報の自動入力に関する先行的な研究が数多く報告されている。例えば、文献1:安居院他2、「山岳地図情報に関する研究」(電子情報通信学会報告、PRL81-37,1981)では、入力対象となる山岳地図画像に細線化処理を加えた後、長いベクトル成分をなすかどうかの判定から等高線候補を抽出し、文字や記号により分断された等高線候補間をベクトルの角度に基づいて相互に接続する方法が提案されている。しかし、この方法では、ベクトルの角度の判定が局所的になるために、接続誤りが多く発生する問題があった。
【0003】
一方、文献2:水谷他3、「ボロノイ線図による隣接関係を用いた等高線の抽出」(電子情報通信学会論文誌D-II、Vo1.J74-D-II,No.11,1991)では、線分の大域的な隣接関係を把握するためにボロノイ線図を作成し、これから線分間の隣接グラフを求め、分断された等高線成分の接続を正確に行う方法が提案されている。この方法では、隣接グラフの判定から接続誤りを減少させることが可能になっている。しかし、等高線が狭い領域に密集して図面として接合している部分や標高値・崖記号等によって線が分断する部分では、等高線を完全に認識することは不可能であり、多くの認識誤りを生じる。このため上記のようなバッチ処理型の入力方法を利用した自動認識を行った場合は、集中的な誤りチェックを操作者に要求することが多かった。この集中的な誤りチェックは膨大な労力を必要とするため、システムへの入力から出力に至る全体の工数は減少しないという問題があった。
【0004】
そこで、文献3:山川他1、「会話型図面入カシステム」(日経コンピュータグラフィックス、1987年4月号、pp.120-130)に示されているように、ベクトル化初期の段階から積極的に操作者の判断が反映されるような対話誘導型の認識方式が注目されるようになってきている。この対話誘導型の認識方式では、ベクトル化の方向が自動的に決定されない場合には、システムから操作者への問い合わせによってベクトル化の方向を決定するため、誤りチェックに要する無駄な作業を削減することができる。しかし、等高線の接合部や分断部のように探索方向が自動的に決定しない箇所にさしかかる度に、探索をする方向すなわちベクトル化方向を問い合わせるようなシステム構成のため、操作者(ユーザ)の負担が大きい。
【0005】
一方このような流れとは別に、対象となる図形を部分と全体の関係によって構造的に記述し、逐次的に探索した部分間の整合性を確認することによって全体の認識を行う研究も数多く報告されている。例えば、文献4:中村他1、「並列探索による画像特徴抽出」(人工知能学会誌、Vo1.8,No.1,PP.65-78,1993)では、このような構造記述に基づく特徴抽出をマルチエージエントの協調的な動作によって実現することを提案している。この方法によると、処理の流れに関する詳細な記述がなくとも、実行時に動的に処理を決定していくことが可能であり、自己整合的な問題解決による高精度な画像認識が期待されている。しかしこの方法は、組み合わせの爆発により膨大な計算時間を要する可能性がある。また、等高線のような複雑な形状をもつ図形では、構造記述自体も明確ではない。
【0006】
そこで本発明では、マルチエージェント理論の線図形認識への適用として、操作者が指定した複数の隣接する線の一本一本に対応して経路認識を行う認識エージェントと全体の管理を行う管理エージェントによってシステムを構成する方法を提案する。この方法では各エージェントの自律的な挙動とエージェント間の協調動作を記述することによって高精度な認識が可能となる。しかし、エージェントの割り当てが間違っていて、一本の等高線に対応して二つのエージェントが設定されたりすると、エージェント間の協調動作が正しく行われないため、認識結果も間違ってしまうという問題がある。マルチエージェントの協調動作によって高精度な認識を実現するためには、エージェントが正しく設定されるようにエージェントの割り当てを自動的に変更する技術が重要である。
【0007】
エージェントの割り当ての変更が実現している例として、文献5:行天他3、「文書画像からの文字切り出しのためのマルチエージェントシステム(...)がある。この文献では、マルチエージェント理論における空間分散方式を文書画像中の文字切り出し問題に適用し、文書画像中の一つの文字列に対応して一つのエージェントを設定している。しかし、文字切り出しと線図形の認識では認識対象が異なるため、文字認識に用いたエージェントの割り当てと割り当ての誤り検出方法をそのまま線図形に用いることはできない。
【0008】
【発明が解決しようとする課題】
本発明の目的は、地図または図面上の図形をベクトル化データとして登録する際に図の表記上の制約(解像度、注釈等)によって、本来連続している線が不連続となっている部分や、本来独立した複数の線が結合してしまっている部分(以下問題箇所)を自動的に補間して、1つの図形を1つの連続するベクトル化データとして認識する際に、すでに認識が完了した確実な認識結果に基づいて、誤りなく線認識処理を行い、その結果をデータベースに自動的に登録することが可能な図形の登録方法及び装置を提供することにある。
【0009】
本発明の他の目的は、経路補間前の図形に認識エージェントを割り当て、対象経路の認識を行う認識エージェント間で誤った割り当てを解消して、線図形の自動認識及び登録をすることが可能な線図形の登録方法及び装置を提供することにある。
【0010】
【課題を解決するための手段】
上記目的を達成するために、紙図面上の線で表現されている図形を2値の画像データとして計算機に入力し、細線化ベクトル化処理等によって第1のベクトル化データを作成し、該第1のベクトル化データの構成要素に対してエージェントを割り当てる。該エージェントが対応するベクトル化データを認識するときに問題箇所に遭遇した場合、隣接するベクトル化データを参照して問題箇所のベクトル化データを補間して、得られた一連のベクトル化データを一つの図形データとして認識し、第2のベクトル化データとして登録する。更に、第一のベクトル化データに割り当てたエージェントが認識する図形データと一対一に対応するように、隣接関係のような線図形の基本特性に基づいてエージェントの割り当てが正しいかどうかを判断し、間違っている場合には線図形の基本特性に対応する矛盾が解消されるようにエージェントを統合したり分割したりしてエージェントの割り当てを変更する。また、エージェントの初期割り当て時には、局所的な連結性に基づいて図面全体の線経路を認識し、認識した線経路の一本一本に対応してエージェントを割り当ててもよい。なお、認識対象とする線図形は、画像から抽出された輪郭線でもよい。
【0011】
【発明の実施の形態】
以下、本発明の一実施例を、地形図中の等高線を認識する例を用いて説明する。
【0012】
(1)全体システム
図1は本発明による線図形の認識を行うためのシステム構成を示す図である。1は線の認識・ベクトル化等システムの制御を行う中央処理装置である。2は地図・図面を2値画像データとして取り込む画像入力装置である。例えば、スキャナを挙げられる。3はスキャナにて得られた2値画像データを格納するための第1のファイル装置である。4は第1のファイル装置に格納されている2値画像データに前処理を施して得られたベクトル化データを格納するための第2のファイル装置である。ここで行われる前処理は2値画像データを代表する特徴点(屈曲点と端点)を2つ以上抽出し、それらの点の位置座表を求め、順番にベクトル化する処理を指す。5はスキャナで取り込まれた2値画像データ、前処理により得られたベクトルデータ及び認識処理後のベクトルデータにより線画像、線図形等を表示する表示装置である。6は本システムの操作に対する指示を入力する入力装置である。7は、中央処理装置1で実行される前処理、認識処理等を記述したプログラム、及び処理の際に用いられる記憶領域を有するメモリである。ファイル装置(1)(2)やメモリ7はシステム内部に設けられているか、外部に備えるかを問わない。また、ファイル装置(1)(2)とメモリ7は、1つの大きなメモリと統合し、使用領域の分割によって区別されても良い。
【0013】
図1のシステム全体の処理動作の概要を図2を用いて説明する。図2は、本システム全体の処理概略を示すPAD図である。
【0014】
はじめに、スキャナ2により、処理すべき地形図が読み込まれ、2値画像データとして、ファイル装置(1)3に記憶される(ステップ401)。
【0015】
ファイル装置(1)3に記憶された地形図の原画像データに対して、まず前処理としてベクトル化処理(前処理プログラム;ステップ402)を施して認識対象を含む入力された地形図そのもののベクトル化データを得る。本実施例においては、等高線のベクトル化データが得られる。得られた等高線の連続する一本に対して1つの認識エージェントを割り当て(初期割り当てプログラム;ステップ404)、等高線の認識を行う。割り当てられた認識エージェントの処理が全て終わるまで、認識エージェント間の競合解消処理及び協調認識処理を繰り返す(認識プログラム;ステップ405〜407)。等高線の認識処理が終わると、その結果を最終結果としてファイル装置(2)4等の記憶装置に蓄積する(登録プログラム)。必要有れば、表示装置へ表示する。次に個々の処理について説明する。
【0016】
(2)ベクトル化処理(前処理プログラム;ステップ402)
図3は、本実施例の処理を説明するための画面表示例である。画面表示300は、ファイル装置(1)3から読み込んだ地形図の原画像データに対してベクトル化処理を施した後のベクトル化データを表示した図である。
【0017】
本発明では、折れ線近似による間引き処理やヒゲ除去といった図形処理をベクトル化処理の後に実施してもよい。また、ベクトル化処理に伴う図形の変形等をさけるために、ノイズや文字・記号等の分離といった画像処理をベクトル化処理の前に実施してもよい。
【0018】
(3)認識対称図形へのエージェントの割り当て(初期割り当てプログラム;ステップ403,404)
(3-1)認識対象領域(等高線成分)の抽出
画面表示300は、一般の地形図を読み込んだ2値画像データの表示である。そのような地形図は、等高線301だけでなく、家枠102、道路103、標高値や文字104等の様々な成分を含んでいる。画面表示300から処理対象図形である線図形を抽出するには、入力装置6によって、対象とする領域を直接指定する(310)。311はユーザがマウスを利用して指定した領域である。また、家枠102、道路103、標高値や文字104等、線図形以外の成分を指示装置6から指定して削除し、残りの表示を認識対象領域として指定してもよい(320)。
【0019】
もちろん、読み込まれた画像が、認識対象とする図形のみにより構成されている場合や、上記の(2)で説明した文字・記号等を分離する画像処理がすでに実施されている場合は、単に処理対象領域の指定を行えばよい。
【0020】
上記の方法のように、ユーザが外部より認識対象を指定してもよいが、以下に示すように認識対象図形を自動的に抽出する方法を用いることができる。図4〜図9を用いて説明する。
【0021】
図4は等高線成分の自動抽出処理の流れを示すPAD図であり、図5は本方法において用いるテーブル構造を表す図である。500は図面全体に対応するベクトルデータテーブルであり、このテーブルには細線化ベクトル化処理(ステップ402)によって得られたベクトルの始点及び終点の座標に関する情報が格納されている。まず、500に対応するリストラベルテーブルを作成し、ラベルを0に初期化する(ステップ400)。510はリストラベルテーブルであり、リスト番号は500に格納されているベクトルの番号を、ラベルは対応するベクトルの認識が終了したかどうかのフラグ情報を表す。そこで、図面に対応する総てのベクトルについて(ステップ410)、対応するリストのラベルが0かどうかを判定する(ステップ420)。ラベルが0ならば、そのベクトルを出発点として線経路を認識し、対応するリストにラベルを付与する(ステップ430)。例えば、認識した線経路の番号をラベルとして付与する。520は認識した線経路データテーブルであり、このテーブルには線経路の構成点数及び構成点座標に関する情報が格納されている。これより、認識した線経路の特徴量を求めて、特徴空間におけるクラスタリングによって線経路を分類し、線経路情報テーブルに格納する(ステップ440)。530は線経路情報テーブルであり、ラベルは520に格納されている線経路の番号を、線経路情報は特徴量空間における分類を表す。例えば、その線経路が認識対象に対応していないならば0、対応しているならば1を付与することにする。
【0022】
次に、等高線成分の抽出方法における線経路の認識方法を図6及び図7にて説明する。図6は線経路認識処理の流れを示すPAD図であり、図7は本方法における探索領域の設定方法とベクトルの決定方法に関する説明図である。まず、探索領域として円領域を設定し(ステップ611)、探索基点(確定経路の終点)の近傍領域を探索する。700はこの円領域の設定に関する説明図である。ここでは、探索基点を中心とした円領域を設定し、この領域内に端点を持つベクトルを探索する。但し、すでに認識の終了したベクトルは探索対象から除外する。ここで、円の半径は隣接する等高線間の距離に比べて十分に小さい値を設定する。ベクトルがこの円領域内に端点を持つかどうかの条件は701の条件式によって表される。ベクトルが円領域内に存在しないならば(ステップ612)、探索領域として楕円領域を設定し(ステップ613)、探索領域を拡大して再度探索する。710はこの楕円領域の設定方法に関する説明図である。ここでは、探索基点(確定経路の終点)と確定経路の延長線上の点を二つの焦点とする楕円領域を設定し、この領域内に端点を持つベクトルを探索する。ベクトルがこの領域内に端点を持つかどうかの条件は711によって表される。ベクトルが楕円領域内に存在しないならば(ステップ614)、線経路の認識を終了する(ステップ615)。ベクトルが存在する場合は、ベクトルを接続した場合の線の滑らかさを評価関数としてベクトルを決定する(ステップ616)。720は線の滑らかさに基づくベクトルの決定方法に関する説明図である。721は評価関数の定義とベクトルの決定条件を表す。二つ以上のベクトルが候補として存在する場合、どちらのベクトルでも滑らかに接続するならば、次のベクトルを決定することはできない。そこで、評価関数が指定範囲以下であって、評価関数の差が指定範囲以上ならば、次のベクトルとして決定する。ベクトルが決定しない場合は(ステップ617)、線経路の認識を終了する(618)。このような探索領域の設定からベクトルの決定までを、線経路の認識が終了するまで繰り返す(ステップ610)。730は線経路の認識において用いるパラメータの一覧である。
【0023】
次に、等高線成分の抽出方法における線経路の分類方法を図8にて説明する。800は認識した線経路の例を表示した図である。認識した線経路は、ベクトル化データが存在するベクトル部分と、ベクトル化データが存在しないギャップ部分によって構成されている。ところで、等高線図形は、1)曲がりくねっている、2)実線で表示されている。3)ある程度以上の長さである、といった特徴を持つ。従って、特徴空間におけるクラスタリング処理を利用すれば、等高線図形に対応する線経路を抽出することが可能である。810は曲がりくねっているという基本特性に対応する特徴量とこの基本特性が満足されるための特徴量の条件を表す。この基本特性の特徴量は始終点間の距離/経路長によって表され、この特徴量が指定範囲以下ならば曲がりくねっていると判断される。820は実線で表示されているという基本特性に対応する特徴量とこの基本特性が満足されるための特徴量の条件を表す。この基本特性の特徴量はベクトル長の総和/経路長によって表され、この特徴量が指定範囲以上ならば実線で表示されていると判断される。830はある程度以上の長さであるという基本特性に対応する特徴量とこの基本特性が満足されるための特徴量の条件を表す。この基本特性の特徴量は経路長によって表される。
【0024】
次に、等高線成分の抽出におけるパラメータ設定方法を図9にて説明する。等高線成分の抽出方法として特徴量に基づく線経路の分類方法を用いると、特徴量の範囲をパラメータとして設定する必要がある。図9はこのようなパラメータを設定するためのインタフェースを表示した図である。900はパラメータ設定画面を表し、910は操作者が指示した特徴量の範囲に対応する線経路を色分けして表示するためのウインドウ、920は線経路の特徴量の範囲を操作者によって設定するためのウインドウである。920におけるパラメータ設定は、特徴量の範囲を表すバーをマウス操作によって伸縮したり、特徴量の範囲をキーボードから入力したりすることによって実施される。このようにしてパラメータが設定されたならば、910のウインドウに特徴量の範囲に対応する線経路を表示する。パラメータが更新された場合は、対応する線経路を再表示する。
【0025】
(3-2)認識対象図形へのエージェントの割り当て(ステップ404)
次に、領域の設定により認識対称図形にエージェントを割り当てる。
【0026】
図3の330は並列探索の初期値設定の様子を示す。初期値は次のように指定される。操作者は入力装置6を用いて隣接する複数の等高線をよぎるように探索補助線331を引く。この探索補助線331と認識対象となる複数の等高線の交点を探索基準点332とする。指定された複数の探索基準点352をB1,B2,・・,BNとする。探索補助線331上の探索基準点332の順序は対応する等高線の隣接関係を表す。それから、各探索基準点332を初期特徴点として並列的に等高線の経路探索を開始する。
【0027】
等高線の一本一本に適当にエージェントを割り当てて、エージェント間の隣接関係を自動的に把握する方法を説明する。
【0028】
次に、本発明による線図形の認識方法における認識エージェントの初期割り当て方法を図10にて説明する。すでに等高線成分の抽出は終了し、その等高線成分は局所的な判断基準によって線経路として認識・登録されているとする。図10は認識エージェントの初期割り当てを示す図である。1000は局所的な判断基準によって認識した線経路と認識エージェントの対応関係を表した図である。ここで、線経路は切断点や分岐点で分断されている。このような線経路の一本一本に対応して一つずつ認識エージェントを割り当てる。1010は認識エージェントのデータとメソッドを表す。この認識エージェントは線経路データ(構成点数と構成点座標)をデータとして持ち、認識エージェントを生成したり、消滅したりする操作、線経路データに構成点を追加したり、線経路データから構成点を削除したりする操作、他の認識エージェントに線経路データを要求したり、この要求に対して線経路データを応答したりする操作等をメソッドとして持つ。
【0029】
次に、本発明による線図形の認識方法において認識エージェントが問題発生時に環境を認識する方法を図11、図12及び図13にて説明する。切断部や接合部における線経路間の連結関係を求める問題を複数の認識エージェントの協力によって解決するためには、認識エージェントが置かれている環境として認識エージェント間の隣接関係を把握する必要がある。図11は隣接関係の認識方法における処理の流れを示すPAD図、図12は隣接関係を把握するために用いるボロノイ線図を示した図であり、図13は認識エージェントを制御する管理エージェントの設定方法を示す図である。例えば、文献2と同様の方法にボロノイ線図を用いて認識エージェント間の隣接関係を求める。まず、線経路間の二等分線によって構成されるボロノイ線図を作成し(ステップ1100)、これより隣接関係のネットワークを表す隣接グラフを作成する(ステップ1110)。1200はボロノイ線図を表し、1310は対応する隣接グラフを表わす。ここで、実線は隣接する線経路間の境界線(ボロノイ線図)の長さが対応する線経路の長さに比べて長い場合を表し、破線は短い場合を表す。実線は等高線同士の隣接関係を表している可能性が高いので強い隣接関係と呼び、破線はその可能性が低いので弱い隣接関係と呼ぶことにする。また、それ自体で閉ループをなすかあるいは端点がページ境界線上に存在する、という等高線図形の基本特性に基づき、この特性が満足される場合は認識終了、満足されない場合は問題発生とし認識エージェントを区別して表示している。ページとは、処理単位となる領域のことである。総ての認識エージェントについて(ステップ1120)、その認識エージェントが問題発生であって(ステップ1130)、どの管理エージェントにも登録されていないならば(ステップ1140)、管理エージェントを生成して(ステップ1150)、これに属する認識エージェントとその隣接関係を登録する(ステップ1160)。1320は管理エージェントとこれに対応する認識エージェントの関係を表示した図である。
【0030】
(4)等高線の認識処理(認識プログラム;ステップ405〜407)
等高線の一本一本に割り当てられたエージェントの隣接関係が明らかになったら、次に、その隣接関係を手がかりとして、意味のある等高線としての認識処理を行う。図3の330の様にユーザが補助線を用いて、エージェントの隣接関係を初期設定した場合でも、誤って一本の等高線に重複して補助線を引いたり、ノイズ除去で分離できなかった道路などの認識対象外の図形に補助線を引いてしまうこともある。また、自動的にエージェントを設定した場合には、等高線の切断、分岐、結合等のため、一本の等高線に複数のエージェントが割り当てられたり、複数の等高線に1のエージェントしか割り当てられなかったりすることがある。
【0031】
等高線の認識処理は、特定の高さの等高線とエージェントとを1対1に対応させるためにエージェントを統合したり分割する競合解消処理と、既に確定済みの他の等高線に割当てられたエージェントと協調して当該等高線の認識を行う協調認識処理とからなる。
【0032】
(4-1)競合解消処理
本発明における認識エージェント間の競合解消方法を図14、図15及び図16にて説明する。本実施例では、認識エージェントを統合したり分割したりすることによって認識エージェント間の競合を解消する。
【0033】
図14は切断部のような問題箇所における認識エージェントの統合方法を示す図である。1400は切断部における認識エージェントの初期割り当てを表す。ここでは、一本の等高線に対応して二つの認識エージェント(2と4)が割り当てられている。1410は切断部に対応する管理エージェントと認識エージェントを表す。この場合に、認識エージェント(2と4)の間には弱い隣接関係が存在している。そこで、このような隣接関係が存在する場合、管理エージェントはこれら二つの認識エージェントを統合して、新たな認識エージェントを生成する。1420は管理エージェントによる認識エージェントの統合を表し、1430は新規エージェントの隣接関係を表す。
【0034】
図15は接合部のような問題箇所における認識エージェントの統合方法を表示した図である。1500は接合部における認識エージェントの初期割り当てを表す。ここでは、一本の等高線に対応して三つの認識エージェント(2, 5, 6 または 3, 5, 7)が割り当てられている。1510は接合部に対応する管理エージェントと認識エージェントを表す。この場合に、認識エージェント(2と5、3と5、5と6、5と7の)の間には弱い隣接関係が存在している。そこで、このような隣接関係が存在する場合、管理エージェントはこれら二つの認識エージェントを統合してゆき、新たな認識エージェントを生成する。1520は管理エージェントによる認識エージェントの統合を表し、1530は新規エージェントの隣接関係を表す。
【0035】
図16は接合部のような問題箇所における認識エージェントの分割方法を表示した図である。1600は接合部における認識エージェントの初期割り当てを表す。ここでは、一つの認識エージェント(3)が三本の等高線に割り当てられている。1610は接合部に対応する管理エージェントと認識エージェントを表す。この場合、1と2と3の間あるいは3と4と5の間で矛盾(隣の隣=隣)が発生している。このような協調ネットワークが存在する場合には、両者に共通する3の認識エージェントが間違っている可能性が高い。そこで、1620に示したように、管理エージェントはこの認識エージェントを三つに分割する。そして新たに三つの認識エージェントを生成する。1630は新たに生成した認識エージェントの割り当てを表し、1640は新規エージェントの隣接関係を表す。
【0036】
(4-2)経路補間のための協調認識処理
図17は本方法による認識エージェント間のメッセージの流れを示す図であり、図18は本方法に基づく経路補間方法を示す図である。図17は図12の切断部に対応する管理エージェントと認識エージェントの間のメッセージの流れを表す。図18はこのような切断部における経路補間方法の概略図を表す。すでに認識エージェント間の隣接関係は解っている。この隣接関係を利用し、認識対象の経路を補間する。
【0037】
本発明において、経路補間の際には、102の接合部や103の分断部のような問題箇所にさしかかった場合には既に確定した隣接する等高線を規範として探索方向を決定する。
【0038】
以下では、図3の330に示すように、補助線331の設定により、等高線にエージェントを割り当てたとして協調処理を説明する。図3の330の場合は、エージェントの探索基準点が補助線の入力された位置により設定される。一方、図10のように、自動的にエージェントを等高線成分に割り当てた場合は、各エージェントが任意の位置を探索基準点として設定すればよい。
【0039】
340は330を初期値とした経路探索を終了した後のベクトル化データを表示した図である。341は経路探索によって認識された等高線を表し、342は周回点、343は周囲点である。周回点は等高線がそれ自体で閉ループをなす場合にエージェントが探索基準点に戻ってきた点を表し、探索の終了点となる。ー方、周囲点はぺージ境界上に位置し、探索がこの点に到達した場合には探索基準点に戻って逆方向の探索を行う。逆方向の探索が再び周囲点に到達したら、この点を探索の終了点とする。以上のような探索基準点の設定から特徴点探索までの処理を等高線図形全体についてくり返しおこない、広範囲の等高線の認識結果を得る。
【0040】
次に、認識処理を行うエージェントとエージェントが参照するデータの関係を図19を用いて説明する。本発明では、マルチエージェントによってシステムを構成し、各エージエントの自律的な挙動とエージェント間の協調動作を記述することによって処理の定式化を行っている。従来の手続き指向によるアプローチでは全ての処理の流れを漏れなく記述する必要があったのに対し、エージェント指向によるアプローチではエージェント間の協調動作はプログラムの実行時に動的に決定するため、処理の流れについての詳細な記述を必要としない。
【0041】
1900は等高線に割り当てられたエージェント全体の管理を行う管理エージェント、1910は各等高線の経路認識を制御する認識エージェントを表し、1920は共有データ部を表す。共有データ部には等高線画像データや認識処理前のベクトル化データ等の入力情報、ベクトル探索を高速に行うための索引情報、探索が終了したベクトルに付けられるラベル情報、それから等高線の特徴点位置座標によって表される認識結果が格納されている。1930はエージェント間のメッセージ通信、1940はデータの参照を表している。これらエージェントの自律的な挙動についての機能定義と前提条件を図20に、エージェント間の協調動作についての具体的な処理内容を図21にまとめる。2001と2002は線図形を認識するエージェント(認識エージェント)の機能定義と前提条件をそれぞれ表し、2003と2004は管理エージエントの機能定義と前提条件をそれぞれ表す。また、図21の2101と2102はそれぞれ接合部と分断部における管理エージェントや認識エージェントの間の協調動作を表す。
【0042】
次に、認識エージェントの自律的な挙動における経路探索の方法を図22にて説明する。今、i番目の等高線の探索を行っているとする。2200は探索領域近傍のベクトル化データを表す。2210はすでに探索が終了した確定済ベクトル、2220,2230,2240はまた探索の終了していない未確定ベクトルを表す。ベクトル2210の端点2211は経路探索の現在点を表し、探索がこの点まで終了していることを表している。2221,2231,2241はそれぞれ2220,2230,2240の端点を表す。また、2250は次の経路候補を探索するための探索領域を表す。この図では、2220と2230が経路候補として選ばれる。この探索領域内に隣接する等高線の確定済ベクトルが存在する場合には、隣接する経路との交差といった矛盾が生じないように経路候補を選ぶ。
【0043】
複数の経路候補が存在する場合には、図23及び図24に示すように隣接情報に基づいて最適な経路候補を選ぶ。まず、経路候補を決定するための基準線を隣接情報に基づいて構成する手順を図23に示す。2300はi番目の等高線の探索領域に経路候補となる複数のベクトルが存在していることを表す。ここで、i+1番目の等高線の経路探索はすでに終了しているとする。2310に示したようにすでに確定したi+1番目の等高線について、現在点からの最短距離dを求める。それから、2320に示したようにi+1番目の等高線の構成ベクトルを距離dだけ平行移動し、これを基準線とする。次に、この基準線に基づいて最適な経路候補を選択する方法を図24に示す。2400は基準線2410とベクトル2430の位置関係を表す。経路候補としては、この基準線に距離や方向が最も近いベクトルを選ぶべきである。そこで、2420のように評価関数を定義し、この評価関数を最小にするベクトルを次の経路候補として選ぶ。ここで、d1とd2はベクトル2430の両端点から基準線までの最短距離をそれぞれ表す。尚、選択した経路候補ベクトルを経路として確定するかどうかは、図25に示した判定方法を用いて行う。
【0044】
接合部または分断部において隣接する等高線の経路情報に基づいて経路を予測する方法を図26にて説明する。図26は分断部における予測方法を表すが、接合部においても同様の処理によって経路予測が可能である。2600は探索領域内に経路候補となるベクトルが存在しないことを表す。ここで、i+1番目の等高線の経路探索はすでに終了しているとする。2610に示したようにすでに確定したi+1番目の等高線について、現在点からの最短距離dを求める。それから、2620に示したようにi+1番目の等高線の構成ベクトルを距離dだけ次々と平行移動していき、これを予測経路とする。予測経路の長さが指定範囲以内ならば、経路候補ベクトルがみつかるまで予測を続ける。
【0045】
(5)記憶装置への登録(登録プログラム)
以上の処理により得られたデータは、スキャナ2で入力した図面を示す連続するベクトル化データとして、記録装置へ登録される。記録装置は、図1のシステム構成図で示したファイル装置(1)(2)、メモリ7でも良いし、それ以外の図示しない外部記憶媒体でもよい。
【0046】
【発明の効果】
本発明によれば、入力された図形データをベクトル化データとして登録する際に、認識対象とする図形に割り当てられたエージェントの隣接関係を利用して、エージェントどうしの競合・協調処理を行うことにより、本来、連続すべき線が不連続であったり、独立である線が他の線と接合(図形が他の図形と接合)するような問題箇所において、過度の対話操作が減少し、不確定部分の自動処理能力が向上する。これにより線により表される図形のデータベース化における入カコストを大幅に低減することが可能となる。
【0047】
更に、認識エージェントの初期割り当てが間違っていた場合にも、認識エージェントが正しく設定されるようにエージェントの割り当てを自動的に変更することが可能となり、不必要な対話操作を抑制し、ユーザにとって使いやすいシステムを提供することができる。
【図面の簡単な説明】
【図1】本発明のシステム構成を示す図である。
【図2】本発明の処理全体の流れを示すPAD図である。
【図3】本発明の処理の表示画面を示す図である。
【図4】等高線成分の自動抽出処理を示すPAD図である。
【図5】等高線成分の自動抽出処理で用いるテーブルの構造を示す図である。
【図6】線経路の認識処理を示すPAD図である。
【図7】探索領域の設定方法とベクトルの決定方法を説明する図である。
【図8】線経路の分類方法を説明する図である。
【図9】等高線成分の自動抽出処理におけるパラメータ設定時の画面表示である。
【図10】認識エージェントの初期割り当て方法を示す図である。
【図11】認識エージェントの隣接関係を認識する処理のPAD図である。
【図12】隣接関係を把握するために用いるボロノイ線図である。
【図13】管理エージェントの設定方法を説明する図である。
【図14】切断部における認識エージェントの統合処理を説明する図である。
【図15】接合部における認識エージェントの統合処理を説明する図である。
【図16】接合部における認識エージェントの分割処理を説明する図である。
【図17】協調認識における認識エージェント間のメッセージの授受関係を説明する図である。
【図18】協調認識における切断部の経路補間処理を説明する図である。
【図19】認識エージェントと管理エージェントとデータの関係を示す図である。
【図20】エージェントの自律的な挙動についての機能定義と前提条件を示す図。
【図21】エージェント間の協調動作についての具体的な処理内容を示す図である。
【図22】エージェントの自律的な挙動における経路探索処理を説明する図である。
【図23】経路候補を決定するための基準線を隣接情報に基づいて構成する手順を説明する図である。
【図24】基準線に基づいて最適な経路候補を選択する処理を説明する図である。
【図25】選択した経路候補ベクトルを経路の判定処理を説明する図である。
【図26】分断部において隣接する等高線の経路情報に基づいて経路を予測する方法を説明する図である。
【符号の説明】
1…b中央処理装置2…画像入力装置、3…第1のファイル装置、4…第2のファイル装置、5…表示装置、6…入力装置、7…メモリ。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a figure registration method for registering a map and a figure included in a drawing read by a photoelectric conversion device such as a scanner or a TV camera in a database, and in particular, it is represented by a set of a plurality of similar lines such as contour lines. The present invention relates to a method for recognizing a line figure which is effective when a figure to be recognized is registered.
[0002]
[Prior art]
Many prior studies on automatic input of contour line information have been reported as conventional line figure recognition methods. For example, in Reference 1: Aoiin et al., `` Study on mountain map information '' (Report of the Institute of Electronics, Information and Communication Engineers, PRL81-37, 1981), after applying thinning processing to the mountain map image to be input, a long vector component A method has been proposed in which contour line candidates are extracted from the determination as to whether or not, and the contour line candidates divided by characters and symbols are connected to each other based on the angle of the vector. However, this method has a problem that many connection errors occur because the determination of the vector angle is local.
[0003]
On the other hand, in Reference 2: Mizutani et al. 3, `` Extraction of contour lines using adjacent relations by Voronoi diagram '' (Electronic Information and Communication Society paper D-II, Vo1.J74-D-II, No. 11, 1991), A method has been proposed in which a Voronoi diagram is created in order to grasp the global adjacency of a line segment, an adjacency graph of the line segment is obtained therefrom, and the divided contour line components are accurately connected. In this method, it is possible to reduce connection errors from the determination of the adjacency graph. However, it is impossible to completely recognize the contour line in the part where the contour line is densely joined in a narrow area and the line is divided by the altitude value, cliff symbol, etc., and many recognition errors occur. Arise. For this reason, when automatic recognition using the batch processing type input method as described above is performed, an intensive error check is often requested from the operator. Since this intensive error check requires enormous effort, there is a problem that the total man-hours from the input to the system to the output are not reduced.
[0004]
Therefore, as described in Reference 3: Yamakawa et al. 1, "Interactive drawing input system" (Nikkei Computer Graphics, April 1987, pp.120-130) In particular, a dialog-guided recognition method that reflects the operator's judgment is attracting attention. In this dialog-guided recognition method, if the vectorization direction is not automatically determined, the vectorization direction is determined by an inquiry from the system to the operator, thus reducing unnecessary work required for error checking. be able to. However, the system configuration in which the search direction, that is, the vectorization direction is inquired every time a search direction is not automatically determined, such as a contour joint or division, is burdened on the operator (user). Is big.
[0005]
On the other hand, apart from such a flow, there are also many reports that recognize the whole figure by describing the target figure structurally by the relationship between the part and the whole, and checking the consistency between the searched parts sequentially. Has been. For example, in Reference 4: Nakamura et al. 1, “Image feature extraction by parallel search” (Journal of the Japanese Society for Artificial Intelligence, Vo1.8, No.1, PP.65-78, 1993), feature extraction based on such structure description It is proposed to realize this by cooperative action of multi-agents. According to this method, even if there is no detailed description about the flow of processing, it is possible to determine processing dynamically at the time of execution, and high-precision image recognition is expected by self-consistent problem solving. . However, this method may require enormous calculation time due to the explosion of the combination. In addition, in a figure having a complicated shape such as a contour line, the structure description itself is not clear.
[0006]
Therefore, in the present invention, as an application of multi-agent theory to line figure recognition, a recognition agent that performs route recognition corresponding to each of a plurality of adjacent lines specified by an operator and a management agent that performs overall management A method for configuring the system is proposed. In this method, highly accurate recognition is possible by describing the autonomous behavior of each agent and the cooperative behavior between agents. However, if the agent assignment is wrong and two agents are set corresponding to one contour line, there is a problem that the recognition result is wrong because the cooperative operation between agents is not performed correctly. In order to realize highly accurate recognition by the coordinated operation of multi-agents, a technique for automatically changing the agent assignment so that the agents are set correctly is important.
[0007]
As an example in which the agent assignment change is realized, there is a document 5: Gyoten et al. 3, “Multi-agent system (...) for character extraction from a document image. The spatial distribution method is applied to the character segmentation problem in the document image, and one agent is set corresponding to one character string in the document image, but the recognition target is different between character segmentation and line figure recognition. For this reason, the agent assignment used for character recognition and the assignment error detection method cannot be directly used for line figures.
[0008]
[Problems to be solved by the invention]
An object of the present invention is to register a part in which a line that is originally continuous becomes discontinuous due to restrictions on the notation of the figure (resolution, annotation, etc.) when a figure on a map or drawing is registered as vectorized data. When a single figure is recognized as one continuous vectorized data by automatically interpolating the part where multiple independent lines are connected (hereinafter referred to as the problem part), the recognition has already been completed. It is an object of the present invention to provide a graphic registration method and apparatus capable of performing line recognition processing without error based on a reliable recognition result and automatically registering the result in a database.
[0009]
Another object of the present invention is to automatically recognize and register a line figure by assigning a recognition agent to a figure before path interpolation and eliminating an erroneous assignment between recognition agents that recognize a target path. The object is to provide a line figure registration method and apparatus.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, a graphic represented by a line on a paper drawing is input to a computer as binary image data, first vectorized data is created by thinning vectorization processing, etc. An agent is assigned to one vectorized data component. When the agent encounters a problem location when recognizing the corresponding vectorized data, the vectorized data of the problem location is interpolated with reference to the adjacent vectorized data, and the series of vectorized data obtained is integrated. Are recognized as two graphic data and registered as second vectorized data. Further, it is determined whether the agent assignment is correct based on the basic characteristics of the line figure such as the adjacency so as to correspond one-to-one with the figure data recognized by the agent assigned to the first vectorized data, If it is wrong, the agent assignment is changed by integrating or dividing the agent so that the contradiction corresponding to the basic characteristics of the line figure is resolved. Further, at the time of initial assignment of agents, line routes of the entire drawing may be recognized based on local connectivity, and agents may be assigned to each recognized line route. The line figure to be recognized may be a contour line extracted from the image.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described using an example of recognizing contour lines in a topographic map.
[0012]
(1) Overall system
FIG. 1 is a diagram showing a system configuration for recognizing a line figure according to the present invention. Reference numeral 1 denotes a central processing unit that controls the system such as line recognition and vectorization. Reference numeral 2 denotes an image input device that captures a map / drawing as binary image data. An example is a scanner. Reference numeral 3 denotes a first file device for storing binary image data obtained by a scanner. Reference numeral 4 denotes a second file device for storing vectorized data obtained by pre-processing binary image data stored in the first file device. The preprocessing performed here refers to a process of extracting two or more feature points (bending points and end points) representing binary image data, obtaining a position map of those points, and sequentially vectorizing them. Reference numeral 5 denotes a display device that displays line images, line figures, and the like based on binary image data captured by a scanner, vector data obtained by preprocessing, and vector data after recognition processing. Reference numeral 6 denotes an input device for inputting instructions for operating the system. Reference numeral 7 denotes a memory having a program describing preprocessing, recognition processing, and the like executed by the central processing unit 1, and a storage area used in the processing. It does not matter whether the file devices (1) and (2) and the memory 7 are provided inside the system or provided externally. Further, the file devices (1) and (2) and the memory 7 may be integrated with one large memory and distinguished by dividing the used area.
[0013]
An overview of the processing operation of the entire system in FIG. 1 will be described with reference to FIG. FIG. 2 is a PAD diagram showing an outline of processing of the entire system.
[0014]
First, the topographic map to be processed is read by the scanner 2 and stored in the file device (1) 3 as binary image data (step 401).
[0015]
The original topographic map data stored in the file device (1) 3 is first subjected to vectorization processing (preprocessing program; step 402) as preprocessing, and the input topographic map vector including the recognition target. To obtain data. In this embodiment, contoured vectorized data is obtained. One recognition agent is assigned to one continuous contour line obtained (initial assignment program; step 404), and contour lines are recognized. Until all of the assigned recognition agents have been processed, the conflict resolution processing and cooperative recognition processing between recognition agents are repeated (recognition program; steps 405 to 407). When the contour line recognition processing is completed, the result is stored as a final result in a storage device such as the file device (2) 4 (registration program). If necessary, display on the display device. Next, each process will be described.
[0016]
(2) Vectorization processing (preprocessing program; step 402)
FIG. 3 is a screen display example for explaining the processing of this embodiment. The screen display 300 is a diagram showing the vectorized data after the vectorization processing is performed on the original image data of the topographic map read from the file device (1) 3.
[0017]
In the present invention, graphic processing such as thinning processing by polygonal line approximation and beard removal may be performed after vectorization processing. Further, in order to avoid the deformation of the figure accompanying the vectorization process, image processing such as separation of noise, characters, symbols, etc. may be performed before the vectorization process.
[0018]
(3) Agent assignment to recognition symmetrical figure (initial assignment program; steps 403, 404)
(3-1) Extraction of recognition target area (contour component)
The screen display 300 is a display of binary image data obtained by reading a general topographic map. Such a topographic map includes not only the contour line 301 but also various components such as the house frame 102, the road 103, the altitude value, and the characters 104. In order to extract a line figure as a figure to be processed from the screen display 300, the target area is directly designated by the input device 6 (310). Reference numeral 311 denotes an area designated by the user using the mouse. Further, components other than the line figure such as the house frame 102, the road 103, the altitude value and the characters 104 may be designated and deleted from the pointing device 6, and the remaining display may be designated as the recognition target area (320).
[0019]
Of course, if the read image is composed only of figures to be recognized, or if the image processing that separates the characters / symbols described in (2) above has already been performed, it is simply processed. The target area may be specified.
[0020]
Although the user may designate the recognition target from the outside as in the above method, a method of automatically extracting the recognition target graphic as shown below can be used. This will be described with reference to FIGS.
[0021]
FIG. 4 is a PAD diagram showing a flow of automatic contour line component extraction processing, and FIG. 5 is a diagram showing a table structure used in this method. Reference numeral 500 denotes a vector data table corresponding to the entire drawing, in which information relating to the coordinates of the start point and end point of the vector obtained by the thinning vectorization process (step 402) is stored. First, a list label table corresponding to 500 is created and a label is initialized to 0 (step 400). Reference numeral 510 denotes a list label table, where the list number represents the vector number stored in 500, and the label represents flag information indicating whether or not the recognition of the corresponding vector has been completed. Therefore, for all vectors corresponding to the drawing (step 410), it is determined whether the label of the corresponding list is 0 (step 420). If the label is 0, the line route is recognized using the vector as a starting point, and a label is assigned to the corresponding list (step 430). For example, the number of the recognized line route is given as a label. Reference numeral 520 denotes a recognized line path data table, in which information regarding the number of constituent points and constituent point coordinates of the line path is stored. Thus, the feature amount of the recognized line route is obtained, the line route is classified by clustering in the feature space, and stored in the line route information table (step 440). Reference numeral 530 denotes a line route information table. The label represents the number of the line route stored in 520, and the line route information represents the classification in the feature amount space. For example, 0 is assigned if the line path does not correspond to the recognition target, and 1 is assigned if it corresponds.
[0022]
Next, a line path recognition method in the contour line component extraction method will be described with reference to FIGS. FIG. 6 is a PAD diagram showing the flow of the line path recognition process, and FIG. 7 is an explanatory diagram regarding the search area setting method and vector determination method in this method. First, a circular area is set as a search area (step 611), and a vicinity area of the search base point (the end point of the confirmed route) is searched. Reference numeral 700 is an explanatory diagram regarding the setting of this circular area. Here, a circular area centered on the search base point is set, and a vector having end points in this area is searched. However, vectors that have already been recognized are excluded from search targets. Here, the radius of the circle is set to a value that is sufficiently smaller than the distance between adjacent contour lines. The condition whether or not a vector has an end point in this circle region is expressed by the conditional expression 701. If the vector does not exist in the circular area (step 612), an elliptical area is set as the search area (step 613), and the search area is enlarged and searched again. Reference numeral 710 is an explanatory diagram regarding the method of setting the elliptical area. Here, an ellipse area having two focal points, ie, a search base point (end point of the definite route) and a point on the extension line of the determinate route, is set, and a vector having end points in this region is searched. The condition for whether the vector has endpoints in this region is represented by 711. If the vector does not exist within the elliptical region (step 614), the line path recognition is terminated (step 615). If the vector exists, the vector is determined using the smoothness of the line when the vectors are connected as an evaluation function (step 616). 720 is an explanatory diagram regarding a vector determination method based on the smoothness of a line. Reference numeral 721 represents the definition of the evaluation function and the condition for determining the vector. When two or more vectors exist as candidates, the next vector cannot be determined if both vectors are smoothly connected. Therefore, if the evaluation function is not more than the specified range and the difference between the evaluation functions is not less than the specified range, it is determined as the next vector. If the vector is not determined (step 617), the recognition of the line path is terminated (618). The process from the setting of the search area to the determination of the vector is repeated until the recognition of the line path is completed (step 610). Reference numeral 730 denotes a list of parameters used in line path recognition.
[0023]
Next, a line path classification method in the contour line component extraction method will be described with reference to FIG. 800 is a diagram showing an example of a recognized line route. The recognized line path is composed of a vector portion in which vectorized data exists and a gap portion in which no vectorized data exists. By the way, the contour line figure is displayed by 1) winding and 2) a solid line. 3) It has a feature that it is a certain length or longer. Therefore, if the clustering process in the feature space is used, it is possible to extract a line route corresponding to the contour line figure. Reference numeral 810 represents a feature quantity corresponding to the basic characteristic of winding and a feature quantity condition for satisfying this basic characteristic. The feature quantity of this basic characteristic is represented by the distance / path length between the start and end points. If this feature quantity is below the specified range, it is determined that the winding is winding. Reference numeral 820 represents a feature quantity corresponding to the basic characteristic displayed with a solid line and a feature quantity condition for satisfying the basic characteristic. The feature quantity of this basic characteristic is represented by the sum of vector lengths / path length. If this feature quantity is greater than or equal to the specified range, it is determined that it is displayed as a solid line. Reference numeral 830 represents a feature quantity corresponding to the basic characteristic of a certain length or more and a condition of the feature quantity for satisfying this basic characteristic. The feature quantity of this basic characteristic is represented by the path length.
[0024]
Next, a parameter setting method for extracting contour line components will be described with reference to FIG. When a line route classification method based on feature values is used as a contour line component extraction method, it is necessary to set a feature value range as a parameter. FIG. 9 is a diagram showing an interface for setting such parameters. 900 is a parameter setting screen, 910 is a window for displaying the color path corresponding to the feature amount range designated by the operator by color, and 920 is for setting the feature amount range of the line route by the operator. It is a window. The parameter setting in 920 is performed by extending or contracting a bar representing the feature amount range by operating the mouse, or inputting the feature amount range from the keyboard. If the parameters are set in this way, a line path corresponding to the feature amount range is displayed in the window 910. When the parameter is updated, the corresponding line route is displayed again.
[0025]
(3-2) Agent assignment to recognition target figure (step 404)
Next, an agent is assigned to the recognized symmetrical figure by setting the area.
[0026]
330 in FIG. 3 shows how initial values are set for parallel search. The initial value is specified as follows. The operator uses the input device 6 to draw a search auxiliary line 331 so as to cross a plurality of adjacent contour lines. An intersection of the search auxiliary line 331 and a plurality of contour lines to be recognized is set as a search reference point 332. A plurality of designated search reference points 352 are defined as B1, B2,. The order of the search reference points 332 on the search auxiliary line 331 represents the adjacent relationship of the corresponding contour lines. Then, a contour route search is started in parallel with each search reference point 332 as an initial feature point.
[0027]
A method of automatically assigning agents to each contour line and automatically grasping the adjacency relationship between agents will be described.
[0028]
Next, an initial assigning method of recognition agents in the line figure recognition method according to the present invention will be described with reference to FIG. It is assumed that the contour line component has already been extracted, and that the contour line component has been recognized and registered as a line path according to a local criterion. FIG. 10 is a diagram illustrating initial allocation of recognition agents. 1000 is a diagram showing the correspondence between the line path recognized by the local criterion and the recognition agent. Here, the line path is divided at a cutting point or a branch point. A recognition agent is assigned to each of such line paths one by one. 1010 represents recognition agent data and methods. This recognition agent has line route data (number of points and point coordinates) as data, operations to generate and disappear recognition agents, add point to line route data, and point from line route data As a method, there are an operation for deleting the line route, a request for line route data from another recognition agent, a response to the line route data in response to this request, and the like.
[0029]
Next, a method for the recognition agent to recognize the environment when a problem occurs in the line figure recognition method according to the present invention will be described with reference to FIGS. In order to solve the problem of obtaining the connection relationship between line paths at the cut and joints with the cooperation of multiple recognition agents, it is necessary to grasp the adjacent relationship between the recognition agents as the environment where the recognition agents are placed. . 11 is a PAD diagram showing the flow of processing in the adjacency recognition method, FIG. 12 is a diagram showing a Voronoi diagram used to grasp the adjacency relationship, and FIG. 13 is a setting of a management agent that controls the recognition agent. It is a figure which shows a method. For example, the adjacency relationship between recognition agents is obtained using a Voronoi diagram in the same manner as in Document 2. First, a Voronoi diagram composed of bisectors between line paths is created (step 1100), and an adjacency graph representing an adjacency network is created (step 1110). 1200 represents the Voronoi diagram and 1310 represents the corresponding adjacency graph. Here, a solid line represents a case where the length of a boundary line (Voronoi diagram) between adjacent line paths is longer than a corresponding line path, and a broken line represents a short case. A solid line is called a strong adjacency because it is likely to represent an adjacency between contour lines, and a broken line is called a weak adjacency because the possibility is low. In addition, based on the basic characteristics of contour figures that form a closed loop by themselves or that the end points exist on the page boundary line, if this characteristic is satisfied, recognition ends, and if it is not satisfied, a problem occurs. It is displayed separately. A page is an area serving as a processing unit. For all recognized agents (step 1120), if the recognized agent has a problem (step 1130) and is not registered with any management agent (step 1140), a management agent is generated (step 1150). ), The recognition agent belonging to this and its adjacency are registered (step 1160). 1320 is a diagram showing the relationship between the management agent and the corresponding recognition agent.
[0030]
(4) Contour line recognition processing (recognition program; steps 405 to 407)
Once the adjacency relationship between agents assigned to each contour line is clarified, next, recognition processing as a meaningful contour line is performed using the adjacency relationship as a clue. Even if the user uses the auxiliary line to initially set the adjacency relationship as shown in 330 in FIG. 3, the road cannot be separated by noise removal or by accidentally drawing the auxiliary line overlapping one contour line. In some cases, auxiliary lines are drawn on figures that are not recognized. In addition, when an agent is automatically set, a plurality of agents are assigned to one contour line, or only one agent is assigned to a plurality of contour lines, because of cutting, branching, or joining of contour lines. Sometimes.
[0031]
Contour recognition processing is performed in cooperation with agents assigned to other contour lines that have already been confirmed, as well as conflict resolution processing that integrates and divides agents in order to make one-to-one correspondence between contour lines of a specific height and agents. And cooperative recognition processing for recognizing the contour line.
[0032]
(4-1) Conflict resolution processing
The conflict resolution method between recognition agents in the present invention will be described with reference to FIG. 14, FIG. 15 and FIG. In this embodiment, conflicts between recognition agents are resolved by integrating or dividing recognition agents.
[0033]
FIG. 14 is a diagram showing a method for integrating recognition agents at a problem location such as a cutting section. Reference numeral 1400 represents an initial allocation of recognition agents in the cutting unit. Here, two recognition agents (2 and 4) are assigned to one contour line. Reference numeral 1410 denotes a management agent and a recognition agent corresponding to the disconnection unit. In this case, a weak adjacency exists between the recognition agents (2 and 4). Therefore, if such an adjacency exists, the management agent integrates these two recognition agents to generate a new recognition agent. 1420 represents the integration of the recognition agents by the management agent, and 1430 represents the adjacency relationship of the new agent.
[0034]
FIG. 15 is a diagram showing a method for integrating recognition agents at a problem location such as a joint. 1500 represents the initial assignment of recognition agents at the junction. Here, three recognition agents (2, 5, 6 or 3, 5, 7) are assigned to one contour line. Reference numeral 1510 denotes a management agent and a recognition agent corresponding to the joint. In this case, a weak adjacency exists between the recognition agents (2 and 5, 3 and 5, 5 and 6, and 5 and 7). Therefore, if such an adjacency exists, the management agent integrates these two recognition agents to generate a new recognition agent. 1520 represents the integration of the recognition agents by the management agent, and 1530 represents the adjacency relationship of the new agent.
[0035]
FIG. 16 is a view showing a recognition agent dividing method in a problem part such as a joint. 1600 represents the initial assignment of recognition agents at the junction. Here, one recognition agent (3) is assigned to three contour lines. Reference numeral 1610 denotes a management agent and a recognition agent corresponding to the joint. In this case, there is a contradiction between 1 and 2 and 3 or between 3 and 4 and 5. When such a cooperative network exists, there is a high possibility that the three recognition agents common to both are wrong. Therefore, as shown in 1620, the management agent divides the recognition agent into three. Then, three new recognition agents are generated. 1630 represents the newly generated recognition agent assignment, and 1640 represents the adjacency relationship of the new agent.
[0036]
(4-2) Cooperative recognition processing for path interpolation
FIG. 17 is a diagram showing a message flow between recognition agents according to this method, and FIG. 18 is a diagram showing a route interpolation method based on this method. FIG. 17 shows a message flow between the management agent and the recognition agent corresponding to the disconnection unit in FIG. FIG. 18 shows a schematic diagram of a path interpolation method in such a cutting section. The adjacency relationship between recognition agents is already known. Using this adjacency relationship, the recognition target path is interpolated.
[0037]
In the present invention, when the path interpolation is performed, if a problem location such as the joint portion 102 or the dividing portion 103 is reached, the search direction is determined based on the already determined adjacent contour lines.
[0038]
Hereinafter, as shown by 330 in FIG. 3, the cooperative processing will be described on the assumption that an agent is assigned to a contour line by setting the auxiliary line 331. In the case of 330 in FIG. 3, the search reference point of the agent is set by the position where the auxiliary line is input. On the other hand, as shown in FIG. 10, when agents are automatically assigned to contour line components, each agent may set an arbitrary position as a search reference point.
[0039]
340 is a diagram showing the vectorized data after completing the route search with 330 as an initial value. 341 represents a contour line recognized by the route search, 342 is a rounding point, and 343 is a surrounding point. The round point represents the point where the agent returns to the search reference point when the contour line itself forms a closed loop, and is the end point of the search. On the other hand, the surrounding points are located on the page boundary, and when the search reaches this point, the search returns to the search reference point and the search is performed in the reverse direction. When the search in the reverse direction reaches the surrounding point again, this point is set as the end point of the search. The processing from the setting of the search reference point to the feature point search as described above is repeated for the entire contour line figure, and a wide range of contour line recognition results are obtained.
[0040]
Next, the relationship between the agent performing the recognition process and the data referred to by the agent will be described with reference to FIG. In the present invention, a system is configured by multi-agents, and the processing is formulated by describing the autonomous behavior of each agent and the cooperative operation between agents. In contrast to the conventional procedure-oriented approach, it was necessary to describe all processing flows without omission, whereas in the agent-oriented approach, the cooperative behavior between agents is determined dynamically during program execution. Does not require a detailed description of.
[0041]
Reference numeral 1900 denotes a management agent that manages all agents assigned to the contour lines, 1910 denotes a recognition agent that controls path recognition of each contour line, and 1920 denotes a shared data portion. In the shared data section, input information such as contour image data and vectorized data before recognition processing, index information for performing vector search at high speed, label information attached to the vector after the search, and feature point position coordinates of the contour line The recognition result represented by is stored. 1930 indicates message communication between agents, and 1940 indicates data reference. FIG. 20 shows the function definitions and preconditions for the autonomous behavior of these agents, and FIG. 21 summarizes the specific processing contents for the cooperative operation between agents. 2001 and 2002 represent the function definition and preconditions of the agent that recognizes the line figure (recognition agent), respectively, and 2003 and 2004 represent the function definition and preconditions of the management agent, respectively. Further, 2101 and 2102 in FIG. 21 represent cooperative operations between the management agent and the recognition agent at the joint and the dividing part, respectively.
[0042]
Next, a route search method in the autonomous behavior of the recognition agent will be described with reference to FIG. Suppose now that the i-th contour line is being searched. Reference numeral 2200 denotes vectorized data near the search area. Reference numeral 2210 denotes a confirmed vector for which the search has already been completed, and reference numerals 2220, 2230, and 2240 also denote undefined vectors for which the search has not been completed. The end point 2211 of the vector 2210 represents the current point of the route search and indicates that the search has been completed up to this point. 2221, 2231 and 2241 represent the end points of 2220, 2230 and 2240, respectively. Reference numeral 2250 denotes a search area for searching for the next route candidate. In this figure, 2220 and 2230 are selected as route candidates. If there is a confirmed vector of adjacent contour lines in this search area, a route candidate is selected so as not to cause a contradiction such as an intersection with an adjacent route.
[0043]
When there are a plurality of route candidates, the optimum route candidate is selected based on the adjacent information as shown in FIGS. First, FIG. 23 shows a procedure for configuring a reference line for determining a route candidate based on adjacent information. Reference numeral 2300 denotes that a plurality of vectors as route candidates exist in the search area of the i-th contour line. Here, it is assumed that the route search for the (i + 1) th contour line has already been completed. As indicated by 2310, the shortest distance d from the current point is obtained for the (i + 1) th contour line already determined. Then, as indicated by 2320, the component vector of the (i + 1) th contour line is translated by the distance d, and this is used as the reference line. Next, FIG. 24 shows a method for selecting an optimal route candidate based on this reference line. Reference numeral 2400 denotes the positional relationship between the reference line 2410 and the vector 2430. As a route candidate, a vector whose distance and direction are closest to this reference line should be selected. Therefore, an evaluation function is defined as in 2420, and a vector that minimizes this evaluation function is selected as the next path candidate. Here, d1 and d2 represent the shortest distances from the end points of the vector 2430 to the reference line, respectively. Whether or not to confirm the selected route candidate vector as a route is determined using the determination method shown in FIG.
[0044]
A method for predicting a route based on the route information of the contour lines adjacent to each other at the junction or division will be described with reference to FIG. FIG. 26 shows a prediction method in the divided portion, but the route can be predicted by the same process in the joint portion. Reference numeral 2600 denotes that there is no vector as a route candidate in the search area. Here, it is assumed that the route search for the (i + 1) th contour line has already been completed. As shown in 2610, the shortest distance d from the current point is obtained for the (i + 1) th contour line already determined. Then, as indicated by 2620, the constituent vectors of the (i + 1) th contour line are translated one after another by the distance d, and this is used as the predicted path. If the length of the predicted route is within the specified range, the prediction is continued until a route candidate vector is found.
[0045]
(5) Registration to storage device (registration program)
Data obtained by the above processing is registered in the recording apparatus as continuous vectorized data indicating the drawing input by the scanner 2. The recording device may be the file devices (1) and (2) and the memory 7 shown in the system configuration diagram of FIG. 1, or other external storage medium (not shown).
[0046]
【The invention's effect】
According to the present invention, when registering input graphic data as vectorized data, by using the adjacency relationship of agents assigned to the graphic to be recognized, the competition / cooperation processing between agents is performed. In the problem area where the line that should be continuous is discontinuous or the independent line is joined to another line (the figure is joined to the other figure), the excessive interaction is reduced and uncertain. The automatic processing capacity of the part is improved. As a result, it is possible to greatly reduce the input cost in creating a database of figures represented by lines.
[0047]
Moreover, even if the initial recognition agent assignment is wrong, it is possible to automatically change the agent assignment so that the recognition agent is set correctly, which suppresses unnecessary interaction operations and is used by the user. An easy-to-use system can be provided.
[Brief description of the drawings]
FIG. 1 is a diagram showing a system configuration of the present invention.
FIG. 2 is a PAD diagram showing the overall processing flow of the present invention.
FIG. 3 is a diagram showing a display screen for processing according to the present invention.
FIG. 4 is a PAD showing automatic contour line component extraction processing;
FIG. 5 is a diagram showing the structure of a table used in the automatic contour line component extraction process;
FIG. 6 is a PAD diagram showing line path recognition processing;
FIG. 7 is a diagram for explaining a search area setting method and a vector determination method;
FIG. 8 is a diagram for explaining a line path classification method;
FIG. 9 is a screen display when setting parameters in the automatic contour line component extraction processing;
FIG. 10 is a diagram showing a method for initially assigning recognition agents.
FIG. 11 is a PAD diagram of processing for recognizing adjacency relationships of recognition agents.
FIG. 12 is a Voronoi diagram used to grasp the adjacency relationship.
FIG. 13 is a diagram for explaining a management agent setting method;
FIG. 14 is a diagram for explaining recognition agent integration processing in a cutting unit;
FIG. 15 is a diagram for explaining recognition agent integration processing at a joint;
FIG. 16 is a diagram for explaining recognition agent division processing in a joint portion;
FIG. 17 is a diagram illustrating a message exchange relationship between recognition agents in cooperative recognition.
FIG. 18 is a diagram illustrating a path interpolation process of a cutting unit in cooperative recognition.
FIG. 19 is a diagram illustrating a relationship between a recognition agent, a management agent, and data.
FIG. 20 is a diagram showing a function definition and preconditions regarding an autonomous behavior of an agent.
FIG. 21 is a diagram illustrating specific processing contents regarding cooperative operation between agents;
FIG. 22 is a diagram illustrating route search processing in the autonomous behavior of an agent.
FIG. 23 is a diagram illustrating a procedure for configuring a reference line for determining a route candidate based on adjacent information.
FIG. 24 is a diagram illustrating processing for selecting an optimal route candidate based on a reference line.
FIG. 25 is a diagram illustrating a route determination process for a selected route candidate vector.
FIG. 26 is a diagram for explaining a method of predicting a route based on route information of adjacent contour lines in a dividing part.
[Explanation of symbols]
1 ... b central processing unit 2 ... image input device 3 ... first file device 4 ... second file device 5 ... display device 6 ... input device 7 ... memory

Claims (8)

複数の線図形を有する画像データを取り込んで表示画面上に表示し、
入力手段を介して上記複数の線図形と交わる補助線の入力を受け、
上記補助線と上記複数の線図形それぞれとの交点を探索基準点として設定し、
上記複数の設定された探索基準点の順序から該探索基準点の設定される線図形の隣接関係を認識し、
上記探索基準点を設定した線図形それぞれに認識エージェントを割り当てて、上記隣接関係を用いて該認識エージェントの割り当てられた複数の線図形を並列的に探索することを特徴とする線図形の認識方法。
Capture and display image data with multiple line figures on the display screen,
An auxiliary line that intersects with the plurality of line figures is received via the input means,
Set the intersection of the auxiliary line and each of the plurality of line figures as a search reference point,
Recognizing the adjacency relationship of the line figure set with the search reference point from the order of the plurality of set search reference points,
A line figure recognition method characterized by assigning a recognition agent to each line figure for which the search reference point is set, and searching for a plurality of line figures assigned to the recognition agent in parallel using the adjacency relationship. .
上記画像データは等高線図形の画像データであって、上記線図形は等高線であることを特徴とする請求項1に記載の線図形の認識方法。2. The method for recognizing a line figure according to claim 1, wherein the image data is image data of a contour figure, and the line figure is a contour line. 上記線画像の接合部または分断部において、上記隣接関係と既に確定している線図形の経路情報を用いて経路を予測することで上記探索を行うことを特徴とする請求項2に記載の線図形の認識方法。 3. The line according to claim 2, wherein the search is performed by predicting a route using the adjacent information and route information of a line figure that has already been established at a joint portion or a dividing portion of the line image. How to recognize shapes. 上記画像データから線経路を抽出し、
上記線経路の始終点間距離と経路長の比の値、上記線経路の経路長、上記線経路のベクトル長の総和と経路長の比の値を算出し、
上記それぞれの値を所定値と比較して選択された上記線経路について、上記探索基準点の設定を行うことを特徴とする請求項1乃至の何れかに記載の線図形の認識方法。
Extract line path from the above image data,
Calculate the value of the ratio between the distance between the start and end points of the line route and the route length, the route length of the line route, the sum of the vector length of the line route and the ratio of the route length,
The respective values for the line path selected is compared with a predetermined value, a method of recognizing a line drawing according to any one of claims 1 to 3, characterized in that the setting of the search reference point.
複数の線図形を有する画像データを表示する表示装置と、
上記表示された複数の線図形と交わる補助線の入力を受ける入力装置と、
上記補助線と上記複数の線図形それぞれとの交点を探索基準点として設定し、該複数の設定された探索基準点の順序から該探索基準点の設定される線図形の隣接関係を認識し、
上記探索基準点を設定した線図形それぞれに認識エージェントを割り当てて、上記隣接関係を用いて該該認識エージェントの割り当てられた複数の線図形を並列的に探索する制御部とを有することを特徴とする線図形の認識装置。
A display device for displaying image data having a plurality of line figures;
An input device for receiving an input of an auxiliary line intersecting with the plurality of displayed line figures;
The intersection of the auxiliary line and each of the plurality of line figures is set as a search reference point, and the adjacency relationship of the line figure set by the search reference point is recognized from the order of the plurality of set search reference points,
A control unit that assigns a recognition agent to each of the line figures for which the search reference point is set, and searches for a plurality of line figures to which the recognition agent is assigned in parallel using the adjacency relationship. Line figure recognition device.
上記画像データは等高線図形の画像データであって、上記線図形は等高線であることを特徴とする請求項に記載の線図形の認識装置。6. The line figure recognition apparatus according to claim 5 , wherein the image data is image data of a contour figure, and the line figure is a contour line. 上記制御部は、上記線画像の接合部または分断部において、上記隣接関係と既に確定している線図形の経路情報を用いて経路を予測することで上記探索を行うことを特徴とする請求項又はに記載の線図形の認識装置。The said control part performs the said search by predicting a path | route using the path | route information of the line figure already determined with the said adjacent relationship in the junction part or division | segmentation part of the said line image, It is characterized by the above-mentioned. The line figure recognition apparatus according to 5 or 6 . 上記制御部は、上記画像データから線経路を抽出し、
上記線経路の始終点間距離と経路長の比の値、上記線経路の経路長、上記線経路のベクトル長の総和と経路長の比の値を算出し、
上記それぞれの値を所定値と比較して選択された上記線経路について、上記探索基準点の設定を行うことを特徴とする請求項乃至の何れかに記載の線図形の認識装置。
The control unit extracts a line path from the image data,
Calculate the value of the ratio between the distance between the start and end points of the line route and the route length, the route length of the line route, the sum of the vector length of the line route and the ratio of the route length,
For comparison to selected the ray path of the respective values to a predetermined value, a line drawing of the recognition device according to any one of claims 5 to 7, characterized in that the setting of the search reference point.
JP20153196A 1995-07-31 1996-07-31 Line figure recognition method and recognition apparatus Expired - Fee Related JP3668560B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20153196A JP3668560B2 (en) 1995-07-31 1996-07-31 Line figure recognition method and recognition apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP7-194451 1995-07-31
JP19445195 1995-07-31
JP20153196A JP3668560B2 (en) 1995-07-31 1996-07-31 Line figure recognition method and recognition apparatus

Publications (2)

Publication Number Publication Date
JPH09102044A JPH09102044A (en) 1997-04-15
JP3668560B2 true JP3668560B2 (en) 2005-07-06

Family

ID=26508506

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20153196A Expired - Fee Related JP3668560B2 (en) 1995-07-31 1996-07-31 Line figure recognition method and recognition apparatus

Country Status (1)

Country Link
JP (1) JP3668560B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4928325B2 (en) * 2006-03-31 2012-05-09 キヤノン株式会社 Image processing method, image processing apparatus, program, and storage medium

Also Published As

Publication number Publication date
JPH09102044A (en) 1997-04-15

Similar Documents

Publication Publication Date Title
US5978520A (en) Method of recognizing image data and apparatus therefor
Noronha et al. Detection and modeling of buildings from multiple aerial images
US5987173A (en) Interactive drawing recognition processing method and apparatus thereof
JPH09179901A (en) Bit map image processing method and automatic index system
KR102305230B1 (en) Method and device for improving accuracy of boundary information from image
CN113848560A (en) Dam surface image unmanned aerial vehicle rapid and safe acquisition method and system
JP3668560B2 (en) Line figure recognition method and recognition apparatus
CN115546824B (en) Taboo picture identification method, apparatus and storage medium
Willrich Quality control and updating of road data by GIS-driven road extraction from imagery
Price Hierarchical matching using relaxation
CN116403235A (en) Electrical wiring diagram recognition system and method based on computer vision
Goodson et al. A knowledge based line recognition system
JPH0434650A (en) Drawing processor
Ablameyko et al. A complete system for interpretation of color maps
US5568566A (en) Drawing processing apparatus
CN113567550A (en) Ground material detection method and device, electronic equipment, chip and storage medium
JPH0877294A (en) Image processor for document
CN112836510A (en) Product picture character recognition method and system
JP2000048212A (en) Device and method for picture processing and recording medium
CN110851896A (en) CAD (computer-aided design) outer wall body identification method and device based on local neighborhood information
JPH1021403A (en) Method and device for extracting correspondent points
CN115565201B (en) Taboo picture identification method, apparatus and storage medium
US5416894A (en) Method for determining a candidate of a branched direction of a linear image
JP2000311244A (en) Matching method for picture
de Gunst et al. Knowledge-based updating of maps by interpretation of aerial images

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041018

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050126

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20050307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050411

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090415

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees