JP3678523B2 - Construction drawing recognition method and construction drawing recognition apparatus - Google Patents

Construction drawing recognition method and construction drawing recognition apparatus Download PDF

Info

Publication number
JP3678523B2
JP3678523B2 JP00044497A JP44497A JP3678523B2 JP 3678523 B2 JP3678523 B2 JP 3678523B2 JP 00044497 A JP00044497 A JP 00044497A JP 44497 A JP44497 A JP 44497A JP 3678523 B2 JP3678523 B2 JP 3678523B2
Authority
JP
Japan
Prior art keywords
image
image data
wall
construction drawing
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP00044497A
Other languages
Japanese (ja)
Other versions
JPH10198712A (en
Inventor
隆之 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP00044497A priority Critical patent/JP3678523B2/en
Publication of JPH10198712A publication Critical patent/JPH10198712A/en
Application granted granted Critical
Publication of JP3678523B2 publication Critical patent/JP3678523B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、建築・設備業等の建設業界で広く使用されている建設図面中の輪郭及び骨格である壁の認識、特に水平又は垂直方向に対して傾斜した斜め壁の認識方法及びその機能を持つ建設図面認識装置に関するものである。
【0002】
【従来の技術】
近年、CADシステム等を用いて、家屋やビル等の建築図面あるいは水道管,ガス管,電力・通信ケーブル等の配管図面等を含む建設図面を容易に作成したり、そのデータを記憶させておいて設計変更や増改築等の際に利用することは行なわれている。しかし、その建設図面のデータには、作成したシステムにより互換性がなく、期間の経過や業者の変更により利用できなくなる。また、家屋の増改築等を行なう場合には、紙に描かれた古い建設図面しかない場合が多く、増改築の間取り図等を変更しない部分も含めて全て描きなおさなければならなかった。
【0003】
そこで、紙に描かれた建設図面を読み取って、コンピュータで処理できるデータとして認識して記憶させることも試みられているが、そのための特別な方法や装置はなく、建設図面をイメージスキャナで読み取り、そのイメージ画像データをパーソナルコンピュータ等に入力させて、一般の図形認識機能を利用して線分認識やパターン認識を行なっている。あるいはさらに、高機能の図形エディタを補助に使うことによって図形認識機能をレベルアップし、自動認識機能が多少不完全な場合でも、例えばラスタ・ベクタ変換することにより直線や円弧等の基本線図を自動認識できるようにしたものもある。
【0004】
しかしながら、このような従来の図面認識装置は、高度の操作知識等を必要とし、パソコンなどを使い慣れている人や専門のオペレータに利用が限定され、建設図面を頻繁に使用する業界関係者にとって、決して使い勝手のよいものであるとはいえなかった。
【0005】
また、直線や円弧等の基本線図は自動認識することができるが、基本線図の組み合わせ等からなる建設図面特有の図形シンボル(例えば、壁や柱等)を個別に認識をすることはできなかった。そのため、認識した図面を修正する際には線分毎に行なわなければならず、多くの手間を要していた。
【0006】
さらに、建設業において使用される家屋やビル等の建設図面は、その図面上の各線分が人間の目には同じ大きさの連続線として見えても、厳密に見れば太さも一様でなく、軌跡もゆらいでいる。また、連続線のはずであっても所々切れている場合もある。これらの不完全さは作図時のみならず、用紙の経年変化や読み取り時の誤差などからも生じるものである。そのため、例えば線分として認識できる太さの限界があまり細いと、わずかなかすれでも線分が切れていると認識してしまう。また太めの線分を長方形のように認識してしまうこともある。
【0007】
これは、原図の品質は勿論であるが、感光紙を使用したいわゆる青焼き図面のようにコントラストが低い(黒と白の境界がはっきりしない)図面が多く、さらにその青焼きの特徴である細かな点が表面に現れるため、従来の図面認識装置では精度の高い自動認識をすることは困難であり、その修正に多くの手間を要するので殆ど実用にならなかった。
【0008】
ところで、家屋の建設図面(建築図面)では間取りを仕切る壁が図面の中心的役割を果たし、図面中のどの部分が壁であるかを認識することによって、建設図面のおおよその間取りを理解することができる。従って、図面中の壁の位置及びその長さを認識することは、建設図面を認識する上で最も重要な事項である。
【0009】
さらに、建設図面の大半は、水平及び垂直方向に延びる輪郭及び骨格をなす壁で仕切られた間取図になっている。従って、その壁に注目すると、多くの壁や仕切りは、水平及び垂直方向の直線形状を呈している。しかし、一部の壁や仕切りが水平あるいは垂直方向に対して斜め方向に傾いた直線状(斜め壁)であったり、円弧を描く形状であったりするものもある。
そこで、建設図面を認識するには、このような「斜め壁」を含む全ての壁を確実に認識することが必要である。
【0010】
【発明が解決しようとする課題】
しかし、従来の図面認識方法では次のような問題があった。
(1)輪郭線追跡方法では、壁等の輪郭線にカスレや凹凸が多いと途切れた直線として認識され、あるいは2本や3本に分かれた直線として認識されてしまって正確に認識できなかった。
(2)黒ドットの度数分布から求める射影特徴抽出方法では、壁又は仕切り線が水平及び垂直方向に対して傾いているとき、特徴抽出ができなくなってしまい、壁らしい直線の認識ができなくなる。
【0011】
この発明は上記の点に鑑みてなされたものであり、紙に描かれた建設図面を読み取ったイメージ画像データ、あるいはそのランレングスを符号化した符号化画像データから、その建設図面の間取りを知る上で重要な情報である輪郭及び骨格をなす壁、特に上記斜め壁を精度よく認識できるようにする方法、並びにその斜め壁を自動認識する機能を有する建設図面認識装置を提供することを目的とする。
【0012】
【課題を解決するための手段】
この発明は上記の目的を達成するため、次のような建設図面認識方法及び建設図面認識装置を提供する。
この発明による建設図面認識方法は、建設図面の画像を読み取ったイメージ画像データを入力する画像データ入力ステップと、該ステップで入力したイメージ画像データの水平及び垂直方向の黒又は白ドット数を計測して水平及び垂直方向のドット数計測配列データを作成するドット数計測配列データ作成ステップと、該ステップで作成した水平及び垂直方向のドット数計測配列データに基づいて建設図面の輪郭及び骨格を認識する輪郭・骨格認識ステップと、該ステップで認識した輪郭及び骨格に基づいて、前記入力したイメージ画像データの画像領域を限定し、その限定した画像領域のイメージ画像データの中の黒又は白ドットが全体的に示すスキュー角度を求め、その求めたスキュー角度方向に、上記限定した画像領域のイメージ画像データの黒又は白ドット数を計測してドット数計測配列データを作成し、その作成したドット数計測配列データに基づいて建設図面の輪郭及び骨格の一部をなす斜め壁を認識する斜め壁認識ステップとを設け、上記斜め壁認識ステップにおいて、上記輪郭・骨格認識ステップにおいて認識された建設図面の輪郭及び骨格に基づいて抽出した水平方向と垂直方向の壁の交点又は端点を出発点にして、画像データの黒又は白ドットに基づいて上記スキュー角度を求めるようにしたものである。
【0014】
また、この発明による建設図面認識装置は、図面の画像を読み取ったイメージ画像データを入力する画像データ入力手段と、該手段によって入力したイメージ画像データの水平方向又は垂直方向の黒又は白ドット数を計測して水平及び垂直方向のドット数計測配列データを作成するドット数計測配列データ作成手段と、該手段によって作成された水平及び垂直方向のドット数計測配列データに基づいて建設図面の輪郭及び骨格を認識する輪郭・骨格認識手段とを有する。
【0015】
さらに、上記輪郭・骨格認識手該手段によって認識された建設図面の輪郭及び骨格に基づいて、上記入力したイメージ画像データの画像領域を限定し、その限定した画像領域のイメージ画像データの黒又は白ドットが全体的に示すスキュー角度を求め、そのスキュー角度の方向に上記限定した画像領域のイメージ画像データの黒又は白ドット数を計測してドット数計測配列データを作成し、その作成したドット数計測配列データに基づいて建設図面の輪郭及び骨格の一部をなす斜め壁を認識する斜め壁認識手段とを有し、その斜め壁認識手段が、上記輪郭・骨格認識手段によって認識された建設図面の輪郭及び骨格に基づいて抽出した水平方向と垂直方向の壁の交点又は端点を出発点にして、画像データの黒又は白ドットに基づいて上記スキュー角度を求めるようにしたことを特徴とする。
上記画像データ入力手段は、建設図面の画像を読み取ってそのイメージ画像データを入力する画像読取手段であればよい。
【0016】
あるいはまた、画像データ入力手段として建設図面の画像を読み取ったイメージ画像データのランレングスを符号化した符号化画像データを入力する画像データ入力手段を設け、ドット数計測配列データ作成手段は、その入力された符号化画像データから元のイメージ画像データの水平方向又は垂直方向の黒又は白ドット数を計測して水平又は垂直方向のドット数計測配列データを作成するようにしてもよい。
【0017】
これらの建設図面認識装置に、上記斜め壁認識手段による認識結果を表示する表示手段を設けるとよい。
その表示手段は、上記画像データ入力手段により入力したイメージ画像データを上記認識結果と同時に表示する手段を有するのが望ましい。
さらに、その同時に表示する手段が、上記イメージ画像データと認識結果とを重ね合わせて表示する手段であるとよい。
【0018】
あるいは、上記画像データ入力手段により入力したイメージ画像データと上記認識結果とを選択的に表示するように表示内容を変更する表示選定手段を設けてもよい。
また、上記認識結果を操作者が確認して、その認識結果を外部からの指示によって確定する認識結果確認手段を設けるのが望ましい。
【0019】
【発明の実施の形態】
以下、この発明の実施の形態を図面に基づいて具体的に説明する。
図1は、この発明による建設図面認識方法を実施する建設図面認識装置の一例の概略構成を示すブロック図であり、ハード構成とマイクロコンピュータによるソフト処理の機能とを混在して示している。
【0020】
この装置は、全体制御部1,画像読取部2,通信制御部3,メモリ4,自動スキュー補正部5,ドット数計測配列データ作成部6,輪郭・骨格認識部7,再マッピング制御部8,表示部9,操作入力部10,外部記憶装置11,印刷装置12,斜め壁認識部13,及びこれらを接続するバス14などから構成される。
なお、これらの各部(又は装置)とバス14との間に必要なインタフェース部は図示を省略している。
【0021】
全体制御部1は、この建設図面認識装置全体の動作及び機能を制御するマイクロコンピュータ(CPU,ROM,RAM等から構成されるが代表して「CPU」と略称される)であり、自動スキュー補正部5並びにこの発明に係るドット数計測配列データ作成部6,輪郭・骨格認識部7,再マッピング制御部8,及び斜め壁認識部13の各機能も、そのCPUのソフト処理によって実現できる。
【0022】
画像読取部2は、セットされた建築図面等の建設図面をスキャンしてその画像を読み取ってイメージ画像データを入力する画像データ入力手段であり、スキャン光学系及びCCDなどのイメージセンサとその駆動回路等からなる公知のイメージスキャナである。また、その読み取ったイメージ画像データを所定の解像度で2値化して白ドットと黒ドットの画像データにする回路も含んでいる。
【0023】
通信制御部3は、画像読取部2から画像データを取り込む代りに、外部から通信によりイメージ画像データ又はそのランレングスが符号化された符号化画像データを受信して入力する画像データ受信手段であると共に、この装置によって認識した建設図面の輪郭及び骨格データを外部装置へ送信することもできる。具体的にはFAXモデムやパソコン通信制御手段を含むものである。
【0024】
メモリ4は、画像読取部2によって読み取ったイメージ画像データ、通信制御部3によって受信したイメージ画像データ又は符号化画像データをはじめ、自動スキュー補正部5によってスキュー補正された画像データ、ドット数計測配列データ作成部6によって作成されたドット数計測配列データ、輪郭・骨格認識部7によって認識された輪郭及び骨格の認識結果、斜め壁認識部13によって認識された斜め壁の認識結果、及び再マッピング制御部8によって再マッピングされた画像データ等を格納する大容量のRAMあるいはハードディスク等によるメモリである。
【0025】
自動スキュー補正部5は、メモリ4に格納した画像データの角度を調整して水平及び垂直の線分方向を装置の水平及び垂直の基準方向と一致させるように補正するためのものであり、公知の自動スキュー補正技術を用いることができる。
なお、この自動スキュー補正部5により修正された画像データは、再びメモリ4に格納される。
【0026】
ドット数計測配列データ作成部6は、自動スキュ補正がなされてメモリ4に格納されたイメージ画像データ又は符号化画像データ、及び後述する再マッピング制御部8によって再マッピングされた画像データに対して、その画像データを水平及び垂直方向の2方向に限定して、それぞれドット幅単位に黒又は白ドット数を計測(カウント)し、その結果により水平及び垂直方向のドット数計測配列データ(ヒストグラム)を作成してメモリ4に格納するドット数計測配列データ作成手段である。
【0027】
なお、読み取った建設図面がポジ図面(地の明度より図の明度が低い図面)の場合には黒ドット数を計測し、ネガ図面(地の明度より図の明度が高い図面)の場合には白ドット数を計測する。
【0028】
輪郭・骨格認識部7は、ドット数計測配列データ作成部6によって作成された水平及び垂直方向のドット数計測配列データに基づいて、建設図面の輪郭及び骨格を認識し、特に壁の位置,長さ,厚さ,種類等の壁データを抽出するための輪郭・骨格認識手段であり、その詳細は後で詳述する。
【0029】
なお、参照したドット数計測配列データでは、壁の認識(抽出)が困難あるいは不確実な場合は、図面の水平及び垂直方向のドット数計測配列データ作成範囲の再設定要求を全体制御部1へ送り、作成範囲を変更設定してドット数計測配列データ作成部6に再度ドット数計測配列データを作成させる。
【0030】
再マッピング制御部8は、輪郭・骨格認識部7により、壁と認識された部分により建設図面の範囲を限定して、その部分を他の認識情報をも考慮した上で、再度マッピングし、その限定した範囲毎にドット数計測配列データ作成部6に再度ドット数計測配列データを作成させるための画像データを作成するものであり、その際に原稿のノイズあるいは画像読取部2での読取ノイズも除去した画像データを作成する。このデータもメモリ4に格納される。
【0031】
斜め壁認識部13は、輪郭・骨格認識部7によって抽出した水平方向と垂直方向の壁の交点や端点を出発点にして、メモリ4に格納した画像データの黒又は白ドットからなる部分(直線部分及び孤立した島など)が全体的に示すスキュー角度を求め、その求めた方向に黒又は白ドット数を計測して斜め方向のドット数計測配列データを作成し、その作成した各方向のドット数計測配列データに基づいて建設図面の輪郭及び骨格(斜め壁)を認識する処理を行なう。この認識によって輪郭が拡張された画像データは再びメモリ4に格納される。
すなわち、この斜め壁認識部13は、イメージ画像データの黒又は白ドットからなる部分の斜め方向の直線形状をなす輪郭及び骨格を「斜め壁」として認識する手段であり、その詳細は後で説明する。
【0032】
表示部9は、画像読取部2又は通信制御部3から入力し、自動スキュー補正部5によってスキュー補正された建設図面の画像データ、ドット数計測配列データ作成部6で作成された水平及び垂直方向の黒又は白のドット数計測配列データ、輪郭・骨格認識部7によって認識された壁データ、斜め壁認識部13によって認識された斜め壁のデータ、再マッピング制御部8によって再マッピングされた画像データ等を表示するためのものであり、例えば、CRTや液晶ディスプレイ等である。
【0033】
図2,図3は、表示部9の画面9aの表示状態の例を示すものであり、図2は輪郭・骨格認識部7及び斜め壁認識部13によって認識された建設図面の輪郭及び骨格(この例では斜め壁W′を含む壁W)のデータを、再マッピング制御部8によって再マッピングした画像データ(認識結果)の表示例である。この表示例において、二重の実線は壁の両面を示し、細線は壁の芯線及びその延長線を示している。
【0034】
図3は、自動スキュ補正部5によってスキュー補正された建設図面の画像データ(入力したイメージ画像データ)と、上記再マッピングされた認識結果である壁の画像データを同時に重ね合わせて表示した例を示す。この場合、両者の識別が容易にできるように、スキュー補正された建設図面のイメージ画像データはハーフトーンで表示し(図3では図示の都合上点描で示している)、認識結果である壁の画像データを実線で表示する。
【0035】
また、表示部9がカラーの表示装置である場合には、両画像の色を変えて表示することにより、識別性を向上させることができる。例えば、スキュー補正された入力イメージ画像データは薄青色で、認識結果の画像データをオレンジ色あるいは緑色等で表示することにより、操作者は認識結果の部分を容易に識別できる。
【0036】
あるいは、表示部9の画面9aを分割して、スキュー補正された入力イメージ画像データと認識結果の画像データを、その分割したそれぞれの画面に対比させて表示することもできる。
または、同一の画面上にスキュー補正された入力イメージ画像データと再マッピングされた認識結果の画像データを選択的に表示できるようにしてもよい。
その場合には、後述する操作入力部10に表示選択手段(キー等)を設ければよい。
【0037】
さらに、この表示部9は、認識結果を操作者が確認するための画面も表示する。すなわち、上記再マッピングされた認識結果の画像データを表示し、「この認識結果でよろしいですか?(YES/NO)」というような表示を行なう。これにより、壁の認識が正確にできているかどうかを操作者が確認することができる。
【0038】
操作入力部10は、各種操作指示や機能選択指令、編集データ等を入力するためのものであり、キーボードやマウスあるいはタッチパネル等である。
この操作入力部10は、表示選択手段としての機能も有し、表示部9の表示状態を操作者の所望の表示状態に変更することができる。例えばキー操作により、スキュー補正された建設図面の入力画像データと再マッピングされた認識結果の画像データを重ね合わせて表示させたり、どちらか一方のみを選択して表示させたりすることができる。
【0039】
さらに、操作入力部10は、上記「この認識結果でよろしいですか?(YES/NO)」の表示に対し、「YES」または「NO」の情報を入力するためのキー等の入力手段も有する。そして、「YES」が選択された場合は認識処理を終了し、「NO」が選択された場合は再認識処理あるいは訂正処理に移行する。
これにより、操作者は認識結果の内容を確認し、それを確定することができる。
【0040】
外部記憶装置11は、入力した画像データや、ドット数計測配列データ作成部6で作成された黒ドット数計測配列データ、輪郭・骨格認識部7及び斜め壁認識部13によって認識された壁データ、再マッピング制御部8によって再マッピングされた認識結果の画像データ等をフロッピディスク(FD)や光磁気ディスク(OMD)等の外部へ取り出し可能な記憶媒体に記憶させる記憶装置である。
印刷装置12は、上記の各種データを紙に印刷あるいは描画して出力するプリンタあるいはプロッタである。
【0041】
ここで、建設図面(主に建築図面)における「輪郭」と「骨格」及び「外壁」と「内壁」の定義について、表1及び表2と図4によって説明する。
【0042】
【表1】

Figure 0003678523
【0043】
【表2】
Figure 0003678523
【0044】
「輪郭」とは「外輪郭」のことであり、表1に○印で示すように外周壁の外部に面している箇所のみ(図4の(a)に示す二重線の外側の線の部分)を意味するケース1の場合と、外部に接する壁の全体(図4の(b)に太線で示す部分)を意味するケース2,3の場合とがある。
【0045】
「骨格」とは、壁の総て(図4の(b)(c)に太線で示す部分の両方)を意味するケース1,2の場合と、外輪郭を除く壁(図4の(c)に太線で示す部分のみ)を意味するケース3の場合とがある。これらの定義において、特に断わらない場合はケース1の通常の意味として扱われる。
【0046】
「外壁」とは表2に○印で示すように、外輪郭と同じく外周壁の外部に面している箇所のみ(図4の(a)に示す二重線の外側の線で示す部分)を意味するケース4の場合と、外部に接する壁の全体(図4の(b)に太線で示す部分)を意味するケース5の場合とがある。
【0047】
「内壁」とは表2に○印で示すように、ケース4,5とも外壁を除く壁(壁=外壁+内壁)であるが、ケース4の場合は図4の(a)に示す二重線の内側の線の部分と図4の(c)に太線で示す部分であり、ケース5の場合は図4の(c)に太線で示す部分である。これらの定義においても、特に断わらない場合はケース5の通常の意味として扱われる。
【0048】
次に、図1に示した建設図面認識装置による建設図面(主に家屋やビル等の建築図面)認識の手順について、図5乃至図8のフロー図と、図9乃至図29によって説明する。上記図6〜図8において、各ステップを「S」で示している。また、この実施形態では、認識する建設図面がポジ図面であるものとする。
【0049】
図5は、建設図面の認識処理のメインルーチンを示すフローチャートである。図5の処理を開始すると、図1の画像読取部2にセットされた建設図面を読み取り、そのイメージ画像データを入力して、自動スキュ補正部5によって自動的にそのスキュを補正する。
【0050】
そして、ステップAのサブルーチンでドット数計測配列データ作成部6及び輪郭・骨格認識部7等により、その入力した画像データに対して水平及び垂直方向の壁の位置の認識処理を実行する。この処理については後に詳述する。
なお、イメージ画像データを符号化したデータを通信制御部3から入力するようにしてもよい。
【0051】
その後、斜め壁認識部13により、ステップBからLの斜め壁の認識処理を実行する。
まず、ステップBの処理で、ステップAで認識した壁の端点及び交点の抽出を行なって、それらの個数nとそれぞれの点の位置座標を取得する。認識した壁の端点及び交点は、斜め壁認識のための出発点として以下のステップで活用する。壁の端点及び交点の抽出は、従来の技術で実現できるので説明は省略する。
【0052】
ステップCでは、ステップBで取得した斜め壁認識のための出発点総てを順番にループ処理するために、その回数カウンタのカウント値iの初期設定(i←1)を行なう。
そして、ステップDにおいて、回数カウンタのカウント値iが斜め壁認識のための出発点の個数nを超えた(i>n)かどうかを判定する。超えていれば、当該図面の解析を終了し、ステップMに移行する。超えていなければ、当該i番目の斜め壁認識のための出発点について、ステップE〜ステップLの斜め壁認識処理を行う。
【0053】
ステップEでは、当該i番目の斜め壁認識のための出発点について、画像の4方向の領域を順番にループ処理するために、その回数カウンタのカウント値jの初期設定(j←1)を行なう。
そして、ステップFにおいて回数カウンタのカウント値jが4を超えた(4方向の領域総ての捜索を終えた:j>4)かどうかを判定する。超えていれば、当該i番目の斜め壁認識のための出発点からの解析(斜め壁の捜索)を終了し、ステップGに移行する。超えていなければ、当該i番目の斜め壁認識のための出発点からj番目の方向の領域について、ステップH〜ステップLの斜め壁認識処理を行なう。
【0054】
ステップGでは、斜め壁認識のための次の出発点から、継続して認識処理するために、斜め壁認識のための出発点の回数カウンタiを+1してから、ステップDに戻って上述の処理を繰り返し行う。
【0055】
ステップHでは、当該i番目の斜め壁認識のための出発点から、j領域方向に壁があることを想定して、黒ドットに注目したスキュー角度を算出する。j方向(4方向)の領域分けは、例えば出発点を原点、水平方向をX軸、垂直方向をY軸にしたXY平面の第1象限から第4象限までを、適当に領域1(j=1)から領域4(j=4)とする。
【0056】
その例を図29に示す。この例では図中のVWは垂直方向の壁、HWは水平方向の壁である。また原点Oが出発点であり、第1領域にあるSWが目標の斜め壁である。角度θがスキュー角度である。
この処理は、例えば図29において、出発点である原点Oから領域1(j=1)内の原点Oの近傍に黒ドットが有るか否かを調べ、もしあればその方向に黒ドットが続いているか否かの判断を、角度θを確定できるまで行なうことによって達成される。
【0057】
ステップIでは、求めたスキュー角度方向に斜め直線壁を捜索する。これは、ステップHで求めたスキュー角度の方向に黒ドット数計測配列データを作成し、そのデータに基づいて、ステップAにおける壁の位置の認識処理(後で図6乃至図8によって詳述する)の場合と同様にして行なう。
【0058】
その後、ステップJにおいて、斜め方向の直線壁が認識できたかどうかを判定する。斜め方向の直線壁が認識できれば、ステップKに移行し、ステップKでは、壁位置座標などの認識結果情報を格納した後、ステップLに移行する。一方、斜め方向の直線壁が認識できなければ、ステップKをスキップして直接ステップLに移行する。
【0059】
ステップLでは、斜め壁認識のための次の領域を捜索するために、当該i番目の斜め壁認識のための出発点からの領域方向回数カウンタjを+1してから、ステップFに戻って上述の処理をあと3回(j=4まで)繰り返し行う。
【0060】
ステップFでj>4になるとステップGでiを+1してステップDで戻る。
以上のステップD〜ステップLまでの処理を、抽出した出発点の数nの回数だけ繰り返し行なって、認識した結果をステップMで出力し、この壁認識の処理を終了する。ステップMによる処理では、画像データの壁位置(始点・終点等の座標値)を建設図面からの壁の認識結果としてメモリ4又は外部記憶装置11に記憶、あるいは表示部9に表示する等の出力をする。
【0061】
図25は、壁の芯線を認識し、その結果から矩形閉ループを抽出する処理に使用した建設図面の入力画像データ(イメージ画像)を、再マッピングさせた画像データの表示例である。
【0062】
図26は、その認識結果の矩形閉ループを表示した例を示す図である。また、図27は、スキュー補正された建設図面の入力画像データを認識結果の矩形閉ループ画像データと重ね合わせて表示した例である。
図28は、建設図面である建築図面(家屋の間取り図)の画像データと、その中の斜め壁に注目した一部の領域から作成した斜め方向の黒ドット数計測配列データの具体例を示すものである。
【0063】
このようにして、カスレや凹凸によって所々途切れたり結合したりしている図面についても、まず、水平及び垂直方向の壁認識を行って、その後、その端点や交点を出発点にして、斜め方向の直線状の壁も認識出来るので、壁認識処理をより正確に実施することができる。
【0064】
次に、図5のステップAによる壁の認識処理について説明する。図6はその壁の位置を認識する処理のサブルーチンの内容を示すフロー図である。
まず、ステップ3において、自動スキュ補正された画像データの全体を調査対象とする。そして、ステップ4において、ネスト変数は0(初期値:画像全体を対象にするという意味)である。「ネスト変数」は建設図面の解析範囲をトップダウンで絞り込む時の絞り込み段階を表わす。ネスト変数の値が大きいほど解析が深くなっている(細かい部分まで進んでいる)ことを表わす。
【0065】
ステップ5において、壁の位置の調査対象の領域を限定する処理を行なう。具体的には、この処理にいたる直前に調査領域の指示が示されていて、ここでは以降のステップ6〜9の処理のための準備(インタフェースの共通化)を行なうだけである。個々の調査対象領域の形は矩形図になる。最初はネスト変数が0なので図面全体を調査対象とする。
【0066】
ステップ6において、水平方向の黒ドット数計測配列データを作成する。これは、画像データの垂直方向の1ドット幅毎に水平方向の黒ドット数を計数(計測)し、その各計数データを保持するものである。
次にステップ7において、ステップ6で作成した水平方向の黒ドット数計測配列データに基づいて、壁の抽出(認識)処理を行なう。その処理手順については後述する。
【0067】
ステップ8では、ステップ6と同様に垂直方向の黒ドット数計測配列データを作成する。すなわち、画像データの水平方向の1ドット幅毎に垂直方向の黒ドット数を計数(計測)し、その各計数データを保持する。ステップ9では、その垂直方向の黒ドット数計測配列データに基づいて壁の抽出(認識)処理を行なう。
【0068】
そして、ステップ10において領域を分割する壁候補があるかどうかを判断する。ここで、水平あるいは垂直方向で1つでも領域を分割する壁候補があれば、ステップ11へ、1つもそのような壁候補がなければ、ステップ13へ進む。
例えば、図9の(a)に示すような調査対象領域Sa内に領域を分割する壁候補Wdが存在するかどうかを判断する。
【0069】
ステップ11では、ネスト変数を+1して再設定する。これは、現在の解析領域の中から壁を認識し、その壁を使って新たに区切られた現在の領域内の小領域に解析範囲を限定する段階に入ることを表わす。
【0070】
そして、ステップ12において、その調査対象の領域の細分化を行なう。具体的には、ステップ7,ステップ9で認識した壁候補の芯線(中心線)で、例えば図9の(a)に示すように調査対象領域Saを壁候補W,Wdの細線で示す芯線によって領域Sa1,Sa2に2分割する。さらに、その最初の細分化領域(例えば最も左上の領域)に調査対象の位置づけを行なう。
【0071】
この新たに細分化された領域群の中での解析の順番には特別な順序が必要になる訳ではないが、例えば、領域開始位置のx,y座標値の小さい順番に行なうことなどが考えられる。図9の(b)は、壁候補によって細分化された各領域のネストNo.とその解析処理順序の一例を示し、実線は壁候補の芯線(中心線)を、▲1▼,▲2▼,▲3▼はネストNo.を、1〜8の小さい数字は処理順序をそれぞれ示している。
【0072】
その後、ステップ5に戻って上述の処理を繰り返し行なう。
ステップ10において、領域を分割すべき壁候補が1つもなかった場合は、ステップ13に進んで同次ネスト領域(図9の(b)で同じネストNo.の領域)の残りがないかどうかを判断する。残りがある場合は、ステップ15において同次ネストの次の領域に調査対象を進めてステップ5に戻る。
【0073】
同次ネスト領域の残りがない場合は、ステップ14へ進んでネスト変数が0であるかどうかを判断する。ネスト変数が0でない場合は、ステップ16においてネスト変数を−1して1段階上位のネスト領域の処理に戻り、ステップ13でその段階の残りのネスト領域があるかどうかを判断する。あればステップ15で次のネスト領域に調査対象を進めてステップ5に戻る。
【0074】
ステップ14でネスト変数が0の場合は、ステップ17へ進んで、ステップ7,9によって得られた各領域毎の壁候補の認識データをもとに各壁の位置及びサイズを確定し、その壁認識データをメモリ4に格納する。その格納方法については後述する。そして以上の処理の後、当該サブルーチンを終了する。
【0075】
次に図7に基づいて、図6のステップ7及び9の壁の抽出(認識)処理の手順を説明するが、それに先立って、建設図面である建築図面(家屋の間取り図)の画像データとその全領域から作成した水平及び垂直方向の黒ドット数計測配列データの具体例を図10及び図11に示す。これらの図において、(a)は建築図面の画像データ、(b)は水平方向の黒ドット数計測配列データ、(c)は垂直方向の黒ドット数計測配列データである。さらに、図10の(c)に示した垂直方向の黒ドット数計測配列データを拡大して図12に示す。
【0076】
図10の建築図面では、壁のシンボルが壁の両面と芯線によって表わされており、図11の建築図面では、壁のシンボルが壁の厚さ内の塗りつぶし(黒)によって表わされている。
この黒ドット数計測配列データにおいて、一番細い黒線の幅が1ドット幅であり、各黒線の長さが(a)に示す建築図面の画像データの1ドット幅毎の水平方向又は垂直方向の黒ドット数の計数値に相当する。
【0077】
これらの図から明らかなように、建築図面を構成する線分の大部分(90%以上)は水平方向又は垂直方向に描かれており、特に壁の部分で黒ドットの密度が高くなっている。そのため、水平方向及び垂直方向の黒ドット数計測配列データには、壁が存在する位置にピークが表われることになる。
【0078】
図7のフローの処理を開始すると、まずステップ21において、指定方向とクロスする方向(水平方向の黒ドット数計測配列データ作成の指定であれば垂直方向に、また垂直方向の指定であれば水平方向に)に、建設図面の基準の単位長に相当する所定間隔ごとに何回壁認識処理のループが可能かを確認する。
ここで、この単位長は一般の住宅の場合にはその最小壁間隔である「半間」あるいは「1メートル(m)」であり、ここでは半間(91cm)とする。
【0079】
そして、水平方向の黒ドット数計測配列データに対しては垂直方向の画像幅より若干長い寸法を幅サイズLとし、垂直方向の黒ドット数計測配列データに対しては水平方向の画像幅より若干長い寸法を幅サイズLとして自動設定する。
また、半間サイズをhとし、この値は予め図面の縮尺データ及び半間長を入力するか又は計算による自動算出などにより決定する。
この幅サイズLと半間サイズをhからL/hを算出して小数点以下は切上げた数値を壁認識処理の大ループの実行回数nとする。図12にhで示す範囲が1回の大ループでの処理範囲である。
【0080】
次いで、ステップ22で大ループの回数カウンタのカウント値iの初期設定(i←1)を行なう。
そして、ステップ23において回数カウンタのカウント値iが可能な大ループの実行回数nを超えた(i>n)かどうかを判定する。超えていれば、当該領域の解析を終了する。超えていなければ、ステップ24において当該i番目の半間内の最初の解析処理として最高ピーク(図12にPで示す)に位置付け、その点をxpとする。このように半間毎に解析処理することにより、その中のピーク値が壁の一部である可能性が高いことになる。
【0081】
次に、ステップ25において壁の対象としての最初の条件であるピーク(極大値)の高さが半間(h)以上かどうかを判定する。その結果、ピークの高さが半間未満の場合には壁の認識不明として、次の半間先の解析に移るためにステップ34に進む。ピークの高さが半間以上ある時には次の解析ステップ26に移行する。このステップ26において、最高ピークの位置から左右両側(例えば、2W幅)を調べて、壁の厚みの範囲(両面の位置:W1,W2及び厚みWe=|W1−W2|)の絞り込みを行なう。ここでWは壁の厚みの意味で、例えばWmaxと同じ値で使用する。
【0082】
この絞り込み方法としては、(最高ピーク値−min)*rate+min 以上の値を持つ最高ピーク位置の両端又は片側のピーク位置を、壁の両面の位置W1,W2又は最高ピーク位置xpが壁の一方の面の位置W1であるときの他方の面の位置W2として絞り込む方法がある。
【0083】
図13はこの絞り込み処理の説明図であり、(a)は最高ピーク位置xpの両側に壁の両面の位置W1,W2が存在する場合の例である。この場合は、最高ピーク位置xpは壁の芯線位置の候補と推定される。
【0084】
図13の(b)は最高ピーク位置xpが壁の一方の面の位置W1であり、その片側に他方の面の位置W2が存在する場合の例である。この場合は、長い方のピーク位置が図2に二重線で示した外輪郭の外壁位置の候補で、それに近接する短い方のピークがその内壁位置の候補と推定し得る。
【0085】
ここで、rateは解析の前半(ネスト変数の値が小さい時)は小さめに、後半(ネスト変数の値が大きい時)では大きめにする(例えば、最初はrate=0.70とする)。min は図13の(c)に示すように現在注目している最大ピークPの位置xpの左右両側2Wに拡がった4W幅程度の幅内の黒ドット数計測データの最小値である。
【0086】
このようにして、図7のステップ26で絞り込んだ結果を基に、ステップ27と28で壁としての妥当性を確認する。
まずステップ27においては、壁の厚みWeがその最大値Wmax(例えば30cm)を超えているか否かを判断し、超えている時は壁の認識不明として次の半間先の解析に移るためステップ34に進む。超えていなければステップ28へ進み、壁の厚みWeが最小値Wmin(例えば2.5cm)未満か否かを判断する。
【0087】
その結果、壁の厚みWeが最小値 Wmin未満の場合はステップ30へ進み、そうでない時はステップ29に進む。ステップ30においては壁以外のピーク(例えば、畳,窓,引戸など)を認識したものとしてその情報を得る。
ステップ29においては、壁の候補となる領域から、壁としての条件を満たすかどうかを後述する2等分割探索法によって判定し、壁だと認識できたものについて、ステップ31において当該壁の両面の位置W1,W2及び厚みWeなどの情報を退避(記憶)してステップ32に進む。
【0088】
ステップ29で壁としての条件を満たさなければステップ32に移行する。ステップ32においては、壁の両面位置(座標)W1及びW2が共に現在処理を行なっている領域の内側かどうかを判定し、内側であればステップ33に進む。そうでなければステップ34に移行する。
【0089】
ステップ33では、現在の処理領域を細分化し、新しい細分領域を示す境界データとして、W1,W2,Weを退避(記憶)する。また、(W1+W2)/2がその壁の芯線位置である。ステップ34では、次の半間先の処理を行なうために大ループの回数カウンタのカウント値iを+1してから、ステップ23に戻って上述の処理を繰り返し行なう。
【0090】
このようにして、対象となる黒ドット数計測配列データの一端(先頭要素)から半間毎に解析処理し、反対の端まで解析が終われば、今回の範囲の解析を終了する。水平方向と垂直方向の2方向のを黒ドット数計測配列データに対して別々に解析し、次回の解析範囲は、今回の解析で壁と認識できた範囲に限定する。
そのため、水平及び垂直方向の黒ドット数計測配列データを解析した結果を組み合わせて、総当たりの場合分けを行なう。
【0091】
この実施形態では、壁の芯線位置は隣の壁との間隔が半間単位の整数倍になるように配置されているとみなす。
そして、特徴的なピークが発見できる範囲までを解析データとして有効に使用する。逆に云えば、解析対象とするある範囲内に壁に相当する特徴が、水平方向及び垂直方向の両方合わせても一つも発見できなかったときは解析を終了する。
1回の解析範囲は、最初は図面全体を対象にし、以後発見された壁で区切られた範囲に限定し直す方法をとって、壁のピークが発見されやすくし、且つ細部までの解析が容易になるようにする。
【0092】
次に、図7のステップ29において「壁としての条件を満たすか」を判断する2等分割探索法について、図8のフロー図によって説明する。
この図8に示すフローの処理を開始すると、まずステップ41において、2等分割探索法の初期設定を行なう。
すなわち、壁分析のための領域分割要素数nを1にし、壁部か非壁部かが未確定である分割要素の配列要素の最も小さいNo.を指すkを0に、また、調査領域の分割配列要素として、S〔0〕,E〔0〕それぞれに入力のスタート及びエンド画像アドレスを代入して初期設定とする。
【0093】
その後、ステップ42に進み、調査領域の開始アドレスS〔k〕と終了アドレスE〔k〕が等しければステップ53に移行し、等しくなければステップ43に進む。ステップ43においてはイメージ画像データの対象領域の分割処理を行ない、元の領域を小数以下の誤差を除いて2等分割する。
【0094】
すなわち、分割する前半の領域のスタート及びエンド画像アドレスS1,E1を、S1=S〔k〕,E1=(1/2)(S〔k〕+E〔k〕)とし、後半の領域のスタート及びエンド画像アドレスS2,E2を、S2=(1/2)(S〔k〕+E〔k〕)+1,E2=E〔k〕とする。
【0095】
それによって、例えば図14に示すように、建設図面のイメージ画像データ中において、壁候補が存在する線(一点鎖線で示す)の元の領域幅を最初は1の位置で2等分割する。その後壁の有無を判別できるまで、順次図14に示す位置2で2回目、3の位置で3回目、4の位置で4回目というように2等分割を繰り返して細分化した領域でステップ44及び45の壁調査を行なうようにする。
ステップ44及び45においては、2等分割したそれぞれの領域P1,P2が壁で満たされているかどうかを調査し、ステップ46に進む。
【0096】
ここでは、指定された領域(スタートアドレスからエンドアドレスまで)の黒ドット数計測配列データを分析した結果、黒ドットのピーク(壁の厚みの広がりを保って)高さが、指定された領域の幅(長さ)と比較して次の▲1▼〜▲3▼の判断をする。
【0097】
▲1▼:5%以下のとき、 v=0:非壁部と判断
▲2▼:95%以上のとき、v=1:壁部と判断
▲3▼:上記以外のとき、 v=2:どちらとも判断できない
これを図に示すと図15に▲1▼,▲2▼,▲3▼で示すようになる。
【0098】
ステップ46においては、ステップ43で分割された前半の領域P1について、壁が存在するかどうか判断できない(v=2)場合はステップ47に進み、そうでなければステップ49に進む。ステップ47においては、ステップ43によって分割する前の領域範囲の格納配列要素S〔k〕,E〔k〕,v〔k〕を、ステップ43で分割された後半の領域データ(スタート及びエンド画像アドレスS2,E2と判定結果v2)で置き換える。
【0099】
ステップ48においては、新しい格納配列要素S〔n〕,E〔n〕,v〔n〕として、ステップ43で分割された前半の領域データ(スタート及びエンド画像アドレスS1,E1と判定結果v1)を退避し、ステップ51に移行する。
ステップ49においては、ステップ43によって分割する前の領域範囲の格納配列要素S〔k〕,E〔k〕,v〔k〕を、ステップ43で分割された前半の領域データ(スタート及びエンド画像アドレスS1,E1と判定結果v1)で置き換える。
【0100】
ステップ50においては、新しい格納配列要素S〔n〕,E〔n〕,v〔n〕として、ステップ43で分割された後半の領域データ(スタート及びエンド画像アドレスS2,E2と判定結果v2)を退避し、ステップ51に移行する。
ステップ51では、領域アドレスの新しい格納配列要素を示せるように新しい格納配列要素No.を示す変数nを+1してから、ステップ52に進む。
【0101】
ステップ52においては、壁部か非壁部かが未確定である分割要素の最も小さいNo.を指すk要素内の分類コードvが壁が存在するかどうか判らない内容(v=2)の場合は、ステップ42に戻って更に細分割する処理を繰り返す。そうでない場合はステップ53に進む。
ステップ53では、壁が存在するかどうか判らない内容が一つ解決したとして、その指標kを+1してからステップ54に進む。
【0102】
ステップ54においては、壁分析のための領域分割要素数nと、壁部か非壁部かが未確定である分割要素の配列要素の最も小さいNo.を指すkとが、等しくなっているかどうか判定し、等しければ壁認識のための分割処理が終了したと判断してステップ55へ進む。等しくなければステップ52へ戻る。
【0103】
ステップ55においては、分割された領域アドレス・データ(配列)が上昇順に並ぶよう、スタートアドレス順(昇順)にソートを実行してステップ56に移行する。すなわち、S〔0〕〜S〔n−1〕,E〔0〕〜E〔n−1〕,v〔0〕〜v〔n−1〕のデータをS〔 〕をキーにして昇順にソートする。
【0104】
ステップ56においては、壁部分及び非壁部分が連続している場合は、それぞれ縮退処理(一つの範囲で表現)して終了する。すなわち、連続したv〔 〕値が0又は1の状態の場合は、S〔 〕,E〔 〕データを圧縮する。
なお、この時に、壁が存在するかどうか判らない内容(v=2)の配列要素を含む場合は、その要素の前後の要素が壁を示している場合には壁データに変更し、また、非壁を示している場合には非壁データに変更して処理する。
【0105】
上述した二等分割探索処理による画像データ中の壁位置の分析例を図16に示す。この図16の(a)には壁のイメージ画像(斜線を施した部分)Wとその調査対象領域を破線で示しており、この調査領域は先に認識された壁候補の存在位置に沿って設定される。そして、S〔0〕=0がその調査領域の最初のスタートアドレス、E〔0〕=15が最初のエンドアドレスである。4,5,7等の途中の数字は分割後の対象領域のスタート又はエンドアドレス(いずれも画像アドレス)である。
【0106】
図16の(b)には変数n=1〜10の各調査段階における各対象領域のスタートアドレスS,エンドアドレスE,及び壁の有無に関する判断結果vとその確定状況、ソート状況、並びに縮退処理結果をkの値と共に示している。そして、最終的には画像アドレス5〜12に壁が存在することを認識している。
【0107】
次に、図17によって簡単な建設図面の壁認識例を説明する。
この図17には、ネスト変数(nest)と、領域分割状態と認識された実際の壁の状態とを示している。
まず、ネスト変数=0で建設図面の全体を壁位置の調査対象として壁の抽出を行なう。その結果(A)に実線で示すように建設図面の家屋部の輪郭と水平及び垂直方向の壁候補の位置を認識できたとする。しかし、その認識できた壁候補のうち実際の壁は(a)に示す部分だけであるが、それはまだ判らない。
【0108】
そこで次に、ネスト変数=1にして、(A)に示す認識できた壁候補の芯線で区切られた各矩形領域毎に調査対象領域を限定して壁の抽出を行なう。それによって(B)に▲1▼,▲2▼,▲3▼,▲4▼で示す4つの調査対象領域で新たに太線で示す壁候補が認識されると共に、先に認識された壁候補のうち、実際の壁は(a)に示された部分だけであったことが確認され、(b)に示す壁の状態が認識される。
【0109】
さらに、ネスト変数=2にして、(B)において新たな壁候補が認識された4つの領域▲1▼〜▲4▼をそれぞれその新たに認識された壁によって分割して、調査対象領域をさらに限定して壁の抽出を行なう。それによって、(C)に▲5▼,▲6▼で示す2つの調査対象領域で新たに太線で示す壁候補が認識され、(c)に示す壁の状態が認識される。
【0110】
その後、ネスト変数=3にして、(C)において新たな壁候補が認識された2つの領域▲5▼,▲6▼をそれぞれその新たに認識された壁によって分割して、調査対象領域をさらに限定して壁の抽出を行なう。その結果いずれの分割領域でも新たな壁候補を抽出できなにかった場合には、それによって壁位置の調査を終了し、(c)に示す壁位置が最終的な壁認識結果であることが確定し、そのデータをメモリに格納する。
【0111】
このように、分割した各調査対象領域のいずれでも新たな壁候補が抽出されなくなるまで、調査対象領域を細分化して壁の抽出を行なう。それによって、小さな壁でも確実に認識することができ、且つ壁候補のうち実際には壁が存在する部分と存在しない部分とを正確に判別することができる。
【0112】
ここでさらに、前述した図6のフローチャートに従った具体的な建設図面の認識処理手順の例を、図18乃至図20によって説明する。図18乃至図20は一連の図であるが、図示の都合上3枚の図に分割して示している。これらの図におけるS3〜S17は、図6のS3〜S17の各ステップに対応している。また、各段階での領域分割図と実壁状態も図示している。
【0113】
以下の説明ではステップを「S」と略称する。図18のS3で図面全体を調査対象とし、S4でネスト変数を0にする。S5で調査対象の限定を行なうがネスト変数が0なのでやはり図面全体を調査対象とする。S6〜S7で水平方向の黒ドット数計測配列データを作成して壁を抽出するが、輪郭以外の壁を発見できず、S8〜S9で垂直方向の黒ドット数計測配列データを作成して壁を抽出し、輪郭以外の壁を2か所に発見する。したがって、S10でYESになり、S11でネスト変数を1にし、S12で領域の細分化(各壁の位置で)をしてS5へ戻り、調査対象領域を一番左の領域に限定する。
【0114】
そして、S6〜S7で壁を2か所に発見し、S8〜S9では壁を発見できなかったがS10ではYESになり、S11でネスト変数を2にして「入れ子処理」を、図19のS14でNoになり入れ子処理を終了するまで繰り返し実行し、左側の縦長の領域を新たに発見された2つの壁によって区切った3つの分割領域に対して、順次壁の抽出処理を行なう。
【0115】
この例ではそれによって新たな壁は発見されず、図19のS16でネスト変数を−1して1に戻し、真中の縦長の領域を調査対象領域として同様に壁の抽出を行なうが、この例では新たな壁候補は発見されない。
そこで、S15,S5で右側の縦長の領域に調査対象領域を変更し、S6〜S7で壁を1ケ所発見する。
【0116】
そこで、図20のS10でYESになり、S11でネスト変数を2にして「入れ子処理」を開始し、右側の縦長の領域を新たに発見された壁によって分割し、その各分割領の壁抽出処理を順次行なう。その結果、いずれの分割領域でも新たな壁は発見されず、S13でNoになり入れ子処理を終了し、S16でネスト変数を−1して1にするが、ネスト変数1の領域は残っていないので、さらにネスト変数を0に戻すが、その領域も残っていない。そのため、壁抽出の処理は完了したと判断し、S17で抽出された壁候補の認識データにより各壁の位置及びサイズを確定し、そのデータをメモリに格納する。
【0117】
次に、上述のようにして認識した建設図面の輪郭及び骨格に相当する壁の位置及びサイズ等の情報(解析結果データ)を図1に示したメモリ4及び外部記憶装置11の記憶媒体に格納する内容の一例について、図21によって説明する。
図21において、(A)はネスト数、(B)は固有ネスト情報、(C)水平方向の壁情報、(D)は垂直方向の壁情報、(E)は水平な壁のモデル、(F)は垂直な壁のモデルを示す。
【0118】
ネスト数は、子ネストポインタの入れ子(親子関係)の深さを示し、壁が全然認識されなかった場合は、ネスト数=0である。
固有ネスト情報は、ネストNo.,NEXT兄弟ポインタ,子ネストポインタ,壁数(水平方向及び垂直方向),壁情報ポインタ(水平方向及び垂直方向)からなる。
【0119】
NEXT兄弟ポインタは、同時階層ネスト情報の次のアドレスを持つ。したがって、このポインタが示す場所の固有ネスト情報内のネストNo.は、当該処理のものと同じ値である。
子ネストポインタは、一階層下の階層ネスト情報の先頭データのアドレスを持つ。したがって、このポインタが示す場所の固有ネスト情報内のネストNo.は、当該処理のものに+1した値である。
【0120】
(B)に示す固有ネスト情報中の水平方向の壁情報ポインタが示すアドレスを先頭アドレスとして、(C)に示す水平方向の壁情報が格納される。
その壁情報は、次の水平方向の壁情報の先頭アドレスの位置を示すNEXTポインタ、壁の始点座標(x座標:a,y座標:b)、壁の横(x方向)サイズ:c、壁の縦(y方向)サイズ:壁の厚みdからなる。これらのa〜dによって(E)に示す水平な壁のモデルを記憶し、またそれを再現することができる。
【0121】
同様に、固有ネスト情報中の垂直方向の壁情報ポインタが示すアドレスを先頭アドレスとして、(D)に示す垂直方向の壁情報が格納される。
その壁情報は、次の垂直方向の壁情報の先頭アドレスの位置を示すNEXTポインタ、壁の始点座標(x座標:e,y座標:f)、壁の縦(y方向)サイズ:g、壁の横(x方向)サイズ:壁の厚みhからなる。これらのe〜hによって(F)に示す垂直な壁のモデルを記憶し、またそれを再現することができる。
【0122】
ところで、実際の建築図面の画像データに対して、その図面全体を調査対象領域として水平方向及び垂直方向の黒ドット数計測配列データを作成した例を図10及び図11に示したが、その黒ドット数計測配列データに基づいて壁候補を認識した次の段階で、その図面の領域を認識した壁候補によって分割し、調査対象領域を限定した画像データに基づく水平及び垂直方向の黒ドット数計測配列データの作成例を、図22乃至図24に示す。
【0123】
図23及び図24は、図22よりさらに調査対象領域を細分化した例である。
このようにして、新たな壁候補が発見されなくなるまで、調査対象領域を細分化して、その画像データによる水平及び垂直方向の黒ドット数計測配列データを作成し、壁の抽出を行なう。
【0124】
なお、この実施形態ではポジ画像の建設図面を認識対象としたので、その2値化した画像データの水平及び垂直方向の黒ドット数を計測(カウント)して黒ドット数計測配列データを作成したが、ネガ画像の建設図面を認識対象とする場合には、その2値化した画像データの水平及び垂直方向の白ドット数を計測(カウント)して白ドット数計測配列データを作成すれば、壁の認識を同様に行なうことができる。
【0125】
また、上述のようにして認識した建設図面の輪郭及び骨格に関する認識データは、CAD用ベクトルデータに変換をすることができ、異機種間のCADデータの互換性を得ることができる。
【0126】
さらに、この実施形態では黒ドットからなる部分の輪郭を斜め方向に黒ドット数を計測(カウント)して黒ドット数計測配列データを作成し、それによって傾いた直線壁でも射影特徴抽出できる認識処理を行なうので、次に示すようなメリットがある。
【0127】
(1)図面の水平及び垂直線から斜めに傾いた直線から構成される図形でも、傾いた角度さえ分かれば、認識できるという認識範囲が拡大する。
(2)図面の水平及び垂直向きに正対した直線(壁など)と、斜めに傾いた直線の両方が混在している対象(矩形以外の多角形)でも認識&抽出が可能になる。
【0128】
なお、手書き図面で家図面の正対方向のスキュ補正が困難な場合、手書き図面を方眼紙に記述して、スキュ補正はその方眼紙のマス目を利用して行なうようにするとよい。
また、やむをえず利用者の手作業に委ねる場合、スキャナ読込時にできるだけスキュ補正が不要な正対する図面を作成するように注意を促すマニュアルを添えるとよい。
【0129】
【発明の効果】
以上説明してきたように、この発明による建設図からの斜め壁面認識方法によれば、建設図面内存在する水平又は垂直方向に対して傾斜した直線状の斜め壁を、建設図面の輪郭及び骨格の一部として確実に認識することができる。しかも、手書き図面や青焼きなどの比較的コントラストが低い図面や、ノイズの多い図面あるいは古い建設図面など、記載状態や画質の悪い建設図面でも、その斜め壁を精度よく認識することができる。
【0130】
また、この発明による建設図面認識装置によれば、建設図面の画像を読み取ったイメージ画像データを入力して、その建設図面の輪郭及び骨格をなす壁を、斜め壁も含めて精度よく自動的に認識することができる。
【0131】
そして、その認識したデータをパソコンなどに取り込んで利用すれば、増改築の際の見取り図などの建設図面を容易且つ迅速に作成することが可能になる。
さらに、建設図面のイメージデータをランレングス符号化した画像データとしてFAX通信等によって入力し、その建設図面の輪郭及び骨格を認識することもできる。
【0132】
さらに、斜め壁を含む輪郭・骨格の認識結果を表示することにより、その認識結果を確認し、確定することができる。その場合、入力した建設図面のイメージ画像データを認識結果と同時にあるいは選択的に表示することにより、その表示内容を比較検討して、誤認識箇所や認識できなかった部分を見つけることができる。入力したイメージ画像データと認識結果とを重ね合わせて表示すれば、誤認識箇所や認識できなかった部分の発見及びその修正が一層容易になる。
【図面の簡単な説明】
【図1】 この発明による建設図面認識方法を実施する建設図面認識装置の一例の概略構成を示すブロック図である。
【図2】図1の表示部9における再マッピングされた認識結果の画像データの表示例を示す図である。
【図3】同じくスキュ補正された建設図面の入力画像データを認識結果の画像データと重ね合わせて表示した例を示す図である。
【図4】建設図面における外輪郭,外壁,内壁及び骨格の定義を説明するための図である。
【図5】図1に示した建設図面認識装置による建設図面認識処理のメインルーチンを示すフローチャートである。
【図6】図5におけるステップAの壁の位置認識処理のサブルーチンの詳細を示すフロー図である。
【図7】 図6におけるステップ7及び9の壁の抽出(認識)処理のサブルーチンのフロー図である。
【図8】同じく壁の位置を認識する2等分探索法を実行処理するフロー図である。
【図9】調査対象領域内の壁候補とそれによる領域分割例及び壁候補によって細分化された領域群のネストNo.とその解析処理順序の一例を示す説明図である。
【図10】建築図面(家屋の間取り図)の画像データとその全領域から作成した水平及び垂直方向の黒ドット数計測配列データの具体例を示す図である。
【図11】同じくその他の具体例を示す図である。
【図12】図10の(c)に示した垂直方向の黒ドット数計測配列データを拡大して示した図である。
【図13】図7のステップ26におけるピークの両側又は片側に壁の両面を絞り込む処理の説明図である。
【図14】図8のステップ43における領域幅の分割処理の説明図である。
【図15】図8のステップ44,45における対象領域の壁調査による判断の説明図である。
【図16】図8に示した2等分割探索処理による壁のサンプル(壁候補)の分析例を示す説明図である。
【図17】この発明による簡単な建設図面の壁認識例の説明図である。
【図18】図6のフローチャートに従った具体的な建設図面の認識処理手順の例を示す説明図である。
【図19】図18の続きの説明図である。
【図20】図19の続きの説明図である。
【図21】解析結果データのメモリへの格納内容の一例を示す説明図である。
【図22】図10に示した建築図面の調査対象領域を限定した画像データとそれに基づく水平及び垂直方向の黒ドット数計測配列データの例を示す図である。
【図23】図22より調査対象領域をさらに限定した画像データとそれに基づく水平及び垂直方向の黒ドット数計測配列データの例を示す図である。
【図24】図22より調査対象領域をさらに限定した他の部分の画像データとそれに基づく水平及び垂直方向の黒ドット数計測配列データの例を示す図である。
【図25】図1の表示部9におけるスキュー補正された建設図面の入力画像データの表示例を示す図である。
【図26】同じくその入力画像データの認識結果を表示した例を示す図である。
【図27】同じく図25に示した建設図面の入力画像データとその認識結果の画像データとを重ね合わせて表示した例を示す図である。
【図28】斜め壁を有する建設図面の入力画像データとその斜め壁を含む領域の各斜め壁のスキュー方向について作成した黒ドット数計測配列データを示す図である。
【図29】図5のステップHにおけるj領域とスキュー角度算出処理の説明図である。
【符号の説明】
1:全体制御部(CPU) 2:画像読取部
3:通信制御部 4:メモリ
5:自動スキュ補正部
6:ドット数計測配列データ作成部
7:輪郭・骨格認識部 8:再マッピング制御部
9:表示部 10:操作入力部
11:外部記憶装置 12:印刷装置
13:斜め壁認識部 14:バス[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a method for recognizing a wall that is a contour and a skeleton in a construction drawing widely used in the construction industry such as a building / equipment industry, in particular, an oblique wall inclined with respect to a horizontal or vertical direction and its function. The present invention relates to a construction drawing recognition device.
[0002]
[Prior art]
In recent years, using CAD systems etc., construction drawings including building drawings of houses and buildings or piping drawings of water pipes, gas pipes, power / communication cables, etc. can be easily created, and the data is stored. It is used for design changes and extension / renovation. However, the data of the construction drawing is not compatible with the created system, and cannot be used due to the passage of time or change of contractor. In addition, when renovating or remodeling a house, there are often only old construction drawings drawn on paper, and it was necessary to redraw everything including the part that does not change the floor plan of expansion and renovation.
[0003]
Therefore, it is also attempted to read construction drawings drawn on paper and recognize and store them as data that can be processed by a computer, but there is no special method or device for that purpose, and the construction drawings are read with an image scanner, The image data is input to a personal computer or the like, and line segment recognition or pattern recognition is performed using a general graphic recognition function. In addition, even if the automatic recognition function is somewhat incomplete, the basic diagram such as straight lines and arcs can be converted by raster-vector conversion even if the automatic recognition function is somewhat incomplete. Some are designed to be automatically recognized.
[0004]
However, such a conventional drawing recognition device requires a high level of operation knowledge, etc., and is limited to those who are used to personal computers and specialized operators, and for those involved in the industry who frequently use construction drawings, It was by no means easy to use.
[0005]
In addition, although basic diagrams such as straight lines and arcs can be automatically recognized, it is possible to individually recognize graphic symbols (such as walls and pillars) that are unique to construction drawings consisting of combinations of basic diagrams. There wasn't. For this reason, when recognizing the recognized drawing, it has to be performed for each line segment, which requires a lot of work.
[0006]
Furthermore, the construction drawings of houses and buildings used in the construction industry are not uniform in thickness even if each line segment on the drawing looks as a continuous line of the same size to the human eye. The trajectory also fluctuates. Even if it should be a continuous line, it may be broken in some places. These imperfections are caused not only at the time of drawing, but also from aging of paper and errors at the time of reading. Therefore, for example, if the limit of the thickness that can be recognized as a line segment is too thin, it is recognized that the line segment is cut even if it is slightly faint. A thick line segment may be recognized as a rectangle.
[0007]
This is of course the quality of the original drawing, but there are many drawings with low contrast (so the black and white borders are not clear) as in the so-called blue printing drawing using photosensitive paper. Since this point appears on the surface, it is difficult to perform automatic recognition with high accuracy with a conventional drawing recognition apparatus, and it takes a lot of time to correct the correction, so it has hardly been put to practical use.
[0008]
By the way, in the construction drawing of a house (architecture drawing), the wall that divides the floor plan plays a central role in the drawing, and understands the rough floor plan of the construction drawing by recognizing which part of the drawing is the wall. Can do. Therefore, recognizing the position of the wall and its length in the drawing is the most important matter in recognizing the construction drawing.
[0009]
Furthermore, most construction drawings are floor plans that are partitioned by contour and skeletal walls that extend horizontally and vertically. Therefore, paying attention to the wall, many walls and partitions have horizontal and vertical linear shapes. However, some walls and partitions may be linear (oblique walls) inclined in an oblique direction with respect to the horizontal or vertical direction, or may have a shape of drawing an arc.
Therefore, in order to recognize the construction drawing, it is necessary to reliably recognize all the walls including such an “oblique wall”.
[0010]
[Problems to be solved by the invention]
However, the conventional drawing recognition method has the following problems.
(1) In the contour tracking method, if the contour line of a wall or the like has many spots or irregularities, it is recognized as a broken straight line or as a straight line divided into two or three, and cannot be accurately recognized.
(2) In the projected feature extraction method obtained from the frequency distribution of black dots, when the wall or partition line is tilted with respect to the horizontal and vertical directions, feature extraction cannot be performed, and straight lines like walls cannot be recognized.
[0011]
The present invention has been made in view of the above points, and knows the layout of the construction drawing from the image data obtained by reading the construction drawing drawn on paper or the encoded image data obtained by encoding the run length. An object of the present invention is to provide a method for accurately recognizing a wall having a contour and a skeleton, which is important information above, in particular, an oblique wall, and a construction drawing recognition device having a function of automatically recognizing the oblique wall. To do.
[0012]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides the following construction drawing recognition method and construction drawing recognition apparatus.
According to the construction drawing recognition method of the present invention, an image data input step for inputting image image data obtained by reading an image of a construction drawing, and the number of black or white dots in the horizontal and vertical directions of the image image data input in the step are measured. A dot number measurement array data creation step for creating horizontal and vertical dot number measurement array data, and recognizing the outline and skeleton of the construction drawing based on the horizontal and vertical dot number measurement array data created in the step Based on the contour / skeleton recognition step and the contour and skeleton recognized in the step, the image area of the input image image data is limited, and the black or white dots in the image image data of the limited image area are entirely obtains a skew angle showing manner, the skew angle direction obtained, images of the image area described above only Create a dot counting sequence data to measure the black or the number of white dots over data, it recognizes oblique walls oblique walls forming a part of the contour and skeletal construction drawings based on the created dot counting sequence data A recognition step, and in the diagonal wall recognition step, the intersection or end point of the horizontal and vertical walls extracted based on the outline and skeleton of the construction drawing recognized in the contour / skeleton recognition step is used as a starting point. The skew angle is obtained based on the black or white dots of the image data.
[0014]
Further, the construction drawing recognition apparatus according to the present invention includes an image data input means for inputting image image data obtained by reading an image of the drawing, and the number of black or white dots in the horizontal direction or the vertical direction of the image image data inputted by the means. Dot number measurement array data creating means for measuring and creating horizontal and vertical dot number measurement array data, and the outline and skeleton of the construction drawing based on the horizontal and vertical dot number measurement array data created by the means Contour / skeleton recognition means.
[0015]
Further, the image area of the input image image data is limited based on the outline and skeleton of the construction drawing recognized by the contour / skeleton recognition means, and the black or white of the image image data of the limited image area is limited. Obtain the skew angle indicated by the dots as a whole, measure the number of black or white dots in the image image data of the limited image area in the direction of the skew angle, create dot number measurement array data, and create the number of dots The construction drawing has an oblique wall recognition means for recognizing an oblique wall forming a part of the outline and skeleton of the construction drawing based on the measured arrangement data, and the oblique wall recognition means is recognized by the outline / skeleton recognition means. Starting from the intersection or end point of the horizontal and vertical walls extracted based on the outline and skeleton of the image, the above-mentioned skies are based on the black or white dots of the image data. Characterized in that it has to seek over angle.
The image data input means may be an image reading means for reading an image of a construction drawing and inputting the image image data.
[0016]
Alternatively, image data input means for inputting encoded image data obtained by encoding the run length of the image image data obtained by reading the image of the construction drawing is provided as the image data input means, and the dot number measurement array data creation means is the input The number of black or white dots in the horizontal direction or the vertical direction of the original image image data may be measured from the encoded image data thus generated to create the dot number measurement array data in the horizontal or vertical direction.
[0017]
These construction drawing recognizing devices may be provided with display means for displaying the recognition result by the oblique wall recognizing means.
The display means preferably has means for displaying the image data input by the image data input means simultaneously with the recognition result.
Further, the means for simultaneously displaying the image data may be a means for displaying the image data and the recognition result in an overlapping manner.
[0018]
Or you may provide the display selection means to change the display content so that the image image data input by the said image data input means and the said recognition result may be displayed selectively.
Further, it is desirable to provide a recognition result confirmation means for confirming the recognition result by an operator and confirming the recognition result by an external instruction.
[0019]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings.
FIG. 1 is a block diagram showing a schematic configuration of an example of a construction drawing recognition apparatus for carrying out a construction drawing recognition method according to the present invention, in which a hardware configuration and a function of software processing by a microcomputer are mixedly shown.
[0020]
This apparatus includes an overall control unit 1, an image reading unit 2, a communication control unit 3, a memory 4, an automatic skew correction unit 5, a dot number measurement array data creation unit 6, a contour / skeleton recognition unit 7, a remapping control unit 8, The display unit 9, the operation input unit 10, the external storage device 11, the printing device 12, the slanted wall recognition unit 13, and the bus 14 that connects these components.
Note that an interface unit necessary between these units (or devices) and the bus 14 is not shown.
[0021]
The overall control unit 1 is a microcomputer (consisting of a CPU, ROM, RAM, etc., but is abbreviated as “CPU” as a representative) that controls the operation and functions of the construction drawing recognition apparatus as a whole. Automatic skew correction Each function of the unit 5 and the dot number measurement array data creation unit 6, the contour / skeleton recognition unit 7, the remapping control unit 8, and the oblique wall recognition unit 13 according to the present invention can also be realized by software processing of the CPU.
[0022]
The image reading unit 2 is an image data input unit that scans a construction drawing such as a set architectural drawing, reads the image, and inputs image image data. The scanning optical system, an image sensor such as a CCD, and a driving circuit thereof It is a known image scanner comprising Also included is a circuit that binarizes the read image data at a predetermined resolution to produce white dot and black dot image data.
[0023]
The communication control unit 3 is an image data receiving unit that receives and inputs encoded image data in which image image data or its run length is encoded by communication from the outside instead of capturing image data from the image reading unit 2. At the same time, the outline and skeleton data of the construction drawing recognized by this device can be transmitted to the external device. Specifically, it includes a FAX modem and personal computer communication control means.
[0024]
The memory 4 includes image data read by the image reading unit 2, image image data or encoded image data received by the communication control unit 3, image data skew-corrected by the automatic skew correction unit 5, and dot number measurement array Dot number measurement array data created by the data creation unit 6, contour and skeleton recognition results recognized by the contour / skeleton recognition unit 7, diagonal wall recognition results recognized by the diagonal wall recognition unit 13, and remapping control This is a large-capacity RAM or a hard disk memory for storing image data and the like remapped by the unit 8.
[0025]
The automatic skew correction unit 5 is for adjusting the angle of the image data stored in the memory 4 to correct the horizontal and vertical line segment directions so as to coincide with the horizontal and vertical reference directions of the apparatus. The automatic skew correction technique can be used.
The image data corrected by the automatic skew correction unit 5 is stored in the memory 4 again.
[0026]
The dot number measurement array data creation unit 6 performs the automatic skew correction on the image image data or the encoded image data stored in the memory 4 and the image data remapped by the remapping control unit 8 described later. The image data is limited to two directions, the horizontal and vertical directions, and the number of black or white dots is measured (counted) in units of dot widths respectively. As a result, the horizontal and vertical dot number measurement array data (histogram) is obtained. This is dot number measurement array data creation means for creating and storing in the memory 4.
[0027]
If the read construction drawing is a positive drawing (a drawing whose brightness is lower than that of the ground), the number of black dots is measured, and if it is a negative drawing (a drawing whose brightness is higher than that of the ground), Measure the number of white dots.
[0028]
The outline / skeleton recognition unit 7 recognizes the outline and skeleton of the construction drawing based on the horizontal and vertical dot number measurement arrangement data created by the dot number measurement arrangement data creation unit 6, and in particular, the position and length of the wall This is a contour / skeleton recognition means for extracting wall data such as thickness, thickness, type, etc. The details will be described later.
[0029]
In the reference dot number measurement array data, if wall recognition (extraction) is difficult or uncertain, a request for resetting the horizontal and vertical dot number measurement array data creation range in the drawing is sent to the overall control unit 1. The transmission range and the creation range are changed, and the dot number measurement array data creation unit 6 is made to create dot number measurement array data again.
[0030]
The remapping control unit 8 limits the range of the construction drawing by the part recognized as the wall by the contour / skeleton recognition unit 7, re-maps the part in consideration of other recognition information, Image data for causing the dot number measurement array data creation unit 6 to create the dot number measurement array data again for each limited range is created. In this case, noise of the document or reading noise in the image reading unit 2 is also generated. Create the removed image data. This data is also stored in the memory 4.
[0031]
The oblique wall recognizing unit 13 starts from the intersection or end point of the horizontal and vertical walls extracted by the contour / skeleton recognizing unit 7 and starts from the black or white portion of the image data stored in the memory 4 (straight line). The skew angle indicated by the entire area and the isolated island) is determined, the number of black or white dots is measured in the determined direction, and the dot number measurement array data in the oblique direction is created, and the created dots in each direction Processing for recognizing the outline and skeleton (diagonal wall) of the construction drawing based on the numerical measurement array data is performed. The image data whose contour is expanded by this recognition is stored in the memory 4 again.
That is, the slant wall recognition unit 13 is a means for recognizing a contour and a skeleton forming a straight line shape in a slant direction of a portion made of black or white dots of image image data as a “slank wall”, details of which will be described later. To do.
[0032]
The display unit 9 is input from the image reading unit 2 or the communication control unit 3, and has been corrected by the automatic skew correction unit 5. The image data of the construction drawing and the horizontal and vertical directions created by the dot number measurement array data creation unit 6 are displayed. Black or white dot number measurement array data, wall data recognized by the contour / skeleton recognition unit 7, oblique wall data recognized by the oblique wall recognition unit 13, image data remapped by the remapping control unit 8 For example, a CRT or a liquid crystal display.
[0033]
2 and 3 show examples of the display state of the screen 9a of the display unit 9. FIG. 2 shows the outline and skeleton of the construction drawing recognized by the contour / skeleton recognition unit 7 and the oblique wall recognition unit 13 ( This example is a display example of image data (recognition result) obtained by remapping the data of the wall W) including the oblique wall W ′ by the remapping control unit 8. In this display example, the double solid line indicates both surfaces of the wall, and the thin line indicates the core line of the wall and its extension line.
[0034]
FIG. 3 shows an example in which the image data of the construction drawing (input image image data) skew-corrected by the automatic skew correction unit 5 and the image data of the wall, which is the remapped recognition result, are superimposed and displayed at the same time. Show. In this case, the image data of the construction drawing after skew correction is displayed in halftone so that both can be easily identified (shown in FIG. 3 by a stippling for convenience of illustration), and the recognition result of the wall Display image data with solid lines.
[0035]
Further, when the display unit 9 is a color display device, the distinguishability can be improved by changing and displaying the colors of both images. For example, the skew-corrected input image image data is light blue, and the recognition result image data is displayed in orange or green, so that the operator can easily identify the recognition result portion.
[0036]
Alternatively, the screen 9a of the display unit 9 can be divided and the skew-corrected input image image data and the recognition result image data can be displayed in comparison with the divided screens.
Alternatively, it is also possible to selectively display the input image image data subjected to skew correction and the image data of the recognition result remapped on the same screen.
In that case, display selection means (such as a key) may be provided in the operation input unit 10 described later.
[0037]
Further, the display unit 9 also displays a screen for the operator to confirm the recognition result. That is, the remapped image data of the recognition result is displayed, and a display such as “Are you sure about this recognition result? (YES / NO)” is performed. As a result, the operator can check whether the wall is correctly recognized.
[0038]
The operation input unit 10 is for inputting various operation instructions, function selection commands, editing data, and the like, and is a keyboard, a mouse, a touch panel, or the like.
The operation input unit 10 also has a function as a display selection unit, and can change the display state of the display unit 9 to a display state desired by the operator. For example, the input image data of the construction drawing whose skew has been corrected and the image data of the recognition result that has been remapped can be displayed in a superimposed manner by the key operation, or only one of them can be selected and displayed.
[0039]
Further, the operation input unit 10 has an input means such as a key for inputting “YES” or “NO” information in response to the above display of “Are you sure about this recognition result? (YES / NO)”. . If “YES” is selected, the recognition process is terminated. If “NO” is selected, the process proceeds to a re-recognition process or a correction process.
Thereby, the operator can confirm the content of the recognition result, and can confirm it.
[0040]
The external storage device 11 includes input image data, black dot number measurement array data created by the dot number measurement array data creation unit 6, wall data recognized by the contour / skeleton recognition unit 7 and the oblique wall recognition unit 13, This is a storage device that stores image data or the like of the recognition result remapped by the remapping control unit 8 in a storage medium that can be taken out such as a floppy disk (FD) or a magneto-optical disk (OMD).
The printing device 12 is a printer or plotter that prints or draws the various data described above on paper.
[0041]
Here, the definitions of “contour”, “skeleton”, “outer wall”, and “inner wall” in construction drawings (mainly architectural drawings) will be described with reference to Table 1, Table 2, and FIG.
[0042]
[Table 1]
Figure 0003678523
[0043]
[Table 2]
Figure 0003678523
[0044]
“Outline” means “outer contour”, and only the portion facing the outside of the outer peripheral wall as indicated by a circle in Table 1 (the outer line of the double line shown in FIG. 4A). The case 1 means a portion of (2) and the cases 2 and 3 mean the entire wall in contact with the outside (the portion indicated by a thick line in FIG. 4B).
[0045]
The “skeleton” means the case of cases 1 and 2 which means all the walls (both shown by the bold lines in FIGS. 4B and 4C) and the wall excluding the outer contour ((c) of FIG. ) Only case indicated by a bold line). In these definitions, unless otherwise specified, it is treated as the normal meaning of case 1.
[0046]
“Outer wall” means only the portion facing the outside of the outer peripheral wall as indicated by a circle in Table 2 (the portion indicated by the outer line of the double line shown in FIG. 4A). And the case 4 which means the entire wall in contact with the outside (the portion indicated by the bold line in FIG. 4B).
[0047]
The “inner wall” is a wall excluding the outer wall (wall = outer wall + inner wall) for both cases 4 and 5, as indicated by a circle in Table 2, but in the case of case 4, the double wall shown in FIG. The part inside the line and the part indicated by a thick line in FIG. 4C, and in the case of the case 5, the part indicated by the thick line in FIG. 4C. Even in these definitions, unless otherwise specified, it is treated as the normal meaning of case 5.
[0048]
Next, the procedure for recognizing construction drawings (mainly architectural drawings of houses, buildings, etc.) by the construction drawing recognizing apparatus shown in FIG. 1 will be described with reference to the flow charts of FIGS. 5 to 8 and FIGS. In FIG. 6 to FIG. 8, each step is indicated by “S”. In this embodiment, the construction drawing to be recognized is a positive drawing.
[0049]
FIG. 5 is a flowchart showing the main routine of the construction drawing recognition process. When the processing of FIG. 5 is started, the construction drawing set in the image reading unit 2 of FIG. 1 is read, the image image data is input, and the skew is automatically corrected by the automatic skew correction unit 5.
[0050]
In the subroutine of step A, the dot number measurement array data creation unit 6 and the contour / skeleton recognition unit 7 perform recognition processing of the horizontal and vertical wall positions on the input image data. This process will be described in detail later.
In addition, data obtained by encoding image image data may be input from the communication control unit 3.
[0051]
Thereafter, the diagonal wall recognition unit 13 executes recognition processing of the diagonal walls from Step B to L.
First, in the process of step B, the end points and intersections of the walls recognized in step A are extracted, and the number n of them and the position coordinates of each point are acquired. The recognized end points and intersections of the walls are used in the following steps as starting points for the diagonal wall recognition. Since the extraction of the end points and intersections of the walls can be realized by the conventional technique, the description is omitted.
[0052]
In step C, in order to sequentially loop all starting points for diagonal wall recognition acquired in step B, the count value i of the number counter is initially set (i ← 1).
In step D, it is determined whether the count value i of the number counter exceeds the number n of starting points for diagonal wall recognition (i> n). If so, the analysis of the drawing is terminated and the process proceeds to step M. If not exceeding, the diagonal wall recognition process of step E-step L is performed about the starting point for the i-th diagonal wall recognition.
[0053]
In step E, the count value j of the number counter is initially set (j ← 1) in order to sequentially loop the areas in the four directions of the image at the starting point for the i-th oblique wall recognition. .
Then, in step F, it is determined whether or not the count value j of the number counter has exceeded 4 (search of all areas in four directions is finished: j> 4). If so, the analysis from the starting point for the i-th oblique wall recognition (search for the oblique wall) is terminated, and the process proceeds to Step G. If not exceeding, the diagonal wall recognition process of step H-step L is performed about the area | region of the jth direction from the starting point for the said i-th diagonal wall recognition.
[0054]
In step G, in order to continue the recognition process from the next starting point for diagonal wall recognition, the starting point number counter i for diagonal wall recognition is incremented by 1, and then the process returns to step D to Repeat the process.
[0055]
In Step H, a skew angle focusing on black dots is calculated from the starting point for recognizing the i-th oblique wall, assuming that there is a wall in the j region direction. In the j direction (four directions), for example, the first to fourth quadrants of the XY plane in which the starting point is the origin, the horizontal direction is the X axis, and the vertical direction is the Y axis are appropriately displayed in the region 1 (j = 1) to region 4 (j = 4).
[0056]
An example is shown in FIG. In this example, VW in the figure is a vertical wall and HW is a horizontal wall. The origin O is the starting point, and the SW in the first region is the target diagonal wall. The angle θ is the skew angle.
In this process, for example, in FIG. 29, it is checked whether or not there is a black dot in the vicinity of the origin O in the region 1 (j = 1) from the origin O that is the starting point. The determination is made until the angle θ can be determined.
[0057]
In step I, an oblique straight wall is searched in the obtained skew angle direction. This is because black dot number measurement array data is created in the direction of the skew angle obtained in step H, and based on the data, wall position recognition processing in step A (described later in detail with reference to FIGS. 6 to 8). ).
[0058]
Thereafter, in step J, it is determined whether or not a straight wall in an oblique direction has been recognized. If an oblique straight wall can be recognized, the process proceeds to step K. In step K, recognition result information such as wall position coordinates is stored, and then the process proceeds to step L. On the other hand, if an oblique straight wall cannot be recognized, step K is skipped and the process proceeds directly to step L.
[0059]
In step L, in order to search for the next area for diagonal wall recognition, the area direction number counter j from the starting point for the i-th diagonal wall recognition is incremented by 1, and then the process returns to step F and described above. This process is repeated three more times (until j = 4).
[0060]
If j> 4 at step F, i is incremented by 1 at step G and the process returns at step D.
The processes from step D to step L are repeated as many times as the number n of the extracted starting points, the recognized result is output in step M, and the wall recognition process is terminated. In the processing by Step M, the wall position (coordinate values of the start point, end point, etc.) of the image data is stored in the memory 4 or the external storage device 11 as the wall recognition result from the construction drawing, or displayed on the display unit 9 or the like. do.
[0061]
FIG. 25 is a display example of image data obtained by re-mapping input image data (image image) of a construction drawing used for processing for recognizing a wall core line and extracting a rectangular closed loop from the result.
[0062]
FIG. 26 is a diagram illustrating an example in which a rectangular closed loop of the recognition result is displayed. FIG. 27 shows an example in which the input image data of the construction drawing whose skew has been corrected is superimposed on the rectangular closed loop image data of the recognition result.
FIG. 28 shows a specific example of image data of an architectural drawing (a floor plan of a house) that is a construction drawing and black dot number measurement array data in an oblique direction created from a part of the area focused on an oblique wall in the image data. Is.
[0063]
In this way, with respect to drawings that are broken or connected in some places due to blurring or unevenness, first, wall recognition in the horizontal and vertical directions is performed, and then the end points and intersections are used as starting points, and the diagonal direction is determined. Since a straight wall can also be recognized, the wall recognition process can be performed more accurately.
[0064]
Next, the wall recognition process in step A of FIG. 5 will be described. FIG. 6 is a flowchart showing the contents of a subroutine of processing for recognizing the wall position.
First, in step 3, the entire image data that has been subjected to the automatic skew correction is set as an investigation target. In step 4, the nesting variable is 0 (initial value: meaning that the entire image is targeted). “Nested variable” represents a narrowing-down stage when the analysis range of the construction drawing is narrowed down from the top down. The larger the value of the nested variable, the deeper the analysis (the more advanced the details).
[0065]
In step 5, processing for limiting the region to be investigated for the wall position is performed. Specifically, an instruction for the investigation area is shown immediately before this processing, and only preparation for the processing of the subsequent steps 6 to 9 (commonization of the interface) is performed here. The shape of each investigation target area is a rectangular diagram. Since the nesting variable is 0 at first, the entire drawing is examined.
[0066]
In step 6, horizontal black dot number measurement array data is created. This counts (measures) the number of black dots in the horizontal direction for each dot width in the vertical direction of the image data, and holds each count data.
Next, in step 7, wall extraction (recognition) processing is performed based on the horizontal black dot number measurement array data created in step 6. The processing procedure will be described later.
[0067]
In step 8, as in step 6, black dot count measurement array data in the vertical direction is created. That is, the number of black dots in the vertical direction is counted (measured) for each dot width in the horizontal direction of the image data, and each count data is held. In step 9, wall extraction (recognition) processing is performed based on the black dot count measurement array data in the vertical direction.
[0068]
In step 10, it is determined whether there is a wall candidate for dividing the region. If there is at least one wall candidate that divides the region in the horizontal or vertical direction, the process proceeds to step 11, and if there is no such wall candidate, the process proceeds to step 13.
For example, it is determined whether there is a wall candidate Wd that divides the region in the investigation target region Sa as shown in FIG.
[0069]
In step 11, the nested variable is incremented by 1 and reset. This indicates that a wall is recognized from the current analysis region, and the analysis range is limited to a small region within the current region newly delimited using the wall.
[0070]
In step 12, the area to be investigated is subdivided. Specifically, the core line (center line) of the wall candidate recognized in step 7 and step 9, for example, as shown in FIG. 9A, the investigation target region Sa is represented by the core line indicated by the thin lines of the wall candidates W and Wd. The area is divided into two areas Sa1 and Sa2. Further, the investigation target is positioned in the first subdivided area (for example, the upper left area).
[0071]
The order of analysis in the newly subdivided area group does not require a special order. For example, it may be performed in the order of small x and y coordinate values of the area start position. It is done. FIG. 9B shows an example of the nest No. of each region subdivided by the wall candidate and the analysis processing order thereof, and the solid line indicates the core line (center line) of the wall candidate, and (1) and (2) , {Circle over (3)} indicate a nest No., and small numbers 1 to 8 indicate the processing order.
[0072]
Then, it returns to step 5 and repeats the above-mentioned process.
In step 10, if there is no wall candidate to divide the area, the process proceeds to step 13 to check whether there is any remaining homogeneous nest area (area of the same nest No. in FIG. 9B). to decide. If there is a remainder, the investigation target is advanced to the next area of the homogeneous nest in step 15 and the process returns to step 5.
[0073]
If there is no remaining homogeneous nest area, the process proceeds to step 14 to determine whether the nested variable is 0 or not. If the nesting variable is not 0, the nesting variable is decremented by -1 in step 16 and the process returns to the processing of the nesting area one level higher. In step 13, it is determined whether there is a remaining nesting area in that stage. If there is, the investigation object is advanced to the next nested area in step 15 and the process returns to step 5.
[0074]
If the nesting variable is 0 in step 14, the process proceeds to step 17 to determine the position and size of each wall based on the recognition data of the wall candidate for each area obtained in steps 7 and 9, and the wall The recognition data is stored in the memory 4. The storage method will be described later. Then, after the above processing, the subroutine ends.
[0075]
Next, the procedure of the wall extraction (recognition) process in steps 7 and 9 in FIG. 6 will be described with reference to FIG. 7. Prior to that, the image data of the architectural drawing (the floor plan of the house) that is the construction drawing and Specific examples of the horizontal and vertical black dot number measurement array data created from the entire area are shown in FIGS. In these drawings, (a) is architectural drawing image data, (b) is horizontal black dot number measurement array data, and (c) is vertical black dot number measurement array data. Further, the vertical black dot number measurement array data shown in FIG. 10C is enlarged and shown in FIG.
[0076]
In the architectural drawing of FIG. 10, the symbol of the wall is represented by both sides of the wall and the core wire, and in the architectural drawing of FIG. 11, the symbol of the wall is represented by a fill (black) within the thickness of the wall. .
In this black dot count measurement array data, the width of the thinnest black line is one dot width, and the length of each black line is horizontal or vertical for each dot width of the architectural drawing image data shown in (a). This corresponds to the count value of the number of black dots in the direction.
[0077]
As is clear from these figures, most of the line segments (90% or more) constituting the architectural drawing are drawn in the horizontal direction or the vertical direction, and the density of black dots is particularly high in the wall portion. . For this reason, in the black dot count measurement array data in the horizontal direction and the vertical direction, a peak appears at the position where the wall exists.
[0078]
When the processing of the flow of FIG. 7 is started, first, in step 21, the direction crossing the specified direction (vertical direction is specified if black dot number measurement array data creation in the horizontal direction is specified, and horizontal direction is specified if the vertical direction is specified. In the direction), it is confirmed how many times the wall recognition processing loop is possible at predetermined intervals corresponding to the standard unit length of the construction drawing.
Here, in the case of a general house, this unit length is “half a half” or “1 meter (m)” which is the minimum wall distance, and here, it is half a half (91 cm).
[0079]
For the horizontal black dot count measurement array data, the width L is set to a size slightly longer than the vertical image width, and for the vertical black dot count measurement array data, it is slightly larger than the horizontal image width. A long dimension is automatically set as a width size L.
In addition, the half size is set to h, and this value is determined by inputting scale data and half length of the drawing in advance or by automatic calculation by calculation.
The width size L and the half size are calculated from h to L / h, and the numerical value rounded up after the decimal point is set as the number n of executions of the large loop of the wall recognition processing. A range indicated by h in FIG. 12 is a processing range in one large loop.
[0080]
Next, in step 22, the count value i of the large loop number counter is initialized (i ← 1).
In step 23, it is determined whether or not the count value i of the number counter exceeds the number n of possible large loop executions (i> n). If so, the analysis of the area is terminated. If not, in step 24, it is positioned at the highest peak (indicated by P in FIG. 12) as the first analysis processing within the i-th half, and that point is designated xp. In this way, by performing the analysis process every half, the possibility that the peak value therein is a part of the wall is high.
[0081]
Next, in step 25, it is determined whether or not the height of the peak (maximum value), which is the first condition as the object of the wall, is equal to or greater than half (h). As a result, when the height of the peak is less than half, it is determined that the wall is unknown, and the process proceeds to step 34 in order to proceed to the next half-half ahead analysis. When the peak height is half or more, the process proceeds to the next analysis step 26. In this step 26, both the left and right sides (for example, 2 W width) are examined from the position of the highest peak, and the wall thickness range (positions on both sides: W 1 and W 2 and thickness We = | W 1 −W 2 |) Narrow down. Here, W means the wall thickness, and is used with the same value as Wmax, for example.
[0082]
As a narrowing-down method, the peak positions at both ends or one side of the maximum peak position having a value of (maximum peak value−min) * rate + min or more are used, and the positions W 1 , W 2 or the maximum peak position xp on both sides of the wall are There is a method of narrowing down as the position W 2 of the other surface when the position W 1 is one surface.
[0083]
FIG. 13 is an explanatory diagram of this narrowing-down process. FIG. 13A shows an example in which the positions W 1 and W 2 on both sides of the wall exist on both sides of the maximum peak position xp. In this case, the highest peak position xp is estimated as a candidate for the wall core line position.
[0084]
FIG. 13B shows an example in which the highest peak position xp is the position W 1 on one side of the wall and the position W 2 on the other side exists on one side. In this case, it can be estimated that the longer peak position is a candidate for the outer wall position of the outer contour indicated by a double line in FIG. 2, and the shorter peak adjacent thereto is a candidate for the inner wall position.
[0085]
Here, rate is set to be small in the first half of the analysis (when the value of the nested variable is small) and large in the second half (when the value of the nested variable is large) (for example, initially, rate = 0.70). As shown in FIG. 13 (c), min is the minimum value of the black dot number measurement data within the width of about 4W widened to the left and right sides 2W of the position xp of the maximum peak P of interest.
[0086]
In this manner, the validity of the wall is confirmed in steps 27 and 28 based on the result narrowed down in step 26 of FIG.
First, in step 27, it is determined whether or not the wall thickness We exceeds the maximum value Wmax (for example, 30 cm). If it exceeds, the wall is unknown and the process proceeds to the next halfway analysis. Proceed to If not, the process proceeds to step 28 to determine whether or not the wall thickness We is less than the minimum value Wmin (for example, 2.5 cm).
[0087]
As a result, if the wall thickness We is less than the minimum value Wmin, the process proceeds to step 30; otherwise, the process proceeds to step 29. In step 30, the information is obtained on the assumption that peaks other than walls (for example, tatami mats, windows, sliding doors, etc.) are recognized.
In step 29, whether or not a wall condition is satisfied is determined from a candidate region of the wall by a bisection search method described later, and what can be recognized as a wall is determined on both sides of the wall in step 31. Information such as the positions W 1 and W 2 and the thickness We is saved (stored), and the process proceeds to Step 32.
[0088]
If the condition as a wall is not satisfied in step 29, the process proceeds to step 32. In step 32, to determine whether the area inside both sides the position of the wall (coordinates) W 1 and W 2 are both subjected to the current processing proceeds to step 33 if the inside. Otherwise, go to step 34.
[0089]
In step 33, the current processing area is subdivided, and W 1 , W 2 , and We are saved (stored) as boundary data indicating new subdivision areas. In addition, (W 1 + W 2 ) / 2 is the core line position of the wall. In step 34, the count value i of the large loop number counter is incremented by 1 in order to perform the next halfway ahead process, and then the process returns to step 23 to repeat the above-described process.
[0090]
In this way, analysis processing is performed every half from one end (first element) of the target black dot number measurement array data, and when the analysis is completed up to the opposite end, the analysis of the current range is ended. The horizontal direction and the vertical direction are analyzed separately for the black dot count measurement array data, and the next analysis range is limited to a range that can be recognized as a wall in the current analysis.
Therefore, the round robin cases are divided by combining the results of analyzing the horizontal and vertical black dot count measurement array data.
[0091]
In this embodiment, the core positions of the walls are considered to be arranged such that the interval between the adjacent walls is an integral multiple of a half-half unit.
The range up to which a characteristic peak can be found is effectively used as analysis data. In other words, if no feature corresponding to the wall within a certain range to be analyzed is found in both the horizontal direction and the vertical direction, the analysis is terminated.
The analysis range for one time is the entire drawing at first, and then the method is limited to the range delimited by the walls that have been discovered, making it easy to find the peaks of the walls and to analyze the details in detail. To be.
[0092]
Next, the bisection search method for determining whether “the condition as a wall is satisfied” in step 29 of FIG. 7 will be described with reference to the flowchart of FIG.
When the processing of the flow shown in FIG. 8 is started, first, in step 41, an initial setting of the bisection search method is performed.
That is, the number n of area dividing elements for wall analysis is set to 1, k indicating the smallest No. of the array elements of the dividing elements whose wall or non-wall is undetermined is set to 0, and As the divided array elements, the input start and end image addresses are assigned to S [0] and E [0], respectively, to be initialized.
[0093]
Thereafter, the process proceeds to step 42. If the start address S [k] and the end address E [k] of the investigation area are equal, the process proceeds to step 53, and if not equal, the process proceeds to step 43. In step 43, the target region of the image image data is divided to divide the original region into two equal parts, excluding the decimal error.
[0094]
That is, the start and end image addresses S1 and E1 of the first half area to be divided are S1 = S [k], E1 = (1/2) (S [k] + E [k]), and the start and end of the second half area are set. The end image addresses S2 and E2 are set as S2 = (1/2) (S [k] + E [k]) + 1, E2 = E [k].
[0095]
Thereby, as shown in FIG. 14, for example, in the image image data of the construction drawing, the original region width of the line where the wall candidate exists (indicated by the alternate long and short dash line) is initially divided into two equal parts at the position of 1. Thereafter, until the presence or absence of the wall can be discriminated, step 44 and step 44 are performed in the subdivided region by repeating the second equal division such as the second time at the position 2 shown in FIG. 14, the third time at the position 3, and the fourth time at the position 4. Do 45 wall surveys.
In steps 44 and 45, it is checked whether or not the regions P1 and P2 divided into two equal parts are filled with walls, and the process proceeds to step 46.
[0096]
Here, as a result of analyzing the black dot count measurement array data in the specified area (from the start address to the end address), the height of the black dot peak (maintaining the spread of the wall thickness) is the height of the specified area. Compared with the width (length), the following determinations (1) to (3) are made.
[0097]
(1): When 5% or less, v = 0: Judged as non-wall portion (2): When 95% or more, v = 1: Judged as wall portion (3): Otherwise, v = 2: Neither of them can be determined. If this is shown in the figure, it will be indicated by (1), (2) and (3) in FIG.
[0098]
In step 46, if it is not possible to determine whether or not a wall exists in the first half region P1 divided in step 43 (v = 2), the process proceeds to step 47. Otherwise, the process proceeds to step 49. In step 47, the storage array elements S [k], E [k], v [k] in the area range before dividing in step 43 are used as the latter half area data (start and end image addresses divided in step 43). Replace with S2, E2 and determination result v2).
[0099]
In step 48, the first half area data (start and end image addresses S1, E1 and determination result v1) divided in step 43 are used as new storage array elements S [n], E [n], v [n]. Evacuate and proceed to step 51.
In step 49, the storage array elements S [k], E [k], v [k] in the area range before dividing in step 43 are used as the first half area data (start and end image addresses divided in step 43). Replace with S1, E1 and determination result v1).
[0100]
In step 50, the second half area data (start and end image addresses S2, E2 and determination result v2) divided in step 43 are used as new storage array elements S [n], E [n], v [n]. Evacuate and proceed to step 51.
In step 51, the variable n indicating the new storage array element No. is incremented by 1 so as to indicate the new storage array element of the area address, and then the process proceeds to step 52.
[0101]
In step 52, if the classification code v in the k element indicating the smallest No. of the divided elements whose wall or non-wall is undetermined is a content that does not know whether a wall exists (v = 2) Returns to step 42 and repeats the subdivision process. Otherwise, go to step 53.
In step 53, assuming that one content that does not know whether a wall exists is solved, the index k is incremented by 1, and then the process proceeds to step 54.
[0102]
In step 54, whether or not the number n of area dividing elements for wall analysis is equal to k indicating the smallest No. of the array elements of the dividing elements for which the wall portion or the non-wall portion is undetermined. If it is determined that they are equal, it is determined that the dividing process for wall recognition has been completed, and the process proceeds to step 55. If not equal, return to step 52.
[0103]
In step 55, sorting is performed in the order of start addresses (ascending order) so that the divided area address data (array) are arranged in ascending order, and the process proceeds to step 56. That is, the data of S [0] to S [n-1], E [0] to E [n-1], v [0] to v [n-1] is sorted in ascending order using S [] as a key. To do.
[0104]
In step 56, when the wall portion and the non-wall portion are continuous, the respective reduction processes (represented by one range) are performed, and the process ends. That is, when the continuous v [] values are 0 or 1, the S [], E [] data are compressed.
At this time, when an array element having contents (v = 2) that do not know whether a wall exists is included, if the elements before and after the element indicate a wall, change to wall data, If it indicates a non-wall, it is changed to non-wall data and processed.
[0105]
FIG. 16 shows an analysis example of the wall position in the image data by the above-described bisection search process. In FIG. 16A, a wall image (shaded portion) W and its investigation target area are indicated by broken lines, and this investigation area is along the previously recognized position of the wall candidate. Is set. S [0] = 0 is the first start address of the investigation area, and E [0] = 15 is the first end address. Numbers in the middle of 4, 5, 7, etc. are start or end addresses (both are image addresses) of the target area after division.
[0106]
FIG. 16B shows the determination result v regarding the start address S, the end address E, and the presence / absence of the wall in each investigation stage of the variable n = 1 to 10 and its determination status, sorting status, and degeneration processing. The results are shown together with the value of k. Finally, it is recognized that a wall exists at the image addresses 5 to 12.
[0107]
Next, a wall recognition example of a simple construction drawing will be described with reference to FIG.
FIG. 17 shows a nested variable (nest) and an actual wall state recognized as a region division state.
First, with the nesting variable = 0, the entire construction drawing is extracted as a wall position investigation target. As a result, it is assumed that the outline of the house part of the construction drawing and the position of the horizontal and vertical wall candidates can be recognized as indicated by the solid line in FIG. However, of the recognized wall candidates, the actual wall is only the part shown in FIG.
[0108]
Therefore, the nest variable = 1 is set, and the wall is extracted by limiting the investigation target area for each rectangular area divided by the core lines of the recognized wall candidates shown in FIG. As a result, a new wall candidate indicated by a thick line is recognized in the four investigation target areas indicated by (1), (2), (3), and (4) in (B), and the previously recognized wall candidates Of these, it is confirmed that the actual wall was only the part shown in (a), and the state of the wall shown in (b) is recognized.
[0109]
Further, with the nesting variable = 2, the four regions {circle around (1)} to {circle around (4)} in which the new wall candidates are recognized in (B) are divided by the newly recognized walls, respectively, and the investigation target region is further divided. Limited wall extraction. As a result, new wall candidates indicated by bold lines are recognized in the two investigation target areas indicated by (5) and (6) in (C), and the wall state shown in (c) is recognized.
[0110]
After that, the nested variable = 3 is set, and the two regions (5) and (6) in which the new wall candidate is recognized in (C) are divided by the newly recognized walls, respectively, and the investigation target region is further divided. Limited wall extraction. As a result, if a new wall candidate could not be extracted in any of the divided areas, the wall position investigation is ended thereby, and it is determined that the wall position shown in (c) is the final wall recognition result. The data is stored in the memory.
[0111]
In this manner, the wall is extracted by subdividing the investigation target area until no new wall candidate is extracted in any of the divided investigation target areas. As a result, even a small wall can be reliably recognized, and a portion where a wall actually exists and a portion where a wall actually does not exist can be accurately determined.
[0112]
Here, an example of a concrete construction drawing recognition process procedure according to the flowchart of FIG. 6 described above will be described with reference to FIGS. 18 to 20 are a series of drawings, but are divided into three drawings for convenience of illustration. S3 to S17 in these drawings correspond to the steps S3 to S17 in FIG. In addition, an area division diagram and a real wall state at each stage are also illustrated.
[0113]
In the following description, step is abbreviated as “S”. In S3 of FIG. 18, the entire drawing is set as the object of investigation, and the nested variable is set to 0 in S4. Although the investigation target is limited in S5, since the nested variable is 0, the entire drawing is also the investigation target. In S6 to S7, a horizontal black dot number measurement array data is created and a wall is extracted, but a wall other than the outline cannot be found, and in S8 to S9, a vertical black dot number measurement array data is created and a wall is created. Is extracted and two walls other than the contour are found. Therefore, the answer is YES in S10, the nesting variable is set to 1 in S11, the area is subdivided (at the position of each wall) in S12, the process returns to S5, and the investigation target area is limited to the leftmost area.
[0114]
Then, in S6 to S7, two walls were found. In S8 to S9, the wall was not found, but in S10, the answer is YES. In S11, the nested variable is set to 2 and “nesting processing” is performed. The process is repeatedly executed until the nesting process is completed, and wall extraction processing is sequentially performed on the three divided areas obtained by dividing the vertically long area on the left side by two newly discovered walls.
[0115]
In this example, no new wall is found, and the nesting variable is set to -1 and returned to 1 in S16 of FIG. 19, and the wall is extracted in the same manner with the middle vertically long region as the investigation target region. So no new wall candidates are found.
Therefore, in S15 and S5, the investigation target area is changed to the vertically long area on the right side, and one wall is found in S6 to S7.
[0116]
Therefore, the answer is YES in S10 of FIG. 20, the nested variable is set to 2 in S11 and “nesting processing” is started, and the vertically long area on the right side is divided by the newly found wall, and the wall extraction of each divided area is performed. Processing is performed sequentially. As a result, no new wall is found in any of the divided regions, and No is determined in S13 and the nesting process is terminated. In S16, the nested variable is set to -1 to 1, but the region of the nested variable 1 does not remain. Therefore, the nested variable is returned to 0, but the area does not remain. Therefore, it is determined that the wall extraction process has been completed, the position and size of each wall are determined based on the wall candidate recognition data extracted in S17, and the data is stored in the memory.
[0117]
Next, information (analysis result data) such as the position and size of the wall corresponding to the outline and skeleton of the construction drawing recognized as described above is stored in the storage medium of the memory 4 and the external storage device 11 shown in FIG. An example of the contents to be described will be described with reference to FIG.
In FIG. 21, (A) is the number of nests, (B) is specific nest information, (C) horizontal wall information, (D) is vertical wall information, (E) is a horizontal wall model, (F) ) Indicates a vertical wall model.
[0118]
The number of nestings indicates the depth of nesting (parent-child relationship) of child nesting pointers. When no wall is recognized, the number of nestings = 0.
The unique nest information includes a nest No., a NEXT sibling pointer, a child nest pointer, the number of walls (horizontal and vertical directions), and a wall information pointer (horizontal and vertical directions).
[0119]
The NEXT sibling pointer has the next address of the simultaneous hierarchy nesting information. Therefore, the nest No. in the unique nest information at the location indicated by this pointer is the same value as that of the process.
The child nesting pointer has the address of the top data of hierarchical nesting information one level below. Therefore, the nest No. in the specific nest information at the location indicated by the pointer is a value obtained by adding 1 to the value of the process.
[0120]
The horizontal wall information shown in (C) is stored with the address indicated by the horizontal wall information pointer in the unique nest information shown in (B) as the head address.
The wall information includes a NEXT pointer indicating the position of the start address of the next horizontal wall information, wall start point coordinates (x coordinates: a, y coordinates: b), wall horizontal (x direction) size: c, wall Vertical (y direction) size: It consists of wall thickness d. By these a to d, the model of the horizontal wall shown in (E) can be stored and reproduced.
[0121]
Similarly, the vertical wall information shown in (D) is stored with the address indicated by the vertical wall information pointer in the unique nest information as the head address.
The wall information includes a NEXT pointer indicating the position of the start address of the next vertical wall information, wall start point coordinates (x coordinates: e, y coordinates: f), wall vertical (y direction) size: g, wall Horizontal (x direction) size: wall thickness h. By these e to h, the model of the vertical wall shown in (F) can be stored and reproduced.
[0122]
By the way, an example of creating black dot count measurement array data in the horizontal direction and the vertical direction with the entire drawing as an investigation target area is shown in FIG. 10 and FIG. In the next stage of recognizing wall candidates based on the dot count measurement array data, the area of the drawing is divided by the recognized wall candidates, and the number of black dots in the horizontal and vertical directions is measured based on the image data in which the investigation target area is limited. Examples of creating sequence data are shown in FIGS.
[0123]
FIG. 23 and FIG. 24 are examples in which the investigation target area is further subdivided from FIG.
In this way, until no new wall candidate is found, the investigation target area is subdivided, horizontal and vertical black dot number measurement array data based on the image data is created, and the walls are extracted.
[0124]
In this embodiment, since the construction image of the positive image is a recognition target, the black dot number measurement array data is created by measuring (counting) the number of black dots in the horizontal and vertical directions of the binarized image data. However, when the construction drawing of the negative image is to be recognized, if the white dot number measurement array data is created by measuring (counting) the number of white dots in the horizontal and vertical directions of the binarized image data, Wall recognition can be performed in the same way.
[0125]
Further, the recognition data related to the outline and skeleton of the construction drawing recognized as described above can be converted into CAD vector data, and the compatibility of CAD data between different models can be obtained.
[0126]
Further, in this embodiment, a recognition process capable of extracting the projected feature even on the inclined straight wall by creating the black dot number measurement array data by measuring (counting) the number of black dots in the diagonal direction of the outline of the portion composed of the black dots. Therefore, there are the following merits.
[0127]
(1) Even if a figure is composed of straight lines inclined obliquely from the horizontal and vertical lines in the drawing, the recognition range of recognition can be expanded if the inclined angle is known.
(2) Recognition and extraction can be performed even for a target (polygon other than a rectangle) in which both straight lines (walls, etc.) that face the horizontal and vertical directions of the drawing and straight lines that are inclined obliquely are mixed.
[0128]
In addition, when it is difficult to correct the skew in the direction facing the house drawing in the handwritten drawing, the handwritten drawing may be described on a graph paper, and the skew correction may be performed using the grid of the graph paper.
In addition, if it is unavoidable to leave it to the user's manual work, it is advisable to attach a manual that urges attention to create a confronting drawing that does not require skew correction as much as possible when reading the scanner.
[0129]
【The invention's effect】
As described above, according to the method for recognizing an oblique wall from a construction drawing according to the present invention, a linear oblique wall inclined with respect to the horizontal or vertical direction existing in the construction drawing is replaced with an outline and a skeleton of the construction drawing. It can be reliably recognized as a part. Moreover, it is possible to accurately recognize an oblique wall even in a construction drawing with a poor description state or image quality such as a handwritten drawing or a blueprint with a relatively low contrast, a noisy drawing or an old construction drawing.
[0130]
Further, according to the construction drawing recognition apparatus of the present invention, image image data obtained by reading an image of the construction drawing is input, and the walls forming the outline and the skeleton of the construction drawing are automatically and accurately included including the oblique walls. Can be recognized.
[0131]
Then, if the recognized data is taken into a personal computer or the like and used, construction drawings such as a floor plan at the time of extension and reconstruction can be easily and quickly created.
Furthermore, the image data of the construction drawing can be input as run-length encoded image data by FAX communication or the like, and the outline and skeleton of the construction drawing can be recognized.
[0132]
Further, by displaying the recognition result of the contour / skeleton including the oblique wall, the recognition result can be confirmed and confirmed. In that case, by displaying the input image data of the construction drawing simultaneously or selectively with the recognition result, it is possible to compare the display contents and find the erroneously recognized part or the part that could not be recognized. If the input image data and the recognition result are displayed in a superimposed manner, it becomes easier to find and correct a misrecognized portion or a portion that could not be recognized.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of an example of a construction drawing recognition apparatus for implementing a construction drawing recognition method according to the present invention.
2 is a diagram illustrating a display example of image data of a recognition result that is remapped on the display unit 9 of FIG. 1;
FIG. 3 is a diagram illustrating an example in which input image data of a construction drawing that has been similarly skew-corrected is displayed superimposed on image data of a recognition result.
FIG. 4 is a diagram for explaining definitions of an outer contour, an outer wall, an inner wall, and a skeleton in a construction drawing.
FIG. 5 is a flowchart showing a main routine of construction drawing recognition processing by the construction drawing recognition apparatus shown in FIG. 1;
6 is a flowchart showing details of a subroutine for wall position recognition processing in step A in FIG. 5; FIG.
FIG. 7 is a flowchart of a subroutine of wall extraction (recognition) processing in steps 7 and 9 in FIG. 6;
FIG. 8 is a flowchart for executing a bisection search method for recognizing a wall position.
FIG. 9 shows a wall candidate in the investigation target region, a region division example based on the wall candidate, and a nesting No. of a region group subdivided by the wall candidate. It is explanatory drawing which shows an example of the analysis processing order.
FIG. 10 is a diagram showing a specific example of image data of an architectural drawing (house floor plan) and black dot number measurement array data in the horizontal and vertical directions created from the entire area thereof.
FIG. 11 is a diagram showing another specific example.
12 is an enlarged view of black dot number measurement array data in the vertical direction shown in FIG. 10 (c).
13 is an explanatory diagram of processing for narrowing both sides of a wall to both sides or one side of a peak in step 26 of FIG. 7;
14 is an explanatory diagram of region width division processing in step 43 of FIG. 8;
FIG. 15 is an explanatory diagram of determination by wall survey of the target area in steps 44 and 45 in FIG. 8;
16 is an explanatory diagram showing an example of analysis of a wall sample (wall candidate) by the two-division search process shown in FIG. 8. FIG.
FIG. 17 is an explanatory diagram of a wall recognition example of a simple construction drawing according to the present invention.
FIG. 18 is an explanatory diagram showing an example of a concrete construction drawing recognition processing procedure according to the flowchart of FIG. 6;
FIG. 19 is an explanatory diagram continued from FIG. 18;
FIG. 20 is an explanatory diagram continued from FIG. 19;
FIG. 21 is an explanatory diagram showing an example of the contents of analysis result data stored in a memory.
22 is a diagram showing an example of image data in which a survey target area of the architectural drawing shown in FIG. 10 is limited and horizontal and vertical black dot number measurement array data based on the image data.
FIG. 23 is a diagram showing an example of image data further limiting the investigation target region from FIG. 22 and horizontal and vertical black dot number measurement array data based on the image data.
FIG. 24 is a diagram showing an example of image data of another part in which the investigation target region is further limited from FIG. 22 and horizontal and vertical black dot number measurement array data based on the image data.
25 is a view showing a display example of input image data of a construction drawing whose skew has been corrected in the display unit 9 of FIG. 1;
FIG. 26 is a diagram similarly showing an example in which recognition results of the input image data are displayed.
FIG. 27 is a diagram showing an example in which the input image data of the construction drawing shown in FIG. 25 and the image data of the recognition result are superimposed and displayed.
FIG. 28 is a diagram showing input image data of a construction drawing having an oblique wall and black dot number measurement array data created for the skew direction of each oblique wall in the region including the oblique wall.
29 is an explanatory diagram of j region and skew angle calculation processing in Step H of FIG. 5. FIG.
[Explanation of symbols]
1: overall control unit (CPU) 2: image reading unit 3: communication control unit 4: memory 5: automatic skew correction unit 6: dot number measurement array data creation unit 7: contour / skeleton recognition unit 8: remapping control unit 9 : Display unit 10: Operation input unit 11: External storage device 12: Printing device 13: Oblique wall recognition unit 14: Bus

Claims (10)

建設図面の画像を読み取ったイメージ画像データを入力する画像データ入力ステップと、
該ステップで入力したイメージ画像データの水平及び垂直方向の黒又は白ドット数を計測して水平及び垂直方向のドット数計測配列データを作成するドット数計測配列データ作成ステップと、
該ステップで作成した水平及び垂直方向のドット数計測配列データに基づいて建設図面の輪郭及び骨格を認識する輪郭・骨格認識ステップと、
該ステップで認識した輪郭及び骨格に基づいて、前記入力したイメージ画像データの画像領域を限定し、その限定した画像領域のイメージ画像データの中の黒又は白ドットが全体的に示すスキュー角度を求め、その求めたスキュー角度方向に、前記限定した画像領域のイメージ画像データの黒又は白ドット数を計測してドット数計測配列データを作成し、その作成したドット数計測配列データに基づいて建設図面の輪郭及び骨格の一部をなす斜め壁を認識する斜め壁認識ステップとを有し、
前記斜め壁認識ステップにおいて、前記輪郭・骨格認識ステップにおいて認識された建設図面の輪郭及び骨格に基づいて抽出した水平方向と垂直方向の壁の交点又は端点を出発点にして、画像データの黒又は白ドットに基づいて前記スキュー角度を求めるようにしたことを特徴とする建設図面認識方法
An image data input step for inputting image image data obtained by reading an image of a construction drawing;
A dot number measurement array data creation step for creating horizontal and vertical dot number measurement array data by measuring the number of black or white dots in the horizontal and vertical directions of the image image data input in the step;
An outline / skeleton recognition step for recognizing the outline and skeleton of a construction drawing based on the horizontal and vertical dot number measurement array data created in the step;
Based on the contour and skeleton recognized in the step, the image area of the input image image data is limited, and the skew angle indicated by the black or white dots in the image image data of the limited image area is obtained. Then, in the obtained skew angle direction, the number of black or white dots of the image image data of the limited image area is measured to create dot number measurement array data, and a construction drawing based on the created dot number measurement array data And an oblique wall recognition step for recognizing an oblique wall forming a part of the outline and skeleton of
In the oblique wall recognizing step, the black or white of the image data is obtained from the intersection or end point of the horizontal and vertical walls extracted based on the outline and skeleton of the construction drawing recognized in the contour / skeleton recognizing step. A construction drawing recognition method characterized in that the skew angle is obtained based on white dots .
建設図面の画像を読み取ったイメージ画像データを入力する画像データ入力手段と、
該手段によって入力したイメージ画像データの水平方向又は垂直方向の黒又は白ドット数を計測して水平及び垂直方向のドット数計測配列データを作成するドット数計測配列データ作成手段と、
該手段によって作成された水平及び垂直方向のドット数計測配列データに基づいて建設図面の輪郭及び骨格を認識する輪郭・骨格認識手段と、
該手段によって認識された建設図面の輪郭及び骨格に基づいて、前記入力したイメージ画像データの画像領域を限定し、その限定した画像領域のイメージ画像データの黒又は白ドットが全体的に示すスキュー角度を求め、そのスキュー角度の方向に前記限定した画像領域のイメージ画像データの黒又は白ドット数を計測してドット数計測配列データを作成し、その作成したドット数計測配列データに基づいて建設図面の輪郭及び骨格の一部をなす斜め壁を認識する斜め壁認識手段とを設け、
前記斜め壁認識手段が、前記輪郭・骨格認識手段によって認識された建設図面の輪郭及び骨格に基づいて抽出した水平方向と垂直方向の壁の交点又は端点を出発点にして、画像データの黒又は白ドットに基づいて前記スキュー角度を求めるようにしたことを特徴とする建設図面認識装置。
Image data input means for inputting image image data obtained by reading an image of a construction drawing;
Dot number measurement array data creating means for creating horizontal and vertical dot number measurement array data by measuring the number of black or white dots in the horizontal direction or vertical direction of the image image data input by the means;
Outline / skeleton recognition means for recognizing the outline and skeleton of construction drawings based on the horizontal and vertical dot number measurement array data created by the means;
Based on the outline and skeleton of the construction drawing recognized by the means, the image area of the inputted image image data is limited, and the skew angle generally indicated by the black or white dots of the image image data of the limited image area And determining the number of black or white dots of the image image data of the limited image area in the direction of the skew angle to create dot number measurement array data, and the construction drawing based on the created dot number measurement array data the oblique walls recognition means provided for recognizing the oblique walls forming a part of the contour and skeletal,
The oblique wall recognizing means starts from the intersection or end point of the horizontal and vertical walls extracted based on the outline and skeleton of the construction drawing recognized by the outline / skeleton recognizing means, and the black or A construction drawing recognition apparatus characterized in that the skew angle is obtained based on white dots .
請求項記載の建設図面認識装置において、前記画像データ入力手段が、建設図面の画像を読み取ってそのイメージ画像データを入力する画像読取手段であることを特徴とする建設図面認識装置。 3. The construction drawing recognition apparatus according to claim 2 , wherein the image data input means is image reading means for reading an image of the construction drawing and inputting the image image data. 建設図面の画像を読み取ったイメージ画像データのランレングスを符号化した符号化画像データを入力する画像データ入力手段と、
該手段によって入力した符号化画像データから元のイメージ画像データの水平方向又は垂直方向の黒又は白ドット数を計測して水平又は垂直方向のドット数計測配列データを作成するドット数計測配列データ作成手段と、
該手段によって作成された水平及び垂直方向のドット数計測配列データに基づいて建設図面の輪郭及び骨格を認識する輪郭・骨格認識手段と、
該手段によって認識された建設図面の輪郭及び骨格に基づいて、前記入力したイメージ画像データの画像領域を限定し、その限定した画像領域のイメージ画像データの黒又は白ドットが全体的に示すスキュー角度を求め、そのスキュー角度の方向に前記限定した画像領域のイメージ画像データの黒又は白ドット数を計測してドット数計測配列データを作成し、その作成したドット数計測配列データに基づいて建設図面の輪郭及び骨格の一部をなす斜め壁を認識する斜め壁認識手段とを設け、
前記斜め壁認識手段が、前記輪郭・骨格認識手段によって認識された建設図面の輪郭及び骨格に基づいて抽出した水平方向と垂直方向の壁の交点又は端点を出発点にして、画像データの黒又は白ドットに基づいて前記スキュー角度を求めるようにしたことを特徴とする建設図面認識装置。
Image data input means for inputting encoded image data obtained by encoding a run length of image image data obtained by reading an image of a construction drawing;
Dot number measurement array data creation for creating horizontal or vertical dot number measurement array data by measuring the number of black or white dots in the horizontal direction or vertical direction of the original image image data from the encoded image data input by the means Means,
Outline / skeleton recognition means for recognizing the outline and skeleton of construction drawings based on the horizontal and vertical dot number measurement array data created by the means;
Based on the outline and skeleton of the construction drawing recognized by the means, the image area of the inputted image image data is limited, and the skew angle generally indicated by the black or white dots of the image image data of the limited image area And determining the number of black or white dots of the image image data of the limited image area in the direction of the skew angle to create dot number measurement array data, and the construction drawing based on the created dot number measurement array data the oblique walls recognition means provided for recognizing the oblique walls forming a part of the contour and skeletal,
The oblique wall recognizing means starts from the intersection or end point of the horizontal and vertical walls extracted based on the outline and skeleton of the construction drawing recognized by the outline / skeleton recognizing means, and the black or A construction drawing recognition apparatus characterized in that the skew angle is obtained based on white dots .
請求項記載の建設図面認識装置において、前記画像データ入力手段が、前記符号化画像データを通信により受信して入力する画像データ受信手段であることを特徴とする建設図面認識装置。5. The construction drawing recognition apparatus according to claim 4 , wherein the image data input means is image data receiving means for receiving and inputting the encoded image data by communication. 請求項2乃至5のいずれか一項に記載の建設図面認識装置において、前記斜め壁認識手段による認識結果を表示する表示手段を設けたことを特徴とする建設図面認識装置。6. The construction drawing recognition apparatus according to claim 2 , further comprising display means for displaying a recognition result by the oblique wall recognition means. 請求項に記載の建設図面認識装置において、前記表示手段は、前記画像データ入力手段により入力したイメージ画像データを前記認識結果と同時に表示する手段を有することを特徴とする建設図面認識装置。7. The construction drawing recognition apparatus according to claim 6 , wherein the display means includes means for displaying the image image data input by the image data input means simultaneously with the recognition result. 請求項記載の建設図面認識装置において、前記イメージ画像データを前記認識結果と同時に表示する手段は、前記イメージ画像データを前記認識結果と重ね合わせて表示する手段であることを特徴とする建設図面認識装置。8. The construction drawing recognition apparatus according to claim 7 , wherein the means for displaying the image image data simultaneously with the recognition result is a means for displaying the image image data superimposed on the recognition result. Recognition device. 請求項に記載の建設図面認識装置において、前記画像データ入力手段により入力したイメージ画像データと前記認識結果とを選択的に表示するように表示内容を変更する表示選定手段を設けたことを特徴とする建設図面認識装置。9. The construction drawing recognition apparatus according to claim 8 , further comprising display selection means for changing display contents so as to selectively display the image image data input by the image data input means and the recognition result. Construction drawing recognition device. 請求項6乃至9のいずれか一項に記載の建設図面認識装置において、前記表示手段に表示した前記認識結果を外部からの指示により確定する認識結果確認手段を設けたことを特徴とする建設図面認識装置。The construction drawing recognition apparatus according to any one of claims 6 to 9 , further comprising a recognition result confirmation means for confirming the recognition result displayed on the display means by an instruction from the outside. Recognition device.
JP00044497A 1997-01-06 1997-01-06 Construction drawing recognition method and construction drawing recognition apparatus Expired - Lifetime JP3678523B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP00044497A JP3678523B2 (en) 1997-01-06 1997-01-06 Construction drawing recognition method and construction drawing recognition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP00044497A JP3678523B2 (en) 1997-01-06 1997-01-06 Construction drawing recognition method and construction drawing recognition apparatus

Publications (2)

Publication Number Publication Date
JPH10198712A JPH10198712A (en) 1998-07-31
JP3678523B2 true JP3678523B2 (en) 2005-08-03

Family

ID=11473978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP00044497A Expired - Lifetime JP3678523B2 (en) 1997-01-06 1997-01-06 Construction drawing recognition method and construction drawing recognition apparatus

Country Status (1)

Country Link
JP (1) JP3678523B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112802151B (en) * 2020-12-25 2023-02-17 佛山欧神诺云商科技有限公司 Wall line drawing method, electronic device and storage medium
CN116628834B (en) * 2023-07-26 2023-10-20 北京飞渡科技股份有限公司 Contour segmentation correction method and device based on neural network

Also Published As

Publication number Publication date
JPH10198712A (en) 1998-07-31

Similar Documents

Publication Publication Date Title
JPH08293001A (en) Image processing unit and method and optical character recognition unit and method
EP1017011A2 (en) Block selection of table features
JP2021124933A (en) System for generating image
JPH08508128A (en) Image classification method and apparatus using distribution map
JP3571128B2 (en) Method and apparatus for recognizing dimensions of drawings
JP3678523B2 (en) Construction drawing recognition method and construction drawing recognition apparatus
Song et al. Effective multiresolution arc segmentation: Algorithms and performance evaluation
JP3679241B2 (en) Construction drawing recognition method and recognition apparatus
JP3658468B2 (en) Architectural drawing recognition method and recognition device
JP3961595B2 (en) Architectural drawing recognition method and recognition device
JP3595393B2 (en) Construction drawing recognition method and recognition device
JP3645404B2 (en) Method and apparatus for recognizing door from architectural drawing
JP3516502B2 (en) Construction drawing recognition method and recognition device
JP3686214B2 (en) Construction drawing recognition method and recognition apparatus
JP3516541B2 (en) Method and apparatus for recognizing dimension information of construction drawings
JP3648006B2 (en) Toilet recognition method and construction drawing recognition device from construction drawings
JP3516540B2 (en) Construction drawing recognition method and recognition device
JP3678521B2 (en) Construction drawing recognition method and recognition apparatus
JP3701778B2 (en) Architectural drawing recognition method and architectural drawing recognition device
JP3545481B2 (en) Image recognition method and apparatus
US6901168B1 (en) Method for segmenting and identifying a document, in particular a technical chart
JP2000187730A (en) Method and device for processing picture data of construction drawing and computer readable recording medium storing control program for the method
JP2000194744A (en) Method and device for processing image data of construction drawing and computer readable recording medium recording control program therefor
JPH11259550A (en) Construction drawing recognition method and recognition device and computer readable recording medium recording program therefor
JPH05303644A (en) Grahic recognition method for picture processor

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041026

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050510

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080520

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090520

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100520

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110520

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120520

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120520

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130520

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130520

Year of fee payment: 8

EXPY Cancellation because of completion of term