JP3961595B2 - Architectural drawing recognition method and recognition device - Google Patents

Architectural drawing recognition method and recognition device Download PDF

Info

Publication number
JP3961595B2
JP3961595B2 JP26043296A JP26043296A JP3961595B2 JP 3961595 B2 JP3961595 B2 JP 3961595B2 JP 26043296 A JP26043296 A JP 26043296A JP 26043296 A JP26043296 A JP 26043296A JP 3961595 B2 JP3961595 B2 JP 3961595B2
Authority
JP
Japan
Prior art keywords
recognition
image
image data
wall
tatami
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP26043296A
Other languages
Japanese (ja)
Other versions
JPH10105592A (en
Inventor
隆之 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP26043296A priority Critical patent/JP3961595B2/en
Publication of JPH10105592A publication Critical patent/JPH10105592A/en
Application granted granted Critical
Publication of JP3961595B2 publication Critical patent/JP3961595B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、建築業界で広く使用されている建築図面の中の「和室」の認識方法及びその認識装置に関するものである。
【0002】
【従来の技術】
近年、CADシステム等を用いて、家屋やビル等の建築図面を容易に作成したり、そのデータを記憶させておいて設計変更や増改築等の際に利用することは行なわれている。しかし、その建築図面のデータには、作成したシステムにより互換性がなく、期間の経過や業者の変更により利用できなくなる。また、家屋の増改築等を行なう場合には、紙に描かれた古い建築図面しかない場合が多く、増改築の間取り図等を変更しない部分も含めて、全て描きなおさなければならなかった。
【0003】
そこで、紙に描かれた建築図面を読み取って、コンピュータで処理できるデータとして認識して記憶させることも試みられているが、そのための特別な方法や装置はなく、建築図面をイメージスキャナで読み取り、そのイメージ画像データをパーソナルコンピュータ等に入力させて、一般の図形認識機能を利用して線分認識やパターン認識を行なっている。あるいはさらに、高機能の図形エディタを補助に使うことによって図形認識機能をレベルアップし、自動認識機能が多少不完全な場合でも、例えばラスタ・ベクタ変換することにより直線や円弧等の基本線図を自動認識できるようにしたものもある。
【0004】
【発明が解決しようとする課題】
しかしながら、このような従来の図面認識装置は、高度の操作知識等を必要とし、パソコンなどを使い慣れている人や専門のオペレータに利用が限定され、建築図面を頻繁に使用する業界関係者にとって、決して使い勝手のよいものであるとはいえなかった。
【0005】
また、直線や円弧等の基本線図は自動認識することができるが、基本線図の組み合わせ等からなる建築図面特有の図形シンボル(例えば、壁や柱等)を個別に認識をすることはできなかった。そのため、認識した図面を修正する際には線分毎に行なわなければならず、多くの手間を要していた。
【0006】
さらに、建築業において使用される家屋やビル等の建築図面は、その図面上の各線分が人間の目には同じ大きさの連続線として見えても、厳密に見れば太さも一様でなく、軌跡もゆらいでいる。また、連続線のはずであっても所々切れている場合もある。これらの不完全さは作図時のみならず、用紙の経年変化や読み取り時の誤差などからも生じるものである。そのため、例えば線分として認識できる太さの限界があまり細いと、わずかなかすれでも線分が切れていると認識してしまう。また太めの線分を長方形のように認識してしまうこともある。
【0007】
これは、原図の品質は勿論であるが、感光紙を使用したいわゆる青焼き図面のようにコントラストが低い(黒と白の境界がはっきりしない)図面が多く、さらにその青焼きの特徴である細かな点が表面に現れるため、従来の図面認識装置では精度の高い自動認識をすることは困難であり、その修正に多くの手間を要するので殆ど実用にならなかった。
【0008】
ところで、家屋の建築図面では間取りを仕切る壁が図面の中心的役割を果たし、図面中のどの部分が壁であるかを認識することによって、建築図面のおおよその間取りを理解することができる。従って、図面中の壁の位置及びその長さを認識することは、建築図面を認識する上で最も重要な事項である。
【0009】
さらに、建築図面の大半は、水平及び垂直の壁で仕切られた間取図になっている。この建築図面の輪郭及び骨格を表す壁としての水平線と垂直線を確実に認識できるか否かが最初の重要な鍵になる。そして、日本建築の間取り中の「和室」の認識は、この壁認識された後で、壁に囲まれた領域中などに固有の畳敷きが認識できるかどうかによって判断することになる。
【0010】
しかし、従来の直線の認識による壁や和室の認識方法では次のような問題があった。
(1)輪郭線追跡方法では、カスレや凹凸が多いと途切れた直線として認識され、あるいは2本や3本に分かれた直線として認識されてしまって、壁や畳の縁線を正確に認識できなかった。
(2)黒又は白ドットの度数分布から求める射影特徴抽出方法では、水平及び垂直方向の直線を見つけ出すとき、畳の縁などが壁に近い太さと長さで表現されていた場合、畳の縁線を壁などの間仕切りに誤認識することが多かった。
(3)黒又は白ドットの度数分布から求める射影特徴抽出法を使用して壁を認識するだけでは、和室の認識までは実現できなかった。
【0011】
この発明は上記の点に鑑みてなされたものであり、青焼き図面など、ノイズやカスレ,途切れがある直線で紙に描かれた建築図面を読み取ったイメージ画像データ、あるいはそのランレングスを符号化した符号化画像データから、その建築図面の間取りを知る上で重要な情報である壁に相当する輪郭や骨格の認識及びその認識結果に基づく和室の認識を精度よく自動的に行なえるようにすることを目的とする。
【0012】
【課題を解決するための手段】
この発明は上記の目的を達成するため、次のような建築図面認識方法及び建築図面認識装置を提供する。
この発明による建築図面認識方法は、次のステップで建築図面の輪郭及び骨格(壁)と和室を認識する。
【0013】
(1)建築図面の画像を読み取ったイメージ画像データの水平方向及び垂直方向の黒又は白ドット数を計測して水平及び垂直方向のドット数計測配列データ(ヒストグラム)を作成する。
(2)その作成した水平及び垂直方向のドット数計測配列データに基づいて建築図面の輪郭及び骨格を認識する。
(3)その認識した輪郭及び骨格によって形成される矩形閉ループに囲まれた領域をそれぞれ調査対象領域として選択する。
(4)その各調査対象領域毎に少なくとも1つ以上の角を開始点として、一枚の畳部分に相当する前記画像データと、予め保持した和室のモデルパターンの対応する一枚の畳部分の畳データとのマッチング処理を、上記一枚の畳部分毎に行って和室の領域を認識する
【0014】
上記()のステップで各調査対象領域の画像に対してマッチング処理を行なう際に、その各調査対象領域の各角を順次開始点として、前記各モデルパターンと対応する画像部分に対して順次マッチング処理を行なうようにするとよい。
上記()のステップのマッチング処理によって同一の調査対象領域に対して帖数の異なる複数の和室の領域を認識した場合には、帖数の最も大きい和室の認識結果のみを有効にするとよい。
【0015】
上記(4)のステップのマッチング処理を、上記調査対象領域の一枚の畳部分に相当する画像と、前記モデルパターンの一枚の畳部分の畳データとについて、畳の「縁」と「原」の一致の度合いを調べる処理とするとよい。
【0016】
この発明による建築図面認識装置は、建築図面の画像を読み取ったイメージ画像データを入力する画像データ入力手段と、該手段によって入力したイメージ画像データの水平方向及び垂直方向の黒又は白ドット数を計測して水平及び垂直方向のドット数計測配列データを作成するドット数計測配列データ作成手段と、該手段により作成されたドット数計測配列データに基づいて建築図面の輪郭及び骨格を認識する輪郭・骨格認識手段と、上記輪郭・骨格認識手段によって認識された輪郭及び骨格によって形成される矩形閉ループに囲まれた領域をそれぞれ調査対象領域として選択する手段と、その各調査対象領域毎に少なくとも1つ以上の角を開始点として、一枚の畳部分に相当する前記画像データと、予め保持した和室のモデルパターンの対応する一枚の畳部分の畳データとのマッチング処理を、上記一枚の畳部分毎に行って和室の領域を認識する手段とを有する。
【0017】
上記画像データ入力手段は、建築図面の画像を読み取ってそのイメージ画像データを入力する画像読取手段でよい。
【0018】
あるいはまた、上記画像データ入力手段を、建築図面の画像を読み取ったイメージ画像データのランレングスを符号化した符号化画像データを入力するものとして、ドット数計測配列データ作成手段が、その入力した符号化画像データから元のイメージ画像データの水平方向及び垂直方向の黒又は白ドット数を計測して水平及び垂直方向のドット数計測配列データを作成するように構成してもよい。その場合の画像データ入力手段は、上記符号化画像データを通信により受信して入力する画像データ受信手段であってもよい。
【0019】
さらに、これらの建築図面認識装置において、上記マッチング処理を、上記調査対象領域の一枚の畳部分に相当する画像と、前記モデルパターンの一枚の畳部分の畳データとについて、畳の「縁」と「原」の一致の度合いを調べる処理とするとよい。
【0020】
これらの建築図面認識装置に、上記輪郭・骨格認識手段及び和室認識手段によって認識した結果を表示する表示手段を設けるとよい。
その表示手段は、上記画像データ入力手段により入力したイメージ画像データを上記認識結果と同時に表示する手段を有するのが望ましい。
さらにその同時に表示する手段が、上記イメージ画像データと認識結果とを重ね合わせて表示する手段であるとよい。
【0021】
あるいは、上記画像データ入力手段により入力したイメージ画像データと上記認識結果とを選択的に表示するように表示内容を変更する表示選定手段を設けてもよい。
また、上記認識結果を操作者が確認して、その認識結果を外部からの指示によって確定する認識結果確認手段を設けるのが望ましい。
【0022】
【発明の実施の形態】
以下、この発明の実施形態を図面に基づいて具体的に説明する。
図1は、この発明による建築図面認識方法を実施する建築図面認識装置の一例の概略構成を示すブロック図であり、ハード構成とマイクロコンピュータによるソフト処理の機能とを混在して示している。
【0023】
この装置は、全体制御部1,画像読取部2,通信制御部3,メモリ4,自動スキュー補正部5,ドット数計測配列データ作成部6,輪郭・骨格認識部7,再マッピング制御部8,表示部9,操作入力部10,外部記憶装置11,印刷装置12,和室認識部13,及びこれらを接続するバス14などから構成される。
なお、これらの各部(又は装置)とバス14との間に必要なインタフェース部は図示を省略している。
【0024】
全体制御部1は、この建築図面認識装置全体の動作及び機能を制御するマイクロコンピュータ(CPU,ROM,RAM等から構成されるが代表して「CPU」と略称される)であり、自動スキュー補正部5並びにこの発明に係るドット数計測配列データ作成部6,輪郭・骨格認識部7,再マッピング制御部8,及び和室認識部13の各機能も、そのCPUのソフト処理によって実現できる。
【0025】
画像読取部2は、セットされた建築図面をスキャンしてその画像を読み取ってイメージ画像データを入力する画像データ入力手段であり、スキャン光学系及びCCDなどのイメージセンサとその駆動回路等からなる公知のイメージスキャナである。また、その読み取ったイメージ画像データを所定の解像度で2値化して白ドットと黒ドットの画像データにする回路も含んでいる。
【0026】
通信制御部3は、画像読取部2から画像データを取り込む代りに、外部から通信によりイメージ画像データ又はそのランレングスが符号化された符号化画像データを受信して入力する画像データ受信手段であると共に、この装置によって認識した建築図面のデータを外部装置へ送信することもできる。具体的にはFAXモデムやパソコン通信制御手段を含むものである。
【0027】
メモリ4は、画像読取部2によって読み取ったイメージ画像データ、通信制御部3によって受信したイメージ画像データ又は符号化画像データをはじめ、自動スキュー補正部5によってスキュー補正された画像データ、ドット数計測配列データ作成部6によって作成されたドット数計測配列データ、輪郭・骨格認識部7によって認識された輪郭及び骨格の認識結果、及び再マッピング制御部8によって再マッピングされた画像データ、和室認識部13によって認識された和室認識データ等を格納する大容量のRAMあるいはハードディスク等によるメモリである。
【0028】
自動スキュー補正部5は、メモリ4に格納した画像データの角度を調整して水平及び垂直の線分方向を装置の水平及び垂直の基準方向と一致させるように補正するためのものであり、公知の自動スキュー補正技術を用いることができる。
なお、この自動スキュー補正部5により修正された画像データは、再びメモリ4に格納される。
【0029】
ドット数計測配列データ作成部6は、自動スキュー補正がなされてメモリ4に格納されたイメージ画像データ又は符号化画像データ、及び後述する再マッピング制御部8によって再マッピングされた画像データに対して、その画像データを水平及び垂直方向の2方向に限定して、それぞれドット幅単位に黒又は白ドット数を計測(カウント)し、その結果により水平及び垂直方向のドット数計測配列データ(ヒストグラム)を作成してメモリ4に格納するドット数計測配列データ作成手段である。
【0030】
なお、読み取った建築図面がポジ図面(地の明度より図の明度が低い図面)の場合には黒ドット数を計測し、ネガ図面(地の明度より図の明度が高い図面)の場合には白ドット数を計測する。
【0031】
輪郭・骨格認識部7は、ドット数計測配列データ作成部6によって作成された水平及び垂直方向のドット数計測配列データに基づいて、建築図面の輪郭及び骨格を認識し、特に壁の位置,長さ,厚さ,種類等の壁データを抽出するための輪郭・骨格認識手段であり、その詳細は後で詳述する。
【0032】
なお、参照したドット数計測配列データでは、壁の認識(抽出)が困難あるいは不確実な場合は、図面の水平及び垂直方向のドット数計測配列データ作成範囲の再設定要求を全体制御部1へ送り、作成範囲を変更設定してドット数計測配列データ作成部6に再度ドット数計測配列データを作成させる。
【0033】
再マッピング制御部8は、輪郭・骨格認識部7により、壁と認識された部分により建築図面の範囲を限定して、その部分を他の認識情報をも考慮した上で、再度マッピングし、その限定した範囲毎にドット数計測配列データ作成部6に再度ドット数計測配列データを作成させるための画像データを作成するものであり、その際に原稿のノイズあるいは画像読取部2での読取ノイズも除去した画像データを作成する。このデータもメモリ4に格納される。
【0034】
和室認識部13は、輪郭・骨格認識部7で認識された壁位置を基にして、メモリ4に格納した画像データの一部分に対して、黒又は白ドットを水平及び垂直方向に射影特徴を抽出して、ドット数計測配列データ作成部6にドット数計測配列データを作成させ、その分析によって和室(畳敷き)の認識及び壁認識の修正を行なう。この認識された和室情報及び壁情報は再びメモリ4に格納される。すなわち、イメージ画像データの黒又は白ドットの射影特徴を抽出して畳敷きを認識する手段であり、その詳細は後で説明する。
【0035】
表示部9は、画像読取部2又は通信制御部3から入力し、自動スキュー補正部5によってスキュー補正された建築図面の画像データ、ドット数計測配列データ作成部6で作成された水平及び垂直方向の黒又は白のドット数計測配列データ、輪郭・骨格認識部7によって認識された壁データ、再マッピング制御部8によって再マッピングされた画像データ、和室認識部13によって認識された和室のデータ等を表示するためのものであり、例えば、CRTや液晶ディスプレイ等である。
【0036】
図2,図3は、表示部9の画面9aの表示状態の例を示すものであり、図2は輪郭・骨格認識部7によって認識された建築図面の輪郭及び骨格(この例では壁)のデータを再マッピング制御部8によって再マッピングした画像データ(認識結果)の表示例である。この表示例において、二重の実線は壁の両面を示し、細線は壁の芯線及びその延長線を示している。
【0037】
図3は、自動スキュー補正部5によってスキュー補正された建築図面の画像データ(入力したイメージ画像データ)と、上記再マッピングされた認識結果である壁の画像データを同時に重ね合わせて表示した例を示す。この場合、両者の識別が容易にできるように、スキュー補正された建築図面のイメージ画像データはハーフトーンで表示し(図3では図示の都合上点描で示している)、認識結果である壁の画像データを実線で表示する。
【0038】
また、表示部9がカラーの表示装置である場合には、両画像の色を変えて表示することにより、識別性を向上させることができる。例えば、スキュー補正された入力イメージ画像データは薄青色で、認識結果の画像データをオレンジ色あるいは緑色等で表示することにより、操作者は認識結果の部分を容易に識別できる。
【0039】
あるいは、表示部9の画面9aを分割して、スキュー補正された入力イメージ画像データと認識結果の画像データをその分割したそれぞれの画面に対比させて表示することもできる。
または、同一の画面上にスキュー補正された入力イメージ画像データと再マッピングされた認識結果の画像データを選択的に表示できるようにしてもよい。その場合には後述する操作入力部10に表示選定手段(キー等)を設ければよい。
【0040】
さらに、この表示部9は、認識結果を操作者が確認するための画面も表示する。すなわち、上記再マッピングされた認識結果の画像データを表示し、「この認識結果でよろしいですか?(YES/NO)」というような表示を行なう。これにより、壁の認識が正確にできているかどうかを操作者が確認することができる。
【0041】
操作入力部10は、各種操作指示や機能選択指令、編集データ等を入力するためのものであり、キーボードやマウスあるいはタッチパネル等である。
この操作入力部10は、表示選定手段としての機能も有し、表示部9の表示状態を操作者の所望の表示状態に変更することができる。例えばキー操作により、スキュー補正された建築図面の入力画像データと再マッピングされた認識結果の画像データを重ね合わせて表示させたり、どちらか一方のみを選択して表示させたりすることができる。
【0042】
さらに、操作入力部10は、上記「この認識結果でよろしいですか?(YES/NO)」の表示に対し、「YES」または「NO」の情報を入力するためのキー等の入力手段も有する。そして、「YES」が選択された場合は認識処理を終了し、「NO」が選択された場合は再認識処理あるいは訂正処理に移行する。これにより、操作者は認識結果の内容を確認し、それを確定することができる。
【0043】
外部記憶装置11は、入力した画像データや、ドット数計測配列データ作成部6で作成された黒ドット数計測配列データ、輪郭・骨格認識部7によって認識された壁データ、再マッピング制御部8によって再マッピングされた認識結果の画像データ、和室認識部13によって認識された和室データ等をフロッピディスク(FD)や光磁気ディスク(OMD)等の外部へ取り出し可能な記憶媒体に記憶させる記憶装置である。
印刷装置12は、上記の各種データを紙に印刷あるいは描画して出力するプリンタあるいはプロッタである。
【0044】
上記、表示部9の各種表示機能およびその表示部9と操作入力部10とによる表示選択と認識結果の確認機能は、認識結果が壁の場合の例を図2及び図3によって説明したが、認識結果が和室あるいは壁と和室の場合も全く同様である。
ここで、建設図面における「輪郭」と「骨格」及び「外壁」と「内壁」の定義について、表1及び表2と図4によって説明する。
【0045】
【表1】

Figure 0003961595
【0046】
【表2】
Figure 0003961595
【0047】
「輪郭」とは「外輪郭」のことであり、表1に○印で示すように外周壁の外部に面している箇所のみ(図4の(a)に示す二重線の外側の線の部分)を意味するケース1の場合と、外部に接する壁の全体(図4の(b)に太線で示す部分)を意味するケース2,3の場合とがある。
【0048】
「骨格」とは、壁の総て(図4の(b)(c)に太線で示す部分の両方)を意味するケース1,2の場合と、外輪郭を除く壁(図4の(c)に太線で示す部分のみ)を意味するケース3の場合とがある。これらの定義において、特に断わらない場合はケース1の通常の意味として扱われる。
【0049】
「外壁」とは表2に○印で示すように、外輪郭と同じく外周壁の外部に面している箇所のみ(図4の(a)に示す二重線の外側の線で示す部分)を意味するケース4の場合と、外部に接する壁の全体(図4の(b)に太線で示す部分)を意味するケース5の場合とがある。
【0050】
「内壁」とは表2に○印で示すように、ケース4,5とも外壁を除く壁(壁=外壁+内壁)であるが、ケース4の場合は図4の(a)に示す二重線の内側の線の部分と図4の(c)に太線で示す部分であり、ケース5の場合は図4の(c)に太線で示す部分である。これらの定義においても、特に断わらない場合はケース5の通常の意味として扱われる。
【0051】
次に、図1に示した建築図面認識装置による建築図面(主に家屋やビル等の建築図面)認識の手順について、図5乃至図11のフロー図と、図12以降の説明図によって説明する。上記図5の一部及び図6〜図11においては各ステップを「S」で示している。また、この実施例では、認識する建築図面がポジ図面であるものとする。
図5は、建築図面認識処理のメインルーチンを示すフローチャートである。
【0052】
図5の処理を開始すると、ステップ1で図1の画像読取部2にセットされた建築図面を読み取り、そのイメージ画像データを入力して、ステップ2で自動スキュー補正部5によって自動的にそのスキューを補正する。
そして、ステップAのサブルーチンでドット数計測配列データ作成部6及び輪郭・骨格認識部7等によりその入力した画像データに対して壁の認識処理を実行する。この処理については後に詳述する。なお、イメージ画像データを符号化したデータを通信制御部3から入力するようにしてもよい。
【0053】
その後、和室認識部13により、ステップBの処理で、閉ループの抽出を行なって、閉ループの個数(m)とそれぞれの閉ループの輪郭を表わすデータを取得する。この閉ループの抽出は従来技術で実現できる。
ステップCでは、ステップBで取得した閉ループ総てを順番にループ処理するために、その回数カウンタである閉ループカウンタのカウント値xの初期設定(x←1)を行なう。
【0054】
そして、ステップDにおいて閉ループカウンタのカウント値xが閉ループの個数mを超えた(x>m)かどうかを判定する。超えていれば、当該図面の解析を終了し、ステップKに移行する。超えていなければ、当該x番目の閉ループについて、ステップE〜ステップIの和室認識処理を行なう。
ステップEでは、ステップBで取得した当該x番目の閉ループの輪郭を表わすデータから閉ループの角の箇所の総てを順番にループ処理するが、その回数カウンタである開始点角カウンタのカウント値yの初期設定(y←1)を行う。
例えば、当該x番目の閉ループが図12に示すような形状の場合には、角番号▲1▼〜▲6▼で示す各角の箇所の総てを順番にループ処理する。
【0055】
そして、ステップFにおいて開始点角カウンタのカウント値yが当該x番目の閉ループを形成する当該角の個数(図12の例の場合は6)を超えたかどうかを判定する。超えていれば、当該x番目の閉ループの解析を終了してステップJに移行する。超えていなければ、当該y番目の角についてステップG〜ステップHの畳敷き認識処理を行なう。
【0056】
ステップGでは、当該x番目の閉ループのy番目の角を調査対象領域の開始点として選択し、ステップHの処理につなぐ。ステップHのサブルーチンでは、ステップGで選択された調査対象領域の開始点及び図面の縮尺値及びドット密度を基に和室モデル・位置付け決定とマッチング処理を実行する。この処理については後に詳述する。
【0057】
続いて、ステップIでは、当該x番目の閉ループ内の次の角を開始点に選択して認識処理するために、開始点角カウンタyを+1してから、ステップFに戻って上述の処理を繰り返し行う。
次に、ステップJでは、次の閉ループ領域を認識処理するために、閉ループ・カウンタxを+1してから、ステップDに戻って上述の処理を繰り返し行う。
【0058】
以上のステップD〜ステップJまでの処理を行なって認識した「和室」の認識結果を、ステップKで出力して処理を終了する。
なお、認識した畳領域が重複している場合、ステップKにおいて、帖数の大きい方を有効とする選別処理を施す。これは、狭いサイズの和室と認識した場合に、畳敷きの最外郭を「壁」と誤認識している可能性が高いためである。
【0059】
図15の(A)〜(F)は、4帖〜12帖の和室の畳敷きの具体的なモデル・パターンを示す。これは、「畳敷きは、1枚毎の畳を矩形とみなした場合に、その縁で形成される直線が、畳複数枚によって結合する場合、"T"字形を原則とする」ことを基に、許される畳の敷き方を列挙したものである。
上述の「認識した畳領域が重複している場合」とは、例えば、図15の例では、(A)4帖の場合の(a)横長の2番目と(C)6帖の場合の(a)横長の2番目の組み合わせや、(C)6帖の場合の(b)縦長の先頭と(D)8帖の場合の2番目の組み合わせなどが該当し得る。
【0060】
図16は、壁の芯線を認識し、その結果から閉ループを抽出する処理に使用した建築図面の入力サンプル(イメージ画像)を、図1の再マッピング制御部8で再マッピングして表示部9で表示した画像データの表示例である。
図17は、その壁の芯線の認識結果による閉ループを表示した例を示す図である。
【0061】
また、図18は、図5のステップKにおいて畳領域を重複して認識するケースの組み合わせ例を示す内容である。建築図面の入力画像データの認識結果から、和室(畳敷き)について外側の輪郭線aで示す8帖敷き(右向き斜線を施した領域)と、内側の輪郭線bで示す6帖敷き(左向き斜線を施した領域)の両方の領域が重ねて認識されることを示す。このような場合は6帖敷きの認識は、畳の縁線が直線状に連続する線を壁等の間仕切りと誤認識したことによる。そこで、このように異なる大きさの和室を重複して認識した場合には、帖数の大きい方を有効とする。
【0062】
このように、和室(畳敷き)を認識処理することによって、間取り認識や間仕切り(壁など)認識の補正及びCADデータへの変換につなげる建築図面の認識処理を、より詳細かつ正確に実施することができる。
【0063】
次に、図5のステップAによる壁の認識処理について説明する。図6はその壁の位置を認識する処理のサブルーチンの内容を示すフロー図である。
まず、ステップ3において、自動スキュー補正された画像データの全体を壁位置調査対象とする。そして、ステップ4において、ネスト変数は0(初期値:画像全体を対象にするという意味)である。「ネスト変数」とは、建築図面の解析範囲をトップダウンで絞り込む時の絞り込み段階を表す。ネスト変数の値が大きいほど解析が深くなっている(細かい部分まで進んでいる)ことを表わす。
【0064】
ステップ5において、壁の位置の調査対象の領域を限定する処理を行なう。具体的には、この処理にいたる直前に調査領域の指示が示されていて、ここでは以降のステップ6〜9の処理のための準備(インタフェースの共通化)を行なうだけである。個々の調査対象領域の形は矩形図になる。最初はネスト変数が0なので図面全体を調査対象とする。
【0065】
ステップ6において、水平方向の黒ドット数計測配列データを作成する。これは、画像データの垂直方向の1ドット幅毎に水平方向の黒ドット数を計数(計測)し、その各計数データを保持するものである。
次にステップ7において、ステップ6で作成した水平方向の黒ドット数計測配列データに基づいて、壁の抽出(認識)処理を行なう。その処理手順については後述する。
【0066】
ステップ8では、ステップ6と同様に垂直方向の黒ドット数計測配列データを作成する。すなわち、画像データの水平方向の1ドット幅毎に垂直方向の黒ドット数を計数(計測)し、その各計数データを保持する。ステップ9では、その垂直方向の黒ドット数計測配列データに基づいて壁の抽出(認識)処理を行なう。
【0067】
そして、ステップ10において領域を分割する壁候補があるかどうかを判断する。ここで、水平あるいは垂直方向で1つでも領域を分割する壁候補があれば、ステップ11へ、1つもそのような壁候補がなければステップ13へ進む。
例えば、図19の(a)に示すような調査対象領域Sa内に領域を分割する壁候補Wdが存在するかどうかを判断する。
ステップ11では、ネスト変数を+1して再設定する。これは、現在の解析領域の中から壁を認識し、その壁を使って新たに区切られた現在の領域内の小領域に解析範囲を限定する段階に入ることを表わす。
【0068】
そして、ステップ12において、その調査対象の領域の細分化を行なう。具体的には、ステップ7,ステップ9で認識した壁候補の芯線(中心線)で、例えば図9の(a)に示すように調査対象領域を壁候補W,Wdの細線で示す芯線によって領域Sa1,Sa2に2分割する。さらに、その最初の細分化領域(例えば最も左上の領域)に調査対象の位置づけを行なう。
【0069】
この新たに細分化された領域群の中での解析の順番には特別な順序が必要になる訳ではないが、例えば、領域開始位置のx,y座標値の小さい順番に行なうことなどが考えられる。図9の(b)は、壁候補によって細分化された各領域のネストNo.とその解析処理順序の一例を示し、実線は壁候補の芯線(中心線)を、▲1▼,▲2▼,▲3▼はネストNo.を、1〜8の小さい数字は処理順序をそれぞれ示している。
【0070】
その後、ステップ5に戻って上述の処理を繰り返し行なう。
ステップ10において、領域を分割すべき壁候補が1つもなかった場合は、ステップ13に進んで同次ネスト領域(図9の(b)で同じネストNo.の領域)の残りがないかどうかを判断する。残りがある場合は、ステップ15において同次ネストの次の領域に調査対象を進めてステップ5に戻る。
【0071】
同次ネスト領域の残りがない場合は、ステップ14へ進んでネスト変数が0であるかどうかを判断する。ネスト変数が0でない場合は、ステップ16においてネスト変数を−1して1段階上位のネスト領域の処理に戻り、ステップ13でその段階の残りのネスト領域があるかどうかを判断する。あればステップ15で次のネスト領域に調査対象を進めてステップ5に戻る。
【0072】
ステップ14でネスト変数が0の場合は、ステップ17へ進んで、ステップ7,9によって得られた各領域毎の壁候補の認識データをもとに各壁の位置及びサイズを確定し、その壁認識データをメモリ4に格納する。その格納方法については後述する。そして以上の処理の後このサブルーチンを終了する。
【0073】
次に、図7に基づいて、図6のステップ7及び9の壁の抽出(認識)処理の手順を説明するが、それに先立って、建築図面(家屋の間取り図)の画像データとその全領域から作成した水平及び垂直方向の黒ドット数計測配列データの具体例を図20及び図21に示す。これらの図において、(a)は建築図面の画像データ、(b)は水平方向の黒ドット数計測配列データ、(c)は垂直方向の黒ドット数計測配列データである。さらに、図20の(c)に示した垂直方向の黒ドット数計測配列データを拡大して図22に示す。
【0074】
図20の建築図面では、壁のシンボルが壁の両面と芯線によって表わされており、図21の建築図面では、壁のシンボルが壁の厚さ内の塗りつぶし(黒)によって表わされている。
この黒ドット数計測配列データにおいて、一番細い黒線の幅が1ドット幅であり、各黒線の長さが(a)に示す建築図面の画像データの1ドット幅毎の水平方向又は垂直方向の黒ドット数の計数値に相当する。
【0075】
これらの図から明らかなように、建築図面を構成する線分の大部分(90%以上)は水平方向又は垂直方向に描かれており、特に壁の部分で黒ドットの密度が高くなっている。そのため、水平方向及び垂直方向の黒ドット数計測配列データには、壁が存在する位置にピークが表われることになる。
【0076】
そこで、図7のフローの処理を開始すると、まずステップ21において、指定方向とクロスする方向(水平方向の黒ドット数計測配列データ作成の指定であれば垂直方向に、また垂直方向の指定であれば水平方向に)に、建築図面の基準の単位長に相当する所定間隔ごとに何回壁認識処理のループが可能かを確認する。ここで、この単位長は一般の住宅の場合にはその最小壁間隔である半間あるいは1メートルであり、ここでは半間(91cm)とする。
【0077】
そして、水平方向の黒ドット数計測配列データに対しては垂直方向の画像幅より若干長い寸法を幅サイズLとし、垂直方向の黒ドット数計測配列データに対しては水平方向の画像幅より若干長い寸法を幅サイズLとして自動設定する。
また、半間サイズをhとし、この値は予め図面の縮尺データ及び半間長を入力するか又は計算による自動算出などにより決定する。
この幅サイズLと半間サイズをhからL/hを算出して小数点以下は切上げた数値を壁認識処理の大ループの実行回数nとする。図22にhで示す範囲が1回の大ループでの処理範囲である。
【0078】
次いで、ステップ22で大ループの回数カウンタのカウント値iの初期設定(i←1)を行なう。
そして、ステップ23において回数カウンタのカウント値iが可能な大ループの実行回数nを超えた(i>n)かどうかを判定する。超えていれば、当該領域の解析を終了する。超えていなければ、ステップ24において当該i番目の半間内の最初の解析処理として最高ピーク(図22にPで示す)に位置付け、その点をxpとする。このように半間毎に解析処理することにより、その中のピーク値が壁の一部である可能性が高いことになる。
【0079】
次に、ステップ25において壁の対象としての最初の条件であるピーク(極大値)の高さが半間(h)以上かどうかを判定する。その結果、ピークの高さが半間未満の場合には壁の認識不明として、次の半間先の解析に移るためにステップ34に進む。ピークの高さが半間以上ある時には次の解析ステップ26に移行する。このステップ26において、最高ピークの位置から左右両側(例えば、2W幅)を調べて、壁の厚みの範囲(両面の位置:W1,W2)及び厚みWe=|W1−W2|の絞り込みを行なう。ここでWは壁の厚みの意味で、例えばWmax と同じ値で使用する。
【0080】
この絞り込み方法としては、(最高ピーク値−min)* rate+min 以上の値を持つ最高ピーク位置の両端又は片側のピーク位置を、壁の両面の位置W1,W2又は最高ピーク位置xpが壁の一方の面の位置W1であるときの他方の面の位置W2として絞り込む方法がある。
【0081】
図23はこの絞り込み処理の説明図であり、(a)は最高ピーク位置xpの両側に壁の両面の位置W1,W2が存在する場合の例である。この場合は、最高ピーク位置xpは壁の芯線位置の候補と推定される。
【0082】
図23の(b)は最高ピーク位置xpが壁の一方の面の位置W1 であり、その片側に他方の面の位置W2 が存在する場合の例である。この場合は、長い方のピーク位置が図2に二重線で示した外輪郭の外壁位置の候補で、それに近接する短い方のピークがその内壁位置の候補と推定し得る。
【0083】
ここで、 rate は解析の前半(ネスト変数の値が小さい時)は小さめに、後半(ネスト変数の値が大きい時)では大きめにする(例えば、最初は rater=0.70とする)。min は図23の(c)に示すように現在注目している最大ピークPの位置xpの左右両側2Wに拡がった4W幅程度の幅内の黒ドット数計測データの最小値である。
【0084】
このようにして、図7のステップ26で絞り込んだ結果を基に、ステップ27と28で壁としての妥当性を確認する。
まずステップ27においては、壁の厚みWeがその最大値 Wmax(例えば30cm)を超えているか否かを判断し、超えている時は壁の認識不明として次の半間先の解析に移るためステップ34に進む。超えていなければステップ28へ進み、壁の厚みWeが最小値Wmin(例えば2.5cm)未満か否かを判断する。
【0085】
その結果、壁の厚みWeが最小値 Wmin未満の場合はステップ30へ進み、そうでない時はステップ29に進む。ステップ30においては壁以外のピーク(例えば、畳,窓,引戸など)を認識したものとしてその情報を得る。
ステップ29においては、壁の候補となる領域から、壁としての条件を満たすかどうかを後述する2等分割探索法によって判定し、壁だと認識できたものについて、ステップ31において当該壁の両面の位置W1,W2及び厚みWeなどの情報を退避(記憶)してステップ32に進む。
【0086】
ステップ29で壁としての条件を満たさなければステップ32に移行する。ステップ32においては、壁の両面位置(座標)W1及びW2が共に現在処理を行なっている領域の内側かどうかを判定し、内側であればステップ33に進む。そうでなければステップ34に移行する。
【0087】
ステップ33では、現在の処理領域を細分化し、新しい細分領域を示す境界データとして、W1,W2,Weを退避(記憶)する。また、(W1+W2)/2 がその壁の芯線位置である。ステップ34では、次の半間先の処理を行なうために大ループの回数カウンタのカウント値iを+1してから、ステップ23に戻って上述の処理を繰り返し行なう。
【0088】
このようにして、対象となる黒ドット数計測配列データの一端(先頭要素)から半間毎に解析処理し、反対の端まで解析が終われば、今回の範囲の解析を終了する。水平方向と垂直方向の2方向のを黒ドット数計測配列データに対して別々に解析し、次回の解析範囲は、今回の解析で壁と認識できた範囲に限定する。
そのため、水平及び垂直方向の黒ドット数計測配列データを解析した結果を組み合わせて、総当たりの場合分けを行なう。
【0089】
この実施例では、壁の芯線位置は隣の壁との間隔が半間単位の整数倍になるように配置されているとみなす。
そして、特徴的なピークが発見できる範囲までを解析データとして有効に使用する。逆に云えば、解析対象とするある範囲内に壁に相当する特徴が、水平方向及び垂直方向の両方合わせても一つも発見できなかったときは解析を終了する。1回の解析範囲は、最初は図面全体を対象にし、以後発見された壁で区切られた範囲に限定し直す方法をとって、壁のピークが発見されやすくし、且つ細部までの解析が容易になるようにする。
【0090】
次に、図7のステップ29において「壁としての条件を満たすか」を判断する2等分割探索法について、図8のフロー図によって説明する。
この図8に示すフローの処理を開始すると、まずステップ41において、2等分割探索法の初期設定を行なう。
すなわち、壁分析のための領域分割要素数nを1にし、壁部か非壁部かが未確定である分割要素の配列要素の最も小さいNo.を指すkを0に、また、調査領域の分割配列要素として、S〔0〕,E〔0〕それぞれに入力のスタート及びエンド画像アドレスを代入して初期設定とする。
【0091】
その後、ステップ42に進み、調査領域の開始アドレスS〔k〕と終了アドレスE〔k〕が等しければステップ53に移行し、等しくなければステップ43に進む。ステップ43においてはイメージ画像データの対象領域の分割処理を行ない、元の領域を小数以下の誤差を除いて2等分割する。
【0092】
すなわち、分割する前半の領域のスタート及びエンド画像アドレスS1,E1を、S1=S〔k〕,E1=(1/2)(S〔k〕+E〔k〕)とし、後半の領域のスタート及びエンド画像アドレスS2,E2を、S2=(1/2)(S〔k〕+E〔k〕)+1,E2=E〔k〕とする。
【0093】
それによって、例えば図24に示すように、建設図面のイメージ画像データ中において、壁候補が存在する線(一点鎖線で示す)の元の領域幅を最初は1の位置で2等分割する。その後壁の有無を判別できるまで、順次図24に示す位置2で2回目、3の位置で3回目、4の位置で4回目というように2等分割を繰り返して細分化した領域でステップ44及び45の壁調査を行なうようにする。
ステップ44及び45においては、2等分割したそれぞれの領域P1,P2が壁で満たされているかどうかを調査し、ステップ46に進む。
【0094】
ここでは、指定された領域(スタートアドレスからエンドアドレスまで)の黒ドット数計測配列データを分析した結果、黒ドットのピーク(壁の厚みの広がりを保って)高さが、指定された領域の幅(長さ)と比較して次の▲1▼〜▲3▼の判断をする。
【0095】
▲1▼:5%以下のとき、 v=0:非壁部と判断
▲2▼:95%以上のとき、v=1:壁部と判断
▲3▼:上記以外のとき、 v=2:どちらとも判断できない
これを図に示すと図25に▲1▼,▲2▼,▲3▼で示すようになる。
【0096】
ステップ46においては、ステップ43で分割された前半の領域P1について、壁が存在するかどうか判断できない(v=2)場合はステップ47に進み、そうでなければステップ49に進む。ステップ47においては、ステップ43によって分割する前の領域範囲の格納配列要素S〔k〕,E〔k〕,v〔k〕を、ステップ43で分割された後半の領域データ(スタート及びエンド画像アドレスS2,E2と判定結果v2)で置き換える。
【0097】
ステップ48においては、新しい格納配列要素S〔n〕,E〔n〕,v〔n〕として、ステップ43で分割された前半の領域データ(スタート及びエンド画像アドレスS1,E1と判定結果v1)を退避し、ステップ51に移行する。
ステップ49においては、ステップ43によって分割する前の領域範囲の格納配列要素S〔k〕,E〔k〕,v〔k〕を、ステップ43で分割された前半の領域データ(スタート及びエンド画像アドレスS1,E1と判定結果v1)で置き換える。
【0098】
ステップ50においては、新しい格納配列要素S〔n〕,E〔n〕,v〔n〕として、ステップ43で分割された後半の領域データ(スタート及びエンド画像アドレスS2,E2と判定結果v2)を退避し、ステップ51に移行する。
ステップ51では、領域アドレスの新しい格納配列要素を示せるように新しい格納配列要素No.を示す変数nを+1してから、ステップ52に進む。
【0099】
ステップ52においては、壁部か非壁部かが未確定である分割要素の最も小さいNo.を指すk要素内の分類コードvが壁が存在するかどうか判らない内容(v=2)の場合は、ステップ42に戻って更に細分割する処理を繰り返す。そうでない場合はステップ53に進む。
ステップ53では、壁が存在するかどうか判らない内容が一つ解決したとして、その指標kを+1してからステップ54に進む。
【0100】
ステップ54においては、壁分析のための領域分割要素数nと、壁部か非壁部かが未確定である分割要素の配列要素の最も小さいNo.を指すkとが、等しくなっているかどうか判定し、等しければ壁認識のための分割処理が終了したと判断してステップ55へ進む。等しくなければステップ52へ戻る。
【0101】
ステップ55においては、分割された領域アドレス・データ(配列)が上昇順に並ぶよう、スタートアドレス順(昇順)にソートを実行してステップ56に移行する。すなわち、S〔0〕〜S〔n−1〕,E〔0〕〜E〔n−1〕,v〔0〕〜v〔n−1〕のデータをS〔 〕をキーにして昇順にソートする。
【0102】
ステップ56においては、壁部分及び非壁部分が連続している場合は、それぞれ縮退処理(一つの範囲で表現)して終了する。すなわち、連続したv〔 〕値が0又は1の状態の場合は、S〔 〕,E〔 〕データを圧縮する。
なお、この時に、壁が存在するかどうか判らない内容(v=2)の配列要素を含む場合は、その要素の前後の要素が壁を示している場合には壁データに変更し、また、非壁を示している場合には非壁データに変更して処理する。
【0103】
上述した二等分割探索処理による画像データ中の壁位置の分析例を図26に示す。この図26の(a)には壁のイメージ画像(斜線を施した部分)Wとその調査対象領域を破線で示しており、この調査領域は先に認識された壁候補の存在位置に沿って設定される。そして、S〔0〕=0がその調査領域の最初のスタートアドレス、E〔0〕=15が最初のエンドアドレスである。4,5,7等の途中の数字は分割後の対象領域のスタート又はエンドアドレス(いずれも画像アドレス)である。
【0104】
図26の(b)には変数n=1〜10の各調査段階における各対象領域のスタートアドレスS,エンドアドレスE,及び壁の有無に関する判断結果vとその確定状況、ソート状況、並びに縮退処理結果をkの値と共に示している。そして、最終的には画像アドレス5〜12に壁が存在することを認識している。
【0105】
次に、図27によって簡単な建築図面の壁認識例を説明する。
この図27には、ネスト変数(nest)と、領域分割状態と認識された実際の壁の状態とを示している。
まず、ネスト変数=0で建築図面の全体を壁位置の調査対象として壁の抽出を行なう。その結果(A)に実線で示すように建築図面の家屋部の輪郭と水平及び垂直方向の壁候補の位置を認識できたとする。しかし、その認識できた壁候補のうち実際の壁は(a)に示す部分だけであるが、それはまだ判らない。
【0106】
そこで次に、ネスト変数=1にして、(A)に示す認識できた壁候補の芯線で区切られた各矩形領域毎に調査対象領域を限定して壁の抽出を行なう。それによって(B)に▲1▼,▲2▼,▲3▼,▲4▼で示す4つの調査対象領域で新たに太線で示す壁候補が認識されると共に、先に認識された壁候補のうち、実際の壁は(a)に示された部分だけであったことが確認され、(b)に示す壁の状態が認識される。
【0107】
さらに、ネスト変数=2にして、(B)において新たな壁候補が認識された4つの領域▲1▼〜▲4▼をそれぞれその新たに認識された壁によって分割して、調査対象領域をさらに限定して壁の抽出を行なう。それによって、(C)に▲5▼,▲6▼で示す2つの調査対象領域で新たに太線で示す壁候補が認識され、(c)に示す壁の状態が認識される。
【0108】
その後、ネスト変数=3にして、(C)において新たな壁候補が認識された2つの領域▲5▼,▲6▼をそれぞれその新たに認識された壁によって分割して、調査対象領域をさらに限定して壁の抽出を行なう。その結果いずれの分割領域でも新たな壁候補を抽出できなかった場合には、それによって壁位置の調査を終了し、(c)に示す壁位置が最終的な壁認識結果であることが確定し、そのデータをメモリに格納する。
【0109】
このように、分割した各調査対象領域のいずれでも新たな壁候補が抽出されなくなるまで、調査対象領域を細分化して壁の抽出を行なう。それによって、小さな壁でも確実に認識することができ、且つ壁候補のうち実際には壁が存在する部分と存在しない部分とを正確に判別することができる。
【0110】
ここでさらに、前述した図6のフローチャートに従った具体的な建設図面の認識処理手順の例を、図28乃至図30によって説明する。図28乃至図30は一連の図であるが、図示の都合上3枚の図に分割して示している。これらの図におけるS3〜S17は、図6のS3〜S17の各ステップに対応している。また、各段階での領域分割図と実壁状態も図示している。
【0111】
以下の説明ではステップを「S」と略称する。図28のS3で図面全体を調査対象とし、S4でネスト変数を0にする。S5で調査対象の限定を行なうがネスト変数が0なのでやはり図面全体を調査対象とする。S6〜S7で水平方向の黒ドット数計測配列データを作成して壁を抽出するが、輪郭以外の壁を発見できず、S8〜S9で垂直方向の黒ドット数計測配列データを作成して壁を抽出し、輪郭以外の壁を2か所に発見する。したがって、S10でYESになり、S11でネスト変数を1にし、S12で領域の細分化(各壁の位置で)をしてS5へ戻り、調査対象領域を一番左の領域に限定する。
【0112】
そして、S6〜S7で壁を2か所に発見し、S8〜S9では壁を発見できなかったがS10ではYESになり、S11でネスト変数を2にして「入れ子処理」を、図29のS14でNOになり入れ子処理を終了するまで繰り返し実行し、左側の縦長の領域を新たに発見された2つの壁によって区切った3つの分割領域に対して、順次壁の抽出処理を行なう。
【0113】
この例ではそれによって新たな壁は発見されず、図29のS16でネスト変数を−1して1に戻し、真中の縦長の領域を調査対象領域として同様に壁の抽出を行なうが、この例では新たな壁候補は発見されない。
そこで、S15,S5で右側の縦長の領域に調査対象領域を変更し、S6〜S7で壁を1ケ所発見する。
【0114】
そこで、図30のS10でYESになり、S11でネスト変数を2にして「入れ子処理」を開始し、右側の縦長の領域を新たに発見された壁によって分割し、その各分割領の壁抽出処理を順次行なう。その結果、いずれの分割領域でも新たな壁は発見されず、S13でNOになり入れ子処理を終了し、S16でネスト変数を−1して1にするが、ネスト変数1の領域は残っていないので、さらにネスト変数を0に戻すが、その領域も残っていない。そのため、壁抽出の処理は完了したと判断し、S17で抽出された壁候補の認識データにより各壁の位置及びサイズを確定し、そのデータをメモリに格納する。
【0115】
次に、上述のようにして認識した建築図面の輪郭及び骨格に相当する壁の位置及びサイズ等の情報(解析結果データ)を図1に示したメモリ4及び外部記憶装置11の記憶媒体に格納する内容の一例について、図31によって説明する。
図31において、(A)はネスト数、(B)は固有ネスト情報、(C)水平方向の壁情報、(D)は垂直方向の壁情報、(E)は水平な壁のモデル、(F)は垂直な壁のモデルを示す。
【0116】
ネスト数は、子ネストポインタの入れ子(親子関係)の深さを示し、壁が全然認識されなかった場合は、ネスト数=0である。
固有ネスト情報は、ネストNo.,NEXT兄弟ポインタ,子ネストポインタ,壁数(水平方向及び垂直方向),壁情報ポインタ(水平方向及び垂直方向)からなる。
【0117】
NEXT兄弟ポインタは、同時階層ネスト情報の次のアドレスを持つ。したがって、このポインタが示す場所の固有ネスト情報内のネストNo.は、当該処理のものと同じ値である。
子ネストポインタは、一階層下の階層ネスト情報の先頭データのアドレスを持つ。したがって、このポインタが示す場所の固有ネスト情報内のネストNo.は、当該処理のものに+1した値である。
【0118】
(B)に示す固有ネスト情報中の水平方向の壁情報ポインタが示すアドレスを先頭アドレスとして、(C)に示す水平方向の壁情報が格納される。
その壁情報は、次の水平方向の壁情報の先頭アドレスの位置を示すNEXTポインタ、壁の始点座標(x座標:a,y座標:b)、壁の横(x方向)サイズ:c、壁の縦(y方向)サイズ:壁の厚みdからなる。これらのa〜dによって(E)に示す水平な壁のモデルを記憶し、またそれを再現することができる。
【0119】
同様に、固有ネスト情報中の垂直方向の壁情報ポインタが示すアドレスを先頭アドレスとして、(D)に示す垂直方向の壁情報が格納される。
その壁情報は、次の垂直方向の壁情報の先頭アドレスの位置を示すNEXTポインタ、壁の始点座標(x座標:e,y座標:f)、壁の縦(y方向)サイズ:g、壁の横(x方向)サイズ:壁の厚みhからなる。これらのe〜hによって(F)に示す垂直な壁のモデルを記憶し、またそれを再現することができる。
【0120】
ところで、実際の建築図面の画像データに対して、その図面全体を調査対象領域として水平方向及び垂直方向の黒ドット数計測配列データを作成した例を図20及び図21に示したが、その黒ドット数計測配列データに基づいて壁候補を認識した次の段階で、その図面の領域を認識した壁候補によって分割し、調査対象領域を限定した画像データに基づく水平及び垂直方向の黒ドット数計測配列データの作成例を、図32乃至図34に示す。
【0121】
図33及び図34は、図32よりさらに調査対象領域を細分化した例である。このようにして、新たな壁候補が発見されなくなるまで、調査対象領域を細分化して、その画像データによる水平及び垂直方向の黒ドット数計測配列データを作成し、壁の抽出を行なう。
【0122】
なお、この実施形態ではポジ画像の建築図面を認識対象としたので、その2値化した画像データの水平及び垂直方向の黒ドット数を計測(カウント)して黒ドット数計測配列データを作成したが、ネガ画像の建築図面を認識対象とする場合には、その2値化した画像データの水平及び垂直方向の白ドット数を計測(カウント)して白ドット数計測配列データを作成すれば、壁の認識を同様に行なうことができる。
【0123】
また、上述のようにして認識した建築図面の輪郭及び骨格に関する認識データは、CAD用ベクトルデータに変換をすることができ、異機種間のCADデータの互換性を得ることができる。
【0124】
次に、図5のステップHによる和室モデル・位置付け決定およびマッチングについて説明する。図9はその処理のサブルーチンの内容を示すフロー図である。
このサブルーチンは、図1における和室認識部13により実行される。
ところで、図13に和室調査開始点の例を示すように、和室は総て矩形領域内の畳の敷き方で判断できるので、その矩形の四隅の角から和室(畳敷き)モデルパターンとのマッチングを開始する方法(▲1▼〜▲4▼の4箇所をそれぞれ開始点にした調査)を取る。
【0125】
図9の処理を開始すると、まずステップ71において、調査対象領域の和室矩形との位置付け設定位置カウンタのカウント値uの初期設定(u←1)を行う。このカウント値「u」は前述の図13に示した和室調査開始点▲1▼〜▲4▼の数に相当する。
そして、ステップ72においてカウント値uが矩形内の角の個数4を超えた(u>4)かどうかを判定する。超えていれば、当該図面の解析を終了してリターンする。超えていなければ、ステップ73に進んで当該u番目の角を開始点にして、ステップ74〜ステップ80で和室モデルとのマッチング処理を行う。
【0126】
ステップ74では、和室モデルパターン・カウンタのカウント値tの初期設定(t←1)を行う。
ステップ75において、カウント値tが和室(畳敷き)モデルパターン数を超えた(t>和室モデルパターン数)かどうかを判定する。超えていれば当該u番目の角を開始点にした和室モデルパターンとのマッチングを終了し、ステップ81に移行する。超えていなければ、ステップ76に進んでt番目の和室モデルを特定パターンとして選択して、ステップ77〜ステップ79の和室(畳敷き)特定パターンのマッチング処理を行う。
【0127】
和室(畳敷き)モデルパターン数は、例えば、前述した図15に示した例では、(A)の4帖の場合は8個、(B)の4.5帖の場合は10個などを総て合計した数で30個になる。
次に、ステップ77では特定された和室(畳敷き)モデルパターンとのマッチングを行うために、サブルーチンを実行する。
【0128】
続いて、ステップ78では、その和室(畳敷き)特定パターンとのマッチングを行なうサブルーチンの処理結果Mが1(当該調査開始点uからt番目の和室モデルでマッチング成功)かどうかを判定する。Mが1であれば、ステップ79において、当該調査開始点uからt番目の和室モデルに相当する和室を発見(認識)したとみなして、関連(認識)情報を取得する。Mが1でなければ、和室が発見できなかったとみなして、ステップ80に移行する。
【0129】
ステップ80では、次の和室モデルパターンとのマッチング処理をするために、和室モデルパターン・カウンタのカウント値tを+1してから、ステップ75に戻って上述の処理を繰り返し行う。
【0130】
ステップ81では、和室モデルパターンとのマッチング処理するための和室矩形領域内の次の角を開始点にするために、調査対象領域の和室矩形との位置付け,設定位置カウンタのカウント値uを+1してから、ステップ72に戻って上述の処理を繰り返し行う。
以上のステップ71〜ステップ81までの処理を行って認識(マッチングした総ての和室情報)した情報を上位ルーチンにリターンする。
【0131】
次に、上記ステップ77による和室(畳敷き)モデル特定パターンとのマッチングについて説明する。図10はその処理のサブルーチンの内容を示すフロー図である。
このサブルーチンも、図1における和室認識部13により実行される。和室(畳敷き)認識は総て畳の認識の積み重ねで実現できるので、当該特定和室の畳敷きモデルパターンの各畳毎に分解した認識が実現できるかどうかで、当該和室としてみなすべきかどうかを判断する。
【0132】
まず、ステップ91において、調査対象畳数nに当該特定の和室の畳数を設定(初期設定)する。また、ステップ92では、調査対象畳数カウンタj及び畳の「縁」認識カウンタR1と畳の「原」認識カウンタR2のカウント値をそれぞれ初期設定(j←1,R1←0,R2←0)する。
ここで、畳の「縁」とは、図14の(a)に示す半帖畳および(b)に示す通常畳の周囲の▲1▼〜▲4▼の線を云う。「原」とは、その縁に囲まれた面(図14ではHで示す面)を云う。
【0133】
そして、ステップ93において調査対象畳数カウント値jが調査対象畳数nを超えた(j>n)かどうかを判定する。超えていれば当該和室モデルの解析を終了し、ステップ98に移行する。超えていなければステップ94に進んで当該j番目の畳について位置と向き情報を得て、ステップ95〜ステップ97の畳モデルとのマッチング処理を行う。
【0134】
ステップ95では、個々の畳領域の認識を行うサブルーチンを実行する。
ステップ96においては、ステップ95のサブルーチンの認識実行結果として得られた畳の「縁」認識カウンタ値r1 及び畳の「原」認識カウンタ値r2 のそれぞれをその集計値R1及びR2にそれぞれ加える。続いてステップ97では、次の畳領域を認識処理するために、調査対象畳数カウント値jを+1してから、ステップ93に戻って上述の処理を繰り返し行う。
【0135】
次にステップ98では、その特定和室(畳敷き)の全畳パターンの「縁」のマッチング結果(R1/n)が総合的に基準値以上(総合的にマッチング成功:R1/n≧畳「縁」基準値)かどうかを判定する。基準値以上であれば、次の畳の「原」の判定処理のステップ99に移行する。基準値を満たしていなければ、当該和室としての認識が出来なかったとみなしてステップ101に移行する。
【0136】
同様に、ステップ99では、その特定和室(畳敷き)の全畳パターンの「原」のマッチング結果(R2/n)が総合的に基準値以上(総合的にマッチング成功:R2/n≧畳「原」基準値)かどうかを判定する。基準値以上であれば、当該和室としての認識が出来たとみなしてステップ100に移行する。基準値を満たしていなければ、当該和室としての認識が出来なかったとしてステップ101に移行する。
【0137】
以上のように、畳の「縁」と「原」の両方の認識がそれぞれの基準値以上を満たしていなければ、認識できないものとする。
ステップ100では、当該特定和室が当たり(発見された)として、リターン値Mに1を設定する。
また、ステップ101では、当該特定和室がハズレ(発見されなかった)として、リターン値Mに0を設定する。
以上のステップ91〜ステップ101までの処理を行ってマッチングした結果情報を上位ルーチンにリターンする。
【0138】
次に、上記ステップ95による個々の畳領域の認識について説明する。図11はその処理のサブルーチンの内容を示すフロー図である。
このサブルーチンも、図1における和室認識部13により実行される。和室(畳敷き)認識は総て畳の認識の積み重ねで実現できるので、当該特定和室の畳敷きモデルパターンの各畳毎に分解した認識が実現できるかどうかで、当該和室としてみなすべきかどうかを判断するが、このサブルーチンでは個々の畳の妥当性を判断する。
【0139】
畳の形は、図14に示したように、(b)の通常の畳1枚は、ほぼ(1単位長×2単位長≒半間長×1間長)の矩形をしており、また(a)の半帖畳1枚は、ほぼ(1単位長×1単位長≒半間長×半間長)の正方形をしているので、正確にはそれぞれに合わせたマッチングにする必要がある。
正常な畳1枚であれば、矩形又は正方形の輪郭に黒ドットの直線(「縁」と称する)が存在し(二重線になっていることもある)、「縁」を除いた内部には白ドットを中心にした領域(「原」と称する)が存在する。
【0140】
そこで、図11の処理を開始すると、まずステップ110において調査対象畳1枚内の「縁」の番号を示すカウンタのカウント値iを初期設定(i←1)する。また、ステップ111では、調査対象畳1枚内の「縁」の認識カウンタr1 を初期設定(r1←0)する。
【0141】
そして、ステップ112において調査対象畳1枚内の「縁」の番号を示すカウンタiが最大値(1矩形の辺数)を超えた(i>4)かどうかを判定する。超えていれば、当該畳の「縁」の解析を終了し、ステップ116に移行する。超えていなければ、ステップ113〜ステップ115の特定畳の特定「縁」の認識処理を実行する。
【0142】
ステップ113で当該i番目の畳の「縁」が存在するかどうか判定する。存在すれば、ステップ114で調査対象畳1枚内の「縁」の認識カウンタr1 を+1して、ステップ115に移行する。存在しなければ、ステップ115に直接移行する。ステップ115では調査対象畳1枚内の「縁」の番号を示すカウンタiを+1してから、ステップ112に戻って上述の処理を繰り返す。
【0143】
次にステップ116では、上述の処理で求まった調査対象畳1枚内の「縁」の認識カウンタr1の値を正規化する(r1の内容を(r1/4)*100)で置換える)。正規化とは、認識用カウント値r1 を認識率として平均化し、%で表現することを表す。
続いて、ステップ117〜ステップ119では、個々の調査対象畳1枚内の「原」の認識を行う。
【0144】
まず、ステップ117にて、調査対象畳1枚内に「原」が存在するかどうかを判定する。「原」が存在すれば、ステップ119で、調査対象畳1枚内の「原」の認識カウンタr2 に100を代入し、当該調査対象畳1枚内に「原」が100%存在することを表す。ステップ119の後は上位ルーチンにリターンする。また、「原」が存在しなければ、ステップ118で、調査対象畳1枚内の「原」の認識カウンタr2 に0を代入し、当該調査対象畳1枚内に「原」が0%存在することを表す。ステップ118の後も上位ルーチンにリターンする。
【0145】
以上のステップ110〜ステップ119までの処理を行って認識した結果情報を上位ルーチンにリターンする。
【0146】
図9に示した「和室モデル・位置付け決定&マッチング処理」のサブルーチンの役目は、与えられた矩形の調査領域を4角から調べ、その矩形の内部が和室か否かを判定することである。
具体的には、下位ルーチンに予め持っている和室データベースの各モデルパターンと、入力した建築図面の画像データから認識した和室調査領域のある角からの画像データのパターンと対比させ、一致した場合は和室を発見したとメインルーチンに伝える。
【0147】
一つの角について和室データベースの全てのモデルパターンと対比させ、全てのパターンとの比較が終わったら次の角について調べる。これを4角すべてについて行えば、和室が矩形の調査領域の外縁のどこかに接する形で存在する限り、必ず見付けることができるはずである。
【0148】
図10に示した「和室(畳敷き)モデルパターンとのマッチング処理」のサブルーチンの役目は、調査対象の矩形領域の与えられた角からの画像データと、与えられた和室データベースのデータとを照らし合わせ、角からの画像データが和室のパターンに一致するか否かを調べることである。
具体的には、与えられたデータベースからの畳情報より、一つ一つの畳に相当する画像があるか否かを下位のルーチンに調べさせ、ある基準以上の「縁」と「原」がデータベースと一致した場合に、当該矩形領域の画像は和室データベースの当該和室のデータと一致するという情報を上位ルーチンに渡す。
【0149】
これをさらに詳細に説明すると、調査対象の矩形領域の与えられた角からの画像データのうちの一枚の畳部分に相当する画像と、和室データベースの比較する和室のモデルパターンの対応する一枚の畳部分の畳データとが一致するか否かを調べる。そして、畳の4本の「縁」のうち何本が一致したかを百分率で上位ルーチンに渡し、畳の平面部分である「原」があるかどうかも、同様に百分率で上位ルーチンに渡す。ここで、渡す値が百分率になっているのは、上位ルーチンでどれだけの「縁」と「原」が一致したかの評価するためである。
【0150】
ここで、このマッチング処理を図35及び図36に示す実例によって説明する。
ある閉ループから切り出された図35の(A)に示す矩形部があるとする。▲1▼〜▲4▼はその4角の番号を示す。
和室モデル・位置付け決定&マッチング処理では、和室(畳敷き)モデル特定パターンとのマッチング処理に際し、まず左上の角▲1▼を始点とする図35の(B)に示す左上部分の横長の4帖分の図形を、和室のモデルパターンの同図(C)に示す横長の4帖のモデルパターンと比較させる。
【0151】
これは、図15に示した各種モデルパターンのうちの最初のモデルパターンであり、左半部に縦に並べられた畳が2つあり、右半部に横に並べられた畳が2つある。そこで、図35の(B)に示した判定すべき領域に、それぞれの畳状の図形があるかどうかを、図10のステップ95の「個々の畳領域の認識処理」で調べさせる。
【0152】
最初に、図35の(C)のモデルパターンの畳T1と、それに対応する(B)の調査領域を比べる。すると、図36の(A)に太線で示す「縁」の2本だけがマッチしている。「原」は真中に余分な線(×を付して示す)があるので、「原」があるとは判定されない。ゆえに、和室(畳敷き)モデル特定パターンとのマッチング処理へ返される値は、r1=50、r2=0である。
【0153】
次に、図35の(C)のモデルパターンの畳T2と、それに対応する(B)の調査領域を比べる。この畳T2とマッチする部分は、図36の(B)に太線で示すように上下の2本の「縁」だけなので、返す値は前述と同じr1=50、r2=0である。
【0154】
次いで、図35の(C)のモデルパターンの畳T3と、それに対応する(B)の調査領域を比べると、両図形は図36の(C)に太線で示すように4本の「縁」が完全に一致し、「原」も一致するので、r1=100、r2=100となる。
最後の畳T4についての比較では、図36の(D)に太線で示すように2本の「縁」のみがマッチするので、畳T1の場合と同じ値が返される。
この結果、和室(畳敷き)モデル特定パターンとのマッチング処理において合計されたR1/nは62.5%、R2/nは25%となる。
【0155】
これにより、図35の(B)に示した領域が(C)に示した4帖のモデルパターンと一致していないと判断され、和室モデル・位置付け決定&マッチング処理にはM=0として値が返される。
このようにして、図15の(A)に示した7つのモデルパターンの全てとマッチング処理を行なうが、いずれもマッチしない。
【0156】
次に、図15の(B)に示す4.5帖の各モデルパターンと、それに対応する図35の(A)の角▲1▼を始点とする4.5帖分の図形と比べる。ここでも、同様にマッチするパターンはない。
【0157】
次に、図15の(C)に示す6帖の各モデルパターンと、それに対応する図35の(A)の角▲1▼を始点とする6帖分の図形と比べる。この場合は、一つ目のモデルパターンにある畳の各「縁」および「原」のすべてがマッチするので、和室モデル・位置付け決定&マッチング処理は6帖の場合一つ目のパターンの和室が存在したとメインルーチンへ返す。
【0158】
引き続き全てのモデルパターンに対して、図35の(A)に示した矩形領域の図形との比較が行われ、もう一つ、図15の(D)に示す8帖の一つ目のモデルパターンともマッチする。したがってマッチが重複するが、最終的に帖数の多い方が少ない方を内包していると考えられるので、メインルーチンでは一番帖数の大きい和室の認識結果を有効にする。
なお、和室モデル・位置付け決定&マッチング処理では、これらの処理が4角すべてから行われ、和室がどの角に接していても検出できるようになっている。
【0159】
この実施形態では、黒ドットからなる部分の輪郭から和室(畳敷き)に該当する大きさの矩形閉ループを抽出し、その矩形閉ループ毎に妥当性をチェックして、和室(畳敷き)認識を行う。その認識結果を図面全体の間取り(建具の認識と組み合わせて部屋の配置など)認識処理につなげることができる。
【0160】
この発明の実施形態によれば、矩形閉ループ領域毎の内部の水平及び垂直方向のドット数を計測することによって射影特徴を抽出し、それによって多少の途切れやノイズのある直線も認識処理を行なうので、次に示すような利点がある。
利点1:建築図面の輪郭及び骨格(壁など)を先に認識し、図面内の矩形を形成する角の一部が認識できれば、そこから大きさを勘案した矩形領域と、その中の「畳敷き」記述の認識を行うことによって、和室(畳敷き)の記述を確実に認識できる。
利点2:定規などを使用せずにフリーハンドで記述された図面でも、水平及び垂直方向に限らず斜め直線も含めて直線の揺らぎを相殺すると、矩形領域が水平及び垂直方向への正対性がよければ認識することができる。
【0161】
なお、手書き図面で家図面の正対方向のスキュー補正が困難な場合、手書き図面を方眼紙に記述して、スキュー補正はその方眼紙のマス目を利用して行なうようにするとよい。
また、やむをえず利用者の手作業に委ねる場合、スキャナ読込時にできるだけスキュー補正が不要な正対する図面を作成するように注意を促すマニュアルを添えるとよい。
【0162】
【発明の効果】
以上説明してきたように、この発明の建築図面認識方法及び認識装置によれば、従来正確な認識が困難であった線が途切れたり直線が多少傾いて記載された手書き図面や、青焼きなどの比較的コントラストが低い図面や、ノイズの多い図面あるいは古い建設図面など、記載状態や画質の悪い建築図面でも、簡単にその輪郭,骨格を形成する壁の認識及びその認識結果に基づく和室(畳敷き)の認識を精度よく行なうことができる。
【0163】
特に、最初に図面全体に対して認識した輪郭及び骨格に基づいて、その認識対象を細分化するようにその対象範囲を限定し、その範囲毎に建設図面のイメージ画像データの水平方向及び垂直方向の黒又は白ドットの数計測配列データを作成し、その両方向のドット数計測配列データに基づいて上記限定した各範囲内の建設図面の輪郭及び骨格を認識することを、新たな輪郭又は骨格を認識できなくなるまで繰り返すようにすれば、短い壁等の骨格をも確実に認識でき、且つ実際には存在しない部分の輪郭や骨格を誤認識する恐れもなくなる。それによって、壁に囲まれた和室の候補となる矩形の閉ループを確実に抽出することができる。
【0164】
また、その認識したデータをパソコンなどに取り込んで利用すれば、増改築の際の見取り図などの建設図面を容易且つ迅速に作成することが可能になる。
さらに、建設図面のイメージデータをランレングス符号化した画像データとしてFAX通信等によって入力し、その建設図面の輪郭及び骨格を認識することもできる。
【0165】
さらに、輪郭・骨格認識結果と和室の認識結果を表示することにより、その認識結果を確認し、確定することができる。その場合、入力した建築図面のイメージ画像データを認識結果と同時にあるいは選択的に表示することにより、その表示内容を比較検討して、誤認識箇所や認識できなかった部分を見つけることができる。入力したイメージ画像データと認識結果とを重ね合わせて表示すれば、誤認識箇所や認識できなかった部分の発見及びその修正が一層容易になる。
【図面の簡単な説明】
【図1】この発明による建設図面認識方法を実施する建築図面認識装置の一例の概略構成を示すブロック図である。
【図2】図1の表示部9における再マッピングされた認識結果の画像データの表示例を示す図である。
【図3】同じくスキュー補正された建築図面の入力画像データを認識結果の画像データと重ね合わせて表示した例を示す図である。
【図4】建築図面における外輪郭,外壁,内壁及び骨格の定義を説明するための図である。
【図5】図1に示した建築図面認識装置による建築図面認識処理のメインルーチンを示すフローチャートである。
【図6】図5におけるステップAの壁の位置認識処理のサブルーチンの詳細を示すフロー図である。
【図7】図6におけるステッブ7及び9の壁の抽出(認識)処理のサブルーチンのフロー図である。
【図8】図7のステップ29,31により壁を認識するための2等分探索法を実行処理するフロー図である。
【図9】図5におけるステップHの和室モデル・位置付け決定およびマッチングのサブルーチンの詳細を示すフロー図である。
【図10】図9におけるステップS77の和室(畳敷き)特定パターンとのマッチングのサブルーチンの詳細を示すフロー図である。
【図11】図10におけるステップS95の個々の畳領域の認識のサブルーチンの詳細を示すフロー図である。
【図12】図9の和室モデル・位置付け決定およびマッチングの処理を行なう閉ループとその角番号の例を示す図である。
【図13】同じく一般的な矩形の和室の調査開始点の説明図である。
【図14】半帖畳と通常畳(一帖畳)の縁と原の説明図である。
【図15】4帖から12帖の和室の畳敷きのモデルパターンを示す図である。
【図16】サンプルの建築図面のスキュー補正された入力画像データの表示例を示す図である。
【図17】図16の入力画像データから認識した壁の芯線による閉ループの認識結果の表示例を示す図である。
【図18】図5のステツプKにおいて畳領域を重複して認識するケースの組み合わせ例を示す説明図である。
【図19】図6の壁認識処理における調査対象領域内の壁候補とそれによる領域分割例及び壁候補によって細分化された領域群のネストNo.とその解析処理順序の一例を示す説明図である。
【図20】建築図面(家屋の間取り図)の画像データとその全領域から作成した水平及び垂直方向の黒ドット数計測配列データの具体例を示す図である。
【図21】同じくその他の具体例を示す図である。
【図22】図20の(c)に示した垂直方向の黒ドット数計測配列データを拡大して示す図である。
【図23】図7のステップ26におけるピークの両側又は片側に壁の両面を絞り込む処理の説明図である。
【図24】図8のステップ43における領域幅の分割処理の説明図である。
【図25】図8のステップ44,45における対象領域の壁調査による判断の説明図である。
【図26】図8に示した2等分割探索処理による壁のサンプル(壁候補)の分析例を示す説明図である。
【図27】この発明による簡単な建築図面の壁認識例の説明図である。
【図28】図5のフローチャートに従った具体的な建築図面の認識処理手順の例を示す説明図である。
【図29】図28の続きの説明図である。
【図30】図29の続きの説明図である。
【図31】解析結果データのメモリへの格納内容の一例を示す説明図である。
【図32】図20に示した建築図面の調査対象領域を限定した画像データとそれに基づく水平及び垂直方向の黒ドット数計測配列データの例を示す図である。
【図33】図32より調査対象領域をさらに限定した画像データとそれに基づく水平及び垂直方向の黒ドット数計測配列データの例を示す図である。
【図34】図32より調査対象領域をさらに限定した他の部分の画像データとそれに基づく水平及び垂直方向の黒ドット数計測配列データの例を示す図である。
【図35】和室(畳敷き)特定パターンとのマッチング処理の具体例を説明するための調査対象の矩形図形と和室データベースの4帖の最初のモデルパターンの例を示す説明図である。
【図36】同じくその畳1枚分毎のマッチング処理例を示す説明図である。
【符号の説明】
1:全体制御部(CPU) 2:画像読取部
3:通信制御部 4:メモリ
5:自動スキュー補正部
6:ドット数計測配列データ作成部
7:輪郭・骨格認識部 8:再マッピング制御部
9:表示部 10:操作入力部
11:外部記憶装置 12:印刷装置
13:和室認識部 14:バス[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a method for recognizing “Japanese-style rooms” in architectural drawings widely used in the construction industry, and a recognition apparatus therefor.
[0002]
[Prior art]
2. Description of the Related Art In recent years, it has been practiced to easily create architectural drawings of houses, buildings, etc. using a CAD system or the like, and to store the data for use in design changes or extension / renovation. However, the data of the architectural drawing is not compatible with the created system, and cannot be used due to the passage of time or change of contractor. In addition, when renovating a house, there were often only old architectural drawings drawn on paper, and it was necessary to redraw everything including the part that did not change the floor plan of the extension and renovation.
[0003]
Therefore, it is also attempted to read architectural drawings drawn on paper and recognize and store them as data that can be processed by a computer, but there is no special method or device for that purpose, and architectural drawings are read with an image scanner, The image data is input to a personal computer or the like, and line segment recognition or pattern recognition is performed using a general graphic recognition function. In addition, even if the automatic recognition function is somewhat incomplete, the basic diagram such as straight lines and arcs can be converted by raster-vector conversion even if the automatic recognition function is somewhat incomplete. Some are designed to be automatically recognized.
[0004]
[Problems to be solved by the invention]
However, such a conventional drawing recognition device requires a high level of operation knowledge and is limited to those who are used to personal computers and specialized operators, and for those involved in the industry who frequently use architectural drawings, It was by no means easy to use.
[0005]
In addition, although basic diagrams such as straight lines and arcs can be automatically recognized, it is possible to individually recognize graphic symbols (such as walls and pillars) that are unique to architectural drawings consisting of combinations of basic diagrams. There wasn't. For this reason, when recognizing the recognized drawing, it has to be performed for each line segment, which requires a lot of work.
[0006]
In addition, architectural drawings of houses and buildings used in the building industry are not uniform in thickness even if each line segment on the drawing looks as a continuous line of the same size to the human eye. The trajectory also fluctuates. Even if it should be a continuous line, it may be broken in some places. These imperfections are caused not only at the time of drawing, but also from aging of paper and errors at the time of reading. Therefore, for example, if the limit of the thickness that can be recognized as a line segment is too thin, it is recognized that the line segment is cut even if it is slightly faint. A thick line segment may be recognized as a rectangle.
[0007]
This is of course the quality of the original drawing, but there are many drawings with low contrast (so the black and white borders are not clear) as in the so-called blue printing drawing using photosensitive paper. Since this point appears on the surface, it is difficult to perform automatic recognition with high accuracy with a conventional drawing recognition apparatus, and it takes a lot of time to correct the correction, so it has hardly been put to practical use.
[0008]
By the way, in the architectural drawing of a house, a wall that divides the floor plan plays a central role in the drawing, and by recognizing which part in the drawing is the wall, it is possible to understand an approximate floor plan of the architectural drawing. Therefore, recognizing the position and length of the wall in the drawing is the most important matter in recognizing the architectural drawing.
[0009]
Furthermore, most architectural drawings are floor plans separated by horizontal and vertical walls. The first important key is whether or not the horizontal lines and vertical lines as the walls representing the outline and skeleton of the architectural drawing can be reliably recognized. The recognition of the “Japanese-style room” in the layout of Japanese architecture will be judged by whether or not a unique tatami mat can be recognized in the area surrounded by the wall after the wall recognition.
[0010]
However, the conventional method for recognizing walls and Japanese-style rooms using straight line recognition has the following problems.
(1) In the contour tracking method, if there are many spots or irregularities, it is recognized as a broken straight line, or is recognized as a straight line divided into two or three, and the edge line of the wall or tatami cannot be recognized accurately. It was.
(2) In the projection feature extraction method obtained from the frequency distribution of black or white dots, when finding a straight line in the horizontal and vertical directions, if the edge of the tatami is represented by a thickness and length close to the wall, the edge of the tatami In many cases, the line was mistakenly recognized as a partition such as a wall.
(3) Only by recognizing the wall using the projection feature extraction method obtained from the frequency distribution of black or white dots, recognition of the Japanese-style room could not be realized.
[0011]
The present invention has been made in view of the above points, and encodes image image data obtained by reading architectural drawings drawn on paper with noise, blurring, and broken lines such as blueprints, or the run length thereof. From the encoded image data, it is possible to recognize the outline and the skeleton corresponding to the wall, which is important information for knowing the layout of the architectural drawing, and the Japanese room based on the recognition result with high accuracy. For the purpose.
[0012]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides the following architectural drawing recognition method and architectural drawing recognition apparatus.
The architectural drawing recognition method according to the present invention recognizes the outline, skeleton (wall) and Japanese-style room of the architectural drawing in the following steps.
[0013]
(1) The number of black or white dots in the horizontal direction and the vertical direction of the image image data obtained by reading the image of the architectural drawing is measured to create horizontal and vertical dot number measurement array data (histogram).
(2) The outline and skeleton of the architectural drawing are recognized based on the created horizontal and vertical dot number measurement array data.
(3) Each area surrounded by a rectangular closed loop formed by the recognized contour and skeleton is selected as an investigation target area.
(4)Starting with at least one or more corners for each of the survey target areas, the image data corresponding to one tatami portion, and the tatami data corresponding to one tatami portion corresponding to a model pattern of a Japanese-style room held in advance. The matching process is performed for each of the above tatami mats to recognize the area of the Japanese-style room.
[0014]
  the above(4), The matching process is sequentially performed on the image portions corresponding to the model patterns, starting from the corners of the survey target areas. You should do it.
  the above(4In the case of recognizing a plurality of Japanese-style rooms with different numbers for the same investigation target area, it is preferable to validate only the recognition result for the Japanese-style room with the largest number.
[0015]
  The matching process in the step (4) is performed on the “edge” and “original” of the tatami for the image corresponding to one tatami portion of the investigation target area and the tatami data of one tatami portion of the model pattern. It is preferable to check the degree of coincidence.
[0016]
  The architectural drawing recognizing apparatus according to the present invention measures image data input means for inputting image image data obtained by reading an image of an architectural drawing, and the number of black or white dots in the horizontal and vertical directions of the image image data inputted by the means. Dot number measurement array data creating means for creating horizontal and vertical dot number measurement array data, and contours / skeletons for recognizing the outline and skeleton of architectural drawings based on the dot number measurement array data created by the means Recognition means;A means for selecting each area surrounded by a rectangular closed loop formed by the outline and the skeleton recognized by the outline / skeleton recognition means, and starting at least one corner for each of the investigation target areas As a point, matching processing between the image data corresponding to one tatami part and the tatami data of one tatami part corresponding to the model pattern of the Japanese-style room stored in advance is performed for each tatami part. Means for recognizing Japanese-style roomsAnd have.
[0017]
The image data input means may be an image reading means for reading an image of an architectural drawing and inputting the image image data.
[0018]
Alternatively, the image data input means isArchitectural drawingsAs the input of the encoded image data obtained by encoding the run length of the image image data obtained by reading the image of the image, the dot number measurement array data creating means generates the horizontal direction of the original image image data from the input encoded image data. Alternatively, the arrangement may be such that the number of black or white dots in the vertical direction is measured and the dot number measurement array data in the horizontal and vertical directions is created. In this case, the image data input unit may be an image data receiving unit that receives and inputs the encoded image data through communication.
[0019]
  Furthermore, in these architectural drawing recognition devices,For the matching process, the degree of coincidence between the “edge” and “original” of the tatami mat is determined for an image corresponding to one tatami mat portion of the investigation target area and the tatami mat data of one tatami mat portion of the model pattern. InvestigateGood.
[0020]
theseArchitectural drawingsThe recognition device may be provided with display means for displaying the result recognized by the contour / skeleton recognition means and the Japanese-style room recognition means.
The display means preferably has means for displaying the image data input by the image data input means simultaneously with the recognition result.
Further, the means for simultaneously displaying the image image data and the recognition result may be a means for displaying the image data and the recognition result in an overlapping manner.
[0021]
Or you may provide the display selection means to change the display content so that the image image data input by the said image data input means and the said recognition result may be displayed selectively.
Further, it is desirable to provide a recognition result confirmation means for confirming the recognition result by an operator and confirming the recognition result by an external instruction.
[0022]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be specifically described below with reference to the drawings.
FIG. 1 is a block diagram showing a schematic configuration of an example of an architectural drawing recognizing apparatus that implements an architectural drawing recognizing method according to the present invention, and shows a hardware configuration and a function of software processing by a microcomputer in a mixed manner.
[0023]
This apparatus includes an overall control unit 1, an image reading unit 2, a communication control unit 3, a memory 4, an automatic skew correction unit 5, a dot number measurement array data creation unit 6, a contour / skeleton recognition unit 7, a remapping control unit 8, The display unit 9, the operation input unit 10, the external storage device 11, the printing device 12, the Japanese-style room recognition unit 13, and a bus 14 that connects these units.
Note that an interface unit necessary between these units (or devices) and the bus 14 is not shown.
[0024]
The overall control unit 1 is a microcomputer (consisting of a CPU, ROM, RAM, etc., but is abbreviated as “CPU” as a representative) that controls the operation and function of the entire building drawing recognition apparatus, and is automatically skew-corrected. Each function of the unit 5 and the dot number measurement array data creation unit 6, the contour / skeleton recognition unit 7, the remapping control unit 8, and the Japanese-style room recognition unit 13 according to the present invention can also be realized by software processing of the CPU.
[0025]
The image reading unit 2 is an image data input unit that scans a set architectural drawing, reads the image, and inputs image image data. The image reading unit 2 includes a scanning optical system, an image sensor such as a CCD, and a drive circuit thereof. This is an image scanner. Also included is a circuit that binarizes the read image data at a predetermined resolution to produce white dot and black dot image data.
[0026]
The communication control unit 3 is an image data receiving unit that receives and inputs encoded image data in which image image data or its run length is encoded by communication from the outside instead of capturing image data from the image reading unit 2. At the same time, architectural drawing data recognized by this device can be transmitted to an external device. Specifically, it includes a FAX modem and personal computer communication control means.
[0027]
The memory 4 includes image data read by the image reading unit 2, image image data or encoded image data received by the communication control unit 3, image data skew-corrected by the automatic skew correction unit 5, and dot number measurement array The dot number measurement array data created by the data creation unit 6, the contour and skeleton recognition results recognized by the contour / skeleton recognition unit 7, the image data remapped by the remapping control unit 8, and the Japanese room recognition unit 13 It is a large-capacity RAM or a hard disk memory for storing recognized Japanese-style room recognition data.
[0028]
The automatic skew correction unit 5 is for adjusting the angle of the image data stored in the memory 4 to correct the horizontal and vertical line segment directions so as to coincide with the horizontal and vertical reference directions of the apparatus. The automatic skew correction technique can be used.
The image data corrected by the automatic skew correction unit 5 is stored in the memory 4 again.
[0029]
The dot number measurement array data creation unit 6 performs the automatic skew correction on the image image data or the encoded image data stored in the memory 4 and the image data remapped by the remapping control unit 8 described later. The image data is limited to two directions, the horizontal and vertical directions, and the number of black or white dots is measured (counted) in units of dot widths respectively. As a result, the horizontal and vertical dot number measurement array data (histogram) is obtained. This is dot number measurement array data creation means for creating and storing in the memory 4.
[0030]
In addition, when the architectural drawing read is a positive drawing (a drawing whose brightness is lower than the brightness of the ground), the number of black dots is measured, and when it is a negative drawing (a drawing whose brightness is higher than the brightness of the ground) Measure the number of white dots.
[0031]
The outline / skeleton recognition unit 7 recognizes the outline and skeleton of the architectural drawing based on the horizontal and vertical dot number measurement arrangement data created by the dot number measurement arrangement data creation unit 6, and particularly the position and length of the wall This is a contour / skeleton recognition means for extracting wall data such as thickness, thickness, type, etc. The details will be described later.
[0032]
In the reference dot number measurement array data, if wall recognition (extraction) is difficult or uncertain, a request for resetting the horizontal and vertical dot number measurement array data creation range in the drawing is sent to the overall control unit 1. The transmission range and the creation range are changed, and the dot number measurement array data creation unit 6 is made to create dot number measurement array data again.
[0033]
The remapping control unit 8 limits the range of the architectural drawing by the part recognized as the wall by the contour / skeleton recognition unit 7, re-maps the part in consideration of other recognition information, Image data for causing the dot number measurement array data creation unit 6 to create the dot number measurement array data again for each limited range is created. In this case, noise of the document or reading noise in the image reading unit 2 is also generated. Create the removed image data. This data is also stored in the memory 4.
[0034]
Based on the wall position recognized by the contour / skeleton recognition unit 7, the Japanese-style room recognition unit 13 applies black or white dots horizontally and partially to a part of the image data stored in the memory 4.Vertical directionThen, the projection feature is extracted, the dot number measurement array data creation unit 6 creates dot number measurement array data, and the analysis of the Japanese room (tatami mat) and the wall recognition are corrected. The recognized Japanese-style room information and wall information are stored in the memory 4 again. In other words, it is means for recognizing tatami mats by extracting the projection characteristics of black or white dots in the image image data, details of which will be described later.
[0035]
The display unit 9 is input from the image reading unit 2 or the communication control unit 3, and has the horizontal and vertical directions created by the image data of the architectural drawing skew-corrected by the automatic skew correction unit 5 and the dot number measurement array data creation unit 6. Black or white dot number measurement array data, wall data recognized by the contour / skeleton recognition unit 7, image data remapped by the remapping control unit 8, Japanese room data recognized by the Japanese room recognition unit 13, etc. For example, a CRT or a liquid crystal display is used.
[0036]
2 and 3 show examples of the display state of the screen 9a of the display unit 9, and FIG. 2 shows the outline and skeleton of the architectural drawing recognized by the contour / skeleton recognition unit 7 (in this example, the wall). It is a display example of image data (recognition result) obtained by remapping data by the remapping control unit 8. In this display example, the double solid line indicates both surfaces of the wall, and the thin line indicates the core line of the wall and its extension line.
[0037]
FIG. 3 shows an example in which the architectural drawing image data (input image data) skew-corrected by the automatic skew correction unit 5 and the wall image data, which is the remapped recognition result, are superimposed and displayed simultaneously. Show. In this case, the image data of the architectural drawing that has been skew-corrected is displayed in halftone so that both can be easily identified (shown in FIG. 3 as a stippled for convenience of illustration), and the recognition result of the wall Display image data with solid lines.
[0038]
Further, when the display unit 9 is a color display device, the distinguishability can be improved by changing and displaying the colors of both images. For example, the skew-corrected input image image data is light blue, and the recognition result image data is displayed in orange or green, so that the operator can easily identify the recognition result portion.
[0039]
Alternatively, the screen 9a of the display unit 9 can be divided and the skew-corrected input image image data and the recognition result image data can be displayed in comparison with the divided screens.
Alternatively, it is also possible to selectively display the input image image data subjected to skew correction and the image data of the recognition result remapped on the same screen. In that case, display selection means (keys or the like) may be provided in the operation input unit 10 described later.
[0040]
Further, the display unit 9 also displays a screen for the operator to confirm the recognition result. That is, the remapped image data of the recognition result is displayed, and a display such as “Are you sure about this recognition result? (YES / NO)” is performed. As a result, the operator can check whether the wall is correctly recognized.
[0041]
The operation input unit 10 is for inputting various operation instructions, function selection commands, editing data, and the like, and is a keyboard, a mouse, a touch panel, or the like.
The operation input unit 10 also has a function as display selection means, and can change the display state of the display unit 9 to a display state desired by the operator. For example, the input image data of the architectural drawing whose skew has been corrected and the image data of the recognition result that has been remapped can be superimposed and displayed by key operation, or only one of them can be selected and displayed.
[0042]
Further, the operation input unit 10 has an input means such as a key for inputting “YES” or “NO” information in response to the above display of “Are you sure about this recognition result? (YES / NO)”. . If “YES” is selected, the recognition process is terminated. If “NO” is selected, the process proceeds to a re-recognition process or a correction process. Thereby, the operator can confirm the content of the recognition result, and can confirm it.
[0043]
The external storage device 11 uses the input image data, the black dot number measurement array data created by the dot number measurement array data creation unit 6, the wall data recognized by the contour / skeleton recognition unit 7, and the remapping control unit 8. This is a storage device that stores image data of the remapped recognition result, Japanese-style room data recognized by the Japanese-style room recognition unit 13 and the like in a storage medium that can be taken out such as a floppy disk (FD) or a magneto-optical disk (OMD). .
The printing device 12 is a printer or plotter that prints or draws the various data described above on paper.
[0044]
The above-described various display functions of the display unit 9 and the display selection by the display unit 9 and the operation input unit 10 and the confirmation function of the recognition result have been described with reference to FIGS. The same applies when the recognition result is a Japanese-style room or a wall and a Japanese-style room.
Here, definitions of “contour” and “skeleton” and “outer wall” and “inner wall” in the construction drawings will be described with reference to Table 1, Table 2, and FIG.
[0045]
[Table 1]
Figure 0003961595
[0046]
[Table 2]
Figure 0003961595
[0047]
“Outline” means “outer contour”, and only the portion facing the outside of the outer peripheral wall as indicated by a circle in Table 1 (the outer line of the double line shown in FIG. 4A). The case 1 means a portion of (2) and the cases 2 and 3 mean the entire wall in contact with the outside (the portion indicated by a thick line in FIG. 4B).
[0048]
The “skeleton” means the case of cases 1 and 2 meaning all the walls (both shown by thick lines in FIGS. 4B and 4C) and the wall excluding the outer contour ((c) of FIG. ) Only case indicated by a bold line). In these definitions, unless otherwise specified, it is treated as the normal meaning of case 1.
[0049]
“Outer wall” means only the portion facing the outside of the outer peripheral wall as indicated by a circle in Table 2 (the portion indicated by the outer line of the double line shown in FIG. 4A). And the case 4 which means the entire wall in contact with the outside (the portion indicated by the bold line in FIG. 4B).
[0050]
The “inner wall” is a wall excluding the outer wall (wall = outer wall + inner wall) for both cases 4 and 5, as indicated by a circle in Table 2, but in the case of case 4, the double wall shown in FIG. The part inside the line and the part indicated by a thick line in FIG. 4C, and in the case of the case 5, the part indicated by the thick line in FIG. 4C. Even in these definitions, unless otherwise specified, it is treated as the normal meaning of case 5.
[0051]
Next, the procedure for recognizing architectural drawings (mainly architectural drawings of houses, buildings, etc.) by the architectural drawing recognition apparatus shown in FIG. 1 will be described with reference to the flowcharts of FIGS. . Each step is indicated by “S” in part of FIG. 5 and FIGS. In this embodiment, it is assumed that the architectural drawing to be recognized is a positive drawing.
FIG. 5 is a flowchart showing a main routine of the architectural drawing recognition process.
[0052]
When the processing of FIG. 5 is started, the architectural drawing set in the image reading unit 2 of FIG. 1 is read in step 1 and the image image data is input. In step 2, the automatic skew correction unit 5 automatically performs the skew. Correct.
Then, in the subroutine of step A, wall recognition processing is executed on the input image data by the dot number measurement array data creation unit 6, the contour / skeleton recognition unit 7 and the like. This process will be described in detail later. Note that data obtained by encoding image image data may be input from the communication control unit 3.
[0053]
Thereafter, the Japanese-style room recognition unit 13 performs closed loop extraction in the process of step B, and acquires data representing the number (m) of closed loops and the contours of the respective closed loops. This closed-loop extraction can be realized by conventional techniques.
In step C, in order to loop all the closed loops acquired in step B in order, initial setting (x ← 1) of the count value x of the closed loop counter which is the number counter is performed.
[0054]
In step D, it is determined whether the count value x of the closed loop counter exceeds the number m of closed loops (x> m). If so, the analysis of the drawing is terminated and the process proceeds to step K. If not exceeded, the Japanese-style room recognition process of Step E to Step I is performed for the x-th closed loop.
In step E, all the closed-loop corners are sequentially looped from the data representing the contour of the x-th closed loop acquired in step B. The count value y of the start point angle counter which is the number counter is changed. Perform initial setting (y ← 1).
For example, when the x-th closed loop has a shape as shown in FIG. 12, all corner portions indicated by corner numbers {circle around (1)} to {circle around (6)} are looped in order.
[0055]
In step F, it is determined whether or not the count value y of the start point angle counter exceeds the number of the corners forming the x-th closed loop (6 in the example of FIG. 12). If so, the analysis of the x-th closed loop is terminated and the process proceeds to Step J. If not exceeded, the tatami mat recognition process of Step G to Step H is performed for the y-th corner.
[0056]
In step G, the y-th corner of the x-th closed loop is selected as the starting point of the investigation target area, and the process of step H is performed. In the subroutine of Step H, the Japanese-style room model / positioning determination and matching processing are executed based on the starting point of the investigation target region selected in Step G, the scale value of the drawing, and the dot density. This process will be described in detail later.
[0057]
Subsequently, in step I, in order to select and recognize the next corner in the x-th closed loop as a starting point, the starting point angle counter y is incremented by 1, and then the processing returns to step F and the above processing is performed. Repeat.
Next, in step J, in order to recognize the next closed loop region, the closed loop counter x is incremented by 1, and then the process returns to step D to repeat the above processing.
[0058]
The recognition result of “Japanese-style room” recognized by performing the processes from Step D to Step J is output in Step K, and the process is terminated.
If the recognized tatami mat regions overlap, in step K, a sorting process for validating the larger number is performed. This is because there is a high possibility that the outermost wall of the tatami mat is erroneously recognized as a “wall” when it is recognized as a narrow Japanese-style room.
[0059]
FIGS. 15A to 15F show specific model patterns of Japanese-style tatami mats of 4 to 12 cm. This is based on the principle that “tatami mats have a“ T ”shape as a rule when straight lines formed by their edges are connected by multiple tatami mats when each tatami mat is regarded as a rectangle”. Lists the allowed ways to lay tatami mats.
For example, in the example of FIG. 15, (A) 4 帖 in the case of (A) the second horizontally long and (C) in the case of 6 帖 ( a) the second combination of landscape orientation, (b) the top combination of (C) 6 inches, (b) the second combination of (8) 8 inches, and the like.
[0060]
FIG. 16 shows the input sample (image image) of the architectural drawing used in the process of recognizing the core of the wall and extracting the closed loop from the result, and the remapping control unit 8 in FIG. It is a display example of the displayed image data.
FIG. 17 is a diagram illustrating an example of displaying a closed loop based on the recognition result of the core wire of the wall.
[0061]
  FIG. 18 is a content showing an example of a combination of cases in which the tatami area is recognized in duplicate in step K of FIG. Based on the recognition result of the input image data of the architectural drawing, the Japanese-style room (tatami mat) has 8 tiles (area with diagonal lines to the right) indicated by the outer outline a and 6 tiles (left diagonal lines) indicated by the inner outline b. It is shown that both areas are recognized by being overlapped. In such a case, it isRecognitionThis is because a line in which tatami edge lines continue in a straight line is mistakenly recognized as a partition such as a wall. Therefore, when Japanese-style rooms of different sizes are recognized in duplicate, the larger number is effective.
[0062]
In this way, by recognizing Japanese-style rooms (tatami mats), the floor plan recognition and partition (wall, etc.) recognition correction and recognition processing of architectural drawings that lead to conversion to CAD data are carried out in more detail and accurately. Can do.
[0063]
Next, the wall recognition process in step A of FIG. 5 will be described. FIG. 6 is a flowchart showing the contents of a subroutine of processing for recognizing the wall position.
First, in step 3, the entire image data that has been subjected to automatic skew correction is set as a wall position investigation target. In step 4, the nesting variable is 0 (initial value: meaning that the entire image is targeted). The “nested variable” represents a narrowing-down stage when the analysis range of the architectural drawing is narrowed down from the top down. The larger the value of the nested variable, the deeper the analysis (the more advanced the details).
[0064]
In step 5, processing for limiting the region to be investigated for the wall position is performed. Specifically, an instruction for the investigation area is shown immediately before this processing, and only preparation for the processing of the subsequent steps 6 to 9 (commonization of the interface) is performed here. The shape of each investigation target area is a rectangular diagram. Since the nesting variable is 0 at first, the entire drawing is examined.
[0065]
In step 6, horizontal black dot number measurement array data is created. This counts (measures) the number of black dots in the horizontal direction for each dot width in the vertical direction of the image data, and holds each count data.
Next, in step 7, wall extraction (recognition) processing is performed based on the horizontal black dot number measurement array data created in step 6. The processing procedure will be described later.
[0066]
In step 8, as in step 6, black dot count measurement array data in the vertical direction is created. That is, the number of black dots in the vertical direction is counted (measured) for each dot width in the horizontal direction of the image data, and each count data is held. In step 9, wall extraction (recognition) processing is performed based on the black dot count measurement array data in the vertical direction.
[0067]
In step 10, it is determined whether there is a wall candidate for dividing the region. If there is at least one wall candidate that divides the region in the horizontal or vertical direction, the process proceeds to step 11, and if there is no such wall candidate, the process proceeds to step 13.
For example, it is determined whether there is a wall candidate Wd that divides the region in the investigation target region Sa as shown in FIG.
In step 11, the nested variable is incremented by 1 and reset. This indicates that a wall is recognized from the current analysis region, and the analysis range is limited to a small region within the current region newly delimited using the wall.
[0068]
In step 12, the area to be investigated is subdivided. Specifically, the wall candidate core lines (center lines) recognized in step 7 and step 9 are areas indicated by the core lines indicated by the thin lines of the wall candidates W and Wd, for example, as shown in FIG. Divide into Sa1 and Sa2. Further, the investigation target is positioned in the first subdivided area (for example, the upper left area).
[0069]
The order of analysis in the newly subdivided area group does not require a special order. For example, it may be performed in the order of small x and y coordinate values of the area start position. It is done. FIG. 9B shows an example of the nest No. of each region subdivided by the wall candidate and the analysis processing order thereof, and the solid line indicates the core line (center line) of the wall candidate, and (1) and (2) , {Circle over (3)} indicate a nest No., and small numbers 1 to 8 indicate the processing order.
[0070]
Then, it returns to step 5 and repeats the above-mentioned process.
In step 10, if there is no wall candidate to divide the area, the process proceeds to step 13 to check whether there is any remaining homogeneous nest area (area of the same nest No. in FIG. 9B). to decide. If there is a remainder, the investigation target is advanced to the next area of the homogeneous nest in step 15 and the process returns to step 5.
[0071]
If there is no remaining homogeneous nest area, the process proceeds to step 14 to determine whether the nested variable is 0 or not. If the nesting variable is not 0, the nesting variable is decremented by -1 in step 16 and the process returns to the processing of the nesting area one level higher. In step 13, it is determined whether there is a remaining nesting area in that stage. If there is, the investigation object is advanced to the next nested area in step 15 and the process returns to step 5.
[0072]
If the nesting variable is 0 in step 14, the process proceeds to step 17 to determine the position and size of each wall based on the recognition data of the wall candidate for each area obtained in steps 7 and 9, and the wall The recognition data is stored in the memory 4. The storage method will be described later. Then, after the above processing, this subroutine is finished.
[0073]
Next, based on FIG. 7, the procedure of the wall extraction (recognition) processing in steps 7 and 9 of FIG. 6 will be described. Prior to that, the image data of the architectural drawing (house floor plan) and its entire area 20 and 21 show specific examples of horizontal and vertical black dot number measurement array data created from the above. In these drawings, (a) is architectural drawing image data, (b) is horizontal black dot number measurement array data, and (c) is vertical black dot number measurement array data. Further, the vertical black dot number measurement array data shown in FIG. 20C is enlarged and shown in FIG.
[0074]
In the architectural drawing of FIG. 20, the wall symbol is represented by both sides of the wall and the core wire, and in the architectural drawing of FIG. 21, the wall symbol is represented by a fill (black) within the wall thickness. .
In this black dot count measurement array data, the width of the thinnest black line is one dot width, and the length of each black line is horizontal or vertical for each dot width of the architectural drawing image data shown in (a). This corresponds to the count value of the number of black dots in the direction.
[0075]
As is clear from these figures, most of the line segments (90% or more) constituting the architectural drawing are drawn in the horizontal direction or the vertical direction, and the density of black dots is particularly high in the wall portion. . For this reason, in the black dot count measurement array data in the horizontal direction and the vertical direction, a peak appears at the position where the wall exists.
[0076]
Therefore, when the processing of the flow of FIG. 7 is started, first, in step 21, the direction crossing the specified direction (in the vertical direction if specifying the horizontal black dot number measurement array data creation, or in the vertical direction is specified). (In the horizontal direction), the number of times the wall recognition processing loop is possible at a predetermined interval corresponding to the standard unit length of the architectural drawing is confirmed. Here, in the case of a general house, this unit length is a half or 1 meter which is the minimum wall distance, and here it is a half (91 cm).
[0077]
For the horizontal black dot count measurement array data, the width L is set to a size slightly longer than the vertical image width, and for the vertical black dot count measurement array data, it is slightly larger than the horizontal image width. A long dimension is automatically set as a width size L.
In addition, the half size is set to h, and this value is determined by inputting scale data and half length of the drawing in advance or by automatic calculation by calculation.
The width size L and the half size are calculated from h to L / h, and the numerical value rounded up after the decimal point is set as the number n of executions of the large loop of the wall recognition processing. A range indicated by h in FIG. 22 is a processing range in one large loop.
[0078]
Next, in step 22, the count value i of the large loop number counter is initialized (i ← 1).
In step 23, it is determined whether or not the count value i of the number counter exceeds the number n of possible large loop executions (i> n). If so, the analysis of the area is terminated. If not, in step 24, the first analysis process within the i-th half is positioned at the highest peak (indicated by P in FIG. 22), and that point is designated xp. In this way, by performing the analysis process every half, the possibility that the peak value therein is a part of the wall is high.
[0079]
Next, in step 25, it is determined whether or not the height of the peak (maximum value), which is the first condition as the object of the wall, is equal to or greater than half (h). As a result, when the height of the peak is less than half, it is determined that the wall is unknown, and the process proceeds to step 34 in order to proceed to the next half-half ahead analysis. When the peak height is half or more, the process proceeds to the next analysis step 26. In this step 26, both the left and right sides (for example, 2 W width) are examined from the position of the highest peak, and the range of wall thickness (both positions: W1, W2) And thickness We = | W1-W2Narrow down │. Here, W means the wall thickness, and is used with the same value as Wmax, for example.
[0080]
As a method of narrowing down, the peak position on both ends or one side of the maximum peak position having a value of (maximum peak value-min) * rate + min or more is set to the position W1, W2Or, the highest peak position xp is the position W on one side of the wall.1The position W of the other surface when2There is a way to narrow down.
[0081]
FIG. 23 is an explanatory diagram of the narrowing-down process. FIG. 23A shows the positions W on both sides of the wall on both sides of the maximum peak position xp.1, W2This is an example in the case where exists. In this case, the highest peak position xp is estimated as a candidate for the wall core line position.
[0082]
FIG. 23B shows that the highest peak position xp is the position W of one surface of the wall.1 The position W of the other surface on one side2 This is an example in the case where exists. In this case, it can be estimated that the longer peak position is a candidate for the outer wall position of the outer contour indicated by a double line in FIG. 2, and the shorter peak adjacent thereto is a candidate for the inner wall position.
[0083]
Here, rate is set to be smaller in the first half of the analysis (when the value of the nested variable is small) and larger in the second half (when the value of the nested variable is large) (for example, initially rater = 0.70). As shown in FIG. 23 (c), min is the minimum value of the black dot number measurement data within the width of about 4W that extends to the left and right sides 2W of the position xp of the maximum peak P that is currently focused on.
[0084]
In this manner, the validity of the wall is confirmed in steps 27 and 28 based on the result narrowed down in step 26 of FIG.
First, in step 27, it is determined whether or not the wall thickness We exceeds the maximum value Wmax (for example, 30 cm). If it exceeds, the wall is unknown and the process proceeds to the next halfway analysis. Proceed to If not, the process proceeds to step 28 to determine whether or not the wall thickness We is less than the minimum value Wmin (for example, 2.5 cm).
[0085]
As a result, if the wall thickness We is less than the minimum value Wmin, the process proceeds to step 30; otherwise, the process proceeds to step 29. In step 30, the information is obtained on the assumption that peaks other than walls (for example, tatami mats, windows, sliding doors, etc.) are recognized.
In step 29, whether or not a wall condition is satisfied is determined from a candidate region of the wall by a bisection search method described later, and what can be recognized as a wall is determined on both sides of the wall in step 31. Position W1, W2Then, information such as the thickness We is saved (stored), and the process proceeds to Step 32.
[0086]
If the condition as a wall is not satisfied in step 29, the process proceeds to step 32. In step 32, the double-sided position (coordinates) W of the wall1And W2Are both inside the currently processed area, and if inside, proceed to step 33. Otherwise, go to step 34.
[0087]
In step 33, the current processing area is subdivided and the boundary data indicating the new subdivision area is defined as W1, W2, We are saved (stored). Also, (W1+ W2) / 2 is the core line position of the wall. In step 34, the count value i of the large loop number counter is incremented by 1 in order to perform the next halfway ahead process, and then the process returns to step 23 to repeat the above-described process.
[0088]
In this way, analysis processing is performed every half from one end (first element) of the target black dot number measurement array data, and when the analysis is completed up to the opposite end, the analysis of the current range is ended. The horizontal direction and the vertical direction are analyzed separately for the black dot count measurement array data, and the next analysis range is limited to a range that can be recognized as a wall in the current analysis.
Therefore, the round robin cases are divided by combining the results of analyzing the horizontal and vertical black dot count measurement array data.
[0089]
In this embodiment, it is considered that the core positions of the walls are arranged so that the interval between the adjacent walls is an integral multiple of a half-half unit.
The range up to which a characteristic peak can be found is effectively used as analysis data. In other words, if no feature corresponding to the wall within a certain range to be analyzed is found in both the horizontal direction and the vertical direction, the analysis is terminated. The analysis range for one time is the entire drawing at first, and then the method is limited to the range delimited by the walls that have been discovered, making it easy to find the peaks of the walls and to analyze the details in detail. To be.
[0090]
Next, the bisection search method for determining whether “the condition as a wall is satisfied” in step 29 of FIG. 7 will be described with reference to the flowchart of FIG.
When the processing of the flow shown in FIG. 8 is started, first, in step 41, an initial setting of the bisection search method is performed.
That is, the number n of area dividing elements for wall analysis is set to 1, k indicating the smallest No. of the array elements of the dividing elements whose wall or non-wall is undetermined is set to 0, and As the divided array elements, the input start and end image addresses are assigned to S [0] and E [0], respectively, to be initialized.
[0091]
Thereafter, the process proceeds to step 42. If the start address S [k] and the end address E [k] of the investigation area are equal, the process proceeds to step 53, and if not equal, the process proceeds to step 43. In step 43, the target region of the image image data is divided to divide the original region into two equal parts, excluding the decimal error.
[0092]
That is, the start and end image addresses S1 and E1 of the first half area to be divided are S1 = S [k], E1 = (1/2) (S [k] + E [k]), and the start and end of the second half area are set. The end image addresses S2 and E2 are set as S2 = (1/2) (S [k] + E [k]) + 1, E2 = E [k].
[0093]
Accordingly, as shown in FIG. 24, for example, in the image image data of the construction drawing, the original area width of the line where the wall candidate exists (indicated by the alternate long and short dash line) is divided into two equal parts at the first position. Then, until the presence or absence of the wall can be determined, step 44 and step 44 are repeated in the subdivision by repeating the second equal division, such as the second time at position 2 shown in FIG. 24, the third time at position 3, the fourth time at position 4, and so on. Do 45 wall surveys.
In steps 44 and 45, it is checked whether or not the regions P1 and P2 divided into two equal parts are filled with walls, and the process proceeds to step 46.
[0094]
Here, as a result of analyzing the black dot count measurement array data in the specified area (from the start address to the end address), the height of the black dot peak (maintaining the spread of the wall thickness) is the height of the specified area. Compared with the width (length), the following determinations (1) to (3) are made.
[0095]
(1): When 5% or less, v = 0: non-walled
(2): When 95% or more, v = 1: determined as a wall
(3): Other than the above, v = 2: Neither can be judged
This is shown in FIG. 25 by (1), (2), and (3).
[0096]
In step 46, if it is not possible to determine whether or not a wall exists in the first half region P1 divided in step 43 (v = 2), the process proceeds to step 47. Otherwise, the process proceeds to step 49. In step 47, the storage array elements S [k], E [k], v [k] in the area range before dividing in step 43 are used as the latter half area data (start and end image addresses divided in step 43). Replace with S2, E2 and determination result v2).
[0097]
In step 48, the first half area data (start and end image addresses S1, E1 and determination result v1) divided in step 43 are used as new storage array elements S [n], E [n], v [n]. Evacuate and proceed to step 51.
In step 49, the storage array elements S [k], E [k], v [k] in the area range before dividing in step 43 are used as the first half area data (start and end image addresses divided in step 43). Replace with S1, E1 and determination result v1).
[0098]
In step 50, the second half area data (start and end image addresses S2, E2 and determination result v2) divided in step 43 are used as new storage array elements S [n], E [n], v [n]. Evacuate and proceed to step 51.
In step 51, the variable n indicating the new storage array element No. is incremented by 1 so as to indicate the new storage array element of the area address, and then the process proceeds to step 52.
[0099]
In step 52, if the classification code v in the k element indicating the smallest No. of the divided elements whose wall or non-wall is undetermined is a content that does not know whether a wall exists (v = 2) Returns to step 42 and repeats the subdivision process. Otherwise, go to step 53.
In step 53, assuming that one content that does not know whether a wall exists is solved, the index k is incremented by 1, and then the process proceeds to step 54.
[0100]
In step 54, whether or not the number n of area dividing elements for wall analysis is equal to k indicating the smallest No. of the array elements of the dividing elements for which the wall portion or the non-wall portion is undetermined. If it is determined that they are equal, it is determined that the dividing process for wall recognition has been completed, and the process proceeds to step 55. If not equal, return to step 52.
[0101]
In step 55, sorting is performed in the order of start addresses (ascending order) so that the divided area address data (array) are arranged in ascending order, and the process proceeds to step 56. That is, the data of S [0] to S [n-1], E [0] to E [n-1], v [0] to v [n-1] is sorted in ascending order using S [] as a key. To do.
[0102]
In step 56, when the wall portion and the non-wall portion are continuous, the respective reduction processes (represented by one range) are performed, and the process ends. That is, when the continuous v [] values are 0 or 1, the S [], E [] data are compressed.
At this time, when an array element having contents (v = 2) that do not know whether a wall exists is included, if the elements before and after the element indicate a wall, change to wall data, If it indicates a non-wall, it is changed to non-wall data and processed.
[0103]
FIG. 26 shows an analysis example of the wall position in the image data by the above-described bisection search process. In FIG. 26 (a), a wall image (shaded portion) W and its investigation target area are indicated by broken lines, and this investigation area is located along the previously recognized position of the wall candidate. Is set. S [0] = 0 is the first start address of the investigation area, and E [0] = 15 is the first end address. Numbers in the middle of 4, 5, 7, etc. are start or end addresses (both are image addresses) of the target area after division.
[0104]
FIG. 26B shows the determination result v regarding the start address S, the end address E, and the presence / absence of the wall in each investigation stage of the variable n = 1 to 10, its determination status, sorting status, and degeneration processing. The results are shown together with the value of k. Finally, it is recognized that a wall exists at the image addresses 5 to 12.
[0105]
Next, a wall recognition example of a simple architectural drawing will be described with reference to FIG.
FIG. 27 shows a nested variable (nest) and an actual wall state recognized as an area division state.
First, with the nesting variable = 0, the entire architectural drawing is extracted as a wall position investigation target. As a result, it is assumed that the outline of the house part of the architectural drawing and the positions of the horizontal and vertical wall candidates can be recognized as indicated by a solid line in FIG. However, of the recognized wall candidates, the actual wall is only the part shown in FIG.
[0106]
Therefore, the nest variable = 1 is set, and the wall is extracted by limiting the investigation target area for each rectangular area divided by the core lines of the recognized wall candidates shown in FIG. As a result, a new wall candidate indicated by a thick line is recognized in the four investigation target areas indicated by (1), (2), (3), and (4) in (B), and the previously recognized wall candidates Of these, it is confirmed that the actual wall was only the part shown in (a), and the state of the wall shown in (b) is recognized.
[0107]
Further, with the nesting variable = 2, the four regions {circle around (1)} to {circle around (4)} in which the new wall candidates are recognized in (B) are divided by the newly recognized walls, respectively, and the investigation target region is further divided. Limited wall extraction. As a result, new wall candidates indicated by bold lines are recognized in the two investigation target areas indicated by (5) and (6) in (C), and the wall state shown in (c) is recognized.
[0108]
After that, the nested variable = 3 is set, and the two regions (5) and (6) in which the new wall candidate is recognized in (C) are divided by the newly recognized walls, respectively, and the investigation target region is further divided. Limited wall extraction. As a result, when a new wall candidate cannot be extracted in any of the divided regions, the wall position investigation is ended thereby, and it is determined that the wall position shown in (c) is the final wall recognition result. The data is stored in the memory.
[0109]
In this manner, the wall is extracted by subdividing the investigation target area until no new wall candidate is extracted in any of the divided investigation target areas. As a result, even a small wall can be reliably recognized, and a portion where a wall actually exists and a portion where a wall actually does not exist can be accurately determined.
[0110]
Here, an example of a concrete construction drawing recognition processing procedure according to the flowchart of FIG. 6 will be described with reference to FIGS. FIGS. 28 to 30 are a series of diagrams, but are divided into three diagrams for convenience of illustration. S3 to S17 in these drawings correspond to the steps S3 to S17 in FIG. In addition, an area division diagram and a real wall state at each stage are also illustrated.
[0111]
In the following description, step is abbreviated as “S”. In S3 of FIG. 28, the entire drawing is the object of investigation, and the nested variable is set to 0 in S4. Although the investigation target is limited in S5, since the nested variable is 0, the entire drawing is also the investigation target. In S6 to S7, a horizontal black dot number measurement array data is created and a wall is extracted, but a wall other than the outline cannot be found, and in S8 to S9, a vertical black dot number measurement array data is created and a wall is created. Is extracted and two walls other than the contour are found. Therefore, the answer is YES in S10, the nesting variable is set to 1 in S11, the area is subdivided (at the position of each wall) in S12, the process returns to S5, and the investigation target area is limited to the leftmost area.
[0112]
Then, in S6 to S7, two walls were found. In S8 to S9, the wall was not found, but in S10, the answer is YES. In S11, the nested variable is set to 2 and “nesting processing” is performed. The process is repeatedly executed until the nesting process is completed, and wall extraction processing is sequentially performed on three divided areas obtained by dividing the vertically long area on the left side by two newly found walls.
[0113]
In this example, no new wall is found, and the nesting variable is set to -1 and returned to 1 in S16 of FIG. 29, and the wall is extracted in the same manner with the middle vertically long region as the investigation target region. So no new wall candidates are found.
Therefore, in S15 and S5, the investigation target area is changed to the vertically long area on the right side, and one wall is found in S6 to S7.
[0114]
Therefore, the answer is YES in S10 of FIG. 30, the nested variable is set to 2 in S11, and "nesting processing" is started, and the vertically long area on the right side is divided by the newly found wall, and the wall extraction of each divided area is performed. Processing is performed sequentially. As a result, no new wall is found in any of the divided regions, and NO is determined in S13 and the nesting process is terminated. In S16, the nested variable is set to -1 to 1, but the region of the nested variable 1 does not remain. Therefore, the nested variable is returned to 0, but the area does not remain. Therefore, it is determined that the wall extraction process has been completed, the position and size of each wall are determined based on the wall candidate recognition data extracted in S17, and the data is stored in the memory.
[0115]
Next, information (analysis result data) such as the position and size of the wall corresponding to the outline and skeleton of the architectural drawing recognized as described above is stored in the storage medium of the memory 4 and the external storage device 11 shown in FIG. An example of the contents to be described will be described with reference to FIG.
In FIG. 31, (A) is the number of nests, (B) is specific nest information, (C) horizontal wall information, (D) is vertical wall information, (E) is a horizontal wall model, (F) ) Indicates a vertical wall model.
[0116]
The number of nestings indicates the depth of nesting (parent-child relationship) of child nesting pointers. When no wall is recognized, the number of nestings = 0.
The unique nest information includes a nest No., a NEXT sibling pointer, a child nest pointer, the number of walls (horizontal and vertical directions), and a wall information pointer (horizontal and vertical directions).
[0117]
The NEXT sibling pointer has the next address of the simultaneous hierarchy nesting information. Therefore, the nest No. in the unique nest information at the location indicated by this pointer is the same value as that of the process.
The child nesting pointer has the address of the top data of hierarchical nesting information one level below. Therefore, the nest No. in the specific nest information at the location indicated by the pointer is a value obtained by adding 1 to the value of the process.
[0118]
The horizontal wall information shown in (C) is stored with the address indicated by the horizontal wall information pointer in the unique nest information shown in (B) as the head address.
The wall information includes a NEXT pointer indicating the position of the start address of the next horizontal wall information, wall start point coordinates (x coordinates: a, y coordinates: b), wall horizontal (x direction) size: c, wall Vertical (y direction) size: It consists of wall thickness d. By these a to d, the model of the horizontal wall shown in (E) can be stored and reproduced.
[0119]
Similarly, the vertical wall information shown in (D) is stored with the address indicated by the vertical wall information pointer in the unique nest information as the head address.
The wall information includes a NEXT pointer indicating the position of the start address of the next vertical wall information, wall start point coordinates (x coordinates: e, y coordinates: f), wall vertical (y direction) size: g, wall Horizontal (x direction) size: wall thickness h. By these e to h, the model of the vertical wall shown in (F) can be stored and reproduced.
[0120]
By the way, FIG. 20 and FIG. 21 show an example in which the horizontal and vertical black dot number measurement array data is created for the actual architectural drawing image data with the entire drawing as the investigation target region. In the next stage of recognizing wall candidates based on the dot count measurement array data, the area of the drawing is divided by the recognized wall candidates, and the number of black dots in the horizontal and vertical directions is measured based on the image data in which the investigation target area is limited. Examples of creating sequence data are shown in FIGS.
[0121]
33 and 34 are examples in which the investigation target area is further subdivided from FIG. In this way, until no new wall candidate is found, the investigation target area is subdivided, horizontal and vertical black dot number measurement array data based on the image data is created, and the walls are extracted.
[0122]
In this embodiment, since the architectural drawing of the positive image is a recognition target, the number of black dots in the horizontal and vertical directions of the binarized image data is measured (counted) to create black dot number measurement array data. However, when the architectural drawing of the negative image is to be recognized, if the white dot count measurement array data is created by measuring (counting) the number of white dots in the horizontal and vertical directions of the binarized image data, Wall recognition can be performed in the same way.
[0123]
In addition, recognition data regarding the outline and skeleton of the architectural drawing recognized as described above can be converted into CAD vector data, and compatibility of CAD data between different models can be obtained.
[0124]
Next, the Japanese-style room model / positioning determination and matching in step H of FIG. 5 will be described. FIG. 9 is a flowchart showing the contents of the subroutine of the processing.
This subroutine is executed by the Japanese-style room recognition unit 13 in FIG.
By the way, as shown in the example of the starting point of the Japanese-style room investigation in FIG. 13, all the Japanese-style rooms can be judged by the way of tatami mats in the rectangular area, so matching with the Japanese-style room (tatami mat) model pattern from the corners of the four corners of the rectangle. (4) (investigation with the four starting points (1) to (4) as starting points).
[0125]
When the processing of FIG. 9 is started, first, in step 71, initial setting (u ← 1) of the count value u of the positioning setting position counter with the Japanese-style room rectangle of the investigation target area is performed. This count value “u” corresponds to the number of Japanese-style room survey start points (1) to (4) shown in FIG.
In step 72, it is determined whether the count value u exceeds the number of corners 4 in the rectangle (u> 4). If it exceeds, the analysis of the drawing is finished and the process returns. If not, the process proceeds to step 73 and the u-th corner is used as a starting point, and matching processing with the Japanese-style room model is performed in steps 74 to 80.
[0126]
In step 74, the count value t of the Japanese-style room model pattern counter is initialized (t ← 1).
In step 75, it is determined whether the count value t exceeds the number of Japanese-style room (tatami mat) model patterns (t> number of Japanese-style room model patterns). If it exceeds, the matching with the Japanese-style room model pattern starting from the u-th corner is terminated, and the process proceeds to step 81. If not, the process proceeds to step 76, the t-th Japanese-style room model is selected as the specific pattern, and the matching process of the Japanese-style room (tatami mat) specific pattern in steps 77 to 79 is performed.
[0127]
For example, in the example shown in FIG. 15, the total number of Japanese-style (tatami mat) model patterns is 8 for 4A in (A) and 10 for 4.5B in (B). The total number is 30.
Next, in step 77, a subroutine is executed in order to perform matching with the specified Japanese-style room (tatami mat) model pattern.
[0128]
Subsequently, in step 78, it is determined whether or not the processing result M of the subroutine for matching with the Japanese-style room (tatami mat) specific pattern is 1 (matching is successful in the t-th Japanese-style room model from the investigation start point u). If M is 1, in step 79, it is considered that a Japanese-style room corresponding to the t-th Japanese-style model from the investigation starting point u is found (recognized), and related (recognized) information is acquired. If M is not 1, it is considered that the Japanese-style room has not been found, and the process proceeds to step 80.
[0129]
In step 80, in order to perform matching processing with the next Japanese-style room model pattern, the count value t of the Japanese-style room model pattern counter is incremented by 1, and then the processing returns to step 75 and the above-described processing is repeated.
[0130]
In step 81, in order to set the next corner in the Japanese-style room rectangular area for matching processing with the Japanese-style room model pattern as a starting point, the position of the investigation target area with the Japanese-style room rectangle is incremented by 1 and the count value u of the set position counter is incremented by one. Then, the process returns to step 72 and the above-described processing is repeated.
The information recognized (all matched Japanese-style room information) by performing the processing from step 71 to step 81 is returned to the upper routine.
[0131]
Next, the matching with the Japanese-style room (tatami mat) model specific pattern in step 77 will be described. FIG. 10 is a flowchart showing the contents of the subroutine of the processing.
This subroutine is also executed by the Japanese-style room recognition unit 13 in FIG. Japanese-style room (tatami mat) recognition can be realized by accumulating recognition of tatami mats, so whether or not recognition can be realized for each tatami mat of the specific Japanese-style tatami mat model pattern, whether it should be regarded as the Japanese room to decide.
[0132]
First, in step 91, the number of tatami mats of the specific Japanese-style room is set (initial setting) as the number of tatami mats to be investigated n. In step 92, the count values of the investigation target tatami mat counter j, the tatami “edge” recognition counter R1, and the tatami “original” recognition counter R2 are respectively initialized (j ← 1, R1 ← 0, R2 ← 0). To do.
Here, the “edge” of the tatami refers to the lines {circle around (1)} to {circle around (4)} around the semi-tatami mat shown in FIG. 14A and the normal tatami mat shown in FIG. “Original” refers to a surface (surface indicated by H in FIG. 14) surrounded by the edge.
[0133]
In step 93, it is determined whether or not the investigation target tatami mat count value j exceeds the investigation object tatami mat number n (j> n). If so, the analysis of the Japanese-style room model is terminated, and the process proceeds to step 98. If not, the process proceeds to step 94, where position and orientation information is obtained for the j-th tatami, and matching processing with the tatami model in steps 95 to 97 is performed.
[0134]
In step 95, a subroutine for recognizing individual tatami areas is executed.
In step 96, the tatami "edge" recognition counter value r1 and the tatami "original" recognition counter value r2 obtained as the recognition execution results of the subroutine in step 95 are added to the total values R1 and R2, respectively. Subsequently, in step 97, in order to recognize the next tatami area, the investigation target tatami mat count value j is incremented by 1, and then the process returns to step 93 to repeat the above-described process.
[0135]
Next, in step 98, the matching result (R1 / n) of the “edge” of all the tatami patterns of the specific Japanese-style room (tatami mat) is not less than a reference value (matching success: R1 / n ≧ tatami “edge”). "Reference value). If it is equal to or greater than the reference value, the process proceeds to step 99 of the determination process for the “original” of the next tatami mat. If the reference value is not satisfied, it is assumed that the Japanese-style room has not been recognized, and the process proceeds to step 101.
[0136]
Similarly, in step 99, the matching result (R2 / n) of “original” of all the tatami patterns of the specific Japanese-style room (tatami mat) is comprehensively greater than or equal to the reference value (generally successful matching: R2 / n ≧ tatami “ Judge whether it is “original” standard value). If it is equal to or greater than the reference value, it is considered that the Japanese-style room has been recognized, and the process proceeds to step 100. If the reference value is not satisfied, it is determined that the Japanese-style room cannot be recognized, and the process proceeds to step 101.
[0137]
As described above, if the recognition of both the “edge” and the “original” of the tatami mat does not satisfy the respective reference values or more, it cannot be recognized.
In step 100, the return value M is set to 1 assuming that the specific Japanese-style room is hit (discovered).
In step 101, the return value M is set to 0, assuming that the specific Japanese-style room is lost (not found).
The above processing from step 91 to step 101 is performed, and the matching result information is returned to the upper routine.
[0138]
Next, the recognition of each tatami area by step 95 will be described. FIG. 11 is a flowchart showing the contents of the subroutine of the processing.
This subroutine is also executed by the Japanese-style room recognition unit 13 in FIG. Japanese-style room (tatami-mat) recognition can be realized by accumulating recognition of tatami mats, so whether or not recognition can be realized for each tatami of the tatami-mat model pattern of the specific Japanese-style room. In this subroutine, the validity of each tatami is judged.
[0139]
As shown in FIG. 14, one normal tatami mat of (b) has a rectangular shape (1 unit length × 2 unit length≈half length × 1 inter length), as shown in FIG. Since one semi-folder of a) is a square of approximately (1 unit length × 1 unit length≈half length × half length), it is necessary to accurately match each.
If there is only one normal tatami mat, there is a straight line of black dots (called “edge”) in the outline of the rectangle or square (it may be a double line), and inside the “edge” is excluded Has a region centered on white dots (referred to as “original”).
[0140]
Therefore, when the processing of FIG. 11 is started, first, in step 110, the count value i of the counter indicating the number of “edge” in one tatami mat to be investigated is initialized (i ← 1). In step 111, the "edge" recognition counter r1 in one investigation target tatami is initialized (r1 ← 0).
[0141]
In step 112, it is determined whether or not the counter i indicating the “edge” number in one tatami mat to be investigated exceeds the maximum value (number of sides of one rectangle) (i> 4). If so, the analysis of the “edge” of the tatami is terminated, and the process proceeds to step 116. If not, the recognition process of the specific “edge” of the specific tatami in Step 113 to Step 115 is executed.
[0142]
In step 113, it is determined whether or not the “edge” of the i-th tatami exists. If it exists, the recognition counter r1 for "edge" in one tatami mat to be investigated is incremented by 1 in step 114, and the process proceeds to step 115. If not, the process proceeds directly to step 115. In step 115, the counter i indicating the number of the “edge” in one investigation target tatami mat is incremented by 1, and then the process returns to step 112 to repeat the above processing.
[0143]
Next, in step 116, the value of the “edge” recognition counter r1 in one investigation target tatami obtained in the above-described process is normalized (replaces the contents of r1 with (r1 / 4) * 100). Normalization means that the recognition count value r1 is averaged as a recognition rate and expressed in%.
Subsequently, in steps 117 to 119, “original” in one individual tatami mat to be investigated is recognized.
[0144]
First, in step 117, it is determined whether or not “original” exists in one investigation target tatami mat. If “original” exists, in step 119, 100 is assigned to the recognition counter r2 of “original” in one investigation target tatami, and 100% of “original” exists in one investigation target tatami. To express. After step 119, the process returns to the upper routine. If “original” does not exist, in step 118, “0” is substituted for “original” recognition counter r2 in one investigation target tatami, and 0% exists in one investigation tatami. Represents what to do. After step 118, the process returns to the upper routine.
[0145]
The result information recognized by performing the processing from step 110 to step 119 is returned to the upper routine.
[0146]
The role of the subroutine “Japanese-style room model / position determination & matching process” shown in FIG. 9 is to examine a given rectangular examination area from four corners and determine whether or not the inside of the rectangle is a Japanese-style room.
Specifically, each model pattern in the Japanese-style room database previously stored in the lower-level routine is compared with the pattern of the image data from a certain corner of the Japanese-style room survey area recognized from the input architectural drawing image data. Tell the main routine that you have found a Japanese-style room.
[0147]
One corner is compared with all model patterns in the Japanese-style database, and after comparison with all patterns is completed, the next corner is examined. If you do this for all four corners, you should be able to find it as long as the Japanese-style room exists somewhere on the outer edge of the rectangular survey area.
[0148]
The function of the subroutine “matching process with Japanese-style room (tatami mat) model pattern” shown in FIG. 10 is to illuminate the image data from the given corner of the rectangular area to be examined and the given Japanese-style room database data. In addition, it is to check whether the image data from the corner matches the Japanese-style room pattern.
Specifically, based on the tatami mat information from a given database, the lower-level routine is checked to see if there is an image corresponding to each tatami mat. If it matches, the information that the image of the rectangular area matches the data of the Japanese room in the Japanese room database is passed to the upper routine.
[0149]
This will be explained in more detail. An image corresponding to one tatami portion of image data from a given corner of a rectangular area to be investigated and a corresponding one of the model patterns of the Japanese room to be compared in the Japanese room database It is examined whether or not the tatami mat data of the tatami part matches. Then, how many of the four “edges” of the tatami are matched is passed to the upper routine as a percentage, and whether or not there is “original” which is the plane portion of the tatami is also passed to the upper routine as a percentage. Here, the value to be passed is a percentage in order to evaluate how many “edges” and “originals” matched in the upper routine.
[0150]
Here, this matching process will be described with reference to examples shown in FIGS.
Assume that there is a rectangular portion shown in FIG. 35A cut out from a certain closed loop. (1) to (4) indicate the four corner numbers.
In the Japanese-style room model / positioning determination & matching process, in the matching process with the Japanese-style room (tatami mat) model specific pattern, first, the upper left corner shown in FIG. The figure of the minute is compared with the horizontally long 4 cm model pattern shown in FIG.
[0151]
  This is because the various types shown in FIG.Model patternThere are two tatami mats arranged vertically in the left half, and two tatami mats arranged horizontally in the right half. Therefore, it is checked in step 95 of FIG. 10 “recognition processing of individual tatami mats” whether or not there is a tatami-shaped figure in the area to be judged shown in FIG.
[0152]
First, the tatami mat T1 of the model pattern in FIG. 35C is compared with the corresponding survey area in FIG. Then, only two “edges” indicated by bold lines in FIG. Since “original” has an extra line (indicated by x) in the middle, it is not determined that there is “original”. Therefore, the values returned to the matching process with the Japanese-style room (tatami mat) model specific pattern are r1 = 50 and r2 = 0.
[0153]
Next, the model pattern tatami T2 in FIG. 35C is compared with the corresponding survey area in FIG. Since the portion matching this tatami T2 is only the two upper and lower “edges” as shown by the bold lines in FIG. 36B, the returned values are r1 = 50 and r2 = 0 as described above.
[0154]
Next, when comparing the model pattern tatami T3 of FIG. 35C and the corresponding survey area of FIG. 35B, both figures have four “edges” as indicated by bold lines in FIG. Completely match and “original” also matches, so r1 = 100 and r2 = 100.
In the comparison of the last tatami T4, two “edges” as shown by the thick line in FIG.onlyMatch, so the same value is returned as for tatami mat T1.
As a result, they were summed in the matching process with the Japanese-style (tatami mat) model specific pattern.R1 / n is 62.5%, R2 / n is 25%.
[0155]
Accordingly, it is determined that the area shown in FIG. 35B does not match the 4 cm model pattern shown in FIG. 35C, and the value is set to M = 0 in the Japanese room model / positioning determination & matching process. returned.
In this way, all of the seven model patterns shown in FIG.matchingDo some processing but none match.
[0156]
Next, each 4.5 cm model pattern shown in FIG. 15B is compared with the corresponding figure corresponding to 4.5 cm starting from the corner (1) in FIG. Again, there is no matching pattern.
[0157]
Next, each model pattern of 6 cm shown in (C) of FIG. 15 is compared with a corresponding figure of 6 cm starting from the corresponding corner (1) of FIG. 35 (A). In this case, all of the “edges” and “originals” of the tatami mat in the first model pattern match, so if the Japanese-style room model / positioning determination & matching process is 6 cm, the Japanese-style room of the first pattern If it exists, it returns to the main routine.
[0158]
Subsequently, all the model patterns are compared with the graphic in the rectangular area shown in FIG. 35A, and another model pattern of the eighth square shown in FIG. Also matches. Therefore, it is considered that the match is overlapped, but the one with the larger number in the end is considered to contain the smaller number, so that the recognition result of the Japanese room with the largest number is validated in the main routine.
In the Japanese room model / positioning determination & matching process, these processes are performed from all four corners so that the Japanese room can be detected at any corner.
[0159]
In this embodiment, a rectangular closed loop of a size corresponding to a Japanese-style room (tatami mat) is extracted from the outline of the portion made of black dots, and the validity is checked for each rectangular closed loop to recognize the Japanese-style room (tatami mat). . The floor plan of the entire drawing (the layout of the room combined with the recognition of joinery etc.)Recognition processCan be connected.
[0160]
According to the embodiment of the present invention, the projection feature is extracted by measuring the number of internal horizontal and vertical dots for each rectangular closed loop region, and thereby, the straight line with some discontinuity and noise is also recognized. There are the following advantages.
Advantage 1: If the outline and skeleton (walls, etc.) of the architectural drawing are recognized first and a part of the corner forming the rectangle in the drawing can be recognized, the rectangular area taking into account the size and the “tatami” By recognizing the “laying” description, it is possible to reliably recognize the description of the Japanese-style room (tatami mat).
Advantage 2: Even if the drawing is described in freehand without using a ruler or the like, if the fluctuations of straight lines including not only horizontal and vertical directions but also diagonal straight lines are canceled out, the rectangular area becomes the correctness in the horizontal and vertical directions. If it is good, it can be recognized.
[0161]
In addition, when it is difficult to correct the skew of the house drawing in the front direction in the handwritten drawing, the handwritten drawing may be described on a graph paper, and the skew correction may be performed using the grid of the graph paper.
In addition, if it is unavoidable to leave it to the user's manual work, it is advisable to attach a manual that urges attention to create a confronting drawing that does not require skew correction as much as possible when reading the scanner.
[0162]
【The invention's effect】
As described above, according to the architectural drawing recognizing method and the recognizing apparatus of the present invention, such as handwritten drawings in which lines that have been difficult to accurately recognize in the past have been cut off or straight lines are slightly inclined, blueprints, etc. Even for drawings with relatively low contrast, noisy drawings, old construction drawings, and other architectural drawings with poor description and image quality, the Japanese style room (tatami flooring based on the recognition of the walls that form the outline and skeleton and the recognition results) ) Can be accurately recognized.
[0163]
In particular, based on the outline and skeleton recognized for the entire drawing first, the target range is limited so that the recognition target is subdivided, and the horizontal and vertical directions of the image data of the construction drawing for each range. New black or white dot number measurement array data is created, and based on the dot number measurement array data in both directions, the outline and skeleton of the construction drawing within each of the limited ranges are recognized. If it is repeated until it cannot be recognized, a skeleton such as a short wall can be surely recognized, and there is no possibility of erroneously recognizing a contour or skeleton of a portion that does not actually exist. Accordingly, a rectangular closed loop that is a candidate for a Japanese-style room surrounded by walls can be reliably extracted.
[0164]
In addition, if the recognized data is taken into a personal computer or the like and used, construction drawings such as a floor plan at the time of extension and reconstruction can be easily and quickly created.
Furthermore, the image data of the construction drawing can be input as run-length encoded image data by FAX communication or the like, and the outline and skeleton of the construction drawing can be recognized.
[0165]
Furthermore, the recognition result can be confirmed and confirmed by displaying the contour / skeleton recognition result and the recognition result of the Japanese-style room. In that case, by displaying the inputted image data of the architectural drawing simultaneously or selectively with the recognition result, the display contents can be compared and examined to find a misrecognized portion or a portion that could not be recognized. If the input image data and the recognition result are displayed in a superimposed manner, it becomes easier to find and correct a misrecognized portion or a portion that could not be recognized.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of an example of an architectural drawing recognition apparatus that implements a construction drawing recognition method according to the present invention.
2 is a diagram illustrating a display example of image data of a recognition result that is remapped on the display unit 9 of FIG. 1;
FIG. 3 is a view showing an example in which input image data of an architectural drawing that has also been skew-corrected is displayed superimposed on image data of a recognition result.
FIG. 4 is a diagram for explaining definitions of an outer contour, an outer wall, an inner wall, and a skeleton in an architectural drawing.
FIG. 5 is a flowchart showing a main routine of architectural drawing recognition processing by the architectural drawing recognition apparatus shown in FIG. 1;
6 is a flowchart showing details of a subroutine for wall position recognition processing in step A in FIG. 5; FIG.
FIG. 7 is a flowchart of a subroutine of wall extraction (recognition) processing of steps 7 and 9 in FIG. 6;
FIG. 8 is a flowchart for executing a bisection search method for recognizing a wall in steps 29 and 31 of FIG.
FIG. 9 is a flowchart showing details of a Japanese-style room model / positioning determination and matching subroutine in step H in FIG. 5;
FIG. 10 is a flowchart showing details of a subroutine for matching with a Japanese-style room (tatami mat) specific pattern in step S77 in FIG. 9;
FIG. 11 is a flowchart showing details of a subroutine for recognizing individual tatami mat areas in step S95 in FIG.
12 is a diagram showing an example of a closed loop and its corner number for performing the Japanese-style room model / positioning determination and matching processing of FIG. 9; FIG.
FIG. 13 is an explanatory diagram of a survey start point of a general rectangular Japanese-style room.
FIG. 14 is an explanatory diagram of the edges and originals of a semi-tatami mat and a normal tatami mat (one tatami mat).
FIG. 15 is a diagram showing a model pattern of a Japanese-style room with a tatami floor from 4 to 12 cm.
FIG. 16 is a diagram showing a display example of input image data after skew correction of a sample architectural drawing.
17 is a diagram showing a display example of a closed loop recognition result by a wall core line recognized from the input image data in FIG. 16;
FIG. 18 is an explanatory diagram showing a combination example of cases in which tatami mat areas are recognized in duplicate in Step K of FIG. 5;
19 shows wall candidates in the investigation target area in the wall recognition process of FIG. 6, an example of area division by the area candidate, and a nesting No. of an area group subdivided by wall candidates. It is explanatory drawing which shows an example of the analysis processing order.
FIG. 20 is a diagram showing a specific example of image data of an architectural drawing (house floor plan) and black dot number measurement array data in the horizontal and vertical directions created from the entire area thereof.
FIG. 21 is a diagram showing another specific example.
22 is an enlarged view of the vertical black dot number measurement array data shown in FIG. 20C. FIG.
FIG. 23 is an explanatory diagram of processing for narrowing both sides of a wall to both sides or one side of a peak in step 26 of FIG. 7;
24 is an explanatory diagram of region width division processing in step 43 of FIG. 8;
FIG. 25 is an explanatory diagram of determination by wall survey of the target area in steps 44 and 45 in FIG. 8;
FIG. 26 is an explanatory diagram showing an example of analyzing a wall sample (wall candidate) by the two-division search process shown in FIG. 8;
FIG. 27 is an explanatory view of a wall recognition example of a simple architectural drawing according to the present invention.
FIG. 28 is an explanatory diagram showing an example of a concrete architectural drawing recognition processing procedure according to the flowchart of FIG. 5;
FIG. 29FIG.FIG.
FIG. 30FIG.FIG.
FIG. 31 is an explanatory diagram showing an example of the contents of analysis result data stored in a memory.
32 is a diagram showing an example of image data in which a survey target area of the architectural drawing shown in FIG. 20 is limited and horizontal and vertical black dot number measurement array data based on the image data. FIG.
FIG. 33 is a diagram showing an example of image data further limiting the investigation target region from FIG. 32 and horizontal and vertical black dot number measurement array data based on the image data.
FIG. 34 is a diagram showing an example of image data of another part in which the investigation target region is further limited from FIG. 32 and black dot number measurement array data in the horizontal and vertical directions based thereon.
FIG. 35 is an explanatory diagram showing an example of a rectangular figure to be examined and an initial model pattern of 4 cm in a Japanese-style database for explaining a specific example of matching processing with a Japanese-style room (tatami mat) specific pattern.
FIG. 36 is an explanatory diagram showing an example of matching processing for each tatami mat.
[Explanation of symbols]
1: Overall control unit (CPU) 2: Image reading unit
3: Communication control unit 4: Memory
5: Automatic skew correction unit
6: Dot number measurement array data creation unit
7: Outline / skeleton recognition unit 8: Re-mapping control unit
9: Display unit 10: Operation input unit
11: External storage device 12: Printing device
13: Japanese room recognition part 14: Bus

Claims (13)

建築図面の画像を読み取ったイメージ画像データの水平方向及び垂直方向の黒又は白ドット数を計測して水平及び垂直方向のドット数計測配列データを作成し、
その作成した水平及び垂直方向のドット数計測配列データに基づいて建築図面の輪郭及び骨格を認識し、
その認識した輪郭及び骨格によって形成される矩形閉ループに囲まれた領域をそれぞれ調査対象領域として選択し、
その各調査対象領域毎に少なくとも1つ以上の角を開始点として、一枚の畳部分に相当する前記画像データと、予め保持した和室のモデルパターンの対応する一枚の畳部分の畳データとのマッチング処理を、前記一枚の畳部分毎に行って和室の領域を認識することを特徴とする建築図面認識方法。
Measure the number of black or white dots in the horizontal direction and vertical direction of the image image data read from the image of the architectural drawing to create the horizontal and vertical dot number measurement array data,
Recognize the outline and skeleton of architectural drawings based on the created horizontal and vertical dot number measurement array data,
Each of the regions surrounded by the rectangular closed loop formed by the recognized contour and skeleton is selected as an investigation target region,
Starting with at least one or more corners for each area to be investigated, the image data corresponding to one tatami part, and the tatami data corresponding to one tatami part corresponding to the model pattern of the Japanese-style room previously stored, The architectural drawing recognition method , wherein the matching process is performed for each piece of tatami mat to recognize the area of the Japanese-style room .
請求項1記載の建築図面認識方法において、各調査対象領域毎にその画像に対してマッチング処理を行なう際に、その各調査対象領域の各角を順次開始点として、前記各モデルパターンと対応する画像部分に対して順次マッチング処理を行なうことを特徴とする建築図面認識方法。  2. The architectural drawing recognizing method according to claim 1, wherein when matching processing is performed on the image for each survey target area, the corners of the survey target areas correspond to the model patterns, starting from each corner. A method for recognizing an architectural drawing, wherein matching processing is sequentially performed on image portions. 請求項1又は2記載の建築図面認識方法において、前記マッチング処理によって同一の調査対象領域に対して帖数の異なる複数の和室の領域を認識した場合には、帖数の最も大きい和室の認識結果のみを有効にすることを特徴とする建築図面認識方法。  3. The architectural drawing recognition method according to claim 1, wherein when a plurality of Japanese-style rooms with different numbers are recognized by the matching process, the recognition result of the Japanese-style room having the largest number Architectural drawing recognition method characterized by enabling only 請求項1乃至3のいずれか一項に記載の建築図面認識方法において、
前記マッチング処理は、前記調査対象領域の一枚の畳部分に相当する画像と、前記モデルパターンの一枚の畳部分の畳データとについて、畳の「縁」と「原」の一致の度合いを調べる処理であることを特徴とする建築図面認識方法。
In the architectural drawing recognition method according to any one of claims 1 to 3,
In the matching process, the degree of coincidence between the “edge” of the tatami mat and the “original” is determined for an image corresponding to one tatami mat portion of the investigation target area and the tatami mat data of one tatami mat portion of the model pattern. A method for recognizing an architectural drawing, characterized in that it is a process of examining .
建築図面の画像を読み取ったイメージ画像データを入力する画像データ入力手段と、
該手段によって入力したイメージ画像データの水平方向及び垂直方向の黒又は白ドット数を計測して水平及び垂直方向のドット数計測配列データを作成するドット数計測配列データ作成手段と、
該手段により作成されたドット数計測配列データに基づいて建築図面の輪郭及び骨格を認識する輪郭・骨格認識手段と、
前記輪郭・骨格認識手段によって認識された輪郭及び骨格によって形成される矩形閉ループに囲まれた領域をそれぞれ調査対象領域として選択する手段と、
その各調査対象領域毎に少なくとも1つ以上の角を開始点として、一枚の畳部分に相当する前記画像データと、予め保持した和室のモデルパターンの対応する一枚の畳部分の畳データとのマッチング処理を、前記一枚の畳部分毎に行って和室の領域を認識する手段と
を有することを特徴とする建築図面認識装置。
Image data input means for inputting image image data obtained by reading an image of an architectural drawing;
Dot number measurement array data creating means for creating horizontal and vertical dot number measurement array data by measuring the number of black or white dots in the horizontal and vertical directions of the image image data input by the means;
Outline / skeleton recognition means for recognizing the outline and skeleton of architectural drawings based on the dot count measurement array data created by the means;
Means for selecting each of the regions surrounded by the rectangular closed loop formed by the contour and the skeleton recognized by the contour / skeleton recognition unit as the investigation target region;
Starting with at least one or more corners for each of the survey target areas, the image data corresponding to one tatami portion, and the tatami data corresponding to one tatami portion corresponding to a model pattern of a Japanese-style room held in advance. And a means for recognizing the area of the Japanese-style room by performing the matching process for each tatami part .
前記画像データ入力手段が、建築図面の画像を読み取ってそのイメージ画像データを入力する画像読取手段である請求項5記載の建築図面認識装置。  6. The architectural drawing recognition apparatus according to claim 5, wherein the image data input means is an image reading means for reading an image of an architectural drawing and inputting the image image data. 建築図面の画像を読み取ったイメージ画像データのランレングスを符号化した符号化画像データを入力する画像データ入力手段と、
該手段によって入力した符号化画像データから元のイメージ画像データの水平方向及び垂直方向の黒又は白ドット数を計測して水平及び垂直方向のドット数計測配列データを作成するドット数計測配列データ作成手段と、
該手段により作成されたドット数計測配列データに基づいて建築図面の輪郭及び骨格を認識する輪郭・骨格認識手段と、
前記輪郭・骨格認識手段によって認識された輪郭及び骨格によって形成される矩形閉ループに囲まれた領域をそれぞれ調査対象領域として選択する手段と、
その各調査対象領域毎に少なくとも1つ以上の角を開始点として、一枚の畳部分に相当する前記画像データと、予め保持した和室のモデルパターンの対応する一枚の畳部分の畳 データとのマッチング処理を、前記一枚の畳部分毎に行って和室の領域を認識する手段と
を有することを特徴とする建築図面認識装置。
Image data input means for inputting encoded image data obtained by encoding a run length of image image data obtained by reading an image of an architectural drawing;
Dot number measurement array data creation for measuring horizontal and vertical dot number measurement array data by measuring the number of black or white dots in the horizontal direction and vertical direction of the original image image data from the encoded image data input by the means Means,
Outline / skeleton recognition means for recognizing the outline and skeleton of architectural drawings based on the dot count measurement array data created by the means;
Means for selecting each of the regions surrounded by the rectangular closed loop formed by the contour and the skeleton recognized by the contour / skeleton recognition unit as the investigation target region;
Starting with at least one or more corners for each of the survey target areas, the image data corresponding to one tatami portion, and the tatami data corresponding to one tatami portion corresponding to a model pattern of a Japanese-style room held in advance. And a means for recognizing the area of the Japanese-style room by performing the matching process for each tatami part .
請求項5乃至7のいずれか一項に記載の建築図面認識装置において、
前記マッチング処理は、前記調査対象領域の一枚の畳部分に相当する画像と、前記モデルパターンの一枚の畳部分の畳データとについて、畳の「縁」と「原」の一致の度合いを調べる処理であることを特徴とする建築図面認識装置。
In the architectural drawing recognition device according to any one of claims 5 to 7,
In the matching process, the degree of coincidence between the “edge” of the tatami mat and the “original” is determined for an image corresponding to one tatami mat portion of the investigation target area and the tatami mat data of one tatami mat portion of the model pattern. An architectural drawing recognizing apparatus characterized in that it is a process of examining .
請求項5乃至8のいずれか一項に記載の建築図面認識装置において、前記輪郭・骨格認識手段及び和室認識手段による認識結果を表示する表示手段を設けたことを特徴とする建築図面認識装置。  The architectural drawing recognition apparatus according to any one of claims 5 to 8, further comprising a display means for displaying a recognition result by the outline / skeleton recognition means and the Japanese-style room recognition means. 請求項9に記載の建築図面認識装置において、前記表示手段は、前記画像データ入力手段により入力したイメージ画像データを前記認識結果と同時に表示する手段を有することを特徴とする建築図面認識装置。  10. The architectural drawing recognizing apparatus according to claim 9, wherein the display means includes means for displaying the image image data input by the image data input means simultaneously with the recognition result. 請求項10記載の建築図面認識装置において、前記イメージ画像データを前記認識結果と同時に表示する手段は、前記イメージ画像データを前記認識結果と重ね合わせて表示する手段であることを特徴とする建築図面認識装置。  11. The architectural drawing recognition apparatus according to claim 10, wherein the means for displaying the image image data simultaneously with the recognition result is a means for displaying the image image data superimposed on the recognition result. Recognition device. 請求項9に記載の建築図面認識装置において、前記画像データ入力手段により入力したイメージ画像データと前記認識結果とを選択的に表示するように表示内容を変更する表示選定手段を設けたことを特徴とする建築図面認識装置。  10. The architectural drawing recognition apparatus according to claim 9, further comprising display selection means for changing display contents so as to selectively display the image image data input by the image data input means and the recognition result. An architectural drawing recognition device. 請求項9乃至12のいずれか一項に記載の建築図面認識装置において、前記表示手段に表示した前記認識結果を外部からの指示により確定する認識結果確認手段を設けたことを特徴とする建築図面認識装置。  The architectural drawing recognizing device according to any one of claims 9 to 12, further comprising a recognition result confirming means for confirming the recognition result displayed on the display means by an external instruction. Recognition device.
JP26043296A 1996-10-01 1996-10-01 Architectural drawing recognition method and recognition device Expired - Fee Related JP3961595B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26043296A JP3961595B2 (en) 1996-10-01 1996-10-01 Architectural drawing recognition method and recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26043296A JP3961595B2 (en) 1996-10-01 1996-10-01 Architectural drawing recognition method and recognition device

Publications (2)

Publication Number Publication Date
JPH10105592A JPH10105592A (en) 1998-04-24
JP3961595B2 true JP3961595B2 (en) 2007-08-22

Family

ID=17347861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26043296A Expired - Fee Related JP3961595B2 (en) 1996-10-01 1996-10-01 Architectural drawing recognition method and recognition device

Country Status (1)

Country Link
JP (1) JP3961595B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001037149A1 (en) * 1999-11-12 2001-05-25 Sumio Noguchi System for supporting building production
CN113282999B (en) * 2021-06-25 2023-12-22 广东都市建筑规划设计有限公司 Automatic modification generation method and device for electrical lighting drawing and computer equipment
CN113780190B (en) * 2021-09-14 2022-10-11 万翼科技有限公司 Method, equipment and storage medium for constructing space contour recognition and space detection model

Also Published As

Publication number Publication date
JPH10105592A (en) 1998-04-24

Similar Documents

Publication Publication Date Title
CN103975342B (en) The system and method for capturing and handling for mobile image
US11275874B2 (en) Method for constructing a 3D digital model from a 2D plan
JP2011192274A (en) Method and apparatus for form template definition
US7587061B1 (en) Symbol recognition system software and method
JP3571128B2 (en) Method and apparatus for recognizing dimensions of drawings
JP3961595B2 (en) Architectural drawing recognition method and recognition device
JP3658468B2 (en) Architectural drawing recognition method and recognition device
JP3645404B2 (en) Method and apparatus for recognizing door from architectural drawing
JP3679241B2 (en) Construction drawing recognition method and recognition apparatus
JP3678523B2 (en) Construction drawing recognition method and construction drawing recognition apparatus
JP3595393B2 (en) Construction drawing recognition method and recognition device
JP3686214B2 (en) Construction drawing recognition method and recognition apparatus
JP3701778B2 (en) Architectural drawing recognition method and architectural drawing recognition device
JP3516502B2 (en) Construction drawing recognition method and recognition device
JP3516541B2 (en) Method and apparatus for recognizing dimension information of construction drawings
JP3648006B2 (en) Toilet recognition method and construction drawing recognition device from construction drawings
JP3678521B2 (en) Construction drawing recognition method and recognition apparatus
JP3516540B2 (en) Construction drawing recognition method and recognition device
JP3545481B2 (en) Image recognition method and apparatus
JPH11259550A (en) Construction drawing recognition method and recognition device and computer readable recording medium recording program therefor
CN114239631B (en) Two-dimensional code identification method and device, storage medium and electronic equipment
JP2000194744A (en) Method and device for processing image data of construction drawing and computer readable recording medium recording control program therefor
JP2000187730A (en) Method and device for processing picture data of construction drawing and computer readable recording medium storing control program for the method
JP3595394B2 (en) Drawing recognition method and apparatus
CN115205221A (en) Fiber counting method, storage medium and device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041026

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041227

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070517

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110525

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120525

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120525

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130525

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130525

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees