JP2023535084A - 施設平面図に含まれた記号分析装置及び方法 - Google Patents

施設平面図に含まれた記号分析装置及び方法 Download PDF

Info

Publication number
JP2023535084A
JP2023535084A JP2023504673A JP2023504673A JP2023535084A JP 2023535084 A JP2023535084 A JP 2023535084A JP 2023504673 A JP2023504673 A JP 2023504673A JP 2023504673 A JP2023504673 A JP 2023504673A JP 2023535084 A JP2023535084 A JP 2023535084A
Authority
JP
Japan
Prior art keywords
plan
facility
pixels
view
facility floor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2023504673A
Other languages
English (en)
Inventor
ヒ ヨン、テ
ペク、ユナ
キム、スンヒョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
UrbanBase Inc
Original Assignee
UrbanBase Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by UrbanBase Inc filed Critical UrbanBase Inc
Publication of JP2023535084A publication Critical patent/JP2023535084A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/42Document-oriented image-based pattern recognition based on the type of document
    • G06V30/422Technical drawings; Geographical maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/1801Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/18105Extraction of features or characteristics of the image related to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

本発明の一実施例に係る施設平面図に含まれた記号分析装置は、複数の施設平面図を獲得する動作;複数の施設平面図にそれぞれに含まれた矩形及び矩形に連結された弧を検出する動作;矩形及び弧に基づいて窓領域と門領域を特定する動作;特定された窓領域のピクセルを窓のクラスにラベリングし、特定された門領域のピクセルを門のクラスにラベリングする動作;及び所定のイメージ分割アルゴリズム基盤に設計された神経網モデルに複数の施設平面図とピクセル単位にラベリングされたデータを入力して、複数の施設平面図に含まれた窓と門のクラス及びラベリングされたピクセルの位置の相関関係を導出する神経網モデルの重み付けを学習させることで、相関関係に基づいて施設平面図に含まれた窓と門の位置及びクラスを判別する神経網モデルを生成する動作を遂行することができる。

Description

本発明は、施設平面図に含まれた記号分析装置及び方法に関する。
既存の3次元空間情報を獲得する方法として、パノラマ式カメラを活用した写真撮影方式がある。これは、3次元空間情報を獲得するために、該当場所に直接訪問して写真を撮影しなければならず、写真に撮影された実際の場所の物等が露出されてプライバシー侵害の恐れがあるという問題がある。また、パノラマ式カメラを活用した写真撮影は、コストが高価であり、撮影されたイメージは、2次元イメージデータで構成され、実際の空間に対する物理情報抽出及び活用が不可能な問題がある。
また、既存の3次元空間情報を獲得する方法として、手作業方式で進行する3次元モデリングファイル作製方式がある。これは、専門家が直接モデリングを遂行しなければならないので人件費によって高価であり、作製時間が長くかかる問題がある。
これによって、直接3次元空間を撮影しなくても2次元平面図の情報から3次元空間の情報を自動で抽出する技術として、韓国登録特許公報第10-1638378号(2次元図面に基づいた3次元自動立体モデリング方法及びプログラム)が存在する。韓国登録特許公報第10-1638378号は、2次元平面図に提示された空間情報と数値に基づいて3次元モデリングを遂行するので、信頼度の高い3次元空間情報を提供できる。
ただし、平面図で窓と門の記号は、両記号とも矩形の形態に構成されている。このような窓と門の記号を自動で区分する神経網の学習のためにバウンディングボックス(bounding box)でラベリングを遂行する場合、既存にはバウンディングボックスを手動で指定した後、ラベリングしなければならず、加えてバウンディングボックスは回転できない矩形の形態にのみラベリングできるという限界が存在した。
このような限界点のため、平面図上で門と窓の記号が対角線に配置されているか、門と窓の記号が他の記号と隣接している場合には正確にラベリングできず、神経網学習の正確度を向上しにくいという問題が存在する。
本発明の実施例において解決しようとする課題は、平面図上で門と窓の記号を自動で区分し、区分された門と窓の領域をピクセル単位にラベリングして、平面図で窓と門を区分するための学習の正確度を向上する技術を提供することである。
ただし、本発明の実施例が解決しようとする技術的課題は、以上において言及した課題に制限されず、以下において説明する内容から通常の技術者に自明な範囲内で多様な技術的課題が導出され得る。
本発明の一実施例に係る施設平面図に含まれた記号分析装置は、所定の動作を遂行するようにする命令語を格納する一つ以上のメモリ;及び前記一つ以上のメモリと動作できるように連結されて前記命令語を実行するように設定された一つ以上のプロセッサを含み、前記プロセッサが遂行する動作は、複数の施設平面図を獲得する動作;前記複数の施設平面図にそれぞれに含まれた矩形及び前記矩形に連結された弧を検出する動作;前記矩形及び前記弧に基づいて窓領域と門領域を特定する動作;前記特定された窓領域のピクセルを窓のクラスにラベリングし、前記特定された門領域のピクセルを門のクラスにラベリングする動作;及び所定のイメージ分割アルゴリズム基盤に設計された神経網モデルに前記複数の施設平面図とピクセル単位にラベリングされたデータを入力して、前記複数の施設平面図に含まれた窓と門のクラス及び前記ラベリングされたピクセルの位置の相関関係を導出する前記神経網モデルの重み付けを学習させることで、前記相関関係に基づいて施設平面図に含まれた窓と門の位置及びクラスを判別する神経網モデルを生成する動作を含むことができる。
また、前記検出する動作は、施設平面図に含まれた黒色を除く全ての部分を白色に変換させる動作;及び前記黒色で構成された線分または白色領域枠を連結した輪郭に基づいて前記矩形及び前記弧を検出する動作を含むことができる。
また、前記検出する動作は、前記施設平面図に含まれた文字を除去する動作を含むことができる。
また、前記白色に変換させる動作は、施設平面図に含まれたピクセルのRGB情報が(0、0、0)であるピクセルはRGB情報を維持し、施設平面図に含まれたピクセルのRGB情報が(0、0、0)でないピクセルのRGB情報を(255、255、255)に変換させる動作を含むことができる。
また、前記窓領域と門領域を特定する動作は、前記矩形のうち前記弧と連結された第1矩形を門領域に検出する動作;及び前記矩形のうち前記弧と連結されていない第2矩形を窓領域に検出する動作を含むことができる。
また、前記門領域に検出する動作は、前記第1矩形と連結されて垂直をなす線分が存在し、前記弧が前記第1矩形の末端及び前記線分の末端と連結された場合、前記第1矩形を門領域に検出できる。
また、前記窓領域と門領域を特定する動作は、前記矩形のうち広さが既設定された値より小さいか、既設定された値より大きい場合、前記検出から除去する動作を含むことができる。
また、前記ラベリングする動作は、前記窓及び前記門以外の全ての領域のピクセルをnullのクラスにラベリングする動作を含むことができる。
また、前記検出する動作は、前記施設平面図でOCR検出アルゴリズムを通して文字を除去した第1平面図を生成する動作;下記数1及び数2を通して前記第1平面図のピクセル情報を変換させた第2平面図を生成する動作;

(src(I):ピクセル情報の変更前の元素値(x、y、z)、α:10、β:-350、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))

(R:数1で求められたdst(I)の(x’、y’、z’)のうちx’、G:数1で求められたdst(I)の(x’、y’、z’)のうちy’、B:数1で求められたdst(I)の(x’、y’、z’)のうちz’、Y:1次元元素値)
前記第2平面図を構成する線分からなる矩形のうち既設定された広さより大きいか既設定された広さより小さい部分のみ黒色で示した第3平面図を生成する動作;前記第1平面図を構成するピクセルのうち色相元素値が0以上30以下であり、彩度元素値が80以上220以下であり、明度元素値が150以上225以下の値を有するピクセルを白色に変換した第4平面図を生成する動作;前記第1平面図に前記第3平面図の黒色領域と前記第4平面図の白色領域を適用した第5平面図を生成する動作;下記数3乃至数5を通して前記第5平面図のピクセル情報を変換させた第6平面図を生成する動作;

(src(I):ピクセル情報の変更前の元素値(x、y、z)、α:3、β:-350、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))

(R:数3で求められたdst(I)の(x’、y’、z’)のうちx’、G:数3で求められたdst(I)の(x’、y’、z’)のうちy’、B:数3で求められたdst(I)の(x’、y’、z’)のうちz’、Y:1次元元素値)

(Y:数4で求められた1次元元素値)
前記第6平面図の白色領域枠を連結した輪郭を生成して矩形を検出する動作を含むことができる。
また、前記検出する動作は、前記施設平面図でOCR検出アルゴリズムを通して文字を除去した第1平面図を生成する動作;下記数6乃至数8を通して前記第2平面図のピクセル情報を変換させた第7平面図を生成する動作;

(src(I):ピクセル情報の変更前の元素値(x、y、z)、α:57、β:-12500、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))

(R:数6で求められたdst(I)の(x’、y’、z’)のうちx’、G:数6で求められたdst(I)の(x’、y’、z’)のうちy’、B:数6で求められたdst(I)の(x’、y’、z’)のうちz’、Y:1次元元素値)

(Y:数7で求められた1次元元素値)
前記第7平面図の白色領域枠を連結した輪郭を生成する動作;及び前記輪郭をDouglas-Peuckerアルゴリズムに基づいて近似化して前記近似化された輪郭のうち凸包(Convex hull)に該当する輪郭を検出し、前記Convex hullがなす広さが所定範囲以内である場合を弧に検出する動作を含むことができる。
また、前記神経網モデルを生成する動作は、Mask R-CNNアルゴリズムに基づいて設計された神経網の入力レイヤに前記複数の施設平面図が入力されるように設定し、出力レイヤには前記複数の施設平面図に含まれた窓と門のクラス及び前記ラベリングされたピクセルの位置が入力されるように設定して、前記複数の施設平面図に含まれた窓と門のクラス及び前記ラベリングされたピクセルの位置との相関関係を導出する神経網の重み付けを学習させる動作を含むことができる。
本発明の一実施例は、前記装置が生成した神経網モデルを含む装置を含むことができる。
本発明の一実施例に係る施設平面図に含まれた記号分析装置が遂行する方法は、複数の施設平面図を獲得するステップ;前記複数の施設平面図にそれぞれ含まれた矩形及び前記矩形に連結された弧を検出するステップ;前記矩形及び前記弧に基づいて窓領域と門領域を特定するステップ;前記特定された窓領域のピクセルを窓のクラスにラベリングし、前記特定された門領域のピクセルを門のクラスにラベリングするステップ;及び所定のイメージ分割(image segmentation)アルゴリズム基盤に設計された神経網モデルに前記複数の施設平面図とピクセル単位にラベリングされたデータを入力して、前記複数の施設平面図に含まれた窓と門のクラス及び前記ラベリングされたピクセルの位置の相関関係を導出する前記神経網モデルの重み付けを学習させることで、前記相関関係に基づいて施設平面図に含まれた窓と門の位置及びクラスを判別する神経網モデルを生成するステップを含むことができる。
本発明の実施例によれば、平面図上で門と窓の記号を自動で区分し、区分された門と窓の領域をピクセル単位にラベリングして平面図で窓と門を正確に区分するモデルを生成できる。
本発明の実施例によって生成されたイメージ分割モデルを韓国登録特許公報第10-1638378号(2次元図面に基づいた3次元自動立体モデリング方法及びプログラム)の技術と共に使用する場合、2次元平面図の門と窓をより正確に区分することで効率的な3次元モデリングを遂行することができる。
この他に、本文書を通して直接的または間接的に把握される多様な効果が提供され得る。
施設平面図の例示図である。 本発明の一実施例に係る施設平面図に含まれた記号分析装置の機能ブロック図である。 本発明の一実施例に係る施設平面図に含まれた記号分析装置が施設平面図に対する変換を通して門と窓を検出し、ラベリングする動作の例示図である。 本発明の一実施例に係る施設平面図に含まれた記号分析装置が施設平面図に対する変換を通して門と窓を検出し、ラベリングする動作の例示図である。 本発明の一実施例に係る施設平面図に含まれた記号分析装置が施設平面図に対する変換を通して門と窓を検出し、ラベリングする動作の例示図である。 本発明の一実施例に係る施設平面図に含まれた記号分析装置が生成した神経網モデルが施設平面図から門と窓を区分した結果を示す例示図である。 本発明の一実施例に係る施設平面図に含まれた記号分析装置が生成した神経網モデル及び韓国登録特許公報第10-1638378号の技術を使用して2次元平面図から3次元モデリングを遂行した3次元図面の例示図である。 本発明の一実施例に係る施設平面図に含まれた記号分析方法のフローチャートである。
本発明の利点及び特徴、そして、それらを達成する方法は、添付の図面と共に詳細に後述されている実施例を参照すると、明確になるだろう。しかし、本発明は、以下において開示される実施例に限定されるものではなく、多様な形態に具現され得、単に、本実施例は、本発明の開示が完全なものとなるようにし、本発明の属する技術の分野における通常の知識を有する者に発明の範疇を完全に知らせるために提供されるものであり、本発明の範疇は、請求項により定義されるだけである。
本発明の実施例を説明するにあたって、公知機能または構成についての具体的な説明は、実際に必要な場合の他には省略される。そして、後述の用語は、本発明の実施例での機能を考慮して定義された用語であって、これは、ユーザ、運用者の意図または慣例等によって変わり得る。それゆえ、その定義は、本明細書全般にわたった内容に基づいて下されるべきである。
図面に表示され、下記に説明される機能ブロックは、可能な具現の例であるだけである。他の具現では、詳細な説明の思想及び範囲を外れない範囲で他の機能ブロックが使用され得る。また、本発明の一つ以上の機能ブロックが個別ブロックで表示されるが、本発明の機能ブロックのうち一つ以上は、同じ機能を実行する多様なハードウェア及びソフトウェア構成の組み合わせであってよい。
また、ある構成要素を含むという表現は、開放型の表現であって、該当構成要素が存在することを単に指すだけであり、さらなる構成要素を排除するものと理解されてはならない。
さらに、ある構成要素が他の構成要素に連結されているとか接続されていると言及される時には、その他の構成要素に直接的に連結または接続されていてもよいが、中間に他の構成要素が存在してもよいと理解されるべきである。
また、「第1、第2」等のような表現は、複数の構成を区分するための用途にだけ使用された表現であって、構成の間の順序やその他の特徴を限定しない。
以下においては、図面を参照して本発明の実施例について説明する。
図1は、施設平面図の例示図である。
図1を参照すると、施設平面図で窓と門の記号は、いずれも矩形の形態の記号を含んでいる。このような窓と門の記号を自動で区分する神経網の学習のためにバウンディングボックス(bounding box)でラベリングを遂行する場合、バウンディングボックスは、回転できない矩形の形態にのみラベリングできる。また、平面図上で門と窓の記号が対角線に配置されているか、門と窓の記号が他の記号と隣接している場合には正確にラベリングできず、神経網学習の正確度を向上しにくいという問題が存在する。
本発明の実施例は、平面図上で門と窓の記号を自動で区分し、区分された門と窓領域をピクセル単位にラベリングして、平面図で窓と門を区分するための学習の正確度を向上する技術を提案する。
図2は、本発明の一実施例に係る施設平面図に含まれた記号分析装置100の機能ブロック図である。
図2を参照すると、一実施例に係る施設平面図に含まれた記号分析装置100は、メモリ110、プロセッサ120、入力インターフェース130、ディスプレイ部140及び通信インターフェース150を含むことができる。
メモリ110は、学習データDB111、神経網モデル113、及び命令語DB115を含むことができる。
学習データDB111は、施設平面図に対する複数のイメージファイルを含むことができる。施設平面図は、外部サーバ、外部DBを通して獲得するかインターネット上のイメージから獲得できる。このとき、施設平面図は、多数のピクセル(ex.横M個、縦N個の行列形態に構成されたM×N個のピクセル)で構成され得、それぞれのピクセルは、R(Red)、G(Green)、B(Blue)の固有色相を示すRGB元素値(x、y、z)で構成されたピクセル情報または色相、彩度、明度を示すHSV情報を含むことができる。
神経網モデル113は、入力された施設平面図の内部に含まれた門/窓の記号のクラス及び位置を判別する神経網モデルを含むことができる。神経網モデルは、後述するプロセッサ120の動作により生成されてメモリ110に格納され得る。
命令語DB115は、プロセッサ120の動作を遂行させることのできる命令語を格納することができる。例えば、命令語DB115は、後述するプロセッサ120の動作と対応する動作を遂行するようにするコンピュータコードを格納することができる。
プロセッサ120は、施設平面図に含まれた記号分析装置100が含む構成、メモリ110、入力インターフェース130、ディスプレイ部140及び通信インターフェース150の全般的な動作を制御できる。プロセッサ120は、記号判別モジュール121、ラベリングモジュール123、学習モジュール125及び制御モジュール127を含むことができる。プロセッサ120は、メモリ110に格納された命令語を実行して記号判別モジュール121、ラベリングモジュール123、学習モジュール125及び制御モジュール127を駆動させることができ、記号判別モジュール121、ラベリングモジュール123、学習モジュール125及び制御モジュール127により遂行される動作は、プロセッサ120により遂行される動作と理解され得る。
記号判別モジュール121は、学習データDB111に含まれた複数の施設平面図それぞれに対して、施設平面図に含まれた窓領域と門領域を特定できる。
記号判別モジュール121は、文字を検出するアルゴリズム(ex.OCR検出アルゴリズム)に基づいて施設平面図に含まれた文字を検出後に除去し、施設平面図に含まれた色相のうち黒色を除く全ての部分を白色に変換させることができる。例えば、記号判別モジュール121は、施設平面図に含まれたピクセルのRGB情報が(0、0、0)であるピクセルはRGB情報を維持し、施設平面図に含まれたピクセルのRGB情報が(0、0、0)でないピクセルのRGB情報を(255、255、255)に変換させる動作を遂行することができる。
以後、記号判別モジュール121は、黒色で構成された線分または白色領域枠を連結した輪郭に基づいて矩形と弧を検出する動作を遂行することができる。このとき、記号判別モジュール121は、矩形のうち広さが既設定された値より小さいか、既設定された値より大きい場合、門や窓でない矩形と判別して、該当矩形を門や窓の検出対象から除去できる。ここで、既設定された値は、学習に使用される施設平面図に含まれた門や窓の記号の広さに基づいて範囲を決定でき、施設平面図のイメージの大きさによって記号の広さが変わり得るので、学習に使用される施設平面図のイメージの大きさに基づいて決定できる。
また、記号判別モジュール121は、矩形のうち弧と連結された第1矩形がある場合に、第1矩形と連結されて垂直をなす線分が存在しながら、このとき、弧が第1矩形の末端及び前記線分の末端と連結されていたら、第1矩形を門領域と判別できる。記号判別モジュール121は、矩形のうち弧と連結されていない第2矩形を窓領域と判別できる。
上述した記号判別モジュール121の動作は、施設平面図が高画質の原本に該当する場合に適し得る。一方、記号判別モジュール121がノイズが多く含まれた施設平面図から門と窓を検出する動作は、図3乃至図5と共により詳細に後述する。
ラベリングモジュール123は、記号判別モジュール121により特定された窓領域のピクセルを窓のクラスにラベリングし、記号判別モジュール121により特定された門領域のピクセルを門のクラスにラベリングできる。また、ラベリングモジュール123は、窓と門以外の全ての領域のピクセルをnullのクラスにラベリングできる。ラベリングモジュール123は、同じクラスに該当するピクセル領域には、互いに同じ色相に対するRGB情報を該当ピクセル領域に適用し、異なるクラスに該当するピクセル領域同士は、互いに異なる色相に対するRGB情報をピクセル領域に適用する方式でラベリングできる。例えば、ラベリングモジュール123は、施設平面図で窓が位置するピクセル領域は黄色に、門が位置するピクセル領域は赤色に、その他のピクセル領域は黒色にピクセル情報を変更して、それぞれのクラス(ex.窓、門、その他の領域)をラベリングできる。
学習モジュール125は、イメージ分割アルゴリズム基盤に設計された神経網モデルに複数の施設平面図とピクセル単位にラベリングされたデータを入力して、複数の施設平面図に含まれた窓と門のクラス及びラベリングされたピクセル位置の相関関係を導出する神経網モデルの重み付けを学習させることで、相関関係に基づいて施設平面図に含まれた窓と門の位置及びクラスを判別する神経網モデルを生成できる。
学習モジュール125は、イメージ分割アルゴリズムのうちMask R-CNNアルゴリズムに基づいて設計された神経網の入力レイヤに複数の施設平面図が入力されるように設定し、出力レイヤには複数の施設平面図に含まれた窓/門/backgroundのクラス及びラベリングされたピクセルの位置が入力されるように設定して、複数の施設平面図に含まれた窓と門のクラス及びラベリングされたピクセルの位置との相関関係を導出する神経網の重み付けを学習させる動作を遂行することができる。
制御モジュール127は、学習が完了した神経網モデルに施設平面図を入力して門と窓の領域を特定でき、韓国登録特許公報第10-1638378号の技術を通して2次元平面図に提示された空間に対する情報と数値に基づいて3次元モデリングを遂行することで、2次元施設平面図に対する3次元空間情報を提供できる。
入力インターフェース130は、学習または検出に使用される施設平面図の入力を受けることができる。
ディスプレイ部140は、ディスプレイパネルを含んで画像を出力するハードウェア構成を含むことができる。
通信インターフェース150は、外部装置と通信して情報を送受信できるようにする。このために、通信インターフェース150は、無線通信モジュールまたは有線通信モジュールを含むことができる。
以下、上述した記号判別モジュール121のより具体的な動作を図3乃至図5と共に説明する。
図3乃至図5は、本発明の一実施例に係る施設平面図に含まれた記号分析装置が施設平面図に対する変換を通して門と窓を検出し、ラベリングする動作の例示図である。
図3(a)を参照すると、記号判別モジュール121は、施設平面図でOCR検出アルゴリズムを通して文字を除去した第1平面図を生成できる。
図3(b)を参照すると、記号判別モジュール121は、第1平面図を白黒色相に変換するために下記数1及び数2を通して第1平面図のピクセル情報を変換させた第2平面図を生成できる。

(src(I):ピクセル情報の変更前の元素値(x、y、z)、α:10、β:-350、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))

(R:数1で求められたdst(I)の(x’、y’、z’)のうちx’、G:数1で求められたdst(I)の(x’、y’、z’)のうちy’、B:数1で求められたdst(I)の(x’、y’、z’)のうちz’、Y:1次元元素値)
これによって変換された図3(b)の第2平面図を検討すると、黒色線分が一部切れているが、これは、施設平面図のイメージにノイズが挿入され、本来黒色部分であったピクセル情報がアップロード/ダウンロード/圧縮等により情報が変換されてRGB情報が(0、0、0)でない値を有するようになったためである。これによって、記号判別モジュール121は、後述する動作を通してノイズ情報を除去できる。
図3(c)を参照すると、記号判別モジュール121は、第2平面図を構成する線分からなる矩形のうち既設定された広さより大きいか既設定された広さより小さい部分を黒色で示した第3平面図を生成できる。第3平面図は、門と窓の領域に比して広さが非常に大きな領域や小さな領域をアウトライアと扱って除去するのに使用される。
図3(d)を参照すると、記号判別モジュール121は、第1平面図を構成するピクセルのうち色相元素値が0以上30以下であり、彩度元素値が80以上220以下であり、明度元素値が150以上225以下の値を有するピクセルを白色に変換した第4平面図を生成できる。記号判別モジュール121は、第1平面図に含まれたHSV情報を基盤に該当動作を遂行することができ、HSV情報は、RGB情報から変換されて導出され得る。第4平面図は、色相変化が急激になる枠領域を基準に色を区分する。
図4(a)を参照すると、記号判別モジュール121は、第1平面図に第3平面図の黒色領域と第4平面図の白色領域を適用した第5平面図を生成できる。図3(c)の第3平面図の適用は、門と窓の領域に比して広さが非常に大きな領域や小さな領域をアウトライアと扱って除去するためである。図3(d)の第4平面図の適用は、一般にノイズが色相変化が急激なピクセル領域に発生するという点に着眼して、色相変化が急激な枠を基準に施設平面図の色相を白黒に区分し、これを第1平面図に合成して図4(a)のように原本の色相対比を増加させてノイズによる影響力を減殺させることができる。
図4(b)を参照すると、記号判別モジュール121は、下記数3乃至数5を通して第5平面図のピクセル情報を変換させた第6平面図を生成できる。

(src(I):ピクセル情報の変更前の元素値(x、y、z)、α:3、β:-350、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))

(R:数3で求められたdst(I)の(x’、y’、z’)のうちx’、G:数3で求められたdst(I)の(x’、y’、z’)のうちy’、B:数3で求められたdst(I)の(x’、y’、z’)のうちz’、Y:1次元元素値)

(Y:数4で求められた1次元元素値)
数1は、黒色部分を除いて全て白色に変換させたのに対し、数3は、既存の色相を白色と黒色の方に両極化させ、数4は、両極化された色相をグレースケールに変換させ、数5は、両極化されたグレースケールを白黒に変換させる。これによって生成された図4(b)の第6平面図は、全ての黒線分が切れることなく変換されたことを確認することができる。このとき、記号判別モジュール121は、さらに第6平面図で白い部分を減少させるモルフォロジー侵食(morphology erode)演算を適用してノイズを最小化することもできる。
図4(c)及び図4(d)を参照すると、記号判別モジュール121は、第6平面図の白色領域枠を連結した輪郭を生成して施設平面図で窓または門の記号に該当し得る矩形領域を検出できる。
記号判別モジュール121は、輪郭がなす図形が矩形である場合、矩形の広さまたは矩形の横/縦の比率に基づいて窓または門領域に該当する矩形を判別できる。
例えば、施設平面図のイメージの幅が923、イメージの高さが676である場合を基準(数字は比率に代替可能で単位を省略する)に適用する場合、次の条件で図4(b)で白い領域を除くことができ、図4(c)のように門または窓に該当する四角形領域を検出できる。
a.輪郭が形成する図形の広さが1,000より大きい場合に除く
b.輪郭が形成する四角形の幅または高さの最小値が10より大きい場合に除く
c.輪郭が形成する図形の広さが非正常に小さい場合(ex.40以下)に除く
d.輪郭が形成する最小単位四角形の幅と輪郭が形成する図形の幅が誤差範囲を超えて異なる場合に除く
e.輪郭が形成する最小単位四角形の幅と高さの比がx:1(xは、0.5以上2以下)である場合に除く
図5(a)を参照すると、記号判別モジュール121は、下記数6乃至数8を通して第2平面図のピクセル情報を変換させた第7平面図を生成できる。

(src(I):ピクセル情報の変更前の元素値(x、y、z)、α:57、β:-12500、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))

(R:数6で求められたdst(I)の(x’、y’、z’)のうちx’、G:数6で求められたdst(I)の(x’、y’、z’)のうちy’、B:数6で求められたdst(I)の(x’、y’、z’)のうちz’、Y:1次元元素値)

(Y:数7で求められた1次元元素値)
数6は、施設平面図の色相と彩度を基準にピクセル情報の色相を両極化させることができ、数7は、両極化された色相をグレースケールに変換させ、数8は、グレースケールを白黒に変換させる。
図5(b)を参照すると、記号判別モジュール121は、第7平面図の白色領域枠を連結した輪郭を生成し、Douglas-Peuckerアルゴリズムに基づいて凹凸な形態の輪郭を近似化(ex.Douglas-Peuckerアルゴリズムのepsilon指数は、輪郭が形成する輪郭の全長の0.02=1/50に該当する値)して滑らかに変換した後、近似化された輪郭のうち凸包(Convex hull)に該当する輪郭を検出し、凸包(Convex hull)に該当する輪郭がなす広さが所定範囲以内である場合を弧に検出できる。例えば、凸包の広さが200より大きく、800より小さく、かつ、近似化された輪郭地点が10個以下である場合を弧に検出できる。
図5(b)を参照すると、記号判別モジュール121は、図4(c)に検出された矩形のうち図5(b)の弧と隣接する矩形を門に検出し、残りの矩形を窓に検出し、ラベリングモジュール123は、検出された情報に基づいてラベリングできる。
図5(d)を参照すると、学習モジュール125は、イメージ分割アルゴリズム基盤に設計された神経網モデルに複数の施設平面図(図1)とピクセル単位にラベリングされたデータ(図5(d))を入力して、複数の施設平面図に含まれた窓と門のクラス及びラベリングされたピクセル位置の相関関係を導出する神経網モデルの重み付けを学習させることで、相関関係に基づいて施設平面図に含まれた窓と門の位置及びクラスを判別する神経網モデルを生成できる。
図6は、本発明の一実施例に係る施設平面図に含まれた記号分析装置100が生成した神経網モデルが施設平面図から門と窓を区分した結果を示す例示図である。
図6を参照すると、神経網モデルに入力された新たな平面図に含まれた窓と門の位置をピクセル単位に検出し、クラスもまた高い正確度で検出できるということを確認することができる。このような神経網モデルは、図7のように韓国登録特許公報第10-1638378号の技術と融合され得る。
図7は、本発明の一実施例に係る施設平面図に含まれた記号分析装置100が生成した神経網モデル及び韓国登録特許公報第10-1638378号の技術を使用して2次元平面図から3次元モデリングを遂行した3次元図面の例示図である。
図7を参照すると、本発明の一実施例に係る施設平面図に含まれた記号分析装置100は、平面図上で門と窓の記号を自動で区分し、区分された門と窓そのものをピクセル単位にラベリングして平面図で窓と門を正確に区分するモデルを生成して、韓国登録特許公報第10-1638378号(2次元図面に基づいた3次元自動立体モデリング方法及びプログラム)の技術に融合させることで、2次元平面図(図7(a))の門と窓をより正確に区分して効率的な3次元モデリング(図7(b)、図7(c))を遂行することができる。
図8は、本発明の一実施例に係る施設平面図に含まれた記号分析方法のフローチャートである。図8による施設平面図に含まれた記号分析方法の各ステップは、図1を通して説明された施設平面図に含まれた記号分析装置100により遂行され得、各ステップを説明すると、次のとおりである。
入力インターフェース130は、複数の施設平面図を獲得する(S810)。記号判別モジュール121は、複数の施設平面図にそれぞれに含まれた矩形及び矩形に連結された弧を検出する(S820)。記号判別モジュール121は、矩形及び弧に基づいて窓領域と門領域を特定する(S830)。ラベリングモジュール123は、特定された窓領域のピクセルを窓のクラスにラベリングし、特定された門領域のピクセルを門のクラスにラベリングする(S840)。学習モジュール125は、イメージ分割アルゴリズム基盤に設計された神経網モデルに複数の施設平面図とピクセル単位にラベリングされたデータを入力して、複数の施設平面図に含まれた窓と門のクラス及びラベリングされたピクセルの位置の相関関係を導出する神経網モデルの重み付けを学習させることで、相関関係に基づいて施設平面図に含まれた窓と門の位置及びクラスを判別する神経網モデルを生成する(S850)。
一方、上述した各ステップの主体である構成要素が該当ステップを実施するための過程は、図1乃至図7と共に説明したので、重複した説明は省略する。
上述した本発明の実施例は、多様な手段を通して具現され得る。例えば、本発明の実施例は、ハードウェア、ファームウェア(firmware)、ソフトウェアまたはそれらの結合等により具現され得る。
ハードウェアによる具現の場合、本発明の実施例に係る方法は、一つまたはそれ以上のASICs(Application Specific Integrated Circuits)、DSPs(Digital Signal Processors)、DSPDs(Digital Signal Processing Devices)、PLDs(Programmable Logic Devices)、FPGAs(Field Programmable Gate Arrays)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ等により具現され得る。
ファームウェアやソフトウェアによる具現の場合、本発明の実施例に係る方法は、以上において説明された機能または動作を遂行するモジュール、手順または関数等の形態に具現され得る。ソフトウェアコード等が書き込まれたコンピュータプログラムは、コンピュータ読み取り可能書き込み媒体またはメモリユニットに格納されてプロセッサにより駆動され得る。メモリユニットは、プロセッサの内部または外部に位置して、既に公知になった多様な手段によりプロセッサとデータを受け渡しすることができる。
また、本発明に添付のブロック図の各ブロックとフローチャートの各ステップの組み合わせは、コンピュータプログラムインストラクションにより遂行されてもよい。これらのコンピュータプログラムインストラクションは、汎用コンピュータ、特殊用コンピュータまたはその他のプログラム可能なデータプロセシング装備のエンコーディングプロセッサに搭載され得るので、コンピュータまたはその他のプログラム可能なデータプロセシング装備のエンコーディングプロセッサを通して遂行されるそのインストラクションがブロック図の各ブロックまたはフローチャートの各ステップで説明された機能を遂行する手段を生成するようになる。これらのコンピュータプログラムインストラクションは、特定方法で機能を具現するためにコンピュータまたはその他のプログラム可能なデータプロセシング装備を目指すことのできるコンピュータ利用可能またはコンピュータ読み取り可能メモリに格納されることも可能であるので、そのコンピュータ利用可能またはコンピュータ読み取り可能メモリに格納されたインストラクションは、ブロック図の各ブロックまたはフローチャートの各ステップで説明された機能を遂行するインストラクション手段を内包する製造品目を生産することも可能である。コンピュータプログラムインストラクションは、コンピュータまたはその他のプログラム可能なデータプロセシング装備上に搭載されることも可能であるので、コンピュータまたはその他のプログラム可能なデータプロセシング装備上で一連の動作ステップが遂行されてコンピュータで実行されるプロセスを生成してコンピュータまたはその他のプログラム可能なデータプロセシング装備を遂行するインストラクションは、ブロック図の各ブロック及びフローチャートの各ステップで説明された機能を実行するためのステップを提供することも可能である。
併せて、各ブロックまたは各ステップは、特定された論理的機能を実行するための一つ以上の実行可能なインストラクションを含むモジュール、セグメントまたはコードの一部を示すことができる。また、いくつかの代替実施例では、ブロックまたはステップで言及された機能が順序を外れて発生することも可能であることを注目すべきである。例えば、引き続き図示されている二つのブロックまたはステップは、実際、実質的に同時に遂行されることも可能であり、またはそのブロックまたはステップが時々該当する機能によって逆順に遂行されることも可能である。
このように、本発明の属する技術の分野における当業者は、本発明がその技術的思想や必須特徴を変更することなく他の具体的な形態で実施され得るということが理解できるだろう。それゆえ、以上において記述した実施例は、全ての面で例示であり、限定的なものではないものとして理解すべきである。本発明の範囲は、詳細な説明よりは後述する特許請求の範囲により示され、特許請求の範囲の意味及び範囲、そしてその等価概念から導出される全ての変更または変形された形態が本発明の範囲に含まれるものと解釈されるべきである。

Claims (14)

  1. 施設平面図に含まれた記号分析装置において、
    所定の動作を遂行するようにする命令語を格納する一つ以上のメモリ;及び前記一つ以上のメモリと動作できるように連結されて前記命令語を実行するように設定された一つ以上のプロセッサを含み、
    前記プロセッサが遂行する動作は、
    複数の施設平面図を獲得する動作;
    前記複数の施設平面図にそれぞれに含まれた矩形及び前記矩形に連結された弧を検出する動作;
    前記矩形及び前記弧に基づいて窓領域と門領域を特定する動作;
    前記特定された窓領域のピクセルを窓のクラスにラベリングし、前記特定された門領域のピクセルを門のクラスにラベリングする動作;及び
    所定のイメージ分割アルゴリズム基盤に設計された神経網モデルに前記複数の施設平面図とピクセル単位にラベリングされたデータを入力して、前記複数の施設平面図に含まれた窓と門のクラス及び前記ラベリングされたピクセルの位置の相関関係を導出する前記神経網モデルの重み付けを学習させることで、前記相関関係に基づいて施設平面図に含まれた窓と門の位置及びクラスを判別する神経網モデルを生成する動作を含む、
    施設平面図に含まれた記号分析装置。
  2. 前記検出する動作は、
    施設平面図に含まれた黒色を除く全ての部分を白色に変換させる動作;及び
    前記黒色で構成された線分または白色領域枠を連結した輪郭に基づいて前記矩形及び前記弧を検出する動作を含む、
    請求項1に記載の施設平面図に含まれた記号分析装置。
  3. 前記検出する動作は、
    前記施設平面図に含まれた文字を除去する動作をさらに含む、
    請求項2に記載の施設平面図に含まれた記号分析装置。
  4. 前記白色に変換させる動作は、
    施設平面図に含まれたピクセルのRGB情報が(0、0、0)であるピクセルはRGB情報を維持し、施設平面図に含まれたピクセルのRGB情報が(0、0、0)でないピクセルのRGB情報を(255、255、255)に変換させる動作を含む、
    請求項2に記載の施設平面図に含まれた記号分析装置。
  5. 前記窓領域と門領域を特定する動作は、
    前記矩形のうち前記弧と連結された第1矩形を門領域に検出する動作;及び
    前記矩形のうち前記弧と連結されていない第2矩形を窓領域に検出する動作を含む、
    請求項1に記載の施設平面図に含まれた記号分析装置。
  6. 前記門領域に検出する動作は、
    前記第1矩形と連結されて垂直をなす線分が存在し、前記弧が前記第1矩形の末端及び前記線分の末端と連結された場合、前記第1矩形を門領域に検出する、
    請求項5に記載の施設平面図に含まれた記号分析装置。
  7. 前記窓領域と門領域を特定する動作は、
    前記矩形のうち広さが既設定された値より小さいか、既設定された値より大きい場合、前記検出から除去する動作をさらに含む、
    請求項5に記載の施設平面図に含まれた記号分析装置。
  8. 前記ラベリングする動作は、
    前記窓及び前記門以外の全ての領域のピクセルをnullのクラスにラベリングする動作を含む、
    請求項1に記載の施設平面図に含まれた記号分析装置。
  9. 前記検出する動作は、
    前記施設平面図でOCR検出アルゴリズムを通して文字を除去した第1平面図を生成する動作;
    下記数1及び数2を通して前記第1平面図のピクセル情報を変換させた第2平面図を生成する動作;

    (src(I):ピクセル情報の変更前の元素値(x、y、z)、α:10、β:-350、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))

    (R:数1で求められたdst(I)の(x’、y’、z’)のうちx’、G:数1で求められたdst(I)の(x’、y’、z’)のうちy’、B:数1で求められたdst(I)の(x’、y’、z’)のうちz’、Y:1次元元素値)
    前記第2平面図を構成する線分からなる矩形のうち既設定された広さより大きいか既設定された広さより小さい部分のみ黒色で示した第3平面図を生成する動作;
    前記第1平面図を構成するピクセルのうち色相元素値が0以上30以下であり、彩度元素値が80以上220以下であり、明度元素値が150以上225以下の値を有するピクセルを白色に変換した第4平面図を生成する動作;
    前記第1平面図に前記第3平面図の黒色領域と前記第4平面図の白色領域を適用した第5平面図を生成する動作;
    下記数3乃至数5を通して前記第5平面図のピクセル情報を変換させた第6平面図を生成する動作;

    (src(I):ピクセル情報の変更前の元素値(x、y、z)、α:3、β:-350、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))

    (R:数3で求められたdst(I)の(x’、y’、z’)のうちx’、G:数3で求められたdst(I)の(x’、y’、z’)のうちy’、B:数3で求められたdst(I)の(x’、y’、z’)のうちz’、Y:1次元元素値)

    (Y:数4で求められた1次元元素値)
    前記第6平面図の白色領域枠を連結した輪郭を生成して矩形を検出する動作を含む、
    請求項1に記載の施設平面図に含まれた記号分析装置。
  10. 前記検出する動作は、
    前記施設平面図でOCR検出アルゴリズムを通して文字を除去した第1平面図を生成する動作;
    下記数6乃至数8を通して前記第2平面図のピクセル情報を変換させた第7平面図を生成する動作;

    (src(I):ピクセル情報の変更前の元素値(x、y、z)、α:57、β:-12500、dst(I):ピクセル情報の変更後の元素値(x’、y’、z’))

    (R:数6で求められたdst(I)の(x’、y’、z’)のうちx’、G:数6で求められたdst(I)の(x’、y’、z’)のうちy’、B:数6で求められたdst(I)の(x’、y’、z’)のうちz’、Y:1次元元素値)

    (Y:数7で求められた1次元元素値)
    前記第7平面図の白色領域枠を連結した輪郭を生成する動作;及び
    前記輪郭をDouglas-Peuckerアルゴリズムに基づいて近似化して前記近似化された輪郭のうち凸包(Convex hull)に該当する輪郭を検出し、前記凸包(Convex hull)がなす広さが所定範囲以内である場合を弧に検出する動作を含む、
    請求項1に記載の施設平面図に含まれた記号分析装置。
  11. 前記神経網モデルを生成する動作は、
    Mask R-CNNアルゴリズムに基づいて設計された神経網の入力レイヤに前記複数の施設平面図が入力されるように設定し、出力レイヤには前記複数の施設平面図に含まれた窓と門のクラス及び前記ラベリングされたピクセルの位置が入力されるように設定して、前記複数の施設平面図に含まれた窓と門のクラス及び前記ラベリングされたピクセルの位置との相関関係を導出する神経網の重み付けを学習させる動作を含む、
    請求項1に記載の施設平面図に含まれた記号分析装置。
  12. 請求項1乃至11のいずれか一項に記載の装置が生成した神経網モデルを含む装置。
  13. 施設平面図に含まれた記号分析装置が遂行する方法において、
    複数の施設平面図を獲得するステップ;
    前記複数の施設平面図にそれぞれに含まれた矩形及び前記矩形に連結された弧を検出するステップ;
    前記矩形及び前記弧に基づいて窓領域と門領域を特定するステップ;
    前記特定された窓領域のピクセルを窓のクラスにラベリングし、前記特定された門領域のピクセルを門のクラスにラベリングするステップ;及び
    所定のイメージ分割アルゴリズム基盤に設計された神経網モデルに前記複数の施設平面図とピクセル単位にラベリングされたデータを入力して、前記複数の施設平面図に含まれた窓と門のクラス及び前記ラベリングされたピクセルの位置の相関関係を導出する前記神経網モデルの重み付けを学習させることで、前記相関関係に基づいて施設平面図に含まれた窓と門の位置及びクラスを判別する神経網モデルを生成するステップを含む、
    施設平面図に含まれた記号分析方法。
  14. 請求項13に記載の方法をプロセッサが遂行するようにするコンピュータ読み取り可能書き込み媒体に格納されたコンピュータプログラム。
JP2023504673A 2020-07-23 2021-07-22 施設平面図に含まれた記号分析装置及び方法 Withdrawn JP2023535084A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2020-0091781 2020-07-23
KR1020200091781A KR102208694B1 (ko) 2020-07-23 2020-07-23 시설 평면도에 포함된 기호 분석 장치 및 방법
PCT/KR2021/009480 WO2022019675A1 (ko) 2020-07-23 2021-07-22 시설 평면도에 포함된 기호 분석 장치 및 방법

Publications (1)

Publication Number Publication Date
JP2023535084A true JP2023535084A (ja) 2023-08-15

Family

ID=74239299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023504673A Withdrawn JP2023535084A (ja) 2020-07-23 2021-07-22 施設平面図に含まれた記号分析装置及び方法

Country Status (6)

Country Link
US (1) US20230222829A1 (ja)
EP (1) EP4184351A1 (ja)
JP (1) JP2023535084A (ja)
KR (3) KR102208694B1 (ja)
CN (1) CN116490901A (ja)
WO (1) WO2022019675A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102208694B1 (ko) * 2020-07-23 2021-01-28 주식회사 어반베이스 시설 평면도에 포함된 기호 분석 장치 및 방법
KR20230174318A (ko) 2022-06-17 2023-12-28 단국대학교 산학협력단 인공지능 모델을 이용하여 건축도면으로부터 개산견적을 산출하는 방법
KR20230174317A (ko) 2022-06-17 2023-12-28 단국대학교 산학협력단 건축도면 구조부재 인식을 위한 인공지능 모델 생성 방법
KR20240037716A (ko) * 2022-09-15 2024-03-22 한양대학교 산학협력단 인공신경망을 이용한 창세트 정보 자동 산출 방법 및 장치
US11928395B1 (en) * 2023-04-14 2024-03-12 Hubstar International Limited Floorplan drawing conversion and analysis for space management

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101638378B1 (ko) 2014-11-28 2016-07-11 주식회사 어반베이스 2차원 도면에 기반한 3차원 자동 입체모델링 방법 및 프로그램
KR102145726B1 (ko) * 2016-03-22 2020-08-19 (주) 아키드로우 기계 학습 알고리즘을 이용한 도어 이미지 검출 방법 및 장치
KR102294421B1 (ko) * 2016-04-08 2021-08-26 (주) 아키드로우 인테리어 정보 처리 장치 및 방법
US10346723B2 (en) * 2016-11-01 2019-07-09 Snap Inc. Neural network for object detection in images
KR102208694B1 (ko) * 2020-07-23 2021-01-28 주식회사 어반베이스 시설 평면도에 포함된 기호 분석 장치 및 방법

Also Published As

Publication number Publication date
KR102208694B1 (ko) 2021-01-28
WO2022019675A1 (ko) 2022-01-27
US20230222829A1 (en) 2023-07-13
CN116490901A (zh) 2023-07-25
EP4184351A1 (en) 2023-05-24
KR102208694B9 (ko) 2022-03-11
KR20220012788A (ko) 2022-02-04
KR20220012789A (ko) 2022-02-04

Similar Documents

Publication Publication Date Title
JP2023535084A (ja) 施設平面図に含まれた記号分析装置及び方法
US10372226B2 (en) Visual language for human computer interfaces
Marques Practical image and video processing using MATLAB
JP6330385B2 (ja) 画像処理装置、画像処理方法およびプログラム
US10509959B2 (en) Method and device for segmenting lines in line chart
Goel et al. Specific color detection in images using RGB modelling in MATLAB
CN111739027B (zh) 一种图像处理方法、装置、设备及可读存储介质
AU2015201623A1 (en) Choosing optimal images with preference distributions
Ismail et al. Hand gesture recognition on python and opencv
US10417772B2 (en) Process to isolate object of interest in image
CN108985201A (zh) 图像处理方法、介质、装置和计算设备
US11468571B2 (en) Apparatus and method for generating image
KR102430743B1 (ko) 데이터 증강 기반 사물 분석 모델 학습 장치 및 방법
WO2020105146A1 (ja) 情報処理装置、制御方法、及びプログラム
US20230342890A1 (en) High Resolution Inpainting with a Machine-learned Augmentation Model and Texture Transfer
US20230005107A1 (en) Multi-task text inpainting of digital images
Juneja et al. A hybrid mathematical model for face localization over multi-person images and videos
JP2023519527A (ja) アルファチャネルにおけるオートエンコーダに基づくセグメンテーションマスクの生成
Chaczko et al. A preliminary investigation on computer vision for telemedicine systems using OpenCV
CN111062862A (zh) 基于颜色的数据增强方法和系统及计算机设备和存储介质
CN114241407B (zh) 一种基于深度学习的近距离屏幕监控方法
CN113744141B (zh) 图像的增强方法、装置和自动驾驶的控制方法、装置
Rombovsky et al. Automation of research area recognition under weak-contrast borders on a picture of transparent objects
JP6044130B2 (ja) 画像領域分割装置、方法、およびプログラム
EP4152255A1 (en) System and method for differentiating a tissue of interest from another part of a medical scanner image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231207

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20231218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240115