JP7280039B2 - 建造物を表現する3dモデルの生成 - Google Patents

建造物を表現する3dモデルの生成 Download PDF

Info

Publication number
JP7280039B2
JP7280039B2 JP2018241147A JP2018241147A JP7280039B2 JP 7280039 B2 JP7280039 B2 JP 7280039B2 JP 2018241147 A JP2018241147 A JP 2018241147A JP 2018241147 A JP2018241147 A JP 2018241147A JP 7280039 B2 JP7280039 B2 JP 7280039B2
Authority
JP
Japan
Prior art keywords
semantic segmentation
mask
model
floorplan
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018241147A
Other languages
English (en)
Other versions
JP2019121386A (ja
Inventor
レジャブ・スファール アズマ
デュポン・ド・ディネシャン ルイス
ブルケナフェド マリカ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dassault Systemes SE
Original Assignee
Dassault Systemes SE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dassault Systemes SE filed Critical Dassault Systemes SE
Publication of JP2019121386A publication Critical patent/JP2019121386A/ja
Application granted granted Critical
Publication of JP7280039B2 publication Critical patent/JP7280039B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/13Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/04Architectural design, interior design

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Civil Engineering (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Structural Engineering (AREA)
  • Architecture (AREA)
  • Image Analysis (AREA)

Description

本発明は、コンピュータプログラムおよびシステムの分野に関し、より具体的には、建造物のレイアウトを表現する2次元(2D)のフロアプランを処理するための、方法、システム、およびプログラムに関する。
多くのシステムおよびプログラムが、オブジェクトの、設計、エンジニアリング、および製造のためにマーケットに提供される。CADは、コンピュータ援用設計(Computer-Aided Design)の頭文字であり、例えば、オブジェクトを設計するためのソフトウェアソリューションに関する。CAEは、コンピュータ援用エンジニアリング(Computer-Aided Engineering)の頭文字であり、例えば、将来の製品の物理的な振る舞いをシミュレーションするためのソフトウェアソリューションに関する。CAMは、コンピュータ援用製造(Computer-Aided Manufacturing)の頭文字であり、例えば、製造プロセスおよびオペレーションを規定するためのソフトウェアソリューションに関する。そのようなコンピュータ援用設計システムにおいて、グラフィカルユーザインタフェースは、技術の効率に関する重要な役割を果たす。これらの技術は、製品ライフサイクル管理(PLM)システム内に埋め込まれていてもよい。PLMは、拡張エンタープライズの概念全体にわたって、会社が、製品データを共有し、共通の工程を適用し、構想からそれらの寿命の終わりまで製品の開発のための企業知識を活用することを支援する経営戦略を指す。ダッソー・システムズ(Dassault Systemes)(CATIA、ENOVIAおよびDELMIAの商標のもと)によって提供されるPLMソリューションは、エンジニアリングハブ(製品エンジニアリング知識を組織する)、製造ハブ(製造エンジニアリング知識を管理する)、および、企業ハブ(エンジニアリングハブおよび製造ハブの両方への企業統合および接続を可能にする)を提供する。それらすべてで、システムは、ダイナミックな、知識に基づいた製品創造と、最適化された製品定義、製造準備、生産およびサービスを推進する意志決定支援とを可能にする、リソース、プロセス、製品をリンクするオープンオブジェクトモデルをもたらす。
このような状況等において、2Dフロアプランのコンピュータ化された処理を提供することが有用となる可能性がある。
研究者およびCAD開発者は、特に、3次元(3D)の建造物モデルへの2Dの建築のフロアプラン画像の転換を、自動化および加速しようとしてきた。いくつかの最新のアプローチを、以下に列挙する論文[1]および[2](およびそれらの中で引用された参考文献)の中に見出すことができる。
2Dフロアプランを3Dモデルに変換するための1つのステージは、フロアプランの記号(これは、あるプランと別のプランとで非常に異なりうる)を認識することかもしれない。これについて、ほとんどのアプローチは、画像処理およびパターン認識技術に依存しており、従って普遍性に欠ける。パターン認識装置は、典型的には、予め定められた記号の、限定された集合に制約される。以下に列挙する論文[3]は、そのようなアプローチの一例である。
例えば以下に列挙する論文[5]および[6]の中で示唆されているように、提案された道筋は、通常、最初に2Dプランを前処理することからなる。これについて、画像処理方法および文書処理方法の両方は、テキストコンテンツから図形を分離するために使用される。次に、画像は、誤差の原因となりうる、混乱を生じさせる要素(例えば、階段、家具付きの要素)の削除によって、さらにクリーンにされる。この処理の最後において、残っている線の中から壁を表現するものを選択することを目的とする。これについては、基準の壁厚に近い値を選ばなければならない。しかしながら、建設領域および設計者によって、異なる厚さが存在する。次に、屋外の壁および開口部が認識される。パターン認識方法は通常、開口部のタイプを決定するために使用される。例えば、論文[3]によって示唆されたアプローチでは、「弧(arc)」のモチーフが、それぞれの開口部のまわりでサーチされ、モチーフが見つかった場合には、次にそれはドアタイプに設定され、そうでない場合には窓タイプに設定される。最後に、屋内の壁および開口部が認識される。パターン認識技術に加えて、いくつかの研究は、学習アプローチを、特に壁の検出(例えば、論文[6]に示唆されているような、壁のパッチに基づくオブジェクトセグメンテーション)に使用してきた。そのような道筋では、効果がないシステムをもたらすことになる誤差および矛盾が、あるステップから別のステップに当然に蓄積されることは明らかだと思われる。このため、いくつかの研究は、最初に例えばオリジナルのファイル中のいくつかの問題を解決すること(以下に列挙する論文[4]の中で示唆されているように)によって、または、いくつかのステップの後に例えばユーザに修正に対するいくつかの選択肢を提案すること(論文[5]の中で示唆されているように)によって、認識処理にユーザを巻き込むことを試みてきた。しかしながら、論文[5]における統計が、テストされたプランの大多数に対して約15のユーザの介在が必要とされ、いくつかのプランに対して40を超える介在が必要とされたことを示している、ということに言及することには意味がある。ユーザの介在によって、高コストおよび非常に長い処理(非リアルタイム性)がもたらされる。
この状況において、2Dフロアプランを処理する改善されたソリューションが、依然として必要とされている。
[先に引用された学術的な論文のリスト]
[1] Xuetao Y. et al., Generating 3D Building Models from Architectural Drawings: A Survey IEEE Computer Graphics and Applications, 2009 [2]Gimenez, L. et al., Review: reconstruction of 3d building information models from 2d scanned plans. Journal of Building Engineering, pp. 24-35, 2015 [3]Gimenez L. et al. Reconstruction of 3D building models from 2D scanned plans-opening the path for enhanced decision support in renovation design ECPPM 2014 [4]Dominguez B. et al. Semiautomatic detection of floor topology from CAD architectural drawings Computer-Aided Design, 2012 [5]Gimenez L. et al. A novel approach to 2D drawings-based reconstruction of 3D building digital models, Building information modeling (BIM) in design construction and operations, vol 149, 2015 [6]Heras, L.-P. de las et al. Wall Patch-Based Segmentation in Architectural Floorplans, ICDAR-2011
従って、建造物を表現する3Dモデルを生成するためのコンピュータ実行方法が提供される。本方法は、前記建造物のレイアウトを表現する2Dフロアプランを供給することを含む。本方法はさらに、前記2Dフロアプランのセマンティックセグメンテーション(semantic segmentation)を決定することを含む。本方法はさらに、前記セマンティックセグメンテーションに基づいて前記3Dモデルを決定することを含む。
本方法は、以下の1つ以上を含んでもよい。
本方法は、前記セマンティックセグメンテーションを建造物のレイアウトを表現する2Dモデルに変換することを含み、前記3Dモデルの決定は前記2Dモデルから行われる。
前記セマンティックセグメンテーションを前記2Dモデルに変換することは、建築のオブジェクトクラスの所定の集合のクラスごとに、前記セマンティックセグメンテーションに基づいてマスクを決定すること、および、前記決定されたマスクに基づいて前記2Dモデルを生成すること、を含む。
各々のクラスごとにマスクを決定することは、前記各々のクラスに対応するセマンティックセグメンテーションのピクセルのすべてでの初期化、スケルトン化、および、線分の数を減らすための線分の併合、を含む。
線分の併合において、所定の共線性閾値を上回る線分と所定の距離閾値を下回る線分とのペアが併合される。
建築のオブジェクトクラスの前記所定の集合は壁クラスを含み、2Dモデルを生成することは、前記壁クラスに関する前記マスク中の線分の連結を含む。
-建築のオブジェクトクラスの前記所定の集合は、窓クラス、および/またはドアクラスをさらに含み、前記2Dモデルを生成することは前記窓クラスに関する前記マスクの線分、および/または前記ドアクラスに関する前記マスクの線分のそれぞれを、前記壁マスクの各々の線分上へ投影することをさらに含む。
-それぞれの投影線分は、所定の共線性閾値を上回る前記投影線分との共線性を与えるものの中で前記壁マスクに最も近い線分に投影される。
-前記2Dフロアプランのセマンティックセグメンテーションを決定することは、0.85より高い平均正解率、および/または、0.75より高い平均IoU(intersection-over-union)を与える関数を前記2Dフロアプランに適用することを含む。
-前記2Dフロアプランのセマンティックセグメンテーションを決定することは、機械学習済みの関数を前記2Dフロアプランに適用することによって行われる。
-前記2Dフロアプランのセマンティックセグメンテーションを決定することは、機械学習済みの関数を前記2Dフロアプランに適用することによって行われる。
-前記関数は、0.85より高い平均正解率、および/または0.75より高い平均IoUを与える。および/または、
-前記関数は、畳み込みエンコーダ・デコーダ・ニューラルネットワークアーキテクチャ(convolutional encoder-decoder architecture)を与え、かつ/または学習することは、任意にクロスエントロピー損失関数(cross-entropy loss function)に基づく確率的勾配降下法(stochastic gradient descent)を含む。
本方法を行うための命令を含むコンピュータプログラムがさらに提供される。
前記コンピュータプログラムが記録されている、コンピュータ読み取り可能な記憶媒体がさらに提供される。
メモリおよびグラフィカルユーザインタフェースに接続されたプロセッサを含むシステムであって、前記メモリには前記コンピュータプログラムが記録されているシステムがさらに提供される。
本発明に係る方法を集約する処理を示す。 本発明に係るシステムの一例を示す。 本発明に係る処理を図示する。 本発明に係る処理を図示する。 本発明に係る処理を図示する。 本発明に係る処理を図示する。 本発明に係る処理を図示する。 本発明に係る処理を図示する。 本発明に係る処理を図示する。 本発明に係る処理を図示する。 本発明に係る処理を図示する。 本発明に係る処理を図示する。 本発明に係る処理を図示する。 本発明に係る処理を図示する。 本発明に係る処理を図示する。 本発明に係る処理を図示する。 本発明に係る処理を図示する。 本発明に係る処理を図示する。 本発明に係る処理を図示する。
非限定的な例を用いて、添付の図面を参照して、本発明の実施形態について記載することとする。
図1は、建築の3D再構成の処理を示す。本処理は、特に、3Dモデル(建造物を表現する3Dモデル)を構成するためのものである。本処理は、入力2Dフロアプラン(建造物のレイアウトを表現する入力2Dフロアプラン)に基づく。
本処理は、入力2Dフロアプランのセマンティックセグメンテーションを決定するために、機械学習を含む。
特に、本処理は、任意の与えられた2Dフロアプラン(それぞれの前記与えられた2Dフロアプランは各々の建造物のレイアウトを表現する)のセマンティックセグメンテーションを決定する(例えば、計算する、および/または、出力する)ように構成された関数を決定する(この場合、すなわち学習(トレーニング)する)ためのオフラインステージS1を含む。オフラインステージS1は、データセットの供給S10を含む。データセットは2Dフロアプランを含む。それぞれの2Dフロアプランは、各々のセマンティックセグメンテーションに関連づけられる(データセットにおいて、すなわちリンク(接続)される、換言すると関係する)。オフラインステージS1は、データセットに基づいて関数を学習する(すなわちトレーニングする)処理S20をさらに含む。
本処理は、オフラインステージS1の後に、オンライン(すなわちインライン)のステージS2を含む。オンラインステージS2は、入力2Dフロアプランへの供給を含む。オンラインステージS2はさらに、入力2Dフロアプランに関数(オフラインステージS1内で機械学習されたもの)を適用することを含み、それによって、入力2Dフロアプランの前記セマンティックセグメンテーションを決定する。
オフラインステージS1およびオンラインステージS2は、異なる回数、異なる場所で、異なるシステムで、および/または、異なる人または団体によって、開始されてもよいし、および/または、実行されてもよい。例えば、オフラインステージS1は、ソフトウェアエディタによって、および/または、生産ラインにおいて、または、サービスプロバイダによって、および/または、完全にサーバにおいて、実行されてもよい。オンラインステージS2は、ユーザによって、および/または、少なくとも部分的にはクライアントコンピュータにおいて、実行されてもよい。
そのような機械学習を、2Dフロアプランセマンティックセグメンテーションを行うために使用することによって、比較的正確で強固な結果に達することが可能となる(特に、いかなる標準も欠けているため、2Dフロアプランに使用される表現の多様性の観点において)。さらに、フロアプランセマンティックセグメンテーションを行うために機械学習を使用することは、比較的効率的におよび/または比較的速く、そのような結果に達することを可能にする(例えば本質的にリアルタイムにおいて、および/または、ユーザの介在がわずかだけかまたは実質的になしで、例えば、ひとたび開始されると、決定処理S40は完全に自動的に行われる)。
処理S20における関数および学習はどのようなものであってもよい。一例において、学習処理S20は、特に、深層学習(deep-learning)によって実行されてもよい。後述する。一例において、深層学習は、関数が畳み込みニューラルネットワーク(CNN)アーキテクチャ(より詳細には、畳み込みエンコーダ・デコーダ・ニューラルネットワークアーキテクチャ)を与える種類のものであってもよい。学習処理S20のそのような例は、特に効率的である。他の一例において、関数は、「ランダムフォレスト(random forest)」、マルコフ確率場(Markov random field)、SVM (Support Vector Machine)のような他の機械学習技術によって学習されてもよい。そのようなアルゴリズムは、SIFTまたはHoGのような未学習の特徴を入力としてもよい。
建築の3D再構成の代替処理は、さらに、処理S40において、入力2Dフロアプランのセマンティックセグメンテーションを他の方法で決定してもよい。そのような代替処理は、機械学習済み関数が処理S40において必要とされないのでオフラインステージS1が任意に切り捨てられてもよいという点を除いて、他の態様に対する図1の処理と同一であってもよい。
一般に、セマンティックセグメンテーションは任意のアプリケーションで使用されてもよい。例えば、セマンティックセグメンテーションは、オブジェクト検出および/またはアノテーション(annotation)に使用されてもよい。
図1の処理の場合には、セマンティックセグメンテーションは、入力2Dフロアプランに対応する建造物を表現する3Dモデルの生成のためのアプリケーションS3において使用される。もちろん、セマンティックセグメンテーションは、そのような3Dモデルの決定のために基づいてもよい。3Dモデルは、後に、任意の方法で(例えば建造物の仮想インテリアデザインを生成するために)使用されてもよい。
アプリケーションS3は、オンラインステージS2に対して、異なる時に、異なる場所で、異なるシステムで、および/または異なる人または団体によって、実行されてもよい。あるいは、アプリケーションS3は、オンラインステージS2にシームレスに続いてもよいし、および/またはオンラインステージS2の後に自動的に開始されてもよい。一例において、ユーザは処理S30において入力2Dフロアプランを供給するだけであり、3Dモデルを出力するステップのすべてをシステムが自動的に実行する。他の例において、結果を検証するためにユーザが介在してもよい。例えば、決定処理S40の後に、セマンティックセグメンテーションを検証するためおよび/または修正するために、介在してもよい。
図1の。一例において、アプリケーションS3は、特別には、セマンティックセグメンテーションを、建造物のレイアウトを表現する2Dモデルに変換する処理S50~S60を含む。次に、2Dモデルから3Dモデルを決定する処理S70が行われる。そのような処理は、入力2Dフロアプランから3Dモデルを生成するための効率的な道筋を形成する。入力2Dフロアプランは、確かに、建造物に関する組織化されていない2D情報を供給する。本処理は、S2内でセマンティックセグメンテーションを決定することによって、最初にそのような情報を組織化することを提案する。次に、2Dセマンティックセグメンテーションを3D形状に直接変換するのではなく、本処理は、セマンティックセグメンテーションから2Dモデルを構成することを提案する。そのような中間のデータ構造は、結局、より容易に3Dモデルを構成することを可能にする。
「建造物(building)」という語句は、あらゆる建築物を意味する。本処理によって考察される「建造物」は、フラット、アパート、高層建造物、マンション、家、別荘、モニュメント、または、壁、窓および/または部屋を含む他の構築物であってもよい。
建造物に対する「レイアウト(layout)」という語句は、建造物を構成する建築オブジェクトのインスタンスの2D配置を意味する。レイアウトは、単一のフロアの、またはいくつかのフロアの、またはその1つ以上の部分の、2D配置を描写してもよい。以下の考察は、単一のフロアに関するレイアウトに適用されるが、複数のフロアの場合への適用は容易である。
「建築オブジェクト(architectural object)」は、任意の建造物の形成に含まれる任意のオブジェクトである。本処理によって考察される建築オブジェクトクラスは、建築オブジェクトクラスの所定の集合(すなわち、予めシステムに記憶され、それに対してS50において実行されるループが限定されている)であってもよい。建築オブジェクトクラスの所定の集合は、壁クラス、窓クラスおよび/またはドアクラスの任意の1つまたは任意の組み合わせ(例えばすべて)を含んでもよいし、それらからなるものであってもよい。建築オブジェクトは、屋根または基礎のような他のクラスに属してもよいが、これらのクラスはレイアウトに表現されなくてもよい。
「2Dフロアプラン(2D floor plan)」という語句は、知られているように、建造物のレイアウトの図面を表現する画像を意味する。図面は、線(恐らく様々な太さ)および記号を含む。2Dフロアプランはスケッチされてもよく、例えば、物質的なサポート(紙など)に手作業でスケッチして次にスキャンまたは撮影されてもよいし、または、例えば、デジタル的に(スケッチングソフトウェアとのユーザ相互作用を介して、タッチペンおよび/またはタッチスクリーンを例えば使用して)スケッチしてもよいし、または、プログラムによって自動的に生成されてもよい。2Dフロアプランを描画するための異なるルールが存在するかもしれないが、標準はない。S10で供給されるデータセットは特に、少なくとも2つがルールについての異なる集合の各々の1つを使用して描画される2Dフロアプラン、および/または、例えば手作業でおよび/またはデジタル的にスケッチされる2Dフロアプラン、を含んでもよい。S30において供給される入力2Dフロアプランは、システムのユーザによってまたは事前に別人によって、スケッチされてもよい。
「セマンティックセグメンテーション」という語句は、画像に対して、知られているように、画像の任意の区分(partition)またはセグメンテーションを意味し、区分の画像部分またはセグメントのそれぞれは、画像部分によって表現されたオブジェクトのクラスに割り当てられるか、または関連づけられる。2Dフロアプランに対して、「セマンティックセグメンテーション」は同様に、2Dフロアプランの部分が建築オブジェクトクラスの上記所定の集合の各々の1つに割り当てられてもよいような区分である。一例において、2Dフロアプランの部分はそれぞれ、建築オブジェクトクラスの上記所定の集合の各々の1つに割り当てられてもよいし、オブジェクトの他のタイプ、および/または背景(従って本処理の残りの部分によって切り捨てられる)に共通のクラス表現に割り当てられてもよい。
本処理によって決定されたセマンティックセグメンテーションは、任意の方法でそのような割り当てを実行してもよい。一例において、割り当ては、建築オブジェクトクラスの所定の集合の各々の1つにそれぞれが対応するラベルを供給し、2Dフロアプランの部分をそれぞれ、各々のラベルに関連づけることによって実行されてもよい。一例において、セマンティックセグメンテーションは、ピクセルワイズ(ピクセル単位の)・セマンティックセグメンテーションであってもよい。そのような場合、決定処理S40は、2Dフロアプランのピクセルをそれぞれ、各々の所定のラベルに割り当てることからなるものであってもよい。
本処理は、セマンティックセグメンテーションを、建造物のレイアウトを表現する2Dモデルに変換する処理S50~S60を含む。
2D(各々3D)モデルは、それぞれが建築オブジェクトの各々のインスタンスを表現する2D(各々3D)モデル化オブジェクトの2D(各々3D)配置を表現するデータ構造である。データ構造は、それぞれが各々のデータフィールドを含むいくらかのデータを含んでもよく、1つ以上のデータフィールドは各々の2D(各々3D)モデル化オブジェクトを表現し、1つ以上のデータフィールドは2D(各々3D)ポジショニング(例えば共通の2D(各々3D)基準座標系に関する)を表現する。そのようなデータ構造は、表現された建築オブジェクトインスタンス間の正確な相対的ポジショニングの記述を可能にする。2Dモデルは、セマンティックセグメンテーションよりも高いレベルでの2D配置の記述を提供する。
2D(各々3D)モデル化オブジェクトは、2D(各々3D)操作(例えば剛的動作、スケーリング、および/または、任意の他の幾何学的変換、および/または、CAD操作)のような(例えば線形時間)パラメトリック変換を可能にする位相情報、および/または、2D(各々3D)幾何学的データを含むデータ構造である。
2Dモデルは、2Dの幾何学的形状またはプリミティブ(例えば、様々な太さの線分および/または弧を含む)の所定の集合に制約されてもよい。そのような2Dプリミティブはそれぞれ、所定のパラメータの各々の数によって、完全に特徴づけられ且つ表現されてもよい。そのような数は低くてもよい(例えば、20または10を下回る)。例えば、太さを備える直線は、5つのパラメータ(例えば、末端の座標および太さ)によって表現されてもよい。
2Dモデルは、例えば、2Dベクトル画像であってもよい。
3Dモデルは例えば、境界表現(B-Rep)のようなCADモデルであってもよく、それは、カノニカル(canonical)な表面(例えば平面)、および/または、パラメトリック曲面(例えば連続的、例えばNURBSまたはBスプライン)、カノニカルな曲線(例えば線)、および/または、パラメトリック曲線(例えば連続的)、および/または、3Dポイント、のような幾何学的オブジェクト、ならびに、これらの幾何学的オブジェクトに関する位相データ(例えば境界関係を規定する)を含む。3Dモデルは、任意の規格におけるCADファイル(STEPファイルまたは他のCADファイル形式など)として出力されてもよい。
建造物のレイアウトを表現する2Dモデルへセマンティックセグメンテーションを変換する処理S50~S60は、比較的容易に実行可能かもしれない。そのような変換は、もちろん、セマンティックセグメンテーションの画像サイズ(すなわち入力2Dフロアプランのサイズ)のオーダーの計算量で実行されてもよい(例えばセマンティックセグメンテーションにおいて1回以上ループすることを含む)。
特別には、変換する処理S50~S60は、それぞれが各々の建築オブジェクトクラスそれぞれに関連づけられたセマンティックセグメンテーションの接合部を、それぞれ、各々の建築オブジェクトクラスのインスタンスを表現する各々の2Dモデル化オブジェクトに変換すること、および次に、建築の一貫性を確保する所定のルールに従って2Dモデル化オブジェクトを再配置すること、を含んでもよい。ピクセルワイズ・セマンティックセグメンテーションの場合には、変換処理は、建築オブジェクトクラスの各々のインスタンスを表現する最大の接続部にピクセルをグループ化すること、および次に、それらを正則化するために接続部を再加工すること、を含んでもよい。
図1の処理はさらに、変換する処理S50~S60を、クラスごとの基準で(すなわち前記クラスにおいてループして)建築オブジェクトに行うことを提案する。これは、より容易な処理、および、より正確な結果の達成を可能にする。特別には、それぞれの建築オブジェクトクラスに対して、本処理は、セマンティックセグメンテーションに基づいて、マスクを決定する処理S50を含む。次に、2Dモデルが、S60において決定されたマスクに基づいてS60において生成される。それぞれのマスクは、セマンティックセグメンテーション(S40において決定され、アプリケーションS3に入力される)と同じサイズの画像であり、それぞれのマスクは、各々のクラスに関連づけられたセマンティックセグメンテーションの要素(例えばピクセル)を表現する。生成する処理S60は、上記のグループ化、変換(任意)、および再配置を含んでもよい。グループ化および変換は、マスクごとの基準で実行されてもよい(例えばマスク中の情報以外の情報を全く使用せずに)。これは、本処理を単純化する。再配置も、マスクごとの基準で行われてよいが、少なくとも1つのマスクに対して、1つ以上の他のマスク中の情報を使用する。
建造物を表現する3Dモデルを2Dモデルから決定する処理S70も、比較的容易に実行可能かもしれない。もちろん、2Dモデル中のそれぞれの建築オブジェクトインスタンスは、3Dモデル中の各々の建築オブジェクトインスタンスを直接生み出してもよい。決定処理は、任意の既知のアルゴリズムを使用して実行されてもよい。決定処理S70は特に、2Dモデルの2Dモデル化オブジェクトのそれぞれに、各々の3Dポジショニングデータおよび/または高さデータを加えることを含んでもよい。一例において、これらのデータは、任意の方法で事前に決定されてもよしい、または、ユーザとの対話(user-interaction)によって特定されてもよい。決定処理S70は、さらに、互換性/整合性の、チェックおよび/または管理を含んでもよい。
本処理はコンピュータにて実行される。これは、少なくとも1つのコンピュータまたは任意の同様のシステムによって、本処理のステップ(あるいは実質的にすべてのステップ)が実行されることを意味する。従って、本処理のステップは、コンピュータによって、おそらく完全に自動的にあるいは半自動的に、実行される。一例において、本処理のステップのうちの少なくともいくつかのトリガーは、ユーザとコンピュータとの対話によって実行されてもよい。ユーザとコンピュータとの対話の要求されるレベルは、予測された自動性のレベルによって決まるものであってもよく、ユーザの希望を実行する必要性とバランスをとってもよい。一例において、このレベルは、ユーザで規定されてもよいし、および/または、予め規定されてもよい。
コンピュータによる処理の実行の典型例は、この目的に適したシステムで処理を行うことである。システムは、メモリおよびグラフィカルユーザインタフェース(GUI)につながれたプロセッサを含んでもよく、メモリには、本処理を行うための命令を含むコンピュータプログラムが記録されていてもよい。メモリはまた、データベースを記憶してもよい。メモリは、そのような記憶に適した任意のハードウェアであり、いくつかの物理的に異なる部品(例えばプログラム用のもの、および恐らくデータベース用のもの)を恐らく含む。
システムはCADシステムであってもよく、および/または、建造物の3DモデルはCADシステムにロードされてもよい。CADシステムは、CATIAのような、モデル化オブジェクトの図的表現に基づいてモデル化オブジェクトを少なくとも設計するために適した任意のシステムをさらに意味する。この場合、モデル化オブジェクトを規定するデータは、モデル化オブジェクトの表現を可能にするデータを含む。CADシステムは、例えば、エッジまたは線を使用して、ある種の場合には面または表面と共に、CADモデル化オブジェクトの表現を提供してもよい。線、エッジ、または表面は、様々な方法(例えば非一様有理Bスプライン(NURBS))で表現されてもよい。特別には、CADファイルは、形状がそれから生成されてもよい仕様を含んでおり、それは次に、表現が生成されることを可能にする。モデル化オブジェクトの仕様は、単一のCADファイルか多数のそれに格納されてもよい。CADシステムにおいてモデル化オブジェクトを表現するファイルの典型的なサイズは、1つの部品当たり1メガバイトの範囲にある。また、モデル化オブジェクトは、典型的には何千もの部品の組立体であってもよい。
図2は、システムの一例を示し、当該システムは、クライアントコンピュータシステム(例えばユーザのワークステーション)である。
本例のクライアントコンピュータは、内部通信バス(BUS)1000に接続された中央処理装置(CPU)1010、同じくBUSに接続されたランダムアクセスメモリ(RAM)1070を含む。クライアントコンピュータは、BUSに接続されたビデオランダムアクセスメモリ1100に関係するグラフィック処理装置(GPU)1110をさらに備える。ビデオRAM1100は、この技術において、フレームバッファとしても知られている。大容量記憶装置コントローラ1020は、ハードドライブ1030のような大容量メモリ装置へのアクセスを管理する。コンピュータプログラムの命令およびデータを明確に包含するのに適した大容量メモリ装置は、すべての形式の不揮発性メモリ(EPROM、EEPROM、およびフラッシュメモリ装置のような半導体メモリ装置を例えば含む)、内部ハードディスクおよびリムーバブルディスクのような磁気ディスク、光磁気ディスク、および、CD-ROMディスク1040を含む。前記のいずれかは、特別に設計されたASICs(特定用途向け集積回路)によって補足されるか、それに組み込まれてもよい。ネットワークアダプタ1050は、ネットワーク1060へのアクセスを管理する。また、クライアントコンピュータは、カーソル制御装置、キーボードなどのような触覚デバイス1090を含んでもよい。ディスプレイ1080上の任意の所望の位置にユーザが選択的にカーソルを置くことを可能にするために、クライアントコンピュータにおいてカーソル制御装置が使用される。さらに、カーソル制御装置は、ユーザが、様々なコマンドを選択し、制御信号を入力することを可能にする。カーソル制御装置は、システムに制御信号を入力するための複数の信号生成装置を含む。典型的には、カーソル制御装置は、マウスであってもよく、マウスのボタンは信号を生成するために使用される。あるいはまたはさらに、クライアントコンピュータシステムは、感知可能なパッドおよび/または感知可能なスクリーンを含んでもよい。
コンピュータプログラムは、コンピュータによって実行可能な命令を含んでもよく、命令は、上記のシステムに本処理を行わせるための手段を含む。プログラムは、任意のデータ記憶媒体(システムのメモリを含む)に記録可能であってもよい。プログラムは、例えば、デジタル電子回路において、または、コンピュータハードウェア、ファームウェア、ソフトウェアにおいて、もしくはそれらの組み合わせにおいて、実行されてもよい。プログラムは、装置として、例えばプログラム可能なプロセッサによる実行のための機械可読の記憶装置に明確に組み込まれた製品として、実行されてもよい。処理ステップは、入力データを処理し出力を生成することによってその処理の機能を行う命令のプログラムを実行するプログラム可能なプロセッサによって実行されてもよい。このように、プロセッサは、プログラム可能であってもよく、且つ、データ記憶システム、少なくとも1つの入力装置、および少なくとも1つの出力装置、からデータおよび命令を受け取るように、およびそれへデータおよび命令を送るように、つながれていてもよい。望むのであれば、アプリケーションプログラムは、ハイレベルの手続き型またはオブジェクト指向のプログラミング言語で、または、アセンブリ言語もしくは機械語で実行されてもよい。いずれの場合も、言語は、コンパイラ型言語またはインタープリタ型言語であってもよい。プログラムは、完全なインストールプログラムまたはアップデートプログラムであってもよい。システムへのプログラムの適用は、いずれの場合も、本処理を行うための命令をもたらす。
ここで、本処理の例について述べる。
本例の処理は、フロアプラン生成に関する。特別には、それはセマンティックセグメンテーションを介したフロアプラン分析に関係する。画像の形式でフロアプランが与えられたときに、すべての記号が同時に認識され、ピクセルワイズレベルに置かれてもよい。本例の処理は、3D建造物生成および設計作成のような多くのアプリケーションにおいて有用かもしれない。本例の処理は、新しいフロアプラン生成フレームワークを形成する。本例の処理の特徴は、以下のものを含んでもよい。
・いくつかのステップを含むアプローチに存在する誤差累積効果を回避することを可能にするエンド・トゥー・エンドアプローチ(end-to-end approach)。
・記号タイプからの独立性。他の記号タイプは容易に統合できる。特別な制約は必要とされない。
・深層畳み込みニューラルネットワークに基づく最初のアプローチ。
本例の処理は3D建造物モデルを生成する分野に属し、それにおいて、2Dフロアプラン画像が与えられたときに、本例の処理は、利用可能な3Dモデル(「3Dフロアプラン」とも称される)を得るために、壁(外部/内部)、開口部(ドア/窓)、および、空間のような、構造の建造物要素を再構成してもよい。
2Dフロアプラン画像入力からの3D建造物モデルの生成は、以下のものに基づいてもよい。
1.2Dフロアプランのそれぞれの構造要素をセマンティック的に(semantically)認識すること。これは、入力中の2Dフロアプランのピクセルのそれぞれへセマンティック情報(セマンティックの例は、壁、ドア、および/または、窓を含む)を割り当てるセマンティックセグメンテーションによって実行されてもよい。
2.先のステップによって供給された結果に基づいて3Dフロアプランを生成すること。
利用可能なデータ入力のいくつかの特徴は、与えられた2Dフロアプラン画像の3D建造物モデルを生成するアプローチを、非常に難しいものにする。そのため、現在のシステムのほとんどは、普遍性に欠けるという共通の欠点を共有する。
2Dフロアプランは、多くの場合スキャンされてもよいし、手描きまたはコンピュータ生成されてもよい。フロアプランはさらに、様々なレベルの詳細を有してもよい。フロアプランについての最も広く流通している形式は、詳細な建設情報に欠ける。それにもかかわらず、フロアプランは、建造物の完全なレイアウトをなんとかカバーし、それは、ほとんどのアプリケーションに対してモデルを構築するのに充分かもしれない。これらのさほど詳細ではないフロアプランが手描きされるかコンピュータ生成されるかにかかわらず、それらは、異なる図形記号を使用するかもしれず、それは大きな欠点となる。もちろん、標準は存在しない。
図3および図4はそれぞれ、ドアおよび壁に対する共通のスタイルの例を示す。特定の標準に制約される代わりに、図面の目的(および設計者の美的な動機づけ)が、どの構成要素が示されてもよいか、および、それらがどのように見えてもよいか、を決定するかもしれない。これは、フロアプラン画像を分析し解釈する処理において大きな難題をもたらす(特に自動システムに対して)。図3~図4は特に、フロアプランに対して、ドア記号(図3)および壁(図4)を描画するための異なる方法を示す。記号は、手描きまたはコンピュータにより生成することが可能である。異なる図形記号は、2Dスキャンされたフロアプランを3Dモデルに自動的に変換する処理に対して難題となる。
さらに、フロアプランは、構造要素だけではなく、テキストコンテンツ、寸法、スケール、引き出し線(すなわち、測定値またはテキストに導かれる線)を含んでもよい。図5は特に、一般的なスキャンされたフロアプランの例を示す。構造的なもの以外の異なる(図形またはテキストの)要素が表現されてもよい。
本例の処理の1つの目的は、2Dフロアプラン画像が与えられたときに3D建造物モデル生成に対する総括的なソリューションを提供する処理、すなわち、プランの構造的な2D要素のセマンティックおよび位相を同時に認識するソリューションを提供する処理であってもよい。それは、セマンティックセグメンテーション法(すなわち深層ニューラルネットワーク(Deep Neural Network)を使用する方法)の効率を向上させるフレームワークからなるものであってもよい。
ここで、本例の処理に含まれる異なる概念について述べる。
「セマンティックセグメンテーション」は、画像におけるそれぞれのピクセルの役割をセマンティック的に理解する処理(すなわち、セマンティック的に意味のある部分へ画像を分割する処理、および、それぞれの部分を所定のカテゴリのうちの1つに分類する処理)を試みる。それは、ピクセルワイズ分類と見なすことができ、その分類は、そのカテゴリメンバシップが知られている観察結果(またはインスタンス)を含むデータのトレーニング集合に基づいて、新しい観察結果がカテゴリのどの集合に属するかを特定する問題である。一例としては、与えられた画像中の背景から人を分ける処理、または人の身体をその異なる部分に分割する処理である。
「深層ニューラルネットワーク」(DNN)は、ニューラルネットワークにおける学習のための技術の強力な集合であり(「Rumelhart et al. Learning internal representations by error backpropagation, 1986」の中で述べられている)、それは、コンピュータが観測データから学習することを可能にする、生体模倣型のプログラミングパラダイムである。DNNは、他の画像分類法(SVM、ブースティング(Boosting)、ランダムフォレストなど)において使用される、手作業で設計された低レベルの特徴(Zernike momentsの中で述べられている、HOG、Bag-of-Words、SIFTなど)とは異なり、リッチな中間レベルの2D画像表現を学習する能力を与える。より具体的には、DNNは、生データに基づくエンド・トゥー・エンド学習に焦点をあてている。換言すれば、それらは、生の特徴から始まってラベルに終わるエンド・トゥー・エンド最適化を実行することによって、特徴エンジニアリングから、可能な最大の程度離れる。図6は、深層ニューラルネットワークを図示する。
「畳み込みニューラルネットワーク」(「LeCun et al. Convolutional Networks for Images, Speech, and Time-Series」で述べられている)は、少なくとも1層が畳み込みフィルタを含む深層ニューラルネットワークの特別な場合である。それらのフィルタは、入力のどこにでも適用され、出力として特徴マップを与える。この特徴マップは、入力におけるいくつかの特定のパターンがフィルタによって認識される活性化のエリアを示す。いくつかの畳み込み層を積層する場合、深層学習の利点は、ディスクリプタ(descriptor)によって得られる基本的特徴よりもより洗練された、非常に複雑であるが強力な特徴を抽出する方法を提供することである。全層畳み込みニューラルネットワークは、学習済みのすべての層が畳み込みである、畳み込みニューラルネットワークである。全層畳み込みネットワークに基づくDNNは、任意のサイズの入力をとる能力、および、アップサンプリング層(upsampling layer)を使用して相応にサイズ化された出力を生成する能力、を与える。図7は、畳み込みフィルタの一例を示す。
「アップサンプリング」は、画像(あるいは特徴マップ)を、より高い解像度にアップサンプリングする任意のテクニックを指す。最も簡単な方法は、再サンプリングおよび補間を使用することである。これは、入力画像をとり、それを所望のサイズにスケーリングしなおし、次に、バイリニア補間のような補間方法を使用してそれぞれのポイントにおいてピクセル値を計算する。
「アンプーリング(unpooling)」は、畳み込みニューラルネットワークの環境において、アップサンプリングに一般的に使用される。図8は、アンプーリングに基づくアップサンプリングの一例を示し、ここで、最大プーリングのインデックス(max-pooling index)は、入力特徴マップをアップサンプリングするために使用される。
「エンコーダ・デコーダ・ネットワーク」は、特定のタイプのDNNを意味する。いくつかのDNNは、エンコーダ・デコーダ・ネットワークと見なすことができ、その場合、エンコーダは、異なる(通常はより低次元の、圧縮された)特徴表現へ入力データをマッピングし、デコーダは、入力データ空間へ特徴表現をマッピングし戻す。全層畳み込みネットワークは、全層畳み込みエンコーダ、およびそれに続く、アップサンプリング層およびピクセルワイズ分類器(pixel-wise classifier)を含むデコーダと見なすことができる。図9は、セマンティックセグメンテーション用の畳み込みエンコーダ・デコーダ・ネットワークの一例を示す。
ここで、図11を参照して、本例の処理へのこれらの概念の統合について述べる。
本例の処理は、2つのステージに分解されてもよい。「オフライン」ステージと示される第1のステージは、深層ニューラルネットワークに極度に依存してもよく、セグメンテーションモデルが学習(これは一度だけ実行されてもよい)されるステージに対応してもよい。オフラインという語句は、このステージが本方法のユーザにとって自明であり、大規模な計算の要求があっても、計算を行う時間を得ることができるという事実を示す。
セグメンテーションモデルを学習するために、本例の処理は、以下の入力を使用してもよい。
1.2Dフロアプラン画像とそれらの対応するピクセルワイズラベル画像とのペアのトレーニングデータセット。テスト実行において、4つのカテゴリラベル、すなわち「壁」、「ドア」、「窓」および「背景」が考慮され、それぞれのトレーニング画像の各ピクセルが、これらのラベルのうちの1つに関連づけらる。図10は、壁102、窓104、ドア106、および背景108を備える、画像のそのようなトレーニングペアを示す。
2.(トレーニングされていない)エンコーダ・デコーダ・ネットワーク。テストされた実行において、2つの異なる最新のネットワークが考慮されたもの。
(i) AlexNetベースの全層畳み込みネットワーク(J. Long et al. Fully Convolutional Networks for Semantic Segmentation 2015)。これは、8つの畳み込み層(プーリング層を備える)を含む全層畳み込みエンコーダと、それに続く、アップサンプリング層およびピクセルワイズ分類器(ソフトマックス分類器)を含むデコーダとからなる。
(ii) SegNetネットワーク(V. Badrinarayanan et al. SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation 2016)。これは、13の畳み込み層を含む全層畳み込みエンコーダ(プーリング層を備える)と、同様に13の畳み込み層を含む全層畳み込みデコーダ(図8を参照して記述されたようなアップサンプリング層を備える)とからなる。このネットワークのアーキテクチャは、図9の例と、位相的に同等である。
SegNetネットワークは、AlexNetベースの全層畳み込みネットワークよりも、うまく機能する。
「オンライン」ステージとして示される第2のステージは、見えていない2Dフロアプラン画像をセグメンテーションして対応する3D建造物を生成する処理の間にリアルタイムに実行される処理ステップのすべてを含む。
なお、3Dモデルを生成する前に結果を検証するために、セマンティックセグメンテーション処理の最後に、ユーザの介在を加えてもよい。
図11は、オフラインおよびオンラインステージの技術的なワークフローを図示する。
次に、本例の処理は、先のセマンティックセグメンテーションアルゴリズムによって与えられたセマンティックセグメンテーションの結果を向上させるために、いくつかの方法を適用してもよい。これは、先に述べた論文[1](アルゴリズムは、2Dフロアプランに対して強い幾何学的な制約を考慮に入れる)の中で与えられたソリューションとは対照的である。例えば、この先行技術において、ドアや壁部の幅は局所的に常に同じである。偽陽性を除去するため、ノイズ除去技術が適用されてもよい。
最後に、供給されたセマンティックマスクは、3D再構成APIによって要求される位相情報を抽出するために使用されてもよい。実際には、得られる3Dフロアプランの利用をさらに促進するために、例えば“Building Smart IFC format”(先に述べた論文[3]において使用された)のような、適用可能な標準にあわせることは有用かもしれない。
ここで、本例の処理の特殊性について、以下の学術論文を参照して、より詳細に述べる。
[A]“ImageNet Classification with Deep Convolutional Neural Networks”, Alex Krizhevsky & Al
[B]“Very Deep Convolutional Networks For Large-Scale Image Recognition”, Karen Simonyan & Andrew Zisserman
[C]“Deep Residual Learning for Image Recognition”, Kaiming He & Al
[D]“Fully convolutional networks for semantic segmentation,” J. Long, E. Shelhamer, and T. Darrell, in CVPR 2015
[E] “SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation”, Vijay Badrinarayanan, Alex Kendall, Roberto Cipolla, 2015
[F]“Pyramid Scene Parsing Network”, Hengshuang Zhao, Jianping Shi, Xiaojuan Qi, Xiaogang Wang, Jiaya Jia, CVPR 2017
[G] “RefineNet: Multi-Path Refinement Networks for High-Resolution Semantic Segmentation”, Guosheng Lin, Anton Milan, Chunhua Shen, Ian Reid, 2016
[H]“Fully Convolutional Networks for Semantic Segmentation”, Jonathan Long, Evan Shelhamer, Trevor Darrell, CVPR 2015
[I]“CVC-FP and SGT: a new database for structural floor plan analysis and its groundtruthing tool”, International Journal on Document Analysis and Recognition (IJDAR), Lluis-Pere de las Heras, Oriol Ramos Terrades, Sergi Robles, Gemma Sanchez
ここで、学習S20の実行の例について述べる。
このステップは主に、2Dフロアプラン画像を入力として入力画像のピクセルワイズ分類であるセマンティックセグメンテーションマスクを返す関数を学習することであってもよい。クラスは、予め定められてもよい。このセマンティックセグメンテーションマスクは、入力画像と同じ大きさ(dimensions)を備える画像であり、そのピクセルは、予め定められたクラスに対応するいくつかの値(例えば色)をとることができる。テストされた実行において、以下のクラス、すなわち、「壁」、「ドア」、「窓」および「背景」、が選ばれた。最後のクラスは、他のクラスのうちの1つに属さないすべてのピクセルについて記述した。
[学習関数の特徴づけ]
学習関数は、畳み込みニューラルネットワークとして実行されてもよい。関数は特に、畳み込みエンコーダ・デコーダ・ニューラルネットワークアーキテクチャを与えてもよい。換言すれば、ニューラルネットワークは、自然画像上でセマンティックセグメンテーションを行うために使用されるニューラルネットワークの一種であるエンコーダ・デコーダであってもよい。この種のニューラルネットワークは、自然画像中の連続性を比較的よく活用でき、従ってそのような情況において好結果をもたらすが、2Dフロアプランのようなスパース(sparse)な情報を含む画像では、演繹的には効率的ではない。しかしながら、テストは行われ、この種のニューラルネットワークが、本処理の2Dフロアプランの状況においてもうまく働くことを示した。
ニューラルネットワークを学習する処理は、以下の3つの主な要素を含んでもよい。
1.ニューラルアーキテクチャ:層の数、1層当たりのニューロンの数、ニューロンの種類。
2.最適化アルゴリズム:これは、アノテーションされた(annotated)データセットおよび損失関数値に従ってニューラルネットワークのパラメータ/重みを更新するために使用される。
3.アノテーションされたデータセット。
ニューラルネットワークのニューラルアーキテクチャは、以下に述べる畳み込みエンコーダ・デコーダ・アーキテクチャであってもよい。
1.畳み込みエンコーダ:エンコーダネットワークは、フロアプラン画像を入力とする。それは、プーリング層がはさまれてもよい一連の畳み込み層を含む。通常、畳み込みエンコーダは、AlexNet[A]、VGG16[B]、ResNet[C]、または他のCNNアーキテクチャのような、周知の畳み込みのアーキテクチャに対応してもよい。
2.畳み込みデコーダ:デコーダネットワークは、エンコーダネットワークの出力を入力とする。それは、その間にアップサンプリング層が挟まれる一連の畳み込み層を含んでもよい。最後の畳み込み層の出力は、入力フロアプラン画像と同じ大きさ(dimensions)を有してもよい。デコーダは、プーリング層をアップサンプリング層に置き換えることによる、エンコーダネットワークと対称なものであってもよい。しかしながら、デコーダネットワークは、あるいは、異なるアーキテクチャを有してもよい。遵守されてもよいただ1つの制約は、出力が、入力2Dフロアプラン画像のものと同じ大きさを有してもよい、ということである。
うまく動作するテストにおいて、[E]で規定されたSegNetアーキテクチャが使用された。[H]で規定されたFCN、[F]で規定されたPSPNet、または[G]で規定されたRefineNetのような、他のニューラルアーキテクチャが使用されてもよい。
学習は、確率的勾配降下法を含んでもよい。任意に、確率的勾配降下法は、クロスエントロピー損失関数に基づいてもよい。換言すれば、最適化アルゴリズムは、確率的勾配降下法であってもよい。損失関数は、学習プロセス中に、ネットワークによって返されたセマンティックセグメンテーションマスクと、トレーニングデータセット中の2Dフロアプランに関係するグランドトゥルース(ground truth)セマンティックセグメンテーションマスクとの間の誤差を計算してもよい。[D]で規定されたクロスエントロピー損失関数が、特にテストされた。
[データセットの特徴づけ]
トレーニングデータセットは、2Dフロアプラン画像の集合であってもよく、その画像のそれぞれは、ピクセルワイズのラベル付き画像(グランドトゥルース・セマンティックセグメンテーションマスクとも呼ばれる)に関係する。
学習関数の正確な結果を確保するトレーニングデータセットの特徴は、以下の通りであってもよい。
・充分なデータ:データセットは、500、750または1000を越える、異なる2Dフロアプラン画像を含んでもよい。
・関連データ:データセット中のフロアプランの多様性は、学習済み関数が処理することになるフロアプランに対応してもよい。特に、トレーニングデータセット内の記号(壁、窓、ドア)の多様性は、学習済み関数が処理することになるフロアプラン画像によって含まれるいくつかのものをカバーしてもよい。
データセットは、全体のデータセットの区分を形成する、3つのサブデータセットへ分割されてもよい。第1のサブデータセットは「トレーニングデータセット」と呼ばれ、関数を学習するために使用されるデータを含む。第2のサブデータセットは「バリデーションデータセット(validation dataset)」と呼ばれ、学習中に関数がその一時的正解率を計算することによってまだ改善しているかについてチェックするために使用されるデータを含む。第3のサブデータセットは「テストデータセット」と呼ばれ、ひとたび学習が行われると使用されるデータを含む。テストデータセットは、最終のセマンティックセグメンテーション正解率を評価するために使用されてもよい。トレーニングデータセットは、データセット全体の少なくとも80%を含んでもよい。バリデーションデータセットおよびテストデータセットは、残りのデータの等分割であってもよい。
S10において供給されるそのようなデータセットを構築する効率的な方法は、それぞれが各々の3Dモデルに関連づけられた2Dフロアプランの既存のデータベースを再使用することであってもよい。そのようなデータベースが利用可能な場合、データセットは、それぞれの2Dフロアプランに対して、各々の3Dモデルから各々のセマンティックセグメンテーションを決定することによって(3Dモデルがそれぞれのオブジェクトのクラスを供給するので)、容易に構成できる。
[セマンティックセグメンテーション正解率]
アノテーションされたデータセットにおけるセマンティックセグメンテーション正解率を評価するために、評価尺度が規定されてもよい。セマンティックセグメンテーションのタスクに対して、2つの評価尺度が使用されてもよい。
1.平均正解率:これは、よく分類されたピクセルの平均百分率に相当する。
2.平均IoU(すなわち、Intersection over Union):これは、推定されたセグメンテーションとグランドトゥルースとの積集合(intersection)をそれら両方の和集合(union)によって除したものに相当する。
テストは、880のフロアプラン画像を含むデータセットで行われた。このデータセットは、ミラーおよび回転(90°、180°および270°)のような変換によって拡張されたオープンソースデータベース([I]で与えられる)から生じる2Dフロアプラン画像に基づいて構築された。そのようなテストによって、0.88の平均正解率および0.78の平均IoUが得られた。一般的に、関数が0.85より高い平均正解率、および/または、0.75より高い平均IoUを与える場合、セマンティックセグメンテーションは特に正確かもしれない。次のステップが、学習済み関数の出力を入力とするため、セマンティックセグメンテーション正解率が適切かもしれない。経験的に、平均正解率が0.85を上回り平均IoUが0.75を上回ることを見出すことができ、そうでなければ、再構成された3Dフロアプランが誤りを含んでいるかもしれない。確かに、セマンティックセグメンテーションマスクは疎(スパース)である。
下記は、アプリケーションS3の例を述べ、特に、プリミティブ抽出の実行の詳細を提供する。
以下に述べる。一例において、S50において各々のクラスのそれぞれに対してマスクを決定する処理は、各々のクラスに対応するセマンティックセグメンテーションのすべてのピクセルでの(マスクの)初期化、マスクのスケルトン化、および、線分の数を減らすためにマスク中の線分(line segment)(または単に「線分(segment)」)を併合する処理、を含むサブ処理を含む。次に、本処理の残りの部分が、サブ処理によって出力された結果に基づいて実行されてもよい。実行の例では、線分の併合において、第1の所定の共線性閾値を上回る線分と所定の距離閾値を下回る線分とのペアが、以下で述べるように、併合されてもよい。そのようなサブ処理は、組織化されていないデータを、より統合的なフォーマットに縮小することを可能にする。
他の例において、本方法は、壁クラスに関するマスク中の線分の連結、および/または、窓クラスに関するマスクの線分、および/または、ドアクラスに関するマスクの線分の、それぞれ壁マスクの各々の線分上への投影、を含んでもよい。実行の一例において、それぞれの投影される線分は、第2の所定の共線性閾値(第1の所定の共線性閾値と等しくてもよい)を越える、投影される線分との共線性を与えるものの中で壁マスクに最も近い線分に投影される。これは、スケルトン化がデータの損失に結びつくかもしれないとしても、結果のリアリズム(すなわち、建築の視点から見て受け入れ可能な意味)を維持することを可能にする。特に、スケルトン化によって誤差(例えば、窓またはドアとその支持壁との間のギャップ)が持ち込まれたとしても、そのような誤差は、本例によって修正される。
一例において、第1および/または第2の所定の共線性閾値は、2つの線分間の(無配向の)角度の閾値として規定されてもよい。この閾値は、トレーニングデータセット中の2つの隣接する壁によって形成されるすべての角度の分布の関数として規定されてもよい。共線性閾値は、この分布によって規定されてもよい。例えば、2つの隣接する壁によって形成される角度の5%未満のような角度の値は、この値よりも低い。前記値が高い(例えば45°より高い)場合、それを30°に低下できる。実際上、30°のオーダーの値は、好結果をもたらす。
一例において、所定の距離閾値は、窓またはドアのような他のオブジェクトインスタンスの関数として規定されてもよい。それは、偽陽性が実質的に生じないように、ドアまたは窓の平均の幅の30%未満に定められてもよい。この閾値未満である、2つの実質的に同一直線上の壁の間のほとんどの間隔は、線抽出アルゴリズムに起因する誤差であるかもしれない。従って、2つの壁は、広げられ併合されてもよい。
アプリケーションS3は、畳み込みエンコーダ・デコーダ・ニューラルネットワークによって返されたセマンティックセグメンテーションマスクを入力としてもよく、3Dフロアプラン再構成APIによって必要とされるプリミティブの集合を返してもよい。
2Dフロアプランのセマンティックセグメンテーションマスクは線画画像であってもよい。それぞれの線は、様々な太さを有することができる。前景ピクセルは、本処理が特定しようとするオブジェクトクラスに対応する異なる値(例えば色)を有することができる。
セマンティックセグメンテーションマスクは、幾何学的なプリミティブがそれから容易に構築されてもよいリファインされたマスク(refined mask)を得るために、以下の例のステップによって処理されてもよい。
1.「クラス固有マスク」(class-specific mask):最初に、マスクは、固有オブジェクトクラスに関係するピクセルをそれぞれが含むいくつかのマスクへ分割される。一例において、本処理は、壁用の1つのマスク、窓用の1つのマスク、およびドア用の1つのマスクを得てもよい。
2.「マスクスケルトン化」:次に、スケルトン化処理が、それぞれのクラス固有のマスクに適用される。この処理は、すべての線を細くすることを目指す。2つの古典的アプローチ、すなわちモフォロジカルアプローチおよび距離変換アプローチが、線画のスケルトンを行うために使用されてもよい。テストされた実行は、例えば「“Morphological Skeleton Representation and Coding of Binary Images”, IEEE (October 1986), Petros A. Maragos, Ronald W. Schafer.」という論文に記載されたような、モフォロジカルスケルトンアプローチを使用した。
3.「線併合」:それぞれのクラス固有のスケルトン化マスクは、できるだけ少数の線分によるスケルトン化マスクを得るために併合され得る、多数の小さな線分からなる。開発されたアルゴリズムは以下の通りである。
a.線分のすべてのペアに対して、それらが実質的に同一直線上にあり且つ2つの線分間の距離が所定のクラス固有の閾値未満である場合には、2つの線分は、2つの線分の併合に対応する単一の線分に置き換えられる。
b.線分のペアが先のステップaにおいて併合されている間は、ステップaに戻る。そうでない場合、線分の最終の集合を返す。
4.「線結合」:このステップは、壁固有マスクにのみ適用される。ステップ3によって返された、処理されたマスクは、ストレート壁に対応する線分の集合を含む。このステップは主に、2つのストレート壁間に連結があるかどうかを検知する処理、および、対応する線分をそれらの末端の結合によって修正する処理である。開発されたアルゴリズムは以下の通りである。
a.線分のすべてのペアに対して、それらが同一直線上になく且つ2つの線分間の距離が所定の閾値未満である場合には、2つの線分は、それらの終点の1つが、2つの線分を含む2つの線の交差に対応する点とオーバーラップするように、修正される。
b.線分のペアが先のa.ステップにおいて修正されている間は、a.ステップに戻る。そうでなければ、線分の最終の集合を返す。
5.「クラス固有マスクの併合およびリファインメント」(refinement):この最終ステップは主に、窓およびドアの局所化をリファインする処理である。ステップ3によって返された、対応する窓固有のおよびドア固有のマスクにおいて、それぞれの線は、窓(各々ドア)に対応する。最初に、すべてのクラス固有マスクが付加される。窓およびドアに対応する線分は壁の線分と正しく同一直線上にないかもしれないため、本処理は、それぞれの窓およびドアの線分を、同じ方向を有する最も近い壁の線へのそれらの投影によって置き換えてもよい。
次のステップは主に、壁プリミティブ、ドアプリミティブおよび窓プリミティブのような3D再構成APIによって必要とされる3Dプリミティブを構成する処理であってもよい。例えば、壁プリミティブは、以下の属性、すなわち2つの終点の座標、太さ、高さ、隣接する壁のリファレンス、によって規定されてもよい。リファインされたマスクのおかげで、壁、窓およびドアプリミティブは、容易に構築されるかもしれない。確かに、終点の座標、隣接する壁のリファレンス、窓(各々ドア)が属する壁のリファレンスといった情報は、リファインされたマスクから容易に抽出できる。壁/窓/ドアの高さまたは幅といった他の情報は、予め規定されてもよいし、ユーザによって供給されてもよい。
図12~図19は、テストされた学習S1によって学習済み関数に基づくS2~S3の一例を図示する。
図12は、S30において供給された入力2Dフロアプランを示す。
図13は、壁122、窓124およびドア126を備える、S40において決定された、2Dフロアプランのセマンティックセグメンテーションを示す。
図14~図16は、S50および壁クラスに関するマスクの処理を図示する。図14は、壁クラスに関するマスクの画像を示す。図15は、「線分」タイプの幾何学的プリミティブの抽出を示す。図16は、壁の併合および連結ステップの出力を示す。減少した数の壁が得られることが分かる。
図17は、3つのマスクの併合を示す。
図18は、リファインメントを示し、それは、S60において2Dモデルを生成することを可能にする。
図19は、2Dモデルのそれぞれの幾何学的プリミティブに単純に高さを加えることによる、S70における3Dモデルの決定を示す。図12の入力2Dフロアプランに対応する3Dモデルを得ることができることが分かる。

Claims (13)

  1. 建造物のレイアウトを表現する2Dフロアプランを供給することと、
    前記2Dフロアプランのセマンティックセグメンテーションを決定することと、
    前記セマンティックセグメンテーションに基づいて3Dモデルを決定することと
    を含む、
    コンピュータによって実行される、前記建造物を表現する前記3Dモデルを生成する方法であって、
    前記セマンティックセグメンテーションを前記建造物のレイアウトを表現する2Dモデルに変換することをさらに含み、
    前記3Dモデルの決定は、前記2Dモデルから行われ、
    前記セマンティックセグメンテーションを前記2Dモデルへ変換することは、
    建築のオブジェクトクラスの所定の集合の各々のクラスごとに、前記セマンティックセグメンテーションに基づいてマスクを決定することと、
    前記決定されたマスクに基づいて前記2Dモデルを生成することと
    を含み、
    前記各々のクラスごとに前記マスクを決定することは、
    前記各々のクラスに対応する前記セマンティックセグメンテーションのピクセルのすべてでの初期化と、
    スケルトン化と、
    線分の数を減らすための線分の併合と
    を含む、
    ことを特徴とする方法。
  2. 前記線分の併合において、所定の共線性閾値を上回る線分と所定の距離閾値を下回る線分とのペアが併合される
    請求項に記載の方法。
  3. 建築オブジェクトクラスの前記所定の集合は壁クラスを含み、
    前記2Dモデルを生成することは、前記壁クラスに関する前記マスクの中の線分の連結を含む
    請求項1または2に記載の方法。
  4. 建築のオブジェクトクラスの前記所定の集合は、窓クラス、および/またはドアクラスをさらに含み、
    前記2Dモデルを生成することは、前記窓クラスに関する前記マスクの線分、および/または前記ドアクラスに関する前記マスクの線分のそれぞれを、前記壁クラスに関する前記マスクの各々の線分上へ投影することをさらに含む
    請求項に記載の方法。
  5. それぞれの投影線分は、所定の共線性閾値を上回る前記投影線分との共線性を与えるものの中で前記壁クラスに関する前記マスクに最も近い線分に投影される
    請求項に記載の方法。
  6. 前記2Dフロアプランの前記セマンティックセグメンテーションを決定することは、0.85より高い平均正解率、および/または0.75より高い平均IoUを与える関数を前記2Dフロアプランに適用することを含む
    請求項1~のいずれか1項に記載の方法。
  7. 前記2Dフロアプランの前記セマンティックセグメンテーションを決定することは、機械学習済みの関数を前記2Dフロアプランに適用することで行われる
    請求項1~のいずれか1項に記載の方法。
  8. 前記関数は、0.85より高い平均正解率、および/または0.75より高い平均IoUを与える
    請求項に記載の方法。
  9. 前記関数は、畳み込みエンコーダ・デコーダ・ニュートラルネットワークアーキテクチャを与える、
    請求項7または8に記載の方法。
  10. 前記関数は、前記機械学習はクロスエントロピー損失関数に基づく確率的勾配降下法を含む
    請求項7または8に記載の方法。
  11. コンピュータに、請求項1~10のいずれか1項に記載の方法を実行させるための命令を含む、コンピュータプログラム。
  12. 請求項11に記載のコンピュータプログラムが記録されたメモリを含み、前記コンピュータプログラムにより動作させられるデバイス。
  13. 前記メモリに接続されたプロセッサおよびグラフィカルユーザインタフェースをさらに含む、請求項12に記載のデバイス。
JP2018241147A 2017-12-28 2018-12-25 建造物を表現する3dモデルの生成 Active JP7280039B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP17306966.7 2017-12-28
EP17306966.7A EP3506211B1 (en) 2017-12-28 2017-12-28 Generating 3d models representing buildings

Publications (2)

Publication Number Publication Date
JP2019121386A JP2019121386A (ja) 2019-07-22
JP7280039B2 true JP7280039B2 (ja) 2023-05-23

Family

ID=60990614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018241147A Active JP7280039B2 (ja) 2017-12-28 2018-12-25 建造物を表現する3dモデルの生成

Country Status (4)

Country Link
US (1) US11636234B2 (ja)
EP (1) EP3506211B1 (ja)
JP (1) JP7280039B2 (ja)
CN (1) CN110033513A (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11263360B2 (en) 2018-01-19 2022-03-01 Autodesk, Inc. Building information design synthesis (BIDS)
US11468206B2 (en) * 2018-08-20 2022-10-11 Sri International Machine learning system for building renderings and building information modeling data
US11461985B2 (en) * 2019-01-30 2022-10-04 Mosaic, Ltd Methods and systems for rendering and modifying three-dimensional models for interior design
CN110189412B (zh) * 2019-05-13 2023-01-03 武汉大学 基于激光点云的多楼层室内结构化三维建模方法及系统
JP7248904B2 (ja) * 2019-06-28 2023-03-30 サミー株式会社 弾球遊技機
JP7248901B2 (ja) * 2019-06-28 2023-03-30 サミー株式会社 弾球遊技機
CN110555122B (zh) * 2019-07-19 2022-12-23 中国地质大学(武汉) 一种基于分段矩形的建筑平面图墙体矢量化方法
US20210073447A1 (en) 2019-09-06 2021-03-11 BeamUp, Ltd. Structural design systems and methods for updating simulation and modeling results
US20210110077A1 (en) * 2019-10-09 2021-04-15 Consulting Engineers, Corp. Method and system for locating a centerline in a wall frame
CN114514523A (zh) * 2019-10-14 2022-05-17 西门子工业软件有限公司 生成工厂布局的3d模型
EP4062272A4 (en) * 2019-11-18 2023-12-20 Autodesk, Inc. SYNTHETIC DATA GENERATION AND BUILDING INFORMATION MODEL (BIM) ELEMENT EXTRACTION FROM FLOOR PLAN DRAWINGS USING MACHINE LEARNING
CN110929310A (zh) * 2019-11-25 2020-03-27 杭州群核信息技术有限公司 一种云端图纸智能生成及编辑方法
US20210217121A1 (en) * 2020-01-14 2021-07-15 Consulting Engineers, Corp. Method and system for optimizing shipping methodology for cold formed steel studs
CN111369424A (zh) * 2020-02-10 2020-07-03 北京城市网邻信息技术有限公司 生成目标房屋的三维空间的方法、装置、设备、存储介质
WO2021223677A1 (en) * 2020-05-06 2021-11-11 Versitech Limited Dense 3d modelling method for ifc bim object production from rgbd videos
US20210365603A1 (en) * 2020-05-19 2021-11-25 Ke.Com (Beijing) Technology Co., Ltd. Artificial intelligence systems and methods for interior furnishing
CN111862303B (zh) * 2020-06-30 2024-07-12 中建八局轨道交通建设有限公司 基于bim技术的地铁车站管线迁改演示方法
CN116406461B (zh) * 2020-10-13 2023-10-20 弗莱瑞尔公司 通过自动分析传感器数据生成物理结构和环境的测量结果
US11573551B2 (en) 2020-11-11 2023-02-07 Mapped Inc. Automatic discovery of relationships among equipment through automated cycling and observation
CN112907550B (zh) * 2021-03-01 2024-01-19 创新奇智(成都)科技有限公司 一种建筑物检测方法、装置、电子设备及存储介质
CN113205589A (zh) * 2021-03-11 2021-08-03 深圳市华阳国际工程设计股份有限公司 楼梯模型的自动标注方法、处理设备以及存储介质
GB202103656D0 (en) * 2021-03-16 2021-04-28 British Telecomm Generating three-dimensional data models of two-dimensional floor plans
JP7444137B2 (ja) 2021-06-09 2024-03-06 Jfeスチール株式会社 金属組織のセグメンテーション方法
CN113327324A (zh) * 2021-06-25 2021-08-31 广东博智林机器人有限公司 三维建筑模型的构建方法、装置、计算机设备及存储介质
US11922125B2 (en) * 2022-05-06 2024-03-05 Mapped Inc. Ensemble learning for extracting semantics of data in building systems
CN114912175B (zh) * 2022-05-07 2024-03-08 合肥工业大学 一种自动生成矢量化室内布局平面图的方法
CN115100378A (zh) * 2022-06-17 2022-09-23 广东建诚监理咨询有限公司 建筑群快速构建的方法及装置
WO2024031554A1 (zh) * 2022-08-11 2024-02-15 北京城市网邻信息技术有限公司 多层空间三维建模方法、装置和计算机可读存储介质
CN117421373B (zh) * 2023-09-05 2024-04-30 泰瑞数创科技(北京)股份有限公司 一种人工模型转换为语义模型的方法
CN117236341A (zh) * 2023-09-21 2023-12-15 东方经纬项目管理有限公司 全过程工程咨询一体化系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015095212A (ja) 2013-11-14 2015-05-18 株式会社デンソーアイティーラボラトリ 識別器、識別プログラム、及び識別方法
JP2016157434A (ja) 2015-02-23 2016-09-01 三菱電機株式会社 ストリートビューの画像をラベル付けする方法
US20160358337A1 (en) 2015-06-08 2016-12-08 Microsoft Technology Licensing, Llc Image semantic segmentation
JP6116746B1 (ja) 2016-11-17 2017-04-19 株式会社ネクスト 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3595393B2 (ja) * 1995-10-30 2004-12-02 株式会社リコー 建設図面認識方法及び認識装置
US20170300811A1 (en) 2016-04-14 2017-10-19 Linkedin Corporation Dynamic loss function based on statistics in loss layer of deep convolutional neural network
US10410350B2 (en) 2017-10-30 2019-09-10 Rakuten, Inc. Skip architecture neural network machine and method for improved semantic segmentation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015095212A (ja) 2013-11-14 2015-05-18 株式会社デンソーアイティーラボラトリ 識別器、識別プログラム、及び識別方法
JP2016157434A (ja) 2015-02-23 2016-09-01 三菱電機株式会社 ストリートビューの画像をラベル付けする方法
US20160358337A1 (en) 2015-06-08 2016-12-08 Microsoft Technology Licensing, Llc Image semantic segmentation
JP6116746B1 (ja) 2016-11-17 2017-04-19 株式会社ネクスト 情報処理装置、情報処理方法、及びプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DODGE, S. et al.,Parsing floor plan images,2017 Fifteenth IAPR International Conference on Machine Vision Applications (MVA) [online],IEEE,2017年05月,pp. 358-361,[検索日 2022.11.01], インターネット,URL:https://ieeexplore.ieee.org/document/7986875
GIMENEZ, L. et al.,Automatic reconstruction of 3D building models from scanned 2D floor plans,Automation in Construction [online],Elsevier,2016年03月,Vol. 63,pp. 48-56,[検索日 2022.11.15], インターネット,URL:https://www.sciencedirect.com/science/article/abs/pii/S0926580515002484
LIU, C. et al.,Raster-to-Vector: Revisiting Floorplan Transformation,2017 IEEE International Conference on Computer Vision (ICCV) [online],IEEE,2017年10月,pp. 2214-2222,[検索日 2022.11.01], インターネット,URL:https://ieeexplore.ieee.org/document/8237503

Also Published As

Publication number Publication date
CN110033513A (zh) 2019-07-19
EP3506211B1 (en) 2021-02-24
US20190205485A1 (en) 2019-07-04
JP2019121386A (ja) 2019-07-22
US11636234B2 (en) 2023-04-25
EP3506211A1 (en) 2019-07-03

Similar Documents

Publication Publication Date Title
JP7280039B2 (ja) 建造物を表現する3dモデルの生成
JP7376233B2 (ja) ピクセルワイズ分類器による2dフロアプランのセマンティックセグメンテーション
Yin et al. Generating 3d building models from architectural drawings: A survey
US20210142478A1 (en) Multi-dimensional model merge for style transfer
Chang et al. Building-GAN: Graph-conditioned architectural volumetric design generation
CN104346769A (zh) 三维建模对象的压缩
Tang et al. BIM generation from 3D point clouds by combining 3D deep learning and improved morphological approach
CN105761303A (zh) 在3d建模组件上创建包围盒
JP2022036024A (ja) パラメータ化された3dモデルを出力するニューラルネットワーク
CN102142152B (zh) 用于在计算机屏幕上显示对象的方法、装置和程序
TW201946033A (zh) 依據填充分率體素資料進行多材料網格生成之系統及方法
CN109685095B (zh) 根据3d布置类型对2d图像进行分类
CN114758337B (zh) 一种语义实例重建方法、装置、设备及介质
KR102305229B1 (ko) 객체 경계정보의 추출에 사용되는 피쳐맵 정보를 생성하는 방법 및 장치
JP2022036023A (ja) 3dモデルを出力する変分オートエンコーダ
CN114529707A (zh) 三维模型分割方法、装置、计算设备及可读存储介质
US10943037B2 (en) Generating a CAD model from a finite element mesh
Rogage et al. 3D object recognition using deep learning for automatically generating semantic BIM data
JP2023529790A (ja) フロアプランを生成するための方法、装置およびプログラム
Du et al. Learning Part Generation and Assembly for Sketching Man‐Made Objects
Vincent et al. Graph morphology in image analysis
A. Vasilakis et al. Pose partitioning for multi‐resolution segmentation of arbitrary mesh animations
Zhang et al. Procedural roof generation from a single satellite image
Collins et al. Towards applicable Scan-to-BIM and Scan-to-Floorplan: an end-to-end experiment
US11126330B2 (en) Shaped-based techniques for exploring design spaces

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230511

R150 Certificate of patent or registration of utility model

Ref document number: 7280039

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150