JP7344620B1 - 建屋内構造物認識システム及び建屋内構造物認識方法 - Google Patents
建屋内構造物認識システム及び建屋内構造物認識方法 Download PDFInfo
- Publication number
- JP7344620B1 JP7344620B1 JP2023533342A JP2023533342A JP7344620B1 JP 7344620 B1 JP7344620 B1 JP 7344620B1 JP 2023533342 A JP2023533342 A JP 2023533342A JP 2023533342 A JP2023533342 A JP 2023533342A JP 7344620 B1 JP7344620 B1 JP 7344620B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- building
- machine learning
- machine
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 45
- 238000010801 machine learning Methods 0.000 claims abstract description 168
- 238000009877 rendering Methods 0.000 claims abstract description 13
- 238000012545 processing Methods 0.000 claims description 78
- 238000012937 correction Methods 0.000 claims description 37
- 230000002787 reinforcement Effects 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 238000013135 deep learning Methods 0.000 claims description 11
- 238000005286 illumination Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 4
- 230000003595 spectral effect Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 44
- 238000010276 construction Methods 0.000 description 40
- 238000003384 imaging method Methods 0.000 description 13
- 238000005259 measurement Methods 0.000 description 9
- 238000012795 verification Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 3
- 239000002184 metal Substances 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000001579 optical reflectometry Methods 0.000 description 2
- 230000001172 regenerating effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 239000004566 building material Substances 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000000547 structure data Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Image Analysis (AREA)
Abstract
Description
また、建築現場で管理するべき部材の量を減らすことが出来、これに伴い、建築現場の部材管理システムがハンドルするデータ量を大幅に減らすことが出来る。
本発明の他の目的、特徴および利点は添付図面に関する以下の本発明の実施例の記載から明らかになるであろう。
本発明による建屋内構造物認識システム1は、BIM(Building Information Modeling)データから生成された正解画像を正解データとし、BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行うことにより、第1の機械学習モデルを生成し、第1の機械学習済モデルに対して少なくとも再学習用画像を入力して再学習を行うことにより第2の機械学習済モデルを生成する機械学習モデル生成装置10と、機械学習モデル生成装置で生成した第2の機械学習済モデルを用いて、建屋内の構造物を認識する建屋内構造物認識装置20とを備える。
機械学習モデル生成装置10は、建屋内の構造物を認識するための機械学習モデルを生成する。機械学習モデル生成装置10は、BIM(Building Information Modeling)データから正解画像を生成する正解画像生成部101と、BIMデータをレンダリングし、仮想観測画像を生成する仮想観測画像生成部102と、正解画像生成部で生成された正解画像を正解データとし、仮想観測画像を観測データとして機械学習を行い、第1の機械学習済モデルM1を生成する第1の機械学習モデル生成部103と、再学習用画像を取得する再学習用画像取得部110と、第1の機械学習モデル生成部103で生成された第1の機械学習済モデルM1に対して、少なくとも再学習用画像取得部110で取得した再学習用画像を入力し、第2の機械学習済モデルM2を生成する、第2の機械学習モデル生成部111とを備える。
図3は、本発明の第1の態様による機械学習モデル生成装置10のうち、第1の機械学習済モデルM1の生成に関する部分を示している。即ち、本発明の第1の態様による機械学習モデル生成装置10は、図2のBIMデータを格納するためのデータベース106、正解画像生成部101、仮想観測画像生成部102及び第1の機械学習モデル生成部103に関する部分を図3のような構成に置き換えたものである。本発明の第1の態様による機械学習モデル生成装置10のうち、第2の機械学習済モデルM2の生成に関する部分は、図2のその他の部分、即ち、図2の再学習用画像取得部110及び第2の機械学習モデル生成部111に関する部分と同一である。図3に示すように、本発明の第1の態様においては、機械学習モデル生成装置10は、第1の機械学習済モデルを生成する際に、入力データの一部として用いられる強化画像を生成する強化用画像生成部104を更に備えるようにしてもよい。強化用画像生成部104以外の部分については、図2において説明したものと同一である。
図4は、本発明の第2の態様による機械学習モデル生成装置10のうち、第1の機械学習済モデルM1の生成に関する部分を示している。即ち、本発明の第2の態様による機械学習モデル生成装置10は、図2のBIMデータを格納するためのデータベース106、正解画像生成部101、仮想観測画像生成部102及び第1の機械学習モデル生成部103に関する部分を図4のような構成に置き換えたものである。本発明の第2の態様による機械学習モデル生成装置10のうち、第2の機械学習済モデルM2の生成に関する部分は、図2のその他の部分、即ち、図2の再学習用画像取得部110及び第2の機械学習モデル生成部111に関する部分と同一である。図4に示すように、本発明の第2の態様においては、機械学習モデル生成装置10は、仮想観測画像生成部102で生成された仮想観測画像に対して現実の画像に近づけるための画像処理を行い、強調仮想観測画像を生成する仮想観測画像処理部105を更に備えるようにしてもよい。仮想観測画像処理部105以外の部分については、図3において説明したものと同一である。
図5は、本発明の第3の態様による機械学習モデル生成装置10のうち、第1の機械学習済モデルM1の生成に関する部分を示している。即ち、本発明の第3の態様による機械学習モデル生成装置10は、図2のBIMデータを格納するためのデータベース106、正解画像生成部101、仮想観測画像生成部102及び第1の機械学習モデル生成部103に関する部分を図5のような構成に置き換えたものである。本発明の第3の態様による機械学習モデル生成装置10のうち、第2の機械学習済モデルM2の生成に関する部分は、図2のその他の部分、即ち、図2の再学習用画像取得部110及び第2の機械学習モデル生成部111に関する部分と同一である。図5に示すように、本発明の第3の態様においては、仮想観測画像処理部105は、強調仮想観測画像に対して構造物のテクスチャを追加し、テクスチャ追加画像を生成するようにしてもよい。テクスチャの追加以外の部分については、図4において説明したものと同一である。
建屋内構造物認識装置20は、建屋内の構造物を認識するための第2の機械学習済モデルM2を用いて、建屋内の構造物を認識する。建屋内構造物認識装置20は、第2の機械学習済モデルM2に対し、入力データとして現実の建屋内の画像であるカラー画像及び奥行き画像が入力されると、画像内の構造物の認識を行い、出力データとして画像内の構造物の領域を示す認識結果画像を出力する認識部201と、認識結果画像に対して、信頼性画像を用いて補正処理を行う補正処理部205とを備える。
図6Bの態様においては、認識部201は、現実の建屋内の画像であるカラー画像及び奥行き画像に加えて、更に構造物の領域を示す構造物選択画像を入力データとして画像内の構造物の認識を行う。それ以外の部分については、図6Aで説明したものと同一である。
図6Cの例では、認識部201は、現実の建屋内の画像内に含まれるテキストを除去し、テキスト除去後の画像を入力データとして前記画像内の構造物の認識を行う。図6Cの例では、テキスト除去部202により、パイプに記載されたテキスト(文字)が除去され、テキスト除去後画像が入力データとして用いられている。また、テキスト除去後画像に加えて、図6Bで説明したものと同様の構造物選択画像も入力データとして用いてもよい。
検証部203は、機械学習済モデルの検証を行う。検証部203は、認証結果画像とユーザ指定画像とを比較することにより、機械学習済モデルの検証を行う。図7では、例として、建設途中の建屋内に配置されたパイプの認識を行った結果としての認識結果画像と、建設途中の建屋内の同じ位置における現実の画像に対してユーザがパイプの領域を指定した画像であるユーザ指定画像とが比較されている。
本発明による建屋内構造物認識方法は、BIM(Building Information Modeling)データから生成された正解画像を正解データとし、BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行い、機械学習モデルを生成するステップ(具体的には図8~11の機械学習モデルを生成するための各ステップ)と、機械学習モデルを用いて、建屋内の構造物を認識するステップ(具体的には図12~13の構造物を認識するための各ステップ)とを備える。
まず、ステップS801にて、BIMデータから仮想観測画像及び正解画像が生成される。仮想観測画像は、BIMデータをレンダリングしたものであり、正解画像は、BIMデータを元に生成された構造物を示すマスク領域を有するマスク画像である。次に、ステップS801で生成された仮想観測画像を観測データとし、正解画像を正解データとして、第1の機械学習済モデルM1が生成される(ステップS802)。次に、生成された第2の機械学習済モデルM1に対して、カラー画像、奥行き画像及びこれらのカラー画像及び奥行き画像に対応する正解画像を入力し、再学習を行うことにより、第2の機械学習済モデルM2が生成される(ステップS803)。
本発明の第1の態様においては、図8のステップS801と同様に、まず、ステップS901にて、BIMデータから仮想観測画像及び正解画像が生成される。図8の場合と異なる点は、BIMデータから仮想観測画像及び正解画像を生成するステップS901において生成された正解画像に対して、特徴線の抽出を行うことにより、強化画像の生成を行うステップ(ステップS902)が追加される点である。第1の態様においては、ステップS901で生成された仮想観測画像を観測データとし、ステップS902で生成された強化画像を正解データとして、第1の機械学習済モデルが生成される(ステップS903)。次に、生成された第2の機械学習済モデルM1に対して、カラー画像、奥行き画像及びこれらのカラー画像及び奥行き画像に対応する正解画像を入力し、再学習を行うことにより、第2の機械学習済モデルM2が生成される(ステップS904)。
本発明の第2の態様においては、図9のステップ901と同様に、まず、ステップS1001にて、BIMデータから仮想観測画像及び正解画像が生成される。また、図9のステップS902と同様に、BIMデータから仮想観測画像及び正解画像を生成するステップS1001において生成された正解画像に対して、特徴線の抽出を行うことにより、強化画像の生成を行う(ステップS1002)。図9の場合と異なる点は、ステップS1001にて生成された仮想観測画像に対して画像処理を行い、強調仮想観測画像を生成するステップ(ステップS1003)が追加される点である。ステップS1003では、仮想観測画像に対して、現実の画像の情報に基づいて、現実の画像に近づくような画像処理が行われる。例えば、画像処理として、スペクトル周波数のフィルタリング、光源の追加、照明光の追加、又は影の追加のうちの少なくとも1つ以上を行うようにしてもよい。第2の態様においては、ステップS1003で生成された強調仮想観測画像を観測データとし、ステップS1002で生成された強化画像を正解データとして、第1の機械学習済モデルが生成される(ステップS1004)。次に、生成された第2の機械学習済モデルM1に対して、カラー画像、奥行き画像及びこれらのカラー画像及び奥行き画像に対応する正解画像を入力し、再学習を行うことにより、第2の機械学習済モデルM2が生成される(ステップS1005)。
本発明の第3の態様においては、図10のステップS1001と同様に、まず、ステップS1101にて、BIMデータから仮想観測画像及び正解画像が生成される。また、図10のステップS1002と同様に、BIMデータから仮想観測画像及び正解画像を生成するステップS1101において生成された正解画像に対して、特徴線の抽出を行うことにより、強化画像の生成を行う(ステップS1102)。また、図10のステップS1003と同様に、ステップS1101にて生成された仮想観測画像に対して画像処理を行い、強調仮想観測画像を生成する(ステップS1103)。図10の場合と異なる点は、ステップS1103にて生成された強調仮想観測画像に対して、テクスチャ画像を追加するステップ(S1104)が追加される点である。第3の態様においては、ステップS1104で生成されたテクスチャ追加画像を観測データとし、ステップS1102で生成された強化画像を正解データとして、第1の機械学習済モデルM1が生成される(ステップS1105)。次に、生成された第2の機械学習済モデルM1に対して、カラー画像、奥行き画像及びこれらのカラー画像及び奥行き画像に対応する正解画像を入力し、再学習を行うことにより、第2の機械学習済モデルM2が生成される(ステップS1106)。
まず、ステップS1201にて、現場写真等の現実の画像から強化画像が生成される。次に、生成された強化画像に対して、ステップS1202にて、強化画像の調整を行う。強化画像の調整は、例えば、認識すべき構造物がパイプの場合、パイプの特徴線(例えば、中心線やエッジ等)の検出結果に対し、必要に応じて、長さや傾き等を再調整する処理である。次に、現実の画像、ステップS1201で生成された強化画像、及びステップS1202で調整された強化画像を入力データとして、機械学習済のモデルを用いて、建屋内の構造物を認識する構造物認識処理が行われる(ステップS1203)。ステップS1203で得られた構造物認識結果はそのまま出力データとしてもよいが、さらにステップS1204にて、構造物認識結果に対して、選択及び平均化を行うようにしてもよい。選択及び平均化は、例えば、認識すべき構造物がパイプの場合、パイプを画像化する際に、パイプを検出した位置を上下左右にシフトしてこれらの位置の平均を取って画像化する処理である。
図13の例は、建屋内の構造物にテキストが記載されている場合の処理である。建屋内の構造物にテキストが記載されている場合には、構造物の認識処理に先立って、テキストの除去が行われる。まず、ステップS1301にて、現場写真等の現実の画像に対して、OCRによる文字認識が行われ、画像内のテキスト領域が検出される。次に、ステップS1301で検出されたテキスト領域に対応するピクセルの検出が行われる(ステップS1302)。次に、ステップS1302にて検出されたピクセルの除去及び画像復元が行われる(ステップS1303)。ここで、画像復元とは、例えば、除去されたピクセルをそのピクセルの周囲の色やテクスチャで埋めることによりテキストの裏に隠れた構造物の部分を再現することである。これにより、テキストが除去された画像が得られる。
建屋内構造物管理システム50は、建屋内の構造物を認識するための機械学習済モデルを用いて認識された建屋内の構造物を管理する。建屋内構造物管理システム50は、建屋内構造物認識装置20において認識された構造物のデータ又は構造物の部材のデータを記憶するデータベース501を備える。データベース501に記憶された構造物のデータ又は構造物の部材のデータは、ユーザ端末40に送信されるようにしてもよい。建屋内構造物管理システム50によれば、建屋内構造物認識装置20で認識された建屋内の構造物のデータ又は構造物の部材のデータ等の注目すべき部材のデータや必要なデータのみを記憶し管理することにより、データ量の増加や管理のコストを低減し、これらの必要なデータのみを利用することにより、計測や処理の速度を向上させることができる。
実施例2の建屋内構造物認識装置20’は、実施例1と同様に、建屋内の構造物を認識するための第2の機械学習済モデルM2を用いて、建屋内の構造物を認識する。また、建屋内構造物認識装置20’は、実施例1と同様に、第2の機械学習済モデルM2に対し、入力データとして現実の建屋内の画像であるカラー画像及び奥行き画像が入力されると、画像内の構造物の認識を行い、出力データとして画像内の構造物の領域を示す認識結果画像を出力する認識部201と、認識結果画像に対して、信頼性画像を用いて補正処理を行う補正処理部205とを備える。実施例1と異なる点は、認識部201において、第2の機械学習済モデルM2に対し現実の建屋内の画像であるカラー画像を入力して得た第1の認識結果画像と、第2の機械学習済モデルM2に対し奥行き画像を入力して得た第2の認識結果画像とを出力データとして得る点である。建屋内構造物認識装置20’では、認識部201で得た第1の認識結果画像と第2の認識結果画像に対し、補正処理部205にて、信頼性画像を用いた重み付けを行い、補正結果画像を得る。
ここで、CDepthは、信頼性画像から得られた各ピクセルの奥行き情報の信頼度を例えば0(信頼度:低)、0.5(信頼度:中)又は1(信頼度:高)の3段階で示した値である。RRGBは、カラー画像を入力として得られた第1の認識結果画像の各ピクセルの値である。RDepthは、奥行き画像を入力として得られた第2の認識結果画像の各ピクセルの値である。
式(1)を用いて補正結果画像の各ピクセルの値を算出する場合、例えば、あるピクセルの奥行き情報の信頼度が0(CDepth=0)の場合、第1の認識結果画像の各ピクセルの情報のみが使用され、補正結果画像の各ピクセルは、以下の式(2)により得られる。
また、あるピクセルの奥行き情報の信頼度が1(CDepth=1)の場合、第1の認識結果画像と第2の認識結果画像の各ピクセルの情報の平均値が用いられ、補正結果画像の各ピクセルは、以下の式(3)により得られる。
また、あるピクセルの奥行き情報の信頼度が0.5(CDepth=0.5)の場合、補正結果画像の各ピクセルは、第1の認識結果画像と第2の認識結果画像から以下の式(4)により得られる。
図15Bの態様においては、認識部201は、現実の建屋内の画像であるカラー画像及び奥行き画像のそれぞれに、更に構造物の領域を示す構造物選択画像を入力データとして加えて画像内の構造物の認識を行う。それ以外の部分については、図15Aで説明したものと同一である。補正処理部205による補正処理の方法についても図15Aで説明したものと同一の方法を採用することができる。
図15Cの例では、認識部201は、現実の建屋内の画像内に含まれるテキストを除去し、テキスト除去後の画像を入力データとして前記画像内の構造物の認識を行う。それ以外の部分については、図15Bの態様と同一である。補正処理部205による補正処理の方法についても図15Aで説明したものと同一の方法を採用することができる。図15Cの例では、テキスト除去部202により、パイプに記載されたテキスト(文字)が除去され、テキスト除去後画像が入力データとして用いられている。また、テキスト除去後画像に加えて、図15Bで説明したものと同様の構造物選択画像も入力データとして用いてもよい。
実施例3の建屋内構造物認識装置20’’は、実施例1と同様に、建屋内の構造物を認識するための第2の機械学習済モデルM2を用いて、建屋内の構造物を認識する。また、建屋内構造物認識装置20’’は、実施例1と同様に、第2の機械学習済モデルM2に対し、入力データとして現実の建屋内の画像であるカラー画像及び奥行き画像が入力されると、画像内の構造物の認識を行い、出力データとして画像内の構造物の領域を示す認識結果画像を出力する認識部201と、認識結果画像に対して、信頼性画像を用いて補正処理を行う補正処理部205とを備える。実施例1と異なる点は、認識部201において、第2の機械学習済モデルM2に対し現実の建屋内の画像であるカラー画像のみを入力し認識結果画像を得る点である。建屋内構造物認識装置20’’では、認識部201で得た認識結果画像に対し、補正処理部205にて、信頼性画像に加えて奥行き画像を用いて補正結果画像を得る。
ここで、CDepthは、信頼性画像から得られた各ピクセルの奥行き情報の信頼度を例えば0(信頼度:低)、0.5(信頼度:中)又は1(信頼度:高)の3段階で示した値である。RRGBは、カラー画像を入力として得られた第1の認識結果画像の各ピクセルの値である。RDepthは、ToFカメラ等でカラー画像が撮影されると同時に生成された奥行き画像の各ピクセルの値である。
式(1)を用いて補正結果画像の各ピクセルの値を算出する場合、例えば、あるピクセルの奥行き情報の信頼度が0(CDepth=0)の場合、第1の認識結果画像の各ピクセルの情報のみが使用され、補正結果画像の各ピクセルは、以下の式(6)により得られる。
また、あるピクセルの奥行き情報の信頼度が1(CDepth=1)の場合、第1の認識結果画像と奥行き画像の各ピクセルの情報の平均値が用いられ、補正結果画像の各ピクセルは、以下の式(7)により得られる。
また、あるピクセルの奥行き情報の信頼度が0.5(CDepth=0.5)の場合、補正結果画像の各ピクセルは、第1の認識結果画像と奥行き画像から以下の式(8)により得られる。
図16Bの態様においては、認識部201は、現実の建屋内の画像であるカラー画像に、更に構造物の領域を示す構造物選択画像を入力データとして加えて画像内の構造物の認識を行う。それ以外の部分については、図16Aで説明したものと同一である。補正処理部205による補正処理の方法についても図16Aで説明したものと同一の方法を採用することができる。
図16Cの例では、認識部201は、現実の建屋内の画像内に含まれるテキストを除去し、テキスト除去後の画像を入力データとして前記画像内の構造物の認識を行う。それ以外の部分については、図16Bの態様と同一である。補正処理部205による補正処理の方法についても図16Aで説明したものと同一の方法を採用することができる。図16Cの例では、テキスト除去部202により、パイプに記載されたテキスト(文字)が除去され、テキスト除去後画像が入力データとして用いられている。また、テキスト除去後画像に加えて、図16Bで説明したものと同様の構造物選択画像も入力データとして用いてもよい。
上記記載は実施例についてなされたが、本発明はそれに限らず、本発明の原理と添付の請求の範囲の範囲内で種々の変更および修正をすることができることは当業者に明らかである。
10 機械学習モデル生成装置
20 建屋内構造物認識装置
30 撮像装置
40 ユーザ端末
101 正解画像生成部
102 仮想観測画像生成部
103 第1の機械学習モデル生成部
104 強化用画像生成部
105 仮想観測画像処理部
110 再学習用画像取得部
111 第2の機械学習モデル生成部
201 認識部
202 テキスト除去部
203 検証部
205 補正処理部
501 データベース
Claims (19)
- 建屋内の構造物を認識するための機械学習モデルを生成する機械学習モデル生成装置であって、
BIM(Building Information Modeling)データから正解画像を生成する正解画像生成部と、
前記BIMデータをレンダリングし、仮想観測画像を生成する仮想観測画像生成部と、
前記正解画像生成部で生成された前記正解画像を正解データとし、前記仮想観測画像を観測データとして機械学習を行い、第1の機械学習済モデルを生成する、第1の機械学習モデル生成部と、
再学習用画像を取得する再学習用画像取得部と、
前記第1の機械学習モデル生成部で生成された前記第1の機械学習済モデルに対して、少なくとも前記再学習用画像取得部で取得した前記再学習用画像を入力し、第2の機械学習済モデルを生成する、第2の機械学習モデル生成部と
を備え、
前記第2の機械学習モデル生成部は、前記第1の機械学習済モデルに対して、前記再学習用画像に加え、前記正解画像生成部で生成された前記正解画像及び前記仮想観測画像を入力し、前記第2の機械学習済モデルを生成することを特徴とする、機械学習モデル生成装置。 - 前記再学習用画像は、カラー画像及び奥行き画像のうちの少なくとも1つ、並びに、前記カラー画像及び前記奥行き画像のうちの少なくとも1つに対応する正解画像であることを特徴とする、請求項1に記載の機械学習モデル生成装置。
- 前記第1の機械学習済モデルを生成する際に、入力データの一部として用いられる強化画像を生成する強化用画像生成部を更に備えることを特徴とする、請求項1に記載の機械学習モデル生成装置。
- 前記正解画像は、構造物を示すマスク領域を有するマスク画像であり、前記強化画像は、前記正解画像の前記マスク領域の特徴線を抽出したスケルトン画像であることを特徴とする、請求項3に記載の機械学習モデル生成装置。
- 前記仮想観測画像生成部で生成された前記仮想観測画像に対して現実の画像に近づけるための画像処理を行い、強調仮想観測画像を生成する仮想観測画像処理部を更に備えることを特徴とする、請求項1に記載の機械学習モデル生成装置。
- 前記仮想観測画像処理部による前記画像処理は、スペクトル周波数のフィルタリング、光源の追加、照明光の追加、又は影の追加のうちの少なくとも1つ以上を含むことを特徴とする、請求項5に記載の機械学習モデル生成装置。
- 前記仮想観測画像処理部は、前記強調仮想観測画像に対して前記構造物のテクスチャを追加し、テクスチャ追加画像を生成することを特徴とする、請求項5に記載の機械学習モデル生成装置。
- 前記第1の機械学習モデル生成部及び前記第2の機械学習モデル生成部は、ニューラルネットワークによる深層学習により、前記第1の機械学習済モデル及び前記第2の機械学習済モデルをそれぞれ生成することを特徴とする、請求項1に記載の機械学習モデル生成装置。
- 建屋内の構造物を認識するための機械学習済モデルを用いて、建屋内の構造物を認識する建屋内構造物認識装置であって、
第2の機械学習済モデルに対し、入力データとして少なくともカラー画像及び奥行き画像が入力されると、画像内の構造物の認識を行い、出力データとして画像内の構造物の領域を示す認識結果画像を出力する認識部と、
前記認識結果画像に対して、信頼性画像を用いて補正処理を行う補正処理部と
を備え、
前記第2の機械学習済モデルは、第1の機械学習済モデルに対して、少なくとも再学習用画像を入力して再学習をさせることにより生成したものであり、
前記第1の機械学習済モデルは、BIM(Building Information Modeling)データから生成された正解画像を正解データとし、前記BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行うことにより生成されたものであり、
前記第2の機械学習済モデルは、前記第1の機械学習済モデルに対して、前記再学習用画像に加え、前記正解画像及び前記仮想観測画像を入力することにより生成したものであることを特徴とする、建屋内構造物認識装置。 - 前記再学習用画像は、カラー画像及び奥行き画像のうちの少なくとも1つ、並びに、前記カラー画像及び前記奥行き画像のうちの少なくとも1つに対応する正解画像であることを特徴とする、請求項9に記載の建屋内構造物認識装置。
- 前記認識部は、前記カラー画像及び前記奥行き画像に加えて、更に構造物の領域を示す構造物選択画像を入力データとして画像内の構造物の認識を行うことを特徴とする、請求項9に記載の建屋内構造物認識装置。
- 前記認識部は、前記カラー画像内に含まれるテキストを除去し、テキスト除去後の画像を入力データとして前記画像内の構造物の認識を行うことを特徴とする、請求項9に記載の建屋内構造物認識装置。
- 前記第1の機械学習済モデル及び前記第2の機械学習済モデルは、ニューラルネットワークによる深層学習により生成されたものであることを特徴とする、請求項9に記載の建屋内構造物認識装置。
- 機械学習モデルを用いて建屋内の構造物を認識するための建屋内構造物認識システムであって、
BIM(Building Information Modeling)データから生成された正解画像を正解データとし、前記BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行うことにより、第1の機械学習済モデルを生成し、前記第1の機械学習済モデルに対して少なくとも再学習用画像を入力して再学習を行うことにより第2の機械学習済モデルを生成する機械学習モデル生成装置と、
前記機械学習モデル生成装置で生成した前記第2の機械学習済モデルを用いて、建屋内の構造物を認識する建屋内構造物認識装置と、
を備え、
前記機械学習モデル生成装置は、前記第1の機械学習済モデルに対して、前記再学習用画像に加え、前記正解画像及び前記仮想観測画像を入力し、前記第2の機械学習済モデルを生成することを特徴とする、建屋内構造物認識システム。 - 前記再学習用画像は、カラー画像及び奥行き画像のうちの少なくとも1つ、並びに、前記カラー画像及び前記奥行き画像のうちの少なくとも1つに対応する正解画像であることを特徴とする、請求項14に記載の建屋内構造物認識システム。
- 建屋内の構造物を認識するための機械学習済モデルを用いて認識された建屋内の構造物を管理する建屋内構造物管理システムであって、
請求項9~12のいずれか一項に記載の前記建屋内構造物認識装置において認識された前記構造物のデータ又は前記構造物の部材のデータを記憶するデータベースを備えることを特徴とする、建屋内構造物管理システム。 - 機械学習モデルを用いて建屋内の構造物を認識するための建屋内構造物認識システムであって、
請求項1~8のいずれか一項に記載の機械学習モデル生成装置と、
請求項9~12のいずれか一項に記載の建屋内構造物認識装置と、
を備えることを特徴とする、建屋内構造物認識システム。 - 建屋内構造物認識方法であって、
BIM(Building Information Modeling)データから生成された正解画像を正解データとし、前記BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行い、第1の機械学習済モデルを生成するステップと、
前記第1の機械学習済モデルに対して少なくとも再学習用画像を入力して再学習を行うことにより第2の機械学習済モデルを生成するステップと、
前記第2の機械学習済モデルを用いて、建屋内の構造物を認識するステップと、
を備え、
前記第2の機械学習済モデルを生成するステップは、前記第1の機械学習済モデルに対して、前記再学習用画像に加え、前記正解画像及び前記仮想観測画像を入力することにより前記第2の機械学習済モデルを生成することを特徴とする、建屋内構造物認識方法。 - コンピュータに、請求項18に記載の方法の各ステップを実行させることを特徴とするプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2022/028540 WO2024018642A1 (ja) | 2022-07-22 | 2022-07-22 | 建屋内構造物認識システム及び建屋内構造物認識方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7344620B1 true JP7344620B1 (ja) | 2023-09-14 |
JPWO2024018642A1 JPWO2024018642A1 (ja) | 2024-01-25 |
Family
ID=87934890
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023533342A Active JP7344620B1 (ja) | 2022-07-22 | 2022-07-22 | 建屋内構造物認識システム及び建屋内構造物認識方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7344620B1 (ja) |
WO (1) | WO2024018642A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018072957A (ja) * | 2016-10-25 | 2018-05-10 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 画像加工方法、画像加工システム及びプログラム |
JP2019133433A (ja) * | 2018-01-31 | 2019-08-08 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、およびプログラム |
JP2021039426A (ja) * | 2019-08-30 | 2021-03-11 | 株式会社東芝 | 推定装置、推定方法及びプログラム |
WO2021176621A1 (ja) * | 2020-03-04 | 2021-09-10 | 三菱電機株式会社 | 画像処理装置、画像処理方法、および画像処理プログラム |
JP2021140445A (ja) * | 2020-03-05 | 2021-09-16 | 株式会社トプコン | 情報処理装置、推論モデル構築方法、情報処理方法、推論モデル、プログラム、及び記録媒体 |
-
2022
- 2022-07-22 JP JP2023533342A patent/JP7344620B1/ja active Active
- 2022-07-22 WO PCT/JP2022/028540 patent/WO2024018642A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018072957A (ja) * | 2016-10-25 | 2018-05-10 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 画像加工方法、画像加工システム及びプログラム |
JP2019133433A (ja) * | 2018-01-31 | 2019-08-08 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、およびプログラム |
JP2021039426A (ja) * | 2019-08-30 | 2021-03-11 | 株式会社東芝 | 推定装置、推定方法及びプログラム |
WO2021176621A1 (ja) * | 2020-03-04 | 2021-09-10 | 三菱電機株式会社 | 画像処理装置、画像処理方法、および画像処理プログラム |
JP2021140445A (ja) * | 2020-03-05 | 2021-09-16 | 株式会社トプコン | 情報処理装置、推論モデル構築方法、情報処理方法、推論モデル、プログラム、及び記録媒体 |
Non-Patent Citations (2)
Title |
---|
堀内 隆志 ほか,教示例の人工的拡張を用いた,深層学習による距離画像からの物体認識,情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM) 2017-CVIM-207 [online],日本,情報処理学会,2017年05月09日,第1-7頁 |
堀内 隆志 ほか: "教示例の人工的拡張を用いた,深層学習による距離画像からの物体認識", 情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM) 2017−CVIM−20, JPN6023026664, 9 May 2017 (2017-05-09), JP, pages 1 - 7, ISSN: 0005095517 * |
Also Published As
Publication number | Publication date |
---|---|
WO2024018642A1 (ja) | 2024-01-25 |
JPWO2024018642A1 (ja) | 2024-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10896540B2 (en) | Systems and methods for rapid three-dimensional modeling with real façade texture | |
US10297074B2 (en) | Three-dimensional modeling from optical capture | |
Verhoeven | Taking computer vision aloft–archaeological three‐dimensional reconstructions from aerial photographs with photoscan | |
US20190026400A1 (en) | Three-dimensional modeling from point cloud data migration | |
US7272264B2 (en) | System and method for hole filling in 3D models | |
CN105264566A (zh) | 建模装置、三维模型生成装置、建模方法、程序和布局模拟器 | |
EP3693931A1 (en) | Method for the automatic material classification and texture simulation for 3d models | |
KR101717896B1 (ko) | 데이터 경량화를 고려한 건물 외곽 모델링 방법 및 장치 | |
JP4153761B2 (ja) | 3次元モデル空間生成装置、3次元モデル空間生成方法、及び3次元モデル空間生成プログラム | |
CN114842139A (zh) | 一种基于空间分析的建筑三维数字化模型构建方法 | |
KR102702260B1 (ko) | 고해상도 영상과 LiDAR 점군 데이터를 활용한 하천 지형의 3차원 시각화 시스템 및 그 방법 | |
JP2010079505A (ja) | 画像生成装置及びプログラム | |
KR101875047B1 (ko) | 사진측량을 이용한 3d 모델링 시스템 및 방법 | |
Rüther et al. | Challenges in heritage documentation with terrestrial laser scanning | |
JP7344620B1 (ja) | 建屋内構造物認識システム及び建屋内構造物認識方法 | |
Nguyen et al. | High-definition texture reconstruction for 3D image-based modeling | |
JP7403108B2 (ja) | 建屋内構造物認識システム及び建屋内構造物認識方法 | |
Assa et al. | Diorama construction from a single image | |
Batakanwa et al. | The use of video camera to create metric 3D model of engineering objects | |
WO2024038551A1 (ja) | 建屋内構造物認識システム及び建屋内構造物認識方法 | |
JP2021039563A (ja) | 教師データとしてのデプス画像にラベルを付与するプログラム、装置及び方法 | |
JP7390743B2 (ja) | 物体測定装置及び物体測定方法 | |
RU2826369C1 (ru) | Способ и система автоматизированного построения виртуальной 3d-сцены на основании двумерных сферических фотопанорам | |
Gomes et al. | A quasi-real virtual reality experience: point cloud navigation | |
KR102538012B1 (ko) | 가상공간 내 객체의 3차원 모델을 갱신하는 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230531 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230727 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230804 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230828 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7344620 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313114 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |