JP7403108B2 - 建屋内構造物認識システム及び建屋内構造物認識方法 - Google Patents

建屋内構造物認識システム及び建屋内構造物認識方法 Download PDF

Info

Publication number
JP7403108B2
JP7403108B2 JP2021176660A JP2021176660A JP7403108B2 JP 7403108 B2 JP7403108 B2 JP 7403108B2 JP 2021176660 A JP2021176660 A JP 2021176660A JP 2021176660 A JP2021176660 A JP 2021176660A JP 7403108 B2 JP7403108 B2 JP 7403108B2
Authority
JP
Japan
Prior art keywords
image
building
machine learning
data
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021176660A
Other languages
English (en)
Other versions
JP2023066126A (ja
Inventor
康文 福間
マオ ザイシン
央 塚田
徹 伊藤
智之 和田
聡 弥延
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
RIKEN Institute of Physical and Chemical Research
Original Assignee
Topcon Corp
RIKEN Institute of Physical and Chemical Research
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp, RIKEN Institute of Physical and Chemical Research filed Critical Topcon Corp
Priority to JP2021176660A priority Critical patent/JP7403108B2/ja
Priority to PCT/JP2022/033305 priority patent/WO2023074124A1/ja
Publication of JP2023066126A publication Critical patent/JP2023066126A/ja
Application granted granted Critical
Publication of JP7403108B2 publication Critical patent/JP7403108B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、建屋内構造物認識システム及び建屋内構造物認識方法に関し、特に、ニューラルネットワークによる深層学習を用いてビル等の建築物の建屋内に配置された構造物を認識する建屋内構造物認識システム、建屋内の構造物を認識するための機械学習モデルを生成する機械学習モデル生成装置、建屋内の構造物を認識するための機械学習済モデルを用いて、建屋内の構造物を認識する建屋内構造物認識装置、建屋内の構造物を認識するための機械学習済モデルを用いて認識された建屋内の構造物を管理する建屋内構造物管理システム、建屋内構造物認識方法及びプログラムに関するものである。
従来、建築途中のビル等の建築物について施工状況を確認する方法としては、2次元の施工図等を用いて、施工現場にて人間が計器等を用いて直接計測して確認するか、例えばLiDER(Light Detection and Ranging)等の反射光を用いて距離を計測することが可能なリモートセンシング技術を用いて、BIM(Building Information Modeling)のモデルと比較することが行われている。
しかしながら、LiDER等により計測を行う場合、経験をもとに現場の状況に応じて施工現場の複数個所を計測することが必要となり、計測者の熟練度により得られるデータの精度がことなるという問題があった。また、得られた点群データのレジストレーション(登録)を行う手間や、パイプ等の建屋内の構造物を手作業で特定し、位置やサイズを計測する手間がかかるという問題があった。また、取り込まれた点群データやそれを加工したデータの正確性の問題や、データの再利用がしにくいという問題があった。
データの正確性を重視して施工現場の全地点について計測を行うことは、情報量が膨大となるため現実的には採用し難い。計測者の熟練度が高い場合には、自身の経験をもとに必要な個所のみを計測することも可能であるが、熟練度によるばらつきや計測の効率化のため、計測の自動化が求められる。
建築途中の施工現場の施工状況と完成形との比較を行うために、施工現場に配設された構造物の領域の特定とその構造物が何であるかの認識を自動化することを考えた場合に、ニューラルネットワークによる深層学習による学習済モデルを用いることが期待される。
画像内の構造物の認識を自動化するための学習済モデルを作成するためには、学習用の入力データとして、必要十分な数の施工現場の画像が必要である。また、学習用の正解データとして、その画像に含まれる構造物に対するアノテーション、即ち、画像中のどの部分が何であるかという、画像内の構造物の認識を行った結果が必要である。しかしながら、入力データとして学習に用いることが可能な実際の施工現場の写真の画像を多数収集し、正解データとして用いるために膨大な数の構造物のアノテーションを行うことは困難である。
また、実際の施工現場の写真ではなく、施工現場の完成後の3次元モデルを実際の見た目に近くなるようにレンダリングしたレンダリング画像を用いて機械学習を行い、学習済モデルを作成することも考えられる。しかしながら、レンダリング画像は主に建築物の営業目的で作成されるものであり、制作コストが高く、学習用に必要十分な数の学習用画像としてレンダリング画像を用意することは困難である。また、レンダリング画像に含まれる構造物に対するアノテーションの作業も膨大となり、人手で行うには手間を要する。
そのため、学習用に必要十分な数の施工現場に関する学習用画像を用意することが可能であり、かつ、その学習用画像に含まれる構造物のアノテーションを自動化することが求められる。また、それにより作成された学習済モデルにより、精度の高い構造物の認識ができることが求められる。
非特許文献1では、既存の大型設備の3次元計測に基づいて3Dモデルを作成するアズビルトモデリングにおいて、点群データの量が膨大化する問題に関して、「大型設備のアズビルトモデリングに用いられる計測装置は,小型部品用の点群計測装置とは計測原理が異なることに注意を要する.小型部品の点群計測では,レーザ出力装置とCCDカメラを用いて三角測量を行うのが一般的であるが,この方法では対象物のサイズが大きくなるに従って装置も巨大化する.また,小型部品の計測では,計測される点群はせいぜい数百万点程度であることが多いが,大型設備の場合には,モデル化に大量の点群を必要とする.」ことが指摘されている。
例えば、特許文献1では、「既存図面から取得した建築物の既存部分の電子化データを3次元CADデータに変換して、3次元レーザースキャナにより取得された点群データや該点群データから作成された3次元ポリゴンモデルを含む各種現場調査データと共に格納する既存部分調査手段と、前記3次元ポリゴンモデルに対して、予め部材ライブラリに格納された部材オブジェクトの中から選択された新たに施工される部材オブジェクトを配置する施工部材設計手段と、該施工部材設計手段により配置された前記部材オブジェクトに従って部材工場でプレカットされた部材に取り付けられた電子タグをIDリーダで読み取ることにより得られた前記部材オブジェクト固有のIDに対応する部材オブジェクトをその施工位置情報と共に前記施工部材設計手段により設計された3次元CADモデルから検索して出力する部材施工位置出力手段と、して機能するCPUと、該CPUの前記部材施工位置出力手段により出力された前記部材オブジェクトの施工位置情報に基づき、前記既存部分における前記部材の施工位置を指し示す自動位置指示装置と」を備えた建築生産システムが開示されている。
また、特許文献2では、「撮像装置を用いて実空間を撮像することにより生成される入力画像を取得する画像取得部と、前記入力画像に映る1つ以上の特徴点の位置に基づいて、前記実空間と前記撮像装置との間の相対的な位置及び姿勢を認識する認識部と、認識される前記相対的な位置及び姿勢を用いた拡張現実アプリケーションを提供するアプリケーション部と、前記認識部により実行される認識処理が安定化するように、前記特徴点の分布に従って、前記撮像装置を操作するユーザを誘導する誘導オブジェクトを前記入力画像に重畳する表示制御部と、を備える画像処理装置」が開示されている。
しかしながら、特許文献1及び2はいずれも、3次元空間あるいは3次元空間内の物体を把握するための技術を開示しているが、特にビルや工場等の大規模な設備における3次元の点群データ等のデータ量が膨大になるという問題について解決するものではなく、建築途中の施工現場の状況を迅速に把握するために画像内の構造物の認識を自動化することに適したものではなかった。
特開2013-149119号公報 特開2013-225245号公報 増田宏,「大規模環境のデジタル化技術とその問題点」,精密工学会大会学術講演会講演論文集(精密工学会大会シンポジウム資料集),2007,秋季,p.81-84,2007年9月3日
そこで、本発明は、上記課題を解決し、BIM(Building Information Modeling)データからの画像等を教師データとして用いた学習済モデルにより、建屋内の構造物の認識を行う建屋内構造物認識システム及び建屋内構造物認識方法を提供するものである。
また、本発明は、建屋内の構造物を認識するための機械学習モデルを生成する機械学習モデル生成装置を提供する。
また、本発明は、建屋内の構造物を認識するための機械学習済モデルを用いて、建屋内の構造物を認識する建屋内構造物認識装置を提供する。
また、本発明は、建屋内の構造物を認識するための機械学習済モデルを用いて認識された建屋内の構造物を管理する建屋内構造物管理システムを提供する。
また、本発明は、建屋内構造物認識方法の各ステップをコンピュータに実行させるためのプログラムを提供する。
上記課題を解決するため、本発明では建屋内の構造物を認識するための機械学習モデルを生成する機械学習モデル生成装置であって、BIM(Building Information Modeling)データから正解画像を生成する正解画像生成部と、BIMデータをレンダリングし、仮想観測画像を生成する仮想観測画像生成部と、正解画像生成部で生成された正解画像を正解データとし、仮想観測画像を観測データとして機械学習を行い、機械学習モデルを生成する機械学習モデル生成部とを備えることを特徴とする、機械学習モデル生成装置を提供する。
本発明のある態様による機械学習モデル生成装置は、機械学習モデルを生成する際に、入力データの一部として用いられる強化画像を生成する強化用画像生成部を更に備えることを特徴とする。
本発明のある態様による機械学習モデル生成装置において、正解画像は、構造物を示すマスク領域を有するマスク画像であり、強化画像は、正解画像の前記マスク領域の特徴線を抽出したスケルトン画像であることを特徴とする。特徴線とは、例えば、中心線やエッジ等である。
本発明のある態様による機械学習モデル生成装置において、仮想観測画像生成部で生成された仮想観測画像に対して現実の画像に近づけるための画像処理を行い、強調仮想観測画像を生成する仮想観測画像処理部を更に備えることを特徴とする。
本発明のある態様による機械学習モデル生成装置において、仮想観測画像処理部による画像処理は、光源の追加、照明光の追加、又は影の追加のうちの少なくとも1つ以上を含むことを特徴とする。
本発明のある態様による機械学習モデル生成装置において、仮想観測画像処理部は、強調仮想観測画像に対して構造物のテクスチャを追加し、テクスチャ追加画像を生成することを特徴とする。
本発明のある態様による機械学習モデル生成装置において、機械学習モデル生成部は、ニューラルネットワークによる深層学習により、機械学習モデルを生成することを特徴とする。
また、本発明では、建屋内の構造物を認識するための機械学習済モデルを用いて、建屋内の構造物を認識する建屋内構造物認識装置であって、機械学習済モデルに対し、入力データとして現実の建屋内の画像が入力されると、画像内の構造物の認識を行い、出力データとして画像内の構造物の領域を示す認識結果画像を出力する認識部を備え、機械学習済モデルは、BIM(Building Information Modeling)データから生成された正解画像を正解データとし、BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行うことにより生成されたものであることを特徴とする、建屋内構造物認識装置を提供する。
本発明のある態様による建屋内構造物認識装置において、認識部は、現実の建屋内の画像に加えて、更に構造物の領域を示す構造物選択画像を入力データとして画像内の構造物の認識を行うことを特徴とする。
本発明のある態様による建屋内構造物認識装置において、認識部は、現実の建屋内の画像内に含まれるテキストを除去し、テキスト除去後の画像を入力データとして画像内の構造物の認識を行うことを特徴とする。
本発明のある態様による建屋内構造物認識装置において、機械学習済モデルは、ニューラルネットワークによる深層学習により生成されたものである。
また、本発明では、機械学習モデルを用いて建屋内の構造物を認識するための建屋内構造物認識システムであって、BIM(Building Information Modeling)データから生成された正解画像を正解データとし、BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行うことにより、機械学習モデルを生成する機械学習モデル生成装置と、機械学習モデル生成装置で生成した機械学習モデルを用いて、建屋内の構造物を認識する建屋内構造物認識装置とを備えることを特徴とする、建屋内構造物認識システムを提供する。
また、本発明では、建屋内の構造物を認識するための機械学習済モデルを用いて認識された建屋内の構造物を管理する建屋内構造物管理システムであって、上記建屋内構造物認識装置において認識された構造物のデータ又は構造物の部材のデータを記憶するデータベースを備えることを特徴とする、建屋内構造物管理システムを提供する。
また、本発明では、機械学習モデルを用いて建屋内の構造物を認識するための建屋内構造物認識システムであって、本発明の上記のいずれかの態様による機械学習モデル生成装置と、本発明の上記のいずれかの態様による建屋内構造物認識装置とを備えることを特徴とする、建屋内構造物認識システムを提供する。
また、本発明では、建屋内構造物認識方法であって、BIM(Building Information Modeling)データから生成された正解画像を正解データとし、BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行い、機械学習モデルを生成するステップと、機械学習モデルを用いて、建屋内の構造物を認識するステップとを備えることを特徴とする、建屋内構造物認識方法を提供する。
また、本発明では、コンピュータに、上記建屋内構造物認識方法の各ステップを実行させることを特徴とするプログラムを提供する。
本発明において、「BIM(Building Information Modeling)データ」とは、コンピュータ上に再現された建物の3次元モデルのデータをいう。
本発明において、「現実の画像」とは、現実の世界をカメラで撮影した写真等の画像をいう。
本発明によれば、建築現場で注目すべき部材に注目して形状や位置の計測が出来るようになり、精度、スピードを向上させることができるという効果を奏する。
また、建築現場で管理するべき部材の量を減らすことが出来、これに伴い、建築現場の部材管理システムがハンドルするデータ量を大幅に減らすことが出来る。
本発明の他の目的、特徴および利点は添付図面に関する以下の本発明の実施例の記載から明らかになるであろう。
図1は、本発明による建屋内構造物認識システムの全体を示す概略図である。 図2は、本発明の機械学習モデル生成装置の概要を示す図である。 図3は、本発明の第1の態様による機械学習モデル生成装置を示す図である。 図4は、本発明の第2の態様による機械学習モデル生成装置を示す図である。 図5は、本発明の第3の態様による機械学習モデル生成装置を示す図である。 図6Aは、本発明による建屋内構造物認識装置の概要を示す概略図である。 図6Bは、本発明のある態様による建屋内構造物認識装置を示す概略図である。 図6Cは、本発明の他の態様による建屋内構造物認識装置を示す概略図である。 図7Aは、本発明のある態様による検証部の処理を示す図である。 図7Bは、本発明の他の態様による検証部の処理を示す図である。 図8は、本発明の機械学習モデル生成装置の処理の流れの概要を示す図である。 図9は、本発明の第1の態様による機械学習モデル生成装置の処理の流れを示す図である。 図10は、本発明の第2の態様による機械学習モデル生成装置の処理の流れを示す図である。 図11は、本発明の第3の態様による機械学習モデル生成装置の処理の流れを示す図である。 図12は、本発明のある態様による建屋内構造物認識装置の処理の流れを示す図である。 図13は、本発明の他の態様による建屋内構造物認識装置の処理の流れを示す概略図である。 図14は、本発明の建屋内構造物管理システムの概要を示す図である。
図1は、本発明による建屋内構造物認識システム1の全体を示す概略図である。
本発明による建屋内構造物認識システム1は、BIM(Building Information Modeling)データから生成された正解画像を正解データとし、BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行うことにより、機械学習モデルを生成する機械学習モデル生成装置10と、機械学習モデル生成装置で生成した機械学習モデルを用いて、建屋内の構造物を認識する建屋内構造物認識装置20とを備える。
建屋内構造物認識システム1は、機械学習モデルを用いて建屋内の構造物を認識するために用いられる。例えば、建築途中の施工現場において、作業の進捗を確認するために、施工現場をカメラで撮影し、撮影された画像内に含まれるパイプやダクト、柱、壁等の構造物を認識することができる。認識された構造物の位置や範囲等の状況を把握することにより、ユーザが建築作業が図面等に沿って予定通りに進んでいるかを確認できるようにすることができる。
建屋内構造物認識システム1は、撮像装置30を含むようにしてもよいし、外部の撮像装置を用いるようにしてもよい。撮像装置30は、任意のカメラであってよく、例えば、静止画用のカメラ、動画用のカメラ、携帯端末に搭載されたモバイル・カメラ、CCDカメラ等であってもよい。建屋内構造物認識装置20で認識の対象となる入力画像は、認識の対象となる画像であり、例えば、建設途中の施工現場を撮影した現場写真等の現実の画像である。建屋内構造物認識システム1が撮像装置30を含む場合には、撮像装置30から取得した画像であってもよい。建屋内構造物認識システム1が撮像装置30を含まない場合には、外部の撮像手段により撮像されて予めデータベース等に記憶されたものであってもよい。
建屋内構造物認識システム1は、ユーザ端末40を含んだものであってもよいし、ユーザ端末を含まず、ユーザ端末40と建屋内構造物認識システム1とが互いに独立しているようにしてもよい。建屋内構造物認識装置20で認識された認識結果は、建屋内構造物認識装置20からユーザ端末40に送信されるようにしてもよい。また、建屋内構造物認識装置20は、必要な場合には、ユーザ端末40から認識処理又は検証処理に用いる追加の情報を受け付けるようにしてもよい。例えば、検証処理の際に用いるために、建屋内構造物認識装置20は、ユーザ端末40から認識対象の画像内の構造物の範囲を指定する情報を受け付けるようにしてもよい。
建屋内構造物認識装置20は、機械学習モデル生成装置10により生成された機械学習済モデルを用いて建屋内の構造物の認識を行うが、機械学習モデル生成装置10により新たな機械学習済モデルが生成された場合には、建屋内構造物認識システム1は、建屋内構造物認識装置20の機械学習済モデルを新たな機械学習済モデルに更新するようにしてもよい。
機械学習モデル生成装置10が有する機能は、クラウド・サービス上に構築されるようにしてもよい。また、機械学習モデル生成装置10と建屋内構造物認識装置20は、物理的に離れた場所にある場合には、ネットワークを介して互いにデータ等のやり取りを行うようにしてもよい。
図2は、本発明の機械学習モデル生成装置10の概要を示す図である。
機械学習モデル生成装置10は、建屋内の構造物を認識するための機械学習モデルを生成する。機械学習モデル生成装置10は、BIM(Building Information Modeling)データから正解画像を生成する正解画像生成部101と、BIMデータをレンダリングし、仮想観測画像を生成する仮想観測画像生成部102と、正解画像生成部で生成された正解画像を正解データとし、仮想観測画像を観測データとして機械学習を行い、機械学習モデルを生成する機械学習モデル生成部103とを備える。
正解画像生成部101は、BIM(Building Information Modeling)データから正解画像を生成する。正解画像は、機械学習モデル生成部103において機械学習モデルを生成する際に、正解データとして利用される。正解画像は、構造物を示すマスク領域を有するマスク画像であってよい。正解画像は、例えば、図2で示すように、BIMデータから生成された2値化画像であってよい。図2の例では、建屋内の構造物であるパイプの領域が白で表現され、その他の部分が黒で表現されている。正解画像は、図2の例に限られず、認識すべき構造物に応じて他の形式の画像としてもよい。
ここで、「BIMデータ」とは、コンピュータ上に再現された建物の3次元モデルのデータをいう。BIMデータは、一般に、建物の3次元の構造の情報を含む他、建材をパーツごとにオブジェクトとして捉え、パーツごとに、幅、奥行き、高さ、素材、組み立ての工程や組み立てにかかる時間等の図面以外の情報を含むことができる。BIMデータをレンダリングすることにより、その3次元空間の画像を得ることができる。レンダリングされた画像は、実際の現場の見た目を再現するように立体的に表現することもでき、一部を2次元の画像として切り出すこともできる。レンダリングされた画像に対しては、2値化、細線化、スケルトン化等の画像処理を施すことができる。図2の例では、BIMデータは、BIMデータを格納するためのデータベース106に格納されているが、BIMデータが格納されるデータベースは、機械学習モデル生成装置10の外部に存在するようにしてもよい。
仮想観測画像生成部102は、BIMデータをレンダリングし、仮想観測画像を生成する。機械学習のために膨大な数の現場写真等の現実の画像を収集することは困難であるため、本発明では、このように既に存在するBIMデータをレンダリングした仮想の観測画像を現実の画像に代えて機械学習のための観測データとして用いる。BIMデータをレンダリングすることにより生成された仮想観測画像は、例えば、図2に示すような現実の画像を再現したような見た目の画像となる。
機械学習モデル生成部103は、正解画像生成部で生成された正解画像を正解データとし、仮想観測画像を観測データとして機械学習を行い、機械学習モデルを生成する。このように、現場写真等の現実の画像に代えて、BIMデータから生成された正解画像及び仮想観測画像を用いることにより、機械学習のために膨大な数の現場写真等の現実の画像を収集する手間と困難性の問題が解消される。
機械学習モデル生成部103は、ニューラルネットワークによる深層学習により、機械学習モデルを生成する。ニューラルネットワークによる深層学習のためには、十分な数の教師データが必要となるが、本発明においては、膨大な数の現場写真等の現実の画像を収集して教師データとして用いる代わりに、BIMデータから生成された正解画像及び仮想観測画像を用いるため、教師データの収集の手間と困難性の問題を解決でき、ニューラルネットワークによる深層学習のために必要十分な数の教師データを得ることができる。
図3は、本発明の第1の態様による機械学習モデル生成装置10を示す図である。
図3に示すように、本発明の第1の態様においては、機械学習モデル生成装置10は、機械学習モデルを生成する際に、入力データの一部として用いられる強化画像を生成する強化用画像生成部104を更に備えるようにしてもよい。強化用画像生成部104以外の部分については、図2において説明したものと同一である。
強化用画像生成部104は、機械学習モデルを生成する際に、入力データの一部として用いられる強化画像を生成する。強化用画像生成部104は、正解画像生成部101で生成された正解画像から、例えば中心線等の特徴線を抽出し、強化画像を生成する。強化画像は、機械学習モデル生成部103において機械学習モデルを生成する際に、モデルの認識精度を高めるための強化用データとして利用される。
図3の例においても図2の例と同様に、正解画像は、構造物を示すマスク領域を有するマスク画像である。また、図3の例においても、認識対象の構造物であるパイプの領域が白で示され、その他の部分が黒で示されている。正解画像は、機械学習モデル生成部103において機械学習モデルを生成する際に、正解データとして利用される。
図3の例においては、強化画像は、正解画像のマスク領域の特徴線を抽出したスケルトン画像である。特徴線とは、例えば、中心線やエッジ等である。図3の例では、強化画像は、正解画像のマスク領域の中心線を抽出したスケルトン画像であるが、強化画像は、正解画像のマスク領域の中心線を抽出したものでなくてもよく、認識対象の構造物に応じて、中心線以外の他の特徴線(例えば、エッジ等)を抽出するようにしてもよい。例えば、構造物のエッジを特徴線として抽出した画像を強化画像としてもよい。
図4は、本発明の第2の態様による機械学習モデル生成装置を示す図である。
図4に示すように、本発明の第2の態様においては、機械学習モデル生成装置10は、仮想観測画像生成部102で生成された仮想観測画像に対して現実の画像に近づけるための画像処理を行い、強調仮想観測画像を生成する仮想観測画像処理部105を更に備えるようにしてもよい。仮想観測画像処理部105以外の部分については、図3において説明したものと同一である。
仮想観測画像処理部105は、仮想観測画像生成部102で生成された仮想観測画像に対して見た目を現実の画像に近づけるための画像処理を行い、強調仮想観測画像を生成する。仮想観測画像処理部105は、データベース107に予め記憶されている現実の画像のデータを利用して、現実の画像に近づけるための画像処理を行うようにしてもよい。ここで、データベース107に記憶されている現実の画像は、仮想観測画像と同じ場所を撮影したものでなくてもよい。データベース107に記憶されている現実の画像はサンプルであり、例えば、仮想観測画像内のパイプの色味を現実のパイプの色味に近づけるために、データベース107に記憶されている別の場所を撮影した現実の画像のパイプの色味のデータを参考として利用することができる。即ち、仮想観測画像内の構造物と同じ構造物の色味等の情報が利用される。本発明においては、このようにして、仮想観測画像に対して画像処理が施された画像を「強調仮想観測画像」と呼ぶ。
仮想観測画像処理部105による前記画像処理は、スペクトル周波数のフィルタリング、光源の追加、照明光の追加、又は影の追加のうちの少なくとも1つ以上を含む。スペクトル周波数のフィルタリングを行うことにより、色合いを現実の画像に近づけることができる。また、光源の追加、照明光の追加、又は影の追加を行うことにより、光の当たり方を現実の画像に近づけることができる。前述の通り、仮想観測画像は、現実の画像に代えて機械学習のための観測データとして用いるものであるが、より現実の画像に近いものとなるように画像処理を施した強調仮想観測画像を観測データと用いることで、機械学習モデル生成部103において機械学習モデルを生成する際に、モデルの認識精度を更に高めることができる。
図5は、本発明の第3の態様による機械学習モデル生成装置を示す図である。
図5に示すように、本発明の第3の態様においては、仮想観測画像処理部105は、強調仮想観測画像に対して構造物のテクスチャを追加し、テクスチャ追加画像を生成するようにしてもよい。テクスチャの追加以外の部分については、図4において説明したものと同一である。
仮想観測画像処理部105は、データベース108に予め記憶されているテクスチャ画像のデータを利用して、強調仮想観測画像に対して、更に現実の画像に近づけるために、テクスチャの追加を行うようにしてもよい。本発明において「テクスチャ」とは、構造物の表面の模様や柄のことをいう。ここで、データベース108に記憶されているテクスチャ画像は、仮想観測画像や強調仮想観測画像と同じ場所を撮影したものでなくてもよい。データベース108に記憶されているテクスチャ画像はサンプルであり、例えば、仮想観測画像内のパイプのテクスチャを現実のパイプのテクスチャに近づけるために、データベース108に記憶されている別の場所を撮影した現実の画像のパイプのテクスチャのデータを参考として利用することができる。即ち、仮想観測画像内の構造物と同じ構造物のテクスチャの情報が利用される。
次に、図6A~図6Cを用いて、本発明による建屋内構造物認識装置20について説明する。図6Aは、本発明による建屋内構造物認識装置20の概要を示す概略図である。
建屋内構造物認識装置20は、建屋内の構造物を認識するための機械学習済モデルを用いて、建屋内の構造物を認識する。建屋内構造物認識装置20は、機械学習済モデルに対し、入力データとして現実の建屋内の画像が入力されると、画像内の構造物の認識を行い、出力データとして画像内の構造物の領域を示す認識結果画像を出力する認識部201を備える。
認識部201は、機械学習済モデルを有し、機械学習済モデルに対し、入力データとして現実の建屋内の画像が入力されると、画像内の構造物の認識を行い、出力データとして画像内の構造物の領域を示す認識結果画像を出力する。図6Aの例では、入力データとして入力される現実の画像に、建屋内の構造物としてパイプが含まれている。図6Aの例では、認識部201によりパイプが認識され、出力データとしての認識結果画像においては、パイプの部分に色又はマークが付けられている。即ち、認識結果画像において、色又はマークが付けられている部分は、パイプとして認識された部分であり、画像内のその部分について、パイプであるというアノテーションが付けられたことになる。図6Aの例では、パイプについて説明したが、これに限られず、現実の画像に含まれるパイプ以外の構造物も同様に認識され得る。
機械学習済モデルは、BIM(Building Information Modeling)データから生成された正解画像を正解データとし、BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行うことにより生成されたものである。機械学習済モデルとして、先に図2~図5を用いて説明した本発明の任意の態様の機械学習モデル生成装置10で生成された機械学習済モデルを用いることができる。
機械学習済モデルは、ニューラルネットワークによる深層学習により生成されたものである。
図6Bは、本発明のある態様による建屋内構造物認識装置を示す概略図である。
図6Bの態様においては、認識部201は、現実の建屋内の画像に加えて、更に構造物の領域を示す構造物選択画像を入力データとして画像内の構造物の認識を行う。それ以外の部分については、図6Aで説明したものと同一である。
構造物選択画像は、構造物の領域を示した画像であり、図6Bの例では、構造物選択画像は、構造物であるパイプの領域が白で示され、その他の部分が黒で示されたマスク画像である。構造物選択画像は、図6Bのようなマスク画像でなくてもよく、認識すべき構造物に応じて、他の形式で構造物を示した画像であってもよい。また、構造物選択画像は、ユーザが構造物を選択したものであってもよく、構造物選択画像はユーザ端末40から送信されたものであってもよい。現実の建屋内の画像に加えて、更に構造物の領域を示す構造物選択画像を入力データとして用いることにより、認識部201での認識の精度を高めることができる。特に、図3~図5を用いて説明した本発明の第1~第3の態様による機械学習モデル生成装置10において生成された機械学習モデルにおいては、強化用データとして、強化画像を用いており、認識部201において、第1~第3の態様による機械学習モデルを用いて認識を行う際に、認識の精度を更に高めることができる。
図6Cは、本発明の他の態様による建屋内構造物認識装置を示す概略図である。
図6Cの例では、認識部201は、現実の建屋内の画像内に含まれるテキストを除去し、テキスト除去後の画像を入力データとして前記画像内の構造物の認識を行う。図6Cの例では、テキスト除去部202により、パイプに記載されたテキスト(文字)が除去され、テキスト除去後画像が入力データとして用いられている。また、テキスト除去後画像に加えて、図6Bで説明したものと同様の構造物選択画像も入力データとして用いてもよい。
図7Aは、本発明のある態様による検証部203の処理を示す図である。
検証部203は、機械学習済モデルの検証を行う。検証部203は、認証結果画像とユーザ指定画像とを比較することにより、機械学習済モデルの検証を行う。図7Aでは、例として、建設途中の建屋内に配置されたパイプの認識を行った結果としての認識結果画像と、建設途中の建屋内の同じ位置における現実の画像に対してユーザがパイプの領域を指定した画像であるユーザ指定画像とが比較されている。
図7Bは、本発明の他の態様による検証部203の処理を示す図である。
図7Bの例では、テキストを含むパイプに対して認識を行った結果としての認識結果画像と、建設途中の建屋内の同じ位置における現実の画像に対してユーザがパイプの領域を指定した画像であるユーザ指定画像とが比較されている。
次に、本発明による建屋内構造物認識方法について説明する。
本発明による建屋内構造物認識方法は、BIM(Building Information Modeling)データから生成された正解画像を正解データとし、BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行い、機械学習モデルを生成するステップ(具体的には図8~11の機械学習モデルを生成するための各ステップ)と、機械学習モデルを用いて、建屋内の構造物を認識するステップ(具体的には図12~13の構造物を認識するための各ステップ)とを備える。
建屋内構造物認識方法の各ステップは、建屋内構造物認識システム1により実行することができる。また、建屋内構造物認識方法の機械学習モデルを生成するステップは、機械学習モデル生成装置10により実行することができる。また、建屋内構造物認識方法の建屋内の構造物を認識するステップするステップは、建屋内構造物認識装置20により実行することができる。以下で説明する各ステップについても、その処理内容に応じて、建屋内構造物認識システム1、機械学習モデル生成装置10、建屋内構造物認識装置20又は上記で説明した各部により実行することができる。
図8は、本発明の機械学習モデル生成装置10の処理の流れの概要を示す図である。
まず、ステップS801にて、BIMデータから仮想観測画像及び正解画像が生成される。仮想観測画像は、BIMデータをレンダリングしたものであり、正解画像は、BIMデータを元に生成された構造物を示すマスク領域を有するマスク画像である。次に、ステップS801で生成された仮想観測画像を観測データとし、正解画像を正解データとして、機械学習モデルが生成される(ステップS802)。
図9は、本発明の第1の態様による機械学習モデル生成装置10の処理の流れを示す図である。
本発明の第1の態様においては、図8のステップS801と同様に、まず、ステップS901にて、BIMデータから仮想観測画像及び正解画像が生成される。図8の場合と異なる点は、BIMデータから仮想観測画像及び正解画像を生成するステップS901において生成された正解画像に対して、特徴線の抽出を行うことにより、強化画像の生成を行うステップ(ステップS902)が追加される点である。第1の態様においては、ステップS901で生成された仮想観測画像を観測データとし、ステップS902で生成された強化画像を正解データとして、機械学習モデルが生成される(ステップS903)。
図10は、本発明の第2の態様による機械学習モデル生成装置10の処理の流れを示す図である。
本発明の第2の態様においては、図9のステップ901と同様に、まず、ステップS1001にて、BIMデータから仮想観測画像及び正解画像が生成される。また、図9のステップS902と同様に、BIMデータから仮想観測画像及び正解画像を生成するステップS1001において生成された正解画像に対して、特徴線の抽出を行うことにより、強化画像の生成を行う(ステップS1002)。図9の場合と異なる点は、ステップS1001にて生成された仮想観測画像に対して画像処理を行い、強調仮想観測画像を生成するステップ(ステップS1003)が追加される点である。ステップS1003では、仮想観測画像に対して、現実の画像の情報に基づいて、現実の画像に近づくような画像処理が行われる。例えば、画像処理として、スペクトル周波数のフィルタリング、光源の追加、照明光の追加、又は影の追加のうちの少なくとも1つ以上を行うようにしてもよい。第2の態様においては、ステップS1003で生成された強調仮想観測画像を観測データとし、ステップS1002で生成された強化画像を正解データとして、機械学習モデルが生成される(ステップS1004)。
図11は、本発明の第3の態様による機械学習モデル生成装置10の処理の流れを示す図である。
本発明の第3の態様においては、図10のステップS1001と同様に、まず、ステップS1101にて、BIMデータから仮想観測画像及び正解画像が生成される。また、図10のステップS1002と同様に、BIMデータから仮想観測画像及び正解画像を生成するステップS1101において生成された正解画像に対して、特徴線の抽出を行うことにより、強化画像の生成を行う(ステップS1102)。また、図10のステップS1003と同様に、ステップS1101にて生成された仮想観測画像に対して画像処理を行い、強調仮想観測画像を生成する(ステップS1103)。図10の場合と異なる点は、ステップS1103にて生成された強調仮想観測画像に対して、テクスチャ画像を追加するステップ(S1104)が追加される点である。第3の態様においては、ステップS1104で生成されたテクスチャ追加画像を観測データとし、ステップS1102で生成された強化画像を正解データとして、機械学習モデルが生成される(ステップS1105)。
図12は、本発明のある態様による建屋内構造物認識装置20の処理の流れを示す図である。
まず、ステップS1201にて、現場写真等の現実の画像から強化画像が生成される。次に、生成された強化画像に対して、ステップS1202にて、強化画像の調整を行う。強化画像の調整は、例えば、認識すべき構造物がパイプの場合、パイプの特徴線(例えば、中心線やエッジ等)の検出結果に対し、必要に応じて、長さや傾き等を再調整する処理である。次に、現実の画像、ステップS1201で生成された強化画像、及びステップS1202で調整された強化画像を入力データとして、機械学習済のモデルを用いて、建屋内の構造物を認識する構造物認識処理が行われる(ステップS1203)。ステップS1203で得られた構造物認識結果はそのまま出力データとしてもよいが、さらにステップS1204にて、構造物認識結果に対して、選択及び平均化を行うようにしてもよい。選択及び平均化は、例えば、認識すべき構造物がパイプの場合、パイプを画像化する際に、パイプを検出した位置を上下左右にシフトしてこれらの位置の平均を取って画像化する処理である。
図13は、本発明の他の態様による建屋内構造物認識装置20の処理の流れを示す概略図である。
図13の例は、建屋内の構造物にテキストが記載されている場合の処理である。建屋内の構造物にテキストが記載されている場合には、構造物の認識処理に先立って、テキストの除去が行われる。まず、ステップS1301にて、現場写真等の現実の画像に対して、OCRによる文字認識が行われ、画像内のテキスト領域が検出される。次に、ステップS1301で検出されたテキスト領域に対応するピクセルの検出が行われる(ステップS1302)。次に、ステップS1302にて検出されたピクセルの除去及び画像復元が行われる(ステップS1303)。ここで、画像復元とは、例えば、除去されたピクセルをそのピクセルの周囲の色やテクスチャで埋めることによりテキストの裏に隠れた構造物の部分を再現することである。これにより、テキストが除去された画像が得られる。
また、図12のステップS1201と同様に、現場写真等の現実の画像から強化画像が生成される(ステップS1304)。また、図12のステップS1201と同様に、強化画像の調整を行う(ステップS1305)。次に、ステップS1303で得られたテキストが除去された画像、ステップS1304で生成された強化画像、及びステップS1305で調整された強化画像を入力データとして、機械学習済のモデルを用いて、建屋内の構造物を認識する構造物認識処理が行われる(ステップS1306)。ステップS1306で得られた構造物認識結果はそのまま出力データとしてもよいが、さらにステップS1307にて、構造物認識結果に対して、選択及び平均化を行うようにしてもよい。
また、本発明では、コンピュータに、本発明による建屋内構造物認識方法の各ステップを実行させるプログラムを提供する。プログラムはコンピュータ読み取り可能な記録媒体に記録されるようにしてもよい。また、プログラムはサーバー内に格納され、サーバー上で実行され、及び/又はネットワークを介してその機能を提供するようにしてもよい。
図14は、本発明の建屋内構造物管理システム50の概要を示す図である。
建屋内構造物管理システム50は、建屋内の構造物を認識するための機械学習済モデルを用いて認識された建屋内の構造物を管理する。建屋内構造物管理システム50は、建屋内構造物認識装置20において認識された構造物のデータ又は構造物の部材のデータを記憶するデータベース501を備える。データベース501に記憶された構造物のデータ又は構造物の部材のデータは、ユーザ端末40に送信されるようにしてもよい。建屋内構造物管理システム50によれば、建屋内構造物認識装置20で認識された建屋内の構造物のデータ又は構造物の部材のデータ等の注目すべき部材のデータや必要なデータのみを記憶し管理することにより、データ量の増加や管理のコストを低減し、これらの必要なデータのみを利用することにより、計測や処理の速度を向上させることができる。
以上の実施例で説明した本発明の機械学習モデル生成装置10の各態様(第1~第3の態様等)と、本発明の建屋内構造物認識装置20の各態様とは、任意に組み合わせて実施することができる。また、これらの任意に組み合わせた態様を含む建屋内構造物認識システム1を実施することができる。また、建屋内構造物管理システム50は、これらの任意に組み合わせた態様と組み合わせて実施することができる。
以上により説明した本発明による建屋内構造物認識システム及び建屋内構造物認識方法によれば、建築現場で注目すべき部材に注目して形状や位置の計測が出来るようになり、精度、スピードを向上させることができる。また、建築現場で管理するべき部材の量を減らすことが出来、これに伴い、建築現場の部材管理システムがハンドルするデータ量を大幅に減らすことが出来る。
上記記載は実施例についてなされたが、本発明はそれに限らず、本発明の原理と添付の請求の範囲の範囲内で種々の変更および修正をすることができることは当業者に明らかである。
1 建屋内構造物認識システム
10 機械学習モデル生成装置
20 建屋内構造物認識装置
30 撮像装置
40 ユーザ端末
50 建屋内構造物管理システム
101 正解画像生成部
102 仮想観測画像生成部
103 機械学習モデル生成部
104 強化用画像生成部
105 仮想観測画像処理部
201 認識部
202 テキスト除去部
203 検証部
501 データベース

Claims (14)

  1. 建屋内の構造物を認識するための機械学習モデルを生成する機械学習モデル生成装置であって、
    BIM(Building Information Modeling)データから正解画像を生成する正解画像生成部と、
    前記BIMデータをレンダリングし、仮想観測画像を生成する仮想観測画像生成部と、
    前記正解画像生成部で生成された前記正解画像を正解データとし、前記仮想観測画像を観測データとして機械学習を行い、機械学習モデルを生成する機械学習モデル生成部と、
    前記機械学習モデルを生成する際に、入力データの一部として用いられる強化画像を生成する強化用画像生成部と、
    を備え
    前記正解画像は、構造物を示すマスク領域を有するマスク画像であり、前記強化画像は、前記正解画像の前記マスク領域の特徴線を抽出したスケルトン画像であることを特徴とする、機械学習モデル生成装置。
  2. 前記仮想観測画像生成部で生成された前記仮想観測画像に対して現実の画像に近づけるための画像処理を行い、強調仮想観測画像を生成する仮想観測画像処理部を更に備えることを特徴とする、請求項に記載の機械学習モデル生成装置。
  3. 前記仮想観測画像処理部による前記画像処理は、スペクトル周波数のフィルタリング、光源の追加、照明光の追加、又は影の追加のうちの少なくとも1つ以上を含むことを特徴とする、請求項に記載の機械学習モデル生成装置。
  4. 前記仮想観測画像処理部は、前記強調仮想観測画像に対して前記構造物のテクスチャを追加し、テクスチャ追加画像を生成することを特徴とする、請求項又はに記載の機械学習モデル生成装置。
  5. 前記機械学習モデル生成部は、ニューラルネットワークによる深層学習により、前記機械学習モデルを生成することを特徴とする、請求項1~のいずれか一項に記載の機械学習モデル生成装置。
  6. 建屋内の構造物を認識するための機械学習済モデルを用いて、建屋内の構造物を認識する建屋内構造物認識装置であって、
    前記機械学習済モデルに対し、入力データとして現実の建屋内の画像が入力されると、画像内の構造物の認識を行い、出力データとして画像内の構造物の領域を示す認識結果画像を出力する認識部を備え、
    前記機械学習済モデルは、BIM(Building Information Modeling)データから生成された正解画像を正解データとし、前記BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行うことにより生成されたものであ
    前記機械学習済モデルを生成する際に、強化画像が入力データの一部として用いられ、前記正解画像は、構造物を示すマスク領域を有するマスク画像であり、前記強化画像は、前記正解画像の前記マスク領域の特徴線を抽出したスケルトン画像であることを特徴とする、建屋内構造物認識装置。
  7. 前記認識部は、前記現実の建屋内の画像に加えて、更に構造物の領域を示す構造物選択画像を入力データとして前記画像内の構造物の認識を行うことを特徴とする、請求項に記載の建屋内構造物認識装置。
  8. 前記認識部は、前記現実の建屋内の画像内に含まれるテキストを除去し、テキスト除去後の画像を入力データとして前記画像内の構造物の認識を行うことを特徴とする、請求項又はに記載の建屋内構造物認識装置。
  9. 前記機械学習済モデルは、ニューラルネットワークによる深層学習により生成されたものであることを特徴とする、請求項のいずれか一項に記載の建屋内構造物認識装置。
  10. 機械学習モデルを用いて建屋内の構造物を認識するための建屋内構造物認識システムであって、
    BIM(Building Information Modeling)データから生成された正解画像を正解データとし、前記BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行うことにより、機械学習モデルを生成する機械学習モデル生成装置と、
    前記機械学習モデル生成装置で生成した前記機械学習モデルを用いて、建屋内の構造物を認識する建屋内構造物認識装置と、
    を備え
    前記機械学習モデルを生成する際に、強化画像が入力データの一部として用いられ、前記正解画像は、構造物を示すマスク領域を有するマスク画像であり、前記強化画像は、前記正解画像の前記マスク領域の特徴線を抽出したスケルトン画像であることを特徴とする、建屋内構造物認識システム。
  11. 建屋内の構造物を認識するための機械学習済モデルを用いて認識された建屋内の構造物を管理する建屋内構造物管理システムであって、
    請求項のいずれか一項に記載の前記建屋内構造物認識装置において認識された前記構造物のデータ又は前記構造物の部材のデータを記憶するデータベースを備えることを特徴とする、建屋内構造物管理システム。
  12. 機械学習モデルを用いて建屋内の構造物を認識するための建屋内構造物認識システムであって、
    請求項1~のいずれか一項に記載の機械学習モデル生成装置と、
    請求項のいずれか一項に記載の建屋内構造物認識装置と、
    を備えることを特徴とする、建屋内構造物認識システム。
  13. 建屋内構造物認識方法であって、
    BIM(Building Information Modeling)データから生成された正解画像を正解データとし、前記BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行い、機械学習モデルを生成するステップと、
    前記機械学習モデルを用いて、建屋内の構造物を認識するステップと、
    を備え
    前記機械学習モデルを生成する際に、強化画像が入力データの一部として用いられ、前記正解画像は、構造物を示すマスク領域を有するマスク画像であり、前記強化画像は、前記正解画像の前記マスク領域の特徴線を抽出したスケルトン画像であることを特徴とする、建屋内構造物認識方法。
  14. コンピュータに、請求項13に記載の方法の各ステップを実行させることを特徴とするプログラム。
JP2021176660A 2021-10-28 2021-10-28 建屋内構造物認識システム及び建屋内構造物認識方法 Active JP7403108B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021176660A JP7403108B2 (ja) 2021-10-28 2021-10-28 建屋内構造物認識システム及び建屋内構造物認識方法
PCT/JP2022/033305 WO2023074124A1 (ja) 2021-10-28 2022-09-05 建屋内構造物認識システム及び建屋内構造物認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021176660A JP7403108B2 (ja) 2021-10-28 2021-10-28 建屋内構造物認識システム及び建屋内構造物認識方法

Publications (2)

Publication Number Publication Date
JP2023066126A JP2023066126A (ja) 2023-05-15
JP7403108B2 true JP7403108B2 (ja) 2023-12-22

Family

ID=86157775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021176660A Active JP7403108B2 (ja) 2021-10-28 2021-10-28 建屋内構造物認識システム及び建屋内構造物認識方法

Country Status (2)

Country Link
JP (1) JP7403108B2 (ja)
WO (1) WO2023074124A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003179637A (ja) 2001-09-27 2003-06-27 Sony Corp 通信装置および方法、並びにプログラム
JP2012217631A (ja) 2011-04-08 2012-11-12 Hitachi Medical Corp 医用画像処理装置及び医用画像診断装置
JP2020021326A (ja) 2018-08-01 2020-02-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理方法、情報処理装置およびプログラム
JP2020112900A (ja) 2019-01-09 2020-07-27 裕樹 有光 人体に基づくデプス画像と組成値とを対応付ける装置
JP2021131652A (ja) 2020-02-19 2021-09-09 株式会社トプコン データ構造、記録媒体、プログラム、及びシステム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6607490B2 (ja) * 2015-10-26 2019-11-20 シャープ株式会社 変換処理装置、それを備えた情報処理装置、プログラム、及び記録媒体
JP7017462B2 (ja) * 2018-04-26 2022-02-08 株式会社神戸製鋼所 学習画像生成装置及び学習画像生成方法、並びに画像認識装置及び画像認識方法
JP7375405B2 (ja) * 2019-09-19 2023-11-08 株式会社大林組 学習支援システム、学習支援方法及び学習支援プログラム
JP7288870B2 (ja) * 2020-02-05 2023-06-08 株式会社日立製作所 画像を生成するシステム
JP2021140445A (ja) * 2020-03-05 2021-09-16 株式会社トプコン 情報処理装置、推論モデル構築方法、情報処理方法、推論モデル、プログラム、及び記録媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003179637A (ja) 2001-09-27 2003-06-27 Sony Corp 通信装置および方法、並びにプログラム
JP2012217631A (ja) 2011-04-08 2012-11-12 Hitachi Medical Corp 医用画像処理装置及び医用画像診断装置
JP2020021326A (ja) 2018-08-01 2020-02-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理方法、情報処理装置およびプログラム
JP2020112900A (ja) 2019-01-09 2020-07-27 裕樹 有光 人体に基づくデプス画像と組成値とを対応付ける装置
JP2021131652A (ja) 2020-02-19 2021-09-09 株式会社トプコン データ構造、記録媒体、プログラム、及びシステム

Also Published As

Publication number Publication date
WO2023074124A1 (ja) 2023-05-04
JP2023066126A (ja) 2023-05-15

Similar Documents

Publication Publication Date Title
US20210209843A1 (en) Systems and Methods for Rapid Three-Dimensional Modeling with Real Facade Texture
US9208607B2 (en) Apparatus and method of producing 3D model
JP5094663B2 (ja) 位置姿勢推定用モデル生成装置、位置姿勢算出装置、画像処理装置及びそれらの方法
Verhoeven Taking computer vision aloft–archaeological three‐dimensional reconstructions from aerial photographs with photoscan
Arayici An approach for real world data modelling with the 3D terrestrial laser scanner for built environment
US4970666A (en) Computerized video imaging system for creating a realistic depiction of a simulated object in an actual environment
CN105264566A (zh) 建模装置、三维模型生成装置、建模方法、程序和布局模拟器
Budroni et al. Automatic 3D modelling of indoor manhattan-world scenes from laser data
CN104952111A (zh) 采用便携式相机获得三维脸部模型的方法和装置
JP4153761B2 (ja) 3次元モデル空間生成装置、3次元モデル空間生成方法、及び3次元モデル空間生成プログラム
Seers et al. Extraction of three-dimensional fracture trace maps from calibrated image sequences
KR101875047B1 (ko) 사진측량을 이용한 3d 모델링 시스템 및 방법
Bolkas et al. Creating a virtual reality environment with a fusion of sUAS and TLS point-clouds
US20220375152A1 (en) Method for Efficiently Computing and Specifying Level Sets for Use in Computer Simulations, Computer Graphics and Other Purposes
CN114842139A (zh) 一种基于空间分析的建筑三维数字化模型构建方法
Rüther et al. Challenges in heritage documentation with terrestrial laser scanning
JP7403108B2 (ja) 建屋内構造物認識システム及び建屋内構造物認識方法
JP7344620B1 (ja) 建屋内構造物認識システム及び建屋内構造物認識方法
Rubinowicz Application of Available Digital Resources for City Visualisation and Urban Analysis
Karnicki Photogrammetric reconstruction software as a cost-efficient support tool in conservation research
CN104680520A (zh) 一种现场三维信息勘验方法及系统
Morita et al. New Photogrammetric Systems for Easy low-Cost 3D Digitization of Cultural Heritage
Gore et al. Photo-modeling for construction site space planning
Batakanwa et al. The use of video camera to create metric 3D model of engineering objects
JP7390743B2 (ja) 物体測定装置及び物体測定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231201

R150 Certificate of patent or registration of utility model

Ref document number: 7403108

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150