JP2024079205A - 表示システム、表示方法およびプログラム - Google Patents

表示システム、表示方法およびプログラム Download PDF

Info

Publication number
JP2024079205A
JP2024079205A JP2022192007A JP2022192007A JP2024079205A JP 2024079205 A JP2024079205 A JP 2024079205A JP 2022192007 A JP2022192007 A JP 2022192007A JP 2022192007 A JP2022192007 A JP 2022192007A JP 2024079205 A JP2024079205 A JP 2024079205A
Authority
JP
Japan
Prior art keywords
dimensional
learning
information
inference
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022192007A
Other languages
English (en)
Inventor
賢一郎 齊所
Kenichiro Saisho
祥 永井
Sho Nagai
直樹 本橋
Naoki Motohashi
友規 鈴木
Tomonori Suzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2022192007A priority Critical patent/JP2024079205A/ja
Priority to PCT/IB2023/061948 priority patent/WO2024116059A1/en
Publication of JP2024079205A publication Critical patent/JP2024079205A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/12Geometric CAD characterised by design entry means specially adapted for CAD, e.g. graphical user interfaces [GUI] specially adapted for CAD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/13Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Optimization (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Architecture (AREA)
  • Pure & Applied Mathematics (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

Figure 2024079205000001
【課題】3次元復元をベースとした空間情報活用において、データ整備や学習の手間を削減し、非専門的ユーザにとって使いやすい形態にする。
【解決手段】空間の色情報および深度情報の少なくとも一方を含む3次元画像を表示部に表示させる3次元表示制御手段と、前記3次元画像に対する操作を受け付ける受付手段と、前記受付手段で受け付けた前記操作を記憶する記憶手段と、前記記憶手段で記憶された前記操作の履歴を蓄積し学習する学習手段と、新たに前記受付手段で受け付けた操作と前記学習手段での学習結果とに基づき、新たなデータを出力する推論手段と、を備え、前記3次元表示制御手段は、出力された前記データを前記表示部に表示させる。
【選択図】図2

Description

本発明は、表示システム、表示方法およびプログラムに関する。
近年、主に建設の現場において、レーザスキャナやLiDAR等により実空間である3次元空間の3次元情報を取得し、デジタル空間に復元する所謂「3次元復元」が盛んに行われている。近年、このような3次元復元結果の活用は、単なる測量用途のみならず、3次元復元結果に対して様々な情報を紐づけることによって、建設の現場以外にも広がっている。具体的には、3次元復元結果に対して、位置情報とともに各種属性情報や写真などを紐づけることにより、データベースとしての使い勝手を向上させるサービスはすでに知られている。
特許文献1には、深度情報からなる点群データから3次元モデルデータと照合する照合用オブジェクトを抽出し、3次元モデルデータと照合用オブジェクトとを照合して3次元モデルデータ内におけるオブジェクト一致箇所を、機械学習を用いて特定する技術が開示されている。そして、特許文献1には、3次元モデルデータにおけるオブジェクト一致箇所の情報と点群データの深度情報とに基づいて建造物内における対象の位置を特定する技術が開示されている。
しかしながら、従来技術によれば、3次元情報の取得後のデータ整備に専門性と手間がかかるのがボトルネックであったため、3次元復元はごく一部の専門的用途にとどまっており、それは同時に非専門的なユーザを遠ざける遠因ともなっていた。具体的には、現場担当者は、現状と既存の幾何的差異だけでなく意味的つながりを把握したり、数量を数えたり、資料にまとめる、といったようなデータ整備や学習の手間をかけた「他人に現状を伝える業務」をせねばならず、その観点においては効率化の手段が整っていなかった。
本発明は、上記に鑑みてなされたものであって、3次元復元をベースとした空間情報活用において、データ整備や学習の手間を削減し、非専門的ユーザにとって使いやすい形態にすることを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、空間の色情報および深度情報の少なくとも一方を含む3次元画像を表示部に表示させる3次元表示制御手段と、前記3次元画像に対する操作を受け付ける受付手段と、前記受付手段で受け付けた前記操作を記憶する記憶手段と、前記記憶手段で記憶された前記操作の履歴を蓄積し学習する学習手段と、新たに前記受付手段で受け付けた操作と前記学習手段での学習結果とに基づき、新たなデータを出力する推論手段と、を備え、前記3次元表示制御手段は、出力された前記データを前記表示部に表示させる、ことを特徴とする。
本発明によれば、3次元復元をベースとした空間情報活用において、データ整備や学習の手間を削減し、非専門的ユーザにとって使いやすい形態にすることができる、という効果を奏する。
図1は、実施の形態にかかる表示システムの一例を示すブロック図である。 図2は、制御部が有する各種機能について示す機能ブロック図である。 図3は、バウンディングボックス処理にかかる実施例を示す機能ブロック図である。 図4は、バウンディングボックス処理にかかる表示例を示す図である。 図5は、自動モデル化処理にかかる実施例を示す機能ブロック図である。 図6は、自動モデル化処理にかかる表示例を示す図である。 図7は、搬入可否判断処理にかかる実施例を示す機能ブロック図である。 図8は、搬入可否判断処理にかかる表示例を示す図である。 図9は、自動ファミリ処理にかかる実施例を示す機能ブロック図である。 図10は、自動カウント処理にかかる実施例を示す機能ブロック図である。 図11は、自動カウント処理にかかる表示例を示す図である。 図12は、自動ツアー処理にかかる実施例を示す機能ブロック図である。 図13は、自動ツアー処理にかかる表示例を示す図である。 図14は、自動計測処理にかかる実施例を示す機能ブロック図である。 図15は、自動計測処理にかかる表示例を示す図である。 図16は、テキスト処理にかかる実施例を示す機能ブロック図である。 図17は、自動モデル化処理にかかる表示例を示す図である。
以下に添付図面を参照して、表示システム、表示方法およびプログラムの実施の形態を詳細に説明する。
図1は、実施の形態にかかる表示システム1の一例を示すブロック図である。
図1に示すように、表示システム1は、情報処理装置10と、センシング装置11と、を備える。情報処理装置10とセンシング装置11とは、通信可能に接続されている。
センシング装置11は、実空間である3次元空間の3次元情報(画像および深度情報)を得る装置である。センシング装置11は、例えば、通常の光学カメラ、全天球カメラ、レーザスキャナ、ToF(Time-of-Flight)方式のカメラ、ステレオカメラ、などである。ToF方式は、赤外線を計測対象物に照射し、その反射光が戻ってくるまでの時間から距離を求める方式である。ステレオカメラは、2台のカメラの間隔と、2台のカメラの各々で得られた画像の視差情報と、を用いて、奥行情報を距離情報として得るカメラである。センシング装置11は、例えば、車両、ドローン等に搭載される。
なお、センシング装置11は、3次元情報(画像および深度情報)を得る装置であればよく、LiDAR(Light Detection and Ranging)、フォトグラメトリを利用したシステム、等であってもよい。また、センシング装置11は、レーザスキャナやLiDAR等を搭載したスマートフォンであってもよい。
3次元情報は、実空間である3次元空間を表す情報である。3次元情報のファイル形式は限定されない。3次元情報(画像および深度情報)は、例えば、実空間に含まれる3次元オブジェクトの3次元形状を表す形状データ等によって表される。3次元情報(画像および深度情報)は、例えば、3次元空間を離散的な点で表現した点群形式のファイル、3次元空間を頂点と面により表現したポリゴンメッシュ形式のファイル等である。点群形式のファイルは、デプスマップ、距離画像、等と称される場合がある。
点群形式のファイルには、例えば、「.xyz」、「.e57」、「.ply」などの拡張子で表されるファイル等が挙げられる。ポリゴンメッシュ形式のファイルには、例えば、「.obj」、「.fbx」、「.stl」などの拡張子で表されるファイル等が挙げられる。
センシング装置11は、得られた3次元情報(画像および深度情報)を情報処理装置10へ出力する。
情報処理装置10は、3次元情報(画像および深度情報)によって表される3次元空間を仮想カメラの仮想視点から視認した、2次元画像を表示する情報処理装置である。情報処理装置10は、例えば、スマートフォン、タブレット端末、パーソナルコンピュータ、等である。
情報処理装置10は、通信部12と、受付手段として機能するUI(User Interface)部14と、記憶手段として機能する記憶部16と、制御部20と、を備える。通信部12と、UI部14、および記憶部16と、制御部20とは通信可能に接続されている。
通信部12は、ネットワークなどを介して外部の情報処理装置と通信する。本実施形態では、通信部12は、センシング装置11と通信する。
UI部14は、表示部14Aと、入力部14Bと、を含む。表示部14Aは、各種の情報を表示するディスプレイである。入力部14Bは、ユーザによる操作指示を受付ける。入力部14Bは、例えば、キーボード、ポインティングデバイス、マウス、などである。表示部14Aおよび入力部14Bは、一体的に構成されたタッチパネルであってもよい。記憶部16は、各種の情報を記憶する。
制御部20は、情報処理を実行する。制御部20には、プログラムが予めインストールされている。
次に、制御部20が有する各種機能について説明する。図2は、制御部20が有する各種機能について示す機能ブロック図である。
本実施形態では、制御部20は、信号処理手段21と、3次元表示制御手段である3Dビューワ22と、履歴データ収集手段23と、学習手段24と、推論手段25と、を有する。
信号処理手段21、3Dビューワ22、履歴データ収集手段23、学習手段24、推論手段25、は、例えば、1または複数のプロセッサにより実現される。例えば上記各部は、CPU(Central Processing Unit)などのプロセッサにプログラムを実行させること、すなわちソフトウェアにより実現してもよい。上記各部は、専用のIC(Integrated Circuit)などのプロセッサ、すなわちハードウェアにより実現してもよい。上記各部は、ソフトウェアおよびハードウェアを併用して実現してもよい。複数のプロセッサを用いる場合、各プロセッサは、各部のうち1つを実現してもよいし、各部のうち2以上を実現してもよい。
信号処理手段21は、センシング装置11によって取得された3次元情報(画像および深度情報)を、3Dビューワ22で閲覧可能な3次元復元結果とする。本実施形態では、信号処理手段21は、通信部12を介してセンシング装置11から3次元情報(画像および深度情報)を取得する。なお、信号処理手段21は、通信部12およびネットワーク等を介して情報処理装置10に通信可能に接続された他の情報処理装置から3次元情報(画像および深度情報)を取得してもよい。他の情報処理装置は、例えば、3次元情報(画像および深度情報)を取得可能なスマートフォンなどであるが、スマートフォンに限定されない。また、信号処理手段21は、記憶部16から3次元情報を取得してもよい。
信号処理手段21が取得する3次元情報(画像および深度情報)は、モノクロの情報、および、色情報を含むカラーの情報、の何れであってもよい。情報処理装置10では、3次元情報としてカラーの情報を用い該3次元情報(画像および深度情報)を2次元画像に変換して表示することで、ユーザに対してより視覚的に分かりやすい2次元画像を提供することができる。
信号処理手段21は、取得した3次元情報(画像および深度情報)を3Dビューワ22へ出力する。なお、信号処理手段21は、センシング装置11から取得した3次元情報(画像および深度情報)を任意のファイル形式に変換した後に、3Dビューワ22へ出力してもよい。例えば、信号処理手段21は、特開2019-049533号公報に開示されている方法を用いて、点群形式のファイルをポリゴンメッシュ形式のファイルに変換し、変換後の3次元情報(画像および深度情報)を3Dビューワ22へ出力してもよい。また、このファイル形式の変換処理は、3Dビューワ22で行ってもよい。
なお、信号処理手段21は、互いに離れた場所で撮った異種データの位置合わせ(レジストレーション・キャリブレーション)、ノイズ除去、メッシュ化・テクスチャマッピング、リトポロジーなどの処理を行ってもよい。
3Dビューワ22は、利用者Aによる入力部14Bの操作指示を受け付ける。また、3Dビューワ22は、3次元的に配備されたデータに対して視点の変更、ウォークスルー、没入などによるデータ視認が可能にする表示手段である。3Dビューワ22は、スマートフォン、タブレット端末、PC(Personal Computer)上で動作し、タッチ・マウスドラッグなどに応じて連続的に視覚刺激が応答する形態や、またはVRデバイス(ヘッドマウントディスプレイ)のように、没入型の形態をとることもできる。
利用者Aは、3Dビューワ22を介して現場の3次元復元結果を閲覧し、取得した空間を把握する。その際、利用者Aは、閲覧目的によって、3Dビューワ22を様々に操作する。操作とは、3次元復元結果内の視点遷移、対象へのクローズアップ/ダウン、コメントの付与、別の利用者への申し送り、採寸、別のデータベースとの紐づけ、属性情報の付与、および既存情報の編集などがある。
履歴データ収集手段23は、上記操作の履歴をデータとして抽出し、利用者Aの3次元復元空間における履歴データとして、記憶部16またはネットワークなどを介して接続されたクラウド上などに蓄積する。
学習手段24は、利用者Aのみならず、多数のステークホルダー(利用者)から収集した履歴データを入力、また操作結果を教師とし、機械学習によってモデルを生成する。機械学習の形態は様々に存在するが、画像、深度、自然言語など多くのデータを取り扱った学習となるため、深層学習(ディープラーニング)に立脚したモデルが好ましい。
推論手段25は、利用者Bの閲覧行動や入力に応じて、学習手段24で生成したモデルに基づく特定のメタデータを、3Dビューワ22に出力する。メタデータとは、本実施形態では既存の3次元復元データではなく、3次元復元データと当該3次元復元データに対する利用履歴データとの関連から新たに見出されたデータを指す。利用者Bは、3Dビューワ22上への重畳などで視覚的に把握しやすい形でメタデータを認知する。また同時に、利用者Bの履歴データも、履歴データ収集手段23によって再び収集されていく。
続いて、情報処理装置10における各種の実施例について説明する。
[実施例1]
ここで、図3はバウンディングボックス処理にかかる実施例を示す機能ブロック図である。図3に示す例は、バウンディングボックス処理にかかる実施例を示すものである。バウンディングボックス(Bounding Box)とは、外部領域に対して興味対象の物体領域を、最小の長方形で囲って境界で区切る部分領域の矩形のことを言う。
実施例1においては、利用者が、3Dビューワ22の操作によって3次元復元結果の一部を選択し、バウンディングボックスを付与することを前提とする。
学習手段24は、3Dビューワ22の操作によって利用者が付与したバウンディングボックスが指し示す3次元復元結果の部分集合(物体)を学習する。
推論手段25は、新たに3Dビューワ22に表示される3次元復元結果において、バウンディングボックスが付与されるような部分集合(物体)を推論する。
より詳細には、図3に示すように、学習手段24は、種別分類処理部241と、形状情報抽出部242と、を有する。推論手段25は、バウンディングボックス処理部251を有する。
種別分類処理部241は、機械学習において、画像をいくつかのオブジェクトに分割するタスクであるセグメンテーションを実行する。種別分類処理部241は、3Dビューワ22の操作によって利用者がバウンディングボックスを付与した物体を認識する学習処理を実行する。種別分類処理部241は、認識した物体を識別する物体分類情報を、バウンディングボックス処理部251に出力する。
形状情報抽出部242は、3次元復元結果としての3次元点の集合に対して立方体/円筒/楕円などの単純な幾何学的形状(プリミティブ形状)をフィッティングするプリミティブ形状フィッティングを実行する。形状情報抽出部242は、3Dビューワ22の操作によって利用者がバウンディングボックスを付与した物体の物体形状を、プリミティブ形状フィッティングの実行に従って検出する学習処理を実行する。形状情報抽出部242は、検出した物体形状をバウンディングボックス処理部251に出力する。
バウンディングボックス処理部251は、種別分類処理部241で学習した物体分類情報および形状情報抽出部242で学習した物体形状に基づき、新たに3Dビューワ22に表示される3次元復元結果について、バウンディングボックスが付与されるような部分集合(物体)を推論する。
図4は、バウンディングボックス処理にかかる表示例を示す図である。図4に示す例は、室内の部分集合(物体)がバウンディングボックスAで予め囲まれている様子を示している。
このようにバウンディングボックスが付与されるような部分集合(物体)を推論して新たに3Dビューワ22に表示することにより、利用者がバウンディングボックスを付与および参照しようとする際に、自動的に部分集合(物体)が選択され、情報伝達がしやすくなる。
なお、実施例1においては、3Dビューワ22の操作によって利用者がバウンディングボックスを付与する例について説明したが、これに限るものではなく、コメント、マークなどの各種の付与物であってもよい。
[実施例2]
ここで、図5は自動モデル化処理にかかる実施例を示す機能ブロック図である。図5に示す例は、自動モデル化処理にかかる実施例を示すものである。
実施例2においては、利用者が、3Dビューワ22の操作によって3次元復元結果の一部を選択し、トレースして新たな3次元モデルを作成することを前提とする。3次元モデルとは、3次元の立体として作られたモデルデータのことである。
学習手段24は、新たな3次元モデルを教師とし、3次元復元結果の部分集合(物体)との関連性を学習する。
推論手段25は、利用者が選択した部分集合(物体)から生成される3次元モデルを推論する。
より詳細には、図5に示すように、学習手段24は、種別分類処理部241と、形状情報抽出部242と、を有する。推論手段25は、簡易モデル生成処理部252を有する。
種別分類処理部241は、機械学習において、画像をいくつかのオブジェクトに分割するタスクであるセグメンテーションを実行する。種別分類処理部241は、3Dビューワ22の操作によって利用者が新たに作成した3次元モデルを認識する学習処理を実行する。種別分類処理部241は、認識した3次元モデルを識別する物体分類情報を、簡易モデル生成処理部252に出力する。
形状情報抽出部242は、3次元復元結果としての3次元点の集合に対して立方体/円筒/楕円などの単純な幾何学的形状(プリミティブ形状)をフィッティングするプリミティブ形状フィッティングを実行する。形状情報抽出部242は、3Dビューワ22の操作によって利用者が新たに作成した3次元モデルの物体形状を、プリミティブ形状フィッティングの実行に従って検出する学習処理を実行する。形状情報抽出部242は、検出した物体形状を簡易モデル生成処理部252に出力する。
簡易モデル生成処理部252は、種別分類処理部241で学習した物体分類情報および形状情報抽出部242で学習した物体形状に基づき、新たに3Dビューワ22に表示される3次元復元結果について、部分集合(物体)を3次元モデルに変換する。
図6は、自動モデル化処理にかかる表示例を示す図である。図6に示す例は、室内の部分集合(物体)が3次元モデルBに変換されている様子を示している。
このように利用者が新たに作成する3次元モデルを推論して新たに3Dビューワ22に表示することにより、例えば室内の部分集合(物体)が3次元モデルで代替され、利用者によって3次元復元空間内で3次元モデルを移動・編集可能とする。こうすることで、例えば、室内の部分集合(物体)を自由に移動させることによって、物体の搬入検討、新規設計に活用することができる。
[実施例3]
ここで、図7は搬入可否判断処理にかかる実施例を示す機能ブロック図である。図7に示す例は、搬入可否判断処理にかかる実施例を示すものである。
実施例3においては、利用者が、3次元モデルを3次元復元結果に投入し、搬入可否を検討することを前提とする。3次元モデルとは、3次元の立体として作られたモデルデータのことである。
学習手段24は、3次元モデルを入力とし、3次元復元結果内の搬入出のボトルネック(突起物や段差など)を教師とし、代替した3次元モデルと既存の3次元復元結果に対する搬入可否結果とを学習する。
推論手段25は、3次元モデルから搬入出時のリスク箇所(干渉、衝突の可能性が高い領域)を推論する。または、推論手段25は、搬入可能範囲をマッピングして推論する。
より詳細には、図7に示すように、学習手段24は、種別分類処理部241と、形状情報抽出部242と、を有する。推論手段25は、簡易モデル生成処理部252と、搬入可能領域算出部253と、を有する。
種別分類処理部241は、機械学習において、画像をいくつかのオブジェクトに分割するタスクであるセグメンテーションを実行する。種別分類処理部241は、3Dビューワ22の操作によって利用者が3次元復元結果に投入した3次元モデルを認識する学習処理を実行する。種別分類処理部241は、認識した3次元モデルを識別する物体分類情報を、簡易モデル生成処理部252に出力する。
形状情報抽出部242は、3次元復元結果としての3次元点の集合に対して立方体/円筒/楕円などの単純な幾何学的形状(プリミティブ形状)をフィッティングするプリミティブ形状フィッティングを実行する。形状情報抽出部242は、3Dビューワ22の操作によって利用者が3次元復元結果に投入した3次元モデルの物体形状を、プリミティブ形状フィッティングの実行に従って検出する学習処理を実行する。形状情報抽出部242は、検出した物体形状を簡易モデル生成処理部252に出力する。
簡易モデル生成処理部252は、種別分類処理部241で学習した物体分類情報および形状情報抽出部242で学習した物体形状に基づき、新たに3Dビューワ22に表示される3次元復元結果について、部分集合(物体)を3次元モデルに変換する。
搬入可能領域算出部253は、簡易モデル生成処理部252によって変換された3次元モデルの搬入出時のリスク箇所(干渉、衝突の可能性が高い領域)を推論し、または、搬入可能範囲をマッピングして推論し、3次元モデルの搬入可能領域を算出する。
図8は、搬入可否判断処理にかかる表示例を示す図である。図8に示す例は、室内の部分集合(物体)が3次元モデルに変換されているとともに、3次元モデルの搬入可能領域Cを示している。
このように利用者が3次元復元結果に投入した3次元モデルを推論して新たに3Dビューワ22に表示するとともに、3次元モデルの搬入可能領域を示すことにより、例えば推論手段25による支援を受けながら搬入経路計画を半自動で立て、ステークホルダーへ伝えることができる。
なお、派生する実施例として、搬入可否のみならず、安全性の確認結果などを学習することによって、3次元復元結果から事故リスクをメタデータとして出力させ、現場安全管理活動の自動化や効率化に利用することもできる。
[実施例4]
ここで、図9は自動ファミリ処理にかかる実施例を示す機能ブロック図である。図9に示す例は、自動ファミリ処理にかかる実施例を示すものである。
実施例4においては、利用者が、3次元復元結果の部分集合(物体)を選択し、属性情報(例えば、製造元、製造年など)を付与することを前提とする。より詳細には、利用者は、例えば「機械」を新たなモデルとして3次元復元空間内に配置し、属性情報を入力する。
学習手段24は、選択された3次元復元結果内の部分集合(物体)を入力とし、選択された部分集合(物体)に付与された属性情報と既存の構造化データとの関係を教師として学習する。
推論手段25は、選択された3次元復元結果内の部分集合(物体)に対して、既存の構造化データ構造において付与される属性を推論する。
より詳細には、図9に示すように、学習手段24は、種別分類処理部241と、形状情報抽出部242と、を有する。推論手段25は、簡易モデル生成処理部252と、関係性推論部254と、を有する。
種別分類処理部241は、機械学習において、画像をいくつかのオブジェクトに分割するタスクであるセグメンテーションを実行する。種別分類処理部241は、3Dビューワ22の操作によって利用者が3次元復元結果に投入した3次元モデルを認識する学習処理を実行する。種別分類処理部241は、認識した3次元モデルを識別する物体分類情報を、簡易モデル生成処理部252に出力する。
形状情報抽出部242は、3次元復元結果としての3次元点の集合に対して立方体/円筒/楕円などの単純な幾何学的形状(プリミティブ形状)をフィッティングするプリミティブ形状フィッティングを実行する。形状情報抽出部242は、3Dビューワ22の操作によって利用者が3次元復元結果に投入した3次元モデルの物体形状を、プリミティブ形状フィッティングの実行に従って検出する学習処理を実行する。形状情報抽出部242は、検出した物体形状を簡易モデル生成処理部252に出力する。
簡易モデル生成処理部252は、種別分類処理部241で学習した物体分類情報および形状情報抽出部242で学習した物体形状に基づき、新たに3Dビューワ22に表示される3次元復元結果について、部分集合(物体)を3次元モデルに変換する。
関係性推論部254は、幾何学的形状と入力された属性情報とから、新たなモデル(例えば、機械など)として3次元復元空間内に配置されて簡易モデル生成処理部252によって変換された3次元モデルと既存の他の部材との関係性を推論する。
関係性推論部254は、既存カテゴリおよび他の対象との関係値を含む属性情報を出力する。
このように既存カテゴリおよび他の対象との関係値を含む属性情報を新たに3Dビューワ22に表示することにより、3次元復元空間内でのデータ更新が既存の構造化データ構造との関係性も含んだ形で行われるため、利用者は、空間のリニューアル時にデータベースも同時更新が可能になる。そのため、その他の3次元-CADやBIMツールにおいてもファミリ構造を保存したまま活用できるようになる。
[実施例5]
ここで、図10は自動カウント処理にかかる実施例を示す機能ブロック図である。図10に示す例は、自動カウント処理にかかる実施例を示すものである。
実施例5においては、利用者が、3Dビューワ22の操作によって3次元復元結果の部分集合(物体)を選択し、含まれる物体の数を数えることを前提とする。
学習手段24は、3次元復元結果内の部分集合(物体)を入力とし、利用者が与えた物体の数を教師として学習する。
推論手段25は、選択された3次元復元結果内の部分集合(物体)に対して、物品の数量を推論する。
より詳細には、図10に示すように、学習手段24は、種別分類処理部241と、形状情報抽出部242と、を有する。推論手段25は、簡易モデル生成処理部252と、対象カウント部255と、を有する。
種別分類処理部241は、機械学習において、画像をいくつかのオブジェクトに分割するタスクであるセグメンテーションを実行する。種別分類処理部241は、3Dビューワ22の操作によって利用者が新たに作成した3次元モデルを認識する学習処理を実行する。種別分類処理部241は、認識した3次元モデルを識別する物体分類情報を、簡易モデル生成処理部252に出力する。
形状情報抽出部242は、3次元復元結果としての3次元点の集合に対して立方体/円筒/楕円などの単純な幾何学的形状(プリミティブ形状)をフィッティングするプリミティブ形状フィッティングを実行する。形状情報抽出部242は、3Dビューワ22の操作によって利用者が新たに作成した3次元モデルの物体形状を、プリミティブ形状フィッティングの実行に従って検出する学習処理を実行する。形状情報抽出部242は、検出した物体形状を簡易モデル生成処理部252に出力する。
簡易モデル生成処理部252は、種別分類処理部241で学習した物体分類情報および形状情報抽出部242で学習した物体形状に基づき、新たに3Dビューワ22に表示される3次元復元結果について、部分集合(物体)を3次元モデルに変換する。
対象カウント部255は、選択された3次元復元結果内の部分集合(物体)に対して、物品の数量を推論する。
図11は、自動カウント処理にかかる表示例を示す図である。図11に示す例は、選択した室内の部分集合(物体)内の対象分布と対象の数とを示している。
本実施例は、数量のみならず、面積・体積など幾何数量的な値の抽出にも応用することができる。また、数える物体の種別も同時に学習することにより、部分集合に含まれる複数物品のそれぞれの数量を推論するという機能も付与することができる。さらに、物体の名前(自然言語)との関連性を同時に学習することにより、例えば「脚立」というテキストの入力に対して「3」と回答する推論を行うこともできる。
[実施例6]
ここで、図12は自動ツアー処理にかかる実施例を示す機能ブロック図である。図12に示す例は、自動ツアー処理にかかる実施例を示すものである。
実施例6においては、利用者が、3次元復元結果内の視点遷移、対象へのクローズアップ/ダウン、コメントの付与、別の利用者への申し送り、採寸、別のデータベースとの紐づけ、属性情報の付与、および既存情報の編集などを行ったのち、複数の着目箇所をステークホルダーへ伝えることを前提とする。
学習手段24は、3次元復元結果を入力とし、上記行動履歴の蓄積である「着目点の系列」を教師としその関連性を学習する。「着目点の系列」とは、3次元復元結果内の視点位置、画角、付与された情報、そしてそれらの時系列順序などである。
推論手段25は、新たな3次元復元結果が入力されると、「着目点の系列候補」を推論する。
より詳細には、図12に示すように、学習手段24は、種別分類処理部241と、形状情報抽出部242と、を有する。推論手段25は、着目箇所推論部256と、ツアー順序生成部257と、を有する。
種別分類処理部241は、機械学習において、画像をいくつかのオブジェクトに分割するタスクであるセグメンテーションを実行する。種別分類処理部241は、3Dビューワ22の操作によって利用者が新たに作成した3次元モデルを認識する学習処理を実行する。種別分類処理部241は、認識した3次元モデルを識別する物体分類情報を、簡易モデル生成処理部252に出力する。
形状情報抽出部242は、3次元復元結果としての3次元点の集合に対して立方体/円筒/楕円などの単純な幾何学的形状(プリミティブ形状)をフィッティングするプリミティブ形状フィッティングを実行する。形状情報抽出部242は、3Dビューワ22の操作によって利用者が新たに作成した3次元モデルの物体形状を、プリミティブ形状フィッティングの実行に従って検出する学習処理を実行する。形状情報抽出部242は、検出した物体形状を着目箇所推論部256に出力する。
着目箇所推論部256は、新たな3次元復元結果が入力されると、「着目点の系列候補」である着目箇所候補を推論する。
ツアー順序生成部257は、着目箇所推論部256が推論した着目箇所候補に基づいた巡回ルート候補を提示する。
図13は、自動ツアー処理にかかる表示例を示す図である。図13に示す例は、機械室を巡回視察する例を表している。他の場所の従来の巡回履歴がすでに学習されており、推論手段25がその学習に基づいた巡回ルート候補を提示する。利用者はそれに基づき3次元復元結果内を巡回し、点検・調査・コメント付与など行っていく。利用者が巡回時に残した行動履歴は再び蓄積され、「巡回時のノウハウや暗黙知」として学習手段24に学習される。
なお、学習手段24は、利用者の属性も併せて学習してもよい。その学習モデルは、3次元復元結果と着目点の系列のみならず、利用者属性や目的も反映した推論を行うこともできる。
また、推論手段25は、推論した着目点の系列を、以後のユーザインタラクションにより微小な編集を可能にする機能を付与し、利用者の望むフォーマットでドキュメント出力する機能を付与するようにしてもよい。
[実施例7]
ここで、図14は自動計測処理にかかる実施例を示す機能ブロック図である。図14に示す例は、自動モデル化処理にかかる実施例を示すものである。
実施例7においては、利用者は、リニューアル工事前の現場において、新設物や足場を持ち込む際に空きスペースを把握するために、3次元復元結果に採寸結果を付与していくことを前提とする。
学習手段24は、「計測された箇所」を教師として3次元復元結果との関連性を学習していく。「計測された箇所」は、3次元復元結果内から抽出される2以上の点がなす線,面,立体として定義される。
推論手段25は、利用者が調査対象に視点を向けた際、あるいは3Dビューワ22上でのマウスホバーなどを契機とし、「その対象回りにおける計測されるべき箇所」を推論し、提案する。
より詳細には、図14に示すように、学習手段24は、種別分類処理部241と、形状情報抽出部242と、を有する。推論手段25は、簡易モデル生成処理部252と、計測箇所推論部258と、を有する。
種別分類処理部241は、機械学習において、画像をいくつかのオブジェクトに分割するタスクであるセグメンテーションを実行する。種別分類処理部241は、3Dビューワ22の操作によって利用者が新たに作成した3次元モデルを認識する学習処理を実行する。種別分類処理部241は、認識した3次元モデルを識別する物体分類情報を、簡易モデル生成処理部252に出力する。
形状情報抽出部242は、3次元復元結果としての3次元点の集合に対して立方体/円筒/楕円などの単純な幾何学的形状(プリミティブ形状)をフィッティングするプリミティブ形状フィッティングを実行する。形状情報抽出部242は、3Dビューワ22の操作によって利用者が新たに作成した3次元モデルの物体形状を、プリミティブ形状フィッティングの実行に従って検出する学習処理を実行する。形状情報抽出部242は、検出した物体形状を簡易モデル生成処理部252に出力する。
簡易モデル生成処理部252は、種別分類処理部241で学習した物体分類情報および形状情報抽出部242で学習した物体形状に基づき、新たに3Dビューワ22に表示される3次元復元結果について、部分集合(物体)を3次元モデルに変換する。
計測箇所推論部258は、利用者が調査対象に視点を向けた際、あるいは3Dビューワ22上でのマウスホバーなどを契機とし、「その対象回りにおける計測されるべき箇所」を推論し、提案する。
利用者は、推論手段25が3Dビューワ22に映し出した計測箇所候補を選択あるいは承諾するアクションによって、自身が計測した結果として3次元復元結果内に計測結果を残す。
図15は、自動計測処理にかかる表示例を示す図である。図15に示す例は、似たような現場における計測を学習した推論手段25が、新たな3次元復元結果内に計測候補Dを提示している例である。特に設備が配置された天井付近は、円柱、角柱が垂直交差するケースが多く、計測する際もその円柱角柱に沿った形で行われることが多い。調査者の経験が浅い場合、最短時間で調査の要点を抑えた計測が難しいケースがあるが、本発明の推論手段25の支援により、現場の要点を適切に持ち帰ることができる。
なお、学習手段24は、利用者の属性も併せて学習してもよい。その学習モデルは、3次元復元結果と計測箇所のみならず、利用者属性や目的も反映した計測支援を行うことができる。また、学習手段24は、計測結果をそのまま特定フォーマットの資料に変換するうえでの元データとして用いることもできる。
[実施例8]
ここで、図16はテキスト処理にかかる実施例を示す機能ブロック図である。図16に示す例は、テキスト処理にかかる実施例を示すものである。
実施例8においては、利用者は、それぞれ属性情報のついた3次元復元結果について自然言語コメントを付与することを前提とする。
学習手段24は、利用者が付与した自然言語コメントの蓄積により、3次元復元結果とそれに対応した自然言語との関連性を学習する。
推論手段25は、利用者が入力した自然言語や、質問に対して、3次元復元結果へのマッピングや、自然言語、リスト形式等で回答する。
より詳細には、図16に示すように、学習手段24は、種別分類処理部241と、形状情報抽出部242と、を有する。推論手段25は、簡易モデル生成処理部252と、テキスト推論部259と、を有する。
種別分類処理部241は、機械学習において、画像をいくつかのオブジェクトに分割するタスクであるセグメンテーションを実行する。種別分類処理部241は、3Dビューワ22の操作によって利用者が新たに作成した3次元モデルを認識する学習処理を実行する。種別分類処理部241は、認識した3次元モデルを識別する物体分類情報を、簡易モデル生成処理部252に出力する。
形状情報抽出部242は、3次元復元結果としての3次元点の集合に対して立方体/円筒/楕円などの単純な幾何学的形状(プリミティブ形状)をフィッティングするプリミティブ形状フィッティングを実行する。形状情報抽出部242は、3Dビューワ22の操作によって利用者が新たに作成した3次元モデルの物体形状を、プリミティブ形状フィッティングの実行に従って検出する学習処理を実行する。形状情報抽出部242は、検出した物体形状を簡易モデル生成処理部252に出力する。
簡易モデル生成処理部252は、種別分類処理部241で学習した物体分類情報および形状情報抽出部242で学習した物体形状に基づき、新たに3Dビューワ22に表示される3次元復元結果について、部分集合(物体)を3次元モデルに変換する。
テキスト推論部259は、利用者が入力した自然言語や、質問に対して、3次元復元結果へのマッピングや、自然言語、リスト形式等で回答する。
図17は、自動モデル化処理にかかる表示例を示す図である。図17に示す例は、利用者が入力した自然言語に対して自然言語および3次元復元結果上のマッピングによって推論手段25が回答した例である。具体的には、「電源はどこにあるか」という自然言語の名称に対して、適合する3次元復元の部分集合Eを推論手段25が指し示した例である。
なお、同じく推論手段25の働きにより、さらに新たな自然言語「2022」を追記した際に、「2022年製の電源」を示す3次元復元の部分集合Eがポップアウトするようにしてもよい。本実施例の機能によって、利用者は「空間」と「言語」を連携させた形で現況の3次元復元結果を「経験」することができるため、空間に対してより深い理解ができる。
このように本実施形態によれば、3次元復元結果と、当該3次元復元結果を閲覧するユーザの属性およびユーザの行動の関連と、を学習することで、ユーザの3次元復元結果を扱う意図を推定することができる。このようにユーザの操作を学習することでユーザカスタマイズが自律的に進むシステムを提供することで、3次元復元をベースとした空間情報活用において、データ整備や学習の手間を削減し、非専門的ユーザにとって使いやすい形態にすることができる。すなわち、3次元復元された現場において、閲覧・情報抽出・情報付与を行う際、熟練者による暗黙知(「経験や勘、直感などに基づく知識」)に即した支援をうけることができるようになる。
上記実施形態の上記実施形態の情報処理装置10で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM(Compact Disc Read Only Memory)、フレキシブルディスク(FD)、CD-R(Compact Disc Recordable)、DVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記録媒体に記録してコンピュータプログラムプロダクトとして提供されるように構成してもよい。
さらに、上記実施形態の情報処理装置10で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上記実施形態の情報処理装置10で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
なお、上記には、本発明の実施形態および変形例を説明したが、上記実施形態および変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態および変形例は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態および変形例は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
なお、機械学習とは、コンピュータに人のような学習能力を獲得させるための技術であり、コンピュータが、データ識別等の判断に必要なアルゴリズムを、事前に取り込まれる学習データから自律的に生成し、新たなデータについてこれを適用して予測を行う技術のことをいう。機械学習のための学習方法は、教師あり学習、教師なし学習、半教師学習、強化学習、深層学習のいずれかの方法でもよく、さらに、これらの学習方法を組み合わせた学習方法でもよく、機械学習のための学習方法は問わない。
1 表示システム
14 受付手段
16 記憶手段
22 3次元表示制御手段
24 学習手段
25 推論手段
特許第7113611号公報

Claims (11)

  1. 空間の色情報および深度情報の少なくとも一方を含む3次元画像を表示部に表示させる3次元表示制御手段と、
    前記3次元画像に対する操作を受け付ける受付手段と、
    前記受付手段で受け付けた前記操作を記憶する記憶手段と、
    前記記憶手段で記憶された前記操作の履歴を蓄積し学習する学習手段と、
    新たに前記受付手段で受け付けた操作と前記学習手段での学習結果とに基づき、新たなデータを出力する推論手段と、
    を備え、
    前記3次元表示制御手段は、出力された前記データを前記表示部に表示させる、
    ことを特徴とする表示システム。
  2. 前記学習手段は、前記3次元表示制御手段の操作によって利用者が付与したバウンディングボックスが指し示す3次元復元結果の部分集合を学習し、
    前記推論手段は、新たに前記3次元表示制御手段に表示される3次元復元結果において、バウンディングボックスが付与されるような部分集合を推論する、
    ことを特徴とする請求項1に記載の表示システム。
  3. 前記学習手段は、新たな3次元モデルを教師とし、3次元復元結果の部分集合との関連性を学習し、
    前記推論手段は、利用者が選択した部分集合から生成される3次元モデルを推論する、
    ことを特徴とする請求項1に記載の表示システム。
  4. 前記学習手段は、3次元モデルを入力とし、3次元復元結果内の搬入出のボトルネックを教師とし、代替した3次元モデルと既存の3次元復元結果に対する搬入可否結果とを学習し、
    前記推論手段は、3次元モデルから搬入出時のリスク箇所を推論し、または、搬入可能範囲をマッピングして推論する、
    ことを特徴とする請求項1に記載の表示システム。
  5. 前記学習手段は、選択された3次元復元結果内の部分集合を入力とし、選択された部分集合に付与された属性情報と既存の構造化データとの関係を教師として学習し、
    前記推論手段は、選択された3次元復元結果内の部分集合に対して、既存の構造化データ構造において付与される属性を推論する、
    ことを特徴とする請求項1に記載の表示システム。
  6. 前記学習手段は、3次元復元結果内の部分集合を入力とし、利用者が与えた物体の数を教師として学習し、
    前記推論手段は、選択された3次元復元結果内の部分集合に対して、物品の数量を推論する、
    ことを特徴とする請求項1に記載の表示システム。
  7. 前記学習手段は、3次元復元結果を入力とし、行動履歴の蓄積であって3次元復元結果内の視点位置、画角、付与された情報、そしてそれらの時系列順序などである着目点の系列を教師としその関連性を学習し、
    前記推論手段は、新たな3次元復元結果が入力されると、着目点の系列候補を推論する、
    ことを特徴とする請求項1に記載の表示システム。
  8. 前記学習手段は、3次元復元結果内から抽出される2以上の点がなす線、面、立体として定義される計測された箇所を教師として3次元復元結果との関連性を学習し、
    前記推論手段は、利用者が調査対象に視点を向けた際、あるいは前記3次元表示制御手段での操作を契機とし、計測されるべき箇所を推論する、
    ことを特徴とする請求項1に記載の表示システム。
  9. 前記学習手段は、利用者が付与した自然言語コメントの蓄積により、3次元復元結果と当該3次元復元結果に対応した自然言語との関連性を学習し、
    前記推論手段は、利用者が入力した自然言語に対して、3次元復元結果へのマッピング、自然言語、リスト形式の何れかにより回答する、
    ことを特徴とする請求項1に記載の表示システム。
  10. 3次元表示制御手段が、空間の色情報および深度情報の少なくとも一方を含む3次元画像を表示部に表示させる3次元表示制御工程と、
    受付手段が、前記3次元画像に対する操作を受け付ける受付工程と、
    記憶手段が、前記受付手段で受け付けた前記操作を記憶する記憶工程と、
    学習手段が、前記記憶手段で記憶された前記操作の履歴を蓄積し学習する学習工程と、
    推論手段が、新たに前記受付手段で受け付けた操作と前記学習手段での学習結果とに基づき、新たなデータを出力する推論工程と、
    を含み、
    前記3次元表示制御工程は、出力された前記データを前記表示部に表示させる、
    ことを特徴とする表示システム。
  11. コンピュータを、
    空間の色情報および深度情報の少なくとも一方を含む3次元画像を表示部に表示させる3次元表示制御手段と、
    前記3次元画像に対する操作を受け付ける受付手段と、
    前記受付手段で受け付けた前記操作を記憶する記憶手段と、
    前記記憶手段で記憶された前記操作の履歴を蓄積し学習する学習手段と、
    新たに前記受付手段で受け付けた操作と前記学習手段での学習結果とに基づき、新たなデータを出力する推論手段と、
    として機能させるものであって、
    前記3次元表示制御手段は、出力された前記データを前記表示部に表示させる、
    ことを特徴とするプログラム。
JP2022192007A 2022-11-30 2022-11-30 表示システム、表示方法およびプログラム Pending JP2024079205A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022192007A JP2024079205A (ja) 2022-11-30 2022-11-30 表示システム、表示方法およびプログラム
PCT/IB2023/061948 WO2024116059A1 (en) 2022-11-30 2023-11-28 Display system, display method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022192007A JP2024079205A (ja) 2022-11-30 2022-11-30 表示システム、表示方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2024079205A true JP2024079205A (ja) 2024-06-11

Family

ID=89076406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022192007A Pending JP2024079205A (ja) 2022-11-30 2022-11-30 表示システム、表示方法およびプログラム

Country Status (2)

Country Link
JP (1) JP2024079205A (ja)
WO (1) WO2024116059A1 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7113611B2 (ja) 2017-11-30 2022-08-05 大成建設株式会社 位置特定装置、位置特定プログラム及び位置特定方法、並びに、撮影画像登録装置、撮影画像登録プログラム及び撮影画像登録方法
JP7111175B2 (ja) * 2018-11-05 2022-08-02 日本電気株式会社 物体認識システム、認識装置、物体認識方法および物体認識プログラム
CA3157915A1 (en) * 2020-03-06 2021-09-10 Devin WALTMAN Capacity optimized electronic model based prediction of changing physical hazards and inventory items
WO2021197016A1 (en) * 2020-04-01 2021-10-07 Guangdong Oppo Mobile Telecommunications Corp., Ltd. System and method for enhancing subjects in videos
US20220180016A1 (en) * 2020-12-09 2022-06-09 Zesty.Ai, Inc. Determining 3D Structure Features From DSM Data
US11878594B2 (en) 2021-06-16 2024-01-23 The Boeing Company Protection system for aircraft electric propulsion motor and motor controller

Also Published As

Publication number Publication date
WO2024116059A1 (en) 2024-06-06

Similar Documents

Publication Publication Date Title
Rahimian et al. On-demand monitoring of construction projects through a game-like hybrid application of BIM and machine learning
Reja et al. Computer vision-based construction progress monitoring
Armeni et al. 3d scene graph: A structure for unified semantics, 3d space, and camera
KR101722177B1 (ko) 하이브리드 방식으로 vr 컨텐츠를 디스플레이하는 방법 및 장치
Pantoja-Rosero et al. Generating LOD3 building models from structure-from-motion and semantic segmentation
US11250321B2 (en) Immersive feedback loop for improving AI
CN105389407A (zh) 复杂系统的整合可视化与分析
Zollmann et al. Interactive 4D overview and detail visualization in augmented reality
KR102276936B1 (ko) 3차원 가상 전시 공간의 전시물 이용 서비스 제공 장치
Weinmann et al. Efficient 3d mapping and modelling of indoor scenes with the microsoft hololens: A survey
Karan et al. A markov decision process workflow for automating interior design
Psarros et al. INFORMATION TECHNOLOGY AND ARCHAEOLOGICAL EXCAVATIONS: A BRIEF OVERVIEW.
Bhadaniya et al. Mixed reality-based dataset generation for learning-based scan-to-BIM
Stefani et al. A web platform for the consultation of spatialized and semantically enriched iconographic sources on cultural heritage buildings
Murtiyoso et al. Virtual forests: a review on emerging questions in the use and application of 3D data in forestry
CN113710133A (zh) 智能终端、控制系统及与移动机器人的交互方法
Berglund et al. Virtual reality and 3D imaging to support collaborative decision making for adaptation of long-life assets
An et al. Research of the three-dimensional tracking and registration method based on multiobjective constraints in an AR system
JP2024079205A (ja) 表示システム、表示方法およびプログラム
CN115857930A (zh) 一种基于实景模型的原型快速设计方法及系统
Herman et al. The design and testing of 3DmoveR: An experimental tool for usability studies of interactive 3D maps
Novkovic et al. CLUBS: An RGB-D dataset with cluttered box scenes containing household objects
Agrawal et al. HoloLabel: Augmented reality user-in-the-loop online annotation tool for as-is building information
Merckel et al. Multi-interfaces approach to situated knowledge management for complex instruments: First step toward industrial deployment
JP2004070861A (ja) 住宅間取り検索プログラム及び住宅間取り検索装置