JP6863634B1 - モデル生成装置、学習器生成装置、モデル生成方法、及び、学習器生成方法 - Google Patents

モデル生成装置、学習器生成装置、モデル生成方法、及び、学習器生成方法 Download PDF

Info

Publication number
JP6863634B1
JP6863634B1 JP2020092349A JP2020092349A JP6863634B1 JP 6863634 B1 JP6863634 B1 JP 6863634B1 JP 2020092349 A JP2020092349 A JP 2020092349A JP 2020092349 A JP2020092349 A JP 2020092349A JP 6863634 B1 JP6863634 B1 JP 6863634B1
Authority
JP
Japan
Prior art keywords
feature
data
segment
point
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020092349A
Other languages
English (en)
Other versions
JP2021189600A (ja
JP6863634B6 (ja
Inventor
瀬古 保次
保次 瀬古
正吾 沼倉
正吾 沼倉
Original Assignee
シンメトリー・ディメンションズ・インク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シンメトリー・ディメンションズ・インク filed Critical シンメトリー・ディメンションズ・インク
Priority to JP2020092349A priority Critical patent/JP6863634B6/ja
Application granted granted Critical
Publication of JP6863634B1 publication Critical patent/JP6863634B1/ja
Publication of JP6863634B6 publication Critical patent/JP6863634B6/ja
Publication of JP2021189600A publication Critical patent/JP2021189600A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】撮像画像データを3D点群データに自動的に張り付ける。【解決手段】モデル生成装置は、レーザースキャナが地物を3Dスキャンして生成した3D点群データを取得し、撮像装置が地物を撮像して生成した撮像画像データを取得し、3D点群データから地物を構成するセグメントを検出し、当該セグメントの点群データに関する情報を含む点群セグメント情報を生成し、撮像画像データから地物を構成するセグメントを検出し、当該セグメントの画像データに関する情報を含む画像セグメント情報を生成し、共通のセグメントから生成された点群セグメント情報及び画像セグメント情報を対応付け、点群セグメント情報が示すセグメントの点群データに、当該点群セグメント情報と対応付けられている画像セグメント情報が示すセグメントの画像データを張り付け、地物の3Dモデルデータを生成する。【選択図】図2

Description

本開示は、モデル生成装置、学習器生成装置、モデル生成方法、及び、学習器生成方法に関する。
LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)に代表されるレーザースキャナは、レーザー光を照射し、そのレーザー光が地物によって反射された光(以下「反射光」という)を検出することによって、地物の3D(three-dimension)形状を示す点群データ(以下「3D点群データ」という)を生成する。レーザースキャナは、地物の色、模様及び質感等を測定できない。そのため、レーザースキャナの近くに撮像装置を設置し、その撮像装置は、地物を撮像して、当該地物の色、模様及び質感等を示す画像データ(以下「撮像画像データ」という)を生成する。そして、3D点群データから得られる地物の3D形状の表面に撮像画像データを張り付けて(つまりテクスチャマッピングを行い)、地物の3D形状、色、模様及び質感等を示す3Dモデルデータを生成できる(特許文献1,2,3)。
特開2019−159904号公報 特開2013−69235号公報 特開2010−152529号公報
しかし、レーザースキャナが設置された位置とまったく同じ位置に撮像装置を設置することは物理的にできないため、撮像画像データをそのまま3D点群データにテクスチャマッピングすることはできない。そのため、従来、このテクスチャマッピングの作業は、ユーザによって手動で行われる場合が多く、多大な時間を要するという課題がある。
本開示の目的は、撮像画像データを自動的に3D点群データに張り付けることができる技術を提供することにある。
本開示の一態様に係るモデル生成装置は、地物の3D(three-dimension)モデルデータを生成するモデル生成装置であって、レーザースキャナが前記地物を3Dスキャンして生成した3D点群データを取得する点群取得部と、撮像装置が前記地物を撮像して生成した撮像画像データを取得する画像取得部と、前記3D点群データから前記地物を構成するセグメントを検出し、当該セグメントの点群データに関する情報を含む点群セグメント情報を生成する点群セグメンテーション部と、前記撮像画像データから前記地物を構成するセグメントを検出し、当該セグメントの画像データに関する情報を含む画像セグメント情報を生成する画像セグメンテーション部と、共通のセグメントから生成された前記点群セグメント情報及び前記画像セグメント情報を対応付ける共通セグメント特定部と、前記点群セグメント情報が示すセグメントの点群データに、当該点群セグメント情報と対応付けられている前記画像セグメント情報が示すセグメントの画像データを張り付け、前記地物の3Dモデルデータを生成するモデル生成部と、を備える。
本開示の一態様に係るモデル生成装置は、地物の3Dモデルデータを生成するモデル生成装置であって、レーザースキャナが前記地物を3Dスキャンして生成した3D点群データを取得する点群取得部と、撮像装置が前記地物を撮像して生成した撮像画像データを取得する画像取得部と、前記3D点群データから前記地物の3D形状に関する特徴的な部分を示す3D特徴点を検出し、当該3D特徴点の特徴を示す値である3D特徴量を算出する点群特徴検出部と、前記撮像画像データから前記地物の2D(two-dimension)形状に関する特徴的な部分を示す2D特徴点を検出し、当該2D特徴点の特徴を示す値である2D特徴量を算出する画像特徴検出部と、前記3D特徴量を、2D形状の特徴を示す値である変換後2D特徴量に変換する特徴量変換部と、前記変換後2D特徴量との類似度が所定の閾値以上である前記2D特徴量を特定し、当該変換後2D特徴量を有する3D特徴点と、当該特定した前記2D特徴量を有する2D特徴点とを対応付ける共通特徴点特定部と、前記3D特徴点と前記2D特徴点との対応関係に基づいて、前記3D点群データに前記撮像画像データを張り付け、前記地物の3Dモデルデータを生成するモデル生成部と、を備える。
本開示の一態様に係る学習器生成装置は、上記の学習器を生成する学習器生成装置であって、仮想空間に予め配置された地物に関する3Dモデルデータである仮想地物モデルデータを前記仮想空間にて3Dスキャンし、仮想3D点群データを生成する仮想点群生成部と、前記仮想空間において、前記3Dスキャンが行われた位置と同じ位置から、前記仮想地物モデルデータを撮像し、仮想撮像画像データを生成する仮想画像生成部と、前記仮想3D点群データから前記仮想地物モデルデータの3D形状に関する特徴的な部分を示す3D特徴点を検出し、当該3D特徴点の特徴を示す値である3D特徴量を算出する点群特徴検出部と、前記仮想撮像画像データから前記仮想地物モデルデータの2D形状の特徴的な部分を示す2D特徴点を検出し、当該2D特徴点の特徴を示す値である2D特徴量を算出する画像特徴検出部と、前記3D特徴点が有する前記3D特徴量を入力データとし、当該3D特徴点と対応関係にある前記2D特徴点が有する前記2D特徴量を正解データとして、前記学習器を生成する学習器生成部と、を備える。
本開示の一態様に係るモデル生成方法は、モデル生成装置によって地物の3D(three-dimension)モデルデータを生成するモデル生成方法であって、レーザースキャナが前記地物を3Dスキャンして生成した3D点群データを取得し、撮像装置が前記地物を撮像して生成した撮像画像データを取得し、前記3D点群データから前記地物を構成するセグメントを検出し、当該セグメントの3D点群データに関する情報を含む点群セグメント情報を生成し、前記撮像画像データから前記地物を構成するセグメントを検出し、当該セグメントの画像データに関する情報を含む画像セグメント情報を生成し、共通のセグメントから生成された前記点群セグメント情報及び前記画像セグメント情報を対応付け、前記点群セグメント情報が示すセグメントの点群データに、当該点群セグメント情報と対応付けられている前記画像セグメント情報が示すセグメントの画像データを張り付け、前記地物の3Dモデルデータを生成する。
本開示の一態様に係るモデル生成方法は、モデル生成装置によって地物の3Dモデルデータを生成するモデル生成方法であって、レーザースキャナが前記地物を3Dスキャンして生成した3D点群データを取得し、撮像装置が前記地物を撮像して生成した撮像画像データを取得し、前記3D点群データから前記地物の3D形状に関する特徴的な部分を示す3D特徴点を検出し、当該3D特徴点の特徴を示す値である3D特徴量を算出し、前記撮像画像データから前記地物の2D形状に関する特徴的な部分を示す2D特徴点を検出し、当該2D特徴点の特徴を示す値である2D特徴量を算出し、前記3D特徴量を、2D形状の特徴を示す値である変換後2D特徴量に変換し、前記変換後2D特徴量との類似度が所定の閾値以上である前記2D特徴量を特定し、当該変換後2D特徴量を有する3D特徴点と、当該特定した前記2D特徴量を有する2D特徴点とを対応付け、前記3D特徴点と前記2D特徴点との対応関係に基づいて、前記3D点群データに前記撮像画像データを張り付け、前記地物の3Dモデルデータを生成する。
本開示の一態様に係る学習器生成方法は、上記の学習器を学習器生成装置によって生成する学習器生成方法であって、仮想空間に予め配置された地物に関する3Dモデルデータである仮想地物モデルデータを前記仮想空間にて3Dスキャンし、仮想3D点群データを生成し、前記仮想空間において、前記3Dスキャンが行われた位置と同じ位置から、前記仮想地物モデルデータを撮像し、仮想撮像画像データを生成し、前記仮想3D点群データから前記仮想地物モデルデータの3D形状に関する特徴的な部分を示す3D特徴点を検出し、当該3D特徴点の特徴を示す値である3D特徴量を算出し、前記仮想撮像画像データから前記仮想地物モデルデータの2D形状の特徴的な部分を示す2D特徴点を検出し、当該2D特徴点の特徴を示す値である2D特徴量を算出し、前記3D特徴点が有する前記3D特徴量を入力データとし、当該3D特徴点と対応関係にある前記2D特徴点が有する前記2D特徴量を正解データとして、前記学習器を生成する。
なお、これらの包括的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム又は記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
本開示によれば、撮像画像データを自動的に3D点群データに張り付けることができる。
実施の形態1に係るモデル生成システムの構成の一例を示す図である。 実施の形態1に係るモデル生成装置の構成の一例を示すブロック図である。 実施の形態1に係るモデル表示装置の構成の一例を示すブロック図である。 実施の形態1に係るモデル生成装置による3Dモデルデータの生成処理の一例を示すフローチャートである。 実施の形態2に係るモデル生成装置の構成の一例を示すブロック図である。 実施の形態2に係るモデル生成装置による3Dモデルデータの生成処理の一例を示すフローチャートである。 実施の形態3に係る学習器生成装置の構成の一例を示すブロック図である。 実施の形態3に係る学習器の生成処理を説明するための模式図である。 本開示に係る各装置の機能をプログラムにより実現するコンピュータのハードウェア構成の一例を示す図である。
以下、図面を適宜参照して、本開示の実施の形態について、詳細に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、すでによく知られた事項の詳細説明及び実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の記載の主題を限定することは意図されていない。
(実施の形態1)
<モデル生成システムの構成>
図1は、実施の形態1に係るモデル生成システム10の構成の一例を示す図である。
モデル生成システム10は、地物2の3D形状、色、模様及び質感等をモデル化したデータである3Dモデルデータ130(図2参照)を生成するシステムである。地物2は、地形、建物、道路、車両、標識、人物といった様々な物体を含む総称である。
モデル生成システム10は、レーザースキャナ11、撮像装置12、モデル生成装置100A、及び、モデル表示装置200を備える。レーザースキャナ11は、1台であってもよいし、2台以上であってもよい。撮像装置12は、1台であってもよいし、2台以上であってもよい。レーザースキャナ11及び撮像装置12は、通信ネットワーク13を通じて、モデル生成装置100Aとデータ及び情報を送受信可能である。モデル表示装置200は、通信ネットワーク14を通じて、モデル生成装置100Aとデータ及び情報を送受信可能である。通信ネットワーク13,14の例として、有線LAN(Local Area Network)無線LAN、インターネット網、移動体通信網、あるいは、それらの組み合わせが挙げられる。
レーザースキャナ11は、レーザー光を照射し、そのレーザー光が地物2によって反射された光(以下「反射光」という)を検出する。そして、レーザースキャナ11は、レーザー光を照射したタイミングと反射光を検出したタイミングとの時間差に基づいて、レーザー光が反射された3D点を特定する。あるいは、レーザースキャナ11は、照射したレーザー光の位相と検出した反射光の位相との位相差に基づいて、レーザー光が反射された3D点を特定する。3D点は、3D座標(x,y,z)にて表現されてよい。レーザースキャナ11は、レーザー光を照射する水平角度及び垂直角度を変化させて複数の反射光を検出することにより、複数の3D点を特定する。以下、このように特定された複数の3D点を含むデータを3D点群データ121という。また、地物2の3D点群データ121を得るためのレーザースキャナ11の動作を3Dスキャンという。すなわち、レーザースキャナ11は、地物2を3Dスキャンして、当該地物2の3D形状を示す点群データである3D点群データ121を生成する。レーザースキャナ11の例としては、ToF(Time of Flight)センサ又はLiDARが挙げられる。なお、レーザースキャナ11は、地物2を3Dスキャン可能な装置である3Dスキャン装置の一例である。
カメラに代表される撮像装置12は、地物2を撮像し、当該地物2の色、模様及び質感等が撮像された画像データである撮像画像データ122を生成する。撮像画像データ122は、静止画であってもよいし、動画であってもよい。
モデル生成装置100Aは、通信ネットワーク13を通じて、レーザースキャナ11から3D点群データ121を取得する。モデル生成装置100Aは、通信ネットワーク13を通じて、撮像装置12から撮像画像データ122を取得する。モデル生成装置100Aは、3D点群データ121から得られる地物2の3D形状の表面に、撮像画像データ122を張り付けて(つまりテクスチャマッピングを行い)、地物2の3D形状、並びに、地物2の表面の色、模様及び質感等を示すデータである3Dモデルデータ130を生成する。
しかし、図1に示すように、レーザースキャナ11が設置された位置とまったく同じ位置に撮像装置12を設置することは物理的にできないため、レーザースキャナ11の3Dスキャン方向と撮像装置12の撮像方向との間にずれが存在する。したがって、レーザースキャナ11が生成する3D点群データ121と撮像装置12が生成する撮像画像データ122との間にもずれが存在する。そのため、3D点群データ121に撮像画像データ122をそのまま張り付けることはできない。
そこで、モデル生成装置100Aは、3D点群データ121及び撮像画像データ122からそれぞれセグメント3を検出し、それら検出したセグメント3の関係性に基づいて、撮像画像データ122を3D点群データ121に張り付ける際の対応関係を特定する。ここで、セグメント3は、地物2に含まれる一塊の物体又は領域を示す。例えば、3Dスキャン及び撮像した地物2に、車道、歩道、ガードレール及び車両が含まれる場合、車道のセグメント3A、歩道のセグメント3B、ガードレールのセグメント3C、及び、車両のセグメント3Dが検出される。なお、モデル生成装置100Aの詳細については後述する(図2参照)。
モデル表示装置200は、通信ネットワーク14を通じて、モデル生成装置100Aから3Dモデルデータ130を取得する。モデル表示装置は、3Dモデルデータ130を表示すると共に、当該3Dモデルデータ130が示す3Dモデルの表示に関するユーザの操作を受け付ける。なお、モデル表示装置200の詳細については後述する(図3参照)。
<モデル生成装置の構成>
図2は、実施の形態1に係るモデル生成装置100Aの構成の一例を示すブロック図である。
モデル生成装置100Aは、情報格納部101、点群取得部102、画像取得部103、点群セグメンテーション部104、画像セグメンテーション部105、共通セグメント特定部106、及び、モデル生成部107の構成要素を備える。なお、これらの構成要素は、モデル生成装置100Aが備えるハードウェア(図9参照)が協調動作することにより実現されてよい。
情報格納部101は、モデル生成装置100Aにおいて生成及び使用されるデータ及び情報を格納する。
点群取得部102は、レーザースキャナ11から、通信ネットワーク13を介して、当該レーザースキャナ11が生成した3D点群データ121を取得し、情報格納部101に格納する。
画像取得部103は、撮像装置12から、通信ネットワーク13を介して、当該撮像装置12が生成した撮像画像データ122を取得し、情報格納部101に格納する。
点群セグメンテーション部104は、3D点群データ121から地物2を構成するセグメント3を検出し、当該セグメント3の点群データに関する情報を含む点群セグメント情報123を生成する。そして、点群セグメンテーション部104は、生成した点群セグメント情報123を、情報格納部101に格納する。
例えば、3Dスキャン範囲内に車道、歩道、ガードレール及び車両が存在する場合、点群セグメンテーション部104は、3D点群データ121から、車道のセグメント3A、歩道のセグメント3B、ガードレールのセグメント3C、及び、車両のセグメント3Dを検出する(図1参照)。そして、点群セグメンテーション部104は、それぞれ検出したセグメント3A、3B、3C、3Dに対応する点群セグメント情報123を生成する。このとき、点群セグメンテーション部104は、検出したセグメント3を構成する部分の3D点群データを、セグメント点群データ124として、点群セグメント情報123に含める。
加えて、点群セグメンテーション部104は、検出したセグメント3を識別し、当該セグメント3を識別する情報であるセグメント識別情報128を生成する。点群セグメンテーション部104は、生成したセグメント識別情報128を、点群セグメント情報123に含める。例えば、点群セグメンテーション部104は、車両のセグメント3Dに対応する点群セグメント情報123に、車両のセグメント識別情報128を含める。なお、セグメント識別情報128は、セグメント名又はセグメント分類名といった他の用語に読み替えられてもよい。
3D点群データ121からセグメント3を検出する処理、及び、検出したセグメント3を識別する処理には、公知の技術(例えば人工知能技術)が適用されてよい。当該技術の一例として、3D Point Cloud Segmentationなどが挙げられる。識別処理を行うモデルの一例として、PointNet又はPointNet++などが挙げられる。
画像セグメンテーション部105は、撮像画像データ122から地物2を構成するセグメント3を検出し、当該セグメント3の画像データに関する情報を含む画像セグメント情報126を生成する。そして、画像セグメンテーション部105は、生成した画像セグメント情報126を、情報格納部101に格納する。
例えば、撮像範囲内に車道、歩道、ガードレール及び車両が存在する場合、画像セグメンテーション部105は、撮像画像データ122から、車道のセグメント3A、歩道のセグメント3B、ガードレールのセグメント3C、及び、車両のセグメント3Dを検出する。そして、画像セグメンテーション部105は、それぞれ検出したセグメント3A、3B、3C、3Dに対応する画像セグメント情報126を生成する。このとき、画像セグメンテーション部105は、検出したセグメント3を構成する部分の撮像画像データを、セグメント画像データ127として、画像セグメント情報126に含める。
加えて、画像セグメンテーション部105は、検出したセグメント3を識別し、セグメント識別情報128を生成する。画像セグメンテーション部105は、生成したセグメント識別情報128を、画像セグメント情報126に含める。例えば、画像セグメンテーション部105は、車両のセグメント3Dに対応する画像セグメント情報126に、車両のセグメント識別情報128を含める。
撮像画像データ122からセグメントを検出する処理、及び、検出したセグメント3を識別する処理には、公知の技術(例えば人工知能技術)が適用されてよい。当該技術の一例として、SegNet又はU-Netなどが挙げられる。
共通セグメント特定部106は、地物2を構成する共通のセグメント3から生成された点群セグメント情報123及び画像セグメント情報126を特定する。例えば、共通セグメント特定部106は、セグメント識別情報128が共通であり、かつ、互いのセグメント3が所定の範囲内に配置されている点群セグメント情報123及び画像セグメント情報126を特定する。そして、共通セグメント特定部106は、その特定した点群セグメント情報123及び画像セグメント情報126を対応付ける共通セグメント情報129を生成し、情報格納部101に格納する。
モデル生成部107は、点群セグメント情報123に含まれるセグメント点群データ124に、共通セグメント情報129において当該点群セグメント情報123と対応付けられている画像セグメント情報126が示すセグメント画像データ127を張り付け、地物2の3Dモデルデータ130を生成する。これにより、レーザースキャナ11のスキャン方向と撮像装置12の撮像方向との間にずれが存在する場合であっても、撮像画像データ122を自動的に3D点群データ121に張り付ける(つまりテクスチャマッピングを行う)ことができる。モデル生成部107は、生成した3Dモデルデータ130を、情報格納部101に格納する。
<モデル表示装置の構成>
図3は、実施の形態1に係るモデル表示装置200の構成の一例を示すブロック図である。
モデル表示装置200は、情報格納部201、モデル取得部202、モデル表示部203、及び、モデル操作部204の構成要素を備える。なお、これらの構成要素は、モデル表示装置200が備えるハードウェア(図9参照)が協調動作することにより実現されてよい。
情報格納部201は、モデル表示装置200が取り扱うデータ及び情報を格納する。
モデル取得部202は、モデル生成装置100Aから、通信ネットワーク14を介して、3Dモデルデータ130を取得し、情報格納部201に格納する。
モデル表示部203は、3Dモデルデータ130が示す3Dモデルの画像を生成し、ディスプレイ装置に代表される出力装置1002(図9参照)に表示する。
モデル操作部204は、キーボード及びマウスに代表される入力装置1001(図9参照)から、出力装置1002に表示された3Dモデルの画像に対する操作を受け付ける。例えば、モデル操作部204は、出力装置1002に表示された3Dモデルの画像を、拡大、縮小、視点移動、回転等させる操作を受け付ける。これにより、ユーザは、3Dモデルの画像を様々な視点から見ることができる。
<3Dモデルデータの生成処理>
図4は、実施の形態1に係るモデル生成装置100Aによる3Dモデルデータ130の生成処理の一例を示すフローチャートである。
点群取得部102は、レーザースキャナ11から3D点群データ121を取得する(S101)。
画像取得部103は、撮像装置12から撮像画像データ122を取得する(S102)。
点群セグメンテーション部104は、3D点群データ121からセグメント3を検出し、検出したセグメント3を識別する。そして、点群セグメンテーション部104は、検出したセグメント3のセグメント点群データ124及びセグメント識別情報128を含む点群セグメント情報123を生成する(S103)。
画像セグメンテーション部105は、撮像画像データ122からセグメント3を検出し、検出したセグメント3を識別する。そして、画像セグメンテーション部105は、検出したセグメント3のセグメント画像データ127及びセグメント識別情報128を含む画像セグメント情報126を生成する(S104)。
共通セグメント特定部106は、セグメント識別情報128が共通であり、かつ、互いのセグメント3が所定の範囲内に配置されている点群セグメント情報123及び画像セグメント情報126を特定する。そして、共通セグメント特定部106は、特定した点群セグメント情報123及び画像セグメント情報126を対応付けた共通セグメント情報129を生成する(S105)。
モデル生成部107は、点群セグメント情報123が示すセグメント点群データ124に、共通セグメント情報129において当該点群セグメント情報123と対応付けられている画像セグメント情報126が示すセグメント画像データ127を張り付け、地物の3Dモデルデータ130を生成する(S106)。
<実施の形態1のまとめ>
実施の形態1によれば、レーザースキャナ11の位置と撮像装置12の位置との間にずれが存在する場合であっても、共通するセグメント3を基準として、3D点群データ121に撮像画像データ122を張り付けることできる。よって、自動的に3Dモデルデータ130を生成できる。
(実施の形態2)
次に、実施の形態2に係るモデル生成装置100Bについて説明する。なお、実施の形態1又は2と共通する構成要素については、共通の参照符号を付し、説明を省略する場合がある。
<モデル生成装置の構成>
図5は、実施の形態2に係るモデル生成装置100Bの構成の一例を示すブロック図である。
モデル生成装置100Bは、情報格納部101、点群取得部102、画像取得部103、点群特徴検出部151、画像特徴検出部152、特徴量変換部153、共通特徴点特定部155、及び、モデル生成部107の構成要素を備える。なお、これらの構成要素は、モデル生成装置100Bが備えるハードウェア(図9参照)が協調動作することにより実現されてよい。
点群特徴検出部151は、3D点群データ121から、地物2の3D形状に関する特徴的な部分を示す3D特徴点162を検出する。加えて、点群特徴検出部151は、3D特徴点162の特徴を示す値である3D特徴量163を算出する。3D特徴点162は、当該3D特徴点162の位置を示す3D座標と、当該3D座標を中心とする球の半径とを含む情報であってよい。3D特徴量163は、3D特徴点162が示す球の中に含まれる3D点群データの特徴を示す値であり、例えば多元ベクトルで表現される。なお、3D特徴点162の形状は球に限られず、例えば、直方体又は多面体であってもよい。
画像特徴検出部152は、撮像画像データ122から、地物の2D(two-dimension)形状に関する特徴的な部分を示す2D特徴点165を検出する。加えて、画像特徴検出部152は、2D特徴点165の特徴を示す値である2D特徴量166を算出する。2D特徴点165は、当該2D特徴点165の位置を示す2D座標と、当該2D座標を中心とする円の半径とを含む情報であってよい。2D特徴量166は、2D特徴点165が示す円の中に含まれる画像データの特徴を示す値であり、例えば多元ベクトルで表現される。なお、2D特徴点の形状は円に限られず、例えば、四角形又は多角形であってもよい。
上述の通り、3D特徴量163は3D形状の特徴を示す値であり、2D特徴量166は2D形状の特徴を示す値であるため、3D特徴量163と2D特徴量166とを直接比較することはできない。そこで、特徴量変換部153は、3D特徴量163を、2D特徴量166と比較可能な値に変換する。以下、3D特徴量163の変換後の値を、変換後2D特徴量167という。
特徴量変換部153は、例えば、学習器154を用いて、3D特徴量163を変換後2D特徴量167に変換する。学習器154は、3D特徴量163を入力した場合に、変換後2D特徴量167を出力するものであり、教師あり学習によって予め生成されたものであってよい。なお、学習器154の生成方法については、実施の形態3にて説明する。
共通特徴点特定部155は、変換後2D特徴量167との類似度が所定の閾値以上である2D特徴量166を特定し、当該変換後2D特徴量167を有する3D特徴点162と、当該特定した2D特徴量166を有する2D特徴点165とを対応付けて、特徴点対応情報168を生成する。変換後2D特徴量167と2D特徴量166との類似度が所定の閾値以上である場合、その変換後2D特徴量167を有する3D特徴点162と、その2D特徴量166を有する2D特徴点165とは、地物2の共通部分を示している可能性が高いからである。類似度は、例えば、変換後2D特徴量167を示す多元ベクトルと2D特徴量166を示す多元ベクトルとの内積で表現されてよい。この場合、共通特徴点特定部155は、当該内積が所定の閾値以下となる変換後2D特徴量167及び2D特徴量166を特定してよい。あるいは、類似度は、変換後2D特徴量167を示す多元ベクトルと2D特徴量166を示す多元ベクトルとの各要素の差分(差の絶対値)の合計で表現されてよい。この場合、共通特徴点特定部155は、当該合計が所定の閾値以下となる変換後2D特徴量167及び2D特徴量166を特定してよい。
モデル生成部107は、特徴点対応情報168に基づいて、3D点群データ121における3D特徴点162と撮像画像データ122における2D特徴点165との対応関係を特定する。そして、モデル生成部107は、その特定した対応関係に基づいて、3D点群データ121に撮像画像データ122の少なくとも一部を張り付け(つまりテクスチャマッピングを行い)、地物2の3Dモデルデータ130を生成する。
<3Dモデルデータの生成処理>
図6は、実施の形態2に係るモデル生成装置100Bによる3Dモデルデータ130の生成処理の一例を示すフローチャートである。
点群取得部102は、レーザースキャナ11から3D点群データ121を取得する(S201)。
画像取得部103は、撮像装置12から撮像画像データ122を取得する(S202)。
点群特徴検出部151は、3D点群データ121から3D特徴点162を検出し、検出した3D特徴点162における3D特徴量163を算出する(S203)。
画像特徴検出部152は、撮像画像データ122から2D特徴点165を検出し、検出した2D特徴点165における2D特徴量166を算出する(S204)。
特徴量変換部153は、学習器154に3D特徴量163を入力し、2D特徴量166と比較可能な変換後2D特徴量167を得る(S205)。
共通特徴点特定部155は、変換後2D特徴量167との類似度が所定の閾値以上である2D特徴量166を特定し、当該変換後2D特徴量167を有する3D特徴点162と、特定した2D特徴量166を有する2D特徴点165とを対応付けて、特徴点対応情報168を生成する(S206)。
モデル生成部107は、特徴点対応情報168に基づいて、3D点群データ121の3D特徴点162と撮像画像データ122の2D特徴点165との対応関係を特定する。そして、モデル生成部107は、その特定した対応関係に基づいて、3D点群データ121に撮像画像データ122の少なくとも一部を張り付け(つまりテクスチャマッピングを行い)、地物2の3Dモデルデータ130を生成する(S207)。
<実施の形態2のまとめ>
実施の形態2によれば、レーザースキャナ11の位置と撮像装置12の位置との間にずれが存在する場合であっても、3D特徴点162と2D特徴点165との対応関係を特定できる。よって、その特定した対応関係に基づいて3D点群データ121に撮像画像データ122を張り付け、3Dモデルデータ130を自動的に生成できる。
(実施の形態3)
次に、実施の形態3に係る学習器生成装置300について説明する。学習器生成装置300は、実施の形態2の学習器154を生成するための装置である。なお、実施の形態1又は2と共通する構成要素については、共通の参照符号を付し、説明を省略する場合がある。
図7は、実施の形態3に係る学習器生成装置300の構成の一例を示す図である。
学習器生成装置300は、情報格納部301、仮想地物モデル配置部302、仮想点群生成部303、仮想画像生成部304、点群特徴検出部151、画像特徴検出部152、及び、学習器生成部305の構成要素を備える。なお、これらの構成要素は、学習器生成装置300が備えるハードウェア(図9参照)が協調動作することにより実現されてよい。
情報格納部301は、学習器生成装置300において生成及び使用されるデータ及び情報を格納する。
仮想地物モデル配置部302は、地物2に関する3Dモデルデータである仮想地物モデルデータ321を仮想空間内に配置する。仮想地物モデルデータ321は、ユーザ又は他の装置によって予め作成されたものであってよい。
仮想点群生成部303は、仮想空間内に仮想的なレーザースキャナ(以下「仮想レーザースキャナ」という)を設置して、仮想地物モデルデータ321を3Dスキャンし、当該仮想地物モデルデータ321の3D点群データ(以下「仮想3D点群データ」という)322を生成する。仮想点群生成部303は、生成した仮想3D点群データ322を、情報格納部301に格納する。
仮想画像生成部304は、仮想空間内に仮想的な撮像装置(以下「仮想撮像装置」という)を設置して、仮想地物モデルデータ321を撮像し、当該仮想地物モデルデータ321の撮像画像データ(以下「仮想撮像画像データ」という)323を生成する。仮想画像生成部304は、生成した仮想撮像画像データ323を、情報格納部301に格納する。
ここで、仮想画像生成部304は、仮想空間内において、仮想レーザースキャナが設置された位置と同じ位置に仮想撮像装置を設置する。仮想空間内であるため、同じ位置に仮想レーザースキャナと仮想撮像装置を設置できる。これにより、共通の位置から共通の方向を3Dスキャン及び撮像した仮想3D点群データ322及び仮想撮像画像データ323を得ることができる。
点群特徴検出部151は、仮想3D点群データ322から、3D特徴点162を検出し、当該3D特徴点162における3D特徴量163を算出する。3D特徴点162及び3D特徴量163は、実施の形態2にて説明した方法によって検出及び算出されてよい。点群特徴検出部151は、検出及び算出した3D特徴点162及び3D特徴量163を含む点群特徴情報161を、情報格納部301に格納する。
画像特徴検出部152は、仮想撮像画像データ323から、2D特徴点165を検出し、当該2D特徴点165における2D特徴量166を算出する。2D特徴点165及び2D特徴量166は、実施の形態2にて説明した方法によって、検出及び算出されてよい。画像特徴検出部152は、検出及び算出した2D特徴点165及び2D特徴量166を含む画像特徴情報164を、情報格納部301に格納する。
学習器生成部305は、3D特徴量163を入力データとし、2D特徴量166を正解データとする教師データセットを用いて、3D特徴量163を変換後2D特徴量166に変換する学習器154を生成する。学習器生成部305は、生成した学習器154を、情報格納部301に格納する。なお、学習器生成部305の詳細については後述する。
図8は、学習器154の生成を説明するための模式図である。
上述したように、仮想レーザースキャナと仮想撮像装置は、同じ位置に設置されるので、仮想地物モデルデータ321における共通部分の3D特徴点162と2D特徴点165との間にずれが存在しない。加えて、3D特徴量163を入力データとし、2D特徴量166を正解データとする教師データセットを、仮想空間において大量に得ることができる。
学習器生成部305は、3D特徴点162における3D特徴量163を入力データとし、当該3D特徴点162に対応する2D特徴点165における2D特徴量166を正解データとする大量の教師データセットを用いて、3D特徴量163を変換後2D特徴量167に変換する学習器154の学習(例えばディープラーニング)を行う。学習器154は、ニューラルネットワークとして構成されてよい。これにより、学習器生成部305は、高精度の学習器154を生成できる。
<実施の形態3のまとめ>
実施の形態3によれば、仮想空間内において、3D特徴量163を変換後2D特徴量167に変換する学習器154の学習を行うための教師データセットを、大量に得ることができる。すなわち、実物を3Dスキャンして3D点群データ121を取得したり、実物を撮影して撮像画像データ122を取得したりすることなく、コンピュータ内の処理によって、大量の教師データセットを得ることができる。よって、学習器生成部305は、当該大量の教師データセットを用いて、高精度の学習器154を生成できる。
(ハードウェア構成)
以上、本開示に係る実施形態について図面を参照して詳述してきたが、上述したモデル生成装置100A、100B、モデル表示装置200、及び、学習器生成装置300の機能は、コンピュータプログラムにより実現され得る。
図9は、本開示に係る各装置100A、100B、200、300の機能をプログラムにより実現するコンピュータのハードウェア構成の一例を示す図である。
このコンピュータ1000は、キーボード又はマウス、タッチパッドなどの入力装置1001、ディスプレイ又はスピーカーなどの出力装置1002、CPU(Central Processing Unit)1003、GPU(Graphics Processing Unit)1004、ROM(Read Only Memory)1005、RAM(Random Access Memory)1006、ハードディスク装置又はSSD(Solid State Drive)などの記憶装置1007、DVD−ROM(Digital Versatile Disk Read Only Memory)又はUSB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置1008、通信ネットワークを介して通信を行う送受信装置1009を備え、各部はバス1010により接続される。
読取装置1008は、上記各装置100A、100B、200、300の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置1007に記憶させる。あるいは、送受信装置1009が、通信ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各装置100A、100B、200、300の機能を実現するためのプログラムを記憶装置1007に記憶させる。
CPU1003が、記憶装置1007に記憶されたプログラムをRAM1006にコピーし、そのプログラムに含まれる命令をRAM1006から順次読み出して実行することにより、上記各装置100A、100B、200、300の機能が実現される。なお、CPU1003は、処理部、制御部、コントローラといった別の用語に読み替えられてもよい。ROM1005、RAM1005、記憶装置1007は、メモリ、記憶部といった別の用語に読み替えられてもよい。
上記の実施の形態の説明に用いた各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。
(本開示のまとめ)
本開示に係る、地物(2)の3D(three-dimension)モデルデータ(130)を生成するモデル生成装置(100A)は、レーザースキャナ(11)が地物を3Dスキャンして生成した3D点群データ(121)を取得する点群取得部(102)と、撮像装置(12)が地物を撮像して生成した撮像画像データ(122)を取得する画像取得部(103)と、3D点群データから地物を構成するセグメント(3)を検出し、当該セグメントの点群データに関する情報を含む点群セグメント情報(123)を生成する点群セグメンテーション部(104)と、撮像画像データから地物を構成するセグメントを検出し、当該セグメントの画像データに関する情報を含む画像セグメント情報(126)を生成する画像セグメンテーション部(105)と、共通のセグメントから生成された点群セグメント情報及び画像セグメント情報を対応付ける共通セグメント特定部(106)と、点群セグメント情報が示すセグメントの点群データに、当該点群セグメント情報と対応付けられている画像セグメント情報が示すセグメントの画像データを張り付け、地物の3Dモデルデータを生成するモデル生成部(107)とを備える。
また、点群セグメント情報及び画像セグメント情報は、それぞれ、セグメントを識別するセグメント識別情報(128)を含み、共通セグメント特定部は、共通のセグメント識別情報を含む点群セグメント情報及び画像セグメント情報を対応付けてよい。
上記構成によれば、共通するセグメントを基準に撮像画像データを3D点群データに張り付ける(つまりテクスチャマッピングを行う)ことができる。よって、レーザースキャナと撮像装置の設置位置がずれている場合であっても自動的にテクスチャマッピングを行うことができる。
本開示に係る、地物(2)の3Dモデルデータ(130)を生成するモデル生成装置(100B)は、レーザースキャナ(11)が地物を3Dスキャンして生成した3D点群データ(121)を取得する点群取得部(102)と、撮像装置(12)が地物を撮像して生成した撮像画像データ(122)を取得する画像取得部(103)と、3D点群データから地物の3D形状に関する特徴的な部分を示す3D特徴点(162)を検出し、当該3D特徴点の特徴を示す値である3D特徴量(163)を算出する点群特徴検出部(151)と、撮像画像データから地物の2D形状に関する特徴的な部分を示す2D特徴点(165)を検出し、当該2D特徴点の特徴を示す値である2D特徴量(166)を算出する画像特徴検出部(152)と、3D特徴量を、2D形状の特徴を示す値である変換後2D特徴量(167)に変換する特徴量変換部(153)と、変換後2D特徴量との類似度が所定の閾値以上である2D特徴量を特定し、当該変換後2D特徴量を有する3D特徴点と、当該特定した前記2D特徴量を有する2D特徴点とを対応付ける共通特徴点特定部(155)と、3D特徴点と2D特徴点との対応関係に基づいて、3D点群データに撮像画像データを張り付け、地物の3Dモデルデータを生成するモデル生成部(107)とを備える。
また、特徴量変換部は、3D特徴量を変換後2D特徴量に変換する、予め生成された学習器(154)を用いて、3D特徴量を変換後2D特徴量に変換してよい。
上記構成によれば、3D特徴量を変換後2D特徴量に変換し、変換後2D特徴量と類似度の高い2D特徴量を特定することにより、地物の共通部分を示すと推定される3D特徴点と2D特徴点を特定できる。これにより、この特定された3D特徴点及び2D特徴点を基準に、撮像画像データを3D点群データに張り付ける(つまりテクスチャマッピングを行う)ことができる。よって、レーザースキャナと撮像装置との設置位置がずれている場合であっても、自動的にテクスチャマッピングを行うことができる。
本開示に係る、上記の学習器(154)を生成する学習器生成装置(300)は、仮想空間に予め配置された地物に関する3Dモデルデータである仮想地物モデルデータ(321)を仮想空間にて3Dスキャンし、仮想3D点群データ(322)を生成する仮想点群生成部(303)と、仮想空間において、3Dスキャンが行われた位置と同じ位置から、仮想地物モデルデータを撮像し、仮想撮像画像データ(323)を生成する仮想画像生成部(304)と、仮想3D点群データから仮想地物モデルデータの3D形状に関する特徴的な部分を示す3D特徴点(162)を検出し、当該3D特徴点の特徴を示す値である3D特徴量(163)を算出する点群特徴検出部(151)と、仮想撮像画像データから仮想地物モデルデータの2D形状の特徴的な部分を示す2D特徴点(165)を検出し、当該2D特徴点の特徴を示す値である2D特徴量(166)を算出する画像特徴検出部(152)と、3D特徴点が有する3D特徴量を入力データとし、当該3D特徴点と対応関係にある2D特徴点が有する2D特徴量を正解データとして、学習器を生成する学習器生成部(305)とを備える。
仮想空間では、3Dスキャンが行われた位置と同じ位置から仮想地物モデルデータを撮像できるため、上記構成によれば、仮想地物モデルデータにおける共通部分を示す3D特徴点と2D特徴点を特定できる。そのため、3D特徴点が有する3D特徴量を入力データとし、当該3D特徴点と共通部分を示す2D特徴点が有する2D特徴量を正解データとする大量の教師データセットを得ることができる。よって、大量の教師データセットを用いて、高精度の学習器を生成できる。
本開示の技術は、地物の3Dモデルデータの生成に有用である。よって、例えば、都市開発、土木建築又は災害予測といった様々な産業に利用可能である。
2 地物
3、3A、3B、3C、3D セグメント
10 モデル生成システム
11 レーザースキャナ
12 撮像装置
13、14 通信ネットワーク
100A、100B モデル生成装置
101 情報格納部
102 点群取得部
103 画像取得部
104 点群セグメンテーション部
105 画像セグメンテーション部
106 共通セグメント特定部
107 モデル生成部
121 3D点群データ
122 撮像画像データ
123 点群セグメント情報
124 セグメント点群データ
126 画像セグメント情報
127 セグメント画像データ
128 セグメント識別情報
129 共通セグメント情報
130 3Dモデルデータ
151 点群特徴検出部
152 画像特徴検出部
153 特徴量変換部
154 学習器
155 共通特徴点特定部
161 点群特徴情報
162 3D特徴点
163 3D特徴量
164 画像特徴情報
165 2D特徴点
166 2D特徴量
167 変換後2D特徴量
168 特徴点対応情報
200 モデル表示装置
201 情報格納部
202 モデル取得部
203 モデル表示部
204 モデル操作部
300 学習器生成装置
301 情報格納部
302 仮想地物モデル配置部
303 仮想点群生成部
304 仮想画像生成部
305 学習器生成部
321 仮想地物モデルデータ
322 仮想3D点群データ
323 仮想撮像画像データ
1000 コンピュータ
1001 入力装置
1002 出力装置
1003 CPU
1007 記憶装置
1008 読取装置
1009 送受信装置
1010 バス

Claims (8)

  1. 地物の3D(three-dimension)モデルデータを生成するモデル生成装置であって、
    レーザースキャナが前記地物を3Dスキャンして生成した3D点群データを取得する点群取得部と、
    撮像装置が前記地物を撮像して生成した撮像画像データを取得する画像取得部と、
    前記3D点群データから前記地物を構成するセグメントを検出し、当該セグメントの点群データに関する情報及び当該セグメントを識別するセグメント識別情報を含む点群セグメント情報を生成する点群セグメンテーション部と、
    前記撮像画像データから前記地物を構成するセグメントを検出し、当該セグメントの画像データに関する情報及び当該セグメントを識別するセグメント識別情報を含む画像セグメント情報を生成する画像セグメンテーション部と、
    共通の前記セグメント識別情報を含む前記点群セグメント情報及び前記画像セグメント情報を対応付ける共通セグメント特定部と、
    前記点群セグメント情報が示すセグメントの点群データに、当該点群セグメント情報と対応付けられている前記画像セグメント情報が示すセグメントの画像データを張り付け、前記地物の3Dモデルデータを生成するモデル生成部と、を備える、
    モデル生成装置。
  2. 地物の3Dモデルデータを生成するモデル生成装置であって、
    レーザースキャナが前記地物を3Dスキャンして生成した3D点群データを取得する点群取得部と、
    撮像装置が前記地物を撮像して生成した撮像画像データを取得する画像取得部と、
    前記3D点群データから前記地物の3D形状に関する特徴的な部分を示す3D特徴点を検出し、当該3D特徴点の特徴を示す値である3D特徴量を算出する点群特徴検出部と、
    前記撮像画像データから前記地物の2D(two-dimension)形状に関する特徴的な部分を示す2D特徴点を検出し、当該2D特徴点の特徴を示す値である2D特徴量を算出する画像特徴検出部と、
    前記3D特徴量を、2D形状の特徴を示す値である変換後2D特徴量に変換する特徴量変換部と、
    前記変換後2D特徴量との類似度が所定の閾値以上である前記2D特徴量を特定し、当該変換後2D特徴量を有する3D特徴点と、当該特定した前記2D特徴量を有する2D特徴点とを対応付ける共通特徴点特定部と、
    前記3D特徴点と前記2D特徴点との対応関係に基づいて、前記3D点群データに前記撮像画像データを張り付け、前記地物の3Dモデルデータを生成するモデル生成部と、を備える、
    モデル生成装置。
  3. 前記特徴量変換部は、前記3D特徴量を前記変換後2D特徴量に変換する予め生成された学習器を用いて、前記3D特徴量を前記変換後2D特徴量に変換する、
    請求項に記載のモデル生成装置。
  4. 請求項に記載の学習器を生成する学習器生成装置であって、
    仮想空間に予め配置された地物に関する3Dモデルデータである仮想地物モデルデータを前記仮想空間にて3Dスキャンし、仮想3D点群データを生成する仮想点群生成部と、
    前記仮想空間において、前記3Dスキャンが行われた位置と同じ位置から、前記仮想地物モデルデータを撮像し、仮想撮像画像データを生成する仮想画像生成部と、
    前記仮想3D点群データから前記仮想地物モデルデータの3D形状に関する特徴的な部分を示す3D特徴点を検出し、当該3D特徴点の特徴を示す値である3D特徴量を算出する点群特徴検出部と、
    前記仮想撮像画像データから前記仮想地物モデルデータの2D形状の特徴的な部分を示す2D特徴点を検出し、当該2D特徴点の特徴を示す値である2D特徴量を算出する画像特徴検出部と、
    前記3D特徴点が有する前記3D特徴量を入力データとし、当該3D特徴点と対応関係にある前記2D特徴点が有する前記2D特徴量を正解データとして、前記学習器を生成する学習器生成部と、を備える、
    学習器生成装置。
  5. モデル生成装置によって地物の3D(three-dimension)モデルデータを生成するモデル生成方法であって、
    レーザースキャナが前記地物を3Dスキャンして生成した3D点群データを取得し、
    撮像装置が前記地物を撮像して生成した撮像画像データを取得し、
    前記3D点群データから前記地物を構成するセグメントを検出し、当該セグメントの3D点群データに関する情報及び当該セグメントを識別するセグメント識別情報を含む点群セグメント情報を生成し、
    前記撮像画像データから前記地物を構成するセグメントを検出し、当該セグメントの画像データに関する情報及び当該セグメントを識別するセグメント識別情報を含む画像セグメント情報を生成し、
    共通の前記セグメント識別情報を含む前記点群セグメント情報及び前記画像セグメント情報を対応付け、
    前記点群セグメント情報が示すセグメントの点群データに、当該点群セグメント情報と対応付けられている前記画像セグメント情報が示すセグメントの画像データを張り付け、前記地物の3Dモデルデータを生成する、
    モデル生成方法。
  6. モデル生成装置によって地物の3Dモデルデータを生成するモデル生成方法であって、
    レーザースキャナが前記地物を3Dスキャンして生成した3D点群データを取得し、
    撮像装置が前記地物を撮像して生成した撮像画像データを取得し、
    前記3D点群データから前記地物の3D形状に関する特徴的な部分を示す3D特徴点を検出し、当該3D特徴点の特徴を示す値である3D特徴量を算出し、
    前記撮像画像データから前記地物の2D(two-dimension)形状に関する特徴的な部分を示す2D特徴点を検出し、当該2D特徴点の特徴を示す値である2D特徴量を算出し、
    前記3D特徴量を、2D形状の特徴を示す値である変換後2D特徴量に変換し、
    前記変換後2D特徴量との類似度が所定の閾値以上である前記2D特徴量を特定し、当該変換後2D特徴量を有する3D特徴点と、当該特定した前記2D特徴量を有する2D特徴点とを対応付け、
    前記3D特徴点と前記2D特徴点との対応関係に基づいて、前記3D点群データに前記撮像画像データを張り付け、前記地物の3Dモデルデータを生成する、
    モデル生成方法。
  7. 前記3D特徴量は、前記3D特徴量を前記変換後2D特徴量に変換する予め生成された学習器を用いて、前記変換後2D特徴量に変換される、
    請求項に記載のモデル生成方法。
  8. 請求項に記載の学習器を学習器生成装置によって生成する学習器生成方法であって、
    仮想空間に予め配置された地物に関する3Dモデルデータである仮想地物モデルデータを前記仮想空間にて3Dスキャンし、仮想3D点群データを生成し、
    前記仮想空間において、前記3Dスキャンが行われた位置と同じ位置から、前記仮想地物モデルデータを撮像し、仮想撮像画像データを生成し、
    前記仮想3D点群データから前記仮想地物モデルデータの3D形状に関する特徴的な部分を示す3D特徴点を検出し、当該3D特徴点の特徴を示す値である3D特徴量を算出し、
    前記仮想撮像画像データから前記仮想地物モデルデータの2D形状の特徴的な部分を示す2D特徴点を検出し、当該2D特徴点の特徴を示す値である2D特徴量を算出し、
    前記3D特徴点が有する前記3D特徴量を入力データとし、当該3D特徴点と対応関係にある前記2D特徴点が有する前記2D特徴量を正解データとして、前記学習器を生成する、
    学習器生成方法。
JP2020092349A 2020-05-27 2020-05-27 モデル生成装置、学習器生成装置、モデル生成方法、及び、学習器生成方法 Active JP6863634B6 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020092349A JP6863634B6 (ja) 2020-05-27 2020-05-27 モデル生成装置、学習器生成装置、モデル生成方法、及び、学習器生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020092349A JP6863634B6 (ja) 2020-05-27 2020-05-27 モデル生成装置、学習器生成装置、モデル生成方法、及び、学習器生成方法

Publications (3)

Publication Number Publication Date
JP6863634B1 true JP6863634B1 (ja) 2021-04-21
JP6863634B6 JP6863634B6 (ja) 2021-06-02
JP2021189600A JP2021189600A (ja) 2021-12-13

Family

ID=75520997

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020092349A Active JP6863634B6 (ja) 2020-05-27 2020-05-27 モデル生成装置、学習器生成装置、モデル生成方法、及び、学習器生成方法

Country Status (1)

Country Link
JP (1) JP6863634B6 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6967816B1 (ja) * 2021-05-07 2021-11-17 シンメトリー・ディメンションズ・インク 情報処理装置、及び、情報処理方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7170369B1 (ja) * 2022-04-14 2022-11-14 株式会社センシンロボティクス 情報処理システム及び移動体、情報処理方法、プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002074323A (ja) * 2000-09-01 2002-03-15 Kokusai Kogyo Co Ltd 三次元市街地空間モデル作成方法およびシステム
JP5593177B2 (ja) * 2010-09-14 2014-09-17 株式会社トプコン 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム
JP5963353B2 (ja) * 2012-08-09 2016-08-03 株式会社トプコン 光学データ処理装置、光学データ処理システム、光学データ処理方法、および光学データ処理用プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6967816B1 (ja) * 2021-05-07 2021-11-17 シンメトリー・ディメンションズ・インク 情報処理装置、及び、情報処理方法
JP2022172833A (ja) * 2021-05-07 2022-11-17 シンメトリー・ディメンションズ・インク 情報処理装置、及び、情報処理方法

Also Published As

Publication number Publication date
JP2021189600A (ja) 2021-12-13
JP6863634B6 (ja) 2021-06-02

Similar Documents

Publication Publication Date Title
Guan et al. Automated pixel-level pavement distress detection based on stereo vision and deep learning
US11461964B2 (en) Satellite SAR artifact suppression for enhanced three-dimensional feature extraction, change detection, and visualizations
Clapuyt et al. Reproducibility of UAV-based earth topography reconstructions based on Structure-from-Motion algorithms
US9189862B2 (en) Outline approximation for point cloud of building
US9135710B2 (en) Depth map stereo correspondence techniques
KR20200070287A (ko) 객체 인식 방법
JP2015201192A (ja) 物体の位置及び向きの検出
JP6863634B1 (ja) モデル生成装置、学習器生成装置、モデル生成方法、及び、学習器生成方法
JPWO2019065536A1 (ja) 再構成方法および再構成装置
CN104157011A (zh) 一种三维地形建模方法
Weinmann et al. Preliminaries of 3D point cloud processing
CN114761997A (zh) 目标检测方法、终端设备和介质
Razali et al. A hybrid point cloud reality capture from terrestrial laser scanning and UAV-photogrammetry
Guan et al. Full field-of-view pavement stereo reconstruction under dynamic traffic conditions: Incorporating height-adaptive vehicle detection and multi-view occlusion optimization
Ravanelli et al. A high-resolution photogrammetric workflow based on focus stacking for the 3D modeling of small Aegean inscriptions
Li et al. Towards automated extraction for terrestrial laser scanning data of building components based on panorama and deep learning
Gonzalez-Aguilera et al. From point cloud to CAD models: Laser and optics geotechnology for the design of electrical substations
Ponto et al. Opportunities for utilizing consumer grade 3D capture tools for insurance documentation
KR20220057060A (ko) 라이다 깊이 이미지 채움 장치 및 방법
KR20180065104A (ko) 3차원 지형 및 지물 가시화 장치 및 그 방법
Luis Lugo et al. Evaluation of 3D reconstruction methods from terrestrial LiDAR point cloud data to create Digital Twins of civil infrastructure projects
JP6857924B1 (ja) モデル生成装置、及び、モデル生成方法
Wang et al. Automatic measurement of grid structures displacement through fusion of panoramic camera and laser scanning data
JP2019191908A (ja) 対象物認識装置
WO2024047782A1 (ja) 点群データ描画システム、サーバ、点群データ描画装置、および点群データ描画方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200529

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201021

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210325

R150 Certificate of patent or registration of utility model

Ref document number: 6863634

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250