JP6967816B1 - 情報処理装置、及び、情報処理方法 - Google Patents

情報処理装置、及び、情報処理方法 Download PDF

Info

Publication number
JP6967816B1
JP6967816B1 JP2021079100A JP2021079100A JP6967816B1 JP 6967816 B1 JP6967816 B1 JP 6967816B1 JP 2021079100 A JP2021079100 A JP 2021079100A JP 2021079100 A JP2021079100 A JP 2021079100A JP 6967816 B1 JP6967816 B1 JP 6967816B1
Authority
JP
Japan
Prior art keywords
image
point cloud
point
information processing
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021079100A
Other languages
English (en)
Other versions
JP2022172833A (ja
Inventor
保次 瀬古
光理 柳川
トンミ クラネン
メハグ イェン
正吾 沼倉
Original Assignee
シンメトリー・ディメンションズ・インク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シンメトリー・ディメンションズ・インク filed Critical シンメトリー・ディメンションズ・インク
Priority to JP2021079100A priority Critical patent/JP6967816B1/ja
Application granted granted Critical
Publication of JP6967816B1 publication Critical patent/JP6967816B1/ja
Publication of JP2022172833A publication Critical patent/JP2022172833A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】撮像画像に対する3次元点群データの合わせ込みを簡易化する。【解決手段】現実空間を撮像した撮像画像に現実空間を3次元スキャンして得られた3次元点群データを重畳させる情報処理装置は、撮像画像に少なくとも4つの画像選定点を設定し、撮像画像の撮像位置及び撮像方向に対応する視点位置及び視点方向から3次元点群データを見た場合の点群画像である第1の点群画像に、少なくとも4つの画像選定点に対応する少なくとも4つの点群選定点を設定し、画像選定点と点群選定点の対応関係に基づいて、撮像画像に適合する第2の点群画像を生成する。【選択図】図3A

Description

本開示は、情報処理装置、及び、情報処理方法に関する。
特許文献1には、現実空間を撮像した撮像画像に仮想空間を重畳させた複合現実空間を表す画像を表示する情報処理端末が開示される。特許文献1では、現実空間を撮像した撮像画像における仮想空間の重畳位置を規定するアンカー情報をもとに算出された座標に基づいて、仮想空間における3次元のオブジェクトを適切な位置及び向きで撮像画像上に配置して表示する。
特開2020−177338号公報
しかしながら、特許文献1に開示される方法の場合、仮想空間における3次元のオブジェクトを適切な位置及び向きで撮像画像に合わせ込むためには、ユーザはアンカー情報の配置調整を行う必要があり、これは非常に手間のかかる作業である。
本開示の目的は、より簡単に、3次元のオブジェクトを適切な位置及び向きで撮像画像に合わせ込むことができる技術を提供することにある。
本開示の一態様に係る情報処理装置は、現実空間を撮像した撮像画像に前記現実空間を3次元スキャンして得られた3次元点群データを重畳させる情報処理装置であって、プロセッサ及びメモリを備え、前記プロセッサは前記メモリと協働して、前記撮像画像に少なくとも4つの画像選定点を設定し、前記撮像画像の撮像位置及び撮像方向に対応する視点位置及び視点方向から前記3次元点群データを見た場合の点群画像である第1の点群画像に、前記少なくとも4つの画像選定点に対応する少なくとも4つの点群選定点を設定し、前記画像選定点と前記点群選定点の対応関係に基づいて、前記撮像画像に適合する第2の点群画像を生成する。
本開示の一態様に係る情報処理方法は、情報処理装置によって、現実空間を撮像した撮像画像に前記現実空間を3次元スキャンして得られた3次元点群データを重畳させる情報処理方法であって、前記撮像画像に少なくとも4つの画像選定点を設定し、前記撮像画像の撮像位置及び撮像方向に対応する視点位置及び視点方向から前記3次元点群データを見た場合の点群画像である第1の点群画像に、前記少なくとも4つの画像選定点に対応する少なくとも4つの点群選定点を設定し、前記画像選定点と前記点群選定点の対応関係に基づいて、前記撮像画像に適合する第2の点群画像を生成する。
なお、これらの態様は、システム、装置、方法、集積回路、コンピュータプログラム又は記録媒体で実現されてもよい。あるいは、これらの態様は、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
本開示によれば、より簡単に、3次元のオブジェクトを適切な位置及び向きで撮像画像に合わせ込むことができる。
現実空間の撮像画像の表示画面を示す図である。 現実空間の3次元点群データを図1Aの撮像画像の撮像位置から撮像方向に見た場合の透視投影画像の表示画面を示す図である。 本実施の形態に係る情報処理システムの構成例を示すブロック図である。 本実施の形態に係る第1の方法における撮像画像の表示画面を示す図である。 本実施の形態に係る第1の方法における第1の点群画像の表示画面を示す図である。 本実施の形態に係る第1の点群画像の生成処理の一例を示すフローチャートである。 本実施の形態に係る第1の方法における第2の点群画像の生成処理の一例を示すフローチャートである。 本実施の形態に係る第2の方法における撮像画像31の表示画面を示す図である。 本実施の形態に係る第2の方法における第2の点群画像の表示画面を示す図である。 本実施の形態に係る第2の方法における第2の点群画像の生成処理の一例を示すフローチャートである。 本実施の形態に係る学習器の生成処理の一例を示すフローチャートである。 本実施の形態に係る学習器の学習処理を説明するための模式図である。
以下、図面を参照して、本開示の実施の形態について詳細に説明する。ただし、公知の事項又は重複する事項については説明を省略する場合がある。また、図面及び以下の記載は一例に過ぎず、特許請求の範囲の記載の主題を限定することは意図されていない。
(本実施の形態)
<本開示に至る経緯>
図1Aは、現実空間の撮像画像31の表示画面を示す図である。以下、撮像画像31を撮像した位置を撮像位置と称し、撮像画像31を撮像した方向を撮像方向と称する。図1Bは、現実空間の点群画像70の表示画面を示す図である。点群画像70は、現実空間を3Dレーザスキャナでセンシングして得られた複数の3次元座標点(3D点)によって構成されたデータである3次元(3D)点群データ32(図2参照)を、撮像位置から撮像方向に見た場合の透視投影画像である。
現実空間の地物を撮像した撮像画像31に点群画像70を重畳してAR(Augmented Reality)画像を生成し、その生成したAR画像を表示することが行われる。
撮像画像31に対応する点群画像70を3D点群データ32から得るために、従来、ユーザは、次のステップS1〜S3の作業を行う。
(S1)ユーザは、撮像画像31のある位置に、撮像時の水平面に対する撮像装置11(図2参照)の傾き(例えば上下方向の傾き及び左右方向の傾き)を示すアンカー情報を設定する。ユーザは、撮像画像31に複数のアンカー情報を設定してもよい。以下、撮像画像31に設定されたアンカー情報を、画像アンカー71と称する。
(S2)ユーザは、3D点群データ32の画像アンカー71と対応する位置に、アンカー情報を設定する。以下、3D点群データ32に設定されたアンカー情報を、点群アンカー72と称する。
(S3)ユーザは、画像アンカー71の傾きに合うように、点群アンカー72の傾きを調節する。このとき、ユーザは、点群アンカー72の奥行方向の傾きは画面上からわかりにくいので、3D点群データ32の視点位置及び視点方向を変えながら、点群アンカー72の奥行方向の傾きを調節する必要がある。
ユーザは、上記のステップS2とS3を繰り返して、点群アンカー72の位置及び傾きが画像アンカー71の位置及び傾きと合うように調節し、撮像画像31に適合する点群画像70を得る。
しかし、上記の作業は、画像アンカー71及び点群アンカー72の細かな調節が必要なため、ユーザにとって非常に手間と時間のかかる作業である。そこで、本実施の形態では、撮像画像31に、3次元のオブジェクトデータの一例である3D点群データ32を合わせ込んで撮像画像31に適合する点群画像70を得ることを、簡単に行うことができる技術について説明する。
<システム構成>
図2は、本実施の形態に係る情報処理システム1の構成例を示すブロック図である。
情報処理システム1は、撮像装置11、入力装置12、表示装置13、及び、情報処理装置20を含んで構成される。
撮像装置11は、現実空間の地物を撮像し、撮像画像31を生成する。撮像装置11はカメラと読み替えられてもよい。撮像画像31は、静止画又は動画のいずれであってもよい。
入力装置12は、ユーザからの入力操作を受け付ける。入力装置12の例として、キーボード、マウス、マイク、コントローラ、タッチパネル、又は、ジェスチャセンサ等が挙げられる。
表示装置13は、画像を表示する。表示装置13の例として、液晶ディスプレイ、有機ELディスプレイ、又は、透過型ディスプレイ等が挙げられる。
情報処理装置20は、プロセッサ21、メモリ22、通信I/F(Interface)23、入力I/F24、表示I/F25、ストレージ26、及び、バス27を備える。プロセッサ21、メモリ22、通信I/F23、入力I/F24、表示I/F25、及び、ストレージ26は、双方向通信可能なバス27に接続される。
メモリ22は、情報処理装置20が取り扱うプログラム及びデータ等を記憶する。メモリ22は、ROM(Read-Only Memory)及びRAM(Random Access Memory)を含んでよい。
プロセッサ21は、他の構成要素22〜26と協働しながら種々の処理を実行することにより、本実施の形態に係る情報処理装置20が提供する機能を実現する。例えば、プロセッサ21は、メモリ22からプログラムを読み出して実行することにより、本実施の形態に係る情報処理装置20が提供する機能を実現する。したがって、本実施の形態において情報処理装置20を主体として説明する処理は、情報処理装置20が備えるプロセッサ21を主体とする処理に読み替えることができる。また、プロセッサ21は、CPU(Central Processing Unit)、コントローラ、制御部、制御装置、制御回路といった他の用語に読み替えられてもよい。なお、情報処理装置20(又はプロセッサ21)が行う処理の詳細については後述する。
通信I/F23は、情報処理装置20を、インターネットに代表される所定の通信ネットワーク(図示しない)に接続するためのインタフェースである。通信I/F23は、無線信号を送受信する無線通信I/F、又は、有線ケーブルが接続される有線通信I/Fのうちの少なくとも1つを含んでよい。無線通信I/Fが対応する通信方式の例として、Wi−Fi(登録商標)、LTE(Long Term Evolution)、4G、5Gが挙げられる。有線通信I/Fが対応する通信方式の例として、Ethernet(登録商標)が挙げられる。
また、通信I/F23には、撮像装置11が接続されてよい。通信I/F23は、撮像装置11から撮像画像31を受信し、その受信した撮像画像31をプロセッサ21、メモリ22又はストレージ26に送信してよい。
入力I/F24は、入力装置12を接続するためのインタフェースである。入力I/F24は、入力装置12からユーザの入力操作に関する情報を受信し、その受信した入力操作に関する情報をプロセッサ21へ送信してよい。
表示I/F25は、表示装置13を接続するためのインタフェースである。表示I/F25は、プロセッサ21から画像に関するデータを受信し、その受信した画像に関するデータを表示装置13へ送信してよい。表示装置13は、画像に関するデータを受信し、画像を表示する。
ストレージ26は、不揮発性記憶媒体の一例であり、情報処理装置20が取り扱うプログラム及びデータ等を格納する。ストレージ26の例として、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又は、フラッシュメモリが挙げられる。
例えば、ストレージ26は、情報又はデータとして、撮像画像31、3D点群データ32、AR画像33、及び、学習器34を格納する。これらの情報又はデータの少なくとも一部は、メモリ22に格納されてもよい。これらの情報又はデータの詳細については適宜説明する。
なお、撮像装置11及び表示装置13は一体型の装着可能なヘッドセットであってよい。情報処理装置20はヘッドセットに組み込まれてもよい。あるいは、情報処理装置20とヘッドセットとは別体であり、ヘッドセットは有線又は無線によって情報処理装置20に接続されてもよい。
<撮像画像に3D点群データを合わせ込む第1の方法>
次に、図3A、図3B、図4、図5を参照して、撮像画像31に3D点群データ32を合わせ込む第1の方法について説明する。
図3Aは、本実施の形態に係る第1の方法における撮像画像31の表示画面を示す図である。図3Bは、本実施の形態に係る第1の方法における第1の点群画像の表示画面を示す図である。図4は、本実施の形態に係る第1の点群画像の生成処理の一例を示すフローチャートである。図5は、本実施の形態に係る第1の方法における第2の点群画像の生成処理の一例を示すフローチャートである。
まず、図4に示すフローチャートについて説明する。
情報処理装置20は、撮像画像31の撮像位置及び撮像方向を特定する(S11)。例えば、情報処理装置20は、撮像装置11が備えるGNSS(Global Navigation Satellite System)の受信機を用いて撮像位置を特定し、撮像装置11が備える電子コンパス(磁気センサ)を用いて撮像方向を特定する。撮像位置は、緯度及び経度にて表現されてよい。撮像方向は、北を基準とした360度の値(つまり方位角)によって表現されてよい。
情報処理装置20は、撮像位置及び撮像方向における現実空間を3Dレーザスキャナによって3Dスキャンして生成された3D点群データ32を、例えば、所定のサーバ(図示しない)から取得する(S12)。3Dレーザスキャナの例として、ToF(Time of Flight)センサ、又は、LiDAR(Light Detection and Ranging)が挙げられる。なお、3D点群データ32は、3Dレーザスキャナによる生成に限られず、どのような方法で生成されてもよい。例えば、3D点群データ32は、フォトグラメトリ技術により、現実空間の地物を複数の互いに異なる方向から撮像した複数の画像に基づいて生成されてもよい。
情報処理装置20は、公知の点群セグメンテーション技術を用いて、3D点群データ32における各地物のセグメンテーションを検出する(S13)。点群セグメンテーション技術の例として、3D Point Cloud Segmentation、PointNet又はPointNet++などが挙げられる。例えば、情報処理装置20は、3D点群データ32から、建物のセグメンテーション、道路のセグメンテーション、標識のセグメンテーション等を検出する。
情報処理装置20は、公知の画像セグメンテーション技術を用いて、撮像画像31における各地物のセグメンテーションを検出する(S14)。画像セグメンテーション技術の例として、SegNet又はU−Netなどが挙げられる。例えば、情報処理装置20は、撮像画像31から、建物のセグメンテーション、道路のセグメンテーション、標識のセグメンテーション等を検出する。
情報処理装置20は、3D点群データ32のある地物のセグメンテーションが、撮像画像31の同じ地物を示すセグメンテーションとマッチングするように、3D点群データ32の視点位置及び視点方向、並びに、拡大縮小率を調整し、撮像画像31に対応する第1の点群画像36を得る(S15)。すなわち、第1の点群画像36は、3D点群データ32を撮像位置から撮像方向に見た場合の点群画像に相当する。ただし、第1の点群画像36は、上述したように、セグメンテーションのマッチングによって得られたものであるため、撮像画像31に対する第1の点群画像36の適合精度は、後述する撮像画像31に対する第2の点群画像(図示しない)の適合精度と比べて、低くなりやすい。
次に、図5に示すフローチャートについて説明する。図5に示す処理は、図4に示す処理の後に実行される。
情報処理装置20は、図3Aに示すように、撮像画像31を表示装置13に表示する(S21)。
ユーザは、図3Aに示すように、入力装置12を操作して、表示された撮像画像31に少なくとも4つの画像選定点41A、41B、41C、41Dを設定する(S22)。例えば、ユーザは、撮像画像31において特徴的な位置(例えば物体の角、物体と物体の境界など)に画像選定点41A、41B、41C、41Dを設定する。なお、以下の説明にいて、画像選定点41A、41B、41C、41Dを区別しない場合は、画像選定点41と表現する。ここで、画像選定点41の数が4つ以上である理由は、次のとおりである。すなわち、3次元の位置関係が既知である4つ以上の点がある場合、これらの点をある2次元平面に射影して形成される4つの点から、元の3次元位置を算出できる、という数学的公理による。
情報処理装置20は、図3Bに示すように、図4のステップS15で生成された第1の点群画像36を表示装置13に表示する(S23)。なお、情報処理装置20は、図3Aに示す撮像画像31及びそれに設定した画像選定点41A、41B、41C、41Dと、図3Bに示す第1の点群画像36と、を並べて表示装置13に表示してもよい。これにより、ユーザは、次のステップS24にて、画像選定点41A、41B、41C、41Dの位置を見ながら、点群選定点42A、42B、42C、42Dを設定することができる。なお、点群選定点42A、42B、42C、42Dを区別しない場合は、点群選定点42と表現する。
ユーザは、図3Bに示すように、入力装置12を操作して、表示された第1の点群画像36に、ステップS22で設定した4つの画像選定点41A、41B、41C、41Dに対応する4つの点群選定点42A、42B、42C、42Dを設定する(S24)。
情報処理装置20は、4つの点群選定点42A、42B、42C、42Dが4つの画像選定点41A、41B、41C、41Dとそれぞれ一致するように、視点位置及び視点方向から決定される3次元座標系において、3D点群データ32の平行移動距離、回転角度、並びに、拡大縮小率を算出し、撮像画像31に対応する第2の点群画像(図示しない)を得る(S25)。例えば、情報処理装置20は、4つの点群選定点42A、42B、42C、42Dが4つの画像選定点41A、41B、41C、41Dとそれぞれ一致する平行移動距離、回転角度、拡大縮小率を一般化逆行列により瞬時に算出し、これら平行移動距離、回転角度、拡大縮小率を3D点群データ32に適用して、第2の点群画像を生成する。このように、4つの点群選定点42A、42B、42C、42Dと4つの画像選定点41A、41B、41C、41Dとをそれぞれ一致させることにより、撮像画像31に対する第2の点群画像の適合精度は、撮像画像31に対する第1の点群画像の適合精度と比べて、高くなる。
情報処理装置20は、撮像画像31と第2の点群画像とを重畳してAR画像33を生成し、表示装置13に表示する(S26)。
上述した処理によれば、ユーザは、画像選定点41と点群選定点42を設定すればよく、従来のように、画像アンカー71及び点群アンカー72の位置及び傾きを調整する場合と比べて、簡単かつ効率的に撮像画像31に3D点群データ32を合わせ込むことができる。
なお、情報処理装置20は、ステップS21にて撮像画像31を表示する際に、画像選定点41を設定するに適切な位置(以下、画像選定点の候補と称する)を、撮像画像31上に表示してもよい。情報処理装置20は、例えばAKAZE法により撮像画像31から特徴点(以下、2D特徴点と称する)を検出し、当該2D特徴点における特徴量(以下、2D特徴量と称する)に基づいて、画像選定点の候補を決定してよい。例えば、情報処理装置20は、撮像画像31において、周囲の各位置における2D特徴量と大きく異なる2D特徴量を有する2D特徴点を、画像選定点の候補に決定する。2D特徴量は多元ベクトルで表現されてよく、2つの2D特徴量が大きく異なる場合とは、2つの多元ベクトルの内積が所定の閾値以上である場合、あるいは、2つの多元ベクトルの各要素の差の絶対値が所定の閾値以上である場合であってよい。これにより、ユーザは、表示された画像選定点の候補の中から4つの画像選定点41を選択すればよく、より簡単に画像選定点41を設定できる。
また、情報処理装置20は、ステップS23にて第1の点群画像36を表示する際に、点群選定点42を設定するに適切な位置(以下、点群選定点の候補と称する)を、第1の点群画像36上に表示してよい。情報処理装置20は、後述する学習器34を用いて、ステップS22にて設定された画像選定点41における2D特徴点に対応する3D特徴点と特定し、その特定した3D特徴点を点群選定点の候補に決定してよい。これにより、ユーザは、表示された点群選定点の候補のうち、画像選定点41に正しく対応している点群選定点の候補を点群選定点42として選択すればよく、より簡単に点群選定点42を設定できる。
<撮像画像に3D点群データを合わせ込む第2の方法>
次に、図4、図6A、図6B、図7を参照して、撮像画像31に3D点群データ32を合わせ込む第2の方法について説明する。
図6Aは、本実施の形態に係る第2の方法における撮像画像31の表示画面を示す図である。図6Bは、本実施の形態に係る第2の方法における第2の点群画像の表示画面を示す図である。図7は、本実施の形態に係る第2の方法における第2の点群画像の生成処理の一例を示すフローチャートである。
次に、図7に示すフローチャートについて説明する。図7に示す処理は、図4に示す処理の後に実行される。
情報処理装置20は、図6Aに示すように、撮像画像31を、中心で交差する2本の直線51A、51Bによって4分割する(S31)。2本の直線51A、51Bは、水平方向に延びる直線51Aと、垂直方向に延びる直線51Bであってよい。あるいは、2本の直線51A、51Bは、撮像画像31の対角線であってよい。なお、撮像画像31の分割方法は2本の直線による分割に限られず、少なくとも4分割できれば、どのような分割方法であってもよい。また、分割数も4分割に限られず、2分割以上であれば何分割であってもよい。
情報処理装置20は、撮像画像31における4分割によって形成された4つの区画52A、52B、52C、52Dのそれぞれから少なくとも1つの2D特徴点を検出できるか否かを判定する(S32)。
情報処理装置20は、4つの区画52A、52B、52C、52Dのそれぞれから少なくとも1つの2D特徴点を検出できる場合(S32:YES)、各区画52A、52B、52C、52Dから1つずつ2D特徴点を選択し、それらを画像選定点41に設定する(S33)。これにより、4つの画像選定点41が得られる。加えて、4つの画像選定点41が撮像画像31の一部分に偏って設定されることなく、4つの画像選定点41が撮像画像31の全体に満遍なく設定されるので、後述するステップS36において、撮像画像31により適合する第2の点群画像を生成することができる。そして、情報処理装置20は、処理をステップS36に進める。
情報処理装置20は、2D特徴点を検出できない区画が存在する場合(S32:NO)、まず、2D特徴点を検出できた各区画52B、52C、52Dから1つずつ2D特徴点61A、61B、61Cを選択し、それらを画像選定点41A、41B、41Cに設定する(S34)。次に、情報処理装置20は、検出できなかった数だけ、2D特徴点を検出できなかった区画52Aとは異なる区画52Cから検出された2D特徴点61Eを選択し、画像選定点41Eとする(S35)。これにより、4つの画像選定点41A、41B、41C、41Eが得られる。そして、情報処理装置20は、処理をステップS36に進める。
ステップS36として、情報処理装置20は、学習器34を用いて、図6Bに示すように、3D点群データ32から、4つの画像選定点41A、41B、41C、41E(2D特徴点61A、61B、61C、61E)に対応する4つの3D特徴点63A、63B、63C、63Eを検出し、点群選定点42A、42B、42C、42Eとする(S36)。学習器34は、地物の共通部分における撮像画像31の2D特徴量62(図9参照)と3D点群データ32の3D特徴量65(図9参照)との対応関係を予め学習させた学習モデルである。学習器34は、2D特徴量62を入力すると、当該2D特徴量62に対応する3D特徴量65を出力する。情報処理装置20は、この出力された3D特徴量65を有する3D特徴点63を3D点群データ32から特定することにより、画像選定点41(2D特徴点61)に対応する3D特徴点63(つまり点群選定点42)を検出することができる。なお、3D特徴量65は、多元ベクトルで表現されてよい。また、学習器34の生成方法については後述する。
情報処理装置20は、4つの点群選定点42A、42B、42C、42Eが4つの画像選定点41A、41B、41C、41Eとそれぞれ一致するように、視点位置及び視点方向から決定される3次元座標系において、3D点群データ32の平行移動距離、回転角度、並びに、拡大縮小率を算出し、撮像画像31に対応する第2の点群画像(図示しない)を得る(S37)。例えば、情報処理装置20は、4つの点群選定点42A、42B、42C、42Eが4つの画像選定点41A、41B、41C、41Eとそれぞれ一致する平行移動距離、回転角度、拡大縮小率を一般化逆行列により瞬時に算出し、これら平行移動距離、回転角度、拡大縮小率を3D点群データ32に適用して、第2の点群画像を生成する。このように、4つの点群選定点42A、42B、42C、42Eと4つの画像選定点41A、41B、41C、41Eとをそれぞれ一致させることにより、撮像画像31に対する第2の点群画像の適合精度は、撮像画像31に対する第1の点群画像の適合精度と比べて、高くなる。
情報処理装置20は、撮像画像31と第2の点群画像とを重畳してAR画像33を生成し、表示装置13に表示する(S38)。
上述した処理によれば、第1の方法と比べて、ユーザに画像選定点41及び点群選定点42を手動設定させることなく、情報処理装置20は、撮像画像31に3D点群データ32を自動的に合わせ込むことができる。
<学習器の生成方法>
次に、図8、図9を参照して、学習器34の生成方法について説明する。
図8は、本実施の形態に係る学習器34の生成処理の一例を示すフローチャートである。図9は、本実施の形態に係る学習器34の学習処理を説明するための模式図である。
次に、図8に示すフローチャートについて説明する。なお、以下では、情報処理装置20が学習器34を生成しているが、他の装置が学習器34を生成してもよい。この場合、情報処理装置20は、他の装置で生成された学習器34を取得して利用すればよい。
情報処理装置20は、現実空間の地物の3Dモデルデータである仮想地物モデルデータを仮想空間内に配置する(S51)。仮想地物モデルデータは、ユーザ又は他の装置によって予め作成されたものであってよい。
情報処理装置20は、仮想空間内に仮想的な3Dレーザスキャナ(以下、仮想3Dレーザスキャナと称する)を設置して、仮想地物モデルデータを3Dスキャンし、当該仮想地物モデルデータの3D点群データ(以下、仮想3D点群データと称する)を生成する(S52)。
情報処理装置20は、仮想空間内の仮想3Dレーザスキャナと同じ位置に仮想的な撮像装置(以下、仮想撮像装置と称する)を設置して、仮想地物モデルデータを撮像し、当該仮想地物モデルデータの撮像画像(以下、仮想撮像画像と称する)を生成する(S53)。仮想空間内であるため、仮想3Dレーザスキャナと仮想撮像装置を同じ位置に設置できる。これにより、共通の位置から共通の方向を3Dスキャン及び撮像した仮想3D点群データ32及び仮想撮像画像を得ることができる。
情報処理装置20は、仮想3D点群データから3D特徴点63を検出し、当該3D特徴点63における3D特徴量64を算出する(S54)。
情報処理装置20は、仮想撮像画像から2D特徴点61を検出し、当該2D特徴点61における2D特徴量62を算出する(S55)。
情報処理装置20は、図9に示すように、2D特徴点61の2D特徴量62を入力データとし、当該2D特徴点61と同じ位置における3D特徴点63の3D特徴量64を正解データとする教師データセットを生成する(S56)。上述したように、仮想レーザスキャナと仮想撮像装置は、同じ位置に設置されるので、仮想地物モデルデータにおける共通部分の2D特徴点61と3D特徴点63との間にずれが存在しない。加えて、上述したステップS52〜S56の処理は仮想空間を用いた処理であるため、情報処理装置20は、教師データセットを大量に生成することができる。
情報処理装置20は、生成した大量の教師データセットを用いて、2D特徴量62を入力した場合に、共通部分における正解の3D特徴量64を出力するように、学習器34の機械学習(例えばディープラーニング)を行う(S57)。ディープラーニングを適用する場合、学習器34はDNN(Deep Neural Network)として構成されてよい。例えば、図9に示すように、情報処理装置20は、学習器34に2D特徴量62を入力した場合に出力される3D特徴量65と、正解の3D特徴量64とを比較して、そのずれが小さくなるように学習器34の学習を行う。これにより、撮像画像31と3D点群データ32の共通部分における2D特徴量62と3D特徴量65とを関連付けることができる学習器34を生成できる。
(本開示のまとめ)
本開示は以下のように表現できる。
<表現1>
現実空間を撮像した撮像画像31に当該現実空間を3次元スキャンして得られた3次元点群データ32を重畳させる情報処理装置20は、プロセッサ21及びメモリ22を備え、プロセッサ21はメモリ22と協働して、撮像画像31に少なくとも4つの画像選定点41を設定し、撮像画像31の撮像位置及び撮像方向と共通する視点位置及び視点方向から3次元点群データ32を見た場合の点群画像である第1の点群画像に、少なくとも4つの画像選定点41に対応する少なくとも4つの点群選定点42を設定し、画像選定点41と点群選定点42の対応関係に基づいて、撮像画像31に適合する第2の点群画像を生成する。
これにより、撮像画像31に対する3次元点群データ32の合わせ込み、すなわち、撮像画像31に適合する第2の点群画像の生成を簡単かつ効率的に行うことができる。加えて、第1の点群画像よりも撮像画像31に対する適合精度が高い第2の点群画像を生成することができる。
<表現2>
表現1に記載の情報処理装置20において、プロセッサ21は、撮像画像31に第2の点群画像を重畳した画像(AR画像33)を生成し、表示装置13に表示してよい。
これにより、撮像画像31と第2の点群画像とが精度良く重畳された画像(AR画像33)を表示することができる。
<表現3>
表現1又は2に記載の情報処理装置20において、プロセッサ21は、撮像画像31のセグメンテーションと、3D点群データ32のセグメンテーションとのマッチングに基づいて、第1の点群画像を生成してよい。
これにより、効率的に第1の点群画像を生成できる。
<表現4>
表現1から3のいずれか1つに記載の情報処理装置20において、プロセッサ21は、撮像画像31から特徴点(2D特徴点61)を検出し、検出した特徴点(2D特徴点61)の中から画像選定点41を設定してよい。
これにより、自動的に画像選定点41を設定することができる。
<表現5>
表現4に記載の情報処理装置20において、上記特徴点(2D特徴点61)は、撮像画像31を4分割した各区画52A、52B、52C、52Dから検出されたものであってよい。
これにより、画像選定点41が撮像画像31の全体に満遍なく設定されるので、撮像画像31により適合する第2の点群画像を生成することができる。
<表現6>
表現1から5のいずれか1つに記載の情報処理装置20において、プロセッサ21は、地物の共通部分における撮像画像の特徴点(2D特徴点61)の特徴量(2D特徴量62)と、当該共通部分における3次元点群データ32の特徴点(3D特徴点63)の特徴量(3D特徴量65)との対応関係を学習済みである学習器34を用いて、画像選定点41に対応する点群選定点42を設定してよい。
これにより、自動的に画像選定点41に対応する点群選定点42を設定することができる。
<表現7>
表現1から3のいずれか1つに記載の情報処理装置20において、プロセッサ21は、撮像画像31と第1の点群画像とを表示装置13に表示し、表示された撮像画像31に対する画像選定点41をユーザに設定させ、表示された第1の点群画像に対して画像選定点41に対応する点群選定点42をユーザに設定させてよい。
これにより、ユーザは、画像選定点41と点群選定点42を設定すればよいので、撮像画像31に3次元点群データ32を合わせ込む作業を簡単かつ効率的に行うことができる。
<表現8>
情報処理装置20によって、現実空間を撮像した撮像画像31に現実空間を3次元スキャンして得られた3次元点群データ32を重畳させる情報処理方法では、撮像画像31に少なくとも4つの画像選定点41を設定し、撮像画像31の撮像位置及び撮像方向に対応する視点位置及び視点方向から3次元点群データ32を見た場合の点群画像である第1の点群画像に、少なくとも4つの画像選定点41に対応する少なくとも4つの点群選定点42を設定し、画像選定点41と点群選定点42の対応関係に基づいて、撮像画像31に適合する第2の点群画像を生成する。
これにより、撮像画像31に対する3次元点群データ32の合わせ込み、すなわち、撮像画像31に適合する第2の点群画像の生成を簡単かつ効率的に行うことができる。加えて、第1の点群画像よりも撮像画像31に対する適合精度が高い第2の点群画像を生成することができる。
上述した実施の形態の各構成要素は、発明の趣旨を逸脱しない範囲において、変更、修正、置換、付加、削除、均等等が可能である。加えて、上述した実施の形態の各構成要素は、発明の趣旨を逸脱しない範囲において、任意に組み合わせが可能である。
本開示の技術は、現実空間を撮像した画像に3次元のオブジェクトを重畳して表示するシステム又は装置等に有用である。
1 情報処理システム
11 撮像装置
12 入力装置
13 表示装置
20 情報処理装置
21 プロセッサ
22 メモリ
23 通信I/F
24 入力I/F
25 表示I/F
26 ストレージ
27 バス
31 撮像画像
32 3D点群データ
33 AR画像
34 学習器
36 第1の点群画像
41、41A、41B、41C、41D、41E 画像選定点
42、42A、42B、42C、42D、42E 点群選定点
51A、51B 直線
52A、52B、52C、52D 区画
61 2D特徴点
62 2D特徴量
63 3D特徴点
64、65 3D特徴量
70 点群画像
71 画像アンカー
72 点群アンカー

Claims (9)

  1. 現実空間を撮像した撮像画像に前記現実空間を3次元スキャンして得られた3次元点群データを重畳させる情報処理装置であって、プロセッサ及びメモリを備え、
    前記プロセッサは前記メモリと協働して、
    前記3次元点群データのセグメンテーションが前記撮像画像のセグメンテーションにマッチングするように前記3次元点群データを調整して、前記撮像画像に対応する第1の点群画像を生成し、
    前記撮像画像に少なくとも4つの画像選定点を設定し、
    前記第1の点群画像に、前記少なくとも4つの画像選定点に対応する少なくとも4つの点群選定点を設定し、
    前記画像選定点と前記点群選定点の対応関係に基づいて、前記撮像画像に適合する第2の点群画像を生成する、情報処理装置。
  2. 前記プロセッサは、前記撮像画像に前記第2の点群画像を重畳した画像を生成し、表示装置に表示する、
    請求項1に記載の情報処理装置。
  3. 前記プロセッサは、前記撮像画像から特徴点を検出し、検出した前記特徴点の中から前記画像選定点を設定する、
    請求項1又は2に記載の情報処理装置。
  4. 前記特徴点は、前記撮像画像を4分割した各区画から検出されたものである、
    請求項に記載の情報処理装置。
  5. 前記プロセッサは、地物の共通部分における撮像画像の特徴点の特徴量と、前記共通部分における3次元点群データの特徴点の特徴量との対応関係を学習済みである学習器を用いて、前記画像選定点に対応する前記点群選定点を設定する、
    請求項3又は4に記載の情報処理装置。
  6. 前記プロセッサは、
    前記撮像画像と前記第1の点群画像とを表示装置に表示し、
    表示された前記撮像画像に対する前記画像選定点をユーザに設定させ、
    表示された前記第1の点群画像に対して前記画像選定点に対応する前記点群選定点を前記ユーザに設定させる、
    請求項1又は2に記載の情報処理装置。
  7. 現実空間を撮像した撮像画像に前記現実空間を3次元スキャンして得られた3次元点群データを重畳させる情報処理装置であって、プロセッサ及びメモリを備え、
    前記プロセッサは前記メモリと協働して、
    前記撮像画像から特徴点を検出し、検出した前記特徴点の中から少なくとも4つの画像選定点を設定し、
    前記撮像画像の撮像位置及び撮像方向に対応する視点位置及び視点方向から前記3次元点群データを見た場合の点群画像である第1の点群画像に、地物の共通部分における撮像画像の特徴点の特徴量と前記共通部分における3次元点群データの特徴点の特徴量との対応関係を学習済みである学習器を用いて、前記少なくとも4つの画像選定点に対応する少なくとも4つの点群選定点を設定し、
    前記画像選定点と前記点群選定点の対応関係に基づいて、前記撮像画像に適合する第2の点群画像を生成する、情報処理装置。
  8. 情報処理装置によって、現実空間を撮像した撮像画像に前記現実空間を3次元スキャンして得られた3次元点群データを重畳させる情報処理方法であって、
    前記3次元点群データのセグメンテーションが前記撮像画像のセグメンテーションにマッチングするように記3次元点群データを調整して、前記撮像画像に対応する第1の点群画像を生成し、
    前記撮像画像に少なくとも4つの画像選定点を設定し、
    前記第1の点群画像に、前記少なくとも4つの画像選定点に対応する少なくとも4つの点群選定点を設定し、
    前記画像選定点と前記点群選定点の対応関係に基づいて、前記撮像画像に適合する第2の点群画像を生成する、情報処理方法。
  9. 情報処理装置によって、現実空間を撮像した撮像画像に前記現実空間を3次元スキャンして得られた3次元点群データを重畳させる情報処理方法であって、
    前記撮像画像から特徴点を検出し、検出した前記特徴点の中から少なくとも4つの画像選定点を設定し、
    前記撮像画像の撮像位置及び撮像方向に対応する視点位置及び視点方向から前記3次元点群データを見た場合の点群画像である第1の点群画像に、地物の共通部分における撮像画像の特徴点の特徴量と前記共通部分における3次元点群データの特徴点の特徴量との対応関係を学習済みである学習器を用いて、前記少なくとも4つの画像選定点に対応する少なくとも4つの点群選定点を設定し、
    前記画像選定点と前記点群選定点の対応関係に基づいて、前記撮像画像に適合する第2の点群画像を生成する、情報処理方法。
JP2021079100A 2021-05-07 2021-05-07 情報処理装置、及び、情報処理方法 Active JP6967816B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021079100A JP6967816B1 (ja) 2021-05-07 2021-05-07 情報処理装置、及び、情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021079100A JP6967816B1 (ja) 2021-05-07 2021-05-07 情報処理装置、及び、情報処理方法

Publications (2)

Publication Number Publication Date
JP6967816B1 true JP6967816B1 (ja) 2021-11-17
JP2022172833A JP2022172833A (ja) 2022-11-17

Family

ID=78509620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021079100A Active JP6967816B1 (ja) 2021-05-07 2021-05-07 情報処理装置、及び、情報処理方法

Country Status (1)

Country Link
JP (1) JP6967816B1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012057960A (ja) * 2010-09-06 2012-03-22 Topcon Corp 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム
JP2012063866A (ja) * 2010-09-14 2012-03-29 Topcon Corp 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム
WO2012117706A1 (ja) * 2011-03-01 2012-09-07 パナソニック株式会社 映像処理装置、映像処理方法、プログラム
JP2019212225A (ja) * 2018-06-08 2019-12-12 朝日航洋株式会社 端末装置および端末装置の制御方法
JP2020135679A (ja) * 2019-02-25 2020-08-31 富士通株式会社 データセット作成方法、データセット作成装置、及びデータセット作成プログラム
JP6863634B1 (ja) * 2020-05-27 2021-04-21 シンメトリー・ディメンションズ・インク モデル生成装置、学習器生成装置、モデル生成方法、及び、学習器生成方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012057960A (ja) * 2010-09-06 2012-03-22 Topcon Corp 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム
JP2012063866A (ja) * 2010-09-14 2012-03-29 Topcon Corp 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム
WO2012117706A1 (ja) * 2011-03-01 2012-09-07 パナソニック株式会社 映像処理装置、映像処理方法、プログラム
JP2019212225A (ja) * 2018-06-08 2019-12-12 朝日航洋株式会社 端末装置および端末装置の制御方法
JP2020135679A (ja) * 2019-02-25 2020-08-31 富士通株式会社 データセット作成方法、データセット作成装置、及びデータセット作成プログラム
JP6863634B1 (ja) * 2020-05-27 2021-04-21 シンメトリー・ディメンションズ・インク モデル生成装置、学習器生成装置、モデル生成方法、及び、学習器生成方法

Also Published As

Publication number Publication date
JP2022172833A (ja) 2022-11-17

Similar Documents

Publication Publication Date Title
US11854149B2 (en) Techniques for capturing and displaying partial motion in virtual or augmented reality scenes
US9760987B2 (en) Guiding method and information processing apparatus
US20180286098A1 (en) Annotation Transfer for Panoramic Image
US8487926B2 (en) Method and apparatus for generating 3D image using 2D photograph images
JP6658001B2 (ja) 位置推定装置、プログラム、位置推定方法
CN104904200A (zh) 使用多设备的环境的多维数据捕捉
KR101905580B1 (ko) 촬영 기능을 갖는 모바일 장치를 이용한 상황 재연 방법 및 시스템
US20170374256A1 (en) Method and apparatus for rolling shutter compensation
US20210090211A1 (en) Image processing method, non-transitory recording medium, image processing apparatus, and image processing system
US9549169B2 (en) Stereoscopic map display system
EP3633606A1 (en) Information processing device, information processing method, and program
WO2019093457A1 (ja) 情報処理装置、情報処理方法及びプログラム
US11449975B2 (en) Object count estimation apparatus, object count estimation method, and computer program product
US20170054959A1 (en) Information processing device, information processing method, and program
CN114185073A (zh) 一种位姿显示方法、装置及系统
JP6967816B1 (ja) 情報処理装置、及び、情報処理方法
CN113496503B (zh) 点云数据的生成及实时显示方法、装置、设备及介质
CN111492409A (zh) 用于增强现实远程协助的三维交互的装置和方法
JP2020071854A (ja) 画像処理装置、画像処理方法及びプログラム
JP6405539B2 (ja) 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法
JP2020042025A (ja) 経路案内のためのコンテンツ提供方法および装置
WO2024070654A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US11842444B2 (en) Visualization of camera location in a real-time synchronized 3D mesh
WO2024018726A1 (ja) プログラム、方法、システム、道路マップ、および道路マップの作成方法
JP2021068194A (ja) 情報処理装置、生成方法、及び生成プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210507

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211019

R150 Certificate of patent or registration of utility model

Ref document number: 6967816

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350