JP6293386B2 - データ処理装置、データ処理方法及びデータ処理プログラム - Google Patents

データ処理装置、データ処理方法及びデータ処理プログラム Download PDF

Info

Publication number
JP6293386B2
JP6293386B2 JP2017548475A JP2017548475A JP6293386B2 JP 6293386 B2 JP6293386 B2 JP 6293386B2 JP 2017548475 A JP2017548475 A JP 2017548475A JP 2017548475 A JP2017548475 A JP 2017548475A JP 6293386 B2 JP6293386 B2 JP 6293386B2
Authority
JP
Japan
Prior art keywords
image
unit
point
image feature
dimensional coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017548475A
Other languages
English (en)
Other versions
JPWO2017163384A1 (ja
Inventor
川浦 健央
健央 川浦
隆博 加島
隆博 加島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6293386B2 publication Critical patent/JP6293386B2/ja
Publication of JPWO2017163384A1 publication Critical patent/JPWO2017163384A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、画像処理技術に関する。
AR(Augmented Reality)表示システムは、被写体の3D(3 dimensional)形状データとテクスチャデータから被写体展開画像を生成し、被写体展開画像の画像特徴点を照査して、被写体を追跡する。
特許文献1には、画像入力部、展開図特徴表現部、データベース、データベース特徴表現部、照合部及び表示部で構成されるAR表示システムが開示されている。
画像入力部は、カメラ等で撮影して得られたRGB画像を入力する。
展開図特徴表現部は、画像入力部を介して入力した被写体の3Dモデルとテクスチャから展開画像を生成して画像特徴点を抽出して画像特徴量を算出する。
データベースは、予めさまざまな物体に対して任意の位置(座標、向き)から撮影した画像を蓄積する。
データベース特徴表現部は、データベースから画像を読み出して画像特徴点を抽出して局所記述子を算出する。
照合部は、展開図特徴表現部とデータベース特徴表現部で算出した画像特徴点の局所記述子を比較して最も類似するデータベース内の画像を特定し、撮影したときの物体に対するカメラの位置を求める。
表示部は、例えば、表示装置である。
特開2014−102746号公報
特許文献1のAR表示システムでは、事前にデータ量の大きい画像をデータベースに大量に蓄積する必要があるという課題がある。また、特許文献1のAR表示システムでは、3Dモデルとテクスチャから展開画像を高速に生成しなければならないという課題がある。
本発明は、上記のような課題を解決することを主な目的とし、事前に画像をデータベースに蓄積することなく、また、展開画像を生成することなく、AR表示を高速化することを主な目的とする。
本発明に係るデータ処理装置は、
物体の三次元形状が表される、それぞれに三次元座標が設定されている複数の点で構成される点群データを取得する点群データ取得部と、
前記点群データの前記複数の点の中から、前記物体の撮影画像に含まれる画像特徴点に相当する点を抽出し、抽出した点に設定されている三次元座標を前記画像特徴点に対応付ける対応付け部とを有する。
本発明では、撮影画像内の画像特徴点に相当する点の三次元座標を画像特徴点に対応付ける。このため、本発明によれば、画像特徴点の三次元座標のみを保持することで、データ量を著しく減らすことが出来る。
また、本発明では、保持する点群データのデータ量が少ないので、検索を高速に行うことができる。更に、本発明では、点群データで物体の三次元形状を扱うので、展開画像を生成する必要も事前にRGB画像をデータベースに蓄積する必要もなく、AR表示を高速化することができる。
実施の形態1に係るAR表示装置の機能構成例を示す図。 実施の形態1に係るAR表示装置の動作例を示すフローチャート図。 実施の形態2に係るAR表示装置の機能構成例を示す図。 実施の形態2に係るAR表示装置の動作例を示すフローチャート図。 実施の形態3に係るAR表示装置の機能構成例を示す図。 実施の形態3に係るAR表示装置の動作例を示すフローチャート図。 実施の形態1〜3に係るAR表示装置のハードウェア構成例を示す図。 実施の形態1に係る画像の例を示す図。 実施の形態1に係る画像にアノテーション画像を重畳した例を示す図。 実施の形態2に係る画像特徴点の例を示す図。
実施の形態1.
***構成の説明***
図1は、本実施の形態に係るAR表示装置1の機能構成例を示す。
また、図7は、本実施の形態に係るAR表示装置1のハードウェア構成例を示す。
なお、AR表示装置1は、データ処理装置の例である。また、AR表示装置1により行われる処理は、データ処理方法及びデータ処理プログラムの例に相当する。
まず、本実施の形態に係るAR表示装置1の概要を説明する。
本実施の形態に係るAR表示装置1は、点群データとアノテーション画像を取得する。
点群データは、被写体である物体の三次元形状が表されるデータである。点群データは、複数の点で構成される。点群データは、通常、数万の点の集合体である。点群データの各点には、三次元座標(以下、3D座標ともいう)が設定されている。
アノテーション画像は、物体の撮影画像に重畳される画像である。
図9は、図8に示す道路の撮影画像に、仮想的に地下の配管のアノテーション画像を重畳して得られるAR画像を示す。
図9に示す、配管の形状を示すグラフィックス50(図形)と、配管の属性(図9では、配管の寸法)を示すテキスト51がアノテーション画像である。
AR表示装置1は、例えば、マンホールを表す円柱のグラフィックス50を取得し、この円柱のグラフィックス50を画像中のマンホールの位置に表示する。また、AR表示装置1は、配管の寸法を表すテキスト51を取得し、取得したテキスト51を画像中の適切な位置に表示する。
このように、アノテーション画像のグラフィックス50及びテキスト51を表示するにあたって、AR表示装置1は、点群データの複数の点の中からいずれかの点を選択し、選択した点の三次元座標をアノテーション画像のグラフィックス50又はテキスト51に対応付ける。
次に、図7を参照して、AR表示装置1のハードウェア構成例について説明する。
図7に示すように、AR表示装置1は、CPU(Central Processing Unit)21、メモリ23、GPU(Graphics Processing Unit)25、フレームメモリ26、RADAC(Random Access Memory Digital−to−Analog Converter)27を備えるコンピュータである。
CPU21は、図1に示すアノテーション画像編集部6、ワールド座標設定部7及び透視投影部8を実現するプログラムを実行する。つまり、アノテーション画像編集部6、ワールド座標設定部7及び透視投影部8は、プログラムで実現される。
また、GPU25は、AR重畳部9を実現するプログラムを実行する。つまり、AR重畳部9はプログラムで実現される。GPU25は、AR重畳部9はプログラムとしての動作を行う際に、RAMDAC27を使用する。
アノテーション画像編集部6、ワールド座標設定部7及び透視投影部8を実現するプログラムと、AR重畳部9を実現するプログラムは、メモリ23に格納されている。CPU21が、メモリ23からアノテーション画像編集部6、ワールド座標設定部7及び透視投影部8を実現するプログラムを読み込んで、このプログラムを実行する。また、GPU25が、AR重畳部9を実現するプログラムを読み込んで、このプログラムを実行する。
フレームメモリ26は、アノテーション画像を格納する。
また、AR表示装置1は、3Dセンサ22、キーボード/マウス29、モニタ28に接続されている。
3Dセンサ22は、図1に示す画像入力部2、RGB画像生成部3及び点群データ生成部4を実現する。
キーボード/マウス29は、図1に示すアノテーション画像入力部5を実現する。
モニタ28は、表示部10を実現する。
次に、図1を参照して、AR表示装置1の機能構成例を説明する。
AR表示装置1は、アノテーション画像編集部6、ワールド座標設定部7、透視投影部8及びAR重畳部9で構成される。
アノテーション画像編集部6は、アノテーション画像入力部5からテキストや図形等のアノテーション画像を取得し、取得したアノテーション画像を編集する。
ワールド座標設定部7は、アノテーション画像の三次元座標を点群データ内の任意の点に設定する。
より具体的には、ワールド座標設定部7は、被写体の三次元形状が表される点群データを取得する。
また、ワールド座標設定部7は、点群データの複数の点の中からいずれかの点を選択し、選択した点に設定されている三次元画像をアノテーション画像に対応付ける。ワールド座標設定部7が選択する点(点群データの点)により、アノテーション画像の重畳位置が定義される。例えば、図9のテキスト51の矩形の左上の頂点のRGB画像(撮影画像ともいう)での位置と右上の頂点のRGB画像での位置を指定することで、テキスト51のRGB画像との重畳位置が定義される。ワールド座標設定部7は、AR表示装置1のオペレータからの指示に従い、点群データの複数の点の中から、テキスト51の矩形の左上の頂点のRGB画像での位置に対応する点と、テキスト51の矩形の右下の頂点のRGB画像での位置に対応する点とを選択する。
ワールド座標設定部7は、点群データ取得部及び対応付け部の例である。また、ワールド座標設定部7で行われる動作は、点群データ取得処理及び対応付け処理の例である。
透視投影部8は、3D座標上のアノテーション画像を二次元座標(以下、2D座標ともいう)に投射する。
AR重畳部9は、透視投影部8により2D座標に投射されたアノテーション画像をRGB画像に重畳する。
また、図1において、画像入力部2は、被写体の色合いと距離を同時に計測する。
RGB画像生成部3は、被写体の色合いからRGB画像を生成する。
点群データ生成部4は、被写体までの距離から点群データを生成する。
RGB画像と点群データでは、同じ被写体が同じ位置、同じ角度から捕捉されている。つまり、3Dセンサ22は、同じ被写体に対して並行してRGB画像の生成と点群データの生成を行う。
アノテーション画像入力部5は、キーボードやマウス等でテキストや図形等のアノテーション画像を入力する。
表示部10は、AR重畳部9の重畳結果を表示する。
前述したように、画像入力部2、RGB画像生成部3及び点群データ生成部4は、図7に示す3Dセンサ22で実現される。
また、アノテーション画像入力部5は、図7に示すキーボード/マウス29で実現される。
また、表示部10は、図7に示すモニタ28で実現される。
***動作の説明***
次に、図1に基づき、本実施の形態に係るAR表示装置1の動作を説明する。
画像入力部2は、被写体の色合いと距離の計測結果をRGB画像生成部3と点群データ生成部4に入力する。
RGB画像生成部3は、RGB画像を生成し、生成したRGB画像をAR重畳部9に入力する。
点群データ生成部4は、被写体の外形の3D座標の点群データを生成し、生成した点群データをワールド座標設定部7に入力する。
アノテーション画像入力部5は、テキストや図形等のアノテーション画像を生成し、生成したアノテーション画像をアノテーション画像編集部6に入力する。
アノテーション画像編集部6は、テキストや図形等のアノテーション画像を編集し、編集後のアノテーション画像をワールド座標設定部7に入力する。
ワールド座標設定部7は、アノテーション画像と点群データを取得する。そして、ワールド座標設定部7は、点群データの複数の点の中から任意の点を選択し、選択した点に設定されている3D座標をアノテーション画像に対応付けて3D座標のアノテーション画像を得る。更に、ワールド座標設定部7は、3D座標のアノテーション画像を透視投影部8に入力する。
透視投影部8は、3D座標のアノテーション画像を取得し、3D座標のアノテーション画像を2D座標に投射する。更に、透視投影部8は、2D座標に投射されたアノテーション画像をAR重畳部9に入力する。
AR重畳部9は、2D座標に投射されたアノテーション画像を取得し、2D座標に投射されたアノテーション画像をRGB画像に重畳する。更に、AR重畳部9は、重畳結果を表示部10に入力する。
表示部10は、AR重畳部9の重畳結果を、被写体に対するAR表示として表示する。
次に、本実施の形態に係るAR表示装置1の動作例を図2のフローチャートを参照して説明する。
画像入力(ステップS2)では、画像入力部2が被写体を撮影する。より具体的には、画像入力(ステップS2)では、3Dセンサ22が被写体を撮影する。
RGB画像生成(ステップS3)では、RGB画像生成部3が、RGB画像を生成する。より具体的には、RGB画像生成(ステップS3)では、被写体を3Dセンサ22内のCCD(Charge Coupled Device)イメージセンサ、あるいは、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等で、赤、緑、青といった色情報を持つRGB画像を生成する。
点群データ生成(ステップS4)では、点群データ生成部4が、点群データを生成する。より具体的には、点群データ生成(ステップS4)では、3Dセンサ22内の赤外線出力器から射出された赤外線が被写体で反射して赤外線受光器まで戻ってくる時間に基づき、3Dセンサを原点とした被写体の外形の3D座標の点の集合である点群データを生成する。
アノテーション画像入力(ステップS5)では、アノテーション画像入力部5が、アノテーション画像をアノテーション画像編集部6に入力する。
より具体的には、アノテーション画像入力(ステップS5)では、AR表示装置1のオペレータが、キーボードやマウス等の操作によりアノテーション画像をAR表示装置1に入力する。
アノテーション画像編集(ステップS6)では、アノテーション画像編集部6が、アノテーション画像内のテキスト及びグラフィックスの編集を行う。
ワールド座標設定(ステップS7)では、アノテーション画像に被写体の点群データの任意の点の3D座標を与える。
より具体的には、ワールド座標設定部7は、AR表示装置1のオペレータの指示に従って、点群データの複数の点のうちのいずれかの点を選択し、選択した点の3D座標を、アノテーション画像に対応付ける。
透視投影(ステップS8)では、透視投影部8が、3D座標のアノテーション画像を2D座標に投射する。
より具体的には、透視投影部8は、例えば、下記の式1に示す射影変換により、アノテーション画像の三次元座標である(X,Y,Z)を、投影像の座標(u,v)に変換する。式1において、[R|t]は、3Dセンサ22の位置である。また、「R」は3Dセンサ22の向き等を表す回転行列であり、「t」は3Dセンサ22の座標を表す並進ベクトルである。また、式1の「A」は3Dセンサ22の内部パラメータの固定値である。
Figure 0006293386
AR重畳(ステップS9)では、AR重畳部9が、RGB画像にアノテーション画像の投影像を重畳する。
表示(ステップS10)では、表示部10が、AR重畳(ステップS9)の重畳結果を表示する。
***実施の形態の効果の説明***
以上のように、本実施の形態によれば、被写体の3D座標である点群データにアノテーション画像をマッピングすることで、任意の3Dセンサの位置に追随したアノテーションの投影像をRGB画像に重畳したARを実現できる。
実施の形態2.
***構成の説明***
図3は、本実施の形態に係るAR編集装置15の機能構成例を示す。
本実施の形態に係るAR編集装置15も、データ処理装置の例である。また、本実施の形態に係るAR編集装置15により行われる処理も、データ処理方法及びデータ処理プログラムの例に相当する。
なお、AR編集装置15のハードウェア構成例は、実施の形態1に係るAR表示装置1と同様に、図7に示す通りである。
図3のAR編集装置15では、図1のAR表示装置1の構成から透視投影部8、AR重畳部9及び表示部10を削除している。
一方、図3のAR編集装置15では、図1のAR表示装置1の構成に、画像特徴点抽出部11、AR用データ出力部12及びAR用データ13が追加されている。
画像特徴点抽出部11、AR用データ出力部12は、プログラムにより実現され、このプログラムは、図7のCPU21により実行される。
画像特徴点抽出部11は、RGB画像を解析して、RGB画像の画像特徴点を抽出する。画像特徴点は、RGB画像の主に不連続点に存在する。図10の各点は、画像特徴点を示す。画像特徴点抽出部11は、例えば、Harris法、KTK法、Canny法、ゼロ交差点法、弛緩法、Hough変換、動的輪郭法、レベルセット法等により画像特徴点を抽出する。
AR用データ13は、画像特徴点のワールド座標系の3D座標が記録されたデータである。
AR用データ出力部12は、AR用データ13をAR編集装置15の外部に出力する。
図3において、画像入力部2、RGB画像生成部3、点群データ生成部4、アノテーション画像入力部5、アノテーション画像編集部6は、実施の形態1と同様であるため、説明を省略する。
本実施の形態では、ワールド座標設定部7は、実施の形態1と同様に、点群データの複数の点の中からいずれかの点を選択し、選択した点に設定されている三次元座標をアノテーション画像に対応付ける。更に、ワールド座標設定部7は、点群データの複数の点の中から画像特徴点に相当する点を抽出し、抽出した点に設定されている三次元座標を画像特徴点に対応付ける。
以下では、主に実施の形態1との違いを説明する。以下で説明していない事項は、実施の形態1と同じである。
***動作の説明***
次に、図3に基づき、本実施の形態に係るAR編集装置15の動作を説明する。
なお、図3の画像入力部2、RGB画像生成部3、点群データ生成部4、アノテーション画像入力部5、アノテーション画像編集部6の動作は図1と同じであるため、説明を省略する。
画像特徴点抽出部11は、RGB画像の画像特徴点を抽出し、抽出した画像特徴点をワールド座標設定部7に入力する。
ワールド座標設定部7は、実施の形態1と同様に、アノテーション画像編集部6からアノテーション画像を取得し、点群データ生成部4から点群データを取得する。そして、ワールド座標設定部7は、実施の形態1と同様に、点群データの複数の点の中からいずれかの点を選択し、選択した点に設定されている三次元座標をアノテーション画像に対応付ける。以下では、アノテーション画像に対応付けられた三次元座標を第1の三次元座標という。更に、ワールド座標設定部7は、画像特徴点抽出部11から画像特徴点を取得し、点群データの複数の点の中から、取得した画像特徴点に相当する点を抽出し、抽出した点に設定されている三次元座標を画像特徴点に対応付ける。以下では、画像特徴点に対応付けられた三次元座標を第2の三次元座標という。ワールド座標設定部7は、第1の三次元座標と第2の三次元座標をAR用データ13としてAR用データ出力部12に入力する。
AR用データ出力部12は、AR用データ13をAR編集装置15の外部に出力する。
次に、本実施の形態に係るAR編集装置15の動作例を図4のフローチャートを参照して説明する。
図4の画像入力(ステップS2)、RGB画像生成(ステップS3)、点群データ生成(ステップS4)、アノテーション画像入力(ステップS5)、アノテーション画像編集(ステップS6)は、図2に示したものと同じであるため、説明を省略する。
画像特徴点抽出(ステップS11)では、画像特徴点抽出部11がRGB画像から画像特徴点を抽出する。なお、画像特徴量は各画像特徴点の周辺画素の輝度(明るさ)の勾配により記述する。
ワールド座標設定(ステップS7)では、ワールド座標設定部7が、アノテーション画像と画像特徴点のワールド座標系の3D座標(第1の三次元座標と第2の三次元座標)を記録したAR用データ13を生成する。
AR用データ出力(ステップS12)では、AR用データ出力部12が、AR用データをAR編集装置15の外部に出力する。
***実施の形態の効果の説明***
以上のように、本実施の形態によれば、被写体のRGB画像から抽出した画像特徴点を3D座標である点群データにマッピングしたAR用データを、事前に画像をデータベースに蓄積することなく、また、展開画像を生成することなく、高速に生成することができる。
実施の形態3.
図5は、本実施の形態に係るAR表示装置100の機能構成例を示す。
本実施の形態に係るAR表示装置100も、データ処理装置の例である。また、本実施の形態に係るAR表示装置100により行われる処理も、データ処理方法及びデータ処理プログラムの例に相当する。
なお、本実施の形態に係るAR表示装置100のハードウェア構成例は、実施の形態1に係るAR表示装置1と同様に、図7に示す通りである。
図5のAR表示装置100では、図1のAR表示装置1の構成から点群データ生成部4、アノテーション画像入力部5、アノテーション画像編集部6、ワールド座標設定部7が削除されている。
一方、図5のAR表示装置100では、図1のAR表示装置1の構成に、画像特徴点抽出部11、位置推定部14及びAR用データ入力部16が追加されている。
画像特徴点抽出部11、位置推定部14は、プログラムにより実現され、このプログラムは、図7のCPU21により実行される。
また、AR用データ入力部16は、図7のキーボード/マウス29により実現される。
画像特徴点抽出部11は、図3に示したものと同様であり、RGB画像を解析して、RGB画像の画像特徴点を抽出する。なお、画像特徴点抽出部11により行われる動作は、画像特徴点抽出処理の例である。
AR用データ入力部16は、AR用データ13を取得する。AR用データ13は、実施の形態2で説明したものと同じである。
位置推定部14は、画像特徴点のワールド座標系上の3D座標とRGB画像内の2D座標(画像特徴点の3D座標の射影変換により得られる画像特徴点の2D座標)から撮影装置である3Dセンサ22の位置を推定する。つまり、位置推定部14は、画像特徴点の3D座標と、画像特徴点のRGB画像での2D座標とに基づき、3Dセンサ22がRGB画像を撮影した際の位置を推定する。なお、位置推定部14により行われる動作は、位置推定処理の例である。
以下では、主に実施の形態1との違いを説明する。以下で説明していない事項は、実施の形態1と同じである。
***動作の説明***
次に、図5に基づき、本実施の形態に係るAR表示装置100の動作を説明する。
なお、図5の画像入力部2、RGB画像生成部3、透視投影部8、AR重畳部9、表示部10の動作は図1と同じであるため、説明を省略する。また、画像特徴点抽出部11の動作は図3と同じであるため、説明を省略する。
AR用データ入力部16は、AR用データ13を透視投影部8と位置推定部14に入力する。
位置推定部14は、画像特徴点のワールド座標系上の3D座標とRGB画像内の2D座標から3Dセンサ22の位置を推定し、推定した3Dセンサ22位置を透視投影部8に入力する。
次に、本実施の形態に係るAR表示装置1の動作例を図6のフローチャートを参照して説明する。
図6の画像入力(ステップS2)、RGB画像生成(ステップS3)、透視投影(ステップS8)、AR重畳(ステップS9)、表示(ステップS10)は、図2に示したものと同じであるため、説明を省略する。
また、画像特徴点抽出(ステップS11)の処理は図4と同じであるため、説明を省略する。
AR用データ入力(ステップS16)では、AR用データ入力部16が、AR用データ13を透視投影部8に入力する。
位置推定(ステップS14)では、位置推定部14が、RGB画像における3Dセンサ22の位置を推定する。
具体的には、位置推定部14は、三次元座標(X,Y,Z)の画像特徴点に該当するRGB画像上の座標xを画像特徴量のマッチングで検出する。画像特徴点の三次元座標(X,Y,Z)を式1でRGB画像に再投影した座標をx^とすれば、再投影の誤差Eはxとx^のユークリッド距離d(x、x^)となる(なお、xの右斜め上に「^」がある表記は、式2のxの真上に「^」がある表記と同じである)。再投影の誤差Eは、式2を用いて求めることができる。位置推定部14は、i個の画像特徴点で誤差Eを最小にする3Dセンサ22の位置、つまり、式1の[R|t]を推定し、推定した[R|t]の値を現在の3Dセンサ22の位置とする.
Figure 0006293386
また、位置推定部14は、推定した3Dセンサ22の位置を透視投影部8に入力する。
***実施の形態の効果の説明***
以上のように、本実施の形態によれば、3Dセンサの位置の推定に被写体のRGB画像から抽出した画像特徴点を3D座標データである点群データにマッピングしたAR用データを用いているため、3Dセンサの位置の推定に3Dモデルの展開画像と、事前にデータベースに蓄積した3Dセンサの各位置のRGB画像をマッチングするする必要が無いので両画像が不要である。
以上、本発明の実施の形態について説明したが、これらの実施の形態のうち、2つ以上を組み合わせて実施しても構わない。
あるいは、これらの実施の形態のうち、1つを部分的に実施しても構わない。
あるいは、これらの実施の形態のうち、2つ以上を部分的に組み合わせて実施しても構わない。
なお、本発明は、これらの実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。
***ハードウェア構成の説明***
最後に、ハードウェア構成の補足説明を行う。
図7に示すCPU21及びGPU25は、プロセッシングを行うIC(Integrated Circuit)である。
図7に示すメモリ23及びフレームメモリ26は、RAM(Random Access Memory)、フラッシュメモリ、HDD(Hard Disk Drive)等である。
また、メモリ23には、OS(Operating System)も記憶されている。
そして、OSの少なくとも一部がCPU21により実行される。
CPU21はOSの少なくとも一部を実行しながら、アノテーション画像編集部6、ワールド座標設定部7、透視投影部8、画像特徴点抽出部11、AR用データ出力部12、位置推定部14の機能を実現するプログラムを実行する。
CPU21がOSを実行することで、タスク管理、メモリ管理、ファイル管理、通信制御等が行われる。
また、アノテーション画像編集部6、ワールド座標設定部7、透視投影部8、画像特徴点抽出部11、AR用データ出力部12、位置推定部14の処理の結果を示す情報やデータや信号値や変数値が、メモリ23、又は、CPU21内のレジスタ又はキャッシュメモリに記憶される。
また、アノテーション画像編集部6、ワールド座標設定部7、透視投影部8、画像特徴点抽出部11、AR用データ出力部12、位置推定部14及びAR重畳部9の機能を実現するプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD等の可搬記憶媒体に記憶されてもよい。
また、アノテーション画像編集部6、ワールド座標設定部7、透視投影部8、画像特徴点抽出部11、AR用データ出力部12、位置推定部14及びAR重畳部9の「部」を、「回路」又は「工程」又は「手順」又は「処理」に読み替えてもよい。
また、AR表示装置1、AR編集装置15及びAR表示装置100は、それぞれ、ロジックIC(Integrated Circuit)、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)といった電子回路により実現されてもよい。
なお、プロセッサ及び上記の電子回路を総称してプロセッシングサーキットリーともいう。
1 AR表示装置、2 画像入力部、3 RGB画像生成部、4 点群データ生成部、5 アノテーション画像入力部、6 アノテーション画像編集部、7 ワールド座標設定部、8 透視投影部、9 AR重畳部、10 表示部、11 画像特徴点抽出部、12 AR用データ出力部、13 AR用データ、14 位置推定部、15 AR編集装置、16 AR用データ入力部、21 CPU、22 3Dセンサ、23 メモリ、25 GPU、26 フレームメモリ、27 RAMDAC、28 モニタ、29 キーボード/マウス、50 グラフィックス、51 テキスト、100 AR表示装置。

Claims (8)

  1. 物体の三次元形状が表される、それぞれに三次元座標が設定されている複数の点で構成される点群データを取得する点群データ取得部と、
    前記点群データの前記複数の点の中からいずれかの点を選択し、選択した点に設定されている三次元座標を、前記物体の撮影画像に重畳されるアノテーション画像に対応付ける対応付け部とを有するデータ処理装置。
  2. 前記対応付け部は、
    前記点群データの前記複数の点の中から、前記物体の撮影画像に含まれる画像特徴点に相当する点を抽出し、抽出した点に設定されている三次元座標を前記画像特徴点に対応付ける請求項1に記載のデータ処理装置。
  3. 前記データ処理装置は、更に、
    物体の撮影画像を解析して、前記物体の撮影画像に含まれる画像特徴点を抽出する画像特徴点抽出部と、
    前記画像特徴点の三次元座標と、前記画像特徴点の前記撮影画像での二次元座標とに基づき、前記撮影画像を撮影した撮影装置の前記撮影画像を撮影した際の位置を推定する位置推定部とを有する請求項1に記載のデータ処理装置。
  4. 前記位置推定部は、
    前記画像特徴点の三次元座標と、前記画像特徴点の三次元座標の射影変換により得られる、前記画像特徴点の前記撮影画像での二次元座標とに基づき、前記撮影装置の前記撮影画像を撮影した際の位置を推定する請求項3に記載のデータ処理装置。
  5. コンピュータが、物体の三次元形状が表される、それぞれに三次元座標が設定されている複数の点で構成される点群データを取得し、
    前記コンピュータが、前記点群データの前記複数の点の中からいずれかの点を選択し、選択した点に設定されている三次元座標を、前記物体の撮影画像に重畳されるアノテーション画像に対応付けるデータ処理方法。
  6. 前記コンピュータが、更に、物体の撮影画像を解析して、前記物体の撮影画像に含まれる画像特徴点を抽出し、
    前記コンピュータが、更に、前記画像特徴点の三次元座標と、前記画像特徴点の前記撮影画像での二次元座標とに基づき、前記撮影画像を撮影した撮影装置の前記撮影画像を撮影した際の位置を推定する請求項5に記載のデータ処理方法。
  7. 物体の三次元形状が表される、それぞれに三次元座標が設定されている複数の点で構成される点群データを取得する点群データ取得処理と、
    前記点群データの前記複数の点の中からいずれかの点を選択し、選択した点に設定されている三次元座標を、前記物体の撮影画像に重畳されるアノテーション画像に対応付ける対応付け処理とをコンピュータに実行させるデータ処理プログラム。
  8. 前記データ処理プログラムは、更に、
    物体の撮影画像を解析して、前記物体の撮影画像に含まれる画像特徴点を抽出する画像特徴点抽出処理と、
    前記画像特徴点の三次元座標と、前記画像特徴点の前記撮影画像での二次元座標とに基づき、前記撮影画像を撮影した撮影装置の前記撮影画像を撮影した際の位置を推定する位置推定処理とをコンピュータに実行させる請求項7に記載のデータ処理プログラム。
JP2017548475A 2016-03-24 2016-03-24 データ処理装置、データ処理方法及びデータ処理プログラム Active JP6293386B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/059480 WO2017163384A1 (ja) 2016-03-24 2016-03-24 データ処理装置、データ処理方法及びデータ処理プログラム

Publications (2)

Publication Number Publication Date
JP6293386B2 true JP6293386B2 (ja) 2018-03-14
JPWO2017163384A1 JPWO2017163384A1 (ja) 2018-04-05

Family

ID=59900048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017548475A Active JP6293386B2 (ja) 2016-03-24 2016-03-24 データ処理装置、データ処理方法及びデータ処理プログラム

Country Status (3)

Country Link
JP (1) JP6293386B2 (ja)
TW (1) TW201734954A (ja)
WO (1) WO2017163384A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210043002A1 (en) * 2018-09-11 2021-02-11 Tencent Technology (Shenzhen) Company Limited Object annotation method and apparatus, movement control method and apparatus, device, and storage medium

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6884018B6 (ja) * 2017-03-30 2021-06-30 株式会社パスコ 道路施設管理支援装置及び道路施設管理支援プログラム
TWI642903B (zh) * 2017-10-13 2018-12-01 緯創資通股份有限公司 用於頭戴式顯示裝置的定位方法、定位器以及定位系統
CN107918955A (zh) * 2017-11-15 2018-04-17 百度在线网络技术(北京)有限公司 增强现实方法和装置
WO2019098318A1 (ja) * 2017-11-20 2019-05-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元点群データ生成方法、位置推定方法、三次元点群データ生成装置、および、位置推定装置
JP6849634B2 (ja) * 2018-06-08 2021-03-24 朝日航洋株式会社 端末装置および端末装置の制御方法
EP3864663A4 (en) * 2018-11-20 2022-09-28 Arterys Inc. CLOUD-BASED RADIOLOGICAL COMMENTATION AND WORKSPACE SHARING
JP6874197B1 (ja) * 2020-08-27 2021-05-19 パシフィックコンサルタンツ株式会社 設備管理プログラム、設備管理方法、および設備管理システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013225245A (ja) * 2012-04-23 2013-10-31 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2014032443A (ja) * 2012-08-01 2014-02-20 Yahoo Japan Corp 画像処理装置、画像処理方法及び画像処理プログラム
WO2014162852A1 (ja) * 2013-04-04 2014-10-09 ソニー株式会社 画像処理装置、画像処理方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013225245A (ja) * 2012-04-23 2013-10-31 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2014032443A (ja) * 2012-08-01 2014-02-20 Yahoo Japan Corp 画像処理装置、画像処理方法及び画像処理プログラム
WO2014162852A1 (ja) * 2013-04-04 2014-10-09 ソニー株式会社 画像処理装置、画像処理方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
内山寛之,外5名: ""市街地構造物への拡張現実型画像情報提示手法"", 電子情報通信学会技術研究報告, vol. Vol.111,No.500, JPN6017041807, 22 March 2012 (2012-03-22), pages p.141−146 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210043002A1 (en) * 2018-09-11 2021-02-11 Tencent Technology (Shenzhen) Company Limited Object annotation method and apparatus, movement control method and apparatus, device, and storage medium
US11893785B2 (en) * 2018-09-11 2024-02-06 Tencent Technology (Shenzhen) Company Limited Object annotation method and apparatus, movement control method and apparatus, device, and storage medium

Also Published As

Publication number Publication date
WO2017163384A1 (ja) 2017-09-28
TW201734954A (zh) 2017-10-01
JPWO2017163384A1 (ja) 2018-04-05

Similar Documents

Publication Publication Date Title
JP6293386B2 (ja) データ処理装置、データ処理方法及びデータ処理プログラム
CN111783820B (zh) 图像标注方法和装置
JP5094663B2 (ja) 位置姿勢推定用モデル生成装置、位置姿勢算出装置、画像処理装置及びそれらの方法
CN104715479A (zh) 基于增强虚拟的场景复现检测方法
WO2021258579A1 (zh) 图像拼接方法、装置、计算机设备和存储介质
CN109934873B (zh) 标注图像获取方法、装置及设备
CN112712487B (zh) 一种场景视频融合方法、系统、电子设备及存储介质
JP2010287174A (ja) 家具シミュレーション方法、装置、プログラム、記録媒体
WO2021017589A1 (zh) 一种基于梯度域映射的图像融合方法
JP2018026064A (ja) 画像処理装置、画像処理方法、システム
JP6762570B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2011134012A (ja) 画像処理装置、その画像処理方法及びプログラム
US20220130105A1 (en) Image display method, display control device, and recording medium
US20230394834A1 (en) Method, system and computer readable media for object detection coverage estimation
CN113379815A (zh) 基于rgb相机与激光传感器的三维重建方法、装置及服务器
Gupta et al. Augmented reality system using lidar point cloud data for displaying dimensional information of objects on mobile phones
JP2010205095A (ja) 3次元物体認識装置、並びに3次元物体認識プログラム及びこれが記録されたコンピュータ読み取り可能な記録媒体
JP7003617B2 (ja) 推定装置、推定方法、及び推定プログラム
JP2006113832A (ja) ステレオ画像処理装置およびプログラム
WO2019080257A1 (zh) 电子装置、车祸现场全景图像展示方法和存储介质
JP6341540B2 (ja) 情報端末装置、方法及びプログラム
JP6962242B2 (ja) 情報処理装置,重畳表示プログラム,重畳表示方法
CN112652056A (zh) 一种3d信息展示方法及装置
JP2002135807A (ja) 3次元入力のためのキャリブレーション方法および装置
WO2021176877A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180213

R150 Certificate of patent or registration of utility model

Ref document number: 6293386

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250