JP6293386B2 - データ処理装置、データ処理方法及びデータ処理プログラム - Google Patents
データ処理装置、データ処理方法及びデータ処理プログラム Download PDFInfo
- Publication number
- JP6293386B2 JP6293386B2 JP2017548475A JP2017548475A JP6293386B2 JP 6293386 B2 JP6293386 B2 JP 6293386B2 JP 2017548475 A JP2017548475 A JP 2017548475A JP 2017548475 A JP2017548475 A JP 2017548475A JP 6293386 B2 JP6293386 B2 JP 6293386B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- point
- image feature
- dimensional coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 27
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000000605 extraction Methods 0.000 claims description 22
- 239000000284 extract Substances 0.000 claims description 12
- 238000000034 method Methods 0.000 claims description 11
- 230000009466 transformation Effects 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 claims description 2
- 238000011161 development Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Description
画像入力部は、カメラ等で撮影して得られたRGB画像を入力する。
展開図特徴表現部は、画像入力部を介して入力した被写体の3Dモデルとテクスチャから展開画像を生成して画像特徴点を抽出して画像特徴量を算出する。
データベースは、予めさまざまな物体に対して任意の位置(座標、向き)から撮影した画像を蓄積する。
データベース特徴表現部は、データベースから画像を読み出して画像特徴点を抽出して局所記述子を算出する。
照合部は、展開図特徴表現部とデータベース特徴表現部で算出した画像特徴点の局所記述子を比較して最も類似するデータベース内の画像を特定し、撮影したときの物体に対するカメラの位置を求める。
表示部は、例えば、表示装置である。
物体の三次元形状が表される、それぞれに三次元座標が設定されている複数の点で構成される点群データを取得する点群データ取得部と、
前記点群データの前記複数の点の中から、前記物体の撮影画像に含まれる画像特徴点に相当する点を抽出し、抽出した点に設定されている三次元座標を前記画像特徴点に対応付ける対応付け部とを有する。
また、本発明では、保持する点群データのデータ量が少ないので、検索を高速に行うことができる。更に、本発明では、点群データで物体の三次元形状を扱うので、展開画像を生成する必要も事前にRGB画像をデータベースに蓄積する必要もなく、AR表示を高速化することができる。
***構成の説明***
図1は、本実施の形態に係るAR表示装置1の機能構成例を示す。
また、図7は、本実施の形態に係るAR表示装置1のハードウェア構成例を示す。
なお、AR表示装置1は、データ処理装置の例である。また、AR表示装置1により行われる処理は、データ処理方法及びデータ処理プログラムの例に相当する。
まず、本実施の形態に係るAR表示装置1の概要を説明する。
点群データは、被写体である物体の三次元形状が表されるデータである。点群データは、複数の点で構成される。点群データは、通常、数万の点の集合体である。点群データの各点には、三次元座標(以下、3D座標ともいう)が設定されている。
アノテーション画像は、物体の撮影画像に重畳される画像である。
図9は、図8に示す道路の撮影画像に、仮想的に地下の配管のアノテーション画像を重畳して得られるAR画像を示す。
図9に示す、配管の形状を示すグラフィックス50(図形)と、配管の属性(図9では、配管の寸法)を示すテキスト51がアノテーション画像である。
AR表示装置1は、例えば、マンホールを表す円柱のグラフィックス50を取得し、この円柱のグラフィックス50を画像中のマンホールの位置に表示する。また、AR表示装置1は、配管の寸法を表すテキスト51を取得し、取得したテキスト51を画像中の適切な位置に表示する。
このように、アノテーション画像のグラフィックス50及びテキスト51を表示するにあたって、AR表示装置1は、点群データの複数の点の中からいずれかの点を選択し、選択した点の三次元座標をアノテーション画像のグラフィックス50又はテキスト51に対応付ける。
CPU21は、図1に示すアノテーション画像編集部6、ワールド座標設定部7及び透視投影部8を実現するプログラムを実行する。つまり、アノテーション画像編集部6、ワールド座標設定部7及び透視投影部8は、プログラムで実現される。
また、GPU25は、AR重畳部9を実現するプログラムを実行する。つまり、AR重畳部9はプログラムで実現される。GPU25は、AR重畳部9はプログラムとしての動作を行う際に、RAMDAC27を使用する。
アノテーション画像編集部6、ワールド座標設定部7及び透視投影部8を実現するプログラムと、AR重畳部9を実現するプログラムは、メモリ23に格納されている。CPU21が、メモリ23からアノテーション画像編集部6、ワールド座標設定部7及び透視投影部8を実現するプログラムを読み込んで、このプログラムを実行する。また、GPU25が、AR重畳部9を実現するプログラムを読み込んで、このプログラムを実行する。
フレームメモリ26は、アノテーション画像を格納する。
3Dセンサ22は、図1に示す画像入力部2、RGB画像生成部3及び点群データ生成部4を実現する。
キーボード/マウス29は、図1に示すアノテーション画像入力部5を実現する。
モニタ28は、表示部10を実現する。
アノテーション画像編集部6は、アノテーション画像入力部5からテキストや図形等のアノテーション画像を取得し、取得したアノテーション画像を編集する。
より具体的には、ワールド座標設定部7は、被写体の三次元形状が表される点群データを取得する。
また、ワールド座標設定部7は、点群データの複数の点の中からいずれかの点を選択し、選択した点に設定されている三次元画像をアノテーション画像に対応付ける。ワールド座標設定部7が選択する点(点群データの点)により、アノテーション画像の重畳位置が定義される。例えば、図9のテキスト51の矩形の左上の頂点のRGB画像(撮影画像ともいう)での位置と右上の頂点のRGB画像での位置を指定することで、テキスト51のRGB画像との重畳位置が定義される。ワールド座標設定部7は、AR表示装置1のオペレータからの指示に従い、点群データの複数の点の中から、テキスト51の矩形の左上の頂点のRGB画像での位置に対応する点と、テキスト51の矩形の右下の頂点のRGB画像での位置に対応する点とを選択する。
ワールド座標設定部7は、点群データ取得部及び対応付け部の例である。また、ワールド座標設定部7で行われる動作は、点群データ取得処理及び対応付け処理の例である。
RGB画像生成部3は、被写体の色合いからRGB画像を生成する。
点群データ生成部4は、被写体までの距離から点群データを生成する。
RGB画像と点群データでは、同じ被写体が同じ位置、同じ角度から捕捉されている。つまり、3Dセンサ22は、同じ被写体に対して並行してRGB画像の生成と点群データの生成を行う。
アノテーション画像入力部5は、キーボードやマウス等でテキストや図形等のアノテーション画像を入力する。
表示部10は、AR重畳部9の重畳結果を表示する。
前述したように、画像入力部2、RGB画像生成部3及び点群データ生成部4は、図7に示す3Dセンサ22で実現される。
また、アノテーション画像入力部5は、図7に示すキーボード/マウス29で実現される。
また、表示部10は、図7に示すモニタ28で実現される。
次に、図1に基づき、本実施の形態に係るAR表示装置1の動作を説明する。
RGB画像生成部3は、RGB画像を生成し、生成したRGB画像をAR重畳部9に入力する。
点群データ生成部4は、被写体の外形の3D座標の点群データを生成し、生成した点群データをワールド座標設定部7に入力する。
アノテーション画像入力部5は、テキストや図形等のアノテーション画像を生成し、生成したアノテーション画像をアノテーション画像編集部6に入力する。
アノテーション画像編集部6は、テキストや図形等のアノテーション画像を編集し、編集後のアノテーション画像をワールド座標設定部7に入力する。
ワールド座標設定部7は、アノテーション画像と点群データを取得する。そして、ワールド座標設定部7は、点群データの複数の点の中から任意の点を選択し、選択した点に設定されている3D座標をアノテーション画像に対応付けて3D座標のアノテーション画像を得る。更に、ワールド座標設定部7は、3D座標のアノテーション画像を透視投影部8に入力する。
透視投影部8は、3D座標のアノテーション画像を取得し、3D座標のアノテーション画像を2D座標に投射する。更に、透視投影部8は、2D座標に投射されたアノテーション画像をAR重畳部9に入力する。
AR重畳部9は、2D座標に投射されたアノテーション画像を取得し、2D座標に投射されたアノテーション画像をRGB画像に重畳する。更に、AR重畳部9は、重畳結果を表示部10に入力する。
表示部10は、AR重畳部9の重畳結果を、被写体に対するAR表示として表示する。
より具体的には、アノテーション画像入力(ステップS5)では、AR表示装置1のオペレータが、キーボードやマウス等の操作によりアノテーション画像をAR表示装置1に入力する。
より具体的には、ワールド座標設定部7は、AR表示装置1のオペレータの指示に従って、点群データの複数の点のうちのいずれかの点を選択し、選択した点の3D座標を、アノテーション画像に対応付ける。
より具体的には、透視投影部8は、例えば、下記の式1に示す射影変換により、アノテーション画像の三次元座標である(X,Y,Z)を、投影像の座標(u,v)に変換する。式1において、[R|t]は、3Dセンサ22の位置である。また、「R」は3Dセンサ22の向き等を表す回転行列であり、「t」は3Dセンサ22の座標を表す並進ベクトルである。また、式1の「A」は3Dセンサ22の内部パラメータの固定値である。
以上のように、本実施の形態によれば、被写体の3D座標である点群データにアノテーション画像をマッピングすることで、任意の3Dセンサの位置に追随したアノテーションの投影像をRGB画像に重畳したARを実現できる。
***構成の説明***
図3は、本実施の形態に係るAR編集装置15の機能構成例を示す。
本実施の形態に係るAR編集装置15も、データ処理装置の例である。また、本実施の形態に係るAR編集装置15により行われる処理も、データ処理方法及びデータ処理プログラムの例に相当する。
なお、AR編集装置15のハードウェア構成例は、実施の形態1に係るAR表示装置1と同様に、図7に示す通りである。
一方、図3のAR編集装置15では、図1のAR表示装置1の構成に、画像特徴点抽出部11、AR用データ出力部12及びAR用データ13が追加されている。
画像特徴点抽出部11、AR用データ出力部12は、プログラムにより実現され、このプログラムは、図7のCPU21により実行される。
AR用データ13は、画像特徴点のワールド座標系の3D座標が記録されたデータである。
AR用データ出力部12は、AR用データ13をAR編集装置15の外部に出力する。
図3において、画像入力部2、RGB画像生成部3、点群データ生成部4、アノテーション画像入力部5、アノテーション画像編集部6は、実施の形態1と同様であるため、説明を省略する。
本実施の形態では、ワールド座標設定部7は、実施の形態1と同様に、点群データの複数の点の中からいずれかの点を選択し、選択した点に設定されている三次元座標をアノテーション画像に対応付ける。更に、ワールド座標設定部7は、点群データの複数の点の中から画像特徴点に相当する点を抽出し、抽出した点に設定されている三次元座標を画像特徴点に対応付ける。
次に、図3に基づき、本実施の形態に係るAR編集装置15の動作を説明する。
なお、図3の画像入力部2、RGB画像生成部3、点群データ生成部4、アノテーション画像入力部5、アノテーション画像編集部6の動作は図1と同じであるため、説明を省略する。
以上のように、本実施の形態によれば、被写体のRGB画像から抽出した画像特徴点を3D座標である点群データにマッピングしたAR用データを、事前に画像をデータベースに蓄積することなく、また、展開画像を生成することなく、高速に生成することができる。
図5は、本実施の形態に係るAR表示装置100の機能構成例を示す。
本実施の形態に係るAR表示装置100も、データ処理装置の例である。また、本実施の形態に係るAR表示装置100により行われる処理も、データ処理方法及びデータ処理プログラムの例に相当する。
なお、本実施の形態に係るAR表示装置100のハードウェア構成例は、実施の形態1に係るAR表示装置1と同様に、図7に示す通りである。
一方、図5のAR表示装置100では、図1のAR表示装置1の構成に、画像特徴点抽出部11、位置推定部14及びAR用データ入力部16が追加されている。
画像特徴点抽出部11、位置推定部14は、プログラムにより実現され、このプログラムは、図7のCPU21により実行される。
また、AR用データ入力部16は、図7のキーボード/マウス29により実現される。
AR用データ入力部16は、AR用データ13を取得する。AR用データ13は、実施の形態2で説明したものと同じである。
位置推定部14は、画像特徴点のワールド座標系上の3D座標とRGB画像内の2D座標(画像特徴点の3D座標の射影変換により得られる画像特徴点の2D座標)から撮影装置である3Dセンサ22の位置を推定する。つまり、位置推定部14は、画像特徴点の3D座標と、画像特徴点のRGB画像での2D座標とに基づき、3Dセンサ22がRGB画像を撮影した際の位置を推定する。なお、位置推定部14により行われる動作は、位置推定処理の例である。
次に、図5に基づき、本実施の形態に係るAR表示装置100の動作を説明する。
なお、図5の画像入力部2、RGB画像生成部3、透視投影部8、AR重畳部9、表示部10の動作は図1と同じであるため、説明を省略する。また、画像特徴点抽出部11の動作は図3と同じであるため、説明を省略する。
位置推定部14は、画像特徴点のワールド座標系上の3D座標とRGB画像内の2D座標から3Dセンサ22の位置を推定し、推定した3Dセンサ22位置を透視投影部8に入力する。
また、画像特徴点抽出(ステップS11)の処理は図4と同じであるため、説明を省略する。
具体的には、位置推定部14は、三次元座標(X,Y,Z)の画像特徴点に該当するRGB画像上の座標xを画像特徴量のマッチングで検出する。画像特徴点の三次元座標(X,Y,Z)を式1でRGB画像に再投影した座標をx^とすれば、再投影の誤差Eはxとx^のユークリッド距離d(x、x^)となる(なお、xの右斜め上に「^」がある表記は、式2のxの真上に「^」がある表記と同じである)。再投影の誤差Eは、式2を用いて求めることができる。位置推定部14は、i個の画像特徴点で誤差Eを最小にする3Dセンサ22の位置、つまり、式1の[R|t]を推定し、推定した[R|t]の値を現在の3Dセンサ22の位置とする.
以上のように、本実施の形態によれば、3Dセンサの位置の推定に被写体のRGB画像から抽出した画像特徴点を3D座標データである点群データにマッピングしたAR用データを用いているため、3Dセンサの位置の推定に3Dモデルの展開画像と、事前にデータベースに蓄積した3Dセンサの各位置のRGB画像をマッチングするする必要が無いので両画像が不要である。
あるいは、これらの実施の形態のうち、1つを部分的に実施しても構わない。
あるいは、これらの実施の形態のうち、2つ以上を部分的に組み合わせて実施しても構わない。
なお、本発明は、これらの実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。
***ハードウェア構成の説明***
最後に、ハードウェア構成の補足説明を行う。
図7に示すCPU21及びGPU25は、プロセッシングを行うIC(Integrated Circuit)である。
図7に示すメモリ23及びフレームメモリ26は、RAM(Random Access Memory)、フラッシュメモリ、HDD(Hard Disk Drive)等である。
また、メモリ23には、OS(Operating System)も記憶されている。
そして、OSの少なくとも一部がCPU21により実行される。
CPU21はOSの少なくとも一部を実行しながら、アノテーション画像編集部6、ワールド座標設定部7、透視投影部8、画像特徴点抽出部11、AR用データ出力部12、位置推定部14の機能を実現するプログラムを実行する。
CPU21がOSを実行することで、タスク管理、メモリ管理、ファイル管理、通信制御等が行われる。
また、アノテーション画像編集部6、ワールド座標設定部7、透視投影部8、画像特徴点抽出部11、AR用データ出力部12、位置推定部14の処理の結果を示す情報やデータや信号値や変数値が、メモリ23、又は、CPU21内のレジスタ又はキャッシュメモリに記憶される。
また、アノテーション画像編集部6、ワールド座標設定部7、透視投影部8、画像特徴点抽出部11、AR用データ出力部12、位置推定部14及びAR重畳部9の機能を実現するプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD等の可搬記憶媒体に記憶されてもよい。
また、AR表示装置1、AR編集装置15及びAR表示装置100は、それぞれ、ロジックIC(Integrated Circuit)、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)といった電子回路により実現されてもよい。
なお、プロセッサ及び上記の電子回路を総称してプロセッシングサーキットリーともいう。
Claims (8)
- 物体の三次元形状が表される、それぞれに三次元座標が設定されている複数の点で構成される点群データを取得する点群データ取得部と、
前記点群データの前記複数の点の中からいずれかの点を選択し、選択した点に設定されている三次元座標を、前記物体の撮影画像に重畳されるアノテーション画像に対応付ける対応付け部とを有するデータ処理装置。 - 前記対応付け部は、
前記点群データの前記複数の点の中から、前記物体の撮影画像に含まれる画像特徴点に相当する点を抽出し、抽出した点に設定されている三次元座標を前記画像特徴点に対応付ける請求項1に記載のデータ処理装置。 - 前記データ処理装置は、更に、
物体の撮影画像を解析して、前記物体の撮影画像に含まれる画像特徴点を抽出する画像特徴点抽出部と、
前記画像特徴点の三次元座標と、前記画像特徴点の前記撮影画像での二次元座標とに基づき、前記撮影画像を撮影した撮影装置の前記撮影画像を撮影した際の位置を推定する位置推定部とを有する請求項1に記載のデータ処理装置。 - 前記位置推定部は、
前記画像特徴点の三次元座標と、前記画像特徴点の三次元座標の射影変換により得られる、前記画像特徴点の前記撮影画像での二次元座標とに基づき、前記撮影装置の前記撮影画像を撮影した際の位置を推定する請求項3に記載のデータ処理装置。 - コンピュータが、物体の三次元形状が表される、それぞれに三次元座標が設定されている複数の点で構成される点群データを取得し、
前記コンピュータが、前記点群データの前記複数の点の中からいずれかの点を選択し、選択した点に設定されている三次元座標を、前記物体の撮影画像に重畳されるアノテーション画像に対応付けるデータ処理方法。 - 前記コンピュータが、更に、物体の撮影画像を解析して、前記物体の撮影画像に含まれる画像特徴点を抽出し、
前記コンピュータが、更に、前記画像特徴点の三次元座標と、前記画像特徴点の前記撮影画像での二次元座標とに基づき、前記撮影画像を撮影した撮影装置の前記撮影画像を撮影した際の位置を推定する請求項5に記載のデータ処理方法。 - 物体の三次元形状が表される、それぞれに三次元座標が設定されている複数の点で構成される点群データを取得する点群データ取得処理と、
前記点群データの前記複数の点の中からいずれかの点を選択し、選択した点に設定されている三次元座標を、前記物体の撮影画像に重畳されるアノテーション画像に対応付ける対応付け処理とをコンピュータに実行させるデータ処理プログラム。 - 前記データ処理プログラムは、更に、
物体の撮影画像を解析して、前記物体の撮影画像に含まれる画像特徴点を抽出する画像特徴点抽出処理と、
前記画像特徴点の三次元座標と、前記画像特徴点の前記撮影画像での二次元座標とに基づき、前記撮影画像を撮影した撮影装置の前記撮影画像を撮影した際の位置を推定する位置推定処理とをコンピュータに実行させる請求項7に記載のデータ処理プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/059480 WO2017163384A1 (ja) | 2016-03-24 | 2016-03-24 | データ処理装置、データ処理方法及びデータ処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6293386B2 true JP6293386B2 (ja) | 2018-03-14 |
JPWO2017163384A1 JPWO2017163384A1 (ja) | 2018-04-05 |
Family
ID=59900048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017548475A Active JP6293386B2 (ja) | 2016-03-24 | 2016-03-24 | データ処理装置、データ処理方法及びデータ処理プログラム |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6293386B2 (ja) |
TW (1) | TW201734954A (ja) |
WO (1) | WO2017163384A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210043002A1 (en) * | 2018-09-11 | 2021-02-11 | Tencent Technology (Shenzhen) Company Limited | Object annotation method and apparatus, movement control method and apparatus, device, and storage medium |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6884018B6 (ja) * | 2017-03-30 | 2021-06-30 | 株式会社パスコ | 道路施設管理支援装置及び道路施設管理支援プログラム |
TWI642903B (zh) * | 2017-10-13 | 2018-12-01 | 緯創資通股份有限公司 | 用於頭戴式顯示裝置的定位方法、定位器以及定位系統 |
CN107918955A (zh) * | 2017-11-15 | 2018-04-17 | 百度在线网络技术(北京)有限公司 | 增强现实方法和装置 |
WO2019098318A1 (ja) * | 2017-11-20 | 2019-05-23 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 三次元点群データ生成方法、位置推定方法、三次元点群データ生成装置、および、位置推定装置 |
JP6849634B2 (ja) * | 2018-06-08 | 2021-03-24 | 朝日航洋株式会社 | 端末装置および端末装置の制御方法 |
EP3864663A4 (en) * | 2018-11-20 | 2022-09-28 | Arterys Inc. | CLOUD-BASED RADIOLOGICAL COMMENTATION AND WORKSPACE SHARING |
JP6874197B1 (ja) * | 2020-08-27 | 2021-05-19 | パシフィックコンサルタンツ株式会社 | 設備管理プログラム、設備管理方法、および設備管理システム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013225245A (ja) * | 2012-04-23 | 2013-10-31 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
JP2014032443A (ja) * | 2012-08-01 | 2014-02-20 | Yahoo Japan Corp | 画像処理装置、画像処理方法及び画像処理プログラム |
WO2014162852A1 (ja) * | 2013-04-04 | 2014-10-09 | ソニー株式会社 | 画像処理装置、画像処理方法およびプログラム |
-
2016
- 2016-03-24 WO PCT/JP2016/059480 patent/WO2017163384A1/ja active Application Filing
- 2016-03-24 JP JP2017548475A patent/JP6293386B2/ja active Active
- 2016-06-04 TW TW105117710A patent/TW201734954A/zh unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013225245A (ja) * | 2012-04-23 | 2013-10-31 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
JP2014032443A (ja) * | 2012-08-01 | 2014-02-20 | Yahoo Japan Corp | 画像処理装置、画像処理方法及び画像処理プログラム |
WO2014162852A1 (ja) * | 2013-04-04 | 2014-10-09 | ソニー株式会社 | 画像処理装置、画像処理方法およびプログラム |
Non-Patent Citations (1)
Title |
---|
内山寛之,外5名: ""市街地構造物への拡張現実型画像情報提示手法"", 電子情報通信学会技術研究報告, vol. Vol.111,No.500, JPN6017041807, 22 March 2012 (2012-03-22), pages p.141−146 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210043002A1 (en) * | 2018-09-11 | 2021-02-11 | Tencent Technology (Shenzhen) Company Limited | Object annotation method and apparatus, movement control method and apparatus, device, and storage medium |
US11893785B2 (en) * | 2018-09-11 | 2024-02-06 | Tencent Technology (Shenzhen) Company Limited | Object annotation method and apparatus, movement control method and apparatus, device, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
WO2017163384A1 (ja) | 2017-09-28 |
TW201734954A (zh) | 2017-10-01 |
JPWO2017163384A1 (ja) | 2018-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6293386B2 (ja) | データ処理装置、データ処理方法及びデータ処理プログラム | |
CN111783820B (zh) | 图像标注方法和装置 | |
JP5094663B2 (ja) | 位置姿勢推定用モデル生成装置、位置姿勢算出装置、画像処理装置及びそれらの方法 | |
CN104715479A (zh) | 基于增强虚拟的场景复现检测方法 | |
WO2021258579A1 (zh) | 图像拼接方法、装置、计算机设备和存储介质 | |
CN109934873B (zh) | 标注图像获取方法、装置及设备 | |
CN112712487B (zh) | 一种场景视频融合方法、系统、电子设备及存储介质 | |
JP2010287174A (ja) | 家具シミュレーション方法、装置、プログラム、記録媒体 | |
WO2021017589A1 (zh) | 一种基于梯度域映射的图像融合方法 | |
JP2018026064A (ja) | 画像処理装置、画像処理方法、システム | |
JP6762570B2 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
JP2011134012A (ja) | 画像処理装置、その画像処理方法及びプログラム | |
US20220130105A1 (en) | Image display method, display control device, and recording medium | |
US20230394834A1 (en) | Method, system and computer readable media for object detection coverage estimation | |
CN113379815A (zh) | 基于rgb相机与激光传感器的三维重建方法、装置及服务器 | |
Gupta et al. | Augmented reality system using lidar point cloud data for displaying dimensional information of objects on mobile phones | |
JP2010205095A (ja) | 3次元物体認識装置、並びに3次元物体認識プログラム及びこれが記録されたコンピュータ読み取り可能な記録媒体 | |
JP7003617B2 (ja) | 推定装置、推定方法、及び推定プログラム | |
JP2006113832A (ja) | ステレオ画像処理装置およびプログラム | |
WO2019080257A1 (zh) | 电子装置、车祸现场全景图像展示方法和存储介质 | |
JP6341540B2 (ja) | 情報端末装置、方法及びプログラム | |
JP6962242B2 (ja) | 情報処理装置,重畳表示プログラム,重畳表示方法 | |
CN112652056A (zh) | 一种3d信息展示方法及装置 | |
JP2002135807A (ja) | 3次元入力のためのキャリブレーション方法および装置 | |
WO2021176877A1 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6293386 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |