JP2016071645A - オブジェクト3次元モデル復元方法、装置およびプログラム - Google Patents

オブジェクト3次元モデル復元方法、装置およびプログラム Download PDF

Info

Publication number
JP2016071645A
JP2016071645A JP2014200597A JP2014200597A JP2016071645A JP 2016071645 A JP2016071645 A JP 2016071645A JP 2014200597 A JP2014200597 A JP 2014200597A JP 2014200597 A JP2014200597 A JP 2014200597A JP 2016071645 A JP2016071645 A JP 2016071645A
Authority
JP
Japan
Prior art keywords
model
depth data
dimensional
dimensional surface
surface model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014200597A
Other languages
English (en)
Inventor
浩嗣 三功
Hiroshi Sanko
浩嗣 三功
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2014200597A priority Critical patent/JP2016071645A/ja
Publication of JP2016071645A publication Critical patent/JP2016071645A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Generation (AREA)

Abstract

【課題】RGB-Dカメラ1セットで取得される情報から、オブジェクトの正面領域だけでなく、側面領域も含めた広範囲の3次元モデルを復元する。【解決手段】オブジェクト領域抽出部101は、深度マップの奥行データに基づいてオブジェクト領域を抽出する。3次元表面モデル生成部105は、オブジェクトの3次元表面モデルをその奥行データに基づいて生成する。拡張範囲設定部106は、3次元表面モデルにオブジェクトの厚み相当の拡張範囲を設定する。3次元表面モデル拡張部107は、3次元表面モデルを内包するボクセル空間内の各ボクセルが前記拡張範囲内であるか否かを判定する。ポリゴンモデル生成部108は、拡張範囲内のボクセルに基づいてオブジェクトの3次元ポリゴンモデルを生成する。レンダリング部109は、3次元ポリゴンモデルを仮想視点でレンダリングして自由視点映像を出力する。【選択図】図1

Description

本発明は、オブジェクトの3次元モデルを復元する方法、装置およびプログラムに係り、特に、自由視点映像の合成に好適なオブジェクトの3次元モデル復元方法、装置およびプログラムに関する。
サッカーや野球等のチームスポーツ競技を対象とした自由視点(仮想視点)映像の生成では、人物に代表される各オブジェクトの厳密な3次元形状よりも、複数人物間の位置関係や、移動に伴う軌跡の提示が重要である。そのため、各オブジェクトの次元世界座標系における立ち位置を大まかに推定し、撮影カメラ映像から抽出されるテクスチャをマッピングするという、ビルボード方式に基づく合成が有効であった。
一方、ゴルフやダンスのような個人スポーツ競技においては、チームスポーツ競技に比べて、姿勢やフォームに関する情報がより重要であり、自由視点映像を生成する際にも、カメラが存在しない視点・アングルからの見え方の変化を細かく再現することが求められる。したがって、ビルボード方式では再現できない、視点・アングルの移動に伴う姿勢やフォームの細かな変化を滑らか再現することが重要であり、厳密な3次元形状のモデリングが必要となる。
人物等のオブジェクトの3次元モデルを復元する手法として、特許文献1には、複数カメラ映像を用いたステレオマッチングや視体積交差法が提案されている。また、近年ではMicrosoft Kinectのように安価な距離画像センサが急速に普及しており、特許文献2および非特許文献1には、映像・奥行データを活用した3次元モデル生成手法が提案されている。
特開2010-152771号公報 特開2014-067372号公報
Shahram Izadi et al., "KinectFusion: Real-time 3D Reconstruction and Interaction Using a Moving Depth Camera*", UIST'11, pp 559-568, Oct. 2011.
特許文献1には、複数のカメラ映像を用いることで、比較的安定して高精度な3次元モデルが復元可能であることが示されている。しかしながら、複数カメラを全周囲に配置する必要があるため、撮影コストやモデル復元の手間が大きいという課題があった。
非特許文献1では、奥行データを用いた3次元モデル復元手法が提案されているが、対象オブジェクトが静止している状態で、奥行センサを持ち運んで対象オブジェクトを取り囲むように撮影する必要があるため、人物のような動的に変化する対象オブジェクトの3次元モデルの復元には適さないという課題があった。
特許文献2には、1セットの固定された距離画像センサから取得される映像・奥行データを用いて、リアルタイムに自由視点映像を合成する手法が提案されている。しかしながら、撮影視点から一定範囲を超えて仮想視点を設定した場合、対象オブジェクトの側面情報が欠落してしまうため、個人スポーツ競技における姿勢やフォームを確認するという目的には適さないという課題があった。
本発明の目的は、上記の技術課題を解決し、映像および奥行データを同時に取得可能なRGB-Dカメラ1セットで取得される情報から、オブジェクトの正面領域だけでなく、側面領域も含めた広範囲の3次元モデルを復元できるオブジェクトの3次元モデル復元方法、装置およびプログラムを提供することにある。
上記の目的を達成するために、本発明は、オブジェクトを撮影したカメラ画像およびその深度マップに基づいて3次元モデルを復元するオブジェクト3次元モデル復元装置において、以下の構成を具備した点に特徴がある。
(1) 深度マップの奥行データに基づいてオブジェクト領域を抽出する手段と、オブジェクトの3次元表面モデルをその奥行データに基づいて生成する手段と、3次元表面モデルにオブジェクトの厚み相当の拡張範囲を設定する手段と、3次元表面モデルを内包するボクセル空間内の各ボクセルが拡張範囲内であるか否かを判定する手段と、拡張範囲内のボクセルに基づいてオブジェクトの3次元ポリゴンモデルを生成する手段とを具備した。
(2) 3次元表面モデルを生成する手段は、オブジェクト領域をカメラ画像にマッピングしてオブジェクト画像を抽出する手段と、オブジェクト画像のエッジ領域をカメラ画像の色情報に基づくエッジ抽出により補間する手段と、補間後のオブジェクト画像に基づいて奥行データを補間する手段とを具備し、補完後の奥行データに基づいて3次元表面モデルを生成するようにした。
(3) 3次元ポリゴンモデルを仮想視点でレンダリングして自由視点映像を出力する手段をさらに具備し、3次元ポリゴンモデルの各ポリゴンの法線ベクトルと仮想視点の方向とを比較して自由視点映像に陰影処理を施すようにした。
本発明によれば、以下のような効果が達成される。
(1) オブジェクトを撮影したカメラ画像およびその深度マップを出力するRGB-Dカメラ1セットのみを用いて、従来技術では捉えきれなかった側面等の領域の3次元形状が復元可能となる。
(2) オブジェクト画像のエッジ領域をカメラ画像に基づいて補間し、補間後のオブジェクト画像に基づいて奥行データを補間し、補間後の奥行データに基づいてオブジェクト領域の三次元モデルが生成されるので、画像レンダリングに十分な奥行推定精度を確保し、画像合成によるアーティファクトを低減できるようになる。
(3) ゴルフ等の個人スポーツ競技における自由視点映像の合成を行う際に、従来のビルボード方式では再現することができなかった、細かな視点・アングルの移動に応じた見え方の変化を滑らかに再現可能となる。
(4) ポリゴンモデルの各ポリゴンの法線ベクトルと仮想視点の方向とを比較して自由視点映像に陰影処理を施すようにすれば、側面等の奥行部分を陰影により強調表示できるようになる。
オブジェクト3次元モデル復元装置の機能ブロック図である。 距離画像カメラから出力されるカメラ画像[同図(a)]および当該カメラ画像に対応する深度マップ[同図(b)]の一例を示した図である。 エッジ補間前後の各オブジェクト画像の一例を示した図である。 奥行データがデプス補間された深度マップを示した図である。 奥行データとその3次元ポリゴンモデルの例を示した図である。 ポリゴンモデルの作成方法を示した図である。 拡張範囲の設定例を示した図である。 3次元表面モデルの拡張方法を説明するための図である。 オブジェクトのRGBカラー画像およびその深度マップから生成されたポリゴンモデル(その1)を示した図である。 オブジェクトのRGBカラー画像およびその深度マップから生成されたポリゴンモデル(その2)を示した図である。
以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の一実施形態に係るオブジェクトの3次元モデル復元装置の主要部の構成を示した図であり、3次元モデル復元部1および距離画像(RGB-D)カメラ2により構成される。
距離画像カメラ2において、撮像部201は、CCDまたはCMOSなどの画像センサ203からオブジェクトのカメラ画像(RGBカラー画像)を取得する。深度マップ作成部202は、光源204から照射されたLED光またはレーザ光の反射光を画像センサ203で検知し、到達時間を画素ごとに計測することにより、各画素と奥行データとを対応付ける深度マップを作成する。図2は、距離画像カメラ2から出力されるカメラ画像[同図(a)]およびその深度マップ[同図(b)]の一例を示している。
3次元モデル復元部1において、オブジェクト領域抽出部101は、前記深度マップに基づいてオブジェクト領域を抽出する。本実施形態では、深度マップの奥行データに閾値を設定し、奥行データが閾値以下の画素領域がオブジェクト領域(ここでは、人物領域)と判定され、それ以外の画素領域は背景領域と判定される。
オブジェクト画像抽出部102は、カメラ画像から前記オブジェクト領域に対応するオブジェクト画像(ここでは、人物画像)を抽出する。図3(a)は、カメラ画像[図2(a)]から前記オブジェクト領域に基づいて抽出されたオブジェクト画像を示している。
オブジェクト画像補間部103は、オブジェクト画像の輪郭部分をカメラ画像に基づいて補間する。本実施形態では、オブジェクト画像の輪郭近傍を一定の画素数だけ膨らませる形で探索し、色情報に基づくエッジ検出を行って、検出されたエッジの輪郭を正確なオブジェクト画像として再現する。
図3(b)は、エッジ補間後のオブジェクト画像を示した図であり、図3(a)の補間前と比較すれば、オブジェクト画像のエッジ部分、特に右手部分や胴体左側部分の画素が補間されて、より正確なオブジェクト画像が再現されていることが判る。
奥行データ補間部104は、エッジ補間後のオブジェクト画像に基づいて奥行データを補間する。本実施形態では、補間後のオブジェクト画像に対応する深度マップの領域を特定し、当該領域内でオブジェクト領域に対応する値を示さない奥行データを、その近傍でオブジェクト領域に対応する値を示す奥行データに基づいて補間(デプス補間)する。
図4は、デプス補間処理後の奥行データによる深度マップを示した図であり、オブジェクト領域の、特に破線で囲った腕や胴体のエッジ部分、頭頂部分および右手部分において奥行データが補間され、より正確な奥行データが再現されていることが判る。
3次元表面モデル生成部105は、補間後の奥行データに基づいてオブジェクト領域の3次元ポリゴンモデルを生成する。本実施形態では、図5に示したように、オブジェクト領域に対応する補間済み奥行データ[同図(a)]を対象に各画素の隣接関係に基づいて3次元ポリゴンモデル化を行うことで3次元ポリゴンモデル[同図(b)]が作成される。
例えば、図6に示したように、カメラ画像の各2×2=4の画素ブロックから選択される3つの画素の組み合わせごとに、各画素の3次元座標をカメラ画像上での二次元座標および奥行データから算出し、各3次元座標を頂点座標とする三角形のポリゴンを生成する。そして、補完後の深度マップから生成された全てのポリゴンを連結してポリゴンモデルを生成する。このとき、頂点座標間の距離が閾値以上のパターンはノイズと見なされて排除される。
このように、本実施形態では、オブジェクト画像のエッジ領域をカメラ画像に基づいて補間し、補間後のオブジェクト画像に基づいて奥行データを補間し、補間後の奥行データに基づいてオブジェクト領域の三次元モデルが生成されるので、画像レンダリングに十分な奥行推定精度を確保し、画像合成によるアーティファクトを低減できる。
拡張範囲設定部106は、前記オブジェクトの3次元表面モデルを、当該オブジェクトの厚み相当だけ奥行方向に拡張する範囲を設定する。図7は、拡張範囲の設定例を示した図であり、ここでは、オブジェクトとして人物を想定し、その胴体部分の断面図を参照して説明する。
本実施形態では、3次元表面モデルの正面から深さ方向に所定の厚み相当の範囲が拡張範囲に設定される。オブジェクトが人物であれば、体の厚みが30cm相当と仮定し、表面から深さ方向に30cm以内が拡張範囲とされる。なお、輪郭部に近付くにつれて厚みが漸減するように拡張範囲を設定すれば、より自然な厚みを再現できているようになる。また、オブジェクトが人物であって、その頭部、胴体部、腕部、脚部等を識別できるならば、それらの部位ごと異なる厚み相当の拡張範囲を設定するようにしても良い。
3次元表面モデル拡張部107は、図8に示したように、前記3次元表面モデルを内包するボクセル空間を構築し、当該ボクセル空間内の各ボクセルを、前記拡張された3次元表面モデルの奥行データに投影することにより、各ボクセルが拡張範囲であるか否かを判断する。
本実施形態では、ボクセル空間の各ボクセル(X,Y,Z,1)と、当該ボクセルが中心射影行列に基づいて投影された深度マップの各画素(S,T)とが予め対応付けられており、次式(1)の対応関係が与えられ、拡張範囲内とされた全てのボクセルが前記拡張範囲であるか否かが判定される。
ポリゴンモデル生成部108は、拡張範囲内とされた各ボクセルデータの等値面を、例えばMarching cubes (マーチングキューブ法)によりポリゴンデータに変換してポリゴンモデルを生成する。
レンダリング部109は、前記ポリゴンモデルを別途に与えられる仮想視点でレンダリングして自由視点映像を出力する。この際、各ポリゴンの法線ベクトルと仮想視点の方向との角度差を求め、角度差の大きなポリゴン面に対して陰影処理を施すようにしても良い
このようなオブジェクト3次元モデル復元部1は、汎用のコンピュータやサーバに各機能を実現するアプリケーション(プログラム)を実装することで構成できる。あるいはアプリケーションの一部がハードウェア化またはROM化された専用機や単能機としても構成できる。
図9,10はいずれも、オブジェクトのRGBカラー画像[同図(a)]およびその深度マップ[同図(b)]から生成されたポリゴンモデルを比較した図であり、いずれも同図(c)は、3次元表面モデルを奥行方向に拡張しない場合のポリゴンモデルであり、カメラと異なる自由視点(仮想視点)では側部のポリゴンが欠落している。
これに対して、同図(d)は、3次元表面モデルを奥行方向へ拡張した場合のポリゴンモデルの表示結果であり、カメラと異なる自由視点でも側部にポリゴンが存在し、オブジェクトの厚みを正確に表現できていることが判る。また、各ポリゴンの法線ベクトルと仮想視点の方向との角度差に応じた陰影処理を施したことにより、奥行が陰影により強調されていることが判る。
本実施形態によれば、オブジェクトを撮影したカメラ画像およびその深度マップを出力するRGB-Dカメラ1セットのみを用いて、従来技術では捉えきれなかった側面等の領域の3次元形状が復元可能となる。
また、本実施形態によれば、ゴルフ等の個人スポーツ競技における自由視点映像の合成を行う際に、従来のビルボード方式では再現することができなかった、細かな視点・アングルの移動に応じた見え方の変化を滑らかに再現可能となる。
さらに、本実施形態によれば、ポリゴンモデルの各ポリゴンの法線ベクトルと仮想視点の方向とを比較して自由視点映像に陰影処理を施すようにしたので、側面等の奥行部分を陰影により強調表示できるようになる。
1…3次元モデル復元部,2…距離画像カメラ,101…オブジェクト領域抽出部,102…オブジェクト画像抽出部,103…オブジェクト画像補間部,104…奥行データ補間部,105…3次元表面モデル生成部,106…拡張範囲設定部,107…3次元表面モデル拡張部,108…ポリゴンモデル生成部,レンダリング部109

Claims (7)

  1. オブジェクトを撮影したカメラ画像およびその深度マップに基づいて3次元モデルを復元するオブジェクト3次元モデル復元装置において、
    深度マップの奥行データに基づいてオブジェクトの領域を抽出する手段と、
    前記オブジェクトの3次元表面モデルをその奥行データに基づいて生成する手段と、
    前記3次元表面モデルにオブジェクトの厚み相当の拡張範囲を設定する手段と、
    前記3次元表面モデルを内包するボクセル空間内の各ボクセルが前記拡張範囲内であるか否かを判定する手段と、
    前記拡張範囲内のボクセルに基づいてオブジェクトの3次元ポリゴンモデルを生成する手段とを具備したことを特徴とするオブジェクト3次元モデル復元装置。
  2. 前記3次元表面モデルを生成する手段は、
    前記オブジェクトの領域をカメラ画像にマッピングしてオブジェクト画像を抽出する手段と、
    前記オブジェクト画像のエッジ領域をカメラ画像の色情報に基づくエッジ抽出により補間する手段と、
    補間後のオブジェクト画像に基づいて奥行データを補間する手段とを具備し、
    前記補完後の奥行データに基づいて3次元表面モデルを生成することを特徴とする請求項1に記載のオブジェクト3次元モデル復元装置。
  3. 前記奥行データを補間する手段は、補間後のオブジェクト画像に対応する値を示さない奥行データを、その近傍の奥行データにより補間することを特徴とする請求項2に記載のオブジェクト3次元モデル復元装置。
  4. 前記3次元ポリゴンモデルを仮想視点でレンダリングして自由視点映像を出力する手段をさらに具備したことを特徴とする請求項1ないし3のいずれかに記載のオブジェクト3次元モデル復元装置。
  5. 前記自由視点映像を出力する手段は、前記3次元ポリゴンモデルの各ポリゴンの法線ベクトルと仮想視点の方向とを比較して自由視点映像に陰影処理を施すことを特徴とする請求項4に記載のオブジェクト3次元モデル復元装置。
  6. オブジェクトを撮影したカメラ画像およびその深度マップに基づいてコンピュータが3次元モデルを復元するオブジェクト3次元モデル復元方法において、
    深度マップの奥行データに基づいてオブジェクトの領域を抽出する手順と、
    前記オブジェクトの3次元表面モデルをその奥行データに基づいて生成する手順と、
    前記3次元表面モデルにオブジェクトの厚み相当の拡張範囲を設定する手順と、
    前記3次元表面モデルを内包するボクセル空間内の各ボクセルが前記拡張範囲内であるか否かに基づいてオブジェクトの3次元ポリゴンモデルを生成する手順とを含むことを特徴とするオブジェクト3次元モデル復元方法。
  7. オブジェクトを撮影したカメラ画像およびその深度マップに基づいて3次元モデルを復元するオブジェクト3次元モデル復元プログラムにおいて、
    深度マップの奥行データに基づいてオブジェクトの領域を抽出する手順と、
    前記オブジェクトの3次元表面モデルをその奥行データに基づいて生成する手順と、
    前記3次元表面モデルにオブジェクトの厚み相当の拡張範囲を設定する手順と、
    前記3次元表面モデルを内包するボクセル空間内の各ボクセルが前記拡張範囲内であるか否かに基づいてオブジェクトの3次元ポリゴンモデルを生成する手順とを、コンピュータに実行させるオブジェクト3次元モデル復元プログラム。
JP2014200597A 2014-09-30 2014-09-30 オブジェクト3次元モデル復元方法、装置およびプログラム Pending JP2016071645A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014200597A JP2016071645A (ja) 2014-09-30 2014-09-30 オブジェクト3次元モデル復元方法、装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014200597A JP2016071645A (ja) 2014-09-30 2014-09-30 オブジェクト3次元モデル復元方法、装置およびプログラム

Publications (1)

Publication Number Publication Date
JP2016071645A true JP2016071645A (ja) 2016-05-09

Family

ID=55867011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014200597A Pending JP2016071645A (ja) 2014-09-30 2014-09-30 オブジェクト3次元モデル復元方法、装置およびプログラム

Country Status (1)

Country Link
JP (1) JP2016071645A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107967715A (zh) * 2016-10-19 2018-04-27 富士施乐株式会社 数据处理装置、三维物体创建系统以及数据处理方法
WO2019142794A1 (ja) * 2018-01-22 2019-07-25 シャープ株式会社 画像生成装置、表示処理装置、画像再生システム、画像生成方法、制御プログラム、及び記録媒体
US10672196B2 (en) 2017-08-31 2020-06-02 Canon Kabushiki Kaisha Information processing apparatus and method of controlling an information processing apparatus that generate, for display, a composed image in which a computer graphics object is overland on a portion of the image
WO2021166690A1 (ja) 2020-02-19 2021-08-26 ソニーグループ株式会社 情報処理装置および方法、並びにプログラム
WO2022176722A1 (ja) 2021-02-18 2022-08-25 キヤノン株式会社 情報処理装置、情報処理方法、及び、プログラム
WO2022176552A1 (ja) 2021-02-18 2022-08-25 キヤノン株式会社 情報処理装置、情報処理方法、及び、プログラム
US11983814B2 (en) 2021-01-21 2024-05-14 Canon Kabushiki Kaisha Image processing apparatus that generates model of object, image processing method, and storage medium storing program thereof

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107967715A (zh) * 2016-10-19 2018-04-27 富士施乐株式会社 数据处理装置、三维物体创建系统以及数据处理方法
CN107967715B (zh) * 2016-10-19 2023-11-07 富士胶片商业创新有限公司 数据处理装置、三维物体创建系统以及数据处理方法
US10672196B2 (en) 2017-08-31 2020-06-02 Canon Kabushiki Kaisha Information processing apparatus and method of controlling an information processing apparatus that generate, for display, a composed image in which a computer graphics object is overland on a portion of the image
WO2019142794A1 (ja) * 2018-01-22 2019-07-25 シャープ株式会社 画像生成装置、表示処理装置、画像再生システム、画像生成方法、制御プログラム、及び記録媒体
WO2021166690A1 (ja) 2020-02-19 2021-08-26 ソニーグループ株式会社 情報処理装置および方法、並びにプログラム
US11983814B2 (en) 2021-01-21 2024-05-14 Canon Kabushiki Kaisha Image processing apparatus that generates model of object, image processing method, and storage medium storing program thereof
WO2022176722A1 (ja) 2021-02-18 2022-08-25 キヤノン株式会社 情報処理装置、情報処理方法、及び、プログラム
WO2022176552A1 (ja) 2021-02-18 2022-08-25 キヤノン株式会社 情報処理装置、情報処理方法、及び、プログラム
KR20230130688A (ko) 2021-02-18 2023-09-12 캐논 가부시끼가이샤 정보 처리장치, 정보 처리방법, 및, 기억매체
KR20230130687A (ko) 2021-02-18 2023-09-12 캐논 가부시끼가이샤 정보 처리장치, 정보 처리방법, 및, 기억매체

Similar Documents

Publication Publication Date Title
JP6425780B1 (ja) 画像処理システム、画像処理装置、画像処理方法及びプログラム
US9594950B2 (en) Depth mapping with enhanced resolution
JP2016071645A (ja) オブジェクト3次元モデル復元方法、装置およびプログラム
JP5818773B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR101640039B1 (ko) 영상 처리 장치 및 방법
JP6857980B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2019534510A5 (ja)
JP2013235537A (ja) 画像作成装置、画像作成プログラム、及び記録媒体
US8526734B2 (en) Three-dimensional background removal for vision system
JP2006249618A (ja) 仮想試着装置
JP5795250B2 (ja) 被写体姿勢推定装置および映像描画装置
JP2015114905A (ja) 情報処理装置、情報処理方法およびプログラム
CN109407824B (zh) 人体模型的同步运动方法与装置
JP2019032599A5 (ja)
KR20190062102A (ko) 비디오 영상기반 2d/3d ar 실감체험 방법 및 장치
CN108734772A (zh) 基于Kinect fusion的高精度深度图像获取方法
JP6555755B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6362401B2 (ja) 画像処理装置及び画像処理装置の制御方法
WO2019150431A1 (ja) 情報処理装置
WO2020026677A1 (ja) 検出装置、処理装置、検出方法、及び処理プログラム
WO2018173205A1 (ja) 情報処理システム、その制御方法、及びプログラム
JP2023153534A (ja) 画像処理装置、画像処理方法、およびプログラム
JP7520539B2 (ja) 画像処理装置、画像処理方法、及びプログラム
EP4050400B1 (en) Display apparatuses and methods incorporating image masking
JP2023026244A (ja) 画像生成装置および画像生成方法、プログラム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160823