JP7394566B2 - 画像処理装置、画像処理方法、および画像処理プログラム - Google Patents
画像処理装置、画像処理方法、および画像処理プログラム Download PDFInfo
- Publication number
- JP7394566B2 JP7394566B2 JP2019167872A JP2019167872A JP7394566B2 JP 7394566 B2 JP7394566 B2 JP 7394566B2 JP 2019167872 A JP2019167872 A JP 2019167872A JP 2019167872 A JP2019167872 A JP 2019167872A JP 7394566 B2 JP7394566 B2 JP 7394566B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- viewpoint
- camera
- subject
- key frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 64
- 238000003672 processing method Methods 0.000 title claims description 11
- 238000000034 method Methods 0.000 claims description 46
- 238000000605 extraction Methods 0.000 claims description 16
- 239000000284 extract Substances 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 14
- 239000002131 composite material Substances 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 5
- 238000013500 data storage Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Description
ここで、XRとは、AR(拡張現実)、VR(仮想現実)、MR(複合現実)などの一連の3D技術を意味する。
前記撮影画像と撮影位置とを関連付けて保存する手段と、
前記視点位置近傍の3つの撮影位置であって、各撮影位置を頂点とする三角形が、前記視点位置と予め定めた前記被写体方向の注視点とを通る直線と交わる撮影位置を特定し、特定された撮影位置の撮影画像を抽出するキーフレーム抽出手段と、
前記キーフレーム抽出手段によって抽出された撮影画像を用いて、前記直線に垂直な面上に投影されたときの画像を生成する視点画像生成手段と、
前記視点位置の動きに連動して前記視点画像生成手段によって生成された前記画像を表示装置へ出力する表示出力手段と、
を備えたことを特徴とする。
本発明によれば、視点位置から見た場合の被写体の映像を、該視点位置を囲む近傍3点のカメラ位置で撮影された撮影画像を用いて生成することができる。
本発明では、滑らかに視点位置が移動した場合に、モーフィング処理によって滑らかに視点位置からみた被写体の映像を表示することができる。
さらに、レイヤーごとに視差画像を生成することにより、HMD(ヘッドマウントディスプレイ)使用時に、被写体を仮想空間内に立体的に映し出すことが可能となる。
被写体を複数の方向から撮影して、ピクセルごとにデプス値を有する多視点画像を取得する段階と、
視点カメラを囲む近傍の少なくとも3点で撮影された多視点画像を抽出する段階と、
抽出された多視点画像について、ピクセルのデプス値を用いて、被写体表面の該ピクセルに対応するワールド座標を演算する段階と、
前記ワールド座標に基づいて、抽出された各多視点画像間のピクセルマッチング処理を実行し、マップデータを生成する段階と、
前記マップデータと前記多視点画像とを用いて視点カメラにおける仮想画像を生成する段階と、
を含むことを特徴とする。
図1において、本実施の形態による画像処理装置1は、カメラ等の撮影機能を有し多視点から撮影画像を取得する撮影手段60、撮影画像やカメラの位置・姿勢データを記憶する記憶部30、撮影画像等の情報を用いて、連続的に変化する視点位置から見た場合の映像を生成する演算処理部10を備える。
<撮影時の処理>
1.多視点画像収集処理
まず、三角形に配置された組みで、複数の撮影手段(以下、「撮影カメラ」又は単に「カメラ」という。)60を配置する。撮影カメラ60として、撮影画像の画素ごとに深度データ(デプスデータ)を計測可能なカメラ(例えば、デプスカメラ)が用いられ、被写体方向の注視点に向けられる。デプスカメラを用いる代わりに、例えば左右の視差でデプス値を算出できればよい。複数の撮影カメラ60は、図1に示すように被写体を取り囲むように球表面上に配置されてもよいが、これに限らず例えばその並びが任意のスプラインカーブ上に配置されていてもよい。このとき近傍の任意の3つの撮影カメラ60の構成する三角形は、その一辺が底面と平行になるように設置するのが演算コストの低減の観点から好ましい。
キーフレーム抽出手段13は、視点カメラ61を囲む近傍3つの撮影カメラ60で撮影した撮影画像(多視点画像)をキーフレームとして抽出する。このキーフレームは、図示しない視点カメラ61の位置(視点位置)から被写体を見たときの画像(視点画像)の生成に用いられる。視点カメラ61は、視点位置移動手段12によって、表示装置50のXR空間内で移動される。
各撮影カメラ60の位置および視点カメラ61の位置は、ワールド座標で表される。
視点画像生成手段14は、キーフレーム抽出手段13で抽出したキーフレーム、すなわち隣り合うカメラ(三角形の頂点位置にあるカメラ60によって撮影された三つのキーフレーム)同士の画像間のピクセルマッチング計算を行い、マップデータを生成する。なお、ここでのピクセルマッチングは、カメラ位置の違いによって生じるピクセルの移動であり、以下に説明する手順によって、キーフレームの有するピクセルごとのデプスデータ等を用いてピクセルの移動を精度よく算出することができる。
先ず、図2に基づいて、隣り合うカメラの二つの二次元スクリーン(キーフレーム)のピクセル位置と被写体の対応する点のワールド座標との関係について説明する。
以下のステップはレイトレーシング(光線追跡法)の視点から、スクリーンの各点に向けたレイのベクトルを求めるアルゴリズムを利用するものである。
at_vec = from_vec - look_vec
// 視点の右方向ベクトル = 視点から注視点へのベクトルとカメラの上方向ベクトル(0,1,0)の外積
right_vec = look_vec × up_vec
// right_vecの正規化
right_vec = normalize(right_vec )
// up_vecの画角によるスケール
up_vec = VecScale(up_vec, -VecLen(look_vec) * tan(fov)
// right_vecの画角によるスケール
right_vec = VecScale(right_vec, VecLen(look_vec) * tan(fov) * xres / yres
// スクリーン左上から右下へのピクセル毎の繰り返し
for(j = 0; j < yres; j++) {
for(i = 0; i < xres; i++) {
// スクリーン上の各点のu v 座標
disp_vec = VecComb(((float)i / (float)(xres-1) - 0.5)), (float)j/(float)(yres-1) - 0.5), disp_vec)
// 視点(カメラ)からのスクリーン上のピクセルへの単位ベクトルを求める。
ray_vec = look_vec * 2.0 + disp_vec
ray_vec = normalize(ray_vec)
}}
p_vec=ray_vec*depth ・・・(1)
この点から二つめのカメラの位置の座標とp_vecの終点座標とを結ぶ直線が決まり、この直線と二つめのスクリーンとの交点ピクセル(i', j')が決まるのでこれが対応点となる。
ここでのマップデータの定義は同じ被写体をそれぞれのカメラから近い位置から撮影した場合、一つ目のキーフレームの被写体の部分のピクセルが、二つ目のキーフレームのどのピクセルに対応するかを表したデータ群である。
1) 画素の移動が大きくかつエッジである。
2) 画素の移動が大きくかつエッジでない。
3) 画素の移動が小さくかつエッジである。
4) 画素の移動が小さくエッジでない。
5) 画素の移動がない。
という判断基準でメッシュの作成の元となる点を残す。そして、その点をもとにボロノイ図からドロネー分割でメッシュを生成する。(図3(c)を参照)
このメッシュの頂点をマップデータとして選択する。
((X0, Y0)(X'0, Y'0))………((Xn, Yn) (X'n, Y'n))
ここで、 (Xi, Yi)(i=0~n)は、キーフレームAのピクセル位置、(X'i, Y'i) (i=0~n)はキーフレームBのピクセル位置であり、両ピクセルがマッチングしていることを意味する。
A(Xi, Yi)D(Xi, Yi) → B(X'i, Y'i)D(X'i, Y'i)
なお、デプス値はマップデータとは別に管理することも可能であるため、以下の説明においては、デプス値の記載は省略する。
キーフレームA,B,C間のマップデータは次のようになる。
((X0, Y0)(X'0, Y'0)(X''0, Y''0))………((Xn, Yn)(X'n, Y'n)(X''n, Y''n))
ここで(Xi, Yi)(i=0~n)は、キーフレームAのピクセル位置、(X'i, Y'i) (i=0~n)はキーフレームBのピクセル位置、(X' 'i, Y' 'i) (i=0~n)はキーフレームCのピクセル位置である。
このマップデータは、モーフィング処理に用いられる。なお、マップデータにデプス値を含めても良いことは上述したとおりである。
4.視点画像生成処理
次に、視点画像生成手段14による、視点カメラ位置から見た被写体画像(視点画像)の生成処理について説明する。
まず、時刻t0におけるXR空間内の視点カメラの位置と撮影カメラ60のリグ(実カメラ設置の枠組み)の中心(注視点)位置とを結ぶ直線と、リグの配置と同じXR空間内の三次元構造物(三角板)との交点Pの座標を求める。そして、その交点Pを含む三角板(近傍3つの撮影カメラで構成される三角形)の頂点の位置から撮影された時刻t0の三枚のキーフレームと、その三角板内の合成マップデータを読み込む。
図4において、3つのキーフレームの撮影カメラの位置a, b, cのワールド座標をそれぞれ(x,y,z),(x',y',z'),(x'',y'',z'')とする。また、視点カメラと被写体注視点とを結んだ直線が三角板abcと交わる点fのワールド座標を(fx,fy,fz)とする。なお、撮影カメラの位置a, b, cで取得した画像をそれぞれキーフレームA,B,Cという。
ここで、三角板の頂点cから点fを通り、三角板の辺acと交わる点をlとする。
キーフレームA上の座標の位置をp = (i, j)、キーフレームB上の対応点の位置をp' = (i', j')とすると、
その差d = p - p' = (i - i', j-j')となる。
撮影カメラの座標をa(x, y, z)とb(x', y', z')すると、その間の距離は、
len = sqrt((x-x')*(x-x')+(y-y')*(y-y')+(z-z')*(z-z'))
となる。ここで、sqrtは平方根を意味する。以下同様である。
mid = sqrt((lx-x')*(lx-x')+(ly-y')*(ly-y')+(lz-z')*(lz-z'))
となる。モーフィングの変形率ratioは、ratio = mid/len (0~1)で表される。
中間カメラの位置lでの実際のスクリーン上の変形率を反映した位置は、
pos = (pi, pj) = p + d * ratio
となる。
pos' = (p'i, p'j) = p' - d * (1-ratio)
で変形したポリゴンメッシュ上にキーフレームBをマッピングする。以下、この結果生成された画像を「bの画像」という。キーフレームBいついては、画像がaよりに変形(1-ratio)する。
撮影カメラcのワールド座標(x'',y'',z'')、中間カメラlのワールド座標 (lx, ly, lz)、及び、点fのワールド座標(fx,fy,fz)は既知であり、またキーフレームC上の点p'' = (i'', j'')と、中間キーフレームL上の対応点pos(又はpos'、或いはこれらの加算平均値)も既知であるため、上記1)と同様の処理によって、視点カメラの位置での合成画像(視点画像)を生成することができる。
この処理は、定周期で実行され次の時刻t1、およびその後の時刻においても同様の処理が行われる。
図5に示すように、視点カメラ61の位置を想定し、その視点カメラから見たピクセルの位置を合成マップデータに追加する。この合成マップデータの例を示す。
((X0, Y0)(X'0, Y'0)(X''0, Y''0)(X'' '0, Y'' '0))………((Xn, Yn) (X'n, Y'n)(X''n, Y''n)(X'' 'n, Y'' 'n))
ここで、(Xi, Yi)、(X'i, Y'i)、(X''i, Y''i)、(X'' 'i, Y'' 'i)(i=0~n)は、それぞれ、撮影カメラA,B,C、および視点カメラ61での画像のピクセル位置を表す。なお、図5において撮影カメラCの図示は省略している。
任意の撮影カメラは、その向きや位置がワールド座標で表され、そのマップデータはデプスデータを含んでおり、若しくはデプスデータと関連付けられている。このため、上記レイトレーシング・アルゴリズムを用いて、マップデータの任意の座標(例えば、(Xi, Yi))に対応する被写体表面のワールド座標を求めることができる。
この視点カメラ61の画像(視点画像)を含めた合成マップデータを生成することにより、各撮影カメラA,B,Cのキーフレームをそれぞれ視点画像のマップデータに基づいてメッシュ変形させて合成することができる。
画像変形で中間(補間)画像を復元する場合、画像をデプス値によってレイヤー分けする。これにより、画像合成時にレイヤーの違う画像同士の干渉やオクルージョンなどの問題によって、復元される画像の品質が損なわれることを防止できる。
次に、デプス値によってレイヤー分けした画像をモーフィング画像作成時にカメラ視差を考慮し、左眼と右眼用に視差を反映した、配置を左右にずらして表示する方法について述べる。
ここで、d:距離、B:基線長、f:焦点距離、S:視差との間には、
d = B * f/S
の関係があるため、この式から視差Sを求めて合成時に反映する。
例えば、図7に示すように、撮影画像をレイヤー分割し、視差(右眼、左眼)を考慮して、レイヤーを視差Sだけずらして、右眼用の合成画像、左眼用の合成画像をそれぞれ生成して映像出力する。
次に、図8に基づいて、運動する被写体について、XR空間内の滑らかな視点カメラの移動を反映して、視点カメラから見た被写体の映像をXR空間内に仮想表示する手順について説明する。
次に、キーフレームのピクセルごとのデプス値に基づいてレイヤー分けされた、各レイヤーごとにマップデータを生成する(S105)。
ングによるオクルージョンや歪曲の問題を回避することができる。
さらに、本実施の形態による画像処理方法によれば、完全自動で全てのプロセスを実行できるのでライブにも適している。また、撮影時の画質を維持できるので高品質である。
また、最低三枚の鍵フレームとマップファイルによって、1フレームの復元が可能であるため、伝送コストを低減することができる。
図10は、本実施の形態による画像処理装置の機能ブロック図である。図1との違いは、複数の撮影カメラ60の間に仮想的にカメラを設定する中間カメラ位置設定手段16と、撮影カメラ60によって取得した多視点画像をキーフレームとして中間カメラ位置の画像(中間キーフレーム)を生成する中間キーフレーム生成手段17とを追加したことである。これらの手段16,17はCPUの機能としてプログラムによって実現することができる。その他は図1と同様であるので同一要素には同一符号を付して説明を省略する。
中間カメラ位置設定手段16は、任意の隣接する撮影カメラ60の間に仮想的にカメラ(以下、「中間カメラ」という。)65を介挿する。そのカメラ位置は、撮影カメラ60も含めてスプラインカーブ上にあればよい。中間カメラ65の配置は、図示しない入力デバイスによって指定されても良いし、予め定めたアルゴリズムで自動的に配置されるようにしてもよい。例えば、ある撮影カメラ60によって取得した被写体の多視点画像のデプス値に基づいて被写体の凹凸の深さや数が一定値を超える場合はその周辺に中間カメラ65を配置するようにしてもよいし、配置する中間カメラ65の台数を決定してもよい。この中間カメラ65の位置情報(向きや位置のワールド座標)は、記憶部30のカメラ位置情報保存エリア32に格納される。
第1の実施の形態におけるマッピングデータ生成処理と同様に、被写体表面のP0のワールド座標は既知のBの座標とBP0のベクトルから求められる。一方、中間カメラ65の位置mから被写体表面P0を見たときの、スクリーンm上の座標は、第1の実施の形態で説明したレイトレーシング・アルゴリズム用いて求めることができる。被写体表面の他の点P1についても同様である。
この中間キーフレームの画像データは、中間カメラ65の位置データと関連付けられ、記憶部30の画像データ保存エリア31に格納される。
なお、中間カメラ周辺の撮影カメラあるいは他の中間カメラのキーフレーム間の合成マップデータは、予め生成しておいてもよいし、
そして、視点画像生成手段14は、抽出されたキーフレーム(中間キーフレームを含む。)を用いてモーフィング処理を実行して、視点画像を生成する。生成された視点画像は表示出力手段15によってXR空間に仮想表示される。
10 演算処理部
11 入力手段
12 視点位置移動手段
13 キーフレーム抽出手段
14 視点画像生成手段
15 表示出力手段
16 中間カメラ位置設定手段
17 中間キーフレーム生成手段
30 記憶部
31 画像データ保存エリア
32 カメラ位置情報保存エリア
50 表示装置
60 撮影カメラ(撮影手段、多視点カメラ)
61 視点カメラ
65 中間カメラ
70 被写体
Claims (9)
- 離散的に配置されたカメラで撮影された被写体の複数の撮影画像を用いて、連続的に変化する視点位置から見た場合の前記被写体の映像を生成する画像処理装置であって、
前記撮影画像と撮影位置とを関連付けて保存する手段と、
前記視点位置近傍の3つの撮影位置であって、各撮影位置を頂点とする三角形が、前記視点位置と予め定めた前記被写体方向の注視点とを通る直線と交わる撮影位置を特定し、特定された撮影位置の撮影画像をキーフレームとして抽出するキーフレーム抽出手段と、
前記キーフレーム抽出手段によって抽出されたキーフレームを用いて、前記直線に垂直な面上に投影されたときの画像を生成する視点画像生成手段と、
前記視点位置の動きに連動して前記視点画像生成手段によって生成された前記画像を表示装置へ出力する表示出力手段と、
を備えたことを特徴とする画像処理装置。 - 前記視点画像生成手段は、
その撮影位置が前記三角形を構成する撮影画像間のピクセル対応関係を有するマップデータを生成し、当該マップデータを用いて、モーフィング処理により前記画像を生成することを特徴とする請求項1に記載の画像処理装置。 - 前記視点画像生成手段は、夫々の撮影画像の撮影位置、撮影方向、および、デプスデータを用いて該撮影画像のピクセルごとに被写体表面の対応する位置を算出し、当該位置をもとに撮影画像間のピクセル対応関係を演算することを特徴とする請求項2に記載の画像処理装置。
- 前記撮影画像は、デプスデータに基づいてレイヤーごとに分けられており、
前記視点画像生成手段は、レイヤーごとの前記撮影画像に対して前記モーフィング処理を実行することを特徴とする請求項2又は3に記載の画像処理装置。 - 前記視点画像生成手段は、レイヤーごとに視差画像を生成することを特徴とする請求項1~4のいずれか一項に記載の画像処理装置。
- 複数の前記カメラの間に、仮想的なカメラである中間カメラの位置を設定する中間カメラ位置設定手段と、
前記カメラによって取得した画像をキーフレームとして、該キーフレームのデプスデータを用いてピクセルマッチング処理を行って、前記中間カメラの位置における画像である中間キーフレームを生成する中間キーフレーム生成手段と、を備え、
前記キーフレーム抽出手段および前記視点画像生成手段は、前記中間キーフレームを前記キーフレームとして用いることを特徴とする請求項1~5のいずれか一項に記載の画像処理装置。 - 離散的に配置されたカメラで撮影された被写体の複数の撮影画像を用いて、連続的に変化する視点位置から見た場合の前記被写体の映像を生成する画像処理方法であって、
被写体を複数の方向から撮影して、ピクセルごとにデプス値を有する多視点画像を取得する段階と、
視点カメラを囲む近傍の少なくとも3点で撮影された多視点画像を抽出する段階と、
抽出された多視点画像について、ピクセルのデプス値を用いて、被写体表面の該ピクセルに対応するワールド座標を演算する段階と、
前記ワールド座標に基づいて、抽出された各多視点画像間のピクセルマッチング処理を実行し、マップデータを生成する段階と、
前記マップデータと前記多視点画像とを用いて視点カメラにおける仮想画像を生成する段階と、
を含むことを特徴とする画像処理方法。 - 前記視点カメラの移動速度に応じて、前記ピクセルマッチング処理における間引き間隔を調整することを特徴とする請求項7に記載の画像処理方法。
- 離散的に配置されたカメラで撮影された被写体の複数の撮影画像を用いて、連続的に変化する視点位置から見た場合の前記被写体の映像を生成する画像処理装置で動作するプログラムであって、
前記撮影画像と撮影位置とを関連付けて保存する処理と、
前記視点位置近傍の3つの撮影位置であって、各撮影位置を頂点とする三角形が、前記視点位置と予め定めた前記被写体方向の注視点とを通る直線と交わる撮影位置を特定し、特定された撮影位置の撮影画像をキーフレームとして抽出するキーフレーム抽出処理と、
前記キーフレーム抽出処理によって抽出されたキーフレームを用いて、前記直線に垂直な面上に投影されたときの画像を生成する視点画像生成処理と、
前記視点位置の動きに連動して前記視点画像生成処理によって生成された前記画像を表示装置へ出力する表示出力処理と、
をコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019167872A JP7394566B2 (ja) | 2019-09-15 | 2019-09-15 | 画像処理装置、画像処理方法、および画像処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019167872A JP7394566B2 (ja) | 2019-09-15 | 2019-09-15 | 画像処理装置、画像処理方法、および画像処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021047468A JP2021047468A (ja) | 2021-03-25 |
JP7394566B2 true JP7394566B2 (ja) | 2023-12-08 |
Family
ID=74876316
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019167872A Active JP7394566B2 (ja) | 2019-09-15 | 2019-09-15 | 画像処理装置、画像処理方法、および画像処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7394566B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116824463B (zh) * | 2023-08-31 | 2023-12-19 | 江西啄木蜂科技有限公司 | 视频的关键帧提取方法、计算机可读存储介质及电子设备 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018106496A (ja) | 2016-12-27 | 2018-07-05 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
-
2019
- 2019-09-15 JP JP2019167872A patent/JP7394566B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018106496A (ja) | 2016-12-27 | 2018-07-05 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
Non-Patent Citations (1)
Title |
---|
稲本 奈穂 他1名,多視点スポーツ映像からの自由視点映像合成と提示,電子情報通信学会論文誌,第J88-D-II巻 第8号,日本,社団法人電子情報通信学会,2005年08月01日,1693~1701 |
Also Published As
Publication number | Publication date |
---|---|
JP2021047468A (ja) | 2021-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10096157B2 (en) | Generation of three-dimensional imagery from a two-dimensional image using a depth map | |
US11210838B2 (en) | Fusing, texturing, and rendering views of dynamic three-dimensional models | |
US9438878B2 (en) | Method of converting 2D video to 3D video using 3D object models | |
US9288476B2 (en) | System and method for real-time depth modification of stereo images of a virtual reality environment | |
CN103426163B (zh) | 用于渲染受影响的像素的系统和方法 | |
JP5340952B2 (ja) | 三次元投影ディスプレイ | |
Sawhney et al. | Video flashlights: real time rendering of multiple videos for immersive model visualization | |
US8884947B2 (en) | Image processing apparatus and image processing method | |
US20160125638A1 (en) | Automated Texturing Mapping and Animation from Images | |
KR101181199B1 (ko) | 배경 지형 장면의 입체 이미지 생성 방법, 시스템 및 이를 위한 기록매체 | |
Meerits et al. | Real-time diminished reality for dynamic scenes | |
US20220172447A1 (en) | Image processing device, image processing method, and program | |
KR20190062102A (ko) | 비디오 영상기반 2d/3d ar 실감체험 방법 및 장치 | |
US20230281912A1 (en) | Method and system for generating a target image from plural multi-plane images | |
WO2012140397A2 (en) | Three-dimensional display system | |
Starck et al. | Virtual view synthesis of people from multiple view video sequences | |
JP3643511B2 (ja) | 3次元画像処理方法,3次元モデリング方法および3次元画像処理プログラムを記録した記録媒体 | |
JP7394566B2 (ja) | 画像処理装置、画像処理方法、および画像処理プログラム | |
KR101208767B1 (ko) | 곡면 투사를 이용한 입체 영상 생성 방법, 장치 및 시스템, 이를 위한 기록 매체 | |
CN115841539A (zh) | 一种基于可视外壳的三维光场生成方法和装置 | |
JP5565126B2 (ja) | 立体印刷物制作支援装置、プラグインプログラム、立体印刷物制作方法および立体印刷物 | |
De Sorbier et al. | Augmented reality for 3D TV using depth camera input | |
JP2000030080A (ja) | Vrシステム | |
Dong et al. | Occlusion handling method for ubiquitous augmented reality using reality capture technology and GLSL | |
JP3648099B2 (ja) | 画像合成表示方法および装置ならびに画像合成表示プログラムを記録した記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220913 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230919 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231003 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231128 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7394566 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |