JP5891425B2 - 追体験映像を提供することができる映像提供装置、映像提供方法、映像提供プログラム - Google Patents
追体験映像を提供することができる映像提供装置、映像提供方法、映像提供プログラム Download PDFInfo
- Publication number
- JP5891425B2 JP5891425B2 JP2012539527A JP2012539527A JP5891425B2 JP 5891425 B2 JP5891425 B2 JP 5891425B2 JP 2012539527 A JP2012539527 A JP 2012539527A JP 2012539527 A JP2012539527 A JP 2012539527A JP 5891425 B2 JP5891425 B2 JP 5891425B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- depth
- image
- data
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/178—Metadata, e.g. disparity information
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
具体的にいうと、現在、インターネット上ではストリートビュー検索サービスというものが運営されていて、かかるサービスでは、 世界的に収集された背景画像がサーバ内に蓄積されている。かかる背景画像のうち、所望のものをダウンロードして、ユーザが撮影した人物に合成すれば、その撮影当時の雰囲気を様々なアングルで再現することができる。このように、ストリートビュー検索サービスを前提にして、ユーザの個人写真の撮影時の追体験を行わせる機能を追体験機能という。
背景画像データを三次元モデリング空間における立体モデルの内側表面に貼り付けた上で、前景画像データを合成する映像提供装置であって、
前景画像データ及び背景画像データの特徴点を抽出する抽出手段と、
前景画像データの特徴点と、背景画像データの特徴点とのペアをサーチして、これらのペアを利用することにより、前景画像データを背景画像データの内部に投影するための変換行列を得るマッチング手段と、
前景画像データに対応するデプス前景データに対して、マッチング手段が得た変換行列に基づく変換を施す変換手段と、
変換がなされたデプス前景データをベースにしたデプスベースドレンダリングを、前景画像データに施すことにより、前景画像データに対応する2以上の視点画像データを得るデプスベースドレンダリング手段と、
前景画像データに対応する2以上の視点画像データと、背景画像データに対応する2以上の視点画像データとの合成を行う合成手段と
を備えることを特徴とする。
前記変換手段は更に、
背景画像データの撮影方向と、各写真画像の撮影方向とを比較することにより右目写真データ、左目写真データのうちどちらを基点画像にするかの決定を行い、
前記前景画像データは、右目写真データ、左目写真データのうち基点画像データとして決定されたものでもよい。
右目写真データ、左目写真データから写真についてのデプス画像を生成するデプス画像生成手段を備え、
変換手段による変換がなされるデプス前景データとは、デプス画像生成手段によって生成されたデプス画像でもよい。前景画像を取得したカメラにデプス画像を取得する機能が存在しなくても、好適なデプス画像を得ることができる。
左目写真データ、右目写真データのうち、基点画像ではないものの画素の座標を、デプス前景データに示される奥行きに基づき水平方向にシフトすることにより、画像データの再生成を行い、
前記2以上の視点画像データは、
左目写真データ及び右目写真データのうち、基点画像データではないものと、再生成された画像データとから構成されてもよい。
前記マッチング手段は、
立体ストリートビュー視点にマッチングするための特徴点を前景画像データからサーチするにあたって、奥行き分布の中心が許容レンジ外となる特徴点を排除して背景画像データにおける特徴点、及び、前景画像データにおける特徴点のうち奥行き分布の中心が許容レンジ内となる特徴点同士でマッチングを行ってもよい。
画像取得要求に対する応答として、画像収集サーバから送信されてくるストリートビューファイルを受信する受信手段とを備え、
前記背景画像データは、受信したストリートビューファイルに存在してもよい背景画像は、地球上の地理的情報を用いた画像取得要求に応じて送信されるので、ユーザは家屋の中に居ながら、世界中の好きな場所の光景をサーバからダウンロードしてこれを自分の写真に合成させることができる。かかるサービスにより世界中を旅行したような仮想体験をユーザに経験させることができる。
前記立体写真ファイルは、左目写真データ及び右目写真データと、地理的情報とを含み、
前記変換手段は更に、
背景画像データの撮影方向と、各写真画像の撮影方向とを比較することにより右目写真データ、左目写真データのうちどちらを基点画像にするかの決定を行い、
前記前景画像データは、右目写真データ、左目写真データのうち基点画像データとして決定されたものであり、
前記送信手段は、
立体写真ファイルに存在する地理的情報を用いてカレント視点位置を指定する画像取得要求を作成して、画像収集サーバに送信し、
画像収集サーバから送信されてくるストリートビューファイルは、画像取得要求に含まれる地理的情報と合致する撮影地属性を有してもよい。写真ファイルに存在する地理的情報をキーワードとして背景画像の検索をサーバに行わせ、所望のストリートビューファイルを取得するので、映像提供装置がデジタルテレビに組み込まれる場合、デジタルテレビと、立体視カメラとを連携させた新規なサービスが可能になる。これにより、デジタルテレビと、立体視カメラとをセットで販売する場合に、競合商品との差別化が可能になる。
central park)や建造物の名称(CABAC church)を表す。十字ボタンbn2は、カレント視点位置を変更させる場合において、その進行方向の選択を受け付けるものである。ズームアップボタンbn3は、視点位置、視線方向をそのままにして、表示内容の拡大・縮小操作を受け付けるものである。アングルボタンbn4は、カレント視線方向の右旋回、左旋回の指定を受け付けるものである。これらのGUIは、リモコンのキーに割り当てられるので、リモコンに対する操作により、ストリートビューにおける移動、回転といった制御が可能になる。以上がグローバルビュー検索サービスについての説明である。
実施の形態1は、前景画像である写真を、背景画像に合成するための改良に関する。実施形態1における映像提供装置の説明に先立ち、本実施形態の映像提供装置で実現すべきデータフローについて説明しておく。
図12は、実施の形態1における映像提供装置の内部構成を示す図である。本図に示すように、本図に示すように、映像提供装置はネットワークインターフェース1a、入力インタフェース1b、ビルトインメディア1c、ファイルシステム2、UOモジュール3、制御部4、描画部5、左目写真プレーンメモリ6a、右目写真プレーンメモリ6b、左目ビューポートメモリ7a、右目ビューポートメモリ7b、合成部8a,b、立体出力モジュール9から構成される。本図において、ドラム記号はストレージを意味し、菱形記号はメモリデバイスを意味する。
ネットワークインターフェース1aは、映像提供装置の外部と通信を行うためのものであり、インターネットでアクセス可能なサーバにアクセスしたり、ローカルネットワークで接続されたサーバにアクセスしたりすることが可能である。たとえば、インターネット上に公開された追体験コンテンツのダウンロードに用いられたりすることができる。ネットワークインターフェース1aは、要求送信部、応答受信部を具備している。要求送信部は、地球上のカレント視点位置を指定した画像取得要求をグローバルビュー収集サーバ1001に送信する。ここで要求送信部は、立体写真ファイルが読み出された際、入力インターフェース1bを通じて読み出された立体写真ファイル、及び、ビルドインメディア1cから読み出された立体写真ファイルに存在する地理的情報を用いてカレント視点位置を指定する画像取得要求を作成して、グローバルビュー収集サーバ1001に送信する。
入力インタフェース1bとは、たとえば可搬性を有する外部機器からの入力インタフェースであり、好適にはSDカードスロットおよびスロットに装着されたリムーバブルメディアから写真ファイルを読み取るためのメモリーカードI/Fである。スロットにSDカードなどのリムーバブルメディアを装着すると、リムーバブルメディアと映像提供装置とが電気的に接続され、メモリーカードI/Fを利用して、半導体メモリに記録されたデータを電気信号に変換して読み出すことが可能となる。
ビルトインメディア1cは、例えば再生装置に内蔵されたハードディスクドライブ、メモリなどの書き込み可能な記録媒体であり、立体ストリートビュー視点ファイル、立体視写真ファイルが蓄積される。
ファイルシステム2は、ネットワークインターフェース1aを通じた通信および、入力インタフェース1bを通じた読み書きおよび、ビルトインメディア1cへの読み書きの制御を行う。また、入力インタフェース1bなどのメディア装脱通知を行う。特にファイルシステム2は読出部を含み、入力インターフェース1bを通じて立体写真ファイルを読み出したり、ビルドインメディア1cから立体写真ファイルを読み出す。
UOモジュール3は、GUIに対するユーザオペレーションを受け付ける。好適には赤外線リモコンを受信するためのモジュールである。
制御部4は、GUI画面に対するユーザ操作に応じて、描画部の制御を行う。ユーザにとって身近なGUI画面の局面から制御部4による制御内容を補足する。図13(a)は、実施の形態1における制御部4による追体験GUIを示す図である。追体験GUIは、ファイルの一覧表示302のそれぞれに、記録日付(Date)303と、チェックボックス301とを対応付けたものである。本図では、Photo1,mpo,Phto2.mpo,Phto3.mpo,Photo6.mpoといった複数のファイルがサムネールに対応付けられて一覧表示に供されている。これらには、撮影日付(2011/2/12 10:22,2011/2/12 10:25)と、チェックボックス301とが対応付けられていて、チェックボックスでチェックされたものが追体験の対象になる。チェックボックスは、立体視写真ファイルに対するスライドショー要否を指定するものである。このGUIの下側には、スライドショーの開始指示を受け付けるためのボタン304が存在する。
描画部5は、制御部4の制御に応じて、ファイルシステム2からデータを読み取り、写真プレーンメモリ6a,bおよびビューポートメモリ7a,bへ描画を行う。
左目写真メモリ6aは、左目用の写真画像を格納するメモリである。
右目写真メモリ6bは、右目用の写真画像を格納するメモリである。
左目ビューポートメモリ7aは、左目用のビューポート画像を格納するメモリである。
右目ビューポートメモリ7bは、右目用のビューポート画像を格納するメモリである。
合成部8a,bは、左目ビューポートメモリの格納内容と、左目写真メモリの格納内容とを合成し、右目ビューポートメモリの格納内容と、右目写真メモリの格納内容とを合成する。
立体出力モジュール9は、合成部8a,bによりレイヤ合成がなされたメモリの格納内容を表示装置(図示せず)へ出力する。好適にはHDMI1.4トランスミッタおよびHDMI出力コネクタである。
立体写真管理モジュール11はファイルシステム2から立体写真ファイルを読み取り、解析を行う。
写真デコーダ12は、JPEGデコーダであり、立体写真ファイルに含まれる圧縮左目画像504と圧縮右目画像505の展開を行う。処理対象のデータ構造の局面から写真デコーダ12の処理内容を補足する。デコードの対象となる立体視対応の写真データは、MPOファイルに格納されている。MPO(Multi picture object)ファイルとは、任天堂株式会社の3DS、富士フィルム FinePix REAL 3D W1およびW3カメラにより撮影可能なファイルであり、JPEGファイルを2つの格納する。図14(a)は、立体写真ファイルのデータ構造を示す。図14(a)は、実施の形態1における立体写真ファイル501のデータ構造およびデータ例を示す図である。立体写真ファイルは撮影日502、サイズ503、圧縮左目画像504、圧縮右目画像505を含み、また撮影地に関する地理的情報として地理的緯度506、経度507、標高508、方角509、傾斜510のデータを有する。撮影日502は、撮影が行われた日付を示す。サイズ503は、画像の縦と横のサイズを示す。圧縮左目画像504は、JPEG形式で圧縮されたデータである。圧縮右目画像505は、JPEG形式で圧縮されたデータである。地理的情報である緯度506、経度507、標高508は撮影したときの位置を示す。方角509、傾斜510は撮影したときの方向を示す。撮影のための立体カメラは二つのレンズを備え、左側のレンズと右側のレンズよりそれぞれ左目画像の例6Lと右目画像の例6Rを圧縮してさらに付加情報をつけて立体写真ファイルとして記録する。本図に示すように、撮影地の緯度、経度、標高、方角を示すので、これらを用いれば、背景画像である全周囲画像とのマッチングを正しく行うことができる。図14(b)は、JPEG圧縮された左目画像データ、右目画像データを示す。このような厳密なマッチングが可能な立体写真ファイルを写真デコーダ12はデコード対象にすることができる。以上が写真デコーダ12についての説明である。
右目写真メモリ13a、左目写真メモリ13bのペアは、写真デコーダ12より展開された左目画像と右目画像とを格納する。
スイッチ13cは、写真メモリ13a,bのうち、基点画像となるものを写真DIBR実行部28に出力する。
写真デプス生成器14は写真デコーダ12より展開された左目画像および右目画像を解析し、デプス画像を生成する。図14(c)は、図14(b)における左目画像の例60Lと右目画像の例60Rから生成されるデプス画像を示す。奥行きは輝度であらわされ、色が薄くなるにつれてピクセルが近いことを意味する。黒色はある閾値より遠い、白色はある閾値より近い距離を示す。
写真デプスメモリ15は、写真デプス生成器14より生成されたデプス画像を格納するメモリである。
立体SV管理モジュール16はファイルシステム2から立体ストリートビュー視点ファイルを読み取り、解析を行う。
SVデコーダ17はJPEGデコーダであり、立体ストリートビュー視点ファイルに格納された圧縮メルカトル画像802の展開を行い、当該展開で得られた非圧縮の全周囲画像データをSVメモリ19に格納する。立体ストリートビュー視点ファイルとは、地球上の任意の地点での視点を再現するファイルであり、地球上のその視点における撮影地属性に、全周囲画像である圧縮メルカトル画像と、対応するデプス画像である圧縮メルカトルデプスとを対応付けたファイルである。ここでの撮影地属性とは、緯度、経度、標高、方角、傾斜である。処理対象のデータ構造の局面からSVデコーダ17の処理内容を補足する。図15は、実施の形態1における立体ストリートビュー視点ファイルのデータ構造およびデータ例を示す。図15において、立体ストリートビュー視点ファイルに格納されている圧縮メルカトル画像は、メルカトル図法により作成された全周囲画像をJPEG形式で圧縮符号化したデータであり、これをデコードすることにより全周囲画像が得られる。図15(a)は、立体視ストリートビュー視点ファイルのデータ構造を示す。立体視ストリートビュー視点ファイルは、立体写真ファイルと共通のデータ構造をもっているので、ある写真に最適な立体視ストリートビュー視点ファイルを検索する際、データベースに存在する立体ストリートビュー視点ファイルのうち、撮影地属性として同一の緯度、経度、標高をもつものサーチすれば、立体写真ファイルに整合する立体視ストリートビュー視点ファイルを早期に発見することができる。このようなサーチで発見された立体ストリートビュー視点ファイル内の全周囲画像が、SVデコーダ17によるデコードの対象である。図15(b)は実施の形態1における立体視ストリートビュー視点ファイル801に格納されている圧縮メルカトルデプス802の一例を示す図である。全周囲画像90Cは全方位から撮影し、メルカトル図法により作成された画像である。以上のように、全周囲画像(メルカトル画像)は、立体ストリートビュー視点ファイルに格納され、ストリートビューという単位で扱われるから、本明細書では、全周囲画像(メルカトル画像)を"ストリートビュー(SV)"と総称するものとする。以上がSVデコーダ17についての説明である。
SVメモリ18は、SVデコーダ17より展開された全周囲画像511を格納するメモリである。
SVデプスデコーダ19は、PNGデコーダであり、立体視ストリートビュー視点ファイル801に含まれる圧縮メルカトルデプス803の展開を行いSVデプスメモリ20に格納する。図15(c)は、デプス画像90Dの一例を示す。デプス画像90Dは全周囲画像90Cに対する奥行きを示す画像である。奥行きは輝度であらわされ、明るくなるにつれてピクセルが撮影場所に近いことを意味する。黒色は無限遠、白色は撮影場所(距離ゼロ)を示す。
SVデプスメモリ20は、SVデプスデコーダ19のデコードで得られた非圧縮のデプス画像を格納するメモリである。
ストリートビューDIBR実行部21は、デプス画像をベースにしたDIBR処理を、全周囲画像に対して施し、他視点の全周囲画像を生成する。DIBR(Depth Image Based Rendering、もしくはDepth Image
Based Representations)とは、デプス画像(デプスマップ)を元に、ベース画像から各画素を左右にシフトして他の視点からの視点画像を生み出す処理のことである。ベースの全周囲画像を左目用に割り当てる場合、生成する視差画像(すなわち右目用の画像)上の画素は、ベースの画素に対し右にシフトすれば、3D空間上で奥側に移動し、ベースの画素に対し左にシフトすれば、3D空間上で手前に移動することになる。これは、いわゆる人間の目の輻輳角の差によって生み出される立体知覚によるものであり、ベースの左目画像に対し、右目画像上の画素を左にシフトすると輻輳角が小さくなり、いわゆる寄り目状態となるため、その画素で表現される物体が手前に位置するように知覚される。反対に、ベースの左目画像に対し、右目画像上の画素を右にシフトすると輻輳角が大きくなり、その画素で表現される物体が奥に位置するように知覚される。よって、デプス画像で示される各画素の奥行き値に応じ、ベースの左目画像の各画素を左右にシフトすれば、対応する立体視可能な右目画像を生成することができる。
右目テクスチャメモリ22a、左目テクスチャメモリ22bのペアは、ストリートビューDIBR実行部21がDIBRを行うことで得られた左目テクスチャと、右目テクスチャとを格納する。
写真特徴点抽出器23は、左目写真メモリ13aに格納された写真データ、及び、右目写真メモリ13bに格納された写真データから特徴点の抽出を行い、特徴点701の生成を行う。
SV特徴点抽出器24は写真特徴点抽出器23と同様に、全周囲画像の特徴点抽出を行った後、デプス画像でのデプス探索レンジによる特徴点の除外を行い、その後、残った特徴点を利用して全周囲画像データと、写真データとのマッチングを行う。マッチングの結果、立体写真と全周囲画像データとの立体的な関係を示す変換行列を導く。
立体マッチングモジュール25は、写真特徴点抽出器23より生成された特徴点701と、SV特徴点抽出器24より生成された特徴点701とのマッチングを行い、立体写真と、ストリートビューである全周囲画像との立体的な相対位置関係を表す変換行列の生成を行う。
デプス変換部26は、立体マッチングモジュール25が得た変換行列を用いて、写真デプスメモリ15に格納された写真デプスを変換して、変換後の写真デプスを写真デプスバッファ27に書き込む。
写真デプスバッファ27には、デプス変換部26による変換が施された写真デプスが格納される。
写真DIBR実行部28は、写真メモリ13a,bに格納された写真のうち、スイッチ13cによって選択されたもの(基点画像)に対して、写真デプスをベースにしたDIBRを施す。その処理結果となる左目写真データ、右目写真データを左目写真プレーンメモリ6a、右目写真プレーンメモリ6bに書き込む。
CG処理部30は、モデリングデータを構成する三次元座標を三次元モデリング空間に配置して、その三次元モデリング空間における三次元座標をビューポートに投影する処理を行う。かかる処理には、座標・視野変換、照度計算(テクスチャマッピング処理)、ビューポート処理がある
<座標変換部31>
座標変換部31は、視点をカメラにし、カメラの方向やズームレベルを指定することにより、立体物を投影するスクリーンを決定する。その後、球面モデルのモデリングデータを規定する三次元座標を三次元モデリング空間におけるワールド座標に変換する。ここでの座標変換は、三次元モデリング空間におけるカメラ位置を原点とし、カメラから見た座標系でのワールド座標に、モデリングデータを規定する三次元座標を変換するというものである。
照度計算部32は、三次元モデリング空間において設定された光源位置から照射される光を立体物に当てたときの各頂点における照度の計算を行う。
テクスチャマッピング部33は、三次元モデリング空間上に左目用と右目用の2つの球体を用意し、背景画像を変換することで得られた2以上の左目用テクスチャ、右目用テクスチャを三次元モデリング空間における球体モデルの内側表面にマッピングする。
ビューポート変換部34は、ディスプレイの解像度等を含んだディスプレイ情報に従い、三次元モデリング空間における3次元座標の頂点座標を2次元のスクリーン座標に変換することでビューポート画像の抽出を行う。抽出される画像には、左目ビューポート画像、右目ビューポート画像があり、ビューポート変換部はこれらを、それぞれ左目プレーンメモリ6、右目プレーンメモリ7に出力する。位置方向判定部2から描画制御部5に行われる指示が、カレント視点位置に変化はなく、カレント視線方向のみの変化であった場合、テクスチャマッピング部はテクスチャマッピング処理をスキップし、ビューポート変換部のみがカレント視線方向変化に伴うビューポートの再抽出及びプレーンメモリへの再出力のみを行う。
写真特徴点抽出器23、SV特徴点抽出器24が抽出すべき特徴点について説明する。
写真特徴点抽出器23、SV特徴点抽出器24による抽出結果として出力される特徴点記述子について説明する。
立体マッチングモジュール25が写真と、背景画像とのマッチングをどのように行うかについて説明する。以降の説明では、図17に示すような背景A、写真Bを用いる。図17は、特徴マッチングの対象となる写真、背景画像の一例である。本図における背景A、写真Bは、パリの凱旋門前の光景を撮影したものであり、撮影された日時は違うものだが、写り込んでいる店舗の建造物は同一物である。このように、同一建造物が存在するので、背景A、写真Bについては、回転・移動を伴う変換を写真に対して施すことにより、写真Bを背景Aに整合するものに変化させることができる。この回転・移動は、背景A、写真Bにおける特徴点を整合させることでなされる。
に投影される。
である。以下、ホモグラフィ行列について説明する。ホモグラフィ行列は「回転、並行移動」の要素 、「投影変換」の要素 という2つの要素から成り立つ。
void cvFindHomography( const CvMat* src#points,
const CvMat* dst#points,
CvMat* homography );
第1引数であるsrc#pointsは、1枚目の画像上の座標を示す。第2引数であるdst#pointsは、2枚目の画像上の座標を示す。homographyは、戻り値として出力される3×3ホモグラフィ行列(平面射影変換行列)である。以上が変換行列についての説明である。続いて、デプス画像の詳細について説明する。
本実施形態に係る映像提供装置は、上述したような映像提供装置における各構成要素を、ASIC等のハードウェア集積素子で具現化することで工業的に生産することができる。このハードウェア集積素子に、CPU、コードROM、RAMといった汎用的なコンピュータシステムのアーキテクチャを採用する場合、上述したような各構成要素の処理手順をコンピュータコードで記述したプログラムをコードROMに予め組みこんでおき、ハードウェア集積素子内のCPUに、このプログラムの処理手順を実行させねばならない。
Slideshow」ボタンを押下するまで待機する。「Start Slideshow」ボタンの押下がなされれば、ユーザにより選択された立体画像ごとにステップS5ーステップS6のループを行う。以降、ステップS5−ステップS6のループを実行する。このループは、スライドショーの対象になる写真のそれぞれについて、ステップS7〜ステップS13の処理を実行するというものである。
本実施形態は、これまでの実施形態で述べた映像提供装置をどのようなハードウェア構成で実現するかを開示する。
Lighting)の処理を総称してT&L 処理あるいはTnL
処理と呼ぶ。
Distributor)802は、各頂点データを、4つある次段のSIMDチップのうち処理待ちの状態にあるものに振り分ける役割を果たす。
は12 系統が並列で動作するため、同時に12 個の頂点データ(x, y, z)の処理を並列で行うことができる。
First-Out)メモリに集められ、Xステージボード全体の出力としてTriangle Bus と呼ばれるバスに転送される。各頂点データは、スクリーン座標系上の座標(x, y)と奥行き情報z、照光計算の結果である(r, g, b)、透明度情報のa、法線ベクトル(nx, ny, nz)、それとテクスチャ座標(s, t)を含む。
ny, nz))である。
806は、三角形の塗りつぶしを行い、画素ごとのテクスチャ座標(s, t)の補間結果を出力し、テクスチャメモリのアドレスを生成してテクスチャ画素(テクセル(texel)と呼ばれる)をTF(Texture
Filter)に渡す。
Bus から画像データを受け取り、必要に応じてルックアップテーブルで変換し、また、カーソルの表示も行ってVideo
Packet Bus に画像データを乗せる。各VOCは、自分の担当する矩形領域が記述されたVOF データに従って画像を拾い、DA コンバータでビデオ信号に変換する。
GL#UNSIGNED#SHORT,getStaticData()->g#index[i]);』について説明する。このAPI呼出しの第1引き数は、3Dモデルの図形タイプが三角形ストリップ(GL#Triangle#Stirp)であることを指定している。第2引き数は、頂点数の指定であり、(縦分割数H+1)×2の数値を指定している。GL#UNSIGNED#SHORTは、頂点を格納したindexの型が符号無しのshort形式であることを示す。g#index[W]は、描画順番を決めたインデックス配列であり、個々の配列要素としてグリッド交点の頂点座標が格納される。g#indexの配列要素として格納されている頂点座標に従った描画を実行することにより、テクスチャマッピングがなされることになる。
以上がSVメモリ18についての説明である。続いて、ストリートビューDIBR実行部21のハードウェア構成について説明する。
ストリートビューのX座標を変更することで左目SVを作成したい場合、SVメモリ18からテクスチャメモリ22aへのコピー時において、そのコピー先となる記憶素子を指示するCOLUMNアドレスを、画素数Xに相当するアドレスだけ前に調整しておく。このようなアドレス調整を前提にしてコピーを実行すれば、左目ストリートビューの座標は、左方向にシフトすることになる。よってストリートビューDIBR実行部21は、左目SVについては、アドレス調整を伴うコピー処理でSVメモリ18からテクスチャメモリ22aへのコピーを実行することで、ストリートビューデプスをベースにしたDIBRを実行する。
(数式)
Y(x,y)=255-(log(Depth(x,y)+1)×100)
こうして求めた奥行きDepth(x,y)を、ディスプレイの画面サイズに応じた画素数offset(x,y)に変換することで画素の輝度を適切な視差に変換することができる。
以上、本願の出願時点において、出願人が知り得る最良の実施形態について説明したが、以下に示す技術的トピックについては、更なる改良や変更実施を加えることができる。各実施形態に示した通り実施するか、これらの改良・変更を施すか否かは、何れも任意的であり、実施する者の主観によることは留意されたい。
各実施形態では、横7枚の背景画像を横方向に結合することで得られる全周囲画像を対象にして説明を進めたが、横方向の画像の結合数を減少することで、視点から見渡せるストリートビューの範囲を変更してもよい。上記実施形態の全周囲画像は、横7枚の背景画像で360°の視野を網羅するから、一枚の背景画像で網羅される範囲は、52°(≒365°/7)である。よって、2枚の画像を結合した場合、104°(≒52°×2)の範囲を見渡すことができ、3枚の画像を結合した場合、156°(≒52×3)の範囲を見渡すことができる。このように、ストリートビュー収集サーバや映像提供装置で横方向の画像の結合数を変化させることにより、視点周囲画像の規模を変化させ、テクスチャマッピング処理やテクスチャにおける視差算出等の負荷を軽減することもできる。
またDIBRをラインスキャン回路で実現することができる。ラインスキャン回路とは、フレームメモリに格納された一画面分の画素(1920×1080)の集りを横1920画素ずつ読み出してデジタル映像信号に変換するハードウェア素子である。かかるラインスキャン回路は、1行分の画素データを格納しうるライン画素メモリと、フィルタ回路、パラレル/シリアル変換を行う変換回路によって実現することができる。上述したようにDIBRは、デプス画像の個々の画素の輝度を視差に変換して画素のシフトを行う処理である。ラインメモリに読み出された全周囲画像の一ライン分の画素の座標を、全周囲画像に対するデプス画像における対応するラインの奥行きに応じた画素数だけ横方向に移動すれば、デプス画像における個々の示される奥行きをもたらす他視点からの視点画像を作成することができる。
圧縮メルカトルデプス画像803は、メルカトル画像に対する奥行きを示す画像をPNG形式で圧縮されたデータとしたが奥行きは圧縮ノイズが目立ってしまうため、PNG形式などのロスレス形式で圧縮することが望ましい。なお、立体ストリートビュー視点801における圧縮メルカトルデプス画像803はデータが冗長であるため、PNG形式での圧縮以外にも周囲の地形データおよび、圧縮メルカトル画像802と地形データとの関係を示すデータを備えるようにしてもよい。なお立体ストリートビュー視点801をインターネットで送受信をする場合、圧縮メルカトル画像は分割し複数のファイルに分けるようにすると、ダウンロード途中の状態でも表示が可能となる以外に、SVデコーダ218とSV特徴点抽出器の処理を並列に行うことができ、全体的に高速に処理することができる。
第1実施形態に示した再生装置のハードウェア構成のうち、記録媒体のドライブ部や、外部とのコネクタ等、機構的な部分を排除して、論理回路や記憶素子に該当する部分、つまり、論理回路の中核部分をシステムLSI化してもよい。システムLSIとは、高密度基板上にベアチップを実装し、パッケージングしたものをいう。複数個のベアチップを高密度基板上に実装し、パッケージングすることにより、あたかも1つのLSIのような外形構造を複数個のベアチップに持たせたものはマルチチップモジュールと呼ばれるが、このようなものも、システムLSIに含まれる。
フラッド アレイ)、PGA(ピン グリッド アレイ)という種別がある。QFPは、パッケージの四側面にピンが取り付けられたシステムLSIである。PGAは、底面全体に、多くのピンが取り付けられたシステムLSIである。
(左目画像、右目画像のどちらかを処理することの技術的意義)
なお立体写真のDIBRにおいて、立体写真を手前におくことで立体写真を引き立たせることができ、さらに見やすい追体験を実現することができる。
これまでの実施形態では、数式に基づく演算処理を開示したが、これらの数式は、数学的な概念を意味するのではなく、あくまでも、コンピュータ上で実行される数値演算を意味するものなので、当然のことながら、コンピュータに実現させるための、必要な改変が加えられることはいうまでもない。例えば、数値を、整数型、固定少数点型、浮動小数点型で扱うための飽和演算や正値化演算が施されてよいことはいうまでもない。更に、各実施形態に示した、数式に基づく演算処理のうち、定数との乗算は、定数ROMを用いたROM乗算器で実現することができる。定数ROMには、被乗数と定数との積の値はあらかじめ計算されて格納されている。例えば、被乗数が16ビット長である場合、この被乗数は、4ビット毎に四つに区切られ、この4ビット部分と定数との積、つまり、定数の0〜15の倍数が上記の定数ROMに格納されている。上記の一区切りの4ビットと定数16ビットとの積は20ビット長であり、上記の四つの定数が同一のアドレスに格納されるので、20×4=80ビット長が一語のビット長となる。以上述べたように、ROM乗算器での実現が可能であるので、本明細書でいうところの"演算処理"は、純粋な算術演算のみを意味するのではなく、ROM等の記録媒体に格納された演算結果を、被演算子の値に応じて読み出すという、記録媒体の読み出しをも包含する。
各実施形態に示したプログラムは、以下のようにして作ることができる。先ず初めに、ソフトウェア開発者は、プログラミング言語を用いて、各フローチャートや、機能的な構成要素を実現するようなソースプログラムを記述する。この記述にあたって、ソフトウェア開発者は、プログラミング言語の構文に従い、クラス構造体や変数、配列変数、外部関数のコールを用いて、各フローチャートや、機能的な構成要素を具現するソースプログラムを記述する。
立体視再生時において一枚の全周囲画像から左目テクスチャ、右目テクスチャを作成するとしたが、この全周囲画像を左目テクスチャとしてもちいて、右目テクスチャのみを作成してもよい。同様に、全周囲画像を左目テクスチャとしてもちいて、右目テクスチャのみを作成してもよい。この場合、立体視再生時におけるカメラ位置と比較して、2×pだけ隔てられた位置を右目カメラの配置位置とし、かかる配置位置にカメラを配置することで上述したような座標変換、テクスチャマッピング、ビューポート変換を実行すればよい。
1b 入力インターフェイス
1c ビルトインメディア
2 ファイルシステム
3 UOモジュール
4 制御部
5 描画部
Claims (11)
- 背景画像データを三次元モデリング空間における立体モデルの内側表面に貼り付けた上で、前景画像データを合成する映像提供装置であって、
前景画像データ及び背景画像データの特徴点を抽出する抽出手段と、
前景画像データの特徴点と、背景画像データの特徴点とのペアをサーチして、これらのペアを利用することにより、前景画像データを背景画像データの内部に投影するための変換行列を得るマッチング手段と、
前景画像データに対応するデプス前景データに対して、マッチング手段が得た変換行列に基づく変換を施す変換手段と、
変換がなされたデプス前景データをベースにしたデプスベースドレンダリングを、前景画像データに施すことにより、前景画像データに対応する2以上の視点画像データを得るデプスベースドレンダリング手段と、
前景画像データに対応する2以上の視点画像データと、背景画像データに対応する2以上の視点画像データとの合成を行う合成手段と
を備えることを特徴とする映像提供装置。 - 前記映像提供装置は更に、立体視カメラによって撮影された写真画像データを取得する取得手段を備え、撮影された写真画像データには、右目写真データ、左目写真データがあり、
前記変換手段は更に、
背景画像データの撮影方向と、各写真画像の撮影方向とを比較することにより右目写真データ、左目写真データのうちどちらを基点画像にするかの決定を行い、
前記前景画像データは、右目写真データ、左目写真データのうち基点画像データとして決定されたものである
ことを特徴とする請求項1記載の映像提供装置。 - 前記映像提供装置は、
右目写真データ、左目写真データから写真についてのデプス画像を生成するデプス画像生成手段を備え、
変換手段による変換がなされるデプス前景データとは、デプス画像生成手段によって生成されたデプス画像である
ことを特徴とする請求項3記載の映像提供装置。 - 前記デプスベースドレンダリング手段は、
左目写真データ、右目写真データのうち、基点画像ではないものの画素の座標を、デプス前景データに示される奥行きに基づき水平方向にシフトすることにより、画像データの再生成を行い、
前記2以上の視点画像データは、
左目写真データ及び右目写真データのうち、基点画像データではないものと、再生成された画像データとから構成される
ことを特徴とする請求項3記載の映像提供装置。 - 映像提供装置には、探索を行うべき特徴点がとるべき奥行きの許容レベルが予め定められており、
前記マッチング手段は、
立体ストリートビュー視点にマッチングするための特徴点を前景画像データからサーチするにあたって、奥行き分布の中心が許容レンジ外となる特徴点を排除して背景画像データにおける特徴点、及び、前景画像データにおける特徴点のうち奥行き分布の中心が許容レンジ内となる特徴点同士でマッチングを行うことを特徴とする請求項1に記載の映像提供装置。 - 前記映像提供装置は、地球上の地理的情報を用いてカレント視点位置を指定した画像取得要求を画像収集サーバに送信する送信手段と、
画像取得要求に対する応答として、画像収集サーバから送信されてくるストリートビューファイルを受信する受信手段とを備え、
前記背景画像データは、受信したストリートビューファイルに存在する
ことを特徴とする請求項1記載の映像提供装置。 - 前記映像提供装置は、記録媒体をアクセスして立体写真ファイルを読み出す読出手段を備え、
前記立体写真ファイルは、左目写真データ及び右目写真データと、地理的情報とを含み、
前記変換手段は更に、
背景画像データの撮影方向と、各写真画像の撮影方向とを比較することにより右目写真データ、左目写真データのうちどちらを基点画像にするかの決定を行い、
前記前景画像データは、右目写真データ、左目写真データのうち基点画像データとして決定されたものであり、
前記送信手段は、
立体写真ファイルに存在する地理的情報を用いてカレント視点位置を指定する画像取得要求を作成して、画像収集サーバに送信し、
画像収集サーバから送信されてくるストリートビューファイルは、画像取得要求に含まれる地理的情報と合致する撮影地属性を有する
ことを特徴とする請求項7記載の映像提供装置。 - 背景画像は視点周囲画像であり、画像取得要求における地理的情報に対応する地理的位置から周囲を見渡した場合の光景を表す
ことを特徴とする請求項8記載の映像提供装置。 - 背景画像データを三次元モデリング空間における立体モデルの内側表面に貼り付けた上で、前景画像データを合成する映像提供方法であって、
前景画像データ及び背景画像データの特徴点を抽出する抽出ステップと、
前景画像データの特徴点と、背景画像データの特徴点とのペアをサーチして、これらのペアを利用することにより、前景画像データを背景画像データの内部に投影するための変換行列を得るマッチングステップと、
前景画像データに対応するデプス前景データに対して、マッチングステップが得た変換行列に基づく変換を施す変換ステップと、
変換がなされたデプス前景データをベースにしたデプスベースドレンダリングを、前景画像データに施すことにより、前景画像データに対応する2以上の視点画像データを得るデプスベースドレンダリングステップと、
前景画像データに対応する2以上の視点画像データと、背景画像データに対応する2以上の視点画像データとの合成を行う合成ステップと
を含むことを特徴とする映像提供方法。 - 背景画像データを三次元モデリング空間における立体モデルの内側表面に貼り付けた上で、前景画像データを合成する処理をコンピュータに実行させる映像提供プログラムであって、
前景画像データ及び背景画像データの特徴点を抽出する抽出ステップと、
前景画像データの特徴点と、背景画像データの特徴点とのペアをサーチして、これらのペアを利用することにより、前景画像データを背景画像データの内部に投影するための変換行列を得るマッチングステップと、
前景画像データに対応するデプス前景データに対して、マッチングステップが得た変換行列に基づく変換を施す変換ステップと、
変換がなされたデプス前景データをベースにしたデプスベースドレンダリングを、前景画像データに施すことにより、前景画像データに対応する2以上の視点画像データを得るデプスベースドレンダリングステップと、
前景画像データに対応する2以上の視点画像データと、背景画像データに対応する2以上の視点画像データとの合成を行う合成ステップと
をコンピュータに実行させることを特徴とする映像提供プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161448754P | 2011-03-03 | 2011-03-03 | |
US61/448,754 | 2011-03-03 | ||
PCT/JP2012/001390 WO2012117729A1 (ja) | 2011-03-03 | 2012-02-29 | 追体験映像を提供することができる映像提供装置、映像提供方法、映像提供プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2012117729A1 JPWO2012117729A1 (ja) | 2014-07-07 |
JP5891425B2 true JP5891425B2 (ja) | 2016-03-23 |
Family
ID=46757671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012539527A Expired - Fee Related JP5891425B2 (ja) | 2011-03-03 | 2012-02-29 | 追体験映像を提供することができる映像提供装置、映像提供方法、映像提供プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US9020241B2 (ja) |
JP (1) | JP5891425B2 (ja) |
CN (1) | CN102812497B (ja) |
WO (1) | WO2012117729A1 (ja) |
Families Citing this family (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8223192B2 (en) * | 2007-10-31 | 2012-07-17 | Technion Research And Development Foundation Ltd. | Free viewpoint video |
CN103339658A (zh) * | 2011-01-30 | 2013-10-02 | 诺基亚公司 | 用于三维立体显示器的方法、设备和计算机程序产品 |
KR20130024504A (ko) * | 2011-08-31 | 2013-03-08 | 삼성전기주식회사 | 삼차원 카메라 시스템 및 주시각 조정 방법 |
EP2648157A1 (en) * | 2012-04-04 | 2013-10-09 | Telefonaktiebolaget LM Ericsson (PUBL) | Method and device for transforming an image |
CN103456043B (zh) * | 2012-05-29 | 2016-05-11 | 深圳市腾讯计算机系统有限公司 | 一种基于全景图的视点间漫游方法和装置 |
CN102819400A (zh) * | 2012-08-14 | 2012-12-12 | 北京小米科技有限责任公司 | 一种移动终端的桌面系统及界面交互方法、装置 |
US20140169699A1 (en) * | 2012-09-21 | 2014-06-19 | Tamaggo Inc. | Panoramic image viewer |
JP2014067333A (ja) * | 2012-09-27 | 2014-04-17 | Sony Corp | 画像処理装置、画像処理方法、およびプログラム |
US9886622B2 (en) * | 2013-03-14 | 2018-02-06 | Intel Corporation | Adaptive facial expression calibration |
JP2014225108A (ja) * | 2013-05-16 | 2014-12-04 | ソニー株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP6167703B2 (ja) * | 2013-07-08 | 2017-07-26 | 株式会社リコー | 表示制御装置、プログラム及び記録媒体 |
TWI489415B (zh) * | 2013-07-17 | 2015-06-21 | Vivotek Inc | 視訊處理方法及系統 |
CN103996215A (zh) * | 2013-11-05 | 2014-08-20 | 深圳市云立方信息科技有限公司 | 一种实现虚拟视图转立体视图的方法及装置 |
US9087381B2 (en) * | 2013-11-13 | 2015-07-21 | Thomas Tsao | Method and apparatus for building surface representations of 3D objects from stereo images |
CN104867026B (zh) * | 2014-02-21 | 2021-04-30 | 北京京东尚科信息技术有限公司 | 提供商品图像的方法和系统以及输出商品图像的终端装置 |
US9508195B2 (en) * | 2014-09-03 | 2016-11-29 | Microsoft Technology Licensing, Llc | Management of content in a 3D holographic environment |
US11205305B2 (en) | 2014-09-22 | 2021-12-21 | Samsung Electronics Company, Ltd. | Presentation of three-dimensional video |
US10313656B2 (en) * | 2014-09-22 | 2019-06-04 | Samsung Electronics Company Ltd. | Image stitching for three-dimensional video |
WO2016054800A1 (en) | 2014-10-10 | 2016-04-14 | Empire Technology Development Llc | Scene image generator |
JP6585371B2 (ja) * | 2015-04-24 | 2019-10-02 | 株式会社デンソーテン | 画像処理装置、画像処理方法および車載装置 |
CN106303286B (zh) * | 2015-05-22 | 2020-02-07 | 中兴通讯股份有限公司 | 图片处理方法、发送方法、处理装置及发送装置 |
JP6622990B2 (ja) * | 2015-06-29 | 2019-12-18 | オリンパス株式会社 | 情報弁別装置、情報弁別方法及び情報弁別プログラム |
US10242474B2 (en) | 2015-07-15 | 2019-03-26 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
US10147211B2 (en) | 2015-07-15 | 2018-12-04 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
US11006095B2 (en) | 2015-07-15 | 2021-05-11 | Fyusion, Inc. | Drone based capture of a multi-view interactive digital media |
US10222932B2 (en) | 2015-07-15 | 2019-03-05 | Fyusion, Inc. | Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations |
US11095869B2 (en) | 2015-09-22 | 2021-08-17 | Fyusion, Inc. | System and method for generating combined embedded multi-view interactive digital media representations |
US10043237B2 (en) | 2015-08-12 | 2018-08-07 | Gopro, Inc. | Equatorial stitching of hemispherical images in a spherical image capture system |
US11783864B2 (en) | 2015-09-22 | 2023-10-10 | Fyusion, Inc. | Integration of audio into a multi-view interactive digital media representation |
US10339688B2 (en) * | 2016-07-28 | 2019-07-02 | Cyberlink Corp. | Systems and methods for rendering effects in 360 video |
JP6977725B2 (ja) * | 2016-08-03 | 2021-12-08 | ソニーグループ株式会社 | 画像処理装置および画像処理方法 |
US10558881B2 (en) * | 2016-08-24 | 2020-02-11 | Electronics And Telecommunications Research Institute | Parallax minimization stitching method and apparatus using control points in overlapping region |
US11202017B2 (en) | 2016-10-06 | 2021-12-14 | Fyusion, Inc. | Live style transfer on a mobile device |
CN106530216B (zh) * | 2016-11-05 | 2019-10-29 | 深圳岚锋创视网络科技有限公司 | 全景影像文件处理方法及系统 |
JP7320352B2 (ja) * | 2016-12-28 | 2023-08-03 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 三次元モデル送信方法、三次元モデル受信方法、三次元モデル送信装置及び三次元モデル受信装置 |
US10237537B2 (en) * | 2017-01-17 | 2019-03-19 | Alexander Sextus Limited | System and method for creating an interactive virtual reality (VR) movie having live action elements |
US10437879B2 (en) | 2017-01-18 | 2019-10-08 | Fyusion, Inc. | Visual search using multi-view interactive digital media representations |
US11184599B2 (en) | 2017-03-15 | 2021-11-23 | Pcms Holdings, Inc. | Enabling motion parallax with multilayer 360-degree video |
US10313651B2 (en) | 2017-05-22 | 2019-06-04 | Fyusion, Inc. | Snapshots at predefined intervals or angles |
US10664948B2 (en) | 2017-06-15 | 2020-05-26 | Samsung Electronics Co., Ltd | Method and apparatus for processing omni-directional image |
KR102454161B1 (ko) * | 2017-06-15 | 2022-10-14 | 삼성전자주식회사 | 전방향 이미지를 프로세싱하기 위한 방법 및 장치 |
US11069147B2 (en) | 2017-06-26 | 2021-07-20 | Fyusion, Inc. | Modification of multi-view interactive digital media representation |
TWI622022B (zh) * | 2017-07-13 | 2018-04-21 | 鴻海精密工業股份有限公司 | 深度計算方法及其裝置 |
US11049218B2 (en) | 2017-08-11 | 2021-06-29 | Samsung Electronics Company, Ltd. | Seamless image stitching |
CN113329182A (zh) | 2017-08-31 | 2021-08-31 | 深圳市大疆创新科技有限公司 | 一种图像处理方法、无人机及系统 |
JP2019075766A (ja) * | 2017-10-19 | 2019-05-16 | 株式会社リコー | 画像処理装置、撮影システム、画像処理方法、及びプログラム |
CN107918927B (zh) * | 2017-11-30 | 2021-06-04 | 武汉理工大学 | 一种匹配策略融合及低误差的快速图像拼接方法 |
JP6591594B2 (ja) * | 2018-03-16 | 2019-10-16 | 株式会社Lifull | 情報提供システム、サーバ装置、及び情報提供方法 |
US10592747B2 (en) | 2018-04-26 | 2020-03-17 | Fyusion, Inc. | Method and apparatus for 3-D auto tagging |
US11582402B2 (en) * | 2018-06-07 | 2023-02-14 | Eys3D Microelectronics, Co. | Image processing device |
CN110956583B (zh) * | 2018-09-26 | 2022-05-10 | 华为技术有限公司 | 球面图像处理方法、装置及服务器 |
US10796443B2 (en) * | 2018-10-17 | 2020-10-06 | Kneron, Inc. | Image depth decoder and computing device |
CN112104853A (zh) | 2019-06-17 | 2020-12-18 | 上海哔哩哔哩科技有限公司 | 3d视频的全景渲染方法、计算机设备和可读存储介质 |
CN112348937A (zh) * | 2019-08-09 | 2021-02-09 | 华为技术有限公司 | 人脸图像处理方法及电子设备 |
CN113469200A (zh) | 2020-03-30 | 2021-10-01 | 阿里巴巴集团控股有限公司 | 数据处理方法和系统、存储介质、计算设备 |
JP7020523B2 (ja) * | 2020-10-08 | 2022-02-16 | 株式会社リコー | 画像表示システム、画像表示方法、及びプログラム |
CN115086686A (zh) * | 2021-03-11 | 2022-09-20 | 北京有竹居网络技术有限公司 | 视频处理方法及相关装置 |
CN113029009B (zh) * | 2021-04-30 | 2022-08-02 | 高速铁路建造技术国家工程实验室 | 一种双视角视觉位移测量系统及方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11514118A (ja) * | 1996-06-07 | 1999-11-30 | フィリップス エレクトロニクス ネムローゼ フェンノートシャップ | 立体画像の発生 |
JP2006012161A (ja) * | 2004-06-28 | 2006-01-12 | Microsoft Corp | 対話式視点ビデオシステムおよびプロセス |
JP2010515303A (ja) * | 2006-12-22 | 2010-05-06 | クゥアルコム・インコーポレイテッド | 複雑適応2D−to−3Dビデオシーケンス変換 |
JP2010183560A (ja) * | 2008-12-16 | 2010-08-19 | Casio Computer Co Ltd | 撮像装置、画像処理方法及びプログラム |
JP2010193458A (ja) * | 2009-02-19 | 2010-09-02 | Sony Europe Ltd | 画像処理装置、画像処理システム及び画像処理方法 |
JP2011039358A (ja) * | 2009-08-14 | 2011-02-24 | Shibaura Institute Of Technology | 立体画像地図 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6711293B1 (en) | 1999-03-08 | 2004-03-23 | The University Of British Columbia | Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image |
US6335765B1 (en) * | 1999-11-08 | 2002-01-01 | Weather Central, Inc. | Virtual presentation system and method |
US7006709B2 (en) * | 2002-06-15 | 2006-02-28 | Microsoft Corporation | System and method deghosting mosaics using multiperspective plane sweep |
GB0220138D0 (en) * | 2002-08-30 | 2002-10-09 | Kaydara Inc | Matte extraction using fragment processors |
AU2002952872A0 (en) * | 2002-11-25 | 2002-12-12 | Dynamic Digital Depth Research Pty Ltd | Image generation |
GB2400287A (en) * | 2003-04-02 | 2004-10-06 | Autodesk Canada Inc | Three-Dimensional Image Compositing |
GB0410551D0 (en) * | 2004-05-12 | 2004-06-16 | Ller Christian M | 3d autostereoscopic display |
US7142209B2 (en) * | 2004-08-03 | 2006-11-28 | Microsoft Corporation | Real-time rendering system and process for interactive viewpoint video that was generated using overlapping images of a scene captured from viewpoints forming a grid |
US7463261B1 (en) * | 2005-04-29 | 2008-12-09 | Adobe Systems Incorporated | Three-dimensional image compositing on a GPU utilizing multiple transformations |
US7573489B2 (en) * | 2006-06-01 | 2009-08-11 | Industrial Light & Magic | Infilling for 2D to 3D image conversion |
US7982733B2 (en) * | 2007-01-05 | 2011-07-19 | Qualcomm Incorporated | Rendering 3D video images on a stereo-enabled display |
US8016653B2 (en) * | 2007-02-01 | 2011-09-13 | Sportvision, Inc. | Three dimensional virtual rendering of a live event |
GB0805924D0 (en) * | 2008-04-02 | 2008-05-07 | Hibbert Ralph Animation | Storyboard creation system |
TW201005673A (en) * | 2008-07-18 | 2010-02-01 | Ind Tech Res Inst | Example-based two-dimensional to three-dimensional image conversion method, computer readable medium therefor, and system |
EP2313847A4 (en) * | 2008-08-19 | 2015-12-09 | Digimarc Corp | METHODS AND SYSTEMS FOR PROCESSING CONTENT |
CN102150433B (zh) | 2008-09-18 | 2014-04-09 | 松下电器产业株式会社 | 立体视觉影像再现装置及立体视觉影像显示装置 |
WO2010032403A1 (ja) | 2008-09-18 | 2010-03-25 | パナソニック株式会社 | 映像コンテンツを立体視再生する再生装置、再生方法、および再生プログラム |
US8335425B2 (en) | 2008-11-18 | 2012-12-18 | Panasonic Corporation | Playback apparatus, playback method, and program for performing stereoscopic playback |
EP2348746B1 (en) | 2008-11-18 | 2015-03-11 | Panasonic Corporation | Reproduction device, reproduction method, and program for stereoscopic reproduction |
KR101547151B1 (ko) * | 2008-12-26 | 2015-08-25 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
EP2385705A4 (en) * | 2008-12-30 | 2011-12-21 | Huawei Device Co Ltd | METHOD AND DEVICE FOR GENERATING STEREOSCOPIC PANORAMIC VIDEO FLOW AND METHOD AND DEVICE FOR VISIOCONFERENCE |
US8436852B2 (en) * | 2009-02-09 | 2013-05-07 | Microsoft Corporation | Image editing consistent with scene geometry |
EP2400772B1 (en) | 2009-02-17 | 2016-04-13 | Panasonic Intellectual Property Management Co., Ltd. | Playback device, playback method, and program |
US8886206B2 (en) * | 2009-05-01 | 2014-11-11 | Digimarc Corporation | Methods and systems for content processing |
US20110080462A1 (en) | 2009-10-02 | 2011-04-07 | Panasonic Corporation | Playback device, integrated circuit, playback method, and program for stereoscopic video playback |
US9160938B2 (en) * | 2010-04-12 | 2015-10-13 | Wsi Corporation | System and method for generating three dimensional presentations |
US8957892B2 (en) * | 2012-08-20 | 2015-02-17 | Disney Enterprises, Inc. | Stereo composition based on multiple camera rigs |
-
2012
- 2012-02-29 CN CN201280000954.1A patent/CN102812497B/zh not_active Expired - Fee Related
- 2012-02-29 US US13/580,027 patent/US9020241B2/en not_active Expired - Fee Related
- 2012-02-29 JP JP2012539527A patent/JP5891425B2/ja not_active Expired - Fee Related
- 2012-02-29 WO PCT/JP2012/001390 patent/WO2012117729A1/ja active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11514118A (ja) * | 1996-06-07 | 1999-11-30 | フィリップス エレクトロニクス ネムローゼ フェンノートシャップ | 立体画像の発生 |
JP2006012161A (ja) * | 2004-06-28 | 2006-01-12 | Microsoft Corp | 対話式視点ビデオシステムおよびプロセス |
JP2010515303A (ja) * | 2006-12-22 | 2010-05-06 | クゥアルコム・インコーポレイテッド | 複雑適応2D−to−3Dビデオシーケンス変換 |
JP2010183560A (ja) * | 2008-12-16 | 2010-08-19 | Casio Computer Co Ltd | 撮像装置、画像処理方法及びプログラム |
JP2010193458A (ja) * | 2009-02-19 | 2010-09-02 | Sony Europe Ltd | 画像処理装置、画像処理システム及び画像処理方法 |
JP2011039358A (ja) * | 2009-08-14 | 2011-02-24 | Shibaura Institute Of Technology | 立体画像地図 |
Also Published As
Publication number | Publication date |
---|---|
CN102812497B (zh) | 2016-06-08 |
CN102812497A (zh) | 2012-12-05 |
US20130071012A1 (en) | 2013-03-21 |
WO2012117729A1 (ja) | 2012-09-07 |
US9020241B2 (en) | 2015-04-28 |
JPWO2012117729A1 (ja) | 2014-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5891425B2 (ja) | 追体験映像を提供することができる映像提供装置、映像提供方法、映像提供プログラム | |
JP5891388B2 (ja) | 立体視画像の描画を行う画像描画装置、画像描画方法、画像描画プログラム | |
JP5891426B2 (ja) | 全周囲立体画像の描画を行う画像描画装置、画像描画方法、画像描画プログラム | |
CN110969685B (zh) | 使用渲染图的可定制渲染管线 | |
JP4764305B2 (ja) | 立体画像生成装置、方法およびプログラム | |
JP5694577B2 (ja) | シェーダベースのグラフィックスコンテンツのための立体視コンバージョン | |
CN110999285B (zh) | 基于纹理图与网格的3d图像信息的处理 | |
KR101334187B1 (ko) | 다시점 렌더링 장치 및 방법 | |
US20060152507A1 (en) | Depth image-based modeling method and apparatus | |
EP3676653B1 (en) | Generating a new frame using rendered content and non-rendered content from a previous perspective | |
US10916031B2 (en) | Systems and methods for offloading image-based tracking operations from a general processing unit to a hardware accelerator unit | |
US20230230311A1 (en) | Rendering Method and Apparatus, and Device | |
TW201921318A (zh) | 用於產生場景之舖磚式三維影像表示之設備及方法 | |
US20110242271A1 (en) | Synthesizing Panoramic Three-Dimensional Images | |
CN112802170A (zh) | 光照图像生成方法、装置、设备和介质 | |
JP6898264B2 (ja) | 合成装置、方法及びプログラム | |
JP2007272847A (ja) | 照明シミュレーション方法及び画像合成方法 | |
JP7429633B2 (ja) | 情報処理システム、端末、サーバ及びプログラム | |
Sauerbier et al. | Multi-resolution image-based visualization of archaeological landscapes in Palpa (Peru) | |
JP2022162653A (ja) | 描画装置及びプログラム | |
TW202322043A (zh) | 小網格著色圖譜 | |
KR20200046538A (ko) | 3차원 컬러 블록 생성 방법 및 시스템 | |
CN117671115A (zh) | 动态人像渲染方法、装置、电子设备和计算机可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20140606 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140912 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20141008 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151020 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151112 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5891425 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |