JP5891426B2 - 全周囲立体画像の描画を行う画像描画装置、画像描画方法、画像描画プログラム - Google Patents
全周囲立体画像の描画を行う画像描画装置、画像描画方法、画像描画プログラム Download PDFInfo
- Publication number
- JP5891426B2 JP5891426B2 JP2012542263A JP2012542263A JP5891426B2 JP 5891426 B2 JP5891426 B2 JP 5891426B2 JP 2012542263 A JP2012542263 A JP 2012542263A JP 2012542263 A JP2012542263 A JP 2012542263A JP 5891426 B2 JP5891426 B2 JP 5891426B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- pixel
- depth
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
前記結合画像データは、複数の背景画像データが横方向に結合したものであり、
結合画像データを構成する個々の背景画像データに対して画素シフトを施すと共に、当該画素シフトに伴う境界処理を施すことで、2以上の視点テクスチャを得る画素シフト手段と、
三次元モデリング空間における立体モデルの内側表面に、2以上の視点テクスチャをマッピングするテクスチャマッピング手段と、
テクスチャマッピングがなされた立体モデルから、2以上の視点のそれぞれに対応するビューポート画像を抽出するビューポート変換手段とを備え、
前記画素シフトは、
個々の背景画像データを構成する画素の座標を横方向に移動させる処理であり、画素の移動量は、結合画像データに対応するデプス画像データにおける画素の奥行き値に基づき定められ、
前記境界処理は、
横方向への画素座標の移動によって個々の背景画像データの表示範囲からはみ出すことになる画素群を抽出して、抽出されたはみ出し画素群を、結合画像データにおいて横方向に隣接する他の背景画像データの端部に書き込む処理であることを特徴とする。
表示領域バッファと、領域外バッファと、画素シフトの処理がなされた処理済みの背景画像データを格納しておくためのテクスチャメモリとを備え、
前記画素シフトは、
前記結合画像データを構成する複数の背景画像データのうち、処理対象になるものを表示領域バッファに格納して、表示領域バッファ上で背景画像データを構成する画素の座標を横方向に移動させると共に、背景画像データの表示範囲から画素がはみ出た画素群を抽出して領域外バッファに書き込むことでなされ、
前記境界処理は、
領域外バッファからはみだし画素群を読み出して、テクスチャメモリに格納された処理済み背景画像データにおける一方の端部に書き込むことでなされてもよい。シフトのための表示領域バッファの規模は、結合画像全体のものではなく、1つの背景画像データを格納しうる容量で足りる。画素シフトに必要なメモリの実装量は最低限になるから、画像描画装置をデジタル家電に搭載するにあたってのコスト高騰を危惧する必要はない。
前記境界処理は、
結合メルカトル画像データにおける各画素がデプス画像データを元にシフトされることにより、メルカトル画像の表示範囲からはみ出すことになる画素群を抽出して、抽出されたはみ出し画素群を、抽出された端部とは逆側の端部に上書きしてもよい。一枚のメルカトル画像を球体モデルの内側表面に貼付ける場合において、その画像の一方の端部は、自身の反対側の端部と隣り合うことになる。この場合、シフトで領域外になった画素を、シフト方向とは反対側の端部に追加することで、一体感がある画像が球体モデルに貼付けられることになり、空白部分の発生を回避することができる。
地図上のカレント視点位置に対応する地理的情報を用いて画像取得要求を作成し、画像収集サーバに送信することでストリートビューファイルのダウンロードを行う取得手段とを備え、
画像収集サーバからダウンロードされたストリートビューファイルは 画像取得要求に含まれる地理的情報と合致する撮影地属性を有し、
前記結合画像データは、ダウンロードされたストリートビューファイル内に存在してもよい。背景画像は、地球上の地理的情報を用いた画像取得要求に応じて送信されるので、ユーザは家屋の中に居ながら、世界中の好きな場所の光景をサーバからダウンロードしてこれを自分の写真に合成させることができる。かかるサービスにより世界中を旅行したような仮想体験をユーザに経験させることができる。
(実施の形態1)
実施の形態1は、結合背景画像を構成する個々の背景画像に対して画素シフトを施す際、この画素シフトによって生じる"はみだし画素"を好適に処理する改良に関する。
1地点からの全周囲画像は、縦4枚、横7枚の計28枚の部分画像から構成される。各部分画像1枚は縦512画素、横512画素の画素数を持つ。デプス画像(デプスマップ)は、立体空間における各画素の奥行きを示すものであり、色がより黒い部分が立体空間上、奥に位置する物体であり、色が白い部分が、立体空間上手前に存在していることを示している。
ユーザ操作検知部1は、ユーザのリモコン操作、キーボード操作、マウス操作などを検知し、対応する操作コード(上下左右キー押下、右クリック押下などのユーザ操作を示すコード)を位置方向判定部2に送る。
位置方向判定部2は、ユーザ操作検知部1から受け取った操作コードを元に、地図上のどの位置の全周囲画像を、どの視点方向で見た画像を表示すべきかを判定する。地図上の位置はカレント視点位置であり、緯度と経度を含む地理的情報で特定される。また視点方向はカレント視線方向であり、水平角度と垂直角度で特定される。水平角度は北を0度とし時計回りに0度から360度の範囲で表現される。垂直角度は地平線を0度、真上が90度、真下が-90度として、-90度から90度の範囲で表現される。位置方向判定部2は、受け取った操作コードを元に、これら緯度、経度、水平角度、垂直角度を特定し、特定された値を描画制御部5へ渡す。
ネットワークインターフェース3は、要求送信部、応答受信部を具備している。要求送信部は、地球上のカレント視点位置を指定した画像取得要求をグローバルビュー収集サーバ1001に送信する。ここで要求送信部は、地図画像に対するユーザ操作がなされた場合、ユーザ操作で指定された位置に対応について地理的情報を用いてカレント視点位置を指定する画像取得要求を作成してグローバルビュー収集サーバ1001に送信する。応答受信部は、画像取得要求に対する応答として、グローバルビュー収集サーバ1001から送信されてくる立体ストリートビュー視点ファイルを受信する。グローバルビュー収集サーバ1001から送信されてくる立体ストリートビュー視点ファイルは 画像取得要求に含まれる地理的情報と合致するさ8位置属性を有している。
ローカルストレージ4は、ハードディスクドライブ(HDD)、USBメモリ、SDメモリーカードなど、描画装置に取り付けられている記録媒体である。サーバからダウンロードしたストリートビューファイルをキャッシュしたり、サーバ以外の外部機器で作成したストリートビューファイルを描画装置で利用するなどの用途に用いられる。ローカルストレージ4の理解を高めるため、その格納内容であるストリートビューファイルについて説明する。ストリートビューファイルとは、地球上の任意の地点での視点を再現するファイルであり、地球上のその視点における撮影地属性に、全周囲画像である圧縮メルカトル画像と、対応するデプス画像である圧縮メルカトルデプスと、撮影日時、データサイズを対応付けたファイルである。ここでの撮影地属性とは、緯度、経度、標高、方角、傾斜である。ストリートビューファイルは、立体写真ファイルと共通のデータ構造をもっているので、ある視点位置に最適なストリートビューファイルを検索する際、データベースに存在するストリートビューファイルのうち、撮影地属性として同一の緯度、経度、標高をもつものサーチすれば、ユーザが希望するストリートビューファイルを早期に発見することができる。以上がローカルストレージ4についての説明である。
描画制御部5は、位置方向判定部2から指示された地図上の位置と、ネットワークインターフェース3もしくはローカルストレージ4から取得した全周囲画像及びデプス画像を元に、3Dモデリング空間で球面上に貼り付けられた全周囲画像を、右目用と左目用の2種類作成し、位置方向判定部2から指示された視点方向で球の中心から球面を見たときに表示されるべきビューポート画像を抽出し、抽出された左目ビューポート画像、右目ビューポート画像を、それぞれ左目プレーンメモリ6、右目プレーンメモリ7に出力する処理を行う。
左目プレーンメモリ6は、立体視表示において左目に対して提示すべき一枚の画像を格納するメモリである。
右目プレーンメモリ7は、立体視表示において右目に対して提示すべき一枚の画像を格納するメモリである。
出力インターフェース8は、左目プレーンメモリ6、右目プレーンメモリ7に格納された画像を1フレームずつ同期して立体視対応ディスプレイ103へ出力する。具体的には120Hzで、左右のプレーンメモリから画像を交互に読み出し、左右それぞれ秒間60コマの映像をディスプレイ側へ送信する。視聴するユーザは液晶シャッターメガネ104を装着し、液晶シャッターが120Hzで交互に開閉を繰り返すことで、左目には左目用の秒間60コマの画像を、右目には左目用の秒間60コマの画像を見ることが出来るため、左右の画像の視差から奥行きを知覚することができる。
全周囲画像取得部11は、位置方向判定部2から指示された地図上の位置(緯度と経度で特定)に対応する全周囲画像を、ネットワークインターフェース3を介してサーバ105からダウンロードするか、もしくはローカルストレージ4から画像の取得を行う。1地点からの全周囲画像は、縦4枚、横7枚の計28枚の部分画像から構成され、各画像1枚は縦512画素、横512画素の画素数を持つ。図15(a)は、全周囲画像の一例を示す。
全周囲画像デコーダ12はJPEGデコーダであり、圧縮メルカトル画像802の展開を行い全周囲画像メモリ19に格納する。
全周囲画像メモリ13は、全周囲画像デコーダ12より展開されたメルカトル画像を格納するメモリである。
デプス画像取得部14は、全周囲画像取得部11が取得した全周囲画像に対応するデプス画像を、ローカルストレージ4に格納されたストリートビューファイルから取得する。
デプス画像デコーダ15は、PNGデコーダであり、立体ストリートビュー視点に含まれる圧縮メルカトルデプスの展開を行いデプス画像メモリ16に格納する。
デプス画像メモリ16は、デプス画像デコーダ15より生成されたデプス画像を格納するメモリである。デプス画像は、立体空間における各画素の奥行きを示すものであり、各画素の奥行きを8ビットの輝度で表現している。輝度0(黒色)は、対応する画素が最も遠い位置にあることを示し、輝度255(白色)は、対応する画素が最も近い位置にあることを示す。つまり、全周囲画像がカラー画像として見えるのに対し、デプス画像は輝度のみで表現されたグレースケール画像として認識される。デプス画像を示すグレースケール画像も、全周囲画像と同様、1地点につき、縦4枚、横7枚の計28枚の部分画像から構成され、各画像1枚は縦512画素、横512画素の画素数(各画素は8ビットの輝度のみ保持)を持つ。
DIBR部17は、全周囲画像取得部11からベースの左目用全周囲画像を、デプス画像取得部14からベース画像に対応するデプス画像を取得し、DIBR処理を行い、右目画像を生成する。DIBR(Depth Image Based Rendering、もしくはDepth Image Based Representations)とは、デプス画像(デプスマップ)を元に、ベース画像から各画素を左右にシフトして他視点からの視点画像を生み出す処理のことである。ベースの全周囲画像を左目用に割り当てる場合、生成される他視点からの視点画像(すなわち右目用の画像)上の画素は、ベースの画素に対し右にシフトすれば、3D空間上で奥側に移動し、ベースの画素に対し左にシフトすれば、3D空間上で手前に移動することになる。これは、いわゆる人間の目の輻輳角の差によって生み出される立体知覚によるものであり、ベースの左目画像に対し、右目画像上の画素を左にシフトすると輻輳角が小さくなり、いわゆる寄り目状態となるため、その画素で表現される物体が手前に位置するように知覚される。反対に、ベースの左目画像に対し、右目画像上の画素を右にシフトすると輻輳角が大きくなり、その画素で表現される物体が奥に位置するように知覚される。よって、デプス画像で示される各画素の奥行き値に応じ、ベースの左目画像の各画素を左右にシフトすれば、対応する立体視可能な右目画像を生成することができる。
図15(a)の左上に存在する画像は、複数の背景画像が結合した全周囲画像である。この画像には、左端部に雲が、右端部には隣の画像にまたがる形で家が描かれている。図15(a)の右上に存在する画像は、対応するデプス画像である。このデプス画像には、空を表現している背景に相当している部分が最も奥(奥行き値0)に位置しており、空より手前に雲、家が位置していることを示している。図15(a)では、雲の奥行き値が50、家の奥行き値が100とする。DIBR処理においては、まずシフト量0となる基準値を決め、そこから、奥行き値に応じてシフト量を決めるものとする。
画素シフト部18は、全周囲画像メモリ13から横512×縦512の画素からなる画像データを取り出し、また、全周囲画像メモリ16から横512×縦512の画素からなるデプスデータを取り出して、この横512×縦512のデプスデータをベースにして横512×縦512の画素の集りに対する画素シフトを実行する。画素シフトを実行するにあたって、どのような視差を各画素に設定するかを述べる。デプス画像の座標(x,y)に存在する画素において、視点からの奥行きがDepth(x,y)である場合、デプス画像において座標(x,y)に存在する輝度Y(x,y)から奥行きDepth(x,y)への変換は、例えば、以下の数式に基づいてすることができる。
(数式)
Y(x,y)=255-(log(Depth(x,y)+1)×100)
こうして求めた奥行きDepth(x,y)を、ディスプレイの画面サイズに応じた画素数offset(x,y)に変換することで画素の輝度を適切な視差に変換することができる。
表示領域バッファ19は、画素シフト部18のDIBRの処理結果となる画素の集りのうち、シフト後の座標が、表示領域内になるものを格納する。オリジナルの画像データの解像度が横M×縦Nである場合、画像データの左上座標を原点(0,0)とした座標系において、X座標が0からM-1までの画素、Y座標が0からN-1までの画素が「表示領域」となる。そうすると、シフト後のX座標が、M以上となる画素を除外し、X座標が0からM-1までの範囲となる画素をこの表示領域バッファ19に格納する。シフトの対象が横512×縦512である場合、シフト後のX座標が、512以上となる画素を除外し、X座標が0から511までの範囲となる画素がこの表示領域バッファ19に格納されることになる。
領域外バッファ20は、画素シフト部18のDIBRの処理結果となる画素の集りのうち、シフト後の座標が、表示領域外になるもの、つまり"はみ出し画素"を格納する。オリジナルの画像データの解像度が横M×縦Nである場合、シフト後のX座標が、M以上となる画素が"はみだし画素"としてこの領域外バッファ20に格納されることになる。
境界処理部21は、DIBR処理による画素シフトで不完全になった画像の境界に対して補正を行う。画像の境界処理とは、次に隣接する画像データを画素シフト部18が処理する際、領域外バッファ20に格納されている表示領域範囲外の画素を用い、画像端部で欠落している画素を埋める処理をいう。
右目テクスチャメモリ22、左目テクスチャメモリ23のペアは、ストリートビューDIBR実行部17がDIBRを行うことで得られた左目テクスチャと、右目テクスチャとを格納する。
CG処理部24は、モデリングデータを構成する三次元座標を三次元モデリング空間に配置して、その三次元モデリング空間における三次元座標をビューポートに投影する処理を行う。かかる処理には、座標・視野変換、照度計算(テクスチャマッピング処理)、ビューポート処理がある。
モデリングデータ格納部25は、球体モデル及びGUI部品の形状を規定するモデリングデータを格納する。
座標変換部26は、視点をカメラにし、カメラの方向やズームレベルを指定することにより、立体物を投影するスクリーンを決定する。その後、球面モデルのモデリングデータを規定する三次元座標を三次元モデリング空間におけるワールド座標に変換する。ここでの座標変換は、三次元モデリング空間におけるカメラ位置を原点とし、カメラから見た座標系でのワールド座標に、モデリングデータを規定する三次元座標を変換するというものである。
照度計算部27は、三次元モデリング空間において設定された光源位置から照射される光を立体物に当てたときの各頂点における照度の計算を行う。
テクスチャマッピング部28は、3Dモデリング空間上に左目用と右目用の2つの球体を用意し、背景画像を変換することで得られた2以上の左目用テクスチャ、右目用テクスチャを三次元モデリング空間における球体モデルの内側表面にマッピングする。
ビューポート変換部29は、ディスプレイの解像度等を含んだディスプレイ情報に従い、三次元モデリング空間における3次元座標の頂点座標を2次元のスクリーン座標に変換することでビューポート画像の抽出を行う。抽出される画像には、左目ビューポート画像、右目ビューポート画像があり、ビューポート変換部はこれらを、それぞれ左目プレーンメモリ6、右目プレーンメモリ7に出力する。位置方向判定部2からの指示が、カレント視点位置に変化はなく、カレント視線方向のみの変化であった場合、テクスチャマッピング部はテクスチャマッピング処理をスキップし、ビューポート変換部のみがカレント視線方向変化に伴うビューポートの再抽出及びプレーンメモリへの再出力のみを行う。
上記構成要素による処理過程を経て、左目テクスチャ、右目テクスチャが得られる。素材から最終成果物が得られるまでの途中過程のうち、トピックになるものを模式的に描いたのが図21〜図23である。
本実施形態に係る画像描画装置は、上述したような画像描画装置における各構成要素を、ASIC等のハードウェア集積素子で具現化することで工業的に生産することができる。このハードウェア集積素子に、CPU、コードROM、RAMといった汎用的なコンピュータシステムのアーキテクチャを採用する場合、上述したような各構成要素の処理手順をコンピュータコードで記述したプログラムをコードROMに予め組みこんておき、ハードウェア集積素子内のCPUに、このプログラムの処理手順を実行させねばならない。
全周囲画像が複数の部分画像で構成されている場合におけるステレオ全周囲画像生成について述べたが、本実施形態は、全周囲画像が1枚の画像で構成されている場合におけるステレオ全周囲画像生成について述べる。かかる全周囲画像を処理するため、第1実施形態の既存の構成要素である全周囲画像取得部11、デプス画像取得部14、DIBR部17、表示領域バッファ19、領域外バッファ20、境界処理部21、テクスチャマッピング部28は、以下の処理を行う。
全周囲画像が大きな一枚の画像で形成されている場合、DIBR処理により画像端部で画素のはみ出しが発生すると、その画素は画像逆端部側に埋めるべき画素となる。なぜなら、全周囲画像が1枚の画像で形成されている場合は画像が球面上で一周するため、右端の画素と左端の画素は最終的には球面上に並べて表示することになるからである。そのため、画像の右端と左端は連続しているものと捉えると、左端で画像領域からはみ出した画素は、逆端である右端に埋められるべき画素となる。
本実施形態は、これまでの実施形態で述べた画像描画装置をどのようなハードウェア構成で実現するかを開示する。
以上、本願の出願時点において、出願人が知り得る最良の実施形態について説明したが、以下に示す技術的トピックについては、更なる改良や変更実施を加えることができる。各実施形態に示した通り実施するか、これらの改良・変更を施すか否かは、何れも任意的であり、実施する者の主観によることは留意されたい。
圧縮メルカトルデプス画像は、メルカトル画像に対する奥行きを示す画像をPNG形式で圧縮されたデータとしたが奥行きは圧縮ノイズが目立ってしまうため、PNG形式などのロスレス形式で圧縮することが望ましい。なお、ストリートビューファイルにおける圧縮メルカトルデプス画像はデータが冗長であるため、PNG形式での圧縮以外にも周囲の地形データおよび、圧縮メルカトル画像と地形データとの関係を示すデータを備えるようにしてもよい。なお立体ストリートビュー視点をインターネットで送受信をする場合、圧縮メルカトル画像は分割し複数のファイルに分けるようにすると、ダウンロード途中の状態でも表示が可能となる。
第1実施形態に示した画像描画装置のハードウェア構成のうち、記録媒体のドライブ部や、外部とのコネクタ等、機構的な部分を排除して、論理回路や記憶素子に該当する部分、つまり、論理回路の中核部分をシステムLSI化してもよい。システムLSIとは、高密度基板上にベアチップを実装し、パッケージングしたものをいう。複数個のベアチップを高密度基板上に実装し、パッケージングすることにより、あたかも1つのLSIのような外形構造を複数個のベアチップに持たせたものはマルチチップモジュールと呼ばれるが、このようなものも、システムLSIに含まれる。
各実施形態に示したプログラムは、以下のようにして作ることができる。先ず初めに、ソフトウェア開発者は、プログラミング言語を用いて、各フローチャートや、機能的な構成要素を実現するようなソースプログラムを記述する。この記述にあたって、ソフトウェア開発者は、プログラミング言語の構文に従い、クラス構造体や変数、配列変数、外部関数のコールを用いて、各フローチャートや、機能的な構成要素を具現するソースプログラムを記述する。
各実施形態では、横7枚の背景画像を横方向に結合することで得られる全周囲画像を対象にして説明を進めたが、横方向の画像の結合数を減少することで、視点から見渡せるストリートビューの範囲を変更してもよい。上記実施形態の全周囲画像は、横7枚の背景画像で360°の視野を網羅するから、一枚の背景画像で網羅される範囲は、52°(≒365°/7)である。よって、2枚の画像を結合した場合、104°(≒52°×2)の範囲を見渡すことができ、3枚の画像を結合した場合、156°(≒52×3)の範囲を見渡すことができる。このように、ストリートビュー収集サーバや映像提供装置で横方向の画像の結合数を変化させることにより、視点周囲画像の規模を変化させ、テクスチャマッピング処理やテクスチャにおける視差算出等の負荷を軽減することもできる。
102 リモコン
103 立体視対応ディスプレイ
104 液晶シャッターメガネ
105 サーバ
1 ユーザ操作検知部
2 位置方向判定部
3 ネットワークインターフェース
4 ローカルストレージ
Claims (7)
- 結合画像データについての立体視を実現する画像描画装置であって、
前記結合画像データは、複数の背景画像データが横方向に結合したものであり、
結合画像データを構成する個々の背景画像データに対して画素シフトを施すと共に、当該画素シフトに伴う境界処理を施すことで、2以上の視点テクスチャを得る画素シフト手段と、
三次元モデリング空間における立体モデルの内側表面に、2以上の視点テクスチャをマッピングするテクスチャマッピング手段と、
テクスチャマッピングがなされた立体モデルから、2以上の視点のそれぞれに対応するビューポート画像を抽出するビューポート変換手段とを備え、
前記画素シフトは、
個々の背景画像データを構成する画素の座標を横方向に移動させる処理であり、画素の移動量は、結合画像データに対応するデプス画像データにおける画素の奥行き値に基づき定められ、
前記境界処理は、
横方向への画素座標の移動によって個々の背景画像データの表示範囲からはみ出すことになる画素群を抽出して、抽出されたはみ出し画素群を、結合画像データにおいて横方向に隣接する他の背景画像データの端部に書き込む処理である
ことを特徴とする画像描画装置。 - 前記画像描画装置は、
表示領域バッファと、領域外バッファと、画素シフトの処理がなされた処理済みの背景画像データを格納しておくためのテクスチャメモリとを備え、
前記画素シフトは、
前記結合画像データを構成する複数の背景画像データのうち、処理対象になるものを表示領域バッファに格納して、表示領域バッファ上で背景画像データを構成する画素の座標を横方向に移動させると共に、背景画像データの表示範囲から画素がはみ出た画素群を抽出して領域外バッファに書き込むことでなされ、
前記境界処理は、
領域外バッファからはみだし画素群を読み出して、テクスチャメモリに格納された処理済み背景画像データにおける一方の端部に書き込むことでなされる
ことを特徴とする請求項1記載の画像描画装置 - 前記結合画像データが、1つのメルカトル画像データの一方の端部と、他方の端部とを結合することで得られる結合メルカトル画像データである場合、
前記境界処理は、
結合メルカトル画像データにおける各画素がデプス画像データを元にシフトされることにより、メルカトル画像の表示範囲からはみ出すことになる画素群を抽出して、抽出されたはみ出し画素群を、抽出された端部とは逆側の端部に上書きする
ことを特徴とする請求項1記載の画像描画装置。 - 前記画像描画装置は、ユーザ操作に従って、地図上のカレント視点位置と、カレント視線方向とを判定する位置方向判定手段と、
地図上のカレント視点位置に対応する地理的情報を用いて画像取得要求を作成し、画像収集サーバに送信することでストリートビューファイルのダウンロードを行う取得手段とを備え、
画像収集サーバからダウンロードされたストリートビューファイルは画像取得要求に含まれる地理的情報と合致する撮影地属性を有し、
前記結合画像データは、ダウンロードされたストリートビューファイル内に存在する
ことを特徴とする請求項1記載の画像描画装置。 - 前記結合画像データは視点周囲画像であり、複数の背景画像データを横方向に結合させることで画像取得要求における地理的情報に対応する地理的位置から周囲を見渡した場合の光景を表す
ことを特徴とする請求項1記載の画像描画装置。 - 結合画像データについての立体視を実現する映像描画方法であって、
前記結合画像データは、複数の背景画像データが横方向に結合したものであり、
結合画像データを構成する個々の背景画像データに対して画素シフトを施すと共に、当該画素シフトに伴う境界処理を施すことで、2以上の視点テクスチャを得る画素シフトステップと、
三次元モデリング空間における立体モデルの内側表面に、2以上の視点テクスチャをマッピングするテクスチャマッピングステップと、
テクスチャマッピングがなされた立体モデルから、2以上の視点のそれぞれに対応するビューポート画像を抽出するビューポート変換ステップとを含み、
前記画素シフトは、
個々の背景画像データを構成する画素の座標を横方向に移動させる処理であり、画素の移動量は、結合画像データに対応するデプス画像データにおける画素の奥行き値に基づき定められ、
前記境界処理は、
横方向への画素座標の移動によって個々の背景画像データの表示範囲からはみ出すことになる画素群を抽出して、抽出されたはみ出し画素群を、結合画像データにおいて横方向に隣接する他の背景画像データの端部に書き込む処理である
ことを特徴とする映像描画方法。 - 結合画像データについての立体視をコンピュータに実現させる映像描画プログラムであって、
前記結合画像データは、複数の背景画像データが横方向に結合したものであり、
結合画像データを構成する個々の背景画像データに対して画素シフトを施すと共に、当該画素シフトに伴う境界処理を施すことで、2以上の視点テクスチャを得る画素シフトステップと、
三次元モデリング空間における立体モデルの内側表面に、2以上の視点テクスチャをマッピングするテクスチャマッピングステップと、
テクスチャマッピングがなされた立体モデルから、2以上の視点のそれぞれに対応するビューポート画像を抽出するビューポート変換ステップとをコンピュータに実行させ
前記画素シフトは、
個々の背景画像データを構成する画素の座標を横方向に移動させる処理であり、画素の移動量は、結合画像データに対応するデプス画像データにおける画素の奥行き値に基づき定められ、
前記境界処理は、
横方向への画素座標の移動によって個々の背景画像データの表示範囲からはみ出すことになる画素群を抽出して、抽出されたはみ出し画素群を、結合画像データにおいて横方向に隣接する他の背景画像データの端部に書き込む処理である
ことを特徴とする映像描画プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161470032P | 2011-03-31 | 2011-03-31 | |
US61/470,032 | 2011-03-31 | ||
PCT/JP2012/001460 WO2012132234A1 (ja) | 2011-03-31 | 2012-03-02 | 全周囲立体画像の描画を行う画像描画装置、画像描画方法、画像描画プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2012132234A1 JPWO2012132234A1 (ja) | 2014-07-24 |
JP5891426B2 true JP5891426B2 (ja) | 2016-03-23 |
Family
ID=46930030
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012542263A Expired - Fee Related JP5891426B2 (ja) | 2011-03-31 | 2012-03-02 | 全周囲立体画像の描画を行う画像描画装置、画像描画方法、画像描画プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US8907968B2 (ja) |
JP (1) | JP5891426B2 (ja) |
CN (1) | CN102971770B (ja) |
WO (1) | WO2012132234A1 (ja) |
Families Citing this family (107)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9286941B2 (en) | 2001-05-04 | 2016-03-15 | Legend3D, Inc. | Image sequence enhancement and motion picture project management system |
US9053562B1 (en) | 2010-06-24 | 2015-06-09 | Gregory S. Rabin | Two dimensional to three dimensional moving image converter |
US9282321B2 (en) | 2011-02-17 | 2016-03-08 | Legend3D, Inc. | 3D model multi-reviewer system |
US9241147B2 (en) | 2013-05-01 | 2016-01-19 | Legend3D, Inc. | External depth map transformation method for conversion of two-dimensional images to stereoscopic images |
US9288476B2 (en) * | 2011-02-17 | 2016-03-15 | Legend3D, Inc. | System and method for real-time depth modification of stereo images of a virtual reality environment |
US9407904B2 (en) * | 2013-05-01 | 2016-08-02 | Legend3D, Inc. | Method for creating 3D virtual reality from 2D images |
US9113130B2 (en) | 2012-02-06 | 2015-08-18 | Legend3D, Inc. | Multi-stage production pipeline system |
US20130201296A1 (en) * | 2011-07-26 | 2013-08-08 | Mitchell Weiss | Multi-camera head |
US9557885B2 (en) | 2011-08-09 | 2017-01-31 | Gopro, Inc. | Digital media editing |
GB2498184A (en) * | 2012-01-03 | 2013-07-10 | Liang Kong | Interactive autostereoscopic three-dimensional display |
US9547937B2 (en) | 2012-11-30 | 2017-01-17 | Legend3D, Inc. | Three-dimensional annotation system and method |
JP6044328B2 (ja) | 2012-12-26 | 2016-12-14 | 株式会社リコー | 画像処理システム、画像処理方法およびプログラム |
US20140215296A1 (en) * | 2013-01-25 | 2014-07-31 | Chunghwa Wideband Best Network Co., Ltd. | Method and system for presenting a webpage |
US9992021B1 (en) | 2013-03-14 | 2018-06-05 | GoTenna, Inc. | System and method for private and point-to-point communication between computing devices |
US9438878B2 (en) | 2013-05-01 | 2016-09-06 | Legend3D, Inc. | Method of converting 2D video to 3D video using 3D object models |
JP6167703B2 (ja) * | 2013-07-08 | 2017-07-26 | 株式会社リコー | 表示制御装置、プログラム及び記録媒体 |
CN108495051B (zh) | 2013-08-09 | 2021-07-06 | 热成像雷达有限责任公司 | 采用多个虚拟设备分析热像数据的方法和将深度值与图像像素进行关联的方法 |
US9965856B2 (en) | 2013-10-22 | 2018-05-08 | Seegrid Corporation | Ranging cameras using a common substrate |
US20150228106A1 (en) * | 2014-02-13 | 2015-08-13 | Vixs Systems Inc. | Low latency video texture mapping via tight integration of codec engine with 3d graphics engine |
US9754159B2 (en) | 2014-03-04 | 2017-09-05 | Gopro, Inc. | Automatic generation of video from spherical content using location-based metadata |
JP2015186015A (ja) * | 2014-03-24 | 2015-10-22 | 株式会社Jvcケンウッド | 画像処理装置、画像処理方法、プログラム及びカメラ |
US9972121B2 (en) * | 2014-04-22 | 2018-05-15 | Google Llc | Selecting time-distributed panoramic images for display |
US9934222B2 (en) | 2014-04-22 | 2018-04-03 | Google Llc | Providing a thumbnail image that follows a main image |
USD781317S1 (en) | 2014-04-22 | 2017-03-14 | Google Inc. | Display screen with graphical user interface or portion thereof |
USD780777S1 (en) | 2014-04-22 | 2017-03-07 | Google Inc. | Display screen with graphical user interface or portion thereof |
US9792502B2 (en) | 2014-07-23 | 2017-10-17 | Gopro, Inc. | Generating video summaries for a video using video summary templates |
US9685194B2 (en) | 2014-07-23 | 2017-06-20 | Gopro, Inc. | Voice-based video tagging |
CN104236547A (zh) * | 2014-10-07 | 2014-12-24 | 谭希妤 | 基于惯性导航系统的建筑物内部电子地图的方法与系统 |
EP3032495B1 (en) * | 2014-12-10 | 2019-11-13 | Dassault Systèmes | Texturing a 3d modeled object |
US9734870B2 (en) | 2015-01-05 | 2017-08-15 | Gopro, Inc. | Media identifier generation for camera-captured media |
US10127714B1 (en) * | 2015-01-27 | 2018-11-13 | Google Llc | Spherical three-dimensional video rendering for virtual reality |
US9679605B2 (en) | 2015-01-29 | 2017-06-13 | Gopro, Inc. | Variable playback speed template for video editing application |
KR102533555B1 (ko) | 2015-02-17 | 2023-05-18 | 네버마인드 캐피탈 엘엘씨 | 감축된 해상도 이미지들을 생성 및 이용하고 및/또는 재생 또는 컨텐트 분배 디바이스에 이러한 이미지들을 통신하기 위한 방법들 및 장치 |
US10362290B2 (en) | 2015-02-17 | 2019-07-23 | Nextvr Inc. | Methods and apparatus for processing content based on viewing information and/or communicating content |
WO2016147272A1 (ja) * | 2015-03-13 | 2016-09-22 | 日本電気株式会社 | 生体検知装置、生体検知方法、および、記録媒体 |
US10366509B2 (en) * | 2015-03-31 | 2019-07-30 | Thermal Imaging Radar, LLC | Setting different background model sensitivities by user defined regions and background filters |
WO2016187235A1 (en) | 2015-05-20 | 2016-11-24 | Gopro, Inc. | Virtual lens simulation for video and photo cropping |
US10061492B2 (en) | 2015-06-04 | 2018-08-28 | Microsoft Technology Licensing, Llc | Path-linked viewpoints from point of interest |
KR101835434B1 (ko) * | 2015-07-08 | 2018-03-09 | 고려대학교 산학협력단 | 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법 |
US9277122B1 (en) * | 2015-08-13 | 2016-03-01 | Legend3D, Inc. | System and method for removing camera rotation from a panoramic video |
WO2017031117A1 (en) * | 2015-08-17 | 2017-02-23 | Legend3D, Inc. | System and method for real-time depth modification of stereo images of a virtual reality environment |
US10217189B2 (en) * | 2015-09-16 | 2019-02-26 | Google Llc | General spherical capture methods |
US9609307B1 (en) | 2015-09-17 | 2017-03-28 | Legend3D, Inc. | Method of converting 2D video to 3D video using machine learning |
US9858706B2 (en) * | 2015-09-22 | 2018-01-02 | Facebook, Inc. | Systems and methods for content streaming |
US10096130B2 (en) * | 2015-09-22 | 2018-10-09 | Facebook, Inc. | Systems and methods for content streaming |
US9721611B2 (en) | 2015-10-20 | 2017-08-01 | Gopro, Inc. | System and method of generating video from video clips based on moments of interest within the video clips |
US10204273B2 (en) | 2015-10-20 | 2019-02-12 | Gopro, Inc. | System and method of providing recommendations of moments of interest within video clips post capture |
US9473758B1 (en) * | 2015-12-06 | 2016-10-18 | Sliver VR Technologies, Inc. | Methods and systems for game video recording and virtual reality replay |
US10109319B2 (en) | 2016-01-08 | 2018-10-23 | Gopro, Inc. | Digital media editing |
US10083537B1 (en) | 2016-02-04 | 2018-09-25 | Gopro, Inc. | Systems and methods for adding a moving visual element to a video |
US10230957B2 (en) | 2016-03-22 | 2019-03-12 | Cyberlink Corp. | Systems and methods for encoding 360 video |
US9794632B1 (en) | 2016-04-07 | 2017-10-17 | Gopro, Inc. | Systems and methods for synchronization based on audio track changes in video editing |
US9838730B1 (en) | 2016-04-07 | 2017-12-05 | Gopro, Inc. | Systems and methods for audio track selection in video editing |
US9838731B1 (en) | 2016-04-07 | 2017-12-05 | Gopro, Inc. | Systems and methods for audio track selection in video editing with audio mixing option |
EP3249929A1 (en) * | 2016-05-25 | 2017-11-29 | Thomson Licensing | Method and network equipment for establishing a manifest |
KR102589496B1 (ko) * | 2016-07-04 | 2023-10-16 | 삼성전자 주식회사 | 화면 표시 방법 및 이를 지원하는 전자 장치 |
US10185891B1 (en) | 2016-07-08 | 2019-01-22 | Gopro, Inc. | Systems and methods for compact convolutional neural networks |
US10621469B2 (en) * | 2016-07-28 | 2020-04-14 | Troy Plota | Automated pixel shifting within a video file |
US10339688B2 (en) * | 2016-07-28 | 2019-07-02 | Cyberlink Corp. | Systems and methods for rendering effects in 360 video |
JP6930541B2 (ja) * | 2016-08-19 | 2021-09-01 | ソニーグループ株式会社 | 画像処理装置および画像処理方法 |
JP6657475B2 (ja) * | 2016-08-25 | 2020-03-04 | エルジー エレクトロニクス インコーポレイティド | 全方位ビデオを伝送する方法、全方位ビデオを受信する方法、全方位ビデオの伝送装置及び全方位ビデオの受信装置 |
WO2018038520A1 (ko) * | 2016-08-25 | 2018-03-01 | 엘지전자 주식회사 | 전방향 비디오를 전송하는 방법, 전방향 비디오를 수신하는 방법, 전방향 비디오 전송 장치, 전방향 비디오 수신 장치 |
US9836853B1 (en) | 2016-09-06 | 2017-12-05 | Gopro, Inc. | Three-dimensional convolutional neural networks for video highlight detection |
WO2018052100A1 (ja) * | 2016-09-15 | 2018-03-22 | 株式会社カヤック | 画像処理装置、画像処理方法、画像処理プログラム |
KR102558473B1 (ko) | 2016-09-30 | 2023-07-25 | 삼성전자주식회사 | 이미지를 표시하기 위한 방법 및 그 전자 장치 |
US10404960B2 (en) * | 2016-10-10 | 2019-09-03 | Samsung Electronics Co., Ltd. | System and method to prevent boundary artifacts |
KR102598082B1 (ko) * | 2016-10-28 | 2023-11-03 | 삼성전자주식회사 | 영상 표시 장치, 모바일 장치 및 그 동작방법 |
US10284809B1 (en) | 2016-11-07 | 2019-05-07 | Gopro, Inc. | Systems and methods for intelligently synchronizing events in visual content with musical features in audio content |
US10262639B1 (en) | 2016-11-08 | 2019-04-16 | Gopro, Inc. | Systems and methods for detecting musical features in audio content |
US10999602B2 (en) | 2016-12-23 | 2021-05-04 | Apple Inc. | Sphere projected motion estimation/compensation and mode decision |
WO2018123645A1 (ja) * | 2016-12-28 | 2018-07-05 | ソニー株式会社 | 生成装置、識別情報生成方法、再生装置および画像再生方法 |
EP3565260A1 (en) * | 2016-12-28 | 2019-11-06 | Sony Corporation | Generation device, identification information generation method, reproduction device, and image generation method |
WO2018123801A1 (ja) * | 2016-12-28 | 2018-07-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 三次元モデル配信方法、三次元モデル受信方法、三次元モデル配信装置及び三次元モデル受信装置 |
US10334238B2 (en) * | 2017-01-03 | 2019-06-25 | Black Sails Technology Inc. | Method and system for real-time rendering displaying high resolution virtual reality (VR) video |
US10534966B1 (en) | 2017-02-02 | 2020-01-14 | Gopro, Inc. | Systems and methods for identifying activities and/or events represented in a video |
US11259046B2 (en) | 2017-02-15 | 2022-02-22 | Apple Inc. | Processing of equirectangular object data to compensate for distortion by spherical projections |
US10924747B2 (en) | 2017-02-27 | 2021-02-16 | Apple Inc. | Video coding techniques for multi-view video |
US10127943B1 (en) | 2017-03-02 | 2018-11-13 | Gopro, Inc. | Systems and methods for modifying videos based on music |
US10185895B1 (en) | 2017-03-23 | 2019-01-22 | Gopro, Inc. | Systems and methods for classifying activities captured within images |
US10083718B1 (en) | 2017-03-24 | 2018-09-25 | Gopro, Inc. | Systems and methods for editing videos based on motion |
US10477200B2 (en) * | 2017-04-13 | 2019-11-12 | Facebook, Inc. | Panoramic camera systems |
US10187690B1 (en) | 2017-04-24 | 2019-01-22 | Gopro, Inc. | Systems and methods to detect and correlate user responses to media content |
US11802968B2 (en) | 2017-05-31 | 2023-10-31 | Woven By Toyota, U.S., Inc. | System of vehicles equipped with imaging equipment for high-definition near real-time map generation |
US11093752B2 (en) | 2017-06-02 | 2021-08-17 | Apple Inc. | Object tracking in multi-view video |
US10754242B2 (en) | 2017-06-30 | 2020-08-25 | Apple Inc. | Adaptive resolution and projection format in multi-direction video |
US20190005709A1 (en) * | 2017-06-30 | 2019-01-03 | Apple Inc. | Techniques for Correction of Visual Artifacts in Multi-View Images |
CN107392851A (zh) * | 2017-07-04 | 2017-11-24 | 上海小蚁科技有限公司 | 用于生成全景图像的方法和设备 |
CN107318010B (zh) * | 2017-07-05 | 2019-10-11 | 上海小蚁科技有限公司 | 用于生成立体全景图像的方法和设备 |
EP3435670A1 (en) * | 2017-07-25 | 2019-01-30 | Koninklijke Philips N.V. | Apparatus and method for generating a tiled three-dimensional image representation of a scene |
EP3680857B1 (en) * | 2017-09-11 | 2021-04-28 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Image processing method and apparatus, electronic device and computer-readable storage medium |
US10574886B2 (en) | 2017-11-02 | 2020-02-25 | Thermal Imaging Radar, LLC | Generating panoramic video for video management systems |
US11474254B2 (en) | 2017-11-07 | 2022-10-18 | Piaggio Fast Forward Inc. | Multi-axes scanning system from single-axis scanner |
CN109035375B (zh) * | 2018-06-22 | 2023-11-10 | 广州久邦世纪科技有限公司 | 一种基于OpenGL的3D眼镜渲染方法及其系统 |
US10652514B2 (en) | 2018-07-19 | 2020-05-12 | Facebook, Inc. | Rendering 360 depth content |
EP3598395A1 (en) * | 2018-07-19 | 2020-01-22 | Facebook, Inc. | Rendering 360 depth content |
CN110956583B (zh) * | 2018-09-26 | 2022-05-10 | 华为技术有限公司 | 球面图像处理方法、装置及服务器 |
US10657699B1 (en) * | 2018-12-08 | 2020-05-19 | Arm Limited | Performing texturing operations for sets of plural execution threads in graphics processing systems |
US11190755B2 (en) * | 2019-06-12 | 2021-11-30 | Sony Interactive Entertainment Inc. | Asymmetric arrangement of left and right displays to improve image quality for a stereoscopic head-mounted display (HMD) |
CN110930305A (zh) * | 2019-10-25 | 2020-03-27 | 江苏荣策士科技发展有限公司 | 一种基于空间坐标轴的全景图像的拼接方法 |
KR102593103B1 (ko) * | 2019-10-28 | 2023-10-24 | 주식회사 케이티 | 카메라를 정렬하는 장치, 방법 및 컴퓨터 프로그램 |
US11601605B2 (en) | 2019-11-22 | 2023-03-07 | Thermal Imaging Radar, LLC | Thermal imaging camera device |
US11758101B2 (en) * | 2020-08-25 | 2023-09-12 | Samsung Electronics Co., Ltd. | Restoration of the FOV of images for stereoscopic rendering |
KR102558095B1 (ko) * | 2020-12-15 | 2023-07-24 | 한국과학기술원 | 의미론적 객체 매칭을 통한 파노라마 텍스처 매핑 방법 및 시스템 |
CN115578502B (zh) * | 2022-11-18 | 2023-04-07 | 杭州枕石智能科技有限公司 | 一种图像生成方法、装置、电子设备及存储介质 |
TWI828575B (zh) * | 2023-04-14 | 2024-01-01 | 欣時代數位科技有限公司 | 環景佈景生成系統及其控制方法 |
CN116893816B (zh) * | 2023-09-08 | 2024-01-23 | 北京趋动智能科技有限公司 | 远程渲染方法、装置及存储介质 |
CN117197319B (zh) * | 2023-11-07 | 2024-03-22 | 腾讯科技(深圳)有限公司 | 图像生成方法、装置、电子设备及存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11514118A (ja) * | 1996-06-07 | 1999-11-30 | フィリップス エレクトロニクス ネムローゼ フェンノートシャップ | 立体画像の発生 |
JP2003284093A (ja) * | 2002-03-27 | 2003-10-03 | Sanyo Electric Co Ltd | 立体画像処理方法および装置 |
JP2004132933A (ja) * | 2002-10-15 | 2004-04-30 | Japan Science & Technology Agency | アクティブセンサの位置・姿勢推定方法及びその装置、並びにアクティブセンサの位置・姿勢推定プログラム |
JP2009123219A (ja) * | 2007-11-16 | 2009-06-04 | Gwangju Inst Of Science & Technology | 深さマップ推定装置と方法、これを用いた中間映像生成方法および多視点ビデオのエンコーディング方法 |
JP2009129183A (ja) * | 2007-11-22 | 2009-06-11 | Internatl Business Mach Corp <Ibm> | 仮想空間を構築するための画像処理方法、装置 |
JP2009194920A (ja) * | 2002-06-28 | 2009-08-27 | Sharp Corp | 画像符号化装置、および画像送信装置 |
WO2010032403A1 (ja) * | 2008-09-18 | 2010-03-25 | パナソニック株式会社 | 映像コンテンツを立体視再生する再生装置、再生方法、および再生プログラム |
JP2010193458A (ja) * | 2009-02-19 | 2010-09-02 | Sony Europe Ltd | 画像処理装置、画像処理システム及び画像処理方法 |
JP2010531007A (ja) * | 2007-05-25 | 2010-09-16 | グーグル インコーポレイテッド | パノラマのイメージを描画すること、閲覧すること、および注釈をつけること、ならびにそのアプリケーション |
JP2011039358A (ja) * | 2009-08-14 | 2011-02-24 | Shibaura Institute Of Technology | 立体画像地図 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2357838B1 (en) * | 2002-03-27 | 2016-03-16 | Sanyo Electric Co., Ltd. | Method and apparatus for processing three-dimensional images |
US8369607B2 (en) * | 2002-03-27 | 2013-02-05 | Sanyo Electric Co., Ltd. | Method and apparatus for processing three-dimensional images |
JP3852934B2 (ja) * | 2003-05-20 | 2006-12-06 | 株式会社バンダイナムコゲームス | 画像処理システム、プログラム及び情報記憶媒体 |
US8515207B2 (en) | 2007-05-25 | 2013-08-20 | Google Inc. | Annotations in panoramic images, and applications thereof |
US7843451B2 (en) | 2007-05-25 | 2010-11-30 | Google Inc. | Efficient rendering of panoramic images, and applications thereof |
US7990394B2 (en) | 2007-05-25 | 2011-08-02 | Google Inc. | Viewing and navigating within panoramic images, and applications thereof |
JP5055214B2 (ja) * | 2007-10-19 | 2012-10-24 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
WO2010095403A1 (ja) | 2009-02-17 | 2010-08-26 | パナソニック株式会社 | 再生装置、再生方法、プログラム |
US20100306249A1 (en) * | 2009-05-27 | 2010-12-02 | James Hill | Social network systems and methods |
US20110080462A1 (en) | 2009-10-02 | 2011-04-07 | Panasonic Corporation | Playback device, integrated circuit, playback method, and program for stereoscopic video playback |
KR20120091007A (ko) * | 2009-10-02 | 2012-08-17 | 파나소닉 주식회사 | 입체 시 영상을 재생할 수 있는 재생장치, 집적회로, 재생방법, 프로그램 |
US10080006B2 (en) * | 2009-12-11 | 2018-09-18 | Fotonation Limited | Stereoscopic (3D) panorama creation on handheld device |
-
2012
- 2012-03-02 JP JP2012542263A patent/JP5891426B2/ja not_active Expired - Fee Related
- 2012-03-02 US US13/635,820 patent/US8907968B2/en not_active Expired - Fee Related
- 2012-03-02 CN CN201280001059.1A patent/CN102971770B/zh not_active Expired - Fee Related
- 2012-03-02 WO PCT/JP2012/001460 patent/WO2012132234A1/ja active Application Filing
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11514118A (ja) * | 1996-06-07 | 1999-11-30 | フィリップス エレクトロニクス ネムローゼ フェンノートシャップ | 立体画像の発生 |
JP2003284093A (ja) * | 2002-03-27 | 2003-10-03 | Sanyo Electric Co Ltd | 立体画像処理方法および装置 |
JP2009194920A (ja) * | 2002-06-28 | 2009-08-27 | Sharp Corp | 画像符号化装置、および画像送信装置 |
JP2004132933A (ja) * | 2002-10-15 | 2004-04-30 | Japan Science & Technology Agency | アクティブセンサの位置・姿勢推定方法及びその装置、並びにアクティブセンサの位置・姿勢推定プログラム |
JP2010531007A (ja) * | 2007-05-25 | 2010-09-16 | グーグル インコーポレイテッド | パノラマのイメージを描画すること、閲覧すること、および注釈をつけること、ならびにそのアプリケーション |
JP2009123219A (ja) * | 2007-11-16 | 2009-06-04 | Gwangju Inst Of Science & Technology | 深さマップ推定装置と方法、これを用いた中間映像生成方法および多視点ビデオのエンコーディング方法 |
JP2009129183A (ja) * | 2007-11-22 | 2009-06-11 | Internatl Business Mach Corp <Ibm> | 仮想空間を構築するための画像処理方法、装置 |
WO2010032403A1 (ja) * | 2008-09-18 | 2010-03-25 | パナソニック株式会社 | 映像コンテンツを立体視再生する再生装置、再生方法、および再生プログラム |
JP2010193458A (ja) * | 2009-02-19 | 2010-09-02 | Sony Europe Ltd | 画像処理装置、画像処理システム及び画像処理方法 |
JP2011039358A (ja) * | 2009-08-14 | 2011-02-24 | Shibaura Institute Of Technology | 立体画像地図 |
Non-Patent Citations (1)
Title |
---|
JPN6012018224; 飯塚 里志 外3名: '"簡易ユーザ入力による景観画像の3Dシーン生成システム"' 情報処理学会研究報告 研究報告 グラフィックスとCAD(CG) No.142, 20110415, p.1-6 * |
Also Published As
Publication number | Publication date |
---|---|
CN102971770A (zh) | 2013-03-13 |
US8907968B2 (en) | 2014-12-09 |
CN102971770B (zh) | 2016-02-10 |
JPWO2012132234A1 (ja) | 2014-07-24 |
WO2012132234A1 (ja) | 2012-10-04 |
US20130044108A1 (en) | 2013-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5891426B2 (ja) | 全周囲立体画像の描画を行う画像描画装置、画像描画方法、画像描画プログラム | |
JP5891425B2 (ja) | 追体験映像を提供することができる映像提供装置、映像提供方法、映像提供プログラム | |
JP5891388B2 (ja) | 立体視画像の描画を行う画像描画装置、画像描画方法、画像描画プログラム | |
EP3673463B1 (en) | Rendering an image from computer graphics using two rendering computing devices | |
JP4764305B2 (ja) | 立体画像生成装置、方法およびプログラム | |
JP7007348B2 (ja) | 画像処理装置 | |
US20070070067A1 (en) | Scene splitting for perspective presentations | |
TW201921921A (zh) | 基於紋理圖與網格之3d影像資訊的處理 | |
CN101189643A (zh) | 3d图像生成和显示系统 | |
US8619071B2 (en) | Image view synthesis using a three-dimensional reference model | |
US11417060B2 (en) | Stereoscopic rendering of virtual 3D objects | |
JP2022179473A (ja) | 前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用した新しいフレームの生成 | |
TW201921318A (zh) | 用於產生場景之舖磚式三維影像表示之設備及方法 | |
KR102059732B1 (ko) | 디지털 비디오 렌더링 | |
EP3057316B1 (en) | Generation of three-dimensional imagery to supplement existing content | |
CN115908716A (zh) | 虚拟场景灯光渲染方法、装置、存储介质及电子设备 | |
CN117011492B (zh) | 图像渲染方法、装置、电子设备及存储介质 | |
JP6898264B2 (ja) | 合成装置、方法及びプログラム | |
US20210297649A1 (en) | Image data output device, content creation device, content reproduction device, image data output method, content creation method, and content reproduction method | |
CN114051089B (zh) | 一种全景视频中投放资源的方法及显示设备 | |
Sauerbier et al. | Multi-resolution image-based visualization of archaeological landscapes in Palpa (Peru) | |
CN114051090B (zh) | 一种全景视频中投放资源的方法及显示设备 | |
WO2023166794A1 (ja) | 情報処理装置、情報処理方法、画像生成装置、画像生成方法及びプログラム | |
Alshammari et al. | Creation of a virtual landscape of Al-Madinah Al-Munwwarah in Saudi Arabia including 3-dimensional scene attributes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20140606 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20141006 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141104 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151020 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151112 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5891426 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
SZ03 | Written request for cancellation of trust registration |
Free format text: JAPANESE INTERMEDIATE CODE: R313Z03 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |