JP2019036790A - 画像生成装置、画像生成方法、及びプログラム - Google Patents

画像生成装置、画像生成方法、及びプログラム Download PDF

Info

Publication number
JP2019036790A
JP2019036790A JP2017155882A JP2017155882A JP2019036790A JP 2019036790 A JP2019036790 A JP 2019036790A JP 2017155882 A JP2017155882 A JP 2017155882A JP 2017155882 A JP2017155882 A JP 2017155882A JP 2019036790 A JP2019036790 A JP 2019036790A
Authority
JP
Japan
Prior art keywords
resolution
image
subject
virtual viewpoint
shape data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017155882A
Other languages
English (en)
Other versions
JP2019036790A5 (ja
JP7033865B2 (ja
Inventor
知宏 西山
Tomohiro Nishiyama
知宏 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017155882A priority Critical patent/JP7033865B2/ja
Priority to EP18185722.8A priority patent/EP3442225B1/en
Priority to KR1020180088921A priority patent/KR102316061B1/ko
Priority to US16/056,898 priority patent/US10872462B2/en
Priority to CN201810902118.1A priority patent/CN109389545B/zh
Publication of JP2019036790A publication Critical patent/JP2019036790A/ja
Publication of JP2019036790A5 publication Critical patent/JP2019036790A5/ja
Application granted granted Critical
Publication of JP7033865B2 publication Critical patent/JP7033865B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】仮想視点画像を生成する際に、許容可能な画質を維持しながら、処理負荷を抑える。【解決手段】複数の異なる位置から撮像された被写体の画像群を取得する。仮想視点の位置情報を取得する。解像度設定の基準となる基準点と仮想視点との間の距離に応じて被写体形状データの解像度を設定する。解像度に応じた被写体形状データと、被写体の画像群とを用いて、仮想視点からの被写体の仮想視点画像を生成する。【選択図】図3

Description

本発明は、画像生成装置、画像生成方法、及びプログラムに関する。
複数台のカメラで取得した画像と、被写体の3次元モデル(被写体までの距離情報を含む)を用いて、撮像視点とは異なる仮想視点からの画像(仮想視点画像)を生成する手法が知られている。特許文献1には、仮想視点から見た距離マップ(画素ごとにシーンまでの距離が格納されたデータ)を用いて、仮想視点画像の各画素における画素値を算出することで、仮想視点画像を生成することが示されている。
一方、特許文献2には、3次元モデルの格納には大きなメモリ量を必要とするため、被写体表面付近のボクセル解像度を高くし、被写体内部のボクセル解像度を低くすることが示されている。
特開2000−215311号公報 特開2002−366935号公報
特許文献1に記載の手法を用いた場合、シーンによって仮想視点画像の画質が低下することがあった。仮想視点画像の画質は、3次元モデルの解像度を高くすることにより向上するが、これは処理量及び処理に必要なメモリ量の増加につながっていた。特許文献2に記載の方法を用いた場合でも、仮想視点画像の画質に対する影響が大きい被写体の表面形状を示すボクセルを十分に小さくする必要があるため、処理量及び処理に必要なメモリ量の抑制は不十分であった。
本発明は、仮想視点画像を生成する際に、許容可能な画質を維持しながら、処理負荷を抑えることを目的とする。
本発明の目的を達成するために、例えば、本発明の画像生成装置は以下の構成を備える。すなわち、
複数の異なる位置から撮像された被写体の画像群を取得する画像取得手段と、
仮想視点の位置情報を取得する視点取得手段と、
解像度設定の基準となる基準点と前記仮想視点との間の距離に応じて被写体形状データの解像度を設定する設定手段と、
前記解像度に応じた前記被写体形状データと、前記被写体の画像群とを用いて、前記仮想視点からの被写体の仮想視点画像を生成する生成手段と、
を備えることを特徴とする。
仮想視点画像を生成する際に、許容可能な画質を維持しながら、処理負荷を抑えることができる。
実施形態1に係る撮像システムの例を示す図。 実施形態1に係る画像生成装置の構成を示すブロック図。 実施形態1に係る画像生成装置の構成を示すブロック図。 実施形態1に係る画像生成方法の処理の流れを示すフローチャート。 空間解像度の算出方法を説明する概念図。 解像度の設定に用いるユーザインタフェースの一例を示す図。 実施形態2に係る画像生成方法の処理の流れを示すフローチャート。
仮想視点画像を生成する場合、被写体形状データの距離分解能が低すぎると仮想視点の画質が劣化する一方、距離分解能が高すぎると画質が向上しないにもかかわらず処理量が増加する。そこで、本発明の一実施形態においては、生成しようとする仮想視点画像に適した距離分解能を有するように、使用する被写体形状データの空間解像度が調整される。以下、本発明の実施例を図面に基づいて説明する。ただし、本発明の範囲は以下の実施例に限定されるものではない。
[実施形態1]
実施形態1では、仮想視点から被写体までの距離に応じて、被写体形状データの空間解像度を設定する例について説明する。一実施形態によれば、仮想視点画像を被写体形状データに基づいて生成する際に、許容可能な画質を維持しながら、演算量又は使用するメモリ量を抑えることができる。なお、自由に設定された仮想視点からの仮想視点画像は、自由視点画像とも呼ばれる。また、仮想視点画像は被写体の3次元モデルに基づいて生成することができ、以下では被写体の形状を示す被写体形状データの例として、被写体の3次元モデルを用いる場合について説明する。
図1は、本実施形態に係る撮像システムの例を示す。撮像システム100は、複数のカメラ101と、画像生成装置200とを備える。図1には、本実施形態において用いられるカメラ101の配置を示す。図1に示すように、被写体を取り囲むように配置された複数のカメラ101を用いて、被写体の撮像が行われる。カメラ101は、複数の異なる位置から被写体の画像群を撮像する。図1の例では、屋外又は屋内の競技場に配置された複数のカメラ101を用いて、グラウンド104上にいる選手102及びボール103が撮影されている。図1はスポーツシーンへの応用例を示すが、本実施形態は任意のシーンにおける被写体の撮影に適用可能である。なお、本実施形態においては、被写体は時間とともに移動する物体のことを指し、例えば選手102及びボール103を含む。もっとも、被写体の特定方法は任意であり、背景のような静止物体を被写体として扱うこともできる。
次に、実施形態1に係る画像生成装置200の構成について説明する。図2は、画像生成装置200の構成の一例を示す。CPU201は、RAM202又はROM203等のメモリに格納されているコンピュータプログラム及びデータを用いて各種の処理を実行する。これによりCPU201は、画像生成装置200全体の動作制御を行うとともに、画像生成装置200が行うものとして後述する各処理を実行又は制御する。なお、CPU201は、1つのプロセッサであっても、複数のプロセッサであってもよい。
RAM202は、ROM203又は記憶部204のようなメモリからロードされたコンピュータプログラム及びデータを格納するためのエリアを有する。さらにRAM202は、CPU201が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM202は、各種のエリアを提供することができる。ROM203は、書き換え不要の設定データ及びブートプログラムのようなデータ又はプログラムを格納している。
記憶部204は、プログラム及びデータを格納する記憶装置であり、例えばハードディスクドライブ装置のような大容量情報記憶装置である。記憶部204は、例えば、OS(オペレーティングシステム)、並びに画像生成装置200が行うものとして後述する各処理をCPU201に実行させるためのコンピュータプログラム及びデータを保存することができる。記憶部204は、処理対象となる画像又は動画像のデータを格納することができる。記憶部204に保存されているプログラム又はデータは、CPU201による制御に従ってRAM202にロードされることにより、CPU201による処理対象となることができる。記憶部204は、ハードディスクドライブ装置以外に、CD−ROM若しくはDVD−ROM等の記憶媒体から情報を読み取る機器、又はフラッシュメモリ若しくはUSBメモリなどのメモリ装置であってもよい。
出力インタフェース205は、出力インタフェース205に接続された表示装置207に表示データを送ることにより、表示装置207に表示を行わせることができる。こうして、表示装置207は、CPU201による処理結果を画像又は文字を用いて表示又は投影することができる。表示装置207は、例えば、CRT、液晶画面、又はプロジェクタ装置でありうる。
CPU201、RAM202、ROM203、記憶部204、及び出力インタフェース205は、いずれもバス206に接続されており、バス206を介して相互に通信することができる。なお、図2に示した構成は、画像生成装置200に適用可能なコンピュータ装置の構成の一例に過ぎない。例えば、画像生成装置200は、CPU201の代わりに、又はCPU201とともに、GPU(Graphics Processing Unit)、ASIC、又はFPGA等のハードウェアを有していてもよい。この場合、GPU、ASIC、又はFPGA等のハードウェアが、CPU201が行うべき処理の一部又は全てを行ってもよい。
(空間解像度の設定方法)
本実施形態に係る空間解像度の設定方法について、図5を参照して説明する。図5は、3次元空間中に設定されたボクセル501と、仮想視点に配置された仮想カメラ503との位置関係を示す。本実施形態において得られる仮想視点画像は、仮想視点に配置された仮想カメラ503により得られる画像に相当する。
以下の説明において、被写体が存在する3次元空間はボクセルを用いて離散的に表される。すなわち、対象となる3次元空間は、大きさΔ[mm]の正規格子であるボクセルで区切られる。各ボクセルの座標は,例えば(x座標,y座標,z座標)=(0,0,0)、(1,0,0)、(3,0,1)……のように、格子ベクトルを用いて表現できる。ボクセルに対応する3次元空間内での実際の物理的な位置は、このような格子ベクトルに正規格子の大きさΔを乗算することで得られる。Δとしては、例えば5mmなどの値を採用することができる。
図5は、ボクセル501を仮想カメラ503に射影した様子を表している。線506はボクセル501の中心部から仮想カメラ503までの、仮想カメラ503の光軸方向に沿った距離z[mm]を表す。また、線505,507は、ボクセル501の端部を仮想カメラ503に射影する線である。線502はボクセルの大きさΔ[mm]を表す。面504は仮想カメラ503により得られる仮想視点画像の投影面を表す。以下では、仮想カメラ503の、ピクセル単位で表した焦点距離をf[pix]とする。
ボクセル501を仮想カメラ503に射影する際、仮想カメラ503から見てボクセル501が最も大きく見えるのは、ボクセル501の最も長い対角線(長さは√3Δ)が、仮想カメラ503の光軸と直交する場合である。このとき、ボクセル501の、仮想視点画像上での大きさは、以下の式に従うピクセル幅d[pix]で表される。
d=√3(fΔ/z) ……式(1)
言い換えれば、ボクセルの大きさがΔの場合、仮想視点画像上での被写体の解像度はd[pix]より細かくならない。ここでは、最も被写体の解像度が低くなるケースを考慮し、ボクセルの最も長い対角線(長さは√3Δ)を用いてピクセル幅dを計算した。しかしながら、代わりにボクセルの正方形の対角線(長さは√2Δ)又はボクセルの一辺(長さはΔ)を用いてピクセル幅dを計算することもできる。
一方、仮想視点画像上で、被写体を許容解像度w[pix]より細かい解像度で表現したい場合、式(1)によれば、
√3(fΔ/z)<w ……式(2)
が成立する必要がある。例えば、被写体を2[pix]より細かい解像度で表現したい場合には、√3(fΔ/z)<2が成立する必要がある。この式をΔについて解くことで、許容解像度wを得るために必要なボクセルの大きさΔ、すなわち必要な空間解像度を得ることができる。このように、特定の被写体までの距離zと、仮想視点画像における特定の被写体についての許容解像度wを用いて、特定の被写体を許容解像度wより細かく表現するために必要な空間解像度Δを得ることができる。また、被写体に限られない特定の注視点までの距離zを用いて、空間解像度Δを得ることもできる。
このように決定された空間解像度Δは被写体形状データの解像度として設定することができる。この場合、被写体形状データによって表される形状を有し基準点に位置する被写体を、仮想視点画像に投影した際における、仮想視点画像上での被写体の形状の解像度を、解像度として指定された値以上(w以上)となるように高く(細かく)することができる。この例において、許容解像度wは、仮想視点画像における被写体の形状の解像度として指定された解像度であるといえる。
また、仮想視点画像上で、全ての被写体をw[pix]より細かい解像度で表現したい場合がある。仮想カメラ503から被写体が近いほど√3(fΔ/z)は大きくなるため、仮想カメラ503から最も近い被写体について式(2)が成立すれば、全ての被写体について式(2)が成立する。したがって、仮想視点画像上で、全ての被写体をw[pix]より細かい解像度で表現するためには、仮想カメラ503から最も近い被写体の距離をzminとすると、
√3(fΔ/zmin)<w ……式(3)
が成立する必要がある。
このように、仮想視点に最も近い距離の被写体までの距離zminと、仮想視点画像における許容解像度wを用いて、全ての被写体を許容解像度wより細かく表現するために必要な空間解像度Δを得ることができる。すなわち、基準点と仮想視点との間の距離は、複数の被写体のうち仮想視点に最も近い被写体と仮想視点との間の距離でありうる。
また、計算量及び必要なメモリ量を削減するためには、式(2)又は式(3)が成立する空間解像度Δのうち最も大きい値を、3次元モデルの空間解像度として採用することができる。例えばΔ=wz/f√3又はΔ=wzmin/f√3に従って空間解像度Δを決定することかできる。
さらに、被写体ごとに3次元モデルの解像度Δを変えることもできる。この場合、被写体iまでの代表的な距離をz、被写体iの3次元モデルの解像度をΔ、及び許容解像度をw[pix]とすると、式(1)を用いて式(4)が得られる。
Δ=wz/f√3 ……式(4)
式(4)を用いることにより、被写体ごとに最適な解像度を算出することができる。この場合、仮想カメラ503に近い被写体よりも、仮想カメラ503から遠い被写体の方が、ボクセルの大きさΔが大きくなる。このように、複数の被写体のそれぞれと仮想視点との間の距離に応じて、それぞれの被写体についての被写体形状データの解像度を独立に設定することができる。
なお、焦点距離fは単位[mm]で表すこともできる。仮想視点画像における投影面上の物体の解像度をr[pix/mm]とすると、ピクセル単位で表した焦点距離f[pix]は、
f[pix]=r[pix/mm]×f[mm] ……式(5)
と表現することもできる。
(本実施形態の処理)
以下、実施形態1の画像生成装置200で行われる処理について、図3に示す機能ブロック図及び図4に示すフローチャートを用いて説明する。実施形態1の画像生成装置200は、図3に示すように画像取得部301、パラメータ取得部302、位置取得部303、視点取得部304、解像度設定部305、モデル生成部306、レンダリング部307、及び解像度取得部308を備える。画像生成装置200は、CPU201がROM203内に格納された制御プログラムを読み込み実行することで、上記各部の機能を実現することができる。なお、画像生成装置200は、図3に示す構成部の1以上に相当する専用の処理回路を備えていてもよい。以下、各構成部により行われる、本実施形態に係る処理の流れを説明する。
ステップS401で、画像取得部301は、複数の異なる位置から撮像された被写体の画像群を取得する。例えば、画像取得部301は、複数の視点から得られた画像データ(すなわち複数のカメラ101により撮像された画像データ)を、記憶部204から取得することができる。画像取得部301は、カメラ101から直接画像を取得してもよい。画像取得部301は、複数のカメラ101により略同時に得られた静止画像群を取得することができる。また、画像取得部301は、複数の異なる位置から撮像された動画像群を取得することもできる。例えば、画像取得部301は、複数のカメラ101により得られた動画像のうち、略同時に得られたフレーム画像群を取得することもできる。
ステップS402で、パラメータ取得部302は、カメラ101のカメラパラメータを取得する。カメラパラメータは、内部パラメータ、外部パラメータ、及び歪曲パラメータを含む。内部パラメータは、画像中心の座標値、及びカメラのレンズの焦点距離を含んでもよい。外部パラメータは、カメラの位置と向きを表すパラメータである。本明細書では、外部パラメータとして、世界座標におけるカメラの位置ベクトル及び回転行列を用いるが、外部パラメータはカメラの位置と向きを他の方法で記述してもよい。歪曲パラメータは、カメラのレンズの歪曲を表す。このようなカメラパラメータからは、画像を撮像したカメラの位置と、カメラから画像の各画素に対応する被写体へと向かう方向を得ることができる。カメラパラメータの取得方法は特に限定されない。例えば、カメラパラメータは記憶部204に予め格納されていてもよい。カメラパラメータは、複数視点からの画像データを基にして例えばstructure from motion法を用いて推定を行うことにより得ることができるし、チャートなどを用いたキャリブレーションを行うことにより得ることもできる。
ステップS403で、視点取得部304は、仮想視点の位置情報を取得する。例えば、視点取得部304は、仮想視点のカメラパラメータを取得することができる。本実施形態において得られる仮想視点画像は、カメラパラメータに従って仮想視点に配置される仮想カメラにより得られる画像に相当する。仮想視点のカメラパラメータからは、仮想視点の位置と、仮想視点から仮想視点画像の各画素に対応する被写体へと向かう方向を得ることができる。このようなカメラパラメータの具体例としては、仮想視点の位置及び向き(視線方向)、焦点距離、及び仮想視点画像の画素数(解像度)等が挙げられる。
ステップS404で、位置取得部303は、解像度設定の基準となる基準点と仮想視点との間の距離を取得する。基準点には、既に説明したように解像度設定の基準となる被写体を示す点、及び解像度設定の基準となる注視点が含まれる。すなわち、位置取得部303は、仮想視点から、被写体又は決められた注視点までの距離を取得することができる。ここで、位置取得部303は、被写体の位置情報を、基準点の位置情報として取得することができ、この位置情報に基づき、基準点と仮想視点との間の距離を取得することができる。
ステップS404で取得される距離は概略距離であってよい。また、位置取得部303は、1つの被写体(例えば選手)の複数の部分について仮想視点からの距離を取得する必要はなく、1つの被写体について1つの距離を取得してもよい。さらに、位置取得部303は、複数の被写体(例えば複数の選手)が存在する場合、複数の被写体のうち1つの被写体(例えば仮想視点から最も近い被写体)のみについて仮想視点からの距離を取得してもよい。一方、位置取得部303は、複数の被写体のそれぞれについて仮想視点からの距離を取得してもよい。
位置取得部303は、例えば、被写体の画像群を用いて被写体の概略位置情報を推定することができる。そして、位置取得部303は、被写体の概略位置情報を、基準点の位置情報として取得することができる。このようにして、位置取得部303は、基準点と仮想視点との間の距離を取得することができる。具体的な方法としては、例えば、解像度の粗いボクセルを用いて視体積交差法を行う方法が挙げられる。また、被写体認識を行い、認識された被写体の一部についてステレオマッチング法を用いた距離推定を行うこともできる。被写体までの大まかな距離を取得するための、公知の他の方法を用いることもできる。また、位置取得部303は、注視点を指定する情報を取得し、仮想視点から注視点までの距離を算出することもできる。ここで、注視点とは、仮想視点画像において、注目されるべきメインターゲットとなる点のことである。また、光軸を共通の位置に向けるように複数のカメラ101が設置される場合、注視点は、その位置であってもよい。
ステップS405で、解像度取得部308は、仮想視点画像中の基準点に対応する箇所の解像度として指定された解像度を取得する。仮想視点画像は、基準点に対応する箇所における被写体の形状の解像度が所定の解像度以上となるように、生成される。例えば、解像度取得部308は、上述した仮想視点における許容解像度を取得することができる。解像度取得部308が許容解像度を取得する方法は特に限定されない。例えば、解像度取得部308は、予め定められた許容解像度を記憶部204等の記憶媒体から取得することができる。また、解像度取得部308は、許容解像度を外部から取得することもできる。一方、許容解像度は固定値であってもよい。許容解像度の設定方法の一例については後述する。
ステップS406で、解像度設定部305は、解像度設定の基準となる基準点と仮想視点との間の距離に応じて被写体形状データの解像度を設定する。また、解像度設定部305は、仮想視点画像中の基準点に対応する箇所の解像度として指定された解像度に応じて、被写体形状データの解像度を設定することができる。また、上述のように、仮想視点画像の画角(例えば焦点距離)及び解像度に応じて、被写体形状データの解像度を設定することができる。例えば、解像度設定部305は、ステップS405で取得された許容解像度に従って、上述のように被写体の3次元モデルを生成する際の空間解像度を算出することができる。
ステップS407で、モデル生成部306は、被写体の画像群を用いて、解像度設定部305により設定された解像度に従う被写体の、被写体形状データを生成する。例えば、モデル生成部306は、ステップS406で算出した空間解像度に従って、被写体の3次元モデルを生成することができる。被写体の3次元モデルを生成する方法としては、例えば視体積交差法又はステレオマッチング法のような公知の方法を用いることができる。このような方法は特許文献1のような公知文献に記載されており、詳細な説明は省略する。もっとも、被写体形状データを得るための方法はこの方法には限られず、例えば様々な解像度を有する被写体形状データが予め用意されていてもよい。
モデル生成部306は、ボクセルにより表される3次元モデルを生成する場合、解像度設定部305により設定された解像度を有する3次元モデルを生成することができる。この場合、被写体形状データはボクセルデータであり、解像度はボクセルの大きさを表すことができる。また、モデル生成部306は、3次元モデルとして仮想視点からみた被写体のデプスマップ又は視差マップを生成することもできる。この場合、解像度設定部305は、3次元モデルのボクセルの大きさを設定する方法と同様の方法で、デプス値のステップ幅を算出することができる。すなわち、被写体形状データはデプスマップデータ又は視差マップデータであってもよく、ここで解像度は深度方向のステップ幅を示すことができる。
なお、解像度設定部305による空間解像度の設定方法は、モデル生成部306が生成する3次元モデルの種類に応じて適宜変更することができる。例えば、空間解像度は、仮想視点画像の許容解像度と、仮想視点から被写体への距離と、に応じて設定することができる。具体的には、仮想視点画像の許容解像度がより小さい場合に、より大きい場合と比べて3次元モデルがより精細になるように、空間解像度を設定することができる。また、仮想視点から被写体への距離がより短い場合に、より長い場合と比べて3次元モデルがより精細になるように、空間解像度を設定することができる。一例として、式(1)に基づいて空間解像度を算出する代わりに、仮想視点画像の許容解像度が一定の場合に仮想視点から被写体への距離が長くなるほど空間解像度が低くなるように、別の式に基づいて空間解像度を算出することができる。また、あらかじめ空間解像度と仮想視点から被写体への距離との関係を表すテーブルを用意し、このテーブルに基づいて空間解像度を設定することもできる。また、解像度設定部305は、仮想視点画像の画角がより狭い場合に、より広い場合と比べて3次元モデルがより精細になるように、空間解像度を設定することもできる。さらに、解像度設定部305は、仮想視点画像の画素数がより多い場合に、より少ない場合と比べて3次元モデルがより精細になるように、空間解像度を設定することもできる。
ステップS408で、レンダリング部307は、解像度に応じた被写体形状データと、被写体の画像群とを用いて、仮想視点からの被写体の仮想視点画像を生成する。例えば、レンダリング部307は、ステップS407で生成された3次元モデルに基づき、仮想視点からの仮想視点画像を生成することができる。仮想視点画像を生成する方法としては公知の方法を用いることができる。このような方法は特許文献1のような公知文献に記載されており、詳細な説明は省略する。簡単に一例を挙げると、レンダリング部307は、3次元モデルとステップS404で得られたカメラパラメータとに基づいて、仮想視点からの仮想視点画像の着目画素に対応する被写体の位置を特定することができる。次に、レンダリング部307は、ステップS402で得られたカメラパラメータを参照することにより、カメラ101の撮像画像におけるこの被写体の位置に対応する画素を特定することができる。そして、レンダリング部307は、こうして特定された画素の色情報を用いて、着目画素の色情報を決定することができる。このような処理を各画素について行うことにより、仮想視点画像を生成することができる。
上記のとおり、解像度設定部305は、被写体と仮想視点との間の距離と、仮想視点画像における被写体の形状の解像度として指定された解像度と、被写体形状データの解像度を設定することができる。したがって、レンダリング部307は、被写体と仮想視点との間の距離にかかわらず、仮想視点画像における被写体の形状の解像度が所定の解像度以上となるように、仮想視点画像を生成することができる。以上が、画像生成装置200の処理の流れである。
(許容解像度を設定する方法の例)
以下では一例として、ユーザがUIを用いて許容解像度を入力し、入力された許容解像度を解像度取得部308が取得する場合について説明する。この場合、解像度取得部308は、ユーザが仮想視点画像中の基準点に対応する箇所の解像度を指定するためのユーザインタフェースを表示装置に表示させることができる。
図6は、空間解像度を設定するために用いることができるUIの一例を示す。図6に示すウィンドウ601は、表示装置207に表示される表示画面を表す。ウィンドウ601は、ウィンドウ602、スライドバー603、ウィンドウ604〜606、ウィンドウ607、及びOKボタン608を含んでいる。解像度取得部308は、このようなウィンドウ601を表示装置207に表示させ、ウィンドウ601上でユーザが入力した許容解像度を取得することができる。
ウィンドウ602には画像が表示される。例えば、ウィンドウ602には疑似的な仮想視点画像を表示することができる。ウィンドウ602に表示する画像は、実際にレンダリングされた仮想視点画像であってもよいが、他の画像であってもよい。例えば、ウィンドウ602には、カメラ101のいずれかにより撮像された画像を表示することもできる。この場合には、向きが仮想視点に最も近いカメラ、又は位置が仮想視点に最も近いカメラが撮像した画像を、ウィンドウ602に表示することができる。また、解像度取得部308は、カメラ101により撮像された画像を、仮想視点の画角に合わせて拡大又は縮小してから、ウィンドウ602に表示することができる。ウィンドウ602には、画像全体を表示する必要はない。すなわち、解像度取得部308は、仮想視点に最も近い被写体の画像など、画質に対する空間解像度の影響が最も大きい領域のみを表示してもよい。
スライドバー603は、仮想視点画像の許容解像度を設定するために用いられる。すなわち、ユーザはスライドバー603の位置を調整することにより、許容解像度を選択することができ、こうして選択された許容解像度を解像度取得部308は取得することができる。また、解像度取得部308は、選択された許容解像度に応じてぼかされた画像を、ウィンドウ602に表示することができる。例えば、解像度取得部308は、スライドバー603の位置に対応する許容解像度w[pix]を取得し、直径wのぼけが与えられた画像をウィンドウ602に表示することができる。ぼけを与える方法としては、例えば、ガウシアンフィルタ又は平均値フィルタ等のローパスフィルタを適用する方法が挙げられる。このように、ユーザインタフェース上には画像が表示され、画像の解像度はユーザが指定した解像度に応じて変化する。
ウィンドウ604〜606は、仮想視点画像生成処理に関する各種情報が表示される。例えば、ウィンドウ604には、現在選択されている許容解像度にしたがって前述の方法で解像度設定部305が算出した空間解像度が数値で表示される。また、ウィンドウ605には、ウィンドウ604に表示された空間解像度を用いた場合に、仮想視点画像又は仮想視点動画を生成するために必要と見積もられる所要時間が表示される。さらに、ウィンドウ606には、ウィンドウ604に表示された空間解像度を用いる場合について見積もられた、3次元モデルのデータ量が表示される。
ウィンドウ607には、空間解像度の設定方法を示す選択肢が表示される。具体的には、ウィンドウ602には設定モードとして「被写体ごと」及び「最近接被写体」が表示されている。「被写体ごと」は、被写体ごとに空間解像度を変えるモードを示し、「最近接被写体」は、仮想視点に最も近い被写体のみに基づいて空間解像度を決めるモードを示す。ユーザは、ラジオボタンを用いて好きなモードを選択することができる。被写体ごとに空間解像度を変える場合は、ウィンドウ604には代表的な被写体、例えば仮想視点に最も近い被写体、についての空間解像度が表示される。図6には示されていないが、特定の注視点までの距離に応じて空間解像度を設定する場合、例えばウィンドウ602においてクリックすることにより注視点(例えばグラウンド上の点)を指定可能なユーザインタフェースを用いることができる。
ユーザは、ウィンドウ602に表示された画像の画質、及びウィンドウ604〜606に表示された数値を見ながら、スライドバー603を用いて許容解像度を調整することができる。そして、ユーザがOKボタン608を押下した場合に、スライドバー603に従う許容解像度に従って解像度設定部305が算出した空間解像度(ウィンドウ604)が、仮想視点画像の生成に用いられる空間解像度として設定される。
以上の処理を用いる本実施形態によれば、仮想視点画像を3次元モデルに基づいて生成する際に、許容可能な画質を維持しながら、演算量又は使用するメモリ量を抑えることができる。すなわち、その結果として処理負荷を抑えることができる。
[実施形態2]
実施形態2では、多視点において撮影された動画像から仮想視点映像を生成する際に、フレーム間の解像度変動を抑制する構成について説明する。ここで、仮想視点映像は複数のフレームで構成され、それぞれのフレームは仮想視点画像に相当する。そして、それぞれの仮想視点画像は、略同時に各カメラ101により得られた、動画像を構成するフレームを用いて生成される。
3次元モデルの空間解像度がフレームによらず一定の場合、既に説明したように仮想視点の位置に応じて仮想視点画像の解像度劣化が発生する可能性がある。すなわち、時間方向に解像度の変動が発生する。本実施形態では、実施形態1と同様の手法を用いて、各フレーム画像のフレームごとの仮想視点画像の許容解像度が一定となるように空間解像度を適切に算出することにより、フレーム間の解像度変動が抑制される。
本実施形態に係る画像生成装置の基本的な構成は実施形態1と同様であるため、説明を省略する。以下、実施形態2の処理について、図7のフローチャートを参照して説明する。
ステップS402及びS405は実施形態1と同様に行われる。ステップS701において、画像取得部301はフレーム番号nを初期化し、nの値を最初のフレーム番号に設定する。引き続き、ステップS702で、画像取得部301はフレーム番号nの多視点画像データを取得する。具体的には、画像取得部301は、それぞれのカメラ101が取得した動画像データから、略同時に得られたフレーム番号nの仮想視点画像群を取得する。
ステップS703で、視点取得部304は、フレームごとの仮想視点の位置情報を取得する。例えば、視点取得部304は、フレーム番号nにおける仮想視点パラメータを取得することができる。仮想視点パラメータは、実施形態1で説明した通りである。ステップS404は、実施形態1と同様に行われる。ステップS406において、解像度設定部305は、実施形態1と同様の方法で、フレーム番号nにおける被写体形状データの解像度を設定する。すなわち、解像度設定部305は、フレームごとに、基準点と仮想視点との間の距離に応じて被写体形状データの解像度を設定する。ステップS407は、実施形態1と同様に行われる。ステップS408において、レンダリング部307は、実施形態1と同様の方法で、フレーム番号nにおける仮想視点画像を生成する。すなわち、レンダリング部307は、フレームごとに、解像度に応じた前記被写体形状データと、動画像群とを用いて、仮想視点からの被写体の仮想視点画像を生成する。このような処理により、レンダリング部307は、仮想視点映像を生成する。
ステップS704でレンダリング部307は、すべてのフレームを処理したかを判断する。処理対象のフレームが残っている場合、ステップS705で画像取得部301はフレーム番号をnからn+1に更新する。ステップS704で全てのフレームの処理が完了したと判断された場合は、処理を終了する。
実施形態1で説明したように、仮想視点から仮想視点に最も近い被写体又は注視点までの距離と、これらの被写体又は注視点における許容解像度に従って空間解像度を設定することができる。そして、実施形態2において、解像度設定部305は、仮想視点映像中の基準点に対応する箇所の解像度が、それぞれのフレームについて一定となるように、所定範囲内となるように、又は所定の解像度以上となるように、被写体形状データの解像度を設定することができる。すなわち、許容解像度としては、それぞれのフレームについて一定の値、又は所定範囲内から選択された値を用いることができる。この場合、この被写体又は注視点付近におけるフレーム間の解像度変動を抑制することができる。また、実施形態1で説明したように、被写体への距離及び許容解像度に従って、被写体ごとに空間解像度を変化させることができる。この場合、被写体ごとにフレーム間の解像度変動を抑制することができる。
本実施形態においても、許容解像度の設定は、図6に示すUIを用いてユーザが行うことができる。この場合、動画像又は仮想視点映像のうち、代表的な1フレームのみをウィンドウ602に表示することができる。例えば、被写体と仮想カメラ503とが最も近接しているフレームをウィンドウ602に表示し、このフレームに基づいて許容解像度を設定することができる。このような方法によれば、最も厳しい条件で許容解像度を設定することができる。また、いくつかのフレームが同時に表示された状態で、スライドバーによる許容解像度の調整を行うUIを採用することもできる。このようにして設定された許容解像度は、すべてのフレームに対して適用することができる。ただし、許容解像度は、全てのフレームについて厳密に一定である必要はなく、フレームごとに多少変動してもよい。
本実施形態によれば、仮想視点映像における時間方向の解像度変動を抑制し、ユーザにとって違和感のない仮想視点映像を生成することが可能になる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
301:画像取得部、302:パラメータ取得部、303:位置取得部、304:視点取得部、305:解像度設定部、306:モデル生成部、307:レンダリング部、308:解像度取得部

Claims (17)

  1. 複数の異なる位置から撮像された被写体の画像群を取得する画像取得手段と、
    仮想視点の位置情報を取得する視点取得手段と、
    解像度設定の基準となる基準点と前記仮想視点との間の距離に応じて被写体形状データの解像度を設定する設定手段と、
    前記解像度に応じた前記被写体形状データと、前記被写体の画像群とを用いて、前記仮想視点からの被写体の仮想視点画像を生成する生成手段と、
    を備えることを特徴とする画像生成装置。
  2. 前記被写体の画像群を用いて、前記設定手段により設定された解像度に従う前記被写体の被写体形状データを生成する手段をさらに備えることを特徴とする、請求項1に記載の画像生成装置。
  3. 前記設定手段は、前記仮想視点画像中の前記基準点に対応する箇所の解像度として指定された解像度に応じて、前記被写体形状データの解像度を設定することを特徴とする、請求項1又は2に記載の画像生成装置。
  4. ユーザが前記仮想視点画像中の前記基準点に対応する箇所の解像度を指定するためのユーザインタフェースを表示装置に表示させる表示手段をさらに備え、
    前記ユーザインタフェース上には画像が表示され、前記画像の解像度は前記ユーザが指定した解像度に応じて変化することを特徴とする、請求項3に記載の画像生成装置。
  5. 前記設定手段は、前記被写体形状データによって表される形状を有し前記基準点に位置する被写体を、前記仮想視点画像に投影した際における、前記仮想視点画像上での前記被写体の形状の解像度が、前記解像度として指定された値以上となるように、前記被写体形状データの解像度を設定することを特徴とする、請求項1から4のいずれか1項に記載の画像生成装置。
  6. 前記設定手段は、前記仮想視点画像の画角及び解像度に応じて、前記被写体形状データの解像度を設定することを特徴とする、請求項1から5のいずれか1項に記載の画像生成装置。
  7. 前記被写体の位置情報を、前記基準点の位置情報として取得する位置取得手段をさらに備えることを特徴とする、請求項1から6のいずれか1項に記載の画像生成装置。
  8. 前記被写体の画像群を用いて前記被写体の概略位置情報を推定し、前記推定された被写体の概略位置情報を、前記基準点の位置情報として取得する位置取得手段をさらに備えることを特徴とする、請求項1から6のいずれか1項に記載の画像生成装置。
  9. 前記基準点と前記仮想視点との間の距離は、複数の被写体のうち前記仮想視点に最も近い被写体と前記仮想視点との間の距離であることを特徴とする、請求項7又は8に記載の画像生成装置。
  10. 前記設定手段は、複数の被写体のそれぞれと前記仮想視点との間の距離に応じて、それぞれの被写体についての被写体形状データの解像度を独立に設定することを特徴とする、請求項7又は8に記載の画像生成装置。
  11. 前記被写体形状データはボクセルデータであり、前記解像度はボクセルの大きさを表すことを特徴とする、請求項1から10のいずれか1項に記載の画像生成装置。
  12. 前記被写体形状データはデプスマップデータ又は視差マップデータであり、前記解像度は深度方向のステップ幅であることを特徴とする、請求項1から10のいずれか1項に記載の画像生成装置。
  13. 前記画像取得手段は、複数の異なる位置から撮像された動画像群を取得し、
    前記視点取得手段は、フレームごとの仮想視点の位置情報を取得し、
    前記設定手段は、フレームごとに、前記基準点と前記仮想視点との間の距離に応じて被写体形状データの解像度を設定し、
    前記生成手段は、フレームごとに、前記解像度に応じた前記被写体形状データと、前記動画像群とを用いて、前記仮想視点からの被写体の仮想視点画像を生成することにより、仮想視点映像を生成する
    ことを特徴とする、請求項1から12のいずれか1項に記載の画像生成装置。
  14. 前記設定手段は、前記仮想視点映像中の前記基準点に対応する箇所の解像度が、それぞれのフレームについて一定となるように、所定範囲内となるように、又は所定の解像度以上となるように、前記被写体形状データの解像度を設定することを特徴とする、請求項13に記載の画像生成装置。
  15. 複数の異なる位置から撮像された被写体の画像群を取得する画像取得手段と、
    仮想視点の位置情報を取得する視点取得手段と、
    前記被写体の画像群を用いて、前記仮想視点からの被写体の仮想視点画像を生成する生成手段であって、前記被写体と前記仮想視点との間の距離にかかわらず、前記仮想視点画像における前記被写体の形状の解像度が所定の解像度以上となるように、前記仮想視点画像を生成する生成手段と、
    を備えることを特徴とする画像生成装置。
  16. 画像生成装置が行う画像生成方法であって、
    複数の異なる位置から撮像された被写体の画像群を取得する画像取得工程と、
    仮想視点の位置情報を取得する視点取得工程と、
    解像度設定の基準となる基準点と前記仮想視点との間の距離に応じて被写体形状データの解像度を設定する設定工程と、
    前記解像度に応じた前記被写体形状データと、前記被写体の画像群とを用いて、前記仮想視点からの被写体の仮想視点画像を生成する生成工程と、
    を有することを特徴とする画像生成方法。
  17. コンピュータを請求項1乃至15の何れか1項に記載の画像生成装置の各手段として機能させるためのプログラム。
JP2017155882A 2017-08-10 2017-08-10 画像生成装置、画像生成方法、及びプログラム Active JP7033865B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017155882A JP7033865B2 (ja) 2017-08-10 2017-08-10 画像生成装置、画像生成方法、及びプログラム
EP18185722.8A EP3442225B1 (en) 2017-08-10 2018-07-26 Image processing apparatus and method
KR1020180088921A KR102316061B1 (ko) 2017-08-10 2018-07-31 화상 처리장치, 방법 및 컴퓨터 프로그램
US16/056,898 US10872462B2 (en) 2017-08-10 2018-08-07 Image processing apparatus, method, and non-transitory computer-readable medium for rendering a virtual viewpoint image
CN201810902118.1A CN109389545B (zh) 2017-08-10 2018-08-09 图像处理装置、方法和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017155882A JP7033865B2 (ja) 2017-08-10 2017-08-10 画像生成装置、画像生成方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2019036790A true JP2019036790A (ja) 2019-03-07
JP2019036790A5 JP2019036790A5 (ja) 2020-09-03
JP7033865B2 JP7033865B2 (ja) 2022-03-11

Family

ID=63207508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017155882A Active JP7033865B2 (ja) 2017-08-10 2017-08-10 画像生成装置、画像生成方法、及びプログラム

Country Status (5)

Country Link
US (1) US10872462B2 (ja)
EP (1) EP3442225B1 (ja)
JP (1) JP7033865B2 (ja)
KR (1) KR102316061B1 (ja)
CN (1) CN109389545B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021071749A (ja) * 2019-10-29 2021-05-06 Kddi株式会社 3dモデル生成装置および方法
US12112425B2 (en) 2019-12-26 2024-10-08 Fujifilm Corporation Information processing apparatus, method of operating information processing apparatus, and program for generating virtual viewpoint image

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10902243B2 (en) * 2016-10-25 2021-01-26 Deep North, Inc. Vision based target tracking that distinguishes facial feature targets
JP6482696B2 (ja) * 2017-06-23 2019-03-13 キヤノン株式会社 表示制御装置、表示制御方法、およびプログラム
CN110008802B (zh) * 2018-12-04 2023-08-29 创新先进技术有限公司 从多个脸部中选择目标脸部及脸部识别比对方法、装置
US11765336B2 (en) * 2019-03-18 2023-09-19 Sony Group Corporation Image-capturing apparatus, information processing method, and program
KR102629225B1 (ko) * 2019-05-16 2024-01-29 캐논 가부시끼가이샤 배치 결정 장치, 시스템, 배치 결정 방법 및 기록 매체
WO2021020200A1 (ja) * 2019-07-26 2021-02-04 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
JP7418101B2 (ja) * 2019-07-26 2024-01-19 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP7423251B2 (ja) * 2019-10-25 2024-01-29 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
WO2021100681A1 (ja) * 2019-11-20 2021-05-27 パナソニックIpマネジメント株式会社 三次元モデル生成方法及び三次元モデル生成装置
CN114981877A (zh) * 2020-12-23 2022-08-30 京东方科技集团股份有限公司 移位寄存器及其驱动方法、栅极驱动器、显示装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000236535A (ja) * 1999-02-15 2000-08-29 P I Ii:Kk 動画像情報処理方法および装置ならびに動画像情報配信方法
JP2014044569A (ja) * 2012-08-27 2014-03-13 Xacti Corp 電子機器

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3593466B2 (ja) 1999-01-21 2004-11-24 日本電信電話株式会社 仮想視点画像生成方法およびその装置
WO2001043077A1 (fr) * 1999-12-06 2001-06-14 Fujitsu Limited Procede et dispositif d'affichage d'images
JP2002366935A (ja) 2001-06-12 2002-12-20 Minolta Co Ltd ボリュームデータの生成方法および装置並びにコンピュータプログラム
EP1538536A1 (en) * 2003-12-05 2005-06-08 Sony International (Europe) GmbH Visualization and control techniques for multimedia digital content
WO2010023580A1 (en) * 2008-08-29 2010-03-04 Koninklijke Philips Electronics, N.V. Dynamic transfer of three-dimensional image data
BRPI0925014B1 (pt) * 2009-03-25 2020-09-15 Sony Computer Entertainment Inc Dispositivo de processamento de informação, método de processamento de informação, e, meio de gravação legível por computador
US8655632B2 (en) * 2009-09-03 2014-02-18 Schlumberger Technology Corporation Gridless geological modeling
WO2011052064A1 (ja) * 2009-10-30 2011-05-05 キヤノン株式会社 情報処理装置および方法
KR101608970B1 (ko) * 2009-11-27 2016-04-05 삼성전자주식회사 광 필드 데이터를 이용한 영상 처리 장치 및 방법
JP5562103B2 (ja) * 2010-04-16 2014-07-30 キヤノン株式会社 画像処理装置および方法
CN102325259A (zh) * 2011-09-09 2012-01-18 青岛海信数字多媒体技术国家重点实验室有限公司 多视点视频中虚拟视点合成方法及装置
JP6214236B2 (ja) * 2013-03-05 2017-10-18 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
CN105205796A (zh) * 2014-06-30 2015-12-30 华为技术有限公司 广域图像获取方法和装置
US20160140733A1 (en) * 2014-11-13 2016-05-19 Futurewei Technologies, Inc. Method and systems for multi-view high-speed motion capture
KR102375411B1 (ko) * 2015-05-11 2022-03-18 삼성전자주식회사 차량 주변 영상 제공 방법 및 장치
KR101835434B1 (ko) * 2015-07-08 2018-03-09 고려대학교 산학협력단 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법
KR102167988B1 (ko) * 2015-09-16 2020-10-20 주식회사바텍 3차원 엑스선 영상 표시 장치
JP6674247B2 (ja) * 2015-12-14 2020-04-01 キヤノン株式会社 情報処理装置、情報処理方法、およびコンピュータプログラム
JP6088094B1 (ja) * 2016-06-20 2017-03-01 株式会社Cygames 複合現実環境を作成するためのシステム等
EP3264372A1 (en) * 2016-06-30 2018-01-03 Alcatel Lucent Image processing device and method
JP6419128B2 (ja) * 2016-10-28 2018-11-07 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法及びプログラム
US10762653B2 (en) * 2016-12-27 2020-09-01 Canon Kabushiki Kaisha Generation apparatus of virtual viewpoint image, generation method, and storage medium
JP7121470B2 (ja) * 2017-05-12 2022-08-18 キヤノン株式会社 画像処理システム、制御方法、及び、プログラム
JP6425847B1 (ja) 2017-08-14 2018-11-21 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000236535A (ja) * 1999-02-15 2000-08-29 P I Ii:Kk 動画像情報処理方法および装置ならびに動画像情報配信方法
JP2014044569A (ja) * 2012-08-27 2014-03-13 Xacti Corp 電子機器

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021071749A (ja) * 2019-10-29 2021-05-06 Kddi株式会社 3dモデル生成装置および方法
JP7290546B2 (ja) 2019-10-29 2023-06-13 Kddi株式会社 3dモデル生成装置および方法
US12112425B2 (en) 2019-12-26 2024-10-08 Fujifilm Corporation Information processing apparatus, method of operating information processing apparatus, and program for generating virtual viewpoint image

Also Published As

Publication number Publication date
CN109389545A (zh) 2019-02-26
CN109389545B (zh) 2023-05-26
EP3442225A1 (en) 2019-02-13
EP3442225B1 (en) 2022-11-02
KR102316061B1 (ko) 2021-10-22
US10872462B2 (en) 2020-12-22
US20190051035A1 (en) 2019-02-14
JP7033865B2 (ja) 2022-03-11
KR20190017653A (ko) 2019-02-20

Similar Documents

Publication Publication Date Title
JP7033865B2 (ja) 画像生成装置、画像生成方法、及びプログラム
JP7051457B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CA3018965C (en) Efficient determination of optical flow between images
CN109660783B (zh) 虚拟现实视差校正
US20180098047A1 (en) Imaging system, image processing apparatus, image processing method, and storage medium
JP5887267B2 (ja) 3次元画像補間装置、3次元撮像装置および3次元画像補間方法
KR102387891B1 (ko) 화상 처리장치, 화상 처리장치의 제어방법, 및 컴퓨터 판독가능한 기억매체
US10742852B2 (en) Image processing apparatus, object shape estimation method, and storage medium
US20190266802A1 (en) Display of Visual Data with a Virtual Reality Headset
WO2021031210A1 (zh) 视频处理方法和装置、存储介质和电子设备
JP2015213299A (ja) 画像処理装置および画像処理方法
US20200202495A1 (en) Apparatus and method for dynamically adjusting depth resolution
JP2020087005A (ja) 画像処理装置、画像生成方法およびプログラム
US11087482B2 (en) Apparatus that generates three-dimensional shape data, method and storage medium
US20230245378A1 (en) Information processing apparatus, information processing method, and medium
US11328494B2 (en) Image processing apparatus, image processing method, and storage medium
JP2019067419A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2014135006A (ja) 画像処理装置、画像処理方法、およびプログラム
CN117528236B (zh) 虚拟摄像机的调整方法和装置
JP2019032742A (ja) 画像処理装置、画像処理方法及びプログラム
JP6915016B2 (ja) 情報処理装置及び方法、情報処理システム、ならびにプログラム
EP4385206A1 (en) Perspective correction with depth map clamping
JP2023175503A (ja) 画像処理装置及びその画像処理方法
WO2012090813A1 (ja) 画像処理装置及び画像処理システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200721

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200721

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220301

R151 Written notification of patent or utility model registration

Ref document number: 7033865

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151