JP7159057B2 - 自由視点映像生成方法及び自由視点映像生成システム - Google Patents

自由視点映像生成方法及び自由視点映像生成システム Download PDF

Info

Publication number
JP7159057B2
JP7159057B2 JP2018567469A JP2018567469A JP7159057B2 JP 7159057 B2 JP7159057 B2 JP 7159057B2 JP 2018567469 A JP2018567469 A JP 2018567469A JP 2018567469 A JP2018567469 A JP 2018567469A JP 7159057 B2 JP7159057 B2 JP 7159057B2
Authority
JP
Japan
Prior art keywords
images
free
viewpoint
image
viewpoint video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018567469A
Other languages
English (en)
Other versions
JPWO2018147329A1 (ja
Inventor
徹 松延
敏康 杉尾
哲史 吉川
達也 小山
陽一 杉野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of JPWO2018147329A1 publication Critical patent/JPWO2018147329A1/ja
Application granted granted Critical
Publication of JP7159057B2 publication Critical patent/JP7159057B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Description

本開示は、多視点映像から自由視点映像を生成する自由視点映像生成方法等に関する。
特許文献1には、低解像度である多視点の入力画像群から1枚の高解像度画像を生成する画像処理技術が示されている。
国際公開第2014/077024号
しかしながら、様々な視点の複数の映像から高解像度の自由視点映像を適切に生成することは容易ではない。
そこで、本開示は、様々な視点の複数の映像を含む多視点映像から、高解像度の自由視点映像を適切に生成することを可能にするための自由視点映像生成方法等を提供することを目的とする。
本開示の一態様に係る自由視点映像生成方法は、位置が固定されていないN(Nは2以上の整数)個のカメラのN個の視点のN個の映像を含む多視点映像を取得する取得ステップと、取得された前記多視点映像から、仮想カメラの仮想視点の映像であり、前記N個の視点とは異なる仮想視点の映像である自由視点映像を生成する生成ステップとを含み、前記生成ステップでは、前記N個の映像から、前記N個のカメラのN個のカメラパラメータを推定し、前記N個のカメラパラメータを用いて、前記N個の映像から三次元モデルを生成し、記三次元モデル、前記N個のカメラパラメータ、及び、前記仮想カメラのカメラパラメータを用いて、前記N個の映像において、前記自由視点映像における処理対象領域に対応するN個の参照領域を特定し、前記N個の映像における前記N個の参照領域のN個の画素成分から、前記N個の参照領域のそれぞれの解像度よりも高い所定解像度で前記自由視点映像における前記処理対象領域の画素成分を推定し、推定された前記画素成分で構成される映像を前記自由視点映像として生成する。
なお、これらの包括的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム、又は、コンピュータ読み取り可能なCD-ROMなどの非一時的な記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラム、及び、記録媒体の任意な組み合わせで実現されてもよい。
本開示の一態様に係る自由視点映像生成方法等により、様々な視点の複数の映像を含む多視点映像から、高解像度の自由視点映像を適切に生成することが可能になる。
図1は、実施の形態に係る自由視点映像生成システムの概要を示す図である。 図2は、実施の形態に係る三次元再構成処理を説明するための図である。 図3Aは、実施の形態に係る同期撮影を説明するための図である。 図3Bは、実施の形態に係る非同期撮影を説明するための図である。 図4は、実施の形態に係る自由視点映像生成システムを含む全体システムの構成を示すブロック図である。 図5は、実施の形態に係る自由視点映像生成システムの動作を示すフローチャートである。 図6は、実施の形態に係る多視点画像セットの例を示す図である。 図7は、実施の形態に係る生成部のブロック図である。 図8は、実施の形態に係る生成部による処理を示すフローチャートである。 図9は、実施の形態に係るレンダリング部のブロック図である。 図10は、実施の形態に係るレンダリング部による処理を示すフローチャートである。 図11Aは、実施の形態に係る平行化前の2つの画像を示す模式図である。 図11Bは、実施の形態に係る平行化後の2つの画像を示す模式図である。 図12は、実施の形態に係る処理対象画素と三次元点と複数の対応画素との関係を示す図である。 図13Aは、実施の形態に係るエイリアシングが発生していない状態の周波数スペクトルを示すグラフである。 図13Bは、実施の形態に係るエイリアシングが発生している状態の周波数スペクトルを示すグラフである。 図14は、実施の形態に係るエイリアシング成分の発生量が多い画像を示す図である。 図15は、実施の形態に係る平行化とエイリアシングとの関係を示す図である。 図16は、実施の形態に係る自由視点映像生成システムの変形例の構成を示すブロック図である。 図17Aは、実施の形態に係る多視点映像の高解像度化処理を説明するための図である。 図17Bは、実施の形態に係る自由視点映像生成処理の変形例を説明するための図である。 図18Aは、実施の形態に係る360度の仮想カメラの第1例を示す図である。 図18Bは、実施の形態に係る360度の仮想カメラの第2例を示す図である。 図19Aは、実施の形態に係る自由視点映像生成システムの特徴的な構成を示すブロック図である。 図19Bは、実施の形態に係る自由視点映像生成システムの特徴的な動作を示すフローチャートである。
(本開示の基礎となった知見)
特許文献1には、低解像度である多視点の入力画像群から1枚の高解像度画像を生成する画像処理技術が示されている。このような処理は、超解像処理とも呼ばれる。例えば、複数の入力画像において生成対象画像の処理対象領域に対応する複数の領域の複数の画素成分から、複数の入力画像よりも高い解像度で、生成対象画像の処理対象領域の画素成分を推定することにより、高解像度画像が生成される。
しかしながら、様々な視点の複数の入力画像において生成対象画像の処理対象領域に対応する複数の領域を適切に特定することは容易ではない。したがって、様々な視点の複数の映像から高解像度の自由視点映像を適切に生成することは容易ではない。
そこで、本開示の一態様に係る自由視点映像生成方法は、N(Nは2以上の整数)個の視点のN個の映像を含む多視点映像を取得する取得ステップと、取得された前記多視点映像から、前記N個の視点とは異なる仮想視点の映像である自由視点映像を生成する生成ステップとを含み、前記生成ステップでは、前記N個の映像から生成される三次元モデルを用いて、前記N個の映像において、前記自由視点映像における処理対象領域に対応するN個の参照領域を特定し、前記N個の映像における前記N個の参照領域のN個の画素成分から、前記N個の参照領域のそれぞれの解像度よりも高い所定解像度で前記自由視点映像における前記処理対象領域の画素成分を推定し、推定された前記画素成分で構成される映像を前記自由視点映像として生成する。
これにより、三次元モデルを用いて、処理対象領域に対応する複数の参照領域が適切に特定され得る。そして、複数の参照領域の複数の画素成分から、高い解像度で処理対象領域の画素成分が適切に推定され得る。したがって、様々な視点の複数の映像から高解像度の自由視点映像を適切に生成することが可能になる。
例えば、前記生成ステップでは、前記三次元モデルにおいて前記処理対象領域に対応する三次元領域を特定し、前記N個の映像において前記三次元領域に対応する前記N個の参照領域を特定してもよい。
これにより、三次元モデルにおいて、処理対象領域に対応する三次元領域が適切に特定され得る。そして、多視点映像に含まれる複数の映像において、三次元領域に対応する複数の参照領域が適切に特定され得る。
また、例えば、前記生成ステップでは、前記N個の映像をサブピクセル精度にアップサンプリングし、アップサンプリングされた前記N個の映像において、前記処理対象領域に対応する前記N個の参照領域をサブピクセル精度で特定し、アップサンプリングされた前記N個の映像における前記N個の参照領域の前記N個の画素成分から、前記処理対象領域の画素成分を推定してもよい。
これにより、処理対象領域に対応する複数の参照領域がサブピクセル精度で適切に特定され得る。そして、サブピクセル精度にアップサンプリングされた複数の映像における複数の参照領域の複数の画素成分から、高い解像度で、処理対象領域の画素成分が適切に推定され得る。
また、例えば、前記N個の映像は、N個のカメラのN個の視点のN個の映像であり、前記自由視点映像は、仮想カメラの仮想視点の映像であり、前記生成ステップでは、前記N個の映像から、前記N個のカメラのN個のカメラパラメータを推定し、前記N個のカメラパラメータを用いて、前記N個の映像から前記三次元モデルを生成し、前記三次元モデル、前記N個のカメラパラメータ、及び、前記仮想カメラのカメラパラメータを用いて、前記処理対象領域に対応する前記N個の参照領域を特定してもよい。
これにより、三次元モデル、及び、複数のカメラパラメータ等を用いて、処理対象領域に対応する複数の参照領域が適切に特定され得る。
また、例えば、前記生成ステップでは、取得された前記多視点映像に含まれる前記N個の映像を視野方向が平行なN個の映像に変換することにより、取得された前記多視点映像に含まれる前記N個の映像を平行化し、平行化された前記N個の映像において、前記処理対象領域に対応する前記N個の参照領域を特定し、平行化された前記N個の映像における前記N個の参照領域の前記N個の画素成分から、前記処理対象領域の画素成分を推定してもよい。
これにより、複数の参照領域の複数の画素成分の形式を揃えることが可能になる。したがって、効率的に、複数の参照領域の複数の画素成分から、処理対象領域の画素成分を推定することが可能になる。
また、例えば、前記生成ステップでは、取得された前記多視点映像に含まれる前記N個の映像を前記仮想視点の視野方向に対して視野方向が平行なN個の映像に変換することにより、取得された前記多視点映像に含まれる前記N個の映像を平行化してもよい。
これにより、複数の参照領域の複数の画素成分の形式を処理対象領域の画素成分の形式に近い形式に揃えることが可能になる。したがって、効率的に、複数の参照領域の複数の画素成分から、処理対象領域の画素成分を推定することが可能になる。
また、例えば、前記生成ステップでは、平行化された前記N個の映像におけるエイリアシング成分の発生量が所定範囲に含まれるように、取得された前記多視点映像に含まれる前記N個の映像を平行化するための基準視野方向を決定し、取得された前記多視点映像に含まれる前記N個の映像を前記基準視野方向に対して視野方向が平行なN個の映像に変換することにより、前記N個の映像を平行化してもよい。
これにより、エイリアシング成分の発生量に従って、平行化の基準視野方向が決定され得る。したがって、高い解像度で処理対象領域の画素成分が適切に推定されるように、複数の映像が平行化され得る。
また、例えば、前記生成ステップでは、平行化された前記N個の映像における前記N個の参照領域におけるエイリアシング成分の発生量が閾値よりも多い場合、前記所定解像度で前記処理対象領域の画素成分を推定し、前記N個の参照領域におけるエイリアシングの発生量が閾値よりも多くない場合、前記所定解像度よりも低い解像度で前記処理対象領域の画素成分を推定してもよい。
これにより、高い解像度で処理対象領域の画素成分を適切に推定することが可能である場合に、高い解像度で処理対象領域の画素成分が推定される。したがって、推定が効率的に行われ得る。
また、例えば、取得された前記多視点映像は、前記N個の映像を含むM(MはNよりも大きい整数)個の映像を含み、前記M個の映像は、M個のカメラのM個の視点の映像であり、前記自由視点映像は、仮想カメラの仮想視点の映像であり、前記生成ステップでは、前記M個のカメラのM個のカメラパラメータ、及び、前記仮想カメラのカメラパラメータを用いて、前記M個の映像の中から、前記N個の映像を選択してもよい。
これにより、多視点映像に含まれる複数の映像のうち、高い解像度で自由視点映像を生成するための処理に適切な映像が用いられ得る。したがって、自由視点映像が適切に生成され得る。
また、例えば、前記生成ステップでは、MAP(Maximum A Posteriori)法、IBP(Iterative Back Projection)法、又は、POCS(Projection Onto Convex Set)法を用いて、前記N個の参照領域の前記N個の画素成分から、前記処理対象領域の画素成分を推定してもよい。
これにより、複数の参照領域の複数の画素成分から、高い解像度で処理対象領域の画素成分が適切に推定され得る。
また、本開示の一態様に係る自由視点映像生成方法は、N(Nは2以上の整数)個の視点のN個の映像を含む多視点映像を取得する取得ステップと、取得された前記多視点映像から、前記N個の視点とは異なる仮想視点の映像である自由視点映像を生成する生成ステップとを含み、前記生成ステップでは、取得された前記多視点映像に含まれる前記N個の映像を視野方向が平行なN個の映像に変換することにより、取得された前記多視点映像に含まれる前記N個の映像を平行化し、平行化された前記N個の映像に対してブロックマッチングを行うことにより、平行化された前記N個の映像において互いに適合するN個の参照領域を特定し、前記N個の参照領域のN個の画素成分から、前記N個の参照領域のそれぞれの解像度よりも高い所定解像度で、前記自由視点映像において前記N個の参照領域に対応する処理対象領域の画素成分を推定し、推定された前記画素成分で構成される前記自由視点映像を生成する自由視点映像生成方法であってもよい。
これにより、平行化された複数の映像において、ブロックマッチングが適切に行われ得る。したがって、複数の映像における複数の参照領域が適切に特定され得る。そして、複数の参照領域の複数の画素成分から、高い解像度で処理対象領域の画素成分が適切に推定され得る。したがって、様々な視点の複数の映像から高解像度の自由視点映像を適切に生成することが可能になる。
また、本開示の一態様に係る自由視点映像生成システムは、N(Nは2以上の整数)個の視点のN個の映像を含む多視点映像を取得する取得部と、取得された前記多視点映像から、前記N個の視点とは異なる仮想視点の映像である自由視点映像を生成する生成部とを備え、前記生成部は、前記N個の映像から生成される三次元モデルを用いて、前記N個の映像において、前記自由視点映像における処理対象領域に対応するN個の参照領域を特定し、前記N個の映像における前記N個の参照領域のN個の画素成分から、前記N個の参照領域のそれぞれの解像度よりも高い所定解像度で前記自由視点映像における前記処理対象領域の画素成分を推定し、推定された前記画素成分で構成される映像を前記自由視点映像として生成する自由視点映像生成システムであってもよい。
これにより、自由視点映像生成システムは、三次元モデルを用いて、処理対象領域に対応する複数の参照領域を適切に特定することができる。そして、自由視点映像生成システムは、複数の参照領域の複数の画素成分から、処理対象領域の画素成分を高い解像度で適切に推定することができる。したがって、自由視点映像生成システムは、様々な視点の複数の映像から高解像度の自由視点映像を適切に生成することができる。
また、本開示の一態様に係る自由視点映像生成システムは、N(Nは2以上の整数)個の視点のN個の映像を含む多視点映像を取得する取得部と、取得された前記多視点映像から、前記N個の視点とは異なる仮想視点の映像である自由視点映像を生成する生成部とを備え、前記生成部は、取得された前記多視点映像に含まれる前記N個の映像を視野方向が平行なN個の映像に変換することにより、取得された前記多視点映像に含まれる前記N個の映像を平行化し、平行化された前記N個の映像に対してブロックマッチングを行うことにより、平行化された前記N個の映像において互いに適合するN個の参照領域を特定し、前記N個の参照領域のN個の画素成分から、前記N個の参照領域のそれぞれの解像度よりも高い所定解像度で、前記自由視点映像において前記N個の参照領域に対応する処理対象領域の画素成分を推定し、推定された前記画素成分で構成される前記自由視点映像を生成する自由視点映像生成システムであってもよい。
これにより、自由視点映像生成システムは、平行化された複数の映像において、ブロックマッチングを適切に行うことができる。したがって、自由視点映像生成システムは、複数の映像における複数の参照領域を適切に特定することができる。そして、自由視点映像生成システムは、複数の参照領域の複数の画素成分から、処理対象領域の画素成分を高い解像度で適切に推定することができる。したがって、自由視点映像生成システムは、様々な視点の複数の映像から高解像度の自由視点映像を適切に生成することができる。
さらに、これらの包括的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム、又は、コンピュータ読み取り可能なCD-ROMなどの非一時的な記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラム、及び、記録媒体の任意な組み合わせで実現されてもよい。
以下、実施の形態について図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも包括的又は具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、請求の範囲を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態)
コンピュータビジョンの分野における三次元再構成技術では、三次元像を再構成するため、多視点映像の複数の二次元画像間で対応付けが行われ、カメラの位置、向き、及び、被写体の三次元位置が推定される。例えば、三次元再構成処理により、被写体の三次元位置を示す三次元点で構成される三次元点群が三次元モデルとして推定される。
また、自由視点映像生成技術では、三次元再構成処理により推定された三次元モデルを用いてレンダリングが行われることにより仮想視点の映像(つまり任意の位置に仮想的に設置されたカメラの映像)が生成され得る。以下において、任意の位置に仮想的に設置されたカメラは、仮想カメラとも表現される。また、シーンを実際に撮影するカメラは、実カメラとも表現される。
また、被写体又はシーン等を撮影することにより画像又は映像を取得することは、画像又は映像を撮影すると表現される場合がある。また、被写体又はシーン等を撮影することにより取得された画像は、撮影された画像と表現される場合がある。また、被写体又はシーン等を撮影することにより取得された映像は、撮影された映像と表現される場合がある。
また、仮想カメラで仮想的に撮影される映像は、仮想視点映像、任意視点映像、自由視点映像又は仮想カメラ映像とも表現される。仮想カメラで仮想的に撮影される画像は、仮想視点画像、任意視点画像、自由視点画像又は仮想カメラ画像とも表現される。実カメラで撮影された映像は、実視点映像又は実カメラ映像とも表現される。実カメラで撮影された画像は、実視点画像又は実カメラ画像とも表現される。
図1は、自由視点映像生成システムの概要を示す図である。例えば、校正済みのカメラ(例えば固定カメラ)を用いて同一空間が多視点から撮影された多視点映像により、その空間の三次元再構成(三次元空間再構成)が行われる。そして、この三次元再構成で得られたデータを用いて、トラッキング、シーン解析及び映像レンダリングを行うことで、任意の視点(自由視点カメラ)から見た映像が自由視点映像として生成される。これにより、自由視点映像生成システムが実現される。
実空間上に存在する被写体が複数の実カメラにより互いに異なる複数の視点で撮影された複数の映像及び複数の画像は、多視点映像及び多視点画像と呼ばれる。つまり、多視点画像は、同一の被写体が互いに異なる複数の視点から撮影された複数の二次元画像を含む。また、被写体が時系列に撮影された一連の多視点画像は、多視点映像と呼ばれる。多視点画像又は多視点映像を用いて被写体を三次元空間に再構成することは、三次元再構成と呼ばれる。
図2は、三次元再構成の仕組みを示す図である。自由視点映像生成システムは、カメラパラメータを用いて、画像面座標系の点から世界座標系の点を再構成することにより、被写体を三次元空間に再構成する。
三次元空間に再構成された被写体は、三次元モデルと呼ばれる。多視点画像を構成する二次元画像に映る被写体上の複数の点のそれぞれに対応する三次元位置を示す三次元点で被写体の三次元モデルは構成される。三次元位置は、例えば、X軸、Y軸及びZ軸で構成される三次元座標空間のX成分、Y成分及びZ成分の三値情報で表現される。
なお、三次元モデルは、三次元位置のみではなく、各点の色を示す情報を含んでいてもよいし、各点及びその周辺の表面形状を示す情報を含んでいてもよい。
また、自由視点映像生成システムは、各カメラのカメラパラメータを予め取得してもよいし、各カメラのカメラパラメータを三次元モデルの再構成と同時に推定してもよい。カメラパラメータを推定することは、キャリブレーションと呼ばれる。カメラパラメータは、カメラの焦点距離及び画像中心などを示す内部パラメータと、カメラの三次元位置及び向きを示す外部パラメータとを含む。
また、図2は、代表的なピンホールカメラモデルの例を示している。このモデルではカメラのレンズ歪みは考慮されていない。レンズ歪みが考慮される場合、自由視点映像生成システムは、画像面座標系における点の位置が歪みモデルにより正規化された補正位置を用いる。
図3A及び図3Bは、本開示における多視点映像の同期撮影を説明するための図であって、カメラの撮影周期と露光時間との例を示す。図3A及び図3Bにおいて、横方向は時間を示し、矩形信号が立っている時間(つまり、線が上側に位置する時間)はカメラが露光している時間を示す。カメラで画像を取得するためシャッタが開放されている時間は、露光時間と呼ばれる。
露光時間中、レンズを通して撮像素子にさらされたシーンが画像として得られる。図3Aにおいて、視点の異なる2つのカメラで画像が取得される際、露光時間が重複している。そのため、2つのカメラにより取得された画像は、同一時刻のシーンを含んでいる同期画像である。一方、図3Bでは、2つのカメラで露光時間が重複していないため、2つのカメラにより取得された画像は、同一時刻のシーンを含まない非同期画像である。図3Aのように、同期画像を複数のカメラで取得する撮影は、同期撮影と呼ばれる。
図4は、本実施の形態に係る自由視点映像生成システムを含む全体システムの構成を示すブロック図である。図4に示す全体システムは、複数のカメラ100-1、100-2、・・・、100-n、及び、自由視点映像生成システム200を含む。自由視点映像生成システム200は、受信部210、記憶部220、取得部230、生成部240、及び、送信部250を備える。
複数のカメラ100-1~100-nは被写体を撮影し、撮影された被写体の複数の映像で構成される多視点映像を出力する。したがって、多視点映像は、複数の実視点映像を含む。また、各実視点映像は、複数の実視点画像を含む。
多視点映像の送信は、インターネットなどの公衆通信網を介して行われてもよいし、専用通信網を介して行われてもよい。あるいは、多視点映像は、一度ハードディスクドライブ(HDD)又はソリッドステートドライブ(SSD)などの外部記憶装置に記憶され、必要な時に自由視点映像生成システム200へ入力されてもよい。あるいは、多視点映像は、ネットワークを介してクラウドサーバ等の外部記憶装置に送信されて、一旦記憶され、必要な時に自由視点映像生成システム200へ送信されてもよい。
また、複数のカメラ100-1~100-nのそれぞれは、監視カメラなどの固定カメラであってもよいし、ビデオカメラ、スマートフォン又はウェアラブルカメラなどのモバイルカメラであってもよいし、撮影機能付きドローンなどの移動カメラであってもよい。また、多視点映像には、映像又は画像のヘッダ情報として、その映像又は画像を撮影したカメラを特定するカメラIDなどのカメラ特定情報が付加されてもよい。
複数のカメラ100-1~100-nを用いて、撮影周期毎に同じ時刻の被写体を撮影する同期撮影が行われてもよい。あるいは、同期撮影が行われず、複数のカメラ100-1~100-nに内蔵された時計の時刻が合わせられ、映像又は画像毎に撮影時刻情報が付加されてもよし、撮影順序を示すインデックス番号が付加されてもよい。また、多視点映像の映像セット、映像毎又は画像毎に、同期撮影か非同期撮影かを示す情報がヘッダ情報として付加されてもよい。
送信部250から出力される自由視点映像は、自由視点映像生成システム200に直接接続されたディスプレイに表示されてもよいし、自由視点映像生成システム200にネットワークを介して接続された端末に表示されてもよい。あるいは、送信部250から出力される自由視点映像は、自由視点映像生成システム200に含まれるディスプレイに表示されてもよい。
図5は、図4に示された自由視点映像生成システム200の動作を示すフローチャートである。まず、受信部210は、複数のカメラ100-1~100-nで取得された多視点映像を受信する(S101)。そして、受信部210は、受信された多視点映像を記憶部220に記憶する(S102)。次に、取得部230は、多視点映像から1つ以上の実視点画像を選択し、選択された1つ以上の実視点画像を多視点画像セットとして生成部240へ入力する(S103)。
例えば、多視点画像セットは、全ての実視点映像のそれぞれから1つの実視点画像が選択された複数の実視点画像で構成されてもよい。また、例えば、多視点画像セットは、全ての実視点映像のそれぞれから少なくとも1つの実視点画像が選択された複数の実視点画像で構成されてもよい。
また、例えば、多視点映像のうち2つ以上の実視点映像が選択され、選択された各実視点映像から1つの実視点画像が選択された複数の実視点画像で多視点画像セットが構成されてもよい。また、多視点映像のうち2つ以上の実視点映像が選択され、選択された各実視点映像から少なくとも1つの実視点画像が選択された複数の実視点画像で多視点画像セットが構成されてもよい。
多視点画像セットの各実視点画像にカメラ特定情報が付加されていない場合、取得部230は、各実視点画像のヘッダ情報にカメラ特定情報を個別に付加してもよいし、多視点画像セットのヘッダ情報にカメラ特定情報を一括して付加してもよい。
また、多視点画像セットの各実視点画像に撮影時刻又は撮影順を示すインデックス番号が付加されていない場合、取得部230は、撮影時刻又はインデックス番号を各実視点画像のヘッダ情報に個別に付加してもよい。あるいは、この場合、取得部230は、撮影時刻又はインデックス番号を多視点画像セットのヘッダ情報に一括して付加してもよい。
次に、生成部240は、多視点画像セットを用いて、各カメラのカメラパラメータを推定し、各実視点画像に映る被写体の三次元モデルを再構成する。そして、生成部240は、多視点画像セット、カメラパラメータ及び三次元モデルを用いて、レンダリングを行うことにより、仮想カメラの映像を構成する仮想視点画像を自由視点画像として生成する(S104)。
ステップS103及びS104の処理は、多視点画像セット毎に繰り返し行われる。最後に、送信部250は、自由視点画像で構成される自由視点映像を外部へ送信する(S105)。
生成部240においてレンダリングに用いられるカメラパラメータ及び三次元モデルは、生成部240におけるキャリブレーション等により推定されてもよいし、外部から与えられてもよい。カメラパラメータ及び三次元モデルが外部から与えられる場合、受信部210、記憶部220及び取得部230において、多視点映像に加えて、カメラパラメータ及び三次元モデルも処理される。
なお、カメラパラメータが外部から与えられ、三次元モデルが生成部240で推定されてもよい。本実施の形態では、基本的に、生成部240が、カメラパラメータと三次元モデルとの両方を推定する。
図6は、多視点画像セットの例を示す図である。取得部230が、5つのカメラ100-1~100-5のそれぞれから1つの実視点画像を選択することで、5つの実視点画像を含む多視点画像セットを決定してもよい。
まず、5つのカメラ100-1~100-5が同期撮影を行う。各実視点画像のヘッダ情報には、実視点画像を撮影したカメラを特定するカメラIDがそれぞれ100-1~100-5として付与されている。また、各実視点画像のヘッダ情報には、各カメラでの撮影順序を示す画像番号001~Nが付与されている。カメラ間で同じ画像番号を持つ実視点画像は、同時刻の被写体が撮影されていることを示す。
取得部230は、多視点画像セット200-1~200-nを順次出力することにより、多視点画像セット200-1~200-nを生成部240へ順次入力する。生成部240は、繰り返し処理により、多視点画像セット200-1~200-nを用いて順次三次元再構成を行う。
多視点画像セット200-1は、カメラ100-1の画像番号001、カメラ100-2の画像番号001、カメラ100-3の画像番号001、カメラ100-4の画像番号001、及び、カメラ100-5の画像番号001の5つの実視点画像で構成される。生成部240は、この多視点画像セット200-1を多視点映像の最初の画像集合として繰り返し処理の1回目で使用することにより、画像番号001の撮影時刻における三次元モデルを再構成する。
多視点画像セット200-2では、全てのカメラ100-1~100-5で画像番号が更新される。
つまり、多視点画像セット200-2は、カメラ100-1の画像番号002、カメラ100-2の画像番号002、カメラ100-3の画像番号002、カメラ100-4の画像番号002、及び、カメラ100-5の画像番号002の5つの実視点画像で構成される。生成部240は、この多視点画像セット200-2を繰り返し処理の2回目で使用することにより、画像番号002の撮影時刻における三次元モデルを再構成する。
以下、繰り返し処理の3回目以降でも同様に全てのカメラ100-1~100-5で画像番号が更新される。これにより、生成部240は、各時刻の三次元モデルを再構成できる。ただし、各時刻で独立して三次元再構成を行うため、再構成された複数の三次元モデルにおいて、座標軸及びスケールが一致しているとは限らない。したがって、生成部240は、動く被写体の三次元モデルを取得するため、各時刻の座標軸及びスケールを合わせる。
取得部230は、同期撮影を前提とせずに取得された多視点映像を用いて多視点画像セットを作成することもできる。その場合、各実視点画像には撮影時刻が付与されており、取得部230は、その撮影時刻を基に、同期画像及び非同期画像等が組み合わせられた多視点画像セットを作成する。以下、2つのカメラ100-1及び100-2の各撮影時刻を用いて同期画像及び非同期画像を判定する方法を説明する。
例えば、カメラ100-1から選択された実視点画像の撮影時刻はTとして表現され、カメラ100-2から選択された実視点画像の撮影時刻はTとして表現される。また、カメラ100-1の露光時間はTE1として表現され、カメラ100-2の露光時間はTE2として表現される。ここで、撮影時刻T及びTは、図3A及び図3Bの例で露光が開始された時刻、つまり矩形信号の立ち上がりの時刻である。
この場合、カメラ100-1の露光終了時刻は、T+TE1である。そして、式1又は式2が成立する場合、2つのカメラ100-1及び100-2は、同じ時刻に被写体を撮影しており、2つの実視点画像は同期画像である。
≦T≦T+TE1 (式1)
≦T+TE2≦T+TE1 (式2)
図7は、図4に示された生成部240の構造を示すブロック図である。生成部240は、制御部310、切替器311、キャリブレーション部312、記憶部313、三次元再構成部314及びレンダリング部315を備える。
制御部310は、キャリブレーションの要否を判定し、その結果に応じて切替器311を制御する。キャリブレーションの要否は、記憶部313内のカメラパラメータの有無に従って判定されてもよいし、ユーザにより指定されてもよいし、記憶部313に格納されたカメラパラメータの性能に従って判定されてもよい。
なお、カメラパラメータの性能は、三次元再構成部314への入力画像上の特徴点とその三次元点との対応を用いて、評価されてもよい。具体的には、カメラパラメータの性能は、三次元点が入力画像上に再投影された再投影点と、特徴点との誤差を算出することで得られる再投影誤差が任意の閾値以下であるか否かにより評価されてもよい。また、カメラパラメータの性能は、レンダリング部315で生成された自由視点映像の画質により評価されてもよい。
切替器311は、制御部310が行う制御に従って、入力された多視点画像セットをキャリブレーション部312又は三次元再構成部314に出力する。切替器311は、制御部310が行う制御に従って、入力された多視点画像セットをキャリブレーション部312及び三次元再構成部314の両方に出力し得るように構成されてもよい。例えば、切替器311は、キャリブレーション部312、三次元再構成部314、又は、キャリブレーション部312と三次元再構成部314との両方に、出力先を切り替えてもよい。
キャリブレーション部312は、各カメラについて、レンズ歪み係数、内部パラメータ及び外部パラメータを含むカメラパラメータを推定し、推定されたカメラパラメータを記憶部313に格納する。
推定には、チェッカボードなどのパターンが撮影された実視点画像が用いられてもよい。そして、二次元点と三次元点との対応を用いて透視投影行列を算出することによりカメラパラメータが推定されてもよい。あるいは、一般的なシーンが撮影された多視点画像セット、及び、SfM(Structure from Motion)により、カメラパラメータが推定されてもよい。
なお、キャリブレーション部312は、レンズ歪み係数、内部パラメータ及び外部パラメータを別々の多視点画像セットを用いて個別に推定してもよい。また、キャリブレーション部312は、1組の多視点画像セットを用いて、カメラパラメータの全ての値を一度に推定してもよい。あるいは、キャリブレーション部312は、複数組の多視点画像セットを用いて、カメラパラメータを推定してもよい。また、チェッカボードなどのパターンの撮影において、同期撮影が行われなくてもよい。
三次元再構成部314は、シーンの三次元モデルを生成する。三次元再構成部314は、シーンにおける複数のオブジェクトの三次元モデルを一括して生成してもよいし、シーンにおける被写体(つまり前景オブジェクト)と背景オブジェクトとを分けて個別に三次元モデルを生成してもよい。また、三次元再構成部314は、シーンにおける複数のオブジェクトを複数のグループに分けて、グループ毎に三次元モデルを生成してもよい。
三次元再構成部314は、VIM(Volume Intersection Method)又はSCM(Space Carving Method)を三次元再構成方法として用いて、ターゲット毎に三次元モデルを生成してもよい。あるいは、三次元再構成部314は、PMVS(Patch-based Multi-View Stereo)を三次元再構成方法として用いて、シーン全体の三次元モデルを生成してもよい。
図8は、図7に示された生成部240の動作を示すフローチャートである。図8に示された動作は、図5に示された自由視点画像の生成(S104)に対応する。生成部240は、図8に示された動作を多視点画像セット毎に行う。
図8に示された動作において、まず、制御部310は、キャリブレーションの要否を判定し、その結果に従って切替器311を制御する。キャリブレーションが必要である場合(S111でYes)、制御部310は、入力された多視点画像セットをキャリブレーション部312に出力するように、切替器311を制御する。キャリブレーションが必要でない場合(S111でNo)、制御部310は、入力された多視点画像セットを三次元再構成部314に出力するように、切替器311を制御する。
そして、キャリブレーションが必要である場合(S111でYes)、キャリブレーション部312は、多視点画像セットを用いて、カメラパラメータを推定し、推定されたカメラパラメータを記憶部313へ格納する(S112)。そして、制御部310は、多視点画像セットを更新するか、カメラパラメータの推定に用いられた多視点画像セットを用いて三次元モデル及び仮想視点画像の生成を行うかを判定する。
多視点画像セットを更新すると判定された場合(S113でYes)、生成部240は、現在の多視点画像セットに対する動作を終了する。これにより、次の多視点画像セットの動作が開始される。カメラパラメータの推定に用いられた多視点画像セットを用いて三次元モデル及び仮想視点画像の生成を行うと判定された場合(S113でNo)、制御部310は、多視点画像セットを三次元再構成部314に出力するように、切替器311を制御する。
なお、切替器311は、上述したように、制御部310が行う制御に従って、キャリブレーション部312及び三次元再構成部314の両方に多視点画像セットを出力し得るように構成されていてもよい。そして、多視点画像セットが、カメラパラメータの推定と、三次元モデル及び仮想視点画像の生成とに用いられる場合、切替器311は、キャリブレーション部312及び三次元再構成部314の両方に多視点画像セットを出力してもよい。
そして、三次元再構成部314は、多視点画像セット及びカメラパラメータを用いて、シーンの三次元モデルを生成する(S114)。次に、レンダリング部315は、多視点画像セット、カメラパラメータ及び三次元モデルを用いて、仮想視点画像を自由視点映像として生成する(S115)。
図9は、図7に示されたレンダリング部315の構造を示すブロック図である。レンダリング部315は、制御部410、カメラ選択部411、切替器412、画像生成部413、平行化部414、及び、超解像画像生成部415を備える。
レンダリングは、データ記述言語で記述されたデータ等から画像を生成することを意味する。レンダリング部315は、多視点画像セット、カメラパラメータ及び三次元モデルを用いてレンダリングを行うことにより、仮想視点画像を生成する。
色情報を持つ三次元モデルの点群が十分に密である場合、又は、色情報を持つ三次元モデルがメッシュ等の面で表現されている場合、レンダリング部315は、三次元モデルを仮想カメラで撮影することにより仮想視点画像を生成することができる。つまり、この場合、レンダリング部315は、仮想カメラのカメラパラメータを用いて、三次元モデルを仮想カメラの画像面へ投影することに対応する写像の演算を行うことにより、仮想視点画像を生成することができる。
また、三次元モデルがメッシュなどの面で表現されておらず、三次元モデルの点群が疎である場合、又は、三次元モデルが色情報を持たない場合、レンダリング部315は、三次元モデルに加えて、実視点画像を用いる。具体的には、レンダリング部315は、実視点画像において仮想視点画像の生成対象画素に対応する画素である対応画素を三次元モデル及びカメラパラメータにより算出する。そして、レンダリング部315は、実視点画像の対応画素及びその周辺画素を用いて仮想視点画像を生成する。
レンダリング部315は、基本的に、三次元モデル及び実視点画像の両方を用いるレンダリング方法で、仮想視点画像を生成する。以下において、レンダリングに用いられる実視点画像が入力画像と表現され、仮想視点画像が出力画像と表現される場合がある。
制御部410は、例えば、超解像処理を実施するか否かを判定する。具体的には、制御部410は、出力画像の要求解像度Rと入力画像の実解像度Rとを比較し、要求解像度R-実解像度Rが任意の閾値を超える場合に超解像処理を実施すると判定してもよい。あるいは、入力画像に対する出力画像の倍率が任意の閾値を超える場合に、つまり仮想カメラのズームの倍率が閾値よりも大きい場合に、制御部410は、超解像処理を実施すると判定してもよい。
そして、制御部410は、判定結果に基づき、切替器412を制御する。これにより、制御部410は、超解像処理を実施する場合に、平行化部414及び超解像画像生成部415を動作させ、超解像処理を実施しない場合に、画像生成部413を動作させる。なお、制御部410は、自由視点映像生成システム200のユーザの指示により超解像処理を実施するか否かを判定してもよい。また、自由視点映像生成システム200は、ユーザの指示を取得するためのインタフェースを備えていてもよい。
ここで、解像度は、画素の密度に対応し、画像の細かさに対応する。画像の解像度が高いほど、画像がより高い周波数成分を含み得る。したがって、超解像処理は、低い周波数成分で構成される画像から、高い周波数成分で構成される画像を生成することに対応する。
カメラ選択部411は、複数の実カメラの中から、仮想視点画像のレンダリングに使用される1つ以上の実カメラを選択する。具体的には、例えば、カメラ選択部411は、仮想カメラと少なくとも一部の視野が重複する実カメラを選択する。あるいは、カメラ選択部411は、仮想視点画像において超解像処理が必要な領域と重複する領域を含む画像を撮影した実カメラと、超解像処理が不要な領域と重複する領域を含む画像を撮影した実カメラとを別々に選択してもよい。なお、両方で選択される実カメラが存在してもよい。
なお、カメラ選択部411は、基本的に、2つ以上の実カメラを選択する。しかし、カメラ選択部411は、仮想カメラの位置等により、1つの実カメラを選択してもよい。
また、カメラ選択部411は、仮想カメラに位置又は向きが近い複数の実カメラを選択してもよい。例えば、カメラ選択部411は、仮想カメラに対して、位置の差が所定距離範囲内であり、向きの差が所定角度範囲内である複数の実カメラを選択してもよい。また、カメラ選択部411は、仮想カメラに位置が近い順で、又は、仮想カメラに向きが近い順で、所定数の実カメラを選択してもよい。
また、カメラ選択部411で選択された複数の実カメラで視野が重複する領域に対して超解像処理が実施され、複数の実カメラで視野が重複しない領域に対して超解像処理が実施されなくてもよい。
切替器412は、制御部410が行う制御に従って、選択された1つ以上の実カメラの各実視点画像と、選択された1つ以上の実カメラの各カメラパラメータと、三次元モデルとを画像生成部413又は平行化部414へ出力する。
画像生成部413は、選択された1つ以上の実カメラの各実視点画像である入力画像、三次元モデル、及び、選択された1つ以上の実カメラの各カメラパラメータを用いて、レンダリング処理を行うことにより、仮想視点画像である出力画像を生成する。
例えば、画像生成部413は、実視点画像において仮想視点画像の生成対象画素に対応する画素である対応画素を三次元モデル及びカメラパラメータにより算出する。そして、画像生成部413は、実視点画像の対応画素の画素値、及び、対応画素の周辺画素の画素値を用いて、仮想視点画像の生成対象画素の画素値を推定することにより、仮想視点画像を生成する。
また、例えば、画像生成部413は、仮想視点画像における画素毎又はブロック毎に、複数の実視点画像における複数の対応位置を算出してもよい。そして、画像生成部413は、複数の実視点画像における複数の対応位置を中心に含む複数の小領域が有する複数の画素成分の重み付け和を算出することにより、仮想視点画像を画素毎又はブロック毎に生成してもよい。なお、画像生成部413は、仮想視点画像の生成に、重み付け和ではなく、単純平均を用いてもよいし、中央値などの代表値を用いてもよい。
平行化部414は、各実視点画像の平行化を行って、平行化された各実視点画像を超解像画像生成部415に対する入力画像として出力する。また、平行化部414は、切替器412から出力された三次元モデル及びカメラパラメータを超解像画像生成部415へ出力する。平行化部414が行う平行化については、図11A及び図11B等を用いて、後述する。
超解像画像生成部415は、入力画像、三次元モデル及びカメラパラメータを用いて、レンダリング処理を行うことにより、仮想視点画像である出力画像を生成する。超解像画像生成部415の基本的な動作は、画像生成部413の動作と同様であるが、超解像画像生成部415は、超解像処理を行うことにより、高解像度の出力画像を生成する。超解像処理については、図12等を用いて、後述する。
なお、カメラ選択部411は、画像生成部413、平行化部414及び超解像画像生成部415のいずれかに含まれてもよい。そして、仮想カメラの位置等に応じて、最適な実カメラが適宜選択され、レンダリング処理が行われてもよい。
図10は、図9に示されたレンダリング部315の動作を示すフローチャートである。図10に示された動作は、図8に示された自由視点画像の生成(S115)に対応する。レンダリング部315は、図10に示された動作を多視点画像セット毎に行う。
図10に示された動作において、まず、カメラ選択部411は、仮想カメラの位置及び向きに従って、複数の実カメラの中から、レンダリングに用いられる複数の実カメラを選択する(S121)。
そして、制御部410は、超解像処理を実施するか否かを判定し、その結果に従って切替器412を制御する。制御部410は、カメラ選択部411で選択された複数の実カメラのそれぞれの位置及び向き、並びに、仮想カメラの位置及び向きに従って、超解像処理を実施するか否かを判定してもよい。具体的には、制御部410は、仮想カメラに位置及び向きが近い複数の実カメラが選択された場合、超解像処理を実施すると判定してもよい。
超解像処理が実施されない場合(S122でNo)、制御部410は、選択された複数の実カメラの各実視点画像、及び、三次元モデル等が画像生成部413に出力されるように、切替器412を制御する。そして、画像生成部413は、選択された複数の実カメラの各実視点画像、及び、三次元モデル等を用いてレンダリング処理を行うことにより、仮想視点画像を自由視点画像として生成する(S123)。これにより、画像生成部413は、各実視点画像の解像度と同じ解像度の仮想視点画像を自由視点画像として生成する。
超解像処理が実施される場合(S122でYes)、制御部410は、選択された複数の実カメラの各実視点画像、及び、三次元モデル等が平行化部414に出力されるように、切替器412を制御する。そして、平行化部414は、選択された複数の実カメラの複数の実視点画像を平行化する(S124)。つまり、平行化部414は、選択された複数の実カメラの複数の実視点画像を変換して、平行化された複数の実視点画像を生成する。
そして、超解像画像生成部415は、超解像処理を行って、高解像度の仮想視点画像を自由視点画像として生成する(S125)。例えば、超解像画像生成部415は、平行化された複数の実視点画像を用いて、超解像処理を伴うレンダリング処理を行うことにより、各実視点画像よりも解像度が高い仮想視点画像を自由視点画像として生成する。
次に、図9に示された平行化部414が行う平行化について説明する。超解像処理では、仮想カメラの近傍の複数の実カメラから得られる複数の実視点画像において、互いにわずかな位置ずれを持つ複数のブロックが用いられる。そのため、例えば、実視点画像間で画素単位又はブロック単位のマッチング処理が行われる。
画素単位のマッチングに関して、注目画素及びその周辺の画素から特徴量を抽出し、特徴量をベクトル化することで得られる特徴ベクトルを用いる方法がある。しかし、この方法では、特徴量の抽出に要する演算量が膨大になる。また、実視点画像に含まれる被写体のコーナー等のような特徴的な画素を除いて、高精度のマッチング結果が得られない。
また、ブロック単位のマッチングに関しても、自由に配置された複数の実カメラでは、複数のカメラの複数の光軸が交わる。そのため、複数の実視点画像がそれぞれ異なる歪みを含むため、高精度のマッチング結果が得られない。
そこで、平行化部414は、超解像処理の前処理として、選択された複数の実カメラの複数のカメラパラメータを用いて、選択された複数の実カメラの複数の実視点画像を平行化する。これにより、高速かつ高精度なブロックマッチングが可能になる。
なお、三次元モデルを用いて、複数の実視点画像において仮想視点画像の処理対象領域に対応する複数の参照領域が特定され得る。すなわち、三次元モデルを用いて、複数の実視点画像において、互いにわずかな位置ずれを持つ複数のブロックが特定され得る。したがって、平行化は省略可能である。ただし、高解像度画像の生成において、平行化は、マッチング処理に限らず、超解像処理にも有効である。
図11A及び図11Bは、平行化の方法を説明するための図である。図11Aに示すように、第1カメラの位置と第2カメラの位置とを結ぶ直線と、第1カメラ及び第2カメラの画像平面I1及びI2との交点e1及びe2は、エピポールと呼ばれる。また、三次元点c1、第1カメラの位置、及び、第2カメラの位置を含む平面は、エピポーラ平面と呼ばれる。エピポーラ平面と、画像平面I1及びI2とが交わる直線p1-e1及びp2-e2は、エピポーラ線と呼ばれる。
画像平面I1は、第1カメラの実視点画像に対応し、画像平面I2は、第2カメラの実視点画像に対応する。三次元点c1、c2及びc3は、第1カメラの画像平面I1において、同一の点p1に投影される。一方、第2カメラの画像平面I2において、点p1に対応する点は、エピポーラ線上に存在する。
また、同一のエピポーラ平面に存在しない複数の三次元点に対応する複数のエピポーラ平面が存在し得る。そして、画像平面I1及びI2のそれぞれが、複数のエピポーラ平面に対応する複数のエピポーラ線を有し得る。
第1カメラの光軸、及び、第2カメラの光軸が平行である場合、2つの画像平面I1及びI2は平行であり、2つの画像平面I1及びI2のそれぞれにおける複数のエピポーラ線は平行である。一方、第1カメラの光軸、及び、第2カメラの光軸が平行でない場合、2つの画像平面I1及びI2は平行ではなく、2つの画像平面I1及びI2のそれぞれにおける複数のエピポーラ線は平行でない。
平行化部414は、キャリブレーション部312において推定されたレンズ歪み係数、内部パラメータ及び外部パラメータを用いて、画像の変換を行うことにより、2つの画像平面I1及びI2を平行化する。すなわち、平行化部414は、画像の変換を行うことにより、2つの画像平面I1及びI2のそれぞれにおける複数のエピポーラ線を平行化する。
複数の画像を平行化することは、複数の画像平面を平行化することに対応し、複数の画像のうちの各2つの画像のそれぞれにおける複数のエピポーラ線を平行化することと同等の処理を行うことに対応する。また、複数の画像を平行化することは、光軸が平行な複数のカメラで撮影された複数の画像のように、すなわち、視野方向が平行な複数の画像のように、複数の画像を変換することに対応する。例えば、平行化部414は、図11Bのようにエピポーラ線と各画像の横軸とを平行化することにより、各画像を平行化する。
平行化部414は、第1カメラ及び第2カメラのそれぞれの画像に対して、ホモグラフィ(Homography)行列を用いるホモグラフィ変換により、平行化を行ってもよい。これにより、例えば、エピポールは、任意の点に変換される。そして、各画像において全てのエピポーラ線が画像の横方向の座標軸に平行になり、画像間で対応する複数の点が画像において同じ縦座標位置に存在するように、2つの画像が変換される。
例えば、第1カメラの実視点画像を平行化するためのホモグラフィ行列がHとして表現され、第2カメラの実視点画像を平行化するためのホモグラフィ行列がHとして表現される。また、平行化前の画像平面I1上の点がxとして表現され、平行化後の画像平面I1a上の点が
Figure 0007159057000001
として表現される。同様に、平行化前の画像平面I2上の点がxとして表現され、平行化後の画像平面I2a上の点が
Figure 0007159057000002
として表現される。この場合、以下の式3及び式4が成立する。
Figure 0007159057000003
Figure 0007159057000004
また、平行化後の画像平面I1aと画像平面I2aとの関係を示す基礎行列が
Figure 0007159057000005
として表現される場合、互いに対応する点であるx及びxに対して、以下の式5が成立する。
Figure 0007159057000006
なお、
Figure 0007159057000007
は、
Figure 0007159057000008
の転置ベクトルを示す。式5に式3及び式4が適用されることにより、以下の式6が得られる。
Figure 0007159057000009
ここで、平行化前の画像平面I1と画像平面I2との関係を示す基礎行列がFとして表現される場合、互いに対応するx及びxに対して、x Fx=0が成立するため、式6から基礎行列Fとホモグラフィ行列H及びHとの関係式である式7が得られる。
Figure 0007159057000010
なお、ホモグラフィ行列Hは、式8のように表現される。
Figure 0007159057000011
そして、Hのu、v及びwについて、以下の式9が成立する。
=[u =[1 0 0] (式9)
式9は、エピポールeが、画像平面の横方向に無限遠の位置に変換されることを意味する。また、式9は、vを直線の係数として有する直線と、wを直線の係数として有する直線とが、エピポールeを含むことを意味する。また、この関係は、ホモグラフィ行列H及びエピポールeについても同様である。
2つの対応点に関して、平行化後の縦座標の位置は一致する。したがって、式7の基礎行列
Figure 0007159057000012
は、式10のように、反対称行列Aで定義される。
Figure 0007159057000013
式7及び式10から式11が得られる。
F=H (式11)
基礎行列Fは、第1カメラ及び第2カメラの内部パラメータ及び外部パラメータから算出可能である。一方、ホモグラフィ行列H及びHは、式11で一意に得られない。このため、平行化部414は、式9を拘束条件として用いて、平行化後の画像の歪みを最も小さくするようなホモグラフィ行列H及びHを探索してもよい。
ここでは、ペアを構成する第1カメラ及び第2カメラの2つの実視点画像の両方にホモグラフィ変換が施され、平行化が行われている。しかし、式11のホモグラフィ行列H及びHのいずれかが単位行列であってもよい。つまり、平行化部414は、一方のカメラの実視点画像を基準として用いて、他方のカメラの実視点画像に対してホモグラフィ変換を行うことにより、平行化処理を行ってもよい。
図12は、処理対象画素と三次元点と複数の対応画素との関係を示す図である。平行化部414は、例えば、カメラ選択部411で選択された複数のカメラのそれぞれの画像平面が、図12のように、仮想カメラの画像平面I0に平行になるように、平行化処理を行う。平行化処理により得られた画像平面I1a及びI2aにおいて、複数のエピポーラ線が平行化されている。超解像画像生成部415は、平行化された画像平面I1a及びI2aを用いて超解像処理を行う。
具体的には、超解像画像生成部415は、三次元モデルを用いて、仮想カメラの画像平面I0上の生成対象画素pに、平行化された画像平面I1a及びI2aにおいて対応する画素p1a及びp2aを算出する。
例えば、超解像画像生成部415は、三次元モデル、及び、仮想カメラのカメラパラメータを用いて、仮想カメラの画像平面I0上の生成対象画素pに対応する三次元点xを算出してもよい。具体的には、仮想カメラの位置及び向き等に基づいて定められる画像平面I0に三次元モデルを投影する写像の演算により、画像平面I0上の生成対象画素pの位置に投影される三次元点xの位置が算出されてもよい。
そして、超解像画像生成部415は、三次元モデル、及び、選択された各実カメラのカメラパラメータを用いて、画像平面I1a及びI2aにおいて、三次元点xに対応する画素p1a及びp2aを算出してもよい。
具体的には、選択された各実カメラの位置及び向き等に基づいて定められる画像平面I1及びI2に三次元モデルを投影する写像の演算により、三次元点xが画像平面I1及びI2に投影される画素p1及びp2の位置が算出されてもよい。さらに、画像平面I1及びI2上の画素p1及びp2の位置から、ホモグラフィ変換等によって、平行化された画像平面I1a及びI2a上の画素p1a及びp2aの位置が算出されてもよい。
上記のような算出処理により、超解像画像生成部415は、三次元モデルを用いて、画像平面I1a及びI2aにおいて、仮想カメラの画像平面I0上の生成対象画素pに対応する画素p1a及びp2aを算出することができる。
なお、平行化部414は、カメラ選択部411で選択されたK個のカメラにおいて、K(K-1)/2組のペアを作り、ペア毎に平行化を行ってもよい。あるいは、平行化部414は、K個のカメラにおいて、仮想カメラに位置又は向きが最も近いカメラと、残りのK-1個のカメラのそれぞれとでペアで構成されるK-1組のペアを作り、ペア毎に平行化を行ってもよい。
超解像処理は、マッチング処理及び再構成処理の2つの処理で構成され得る。ここで、超解像処理における複数の入力画像は、出力される高解像度画像が劣化した画像とみなされ得る。高解像度画像を生成する処理は、複数の入力画像である複数の低解像度画像を用いて、元の高解像度画像を再構成する処理に対応するため、再構成処理と呼ばれる。
まず、図12のように平行化された2つの画像の関係を用いて行われるマッチング処理について説明する。カメラペアの平行化された画像平面I1a及びI2aにおいて、仮想カメラの画像平面I0上の生成対象画素pに対応する画素p1a及びp2aが得られる。超解像画像生成部415は、この画素p1a、p2a及びそれぞれの周辺画素で構成されるブロックを用いて超解像処理を行ってもよい。
あるいは、超解像画像生成部415は、より超解像処理による効果を高めるため、サブピクセル単位のブロックマッチングを行ってもよい。その際、仮想カメラの位置又は向きに近いカメラの画像が対象画像として固定され、対象画像上のブロックが対象ブロックとして固定されてもよい。そして、遠いカメラの画像を参照画像として用い、参照画像上のブロックを参照ブロックとして用いて、探索が行われてもよい。
また、例えば、画像平面I1a上の画素p1aを中心画素とするブロックが対象ブロックとして固定され、画像平面I2a上の画素p2aの周辺から参照ブロックが探索されてもよい。
サブピクセル単位のブロックマッチング方法として、画素ベースの方法、及び、指標ベースの方法がある。
画素ベースの方法では、対象画像と参照画像とが所望の探索精度までアップサンプリングされ、対象ブロック内の画素成分に対して参照ブロック内の画素成分の誤差絶対値和又は誤差二乗和が最小である参照ブロックが探索される。
指標ベースの方法では、画素ベースと同様に、対象画像と参照画像とが所望の探索精度までアップサンプリングされる。そして、ブロック内の画素成分が直接使用されず、対象ブロック側の画素成分から得られる2次関数に最も合致する参照ブロックが探索される。この方法は、類似度補間法と呼ばれる。あるいは、対象ブロック及び参照ブロック内の画素成分から算出可能なNCC(Normalized Cross Correlation)などが評価指標として用いられ、探索が行われる。
式12は、NCCの算出式を示す。式12において、ブロックサイズはM×N画素である。また、f(i、j)及びg(i、j)は、それぞれ、対象ブロック及び参照ブロック内の画素値を示し、
Figure 0007159057000014
及び
Figure 0007159057000015
は、それぞれ、対象ブロック及び参照ブロック内の画素値平均を示す。(dx、dy)は、参照画像における参照ブロックの左上の画素位置を示す。
Figure 0007159057000016
式12のNCCは、対象ブロック内の複数の画素値で構成される画素ベクトルと、参照ブロック内の複数の画素値で構成される画素ベクトルとの内積に対応する。NCCの最大値は1であり、NCCが1に近いほど、対象ブロックと参照ブロックとがより互いに類似している。
また、上記の方法は一例であり、ブロックマッチング方法はこれに限らない。例えば、対象ブロック内の位置と画素値とに2次関数を当てはめ、参照画像上でパラボラフィッティングによりサブピクセル単位のマッチングが行われてもよい。また、指標ベースの方法において、フーリエ変換などにより画像が周波数変換された後、振幅スペクトルが正規化された領域でマッチングが行われる位相限定相関(POC:Phase Only Correlation)法が用いられてもよい。
また、上述した通り、超解像画像生成部415は、三次元モデル、及び、仮想カメラのカメラパラメータを用いて、仮想カメラの画像平面I0上の生成対象画素pに対応する三次元点xを算出してもよい。そして、超解像画像生成部415は、選択された実カメラのカメラパラメータを用いて、平行化されていない画像平面I1及びI2において、三次元点xに対応する画素p1及びp2を算出してもよい。
上記により、超解像画像生成部415は、平行化されていない画像平面I1及びI2において、仮想カメラの画像平面I0上の生成対象画素pに対応する画素p1及びp2を算出してもよい。すなわち、超解像画像生成部415は、画素値又は指標値等を用いることなく、三次元モデルを用いて、複数の実視点画像において、仮想視点画像の処理対象ブロックに対応する複数のブロックを特定してもよい。また、複数の実視点画像は平行化されていなくてもよい。
また、超解像画像生成部415は、複数の実視点画像をアップサンプリングし、三次元モデルを用いて、アップサンプリングされた複数の実視点画像において、仮想視点画像の処理対象ブロックに対応する複数のブロックをサブピクセル精度で特定してもよい。
次に、再構成処理について説明する。上述した処理により、複数の入力画像において処理対象ブロックに対応する複数のブロックが取得される。例えば、超解像画像生成部415は、これらのブロックを用いて、最大事後確率推定法(MAP推定法:Maximum A Posteriori estimation method)により、再構成処理を行う。
例えば、MAP推定法では、複数の低解像度画像が観測される条件下における高解像度画像の事後確率に関する評価関数を最小化することで、高解像度画像が推定される。すなわち、高解像度画像の再構成処理が行われる。
具体的には、高解像度画像の処理対象ブロックに含まれる複数の画素値で構成されるベクトルがxで表現され、観測されたN個の低解像度画像のうちi番目の低解像度画像のブロックに含まれる画素値で構成されるベクトルがyで表現される。この場合、高解像度画像の事後確率分布p(x|y、y、・・・、y)は、尤度分布p(y|x)及び事前確率分布p(x)を用いて、式13で表現される。
Figure 0007159057000017
また、高解像度画像が、センサ、又は、被写体の動きなどの要因で、i番目の低解像度画像へ劣化するモデルが、行列Mで表現される場合、尤度分布p(y|x)は、式14で表現される。
Figure 0007159057000018
ここで、σはノイズの分散値を示す。また、ハイパスフィルタが行列HPFで表現される場合、高解像度画像の事前確率分布p(x)は、式15で表現される。
Figure 0007159057000019
ここで、φは調整パラメータを示す。MAP推定法では、式13の事後確率が最大化されるように高解像度画像のベクトルxが再構成される。解きやすさの観点から、式13の対数に式14及び式15を適用することにより、式16が導出される。これにより、式13の事後確率を最大化するベクトルxは、式16の評価関数E(x)を最小化するベクトルxに置き換えられ得る。
Figure 0007159057000020
なお、劣化モデルの行列M、及び、ハイパスフィルタの行列HPFは、既知として扱われる。また、α=σ/φである。すなわち、式16において、未知のパラメータが、1つにまとめられている。αが大きくなるほど、ノイズがより少なくなるが、超解像効果がより小さくなる。αが小さくなるほど、ノイズがより多くなるが、超解像効果もより大きくなる。
上述した方法は一例であり、超解像方法は上述した方法に限らない。例えば、周波数領域において複数の低解像度画像に含まれる互いに異なるエイリアシング成分を合成することにより高周波成分を再構成する方法が用いられてもよい。また、画像領域の方法として、IBP(Iterative Back Projection)法が用いられてもよい。
IBP法では、超解像画像である高解像度画像の順投影として劣化モデルにより推定された低解像度画像と、観測された低解像度画像との誤差画像が、高解像度化される。そして、誤差画像に逆投影カーネル(Back Projection Kernel)を適用することにより、誤差画像の逆投影が行われる。そして、誤差画像が現在の超解像画像に加算されることにより、超解像画像が更新される。この操作が繰り返されることで、より高画質な超解像画像が再構成される。
また、POCS(Projection Onto Convex Set)法が用いられてもよい。POCS法では、高解像度画像から低解像度画像への劣化モデルを示す複数の方程式を含む連立方程式について、これらの方程式が全て微分可能であるという制約条件を基に、これらの方程式を順次解くことで超解像画像が再構成される。
また、劣化モデルとして、光学系における被写体のボケを示すPSF(Point Spread Function)が用いられ得る。
また、超解像画像生成部415は、平行化された複数の低解像度画像に対してブロックマッチングを行うことにより、三次元モデルを用いずに、平行化された複数の低解像度画像において互いに適合する複数のブロックを特定してもよい。そして、超解像画像生成部415は、特定された複数のブロックの複数の画素成分から、三次元モデルを用いずに、高解像度画像におけるブロックの画素成分を推定してもよい。
複数の低解像度画像を撮影した複数の実カメラのそれぞれの位置及び向きが、仮想カメラの位置及び向きに十分に近似する場合、平行化された各低解像度画像におけるブロックの位置は、高解像度画像におけるブロックの位置に対応すると想定される。
また、仮想視点画像と平行になるように実視点画像を平行化する処理は、実視点画像を仮想視点から見た画像に変換することに近い処理である。したがって、高解像度画像と平行になるように複数の低解像度画像が平行化されている場合、平行化された複数の低解像度画像のそれぞれにおけるブロックの位置は、高解像度画像におけるブロックの位置に対応すると想定される。
よって、超解像画像生成部415は、平行化された複数の低解像度画像において特定された複数のブロックの複数の画素成分から、三次元モデルを用いずに、高解像度画像におけるブロックの画素成分を適切に推定することができる。
次に、平行化においてホモグラフィ行列を用いるホモグラフィ変換により増減するエイリアシング成分について説明する。
図13Aは、エイリアシングが発生していない状態の周波数スペクトルを示すグラフである。図13Bは、エイリアシングが発生している状態の周波数スペクトルを示すグラフである。図13A及び図13Bにおいて、1/Tは標本化周波数である。図13A及び図13Bは、それぞれ、1/T間隔でサンプリングされた信号の周波数スペクトルを示している。
画像の標本化周波数(1/T)が最大周波数(α)の2倍よりも小さい場合、周波数領域において、図13Bのように、標本化周波数の高周波数成分が、標本化周波数の低周波数成分に折り返す。これをエイリアシング又は折り返し歪みという。エイリアシングが生じることにより、画像空間では標本化対象の構造が干渉する。
入力画像として用いられる低解像度画像に含まれるエイリアシング成分の大きさにより超解像効果が異なる。サブピクセル精度に位置合せされた複数の入力画像の複数のエイリアシング成分を合成することにより、入力画像の最大周波数成分を超える高周波成分を含む画像の再構成が可能になる。低解像度画像から高解像度画像を生成する処理は、再構成処理又は再構成型超解像とも呼ばれる。
図14は、エイリアシング成分の発生量が多い画像の例を示す図である。低解像度画像にエイリアシング成分が多く含まれているほど、超解像処理の効果がより向上する。つまり、より高い周波数成分を再構成できる。しかし、エイリアシング成分が多い画像は、図14のように、歪み成分が多く、画像間での位置合せが困難となる。よって、超解像及び位置合せの両方の観点でバランスの良いエイリアシング成分を含むことが望ましい。
図15は、平行化とエイリアシングとの関係を示す図である。平行化においてホモグラフィ行列により変換された画像は、図15のように、元画像が縮む方向に変換されてエイリアシングが生じる領域、及び、元画像が伸びる方向に変換されてエイリアシングが減少する領域を含み得る。
平行化部414は、超解像効果を大きくすべき所定の領域で、バランスの良いエイリアシング成分を含む平行化画像を生成するため、平行化の基準を決定してもよい。例えば、平行化部414は、仮想カメラを基準に平行化を行う場合と、実カメラ間で平行化を行う場合とで、超解像効果を大きくすべき所定の領域に含まれるエイリアシング成分を評価し、評価結果に従って平行化の基準を選択してもよい。
そして、平行化部414は、エイリアシング成分の発生量が所定範囲に含まれるように、複数の実視点画像を平行化するための基準視野方向を決定し、基準視野方向に対して視野方向が平行になるように、複数の実視点画像を平行化してもよい。
また、超解像画像生成部415は、平行化部414で実視点画像の平行化後、バランスの良いエイリアシングを持つ領域のみを超解像処理に使用してもよい。つまり、超解像画像生成部415は、一部の領域に対して超解像処理をスキップし、部分的に画像生成部413と同様に実視点画像と同じ解像度で仮想視点画像を生成してもよい。
例えば、平行化された複数の実視点画像における複数の参照領域において、エイリアシング成分の発生量が閾値よりも多い場合、超解像画像生成部415は、超解像処理を行って、仮想視点画像における処理対象領域の画素成分を高い解像度で推定してもよい。そして、平行化された複数の実視点画像における複数の参照領域において、エイリアシング成分の発生量が閾値よりも多くない場合、超解像画像生成部415は、超解像処理を行わずに、仮想視点画像における処理対象領域の画素成分を推定してもよい。
これにより、超解像効果の小さい領域では超解像処理が行われないため、演算量の削減が可能である。
図16は、図4に示された自由視点映像生成システム200の変形例の構成を示すブロック図である。自由視点映像生成システム200は、図16のように三次元再構成装置500と自由視点映像生成装置600とを別に備えてもよい。
例えば、三次元再構成装置500は、サーバとして動作し、多視点映像からカメラパラメータを推定し、三次元モデルの再構成を行う。そして、三次元再構成装置500は、カメラパラメータ、三次元モデル及び多視点映像をネットワーク経由で配信する。
具体的には、三次元再構成装置500は、受信部210、記憶部220、取得部230、三次元再構成部540、及び、送信部550を備える。受信部210、記憶部220及び取得部230は、図4に示された構成要素と同様の構成要素である。三次元再構成部540は、多視点映像からカメラパラメータを推定し、三次元モデルの再構成を行う。送信部550は、カメラパラメータ、三次元モデル及び多視点映像をネットワーク経由で配信する。
自由視点映像生成装置600は、クライアント端末として動作し、三次元再構成装置500から受信した情報に基づいて、ユーザにより指定される任意視点映像を自由視点映像として生成し、自由視点映像として生成された任意視点映像を表示する。
具体的には、自由視点映像生成装置600は、受信部610、レンダリング部620、及び、出力部630を備える。受信部610は、三次元再構成装置500から情報を受信する。レンダリング部620は、三次元再構成装置500から受信した情報に基づいて、ユーザにより指定される任意視点映像を自由視点映像として生成する。出力部630は、自由視点映像として生成された任意視点映像を表示する。
また、自由視点映像生成システム200の変形例は、上記のシステムに限られない。三次元再構成装置500及び自由視点映像生成装置600が、さらに複数の演算装置に細分化されてもよい。そして、複数の演算装置が、ネットワーク上で連携して自由視点映像を生成してもよい。このネットワークは、インターネットでもよいし、ローカルネットワークでもよい。
また、選択された実カメラの実視点画像、及び、選択された実カメラの周辺の実カメラの実視点画像を用いて、実視点画像の超解像処理が行われてもよい。そして、超解像処理により高解像度画像として得られた実視点画像が、仮想視点画像を生成するためのレンダリング処理に用いられてもよい。その処理過程を図17A及び図17Bに示す。
図17Aは、多視点映像の高解像度化処理を説明するための図である。図17Aの例では、平行化部414は、第1カメラの実視点画像と、第1カメラの近傍の第3カメラの実視点画像とを平行化する。超解像画像生成部415は、平行化された2つの実視点画像に対して位置合せを行って、第1カメラの実視点画像の超解像処理を行う。これにより、超解像画像生成部415は、第1カメラの実視点画像を高解像度化する。
なお、第1カメラの位置及び向きに近いカメラが第3カメラとして選択される。第1カメラの位置及び向きに近い複数のカメラが選択され第1カメラの実視点画像の超解像処理に用いられてもよい。
同様に、平行化部414は、第2カメラの実視点画像と、第2カメラの近傍の第4カメラの実視点画像とを平行化する。超解像画像生成部415は、平行化された2つの実視点画像に対して位置合せを行って、第2カメラの実視点画像の超解像処理を行う。これにより、超解像画像生成部415は、第2カメラの実視点画像を高解像度化する。
なお、第2カメラの位置及び向きに近いカメラが第4カメラとして選択される。第2カメラの位置及び向きに近い複数のカメラが選択され第2カメラの実視点画像の超解像処理に用いられてもよい。
図17Bは、高解像度化された多視点映像から自由視点映像を生成する処理を説明するための図である。高解像度化された多視点映像から自由視点映像を生成する処理は、図11A、図11B及び図12を用いて説明された平行化処理及び超解像処理に従って行われる。ただし、平行化処理及び超解像処理において、高解像度化された多視点映像が用いられる。
すなわち、第1カメラの実視点画像、及び、第2カメラの実視点画像は、超解像済みである。そのため、仮想視点画像のレンダリングでは、仮想視点画像に含まれる生成対象画素pに対応する2つの画素p1及びp2の2つの画素値の重み付け和又は平均値などにより、生成対象画素pの画素値が算出されてもよい。あるいは、第1カメラの高解像度画像、及び、第2カメラの高解像度画像を平行化し、さらに、超解像処理が行われてもよい。
また、レンダリングでは、上述したように、画素単位で仮想視点画像が生成されてもよい。あるいは、小領域のブロック単位で仮想視点画像が生成されてもよい。
また、3つ以上の実カメラが選択され、3つ以上の実視点画像から仮想視点画像が生成される場合でも、同様に各実カメラの近傍のカメラの実視点画像を用いる超解像処理により得られた高解像度画像を用いてレンダリングが行われてもよい。さらに、レンダリングでは、さらに超解像処理が行われてもよい。この場合、超解像処理により実視点画像として高解像度画像が事前に取得される。そして、高解像度画像が入力画像として用いられ、超解像処理を伴うレンダリング処理が行われる。
また、実視点画像の高解像度化は、実視点画像を撮影した実カメラにおいて行われてもよい。例えば、第1カメラが、近傍の第3カメラの実視点画像を取得して、第1カメラの実視点画像の超解像処理を行ってもよい。
また、仮想カメラは、矩形の画像面を持つカメラに限られず、360度カメラであってもよい。仮想カメラが360度カメラである場合における複数の実カメラと仮想カメラとの位置関係の例を図18A及び図18Bに示す。図18A及び図18Bでは、仮想カメラが、便宜上、実カメラと同様の形状で示されているが、これらの例において、仮想カメラは、仮想的に全方位ミラーが接続された360度カメラである。
図18Aは、複数の実カメラの内側に被写体が存在する場合における複数の実カメラと仮想カメラとの配置例を示す図である。図18Aにおいて、一点鎖線で囲んだ領域は、波線で囲まれた3つの実カメラの視野の重複領域に対応する領域であって、360度カメラの画像面上の領域である。この領域の画素値を算出するため、波線で囲まれた3つの実カメラの3つの画像が平行化され、仮想カメラの生成対象画素に対応する実カメラの対応画素を含む小領域毎に超解像処理が行われる。
また、3つのカメラの重複領域の全てで平面の超解像画像が生成された後、360度カメラの画像面のうち重複領域に対応する部分に平面の超解像画像の投影変換が行われてもよい。
上述されたいずれかの処理が、360度カメラの画像面上の全ての画素値が算出されるまで繰り返される。あるいは、2つ以上の実カメラのグループで構成される全てのグループのそれぞれの重複領域で、上述されたいずれかの処理が繰り返される。ここで、1つの実カメラが複数のグループに属してもよい。
図18Bは、複数の実カメラの外側に被写体が存在する場合における複数の実カメラと仮想カメラとの配置例を示す図である。この場合も、図18Aの例と同様に2つ以上の実カメラのグループで構成される複数のグループが作成され、360度カメラの画像のレンダリング処理において超解像処理が行われてもよい。また、実視点画像の超解像処理が行われた後に、高解像度の実視点画像を用いて、360度カメラの画像が生成されてもよい。
また、実カメラは、固定カメラに限られず、移動カメラであってもよい。実カメラは、カメラを搭載したスマートフォンなどのような携帯端末であってもよい。また、サブピクセル精度で位置合せが行われた複数ブロックを用いて、ノイズ除去が行われてもよいし、劣化したテクスチャが補正されてもよい。
また、仮想視点画像のうち超解像処理が行われる領域は、スポーツシーンでボールを所持している選手、又は、イベントで歌を歌っている歌手などのように、注目を集めている被写体であってもよい。あるいは、超解像処理が行われる領域は、イベントのスポンサーの企業ロゴ又は広告などであってもよい。
また、複数のカメラを搭載したスマートフォンなどのような携帯端末で撮影された複数の画像を入力として用いて、超解像処理が実施されてもよい。また、同様に、複数のカメラを搭載した車両又は航空機で撮影された複数の画像が入力として用いられてもよい。
なお、超解像処理が行われるシーンは、スポーツなどのエンタテインメントに関するイベントに限られない。例えば、自動車及び航空機などの整備用施設に多数のカメラが設置されてもよい。そして、点検及び整備が行われる際に、注目箇所が、超解像処理により高解像度化され、確認されてもよい。
また、交通事故現場が多視点で撮影されることにより、交通事故データが記録されてもよい。そして、後日、検証が行われる際に、注目箇所が、超解像処理により高解像度化され、確認されてもよい。
図19Aは、本実施の形態に係る自由視点映像生成システムの特徴的な構成を示すブロック図である。図19Aに示された自由視点映像生成システム700は、取得部701及び生成部702を備える。自由視点映像生成システム700の取得部701及び生成部702は、自由視点映像生成システム200の取得部230及び生成部240等に対応する。自由視点映像生成システム700の各構成要素は、汎用又は専用の電気回路で構成されていてもよい。
図19Bは、図19Aに示された自由視点映像生成システム700の特徴的な動作を示すフローチャートである。まず、取得部701は、N個の視点のN個の映像を含む多視点映像を取得する(S201)。ここで、Nは2以上の整数である。そして、生成部702は、取得された多視点映像から、N個の視点とは異なる仮想視点の映像である自由視点映像を生成する(S202)。
例えば、生成部702は、N個の映像から生成される三次元モデルを用いて、N個の映像において、自由視点映像における処理対象領域に対応するN個の参照領域を特定してもよい。そして、生成部702は、N個の映像におけるN個の参照領域のN個の画素成分から、N個の参照領域のそれぞれの解像度よりも高い所定解像度で自由視点映像における処理対象領域の画素成分を推定してもよい。そして、生成部702は、推定された画素成分で構成される映像を自由視点映像として生成してもよい。
これにより、自由視点映像生成システム700は、三次元モデルを用いて、処理対象領域に対応する複数の参照領域を適切に特定することができる。そして、自由視点映像生成システム700は、複数の参照領域の複数の画素成分から、高い解像度で処理対象領域の画素成分を適切に推定することができる。したがって、自由視点映像生成システム700は、様々な視点の複数の映像から高解像度の自由視点映像を適切に生成することができる。
また、例えば、生成部702は、三次元モデルにおいて処理対象領域に対応する三次元領域を特定し、N個の映像において三次元領域に対応するN個の参照領域を特定してもよい。これにより、自由視点映像生成システム700は、三次元モデルにおいて、処理対象領域に対応する三次元領域を適切に特定することができる。そして、自由視点映像生成システム700は、多視点映像に含まれる複数の映像において、三次元領域に対応する複数の参照領域を適切に特定することができる。
また、例えば、生成部702は、N個の映像をサブピクセル精度にアップサンプリングしてもよい。そして、生成部702は、アップサンプリングされたN個の映像において、処理対象領域に対応するN個の参照領域をサブピクセル精度で特定してもよい。そして、生成部702は、アップサンプリングされたN個の映像におけるN個の参照領域のN個の画素成分から、処理対象領域の画素成分を推定してもよい。
これにより、自由視点映像生成システム700は、処理対象領域に対応する複数の参照領域をサブピクセル精度で適切に特定することができる。そして、自由視点映像生成システム700は、サブピクセル精度にアップサンプリングされた複数の映像における複数の参照領域の複数の画素成分から、高い解像度で、処理対象領域の画素成分を適切に推定することができる。
また、例えば、N個の映像は、N個のカメラのN個の視点のN個の映像であってもよい。そして、自由視点映像は、仮想カメラの仮想視点の映像であってもよい。
そして、生成部702は、N個の映像から、N個のカメラのN個のカメラパラメータを推定してもよい。そして、生成部702は、N個のカメラパラメータを用いて、N個の映像から三次元モデルを生成してもよい。生成部702は、三次元モデル、N個のカメラパラメータ、及び、仮想カメラのカメラパラメータを用いて、処理対象領域に対応するN個の参照領域を特定してもよい。
これにより、自由視点映像生成システム700は、三次元モデル、及び、複数のカメラパラメータ等を用いて、処理対象領域に対応する複数の参照領域を適切に特定することができる。
また、例えば、生成部702は、取得された多視点映像に含まれるN個の映像を視野方向が平行なN個の映像に変換することにより、取得された多視点映像に含まれるN個の映像を平行化してもよい。そして、生成部702は、平行化されたN個の映像において、処理対象領域に対応するN個の参照領域を特定してもよい。そして、生成部702は、平行化されたN個の映像におけるN個の参照領域のN個の画素成分から、処理対象領域の画素成分を推定してもよい。
これにより、自由視点映像生成システム700は、複数の参照領域の複数の画素成分の形式を揃えることができる。したがって、自由視点映像生成システム700は、効率的に、複数の参照領域の複数の画素成分から、処理対象領域の画素成分を推定することができる。
また、例えば、生成部702は、取得された多視点映像に含まれるN個の映像を仮想視点の視野方向に対して視野方向が平行なN個の映像に変換することにより、取得された多視点映像に含まれるN個の映像を平行化してもよい。
これにより、自由視点映像生成システム700は、複数の参照領域の複数の画素成分の形式を処理対象領域の画素成分の形式に近い形式に揃えることができる。したがって、自由視点映像生成システム700は、効率的に、複数の参照領域の複数の画素成分から、処理対象領域の画素成分を推定することができる。
また、例えば、生成部702は、平行化されたN個の映像におけるエイリアシング成分の発生量が所定範囲に含まれるように、取得された多視点映像に含まれるN個の映像を平行化するための基準視野方向を決定してもよい。そして、生成部702は、取得された多視点映像に含まれるN個の映像を基準視野方向に対して視野方向が平行なN個の映像に変換することにより、N個の映像を平行化してもよい。
これにより、自由視点映像生成システム700は、エイリアシング成分の発生量に従って、平行化の基準視野方向を決定することができる。したがって、自由視点映像生成システム700は、高い解像度で処理対象領域の画素成分が適切に推定されるように、複数の映像を平行化することができる。
また、例えば、生成部702は、平行化されたN個の映像におけるN個の参照領域におけるエイリアシング成分の発生量が閾値よりも多い場合、所定解像度で処理対象領域の画素成分を推定してもよい。そして、生成部702は、N個の参照領域におけるエイリアシングの発生量が閾値よりも多くない場合、所定解像度よりも低い解像度で処理対象領域の画素成分を推定してもよい。
これにより、高い解像度で処理対象領域の画素成分を適切に推定することが可能である場合に、高い解像度で処理対象領域の画素成分が推定される。したがって、自由視点映像生成システム700は、推定を効率的に行うことができる。
また、例えば、取得部701が取得する多視点映像は、N個の映像を含むM個の映像を含んでいてもよい。ここで、MはN以上の整数である。M個の映像は、M個のカメラのM個の視点の映像であってもよい。自由視点映像は、仮想カメラの仮想視点の映像であってもよい。そして、生成部702は、M個のカメラのM個のカメラパラメータ、及び、仮想カメラのカメラパラメータを用いて、M個の映像の中から、N個の映像を選択してもよい。
これにより、自由視点映像生成システム700は、多視点映像に含まれる複数の映像のうち、高い解像度で自由視点映像を生成するための処理に適切な映像を用いることができる。したがって、自由視点映像生成システム700は、自由視点映像を適切に生成することができる。
また、例えば、生成部702は、MAP法、IBP法、又は、POCS法を用いて、N個の参照領域のN個の画素成分から、処理対象領域の画素成分を推定してもよい。これにより、自由視点映像生成システム700は、複数の参照領域の複数の画素成分から、高い解像度で処理対象領域の画素成分を適切に推定することができる。
また、例えば、生成部702は、取得された多視点映像に含まれるN個の映像を視野方向が平行なN個の映像に変換することにより、取得された多視点映像に含まれるN個の映像を平行化してもよい。そして、生成部702は、平行化されたN個の映像に対してブロックマッチングを行うことにより、平行化されたN個の映像において互いに適合するN個の参照領域を特定してもよい。
そして、生成部702は、N個の参照領域のN個の画素成分から、N個の参照領域のそれぞれの解像度よりも高い所定解像度で、自由視点映像においてN個の参照領域に対応する処理対象領域の画素成分を推定してもよい。そして、生成部702は、推定された画素成分で構成される自由視点映像を生成してもよい。
これにより、自由視点映像生成システム700は、平行化された複数の映像において、ブロックマッチングを適切に行うことができる。したがって、自由視点映像生成システム700は、複数の映像における複数の参照領域を適切に特定することができる。そして、自由視点映像生成システム700は、複数の参照領域の複数の画素成分から、高い解像度で処理対象領域の画素成分を適切に推定することができる。
したがって、自由視点映像生成システム700は、様々な視点の複数の映像から高解像度の自由視点映像を適切に生成することができる。
なお、上記の映像は、画像に読み替えられ得る。また、領域は、1つの画素に対応する領域であってもよいし、複数の画素に対応する領域であってもよい。カメラパラメータは、カメラの位置及び向きを含んでいてもよい。また、自由視点映像生成システム700の構成に、自由視点映像生成システム200の構成が組み合わされてもよい。
また、上記の各構成要素は、専用のハードウェアで構成されてもよいし、汎用のハードウェアが各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。例えば、各構成要素は、CPU又はプロセッサなどのプログラム実行部が、ハードディスク又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
具体的には、上記の自由視点映像生成システムは、処理回路(Processing Circuitry)と、当該処理回路に電気的に接続された、当該処理回路からアクセス可能な記憶装置(Storage)とを備えていてもよい。
処理回路は、専用のハードウェア及びプログラム実行部の少なくとも一方を含み、記憶装置を用いて処理を実行する。また、記憶装置は、処理回路がプログラム実行部を含む場合には、当該プログラム実行部により実行されるソフトウェアプログラムを記憶する。
ここで、上記の自由視点映像生成システムなどを実現するソフトウェアは、次のようなプログラムである。
すなわち、このプログラムは、コンピュータに、N(Nは2以上の整数)個の視点のN個の映像を含む多視点映像を取得する取得ステップと、取得された前記多視点映像から、前記N個の視点とは異なる仮想視点の映像である自由視点映像を生成する生成ステップとを含み、前記生成ステップでは、前記N個の映像から生成される三次元モデルを用いて、前記N個の映像において、前記自由視点映像における処理対象領域に対応するN個の参照領域を特定し、前記N個の映像における前記N個の参照領域のN個の画素成分から、前記N個の参照領域のそれぞれの解像度よりも高い所定解像度で前記自由視点映像における前記処理対象領域の画素成分を推定し、推定された前記画素成分で構成される映像を前記自由視点映像として生成する自由視点映像生成方法を実行させる。
あるいは、このプログラムは、コンピュータに、N(Nは2以上の整数)個の視点のN個の映像を含む多視点映像を取得する取得ステップと、取得された前記多視点映像から、前記N個の視点とは異なる仮想視点の映像である自由視点映像を生成する生成ステップとを含み、前記生成ステップでは、取得された前記多視点映像に含まれる前記N個の映像を視野方向が平行なN個の映像に変換することにより、取得された前記多視点映像に含まれる前記N個の映像を平行化し、平行化された前記N個の映像に対してブロックマッチングを行うことにより、平行化された前記N個の映像において互いに適合するN個の参照領域を特定し、前記N個の参照領域のN個の画素成分から、前記N個の参照領域のそれぞれの解像度よりも高い所定解像度で、前記自由視点映像において前記N個の参照領域に対応する処理対象領域の画素成分を推定し、推定された前記画素成分で構成される前記自由視点映像を生成する自由視点映像生成方法を実行させてもよい。
また、各構成要素は、上述の通り、回路であってもよい。これらの回路は、全体として1つの回路を構成してもよいし、それぞれ別々の回路であってもよい。また、各構成要素は、汎用的なプロセッサで実現されてもよいし、専用のプロセッサで実現されてもよい。
また、特定の構成要素が実行する処理を別の構成要素が実行してもよい。また、処理を実行する順番が変更されてもよいし、複数の処理が並行して実行されてもよい。
また、説明に用いられた第1及び第2等の序数は、適宜、付け替えられてもよい。また、構成要素などに対して、序数が新たに与えられてもよいし、取り除かれてもよい。
以上、自由視点映像生成システムの態様について、実施の形態に基づいて説明したが、自由視点映像生成システムの態様は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、自由視点映像生成システムの態様の範囲内に含まれてもよい。
本開示は、多視点映像から自由視点映像を生成する自由視点映像生成システムに利用可能であり、次世代広域監視システム、車両/航空機整備点検システム、及び、事故現場検証システム等に適用可能である。
100-1、100-2、100-n カメラ
200、700 自由視点映像生成システム
210、610 受信部
220、313 記憶部
230、701 取得部
240、702 生成部
250、550 送信部
310、410 制御部
311、412 切替器
312 キャリブレーション部
314、540 三次元再構成部
315、620 レンダリング部
411 カメラ選択部
413 画像生成部
414 平行化部
415 超解像画像生成部
500 三次元再構成装置
600 自由視点映像生成装置
630 出力部

Claims (13)

  1. 位置が固定されていないN(Nは2以上の整数)個のカメラのN個の視点のN個の映像を含む多視点映像を取得する取得ステップと、
    取得された前記多視点映像から、仮想カメラの仮想視点の映像であり、前記N個の視点とは異なる仮想視点の映像である自由視点映像を生成する生成ステップとを含み、
    前記生成ステップでは、
    前記N個の映像から、前記N個のカメラのN個のカメラパラメータを推定し、
    前記N個のカメラパラメータを用いて、前記N個の映像から三次元モデルを生成し、
    記三次元モデル、前記N個のカメラパラメータ、及び、前記仮想カメラのカメラパラメータを用いて、前記N個の映像において、前記自由視点映像における処理対象領域に対応するN個の参照領域を特定し、
    前記N個の映像における前記N個の参照領域のN個の画素成分から、前記N個の参照領域のそれぞれの解像度よりも高い所定解像度で前記自由視点映像における前記処理対象領域の画素成分を推定し、
    推定された前記画素成分で構成される映像を前記自由視点映像として生成する
    自由視点映像生成方法。
  2. 前記生成ステップでは、前記三次元モデルにおいて前記処理対象領域に対応する三次元領域を特定し、前記N個の映像において前記三次元領域に対応する前記N個の参照領域を特定する
    請求項1に記載の自由視点映像生成方法。
  3. 前記生成ステップでは、
    前記N個の映像をサブピクセル精度にアップサンプリングし、
    アップサンプリングされた前記N個の映像において、前記処理対象領域に対応する前記N個の参照領域をサブピクセル精度で特定し、
    アップサンプリングされた前記N個の映像における前記N個の参照領域の前記N個の画素成分から、前記処理対象領域の画素成分を推定する
    請求項1又は2に記載の自由視点映像生成方法。
  4. N(Nは2以上の整数)個の視点のN個の映像を含む多視点映像を取得する取得ステップと、
    取得された前記多視点映像から、前記N個の視点とは異なる仮想視点の映像である自由視点映像を生成する生成ステップとを含み、
    前記生成ステップでは、
    取得された前記多視点映像に含まれる前記N個の映像を視野方向が平行なN個の映像に変換することにより、取得された前記多視点映像に含まれる前記N個の映像を平行化し、
    前記N個の映像から生成される三次元モデルを用いて、平行化された前記N個の映像において、前記自由視点映像における処理対象領域に対応するN個の参照領域を特定し、
    平行化された前記N個の映像における前記N個の参照領域のN個の画素成分から、前記N個の参照領域のそれぞれの解像度よりも高い所定解像度で前記自由視点映像における前記処理対象領域の画素成分を推定し、
    推定された前記画素成分で構成される映像を前記自由視点映像として生成する
    由視点映像生成方法。
  5. 前記生成ステップでは、取得された前記多視点映像に含まれる前記N個の映像を前記仮想視点の視野方向に対して視野方向が平行なN個の映像に変換することにより、取得された前記多視点映像に含まれる前記N個の映像を平行化する
    請求項に記載の自由視点映像生成方法。
  6. 前記生成ステップでは、
    平行化された前記N個の映像におけるエイリアシング成分の発生量が所定範囲に含まれるように、取得された前記多視点映像に含まれる前記N個の映像を平行化するための基準視野方向を決定し、
    取得された前記多視点映像に含まれる前記N個の映像を前記基準視野方向に対して視野方向が平行なN個の映像に変換することにより、前記N個の映像を平行化する
    請求項に記載の自由視点映像生成方法。
  7. 前記生成ステップでは、
    平行化された前記N個の映像における前記N個の参照領域におけるエイリアシング成分の発生量が閾値よりも多い場合、前記所定解像度で前記処理対象領域の画素成分を推定し、
    前記N個の参照領域におけるエイリアシングの発生量が閾値よりも多くない場合、前記所定解像度よりも低い解像度で前記処理対象領域の画素成分を推定する
    請求項に記載の自由視点映像生成方法。
  8. 取得された前記多視点映像は、前記N個の映像を含むM(MはNよりも大きい整数)個の映像を含み、
    前記M個の映像は、M個のカメラのM個の視点の映像であり、
    前記自由視点映像は、仮想カメラの仮想視点の映像であり、
    前記生成ステップでは、前記M個のカメラのM個のカメラパラメータ、及び、前記仮想カメラのカメラパラメータを用いて、前記M個の映像の中から、前記N個の映像を選択する
    請求項1~のいずれか1項に記載の自由視点映像生成方法。
  9. 前記生成ステップでは、MAP(Maximum A Posteriori)法、IBP(Iterative Back Projection)法、又は、POCS(Projection Onto Convex Set)法を用いて、前記N個の参照領域の前記N個の画素成分から、前記処理対象領域の画素成分を推定する
    請求項1~のいずれか1項に記載の自由視点映像生成方法。
  10. N(Nは2以上の整数)個の視点のN個の映像を含む多視点映像を取得する取得ステップと、
    取得された前記多視点映像から、前記N個の視点とは異なる仮想視点の映像である自由視点映像を生成する生成ステップとを含み、
    前記生成ステップでは、
    取得された前記多視点映像に含まれる前記N個の映像を視野方向が平行なN個の映像に変換することにより、取得された前記多視点映像に含まれる前記N個の映像を平行化し、
    平行化された前記N個の映像に対してブロックマッチングを行うことにより、平行化された前記N個の映像において互いに適合するN個の参照領域を特定し、
    前記N個の参照領域のN個の画素成分から、前記N個の参照領域のそれぞれの解像度よりも高い所定解像度で、前記自由視点映像において前記N個の参照領域に対応する処理対象領域の画素成分を推定し、
    推定された前記画素成分で構成される前記自由視点映像を生成する
    自由視点映像生成方法。
  11. 位置が固定されていないN(Nは2以上の整数)個のカメラのN個の視点のN個の映像を含む多視点映像を取得する取得部と、
    取得された前記多視点映像から、仮想カメラの仮想視点の映像であり、前記N個の視点とは異なる仮想視点の映像である自由視点映像を生成する生成部とを備え、
    前記生成部は、
    前記N個の映像から、前記N個のカメラのN個のカメラパラメータを推定し、
    前記N個のカメラパラメータを用いて、前記N個の映像から三次元モデルを生成し、
    記三次元モデル、前記N個のカメラパラメータ、及び、前記仮想カメラのカメラパラメータを用いて、前記N個の映像において、前記自由視点映像における処理対象領域に対応するN個の参照領域を特定し、
    前記N個の映像における前記N個の参照領域のN個の画素成分から、前記N個の参照領域のそれぞれの解像度よりも高い所定解像度で前記自由視点映像における前記処理対象領域の画素成分を推定し、
    推定された前記画素成分で構成される映像を前記自由視点映像として生成する
    自由視点映像生成システム。
  12. N(Nは2以上の整数)個の視点のN個の映像を含む多視点映像を取得する取得部と、
    取得された前記多視点映像から、前記N個の視点とは異なる仮想視点の映像である自由視点映像を生成する生成部とを備え、
    前記生成部は、
    取得された前記多視点映像に含まれる前記N個の映像を視野方向が平行なN個の映像に変換することにより、取得された前記多視点映像に含まれる前記N個の映像を平行化し、
    前記N個の映像から生成される三次元モデルを用いて、平行化された前記N個の映像において、前記自由視点映像における処理対象領域に対応するN個の参照領域を特定し、
    平行化された前記N個の映像における前記N個の参照領域のN個の画素成分から、前記N個の参照領域のそれぞれの解像度よりも高い所定解像度で前記自由視点映像における前記処理対象領域の画素成分を推定し、
    推定された前記画素成分で構成される映像を前記自由視点映像として生成する
    自由視点映像生成システム。
  13. N(Nは2以上の整数)個の視点のN個の映像を含む多視点映像を取得する取得部と、
    取得された前記多視点映像から、前記N個の視点とは異なる仮想視点の映像である自由視点映像を生成する生成部とを備え、
    前記生成部は、
    取得された前記多視点映像に含まれる前記N個の映像を視野方向が平行なN個の映像に変換することにより、取得された前記多視点映像に含まれる前記N個の映像を平行化し、
    平行化された前記N個の映像に対してブロックマッチングを行うことにより、平行化された前記N個の映像において互いに適合するN個の参照領域を特定し、
    前記N個の参照領域のN個の画素成分から、前記N個の参照領域のそれぞれの解像度よりも高い所定解像度で、前記自由視点映像において前記N個の参照領域に対応する処理対象領域の画素成分を推定し、
    推定された前記画素成分で構成される前記自由視点映像を生成する
    自由視点映像生成システム。
JP2018567469A 2017-02-10 2018-02-07 自由視点映像生成方法及び自由視点映像生成システム Active JP7159057B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762457276P 2017-02-10 2017-02-10
US62/457,276 2017-02-10
PCT/JP2018/004223 WO2018147329A1 (ja) 2017-02-10 2018-02-07 自由視点映像生成方法及び自由視点映像生成システム

Publications (2)

Publication Number Publication Date
JPWO2018147329A1 JPWO2018147329A1 (ja) 2019-11-21
JP7159057B2 true JP7159057B2 (ja) 2022-10-24

Family

ID=63108358

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018567469A Active JP7159057B2 (ja) 2017-02-10 2018-02-07 自由視点映像生成方法及び自由視点映像生成システム

Country Status (3)

Country Link
US (1) US10944960B2 (ja)
JP (1) JP7159057B2 (ja)
WO (1) WO2018147329A1 (ja)

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10242474B2 (en) 2015-07-15 2019-03-26 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US10147211B2 (en) 2015-07-15 2018-12-04 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US11095869B2 (en) 2015-09-22 2021-08-17 Fyusion, Inc. System and method for generating combined embedded multi-view interactive digital media representations
US11006095B2 (en) 2015-07-15 2021-05-11 Fyusion, Inc. Drone based capture of a multi-view interactive digital media
US10222932B2 (en) 2015-07-15 2019-03-05 Fyusion, Inc. Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations
JP6144738B2 (ja) * 2015-09-18 2017-06-07 株式会社スクウェア・エニックス ビデオゲーム処理プログラム、ビデオゲーム処理システム及びビデオゲーム処理方法
US11783864B2 (en) 2015-09-22 2023-10-10 Fyusion, Inc. Integration of audio into a multi-view interactive digital media representation
US11202017B2 (en) 2016-10-06 2021-12-14 Fyusion, Inc. Live style transfer on a mobile device
JP7320352B2 (ja) * 2016-12-28 2023-08-03 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元モデル送信方法、三次元モデル受信方法、三次元モデル送信装置及び三次元モデル受信装置
US10437879B2 (en) 2017-01-18 2019-10-08 Fyusion, Inc. Visual search using multi-view interactive digital media representations
JP7212611B2 (ja) * 2017-02-27 2023-01-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像配信方法、画像表示方法、画像配信装置及び画像表示装置
US10313651B2 (en) 2017-05-22 2019-06-04 Fyusion, Inc. Snapshots at predefined intervals or angles
US11069147B2 (en) * 2017-06-26 2021-07-20 Fyusion, Inc. Modification of multi-view interactive digital media representation
US11113887B2 (en) * 2018-01-08 2021-09-07 Verizon Patent And Licensing Inc Generating three-dimensional content from two-dimensional images
JP2019161462A (ja) * 2018-03-13 2019-09-19 キヤノン株式会社 制御装置、画像処理システム、制御方法、及びプログラム
US10592747B2 (en) 2018-04-26 2020-03-17 Fyusion, Inc. Method and apparatus for 3-D auto tagging
US11017585B1 (en) * 2018-06-11 2021-05-25 Facebook, Inc. Systems and methods for capturing image data for recreation in a virtual environment
CN109063567B (zh) * 2018-07-03 2021-04-13 百度在线网络技术(北京)有限公司 人体识别方法、装置及存储介质
CN110876051B (zh) * 2018-08-29 2023-04-11 中兴通讯股份有限公司 视频数据的处理,传输方法及装置,视频数据的处理系统
JP2021191320A (ja) 2018-09-11 2021-12-16 ソニーグループ株式会社 手術支援システム、表示制御装置、および表示制御方法
JP7123736B2 (ja) * 2018-10-23 2022-08-23 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP7249755B2 (ja) * 2018-10-26 2023-03-31 キヤノン株式会社 画像処理システムおよびその制御方法、プログラム
US20200137380A1 (en) * 2018-10-31 2020-04-30 Intel Corporation Multi-plane display image synthesis mechanism
JP7195117B2 (ja) * 2018-11-14 2022-12-23 エヌ・ティ・ティ・コムウェア株式会社 情報表示システム、情報表示方法及び情報表示プログラム
US10839594B2 (en) * 2018-12-11 2020-11-17 Canon Kabushiki Kaisha Method, system and apparatus for capture of image data for free viewpoint video
US11727597B2 (en) * 2018-12-21 2023-08-15 Sony Group Corporation Calibrating volumetric rig with structured light
JP2020150417A (ja) * 2019-03-13 2020-09-17 ソニー株式会社 情報処理装置、方法、および記録媒体
JP7067513B2 (ja) * 2019-03-25 2022-05-16 日本電信電話株式会社 映像同期装置、映像同期方法、プログラム
JP6780057B1 (ja) * 2019-05-17 2020-11-04 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
GB2584122B (en) * 2019-05-22 2024-01-10 Sony Interactive Entertainment Inc Data processing
WO2020242047A1 (en) * 2019-05-30 2020-12-03 Samsung Electronics Co., Ltd. Method and apparatus for acquiring virtual object data in augmented reality
JP2020205549A (ja) * 2019-06-18 2020-12-24 キヤノン株式会社 映像処理装置、映像処理方法、及びプログラム
JP7418101B2 (ja) * 2019-07-26 2024-01-19 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
GB2586838B (en) * 2019-09-05 2022-07-27 Sony Interactive Entertainment Inc Free-viewpoint method and system
CN110798673B (zh) * 2019-11-13 2021-03-19 南京大学 基于深度卷积神经网络的自由视点视频生成及交互方法
JP7542940B2 (ja) * 2019-11-25 2024-09-02 キヤノン株式会社 情報処理装置、情報処理方法、映像処理システム、およびプログラム
JPWO2021149484A1 (ja) * 2020-01-20 2021-07-29
US12079923B2 (en) * 2020-03-30 2024-09-03 Sony Group Corporation Method for changing viewpoint in virtual space
US11263729B2 (en) * 2020-05-26 2022-03-01 Microsoft Technology Licensing, Llc Reprojection and wobulation at head-mounted display device
JP2022026844A (ja) * 2020-07-31 2022-02-10 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US20230300315A1 (en) * 2020-08-14 2023-09-21 Sony Group Corporation Information processing apparatus, information processing method, program, and display apparatus
WO2022075073A1 (ja) * 2020-10-07 2022-04-14 ソニーグループ株式会社 撮影デバイス、サーバ装置、および、3dデータ生成方法
WO2022124026A1 (ja) * 2020-12-08 2022-06-16 ソニーグループ株式会社 学習済モデルの生成方法および情報処理装置
CN112804511B (zh) * 2021-01-04 2022-04-01 烽火通信科技股份有限公司 一种动态渲染全景视频的方法和装置
JP2022126205A (ja) 2021-02-18 2022-08-30 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2022126207A (ja) 2021-02-18 2022-08-30 キヤノン株式会社 情報処理装置、情報処理方法、及び、プログラム
JP2022126208A (ja) 2021-02-18 2022-08-30 キヤノン株式会社 情報処理装置、情報処理方法、及び、プログラム
US12028507B2 (en) * 2021-03-11 2024-07-02 Quintar, Inc. Augmented reality system with remote presentation including 3D graphics extending beyond frame
US11831931B2 (en) * 2021-04-14 2023-11-28 Microsoft Technology Licensing, Llc Systems and methods for generating high-resolution video or animated surface meshes from low-resolution images
US11849220B2 (en) 2021-04-14 2023-12-19 Microsoft Technology Licensing, Llc Systems and methods for generating depth information from low-resolution images
JP2022182119A (ja) * 2021-05-27 2022-12-08 キヤノン株式会社 画像処理装置およびその制御方法、プログラム
KR20220170090A (ko) * 2021-06-22 2022-12-29 에스케이하이닉스 주식회사 멀티-뷰 이미지에서 노이즈 감소를 위한 장치 및 방법
US20230101991A1 (en) * 2021-09-24 2023-03-30 Sony Group Corporation View-independent multi-camera volumetric capture system
US12094041B2 (en) 2022-07-26 2024-09-17 International Business Machines Corporation Restoration of a kinetic event using video

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005174148A (ja) 2003-12-12 2005-06-30 Sony Corp 撮像装置及び方法、撮像システム
JP2012204843A (ja) 2011-03-23 2012-10-22 Panasonic Corp ストリーミング中継装置、ストリーミング中継集積回路、ストリーミング中継方法、及びストリーミング中継プログラム

Family Cites Families (195)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5047845A (en) * 1990-10-09 1991-09-10 General Electric Company Charge-transfer-device planar array for detecting coherent-light phase
US5495576A (en) * 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5694143A (en) * 1994-06-02 1997-12-02 Accelerix Limited Single chip frame buffer and graphics accelerator
US6327381B1 (en) * 1994-12-29 2001-12-04 Worldscape, Llc Image transformation and synthesis methods
US5714997A (en) * 1995-01-06 1998-02-03 Anderson; David P. Virtual reality television system
US5729471A (en) * 1995-03-31 1998-03-17 The Regents Of The University Of California Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
JPH09218954A (ja) * 1996-02-14 1997-08-19 Nippon Telegr & Teleph Corp <Ntt> 画像生成方法
US6084979A (en) * 1996-06-20 2000-07-04 Carnegie Mellon University Method for creating virtual reality
JP3817020B2 (ja) * 1997-05-23 2006-08-30 ▲舘▼ ▲すすむ▼ 仮想空間における画像生成方法及び装置並びに撮像装置
JP2897761B2 (ja) * 1997-07-18 1999-05-31 日本電気株式会社 ブロック・マッチング演算装置及びプログラムを記録した機械読み取り可能な記録媒体
US6269175B1 (en) * 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
US6476850B1 (en) * 1998-10-09 2002-11-05 Kenneth Erbey Apparatus for the generation of a stereoscopic display
US6388666B1 (en) * 1998-10-27 2002-05-14 Imax Corporation System and method for generating stereoscopic image data
US6426755B1 (en) * 2000-05-16 2002-07-30 Sun Microsystems, Inc. Graphics system using sample tags for blur
US20020024517A1 (en) * 2000-07-14 2002-02-28 Komatsu Ltd. Apparatus and method for three-dimensional image production and presenting real objects in virtual three-dimensional space
JP2002095018A (ja) * 2000-09-12 2002-03-29 Canon Inc 画像表示制御装置及び画像表示システム、並びに画像データの表示方法
US7085409B2 (en) * 2000-10-18 2006-08-01 Sarnoff Corporation Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery
US6573912B1 (en) * 2000-11-07 2003-06-03 Zaxel Systems, Inc. Internet system for virtual telepresence
WO2002073289A1 (fr) * 2001-03-14 2002-09-19 Sanyo Electric Co., Ltd. Ecran de visualisation tridimensionnel, et procede de creation d'images video pour l'ecran de visualisation tridimensionnel
US7038678B2 (en) * 2003-05-21 2006-05-02 Nvidia Corporation Dependent texture shadow antialiasing
JP2005211159A (ja) * 2004-01-27 2005-08-11 Fujinon Corp 電子内視鏡装置
US7525541B2 (en) * 2004-04-05 2009-04-28 Actuality Systems, Inc. Data processing for three-dimensional displays
JP2006163547A (ja) * 2004-12-03 2006-06-22 Canon Inc 立体画像生成プログラム、立体画像生成システム及び立体画像生成装置。
EP1864505B1 (en) * 2005-03-29 2020-01-15 Sportvu Ltd. Real-time objects tracking and motion capture in sports events
JP4717728B2 (ja) * 2005-08-29 2011-07-06 キヤノン株式会社 ステレオ表示装置及びその制御方法
US8094928B2 (en) * 2005-11-14 2012-01-10 Microsoft Corporation Stereo video for gaming
JP4518043B2 (ja) * 2006-05-31 2010-08-04 株式会社日立製作所 画像信号処理装置、及び画像信号を高解像度化するための方法、及びそれを実行するためのプログラム
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
US20080146302A1 (en) * 2006-12-14 2008-06-19 Arlen Lynn Olsen Massive Multiplayer Event Using Physical Skills
JP4872836B2 (ja) * 2007-07-06 2012-02-08 コニカミノルタホールディングス株式会社 情報処理システム
US7978928B2 (en) * 2007-09-18 2011-07-12 Seiko Epson Corporation View projection for dynamic configurations
GB2457646B (en) * 2007-10-30 2010-03-03 Imagination Tech Ltd Method and apparatus for compressing and decompressing data
US8451265B2 (en) * 2007-11-16 2013-05-28 Sportvision, Inc. Virtual viewpoint animation
US8154633B2 (en) * 2007-11-16 2012-04-10 Sportvision, Inc. Line removal and object detection in an image
US8049750B2 (en) * 2007-11-16 2011-11-01 Sportvision, Inc. Fading techniques for virtual viewpoint animations
US9041722B2 (en) * 2007-11-16 2015-05-26 Sportvision, Inc. Updating background texture for virtual viewpoint animations
US20110187832A1 (en) * 2008-07-15 2011-08-04 Kenji Yoshida Naked eye three-dimensional video image display system, naked eye three-dimensional video image display device, amusement game machine and parallax barrier sheet
WO2010026496A1 (en) * 2008-09-07 2010-03-11 Sportvu Ltd. Method and system for fusing video streams
US8175161B1 (en) * 2008-09-12 2012-05-08 Arecont Vision, Llc. System and method for motion estimation
KR101502362B1 (ko) * 2008-10-10 2015-03-13 삼성전자주식회사 영상처리 장치 및 방법
US8013904B2 (en) * 2008-12-09 2011-09-06 Seiko Epson Corporation View projection matrix based high performance low latency display pipeline
US20100149338A1 (en) * 2008-12-16 2010-06-17 Mamigo Inc Method and apparatus for multi-user user-specific scene visualization
EP2385705A4 (en) * 2008-12-30 2011-12-21 Huawei Device Co Ltd METHOD AND DEVICE FOR GENERATING STEREOSCOPIC PANORAMIC VIDEO FLOW AND METHOD AND DEVICE FOR VISIOCONFERENCE
JP5188430B2 (ja) * 2009-03-24 2013-04-24 富士重工業株式会社 画像処理装置
US20100259595A1 (en) * 2009-04-10 2010-10-14 Nokia Corporation Methods and Apparatuses for Efficient Streaming of Free View Point Video
CN102084650B (zh) * 2009-05-12 2013-10-09 华为终端有限公司 远程呈现系统、方法及视频采集设备
JP2011030184A (ja) * 2009-07-01 2011-02-10 Sony Corp 画像処理装置、及び、画像処理方法
US20110216160A1 (en) * 2009-09-08 2011-09-08 Jean-Philippe Martin System and method for creating pseudo holographic displays on viewer position aware devices
US8817078B2 (en) * 2009-11-30 2014-08-26 Disney Enterprises, Inc. Augmented reality videogame broadcast programming
WO2011096251A1 (ja) * 2010-02-02 2011-08-11 コニカミノルタホールディングス株式会社 ステレオカメラ
WO2011121117A1 (en) * 2010-04-02 2011-10-06 Imec Virtual camera system
EP2559254B1 (en) * 2010-04-13 2019-01-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Interpolation filter in a hybrid video decoder and encoder
EP2383696A1 (en) * 2010-04-30 2011-11-02 LiberoVision AG Method for estimating a pose of an articulated object model
JP2011237998A (ja) * 2010-05-10 2011-11-24 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2011248576A (ja) * 2010-05-26 2011-12-08 Olympus Corp 画像処理装置、撮像装置、プログラム及び画像処理方法
US8885023B2 (en) * 2010-09-01 2014-11-11 Disney Enterprises, Inc. System and method for virtual camera control using motion control systems for augmented three dimensional reality
US8896664B2 (en) * 2010-09-19 2014-11-25 Lg Electronics Inc. Method and apparatus for processing a broadcast signal for 3D broadcast service
WO2012111757A1 (ja) * 2011-02-18 2012-08-23 ソニー株式会社 画像処理装置および画像処理方法
GB2489674A (en) * 2011-03-29 2012-10-10 Sony Corp 3D image generation
GB2489454A (en) * 2011-03-29 2012-10-03 Sony Corp A method of annotating objects in a displayed image
CN102823264A (zh) * 2011-03-31 2012-12-12 松下电器产业株式会社 能够变更立体视觉影像的进深的影像处理装置、系统、影像处理方法、影像处理程序
KR101249901B1 (ko) * 2011-06-22 2013-04-09 엘지전자 주식회사 이동통신 단말기 및 그 동작방법
US9013553B2 (en) * 2011-08-31 2015-04-21 Rocks International Group Pte Ltd. Virtual advertising platform
JP5822613B2 (ja) * 2011-09-12 2015-11-24 キヤノン株式会社 画像処理装置および画像処理方法
WO2013043761A1 (en) * 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
JP5337218B2 (ja) * 2011-09-22 2013-11-06 株式会社東芝 立体画像変換装置、立体画像出力装置および立体画像変換方法
US9268406B2 (en) * 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
JP5950554B2 (ja) * 2011-12-02 2016-07-13 キヤノン株式会社 表示装置、情報処理装置、及びそれらの制御方法、投影システム、プログラム、並びに記憶媒体
US20140340404A1 (en) * 2011-12-16 2014-11-20 Thomson Licensing Method and apparatus for generating 3d free viewpoint video
GB2526943B (en) * 2011-12-20 2016-04-27 Imagination Tech Ltd Method and apparatus for compressing and decompressing data
WO2013099289A1 (ja) * 2011-12-28 2013-07-04 パナソニック株式会社 再生装置、送信装置、再生方法及び送信方法
JP5320524B1 (ja) * 2012-01-20 2013-10-23 パナソニック株式会社 ステレオ撮影装置
CN104582978B (zh) * 2012-04-25 2017-03-08 光学物理有限责任公司 用于投射一批合成图像的安全装置
SG10201710075SA (en) * 2012-05-14 2018-01-30 Luca Rossato Decomposition of residual data during signal encoding, decoding and reconstruction in a tiered hierarchy
US9596450B2 (en) * 2012-05-24 2017-03-14 Panasonic Corporation Video transmission device, video transmission method, and video playback device
US9846960B2 (en) * 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
US9361699B2 (en) * 2012-06-27 2016-06-07 Imec Taiwan Co. Imaging system and method
EP2875471B1 (en) * 2012-07-23 2021-10-27 Apple Inc. Method of providing image feature descriptors
US8957892B2 (en) * 2012-08-20 2015-02-17 Disney Enterprises, Inc. Stereo composition based on multiple camera rigs
WO2014034444A1 (ja) * 2012-08-31 2014-03-06 ソニー株式会社 画像処理装置および画像処理方法、並びに情報処理装置
US20140071245A1 (en) * 2012-09-10 2014-03-13 Nvidia Corporation System and method for enhanced stereo imaging
US8976224B2 (en) * 2012-10-10 2015-03-10 Microsoft Technology Licensing, Llc Controlled three-dimensional communication endpoint
WO2014077024A1 (ja) 2012-11-19 2014-05-22 コニカミノルタ株式会社 画像処理装置、画像処理方法および画像処理プログラム
EP2736247A1 (en) * 2012-11-26 2014-05-28 Brainstorm Multimedia, S.L. A method for obtaining a virtual object within a virtual studio from a real object
JP2014123173A (ja) * 2012-12-20 2014-07-03 Sony Corp 画像処理装置、撮像装置及び画像処理方法
US9497380B1 (en) * 2013-02-15 2016-11-15 Red.Com, Inc. Dense field imaging
US9106784B2 (en) * 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9294757B1 (en) * 2013-03-15 2016-03-22 Google Inc. 3-dimensional videos of objects
WO2014185920A1 (en) * 2013-05-16 2014-11-20 Empire Technology Development, Llc Three dimensional user interface in augmented reality
US9630365B2 (en) * 2013-05-24 2017-04-25 Looking Glass Factory, Inc. Method for manufacturing a physical volumetric representation of a virtual three-dimensional object
EP3035282A4 (en) * 2013-09-11 2017-07-05 Sony Corporation Image processing device and method
EP2860699A1 (en) * 2013-10-11 2015-04-15 Telefonaktiebolaget L M Ericsson (Publ) Technique for view synthesis
US9489765B2 (en) * 2013-11-18 2016-11-08 Nant Holdings Ip, Llc Silhouette-based object and texture alignment, systems and methods
US9824486B2 (en) * 2013-12-16 2017-11-21 Futurewei Technologies, Inc. High resolution free-view interpolation of planar structure
US10368097B2 (en) * 2014-01-07 2019-07-30 Nokia Technologies Oy Apparatus, a method and a computer program product for coding and decoding chroma components of texture pictures for sample prediction of depth pictures
US10321117B2 (en) * 2014-04-11 2019-06-11 Lucasfilm Entertainment Company Ltd. Motion-controlled body capture and reconstruction
JP6299492B2 (ja) * 2014-07-03 2018-03-28 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10547825B2 (en) * 2014-09-22 2020-01-28 Samsung Electronics Company, Ltd. Transmission of three-dimensional video
GB2532003A (en) * 2014-10-31 2016-05-11 Nokia Technologies Oy Method for alignment of low-quality noisy depth map to the high-resolution colour image
US10275935B2 (en) * 2014-10-31 2019-04-30 Fyusion, Inc. System and method for infinite synthetic image generation from multi-directional structured image array
KR102350232B1 (ko) * 2014-11-20 2022-01-13 삼성전자주식회사 스테레오 영상 매칭 방법 및 장치
US10091409B2 (en) * 2014-12-30 2018-10-02 Nokia Technologies Oy Improving focus in image and video capture using depth maps
US9721385B2 (en) * 2015-02-10 2017-08-01 Dreamworks Animation Llc Generation of three-dimensional imagery from a two-dimensional image using a depth map
US10356393B1 (en) * 2015-02-16 2019-07-16 Amazon Technologies, Inc. High resolution 3D content
US9906759B2 (en) * 2015-04-09 2018-02-27 Qualcomm Incorporated Combined processing and display device package for light field displays
US10341632B2 (en) * 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US10062201B2 (en) * 2015-04-21 2018-08-28 Microsoft Technology Licensing, Llc Time-of-flight simulation of multipath light phenomena
US20160358383A1 (en) * 2015-06-05 2016-12-08 Steffen Gauglitz Systems and methods for augmented reality-based remote collaboration
US10089778B2 (en) * 2015-08-07 2018-10-02 Christie Digital Systems Usa, Inc. System and method for automatic alignment and projection mapping
US10574956B2 (en) * 2015-08-07 2020-02-25 Christie Digital Systems Usa, Inc. System and method for automatic alignment and projection mapping
CN116760977A (zh) * 2015-08-20 2023-09-15 日本放送协会 图像编码装置、图像解码装置、和其程序
CN105374019B (zh) * 2015-09-30 2018-06-19 华为技术有限公司 一种多深度图融合方法及装置
US10791285B2 (en) * 2015-10-05 2020-09-29 Woncheol Choi Virtual flying camera system
US10063790B2 (en) * 2015-10-05 2018-08-28 Woncheol Choi Virtual flying camera system
WO2017082079A1 (ja) * 2015-11-11 2017-05-18 ソニー株式会社 画像処理装置および画像処理方法
US9573062B1 (en) * 2015-12-06 2017-02-21 Silver VR Technologies, Inc. Methods and systems for virtual reality streaming and replay of computer video games
US10636121B2 (en) * 2016-01-12 2020-04-28 Shanghaitech University Calibration method and apparatus for panoramic stereo video system
US20190068939A1 (en) * 2016-01-22 2019-02-28 Electronics And Telecommunications Research Institute Image signal conversion method and apparatus for reducing image quality deterioration
KR20170095030A (ko) * 2016-02-12 2017-08-22 삼성전자주식회사 통신 시스템에서 vr 컨텐트 디스플레이를 지원하는 기법
CN107230187B (zh) * 2016-03-25 2022-05-24 北京三星通信技术研究有限公司 多媒体信息处理的方法和装置
US10523929B2 (en) * 2016-04-27 2019-12-31 Disney Enterprises, Inc. Systems and methods for creating an immersive video content environment
EP3466076A1 (en) * 2016-05-26 2019-04-10 VID SCALE, Inc. Methods and apparatus of viewport adaptive 360 degree video delivery
US10721456B2 (en) * 2016-06-08 2020-07-21 Sony Interactive Entertainment Inc. Image generation apparatus and image generation method
JP6681467B2 (ja) * 2016-06-08 2020-04-15 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
US10540750B2 (en) * 2016-07-07 2020-01-21 Stmicroelectronics Sa Electronic device with an upscaling processor and associated method
US10075702B2 (en) * 2016-07-07 2018-09-11 Stmicroelectronics Sa Electronic device with an upscaling processor and associated methods
JP6882868B2 (ja) * 2016-08-12 2021-06-02 キヤノン株式会社 画像処理装置、画像処理方法、システム
WO2018032457A1 (en) * 2016-08-18 2018-02-22 SZ DJI Technology Co., Ltd. Systems and methods for augmented stereoscopic display
US11151739B2 (en) * 2016-08-24 2021-10-19 Universitat Zurich Simultaneous localization and mapping with an event camera
US10559095B2 (en) * 2016-08-31 2020-02-11 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and medium
JP6918455B2 (ja) * 2016-09-01 2021-08-11 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US11172005B2 (en) * 2016-09-09 2021-11-09 Nokia Technologies Oy Method and apparatus for controlled observation point and orientation selection audiovisual content
US20180091798A1 (en) * 2016-09-26 2018-03-29 Imec Taiwan Co. System and Method for Generating a Depth Map Using Differential Patterns
JP6434947B2 (ja) * 2016-09-30 2018-12-05 キヤノン株式会社 撮像システム、画像処理装置、画像処理方法、及びプログラム
JP6894687B2 (ja) * 2016-10-11 2021-06-30 キヤノン株式会社 画像処理システム、画像処理装置、制御方法、及び、プログラム
US10805614B2 (en) * 2016-10-12 2020-10-13 Koninklijke Kpn N.V. Processing spherical video data on the basis of a region of interest
US10271033B2 (en) * 2016-10-31 2019-04-23 Verizon Patent And Licensing Inc. Methods and systems for generating depth data by converging independently-captured depth maps
US10033988B2 (en) * 2016-10-31 2018-07-24 Verizon Patent And Licensing Inc. Methods and systems for capturing depth data using frequency-segregated structured light
JP6853928B2 (ja) * 2016-11-10 2021-04-07 株式会社金子製作所 三次元動画像表示処理装置、並びにプログラム
JP6961612B2 (ja) * 2016-11-30 2021-11-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 三次元モデル配信方法及び三次元モデル配信装置
JP6171079B1 (ja) * 2016-12-22 2017-07-26 株式会社Cygames 不整合検出システム、複合現実システム、プログラム及び不整合検出方法
JP6849430B2 (ja) * 2016-12-27 2021-03-24 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7320352B2 (ja) * 2016-12-28 2023-08-03 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元モデル送信方法、三次元モデル受信方法、三次元モデル送信装置及び三次元モデル受信装置
JP6878014B2 (ja) * 2017-01-13 2021-05-26 キヤノン株式会社 画像処理装置及びその方法、プログラム、画像処理システム
US11665308B2 (en) * 2017-01-31 2023-05-30 Tetavi, Ltd. System and method for rendering free viewpoint video for sport applications
US10268201B2 (en) * 2017-02-28 2019-04-23 Mitsubishi Electric Research Laboratories, Inc. Vehicle automated parking system and method
US20200112710A1 (en) * 2017-03-17 2020-04-09 Lg Electronics Inc. Method and device for transmitting and receiving 360-degree video on basis of quality
WO2018172614A1 (en) * 2017-03-22 2018-09-27 Nokia Technologies Oy A method and an apparatus and a computer program product for adaptive streaming
JP7013139B2 (ja) * 2017-04-04 2022-01-31 キヤノン株式会社 画像処理装置、画像生成方法及びプログラム
US10009640B1 (en) * 2017-05-31 2018-06-26 Verizon Patent And Licensing Inc. Methods and systems for using 2D captured imagery of a scene to provide virtual reality content
US10542300B2 (en) * 2017-05-31 2020-01-21 Verizon Patent And Licensing Inc. Methods and systems for customizing virtual reality data
US10645360B2 (en) * 2017-05-31 2020-05-05 Verizon Patent And Licensing Inc. Methods and systems for transmitting data in a virtual reality system
JP6957215B2 (ja) * 2017-06-06 2021-11-02 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN107121109B (zh) * 2017-06-12 2019-12-06 北京航空航天大学 一种基于前镀膜平面镜的结构光参数标定装置及方法
US9998664B1 (en) * 2017-06-20 2018-06-12 Sliver VR Technologies, Inc. Methods and systems for non-concentric spherical projection for multi-resolution view
JP2019008429A (ja) * 2017-06-21 2019-01-17 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP6482696B2 (ja) * 2017-06-23 2019-03-13 キヤノン株式会社 表示制御装置、表示制御方法、およびプログラム
JP6821028B2 (ja) * 2017-08-04 2021-01-27 株式会社ソニー・インタラクティブエンタテインメント 撮像装置および画像データ読み出し方法
US11049218B2 (en) * 2017-08-11 2021-06-29 Samsung Electronics Company, Ltd. Seamless image stitching
KR20200038933A (ko) * 2017-08-22 2020-04-14 소니 주식회사 화상 처리 장치 및 화상 처리 방법
JP6921686B2 (ja) * 2017-08-30 2021-08-18 キヤノン株式会社 生成装置、生成方法、及びプログラム
JP6409107B1 (ja) * 2017-09-06 2018-10-17 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP7080613B2 (ja) * 2017-09-27 2022-06-06 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US10341537B2 (en) * 2017-09-29 2019-07-02 Sony Interactive Entertainment America Llc Spectator view into an interactive gaming world showcased in a live event held in a real-world venue
US10621784B2 (en) * 2017-09-29 2020-04-14 Sony Interactive Entertainment America Llc Venue mapping for virtual reality spectating of live events
US11599968B2 (en) * 2017-10-11 2023-03-07 Nokia Technologies Oy Apparatus, a method and a computer program for volumetric video
JP7140487B2 (ja) * 2017-10-25 2022-09-21 キヤノン株式会社 情報処理装置、表示制御方法、及び、プログラム
JP2019083402A (ja) * 2017-10-30 2019-05-30 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム
US10951879B2 (en) * 2017-12-04 2021-03-16 Canon Kabushiki Kaisha Method, system and apparatus for capture of image data for free viewpoint video
JP7023696B2 (ja) * 2017-12-12 2022-02-22 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7072378B2 (ja) * 2017-12-13 2022-05-20 キヤノン株式会社 画像生成装置およびその制御方法、画像生成システム、プログラム
AU2017279672A1 (en) * 2017-12-20 2019-07-04 Canon Kabushiki Kaisha Alignment of captured images by fusing colour and geometrical information.
JP2019128641A (ja) * 2018-01-22 2019-08-01 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US20200382757A1 (en) * 2018-01-23 2020-12-03 Lg Electronics Inc. Method and apparatus for transmitting or receiving 360-degree video including camera lens information
JP6407460B1 (ja) * 2018-02-16 2018-10-17 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP7132730B2 (ja) * 2018-03-14 2022-09-07 キヤノン株式会社 情報処理装置および情報処理方法
US10769437B2 (en) * 2018-04-10 2020-09-08 Seiko Epson Corporation Adaptive sampling of training views
JP7062506B2 (ja) * 2018-05-02 2022-05-06 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP2019197340A (ja) * 2018-05-09 2019-11-14 キヤノン株式会社 情報処理装置、情報処理方法、及び、プログラム
US11232532B2 (en) * 2018-05-30 2022-01-25 Sony Interactive Entertainment LLC Multi-server cloud virtual reality (VR) streaming
US10284753B1 (en) * 2018-07-03 2019-05-07 Sony Corporation Virtual reality media content generation in multi-layer structure based on depth of field
JP7301507B2 (ja) * 2018-08-08 2023-07-03 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US10271040B1 (en) * 2018-08-09 2019-04-23 Alive 3D Dynamic angle viewing system
US11544895B2 (en) * 2018-09-26 2023-01-03 Coherent Logix, Inc. Surround view generation
US11087549B2 (en) * 2018-10-15 2021-08-10 University Of Maryland, College Park Methods and apparatuses for dynamic navigable 360 degree environments
JP7123736B2 (ja) * 2018-10-23 2022-08-23 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP7330683B2 (ja) * 2018-11-06 2023-08-22 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7374582B2 (ja) * 2018-11-27 2023-11-07 キヤノン株式会社 画像処理装置、画像生成方法およびプログラム
JP2020086983A (ja) * 2018-11-27 2020-06-04 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US11543523B2 (en) * 2018-12-28 2023-01-03 Texas Instruments Incorporated Multi frequency long range distance detection for amplitude modulated continuous wave time of flight cameras
US11106042B2 (en) * 2019-03-29 2021-08-31 Sony Interactive Entertainment Inc. Image processing apparatus, head-mounted display, and image displaying method
US11010872B2 (en) * 2019-04-29 2021-05-18 Intel Corporation Method and apparatus for person super resolution from low resolution image
US10949960B2 (en) * 2019-06-20 2021-03-16 Intel Corporation Pose synthesis in unseen human poses
US11158087B2 (en) * 2019-12-06 2021-10-26 Intel Corporation Adaptive virtual camera for indirect-sparse simultaneous localization and mapping systems

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005174148A (ja) 2003-12-12 2005-06-30 Sony Corp 撮像装置及び方法、撮像システム
JP2012204843A (ja) 2011-03-23 2012-10-22 Panasonic Corp ストリーミング中継装置、ストリーミング中継集積回路、ストリーミング中継方法、及びストリーミング中継プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
浜田 宏一 他3名,超解像自由視点画像合成の性能評価と画質改善,電子情報通信学会技術研究報告,日本,一般社団法人電子情報通信学会 ,2012年11月,第112巻,第291号,p.17-22

Also Published As

Publication number Publication date
WO2018147329A1 (ja) 2018-08-16
US20190364265A1 (en) 2019-11-28
JPWO2018147329A1 (ja) 2019-11-21
US10944960B2 (en) 2021-03-09

Similar Documents

Publication Publication Date Title
JP7159057B2 (ja) 自由視点映像生成方法及び自由視点映像生成システム
JP7143225B2 (ja) 三次元再構成方法及び三次元再構成装置
JP7227969B2 (ja) 三次元再構成方法および三次元再構成装置
US8928736B2 (en) Three-dimensional modeling apparatus, three-dimensional modeling method and computer-readable recording medium storing three-dimensional modeling program
JP4942221B2 (ja) 高解像度仮想焦点面画像生成方法
JP7058277B2 (ja) 再構成方法および再構成装置
CN110070598B (zh) 用于3d扫描重建的移动终端及其进行3d扫描重建方法
WO2017183470A1 (ja) 三次元再構成方法
US20110128286A1 (en) Image restoration apparatus and method thereof
CN115035235A (zh) 三维重建方法及装置
JP7170224B2 (ja) 三次元生成方法および三次元生成装置
JP2016509805A (ja) 画像ストリームの高フレームレート化
CN117036569A (zh) 三维模型颜色生成网络训练方法、颜色生成方法及装置
JPH11504452A (ja) 2次元投影図に基づいて3次元の対象物を再現し、取り扱うための装置と方法
CN114359041A (zh) 一种光场图像空间超分辨率重建方法
JP7442072B2 (ja) 三次元変位計測方法及び三次元変位計測装置
Takahashi et al. Super-resolved free-viewpoint image synthesis based on view-dependent depth estimation
CN104463958A (zh) 基于视差图融合的三维超分辨率方法
JP2015005200A (ja) 情報処理装置、情報処理システム、情報処理方法、プログラムおよび記憶媒体
JP2013069012A (ja) 多眼撮像装置
JP7278720B2 (ja) 生成装置、生成方法及びプログラム
Salvador et al. Multi-view video representation based on fast Monte Carlo surface reconstruction
Balure et al. A Survey--Super Resolution Techniques for Multiple, Single, and Stereo Images
Yu et al. Racking focus and tracking focus on live video streams: a stereo solution
KR20140121064A (ko) 템플릿 모델 기반의 3d 영상 생성 방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210205

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221012

R150 Certificate of patent or registration of utility model

Ref document number: 7159057

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150