JP6921686B2 - 生成装置、生成方法、及びプログラム - Google Patents

生成装置、生成方法、及びプログラム Download PDF

Info

Publication number
JP6921686B2
JP6921686B2 JP2017166098A JP2017166098A JP6921686B2 JP 6921686 B2 JP6921686 B2 JP 6921686B2 JP 2017166098 A JP2017166098 A JP 2017166098A JP 2017166098 A JP2017166098 A JP 2017166098A JP 6921686 B2 JP6921686 B2 JP 6921686B2
Authority
JP
Japan
Prior art keywords
dimensional model
information
photographing
correspondence
virtual viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017166098A
Other languages
English (en)
Other versions
JP2019045991A5 (ja
JP2019045991A (ja
Inventor
祐介 中里
祐介 中里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017166098A priority Critical patent/JP6921686B2/ja
Priority to US16/115,436 priority patent/US10785469B2/en
Publication of JP2019045991A publication Critical patent/JP2019045991A/ja
Publication of JP2019045991A5 publication Critical patent/JP2019045991A5/ja
Application granted granted Critical
Publication of JP6921686B2 publication Critical patent/JP6921686B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Generation (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、仮想視点画像の生成方法に関する。
複数のカメラを異なる位置に設置してフィールドを撮影し、当該撮影により得られた複数の撮影画像を用いて自由視点画像(仮想視点画像)を生成する技術が注目されている。上記のような仮想視点画像を生成する技術によれば、非特許文献1のように、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することができる。これにより、通常の画像と比較してユーザに高臨場感を与えることができる。
また、非特許文献2のように、フィールドの三次元モデルとカメラの撮影画像とから抽出された背景画像に基づいて、仮想視点画像を描画する方法が知られている。
T. Maeda, et al, "Free Viewpoint Video for Sport Events Using Multi−Resolution Visual Hull and Micro−Facet Billboarding," International Workshop on Smart Info−Media Systems in Asia (SISA 2016). 2016. Sankoh, Hiroshi, et al. "Free−viewpoint Video Synthesis for Sports Scenes Captured with a Single Moving Camera." ITE Transactions on Media Technology and Applications Vol.3,No.1,pp.48−57, 2015.
しかしながら、三次元モデルが表す形状と実際のフィールドの形状に差異があると、仮想視点画像の画質が劣化する恐れがある。三次元モデルを高精度にすれば画質劣化は低減できるが、高精度なデータはデータ量が多く、描画等のための処理時間も膨大となる。
本発明は上記の課題を鑑みてなされたものであり、その目的は、高速に高画質な仮想視点画像を生成できるようにすることである。
上記の問題点を解決するために、本発明の生成装置は、例えば、以下の構成を有する。すなわち、複数の異なる方向から複数の撮影装置により撮影されるオブジェクトの三次元形状を示す第1の三次元モデルに基づいて、前記複数の撮影装置の少なくとも1つの撮影装置の撮影により得られる撮影画像における点と、前記第1の三次元モデルよりも精度が低い前記オブジェクトの三次元形状を示す第2の三次元モデルに関する対応関係を特定するための対応情報を取得する取得手段と、仮想視点に応じた仮想視点画像を、前記複数の撮影装置のうち1以上の撮影装置の撮影により得られる撮影画像と、前記取得手段により取得された対応情報と、に基づいて生成する生成手段とを有する。
本発明によれば、高速に高画質な仮想視点画像を生成することができる。
カメラシステムの一例を示す図である。 対応情報の概念を説明するための図である。 実施形態の生成装置のハードウェア構成の一例を示す図である。 生成装置100のソフトウェア構成の一例を示す図である。 生成装置100の情報処理の一例を示すフローチャートである。 生成装置200のソフトウェア構成の一例を示す図である。 生成装置200の情報処理の一例を示すフローチャートである。
以下、本発明の実施形態について図面に基づいて説明する。
<実施形態1>
<概要>
実施形態1の生成装置100は、簡易三次元モデルとカメラの撮影画像の対応情報を取得する。そして、本実施形態の生成装置100は、ランタイム時(仮想視点画像の描画時)において、当該対応情報に基づいて、カメラによる撮影画像を簡易三次元モデルに張り付けた上で、仮想視点画像を生成する。なお、上述の対応情報は、簡易三次元モデルよりも高精度の三次元モデルのデータに基づいて生成される。また、本明細書では原則として「画像」という言葉を用いて実施形態を説明するが、静止画に限っているわけではなく、動画も含む。
本実施形態では、図1に示すように、複数のカメラ1001がフィールド1002をそれぞれ異なる方向から撮影するシステムを想定している。そして、本実施形態の生成装置100は、上記複数のカメラ1001の撮影により得られる複数の撮影画像に基づいて仮想視点画像を生成する。なお、フィールド1002には人物などのオブジェクト1003が含まれ得る。なお仮想視点とは、ユーザやシステムによって指定される仮想的な視点である。仮想視点画像と同様の概念を表す言葉として、自由視点画像や任意視点画像などもある。
図2は、簡易三次元モデルとカメラの撮影画像の対応関係を説明するための図である。三次元モデル2004は、実際のフィールド(例えばスポーツの会場)の三次元形状を高精度に表した三次元モデルである。また、簡易三次元モデル2001は、実際のフィールドの簡略的な三次元形状を表した三次元モデルである。すなわち、三次元モデル2004と簡易三次元モデル2001は、共に同じフィールドの三次元形状を表すモデルであるが、三次元モデル2004のほうが簡易三次元モデル2001よりも高精度にその形状を表している。
簡易三次元モデル2001にカメラ1001の撮影画像を張り付けて簡易三次元モデル2001のテクスチャを生成すると、実際の形状とモデル形状の差異の影響により、仮想視点画像の画質が低下してしまう恐れがある。
そこで本実施形態では、実際の形状を高精度に表している三次元モデル2004とカメラパラメータを参照することによって、カメラ1001の撮影画像2005と簡易三次元モデル2001のテクスチャとの対応を示す対応情報を事前に準備する。そして、ランタイム時(仮想視点映像の描画時)には、その対応情報に基づいて、カメラ1001の撮影画像2005を簡易三次元モデル2001に貼り付け、その結果を用いて描画処理を行うことで、高速に高画質な仮想視点画像を生成する。
<ハードウェア構成>
図3は、本実施形態における生成装置100のハードウェア構成の一例を示す図である。生成装置100は、ハードウェア構成として、CPU11と、ROM12と、RAM13と、表示部15と、入力部16と、記憶部17と、を含む。CPU11は、システムバスに接続された生成装置100の各種デバイスの制御を行う。ROM12は、BIOSのプログラムやブートプログラムを記憶する。RAM13は、CPU11の主記憶装置として使用される。表示部15は、CPU11等における処理結果を表示するためのディスプレイである。入力部16は、ユーザによる操作入力等を受け付ける。入力部16は、例えば、タッチパネル、マウス、キーボード等からの操作入力を受け付けてもよいし、リモコンからの操作入力を受け付けても良い。記憶部17は、OSのプログラムやOS上で動作する各種アプリケーションのプログラム等を格納するためのHDDなどである。通信部18は、カメラ1001等と通信するための通信モジュールである。
上記構成において、生成装置100の電源がONになると、CPU11は、ROM12に格納されたブートプログラムに従って、記憶部17からOSのプログラム等をRAM13に読み込み、処理を実行することによって、生成装置100の機能を実現する。つまり、生成装置100のCPU11がプログラムに基づき処理を実行することによって、後述する生成装置100のソフトウェア構成の機能、及び、フローチャートの処理が実現される。
<ソフトウェア構成>
図4は、生成装置100のソフトウェア構成の一例を示す図である。図4に示すように、生成装置100は、モデル取得部101と、対応情報取得部102と、仮想視点取得部103と、画像取得部104と、描画部105を有する。
モデル取得部101は、簡易三次元モデル2001、三次元モデル2004、及び、各カメラ1001のカメラパラメータを取得する。三次元モデル2004は、簡易三次元モデル2001よりも、撮影対象の形状をより高精度に表している。カメラパラメータは複数のカメラ1001のそれぞれの位置、姿勢、焦点距離、主点位置、及び歪み情報などを含む。簡易三次元モデル2001及び三次元モデル2004は、メッシュモデルであり、三次元形状を構成する頂点の座標、その頂点を結んだ面情報、及び、各面とテクスチャとの対応を示す情報を含む。
対応情報取得部102は、カメラ1001の撮影画像2005と簡易三次元モデル2001との対応情報を取得する。対応情報は、簡易三次元モデル2001に関する座標と、複数のカメラ1001のうち1以上のカメラ1001の撮影画像2005の座標との対応関係を表す情報である。なお本実施形態では、対応情報が、簡易三次元モデル2001のテクスチャと、各カメラ1001の各画素の対応関係を表す二次元マップである場合の例を中心に説明する。この場合、対応情報が示す2次元マップの各セルには、対応するカメラ1001の撮影画像2005の座標情報が格納される。
上記の対応情報を取得するため、対応情報取得部102は、カメラ1001の撮影画像2005の座標と三次元モデル2004の座標との対応関係を表す第1対応関係情報を取得する。また、対応情報取得部102は、三次元モデル2004の座標と簡易三次元モデル2001の座標との対応関係を表す第2対応関係情報を取得する。
第1対応関係情報は、モデル取得部101で取得されたカメラパラメータに基づいて、カメラ1001の撮影画像2005の各座標を三次元モデル2004に投影するための投影処理を行うことにより取得される。
また、第2対応関係情報は、三次元モデル2004と簡易三次元モデル2001の位置関係が既知であることを利用して取得される。より具体的には、三次元モデル2004と簡易三次元モデル2001を重ね合わせることにより、三次元モデル2004の座標と簡易三次元モデル2001の座標との対応関係が得られる。本実施形態では、図2に示すように、三次元モデル2004の座標を簡易三次元モデル2001の面に投影するための投影処理を行うことで対応関係を得る場合の例を中心に説明する。
また、簡易三次元モデル2001とそのテクスチャマップの対応関係は既知であるため、当該対応関係に基づいてカメラ1001の撮影画像2005の座標と簡易三次元モデル2001のテクスチャの対応関係を得ることができる。つまり、対応情報取得部102は、第1対応関係情報、第2対応関係情報、及び、簡易三次元モデル2001とテクスチャとの対応関係に基づいて対応情報を生成する。
より具体的には、生成装置100は、図2のテクスチャマップ2006で示すテクスチャマップにおける各セルの座標から、簡易三次元モデル2001の座標へと対応付ける。そして、簡易三次元モデル2001の座標に対応する三次元モデル2004の座標と、その座標に対応するカメラ1001の撮影画像2005の座標を対応付ける。このようにして対応情報は得られる。図2の例ではテクスチャマップ2006内の斜線領域2007の座標に対応するカメラ1001の撮影画像2005の座標が記録される。
仮想視点取得部103は、仮想視点情報を取得する。仮想視点情報は仮想視点(仮想カメラ)の位置、姿勢、主点位置、及び焦点距離などからなる仮想カメラパラメータである。本実施形態では、仮想視点情報が事前に記憶部17に保存されており、仮想視点取得部103が記憶部17から1フレーム分ずつ順に仮想視点情報を読み込む場合の例を中心に説明する。
画像取得部104は、各カメラ1001により得られた撮影画像を取得する。本実施形態では、各カメラ1001の撮影画像が事前に記憶部17に保存されており、画像取得部104が記憶部17から1フレームずつ順に撮影画像を読み込む場合の例を中心に説明する。ただし、画像取得部104が、カメラ1001から直接的に撮影画像を取得するようにしても良い。
描画部105は、モデル取得部101、対応情報取得部102、仮想視点取得部103、及び、画像取得部104により取得された三次元モデル、対応情報、各カメラ1001の撮影画像2005、及び仮想視点情報に基づき、仮想視点画像を生成(描画)する。より具体的には、描画部105は、対応情報取得部102により取得された対応情報を参照して、簡易三次元モデル2001のテクスチャマップ2006に、対応するカメラ1001の撮影画像2005の画像データ(画素情報)を貼り付ける。これにより、簡易三次元モデル2001にテクスチャが貼り付けられる。そして描画部105は、テクスチャが貼り付けられた簡易三次元モデル2001を仮想視点から見たシーンを表す仮想視点画像を三次元CG(Computer Graphics)の技術を用いて描画する。描画結果は表示部15に表示させてもよいし、記憶部17に記憶させてもよいし、通信部18により他の装置へ送信されるようにしてもよい。
本実施形態では、図4で示す各機能がソフトウェアの機能である例を説明したが、図4の機能ブロックの全てまたは一部がCPU11以外のハードウェアプロセッサにより実行されるようにしてもよい。CPU11以外のハードウェアプロセッサとは、例えば、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、DSP(デジタルシグナルプロセッサ)等である。以下の実施形態においても同様である。また、生成装置100は複数のCPU11を有するようにしてもよい。
<処理の流れ>
図5のフローチャートを用いて、生成装置100の情報処理の流れを説明する。図5の処理は、仮想視点画像の生成開始指示に応じて開始される。また本実施形態では、図5のフローチャートの処理が、CPU11により実行される場合の例を中心に説明する。ただし、各ステップの少なくとも一部が、専用のハードウェアプロセッサにより実現されてもよい。
S1010において、モデル取得部101は、簡易三次元モデル2001と三次元モデル2004、及び、各カメラ1001のカメラパラメータを取得する。S1020において、対応情報取得部102は、カメラ1001の撮影画像2005の座標と簡易三次元モデル2001のテクスチャとの対応関係を示す対応情報を取得する。対応情報及びその取得方法の詳細は、上述の通りである。
S1030は、図5に係る処理を終了するまでS1040からS1060の処理が繰り返されることを示すステップである。なお繰り返しの度にフレームが1つずつ進む。S1040において、仮想視点取得部103は、仮想視点情報を1フレーム分取得する。S1050において、画像取得部104は、各カメラ1001の撮影画像2005を1フレーム分取得する。
S1060において、描画部105は、S1040で取得した仮想視点からのシーンを示す仮想視点画像を描画(生成)する。生成された仮想視点画像は表示部15において表示されてもよいし、記憶部17に記憶されてもよいし、通信部18を介して他の装置へ送信されるようにしてもよい。描画部105は、仮想視点画像の生成に当たり、S1010にて取得された三次元モデル、S1020にて取得された対応情報、S1040にて取得された仮想視点情報、及び、S1050にて取得された複数のカメラ1001の撮影画像2005を用いる。ただし、仮想視点画像の生成にあたり、必ずしも複数のカメラ1001のうちすべての撮影画像2005が必要になるとは限らない。仮想視点(仮想カメラ)の位置や姿勢などに応じて、必要な1以上のカメラ1001の撮影画像2005を用いることで仮想視点画像は描画(生成)される。
<変形例>
続いて本実施形態の変形例について説明する。なお、以下に説明する変形例は、実施形態1のみならず、後述する実施形態2に対しても適用可能であることに留意されたい。
上述の実施形態では、モデル取得部101が、簡易三次元モデル2001と三次元モデル2004、及び、各カメラ1001のカメラパラメータを取得する例を中心に説明した。しかしながら、モデル取得部101が必ずしも上記すべての情報を取得しなければならないとは限らない。例えば、対応情報が生成装置100以外の装置によりあらかじめ生成されているのであれば、対応情報取得部102は、三次元モデル2004やカメラパラメータを取得する必要はない。
また、上述の実施形態では、三次元モデルがメッシュモデルである場合の例を中心に説明した。しかしこれに限らず、自由曲面モデル、ソリッドモデル、または三次元点群などであっても良く、その形式を限定しない。つまり、三次元モデルは、三次元形状を表す情報であればよい。
また、上述の実施形態では、モデル取得部101が取得する三次元モデルに、テクスチャマップの情報が含まれている場合の例を中心に説明した。しかしこれに限らない。三次元モデルにテクスチャマップの情報が含まれていなければ、モデル取得部101は、公知の技術を用いることによってテクスチャマップを生成すればよい。また、カメラ1001の撮影画像2005自体をテクスチャマップとすることも可能である。
また、対応情報の形式や生成方法は、上述した形式や生成方法に限らない。つまり、対応情報取得部102は、カメラ1001の撮影画像2005の座標と簡易三次元モデル2001に関する座標との対応関係を示した情報を対応情報として取得すれば良い。例えば、対応情報は、各カメラ1001の撮影画像2005の座標と簡易三次元モデル2001のテクスチャの座標との対応を表す二次元マップであっても良い。また、対応情報は、例えば、各カメラ1001の撮影画像2005の座標と簡易三次元モデル2001の表面上の座標との対応を表す二次元マップであっても良い。また、対応情報は、各カメラ1001の撮影画像2005の座標とテクスチャマップ上の座標の組のリストや集合であっても良い。また、対応情報を二次元マップの形式で表す場合には、各カメラ1001の画素に対するテクスチャマップの座標を格納するようにしても良いし、逆に、テクスチャマップの各セルに、撮影画像2005の座標を格納するようにしても良い。
また、描画部105が2以上のカメラ1001による撮影画像2005に対してブレンディング処理などを行うことによって仮想視点画像を生成することが想定される場合には、カメラ1001ごとの二次元マップが対応情報として取得されると良い。ただし、対応情報の形式はこの例に限らず、例えば、1つの二次元マップの各セルにカメラ1001の識別情報と撮影画像2005の座標の組の集合が格納される形式であっても良い。
また、本実施形態では、対応情報の形式が、二次元マップの各セルから、対応するカメラ1001の撮影画像2005の画素(座標)へ対応付ける形式である場合の例を中心に説明したが、これに限らない。例えば、撮影画像2005の画素(座標)から二次元マップへ対応付けるような形式であっても良い。このような形式の対応情報を生成する場合、例えば、以下の方法を採用することができる。すなわち、撮影画像2005の画素から三次元モデル2004、三次元モデル2004から簡易三次元モデル2001、簡易三次元モデル2001からテクスチャマップ2006へとたどれば良い。
また、上述の実施形態では、簡易三次元モデル2001と三次元モデル2004の対応は、両者の位置関係が既知であることを利用して、両者を重ね合わせることによって対応関係を特定する例を中心に説明した。しかしこの方法にも種々のバリエーションが存在することに留意されたい。すなわち、簡易三次元モデル2001の各座標を所定の軸に沿って三次元モデル2004に投影することで、対応する座標を求めても良い。また、三次元モデル2004の各座標を所定の軸に沿って簡易三次元モデル2001に投影することで、対応する座標を求めても良い。また、他の方法として、一方の三次元モデルの座標について、その座標の法線方向に、他方の三次元モデルに対応する座標を探索することによって、両者を対応付けるようにしても良い。対応する座標の探索方法としては、投影先の近傍点を探索してもよいし、対応付けた先が面であるならば、面に投影した点の座標が探索されるようにしても良いし、注目点とその探索方向からなる直線と面との交点の座標が探索されるようにしても良い。
また、対応情報の生成方法にも種々のバリエーションがあり、上述の方法に限定されない。例えば、三次元モデル2004に基づいて簡易三次元モデル2001のハイトマップを生成し、そのハイトマップを反映した簡易三次元モデル2001とカメラ1001の撮影画像2005とを対応付けることで対応情報が取得されるようにしても良い。ハイトマップは以下のような手順で生成できる。すなわち、対応情報取得部102は、三次元モデル2004と簡易三次元モデル2001を重ね合わせて対応関係を特定する。そして、対応情報取得部102は、簡易三次元モデル2001の各面の二次元マップの各セルに対応する三次元モデル2004上の点までの距離を格納することでハイトマップを生成できる。なお、三次元モデル2004と簡易三次元モデル2001の座標系が合っていない場合は、ICP(Iterative Closest Point)などの公知の方法で両者の位置合わせを行えばよい。
三次元モデル2004と簡易三次元モデル2001の対応付けは、例えば、以下のように行えばよい。すなわち、簡易三次元モデル2001の各面に対応する二次元マップを生成する。そして、その二次元マップの各セルに対応する簡易三次元モデル2001の表面点から、その表面点の法線方向にある三次元モデル2004の表面点を探索し、両者を対応付ける。表面点間の距離をハイトマップの高さ情報として、二次元マップのセルに格納する。なお、簡易三次元モデル2001の表面点から三次元モデル2004の表面点を探索するのではなく、三次元モデル2004の表面点から簡易三次元モデル2001の表面点を探索するようにしても良い。また探索方向も法線方向に限らず、所定の軸方向としても良いし、最近傍の表面点と対応付けるようにしても良い。簡易三次元モデル2001のハイトマップとテクスチャマップは同一面に対する二次元マップであるので、ハイトマップとテクスチャマップの対応は一意に決定できる。したがって、各カメラ1001のカメラパラメータに基づいて、カメラ1001の撮影画像2005の各画素(座標)と、ハイトマップによる形状変化を反映した簡易三次元モデル2001の表面点の対応関係も特定できる。さらに、ハイトマップに対応するテクスチャマップに各画素を対応付ければ、対応情報が生成できる。
また、上述の実施形態では、仮想視点情報が、仮想視点(仮想カメラ)の位置、姿勢、主点位置、及び焦点距離などからなる仮想カメラパラメータである場合の例を中心に説明した。しかしこの例に限らない。例えば、仮想カメラの主点位置や焦点距離などのパラメータが固定値としてシステムで設定されており、仮想カメラの位置及び姿勢のみが自由に設定できる場合などもありうる。このような場合、仮想視点取得部103は、仮想カメラの位置及び姿勢の情報のみを仮想視点情報として取得することもありうる。
また、仮想視点情報として、仮想カメラの画角やズーム情報が取得されるようにしても良いし、レンズ歪みのパラメータが取得されるようにしても良い。また仮想視点情報は球状やパノラマ状の全方位カメラを表すパラメータであっても良い。また、仮想視点情報の取得方法は記憶部17から読み出す方法に限らず、キーボードやマウス、コントローラー、ジョイスティック、3Dマウス、イナーシャセンサなどの入力デバイスによるユーザ操作に基づいて取得されるようにしても良い。この場合、入力部16は、入力デバイスからの各種入力を受け付ける。また、入力デバイスによる仮想視点情報の入力方法としては、例えば、サッカーの試合中にリアルタイムでユーザが仮想カメラを操縦するようなケースも考えられるし、CG作成のためのアプリケーションなどを利用してユーザが入力するケースも考えられる。また、人物などのオブジェクト1003やボールなどの動きに応じて自動的に仮想視点情報が決定されるケースも考えられる。仮想視点取得部103は、自動的に決定された仮想視点情報を取得することもできる。
また、図5に示すフローチャートで示す各ステップのうち、例えば、S1010及びS1020は、事前に行われても良い。すなわち、第1ユーザ操作に基づいて、予めS1010及びS1020の処理が完了し、第2ユーザ操作に基づいて、S1030以降の処理が行われるようにしても良い。また、対応情報は再利用することも可能であるため、S1030の処理を実行するたびにS1010及びS1020の処理を行わなければならないわけではない。つまり、S1010及びS1020の処理は省略可能であるケースが存在する。
また、カメラ1001はカラーカメラでもグレーカメラでもよく、RGB−Dカメラや三次元計測装置であってもよい。また、画像取得部104は、カメラ1001から撮影画像2005を直接取得してもよいし、記憶部17から撮影画像2005を読み出すことによって取得しても良い。また、撮影画像2005は公知の技術を用いて制振処理された撮影画像であっても良い。
また、描画部105は、対応情報に基づいて簡易三次元モデル2001のテクスチャマップに撮影画像2005の画素情報を貼り付ける際に、2以上のカメラ1001間で色が合うように公知の方法で色調整を行っても良い。また、描画部105は、テクスチャマップに2以上カメラ1001間で重複する撮影領域がある場合は、当該2以上のカメラ1001の撮影画像2005をブレンディングすることによってテクスチャマップを生成してもよい。ブレンディングの割合は平均でも良いし、テクスチャマップに対応する面に対するカメラ1001の向きや位置に応じた比率に基づいてブレンディングしてもよい。また、描画部105は、どのカメラ1001にも対応しなかったテクスチャマップの領域に対して、所定の色やテクスチャを貼り付けるようにしても良いし、テクスチャマップの他の領域からテクスチャをコピーしてもよい。また、公知の画像欠損修復技術を用いて埋めてもよい。
また、描画部105は、テクスチャを貼り付けた簡易三次元モデル2001に基づく描画を行う際に、撮影時の時刻や天候に基づいて光源を設定しても良い。また、描画部105により描画(生成)された仮想視点画像は、表示部15において表示されるようにしても良いし、記憶部17に保存しても良いし、ネットワークを通じて視聴者の端末へ送信しても良い。
<実施形態2>
<概要>
次に本発明の実施形態2について、実施形態1との差異を中心に説明する。本実施形態では、簡易三次元モデル2001とカメラ1001の撮影画像2005との対応関係を示す対応情報に基づいて背景を描画し、当該背景に前景画像を合成して仮想視点画像を生成する方法について述べる。なお本実施形態では、動きのある物体を前景、動きのない物体を背景として前景背景分離を行う例を中心に説明する。なお本実施形態に係る生成装置200のハードウェア構成は実施形態1と同様であるため説明を省略する。
<ソフトウェア構成>
図6は本実施形態の生成装置200のソフトウェア構成の一例を示す図である。生成装置200は、モデル取得部201と、対応情報取得部202と、仮想視点取得部203と、画像取得部204と、描画部205と、前景背景分離部206を有する。モデル取得部201〜画像取得部204は実施形態1のモデル取得部101〜画像取得部104と同様である。
前景背景分離部206は、画像取得部204により取得された各カメラ1001の撮影画像2005を前景領域と背景領域に分離し、前景画像(前景領域の画像)と、背景画像(撮影画像2005のうち前景領域の穴を埋めた画像)を生成する。前景背景分離の方法については、種々の方法が知られている。一例として背景差分法を紹介する。背景差分法は、動きのある物体が存在しないフィールドを複数のカメラ1001により予め撮影しておき、当該撮影により得られた撮影画像を前景無し画像として予め保存する。そして、当該前景無し画像と、(例えば試合中の)撮影画像との差分に基づいて前景領域が抽出される。本実施形態では、前景背景分離部206が上述の背景差分法により前景背景分離を行う場合の例を中心に説明する。また、前景背景分離部206は、保存されている前景無し画像と、上述のようにして生成した背景画像とを所定の重みをかけて足し合わせることによって、背景画像を更新することができる。
描画部205は、前景背景分離部206により生成された各カメラ1001の前景画像及び背景画像に加え、簡易三次元モデル2001、対応情報、及び仮想視点情報などに基づき、仮想視点画像を描画(生成)する。具体的には、背景画像に関しては実施形態1の描画部105と同様の方法で描画する。前景画像に関しては、非特許文献1に記載の技術を用いて描画し、描画した背景画像に重畳する。描画結果は表示部15に表示させてもよいし、記憶部17に記憶させてもよいし、通信部18により他の装置へ送信されるようにしてもよい。
<処理の流れ>
図7のフローチャートを用いて、生成装置200の情報処理の流れを説明する。本実施形態の処理は図5に示す実施形態1のフローチャートと同様の部分があり、以下ではその差分について説明する。
S2010〜S2050は、実施形態1のS1010〜S1050と同様である。S2055において、前景背景分離部206は、S2050で取得された各カメラ1001の撮影画像2005から前景領域と背景領域を分離し、前景画像と背景画像を生成する。
S2060において、描画部205は、S2040で取得された仮想視点情報に基づく仮想視点画像を描画(生成)する。描画には前景画像及び背景画像に加え、簡易三次元モデル2001、対応情報、及び仮想視点情報が用いられる。
<変形例>
画像取得部104により取得された画像がすでに前景画像と背景画像に分離されている場合、前景背景分離部206による前景背景分離処理は不要である。また、前景背景分離処理が図7のフローチャートの処理の開始前に完了している場合、S2055の処理は不要、又は簡略化できる。
また、上述の実施形態では、前景背景分離の方法として背景差分法を用いる場合の例を中心に説明したが、これに限らない。別の例として、例えば、機械学習により前景領域と背景領域を学習した結果を用いて、前景領域と背景領域を分類しても良い。また、隣接するカメラ1001の撮影画像2005を地面に投影して差分をとることにより、地面を背景領域、立体物を前景領域として分離する方法を用いても良い。また、各カメラ1001の撮影画像2005の時間差分に基づいて前景領域を特定する方法を採用しても良い。
また、上述の実施形態では、描画部205が、前景画像と背景画像を含む仮想視点画像を生成する場合の例を中心に説明した。しかしこれに限らない。例えば、仮想視点情報に基づく前景画像のみを生成しても良いし、仮想視点情報に基づく背景画像のみを生成しても良い。また、前景画像の描画方法は非特許文献1の方法に限らず、仮想視点画像の生成に関するどのような公知の技術を用いてもかまわない。例えば、2以上のカメラ1001により撮影された2以上の撮影画像2005を変形させて合成するイメージベースレンダリングと呼ばれる方法を利用してもよい。また、例えば、デプスや三次元形状を復元して利用するモデルベースレンダリングと呼ばれる方法を利用しても良い。また、仮想視点からのシーンを表す仮想視点画像を描画する際に、背景画像の上(仮想カメラから見て手前側)に前景画像を合成してもよいし、前景画像と背景画像のデプス情報に基づいて奥行判定を行った上で合成しても良い。また復元した前景の三次元モデルと背景の三次元モデル(対応情報に基づいてテクスチャが貼り付けられ簡易三次元モデル2001)を三次元CGの技術を用いて同時に描画してもよい。
上述の本実施形態によれば、動きのある物体が存在するシーンであっても高速に高画質な仮想視点画像を描画することができる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。
100 生成装置
101 モデル取得部
102 対応情報取得部
103 仮想視点取得部
104 画像取得部
105 描画部

Claims (13)

  1. 複数の異なる方向から複数の撮影装置により撮影されるオブジェクトの三次元形状を示す第1の三次元モデルに基づいて、前記複数の撮影装置の少なくとも1つの撮影装置の撮影により得られる撮影画像における点と、前記第1の三次元モデルよりも精度が低い前記オブジェクトの三次元形状を示す第2の三次元モデルに関する対応関係を特定するための対応情報を取得する取得手段と、
    仮想視点に応じた仮想視点画像を、前記複数の撮影装置のうち1以上の撮影装置の撮影により得られる撮影画像と、前記取得手段により取得された対応情報と、に基づいて生成する生成手段とを有することを特徴とする生成装置。
  2. 前記取得手段は、前記複数の撮影装置の少なくとも1つの撮影装置による撮影により得られる撮影画像のと、前記第1の三次元モデルのとの対応関係を表す第1対応関係情報と、前記第1の三次元モデルのと前記第2の三次元モデルのとの対応関係を表す第2対応関係情報とに基づいて、前記対応情報を生成することを特徴とする請求項1に記載の生成装置。
  3. 前記第1対応関係情報は、前記少なくとも1つの撮影装置の位置及び姿勢に関するパラメータに基づいて生成されることを特徴とする請求項に記載の生成装置。
  4. 前記第2対応関係情報は、前記第1の三次元モデルを構成する点に対応する前記第2の三次元モデルを構成する点を決定するための投影処理を実行することに基づいて生成されることを特徴とする請求項又はに記載の生成装置。
  5. 前記対応情報は、前記複数の撮影装置の少なくとも1つの撮影装置による撮影により得られる撮影画像のと、前記第2の三次元モデルに対応するテクスチャにおけるとが対応付けられた情報であることを特徴とする請求項1乃至4のうち何れか1項に記載の生成装置。
  6. 前記対応情報は、前記複数の撮影装置の少なくとも1つの撮影装置による撮影により得られる撮影画像のと、前記第2の三次元モデルによって表される形状の表面に位置するとが対応付けられた情報であることを特徴とする請求項1乃至4のうち何れか1項に記載の生成装置。
  7. 前記生成手段は、
    前記複数の撮影装置の撮影により得られる撮影画像の画素情報のうち、前記第2の三次元モデルのテクスチャにおけるに対応付けるべき画素情報を、前記対応情報を用いることによって決定し、
    された画素情報を、前記第2の三次元モデルのテクスチャとして用いることによって、前記仮想視点画像を生成することを特徴とする請求項1乃至6のうち何れか1項に記載の生成装置。
  8. 前記取得手段は、前記対応情報を記憶する記憶装置から前記対応情報を取得することを特徴とする請求項1乃至7のうち何れか1項に記載の生成装置。
  9. 前記複数の撮影装置の撮像により得られる複数の撮影画像から所定のオブジェクトの領域を抽出する抽出手段を有し、
    前記生成手段は、前記仮想視点画像のうち前記所定のオブジェクトを除いた背景領域の画像を前記複数の撮影装置のうち1以上の撮影装置の撮影により得られる撮影画像と前記対応情報を用いることによって生成し、前記仮想視点画像のうち前記所定のオブジェクトの領域を前記抽出手段により抽出された画像に基づいて生成することを特徴とする請求項1乃至8のうち何れか1項に記載の生成装置。
  10. 複数の異なる方向から複数の撮影装置により撮影されるオブジェクトの三次元形状を示す第1の三次元モデルに基づいて、前記複数の撮影装置の少なくとも1つの撮影装置の撮影により得られる撮影画像におけると、前記第1の三次元モデルよりも精度が低い前記オブジェクトの三次元形状を示す第2の三次元モデルに関する対応関係を特定するための対応情報を取得する取得工程と、
    仮想視点に応じた仮想視点画像を、前記複数の撮影装置のうち1以上の撮影装置の撮影により得られる撮影画像と、前記取得工程により取得された対応情報と、に基づいて生成する生成工程とを有することを特徴とする生成方法。
  11. 前記取得工程は、前記複数の撮影装置の少なくとも1つの撮影装置による撮影により得られる撮影画像の点と、前記第1の三次元モデルの点との対応関係を表す第1対応関係情報と、前記第1の三次元モデルの点と前記第2の三次元モデルの点との対応関係を表す第2対応関係情報とに基づいて、前記対応情報を生成することを特徴とする請求項10に記載の生成方法。
  12. 前記生成工程は、
    前記複数の撮影装置の撮影により得られる撮影画像の画素情報のうち、前記第2の三次元モデルのテクスチャにおけるに対応付けるべき画素情報を、前記対応情報を用いることによって決定する決定工程を有し、
    記仮想視点画像は、決された画素情報を、前記第2の三次元モデルのテクスチャとして用いることによって生成されることを特徴とする請求項10又は11に記載の生成方法。
  13. コンピュータを請求項1乃至9のうち何れか1項に記載の生成装置の各手段として動作させるためのプログラム。
JP2017166098A 2017-08-30 2017-08-30 生成装置、生成方法、及びプログラム Active JP6921686B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017166098A JP6921686B2 (ja) 2017-08-30 2017-08-30 生成装置、生成方法、及びプログラム
US16/115,436 US10785469B2 (en) 2017-08-30 2018-08-28 Generation apparatus and method for generating a virtual viewpoint image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017166098A JP6921686B2 (ja) 2017-08-30 2017-08-30 生成装置、生成方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2019045991A JP2019045991A (ja) 2019-03-22
JP2019045991A5 JP2019045991A5 (ja) 2020-10-08
JP6921686B2 true JP6921686B2 (ja) 2021-08-18

Family

ID=65434447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017166098A Active JP6921686B2 (ja) 2017-08-30 2017-08-30 生成装置、生成方法、及びプログラム

Country Status (2)

Country Link
US (1) US10785469B2 (ja)
JP (1) JP6921686B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7159057B2 (ja) * 2017-02-10 2022-10-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
JP7366563B2 (ja) * 2019-03-26 2023-10-23 キヤノン株式会社 画像生成装置、画像生成方法、及びプログラム
JP7332326B2 (ja) * 2019-04-18 2023-08-23 日本放送協会 映像効果装置及びプログラム
CN112308103B (zh) * 2019-08-02 2023-10-20 杭州海康威视数字技术股份有限公司 生成训练样本的方法和装置
CN110798673B (zh) * 2019-11-13 2021-03-19 南京大学 基于深度卷积神经网络的自由视点视频生成及交互方法
JP2022077148A (ja) * 2020-11-11 2022-05-23 株式会社リコー 画像処理方法、プログラムおよび画像処理システム
WO2022107245A1 (ja) 2020-11-18 2022-05-27 日本電気株式会社 マップ生成装置、マップ生成方法、及びプログラムが格納された非一時的なコンピュータ可読媒体
US12020363B2 (en) * 2021-03-29 2024-06-25 Tetavi Ltd. Surface texturing from multiple cameras
CN115187715A (zh) * 2022-06-30 2022-10-14 先临三维科技股份有限公司 贴图方法、装置、设备及存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
CN1313979C (zh) * 2002-05-03 2007-05-02 三星电子株式会社 产生三维漫画的装置和方法
US7092974B2 (en) * 2003-03-12 2006-08-15 Right Hemisphere Limited Digital asset server and asset management system
US7212207B2 (en) * 2003-08-20 2007-05-01 Sony Computer Entertainment Inc. Method and apparatus for real-time global illumination incorporating stream processor based hybrid ray tracing
US7330183B1 (en) * 2004-08-06 2008-02-12 Nvidia Corporation Techniques for projecting data maps
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
GB2452508A (en) * 2007-09-05 2009-03-11 Sony Corp Generating a three-dimensional representation of a sports game
JP6309749B2 (ja) * 2013-12-09 2018-04-11 シャープ株式会社 画像データ再生装置および画像データ生成装置
JP6426968B2 (ja) * 2014-10-08 2018-11-21 キヤノン株式会社 情報処理装置およびその方法
JP2016134009A (ja) * 2015-01-20 2016-07-25 株式会社ジオ技術研究所 3次元地図表示システム
US10089790B2 (en) * 2015-06-30 2018-10-02 Ariadne's Thread (Usa), Inc. Predictive virtual reality display system with post rendering correction

Also Published As

Publication number Publication date
US10785469B2 (en) 2020-09-22
US20190068955A1 (en) 2019-02-28
JP2019045991A (ja) 2019-03-22

Similar Documents

Publication Publication Date Title
JP6921686B2 (ja) 生成装置、生成方法、及びプログラム
JP7231306B2 (ja) イメージ内のターゲットオブジェクトに自動的にアノテーションするための方法、装置およびシステム
CN109658365B (zh) 图像处理方法、装置、系统和存储介质
JP6201476B2 (ja) 自由視点画像撮像装置およびその方法
JP7058277B2 (ja) 再構成方法および再構成装置
KR20190126919A (ko) 생성 장치, 생성 방법, 및 기억 매체
JP2006053694A (ja) 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
WO2019082797A1 (ja) 再構成方法および再構成装置
US10484599B2 (en) Simulating depth of field
JP7207073B2 (ja) 点検作業支援装置、点検作業支援方法及び点検作業支援プログラム
JP7479729B2 (ja) 三次元表現方法及び表現装置
JP2001022936A (ja) 3次元形状生成装置
JP2008217593A (ja) 被写体領域抽出装置及び被写体領域抽出プログラム
JP2021128592A (ja) 画像処理装置、画像処理方法、学習済みモデルの生成方法、およびプログラム
CN108564654B (zh) 三维大场景的画面进入方式
CN113763544A (zh) 图像确定方法、装置、电子设备和计算机可读存储介质
JP7479793B2 (ja) 画像処理装置、仮想視点映像を生成するシステム、画像処理装置の制御方法及びプログラム
JP7313811B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7195785B2 (ja) 3次元形状データを生成する装置、方法、及びプログラム
JP2000329552A (ja) 3次元地図作成方法
JP7265825B2 (ja) 生成装置、生成方法およびプログラム
CN114463520A (zh) 一种实现虚拟现实vr漫游的方法及装置
CN113947671A (zh) 全景360度图像分割合成方法、系统及介质
JP7278720B2 (ja) 生成装置、生成方法及びプログラム
CN113763545A (zh) 图像确定方法、装置、电子设备和计算机可读存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200824

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210728

R151 Written notification of patent or utility model registration

Ref document number: 6921686

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151