JP2018107793A - 仮想視点画像の生成装置、生成方法及びプログラム - Google Patents

仮想視点画像の生成装置、生成方法及びプログラム Download PDF

Info

Publication number
JP2018107793A
JP2018107793A JP2017204420A JP2017204420A JP2018107793A JP 2018107793 A JP2018107793 A JP 2018107793A JP 2017204420 A JP2017204420 A JP 2017204420A JP 2017204420 A JP2017204420 A JP 2017204420A JP 2018107793 A JP2018107793 A JP 2018107793A
Authority
JP
Japan
Prior art keywords
virtual viewpoint
viewpoint image
image
camera
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017204420A
Other languages
English (en)
Other versions
JP7034666B2 (ja
Inventor
花本 貴志
Takashi Hanamoto
貴志 花本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/848,202 priority Critical patent/US10762653B2/en
Publication of JP2018107793A publication Critical patent/JP2018107793A/ja
Application granted granted Critical
Publication of JP7034666B2 publication Critical patent/JP7034666B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】実カメラからの映像転送時間と画像処理装置における形状推定処理時間の両方を削減して、リアルタイム性の高い仮想視点映像生成を可能とすることを目的とする。【解決手段】仮想視点画像生成装置であって、フィールドを互いに異なる方向から撮影する複数の第1カメラにより得られる複数の撮影画像に基づいて、仮想視点の位置及び方向に応じた第1仮想視点画像を生成する第1生成手段と、前記フィールドの少なくとも一部を互いに異なる方向から撮影する1または複数の第2カメラにより得られる1または複数の撮影画像に基づいて前記第1仮想視点画像よりも高画質の第2仮想視点画像を生成するか否かを、前記第1生成手段により生成された第1仮想視点画像の評価結果に応じて決定する決定手段と、前記決定手段による決定に応じて前記第1仮想視点画像よりも高画質の前記第2仮想視点画像を生成する第2生成手段とを備えたことを特徴とする。【選択図】図8

Description

本発明は、複数視点映像から仮想視点画像を生成する画像処理に関する。
複数台の実カメラで撮影した映像を用いて、3次元空間内に仮想的に配置した実際には存在しないカメラ(仮想カメラ)からの映像を再現する技術として、仮想視点画像技術がある。仮想視点画像技術は、スポーツ放送等において、より臨場感の高い映像表現として期待されている。仮想視点画像の生成では、実カメラで撮影した映像を画像処理装置に取り込んで、まずオブジェクトの形状推定を実施する。次に、形状推定の結果を基に仮想カメラの移動経路をユーザが決定し、仮想カメラから撮影した映像を再現する。ここで、例えば撮影シーンがサッカーの試合であれば、仮想カメラの移動経路の決定の際には、サッカーが行われるフィールド全域でオブジェクトである選手やボールの形状推定が行われている必要がある。しかし、広いフィールドの全域に対してオブジェクト形状の推定処理を実施する場合、実カメラで撮影された複数視点映像データの転送時間や形状推定処理時間の増大を招いてしまう。より迫力のある臨場感の高い試合放送の実現には、例えばシュートシーンの仮想視点画像をリプレイ映像として試合中にタイムリーに放送することが重要である。映像転送時間や形状推定処理時間の増大は、リアルタイム性の高い仮想視点画像生成の阻害要因となる。
この点、実カメラで撮影された映像データを異なる解像度で保持し、まず低解像度の映像で形状推定を実施し、その結果を初期値として次に高解像度の映像で形状推定を実施しこれを繰り返すことで処理時間を短縮させる技術が提案されている(特許文献1)。
特開平5−126546号公報
しかしながら、上記特許文献1の手法では形状推定処理時間の短縮は可能でも、実カメラで撮影された複数視点映像データの画像処理装置への転送時間の短縮はできない。
本発明に係る仮想視点画像生成装置は、フィールドを互いに異なる方向から撮影する複数の第1カメラにより得られる複数の撮影画像に基づいて、仮想視点の位置及び方向に応じた第1仮想視点画像を生成する第1生成手段と、前記フィールドの少なくとも一部を互いに異なる方向から撮影する1または複数の第2カメラにより得られる1または複数の撮影画像に基づいて前記第1仮想視点画像よりも高画質の第2仮想視点画像を生成するか否かを、前記第1生成手段により生成された第1仮想視点画像の評価結果に応じて決定する決定手段と、前記決定手段による決定に応じて前記第1仮想視点画像よりも高画質の前記第2仮想視点画像を生成する第2生成手段と、を備えることを特徴とする。
本発明によれば、実カメラからの映像転送時間と画像処理装置における形状推定処理時間の両方を削減することができる。これにより、リアルタイム性の高い仮想視点映像生成が可能となる。
仮想視点画像システムの構成の一例を示す図である。 (a)は、カメラ配置の一例を示す図、(b)は各カメラ群に属するカメラの高さを示す図である。 広角カメラ群の撮影領域を示す図である。 標準カメラ群の撮影領域を示す図である。 ズームカメラ群の撮影領域を示す図である。 仮想視点画像が生成されるまでの全体の流れを示したフローチャートである。 仮想カメラに関するパラメータ設定用GUI画面の一例を示す図である。 実施例1に係る、仮想視点画像生成処理の詳細を示すフローチャートである。 仮想カメラの撮影領域の導出方法を説明する図である。 暫定的な仮想視点画像における最近傍オブジェクトの解像度合いの判定の説明図である。 変形例に係る、ビルボード法による形状推定処理の流れを示すフローチャートである。 変形例にかかる、オブジェクト位置の特定方法を説明する図である。 変形例に係る、平板にオブジェクトの部分画像が投影された状態を示す図である。 実施例2に係る、標準カメラ群とズームカメラ群の撮影領域を最適化する処理の流れを示すフローチャートである。 カメラ群毎の撮影領域が変化する様子を説明する図である。 実施例3に係る、仮想カメラの各種項目を自動設定する処理の詳細を示すフローチャートである。 シーン解析処理の概念図である。 実施例4に係る、制限時間内に仮想視点映像が生成されるまでの全体の流れを示したフローチャートである。 実施例4に係る、仮想視点画像生成処理の詳細を示すフローチャートである。
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。
図1は、本実施例における、仮想視点画像システムの構成の一例を示す図である。なお仮想視点画像とは、エンドユーザ及び/又は選任のオペレータ等が自由に仮想カメラの位置及び姿勢を操作することによって生成される映像であり、仮想視点画像や任意視点画像などとも呼ばれる。また、仮想視点画像は、動画であっても、静止画であっても良い。本実施形態では、仮想視点画像が動画である場合の例を中心に説明する。図1に示す仮想視点画像システムは、画像処理装置100と3種類のカメラ群109〜111とで構成される。そして、画像処理装置100は、CPU101、メインメモリ102、記憶部103、入力部104、表示部105、外部I/F106を備え、各部がバス107を介して接続されている。まず、CPU101は、画像処理装置100を統括的に制御する演算処理装置であり、記憶部103等に格納された各種プログラムを実行して様々な処理を行う。メインメモリ102は、各種処理で用いるデータやパラメータなどを一時的に格納するほか、CPU101に作業領域を提供する。記憶部103は、各種プログラムやGUI(グラフィカル・ユーザ・インターフェイス)表示に必要な各種データを記憶する大容量記憶装置で、例えばハードディスクやシリコンディスク等の不揮発性メモリが用いられる。入力部104は、キーボードやマウス、電子ペン、タッチパネル等の装置であり、ユーザからの操作入力を受け付ける。表示部105は、液晶パネルなどで構成され、仮想視点画像生成時の仮想カメラの経路設定のためのGUI表示などを行う。外部I/F部106は、カメラ群109〜111を構成する各カメラとLAN108を介して接続され、映像データや制御信号データの送受信を行う。バス107は上述の各部を接続し、データ転送を行う。
上記3種類のカメラ群は、それぞれズームカメラ群109、標準カメラ群110、広角カメラ群111である。ズームカメラ群109は、画角の狭いレンズ(例えば10度)を搭載した複数台のカメラで構成されている。標準カメラ群110は、画角が標準的なレンズ(例えば30度)を搭載した複数台のカメラで構成されている。広角カメラ群111は、画角の広いレンズ(例えば45度)を搭載した複数台のカメラで構成されている。そして、カメラ群109〜111を構成している各カメラはLAN108経由で画像処理装置100に接続されている。また、各カメラ群109〜111は画像処理装置100からの制御信号をもとに、撮影の開始と停止、カメラ設定(シャッタースピード、絞りなど)の変更、撮影した映像データの転送を行う。
なお、システム構成については、上記以外にも、様々な構成要素が存在するが、本発明の主眼ではないので、その説明は省略する。
図2(a)は、例えばサッカー等を行う競技場に、ズームカメラ群109、標準カメラ群110、広角カメラ群111の3種類のカメラ群からなる撮像システムにおけるカメラ配置の一例を示した図である。競技を行うフィールド201上にはオブジェクト202としての選手が存在している。そして、ズームカメラ群109を構成する12台のズームカメラ203、標準カメラ群110を構成する8台の標準カメラ204、広角カメラ群111を構成する4台の広角カメラ205がフィールド201を取り囲むように配置されている。各カメラ群を構成するカメラの台数については、ズームカメラ203>標準カメラ204>広角カメラ205の関係が成り立つ。また、ズームカメラ203がオブジェクト202を囲む径の長さrzと、標準カメラ204がオブジェクト202を囲む径の長さrsと、広角カメラ205がオブジェクト202を囲む径の長さrwとの間には、rw>rs>rzの関係が成り立つ。これは、標準カメラ204及び広角カメラ205がより広い領域を撮影可能とするためである。図2(b)は、ズームカメラ203、標準カメラ204、広角カメラ205のフィールド201からの高さを示す図である。ズームカメラ203の高さhzと、標準カメラ204の高さhsと、広角カメラ205の高さhwとの間には、hw>hs>hzの関係が成り立つ。これも、標準カメラ204及び広角カメラ205がより広い領域を撮影するためである。
図3〜図5は、カメラ群109〜111それぞれの撮影領域を示す図である。まず、広角カメラ群111の撮影領域について説明する。図3に示すように、広角カメラ群111を構成する4台の広角カメラ205は、フィールド201の中心である広角注視点310を向き、フィールド201の全体を画角内に収めるように、等間隔に配置されている。このとき、4台の広角カメラ205の撮影領域が重複する領域を広角カメラ群撮影領域301とし、当該領域301内では、4台の広角カメラ205によって撮影された複数視点映像データを用いたオブジェクト202の形状推定が実施可能となる。なお、本実施形態では各カメラが等間隔に配置される場合の例を中心に説明するが、これに限らない。特に、スタジアムの形状などさまざまな事情を考慮してカメラ配置が決定されることがある。
次に、標準カメラ群110の撮影領域について説明する。図4に示すように、標準カメラ群110を構成する8台の標準カメラ204は、更に2つのグループAとBに分類されており、グループAは4台の標準カメラ204Aで、グループBは4台の標準カメラ204Bで構成される。グループAの標準カメラ204Aは標準注視点311Aを向き、フィールド201の特定部分(左半分)を画角内に収めるように設計されている。また、グループBの標準カメラ204Bは標準注視点311Bを向き、フィールド201の特定部分(右半分)を画角に収めるように設計されている。図4に示すとおり、各グループに属する標準カメラ204A又は204Bは、例えば選手の正面を撮影する確率の高い方向に密に配置され、それ以外の方向(例えば選手の背面や側面方向を撮影する確率の高い方向)に疎に配置されている。このように、フィールドや競技(イベント)等の特性に応じてカメラ配置の疎密を設定することにより、例えば、少ないカメラ台数であっても仮想視点画像に対するユーザの満足度を向上させることができる。ただし、標準カメラの配置を等間隔にしても構わない。いま、グループAに属する4台の標準カメラ204Aの撮影領域が重複する領域を標準カメラ群撮影領域311A、グループBに属する4台の標準カメラ204Bの撮影領域が重複する領域を標準カメラ群撮影領域311Bとする。標準カメラ群撮影領域311A内では、4台の標準カメラ204Aによって撮影された複数視点映像データを用いたオブジェクト202の形状推定が実施可能となる。同様に、標準カメラ群撮影領域311B内では、4台の標準カメラ204Bによって撮影された複数視点映像データを用いたオブジェクト202の形状推定が実施可能となる。
次に、ズームカメラ群109の撮影領域について説明する。図5に示すように、ズームカメラ群109を構成する16台のズームカメラ203は、更に4つのグループC、D、E、Fに分類される。具体的には、グループCは4台のズームカメラ203Cで、グループDは4台のズームカメラ203Dで、グループEは4台のズームカメラ203Eで、グループFは4台のズームカメラ203Fで構成される。そして、グループCのズームカメラ203Cはズーム注視点510Cを向き、フィールド201の特定部分(左上四分の一)を画角内に収めるように設計されている。また、グループDのズームカメラ203Dはズーム注視点510Dを向き、フィールド201の特定部分(左下四分の一)を画角に収めるように設計されている。グループEのズームカメラ203Eはズーム注視点510Eを向き、フィールド201の特定部分(右上四分の一)を画角内に収めるように設計されている。そして、グループFのズーム203Fカメラはズーム注視点510Fを向き、フィールド201の特定部分(右下四分の一)を画角に収めるよう設計されている。図5に示すとおり、各グループに属するズームカメラ203C〜203Fは、選手の正面を撮影する確率の高い方向に密に配置され、選手の背面や側面方向を撮影する確率の高い方向に疎に配置されている。いま、各グループに属する4台のズームカメラ203C〜203Fの撮影領域が重複する領域をそれぞれ、ズームカメラ群撮影領域501C、ズームカメラ群撮影領域501D、ズームカメラ群撮影領域501E、ズームカメラ群撮影領域501Fとする。ズームカメラ群撮影領域501C〜501F内では、各4台のズームカメラ203C〜203Fによって撮影された複数視点映像データを用いたオブジェクトの形状推定が実施可能となる。
なお、カメラ台数や位置、グループ数、注視点位置等は一例を示したのもので、撮影シーン等に応じて変更されるものである。例えば、本実施例ではグループ単位で注視点を同一としているが、同一グループに属する各カメラが一定間隔を空けて異なる注視点を向いていてもよい。その場合の間隔調整については実施例2で説明する。また、本実施形態では、ズームカメラ群109、標準カメラ群110、及び広角カメラ群111という3種類のカメラ群を有するカメラシステムについて説明しているが、これに限らない。例えば、標準カメラ群110と広角カメラ群111の2種類のカメラ群のみ有するようにしてもよいし、4種類以上のカメラ群を有するようにしてもよい。また、上記では、カメラ群ごとにカメラ数や、撮像範囲や、設置の高さが異なる例を示したが、これに限らず、すべてのカメラ群のカメラ数が同じであってもよいし、各カメラの撮影範囲が同じ広さであってもよいし、各カメラの設置の高さが同じであってもよい。また、各カメラ群のカメラ数、撮影範囲、及び設置の高さ以外の要素が、カメラ群によって異なるようにしてもよい。例えば、第1カメラ群に属する複数カメラの有効画素数が、第2カメラ群に属する複数カメラの有効画素数よりも高くなるようにシステムを構築してもよい。また、少なくとも1つのカメラ群に属するカメラが1台という場合もありうる。このように、本実施形態で説明しているシステムの構成は一例に過ぎず、スタジアムの広さ、設備、カメラ数、及び予算等の制約に応じて、種々の変形を行うことが可能である。
図6は、画像処理装置100において仮想視点画像が生成されるまでの全体の流れを示したフローチャートである。この一連の処理は、CPU101が、所定のプログラムを記憶部103から読み込んでメインメモリ102に展開し、これをCPU101が実行することで実現される。
ステップ601では、各カメラ群109〜111に対して、撮影時の露光条件等の撮影パラメータと撮影開始の信号が送信される。各カメラ群に属する各カメラは、受信した撮影パラメータに従って撮影を開始し、得られた映像データを各カメラ内のメモリに保持する。
ステップ602では、広角カメラ群111に属するすべての広角カメラ205によって撮影された複数視点映像データが取得される。取得された複数視点(ここでは4視点)の広角映像データは、メインメモリ102に展開される。前述のとおり、広角カメラ群111に属する広角カメラ205の数は他のカメラ群に属するカメラと比べて少ないため、各広角カメラ205からの映像データの転送に要する時間は短時間で済む。
ステップ603では、広角カメラ群111から取得した複数視点映像データを用いてオブジェクトの3次元形状の推定処理が実行される。推定手法としては、オブジェクトの輪郭情報を用いるVisual-hull手法や、三角測量を用いたMulti-view stereo手法など公知の手法を適用すればよい。広角カメラ205によって撮影された映像データ内のオブジェクト領域は比較的に低解像度である。そのため、本ステップの形状推定によって得られる3次元形状データは低精細で粗いが、フィールド全体に存在するオブジェクトの形状を高速に推定できる。得られたオブジェクト形状データはその位置情報と共にメインメモリ102に保持される。
ステップ604では、推定した低精細のオブジェクト形状データに基づき、自由始点映像の生成に必要な仮想カメラの移動経路といった各種パラメータが設定される。本実施例では、GUI(グラフィカル・ユーザ・インタフェース)を介したユーザ入力に基づいて、各種項目の値等が設定される。図7(a)及び(b)は、仮想カメラに関するパラメータ設定用GUI画面の一例を示す図である。図7(a)に示すGUI画面700内の左側には、フィールド201を含む撮影空間全体の俯瞰図(フィールドマップ701)上に、広角カメラ群撮影領域301が表示されている。広角カメラ群撮影領域301上には、ステップ603で取得したオブジェクトの3次元形状702がマッピングされる。ユーザは、オブジェクト202の位置やオブジェクト202の向いている方向などを、マッピングされたオブジェクト3次元形状702によって確認可能である。ユーザは、仮想カメラパス設定ボタン(不図示)を押下した上で、広角カメラ群撮影領域301上でマウス等を操作してカーソル703を移動することで、その移動軌跡を仮想カメラパス704として指定することができる。このとき指定される仮想カメラパスのフィールド201からの高さはデフォルト値(例えば、15m)となる。そして、仮想カメラパス704を指定した後、ユーザは、高さ編集ボタン(不図示)を押下して、指定した仮想カメラパスの高さを変更することができる。具体的には、広角カメラ群撮影領域301上に表示されている仮想カメラパス上の任意の位置(座標)にカーソル703を移動し、マウス等のクリック操作を行うことによって、高度を変更したい仮想カメラの位置(高さ編集点)を指定する。いま、広角カメラ群撮影領域301内に×印で示される箇所が、ユーザによって指定された高さ編集点を示している。この高さ編集点は複数個設定することが可能である。図7(a)の例では、P1とP2の2つの高さ編集点が設定されている。高さ編集点が設定されると、GUI画面700内の右側に高さ設定ウィンドウ705が表示される。ユーザは高さ設定ウィンドウ705内の各編集点に対応する入力欄706に任意の値(単位:m)を入力することによって当該位置における仮想カメラの高さを変更することができる。この場合、高さ編集点によって高度が変更された箇所以外の高さは、近接する位置の高さ編集点又はデフォルト値から補間して、高さが急激に変化しないように調整される。仮想カメラパスを指定したユーザは、次に、タイムフレーム設定ボタン(不図示)を押下して、当該仮想カメラパスを仮想カメラが通過するのに要する時間(移動速度)を設定する。具体的には、タイムフレーム設定ボタンの押下に応答してGUI画面700内の右側にタイムフレーム設定ウィンドウ707が表示され、入力欄708(項目:t)に移動にかかる時間、入力欄709(項目:fps)にフレームレートの各値を入力する。時間とフレームレートが入力されると、生成する仮想視点画像のフレーム数が計算され、表示欄710(項目:frame)に表示される。図7(a)の例では、入力欄708に入力された時間が2[s]で、入力欄709に入力されたフレームレートが60[fps]であるので、120フレーム分の仮想視点からみた画像(以下、仮想視点画像)を生成することになる。このとき算出されたフレーム数は“F_Max”としてメインメモリ102上に保持される。さらに、ユーザは、指定した仮想カメラパス上での仮想カメラの向く方向を決めるため、注視点設定ボタン(不図示)を押下して、仮想カメラの注視点位置を設定する。具体的には、広角カメラ群撮影領域301内に表示されている仮想カメラパス上の任意の位置(座標)にカーソル703を移動し、マウス等のクリック操作を行うことによって、注視点を設定する対象の仮想カメラ位置(注視点設定点)を指定する。高さ編集点と同様、注視点設定点も複数個設定することが可能である。注視点設定点が設定されると、それらと対になった現時点の注視点の位置が自動的に表示される。このときの注視点位置は、例えばボールを持った選手など予め決められた注目オブジェクトの位置となる。図7(b)において、△印で示される箇所がユーザによって指定された注視点設定点(仮想カメラ位置)、☆印で示される箇所が対応する注視点位置である。図7(b)の例では、C1とC2の2つの注視点設定点が設定され、C1に対応する注視点としてT1、C2に対応する注視点としてT2が表示されている。注視点設定点が設定されると、GUI画面700内の右側に注視点設定ウィンドウ711が表示される。ユーザは注視点設定ウィンドウ711内の各設定点に対応する入力欄712に任意の座標(x,y,z)を入力することによって注視点設定点における仮想カメラが注視する位置を変更することができる。そして、注視点が変更された箇所以外の注視点は、近接する位置の注視点設定点又はデフォルトの注視点から補間して、注視点が急激に変化しないように調整される。以上のようにして、仮想カメラに関するパラメータが設定される。
ステップ605では、ステップ604で設定されたフレーム数分の仮想視点画像を生成するため、変数Fの格納領域がメインメモリ102に確保され、初期値として“0”が設定される。そして、続くステップ606で、設定された仮想カメラパラメータに従って、Fフレーム目の仮想視点画像が生成される。仮想視点画像生成処理の詳細に関しては後で詳述する。
ステップ607では、変数Fの値がインクリメント(+1)される。そして、ステップ608で、変数Fの値が、上述のF_Maxよりも大きいか否かが判定される。判定の結果、変数Fの値がF_Maxよりも大きい場合は、設定されたフレーム数分の仮想視点画像が生成されたこと(すなわち、設定されたタイムフレームに対応する仮想視点画像の完成)を意味するのでステップ609に進む。一方、変数Fの値がF_Max以下の場合はステップ606に戻って、次のフレームの仮想視点画像生成処理が実行される。
ステップ609では、仮想カメラパラメータの設定を変更して新たな仮想視点画像を生成するかどうかが判定される。この処理は、プレビューボタン(不図示)を押下すると表示されるプレビューウィンドウ713に表示された仮想視点画像を見て、その画質等を確認したユーザからの指示に基づいてなされる。ユーザが仮想視点画像を生成し直したいと考えた場合は、仮想カメラパス設定ボタン等を再び押下し、改めて仮想カメラに関するパラメータ設定を行なう(ステップ604に戻る。)。そして、新たに設定された仮想カメラパラメータに従った内容で仮想視点画像が生成される。一方、生成された仮想視点画像に問題がなければ本処理を終える。以上が、本実施例に係る、仮想視点画像が生成されるまでの大まかな流れである。
続いて、前述のステップ606における仮想視点画像生成処理について詳しく説明する。図8は、本実施例に係る、仮想視点画像生成処理の詳細を示すフローチャートである。以下、図8のフローに沿って詳しく説明する。
ステップ801では、前述のステップ605で設定した仮想カメラパスを基に、処理対象の注目フレームFiにおける仮想カメラ位置と注視点位置をそれぞれ取得する。続くステップ802では、取得した仮想カメラ位置と注視点位置から、注目フレームFiの仮想カメラの撮影領域Vrを導出する。図9は、仮想カメラの撮影領域の導出方法を説明する図である。図9において、仮想カメラ901から注視点902に向けて四角錐を形成し、四角錐とフィールド201との交面である矩形領域903が仮想カメラ撮影領域Vrとなる。そして、ステップ803では、ステップ801で取得した注視点位置に最も近いオブジェクトを検出し、最近傍オブジェクトとして設定する。図9において、符号904が最近傍オブジェクトを示している。
ステップ804では、設定された仮想カメラにおける最近傍オブジェクトの解像度合いを算出する。具体的には、注目フレームFiの仮想カメラからみた暫定的な仮想視点画像(広角カメラ205の複数視点映像データのみに基づく仮想視点画像)における最近傍オブジェクトが占める領域の割合Rを求める。この割合Rは、上記暫定的な仮想視点画像における最近傍オブジェクト領域の画素数を、当該画像全体の総画素数で割った値であり、例えば0.3といったような0〜1の範囲の値となる。なお、本実施形態では、最近傍オブジェクトの解像度合いに基づいて暫定的な仮想視点画像を評価する例を中心に説明するが、最近傍オブジェクトに加えて、もしくは、最近傍オブジェクトに代えて、別のオブジェクトの解像度合いを評価するようにしてもよい。別のオブジェクトの例として、例えば、視聴者が選択したオブジェクト(例えば特定の選手)、暫定的な仮想視点画像の中心に最も近いオブジェクト、及び、正面を向いているオブジェクト(複数存在する場合にはその中で最も仮想カメラに近いオブジェクト)などが挙げられる。また、暫定的な仮想視点画像の評価のために参照するオブジェクトは、1つに限らず、複数であってもよい。
ステップ805では、最近傍オブジェクトが標準カメラ群撮影領域内に存在するかどうかがそれぞれの位置座標に基づいて判定される。この場合において、最近傍オブジェクトの位置情報は前述のステップ603において導出されRAMメインメモリ102に保持されたものを用い、標準カメラ群撮影領域の位置情報は予め記憶部103に保持されたものを用いる。最近傍オブジェクトが標準カメラ群撮影領域内に存在する場合はステップ806に進む。一方、存在しない場合はステップ813に進み、広角カメラ群の複数視点映像データに基づく低精細のオブジェクト形状データを用いたレンダリングが実行されることになる。本実施例の場合、標準カメラ群撮影領域A又はBのいずれかに最近傍オブジェクトが含まれていればステップ806に進むことになる。
ステップ806では、暫定的な仮想視点画像における最近傍オブジェクトの解像度合いを表す割合Rが、第1の閾値Rsよりも大きいかどうかを判定する。ここで第1の閾値Rsは、最近傍オブジェクトが含まれていると判定された標準カメラ群に属するいずれかの標準カメラ204の撮影画像を取得し、当該撮影画像における上記最近傍オブジェクト領域の画素数を、その総画素数で割ることで得られる。これにより、注目フレームFiの仮想カメラと標準カメラ間での最近傍オブジェクトの解像度合いの比較が可能となる。図10(a)は、本ステップにおける判定内容を視覚的に表現した図であり、この場合は暫定的な仮想視点画像における最近傍オブジェクトの解像度合いの方が高い(割合Rの値が大きい)と判定されることになる。判定の結果、算出した割合Rの値が閾値Rsよりも大きい場合はステップ807に進む。一方、算出した割合Rの値が閾値Rs以下の場合はステップ813に進み、広角カメラ群の複数視点映像データに基づき生成された低精細のオブジェクト形状データを用いたレンダリングが実行される。なお、ステップ806の判定方法には種々の変形例が存在する。例えば、割合Rが閾値Rsよりも所定の閾値以上大きい場合にステップ807に進み、そうでない場合はステップ813に進むようにしてもよい。
ステップ807では、上述のステップ805と同様、最近傍オブジェクトがズームカメラ群撮影領域内に存在するかどうかがそれぞれの位置座標に基づいて判定される。この場合において、ズームカメラ群撮影領域の位置情報も予め記憶部103に保持されている。最近傍オブジェクトがズームカメラ群撮影領域内に存在する場合はステップ808に進み、存在しない場合はステップ810に進む。本実施例の場合、ズーム群撮影領域C〜Fのいずれかに最近傍オブジェクトが含まれていればステップ808に進むことになる。
ステップ808では、暫定的な仮想視点画像における最近傍オブジェクトの解像度合いを表す割合Rが、第2の閾値Rzよりも大きいかどうかを判定する。ここで第2の閾値Rzは、最近傍オブジェクトが含まれていると判定されたズームカメラ群に属するいずれかのズームカメラ203の撮影画像を取得し、当該撮影画像における最近傍オブジェクト領域の画素数を、その総画素数で割ることで得られる。これにより、注目フレームFiの仮想カメラとズームカメラ間での最近傍オブジェクトの解像度合いの比較が可能となる。図10(b)は、本ステップにおける判定内容を視覚的に表現した図であり、ここでも暫定的な仮想視点画像における最近傍オブジェクトの解像度合いの方が高い(割合Rの値が大きい)と判定されることになる。判定の結果、算出した割合Rの値が閾値Rzよりも大きい場合はステップ809に進む。一方、算出した割合Rの値が閾値Rz以下の場合はステップ810に進む。
ステップ809では、注目フレームFiの仮想カメラ撮影領域Vrにおけるオブジェクト形状の高精細な推定(再推定)に用いる複数視点映像データを、最近傍オブジェクトが存在すると判定されたズームカメラ群撮影領域に対応するズームカメラ群から取得する。取得した複数視点映像データは、メインメモリ102に展開される。また、ステップ810では、注目フレームFiの仮想カメラ撮影領域Vrにおけるオブジェクト形状の再推定(高精細)に用いる複数視点映像データを、最近傍オブジェクトが存在すると判定された標準カメラ群撮影領域に対応する標準カメラ群から取得する。取得した複数視点映像データは、メインメモリ102に展開される。
ステップ811では、メインメモリ102に展開された複数視点映像データを用いて、オブジェクト形状の再推定処理が実行される。これにより、前述のステップ603で得られたオブジェクト形状データよりも高精細なオブジェクト形状データが取得される。そして、ステップ812では、前述のステップ603の形状推定で得られた低精細のオブジェクト形状データを、ステップ811の形状推定で得られた高精細のオブジェクト形状データに置換する。
ステップ813では、ステップ812までの処理で決まったオブジェクト形状データとコンピュータグラフィックスにおけるレンダリング手法を用いて、注目フレームFiの仮想カメラから見た画像である仮想視点画像を生成する。
以上が、本実施例に係る仮想視点画像生成処理の内容である。なお、オブジェクト形状の再推定を行って、より高精細なオブジェクト形状データを取得するかどうかの判定において、本実施例では暫定的な仮想視点画像における最近傍オブジェクトの解像度合いを指標として用いたがこれに限定されない。例えば、最近傍オブジェクトと仮想カメラとの距離を指標とし、最近傍オブジェクトと仮想カメラ位置との距離が、最近傍オブジェクトとズームカメラ位置或いは標準カメラ位置との距離よりも遠い場合に、再推定を行うようにしてもよい。また、上述の実施形態では、暫定的な仮想視点画像の解像度合い(具体的には、最近傍オブジェクトの画素数を暫定的な仮想視点画像の画素数で割ることで得られる割合R)と、閾値(具体的には、標準カメラ群に属するカメラにより得られる撮像画像における最近傍オブジェクトの画素数を当該撮像画像の画素数で割ることで得られる閾値Rs)との比較結果に基づいて、より高画質な仮想視点画像を生成すべきか否かを判定する例を中心に説明した。しかしながら、この判定方法に限るものではなく、種々の変形が可能である。例えば、暫定的な仮想視点画像における割合Rが所定の閾値よりも大きければ(つまり仮想視点画像におけるオブジェクトのサイズが閾値より大きければ)、閾値Rsに関わらず高画質な仮想視点画像を生成すべきと判定されるようにしてもよい。また、他の方法としては、暫定的な仮想視点画像における最近傍オブジェクトの画質を評価し、その評価結果に応じて高画質な仮想視点画像を生成すべきか判定するようにしてもよい。最近傍オブジェクトの画質の評価方法としては、例えば、オブジェクトが正面を向いた人間であれば、顔の認識結果に基づいて評価する方法を用いてもよいし、オブジェクトのエッジの鮮明度合いに基づいて評価する方法を用いてもよい。これらの判定方法を用いれば、標準カメラ群の撮影画像を用いた判定方法よりも簡易な判定が可能となる。その他の変形例については以下で述べる。
<変形例>
上述の実施例では、最初に広角カメラ群の複数視点映像データを用いて低精細のオブジェクト3次元形状を取得し、その後に仮想カメラパスに応じて標準又はズームカメラ群の複数視点映像データを用いて高精細のオブジェクト3次元形状を再取得して仮想視点画像を生成していた。しかしこれに限らない。例えば、広角カメラ群の複数視点映像データを用いた低精彩の3次元形状推定に代えて、オブジェクトを平面と見做した2次元の形状推定を行ってもよい(ビルボード法)。ビルボード法の場合は、前述のステップ603において、図11に示すフローを実行する。以下、詳しく説明する。
ステップ1101では、フィールド201上のオブジェクト位置が特定される。図12は、オブジェクト位置の特定方法を説明する図である。図12において、(a)の広角カメラ画像_1及び(b)の広角カメラ画像_2は、それぞれ異なる広角カメラ205によって撮影された画像であり、それぞれに1本のライン1201とオブジェクト1202が写っている。そして、図12(c)は、広角カメラ画像_1と広角カメラ画像_2に対して、フィールド面を基準として射影変換を行って合成した、射影変換後合成画像である。射影変換後合成画像では、ライン1201は1本のままであるが、オブジェクト1202は2つに分離しているのが分かる。この特性を利用して、分離の基点となっている×印で示す位置がオブジェクト位置1203として特定される。
ステップ1102では、特定されたオブジェクト位置に平板が設置される。そして、続くステップ1103では、設置した平板に対して、広角カメラ205の撮影画像から切り出したオブジェクトの部分画像が投影される。図13は、平板にオブジェクトの部分画像が投影された状態を示す図である。フィールド201上に存在するオブジェクトの数の分だけ設置された平板1300に、各オブジェクトの部分画像が投影されているのが分かる。
以上が、本変形例に係る処理の内容である。オブジェクトの形状を2次元で処理するため、高速な処理が可能である。
また、平板を設置して切り出し画像を投影する代わりに、予め用意したオブジェクト形状(例えば、3Dレンジスキャナによるスキャンや、手動でモデリングされたオブジェクト形状)を、特定されたオブジェクト位置に配置してもよい。
なお、本変形例の場合は、仮想視点画像生成処理(ステップ606)における処理の一部が変わることになる。すなわち、ステップ805及びステップ806の判定処理で“No”となった場合にも、ステップ813ではなくステップ811に進んでオブジェクトの3次元形状の推定処理が実行される。この際の推定には、ステップ602で取得済みの広角カメラ群の複数視点映像データが用いられることになる。図8のフローにおける破線の矢印800はこのことを示している。この場合も、注目フレームFiの仮想カメラの撮影領域Vrに含まれるオブジェクトのみを形状推定することで、処理の高速化が可能である。
以上のとおり本実施例によれば、画質を維持したまま注目オブジェクトに仮想カメラがより接近できる場合のみ、より狭い画角のカメラ群で撮影された複数視点映像データを取得して高精細なオブジェクト形状推定や仮想視点画像の生成を行う。したがって、必要最小限のデータ転送量と処理負荷に抑制することができる。これにより、よりリアルタイム性の高い仮想視点画像生成が可能となる。
次に、広角カメラ群以外のカメラ群(実施例1ではズームカメラ群と標準カメラ群)の撮影領域を撮影シーンに応じて最適化して、映像転送時間や形状推定処理時間の更なる削減を可能にする態様について実施例2として説明する。システム構成や仮想視点画像生成、処理の大まかな過程は、実施例1と同一であるため説明を省略し、以下では異なる点を中心に簡潔に説明する。
図14は、本実施例に係る、標準カメラ群とズームカメラ群の撮影領域を最適化する処理の流れを示すフローチャートである。なお、本実施例の前提として、本処理を実行前のデフォルト状態では、各カメラ群内の同一グループに属する各カメラは一定間隔を空けてそれぞれ異なる方向を向いている(注視点が異なる)ものとする。
ステップ1401では、撮影シーンの設定(例えば球技を撮影対象とするのか陸上競技を撮影対象とするのか)が、不図示のUI画面を介したユーザ入力に基づいてなされる。続くステップ1402では、設定された撮影シーンが、所定高度以上の高高度領域を撮影する必要のあるシーンであるか否かが判定される。ここで、高高度領域の撮影を必要とする撮影シーンとは、ボールが数十m程度まで達するサッカーやラグビーといった球技などである。また、所定高度未満で高高度領域の撮影を要しない撮影シーン(低高度領域の撮影で足りるシーン)とは、陸上の短距離走などである。判定の結果、高高度領域の撮影を伴う撮影シーンである場合はステップ1403に進む。一方、高高度領域の撮影を伴わない撮影シーンである場合はステップ1404に進む。
ステップ1403では、ズームカメラ群109及び標準カメラ群110に属する各カメラの位置は固定したままで、注視点間の距離をグループ単位で縮小する(又はグループ内の各カメラの注視点を同一にする)。また、ステップ1404では、ズームカメラ群109及び標準カメラ群110に属する各カメラの位置は維持したままで、注視点間の距離をグループ単位で拡大(又は維持)する。図15は、各カメラ群のグループ単位で注視点間の距離を調整することで、標準カメラ群撮影領域やズームカメラ群撮影領域が変化する様子を説明する図である。図15(a)は注視点間距離を最大限に縮小(同一の注視点に変更)した場合の説明図である。図15(a)において、2つの白丸印1501と1502は2台のカメラ1511と1512の変更前のそれぞれの注視点を示している。そして、1つの黒丸印1503が変更後の注視点を示しており、2台のカメラ1511と1512が共に同じ注視点を向いている。このとき、フィールド面に沿ったカメラ群撮影領域Xは狭くなるが、高さ方向のカメラ群撮影領域Zは変更前よりも広くなる。そのため、ボールが高高度に達する球技等の撮影に好適な撮影領域となる。これに対し図15(b)は注視点間距離を拡大した場合の説明図である。図15(b)において、黒丸印1504がカメラ1511の変更後の注視点、黒丸印1505がカメラ1512の変更後の注視点をそれぞれ示しており、注視点間の間隔が拡がっているのがわかる。このとき、フィールド面に沿ったカメラ群撮影領域Xは広くなるが、高さ方向のカメラ群撮影領域Zは狭くなる。そのため、陸上の短距離走等においては、フィールド面と平行に広範囲な領域を撮影できる。
以上が、本実施例に係る、標準カメラ群とズームカメラ群の撮影領域を最適化する処理の内容である。なお、本実施例では、単一の所定高度を基準(閾値)として、所定高度以上の場合に注視点間距離を縮小し、所定高度未満の場合に注視点間距離を拡大(又は維持)しているが、これに限らない。例えば、注視点間距離を縮小する場合の閾値と拡大する場合の閾値とをそれぞれ別個に設けてもよい。本処理によって、1つの競技の撮影に必要なカメラ台数を削減することができる。また、削減したカメラを用いて、他の競技を同時に撮影するなど、利便性の向上も期待できる。
本実施例によれば、広角カメラ群以外のカメラ群の撮影領域を撮影シーンに応じて最適化することができる。これにより、映像転送時間や処理時間の更なる削減が可能となる。
続いて、データベースを用いて、仮想カメラに関する設定を自動で行なう態様について、実施例3として説明する。実施例1及び2と共通する内容は説明を省略し、以下では異なる点を中心に説明する。
図16は、本実施例に係る、前述の図6のフローにおけるステップ604に代えて実行する、仮想カメラの各種項目を自動設定する処理の詳細を示すフローチャートである。
ステップ1601では、不図示の外部ネットワークを介して接続される、撮影シーン解析データベース(以下、「シーンDB」)に対して、撮影シーンの解析を依頼する。画像処理装置100は、シーンDBとLAN108経由で接続され、シーンDBはさらに、外部から接続可能なネットワーク上に設置されている。シーンDBは、過去の撮影シーンに関する様々な情報を蓄積しており、画像処理装置100から解析に必要な情報を受け取って、撮影シーンの解析処理を実行する。図17は、シーン解析処理の概念図である。シーンDB1700には、撮影シーンの種類毎に、オブジェクト変遷情報と撮影環境情報が記録されている。ここで、オブジェクト変遷情報には、例えば撮影シーンがスポーツ競技の試合の場合、選手の移動位置の軌跡を記録したデータ、選手形状の変化の軌跡を記録したデータ、さらに球技であればボールの位置移動の軌跡を記録したデータなどが含まれる。撮影環境情報は、撮影時の周辺環境、例えば観客席の音声を記録したデータである。スポーツ競技における決定的シーンにおいては歓声によって観客席における音量が増加するため、視聴者の関心が高い決定的シーンか否かの判別に利用可能である。また、撮影シーンがスポーツ競技の試合の場合、シーンDB1700には、上述したオブジェクト変遷情報及び撮影環境情報と、各競技における決定的シーンとの対応関係を示す情報(以下、決定的シーン情報)も記録されている。決定的シーン情報は、決定的シーンの種類、および決定的シーンに適した代表的なカメラワーク(仮想カメラの移動経路)から構成される。決定的シーンの種類とは、例えばサッカーで言えば、シュートシーン、ロングパスシーン、コーナーキックシーン等である。決定的シーン情報は学習データとして保持し、深層学習(ディープラーニング)技術等を用いることで、撮影シーンの解析が可能である。学習データの素材は、世界中の競技場からインターネット等を介して取得可能なため、膨大なデータを収集可能である。画像処理装置100は、シーンDB1700に対し、撮影シーン(競技)の種類、選手やボールの移動ログ(移動軌跡データ)、選手の形状ログ(形状変化データ)、観客席音声データを送信して解析を依頼する。なお、シーンDB1700に送信する上記データは、ステップ602で取得した広角カメラ群111の複数視点映像データに基づき生成される。シーンDB1700では、解析依頼を受けて上述の解析処理を行う。解析結果は画像処理装置100に送られる。
ステップ1602では、画像処理装置100が、シーンDB1700から解析結果を受け取る。解析結果には、決定的シーンの発生した位置、決定的シーンの種類、決定的シーンに適した代表的なカメラワークの情報が含まれる。
ステップ1603では、受け取った解析結果に基づき、仮想カメラの各種項目が自動で設定される。具体的には、決定的シーンの発生位置が仮想カメラの注視点として設定される。また、代表的なカメラワークに基づき、仮想カメラの移動経路や対応するタイムフレームが設定される。決定的シーンの種類を示す情報は、生成後の仮想視点画像にメタデータとして付与される。このメタデータは放送事業者による2次利用(文字エフェクト入れ、データベース化など)の際に参照される。
以上が、仮想カメラの各種項目を自動設定する処理の内容である。なお、上述のようにして自動設定された仮想カメラの注視点や移動経路を前述のGUI画面700上に表示し、さらにユーザがその内容を編集できるように構成してもよい。また、本実施例では、シーンDB1700を画像処理装置100とは別個の装置として構成したが、両者を一体化した1つの装置としてもよい。或いは、本実施例のシーンDB1700が有するシーン解析機能とデータ保存機能とを分離し、それぞれを別個の装置で構成してもよい。
本実施例によれば、データベースを用いて、仮想カメラについての移動経路等の各種項目を自動で設定することができる。これにより、更なる処理時間の短縮が可能である。
本実施例では、仮想視点画像の生成時間に制限が設けられている場合に特に好適な映像生成手法に関して説明を行う。生成時間に制限が設けられているケースとして、例えば、プレイ直後にリプレイとして仮想視点画像を生成するケースや、あるいはスポーツ放送中にリアルタイムに仮想視点画像を生成するケースなどがある。なお、実施例1と重複する処理に関しては、説明を省略する。
図18は、画像処理装置100において、制限時間内に仮想視点映像が生成されるまでの全体の流れを示したフローチャートである。この一連の処理は、CPU101が、所定のプログラムを記憶部103から読み込んでメインメモリ102に展開し、これをCPU101が実行することで実現される。
ステップ1801〜1809は、ステップ601〜609とほぼ同処理である。図6との差異は、ステップ1806とステップ1810である。ステップ1802にて広角カメラ群から複数視点映像データが取得された後、ステップ1803〜1805に並列して、ステップ1810が実行される。ステップ1810では、通信が完了したLAN108の通信帯域を有効活用すべく、標準カメラ群の複数視点映像データが順次取得される。取得された複数視点映像データは、ステップ1806にて用いられる。ステップ1806の仮想視点画像生成処理に関しては、図19にて詳述する。
以上が、本実施例に係る、仮想視点画像が生成されるまでの大まかな流れである。処理時間の長いデータ通信を、形状推定処理や仮想カメラのパラメータ設定処理と並列化することで全体の処理時間が大幅に削減されるという効果がある。なお、本実施例の構成を、仮想視点画像の生成時間に制限が設けられていないケースや、生成時間に十分な余裕があるケースに用いてもよい。
図18のステップ1806の仮想視点画像生成処理を説明する。ここでは、標準カメラ群の複数視点映像データを用いてオブジェクト形状が生成された後、処理時間を鑑みながらズームカメラ群の複数視点映像データが適用される。図19は、本実施例に係る、仮想視点画像生成処理の詳細を示すフローチャートである。以下、図19のフローに沿って詳しく説明する。
ステップ1901から、ステップ1906はステップ801〜806と同処理であるため、説明を省略する。ステップ1907では、ステップ1810で取得された標準カメラ群の複数視点映像データを用いてオブジェクト形状の再推定処理が実行される。ステップ1908では、前述のステップ603の形状推定で得られた低精細のオブジェクト形状データが、ステップ1907の形状推定で得られた高精細のオブジェクト形状データに置換される。ステップ1909、1910はステップ807、808と同処理である。ステップ1911では、本ステップまでの処理時間が形状推定実施の限界値以内であるかが判断される。限界値は1画像フレームの形状推定を実施しなければならない時間に基づいて予め決定される。例えば、30秒以内に600フレームのリプレイ用の映像を生成する場合、1画像フレーム当たり50ミリ秒(30,000/600)を限界値とすることができる。ただし、処理時間に余裕を持たせる場合や、その他の事情によっては限界値が異なる値となることはありえる。Yesの場合はステップ1912に進む。Noの場合はステップ1917に進むことにより、標準カメラ群を用いた仮想視点画像が生成される。つまり、ステップ1911にてNoの判定となった場合は、ステップ1908で置換されたオブジェクト形状データの評価結果にかかわらず、ズームカメラ群の複数視点映像データに基づく形状推定を行わない。ステップ1912では、ステップ809と同様にズームカメラ群から複数視点映像データが取得される。このとき、LAN108の通信帯域を確保するため、ステップ1810での標準カメラ群の複数視点映像データの取得は、一時停止され、本ステップ終了後に再開される。ステップ1913では、本ステップまでの処理時間が形状推定実施の限界値以内であるかが再度判断される。Yesの場合はステップ1914に進み、Noの場合はステップ1916に進む。ステップ1914では、ズームカメラ群の複数視点映像データを用いてオブジェクト形状の再推定処理が実行される。ステップ1915では、前述のステップ1907の形状推定で得られたオブジェクト形状データが、ステップ1914の形状推定で得られた高精細のオブジェクト形状データに置換される。ステップ1916では、形状推定の再実行時間が不足しているため、オブジェクト形状はステップ1907で得られたデータが用いられるが、オブジェクト形状に投影するテクスチャはズームカメラの複数視点映像データを用いるようにレンダリング設定が行われる。ステップ1917では、ステップ1916までの処理で決まったオブジェクト形状とテクスチャを用いて、注目フレームFiの仮想カメラから見た画像である仮想視点画像が生成される。
なお、処理時間が形状推定の限界値以内であるか否かの判定を実行するタイミングは、図19において示す例に限らない。例えば、ステップ1906とステップ1907の間に判定を行うようにしても良いし、ステップ1908とステップ1909の間に判定を行うようにしても良い。また、図19におけるステップ1910とステップ1911の順序が逆であっても良い。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。

Claims (15)

  1. フィールドを互いに異なる方向から撮影する複数の第1カメラにより得られる複数の撮影画像に基づいて、仮想視点の位置及び方向に応じた第1仮想視点画像を生成する第1生成手段と、
    前記フィールドの少なくとも一部を互いに異なる方向から撮影する1または複数の第2カメラにより得られる1または複数の撮影画像に基づいて前記第1仮想視点画像よりも高画質の第2仮想視点画像を生成するか否かを、前記第1生成手段により生成された第1仮想視点画像の評価結果に応じて決定する決定手段と、
    前記決定手段による決定に応じて前記第1仮想視点画像よりも高画質の前記第2仮想視点画像を生成する第2生成手段と
    を備えたことを特徴とする仮想視点画像生成装置。
  2. 前記決定手段は、前記第1仮想視点画像に含まれるオブジェクトの画質に対する評価結果に基づいて、前記第2仮想視点画像を生成するか否かを決定する請求項1に記載の仮想視点画像生成装置。
  3. 前記決定手段は、
    前記第1仮想視点画像内におけるオブジェクトのサイズが閾値以上である場合は、前記第2仮想視点画像を生成すると決定し、
    前記オブジェクトのサイズが前記閾値未満である場合は、前記第2仮想視点画像を生成しないと決定する
    ことを特徴とする請求項1に記載の仮想視点画像生成装置。
  4. 前記決定手段は、前記第1仮想視点画像に含まれる複数のオブジェクトのうち、前記仮想視点から最も近いオブジェクトの画質に対する評価結果に基づいて、前記第2仮想視点画像を生成するか否かを決定することを特徴とする請求項1に記載の仮想視点画像生成装置。
  5. 前記決定手段は、
    前記複数の第1カメラにより得られる複数の撮影画像に基づいて生成された前記第1仮想視点画像の画質と、前記1または複数の第2カメラにより得られる1または複数の撮影画像に基づいて生成される前記第2仮想視点画像の画質との差を、前記1または複数の第2カメラにより得られる1または複数の撮影画像を用いて判定し、
    前記判定された差が閾値以上である場合に、前記第2仮想視点画像を生成することを決定する
    個とを特徴とする請求項1に記載の仮想視点画像生成装置。
  6. 前記複数の第1カメラの数は、前記1または複数の第2カメラの数よりも少なく、
    前記複数の第1カメラのそれぞれの撮影範囲は、前記第2カメラの撮影範囲よりも広い
    ことを特徴とする請求項1に記載の仮想視点画像生成装置。
  7. 前記決定手段は、前記第1仮想視点画像に含まれる所定オブジェクトの画素数と前記第1仮想視点画像の画素数との比率に基づいて決定される第1パラメータと、前記複数の第1カメラにより得られる複数の撮影画像における前記所定オブジェクトの画素数と前記1または複数の第2カメラにより得られる1または複数の撮影画像における前記所定オブジェクトの画素数との比率に基づいて決定される第2パラメータとの比較に基づいて、前記第2仮想視点画像を生成するか否かを決定することを特徴とする請求項1に記載の仮想視点画像生成装置。
  8. 前記決定手段による決定に応じて生成された前記第2仮想視点画像よりも高画質の第3仮想視点画像を、1または複数の第3カメラにより得られる撮影画像に基づいて生成するか否かを、前記第2仮想視点画像の評価結果に応じて決定する第2決定手段と、
    前記第2決定手段による決定に応じて前記第2仮想視点画像よりも高画質の前記第3仮想視点画像を生成する第3生成手段と
    を更に有することを特徴とする請求項1に記載の仮想視点画像生成装置。
  9. 前記決定手段は、前記第2仮想視点画像を生成するか否かを、予め定められた制限時間にさらに基づいて決定することを特徴とする請求項1に記載の仮想視点画像生成装置。
  10. 前記決定手段は、
    前記予め定められた制限時間内に前記第1仮想視点画像が生成された場合は、前記第1仮想視点画像の評価結果に応じて前記第2仮想視点画像を生成するか否かを決定し、
    前記予め定められた制限時間内に前記第1仮想視点画像が生成されなかった場合は、前記第1仮想視点画像の評価結果にかかわらず、前記第2仮想視点画像を生成しないことを決定する
    ことを特徴とする請求項9に記載の仮想視点画像生成装置。
  11. 前記第2決定手段は、
    予め定められた制限時間内に前記第2仮想視点画像が生成された場合は、前記第2仮想視点画像の評価結果に応じて前記第3仮想視点画像を生成するか否かを決定し、
    前記予め定められた制限時間内に前記第2仮想視点画像が生成されなかった場合は、前記第2仮想視点画像の評価結果にかかわらず、前記第3仮想視点画像を生成しないことを決定する
    ことを特徴とする請求項8に記載の仮想視点画像生成装置。
  12. フィールドを互いに異なる方向から撮影する複数の第1カメラにより得られる複数の撮影画像に基づいて、仮想視点の位置及び方向に応じた第1仮想視点画像を生成する第1生成工程と、
    前記フィールドの少なくとも一部を互いに異なる方向から撮影する1または複数の第2カメラにより得られる撮影画像に基づいて前記第1仮想視点画像よりも高画質の第2仮想視点画像を生成するか否かを、前記第1生成手段により生成された第1仮想視点画像の評価結果に応じて決定する決定工程と、
    前記決定に応じて前記第1仮想視点画像よりも高画質の前記第2仮想視点画像を生成する第2生成工程と
    を含むことを特徴とする仮想視点画像生成方法。
  13. 前記決定工程においては、前記第1仮想視点画像に含まれるオブジェクトの画質に対する評価結果に基づいて、前記第2仮想視点画像を生成するか否かが決定されることを特徴とする請求項12に記載の仮想視点画像生成方法。
  14. 前記決定工程においては、前記第1仮想視点画像内におけるオブジェクトのサイズが閾値以上である場合は、前記第2仮想視点画像を生成すると判定され、前記オブジェクトのサイズが前記閾値未満である場合は、前記第2仮想視点画像を生成しないと判定されることを特徴とする請求項12に記載に仮想視点画像生成方法。
  15. コンピュータに、請求項12乃至14のいずれか1項に記載の仮想視点画像生成方法を実行させるためのプログラム。
JP2017204420A 2016-12-27 2017-10-23 仮想視点画像の生成装置、生成方法及びプログラム Active JP7034666B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/848,202 US10762653B2 (en) 2016-12-27 2017-12-20 Generation apparatus of virtual viewpoint image, generation method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016253280 2016-12-27
JP2016253280 2016-12-27

Publications (2)

Publication Number Publication Date
JP2018107793A true JP2018107793A (ja) 2018-07-05
JP7034666B2 JP7034666B2 (ja) 2022-03-14

Family

ID=62787604

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017204420A Active JP7034666B2 (ja) 2016-12-27 2017-10-23 仮想視点画像の生成装置、生成方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7034666B2 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020036293A (ja) * 2018-08-31 2020-03-05 キヤノン株式会社 処理装置、制御方法、及びプログラム
WO2020045186A1 (ja) * 2018-08-31 2020-03-05 キヤノン株式会社 情報処理装置、方法、及びプログラム
JP2020102012A (ja) * 2018-12-21 2020-07-02 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2020134973A (ja) * 2019-02-12 2020-08-31 キヤノン株式会社 素材生成装置、画像生成装置および画像処理装置
JP2020135222A (ja) * 2019-02-15 2020-08-31 キヤノン株式会社 画像生成装置および画像生成方法、プログラム
WO2020230751A1 (ja) * 2019-05-16 2020-11-19 キヤノン株式会社 配置決定装置、システム、配置決定方法、及びプログラム
JP2020191618A (ja) * 2019-05-16 2020-11-26 キヤノン株式会社 配置決定装置、システム、配置決定方法、及びプログラム
JP2021047719A (ja) * 2019-09-19 2021-03-25 ジャングルX株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP2021074277A (ja) * 2019-11-08 2021-05-20 株式会社コナミデジタルエンタテインメント ゲームプログラム、情報処理装置、および方法
WO2021131991A1 (ja) * 2019-12-23 2021-07-01 ソニーグループ株式会社 映像生成装置、映像生成方法および映像生成プログラム
JP2022510658A (ja) * 2018-11-27 2022-01-27 キヤノン株式会社 仮想カメラパスを決定するシステム及び方法
CN114097248A (zh) * 2019-12-30 2022-02-25 华为技术有限公司 一种视频流处理方法、装置、设备及介质
JP7476160B2 (ja) 2021-11-29 2024-04-30 キヤノン株式会社 情報処理装置、情報処理システム、及びプログラム
JP7528140B2 (ja) 2022-03-09 2024-08-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05126546A (ja) * 1991-10-30 1993-05-21 Sony Corp 3次元形状復元方法
JP2012034343A (ja) * 2010-07-02 2012-02-16 Canon Inc 映像処理装置、及びその制御方法
JP2015225529A (ja) * 2014-05-28 2015-12-14 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05126546A (ja) * 1991-10-30 1993-05-21 Sony Corp 3次元形状復元方法
JP2012034343A (ja) * 2010-07-02 2012-02-16 Canon Inc 映像処理装置、及びその制御方法
JP2015225529A (ja) * 2014-05-28 2015-12-14 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020045186A1 (ja) * 2018-08-31 2020-03-05 キヤノン株式会社 情報処理装置、方法、及びプログラム
JP2020036293A (ja) * 2018-08-31 2020-03-05 キヤノン株式会社 処理装置、制御方法、及びプログラム
US11627256B2 (en) 2018-08-31 2023-04-11 Canon Kabushiki Kaisha Information processing apparatus, method, and non-transitory computer-readable storage medium
JP7129283B2 (ja) 2018-08-31 2022-09-01 キヤノン株式会社 処理装置、制御方法、及びプログラム
JP2022510658A (ja) * 2018-11-27 2022-01-27 キヤノン株式会社 仮想カメラパスを決定するシステム及び方法
JP7282887B2 (ja) 2018-11-27 2023-05-29 キヤノン株式会社 仮想カメラパスを決定するシステム及び方法
JP2020102012A (ja) * 2018-12-21 2020-07-02 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP7278766B2 (ja) 2018-12-21 2023-05-22 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2020134973A (ja) * 2019-02-12 2020-08-31 キヤノン株式会社 素材生成装置、画像生成装置および画像処理装置
JP2020135222A (ja) * 2019-02-15 2020-08-31 キヤノン株式会社 画像生成装置および画像生成方法、プログラム
JP7349793B2 (ja) 2019-02-15 2023-09-25 キヤノン株式会社 画像処理装置および画像処理方法、プログラム
JP2020191618A (ja) * 2019-05-16 2020-11-26 キヤノン株式会社 配置決定装置、システム、配置決定方法、及びプログラム
CN113826378B (zh) * 2019-05-16 2024-05-07 佳能株式会社 布置确定装置、系统、布置确定方法和存储介质
JP7558652B2 (ja) 2019-05-16 2024-10-01 キヤノン株式会社 配置決定装置、配置決定方法、及びプログラム
CN113826378A (zh) * 2019-05-16 2021-12-21 佳能株式会社 布置确定装置、系统、布置确定方法和程序
KR20220003608A (ko) * 2019-05-16 2022-01-10 캐논 가부시끼가이샤 배치 결정 장치, 시스템, 배치 결정 방법 및 기록 매체
US12010437B2 (en) 2019-05-16 2024-06-11 Canon Kabushiki Kaisha Arrangement determination apparatus, system, arrangement determination method, and recording medium
WO2020230751A1 (ja) * 2019-05-16 2020-11-19 キヤノン株式会社 配置決定装置、システム、配置決定方法、及びプログラム
KR102629225B1 (ko) * 2019-05-16 2024-01-29 캐논 가부시끼가이샤 배치 결정 장치, 시스템, 배치 결정 방법 및 기록 매체
JP2021047719A (ja) * 2019-09-19 2021-03-25 ジャングルX株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP2021074277A (ja) * 2019-11-08 2021-05-20 株式会社コナミデジタルエンタテインメント ゲームプログラム、情報処理装置、および方法
JP7371901B2 (ja) 2019-11-08 2023-10-31 株式会社コナミデジタルエンタテインメント ゲームプログラム、情報処理装置、および方法
WO2021131991A1 (ja) * 2019-12-23 2021-07-01 ソニーグループ株式会社 映像生成装置、映像生成方法および映像生成プログラム
EP4083991A4 (en) * 2019-12-23 2023-06-28 Sony Group Corporation Image generation device, image generation method, and image generation program
CN114097248A (zh) * 2019-12-30 2022-02-25 华为技术有限公司 一种视频流处理方法、装置、设备及介质
JP7476160B2 (ja) 2021-11-29 2024-04-30 キヤノン株式会社 情報処理装置、情報処理システム、及びプログラム
JP7528140B2 (ja) 2022-03-09 2024-08-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
JP7034666B2 (ja) 2022-03-14

Similar Documents

Publication Publication Date Title
JP7034666B2 (ja) 仮想視点画像の生成装置、生成方法及びプログラム
US10762653B2 (en) Generation apparatus of virtual viewpoint image, generation method, and storage medium
US11217006B2 (en) Methods and systems for performing 3D simulation based on a 2D video image
CN111050210B (zh) 执行操作的方法、视频处理系统及非瞬态计算机可读介质
US11019283B2 (en) Augmenting detected regions in image or video data
US9117310B2 (en) Virtual camera system
US11750786B2 (en) Providing apparatus, providing method and computer readable storage medium for performing processing relating to a virtual viewpoint image
US10861159B2 (en) Method, system and computer program product for automatically altering a video stream
JP6894962B2 (ja) 自由視点映像用画像データのキャプチャ方法及び装置、プログラム
CA2636858C (en) Methods and systems for digitally re-mastering of 2d and 3d motion pictures for exhibition with enhanced visual quality
Matsuyama et al. 3D video and its applications
US20130278727A1 (en) Method and system for creating three-dimensional viewable video from a single video stream
JP2018180655A (ja) 画像処理装置、画像生成方法及びプログラム
JP2019160318A (ja) 情報処理装置、情報処理方法、及びプログラム
JP7489960B2 (ja) 画像の合成のための方法及びデータ処理システム
US11227428B2 (en) Modification of a live-action video recording using volumetric scene reconstruction to replace a designated region
JP2009505553A (ja) ビデオストリームへの視覚効果の挿入を管理するためのシステムおよび方法
US11676252B2 (en) Image processing for reducing artifacts caused by removal of scene elements from images
US11854228B2 (en) Methods and systems for volumetric modeling independent of depth data
KR20100103776A (ko) 화상 처리 장치, 동화상 재생 장치, 이것들에 있어서의 처리 방법 및 프로그램
KR102105510B1 (ko) 타임 슬라이스 영상을 제공하는 서버, 방법 및 사용자 단말
Zhang et al. Coherent video generation for multiple hand-held cameras with dynamic foreground
JP4395082B2 (ja) 映像生成装置、及びプログラム
US20240314280A1 (en) Image processing system, image processing method, and storage medium
JP7332326B2 (ja) 映像効果装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220302

R151 Written notification of patent or utility model registration

Ref document number: 7034666

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151