JP2022070746A - Virtual viewpoint image generation system, image processing device, image generation device, control methods therefor, and program - Google Patents
Virtual viewpoint image generation system, image processing device, image generation device, control methods therefor, and program Download PDFInfo
- Publication number
- JP2022070746A JP2022070746A JP2020179982A JP2020179982A JP2022070746A JP 2022070746 A JP2022070746 A JP 2022070746A JP 2020179982 A JP2020179982 A JP 2020179982A JP 2020179982 A JP2020179982 A JP 2020179982A JP 2022070746 A JP2022070746 A JP 2022070746A
- Authority
- JP
- Japan
- Prior art keywords
- image
- foreground
- virtual viewpoint
- flash
- color information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Generation (AREA)
Abstract
Description
本発明は、仮想視点画像生成システム、画像処理装置、画像生成装置およびそれらの制御方法、プログラムに関する。 The present invention relates to a virtual viewpoint image generation system, an image processing device, an image generation device, a control method thereof, and a program.
昨今、さまざまな視点および方向からの画像を視聴することができる仮想視点画像という技術が注目されている。仮想視点画像技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することが出来るため、通常の画像と比較してユーザにより高い臨場感を与えることが出来る。このような仮想視点画像は、被写体を取り囲むように設置された複数のカメラを用いて同一のタイミングで多方向から撮像して得られた複数の撮像画像(多視点の撮像画像)から生成される。 Recently, a technique called virtual viewpoint image, which enables viewing of images from various viewpoints and directions, is attracting attention. According to the virtual viewpoint image technology, for example, the highlight scenes of soccer and basketball can be viewed from various angles, so that the user can be given a higher sense of presence than a normal image. Such a virtual viewpoint image is generated from a plurality of captured images (multi-viewpoint captured images) obtained by capturing images from multiple directions at the same timing using a plurality of cameras installed so as to surround the subject. ..
特許文献1には、上述の様な仮想視点画像の生成方法について記載されている。この生成方法によれば、位置、姿勢(視点)が異なる複数のカメラから得られた複数の撮像画像のそれぞれは被写体を表す前景画像と被写体以外の背景画像に分離され、複数の前景画像のそれぞれから被写体のシルエット画像が抽出される。抽出された複数のシルエット画像は、それぞれ異なる視点からのものであり、視体積交差法などにより前景画像(被写体)の3次元形状が導出される。そして、オペレータによって指示された視点から観察される3次元形状に、上記撮像画像から得られた色情報をレンダリングすることにより任意の視点の画像(仮想視点画像)が生成される。
特許文献1に開示された技術では、シルエット画像から3次元形状が導出され、仮想視点画像が生成される。一般に、仮想視点画像のレンダリングでは、背景には予め撮像された色情報と背景モデルを使用し、前景となる被写体のみが撮像データに基づいてレンダリングすることで、システムの処理負荷を低減している。ところで、フラッシュなどにより急激に照明条件が変動した場合には、被写体である前景の色情報を示すテクスチャ画像は白飛びした状態で撮像される場合がある。このような場合、被写体である前景のみにフラッシュの影響を受けて白飛びしたテクスチャ画像が用いられ、背景には照明条件が変動する前のテクスチャ画像が用いられることになり、不自然な仮想視点画像が生成されてしまう。すなわち、被写体である前景のみがフラッシュの影響を受けて表示され、仮想視点画像の臨場感が失われ、視聴者に違和感を与えてしまうという課題がある。
In the technique disclosed in
本発明は、照明条件の変化に応じた適切な仮想視点画像を生成する技術を提供する。 The present invention provides a technique for generating an appropriate virtual viewpoint image according to changes in lighting conditions.
本発明の一態様による仮想視点画像生成システムは、以下の構成を有する。すなわち、
複数の撮像装置により取得された複数の撮像画像に基づく被写体である前景の3次元形状情報と、前記前景の色情報と、前記前景とは異なり、前記複数の撮像装置の撮像空間における背景の3次元形状情報と、前記背景の色情報と、指定された仮想視点とに基づいて、仮想視点画像を生成する生成手段と、
前記複数の撮像画像の少なくとも1つに基づいて、照明条件に所定の基準を超える変化が生じたか否かを判定する判定手段と、
前記判定手段により前記照明条件に変化が生じたと判定された場合に、前記生成手段が用いる前記前景の色情報と前記背景の色情報の照明条件を近づけるように、前記前景の色情報と前記背景の色情報の少なくとも一方を調整する調整手段と、を有する。
The virtual viewpoint image generation system according to one aspect of the present invention has the following configurations. That is,
The three-dimensional shape information of the foreground, which is the subject based on the plurality of captured images acquired by the plurality of imaging devices, the color information of the foreground, and the background 3 in the imaging space of the plurality of imaging devices, which is different from the foreground. A generation means for generating a virtual viewpoint image based on the three-dimensional shape information, the background color information, and the designated virtual viewpoint.
A determination means for determining whether or not a change exceeding a predetermined reference has occurred in the lighting conditions based on at least one of the plurality of captured images.
When it is determined by the determination means that the lighting conditions have changed, the foreground color information and the background are brought closer to each other so that the lighting conditions of the foreground color information and the background color information used by the generation means are brought closer to each other. It has an adjusting means for adjusting at least one of the color information of the above.
本発明によれば、照明条件の変化に応じた適切な仮想視点画像を生成することができる。 According to the present invention, it is possible to generate an appropriate virtual viewpoint image according to a change in lighting conditions.
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential for the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are given the same reference numbers, and duplicate explanations are omitted.
<第1実施形態>
図1Aに第1実施形態による仮想視点画像生成システム1の構成例を示す。仮想視点画像生成システム1は、画像処理装置100、操作装置110、表示装置120、撮像装置130を備える。操作装置110、表示装置120、撮像装置130は、画像処理装置100と接続される。図1Aには、画像処理装置100の機能構成例も示されている。操作装置110はオペレータから仮想視点カメラの位置/姿勢などの指示を受け付け、受け付けた指示を画像処理装置100(仮想視点画像生成部105)に供給する。操作装置110は、例えば、仮想視点カメラの位置/姿勢を指定するためにユーザが操作するレバーとスイッチを含む。表示装置120は、液晶ディスプレイ等に代表される表示器を有し、画像処理装置100(仮想視点画像生成部105)により生成された仮想視点画像を表示する。オペレータは、表示装置120に表示されている仮想視点画像を見ながら、操作装置110から仮想カメラの位置/姿勢の指定を行うことができる。
<First Embodiment>
FIG. 1A shows a configuration example of the virtual viewpoint
画像処理装置100は、複数の撮像装置130による撮像画像と、操作装置110から入力された仮想視点カメラの位置とに基づいて仮想視点画像を生成する。画像処理装置100は、それぞれの撮像装置130に対応して設けられた撮像画像処理装置10と、撮像画像処理装置10に接続された画像生成装置20を有する。撮像画像処理装置10は、撮像装置130から取得された撮像画像から、シルエット画像とフラッシュ情報を生成し、画像生成装置20へ出力する。画像生成装置20は、撮像画像処理装置10から入力されるシルエット画像およびフラッシュ情報に基づいて、操作装置110から指示された仮想視点カメラの位置/姿勢における仮想視点画像を生成する。
The
撮像装置130はシリアルデジタルインターフェイス(SDI)に代表される画像信号インターフェイスを備えたデジタルビデオカメラである。撮像装置130は画像信号インターフェイスを介して画像データを撮像画像処理装置10に供給する。撮像装置130は、被写体(オブジェクト)の周囲を囲むように複数個設置されており、複数の撮像装置130は実質的に同時に撮像を行う。それぞれの撮像装置130は撮像画像処理装置10に接続されている。なお、撮像画像処理装置10が撮像装置130に設けられてもよい。
The
撮像画像処理装置10は、機能構成として、画像入力部101、シルエット画像導出部102、フラッシュ情報取得部103を備える。画像入力部101は、撮像装置130からの画像データ(撮像画像)を受信し、シルエット画像導出部102及びフラッシュ情報取得部103にこれを供給する。
The captured
シルエット画像導出部102は、背景差分法などに代表される方法で被写体(前景)の形状情報であるシルエット画像を導出する。シルエット画像とは、被写体の輪郭の中が塗りつぶされた白黒の画像である。シルエット画像は、各画素が被写体の輪郭の中にあるか外にあるかを2値で表した、被写体の形状の情報を有する。シルエット画像導出部102は導出したシルエット画像と、シルエットに対応した画像データであるテクスチャ画像とを画像生成装置20(3次元形状導出部104)に出力する。
The silhouette
フラッシュ情報取得部103は、画像入力部101から取得された画像データ(撮像画像)からフラッシュ発光の有無を判断する。フラッシュ情報取得部103は、複数の撮像画像の少なくとも1つに基づいて、照明条件に所定の基準を超える変化が生じたか否かを判断する構成の一例である。フラッシュ情報取得部103は、照明条件に所定の基準を超える変化が生じた場合にフラッシュ発光有りと判断する。また、フラッシュ情報取得部103は、フラッシュの強度を表す情報(例えば、輝度のヒストグラム)を生成する。フラッシュ情報取得部103は、フラッシュ発光の有無を表す情報およびフラッシュの強度を表す情報を含むフラッシュ情報を、画像生成装置20(フラッシュ情報処理部106)に出力する。フラッシュ情報取得部103の処理については図4のフローチャートを用いて後述する。
The flash
なお、本実施形態では、撮像装置130の台数と同数の撮像画像処理装置10を設置している実施形態を示しているがこれに限られるものではない。例えば、2台またはそれ以上の所定数の撮像装置130に対して1つの撮像画像処理装置10が設けられてもよい。また、撮像画像処理装置10の機能(シルエット画像導出部102、フラッシュ情報取得部103)が撮像装置130に設けられてもよい。或いは、撮像画像処理装置10の機能が画像生成装置20に含まれるようにしてもよい。但し、その場合、複数の撮像装置130と画像処理装置100がネットワークで接続され、そのネットワーク上を撮像装置130による撮像画像が伝送されることになるので、ネットワークの負荷が増大する。
It should be noted that the present embodiment shows an embodiment in which the same number of image pickup
次に、画像生成装置20の機能構成について説明する。3次元形状導出部104は、複数のシルエット画像導出部102から入力された複数のシルエット画像から被写体の3次元形状を表す3次元形状情報(3次元形状データ)を導出し、これを仮想視点画像生成部105に供給する。3次元形状導出部104がシルエット画像から3次元形状情報を導出する手法としては、一般的に使用されている視体積交差法(例えばshape from silhouette法)などを用いることができる。視体積交差法では、複数の撮像部からのシルエット画像を3次元空間に逆投影し、それぞれの視体積の交差部分を求めることにより3次元形状情報が得られる。また、3次元形状導出部104は、シルエット画像導出部102から受信したテクスチャ(色情報)に基づいて3次元形状情報に対応したテクスチャを生成し、仮想視点画像生成部105に供給する。
Next, the functional configuration of the
仮想視点画像生成部105は、被写体(前景)の3次元形状情報とテクスチャ、背景の3次元形状情報とテクスチャに基づいて、操作装置110において指定された仮想視点カメラの位置姿勢から観察される仮想視点画像を生成する。但し、本実施形態では、背景のテクスチャはフラッシュ情報処理部106から提供される。仮想視点画像生成部105は、3次元形状導出部104から被写体(前景)の3次元形状情報およびテクスチャを受信する。また、仮想視点画像生成部105は、背景データ保存部107に予め保存されていた背景モデル(背景の3次元形状法)と、後述するフラッシュ情報処理部106が提供する、補正された背景のテクスチャを取得する。仮想視点画像生成部105は、取得された前景および背景の3次元形状情報とテクスチャ情報からレンダリング処理を行い、仮想視点画像を生成する。仮想視点画像生成部105は生成した仮想視点画像を表示装置120に出力する。
The virtual viewpoint
フラッシュ情報処理部106は、フラッシュ情報取得部103から取得されたフラッシュ情報に基づいて、背景データ保存部107から取得される背景のテクスチャを調整(以下、補正ともいう)する。より具体的には、フラッシュ情報処理部106は、フラッシュ情報がフラッシュ発光有りを示す場合には、背景データ保存部107に保存されている背景のテクスチャをフラッシュの強度を表す情報に基づいて調整する。以下、この調整処理を、フラッシュ再現処理と呼ぶこともある。調整(補正)されたテクスチャは仮想視点画像生成部105に提供される。また、フラッシュ情報処理部106は、フラッシュ情報がフラッシュ発光無しを示す場合には、背景データ保存部107に保存されている背景のテクスチャをそのまま仮想視点画像生成部105に提供する。フラッシュ情報処理部106のさらに詳細な処理については図6のフローチャートを用いて後述する。背景データ保存部107は、背景の3次元形状法と背景のテクスチャを保存する。背景の3次元形状情報と背景のテクスチャは、予め被写体(本例では力士)が存在しない間に、複数の撮像装置130が撮像空間を撮像することにより得られた撮像画像に基づいて得られる。
The flash
上述の機能を実現する撮像画像処理装置10および画像生成装置20のハードウェア構成の一例について、図1Bを用いて説明する。なお、以下では、画像生成装置20の構成について説明するが、撮像画像処理装置10も同様の構成を有している。画像生成装置20は、CPU161、ROM162、RAM163、補助記憶装置164、表示部165、操作部166、通信I/F167、及びバス168を有する。なお、表示部165と操作部166は、上述の表示装置120と操作装置110が接続される場合、省略されてもよい。また、撮像画像処理装置10において、補助記憶装置164、表示部165、操作部166は省略可能である。
An example of the hardware configuration of the image pickup
CPU161は、ROM162やRAM163に格納されているコンピュータプログラムやデータを用いて画像生成装置20の全体を制御することで、図1Aに示す画像生成装置20の各機能を実現する。なお、画像生成装置20がCPU161とは異なる1又は複数の専用のハードウェアを有し、CPU161による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM162は、変更を必要としないプログラムなどを格納する。RAM163は、補助記憶装置164から供給されるプログラムやデータ、及び通信I/F167を介して外部から供給されるデータなどを一時記憶する。補助記憶装置164は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。
The
表示部165は、例えば液晶ディスプレイやLED等で構成され、ユーザが画像生成装置20を操作するためのGUI(Graphical User Interface)などを表示する。操作部166は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU161に入力する。CPU161は、表示部165を制御する表示制御部、及び操作部166を制御する操作制御部として動作する。
The
通信I/F167は、画像生成装置20の外部の装置との通信に用いられる。例えば、画像生成装置20が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F167に接続される。画像生成装置20が外部の装置と無線通信する機能を有する場合には、通信I/F167はアンテナを備える。バス168は、画像生成装置20の各部をつないで情報を伝達する。
The communication I /
本実施形態では表示部165と操作部166が画像生成装置20の内部に存在するものとするが、表示部165と操作部166との少なくとも一方が画像生成装置20の外部に別の装置として存在していてもよい。
In the present embodiment, it is assumed that the
次に図2を参照して、画像処理装置100による仮想視点画像の生成処理について説明する。図2(g)は、本実施形態の画像処理装置100(画像生成装置20)が生成し、出力する仮想視点画像270を示している。以下、図2(g)の仮想視点画像270を画像処理装置100が生成する処理について説明する。図2(g)に示した仮想視点画像270には、相撲を行っているシーンが映し出されている。
Next, with reference to FIG. 2, the virtual viewpoint image generation process by the
まず、図2(a)において、撮像画像210は、撮像装置130が土俵213の周囲から被写体である力士211及び212を撮像することにより得られた画像である。また、図2(a)では、土俵213上の取り組みの様子をカメラマン215が土俵213の外側の観客席において撮像をしている。カメラマン215はフラッシュを用いて撮像をしている。撮像装置130は、フラッシュ撮像されていない状態で適正露出となるように撮像しているので、フラッシュが焚かれることにより被写体である力士211、212の画像には白飛びが生じる。
First, in FIG. 2A, the captured
図2(b)に示すように、シルエット画像導出部102は、撮像画像210から被写体である力士211、212のシルエット画像221、222を導出する。また、図2(c)に示すように、シルエット画像導出部102は、シルエット画像221、222に対応したテクスチャ画像231、232を撮像画像210から導出する。フラッシュの影響を受けている図2(a)の画像データからテクスチャ画像が生成されるため、テクスチャ画像231と232はフラッシュの影響を受けている。例えば、テクスチャ画像231と232の少なくとも一部に白飛びが生じている。テクスチャ画像は、被写体の色情報を示す画像である。
As shown in FIG. 2B, the silhouette
次に、図2(d)に示すように、3次元形状導出部104は、図2(b)に示すようなシルエット画像221,222から、3次元形状情報241、242を導出する。被写体の周囲に配置された複数の撮像装置130が実質的に同時に撮像することにより得られた複数の撮像画像のそれぞれから導出された複数のシルエット画像が3次元形状導出部104に入力される。3次元形状導出部104は、それら複数のシルエット画像に基づき、視体積交差法等を用いて図2(d)に示した3次元形状情報241,242を導出する。
Next, as shown in FIG. 2 (d), the three-dimensional
次に、仮想視点画像生成部105が仮想視点画像を生成する。本実施形態では、背景モデルと背景テクスチャは予め背景データ保存部107に保存されている。図2(e)に予め保存されている土俵の背景テクスチャ253を示す。背景データ保存部107に予め保存されている土俵213の背景テクスチャ253はフラッシュの影響を受けていない。フラッシュの影響を受けている被写体の力士のテクスチャ画像231,232と、フラッシュの影響を受けていない背景テクスチャ253を用いてレンダリングを行うと、前景のみがフラッシュの影響を受けた不自然な仮想視点画像になってしまう。そこで、本実施形態の画像処理装置100(画像生成装置20)では、フラッシュ情報処理部106が、予め保存されている背景テクスチャ253を補正し、背景テクスチャにフラッシュの影響を再現する。
Next, the virtual viewpoint
フラッシュ情報取得部103は、撮像した画像からフラッシュ発光の有無を検知し、その検知結果をフラッシュ情報処理部106に通知する。フラッシュ情報処理部106は、フラッシュ発光が検知されたフレームに関して、フラッシュを再現することにより背景テクスチャを補正する。図2(f)の背景テクスチャ263は、背景テクスチャ253に対してフラッシュの影響が再現されたテクスチャを表す。仮想視点画像生成部105は、前景のテクスチャ画像231、232と、3次元形状情報241、242と、補正された背景テクスチャ263と、背景モデルとを用いてレンダリングを行い、図2(g)に示す仮想視点画像270を生成する。こうして、前景の画像と背景の画像がともにフラッシュの影響を受けた画像となるため、より自然な仮想視点画像が得られる。
The flash
次に、フラッシュ情報取得部103がフラッシュ情報を取得する処理とフラッシュ情報処理部106がフラッシュ情報に基づいて背景テクスチャを補正する処理について、図3を用いて説明する。
Next, a process in which the flash
図3(a)、(c)、(e)は、撮像装置130が撮像した画像である。図3(a)、(c)、(e)は、連続したフレームの撮像画像であり、それぞれ時刻T=100、T=101、T=102における撮像画像である。また、それぞれのフレームについてフラッシュ情報取得部103が導出したヒストグラムを図3(b)、(d)、(f)に示す。図3(b)、(d)、(f)のヒストグラムでは、横軸に画素の輝度、縦軸に画素数を示している。本実施形態では、輝度値の地域は8bit(0~255)である。
3 (a), (c), and (e) are images taken by the
図3(a)の撮像画像310には、被写体である力士311、312が土俵313の上で取り組みを行っているシーンが映し出されている。その取り組みの様子をカメラマン315が土俵313の外側の観客席において撮像をしているとする。時刻T=100の時点では、カメラマン315の持つカメラのフラッシュは発光していない。図3(b)は、図3(a)の撮像画像310のヒストグラム340を示す。ヒストグラム340では、最頻値が中央付近の120に位置しており、適切な露出になっていることが分かる。
The captured
次に、時刻T=101の時点でカメラマン315の持つカメラのフラッシュが発光したとする。図3(c)のフレーム(撮像画像320)では、フラッシュの影響により、力士311、312及び土俵313に白飛びが発生している。この場合、図3(d)に示されるように、撮像画像320のヒストグラム360では、最頻値が輝度の上限に近い240に位置し、露出過度の状態になっていることが分かる。
Next, it is assumed that the flash of the camera possessed by the
次に、時刻T=102の時点では、カメラマン315の持つカメラのフラッシュの発光が終わっている状態となる。この場合、図3(e)に示されるように撮像画像330が得られ、そのヒストグラム380では、図3(f)に示されるように、最頻値が中央付近の100に戻り、適切な露出になっている。
Next, at time T = 102, the flash of the camera possessed by the
フラッシュ情報取得部103は、撮像装置130から得られる撮像画像から各画素の輝度の平均値を導出し、導出した平均値に基づいてフラッシュ発光の有無を判断する。例えば、フラッシュ情報取得部103は、判断の対象である現フレームよりも前の10フレームの輝度値の平均値と、現フレームの輝度値との差が閾値以上あった場合に、フラッシュが発光したと判断する。フラッシュ発光を検知した場合、フラッシュ情報取得部103は、フラッシュ発光有りを通知する情報に加えて、その時の撮像画像から得られる輝度値のヒストグラムを含むフラッシュ情報をフラッシュ情報処理部106に送る。なお、この輝度値のヒストグラムは、フラッシュの強度を表す情報の一例である。本実施形態のフラッシュ情報取得部103は、現フレームの前10フレーム分の平均値と比較する例を示したが、10フレームに限定されるものではなく、他のフレーム数でも良いことは明らかである。フラッシュ発光を検知しなかった場合、フラッシュ情報取得部103は、フラッシュ発光無しを通知する情報を含むフラッシュ情報をフラッシュ情報処理部106に送る。
The flash
図5にフラッシュ情報取得部103が算出する各フレームの輝度値(平均輝度値)の例を示す。フラッシュ情報取得部103は、時刻T=0からフレーム内の平均輝度(フレーム内平均輝度値)の算出を開始する。フラッシュ情報取得部103は、T=0のフレーム内平均輝度値を101と算出する。さらにフラッシュ情報取得部103は、現フレームよりも前の複数フレーム分の輝度の平均値(以下、フレーム間平均輝度値)を算出する。本実施形態のフラッシュ情報取得部103は、現フレーム(T=n)より前の10フレーム分(T=n-1~n-10)の平均輝度を算出し、フレーム間平均輝度値を算出する。なお、T=0では、それよりも前のフレームが存在しないので、現フレームの平均輝度をフレーム間平均輝度値とする。
FIG. 5 shows an example of the luminance value (average luminance value) of each frame calculated by the flash
時刻T=1から99までの説明は省略するが、フラッシュ情報取得部103は現フレームのフレーム内平均輝度値を算出して、さらに現フレームより前の10フレームからフレーム間平均輝度値を算出する。時刻T=100において、フラッシュ情報取得部103は、フレーム内平均輝度値=101、フレーム間平均輝度値=100を得る。時刻T=101においては、図3(c)で示したようにフラッシュが発光しており、図3(d)で示したようにそのヒストグラム360では、最頻値は輝度の上限に近い240に位置し、露出過度の状態になっている。この状態で、フラッシュ情報取得部103は、フレーム内平均輝度値=200、フレーム間平均輝度値=100を得ている。このように、フラッシュの影響を受けた撮像画像では、フレーム内平均輝度値とフレーム間平均輝度値との差が大きくなる。フラッシュ情報取得部103は、このような現象を利用してフラッシュ発光の有無を判断する。
Although the description from time T = 1 to 99 is omitted, the flash
図4は、フラッシュ情報取得部103の処理を示すフローチャートである。以下、フラッシュ情報取得部103の処理を、図4に示されるフローチャートと、図3及び図5に示した画像及び輝度値の例を用いて説明する。なお、説明を簡単にするために、時刻T=0から99までの説明を省略し、時刻T=100の処理から説明を行う。時刻T=0から99においても、フラッシュ情報取得部103は図4に示される処理を行っている。
FIG. 4 is a flowchart showing the processing of the flash
画像処理装置100が起動し、撮像装置130による撮像動作が開始すると、ステップS401において、フラッシュ情報取得部103は、撮像装置130から撮像画像を取得する。時刻T=100では、撮像装置130から図3(a)に示すような撮像画像310が取得される。次に、ステップS402において、フラッシュ情報取得部103はステップS401で取得された撮像画像からフレーム内平均輝度値を導出する。時刻T=100では、図3(b)、図5に示されるように、フレーム内平均輝度値=101が取得される。次に、ステップS403において、フラッシュ情報取得部103は、フレーム間平均輝度値を導出する。上述したように、本実施形態では、現フレームより1つ前のフレームから10フレーム前までの10個のフレームのフレーム内平均輝度値の平均値が、フレーム間平均輝度値として算出される。ここでは、時刻T=100の10フレーム前のT=90からT=99までは、時刻T=100と同じようなフレームが続いていて、図5に示すようにフラッシュ情報取得部103は、10フレーム分のフレーム間平均輝度を100と導出したとする。
When the
次に、ステップS404において、フラッシュ情報取得部103は、照明条件に所定の基準を超える変化が生じたか否かを判断する。本例では、撮像画像における輝度の変化が閾値以上であるか否かが判断される。輝度の変化が閾値以上である場合は、フラッシュが発光したと判断され、処理はステップS405へ進む。輝度の変化が閾値未満の場合は、フラッシュは発光していないと判断され、処理はステップS407へ進む。より具体的には、フラッシュ情報取得部103は、ステップS402で算出された現フレームのフレーム内平均輝度値と、ステップS403で算出された前フレームまでのフレーム間平均輝度値とを比較する。フラッシュ情報取得部103は、フレーム内平均輝度値とフレーム間平均輝度値との差が所定の閾値以上であった場合に、撮像画像における輝度の変化が閾値以上であると判断する。例えば、フレーム内平均輝度値とフレーム間平均輝度値の差が50以上であった場合に、輝度の変化が大きいと判断され、フラッシュが発光したと判断される。もちろん、閾値はこの例に限定されるものではない。時刻T=100においては、現フレームのフレーム内平均輝度値が101、前フレームまでのフレーム間平均輝度値が100であり、両者の差は1である。差が50以下であることからフラッシュは発光していないと判断され、処理はステップS407に遷移する。ステップS407において、フラッシュ情報取得部103は、「フラッシュ発光無し」を示すフラッシュ情報をフラッシュ情報処理部106に送る。
Next, in step S404, the flash
次に、ステップS406において、フラッシュ情報取得部103はすべてのフレームの処理が完了したか否かを判断する。ステップS406で全てのフレームの処理が完了したと判断された場合、或いは、撮像装置130による撮像の終了が指示された場合、本処理は終了する(ステップS406でYES)。本例の場合、時刻T=100ではまだすべてのフレームの処理が完了しておらず(ステップS406でNO)、処理はステップS401に遷移する。
Next, in step S406, the flash
続いて、フラッシュ情報取得部103は、ステップS401において、撮像装置130から、時刻T=101における撮像画像を取得する。フラッシュ情報取得部103は、時刻T=101において、画像入力部101を介して撮像画像320(図3(c))を取得する。ステップS402において、フラッシュ情報取得部103は、撮像画像320からフレーム内平均輝度値を導出する。前述のように、図3(c)ではフラッシュが発光しており、そのヒストグラム360(図3(d))では、最頻値は輝度の上限に近い240に位置し、露出過度の状態になっている。この例では、時刻T=101の撮像画像320について、現フレームのフレーム内平均輝度値=200が導出される。次に、ステップS403において、フラッシュ情報取得部103は、フレーム間平均輝度値を導出する。上述したように、現フレームの1つ前のフレームから10フレーム前までの輝度値の平均値が導出される。本例では、時刻T=101の10フレーム前のT=91からT=100までのフレーム間平均輝度値=100が導出される。
Subsequently, in step S401, the flash
次に、ステップS404において、フラッシュ情報取得部103は、ステップS402で取得されたフレーム内平均輝度値と、ステップS403で取得されたフレーム間平均輝度値を比較する。時刻T=101の場合には、フレーム内平均輝度値が200、フレーム間平均輝度値が100となるので、両者の差は100となる。これは、閾値(=50)よりも大きいため、処理はステップS405に遷移する。ステップS405において、フラッシュ情報取得部103は、フラッシュが発光していると判断し、フラッシュ発光有りを示す情報とフラッシュの強度を表す情報(ヒストグラム)を含むフラッシュ情報をフラッシュ情報処理部106に送る。
Next, in step S404, the flash
次に、ステップS406において、フラッシュ情報取得部103はすべてのフレームの処理が完了したか否かを判断する。時刻T=101ではまだすべてのフレームの処理が完了していないので、処理はステップS401に遷移する。
Next, in step S406, the flash
ステップS401において、フラッシュ情報取得部103は、撮像装置130から時刻T=102における撮像画像を取得する。フラッシュ情報取得部103は、時刻T=102において、撮像装置130から図3(e)に示すような撮像画像330を取得する。そして、ステップS402において、フラッシュ情報取得部103は、撮像画像330からフレーム内平均輝度値を導出する。前述のように、撮像画像330の撮影時刻であるT=102では、前フレームで発光していたフラッシュはすでに発光しておらず、図3(f)に示されるようにフレーム内平均輝度値は100になっている。次に、ステップS403において、フラッシュ情報取得部103は、フレーム間平均輝度値を導出する。時刻T=102の10フレーム前のT=92のフレームからT=101のフレームまでの輝度値の平均(=110)がフレーム間輝度値として導出される。
In step S401, the flash
次に、ステップS404において、フラッシュ情報取得部103は、ステップS402で導出された現フレームのフレーム内平均輝度値と、ステップS403で導出された前フレームまでのフレーム間平均輝度値とを比較する。本例では、時刻T=102の撮像画像330に関して、フレーム内平均輝度値が100、フレーム間平均輝度値が110であり、両者の差は10(<閾値=50)となる。従って、処理はステップS407へ遷移し、フラッシュ情報取得部103は、フラッシュは発光していないと判断し、「フラッシュ発光無し」を示すフラッシュ情報を、フラッシュ情報処理部106に送信する。
Next, in step S404, the flash
このようにして前述の処理によりフラッシュ情報取得部103は、画像データからフラッシュ発光の有無を判断し、フラッシュの情報としてヒストグラムを導出し、フラッシュ情報処理部106に対し送信することができる。なお、上記の例では、フラッシュの発光期間がT=101の1フレーム期間としているが、フラッシュの発光期間が複数の連続するフレームにまたがってもよい。フレーム内平均輝度値とフレーム間平均輝度値との差を用いていることにより、フラッシュ発光が存在する複数の連続するフレームを検知することができる。例えば、図5において、T=101とT=102におけるフレーム内平均輝度値が200であったとしても、T=101とT=102で算出される平均輝度値は100と110になる。よって、T=102においても、フレーム内平均輝度値とフレーム間平均輝度値との差は90>閾値(50)であり、フラッシュ発光が検知されることになる。
In this way, the flash
次に、フラッシュ情報取得部103からフラッシュ情報を受信したフラッシュ情報処理部106の動作を説明する。図6は、フラッシュ情報処理部106の処理を示すフローチャートである。なお、以下では、説明を簡単にするために、時刻T=0から99の撮像画像に関する処理の説明は省略し、時刻T=100以降の撮像画像の処理を説明する。時刻T=0から99の撮像画像についても、以下に説明する処理が行われる。
Next, the operation of the flash
ステップS601において、フラッシュ情報処理部106は、フラッシュ情報取得部103からフラッシュ情報を取得する。次に、ステップS602において、フラッシュ情報処理部106は、ステップS601で受信したフラッシュ情報からフラッシュ発光の有無を確認する。時刻T=100の撮像画像に関しては、フラッシュ情報により「フラッシュ発光無し」が通知される。「フラッシュ発光無し」が確認されると、処理はステップS604に遷移する。ステップS604において、フラッシュ情報処理部106は、仮想視点画像生成部105に、背景データ保存部107に保存されている背景テクスチャをそのまま送る。こうして、フラッシュが発光していないと判断された場合には、フラッシュ情報処理部106はフラッシュの再現処理はせずに、背景テクスチャをそのまま仮想視点画像生成部105に提供する。
In step S601, the flash
以上により、フラッシュが発光していない場合には、仮想視点画像生成部105により、フラッシュ再現処理をされていない仮想視点画像280(図2(h))がレンダリングされる。仮想視点画像生成部105がレンダリングする図2(h)の土俵283のレンダリングには、予め保存されている土俵283のテクスチャ(背景テクスチャ)が用いられる。
As described above, when the flash does not emit light, the virtual viewpoint
ステップS605において、フラッシュ情報処理部106は、すべてのフレームの処理が完了したか否かを判断する。時刻T=100ではすべてのフレームの処理が完了していないので、処理はステップS601に遷移する。
In step S605, the flash
続いて、フラッシュ情報処理部106は、時刻T=101の撮像画像320について処理を行う。ステップS601において、フラッシュ情報処理部106はフラッシュ情報取得部103からフラッシュ情報を取得する。次に、ステップS602において、フラッシュ情報処理部106は、受信したフラッシュ情報からフラッシュ発光の有無を確認する。時刻T=101のフラッシュ情報は、フラッシュが発光していることを通知している。従って、処理はステップS603に遷移する。
Subsequently, the flash
ステップS603において、フラッシュ情報処理部106は、変化が検出されたとき(フラッシュ発光有りが検出されたとき)の撮像画像の輝度の特性に近づくように背景のテクスチャを調整(補正)する。なお、背景のテクスチャが、撮像画像の輝度の特性と完全に一致するように調整されなくてもよい。仮想視点画像上でのフラッシュによる前景と背景との違和感を低減することができればよい。本実施形態では、フラッシュ情報処理部106は、フラッシュ情報に付されているフラッシュの強度を表す情報(輝度のヒストグラム)に基づいて、背景テクスチャに対してフラッシュ再現処理を行う。前述のようにフラッシュ情報取得部103はフラッシュが発光した際に、ヒストグラムをフラッシュ情報に加えてフラッシュ情報処理部106に送っている。フラッシュ情報処理部106は、背景データ保存部107に保存されている、土俵の背景テクスチャ253の輝度を、フラッシュ情報に含まれているヒストグラムに基づいて補正する。この補正には、例えば、ヒストグラムマッチング補正を適用することができる。ヒストグラムマッチング補正とは、ヒストグラムの形状を合わせることで画像の輝度やコントラストを同一にする画像処理手法である。フラッシュ情報処理部106は、送信されたフラッシュ情報(ヒストグラム)に基づいて、予め保存されていた土俵の背景テクスチャ253に対して輝度補正をすることで、図2(f)に示す補正された背景テクスチャ263を導出する。図2(f)は、フラッシュが発光した際の撮像画像のヒストグラムに基づいてヒストグラムマッチング補正が施されているので、フラッシュが発光した際の土俵が再現され得る。
In step S603, the flash
仮想視点画像生成部105は、フラッシュ再現処理により補正された、土俵の背景テクスチャ263(図2(f))を用いて、仮想視点画像をレンダリングし、仮想視点画像270(図2(g))を生成する。この処理により、前述したように、前景のみがフラッシュの影響を受けている不自然な仮想視点画像の生成を抑制することができる。次に、処理はステップS605に遷移し、フラッシュ情報処理部106はすべてのフレームの処理が完了したか否かを判断する。時刻T=101ではまだすべてのフレームの処理が完了していないので、処理はステップS601に遷移する。時刻T=102の処理の説明は省略するが、フラッシュは発光していないので時刻T=100と同様にフラッシュ再現処理は実施されない。
The virtual viewpoint
以上のような処理により、前景のみがフラッシュの影響を受けている不自然な仮想視点画像の生成を抑制することができ、視聴者に臨場感を損なうことなく違和感を与えない仮想視点画像の提供が可能となる。 By the above processing, it is possible to suppress the generation of an unnatural virtual viewpoint image in which only the foreground is affected by the flash, and the provision of a virtual viewpoint image that does not impair the viewer's sense of presence and does not give a sense of discomfort. Is possible.
なお、本実施形態では背景のテクスチャを補正する例を示したが、これに限られるものではない。違和感を与えない仮想視点画像を提供するために、撮像空間の照明条件に所定の基準を超える変化が生じた場合に、仮想視点画像の生成に用いられる前景と背景のテクスチャの照明条件を近づけるように、それらテクスチャの少なくとも一方が補正されればよい。したがって、例えば、前景のテクスチャを補正してフラッシュの影響を軽減する処理が行われても良い。例えば、フラッシュが発光していない前フレームの前景テクスチャのヒストグラムに基づき、フラッシュが発光した前景テクスチャを補正しても良い。但し、フラッシュ情報取得部103は、フラッシュ発光無しを検知した際の前景テクスチャのヒストグラムをフラッシュ情報処理部106へ送信する。なお、前景テクスチャのヒストグラムは、例えば、フラッシュ発光無しが検知されるごとに、或いは、一連の撮像における任意のタイミング(例えば、フラッシュ発光無しを最初に検出したタイミング)でフラッシュ情報処理部106へ送信され得る。例えば、図4のステップS407において送信される、フラッシュ発光無しを示すフラッシュ情報に、当該撮像画像の輝度値のヒストグラムを含める。この場合、ステップS405で送信されるフラッシュ情報に含めていたヒストグラムは、省略が可能である。
In this embodiment, an example of correcting the background texture is shown, but the present invention is not limited to this. In order to provide a virtual viewpoint image that does not give a sense of discomfort, the lighting conditions of the foreground and background textures used to generate the virtual viewpoint image should be brought closer to each other when the lighting conditions of the imaging space change beyond a predetermined standard. In addition, at least one of those textures needs to be corrected. Therefore, for example, a process of correcting the texture of the foreground to reduce the influence of the flash may be performed. For example, the foreground texture emitted by the flash may be corrected based on the histogram of the foreground texture of the foreground frame in which the flash is not emitted. However, the flash
また、図1Aに示した構成では、複数の撮像装置130に対応して複数のフラッシュ情報取得部103が設けられているため、複数のフラッシュ情報がフラッシュ情報処理部106へ送信される。したがって、ステップS602およびステップS603においては、使用するフラッシュ情報を選択する必要がある。フラッシュ情報処理部106は、例えば、複数のフラッシュ情報のうち、仮想視点画像の生成に用いられる仮想カメラの位置と撮像装置130の位置との関係から、使用するフラッシュ情報を選択する。例えば、フラッシュ情報処理部106は仮想カメラの位置に最も近い撮像装置130に対応するフラッシュ情報取得部103からのフラッシュ情報を用いて、ステップS602とステップS603の処理を実行する。或いは、選択されたフラッシュ情報取得部103のみからフラッシュ情報が送信されるようにしてもよいし、システムに1つのフラッシュ情報取得部103を設けて、特定の撮像装置の撮像画像を用いてフラッシュ情報が生成されるようにしてもよい。
Further, in the configuration shown in FIG. 1A, since a plurality of flash
上述のフラッシュ情報の選択は、単一のフラッシュ情報取得部103の判断に基づく補正の例であるが、複数のフラッシュ情報取得部103のフラッシュ発光有無の判断が用いても良い。例えば、複数のフラッシュ情報取得部103のフラッシュ発光有無の結果を多数決でフラッシュ再現処理の実施を決定しても良い。また、多数決の判断を行う際に、仮想カメラの位置と撮像装置の位置関係に基づいた重みづけがなされてもよい。例えば、仮想カメラの位置に近い撮像装置のフラッシュ情報により大きい重みを与えて多数決による判断を行うようにしてもよい。或いは、取得された複数のフラッシュ情報のうちの所定数以上(1以上)のフラッシュ情報がフラッシュ発光有りを示す場合に、当該撮像においてフラッシュ発光有りと判断するようにしてもよい。また、フラッシュ情報にフレーム内平均輝度値を含ませておき、ステップS603の調整処理において、フレーム内平均輝度値が最も高いフラッシュ情報が用いられるようにしてもよい。
The above-mentioned selection of flash information is an example of correction based on the determination of a single flash
<第2実施形態>
第1実施形態では、照明条件の基準を超える変化(例えば、フラッシュ発光)を検知して、背景のテクスチャを補正する例を示した。第2実施形態では、照明条件の変化の原因となる光源の位置を特定し、仮想視点画像にその光源を配置して背景のテクスチャを補正する構成を説明する。以下では、光源としてのフラッシュの3次元空間における発光位置を導出し、仮想視点画像のレンダリング時にそのフラッシュ発光を再現する例を示す。
<Second Embodiment>
In the first embodiment, an example is shown in which a change exceeding the standard of lighting conditions (for example, flash emission) is detected to correct the texture of the background. In the second embodiment, a configuration will be described in which the position of a light source that causes a change in lighting conditions is specified, the light source is arranged in a virtual viewpoint image, and the background texture is corrected. The following is an example of deriving the light emitting position of the flash as a light source in the three-dimensional space and reproducing the flash light emission when rendering the virtual viewpoint image.
第2実施形態では、3次元空間にフラッシュの発光位置を導出してレンダリング時にフラッシュに相当する光源を追加することにより、フラッシュを再現する。そのため、前景はフラッシュの影響を受けていないテクスチャを用いて後述の処理を行うことが望ましい。第2実施形態では、前景のテクスチャに対して第1実施形態で示したヒストグラムマッチング補正による補正を行って前景テクスチャへのフラッシュの影響が低減または排除された後、後述の処理が行われる。なお、第2実施形態の仮想視点画像生成システム1の構成は、第1実施形態(図1A)と同様である。但し、第2実施形態では、前景テクスチャへのフラッシュの影響を低減するために、シルエット画像導出部102が送信する前景テクスチャがフラッシュ情報処理部106に提供される。
In the second embodiment, the flash is reproduced by deriving the light emitting position of the flash in the three-dimensional space and adding a light source corresponding to the flash at the time of rendering. Therefore, it is desirable to perform the processing described later using a texture that is not affected by the flash for the foreground. In the second embodiment, the texture of the foreground is corrected by the histogram matching correction shown in the first embodiment to reduce or eliminate the influence of the flash on the foreground texture, and then the processing described later is performed. The configuration of the virtual viewpoint
第2実施形態において、フラッシュ情報取得部103は、フラッシュ発光の有無を検知することに加えて、当該フラッシュの発光位置(画像座標)を特定する。また、フラッシュ情報処理部106は、複数のフラッシュ情報取得部103のそれぞれが導出した画像座標(フラッシュの発光位置)を受信する。フラッシュ情報処理部106は、複数の画像座標からフラッシュの発光の3次元位置を導出し、その3次元位置を仮想視点画像生成部105に通知する。仮想視点画像生成部105は、導出されたフラッシュの3次元位置に新たな光源を設置して仮想視点画像のレンダリングを行う。フラッシュが発光したフレームに対して、フラッシュを再現する光源を追加しレンダリングを行うことで、フラッシュの影響を前景及び/または背景に与えることが可能となる。
In the second embodiment, the flash
図7に第2の実施形態のフラッシュ情報取得部103が導出するフラッシュの画像座標、及び、フラッシュ情報処理部106が導出するフラッシュの発光の3次元位置を示す。
FIG. 7 shows the image coordinates of the flash derived by the flash
図7(a)は、第2実施形態の撮像装置130が取得した撮像画像(画像データ)の例を示す。図7(a)には、フラッシュ701を有するカメラを所有したカメラマンのみが図示されているが、第1実施形態と同様に、被写体の周囲に複数の撮像装置130が配置されており、力士や土俵を撮像している。また、図7(a)には、配置されたすべての撮像装置130のうちの、5台の撮像装置130から撮像された撮像画像711~715が図示されている。撮像画像711~715は、フラッシュ701が発光した際に撮像された画像であり、それぞれにフラッシュ光が撮像されている。
FIG. 7A shows an example of an captured image (image data) acquired by the
次に、撮像装置130の撮像画像から、フラッシュ情報取得部103が取得したフラッシュの画像座標の例を図7(b)に示す。フラッシュの発光時には、前フレームと比較してフラッシュの発光位置の輝度が急激に高くなる。フラッシュ情報取得部103は、前フレームと現フレームの各画素の輝度変化を算出する。例えば、輝度変化が閾値以上である座標を白、閾値以下である座標を黒にすることで図7(b)の2値画像720が導出される。2値画像720において、フラッシュ発光により輝度が急変した画素は白の画素721で表され、フラッシュの発光位置の画像座標を示すデータとなる。フラッシュ情報取得部103は、フラッシュ発光位置情報としてこの2値画像720をフラッシュ情報処理部106に送る。
Next, FIG. 7B shows an example of the image coordinates of the flash acquired by the flash
フラッシュ情報処理部106は、複数のフラッシュ情報取得部103から提供される、フラッシュの発光位置を示す複数の2値画像720を使用し、視体積交差法等によりフラッシュ発光の3次元位置を得る。図7(c)にフラッシュ情報処理部106が導出するフラッシュの3次元位置730の例を示す。なお、画像座標内のフラッシュ座標を示すデータとして2値画像を用いたが、これに限られるものではなく、例えば、画素の画像座標が用いられても良い。この場合、フラッシュ情報処理部106は、フラッシュの発光位置を示す複数の画像座標からステレオ画像法を用いて当該フラッシュ発光の3次元位置730を導出する。導出されたフラッシュ発光の3次元位置730を示す3次元位置情報は、仮想視点画像生成部105に提供される。
The flash
仮想視点画像生成部105は、フラッシュ情報処理部106から提供されるフラッシュの3次元位置情報に基づいて光源を追加し、仮想視点画像のためのレンダリングを行う。仮想視点画像生成部105は、光源として、例えば、一点から放射状に光を放射するポイントライト、または、一点から光線の方向の指定(角度指定)が可能なスポットライトを用い得る。ポイントライト光源の場合は、フラッシュ情報取得部103が出力するフラッシュ発光の3次元位置情報に従い光源が設定される。フラッシュ光をより忠実に再現したい場合には、スポットライト光源が用いられる。但し、スポットライト光源が用いられる場合には、フラッシュの発光位置(3次元位置情報)に加えて、フラッシュからの光線の方向を示す角度を導出する必要がある。
The virtual viewpoint
図7(d)にスポットライト光源の角度の例を示す。図7(d)の3次元位置730は前述の処理で導出されたフラッシュの発光位置を示している。スポットライト光源の方向(角度)は、光源の位置から撮像空間の所定の位置へ向かう方向に設定され得る。例えば、カメラマンが所有するカメラは、被写体である力士や土俵に向けられているとして、被写体の部分を示す3次元座標をあらかじめ決めておいても良い。例えば、被写体である土俵の中央の3次元位置740(3次元座標)と、フラッシュ発光の3次元位置730(3次元座標)を結ぶベクトルをスポットライト光源の角度とする。このように、フラッシュ情報処理部106はスポットライト光源の角度を導出してスポットライト光源を追加することができる。
FIG. 7D shows an example of the angle of the spotlight light source. The three-
以上の処理をフローチャートにより説明する。まず、第2実施形態のフラッシュ情報取得部103の動作について図4のフローチャートを流用して説明する。第2実施形態のフラッシュ情報取得部103の動作は、ステップS405、S407で送信されるフラッシュ情報の内容を除いて第1実施形態と同様である。第2実施形態では、フラッシュ情報取得部103は、ステップS407において、フラッシュ発光無しを示す情報と、当該撮像画像の輝度値のヒストグラムを含むフラッシュ情報を送信する。また、ステップS405では、フラッシュ情報取得部103は、フラッシュ発光有りを示す情報と当該フラッシュの発光位置を示す情報とを含むフラッシュ情報を送信する。
The above process will be described with a flowchart. First, the operation of the flash
図8は第2実施形態によるフラッシュ情報処理部106の動作を説明するフローチャートである。ステップS801において、フラッシュ情報処理部106は、フラッシュ情報取得部103からフラッシュ情報を、シルエット画像導出部102から前景テクスチャを受信する。次に、ステップS802において、フラッシュ情報処理部106は、ステップS801で受信したフラッシュ情報からフラッシュ発光の有無を確認する。フラッシュ発光無しと判断された場合、処理はステップS806へ進み、フラッシュ情報処理部106は、当該フラッシュ情報に含まれているヒストグラムを非発光時のヒストグラムとして保持する。その後、ステップS807において、フラッシュ情報処理部106は、シルエット画像導出部102から受信した前景テクスチャをそのまま仮想視点画像生成部105へ提供する。
FIG. 8 is a flowchart illustrating the operation of the flash
一方、ステップS802においてフラッシュ発光有りと判定された場合、処理はステップS803に進む。ステップS803において、フラッシュ情報処理部106は、ステップS801で受信した前景テクスチャを、ステップS806で保存した非発光時のヒストグラムを用いて補正すし、フラッシュの影響が低減または排除された前景テクスチャを生成する。ステップS804において、フラッシュ情報処理部106は、フラッシュ情報に含まれているフラッシュの発光位置の3次元位置を計算する。ステップS805において、フラッシュ情報処理部106は、ステップS804で計算された3次元位置を仮想視点画像生成部105に提供する。その後、ステップS807において、ステップS803で補正された前景テクスチャを仮想視点画像生成部105に提供する。ステップ8608において、フラッシュ情報処理部106は、すべてのフレームの処理が完了したか否かを判断する。すべてのフレームの処理が完了していれば本処理は終了し、すべてのフレームの処理が完了していなければ、処理はステップS801に遷移する。
On the other hand, if it is determined in step S802 that there is flash emission, the process proceeds to step S803. In step S803, the flash
仮想視点画像生成部105は、フラッシュ情報処理部106から提供された発光位置、前景テクスチャ、背景データ保存部107に保存されている背景データ、操作装置110により指定された仮想カメラの位置に基づいて、仮想視点画像を生成する。この時、フラッシュ(光源)の輝度は、一般的なフラッシュが有する輝度を参考にして予め定められていてもよいし、フラッシュ情報取得部103がフラッシュ発光時の撮像画像から取得した輝度ヒストグラムを用いて光源の輝度が設定されてもよい。
The virtual viewpoint
以上のように、第2実施形態によれば、3次元空間におけるフラッシュの発光位置を導出してレンダリング時にフラッシュを再現することができる。これにより、不自然な仮想視点画像の生成を抑制することができ、視聴者に臨場感を損なうことなく違和感を与えない仮想視点画像の提供が可能となる。 As described above, according to the second embodiment, it is possible to derive the light emitting position of the flash in the three-dimensional space and reproduce the flash at the time of rendering. As a result, it is possible to suppress the generation of an unnatural virtual viewpoint image, and it is possible to provide a virtual viewpoint image that does not give a sense of discomfort to the viewer without impairing the sense of presence.
以上説明した各実施形態によれば、フラッシュ等により撮像環境(照明条件)が急激に変化した場合でも、自然な仮想視点画像が生成される。また、被写体である前景のみフラッシュの影響を受け白く点滅するような不自然な仮想視点画像の生成が抑制されるため、視聴者に臨場感を損なうことなく違和感を与えない仮想視点画像を提供することが可能となる。 According to each of the above-described embodiments, a natural virtual viewpoint image is generated even when the imaging environment (illumination conditions) is suddenly changed by a flash or the like. In addition, since the generation of an unnatural virtual viewpoint image that blinks white under the influence of the flash only in the foreground, which is the subject, is suppressed, a virtual viewpoint image that does not impair the viewer's sense of presence and does not give a sense of discomfort is provided. It becomes possible.
(他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために、以下の請求項を添付する。 The present invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the present invention. Therefore, in order to publicize the scope of the present invention, the following claims are attached.
1:仮想視点画像生成システム、100:画像処理装置、101:画像入力部、102:シルエット画像導出部、103:フラッシュ情報取得部、104:3次元形状導出部、105:仮想視点画像生成部、106:フラッシュ情報処理部、110:操作装置、120:表示装置、130:撮像装置 1: Virtual viewpoint image generation system, 100: Image processing device, 101: Image input unit, 102: Silhouette image derivation unit, 103: Flash information acquisition unit, 104: Three-dimensional shape derivation unit, 105: Virtual viewpoint image generation unit, 106: Flash information processing unit, 110: Operation device, 120: Display device, 130: Image pickup device
Claims (20)
前記複数の撮像画像の少なくとも1つに基づいて、照明条件に所定の基準を超える変化が生じたか否かを判定する判定手段と、
前記判定手段により前記照明条件に変化が生じたと判定された場合に、前記生成手段が用いる前記前景の色情報と前記背景の色情報の照明条件を近づけるように、前記前景の色情報と前記背景の色情報の少なくとも一方を調整する調整手段と、を有することを特徴とする仮想視点画像生成システム。 The three-dimensional shape information of the foreground, which is the subject based on the plurality of captured images acquired by the plurality of imaging devices, the color information of the foreground, and the background 3 in the imaging space of the plurality of imaging devices, which is different from the foreground. A generation means for generating a virtual viewpoint image based on the three-dimensional shape information, the background color information, and the designated virtual viewpoint.
A determination means for determining whether or not a change exceeding a predetermined reference has occurred in the lighting conditions based on at least one of the plurality of captured images.
When it is determined by the determination means that the lighting conditions have changed, the foreground color information and the background are brought closer to each other so that the lighting conditions of the foreground color information and the background color information used by the generation means are brought closer to each other. A virtual viewpoint image generation system characterized by having an adjusting means for adjusting at least one of the color information of the above.
前記生成手段は、前記特定手段により特定された光源を前記3次元空間に配置して前記仮想視点画像のレンダリングを行うことを特徴とする請求項1乃至9のいずれか1項に記載の仮想視点画像生成システム。 Further provided with specific means for identifying the position of the light source in the three-dimensional space that causes the change in the lighting condition,
The virtual viewpoint according to any one of claims 1 to 9, wherein the generation means arranges a light source specified by the specific means in the three-dimensional space to render the virtual viewpoint image. Image generation system.
前記撮像画像に基づいて、照明条件に所定の基準を超える変化が生じたか否かを判定する判定手段と、
前記取得手段により取得された前記前景の3次元形状と、前記前景の色情報と、前記判定手段の判定の結果を外部の装置に送信する送信手段と、を有し、
前記送信手段は、前記判定手段により変化が生じたと判定された場合には、前記撮像画像の輝度の特性を表す情報をさらに送信する、ことを特徴とする画像処理装置。 An acquisition means for acquiring three-dimensional shape information of the foreground, which is a subject, and color information of the foreground from an image captured by an image pickup device.
Based on the captured image, a determination means for determining whether or not a change exceeding a predetermined reference has occurred in the lighting conditions, and a determination means.
It has a three-dimensional shape of the foreground acquired by the acquisition means, color information of the foreground, and a transmission means for transmitting the determination result of the determination means to an external device.
The image processing device is characterized in that, when it is determined by the determination means that a change has occurred, the transmission means further transmits information representing the characteristics of the luminance of the captured image.
前記撮像空間の照明条件に所定の基準を超える変化が生じたことが通知された場合に、前記生成手段が用いる前記前景の色情報と前記背景の色情報の照明条件を近づけるように、前記前景の色情報と前記背景の色情報の少なくとも一方を調整する調整手段と、を有することを特徴とする画像生成装置。 The three-dimensional shape information of the foreground, which is the subject based on the plurality of captured images acquired by the plurality of imaging devices, the color information of the foreground, and the background 3 in the imaging space of the plurality of imaging devices, which is different from the foreground. A generation means for generating a virtual viewpoint image based on the three-dimensional shape information, the background color information, and the designated virtual viewpoint.
When it is notified that the lighting conditions of the imaging space have changed beyond a predetermined reference, the foreground color information used by the generation means and the background color information are brought closer to each other. An image generation device comprising: an adjusting means for adjusting at least one of the color information of the background and the color information of the background.
前記複数の撮像画像の少なくとも1つに基づいて、照明条件に所定の基準を超える変化が生じたか否かを判定する判定工程と、
前記判定工程により前記照明条件に変化が生じたと判定された場合に、前記生成工程で用いられる前記前景の色情報と前記背景の色情報の照明条件を近づけるように、前記前景の色情報と前記背景の色情報の少なくとも一方を調整する調整工程と、を有することを特徴とする仮想視点画像生成システムの制御方法。 The three-dimensional shape information of the foreground, which is the subject based on the plurality of captured images acquired by the plurality of imaging devices, the color information of the foreground, and the background 3 in the imaging space of the plurality of imaging devices, which is different from the foreground. A generation process for generating a virtual viewpoint image based on the three-dimensional shape information, the background color information, and the designated virtual viewpoint.
A determination step of determining whether or not a change exceeding a predetermined reference has occurred in the lighting conditions based on at least one of the plurality of captured images.
When it is determined by the determination step that the lighting conditions have changed, the foreground color information and the foreground color information and the above so as to bring the lighting conditions of the foreground color information and the background color information used in the generation step closer to each other. A control method for a virtual viewpoint image generation system, which comprises an adjustment step of adjusting at least one of background color information.
前記撮像画像に基づいて、照明条件に所定の基準を超える変化が生じたか否かを判定する判定工程と、
前記取得工程により取得された前記前景の3次元形状と、前記前景の色情報と、前記判定工程の判定の結果を外部の装置に送信する送信工程と、を有し、
前記送信工程では、前記判定工程により変化が生じたと判定された場合には、前記撮像画像の輝度の特性を表す情報がさらに送信される、ことを特徴とする画像処理装置の制御方法。 The acquisition process of acquiring the three-dimensional shape information of the foreground, which is the subject, and the color information of the foreground from the image captured by the image pickup device.
A determination step for determining whether or not a change exceeding a predetermined standard has occurred in the lighting conditions based on the captured image, and a determination step.
It has a three-dimensional shape of the foreground acquired by the acquisition step, color information of the foreground, and a transmission step of transmitting the determination result of the determination step to an external device.
A control method for an image processing apparatus, characterized in that, in the transmission step, when it is determined that a change has occurred in the determination step, information representing the characteristics of the luminance of the captured image is further transmitted.
前記撮像空間の照明条件に所定の基準を超える変化が生じたことが通知された場合に、前記生成工程で用いられる前記前景の色情報と前記背景の色情報の照明条件を近づけるように、前記前景の色情報と前記背景の色情報の少なくとも一方を調整する調整工程と、を有することを特徴とする画像生成装置の制御方法。 The three-dimensional shape information of the foreground, which is the subject based on the plurality of captured images acquired by the plurality of imaging devices, the color information of the foreground, and the background 3 in the imaging space of the plurality of imaging devices, which is different from the foreground. A generation process for generating a virtual viewpoint image based on the three-dimensional shape information, the background color information, and the designated virtual viewpoint.
When it is notified that the lighting conditions of the imaging space have changed beyond a predetermined reference, the lighting conditions of the foreground color information and the background color information used in the generation step are brought close to each other. A control method for an image generator, comprising: an adjustment step of adjusting at least one of a foreground color information and the background color information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020179982A JP2022070746A (en) | 2020-10-27 | 2020-10-27 | Virtual viewpoint image generation system, image processing device, image generation device, control methods therefor, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020179982A JP2022070746A (en) | 2020-10-27 | 2020-10-27 | Virtual viewpoint image generation system, image processing device, image generation device, control methods therefor, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022070746A true JP2022070746A (en) | 2022-05-13 |
Family
ID=81534991
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020179982A Pending JP2022070746A (en) | 2020-10-27 | 2020-10-27 | Virtual viewpoint image generation system, image processing device, image generation device, control methods therefor, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022070746A (en) |
-
2020
- 2020-10-27 JP JP2020179982A patent/JP2022070746A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11750792B2 (en) | Information processing apparatus, image generation method, control method, and storage medium | |
US20230283757A1 (en) | Method for generating virtual viewpoint image and image processing apparatus | |
US11012674B2 (en) | Information processing apparatus, image generation method, control method, and program | |
JP6559899B2 (en) | Depth map processing for images | |
US11190673B2 (en) | Control device, control method, and program | |
US20200322584A1 (en) | Control device, control method, and storage medium | |
US11557081B2 (en) | Image processing apparatus, control method for an image processing apparatus, and medium | |
US20190132529A1 (en) | Image processing apparatus and image processing method | |
JP7023696B2 (en) | Information processing equipment, information processing methods and programs | |
JP2018511088A (en) | Image processing method and apparatus used for LED display | |
JP2019191915A (en) | Video generation device, and control method and program therefor | |
US20180262749A1 (en) | Storing Data Retrieved from Different Sensors for Generating a 3-D Image | |
KR102383669B1 (en) | Parallax minimized stitching using HLBP descriptor | |
JPWO2019146226A1 (en) | Image processing device, output information control method, and program | |
JPWO2019186787A1 (en) | Image processing apparatus, image processing method, and image processing program | |
CN110677557B (en) | Image processing method, image processing device, storage medium and electronic equipment | |
JP7408298B2 (en) | Image processing device, image processing method, and program | |
JP5861114B2 (en) | Image processing apparatus and image processing method | |
JP2022070746A (en) | Virtual viewpoint image generation system, image processing device, image generation device, control methods therefor, and program | |
WO2020066008A1 (en) | Image data output device, content creation device, content reproduction device, image data output method, content creation method, and content reproduction method | |
JP2020191598A (en) | Image processing system | |
WO2024048295A1 (en) | Information processing device, information processing method, and program | |
JP2019036902A (en) | Video processing apparatus, video processing method, and video processing program | |
KR102337699B1 (en) | Method and apparatus for image processing | |
WO2023047643A1 (en) | Information processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |