JP2020046944A - 画像処理装置、制御方法、及びプログラム - Google Patents

画像処理装置、制御方法、及びプログラム Download PDF

Info

Publication number
JP2020046944A
JP2020046944A JP2018174919A JP2018174919A JP2020046944A JP 2020046944 A JP2020046944 A JP 2020046944A JP 2018174919 A JP2018174919 A JP 2018174919A JP 2018174919 A JP2018174919 A JP 2018174919A JP 2020046944 A JP2020046944 A JP 2020046944A
Authority
JP
Japan
Prior art keywords
image
captured image
captured
generation unit
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018174919A
Other languages
English (en)
Inventor
究 小林
Kiwamu Kobayashi
究 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018174919A priority Critical patent/JP2020046944A/ja
Publication of JP2020046944A publication Critical patent/JP2020046944A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Generation (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】 仮想視点画像の生成に用いられる適切な背景画像を得ることを目的とする。【解決手段】 仮想視点画像を生成するために用いられる、異なる方向からの撮像により取得される複数の撮像画像に基づいて少なくともオブジェクトとは異なる背景を表す背景画像を生成する画像処理装置であって、異なる方向からの撮像により取得された第1撮像画像と第2撮像画像とを含む前記複数の撮像画像を取得する取得手段と、前記取得手段により取得された前記第1撮像画像と前記第2撮像画像とに基づいて、オブジェクトの領域を示す領域情報を生成する第1生成手段と、前記取得手段により取得された前記第1撮像画像と前記第2撮像画像と、前記第1生成手段により生成されたオブジェクトの領域を示す領域情報とに基づいて、少なくともオブジェクトとは異なる背景を表す背景画像を生成する第2生成手段と、を有する。【選択図】 図2

Description

本発明は、画像処理装置、制御方法、及びプログラムに関するものである。
被写体(オブジェクト)を複数のカメラで撮像して得られた画像(複数視点画像)から、当該オブジェクトを任意の仮想視点から見た際に得られる画像(仮想視点画像)を生成する技術が知られている。
特許文献1では、まず、複数視点画像において前景であるオブジェクトの領域とそれ以外の背景領域とを分割する前景背景分離を行い、次に、オブジェクトの領域が抽出されたシルエット画像からオブジェクトの3次元形状データを取得する。そして、3次元形状データに対してレンダリングを施すことにより仮想視点画像が生成される。また、背景画像も仮想視点画像の生成に用いられる。
背景領域を示す背景画像の取得方法は、前景である人物や物体が存在しない状態で、事前に撮像を行って取得する方法、及び、複数の撮像画像から所定の時間継続してほぼ変化しない部分を貼りあわせることによって取得する方法がある。
特開2011−170487号公報
上述した方法により背景画像を取得する場合には、以下のような課題が生じる。まず、事前に背景画像を取得する場合には、背景のみの撮像時と前景を含む撮像時とで時間差が生じるため、日照条件などの撮像環境が異なってしまう。そのため、事前に取得した背景画像を用いて仮想視点画像を生成すると、例えば、背景の色が実際の前景を含む撮像時の撮像画像内の背景の色とは異なるおそれが生じる。
一方、複数の撮像画像から所定の時間継続してほぼ変化しない部分を貼りあわせて背景画像を取得する場合、所定の時間が長いと、やはり撮像環境が変化してしまい、例えば、貼りあわせる領域ごとに色の変化が生じ、不自然な背景画像となるおそれが生じる。また、所定の時間が短いと、ほとんど動かない人物などが背景と判断されるおそれが生じる。
このため、上述した方法では、場合によっては、適切でない背景画像となる可能性が生じる。
上記課題に鑑み、本発明では、仮想視点画像の生成に用いられる適切な背景画像を得ることを目的とする。
本発明の画像処理装置は、仮想視点画像を生成するために用いられる、異なる方向からの撮像により取得される複数の撮像画像に基づいて少なくともオブジェクトとは異なる背景を表す背景画像を生成する画像処理装置であって、異なる方向からの撮像により取得された第1撮像画像と第2撮像画像とを含む前記複数の撮像画像を取得する取得手段と、前記取得手段により取得された前記第1撮像画像と前記第2撮像画像とに基づいて、オブジェクトの領域を示す領域情報を生成する第1生成手段と、前記取得手段により取得された前記第1撮像画像と前記第2撮像画像と、前記第1生成手段により生成されたオブジェクトの領域を示す領域情報とに基づいて、少なくともオブジェクトとは異なる背景を表す背景画像を生成する第2生成手段と、を有することを特徴とする。
本発明では、仮想視点画像の生成に用いられる適切な背景画像を得ることができる。
実施形態1に係る画像処理システムの構成例を示す図 実施形態1に係る画像処理システムのブロック図 実施形態1に係る前景画像の生成処理を説明する図 実施形態1に係る背景画像の生成処理を説明する図 実施形態1に係る前景背景生成部の処理例を示すフローチャート 実施形態2に係る課題を説明する図 実施形態2に係る前景背景生成部のブロック図 実施形態2に係る前景背景生成部の処理例を示すフローチャート 実施形態3に係る画像処理システムの構成例を示す図 実施形態3に係る画像処理システムのブロック図 実施形態3に係る画像処理システムのデータフロー図、及びサーバ装置のブロック図 実施形態3に係る前景背景生成部の処理例を示すフローチャート 実施形態1に係る画像処理装置のハードウェアの構成例を示す図
以下、本発明の実施形態について図面を参照して説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。なお、同一の構成については、同じ符号を付して説明する
<実施形態1>
本実施形態では、前景画像、背景画像を生成する画像処理装置を説明する。この画像処理装置は、仮想視点画像を生成する画像処理システムに用いられる。なお、仮想視点画像とは、エンドユーザ及び/又は選任のオペレータ等が仮想的な視点に対応するカメラ(仮想カメラ)の位置及び姿勢を入力又は操作することによって生成される画像である。このような仮想視点画像からなる映像は、自由視点映像又は任意視点映像などとも呼ばれる。仮想視点画像は、動画であっても、静止画であってもよい。また、仮想視点は、自動的に設定されてもよい。仮想視点画像の生成の際に、本実施形態の画像処理装置で生成される前景画像、背景画像が用いられる。
前景画像とは、カメラにより撮像されて取得された撮像画像から、オブジェクトの領域を抽出した画像である。オブジェクトとは、時系列で同じ方向から撮像を行った場合において動きのある(その絶対位置や形が変化し得る)動的オブジェクト(動体)を指す。オブジェクトは、例えば、競技において、それが行われるフィールド内にいる選手や審判などの人物、また球技であればボールなど、コンサートやエンタテイメントにおける歌手、演奏者、パフォーマー、司会者などである。
また、背景画像とは、少なくとも前景となるオブジェクトとは異なる領域の画像である。具体的には、背景画像は、入力画像から前景となるオブジェクトを取り除いた状態の画像である。また、背景は、時系列で同じ方向から撮像を行った場合において静止している、又は静止に近い状態が継続している撮像対象物を指す。このような撮像対象物は、例えば、コンサート等のステージ、競技などのイベントを行うスタジアム、球技で使用するゴールなどの構造物、フィールドなどである。ただし、背景としては少なくともオブジェクトとは異なる領域であり、撮影対象としては、オブジェクトと背景の他に、別の物体等が含まれていてもよい。
また、本実施形態における画像は、画像データであって、必ずしもディスプレイ等の表示デバイスで表示させるために生成される、視認可能な画像でなくてもよい。
図1は、画像処理システムの概略構成図である。画像処理システム100は、撮像対象であるフィールド105の周囲に配置された複数のカメラ(撮像装置)102a〜102xと、画像処理装置103と、を有する。複数のカメラ102a〜102xは、異なる方向からフィールド105を撮像するように配置されている。また、画像処理装置103は、カメラ102a〜102xと、不図示の配線で接続されている。図1では、カメラの台数は、24台であるが、これに限られない。画像処理システムは、より多くの台数のカメラを有していてもいいし、より少ない台数のカメラしか有していなくてもよい。
カメラ102a〜102xで撮像されて取得された撮像画像は、画像処理装置103に集められ、画像処理装置103によって画像処理される。フィールド105は、例えばサッカーやラグビーなどの競技が行われる。また、競技が行われる際に、フィールド105上には、選手104やボール(不図示)が存在している。図1では、一人の選手しか図示していないが、一般に多くの競技において、選手は一人ではなく複数存在する。
本実施形態は、例えば、図1のカメラ102k、102l、102mのように、互いに近傍にある複数のカメラからの撮像画像を用いて、前景画像と背景画像を生成する手法を提案するものである。なお、カメラ102k、102mは、カメラ102lの両隣に位置するカメラである。ただし、前景画像と背景画像を生成するために用いられる複数の撮像画像を取得する複数のカメラは、隣り合って配置されていなくてもよい。
図2(a)に、本実施形態の画像処理システムのブロック図を示す。画像処理装置103は、画像受信部201、前景背景生成部202、入力受付部203、仮想視点画像生成部204、送信部206、ストレージ205を有している。カメラ102a〜102xはすべて、画像処理装置103に、例えば伝送ケーブルなどを使って、スター型で接続されている。
画像受信部201は、伝送ケーブルを介して、カメラ102a〜102xにより撮像されて取得される撮像画像を受信する。画像受信部201は、その撮像画像を前景背景生成部202に伝送する。
前景背景生成部202は、画像受信部201から伝送された撮像画像に基づいて、前景画像と背景画像とを生成する。また、前景背景生成部202は、オブジェクトの領域を示すシルエット情報を取得する。前景背景生成部202は、生成した前景画像と背景画像、さらにオブジェクトの領域を示す領域情報であるシルエット画像を、仮想視点画像生成部204に伝送する。図2(b)に、前景背景生成部202のブロック図を示す。前景背景生成部202は、変換画像生成部210と、差分画像生成部211と、シルエット画像生成部212と、前景画像生成部213と、背景画像生成部214と、を有している。前景背景生成部202が行う処理については後述する。
入力受付部203は、外部から仮想視点の指定を受け付ける。仮想視点の位置や方向などに関する情報を受け付ける。入力受付部203は、ユーザから、仮想視点画像における仮想視点を示す仮想カメラの位置、方向、画角等の設定を受け付ける。以後、これらの仮想カメラの位置、方向、画角等の情報を仮想カメラ情報とも称する。入力受付部203は、仮想視点画像生成部204に、仮想カメラ情報を伝送する。
仮想視点画像生成部204は、オブジェクトの3次元形状データを生成する。例えば、3次元形状データは、シルエット情報を用いたVisual HULL(視体積交差法)などの方法により生成される。また、仮想視点画像生成部204は、前景背景生成部202より伝送された前景画像と、背景画像と、自身で生成した3次元形状データと、をストレージ205に保存させる。また、仮想視点画像生成部204は、入力受付部203で取得した仮想カメラ情報に基づき、ストレージ205から前景画像と背景画像と3次元形状データを読み出す。そして、仮想視点画像生成部204は、3次元形状データに対して、仮想視点に対応する前景画像のテクスチャ情報に基づいてレンダリング処理を行い、仮想視点画像を生成する。また、仮想視点画像生成部204は、仮想視点画像に、例えば音声情報を加え、仮想視点コンテンツを生成するようにしてもよい。その場合、不図示のマイクで集音され、音声データとしてストレージ205に保存されていてもよい。そして、仮想視点の位置に最も近い位置のマイクに対応する音声データを読み出して、仮想視点コンテンツを生成するようにしてもよい。そして、仮想視点画像生成部204は、仮想視点画像、又は仮想視点コンテンツを送信部206に伝送する。
送信部206は、仮想視点画像生成部204で生成された仮想視点画像又は仮想視点コンテンツを外部に送信する。例えば、送信先としては、不図示の表示装置や外部のサーバなどである。
なお、本実施形態においては、図2(a)に示す画像処理装置103の各部は、ハードウェアにより構成されるものとするが、他の例としては、図2(a)に示す各部は、ソフトウェアにより実現されてもよい。この場合、画像処理装置103は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を有している。そして、CPUがROM格納されているプログラムを読み出し、このプログラムを実行することにより、図2(a)に示す各部が実現される。画像処理装置103が本実施形態の処理をCPUなどのハードウェアを用いて実行する場合の画像処理装置103のハードウェア構成を図13に示す。図13に示すように、画像処理装置103は、CPU1301、ROM1302、RAM1303、外部メモリ1304、及び、通信インタフェース1305が通信バス1307に接続されたハードウェア構成を採用しうる。この場合、CPU1301が、所定のプログラムをROM1302から読み出して実行することにより、図2(a)に示した各部の処理が実現される。また、画像処理装置103とカメラ102a〜102xとの通信は、CPU1301が通信インタフェース1305を動作させることで実現される。
図3は、前景背景生成部202による前景分離処理の説明図である。ここでは、3つのカメラ301〜303で撮像された画像を用いて前景画像を分離する場合を例に説明する。図3(a)は、オブジェクト300とカメラ301〜303の配置例を示す図である。カメラ301〜303は、オブジェクト300を別々の方向から撮像する。また、この配置で撮像する際には、カメラ301の撮像画像に対して前景分離処理を行う。すなわち、前景分離処理においては、前景分離対象となる撮像画像を撮像するカメラ(カメラ301)の撮像画像と、その両隣に配置したカメラ(カメラ302、303)の撮像画像を用いる。なお、カメラ301〜303は、同期して同じタイミングでオブジェクト300を撮像する。
図3(b)は、3つのカメラ301〜303の撮像画像から、オブジェクトの領域を示すシルエット画像を生成する処理を示す図である。この処理には、カメラ301の撮像画像304、カメラ302の撮像画像305及びカメラ303の撮像画像306が用いられる。前景背景生成部202は、まずカメラ302の撮像画像305及びカメラ303の撮像画像306を、その撮像画像内の基準平面がカメラ301の撮像画像304の基準平面と重なり合うように射影変換する。この変換により、撮像画像305から変換画像307が生成され、撮像画像306から変換画像308が生成される。ここでいう基準平面とは、オブジェクトが位置する面を平面とみなした面のことである。例えばサッカーの試合であれば、オブジェクトは選手やボールであり、基準平面はサッカーフィールド(図1のフィールド105)である。ただし、一例としてサッカーの試合を述べたが、これに限定されない。基準平面は、競技種別やコンサートなどイベントなどに応じて定められるものとする。なお、射影変換において、基準平面を利用したが、これに限られない。カメラ302の撮像画像305及びカメラ303の撮像画像306内の少なくともオブジェクトの領域とは異なる領域が、カメラ301の撮像画像304のその領域と対応するように撮像画像305及び撮像画像306を射影変換すればよい。このため、背景の一部となる構造物などを利用して射影変換するようにしてもよい。
次に、前景背景生成部202は、カメラ301の撮像画像304とカメラ302の射影変換後の変換画像307とに基づいて差分画像309を生成する。差分画像とは、2つの画像を画素毎に比較し、差分の大きさが所定の閾値を超える画素に1ビットのフラグを立て、差分の大きさが閾値以下である画素の画素値を0とする2値画像である。同様に、前景背景生成部202は、カメラ301の撮像画像304とカメラ303の射影変換後の変換画像308とに基づいて差分画像310を生成する。この差分画像は、カメラ301の撮像画像304における前景候補領域を示すものとなる。
次に、前景背景生成部202は、差分画像309、310に基づいて、オブジェクトを示す領域情報であるシルエット画像311を生成する。この処理では、前景背景生成部202は、2つの差分画像309、310を、対応する画素毎に比較して、2つの差分画像の両方の画素にフラグが立っている場合、1ビットのフラグを立てる。この処理により、シルエット画像311は、カメラ301の撮像画像304における、基準平面そのもの以外の撮像内容の画素を示したシルエット画像となる。このシルエット画像が示す領域が、カメラ301の撮像画像304におけるオブジェクトを示す領域となる。
図3(c)は、カメラ301の撮像画像304とシルエット画像311に基づいて、カメラ301の前景画像312を生成する処理を示す図である。前景背景生成部202は、撮像画像304のうち、シルエット画像311内でフラグが立っている画素を抽出することにより、カメラ301の前景画像312を生成する。前景画像312は、オブジェクトの領域を示す情報と、そのオブジェクトのテクスチャ情報とを含んでいる。なお、前景画像312において、オブジェクトの領域以外の部分は、データとしての意味はなく、例えば、このオブジェクトの領域に外接する長方形の領域と、その長方形の領域の画像内の位置を示すデータで置き換えてもよい。
図4は、前景背景生成部202による背景画像を生成する処理の制御を説明図である。ここでは、図3(a)で示したカメラ301に対応する背景画像を作成する手順を示している。具体的には、前景背景生成部202は、図3(b)で示す、カメラ302の撮像画像305から射影変換された変換画像307と、カメラ303の撮像画像306から射影変換された変換画像308と、カメラ301の撮像画像304を用いて、背景画像を生成する。
図4で変換画像401、402それぞれは、図3(b)で示す変換画像307、308と対応するものであるが、説明のために、変換画像307、308に破線で囲まれた領域403、404を記している。この領域は、上述したシルエット画像311におけるオブジェクトの領域を示しており、カメラ301の撮像画像304中のオブジェクトの領域を示している。
ここで、カメラ301とカメラ302の視差に着目する。この視差により、カメラ301の撮像画像304とカメラ302の変換画像401において、画像上のオブジェクトの位置が互いにずれている。そして、変換画像401における領域403は、撮像画像304のオブジェクトにより撮像されない背景部分に相当する。同様に、カメラ301とカメラ303の視差により、カメラ301の撮像画像304とカメラ303の変換画像402において、画像上のオブジェクトの位置も互いにずれている。このため、変換画像402における領域404は、撮像画像304のオブジェクトにより撮像されない背景部分に相当する。
前景背景生成部202は、変換画像401、402それぞれから領域403、404の画素値で、撮像画像304のオブジェクトの領域405の画素値に置換することにより、撮像画像304におけるオブジェクトが消えた背景画像406が生成される。背景画像406において、破線で示す領域407は、領域403、404の画素値により置換された領域を示す。なお、背景画像406を生成する際に、領域403、404が重複する場合には、いずれか一方の画素値を用いてもよいし、両方の画素値を平均して画素値を算出するようにしてもよい。また、背景画像406は、変換画像401、402の一方と、シルエット画像311を用いて生成されてもよい。
このように、隣のカメラの視差を利用して、精度の高い前景画像及び背景画像を生成することができる。
図5は、前景背景生成部202が行う前景画像及び背景画像を生成する処理制御を示すフローチャートである。図2(b)と図5を用いて、前景背景生成部202が行う処理について説明を行う。
S501において、変換画像生成部210は、画像受信部201で受信した撮像画像を取得する。S502において、変換画像生成部210は、あるカメラ(以下、基準カメラという)の撮像画像に対して、前景画像及び背景画像を生成する場合、以下の処理を行う。すなわち、変換画像生成部210は、基準カメラの両隣のカメラの撮像画像を、画像内の基準平面が基準カメラの撮像画像と重なり合うように射影変換し、変換画像を生成する。
S503において、差分画像生成部211は、基準カメラの撮像画像と、S502で生成された基準カメラの両隣のカメラの変換画像とに基づいて、2つの差分画像を生成する。差分画像は、上述したように2値画像である。S504において、シルエット画像生成部212は、S503で生成された2つの差分画像に基づいて、シルエット画像を生成する。この処理では、シルエット画像生成部212は、2つの差分画像を、対応する画素毎に比較して、2つの差分画像の両方の画素にフラグが立っている場合、1ビットのフラグを立てる。
S505において、前景画像生成部213は、基準カメラの撮像画像とS504で生成されたシルエット画像に基づいて、基準カメラの前景画像を生成する。前景画像生成部213は、基準カメラの撮像画像のうち、シルエット画像内でフラグが立っている画素を抽出することにより、基準カメラの前景画像を生成する。
S506において、背景画像生成部214は、S502で生成された基準カメラの両隣のカメラの変換画像から、基準カメラの撮像画像におけるオブジェクトに対応する領域の背景領域を抽出する。具体的には、背景画像生成部214は、変換画像から、S504で生成したシルエット画像を用い、シルエット画像内でフラグが立っている画素を抽出する。
S507において、背景画像生成部214は、S506で抽出した背景領域の画素値に基づいて、背景画像を生成する。この処理では、抽出した背景領域の画素値を、対応する基準カメラの撮像画像のオブジェクトの領域に上書きすることで、オブジェクトの領域を消している。このようにして、本実施形態では、前景画像と背景画像が生成される。
前景画像と背景画像は、すべてのカメラにおいて生成されることが望ましいが、一部のカメラにおいてのみ生成されてもよい。また、前景画像と背景画像は、同じ頻度で生成さことにより背景画像の時間応答が高速になるが、背景の状態が短時間で変化しないような場合においては、背景画像の生成頻度は、前景画像の生成頻度よりも少なくてもよい。
この前景画像と背景画像を用いて、後段の仮想視点画像生成部204により仮想視点画像が生成される。
このように、本実施形態によれば、前景となる人物などが存在する状態でフィールドが異なる方向から同時に撮像されて取得される複数の撮像画像を用いて、背景画像が生成される。このため、仮想視点画像により適した、不自然ではない前景画像と背景画像を得ることができる。
なお、本実施形態で生成された背景画像は、撮像画像と背景画像との差分から前景画像を抽出する方法にも適用することができる。例えば、ある撮像タイミングで撮像した撮像画像に基づいて本実施形態の方法で生成した背景画像を用いて、次の撮像タイミングで撮像した撮像画像から前景画像を抽出するようにしてもよい。この場合には、前景画像の抽出に利用される背景画像と撮像画像との撮像タイミングが近く、日照条件などによる影響を低減でき、精度のよい前景画像を抽出することができる。
<実施形態2>
実施形態1では、基準カメラとその両隣のカメラとの視差情報を利用して、前景画像と背景画像を生成する形態を説明した。本実施形態では、それに限らず、視差情報を与える視差の大きさを適正なものとする方法を説明する。なお、本実施形態の画像処理システムは、実施形態1と同様であり、その構成は図1、2で示されている。
図6(a)を用いて、カメラ間の視差情報が不足する場合の例を説明する。図6(a)の例においては、前景画像と背景画像を生成する基準となる基準カメラの撮像画像601と、それとは異なるカメラの撮像画像が射影変換された変換画像602、603とを用いて、背景画像を生成する例を示す。
視差が小さいと、変換画像602、603と、撮像画像601とのオブジェクトに相当する部分の位置ずれが小さくなる。そのため、変換画像602、603の破線で示した領域604、605にもオブジェクトが含まれるため、その領域604、605の画素値を用いても、撮像画像601内のオブジェクトの領域を消しきることができない。そのため、背景画像606において、オブジェクトを示す部分607が残ってしまい、高精度で背景画像を生成することができなくなる。このような部分607を以下「前景消し残り」と表現する。
図6(b)は、背景画像の生成の際に使用するカメラの視差の大きさと上述した「前景消し残り」の量との一般的な関係を示す。横軸は、カメラ間の視差を示す視点間角度であり、縦軸は、前景消し残りの量を示している。傾向としては、視差が小さいほど、前景消し残りが増加する。ただし、上述した傾向を示さない場合も考慮すると、視点間角度の値を、近似曲線の極小値もしくは、所定の閾値以下になるように設定することが望ましい。例えば、後者の閾値を用いる例では、視点間角度がC、Dの場合となるように視点間角度を設定すればよい。
以下では、図7、図8を用いて、前景画像と背景画像を生成する際に使用するカメラの選択方法に重点を置いて説明する。図7は、本実施形態の前景背景生成部701のブロック図を示す。図2(b)で示す実施形態1の前景背景生成部202とは、選択部702と判定部703を有する点が異なる。図8は、本実施形態の前景背景生成部701の処理制御を示すフローチャートである。概要としては、前景画像と背景画像を生成する基準カメラとその両隣のカメラを用いて、前景画像と背景画像を生成し、前景消し残り量が所定の条件を満たさない場合には、両隣のカメラに代えて、基準カメラを基準に、一個ずつ外側のカメラを参照する。そして、前景消し残り量が所定の条件を満たすまで繰り返し、前景消し残り量が所定の条件を満たせば、そのカメラを確定するという手法をとる。なお、所定の条件を満たさなかった場合は、全ての組み合わせの中で最も良いカメラの組み合わせを確定する。以下、図7、図8に従って、説明する。
S801において、選択部702は、背景画像を生成する基準となるカメラを第1のカメラとして選択する。これは、図3(a)で示すカメラ301を第1のカメラとして選択することに相当する。
S802において、選択部702は、基準となる第1のカメラの左隣のカメラを第2のカメラとして選択する。これは、図3(a)で示すカメラ302を第2のカメラとして選択することに相当する。
同様に、S803において、選択部702は、基準となる第1のカメラの右隣のカメラを第3のカメラとして選択する。これは、図3(a)で示すカメラ303を第3のカメラとして選択することに相当する。
S804において、前景背景生成部202は、実施形態1で述べた方法で、前景画像と背景画像を生成する。まず、変換画像生成部210は、選択部702により選択された第2のカメラと第3のカメラそれぞれの撮像画像を、その撮像画像内の基準平面が、第1のカメラの撮像画像内の基準平面と基準平面と重なり合うように射影変換して変換画像を生成する。そして、差分画像生成部211は、第1のカメラの撮像画像と第2のカメラの変換画像と第3のカメラの変換画像とを用いて、差分画像を生成する。そして、シルエット画像生成部212は、差分画像を用いてオブジェクトのシルエット画像を生成する。そして、このシルエット画像を用いて、前景画像生成部213は、第1のカメラの撮像画像からオブジェクトを示す領域を抽出し、前景画像を生成する。また、背景画像生成部214は、シルエット画像を用いて、まず、変換画像から、第1のカメラの撮像画像におけるオブジェクトの領域に相当する画素値を抽出する。そして、背景画像生成部214は、抽出された画素値で、第1のカメラの撮像画像のオブジェクトの領域の画素値を置換し、背景画像を生成する。
S805において、判定部703は、前景消し残り量に相当する指標を算出する。具体的には、判定部703は、S804で生成したシルエット画像内のオブジェクトの部分(画素値が1である部分)の面積を指標として算出する。この面積が大きくなるということは、第1のカメラの撮像画像のオブジェクトの領域に相当する領域が、差分画像において多く残っていることを意味している。これは、視点間角度がより大きいカメラの組み合わせを用いてシルエット画像が生成されることを意味し、前景消し残り量が小さくなることを意味している。前景消し残り量に相当する指標は、シルエット画像内のオブジェクトの部分の面積そのものの他、シルエット画像に占めるシルエット画像内のオブジェクトの部分の面積の割合などを用いることができる。なお、前景消し残り量に相当する指標は、前景消し残り量の大小関係が判別できる指標であれば何でもよい。
S806において、判定部703は、S805で算出した指標が所定の条件を満たすか否かを判定する。例えば、所定の条件とは、所定の閾値以下という条件である。S806でYESの場合は、S809に進み、S804で生成した前景画像と背景画像が、第1のカメラに対応する前景画像と背景画像として確定される。
S806でNOの場合は、S807に進む。S807において、判定部703は、全カメラを選択したか否かを判定する。S807でNOの場合は、S810に進む。
S810において、選択部702は、第1のカメラの左隣にあるカメラに代えて、そのさらに1つ左にあるカメラを第2のカメラとして選択する。これにより、第1のカメラと今回選択された第2のカメラとの視差間角度が、第1のカメラと前回選択された第2のカメラとの視差間角度より大きくなるように選択することになる。
S811において、選択部702は、第1のカメラの右隣にあるカメラに代えて、そのさらに1つ右にあるカメラを第3のカメラとして選択する。これにより、第1のカメラと今回選択された第3のカメラとの視差間角度が、第1のカメラと前回選択された第3のカメラとの視差間角度より大きくなるように選択することになる。
そして、S804に戻り、第1のカメラの撮像画像と、S810で選択された新たな第2のカメラの撮像画像と、S811で選択された新たな第3のカメラの撮像画像とを用いて、前景画像と背景画像が生成される。その方法は上述したので、ここでは省略する。
S807でYESの場合は、S808に進む。S808において、選択部702は、複数の第2のカメラと第3のカメラの組み合わせのうち、S805で算出した評価値が最も大きくなる組み合わせを選択する。
S809においては、S808で選択されたカメラの組み合わせを用いて生成した前景画像と背景画像が、第1のカメラに対応する前景画像と背景画像として確定される。
この一連の処理は、任意の第1のカメラに対応する前景画像と背景画像を確定させる処理について説明したものであるが、全カメラまたは特定の複数のカメラを順に第1のカメラとして選択して、全カメラの前景画像と背景画像を確定させるようにしてもよい。
また、S806で示す所定の条件として、前回のカメラの組み合わせで算出した評価値に対する増加率が閾値以下であるという条件であってもよい。この場合には、より精度の高い背景画像を確定することができる。また、前回のカメラの組み合わせで算出した評価値に対する増加率が閾値以下である条件の場合、前回のカメラの組み合わせで生成した前景画像と背景画像を第1のカメラの前景画像と背景画像として確定してもよい。さらに、所定の条件として、所定の閾値以下である条件と前回のカメラ組み合わせで算出した評価値に対する増加率が閾値以下であるという条件の両方を条件としてもよい。
また、S810とS811を両方行うフローを示したが、まずS810を行ってS811を行わずに、新たなカメラの組み合わせを用いて評価値を算出してもよい。その場合、次に、S810を行わずにS811を行って新たなカメラの組み合わせを用いて評価値を算出するようにしてもよい。
本実施形態においては、上記のように、前景消し残りを低減して、より精度の高い背景画像を選択することができる。
<実施形態3>
実施形態1では、カメラと画像処理装置とがスター型で接続された形態を説明した。本実施形態では、カメラごとに画像処理装置が配置され、それらを含むセンサシステムが、デイジーチェーン型で接続された形態について説明する。なお、本実施形態においては、カメラと画像処理装置が一体となった構成でもよい。
図9は、画像処理システム900の全体図である。画像処理システム900は、フィールド970の周りに配置された複数のカメラ910a〜910pと、各カメラ910a〜910pに接続したアダプタ920a〜920pと、サーバ装置950とを有している。また、アダプタ920a〜920pは、それぞれカメラ910a〜910pに対応して設けられた画像処理装置の一例である。各カメラ910a〜910pとそれぞれに対応するアダプタ920a〜920pの間は、それぞれ伝送ケーブル930a〜930pで接続されている。伝送ケーブル930a〜930pは、例えばSDI(Serial Digital Interface)ケーブルにより実現する。アダプタ920a〜920pは、伝送ケーブル960を介してデイジーチェーン接続している。さらに、サーバ装置950は、伝送ケーブル960を介して、アダプタ920a、920pと接続している。なお、伝送ケーブル960は、例えばEthernetケーブルで実現する。
カメラ910a、アダプタ920a及び伝送ケーブル930aで構成した単位をまとめてセンサシステム940aと称する。同様に、カメラ910b〜910p、アダプタ920a〜920p及び伝送ケーブル930b〜930pで構成された単位をセンサシステム940b〜940pと称する。画像処理システム900は、フィールド970を、その周囲に配置された複数のセンサシステム940a〜940pにより複数の方向から撮像し、撮像した画像群に画像処理を施すことで、任意の視点からの画像を再構成してユーザに提供するシステムである。この画像の再構成処理は、アダプタ920a〜920pとサーバ装置950により行う。なお、画像処理システム900は、複数のセンサシステムを有していればよく、その数は、本実施形態に限定されるものではない。また、以下、複数のカメラ910a〜910pはいずれも同一の装置であり、これらを区別する必要がない場合には、適宜、単にカメラ910と称する。同様に、アダプタ920a〜920pは、同一の装置であり、これらを区別する必要がない場合には、適宜、単にアダプタ920と称する。
画像の再構成のための処理ステップは、種々の方法があるが、本実施形態では、次のとおりとする。アダプタ920においては、アダプタ920と対になるカメラ910の撮像画像及びその両隣に配置されたカメラ910の撮像画像を用いて、フィールド970における前景画像と背景画像を生成し、サーバ装置950への伝送処理を行う。サーバ装置950では、各アダプタ920から伝送された各カメラ910の撮像位置における前景画像群より、任意の視点からの画像の再構成処理を行う。
これらの処理を行うために、画像処理システム900は、フィールド970の周囲に配置した、センサシステム940のアダプタ920を伝送ケーブル960によりデイジーチェーン接続した構成とする。そして、アダプタ920は、各カメラ910の撮像画像から前景画像と背景画像を生成する処理に必要なデータと、各カメラ910の撮像画像から抽出した前景画像を伝送する。デイジーチェーン型の接続の場合は、膨大な数のケーブルが必要となるスター型の接続に比較して、圧倒的に少ないケーブル数で接続が可能となる。
図10(a)は、センサシステム940内のアダプタ920の構成図である。アダプタ920は、入力部1001と、信号生成部1002と、受信部1003と、前景背景生成部1004と、送信部1005と、を有している。アダプタ920は、信号生成部1002から、撮像のための同期信号をカメラ910に対して出力する。カメラ910は入力された同期信号に合わせて撮像し、撮像画像をアダプタ920に対して入力部1001を介して出力する。そして、アダプタ920は、伝送ケーブルを介して、両隣のアダプタ920との間でデータの送受信を行う。具体的には、デイジーチェーン型で接続した上流の他のセンサシステムから撮像画像、前景画像と背景画像の生成に必要なデータ、上流の他のセンサシステムで生成された前景画像と背景画像を、受信部1003で受信する。そして、下流の他のセンサシステムに対して、カメラ910で撮像した撮像画像、下流の他のセンサシステムで前景画像と背景画像を生成するために必要なデータ、自身で生成した前景画像と背景画像を送信部1005を介して送信する。
信号生成部1002は、カメラ910に対して出力する同期信号を生成する。同期信号は、撮像タイミング及びタイムスタンプからなる。撮像タイミングは、画像処理システム900を構成する全てのカメラ910で同期して撮像するために生成されるものである。信号生成部1002は、例えば全てのアダプタ920をPTPにより同期させ、同一時刻に撮像タイミングを生成する。ここで、PTPとは、Precision Time Protocolの略称である。各アダプタ920において同一時刻に生成した撮像タイミングに対して同一のタイムスタンプを付与する。これにより、複数のカメラ910が同一タイミングで撮像された撮像画像には、同一のタイムスタンプが付与される。なお、タイムスタンプの付与には、タイムコードが用いられる。タイムコードとしては、例えば、SMPTE(Society of Motion Picture & Television Engineers)12Mで規定されるLTC(Linear TimeCode)等が挙げられる。
カメラ910は、同期信号を用いて撮像処理を行う。カメラ910で撮像された撮像画像は、アダプタ920に対して入力部1001を介して入力される。入力部1001は、カメラ910の撮像画像を、前景背景生成部1004及び送信部1005に対して出力する。
前景背景生成部1004は、撮像画像と、他のセンサシステムから受信部1003を介して受信するデータを用いて、前景画像と背景画像を生成する。そして、前景背景生成部1004は、処理結果を、送信部1005に対して出力する。また、図10(b)は、前景背景生成部1004の機能をブロック図で示した図である。前景背景生成部1004は、変換画像生成部1010と、差分画像生成部1011と、シルエット画像生成部1012と、前景画像生成部1013と、背景画像生成部1014と、を有している。前景背景生成部1004が行う処理、及び前景背景生成部1004が授受するデータについては、後述する。
受信部1003は、上流の他のセンサシステムから受信したデータを前景背景生成部1004に受け渡す処理を行う。データの受信は、受信先に対して接続された伝送ケーブルを介して行う。受信部1003が授受するデータについても、前景背景生成部1004が行う処理の説明と合わせて後述する。
送信部1005は、入力部1001及び前景背景生成部1004から出力されたデータを下流の他のセンサシステムに対して送信する処理を行う。データの送信は、送信先に対して接続された伝送ケーブルを介して行う。
なお、本実施形態においては、図10(a)に示すアダプタ920の各部は、ハードウェアにより構成されるものとするが、他の例としては、図10(a)に示す各部は、ソフトウェアにより実現されてもよい。この場合、アダプタ920は、CPU、RAM、ROM等を有している。そして、CPUがROM格納されているプログラムを読み出し、このプログラムを実行することにより、図10(a)に示す各部が実現される。アダプタ920が本実施形態の処理をCPUなどのハードウェアを用いて実行する場合のアダプタ920のハードウェア構成は、図13の画像処理装置103と同様であるため、ここでは省略する。なお、アダプタ920と他のアダプタとの間の通信は、CPUが通信インタフェースを動作させることで実現される。
図11(a)は、センサシステム940間のデータフローと、センサシステム940とサーバ装置950の間のデータフローの説明図である。図11(a)を参照し、複数のセンサシステム940m〜940pとサーバ装置950の間のデータフローについて説明する。画像処理システム100においては、サーバ装置950からより遠くに存在するアダプタ920から、サーバ装置950により近いアダプタ920に対して順番に、前景画像と背景画像の生成処理に必要なデータが伝送される。
図11(a)の例では、アダプタ920mは、伝送ケーブル960を介して伝送データ1100mをアダプタ920nに送信する。アダプタ920nは、伝送ケーブル960を介して伝送データ1100nをアダプタ920oに送信する。アダプタ920oは、伝送ケーブル960を介して伝送データ1100oをアダプタ920pに送信する。アダプタ920pは、伝送ケーブル960を介して伝送データ1100pをサーバ装置950に送信する。伝送データについては、前景背景生成部1004が行う処理の説明と合わせて後述する。
図11(b)は、サーバ装置950の機能を行うブロック図である。サーバ装置950は、画像受信部1101と、仮想視点画像生成部1102と、画像出力部1103と、ストレージ1104と、を有している。画像受信部1101は、センサシステム940のアダプタ920から送信される伝送データを受信する。この伝送データには、撮像画像、前景画像、背景画像、シルエット画像が含まれる。
入力受付部1105は、外部から仮想視点の指定を受け付ける。仮想視点の位置や方向などに関する情報を受け付ける。入力受付部1105は、ユーザから、仮想視点画像における仮想視点を示す仮想カメラの位置、方向、画角等の設定を受け付ける。以後、これらの仮想カメラの位置、方向、画角等の情報を仮想カメラ情報とも称する。入力受付部1105は、仮想視点画像生成部1102に、仮想カメラ情報を伝送する。
仮想視点画像生成部1102は、オブジェクトの3次元形状データを生成する。例えば、3次元形状データは、シルエット画像を用いたVisual HULL(視体積交差法)などの方法により生成される。また、仮想視点画像生成部1102は、アダプタ920より伝送された前景画像と、背景画像と、生成した3次元形状データと、をストレージ1104に保存させる。また、仮想視点画像生成部1102は、入力受付部203で取得した仮想カメラ情報に基づき、ストレージ1104から前景画像と背景画像と3次元形状データを読み出す。そして、仮想視点画像生成部1102は、3次元形状データに対して、仮想視点に対応する前景画像のテクスチャ情報に基づいてレンダリング処理を行い、仮想視点画像を生成する。また、仮想視点画像生成部1102は、仮想視点画像に、例えば音声情報を加え、仮想視点コンテンツを生成するようにしてもよい。その場合、不図示のマイクで集音され、音声データとしてストレージ1104に保存されていてもよい。そして、仮想視点の位置に最も近い位置のマイクに対応する音声データを読み出して、仮想視点コンテンツを生成するようにしてもよい。そして、仮想視点画像生成部1102は、仮想視点画像、又は仮想視点コンテンツを画像出力部1103に伝送する。
画像出力部1103は、仮想視点画像生成部1102で生成された仮想視点画像又は仮想視点コンテンツを外部に送信する。例えば、送信先としては、不図示の表示装置や外部のサーバなどである。
図12は、前景背景生成部1004が行う前景画像及び背景画像を生成する処理制御を示すフローチャートである。図10(b)、図11(a)、図12を用いて、前景背景生成部1004の処理について説明する。
S1201において、変換画像生成部1010は、入力部1001に入力されるカメラ910pの撮像画像を取得する。この撮像画像を撮像画像(p)と表記する。S1202において、変換画像生成部210は、カメラ910oの撮像画像の画像内の基準平面が、両隣のカメラ910n、910pの撮像画像内の基準平面と重なり合うようにカメラ910oの撮像画像を射影変換し、2つの変換画像を生成する。この2つの変換画像を変換画像(o→n)と変換画像(o→p)と表記する。変換画像(o→n)は、図3の変換画像307に相当する。
S1203において、差分画像生成部1011は、受信部1003が1つ上流のセンサシステムから受信した、カメラ910nの撮像画像(以下、撮像画像(n)と表記する)を取得する。この撮像画像(n)は、図3の撮像画像304に相当する。また、差分画像生成部1011は、受信部1003が、1つ上流のセンサシステムが受信した2つ上流のアダプタにより生成された変換画像を取得する。この変換画像は、カメラ910mの撮像画像の画像内の基準平面が910oの撮像画像内の基準平面と重なり合うように射影変換された画像である。この変換画像を変換画像(m→n)と表記する。変換画像(m→n)は、図3の変換画像308に相当する。
S1204において、差分画像生成部1011は、2つの差分画像を生成する。具体的には、S1202で生成した変換画像(o→n)とS1203で取得した撮像画像(n)とを用いて、差分画像を生成する。この差分画像は、差分画像(o→n)と表記する。また、S1203で取得した撮像画像(n)と変換画像(m→n)とを用いて、差分画像を生成する。この差分画像は、差分画像(m→n)と表記する。差分画像(o→n)、差分画像(m→n)はそれぞれ、図3の差分画像309、差分画像310に相当する。
S1205において、シルエット画像生成部1012は、S1204で生成された2つの差分画像(o→n)と差分画像(m→n)に基づいて、シルエット画像を生成する。このシルエット画像をシルエット画像(n)と表記する。この処理では、シルエット画像生成部1012は、2つの差分画像を、対応する画素毎に比較して、2つの差分画像の両方の画素にフラグが立っている場合、1ビットのフラグを立てる。なお、シルエット画像(n)は、図3のシルエット画像311に相当する。
S1206において、前景画像生成部1013は、受信部1003が受信した撮像画像(n)と、S1205で生成されたシルエット画像(n)とに基づいて、カメラ910nの前景画像を生成する。前景画像生成部1013は、カメラ910nの撮像画像のうち、シルエット画像(n)内でフラグが立っている画素を抽出することにより、カメラ910nの前景画像を生成する。
S1207において、背景画像生成部1014は、受信部1003が受信した変換画像(m→n)と、S1202で生成された変換画像(o→n)とを用いて、カメラ910nの撮像画像(n)におけるオブジェクトに対応する領域の背景領域の画素値を抽出する。具体的には、背景画像生成部1014は、変換画像(m→n)と変換画像(o→n)から、S1205で生成したシルエット画像(n)を用い、シルエット画像(n)内でフラグが立っている画素を抽出する。
S1208において、背景画像生成部1014は、S1207で抽出した背景領域の画素値に基づいて、背景画像を生成する。この処理では、抽出した背景領域の画素値を、対応するカメラ910nの撮像画像(n)のオブジェクトの領域に上書きすることで、オブジェクトの領域を消している。
S1209において、S1206で生成された前景画像と、S1208で生成された背景画像と、S1205で生成されたシルエット画像(n)とを送信部1005に出力する。
このようにして、本実施形態では、図11(a)のアダプタ920oにおいて、1つ上流に位置するカメラ910nの前景画像と背景画像が生成される。これをすべてのアダプタで行うことで、各カメラの前景画像と背景画像が生成される。ただし、最も下流に位置するカメラの前景画像と背景画像は、サーバ装置950で生成するようにする。このため、サーバ装置950は、上述した前景背景生成部の機能を有している(不図示)。
なお、上記では、カメラにより取得された撮像画像から、そのカメラと対応するアダプタ内の変換画像生成部において2つの変換画像が生成されたが、この2つの変換画像の少なくとも一方は1つ下流のアダプタ内の変換画像生成部で生成されるようにしてもよい。
また、本実施形態のアダプタは、2つ上流のアダプタで生成された変換画像と1つ上流のアダプタに対応するカメラの撮像画像とを受信する構成を示した。しかし、1つ上流のアダプタにおいて、2つ上流のアダプタで生成された変換画像と1つ上流のアダプタに対応するカメラの撮像画像との差分画像を生成するようにしてもよい。この構成により、送信するデータ量を削減することができる。
また、前景画像及び背景画像の生成に用いられる複数の撮像画像は、互いに近傍に位置するカメラで取得された撮像画像でなくてもよい。
本実施形態によれば、画像処理装置であるアダプタが複数あって、それらがデイジーチェーン型で接続する場合であっても、適切な背景画像を生成することができる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC:Application Specific Integrated Circuit)によっても実現可能である。
103 画像処理装置
201 画像受信部
212 シルエット画像生成部
214 背景画像生成部

Claims (19)

  1. 仮想視点画像を生成するために用いられる、異なる方向からの撮像により取得される複数の撮像画像に基づいて少なくともオブジェクトとは異なる背景を表す背景画像を生成する画像処理装置であって、
    前記異なる方向からの撮像により取得された第1撮像画像と第2撮像画像とを含む前記複数の撮像画像を取得する取得手段と、
    前記取得手段により取得された前記第1撮像画像と前記第2撮像画像とに基づいて、前記第1撮像画像におけるオブジェクトの領域を示す領域情報を生成する第1生成手段と、
    前記取得手段により取得された前記第1撮像画像と前記第2撮像画像と、前記第1生成手段により生成されたオブジェクトの領域を示す領域情報とに基づいて、少なくとも前記オブジェクトとは異なる背景を表す背景画像を生成する第2生成手段と、を有することを特徴とする画像処理装置。
  2. 前記取得手段により取得された前記第2撮像画像を射影変換して画像を生成する第3生成手段を、さらに有し、
    前記第2生成手段は、前記取得手段により取得された第1撮像画像と、前記第3生成手段により生成された画像と、前記第1生成手段により生成されたオブジェクトの領域を示す領域情報とに基づいて、前記背景画像を生成することを特徴とする請求項1に記載の画像処理装置。
  3. 前記第2生成手段は、前記第1生成手段により生成されたオブジェクトの領域を示す領域情報に基づいて、前記第3生成手段により生成された画像から前記オブジェクトの領域に対応する画素値を取得し、前記画素値と、前記取得手段により取得された前記第1撮像画像とに基づいて、前記背景画像を生成することを特徴とする請求項2に記載の画像処理装置。
  4. 前記第2生成手段は、前記取得手段により取得された前記第1撮像画像における前記オブジェクトの領域に対応する画素の画素値を、前記第3生成手段により生成された画像から取得された前記画素値に置き換えて、前記背景画像を生成することを特徴とする請求項3に記載の画像処理装置。
  5. 前記第3生成手段により生成された画像は、前記第2撮像画像の少なくとも前記オブジェクトの領域とは異なる領域を、前記第1撮像画像の少なくとも前記オブジェクトの領域とは異なる領域と対応するように前記第2撮像画像が射影変換された画像であることを特徴とする請求項2乃至4のいずれか1項に記載の画像処理装置。
  6. 前記第1生成手段は、前記取得手段により取得された第1撮像画像と、前記第3生成手段により生成された画像とに基づいて、オブジェクトの領域を示す領域情報を生成することを特徴とする請求項2乃至5のいずれか1項に記載の画像処理装置。
  7. 前記複数の画像は、前記第1撮像画像と前記第2撮像画像を取得するための撮像における方向とは異なる方向からの撮像により取得された第3撮像画像を含み、
    前記第3生成手段は、前記取得手段により取得された前記第3撮像画像に基づいて画像を生成し、
    前記第1生成手段は、前記取得手段により取得された前記第1撮像画像と、前記第2撮像画像に基づき前記第3生成手段により生成された画像と、前記第3撮像画像に基づき前記第3生成手段により生成された画像とに基づいて、前記オブジェクトの領域を示す領域情報を生成することを特徴とする請求項2乃至6のいずれか1項に記載の画像処理装置。
  8. 前記第1生成手段は、前記取得手段により取得された第1撮像画像と前記第2撮像画像に基づき前記第3生成手段により生成された画像との差分画像と、前記取得手段により取得された第1撮像画像と前記第3撮像画像に基づき前記第3生成手段により生成された画像との差分画像とに基づいて、前記オブジェクトの領域を示す領域情報を生成することを特徴とする請求項7に記載の画像処理装置。
  9. 前記取得手段は、前記第1撮像画像を取得する第1取得手段と、前記第2撮像画像を取得する第2取得手段とを有し、
    前記第1取得手段は、別の第1画像処理装置に対応する撮像装置により取得された前記第1撮像画像を取得し、
    前記第2取得手段は、前記画像処理装置に対応する撮像装置により取得された第2撮像画像を取得することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. 前記第1取得手段は、別の第2画像処理装置に対応する撮像装置により取得された撮像画像に基づく画像をさらに取得することを特徴とする請求項9に記載の画像処理装置。
  11. 前記画像処理装置と前記別の第1画像処理装置とは、デイジーチェーン型で接続されていることを特徴とする請求項9に記載の画像処理装置。
  12. 前記第2撮像画像は、前記第1撮像画像を取得する撮像装置の隣に配置された撮像装置により取得されることを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
  13. 前記第1生成手段が生成するオブジェクトの領域を示す領域情報に基づく指標に基づいて、前記複数の撮像画像から前記第2撮像画像を選択する選択手段をさらに有し、
    前記第1生成手段は、前記第1撮像画像と前記選択手段により選択された第2撮像画像とに基づいて、前記第1撮像画像におけるオブジェクトの領域を示す領域情報を生成することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  14. 前記オブジェクトは、同じ方向から時系列で前記撮像を行った場合の各画像内においてその位置が変化し得る動体であることを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。
  15. 仮想視点画像を生成するために用いられる、異なる方向からの撮像により取得される複数の撮像画像に基づいて少なくともオブジェクトとは異なる背景を表す背景画像を生成する画像処理装置の制御方法であって、
    異なる方向からの撮像により取得された第1撮像画像と第2撮像画像とを含む複数の撮像画像を取得する取得工程と、
    前記取得工程により取得された前記第1撮像画像と前記第2撮像画像とに基づいて、前記第1撮像画像におけるオブジェクトの領域を示す領域情報を生成する第1生成工程と、
    前記取得工程により取得された前記第1撮像画像と前記第2撮像画像と、前記第1生成工程により生成されたオブジェクトの領域を示す領域情報とに基づいて、少なくともオブジェクトとは異なる背景を表す背景画像を生成する第2生成工程と、を有することを特徴とする制御方法。
  16. 前記取得工程により取得された前記第2撮像画像を射影変換して画像を生成する第3生成工程を、さらに有し、
    前記第2生成工程は、前記取得工程により取得された第1撮像画像と、前記第3生成工程により生成された画像と、前記第1生成工程により生成されたオブジェクトの領域を示す領域情報とに基づいて、前記背景画像を生成することを特徴とする請求項15に記載の制御方法。
  17. 前記取得工程は、前記第1撮像画像を取得する第1取得工程と、前記第2撮像画像を取得する第2取得工程とを有し、
    前記第1取得工程は、別の画像処理装置に対応する撮像装置により取得された前記第1撮像画像を取得し、
    前記第2取得工程は、前記画像処理装置に対応する撮像装置により取得された前記第2撮像画像を取得することを特徴とする請求項15又は16に記載の制御方法。
  18. 前記取得工程は、前記第1撮像画像と前記第2撮像画像とを含む前記複数の撮像画像を取得し、
    前記第1生成工程が生成するオブジェクトの領域を示す領域情報に基づく指標に基づいて、前記複数の撮像画像から前記第2撮像画像を選択する選択工程をさらに有することを特徴とする請求項15又は16に記載の制御方法。
  19. コンピュータを、請求項1乃至14のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2018174919A 2018-09-19 2018-09-19 画像処理装置、制御方法、及びプログラム Pending JP2020046944A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018174919A JP2020046944A (ja) 2018-09-19 2018-09-19 画像処理装置、制御方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018174919A JP2020046944A (ja) 2018-09-19 2018-09-19 画像処理装置、制御方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2020046944A true JP2020046944A (ja) 2020-03-26

Family

ID=69901538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018174919A Pending JP2020046944A (ja) 2018-09-19 2018-09-19 画像処理装置、制御方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2020046944A (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170487A (ja) * 2010-02-17 2011-09-01 Kddi Corp 大空間カメラ配置における幾何情報に基づく仮想視点画像生成方法およびプログラム
JP2016192122A (ja) * 2015-03-31 2016-11-10 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2016213578A (ja) * 2015-04-30 2016-12-15 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラム
JP2018077674A (ja) * 2016-11-09 2018-05-17 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170487A (ja) * 2010-02-17 2011-09-01 Kddi Corp 大空間カメラ配置における幾何情報に基づく仮想視点画像生成方法およびプログラム
JP2016192122A (ja) * 2015-03-31 2016-11-10 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2016213578A (ja) * 2015-04-30 2016-12-15 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラム
JP2018077674A (ja) * 2016-11-09 2018-05-17 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Similar Documents

Publication Publication Date Title
US11217006B2 (en) Methods and systems for performing 3D simulation based on a 2D video image
US10582191B1 (en) Dynamic angle viewing system
JP7179515B2 (ja) 装置、制御方法、及びプログラム
WO2019111817A1 (ja) 生成装置、生成方法及びプログラム
JP6938123B2 (ja) 表示制御装置、表示制御方法及びプログラム
US11677925B2 (en) Information processing apparatus and control method therefor
US11627251B2 (en) Image processing apparatus and control method thereof, computer-readable storage medium
JP2019215622A (ja) データ生成装置、画像処理装置、方法およびプログラム
JP2020086983A (ja) 画像処理装置、画像処理方法、及びプログラム
JP7476375B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2018191254A (ja) 画像処理装置、画像処理方法、情報処理装置、撮像装置および画像処理システム
JP2019036791A (ja) 画像処理装置、画像処理システム、制御方法、及び、プログラム
JP6812181B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP2008217593A (ja) 被写体領域抽出装置及び被写体領域抽出プログラム
JP6821398B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2020187529A (ja) 画像処理装置、画像処理システム、制御方法、および、プログラム
JP2020046944A (ja) 画像処理装置、制御方法、及びプログラム
JP2020135290A (ja) 画像生成装置、画像生成方法、画像生成システム、及びプログラム
KR20230017745A (ko) 화상 처리장치, 화상 처리방법, 및 기억매체
JP2020067815A (ja) 画像処理装置、画像処理方法およびプログラム
JP7296735B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2021144522A (ja) 画像処理装置、画像処理方法、プログラム、及び画像処理システム
JP7476160B2 (ja) 情報処理装置、情報処理システム、及びプログラム
EP4295930A1 (en) Image processing system, image processing method, and computer program
US20240037843A1 (en) Image processing apparatus, image processing system, image processing method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220920

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230117