JP2019185178A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2019185178A
JP2019185178A JP2018071723A JP2018071723A JP2019185178A JP 2019185178 A JP2019185178 A JP 2019185178A JP 2018071723 A JP2018071723 A JP 2018071723A JP 2018071723 A JP2018071723 A JP 2018071723A JP 2019185178 A JP2019185178 A JP 2019185178A
Authority
JP
Japan
Prior art keywords
imaging
image
region
captured
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018071723A
Other languages
English (en)
Other versions
JP7163049B2 (ja
Inventor
宗浩 吉村
Munehiro Yoshimura
宗浩 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018071723A priority Critical patent/JP7163049B2/ja
Priority to US16/359,736 priority patent/US11250581B2/en
Publication of JP2019185178A publication Critical patent/JP2019185178A/ja
Application granted granted Critical
Publication of JP7163049B2 publication Critical patent/JP7163049B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)

Abstract

【課題】撮影領域に照射される光が急激に変化した場合でも、より高精度にオブジェクトの形状を決定することを目的とする。【解決手段】それぞれ異なる視点からオブジェクトを撮影する複数の撮像部に含まれる撮像部により撮影された画像から、前記画像が撮影された際の前記撮像部の撮影対象の領域に照射された光に応じた手法で、前記オブジェクトの領域を分離する分離手段と、前記複数の撮像部のそれぞれにより撮影された複数の画像それぞれから前記分離手段により分離された前記オブジェクトの領域に基づいて、前記オブジェクトの形状を決定する決定手段と、を有する。【選択図】図5

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。
従来、画像に含まれるオブジェクトを抽出する方法として、オブジェクトが含まれる画像とオブジェクトが含まれない背景のみの背景画像との差分をとってオブジェクトを抽出する背景差分法等の手法が知られている。このような手法は、複数視点のオブジェクト領域から視体積交差法によりオブジェクトの形状を取得する際等に用いられる。背景差分法等の手法を用いたオブジェクト抽出では、背景画像と異なる色・輝度値の画素をオブジェクトが存在する画素として抽出する。オブジェクト、背景を含むシーン全体に照射される光が一定であれば、高精度にオブジェクトを抽出することが可能である。しかし、照明環境の変化等が原因でオブジェクトと同時に背景の色も逐次変化する場合、オブジェクト抽出精度が低下するという課題がある。この課題に対し、特許文献1では、画像の変動量に基づいて、オブジェクト抽出時の閾値を更新することにより、画素値の時系列変動に応じたオブジェクト抽出を実現している。
特開平10−21408号公報
オブジェクトをそれぞれ異なる視点から撮影する複数の撮像部それぞれにより撮影された複数の画像それぞれからオブジェクトの領域を分離して、この複数の画像それぞれから分離されたオブジェクトの領域を用いて、オブジェクトの形状を決定することが行われている。撮像部の撮影領域において、フラッシュの点灯、照明機器から照射される照明の急激な変化等により撮影領域に照射される光が急激に変化する場合がある。このような場合、特許文献1の技術では、撮像部により撮影された画像からオブジェクトを高精度に分離することができない。そのため、オブジェクトの形状を高精度に決定できなかった。
本発明は、撮影領域に照射される光が変化した場合でも、より高精度にオブジェクトの形状を決定できるようにすることを目的とする。
本発明の情報処理装置は、それぞれ異なる視点からオブジェクトを撮影する複数の撮像部に含まれる撮像部により撮影された画像から、前記画像が撮影された際の前記撮像部の撮影対象の領域に照射された光に応じた手法で、前記オブジェクトの領域を分離する分離手段と、前記複数の撮像部のそれぞれにより撮影された複数の画像それぞれから前記分離手段により分離された前記オブジェクトの領域に基づいて、前記オブジェクトの形状を決定する決定手段と、を有する。
本発明によれば、撮影領域に照射される光が変化する場合でも、より高精度にオブジェクトの形状を決定することができる。
情報処理装置のハードウェア構成等の一例を示す図である。 撮像装置の配置状況の一例を示す図である。 分離が適切に行われない場合の一例を説明する図である。 情報処理装置の機能構成等の一例を示す図である。 情報処理装置の処理の一例を示すフローチャートである。 効果の一例を説明する図である。 情報処理装置の処理の一例を示すフローチャートである。 情報処理装置の処理の一例を示すフローチャートである。 撮像装置の配置状況の一例を示す図である。 分離が適切に行われない場合の一例を説明する図である。 情報処理装置の機能構成等の一例を示す図である。 情報処理装置の処理の一例を示すフローチャートである。 照明機器の照射状況と撮像装置の画素との対応を示すテーブルの一例を示す図である。
以下に、本発明の実施の形態を、図面を用いて詳細に説明する。
<実施形態1>
図1は、情報処理装置100のハードウェア構成等の一例を示す図である。情報処理装置100は、それぞれ視点の異なる複数の撮像装置108と接続され、撮像装置108から取得した画像からオブジェクトの領域を分離し、分離したオブジェクトの領域に基づいて、オブジェクトの形状を決定する情報処理装置である。情報処理装置100は、例えば、パーソナルコンピュータ、サーバ装置、タブレット装置、スマートホン、デバイスに組み込まれたコンピュータ等の情報処理装置である。また、情報処理装置100は、ネットワークカメラ等の撮像装置であってもよい。
情報処理装置100は、CPU101、RAM102、ROM103、二次記憶装置104、入力インターフェース105、出力インターフェース106を含む。そして、各要素は、システムバス107を介して、相互に通信可能に接続されている。
CPU101は、情報処理装置100を制御する中央演算装置である。Random Access Memory(RAM)102は、CPU101のワークエリアやデータの一時的な記憶場所として機能する記憶装置である。Read Only Memory(ROM)は、情報処理装置100の各要素を制御するためのプログラム等を記憶する記憶装置である。CPU101は、RAM102をワークエリアとして、ROM103に格納されたプログラムを実行し、システムバス107を介して情報処理装置100の各構成部を統括的に制御することとなる。
二次記憶装置104は、各種プログラム、各種設定情報、撮像装置108から取得した画像等を記憶するハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、フラッシュメモリ、光ディスクドライブ等の記憶装置である。CPU101は、システムバス107を介して、二次記憶装置104へのデータの書き込み、二次記憶装置104に記憶されたデータの読出しを行うことができる。
入力インターフェース105は、例えば、USBやIEEE1394等のシリアルバスインターフェースであり、外部の装置から情報処理装置100へのデータや命令等の入力に用いられる。情報処理装置100は、入力インターフェース105を介して、複数の撮像装置108のそれぞれ、外部記憶装置109等と接続されている。CPU101は、入力インターフェース105を介して、撮像装置108から各種データ(例えば、撮像装置108が撮像した画像(静止画及び動画)、撮像装置108の撮像条件に関するパラメータ等のデータ)を取得する。また、CPU101は、入力インターフェース105を介して、外部記憶装置109(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ等の記憶媒体)からデータを取得する。
出力インターフェース106は、入力インターフェース105と同様にUSBやIEEE1394等のシリアルバスインターフェースであり、外部の装置への情報の出力に用いられる。また、出力インターフェース106は、例えば、DVIやHDMI(登録商標)等の映像出力端子であってもよい。情報処理装置100は、出力インターフェース106を介して、外部記憶装置109、表示装置110等と接続されている。CPU101は、出力インターフェース106を介して、表示装置110(液晶ディスプレイ等の各種画像表示デバイス)に、処理された画像等を出力することで、画像の表示を行う。
CPU101が、ROM103、二次記憶装置104等に記憶されたプログラムに従って処理を実行することで、図4、11で後述する情報処理装置100の機能、図5、7、8、12で後述するフローチャートの処理等が実現される。
図2は、複数の撮像装置108それぞれが配置されている状況の一例を示す図である。撮像装置108それぞれは、例えば、ネットワークカメラ、監視カメラ等の撮像装置(撮像部)である。複数の撮像装置108それぞれは、予め定められた領域をそれぞれ異なる視点で撮影するように配置されている。図2の例では、この領域は、2人の人物であるオブジェクト201が存在するステージである。
図2(a)は、撮影対象の領域を斜め上から見た状況の一例を示す図である。図2(a)は、予め定められた領域を真上から見た状況の一例を示す図である。図2の状況は、ステージを囲むように配置された複数の撮像装置108により、ステージ上にいるオブジェクト201が撮影されている状況である。オブジェクト201はステージ上で演技、歌唱、運動等を行っており、その様子が撮像装置108により撮影されている。
図2における座標系202は、この領域内に定められている座標系であり、撮像装置108の位置等を表す際に用いられる座標系である。例えば、撮像装置108の位置は、座標系202における座標値として表される。カメラ203は、フラッシュ機能を備え、情報処理装置100とは独立した系で稼動しているオブジェクト201の動きを単視点で撮影するカメラである。
ここで図2に示すような状況で生じうる問題について、図3を用いて説明する。カメラ203は、オブジェクトをより鮮明に撮影するため、撮影時にフラッシュを点灯する。図2ではステージ上でオブジェクトである人が動作するシーンを例にとって説明したが、本実施形態の処理は、ある人間以外の物体を取り囲んで撮像装置108を配置し、その物体の形状を復元する等のシーンにも適用可能である。
図3(a)の画像は、撮像装置108の1つで撮影された撮影対象領域の背景画像である。ここで、背景画像とは、撮像装置の撮影対象の領域の画像であってオブジェクトが存在していない画像である。
図3(b)、(c)の画像は、同じ撮像装置108で撮影されたオブジェクト201が含まれる画像である。ここで図3(b)の画像が撮影された時点では、カメラ203による撮影は行われておらず、カメラ203のフラッシュは点灯していない。図3(c)の画像が撮影された時点では、カメラ203によりフラッシュ点灯を伴う撮影が行われており、オブジェクト201とステージの一部とがカメラ203のフラッシュを受けて明るくなっている。
図3(d)、(e)の画像は、それぞれ図3(b)、(c)の画像に対して、図3(a)の背景画像を用いて背景差分法の処理を行った結果を示す画像である。図3(d)の画像を見ると、背景差分法によってオブジェクト201のみが分離されていることが分かる。しかし、図3(e)の画像を見ると、点灯されたカメラ203のフラッシュの影響で、オブジェクト201以外にステージの一部が抽出されていることが分かる。
図3(d)の画像と同等にフラッシュの影響を受けずにオブジェクト201を分離した複数視点の背景差分の結果を入力データとした視体積交差法(Visual Hull)等の手法でオブジェクト201の形状を決定すれば、高精度にオブジェクト201の形状を決定できる。しかし、図3(e)の画像のようにフラッシュの影響でオブジェクト201以外の部分を分離した背景差分の結果を入力データとした場合、オブジェクト201の形状を精度よく決定することは困難である。例えば、オブジェクト201の膝下の部分が、正確な形状でなく、1つの塊のような形状として分離されているため、正確に足の形状を取得することは困難である。
以下では図4、図5を用いて、本実施形態の情報処理装置100の処理について説明する。
図4は、情報処理装置100の機能構成等の一例を示す図である。情報処理装置100は、撮像データ群取得部401、照明情報取得部402、分離手法決定部403、分離部404、パラメータ取得部405、形状決定部406を含む。
撮像データ群取得部401は、撮像装置108それぞれから撮像装置108それぞれにより撮影された画像のデータを取得する。
照明情報取得部402は、撮像データ群取得部401により取得された画像に基づいて、撮像装置108の撮影対象の領域にどのような光が照射されているかを示す情報である照明情報を取得する。
分離手法決定部403は、照明情報取得部402により取得された照明情報に基づいて、撮像装置108により撮影された画像からオブジェクトを分離する際に用いる手法を決定する。
分離部404は、分離手法決定部403により決定された手法を用いて、撮像装置108により撮影された画像からオブジェクトの領域を分離する。
パラメータ取得部405は、入力インターフェース105を介して、撮像装置108それぞれから撮像装置108それぞれの内部パラメータ・外部パラメータ・歪曲パラメータ等のカメラパラメータを取得する。内部パラメータとは、画像中心の座標値やカメラのレンズの焦点距離等のパラメータである。外部パラメータとは、カメラの位置と向きを表すパラメータである。歪曲パラメータとは、カメラのレンズの歪曲を表すパラメータである。カメラパラメータは、複数視点の画像データを元にstructure from motionによって推定されることとしてもよいし、予めチャート等を用いたキャリブレーションを行うことで算出されることとしてもよい。また、パラメータ取得部405は、二次記憶装置104から、撮像装置108それぞれの内部パラメータ・外部パラメータ・歪曲パラメータ等のカメラパラメータを取得することとしてもよい。
形状決定部406は、パラメータ取得部405により取得された撮像装置108それぞれのカメラパラメータと、分離部404により分離されたオブジェクトの領域と、に基づいて、オブジェクトの形状を決定する。
図5を用いて、情報処理装置100の各機能構成部により行われる処理の流れを説明する。図5は、情報処理装置100の処理の一例を示すフローチャートである。
S501において、撮像データ群取得部401は、入力インターフェース105を介して、複数の撮像装置108それぞれにより撮影された時間的に連続した多視点の画像データ群を取得する。本実施形態では、16台の撮像装置108が存在するとする。撮像装置108それぞれは、同期したタイミングで、60fpsで10秒間の動画(600枚のフレーム(静止画))を撮影する。即ち、撮像データ群取得部401は、600枚×16台の画像のデータを取得する。撮像データ群取得部401は、取得した画像データを、照明情報取得部402と分離部404とに出力する。
S502において、照明情報取得部402は、撮像データ群取得部401から取得した画像データに基づいて、各撮像装置108について、各フレームが撮影された際に各撮像装置108の撮影対象の領域に照射された光の情報である照明情報を取得する。本実施形態では、照明情報は、複数の撮像装置108について、各フレームが撮影された際に各撮像装置108の撮影対象の領域に照射された光が、カメラのフラッシュ等の瞬間的に照射される光を含んでいるか否かを示す情報であるとする。カメラのフラッシュは、短期光の一例である。短期光とは、予め定められた閾値以下の期間の間だけ照射される光であり、カメラのフラッシュ、火花の光、雷の光等の光である。本実施形態では、撮像装置108それぞれの撮影対象の領域には、カメラのフラッシュが照射されることがあるとする。
照明情報取得部402は、各撮像装置108について、各撮像装置108により撮影されたフレームの中から、撮影の際に撮影対象の領域にカメラのフラッシュが照射されていたフレームを特定する。そして、照明情報取得部402は、特定したフレームの情報(そのフレームを撮影した撮像装置108を示す情報(例えば、撮像装置108のID等の識別情報)、及びフレームの識別情報(例えばフレーム番号))を、照明情報として取得する。本実施形態では、照明情報取得部402は、以下の式(1)〜(3)を満たすフレームをフラッシュの影響をうけたフレームとして特定する。
Figure 2019185178
式(1)、式(2)中のI(f、u、v)は、フレームfの画像の座標(u、v)の画素の輝度値を示す。式(1)、式(2)、式(3)中のf、f'は、フレーム番号を示す。フレーム番号とは、フレームが何番目のフレームであるかを示す番号である。式(1)、式(2)中のu、vは、画像内における座標値を示す。式(1)、式(2)、式(3)中のα、β、χは、それぞれ予め定められた閾値を示す。
フラッシュの影響を受けたか否かの検査対象となるフレームをfとする。式(1)は、同じ撮像装置108により撮影されたフレームf−1(フレームfの1つ前に撮影されたフレーム)とフレームfとの座標(u、v)の輝度値に閾値α以上の差があるか否かを検出する際に用いられる式である。照明情報取得部402は、式(1)を用いて、フレームfが撮影された時点において、フレームf−1が撮影された時点と比べて、輝度の急峻な上昇があったか否かを判定できる。
フレームf'は、フレームfよりも後に同一の撮像装置108により撮影されたフレームである。式(2)は、同じ撮像装置108により撮影されたフレームf'−1(フレームf'の1つ前に撮影されたフレーム)とフレームf'との座標(u、v)の輝度値に閾値α以上の差があるか否かを検出する際に用いられる式である。照明情報取得部402は、式(2)を用いて、フレームf'が撮影された時点において、フレームf'−1が撮影された時点と比べて、輝度の急峻な下降があったか否かを判定できる。
照明情報取得部402は、例えば、フレームfが式(1)を満たすと判定した場合、フレームf'を、フレームf+1として初期化する。そして、照明情報取得部402は、フレームf'について、式(2)を満たすか否かを判定し、式(2)を満たさないと判定した場合、フレームf'のフレーム番号を1つインクリメントすることで、フレームf'を更新する。即ち、フレームf'がフレームf+1である場合、フレームf+2に更新される。そして、照明情報取得部402は、再度、フレームf'について、式(2)を満たすか否かを判定する。照明情報取得部402は、以上の処理を式(2)を満たすフレームf'が現れるまで繰り返すことで、式(2)を満たすフレームf'を検出する。
照明情報取得部402は、式(2)を満たすフレームf'を検出した場合、フレームfとフレームf'とが式(3)を満たすか否か(フレームfとフレームf'のフレーム間隔がβ(例えば、1、2等)以上χ(例えば、5、6等)以下であるか否か)を判定する。そして、照明情報取得部402は、フレームfとフレームf'とが式(3)を満たすと判定した場合、フレームf、フレームf+1、・・・、フレームフレームf'−1を、フラッシュの影響を受けたフレームとして特定する。
式(1)〜(3)を満たすということは、予め定められた閾値以下の期間(例えばχ個のフレーム間隔に想到する期間以下の期間)照射される予め定められた強度以上の光が撮影対象の領域に照射されたこととなる。照明情報取得部402は、式(1)〜(3)を満たすフレームfとフレームf'とを検出することで、このような光の影響を受けたフレームを特定することができる。
そして、照明情報取得部402は、フラッシュの影響を受けたフレームとして特定したフレームに対応する撮像装置108を示す情報と、そのフレームのフレーム番号の情報と、を対応付けて照明情報として、分離手法決定部403に出力する。
本実施形態では、照明情報取得部402は、以上のような処理でフラッシュの影響を受けたフレームを特定して、照明情報を取得し、出力することとした。しかし、照明情報取得部402は、例えば、背景差分法により前景背景分離をフレーム番号が隣接する全フレーム間で行い、前景領域サイズが急激に増加したフレームをフラッシュの影響により輝度変化が発生したフレームであると特定することとしてもよい。
S503において、分離手法決定部403は、複数の撮像装置108それぞれにより撮影された全てのフレーム(S501で取得された全てのフレーム)それぞれに対してS504〜S506の処理が実行されるよう制御する。より具体的には、分離手法決定部403は、S501で取得された全てのフレームのうち、S504〜S506の処理の対象となるフレームを1つ選択する。以下では、選択されたフレームを選択フレームとする。
そして、選択フレームについてS504〜S506の処理が完了した場合、分離手法決定部403は、S501で取得された全てのフレームの中から選択フレームとして選択されたことのないフレームを新たな選択フレームとして選択する。分離手法決定部403は、以上の処理を、S501で取得された全てのフレームについて、S504〜S506の処理が完了するまで繰り返す。
S504において、分離手法決定部403は、S502で取得された照明情報に基づいて、各撮像装置108により撮影された各フレームからオブジェクトの領域を分離するための手法を決定する。本実施形態では、照明情報とは、フラッシュが照射された領域を撮影した撮像装置の番号と撮影されたフレームのフレーム番号である。そこで、分離手法決定部403は、選択フレームに対応する撮像装置の番号と選択フレームに対応するフレーム番号との対応情報が照明情報に含まれるか否かを判定する。
分離手法決定部403は、選択フレームに対応する撮像装置の番号と選択フレームに対応するフレーム番号との対応情報が照明情報に含まれると判定した場合、選択フレームに対するオブジェクトの分離の手法をS506の手法に決定し、S506の処理に進む。分離手法決定部403は、選択フレームに対応する撮像装置の番号と選択フレームに対応するフレーム番号との対応情報が照明情報に含まれないと判定した場合、選択フレームに対するオブジェクトの分離の手法をS505の手法に決定し、S505の処理に進む。
S505において、分離部404は、フラッシュの影響を受けていない選択フレームに対してオブジェクトの領域を分離する処理を行う。本実施形態では、分離部404は、フラッシュの影響を受けていないフレームに対して、背景差分法を用いてオブジェクトの領域を分離する。背景差分法とは、オブジェクトのいない背景画像とオブジェクトの含まれる画像とを比較し、色、輝度の違いにより、前景領域を抽出する手法である。この処理により、背景領域とオブジェクト領域を分離することが可能となる。本実施形態では、分離部404は、例えば、S501で取得された同一の撮像装置により撮影された時間的に連続した複数の画像を入力とし、画像中の各画素について、この複数の画像の画素値を特定し、特定した画素値の中間値を求める。そして、分離部404は、画像中の各画素の画素値が、求めた中間値である画像を背景画像として生成する。
そして、分離部404は、生成した背景画像の画素の画素値と選択フレームの同じ画素の画素値とを比較し、閾値以上であればその画素の領域を、オブジェクトの領域であるとして分離する。本実施形態では、分離部404は、各撮像装置108により撮影された画像に基づいて各撮像装置108により撮影された画像に用いられる背景画像を生成した。しかし、分離部404は、例えば、事前にオブジェクトがいない状態で、各撮像装置108を介して、撮影対象の領域を撮影することで、背景画像を生成してもよい。
分離部404は、形状決定部406へと分離したオブジェクトの領域の情報を出力する。オブジェクトの領域の情報は、例えば、画像中でオブジェクトが存在する領域を白、オブジェクトの存在しない背景領域を黒とした2値画像(シルエットデータ)である。
S506において、分離部404は、フラッシュの影響をうけた選択フレームに対してオブジェクトの領域を分離する処理を行う。本実施形態では、分離部404は、フラッシュの影響をうけた選択フレームに対するオブジェクトの領域の分離処理の結果として、以下のものを用いる。即ち、分離部404は、選択フレームと同じ撮像装置108により撮影された1つ前のフレームに対するオブジェクトの領域の分離処理の結果をそのまま用いる。ここで、選択フレームの1つ前のフレームがフラッシュの影響を受けている場合が生じうる。しかし、選択フレームの1つ前のフレームについてのオブジェクトの領域の分離の結果は、その更に1つ前のフレームについてのオブジェクトの領域の分離の結果が適用される。このように、分離部404は、フラッシュの影響を受けたフレームについてのオブジェクトの領域の分離の結果を、
解像度:4096×2160、フレームレート:60fpsのカメラでオブジェクトとなる人物を画像中で縦1/8の大きさになるように撮影した場合、人間の移動速度は約4km/h程であるため、フレーム間でオブジェクトは、約2.8画素移動することとなる。実際のオブジェクト位置から2.8画素ずれた位置でオブジェクトが分離されることとなるが、2.8画素のずれは、解像度:4096×2160の画像においては微小なずれとみなせる。そのため、本実施形態のように時間的に連続したフレーム(60fps)についてオブジェクトの分離を行い、オブジェクトの形状を決定する場合においては、隣接するフレーム間のオブジェクトの位置の微小なずれは無視できる。分離部404は、形状決定部406へとオブジェクトの領域の分離の結果を出力する。
本実施形態では、分離部404は、S506で、以上のような手法でフラッシュの影響をうけたフレームからオブジェクトの領域を分離した。しかし、分離部404は、例えば、フラッシュの影響を受けたフレームについてのオブジェクトの領域の分離結果として、このフレームの1つ前のフレーム以外のこのフレームと異なる時点に撮影されたフレームについてのオブジェクトの領域の分離結果を適用してもよい。例えば、分離部404は、フラッシュの影響を受けたフレームについてのオブジェクトの領域の分離結果として、このフレームの後に撮影されたフラッシュの影響を受けていないフレームについてのオブジェクトの領域の分離結果を適用してもよい。例えば、分離部404は、フラッシュの影響を連続する2フレームがうけた場合、以下のようにしてもよい。即ち、分離部404は、1フレーム目については対象のフレームの1つ前のフレームについてのオブジェクトの領域の分離結果を適用し、2フレーム目については対象のフレームの1つ後のフレームについてのオブジェクトの領域の分離結果を適用することとしてもよい。
また、分離部404は、フラッシュの影響を受けたフレームについてのオブジェクトの領域の分離結果を、このフレームと異なる時点に撮影された複数のフレームそれぞれについてのオブジェクトの領域の分離結果に基づいて生成してもよい。例えば、分離部404は、フラッシュの影響を1つのフレームが受けた場合、対象のフレームの1つ前のフレームについてのオブジェクトの領域の分離結果と、対象のフレームの1つ後のフレームについてのオブジェクトの領域の分離結果と、の平均を求める。そして、分離部404は、求めた平均の分離結果を、フラッシュの影響を受けた対象のフレームについてのオブジェクトの領域の分離結果として決定してもよい。
S507において、パラメータ取得部405は、入力インターフェース105を介して各撮像装置108から、又は、二次記憶装置104から、各撮像装置108のカメラパラメータを取得する。パラメータ取得部405は、取得したカメラパラメータを形状決定部406に出力する。
S508において、形状決定部406は、S505又はS506で分離部404から入力されたオブジェクトの領域の情報と、S507でパラメータ取得部405から入力されたカメラパラメータと、に基づいて、オブジェクトの形状を決定する。本実施形態では、形状決定部406は、視体積交差法を用いて、オブジェクトの形状を決定する。視体積交差法による形状決定では、オブジェクトが存在する可能性のる空間中のサンプリング点をオブジェクトの領域の分離結果(シルエットデータ)に射影し、複数視点で共通してシルエットに含まれるかを検証することにより、オブジェクトの形状を復元する。視体積交差法において、空間中のサンプリング幅を小さくすることにより高精度な形状復元が可能である。形状決定部406は、決定したオブジェクトの形状の情報を、例えば、表示装置110に表示することで出力する。また、形状決定部406は、決定したオブジェクトの形状の情報を、二次記憶装置104に記憶することで出力することとしてもよい。また、形状決定部406は、決定したオブジェクトの形状の情報を、外部の情報処理装置等の予め定められた送信先に送信することで出力することとしてもよい。
本実施形態では、情報処理装置100は、撮像装置108の撮影対象の領域にカメラのフラッシュが照射された場合について、より精度よくオブジェクトの形状を決定する処理について説明した。しかし、情報処理装置100は、撮像装置108の撮影対象の領域にカメラのフラッシュと異なる短期光(例えば、雷や火花の光等)が照射された場合にも、同様の処理で、オブジェクトの形状をより精度よく決定できる。
以上、本実施形態では、情報処理装置100は、複数の撮像装置108により撮影された画像から、その画像の撮影の際の撮影対象の領域に照射された光に応じた手法を用いて、オブジェクトの領域を分離した。そして、情報処理装置100は、分離したオブジェクトの領域に基づいて、オブジェクトの形状を決定した。これにより、情報処理装置100は、撮像装置108の撮影領域に照射される光が急激に変化した場合でも、より高精度にオブジェクトの形状を決定することができる。
図3で説明したように、フラッシュの影響をうけたフレームで背景差分法によるオブジェクト分離を行うと、図3(e)のようにオブジェクト以外の領域もオブジェクトとして誤って分離される。この分離結果に基づいて決定されたオブジェクトの形状を、ある仮想視点から見た状況の一例を、図6(a)に示す。図6(a)のオブジェクト601のように、実際には何もないところにオブジェクトの一部の形状があるとされ、オブジェクトが立っているステージの形状が変形しているように見える。これは、フラッシュの影響をうけた複数のカメラで誤ったオブジェクト分離結果が取得され、それらを用いて形状が求められたためである。フラッシュを点灯して撮影するカメラの性能、位置等により、オブジェクト601の形状・大きさは変化する。例えば、時間的に連続して撮影した全てのフレームに対し形状取得を行い、時間的に連続した形状として視聴した場合であっても、フラッシュが点灯された間だけ取得する形状が乱れるため、視聴者にとっては大きな違和感となる。
本実施形態では、情報処理装置100は、図3(e)の代わりに図3(d)のようにフラッシュの影響がない画像から分離されたオブジェクトの領域を用いて、オブジェクトの形状を決定した。決定されたオブジェクトの形状を図6(a)と同じ視点から見た状況の一例を図6(b)に示す。図6(a)で現れていた実際にはないオブジェクト601が消えていることがわかる。
<実施形態2>
実施形態1では、フラッシュの影響をうけたフレームのオブジェクト分離結果を、同じカメラの他のフレームのオブジェクト分離結果に基づいて求めることにより、フラッシュが点灯されたタイミングであってもより高精度にオブジェクトの形状を決定する処理について説明した。
しかし、図5のS506で説明したように、オブジェクトが移動している場合、オブジェクトの分離の結果に微小な誤差が生じる。そこで、本実施形態では、オブジェクトの移動により生じる誤差を軽減する処理について説明する。
本実施形態の情報処理装置100のハードウェア構成は、実施形態1と同様である。
本実施形態の情報処理装置100の機能構成は、実施形態1と同様に、撮像データ群取得部401、照明情報取得部402、分離手法決定部403、分離部404、パラメータ取得部405、形状決定部406を含む構成となっている。しかし、照明情報取得部402は、実施形態1と異なる照明情報を取得する。また、分離部404の処理内容は、実施形態1と異なる。
以下では、本実施形態と実施形態1との差異を中心に、本実施形態の処理を説明する。
図7は、本実施形態の情報処理装置100の処理の一例を示すフローチャートである。
S801において、撮像データ群取得部401は、入力インターフェース105を介して、複数の撮像装置108それぞれにより撮影された時間的に連続した多視点の画像データ群を取得する。撮像データ群取得部401は、取得した画像データを、照明情報取得部402と分離部404とに出力する。
S802において、照明情報取得部402は、照明情報を取得する。本実施形態では、照明情報取得部402は、互いに対応付けられた、撮像装置108を示す情報と、フラッシュの影響を受けたフレームの情報(例えば、フレーム番号)と、フラッシュの影響を受けた画素の座標値の情報と、を含む照明情報を取得する。フラッシュの影響を受けた画素の座標値は、例えば、式(1)〜(3)を満たすu、vの情報である。
S803において、パラメータ取得部405は、入力インターフェース105を介して各撮像装置108から、又は、二次記憶装置104から、各撮像装置108のカメラパラメータを取得する。パラメータ取得部405は、取得したカメラパラメータを形状決定部406に出力する。
S804において、分離手法決定部403は、複数の撮像装置108それぞれにより撮影された全てのフレーム(S801で取得された全てのフレーム)それぞれに対してS805〜S507の処理が実行されるよう制御する。より具体的には、分離手法決定部403は、S801で取得された全てのフレームのうち、S805〜S807の処理の対象となるフレームを1つ選択する。以下では、選択されたフレームを選択フレームとする。そして、選択フレームについてS805〜S807の処理が完了した場合、分離手法決定部403は、S801で取得された全てのフレームの中から選択フレームとして選択されたことのないフレームを新たな選択フレームとして選択する。分離手法決定部403は、以上の処理を、S801で取得された全てのフレームについて、S805〜S807の処理が完了するまで繰り返す。
S805において、分離手法決定部403は、S802で取得された照明情報に基づいて、選択フレームからオブジェクトの領域を分離するための手法を決定する。分離手法決定部403は、選択フレームに対応する撮像装置の番号と選択フレームに対応するフレーム番号との対応情報が照明情報に含まれるか否かを判定する。
分離手法決定部403は、選択フレームに対応する撮像装置の番号と選択フレームに対応するフレーム番号との対応情報が照明情報に含まれると判定した場合、選択フレームに対するオブジェクトの分離の手法をS807の手法に決定し、S807の処理に進む。分離手法決定部403は、選択フレームに対応する撮像装置の番号と選択フレームに対応するフレーム番号との対応情報が照明情報に含まれないと判定した場合、選択フレームに対するオブジェクトの分離の手法をS806の手法に決定し、S806の処理に進む。
S806において、分離部404は、S505と同様に、背景差分を用いて、フラッシュの影響を受けていない選択フレームに対してオブジェクトの領域を分離する処理を行う。
S807において、分離部404は、フラッシュの影響をうけた選択フレームに対して、オブジェクトの領域を分離する処理を行う。S807の処理の詳細を、図8に示す。図8は、S807の処理の一例の詳細を示すフローチャートである。
S901において、分離部404は、S803で取得されたカメラパラメータを取得する。
S902において、分離部404は、S901で取得したカメラパラメータを用いて、選択フレームにおけるフラッシュの影響をうけた各画素(選択フレーム中で式(1)〜(3)を満たすとされた座標値(u、v)における画素)の奥行きを算出する。ここで、画素の奥行きとは、選択フレームを撮影した撮像装置108と、その画素に写っているオブジェクトと、の間の距離のことである。選択フレームを撮影した撮像装置108と、その画素に写っているオブジェクトと、の間の距離は、例えば、その撮像装置108の撮像素子におけるその画素に対応する位置とそのオブジェクトとの間の距離である。
分離部404は、S901で取得されたカメラパラメータに基づいて、例えば、仮想レイヤを設定しステレオマッチングの要領でオブジェクトの奥行きを推定するPlane Sweep法等を用いて、選択フレームのフラッシュの影響をうけた各画素の奥行を求める。
S903において、分離部404は、選択フレームの1つ前のフレームについて、選択フレーム中のフラッシュの影響を受けた各画素と同じ座標の各画素とその画素の近傍の画素について、Plane Sweep法等を用いて、奥行きを求める。画素の近傍の画素とは、その画素の周囲に存在する画素であり、例えば、その画素を中心に予め定められた大きさの領域(例えば、11画素×11画素の矩形の領域、9画素×9画素の矩形の領域等)に含まれる画素である。
撮像装置108が撮影の際に、距離センサ等を用いて各画素に対応するオブジェクトと撮像装置108との距離を取得する場合、分離部404は、撮像装置108により取得されたこれらの距離を、S902、S903で各画素の奥行きとして取得してもよい。
S904において、分離部404は、S902とS903とで取得した距離に基づいて、選択フレームにおけるフラッシュの影響をうけた画素の部分についてオブジェクト分離を行う。分離部404は、フラッシュの影響を受けた各画素について、以下の処理を行う。
即ち、分離部404は、フラッシュの影響を受けたある画素と同じ座標の画素とその近傍の画素について、S903で選択フレームの1つ前のフレームから求めた距離それぞれと、選択フレームにおけるその画素についてS902で求めた距離と、を比較する。そして、分離部404は、その画素とその近傍の画素についてS903で選択フレームの1つ前のフレームから求めた距離のうち、選択フレームにおけるその画素についてS902で求めた距離に最も近い距離を特定する。分離部404は、選択フレームの1つ前のフレームにおける特定した距離に対応する画素を、選択フレームにおけるフラッシュの影響を受けたその画素と同じオブジェクトが撮影された画素であると決定する。
そして、分離部404は、選択フレームの1つ前のフレームにおける特定した距離に対応する画素が、オブジェクトの領域であれば、選択フレームにおけるフラッシュの影響を受けたその画素を、オブジェクトの領域として決定する。また、分離部404は、選択フレームの1つ前のフレームにおける特定した距離に対応する画素が、オブジェクトでない背景の領域であれば、選択フレームにおけるフラッシュの影響を受けたその画素を、背景の領域として決定する。
このような処理により、分離部404は、選択フレームにおけるフラッシュの影響を受けた各画素に対応するオブジェクトが、1つ前のフレームにおいてオブジェクトとして分離されたか否かをより精度よく決定できる。これにより、分離部404は、選択フレームにおけるフラッシュの影響を受けた各画素がオブジェクトの領域であるか否かをより精度よく決定できる。
また、分離部404は、選択フレーム中のフラッシュの影響を受けていない各画素については、S806の処理と同様に背景差分法を用いてオブジェクトの領域を分離する。
S808において、形状決定部406は、S806又はS807で分離部404により分離されたオブジェクトの領域の情報と、S803でパラメータ取得部405により取得されたカメラパラメータと、に基づいて、オブジェクトの形状を決定する。本実施形態では、形状決定部406は、視体積交差法を用いて、オブジェクトの形状を決定する。
形状決定部406は、決定したオブジェクトの形状の情報を、例えば、表示装置110に表示することで出力する。また、形状決定部406は、決定したオブジェクトの形状の情報を、二次記憶装置104に記憶することで出力することとしてもよい。また、形状決定部406は、決定したオブジェクトの形状の情報を、外部の情報処理装置等の予め定められた送信先に送信することで出力することとしてもよい。
以上、本実施形態では、情報処理装置100は、フラッシュの影響をうけた画素に対して、フラッシュの影響を受けた画素の奥行きを用いてオブジェクト分離を行う。これにより、情報処理装置100は、実施形態1と比較して、より精度よりオブジェクトの領域を分離することができ、結果として、より精度よくオブジェクトの形状を決定することができる。
<実施形態3>
本実施形態では、例えば、コンサートやライブ等における照明のように複雑に変化する照明の状況に対応するための処理について説明する。
本実施形態の情報処理装置100のハードウェア構成は、実施形態1と同様である。本実施形態の情報処理装置100の機能構成の詳細は、図11で後述する。
以下では、本実施形態と実施形態1との差異を中心に、本実施形態の処理を説明する。
図9は、本実施形態における複数の撮像装置108の配置状況の一例を示す図である。座標系1001は、撮影対象の領域に予め定められた座標系である。撮像シーンにおけるステージの形状や撮像装置108の位置姿勢、照明機器1002、1003の位置姿勢等は、座標系1001における座標やベクトルとして表される。照明機器1002、1003は、ステージに光を照射する照明機器であり、撮像装置108と同期したタイムコードを有する。以下では、照明機器1002、1003が照射する光を照明光とする。また、照明機器1002、1003は、情報処理装置100等の外部の装置からの指示に応じて、照明光の照射角、姿勢、照明光の色等が制御される。
図10は、オブジェクトの領域の分離が適切に行われない状況の一例を説明する図である。図10(a)の画像は、本実施形態の複数の撮像装置108の撮影対象の領域を正面から撮影した背景画像である。背景画像はオブジェクトや照明がない状態で撮像した画像であってもよいし、時間的に連続して撮像した複数フレームの各画素において、平均画素値、又は中間値を取得することによって生成した画像でもよい。
図10(b)、(c)の画像は、それぞれオブジェクトがステージ上に立った状態を撮影した画像と、その画像に対して図10(a)の背景画像を用いて背景差分法を適用することで求まったオブジェクトの領域の分離の結果を示す画像である。図10(c)の画像を見ると、オブジェクトのみが分離されていることがわかる。
図10(d)、(e)は、それぞれ、オブジェクトに加えてステージに照明機器1002又は1003からの照明光が照射されている状態を撮像した画像と、その画像に対するオブジェクトの領域の分離処理の結果を示す画像である。図10(f)、(g)は、それぞれ、オブジェクトに加えてステージに照明機器1002又は1003からの照明光が照射されている状態を撮像した画像と、その画像に対するオブジェクトの領域の分離処理の結果を示す画像である。
図10(e)、(g)の画像を見ると、オブジェクトと同時に照明機器1002又は1003によって照明光が照射されたステージの領域もオブジェクトとして分離されていることが分かる。特に図10(g)の例では、オブジェクトと照明機器1002又は1003によって照明光が照射されたステージの領域とが重複しており、オブジェクトとステージの境界が不明瞭になっている。このようなオブジェクト分離結果を用いて、オブジェクトの形状の決定処理を行うと、図6(a)のようにオブジェクト以外に実際には存在しないオブジェクトの形状が生じる。本実施形態の処理は、このような状況に対応するための処理である。
本実施形態の処理について、図11、図12を用いて説明する。
図11は、本実施形態の情報処理装置100の機能構成の一例を示す図である。本実施形態の情報処理装置100は、図4と同様に、撮像データ群取得部401、照明情報取得部402、分離手法決定部403、分離部404、パラメータ取得部405、形状決定部406を含む。また、情報処理装置100は、図4と異なり、シーン情報取得部1201を含む。
シーン情報取得部1201は、入力インターフェース105を介して撮像装置108から、又は、二次記憶装置104から、ステージの形状を示すステージ形状情報を取得する。本実施形態では、撮像装置108は、距離センサを介してステージを計測することで、ステージの形状を特定することができる。
また、本実施形態の照明情報取得部402は、照明情報を、撮像データ群取得部401から入力された画像データに基づいて取得するのではなく、入力インターフェース105を介して照明機器1002、1003から、又は、二次記憶装置104から取得する。
また、本実施形態の分離手法決定部403は、パラメータ取得部405からカメラパラメータの入力を受付ける。
S1301において、撮像データ群取得部401は、撮像装置108が撮像した画像を取得し、分離部404へと出力する。
S1302において、照明情報取得部402は、入力インターフェース105を介して照明機器1002、1003から、又は、二次記憶装置104から、照明情報を取得する。本実施形態では、照明情報は、互いに対応付けられた、撮像装置108と同期したタイムコードにおける予め定められた時点における照明機器1002、1003の位置姿勢、照明光の照射角、照明光の色の情報を含む。照明情報取得部402は、取得した照明情報を分離手法決定部403へと出力する。
S1303において、パラメータ取得部405は、各撮像装置108のカメラパラメータを取得し、取得したカメラパラメータを分離手法決定部403と形状決定部406とに出力する。
S1304において、シーン情報取得部1201は、入力インターフェース105を介して撮像装置108から、又は二次記憶装置104から、撮影対象の領域のステージの形状を示す形状情報を取得する。シーン情報取得部1201は、取得した形状情報を分離手法決定部403へと出力する。
S1305において、分離手法決定部403は、S1302で取得された照明情報と、S1303で取得されたカメラパラメータと、S1304で取得された形状情報と、に基づいて、以下のようなテーブルを生成する。即ち、分離手法決定部403は、各撮像装置108により撮影された各フレーム(タイムコード)の各画素がどのような照明光の影響を受けているかを示すテーブルを生成する。このテーブルの一例について、図13で後述する。
分離手法決定部403は、照明情報に基づいて、予め定められた時点それぞれにおいて、照明機器1002、1003の状況(位置姿勢、照射角、色情報)を把握することが可能である。分離手法決定部403は、この照明機器1002、1003の状況と形状情報とに基づき、例えば、以下の式(4)〜(6)を用いて、ステージ上に照明機器1002、1003からの照明光が照射されている領域を求めることができる。
式(4)は、照明機器1002、1003が照射する照明光の光線方向のベクトルを示す式である。式(5)は、ステージ形状を示す式である。本実施形態では、ステージは、平面であるとする。式(6)は、式(4)、(5)から求めた光線方向ベクトルと平面の交点xs(3次元座標)を求めるための式である。式(4)〜(6)で、xは、照明光の方向を示すベクトルである。また、x0は、照明の位置座標である。sは、ベクトルxの大きさを示す予め定められた係数である。pは、照明機器の姿勢(照明機器から照射される照明光の向き)を示すベクトルである。nは、ステージの平面の法線ベクトルである。qは、ステージの平面上の1点の位置座標である。
分離手法決定部403は、式(4)〜(6)を用いて、照明機器1002、1003から照射される照明光の中心がステージ上のどの位置と交差するかを求めることができる。また、分離手法決定部403は、ベクトルpに照明機器1002、1003の照射角分の回転を与えたベクトルp'をpの代わりに式(6)に代入することで、照明機器1002、1003から照射される照明光の端部とステージとの交差する位置を特定できる。また、分離手法決定部403は、ベクトルpに照明機器1002、1003の照明光の照射角よりも小さい角度分の任意の回転を与えたベクトルをpの代わりに式(6)に代入することで、以下のことができる。即ち、分離手法決定部403は、照明機器1002、1003の照明光に含まれる任意の光とステージとの交差する位置を特定できる。
Figure 2019185178
更に、分離手法決定部403は、ステージ上の照明照射領域とカメラパラメータとに基づき、例えば式(7)により撮像装置108を構成する各カメラの画像上での照明照射領域を算出することができる。式(7)で、Aは、カメラの内部パラメータにより求まる内部行列である。uは、撮像装置108により撮影された画像におけるxsに対応する位置である。Rは、外部パラメータにより求まる外部行列である。tは、カメラの位置である。を示している。
Figure 2019185178
分離手法決定部403は、式(4)〜(7)を用いることで、予め定められた時点で各撮像装置108により撮影された画像上で照明光が照射されている領域を求めることができる。分離手法決定部403は、ここで求めた領域に基づいて、図13に示すようなテーブルを生成する。このテーブルは、照明情報に基づいて、予め定められた時点それぞれにおいて、各撮像装置108により撮影される画像の各画素にどの照明が照射されているかを示している。分離手法決定部403は、例えば、生成したこのテーブルを二次記憶装置104等に記憶する。
二次記憶装置104等に記憶されたこのテーブルを参照することで、予め定められた時点でステージ上にオブジェクトがいない状態において、各撮像装置108により撮影された画像の各画素には、どのような照明光の影響が出ているかを把握することが可能となる。図13の例では、例えば、カメラ番号1の撮像装置108によりフレーム番号1に対応する時点で撮影された画像の座標値(1、1)の画素には、照明機器1003(青色の照明光)の影響が出ていることが分かる。また、カメラ番号2の撮像装置108によりフレーム番号1に対応する時点で撮影された画像の座標値(1、1)の画素には、照明機器1002(黄色の照明光)と照明機器1003(赤色の照明光)との影響が出ていることが分かる。分離手法決定部403は、生成した図13のようなテーブルを分離部404へと出力する。
S1306において、分離手法決定部403は、複数の撮像装置108それぞれにより撮影された全てのフレーム(S1301で取得された全てのフレーム)それぞれに対してS1307〜S1308の処理が実行されるよう制御する。より具体的には、分離手法決定部403は、S1301で取得された全てのフレームのうち、S1307〜S1308の処理の対象となるフレームを1つ選択する。以下では、選択されたフレームを選択フレームとする。
そして、選択フレームについてS1307〜S1308の処理が完了した場合、分離手法決定部403は、S1301で取得された全てのフレームの中から選択フレームとして選択されたことのないフレームを新たな選択フレームとして選択する。分離手法決定部403は、以上の処理を、S1301で取得された全てのフレームについて、S1307〜S1308の処理が完了するまで繰り返す。
S1307において、分離部404は、S1305で生成されたテーブルに基づいて、予め定められた各時点で各撮像装置108により撮影された画像に対する背景差分法に用いられる背景画像を生成する。分離部404は、S1305で生成されたテーブルを参照し、背景画像を生成するカメラ番号、フレーム番号f、座標値(u,v)の照明状況(どの照明、色に照射されているか)を把握する。そして、分離部404は、同じカメラ番号c、座標値(u、v)で、把握した照明状況と同じ照明状況になるフレーム番号を、このテーブル上で探索する。
分離部404は、同じ照明状況であるフレーム全てを探索し、例えば、探索した複数のフレームの座標(u、v)の平均画素値、又は中間値を求め、背景画像の座標(u、v)における画素値を決定する。分離部404は、以上の処理を、画像の全画素について行うことで背景画像を生成する。
S1308において、分離部404は、S1307で生成した背景画像を用いて、この背景画像に対応する撮像装置108によりこの背景画像に対応する時点に撮影された画像に対して、背景差分を行い、オブジェクトを分離する。分離部404は、オブジェクトの分離結果を形状決定部406へと出力する。
S1309において、形状決定部406は、S1308で分離部404により分離されたオブジェクトの領域の情報と、S1303でパラメータ取得部405により取得されたカメラパラメータと、に基づいて、オブジェクトの形状を決定する。本実施形態では、形状決定部406は、視体積交差法を用いて、オブジェクトの形状を決定する。
以上、本実施形態では、情報処理装置100は、照明情報、形状情報、カメラパラメータに基づいて、照明光が照射される位置を特定し、全ての撮像装置108により各時点で撮影される画像の各画素にどのような照明光の影響があるかを示すテーブルを生成する。そして、情報処理装置100は、生成したテーブルに基づき、各撮像装置108、各フレームで照明状況に対応した背景画像を生成し、その背景画像を用いた背景差分法によりオブジェクト分離を行った。これにより、情報処理装置100は、コンサートやライブ等における照明のように複雑に変化する光が撮影対象の領域に照射されている場合でも、より精度よくオブジェクトの形状を決定できる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
例えば、上述した情報処理装置100の機能構成の一部又は全てをハードウェアとして情報処理装置100に実装してもよい。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。上述した各実施形態を任意に組み合わせてもよい。
100 情報処理装置
101 CPU
108 撮像装置

Claims (14)

  1. それぞれ異なる視点からオブジェクトを撮影する複数の撮像部に含まれる撮像部により撮影された画像から、前記画像が撮影された際の前記撮像部の撮影対象の領域に照射された光に応じた手法で、前記オブジェクトの領域を分離する分離手段と、
    前記複数の撮像部のそれぞれにより撮影された複数の画像それぞれから前記分離手段により分離された前記オブジェクトの領域に基づいて、前記オブジェクトの形状を決定する決定手段と、
    を有する情報処理装置。
  2. 前記分離手段は、前記複数の撮像部に含まれる撮像部により撮影された画像から、前記画像が撮影された際の前記撮像部の撮影対象の領域に照射された光に応じた背景差分法の手法で、前記オブジェクトの領域を分離する請求項1記載の情報処理装置。
  3. 前記分離手段は、前記複数の撮像部に含まれる撮像部により撮影された画像が撮影された際の前記撮像部の撮影対象の領域に照射された光が予め定められた閾値以下の期間だけ照射される光である短期光を含む場合、前記画像から、前記画像が撮影された第1の時点と異なり、前記撮像部の撮影対象の領域に前記短期光が照射されていない第2の時点に前記撮像部により撮影された画像から分離された前記オブジェクトの領域に基づいて、前記オブジェクトの領域を分離する請求項1又は2記載の情報処理装置。
  4. 前記分離手段は、前記複数の撮像部に含まれる撮像部により撮影された画像が撮影された際に前記撮像部の撮影対象の領域に照射された光が前記短期光を含む場合、前記画像から、前記画像における前記オブジェクトの領域として、前記画像における前記第2の時点に前記撮像部により撮影された画像から分離された前記オブジェクトの領域を分離する請求項3記載の情報処理装置。
  5. 前記分離手段は、前記複数の撮像部に含まれる撮像部により撮影された画像が撮影された際に前記撮像部の撮影対象の領域に照射された光が前記短期光を含む場合、前記画像から、前記画像における複数の前記第2の時点それぞれに前記撮像部により撮影された複数の画像それぞれから分離された前記オブジェクトの複数の領域に基づいて、前記オブジェクトの領域を分離する請求項3記載の情報処理装置。
  6. 前記分離手段は、前記複数の撮像部に含まれる撮像部により撮影された画像が撮影された際の前記撮像部の撮影対象の領域に照射された光が前記短期光を含む場合、前記画像から、前記第2の時点に前記撮像部により撮影された画像から分離された前記オブジェクトの領域と、前記第1の時点における前記短期光が照射された領域と前記撮像部との距離と、に基づいて、前記オブジェクトの領域を分離する請求項3乃至5何れか1項記載の情報処理装置。
  7. 前記分離手段は、前記複数の撮像部に含まれる撮像部により撮影された画像から、前記画像が撮影された際の前記撮像部の撮影対象の領域に照射された光に応じた背景画像を用いた背景差分法の手法で、前記オブジェクトの領域を分離する請求項1乃至6何れか1項記載の情報処理装置。
  8. 前記分離手段は、前記複数の撮像部に含まれる撮像部により撮影された画像から、前記画像が撮影された際の前記撮像部の撮影対象の領域に照射された光の前記画像の各画素に対する影響を示すテーブルに基づいて、前記画像が撮影された際の前記撮像部の撮影対象の領域に照射された光に応じた手法で、前記オブジェクトの領域を分離する請求項1乃至7何れか1項記載の情報処理装置。
  9. 前記分離手段は、前記複数の撮像部に含まれる撮像部により撮影された画像から、前記撮像部の撮影領域に照射される光に関する情報である照明情報に基づいて決定された手法で、前記オブジェクトの領域を分離する請求項1乃至8何れか1項記載の情報処理装置。
  10. 前記照明情報は、光が照射される時点を示す情報と、前記光が照射された領域を撮影する撮像部を示す情報と、を含む請求項9記載の情報処理装置。
  11. 前記照明情報は、前記複数の撮像部に含まれる撮像部により撮影された画像中で前記撮像部の撮影領域に照射される光の影響がある領域を示す情報を含む請求項9又は10記載の情報処理装置。
  12. 前記照明情報は、光を照射する照明機器についての照射のタイミングを示す情報と、前記照明機器が配置された位置を示す情報と、前記照明機器の照射する光が照射される方向を示す情報と、前記照明機器が照射する光の色を示す情報と、を含む請求項9乃至11何れか1項記載の情報処理装置。
  13. 情報処理装置が実行する情報処理方法であって、
    それぞれ異なる視点からオブジェクトを撮影する複数の撮像部に含まれるそれぞれの撮像部について、前記撮像部により撮影された画像から、前記画像が撮影された際の前記撮像部の撮影対象の領域に照射された光に応じた手法で、前記オブジェクトの領域を分離する分離ステップと、
    前記分離ステップで複数の撮像部のそれぞれにより撮影された複数の画像それぞれから分離された前記オブジェクトの領域に基づいて、前記オブジェクトの形状を決定する決定ステップと、
    を含む情報処理方法。
  14. コンピュータを、請求項1乃至12何れか1項記載の情報処理装置の各手段として、機能させるためのプログラム。
JP2018071723A 2018-04-03 2018-04-03 情報処理装置、情報処理方法及びプログラム Active JP7163049B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018071723A JP7163049B2 (ja) 2018-04-03 2018-04-03 情報処理装置、情報処理方法及びプログラム
US16/359,736 US11250581B2 (en) 2018-04-03 2019-03-20 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018071723A JP7163049B2 (ja) 2018-04-03 2018-04-03 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019185178A true JP2019185178A (ja) 2019-10-24
JP7163049B2 JP7163049B2 (ja) 2022-10-31

Family

ID=68054539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018071723A Active JP7163049B2 (ja) 2018-04-03 2018-04-03 情報処理装置、情報処理方法及びプログラム

Country Status (2)

Country Link
US (1) US11250581B2 (ja)
JP (1) JP7163049B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10812770B2 (en) * 2017-09-13 2020-10-20 Canon Kabushiki Kaisha Image processing system, image processing apparatus, image processing method, and program
CN110044334B (zh) * 2018-01-16 2020-04-21 京东方科技集团股份有限公司 基于维诺图的室内空间定位
JP2022089017A (ja) * 2020-12-03 2022-06-15 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060232583A1 (en) * 2000-03-28 2006-10-19 Michael Petrov System and method of three-dimensional image capture and modeling
JP2010121945A (ja) * 2008-11-17 2010-06-03 Nippon Hoso Kyokai <Nhk> 3次元形状生成装置
JP2016194778A (ja) * 2015-03-31 2016-11-17 セコム株式会社 物体検出装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021408A (ja) 1996-07-04 1998-01-23 Canon Inc 画像抽出装置および方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060232583A1 (en) * 2000-03-28 2006-10-19 Michael Petrov System and method of three-dimensional image capture and modeling
JP2010121945A (ja) * 2008-11-17 2010-06-03 Nippon Hoso Kyokai <Nhk> 3次元形状生成装置
JP2016194778A (ja) * 2015-03-31 2016-11-17 セコム株式会社 物体検出装置

Also Published As

Publication number Publication date
US11250581B2 (en) 2022-02-15
US20190304114A1 (en) 2019-10-03
JP7163049B2 (ja) 2022-10-31

Similar Documents

Publication Publication Date Title
US11948282B2 (en) Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
US10701332B2 (en) Image processing apparatus, image processing method, image processing system, and storage medium
EP3896643A1 (en) Image processing apparatus and control method thereof
JP2018180655A5 (ja)
JP7023696B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2018092580A5 (ja) 画像処理装置および画像処理方法、プログラム
KR101601263B1 (ko) 비동기 센서들에 요구하는 씬의 3d 재구성 방법
JP7163049B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN107820019B (zh) 虚化图像获取方法、装置及设备
TW201702600A (zh) 球狀體之旋轉之測定裝置、測定方法以及程式
US20190246048A1 (en) Image processing apparatus, image processing method, and storage medium
JPWO2020183711A1 (ja) 画像処理装置及び3次元計測システム
TW201827788A (zh) 用於計算運動的客體的位置資訊的感測裝置以及利用該裝置的感測 方法
US20160044295A1 (en) Three-dimensional shape measurement device, three-dimensional shape measurement method, and three-dimensional shape measurement program
WO2018152609A1 (en) Video stabilization system and method
JP6412372B2 (ja) 情報処理装置、情報処理システム、情報処理装置の制御方法およびプログラム
JP7308913B2 (ja) 敵対的生成ネットワークアルゴリズムを活用した超分光高速カメラ映像生成方法
JP7057086B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2009116686A (ja) 撮像対象検出装置および方法
JP2019027894A (ja) 位置情報取得システム、位置情報取得方法及びプログラム
KR20060021566A (ko) 전경체 사영영상과 가상외피에 기반한 가상시점 3차원 장면 재구성 방법 및 시스템
JP7034690B2 (ja) 情報処理装置、情報処理方法及びプログラム
TWI768231B (zh) 資訊處理裝置、記錄媒體、程式產品以及資訊處理方法
JP7322235B2 (ja) 画像処理装置、画像処理方法、およびプログラム
EP4171015A1 (en) Handling blur in multi-view imaging

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221019

R151 Written notification of patent or utility model registration

Ref document number: 7163049

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151