JP6346157B2 - 画像処理装置、画像処理方法及びコンピュータプログラム - Google Patents

画像処理装置、画像処理方法及びコンピュータプログラム Download PDF

Info

Publication number
JP6346157B2
JP6346157B2 JP2015232342A JP2015232342A JP6346157B2 JP 6346157 B2 JP6346157 B2 JP 6346157B2 JP 2015232342 A JP2015232342 A JP 2015232342A JP 2015232342 A JP2015232342 A JP 2015232342A JP 6346157 B2 JP6346157 B2 JP 6346157B2
Authority
JP
Japan
Prior art keywords
input image
image
complement
camera
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015232342A
Other languages
English (en)
Other versions
JP2017098906A (ja
Inventor
麻理子 五十川
麻理子 五十川
弾 三上
弾 三上
康輔 高橋
康輔 高橋
明 小島
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015232342A priority Critical patent/JP6346157B2/ja
Publication of JP2017098906A publication Critical patent/JP2017098906A/ja
Application granted granted Critical
Publication of JP6346157B2 publication Critical patent/JP6346157B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、複数の撮影装置によって撮影された画像の処理技術に関する。
近年、360度のパノラマ画像を撮影できるカメラ(以下、「全天球カメラ」という。)が普及し始めている。全天球カメラによって撮影されたパノラマ画像(以下、「全天球画像」という。)は、所望の視点位置に全天球カメラを設置することで撮影することができる。しかしながら、競技中の競技者の邪魔となるためサッカーコートやバスケットコートなどの競技用コートの中には全天球カメラを設置することができない。そのため、競技用コートの中の所望の視点位置における競技中の全天球画像を撮影することができない。
そこで、全天球カメラを設置することのできない場所に仮想的な視点である仮想視点を設定して、この仮想視点において全天球カメラで撮影したかのような全天球画像を、コートの外側に設置された複数のカメラによって撮影された画像を合成することによって得る技術が提案されている(例えば、非特許文献1参照)。以下の説明において、仮想視点における全天球画像を、仮想全天球画像と記載する。
仮想全天球画像を複数のカメラによって撮影された画像の合成によって得るシステムの具体例について説明する。
図10は、従来システムにおいて仮想全天球画像を得るためのシステムを示す図である。図10に示すように、画像処理システム1は、全天球カメラ2と、複数のカメラ3−1、3−2、3−3、・・・、3−N(以下、「カメラ群3」という。)(Nは4以上の整数)と、画像処理装置4と、表示装置5とを備える。画像処理システム1は、競技用コート10内に仮想視点11を設定した場合に、競技用コート10外に設置したカメラ群3によって撮影された画像の合成によって仮想視点11における仮想全天球画像を得る。
全天球カメラ2は、全天球画像を撮影するカメラである。全天球カメラ2は、競技が行われる前のタイミングで競技用コート10内の仮想視点11の位置に設置される。全天球カメラ2は、仮想視点11の位置から、仮想全天球画像の背景となる画像(以下、「背景画像」という。)を撮影する。全天球カメラ2で撮影された背景画像は、画像処理装置4に入力されて蓄積される。このように、画像処理装置4は、予め背景画像を蓄積する。
競技用コート10の周囲には、カメラ群3が設置されている。カメラ群3の各カメラ3−1、3−2、3−3、・・・、3−Nは、それぞれ仮想視点11を含む画角となるように競技用コート10の周囲に設置されている。カメラ群3は、仮想視点11を含む領域を撮影する。画像処理装置4は、カメラ群3の各カメラ3−1、3−2、3−3、・・・、3−Nによって撮影された画像に対して画像処理を施して、背景画像に画像処理後の画像を合成して仮想全天球画像を生成する。表示装置5は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、CRT(Cathode Ray Tube)ディスプレイ等の画像表示装置である。表示装置5は、画像処理装置4で生成した仮想全天球画像を表示する。
次に、画像処理システム1における画像処理の具体例について図11を用いて説明する。
図11は、画像処理システム1における画像処理の流れを説明するための図である。図11(A)は、背景画像20の具体例を示す図である。背景画像20には、仮想視点11を中心として全方位(360度)の被写体が撮影されている。背景画像20は、競技用コート10内に人物がいない状態で撮影される画像であるので競技用コート10内には人物が撮影されない。
図11(B)は、各カメラ3−1、3−2及び3−3で撮影された画像を示す図である。図11(B)には、左からカメラ3−1で撮影された画像21と、カメラ3−2で撮影された画像22と、カメラ3−3で撮影された画像23とが示されている。画像処理装置4は、画像21〜23のそれぞれから仮想視点11を含む領域211、221、231を抽出する。画像処理装置4は、抽出した領域211、221、231の画像に対して、画像処理を行うことで背景画像20に合成可能な部分画像211a、221a、231aを生成する。
画像処理装置4は、背景画像20に対して部分画像211a、221a、231aを合成することによって仮想全天球画像24を生成する。図11(C)は、画像処理装置4が生成する仮想全天球画像24の例を示す図である。図11(C)に示すように、仮想全天球画像24の所定の領域には部分画像211a、221a、231aが合成されている。そのため、仮想全天球画像24として、競技用コート10上に物体(例えば、人物)が撮影されている画像が生成される。
高橋康輔、外3名、「複数カメラ映像を用いた仮想全天球映像合成に関する検討」、社団法人電子情報通信学会、信学技報、2015年6月、vol.115、no.76、p.43-48
仮想全天球画像24は、仮想視点11において撮影されたかのような全天球画像に対して、コートの外側に設置されたカメラ群3によって撮影された画像を合成することによって生成される。ところが、カメラ3から見て仮想視点11よりも手前に被写体が存在する場合には、仮想視点から本来見えないはずの手前の被写体が映り込んでしまい、被写体によって仮想視点から本来見えるはずの背景及び被写体のいずれかが遮蔽されてしまうという問題があった。このような問題が発生すると、適切な仮想全天球画像を生成することが出来なくなってしまう。なお、このような問題は、仮想視点に関係なく、複数の撮影装置のそれぞれで撮影された複数の画像のいずれかに除去対象となる被写体が映り込んでいる場合全てに共通する問題である。
上記事情に鑑み、本発明は、複数の撮影装置のそれぞれで撮影された複数の画像のいずれかに存在する除去対象となる被写体による画像の品質低下を抑制することができる技術の提供を目的としている。
本発明の一態様は、所定の領域内に設定された仮想的な視点を表す仮想視点を含む入力画像を撮影する複数の撮影装置によって撮影された複数の入力画像のうち、前記仮想視点よりも手前に存在するオブジェクトを表す前景オブジェクトが存在する補完対象領域を有する入力画像における前記補完対象領域を補完する補完処理部、を備え、前記補完処理部は、前記補完対象領域の補完対象となる前記入力画像を、前記入力画像を撮影した撮影装置の近傍の撮影装置の入力画像を用いて補完する画像処理装置である。
本発明の一態様は、上記の画像処理装置であって、前記入力画像を撮影装置毎に時系列順に記憶する入力画像記憶部をさらに備え、前記補完処理部は、前記入力画像記憶部に記憶されている前記複数の撮影装置の入力画像において、前記補完対象領域の大きさを求め、前記補完対象領域の大きさが最も大きい入力画像を前記補完対象領域の補完対象となる入力画像に決定する。
本発明の一態様は、上記の画像処理装置であって、前記補完処理部は、前記複数の撮影装置のうち、少なくとも前記前景オブジェクトと前記仮想視点よりも後方に存在するオブジェクトを表す後景オブジェクトとの関係を表すパラメータと、前記前景オブジェクトと前記後景オブジェクトとが離れているか否かを示すパラメータのいずれかを含む所定の関数に基づいて選択される撮影装置の入力画像を用いて、決定された前記入力画像の前記補完対象領域を補完する。
本発明の一態様は、上記の画像処理装置であって、前記所定の関数は、決定された前記入力画像を撮影した撮影装置である基準撮影装置と他の撮影装置との距離と、前記他の撮影装置の入力画像の補完対象領域の大きさと、前記他の撮影装置で撮影した入力画像を前記基準撮影装置の位置から見た画像に変換した場合に対応付けられなかった前記他の撮影装置で撮影した入力画像の領域の大きさと、前記他の撮影装置の入力画像の前景オブジェクトと前記後景オブジェクトとの間の距離と、前記他の撮影装置の入力画像の前景オブジェクトと前記後景オブジェクトとが離れているか否かを示す値の重み付き和で表される。
本発明の一態様は、複数の撮影装置それぞれで撮影された映像のうち特定の映像の特定の入力画像に存在する除去対象となる対象物が存在する補完対象領域を補完する補完処理部を備え、前記補完処理部は、前記特定の入力画像が撮影された時刻の時間近傍で撮影された前記複数の撮影装置の入力画像毎に、前記入力画像に存在する前記対象物と前記対象物よりも後方に存在する被写体である後景オブジェクトとの間の距離と、前記対象物と前記後景オブジェクトとが離れているか否かを示す値との何れかを含む所定の関数を用いて入力画像毎の値を算出し、算出した値が最小となる入力画像を撮影した撮影装置で撮影された入力画像を用いて前記補完対象領域を補完する画像処理装置である。
本発明の一態様は、上記の画像処理装置であって、前記所定の関数は、前記特定の入力画像が撮影された時刻と同じ時刻に他の撮影装置で撮影された入力画像と前記特定の入力画像とのうち前記補完対象領域の大きさが最も大きい入力画像を撮影した撮影装置である基準撮影装置と前記基準撮影装置以外の撮影装置との間の距離と、前記複数の撮影装置の入力画像における前記補完対象領域の大きさと、前記基準撮影装置以外の撮影装置で撮影された入力画像内の補完対象領域を前記基準撮影装置の位置で撮影した画像に変換した場合に対応が取れなかった画素の大きさと、前記入力画像に存在する前記対象物と前記後景オブジェクトとの間の距離と、前記対象物と前記後景オブジェクトとが離れているか否かを示す値とのそれぞれに対して所定の重み係数を乗算し、乗算結果を加算する関数である。
本発明の一態様は、所定の領域内に設定された仮想的な視点を表す仮想視点を含む入力画像を撮影する複数の撮影装置によって撮影された複数の入力画像のうち、前記仮想視点よりも手前に存在するオブジェクトを表す前景オブジェクトが存在する補完対象領域を有する入力画像における前記補完対象領域を補完する補完処理ステップ、を有し、前記補完処理ステップにおいて、前記補完対象領域の補完対象となる前記入力画像を、前記入力画像を撮影した撮影装置の近傍の撮影装置の入力画像を用いて補完する画像処理方法である。
本発明の一態様は、複数の撮影装置それぞれで撮影された映像のうち特定の映像中の特定の入力画像に存在する除去対象となる対象物が存在する補完対象領域を補完する補完処理ステップを有し、前記補完処理ステップにおいて、前記特定の入力画像が撮影された時刻の時間近傍で撮影された前記複数の撮影装置の入力画像毎に、前記入力画像に存在する前記対象物と前記対象物よりも後方に存在する被写体である後景オブジェクトとの間の距離と、前記対象物と前記後景オブジェクトとが離れているか否かを示す値との何れかを含む所定の関数を用いて入力画像毎の値を算出し、算出した値が最小となる入力画像を撮影した撮影装置で撮影された入力画像を用いて前記補完対象領域を補完する画像処理方法である。
本発明の一態様は、上記の画像処理装置としてコンピュータを機能させるためのコンピュータプログラムである。
本発明により、複数の撮影装置のそれぞれで撮影された複数の画像のいずれかに存在する除去対象となる被写体による画像の品質低下を抑制することが可能となる。
本発明における画像処理システム100のシステム構成を示す図である。 合成情報テーブルの具体例を示す図である。 画像処理装置80の処理の流れを示すフローチャートである。 判定部803による判定処理の流れを示すフローチャートである。 第1補完手法における処理の流れを示すフローチャートである。 第2補完手法における処理の流れを示すフローチャートである。 入力画像及びマスク画像の具体例を示す図である。 マスク画像毎のマスク領域の大きさを表す図である。 アフィン変換後のマスク画像の具体例を示す図である。 従来システムにおいて仮想全天球画像を得るためのシステムを示す図である。 画像処理システム1における画像処理の流れを説明するための図である。
以下、本発明の一実施形態を、図面を参照しながら説明する。
図1は、本発明における画像処理システム100のシステム構成を示す図である。
画像処理システム100は、全天球カメラ60、複数のカメラ70−1〜70−M(Mは2以上の整数)及び画像処理装置80を備える。なお、以下の説明では、カメラ70−1〜70−Mについて特に区別しない場合には、カメラ70と記載する。
全天球カメラ60は、撮影対象領域81内の仮想視点82の位置に設置される。撮影対象領域81は、例えばサッカーコートやバスケットコートなどの競技用コートなどである。仮想視点82は、所定の領域(本実施形態では、撮影対象領域81)内に仮想的に設定された視点である。全天球カメラ60は、仮想視点82の位置における全天球画像を撮影する。本実施形態における全天球画像は、仮想視点82を中心として撮影対象領域81全体を含む。全天球カメラ60による処理は、画像処理装置80による処理の開始前に行われる。全天球カメラ60は、撮影した全天球画像を背景画像として画像処理装置80に出力する。
M台のカメラ70−1、70−2、・・・、70−Mは、撮影対象領域81の外側に設けられ、画像を動画(映像)で撮影するカメラであり、仮想視点82を含む領域を撮影する。M台のカメラ70−1、70−2、・・・、70−Mのそれぞれで撮影された動画は、複数フレームの画像により構成される。図1に示すように、カメラ70−1には仮想視点82の位置上を通過する光線71が入力され、カメラ70−2には仮想視点82の位置上を通過する光線72が入力される。以下、カメラ70に入力される光線を実光線と記載する。図1では示していないが、カメラ70は撮影対象領域81の周囲に設置される。つまり、カメラ70は、それぞれ仮想視点82を含む画角となるように撮影対象領域81の周囲を取り囲むように設置される。図1においてMは、2以上の整数であり、同程度の画質の仮想全天球画像を得ようとするのであれば撮影対象領域81が大きいほど大きな値となる。また、撮影対象領域81の大きさが同じであれば、Mの値が大きい程、合成領域(仮想全天球画像において、M台のカメラ70からの画像を合成した領域)の面積が大きくなり、あるいは合成領域の大きさが同じであれば合成領域における画質が向上する仮想全天球画像の画質を高いものにしようとするほど大きな値となる。
画像処理装置80は、M台のカメラ70−1、70−2、・・・、70−Mのそれぞれで撮影されたそれぞれの動画から入力画像を事前に取得する。撮影されたそれぞれの動画は複数フレームの画像で構成されており、本実施形態における画像処理装置80は処理対象となるフレームの画像を入力画像として取得する。画像処理装置80は、全天球カメラ60によって撮影された全天球画像と、M台のカメラ70−1、70−2、・・・、70−Mのそれぞれで撮影された動画からそれぞれ取得された入力画像とに基づいて仮想全天球画像を生成する。また、画像処理装置80は、入力画像に前景オブジェクトが存在するか否か判定する。ここで、前景オブジェクトとは、仮想視点82よりもカメラ70に近い位置に存在するオブジェクトである。オブジェクトとは、背景画像に含まれていないが入力画像に含まれている人物、物体(例えばボール)等である。画像処理装置80は、入力画像に前景オブジェクトが存在する場合には、前景オブジェクトを除去し、除去された前景オブジェクトが存在した領域(以下、「補完対象領域」という。)を補完する。例えば、画像処理装置80は、補完対象領域を第1補完手法及び第2補完手法のいずれかの手法を利用して補完する。第1補完手法は、前景オブジェクトが存在する入力画像を撮影したカメラ70の過去の入力画像を参照画像として用いて補完対象領域を補完する補完手法である。第2補完手法は、前景オブジェクトが存在する入力画像を撮影したカメラ70の過去の入力画像と他のカメラ70の過去の入力画像のいずれかを参照画像として用いて補完対象領域を補完する補完手法である。
次に、画像処理装置80の機能構成について説明する。画像処理装置80は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置80は、入力画像記憶部801、オブジェクト解析部802、判定部803、補完処理部804、合成情報記憶部805、部分領域抽出部806、背景画像記憶部807、画像合成部808を備える装置として機能する。なお、画像処理装置80の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。
入力画像記憶部801は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。入力画像記憶部801は、各カメラ70を識別するためのカメラIDに関連付けて、カメラ70毎の入力画像を時系列順に記憶する。入力画像は、撮影時刻及び動画の画像データを含む。
オブジェクト解析部802は、入力画像記憶部801に記憶されている入力画像を入力とする。オブジェクト解析部802は、入力された入力画像中に前景オブジェクトが存在するか否か解析し、入力画像中に前景オブジェクトが存在する場合には入力画像中の当該オブジェクトの領域(補完対象領域)を示す情報を判定部803に出力する。入力画像中に前景オブジェクトが存在しない場合には、オブジェクト解析部802は入力画像を部分領域抽出部806に出力する。オブジェクト解析部802が行う解析の方法としては、例えば、セグメンテーションにより入力画像に含まれるオブジェクト領域を切り出す方法が挙げられる。次に、オブジェクト解析部802は、切り出したオブジェクト領域に基づいて、仮想視点82よりも手前に位置するか否かを判別する。なお、判別する手法はどのような方法であってもよい。例えば、オブジェクト解析部802は、図示しないセンサ等で、あるカメラ70から入力画像中のオブジェクトまでの距離を取得してもよいし、複数のカメラ70で撮影された入力画像から幾何的な解析により、あるカメラ70から入力画像中のオブジェクトまでの距離を取得してもよい。そして、オブジェクト解析部802は、取得した距離が、あるカメラ70から仮想視点までの距離以下であれば入力画像中の対応するオブジェクトを仮想視点より手前にある前景オブジェクトであると判定し、それ以外の場合には入力画像中の対応するオブジェクトを後景オブジェクトであると判定する。そして、オブジェクト解析部802は、入力画像と、入力画像中の補完対象領域を示す情報と、入力画像における後景オブジェクトの有無を示す情報とを判定部803に出力する。オブジェクト解析部802は、オブジェクト認識により他のカメラ70の入力画像にも同一オブジェクトが存在する場合には、それも前景オブジェクトとする。
判定部803は、オブジェクト解析部802から出力された補完対象領域の情報と、入力画像と、後景オブジェクトの有無を示す情報とを入力とする。判定部803は、入力された入力画像と、補完対象領域の情報と、後景オブジェクトの有無を示す情報とに基づいて、入力画像を撮影したカメラ70によって撮影された他の入力画像を用いて補完対象領域を補完することの難しさの度合いを表す難易性を判定する。そして、判定部803は、判定結果と、補完対象領域の情報とを補完処理部804に出力する。具体的な判定方法については後述する。なお、判定結果には、入力画像を撮影したカメラ70によって撮影された他の入力画像を用いて補完対象領域を補完しやすいか否かを示す情報が含まれる。
補完処理部804は、判定部803から出力された判定結果と、補完対象領域の情報と、入力画像記憶部801に記憶されている入力画像とを入力とする。補完処理部804は、判定結果が補完対象領域を補完しやすいことを示している場合、第1補完手法を利用して入力画像中の補完対象領域を補完する。一方、補完処理部804は、判定結果が補完対象領域を補完しやすいことを示していない場合、第2補完手法を利用して入力画像中の補完対象領域を補完する。具体的な処理については後述する。補完処理部804は、補完がなされた後の入力画像(以下、「補完後画像」という。)を部分領域抽出部806に出力する。
合成情報記憶部805は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。合成情報記憶部805は、合成情報テーブルを記憶する。合成情報テーブルは、入力画像から生成される画像を背景画像に重畳するための情報(以下、「合成情報」という。)を表すレコード(以下、「合成情報レコード」という。)によって構成される。
図2は、合成情報テーブルの具体例を示す図である。
合成情報テーブルは、合成情報レコードを複数有する。合成情報レコードは、カメラID、抽出領域情報及び変換情報の各値を有する。カメラIDの値は、カメラ70を識別するための識別情報を表す。例えば、図2におけるカメラID“C1”で識別されるカメラ70はカメラ70−1であり、カメラID“CM”で識別されるカメラ70はカメラ70−Mである。
抽出領域情報の値は、同じ合成情報レコードのカメラIDで識別されるカメラ70で撮影された画像(入力画像)から抽出する領域(以下、「抽出領域」という。)に関する情報を表す。抽出領域情報の具体例として、左上座標、幅及び高さがある。左上座標は、抽出領域の左上の座標を表す。幅は、抽出領域の幅を表す。高さは、抽出領域の高さを表す。なお、幅及び高さは、抽出領域の左上座標を基準とし、かつ、仮想視点を含む範囲に設定される。抽出領域は、合成された画像上で隣接するカメラ70の部分画像との間に隙間ができないような領域に設定されることが望ましい。
変換情報の値は、同じ合成情報レコードの抽出領域情報に応じて抽出された部分領域画像を部分画像に変換するための情報を表す。部分画像は、部分領域画像を背景画像の対応領域に違和感なく重畳するために、部分領域画像に対して上記変換情報に応じて拡大、縮小、回転等の変形処理を行うことによって生成される。この変形処理は、例えば、画像に対してアフィン変換を施すことによって行う。画像に対してアフィン変換を施す場合の変換情報は、例えばアフィン変換行列である。以下、部分領域画像に対して行う変形処理としてアフィン変換を用いる例を示すが、変形処理はアフィン変換に限定される必要はなく、変換情報に応じて拡大、縮小、回転等による画像の変換を行う処理であればどのような処理であってもよい。なお、アフィン変換行列には、背景画像において部分画像を重畳する領域を示す情報が含まれる。
アフィン変換行列は、以下に示す方法により予め取得して合成情報記憶部805に記憶される。例えば、仮想視点82から複数種類の距離(奥行)の位置に格子模様のチェスボードを設置して、仮想視点82に設置した全天球カメラ60で撮影したチェスボードを含む画像と、カメラ70で撮影したチェスボードを含む画像とを比較する。そして、チェスボードの各格子について、全天球カメラ60で撮影した画像中のチェスボードの格子と、カメラ70で撮影した画像中のチェスボードの格子が対応するように画像を変換するアフィン変換行列を求める。このようにして、チェスボードを設置した奥行に対応したアフィン変換行列を求める。
図2に示される例では、合成情報テーブルには複数の合成情報レコードが登録されている。図2において、合成情報テーブルの最上段に登録されている合成情報レコードは、カメラIDの値が“C1”、左上座標の値が“(A,B)”、幅の値が“C”、高さの値が“D”、変換情報の値が“A1”である。すなわち、カメラID“C1”で識別されるカメラ70−1の入力画像から左上座標(A,B)、幅C、高さDで表される領域を抽出し、抽出された画像に対して“A1”の変形処理を施すことが表されている。
図1に戻って、画像処理装置80の説明を続ける。
部分領域抽出部806は、オブジェクト解析部802から出力された入力画像と、合成情報記憶部805に記憶されている合成情報テーブルとを入力とする。また、部分領域抽出部806は、補完処理部804から出力された補完後画像と、合成情報記憶部805に記憶されている合成情報テーブルとを入力とする。部分領域抽出部806は、合成情報テーブルに基づいて、画像(入力画像又は補完後画像)から部分領域を抽出することによって部分領域画像を生成する。部分領域抽出部806は、生成した部分領域画像を画像合成部808に出力する。
背景画像記憶部807は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。背景画像記憶部807は、全天球カメラ60によって撮影された全天球画像を背景画像として記憶する。
画像合成部808は、部分領域抽出部806から出力された部分領域画像と、合成情報記憶部805に記憶されている合成情報テーブルと、背景画像記憶部807に記憶されている背景画像とを入力とする。画像合成部808は、部分領域画像に対して、合成情報テーブルに含まれる変換情報のアフィン変換行列に基づいて変形処理を行うことによって部分画像を生成する。画像合成部808は、生成した部分画像をアフィン変換行列に基づいて背景画像に重畳することで仮想全天球画像を生成する。より具体的には、画像合成部808は、部分画像の画素値で、背景画像上の部分画像を重畳する領域の画素値を置き換えることによって背景画像に部分領域画像を重畳することで仮想全天球画像を生成する。
図3は、画像処理装置80の処理の流れを示すフローチャートである。
オブジェクト解析部802は、あるカメラxを選択する(ステップS101)。カメラxの選択方法は、どのような方法であってもよい。予め特定のカメラをカメラxとして定めておいてもよい。次に、オブジェクト解析部802は、選択したカメラxの入力画像を入力画像記憶部801から読み出す(ステップS102)。例えば、オブジェクト解析部802は、選択したカメラxが撮影した動画中のある入力画像を入力画像記憶部801から読み出す。オブジェクト解析部802は、読み出した入力画像を入力とし、入力された入力画像を解析することによって入力画像に前景オブジェクトが存在するか否か判定する(ステップS103)。なお、この際、オブジェクト解析部802は、入力画像に後景オブジェクトが存在するか否かについても解析する。入力画像に前景オブジェクトが存在する場合(ステップS103−YES)、オブジェクト解析部802は入力画像と、補完対象領域を示す情報と、後景オブジェクトの有無を示す情報とを判定部803に出力する。判定部803は、オブジェクト解析部802から出力された入力画像と、補完対象領域を示す情報と、後景オブジェクトの有無を示す情報とを入力とし、入力された入力画像及び補完対象領域と、後景オブジェクトの有無を示す情報とに基づいて難易性を判定、即ち、補完対象領域を補完しやすいか否か判定する(ステップS104)。
判定部803は、補完しやすいと判定した場合(ステップS104−YES)、補完しやすいことを示す判定結果と、補完対象領域の情報とを補完処理部804に出力する。補完処理部804は、判定部803から出力された判定結果と、補完対象領域の情報と、入力画像記憶部801に記憶されている入力画像とを入力とし、入力された判定結果が補完しやすいことを示しているため第1補完手法を利用して入力画像中の補完対象領域を補完する(ステップS105)。第1補完手法の具体的な処理については後述する。補完処理部804は、補完後画像を部分領域抽出部806に出力する。
一方、判定部803は、補完しやすいと判定しなかった場合(ステップS104−NO)、その旨を示す判定結果と、補完対象領域の情報とを補完処理部804に出力する。補完しやすいと判定しなかった場合に出力される判定結果の一例として、例えば、補完しやすいわけではないことを示す判定結果、あるいは、補完しにくいことを示す判定結果が挙げられる。補完処理部804は、判定部803から出力された判定結果と、補完対象領域の情報と、入力画像記憶部801に記憶されている入力画像とを入力とし、入力された判定結果が補完しやすいことを示していないため第2補完手法を利用して入力画像中の補完対象領域を補完する(ステップS106)。第2補完手法の具体的な処理については後述する。補完処理部804は、補完後画像を部分領域抽出部806に出力する。
部分領域抽出部806は、オブジェクト解析部802から出力された入力画像と、合成情報記憶部805に記憶されている合成情報テーブル、又は、補完処理部804から出力された補完後画像と、合成情報記憶部805に記憶されている合成情報テーブルとを入力とし、合成情報記憶部805に記憶されている合成情報テーブルで示される部分領域を画像から抽出することによって部分領域画像を生成する(ステップS107)。具体的には、部分領域抽出部806は、オブジェクト解析部802から出力された入力画像と、合成情報テーブルとを入力とした場合、つまりステップS103の処理において、入力画像に前景オブジェクトが存在しないと判定された場合(ステップ103−NO)、入力画像から合成情報テーブルで示される部分領域を抽出することによって部分領域画像を生成する。また、部分領域抽出部806は、補完処理部804から出力された補完後画像と、合成情報テーブルとを入力とした場合、つまりステップS106又は107の処理がなされた後、補完後画像から合成情報テーブルで示される部分領域を抽出することによって部分領域画像を生成する。その後、部分領域抽出部806は、生成した部分領域画像を画像合成部808に出力する。例えば、部分領域抽出部806は、カメラ70−1の入力画像に対して、合成情報テーブルのカメラ70−1に対応する合成情報レコードの抽出領域情報で表される領域を抽出することによって、カメラ70−1の入力画像の部分領域画像を生成する。
画像合成部808は、部分領域抽出部806から出力された部分領域画像と、合成情報記憶部805に記憶されている合成情報テーブルと、背景画像記憶部807に記憶されている背景画像とを入力とし、合成情報テーブルの変換情報に基づいて、生成された部分領域画像に対して変形処理を行うことによって部分画像を生成し、生成した部分画像を背景画像上の対応する位置に重畳する(ステップS108)。例えば、画像合成部808は、カメラ70−1の入力画像から生成された部分領域画像に対して、合成情報テーブルのカメラ70−1に対応する合成情報レコードの変換情報に応じて変形処理を行うことによって、カメラ70−1の部分領域画像の部分画像を生成し、生成した部分画像を、変換情報に含まれる背景画像において部分画像を重畳する領域を示す情報に基づいて背景画像に重畳する。
その後、判定部803は、全てのカメラ70の入力画像に対して処理が行なわれたか否か判定する(ステップS109)。より具体的には、判定部803は、前景オブジェクトが存在すると判定された全てのカメラ70の入力画像に対して補完手法による処理が行なわれたか否か判定する。前景オブジェクトが存在すると判定された全てのカメラ70の入力画像に対して補完手法による処理が行なわれた場合(ステップS109−YES)、画像処理装置80は処理を終了する。
一方、前景オブジェクトが存在すると判定された全てのカメラ70の入力画像に対して補完手法による処理が行なわれていない場合(ステップS109−NO)、ステップS101以降の処理が実行される。
図4は、判定部803による判定処理の流れを示すフローチャートである。
判定部803は、オブジェクト解析部802による解析結果に基づいて補完対象領域を決定する(ステップS201)。判定部803には、オブジェクト解析部802から出力された入力画像と、補完対象領域を示す情報と、後景オブジェクトの有無を示す情報とが入力されている。そこで、判定部803は、入力画像中の補完対象領域を示す情報で示される領域を補完対象領域に決定する。次に、判定部803は、補完対象領域が背景であるか否か判定する(ステップS202)。補完対象領域が背景であるか否かの判定は、前景オブジェクトの後方に後景オブジェクトが存在するか否かで行われる。まず、判定部803は、入力された後景オブジェクトの有無を示す情報から後景オブジェクトの有無を判定する。後景オブジェクトが存在しない場合、判定部803は補完対象領域が背景であると判定する。一方、後景オブジェクトが存在する場合、判定部803は後景オブジェクトが補完対象領域の後方に存在するか否か判定する。後景オブジェクトが補完対象領域の後方に存在する場合、判定部803は補完対象領域が背景ではないと判定する。一方、後景オブジェクトが補完対象領域の後方に存在する場合、判定部803は補完対象領域が背景であると判定する。
補完対象領域が背景である場合(ステップS202−YES)、判定部803は補完対象領域を補完しやすいと判定する(ステップS203)。そして、判定部803は、補完対象領域を補完しやすいことを示す情報を含む判定結果と、補完対象領域の情報とを補完処理部804に出力する。
一方、補完対象領域が背景ではない場合(ステップS202−NO)、判定部803は他のカメラ70の入力画像(過去の入力画像も含む)から類似画像を検索する(ステップS204)。例えば、判定部803は、ステップS101の処理で選択されたカメラx以外のカメラ70(例えば、カメラy)について、S(Vy(T+1)、Vy(t))<Thとなる時刻tを求める。ここで、S(a、b)は、aとbとの類似度を表す。Thは、閾値を表す。T+1は現時刻を表し、tは現時刻よりも前の時刻を表す。つまり、類似画像とは、ステップS101の処理で選択されたカメラxの入力画像の後景オブジェクトが存在する画像であり、かつ、上記Th未満となる時刻tの画像を表す。
判定部803は、検索の結果、見つかった時刻tにおけるカメラxの入力画像において補完対処領域に前景オブジェクトが存在するか否かを調べる(ステップS205)。その結果、判定部803は、カメラxの入力画像において、補完対処領域内に前景オブジェクトが存在しない時刻tがあるか否か判定する(ステップS206)。前景オブジェクトが存在しない時刻tがある場合(ステップS206−YES)、判定部803は補完対象領域を補完しやすいと判定する(ステップS203)。判定部803は、補完対象領域を補完しやすいことを示す情報を含む判定結果と、補完対象領域の情報とを補完処理部804に出力する。
一方、それ以外の場合、即ち、前景オブジェクトが存在しない時刻tがない場合(ステップS206−NO)、判定部803は補完対象領域を補完しやすいわけではない、あるいは、補完しにくいと判定する(ステップS207)。そして、判定部803は、補完対象領域を補完しやすいわけではないこと、あるいは、補完しにくいことを示す情報を含む判定結果と、補完対象領域の情報とを補完処理部804に出力する。
図5は、第1補完手法における処理の流れを示すフローチャートである。
補完処理部804は、前景オブジェクトが存在しない時刻tにおけるカメラxの入力画像を参照画像とする(ステップS301)。次に、補完処理部804は、補完対象領域に対して画像処理を行うことを示すマスク領域を有するマスク画像を生成する。そして、補完処理部804は、参照画像を用いて、生成したマスク画像で示されているマスク領域を補完する(ステップS302)。具体的には、まず補完処理部804は、ステップS102の処理で読み出された入力画像から補完対象領域と、補完対象領域以外の領域とを共に含む小領域(パッチ)を選択する。この方法としては、補完対象領域の輪郭上に存在するパッチであって、パッチ領域中の補完対象領域以外の領域の画素のエッジ強度が強いパッチから選定する方法などが挙げられる。次に、補完処理部804は、選択したパッチの補完対象領域以外の画素を基に、参照画像から類似パッチを検出する。ここで、類似パッチとは、選択したパッチの画素の画素値と画素値が類似したパッチを表す。そして、補完処理部804は、検出した類似パッチを、選択したパッチに重畳する。つまり、補完処理部804は、類似パッチの画素値で選択したパッチの画素値を置き換える。補完処理部804は、以上の処理を補完対象領域が無くなるまで実行する。
なお、上記の例では、補完手法(コンプリーション手法)としてパッチベースの手法を例に説明したが、補完手法はこれに限定される必要はない。補完手法としては、その他の手法が用いられてもよい。例えば、補完対象領域の画素の、類似パッチ中での該当位置の画素を用いて補完する手法や、複数の類似パッチ中の該当位置の画素の重みづけ平均の画素を用いて補完する手法などがある。
図6は、第2補完手法における処理の流れを示すフローチャートである。
補完処理部804は、第1前処理を行う(ステップS401)。具体的には、補完処理部804は、第1前処理として、ステップS102の処理で読み出された入力画像と同時刻に撮影された全てのカメラ70の入力画像を読み出すとともに、各入力画像の補完対象領域に対して画像処理を行うことを示すマスク領域を有するマスク画像を生成する。その結果を図7に示す。
図7は、入力画像及びマスク画像の具体例を示す図である。
図7(A)は、同時刻に撮影された複数のカメラ70の入力画像を表す図である。図7(A)では、カメラID“1”からカメラID“5”で識別される5台のカメラ70−1〜70−5それぞれで撮影された入力画像を示している。例えば、入力画像83−1はカメラID“1”で識別されるカメラ70−1で撮影された画像を表す。各入力画像83−1〜83−5には、オブジェクト84及び85が含まれる。ここで、オブジェクト84は後景オブジェクトを表し、オブジェクト85は前景オブジェクトを表す。つまり、オブジェクト85の領域が補完対象領域を表す。
図7(B)は、入力画像83−1〜83−5のマスク画像87−1〜87−5を表す図である。図7(B)におけるマスク画像87−1〜87−5は、領域88で示す領域に対して画像処理を行うことを示し、領域89で示す領域に対して画像処理を行わないことを示している。第1前処理では、入力画像及びマスク画像をカメラ70の台数×時間t分用意する必要があるため多次元配列となる。例えば、マスク画像の場合、(二次元×1ch×カメラの台数×時刻t)次元の配列となる。
次に、補完処理部804は、第2前処理を行う(ステップS402)。具体的には、補完処理部804は、第2前処理として、マスク画像中のマスク領域の大きさを求める。その結果を図8に示す。
図8は、マスク画像毎のマスク領域の大きさを表す図である。
図8において、縦軸はマスク領域の大きさを表し、横軸はカメラIDを表す。図8に示されるグラフには、各マスク画像87−1〜87−5のマスク領域88−1〜88−5の大きさ(ピクセル数)に応じたプロットが示されている。図8を参照すると、カメラID“2”〜“4”で識別されるカメラ70−2〜70−4の入力画像に対するマスク画像のマスク領域が最も大きいことが示されている。
次に、補完処理部804は、入力画像に対してマスク領域が存在するか否か判定する(ステップS403)。マスク領域が存在しない場合(ステップS403−NO)、画像処理装置80は第2補完手法による処理を終了する。
一方、マスク領域が存在する場合(ステップS403−YES)、補完処理部804は基準カメラを決定する(ステップS404)。ここで、基準カメラとは、第2補完手法を施す対象となるマスク領域、つまり補完対象領域を有する入力画像を撮影したカメラ70を表す。基準カメラを決定する方法として以下のような方法がある。
(基準カメラ決定方法)
ステップS402の処理で求めた入力画像のマスク領域が最も大きい入力画像を撮影したカメラ70(前景オブジェクトが最も大きく映り込んでいる入力画像を撮影したカメラ70)を基準カメラに決定。
マスク領域が最も大きい入力画像を撮影したカメラ70が複数存在する場合(図8におけるカメラID2、ID3及びID4)、それらの中央に近いカメラ70を基準カメラに決定。
中央に近いカメラ70が複数存在する場合(例えば、マスク領域が最も大きい入力画像を撮影したカメラ70が4台の場合)、内側の2台のカメラのうちどちらかのカメラ70を基準カメラに決定。この場合は、どちらのカメラ70に決定されてもよい。
図8の例では、カメラID3のカメラ70が基準カメラに決定される。その後、補完処理部804は、基準カメラ以外のカメラ70の入力画像及び全てのマスク画像に対してアフィン変換処理を行う(ステップS405)。ここで行われるアフィン変換処理は、基準カメラを基準として、基準カメラ以外のカメラ70の入力画像及び全てのマスク画像を基準カメラから見た画像に変換する処理を表す。アフィン変換処理後のマスク画像の結果を図9に示す。
図9は、アフィン変換後のマスク画像の具体例を示す図である。
図9において、各マスク画像87−1、87−2、87−4及び87−5には、それぞれ領域90が示されている。この領域90は、アフィン変換時に対応が取れなかった画素の領域を表す。つまり、領域90は、アフィン変換時に基準カメラからの見た目が作れなかった領域を表す。以下、領域90を非マスク領域(マスク領域に含めない領域)と表す。なお、マスク画像87−3は、基準カメラの入力画像におけるマスク画像であるため領域90が存在しない。
その後、補完処理部804は、以下のエネルギー関数Eに基づいて、全てのカメラ70の中からエネルギー関数Eが最小となるカメラを参照カメラとして決定する(ステップS406)。ここで、参照カメラとは、基準カメラの入力画像の補完対象領域を補完するために用いる入力画像を撮影したカメラを表す。なお、入力画像の探索範囲は、前後T時刻分である。
(エネルギー関数E)
E=α1×d1+α2×S+α3×S1+α4×(1/d2)+α5×a
ここで、α1〜α5は重み係数を表す。d1は基準カメラから他のカメラまでの距離を表す。Sはマスク領域の大きさを表す。S1はアフィン変換時に対応が取れなかった画素の大きさを表す。つまり、S1は非マスク領域の大きさを表す。d2は前景オブジェクトと、後景オブジェクトとのオブジェクト間距離を表す。ここで、d2は以下のように算出される。まず補完処理部804は、セグメンテーションにより入力画像から各オブジェクトを抽出する。次に、補完処理部804は、前景オブジェクトと、後景オブジェクトとの中心位置間の距離を算出する。なお、後景オブジェクトが複数存在する場合には、後景オブジェクトの中で最も前景オブジェクトの近くに位置している後景オブジェクトと、前景オブジェクトとの中心位置間の距離を表す。aは前景オブジェクトと、後景オブジェクトとが完全に離れているかを示す2値数である。ここで、aは以下のように求められる。まず補完処理部804は、背景差分法によりオブジェクト領域を抽出する。次に、補完処理部804は、クラスタリング等によりオブジェクトの個数を算出する。そして、補完処理部804は、オブジェクトの個数が基準カメラのオブジェクト個数を上回っていれば1、そうでなければ0とする。
補完処理部804は、上記エネルギー関数Eを全てのカメラ70の入力画像前後T時刻分算出する。そして、補完処理部804は、エネルギー関数Eが最小となる入力画像を撮影したカメラ70を参照カメラとして決定する。なお、補完処理部804は、基準カメラについては参照カメラの決定処理の対象から除外してもよい。その後、補完処理部804は、参照カメラの入力画像のうち、エネルギー関数Eが最小となった入力画像を参照画像として用いて補完対象領域を補完する(ステップS407)。その後、ステップS401以降の処理を繰り返し実行する。
以上のように構成された画像処理装置80によれば、複数の撮影装置のそれぞれで撮影された複数の画像のいずれかに存在する除去対象となる被写体による画像の品質低下を抑制することが可能になる。以下、この効果について詳細に説明する。
画像処理装置80は、エネルギー関数Eを用いて参照カメラを決定し、決定した参照カメラの入力画像を用いて、基準カメラの入力画像の補完対象領域を補完する。エネルギー関数Eには、基準カメラからの距離が含まれる。つまり、基準カメラとの距離が近いカメラ程参照カメラとして選択される可能性が高い。さらに、基準カメラとの距離が近いカメラの入力画像は、基準カメラの入力画像と見え方が近いため、補完後の違和感が少なくなる。そのため、複数の撮影装置のそれぞれで撮影された複数の画像のいずれかに存在する除去対象となる被写体による画像の品質低下を抑制することが可能になる。
<変形例>
本発明は上記の実施形態に限定される必要はない。例えば、本発明は、複数のカメラ70でそれぞれ撮影された複数の動画に含まれる特定の動画中の特定の画像において除去対象となる被写体が除去された領域(補完対象領域)を補完した後の画像を得る場合にも適用可能である。
本実施形態では、合成情報テーブルに登録されている幅の値が全てのカメラIDで同じであるが、幅の値はカメラID毎に異なっていてもよいし、一部のカメラIDで異なっていてもよい。
本実施形態では、前景オブジェクトと後景オブジェクトとの切り分け方として、オブジェクト認識やセグメンテーションを用いる方法を示したが、以下のような2つの方法が用いられてもよい。
(第1の方法)
第1の方法は、レンジセンサを用いる方法である。レンジセンサを用いる場合、仮想視点よりも奥に位置するオブジェクトを後景オブジェクトとし、仮想視点よりも手前に位置するオブジェクトを前景オブジェクトとする。
(第2の方法)
第2の方法は、競技用コート10上部のカメラ映像を用いる方法である。競技用コート10上部にカメラを設置できる場合、予め天井などの競技用コート10上部に設置したカメラと、競技用コート10外に設置したカメラ70とのキャリブレーションを事前に済ませておく。その後、競技用コート10上部のカメラの映像から人物やボールなどのオブジェクトをトラッキングし、各オブジェクトが各カメラ70からどのように観察できているのかを推定する。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
60…全天球カメラ, 70(70−1〜70−M)…カメラ, 4、80…画像処理装置, 801…入力画像記憶部, 802…オブジェクト解析部, 803…判定部, 804…補完処理部, 805…合成情報記憶部, 806…部分領域抽出部, 807…背景画像記憶部, 808…画像合成部

Claims (9)

  1. 所定の領域内に設定された仮想的な視点を表す仮想視点を含む入力画像を撮影する複数の撮影装置によって撮影された複数の入力画像のうち、前記仮想視点よりも手前に存在するオブジェクトを表す前景オブジェクトが存在する補完対象領域を有する入力画像における前記補完対象領域を補完する補完処理部、
    を備え、
    前記補完処理部は、前記補完対象領域の補完対象となる前記入力画像を、前記入力画像を撮影した撮影装置の近傍の撮影装置の入力画像を用いて補完する画像処理装置。
  2. 前記入力画像を撮影装置毎に時系列順に記憶する入力画像記憶部をさらに備え、
    前記補完処理部は、前記入力画像記憶部に記憶されている前記複数の撮影装置の入力画像において、前記補完対象領域の大きさを求め、前記補完対象領域の大きさが最も大きい入力画像を前記補完対象領域の補完対象となる入力画像に決定する、請求項1に記載の画像処理装置。
  3. 前記補完処理部は、前記複数の撮影装置のうち、少なくとも前記前景オブジェクトと前記仮想視点よりも後方に存在するオブジェクトを表す後景オブジェクトとの関係を表すパラメータと、前記前景オブジェクトと前記後景オブジェクトとが離れているか否かを示すパラメータのいずれかを含む所定の関数に基づいて選択される撮影装置の入力画像を用いて、決定された前記入力画像の前記補完対象領域を補完する、請求項2に記載の画像処理装置。
  4. 前記所定の関数は、決定された前記入力画像を撮影した撮影装置である基準撮影装置と他の撮影装置との距離と、前記他の撮影装置の入力画像の補完対象領域の大きさと、前記他の撮影装置で撮影した入力画像を前記基準撮影装置の位置から見た画像に変換した場合に対応付けられなかった前記他の撮影装置で撮影した入力画像の領域の大きさと、前記他の撮影装置の入力画像の前景オブジェクトと前記後景オブジェクトとの間の距離と、前記他の撮影装置の入力画像の前景オブジェクトと前記後景オブジェクトとが離れているか否かを示す値の重み付き和で表される、請求項3に記載の画像処理装置。
  5. 複数の撮影装置それぞれで撮影された映像のうち特定の映像中の特定の入力画像に存在する除去対象となる対象物が存在する補完対象領域を補完する補完処理部を備え、
    前記補完処理部は、前記特定の入力画像が撮影された時刻の時間近傍で撮影された前記複数の撮影装置の入力画像毎に、前記入力画像に存在する前記対象物と前記対象物よりも後方に存在する被写体である後景オブジェクトとの間の距離と、前記対象物と前記後景オブジェクトとが離れているか否かを示す値との何れかを含む所定の関数を用いて入力画像毎の値を算出し、算出した値が最小となる入力画像を撮影した撮影装置で撮影された入力画像を用いて前記補完対象領域を補完する画像処理装置。
  6. 前記所定の関数は、前記特定の入力画像が撮影された時刻と同じ時刻に他の撮影装置で撮影された入力画像と前記特定の入力画像とのうち前記補完対象領域の大きさが最も大きい入力画像を撮影した撮影装置である基準撮影装置と前記基準撮影装置以外の撮影装置との間の距離と、前記複数の撮影装置の入力画像における前記補完対象領域の大きさと、前記基準撮影装置以外の撮影装置で撮影された入力画像内の補完対象領域を前記基準撮影装置の位置で撮影した画像に変換した場合に対応が取れなかった画素の大きさと、前記入力画像に存在する前記対象物と前記後景オブジェクトとの間の距離と、前記対象物と前記後景オブジェクトとが離れているか否かを示す値とのそれぞれに対して所定の重み係数を乗算し、乗算結果を加算する関数である、請求項5に記載の画像処理装置。
  7. 所定の領域内に設定された仮想的な視点を表す仮想視点を含む入力画像を撮影する複数の撮影装置によって撮影された複数の入力画像のうち、前記仮想視点よりも手前に存在するオブジェクトを表す前景オブジェクトが存在する補完対象領域を有する入力画像における前記補完対象領域を補完する補完処理ステップ、
    を有し、
    前記補完処理ステップにおいて、前記補完対象領域の補完対象となる前記入力画像を、前記入力画像を撮影した撮影装置の近傍の撮影装置の入力画像を用いて補完する画像処理方法。
  8. 複数の撮影装置それぞれで撮影された映像のうち特定の映像中の特定の入力画像に存在する除去対象となる対象物が存在する補完対象領域を補完する補完処理ステップを有し、
    前記補完処理ステップにおいて、前記特定の入力画像が撮影された時刻の時間近傍で撮影された前記複数の撮影装置の入力画像毎に、前記入力画像に存在する前記対象物と前記対象物よりも後方に存在する被写体である後景オブジェクトとの間の距離と、前記対象物と前記後景オブジェクトとが離れているか否かを示す値との何れかを含む所定の関数を用いて入力画像毎の値を算出し、算出した値が最小となる入力画像を撮影した撮影装置で撮影された入力画像を用いて前記補完対象領域を補完する画像処理方法。
  9. 請求項1から6のいずれか一項に記載の画像処理装置としてコンピュータを機能させるためのコンピュータプログラム。
JP2015232342A 2015-11-27 2015-11-27 画像処理装置、画像処理方法及びコンピュータプログラム Active JP6346157B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015232342A JP6346157B2 (ja) 2015-11-27 2015-11-27 画像処理装置、画像処理方法及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015232342A JP6346157B2 (ja) 2015-11-27 2015-11-27 画像処理装置、画像処理方法及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2017098906A JP2017098906A (ja) 2017-06-01
JP6346157B2 true JP6346157B2 (ja) 2018-06-20

Family

ID=58817549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015232342A Active JP6346157B2 (ja) 2015-11-27 2015-11-27 画像処理装置、画像処理方法及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP6346157B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7080614B2 (ja) * 2017-09-29 2022-06-06 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007053621A (ja) * 2005-08-18 2007-03-01 Mitsubishi Electric Corp 画像生成装置
JP5519085B1 (ja) * 2012-07-20 2014-06-11 パナソニック株式会社 動画像生成装置および動画像生成方法
JP5969376B2 (ja) * 2012-12-19 2016-08-17 Kddi株式会社 仮想視点映像生成装置、仮想視点映像生成方法、およびプログラム
JP2015139018A (ja) * 2014-01-21 2015-07-30 株式会社ニコン 電子機器及び制御プログラム

Also Published As

Publication number Publication date
JP2017098906A (ja) 2017-06-01

Similar Documents

Publication Publication Date Title
CN109788215B (zh) 图像处理装置、计算机可读存储介质以及图像处理方法
KR101670282B1 (ko) 전경-배경 제약 조건 전파를 기초로 하는 비디오 매팅
US11151787B2 (en) Generation device, generation method and storage medium for three-dimensional model from object images and structure images
KR101223046B1 (ko) 정지장면의 연속프레임 영상에 기반한 영상분할장치 및 방법
JP7159384B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2010176380A (ja) 情報処理装置および方法、プログラム、並びに記録媒体
JP2020129276A (ja) 画像処理装置、画像処理方法、およびプログラム
CN110505398B (zh) 一种图像处理方法、装置、电子设备及存储介质
US11798233B2 (en) Generation device, generation method and storage medium for three-dimensional model that remove a portion of the three-dimensional model
JPWO2018180578A1 (ja) 画像処理装置、撮像装置、画像処理方法、およびプログラム
Choi et al. Human detection using image fusion of thermal and visible image with new joint bilateral filter
JP6389452B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP5290915B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6272071B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6606242B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP6346157B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
US20140055644A1 (en) Apparatus and method for extracting object
JP6416741B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP5838112B2 (ja) 複数の被写体領域を分離する方法、プログラム及び装置
KR101718309B1 (ko) 색상 정보를 활용한 자동 정합·파노라믹 영상 생성 장치 및 방법
JP6420750B2 (ja) 合成情報テーブル作成装置、合成情報テーブル作成方法及びコンピュータプログラム
KR101297396B1 (ko) 상대적인 상관도 기반의 그림자 제거 방법
JP6416734B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP2017097798A (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
KR101893142B1 (ko) 객체 영역 추출 방법 및 그 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180524

R150 Certificate of patent or registration of utility model

Ref document number: 6346157

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150