JP6389452B2 - Image processing apparatus, image processing method, and computer program - Google Patents
Image processing apparatus, image processing method, and computer program Download PDFInfo
- Publication number
- JP6389452B2 JP6389452B2 JP2015232343A JP2015232343A JP6389452B2 JP 6389452 B2 JP6389452 B2 JP 6389452B2 JP 2015232343 A JP2015232343 A JP 2015232343A JP 2015232343 A JP2015232343 A JP 2015232343A JP 6389452 B2 JP6389452 B2 JP 6389452B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- input image
- complement
- captured
- photographed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Description
本発明は、複数の撮影装置によって撮影された画像の処理技術に関する。 The present invention relates to a technique for processing an image photographed by a plurality of photographing devices.
近年、360度のパノラマ画像を撮影できるカメラ(以下、「全天球カメラ」という。)が普及し始めている。全天球カメラによって撮影されたパノラマ画像(以下、「全天球画像」という。)は、所望の視点位置に全天球カメラを設置することで撮影することができる。しかしながら、競技中の競技者の邪魔となるためサッカーコートやバスケットコートなどの競技用コートの中には全天球カメラを設置することができない。そのため、競技用コートの中の所望の視点位置における競技中の全天球画像を撮影することができない。 In recent years, cameras capable of capturing 360-degree panoramic images (hereinafter referred to as “global cameras”) have begun to spread. A panoramic image captured by the omnidirectional camera (hereinafter referred to as “spherical image”) can be captured by installing the omnidirectional camera at a desired viewpoint position. However, a spherical camera cannot be installed in a competition court such as a soccer court or a basketball court because it interferes with the competitors during the competition. For this reason, it is not possible to take an omnidirectional image during competition at a desired viewpoint position in the competition court.
そこで、全天球カメラを設置することのできない場所に仮想的な視点である仮想視点を設定して、この仮想視点において全天球カメラで撮影したかのような全天球画像を、コートの外側に設置された複数のカメラによって撮影された画像を合成することによって得る技術が提案されている(例えば、非特許文献1参照)。以下の説明において、仮想視点における全天球画像を、仮想全天球画像と記載する。 Therefore, a virtual viewpoint, which is a virtual viewpoint, is set at a place where the omnidirectional camera cannot be installed, and an omnidirectional image as if taken with the omnidirectional camera at this virtual viewpoint is displayed on the court. There has been proposed a technique obtained by combining images taken by a plurality of cameras installed on the outside (see, for example, Non-Patent Document 1). In the following description, the omnidirectional image at the virtual viewpoint is referred to as a virtual omnidirectional image.
仮想全天球画像を複数のカメラによって撮影された画像の合成によって得るシステムの具体例について説明する。
図10は、従来システムにおいて仮想全天球画像を得るためのシステムを示す図である。図10に示すように、画像処理システム1は、全天球カメラ2と、複数のカメラ3−1、3−2、3−3、・・・、3−N(以下、「カメラ群3」という。)(Nは4以上の整数)と、画像処理装置4と、表示装置5とを備える。画像処理システム1は、競技用コート10内に仮想視点11を設定した場合に、競技用コート10外に設置したカメラ群3によって撮影された画像の合成によって仮想視点11における仮想全天球画像を得る。
A specific example of a system that obtains a virtual omnidirectional image by combining images captured by a plurality of cameras will be described.
FIG. 10 is a diagram showing a system for obtaining a virtual omnidirectional image in a conventional system. As shown in FIG. 10, the image processing system 1 includes an
全天球カメラ2は、全天球画像を撮影するカメラである。全天球カメラ2は、競技が行われる前のタイミングで競技用コート10内の仮想視点11の位置に設置される。全天球カメラ2は、仮想視点11の位置から、仮想全天球画像の背景となる画像(以下、「背景画像」という。)を撮影する。全天球カメラ2で撮影された背景画像は、画像処理装置4に入力されて蓄積される。このように、画像処理装置4は、予め背景画像を蓄積する。
The
競技用コート10の周囲には、カメラ群3が設置されている。カメラ群3の各カメラ3−1、3−2、3−3、・・・、3−Nは、それぞれ仮想視点11を含む画角となるように競技用コート10の周囲に設置されている。カメラ群3は、仮想視点11を含む領域を撮影する。画像処理装置4は、カメラ群3の各カメラ3−1、3−2、3−3、・・・、3−Nによって撮影された画像に対して画像処理を施して、背景画像に画像処理後の画像を合成して仮想全天球画像を生成する。表示装置5は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、CRT(Cathode Ray Tube)ディスプレイ等の画像表示装置である。表示装置5は、画像処理装置4で生成した仮想全天球画像を表示する。
A
次に、画像処理システム1における画像処理の具体例について図11を用いて説明する。
図11は、画像処理システム1における画像処理の流れを説明するための図である。図11(A)は、背景画像20の具体例を示す図である。背景画像20には、仮想視点11を中心として全方位(360度)の被写体が撮影されている。背景画像20は、競技用コート10内に人物がいない状態で撮影される画像であるので競技用コート10内には人物が撮影されない。
Next, a specific example of image processing in the image processing system 1 will be described with reference to FIG.
FIG. 11 is a diagram for explaining the flow of image processing in the image processing system 1. FIG. 11A is a diagram illustrating a specific example of the
図11(B)は、各カメラ3−1、3−2及び3−3で撮影された画像を示す図である。図11(B)には、左からカメラ3−1で撮影された画像21と、カメラ3−2で撮影された画像22と、カメラ3−3で撮影された画像23とが示されている。画像処理装置4は、画像21〜23のそれぞれから仮想視点11を含む領域211、221、231を抽出する。画像処理装置4は、抽出した領域211、221、231の画像に対して、画像処理を行うことで背景画像20に合成可能な部分画像211a、221a、231aを生成する。
FIG. 11B is a diagram showing images taken by the cameras 3-1, 3-2, and 3-3. FIG. 11B shows an
画像処理装置4は、背景画像20に対して部分画像211a、221a、231aを合成することによって仮想全天球画像24を生成する。図11(C)は、画像処理装置4が生成する仮想全天球画像24の例を示す図である。図11(C)に示すように、仮想全天球画像24の所定の領域には部分画像211a、221a、231aが合成されている。そのため、仮想全天球画像24として、競技用コート10上に物体(例えば、人物)が撮影されている画像が生成される。
The
仮想全天球画像24は、仮想視点11において撮影されたかのような全天球画像に対して、コートの外側に設置されたカメラ群3によって撮影された画像を合成することによって生成される。ところが、カメラ3から見て仮想視点11よりも手前に被写体が存在する場合には、仮想視点から本来見えないはずの手前の被写体が映り込んでしまい、被写体によって仮想視点から本来見えるはずの背景及び被写体のいずれかが遮蔽されてしまうという問題があった。このような問題が発生すると、適切な仮想全天球画像を生成することが出来なくなってしまう。なお、このような問題は、仮想視点に関係なく、複数の撮影装置のそれぞれで撮影された複数の画像のいずれかに除去対象となる被写体が映り込んでいる場合全てに共通する問題である。
The virtual
上記事情に鑑み、本発明は、複数の撮影装置のそれぞれで撮影された複数の画像のいずれかに存在する除去対象となる被写体による画像の品質低下を抑制することができる技術の提供を目的としている。 In view of the above circumstances, an object of the present invention is to provide a technique capable of suppressing deterioration in image quality caused by a subject to be removed that exists in any of a plurality of images captured by a plurality of imaging devices. Yes.
本発明の一態様は、複数の撮影装置それぞれで撮影された映像のうち特定の映像中の特定の入力画像において前記特定の入力画像に存在する除去対象となる対象物が存在する補完対象領域に基づいて、前記特定の入力画像を撮影した撮影装置によって撮影された他の入力画像を用いて前記補完対象領域を補完することの難しさの度合いを表す難易性を判定する判定部と、前記判定部によって、前記特定の入力画像を撮影した撮影装置によって撮影された他の入力画像を用いて前記補完対象領域を補完しやすいと判定された場合、前記特定の入力画像を撮影した撮影装置によって撮影された入力画像のいずれかを参照画像として用いて前記補完対象領域を補完する第1補完手法を利用して前記補完対象領域を補完し、それ以外の場合、前記特定の入力画像を撮影した撮影装置によって撮影された入力画像及び他の撮影装置によって撮影された入力画像のいずれかを参照画像として用いて前記補完対象領域を補完する第2補完手法を利用して前記補完対象領域を補完する補完処理部と、を備える画像処理装置である。 According to one aspect of the present invention, in a specific input image in a specific video among videos captured by each of a plurality of imaging devices, a complementary target region in which a target object to be removed that exists in the specific input image exists. A determination unit configured to determine a difficulty representing a degree of difficulty in complementing the region to be complemented using another input image captured by an imaging device that captured the specific input image, and the determination When it is determined by the unit that it is easy to complement the complement target region using another input image captured by the imaging device that captured the specific input image, the image is captured by the imaging device that captured the specific input image. Using the first complement method for complementing the region to be complemented using any of the input images as a reference image, otherwise, the specifying The complement using a second complementing method that complements the region to be complemented using either an input image photographed by the photographing device that photographed the input image or an input image photographed by another photographing device as a reference image. And an interpolation processing unit that complements a target area.
本発明の一態様は、上記の画像処理装置であって、前記補完処理部は、前記第2補完手法を利用する場合、全ての撮影装置のうち、前記特定の入力画像を撮影した撮影装置に近接する撮影装置によって撮影された入力画像を参照画像として用いる。 One aspect of the present invention is the above-described image processing device, wherein the complement processing unit includes a photographing device that captures the specific input image among all the photographing devices when the second complementing method is used. An input image photographed by a nearby photographing device is used as a reference image.
本発明の一態様は、上記の画像処理装置であって、前記補完処理部は、前記第1補完手法を利用する場合、前記特定の入力画像が撮影された時刻と同じ時刻に撮影していた他の撮影装置の入力画像において、前記他の撮影装置が過去に撮影した入力画像の中から前記時刻に他の撮影装置が撮影した入力画像と類似する入力画像を検索し、検索された前記入力画像が撮影された時刻の時間近傍の入力画像を前記特定の入力画像を撮影した撮影装置の入力画像から取得し、取得した前記入力画像を用いて前記補完対象領域を補完する。 One aspect of the present invention is the above-described image processing device, wherein the complement processing unit captures the same input image at the same time as when the first complement method is used. In an input image of another photographing device, an input image similar to the input image photographed by the other photographing device at the time is searched from input images photographed by the other photographing device in the past, and the retrieved input An input image in the vicinity of the time at which the image was captured is acquired from the input image of the imaging device that captured the specific input image, and the complement target area is supplemented using the acquired input image.
本発明の一態様は、上記の画像処理装置であって、前記判定部は、前記補完対象領域が背景である場合、又は、前記特定の入力画像と類似する入力画像を他の撮影装置の入力画像から検索し、検索された入力画像が撮影された時刻の近傍に前記特定の入力画像を撮影した撮影装置によって撮影された入力画像に前記対象物が存在する場合には前記特定の入力画像を撮影した撮影装置によって撮影された他の入力画像を用いて前記補完対象領域を補完しやすいと判定し、その他の場合にはそれ以外と判定する。 One aspect of the present invention is the above-described image processing device, wherein the determination unit inputs an input image similar to the specific input image to another imaging device when the region to be complemented is a background. When the object is present in the input image captured by the imaging device that captured the specific input image in the vicinity of the time when the retrieved input image was captured, the specific input image is selected. It is determined that it is easy to complement the region to be complemented using another input image photographed by the photographing device, and in other cases, it is determined that it is not.
本発明の一態様は、複数の撮影装置それぞれで撮影された映像のうち特定の映像中の特定の入力画像において前記特定の入力画像に存在する除去対象となる対象物が存在する補完対象領域に基づいて、前記特定の入力画像を撮影した撮影装置によって撮影された他の入力画像を用いて前記補完対象領域を補完することの難しさの度合いを表す難易性を判定する判定ステップと、前記判定ステップにおいて、前記特定の入力画像を撮影した撮影装置によって撮影された他の入力画像を用いて前記補完対象領域を補完しやすいと判定された場合、前記特定の入力画像を撮影した撮影装置によって撮影された入力画像のいずれかを参照画像として用いて前記補完対象領域を補完する第1補完手法を利用して前記補完対象領域を補完し、それ以外の場合、前記特定の入力画像を撮影した撮影装置によって撮影された入力画像及び他の撮影装置によって撮影された入力画像のいずれかを参照画像として用いて前記補完対象領域を補完する第2補完手法を利用して前記補完対象領域を補完する補完処理ステップと、を有する画像処理方法である。 According to one aspect of the present invention, in a specific input image in a specific video among videos captured by each of a plurality of imaging devices, a complementary target region in which a target object to be removed that exists in the specific input image exists. A determination step for determining a difficulty representing a degree of difficulty of complementing the region to be complemented using another input image captured by an imaging device that captured the specific input image, and the determination If it is determined in the step that it is easy to complement the region to be complemented using another input image captured by the image capturing device that captured the specific input image, the image capturing is performed by the image capturing device that captured the specific input image. Using the first complement method for complementing the region to be complemented using any of the input images as a reference image, And using a second complementing method that complements the region to be complemented using, as a reference image, either an input image captured by an imaging device that captured the specific input image or an input image captured by another imaging device And a complementing process step of complementing the complementing target area.
本発明の一態様は、複数の撮影装置それぞれで撮影された映像のうち特定の映像中の特定の入力画像において前記特定の入力画像に存在する除去対象となる対象物が存在する補完対象領域に基づいて、前記特定の入力画像を撮影した撮影装置によって撮影された他の入力画像を用いて前記補完対象領域を補完することの難しさの度合いを表す難易性を判定する判定ステップと、前記判定ステップにおいて、前記特定の入力画像を撮影した撮影装置によって撮影された他の入力画像を用いて前記補完対象領域を補完しやすいと判定された場合、前記特定の入力画像を撮影した撮影装置によって撮影された入力画像のいずれかを参照画像として用いて前記補完対象領域を補完する第1補完手法を利用して前記補完対象領域を補完し、それ以外の場合、前記特定の入力画像を撮影した撮影装置によって撮影された入力画像及び他の撮影装置によって撮影された入力画像のいずれかを参照画像として用いて前記補完対象領域を補完する第2補完手法を利用して前記補完対象領域を補完する補完処理ステップと、をコンピュータに実行させるためのコンピュータプログラムである。 According to one aspect of the present invention, in a specific input image in a specific video among videos captured by each of a plurality of imaging devices, a complementary target region in which a target object to be removed that exists in the specific input image exists. A determination step for determining a difficulty representing a degree of difficulty of complementing the region to be complemented using another input image captured by an imaging device that captured the specific input image, and the determination If it is determined in the step that it is easy to complement the region to be complemented using another input image captured by the image capturing device that captured the specific input image, the image capturing is performed by the image capturing device that captured the specific input image. Using the first complement method for complementing the region to be complemented using any of the input images as a reference image, And using a second complementing method that complements the region to be complemented using, as a reference image, either an input image captured by an imaging device that captured the specific input image or an input image captured by another imaging device And a complement processing step of complementing the complement target area.
本発明により、複数の撮影装置のそれぞれで撮影された複数の画像のいずれかに存在する除去対象となる被写体による画像の品質低下を抑制することが可能となる。 According to the present invention, it is possible to suppress deterioration in image quality due to a subject to be removed that exists in any of a plurality of images captured by each of a plurality of imaging devices.
以下、本発明の一実施形態を、図面を参照しながら説明する。
図1は、本発明における画像処理システム100のシステム構成を示す図である。
画像処理システム100は、全天球カメラ60、複数のカメラ70−1〜70−M(Mは2以上の整数)及び画像処理装置80を備える。なお、以下の説明では、カメラ70−1〜70−Mについて特に区別しない場合には、カメラ70と記載する。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a system configuration of an
The
全天球カメラ60は、撮影対象領域81内の仮想視点82の位置に設置される。撮影対象領域81は、例えばサッカーコートやバスケットコートなどの競技用コートなどである。仮想視点82は、所定の領域(本実施形態では、撮影対象領域81)内に仮想的に設定された視点である。全天球カメラ60は、仮想視点82の位置における全天球画像を撮影する。本実施形態における全天球画像は、仮想視点82を中心として撮影対象領域81全体を含む。全天球カメラ60による処理は、画像処理装置80による処理の開始前に行われる。全天球カメラ60は、撮影した全天球画像を背景画像として画像処理装置80に出力する。
The
M台のカメラ70−1、70−2、・・・、70−Mは、撮影対象領域81の外側に設けられ、画像を動画(映像)で撮影するカメラであり、仮想視点82を含む領域を撮影する。M台のカメラ70−1、70−2、・・・、70−Mのそれぞれで撮影された動画は、複数フレームの画像により構成される。図1に示すように、カメラ70−1には仮想視点82の位置上を通過する光線71が入力され、カメラ70−2には仮想視点82の位置上を通過する光線72が入力される。以下、カメラ70に入力される光線を実光線と記載する。図1では示していないが、カメラ70は撮影対象領域81の周囲に設置される。つまり、カメラ70は、それぞれ仮想視点82を含む画角となるように撮影対象領域81の周囲を取り囲むように設置される。図1においてMは、2以上の整数であり、同程度の画質の仮想全天球画像を得ようとするのであれば撮影対象領域81が大きいほど大きな値となる。また、撮影対象領域81の大きさが同じであれば、Mの値が大きい程、合成領域(仮想全天球画像において、M台のカメラ70からの画像を合成した領域)の面積が大きくなり、あるいは合成領域の大きさが同じであれば合成領域における画質が向上する仮想全天球画像の画質を高いものにしようとするほど大きな値となる。
M cameras 70-1, 70-2,..., 70 -M are cameras that are provided outside the
画像処理装置80は、M台のカメラ70−1、70−2、・・・、70−Mのそれぞれで撮影されたそれぞれの動画から入力画像を事前に取得する。撮影されたそれぞれの動画は複数フレームの画像で構成されており、本実施形態における画像処理装置80は処理対象となるフレームの画像を入力画像として取得する。画像処理装置80は、全天球カメラ60によって撮影された全天球画像と、M台のカメラ70−1、70−2、・・・、70−Mのそれぞれで撮影された動画からそれぞれ取得された入力画像とに基づいて仮想全天球画像を生成する。また、画像処理装置80は、入力画像に前景オブジェクトが存在するか否か判定する。ここで、前景オブジェクトとは、仮想視点82よりもカメラ70に近い位置に存在するオブジェクトである。オブジェクトとは、背景画像に含まれていないが入力画像に含まれている人物、物体(例えばボール)等である。画像処理装置80は、入力画像に前景オブジェクトが存在する場合には、前景オブジェクトを除去し、除去された前景オブジェクトが存在した領域(以下、「補完対象領域」という。)を補完する。例えば、画像処理装置80は、補完対象領域を第1補完手法及び第2補完手法のいずれかの手法を利用して補完する。第1補完手法は、前景オブジェクトが存在する入力画像を撮影したカメラ70の過去の入力画像を参照画像として用いて補完対象領域を補完する補完手法である。第2補完手法は、前景オブジェクトが存在する入力画像を撮影したカメラ70の過去の入力画像と他のカメラ70の過去の入力画像のいずれかを参照画像として用いて補完対象領域を補完する補完手法である。
The
次に、画像処理装置80の機能構成について説明する。画像処理装置80は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置80は、入力画像記憶部801、オブジェクト解析部802、判定部803、補完処理部804、合成情報記憶部805、部分領域抽出部806、背景画像記憶部807、画像合成部808を備える装置として機能する。なお、画像処理装置80の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。
Next, the functional configuration of the
入力画像記憶部801は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。入力画像記憶部801は、各カメラ70を識別するためのカメラIDに関連付けて、カメラ70毎の入力画像を時系列順に記憶する。入力画像は、撮影時刻及び動画の画像データを含む。
オブジェクト解析部802は、入力画像記憶部801に記憶されている入力画像を入力とする。オブジェクト解析部802は、入力された入力画像中に前景オブジェクトが存在するか否か解析し、入力画像中に前景オブジェクトが存在する場合には入力画像中の当該オブジェクトの領域(補完対象領域)を示す情報を判定部803に出力する。入力画像中に前景オブジェクトが存在しない場合には、オブジェクト解析部802は入力画像を部分領域抽出部806に出力する。オブジェクト解析部802が行う解析の方法としては、例えば、セグメンテーションにより入力画像に含まれるオブジェクト領域を切り出す方法が挙げられる。次に、オブジェクト解析部802は、切り出したオブジェクト領域に基づいて、仮想視点82よりも手前に位置するか否かを判別する。なお、判別する手法はどのような方法であってもよい。例えば、オブジェクト解析部802は、図示しないセンサ等で、あるカメラ70から入力画像中のオブジェクトまでの距離を取得してもよいし、複数のカメラ70で撮影された入力画像から幾何的な解析により、あるカメラ70から入力画像中のオブジェクトまでの距離を取得してもよい。そして、オブジェクト解析部802は、取得した距離が、あるカメラ70から仮想視点までの距離以下であれば入力画像中の対応するオブジェクトを仮想視点より手前にある前景オブジェクトであると判定し、それ以外の場合には入力画像中の対応するオブジェクトを後景オブジェクトであると判定する。そして、オブジェクト解析部802は、入力画像と、入力画像中の補完対象領域を示す情報と、入力画像における後景オブジェクトの有無を示す情報とを判定部803に出力する。オブジェクト解析部802は、オブジェクト認識により他のカメラ70の入力画像にも同一オブジェクトが存在する場合には、それも前景オブジェクトとする。
The input
The
判定部803は、オブジェクト解析部802から出力された補完対象領域の情報と、入力画像と、後景オブジェクトの有無を示す情報とを入力とする。判定部803は、入力された入力画像と、補完対象領域の情報と、後景オブジェクトの有無を示す情報とに基づいて、入力画像を撮影したカメラ70によって撮影された他の入力画像を用いて補完対象領域を補完することの難しさの度合いを表す難易性を判定する。そして、判定部803は、判定結果と、補完対象領域の情報とを補完処理部804に出力する。具体的な判定方法については後述する。なお、判定結果には、入力画像を撮影したカメラ70によって撮影された他の入力画像を用いて補完対象領域を補完しやすいか否かを示す情報が含まれる。
The
補完処理部804は、判定部803から出力された判定結果と、補完対象領域の情報と、入力画像記憶部801に記憶されている入力画像とを入力とする。補完処理部804は、判定結果が補完対象領域を補完しやすいことを示している場合、第1補完手法を利用して入力画像中の補完対象領域を補完する。一方、補完処理部804は、判定結果が補完対象領域を補完しやすいことを示していない場合、第2補完手法を利用して入力画像中の補完対象領域を補完する。具体的な処理については後述する。補完処理部804は、補完がなされた後の入力画像(以下、「補完後画像」という。)を部分領域抽出部806に出力する。
合成情報記憶部805は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。合成情報記憶部805は、合成情報テーブルを記憶する。合成情報テーブルは、入力画像から生成される画像を背景画像に重畳するための情報(以下、「合成情報」という。)を表すレコード(以下、「合成情報レコード」という。)によって構成される。
The
The combined
図2は、合成情報テーブルの具体例を示す図である。
合成情報テーブルは、合成情報レコードを複数有する。合成情報レコードは、カメラID、抽出領域情報及び変換情報の各値を有する。カメラIDの値は、カメラ70を識別するための識別情報を表す。例えば、図2におけるカメラID“C1”で識別されるカメラ70はカメラ70−1であり、カメラID“CM”で識別されるカメラ70はカメラ70−Mである。
FIG. 2 is a diagram illustrating a specific example of the synthesis information table.
The composite information table has a plurality of composite information records. The composite information record has each value of camera ID, extraction area information, and conversion information. The value of the camera ID represents identification information for identifying the
抽出領域情報の値は、同じ合成情報レコードのカメラIDで識別されるカメラ70で撮影された画像(入力画像)から抽出する領域(以下、「抽出領域」という。)に関する情報を表す。抽出領域情報の具体例として、左上座標、幅及び高さがある。左上座標は、抽出領域の左上の座標を表す。幅は、抽出領域の幅を表す。高さは、抽出領域の高さを表す。なお、幅及び高さは、抽出領域の左上座標を基準とし、かつ、仮想視点を含む範囲に設定される。抽出領域は、合成された画像上で隣接するカメラ70の部分画像との間に隙間ができないような領域に設定されることが望ましい。
The value of the extraction area information represents information regarding an area (hereinafter referred to as “extraction area”) extracted from an image (input image) photographed by the
変換情報の値は、同じ合成情報レコードの抽出領域情報に応じて抽出された部分領域画像を部分画像に変換するための情報を表す。部分画像は、部分領域画像を背景画像の対応領域に違和感なく重畳するために、部分領域画像に対して上記変換情報に応じて拡大、縮小、回転等の変形処理を行うことによって生成される。この変形処理は、例えば、画像に対してアフィン変換を施すことによって行う。画像に対してアフィン変換を施す場合の変換情報は、例えばアフィン変換行列である。以下、部分領域画像に対して行う変形処理としてアフィン変換を用いる例を示すが、変形処理はアフィン変換に限定される必要はなく、変換情報に応じて拡大、縮小、回転等による画像の変換を行う処理であればどのような処理であってもよい。なお、アフィン変換行列には、背景画像において部分画像を重畳する領域を示す情報が含まれる。 The value of the conversion information represents information for converting a partial area image extracted according to the extracted area information of the same composite information record into a partial image. The partial image is generated by subjecting the partial region image to deformation processing such as enlargement, reduction, and rotation in accordance with the conversion information in order to superimpose the partial region image on the corresponding region of the background image. This deformation process is performed, for example, by performing affine transformation on the image. The conversion information when performing affine transformation on an image is, for example, an affine transformation matrix. The following shows an example of using affine transformation as the deformation processing performed on the partial area image. However, the deformation processing is not limited to affine transformation, and image conversion by enlargement, reduction, rotation, etc. is performed according to conversion information. Any process may be used as long as the process is performed. Note that the affine transformation matrix includes information indicating a region in which the partial image is superimposed on the background image.
アフィン変換行列は、以下に示す方法により予め取得して合成情報記憶部805に記憶される。例えば、仮想視点82から複数種類の距離(奥行)の位置に格子模様のチェスボードを設置して、仮想視点82に設置した全天球カメラ60で撮影したチェスボードを含む画像と、カメラ70で撮影したチェスボードを含む画像とを比較する。そして、チェスボードの各格子について、全天球カメラ60で撮影した画像中のチェスボードの格子と、カメラ70で撮影した画像中のチェスボードの格子が対応するように画像を変換するアフィン変換行列を求める。このようにして、チェスボードを設置した奥行に対応したアフィン変換行列を求める。
The affine transformation matrix is acquired in advance by the following method and stored in the composite
図2に示される例では、合成情報テーブルには複数の合成情報レコードが登録されている。図2において、合成情報テーブルの最上段に登録されている合成情報レコードは、カメラIDの値が“C1”、左上座標の値が“(A,B)”、幅の値が“C”、高さの値が“D”、変換情報の値が“A1i”である。すなわち、カメラID“C1”で識別されるカメラ70−1の入力画像から左上座標(A,B)、幅C、高さDで表される領域を抽出し、抽出された画像に対して“A1i”の変形処理を施すことが表されている。 In the example shown in FIG. 2, a plurality of composite information records are registered in the composite information table. In FIG. 2, the composite information record registered at the top of the composite information table has a camera ID value “C1”, an upper left coordinate value “(A, B)”, a width value “C”, The height value is “D” and the conversion information value is “A1 i ”. That is, an area represented by upper left coordinates (A, B), width C, and height D is extracted from the input image of the camera 70-1 identified by the camera ID “C1”. It is shown that the transformation process of A1 i ″ is performed.
図1に戻って、画像処理装置80の説明を続ける。
部分領域抽出部806は、オブジェクト解析部802から出力された入力画像と、合成情報記憶部805に記憶されている合成情報テーブルとを入力とする。また、部分領域抽出部806は、補完処理部804から出力された補完後画像と、合成情報記憶部805に記憶されている合成情報テーブルとを入力とする。部分領域抽出部806は、合成情報テーブルに基づいて、画像(入力画像又は補完後画像)から部分領域を抽出することによって部分領域画像を生成する。部分領域抽出部806は、生成した部分領域画像を画像合成部808に出力する。
背景画像記憶部807は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。背景画像記憶部807は、全天球カメラ60によって撮影された全天球画像を背景画像として記憶する。
Returning to FIG. 1, the description of the
The partial
The background
画像合成部808は、部分領域抽出部806から出力された部分領域画像と、合成情報記憶部805に記憶されている合成情報テーブルと、背景画像記憶部807に記憶されている背景画像とを入力とする。画像合成部808は、部分領域画像に対して、合成情報テーブルに含まれる変換情報のアフィン変換行列に基づいて変形処理を行うことによって部分画像を生成する。画像合成部808は、生成した部分画像をアフィン変換行列に基づいて背景画像に重畳することで仮想全天球画像を生成する。より具体的には、画像合成部808は、部分画像の画素値で、背景画像上の部分画像を重畳する領域の画素値を置き換えることによって背景画像に部分領域画像を重畳することで仮想全天球画像を生成する。
The
図3は、画像処理装置80の処理の流れを示すフローチャートである。
オブジェクト解析部802は、あるカメラxを選択する(ステップS101)。カメラxの選択方法は、どのような方法であってもよい。予め特定のカメラをカメラxとして定めておいてもよい。次に、オブジェクト解析部802は、選択したカメラxの入力画像を入力画像記憶部801から読み出す(ステップS102)。例えば、オブジェクト解析部802は、選択したカメラxが撮影した動画中のある入力画像を入力画像記憶部801から読み出す。オブジェクト解析部802は、読み出した入力画像を入力とし、入力された入力画像を解析することによって入力画像に前景オブジェクトが存在するか否か判定する(ステップS103)。なお、この際、オブジェクト解析部802は、入力画像に後景オブジェクトが存在するか否かについても解析する。入力画像に前景オブジェクトが存在する場合(ステップS103−YES)、オブジェクト解析部802は入力画像と、補完対象領域を示す情報と、後景オブジェクトの有無を示す情報とを判定部803に出力する。判定部803は、オブジェクト解析部802から出力された入力画像と、補完対象領域を示す情報と、後景オブジェクトの有無を示す情報とを入力とし、入力された入力画像及び補完対象領域と、後景オブジェクトの有無を示す情報とに基づいて難易性を判定、即ち、補完対象領域を補完しやすいか否か判定する(ステップS104)。
FIG. 3 is a flowchart showing a process flow of the
The
判定部803は、補完しやすいと判定した場合(ステップS104−YES)、補完しやすいことを示す判定結果と、補完対象領域の情報とを補完処理部804に出力する。補完処理部804は、判定部803から出力された判定結果と、補完対象領域の情報と、入力画像記憶部801に記憶されている入力画像とを入力とし、入力された判定結果が補完しやすいことを示しているため第1補完手法を利用して入力画像中の補完対象領域を補完する(ステップS105)。第1補完手法の具体的な処理については後述する。補完処理部804は、補完後画像を部分領域抽出部806に出力する。
一方、判定部803は、補完しやすいと判定しなかった場合(ステップS104−NO)、その旨を示す判定結果と、補完対象領域の情報とを補完処理部804に出力する。補完しやすいと判定しなかった場合に出力される判定結果の一例として、例えば、補完しやすいわけではないことを示す判定結果、あるいは、補完しにくいことを示す判定結果が挙げられる。補完処理部804は、判定部803から出力された判定結果と、補完対象領域の情報と、入力画像記憶部801に記憶されている入力画像とを入力とし、入力された判定結果が補完しやすいことを示していないため第2補完手法を利用して入力画像中の補完対象領域を補完する(ステップS106)。第2補完手法の具体的な処理については後述する。補完処理部804は、補完後画像を部分領域抽出部806に出力する。
If the
On the other hand, if the
部分領域抽出部806は、オブジェクト解析部802から出力された入力画像と、合成情報記憶部805に記憶されている合成情報テーブル、又は、補完処理部804から出力された補完後画像と、合成情報記憶部805に記憶されている合成情報テーブルとを入力とし、合成情報記憶部805に記憶されている合成情報テーブルで示される部分領域を画像から抽出することによって部分領域画像を生成する(ステップS107)。具体的には、部分領域抽出部806は、オブジェクト解析部802から出力された入力画像と、合成情報テーブルとを入力とした場合、つまりステップS103の処理において、入力画像に前景オブジェクトが存在しないと判定された場合(ステップ103−NO)、入力画像から合成情報テーブルで示される部分領域を抽出することによって部分領域画像を生成する。また、部分領域抽出部806は、補完処理部804から出力された補完後画像と、合成情報テーブルとを入力とした場合、つまりステップS106又は107の処理がなされた後、補完後画像から合成情報テーブルで示される部分領域を抽出することによって部分領域画像を生成する。その後、部分領域抽出部806は、生成した部分領域画像を画像合成部808に出力する。例えば、部分領域抽出部806は、カメラ70−1の入力画像に対して、合成情報テーブルのカメラ70−1に対応する合成情報レコードの抽出領域情報で表される領域を抽出することによって、カメラ70−1の入力画像の部分領域画像を生成する。
The partial
画像合成部808は、部分領域抽出部806から出力された部分領域画像と、合成情報記憶部805に記憶されている合成情報テーブルと、背景画像記憶部807に記憶されている背景画像とを入力とし、合成情報テーブルの変換情報に基づいて、生成された部分領域画像に対して変形処理を行うことによって部分画像を生成し、生成した部分画像を背景画像上の対応する位置に重畳する(ステップS108)。例えば、画像合成部808は、カメラ70−1の入力画像から生成された部分領域画像に対して、合成情報テーブルのカメラ70−1に対応する合成情報レコードの変換情報に応じて変形処理を行うことによって、カメラ70−1の部分領域画像の部分画像を生成し、生成した部分画像を、変換情報に含まれる背景画像において部分画像を重畳する領域を示す情報に基づいて背景画像に重畳する。
The
その後、判定部803は、全てのカメラ70の入力画像に対して処理が行なわれたか否か判定する(ステップS109)。より具体的には、判定部803は、前景オブジェクトが存在すると判定された全てのカメラ70の入力画像に対して補完手法による処理が行なわれたか否か判定する。前景オブジェクトが存在すると判定された全てのカメラ70の入力画像に対して補完手法による処理が行なわれた場合(ステップS109−YES)、画像処理装置80は処理を終了する。
一方、前景オブジェクトが存在すると判定された全てのカメラ70の入力画像に対して補完手法による処理が行なわれていない場合(ステップS109−NO)、ステップS101以降の処理が実行される。
Thereafter, the
On the other hand, when the processing by the complementing method is not performed on the input images of all the
図4は、判定部803による判定処理の流れを示すフローチャートである。
判定部803は、オブジェクト解析部802による解析結果に基づいて補完対象領域を決定する(ステップS201)。判定部803には、オブジェクト解析部802から出力された入力画像と、補完対象領域を示す情報と、後景オブジェクトの有無を示す情報とが入力されている。そこで、判定部803は、入力画像中の補完対象領域を示す情報で示される領域を補完対象領域に決定する。次に、判定部803は、補完対象領域が背景であるか否か判定する(ステップS202)。補完対象領域が背景であるか否かの判定は、前景オブジェクトの後方に後景オブジェクトが存在するか否かで行われる。まず、判定部803は、入力された後景オブジェクトの有無を示す情報から後景オブジェクトの有無を判定する。後景オブジェクトが存在しない場合、判定部803は補完対象領域が背景であると判定する。一方、後景オブジェクトが存在する場合、判定部803は後景オブジェクトが補完対象領域の後方に存在するか否か判定する。後景オブジェクトが補完対象領域の後方に存在する場合、判定部803は補完対象領域が背景ではないと判定する。一方、後景オブジェクトが補完対象領域の後方に存在する場合、判定部803は補完対象領域が背景であると判定する。
FIG. 4 is a flowchart showing the flow of determination processing by the
The
補完対象領域が背景である場合(ステップS202−YES)、判定部803は補完対象領域を補完しやすいと判定する(ステップS203)。そして、判定部803は、補完対象領域を補完しやすいことを示す情報を含む判定結果と、補完対象領域の情報とを補完処理部804に出力する。
一方、補完対象領域が背景ではない場合(ステップS202−NO)、判定部803は他のカメラ70の入力画像(過去の入力画像も含む)から類似画像を検索する(ステップS204)。例えば、判定部803は、ステップS101の処理で選択されたカメラx以外のカメラ70(例えば、カメラy)について、S(Vy(T+1)、Vy(t))<Thとなる時刻tを求める。ここで、S(a、b)は、aとbとの類似度を表す。Thは、閾値を表す。T+1は現時刻を表し、tは現時刻よりも前の時刻を表す。つまり、類似画像とは、ステップS101の処理で選択されたカメラxの入力画像の後景オブジェクトが存在する画像であり、かつ、上記Th未満となる時刻tの画像を表す。
When the complement target region is the background (step S202—YES), the
On the other hand, when the complement target region is not the background (step S202—NO), the
判定部803は、検索の結果、見つかった時刻tにおけるカメラxの入力画像において補完対処領域に前景オブジェクトが存在するか否かを調べる(ステップS205)。その結果、判定部803は、カメラxの入力画像において、補完対処領域内に前景オブジェクトが存在しない時刻tがあるか否か判定する(ステップS206)。前景オブジェクトが存在しない時刻tがある場合(ステップS206−YES)、判定部803は補完対象領域を補完しやすいと判定する(ステップS203)。判定部803は、補完対象領域を補完しやすいことを示す情報を含む判定結果と、補完対象領域の情報とを補完処理部804に出力する。
一方、それ以外の場合、即ち、前景オブジェクトが存在しない時刻tがない場合(ステップS206−NO)、判定部803は補完対象領域を補完しやすいわけではない、あるいは、補完しにくいと判定する(ステップS207)。そして、判定部803は、補完対象領域を補完しやすいわけではないこと、あるいは、補完しにくいことを示す情報を含む判定結果と、補完対象領域の情報とを補完処理部804に出力する。
As a result of the search, the
On the other hand, in other cases, that is, when there is no time t when the foreground object does not exist (step S206—NO), the
図5は、第1補完手法における処理の流れを示すフローチャートである。
補完処理部804は、前景オブジェクトが存在しない時刻tにおけるカメラxの入力画像を参照画像とする(ステップS301)。次に、補完処理部804は、補完対象領域に対して画像処理を行うことを示すマスク領域を有するマスク画像を生成する。そして、補完処理部804は、参照画像を用いて、生成したマスク画像で示されているマスク領域を補完する(ステップS302)。具体的には、まず補完処理部804は、ステップS102の処理で読み出された入力画像から補完対象領域と、補完対象領域以外の領域とを共に含む小領域(パッチ)を選択する。この方法としては、補完対象領域の輪郭上に存在するパッチであって、パッチ領域中の補完対象領域以外の領域の画素のエッジ強度が強いパッチから選定する方法などが挙げられる。次に、補完処理部804は、選択したパッチの補完対象領域以外の画素を基に、参照画像から類似パッチを検出する。ここで、類似パッチとは、選択したパッチの画素の画素値と画素値が類似したパッチを表す。そして、補完処理部804は、検出した類似パッチを、選択したパッチに重畳する。つまり、補完処理部804は、類似パッチの画素値で選択したパッチの画素値を置き換える。補完処理部804は、以上の処理を補完対象領域が無くなるまで実行する。
FIG. 5 is a flowchart showing the flow of processing in the first complement method.
The
なお、上記の例では、補完手法(コンプリーション手法)としてパッチベースの手法を例に説明したが、補完手法はこれに限定される必要はない。補完手法としては、その他の手法が用いられてもよい。例えば、補完対象領域の画素の、類似パッチ中での該当位置の画素を用いて補完する手法や、複数の類似パッチ中の該当位置の画素の重みづけ平均の画素を用いて補完する手法などがある。 In the above example, the patch-based method is described as an example of the complementing method (completion method), but the complementing method is not necessarily limited to this. Other methods may be used as the complementing method. For example, there is a method of complementing using the pixel at the corresponding position in the similar patch of the pixel in the complement target region, or a method of complementing using the weighted average pixel of the pixel at the corresponding position in the plurality of similar patches. is there.
図6は、第2補完手法における処理の流れを示すフローチャートである。
補完処理部804は、第1前処理を行う(ステップS401)。具体的には、補完処理部804は、第1前処理として、ステップS102の処理で読み出された入力画像と同時刻に撮影された全てのカメラ70の入力画像を読み出すとともに、各入力画像の補完対象領域に対して画像処理を行うことを示すマスク領域を有するマスク画像を生成する。その結果を図7に示す。
FIG. 6 is a flowchart showing the flow of processing in the second complement method.
The
図7は、入力画像及びマスク画像の具体例を示す図である。
図7(A)は、同時刻に撮影された複数のカメラ70の入力画像を表す図である。図7(A)では、カメラID“1”からカメラID“5”で識別される5台のカメラ70−1〜70−5それぞれで撮影された入力画像を示している。例えば、入力画像83−1はカメラID“1”で識別されるカメラ70−1で撮影された画像を表す。各入力画像83−1〜83−5には、オブジェクト84及び85が含まれる。ここで、オブジェクト84は後景オブジェクトを表し、オブジェクト85は前景オブジェクトを表す。つまり、オブジェクト85の領域が補完対象領域を表す。
FIG. 7 is a diagram illustrating specific examples of the input image and the mask image.
FIG. 7A is a diagram illustrating input images of a plurality of
図7(B)は、入力画像83−1〜83−5のマスク画像87−1〜87−5を表す図である。図7(B)におけるマスク画像87−1〜87−5は、領域88で示す領域に対して画像処理を行うことを示し、領域89で示す領域に対して画像処理を行わないことを示している。第1前処理では、入力画像及びマスク画像をカメラ70の台数×時間t分用意する必要があるため多次元配列となる。例えば、マスク画像の場合、(二次元×1ch×カメラの台数×時刻t)次元の配列となる。
FIG. 7B is a diagram illustrating mask images 87-1 to 87-5 of the input images 83-1 to 83-5. Mask images 87-1 to 87-5 in FIG. 7B indicate that image processing is performed on the region indicated by
次に、補完処理部804は、第2前処理を行う(ステップS402)。具体的には、補完処理部804は、第2前処理として、マスク画像中のマスク領域の大きさを求める。その結果を図8に示す。
図8は、マスク画像毎のマスク領域の大きさを表す図である。
図8において、縦軸はマスク領域の大きさを表し、横軸はカメラIDを表す。図8に示されるグラフには、各マスク画像87−1〜87−5のマスク領域88−1〜88−5の大きさ(ピクセル数)に応じたプロットが示されている。図8を参照すると、カメラID“2”〜“4”で識別されるカメラ70−2〜70−4の入力画像に対するマスク画像のマスク領域が最も大きいことが示されている。
Next, the
FIG. 8 is a diagram illustrating the size of the mask area for each mask image.
In FIG. 8, the vertical axis represents the size of the mask area, and the horizontal axis represents the camera ID. The graph shown in FIG. 8 shows plots corresponding to the sizes (number of pixels) of the mask regions 88-1 to 88-5 of the mask images 87-1 to 87-5. Referring to FIG. 8, it is shown that the mask area of the mask image with respect to the input images of the cameras 70-2 to 70-4 identified by the camera IDs “2” to “4” is the largest.
次に、補完処理部804は、入力画像に対してマスク領域が存在するか否か判定する(ステップS403)。マスク領域が存在しない場合(ステップS403−NO)、画像処理装置80は第2補完手法による処理を終了する。
一方、マスク領域が存在する場合(ステップS403−YES)、補完処理部804は基準カメラを決定する(ステップS404)。ここで、基準カメラとは、第2補完手法を施す対象となるマスク領域、つまり補完対象領域を有する入力画像を撮影したカメラ70を表す。基準カメラを決定する方法として以下のような方法がある。
Next, the
On the other hand, when the mask area exists (step S403-YES), the
(基準カメラ決定方法)
ステップS402の処理で求めた入力画像のマスク領域が最も大きい入力画像を撮影したカメラ70(前景オブジェクトが最も大きく映り込んでいる入力画像を撮影したカメラ70)を基準カメラに決定。
マスク領域が最も大きい入力画像を撮影したカメラ70が複数存在する場合(図8におけるカメラID2、ID3及びID4)、それらの中央に近いカメラ70を基準カメラに決定。
中央に近いカメラ70が複数存在する場合(例えば、マスク領域が最も大きい入力画像を撮影したカメラ70が4台の場合)、内側の2台のカメラのうちどちらかのカメラ70を基準カメラに決定。この場合は、どちらのカメラ70に決定されてもよい。
(Reference camera determination method)
The
When there are a plurality of
When there are a plurality of
図8の例では、カメラID3のカメラ70が基準カメラに決定される。その後、補完処理部804は、基準カメラ以外のカメラ70の入力画像及び全てのマスク画像に対してアフィン変換処理を行う(ステップS405)。ここで行われるアフィン変換処理は、基準カメラを基準として、基準カメラ以外のカメラ70の入力画像及び全てのマスク画像を基準カメラから見た画像に変換する処理を表す。アフィン変換処理後のマスク画像の結果を図9に示す。
In the example of FIG. 8, the
図9は、アフィン変換後のマスク画像の具体例を示す図である。
図9において、各マスク画像87−1、87−2、87−4及び87−5には、それぞれ領域90が示されている。この領域90は、アフィン変換時に対応が取れなかった画素の領域を表す。つまり、領域90は、アフィン変換時に基準カメラからの見た目が作れなかった領域を表す。以下、領域90を非マスク領域(マスク領域に含めない領域)と表す。なお、マスク画像87−3は、基準カメラの入力画像におけるマスク画像であるため領域90が存在しない。
FIG. 9 is a diagram illustrating a specific example of a mask image after affine transformation.
In FIG. 9, each mask image 87-1, 87-2, 87-4, and 87-5 shows the area |
その後、補完処理部804は、以下のエネルギー関数Eに基づいて、全てのカメラ70の中からエネルギー関数Eが最小となるカメラを参照カメラとして決定する(ステップS406)。ここで、参照カメラとは、基準カメラの入力画像の補完対象領域を補完するために用いる入力画像を撮影したカメラを表す。なお、入力画像の探索範囲は、前後T時刻分である。
Thereafter, based on the energy function E below, the
(エネルギー関数E)
E=α1×d1+α2×S+α3×S1+α4×(1/d2)+α5×a
ここで、α1〜α5は重み係数を表す。d1は基準カメラから他のカメラまでの距離を表す。Sはマスク領域の大きさを表す。S1はアフィン変換時に対応が取れなかった画素の大きさを表す。つまり、S1は非マスク領域の大きさを表す。d2は前景オブジェクトと、後景オブジェクトとのオブジェクト間距離を表す。ここで、d2は以下のように算出される。まず補完処理部804は、セグメンテーションにより入力画像から各オブジェクトを抽出する。次に、補完処理部804は、前景オブジェクトと、後景オブジェクトとの中心位置間の距離を算出する。なお、後景オブジェクトが複数存在する場合には、後景オブジェクトの中で最も前景オブジェクトの近くに位置している後景オブジェクトと、前景オブジェクトとの中心位置間の距離を表す。aは前景オブジェクトと、後景オブジェクトとが完全に離れているかを示す2値数である。ここで、aは以下のように求められる。まず補完処理部804は、背景差分法によりオブジェクト領域を抽出する。次に、補完処理部804は、クラスタリング等によりオブジェクトの個数を算出する。そして、補完処理部804は、オブジェクトの個数が基準カメラのオブジェクト個数を上回っていれば1、そうでなければ0とする。
(Energy function E)
E = α1 × d1 + α2 × S + α3 × S1 + α4 × (1 / d2) + α5 × a
Here, α1 to α5 represent weighting factors. d1 represents the distance from the reference camera to another camera. S represents the size of the mask area. S1 represents the size of a pixel that cannot be dealt with during affine transformation. That is, S1 represents the size of the non-mask area. d2 represents an inter-object distance between the foreground object and the background object. Here, d2 is calculated as follows. First, the
補完処理部804は、上記エネルギー関数Eを全てのカメラ70の入力画像前後T時刻分算出する。そして、補完処理部804は、エネルギー関数Eが最小となる入力画像を撮影したカメラ70を参照カメラとして決定する。なお、補完処理部804は、基準カメラについては参照カメラの決定処理の対象から除外してもよい。その後、補完処理部804は、参照カメラの入力画像のうち、エネルギー関数Eが最小となった入力画像を参照画像として用いて補完対象領域を補完する(ステップS407)。その後、ステップS401以降の処理を繰り返し実行する。
The
以上のように構成された画像処理装置80によれば、複数の撮影装置のそれぞれで撮影された複数の画像のいずれかに存在する除去対象となる被写体による画像の品質低下を抑制することが可能になる。以下、この効果について詳細に説明する。
画像処理装置80は、入力画像に含まれる補完対象領域に基づいて、補完対象領域が補完しやすいか否かを判定する。そして、画像処理装置80は、判定結果に基づいて、異なる補完手法を利用して補完対象領域を補完する。例えば、画像処理装置80は、補完対象領域が補完しやすい場合、第1補完手法を利用して、前景オブジェクトが存在する入力画像を撮影したカメラ70の過去の入力画像を参照画像として用いて補完対象領域を補完する。また、例えば、画像処理装置80は、補完対象領域を補完しやすいと判定しなかった場合、第2補完手法を利用して、前景オブジェクトが存在する入力画像を撮影したカメラ70と他のカメラ70の過去の入力画像のいずれかを参照画像として用いて補完対象領域を補完する。このように、画像処理装置80は、いずれかの補完手法で補完対象領域を補完する。したがって、そのため、複数の撮影装置のそれぞれで撮影された複数の画像のいずれに除去対象となる被写体が存在する場合であっても、除去対象となる被写体を除去し、被写体が除去された領域を補完することができる。複数の撮影装置のそれぞれで撮影された複数の画像のいずれかに存在する除去対象となる被写体による画像の品質低下を抑制することが可能になる。
According to the
The
<変形例>
本発明は上記の実施形態に限定される必要はない。例えば、本発明は、複数のカメラ70でそれぞれ撮影された複数の動画に含まれる特定の動画中の特定の画像において除去対象となる被写体が除去された領域(補完対象領域)を補完した後の画像を得る場合にも適用可能である。
本実施形態では、合成情報テーブルに登録されている幅の値が全てのカメラIDで同じであるが、幅の値はカメラID毎に異なっていてもよいし、一部のカメラIDで異なっていてもよい。
本実施形態では、前景オブジェクトと後景オブジェクトとの切り分け方として、オブジェクト認識やセグメンテーションを用いる方法を示したが、以下のような2つの方法が用いられてもよい。
(第1の方法)
第1の方法は、レンジセンサを用いる方法である。レンジセンサを用いる場合、仮想視点よりも奥に位置するオブジェクトを後景オブジェクトとし、仮想視点よりも手前に位置するオブジェクトを前景オブジェクトとする。
(第2の方法)
第2の方法は、競技用コート10上部のカメラ映像を用いる方法である。競技用コート10上部にカメラを設置できる場合、予め天井などの競技用コート10上部に設置したカメラと、競技用コート10外に設置したカメラ70とのキャリブレーションを事前に済ませておく。その後、競技用コート10上部のカメラの映像から人物やボールなどのオブジェクトをトラッキングし、各オブジェクトが各カメラ70からどのように観察できているのかを推定する。
<Modification>
The present invention need not be limited to the above-described embodiment. For example, the present invention complements an area from which a subject to be removed (a complement target area) is removed from a specific image in a specific video included in a plurality of videos respectively captured by a plurality of
In the present embodiment, the width value registered in the composite information table is the same for all camera IDs, but the width value may be different for each camera ID, or may be different for some camera IDs. May be.
In the present embodiment, a method using object recognition or segmentation is shown as a method for separating the foreground object and the background object. However, the following two methods may be used.
(First method)
The first method is a method using a range sensor. When the range sensor is used, an object positioned behind the virtual viewpoint is set as a foreground object, and an object positioned before the virtual viewpoint is set as a foreground object.
(Second method)
The second method is a method using a camera image on the upper part of the
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
60…全天球カメラ, 70(70−1〜70−M)…カメラ, 4、80…画像処理装置, 801…入力画像記憶部, 802…オブジェクト解析部, 803…判定部, 804…補完処理部, 805…合成情報記憶部, 806…部分領域抽出部, 807…背景画像記憶部, 808…画像合成部
DESCRIPTION OF
Claims (6)
前記判定部によって、前記特定の入力画像を撮影した撮影装置によって撮影された他の入力画像を用いて前記補完対象領域を補完しやすいと判定された場合、前記特定の入力画像を撮影した撮影装置によって撮影された入力画像のいずれかを参照画像として用いて前記補完対象領域を補完する第1補完手法を利用して前記補完対象領域を補完し、それ以外の場合、前記特定の入力画像を撮影した撮影装置によって撮影された入力画像及び他の撮影装置によって撮影された入力画像のいずれかを参照画像として用いて前記補完対象領域を補完する第2補完手法を利用して前記補完対象領域を補完する補完処理部と、
を備える画像処理装置。 The specific input based on a complementary target area where a target object to be removed exists in the specific input image in a specific input image in the specific video among the videos captured by each of the plurality of imaging devices. A determination unit that determines the difficulty indicating the degree of difficulty in complementing the region to be complemented using another input image photographed by the photographing device that photographed the image;
If the determination unit determines that it is easy to complement the region to be complemented using another input image captured by the imaging device that captured the specific input image, the imaging device that captured the specific input image The complement target area is complemented using a first complement method that complements the complement target area using any of the input images photographed as a reference image, otherwise the specific input image is photographed. The complement target region is complemented using a second complement method that complements the complement target region using either an input image photographed by the photographing device or an input image photographed by another photographing device as a reference image. A complementary processing unit to
An image processing apparatus comprising:
前記判定ステップにおいて、前記特定の入力画像を撮影した撮影装置によって撮影された他の入力画像を用いて前記補完対象領域を補完しやすいと判定された場合、前記特定の入力画像を撮影した撮影装置によって撮影された入力画像のいずれかを参照画像として用いて前記補完対象領域を補完する第1補完手法を利用して前記補完対象領域を補完し、それ以外の場合、前記特定の入力画像を撮影した撮影装置によって撮影された入力画像及び他の撮影装置によって撮影された入力画像のいずれかを参照画像として用いて前記補完対象領域を補完する第2補完手法を利用して前記補完対象領域を補完する補完処理ステップと、
を有する画像処理方法。 The specific input based on a complementary target area where a target object to be removed exists in the specific input image in a specific input image in the specific video among the videos captured by each of the plurality of imaging devices. A determination step for determining difficulty representing a degree of difficulty of complementing the region to be complemented using another input image photographed by a photographing device that photographed the image;
In the determination step, when it is determined that the complement target area is easily complemented using another input image captured by the imaging device that captured the specific input image, the imaging device that captured the specific input image The complement target area is complemented using a first complement method that complements the complement target area using any of the input images photographed as a reference image, otherwise the specific input image is photographed. The complement target region is complemented using a second complement method that complements the complement target region using either an input image photographed by the photographing device or an input image photographed by another photographing device as a reference image. Complementary processing steps to
An image processing method.
前記判定ステップにおいて、前記特定の入力画像を撮影した撮影装置によって撮影された他の入力画像を用いて前記補完対象領域を補完しやすいと判定された場合、前記特定の入力画像を撮影した撮影装置によって撮影された入力画像のいずれかを参照画像として用いて前記補完対象領域を補完する第1補完手法を利用して前記補完対象領域を補完し、それ以外の場合、前記特定の入力画像を撮影した撮影装置によって撮影された入力画像及び他の撮影装置によって撮影された入力画像のいずれかを参照画像として用いて前記補完対象領域を補完する第2補完手法を利用して前記補完対象領域を補完する補完処理ステップと、
をコンピュータに実行させるためのコンピュータプログラム。 The specific input based on a complementary target area where a target object to be removed exists in the specific input image in a specific input image in the specific video among the videos captured by each of the plurality of imaging devices. A determination step for determining difficulty representing a degree of difficulty of complementing the region to be complemented using another input image photographed by a photographing device that photographed the image;
In the determination step, when it is determined that the complement target area is easily complemented using another input image captured by the imaging device that captured the specific input image, the imaging device that captured the specific input image The complement target area is complemented using a first complement method that complements the complement target area using any of the input images photographed as a reference image, otherwise the specific input image is photographed. The complement target region is complemented using a second complement method that complements the complement target region using either an input image photographed by the photographing device or an input image photographed by another photographing device as a reference image. Complementary processing steps to
A computer program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015232343A JP6389452B2 (en) | 2015-11-27 | 2015-11-27 | Image processing apparatus, image processing method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015232343A JP6389452B2 (en) | 2015-11-27 | 2015-11-27 | Image processing apparatus, image processing method, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017097800A JP2017097800A (en) | 2017-06-01 |
JP6389452B2 true JP6389452B2 (en) | 2018-09-12 |
Family
ID=58817077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015232343A Active JP6389452B2 (en) | 2015-11-27 | 2015-11-27 | Image processing apparatus, image processing method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6389452B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114885086A (en) * | 2021-01-21 | 2022-08-09 | 华为技术有限公司 | Image processing method, head-mounted device and computer-readable storage medium |
US20240112446A1 (en) * | 2021-02-24 | 2024-04-04 | Sony Group Corporation | Image processing device, image processing method, projector device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5366258B2 (en) * | 2010-02-17 | 2013-12-11 | Kddi株式会社 | Virtual viewpoint image generation method and program based on geometric information in large space camera arrangement |
WO2014013673A1 (en) * | 2012-07-20 | 2014-01-23 | パナソニック株式会社 | Moving image generation device and moving image generation method |
JP5969376B2 (en) * | 2012-12-19 | 2016-08-17 | Kddi株式会社 | Virtual viewpoint video generation device, virtual viewpoint video generation method, and program |
-
2015
- 2015-11-27 JP JP2015232343A patent/JP6389452B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017097800A (en) | 2017-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109788215B (en) | Image processing apparatus, computer-readable storage medium, and image processing method | |
KR101670282B1 (en) | Video matting based on foreground-background constraint propagation | |
JP6204659B2 (en) | Video processing apparatus and video processing method | |
KR101223046B1 (en) | Image segmentation device and method based on sequential frame imagery of a static scene | |
US11151787B2 (en) | Generation device, generation method and storage medium for three-dimensional model from object images and structure images | |
US11798233B2 (en) | Generation device, generation method and storage medium for three-dimensional model that remove a portion of the three-dimensional model | |
JP7159384B2 (en) | Image processing device, image processing method, and program | |
JP7098601B2 (en) | Image processing equipment, imaging equipment, image processing methods, and programs | |
JP6389452B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP5290915B2 (en) | Image processing apparatus, image processing method, and program | |
JP6606242B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP6346157B2 (en) | Image processing apparatus, image processing method, and computer program | |
US9392146B2 (en) | Apparatus and method for extracting object | |
JP6416741B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP6416740B2 (en) | Image processing apparatus, image processing method, and computer program | |
KR101781158B1 (en) | Apparatus for image matting using multi camera, and method for generating alpha map | |
JP6392739B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6350331B2 (en) | TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM | |
JP6420750B2 (en) | Composite information table creation apparatus, composite information table creation method, and computer program | |
JP5838112B2 (en) | Method, program and apparatus for separating a plurality of subject areas | |
JP6416734B2 (en) | Image processing apparatus, image processing method, and computer program | |
KR101297396B1 (en) | Method of shadow removal based on relative similarity | |
KR101893142B1 (en) | Object extraction method and apparatus | |
JP6450306B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP7365862B2 (en) | Object tracking device and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170801 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180705 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180814 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180817 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6389452 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |