JP2018198463A - Image processing device, image processing method, and computer program - Google Patents
Image processing device, image processing method, and computer program Download PDFInfo
- Publication number
- JP2018198463A JP2018198463A JP2018169915A JP2018169915A JP2018198463A JP 2018198463 A JP2018198463 A JP 2018198463A JP 2018169915 A JP2018169915 A JP 2018169915A JP 2018169915 A JP2018169915 A JP 2018169915A JP 2018198463 A JP2018198463 A JP 2018198463A
- Authority
- JP
- Japan
- Prior art keywords
- image
- partial
- region
- input
- partial image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、複数の撮影装置によって撮影された画像の処理技術に関する。 The present invention relates to a technique for processing an image photographed by a plurality of photographing devices.
近年、360度のパノラマ画像を撮影できるカメラ(以下、「全天球カメラ」という。)が普及し始めている。全天球カメラによって撮影されたパノラマ画像(以下、「全天球画像」という。)は、所望の視点位置に全天球カメラを設置することで撮影することができる。しかしながら、競技中の競技者の邪魔となるためサッカーコートやバスケットコートなどの競技用コートの中には全天球カメラを設置することができない。そのため、競技用コートの中の所望の視点位置における競技中の全天球画像を撮影することができない。 In recent years, cameras capable of capturing 360-degree panoramic images (hereinafter referred to as “global cameras”) have begun to spread. A panoramic image captured by the omnidirectional camera (hereinafter referred to as “spherical image”) can be captured by installing the omnidirectional camera at a desired viewpoint position. However, a spherical camera cannot be installed in a competition court such as a soccer court or a basketball court because it interferes with the competitors during the competition. For this reason, it is not possible to take an omnidirectional image during competition at a desired viewpoint position in the competition court.
そこで、全天球カメラを設置することのできない場所に仮想的な視点である仮想視点を設定して、この仮想視点において全天球カメラで撮影したかのような全天球画像を、コートの外側に設置された複数のカメラによって撮影された画像を合成することによって得る技術が提案されている(例えば、非特許文献1参照)。以下の説明において、仮想視点における全天球画像を、仮想全天球画像と記載する。 Therefore, a virtual viewpoint, which is a virtual viewpoint, is set at a place where the omnidirectional camera cannot be installed, and an omnidirectional image as if taken with the omnidirectional camera at this virtual viewpoint is displayed on the court. There has been proposed a technique obtained by combining images taken by a plurality of cameras installed on the outside (see, for example, Non-Patent Document 1). In the following description, the omnidirectional image at the virtual viewpoint is referred to as a virtual omnidirectional image.
仮想全天球画像を複数のカメラによって撮影された画像の合成によって得るシステムの具体例について説明する。
図5は、従来システムにおいて仮想全天球画像を得るためのシステムを示す図である。図5に示すように、画像処理システム1は、全天球カメラ2と、複数のカメラ3−1、3−2、3−3、・・・、3−N(以下、「カメラ群3」という。)(Nは4以上の整数)と、画像処理装置4と、表示装置5とを備える。画像処理システム1は、競技用コート10内に仮想視点11を設定した場合に、競技用コート10外に設置したカメラ群3によって撮影された画像の合成によって仮想視点11における仮想全天球画像を得る。
A specific example of a system that obtains a virtual omnidirectional image by combining images captured by a plurality of cameras will be described.
FIG. 5 is a diagram showing a system for obtaining a virtual omnidirectional image in a conventional system. As shown in FIG. 5, the
全天球カメラ2は、全天球画像を撮影するカメラである。全天球カメラ2は、競技が行われる前のタイミングで競技用コート10内の仮想視点11の位置に設置される。全天球カメラ2は、仮想視点11の位置から、仮想全天球画像の背景となる画像(以下、「背景画像」という。)を撮影する。全天球カメラ2で撮影された背景画像は、画像処理装置4に入力されて蓄積される。このように、画像処理装置4は、予め背景画像を蓄積する。
The
競技用コート10の周囲には、カメラ群3が設置されている。カメラ群3は、それぞれ仮想視点11を含む画角となるように競技用コート10の周囲に設置されている。カメラ群3は、仮想視点11を含む領域を撮影する。画像処理装置4は、各カメラ群3によって撮影された画像に対して画像処理を施して、背景画像に画像処理後の画像を合成して仮想全天球画像を生成する。表示装置5は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、CRT(Cathode Ray Tube)ディスプレイ等の画像表示装置である。表示装置5は、画像処理装置4で生成した仮想全天球画像を表示する。
A
次に、画像処理システム1における画像処理の具体例について図6を用いて説明する。
図6は、画像処理システム1における画像処理の流れを説明するための図である。図6(A)は、背景画像20の具体例を示す図である。背景画像20には、仮想視点11を中心として全方位(360度)の被写体が撮影されている。背景画像20は、競技用コート10内に人物がいない状態で撮影される画像であるので競技用コート10内には人物が撮影されない。
Next, a specific example of image processing in the
FIG. 6 is a diagram for explaining the flow of image processing in the
図6(B)は、各カメラ3−1、3−2及び3−3で撮影された画像を示す図である。図6(B)には、左からカメラ3−1で撮影された画像21と、カメラ3−2で撮影された画像22と、カメラ3−3で撮影された画像23とが示されている。画像処理装置4は、画像21〜23のそれぞれから仮想視点11を含む領域211、221、231を抽出する。画像処理装置4は、抽出した領域211、221、231の画像に対して、画像処理を行うことで背景画像20に合成可能な部分画像211a、221a、231aを生成する。
FIG. 6B is a diagram illustrating images captured by the cameras 3-1, 3-2, and 3-3. FIG. 6B shows an
画像処理装置4は、背景画像20に対して部分画像211a、221a、231aを合成することによって仮想全天球画像24を生成する。図6(C)は、画像処理装置4が生成する仮想全天球画像24の例を示す図である。図9(C)に示すように、仮想全天球画像24の所定の領域には部分画像211a、221a、231aが合成されている。そのため、仮想全天球画像24として、競技用コート10上に物体(例えば、人物)が撮影されている画像が生成される。
The
従来の画像処理システム1は、合成に用いているカメラ群3の光学中心及び仮想視点11において想定する全天球カメラの光学中心はそれぞれ異なる。そのため、合成された仮想全天球画像24は幾何学的に正しくない画像を含む。これを防ぐためには、画像処理装置4は、部分画像211a、221a、231aを、仮想視点11からの距離を示す奥行きの一点で整合性が保たれるよう画像処理を行い背景画像20に合成する必要がある。しかしながら、整合性が保たれる奥行きに存在せずに別の奥行に存在している物体(例えば、人物)の部分画像を合成する場合には、画像処理により奥行きの整合性を保つことができない。このような奥行に整合性のない物体は、仮想全天球画像24において、その画像が分身(多重像)したり、消失したりする現象が発生する。
In the conventional
以下に、図7を用いて仮想全天球画像24において、物体の画像が分身したり、消失したりする現象について説明する。図7は、画像処理システム1における課題を説明するための図である。図7において、撮影範囲41は、カメラ3−1の撮影範囲において図6(B)に示した領域211の撮影範囲を示す。撮影範囲42は、カメラ3−2の撮影範囲において図6(B)に示した領域221の撮影範囲を示す。撮影範囲43は、カメラ3−3の撮影範囲において図6(B)に示した領域231の撮影範囲を示す。また、仮想視点11からの距離(奥行)が異なる3つの物体(例えば、人物)49〜51が存在する。
Hereinafter, with reference to FIG. 7, a phenomenon in which an image of an object is duplicated or disappears in the virtual
図7において破線で示している仮想視点11からの第1の距離を示す奥行46は、各撮影範囲41〜43が、重なりなく並んでいる。このような奥行46に位置する被写体49は、その画像が分身したり消失したりすることがなく、奥行に整合性のある被写体である。仮想視点11からの第2の距離を示す奥行47は、各撮影範囲41〜43が、横線部分44に示すように重なっている。このような奥行47に位置する被写体50は、その画像が分身してしまうので、奥行に整合性のない被写体となる。仮想視点11からの第3の距離を示す奥行48は、各撮影範囲41〜43の間が斜線部分45に示すように空いている。このような奥行48に位置する被写体51は、その画像の一部が消失してしまうので、奥行に整合性のない被写体となる。
In the
仮想全天球画像において物体が存在する領域は、人が注視する領域(以下、「視聴領域」という。)である可能性が高い。そのため、視聴領域に存在する物体に多重像や消失が発生してしまうと、仮想全天球画像の品質が低下してしまうという問題がある。このような問題は、仮想全天球画像に限らず、複数のカメラで撮影された画像を背景画像に合成することによって生成される合成画像全てに共通する課題である。 There is a high possibility that a region where an object is present in the virtual omnidirectional image is a region that is watched by a person (hereinafter referred to as “viewing region”). For this reason, if multiple images or disappearance occurs in an object existing in the viewing area, there is a problem that the quality of the virtual omnidirectional image is degraded. Such a problem is not limited to a virtual omnidirectional image, but is a problem common to all synthesized images generated by synthesizing images taken by a plurality of cameras with a background image.
上記事情に鑑み、本発明は、複数のカメラで撮影された画像を背景画像に合成することによって生成される合成画像の品質低下を抑制する技術の提供を目的としている。 In view of the above circumstances, an object of the present invention is to provide a technique for suppressing deterioration in quality of a composite image generated by combining images taken by a plurality of cameras with a background image.
本発明の一態様は、第1の入力画像及び第2の入力画像の少なくともいずれか一方と異なる位置、および/または、異なる時刻に撮影された画像である背景画像に設定された所定の領域を挟む第1の領域及び第2の領域に対して、第1の入力画像及び第2の入力画像から生成された第1の部分画像及び第2の部分画像を重畳することによって合成画像を生成する合成画像生成部と、前記第1の入力画像と前記第2の入力画像とを前記所定の領域の補完に利用する参照画像として用いることによって、重畳された前記第1の部分画像と前記第2の部分画像との間の前記所定の領域を補完する画像処理部と、を備え、前記第1の部分画像と前記第2の部分画像は、所定の奥行に位置する同一の被写体が異なる位置から撮像された画像であり、前記第1の部分画像及び前記第2の部分画像は、前記被写体の一部を含み、前記第1の部分画像に含まれる前記被写体の一部は、前記第2の部分画像に含まれる前記被写体の一部と異なるものであり、前記所定の領域は、前記第1の領域及び前記第2の領域に対して、前記第1の部分画像と前記第2の部分画像をそれぞれ重畳した際に、前記第1の部分画像に含まれず、かつ、前記第2の部分画像にも含まれない、前記被写体の一部の領域を含み、前記画像処理部は、前記所定の領域のうちの前記第1の部分画像寄りの領域である第1範囲については前記第1の入力画像を用いることによって前記第1範囲を補完し、前記所定の領域のうちの前記第2の部分画像寄りの領域である第2範囲については前記第2の入力画像を用いることによって前記第2範囲を補完し、前記所定の領域の中心付近については前記第1の入力画像及び前記第2の入力画像のいずれかを用いることによって補完する画像処理装置である。 According to one embodiment of the present invention, a predetermined region set in a background image that is an image photographed at a different position and / or at a different time from at least one of the first input image and the second input image. A composite image is generated by superimposing the first partial image and the second partial image generated from the first input image and the second input image on the sandwiched first region and second region. By using the composite image generation unit, the first input image, and the second input image as reference images used for complementing the predetermined region, the superimposed first partial image and the second image An image processing unit that complements the predetermined area between the first partial image and the second partial image, and the first partial image and the second partial image are different from each other in the same subject located at a predetermined depth. A captured image, said One partial image and the second partial image include a part of the subject, and a part of the subject included in the first partial image is a part of the subject included in the second partial image. The predetermined area is different from the first area and the second area when the first partial image and the second partial image are superimposed on the first area and the second area, respectively. A partial area of the subject that is not included in one partial image and not included in the second partial image, and the image processing unit includes the first part of the predetermined area. The first range which is an area closer to the image is complemented by using the first input image, and the second range which is an area closer to the second partial image in the predetermined area. For the above by using the second input image Complement the 2 range, the vicinity of the center of the predetermined area is an image processing apparatus which complemented by the use of any of the first input image and the second input image.
本発明の一態様は、第1の入力画像及び第2の入力画像の少なくともいずれか一方と異なる位置、および/または、異なる時刻に撮影された画像である背景画像に設定された所定の領域を挟む第1の領域及び第2の領域に対して、第1の入力画像及び第2の入力画像から生成された第1の部分画像及び第2の部分画像を重畳することによって合成画像を生成する合成画像生成部と、前記第1の入力画像と前記第2の入力画像とを前記所定の領域の補完に利用する参照画像として用いることによって、重畳された前記第1の部分画像と前記第2の部分画像との間の前記所定の領域を補完する画像処理部と、を備え、前記第1の部分画像と前記第2の部分画像は、所定の奥行に位置する同一の被写体が異なる位置から撮像された画像であり、前記第1の部分画像及び前記第2の部分画像は、前記被写体の一部を含み、前記第1の部分画像に含まれる前記被写体の一部は、前記第2の部分画像に含まれる前記被写体の一部と異なるものであり、前記所定の領域は、前記第1の領域及び前記第2の領域に対して、前記第1の部分画像と前記第2の部分画像をそれぞれ重畳した際に、前記第1の部分画像に含まれず、かつ、前記第2の部分画像にも含まれない、前記被写体の一部の領域を含み、前記画像処理部は、前記第1の入力画像の倍率変更後の画像と前記第2の入力画像の倍率変更後の画像とを前記参照画像として用いることによって前記所定の領域を補完する画像処理装置である。 According to one embodiment of the present invention, a predetermined region set in a background image that is an image photographed at a different position and / or at a different time from at least one of the first input image and the second input image. A composite image is generated by superimposing the first partial image and the second partial image generated from the first input image and the second input image on the sandwiched first region and second region. By using the composite image generation unit, the first input image, and the second input image as reference images used for complementing the predetermined region, the superimposed first partial image and the second image An image processing unit that complements the predetermined area between the first partial image and the second partial image, and the first partial image and the second partial image are different from each other in the same subject located at a predetermined depth. A captured image, said One partial image and the second partial image include a part of the subject, and a part of the subject included in the first partial image is a part of the subject included in the second partial image. The predetermined area is different from the first area and the second area when the first partial image and the second partial image are superimposed on the first area and the second area, respectively. A partial area of the subject that is not included in one partial image and not included in the second partial image, and the image processing unit is an image after the magnification change of the first input image And the image after the magnification change of the second input image are used as the reference image to complement the predetermined area.
本発明の一態様は、上記の画像処理装置であって、前記背景画像は、第1の入力画像および第2の入力画像のそれぞれと異なる位置、および/または、異なる時刻に撮影された画像である。 One aspect of the present invention is the above-described image processing device, wherein the background image is an image captured at a different position and / or at a different time from each of the first input image and the second input image. is there.
本発明の一態様は、第1の入力画像及び第2の入力画像の少なくともいずれか一方と異なる位置、および/または、異なる時刻に撮影された画像である背景画像に設定された所定の領域を挟む第1の領域及び第2の領域に対して、第1の入力画像及び第2の入力画像から生成された第1の部分画像及び第2の部分画像を重畳することによって合成画像を生成する合成画像生成ステップと、前記第1の入力画像と前記第2の入力画像とを前記所定の領域の補完に利用する参照画像として用いることによって、重畳された前記第1の部分画像と前記第2の部分画像との間の前記所定の領域を補完する画像処理ステップと、を有し、前記第1の部分画像と前記第2の部分画像は、所定の奥行に位置する同一の被写体が異なる位置から撮像された画像であり、前記第1の部分画像及び前記第2の部分画像は、前記被写体の一部を含み、前記第1の部分画像に含まれる前記被写体の一部は、前記第2の部分画像に含まれる前記被写体の一部と異なるものであり、前記所定の領域は、前記第1の領域及び前記第2の領域に対して、前記第1の部分画像と前記第2の部分画像をそれぞれ重畳した際に、前記第1の部分画像に含まれず、かつ、前記第2の部分画像にも含まれない、前記被写体の一部の領域を含み、前記画像処理ステップにおいて、前記所定の領域のうちの前記第1の部分画像寄りの領域である第1範囲については前記第1の入力画像を用いることによって前記第1範囲を補完し、前記所定の領域のうちの前記第2の部分画像寄りの領域である第2範囲については前記第2の入力画像を用いることによって前記第2範囲を補完し、前記所定の領域の中心付近については前記第1の入力画像及び前記第2の入力画像のいずれかを用いることによって補完する画像処理方法である。 According to one embodiment of the present invention, a predetermined region set in a background image that is an image photographed at a different position and / or at a different time from at least one of the first input image and the second input image. A composite image is generated by superimposing the first partial image and the second partial image generated from the first input image and the second input image on the sandwiched first region and second region. By using the composite image generation step and the first input image and the second input image as a reference image used for complementing the predetermined region, the superimposed first partial image and the second image An image processing step for complementing the predetermined area between the first partial image and the second partial image, wherein the first subject image and the second partial image are located at different positions of the same subject located at a predetermined depth. Images taken from The first partial image and the second partial image include a part of the subject, and the part of the subject included in the first partial image is included in the second partial image. The predetermined area is different from a part of the subject, and the predetermined area is obtained when the first partial image and the second partial image are superimposed on the first area and the second area, respectively. Including a partial area of the subject that is not included in the first partial image and that is not included in the second partial image, and in the image processing step, For the first range that is a region closer to the first partial image, the first range is complemented by using the first input image, and the region closer to the second partial image in the predetermined region. For the second range, the second input image Complementing the second range by using, for near the center of the predetermined area is an image processing method for complementing by using either of the first input image and the second input image.
本発明の一態様は、第1の入力画像及び第2の入力画像の少なくともいずれか一方と異なる位置、および/または、異なる時刻に撮影された画像である背景画像に設定された所定の領域を挟む第1の領域及び第2の領域に対して、第1の入力画像及び第2の入力画像から生成された第1の部分画像及び第2の部分画像を重畳することによって合成画像を生成する合成画像生成ステップと、前記第1の入力画像と前記第2の入力画像とを前記所定の領域の補完に利用する参照画像として用いることによって、重畳された前記第1の部分画像と前記第2の部分画像との間の前記所定の領域を補完する画像処理ステップと、を有し、前記第1の部分画像と前記第2の部分画像は、所定の奥行に位置する同一の被写体が異なる位置から撮像された画像であり、前記第1の部分画像及び前記第2の部分画像は、前記被写体の一部を含み、前記第1の部分画像に含まれる前記被写体の一部は、前記第2の部分画像に含まれる前記被写体の一部と異なるものであり、前記所定の領域は、前記第1の領域及び前記第2の領域に対して、前記第1の部分画像と前記第2の部分画像をそれぞれ重畳した際に、前記第1の部分画像に含まれず、かつ、前記第2の部分画像にも含まれない、前記被写体の一部の領域を含み、前記画像処理ステップにおいて、前記第1の入力画像の倍率変更後の画像と前記第2の入力画像の倍率変更後の画像とを前記参照画像として用いることによって前記所定の領域を補完する画像処理方法である。 According to one embodiment of the present invention, a predetermined region set in a background image that is an image photographed at a different position and / or at a different time from at least one of the first input image and the second input image. A composite image is generated by superimposing the first partial image and the second partial image generated from the first input image and the second input image on the sandwiched first region and second region. By using the composite image generation step and the first input image and the second input image as a reference image used for complementing the predetermined region, the superimposed first partial image and the second image An image processing step for complementing the predetermined area between the first partial image and the second partial image, wherein the first subject image and the second partial image are located at different positions of the same subject located at a predetermined depth. Images taken from The first partial image and the second partial image include a part of the subject, and the part of the subject included in the first partial image is included in the second partial image. The predetermined area is different from a part of the subject, and the predetermined area is obtained when the first partial image and the second partial image are superimposed on the first area and the second area, respectively. Includes a partial area of the subject that is not included in the first partial image and that is not included in the second partial image. In the image processing step, the magnification of the first input image In the image processing method, the predetermined region is complemented by using the image after the change and the image after the magnification change of the second input image as the reference image.
本発明の一態様は、コンピュータを、上記の画像処理装置として機能させるためのコンピュータプログラムである。 One embodiment of the present invention is a computer program for causing a computer to function as the above-described image processing apparatus.
本発明により、複数のカメラで撮影された画像を背景画像に合成することによって生成される合成画像の品質低下を抑制することが可能となる。 According to the present invention, it is possible to suppress deterioration in quality of a synthesized image generated by synthesizing images captured by a plurality of cameras with a background image.
以下、本発明の一実施形態を、図面を参照しながら説明する。
図1は、本発明における画像処理システム100のシステム構成を示す図である。
画像処理システム100は、全天球カメラ60、複数のカメラ70−1〜70−M(Mは2以上の整数)及び画像処理装置80を備える。なお、以下の説明では、カメラ70−1〜70−Mについて特に区別しない場合には、カメラ70と記載する。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a system configuration of an
The
全天球カメラ60は、撮影対象領域81内の仮想視点82の位置に設置される。撮影対象領域81は、例えばサッカーコートやバスケットコートなどの競技用コートなどである。仮想視点82は、所定の領域(本実施形態では、撮影対象領域81)内に仮想的に設定された視点である。全天球カメラ60は、仮想視点82の位置における全天球画像を撮影する。本実施形態における全天球画像は、仮想視点82を中心として撮影対象領域81全体を含む。全天球カメラ60による処理は、画像処理装置80による処理の開始前に行われる。全天球カメラ60は、撮影した全天球画像を背景画像として画像処理装置80に出力する。
The
M台のカメラ70−1、70−2、・・・、70−Mは、撮影対象領域81の外側に設けられ、入力画像を動画で撮影するカメラであり、仮想視点82を含む領域を撮影する。図1に示すように、カメラ70−1には仮想視点82の位置上を通過する光線71が入力され、カメラ70−2には仮想視点82の位置上を通過する光線72が入力される。以下、カメラ70に入力される光線を実光線と記載する。図1では示していないが、カメラ70は撮影対象領域81の周囲に設置される。つまり、カメラ70は、それぞれ仮想視点82を含む画角となるように撮影対象領域81の周囲を取り囲むように設置される。図1においてMは、2以上の整数であり、同程度の画質の仮想全天球画像を得ようとするのであれば撮影対象領域81が大きいほど大きな値となる。また、撮影対象領域81の大きさが同じであれば、Mの値が大きい程、合成領域(仮想全天球画像において、M台のカメラ70からの画像を合成した領域)の面積が大きくなり、あるいは合成領域の大きさが同じであれば合成領域における画質が向上す仮想全天球画像の画質を高いものにしようとするほど大きな値となる。
M cameras 70-1, 70-2,..., 70 -M are cameras that are provided outside the
画像処理装置80は、全天球カメラ60によって撮影された全天球画像と、カメラ70によって撮影された画像(以下、「入力画像」という。)とに基づいて仮想全天球画像を生成する。
次に、画像処理装置80の機能構成について説明する。画像処理装置80は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置80は、入力画像記憶部801、オブジェクト解析部802、合成情報記憶部803、部分領域抽出部804、背景画像記憶部805、画像合成部806、画像処理部807を備える装置として機能する。なお、画像処理装置80の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。
The
Next, the functional configuration of the
入力画像記憶部801は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。入力画像記憶部801は、各カメラ70を識別するためのカメラIDに関連付けて、カメラ70毎の入力画像を時系列順に記憶する。入力画像は、撮影時刻及び動画の画像データを含む。
オブジェクト解析部802は、入力画像記憶部801に記憶されている入力画像を読み出し、入力とする。オブジェクト解析部802は、入力された入力画像に含まれるオブジェクトを検出して、出力する。例えば、オブジェクト解析部802は、隣接する2つのカメラ70の同時刻における入力画像それぞれからオブジェクトを検出する。ここでオブジェクトとは、背景画像に含まれていないが入力画像に含まれている人物、物体(例えばボール)等である。なお、オブジェクトが「人」、「ボール」、「物体A」、「物体B」のいずれに該当するのかを解析・判定する手法としては、公知の画像解析技術が用いられる。例えば、画像の解析により人を検出する技術を開示する文献として以下の参考文献1がある。
[参考文献1]:山内悠嗣、外2名、「[サーベイ論文] 統計的学習手法による人検出」、電子情報通信学会技術研究報告、vol.112、no.197、PRMU2012-43、pp.113-126、2012年9月
The input
The
[Reference 1]: Satoshi Yamauchi and two others, “[Survey Paper] Human Detection by Statistical Learning Method”, IEICE Technical Report, vol.112, no.197, PRMU2012-43, pp. 113-126, September 2012
合成情報記憶部803は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。合成情報記憶部803は、合成情報テーブルを記憶する。合成情報テーブルは、入力画像から生成される画像を背景画像に重畳するための情報(以下、「合成情報」という。)を表すレコード(以下、「合成情報レコード」という。)によって構成される。
The combined
図2は、合成情報テーブルの具体例を示す図である。
合成情報テーブルは、合成情報レコードを複数有する。合成情報レコードは、カメラID、抽出領域情報及び変換情報の各値を有する。カメラIDの値は、カメラ70を識別するための識別情報を表す。例えば、図2におけるカメラID“C1”で識別されるカメラ70はカメラ70−1であり、カメラID“CM”で識別されるカメラ70はカメラ70−Mである。
FIG. 2 is a diagram illustrating a specific example of the synthesis information table.
The composite information table has a plurality of composite information records. The composite information record has each value of camera ID, extraction area information, and conversion information. The value of the camera ID represents identification information for identifying the
抽出領域情報の値は、同じ合成情報レコードのカメラIDで識別されるカメラ70で撮影された画像(入力画像)から抽出する領域(以下、「抽出領域」という。)に関する情報を表す。抽出領域情報を矩形とした場合、抽出領域情報の具体例として、左上座標、幅及び高さで表される矩形がある。左上座標は、抽出領域の入力画像中での左上の座標を表す。幅は、抽出領域の幅を表す。高さは、抽出領域の高さを表す。なお、幅及び高さは、抽出領域の左上座標を基準とし、かつ、抽出領域中に仮想視点を含む範囲に設定される。本実施形態における抽出領域情報で示される領域は、隣接するカメラ70(例えば、カメラID“C1”、“C2”で識別されるカメラ70)の入力画像それぞれから抽出された各抽出領域の画像(以下、「部分領域画像」という。)に対して、変換情報に応じた変換を行うことによって生成される各部分画像のそれぞれを背景画像に重畳した際に、各部分画像同士が所定の幅と高さとを有する領域を挟むように設定されている。なお、挟み方としては、各部分画像同士が所定の幅と高さとを有する領域を縦に挟んでもよいし、横に挟んでもよい。
The value of the extraction area information represents information regarding an area (hereinafter referred to as “extraction area”) extracted from an image (input image) photographed by the
変換情報の値は、同じ合成情報レコードの抽出領域情報に応じて抽出された部分領域画像を部分画像に変換するための情報を表す。部分画像は、部分領域画像を背景画像の対応する領域に違和感なく重畳するために、部分領域画像に対して上記変換情報に応じて拡大、縮小、回転、変形等の変換処理を行うことによって生成される。この変換情報は、例えばアフィン変換行列である。なお、アフィン変換行列には、背景画像において部分画像を重畳する領域を示す情報が含まれる。
アフィン変換行列は、以下に示す方法により予め取得して合成情報記憶部803に記憶される。例えば、仮想視点82から複数種類の距離(奥行)の位置に格子模様のチェスボードを設置して、仮想視点82に設置した全天球カメラ60で撮影したチェスボードを含む画像と、カメラ70で撮影したチェスボードを含む画像とを比較する。そして両画像において、撮影したチェスボードの各格子が対応するように画像を変換するアフィン変換行列を求める。このようにして、チェスボードを設置した奥行に対応したアフィン変換行列を求める。
The value of the conversion information represents information for converting a partial area image extracted according to the extracted area information of the same composite information record into a partial image. The partial image is generated by performing conversion processing such as enlargement, reduction, rotation, and deformation on the partial region image according to the conversion information in order to superimpose the partial region image on the corresponding region of the background image without a sense of incongruity. Is done. This conversion information is, for example, an affine transformation matrix. Note that the affine transformation matrix includes information indicating a region in which the partial image is superimposed on the background image.
The affine transformation matrix is acquired in advance by the following method and stored in the composite
図2に示される例では、合成情報テーブルには複数の合成情報レコードが登録されている。図2において、合成情報テーブルの最上段に登録されている合成情報レコードは、カメラIDの値が“C1”、左上座標の値が“(A,B)”、幅の値が“C”、高さの値が“D”、変換情報の値が“A1i”である。すなわち、カメラID“C1”で識別されるカメラ70−1の入力画像から左上座標(A,B)、幅C、高さDで表される領域を抽出し、抽出された画像に対して“A1i”の変換処理を施すことが表されている。 In the example shown in FIG. 2, a plurality of composite information records are registered in the composite information table. In FIG. 2, the composite information record registered at the top of the composite information table has a camera ID value “C1”, an upper left coordinate value “(A, B)”, a width value “C”, The height value is “D” and the conversion information value is “A1 i ”. That is, an area represented by upper left coordinates (A, B), width C, and height D is extracted from the input image of the camera 70-1 identified by the camera ID “C1”. It is shown that the conversion process of A1 i ″ is performed.
図1に戻って、画像処理装置80の説明を続ける。
部分領域抽出部804は、オブジェクト解析部802から出力された入力画像と、合成情報テーブルの情報とを入力とする。部分領域抽出部804は、入力された合成情報テーブルの情報に基づいて、入力画像から部分領域を抽出することによって部分領域画像を生成し、出力する。
背景画像記憶部805は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。背景画像記憶部805は、全天球カメラ60によって撮影された全天球画像を背景画像として記憶する。
画像合成部806は、合成情報記憶部803に記憶されている合成情報テーブルと、背景画像記憶部805に記憶されている背景画像と、部分領域抽出部804によって生成された部分領域画像とを入力とする。画像合成部806は、部分領域画像に対して、合成情報テーブルに含まれる変換情報のアフィン変換行列に基づいて変換処理を行うことによって部分画像を生成する。画像合成部806は、生成した部分画像をアフィン変換行列に基づいて背景画像に重畳することで仮想全天球画像を生成して出力する。より具体的には、画像合成部806は、部分画像の画素値で、背景画像上の部分画像を重畳する領域の画素値を置き換えることによって背景画像に部分領域画像を重畳することで仮想全天球画像を生成する。
画像処理部807は、画像合成部806によって生成された仮想全天球画像と、入力画像記憶部801に記憶されている入力画像とを入力とする。画像処理部807は、入力された仮想全天球画像において、画像合成部806によって背景画像に重畳された部分画像間の所定の領域(以下、「補完対象領域」という。)を、補完対象領域を挟む2つの部分画像それぞれの生成元である入力画像を用いて補完する。
Returning to FIG. 1, the description of the
The partial
The background
The
The
以下、図3を用いて画像処理部807の具体的な処理について説明する。図3は、画像処理部807の処理を説明するための図である。
図3において、入力画像83−1(第1の入力画像)はカメラ70−1によって撮影された画像であり、入力画像83−2(第2の入力画像)はカメラ70−2によって撮影された画像である。入力画像83−1における領域84は合成情報テーブルに基づいて入力画像83−1から抽出される抽出領域を表し、入力画像83−2における領域85は合成情報テーブルに基づいて入力画像83−2から抽出される抽出領域を表す。そして、抽出領域84で表される領域を入力画像83−1から抽出して生成される部分領域画像及び抽出領域85で表される領域を入力画像83−2から抽出して生成される部分領域画像それぞれに対して、変換情報に応じた変換処理が行なわれることによって部分画像86(第1の部分画像)及び87(第2の部分画像)が生成される。その後、画像合成部806によって、部分画像86及び87がアフィン変換行列で示される背景画像88上の所定の位置に重畳される(図3の下図参照)。ここで、部分画像86が重畳される領域が第1の領域に相当し、部分画像87が重畳される領域が第2の領域に相当する。
Hereinafter, specific processing of the
In FIG. 3, an input image 83-1 (first input image) is an image taken by the camera 70-1, and an input image 83-2 (second input image) is taken by the camera 70-2. It is an image. An
上記のように、部分画像86及び87は所定の領域を挟んで重畳される。そのため、背景画像88に重畳された部分画像86及び87の間に所定の領域89が生じる。この所定の領域89が、画像処理部807が補完する補完対象領域である。補完対象領域は、補完対象領域に隣接する2つの部分画像に基づいて、第1の領域に重畳された部分画像(図3では、部分画像86)の左上座標及び左下座標と、第2の領域に重畳された部分画像(図3では、部分画像87)の右上座標及び右下座標とで囲まれる領域を表す。図3に示すように、部分画像86、部分画像87及び補完対象領域は、矩形であり、いずれも高さが同じである。さらに、部分画像86及び部分画像87は、底辺が揃うように配置されている。部分画像86及び部分画像87の底辺が揃うように配置されているため、部分画像86及び部分画像87は補完対象領域を挟んでいる。
As described above, the
画像処理部807は、部分画像86の生成元である入力画像83−1と、部分画像87の生成元である入力画像83−2と、補完対象領域の情報とを入力とし、入力された入力画像83−1及び83−2を参照画像として補完対象領域を補完し、補完対象領域を補完した画像を出力する。ここで、参照画像とは、補完対象領域を補完するために利用される入力画像を表す。具体的には、まず画像処理部807は、背景画像88から補完対象領域と、補完対象領域以外の領域とを共に含む小領域(パッチ)を選択する。この方法としては、補完対象領域の輪郭上に存在するパッチであって、パッチ領域中の補完対象領域以外の領域の画素のエッジ強度が強いパッチから選定する方法などが挙げられる。次に、画像処理部807は、選択したパッチの補完対象領域以外の画素を基に、参照画像から類似パッチを検出する。ここで、類似パッチとは、選択したパッチの画素の画素値と画素値が類似したパッチを表す。そして、画像処理部807は、検出した類似パッチを、選択したパッチに重畳する。つまり、画像処理部807は、類似パッチの画素値で選択したパッチの画素値を置き換える。画像処理部807は、以上の処理を補完対象領域が無くなるまで実行する。
The
この際、画像処理部807は、補完対象領域 のうちの補完対象領域の中心より部分画像86寄りの領域である第1範囲については、部分画像86の生成元である入力画像83−1を参照画像として用いることによって第1範囲を補完する。また、画像処理部807は、補完対象領域のうちの補完対象領域の中心より部分画像87寄りの領域である第2範囲については、部分画像87の生成元である入力画像83−2を参照画像として用いることによって第2範囲を補完する。また、画像処理部807は、補完対象領域の中心付近については、補完対象領域に隣接する部分画像86及び87それぞれの生成元である入力画像83−1及び入力画像83−2のいずれかを参照画像として用いることによって補完する。参照画像として、各部分画像それぞれの生成元である入力画像を用いる理由は、元画像に近いところから高画質な補完が可能であると考えられるためである。 なお、補完対象領域に隣接する2つの部分画像のうち1つの部分画像においてオブジェクトが含まれない場合、画像処理部807はオブジェクトが含まれる部分画像の生成元である入力画像を参照画像として用いることによって補完対象領域を補完してもよい。
At this time, the
なお、上記の例では、補完手法(コンプリーション手法)としてパッチベースの手法を例に説明したが、補完手法はこれに限定される必要はない。補完手法としては、その他の手法が用いられてもよい。例えば、補完対象領域の画素の、類似パッチ中での該当位置の画素を用いて補完する手法や、複数の類似パッチ中の該当位置の画素の重みづけ平均の画素を用いて補完する手法などがある。 In the above example, the patch-based method is described as an example of the complementing method (completion method), but the complementing method is not necessarily limited to this. Other methods may be used as the complementing method. For example, there is a method of complementing using the pixel at the corresponding position in the similar patch of the pixel in the complement target region, or a method of complementing using the weighted average pixel of the pixel at the corresponding position in the plurality of similar patches. is there.
図4は、画像処理装置80の処理の流れを示すフローチャートである。
オブジェクト解析部802は、入力画像記憶部801から隣接するカメラ70(2つのカメラ70)の同時刻における入力画像を読み出す(ステップS101)。次に、オブジェクト解析部802は、読み出した各入力画像を入力とし、入力した各入力画像を解析することによって各入力画像のオブジェクトを検出する(ステップS102)。オブジェクト解析部802は、いずれかの入力画像からオブジェクトが検出されたか否か判定する(ステップS103)。いずれの入力画像からもオブジェクトが検出されなかった場合(ステップS103−NO)、オブジェクト解析部802は隣接する他の組合せのカメラ70の同時刻における入力画像を入力画像記憶部801から読み出す(ステップS104)。その後、ステップS102以降の処理が実行される。
FIG. 4 is a flowchart showing a process flow of the
The
一方、いずれかの入力画像からオブジェクトが検出された場合(ステップS103−YES)、オブジェクト解析部802は入力画像を部分領域抽出部804に出力する。部分領域抽出部804は、オブジェクト解析部802から出力された入力画像と、合成情報記憶部803に記憶されている合成情報テーブルとを入力として、合成情報テーブルで示される部分領域を各入力画像から抽出することによって、入力画像毎の部分領域画像を生成する(ステップS105)。例えば、部分領域抽出部804は、カメラ70−1の入力画像に対して、合成情報テーブルのカメラ70−1に対応する合成情報レコードの抽出領域情報で表される領域を抽出することによって、カメラ70−1の入力画像の部分領域画像を生成する。部分領域抽出部804は、生成した各入力画像の各部分領域画像を画像合成部806に出力する。
On the other hand, when an object is detected from any input image (step S103—YES), the
画像合成部806は、部分領域抽出部804から出力された各入力画像の各部分領域画像と、合成情報記憶部803に記憶されている合成情報テーブルと、背景画像記憶部805に記憶されている背景画像とを入力とし、合成情報テーブルの変換情報に基づいて、生成された各部分領域画像に対して変換処理を行うことによって各部分画像を生成し、生成した各部分画像を背景画像上の対応する位置に重畳する(ステップS106)。例えば、画像合成部806は、カメラ70−1の入力画像から生成された部分領域画像に対して、合成情報テーブルのカメラ70−1に対応する合成情報レコードの変換情報に応じて変換処理を行うことによって、カメラ70−1の部分領域画像の部分画像を生成し、生成した部分画像を、変換情報に含まれる背景画像において部分画像を重畳する領域を示す情報に基づいて背景画像に重畳する。画像合成部806は、部分画像が重畳された背景画像を画像処理部807に出力する。
The
画像処理部807は、部分画像が重畳された背景画像と入力画像記憶部801に記憶されている入力画像とを入力とし、入力画像記憶部801に記憶されている背景画像に重畳された各部分画像の生成元である入力画像を用いて、重畳された部分画像間における補完対象領域を補完する(ステップS107)。その後、画像処理部807は、処理対象となる入力画像全てに対して処理が行なわれたか否か判定する(ステップS108)。例えば、画像処理部807は、オブジェクトが検出された入力画像全てに対してステップS105からステップS107までの処理が行なわれたか否か判定する。ここで、処理対象となる入力画像は、入力画像記憶部801に記憶されている入力画像である。
オブジェクトが検出された入力画像全てに対してステップS105からステップS107までの処理が行なわれた場合(ステップS108−YES)、画像処理装置80は処理を終了する。
一方、オブジェクトが検出された入力画像全てに対してステップS105からステップS107までの処理が行なわれていない場合(ステップS108−NO)、画像処理装置80はステップS104の以降の処理を実行する。
The
When the processing from step S105 to step S107 has been performed on all input images in which objects have been detected (step S108—YES), the
On the other hand, when the processing from step S105 to step S107 has not been performed on all the input images in which the object has been detected (step S108-NO), the
以上のように構成された画像処理装置80によれば、複数のカメラで撮影された画像を背景画像に合成することによって生成される合成画像の品質低下を抑制することが可能になる。以下、この効果について詳細に説明する。
画像処理装置80は、隣り合うカメラ70それぞれで撮影された画像から、各画像が合成時に重ならないような小さい領域を抽出した部分領域画像を生成する。画像処理装置80は、生成した部分領域画像に対して変換処理を行うことによって部分画像を生成し、生成した部分画像を背景画像に重畳する。そして、画像処理装置80は、重畳した部分画像の間における補完対象領域を補完する。この補完対象領域は、2つの画像の重複領域に相当する。つまり、重複領域に相当する領域が、補完対象領域として設定され、補完されるため多重像や消失の発生を抑制することができる。そのため、複数のカメラで撮影された画像を背景画像に合成することによって生成される合成画像の品質低下を抑制することが可能になる。
According to the
The
また、画像処理装置80は、第1の領域に重畳された第1の部分画像寄りの所定の領域における第1範囲については、第1の部分画像の生成元の入力画像を参照画像として用いることによって第1範囲を補完する。さらに、画像処理装置80は、第2の領域に重畳された第2の部分画像寄りの所定の領域における第2範囲については、第2の部分画像の生成元の入力画像を参照画像として用いることによって第2範囲を補完する。このように、各部分画像寄りの所定の領域における範囲について、部分画像の生成元の入力画像を参照画像として用いて補完することによって、より入力画像に類似するように補完することができる。
The
<変形例>
本発明は、全天球画像の場合に限らず、複数のカメラで撮影された画像を背景画像に重畳することによって合成画像を生成する場合に適用可能である。
本実施形態では、補完対象領域の補完処理に使用する参照画像として、部分画像の生成元である入力画像をそのまま用いる構成を示したが、画像処理部807は参照画像として部分画像の生成元である入力画像の倍率を変更した画像を用いてもよい。例えば、画像処理部807は、参照画像として部分画像の生成元である入力画像を所定分拡大(例えば、10%、20%拡大など)した画像や、入力画像を所定分縮小(例えば、10%、20%縮小など)した画像を用いてもよい。
本実施形態では、合成情報テーブルに登録されている幅の値が全てのカメラIDで同じであるが、幅の値はカメラID毎に異なっていてもよいし、一部のカメラIDで異なっていてもよい。
<Modification>
The present invention is not limited to an omnidirectional image, but can be applied to a case where a composite image is generated by superimposing images taken by a plurality of cameras on a background image.
In the present embodiment, the configuration in which the input image that is the generation source of the partial image is used as it is as the reference image used for the complement processing of the region to be complemented is shown, but the
In the present embodiment, the width value registered in the composite information table is the same for all camera IDs, but the width value may be different for each camera ID, or may be different for some camera IDs. May be.
図3に示した例は一例であり、部分画像及び補完対象領域の形状、部分画像及び補完対象領域の並べ方及び補完対象領域の大きさは図3に示す例に限定される必要はない。例えば、部分画像及び補完対象領域の形状は、いずれも矩形でなくてもよく、必ずしも同じ形状でなくてもよい。ただし、部分画像及び補完対象領域の大きさがパッチサイズより大きいことが必要である。また、部分画像及び補完対象領域は、縦に並べてもよいし、横に並べてもよい。また、補完対象領域の大きさは、部分画像よりも小さくてもよいし、大きくてもよい。このように補完対象領域の大きさは部分画像の大きさには左右されない。その理由は、画質が参照領域に左右されるためである。
補完対象領域の補完の方法は、上記の方法(図3で説明した方法)に限定されない。例えば、画像処理部807は以下のような方法によって補完対象領域を補完してもよい。まず、第1の領域に重畳された部分画像の生成元の入力画像をA、第2の領域に重畳された部分画像の生成元の入力画像をBとして、AとBの大きさをa:bの割合とする。中心部分をA、Bいずれかの入力画像を用いて補完する際、a:bの割合で類似パッチが探索されるように重み付けする。
The example illustrated in FIG. 3 is an example, and the shape of the partial image and the complement target area, the arrangement of the partial image and the complement target area, and the size of the complement target area need not be limited to the example illustrated in FIG. For example, the shapes of the partial image and the complement target area do not have to be rectangular, and are not necessarily the same shape. However, the size of the partial image and the complement target area needs to be larger than the patch size. Further, the partial image and the complement target area may be arranged vertically or horizontally. Further, the size of the complement target area may be smaller or larger than the partial image. Thus, the size of the complement target area is not affected by the size of the partial image. The reason is that the image quality depends on the reference area.
The method of complementing the region to be complemented is not limited to the above method (the method described in FIG. 3). For example, the
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
60…全天球カメラ,70(70−1〜70−M)…カメラ, 4、80…画像処理装置, 801…入力画像記憶部, 802…オブジェクト解析部, 803…合成情報記憶部, 804…部分領域抽出部, 805…背景画像記憶部, 806…画像合成部, 807…画像処理部 60 ... Spherical camera, 70 (70-1 to 70-M) ... Camera, 4, 80 ... Image processing device, 801 ... Input image storage unit, 802 ... Object analysis unit, 803 ... Composite information storage unit, 804 ... Partial region extraction unit, 805 ... background image storage unit, 806 ... image composition unit, 807 ... image processing unit
Claims (6)
前記第1の入力画像と前記第2の入力画像とを前記所定の領域の補完に利用する参照画像として用いることによって、重畳された前記第1の部分画像と前記第2の部分画像との間の前記所定の領域を補完する画像処理部と、
を備え、
前記第1の部分画像と前記第2の部分画像は、所定の奥行に位置する同一の被写体が異なる位置から撮像された画像であり、
前記第1の部分画像及び前記第2の部分画像は、前記被写体の一部を含み、
前記第1の部分画像に含まれる前記被写体の一部は、前記第2の部分画像に含まれる前記被写体の一部と異なるものであり、
前記所定の領域は、前記第1の領域及び前記第2の領域に対して、前記第1の部分画像と前記第2の部分画像をそれぞれ重畳した際に、前記第1の部分画像に含まれず、かつ、前記第2の部分画像にも含まれない、前記被写体の一部の領域を含み、
前記画像処理部は、前記所定の領域のうちの前記第1の部分画像寄りの領域である第1範囲については前記第1の入力画像を用いることによって前記第1範囲を補完し、前記所定の領域のうちの前記第2の部分画像寄りの領域である第2範囲については前記第2の入力画像を用いることによって前記第2範囲を補完し、前記所定の領域の中心付近については前記第1の入力画像及び前記第2の入力画像のいずれかを用いることによって補完する画像処理装置。 A first region and a first region sandwiching a predetermined region set in a background image, which is an image taken at a different position and / or at a different time from at least one of the first input image and the second input image A composite image generation unit that generates a composite image by superimposing the first partial image and the second partial image generated from the first input image and the second input image on the two regions;
By using the first input image and the second input image as a reference image to be used for complementing the predetermined region, the first partial image and the second partial image are superimposed. An image processing unit that complements the predetermined area of
With
The first partial image and the second partial image are images obtained by imaging the same subject located at a predetermined depth from different positions;
The first partial image and the second partial image include a part of the subject,
A part of the subject included in the first partial image is different from a part of the subject included in the second partial image;
The predetermined area is not included in the first partial image when the first partial image and the second partial image are superimposed on the first area and the second area, respectively. And including a partial region of the subject that is not included in the second partial image,
The image processing unit supplements the first range by using the first input image for a first range that is a region closer to the first partial image in the predetermined region, and For the second range that is closer to the second partial image in the region, the second range is complemented by using the second input image, and the first region is set near the center of the predetermined region. An image processing apparatus that complements by using any one of the input image and the second input image.
前記第1の入力画像と前記第2の入力画像とを前記所定の領域の補完に利用する参照画像として用いることによって、重畳された前記第1の部分画像と前記第2の部分画像との間の前記所定の領域を補完する画像処理部と、
を備え、
前記第1の部分画像と前記第2の部分画像は、所定の奥行に位置する同一の被写体が異なる位置から撮像された画像であり、
前記第1の部分画像及び前記第2の部分画像は、前記被写体の一部を含み、
前記第1の部分画像に含まれる前記被写体の一部は、前記第2の部分画像に含まれる前記被写体の一部と異なるものであり、
前記所定の領域は、前記第1の領域及び前記第2の領域に対して、前記第1の部分画像と前記第2の部分画像をそれぞれ重畳した際に、前記第1の部分画像に含まれず、かつ、前記第2の部分画像にも含まれない、前記被写体の一部の領域を含み、
前記画像処理部は、前記第1の入力画像の倍率変更後の画像と前記第2の入力画像の倍率変更後の画像とを前記参照画像として用いることによって前記所定の領域を補完する画像処理装置。 A first region and a first region sandwiching a predetermined region set in a background image, which is an image taken at a different position and / or at a different time from at least one of the first input image and the second input image A composite image generation unit that generates a composite image by superimposing the first partial image and the second partial image generated from the first input image and the second input image on the two regions;
By using the first input image and the second input image as a reference image to be used for complementing the predetermined region, the first partial image and the second partial image are superimposed. An image processing unit that complements the predetermined area of
With
The first partial image and the second partial image are images obtained by imaging the same subject located at a predetermined depth from different positions;
The first partial image and the second partial image include a part of the subject,
A part of the subject included in the first partial image is different from a part of the subject included in the second partial image;
The predetermined area is not included in the first partial image when the first partial image and the second partial image are superimposed on the first area and the second area, respectively. And including a partial region of the subject that is not included in the second partial image,
The image processing unit supplements the predetermined region by using the image after the magnification change of the first input image and the image after the magnification change of the second input image as the reference image. .
前記第1の入力画像と前記第2の入力画像とを前記所定の領域の補完に利用する参照画像として用いることによって、重畳された前記第1の部分画像と前記第2の部分画像との間の前記所定の領域を補完する画像処理ステップと、
を有し、
前記第1の部分画像と前記第2の部分画像は、所定の奥行に位置する同一の被写体が異なる位置から撮像された画像であり、
前記第1の部分画像及び前記第2の部分画像は、前記被写体の一部を含み、
前記第1の部分画像に含まれる前記被写体の一部は、前記第2の部分画像に含まれる前記被写体の一部と異なるものであり、
前記所定の領域は、前記第1の領域及び前記第2の領域に対して、前記第1の部分画像と前記第2の部分画像をそれぞれ重畳した際に、前記第1の部分画像に含まれず、かつ、前記第2の部分画像にも含まれない、前記被写体の一部の領域を含み、
前記画像処理ステップにおいて、前記所定の領域のうちの前記第1の部分画像寄りの領域である第1範囲については前記第1の入力画像を用いることによって前記第1範囲を補完し、前記所定の領域のうちの前記第2の部分画像寄りの領域である第2範囲については前記第2の入力画像を用いることによって前記第2範囲を補完し、前記所定の領域の中心付近については前記第1の入力画像及び前記第2の入力画像のいずれかを用いることによって補完する画像処理方法。 A first region and a first region sandwiching a predetermined region set in a background image, which is an image taken at a different position and / or at a different time from at least one of the first input image and the second input image A composite image generation step of generating a composite image by superimposing the first partial image and the second partial image generated from the first input image and the second input image on the two regions;
By using the first input image and the second input image as a reference image to be used for complementing the predetermined region, the first partial image and the second partial image are superimposed. An image processing step of complementing the predetermined region of:
Have
The first partial image and the second partial image are images obtained by imaging the same subject located at a predetermined depth from different positions;
The first partial image and the second partial image include a part of the subject,
A part of the subject included in the first partial image is different from a part of the subject included in the second partial image;
The predetermined area is not included in the first partial image when the first partial image and the second partial image are superimposed on the first area and the second area, respectively. And including a partial region of the subject that is not included in the second partial image,
In the image processing step, for the first range that is a region closer to the first partial image in the predetermined region, the first range is complemented by using the first input image, and the predetermined range For the second range that is closer to the second partial image in the region, the second range is complemented by using the second input image, and the first region is set near the center of the predetermined region. An image processing method complemented by using any one of the input image and the second input image.
前記第1の入力画像と前記第2の入力画像とを前記所定の領域の補完に利用する参照画像として用いることによって、重畳された前記第1の部分画像と前記第2の部分画像との間の前記所定の領域を補完する画像処理ステップと、
を有し、
前記第1の部分画像と前記第2の部分画像は、所定の奥行に位置する同一の被写体が異なる位置から撮像された画像であり、
前記第1の部分画像及び前記第2の部分画像は、前記被写体の一部を含み、
前記第1の部分画像に含まれる前記被写体の一部は、前記第2の部分画像に含まれる前記被写体の一部と異なるものであり、
前記所定の領域は、前記第1の領域及び前記第2の領域に対して、前記第1の部分画像と前記第2の部分画像をそれぞれ重畳した際に、前記第1の部分画像に含まれず、かつ、前記第2の部分画像にも含まれない、前記被写体の一部の領域を含み、
前記画像処理ステップにおいて、前記第1の入力画像の倍率変更後の画像と前記第2の入力画像の倍率変更後の画像とを前記参照画像として用いることによって前記所定の領域を補完する画像処理方法。 A first region and a first region sandwiching a predetermined region set in a background image, which is an image taken at a different position and / or at a different time from at least one of the first input image and the second input image A composite image generation step of generating a composite image by superimposing the first partial image and the second partial image generated from the first input image and the second input image on the two regions;
By using the first input image and the second input image as a reference image to be used for complementing the predetermined region, the first partial image and the second partial image are superimposed. An image processing step of complementing the predetermined region of:
Have
The first partial image and the second partial image are images obtained by imaging the same subject located at a predetermined depth from different positions;
The first partial image and the second partial image include a part of the subject,
A part of the subject included in the first partial image is different from a part of the subject included in the second partial image;
The predetermined area is not included in the first partial image when the first partial image and the second partial image are superimposed on the first area and the second area, respectively. And including a partial region of the subject that is not included in the second partial image,
In the image processing step, an image processing method for complementing the predetermined region by using the image after the magnification change of the first input image and the image after the magnification change of the second input image as the reference image. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018169915A JP6606242B2 (en) | 2018-09-11 | 2018-09-11 | Image processing apparatus, image processing method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018169915A JP6606242B2 (en) | 2018-09-11 | 2018-09-11 | Image processing apparatus, image processing method, and computer program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015216135A Division JP6416734B2 (en) | 2015-11-02 | 2015-11-02 | Image processing apparatus, image processing method, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018198463A true JP2018198463A (en) | 2018-12-13 |
JP6606242B2 JP6606242B2 (en) | 2019-11-13 |
Family
ID=64662463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018169915A Active JP6606242B2 (en) | 2018-09-11 | 2018-09-11 | Image processing apparatus, image processing method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6606242B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102111165B1 (en) * | 2019-09-25 | 2020-05-14 | (주)송우인포텍 | Image processing system and method |
CN114520875A (en) * | 2022-01-28 | 2022-05-20 | 西安维沃软件技术有限公司 | Video processing method and device and electronic equipment |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009539155A (en) * | 2006-06-02 | 2009-11-12 | イジュノシッヒ テクニッヒ ホッフシューラ チューリッヒ | Method and system for generating a 3D representation of a dynamically changing 3D scene |
JP2014057139A (en) * | 2012-09-11 | 2014-03-27 | Olympus Imaging Corp | Image processing apparatus and image processing method |
JP2015125519A (en) * | 2013-12-26 | 2015-07-06 | カシオ計算機株式会社 | Image processor, image processing method and program |
-
2018
- 2018-09-11 JP JP2018169915A patent/JP6606242B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009539155A (en) * | 2006-06-02 | 2009-11-12 | イジュノシッヒ テクニッヒ ホッフシューラ チューリッヒ | Method and system for generating a 3D representation of a dynamically changing 3D scene |
JP2014057139A (en) * | 2012-09-11 | 2014-03-27 | Olympus Imaging Corp | Image processing apparatus and image processing method |
JP2015125519A (en) * | 2013-12-26 | 2015-07-06 | カシオ計算機株式会社 | Image processor, image processing method and program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102111165B1 (en) * | 2019-09-25 | 2020-05-14 | (주)송우인포텍 | Image processing system and method |
CN114520875A (en) * | 2022-01-28 | 2022-05-20 | 西安维沃软件技术有限公司 | Video processing method and device and electronic equipment |
CN114520875B (en) * | 2022-01-28 | 2024-04-02 | 西安维沃软件技术有限公司 | Video processing method and device and electronic equipment |
Also Published As
Publication number | Publication date |
---|---|
JP6606242B2 (en) | 2019-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6735592B2 (en) | Image processing apparatus, control method thereof, and image processing system | |
US8055101B2 (en) | Subpixel registration | |
JP2019092076A (en) | Image processing system, image processing method, and program | |
JP7387434B2 (en) | Image generation method and image generation device | |
US20190132529A1 (en) | Image processing apparatus and image processing method | |
JP2020129276A (en) | Image processing device, image processing method, and program | |
KR20180092495A (en) | Apparatus and method for Object of Interest-centric Best-view Generation in Multi-camera Video | |
CN111815517B (en) | Self-adaptive panoramic stitching method based on snapshot pictures of dome camera | |
JP6606242B2 (en) | Image processing apparatus, image processing method, and computer program | |
US11574432B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP6416741B2 (en) | Image processing apparatus, image processing method, and computer program | |
JPWO2009090727A1 (en) | Display device | |
JP6513305B2 (en) | Video combining apparatus and video combining method | |
JP6389452B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP6416740B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP6416734B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP6420750B2 (en) | Composite information table creation apparatus, composite information table creation method, and computer program | |
JP2017058929A (en) | Image information acquisition method, image evaluation method, image information acquisition device, image evaluation device, and image processing program | |
JP6426594B2 (en) | Image processing apparatus, image processing method and image processing program | |
JP2017103672A (en) | Image processing device, image processing method and image processing program | |
JP6346157B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP6350331B2 (en) | TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM | |
JP6450306B2 (en) | Image processing apparatus, image processing method, and image processing program | |
Calagari et al. | Sports VR content generation from regular camera feeds | |
KR102074072B1 (en) | A focus-context display techinique and apparatus using a mobile device with a dual camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180911 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190604 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190729 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191015 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191017 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6606242 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |