JP2018198463A - Image processing device, image processing method, and computer program - Google Patents

Image processing device, image processing method, and computer program Download PDF

Info

Publication number
JP2018198463A
JP2018198463A JP2018169915A JP2018169915A JP2018198463A JP 2018198463 A JP2018198463 A JP 2018198463A JP 2018169915 A JP2018169915 A JP 2018169915A JP 2018169915 A JP2018169915 A JP 2018169915A JP 2018198463 A JP2018198463 A JP 2018198463A
Authority
JP
Japan
Prior art keywords
image
partial
region
input
partial image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018169915A
Other languages
Japanese (ja)
Other versions
JP6606242B2 (en
Inventor
麻理子 五十川
Mariko Isogawa
麻理子 五十川
弾 三上
Dan Mikami
弾 三上
康輔 高橋
Kosuke Takahashi
康輔 高橋
明 小島
Akira Kojima
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018169915A priority Critical patent/JP6606242B2/en
Publication of JP2018198463A publication Critical patent/JP2018198463A/en
Application granted granted Critical
Publication of JP6606242B2 publication Critical patent/JP6606242B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To suppress deterioration in quality of a composite image generated by composing images photographed by a plurality of cameras with a background image.SOLUTION: An image processing device comprises: a composite image generation part that generates a composite image by superposing a first partial image and a second partial image on a first region and a second region sandwiching a predetermined region set in a background image that is an image photographed at a different position and different time from those of at least any one of a first input image and a second input image; and an image processing unit that compensates the predetermined region between the first partial image and the second partial image. The image processing unit compensates a first range that is a region closer to the first partial image by using the first input image, compensates a second range that is a region closer to the second partial image by using the second input image, and compensates the vicinity of a center of the predetermined region by using any one of the first input image and the second input image.SELECTED DRAWING: Figure 1

Description

本発明は、複数の撮影装置によって撮影された画像の処理技術に関する。   The present invention relates to a technique for processing an image photographed by a plurality of photographing devices.

近年、360度のパノラマ画像を撮影できるカメラ(以下、「全天球カメラ」という。)が普及し始めている。全天球カメラによって撮影されたパノラマ画像(以下、「全天球画像」という。)は、所望の視点位置に全天球カメラを設置することで撮影することができる。しかしながら、競技中の競技者の邪魔となるためサッカーコートやバスケットコートなどの競技用コートの中には全天球カメラを設置することができない。そのため、競技用コートの中の所望の視点位置における競技中の全天球画像を撮影することができない。   In recent years, cameras capable of capturing 360-degree panoramic images (hereinafter referred to as “global cameras”) have begun to spread. A panoramic image captured by the omnidirectional camera (hereinafter referred to as “spherical image”) can be captured by installing the omnidirectional camera at a desired viewpoint position. However, a spherical camera cannot be installed in a competition court such as a soccer court or a basketball court because it interferes with the competitors during the competition. For this reason, it is not possible to take an omnidirectional image during competition at a desired viewpoint position in the competition court.

そこで、全天球カメラを設置することのできない場所に仮想的な視点である仮想視点を設定して、この仮想視点において全天球カメラで撮影したかのような全天球画像を、コートの外側に設置された複数のカメラによって撮影された画像を合成することによって得る技術が提案されている(例えば、非特許文献1参照)。以下の説明において、仮想視点における全天球画像を、仮想全天球画像と記載する。   Therefore, a virtual viewpoint, which is a virtual viewpoint, is set at a place where the omnidirectional camera cannot be installed, and an omnidirectional image as if taken with the omnidirectional camera at this virtual viewpoint is displayed on the court. There has been proposed a technique obtained by combining images taken by a plurality of cameras installed on the outside (see, for example, Non-Patent Document 1). In the following description, the omnidirectional image at the virtual viewpoint is referred to as a virtual omnidirectional image.

仮想全天球画像を複数のカメラによって撮影された画像の合成によって得るシステムの具体例について説明する。
図5は、従来システムにおいて仮想全天球画像を得るためのシステムを示す図である。図5に示すように、画像処理システム1は、全天球カメラ2と、複数のカメラ3−1、3−2、3−3、・・・、3−N(以下、「カメラ群3」という。)(Nは4以上の整数)と、画像処理装置4と、表示装置5とを備える。画像処理システム1は、競技用コート10内に仮想視点11を設定した場合に、競技用コート10外に設置したカメラ群3によって撮影された画像の合成によって仮想視点11における仮想全天球画像を得る。
A specific example of a system that obtains a virtual omnidirectional image by combining images captured by a plurality of cameras will be described.
FIG. 5 is a diagram showing a system for obtaining a virtual omnidirectional image in a conventional system. As shown in FIG. 5, the image processing system 1 includes an omnidirectional camera 2 and a plurality of cameras 3-1, 3-2, 3-3,... (N is an integer of 4 or more), an image processing device 4, and a display device 5. When the virtual viewpoint 11 is set in the competition court 10, the image processing system 1 generates a virtual omnidirectional image at the virtual viewpoint 11 by combining the images photographed by the camera group 3 installed outside the competition court 10. obtain.

全天球カメラ2は、全天球画像を撮影するカメラである。全天球カメラ2は、競技が行われる前のタイミングで競技用コート10内の仮想視点11の位置に設置される。全天球カメラ2は、仮想視点11の位置から、仮想全天球画像の背景となる画像(以下、「背景画像」という。)を撮影する。全天球カメラ2で撮影された背景画像は、画像処理装置4に入力されて蓄積される。このように、画像処理装置4は、予め背景画像を蓄積する。   The omnidirectional camera 2 is a camera that captures an omnidirectional image. The omnidirectional camera 2 is installed at the position of the virtual viewpoint 11 in the competition court 10 at a timing before the competition is performed. The omnidirectional camera 2 captures an image (hereinafter referred to as “background image”) that is the background of the virtual omnidirectional image from the position of the virtual viewpoint 11. The background image captured by the omnidirectional camera 2 is input to the image processing device 4 and accumulated. As described above, the image processing apparatus 4 stores the background image in advance.

競技用コート10の周囲には、カメラ群3が設置されている。カメラ群3は、それぞれ仮想視点11を含む画角となるように競技用コート10の周囲に設置されている。カメラ群3は、仮想視点11を含む領域を撮影する。画像処理装置4は、各カメラ群3によって撮影された画像に対して画像処理を施して、背景画像に画像処理後の画像を合成して仮想全天球画像を生成する。表示装置5は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、CRT(Cathode Ray Tube)ディスプレイ等の画像表示装置である。表示装置5は、画像処理装置4で生成した仮想全天球画像を表示する。   A camera group 3 is installed around the competition court 10. The camera group 3 is installed around the competition court 10 so as to have an angle of view including the virtual viewpoint 11. The camera group 3 captures an area including the virtual viewpoint 11. The image processing device 4 performs image processing on the image captured by each camera group 3, and generates a virtual omnidirectional image by combining the image after image processing with the background image. The display device 5 is an image display device such as a liquid crystal display, an organic EL (Electro Luminescence) display, or a CRT (Cathode Ray Tube) display. The display device 5 displays the virtual omnidirectional image generated by the image processing device 4.

次に、画像処理システム1における画像処理の具体例について図6を用いて説明する。
図6は、画像処理システム1における画像処理の流れを説明するための図である。図6(A)は、背景画像20の具体例を示す図である。背景画像20には、仮想視点11を中心として全方位(360度)の被写体が撮影されている。背景画像20は、競技用コート10内に人物がいない状態で撮影される画像であるので競技用コート10内には人物が撮影されない。
Next, a specific example of image processing in the image processing system 1 will be described with reference to FIG.
FIG. 6 is a diagram for explaining the flow of image processing in the image processing system 1. FIG. 6A is a diagram illustrating a specific example of the background image 20. In the background image 20, a subject in all directions (360 degrees) with the virtual viewpoint 11 as the center is photographed. Since the background image 20 is an image shot in a state where no person is present in the competition court 10, no person is photographed in the competition court 10.

図6(B)は、各カメラ3−1、3−2及び3−3で撮影された画像を示す図である。図6(B)には、左からカメラ3−1で撮影された画像21と、カメラ3−2で撮影された画像22と、カメラ3−3で撮影された画像23とが示されている。画像処理装置4は、画像21〜23のそれぞれから仮想視点11を含む領域211、221、231を抽出する。画像処理装置4は、抽出した領域211、221、231の画像に対して、画像処理を行うことで背景画像20に合成可能な部分画像211a、221a、231aを生成する。   FIG. 6B is a diagram illustrating images captured by the cameras 3-1, 3-2, and 3-3. FIG. 6B shows an image 21 taken from the left by the camera 3-1, an image 22 taken by the camera 3-2, and an image 23 taken by the camera 3-3. . The image processing apparatus 4 extracts regions 211, 221, and 231 including the virtual viewpoint 11 from each of the images 21 to 23. The image processing apparatus 4 generates partial images 211a, 221a, and 231a that can be combined with the background image 20 by performing image processing on the extracted images of the regions 211, 221, and 231.

画像処理装置4は、背景画像20に対して部分画像211a、221a、231aを合成することによって仮想全天球画像24を生成する。図6(C)は、画像処理装置4が生成する仮想全天球画像24の例を示す図である。図9(C)に示すように、仮想全天球画像24の所定の領域には部分画像211a、221a、231aが合成されている。そのため、仮想全天球画像24として、競技用コート10上に物体(例えば、人物)が撮影されている画像が生成される。   The image processing device 4 generates the virtual omnidirectional image 24 by combining the partial images 211a, 221a, and 231a with the background image 20. FIG. 6C is a diagram illustrating an example of the virtual omnidirectional image 24 generated by the image processing device 4. As shown in FIG. 9C, partial images 211 a, 221 a, and 231 a are combined with a predetermined area of the virtual omnidirectional image 24. Therefore, an image in which an object (for example, a person) is photographed on the competition court 10 is generated as the virtual omnidirectional image 24.

従来の画像処理システム1は、合成に用いているカメラ群3の光学中心及び仮想視点11において想定する全天球カメラの光学中心はそれぞれ異なる。そのため、合成された仮想全天球画像24は幾何学的に正しくない画像を含む。これを防ぐためには、画像処理装置4は、部分画像211a、221a、231aを、仮想視点11からの距離を示す奥行きの一点で整合性が保たれるよう画像処理を行い背景画像20に合成する必要がある。しかしながら、整合性が保たれる奥行きに存在せずに別の奥行に存在している物体(例えば、人物)の部分画像を合成する場合には、画像処理により奥行きの整合性を保つことができない。このような奥行に整合性のない物体は、仮想全天球画像24において、その画像が分身(多重像)したり、消失したりする現象が発生する。   In the conventional image processing system 1, the optical center of the camera group 3 used for composition and the optical center of the omnidirectional camera assumed in the virtual viewpoint 11 are different. Therefore, the synthesized virtual omnidirectional image 24 includes a geometrically incorrect image. In order to prevent this, the image processing apparatus 4 performs image processing on the partial images 211 a, 221 a, and 231 a so that consistency is maintained at one point indicating the distance from the virtual viewpoint 11, and is synthesized with the background image 20. There is a need. However, when synthesizing a partial image of an object (for example, a person) that does not exist at a depth where consistency is maintained but exists at another depth, the consistency of depth cannot be maintained by image processing. . Such an object whose depth is inconsistent causes a phenomenon that the virtual omnidirectional image 24 becomes a duplicated image (multiple image) or disappears.

以下に、図7を用いて仮想全天球画像24において、物体の画像が分身したり、消失したりする現象について説明する。図7は、画像処理システム1における課題を説明するための図である。図7において、撮影範囲41は、カメラ3−1の撮影範囲において図6(B)に示した領域211の撮影範囲を示す。撮影範囲42は、カメラ3−2の撮影範囲において図6(B)に示した領域221の撮影範囲を示す。撮影範囲43は、カメラ3−3の撮影範囲において図6(B)に示した領域231の撮影範囲を示す。また、仮想視点11からの距離(奥行)が異なる3つの物体(例えば、人物)49〜51が存在する。   Hereinafter, with reference to FIG. 7, a phenomenon in which an image of an object is duplicated or disappears in the virtual omnidirectional image 24 will be described. FIG. 7 is a diagram for explaining a problem in the image processing system 1. In FIG. 7, an imaging range 41 indicates the imaging range of the area 211 shown in FIG. 6B in the imaging range of the camera 3-1. The shooting range 42 indicates the shooting range of the area 221 shown in FIG. 6B in the shooting range of the camera 3-2. The shooting range 43 indicates the shooting range of the area 231 shown in FIG. 6B in the shooting range of the camera 3-3. In addition, there are three objects (for example, persons) 49 to 51 having different distances (depths) from the virtual viewpoint 11.

図7において破線で示している仮想視点11からの第1の距離を示す奥行46は、各撮影範囲41〜43が、重なりなく並んでいる。このような奥行46に位置する被写体49は、その画像が分身したり消失したりすることがなく、奥行に整合性のある被写体である。仮想視点11からの第2の距離を示す奥行47は、各撮影範囲41〜43が、横線部分44に示すように重なっている。このような奥行47に位置する被写体50は、その画像が分身してしまうので、奥行に整合性のない被写体となる。仮想視点11からの第3の距離を示す奥行48は、各撮影範囲41〜43の間が斜線部分45に示すように空いている。このような奥行48に位置する被写体51は、その画像の一部が消失してしまうので、奥行に整合性のない被写体となる。   In the depth 46 which shows the 1st distance from the virtual viewpoint 11 shown with the broken line in FIG. 7, each imaging range 41-43 is located in a line without overlapping. The subject 49 positioned at the depth 46 is a subject that is consistent in the depth without the image being altered or lost. In the depth 47 indicating the second distance from the virtual viewpoint 11, the shooting ranges 41 to 43 overlap as shown by the horizontal line portion 44. The subject 50 positioned at the depth 47 is a subject whose depth is not consistent because the image is duplicated. The depth 48 indicating the third distance from the virtual viewpoint 11 is vacant as indicated by the hatched portion 45 between the imaging ranges 41 to 43. The subject 51 positioned at the depth 48 is a subject whose depth is not consistent because part of the image is lost.

高橋康輔、外3名、「複数カメラ映像を用いた仮想全天球映像合成に関する検討」、社団法人電子情報通信学会、信学技報、2015年6月、vol.115、no.76、p.43-48Kosuke Takahashi, 3 others, “Study on virtual spherical image synthesis using multiple camera images”, The Institute of Electronics, Information and Communication Engineers, IEICE Technical Report, June 2015, vol.115, no.76, p. .43-48

仮想全天球画像において物体が存在する領域は、人が注視する領域(以下、「視聴領域」という。)である可能性が高い。そのため、視聴領域に存在する物体に多重像や消失が発生してしまうと、仮想全天球画像の品質が低下してしまうという問題がある。このような問題は、仮想全天球画像に限らず、複数のカメラで撮影された画像を背景画像に合成することによって生成される合成画像全てに共通する課題である。   There is a high possibility that a region where an object is present in the virtual omnidirectional image is a region that is watched by a person (hereinafter referred to as “viewing region”). For this reason, if multiple images or disappearance occurs in an object existing in the viewing area, there is a problem that the quality of the virtual omnidirectional image is degraded. Such a problem is not limited to a virtual omnidirectional image, but is a problem common to all synthesized images generated by synthesizing images taken by a plurality of cameras with a background image.

上記事情に鑑み、本発明は、複数のカメラで撮影された画像を背景画像に合成することによって生成される合成画像の品質低下を抑制する技術の提供を目的としている。   In view of the above circumstances, an object of the present invention is to provide a technique for suppressing deterioration in quality of a composite image generated by combining images taken by a plurality of cameras with a background image.

本発明の一態様は、第1の入力画像及び第2の入力画像の少なくともいずれか一方と異なる位置、および/または、異なる時刻に撮影された画像である背景画像に設定された所定の領域を挟む第1の領域及び第2の領域に対して、第1の入力画像及び第2の入力画像から生成された第1の部分画像及び第2の部分画像を重畳することによって合成画像を生成する合成画像生成部と、前記第1の入力画像と前記第2の入力画像とを前記所定の領域の補完に利用する参照画像として用いることによって、重畳された前記第1の部分画像と前記第2の部分画像との間の前記所定の領域を補完する画像処理部と、を備え、前記第1の部分画像と前記第2の部分画像は、所定の奥行に位置する同一の被写体が異なる位置から撮像された画像であり、前記第1の部分画像及び前記第2の部分画像は、前記被写体の一部を含み、前記第1の部分画像に含まれる前記被写体の一部は、前記第2の部分画像に含まれる前記被写体の一部と異なるものであり、前記所定の領域は、前記第1の領域及び前記第2の領域に対して、前記第1の部分画像と前記第2の部分画像をそれぞれ重畳した際に、前記第1の部分画像に含まれず、かつ、前記第2の部分画像にも含まれない、前記被写体の一部の領域を含み、前記画像処理部は、前記所定の領域のうちの前記第1の部分画像寄りの領域である第1範囲については前記第1の入力画像を用いることによって前記第1範囲を補完し、前記所定の領域のうちの前記第2の部分画像寄りの領域である第2範囲については前記第2の入力画像を用いることによって前記第2範囲を補完し、前記所定の領域の中心付近については前記第1の入力画像及び前記第2の入力画像のいずれかを用いることによって補完する画像処理装置である。   According to one embodiment of the present invention, a predetermined region set in a background image that is an image photographed at a different position and / or at a different time from at least one of the first input image and the second input image. A composite image is generated by superimposing the first partial image and the second partial image generated from the first input image and the second input image on the sandwiched first region and second region. By using the composite image generation unit, the first input image, and the second input image as reference images used for complementing the predetermined region, the superimposed first partial image and the second image An image processing unit that complements the predetermined area between the first partial image and the second partial image, and the first partial image and the second partial image are different from each other in the same subject located at a predetermined depth. A captured image, said One partial image and the second partial image include a part of the subject, and a part of the subject included in the first partial image is a part of the subject included in the second partial image. The predetermined area is different from the first area and the second area when the first partial image and the second partial image are superimposed on the first area and the second area, respectively. A partial area of the subject that is not included in one partial image and not included in the second partial image, and the image processing unit includes the first part of the predetermined area. The first range which is an area closer to the image is complemented by using the first input image, and the second range which is an area closer to the second partial image in the predetermined area. For the above by using the second input image Complement the 2 range, the vicinity of the center of the predetermined area is an image processing apparatus which complemented by the use of any of the first input image and the second input image.

本発明の一態様は、第1の入力画像及び第2の入力画像の少なくともいずれか一方と異なる位置、および/または、異なる時刻に撮影された画像である背景画像に設定された所定の領域を挟む第1の領域及び第2の領域に対して、第1の入力画像及び第2の入力画像から生成された第1の部分画像及び第2の部分画像を重畳することによって合成画像を生成する合成画像生成部と、前記第1の入力画像と前記第2の入力画像とを前記所定の領域の補完に利用する参照画像として用いることによって、重畳された前記第1の部分画像と前記第2の部分画像との間の前記所定の領域を補完する画像処理部と、を備え、前記第1の部分画像と前記第2の部分画像は、所定の奥行に位置する同一の被写体が異なる位置から撮像された画像であり、前記第1の部分画像及び前記第2の部分画像は、前記被写体の一部を含み、前記第1の部分画像に含まれる前記被写体の一部は、前記第2の部分画像に含まれる前記被写体の一部と異なるものであり、前記所定の領域は、前記第1の領域及び前記第2の領域に対して、前記第1の部分画像と前記第2の部分画像をそれぞれ重畳した際に、前記第1の部分画像に含まれず、かつ、前記第2の部分画像にも含まれない、前記被写体の一部の領域を含み、前記画像処理部は、前記第1の入力画像の倍率変更後の画像と前記第2の入力画像の倍率変更後の画像とを前記参照画像として用いることによって前記所定の領域を補完する画像処理装置である。   According to one embodiment of the present invention, a predetermined region set in a background image that is an image photographed at a different position and / or at a different time from at least one of the first input image and the second input image. A composite image is generated by superimposing the first partial image and the second partial image generated from the first input image and the second input image on the sandwiched first region and second region. By using the composite image generation unit, the first input image, and the second input image as reference images used for complementing the predetermined region, the superimposed first partial image and the second image An image processing unit that complements the predetermined area between the first partial image and the second partial image, and the first partial image and the second partial image are different from each other in the same subject located at a predetermined depth. A captured image, said One partial image and the second partial image include a part of the subject, and a part of the subject included in the first partial image is a part of the subject included in the second partial image. The predetermined area is different from the first area and the second area when the first partial image and the second partial image are superimposed on the first area and the second area, respectively. A partial area of the subject that is not included in one partial image and not included in the second partial image, and the image processing unit is an image after the magnification change of the first input image And the image after the magnification change of the second input image are used as the reference image to complement the predetermined area.

本発明の一態様は、上記の画像処理装置であって、前記背景画像は、第1の入力画像および第2の入力画像のそれぞれと異なる位置、および/または、異なる時刻に撮影された画像である。   One aspect of the present invention is the above-described image processing device, wherein the background image is an image captured at a different position and / or at a different time from each of the first input image and the second input image. is there.

本発明の一態様は、第1の入力画像及び第2の入力画像の少なくともいずれか一方と異なる位置、および/または、異なる時刻に撮影された画像である背景画像に設定された所定の領域を挟む第1の領域及び第2の領域に対して、第1の入力画像及び第2の入力画像から生成された第1の部分画像及び第2の部分画像を重畳することによって合成画像を生成する合成画像生成ステップと、前記第1の入力画像と前記第2の入力画像とを前記所定の領域の補完に利用する参照画像として用いることによって、重畳された前記第1の部分画像と前記第2の部分画像との間の前記所定の領域を補完する画像処理ステップと、を有し、前記第1の部分画像と前記第2の部分画像は、所定の奥行に位置する同一の被写体が異なる位置から撮像された画像であり、前記第1の部分画像及び前記第2の部分画像は、前記被写体の一部を含み、前記第1の部分画像に含まれる前記被写体の一部は、前記第2の部分画像に含まれる前記被写体の一部と異なるものであり、前記所定の領域は、前記第1の領域及び前記第2の領域に対して、前記第1の部分画像と前記第2の部分画像をそれぞれ重畳した際に、前記第1の部分画像に含まれず、かつ、前記第2の部分画像にも含まれない、前記被写体の一部の領域を含み、前記画像処理ステップにおいて、前記所定の領域のうちの前記第1の部分画像寄りの領域である第1範囲については前記第1の入力画像を用いることによって前記第1範囲を補完し、前記所定の領域のうちの前記第2の部分画像寄りの領域である第2範囲については前記第2の入力画像を用いることによって前記第2範囲を補完し、前記所定の領域の中心付近については前記第1の入力画像及び前記第2の入力画像のいずれかを用いることによって補完する画像処理方法である。   According to one embodiment of the present invention, a predetermined region set in a background image that is an image photographed at a different position and / or at a different time from at least one of the first input image and the second input image. A composite image is generated by superimposing the first partial image and the second partial image generated from the first input image and the second input image on the sandwiched first region and second region. By using the composite image generation step and the first input image and the second input image as a reference image used for complementing the predetermined region, the superimposed first partial image and the second image An image processing step for complementing the predetermined area between the first partial image and the second partial image, wherein the first subject image and the second partial image are located at different positions of the same subject located at a predetermined depth. Images taken from The first partial image and the second partial image include a part of the subject, and the part of the subject included in the first partial image is included in the second partial image. The predetermined area is different from a part of the subject, and the predetermined area is obtained when the first partial image and the second partial image are superimposed on the first area and the second area, respectively. Including a partial area of the subject that is not included in the first partial image and that is not included in the second partial image, and in the image processing step, For the first range that is a region closer to the first partial image, the first range is complemented by using the first input image, and the region closer to the second partial image in the predetermined region. For the second range, the second input image Complementing the second range by using, for near the center of the predetermined area is an image processing method for complementing by using either of the first input image and the second input image.

本発明の一態様は、第1の入力画像及び第2の入力画像の少なくともいずれか一方と異なる位置、および/または、異なる時刻に撮影された画像である背景画像に設定された所定の領域を挟む第1の領域及び第2の領域に対して、第1の入力画像及び第2の入力画像から生成された第1の部分画像及び第2の部分画像を重畳することによって合成画像を生成する合成画像生成ステップと、前記第1の入力画像と前記第2の入力画像とを前記所定の領域の補完に利用する参照画像として用いることによって、重畳された前記第1の部分画像と前記第2の部分画像との間の前記所定の領域を補完する画像処理ステップと、を有し、前記第1の部分画像と前記第2の部分画像は、所定の奥行に位置する同一の被写体が異なる位置から撮像された画像であり、前記第1の部分画像及び前記第2の部分画像は、前記被写体の一部を含み、前記第1の部分画像に含まれる前記被写体の一部は、前記第2の部分画像に含まれる前記被写体の一部と異なるものであり、前記所定の領域は、前記第1の領域及び前記第2の領域に対して、前記第1の部分画像と前記第2の部分画像をそれぞれ重畳した際に、前記第1の部分画像に含まれず、かつ、前記第2の部分画像にも含まれない、前記被写体の一部の領域を含み、前記画像処理ステップにおいて、前記第1の入力画像の倍率変更後の画像と前記第2の入力画像の倍率変更後の画像とを前記参照画像として用いることによって前記所定の領域を補完する画像処理方法である。   According to one embodiment of the present invention, a predetermined region set in a background image that is an image photographed at a different position and / or at a different time from at least one of the first input image and the second input image. A composite image is generated by superimposing the first partial image and the second partial image generated from the first input image and the second input image on the sandwiched first region and second region. By using the composite image generation step and the first input image and the second input image as a reference image used for complementing the predetermined region, the superimposed first partial image and the second image An image processing step for complementing the predetermined area between the first partial image and the second partial image, wherein the first subject image and the second partial image are located at different positions of the same subject located at a predetermined depth. Images taken from The first partial image and the second partial image include a part of the subject, and the part of the subject included in the first partial image is included in the second partial image. The predetermined area is different from a part of the subject, and the predetermined area is obtained when the first partial image and the second partial image are superimposed on the first area and the second area, respectively. Includes a partial area of the subject that is not included in the first partial image and that is not included in the second partial image. In the image processing step, the magnification of the first input image In the image processing method, the predetermined region is complemented by using the image after the change and the image after the magnification change of the second input image as the reference image.

本発明の一態様は、コンピュータを、上記の画像処理装置として機能させるためのコンピュータプログラムである。   One embodiment of the present invention is a computer program for causing a computer to function as the above-described image processing apparatus.

本発明により、複数のカメラで撮影された画像を背景画像に合成することによって生成される合成画像の品質低下を抑制することが可能となる。   According to the present invention, it is possible to suppress deterioration in quality of a synthesized image generated by synthesizing images captured by a plurality of cameras with a background image.

本発明における画像処理システム100のシステム構成を示す図である。1 is a diagram illustrating a system configuration of an image processing system 100 according to the present invention. 合成情報テーブルの具体例を示す図である。It is a figure which shows the specific example of a synthetic | combination information table. 画像処理部807の処理を説明するための図である。It is a figure for demonstrating the process of the image process part. 画像処理装置80の処理の流れを示すフローチャートである。4 is a flowchart showing a processing flow of the image processing apparatus 80. 従来システムにおいて仮想全天球画像を得るためのシステムを示す図である。It is a figure which shows the system for obtaining a virtual omnidirectional image in a conventional system. 画像処理システム1における画像処理の流れを説明するための図である。FIG. 3 is a diagram for explaining a flow of image processing in the image processing system 1; 画像処理システム1における課題を説明するための図である。2 is a diagram for explaining a problem in the image processing system 1. FIG.

以下、本発明の一実施形態を、図面を参照しながら説明する。
図1は、本発明における画像処理システム100のシステム構成を示す図である。
画像処理システム100は、全天球カメラ60、複数のカメラ70−1〜70−M(Mは2以上の整数)及び画像処理装置80を備える。なお、以下の説明では、カメラ70−1〜70−Mについて特に区別しない場合には、カメラ70と記載する。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a system configuration of an image processing system 100 according to the present invention.
The image processing system 100 includes an omnidirectional camera 60, a plurality of cameras 70-1 to 70-M (M is an integer of 2 or more), and an image processing device 80. In the following description, the cameras 70-1 to 70-M will be referred to as cameras 70 unless otherwise distinguished.

全天球カメラ60は、撮影対象領域81内の仮想視点82の位置に設置される。撮影対象領域81は、例えばサッカーコートやバスケットコートなどの競技用コートなどである。仮想視点82は、所定の領域(本実施形態では、撮影対象領域81)内に仮想的に設定された視点である。全天球カメラ60は、仮想視点82の位置における全天球画像を撮影する。本実施形態における全天球画像は、仮想視点82を中心として撮影対象領域81全体を含む。全天球カメラ60による処理は、画像処理装置80による処理の開始前に行われる。全天球カメラ60は、撮影した全天球画像を背景画像として画像処理装置80に出力する。   The omnidirectional camera 60 is installed at the position of the virtual viewpoint 82 in the shooting target area 81. The imaging target area 81 is, for example, a competition court such as a soccer court or a basket court. The virtual viewpoint 82 is a viewpoint virtually set in a predetermined area (in this embodiment, the imaging target area 81). The omnidirectional camera 60 captures an omnidirectional image at the position of the virtual viewpoint 82. The omnidirectional image in the present embodiment includes the entire imaging target region 81 with the virtual viewpoint 82 as the center. The processing by the omnidirectional camera 60 is performed before the processing by the image processing device 80 is started. The omnidirectional camera 60 outputs the captured omnidirectional image to the image processing apparatus 80 as a background image.

M台のカメラ70−1、70−2、・・・、70−Mは、撮影対象領域81の外側に設けられ、入力画像を動画で撮影するカメラであり、仮想視点82を含む領域を撮影する。図1に示すように、カメラ70−1には仮想視点82の位置上を通過する光線71が入力され、カメラ70−2には仮想視点82の位置上を通過する光線72が入力される。以下、カメラ70に入力される光線を実光線と記載する。図1では示していないが、カメラ70は撮影対象領域81の周囲に設置される。つまり、カメラ70は、それぞれ仮想視点82を含む画角となるように撮影対象領域81の周囲を取り囲むように設置される。図1においてMは、2以上の整数であり、同程度の画質の仮想全天球画像を得ようとするのであれば撮影対象領域81が大きいほど大きな値となる。また、撮影対象領域81の大きさが同じであれば、Mの値が大きい程、合成領域(仮想全天球画像において、M台のカメラ70からの画像を合成した領域)の面積が大きくなり、あるいは合成領域の大きさが同じであれば合成領域における画質が向上す仮想全天球画像の画質を高いものにしようとするほど大きな値となる。   M cameras 70-1, 70-2,..., 70 -M are cameras that are provided outside the imaging target area 81 and shoot an input image as a moving image, and shoot an area including the virtual viewpoint 82. To do. As shown in FIG. 1, a light beam 71 passing over the position of the virtual viewpoint 82 is input to the camera 70-1, and a light beam 72 passing over the position of the virtual viewpoint 82 is input to the camera 70-2. Hereinafter, the light beam input to the camera 70 is referred to as a real light beam. Although not shown in FIG. 1, the camera 70 is installed around the shooting target area 81. That is, the camera 70 is installed so as to surround the photographing target area 81 so that the angle of view includes the virtual viewpoint 82. In FIG. 1, M is an integer equal to or greater than 2. If a virtual omnidirectional image having the same image quality is to be obtained, the value M increases as the shooting target area 81 increases. Further, if the size of the imaging target area 81 is the same, the larger the value of M, the larger the area of the synthesis area (the area where the images from the M cameras 70 are synthesized in the virtual omnidirectional image). Alternatively, if the size of the composite area is the same, the value becomes larger as the image quality of the virtual omnidirectional image that improves the image quality in the composite area is increased.

画像処理装置80は、全天球カメラ60によって撮影された全天球画像と、カメラ70によって撮影された画像(以下、「入力画像」という。)とに基づいて仮想全天球画像を生成する。
次に、画像処理装置80の機能構成について説明する。画像処理装置80は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置80は、入力画像記憶部801、オブジェクト解析部802、合成情報記憶部803、部分領域抽出部804、背景画像記憶部805、画像合成部806、画像処理部807を備える装置として機能する。なお、画像処理装置80の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。
The image processing device 80 generates a virtual omnidirectional image based on the omnidirectional image captured by the omnidirectional camera 60 and an image captured by the camera 70 (hereinafter referred to as “input image”). .
Next, the functional configuration of the image processing apparatus 80 will be described. The image processing apparatus 80 includes a CPU (Central Processing Unit), a memory, an auxiliary storage device, and the like connected by a bus, and executes an image processing program. By executing the image processing program, the image processing apparatus 80 includes an input image storage unit 801, an object analysis unit 802, a synthesis information storage unit 803, a partial area extraction unit 804, a background image storage unit 805, an image synthesis unit 806, and an image processing unit. It functions as a device having 807. Note that all or part of the functions of the image processing apparatus 80 may be realized using hardware such as an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA). . The image processing program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the image processing program may be transmitted / received via a telecommunication line.

入力画像記憶部801は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。入力画像記憶部801は、各カメラ70を識別するためのカメラIDに関連付けて、カメラ70毎の入力画像を時系列順に記憶する。入力画像は、撮影時刻及び動画の画像データを含む。
オブジェクト解析部802は、入力画像記憶部801に記憶されている入力画像を読み出し、入力とする。オブジェクト解析部802は、入力された入力画像に含まれるオブジェクトを検出して、出力する。例えば、オブジェクト解析部802は、隣接する2つのカメラ70の同時刻における入力画像それぞれからオブジェクトを検出する。ここでオブジェクトとは、背景画像に含まれていないが入力画像に含まれている人物、物体(例えばボール)等である。なお、オブジェクトが「人」、「ボール」、「物体A」、「物体B」のいずれに該当するのかを解析・判定する手法としては、公知の画像解析技術が用いられる。例えば、画像の解析により人を検出する技術を開示する文献として以下の参考文献1がある。
[参考文献1]:山内悠嗣、外2名、「[サーベイ論文] 統計的学習手法による人検出」、電子情報通信学会技術研究報告、vol.112、no.197、PRMU2012-43、pp.113-126、2012年9月
The input image storage unit 801 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The input image storage unit 801 stores the input images for each camera 70 in time series in association with the camera ID for identifying each camera 70. The input image includes shooting time and moving image data.
The object analysis unit 802 reads the input image stored in the input image storage unit 801 and uses it as an input. The object analysis unit 802 detects and outputs an object included in the input image that has been input. For example, the object analysis unit 802 detects an object from each of the input images at the same time of two adjacent cameras 70. Here, the object is a person, an object (for example, a ball) or the like that is not included in the background image but is included in the input image. A known image analysis technique is used as a method for analyzing and determining whether the object corresponds to “person”, “ball”, “object A”, or “object B”. For example, the following reference 1 is a document disclosing a technique for detecting a person by analyzing an image.
[Reference 1]: Satoshi Yamauchi and two others, “[Survey Paper] Human Detection by Statistical Learning Method”, IEICE Technical Report, vol.112, no.197, PRMU2012-43, pp. 113-126, September 2012

合成情報記憶部803は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。合成情報記憶部803は、合成情報テーブルを記憶する。合成情報テーブルは、入力画像から生成される画像を背景画像に重畳するための情報(以下、「合成情報」という。)を表すレコード(以下、「合成情報レコード」という。)によって構成される。   The combined information storage unit 803 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The composite information storage unit 803 stores a composite information table. The composite information table is composed of records (hereinafter referred to as “composite information records”) representing information for superimposing an image generated from the input image on the background image (hereinafter referred to as “composite information”).

図2は、合成情報テーブルの具体例を示す図である。
合成情報テーブルは、合成情報レコードを複数有する。合成情報レコードは、カメラID、抽出領域情報及び変換情報の各値を有する。カメラIDの値は、カメラ70を識別するための識別情報を表す。例えば、図2におけるカメラID“C1”で識別されるカメラ70はカメラ70−1であり、カメラID“CM”で識別されるカメラ70はカメラ70−Mである。
FIG. 2 is a diagram illustrating a specific example of the synthesis information table.
The composite information table has a plurality of composite information records. The composite information record has each value of camera ID, extraction area information, and conversion information. The value of the camera ID represents identification information for identifying the camera 70. For example, the camera 70 identified by the camera ID “C1” in FIG. 2 is the camera 70-1, and the camera 70 identified by the camera ID “CM” is the camera 70-M.

抽出領域情報の値は、同じ合成情報レコードのカメラIDで識別されるカメラ70で撮影された画像(入力画像)から抽出する領域(以下、「抽出領域」という。)に関する情報を表す。抽出領域情報を矩形とした場合、抽出領域情報の具体例として、左上座標、幅及び高さで表される矩形がある。左上座標は、抽出領域の入力画像中での左上の座標を表す。幅は、抽出領域の幅を表す。高さは、抽出領域の高さを表す。なお、幅及び高さは、抽出領域の左上座標を基準とし、かつ、抽出領域中に仮想視点を含む範囲に設定される。本実施形態における抽出領域情報で示される領域は、隣接するカメラ70(例えば、カメラID“C1”、“C2”で識別されるカメラ70)の入力画像それぞれから抽出された各抽出領域の画像(以下、「部分領域画像」という。)に対して、変換情報に応じた変換を行うことによって生成される各部分画像のそれぞれを背景画像に重畳した際に、各部分画像同士が所定の幅と高さとを有する領域を挟むように設定されている。なお、挟み方としては、各部分画像同士が所定の幅と高さとを有する領域を縦に挟んでもよいし、横に挟んでもよい。   The value of the extraction area information represents information regarding an area (hereinafter referred to as “extraction area”) extracted from an image (input image) photographed by the camera 70 identified by the camera ID of the same composite information record. When the extraction area information is a rectangle, a specific example of the extraction area information is a rectangle represented by an upper left coordinate, a width, and a height. The upper left coordinate represents the upper left coordinate in the input image of the extraction area. The width represents the width of the extraction area. The height represents the height of the extraction area. Note that the width and height are set to a range including the virtual viewpoint in the extraction region with the upper left coordinate of the extraction region as a reference. In the present embodiment, the region indicated by the extraction region information is an image of each extraction region extracted from each input image of an adjacent camera 70 (for example, the camera 70 identified by the camera IDs “C1” and “C2”). Hereinafter, when each partial image generated by performing conversion according to conversion information is superimposed on the background image, each partial image has a predetermined width. It is set so as to sandwich a region having a height. In addition, as a method of pinching, an area in which each partial image has a predetermined width and height may be pinched vertically or horizontally.

変換情報の値は、同じ合成情報レコードの抽出領域情報に応じて抽出された部分領域画像を部分画像に変換するための情報を表す。部分画像は、部分領域画像を背景画像の対応する領域に違和感なく重畳するために、部分領域画像に対して上記変換情報に応じて拡大、縮小、回転、変形等の変換処理を行うことによって生成される。この変換情報は、例えばアフィン変換行列である。なお、アフィン変換行列には、背景画像において部分画像を重畳する領域を示す情報が含まれる。
アフィン変換行列は、以下に示す方法により予め取得して合成情報記憶部803に記憶される。例えば、仮想視点82から複数種類の距離(奥行)の位置に格子模様のチェスボードを設置して、仮想視点82に設置した全天球カメラ60で撮影したチェスボードを含む画像と、カメラ70で撮影したチェスボードを含む画像とを比較する。そして両画像において、撮影したチェスボードの各格子が対応するように画像を変換するアフィン変換行列を求める。このようにして、チェスボードを設置した奥行に対応したアフィン変換行列を求める。
The value of the conversion information represents information for converting a partial area image extracted according to the extracted area information of the same composite information record into a partial image. The partial image is generated by performing conversion processing such as enlargement, reduction, rotation, and deformation on the partial region image according to the conversion information in order to superimpose the partial region image on the corresponding region of the background image without a sense of incongruity. Is done. This conversion information is, for example, an affine transformation matrix. Note that the affine transformation matrix includes information indicating a region in which the partial image is superimposed on the background image.
The affine transformation matrix is acquired in advance by the following method and stored in the composite information storage unit 803. For example, an image including a chess board photographed by the omnidirectional camera 60 installed at the virtual viewpoint 82 with a lattice-shaped chess board installed at a plurality of types of distances (depths) from the virtual viewpoint 82, and the camera 70 Compare the captured image with the chess board. Then, in both images, an affine transformation matrix for transforming the images so as to correspond to each grid of the captured chess board is obtained. In this way, an affine transformation matrix corresponding to the depth at which the chess board is installed is obtained.

図2に示される例では、合成情報テーブルには複数の合成情報レコードが登録されている。図2において、合成情報テーブルの最上段に登録されている合成情報レコードは、カメラIDの値が“C1”、左上座標の値が“(A,B)”、幅の値が“C”、高さの値が“D”、変換情報の値が“A1”である。すなわち、カメラID“C1”で識別されるカメラ70−1の入力画像から左上座標(A,B)、幅C、高さDで表される領域を抽出し、抽出された画像に対して“A1”の変換処理を施すことが表されている。 In the example shown in FIG. 2, a plurality of composite information records are registered in the composite information table. In FIG. 2, the composite information record registered at the top of the composite information table has a camera ID value “C1”, an upper left coordinate value “(A, B)”, a width value “C”, The height value is “D” and the conversion information value is “A1 i ”. That is, an area represented by upper left coordinates (A, B), width C, and height D is extracted from the input image of the camera 70-1 identified by the camera ID “C1”. It is shown that the conversion process of A1 i ″ is performed.

図1に戻って、画像処理装置80の説明を続ける。
部分領域抽出部804は、オブジェクト解析部802から出力された入力画像と、合成情報テーブルの情報とを入力とする。部分領域抽出部804は、入力された合成情報テーブルの情報に基づいて、入力画像から部分領域を抽出することによって部分領域画像を生成し、出力する。
背景画像記憶部805は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。背景画像記憶部805は、全天球カメラ60によって撮影された全天球画像を背景画像として記憶する。
画像合成部806は、合成情報記憶部803に記憶されている合成情報テーブルと、背景画像記憶部805に記憶されている背景画像と、部分領域抽出部804によって生成された部分領域画像とを入力とする。画像合成部806は、部分領域画像に対して、合成情報テーブルに含まれる変換情報のアフィン変換行列に基づいて変換処理を行うことによって部分画像を生成する。画像合成部806は、生成した部分画像をアフィン変換行列に基づいて背景画像に重畳することで仮想全天球画像を生成して出力する。より具体的には、画像合成部806は、部分画像の画素値で、背景画像上の部分画像を重畳する領域の画素値を置き換えることによって背景画像に部分領域画像を重畳することで仮想全天球画像を生成する。
画像処理部807は、画像合成部806によって生成された仮想全天球画像と、入力画像記憶部801に記憶されている入力画像とを入力とする。画像処理部807は、入力された仮想全天球画像において、画像合成部806によって背景画像に重畳された部分画像間の所定の領域(以下、「補完対象領域」という。)を、補完対象領域を挟む2つの部分画像それぞれの生成元である入力画像を用いて補完する。
Returning to FIG. 1, the description of the image processing apparatus 80 will be continued.
The partial area extraction unit 804 receives the input image output from the object analysis unit 802 and the information in the synthesis information table. The partial area extraction unit 804 generates and outputs a partial area image by extracting the partial area from the input image based on the information of the input synthesis information table.
The background image storage unit 805 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The background image storage unit 805 stores the omnidirectional image captured by the omnidirectional camera 60 as a background image.
The image composition unit 806 inputs the composition information table stored in the composition information storage unit 803, the background image stored in the background image storage unit 805, and the partial region image generated by the partial region extraction unit 804. And The image synthesis unit 806 generates a partial image by performing a conversion process on the partial region image based on the affine transformation matrix of the conversion information included in the synthesis information table. The image composition unit 806 generates and outputs a virtual omnidirectional image by superimposing the generated partial image on the background image based on the affine transformation matrix. More specifically, the image composition unit 806 superimposes the partial region image on the background image by replacing the pixel value of the region on the background image with the pixel value of the partial image, thereby superimposing the partial region image on the background image. Generate a sphere image.
The image processing unit 807 receives the virtual omnidirectional image generated by the image composition unit 806 and the input image stored in the input image storage unit 801 as inputs. In the input virtual omnidirectional image, the image processing unit 807 sets a predetermined region (hereinafter referred to as “complementation target region”) between the partial images superimposed on the background image by the image composition unit 806. Are complemented using the input images that are the generation sources of the two partial images.

以下、図3を用いて画像処理部807の具体的な処理について説明する。図3は、画像処理部807の処理を説明するための図である。
図3において、入力画像83−1(第1の入力画像)はカメラ70−1によって撮影された画像であり、入力画像83−2(第2の入力画像)はカメラ70−2によって撮影された画像である。入力画像83−1における領域84は合成情報テーブルに基づいて入力画像83−1から抽出される抽出領域を表し、入力画像83−2における領域85は合成情報テーブルに基づいて入力画像83−2から抽出される抽出領域を表す。そして、抽出領域84で表される領域を入力画像83−1から抽出して生成される部分領域画像及び抽出領域85で表される領域を入力画像83−2から抽出して生成される部分領域画像それぞれに対して、変換情報に応じた変換処理が行なわれることによって部分画像86(第1の部分画像)及び87(第2の部分画像)が生成される。その後、画像合成部806によって、部分画像86及び87がアフィン変換行列で示される背景画像88上の所定の位置に重畳される(図3の下図参照)。ここで、部分画像86が重畳される領域が第1の領域に相当し、部分画像87が重畳される領域が第2の領域に相当する。
Hereinafter, specific processing of the image processing unit 807 will be described with reference to FIG. FIG. 3 is a diagram for explaining the processing of the image processing unit 807.
In FIG. 3, an input image 83-1 (first input image) is an image taken by the camera 70-1, and an input image 83-2 (second input image) is taken by the camera 70-2. It is an image. An area 84 in the input image 83-1 represents an extraction area extracted from the input image 83-1 based on the synthesis information table, and an area 85 in the input image 83-2 is derived from the input image 83-2 based on the synthesis information table. Represents the extraction area to be extracted. A partial region image generated by extracting the region represented by the extraction region 84 from the input image 83-1, and a partial region generated by extracting the region represented by the extraction region 85 from the input image 83-2. Partial images 86 (first partial images) and 87 (second partial images) are generated by performing conversion processing according to conversion information on each image. Thereafter, the image composition unit 806 superimposes the partial images 86 and 87 on a predetermined position on the background image 88 indicated by the affine transformation matrix (see the lower diagram in FIG. 3). Here, the region where the partial image 86 is superimposed corresponds to the first region, and the region where the partial image 87 is superimposed corresponds to the second region.

上記のように、部分画像86及び87は所定の領域を挟んで重畳される。そのため、背景画像88に重畳された部分画像86及び87の間に所定の領域89が生じる。この所定の領域89が、画像処理部807が補完する補完対象領域である。補完対象領域は、補完対象領域に隣接する2つの部分画像に基づいて、第1の領域に重畳された部分画像(図3では、部分画像86)の左上座標及び左下座標と、第2の領域に重畳された部分画像(図3では、部分画像87)の右上座標及び右下座標とで囲まれる領域を表す。図3に示すように、部分画像86、部分画像87及び補完対象領域は、矩形であり、いずれも高さが同じである。さらに、部分画像86及び部分画像87は、底辺が揃うように配置されている。部分画像86及び部分画像87の底辺が揃うように配置されているため、部分画像86及び部分画像87は補完対象領域を挟んでいる。   As described above, the partial images 86 and 87 are superimposed with a predetermined area interposed therebetween. Therefore, a predetermined area 89 is generated between the partial images 86 and 87 superimposed on the background image 88. This predetermined area 89 is a complementation target area that the image processing unit 807 complements. The complement target area includes upper left coordinates and lower left coordinates of the partial image (part image 86 in FIG. 3) superimposed on the first area based on two partial images adjacent to the complement target area, and the second area. Represents a region surrounded by upper right coordinates and lower right coordinates of the partial image (partial image 87 in FIG. 3) superimposed on. As shown in FIG. 3, the partial image 86, the partial image 87, and the complement target area are rectangular, and all have the same height. Furthermore, the partial image 86 and the partial image 87 are arranged so that the bottoms are aligned. Since the partial image 86 and the partial image 87 are arranged so that the bottoms thereof are aligned, the partial image 86 and the partial image 87 sandwich the region to be complemented.

画像処理部807は、部分画像86の生成元である入力画像83−1と、部分画像87の生成元である入力画像83−2と、補完対象領域の情報とを入力とし、入力された入力画像83−1及び83−2を参照画像として補完対象領域を補完し、補完対象領域を補完した画像を出力する。ここで、参照画像とは、補完対象領域を補完するために利用される入力画像を表す。具体的には、まず画像処理部807は、背景画像88から補完対象領域と、補完対象領域以外の領域とを共に含む小領域(パッチ)を選択する。この方法としては、補完対象領域の輪郭上に存在するパッチであって、パッチ領域中の補完対象領域以外の領域の画素のエッジ強度が強いパッチから選定する方法などが挙げられる。次に、画像処理部807は、選択したパッチの補完対象領域以外の画素を基に、参照画像から類似パッチを検出する。ここで、類似パッチとは、選択したパッチの画素の画素値と画素値が類似したパッチを表す。そして、画像処理部807は、検出した類似パッチを、選択したパッチに重畳する。つまり、画像処理部807は、類似パッチの画素値で選択したパッチの画素値を置き換える。画像処理部807は、以上の処理を補完対象領域が無くなるまで実行する。   The image processing unit 807 receives the input image 83-1 that is the generation source of the partial image 86, the input image 83-2 that is the generation source of the partial image 87, and the information on the complement target area as input. Using the images 83-1 and 83-2 as reference images, the complement target area is complemented, and an image complemented with the complement target area is output. Here, the reference image represents an input image used for complementing the complement target area. Specifically, first, the image processing unit 807 selects a small area (patch) including both the complement target area and the area other than the complement target area from the background image 88. As this method, there is a method of selecting patches that exist on the outline of the complementation target area and that have a strong edge strength of pixels in the area other than the complementation target area in the patch area. Next, the image processing unit 807 detects a similar patch from the reference image based on pixels other than the complement target area of the selected patch. Here, the similar patch represents a patch whose pixel value is similar to the pixel value of the pixel of the selected patch. Then, the image processing unit 807 superimposes the detected similar patch on the selected patch. That is, the image processing unit 807 replaces the selected pixel value of the patch with the pixel value of the similar patch. The image processing unit 807 executes the above processing until there is no complement target area.

この際、画像処理部807は、補完対象領域 のうちの補完対象領域の中心より部分画像86寄りの領域である第1範囲については、部分画像86の生成元である入力画像83−1を参照画像として用いることによって第1範囲を補完する。また、画像処理部807は、補完対象領域のうちの補完対象領域の中心より部分画像87寄りの領域である第2範囲については、部分画像87の生成元である入力画像83−2を参照画像として用いることによって第2範囲を補完する。また、画像処理部807は、補完対象領域の中心付近については、補完対象領域に隣接する部分画像86及び87それぞれの生成元である入力画像83−1及び入力画像83−2のいずれかを参照画像として用いることによって補完する。参照画像として、各部分画像それぞれの生成元である入力画像を用いる理由は、元画像に近いところから高画質な補完が可能であると考えられるためである。 なお、補完対象領域に隣接する2つの部分画像のうち1つの部分画像においてオブジェクトが含まれない場合、画像処理部807はオブジェクトが含まれる部分画像の生成元である入力画像を参照画像として用いることによって補完対象領域を補完してもよい。   At this time, the image processing unit 807 refers to the input image 83-1 that is the generation source of the partial image 86 for the first range that is closer to the partial image 86 than the center of the complementary target region of the complementary target regions. The first range is complemented by using it as an image. The image processing unit 807 also uses the input image 83-2 that is the generation source of the partial image 87 as a reference image for the second range that is closer to the partial image 87 than the center of the complement target region in the complement target region. To supplement the second range. The image processing unit 807 refers to either the input image 83-1 or the input image 83-2 that is the generation source of each of the partial images 86 and 87 adjacent to the complement target region for the vicinity of the center of the complement target region. It complements by using as an image. The reason why the input image that is the generation source of each partial image is used as the reference image is that high-quality complementation is possible from a location close to the original image. In addition, when an object is not included in one partial image of two partial images adjacent to the complement target region, the image processing unit 807 uses an input image that is a generation source of the partial image including the object as a reference image. The complement target area may be complemented by

なお、上記の例では、補完手法(コンプリーション手法)としてパッチベースの手法を例に説明したが、補完手法はこれに限定される必要はない。補完手法としては、その他の手法が用いられてもよい。例えば、補完対象領域の画素の、類似パッチ中での該当位置の画素を用いて補完する手法や、複数の類似パッチ中の該当位置の画素の重みづけ平均の画素を用いて補完する手法などがある。   In the above example, the patch-based method is described as an example of the complementing method (completion method), but the complementing method is not necessarily limited to this. Other methods may be used as the complementing method. For example, there is a method of complementing using the pixel at the corresponding position in the similar patch of the pixel in the complement target region, or a method of complementing using the weighted average pixel of the pixel at the corresponding position in the plurality of similar patches. is there.

図4は、画像処理装置80の処理の流れを示すフローチャートである。
オブジェクト解析部802は、入力画像記憶部801から隣接するカメラ70(2つのカメラ70)の同時刻における入力画像を読み出す(ステップS101)。次に、オブジェクト解析部802は、読み出した各入力画像を入力とし、入力した各入力画像を解析することによって各入力画像のオブジェクトを検出する(ステップS102)。オブジェクト解析部802は、いずれかの入力画像からオブジェクトが検出されたか否か判定する(ステップS103)。いずれの入力画像からもオブジェクトが検出されなかった場合(ステップS103−NO)、オブジェクト解析部802は隣接する他の組合せのカメラ70の同時刻における入力画像を入力画像記憶部801から読み出す(ステップS104)。その後、ステップS102以降の処理が実行される。
FIG. 4 is a flowchart showing a process flow of the image processing apparatus 80.
The object analysis unit 802 reads the input images at the same time of the adjacent cameras 70 (two cameras 70) from the input image storage unit 801 (step S101). Next, the object analysis unit 802 receives each input image that has been read, and detects each input image object by analyzing each input image (step S102). The object analysis unit 802 determines whether an object is detected from any input image (step S103). When no object is detected from any input image (NO in step S103), the object analysis unit 802 reads the input image at the same time of the camera 70 in another adjacent combination from the input image storage unit 801 (step S104). ). Thereafter, the processing after step S102 is executed.

一方、いずれかの入力画像からオブジェクトが検出された場合(ステップS103−YES)、オブジェクト解析部802は入力画像を部分領域抽出部804に出力する。部分領域抽出部804は、オブジェクト解析部802から出力された入力画像と、合成情報記憶部803に記憶されている合成情報テーブルとを入力として、合成情報テーブルで示される部分領域を各入力画像から抽出することによって、入力画像毎の部分領域画像を生成する(ステップS105)。例えば、部分領域抽出部804は、カメラ70−1の入力画像に対して、合成情報テーブルのカメラ70−1に対応する合成情報レコードの抽出領域情報で表される領域を抽出することによって、カメラ70−1の入力画像の部分領域画像を生成する。部分領域抽出部804は、生成した各入力画像の各部分領域画像を画像合成部806に出力する。   On the other hand, when an object is detected from any input image (step S103—YES), the object analysis unit 802 outputs the input image to the partial region extraction unit 804. The partial region extraction unit 804 receives the input image output from the object analysis unit 802 and the composite information table stored in the composite information storage unit 803, and extracts the partial region indicated by the composite information table from each input image. By extracting, a partial area image for each input image is generated (step S105). For example, the partial region extraction unit 804 extracts the region represented by the extraction region information of the composite information record corresponding to the camera 70-1 in the composite information table from the input image of the camera 70-1, thereby A partial area image of the input image 70-1 is generated. The partial area extraction unit 804 outputs each partial area image of each generated input image to the image synthesis unit 806.

画像合成部806は、部分領域抽出部804から出力された各入力画像の各部分領域画像と、合成情報記憶部803に記憶されている合成情報テーブルと、背景画像記憶部805に記憶されている背景画像とを入力とし、合成情報テーブルの変換情報に基づいて、生成された各部分領域画像に対して変換処理を行うことによって各部分画像を生成し、生成した各部分画像を背景画像上の対応する位置に重畳する(ステップS106)。例えば、画像合成部806は、カメラ70−1の入力画像から生成された部分領域画像に対して、合成情報テーブルのカメラ70−1に対応する合成情報レコードの変換情報に応じて変換処理を行うことによって、カメラ70−1の部分領域画像の部分画像を生成し、生成した部分画像を、変換情報に含まれる背景画像において部分画像を重畳する領域を示す情報に基づいて背景画像に重畳する。画像合成部806は、部分画像が重畳された背景画像を画像処理部807に出力する。   The image composition unit 806 stores each partial region image of each input image output from the partial region extraction unit 804, a composite information table stored in the composite information storage unit 803, and a background image storage unit 805. Each partial image is generated by performing a conversion process on each generated partial area image based on the conversion information in the synthesis information table, and the background image is input to the background image. Superimpose on the corresponding position (step S106). For example, the image composition unit 806 performs a conversion process on the partial region image generated from the input image of the camera 70-1 according to the conversion information of the composite information record corresponding to the camera 70-1 in the composite information table. Thus, a partial image of the partial region image of the camera 70-1 is generated, and the generated partial image is superimposed on the background image based on information indicating a region in which the partial image is superimposed on the background image included in the conversion information. The image composition unit 806 outputs the background image on which the partial images are superimposed to the image processing unit 807.

画像処理部807は、部分画像が重畳された背景画像と入力画像記憶部801に記憶されている入力画像とを入力とし、入力画像記憶部801に記憶されている背景画像に重畳された各部分画像の生成元である入力画像を用いて、重畳された部分画像間における補完対象領域を補完する(ステップS107)。その後、画像処理部807は、処理対象となる入力画像全てに対して処理が行なわれたか否か判定する(ステップS108)。例えば、画像処理部807は、オブジェクトが検出された入力画像全てに対してステップS105からステップS107までの処理が行なわれたか否か判定する。ここで、処理対象となる入力画像は、入力画像記憶部801に記憶されている入力画像である。
オブジェクトが検出された入力画像全てに対してステップS105からステップS107までの処理が行なわれた場合(ステップS108−YES)、画像処理装置80は処理を終了する。
一方、オブジェクトが検出された入力画像全てに対してステップS105からステップS107までの処理が行なわれていない場合(ステップS108−NO)、画像処理装置80はステップS104の以降の処理を実行する。
The image processing unit 807 receives the background image on which the partial image is superimposed and the input image stored in the input image storage unit 801 as input, and each part superimposed on the background image stored in the input image storage unit 801. Using the input image that is the image generation source, the region to be complemented between the superimposed partial images is complemented (step S107). Thereafter, the image processing unit 807 determines whether or not processing has been performed on all input images to be processed (step S108). For example, the image processing unit 807 determines whether or not the processing from step S105 to step S107 has been performed on all input images in which objects are detected. Here, the input image to be processed is an input image stored in the input image storage unit 801.
When the processing from step S105 to step S107 has been performed on all input images in which objects have been detected (step S108—YES), the image processing device 80 ends the processing.
On the other hand, when the processing from step S105 to step S107 has not been performed on all the input images in which the object has been detected (step S108-NO), the image processing device 80 executes the processing subsequent to step S104.

以上のように構成された画像処理装置80によれば、複数のカメラで撮影された画像を背景画像に合成することによって生成される合成画像の品質低下を抑制することが可能になる。以下、この効果について詳細に説明する。
画像処理装置80は、隣り合うカメラ70それぞれで撮影された画像から、各画像が合成時に重ならないような小さい領域を抽出した部分領域画像を生成する。画像処理装置80は、生成した部分領域画像に対して変換処理を行うことによって部分画像を生成し、生成した部分画像を背景画像に重畳する。そして、画像処理装置80は、重畳した部分画像の間における補完対象領域を補完する。この補完対象領域は、2つの画像の重複領域に相当する。つまり、重複領域に相当する領域が、補完対象領域として設定され、補完されるため多重像や消失の発生を抑制することができる。そのため、複数のカメラで撮影された画像を背景画像に合成することによって生成される合成画像の品質低下を抑制することが可能になる。
According to the image processing device 80 configured as described above, it is possible to suppress deterioration in quality of a composite image generated by combining images taken by a plurality of cameras with a background image. Hereinafter, this effect will be described in detail.
The image processing apparatus 80 generates a partial area image obtained by extracting a small area from which images are not overlapped at the time of synthesis from images taken by adjacent cameras 70. The image processing device 80 generates a partial image by performing conversion processing on the generated partial region image, and superimposes the generated partial image on the background image. Then, the image processing device 80 complements the complement target area between the superimposed partial images. This complement target area corresponds to an overlap area of two images. That is, since an area corresponding to the overlap area is set as a complement target area and complemented, the occurrence of multiple images and disappearance can be suppressed. For this reason, it is possible to suppress deterioration in quality of a synthesized image generated by synthesizing images captured by a plurality of cameras with a background image.

また、画像処理装置80は、第1の領域に重畳された第1の部分画像寄りの所定の領域における第1範囲については、第1の部分画像の生成元の入力画像を参照画像として用いることによって第1範囲を補完する。さらに、画像処理装置80は、第2の領域に重畳された第2の部分画像寄りの所定の領域における第2範囲については、第2の部分画像の生成元の入力画像を参照画像として用いることによって第2範囲を補完する。このように、各部分画像寄りの所定の領域における範囲について、部分画像の生成元の入力画像を参照画像として用いて補完することによって、より入力画像に類似するように補完することができる。   The image processing apparatus 80 uses, as a reference image, the input image that is the generation source of the first partial image for the first range in the predetermined region near the first partial image that is superimposed on the first region. To complement the first range. Furthermore, the image processing apparatus 80 uses, as a reference image, the input image that is the generation source of the second partial image for the second range in the predetermined region near the second partial image that is superimposed on the second region. To supplement the second range. As described above, the range in the predetermined region near each partial image can be complemented so as to be more similar to the input image by complementing the input image from which the partial image is generated as a reference image.

<変形例>
本発明は、全天球画像の場合に限らず、複数のカメラで撮影された画像を背景画像に重畳することによって合成画像を生成する場合に適用可能である。
本実施形態では、補完対象領域の補完処理に使用する参照画像として、部分画像の生成元である入力画像をそのまま用いる構成を示したが、画像処理部807は参照画像として部分画像の生成元である入力画像の倍率を変更した画像を用いてもよい。例えば、画像処理部807は、参照画像として部分画像の生成元である入力画像を所定分拡大(例えば、10%、20%拡大など)した画像や、入力画像を所定分縮小(例えば、10%、20%縮小など)した画像を用いてもよい。
本実施形態では、合成情報テーブルに登録されている幅の値が全てのカメラIDで同じであるが、幅の値はカメラID毎に異なっていてもよいし、一部のカメラIDで異なっていてもよい。
<Modification>
The present invention is not limited to an omnidirectional image, but can be applied to a case where a composite image is generated by superimposing images taken by a plurality of cameras on a background image.
In the present embodiment, the configuration in which the input image that is the generation source of the partial image is used as it is as the reference image used for the complement processing of the region to be complemented is shown, but the image processing unit 807 is the generation source of the partial image as the reference image. You may use the image which changed the magnification of a certain input image. For example, the image processing unit 807 enlarges the input image that is the generation source of the partial image as the reference image by a predetermined amount (for example, 10%, 20% expansion, etc.) or reduces the input image by a predetermined amount (for example, 10%). , 20% reduction, etc.) may be used.
In the present embodiment, the width value registered in the composite information table is the same for all camera IDs, but the width value may be different for each camera ID, or may be different for some camera IDs. May be.

図3に示した例は一例であり、部分画像及び補完対象領域の形状、部分画像及び補完対象領域の並べ方及び補完対象領域の大きさは図3に示す例に限定される必要はない。例えば、部分画像及び補完対象領域の形状は、いずれも矩形でなくてもよく、必ずしも同じ形状でなくてもよい。ただし、部分画像及び補完対象領域の大きさがパッチサイズより大きいことが必要である。また、部分画像及び補完対象領域は、縦に並べてもよいし、横に並べてもよい。また、補完対象領域の大きさは、部分画像よりも小さくてもよいし、大きくてもよい。このように補完対象領域の大きさは部分画像の大きさには左右されない。その理由は、画質が参照領域に左右されるためである。
補完対象領域の補完の方法は、上記の方法(図3で説明した方法)に限定されない。例えば、画像処理部807は以下のような方法によって補完対象領域を補完してもよい。まず、第1の領域に重畳された部分画像の生成元の入力画像をA、第2の領域に重畳された部分画像の生成元の入力画像をBとして、AとBの大きさをa:bの割合とする。中心部分をA、Bいずれかの入力画像を用いて補完する際、a:bの割合で類似パッチが探索されるように重み付けする。
The example illustrated in FIG. 3 is an example, and the shape of the partial image and the complement target area, the arrangement of the partial image and the complement target area, and the size of the complement target area need not be limited to the example illustrated in FIG. For example, the shapes of the partial image and the complement target area do not have to be rectangular, and are not necessarily the same shape. However, the size of the partial image and the complement target area needs to be larger than the patch size. Further, the partial image and the complement target area may be arranged vertically or horizontally. Further, the size of the complement target area may be smaller or larger than the partial image. Thus, the size of the complement target area is not affected by the size of the partial image. The reason is that the image quality depends on the reference area.
The method of complementing the region to be complemented is not limited to the above method (the method described in FIG. 3). For example, the image processing unit 807 may supplement the complement target area by the following method. First, the input image of the generation source of the partial image superimposed on the first region is A, the input image of the generation source of the partial image superimposed on the second region is B, and the size of A and B is a: Let b be the ratio. When the center portion is complemented using either the A or B input image, weighting is performed so that similar patches are searched at a ratio of a: b.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

60…全天球カメラ,70(70−1〜70−M)…カメラ, 4、80…画像処理装置, 801…入力画像記憶部, 802…オブジェクト解析部, 803…合成情報記憶部, 804…部分領域抽出部, 805…背景画像記憶部, 806…画像合成部, 807…画像処理部   60 ... Spherical camera, 70 (70-1 to 70-M) ... Camera, 4, 80 ... Image processing device, 801 ... Input image storage unit, 802 ... Object analysis unit, 803 ... Composite information storage unit, 804 ... Partial region extraction unit, 805 ... background image storage unit, 806 ... image composition unit, 807 ... image processing unit

Claims (6)

第1の入力画像及び第2の入力画像の少なくともいずれか一方と異なる位置、および/または、異なる時刻に撮影された画像である背景画像に設定された所定の領域を挟む第1の領域及び第2の領域に対して、第1の入力画像及び第2の入力画像から生成された第1の部分画像及び第2の部分画像を重畳することによって合成画像を生成する合成画像生成部と、
前記第1の入力画像と前記第2の入力画像とを前記所定の領域の補完に利用する参照画像として用いることによって、重畳された前記第1の部分画像と前記第2の部分画像との間の前記所定の領域を補完する画像処理部と、
を備え、
前記第1の部分画像と前記第2の部分画像は、所定の奥行に位置する同一の被写体が異なる位置から撮像された画像であり、
前記第1の部分画像及び前記第2の部分画像は、前記被写体の一部を含み、
前記第1の部分画像に含まれる前記被写体の一部は、前記第2の部分画像に含まれる前記被写体の一部と異なるものであり、
前記所定の領域は、前記第1の領域及び前記第2の領域に対して、前記第1の部分画像と前記第2の部分画像をそれぞれ重畳した際に、前記第1の部分画像に含まれず、かつ、前記第2の部分画像にも含まれない、前記被写体の一部の領域を含み、
前記画像処理部は、前記所定の領域のうちの前記第1の部分画像寄りの領域である第1範囲については前記第1の入力画像を用いることによって前記第1範囲を補完し、前記所定の領域のうちの前記第2の部分画像寄りの領域である第2範囲については前記第2の入力画像を用いることによって前記第2範囲を補完し、前記所定の領域の中心付近については前記第1の入力画像及び前記第2の入力画像のいずれかを用いることによって補完する画像処理装置。
A first region and a first region sandwiching a predetermined region set in a background image, which is an image taken at a different position and / or at a different time from at least one of the first input image and the second input image A composite image generation unit that generates a composite image by superimposing the first partial image and the second partial image generated from the first input image and the second input image on the two regions;
By using the first input image and the second input image as a reference image to be used for complementing the predetermined region, the first partial image and the second partial image are superimposed. An image processing unit that complements the predetermined area of
With
The first partial image and the second partial image are images obtained by imaging the same subject located at a predetermined depth from different positions;
The first partial image and the second partial image include a part of the subject,
A part of the subject included in the first partial image is different from a part of the subject included in the second partial image;
The predetermined area is not included in the first partial image when the first partial image and the second partial image are superimposed on the first area and the second area, respectively. And including a partial region of the subject that is not included in the second partial image,
The image processing unit supplements the first range by using the first input image for a first range that is a region closer to the first partial image in the predetermined region, and For the second range that is closer to the second partial image in the region, the second range is complemented by using the second input image, and the first region is set near the center of the predetermined region. An image processing apparatus that complements by using any one of the input image and the second input image.
第1の入力画像及び第2の入力画像の少なくともいずれか一方と異なる位置、および/または、異なる時刻に撮影された画像である背景画像に設定された所定の領域を挟む第1の領域及び第2の領域に対して、第1の入力画像及び第2の入力画像から生成された第1の部分画像及び第2の部分画像を重畳することによって合成画像を生成する合成画像生成部と、
前記第1の入力画像と前記第2の入力画像とを前記所定の領域の補完に利用する参照画像として用いることによって、重畳された前記第1の部分画像と前記第2の部分画像との間の前記所定の領域を補完する画像処理部と、
を備え、
前記第1の部分画像と前記第2の部分画像は、所定の奥行に位置する同一の被写体が異なる位置から撮像された画像であり、
前記第1の部分画像及び前記第2の部分画像は、前記被写体の一部を含み、
前記第1の部分画像に含まれる前記被写体の一部は、前記第2の部分画像に含まれる前記被写体の一部と異なるものであり、
前記所定の領域は、前記第1の領域及び前記第2の領域に対して、前記第1の部分画像と前記第2の部分画像をそれぞれ重畳した際に、前記第1の部分画像に含まれず、かつ、前記第2の部分画像にも含まれない、前記被写体の一部の領域を含み、
前記画像処理部は、前記第1の入力画像の倍率変更後の画像と前記第2の入力画像の倍率変更後の画像とを前記参照画像として用いることによって前記所定の領域を補完する画像処理装置。
A first region and a first region sandwiching a predetermined region set in a background image, which is an image taken at a different position and / or at a different time from at least one of the first input image and the second input image A composite image generation unit that generates a composite image by superimposing the first partial image and the second partial image generated from the first input image and the second input image on the two regions;
By using the first input image and the second input image as a reference image to be used for complementing the predetermined region, the first partial image and the second partial image are superimposed. An image processing unit that complements the predetermined area of
With
The first partial image and the second partial image are images obtained by imaging the same subject located at a predetermined depth from different positions;
The first partial image and the second partial image include a part of the subject,
A part of the subject included in the first partial image is different from a part of the subject included in the second partial image;
The predetermined area is not included in the first partial image when the first partial image and the second partial image are superimposed on the first area and the second area, respectively. And including a partial region of the subject that is not included in the second partial image,
The image processing unit supplements the predetermined region by using the image after the magnification change of the first input image and the image after the magnification change of the second input image as the reference image. .
前記背景画像は、第1の入力画像および第2の入力画像のそれぞれと異なる位置、および/または、異なる時刻に撮影された画像である、請求項1又は2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the background image is an image taken at a different position and / or at a different time from each of the first input image and the second input image. 第1の入力画像及び第2の入力画像の少なくともいずれか一方と異なる位置、および/または、異なる時刻に撮影された画像である背景画像に設定された所定の領域を挟む第1の領域及び第2の領域に対して、第1の入力画像及び第2の入力画像から生成された第1の部分画像及び第2の部分画像を重畳することによって合成画像を生成する合成画像生成ステップと、
前記第1の入力画像と前記第2の入力画像とを前記所定の領域の補完に利用する参照画像として用いることによって、重畳された前記第1の部分画像と前記第2の部分画像との間の前記所定の領域を補完する画像処理ステップと、
を有し、
前記第1の部分画像と前記第2の部分画像は、所定の奥行に位置する同一の被写体が異なる位置から撮像された画像であり、
前記第1の部分画像及び前記第2の部分画像は、前記被写体の一部を含み、
前記第1の部分画像に含まれる前記被写体の一部は、前記第2の部分画像に含まれる前記被写体の一部と異なるものであり、
前記所定の領域は、前記第1の領域及び前記第2の領域に対して、前記第1の部分画像と前記第2の部分画像をそれぞれ重畳した際に、前記第1の部分画像に含まれず、かつ、前記第2の部分画像にも含まれない、前記被写体の一部の領域を含み、
前記画像処理ステップにおいて、前記所定の領域のうちの前記第1の部分画像寄りの領域である第1範囲については前記第1の入力画像を用いることによって前記第1範囲を補完し、前記所定の領域のうちの前記第2の部分画像寄りの領域である第2範囲については前記第2の入力画像を用いることによって前記第2範囲を補完し、前記所定の領域の中心付近については前記第1の入力画像及び前記第2の入力画像のいずれかを用いることによって補完する画像処理方法。
A first region and a first region sandwiching a predetermined region set in a background image, which is an image taken at a different position and / or at a different time from at least one of the first input image and the second input image A composite image generation step of generating a composite image by superimposing the first partial image and the second partial image generated from the first input image and the second input image on the two regions;
By using the first input image and the second input image as a reference image to be used for complementing the predetermined region, the first partial image and the second partial image are superimposed. An image processing step of complementing the predetermined region of:
Have
The first partial image and the second partial image are images obtained by imaging the same subject located at a predetermined depth from different positions;
The first partial image and the second partial image include a part of the subject,
A part of the subject included in the first partial image is different from a part of the subject included in the second partial image;
The predetermined area is not included in the first partial image when the first partial image and the second partial image are superimposed on the first area and the second area, respectively. And including a partial region of the subject that is not included in the second partial image,
In the image processing step, for the first range that is a region closer to the first partial image in the predetermined region, the first range is complemented by using the first input image, and the predetermined range For the second range that is closer to the second partial image in the region, the second range is complemented by using the second input image, and the first region is set near the center of the predetermined region. An image processing method complemented by using any one of the input image and the second input image.
第1の入力画像及び第2の入力画像の少なくともいずれか一方と異なる位置、および/または、異なる時刻に撮影された画像である背景画像に設定された所定の領域を挟む第1の領域及び第2の領域に対して、第1の入力画像及び第2の入力画像から生成された第1の部分画像及び第2の部分画像を重畳することによって合成画像を生成する合成画像生成ステップと、
前記第1の入力画像と前記第2の入力画像とを前記所定の領域の補完に利用する参照画像として用いることによって、重畳された前記第1の部分画像と前記第2の部分画像との間の前記所定の領域を補完する画像処理ステップと、
を有し、
前記第1の部分画像と前記第2の部分画像は、所定の奥行に位置する同一の被写体が異なる位置から撮像された画像であり、
前記第1の部分画像及び前記第2の部分画像は、前記被写体の一部を含み、
前記第1の部分画像に含まれる前記被写体の一部は、前記第2の部分画像に含まれる前記被写体の一部と異なるものであり、
前記所定の領域は、前記第1の領域及び前記第2の領域に対して、前記第1の部分画像と前記第2の部分画像をそれぞれ重畳した際に、前記第1の部分画像に含まれず、かつ、前記第2の部分画像にも含まれない、前記被写体の一部の領域を含み、
前記画像処理ステップにおいて、前記第1の入力画像の倍率変更後の画像と前記第2の入力画像の倍率変更後の画像とを前記参照画像として用いることによって前記所定の領域を補完する画像処理方法。
A first region and a first region sandwiching a predetermined region set in a background image, which is an image taken at a different position and / or at a different time from at least one of the first input image and the second input image A composite image generation step of generating a composite image by superimposing the first partial image and the second partial image generated from the first input image and the second input image on the two regions;
By using the first input image and the second input image as a reference image to be used for complementing the predetermined region, the first partial image and the second partial image are superimposed. An image processing step of complementing the predetermined region of:
Have
The first partial image and the second partial image are images obtained by imaging the same subject located at a predetermined depth from different positions;
The first partial image and the second partial image include a part of the subject,
A part of the subject included in the first partial image is different from a part of the subject included in the second partial image;
The predetermined area is not included in the first partial image when the first partial image and the second partial image are superimposed on the first area and the second area, respectively. And including a partial region of the subject that is not included in the second partial image,
In the image processing step, an image processing method for complementing the predetermined region by using the image after the magnification change of the first input image and the image after the magnification change of the second input image as the reference image. .
コンピュータを、請求項1から3のいずれか一項に記載の画像処理装置として機能させるためのコンピュータプログラム。   A computer program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 3.
JP2018169915A 2018-09-11 2018-09-11 Image processing apparatus, image processing method, and computer program Active JP6606242B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018169915A JP6606242B2 (en) 2018-09-11 2018-09-11 Image processing apparatus, image processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018169915A JP6606242B2 (en) 2018-09-11 2018-09-11 Image processing apparatus, image processing method, and computer program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015216135A Division JP6416734B2 (en) 2015-11-02 2015-11-02 Image processing apparatus, image processing method, and computer program

Publications (2)

Publication Number Publication Date
JP2018198463A true JP2018198463A (en) 2018-12-13
JP6606242B2 JP6606242B2 (en) 2019-11-13

Family

ID=64662463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018169915A Active JP6606242B2 (en) 2018-09-11 2018-09-11 Image processing apparatus, image processing method, and computer program

Country Status (1)

Country Link
JP (1) JP6606242B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102111165B1 (en) * 2019-09-25 2020-05-14 (주)송우인포텍 Image processing system and method
CN114520875A (en) * 2022-01-28 2022-05-20 西安维沃软件技术有限公司 Video processing method and device and electronic equipment

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009539155A (en) * 2006-06-02 2009-11-12 イジュノシッヒ テクニッヒ ホッフシューラ チューリッヒ Method and system for generating a 3D representation of a dynamically changing 3D scene
JP2014057139A (en) * 2012-09-11 2014-03-27 Olympus Imaging Corp Image processing apparatus and image processing method
JP2015125519A (en) * 2013-12-26 2015-07-06 カシオ計算機株式会社 Image processor, image processing method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009539155A (en) * 2006-06-02 2009-11-12 イジュノシッヒ テクニッヒ ホッフシューラ チューリッヒ Method and system for generating a 3D representation of a dynamically changing 3D scene
JP2014057139A (en) * 2012-09-11 2014-03-27 Olympus Imaging Corp Image processing apparatus and image processing method
JP2015125519A (en) * 2013-12-26 2015-07-06 カシオ計算機株式会社 Image processor, image processing method and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102111165B1 (en) * 2019-09-25 2020-05-14 (주)송우인포텍 Image processing system and method
CN114520875A (en) * 2022-01-28 2022-05-20 西安维沃软件技术有限公司 Video processing method and device and electronic equipment
CN114520875B (en) * 2022-01-28 2024-04-02 西安维沃软件技术有限公司 Video processing method and device and electronic equipment

Also Published As

Publication number Publication date
JP6606242B2 (en) 2019-11-13

Similar Documents

Publication Publication Date Title
JP6735592B2 (en) Image processing apparatus, control method thereof, and image processing system
US8055101B2 (en) Subpixel registration
JP2019092076A (en) Image processing system, image processing method, and program
JP7387434B2 (en) Image generation method and image generation device
US20190132529A1 (en) Image processing apparatus and image processing method
JP2020129276A (en) Image processing device, image processing method, and program
KR20180092495A (en) Apparatus and method for Object of Interest-centric Best-view Generation in Multi-camera Video
CN111815517B (en) Self-adaptive panoramic stitching method based on snapshot pictures of dome camera
JP6606242B2 (en) Image processing apparatus, image processing method, and computer program
US11574432B2 (en) Image processing apparatus, image processing method, and storage medium
JP6416741B2 (en) Image processing apparatus, image processing method, and computer program
JPWO2009090727A1 (en) Display device
JP6513305B2 (en) Video combining apparatus and video combining method
JP6389452B2 (en) Image processing apparatus, image processing method, and computer program
JP6416740B2 (en) Image processing apparatus, image processing method, and computer program
JP6416734B2 (en) Image processing apparatus, image processing method, and computer program
JP6420750B2 (en) Composite information table creation apparatus, composite information table creation method, and computer program
JP2017058929A (en) Image information acquisition method, image evaluation method, image information acquisition device, image evaluation device, and image processing program
JP6426594B2 (en) Image processing apparatus, image processing method and image processing program
JP2017103672A (en) Image processing device, image processing method and image processing program
JP6346157B2 (en) Image processing apparatus, image processing method, and computer program
JP6350331B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
JP6450306B2 (en) Image processing apparatus, image processing method, and image processing program
Calagari et al. Sports VR content generation from regular camera feeds
KR102074072B1 (en) A focus-context display techinique and apparatus using a mobile device with a dual camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191017

R150 Certificate of patent or registration of utility model

Ref document number: 6606242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150