WO2016185556A1 - 合成画像生成装置及び合成画像生成方法及び合成画像生成プログラム - Google Patents

合成画像生成装置及び合成画像生成方法及び合成画像生成プログラム Download PDF

Info

Publication number
WO2016185556A1
WO2016185556A1 PCT/JP2015/064292 JP2015064292W WO2016185556A1 WO 2016185556 A1 WO2016185556 A1 WO 2016185556A1 JP 2015064292 W JP2015064292 W JP 2015064292W WO 2016185556 A1 WO2016185556 A1 WO 2016185556A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
composite image
unit
image generation
region
Prior art date
Application number
PCT/JP2015/064292
Other languages
English (en)
French (fr)
Inventor
洋平 三木
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2015/064292 priority Critical patent/WO2016185556A1/ja
Priority to JP2015554911A priority patent/JPWO2016185556A1/ja
Publication of WO2016185556A1 publication Critical patent/WO2016185556A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof

Definitions

  • the present invention relates to a technique for synthesizing a plurality of images.
  • a panoramic image can be generated by virtually projecting a photographed image using a position and orientation information of the photographing apparatus on a plane that is virtually defined at an arbitrary distant position.
  • a plurality of captured images are combined into one image. For this reason, if appropriate combining is not performed at a portion where a plurality of photographed images overlap, the images are displayed in a doubled manner.
  • Patent Document 1 discloses a technique for acquiring an image with little optical parallax.
  • a composite image is generated after reducing the influence of parallax by appropriately arranging lenses.
  • two input images are aligned based on landmark images included in the two input images.
  • geometric transformation is performed on two input images so that landmark images of the two input images overlap.
  • Patent Document 1 in order to reduce the influence of parallax between photographing devices that causes a positional shift when generating a panoramic image, a lens is arranged at a position where an image with little optical parallax can be acquired.
  • a panoramic image is generated from a plurality of photographed images photographed at one photographing position. For this reason, the technique of Patent Document 1 cannot be applied when generating a panoramic image using a plurality of captured images captured at a plurality of capturing positions.
  • Patent Document 2 the alignment of two input images is performed on the basis of a landmark.
  • a transformation matrix corresponding to the landmark is also performed for an area other than the image area of the landmark. For this reason, there is a possibility that subjects other than landmarks are displayed twice, and the closer the subject is, the greater the amount of positional deviation.
  • the present invention has been made in view of the above circumstances, and it is a main object of the present invention to obtain a composite image with little positional deviation even if it is a plurality of images shot at different shooting positions.
  • the composite image generating apparatus is A composite image generation apparatus that generates a composite image by superimposing a first overlap region that is a partial region of a first image and a second overlap region that is a partial region of a second image.
  • a feature point extraction unit that divides the first overlapping region into a plurality of blocks and extracts feature points in units of blocks;
  • a corresponding point extracting unit that extracts corresponding points in the second overlapping region corresponding to the feature points extracted by the feature point extracting unit;
  • An image deforming unit that deforms the first overlapping region and the second overlapping region based on the corresponding feature point and the coordinate position of the corresponding point;
  • a composite image generation unit that generates a composite image by superimposing the first overlap region after being deformed by the image deformation unit and the second overlap region after being deformed by the image deformation unit. And have.
  • the first overlapping region is divided into a plurality of blocks, feature points are extracted in units of blocks in the first overlapping region, and a second overlapping is performed for each feature point extracted in units of blocks. Corresponding points are extracted in the region. For this reason, in the present invention, there are a plurality of dispersed points in the first overlapping region and the second overlapping region, and fine alignment can be performed. Therefore, even if there are a plurality of images shot at different shooting positions, a composite image with little positional deviation can be obtained.
  • FIG. 3 is a diagram illustrating a hardware configuration example of a composite image generation device according to the first embodiment.
  • FIG. 3 is a diagram illustrating a functional configuration example of a composite image generation device according to the first embodiment.
  • FIG. 4 is a flowchart showing an operation example of the composite image generation apparatus according to the first embodiment.
  • FIG. 4 is a diagram showing an example of a projection image according to the first embodiment.
  • FIG. 4 is a diagram illustrating an example of an overlapping area according to the first embodiment.
  • FIG. 4 shows an example of block division according to the first embodiment.
  • FIG. 10 is a diagram illustrating a functional configuration example of a composite image generation device according to a second embodiment.
  • FIG. 9 is a flowchart showing an operation example of the composite image generation apparatus according to the second embodiment.
  • FIG. 10 is a diagram illustrating a functional configuration example of a composite image generation device according to a third embodiment.
  • FIG. 9 is a flowchart showing an operation example of a composite image generation apparatus according to Embodiment 3.
  • FIG. *** Explanation of configuration *** FIG. 1 shows a hardware configuration example of a composite image generation apparatus according to the present embodiment.
  • the composite image generation apparatus according to the present embodiment is a computer and includes an arithmetic processor 1, a system memory 2, a drawing graphics LSI (Large-Scale Integration) 3, a graphics memory 5, and an image capture LSI 6.
  • the arithmetic processor 1 is composed of, for example, a CPU (Central Processing Unit) and has a function of executing arithmetic processing.
  • the arithmetic processor 1 mounts an OS (Operating System) and executes a composite image generation program 4 on the OS.
  • the composite image generation program 4 is a program that realizes the functions of the image acquisition unit 101, the projection image generation unit 104, the feature point extraction unit 105, the corresponding point extraction unit 106, the image deformation unit 107, and the composite image generation unit 108 shown in FIG. It is.
  • the system memory 2 holds data such as an OS, a composite image generation program 4, and photographing apparatus position information described later, and inputs and outputs these data in response to a request from the arithmetic processor 1.
  • the drawing graphics LSI 3 draws a composite image in accordance with an instruction from the arithmetic processor 1.
  • the drawing graphics LSI 3 is connected to the graphics memory 5, and the graphics memory 5 holds an image to be synthesized and an image after synthesis.
  • the drawing graphics LSI 3 inputs / outputs the stored data in response to a request from the arithmetic processor 1.
  • the image capture LSI 6 acquires an image from the photographing apparatus and inputs / outputs data according to an instruction from the arithmetic processor 1.
  • the functions of the image acquisition unit 101, the projection image generation unit 104, the feature point extraction unit 105, the corresponding point extraction unit 106, the image deformation unit 107, and the composite image generation unit 108 may be provided as “circuitry”.
  • the functions of the image acquisition unit 101, the projection image generation unit 104, the feature point extraction unit 105, the corresponding point extraction unit 106, the image deformation unit 107, and the composite image generation unit 108 may be “circuit”, “process”, “procedure”, or It may be read as “processing”.
  • Circuit and “Circuitry” include not only the arithmetic processor 1 but also other types of processing circuits such as logic IC, GA (Gate Array), ASIC (Application Specific Integrated Circuit), or FPGA (Field-Programmable Gate Array). Is a concept that also includes
  • FIG. 2 shows a functional configuration example of the composite image generation apparatus 100 according to the present embodiment.
  • the composite image generation apparatus 100 is connected to the imaging apparatus 301, the imaging apparatus 302, the imaging apparatus 303, and the display apparatus 200.
  • the imaging device 300 When there is no need to distinguish the imaging device 301, the imaging device 302, and the imaging device 303, the imaging device 301, the imaging device 302, and the imaging device 303 are collectively referred to as the imaging device 300.
  • FIG. 2 shows an example in which there are three photographing devices 300, the number of photographing devices 300 may be any number.
  • the composite image generation apparatus 100 includes an image acquisition unit 101, an imaging device information storage unit 102, a projection plane information storage unit 103, a projection image generation unit 104, a feature point extraction unit 105, a corresponding point extraction unit 106, an image deformation unit 107, a synthesis An image generation unit 108 is provided. Each element will be described below.
  • the image acquisition unit 101 acquires a captured image captured by the imaging apparatus 300.
  • the imaging device information storage unit 102 holds imaging position / orientation information and lens characteristic information.
  • the photographing position / orientation information is information on the installation position and orientation of the photographing apparatus 300.
  • the lens characteristic information is information such as a focal length of the lens of the photographing apparatus 300 and parameters for correcting lens distortion.
  • the projection plane information storage unit 103 holds projection plane information that is information on the shape and position of the virtual projection plane.
  • the virtual projection plane is a virtual projection plane for projecting the captured image acquired by the image acquisition unit 101 prior to the generation of the composite image.
  • the projection image generation unit 104 generates a projection image by projecting the captured image acquired by the image acquisition unit 101 on a projection plane. More specifically, the projection image generation unit 104 includes the imaging device position / orientation information and lens characteristic information held in the imaging device information storage unit 102 and the projection plane information held in the projection plane information storage unit 103. In addition, the captured image is projected onto the projection plane to generate a projection image.
  • the feature point extraction unit 105 extracts feature points. Specifically, the feature point extraction unit 105 obtains a region to be superimposed (hereinafter referred to as a superimposed region) for each of two adjacent projection images in image synthesis. Then, the feature point extraction unit 105 divides the first overlapping area, which is an overlapping area of one projection image (example of the first image), into a plurality of blocks, and extracts feature points in units of blocks.
  • the corresponding point extraction unit 106 corresponds to the feature point extracted by the feature point extraction unit 105, and corresponds to the second overlapping region that is the overlapping region of the other projection image (second image example). To extract.
  • the corresponding point extraction unit 106 extracts a point in the second overlapping region having a feature in common with the feature point extracted by the feature point extraction unit 105 as a corresponding point.
  • the corresponding point extraction unit 106 calculates the luminance gradient of the feature point extracted by the feature point extraction unit 105, and extracts the corresponding point in the second overlapping region based on the calculated luminance gradient.
  • the image deforming unit 107 deforms the first overlapping region and the second overlapping region based on the feature points in correspondence and the coordinate positions of the corresponding points. More specifically, the shift between the coordinate positions of the feature points and the corresponding points in the correspondence relationship is obtained, and the first overlap region and the second overlap region are deformed so that the shift is eliminated.
  • the composite image generation unit 108 combines the two projection images after being deformed by the image deformation unit 107 into one image. In other words, the composite image generation unit 108 superimposes the first overlap region after being deformed by the image deformation unit 107 and the second overlap region after being deformed by the image deformation unit 107 on the composite image. Is generated.
  • the display device 200 displays the composite image generated by the composite image generation device 100.
  • the photographing position / orientation information and lens characteristic information of the photographing apparatus 300 are stored in the photographing apparatus information storage unit 102 (step ST101).
  • the projection plane information is stored in the projection plane information storage unit (step ST102).
  • the shape of the virtual projection plane used in this embodiment is an appropriate shape depending on the display target, such as a plane when a wide plane display is desired, or a cylinder when a wide angle display is desired from a certain viewpoint. Is defined.
  • Steps ST101 and ST102 are operations performed in advance prior to the generation of the composite image.
  • the image acquisition unit 101 acquires captured images captured by the imaging devices 301 to 303 (step ST103).
  • the projection image generation unit 104 reads projection plane information from the projection plane information storage unit 103.
  • the projection image generation unit 104 reads shooting position / orientation information and lens characteristic information from the shooting apparatus information storage unit 102.
  • the projection image generation unit 104 uses the projection plane information, the shooting position / orientation information, and the lens characteristic information to generate a projection image when each shot image is projected onto the virtual projection plane (step ST104).
  • the projection image generation unit 104 can generate a projection image as follows.
  • the projection image generation unit 104 converts the projection plane information into polygon information, and changes from the intersection of the three-dimensional position of each polygon vertex and the center of the imaging device to the vertex of each polygon from the intersection of the imaging device plane of the imaging device.
  • three-dimensional position D the pixel on the corresponding captured image (dist x, dist y, dist z) determining the T.
  • the point Q ′ on the imaging element plane of the imaging apparatus is represented by the equation (2).
  • Q (P ⁇ C) * t + C (1)
  • Q ′ u * a + v * b + I (2)
  • u represents a unit vector in the x-axis direction of the image sensor
  • v represents a unit vector in the y-axis direction on the image sensor
  • I represents a center coordinate of the image sensor.
  • the projection image generation unit 104 generates a projection image from the position of the image sensor corresponding to each pixel on the projection surface obtained in this way.
  • the feature point extraction unit 105 extracts feature points in units of blocks in the overlapping area (step ST105) (feature point extraction processing).
  • feature point extraction processing The operation of the feature point extraction unit 105 will be described with reference to FIGS. 4, 5, and 6.
  • a first projection image 401 is a projection image generated from a first photographed image (for example, a photographed image of the photographing device 301) photographed at the first photographing position.
  • the second projected image 402 is a projected image generated from a second photographed image (for example, a photographed image of the photographing device 302) photographed at a second photographing position different from the first photographing position.
  • the first projection image 401 and the second projection image 402 are adjacent projection images in the image composition.
  • the feature point extraction unit 105 obtains an overlapping area (first overlapping area) of the first projection image 401 and an overlapping area (second overlapping area) of the second projection image 402. As shown in FIG.
  • the region surrounded by the frame line 501 in the first projection image 401 is the first overlapping region
  • the region surrounded by the frame line 501 in the second projection image 402. The region is the second overlapping region.
  • the feature point extraction unit 105 divides the first overlapping region of the first projection image 401 into a plurality of rectangular blocks 601 and extracts feature points in units of blocks 601. .
  • the feature point extraction unit 105 may extract one or more feature points from all the blocks 601, or may not extract feature points from some blocks 601. However, it is assumed that the feature point extraction unit 105 extracts feature points from 70% or more of all blocks in the first overlapping region.
  • the feature point extraction unit 105 extracts feature points using, for example, a Harris Detector.
  • the corresponding point extraction unit 106 extracts a corresponding point in the other projected image for each feature point extracted in step ST105 (step ST106) (corresponding point extraction process).
  • the corresponding point extraction unit 106 searches for the periphery of the same coordinate position as the feature point in the second overlapping region of the second projection image 402 shown in FIG. Extract as For example, the corresponding point extraction unit 106 calculates a luminance gradient of the feature point, and extracts a corresponding point showing the same tendency as the calculated luminance gradient. Note that the corresponding point extraction unit 106 can search for feature points using a technique such as normalized cross-correlation.
  • the image deformation unit 107 deforms both projection images so that the corresponding feature points and the corresponding points coincide (step ST107) (image deformation processing). That is, the image deformation unit 107 deforms both projection images so that the deviation amount between the coordinate position of the feature point and the coordinate position of the corresponding point becomes zero.
  • the image transformation unit 107 changes the ratio of moving each feature point according to the distance of each feature point from the center of the original captured image. Similarly, the image transformation unit 107 changes the ratio of moving each corresponding point according to the distance from the center of the original captured image of each corresponding point.
  • the image transformation unit 107 obtains the destination of each feature point in the first overlapping region, and then obtains the destination of another point (a point other than the feature point).
  • the image transformation unit 107 obtains a destination of each corresponding point in the second overlapping area, and then obtains a destination of another point (a point other than the corresponding point).
  • the image transformation unit 107 obtains the movement destination of other points by linear interpolation based on the movement destinations of feature points or corresponding points around the other points. For blocks for which feature points could not be extracted in step ST105, the image transformation unit 107 could not extract feature points based on the amount of movement of feature points around the blocks for which feature points could not be extracted.
  • the destination of the point inside is obtained by linear interpolation.
  • the image transformation unit 107 instead of matching the coordinate positions of the feature points and the corresponding points, the corresponding points around the corresponding points. Based on the movement destination, the movement destination of the corresponding point is obtained by linear interpolation.
  • the feature point is moved based on the destination of the surrounding feature point. Find the destination by linear interpolation. Derivation of the movement destination by such linear interpolation can prevent erroneous deformation processing.
  • the synthesized image generation unit 108 synthesizes the projection image after the overlapping area is deformed (step ST108) (synthesized image generation process). That is, the composite image generation unit 108 generates a composite image by superimposing the respective overlap regions on the two projection images after the overlap region is deformed. Note that the composite image generation unit 108 obtains the color information of each pixel after the overlapping regions are overlapped, for example, by adding and averaging the color information of the respective overlapping regions. Further, the composite image generation unit 108 may obtain the color information of each pixel after the overlapping region is overlapped by a method in which the influence of the shooting center is stronger as the pixel is closer to the shooting center.
  • the composite image generation unit 108 obtains a line with a small luminance gradient from the upper end to the lower end of the overlapping area, and determines the density of pixel information to be displayed on the left and right of the line, thereby making the composite part inconspicuous. Can do.
  • the first overlapping region is divided into a plurality of blocks, feature points are extracted in units of blocks in the first overlapping region, and each feature point extracted in units of blocks is extracted.
  • corresponding points are extracted in the second overlapping region.
  • a plurality of points serving as a reference for alignment exist in the first overlap region and the second overlap region, and fine alignment can be performed. Therefore, even if there are a plurality of images shot at different shooting positions, a composite image with little positional deviation can be obtained.
  • by performing local image deformation in the overlapping region it is possible to avoid double display of objects in the image and to generate a natural composite image.
  • Embodiment 2 An example in which a projection image is generated by adjusting the projection angle of a captured image on a virtual projection plane will be described.
  • FIG. 7 shows a functional configuration example of the composite image generation apparatus 100 according to the present embodiment.
  • a viewpoint information storage unit 109 is added compared to FIG.
  • the viewpoint information storage unit 109 holds viewpoint information.
  • the viewpoint information is information that defines a viewpoint position when generating a projection image.
  • the elements other than the viewpoint information storage unit 109 are the same as those shown in FIG.
  • Step ST201 and step ST202 are the same as step ST101 and step 102 of FIG.
  • the projection image generation unit 104 acquires viewpoint information from the viewpoint information storage unit 109 (step ST203).
  • the viewpoint information is information such as the three-dimensional position of the viewpoint and the viewing angle.
  • a viewpoint position with respect to the composite image displayed on the display device 200 is defined.
  • the composite image generated by the composite image generation apparatus 100 according to the present embodiment is an image based on the viewpoint position defined by the viewpoint information.
  • the image acquisition unit 101 acquires captured images captured by the imaging devices 301 to 303 (step ST204).
  • the projection image generation unit 104 uses the projection plane information, the shooting position and orientation information, the lens characteristic information, and the viewpoint information to generate a projection image when each shot image is projected onto the virtual projection plane (step ST205). ).
  • the projection image generation unit 104 uses the viewpoint position and the viewing angle defined by the viewpoint information, so that each pixel of the composite image displayed on the display device 200 is displayed on the virtual projection plane. It can be determined whether it corresponds to the position.
  • the projection image generation unit 104 projects the pixel value of the photographed image at the intersection of a straight line connecting the viewpoint position and the pixel position of the photographed image and the virtual projection plane.
  • the projection image generation unit 104 generates a projection image by adjusting the projection angle of the captured image on the virtual projection plane in accordance with the viewpoint position.
  • steps ST206 to ST209 are the same as steps ST105 to 108 in FIG.
  • Embodiment 3 The composite image generation apparatus 100 according to Embodiments 1 and 2 deforms the overlapping region of the projection image immediately after extracting the feature points and the corresponding points.
  • the composite image generation apparatus 100 according to the present embodiment derives a deformation procedure for the overlapping area after extracting the feature points and the corresponding points, generates deformation procedure information describing the derived deformation procedure, and generates the deformation procedure information.
  • the composite image generation apparatus 100 according to the present embodiment deforms the first overlap region and the second overlap region according to the deformation procedure described in the deformation procedure information when combining the projection images.
  • FIG. 10 shows a functional configuration example of the composite image generation apparatus 100 according to the present embodiment.
  • a deformation procedure information storage unit 110 and a deformation procedure information generation unit 111 are added, and an image deformation unit 112 is included instead of the image deformation unit 107.
  • the deformation procedure information generation unit 111 generates deformation procedure information.
  • the deformation procedure information is information describing a deformation procedure of the first overlapping area and the second overlapping area.
  • the deformation procedure information generation unit 111 generates deformation procedure information based on the feature points in correspondence and the coordinate positions of the corresponding points.
  • the modification procedure information storage unit 110 holds the modification procedure information generated by the modification procedure information generation unit 111.
  • the image deformation unit 112 deforms the first overlapping region and the second overlapping region according to the deformation procedure described in the deformation procedure information.
  • the image transformation unit 107 according to the first embodiment calculates the destination of the feature point and the destination of the corresponding point that sets the deviation amount between the feature point and the corresponding point to 0, and first calculates the first based on the calculated destination.
  • the overlapping region and the second overlapping region are deformed.
  • the image deforming unit 112 does not calculate the movement destinations of the feature points and the corresponding points, and performs the first overlapping region and the second overlapping region according to the deformation procedure of the deformation procedure information. Deform.
  • the elements other than the deformation procedure information storage unit 110, the deformation procedure information generation unit 111, and the image deformation unit 112 are the same as those illustrated in FIG.
  • Steps ST301 to ST307 are the same as steps ST201 to 207 in FIG.
  • the deformation procedure information generation unit 111 generates deformation procedure information.
  • the deformation procedure information generation unit 111 performs the same analysis as the image deformation unit 107 of the first embodiment and generates deformation procedure information. That is, the transformation procedure information generation unit 111 calculates the destination of the feature point destination and the destination of the corresponding point where the deviation amount between the coordinate position of the feature point and the coordinate position of the corresponding point is zero.
  • the deformation procedure information generation unit 111 calculates the movement destination of a point other than the feature point for the first overlapping area by linear interpolation, and determines the movement destination of the point other than the corresponding point for the second overlapping area.
  • the deformation procedure information generation unit 111 derives a deformation procedure for the first overlapping area and a deformation procedure for the second overlapping area. Then, the deformation procedure information generation unit 111 generates deformation procedure information in which the deformation procedure of the first overlapping area and the deformation procedure of the second overlapping area are described, and the deformation procedure information is stored in the deformation procedure information storage unit 110. Store.
  • a certain feature point is located far away from the surrounding feature points. The processing in a certain case is the same as that of the image transformation unit 107 of the first embodiment.
  • the image deformation unit 112 reads the deformation procedure information from the deformation procedure information storage unit 110, and deforms the first overlap area and the second overlap area according to the deformation procedure described in the deformation procedure information. .
  • the synthesized image generation unit 108 synthesizes the two projected images after deformation to generate a synthesized image (step ST310).
  • the image deforming unit 107 when the frame of the moving image data is composed of the composite image, it is necessary for the image deforming unit 107 to derive the deformation procedure of the first overlapping region and the second overlapping region for each frame. is there.
  • the image deforming unit 112 determines the first overlapping area and the The second overlapping region can be deformed, and there is no need to derive a deformation procedure for each frame. For this reason, the image acquisition unit 101 can acquire a captured image at a short time interval and display a composite image on the display device 200 at the same interval.
  • the deformation procedure information generation unit 111 may generate the deformation procedure information only when there is a change in the drawing content in the overlapping area. Further, the deformation procedure information generation unit 111 may update the deformation procedure information at regular time intervals.
  • 1 arithmetic processor, 2 system memory, 3 drawing graphics LSI, 4 composite image generation program, 5 graphics memory, 6 image capture LSI, 100 composite image generation device, 101 image acquisition unit, 102 photographing device information storage unit, 103 projection Surface information storage unit, 104 Projection image generation unit, 105 Feature point extraction unit, 106 Corresponding point extraction unit, 107 Image deformation unit, 108 Composite image generation unit, 109 View point information storage unit, 110 Deformation procedure information storage unit, 111 Deformation procedure Information generating unit, 112, image deforming unit, 200 display device, 300 photographing device, 301 photographing device, 302 photographing device, 303 photographing device.

Abstract

合成画像生成装置(100)は、第1の画像の一部の領域である第1の重ね合わせ領域と第2の画像の一部の領域である第2の重ね合わせ領域とを重ね合わせて合成画像を生成する。特徴点抽出部(105)は、第1の重ね合わせ領域を複数のブロックに分割し、ブロック単位で特徴点を抽出する。対応点抽出部(106)は、特徴点抽出部(105)により抽出された特徴点に対応する、第2の重ね合わせ領域内の対応点を抽出する。画像変形部(107)は、対応関係にある特徴点と対応点の座標位置に基づき、第1の重ね合わせ領域と第2の重ね合わせ領域とを変形させる。合成画像生成部(108)は、画像変形部(107)により変形された後の第1の重ね合わせ領域と、画像変形部(107)により変形された後の第2の重ね合わせ領域とを重ね合わせて合成画像を生成する。

Description

合成画像生成装置及び合成画像生成方法及び合成画像生成プログラム
 本発明は、複数の画像を合成する技術に関する。
 仮想的に遠方の任意の位置に定義された平面に撮影装置の位置及び姿勢情報を用いて撮影画像を仮想的に投影することで、パノラマ画像を生成することができる。
 パノラマ画像の生成では、複数の撮影画像を1つの画像に合成する。
 このため、複数の撮影画像が重なり合う部分で適切な合成を行わないと画像が二重にぶれて表示されてしまう。
 この問題に関して、特許文献1では、光学的に視差の少ない画像を取得する技術が開示されている。
 つまり、特許文献1では、レンズを適切な配置することで視差の影響を少なくしたうえで合成画像を生成している。
 また、特許文献2では、2つの入力画像に含まれるランドマークの画像を基準にして2つの入力画像の位置合わせを行っている。
 特許文献2では、例えば、2つの入力画像のランドマークの画像が重なり合うように2つの入力画像に幾何学的変換を施している。
特願2010-97221号公報 特開2014-086948号公報
 特許文献1では、パノラマ画像を生成する際に位置ずれの要因となる撮影装置間の視差の影響を軽減させるために、光学的に視差の少ない画像を取得できる位置にレンズを配置している。
 特許文献1では、1つの撮影位置で撮影された複数の撮影画像でパノラマ画像を生成している。
 このため、特許文献1の技術は、複数の撮影位置で撮影された複数の撮影画像を用いてパノラマ画像を生成する場合には適用することができない。
 また、特許文献2では、ランドマークを基準に2つの入力画像の位置合わせを行っているが、ランドマークの画像領域以外の領域についても、ランドマークに合わせた変換行列を行っている。
 そのため、ランドマーク以外の被写体が二重に表示される可能性があり、被写体が近距離にあるほど、位置ずれの量が大きくなる。
 本発明は、上記の事情に鑑みたものであり、異なる撮影位置で撮影された複数の画像であっても、位置ずれの少ない合成画像を得ることを主な目的とする。
 本発明に係る合成画像生成装置は、
 第1の画像の一部の領域である第1の重ね合わせ領域と第2の画像の一部の領域である第2の重ね合わせ領域とを重ね合わせて合成画像を生成する合成画像生成装置であって、
 前記第1の重ね合わせ領域を複数のブロックに分割し、ブロック単位で特徴点を抽出する特徴点抽出部と、
 前記特徴点抽出部により抽出された特徴点に対応する、前記第2の重ね合わせ領域内の対応点を抽出する対応点抽出部と、
 対応関係にある特徴点と対応点の座標位置に基づき、前記第1の重ね合わせ領域と前記第2の重ね合わせ領域とを変形させる画像変形部と、
 前記画像変形部により変形された後の前記第1の重ね合わせ領域と、前記画像変形部により変形された後の前記第2の重ね合わせ領域とを重ね合わせて合成画像を生成する合成画像生成部とを有する。
 本発明では、第1の重ね合わせ領域を複数のブロックに分割し、第1の重ね合わせ領域においてブロック単位で特徴点を抽出し、ブロック単位で抽出された特徴点ごとに、第2の重ね合わせ領域において対応点を抽出する。
 このため、本発明では、位置合わせの基準となる点が第1の重ね合わせ領域と第2の重ね合わせ領域において分散して複数存在し、精細な位置合わせを行うことができる。
 従って、異なる撮影位置で撮影された複数の画像であっても、位置ずれの少ない合成画像を得ることができる。
実施の形態1に係る合成画像生成装置のハードウェア構成例を示す図。 実施の形態1に係る合成画像生成装置の機能構成例を示す図。 実施の形態1に係る合成画像生成装置の動作例を示すフローチャート図。 実施の形態1に係る投影画像の例を示す図。 実施の形態1に係る重ね合わせ領域の例を示す図。 実施の形態1に係るブロック分割の例を示す図。 実施の形態2に係る合成画像生成装置の機能構成例を示す図。 実施の形態2に係る合成画像生成装置の動作例を示すフローチャート図。 実施の形態2に係る視点位置と撮影画像と仮想投影面との関係を示す図。 実施の形態3に係る合成画像生成装置の機能構成例を示す図。 実施の形態3に係る合成画像生成装置の動作例を示すフローチャート図。
 実施の形態1.
***構成の説明***
 図1は、本実施の形態に係る合成画像生成装置のハードウェア構成例を示す。
 本実施の形態に係る合成画像生成装置は、コンピュータであり、演算プロセッサ1、システムメモリ2、描画グラフィックスLSI(Large-Scale Integration)3、グラフィックスメモリ5、画像キャプチャLSI6で構成される。
 演算プロセッサ1は、例えばCPU(Central Processing Unit)で構成され、演算処理を実行する機能を有している。
 演算プロセッサ1は、OS(Operating System)を実装し、このOS上で合成画像生成プログラム4を実行する。
 合成画像生成プログラム4は、図2に示す画像取得部101、投影画像生成部104、特徴点抽出部105、対応点抽出部106、画像変形部107、合成画像生成部108の機能を実現するプログラムである。
 システムメモリ2は、OS、合成画像生成プログラム4、後述する撮影装置位置情報等のデータを保持しており、演算プロセッサ1からの要求に応じてこれらのデータの入出力を行う。
 つまり、システムメモリ2からOS及び合成画像生成プログラム4が演算プロセッサ1にロードされ、演算プロセッサ1によりOS及び合成画像生成プログラム4が実行される。
 描画グラフィックスLSI3は、演算プロセッサ1からの指示に従って合成画像を描画する。
 描画グラフィックスLSI3は、グラフィックスメモリ5に接続されており、グラフィックスメモリ5は合成する画像や合成後の画像を保持している。
 また、描画グラフィックスLSI3は、演算プロセッサ1からの要求に応じて記憶したデータの入出力を行う。
 画像キャプチャLSI6は、撮影装置から画像を取得し、演算プロセッサ1からの指示に従って、データの入出力を行う。
 なお、画像取得部101、投影画像生成部104、特徴点抽出部105、対応点抽出部106、画像変形部107、合成画像生成部108の機能を「サーキットリー」で提供してもよい。
 また、画像取得部101、投影画像生成部104、特徴点抽出部105、対応点抽出部106、画像変形部107、合成画像生成部108の機能を「回路」又は「工程」又は「手順」又は「処理」に読み替えてもよい。
 「回路」及び「サーキットリー」は、演算プロセッサ1だけでなく、ロジックIC又はGA(Gate Array)又はASIC(Application Specific Integrated Circuit)又はFPGA(Field-Programmable Gate Array)といった他の種類の処理回路をも包含する概念である。
 図2は、本実施の形態に係る合成画像生成装置100の機能構成例を示す。
 合成画像生成装置100は、撮影装置301、撮影装置302、撮影装置303と表示装置200に接続されている。
 撮影装置301、撮影装置302、撮影装置303をそれぞれ区別する必要がない場合は、撮影装置301、撮影装置302、撮影装置303をまとめて撮影装置300と表記する。
 図2では、撮影装置300が3台である例を示しているが、撮影装置300の台数は何台でもよい。
 合成画像生成装置100は、画像取得部101、撮影装置情報格納部102、投影面情報格納部103、投影画像生成部104、特徴点抽出部105、対応点抽出部106、画像変形部107、合成画像生成部108を備える。
 以下にて、各々の要素について説明する。
 画像取得部101は、撮影装置300で撮影された撮影画像を取得する。
 撮影装置情報格納部102は、撮影位置姿勢情報及びレンズ特性情報を保持する。
 撮影位置姿勢情報は、撮影装置300の設置位置や向きの情報である。
 レンズ特性情報は、撮影装置300のレンズの焦点距離、レンズ歪を補正する際のパラメータなどの情報である。
 投影面情報格納部103は、仮想投影面の形状と位置の情報である投影面情報を保持する。
 仮想投影面は、合成画像の生成に先立ち、画像取得部101で取得された撮影画像を投影するための仮想的な投影面である。
 投影画像生成部104は、画像取得部101で取得された撮影画像を投影面に投影して投影画像を生成する。
 より具体的には、投影画像生成部104は、撮影装置情報格納部102で保持されている撮影装置位置姿勢情報及びレンズ特性情報と投影面情報格納部103で保持されている投影面情報をもとに、撮影画像を投影面に投影して投影画像を生成する。
 特徴点抽出部105は、特徴点を抽出する。
 具体的には、特徴点抽出部105は、画像合成において隣り合う2つの投影画像の各々に対して、重ね合わせの対象の領域(以下、重ね合わせ領域という)を求める。
 そして、特徴点抽出部105は、一方の投影画像(第1の画像の例)の重ね合わせ領域である第1の重ね合わせ領域を複数のブロックに分割し、ブロック単位で特徴点を抽出する。
 対応点抽出部106は、特徴点抽出部105により抽出された特徴点に対応する、他方の投影画像(第2の画像の例)の重ね合わせ領域である第2の重ね合わせ領域内の対応点を抽出する。
 対応点抽出部106は、特徴点抽出部105により抽出された特徴点と共通する特徴をもつ、第2の重ね合わせ領域内の点を対応点として抽出する。
 例えば、対応点抽出部106は、特徴点抽出部105により抽出された特徴点の輝度勾配を算出し、算出した輝度勾配に基づき、第2の重ね合わせ領域内の対応点を抽出する。
 画像変形部107は、対応関係にある特徴点と対応点の座標位置に基づき、第1の重ね合わせ領域と第2の重ね合わせ領域とを変形させる。
 より具体的には、対応関係にある特徴点と対応点の座標位置のずれを求め、ずれがなくなるように、第1の重ね合わせ領域と第2の重ね合わせ領域とを変形させる。
 合成画像生成部108は、画像変形部107で変形された後の2つの投影画像を1つの画像に合成する。
 つまり、合成画像生成部108は、画像変形部107により変形された後の第1の重ね合わせ領域と、画像変形部107により変形された後の第2の重ね合わせ領域とを重ね合わせて合成画像を生成する。
 表示装置200は、合成画像生成装置100で生成された合成画像を表示する。
***動作の説明***
 次に、実施の形態1の合成画像生成装置100の動作を図3のフローチャートに基づいて説明する。
 図3に示す手順は、合成画像生成方法及び合成画像生成プログラムの処理例に相当する。
 まず、撮影装置300の撮影位置姿勢情報及びレンズ特性情報が撮影装置情報格納部102に格納される(ステップST101)。
 次に、投影面情報が投影面情報格納部に格納される(ステップST102)。
 なお、本実施の形態で利用する仮想投影面の形状は、広い平面の表示を行いたい場合は平面、ある視点からの広角な表示を行いたい場合は円筒というように、表示対象によって適切な形状が定義される。
 ステップST101及びステップST102は、合成画像の生成に先立って、あらかじめ実施される動作である。
 次に、画像取得部101が、撮影装置301~303で撮影された撮影画像を取得する(ステップST103)。
 次に、投影画像生成部104が、投影面情報格納部103から投影面情報を読み出す。
 また、投影画像生成部104は、撮影装置情報格納部102から撮影位置姿勢情報及びレンズ特性情報を読み出す。
 そして、投影画像生成部104は、投影面情報、撮影位置姿勢情報及びレンズ特性情報を利用して、各撮影画像を仮想投影面に投影した場合の投影画像を生成する(ステップST104)。
 投影画像生成部104は、例えば、以下のようにして、投影画像を生成することができる。
 投影画像生成部104は、投影面情報をポリゴン情報に変換し、各ポリゴン頂点の3次元位置と撮影装置の中心を結んだ直線と、撮影装置の撮像素子平面との交点から各ポリゴンの頂点に対応する撮影画像上の画素の3次元位置D=(dist,dist,distを求める。
 このとき、各ポリゴン頂点P=(P,P,Pの3次元位置と光学中心C=(C,C,Cを結んだ直線の点Qは、式(1)によって表される。
 また、撮影装置の撮像素子平面上の点Q’については、式(2)によって表される。
 Q=(P-C)*t+C     (1)
 Q’=u*a+v*b+I    (2)
 ここで、uは撮像素子のx軸方向の単位ベクトル、vは撮像素子上のy軸方向の単位ベクトルを表しており、Iは撮像素子の中心座標を表している。
 これらは、レンズの焦点距離、撮影装置の姿勢情報から求めることができる。
 また、3次元位置Dは式(1)で表される直線上、更には、式(2)で表される平面上に存在する。
 このため、式(1)及び式(2)を式(3)にまとめることができ、式(3)から、3次元位置Dを求めることができる。
 C-I=[u v P-C](a b t)   (3)
 ここで求まった3次元位置Dを撮影画像上の画素位置(image_x,image_y)に変換させるには式(4)及び式(5)を用いる。
 ここで、camera_px_widthは撮像素子のx軸方向の画素数、camera_px_heightは撮像素子のy軸方向の画素数を表す。
 image_x
 =a*camera_px_width+camera_px_width/2        (4)
 image_y
 =b*camera_px_height+camera_px_height/2      (5)
 投影画像生成部104は、このようにして求めた、投影面の各画素に対応する撮像素子の位置から投影画像を生成する。
 次に、特徴点抽出部105が、重ね合わせ領域のブロック単位で、特徴点を抽出する(ステップST105)(特徴点抽出処理)。
 特徴点抽出部105の動作を図4、図5及び図6を参照して説明する。
 図4において、第1の投影画像401は、第1の撮影位置で撮影された第1の撮影画像(例えば、撮影装置301の撮影画像)から生成された投影画像である。
 第2の投影画像402は、第1の撮影位置とは異なる第2の撮影位置で撮影された第2の撮影画像(例えば、撮影装置302の撮影画像)から生成された投影画像である。
 第1の投影画像401と第2の投影画像402は、画像合成において隣り合う投影画像である。
 特徴点抽出部105は、第1の投影画像401の重ね合わせ領域(第1の重ね合わせ領域)と第2の投影画像402の重ね合わせ領域(第2の重ね合わせ領域)を求める。
 図5に示すように、第1の投影画像401のうち符号501の枠線で囲まれる領域が第1の重ね合わせ領域であり、第2の投影画像402のうち符号501の枠線で囲まれる領域が第2の重ね合わせ領域である。
 次に、特徴点抽出部105は、図6に示すように、第1の投影画像401の第1の重ね合わせ領域を複数の矩形のブロック601に分割し、ブロック601単位で特徴点を抽出する。
 特徴点抽出部105は、全てのブロック601で1つ以上の特徴点を抽出してもよいし、一部のブロック601では特徴点を抽出しないようにしてもよい。
 但し、特徴点抽出部105は、第1の重ね合わせ領域の全ブロックのうちの70%以上のブロックで特徴点を抽出するものとする。
 特徴点抽出部105は、例えば、Harris Detectorを利用して特徴点を抽出する。
 次に、対応点抽出部106が、ステップST105で抽出された特徴点ごとに、他方の投影画像において、対応点を抽出する(ステップST106)(対応点抽出処理)。
 対応点抽出部106は、図5に示す第2の投影画像402の第2の重ね合わせ領域において、特徴点と同じ座標位置の周辺を探索し、特徴点と共通する特徴をもつ点を対応点として抽出する。
 例えば、対応点抽出部106は、特徴点の輝度勾配を算出し、算出した輝度勾配と同じ傾向を示す対応点を抽出する。
 なお、対応点抽出部106は、正規化相互相関などの手法を利用して特徴点を探索することができる。
 次に、画像変形部107が、対応関係にある特徴点と対応点が一致するように、双方の投影画像を変形させる(ステップST107)(画像変形処理)。
 つまり、画像変形部107は、特徴点の座標位置と対応点の座標位置とのずれ量が0となるように双方の投影画像を変形させる。
 画像変形部107は、各特徴点の、もとの撮影画像の中心からの距離に応じて、各特徴点を移動させる比率を変化させる。
 同様に、画像変形部107は、各対応点の、もとの撮影画像の中心からの距離に応じて、各対応点を移動させる比率を変化させる。
 画像変形部107は、第1の重ね合わせ領域において、各特徴点の移動先を求めた後、他の点(特徴点以外の点)の移動先を求める。
 同様に、画像変形部107は、第2の重ね合わせ領域において、各対応点の移動先を求めた後、他の点(対応点以外の点)の移動先を求める。
 画像変形部107は、他の点の移動先は、他の点の周囲にある特徴点又は対応点の移動先をもとに、線形補間で求める。
 また、ステップST105で特徴点が抽出できなかったブロックについては、画像変形部107は、特徴点が抽出できなかったブロックの周囲の特徴点の移動量に基づいて、特徴点が抽出できなかったブロック内の点の移動先を線形補間で求める。
 また、ステップST106で求めた対応点の特徴点との相関が弱い場合は、画像変形部107は、特徴点と対応点との座標位置を一致させる代わりに、当該対応点の周囲の対応点の移動先に基づいて、当該対応点の移動先を線形補間で求める。
 また、ある特徴点が周囲の特徴点から大きく離れた位置にある場合は、特徴点と対応点を一致させる代わりに、当該特徴点の周囲の特徴点の移動先に基づいて、当該特徴点の移動先を線形補間で求める。
 このような線形補間による移動先の導出により、間違った変形処理を防ぐことができる。
 そして、合成画像生成部108が、重ね合わせ領域が変形された後の投影画像を合成する(ステップST108)(合成画像生成処理)。
 つまり、合成画像生成部108は、重ね合わせ領域が変形された後の2つの投影画像をそれぞれの重ね合わせ領域を重ね合わせて合成画像を生成する。
 なお、合成画像生成部108は、重ね合わせ領域を重ね合わせた後の各画素の色情報を、例えば、それぞれの重ね合わせ領域の色情報の加算平均で求める。
 また、合成画像生成部108は、重ね合わせ領域を重ね合わせた後の各画素の色情報を、撮像中心に近い画素ほど撮影中心の影響を強くさせる手法で求めてもよい。
 また、合成画像生成部108は、重ね合わせ領域の上端から下端までの輝度勾配が少ないラインを求め、そのラインの左右で表示する画素情報の濃度を決定することで、合成部分を目立たなくすることができる。
***実施の形態の効果***
 以上のように、本実施の形態では、第1の重ね合わせ領域を複数のブロックに分割し、第1の重ね合わせ領域においてブロック単位で特徴点を抽出し、ブロック単位で抽出された特徴点ごとに、第2の重ね合わせ領域において対応点を抽出する。
 このため、本実施の形態では、位置合わせの基準となる点が第1の重ね合わせ領域と第2の重ね合わせ領域において分散して複数存在し、精細な位置合わせを行うことができる。
 従って、異なる撮影位置で撮影された複数の画像であっても、位置ずれの少ない合成画像を得ることができる。
 また、重ね合わせ領域における局所的な画像変形を行うことにより、画像内の物体が二重に表示されることを回避し、自然な合成画像を生成することができる。
 実施の形態2.
 本実施の形態では、撮影画像の仮想投影面への投影角度を調整して投影画像を生成する例を説明する。
***構成の説明***
 図7は、本実施の形態に係る合成画像生成装置100の機能構成例を示す。
 図7では、図2と比較して、視点情報格納部109が追加されている。
 視点情報格納部109は、視点情報を保持する。
 視点情報は、投影画像を生成する際の視点位置を定義する情報である。
 なお、図7において、視点情報格納部109以外の要素は、図2に示したものと同じであるため、説明を省略する。
***動作の説明***
 次に、本実施の形態に係る合成画像生成装置100の動作例を図8のフローチャートに基づいて説明する。
 ステップST201及びステップST202は、図3のステップST101及びステップ102と同様であるため、説明を省略する。
 次に、投影画像生成部104が、視点情報格納部109から視点情報を取得する(ステップST203)。
 視点情報は、視点の三次元位置と視野角などの情報である。
 視点情報には、表示装置200に表示される合成画像に対する視点位置が定義されている。
 本実施の形態に係る合成画像生成装置100で生成される合成画像は、視点情報で定義されている視点位置を基準にした画像である。
 次に、画像取得部101が、撮影装置301~303で撮影された撮影画像を取得する(ステップST204)。
 次に、投影画像生成部104が、投影面情報、撮影位置姿勢情報及びレンズ特性情報、視点情報を利用して、各撮影画像を仮想投影面に投影した場合の投影画像を生成する(ステップST205)。
 投影画像生成部104は、図9に示すように、視点情報で定義されている視点位置と視野角を利用することにより、表示装置200で表示される合成画像の各画素が仮想投影面のどの位置に対応するかを求めることができる。
 具体的には、投影画像生成部104は、視点位置と撮影画像の画素位置とを結ぶ直線と仮想投影面の交点に撮影画像の画素値を投影する。
 このように、本実施の形態では、投影画像生成部104は、視点位置に応じて撮影画像の仮想投影面への投影角度を調整して投影画像を生成する。
 ステップST206からステップST209については、図3のステップST105からステップ108までと同様であるため、説明を省略する。
***実施の形態の効果***
 以上のように、本実施の形態によれば、視点情報格納部を備えたことにより、ニ次元平面で定義できない仮想投影面を定義した場合でも、指定した視野内の画像を表示することができ、また、視点情報を変更することで広角画像の一部を拡大して表示することができる。
 実施の形態3.
 実施の形態1及び2に係る合成画像生成装置100は、特徴点及び対応点の抽出後に、直ちに投影画像の重ね合わせ領域を変形させている。
 本実施の形態に係る合成画像生成装置100は、特徴点及び対応点の抽出後に、重ね合わせ領域の変形手順を導出し、導出した変形手順が記述される変形手順情報を生成し、変形手順情報を記憶しておく。
 そして、本実施の形態に係る合成画像生成装置100は、投影画像の合成を行う際に、変形手順情報に記述される変形手順に従って、第1の重ね合わせ領域と第2の重ね合わせ領域を変形させる。
***構成の説明***
 図10は、本実施の形態に係る合成画像生成装置100の機能構成例を示す。
 図10では、図7と比較して、変形手順情報格納部110、変形手順情報生成部111が追加され、また、画像変形部107の代わりに画像変形部112が含まれている。
 変形手順情報生成部111は、変形手順情報を生成する。
 変形手順情報は、第1の重ね合わせ領域と前記第2の重ね合わせ領域の変形手順が記述される情報である。
 変形手順情報生成部111は、対応関係にある特徴点と対応点の座標位置に基づき、変形手順情報を生成する。
 変形手順情報格納部110は、変形手順情報生成部111により生成された変形手順情報を保持する。
 画像変形部112は、変形手順情報に記述される変形手順に従って、第1の重ね合わせ領域と前記第2の重ね合わせ領域とを変形させる。
 実施の形態1の画像変形部107は、特徴点と対応点の間のずれ量を0にする特徴点の移動先及び対応点の移動先を算出して、算出した移動先に基づいて第1の重ね合わせ領域及び第2の重ね合わせ領域を変形させている。
 本実施の形態の画像変形部112は、特徴点及び対応点の移動先の算出は行わずに、変形手順情報の変形手順に従って、第1の重ね合わせ領域と前記第2の重ね合わせ領域とを変形させる。
 なお、図10において、変形手順情報格納部110、変形手順情報生成部111及び画像変形部112以外の要素は、図7に示したものと同じであるため、説明を省略する。
***動作の説明***
 次に、本実施の形態に係る合成画像生成装置100の動作例を図11のフローチャートに基づいて説明する。
 ステップST301からステップST307までは、図8のステップST201からステップ207までと同様であるため、説明を省略する。
 ステップST308において、変形手順情報生成部111が変形手順情報を生成する。
 変形手順情報生成部111は、実施の形態1の画像変形部107と同様の解析を行って変形手順情報を生成する。
 つまり、変形手順情報生成部111は、特徴点の座標位置と対応点の座標位置とのずれ量が0となる特徴点移動先の移動先及び対応点の移動先を算出する。
 また、変形手順情報生成部111は、第1の重ね合わせ領域について特徴点以外の点の移動先を線形補間により算出し、また、第2の重ね合わせ領域について対応点以外の点の移動先を線形補間により算出する。
 このようにして、変形手順情報生成部111は、第1の重ね合わせ領域の変形手順及び第2の重ね合わせ領域の変形手順を導出する。
 そして、変形手順情報生成部111は第1の重ね合わせ領域の変形手順及び第2の重ね合わせ領域の変形手順が記述される変形手順情報を生成し、変形手順情報を変形手順情報格納部110に格納する。
 なお、ステップST306で特徴点が抽出できなかったブロックが存在する場合や、ステップST307で求めた対応点の特徴点との相関が弱い場合、ある特徴点が周囲の特徴点から大きく離れた位置にある場合の処理は、実施の形態1の画像変形部107と同じである。
 次に、画像変形部112が、変形手順情報格納部110から変形手順情報を読み出し、変形手順情報に記述されている変形手順に従って、第1の重ね合わせ領域と第2の重ね合わせ領域を変形させる。
 そして、合成画像生成部108が、実施の形態1と同様に、変形後の2つの投影画像を合成して、合成画像を生成する(ステップST310)。
***実施の形態の効果の説明***
 合成画像で動画データのフレームが構成される場合に、実施の形態1では、フレームごとに、画像変形部107が第1の重ね合わせ領域及び第2の重ね合わせ領域の変形手順を導出する必要がある。
 これに対して、本実施の形態では、前後のフレームで重ね合わせ領域における描画内容に変化がない場合は、画像変形部112は、各フレームで、変形手順情報に従って、第1の重ね合わせ領域及び第2の重ね合わせ領域の変形を行うことができ、フレームごとに変形手順を導出する必要がない。
 このため、画像取得部101で短い時間間隔で撮影画像を取得し、表示装置200に同じ間隔で合成画像を表示することができるようになる。
 変形手順情報生成部111は、重ね合わせ領域における描画内容に変化がある場合にのみ、変形手順情報を生成すればよい。
 また、変形手順情報生成部111は、一定時間間隔ごとに変形手順情報を更新するようにしてもよい。
 以上、本発明の実施の形態について説明したが、これらの実施の形態のうち、2つ以上を組み合わせて実施しても構わない。
 あるいは、これらの実施の形態のうち、1つを部分的に実施しても構わない。
 あるいは、これらの実施の形態のうち、2つ以上を部分的に組み合わせて実施しても構わない。
 なお、本発明は、これらの実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。
 1 演算プロセッサ、2 システムメモリ、3 描画グラフィックスLSI、4 合成画像生成プログラム、5 グラフィックスメモリ、6 画像キャプチャLSI、100 合成画像生成装置、101 画像取得部、102 撮影装置情報格納部、103 投影面情報格納部、104 投影画像生成部、105 特徴点抽出部、106 対応点抽出部、107 画像変形部、108 合成画像生成部、109 視点情報格納部、110 変形手順情報格納部、111 変形手順情報生成部、112 画像変形部、200 表示装置、300 撮影装置、301 撮影装置、302 撮影装置、303 撮影装置。

Claims (9)

  1.  第1の画像の一部の領域である第1の重ね合わせ領域と第2の画像の一部の領域である第2の重ね合わせ領域とを重ね合わせて合成画像を生成する合成画像生成装置であって、
     前記第1の重ね合わせ領域を複数のブロックに分割し、ブロック単位で特徴点を抽出する特徴点抽出部と、
     前記特徴点抽出部により抽出された特徴点に対応する、前記第2の重ね合わせ領域内の対応点を抽出する対応点抽出部と、
     対応関係にある特徴点と対応点の座標位置に基づき、前記第1の重ね合わせ領域と前記第2の重ね合わせ領域とを変形させる画像変形部と、
     前記画像変形部により変形された後の前記第1の重ね合わせ領域と、前記画像変形部により変形された後の前記第2の重ね合わせ領域とを重ね合わせて合成画像を生成する合成画像生成部とを有する合成画像生成装置。
  2.  前記対応点抽出部は、
     前記特徴点抽出部により抽出された特徴点の輝度勾配を算出し、算出した輝度勾配に基づき、前記第2の重ね合わせ領域内の対応点を抽出する請求項1に記載の合成画像生成装置。
  3.  前記対応点抽出部は、
     前記特徴点抽出部により抽出された特徴点と共通する特徴をもつ、前記第2の重ね合わせ領域内の点を対応点として抽出する請求項1に記載の合成画像生成装置。
  4.  前記画像変形部は、
     対応関係にある特徴点と対応点の座標位置のずれがなくなるように、前記第1の重ね合わせ領域と前記第2の重ね合わせ領域とを変形させる請求項1に記載の合成画像生成装置。
  5.  前記合成画像生成装置は、更に、
     前記第1の画像として、第1の撮影位置で撮影された第1の撮影画像を仮想投影面に投影させた第1の投影画像を生成し、前記第2の画像として、前記第1の撮影位置とは異なる第2の撮影位置で撮影された第2の撮影画像を前記仮想投影面に投影させた第2の投影画像を生成する投影画像生成部を有し、
     前記特徴点抽出部は、
     前記第1の投影画像の前記1の重ね合わせ領域を複数のブロックに分割し、ブロック単位で特徴点を抽出し、
     前記対応点抽出部は、
     前記特徴点抽出部により抽出された特徴点に対応する、前記第2の投影画像の前記第2の重ね合わせ領域内の対応点を抽出する請求項1に記載の合成画像生成装置。
  6.  前記投影画像生成部は、
     視点位置に応じて前記第1の撮影画像及び前記第2の撮影画像の前記仮想投影面への投影角度を調整して前記第1の投影画像及び前記第2の投影画像を生成する請求項5に記載の合成画像生成装置。
  7.  前記合成画像生成装置は、更に、
     対応関係にある特徴点と対応点の座標位置に基づき、前記画像変形部による前記第1の重ね合わせ領域と前記第2の重ね合わせ領域の変形手順が記述される変形手順情報を生成する変形手順情報生成部を有し、
     前記画像変形部は、
     前記変形手順情報生成部により生成された前記変形手順情報に記述される変形手順に従って、前記第1の重ね合わせ領域と前記第2の重ね合わせ領域とを変形させる請求項1に記載の合成画像生成装置。
  8.  第1の画像の一部の領域である第1の重ね合わせ領域と第2の画像の一部の領域である第2の重ね合わせ領域とを重ね合わせて合成画像を生成するコンピュータが、
     前記第1の重ね合わせ領域を複数のブロックに分割し、ブロック単位で特徴点を抽出し、
     抽出された特徴点に対応する、前記第2の重ね合わせ領域内の対応点を抽出し、
     対応関係にある特徴点と対応点の座標位置に基づき、前記第1の重ね合わせ領域と前記第2の重ね合わせ領域とを変形させ、
     変形後の前記第1の重ね合わせ領域と、変形後の前記第2の重ね合わせ領域とを重ね合わせて合成画像を生成する合成画像生成方法。
  9.  第1の画像の一部の領域である第1の重ね合わせ領域と第2の画像の一部の領域である第2の重ね合わせ領域とを重ね合わせて合成画像を生成するコンピュータに、
     前記第1の重ね合わせ領域を複数のブロックに分割し、ブロック単位で特徴点を抽出する特徴点抽出処理と、
     前記特徴点抽出処理により抽出された特徴点に対応する、前記第2の重ね合わせ領域内の対応点を抽出する対応点抽出処理と、
     対応関係にある特徴点と対応点の座標位置に基づき、前記第1の重ね合わせ領域と前記第2の重ね合わせ領域とを変形させる画像変形処理と、
     前記画像変形処理により変形された後の前記第1の重ね合わせ領域と、前記画像変形処理により変形された後の前記第2の重ね合わせ領域とを重ね合わせて合成画像を生成する合成画像生成処理とを実行させる合成画像生成プログラム。
PCT/JP2015/064292 2015-05-19 2015-05-19 合成画像生成装置及び合成画像生成方法及び合成画像生成プログラム WO2016185556A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2015/064292 WO2016185556A1 (ja) 2015-05-19 2015-05-19 合成画像生成装置及び合成画像生成方法及び合成画像生成プログラム
JP2015554911A JPWO2016185556A1 (ja) 2015-05-19 2015-05-19 合成画像生成装置及び合成画像生成方法及び合成画像生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/064292 WO2016185556A1 (ja) 2015-05-19 2015-05-19 合成画像生成装置及び合成画像生成方法及び合成画像生成プログラム

Publications (1)

Publication Number Publication Date
WO2016185556A1 true WO2016185556A1 (ja) 2016-11-24

Family

ID=57319654

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/064292 WO2016185556A1 (ja) 2015-05-19 2015-05-19 合成画像生成装置及び合成画像生成方法及び合成画像生成プログラム

Country Status (2)

Country Link
JP (1) JPWO2016185556A1 (ja)
WO (1) WO2016185556A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111355928A (zh) * 2020-02-28 2020-06-30 济南浪潮高新科技投资发展有限公司 一种基于多摄像头内容分析的视频拼接方法及其系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011087319A (ja) * 2010-12-06 2011-04-28 Sanyo Electric Co Ltd 車載パノラマカメラシステム
JP2012080432A (ja) * 2010-10-05 2012-04-19 Sony Computer Entertainment Inc パノラマ画像生成装置およびパノラマ画像生成方法
JP2013074423A (ja) * 2011-09-27 2013-04-22 Aisin Seiki Co Ltd 車両周辺監視装置
JP2013186853A (ja) * 2012-03-12 2013-09-19 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2013187799A (ja) * 2012-03-09 2013-09-19 Canon Inc 画像処理装置、画像処理方法、コンピュータプログラム
JP2014127839A (ja) * 2012-12-26 2014-07-07 Mitsubishi Electric Corp 画像合成装置、および画像合成方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012080432A (ja) * 2010-10-05 2012-04-19 Sony Computer Entertainment Inc パノラマ画像生成装置およびパノラマ画像生成方法
JP2011087319A (ja) * 2010-12-06 2011-04-28 Sanyo Electric Co Ltd 車載パノラマカメラシステム
JP2013074423A (ja) * 2011-09-27 2013-04-22 Aisin Seiki Co Ltd 車両周辺監視装置
JP2013187799A (ja) * 2012-03-09 2013-09-19 Canon Inc 画像処理装置、画像処理方法、コンピュータプログラム
JP2013186853A (ja) * 2012-03-12 2013-09-19 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2014127839A (ja) * 2012-12-26 2014-07-07 Mitsubishi Electric Corp 画像合成装置、および画像合成方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111355928A (zh) * 2020-02-28 2020-06-30 济南浪潮高新科技投资发展有限公司 一种基于多摄像头内容分析的视频拼接方法及其系统

Also Published As

Publication number Publication date
JPWO2016185556A1 (ja) 2017-06-01

Similar Documents

Publication Publication Date Title
CN112017216B (zh) 图像处理方法、装置、计算机可读存储介质及计算机设备
KR20150120066A (ko) 패턴 프로젝션을 이용한 왜곡 보정 및 정렬 시스템, 이를 이용한 방법
US8797387B2 (en) Self calibrating stereo camera
JP6701930B2 (ja) オーサリング装置、オーサリング方法およびオーサリングプログラム
JP6518115B2 (ja) 画像処理装置、撮像装置、画像処理装置の制御方法、及びプログラム
JP2016171463A (ja) 画像処理装置、画像処理方法およびプログラム
CN106997579B (zh) 图像拼接的方法和装置
JP4941565B2 (ja) 対応点探索装置および対応点探索方法
WO2022028594A1 (zh) 图像处理方法、装置、计算机可读存储介质及计算机设备
TW201839716A (zh) 環景影像的拼接方法及其系統
JP5847610B2 (ja) Ar技術を用いたコンピュータ・グラフィックス画像処理システム及び方法
TWI615808B (zh) 全景即時影像處理方法
KR20130077414A (ko) 영상 처리를 통한 광축 오차 보상 방법 및 시스템, 광축 오차 보상 기능이 구현된 줌 카메라
JP2004186922A (ja) 複数台のカメラを使用した広域撮影方法
JP2015036841A (ja) 画像処理装置、距離計測装置、撮像装置、画像処理方法
CN102081796A (zh) 图像拼接方法和装置
CN115049548A (zh) 恢复从阵列相机获得的图像的方法和装置
TW201342303A (zh) 三維空間圖像的獲取系統及方法
WO2016185556A1 (ja) 合成画像生成装置及び合成画像生成方法及び合成画像生成プログラム
JP2019220032A (ja) 原画像を目標画像に基づいて変形した表示画像を生成するプログラム、装置及び方法
JP2008203538A (ja) 画像表示システム
JP2018032991A (ja) 画像表示装置、画像表示方法及び画像表示用コンピュータプログラム
KR102074072B1 (ko) 듀얼 카메라가 장착된 이동형 디바이스를 이용한 포커스 콘텍스트 영상 처리 장치 및 그 방법
JP6242009B2 (ja) 広域画像に撮影領域枠を重畳表示する映像転送システム、端末、プログラム及び方法
JP2007257331A (ja) 映像合成装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2015554911

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15892556

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15892556

Country of ref document: EP

Kind code of ref document: A1