JPWO2016185556A1 - Composite image generation apparatus, composite image generation method, and composite image generation program - Google Patents
Composite image generation apparatus, composite image generation method, and composite image generation program Download PDFInfo
- Publication number
- JPWO2016185556A1 JPWO2016185556A1 JP2015554911A JP2015554911A JPWO2016185556A1 JP WO2016185556 A1 JPWO2016185556 A1 JP WO2016185556A1 JP 2015554911 A JP2015554911 A JP 2015554911A JP 2015554911 A JP2015554911 A JP 2015554911A JP WO2016185556 A1 JPWO2016185556 A1 JP WO2016185556A1
- Authority
- JP
- Japan
- Prior art keywords
- image
- composite image
- unit
- overlapping region
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000002131 composite material Substances 0.000 title claims abstract description 89
- 238000000034 method Methods 0.000 title claims description 69
- 238000000605 extraction Methods 0.000 claims abstract description 47
- 239000000284 extract Substances 0.000 claims abstract description 20
- 238000003384 imaging method Methods 0.000 claims description 26
- 230000009466 transformation Effects 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Editing Of Facsimile Originals (AREA)
- Studio Devices (AREA)
Abstract
合成画像生成装置(100)は、第1の画像の一部の領域である第1の重ね合わせ領域と第2の画像の一部の領域である第2の重ね合わせ領域とを重ね合わせて合成画像を生成する。特徴点抽出部(105)は、第1の重ね合わせ領域を複数のブロックに分割し、ブロック単位で特徴点を抽出する。対応点抽出部(106)は、特徴点抽出部(105)により抽出された特徴点に対応する、第2の重ね合わせ領域内の対応点を抽出する。画像変形部(107)は、対応関係にある特徴点と対応点の座標位置に基づき、第1の重ね合わせ領域と第2の重ね合わせ領域とを変形させる。合成画像生成部(108)は、画像変形部(107)により変形された後の第1の重ね合わせ領域と、画像変形部(107)により変形された後の第2の重ね合わせ領域とを重ね合わせて合成画像を生成する。The composite image generation device (100) combines a first overlapping region that is a partial region of the first image and a second overlapping region that is a partial region of the second image. Generate an image. The feature point extraction unit (105) divides the first overlapping region into a plurality of blocks, and extracts feature points in units of blocks. The corresponding point extraction unit (106) extracts corresponding points in the second overlapping region corresponding to the feature points extracted by the feature point extraction unit (105). The image deforming unit (107) deforms the first overlapping region and the second overlapping region based on the feature points in the correspondence relationship and the coordinate positions of the corresponding points. The composite image generation unit (108) superimposes the first overlapping region after being deformed by the image deformation unit (107) and the second overlapping region after being deformed by the image deformation unit (107). Together, a composite image is generated.
Description
本発明は、複数の画像を合成する技術に関する。 The present invention relates to a technique for combining a plurality of images.
仮想的に遠方の任意の位置に定義された平面に撮影装置の位置及び姿勢情報を用いて撮影画像を仮想的に投影することで、パノラマ画像を生成することができる。
パノラマ画像の生成では、複数の撮影画像を1つの画像に合成する。
このため、複数の撮影画像が重なり合う部分で適切な合成を行わないと画像が二重にぶれて表示されてしまう。
この問題に関して、特許文献1では、光学的に視差の少ない画像を取得する技術が開示されている。
つまり、特許文献1では、レンズを適切な配置することで視差の影響を少なくしたうえで合成画像を生成している。
また、特許文献2では、2つの入力画像に含まれるランドマークの画像を基準にして2つの入力画像の位置合わせを行っている。
特許文献2では、例えば、2つの入力画像のランドマークの画像が重なり合うように2つの入力画像に幾何学的変換を施している。A panoramic image can be generated by virtually projecting a photographed image using a position and orientation information of the photographing apparatus on a plane that is virtually defined at an arbitrary distant position.
In generating a panoramic image, a plurality of captured images are combined into one image.
For this reason, if appropriate combining is not performed at a portion where a plurality of photographed images overlap, the images are displayed in a doubled manner.
With regard to this problem, Patent Document 1 discloses a technique for acquiring an image with little optical parallax.
In other words, in Patent Document 1, a composite image is generated after reducing the influence of parallax by appropriately arranging lenses.
In
In
特許文献1では、パノラマ画像を生成する際に位置ずれの要因となる撮影装置間の視差の影響を軽減させるために、光学的に視差の少ない画像を取得できる位置にレンズを配置している。
特許文献1では、1つの撮影位置で撮影された複数の撮影画像でパノラマ画像を生成している。
このため、特許文献1の技術は、複数の撮影位置で撮影された複数の撮影画像を用いてパノラマ画像を生成する場合には適用することができない。In Patent Document 1, in order to reduce the influence of parallax between photographing devices that causes a positional shift when generating a panoramic image, a lens is arranged at a position where an image with little optical parallax can be acquired.
In Patent Document 1, a panoramic image is generated from a plurality of photographed images photographed at one photographing position.
For this reason, the technique of Patent Document 1 cannot be applied when generating a panoramic image using a plurality of captured images captured at a plurality of capturing positions.
また、特許文献2では、ランドマークを基準に2つの入力画像の位置合わせを行っているが、ランドマークの画像領域以外の領域についても、ランドマークに合わせた変換行列を行っている。
そのため、ランドマーク以外の被写体が二重に表示される可能性があり、被写体が近距離にあるほど、位置ずれの量が大きくなる。In
For this reason, there is a possibility that subjects other than landmarks are displayed twice, and the closer the subject is, the greater the amount of positional deviation.
本発明は、上記の事情に鑑みたものであり、異なる撮影位置で撮影された複数の画像であっても、位置ずれの少ない合成画像を得ることを主な目的とする。 The present invention has been made in view of the above circumstances, and it is a main object of the present invention to obtain a composite image with little positional deviation even if it is a plurality of images shot at different shooting positions.
本発明に係る合成画像生成装置は、
第1の画像の一部の領域である第1の重ね合わせ領域と第2の画像の一部の領域である第2の重ね合わせ領域とを重ね合わせて合成画像を生成する合成画像生成装置であって、
前記第1の重ね合わせ領域を複数のブロックに分割し、ブロック単位で特徴点を抽出する特徴点抽出部と、
前記特徴点抽出部により抽出された特徴点に対応する、前記第2の重ね合わせ領域内の対応点を抽出する対応点抽出部と、
対応関係にある特徴点と対応点の座標位置に基づき、前記第1の重ね合わせ領域と前記第2の重ね合わせ領域とを変形させる画像変形部と、
前記画像変形部により変形された後の前記第1の重ね合わせ領域と、前記画像変形部により変形された後の前記第2の重ね合わせ領域とを重ね合わせて合成画像を生成する合成画像生成部とを有する。The composite image generating apparatus according to the present invention is
A composite image generation apparatus that generates a composite image by superimposing a first overlap region that is a partial region of a first image and a second overlap region that is a partial region of a second image. There,
A feature point extraction unit that divides the first overlapping region into a plurality of blocks and extracts feature points in units of blocks;
A corresponding point extracting unit that extracts corresponding points in the second overlapping region corresponding to the feature points extracted by the feature point extracting unit;
An image deforming unit that deforms the first overlapping region and the second overlapping region based on the corresponding feature point and the coordinate position of the corresponding point;
A composite image generation unit that generates a composite image by superimposing the first overlap region after being deformed by the image deformation unit and the second overlap region after being deformed by the image deformation unit. And have.
本発明では、第1の重ね合わせ領域を複数のブロックに分割し、第1の重ね合わせ領域においてブロック単位で特徴点を抽出し、ブロック単位で抽出された特徴点ごとに、第2の重ね合わせ領域において対応点を抽出する。
このため、本発明では、位置合わせの基準となる点が第1の重ね合わせ領域と第2の重ね合わせ領域において分散して複数存在し、精細な位置合わせを行うことができる。
従って、異なる撮影位置で撮影された複数の画像であっても、位置ずれの少ない合成画像を得ることができる。In the present invention, the first overlapping region is divided into a plurality of blocks, feature points are extracted in units of blocks in the first overlapping region, and a second overlapping is performed for each feature point extracted in units of blocks. Corresponding points are extracted in the region.
For this reason, in the present invention, there are a plurality of dispersed points in the first overlapping region and the second overlapping region, and fine alignment can be performed.
Therefore, even if there are a plurality of images shot at different shooting positions, a composite image with little positional deviation can be obtained.
実施の形態1.
***構成の説明***
図1は、本実施の形態に係る合成画像生成装置のハードウェア構成例を示す。
本実施の形態に係る合成画像生成装置は、コンピュータであり、演算プロセッサ1、システムメモリ2、描画グラフィックスLSI(Large−Scale Integration)3、グラフィックスメモリ5、画像キャプチャLSI6で構成される。Embodiment 1 FIG.
*** Explanation of configuration ***
FIG. 1 shows a hardware configuration example of a composite image generation apparatus according to the present embodiment.
The composite image generation apparatus according to the present embodiment is a computer and includes an arithmetic processor 1, a
演算プロセッサ1は、例えばCPU(Central Processing Unit)で構成され、演算処理を実行する機能を有している。
演算プロセッサ1は、OS(Operating System)を実装し、このOS上で合成画像生成プログラム4を実行する。
合成画像生成プログラム4は、図2に示す画像取得部101、投影画像生成部104、特徴点抽出部105、対応点抽出部106、画像変形部107、合成画像生成部108の機能を実現するプログラムである。
システムメモリ2は、OS、合成画像生成プログラム4、後述する撮影装置位置情報等のデータを保持しており、演算プロセッサ1からの要求に応じてこれらのデータの入出力を行う。
つまり、システムメモリ2からOS及び合成画像生成プログラム4が演算プロセッサ1にロードされ、演算プロセッサ1によりOS及び合成画像生成プログラム4が実行される。
描画グラフィックスLSI3は、演算プロセッサ1からの指示に従って合成画像を描画する。
描画グラフィックスLSI3は、グラフィックスメモリ5に接続されており、グラフィックスメモリ5は合成する画像や合成後の画像を保持している。
また、描画グラフィックスLSI3は、演算プロセッサ1からの要求に応じて記憶したデータの入出力を行う。
画像キャプチャLSI6は、撮影装置から画像を取得し、演算プロセッサ1からの指示に従って、データの入出力を行う。
なお、画像取得部101、投影画像生成部104、特徴点抽出部105、対応点抽出部106、画像変形部107、合成画像生成部108の機能を「サーキットリー」で提供してもよい。
また、画像取得部101、投影画像生成部104、特徴点抽出部105、対応点抽出部106、画像変形部107、合成画像生成部108の機能を「回路」又は「工程」又は「手順」又は「処理」に読み替えてもよい。
「回路」及び「サーキットリー」は、演算プロセッサ1だけでなく、ロジックIC又はGA(Gate Array)又はASIC(Application Specific Integrated Circuit)又はFPGA(Field−Programmable Gate Array)といった他の種類の処理回路をも包含する概念である。The arithmetic processor 1 is composed of, for example, a CPU (Central Processing Unit) and has a function of executing arithmetic processing.
The arithmetic processor 1 mounts an OS (Operating System) and executes a composite image generation program 4 on the OS.
The composite image generation program 4 is a program that realizes the functions of the
The
That is, the OS and the composite image generation program 4 are loaded from the
The
The
The
The
Note that the functions of the
In addition, the functions of the
“Circuit” and “Circuitry” include not only the arithmetic processor 1 but also other types of processing circuits such as logic IC, GA (Gate Array), ASIC (Application Specific Integrated Circuit), or FPGA (Field-Programmable Gate Array). Is a concept that also includes
図2は、本実施の形態に係る合成画像生成装置100の機能構成例を示す。
FIG. 2 shows a functional configuration example of the composite
合成画像生成装置100は、撮影装置301、撮影装置302、撮影装置303と表示装置200に接続されている。
撮影装置301、撮影装置302、撮影装置303をそれぞれ区別する必要がない場合は、撮影装置301、撮影装置302、撮影装置303をまとめて撮影装置300と表記する。
図2では、撮影装置300が3台である例を示しているが、撮影装置300の台数は何台でもよい。The composite
When there is no need to distinguish the
Although FIG. 2 shows an example in which there are three photographing devices 300, the number of photographing devices 300 may be any number.
合成画像生成装置100は、画像取得部101、撮影装置情報格納部102、投影面情報格納部103、投影画像生成部104、特徴点抽出部105、対応点抽出部106、画像変形部107、合成画像生成部108を備える。
以下にて、各々の要素について説明する。The composite
Each element will be described below.
画像取得部101は、撮影装置300で撮影された撮影画像を取得する。
The
撮影装置情報格納部102は、撮影位置姿勢情報及びレンズ特性情報を保持する。
撮影位置姿勢情報は、撮影装置300の設置位置や向きの情報である。
レンズ特性情報は、撮影装置300のレンズの焦点距離、レンズ歪を補正する際のパラメータなどの情報である。The imaging device
The photographing position / orientation information is information on the installation position and orientation of the photographing apparatus 300.
The lens characteristic information is information such as a focal length of the lens of the photographing apparatus 300 and parameters for correcting lens distortion.
投影面情報格納部103は、仮想投影面の形状と位置の情報である投影面情報を保持する。
仮想投影面は、合成画像の生成に先立ち、画像取得部101で取得された撮影画像を投影するための仮想的な投影面である。The projection plane
The virtual projection plane is a virtual projection plane for projecting the captured image acquired by the
投影画像生成部104は、画像取得部101で取得された撮影画像を投影面に投影して投影画像を生成する。
より具体的には、投影画像生成部104は、撮影装置情報格納部102で保持されている撮影装置位置姿勢情報及びレンズ特性情報と投影面情報格納部103で保持されている投影面情報をもとに、撮影画像を投影面に投影して投影画像を生成する。The projection
More specifically, the projection
特徴点抽出部105は、特徴点を抽出する。
具体的には、特徴点抽出部105は、画像合成において隣り合う2つの投影画像の各々に対して、重ね合わせの対象の領域(以下、重ね合わせ領域という)を求める。
そして、特徴点抽出部105は、一方の投影画像(第1の画像の例)の重ね合わせ領域である第1の重ね合わせ領域を複数のブロックに分割し、ブロック単位で特徴点を抽出する。The feature
Specifically, the feature
Then, the feature
対応点抽出部106は、特徴点抽出部105により抽出された特徴点に対応する、他方の投影画像(第2の画像の例)の重ね合わせ領域である第2の重ね合わせ領域内の対応点を抽出する。
対応点抽出部106は、特徴点抽出部105により抽出された特徴点と共通する特徴をもつ、第2の重ね合わせ領域内の点を対応点として抽出する。
例えば、対応点抽出部106は、特徴点抽出部105により抽出された特徴点の輝度勾配を算出し、算出した輝度勾配に基づき、第2の重ね合わせ領域内の対応点を抽出する。The corresponding
The corresponding
For example, the corresponding
画像変形部107は、対応関係にある特徴点と対応点の座標位置に基づき、第1の重ね合わせ領域と第2の重ね合わせ領域とを変形させる。
より具体的には、対応関係にある特徴点と対応点の座標位置のずれを求め、ずれがなくなるように、第1の重ね合わせ領域と第2の重ね合わせ領域とを変形させる。The
More specifically, the shift between the coordinate positions of the feature points and the corresponding points in the correspondence relationship is obtained, and the first overlap region and the second overlap region are deformed so that the shift is eliminated.
合成画像生成部108は、画像変形部107で変形された後の2つの投影画像を1つの画像に合成する。
つまり、合成画像生成部108は、画像変形部107により変形された後の第1の重ね合わせ領域と、画像変形部107により変形された後の第2の重ね合わせ領域とを重ね合わせて合成画像を生成する。The composite
In other words, the composite
表示装置200は、合成画像生成装置100で生成された合成画像を表示する。
The
***動作の説明***
次に、実施の形態1の合成画像生成装置100の動作を図3のフローチャートに基づいて説明する。
図3に示す手順は、合成画像生成方法及び合成画像生成プログラムの処理例に相当する。*** Explanation of operation ***
Next, the operation of the composite
The procedure shown in FIG. 3 corresponds to a processing example of a composite image generation method and a composite image generation program.
まず、撮影装置300の撮影位置姿勢情報及びレンズ特性情報が撮影装置情報格納部102に格納される(ステップST101)。
次に、投影面情報が投影面情報格納部に格納される(ステップST102)。
なお、本実施の形態で利用する仮想投影面の形状は、広い平面の表示を行いたい場合は平面、ある視点からの広角な表示を行いたい場合は円筒というように、表示対象によって適切な形状が定義される。
ステップST101及びステップST102は、合成画像の生成に先立って、あらかじめ実施される動作である。First, the photographing position / orientation information and lens characteristic information of the photographing apparatus 300 are stored in the photographing apparatus information storage unit 102 (step ST101).
Next, the projection plane information is stored in the projection plane information storage unit (step ST102).
Note that the shape of the virtual projection plane used in this embodiment is an appropriate shape depending on the display target, such as a plane when a wide plane display is desired, or a cylinder when a wide angle display is desired from a certain viewpoint. Is defined.
Steps ST101 and ST102 are operations performed in advance prior to the generation of the composite image.
次に、画像取得部101が、撮影装置301〜303で撮影された撮影画像を取得する(ステップST103)。
Next, the
次に、投影画像生成部104が、投影面情報格納部103から投影面情報を読み出す。
また、投影画像生成部104は、撮影装置情報格納部102から撮影位置姿勢情報及びレンズ特性情報を読み出す。
そして、投影画像生成部104は、投影面情報、撮影位置姿勢情報及びレンズ特性情報を利用して、各撮影画像を仮想投影面に投影した場合の投影画像を生成する(ステップST104)。
投影画像生成部104は、例えば、以下のようにして、投影画像を生成することができる。Next, the projection
In addition, the projection
Then, the projection
For example, the projection
投影画像生成部104は、投影面情報をポリゴン情報に変換し、各ポリゴン頂点の3次元位置と撮影装置の中心を結んだ直線と、撮影装置の撮像素子平面との交点から各ポリゴンの頂点に対応する撮影画像上の画素の3次元位置D=(distx,disty,distz)Tを求める。
このとき、各ポリゴン頂点P=(Px,Py,Pz)Tの3次元位置と光学中心C=(Cx,Cy,Cz)Tを結んだ直線の点Qは、式(1)によって表される。
また、撮影装置の撮像素子平面上の点Q’については、式(2)によって表される。
Q=(P−C)*t+C (1)
Q’=u*a+v*b+I (2)
ここで、uは撮像素子のx軸方向の単位ベクトル、vは撮像素子上のy軸方向の単位ベクトルを表しており、Iは撮像素子の中心座標を表している。
これらは、レンズの焦点距離、撮影装置の姿勢情報から求めることができる。
また、3次元位置Dは式(1)で表される直線上、更には、式(2)で表される平面上に存在する。
このため、式(1)及び式(2)を式(3)にまとめることができ、式(3)から、3次元位置Dを求めることができる。
C−I=[u v P−C](a b t)T (3)
ここで求まった3次元位置Dを撮影画像上の画素位置(image_x,image_y)に変換させるには式(4)及び式(5)を用いる。
ここで、camera_px_widthは撮像素子のx軸方向の画素数、camera_px_heightは撮像素子のy軸方向の画素数を表す。
image_x
=a*camera_px_width+camera_px_width/2 (4)
image_y
=b*camera_px_height+camera_px_height/2 (5)The projection
At this time, the point Q of a straight line connecting the three-dimensional position of each polygon vertex P = (P x , P y , P z ) T and the optical center C = (C x , C y , C z ) T Represented by 1).
Further, the point Q ′ on the imaging element plane of the imaging apparatus is represented by the equation (2).
Q = (P−C) * t + C (1)
Q ′ = u * a + v * b + I (2)
Here, u represents a unit vector in the x-axis direction of the image sensor, v represents a unit vector in the y-axis direction on the image sensor, and I represents a center coordinate of the image sensor.
These can be obtained from the focal length of the lens and the attitude information of the photographing apparatus.
The three-dimensional position D exists on the straight line represented by the formula (1) and further on the plane represented by the formula (2).
For this reason, Formula (1) and Formula (2) can be put together into Formula (3), and the three-dimensional position D can be calculated | required from Formula (3).
C−I = [u v PC] (ab t) T (3)
In order to convert the three-dimensional position D obtained here into a pixel position (image_x, image_y) on the captured image, Expressions (4) and (5) are used.
Here, camera_px_width represents the number of pixels in the x-axis direction of the image sensor, and camera_px_height represents the number of pixels in the y-axis direction of the image sensor.
image_x
= A * camera_px_width + camera_px_width / 2 (4)
image_y
= B * camera_px_height + camera_px_height / 2 (5)
投影画像生成部104は、このようにして求めた、投影面の各画素に対応する撮像素子の位置から投影画像を生成する。
The projection
次に、特徴点抽出部105が、重ね合わせ領域のブロック単位で、特徴点を抽出する(ステップST105)(特徴点抽出処理)。
特徴点抽出部105の動作を図4、図5及び図6を参照して説明する。Next, the feature
The operation of the feature
図4において、第1の投影画像401は、第1の撮影位置で撮影された第1の撮影画像(例えば、撮影装置301の撮影画像)から生成された投影画像である。
第2の投影画像402は、第1の撮影位置とは異なる第2の撮影位置で撮影された第2の撮影画像(例えば、撮影装置302の撮影画像)から生成された投影画像である。
第1の投影画像401と第2の投影画像402は、画像合成において隣り合う投影画像である。
特徴点抽出部105は、第1の投影画像401の重ね合わせ領域(第1の重ね合わせ領域)と第2の投影画像402の重ね合わせ領域(第2の重ね合わせ領域)を求める。
図5に示すように、第1の投影画像401のうち符号501の枠線で囲まれる領域が第1の重ね合わせ領域であり、第2の投影画像402のうち符号501の枠線で囲まれる領域が第2の重ね合わせ領域である。
次に、特徴点抽出部105は、図6に示すように、第1の投影画像401の第1の重ね合わせ領域を複数の矩形のブロック601に分割し、ブロック601単位で特徴点を抽出する。
特徴点抽出部105は、全てのブロック601で1つ以上の特徴点を抽出してもよいし、一部のブロック601では特徴点を抽出しないようにしてもよい。
但し、特徴点抽出部105は、第1の重ね合わせ領域の全ブロックのうちの70%以上のブロックで特徴点を抽出するものとする。
特徴点抽出部105は、例えば、Harris Detectorを利用して特徴点を抽出する。In FIG. 4, a
The second projected
The
The feature
As shown in FIG. 5, the region surrounded by the
Next, as shown in FIG. 6, the feature
The feature
However, it is assumed that the feature
The feature
次に、対応点抽出部106が、ステップST105で抽出された特徴点ごとに、他方の投影画像において、対応点を抽出する(ステップST106)(対応点抽出処理)。
対応点抽出部106は、図5に示す第2の投影画像402の第2の重ね合わせ領域において、特徴点と同じ座標位置の周辺を探索し、特徴点と共通する特徴をもつ点を対応点として抽出する。
例えば、対応点抽出部106は、特徴点の輝度勾配を算出し、算出した輝度勾配と同じ傾向を示す対応点を抽出する。
なお、対応点抽出部106は、正規化相互相関などの手法を利用して特徴点を探索することができる。Next, the corresponding
The corresponding
For example, the corresponding
Note that the corresponding
次に、画像変形部107が、対応関係にある特徴点と対応点が一致するように、双方の投影画像を変形させる(ステップST107)(画像変形処理)。
つまり、画像変形部107は、特徴点の座標位置と対応点の座標位置とのずれ量が0となるように双方の投影画像を変形させる。
画像変形部107は、各特徴点の、もとの撮影画像の中心からの距離に応じて、各特徴点を移動させる比率を変化させる。
同様に、画像変形部107は、各対応点の、もとの撮影画像の中心からの距離に応じて、各対応点を移動させる比率を変化させる。
画像変形部107は、第1の重ね合わせ領域において、各特徴点の移動先を求めた後、他の点(特徴点以外の点)の移動先を求める。
同様に、画像変形部107は、第2の重ね合わせ領域において、各対応点の移動先を求めた後、他の点(対応点以外の点)の移動先を求める。
画像変形部107は、他の点の移動先は、他の点の周囲にある特徴点又は対応点の移動先をもとに、線形補間で求める。
また、ステップST105で特徴点が抽出できなかったブロックについては、画像変形部107は、特徴点が抽出できなかったブロックの周囲の特徴点の移動量に基づいて、特徴点が抽出できなかったブロック内の点の移動先を線形補間で求める。
また、ステップST106で求めた対応点の特徴点との相関が弱い場合は、画像変形部107は、特徴点と対応点との座標位置を一致させる代わりに、当該対応点の周囲の対応点の移動先に基づいて、当該対応点の移動先を線形補間で求める。
また、ある特徴点が周囲の特徴点から大きく離れた位置にある場合は、特徴点と対応点を一致させる代わりに、当該特徴点の周囲の特徴点の移動先に基づいて、当該特徴点の移動先を線形補間で求める。
このような線形補間による移動先の導出により、間違った変形処理を防ぐことができる。Next, the
That is, the
The
Similarly, the
The
Similarly, the
The
For blocks for which feature points could not be extracted in step ST105, the
When the correlation between the corresponding points obtained in step ST106 and the feature points is weak, the
In addition, when a certain feature point is located far away from surrounding feature points, instead of matching the corresponding feature point with the corresponding point, the feature point is moved based on the destination of the surrounding feature point. Find the destination by linear interpolation.
Derivation of the movement destination by such linear interpolation can prevent erroneous deformation processing.
そして、合成画像生成部108が、重ね合わせ領域が変形された後の投影画像を合成する(ステップST108)(合成画像生成処理)。
つまり、合成画像生成部108は、重ね合わせ領域が変形された後の2つの投影画像をそれぞれの重ね合わせ領域を重ね合わせて合成画像を生成する。
なお、合成画像生成部108は、重ね合わせ領域を重ね合わせた後の各画素の色情報を、例えば、それぞれの重ね合わせ領域の色情報の加算平均で求める。
また、合成画像生成部108は、重ね合わせ領域を重ね合わせた後の各画素の色情報を、撮像中心に近い画素ほど撮影中心の影響を強くさせる手法で求めてもよい。
また、合成画像生成部108は、重ね合わせ領域の上端から下端までの輝度勾配が少ないラインを求め、そのラインの左右で表示する画素情報の濃度を決定することで、合成部分を目立たなくすることができる。Then, the synthesized
That is, the composite
Note that the composite
Further, the composite
Further, the composite
***実施の形態の効果***
以上のように、本実施の形態では、第1の重ね合わせ領域を複数のブロックに分割し、第1の重ね合わせ領域においてブロック単位で特徴点を抽出し、ブロック単位で抽出された特徴点ごとに、第2の重ね合わせ領域において対応点を抽出する。
このため、本実施の形態では、位置合わせの基準となる点が第1の重ね合わせ領域と第2の重ね合わせ領域において分散して複数存在し、精細な位置合わせを行うことができる。
従って、異なる撮影位置で撮影された複数の画像であっても、位置ずれの少ない合成画像を得ることができる。
また、重ね合わせ領域における局所的な画像変形を行うことにより、画像内の物体が二重に表示されることを回避し、自然な合成画像を生成することができる。*** Effect of the embodiment ***
As described above, in the present embodiment, the first overlapping region is divided into a plurality of blocks, feature points are extracted in units of blocks in the first overlapping region, and each feature point extracted in units of blocks is extracted. In addition, corresponding points are extracted in the second overlapping region.
For this reason, in the present embodiment, a plurality of points serving as a reference for alignment exist in the first overlap region and the second overlap region, and fine alignment can be performed.
Therefore, even if there are a plurality of images shot at different shooting positions, a composite image with little positional deviation can be obtained.
In addition, by performing local image deformation in the overlapping region, it is possible to avoid double display of objects in the image and to generate a natural composite image.
実施の形態2.
本実施の形態では、撮影画像の仮想投影面への投影角度を調整して投影画像を生成する例を説明する。
In this embodiment, an example in which a projection image is generated by adjusting the projection angle of a captured image on a virtual projection plane will be described.
***構成の説明***
図7は、本実施の形態に係る合成画像生成装置100の機能構成例を示す。
図7では、図2と比較して、視点情報格納部109が追加されている。
視点情報格納部109は、視点情報を保持する。
視点情報は、投影画像を生成する際の視点位置を定義する情報である。
なお、図7において、視点情報格納部109以外の要素は、図2に示したものと同じであるため、説明を省略する。*** Explanation of configuration ***
FIG. 7 shows a functional configuration example of the composite
In FIG. 7, a viewpoint
The viewpoint
The viewpoint information is information that defines a viewpoint position when generating a projection image.
In FIG. 7, the elements other than the viewpoint
***動作の説明***
次に、本実施の形態に係る合成画像生成装置100の動作例を図8のフローチャートに基づいて説明する。*** Explanation of operation ***
Next, an operation example of the composite
ステップST201及びステップST202は、図3のステップST101及びステップ102と同様であるため、説明を省略する。
次に、投影画像生成部104が、視点情報格納部109から視点情報を取得する(ステップST203)。
視点情報は、視点の三次元位置と視野角などの情報である。
視点情報には、表示装置200に表示される合成画像に対する視点位置が定義されている。
本実施の形態に係る合成画像生成装置100で生成される合成画像は、視点情報で定義されている視点位置を基準にした画像である。Step ST201 and step ST202 are the same as step ST101 and step 102 of FIG.
Next, the projection
The viewpoint information is information such as the three-dimensional position of the viewpoint and the viewing angle.
In the viewpoint information, a viewpoint position with respect to the composite image displayed on the
The composite image generated by the composite
次に、画像取得部101が、撮影装置301〜303で撮影された撮影画像を取得する(ステップST204)。
Next, the
次に、投影画像生成部104が、投影面情報、撮影位置姿勢情報及びレンズ特性情報、視点情報を利用して、各撮影画像を仮想投影面に投影した場合の投影画像を生成する(ステップST205)。
投影画像生成部104は、図9に示すように、視点情報で定義されている視点位置と視野角を利用することにより、表示装置200で表示される合成画像の各画素が仮想投影面のどの位置に対応するかを求めることができる。
具体的には、投影画像生成部104は、視点位置と撮影画像の画素位置とを結ぶ直線と仮想投影面の交点に撮影画像の画素値を投影する。
このように、本実施の形態では、投影画像生成部104は、視点位置に応じて撮影画像の仮想投影面への投影角度を調整して投影画像を生成する。Next, the projection
As illustrated in FIG. 9, the projection
Specifically, the projection
Thus, in the present embodiment, the projection
ステップST206からステップST209については、図3のステップST105からステップ108までと同様であるため、説明を省略する。 Steps ST206 to ST209 are the same as steps ST105 to 108 in FIG.
***実施の形態の効果***
以上のように、本実施の形態によれば、視点情報格納部を備えたことにより、ニ次元平面で定義できない仮想投影面を定義した場合でも、指定した視野内の画像を表示することができ、また、視点情報を変更することで広角画像の一部を拡大して表示することができる。*** Effect of the embodiment ***
As described above, according to the present embodiment, since the viewpoint information storage unit is provided, even when a virtual projection plane that cannot be defined by a two-dimensional plane is defined, an image within a designated field of view can be displayed. In addition, a part of the wide-angle image can be enlarged and displayed by changing the viewpoint information.
実施の形態3.
実施の形態1及び2に係る合成画像生成装置100は、特徴点及び対応点の抽出後に、直ちに投影画像の重ね合わせ領域を変形させている。
本実施の形態に係る合成画像生成装置100は、特徴点及び対応点の抽出後に、重ね合わせ領域の変形手順を導出し、導出した変形手順が記述される変形手順情報を生成し、変形手順情報を記憶しておく。
そして、本実施の形態に係る合成画像生成装置100は、投影画像の合成を行う際に、変形手順情報に記述される変形手順に従って、第1の重ね合わせ領域と第2の重ね合わせ領域を変形させる。
The composite
The composite
The composite
***構成の説明***
図10は、本実施の形態に係る合成画像生成装置100の機能構成例を示す。
図10では、図7と比較して、変形手順情報格納部110、変形手順情報生成部111が追加され、また、画像変形部107の代わりに画像変形部112が含まれている。*** Explanation of configuration ***
FIG. 10 shows a functional configuration example of the composite
In FIG. 10, as compared with FIG. 7, a deformation procedure
変形手順情報生成部111は、変形手順情報を生成する。
変形手順情報は、第1の重ね合わせ領域と前記第2の重ね合わせ領域の変形手順が記述される情報である。
変形手順情報生成部111は、対応関係にある特徴点と対応点の座標位置に基づき、変形手順情報を生成する。
変形手順情報格納部110は、変形手順情報生成部111により生成された変形手順情報を保持する。
画像変形部112は、変形手順情報に記述される変形手順に従って、第1の重ね合わせ領域と前記第2の重ね合わせ領域とを変形させる。
実施の形態1の画像変形部107は、特徴点と対応点の間のずれ量を0にする特徴点の移動先及び対応点の移動先を算出して、算出した移動先に基づいて第1の重ね合わせ領域及び第2の重ね合わせ領域を変形させている。
本実施の形態の画像変形部112は、特徴点及び対応点の移動先の算出は行わずに、変形手順情報の変形手順に従って、第1の重ね合わせ領域と前記第2の重ね合わせ領域とを変形させる。
なお、図10において、変形手順情報格納部110、変形手順情報生成部111及び画像変形部112以外の要素は、図7に示したものと同じであるため、説明を省略する。The deformation procedure information generation unit 111 generates deformation procedure information.
The deformation procedure information is information describing a deformation procedure of the first overlapping area and the second overlapping area.
The deformation procedure information generation unit 111 generates deformation procedure information based on the feature points in correspondence and the coordinate positions of the corresponding points.
The modification procedure
The
The
The
In FIG. 10, the elements other than the deformation procedure
***動作の説明***
次に、本実施の形態に係る合成画像生成装置100の動作例を図11のフローチャートに基づいて説明する。*** Explanation of operation ***
Next, an operation example of the composite
ステップST301からステップST307までは、図8のステップST201からステップ207までと同様であるため、説明を省略する。
ステップST308において、変形手順情報生成部111が変形手順情報を生成する。
変形手順情報生成部111は、実施の形態1の画像変形部107と同様の解析を行って変形手順情報を生成する。
つまり、変形手順情報生成部111は、特徴点の座標位置と対応点の座標位置とのずれ量が0となる特徴点移動先の移動先及び対応点の移動先を算出する。
また、変形手順情報生成部111は、第1の重ね合わせ領域について特徴点以外の点の移動先を線形補間により算出し、また、第2の重ね合わせ領域について対応点以外の点の移動先を線形補間により算出する。
このようにして、変形手順情報生成部111は、第1の重ね合わせ領域の変形手順及び第2の重ね合わせ領域の変形手順を導出する。
そして、変形手順情報生成部111は第1の重ね合わせ領域の変形手順及び第2の重ね合わせ領域の変形手順が記述される変形手順情報を生成し、変形手順情報を変形手順情報格納部110に格納する。
なお、ステップST306で特徴点が抽出できなかったブロックが存在する場合や、ステップST307で求めた対応点の特徴点との相関が弱い場合、ある特徴点が周囲の特徴点から大きく離れた位置にある場合の処理は、実施の形態1の画像変形部107と同じである。Steps ST301 to ST307 are the same as steps ST201 to 207 in FIG.
In step ST308, the deformation procedure information generation unit 111 generates deformation procedure information.
The deformation procedure information generation unit 111 performs the same analysis as the
That is, the transformation procedure information generation unit 111 calculates the destination of the feature point destination and the destination of the corresponding point where the deviation amount between the coordinate position of the feature point and the coordinate position of the corresponding point is zero.
In addition, the deformation procedure information generation unit 111 calculates the movement destination of a point other than the feature point for the first overlapping area by linear interpolation, and determines the movement destination of the point other than the corresponding point for the second overlapping area. Calculate by linear interpolation.
In this way, the deformation procedure information generation unit 111 derives a deformation procedure for the first overlapping area and a deformation procedure for the second overlapping area.
Then, the deformation procedure information generation unit 111 generates deformation procedure information in which the deformation procedure of the first overlapping area and the deformation procedure of the second overlapping area are described, and the deformation procedure information is stored in the deformation procedure
When there is a block from which feature points could not be extracted in step ST306, or when the correlation with the feature points of the corresponding points obtained in step ST307 is weak, a certain feature point is located far away from the surrounding feature points. Processing in a certain case is the same as that of the
次に、画像変形部112が、変形手順情報格納部110から変形手順情報を読み出し、変形手順情報に記述されている変形手順に従って、第1の重ね合わせ領域と第2の重ね合わせ領域を変形させる。
そして、合成画像生成部108が、実施の形態1と同様に、変形後の2つの投影画像を合成して、合成画像を生成する(ステップST310)。Next, the
Then, similarly to the first embodiment, the synthesized
***実施の形態の効果の説明***
合成画像で動画データのフレームが構成される場合に、実施の形態1では、フレームごとに、画像変形部107が第1の重ね合わせ領域及び第2の重ね合わせ領域の変形手順を導出する必要がある。
これに対して、本実施の形態では、前後のフレームで重ね合わせ領域における描画内容に変化がない場合は、画像変形部112は、各フレームで、変形手順情報に従って、第1の重ね合わせ領域及び第2の重ね合わせ領域の変形を行うことができ、フレームごとに変形手順を導出する必要がない。
このため、画像取得部101で短い時間間隔で撮影画像を取得し、表示装置200に同じ間隔で合成画像を表示することができるようになる。
変形手順情報生成部111は、重ね合わせ領域における描画内容に変化がある場合にのみ、変形手順情報を生成すればよい。
また、変形手順情報生成部111は、一定時間間隔ごとに変形手順情報を更新するようにしてもよい。*** Explanation of the effect of the embodiment ***
In the first embodiment, when the frame of the moving image data is composed of the composite image, it is necessary for the
On the other hand, in the present embodiment, when there is no change in the drawing content in the overlapping area between the previous and next frames, the
For this reason, the
The deformation procedure information generation unit 111 may generate the deformation procedure information only when there is a change in the drawing content in the overlapping area.
Further, the deformation procedure information generation unit 111 may update the deformation procedure information at regular time intervals.
以上、本発明の実施の形態について説明したが、これらの実施の形態のうち、2つ以上を組み合わせて実施しても構わない。
あるいは、これらの実施の形態のうち、1つを部分的に実施しても構わない。
あるいは、これらの実施の形態のうち、2つ以上を部分的に組み合わせて実施しても構わない。
なお、本発明は、これらの実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。As mentioned above, although embodiment of this invention was described, you may implement in combination of 2 or more among these embodiment.
Alternatively, one of these embodiments may be partially implemented.
Alternatively, two or more of these embodiments may be partially combined.
In addition, this invention is not limited to these embodiment, A various change is possible as needed.
1 演算プロセッサ、2 システムメモリ、3 描画グラフィックスLSI、4 合成画像生成プログラム、5 グラフィックスメモリ、6 画像キャプチャLSI、100 合成画像生成装置、101 画像取得部、102 撮影装置情報格納部、103 投影面情報格納部、104 投影画像生成部、105 特徴点抽出部、106 対応点抽出部、107 画像変形部、108 合成画像生成部、109 視点情報格納部、110 変形手順情報格納部、111 変形手順情報生成部、112 画像変形部、200 表示装置、300 撮影装置、301 撮影装置、302 撮影装置、303 撮影装置。 DESCRIPTION OF SYMBOLS 1 Arithmetic processor, 2 System memory, 3 Drawing graphics LSI, 4 Composite image generation program, 5 Graphics memory, 6 Image capture LSI, 100 Composite image generation apparatus, 101 Image acquisition part, 102 Imaging device information storage part, 103 Projection Surface information storage unit, 104 Projection image generation unit, 105 Feature point extraction unit, 106 Corresponding point extraction unit, 107 Image deformation unit, 108 Composite image generation unit, 109 View point information storage unit, 110 Deformation procedure information storage unit, 111 Deformation procedure Information generating unit, 112 image transformation unit, 200 display device, 300 photographing device, 301 photographing device, 302 photographing device, 303 photographing device.
Claims (9)
前記第1の重ね合わせ領域を複数のブロックに分割し、ブロック単位で特徴点を抽出する特徴点抽出部と、
前記特徴点抽出部により抽出された特徴点に対応する、前記第2の重ね合わせ領域内の対応点を抽出する対応点抽出部と、
対応関係にある特徴点と対応点の座標位置に基づき、前記第1の重ね合わせ領域と前記第2の重ね合わせ領域とを変形させる画像変形部と、
前記画像変形部により変形された後の前記第1の重ね合わせ領域と、前記画像変形部により変形された後の前記第2の重ね合わせ領域とを重ね合わせて合成画像を生成する合成画像生成部とを有する合成画像生成装置。A composite image generation apparatus that generates a composite image by superimposing a first overlap region that is a partial region of a first image and a second overlap region that is a partial region of a second image. There,
A feature point extraction unit that divides the first overlapping region into a plurality of blocks and extracts feature points in units of blocks;
A corresponding point extracting unit that extracts corresponding points in the second overlapping region corresponding to the feature points extracted by the feature point extracting unit;
An image deforming unit that deforms the first overlapping region and the second overlapping region based on the corresponding feature point and the coordinate position of the corresponding point;
A composite image generation unit that generates a composite image by superimposing the first overlap region after being deformed by the image deformation unit and the second overlap region after being deformed by the image deformation unit. A composite image generating apparatus.
前記特徴点抽出部により抽出された特徴点の輝度勾配を算出し、算出した輝度勾配に基づき、前記第2の重ね合わせ領域内の対応点を抽出する請求項1に記載の合成画像生成装置。The corresponding point extraction unit
The composite image generation apparatus according to claim 1, wherein a luminance gradient of the feature point extracted by the feature point extraction unit is calculated, and a corresponding point in the second overlapping region is extracted based on the calculated luminance gradient.
前記特徴点抽出部により抽出された特徴点と共通する特徴をもつ、前記第2の重ね合わせ領域内の点を対応点として抽出する請求項1に記載の合成画像生成装置。The corresponding point extraction unit
The composite image generation apparatus according to claim 1, wherein a point in the second overlapping region having a feature common to the feature point extracted by the feature point extraction unit is extracted as a corresponding point.
対応関係にある特徴点と対応点の座標位置のずれがなくなるように、前記第1の重ね合わせ領域と前記第2の重ね合わせ領域とを変形させる請求項1に記載の合成画像生成装置。The image transformation unit
The composite image generating apparatus according to claim 1, wherein the first overlapping region and the second overlapping region are deformed so that a shift in the coordinate position between the feature point in the correspondence relationship and the corresponding point is eliminated.
前記第1の画像として、第1の撮影位置で撮影された第1の撮影画像を仮想投影面に投影させた第1の投影画像を生成し、前記第2の画像として、前記第1の撮影位置とは異なる第2の撮影位置で撮影された第2の撮影画像を前記仮想投影面に投影させた第2の投影画像を生成する投影画像生成部を有し、
前記特徴点抽出部は、
前記第1の投影画像の前記1の重ね合わせ領域を複数のブロックに分割し、ブロック単位で特徴点を抽出し、
前記対応点抽出部は、
前記特徴点抽出部により抽出された特徴点に対応する、前記第2の投影画像の前記第2の重ね合わせ領域内の対応点を抽出する請求項1に記載の合成画像生成装置。The composite image generation device further includes:
As the first image, a first projection image obtained by projecting the first photographed image taken at the first photographing position onto a virtual projection plane is generated, and the first image is taken as the second image. A projection image generation unit that generates a second projection image obtained by projecting the second captured image captured at a second imaging position different from the position onto the virtual projection plane;
The feature point extraction unit includes:
Dividing the one overlap region of the first projection image into a plurality of blocks, extracting feature points in units of blocks;
The corresponding point extraction unit
The composite image generation apparatus according to claim 1, wherein corresponding points in the second overlapping region of the second projection image corresponding to the feature points extracted by the feature point extraction unit are extracted.
視点位置に応じて前記第1の撮影画像及び前記第2の撮影画像の前記仮想投影面への投影角度を調整して前記第1の投影画像及び前記第2の投影画像を生成する請求項5に記載の合成画像生成装置。The projection image generation unit
6. The first projection image and the second projection image are generated by adjusting a projection angle of the first photographed image and the second photographed image on the virtual projection plane according to a viewpoint position. The composite image generation apparatus described in 1.
対応関係にある特徴点と対応点の座標位置に基づき、前記画像変形部による前記第1の重ね合わせ領域と前記第2の重ね合わせ領域の変形手順が記述される変形手順情報を生成する変形手順情報生成部を有し、
前記画像変形部は、
前記変形手順情報生成部により生成された前記変形手順情報に記述される変形手順に従って、前記第1の重ね合わせ領域と前記第2の重ね合わせ領域とを変形させる請求項1に記載の合成画像生成装置。The composite image generation device further includes:
A deformation procedure for generating deformation procedure information describing a deformation procedure of the first overlapping area and the second overlapping area by the image deformation unit based on the feature points in correspondence and the coordinate positions of the corresponding points. Having an information generator,
The image transformation unit
2. The composite image generation according to claim 1, wherein the first overlapping area and the second overlapping area are deformed according to a deformation procedure described in the deformation procedure information generated by the deformation procedure information generation unit. apparatus.
前記第1の重ね合わせ領域を複数のブロックに分割し、ブロック単位で特徴点を抽出し、
抽出された特徴点に対応する、前記第2の重ね合わせ領域内の対応点を抽出し、
対応関係にある特徴点と対応点の座標位置に基づき、前記第1の重ね合わせ領域と前記第2の重ね合わせ領域とを変形させ、
変形後の前記第1の重ね合わせ領域と、変形後の前記第2の重ね合わせ領域とを重ね合わせて合成画像を生成する合成画像生成方法。A computer that generates a composite image by superimposing a first overlapping region that is a partial region of the first image and a second overlapping region that is a partial region of the second image;
Dividing the first overlapping region into a plurality of blocks, extracting feature points in units of blocks;
Extracting corresponding points in the second overlapping region corresponding to the extracted feature points;
Based on the corresponding feature point and the coordinate position of the corresponding point, the first overlapping region and the second overlapping region are deformed,
A composite image generation method for generating a composite image by superimposing the first overlap region after deformation and the second overlap region after deformation.
前記第1の重ね合わせ領域を複数のブロックに分割し、ブロック単位で特徴点を抽出する特徴点抽出処理と、
前記特徴点抽出処理により抽出された特徴点に対応する、前記第2の重ね合わせ領域内の対応点を抽出する対応点抽出処理と、
対応関係にある特徴点と対応点の座標位置に基づき、前記第1の重ね合わせ領域と前記第2の重ね合わせ領域とを変形させる画像変形処理と、
前記画像変形処理により変形された後の前記第1の重ね合わせ領域と、前記画像変形処理により変形された後の前記第2の重ね合わせ領域とを重ね合わせて合成画像を生成する合成画像生成処理とを実行させる合成画像生成プログラム。A computer that generates a composite image by superimposing a first overlapping region that is a partial region of the first image and a second overlapping region that is a partial region of the second image;
A feature point extraction process of dividing the first overlapping region into a plurality of blocks and extracting feature points in units of blocks;
Corresponding point extraction processing for extracting corresponding points in the second overlapping region corresponding to the feature points extracted by the feature point extraction processing;
An image deformation process for deforming the first overlap region and the second overlap region based on the feature points in correspondence and the coordinate positions of the corresponding points;
Composite image generation processing for generating a composite image by superimposing the first overlap region after being deformed by the image deformation processing and the second overlap region after being deformed by the image deformation processing A composite image generation program for executing
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2015/064292 WO2016185556A1 (en) | 2015-05-19 | 2015-05-19 | Composite image generation device, composite image generation method, and composite image generation program |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2016185556A1 true JPWO2016185556A1 (en) | 2017-06-01 |
Family
ID=57319654
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015554911A Pending JPWO2016185556A1 (en) | 2015-05-19 | 2015-05-19 | Composite image generation apparatus, composite image generation method, and composite image generation program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2016185556A1 (en) |
WO (1) | WO2016185556A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111355928A (en) * | 2020-02-28 | 2020-06-30 | 济南浪潮高新科技投资发展有限公司 | Video stitching method and system based on multi-camera content analysis |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011087319A (en) * | 2010-12-06 | 2011-04-28 | Sanyo Electric Co Ltd | In-vehicle panorama camera system |
JP2012080432A (en) * | 2010-10-05 | 2012-04-19 | Sony Computer Entertainment Inc | Panoramic image generation device and panoramic image generation method |
JP2013074423A (en) * | 2011-09-27 | 2013-04-22 | Aisin Seiki Co Ltd | Vehicle periphery monitoring device |
JP2013186853A (en) * | 2012-03-12 | 2013-09-19 | Casio Comput Co Ltd | Image processing device, image processing method and program |
JP2013187799A (en) * | 2012-03-09 | 2013-09-19 | Canon Inc | Image processing apparatus, image processing method and computer program |
JP2014127839A (en) * | 2012-12-26 | 2014-07-07 | Mitsubishi Electric Corp | Image synthesizing apparatus and image synthesizing method |
-
2015
- 2015-05-19 WO PCT/JP2015/064292 patent/WO2016185556A1/en active Application Filing
- 2015-05-19 JP JP2015554911A patent/JPWO2016185556A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012080432A (en) * | 2010-10-05 | 2012-04-19 | Sony Computer Entertainment Inc | Panoramic image generation device and panoramic image generation method |
JP2011087319A (en) * | 2010-12-06 | 2011-04-28 | Sanyo Electric Co Ltd | In-vehicle panorama camera system |
JP2013074423A (en) * | 2011-09-27 | 2013-04-22 | Aisin Seiki Co Ltd | Vehicle periphery monitoring device |
JP2013187799A (en) * | 2012-03-09 | 2013-09-19 | Canon Inc | Image processing apparatus, image processing method and computer program |
JP2013186853A (en) * | 2012-03-12 | 2013-09-19 | Casio Comput Co Ltd | Image processing device, image processing method and program |
JP2014127839A (en) * | 2012-12-26 | 2014-07-07 | Mitsubishi Electric Corp | Image synthesizing apparatus and image synthesizing method |
Also Published As
Publication number | Publication date |
---|---|
WO2016185556A1 (en) | 2016-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112017216B (en) | Image processing method, device, computer readable storage medium and computer equipment | |
KR102170182B1 (en) | System for distortion correction and calibration using pattern projection, and method using the same | |
JP6701930B2 (en) | Authoring device, authoring method, and authoring program | |
JP6518115B2 (en) | IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, CONTROL METHOD OF IMAGE PROCESSING APPARATUS, AND PROGRAM | |
JP2016171463A (en) | Image processing system, image processing method, and program | |
WO2013151883A1 (en) | Systems, methods, and computer program products for runtime adjustment of image warping parameters in a multi-camera system | |
JP2013009050A (en) | Image processing apparatus and image processing method | |
JP4941565B2 (en) | Corresponding point search apparatus and corresponding point searching method | |
CN112017215B (en) | Image processing method, device, computer readable storage medium and computer equipment | |
JP2015036841A (en) | Image processing apparatus, distance measuring apparatus, imaging apparatus, and image processing method | |
TWI615808B (en) | Image processing method for immediately producing panoramic images | |
KR20130077414A (en) | Optical axis error compensation method using image processing, the method of the same, and the zoom camera provided for the compensation function of the optical axis error | |
JP2013171522A (en) | System and method of computer graphics image processing using ar technology | |
JP5321417B2 (en) | Perspective transformation parameter generation device, image correction device, perspective transformation parameter generation method, image correction method, and program | |
TW201342303A (en) | Three-dimensional image obtaining system and three-dimensional image obtaining method | |
WO2016185556A1 (en) | Composite image generation device, composite image generation method, and composite image generation program | |
JP2014075685A (en) | Image processor and image processing method | |
JP2019220032A (en) | Program, apparatus and method that generate display image which is transformed from original image on the basis of target image | |
JP2008203538A (en) | Image display system | |
JP2018032991A (en) | Image display unit, image display method and computer program for image display | |
JP2013130930A (en) | Image processing system, image processing method, and program for image processing | |
KR102074072B1 (en) | A focus-context display techinique and apparatus using a mobile device with a dual camera | |
JP6242009B2 (en) | Video transfer system, terminal, program, and method for displaying a shooting area frame superimposed on a wide area image | |
US10097772B2 (en) | Image processing device and image processing method | |
JP2016015036A (en) | Image processing device, and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160809 |