JP2021150831A - Imaging apparatus, correction method, and program - Google Patents

Imaging apparatus, correction method, and program Download PDF

Info

Publication number
JP2021150831A
JP2021150831A JP2020049499A JP2020049499A JP2021150831A JP 2021150831 A JP2021150831 A JP 2021150831A JP 2020049499 A JP2020049499 A JP 2020049499A JP 2020049499 A JP2020049499 A JP 2020049499A JP 2021150831 A JP2021150831 A JP 2021150831A
Authority
JP
Japan
Prior art keywords
image
correction
value
overlapping region
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020049499A
Other languages
Japanese (ja)
Other versions
JP7415707B2 (en
Inventor
優貴 ▲高▼橋
優貴 ▲高▼橋
Yuki Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2020049499A priority Critical patent/JP7415707B2/en
Publication of JP2021150831A publication Critical patent/JP2021150831A/en
Application granted granted Critical
Publication of JP7415707B2 publication Critical patent/JP7415707B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Studio Devices (AREA)

Abstract

To provide an imaging apparatus which can reduce difference in brightness or color at seams.SOLUTION: An imaging apparatus 10 creates an image by synthesizing a plurality of images captured by image pickup devices 22. The apparatus includes: a correction amount calculation section 43 for calculating a duplicate area which is overlapped when the images are synthesized and the correction amount inside the duplicate area; an outside area correction value calculation section 44 which calculates the correction value of pixels outside the duplicate area of a second image where the same object appears as in pixels inside the duplicate area of a first image on the basis of the pixel value of the pixels inside the duplicate area; a correction section 46 which corrects the first image and the second image using the correction amount and the correction value; and a synthetic image creation section 47 which duplicates and synthesizes the duplicate area of the first image and the second image which have been corrected by the correction section.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置、補正方法、及び、プログラムに関する。 The present invention relates to an imaging device, a correction method, and a program.

360°のあらゆる方向を撮像可能な撮像装置として、全天球撮像カメラが知られている。全天球撮像カメラは、複数の広角レンズ又は魚眼レンズを用い、複数の撮像素子で撮像し、得られた複数の画像に対して歪み補正や射影変換等を行い、それらを結合して1枚の全天球画像を生成する。隣接する撮像素子で撮像して得られた画像には、画像の一部が重複した画像重複領域が存在し、全天球撮像カメラでは、その画像重複領域で各画像を結合している。 An omnidirectional imaging camera is known as an imaging device capable of imaging in any direction of 360 °. The omnidirectional imaging camera uses a plurality of wide-angle lenses or fisheye lenses, images are imaged by a plurality of image pickup elements, distortion correction, projection conversion, etc. are performed on the obtained plurality of images, and these are combined into one image. Generate a spherical image. An image obtained by imaging with an adjacent image sensor has an image overlapping region in which a part of the image overlaps, and in the spherical imaging camera, each image is combined in the image overlapping region.

2つの画像の輝度の際を補正する技術が知られている(例えば、特許文献1参照。)。特許文献1には、複数のイメージセンサーの重複領域の輝度値を用い、明るい方は暗く、暗い方は明るくする補正を行うことでイメージセンサー間の輝度値を近づけ、繋ぎ目の違和感をなくす技術が開示されている。 A technique for correcting the brightness of two images is known (see, for example, Patent Document 1). In Patent Document 1, a technique of using the brightness values of overlapping regions of a plurality of image sensors to bring the brightness values between the image sensors closer to each other by making corrections to make the bright one darker and the darker one brighter to eliminate discomfort at the joints. Is disclosed.

しかしながら、従来の技術は、光量の違いにより繋ぎ目の輝度又は色に差が生じやすいという問題があった。 However, the conventional technique has a problem that the brightness or the color of the joint is likely to be different due to the difference in the amount of light.

全天球撮像カメラでは、広角レンズや魚眼レンズを用いて広い範囲を撮像することから、その撮像範囲内に太陽や照明等の光源が入りやすい。このため、画像の一部が白くぼやけ、光が滲んだように見えるフレアが発生する可能性が高いことが知られている。フレアは、各画素に均一に発生するものではないため、フレアが発生した画像は暗く補正されてしまう。この結果、フレが発生した画像は実際の輝度、色味よりも暗くなり、違和感のある画像となってしまう。 Since a spherical image camera captures a wide range using a wide-angle lens or a fisheye lens, it is easy for a light source such as the sun or illumination to enter the imaging range. For this reason, it is known that there is a high possibility that a part of the image becomes white and blurry, and flare that appears as if the light is blurred occurs. Since flare does not occur uniformly in each pixel, the image in which flare occurs is corrected to be dark. As a result, the blurred image becomes darker than the actual brightness and color, resulting in a strange image.

本発明は、上記課題に鑑み、繋ぎ目の輝度又は色の差を低減することができる撮像装置を提供することを目的とする。 In view of the above problems, an object of the present invention is to provide an imaging device capable of reducing the difference in brightness or color of joints.

上記課題に鑑み、本発明は、複数の撮像素子が撮像した画像を合成して1つの画像を作成する撮像装置であって、合成の際に重複する重複領域と前記重複領域の内側の補正量を算出する補正量算出部と、第一の画像の前記重複領域の内側の画素の画素値に基づいて、前記画素と同じ被写体が写っている、第二の画像の前記重複領域の外側の画素の補正値を算出する領域外補正値算出部と、前記補正量及び前記補正値を用いて前記第一の画像と前記第二の画像を補正する補正部と、前記補正部が補正した前記第一の画像と前記第二の画像の前記重複領域を重複させて合成する合成画像生成部と、を有することを特徴とする。 In view of the above problems, the present invention is an imaging device that synthesizes images captured by a plurality of image pickup elements to create one image, and the overlapping region overlapped at the time of compositing and the correction amount inside the overlapping region. Based on the correction amount calculation unit that calculates An out-of-area correction value calculation unit that calculates the correction value of the above, a correction unit that corrects the first image and the second image using the correction amount and the correction value, and the first correction unit corrected by the correction unit. It is characterized by having a composite image generation unit that overlaps and synthesizes the overlapping region of one image and the second image.

繋ぎ目の輝度又は色の差を低減することができる撮像装置を提供することができる。 It is possible to provide an imaging device capable of reducing the difference in brightness or color of the joint.

撮像装置を示す断面図の一例である。It is an example of the cross-sectional view which shows the image pickup apparatus. 撮像装置の構成例を示す図である。It is a figure which shows the configuration example of the image pickup apparatus. 撮像装置が有する機能を説明する図である。It is a figure explaining the function which the image pickup apparatus has. 魚眼レンズについて説明する図である。It is a figure explaining the fisheye lens. 全天球画像について説明する図である。It is a figure explaining the spherical image. 魚眼画像を射影変換する際に使用される変換テーブルを説明する図である。It is a figure explaining the conversion table used at the time of projective transformation of a fisheye image. 撮像素子により撮像された2つの魚眼画像の重複領域について説明する図の一例である。This is an example of a diagram illustrating an overlapping region of two fisheye images captured by an image sensor. 2つの矩形の画像データが合成された場合の重複領域を示す図の一例である。This is an example of a diagram showing an overlapping area when two rectangular image data are combined. 撮像装置が行う処理の全体の流れを説明するフローチャート図の一例である。This is an example of a flowchart for explaining the overall flow of processing performed by the image pickup apparatus. フレア画像の判断に使用される画像データの一例である。This is an example of image data used for determining a flare image. フレア画像の判断に必要な情報が算出された評価領域の一例である。This is an example of an evaluation area in which information necessary for determining a flare image is calculated. フレア画像判断部がフレア画像か否かを判断する処理を説明するフローチャート図の一例である。This is an example of a flowchart for explaining a process of determining whether or not the flare image determination unit is a flare image. フレア画像があると判断された場合の、初期状態の補正除外マップを示す図の一例である。This is an example of a diagram showing a correction exclusion map in the initial state when it is determined that there is a flare image. 補正除外マップを模式的に示す図の一例である。This is an example of a diagram schematically showing a correction exclusion map. 補正除外マップ作成部が補正除外マップを作成する手順を示すフローチャート図の一例である。This is an example of a flowchart showing a procedure in which the correction exclusion map creation unit creates a correction exclusion map. 補正量の算出方法を説明する図の一例である。It is an example of the figure explaining the calculation method of the correction amount. 重複領域の内側について補正マップを作成する方法を示す図の一例である。This is an example of a diagram showing a method of creating a correction map for the inside of the overlapping area. 従来技術として、重複領域の外側の補正マップを説明する図の一例である。As a prior art, this is an example of a diagram illustrating a correction map outside the overlapping region. 重複領域を示す図の一例である。It is an example of the figure which shows the overlap area. 重複領域、及び、重複領域の外側のケラレ領域の合成について説明する図の一例である。It is an example of the figure explaining the synthesis of the overlap region and the vignetting region outside the overlap region. 重複領域の外側の補正値の算出方法を示す図の一例である。It is an example of the figure which shows the calculation method of the correction value outside the overlap area. h'の別の求め方を説明する図の一例である。It is an example of a figure explaining another method of obtaining h'. 仮作成した補正マップ、補正除外対象マップ、及び、補正マップの一例を示す図である。It is a figure which shows an example of the correction map, the correction exclusion target map, and the correction map which were tentatively created. 補正マップを解像度の変換方法を説明する図の一例である。This is an example of a diagram illustrating a method of converting the resolution of the correction map. 合成画像生成部が合成画像を生成する処理の流れを説明するフローチャート図の一例である。This is an example of a flowchart for explaining the flow of processing in which the composite image generation unit generates a composite image.

以下、本発明を実施するための形態の一例として、撮像装置と撮像装置が行う補正方法について説明する。 Hereinafter, as an example of the embodiment for carrying out the present invention, the image pickup apparatus and the correction method performed by the image pickup apparatus will be described.

<用語について>
合成とは2つ以上のものを合わせてして1つのものにすることをいう。
<Terminology>
Synthesis means combining two or more things into one.

重複領域は2つの画像で同じ被写体が写っている領域である。このうち、更に、歪み等が少ない領域としてもよい。重複領域は画像ごとに一定でも可変でもよい。 The overlapping area is an area in which the same subject appears in two images. Of these, a region with less distortion and the like may be used. The overlapping area may be constant or variable for each image.

重複領域の内側とは、魚眼レンズで撮像され等距離射影方式等で射影された場合に像高hが小さくなる方向である。重複領域の外側とは像高hが大きくなる方向である。 The inside of the overlapping region is a direction in which the image height h becomes smaller when the image is captured by a fisheye lens and projected by an equidistant projection method or the like. The outside of the overlapping region is the direction in which the image height h increases.

補正量又は補正値とは、2つの画像の輝度や色など画像の見え方を近づけるに使用される値である。 The correction amount or correction value is a value used to bring the appearance of images closer to each other, such as the brightness and color of two images.

<構成例>
図1は、本実施例による撮像装置10を示す断面図である。図1に示す撮像装置10は、撮像体12と、撮像体12及びコントローラやバッテリなどの部品を保持する筐体14と、上記筐体14に設けられたシャッターボタン18とを備えている。
<Configuration example>
FIG. 1 is a cross-sectional view showing the image pickup apparatus 10 according to the present embodiment. The image pickup apparatus 10 shown in FIG. 1 includes an image pickup body 12, a housing 14 for holding the image pickup body 12, a controller, a battery, and other parts, and a shutter button 18 provided in the housing 14.

図1に示す撮像体12は、2つのレンズ光学系20A,20B(レンズ光学系20ともいう)と、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなどの2つの撮像素子22A,22B(撮像素子22ともいう)とを含む。本実施例において、レンズ光学系20と撮像素子22とを1個ずつ組み合わせたものを撮像光学系と称する。レンズ光学系20は、それぞれ、例えば6群7枚で魚眼レンズとして構成することができる。上記魚眼レンズは、図1に示す例では、180度(=360度/n;n=2)より大きい全画角を有し、好適には、185度以上の画角を有し、より好適には、190度以上の画角を有する。 The image sensor 12 shown in FIG. 1 includes two lens optical systems 20A and 20B (also referred to as lens optical system 20) and two image sensor 22A such as a CCD (Charge Coupled Device) sensor and a CMOS (Complementary Metal Oxide Semiconductor) sensor. , 22B (also referred to as an image sensor 22). In this embodiment, a combination of the lens optical system 20 and the image sensor 22 one by one is referred to as an image pickup optical system. The lens optical system 20 can be configured as a fisheye lens, for example, with 7 elements in 6 groups. In the example shown in FIG. 1, the fisheye lens has a total angle of view larger than 180 degrees (= 360 degrees / n; n = 2), preferably has an angle of view of 185 degrees or more, and is more preferable. Has an angle of view of 190 degrees or more.

2つのレンズ光学系20A,20Bの光学素子(レンズ、プリズム、フィルタ及び開口絞り)は、その光軸が、対応する撮像素子22の受光領域の中心部に直交して位置するように、かつ、受光領域が、対応する魚眼レンズの結像面となるように、撮像素子22A,22Bに対して位置関係が定められている。撮像素子22は、それぞれ、受光領域が面積エリアを成す2次元の撮像素子であり、組み合わせられるレンズ光学系20により集光された光を画像信号に変換する。 The optical elements (lens, prism, filter, aperture diaphragm) of the two lens optical systems 20A and 20B are positioned so that their optical axes are orthogonal to the central portion of the light receiving region of the corresponding image pickup element 22 and. The positional relationship with respect to the image pickup elements 22A and 22B is determined so that the light receiving region becomes the image plane of the corresponding fisheye lens. Each of the image pickup elements 22 is a two-dimensional image pickup element in which the light receiving region forms an area area, and converts the light collected by the combined lens optical system 20 into an image signal.

図1に示す実施例では、レンズ光学系20A,20Bは、同一仕様のものであり、それぞれの光軸が合致するように、互いに逆向きに組み合わせられる。撮像素子22A,22Bは、受光した光分布を画像信号に変換して、コントローラ上の画像処理手段に出力する。画像処理手段では、撮像素子22A,22Bからそれぞれ入力される撮像画像を繋ぎ合わせて合成し、立体角4πラジアンの画像(以下「全天球画像」と称する)を生成する。全天球画像は、撮像地点から見渡すことのできる全ての方向を撮像したものとなる。 In the embodiment shown in FIG. 1, the lens optical systems 20A and 20B have the same specifications, and are combined in opposite directions so that their optical axes match. The image pickup devices 22A and 22B convert the received light distribution into an image signal and output it to the image processing means on the controller. The image processing means joins and synthesizes the captured images input from the imaging elements 22A and 22B, respectively, to generate an image having a solid angle of 4π radians (hereinafter referred to as “all-sky image”). The spherical image is an image taken in all directions that can be seen from the imaging point.

上記したように、魚眼レンズが180度を超える全画角を有するため、全天球画像を構成する際には、各撮像光学系で撮像した撮像画像において、重複する画像部分が、同一像を表す基準データとして画像の繋ぎ合わせの参考とされる。生成された全天球画像は、例えば、撮像体12に備えられているか、又は撮像体12に接続されているディスプレイ装置、印刷装置、SD(登録商標)カードやコンパクトフラッシュ(登録商標)などの外部記憶媒体などに出力される。 As described above, since the fisheye lens has a total angle of view exceeding 180 degrees, when composing a spherical image, overlapping image portions represent the same image in the captured images captured by each imaging optical system. It is used as a reference for joining images as reference data. The generated spherical image can be, for example, a display device, a printing device, an SD (registered trademark) card, a compact flash (registered trademark), or the like provided in the image pickup body 12 or connected to the image pickup body 12. It is output to an external storage medium or the like.

<以下の画像処理を行う構成>
図2は、以下で説明する処理を実行する撮像装置10の構成例を示す。撮像装置10は、撮像素子1,2(符号は22A,22B)、受信部1,2(符号は23A,23B)、ISP(Image Signal Processing)1,2(符号は24A,24B)、SRAM25、輝度測定部26、画像処理部1、2(符号は27A,27B)、MEMC28、DRAM29、輝度補正回路30、任意変形回路31、画像処理部2(符号は32)、及び、送信部33を有している。
<Configuration to perform the following image processing>
FIG. 2 shows a configuration example of the image pickup apparatus 10 that executes the process described below. The image pickup device 10 includes image pickup elements 1 and 2 (reference numerals 22A and 22B), receivers 1 and 2 (reference numerals 23A and 23B), ISP (Image Signal Processing) 1 and 2 (reference numerals 24A and 24B), SRAM 25, and the like. It has a brightness measurement unit 26, an image processing unit 1 and 2 (reference numerals 27A and 27B), a MEMC28, a DRAM 29, a brightness correction circuit 30, an arbitrary deformation circuit 31, an image processing unit 2 (reference numeral 32), and a transmission unit 33. doing.

撮像素子1,2は図1の撮像素子22A,22Bが対応する。受信部1,2は撮像素子1,2から画像データを受け付けるチャンネルである。ISP1,2はRAWデータ(生データ)に対してホワイトバランス、ガンマ補正、ベイヤー補完、等を行う。画像処理部1は、レンズなど光学系の補正処理や、黒レベル補正、撮像素子のばらつき補正、傷補正などを行う。 The image sensors 1 and 2 correspond to the image sensors 22A and 22B of FIG. The receiving units 1 and 2 are channels that receive image data from the image sensors 1 and 2. ISPs 1 and 2 perform white balance, gamma correction, Bayer complementation, etc. on RAW data (raw data). The image processing unit 1 performs correction processing of an optical system such as a lens, black level correction, variation correction of an image sensor, scratch correction, and the like.

輝度測定部26はフレア画像の判断、補正除外マップの作成、及び、補正値の算出等を行う。MEMC28はメモリコントローラであり、DRAM29を使用して画像データの流れを制御する。輝度補正回路30は輝度測定部26の測定結果に応じて、全天球画像の輝度を補正する。任意変形回路31は画像データの変形を行う。画像処理部2は2つの魚眼画像を合成して正距円筒画像を作成する。送信部33は外部に画像データを送信したり、外部メモリに記憶したりする。 The luminance measurement unit 26 determines a flare image, creates a correction exclusion map, calculates a correction value, and the like. The MEMC 28 is a memory controller and uses the DRAM 29 to control the flow of image data. The brightness correction circuit 30 corrects the brightness of the spherical image according to the measurement result of the brightness measuring unit 26. The arbitrary transformation circuit 31 transforms the image data. The image processing unit 2 combines two fisheye images to create an equirectangular image. The transmission unit 33 transmits image data to the outside or stores it in an external memory.

<撮像装置が有する機能について>
図3は、撮像装置10が有する機能を説明する図である。図3に示すように、輝度測定部26はフレア画像判断部41、補正除外マップ作成部42、補正量算出部43、及び、領域外補正値算出部44を有する。輝度補正回路30は補正除外マップ適用部45、及び、補正部46を有する。画像処理部2は合成画像生成部47を有する。図3に示す各機能は、ハードウェア的に実現されるが、一部または全部の機能を、撮像装置10が有するSSD(Solid State Drive)などの記憶部に記憶されたプログラムをCPUが実行することで実現されてもよい。
<About the functions of the imaging device>
FIG. 3 is a diagram illustrating a function of the image pickup apparatus 10. As shown in FIG. 3, the luminance measurement unit 26 includes a flare image determination unit 41, a correction exclusion map creation unit 42, a correction amount calculation unit 43, and an out-of-region correction value calculation unit 44. The luminance correction circuit 30 has a correction exclusion map application unit 45 and a correction unit 46. The image processing unit 2 has a composite image generation unit 47. Each function shown in FIG. 3 is realized by hardware, but the CPU executes a program stored in a storage unit such as an SSD (Solid State Drive) included in the image pickup apparatus 10 for some or all of the functions. It may be realized by.

フレア画像判断部41は、2つの魚眼画像のうちフレアが含まれる画像があるか否かと、ある場合にはどちらがフレア画像かを判断する。補正除外マップ作成部42は、魚眼画像のうち補正すべきでない画素が特定された補正除外マップを作成する。補正量算出部43は、重複領域と重複領域の内側の補正量を算出する。領域外補正値算出部44は、重複領域の外側の補正値を算出する。補正除外マップ適用部45は補正除外マップを魚眼画像に適用する。補正部46は、補正が除外されていない画素に対し、補正量と補正値に基づく輝度の補正を行う(2つの魚眼画像の輝度が同程度になるように補正する)。合成画像生成部47は、2つの魚眼画像を1つの正距円筒画像に合成する。 The flare image determination unit 41 determines whether or not there is an image containing flare among the two fisheye images, and if so, which is the flare image. The correction exclusion map creation unit 42 creates a correction exclusion map in which pixels that should not be corrected in the fisheye image are specified. The correction amount calculation unit 43 calculates the overlapping area and the correction amount inside the overlapping area. The out-of-region correction value calculation unit 44 calculates the correction value outside the overlapping region. The correction exclusion map application unit 45 applies the correction exclusion map to the fisheye image. The correction unit 46 corrects the brightness of the pixels for which the correction is not excluded based on the correction amount and the correction value (correction is performed so that the brightness of the two fisheye images is about the same). The composite image generation unit 47 synthesizes two fisheye images into one equirectangular image.

<魚眼レンズを使って撮像される魚眼画像について>
図4を参照して、魚眼レンズについて説明する。なお、魚眼レンズ11は同様のものであるため、図4では1つの魚眼レンズ11のみ説明する。180°を超える画角をもつ魚眼レンズを有する撮像素子22A,22Bで撮像された魚眼画像は、撮像位置を中心として、略半球分の被写体の画像となる。
<About fisheye images taken with a fisheye lens>
A fisheye lens will be described with reference to FIG. Since the fisheye lens 11 is the same, only one fisheye lens 11 will be described in FIG. The fisheye image captured by the image sensors 22A and 22B having the fisheye lens having an angle of view of more than 180 ° is an image of a subject substantially hemisphere centered on the image pickup position.

ここで、図4(a)に示すように、魚眼レンズ11への光の入射角度をφ、画像の中心と像点との距離を像高h、射影関数をfとすると、これらの関係は、下記式(A)のように表すことができる。 Here, as shown in FIG. 4A, assuming that the angle of incidence of light on the fisheye lens 11 is φ, the distance between the center of the image and the image point is the image height h, and the projection function is f, these relationships are established. It can be expressed as the following formula (A).

h=f(φ)・・・式(A) h = f (φ) ・ ・ ・ Equation (A)

射影関数fは、魚眼レンズ11の性質により異なり、例えば、等距離射影方式の魚眼レンズを採用した場合、図4(b)に示すように、入射角度φが矢線に示すように大きくなる程、像高hが大きくなるという比例関係で表される。なお、図4(b)において円の外側の黒く塗り潰された領域は、光が入射されない領域である。 The projection function f differs depending on the properties of the fisheye lens 11. For example, when an equidistant projection type fisheye lens is adopted, as shown in FIG. 4B, the larger the incident angle φ is as shown by the arrow line, the more the image is displayed. It is expressed as a proportional relationship in which the high h increases. In FIG. 4B, the black-filled region outside the circle is a region where light is not incident.

魚眼レンズ11は、180°を超える画角をもっているため、撮像素子22A,22Bで撮像された魚眼画像には、重複領域が含まれる。 Since the fisheye lens 11 has an angle of view of more than 180 °, the fisheye images captured by the image pickup devices 22A and 22B include overlapping regions.

次に、図5を参照して、全天球画像について説明する。魚眼画像は、図5(a)に示す略半分の球面を円形で表したフォーマットを有し、地球儀でいう経度が水平角度θに相当し、緯度が垂直角度φに相当している。水平角度θは0〜360°の範囲とされ、垂直角度φは、0〜180°の範囲とされている。 Next, the spherical image will be described with reference to FIG. The fish-eye image has a format in which approximately half of the spherical surface shown in FIG. 5A is represented by a circle, the longitude in the globe corresponds to the horizontal angle θ, and the latitude corresponds to the vertical angle φ. The horizontal angle θ is in the range of 0 to 360 °, and the vertical angle φ is in the range of 0 to 180 °.

全天球画像は、図5(b)に示す矩形で表したフォーマットとされ、水平方向が水平角度、垂直方向が垂直角度とされる2つの半天球画像を撮像装置が合成することにより生成される画像である。実際には、重複領域がある分、半天球画像より大きい画像であるが、ここでは半天球画像と呼ぶものとする。 The spherical image is in the format represented by the rectangle shown in FIG. 5B, and is generated by the imaging device combining two hemispherical images in which the horizontal direction is the horizontal angle and the vertical direction is the vertical angle. It is an image. Actually, the image is larger than the hemispherical image due to the overlapping area, but here, it is called a hemispherical image.

2つの半天球画像は、魚眼画像の水平角度と垂直角度に対応する画素が有する画素値と同じ画素値を、図5(b)に示す矩形で表したフォーマットの同じ水平角度と垂直角度に対応する画素が有する画像として生成される。この半天球画像は、撮像装置10が魚眼画像を射影変換することにより生成することができ、生成した2つの半天球画像を結合することで、水平方向及び垂直方向に360°の全方位を表す全天球画像を生成することができる。 The two hemispherical images have the same pixel values as the pixels corresponding to the horizontal and vertical angles of the fisheye image, but have the same horizontal and vertical angles in the rectangular format shown in FIG. 5 (b). It is generated as an image that the corresponding pixel has. This hemispherical image can be generated by the imaging device 10 projecting and transforming the fisheye image, and by combining the two generated hemispherical images, 360 ° omnidirectional directions can be obtained in the horizontal and vertical directions. It is possible to generate a spherical image to represent.

魚眼画像を射影変換する際に使用される変換テーブルを、図6に例示する。変換テーブルは、図6(a)に示すように、変更前画像である魚眼画像の水平角度と垂直角度の値である座標値と、変更後画像である半天球画像の座標値とを画素ごとに対応付けたテーブルである。変更前画像の座標値は、(x,y)で表され、変更後画像の座標値は、(θ,φ)で表される。図6(b)に示すように、いずれの画像も左上隅の座標(0,0)を基準とし、変更前画像における画素と、変更後画像における対応する画素とを決定し、それらの画素の座標値の組み合わせを、変換テーブルにデータとして保持する。対応関係は、変換前画像と変換後画像との射影関係から求めることができる。 A conversion table used for projective transformation of a fisheye image is illustrated in FIG. As shown in FIG. 6A, the conversion table pixels the coordinate values of the horizontal and vertical angles of the fisheye image, which is the image before the change, and the coordinate values of the hemispherical image, which is the image after the change. It is a table associated with each. The coordinate value of the image before the change is represented by (x, y), and the coordinate value of the image after the change is represented by (θ, φ). As shown in FIG. 6B, in each image, the pixels in the image before the change and the corresponding pixels in the image after the change are determined based on the coordinates (0.0) in the upper left corner, and the pixels of those pixels are determined. The combination of coordinate values is stored as data in the conversion table. The correspondence relationship can be obtained from the projection relationship between the pre-conversion image and the post-conversion image.

変換テーブルは、2つの魚眼レンズ11、及び撮像素子22A,22Bの各々に対してレンズ設計データ等を基に設計者等が事前に作成することができ、図2に示したSRAM25に格納しておき、撮像装置10が必要に応じて読み出して使用することができる。この変換テーブルを用いることで、魚眼画像を射影変換して、魚眼画像の歪みを補正することができる。この補正をした画像を結合することで、全天球画像を生成することができる。 The conversion table can be created in advance by the designer or the like based on the lens design data or the like for each of the two fisheye lenses 11 and the image sensors 22A and 22B, and is stored in the SRAM 25 shown in FIG. , The image sensor 10 can read and use it as needed. By using this conversion table, the fisheye image can be projected and transformed to correct the distortion of the fisheye image. By combining the corrected images, a spherical image can be generated.

全天球画像を生成する処理の流れについて説明する。2つの撮像素子22A,22Bにより2つの魚眼画像を撮像し、2つの魚眼画像が入力されることにより、処理が開始される。まず、合成画像生成部47は、SRAM25に格納された図6(a)に示したような変換テーブルを用いて各魚眼画像を射影変換して歪み補正を行う。この歪み補正により、図6(b)に示す半天球画像が2つ得られる。 The flow of the process for generating the spherical image will be described. The processing is started by capturing two fisheye images with the two image sensors 22A and 22B and inputting the two fisheye images. First, the composite image generation unit 47 performs a distortion correction by projecting and transforming each fisheye image using a conversion table as shown in FIG. 6A stored in the SRAM 25. By this distortion correction, two hemispherical images shown in FIG. 6B can be obtained.

次に、合成画像生成部47は、得られた2つの半天球画像の重複領域で繋ぎ合わせるために、繋ぎ位置の検出を行う。繋ぎ位置の検出結果に基づき、上記の変換テーブルを補正する。次に、合成画像生成部47は、補正した変換テーブルに対して回転変換を行い、画像生成用の変換テーブルを作成する。なお、回転変換を行う目的は、画像生成用の変換テーブルにおいて、画像の上下方向と、撮像装置10の天頂方向とを一致させるためである。 Next, the composite image generation unit 47 detects the connection position in order to connect the two obtained hemispherical images in the overlapping region. The above conversion table is corrected based on the detection result of the connection position. Next, the composite image generation unit 47 performs rotation conversion on the corrected conversion table to create a conversion table for image generation. The purpose of the rotation conversion is to match the vertical direction of the image with the zenith direction of the image pickup apparatus 10 in the conversion table for image generation.

次に、合成画像生成部47は、2つの魚眼画像に対して、画像生成用の変換テーブルを用いて射影変換を行い、画像の歪みを補正する。そして、歪みが補正された2つの画像を合成するためのブレンド処理を実行する。2つの画像は、その重複領域において結合されるが、一方の画像の重複領域にしかデータが存在しない場合、そのデータをそのまま使用して結合を行う。以上の流れにより全天球画像が生成する。 Next, the composite image generation unit 47 performs projective transformation on the two fisheye images using a conversion table for image generation, and corrects the distortion of the images. Then, a blending process for synthesizing the two distortion-corrected images is executed. The two images are combined in the overlapping area, but when the data exists only in the overlapping area of one image, the data is used as it is for the combination. A spherical image is generated by the above flow.

<重複領域について>
図7(a)(b)を参照して、撮像素子22A,22Bにより撮像された2つの魚眼画像13A及び14aの重複領域について説明する。
<About overlapping areas>
The overlapping region of the two fisheye images 13A and 14a captured by the image pickup devices 22A and 22B will be described with reference to FIGS. 7A and 7B.

図7(a)は、撮像素子22A,22Bで撮像された魚眼画像13A及び14aで、黒く塗り潰された領域は、光が入射されない領域、白い領域が入射角度90°までの領域、斜線で示される領域が入射角度90°を超える領域を示している。 FIG. 7A shows fisheye images 13A and 14a captured by the image sensors 22A and 22B. The black areas are areas where light is not incident, the white areas are areas up to an incident angle of 90 °, and diagonal lines. The region shown indicates a region where the incident angle exceeds 90 °.

図7(a)の斜線で示される領域は、2つの魚眼画像の重複する画像領域を示すことから、重複領域として定義することができる。しかしながら、魚眼レンズ11は、像高hが大きくなり、像点が画像の中心から離れるほど歪みや収差が発生しやすくなる。また、魚眼レンズ11の周囲の外枠等が写り込む場合もある。歪みや収差が発生した領域や外枠等の画像は、画像を繋ぎ合わせるために使用することはできない。 The area shown by the diagonal line in FIG. 7 (a) can be defined as an overlapping area because it indicates an overlapping image area of the two fisheye images. However, in the fisheye lens 11, the image height h becomes large, and the farther the image point is from the center of the image, the more likely it is that distortion or aberration occurs. In addition, the outer frame or the like around the fisheye lens 11 may be reflected. Images such as areas where distortion and aberration have occurred and outer frames cannot be used to join the images together.

そこで、図7(b)に示すように、重複領域50としては、その内側の所定幅を有する縦縞で示されるリング状の領域に限定することができる。これは、像点が画像の中心から離れるほど歪みや収差が発生しやすいこと、及び、魚眼レンズの外枠などが移りこむ可能性があるためである。したがって図7(b)に示すように重複領域50は、その内側の所定幅を有する斜線でしめされた領域に限定される。 Therefore, as shown in FIG. 7B, the overlapping region 50 can be limited to a ring-shaped region represented by vertical stripes having a predetermined width inside the overlapping region 50. This is because distortion and aberration are likely to occur as the image point is farther from the center of the image, and the outer frame of the fisheye lens may be displaced. Therefore, as shown in FIG. 7B, the overlapping region 50 is limited to the diagonally shaded region having a predetermined width inside the overlapping region 50.

ちなみに、図7(b)の2つの魚眼画像13A及び14aは、撮像素子22A,22Bを同時に露光し、撮像しているため、重複領域50は基本的に同じ被写体の画像となる。重複領域50は画素単位で設定されることが好ましい。画素単位で設定することにより、光学設計における誤差によるずれを吸収することができる。 Incidentally, since the two fisheye images 13A and 14a in FIG. 7B expose and image the image pickup elements 22A and 22B at the same time, the overlapping region 50 is basically an image of the same subject. The overlapping region 50 is preferably set on a pixel-by-pixel basis. By setting in pixel units, it is possible to absorb deviations due to errors in optical design.

図8は、2つの矩形の画像データが合成された場合の重複領域50を示す。前述したように魚眼画像を合成画像生成部47が歪み補正することで矩形の画像データを得ることができる。合成画像生成部47が2つの魚眼画像を矩形画像データへと歪み補正し、重複領域50を重ねたものが図8である。 FIG. 8 shows an overlapping region 50 when two rectangular image data are combined. As described above, the composite image generation unit 47 corrects the distortion of the fisheye image to obtain rectangular image data. FIG. 8 shows a composite image generation unit 47 that distorts and corrects two fisheye images into rectangular image data and superimposes overlapping regions 50.

重複領域50では、2つの矩形の画像データの同じ被写体が重なるように、テンプレートマッチングなどの処理で類似箇所が検出される。テンプレートマッチングを行う単位は任意の分割画像サイズ単位でよい。テンプレートマッチングで相対位置が決まると、合成画像生成部47が2枚の画像をブレンド処理で合成する。以上で、全天球画像を得る。 In the overlapping area 50, similar parts are detected by processing such as template matching so that the same subject of two rectangular image data overlaps. The unit for performing template matching may be any divided image size unit. When the relative position is determined by template matching, the composite image generation unit 47 synthesizes the two images by blending. With the above, the spherical image is obtained.

なお、図6〜図8の処理は実際には魚眼画像の輝度補正の後に行われるが、重複領域50を説明するためにここで説明した。 Although the processing of FIGS. 6 to 8 is actually performed after the brightness correction of the fisheye image, it has been described here to explain the overlapping region 50.

<処理の全体>
図9は撮像装置10が行う処理の全体の流れを説明するフローチャート図の一例である。撮像装置10は画像処理部1が処理した2つの魚眼画像に対し、フレア画像の判断(ステップS1)、補正除外マップの作成(ステップS2)、補正量の算出(ステップS3)、重複領域外の補正値の算出(ステップS4)、補正除外マップの適用(ステップS5)、補正(ステップS6)、及び、合成画像の生成(ステップS7)を行う。以下では、各処理を詳細に説明する。
<Whole processing>
FIG. 9 is an example of a flowchart for explaining the overall flow of processing performed by the image pickup apparatus 10. The image pickup apparatus 10 determines a flare image (step S1), creates a correction exclusion map (step S2), calculates a correction amount (step S3), and outside the overlapping region for the two fisheye images processed by the image processing unit 1. Calculation of the correction value (step S4), application of the correction exclusion map (step S5), correction (step S6), and generation of a composite image (step S7) are performed. Each process will be described in detail below.

<S1 フレア画像の判断>
図10〜図12を参照して、フレア画像の判断方法を説明する。図10はフレア画像の判断に使用される画像データである。前述したように魚眼画像において、画像外枠付近は重複領域50となっている。フレア画像判断部41はこの重複領域50の画素値に基づいて、2枚の魚眼画像のどちらがフレア画像かを判断する。入力画像データフォーマットはRGBでもよいし、YCbCrでもよい。
<Judgment of S1 flare image>
A method of determining a flare image will be described with reference to FIGS. 10 to 12. FIG. 10 is image data used for determining a flare image. As described above, in the fisheye image, the area near the outer frame of the image is the overlapping area 50. The flare image determination unit 41 determines which of the two fisheye images is the flare image based on the pixel value of the overlapping region 50. The input image data format may be RGB or YCbCr.

まず、フレア画像判断部41は入力された魚眼画像に対し、図10のようなエリア単位で処理を行う。エリア201の大きさはレジスタ等で任意の値に設定されている。上下左右に等間隔で区分された1つのマスがエリア201である。フレア画像判断部41はエリア単位で画素値の平均値や分散値などのフレア画像の判断に必要な情報の算出を行う。 First, the flare image determination unit 41 processes the input fisheye image in area units as shown in FIG. The size of the area 201 is set to an arbitrary value by a register or the like. Area 201 is one cell divided at equal intervals on the top, bottom, left, and right. The flare image determination unit 41 calculates information necessary for determining a flare image, such as an average value of pixel values and a dispersion value, for each area.

図11は、フレア画像の判断に必要な情報が算出された評価領域202である。平均値は算出したエリアが画像データのどこに位置するかで異なる。上記のように、フレア画像判断部41は2枚の魚眼画像のうち、どちらが補正対象であるかを判断するために重複領域付近の評価領域202の算出値を用いる。 FIG. 11 is an evaluation area 202 in which the information necessary for determining the flare image is calculated. The average value differs depending on where the calculated area is located in the image data. As described above, the flare image determination unit 41 uses the calculated value of the evaluation region 202 near the overlapping region in order to determine which of the two fisheye images is the correction target.

具体的には2枚の魚眼画像において、フレア画像判断部41は、同じ被写体が写っているエリア同士の平均値や分散値の差分の絶対値を求め、その値が閾値を超える場合、フレア画像があると判断する。また、平均や分散が大きい方の魚眼画像を補正対象画像(フレア画像)であると判断することができる。一方が補正対象画像(第二の画像の一例)であれば、他方の画像を補正基準画像(第一の画像の一例)として決定する。 Specifically, in two fisheye images, the flare image determination unit 41 obtains the absolute value of the difference between the average value and the dispersion value of the areas in which the same subject appears, and when the value exceeds the threshold value, flare Judge that there is an image. Further, it can be determined that the fisheye image having the larger average or variance is the image to be corrected (flare image). If one is the image to be corrected (an example of the second image), the other image is determined as the correction reference image (an example of the first image).

基本的に同時露光により撮像した場合、重複領域50は同じ被写体の画像が同じ明るさで撮像されるはずであるが、一方の画像にフレアが発生している際は重複領域50の平均値が大きくなるため、前述した閾値を設け、その閾値より大きい魚眼画像をフレア画像であると判断する。 Basically, when images are taken by simultaneous exposure, the images of the same subject should be taken with the same brightness in the overlapping area 50, but when flare occurs in one of the images, the average value of the overlapping areas 50 is Since it becomes large, the above-mentioned threshold value is set, and a fisheye image larger than the threshold value is judged to be a flare image.

図12は、フレア画像判断部41がフレア画像か否かを判断する処理を説明するフローチャート図の一例である。 FIG. 12 is an example of a flowchart for explaining a process of determining whether or not the flare image determination unit 41 is a flare image.

フレア画像判断部41は重複領域50の付近の評価領域202の輝度値に対し例えば平均値を算出する(S1−1)。フレア画像判断部41は2つの魚眼画像の輝度値の平均値を比較する(S1−2)。 The flare image determination unit 41 calculates, for example, an average value with respect to the brightness value of the evaluation region 202 near the overlapping region 50 (S1-1). The flare image determination unit 41 compares the average value of the brightness values of the two fisheye images (S1-2).

次に、フレア画像判断部41は平均値の差分が閾値より大きいか否かを判断する(S1−3)。 Next, the flare image determination unit 41 determines whether or not the difference between the average values is larger than the threshold value (S1-3).

平均値の差分が閾値より大きい場合、フレア画像判断部41は平均値が大きい方をフレア画像と判断する(S1−4)。平均値が小さい方を補正基準画像と判断する。 When the difference between the average values is larger than the threshold value, the flare image determination unit 41 determines that the larger average value is the flare image (S1-4). The one with the smaller average value is judged to be the correction reference image.

平均値の差分が閾値以下の場合、フレア画像判断部41はフレア画像ではないと判断する(S1−5)。 When the difference between the average values is equal to or less than the threshold value, the flare image determination unit 41 determines that the flare image is not a flare image (S1-5).

<S2 補正除外マップの作成>
図13〜図15は、補正除外マップの作成方法を説明する図である。図13はフレア画像があると判断された場合の、初期状態の補正除外マップを示す図である。フレア画像に対して補正部46が補正を行う際、フレア画像全体を補正するため、画像が全体的に暗くなる。すると、2枚の魚眼画像を結合した場合に目で見て不自然な画像になることがある。そこでフレア補正をする必要がない箇所(光源など)を区別するために、補正除外マップ作成部42が補正除外マップを作成する。
<Creation of S2 correction exclusion map>
13 to 15 are diagrams illustrating a method of creating a correction exclusion map. FIG. 13 is a diagram showing a correction exclusion map in an initial state when it is determined that there is a flare image. When the correction unit 46 corrects the flare image, the entire flare image is corrected, so that the image becomes dark as a whole. Then, when the two fisheye images are combined, the image may be visually unnatural. Therefore, in order to distinguish the parts (light source, etc.) that do not need to be flared corrected, the correction exclusion map creation unit 42 creates a correction exclusion map.

補正除外マップは前述した重複領域外の魚眼画像内のエリアにおける輝度値最大値で求めることができる。補正除外領域の条件は、
(i) 「閾値より高輝度かつ無彩色」又は
(ii) 「閾値より高輝度かつ輝度の最大値が閾値以上」
とする。補正除外マップ作成部42はこの判断をマス状のエリア201ごとに行う。高輝度であるか否かの閾値はレジスタ等で設定できるとしてもよい。
The correction exclusion map can be obtained by the maximum brightness value in the area in the fisheye image outside the overlapping area described above. The condition of the correction exclusion area is
(i) "Brighter than threshold and achromatic" or
(ii) "Brightness higher than the threshold value and the maximum value of the brightness is above the threshold value"
And. The correction exclusion map creation unit 42 makes this determination for each square area 201. The threshold value for whether or not the brightness is high may be set by a register or the like.

補正除外条件としては(i)(ii)の両方で判断することが望ましい。1つの評価領域全体が均一な輝度や色を有している場合は(i)のみで判断することができる。しかし、1つの評価領域内に光源などの高輝度の被写体と木などの低輝度の被写体が存在する場合、(i)に適合しなくなるため、光源の画像が補正され、光源が暗く不自然な画像になってしまうからである。(ii)を含めることで光源と木などを含む画像も補正除外領域として適切に抽出できる。 It is desirable to judge both (i) and (ii) as the correction exclusion condition. When the entire evaluation area has uniform brightness and color, it can be judged only by (i). However, if a high-brightness subject such as a light source and a low-brightness subject such as a tree exist in one evaluation area, the image of the light source is corrected because it does not conform to (i), and the light source is dark and unnatural. This is because it becomes an image. By including (ii), an image including a light source and a tree can be appropriately extracted as a correction exclusion area.

図14は、補正除外マップを模式的に示す。補正除外マップは補正の対象から除外するかしないかをフラグ(1,0)の値で示す。補正除外マップは補正対象画像が複数のエリア201に分割された際と同様に分割されている。補正除外マップ作成部42は補正除外するエリアに1を配置し、そうでないブロックには0を配置する。また補正除外マップには、除外するか否かを示すフラグ1、0だけでなく、ブロックごとの画素値の平均値又は分散値も格納される。 FIG. 14 schematically shows a correction exclusion map. The correction exclusion map indicates whether or not to exclude it from the correction target by the value of the flag (1,0). The correction exclusion map is divided in the same manner as when the correction target image is divided into a plurality of areas 201. The correction exclusion map creation unit 42 arranges 1 in the area to be corrected and excluded, and 0 in the block that does not. Further, the correction exclusion map stores not only the flags 1 and 0 indicating whether or not to exclude, but also the average value or the variance value of the pixel values for each block.

補正除外マップは図2に示されたように外部記憶装置(SRAM25)に格納されてもよいし、レジスタとして回路内に保持してもかまわない。 The correction exclusion map may be stored in the external storage device (SRAM 25) as shown in FIG. 2, or may be stored in the circuit as a register.

図15は、補正除外マップ作成部42が補正除外マップを作成する手順を示すフローチャート図の一例である。 FIG. 15 is an example of a flowchart showing a procedure in which the correction exclusion map creation unit 42 creates a correction exclusion map.

補正除外マップ作成部42は、補正対象画像について、エリア201に分割された初期状態の補正除外マップを作成する(S2−1)。 The correction exclusion map creation unit 42 creates a correction exclusion map in the initial state divided into areas 201 for the correction target image (S2-1).

補正除外マップ作成部42は、エリアごとに上記(i)(ii)の判断条件に基づいて、補正の除外対象かどうかを判断する(S2−2)。 The correction exclusion map creation unit 42 determines whether or not the correction is excluded from the correction based on the judgment conditions (i) and (ii) above for each area (S2-2).

補正除外対象の場合、補正除外マップ作成部42は、着目しているエリアにフラグ1を設定する(S2−3)。 In the case of the correction exclusion target, the correction exclusion map creation unit 42 sets the flag 1 in the area of interest (S2-3).

補正除外対象でない場合、補正除外マップ作成部42は、着目しているエリアにフラグ0を設定する(S2−4)。 If it is not the correction exclusion target, the correction exclusion map creation unit 42 sets the flag 0 in the area of interest (S2-4).

また、補正除外マップ作成部42は、着目しているエリアに評価値(平均値又は分散値)も設定する(S2−5)。 The correction exclusion map creation unit 42 also sets an evaluation value (average value or variance value) in the area of interest (S2-5).

補正除外マップ作成部42は、全てのエリアを終了したか否かを判断し(S2−6)、終了していない場合はステップS2−2に戻る。 The correction exclusion map creation unit 42 determines whether or not all the areas have been completed (S2-6), and if not, returns to step S2-2.

<S3 補正量の算出>
図16は補正量の算出方法を説明する図である。補正量の算出はフレア画像と基準画像の重複領域50を比較して行われる。図16(a)(b)では、魚眼画像13Aと13Bの重複領域50で繋ぎ合わせられる領域210,211を破線枠で示している。図16(c)(d)は各領域210,211の拡大図を示している。
<Calculation of S3 correction amount>
FIG. 16 is a diagram illustrating a method of calculating the correction amount. The correction amount is calculated by comparing the overlapping region 50 of the flare image and the reference image. In FIGS. 16A and 16B, the regions 210 and 211 connected by the overlapping region 50 of the fisheye images 13A and 13B are shown by a broken line frame. 16 (c) and 16 (d) show enlarged views of the regions 210 and 211, respectively.

全天球撮像カメラでは2つの撮像素子が背中合わせになっているので、魚眼画像13Aと13Bを背中合わせにした場合に同じ位置の領域210,211に同じ被写体が写る。図16(c)(d)のA〜Lは2つの魚眼画像13A,13Bで対応する画素を示す。 Since the two image sensors are back-to-back in the spherical image sensor, the same subject appears in the areas 210 and 211 at the same position when the fisheye images 13A and 13B are back-to-back. A to L in FIGS. 16C and 16D show corresponding pixels in the two fisheye images 13A and 13B.

2つの魚眼画像を繋ぎ合わせる際、図11で示された評価領域202の値は、一方はフレアが発生しているため高い値、もう一方がそれより低い値を示す。補正量算出部43はこれを同じ値にするような補正を行う。補正に用いる値は以下の式(1)(2)のいずれかにより算出される。
補正量 = 基準画像の評価値/フレア画像の評価値 …(1)
補正量 = 基準画像の評価値 − フレア画像の評価値 …(2)
式(1)は比率を補正量とし、式(2)は差分を補正量とする。補正量の求め方に応じて補正部46が行う補正方法も変わる。補正量算出部43は算出された補正量の値をフレア画像の図11の評価領域202に格納する。補正量算出部43はこの処理を全ての重複領域50に対して実施する。
When joining the two fisheye images, the value of the evaluation region 202 shown in FIG. 11 shows a high value because flare has occurred on one side and a lower value on the other side. The correction amount calculation unit 43 makes a correction so as to make this the same value. The value used for correction is calculated by any of the following equations (1) and (2).
Correction amount = Evaluation value of reference image / Evaluation value of flare image… (1)
Correction amount = Evaluation value of reference image − Evaluation value of flare image… (2)
Equation (1) uses the ratio as the correction amount, and equation (2) uses the difference as the correction amount. The correction method performed by the correction unit 46 also changes depending on how the correction amount is obtained. The correction amount calculation unit 43 stores the calculated correction amount value in the evaluation area 202 of FIG. 11 of the flare image. The correction amount calculation unit 43 performs this process on all the overlapping areas 50.

<S4 重複領域外の補正値の算出>
図17〜図22は補正マップと重複領域外の補正値の算出を説明する図である。図17は重複領域50の内側について補正マップを作成する方法を示す。補正マップの算出方法は、図17に示すように重複領域50に関して算出された補正量の値をもとに画像中心方向に向かって距離による重み付け演算を行う方法である。中心に近いほど、補正量が小さくなる。補正量算出部43このようにして、重複領域内側の補正マップを仮作成する。仮作成なので、最終的な補正マップは後に作成される。
<S4 Calculation of correction value outside the overlapping area>
17 to 22 are diagrams for explaining the calculation of the correction value outside the overlap area with the correction map. FIG. 17 shows a method of creating a correction map for the inside of the overlapping region 50. As shown in FIG. 17, the correction map is calculated by performing a weighting calculation based on the distance toward the center of the image based on the value of the correction amount calculated for the overlapping region 50. The closer to the center, the smaller the correction amount. Correction amount calculation unit 43 In this way, the correction map inside the overlapping region is temporarily created. Since it is a temporary creation, the final correction map will be created later.

図18は、従来技術(特許文献2)として、重複領域50の外側の補正マップを説明する図である。重複領域50の外側について、従来、重複領域50の値をそのままコピーする方法がある。図18におけるxの画素は1つ上の画素の補正量と同値を用い、yの画素は1つ左の画素の補正量と同値を用いる。しかしながらこの補正方法では、光量の違いによる繋ぎ目の輝度色差を補正しきれない。 FIG. 18 is a diagram illustrating a correction map outside the overlapping region 50 as a prior art (Patent Document 2). Conventionally, there is a method of copying the value of the overlapping area 50 as it is on the outside of the overlapping area 50. In FIG. 18, the pixel x uses the same value as the correction amount of the pixel one above, and the pixel y uses the same value as the correction amount of the pixel one left. However, this correction method cannot completely correct the brightness color difference of the joint due to the difference in the amount of light.

図19、図20を参照して、従来の重複領域50の外側の補正マップの作成方法が好ましくない理由を説明する。図19は重複領域50を示す図である。図19(a)(b)に示すように重複領域50は入力された2枚の魚眼画像における有効画像領域51とケラレ領域52A,52Bの境目より内側に取られている。ケラレ領域とは画面の隅にレンズフードやフィルターが黒く写り込んでしまう領域をいう。 With reference to FIGS. 19 and 20, the reason why the conventional method of creating the correction map outside the overlapping region 50 is not preferable will be described. FIG. 19 is a diagram showing an overlapping region 50. As shown in FIGS. 19A and 19B, the overlapping region 50 is taken inside the boundary between the effective image region 51 and the vignetting regions 52A and 52B in the two input fisheye images. The vignetting area is the area where the lens hood and filter appear black in the corners of the screen.

上記のように、重複領域50を元に2つの魚眼画像13A,13Bは射影変換により1つの正距円筒画像に変換される。合成の際、重複領域50をアルファブレンドにおけるα=50%で合成画像生成部47は合成する。合成時、図19(c)(d)に示すように、重複領域50の外側のケラレ領域52A,52Bは破棄されるわけではない。実際はα<50%以下の値で、もう一方の魚眼画像との合成に使用される領域となっている。 As described above, the two fisheye images 13A and 13B are converted into one equirectangular image by the projective transformation based on the overlapping region 50. At the time of compositing, the composite image generation unit 47 synthesizes the overlapping region 50 at α = 50% in the alpha blend. At the time of synthesis, as shown in FIGS. 19 (c) and 19 (d), the vignetting regions 52A and 52B outside the overlapping region 50 are not discarded. Actually, the value is α <50% or less, which is the region used for compositing with the other fisheye image.

図20は重複領域50、及び、重複領域50の外側のケラレ領域52A,52Bの合成について説明する図である。図20(a)は図19の魚眼画像13Aの正距円筒画像であり、図20(b)は図19の魚眼画像13Bの正距円筒画像である。帯状のハッチングは重複領域50と、重複領域50の外側のケラレ領域52A,52Bを表している。上記のように、魚眼画像13A、13Bの重複領域50はα=50%で合成され、ケラレ領域52Aは魚眼画像13Bとα<50%で合成され、ケラレ領域52Bは魚眼画像13Aとα<50%で合成される。図20(c)は2つの画像の合成で得られた1つの正距円筒画像を示す。 FIG. 20 is a diagram illustrating the synthesis of the overlapping region 50 and the vignetting regions 52A and 52B outside the overlapping region 50. 20 (a) is an equirectangular image of the fisheye image 13A of FIG. 19, and FIG. 20 (b) is an equirectangular image of the fisheye image 13B of FIG. The band-shaped hatching represents the overlapping region 50 and the vignetting regions 52A and 52B outside the overlapping region 50. As described above, the overlapping region 50 of the fisheye images 13A and 13B is synthesized with α = 50%, the vignetting region 52A is synthesized with the fisheye image 13B and α <50%, and the vignetting region 52B is combined with the fisheye image 13A. Synthesized with α <50%. FIG. 20 (c) shows one equirectangular image obtained by synthesizing two images.

重複領域50の画素値は補正マップの値をh、補正対象を魚眼画像13A側とした場合、以下で示される。ただし、h=pixB/pixA α=50%の重複領域50とする。
pixo = α x pixA x h + (1−α) x pixB
このように重複領域50の外側も合成に使用されるため、重複領域50の外側の補正値を、重複領域50の補正値をコピーするだけだと合成画像のつなぎ目部分に輝度段差が発生する可能性がある。
The pixel value of the overlapping region 50 is shown below when the value of the correction map is h and the correction target is the fisheye image 13A side. However, the overlapping area 50 of h = pixB / pixA α = 50% is set.
pixo = α x pixA xh + (1−α) x pixB
Since the outside of the overlapping area 50 is also used for compositing in this way, if the correction value outside the overlapping area 50 is simply copied from the correction value of the overlapping area 50, a brightness step may occur at the joint portion of the composite image. There is sex.

そこで本実施形態では、領域外補正値算出部44が重複領域50の外側も演算によって補正マップを作成する。具体的には補正対象ではない画像の重複領域50の内側の補正値を求めることで、補正対象の画像の外側の補正値を求める。 Therefore, in the present embodiment, the out-of-area correction value calculation unit 44 also creates a correction map by calculation outside the overlapping area 50. Specifically, by obtaining the correction value inside the overlapping region 50 of the image that is not the correction target, the correction value outside the image to be corrected is obtained.

図21は、重複領域50の外側の補正値の算出方法を示す。図21のように一方の魚眼画像13Aにおける重複領域50の内側は他方の魚眼画像13Bの重複領域50の外側に対応する(図20参照)。このことを用いて、領域外補正値算出部44は重複領域50の外側の補正値を求める。なお、図21では魚眼画像13Bをフレア画像とする。補正値hは比較画像(フレア画像)の重複領域50の外側の画素の補正値である。
・補正値h = 比較画像(フレア画像)の重複領域の外側の画素値 / 基準画像の重複領域の内側の画素値 …(3)
魚眼画像13Bの重複領域50の外側の画素a'〜o'の補正値は、このhである。
FIG. 21 shows a method of calculating the correction value outside the overlapping region 50. As shown in FIG. 21, the inside of the overlapping region 50 in one fisheye image 13A corresponds to the outside of the overlapping region 50 in the other fisheye image 13B (see FIG. 20). Using this, the out-of-region correction value calculation unit 44 obtains the correction value outside the overlapping region 50. In FIG. 21, the fisheye image 13B is used as a flare image. The correction value h is a correction value of the pixels outside the overlapping region 50 of the comparative image (flare image).
-Correction value h = Pixel value outside the overlapping area of the comparison image (flare image) / Pixel value inside the overlapping area of the reference image ... (3)
The correction value of the pixels a'to o'outside the overlapping region 50 of the fisheye image 13B is this h.

基準画像用の補正値h'は以下により変換される。
・補正値h' = 1/h …(4)
すなわち、補正値hの逆数を、魚眼画像13Aの重複領域50の外側の補正値とする。魚眼画像13Aの重複領域50の外側の画素a〜oの補正値は補正値h'である。
The correction value h'for the reference image is converted by the following.
・ Correction value h'= 1 / h… (4)
That is, the reciprocal of the correction value h is set as the correction value outside the overlapping region 50 of the fisheye image 13A. The correction value of the pixels a to o outside the overlapping region 50 of the fisheye image 13A is the correction value h'.

なお、一方の補正マップはあくまで本来の補正マップを作成するためのマップであるため、基準補間線などは、本来の補正マップ側のものを使用する。図21において、片側の補正マップの画素a〜oと、もう片側への補正マップの画素a'〜o'の対応は一例であり、どの領域の補正量を使用するかは予め設定などにより変更可能である。 Since one of the correction maps is a map for creating the original correction map, the reference interpolation line and the like are used on the original correction map side. In FIG. 21, the correspondence between the pixels a to o of the correction map on one side and the pixels a'to o'of the correction map to the other side is an example, and which region of the correction amount to use is changed by presetting or the like. It is possible.

魚眼画像13Aの重複領域50の内側の画素a〜oは、重複領域50に接している画素を含み、画素a〜oと同じ被写体が写っている魚眼画像13Bの画素a'〜o'は重複領域50に接している画素を含む。なお、画素a〜o及び画素a'〜o'よりも外側の画素の補正値は重複領域から離れるほど小さい値にしても良いし、式(3)(4)と同様に算出しても良い。 Pixels a to o inside the overlapping region 50 of the fisheye image 13A include pixels in contact with the overlapping region 50, and pixels a'to o'of the fisheye image 13B in which the same subject as the pixels a to o is captured. Includes pixels in contact with the overlapping region 50. The correction values of the pixels a to o and the pixels outside the pixels a'to o'may be set to be smaller as the distance from the overlapping region is increased, or may be calculated in the same manner as in Eqs. (3) and (4). ..

図22はh'の別の求め方を説明する図である。図22(a)はブレンド値を有する変換テーブルを示し、図22(b)は合成された正距円筒画像と2つの魚眼画像13A、13Bの画素の対応を説明する図である。 FIG. 22 is a diagram illustrating another method of obtaining h'. FIG. 22A shows a conversion table having blend values, and FIG. 22B is a diagram illustrating the correspondence between the synthesized equirectangular image and the pixels of the two fisheye images 13A and 13B.

h'の求め方として、図22のような変換テーブルのブレンド値を参考に求めてもよい。変換テーブルは、上記した合成画像を作る際に参照されるものであり、元の魚眼画像に対してブレンド値αをもっている。ブレンド値αは0〜1.0ものとして、定義されており、
ブレンド値を参考にし、
h'=(1−α)x1/h (h >1.0)
h'=(1+α)x1/h (h <1.0)
として基準画像の重複領域50の外側の補正値とする。
As a method of obtaining h', the blend value of the conversion table as shown in FIG. 22 may be used as a reference. The conversion table is referred to when creating the above-mentioned composite image, and has a blend value α with respect to the original fisheye image. The blend value α is defined as 0 to 1.0 and
Refer to the blend value and
h'= (1-α) x1 / h (h> 1.0)
h'= (1 + α) x1 / h (h <1.0)
The correction value is set to the outside of the overlapping region 50 of the reference image.

こうすることにより、補正する側のブレンド係数を加味することができ、ブレンド後の繋ぎ目位置の画素値において、繋ぎ目の輝度や色の差分がより少なくなる。 By doing so, the blend coefficient on the correction side can be added, and the difference in brightness and color of the joint becomes smaller in the pixel value of the joint position after blending.

なお、補正マップは図2に示されたように外部記憶装置(SRAM25)に格納されてもよいし、レジスタとして回路内に保持してもかまわない。 The correction map may be stored in the external storage device (SRAM 25) as shown in FIG. 2, or may be stored in the circuit as a register.

<S5 補正除外マップの適用>
図23は仮作成した補正マップ(図23(a))、補正除外対象マップ(図23(b))、及び、補正マップ(図23(c))の一例を示す。補正除外マップ適用部45は、重複領域50、重複領域50の内側、及び、重複領域50の外側について以上のように作成した仮の補正マップと補正除外マップを用いて最終的な補正マップを作成する。
<Application of S5 correction exclusion map>
FIG. 23 shows an example of the temporarily created correction map (FIG. 23 (a)), the correction exclusion target map (FIG. 23 (b)), and the correction map (FIG. 23 (c)). The correction exclusion map application unit 45 creates a final correction map using the temporary correction map and the correction exclusion map created as described above for the overlapping area 50, the inside of the overlapping area 50, and the outside of the overlapping area 50. do.

すなわち、補正除外マップ適用部45は、仮作成した補正マップの各エリアにおいて、補正除外マップが1であれば仮作成した補正マップの値を1.0に置き換える。0であれば仮作成した補正マップで得られた値をそのまま用いる。補正除外マップ適用部45は、これをエリア全体に対して実施し、補正マップを作成する。 That is, the correction exclusion map application unit 45 replaces the value of the provisionally created correction map with 1.0 if the correction exclusion map is 1 in each area of the temporarily created correction map. If it is 0, the value obtained from the temporarily created correction map is used as it is. The correction exclusion map application unit 45 performs this for the entire area and creates a correction map.

なお、図23は補正量の算出に式(1)が使用された場合の補正マップを示し、式(2)が使用された場合の補正マップでは、差分が格納される。また、補正除外マップが1であれば、補正除外マップ適用部45は仮作成した補正マップの値を0.0に置き換える。補正除外マップが0であれば仮作成した補正マップで得られた値をそのまま用いる。 Note that FIG. 23 shows a correction map when the equation (1) is used for calculating the correction amount, and the difference is stored in the correction map when the equation (2) is used. If the correction exclusion map is 1, the correction exclusion map application unit 45 replaces the temporarily created correction map value with 0.0. If the correction exclusion map is 0, the value obtained from the temporarily created correction map is used as it is.

補正除外マップ適用後の補正マップは分割エリア間で値が大きく変動している場合がある。そのため、算出された補正マップに対してガウシアンフィルタなどの平滑化フィルターをかけてもよい。 The value of the correction map after applying the correction exclusion map may fluctuate greatly between the divided areas. Therefore, a smoothing filter such as a Gaussian filter may be applied to the calculated correction map.

図24は、補正マップを解像度の変換方法を説明する図である。作成された補正マップは任意のブロックサイズの解像度(エリア201の解像度)になっている。これを補正対象画像全域に適用するために、補正除外マップ適用部45は、補正マップを変倍し、補正対象画像の解像度へと変換する。変倍方法としてはニアレストネイバー、バイリニア、バイキュービックなどの変倍方法を用いる。 FIG. 24 is a diagram illustrating a method of converting the resolution of the correction map. The created correction map has a resolution of an arbitrary block size (resolution of area 201). In order to apply this to the entire correction target image, the correction exclusion map application unit 45 scales the correction map and converts it to the resolution of the correction target image. As the scaling method, a scaling method such as nearest neighbor, bilinear, or bicubic is used.

<S6 補正>
補正部46は、作成した補正マップを補正対象画像全体に適用し、補正後の画像を得る。補正量を算出する際に式(1)を使用したのであれば、補正画像に対して補正量の乗算を行う。式(2)を使用したのであれば、補正画像に対して補正量の加算を行う。
<S6 correction>
The correction unit 46 applies the created correction map to the entire correction target image to obtain a corrected image. If Eq. (1) is used when calculating the correction amount, the correction amount is multiplied by the corrected image. If equation (2) is used, the correction amount is added to the corrected image.

なお、算出値が極端に小さい又は大きくなりすぎないように上限、下限を設けて算出される算出値の量を制限してもよい。 The amount of the calculated value may be limited by setting an upper limit and a lower limit so that the calculated value does not become extremely small or too large.

<S7 合成画像の生成>
合成画像生成部47は、以上のように補正された2つの魚眼画像を、図6〜図8で説明したように合成する。
<Generation of S7 composite image>
The composite image generation unit 47 synthesizes the two fisheye images corrected as described above as described with reference to FIGS. 6 to 8.

図25は、合成画像生成部47が合成画像を生成する処理の流れを説明するフローチャート図の一例である。 FIG. 25 is an example of a flowchart illustrating a flow of processing in which the composite image generation unit 47 generates a composite image.

合成画像生成部47は、図6(a)のテーブルを参照して魚眼画像を正距円筒画像に変換する歪み補正を行う(S7−1)。次に、合成画像生成部47は重複領域50をパターンマッチングして繋ぎ部分を決定する(S7−2)。次に、ブレンド処理部はα値を使って重複領域50をブレンド処理する(S7−3)。 The composite image generation unit 47 performs distortion correction for converting a fisheye image into an equirectangular image with reference to the table of FIG. 6A (S7-1). Next, the composite image generation unit 47 pattern-matches the overlapping regions 50 to determine the connecting portion (S7-2). Next, the blend processing unit blends the overlapping region 50 using the α value (S7-3).

<主な効果>
全天球カメラでは広角レンズや魚眼レンズを用いて広い範囲を撮像することから、その撮像範囲内に太陽や照明等の光源が入りやすい。このため、画像の一部が白くぼやけ、光が滲んだように見えるフレアが発生する可能性が高いことが知られている。 フレアは、各画像に均一に発生するものではないため、フレアが発生した画像とフレアが発生していない画像とは、輝度の差だけではなく、色差も生じる。
<Main effect>
Since a spherical camera uses a wide-angle lens or a fisheye lens to image a wide range, it is easy for a light source such as the sun or illumination to enter the imaging range. For this reason, it is known that there is a high possibility that a part of the image becomes white and blurry, and flare that appears as if the light is blurred occurs. Since flare does not occur uniformly in each image, not only a difference in brightness but also a color difference occurs between an image in which flare occurs and an image in which flare does not occur.

従来技術は複数の撮像素子22A,22B間の個体差を補正することについては有効であると考えられる。しかし、複数の撮像素子22A,22Bのうち、いずれかに強い光源が入った場合、光源の入った明るい画像は暗く補正されてしまうため、実際の輝度、色味よりも暗くなり、違和感のある画像となってしまう可能性がある。 It is considered that the prior art is effective in correcting individual differences between a plurality of image pickup devices 22A and 22B. However, when a strong light source is included in any of the plurality of image sensors 22A and 22B, the bright image containing the light source is corrected to be dark, so that the image becomes darker than the actual brightness and color, which gives a sense of discomfort. It may become an image.

本実施形態は従来技術と異なり、撮像範囲内に太陽や照明等の高原が入った際、色味を自然に保ちつつ、より繋ぎ目を目立たなくすることができる。 Unlike the prior art, this embodiment can make the joints more inconspicuous while maintaining the natural color when a plateau such as the sun or lighting enters the imaging range.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
Although the best mode for carrying out the present invention has been described above with reference to examples, the present invention is not limited to these examples, and various modifications are made without departing from the gist of the present invention. And substitutions can be made.

例えば、本実施形態ではフレアが発生した画像に対し、補正を行っているが、フレアが発生していない画像を補正してもよい。 For example, in the present embodiment, the image in which flare is generated is corrected, but the image in which flare is not generated may be corrected.

また、本実施形態では全ての補正を撮像装置が行っているが、補正に関する全て又は一部の処理を、ネットワークを介して通信される情報処理装置(サーバ)が行ってもよい。 Further, in the present embodiment, all the corrections are performed by the imaging device, but all or part of the processing related to the corrections may be performed by the information processing device (server) communicated via the network.

また、以上の実施例で示した図3などの構成例は、撮像装置10の処理の理解を容易にするために、主な機能に応じて分割したものである。しかし、各処理単位の分割の仕方や名称によって本願発明が制限されることはない。撮像装置10は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。 Further, the configuration examples such as FIG. 3 shown in the above examples are divided according to the main functions in order to facilitate understanding of the processing of the image pickup apparatus 10. However, the present invention is not limited by the method and name of division of each processing unit. The image pickup apparatus 10 can be divided into more processing units according to the processing content. It is also possible to divide one processing unit so as to include more processing.

上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Each function of the embodiment described above can be realized by one or more processing circuits. Here, the "processing circuit" in the present specification is a processor programmed to execute each function by software such as a processor implemented by an electronic circuit, or a processor designed to execute each function described above. It shall include devices such as ASIC (Application Specific Integrated Circuit), DSP (digital signal processor), FPGA (field programmable gate array) and conventional circuit modules.

10 撮像装置
41 フレア画像判断部
42 補正除外マップ作成部
43 補正量算出部
44 領域外補正値算出部
45 補正除外マップ適用部
46 補正部
47 合成画像生成部
50 重複領域
10 Imaging device 41 Flare image judgment unit 42 Correction exclusion map creation unit 43 Correction amount calculation unit 44 Out-of-area correction value calculation unit 45 Correction exclusion map application unit 46 Correction unit 47 Composite image generation unit 50 Overlapping area

特表2013−540390号公報Special Table 2013-540390 特開2015−226144号公報Japanese Unexamined Patent Publication No. 2015-226144

Claims (8)

複数の撮像素子が撮像した画像を合成して1つの画像を作成する撮像装置であって、
合成の際に重複する重複領域と前記重複領域の内側の補正量を算出する補正量算出部と、
第一の画像の前記重複領域の内側の画素の画素値に基づいて、前記画素と同じ被写体が写っている、第二の画像の前記重複領域の外側の画素の補正値を算出する領域外補正値算出部と、
前記補正量及び前記補正値を用いて前記第一の画像と前記第二の画像を補正する補正部と、
前記補正部が補正した前記第一の画像と前記第二の画像の前記重複領域を重複させて合成する合成画像生成部と、
を有することを特徴とする撮像装置。
An image pickup device that creates one image by synthesizing images captured by a plurality of image pickup elements.
A correction amount calculation unit that calculates a correction amount inside the overlapping area and the overlapping area during synthesis, and a correction amount calculation unit.
Out-of-region correction that calculates the correction value of the pixel outside the overlapping region of the second image, in which the same subject as the pixel is captured, based on the pixel value of the pixel inside the overlapping region of the first image. Value calculation unit and
A correction unit that corrects the first image and the second image using the correction amount and the correction value,
A composite image generation unit that overlaps and synthesizes the overlapping region of the first image corrected by the correction unit and the second image, and a composite image generation unit.
An imaging device characterized by having.
前記第一の画像の前記重複領域の内側の画素は、前記重複領域に接している画素を含み、前記画素と同じ被写体が写っている前記第二の画像の画素は前記重複領域に接している画素を含むことを特徴とする請求項1に記載の撮像装置。 The pixels inside the overlapping region of the first image include pixels in contact with the overlapping region, and the pixels of the second image showing the same subject as the pixels are in contact with the overlapping region. The imaging device according to claim 1, further comprising pixels. 前記領域外補正値算出部は、
補正値 = 前記第二の画像の重複領域の外側の画素値 / 前記第一の画像の重複領域の内側の画素値
により前記補正値を算出することを特徴とする請求項2に記載の撮像装置。
The out-of-area correction value calculation unit
The imaging device according to claim 2, wherein the correction value is calculated based on the pixel value outside the overlapping region of the second image / the pixel value inside the overlapping region of the first image. ..
前記領域外補正値算出部は、
前記補正値の逆数を、前記第一の画像の重複領域の外側の補正値とすることを特徴とする請求項3に記載の撮像装置。
The out-of-area correction value calculation unit
The imaging apparatus according to claim 3, wherein the reciprocal of the correction value is a correction value outside the overlapping region of the first image.
魚眼レンズで撮像された前記第一の画像及び前記第二の画像を正距円筒画像に変換するテーブルを有し、前記テーブルに前記第一の画像及び前記第二の画像のブレンド値が画素ごとに登録されている場合、
前記領域外補正値算出部は、
h'=(1−α)x1 / 補正値 (補正値 > 1.0)
h'=(1+α)x1 / 補正値 (補正値 < 1.0)
を前記第一の画像の重複領域の外側の補正値とすることを特徴とする請求項3に記載の撮像装置。
It has a table for converting the first image and the second image captured by a fisheye lens into an equirectangular image, and the blend value of the first image and the second image is displayed on the table for each pixel. If registered,
The out-of-area correction value calculation unit
h'= (1−α) x1 / correction value (correction value> 1.0)
h'= (1 + α) x1 / correction value (correction value <1.0)
The imaging device according to claim 3, wherein the correction value is set to the outside of the overlapping region of the first image.
前記第二の画像はフレアが検出された画像であることを特徴とする請求項1〜5のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 5, wherein the second image is an image in which flare is detected. 複数の撮像素子が撮像した画像を合成して1つの画像を作成する撮像装置が行う補正方法であって、
補正量算出部が、合成の際に重複する重複領域と前記重複領域の内側の補正量を算出するステップと、
第一の画像の前記重複領域の内側の画素の画素値に基づいて、領域外補正値算出部が、前記画素と同じ被写体が写っている、第二の画像の前記重複領域の外側の画素の補正値を算出するステップと、
補正部が、前記補正量及び前記補正値を用いて前記第一の画像と前記第二の画像を補正するステップと、
合成画像生成部が、前記補正部が補正した前記第一の画像と前記第二の画像の前記重複領域を重複させて合成するステップと、
を有することを特徴とする補正方法。
This is a correction method performed by an image pickup device that creates one image by synthesizing images captured by a plurality of image pickup elements.
A step in which the correction amount calculation unit calculates the overlapping area overlapping during synthesis and the correction amount inside the overlapping area, and
Based on the pixel values of the pixels inside the overlapping region of the first image, the out-of-area correction value calculation unit captures the same subject as the pixels, and of the pixels outside the overlapping region of the second image. Steps to calculate the correction value and
A step in which the correction unit corrects the first image and the second image using the correction amount and the correction value.
A step in which the composite image generation unit superimposes and synthesizes the overlapping region of the first image and the second image corrected by the correction unit.
A correction method characterized by having.
複数の撮像素子が撮像した画像を合成して1つの画像を作成する撮像装置を、
合成の際に重複する重複領域と前記重複領域の内側の補正量を算出する補正量算出部と、
第一の画像の前記重複領域の内側の画素の画素値に基づいて、前記画素と同じ被写体が写っている、第二の画像の前記重複領域の外側の画素の補正値を算出する領域外補正値算出部と、
前記補正量及び前記補正値を用いて前記第一の画像と前記第二の画像を補正する補正部と、
前記補正部が補正した前記第一の画像と前記第二の画像の前記重複領域を重複させて合成する合成画像生成部、として機能させるためのプログラム。
An image pickup device that synthesizes images captured by a plurality of image pickup elements to create one image.
A correction amount calculation unit that calculates a correction amount inside the overlapping area and the overlapping area during synthesis, and a correction amount calculation unit.
Out-of-region correction that calculates the correction value of the pixel outside the overlapping region of the second image, in which the same subject as the pixel is captured, based on the pixel value of the pixel inside the overlapping region of the first image. Value calculation unit and
A correction unit that corrects the first image and the second image using the correction amount and the correction value,
A program for functioning as a composite image generation unit that overlaps and synthesizes the overlapping region of the first image corrected by the correction unit and the second image.
JP2020049499A 2020-03-19 2020-03-19 Imaging device, correction method, and program Active JP7415707B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020049499A JP7415707B2 (en) 2020-03-19 2020-03-19 Imaging device, correction method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020049499A JP7415707B2 (en) 2020-03-19 2020-03-19 Imaging device, correction method, and program

Publications (2)

Publication Number Publication Date
JP2021150831A true JP2021150831A (en) 2021-09-27
JP7415707B2 JP7415707B2 (en) 2024-01-17

Family

ID=77849569

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020049499A Active JP7415707B2 (en) 2020-03-19 2020-03-19 Imaging device, correction method, and program

Country Status (1)

Country Link
JP (1) JP7415707B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114331867A (en) * 2021-11-29 2022-04-12 惠州华阳通用智慧车载系统开发有限公司 Panoramic system image correction method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013540390A (en) * 2010-10-01 2013-10-31 コンテックス・エー/エス Signal brightness matching method for image sensors
JP2015226144A (en) * 2014-05-27 2015-12-14 株式会社リコー Image processing system, imaging apparatus, image processing method, and program
JP2016091371A (en) * 2014-11-06 2016-05-23 株式会社リコー Image processor, image processing method, image processing system, program, and recording medium
WO2018092379A1 (en) * 2016-11-17 2018-05-24 ソニー株式会社 Image processing device and image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013540390A (en) * 2010-10-01 2013-10-31 コンテックス・エー/エス Signal brightness matching method for image sensors
JP2015226144A (en) * 2014-05-27 2015-12-14 株式会社リコー Image processing system, imaging apparatus, image processing method, and program
JP2016091371A (en) * 2014-11-06 2016-05-23 株式会社リコー Image processor, image processing method, image processing system, program, and recording medium
WO2018092379A1 (en) * 2016-11-17 2018-05-24 ソニー株式会社 Image processing device and image processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114331867A (en) * 2021-11-29 2022-04-12 惠州华阳通用智慧车载系统开发有限公司 Panoramic system image correction method

Also Published As

Publication number Publication date
JP7415707B2 (en) 2024-01-17

Similar Documents

Publication Publication Date Title
CN106875339B (en) Fisheye image splicing method based on strip-shaped calibration plate
JP6721065B2 (en) Imaging device, image processing device and method
JP6467787B2 (en) Image processing system, imaging apparatus, image processing method, and program
CN112258579B (en) Image processing method, image processing device, electronic equipment and computer readable storage medium
JP6812862B2 (en) Image processing system, imaging device, image processing method and program
JP5971207B2 (en) Image adjustment apparatus, image adjustment method, and program
TW201618531A (en) Image capturing device and digital zooming method thereof
US10440267B2 (en) System and method for image stitching
TW201340035A (en) Method for combining images
CN109166076B (en) Multi-camera splicing brightness adjusting method and device and portable terminal
US20040201768A1 (en) Electronic imaging system having a sensor for correcting perspective projection distortion
CN111866523B (en) Panoramic video synthesis method and device, electronic equipment and computer storage medium
WO2020107995A1 (en) Imaging method and apparatus, electronic device, and computer readable storage medium
CN112470192A (en) Dual-camera calibration method, electronic device and computer-readable storage medium
JP2016091371A (en) Image processor, image processing method, image processing system, program, and recording medium
CN109785225B (en) Method and device for correcting image
CN110784693A (en) Projector correction method and projection system using same
JP7415707B2 (en) Imaging device, correction method, and program
JP2015194567A (en) display device
CN116385370A (en) Fisheye image processing method, device, electronic equipment and storage medium
JP2016040883A (en) Image processing device, image processing method, image processing system, and program
US12020455B2 (en) Systems and methods for high dynamic range image reconstruction
JP6696596B2 (en) Image processing system, imaging device, image processing method and program
CN113689339A (en) Image splicing method and device
JP6825458B2 (en) Image processing device, photographing device, and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231218

R151 Written notification of patent or utility model registration

Ref document number: 7415707

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151