JP2018174431A - Image processing device, photographing device, and image processing method - Google Patents

Image processing device, photographing device, and image processing method Download PDF

Info

Publication number
JP2018174431A
JP2018174431A JP2017070898A JP2017070898A JP2018174431A JP 2018174431 A JP2018174431 A JP 2018174431A JP 2017070898 A JP2017070898 A JP 2017070898A JP 2017070898 A JP2017070898 A JP 2017070898A JP 2018174431 A JP2018174431 A JP 2018174431A
Authority
JP
Japan
Prior art keywords
image
correction
image processing
images
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017070898A
Other languages
Japanese (ja)
Other versions
JP6825458B2 (en
Inventor
優貴 ▲高▼橋
優貴 ▲高▼橋
Yuki Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2017070898A priority Critical patent/JP6825458B2/en
Publication of JP2018174431A publication Critical patent/JP2018174431A/en
Application granted granted Critical
Publication of JP6825458B2 publication Critical patent/JP6825458B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device capable of improving access efficiency to a memory by embedding information related to an amount of correction into any vignetting region of a plurality of images, a photographing device, and an image processing method.SOLUTION: A photographing device comprises two imaging elements, an image processing device, and an external memory. An image processing device comprises an image processing unit, an amount-of-correction creation unit, an image correction unit, a projective transformation unit, an image output unit, a CPU, and an external memory. The amount-of-correction creation unit comprises a correction target determination unit, an amount-of-correction calculation unit, a correction map creation unit, and an embedding unit. The correction target determination unit determines a correction target image from a plurality of images on the basis of a pixel vale of each pixel of the plurality of images. The amount-of-correction calculation unit calculates an amount of correction for correcting the correction target image on the basis of a pixel value of each image. The correction map creation unit creates a correction map (M4) for correcting the correction target image. The embedding unit embeds information related to the amount of correction such as data of the correction map (M4) into any vignetting region of the plurality of images.SELECTED DRAWING: Figure 9

Description

本発明は、複数の撮像素子から取得した各画像に対して画像処理を行う発明に関する。   The present invention relates to an invention for performing image processing on each image acquired from a plurality of image sensors.

近年、一度の撮影で、360°の全天球画像の元になる2つの半球画像データを得る特殊なデジタルカメラが提供されている(特許文献1参照)。この特殊な全天球撮影用のデジタルカメラは、2つの半球画像データに基づいて1つの正距円筒射影画像データを作成し、スマートフォン等の通信端末に正距円筒射影画像データを送信する。正距円筒射影画像データを得た通信端末は、正距円筒射影画像データに基づいて全天球画像を作成する。但し、そのままでは画像が湾曲して利用者が見えづらいため、通信端末に全天球画像の一部の所定領域を示す所定領域画像を表示させることで、利用者は一般のデジタルカメラで撮影された平面画像と同じ感覚で閲覧することができる。   In recent years, there has been provided a special digital camera that obtains two hemispherical image data based on a 360-degree spherical image by one shooting (see Patent Document 1). This special omnidirectional digital camera creates one equirectangular projection image data based on two hemispheric image data, and transmits the equirectangular projection image data to a communication terminal such as a smartphone. The communication terminal that has obtained the equirectangular projection image data creates an omnidirectional image based on the equirectangular projection image data. However, since the image is curved as it is, it is difficult for the user to see. Therefore, by displaying a predetermined area image indicating a predetermined area of the omnidirectional image on the communication terminal, the user is photographed with a general digital camera. Can be viewed with the same feeling as a flat image.

また、全天球画像を作成する際に、2つの半球画像を繋ぎ合わせる処理が必要である。各半球画像は、180°以上の画角の魚眼レンズを介して得られているため、従来、特殊なデジタルカメラは、360°の全天球画像を作成するためには、各半球画像の繋ぎ目領域の画像を取り出して、歪み補正処理を行った後に、テンプレートマッチングを実施する事で高画質化を実現している(特許文献2参照)。この技術による繋ぎ目処理としては、対応するそれぞれの領域を基準画像及び比較画像として切り出して、歪み補正後の画像に対して、テンプレートマッチングを行っている。   In addition, when creating an omnidirectional image, a process for joining two hemispherical images is required. Since each hemisphere image is obtained through a fisheye lens having an angle of view of 180 ° or more, a special digital camera has conventionally used a joint of each hemisphere image to create a 360 ° omnidirectional image. Image quality is improved by extracting a region image and performing distortion correction processing and then performing template matching (see Patent Document 2). As a joint process by this technique, corresponding regions are cut out as a reference image and a comparison image, and template matching is performed on the image after distortion correction.

ところで、全天球撮影用のデジタルカメラは、2つの撮像素子が異なる方向を向いているため、一方の撮像素子で太陽等の非常に明るい風景を撮影し、他方の撮像素子で路地裏等の非常に暗い風景を撮影することになる場合がある。このような場合、半球画像間で輝度、色差が非常に異なってしまう。そのまま2つの半球画像を結合すると画像間の輝度差が目立ってしまい、違和感を与えてしまう。この問題を解決するために、複数枚の画像から高輝度画像を判定し、高輝度画像に補正を施すことで複数枚の映像間の輝度差を低減する画像処理装置が既に知られている(特許文献3参照)。   By the way, since the digital camera for omnidirectional photography has two image sensors facing different directions, one image sensor photographs a very bright landscape such as the sun, and the other image sensor captures a back alley or the like. You may be shooting a very dark landscape. In such a case, the luminance and color difference are very different between hemispherical images. If the two hemispherical images are combined as they are, the luminance difference between the images becomes conspicuous, giving a sense of incongruity. In order to solve this problem, there is already known an image processing device that reduces a luminance difference between a plurality of images by determining a high luminance image from a plurality of images and correcting the high luminance image ( (See Patent Document 3).

しかし、今までの複数毎の画像から高輝度画像を判定し、高輝度画像に補正を施すことで複数毎の映像間の輝度差を低減する画像処理装置は、画像データを転送するパスと、高輝度画像を判定し、その際に得られた補正用のデータを転送するパスとが独立して存在している。そのため、共にインターコネクト回路を介して同一のメモリへと書き込みを行うので、メモリへのアクセス効率が悪いという問題があった。   However, an image processing apparatus that determines a high-luminance image from a plurality of images so far and corrects the high-luminance image to reduce the luminance difference between the plurality of videos, a path for transferring image data, A path for determining a high-intensity image and transferring correction data obtained at that time exists independently. For this reason, both write to the same memory via the interconnect circuit, resulting in a problem of poor access efficiency to the memory.

上記課題を解決するために、請求項1に係る発明は、複数の撮像素子から取得した各画像に対して画像処理を行う画像処理装置であって、前記複数の画像のそれぞれの画素の画素値に基づいて、前記複数の画像の中から補正対象画像を判断する補正対象判断手段と、前記各画像の画素値に基づき、前記補正対象画像を補正するための補正量を算出する補正量算出手段と、前記複数の画像のいずれかのケラレ領域に前記補正量に関する情報を埋め込む埋込手段と、を有することを特徴とする画像処理装置である。   In order to solve the above-described problem, the invention according to claim 1 is an image processing apparatus that performs image processing on each image acquired from a plurality of image sensors, and the pixel value of each pixel of the plurality of images. A correction target determination unit that determines a correction target image from the plurality of images, and a correction amount calculation unit that calculates a correction amount for correcting the correction target image based on the pixel value of each image. And an embedding unit that embeds information on the correction amount in any vignetting area of the plurality of images.

本発明によれば、複数の画像のいずれかのケラレ領域に前記補正量に関する情報を埋め込むため、メモリへのアクセス効率が向上するという効果を奏する。   According to the present invention, since the information about the correction amount is embedded in any vignetting area of a plurality of images, the memory access efficiency is improved.

(a)は特殊撮影装置の右側面図であり、(b)は特殊撮影装置の背面図であり、(c)は特殊撮影装置の平面図であり、(d)は特殊撮影装置の底面図である。(A) is a right side view of the special photographing apparatus, (b) is a rear view of the special photographing apparatus, (c) is a plan view of the special photographing apparatus, and (d) is a bottom view of the special photographing apparatus. It is. 特殊撮影装置の使用イメージ図である。It is a usage image figure of a special imaging device. (a)は特殊撮影装置で撮影された半球画像(前)、(b)は特殊撮影装置で撮影された半球画像(後)、(c)は正距円筒図法により表された画像を示した図である。(A) is a hemispheric image (front) photographed by a special photographing device, (b) is a hemispheric image (rear) photographed by a special photographing device, and (c) is an image represented by equirectangular projection. FIG. (a)は正距円筒射影画像で球を被う状態を示した概念図、(b)は全天球画像を示した図である。(A) is the conceptual diagram which showed the state which covered the sphere with an equirectangular projection image, (b) is the figure which showed the omnidirectional image. 全天球画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。It is the figure which showed the position of a virtual camera and a predetermined area | region at the time of making a spherical image into a three-dimensional solid sphere. (a)は図5の立体斜視図、(b)は通信端末のディスプレイに所定領域の画像が表示されている状態を示す図である。(A) is a three-dimensional perspective view of FIG. 5, (b) is a figure which shows the state in which the image of the predetermined area is displayed on the display of a communication terminal. 所定領域情報と所定領域Tの画像との関係を示した図である。FIG. 6 is a diagram illustrating a relationship between predetermined area information and an image of a predetermined area T. 本実施形態に係る撮影装置内の画像処理装置のハードウェア構成図である。It is a hardware block diagram of the image processing apparatus in the imaging device concerning this embodiment. 本実施形態に係る撮影装置内の画像処理装置の機能ブロック図である。It is a functional block diagram of the image processing apparatus in the imaging device according to the present embodiment. 全天球画像を作成するための基本的な処理を示すフローチャートである。It is a flowchart which shows the basic process for producing an omnidirectional image. 全天球撮影用のデジタルカメラの単一の撮像素子で撮像された画像データの概念図である。It is a conceptual diagram of the image data imaged with the single image sensor of the digital camera for omnidirectional photography. 全天球撮影用のデジタルカメラの2つの撮像素子で撮像された画像データの概念図である。It is a conceptual diagram of the image data imaged with two image sensors of the digital camera for omnidirectional photography. 円形画像を矩形画像に変換する処理を示した概念図である。It is the conceptual diagram which showed the process which converts a circular image into a rectangular image. 各矩形画像の重複領域について説明する図である。It is a figure explaining the overlapping area | region of each rectangular image. 撮像素子から出力される画像データの概念図である。It is a conceptual diagram of the image data output from an image sensor. 黒レベル補正に使用されるケラレ領域(黒領域)を示した概念図である。It is the conceptual diagram which showed the vignetting area | region (black area | region) used for black level correction | amendment. 黒レベル補正に使用されるケラレ領域(黒領域)を示した概念図である。It is the conceptual diagram which showed the vignetting area | region (black area | region) used for black level correction | amendment. フレア画像の判断処理を示したフローチャートである。It is the flowchart which showed the judgment process of the flare image. 画像内の全ての分割エリアを示した概念図である。It is the conceptual diagram which showed all the division areas in an image. 重複領域及び重複領域付近の分割エリアを示した概念図である。It is the conceptual diagram which showed the overlap area and the division area near an overlap area. 補正除外マップ及び仮補正マップを作成する処理を示したシーケンス図である。It is the sequence diagram which showed the process which produces a correction | amendment exclusion map and a temporary correction map. フレア画像を複数エリアに分割した概念図である。It is the conceptual diagram which divided | segmented the flare image into the several area. フレア画像の各分割エリアに除外フラグが格納された状態を示した概念図である。It is the conceptual diagram which showed the state by which the exclusion flag was stored in each division area of a flare image. (a)はフレア画像における重複領域及び重複領域付近の分割エリアを示した概念図、(b)は(a)の一部の分割エリアのみを示した拡大図、(c)は基準画像における重複領域及び重複領域付近の分割エリアを示した概念図、(b)は(c)の一部の分割エリアのみを示した拡大図である。(A) is a conceptual diagram showing an overlapping area and a divided area near the overlapping area in a flare image, (b) is an enlarged view showing only a part of the divided area of (a), and (c) is an overlapping in a reference image. The conceptual diagram which showed the division area of the area | region and the overlapping area vicinity, (b) is an enlarged view which showed only the partial division area of (c). フレア画像の補正量を定めるための概念図である。It is a conceptual diagram for determining the correction amount of a flare image. 補正マップの作成及びこの補正マップを埋め込む処理を示したフローチャートである。It is the flowchart which showed the production | generation of a correction map, and the process which embeds this correction map. フレア画像の補正量を定めるための概念図である。It is a conceptual diagram for determining the correction amount of a flare image. 補正マップの分割エリアを補正対象画像の解像度に合わせて変倍した場合の概念図である。It is a conceptual diagram at the time of scaling the division area of the correction map according to the resolution of the correction target image. 補正マップを埋め込む前の半球画像の各ライン分のデータと、半球画像におけるケラレ領域を示す概念図である。It is a conceptual diagram which shows the data for each line of the hemispherical image before embedding a correction map, and the vignetting area | region in a hemispherical image. 補正マップを埋め込んだ後の半球画像の各ライン分のデータと、半球画像におけるケラレ領域を示す概念図である。It is a conceptual diagram which shows the data for each line of the hemispherical image after embedding a correction map, and the vignetting area | region in a hemispherical image. 1フレームあたりの転送データを示した概念図である。It is the conceptual diagram which showed the transfer data per frame. 撮像素子から出力される画像データの変形例の概念図である。It is a conceptual diagram of the modification of the image data output from an image pick-up element.

以下、図面を用いて、本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<<実施形態の概略>>
まずは、図1乃至図7を用いて、本実施形態の概略について説明する。
<< Summary of Embodiment >>
First, the outline of this embodiment will be described with reference to FIGS. 1 to 7.

まず、図1を用いて、撮影装置1の外観を説明する。撮影装置1は、全天球画像の元になる撮影画像を得るためのデジタルカメラである。なお、図1(a)は特殊撮影装置の右側面図であり、図1(b)は特殊撮影装置の背面図であり、図1(c)は特殊撮影装置の平面図であり、図1(d)は特殊撮影装置の底面図である。   First, the external appearance of the photographing apparatus 1 will be described with reference to FIG. The photographing apparatus 1 is a digital camera for obtaining a photographed image that is a source of the omnidirectional image. 1A is a right side view of the special photographing apparatus, FIG. 1B is a rear view of the special photographing apparatus, and FIG. 1C is a plan view of the special photographing apparatus. (D) is a bottom view of the special photographing apparatus.

図1(a),図1(b),図1(c),図(d)に示されているように、特殊撮影装置1aの上部には、正面側(前側)に魚眼型のレンズ102a及び背面側(後側)に魚眼型のレンズ102bが設けられている。特殊撮影装置1aの内部には、後述の撮像素子(画像センサ)103a,103bが設けられており、それぞれレンズ102a、102bを介して被写体や風景を撮影することで、半球画像(画角180°以上)を得ることができる。特殊撮影装置1aの正面側と反対側の面には、シャッターボタン115aが設けられている。また、特殊撮影装置1aの側面には、電源ボタン115b、WiFi(Wireless Fidelity)ボタン115c、及び撮影モード切替ボタン115dが設けられている。電源ボタン115b、及びWiFiボタン115cは、いずれも押下される度に、オンとオフが切り替えられる。また、撮影モード切替ボタン115dは、押下される度に、静止画の撮影モードと動画の撮影モードが切り替えられる。なお、シャッターボタン115a、電源ボタン115b、WiFiボタン115c、及び撮影モード切替ボタン115dは、操作部115の一種であり、操作部115は、これらのボタンに限られない。   As shown in FIGS. 1 (a), 1 (b), 1 (c), and (d), a fish-eye lens is placed on the front side (front side) of the special photographing apparatus 1a. A fisheye lens 102b is provided on the rear side (rear side) 102a. Imaging devices (image sensors) 103a and 103b, which will be described later, are provided inside the special imaging device 1a, and a hemispherical image (angle of view 180 °) is obtained by shooting a subject or a landscape through the lenses 102a and 102b, respectively. Above). A shutter button 115a is provided on the surface opposite to the front side of the special imaging device 1a. Further, a power button 115b, a WiFi (Wireless Fidelity) button 115c, and a shooting mode switching button 115d are provided on the side surface of the special imaging device 1a. Each time the power button 115b and the WiFi button 115c are pressed, they are switched on and off. The shooting mode switching button 115d switches between a still image shooting mode and a moving image shooting mode each time the button is pressed. The shutter button 115a, the power button 115b, the WiFi button 115c, and the shooting mode switching button 115d are a kind of the operation unit 115, and the operation unit 115 is not limited to these buttons.

また、特殊撮影装置1aの底部150の中央には、カメラ用三脚又は一般撮影装置3aに特殊撮影装置1aを取り付けるための三脚ねじ穴151が設けられている。また、底部150の左端側には、Micro USB(Universal Serial Bus)端子152が設けられている。底部150の右端側には、HDMI(High-Definition Multimedia Interface)端子が設けられている。なお、HDMIは登録商標である。   Further, a tripod screw hole 151 for attaching the special imaging device 1a to the camera tripod or the general imaging device 3a is provided at the center of the bottom 150 of the special imaging device 1a. A micro USB (Universal Serial Bus) terminal 152 is provided on the left end side of the bottom 150. On the right end side of the bottom 150, an HDMI (High-Definition Multimedia Interface) terminal is provided. HDMI is a registered trademark.

次に、図2を用いて、特殊撮影装置1aの使用状況を説明する。なお、図2は、特殊撮影装置の使用イメージ図である。特殊撮影装置1aは、図2に示されているように、例えば、利用者(撮影者)が手に持って利用者の周りの被写体を撮影するために用いられる。この場合、図1に示されている撮像素子103a及び撮像素子103bによって、それぞれ利用者の周りの被写体が撮像されることで、2つの半球画像を得ることができる。   Next, the use situation of the special imaging device 1a will be described with reference to FIG. In addition, FIG. 2 is a use image figure of a special imaging device. As shown in FIG. 2, the special imaging device 1 a is used, for example, for a user (photographer) to take a subject around the user while holding it in his hand. In this case, two hemispherical images can be obtained by imaging the subject around the user by the imaging device 103a and the imaging device 103b shown in FIG.

次に、図3及び図4を用いて、特殊撮影装置1aで撮影された画像から正距円筒射影画像EC及び全天球画像CEが作成されるまでの処理の概略を説明する。なお、図3(a)は特殊撮影装置1aで撮影された半球画像(前側)、図3(b)は特殊撮影装置で撮影された半球画像(後側)、図3(c)は正距円筒図法により表された画像(以下、「正距円筒射影画像」という)を示した図である。図4(a)は正距円筒射影画像で球を被う状態を示した概念図、図4(b)は全天球画像を示した図である。   Next, an outline of processing from the image captured by the special imaging device 1a to the creation of the equirectangular projection image EC and the omnidirectional image CE will be described with reference to FIGS. 3A is a hemispheric image (front side) photographed by the special photographing apparatus 1a, FIG. 3B is a hemispheric image photographed by the special photographing apparatus (rear side), and FIG. It is the figure which showed the image (henceforth "an equirectangular projection image") represented by the cylindrical projection. FIG. 4A is a conceptual diagram showing a state where a sphere is covered with an equirectangular projection image, and FIG. 4B is a diagram showing an omnidirectional image.

図3(a)に示されているように、撮像素子103aによって得られた画像は、後述の魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図3(b)に示されているように、撮像素子103bによって得られた画像は、後述の魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、特殊撮影装置1aによって合成され、図3(c)に示されているように、正距円筒射影画像ECが作成される。   As shown in FIG. 3A, the image obtained by the image sensor 103a is a hemispherical image (front side) curved by a fish-eye lens 102a described later. Also, as shown in FIG. 3B, the image obtained by the image sensor 103b is a hemispherical image (rear side) curved by a fish-eye lens 102b described later. Then, the hemispherical image (front side) and the hemispherical image inverted by 180 degrees (rear side) are synthesized by the special imaging device 1a, and as shown in FIG. 3C, the equirectangular projection image EC. Is created.

そして、OpenGL ES(Open Graphics Library for Embedded Systems)等が利用されることで、図4(a)に示されているように、正距円筒射影画像が球面を覆うように貼り付けられ、図4(b)に示されているような全天球画像CEが作成される。このように、全天球画像CEは、正距円筒射影画像ECが球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions)および3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、全天球画像CEは、静止画であっても動画であってもよい。   Then, by using OpenGL ES (Open Graphics Library for Embedded Systems) or the like, the equirectangular projection image is pasted so as to cover the spherical surface as shown in FIG. An omnidirectional image CE as shown in (b) is created. In this way, the omnidirectional image CE is represented as an image in which the equirectangular projection image EC faces the center of the sphere. OpenGL ES is a graphics library used for visualizing 2D (2-Dimensions) and 3D (3-Dimensions) data. Note that the omnidirectional image CE may be a still image or a moving image.

以上のように、全天球画像CEは、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、全天球画像CEの一部の所定領域(以下、「所定領域画像」という)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図5及び図6を用いて説明する。   As described above, since the omnidirectional image CE is an image that is pasted so as to cover the spherical surface, it is uncomfortable when viewed by a human. Therefore, by displaying a predetermined area (hereinafter referred to as “predetermined area image”) of a part of the omnidirectional image CE as a flat image with little curvature, a display that does not give a sense of discomfort to humans can be achieved. This will be described with reference to FIGS.

なお、図5は、全天球画像を三次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、三次元の立体球として表示されている全天球画像CEに対して、その画像を見るユーザの視点の位置に相当するものである。また、図6(a)は図5の立体斜視図、図6(b)はディスプレイに表示された場合の所定領域画像を表す図である。また、図6(a)では、図4に示されている全天球画像が、三次元の立体球CSで表わされている。このように生成された全天球画像CEが、立体球CSであるとすると、図5に示されているように、仮想カメラICが全天球画像CEの内部に位置している。全天球画像CEにおける所定領域Tは、仮想カメラICの撮影領域である。所定領域Tのズームは、画角αの範囲(円弧)を広げたり縮めたりすることで表現することができる。また、所定領域Tのズームは、仮想カメラICを全天球画像CEに近づいたり、遠ざけたりすることで表現することもできる。所定領域画像Qは、全天球画像CEにおける所定領域Tの画像である。したがって、所定領域Tは画角αと、仮想カメラICから全天球画像CEまでの距離fにより特定できる(図7参照)。   FIG. 5 is a diagram showing the positions of the virtual camera and the predetermined area when the omnidirectional image is a three-dimensional solid sphere. The virtual camera IC corresponds to the position of the viewpoint of the user who views the omnidirectional image CE displayed as a three-dimensional solid sphere. FIG. 6A is a three-dimensional perspective view of FIG. 5, and FIG. 6B is a diagram showing a predetermined area image when displayed on the display. In FIG. 6A, the omnidirectional image shown in FIG. 4 is represented by a three-dimensional solid sphere CS. Assuming that the omnidirectional image CE generated in this way is a three-dimensional sphere CS, the virtual camera IC is positioned inside the omnidirectional image CE as shown in FIG. The predetermined area T in the omnidirectional image CE is a shooting area of the virtual camera IC. The zoom of the predetermined region T can be expressed by expanding or contracting the range (arc) of the angle of view α. The zoom of the predetermined area T can also be expressed by moving the virtual camera IC closer to or away from the omnidirectional image CE. The predetermined area image Q is an image of the predetermined area T in the omnidirectional image CE. Therefore, the predetermined area T can be specified by the angle of view α and the distance f from the virtual camera IC to the omnidirectional image CE (see FIG. 7).

そして、図6(a)に示されている所定領域画像Qは、図6(b)に示されているように、所定のディスプレイに、仮想カメラICの撮影領域の画像として表示される。図6(b)に示されている画像は、初期設定(デフォルト)された所定領域情報によって表された所定領域画像である。なお、所定領域Tは、画角αと距離fではなく、所定領域Tである仮想カメラICの撮影領域(X,Y,Z)によって示してもよい。   Then, the predetermined area image Q shown in FIG. 6A is displayed on the predetermined display as an image of the photographing area of the virtual camera IC as shown in FIG. 6B. The image shown in FIG. 6B is a predetermined area image represented by the predetermined (default) predetermined area information. The predetermined area T may be indicated not by the angle of view α and the distance f but by the imaging area (X, Y, Z) of the virtual camera IC that is the predetermined area T.

次に、図7を用いて、所定領域情報と所定領域Tの画像の関係について説明する。なお、図7は、所定領域情報と所定領域Tの画像の関係との関係を示した図である。図7に示されているように、仮想カメラICの画角αによって表される所定領域Tの対角画角をαとした場合の中心点CPが、所定領域情報の(x,y)パラメータとなる。fは仮想カメラICから中心点CPまでの距離である。Lは所定領域Tの任意の頂点と中心点CPとの距離である(2Lは対角線)。そして、図7では、一般的に以下の(式1)で示される三角関数が成り立つ。   Next, the relationship between the predetermined area information and the image of the predetermined area T will be described with reference to FIG. FIG. 7 is a diagram showing the relationship between the predetermined region information and the relationship between the images of the predetermined region T. As shown in FIG. 7, the center point CP when the diagonal field angle of the predetermined region T represented by the field angle α of the virtual camera IC is α is the (x, y) parameter of the predetermined region information. It becomes. f is the distance from the virtual camera IC to the center point CP. L is a distance between an arbitrary vertex of the predetermined region T and the center point CP (2L is a diagonal line). In FIG. 7, a trigonometric function represented by the following (formula 1) is generally established.

L/f=tan(α/2)・・・(式1)
以下、本発明の実施形態の詳細内容について説明する。
L / f = tan (α / 2) (Formula 1)
Hereinafter, the detailed content of the embodiment of the present invention will be described.

<<実施形態の詳細>>
<ハードウェア構成>
続いて、図8を用いて、本実施形態に係る撮影装置1内の画像処理装置10のハードウェア構成図について説明する。図8は、本実施形態に係る撮影装置内の画像処理装置のハードウェア構成図である。
<< Details of Embodiment >>
<Hardware configuration>
Next, a hardware configuration diagram of the image processing apparatus 10 in the photographing apparatus 1 according to the present embodiment will be described with reference to FIG. FIG. 8 is a hardware configuration diagram of the image processing apparatus in the photographing apparatus according to the present embodiment.

図8に示されているように、撮影装置1は、2つの撮像素子103a,103b、画像処理装置20、及び外部メモリ29を有している。更に、画像処理装置10は、画像処理部21、補正量作成部22、画像補正部23、射影変換部24、画像出力部25、CPU26、及び外部メモリI/Fを含み、各々がバスに接続されている。なお、撮像装置1は、複数の撮像素子で重複する画像領域(重複領域)を撮影し、撮影した複数の画像を、その重複領域で繋ぎ合わせることができる撮像機器であってもよい。また、撮影して得られたた複数の画像を、その重複領域で繋ぎ合わせる処理は、画像処理ICやソフトウェアを用いて実行することができる。   As shown in FIG. 8, the photographing apparatus 1 includes two imaging elements 103 a and 103 b, an image processing device 20, and an external memory 29. Further, the image processing apparatus 10 includes an image processing unit 21, a correction amount creation unit 22, an image correction unit 23, a projective conversion unit 24, an image output unit 25, a CPU 26, and an external memory I / F, each connected to a bus. Has been. Note that the imaging apparatus 1 may be an imaging device that can capture overlapping image areas (overlapping areas) with a plurality of imaging elements and connect the captured images in the overlapping areas. In addition, the process of joining a plurality of images obtained by photographing at the overlapping area can be executed using an image processing IC or software.

撮像素子103a,103bは、A/D変換器により変換した半球画像A,Bのデジタルータを画像処理部21へ出力する。   The image sensors 103a and 103b output the digital data of the hemispherical images A and B converted by the A / D converter to the image processing unit 21.

CPU26は、画像処理装置10全体の制御を行う。ROM27は、撮像装置1を起動させるプログラムや変換テーブル等を記憶する。   The CPU 26 controls the entire image processing apparatus 10. The ROM 27 stores a program for starting the imaging apparatus 1, a conversion table, and the like.

画像処理部21は、CPU26等とともに所定の画像処理を実行する。画像処理部21としては、特定用途向けの集積回路であるASIC(Application Specific Integrated Circuit)を用いることができる。画像処理部21は、CPU26等とともに、所定の画像処理として画像を繋ぎ合わせて全天球画像を生成する処理を行い、生成した全天球画像のデータを、外部メモリI/F28を介して外部メモリ29に格納する。また、画像処理部21は、撮像素子103a,103bから入力された画像を外部メモリ29に格納するとともに補正量作成部22へ引き渡す。   The image processing unit 21 executes predetermined image processing together with the CPU 26 and the like. As the image processing unit 21, an ASIC (Application Specific Integrated Circuit) that is an integrated circuit for a specific application can be used. The image processing unit 21, together with the CPU 26 and the like, performs processing for connecting images together as predetermined image processing to generate an omnidirectional image, and the generated omnidirectional image data is externally transmitted via the external memory I / F 28. Store in the memory 29. The image processing unit 21 stores the images input from the image sensors 103 a and 103 b in the external memory 29 and delivers them to the correction amount creating unit 22.

補正量作成部22は、撮像素子103a,103bからの画像に基づき、補正量を作成する。補正量の作成にあたっては、補正対象画像の判定処理を実行し、該判定処理において、前のフレームの画像の評価値を参照する。補正量は、画像が外部メモリ29に格納される前に作成される。   The correction amount creation unit 22 creates a correction amount based on the images from the image sensors 103a and 103b. In creating the correction amount, a correction target image determination process is executed, and the evaluation value of the image of the previous frame is referred to in the determination process. The correction amount is created before the image is stored in the external memory 29.

画像補正部23は、補正量作成部22による補正量の作成処理が終了した後、外部メモリ29に格納されている画像を読み込み、作成された補正量に基づき画像の補正を実施することで、図3(c)に示されているような正距円筒射影画像(Equi画像)を作成する。   The image correction unit 23 reads the image stored in the external memory 29 after the correction amount creation processing by the correction amount creation unit 22 is completed, and performs image correction based on the created correction amount. An equirectangular projection image (Equi image) as shown in FIG. 3C is created.

射影変換部24は、図4に示されているように、正距円筒射影画像を全天球画像に射影変換する。すなわち、射影変換部24への入力前に補正処理が実施される。   As shown in FIG. 4, the projective transformation unit 24 transforms the equirectangular projected image into an omnidirectional image. That is, correction processing is performed before input to the projective conversion unit 24.

画像出力部25は、射影変換部24によって射影変換された画像を出力する。   The image output unit 25 outputs the image that has undergone the projective transformation by the projective transformation unit 24.

<機能構成>
続いて、図9を用いて、画像処理装置10の機能構成につい説明する。図9は、本実施形態に係る撮影装置1内の画像処理装置10の機能ブロック図である。ここでは、本実施形態で特に詳細に説明する補正作成部22の機能構成について説明する。
<Functional configuration>
Next, the functional configuration of the image processing apparatus 10 will be described with reference to FIG. FIG. 9 is a functional block diagram of the image processing apparatus 10 in the photographing apparatus 1 according to the present embodiment. Here, a functional configuration of the correction creating unit 22 described in detail in the present embodiment will be described.

図9に示されているように、補正量作成部22は、補正対象判断部31、補正量算出部32、補正マップ作成部33及び埋込部34の各機構を実現することができる。   As shown in FIG. 9, the correction amount creation unit 22 can realize the mechanisms of the correction target determination unit 31, the correction amount calculation unit 32, the correction map creation unit 33, and the embedding unit 34.

補正対象判断部31は、複数の画像のそれぞれの画素の画素値に基づいて、複数の画像の中から補正対象画像を判断する。補正量算出部32は、各画像の画素値に基づき、補正対象画像を補正するための補正量を算出する。補正マップ作成部33は、補正対象画像を補正するための補正マップ(M4)を作成する。埋込部34は、複数の画像のいずれかのケラレ領域に、補正マップ(M4)のデータ等の補正量に関する情報を埋め込む。各部31〜34に関しては、後ほど詳細に説明する。   The correction target determination unit 31 determines a correction target image from the plurality of images based on the pixel values of the pixels of the plurality of images. The correction amount calculation unit 32 calculates a correction amount for correcting the correction target image based on the pixel value of each image. The correction map creation unit 33 creates a correction map (M4) for correcting the correction target image. The embedding unit 34 embeds information regarding the correction amount such as data of the correction map (M4) in any vignetting area of the plurality of images. Each part 31-34 is demonstrated in detail later.

<<実施形態の処理>>
続いて、図10乃至図31を用いて、本実施形態の処理について説明する。
<< Process of Embodiment >>
Subsequently, the processing of this embodiment will be described with reference to FIGS. 10 to 31.

まず、図10乃至図17を用いて、全天球画像を作成するための基本的な処理を説明する。図10は、全天球画像を作成するための基本的な処理を示すフローチャートである。図10に示されているように、画像処理部21は、2つの撮像素子103a,103bから取得した半球画像A,Bの歪み補正を行うことで、各半球画像(円形画像)を各平面画像(矩形画像)に変換する(ステップS11)。この処理について、図11乃至図13を用いて説明する。   First, basic processing for creating an omnidirectional image will be described with reference to FIGS. 10 to 17. FIG. 10 is a flowchart showing a basic process for creating an omnidirectional image. As illustrated in FIG. 10, the image processing unit 21 performs distortion correction on the hemispheric images A and B acquired from the two imaging elements 103 a and 103 b, thereby converting each hemispheric image (circular image) into each planar image. Conversion into (rectangular image) (step S11). This process will be described with reference to FIGS.

図11は、全天球撮影用のデジタルカメラの単一の撮像素子で撮像された画像データの概念図である。   FIG. 11 is a conceptual diagram of image data captured by a single image sensor of a digital camera for omnidirectional photography.

図11に示されているように、撮像素子103aで得られた半球画像データは、図11のように示すことができる。撮影装置1のレンズ102aは魚眼レンズであるため、撮像素子103a全体に対して白抜きされた円形画像が撮像素子103aの撮像面に形成される。尚、黒色部分は光が当たっていない箇所を示している。   As shown in FIG. 11, hemispherical image data obtained by the image sensor 103a can be shown as in FIG. Since the lens 102a of the imaging device 1 is a fisheye lens, a circular image with a white outline is formed on the imaging surface of the imaging element 103a. In addition, the black part has shown the location which is not irradiated with light.

図12は、全天球撮影用のデジタルカメラの2つの撮像素子で撮像された画像データの概念図である。2つの撮像素子103a,103bによって得られた2枚の画像から全天球画像を形成する際、2つの画像に重複する領域がある必要がある。撮影装置1では画角180度を越える魚眼レンズを用いている。そのため、半球画像A(図12(a)参照)及び半球画像(図12(b)参照)のように、各撮像面で重複する領域(図中車線部分)が発生する。この重複領域を用いて2枚の画像データの繋ぎ合わせを行なう。しかし、像点が画像の中心から離れるほど歪みや収差が発生しやすい。また、魚眼レンズの外枠などが移りこむ可能性がある。そのため、半球画像(魚眼画像)の外枠(斜線領域と黒領域の境目付近)を使用することは望ましくない。したがって、半球画像A(図12(c)参照)及び半球画像(図12(d)参照)のように、重複領域30は、各内側の所定幅を有する斜線で示された領域に限定する。   FIG. 12 is a conceptual diagram of image data captured by the two imaging elements of the omnidirectional digital camera. When an omnidirectional image is formed from two images obtained by the two image sensors 103a and 103b, there must be an overlapping area between the two images. The photographing apparatus 1 uses a fisheye lens having an angle of view exceeding 180 degrees. Therefore, like the hemispherical image A (see FIG. 12A) and the hemispherical image (see FIG. 12B), overlapping regions (lane portions in the figure) are generated on each imaging surface. Two pieces of image data are joined using this overlapping region. However, distortion and aberration tend to occur as the image point moves away from the center of the image. In addition, the outer frame of the fisheye lens may move in. Therefore, it is not desirable to use the outer frame (near the boundary between the hatched area and the black area) of the hemispherical image (fisheye image). Therefore, as in the hemispherical image A (see FIG. 12C) and the hemispherical image (see FIG. 12D), the overlapping region 30 is limited to the region indicated by the diagonal lines having a predetermined width inside each.

図13は、半球画像である円形画像を矩形画像に変換する処理を示した概念図である。図13に示されているように、撮像面に形成された円形画像は変換テーブルを用いた歪み補正によって矩形の画像データへと変換される。これにより、ステップS11の処理が終了する。   FIG. 13 is a conceptual diagram showing processing for converting a circular image, which is a hemispherical image, into a rectangular image. As shown in FIG. 13, the circular image formed on the imaging surface is converted into rectangular image data by distortion correction using a conversion table. Thereby, the process of step S11 is complete | finished.

次に、画像処理部21は、2つの半球画像A,Bから変換された矩形画像a、bの繋ぎ部分を探索する(ステップS12)。そして、画像処理部21は、矩形画像a、bの重複領域を重複して、ブレンド処理(合成処理)を行なうことで、図3に示されているような、1つの正距円筒射影画像を作成する(ステップS13)。   Next, the image processing unit 21 searches for a connecting portion between the rectangular images a and b converted from the two hemispherical images A and B (step S12). Then, the image processing unit 21 overlaps the overlapping areas of the rectangular images a and b, and performs a blending process (synthesizing process), thereby obtaining one equirectangular projected image as shown in FIG. Create (step S13).

図14は、各矩形画像の重複領域について説明する図である。ステップS13によって、2つの矩形画像a,bを重畳すると、図14に示されているような1つの正距1つの正距円筒射影画像が作成される。この際、画像処理部21は、テンプレートマッチングなどの処理で、重複領域30における矩形画像aと矩形画像bとの類似箇所を検出する。テンプレートマッチングを行う単位は、任意の分割画像サイズ単位で良い。但し、画像処理部21は、テンプレートマッチング後に、2つの矩形画像a,bを合成する。   FIG. 14 is a diagram illustrating an overlapping area of each rectangular image. When two rectangular images a and b are superimposed in step S13, one equirectangular projection image as shown in FIG. 14 is created. At this time, the image processing unit 21 detects a similar portion between the rectangular image a and the rectangular image b in the overlapping region 30 by processing such as template matching. A unit for performing template matching may be an arbitrary divided image size unit. However, the image processing unit 21 combines the two rectangular images a and b after template matching.

続いて、次の処理を説明する前に、図15乃至図17を用いて、撮像素子から出力される画像データにおけるケラレ領域(黒領域)について説明する。   Subsequently, before explaining the next processing, vignetting areas (black areas) in image data output from the image sensor will be described with reference to FIGS. 15 to 17.

図15は、撮像素子から出力される画像データの概念図である。上述したように、撮像素子から出力される画像データは、魚眼レンズを用いているため、図11に示されているような概念図となる。図11において、中白色部分は画像が形成されている領域で、黒部分は画像が形成されてない黒領域(ケラレ領域)である。そこで、無駄な領域を減らすために、本実施形態の撮像素子103a,bは、図15のように左右の黒領域を削除した画像データを出力する。図15中の破線内は、削除された黒領域を示す。但し、画像データにはまだ無駄な黒領域が残ったままである。   FIG. 15 is a conceptual diagram of image data output from the image sensor. As described above, the image data output from the image sensor is a conceptual diagram as shown in FIG. 11 because a fisheye lens is used. In FIG. 11, the middle white portion is a region where an image is formed, and the black portion is a black region (vignetting region) where no image is formed. Therefore, in order to reduce useless areas, the image sensors 103a and 103b of the present embodiment output image data in which the left and right black areas are deleted as shown in FIG. The broken line in FIG. 15 shows the deleted black area. However, useless black areas still remain in the image data.

図16は、黒レベル補正に使用されるケラレ領域(黒領域)を示した概念図である。この残っている黒領域は、画像処理部21内のISP(Image Signal Processing)部で、画像データの黒レベル補正に使用される。尚、図16では、黒レベル補正に使用される領域は、四つ角の領域であるが、位置はこれに限定されない。但し、画像データには、まだ無駄な黒領域が残っている。   FIG. 16 is a conceptual diagram showing a vignetting area (black area) used for black level correction. This remaining black area is used by the ISP (Image Signal Processing) unit in the image processing unit 21 for correcting the black level of the image data. In FIG. 16, the area used for black level correction is a square area, but the position is not limited to this. However, useless black areas still remain in the image data.

図17は、黒レベル補正に使用されるケラレ領域(黒領域)を示した概念図である。黒レベル補正後、即ち、ISP部通過後は、この無駄な黒領域(ケラレ領域)は一切各種画像処理に使用されない。しかし、画像データは、この無駄な黒領域を含め、一度外部メモリ29へと格納される。即ち、無駄なデータが外部メモリ29へ格納されるのである。本実施形態は、以降に示すように、ISP通過後のこの無駄な黒領域(ケラレ領域)に、「付加情報」を埋め込むことで、外部メモリ29のアクセス効率を向上させる。この付加情報は、例えば、2つの半球画像A,Bのうち、太陽や照明等を撮像することで一方の半球画像にフレア発生している場合に、このフレアが発生した画像(フレア画像)を他方の半球画像の輝度に合わせるための補正量の情報である。   FIG. 17 is a conceptual diagram showing a vignetting area (black area) used for black level correction. After the black level correction, that is, after passing through the ISP section, this useless black area (vignetting area) is not used for various image processing at all. However, the image data is once stored in the external memory 29 including this useless black area. That is, useless data is stored in the external memory 29. In the present embodiment, as will be described later, the access efficiency of the external memory 29 is improved by embedding “additional information” in this useless black area (vignetting area) after passing through the ISP. This additional information is, for example, an image (flare image) in which the flare is generated when flare is generated in one hemisphere image by imaging the sun, illumination, etc. of the two hemispheric images A and B. This is information on the amount of correction for matching the luminance of the other hemispherical image.

続いて、付加情報を埋め込むにあたり、まずは、図18乃図20を用いて、半球画像A,Bのうち、補正対象画像としてのフレア画像を判断する処理について説明する。図18は、フレア画像の判断処理を示したフローチャートである。図18の処理は、全て、図9の補正対象判断部31が行なう。   Subsequently, in embedding the additional information, first, a process for determining a flare image as a correction target image among the hemispherical images A and B will be described with reference to FIGS. FIG. 18 is a flowchart showing a flare image determination process. The processing of FIG. 18 is all performed by the correction target determination unit 31 of FIG.

まず、補正対象判断部31は、重複領域30の輝度値に関して、平均値を算出する(ステップS21)。これに関して、図19及び図20を用いて、補足説明する。   First, the correction target determination unit 31 calculates an average value for the luminance value of the overlapping region 30 (step S21). This will be supplementarily described with reference to FIGS. 19 and 20.

図19は、画像内の全ての分割エリアを示した概念図である。上述したように、半球画像において、画像外枠付近は重複領域30となっている。補正対象判断部31は、重複領域30の画素値(輝度値)を測定し、平均値(又は分散値)を算出する。   FIG. 19 is a conceptual diagram showing all the divided areas in the image. As described above, in the hemispherical image, the vicinity of the outer frame is the overlapping region 30. The correction target determination unit 31 measures the pixel value (luminance value) of the overlapping region 30 and calculates an average value (or variance value).

次に、補正対象判断部31は、半球画像A,Bの相対的なエリア間で平均値の絶対値を比較する(ステップS22)。そして、補正対象判断部31は、比較した差分が閾値より大きいか否かを判断する(ステップS23)。   Next, the correction target determination unit 31 compares the absolute values of the average values between the relative areas of the hemispherical images A and B (step S22). Then, the correction target determining unit 31 determines whether or not the compared difference is larger than the threshold (step S23).

ステップS23において、大きい場合には、補正対象判断部31は、閾値を超える方の半球画像を補正対象画像(ここでは、フレア画像)と判断する(ステップS24)。また、ステップS23において、大きくない場合には、補正対象判断部31は、補正対象画像(ここでは、フレア画像)がないと判断する(ステップ25)。   In step S23, if larger, the correction target determining unit 31 determines that the hemispherical image that exceeds the threshold is a correction target image (here, a flare image) (step S24). In step S23, if not large, the correction target determination unit 31 determines that there is no correction target image (here, a flare image) (step 25).

尚、画像データフォーマットはRGBであっても、YCbCrであっても構わない。また、この場合、平均値算出した結果は算出したエリアが画像データのどこに位置するかで異なる。これに関して、図20を用いて説明する。図20は、重複領域及び重複領域付近の分割エリアを示した概念図である。図20のように、重複領域付近の場合は2つの半球画像データのうち、どちらが補正対象であるかを判定するのに用いる。具体的には上記の平均値や分散値を2つの半球画像の相対エリア間で差分の絶対値を取り、その値が閾値を超える画像を補正対象画像と判断し、その画像がある場合に補正対象画像(フレア画像)があると判断する。全天球撮像用のカメラの場合は、一方が補正対象画像であれば、他方の画像を補正基準画像として決定することができる。基本的に同時露光により撮像した場合、重複領域30は同じ被写体の画像が同じ明るさで撮影されるはずであるが、一方の半球画像にフレアが発生している際は重複領域30の平均値が大きくなるため、上述のように閾値を設け、その閾値より大きいときにフレア画像であると判断される。   The image data format may be RGB or YCbCr. In this case, the result of calculating the average value differs depending on where the calculated area is located in the image data. This will be described with reference to FIG. FIG. 20 is a conceptual diagram showing an overlapping area and divided areas near the overlapping area. As shown in FIG. 20, in the case of the vicinity of the overlapping region, it is used to determine which of the two hemispherical image data is to be corrected. Specifically, the above average and variance values are taken as absolute values of the difference between the relative areas of the two hemispheric images, and an image whose value exceeds the threshold is determined as a correction target image, and correction is performed when there is such an image. It is determined that there is a target image (flare image). In the case of a camera for omnidirectional imaging, if one image is a correction target image, the other image can be determined as a correction reference image. Basically, when imaged by simultaneous exposure, the overlapping region 30 should be taken with the same brightness as the image of the same subject, but when a flare occurs in one hemisphere image, the average value of the overlapping region 30 Therefore, a threshold value is provided as described above, and a flare image is determined when it is larger than the threshold value.

続いて、補正対象判断部31によって、フレア画像があると判断された場合、補正量算出部32は、補正マップの作成を行なう。ここで、補正マップの作成について詳細に説明する。
まずは、図21乃至図25を用いて、補正マップの作成に使用するための補正除外マップ及び仮補正マップを作成する処理を説明する。図21は、補正除外マップ及び仮補正マップを作成する処理を示したシーケンス図である。図21の処理は、全て、補正量算出部32が行う。
Subsequently, when the correction target determination unit 31 determines that there is a flare image, the correction amount calculation unit 32 creates a correction map. Here, the creation of the correction map will be described in detail.
First, processing for creating a correction exclusion map and a temporary correction map for use in creating a correction map will be described with reference to FIGS. FIG. 21 is a sequence diagram showing processing for creating a correction exclusion map and a temporary correction map. The correction amount calculation unit 32 performs all the processing in FIG.

フレア画像に対して補正を行う際、フレア画像全体を補正するため、画像が全体的に暗くなる。すると、2つの半球画像A,Bを重畳結合した場合に、目で見て不自然な画像になることがある。そこで、フレア補正をする必要がない箇所(光源など)を区別するために補正除外マップM2の作成を行なう。   When correction is performed on the flare image, the entire flare image is corrected, so that the image becomes dark overall. Then, when the two hemispherical images A and B are superimposed and combined, an unnatural image may be obtained. Therefore, a correction exclusion map M2 is created in order to distinguish a portion (such as a light source) that does not require flare correction.

補正除外マップM2は上述した重複領域30以外の半球画像内のエリアにおける輝度値の最大値で求めることができる。補正除外領域の条件は(条件1)で示される「高輝度かつ無彩色」または(条件2)で示される「高輝度かつ輝度の最大値が閾値以上」とすることが出来る。高輝度であるかの閾値はレジスタ等で設定出来るとしても良い。   The correction exclusion map M2 can be obtained by the maximum value of the luminance value in the area in the hemispheric image other than the overlapping region 30 described above. The condition of the correction exclusion region can be “high luminance and achromatic color” indicated by (condition 1) or “high luminance and maximum luminance value equal to or greater than a threshold value” indicated by (condition 2). The threshold value for high brightness may be set by a register or the like.

補正除外条件としては(条件1)及び(条件2)の両方で判断することが望ましい。1つの評価領域全体が均一な輝度や色を有している場合は(条件1)のみで判断することができる。しかし、1つの評価領域内に光源などの高輝度の被写体と木などの低輝度の被写体が存在する場合、(条件1)による演算に適合しなくなるため、光源の画像が補正され、光源が暗く不自然な画像になってしまうからである。(条件2)を含めることで光源と木などを含む画像も補正除外領域として適切に抽出ができるようになる。   As the correction exclusion condition, it is desirable to make a determination based on both (Condition 1) and (Condition 2). When the entire evaluation area has uniform brightness and color, it can be determined only by (Condition 1). However, if a high-luminance subject such as a light source and a low-luminance subject such as a tree are present in one evaluation area, the light source image is corrected and the light source is dark because the calculation according to (Condition 1) is not satisfied. This is because the image becomes unnatural. By including (Condition 2), an image including a light source and a tree can be appropriately extracted as a correction exclusion region.

図22は、フレア画像を複数エリアに分割した概念図である。図23は、フレア画像の各分割エリアに除外フラグが格納された状態を示した概念図である。補正除外マップM2は補正対象画像(ここでは、フレア画像)を複数の評価領域に分割した際と同様の形態を持つ。補正量算出部32は、補正除外対象があるか否かを判断する(ステップS31)。そして、補正除外対象がある場合には(YES)、補正量算出部32は、図22の複数の分割エリアに対して、図23に示されているように、補正除外するブロックには「1」を格納する(ステップS32)。一方、補正除外対象がない場合には(NO)、補正量算出部32は、図22の複数の分割エリアに対して、図23に示されているように、補正除外しないブロックには「1」をマッピングする。またこのとき、補正量算出部32は、除外するか否かを示すフラグ「1」、「0」だけでなく、ブロックごとの評価値(例えば、画素値(輝度値)の平均値又は分散値)も格納する(ステップS34)。そして、補正量算出部32は、全ての分割エリアに対して、ステップS31〜34の処理を繰り返して行なう(ステップS35,NO)。全ての分割エリアでの処理が終了すると、補正量算出部32は、補正除外マップM2を作成が終了する(ステップS36)。   FIG. 22 is a conceptual diagram in which a flare image is divided into a plurality of areas. FIG. 23 is a conceptual diagram showing a state in which an exclusion flag is stored in each divided area of the flare image. The correction exclusion map M2 has the same form as when a correction target image (here, a flare image) is divided into a plurality of evaluation areas. The correction amount calculation unit 32 determines whether there is a correction exclusion target (step S31). Then, when there is a correction exclusion target (YES), the correction amount calculation unit 32 sets “1” for the block to be excluded from correction, as shown in FIG. Is stored (step S32). On the other hand, when there is no correction exclusion target (NO), the correction amount calculation unit 32 sets “1” for the blocks that are not excluded from the correction, as shown in FIG. ". At this time, the correction amount calculation unit 32 not only includes flags “1” and “0” indicating whether or not to exclude, but also an evaluation value for each block (for example, an average value or a variance value of pixel values (luminance values)) ) Is also stored (step S34). And the correction amount calculation part 32 repeats the process of step S31-34 with respect to all the division areas (step S35, NO). When the processing in all the divided areas is finished, the correction amount calculation unit 32 finishes creating the correction exclusion map M2 (step S36).

続いて、補正量算出部32は、補正量の算出を行い(ステップS37)、仮補正マップM1を作成する(ステップ38)。ここで、図24及び図25を用いて、補正量の算出及び仮補正マップM1の作成について詳細に説明する。図24において、(a)はフレア画像における重複領域及び重複領域付近の分割エリアを示した概念図、(b)は(a)の一部の分割エリアのみを示した拡大図、(c)は基準画像における重複領域及び重複領域付近の分割エリアを示した概念図、(b)は(c)の一部の分割エリアのみを示した拡大図である。   Subsequently, the correction amount calculation unit 32 calculates a correction amount (step S37) and creates a temporary correction map M1 (step 38). Here, the calculation of the correction amount and the creation of the temporary correction map M1 will be described in detail with reference to FIGS. In FIG. 24, (a) is a conceptual diagram showing an overlapping area and a divided area near the overlapping area in the flare image, (b) is an enlarged view showing only a part of the divided area of (a), and (c) is an illustration. The conceptual diagram which showed the overlap area in the reference | standard image, and the division area of the overlap area vicinity, (b) is an enlarged view which showed only the partial area of (c).

補正量の算出は、フレア画像と基準画像の重複領域を比較して行われる。Ch0(図24(a)参照)とCh1(図24(c)参照)の重複領域30で繋ぎ合わせる領域を破線枠で示しており、この右側にそれぞれの拡大図(図24(b)、(d)参照)を示している。全天球撮像用のデジタルカメラは表裏同時に撮影する。そのため、重複領域30内の同じ画像は、図3(a),(b)に示されているように、180度回転した位置となっている。つなぎ合わせる際、エリアAで示された評価領域の値は、一方はフレアが発生しているため高い値で、もう一方がそれより低い値を示す。本実施形態では、これを同じ値にするような補正を行う。補正に用いる値は以下の(式2)又は(式3)のいずれかを用いる。   The correction amount is calculated by comparing overlapping areas of the flare image and the reference image. A region where the overlapping regions 30 of Ch0 (see FIG. 24 (a)) and Ch1 (see FIG. 24 (c)) are joined is indicated by a broken-line frame, and each enlarged view (FIG. 24 (b), ( d) see). The digital camera for omnidirectional imaging shoots at the same time. Therefore, the same image in the overlapping region 30 is at a position rotated by 180 degrees as shown in FIGS. 3 (a) and 3 (b). At the time of joining, the value of the evaluation area indicated by area A is high because one has flare, and the other is lower than that. In the present embodiment, correction is performed so as to make this the same value. As a value used for correction, either of the following (Expression 2) or (Expression 3) is used.

補正量=(基準画像の評価値/フレア画像の評価値)・・・(式2)
補正量= 基準画像の評価値−フレア画像の評価値・・・(式3)
算出された補正量の値はフレア画像のエリアAに格納される。この処理を重複領域30の全てに対して実施する。
Correction amount = (Evaluation value of reference image / Evaluation value of flare image) (Equation 2)
Correction amount = evaluation value of reference image−evaluation value of flare image (Equation 3)
The calculated correction value is stored in the area A of the flare image. This process is performed for all the overlapping areas 30.

図25は、フレア画像の補正量を定めるための概念図である。算出された重複領域30の補正量を用いて、重複領域30の内側の補正量を算出する。具体的には重複領域30から、図25のように、半球画像内の中心へ向けて補正量を補間し、重複領域内側の各領域の補正量を決定する。   FIG. 25 is a conceptual diagram for determining the correction amount of the flare image. A correction amount inside the overlapping region 30 is calculated using the calculated correction amount of the overlapping region 30. Specifically, as shown in FIG. 25, the correction amount is interpolated from the overlap region 30 toward the center in the hemisphere image, and the correction amount of each region inside the overlap region is determined.

続いて、図26乃至図28を用いて、補正マップM4の作成及びこの補正マップM4を補正対象画像(半球画像)のケラレ領域に埋め込む処理について説明する。図26のステップS41,S42の処理は、補正マップ作成部33が行なう。図26のステップS43の処理は、埋込部34が行なう。   Next, generation of the correction map M4 and processing for embedding the correction map M4 in the vignetting area of the correction target image (hemisphere image) will be described with reference to FIGS. The correction map creation unit 33 performs the processes in steps S41 and S42 in FIG. The embedding unit 34 performs the process of step S43 in FIG.

図26に示されているように、補正マップ作成部33は、仮補正マップM1に補正除外マップM2を適用する(ステップS41)。この処理に関して、図27を用いて詳細に説明する。   As shown in FIG. 26, the correction map creating unit 33 applies the correction exclusion map M2 to the temporary correction map M1 (step S41). This process will be described in detail with reference to FIG.

図27は、フレア画像の補正量を定めるための概念図である。補正マップ作成部33は、仮補正マップM1と補正除外マップ(高輝度マップ)M2を用いて、補正マップM3を作成する。具体的な手法は、例えば、特開2015−226144号公報に記載されているため、ここでは簡単に説明する。図27(a)に示す仮補正マップM1の各分割エリアにおいて、図27(b)の補正除外マップM2の対応する分割エリアの除外フラグが「1」であれば、図27(c)の補正マップの値を「1.0」に置き換える。一方、除外フラグ「0」であれば、仮補正マップM1で得られた値をそのまま用いる。この処理を全ての分割エリアに対して実施し、補正マップM3を作成する。   FIG. 27 is a conceptual diagram for determining the correction amount of the flare image. The correction map creation unit 33 creates a correction map M3 using the temporary correction map M1 and the correction exclusion map (high brightness map) M2. A specific method is described in, for example, Japanese Patent Application Laid-Open No. 2015-226144, and will be briefly described here. In each divided area of the temporary correction map M1 shown in FIG. 27A, if the exclusion flag of the corresponding divided area of the correction exclusion map M2 in FIG. 27B is “1”, the correction in FIG. Replace the map value with "1.0". On the other hand, if the exclusion flag is “0”, the value obtained from the temporary correction map M1 is used as it is. This process is performed for all the divided areas, and a correction map M3 is created.

なお、補正除外マップM2適用後の補正マップM3は、分割エリア間で値が大きく変動している場合がある。そのため、算出された補正マップM1に対してガウシアンフィルタなどの平滑化フィルタをかけてもよい。   Note that the value of the correction map M3 after application of the correction exclusion map M2 may vary greatly between the divided areas. Therefore, a smoothing filter such as a Gaussian filter may be applied to the calculated correction map M1.

次に、補正マップ作成部33は、補正マップM3を変倍する(ステップS42)。この処理に関して、図28を用いて詳細に説明する。   Next, the correction map creation unit 33 scales the correction map M3 (step S42). This process will be described in detail with reference to FIG.

図28は、補正マップの分割エリアを補正対象画像の解像度に合わせて変倍した場合の概念図である。補正マップM3は任意のブロックサイズの解像度になっている。これを補正対象画像全域に適用するために、図28(a)に示す補正マップM3を変倍し、図28(b)に示すように補正対象画像の解像度へと変換した補正マップM4を作成する。変倍方法としてはニアレストネイバー、バイリニア、バイキュービックなどの変倍方法を用いる。変倍後の補正マップM4を補正対象画像全体に適用し、補正後の画像を得る。   FIG. 28 is a conceptual diagram when the division area of the correction map is scaled according to the resolution of the correction target image. The correction map M3 has a resolution of an arbitrary block size. In order to apply this to the entire correction target image, the correction map M3 shown in FIG. 28A is scaled to create a correction map M4 converted to the resolution of the correction target image as shown in FIG. To do. As a scaling method, a scaling method such as nearest neighbor, bilinear or bicubic is used. The corrected correction map M4 is applied to the entire correction target image to obtain a corrected image.

補正量を算出する場合に、(式2)を使用したのであれば、補正画像に対して補正量の乗算を行う。一方、(式3)使用したのであれば、補正画像に対して補正量の加算を行なう。尚、以上の補正演算に関して特開2015−226144号公報に開示されているように、算出値が極端に小さい又は大きくなりすぎないように、上限又は下限を設けて算出される算出値の量を制限してもよい。   If (Equation 2) is used when calculating the correction amount, the correction image is multiplied by the correction amount. On the other hand, if (Equation 3) is used, the correction amount is added to the corrected image. As disclosed in Japanese Patent Application Laid-Open No. 2015-226144 regarding the above correction calculation, the amount of calculation value calculated with an upper limit or a lower limit is set so that the calculation value does not become extremely small or too large. You may restrict.

最後に、埋込部34は、補正マップM4を補正対象画像(半球画像)のケラレ領域に埋め込む(ステップS43)。この処理に関して、図29乃至図31を用いて詳細に説明する。   Finally, the embedding unit 34 embeds the correction map M4 in the vignetting area of the correction target image (hemispheric image) (step S43). This process will be described in detail with reference to FIGS.

図29は、補正マップを埋め込む前の半球画像の各ライン分のデータと、半球画像におけるケラレ領域を示す概念図である。半球画像はケラレ領域を含めて全て外部メモリ29へと転送される。しかし、上述のように、ISP通過後の半球画像におけるケラレ領域は、後段の処理では不要であるため、無駄な領域となっている。この場合、同じ1ラインの転送であっても、図29に示されているように、半球画像の中心部分の画像データの1ライン分(L1)と、半球画像の端部の画像データの1ライン分(L2)とでは、同じ1ライン分の転送であっても、ケラレ領域が占める割合が異なる。更に、ケラレ領域は後段の画像補正部23、」射影変換部24等では使用されない。したがって、このケラレ領域にデータを埋め込むことが可能である。   FIG. 29 is a conceptual diagram showing data for each line of the hemispherical image before embedding the correction map and the vignetting area in the hemispherical image. All hemispherical images including the vignetting area are transferred to the external memory 29. However, as described above, the vignetting area in the hemispherical image after passing through the ISP is unnecessary in the subsequent processing, and thus is a useless area. In this case, even if the transfer is the same one line, as shown in FIG. 29, one line (L1) of the image data of the central portion of the hemispherical image and 1 of the image data at the end of the hemispherical image. The ratio of the vignetting area differs from the line (L2) even if the transfer is the same for one line. Further, the vignetting area is not used in the subsequent image correction unit 23, the projection conversion unit 24, or the like. Therefore, it is possible to embed data in this vignetting area.

図30は、補正マップを埋め込んだ後の半球画像の各ライン分のデータと、半球画像におけるケラレ領域を示す概念図である。埋込部34は、半球画像の下部のようにケラレ領域に補正マップM4を埋め込むことで、半球画像とは別に補正マップMを外部メモリ29へと転送する必要がなくなる。これにより、図31に示されているように、1フレームあたりのメモリ帯域は、半球画像(魚眼画像)が2つ分で済む。即ち、半球画像A(例えば、補正対象画像ではない)と、補正マップM4を埋め込んだ状態の半球画像B(例えば、補正対象画像)との2つの画像の転送で済むことができる。なお、図31は、1フレームあたりの転送データを示した概念図である。なお、図31では、補正対象画像の場合の半球画像B側に補正マップM4を埋め込んだ例を示したが、補正対象画像でない場合の半球画像A側に埋め込んでもよい。   FIG. 30 is a conceptual diagram showing the data for each line of the hemispherical image after embedding the correction map and the vignetting area in the hemispherical image. The embedding unit 34 embeds the correction map M4 in the vignetting area like the lower part of the hemispherical image, so that it is not necessary to transfer the correction map M to the external memory 29 separately from the hemispherical image. As a result, as shown in FIG. 31, the memory bandwidth per frame may be two hemispherical images (fisheye images). That is, it is only necessary to transfer two images, a hemispherical image A (for example, not a correction target image) and a hemispherical image B (for example, a correction target image) in which the correction map M4 is embedded. FIG. 31 is a conceptual diagram showing transfer data per frame. FIG. 31 shows an example in which the correction map M4 is embedded on the hemispherical image B side in the case of the correction target image, but it may be embedded on the hemispherical image A side when it is not the correction target image.

<<実施形態の効果>>
以上説明したように、本実施形態によれば、半球画像のケラレ領域に補正マップM4の出データ等の補正に関する情報を埋め込むことで、外部メモリ29へのアクセス効率が向上するという効果を奏する。
<< Effects of Embodiment >>
As described above, according to the present embodiment, by embedding information related to correction such as the output data of the correction map M4 in the vignetting area of the hemispherical image, the access efficiency to the external memory 29 is improved.

〔変形例〕
図32は、撮像素子から出力される画像データの変形例の概念図である。撮像素子103a,bの撮像面が白抜きされた円形画像で示されており、この変形画像が左側に寄っている。このような場合、各分割エリアの最終ライン(右側)のケラレ領域に埋め込んでもよい。本実施形態としてはケラレ領域に補正マップM4を埋め込み、メモリ帯域を減らすことを目的としているため、ケラレ領域における埋め込む位置は問わない。
[Modification]
FIG. 32 is a conceptual diagram of a modification of image data output from the image sensor. The imaging surfaces of the imaging elements 103a and 103b are shown as white circular images, and this deformed image is shifted to the left side. In such a case, it may be embedded in the vignetting area on the last line (right side) of each divided area. In the present embodiment, since the correction map M4 is embedded in the vignetting area to reduce the memory bandwidth, the position in the vignetting area is not limited.

また、埋め込むデータは上述した補正マップM4に限られない。例えば、図8において、画像補正部23が、外部メモリ29に画像データが任意のライン数書き込まれたときに動作する場合、埋め込まれた補正マップM4の末尾に画像補正部23を起動させるためのトリガ情報を埋め込むことも可能である。外部メモリI/F28が、そのトリガ情報を検出した際、起動トリガを画像補正部23に対して出力し、動作させることが可能である。また、書き込んだライン数を数える必要がなくなるため、回路規模を削減するという効果も奏する。   The data to be embedded is not limited to the correction map M4 described above. For example, in FIG. 8, when the image correction unit 23 operates when an arbitrary number of lines of image data are written in the external memory 29, the image correction unit 23 is activated at the end of the embedded correction map M4. It is also possible to embed trigger information. When the external memory I / F 28 detects the trigger information, the activation trigger can be output to the image correction unit 23 and operated. Further, since it is not necessary to count the number of lines written, there is an effect of reducing the circuit scale.

1 撮像装置
20 画像処理装置
21 画像処理部
22 補正量作成部
23 画像処理部
24 射影変換部
25 画像出力部
26 CPU
27 ROM
28 外部メモリI/F
29 外部メモリ
31 補正対象判断部(補正対象判断手段の一例)
32 補正量算出部(補正量算出手段の一例)
33 補正マップ作成部(補正マップ作成手段の一例)
34 埋込部(埋込手段の一例)
DESCRIPTION OF SYMBOLS 1 Imaging device 20 Image processing device 21 Image processing part 22 Correction amount creation part 23 Image processing part 24 Projection conversion part 25 Image output part 26 CPU
27 ROM
28 External memory I / F
29 External memory 31 Correction target determination unit (an example of correction target determination means)
32 Correction amount calculation unit (an example of correction amount calculation means)
33. Correction map creation unit (an example of correction map creation means)
34 Embedding part (an example of embedding means)

特開2014−120878号公報JP, 2014-120878, A 特開2016−027744号公報Japanese Patent Laid-Open No. 2006-027744 特開2013−243610号公報JP2013-243610A

Claims (7)

複数の撮像素子から取得した各画像に対して画像処理を行う画像処理装置であって、
前記複数の画像のそれぞれの画素の画素値に基づいて、前記複数の画像の中から補正対象画像を判断する補正対象判断手段と、
前記各画像の画素値に基づき、前記補正対象画像を補正するための補正量を算出する補正量算出手段と、
前記複数の画像のいずれかのケラレ領域に前記補正量に関する情報を埋め込む埋込手段と、
を有することを特徴とする画像処理装置。
An image processing apparatus that performs image processing on each image acquired from a plurality of image sensors,
Correction target determination means for determining a correction target image from the plurality of images based on pixel values of respective pixels of the plurality of images;
Correction amount calculation means for calculating a correction amount for correcting the correction target image based on the pixel value of each image;
Embedding means for embedding information on the correction amount in any vignetting area of the plurality of images;
An image processing apparatus comprising:
前記複数の画像のいずれかのケラレ領域は、前記補正対象画像のケラレ領域であることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein any one of the plurality of images is a vignetting area of the correction target image. 前記補正量に関する情報は、前記補正対象画像を補正するための補正マップであることを特徴とする請求項1又は2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the information related to the correction amount is a correction map for correcting the correction target image. 前記ケラレ領域の位置は、レジスタ設定されることを特徴とする請求項1乃至3のいずれか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the position of the vignetting area is set in a register. 前記埋込手段は、前記複数の画像のうち、ケラレ領域に前記補正量に関する情報を埋め込む所定の画像を選択することを特徴とする請求項1乃至4のいずれか一項に記載の画像処理装置。   5. The image processing apparatus according to claim 1, wherein the embedding unit selects a predetermined image in which information relating to the correction amount is embedded in the vignetting area among the plurality of images. . 請求項1乃至5の何れか一項に記載の画像処理装置と、
被写体を撮影して得られた第1の画像データを前記画像処理装置に送る第1の撮像素子と、
被写体を撮影して得られた第2の画像データを前記画像処理装置に送る第2の撮像素子と、
を有する撮影装置。
An image processing apparatus according to any one of claims 1 to 5,
A first image sensor for sending first image data obtained by photographing a subject to the image processing device;
A second image sensor for sending second image data obtained by photographing a subject to the image processing device;
A photographing apparatus having
複数の撮像素子から取得した各画像に対して画像処理を行う画像処理方法であって、
前記複数の画像のそれぞれの画素の画素値に基づいて、前記複数の画像の中から補正対象画像を判断する補正対象判断ステップと、
前記各画像の画素値に基づき、前記補正対象画像を補正するための補正量を算出する補正量算出ステップと、
前記複数の画像のいずれかのケラレ領域に前記補正量に関する情報を埋め込む埋込ステップと、
を実行することを特徴とする画像処理方法。
An image processing method for performing image processing on each image acquired from a plurality of image sensors,
A correction target determination step of determining a correction target image from the plurality of images based on pixel values of respective pixels of the plurality of images;
A correction amount calculating step for calculating a correction amount for correcting the correction target image based on the pixel value of each image;
An embedding step of embedding information on the correction amount in any vignetting area of the plurality of images;
The image processing method characterized by performing.
JP2017070898A 2017-03-31 2017-03-31 Image processing device, photographing device, and image processing method Active JP6825458B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017070898A JP6825458B2 (en) 2017-03-31 2017-03-31 Image processing device, photographing device, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017070898A JP6825458B2 (en) 2017-03-31 2017-03-31 Image processing device, photographing device, and image processing method

Publications (2)

Publication Number Publication Date
JP2018174431A true JP2018174431A (en) 2018-11-08
JP6825458B2 JP6825458B2 (en) 2021-02-03

Family

ID=64107832

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017070898A Active JP6825458B2 (en) 2017-03-31 2017-03-31 Image processing device, photographing device, and image processing method

Country Status (1)

Country Link
JP (1) JP6825458B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021012099A (en) * 2019-07-05 2021-02-04 株式会社リコー 360-degree spherical imaging apparatus, image processing apparatus, and image processing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003308539A (en) * 2002-04-17 2003-10-31 Tateyama Machine Kk Method for recording image conversion parameter in annular image, and annular image data with image conversion parameter recorded
JP2016091371A (en) * 2014-11-06 2016-05-23 株式会社リコー Image processor, image processing method, image processing system, program, and recording medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003308539A (en) * 2002-04-17 2003-10-31 Tateyama Machine Kk Method for recording image conversion parameter in annular image, and annular image data with image conversion parameter recorded
JP2016091371A (en) * 2014-11-06 2016-05-23 株式会社リコー Image processor, image processing method, image processing system, program, and recording medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021012099A (en) * 2019-07-05 2021-02-04 株式会社リコー 360-degree spherical imaging apparatus, image processing apparatus, and image processing method
JP7346947B2 (en) 2019-07-05 2023-09-20 株式会社リコー Omnidirectional imaging device, image processing device, and image processing method

Also Published As

Publication number Publication date
JP6825458B2 (en) 2021-02-03

Similar Documents

Publication Publication Date Title
JP6721065B2 (en) Imaging device, image processing device and method
CN108600576B (en) Image processing apparatus, method and system, and computer-readable recording medium
JP6812862B2 (en) Image processing system, imaging device, image processing method and program
JP6625745B2 (en) Image processing device
CN109218606B (en) Image pickup control apparatus, control method thereof, and computer readable medium
JP2019057903A (en) Image processing apparatus, photographing system, image processing method, and program
JP2019075766A (en) Image processing apparatus, photographing system, image processing method, and program
CN110784693A (en) Projector correction method and projection system using same
JP2004135209A (en) Generation device and method for wide-angle view high-resolution video image
TW201824178A (en) Image processing method for immediately producing panoramic images
US20220230275A1 (en) Imaging system, image processing apparatus, imaging device, and recording medium
JP6291748B2 (en) Imaging apparatus, imaging method, and program
JP6825458B2 (en) Image processing device, photographing device, and image processing method
CN109218602B (en) Image acquisition device, image processing method and electronic device
CN107580157B (en) Image processing apparatus, image processing method, and program
JP6673459B2 (en) Image processing apparatus, image processing system, and program
JP6696596B2 (en) Image processing system, imaging device, image processing method and program
JP2019087984A (en) Information processing apparatus, imaging system, program
JP6881646B2 (en) Image processing system, imaging device, image processing method and program
JP2004128588A (en) Imaging unit
JP6885158B2 (en) Image processing device, photographing device, and image processing method
JP7451888B2 (en) Imaging device, imaging system, method and program
JP2002058046A (en) Imaging system and three-dimensional camera
JP7379884B2 (en) Imaging device, image processing system, method and program
KR102498870B1 (en) Camera system and method for processing image thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201228

R151 Written notification of patent or utility model registration

Ref document number: 6825458

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151