JP2016040883A - Image processing device, image processing method, image processing system, and program - Google Patents

Image processing device, image processing method, image processing system, and program Download PDF

Info

Publication number
JP2016040883A
JP2016040883A JP2014164691A JP2014164691A JP2016040883A JP 2016040883 A JP2016040883 A JP 2016040883A JP 2014164691 A JP2014164691 A JP 2014164691A JP 2014164691 A JP2014164691 A JP 2014164691A JP 2016040883 A JP2016040883 A JP 2016040883A
Authority
JP
Japan
Prior art keywords
image
exposure condition
image processing
condition
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014164691A
Other languages
Japanese (ja)
Inventor
今江 望
Nozomi Imae
望 今江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014164691A priority Critical patent/JP2016040883A/en
Publication of JP2016040883A publication Critical patent/JP2016040883A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To improve image quality of an output image.SOLUTION: An image processing device for performing image processing on image data executes: acquisition processing of acquiring two or more partial images under each exposure condition of two or more exposure conditions including a first exposure condition and a second exposure condition; calculation processing of calculating a connection condition for connecting partial images under the first exposure condition; synthesis processing of creating, with respect to partial images acquired by the acquisition processing, at least two synthesis images of a first synthesis image created from two or more partial images under the first exposure condition on the basis of the connection condition calculated by the calculation processing and a second synthesis image created from two or more partial images under the second exposure condition on the basis of the connection condition; and creation processing of creating an output image on the basis of at least the first synthesis image and the second synthesis image.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、画像処理方法、画像処理システム、及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, an image processing system, and a program.

従来、パノラマ画像を貼り合わせ合成で作成する方法が知られている。パノラマ画像を貼り合わせ合成で作成する場合、被写体を分割して撮影し、分割して撮影した各画像にそれぞれ露出補正を行ってから画像を合成する方法が知られている(例えば、特許文献1参照)。   Conventionally, a method of creating a panoramic image by combining and combining is known. When creating a panoramic image by combining images, a method is known in which a subject is divided and photographed, and exposure is corrected for each of the divided and photographed images, and then the images are combined (for example, Patent Document 1). reference).

また、白とび、及び黒つぶれのないパノラマ画像を生成するため、露出の異なる複数の分割画像を合成する方法が知られている(例えば、特許文献2参照)。   In addition, a method of synthesizing a plurality of divided images with different exposures is known in order to generate a panoramic image without overexposure and underexposure (see, for example, Patent Document 2).

しかしながら、従来の方法では、同一のつなぎ条件で合成した合成画像から出力画像を生成していないため、出力画像の画質が劣化する場合があった。   However, in the conventional method, since the output image is not generated from the synthesized image synthesized under the same connection condition, the image quality of the output image may be deteriorated.

本発明の1つの側面は、出力画像の画質を向上させることを目的とする。   One aspect of the present invention aims to improve the quality of an output image.

一態様における、画像データを画像処理する画像処理装置であって、第一露出条件、及び第二露出条件を含む2以上の露出条件の各露出条件で2以上の部分画像を取得する取得処理を行う取得手段と、前記第一露出条件の部分画像をつなぐためのつなぎ条件を計算する計算処理を行う計算手段と、前記取得手段により取得される部分画像について、前記計算手段により計算されるつなぎ条件に基づいて、前記第一露出条件の2以上の部分画像から生成される第一の合成画像、及び前記つなぎ条件に基づいて、前記第二露出条件の2以上の部分画像から生成した第二の合成画像の少なくとも2つの合成画像を生成する合成処理を行う合成手段と、少なくとも前記第一の合成画像、及び前記第二の合成画像に基づいて出力画像を生成する生成処理を行う生成手段と、を有することを特徴とする。   An image processing apparatus that performs image processing on image data according to an aspect, wherein an acquisition process of acquiring two or more partial images under each exposure condition of two or more exposure conditions including a first exposure condition and a second exposure condition Obtaining means for performing calculation processing for calculating a joining condition for joining the partial images of the first exposure condition, and a joining condition calculated by the computing means for the partial image obtained by the obtaining means A first composite image generated from two or more partial images of the first exposure condition, and a second composite image generated from two or more partial images of the second exposure condition based on the connection condition. Synthesis means for performing synthesis processing for generating at least two composite images of the composite image, and generation processing for generating an output image based on at least the first composite image and the second composite image Characterized in that it has a generation unit that performs, the.

出力画像の画質を向上させることができる。   The image quality of the output image can be improved.

本発明の一実施形態に係る画像処理システムの全体構成の一例を示す断面図である。1 is a cross-sectional view illustrating an example of an overall configuration of an image processing system according to an embodiment of the present invention. 本発明の一実施形態に係る画像処理システムのハードウェア構成の一例を説明するブロック図である。It is a block diagram explaining an example of the hardware constitutions of the image processing system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像処理システムの全体構成の別の一例を説明する概略図である。It is the schematic explaining another example of the whole structure of the image processing system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像処理システムによる全体処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the whole process by the image processing system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る計算処理、及び合成処理の一例を示すブロック図である。It is a block diagram which shows an example of the calculation process which concerns on one Embodiment of this invention, and a synthetic | combination process. 本発明の一実施形態に係る計算処理、及び合成処理の一例を示すフローチャートである。It is a flowchart which shows an example of the calculation process which concerns on one Embodiment of this invention, and a synthetic | combination process. 本発明の一実施形態に係るレンズの射影関係の一例を説明する図である。It is a figure explaining an example of the projection relationship of the lens which concerns on one Embodiment of this invention. 本発明の一実施形態に係るつなぎ位置の計算処理、及び計算結果の一例を説明する図である。It is a figure explaining an example of a calculation process of a connection position concerning one embodiment of the present invention, and a calculation result. 本発明の一実施形態に係る計算結果に基づく変換テーブル修正処理の一例を説明する図である。It is a figure explaining an example of the conversion table correction process based on the calculation result which concerns on one Embodiment of this invention. 本発明の一実施形態に係る合成処理用変換テーブルに基づいた合成処理用歪み補正処理の一例を説明する図である。It is a figure explaining an example of the distortion correction process for synthetic | combination processes based on the conversion table for synthetic | combination processes which concerns on one Embodiment of this invention. 本発明の一実施形態に係るつなぎ条件計算用変換テーブルの一例を説明する図である。It is a figure explaining an example of the connection condition calculation conversion table which concerns on one Embodiment of this invention. 本発明の一実施形態に係る合成処理用変換テーブルに基づいた合成処理用歪み補正処理、及び合成処理で生成される合成画像の一例を示す図である。It is a figure which shows an example of the synthetic | combination image produced | generated by the distortion correction process for synthetic | combination processes based on the conversion table for synthetic | combination processes which concerns on one Embodiment of this invention, and a synthetic | combination process. 本発明の一実施形態に係る生成処理の一例を示す図である。It is a figure which shows an example of the production | generation process which concerns on one Embodiment of this invention. 本発明の一実施形態に係る効果の一例を説明する図である。It is a figure explaining an example of the effect concerning one embodiment of the present invention. 本発明の一実施形態に係るマッチング処理の一例を説明する図である。It is a figure explaining an example of the matching process which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像処理システムの機能構成の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of a function structure of the image processing system which concerns on one Embodiment of this invention.

以下、本発明の実施の形態について説明する。   Embodiments of the present invention will be described below.

<画像処理システムの概要>
図1は、本発明の一実施形態に係る画像処理システムの全体構成の一例を示す断面図である。
<Outline of image processing system>
FIG. 1 is a cross-sectional view showing an example of the overall configuration of an image processing system according to an embodiment of the present invention.

画像処理システム10は、撮像装置12と、筐体14と、シャッターボタン18とを有する。   The image processing system 10 includes an imaging device 12, a housing 14, and a shutter button 18.

撮像装置12は、例えば図示するように結像光学系20Aと、結像光学系20Bと、固体撮像素子22Aと、固体撮像素子22Bとを有する。   The imaging device 12 includes, for example, an imaging optical system 20A, an imaging optical system 20B, a solid-state imaging element 22A, and a solid-state imaging element 22B as illustrated.

固体撮像素子22A、及び固体撮像素子22Bは、CCD(Charge Coupled Device)、又はCMOS(Complementary Metal Oxide Semiconductor)センサ等の光学センサである。   The solid-state imaging device 22A and the solid-state imaging device 22B are optical sensors such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) sensor.

結像光学系20A、及び結像光学系20Bは、例えば6群7枚のいわゆる魚眼レンズ等である。結像光学系20A、及び結像光学系20Bは、2つの光学系で撮像する範囲が360°以上であることが望ましい。結像光学系20A、及び結像光学系20Bは、それぞれの画角が180°以上であり、より望ましくは、それぞれの画角が185°以上、又は190°以上であり、重複して撮像する範囲があることが望ましい。重複して撮像する範囲は、各画像をつなぎ合わせる際、つなぎ合わせの処理の参考となる。   The image forming optical system 20A and the image forming optical system 20B are, for example, so-called fish-eye lenses of six groups and seven elements. It is desirable that the imaging optical system 20A and the imaging optical system 20B have an imaging range of two optical systems of 360 ° or more. The imaging optical system 20A and the imaging optical system 20B each have an angle of view of 180 ° or more, and more preferably, each of the angle of view is 185 ° or more, or 190 ° or more. It is desirable that there is a range. The overlapping imaging range is a reference for the joining process when joining the images.

結像光学系20A、及び結像光学系20Bには、プリズム、フィルタ、及び絞り等が含まれる。   The imaging optical system 20A and the imaging optical system 20B include a prism, a filter, a stop, and the like.

固体撮像素子22A、及び固体撮像素子22Bと、結像光学系20A、及び結像光学系20Bとは、それぞれ対応する。固体撮像素子22A、及び固体撮像素子22Bは、例えば図示するように、各結像光学系に入光する光が対応する固体撮像素子の受光領域の中心部に直交する位置、かつ、受光領域が対応するレンズの結合面となる位置に位置決めされる。各固体撮像素子は、受光領域を有し、受光領域に入光した光を画像信号に変換し、出力する。図1の場合、結像光学系20A、結像光学系20B、固体撮像素子22A、及び固体撮像素子22Bは、同一の仕様であり、それぞれの光軸が合致するように互いに逆向きに設置される。   The solid-state imaging device 22A and the solid-state imaging device 22B correspond to the imaging optical system 20A and the imaging optical system 20B, respectively. For example, as shown in the figure, the solid-state image pickup element 22A and the solid-state image pickup element 22B have positions where the light incident on each imaging optical system is orthogonal to the center of the light-receiving area of the corresponding solid-state image pickup element, It is positioned at a position that becomes a coupling surface of the corresponding lens. Each solid-state imaging device has a light receiving area, converts light incident on the light receiving area into an image signal, and outputs the image signal. In the case of FIG. 1, the imaging optical system 20A, the imaging optical system 20B, the solid-state imaging device 22A, and the solid-state imaging device 22B have the same specifications, and are installed in opposite directions so that their optical axes match. The

なお、撮像装置は、固体撮像素子、及び結像光学系を2つ有する場合に限られない。撮像装置は、3以上の固体撮像素子、及び結像光学系を有してもよい。以下、図1で図示した固体撮像素子、及び結像光学系が2対の場合を例に説明する。   Note that the imaging device is not limited to the case where the solid-state imaging device and the two imaging optical systems are provided. The imaging apparatus may include three or more solid-state imaging elements and an imaging optical system. Hereinafter, a case where the solid-state imaging device and the imaging optical system illustrated in FIG. 1 are two pairs will be described as an example.

筐体14は、撮像装置12のコントローラ、及び電源となるバッテリ等の部品を有する。シャッターボタン18は、筐体14に設けられ、撮像装置12のシャッターを切る操作を行うためのボタンである。   The housing 14 includes components such as a controller for the imaging device 12 and a battery that serves as a power source. The shutter button 18 is a button provided on the housing 14 for performing an operation of releasing the shutter of the imaging device 12.

画像処理装置100は、撮像装置12から入力される撮像された各画像(以下、撮像画像という。)をつなぎ合わせる処理を行う。画像処理装置100は、複数の撮像画像をつなぎ合わせて合成し、立体角4rad(radian)の合成画像(以下、全天球画像という。)を生成する処理を行う。全天球画像は、撮影地点から見渡すことのできる全方位を撮影した画像である。なお、全天球画像は、水平面が360°撮影された、いわゆるパノラマ(panorama)画像であってもよい。   The image processing apparatus 100 performs a process of connecting each captured image (hereinafter referred to as a captured image) input from the imaging apparatus 12. The image processing apparatus 100 performs a process of connecting and synthesizing a plurality of captured images to generate a composite image having a solid angle of 4 rad (radian) (hereinafter referred to as an omnidirectional image). The omnidirectional image is an image obtained by photographing all directions that can be seen from the photographing point. Note that the omnidirectional image may be a so-called panorama image in which a horizontal plane is imaged 360 °.

固体撮像素子22A、及び固体撮像素子22Bの各走査方向を一致させることで、画像処理装置100は、各処理を行いやすくすることができる。つまり、つなぎ合わせの処理が行われる箇所等で走査方向、及び順序が一致することで、各固体撮像素子の被写体、特に移動物体のつなぎ合わせの処理が行いやすくできる。例えば固体撮像素子22Aの画像の左上部分、及び固体撮像素子22Bの画像の左下部分がつなぎ合わせの処理を行う箇所で一致する場合は、固体撮像素子22Aの走査方向を上から下、かつ、右から左方向とする。固体撮像素子22Aの画像の左上部分、及び固体撮像素子22Bの画像の左下部分がつなぎ合わせの処理を行う箇所で一致する場合は、固体撮像素子22Bの走査方向を下から上、かつ、左から右方向とする。つなぎ合わせ処理を行う箇所に基づいて走査方向を一致させることによって、画像処理装置100は、つなぎ合わせの処理が行いやすくできる。   By matching the scanning directions of the solid-state imaging element 22A and the solid-state imaging element 22B, the image processing apparatus 100 can facilitate each process. In other words, by matching the scanning direction and the order at the places where the joining process is performed, the joining process of the subject of each solid-state imaging device, in particular, the moving object can be facilitated. For example, when the upper left part of the image of the solid-state image sensor 22A and the lower left part of the image of the solid-state image sensor 22B coincide with each other at the place where the joining process is performed, the scanning direction of the solid-state image sensor 22A is changed from the top to the bottom and the right From left to right. When the upper left part of the image of the solid-state image sensor 22A and the lower left part of the image of the solid-state image sensor 22B coincide with each other at the position where the joining process is performed, the scanning direction of the solid-state image sensor 22B is from the lower side and the left side Use the right direction. By matching the scanning direction based on the location where the stitching process is performed, the image processing apparatus 100 can easily perform the stitching process.

画像処理装置100は、処理した画像を例えばディスプレイ装置、又は画像形成装置等の出力装置に出力する処理を行い、出力された画像は、出力装置によって出力される。画像処理装置100は、処理した画像を例えばSD(登録商標)カード、又はコンパクトフラッシュ(登録商標)等の記憶媒体に出力する処理を行う。   The image processing apparatus 100 performs a process of outputting the processed image to an output device such as a display device or an image forming device, and the output image is output by the output device. The image processing apparatus 100 performs a process of outputting the processed image to a storage medium such as an SD (registered trademark) card or a compact flash (registered trademark).

<画像処理システムのハードウェア構成>
図2は、本発明の一実施形態に係る画像処理システムのハードウェア構成の一例を説明するブロック図である。
<Hardware configuration of image processing system>
FIG. 2 is a block diagram illustrating an example of a hardware configuration of the image processing system according to the embodiment of the present invention.

画像処理システム10は、画像処理装置100と、鏡胴ユニット102と、を有する。   The image processing system 10 includes an image processing apparatus 100 and a lens barrel unit 102.

画像処理装置100は、画像データ転送処理回路126と、SDRAMC(Synchronous Dynamic Random Access Memory Controller)128とを有する。   The image processing apparatus 100 includes an image data transfer processing circuit 126 and an SDRAMC (Synchronous Dynamic Random Access Memory Controller) 128.

また、画像処理装置100は、ISP(Image Signal Processor)108Aと、ISP108Bと、DMAC(Direct Memory Access Controller)110とを有する。   The image processing apparatus 100 also includes an ISP (Image Signal Processor) 108A, an ISP 108B, and a DMAC (Direct Memory Access Controller) 110.

さらに、画像処理装置100は、メモリアクセス調停回路(以下、ARBMEMC(Arbitration Memory Controller)という。)112と、MEMC(Memory Controller)114とを有する。   Further, the image processing apparatus 100 includes a memory access arbitration circuit (hereinafter referred to as an ARB MEMC (Arbitration Memory Controller)) 112 and a MEMC (Memory Controller) 114.

そのうえ、画像処理装置100は、歪曲補正・画像合成処理回路118と、DMAC122と、画像処理回路124と、CPU(Central Processing Unit)130と、リサイズ処理回路132とを有する。   In addition, the image processing apparatus 100 includes a distortion correction / image synthesis processing circuit 118, a DMAC 122, an image processing circuit 124, a CPU (Central Processing Unit) 130, and a resizing processing circuit 132.

また、画像処理装置100は、JPEG(Joint Photographic Exports Group)処理回路134と、H.264処理回路136と、メモリカード制御処理回路140と、USB(Unversal Serial Bus)処理回路146と、ペリフェラル通信処理回路150とを有する。   The image processing apparatus 100 includes a JPEG (Joint Photographic Exports Group) processing circuit 134, H.264 processing circuit 136, memory card control processing circuit 140, USB (Universal Serial Bus) processing circuit 146, and peripheral communication processing circuit 150.

ならびに、画像処理装置100は、音声ユニット152と、シリアル通信処理回路158と、LCD(Liquid Crystal Display)ドライバ162と、ブリッジ回路168とを有する。   In addition, the image processing apparatus 100 includes an audio unit 152, a serial communication processing circuit 158, an LCD (Liquid Crystal Display) driver 162, and a bridge circuit 168.

画像処理装置100には、SDRAM(Synchronous Dynamic Random Access Memory)138と、メモリカードスロット142と、フラッシュROM(Read−Only Memory)144とが接続されている。   The image processing apparatus 100 is connected to an SDRAM (Synchronous Random Access Memory) 138, a memory card slot 142, and a flash ROM (Read-Only Memory) 144.

また、画像処理装置100には、USBコネクタ148と、スピーカ154と、マイク156と、無線NIC(Network Interface Card)160と、LCDモニタ164と、電源スイッチ166とが接続されている。   In addition, a USB connector 148, a speaker 154, a microphone 156, a wireless NIC (Network Interface Card) 160, an LCD monitor 164, and a power switch 166 are connected to the image processing apparatus 100.

ISP108A、及びISP108Bは、入力された画像信号に基づく画像データに、ホワイトバランス、ガンマ補正、歪曲補正、及び画像合成等のいわゆる前処理を行う。   The ISP 108A and ISP 108B perform so-called preprocessing such as white balance, gamma correction, distortion correction, and image synthesis on the image data based on the input image signal.

DMAC110、及び122は、メモリに対する処理の制御を行う。メモリに対する処理は、例えばメモリに画像データを書き込み、又はメモリから画像データを読み出しする処理等である。   The DMACs 110 and 122 control processing for the memory. The processing for the memory is, for example, processing for writing image data into the memory or reading image data from the memory.

ARBMEMC112は、各メモリへアクセスする処理を調停する処理を行う。   The ARBMEMC 112 performs processing for arbitrating processing for accessing each memory.

MEMC114は、メモリを制御する処理を行う。MEMC114には、SDRAM116が接続されている。SDRAM116は、ISP108A、及びISP108Bが処理を行う際、処理に用いるデータ等が記憶される。   The MEMC 114 performs processing for controlling the memory. An SDRAM 116 is connected to the MEMC 114. The SDRAM 116 stores data used for processing when the ISP 108A and the ISP 108B perform processing.

歪曲補正・画像合成処理回路118は、固体撮像素子22A、及び22Bから出力される画像信号を処理する。歪曲補正・画像合成処理回路118は、例えば、歪曲補正等の処理を行う。   The distortion correction / image synthesis processing circuit 118 processes the image signals output from the solid-state imaging devices 22A and 22B. The distortion correction / image composition processing circuit 118 performs processing such as distortion correction, for example.

歪曲補正・画像合成処理回路118には、3軸加速度センサ120が接続されている。3軸加速度センサ120は、画像処理システム10の姿勢、及び向き等の情報を出力する。歪曲補正・画像合成処理回路118は、3軸加速度センサ120からの情報に基づいて、いわゆる天地補正処理を行ってもよい。なお、3軸加速度センサ120は、ジャイロセンサ等でもよい。さらに、歪曲補正・画像合成処理回路118が行う処理は、天地補正処理に限られない。例えば、手ぶれ補正処理等を行ってもよい。   A triaxial acceleration sensor 120 is connected to the distortion correction / image composition processing circuit 118. The triaxial acceleration sensor 120 outputs information such as the posture and orientation of the image processing system 10. The distortion correction / image synthesis processing circuit 118 may perform so-called top-and-bottom correction processing based on information from the triaxial acceleration sensor 120. The triaxial acceleration sensor 120 may be a gyro sensor or the like. Furthermore, the processing performed by the distortion correction / image synthesis processing circuit 118 is not limited to the top / bottom correction processing. For example, camera shake correction processing or the like may be performed.

画像処理回路124は、各種の画像処理を行う。画像処理回路124は、リサイズ処理回路132と、JPEG処理回路と、H.264処理回路136とに画像データを処理させる制御を行う。   The image processing circuit 124 performs various types of image processing. The image processing circuit 124 includes a resizing processing circuit 132, a JPEG processing circuit, The H.264 processing circuit 136 is controlled to process the image data.

画像データ転送処理回路126は、画像処理回路124から出力された画像データを転送する処理を行う。   The image data transfer processing circuit 126 performs processing for transferring the image data output from the image processing circuit 124.

SDRAMC128は、SDRAM138の制御を行う。SDRAM138には、画像処理装置100で処理される画像データ等各種のデータが記憶される。   The SDRAM C 128 controls the SDRAM 138. The SDRAM 138 stores various data such as image data processed by the image processing apparatus 100.

CPU130は、各種の処理、及び各ハードウェアの制御を行う。   The CPU 130 performs various processes and controls each hardware.

リサイズ処理回路132は、画像データのサイズを拡大、又は縮小する処理を行う。   The resizing processing circuit 132 performs processing for enlarging or reducing the size of the image data.

JPEG処理回路134は、画像データをJPEG圧縮、及び伸張するコーデック(Codec)処理を行う。   The JPEG processing circuit 134 performs codec processing that compresses and decompresses image data.

H.264処理回路136は、動画圧縮、及び伸張するコーデック処理を行う。   H. The H.264 processing circuit 136 performs codec processing for moving image compression and expansion.

なお、静止画、及び動画のコーデック処理は、JPEG、及びH.264の形式に限られない。例えば、静止画のコーデック処理は、GIF(Graphics Interchange Format)、又はPDF(Portable Document Format)等でもよい。また、静止画のコーデック処理は、Microsoft Windows(登録商標) Bitmap Image、又はRAW image format等圧縮処理を行わない形式でもよい。さらに、これらを組み合わせて、複数の形式でコーデックした出力を行ってもよい。   Note that the codec processing of still images and moving images is JPEG and H.264. The format is not limited to H.264. For example, the codec processing of a still image may be GIF (Graphics Interchange Format), PDF (Portable Document Format), or the like. Further, the codec processing of the still image may be a format that does not perform compression processing such as Microsoft Windows (registered trademark) Bitmap Image or RAW image format. Furthermore, these may be combined and output in a plurality of formats.

また、動画のコーデック処理は、MP4(MPEG−4 Part14)等でもよい。また、AVI(Audio Video Interleave)等圧縮処理を行わない形式でもよい。さらに、これらを組み合わせて、複数の形式でコーデックした出力を行ってもよい。   Also, the codec processing of the moving image may be MP4 (MPEG-4 Part 14) or the like. Moreover, the format which does not perform compression processing, such as AVI (Audio Video Interleave), may be sufficient. Furthermore, these may be combined and output in a plurality of formats.

メモリカード制御処理回路140は、メモリカードスロット142に接続されているメモリカードに対する読み込み、又は書き込み等の処理の制御を行う。メモリカードスロット142には、メモリカード等外部の記憶媒体が接続される。   The memory card control processing circuit 140 controls processing such as reading or writing with respect to the memory card connected to the memory card slot 142. An external storage medium such as a memory card is connected to the memory card slot 142.

フラッシュROM144は、CPU130が実行するプログラム、及び各種のパラメータを記憶する。フラッシュROM144に記憶されているプログラム、及び各種のパラメータは、メインメモリ、又はCPU130のレジスタ等にロードされ、CPU130によって実行される。   The flash ROM 144 stores a program executed by the CPU 130 and various parameters. The program and various parameters stored in the flash ROM 144 are loaded into the main memory or a register of the CPU 130 and executed by the CPU 130.

USB処理回路146は、USBコネクタ148を介して接続されるPC(Personal Computer)等の外部装置とのUSBによる通信を制御する。   The USB processing circuit 146 controls USB communication with an external device such as a PC (Personal Computer) connected via the USB connector 148.

ペリフェラル通信処理回路150は、電源スイッチ166による入力を制御する。   The peripheral communication processing circuit 150 controls input by the power switch 166.

音声ユニット152は、スピーカ154と、マイク156とを制御し、音声の入出力を制御する。音声ユニット152は、マイク156からの音声入力を制御する。音声ユニット152は、スピーカ154への音声出力を制御する。   The audio unit 152 controls the speaker 154 and the microphone 156 to control audio input / output. The voice unit 152 controls voice input from the microphone 156. The audio unit 152 controls audio output to the speaker 154.

シリアル通信処理回路158は、PC等外部装置とのシリアル通信を制御する。シリアル通信処理回路158は、接続されている無線NIC160を制御して、ネットワークを介して外部装置と通信を行う。   The serial communication processing circuit 158 controls serial communication with an external device such as a PC. The serial communication processing circuit 158 controls the connected wireless NIC 160 to communicate with an external device via a network.

なお、外部装置との接続は、USB通信、及びシリアル通信に限られない。例えば、IEEE(The Institute of Electrical and Electronics Engineers,Inc.)1394、及びThunderbolt(登録商標)等の規格に準じた通信でもよい。また、Bluetooth(登録商標)、又はNFC(Near Field Communication)等の無線による通信でもよい。   The connection with the external device is not limited to USB communication and serial communication. For example, communication conforming to standards such as IEEE (The Institute of Electrical and Electronics Engineers, Inc.) 1394 and Thunderbolt (registered trademark) may be used. Further, wireless communication such as Bluetooth (registered trademark) or NFC (Near Field Communication) may be used.

LCDドライバ162は、接続されているLCDモニタ164を制御する回路である。LCDドライバ162は、LCDモニタ164に出力する画像信号を制御する。LCDモニタ164は、出力された画像信号に基づいて、各種の表示を行う。   The LCD driver 162 is a circuit that controls the connected LCD monitor 164. The LCD driver 162 controls the image signal output to the LCD monitor 164. The LCD monitor 164 performs various displays based on the output image signal.

各要素間での送受信は、ブリッジ回路168を介して送受信されてもよい。   Transmission / reception between the elements may be performed via the bridge circuit 168.

鏡胴ユニット102は、結像光学系20A、及び20Bと、固体撮像素子22A、及び22Bとを有する。固体撮像素子22A、及び22Bは、CPU130によって制御される。   The lens barrel unit 102 includes imaging optical systems 20A and 20B, and solid-state imaging elements 22A and 22B. The solid-state imaging elements 22A and 22B are controlled by the CPU 130.

なお、歪曲補正・画像合成処理回路118が行う処理は、歪曲補正等の処理に限られない。歪曲補正・画像合成処理回路118は、撮像画像に前処理を行ってもよい。前処理は、ホワイトバランス(White Blance)処理、シェーディング(Shading)補正、手振れ補正、エッジ強調、及び欠陥画素補正等のいずれか少なくとも1種類以上の処理を行ってもよい。また、前処理は、オプティカル・ブラック(Optical Black)補正、リニア(Linear)補正、ガンマ補正、色空間を変換する処理、及び画像フォーマットを変更する処理等のいずれか少なくとも1種類以上の処理を行ってもよい。前処理は、少なくともいずれか一方の画像を回転、及び拡大縮小等の画像を変形させる処理を行ってもよい。前処理を行うことで、画像処理装置100は、画像の画質を向上すること、又は後段の処理で処理を行いやすくすることができる。   Note that the processing performed by the distortion correction / image synthesis processing circuit 118 is not limited to processing such as distortion correction. The distortion correction / image synthesis processing circuit 118 may pre-process the captured image. The pre-processing may be performed by at least one type of processing such as white balance processing, shading correction, camera shake correction, edge enhancement, and defective pixel correction. The pre-processing includes at least one type of processing such as optical black correction, linear correction, gamma correction, color space conversion processing, and image format change processing. May be. In the preprocessing, processing for deforming the image such as rotation and enlargement / reduction of at least one of the images may be performed. By performing the preprocessing, the image processing apparatus 100 can improve the image quality of the image, or can easily perform the processing in the subsequent processing.

なお、歪曲補正・画像合成処理回路118による処理は、歪曲補正・画像合成処理回路118が処理を行うに限られない。例えば、歪曲補正・画像合成処理回路118による処理の全部又は一部を、画像処理回路124、又はCPU130等が処理を行ってもよい。また、同様に、ISP108A、ISP108B、及び画像処理回路124による処理の全部又は一部は、歪曲補正・画像合成処理回路118、又はCPU130等が処理を行ってもよい。   Note that the processing performed by the distortion correction / image synthesis processing circuit 118 is not limited to the processing performed by the distortion correction / image synthesis processing circuit 118. For example, the image processing circuit 124 or the CPU 130 may perform all or part of the processing by the distortion correction / image synthesis processing circuit 118. Similarly, all or part of the processing by the ISP 108A, ISP 108B, and the image processing circuit 124 may be processed by the distortion correction / image synthesis processing circuit 118, the CPU 130, or the like.

なお、回路による各処理は、回路によって処理されるに限られない。例えば、各処理の一部又は全部は、ソフトウェア、又はファームウェアによって処理されてもよい。   In addition, each process by a circuit is not restricted to be processed by a circuit. For example, a part or all of each process may be processed by software or firmware.

また、画像処理装置100のハードウェア構成は、図2で図示した構成に限られない。例えば音声ユニット152等は、必須の構成ではない。   Further, the hardware configuration of the image processing apparatus 100 is not limited to the configuration illustrated in FIG. For example, the audio unit 152 or the like is not an essential configuration.

さらに、画像処理装置100は、鏡胴ユニット102と一体の場合に限られない。画像処理装置100、及び鏡胴ユニット102は、別の装置となっている構成でもよい。   Further, the image processing apparatus 100 is not limited to being integrated with the lens barrel unit 102. The image processing apparatus 100 and the lens barrel unit 102 may be configured as separate apparatuses.

図3は、本発明の一実施形態に係る画像処理システムの全体構成の別の一例を説明する概略図である。   FIG. 3 is a schematic diagram illustrating another example of the overall configuration of the image processing system according to the embodiment of the present invention.

画像処理装置100は、いわゆるスマートフォン(Smartphone)、又はPC等の情報処理装置であり、撮像を行う鏡胴ユニット102が別の装置となっている構成でもよい。   The image processing apparatus 100 is an information processing apparatus such as a so-called smartphone or a PC, and may have a configuration in which the lens barrel unit 102 that performs imaging is a separate apparatus.

<画像処理システムによる全体処理>
図4は、本発明の一実施形態に係る画像処理システムによる全体処理の一例を説明するフローチャートである。
<Overall processing by image processing system>
FIG. 4 is a flowchart for explaining an example of overall processing by the image processing system according to the embodiment of the present invention.

ステップS0401では、画像処理システム10は、第一露出条件の設定の処理を行う。露出条件は、結像光学系、及び固体撮像素子に係る露出値を決定するための条件である。露出条件は、例えば絞り、シャッタースピード、ゲイン、又はこれらの組み合わせによる設定値である。露出条件は、光源、及び被写体等に基づいて決定する。   In step S0401, the image processing system 10 performs processing for setting the first exposure condition. The exposure condition is a condition for determining an exposure value related to the imaging optical system and the solid-state imaging device. The exposure condition is a set value based on, for example, an aperture, a shutter speed, a gain, or a combination thereof. The exposure condition is determined based on the light source, the subject, and the like.

以下、第一露出条件を基準とし、他に2つの露出条件を設定して合計3条件での撮像処理を行う場合を例に説明する。第二露出条件は、第一露出条件を白色の被写体等の露出アンダー用に変更した、いわゆるプラス補正を行った露出条件等である。第三露出条件は、第一露出条件を黒色の被写体等の露出オーバー用に変更した、いわゆるマイナス補正を行った露出条件等である。以下、上述した第一露出条件、第二露出条件、及び第三露出条件で撮像処理を行う場合を例に説明する。   In the following, an example will be described in which the first exposure condition is used as a reference, two other exposure conditions are set, and imaging processing is performed under a total of three conditions. The second exposure condition is an exposure condition in which a so-called plus correction is performed, in which the first exposure condition is changed to underexposure for a white subject or the like. The third exposure condition is an exposure condition in which the first exposure condition is changed for overexposure of a black subject or the like, so-called minus correction is performed. Hereinafter, a case where imaging processing is performed under the above-described first exposure condition, second exposure condition, and third exposure condition will be described as an example.

ステップS0402乃至ステップS0405は、第一露出条件での撮像画像を取得する取得処理の例である。   Steps S0402 to S0405 are examples of acquisition processing for acquiring a captured image under the first exposure condition.

ステップS0402では、画像処理システム10は、固体撮像素子22Aによる第一の撮像画像の撮像処理を行う。ステップS0402では、画像処理装置100は、ステップS0401で設定した第一露出条件の画像を図1の撮像装置12に撮像させる処理を行う。   In step S0402, the image processing system 10 performs the imaging process of the first captured image by the solid-state imaging element 22A. In step S0402, the image processing apparatus 100 performs processing for causing the imaging device 12 in FIG. 1 to capture an image of the first exposure condition set in step S0401.

ステップS0403では、画像処理システム10は、第一の撮像画像に前処理を行う。ステップS0403では、前処理を行う場合、画像処理装置100は、ステップS0402で撮像した第一の撮像画像を入力し、前処理を行う。即ち、前処理を行う場合、画像処理装置100は、第一の撮像画像に前処理を行って第一の部分画像を取得する。   In step S0403, the image processing system 10 performs preprocessing on the first captured image. In step S0403, when preprocessing is performed, the image processing apparatus 100 inputs the first captured image captured in step S0402 and performs preprocessing. That is, when preprocessing is performed, the image processing apparatus 100 performs preprocessing on the first captured image and acquires the first partial image.

ステップS0404では、画像処理システム10は、固体撮像素子22Bによる第二の撮像画像の撮像処理を行う。ステップS0404では、画像処理装置100は、ステップS0401で設定した第一露出条件の画像を図1の撮像装置12に撮像させる処理を行う。   In step S0404, the image processing system 10 performs the imaging process of the second captured image by the solid-state imaging element 22B. In step S0404, the image processing apparatus 100 performs processing for causing the imaging device 12 in FIG. 1 to capture an image of the first exposure condition set in step S0401.

ステップS0405では、画像処理システム10は、第二の撮像画像に前処理を行う。ステップS0405では、前処理を行う場合、画像処理装置100は、ステップS0404で撮像した第二の撮像画像を入力し、前処理を行う。即ち、前処理を行う場合、画像処理装置100は、第二の撮像画像に前処理を行って第二の部分画像を取得する。   In step S0405, the image processing system 10 performs preprocessing on the second captured image. In step S0405, when performing preprocessing, the image processing apparatus 100 inputs the second captured image captured in step S0404 and performs preprocessing. That is, when preprocessing is performed, the image processing apparatus 100 performs preprocessing on the second captured image and acquires a second partial image.

ステップS402、及びステップS0403の処理は、後段の合成画像を作るための合成処理で必要となる第一の部分画像を取得する取得処理の一例である。ステップS404、及びステップS0405の処理は、後段の合成画像を作るための合成処理で必要となる第二の部分画像を取得する取得処理の一例である。なお、画像処理システム10が3以上の部分画像を用いて合成処理を行う場合、画像処理システム10は、ステップS0402の処理を繰り返し行う。前処理を行う場合、第一の部分画像と同様に、ステップS0403の処理が繰り返し行われる。   The processes in step S402 and step S0403 are an example of an acquisition process for acquiring a first partial image that is necessary in the synthesis process for creating a subsequent-stage composite image. The processes in step S404 and step S0405 are an example of an acquisition process for acquiring a second partial image that is necessary in the synthesis process for creating a subsequent-stage composite image. Note that when the image processing system 10 performs synthesis processing using three or more partial images, the image processing system 10 repeatedly performs the process of step S0402. When the preprocessing is performed, the process of step S0403 is repeated as in the first partial image.

ステップS0406では、画像処理システム10は、第一の部分画像と第二の部分画像のつなぎ条件を計算する計算処理を行う。   In step S0406, the image processing system 10 performs a calculation process for calculating a connection condition between the first partial image and the second partial image.

ステップS0407では、画像処理システム10は、第一の合成画像を生成する合成処理を行う。   In step S0407, the image processing system 10 performs a composition process for generating a first composite image.

図5は、本発明の一実施形態に係る計算処理、及び合成処理の一例を示すブロック図である。   FIG. 5 is a block diagram illustrating an example of calculation processing and synthesis processing according to an embodiment of the present invention.

図6は、本発明の一実施形態に係る計算処理、及び合成処理の一例を示すフローチャートである。   FIG. 6 is a flowchart illustrating an example of calculation processing and synthesis processing according to an embodiment of the present invention.

画像処理装置100は、少なくとも2つの部分画像を合成して合成画像を生成する。以下、第一の部分画像と、第二の部分画像とから第一の合成画像を生成する場合を例に説明する。   The image processing apparatus 100 combines at least two partial images to generate a combined image. Hereinafter, a case where the first composite image is generated from the first partial image and the second partial image will be described as an example.

ステップS0501では、画像処理装置100は、つなぎ条件計算用変換テーブルを用いて第一の部分画像、及び第二の部分画像に、つなぎ条件計算用歪み補正処理を行う。図4のステップS0406、及びS0407では、第一の部分画像D1は、図4のステップS0402乃至ステップS0403の取得処理で取得した第一の部分画像である。図4のステップS0406、及びS0407における第二の部分画像D2は、図4のステップS0404乃至ステップS0405の取得処理で取得した第二の部分画像である。ステップS0501では、画像処理装置100は、第一の部分画像D1につなぎ条件計算用歪み補正処理を行って第一のつなぎ条件計算用補正画像D3を生成する処理を行う。ステップS0501では、画像処理装置100は、第二の部分画像D2につなぎ条件計算用歪み補正処理を行って第二のつなぎ条件計算用補正画像D4を生成する処理を行う。つなぎ条件計算用歪み補正処理は、つなぎ条件計算用変換テーブルD6を用いて画像を補正する処理である。つなぎ条件計算用変換テーブルD6は、図1の結像光学系20A、及び20Bのレンズの設計データなどに基づいて生成された変換テーブルのデータである。変換テーブルは、変換前の座標に対応させて変換後の座標を記憶したデータである。テーブルを用いた処理は、変換前の座標に入力された画素を、変換後の座標の位置に並び替える処理等である。   In step S0501, the image processing apparatus 100 performs a connection condition calculation distortion correction process on the first partial image and the second partial image using the connection condition calculation conversion table. In steps S0406 and S0407 in FIG. 4, the first partial image D1 is the first partial image acquired by the acquisition processing in steps S0402 to S0403 in FIG. The second partial image D2 in steps S0406 and S0407 in FIG. 4 is the second partial image acquired by the acquisition processing in steps S0404 to S0405 in FIG. In step S0501, the image processing apparatus 100 performs a process of generating a first connection condition calculation correction image D3 by performing a connection condition calculation distortion correction process on the first partial image D1. In step S0501, the image processing apparatus 100 performs processing to generate a second connection condition calculation correction image D4 by performing a connection condition calculation distortion correction process on the second partial image D2. The connection condition calculation distortion correction process is a process of correcting an image using the connection condition calculation conversion table D6. The connection condition calculation conversion table D6 is data of a conversion table generated based on the design data of the lenses of the imaging optical systems 20A and 20B in FIG. The conversion table is data in which coordinates after conversion are stored in correspondence with coordinates before conversion. The process using the table is a process of rearranging the pixels input to the coordinates before conversion to the position of the coordinates after conversion.

図7は、本発明の一実施形態に係るレンズの射影関係の一例を説明する図である。   FIG. 7 is a diagram for explaining an example of the projection relationship of lenses according to an embodiment of the present invention.

図7は、図1の結像光学系20A、及び20Bのレンズが、広い角度の範囲を撮像するためのレンズ、いわゆる魚眼レンズ等の場合である。   FIG. 7 shows a case where the lenses of the imaging optical systems 20A and 20B in FIG. 1 are lenses for imaging a wide range of angles, so-called fisheye lenses, and the like.

図7(A)は、本発明の一実施形態に係るレンズへの入射角λの一例を説明する断面図である。   FIG. 7A is a cross-sectional view illustrating an example of an incident angle λ to a lens according to an embodiment of the present invention.

図7(B)は、本発明の一実施形態に係る像高hの一例を説明する図である。   FIG. 7B is a diagram illustrating an example of the image height h according to an embodiment of the present invention.

図7(A)で図示する図1の結像光学系20A、及び20Bのレンズに入射角λで光が入射した場合、入射した光は、図7(B)で図示する像高hの位置で結像する。図1の固体撮像素子22A、及び固体撮像素子22Bは、結像した光を光電変換して部分画像を撮像する。図7(B)で示すように、特に魚眼レンズ等の広角レンズで撮像された場合、撮像画像は、歪曲収差を有する。つなぎ条件計算用歪み補正処理は、歪曲収差等の歪みを補正する処理である。   When light is incident on the lenses of the imaging optical systems 20A and 20B in FIG. 1 illustrated in FIG. 7A at an incident angle λ, the incident light is at the position of the image height h illustrated in FIG. 7B. To form an image. The solid-state image sensor 22A and the solid-state image sensor 22B in FIG. 1 photoelectrically convert the imaged light to capture a partial image. As shown in FIG. 7B, the picked-up image has distortion aberration particularly when picked up with a wide-angle lens such as a fisheye lens. The connection condition calculation distortion correction process is a process for correcting distortion such as distortion.

ステップS0502では、画像処理装置100は、第一のつなぎ条件計算用補正画像、及び第二のつなぎ条件計算用補正画像の重複する領域を用いて、つなぎ条件を求める計算処理を行う。   In step S0502, the image processing apparatus 100 performs a calculation process for obtaining a connection condition using an overlapping area of the first connection condition calculation correction image and the second connection condition calculation correction image.

つなぎ条件は、合成処理の際、第一の部分画像D1を合成処理用歪み補正処理した第一の合成処理用補正画像D8、及び第二の部分画像D2を合成処理用歪み補正処理した第二の合成処理用補正画像D9をつなぐつなぎ位置等である。つなぎ位置は、第一のつなぎ条件計算用補正画像D3、及び第二のつなぎ条件計算用補正画像D4が重複して撮像する範囲に撮像された被写体等を用いて計算される。   The connection condition is that, during the synthesis process, the first partial correction image D8 obtained by performing the distortion correction process for the first partial image D1 and the second partial image D2 obtained by performing the distortion correction process for the synthesis process on the second partial image D2. The connecting position for connecting the corrected image for composite processing D9. The joining position is calculated using a subject or the like imaged in a range where the first joining condition calculation correction image D3 and the second joining condition calculation correction image D4 are imaged in an overlapping manner.

図8は、本発明の一実施形態に係るつなぎ位置の計算処理、及び計算結果の一例を説明する図である。   FIG. 8 is a diagram for explaining an example of a connection position calculation process and a calculation result according to an embodiment of the present invention.

図8(A)は、本発明の一実施形態に係る第一のつなぎ条件計算用補正画像D3の一例を説明する図である。   FIG. 8A is a diagram illustrating an example of a first connection condition calculation correction image D3 according to an embodiment of the present invention.

図8(B)は、本発明の一実施形態に係る第二のつなぎ条件計算用補正画像D4の一例を説明する図である。   FIG. 8B is a diagram illustrating an example of a second connection condition calculation correction image D4 according to an embodiment of the present invention.

以下、図示するように、第一のつなぎ条件計算用補正画像D3、及び第二のつなぎ条件計算用補正画像D4に、重複領域の被写体TGが撮像された場合を例に説明する。   Hereinafter, as shown in the drawing, a case will be described as an example where the subject TG in the overlapping region is imaged in the first connection condition calculation correction image D3 and the second connection condition calculation correction image D4.

第一のつなぎ条件計算用補正画像D3に、重複領域の被写体TGが、撮像されている場合、第二のつなぎ条件計算用補正画像D4には、同様に重複領域の被写体TGが、撮像されている。画像処理装置100は、ずれ量(Δθ、Δφ)を計算するために、マッチング処理等によって、第二のつなぎ条件計算用補正画像D4のどの位置に重複領域の被写体TGが撮像されているかを検出する。マッチング処理の詳細は、後述する。画像処理装置100は、図8(B)で図示するように、第一のつなぎ条件計算用補正画像D3の「☆」と示されている画素の座標についてずれ量(Δθ、Δφ)を計算する。   When the subject TG in the overlapping region is captured in the first connection condition calculation correction image D3, the subject TG in the overlapping region is similarly captured in the second connection condition calculation correction image D4. Yes. The image processing apparatus 100 detects at which position of the second connection condition calculation correction image D4 the subject TG in the overlapping region is imaged by matching processing or the like in order to calculate the shift amount (Δθ, Δφ). To do. Details of the matching process will be described later. As illustrated in FIG. 8B, the image processing apparatus 100 calculates the shift amounts (Δθ, Δφ) for the coordinates of the pixel indicated by “☆” in the first connection condition calculation correction image D3. .

ずれ量(Δθ、Δφ)は、第一のつなぎ条件計算用補正画像D3の任意の座標(θ、φ)をずれ量(Δθ、Δφ)移動させると第二のつなぎ条件計算用補正画像D4と一致する補正量を示す。画像処理装置100は、ずれ量(Δθ、Δφ)を、図5の計算結果データD5として出力する。   The shift amounts (Δθ, Δφ) are obtained by moving the arbitrary coordinates (θ, φ) of the first connection condition calculation correction image D3 by the shift amounts (Δθ, Δφ) and the second connection condition calculation correction image D4. The matching correction amount is indicated. The image processing apparatus 100 outputs the shift amounts (Δθ, Δφ) as the calculation result data D5 in FIG.

ステップS0503では、画像処理装置100は、計算処理の結果に基づいて画像が球面座標上で位置合わせされるようにつなぎ条件計算用変換テーブルを修正する変換テーブル修正処理を行う。   In step S0503, the image processing apparatus 100 performs a conversion table correction process for correcting the connection condition calculation conversion table so that the images are aligned on the spherical coordinates based on the result of the calculation process.

変換テーブル修正処理は、計算結果データD5がずれ量(Δθ、Δφ)である場合、つなぎ条件計算用変換テーブルD6にずれ量(Δθ、Δφ)を加算する処理等である。   The conversion table correction process includes a process of adding the shift amount (Δθ, Δφ) to the connection condition calculation conversion table D6 when the calculation result data D5 is the shift amount (Δθ, Δφ).

図9は、本発明の一実施形態に係る計算結果に基づく変換テーブル修正処理の一例を説明する図である。   FIG. 9 is a diagram illustrating an example of a conversion table correction process based on the calculation result according to an embodiment of the present invention.

図9(A)は、本発明の一実施形態に係る計算結果に基づく変換テーブル修正処理の修正前の変換テーブルの一例を説明する図である。   FIG. 9A is a diagram illustrating an example of a conversion table before correction in the conversion table correction process based on the calculation result according to an embodiment of the present invention.

図9(B)は、本発明の一実施形態に係る計算結果に基づく変換テーブル修正処理の修正後の変換テーブルの一例を説明する図である。   FIG. 9B is a diagram for explaining an example of the conversion table after the correction of the conversion table correction process based on the calculation result according to the embodiment of the present invention.

図5のつなぎ条件計算用変換テーブルD6が図9(A)の場合、変換テーブル修正処理は、図5のつなぎ条件計算用変換テーブルD6の値をずれ量(Δθ、Δφ)に基づいて修正し、修正後つなぎ条件計算用変換テーブルD62を生成する処理である。   When the connection condition calculation conversion table D6 of FIG. 5 is FIG. 9A, the conversion table correction processing corrects the values of the connection condition calculation conversion table D6 of FIG. 5 based on the deviation amounts (Δθ, Δφ). This is a process of generating the corrected connection condition calculation conversion table D62.

ステップS0504では、画像処理装置100は、修正された変換テーブルに回転変換を行って座標を変換して合成処理用変換テーブルを生成する変換テーブル生成処理を行う。ステップS0504では、画像処理装置100は、修正後つなぎ条件計算用変換テーブルD62に基づいて、合成処理用変換テーブルD7を生成する処理を行う。   In step S0504, the image processing apparatus 100 performs conversion table generation processing for performing rotation conversion on the corrected conversion table to convert coordinates and generating a conversion table for synthesis processing. In step S0504, the image processing apparatus 100 performs a process of generating the composition processing conversion table D7 based on the corrected connection condition calculation conversion table D62.

ステップS0505では、画像処理装置100は、合成処理用変換テーブルを用いて第一の部分画像、及び第二の部分画像に、合成処理用歪み補正処理を行う。   In step S0505, the image processing apparatus 100 performs the distortion correction process for the synthesis process on the first partial image and the second partial image using the synthesis process conversion table.

ステップS0505では、画像処理装置100は、第一の部分画像D1を合成処理用変換テーブルD7に基づいて歪み補正処理し、第一の合成処理用補正画像D8を生成する処理を行う。ステップS0505では、画像処理装置100は、第二の部分画像D2を合成処理用変換テーブルD7に基づいて歪み補正処理し、第二の合成処理用補正画像D9を生成する処理を行う。   In step S0505, the image processing apparatus 100 performs processing for correcting the distortion of the first partial image D1 based on the conversion table for combination processing D7 and generating the first correction image for combination processing D8. In step S0505, the image processing apparatus 100 performs a distortion correction process on the second partial image D2 based on the synthesis process conversion table D7 to generate a second synthesis process correction image D9.

ステップS0506では、画像処理装置100は、合成処理用歪み補正処理で生成された第一の合成処理用補正画像、及び第二の合成処理用補正画像を合成して合成画像を生成する合成処理を行う。ステップS0506では、画像処理装置100は、第一の合成処理用補正画像D8、及び第二の合成処理用補正画像D9を合成する合成処理によって合成画像D10を生成する処理を行う。合成画像D10は、全天球画像である。   In step S0506, the image processing apparatus 100 performs a combining process for generating a composite image by combining the first composite processing correction image and the second composite processing correction image generated in the composite processing distortion correction process. Do. In step S0506, the image processing apparatus 100 performs a process of generating a composite image D10 by a composite process of combining the first composite processing correction image D8 and the second composite processing correction image D9. The composite image D10 is an omnidirectional image.

図10は、本発明の一実施形態に係る合成処理用変換テーブルに基づいた合成処理用歪み補正処理、及び合成処理の一例を説明する図である。   FIG. 10 is a diagram for explaining an example of the distortion correction process for the synthesis process and the synthesis process based on the conversion table for the synthesis process according to the embodiment of the present invention.

図10(A)は、合成処理用変換テーブルD7の一例を示す図である。   FIG. 10A is a diagram illustrating an example of the conversion table for combination processing D7.

図10(B)は、合成処理用変換テーブルD7に基づく合成処理の一例を示す図である。   FIG. 10B is a diagram illustrating an example of the synthesis process based on the synthesis process conversion table D7.

合成処理用変換テーブルD7は、図示するように、第一の合成処理用補正画像D8、及び第二の合成処理用補正画像D9をマッピングして合成画像D10を生成する処理ための変換テーブルである。   As shown in the figure, the composition processing conversion table D7 is a conversion table for processing to generate a composite image D10 by mapping the first composite processing correction image D8 and the second composite processing correction image D9. .

図10で示した合成画像D10は、第一の合成処理用補正画像D8、及び第二の合成処理用補正画像D9の中心部分が、歪みの少ない赤道付近にマッピングされて画像が生成されている場合である。   The composite image D10 shown in FIG. 10 is generated by mapping the central portions of the first composite processing correction image D8 and the second composite processing correction image D9 in the vicinity of the equator with little distortion. Is the case.

図11は、本発明の一実施形態に係るつなぎ条件計算用変換テーブルの一例を説明する図である。   FIG. 11 is a diagram for explaining an example of a connection condition calculation conversion table according to an embodiment of the present invention.

ステップS0502の計算処理に用いるつなぎ条件計算用変換テーブルD6は、図11で図示するように、計算処理が歪みの少ない箇所の座標で行われるように変換する変換テーブルによって、つなぎ位置の計算処理の精度を良くすることができる。合成処理用変換テーブルD7は、図10(B)で図示するように、各部分画像の中心部分が合成画像D10の歪みの少ない赤道付近にマッピングする変換テーブルであり、画質の良い合成画像D10を生成することができる。   As shown in FIG. 11, the connection condition calculation conversion table D6 used for the calculation process in step S0502 is a connection table calculation process that converts the calculation process so that the calculation process is performed at coordinates with less distortion. The accuracy can be improved. As shown in FIG. 10B, the conversion table for combination processing D7 is a conversion table in which the central portion of each partial image is mapped to the vicinity of the equator where the composite image D10 is less distorted. Can be generated.

また、合成処理用変換テーブルD7は、回転変換等を行って生成されることで、部分画像の互いの上下が反転している場合等をそろえることができる。   Further, the composition processing conversion table D7 is generated by performing rotation conversion or the like, so that it is possible to align the case where the top and bottom of the partial images are inverted.

図12は、本発明の一実施形態に係る合成処理用変換テーブルに基づいた合成処理用歪み補正処理、及び合成処理で生成される合成画像の一例を示す図である。   FIG. 12 is a diagram illustrating an example of a distortion correction process for synthesis processing based on a conversion table for synthesis processing according to an embodiment of the present invention, and a synthesized image generated by the synthesis processing.

図12(A)は、本発明の一実施形態に係る第一の部分画像D1の一例を示す図である。   FIG. 12A is a diagram showing an example of the first partial image D1 according to the embodiment of the present invention.

図12(B)は、本発明の一実施形態に係る第二の部分画像D2の一例を示す図である。   FIG. 12B is a diagram showing an example of the second partial image D2 according to the embodiment of the present invention.

図12(C)は、本発明の一実施形態に係る図12(A)の第一の部分画像D1と、図12(B)の第二の部分画像D2とを合成処理用変換テーブルD7に基づいて合成処理用歪み補正処理、及び合成処理して生成した合成画像D10の一例を示す図である。   FIG. 12C shows the first partial image D1 of FIG. 12A and the second partial image D2 of FIG. 12B in the composition processing conversion table D7 according to an embodiment of the present invention. It is a figure which shows an example of the synthetic | combination process distortion correction process based on this, and the synthesized image D10 produced | generated by the synthesis process.

図示するように、互いの上下が反転している図12(A)、及び図12(B)の部分画像を回転変換することによって、図12(C)の合成画像を生成する際に上下の向きをそろえることができる。   As shown in the figure, when the partial images in FIGS. 12A and 12B whose top and bottom are mutually inverted are rotationally converted, the top and bottom when generating the composite image in FIG. You can align the direction.

ここで、図4に戻り、説明する。   Here, returning to FIG.

ステップS0408では、画像処理システム10は、第二露出条件の設定の処理を行う。   In step S0408, the image processing system 10 performs processing for setting the second exposure condition.

ステップS0409では、画像処理システム10は、第三の部分画像と、第四の部分画像とを取得する取得処理を行う。ステップS0409では、画像処理システム10は、第二露出条件でステップS0402乃至S0405の取得処理を行う。第三の部分画像は、第二露出条件で撮像された第一の撮像画像である。第三の部分画像は、前処理が行われる場合、第二露出条件で撮像された第一の撮像画像をステップS0403の前処理した画像である。第四の部分画像は、第二露出条件で撮像された第二の撮像画像である。第四の部分画像は、前処理が行われる場合、第二露出条件で撮像された第二の撮像画像をステップS0405の前処理した画像である。   In step S0409, the image processing system 10 performs an acquisition process for acquiring the third partial image and the fourth partial image. In step S0409, the image processing system 10 performs the acquisition process of steps S0402 to S0405 under the second exposure condition. The third partial image is a first captured image captured under the second exposure condition. The third partial image is an image obtained by performing the preprocessing of Step S0403 on the first captured image captured under the second exposure condition when the preprocessing is performed. The fourth partial image is a second captured image captured under the second exposure condition. The fourth partial image is an image obtained by performing the preprocessing in step S0405 on the second captured image captured under the second exposure condition when the preprocessing is performed.

ステップS0410では、画像処理システム10は、第一の合成画像と同一のつなぎ条件で第二の合成画像を生成する合成処理を行う。ステップS0410では、画像処理システム10は、ステップS0406で求められたつなぎ条件を用いて、ステップS0407と同様の合成処理を行って、第二の合成画像を生成する。即ち、画像処理システム10は、ステップS0409で取得した第三の部分画像、及び第四の部分画像に基づいて計算処理を行わず、ステップS0406で求められた第一の部分画像、及び第二の部分画像のつなぎ条件で第二の合成画像を生成する。   In step S0410, the image processing system 10 performs a composition process for generating a second composite image under the same connection condition as the first composite image. In step S0410, the image processing system 10 performs the synthesis process similar to that in step S0407 using the connection condition obtained in step S0406, and generates a second synthesized image. That is, the image processing system 10 does not perform the calculation process based on the third partial image and the fourth partial image acquired in step S0409, and the first partial image obtained in step S0406 and the second partial image. A second composite image is generated under the condition for joining the partial images.

ステップS0411では、画像処理システム10は、第三露出条件の設定の処理を行う。   In step S0411, the image processing system 10 performs processing for setting the third exposure condition.

ステップS0412では、画像処理システム10は、第五の部分画像と、第六の部分画像とを取得する取得処理を行う。ステップS0412では、画像処理システム10は、第三露出条件でステップS0402乃至S0405の取得処理を行う。第五の部分画像は、第三露出条件で撮像された第一の撮像画像である。第五の部分画像は、前処理が行われる場合、第三露出条件で撮像された第一の撮像画像をステップS0403の前処理した画像である。第六の部分画像は、第三露出条件で撮像された第二の撮像画像である。第六の部分画像は、前処理が行われる場合、第三露出条件で撮像された第二の撮像画像をステップS0405の前処理した画像である。   In step S0412, the image processing system 10 performs an acquisition process for acquiring the fifth partial image and the sixth partial image. In step S0412, the image processing system 10 performs the acquisition processing of steps S0402 to S0405 under the third exposure condition. The fifth partial image is a first captured image captured under the third exposure condition. The fifth partial image is an image obtained by performing the preprocessing in step S0403 on the first captured image captured under the third exposure condition when the preprocessing is performed. The sixth partial image is a second captured image captured under the third exposure condition. The sixth partial image is an image obtained by performing the preprocessing of Step S0405 on the second captured image captured under the third exposure condition when the preprocessing is performed.

ステップS0413では、画像処理システム10は、第一の合成画像と同一のつなぎ条件で第三の合成画像を生成する合成処理を行う。ステップS0413では、画像処理システム10は、ステップS0410と同様に、ステップS0406で求められたつなぎ条件で合成処理を行って第三の合成画像を生成する。即ち、画像処理システム10は、ステップS0412で取得した第五の部分画像、及び第六の部分画像に基づいて計算処理を行わず、ステップS0406で計算された第一の部分画像、及び第二の部分画像のつなぎ条件で第三の合成画像を生成する。   In step S0413, the image processing system 10 performs a composition process for generating a third composite image under the same connection conditions as the first composite image. In step S0413, similarly to step S0410, the image processing system 10 performs the synthesis process under the connection condition obtained in step S0406 to generate a third synthesized image. That is, the image processing system 10 does not perform the calculation process based on the fifth partial image and the sixth partial image acquired in step S0412, and the first partial image calculated in step S0406 and the second partial image A third composite image is generated under the connection condition of the partial images.

ステップS0414では、画像処理システム10は、第一の合成画像、第二の合成画像、及び第三の合成画像から出力画像を生成する生成処理を行う。ステップS0414では、画像処理システム10は、ステップS0407で生成された第一の合成画像、ステップS0410で生成された第二の合成画像、及びステップS0413で生成された第三の合成画像から出力画像を生成する。   In step S0414, the image processing system 10 performs generation processing for generating an output image from the first composite image, the second composite image, and the third composite image. In step S0414, the image processing system 10 outputs an output image from the first composite image generated in step S0407, the second composite image generated in step S0410, and the third composite image generated in step S0413. Generate.

図13は、本発明の一実施形態に係る生成処理の一例を示す図である。   FIG. 13 is a diagram illustrating an example of a generation process according to an embodiment of the present invention.

図13は、撮像画像の有する画素の明るさを示すヒストグラム(Histogram)の一例である。ヒストグラムでは、横軸が明るさ、及び縦軸が画素数を示す。   FIG. 13 is an example of a histogram indicating the brightness of the pixels included in the captured image. In the histogram, the horizontal axis indicates brightness and the vertical axis indicates the number of pixels.

図13(A)は、第一露出条件のダイナミックレンジDR1の一例を説明する図である。   FIG. 13A is a diagram illustrating an example of the dynamic range DR1 of the first exposure condition.

図示するように、固体撮像素子が撮像して画像で再現が可能な露出の範囲、いわゆるダイナミックレンジ(dynamic range)が第一露出条件のダイナミックレンジDR1の場合を例に説明する。図示するように、第一露出条件のダイナミックレンジDR1は、撮像画像の有する画素の明るさをすべて示すには、ダイナミックレンジが狭い。即ち、一つの第一露出条件のダイナミックレンジDR1では、撮像画像の有する画素の明るさを示すのにダイナミックレンジが狭い場合があった。ダイナミックレンジが狭い場合、画像は、明るさが暗い部分でいわゆる黒つぶれ、又は明るさが明るい部分でいわゆる白飛びの画素を有してしまう場合がある。   As shown in the drawing, an example of a case where the exposure range that can be captured by the solid-state imaging device and reproduced in an image, that is, a so-called dynamic range is the dynamic range DR1 of the first exposure condition will be described as an example. As shown in the figure, the dynamic range DR1 of the first exposure condition has a narrow dynamic range in order to show all the brightness of the pixels included in the captured image. That is, in the dynamic range DR1 of one first exposure condition, there is a case where the dynamic range is narrow to indicate the brightness of the pixels included in the captured image. When the dynamic range is narrow, the image may have a so-called blackout pixel in a dark part or a so-called whiteout part in a bright part.

図13(B)は、第一の合成画像、第二の合成画像、及び第三の合成画像から出力画像を生成する生成処理の一例を説明する図である。   FIG. 13B is a diagram illustrating an example of a generation process that generates an output image from the first composite image, the second composite image, and the third composite image.

第二露出条件が第一露出条件からプラス補正された露出条件の場合、ダイナミックレンジは、例えば図示するように第二露出条件のダイナミックレンジDR2となる。第二露出条件のダイナミックレンジDR2は、第一露出条件のダイナミックレンジDR1と比較して明るい部分を撮像できるダイナミックレンジである。即ち、第二露出条件で撮像された撮像画像から生成された第二の合成画像は、第一の合成画像と比較して、明るい部分を示すことができる。   When the second exposure condition is an exposure condition that is positively corrected from the first exposure condition, the dynamic range is, for example, the dynamic range DR2 of the second exposure condition as illustrated. The dynamic range DR2 of the second exposure condition is a dynamic range in which a bright part can be imaged as compared with the dynamic range DR1 of the first exposure condition. That is, the second composite image generated from the captured image captured under the second exposure condition can show a brighter portion as compared to the first composite image.

第三露出条件が第一露出条件からマイナス補正された露出条件の場合、ダイナミックレンジは、例えば図示するように第三露出条件のダイナミックレンジDR3となる。第三露出条件のダイナミックレンジDR3は、第一露出条件のダイナミックレンジDR1と比較して暗い部分を撮像できるダイナミックレンジである。即ち、第三露出条件で撮像された撮像画像から生成された第三の合成画像は、第一の合成画像と比較して、暗い部分を示すことができる。   When the third exposure condition is an exposure condition in which the first exposure condition is negatively corrected, the dynamic range is, for example, the dynamic range DR3 of the third exposure condition as illustrated. The dynamic range DR3 of the third exposure condition is a dynamic range in which a dark part can be imaged as compared with the dynamic range DR1 of the first exposure condition. That is, the third composite image generated from the captured image captured under the third exposure condition can show a darker portion than the first composite image.

なお、各露出条件は、図示するようにダイナミックレンジが一部重複する範囲がないように設定されてもよい。   Each exposure condition may be set so that there is no range where the dynamic ranges partially overlap as shown in the figure.

生成処理は、例えば第一の合成画像、第二の合成画像、及び第三の合成画像を組み合わせて出力画像を生成する処理である。出力画像のダイナミックレンジは、図示するように、第一の合成画像、第二の合成画像、及び第三の合成画像のダイナミックレンジで示された出力画像のダイナミックレンジDR4である。出力画像が第一の合成画像、第二の合成画像、及び第三の合成画像を組み合わせて生成されるため、出力画像のダイナミックレンジDR4は、第一の合成画像、第二の合成画像、及び第三の合成画像のダイナミックレンジより広くできる。生成処理によって、画像処理装置100は、固体撮像素子のダイナミックレンジよりダイナミックレンジの広い、いわゆるHDR(High Dynamic Range)の出力画像を生成することができる。   The generation process is a process for generating an output image by combining, for example, a first composite image, a second composite image, and a third composite image. As illustrated, the dynamic range of the output image is the dynamic range DR4 of the output image indicated by the dynamic ranges of the first composite image, the second composite image, and the third composite image. Since the output image is generated by combining the first composite image, the second composite image, and the third composite image, the dynamic range DR4 of the output image has the first composite image, the second composite image, and It can be wider than the dynamic range of the third composite image. By the generation processing, the image processing apparatus 100 can generate a so-called HDR (High Dynamic Range) output image having a wider dynamic range than the dynamic range of the solid-state imaging device.

上述の説明では、撮像装置、及び被写体が動かない場合で生成処理を説明したが、撮像装置、及び被写体が動いた場合、生成処理は、例えば特表2006−525747等で示される方法で実現する。   In the above description, the generation process is described when the imaging apparatus and the subject do not move. However, when the imaging apparatus and the subject move, the generation process is realized by a method shown in, for example, the special table 2006-525747. .

なお、生成処理は、3つの合成画像から生成する処理に限られない。生成処理は、少なくとも2つの合成画像を用いる処理であればよい。つまり、生成処理は、2つの合成画像から生成する処理でもよい。また、生成処理は、4つ以上の合成画像から生成する処理でもよい。4つ以上の合成画像から生成することで、よりダイナミックレンジの広い出力画像を生成することができる。   Note that the generation process is not limited to the process of generating from the three composite images. The generation process may be a process that uses at least two composite images. That is, the generation process may be a process of generating from two composite images. Further, the generation process may be a process of generating from four or more composite images. By generating from four or more combined images, an output image with a wider dynamic range can be generated.

図14は、本発明の一実施形態に係る効果の一例を説明する図である。   FIG. 14 is a diagram for explaining an example of the effect according to the embodiment of the present invention.

図14(A)は、本発明の一実施形態に係る撮像状態の一例を示す図である。   FIG. 14A is a diagram illustrating an example of an imaging state according to an embodiment of the present invention.

以下、各部分画像の撮像範囲、及び重複領域が図14(A)で図示するような場合を例に説明する。図14(A)は、各部分画像の撮像範囲、及び重複領域に重複領域の被写体TGが、被写体として撮像されている場合の例である。重複領域の被写体TGは、例えば近距離位置の被写体TGNの位置から遠距離位置の被写体TGFの位置に移動する等の移動する被写体の場合がある。重複領域の被写体TGが移動する被写体の場合、各部分画像では、重複領域の被写体TGの距離等に応じて撮像される位置が変化する。   Hereinafter, the case where the imaging range of each partial image and the overlapping area are illustrated in FIG. 14A will be described as an example. FIG. 14A shows an example in which the imaging range of each partial image and the subject TG in the overlapping region in the overlapping region are imaged as the subject. The subject TG in the overlapping area may be a moving subject such as moving from the position of the subject TGN at the short distance position to the position of the subject TGF at the long distance position. In the case where the subject TG in the overlapping region is a moving subject, in each partial image, the imaged position changes according to the distance of the subject TG in the overlapping region.

図14(B)は、本発明の一実施形態に係る近距離位置の被写体TGNの撮像状態の一例を説明する図である。   FIG. 14B is a view for explaining an example of an imaging state of the subject TGN at a short distance according to an embodiment of the present invention.

図14(C)は、本発明の一実施形態に係る遠距離位置の被写体TGFの撮像状態の一例を説明する図である。   FIG. 14C is a view for explaining an example of an imaging state of a subject TGF at a long distance position according to an embodiment of the present invention.

重複領域の被写体TGが、近距離位置の被写体TGNの位置である場合、重複領域の被写体TGは、図14(B)で図示するように、各部分画像の外側部分に、撮像される。重複領域の被写体TGが、遠距離位置の被写体TGFの位置である場合、重複領域の被写体TGは、図14(C)で図示するように、各部分画像の内側部分に、撮像される。つまり、重複領域の被写体TGの撮像される位置は、重複領域の被写体TGの移動による距離の変化等によって変化する。   When the subject TG in the overlapping area is the position of the subject TGN at the short distance position, the subject TG in the overlapping area is imaged on the outer portion of each partial image as illustrated in FIG. When the subject TG in the overlapping area is the position of the subject TGF at the long distance position, the subject TG in the overlapping area is imaged in the inner part of each partial image as illustrated in FIG. That is, the position where the subject TG in the overlapping area is imaged changes due to a change in distance due to the movement of the subject TG in the overlapping area.

ここで、図4のステップS0406の計算処理では、つなぎ条件は、例えば図8で説明したマッチング処理によって計算される。   Here, in the calculation process of step S0406 in FIG. 4, the connection condition is calculated by the matching process described in FIG. 8, for example.

図15は、本発明の一実施形態に係るマッチング処理の一例を説明する図である。   FIG. 15 is a diagram illustrating an example of matching processing according to an embodiment of the present invention.

図15(A)は、遠距離位置の被写体TGF、及び近距離位置の被写体TGNが同じ部分画像に撮像された場合の一例を示す図である。   FIG. 15A is a diagram illustrating an example in which a subject TGF at a long distance position and a subject TGN at a short distance position are captured in the same partial image.

図15(A)では、図14の遠距離位置の被写体TGF、及び近距離位置の被写体TGN、即ち遠くにある被写体と、近くにある被写体とが、重複領域で同時に撮像され、双方の被写体は、第一の部分画像、及び第二の部分画像のそれぞれに写りこんだ状態である。   In FIG. 15A, the long-distance subject TGF and the short-distance subject TGN, that is, the distant subject and the near subject are simultaneously imaged in the overlapping area, and both subjects are shown in FIG. , The first partial image and the second partial image.

マッチング処理は、例えば重複領域に写っている被写体の特徴点を一方の部分画像内で抽出し、抽出した特徴点が、他方の部分画像のどこに位置しているかを算出する処理である。例えば遠距離位置の被写体TGFが、第一の部分画像において、特徴点SP1乃至SP3を抽出された場合、マッチング処理は、第二の部分画像において、特徴点SP1乃至SP3がどこに位置しているかを算出する処理である。同様に、近距離位置の被写体TGNが第一の部分画像で特徴点SP4乃至SP7を抽出された場合、マッチング処理は、第二の部分画像で特徴点SP4乃至SP7がどこに位置しているかを算出する処理である。   The matching process is a process for extracting, for example, a feature point of a subject shown in an overlapping area in one partial image and calculating where the extracted feature point is located in the other partial image. For example, when the subject TGF at a long distance is extracted with the feature points SP1 to SP3 in the first partial image, the matching process determines where the feature points SP1 to SP3 are located in the second partial image. This is a calculation process. Similarly, when the feature point SP4 to SP7 is extracted from the first partial image of the subject TGN at the short distance position, the matching process calculates where the feature points SP4 to SP7 are located in the second partial image. It is processing to do.

つなぎ条件は、例えば第一の部分画像の特徴点SP1乃至SP3と、第二の部分画像の特徴点SP1乃至SP3とが重なるように各部分画像をつなぐつなぎ位置である。各部分画像は、抽出された各特徴点が重なるように全体、又はメッシュ状のエリアごとに変形されてつながれる。なお、つなぎ条件は、図8で説明したように各部分画像をつなぐ座標の差を示すずれ量でもよい。   The connection condition is, for example, a connection position where the partial images are connected such that the feature points SP1 to SP3 of the first partial image overlap with the feature points SP1 to SP3 of the second partial image. Each partial image is connected by being deformed for each whole area or mesh area so that the extracted feature points overlap each other. Note that the connection condition may be a shift amount indicating a difference in coordinates connecting the partial images as described in FIG.

図15(B)は、遠距離位置の被写体TGF、及び近距離位置の被写体TGNが同じ部分画像に撮像された場合の部分画像を合成して生成した合成画像の一例を示す図である。   FIG. 15B is a diagram illustrating an example of a composite image generated by combining partial images when a subject TGF at a long distance position and a subject TGN at a short distance position are captured in the same partial image.

図15(A)で図示した各部分画像を用いて図12で説明した合成処理等した場合、図15(B)で図示する合成画像が生成される。   When the combination processing described with reference to FIG. 12 is performed using the partial images illustrated in FIG. 15A, the combined image illustrated in FIG. 15B is generated.

図15(A)で図示したように、マッチング処理の対象となる被写体の距離等が変化する場合、被写体の撮像される位置が変化する。そのため、遠距離位置の被写体TGF、及び近距離位置の被写体TGNが同様の被写体であっても、マッチング処理の結果、即ち、つなぎ条件は、被写体の撮像される位置等によって変化する。また、マッチング処理の際に変形等が行われる場合、被写体の周辺部分は、あわせて変形される場合が多い。したがって、変形等によってマッチング処理の結果が変化する場合もある。   As illustrated in FIG. 15A, when the distance or the like of the subject to be subjected to the matching process changes, the position where the subject is imaged changes. Therefore, even if the subject TGF at the long distance position and the subject TGN at the short distance position are similar, the result of the matching process, that is, the connection condition changes depending on the position where the subject is imaged. In addition, when deformation or the like is performed during the matching process, the peripheral portion of the subject is often deformed together. Therefore, the result of the matching process may change due to deformation or the like.

第一露出条件、及び第二露出条件で撮像する場合、それぞれの露出条件を設定して連写等で撮像する。即ち、露出条件がそれぞれ異なる撮像画像の場合、各撮像画像が撮像されるフレーム(frame)は、それぞれ異なる場合が多い。撮像されるフレームがそれぞれ異なる場合、撮像画像は、同じ被写体を撮像していても被写体、又は画像処理システム10が移動している場合、被写体を図14で説明したように、異なって撮像する場合がある。また、撮像されるフレームが異なる場合、撮像画像には、前のフレームから次のフレームの間に新たな物体が重複領域に進入し、新しい被写体が加わってしまう場合がある。   When imaging is performed under the first exposure condition and the second exposure condition, each exposure condition is set, and imaging is performed by continuous shooting or the like. That is, in the case of captured images with different exposure conditions, the frames in which each captured image is captured are often different. When the captured frames are different from each other, the captured images are captured even when the same subject is captured, or when the subject or the image processing system 10 is moving, when the subject is captured differently as described with reference to FIG. There is. If the captured frames are different, a new object may enter the overlap area between the previous frame and the next frame in the captured image, and a new subject may be added.

被写体が異なって撮像された場合、又は新しい被写体が加わった場合、マッチング処理の結果は、特徴点の抽出結果が変化する等によって変化する場合が多い。つなぎ条件が変化した場合、合成処理で生成される合成画像は、同一の部分画像に基づいて処理した場合でも異なる合成画像を生成する場合が多い。異なるつなぎ条件で生成された合成画像は、同一の被写体が同じ位置に撮像されていない等の図13で説明した生成処理の際の不整合を生じる場合がある。画像処理装置100は、第一の合成画像、及び第二の合成画像を、同一のつなぎ条件で生成することで、出力画像を生成する生成処理の際の不整合を少なくできる。   When the subject is imaged differently or when a new subject is added, the result of the matching process often changes due to a change in the feature point extraction result or the like. When the connection condition changes, the composite image generated by the composite process often generates a different composite image even when processed based on the same partial image. A composite image generated under different connection conditions may cause inconsistency in the generation processing described with reference to FIG. 13 such that the same subject is not captured at the same position. The image processing apparatus 100 generates the first composite image and the second composite image under the same connection condition, thereby reducing inconsistencies during the generation process for generating the output image.

<機能構成>
図16は、本発明の一実施形態に係る画像処理システムの機能構成の一例を示す機能ブロック図である。
<Functional configuration>
FIG. 16 is a functional block diagram illustrating an example of a functional configuration of an image processing system according to an embodiment of the present invention.

画像処理システム10は、撮像部10F1と、画像処理装置100とを有する。画像処理装置100は、取得部100F1と、計算部100F2と、合成部100F3と、生成部100F4と、露出条件設定部100F5とを有する。   The image processing system 10 includes an imaging unit 10F1 and an image processing device 100. The image processing apparatus 100 includes an acquisition unit 100F1, a calculation unit 100F2, a synthesis unit 100F3, a generation unit 100F4, and an exposure condition setting unit 100F5.

撮像部10F1は、第一撮像部10F11と、第二撮像部10F12とを有する。   The imaging unit 10F1 includes a first imaging unit 10F11 and a second imaging unit 10F12.

第一撮像部10F11は、露出条件設定部100F5が設定した露出条件で第一の撮像画像を撮像する撮像処理を行う。第二撮像部10F12は、露出条件設定部100F5が設定した露出条件で第二の撮像画像を撮像する撮像処理を行う。第一撮像部10F11は、例えば図1の固体撮像素子22A、及び結像光学系20A等で実現される。第二撮像部10F12は、図1の固体撮像素子22B、及び結像光学系20B等で実現される。   The first imaging unit 10F11 performs an imaging process for capturing a first captured image under the exposure condition set by the exposure condition setting unit 100F5. The second imaging unit 10F12 performs an imaging process for capturing a second captured image under the exposure condition set by the exposure condition setting unit 100F5. The first imaging unit 10F11 is realized by, for example, the solid-state imaging device 22A and the imaging optical system 20A shown in FIG. The second imaging unit 10F12 is realized by the solid-state imaging device 22B and the imaging optical system 20B in FIG.

なお、撮像部10F1は、3以上の撮像画像を撮像してもよい。また、撮像部10F1は、3以上の露出条件で各撮像画像を撮像してもよい。   Note that the imaging unit 10F1 may capture three or more captured images. The imaging unit 10F1 may capture each captured image under three or more exposure conditions.

取得部100F1は、部分画像を取得する取得処理を行う。前処理を行う場合、取得部100F1は、撮像画像を前処理し、前処理した画像を部分画像として取得する処理を行ってもよい。   The acquisition unit 100F1 performs an acquisition process for acquiring a partial image. When performing the preprocessing, the acquisition unit 100F1 may perform a process of preprocessing the captured image and acquiring the preprocessed image as a partial image.

露出条件設定部100F5が第一露出条件を設定した場合、第一の撮像画像を第一の部分画像として取得する処理を行う。前処理を行う場合、取得部100F1は、第一の撮像画像を前処理して第一の部分画像として取得するための処理を行ってもよい。露出条件設定部100F5が第一露出条件を設定した場合、第二の撮像画像を第二の部分画像として取得する処理を行う。前処理を行う場合、取得部100F1は、第二の撮像画像を前処理して第二の部分画像として取得するための処理を行ってもよい。   When the exposure condition setting unit 100F5 sets the first exposure condition, the first captured image is acquired as the first partial image. When performing the preprocessing, the acquisition unit 100F1 may perform a process for preprocessing the first captured image and acquiring the first captured image as the first partial image. When the exposure condition setting unit 100F5 sets the first exposure condition, the second captured image is acquired as the second partial image. When performing the preprocessing, the acquisition unit 100F1 may perform a process for preprocessing the second captured image and acquiring the second captured image as a second partial image.

露出条件設定部100F5が第二露出条件を設定した場合、第一の撮像画像を第三の部分画像として取得する処理を行う。前処理を行う場合、取得部100F1は、第一の撮像画像を前処理して第三の部分画像として取得するための処理を行ってもよい。露出条件設定部100F5が第二露出条件を設定した場合、第二の撮像画像を第四の部分画像として取得する処理を行う。前処理を行う場合、取得部100F1は、第二の撮像画像を前処理して第四の部分画像として取得するための処理を行ってもよい。   When the exposure condition setting unit 100F5 sets the second exposure condition, a process of acquiring the first captured image as the third partial image is performed. When performing preprocessing, the acquisition unit 100F1 may perform processing for preprocessing the first captured image and acquiring the first captured image as a third partial image. When the exposure condition setting unit 100F5 sets the second exposure condition, a process of acquiring the second captured image as the fourth partial image is performed. When performing the preprocessing, the acquisition unit 100F1 may perform a process for preprocessing the second captured image and acquiring the second captured image as a fourth partial image.

取得部100F1は、図2のISP108A、及び図2のISP108B等によって実現される。   The acquisition unit 100F1 is realized by the ISP 108A in FIG. 2, the ISP 108B in FIG.

計算部100F2は、第一の部分画像、及び第二の部分画像をつなぐためのつなぎ条件を求める計算処理を行う。計算部100F2は、取得部100F1が取得処理で取得した部分画像のうち、第一の部分画像、及び第二の部分画像を用いて計算処理を行う。計算部100F2は、各部分画像から合成処理で合成画像を生成するに必要なつなぎ条件を計算処理で計算する処理を行う。   The calculation unit 100F2 performs a calculation process for obtaining a connection condition for connecting the first partial image and the second partial image. The calculation unit 100F2 performs calculation processing using the first partial image and the second partial image among the partial images acquired by the acquisition unit 100F1 in the acquisition processing. The calculation unit 100F2 performs a process of calculating a connection condition necessary for generating a composite image from each partial image by the composite process.

計算部100F2は、図2のCPU130、及び画像処理回路124等によって実現される。   The calculation unit 100F2 is realized by the CPU 130, the image processing circuit 124, and the like in FIG.

合成部100F3は、第一の部分画像と、第二の部分画像とを計算部100F2が計算したつなぎ条件に基づいて合成して第一の合成画像を生成する合成処理を行う。合成部100F3は、第三の部分画像と、第四の部分画像とを計算部100F2が計算したつなぎ条件に基づいて合成して第二の合成画像を生成する合成処理を行う。合成部100F3は、計算部100F2が計算した第一の部分画像、及び第二の部分画像をつなぐためのつなぎ条件で合成して第一の合成画像を生成する合成処理を行う。第一の合成画像と同様に、合成部100F3は、計算部100F2が計算した第一の部分画像、及び第二の部分画像をつなぐためのつなぎ条件で合成して第二の合成画像を生成する合成処理を行う。   The synthesizing unit 100F3 performs a synthesizing process for synthesizing the first partial image and the second partial image based on the connection condition calculated by the calculating unit 100F2 to generate a first synthesized image. The synthesizing unit 100F3 performs a synthesizing process of synthesizing the third partial image and the fourth partial image based on the connection condition calculated by the calculating unit 100F2 to generate a second synthetic image. The synthesizing unit 100F3 performs a synthesizing process for generating a first synthesized image by synthesizing the first partial image calculated by the calculating unit 100F2 and a connection condition for connecting the second partial image. Similar to the first combined image, the combining unit 100F3 generates a second combined image by combining the first partial image calculated by the calculating unit 100F2 and the connection condition for connecting the second partial image. Perform synthesis processing.

合成部100F3は、合成画像を合成処理で生成する際、用いる部分画像が第三の部分画像、及び第四の部分画像の場合でも第一の部分画像、及び第二の部分画像をつなぐためのつなぎ条件に基づいて合成処理を行う。   The composition unit 100F3 connects the first partial image and the second partial image even when the partial image to be used is the third partial image and the fourth partial image when the composite image is generated by the composition processing. A synthesis process is performed based on the connection condition.

なお、合成部100F3は、3以上の合成画像を生成してもよい。合成部100F3は、3以上の合成画像を生成する場合でも、共通して第一の部分画像、及び第二の部分画像をつなぐためのつなぎ条件に基づいて合成処理を行う。   Note that the combining unit 100F3 may generate three or more combined images. Even when three or more composite images are generated, the compositing unit 100F3 performs the compositing process based on the connection condition for connecting the first partial image and the second partial image in common.

合成部100F3は、図2のCPU130、及び画像処理回路124等によって実現される。   The synthesizing unit 100F3 is realized by the CPU 130, the image processing circuit 124, and the like in FIG.

生成部100F4は、少なくとも第一の合成画像、及び第二の合成画像に基づいて出力画像を生成する生成処理を行う。生成部100F4は、2以上の合成画像に基づいて出力画像を生成する処理を行う。   The generation unit 100F4 performs generation processing for generating an output image based on at least the first composite image and the second composite image. The generation unit 100F4 performs a process of generating an output image based on two or more combined images.

なお、生成部100F4は、3以上の合成画像に基づいて出力画像を生成してもよい。   Note that the generation unit 100F4 may generate an output image based on three or more combined images.

生成部100F4は、図2のCPU130、及び画像処理回路124等によって実現される。   The generation unit 100F4 is realized by the CPU 130, the image processing circuit 124, and the like in FIG.

露出条件設定部100F5は、撮像部10F1が撮像処理する露出条件を設定する処理を行う。露出条件設定部100F5は、図2のCPU130等で実現される。露出条件設定部100F5は、露出条件を設定するために、撮像画像の明るさを計算する処理等を行ってもよい。また、各露出条件は、ユーザ等が予め絞り、シャッタースピード、及びゲイン等の各設定値を露出条件ごとにそれぞれ入力し、入力された設定値を設定することによって実現されてもよい。   The exposure condition setting unit 100F5 performs a process of setting exposure conditions for the imaging unit 10F1 to perform imaging processing. The exposure condition setting unit 100F5 is realized by the CPU 130 in FIG. The exposure condition setting unit 100F5 may perform a process of calculating the brightness of the captured image in order to set the exposure condition. In addition, each exposure condition may be realized by a user or the like previously inputting respective setting values such as an aperture, a shutter speed, and a gain for each exposure condition, and setting the input setting values.

画像処理装置100は、第一露出条件の撮像に基づいた第一の部分画像、及び第二の部分画像から合成処理で第一の合成画像を生成するためのつなぎ条件を計算処理によって求める。画像処理装置100は、計算処理で計算したつなぎ条件に基づいた合成処理でつなぎ条件に基づいて第一の合成画像を生成する。   The image processing apparatus 100 obtains, by calculation processing, a connection condition for generating a first composite image from the first partial image based on the imaging under the first exposure condition and the second partial image by combining processing. The image processing apparatus 100 generates a first combined image based on the connection condition in the combining process based on the connection condition calculated in the calculation process.

画像処理装置100は、第二露出条件の撮像に基づいた第三の部分画像、及び第四の部分画像から第二の合成画像を生成するため、第一の部分画像、及び第二の部分画像のつなぎ条件に基づいて合成処理で第二の合成画像を生成する。   Since the image processing apparatus 100 generates a second composite image from the third partial image and the fourth partial image based on the imaging of the second exposure condition, the first partial image and the second partial image A second synthesized image is generated by the synthesis process based on the connection condition.

第一の合成画像、及び第二の合成画像は、同一のつなぎ条件に基づいて合成処理で生成される。画像処理装置100は、第一の合成画像、及び第二の合成画像を生成するための部分画像の撮像されるフレームが異なる場合でもつなぎ条件が同一のため、マッチング処理結果の変化の影響を少なくできる。したがって、画像処理装置100は、第一の合成画像、及び第二の合成画像を同一のつなぎ条件で生成することで、出力画像を生成する生成処理の際の不整合を少なくでき、生成処理で生成される出力画像の画質を向上させることができる。   The first synthesized image and the second synthesized image are generated by the synthesis process based on the same connection condition. The image processing apparatus 100 reduces the influence of the change in the matching processing result because the connecting condition is the same when the captured frames of the first synthesized image and the partial image for generating the second synthesized image are different. it can. Therefore, the image processing apparatus 100 generates the first composite image and the second composite image under the same connection condition, thereby reducing inconsistencies during the generation process for generating the output image. The image quality of the generated output image can be improved.

なお、各処理の全部、又は一部は、アセンブラ、C、C++、C#、及びJava(登録商標)等のレガシープログラミング言語、又はオブジェクト指向プログラミング言語等で記述されたコンピュータが実行できるプログラムによって実現されてもよい。プログラムは、ROM、又はEEPROM(Electrically Erasable Programmable ROM)等の記憶媒体に格納して頒布することができる。プログラムは、EPROM(Erasable Programmable ROM)等の記憶媒体に格納して頒布することができる。プログラムは、フラッシュメモリ、フレキシブルディスク、CD−ROM、CD−RW、DVD−ROM、DVD−RAM、又はDVD−RW等の記憶媒体に格納して頒布することができる。プログラムは、ブルーレイディスク、SD(登録商標)カード、又はMO等装置可読な記憶媒体に格納して、又は電気通信回線を通じて頒布することができる。   All or part of each process is realized by a program that can be executed by a computer written in a legacy programming language such as an assembler, C, C ++, C #, and Java (registered trademark) or an object-oriented programming language. May be. The program can be stored and distributed in a storage medium such as ROM or EEPROM (Electrically Erasable Programmable ROM). The program can be stored and distributed in a storage medium such as an EPROM (Erasable Programmable ROM). The program can be stored and distributed in a storage medium such as a flash memory, a flexible disk, a CD-ROM, a CD-RW, a DVD-ROM, a DVD-RAM, or a DVD-RW. The program can be stored in a device-readable storage medium such as a Blu-ray disc, SD (registered trademark) card, or MO, or can be distributed through a telecommunication line.

なお、実施形態における画像は、静止画に限られない。例えば画像は、動画でもよい。   Note that the image in the embodiment is not limited to a still image. For example, the image may be a moving image.

また、実施形態の各処理の一部又は全部は、例えばフィールド・プログラマブル・ゲート・アレイ(FPGA)等のプログラマブル・デバイス(PD)で実現されてもよい。さらに、実施形態の各処理の一部又は全部は、ASIC(Application Specific Integrated Circuit)で実現されてもよい。   Moreover, a part or all of each processing of the embodiment may be realized by a programmable device (PD) such as a field programmable gate array (FPGA). Furthermore, a part or all of each process of the embodiment may be realized by an ASIC (Application Specific Integrated Circuit).

以上、本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims. Can be changed.

10 画像処理システム
10F1 撮像部
10F11 第一撮像部
10F12 第二撮像部
12 撮像装置
14 筐体
18 シャッターボタン
20A、20B 結像光学系
22A、22B 固体撮像素子
100 画像処理装置
100F1 取得部
100F2 計算部
100F3 合成部
100F4 生成部
100F5 露出条件設定部
102 鏡胴ユニット
126 画像データ転送処理回路
128 SDRAMC
108A、108B ISP
110、122 DMAC
112 ARBMEMC
114 MEMC
118 歪曲補正・画像合成処理回路
124 画像処理回路
130 CPU
132 リサイズ処理回路
134 JPEG処理回路
136 H.264処理回路
140 メモリカード制御処理回路
146 USB処理回路
150 ペリフェラル通信処理回路
152 音声ユニット
158 シリアル通信処理回路
162 LCDドライバ
168 ブリッジ回路
138 SDRAM
142 メモリカードスロット
144 フラッシュROM
148 USBコネクタ
154 スピーカ
156 マイク
160 無線NIC
164 LCDモニタ
166 電源スイッチ
D1 第一の部分画像
D2 第二の部分画像
D3 第一のつなぎ条件計算用補正画像
D4 第二のつなぎ条件計算用補正画像
D5 計算結果データ
D6 つなぎ条件計算用変換テーブル
D62 修正後つなぎ条件計算用変換テーブル
D7 合成処理用変換テーブル
D8 第一の合成処理用補正画像
D9 第二の合成処理用補正画像
D10 合成画像
DR1 第一露出条件のダイナミックレンジ
DR2 第二露出条件のダイナミックレンジ
DR3 第三露出条件のダイナミックレンジ
DR4 出力画像のダイナミックレンジ
TG 重複領域の被写体
TGF 遠距離位置の被写体
TGN 近距離位置の被写体
SP1、SP2、SP3、SP4、SP5、SP6、SP7 特徴点
DESCRIPTION OF SYMBOLS 10 Image processing system 10F1 Image pick-up part 10F11 First image pick-up part 10F12 Second image pick-up part 12 Image pick-up device 14 Case 18 Shutter button 20A, 20B Imaging optical system 22A, 22B Solid-state image pick-up element 100 Image processing apparatus 100F1 Acquisition part 100F2 Calculation part 100F3 Composition unit 100F4 Generation unit 100F5 Exposure condition setting unit 102 Lens barrel unit 126 Image data transfer processing circuit 128 SDRAMC
108A, 108B ISP
110, 122 DMAC
112 ARBMEMC
114 MEMC
118 Distortion Correction / Image Synthesis Processing Circuit 124 Image Processing Circuit 130 CPU
132 Resize processing circuit 134 JPEG processing circuit 136 H.264 processing circuit 140 Memory card control processing circuit 146 USB processing circuit 150 Peripheral communication processing circuit 152 Audio unit 158 Serial communication processing circuit 162 LCD driver 168 Bridge circuit 138 SDRAM
142 Memory card slot 144 Flash ROM
148 USB connector 154 Speaker 156 Microphone 160 Wireless NIC
164 LCD monitor 166 Power switch D1 First partial image D2 Second partial image D3 First connection condition calculation correction image D4 Second connection condition calculation correction image D5 Calculation result data D6 Connection condition calculation conversion table D62 Modified connection condition calculation conversion table D7 Composite processing conversion table D8 First composite processing correction image D9 Second composite processing correction image D10 Composite image DR1 Dynamic range DR2 of the first exposure condition Dynamic of the second exposure condition Range DR3 Dynamic range DR3 of the third exposure condition Dynamic range TG of the output image Subject TGF in the overlapping area Subject TGN in the long distance position Subject SP1, SP2, SP3, SP4, SP5, SP6, SP7 in the short distance position

特開平11−205648号公報Japanese Patent Laid-Open No. 11-205648 特開2012−80432号公報JP 2012-80432 A

Claims (9)

画像データを画像処理する画像処理装置であって、
第一露出条件、及び第二露出条件を含む2以上の露出条件の各露出条件で2以上の部分画像を取得する取得処理を行う取得手段と、
前記第一露出条件の部分画像をつなぐためのつなぎ条件を計算する計算手段と、
前記取得手段により取得される部分画像について、前記計算手段により計算されるつなぎ条件に基づいて、前記第一露出条件の2以上の部分画像から生成される第一の合成画像、及び前記つなぎ条件に基づいて、前記第二露出条件の2以上の部分画像から生成した第二の合成画像の少なくとも2つの合成画像を生成する合成処理を行う合成手段と、
少なくとも前記第一の合成画像、及び前記第二の合成画像に基づいて出力画像を生成する生成処理を行う生成手段と
を有する画像処理装置。
An image processing apparatus for image processing image data,
Acquisition means for performing an acquisition process of acquiring two or more partial images under each exposure condition of two or more exposure conditions including a first exposure condition and a second exposure condition;
Calculation means for calculating a connection condition for connecting the partial images of the first exposure condition;
For the partial image acquired by the acquisition unit, based on the connection condition calculated by the calculation unit, the first composite image generated from two or more partial images of the first exposure condition, and the connection condition And a combining means for performing a combining process for generating at least two combined images of the second combined image generated from two or more partial images of the second exposure condition,
An image processing apparatus comprising: generation means for performing generation processing for generating an output image based on at least the first composite image and the second composite image.
前記露出条件は、前記取得処理で取得される部分画像を撮像する際の絞り、シャッタースピード、及びゲインのうち、少なくともいずれか1つの設定値を含む条件である請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the exposure condition is a condition including at least one set value of an aperture, a shutter speed, and a gain when capturing a partial image acquired in the acquisition process. . 前記合成処理は、3以上の部分画像から前記合成画像を生成する処理である請求項1又は2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the combining process is a process of generating the combined image from three or more partial images. 前記生成処理は、3以上の前記合成画像に基づいて前記出力画像を生成する処理である請求項1乃至3のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the generation process is a process of generating the output image based on three or more combined images. 前記生成処理は、前記第一の合成画像、又は前記第二の合成画像よりダイナミックレンジの広い前記出力画像を生成する処理である請求項1乃至4のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the generation process is a process of generating the output image having a dynamic range wider than that of the first composite image or the second composite image. 前記つなぎ条件は、前記合成処理の際、一方の部分画像と、他方の部分画像とをつなぐ位置、又はずれ量である請求項1乃至5のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the connection condition is a position where one partial image and the other partial image are connected or a shift amount in the composition processing. 撮像装置、及び画像処理装置を有する画像処理システムであって、
前記撮像装置は、
第一露出条件、及び第二露出条件を含む2以上露出条件の各露出条件で2以上の撮像画像を撮像する撮像手段を有し、
前記画像処理装置は、
前記撮像手段が撮像する際の露出条件を設定する露出条件設定手段と、
前記撮像装置から各露出条件の前記撮像画像を入力し、各露出条件の前記撮像画像に基づいて2以上の部分画像を取得する取得処理を行う取得手段と、
前記第一露出条件の部分画像をつなぐためのつなぎ条件を計算する計算手段と、
前記取得手段により取得される部分画像について、前記計算手段により計算されるつなぎ条件に基づいて、前記第一露出条件の2以上の部分画像から生成される第一の合成画像、及び前記つなぎ条件に基づいて、前記第二露出条件の2以上の部分画像から生成した第二の合成画像の少なくとも2つの合成画像を生成する合成処理を行う合成手段と、
少なくとも前記第一の合成画像、及び前記第二の合成画像に基づいて出力画像を生成する生成処理を行う生成手段と
を有する画像処理システム。
An image processing system having an imaging device and an image processing device,
The imaging device
An imaging unit that captures two or more captured images under each exposure condition including two or more exposure conditions including a first exposure condition and a second exposure condition;
The image processing apparatus includes:
Exposure condition setting means for setting an exposure condition when the imaging means captures an image;
An acquisition unit that inputs the captured image of each exposure condition from the imaging device and performs an acquisition process of acquiring two or more partial images based on the captured image of each exposure condition;
Calculation means for calculating a connection condition for connecting the partial images of the first exposure condition;
For the partial image acquired by the acquisition unit, based on the connection condition calculated by the calculation unit, the first composite image generated from two or more partial images of the first exposure condition, and the connection condition And a combining means for performing a combining process for generating at least two combined images of the second combined image generated from two or more partial images of the second exposure condition,
An image processing system comprising: generation means for performing generation processing for generating an output image based on at least the first composite image and the second composite image.
画像データを画像処理する画像処理装置に行わせる画像処理方法であって、
前記画像処理装置に、第一露出条件、及び第二露出条件を含む2以上の露出条件の各露出条件で2以上の部分画像を取得する取得処理を行わせる取得手順と、
前記画像処理装置に、前記第一露出条件の部分画像をつなぐためのつなぎ条件を計算する計算手順と、
前記画像処理装置に、前記取得処理で取得される部分画像について、前記計算手順で計算されるつなぎ条件に基づいて、前記第一露出条件の2以上の部分画像から生成される第一の合成画像、及び前記つなぎ条件に基づいて、前記第二露出条件の2以上の部分画像から生成した第二の合成画像の少なくとも2つの合成画像を生成する合成処理を行わせる合成手順と、
前記画像処理装置に、少なくとも前記第一の合成画像、及び前記第二の合成画像に基づいて出力画像を生成する生成処理を行わせる生成手順と
を有する画像処理方法。
An image processing method for causing an image processing apparatus to perform image processing on image data,
An acquisition procedure for causing the image processing apparatus to perform an acquisition process of acquiring two or more partial images under each exposure condition of two or more exposure conditions including a first exposure condition and a second exposure condition;
A calculation procedure for calculating a connection condition for connecting the partial images of the first exposure condition to the image processing apparatus;
A first composite image generated from two or more partial images of the first exposure condition based on the connection condition calculated in the calculation procedure for the partial image acquired in the acquisition process by the image processing apparatus. And a combining procedure for performing a combining process for generating at least two combined images of the second combined image generated from two or more partial images of the second exposure condition based on the connection condition;
An image processing method comprising: a generation procedure for causing the image processing apparatus to perform a generation process for generating an output image based on at least the first composite image and the second composite image.
画像データの画像処理を画像処理装置に実行させるためのプログラムであって、
前記画像処理装置に、第一露出条件、及び第二露出条件を含む2以上の露出条件の各露出条件で2以上の部分画像を取得する取得処理を行わせる取得手順と、
前記画像処理装置に、前記第一露出条件の部分画像をつなぐためのつなぎ条件を計算させる計算手順と、
前記画像処理装置に、前記取得処理で取得される部分画像について、前記計算手順で計算されるつなぎ条件に基づいて、前記第一露出条件の2以上の部分画像から生成される第一の合成画像、及び前記つなぎ条件に基づいて、前記第二露出条件の2以上の部分画像から生成した第二の合成画像の少なくとも2つの合成画像を生成する合成処理を行わせる合成手順と、
前記画像処理装置に、少なくとも前記第一の合成画像、及び前記第二の合成画像に基づいて出力画像を生成する生成処理を行わせる生成手順と
を実行させるためのプログラム。
A program for causing an image processing apparatus to perform image processing of image data,
An acquisition procedure for causing the image processing apparatus to perform an acquisition process of acquiring two or more partial images under each exposure condition of two or more exposure conditions including a first exposure condition and a second exposure condition;
A calculation procedure for causing the image processing apparatus to calculate a connection condition for connecting the partial images of the first exposure condition;
A first composite image generated from two or more partial images of the first exposure condition based on the connection condition calculated in the calculation procedure for the partial image acquired in the acquisition process by the image processing apparatus. And a combining procedure for performing a combining process for generating at least two combined images of the second combined image generated from two or more partial images of the second exposure condition based on the connection condition;
A program for causing the image processing apparatus to execute a generation procedure for performing a generation process for generating an output image based on at least the first composite image and the second composite image.
JP2014164691A 2014-08-13 2014-08-13 Image processing device, image processing method, image processing system, and program Pending JP2016040883A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014164691A JP2016040883A (en) 2014-08-13 2014-08-13 Image processing device, image processing method, image processing system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014164691A JP2016040883A (en) 2014-08-13 2014-08-13 Image processing device, image processing method, image processing system, and program

Publications (1)

Publication Number Publication Date
JP2016040883A true JP2016040883A (en) 2016-03-24

Family

ID=55541107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014164691A Pending JP2016040883A (en) 2014-08-13 2014-08-13 Image processing device, image processing method, image processing system, and program

Country Status (1)

Country Link
JP (1) JP2016040883A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020123837A (en) * 2019-01-30 2020-08-13 株式会社リコー Imaging apparatus, imaging method, and program
JP2021005906A (en) * 2020-10-15 2021-01-14 富士通株式会社 Video encoding device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020123837A (en) * 2019-01-30 2020-08-13 株式会社リコー Imaging apparatus, imaging method, and program
JP7247609B2 (en) 2019-01-30 2023-03-29 株式会社リコー Imaging device, imaging method and program
US11831995B2 (en) 2019-01-30 2023-11-28 Ricoh Company, Ltd. Image capturing apparatus, image capturing method, and carrier means
JP2021005906A (en) * 2020-10-15 2021-01-14 富士通株式会社 Video encoding device
JP7047878B2 (en) 2020-10-15 2022-04-05 富士通株式会社 Video encoding device

Similar Documents

Publication Publication Date Title
JP6721065B2 (en) Imaging device, image processing device and method
JP6065474B2 (en) Imaging control apparatus, imaging control method, and program
JP5846549B1 (en) Image processing system, image processing method, program, imaging system, image generation apparatus, image generation method and program
CN109309796B (en) Electronic device for acquiring image using multiple cameras and method for processing image using the same
JP5971207B2 (en) Image adjustment apparatus, image adjustment method, and program
JP6455601B2 (en) Control system, imaging apparatus, and program
US10521891B2 (en) Image processing apparatus, system, image processing method, and non-transitory recording medium
JP2017208619A (en) Image processing apparatus, image processing method, program and imaging system
CN109672827B (en) Electronic device for combining multiple images and method thereof
JP2014123797A (en) Imaging control device, imaging system, imaging control method, and program
JP6222205B2 (en) Image processing device
JP6291748B2 (en) Imaging apparatus, imaging method, and program
US20220230275A1 (en) Imaging system, image processing apparatus, imaging device, and recording medium
JP6299116B2 (en) Imaging apparatus, imaging method, and recording medium
JP7247609B2 (en) Imaging device, imaging method and program
JP2016040883A (en) Image processing device, image processing method, image processing system, and program
JP6439845B2 (en) Image processing device
JP2020088419A (en) Imaging apparatus, image correction method, and program
JP7379884B2 (en) Imaging device, image processing system, method and program
JP7451888B2 (en) Imaging device, imaging system, method and program