JP2015050498A - Imaging device, imaging method, and recording medium - Google Patents

Imaging device, imaging method, and recording medium Download PDF

Info

Publication number
JP2015050498A
JP2015050498A JP2013178880A JP2013178880A JP2015050498A JP 2015050498 A JP2015050498 A JP 2015050498A JP 2013178880 A JP2013178880 A JP 2013178880A JP 2013178880 A JP2013178880 A JP 2013178880A JP 2015050498 A JP2015050498 A JP 2015050498A
Authority
JP
Japan
Prior art keywords
solid
exposure
value
state image
image sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013178880A
Other languages
Japanese (ja)
Other versions
JP6299116B2 (en
Inventor
野村 健一郎
Kenichiro Nomura
健一郎 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013178880A priority Critical patent/JP6299116B2/en
Publication of JP2015050498A publication Critical patent/JP2015050498A/en
Application granted granted Critical
Publication of JP6299116B2 publication Critical patent/JP6299116B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To photograph a wide luminance area at a proper brightness and to prevent generation of difference at a connection part of photographed images, in a case where a subject having different luminances is photographed by a plurality of imaging optical systems.SOLUTION: An imaging device comprises: a first photometry value calculation part 51 calculating a photometry value in a plurality of solid-state imaging elements; a second photometry value calculation part 52 calculating a photometry value in each solid-state imaging element; a first exposure value calculation part 53 calculating an exposure value from both photometry values; a second exposure value calculation part 54 calculating an exposure value of each solid-state imaging element from the photometry value at the second photometry value calculation part; an exposure control value setting part 55 setting a solid-state imaging element having a photometry value larger than the photometry value at the first photometry value calculation part among the photometry values at the second photometry value calculation part as a first solid-state imaging element, setting the remaining solid-state imaging element as a second solid-state imaging element, setting an exposure control value from the exposure value at the first exposure value calculation part to the first solid-state imaging element, and setting an exposure control value from the exposure value at the second exposure value calculation part to the second solid-state imaging element; and an exposure difference correction part 56 correcting an exposure difference from the first solid-state imaging element to the second solid-state imaging element.

Description

本発明は、複数の撮像光学系に対する適切な撮像条件を与えることができる撮像装置、その撮像装置が実行する撮像方法、およびその撮像装置を実現するためのプログラムを記録した記録媒体に関する。   The present invention relates to an imaging apparatus capable of providing appropriate imaging conditions for a plurality of imaging optical systems, an imaging method executed by the imaging apparatus, and a recording medium on which a program for realizing the imaging apparatus is recorded.

魚眼レンズや超広角レンズなどの広角なレンズを複数使用して全方位(以下、全天球という。)を一度に撮像する全天球撮像システムが知られている。上記全天球撮像システムでは、各々のレンズからの像をセンサ面に投影し、得られる各画像を画像処理により結合することで、全天球画像を生成する。例えば、180度を超える画角を有する2つの広角なレンズを用いて、全天球画像を生成することができる。上記画像処理では、各レンズ光学系により撮影された部分画像に対して、歪み補正および射影変換を施し、部分画像に含まれる重複領域を用いて部分画像をつなぎ合わせ、1枚の全天球画像とする処理が行われる。   2. Description of the Related Art An omnidirectional imaging system that uses a plurality of wide-angle lenses such as fish-eye lenses and super-wide-angle lenses to capture images in all directions (hereinafter referred to as omnidirectional spheres) at once is known. In the omnidirectional imaging system, an image from each lens is projected onto the sensor surface, and the obtained images are combined by image processing to generate an omnidirectional image. For example, an omnidirectional image can be generated using two wide-angle lenses having an angle of view exceeding 180 degrees. In the image processing, distortion correction and projective transformation are performed on the partial images photographed by each lens optical system, and the partial images are connected using the overlapping regions included in the partial images, thereby producing one omnidirectional image. Is performed.

従来より、撮像した画像から適正露出を得るデジタルカメラにおける露出補正技術が知られている(例えば、特許文献1参照)。この特許文献1においては、撮像領域の一部が互いに重複するように配置された複数の撮像装置で撮像された撮像画像の各々から重複領域を抽出する。そして、該抽出した重複領域の各画像に基づいて、複数の撮像装置の露出およびホワイトバランスの少なくとも一方を調整し、撮像画像の明るさや色味などの差異を小さくして合成などの後処理の負担を軽減するようにしている。   Conventionally, an exposure correction technique in a digital camera that obtains proper exposure from a captured image is known (see, for example, Patent Document 1). In Patent Document 1, an overlapping area is extracted from each of captured images captured by a plurality of imaging devices arranged so that a part of the imaging area overlaps each other. Then, based on each image of the extracted overlapping area, at least one of exposure and white balance of the plurality of imaging devices is adjusted, and differences in brightness and color of the captured images are reduced to perform post-processing such as synthesis. I try to reduce the burden.

しかしながら、上記従来の技術では、重複領域のみを考慮しているため、適正露出を得ることが難しいという問題がある。すなわち、特許文献1の技術においては、重複領域のみを用いて露出補正を行っているため、全体の画像に対して重複領域が小さくなると、露光条件にアンバランスが生じた場合に適切な露出補正値を得るのが難しくなる。また、個々に露出補正を行った場合、画像間の境目で明るさが変化してしまうという問題もある。   However, the above conventional technique has a problem that it is difficult to obtain an appropriate exposure because only the overlapping region is considered. That is, in the technique of Patent Document 1, since exposure correction is performed using only the overlapping area, if the overlapping area becomes small with respect to the entire image, appropriate exposure correction is performed when an imbalance occurs in the exposure condition. It becomes difficult to get a value. In addition, when exposure correction is performed individually, there is also a problem that the brightness changes at the boundary between images.

本発明の課題は、異なる輝度の被写体を複数の撮像光学系で撮影した場合でも、低輝度から高輝度の領域まで適正な明るさで撮影でき、かつ撮影画像の繋ぎ目に不自然な差が生じるのを回避することのできる撮像装置を提供することにある。   The problem of the present invention is that even when a subject with different brightness is photographed with a plurality of imaging optical systems, it is possible to photograph with appropriate brightness from a low brightness area to a high brightness area, and there is an unnatural difference between the joints of the photographed images. An object of the present invention is to provide an imaging apparatus capable of avoiding the occurrence.

上記課題を解決するために、本発明は、複数の固体撮像素子から取得した撮像画像を繋ぎ合わせて、一つの画像を形成し出力する撮像装置であって、前記複数の固体撮像素子から取得した撮像信号を基に測光値を算出する第一測光値算出手段と、前記複数の固体撮像素子のうち各固体撮像素子で取得した撮像信号を基に各固体撮像素子に対応した測光値を算出する第二測光値算出手段と、前記第一測光値算出手段によって算出した測光値、および前記第二測光値算出手段によって算出した測光値の少なくとも一方から露出値を算出する第一露出値算出手段と、前記第二測光値算出手段によって算出した各固体撮像素子の測光値から各固体撮像素子に対応した露出値を算出する第二露出値算出手段とを備え、前記第二測光値算出手段によって算出した測光値の中で前記第一測光値算出手段によって算出した測光値よりも大きい固体撮像素子を第一固体撮像素子とし、それ以外の固体撮像素子を第二固体撮像素子とし、前記第一固体撮像素子に対しては前記第一露出値算出手段によって算出した露出値を基に露出制御値を設定するとともに、前記第二固体撮像素子に対しては前記第二露出値算出手段によって算出した露出値を基に露出制御値を設定する露出制御値設定手段と、前記第二固体撮像素子に対しては前記第一固体撮像素子との露出差を補正する露出差補正手段とを有することを特徴とする。   In order to solve the above-described problems, the present invention is an image pickup apparatus that joins picked-up images acquired from a plurality of solid-state image sensors to form and output a single image, which is acquired from the plurality of solid-state image sensors. First photometric value calculating means for calculating a photometric value based on an imaging signal, and calculating a photometric value corresponding to each solid-state image sensor based on an image signal acquired by each solid-state image sensor among the plurality of solid-state image sensors. Second photometric value calculating means; first exposure value calculating means for calculating an exposure value from at least one of the photometric value calculated by the first photometric value calculating means and the photometric value calculated by the second photometric value calculating means; A second exposure value calculating means for calculating an exposure value corresponding to each solid-state image sensor from the photometric value of each solid-state image sensor calculated by the second photometric value calculating means, and calculating by the second photometric value calculating means. Among the measured photometric values, a solid-state imaging device larger than the photometric value calculated by the first photometric value calculating means is a first solid-state imaging device, the other solid-state imaging device is a second solid-state imaging device, and the first solid state For the image sensor, an exposure control value is set based on the exposure value calculated by the first exposure value calculator, and for the second solid-state image sensor, the exposure calculated by the second exposure value calculator. Exposure control value setting means for setting an exposure control value based on the value; and exposure difference correction means for correcting an exposure difference between the second solid-state image sensor and the first solid-state image sensor. And

本発明によれば、第二固体撮像素子に対して、第二露出値算出手段で算出した露出値を基に露出制御値が設定され、さらに第一固体撮像素子との露出差が補正される。その結果、異なる輝度の被写体を複数の撮像光学系で撮影した場合、低輝度から高輝度まで適正な明るさで撮影できる。また、撮影画像の繋ぎ目に不自然な差が生じるのを回避することができる。   According to the present invention, an exposure control value is set for the second solid-state imaging device based on the exposure value calculated by the second exposure value calculating means, and further, an exposure difference from the first solid-state imaging device is corrected. . As a result, when subjects with different luminance are photographed with a plurality of imaging optical systems, it is possible to photograph with appropriate brightness from low luminance to high luminance. In addition, it is possible to avoid an unnatural difference between the joints of the captured images.

本実施例による撮像システムを用いて、太陽が出ているときに、被写体(人)を撮影する様子を示した概念図である。It is the conceptual diagram which showed a mode that a subject (person) was image | photographed when the sun has come out using the imaging system by a present Example. 撮像システムを示す断面図である。It is sectional drawing which shows an imaging system. 撮像システムのハードウェア構成を示した図である。It is the figure which showed the hardware constitutions of the imaging system. 撮像システムにおける画像処理全体の流れを説明する図である。It is a figure explaining the flow of the whole image processing in an imaging system. 図4Aの続きの流れを説明する図である。It is a figure explaining the flow of a continuation of FIG. 4A. 撮像装置のモニタリング時における一連のAE処理のフローを示す図である。It is a figure which shows the flow of a series of AE processes at the time of monitoring of an imaging device. エリア積算値を、画像のRAW−RGBデータから水平16×垂直16のブロック単位で等分割を行う様子を示した図である。It is the figure which showed a mode that the area integration value was equally divided | segmented by the block unit of horizontal 16xvertical 16 from the raw-RGB data of an image. AE評価値に対応する適正露出との差(デルタEv)を表したAEテーブルを示す図である。It is a figure which shows the AE table showing the difference (delta Ev) with the appropriate exposure corresponding to AE evaluation value. 撮像装置のスチル時における一連のAE処理のフローを示す図である。It is a figure which shows the flow of a series of AE processes at the time of still of an imaging device. 図3におけるプロセッサ内のCPUの内部構成のうち、本実施例に関連する部分を概略的に示したブロック図である。It is the block diagram which showed schematically the part relevant to a present Example among the internal structures of CPU in the processor in FIG.

以下、本発明の実施例を図面に従って説明する。   Embodiments of the present invention will be described below with reference to the drawings.

以下、本発明の実施例について説明するが、本発明の実施例は、以下に説明する実施例に限定されるものではない。なお、以下の実施例では、撮像装置の一例として、2つの魚眼レンズを光学系に含む撮像体を備えるとともに、2つの魚眼レンズで撮像された撮像画像に基づいて撮像条件を決定する機能を備えた、全天球撮像システムを用いて説明する。つまり、他の実施例において、全天球撮像システムは、3つ以上の魚眼レンズを光学系に含む撮像体を備えるとともに、3つ以上の魚眼レンズで撮像された撮像画像に基づいて撮像条件を決定する機能を備えていても良い。なお、本実施例では、魚眼レンズは、広角レンズや、超広角レンズと呼ばれるものを含む。   Examples of the present invention will be described below, but the examples of the present invention are not limited to the examples described below. In the following embodiments, as an example of an imaging apparatus, the imaging system includes an imaging body including two fisheye lenses in an optical system, and has a function of determining imaging conditions based on a captured image captured by two fisheye lenses. A description will be given using an omnidirectional imaging system. That is, in another embodiment, the omnidirectional imaging system includes an imaging body including three or more fisheye lenses in an optical system, and determines imaging conditions based on captured images captured by three or more fisheye lenses. It may have a function. In the present embodiment, the fisheye lens includes a so-called wide-angle lens and a super-wide-angle lens.

図1は、全天球撮像システム10を用いて、被写体(人)11を撮影する様子を示しており、このとき、被写体11と共に太陽13も撮影されてしまう。すなわち、全天球撮像システム10の撮像光学系であるカメラA(図において左側にあるカメラ)で被写体11を撮影し、撮像光学系であるカメラB(図において右側にあるカメラ)で太陽13を撮影する。   FIG. 1 shows a state in which a subject (person) 11 is photographed using the omnidirectional imaging system 10. At this time, the sun 13 is also photographed together with the subject 11. That is, the subject 11 is photographed by a camera A (camera on the left side in the figure) which is an imaging optical system of the omnidirectional imaging system 10, and the sun 13 is photographed by a camera B (camera on the right side in the figure) which is an imaging optical system. Take a picture.

そして、カメラAで撮影した撮像画像とカメラBで撮影した撮像画像を繋ぎ合わせ、この繋ぎ合わせた撮影画像に対して、傾き補正および歪補正等を行ってから画像を合成して、合成画像を作成する。   Then, the captured image captured by the camera A and the captured image captured by the camera B are connected, and the combined image is synthesized after performing tilt correction and distortion correction on the combined captured image. create.

以下、図2および図3を参照しながら、本実施例による全天球撮像システム10の全体構成について説明する。図2は、本実施例による全天球撮像システム(以下、単に、撮像システムと称する)10を示す断面図である。図2に示す撮像システム10は、撮像体12と、撮像体12および図示しないコントローラやバッテリなどの部品を保持する筐体14と、上記筐体14に設けられたシャッタボタン18とを備えている。   Hereinafter, the overall configuration of the omnidirectional imaging system 10 according to the present embodiment will be described with reference to FIGS. 2 and 3. FIG. 2 is a cross-sectional view showing an omnidirectional imaging system (hereinafter simply referred to as an imaging system) 10 according to the present embodiment. The imaging system 10 illustrated in FIG. 2 includes an imaging body 12, a housing 14 that holds the imaging body 12, and components such as a controller and a battery (not shown), and a shutter button 18 provided on the housing 14. .

図2に示す撮像体12は、2つのレンズ光学系20A,20B(レンズ光学系20ともいう)と、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなどの2つの固体撮像素子22A,22B(固体撮像素子22ともいう)とを含む。本実施例において、レンズ光学系20と固体撮像素子22とを1個ずつ組み合わせたものを撮像光学系と称する。レンズ光学系20は、それぞれ、例えば6群7枚で魚眼レンズとして構成することができる。上記魚眼レンズは、図2に示す例では、180度(=360度/n;n=2)より大きい全画角を有し、好適には、185度以上の画角を有し、より好適には、190度以上の画角を有する。   2 includes two lens optical systems 20A and 20B (also referred to as lens optical system 20), and two solid-state image sensors such as a CCD (Charge Coupled Device) sensor and a CMOS (Complementary Metal Oxide Semiconductor) sensor. 22A, 22B (also referred to as solid-state image sensor 22). In this embodiment, a combination of the lens optical system 20 and the solid-state imaging element 22 one by one is referred to as an imaging optical system. Each of the lens optical systems 20 can be configured as a fish-eye lens with, for example, 7 elements in 6 groups. In the example shown in FIG. 2, the fisheye lens has a total angle of view larger than 180 degrees (= 360 degrees / n; n = 2), preferably has an angle of view of 185 degrees or more, and more preferably Has an angle of view of 190 degrees or more.

2つのレンズ光学系20A,20Bの光学素子(レンズ、プリズム、フィルタおよび開口絞り)は、その光軸が、対応する固体撮像素子22の受光領域の中心部に直交して位置するように、かつ、受光領域が、対応する魚眼レンズの結像面となるように、固体撮像素子22A,22Bに対して位置関係が定められている。固体撮像素子22は、それぞれ、受光領域が面積エリアを成す2次元の撮像素子であり、組み合わせられるレンズ光学系20により集光された光を画像信号に変換する。   The optical elements (lenses, prisms, filters, and aperture stops) of the two lens optical systems 20A and 20B are positioned so that their optical axes are orthogonal to the center of the light receiving region of the corresponding solid-state imaging element 22, and The positional relationship is determined with respect to the solid-state imaging devices 22A and 22B so that the light receiving area is the image plane of the corresponding fisheye lens. Each of the solid-state imaging devices 22 is a two-dimensional imaging device in which a light receiving region forms an area area, and converts light collected by the combined lens optical system 20 into an image signal.

図2に示す実施例では、レンズ光学系20A,20Bは、同一仕様のものであり、それぞれの光軸が合致するように、互いに逆向きに組み合わせられる。固体撮像素子22A,22Bは、受光した光分布を画像信号に変換して、コントローラ上の画像処理手段に出力する。画像処理手段では、固体撮像素子22A,22Bからそれぞれ入力される撮像画像をつなぎ合わせて合成し、立体角4πラジアンの画像(以下「全天球画像」と称する)を生成する。全天球画像は、撮影地点から見渡すことのできる全ての方向を撮影したものとなる。ここで、図2に示す実施例では、全天球画像を生成しているが、他の実施例では、水平面のみ360度を撮影した、いわゆるパノラマ画像であっても良い。   In the embodiment shown in FIG. 2, the lens optical systems 20A and 20B have the same specifications, and are combined in opposite directions so that their optical axes match. The solid-state imaging devices 22A and 22B convert the received light distribution into image signals and output them to image processing means on the controller. In the image processing means, the captured images respectively input from the solid-state imaging devices 22A and 22B are connected and combined to generate an image with a solid angle of 4π radians (hereinafter referred to as “global celestial image”). The omnidirectional image is an image of all directions that can be seen from the shooting point. Here, in the embodiment shown in FIG. 2, the omnidirectional image is generated, but in another embodiment, a so-called panoramic image obtained by photographing 360 degrees only on the horizontal plane may be used.

上述したように、魚眼レンズが180度を超える全画角を有するため、全天球画像を構成する際には、各撮像光学系で撮像した撮影画像において、重複する画像部分が、同一像を表す基準データとして画像つなぎ合わせの参考とされる。生成された全天球画像は、例えば、撮像体12に備えられているか、または撮像体12に接続されているディスプレイ装置、印刷装置、SD(登録商標)カードやコンパクトフラッシュ(登録商標)などの外部記憶媒体などに出力される。   As described above, since the fisheye lens has a full angle of view exceeding 180 degrees, when composing an omnidirectional image, overlapping image portions represent the same image in the captured images captured by the respective imaging optical systems. It is used as reference data for image stitching as reference data. The generated omnidirectional image is, for example, a display device, a printing device, an SD (registered trademark) card, a compact flash (registered trademark), or the like that is provided in the imaging body 12 or connected to the imaging body 12. Output to an external storage medium.

図3は、本実施例による撮像システム10のハードウェア構成を示している。撮像システム10は、デジタル・スチルカメラ・プロセッサ(以下、単にプロセッサと称する)100と、鏡胴ユニット102と、プロセッサ100に接続される種々のコンポーネントから構成されている。鏡胴ユニット102は、上述した2組のレンズ光学系20A,20Bと、固体撮像素子22A,22Bとを有している。固体撮像素子22は、プロセッサ100内のCPU130からの制御指令により制御される。CPU130の詳細については後述する。   FIG. 3 shows a hardware configuration of the imaging system 10 according to the present embodiment. The imaging system 10 includes a digital still camera processor (hereinafter simply referred to as a processor) 100, a lens barrel unit 102, and various components connected to the processor 100. The lens barrel unit 102 includes the above-described two sets of lens optical systems 20A and 20B and the solid-state imaging elements 22A and 22B. The solid-state image sensor 22 is controlled by a control command from the CPU 130 in the processor 100. Details of the CPU 130 will be described later.

プロセッサ100は、ISP(Image Signal Processor)108と、DMAC(Direct Memory Access Controller)110と、メモリアクセスの調停のためのアービタ(ARBMEMC)112とを含む。さらにプロセッサ100は、メモリアクセスを制御するMEMC(Memory Controller)114と、歪曲補正・画像合成ブロック118と、顔検出ブロック201とを含んでいる。ISP108A,108Bは、それぞれ、固体撮像素子22A,22Bの信号処理を経て入力された画像に対し、自動露出(AE:Automatic Exposure)制御、ホワイトバランス設定やガンマ設定を行う。   The processor 100 includes an image signal processor (ISP) 108, a direct memory access controller (DMAC) 110, and an arbiter (ARBMEMC) 112 for arbitrating memory access. The processor 100 further includes a MEMC (Memory Controller) 114 that controls memory access, a distortion correction / image synthesis block 118, and a face detection block 201. The ISPs 108A and 108B perform automatic exposure (AE) control, white balance setting, and gamma setting on images input through signal processing of the solid-state imaging devices 22A and 22B, respectively.

MEMC114には、SDRAM116が接続されている。そして、SDRAM116には、ISP108A,180Bおよび歪曲補正・画像合成ブロック118において処理を施す際に、データが一時的に保存される。歪曲補正・画像合成ブロック118は、2つの撮像光学系から得られた2つの撮影画像に対し、3軸加速度センサ120からの情報を利用して歪曲補正とともに天地補正(傾き補正)を施し、補正後の画像を合成する。なお、顔検出ブロック201は、傾き補正された画像を用いて、顔検出を行い、顔の位置を特定する。   An SDRAM 116 is connected to the MEMC 114. The SDRAM 116 temporarily stores data when the ISPs 108A and 180B and the distortion correction / image synthesis block 118 perform processing. The distortion correction / image synthesis block 118 performs correction on the two captured images obtained from the two imaging optical systems using the information from the three-axis acceleration sensor 120 and the top / bottom correction (tilt correction) to correct the distortion. Composite later images. Note that the face detection block 201 performs face detection using the tilt-corrected image and specifies the face position.

プロセッサ100は、さらに、DMAC122と、画像処理ブロック124と、CPU130と、画像データ転送部126と、SDRAMC128と、メモリカード制御ブロック140と、USBブロック146と、ペリフェラル・ブロック150と、音声ユニット152と、シリアルブロック158と、LCDドライバ162と、ブリッジ168とを含む。   The processor 100 further includes a DMAC 122, an image processing block 124, a CPU 130, an image data transfer unit 126, an SDRAM C 128, a memory card control block 140, a USB block 146, a peripheral block 150, and an audio unit 152. Serial block 158, LCD driver 162, and bridge 168.

CPU130は、当該撮像システム10の各部の動作を制御する。画像処理ブロック124は、画像データに対し各種画像処理を施す。リサイズブロック132は、画像データのサイズを補間処理により拡大または縮小するためのブロックである。JPEGブロック134は、JPEG圧縮および伸張を行うコーデック・ブロックである。H.264ブロック136は、H.264などの動画圧縮および伸張を行うコーデック・ブロックである。また、プロセッサ100には、パワーコントローラ202が設けられている。   The CPU 130 controls the operation of each unit of the imaging system 10. The image processing block 124 performs various image processing on the image data. The resize block 132 is a block for enlarging or reducing the size of the image data by interpolation processing. The JPEG block 134 is a codec block that performs JPEG compression and expansion. H. H.264 block 136 is an H.264 block. It is a codec block that performs video compression and decompression such as H.264. The processor 100 is provided with a power controller 202.

画像データ転送部126は、画像処理ブロック124で画像処理された画像を転送する。SDRAMC128は、プロセッサ100に接続されるSDRAM138を制御し、SDRAM138には、プロセッサ100内で画像データに各種処理を施す際に、画像データを一時的に保存する。   The image data transfer unit 126 transfers the image processed by the image processing block 124. The SDRAM C 128 controls the SDRAM 138 connected to the processor 100. The SDRAM 138 temporarily stores image data when various processes are performed on the image data in the processor 100.

メモリカード制御ブロック140は、メモリカードスロット142に挿入されたメモリカードおよびフラッシュROM144に対する読み書きを制御する。メモリカードスロット142は、撮像システム10にメモリカードを着脱可能に装着するためのスロットである。USBブロック146は、USBコネクタ148を介して接続されるパーソナル・コンピュータなどの外部機器とのUSB通信を制御する。ペリフェラル・ブロック150には、電源スイッチ166が接続される。   The memory card control block 140 controls reading and writing with respect to the memory card inserted into the memory card slot 142 and the flash ROM 144. The memory card slot 142 is a slot for detachably attaching a memory card to the imaging system 10. The USB block 146 controls USB communication with an external device such as a personal computer connected via the USB connector 148. A power switch 166 is connected to the peripheral block 150.

音声ユニット152は、ユーザが音声信号を入力するマイク156と、記録された音声信号を出力するスピーカ154とに接続され、音声入出力を制御する。シリアルブロック158は、パーソナル・コンピュータなどの外部機器とのシリアル通信を制御し、無線NIC(Network Interface Card)160が接続される。LCD(Liquid Crystal Display)ドライバ162は、LCDモニタ164を駆動するドライブ回路であり、LCDモニタ164に各種状態を表示するための信号に変換する。   The audio unit 152 is connected to a microphone 156 from which a user inputs an audio signal and a speaker 154 from which a recorded audio signal is output, and controls audio input / output. The serial block 158 controls serial communication with an external device such as a personal computer, and is connected with a wireless NIC (Network Interface Card) 160. An LCD (Liquid Crystal Display) driver 162 is a drive circuit that drives the LCD monitor 164, and converts it into signals for displaying various states on the LCD monitor 164.

フラッシュROM144には、CPU130が解読可能なコードで記述された制御プログラムや各種パラメータが格納される。電源スイッチ166の操作によって電源がオン状態になると、上記制御プログラムがメインメモリにロードされ、CPU130は、メインメモリに読み込まれたプログラムに従って、装置各部の動作を制御する。また同時に、制御に必要なデータをSDRAM138と、図示しないローカルSRAMとに一時的に保存する。   The flash ROM 144 stores a control program and various parameters described by codes that can be read by the CPU 130. When the power is turned on by operating the power switch 166, the control program is loaded into the main memory, and the CPU 130 controls the operation of each part of the apparatus according to the program read into the main memory. At the same time, data necessary for control is temporarily stored in the SDRAM 138 and a local SRAM (not shown).

なお、書き換え可能なフラッシュROM144を使用することで、制御プログラムや制御するためのパラメータを変更することが可能となり、機能のバージョンアップを容易に行うことができる。   By using the rewritable flash ROM 144, the control program and parameters for control can be changed, and the function can be easily upgraded.

図4Aおよび図4Bは、本実施例による撮像システム10における画像処理全体の流れを説明する図であり、撮像条件を制御するための主要な機能ブロックが示されている。先ず、図4Aに示すように、センサA(固体撮像素子22A)、センサB(固体撮像素子22B)の各々によって、所定の露出条件パラメータのもとで画像が撮像される。続いて、センサA,Bの各々から出力された画像に対し、図3に示したISP108(108A,108B)により、ISP1-AおよびISP1-Bの処理が行われる。ISP1-AおよびISP1-Bの処理として、オプティカル・ブラック(OB)補正処理、欠陥画素補正処理、リニア(Linear)補正処理、シェーディング(Shading)補正処理および領域分割平均処理が実行され、その結果はメモリに保存される。   4A and 4B are diagrams for explaining the overall flow of image processing in the imaging system 10 according to the present embodiment, and show main functional blocks for controlling imaging conditions. First, as shown in FIG. 4A, an image is captured under a predetermined exposure condition parameter by each of the sensor A (solid-state imaging device 22A) and the sensor B (solid-state imaging device 22B). Subsequently, ISP1-A and ISP1-B are processed by the ISP 108 (108A, 108B) shown in FIG. 3 for the images output from the sensors A and B, respectively. As processing of ISP1-A and ISP1-B, an optical black (OB) correction process, a defective pixel correction process, a linear correction process, a shading correction process, and an area division average process are executed. Saved in memory.

オプティカル・ブラック(OB)補正処理は、センサA,Bにおけるオプティカル・ブラック領域の出力信号を黒の基準レベルとして、有効画素領域の出力信号をクランプ補正する処理である。CMOSなどの固体撮像素子は、半導体基板上に多数の感光素子を形成することにより製造されているが、その製造に際して半導体基板に不純物が混入する等の理由により、局所的に画素値の取り込みが不能な欠陥画素が発生する場合がある。欠陥画素補正処理は、上述のような欠陥画素に隣接した複数の画素からの合成信号に基づいてその欠陥画素の画素値を補正する処理である。   The optical black (OB) correction process is a process in which the output signal in the effective pixel area is clamp-corrected with the output signal in the optical black area in the sensors A and B as the black reference level. A solid-state imaging device such as a CMOS is manufactured by forming a large number of photosensitive elements on a semiconductor substrate. However, pixel values are locally captured due to impurities mixed into the semiconductor substrate during the manufacturing. An impossible defective pixel may occur. The defective pixel correction process is a process of correcting the pixel value of the defective pixel based on the combined signal from a plurality of pixels adjacent to the defective pixel as described above.

リニア(Linear)補正処理は、RGB毎にリニア補正を施す処理である。シェーディング(Shading)補正処理は、所定の補正係数を有効画素領域の出力信号に乗じることで、有効画素領域のシェーディング(陰影)の歪みを補正する処理である。領域分割平均処理は、撮像画像を構成する画像領域を複数領域に分割し、分割領域毎に輝度の積算値(または積算平均値)を算出する処理を行う。この処理結果はAE処理に使用される。   The linear correction processing is processing for performing linear correction for each RGB. The shading correction process is a process for correcting shading (shading) distortion of the effective pixel region by multiplying the output signal of the effective pixel region by a predetermined correction coefficient. In the area division average process, an image area constituting the captured image is divided into a plurality of areas, and a luminance integrated value (or integrated average value) is calculated for each divided area. This processing result is used for AE processing.

ISP1-AおよびISP1-Bの処理が完了すると、続いて、図4Bに示すように、ISP108(108A,108B)により、ISP2-AおよびISP2-Bの処理が行われる。ISP2-AおよびISP2-Bの処理として、ホワイトバランス(WB Gain)処理、ガンマ(γ)補正処理、ベイヤー補間処理、YUV変換処理、エッジ強調(YCFLT)処理および色補正処理が実行され、その結果はメモリに保存される。   When the processing of ISP1-A and ISP1-B is completed, the processing of ISP2-A and ISP2-B is subsequently performed by the ISP 108 (108A, 108B) as shown in FIG. 4B. As processing of ISP2-A and ISP2-B, white balance (WB Gain) processing, gamma (γ) correction processing, Bayer interpolation processing, YUV conversion processing, edge enhancement (YCFLT) processing, and color correction processing are executed. Is stored in memory.

被写体からの光量を蓄積するセンサA,B上のフォトダイオードには1画素毎にR(赤)、G(緑)およびB(青)のいずれか1色のカラーフィルタが貼付されている。そして、フィルタの色によって透過する光量が変わってくるため、フォトダイオードに蓄積される電荷量が異なっている。最も感度が高いのはGで、RとBはGと比較すると感度が低く、約半分程度である。ホワイトバランス(WB)処理では、これらの感度差を補い、撮影画像の中の白色を白く見せるために、RとBにゲインを掛ける処理を行う。また、物の色は光源色(例えば、太陽光、蛍光灯など)によって変わってくるため、光源が変わっても白色を白く見せるようにRとBのゲインを変更し、制御する機能を有している。なお、上記領域分割平均処理により計算された分割領域毎のRGBの積算値(または積算平均値)データに基づき、ホワイトバランス処理のパラメータが計算される。   A color filter of any one of R (red), G (green), and B (blue) is attached to each of the photodiodes on the sensors A and B for accumulating the amount of light from the subject. Since the amount of transmitted light varies depending on the color of the filter, the amount of charge accumulated in the photodiode differs. The most sensitive is G, and R and B are less sensitive than G, about half. In the white balance (WB) process, a process of multiplying R and B is performed in order to compensate for these sensitivity differences and make white in the captured image appear white. Moreover, since the color of an object changes with light source colors (for example, sunlight, a fluorescent lamp, etc.), even if a light source changes, it has the function to change and control the gain of R and B so that white may appear white. ing. The white balance processing parameters are calculated based on the RGB integrated value (or integrated average value) data for each divided region calculated by the region dividing average processing.

入力信号に対して出力信号は非線形な関係を有している。このような非線形な出力の場合、明るさに階調性がなく、また画像が暗くなるため人は正しく画像を見ることができない。そこで、出力装置の特性を考慮して、出力が線形性を保つように予め入力信号に処理を行うのがガンマ(γ)補正処理である。   The output signal has a non-linear relationship with respect to the input signal. In the case of such a non-linear output, there is no gradation in brightness, and the image becomes dark, so that a person cannot see the image correctly. In view of the characteristics of the output device, the gamma (γ) correction processing is performed on the input signal in advance so that the output maintains linearity.

CMOSではベイヤー配列と呼ばれる配列で、1画素にR(赤)、G(緑)、B(青)のいずれか1色のカラーフィルタが貼付されており、RAWデータは1画素に1色の情報しかない。しかし、RAWデータから画像として見るためには、1画素にR、G、Bの3色の情報が必要であり、足りない2色を補うために周辺の画素から補間する処理がベイヤー補間処理である。デジタルカメラ等で一般的に用いられるファイル形式のJPEG画像では、YUVデータから画像が作成されるため、RGBデータをYUVデータに変換する。   In CMOS, an array called a Bayer array has a color filter of one of R (red), G (green), and B (blue) attached to one pixel, and RAW data is one color information per pixel. There is only. However, in order to view an image from RAW data, information of three colors R, G, and B is required for one pixel, and Bayer interpolation processing is a process of interpolating from surrounding pixels to compensate for two missing colors. is there. In a JPEG image of a file format generally used in a digital camera or the like, since an image is created from YUV data, RGB data is converted into YUV data.

エッジ強調(YCFLT)処理は、画像の輝度信号からエッジ部分を抽出し、エッジに対してゲインを掛け、エッジ抽出と並行して画像のノイズを除去する処理である。具体的には、画像の輝度(Y)信号からエッジ部分を抽出するエッジ抽出フィルタと、エッジ抽出フィルタにより抽出されたエッジに対してゲインを掛けるゲイン乗算部と、エッジ抽出と並行して画像のノイズを除去するLPF(ローパスフィルタ)と、ゲイン乗算後のエッジ抽出データとLPF処理後の画像データを加算するデータ加算部とを含んでいる。   The edge enhancement (YCFLT) process is a process for extracting an edge portion from a luminance signal of an image, multiplying the edge by a gain, and removing image noise in parallel with the edge extraction. Specifically, an edge extraction filter that extracts an edge portion from the luminance (Y) signal of the image, a gain multiplication unit that multiplies the gain extracted by the edge extraction filter, and an image in parallel with the edge extraction. An LPF (low-pass filter) that removes noise, and a data addition unit that adds edge-extracted data after gain multiplication and image data after LPF processing are included.

色補正処理では、彩度設定、色相設定、部分的な色相変更設定、色抑圧設定などが行われる。彩度設定は色の濃さを決定するパラメータ設定であり、UV色空間を示すものであるが、例えば、第2象限でRの色に対して原点からRのドットまでのベクトルの長さが長い程、色の濃さは濃くなる。   In the color correction process, saturation setting, hue setting, partial hue change setting, color suppression setting, and the like are performed. The saturation setting is a parameter setting that determines the color depth and indicates the UV color space. For example, in the second quadrant, the length of the vector from the origin to the R dot for the R color is The longer the color, the darker the color.

色補正処理されたデータは、メモリ(DRAM)に保存されるが、その保存されたデータに基づきクロップ処理が実行される。このクロップ処理は、画像の中心領域を切り抜くことで、サムネイル画像を生成するための処理である。   The color-corrected data is stored in a memory (DRAM), and a crop process is executed based on the stored data. This cropping process is a process for generating a thumbnail image by cutting out the central area of the image.

図4Aおよび図4Bに基づいて、本実施例の撮像装置の作用について説明する。   Based on FIGS. 4A and 4B, the operation of the imaging apparatus of the present embodiment will be described.

センサAから出力されたベイヤーRAWの画像に対して、ISP1-Aにおいて、オプティカル・ブラック(OB)補正処理、欠陥画素補正処理、リニア(Linear)補正処理、シェーディング(Shading)補正処理、領域分割平均処理を行う。その画像はDRAMに保存する。センサBから出力されたベイヤーRAWの画像に対しても同様に、ISP1-Bにおいて、オプティカル・ブラック(OB)補正処理、欠陥画素補正処理、リニア(Linear)補正処理、シェーディング(Shading)補正処理、領域分割平均処理を行う。その画像はDRAMに保存する。   For the Bayer RAW image output from the sensor A, in the ISP1-A, an optical black (OB) correction process, a defective pixel correction process, a linear correction process, a shading correction process, and an area division average Process. The image is stored in DRAM. Similarly, for the Bayer RAW image output from the sensor B, in the ISP1-B, an optical black (OB) correction process, a defective pixel correction process, a linear correction process, a shading correction process, Perform area division averaging. The image is stored in DRAM.

センサA,Bは独立な簡易AE処理機能を有し、センサA,Bの各々が単独で適正露出に設定できるようになっている。センサA,Bの各々の露出条件の変化が小さくなり安定した場合は、両眼の画像の画像境界部分の明るさが合うように領域分割平均処理によって得られたエリア積算値を用いて各センサA,Bを適正露出に設定する。   The sensors A and B have an independent simple AE processing function, and each of the sensors A and B can be set to an appropriate exposure independently. When the change in exposure condition of each of the sensors A and B becomes small and stable, each sensor is used by using the area integrated value obtained by the area division averaging process so that the brightness of the image boundary portion of the binocular image matches. Set A and B to proper exposure.

ISP1-Aの処理が終了したセンサA側のデータに対しては、ISP2-A内のホワイトバランス(WB Gain)処理、ガンマ(γ)補正処理、ベイヤー補間処理、YUV変換処理、エッジ強調(YCFLT)処理および色補正処理が実行される。実行後のデータはDRAMに保存される。同様に、ISP1-Bの処理が終了したセンサB側のデータに対しては、ISP2-B内のホワイトバランス(WB Gain)処理、ガンマ(γ)補正処理、ベイヤー補間処理、YUV変換処理、エッジ強調(YCFLT)処理および色補正処理が実行される。実行後のデータはDRAMに保存される。   For the data on the sensor A side where the processing of ISP1-A is completed, white balance (WB Gain) processing, gamma (γ) correction processing, Bayer interpolation processing, YUV conversion processing, edge enhancement (YCFLT) in ISP2-A ) Processing and color correction processing are executed. The data after execution is stored in the DRAM. Similarly, for data on the sensor B side after the processing of ISP1-B, white balance (WB Gain) processing, gamma (γ) correction processing, Bayer interpolation processing, YUV conversion processing, edge in ISP2-B Emphasis (YCFLT) processing and color correction processing are executed. The data after execution is stored in the DRAM.

ISP2-A又はISP2-Bの処理を終了したデータに対しては、センサA側もしくはセンサB側のそれぞれが正則画像に切り取られる処理(クロップ処理)が施され、その後、歪曲補正・合成処理される。歪曲補正・合成処理の過程で、3軸加速度センサからの情報を得て傾き補正(天地補正)が行われる。画像はJPEG圧縮にて、約0.16の圧縮係数で更にデータは圧縮される。   The data for which the processing of ISP2-A or ISP2-B has been completed is subjected to a processing (crop processing) in which each of the sensor A side or the sensor B side is cut into a regular image, and thereafter, distortion correction / combination processing is performed. The In the course of distortion correction / combination processing, information from the triaxial acceleration sensor is obtained and tilt correction (top-to-bottom correction) is performed. The image is further compressed by JPEG compression with a compression coefficient of about 0.16.

このデータはDRAMに保存され、ファイル保存(タグ付け)が行われる。さらに、SDIO経由にて、データはSDカード等のメディアに保存される。スマートフォン(携帯端末等)に転送する際には、無線LAN(Wi-Fi、Bluetooth(登録商標)等)を使用し、スマートフォン(携帯端末等)に転送を行う。   This data is stored in the DRAM, and file storage (tagging) is performed. Further, the data is stored in a medium such as an SD card via SDIO. When transferring to a smartphone (such as a portable terminal), wireless LAN (Wi-Fi, Bluetooth (registered trademark), etc.) is used to transfer to the smartphone (such as a portable terminal).

図4Aおよび図4Bでの処理で取り扱うデータは、球状画像が矩形画像データで球状画像の一部分である。サムネイル画像等として表示することを目的としたものである。本実施例は、二枚以上の全天球画像を撮影可能な画像によって実現可能であるが、図4Aおよび図4Bにおいては、具体例として、二枚の撮像素子を用いて画像合成を行う場合についてのフローを示している。   In the data handled in the processing in FIGS. 4A and 4B, the spherical image is rectangular image data and is a part of the spherical image. It is intended to be displayed as a thumbnail image or the like. The present embodiment can be realized by an image capable of capturing two or more omnidirectional images. In FIGS. 4A and 4B, as a specific example, image synthesis is performed using two image sensors. The flow about is shown.

次に、本実施例の特徴部分について、図5を用いて説明する。   Next, the characteristic part of a present Example is demonstrated using FIG.

図5は、本実施例による撮像装置のモニタリング時における一連のAE処理のフローを示したものである。先ず、センサAおよびセンサBに対して、Tv(シャッタスピード)とSv(感度)の初期値を設定する(ステップS11)。設定する値は、センサAおよびセンサBにおいて共通とする。   FIG. 5 shows a flow of a series of AE processes during monitoring of the imaging apparatus according to the present embodiment. First, initial values of Tv (shutter speed) and Sv (sensitivity) are set for the sensors A and B (step S11). The value to be set is common to the sensor A and the sensor B.

そして、以下の(1)式にてBv(被写体輝度データ)とEv(露出値)を算出する。Avは絞り値を表しているが、本実施例では絞り機構はないため、Av値は固定となる。   Then, Bv (subject luminance data) and Ev (exposure value) are calculated by the following equation (1). Av represents the aperture value. In this embodiment, however, the Av value is fixed because there is no aperture mechanism.

Bv=Ev=Tv+Av−(Sv−0x50) ・・・・・・(1)       Bv = Ev = Tv + Av− (Sv−0x50) (1)

Tv、Av、Sv、Bv、EvはApex形式(1/48step)の値で、演算に用いられる。   Tv, Av, Sv, Bv, and Ev are values in Apex format (1/48 step), and are used for the calculation.

次に、Tv(シャッタスピード)とSv(感度)が検波値に反映されているか否か判断し(ステップS12)、反映されている場合は、センサAとセンサBのそれぞれのエリア積算値を取得する(ステップS13)。なお、ステップS12において、Tv(シャッタスピード)とSv(感度)が検波値に反映されていない場合は、ステップS18に進む。   Next, it is determined whether or not Tv (shutter speed) and Sv (sensitivity) are reflected in the detected value (step S12), and if they are reflected, the respective area integrated values of the sensors A and B are acquired. (Step S13). In step S12, if Tv (shutter speed) and Sv (sensitivity) are not reflected in the detected value, the process proceeds to step S18.

エリア積算値は、図6に示すように、画像のRAW−RGBデータから水平16×垂直16のブロック単位で等分割を行い、分割されたブロックの各々に対してRGB値を積算する。そして、ブロック単位でRGB値から以下の(2)式を用いてY値(輝度値)を求める。なお、本実施例では、エリア積算値として使用するのは、遮光されていない円形内側部分であり、これをY値としている。   As shown in FIG. 6, the area integration value is equally divided into 16 horizontal 16 × vertical 16 blocks from the RAW-RGB data of the image, and the RGB values are integrated for each of the divided blocks. Then, the Y value (luminance value) is obtained from the RGB values in units of blocks using the following equation (2). In this embodiment, the area integrated value is a circular inner portion that is not shielded from light, and this is the Y value.

輝度値=R×0.299+G×0.587+B×0.114 ・・・・・・(2)       Luminance value = R × 0.299 + G × 0.587 + B × 0.114 (2)

本実施例においては、ブロックの分割数を16×16=256としたが、これに限定されるものではない。但し、n個の分割ブロックとしたとき、n≧4を満たすようにする。また、本実施例においては、等分割であったが、必ずしもこれに限定されるものではない。ただ、全ての分割ブロックが等面積かつ同形状に等分割されている方が好ましい。   In this embodiment, the number of block divisions is 16 × 16 = 256, but the present invention is not limited to this. However, when n divided blocks, n ≧ 4 is satisfied. Further, in the present embodiment, although it is equally divided, it is not necessarily limited to this. However, it is preferable that all the divided blocks are equally divided into the same area and the same shape.

ここで、エリア積算値について詳細に説明する。このエリア積算値の算出は、上述した分割ブロックの各々に対して行うものである。本実施例において、分割ブロックは、上述したように、撮影画像が等分割されたものなので、例えば、撮影画像が約1000万画素を有していると、分割ブロックの各々は約3.9万画素を有する。この分割ブロックの各々が有する画素夫々は、対応する被写体部分のR、GまたはB成分の情報であり、本実施例では各成分は12bitの情報(0〜255)として記録・利用されている。すなわち、256個ある分割ブロックの各々において、各ブロックが有する画素の数(約1000万画素÷256=約3.9万画素)だけ12bitのR、G、B成分の情報がある。   Here, the area integrated value will be described in detail. The calculation of the area integrated value is performed for each of the above-described divided blocks. In this embodiment, the divided blocks are obtained by equally dividing the captured image as described above. For example, if the captured image has about 10 million pixels, each divided block has about 39,000. It has a pixel. Each pixel included in each of the divided blocks is information on R, G, or B components of the corresponding subject portion. In this embodiment, each component is recorded and used as 12-bit information (0 to 255). That is, in each of the 256 divided blocks, there is 12-bit R, G, and B component information corresponding to the number of pixels (approximately 10 million pixels / 256 = approximately 39,000 pixels) of each block.

エリア積算値は、この分割ブロックの夫々について、各ブロックが有する画素全てのR成分、G成分、B成分それぞれについて加算平均して算出するものである。本実施例では、256個に分割した分割ブロックの各々において、R、G、B成分毎に12bitの情報として出力される。   The area integrated value is calculated by averaging the R component, the G component, and the B component of all the pixels included in each block for each of the divided blocks. In this embodiment, each of the divided blocks divided into 256 pieces is output as 12-bit information for each of the R, G, and B components.

なお、本実施例の場合、R、G、B各画素の比率は、R:G:B=1:2:1となっており、分割ブロックの各々はR画素=約0.975万画素、G画素=約1.95万画素、B画素=0.975万画素から構成されている。   In this embodiment, the ratio of R, G, and B pixels is R: G: B = 1: 2: 1, and each of the divided blocks has R pixels = about 0.975 million pixels, G pixel = about 19.95 million pixels and B pixel = 0.975 million pixels.

次に、エリア積算値を積算数で割った値であるAE評価値を算出する(ステップS14)。このAE評価値は以降の露出演算に使用する。   Next, an AE evaluation value that is a value obtained by dividing the area integrated value by the integrated number is calculated (step S14). This AE evaluation value is used for the subsequent exposure calculation.

一定の値以下になるセンサAとセンサBのAE評価値を平均し、AEテーブルを基に適正露出との差分(デルタEv1)を算出する(ステップS15)。AEテーブルは、図7に示すように、AE評価値に対応する適正露出との差(デルタEv)を表したものである。AE評価値が920の場合、適正露出から+1Ev明るいことになる。また、AE評価値230の場合、適正露出から−1Ev暗いことになる。各ポイントの間のAE評価値(つまり、図7に示されていないAE評価値)に対しては、線形補間によってデルタEvを算出する。   The AE evaluation values of sensor A and sensor B that are below a certain value are averaged, and the difference (delta Ev1) from the appropriate exposure is calculated based on the AE table (step S15). As shown in FIG. 7, the AE table represents the difference (delta Ev) from the appropriate exposure corresponding to the AE evaluation value. When the AE evaluation value is 920, it is +1 Ev brighter than the appropriate exposure. Moreover, in the case of the AE evaluation value 230, it will be -1Ev dark from appropriate exposure. For the AE evaluation values between the points (that is, AE evaluation values not shown in FIG. 7), delta Ev is calculated by linear interpolation.

また、AE評価値が+3以上または−3以下の場合、デルタEvは+3または−3でクリップされる。そして、一定の値以下になるセンサAのAE評価値を平均し、AEテーブルを基に適正露出との差分(デルタEv2)を算出する。また、一定の値以下になるセンサBのAE評価値を平均し、AEテーブルを基に適正露出との差分(デルタEv3)を算出する。   When the AE evaluation value is +3 or more or −3 or less, the delta Ev is clipped at +3 or −3. Then, the AE evaluation values of the sensor A that are below a certain value are averaged, and a difference (delta Ev2) from the appropriate exposure is calculated based on the AE table. Further, the AE evaluation values of sensor B that are below a certain value are averaged, and a difference (delta Ev3) from the appropriate exposure is calculated based on the AE table.

次に、前回算出したBvにデルタEv1を加算し被写体輝度データ1(Bv1)を更新する(ステップS16)。さらに、Bv1を基に露出値1(Ev1)を算出するとともに、デルタEvが0になる場合、適正な露出(明るさ)であると判断し、デルタEvが0になるようなEv1を算出する。   Next, delta Ev1 is added to Bv calculated previously to update subject luminance data 1 (Bv1) (step S16). Further, an exposure value 1 (Ev1) is calculated based on Bv1, and when delta Ev becomes 0, it is determined that the exposure is appropriate (brightness), and Ev1 is calculated so that delta Ev becomes 0. .

算出したEv1からEV線図に従って、露光条件、すなわちCMOSのシャッタスピード(Tv)およびCMOSの感度(Sv(ゲイン値))を算出し、その算出したシャッタスピード、CMOSの感度をセンサAとセンサBに設定する(ステップS17)。   According to the calculated Ev1 to EV diagram, the exposure conditions, that is, the CMOS shutter speed (Tv) and the CMOS sensitivity (Sv (gain value)) are calculated, and the calculated shutter speed and CMOS sensitivity are represented by the sensors A and B. (Step S17).

EV線図は、Ev値に対応するシャッタスピード、感度の組み合わせの表であり、モニタリングとスチルで異なってもよい。   The EV diagram is a table of combinations of shutter speeds and sensitivities corresponding to Ev values, and may be different between monitoring and still.

モニタリング時のAE処理が終了か否かが判断され(ステップS18)、終了でない場合は、ステップS12に戻り、ステップS17にて設定されたTv(シャッタスピード)およびSv(感度)が反映されたエリア積算値を、ステップS13で取得する。ステップS12〜S18の処理は、モニタリング中に常時繰り返し実行される。   It is determined whether or not the AE process at the time of monitoring is finished (step S18). If not finished, the process returns to step S12, where Tv (shutter speed) and Sv (sensitivity) set in step S17 are reflected. The integrated value is acquired in step S13. The processes in steps S12 to S18 are repeatedly executed during monitoring.

図8は、本実施例による撮像装置のスチル時における一連のAE処理のフローを示したものである。先ず、スチル撮影直前のモニタリング時に算出したデルタEv2とデルタEv3の値が大きいほうのセンサのEv値とEv1を基にEv2を算出する(ステップS21)。例えば、デルタEv2>デルタEv3の場合、以下の(3)式によりデルタEv2を設定する。   FIG. 8 shows a flow of a series of AE processes when the imaging apparatus according to the present embodiment is still. First, Ev2 is calculated based on the Ev value and Ev1 of the sensor having the larger values of delta Ev2 and delta Ev3 calculated at the time of monitoring immediately before still photography (step S21). For example, when delta Ev2> delta Ev3, delta Ev2 is set by the following equation (3).

Ev2=Ev1+デルタEv2 ・・・・・・(3)       Ev2 = Ev1 + Delta Ev2 (3)

これにより、高輝度側のセンサを適正露出に近づけることができる。   Thereby, the sensor on the high luminance side can be brought close to the appropriate exposure.

次に、Ev2からEV線図に従って、シャッタスピード1(Tv1)、感度1(Sv1)を算出する(ステップS22)   Next, shutter speed 1 (Tv1) and sensitivity 1 (Sv1) are calculated according to the EV diagram from Ev2 (step S22).

Ev1とEv2の差分をSv1に加算し、感度2(Sv2)を算出する処理、すなわち、ゲイン補正を行う(ステップS23)。   The difference between Ev1 and Ev2 is added to Sv1 to calculate sensitivity 2 (Sv2), that is, gain correction is performed (step S23).

デルタEv2とデルタEv3の値が小さい方のセンサのデルタEvの何割かをSv2に減算してもよい。例えば、デルタEv2>デルタEv3の場合、以下の(4)式によりデルタSv2を設定する。   You may subtract some delta Ev of the sensor with the smaller value of delta Ev2 and delta Ev3 to Sv2. For example, when delta Ev2> delta Ev3, delta Sv2 is set by the following equation (4).

Sv2=Sv2−デルタEv3/2 ・・・・・・(4)       Sv2 = Sv2-Delta Ev3 / 2 (4)

ステップS21およびステップS23の処理を実行することにより、センサAとセンサBとで異なる輝度の被写体を写した場合でも、センサそれぞれで適正な露出に近づけることができる。   By executing the processing of step S21 and step S23, even when subjects with different luminance are photographed by the sensor A and the sensor B, it is possible to approach the appropriate exposure for each sensor.

デルタEv2とデルタEv3の値が大きい方のセンサにTv1とSv1を設定し、デルタEv2とデルタEv3の値が小さい方のセンサにTv1、Sv2を設定する(ステップS24)。   Tv1 and Sv1 are set to the sensor having the larger values of delta Ev2 and delta Ev3, and Tv1 and Sv2 are set to the sensor having the smaller values of delta Ev2 and delta Ev3 (step S24).

センサAとセンサBのシャッタスピードを同じにすることで、センサAとセンサBにまたがる動被写体に対しても良好に繋ぎ合わせることができる。また、このとき、両面のセンサの上下読み出し方向を同じにすることで、露光タイミングが一致し、更に良好な動被写体の繋ぎ合わせを行うことができる。また、固体撮像素子の走査方向を、互いに一致させることで、各々の撮像画像をつなぎ合わせやすくすることができる。つまり、それぞれの固体撮像素子の走査方向と順序を、互いにつなぎ合わせる部分で一致させることで、互いのカメラの境界にある物体、特に、移動物体のつなぎ合わせに効果が得られる。例えば、固体撮像素子22Aで撮影された撮像画像の左上の部分と、固体撮像素子22Bで撮影された撮像画像の左下の部分が、画像のつなぎ合わせる部分として一致する場合は、固体撮像素子22Aの走査は、固体撮像素子の上から下に向かって、右から左に走査する。一方、固体撮像素子22Bの走査は、固体撮像素子の下から上に向かって、右から左に走査する。このように、画像のつなぎ合わせる部分に基づいて、各固体撮像素子の走査方向を制御することで、つなぎ合わせに効果が得られる。   By making the shutter speeds of the sensor A and the sensor B the same, it is possible to satisfactorily connect to a moving subject extending over the sensor A and the sensor B. Further, at this time, by making the upper and lower readout directions of the sensors on both sides the same, the exposure timings can be matched and a better moving subject can be joined. In addition, by making the scanning directions of the solid-state imaging device coincide with each other, each captured image can be easily joined. In other words, by matching the scanning direction and order of the respective solid-state imaging devices at the portions where they are connected to each other, an effect can be obtained in connecting objects at the boundaries of the cameras, particularly moving objects. For example, when the upper left part of the captured image captured by the solid-state image sensor 22A and the lower left part of the captured image captured by the solid-state image sensor 22B coincide with each other as a part where the images are joined, the solid-state image sensor 22A The scanning is performed from right to left from the top to the bottom of the solid-state imaging device. On the other hand, the solid-state image sensor 22B scans from the right to the left from the bottom to the top of the solid-state image sensor. In this way, by controlling the scanning direction of each solid-state imaging device based on the portion where the images are to be joined, an effect can be obtained in the joining.

次に、センサAとセンサBの感度差を補正する。感度が低いセンサから出力された画像に対して、中心を1倍、最周辺をk倍に設定し、中心と最周辺との間は画像中心からの距離によって線形補間で求める処理、すなわち、感度差補正を行う(ステップS25)。kは1以上であり、中心から最周辺にかけてゲイン倍率を上げることになる。ここで、kの算出方法は以下のようになる。   Next, the sensitivity difference between sensor A and sensor B is corrected. For the image output from a sensor with low sensitivity, the center is set to 1 time, the outermost periphery is set to k times, and the distance between the center and the outermost periphery is obtained by linear interpolation according to the distance from the image center, that is, the sensitivity Difference correction is performed (step S25). k is 1 or more, and the gain magnification is increased from the center to the outermost periphery. Here, the calculation method of k is as follows.

例えば、デルタEv2>デルタEv3の場合、以下の(5)式によりkを求める。   For example, when delta Ev2> delta Ev3, k is obtained by the following equation (5).

k=Sv2/Sv1 ・・・・・・(5)       k = Sv2 / Sv1 (5)

これにより、感度差の異なるセンサAとセンサBの画像をつなぎ合わせた際、繋ぎ合せ部分の明るさの差が出ず、良好な露出にすることができる。   Thereby, when the images of the sensor A and the sensor B having different sensitivity differences are joined together, the brightness difference of the joined portions does not appear, and a favorable exposure can be achieved.

図9は、図3におけるプロセッサ100内のCPU130の内部構成のうち、本実施例に関連する部分を概略的に示したブロック図である。CPU130の内部には、図5に示した処理および図8に示した処理をそれぞれ実現するために、第一測光値算出部51、第二測光値算出部52、第一露出値算出部53、第二露出値算出部54、露出制御値設定部55、および露出差補正部56が設けられている。   FIG. 9 is a block diagram schematically showing a portion related to the present embodiment in the internal configuration of the CPU 130 in the processor 100 in FIG. In the CPU 130, a first photometric value calculation unit 51, a second photometric value calculation unit 52, a first exposure value calculation unit 53, in order to realize the processing shown in FIG. 5 and the processing shown in FIG. A second exposure value calculation unit 54, an exposure control value setting unit 55, and an exposure difference correction unit 56 are provided.

第一測光値算出部51は、複数の固体撮像素子(例えば、固体撮像素子22A,22B)から取得した撮像信号を基に測光値を算出する。第二測光値算出部52は、複数の固体撮像素子のうち各固体撮像素子単独で取得した撮像信号を基に各固体撮像素子に対応した測光値を算出する。なお、CPU130は、固体撮像素子22A,22Bを制御指令によって制御しており、逆に第一測光値算出部51および第二測光値算出部52は、固体撮像素子22A,22Bからの撮像信号を基に測光値を算出することができるようになっている。   The first photometric value calculation unit 51 calculates a photometric value based on imaging signals acquired from a plurality of solid-state imaging devices (for example, the solid-state imaging devices 22A and 22B). The second photometric value calculation unit 52 calculates a photometric value corresponding to each solid-state image sensor based on an image signal acquired by each solid-state image sensor alone among the plurality of solid-state image sensors. Note that the CPU 130 controls the solid-state imaging devices 22A and 22B by a control command. Conversely, the first photometric value calculation unit 51 and the second photometric value calculation unit 52 receive the imaging signals from the solid-state imaging devices 22A and 22B. The photometric value can be calculated based on this.

第一露出値算出部53は、第一測光値算出部51によって算出した測光値、および第二測光値算出部52によって算出した測光値の少なくとも一方から露出値を算出する。なお、この場合、第一露出値算出部53は、第二測光値算出部52によって求めた測光値の最大値を基に露出値を算出するようにしてもよい。   The first exposure value calculation unit 53 calculates an exposure value from at least one of the photometry value calculated by the first photometry value calculation unit 51 and the photometry value calculated by the second photometry value calculation unit 52. In this case, the first exposure value calculator 53 may calculate the exposure value based on the maximum photometric value obtained by the second photometric value calculator 52.

第二露出値算出部54は、第二測光値算出部52によって算出した各固体撮像素子の測光値から各固体撮像素子に対応した露出値を算出する。   The second exposure value calculator 54 calculates an exposure value corresponding to each solid-state image sensor from the photometric value of each solid-state image sensor calculated by the second photometric value calculator 52.

露出制御値設定部55は、第二測光値算出部52によって算出した測光値の中で第一測光値算出部51によって算出した測光値よりも大きい固体撮像素子を第一固体撮像素子とし、それ以外の固体撮像素子を第二固体撮像素子とした場合、第一固体撮像素子に対しては第一露出値算出部53によって算出した露出値を基に露出制御値を設定するとともに、第二固体撮像素子に対しては第二露出値算出部54によって算出した露出値を基に露出制御値を設定する。   The exposure control value setting unit 55 sets a solid-state image sensor that is larger than the photometric value calculated by the first photometric value calculator 51 among the photometric values calculated by the second photometric value calculator 52 as a first solid-state image sensor. When a solid-state imaging device other than the second solid-state imaging device is used, an exposure control value is set for the first solid-state imaging device based on the exposure value calculated by the first exposure value calculation unit 53, and the second solid-state imaging device is used. For the image sensor, an exposure control value is set based on the exposure value calculated by the second exposure value calculation unit 54.

露出差補正部56は、第二固体撮像素子に対しては第一固体撮像素子との露出差を補正する。   The exposure difference correction unit 56 corrects the exposure difference from the first solid-state image sensor for the second solid-state image sensor.

また、図5や図8に示したフローは、アセンブラ、C、C++、C#、Java(登録商標)などのレガシープログラミング言語やオブジェクト指向プログラミング言語などで記述されたコンピュータ実行可能なプログラムにより実現できる。そして、ROM、EEPROM、EPROM、フラッシュメモリ、フレキシブルディスク、CD−ROM、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、ブルーレイディスク、SDカード、MOなどの記録媒体に格納して頒布できる。   The flow shown in FIGS. 5 and 8 can be realized by a computer-executable program written in a legacy programming language such as an assembler, C, C ++, C #, Java (registered trademark) or an object-oriented programming language. . And stored in a recording medium such as ROM, EEPROM, EPROM, flash memory, flexible disk, CD-ROM, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, Blu-ray disc, SD card, MO, etc. it can.

10 全天球撮像システム
12 撮像体
20A,20B レンズ光学系
22A,22B 固体撮像素子(センサA,B)
51 第一測光値算出部(第一測光値算出手段)
52 第二測光値算出部(第二測光値算出手段)
53 第一露出値算出部(第一露出値算出手段)
54 第二露出値算出部(第二露出値算出手段)
55 露出制御値設定部(露出制御値設定手段)
56 露出差補正部(露出差補正手段)
100 デジタル・スチルカメラ・プロセッサ(プロセッサ)
108A,108B ISP
118 歪曲補正・画像合成ブロック
120 3軸加速度センサ
130 CPU
138 SDRAM
144 フラッシュROM
DESCRIPTION OF SYMBOLS 10 Omnisphere imaging system 12 Image pick-up body 20A, 20B Lens optical system 22A, 22B Solid-state image sensor (sensor A, B)
51 1st photometric value calculation part (1st photometric value calculation means)
52 Second photometric value calculation unit (second photometric value calculation means)
53 1st exposure value calculation part (1st exposure value calculation means)
54 2nd exposure value calculation part (2nd exposure value calculation means)
55 Exposure control value setting section (exposure control value setting means)
56 Exposure difference correction unit (exposure difference correction means)
100 Digital still camera processor (processor)
108A, 108B ISP
118 Distortion Correction / Image Synthesis Block 120 3-Axis Acceleration Sensor 130 CPU
138 SDRAM
144 Flash ROM

特許第4869795号公報Japanese Patent No. 48699795

Claims (10)

複数の固体撮像素子から取得した撮像画像を繋ぎ合わせて、一つの画像を形成し出力する撮像装置であって、
前記複数の固体撮像素子から取得した撮像信号を基に測光値を算出する第一測光値算出手段と、
前記複数の固体撮像素子のうち各固体撮像素子で取得した撮像信号を基に各固体撮像素子に対応した測光値を算出する第二測光値算出手段と、
前記第一測光値算出手段によって算出した測光値、および前記第二測光値算出手段によって算出した測光値の少なくとも一方から露出値を算出する第一露出値算出手段と、
前記第二測光値算出手段によって算出した各固体撮像素子の測光値から各固体撮像素子に対応した露出値を算出する第二露出値算出手段とを備え、
前記第二測光値算出手段によって算出した測光値の中で前記第一測光値算出手段によって算出した測光値よりも大きい固体撮像素子を第一固体撮像素子とし、それ以外の固体撮像素子を第二固体撮像素子とし、
前記第一固体撮像素子に対しては前記第一露出値算出手段によって算出した露出値を基に露出制御値を設定するとともに、前記第二固体撮像素子に対しては前記第二露出値算出手段によって算出した露出値を基に露出制御値を設定する露出制御値設定手段と、
前記第二固体撮像素子に対しては前記第一固体撮像素子との露出差を補正する露出差補正手段とを有することを特徴とする撮像装置。
An image pickup apparatus that joins captured images acquired from a plurality of solid-state image sensors to form and output a single image,
First photometric value calculating means for calculating a photometric value based on imaging signals acquired from the plurality of solid-state imaging devices;
Second photometric value calculating means for calculating a photometric value corresponding to each solid-state image sensor based on an image signal acquired by each solid-state image sensor among the plurality of solid-state image sensors;
First exposure value calculating means for calculating an exposure value from at least one of the photometric value calculated by the first photometric value calculating means and the photometric value calculated by the second photometric value calculating means;
Second exposure value calculation means for calculating an exposure value corresponding to each solid-state image sensor from the photometric value of each solid-state image sensor calculated by the second photometric value calculation means,
Among the photometric values calculated by the second photometric value calculating means, a solid-state image sensor that is larger than the photometric value calculated by the first photometric value calculating means is defined as a first solid-state image sensor, and the other solid-state image sensors are designated as second solid-state image sensors. A solid-state image sensor,
For the first solid-state image sensor, an exposure control value is set based on the exposure value calculated by the first exposure value calculator, and for the second solid-state image sensor, the second exposure value calculator Exposure control value setting means for setting an exposure control value based on the exposure value calculated by
An image pickup apparatus comprising: an exposure difference correction unit that corrects an exposure difference with respect to the second solid-state image pickup element.
前記第一露出値算出手段は、前記第二測光値算出手段によって求めた測光値の最大値を基に露出値を算出することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the first exposure value calculating unit calculates an exposure value based on a maximum value of the photometric value obtained by the second photometric value calculating unit. 前記露出制御値設定手段は、各々の固体撮像素子に対して設定するシャッタスピードを一致させ、異なるゲインを設定することを特徴とする請求項1又は2に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the exposure control value setting unit sets different gains by matching shutter speeds set for the respective solid-state imaging devices. 前記露出差補正手段は、中心から周辺にかけてゲイン倍率を上げることを特徴とする請求項1〜3のいずれか一項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the exposure difference correction unit increases the gain magnification from the center to the periphery. 複数の固体撮像素子から取得した撮像画像を繋ぎ合わせて、一つの画像を形成し出力する撮像装置であって、
前記複数の固体撮像素子から取得した撮像信号を基に測光値を算出する第一測光値算出手段と、
前記複数の固体撮像素子のうち各固体撮像素子で取得した撮像信号を基に各固体撮像素子に対応した測光値を算出する第二測光値算出手段と、
前記第一測光値算出手段によって算出した測光値、および前記第二測光値算出手段によって算出した測光値の少なくとも一方から露出値を算出する第一露出値算出手段と、
前記第二測光値算出手段によって算出した各固体撮像素子の測光値から各固体撮像素子に対応した露出値を算出する第二露出値算出手段とを備え、
前記第二測光値算出手段によって算出した測光値の中で前記第一測光値算出手段によって算出した測光値よりも大きい固体撮像素子を第一固体撮像素子とし、それ以外の固体撮像素子を第二固体撮像素子とし、
前記第一固体撮像素子に対しては前記第一露出値算出手段によって算出した露出値を基にシャッタスピードとゲインを設定するとともに、前記第二固体撮像素子に対しては前記第二露出値算出手段によって算出した露出値を基にシャッタスピードを前記第一固体撮像素子と一致させ、ゲインを設定する露出制御値算出手段と、
固体撮像素子毎に読み出し方向を設定する読み出し方向設定手段と、
前記第二固体撮像素子に対しては前記第一固体撮像素子との露出差を補正する露出差補正手段とを有することを特徴とする撮像装置。
An image pickup apparatus that joins captured images acquired from a plurality of solid-state image sensors to form and output a single image,
First photometric value calculating means for calculating a photometric value based on imaging signals acquired from the plurality of solid-state imaging devices;
Second photometric value calculating means for calculating a photometric value corresponding to each solid-state image sensor based on an image signal acquired by each solid-state image sensor among the plurality of solid-state image sensors;
First exposure value calculating means for calculating an exposure value from at least one of the photometric value calculated by the first photometric value calculating means and the photometric value calculated by the second photometric value calculating means;
Second exposure value calculation means for calculating an exposure value corresponding to each solid-state image sensor from the photometric value of each solid-state image sensor calculated by the second photometric value calculation means,
Among the photometric values calculated by the second photometric value calculating means, a solid-state image sensor that is larger than the photometric value calculated by the first photometric value calculating means is defined as a first solid-state image sensor, and the other solid-state image sensors are designated as second solid-state image sensors. A solid-state image sensor,
For the first solid-state image sensor, a shutter speed and a gain are set based on the exposure value calculated by the first exposure value calculator, and for the second solid-state image sensor, the second exposure value is calculated. Exposure control value calculating means for setting the gain by matching the shutter speed with the first solid-state imaging device based on the exposure value calculated by the means;
Read direction setting means for setting the read direction for each solid-state imaging device;
An image pickup apparatus comprising: an exposure difference correction unit that corrects an exposure difference with respect to the second solid-state image pickup element.
複数の固体撮像素子から取得した撮像画像を繋ぎ合わせて、一つの画像を形成し出力する撮像方法であって、
前記複数の固体撮像素子から取得した撮像信号を基に測光値を算出する第一測光値算出工程と、
前記複数の固体撮像素子のうち各固体撮像素子で取得した撮像信号を基に各固体撮像素子に対応した測光値を算出する第二測光値算出工程と、
前記第一測光値算出工程によって算出した測光値、および前記第二測光値算出工程によって算出した測光値の少なくとも一方から露出値を算出する第一露出値算出工程と、
前記第二測光値算出工程によって算出した各固体撮像素子の測光値から各固体撮像素子に対応した露出値を算出する第二露出値算出工程とを備え、
前記第二測光値算出工程によって算出した測光値の中で前記第一測光値算出工程によって算出した測光値よりも大きい固体撮像素子を第一固体撮像素子とし、それ以外の固体撮像素子を第二固体撮像素子とした場合、
前記第一固体撮像素子に対しては前記第一露出値算出工程によって算出した露出値を基に露出制御値を設定するとともに、前記第二固体撮像素子に対しては前記第二露出値算出工程によって算出した露出値を基に露出制御値を設定する露出制御値算出工程と、
前記第二固体撮像素子に対しては前記第一固体撮像素子との露出差を補正する露出差補正工程とを含むことを特徴とする撮像方法。
An imaging method for joining together captured images acquired from a plurality of solid-state image sensors to form and output a single image,
A first photometric value calculating step of calculating a photometric value based on an imaging signal acquired from the plurality of solid-state imaging devices;
A second photometric value calculation step of calculating a photometric value corresponding to each solid-state image sensor based on an image signal acquired by each solid-state image sensor among the plurality of solid-state image sensors;
A first exposure value calculating step of calculating an exposure value from at least one of the photometric value calculated by the first photometric value calculating step and the photometric value calculated by the second photometric value calculating step;
A second exposure value calculation step of calculating an exposure value corresponding to each solid-state image sensor from the photometric value of each solid-state image sensor calculated by the second photometric value calculation step,
Among the photometric values calculated in the second photometric value calculating step, a solid-state image sensor larger than the photometric value calculated in the first photometric value calculating step is used as the first solid-state image sensor, and the other solid-state image sensors are used as the second solid-state image sensor. When a solid-state image sensor is used,
For the first solid-state image sensor, an exposure control value is set based on the exposure value calculated by the first exposure value calculation step, and for the second solid-state image sensor, the second exposure value calculation step. An exposure control value calculation step for setting an exposure control value based on the exposure value calculated by
An imaging method comprising: an exposure difference correction step for correcting an exposure difference with respect to the second solid-state imaging element.
前記第一露出値算出工程は、前記第二測光値算出工程によって求めた測光値の最大値を基に露出値を算出することを特徴とする請求項6に記載の撮像方法。   The imaging method according to claim 6, wherein the first exposure value calculating step calculates an exposure value based on a maximum value of the photometric values obtained by the second photometric value calculating step. 前記露出制御値算出工程は、各々の固体撮像素子に対して設定するシャッタスピードを一致させて、異なるゲインを設定することを特徴とする請求項6又は7に記載の撮像方法。   8. The imaging method according to claim 6, wherein the exposure control value calculation step sets different gains by matching shutter speeds set for the respective solid-state imaging devices. 前記露出差補正工程は、中心から周辺にかけてゲイン倍率を上げることを特徴とする請求項6〜8のいずれか一項に記載の撮像方法。   The imaging method according to any one of claims 6 to 8, wherein the exposure difference correction step increases the gain magnification from the center to the periphery. 画像処理機能を有する装置が有するコンピュータに、複数の固体撮像素子から取得された撮像画像を繋ぎ合わせて、一つの画像を形成し出力するためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記複数の固体撮像素子から取得した撮像信号を基に測光値を算出する第一測光値算出処理と、
前記複数の固体撮像素子のうち各固体撮像素子で取得した撮像信号を基に各固体撮像素子に対応した測光値を算出する第二測光値算出処理と、
前記第一測光値算出処理によって算出した測光値、および前記第二測光値算出処理によって算出した測光値の少なくとも一方から露出値を算出する第一露出値算出処理と、
前記第二測光値算出処理によって算出した各固体撮像素子の測光値から各固体撮像素子に対応した露出値を算出する第二露出値算出処理とを備え、
前記第二測光値算出処理によって算出した測光値の中で前記第一測光値算出処理によって算出した測光値よりも大きい固体撮像素子を第一固体撮像素子とし、それ以外の固体撮像素子を第二固体撮像素子とした場合、
前記第一固体撮像素子に対しては前記第一露出値算出処理によって算出した露出値を基に露出制御値を設定するとともに、前記第二固体撮像素子に対しては前記第二露出値算出処理によって算出した露出値を基に露出制御値を設定する露出制御値算出処理と、
前記第二固体撮像素子に対しては前記第一固体撮像素子との露出差を補正する露出差補正処理とを含むことを特徴とする画像処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
A computer-readable recording medium recording a program for connecting a captured image acquired from a plurality of solid-state image sensors to a computer included in an apparatus having an image processing function to form and output a single image. ,
A first photometric value calculation process for calculating a photometric value based on imaging signals acquired from the plurality of solid-state imaging devices;
A second photometric value calculation process for calculating a photometric value corresponding to each solid-state image sensor based on an image signal acquired by each solid-state image sensor among the plurality of solid-state image sensors;
A first exposure value calculating process for calculating an exposure value from at least one of the photometric value calculated by the first photometric value calculating process and the photometric value calculated by the second photometric value calculating process;
A second exposure value calculation process for calculating an exposure value corresponding to each solid-state image sensor from the photometric value of each solid-state image sensor calculated by the second photometric value calculation process,
Among the photometric values calculated by the second photometric value calculation process, the solid-state image sensor that is larger than the photometric value calculated by the first photometric value calculation process is used as the first solid-state image sensor, and the other solid-state image sensors are used as the second solid-state image sensor. When a solid-state image sensor is used,
For the first solid-state image sensor, an exposure control value is set based on the exposure value calculated by the first exposure value calculation process, and for the second solid-state image sensor, the second exposure value calculation process is set. Exposure control value calculation processing for setting an exposure control value based on the exposure value calculated by
A computer-readable recording medium storing a program for executing image processing, wherein the second solid-state imaging device includes an exposure difference correction process for correcting an exposure difference from the first solid-state imaging device. recoding media.
JP2013178880A 2013-08-30 2013-08-30 Imaging apparatus, imaging method, and recording medium Active JP6299116B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013178880A JP6299116B2 (en) 2013-08-30 2013-08-30 Imaging apparatus, imaging method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013178880A JP6299116B2 (en) 2013-08-30 2013-08-30 Imaging apparatus, imaging method, and recording medium

Publications (2)

Publication Number Publication Date
JP2015050498A true JP2015050498A (en) 2015-03-16
JP6299116B2 JP6299116B2 (en) 2018-03-28

Family

ID=52700198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013178880A Active JP6299116B2 (en) 2013-08-30 2013-08-30 Imaging apparatus, imaging method, and recording medium

Country Status (1)

Country Link
JP (1) JP6299116B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017043190A1 (en) * 2015-09-09 2017-03-16 株式会社リコー Control system, imaging device, and program
JP2017111619A (en) * 2015-12-16 2017-06-22 日本電信電話株式会社 Image processor, image processing method, and image processing program
JP2018207453A (en) * 2017-06-09 2018-12-27 ソニー株式会社 Control apparatus, image pickup apparatus, control method, program, and image pickup system
JP2019047213A (en) * 2017-08-30 2019-03-22 株式会社リコー Imaging apparatus, information processing system, program, and image processing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07110505A (en) * 1993-10-13 1995-04-25 Canon Inc Compound eye image pickup device
JP2011504043A (en) * 2007-11-16 2011-01-27 テネブラックス コーポレイション System and method for generating a virtual window
JP2011044837A (en) * 2009-08-20 2011-03-03 Sony Corp Image capturing apparatus, method of controlling the same, and program
JP2013029995A (en) * 2011-07-28 2013-02-07 Clarion Co Ltd Imaging system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07110505A (en) * 1993-10-13 1995-04-25 Canon Inc Compound eye image pickup device
JP2011504043A (en) * 2007-11-16 2011-01-27 テネブラックス コーポレイション System and method for generating a virtual window
JP2011044837A (en) * 2009-08-20 2011-03-03 Sony Corp Image capturing apparatus, method of controlling the same, and program
JP2013029995A (en) * 2011-07-28 2013-02-07 Clarion Co Ltd Imaging system

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108028894B (en) * 2015-09-09 2020-07-10 株式会社理光 Control system, imaging apparatus, and computer-readable medium
JPWO2017043190A1 (en) * 2015-09-09 2018-04-05 株式会社リコー Control system, imaging apparatus, and program
CN108028894A (en) * 2015-09-09 2018-05-11 株式会社理光 Control system, imaging device and program
EP3349433A4 (en) * 2015-09-09 2018-09-12 Ricoh Company, Ltd. Control system, imaging device, and program
US10477106B2 (en) 2015-09-09 2019-11-12 Ricoh Company, Ltd. Control system, imaging device, and computer-readable medium
WO2017043190A1 (en) * 2015-09-09 2017-03-16 株式会社リコー Control system, imaging device, and program
JP2017111619A (en) * 2015-12-16 2017-06-22 日本電信電話株式会社 Image processor, image processing method, and image processing program
JP2018207453A (en) * 2017-06-09 2018-12-27 ソニー株式会社 Control apparatus, image pickup apparatus, control method, program, and image pickup system
US11272115B2 (en) 2017-06-09 2022-03-08 Sony Corporation Control apparatus for controlling multiple camera, and associated control method
JP7059522B2 (en) 2017-06-09 2022-04-26 ソニーグループ株式会社 Control device, control method, program and imaging system
JP2019047213A (en) * 2017-08-30 2019-03-22 株式会社リコー Imaging apparatus, information processing system, program, and image processing method
US10609302B2 (en) 2017-08-30 2020-03-31 Ricoh Company, Ltd. Imaging device, information processing system, program, image processing method
US11258960B2 (en) 2017-08-30 2022-02-22 Ricoh Company, Ltd. Imaging device, information processing system, program, image processing method

Also Published As

Publication number Publication date
JP6299116B2 (en) 2018-03-28

Similar Documents

Publication Publication Date Title
JP6065474B2 (en) Imaging control apparatus, imaging control method, and program
JP5971207B2 (en) Image adjustment apparatus, image adjustment method, and program
US10477106B2 (en) Control system, imaging device, and computer-readable medium
JP6933059B2 (en) Imaging equipment, information processing system, program, image processing method
US10699393B2 (en) Image processing apparatus and image processing method
JP6119235B2 (en) Imaging control apparatus, imaging system, imaging control method, and program
US9871976B2 (en) Imaging apparatus, control system and control method
JP6299116B2 (en) Imaging apparatus, imaging method, and recording medium
JP7247609B2 (en) Imaging device, imaging method and program
US9912873B2 (en) Image pickup apparatus equipped with display section and method of controlling the same
JP2013192088A (en) Imaging apparatus, control method, and control program
JP6157274B2 (en) Imaging apparatus, information processing method, and program
JP2016040870A (en) Image processing apparatus, image forming method and program
JP2015119436A (en) Imaging apparatus
JP7379884B2 (en) Imaging device, image processing system, method and program
JP7451888B2 (en) Imaging device, imaging system, method and program
JP2013182218A (en) Image capturing apparatus, image capturing method, and program
JP2017225036A (en) Imaging device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180212

R151 Written notification of patent or utility model registration

Ref document number: 6299116

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151