JP6157274B2 - Imaging apparatus, information processing method, and program - Google Patents

Imaging apparatus, information processing method, and program Download PDF

Info

Publication number
JP6157274B2
JP6157274B2 JP2013171650A JP2013171650A JP6157274B2 JP 6157274 B2 JP6157274 B2 JP 6157274B2 JP 2013171650 A JP2013171650 A JP 2013171650A JP 2013171650 A JP2013171650 A JP 2013171650A JP 6157274 B2 JP6157274 B2 JP 6157274B2
Authority
JP
Japan
Prior art keywords
image
images
synthesis
luminance
synthesis condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013171650A
Other languages
Japanese (ja)
Other versions
JP2015041869A (en
Inventor
篤史 藤田
篤史 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013171650A priority Critical patent/JP6157274B2/en
Publication of JP2015041869A publication Critical patent/JP2015041869A/en
Application granted granted Critical
Publication of JP6157274B2 publication Critical patent/JP6157274B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像装置、情報処理方法及びプログラムに関する。   The present invention relates to an imaging apparatus, an information processing method, and a program.

写真撮影を行うユーザの被写体の一つに夜景や星空が存在する。きれいな星空を撮影したいというユーザの強い要求はかねてより存在するものの、デジタルカメラに代表される撮像装置できれいな星空の撮影を行うことは難しく、専門的な機材や撮影設定に関する高度な知識が必要とされていた。そこで、近年ではユーザが簡単に、かつ、きれいな星空を撮影することができる機能を搭載したデジタルカメラが提案されている。
特に、夜景や星空を撮影する際に課題となるのが露出設定である。星空のように暗い被写体を撮影する場合は、感度を上げたり、露光時間を長くしたりすることにより撮像装置に多くの光を取り入れる必要がある。しかし、感度を上げすぎるとノイズが増加して画質が劣化したり、露光時間を長くすると像ブレが発生したりする等の問題がある。また、夜景や星空がきれいに見える適正な露出条件を設定するには経験による高度な撮影知識が必要であった。
特許文献1では、ユーザに適切な露出条件を簡単に設定させるための方法として、ユーザがLCD(Liquid Crystal Display)に表示された画像の明るさを見ながら露出設定を変更することができる技術が開示されている。
A night view or a starry sky is one of the subjects of a user who takes a picture. Although there has been a strong demand for users to shoot beautiful starry sky, it is difficult to shoot beautiful starry sky with imaging devices such as digital cameras, and advanced knowledge about specialized equipment and shooting settings is required. It had been. Therefore, in recent years, a digital camera equipped with a function that allows a user to easily photograph a beautiful starry sky has been proposed.
In particular, exposure setting is a problem when shooting a night view or a starry sky. When shooting a dark subject such as a starry sky, it is necessary to increase the sensitivity or increase the exposure time to incorporate more light into the imaging device. However, if the sensitivity is increased too much, noise will increase and the image quality will deteriorate, and if the exposure time is extended, there will be problems such as image blurring. Moreover, in order to set an appropriate exposure condition that allows the night view and the starry sky to be seen clearly, advanced shooting knowledge by experience was necessary.
In Patent Document 1, as a method for allowing a user to easily set appropriate exposure conditions, there is a technique that allows a user to change exposure settings while viewing the brightness of an image displayed on an LCD (Liquid Crystal Display). It is disclosed.

特開2013−70298号公報JP 2013-70298 A

しかしながら、特許文献1に開示されている技術では、撮影領域内に暗い星空領域と、明るい地上領域とが存在する場合、ユーザが画像を確認しながら露出条件を設定したとしても、星空領域と、地上領域との両方の明るさを適正に設定することは困難であった。
本発明は、適切な明るさで被写体を撮影する技術を提供することを目的とする。
However, in the technique disclosed in Patent Document 1, when a dark starry sky region and a bright ground region exist in the shooting region, even if the user sets the exposure condition while checking the image, the starry sky region, It was difficult to set the brightness of both the ground area properly.
An object of this invention is to provide the technique which image | photographs a to-be-photographed object with appropriate brightness.

そこで、本発明の撮像装置は、輝度の異なる複数の画像を生成する画像生成手段と、前記画像生成手段により生成された第1の画像の輝度から、前記画像生成手段により生成された複数の画像の合成に係る合成条件を生成する合成条件生成手段と、前記合成条件生成手段により生成された合成条件に基づいて、前記複数の画像を合成する合成手段と、を有し、前記合成条件生成手段は、前記第1の画像に含まれる被写体画像のうち予め定められた閾値よりも小さい面積の被写体画像が、被写体画像の大きさに応じて前記第1の画像から被写体画像を分離する分離手段により分離されるまで前記第1の画像を縮小し、縮小された前記第1の画像を用いて前記合成条件を生成する。   Therefore, the imaging apparatus according to the present invention includes a plurality of images generated by the image generation unit from the image generation unit that generates a plurality of images having different luminances and the luminance of the first image generated by the image generation unit. Synthesis condition generation means for generating a synthesis condition related to the synthesis of the image, and synthesis means for synthesizing the plurality of images based on the synthesis condition generated by the synthesis condition generation means. The separation means for separating a subject image having an area smaller than a predetermined threshold among subject images included in the first image from the first image according to the size of the subject image. The first image is reduced until it is separated, and the synthesis condition is generated using the reduced first image.

本発明によれば、適切な明るさで被写体を撮影する技術を提供することができる。   According to the present invention, it is possible to provide a technique for photographing a subject with appropriate brightness.

撮影シーンの一例を示す図である。It is a figure which shows an example of an imaging | photography scene. 撮像装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of an imaging device. 実施形態1における処理の一例を示すフローチャート(その1)である。5 is a flowchart (part 1) illustrating an example of processing according to the first exemplary embodiment. ヒストグラムと、露出設定との一例を示す図である。It is a figure which shows an example of a histogram and exposure setting. 実施形態1における処理の一例を示すフローチャート(その2)である。5 is a flowchart (part 2) illustrating an example of processing in the first embodiment. 合成マップ生成処理の概念の一例を示す図である。It is a figure which shows an example of the concept of a synthetic | combination map production | generation process. 変倍率Sに関するテーブルの一例を示す図である。It is a figure which shows an example of the table regarding the variable magnification S. 実施形態2における処理の一例を示すフローチャートである。10 is a flowchart illustrating an example of processing in the second embodiment. ずれを補正した場合の合成マップの一例を示す図である。It is a figure which shows an example of the synthetic | combination map at the time of correct | amending deviation.

以下、本発明を実施するための最良の形態について図面を用いて説明する。
<実施形態1>
図1は、本実施形態において対象とする撮影シーンの一例を示す図である。
図1の撮影シーンには、明るさ(輝度)の異なる領域として、予め定められた閾値よりも暗い(以下、単に暗いという)低輝度領域である星空領域と、予め定められた閾値よりも明るい(以下、単に明るいという)高輝度領域である地上領域とが含まれている。このような場合、ユーザは、デジタルカメラ等の撮像装置を用いて、星空領域と、地上領域との両方を所望の明るさの設定で撮影することは困難であった。本実施形態では、このような問題を解決する方法について説明する。なお、撮影シーンは、図1のように星空を含むシーンに限らず、輝度差のあるシーンであれば、どのようなシーンであってもよい。また、図2を用いて後述する本実施形態の撮像装置は、入力装置等を介して受け付けたユーザの指示により、上述の閾値を変更することができる。以降で述べる閾値等に関しても同様である。
The best mode for carrying out the present invention will be described below with reference to the drawings.
<Embodiment 1>
FIG. 1 is a diagram illustrating an example of a shooting scene as a target in the present embodiment.
In the photographic scene of FIG. 1, as areas having different brightness (luminance), a starry sky area that is darker than a predetermined threshold (hereinafter simply referred to as dark) and a brighter area than a predetermined threshold. And a ground area which is a high brightness area (hereinafter simply referred to as bright). In such a case, it has been difficult for the user to photograph both the starry sky region and the ground region with a desired brightness setting using an imaging device such as a digital camera. In the present embodiment, a method for solving such a problem will be described. The shooting scene is not limited to the scene including the starry sky as shown in FIG. 1, and any scene may be used as long as it has a luminance difference. In addition, the imaging apparatus according to the present embodiment, which will be described later with reference to FIG. The same applies to threshold values and the like described below.

図2は、本実施形態に係る撮像装置100のハードウェア構成の一例を示す図である。
光学系1は、複数のレンズ群と、絞り機構とを含む。また、光学系1は、測距用レンズ(FocusLens)14、ズーム用レンズ(ZoomLens)15及び絞り機構13を含む。
撮像素子2は、CCD(Charge Coupled Device)、CMOS(Complementary Metal−Oxide Semiconductor)及びアナログ信号をデジタル信号に変換するA/D(Analog/Digital)変換器等を含む。また、撮像素子2は、表面が例えばベイヤー配列のようなRGBカラーフィルタにより覆われており、カラー撮影をすることができる構成となっている。撮像素子2は、被写体像を結像すると、画像データ(画像信号)を生成してメモリ3に記憶する。
メモリ3は、撮像素子2によって変換された画像信号、撮像装置100の処理に必要な閾値に関するデータや設定値に関するデータ等を含む各種のデータ及び撮像装置100の機能を実現するためのプログラム等を記憶している。
画像処理回路4は、メモリ3に保持された画像信号に対して予め定められた画素補間処理や装置起因の歪み、シェーディング、収差、画素欠陥等の補正処理、色空間変換処理を含む色変換処理や現像処理を行う画像処理回路である。また、画像処理回路4は、撮影した画像データを用いて予め定められた演算処理を行い、得られた演算結果に基づいて撮影条件を決定し、決定した撮影条件をシステム制御部5に通知する。また、画像処理回路4は、画像の解析、フィルタ処理及び合成処理等の機能を有し、後述するアルゴリズムに従い画像の合成マップを生成したり、画像を合成したりすることができる。なお、ここでいう合成マップとは、異なる明るさの画像を合成するために生成された画像である。また、合成マップは、異なる明るさの複数の画像を合成するための合成条件の一例である。合成マップの詳細については、図5等を用いて後述する。
FIG. 2 is a diagram illustrating an example of a hardware configuration of the imaging apparatus 100 according to the present embodiment.
The optical system 1 includes a plurality of lens groups and a diaphragm mechanism. The optical system 1 includes a distance measuring lens (FocusLens) 14, a zoom lens (ZoomLens) 15, and a diaphragm mechanism 13.
The image pickup device 2 includes a charge coupled device (CCD), a complementary metal-oxide semiconductor (CMOS), an A / D (Analog / Digital) converter that converts an analog signal into a digital signal, and the like. Further, the image pickup element 2 is covered with an RGB color filter having a Bayer arrangement, for example, so that color imaging can be performed. When the subject image is formed, the image sensor 2 generates image data (image signal) and stores it in the memory 3.
The memory 3 stores various data including image signals converted by the image sensor 2, data relating to threshold values necessary for processing of the imaging device 100, data relating to setting values, and programs for realizing the functions of the imaging device 100. I remember it.
The image processing circuit 4 performs color conversion processing including predetermined pixel interpolation processing for the image signal held in the memory 3, correction processing for distortion caused by the apparatus, shading, aberration, pixel defects, and the like, and color space conversion processing. And an image processing circuit for performing development processing. Further, the image processing circuit 4 performs a predetermined calculation process using the captured image data, determines a shooting condition based on the obtained calculation result, and notifies the system control unit 5 of the determined shooting condition. . Further, the image processing circuit 4 has functions such as image analysis, filter processing, and composition processing, and can generate an image composition map or synthesize an image according to an algorithm described later. Note that the composite map here is an image generated to synthesize images with different brightness. The composite map is an example of a composite condition for combining a plurality of images having different brightness. Details of the composite map will be described later with reference to FIG.

システム制御部5は、撮影系全体を制御する。システム制御部5は、画像処理回路4が決定した撮影条件で撮影を行うためにシャッター速度、絞り機構13、測距用レンズ14及びズーム用レンズ15の制御を統括し、露光量制御部6、フォーカスレンズ制御部7及び焦点距離制御部8に対して指示を行う。
露光量制御部6は、光学系1の絞り機構13、撮像素子2の露光時間及び撮影感度を調整することにより露光量制御を行う。
フォーカスレンズ制御部7は、光学系1の測距用レンズ14を制御する。
焦点距離制御部8は、光学系1のズーム用レンズ15を制御する。より具体的にいうと、焦点距離制御部8は、システム制御部5の指示に従って焦点距離を変更する。
圧縮回路9は、画像をJPEG等に圧縮し、記録媒体10に記録する。
表示部11は、撮像装置100上のLCDや外部モニタ等の表示装置であり、画像処理回路4によって生成された撮影画像を表示する。
操作部12は、ユーザの入力を受け付ける入力装置であり、ボタンやタッチパネル等を有している。システム制御部は、操作部12を介して受け付けたユーザの操作(指示)に従って、撮像装置100の動作を決定したり、変更したりする。例えば、システム制御部は、操作部12を介して受け付けたユーザの操作に従って、夜景シーン(星空)を撮影する「星空撮影モード」に動作モードを切り替えたりする。
なお、撮像素子2、画像処理回路4、システム制御部5、露光量制御部6、フォーカスレンズ制御部7、焦点距離制御部8、圧縮回路9、表示部11及び操作部12に関する撮像装置100の機能は、ソフトウェアによって実現されてもよい。その場合、システム制御部を構成するCPUが、メモリ3等に格納されているプログラムを実行することにより、上述の撮像装置100の機能及び後述するフローチャートに係る処理(情報処理)が実現される。
The system control unit 5 controls the entire photographing system. The system control unit 5 controls the shutter speed, the aperture mechanism 13, the distance measuring lens 14, and the zoom lens 15 in order to perform shooting under the shooting conditions determined by the image processing circuit 4, and the exposure amount control unit 6, An instruction is given to the focus lens control unit 7 and the focal length control unit 8.
The exposure amount controller 6 controls the exposure amount by adjusting the aperture mechanism 13 of the optical system 1 and the exposure time and imaging sensitivity of the image sensor 2.
The focus lens control unit 7 controls the distance measuring lens 14 of the optical system 1.
The focal length control unit 8 controls the zoom lens 15 of the optical system 1. More specifically, the focal length control unit 8 changes the focal length in accordance with an instruction from the system control unit 5.
The compression circuit 9 compresses the image into JPEG or the like and records it on the recording medium 10.
The display unit 11 is a display device such as an LCD or an external monitor on the imaging device 100 and displays a captured image generated by the image processing circuit 4.
The operation unit 12 is an input device that receives user input, and includes buttons, a touch panel, and the like. The system control unit determines or changes the operation of the imaging apparatus 100 in accordance with a user operation (instruction) received via the operation unit 12. For example, the system control unit switches the operation mode to a “starry sky shooting mode” for shooting a night scene (starry sky) in accordance with a user operation received via the operation unit 12.
Note that the imaging device 100 related to the imaging device 2, the image processing circuit 4, the system control unit 5, the exposure amount control unit 6, the focus lens control unit 7, the focal length control unit 8, the compression circuit 9, the display unit 11, and the operation unit 12. The function may be realized by software. In this case, the CPU constituting the system control unit executes a program stored in the memory 3 or the like, thereby realizing the functions of the imaging device 100 described above and processing (information processing) related to a flowchart described later.

次に、本実施形態における星空撮影モードの動作フローについて説明する。
図3は、本実施形態における星空撮影モードの処理の一例を示すフローチャートである。
S100において、画像処理回路4は、撮影する際の露出設定を決定し、処理をS101に進める。
図4の(A)は、画像の輝度に関するヒストグラムの一例を示す図である。図4の(A)のヒストグラムにおける縦軸は度数、横軸は画像の信号に基づく値を示している。
露出決定アルゴリズムとしては、図4の(A)のような画面内の明るさのヒストグラムを生成し、高輝度領域が飽和しないことと、低輝度領域が黒潰れしないこととを考慮しつつ、画像全体のバランスを取るように露出設定を決定するというのが一般的である。しかし、図1のように暗い星空領域と、明るい地上領域とが混在するシーンの場合、ヒストグラムの形状が中間調の少ないコントラストのはっきりとした形状となることが多い。そのため、ユーザは、撮像装置を用いて、全体を所望の明るさに調整しようとすると、星空領域が暗すぎて星が目立たなくなったり、地上領域の明るさが飽和してしまったりする場合がある。そこで、本実施形態では、図1のように明暗差のある星空シーンを撮影する場合、画像処理回路4は、図4の(A)において星空領域を示す暗領域(領域A)と、地上領域を示す明領域(領域B)との各々に対して予め定められた演算を行い、露出設定を求める。そして、画像処理回路4は、求めた露出設定の設定値の差(以下、露出差という)に関する情報をメモリ3に格納し、後述する撮影画像の現像処理に使用する。なお、画像処理回路4が、ヒストグラムに基づいて露出設定を決定する処理は公知の技術であるため、詳細な説明を省略するが、例えば、ヒストグラムのピークに対応する輝度値が適正な値になるように露出設定を行う処理などが考えられる。
Next, the operation flow in the starry sky shooting mode in this embodiment will be described.
FIG. 3 is a flowchart showing an example of processing in the starry sky shooting mode in the present embodiment.
In S100, the image processing circuit 4 determines the exposure setting for shooting and advances the process to S101.
FIG. 4A is a diagram illustrating an example of a histogram relating to the luminance of an image. In the histogram of FIG. 4A, the vertical axis represents frequency, and the horizontal axis represents a value based on an image signal.
As an exposure determination algorithm, a histogram of the brightness in the screen as shown in FIG. 4A is generated, taking into consideration that the high luminance area is not saturated and the low luminance area is not blacked out. Generally, the exposure setting is determined so as to balance the whole. However, in the case of a scene in which a dark starry sky region and a bright ground region are mixed as shown in FIG. 1, the shape of the histogram often has a clear contrast with little halftone. Therefore, when the user tries to adjust the entire brightness to the desired brightness using the imaging device, the starry sky region may be too dark and the star may not be noticeable, or the brightness of the ground region may be saturated. . Therefore, in the present embodiment, when shooting a starry sky scene with a contrast difference as shown in FIG. 1, the image processing circuit 4 includes a dark region (region A) indicating a starry sky region in FIG. A predetermined calculation is performed for each of the bright areas (area B) indicating the exposure setting. Then, the image processing circuit 4 stores information on the difference between the obtained setting values of the exposure setting (hereinafter referred to as exposure difference) in the memory 3 and uses the information for developing the captured image described later. Note that, since the image processing circuit 4 determines the exposure setting based on the histogram, which is a known technique, a detailed description thereof is omitted. For example, the luminance value corresponding to the peak of the histogram is an appropriate value. A process for setting the exposure can be considered.

ここで、図4の(B)は、露出設定の一例を示す図である。
例えば、画像処理回路4が上述の方法で図4の(B)に示すような露出設定を求めたとすると、露出設定Aと、露出設定Bとにおいて、3段分の露出差が存在することになる。ここでいう露出差の段とは、露光時間の1/(2の階乗)に基づくものである。例えば、露出設定Aの露光時間1sに対して、露出設定Bの露光時間が(1/2)sの場合は露出差が1段であり、(1/4)sの場合は露出差が2段であり、露光時間が(1/8)sの場合は露出差が3段である。したがって、画像処理回路4は、領域Aの星空領域と、領域Bの地上領域との両方においてユーザが所望する明るさで画像を生成するためには、3段分の露出差がある画像を生成すればよい。そして、画像処理回路4は、星空領域と、地上領域とを、それぞれ領域毎に合成するようにすればよい。
Here, FIG. 4B is a diagram illustrating an example of exposure setting.
For example, if the image processing circuit 4 obtains the exposure setting as shown in FIG. 4B by the above-described method, there is a three-stage exposure difference between the exposure setting A and the exposure setting B. Become. The stage of exposure difference here is based on 1 / (the factorial of 2) of the exposure time. For example, when the exposure time of exposure setting B is (1/2) s with respect to the exposure time 1 s of exposure setting A, the exposure difference is one level, and when (¼) s, the exposure difference is 2. If the exposure time is (1/8) s, the exposure difference is 3 steps. Therefore, the image processing circuit 4 generates an image having a three-stage exposure difference in order to generate an image with brightness desired by the user in both the starry sky region of the region A and the ground region of the region B. do it. Then, the image processing circuit 4 may synthesize the starry sky region and the ground region for each region.

図3の説明に戻る。
S101において、システム制御部5は、S100で決定された露出設定に従って撮影シーンを撮影する。ここで、画像処理回路4は、システム制御部5が図4の(B)における露出設定Aの条件で撮影した場合、飽和してしまった地上領域のデータを、図5等を用いて後述する画像処理で復元することはできない。そのため、システム制御部5は、露出設定Bの条件で撮影する。そして、画像処理回路4は、後述する画像処理の際に前述の露出差3段分のゲインアップを行って露出設定Aに相当する明るさの画像を生成する。ここでいうゲインアップとは、輝度を上げる処理のことである。なお、ここでは、システム制御部5が露出設定Bの条件で撮影し、画像処理回路4が露出差をデジタル信号処理によるゲインアップにより補正するものとしたが、デジタル信号処理によるゲインアップを行うとノイズも増加して星空領域の画質が劣化する。そのため、システム制御部5は、暗い側の露出設定Aを基準(±0)とし、ゲインアップを許容することができる予め定められた露出差(N段)の範囲内でアンダー画像を撮影するようにしてもよい。なお、撮像装置100は、操作部12等を介して受け付けたユーザの指示により、予め設定する上記の露出差(N段)を変更することができる。また、ここでいうアンダー画像とは、露出設定の基準(±0)に対して、−N段の露出差の露出設定で撮影された画像のことである。なお、Nは、自然数である。これにより、画像処理回路4は、予め定められた露出差(N段)の範囲内で明るい画像と、暗い画像との両方を生成することができる。即ち、ユーザは、星空領域の画質が劣化していない画像を得ることができるようになる。
Returning to the description of FIG.
In S101, the system control unit 5 captures a shooting scene according to the exposure setting determined in S100. Here, the image processing circuit 4 will be described later with reference to FIG. 5 and the like on the data of the ground area that has been saturated when the system control unit 5 has taken images under the condition of the exposure setting A in FIG. It cannot be restored by image processing. Therefore, the system control unit 5 captures images under the condition of exposure setting B. Then, the image processing circuit 4 generates an image having a brightness corresponding to the exposure setting A by performing a gain increase of the above-described three exposure differences during image processing to be described later. Here, gain-up refers to a process for increasing luminance. In this example, the system controller 5 captures images under the condition of exposure setting B, and the image processing circuit 4 corrects the exposure difference by increasing the gain by digital signal processing. However, when gain increase is performed by digital signal processing. Noise also increases and the image quality in the starry sky region deteriorates. For this reason, the system control unit 5 captures an under image within a predetermined exposure difference (N steps) range in which the dark side exposure setting A is set as a reference (± 0) and gain increase is allowed. It may be. Note that the imaging apparatus 100 can change the exposure difference (N steps) set in advance according to a user instruction received via the operation unit 12 or the like. The under image referred to here is an image taken with an exposure setting with an exposure difference of −N with respect to the exposure setting reference (± 0). N is a natural number. Thus, the image processing circuit 4 can generate both a bright image and a dark image within a predetermined exposure difference (N stages). That is, the user can obtain an image in which the image quality of the starry sky region is not deteriorated.

図3の説明に戻る。
S102において、画像処理回路4は、図5等を用いて後述する各種の画像処理を行う。より具体的にいうと、画像処理回路4は、S101で撮影された画像データを基に、明るさの異なる2種類の画像を生成し、生成した2種類の画像を後述する合成マップに従って合成する。
以下、S102の処理のうち、合成処理を含む本実施形態に特徴的な処理の詳細について、図5を用いて説明する。
図5は、S102における画像処理の一例を示すフローチャートである。
S200において、画像処理回路4は、図4のS101で撮影された未加工の画像データであるRAWデータを保持している。
S201において、画像処理回路4は、RAWデータからYUV画像等の画像1(第1の画像)を生成する画像処理1を行う。また、S202において、画像処理回路4は、RAWデータからYUV画像等の画像2(第2の画像)を生成する画像処理2を行う。なお、S201及びS202における処理は、画像生成処理の一例である。画像処理回路4がRAWデータからYUV画像等の画像データを生成する処理は、公知の技術であるため、詳細な説明を省略する。また、画像処理回路4が生成した画像1と、画像2との明るさの差は、上述のS100で求められメモリ3に格納された露出差に関する情報が示す露出差である。上述したように、画像処理回路4は、デジタル信号処理におけるゲインアップやガンマ変換等により輝度を変更することができる。
S203において、画像処理回路4は、S201の処理の結果として画像1を得る。S204において、画像処理回路4は、S202の処理の結果として画像2を得る。
Returning to the description of FIG.
In S <b> 102, the image processing circuit 4 performs various image processing described later with reference to FIG. 5 and the like. More specifically, the image processing circuit 4 generates two types of images with different brightnesses based on the image data captured in S101, and combines the generated two types of images according to a combination map described later. .
Hereinafter, the details of the processing characteristic of the present embodiment including the synthesis processing in the processing of S102 will be described with reference to FIG.
FIG. 5 is a flowchart illustrating an example of image processing in S102.
In S200, the image processing circuit 4 holds RAW data that is raw image data captured in S101 of FIG.
In step S <b> 201, the image processing circuit 4 performs image processing 1 for generating an image 1 (first image) such as a YUV image from RAW data. In S202, the image processing circuit 4 performs image processing 2 for generating an image 2 (second image) such as a YUV image from the RAW data. Note that the processing in S201 and S202 is an example of image generation processing. Since the process in which the image processing circuit 4 generates image data such as a YUV image from the RAW data is a known technique, detailed description thereof is omitted. Further, the difference in brightness between the image 1 generated by the image processing circuit 4 and the image 2 is an exposure difference indicated by the information on the exposure difference obtained in S100 and stored in the memory 3. As described above, the image processing circuit 4 can change the luminance by gain-up or gamma conversion in digital signal processing.
In S203, the image processing circuit 4 obtains an image 1 as a result of the processing in S201. In S204, the image processing circuit 4 obtains an image 2 as a result of the processing in S202.

S205からS207までの処理において、画像処理回路4は、明るさの異なる2枚の画像1及び画像2を合成するための合成マップを生成する。ここで、画像処理回路4は、合成マップをアンダー画像の画像1を元に、領域ごとの明るさに応じて画像1、画像2のどちらの画像を主として使用するべきかの合成マップを生成する。このとき、星空の領域については画像2の明るい画像を主として使用し、建物等の星空以外の被写体の領域については、画像1の暗い画像(アンダー画像)を主として使用するように合成マップを生成する。なお、S205からS207までの処理は、合成条件生成処理の一例である。
S205において、画像処理回路4は、予め定められた大きさまで画像1を縮小する。この際、画像処理回路4は、図7等を用いて後述する予め定められた変倍率Sで、合成マップ生成において、撮影された星空における星の影響をある程度少なくすることができる大きさまで、画像1を縮小する。なお、撮像装置100は、操作部12等を介して受け付けたユーザの指示により、予め設定する変倍率Sを変更することができる。S205の処理の詳細については、図6等を用いて後述する。
S206において、画像処理回路4は、S205で縮小された画像1を2値化する。以下、本実施形態における2値化処理について説明する。
画像処理回路4は、以下の式(1)及び式(2)に従い、2値化演算を行う。
・M(x、y)=1、Y(x、y)≧YTH ・・・・式(1)
・M(x、y)=0、Y(x、y)<YTH ・・・・式(2)
ここで、M(x、y)は、2値化処理の出力である。また、Y(x、y)は、座標(x、y)における輝度である。なお、Y(x、y)は、輝度情報の一例である。また、YTHは、座標(x、y)において予め定められた輝度の閾値である。なお、撮像装置100は、操作部12等を介して受け付けたユーザの指示により、輝度の閾値を変更することができる。また、撮像装置100は、画面全体の輝度の平均値等を輝度の閾値として設定するようにしてもよい。
S207において、画像処理回路4は、S205で2値化された画像1を元の大きさに拡大する。
In the processing from S205 to S207, the image processing circuit 4 generates a composite map for combining two images 1 and 2 having different brightness. Here, the image processing circuit 4 generates a composite map as to which of the image 1 and the image 2 should be mainly used based on the image 1 of the under image based on the brightness of each region. . At this time, the composite map is generated so that the bright image of the image 2 is mainly used for the starry sky region, and the dark image (under image) of the image 1 is mainly used for the subject region other than the starry sky such as a building. . Note that the processing from S205 to S207 is an example of the synthesis condition generation processing.
In S205, the image processing circuit 4 reduces the image 1 to a predetermined size. At this time, the image processing circuit 4 uses a predetermined scaling factor S, which will be described later with reference to FIG. 7 and the like, to a size that can reduce the influence of stars in the captured starry sky to some extent in the composite map generation. Reduce 1 Note that the imaging apparatus 100 can change the preset scaling factor S in accordance with a user instruction received via the operation unit 12 or the like. Details of the processing in S205 will be described later with reference to FIG.
In S206, the image processing circuit 4 binarizes the image 1 reduced in S205. Hereinafter, the binarization process in the present embodiment will be described.
The image processing circuit 4 performs a binarization operation according to the following formulas (1) and (2).
M (x, y) = 1, Y (x, y) ≧ Y TH ... Formula (1)
M (x, y) = 0, Y (x, y) <Y TH ... (2)
Here, M (x, y) is an output of the binarization process. Y (x, y) is the luminance at the coordinates (x, y). Y (x, y) is an example of luminance information. Y TH is a predetermined luminance threshold value at coordinates (x, y). Note that the imaging apparatus 100 can change the threshold value of the brightness according to a user instruction received via the operation unit 12 or the like. Further, the imaging apparatus 100 may set an average value of the luminance of the entire screen as a luminance threshold value.
In S207, the image processing circuit 4 enlarges the image 1 binarized in S205 to the original size.

以下、S205からS207までの処理の例について、図6を用いて説明する。
図6は、合成マップ生成処理の概念の一例を示す図である。
例えば、画像処理回路4は、図6の(A)のような画像を輝度の2値化によって合成マップに変換する場合、図6の(B)のように明るい地上領域と、暗い星空領域とを分離することができる。しかし、この場合、画像処理回路4は、明るい輝点である星も地上領域と同じラベルに分類してしまう。一方、画像処理回路4が、図6の(C)のように画像にLPF(Low Pass Filter)をかけてから変倍率Sで画像を縮小したとする。なお、LPFは、予め定められた閾値より小さい被写体画像を分離する分離手段の一例である。この場合、地上領域の建物のように予め定められた面積よりも大きい面積の明るい被写体は残るものの、星のように予め定められた面積よりも小さい面積の明るい被写体は消失する。そのため、画像処理回路4は、図6の(C)の縮小画像を2値化した2値化画像を元の大きさに拡大すると、図6の(D)のような合成マップを取得することができるようになる。
ここで、変倍率Sについて、図7を用いて説明する。
図7は、変倍率Sに関するテーブルの一例を示す図である。
画像処理回路4は、想定する撮影シーンにおける星領域の大きさから変倍率Sを予め決めることができる。画像中の星領域の大きさは、撮像装置100の焦点距離と、画像サイズ(画素数)とにより変動する。そのため、画像処理回路4は、図7の例に示されるような画像サイズと、焦点距離とのマトリクスによって想定する星の面積を決定することで、変倍率Sを決定するができる。図7の例の場合、画素数が1200万画素以上で、かつ、焦点距離が28mm以上の場合、画像処理回路4は、変倍率Sを0より大きく16分の1以下の倍率に決定する。なお、撮像装置100は、操作部12等を介して受け付けたユーザの指示により、図7に示されるようなテーブルを作成し、メモリ3等に格納しておくことができる。
Hereinafter, an example of processing from S205 to S207 will be described with reference to FIG.
FIG. 6 is a diagram illustrating an example of the concept of the composite map generation process.
For example, when the image processing circuit 4 converts an image as shown in FIG. 6A into a composite map by binarization of luminance, a bright ground area, a dark starry area as shown in FIG. Can be separated. However, in this case, the image processing circuit 4 classifies the star, which is a bright luminescent spot, into the same label as the ground area. On the other hand, it is assumed that the image processing circuit 4 reduces the image at a scaling factor S after applying an LPF (Low Pass Filter) to the image as shown in FIG. The LPF is an example of a separation unit that separates subject images that are smaller than a predetermined threshold. In this case, a bright subject having a larger area than a predetermined area remains like a building in the ground area, but a bright subject having a smaller area than the predetermined area such as a star disappears. Therefore, when the binarized image obtained by binarizing the reduced image in FIG. 6C is enlarged to the original size, the image processing circuit 4 acquires a composite map as illustrated in FIG. Will be able to.
Here, the scaling factor S will be described with reference to FIG.
FIG. 7 is a diagram illustrating an example of a table relating to the scaling factor S.
The image processing circuit 4 can predetermine the scaling factor S from the size of the star area in the assumed shooting scene. The size of the star region in the image varies depending on the focal length of the imaging apparatus 100 and the image size (number of pixels). Therefore, the image processing circuit 4 can determine the scaling factor S by determining the assumed star area based on the matrix of the image size and the focal length as shown in the example of FIG. In the case of the example in FIG. 7, when the number of pixels is 12 million pixels or more and the focal length is 28 mm or more, the image processing circuit 4 determines the scaling factor S to be a magnification greater than 0 and equal to or less than 1/16. Note that the imaging apparatus 100 can create a table as shown in FIG. 7 according to a user instruction received via the operation unit 12 or the like and store the table in the memory 3 or the like.

図5の説明に戻る。
S208において、画像処理回路4は、図6を用いて説明したように、S205からS207までの処理により生成した合成マップを用いて、画像1と、画像2とを合成する。
S209において、画像処理回路4は、S208の処理の結果として、画像1と、画像2とを合成した画像3を得る。即ち、ユーザは、星空領域と、地上領域との両方が所望の明るさに調整された画像を得ることができる。また、上述したように、画像処理回路4は、S205からS206までの処理において、画像を縮小してから2値化を行う。これにより、画像処理回路4は、画像を縮小しないで2値化演算を行った場合に比べて、2値化演算にかかる処理時間を短縮することができる。
以上、本実施形態によれば、撮像装置100は、露出段差の大きい夜景や星空を含む撮影シーンにおいてもユーザが所望する明るさの画像を生成することができる。
Returning to the description of FIG.
In S208, as described with reference to FIG. 6, the image processing circuit 4 combines the image 1 and the image 2 using the combination map generated by the processing from S205 to S207.
In S209, the image processing circuit 4 obtains an image 3 obtained by combining the image 1 and the image 2 as a result of the processing in S208. That is, the user can obtain an image in which both the starry sky region and the ground region are adjusted to a desired brightness. Further, as described above, the image processing circuit 4 performs binarization after reducing the image in the processing from S205 to S206. As a result, the image processing circuit 4 can reduce the processing time required for the binarization operation as compared to the case where the binarization operation is performed without reducing the image.
As described above, according to the present embodiment, the imaging apparatus 100 can generate an image having a brightness desired by the user even in a shooting scene including a night view or a starry sky with a large exposure level difference.

<実施形態2>
実施形態1では、撮像装置100が、一枚の撮影画像から異なる明るさの画像を2枚生成し、それらを合成マップに従って合成した。しかし、上述した図3のS100で決定した露出設定の設定値の差が大きくなるほど、撮像装置100がアンダー画像をデジタル信号処理によってゲインアップするとノイズが増幅することにより出力する画像の画質を劣化させる場合がある。
そこで、本実施形態では、撮像装置100が、S101の撮影処理の際に異なる露出設定の画像を2枚撮影し、それらを合成マップに従って合成する。その場合におけるS102の画像処理の詳細について、図8を用いて説明する。なお、本実施形態では、撮影画像が2枚である場合を例に説明するが、撮影画像が3枚以上の場合であっても以下に説明する処理を同様に適用することができる。
図8は、S102における画像処理の一例を示すフローチャートである。
より具体的にいうと、図8のフローチャートは、上述した図5のフローチャートの処理と同様に、撮像装置100が明るさの異なる2枚の画像を合成し、画面全体の露出がユーザの所望する露出となるような画像を生成する処理に関するフローチャートである。
<Embodiment 2>
In the first embodiment, the imaging apparatus 100 generates two images with different brightness from one photographed image, and combines them according to the combination map. However, as the difference in the setting value of the exposure setting determined in S100 of FIG. 3 increases, the image quality of the output image deteriorates due to noise amplification when the imaging apparatus 100 gains up the under image by digital signal processing. There is a case.
Therefore, in the present embodiment, the image capturing apparatus 100 captures two images with different exposure settings during the capturing process of S101, and combines them according to the composite map. Details of the image processing in S102 in that case will be described with reference to FIG. In the present embodiment, a case where there are two captured images will be described as an example. However, even when there are three or more captured images, the processing described below can be similarly applied.
FIG. 8 is a flowchart illustrating an example of image processing in S102.
More specifically, in the flowchart of FIG. 8, similar to the processing of the flowchart of FIG. 5 described above, the imaging apparatus 100 combines two images with different brightness, and the exposure of the entire screen is desired by the user. It is a flowchart regarding the process which produces | generates the image which becomes exposure.

S300において、画像処理回路4は、撮影された未加工の画像データであるRAWデータ(RAW1)を保持している。同様に、S301において、画像処理回路4は、撮影された未加工の画像データであるRAWデータ(RAW2)を保持している。ここで、RAW1と、RAW2とは、それぞれ露出設定の異なる2枚の撮影画像である。より具体的にいうと、RAW1は、図1における地上領域(高輝度領域)に相当する明るさの領域に対して設定された露出条件で撮影された画像である。一方、RAW2は、図1における星空領域(低輝度領域)に相当する明るさの領域に対して設定された露出条件で撮影された画像である。
S302において、画像処理回路4は、RAW1からYUV画像等の画像1(第1の画像)を生成する画像処理1を行う。また、S303において、画像処理回路4は、RAW2からYUV画像等の画像2(第2の画像)を生成する画像処理2を行う。なお、S302及びS303における処理は、画像生成処理の一例である。
S304において、画像処理回路4は、S302の処理の結果として画像1を得る。S305において、画像処理回路4は、S303の処理の結果として画像2を得る。
S306からS308までの処理は、実施形態1で説明した図5のS205からS207までの処理と同様であるため、説明を省略する。なお、S306からS308までの処理は、合成条件生成処理の一例である。
In S300, the image processing circuit 4 holds RAW data (RAW1) that is captured raw image data. Similarly, in S301, the image processing circuit 4 holds RAW data (RAW2) that is captured raw image data. Here, RAW1 and RAW2 are two captured images with different exposure settings. More specifically, RAW1 is an image taken under an exposure condition set for a brightness area corresponding to the ground area (high luminance area) in FIG. On the other hand, RAW2 is an image taken under an exposure condition set for a brightness area corresponding to the starry sky area (low luminance area) in FIG.
In S302, the image processing circuit 4 performs image processing 1 for generating an image 1 (first image) such as a YUV image from the RAW1. In S303, the image processing circuit 4 performs image processing 2 for generating an image 2 (second image) such as a YUV image from the RAW2. Note that the processing in S302 and S303 is an example of image generation processing.
In S304, the image processing circuit 4 obtains an image 1 as a result of the processing in S302. In S305, the image processing circuit 4 obtains an image 2 as a result of the processing in S303.
The processing from S306 to S308 is the same as the processing from S205 to S207 of FIG. Note that the processing from S306 to S308 is an example of a synthesis condition generation process.

S309において、画像処理回路4は、画像の位置合わせ情報を取得する。ユーザは、撮像装置100を用いて露出の異なる2枚の画像を撮影する際、特に手持ちでの撮影を行う場合、両者の撮影タイミングの違いによって画像間のずれ、即ち、撮影位置の差異が生じる。そのため、画像処理回路4は、S309で取得した位置合わせ情報から画像間の位置のずれ量を推定し、図9に示されるように、ずれを補正して両画像を合成する必要がある。なお、図9は、ずれを補正した場合の合成マップの一例を示す図である。位置合わせ手法としては、徐々にずらしながら対象画像間の差分の総和が最小となるように位置合わせをする方法がある。また、その他、撮像装置100が有する加速度センサ等を用いて、撮影した際の撮像装置100の動き量を測定し、その逆補正を行う方法等もある。
S310において、画像処理回路4は、図9の(A)ように位置合わせを考慮しつつ、画像1と、画像2とを合成マップに従って合成する。
S311において、画像処理回路4は、図9の(B)の斜線領域に相当する画像を切り出した画像である画像3を出力する。この際、画像処理回路4は、S306からS308までの処理で求めた合成マップも図9の(B)の斜線領域に相当する領域を使用して合成する。
以上、本実施形態によれば、撮像装置100は、ゲインアップによる画質の劣化を生じさせることなく、露出段差の大きい夜景や星空を含む撮影シーンにおいてもユーザが所望する明るさの画像を生成することができる。
In step S309, the image processing circuit 4 acquires image registration information. When a user captures two images with different exposures using the imaging device 100, particularly when handheld shooting is performed, a difference between the images, that is, a difference in shooting position occurs due to the difference in shooting timing between the two. . Therefore, the image processing circuit 4 needs to estimate the amount of positional deviation between the images from the alignment information acquired in S309, and correct the deviation to synthesize both images as shown in FIG. FIG. 9 is a diagram illustrating an example of a composite map when the deviation is corrected. As an alignment method, there is a method of performing alignment so that the total sum of differences between target images is minimized while gradually shifting. In addition, there is a method of measuring the amount of movement of the imaging apparatus 100 when taking an image using an acceleration sensor or the like of the imaging apparatus 100 and performing reverse correction thereof.
In S310, the image processing circuit 4 synthesizes the image 1 and the image 2 according to the synthesis map while considering the alignment as shown in FIG.
In step S311, the image processing circuit 4 outputs an image 3 that is an image obtained by cutting out an image corresponding to the hatched area in FIG. At this time, the image processing circuit 4 also synthesizes the synthesis map obtained by the processing from S306 to S308 using an area corresponding to the hatched area in FIG.
As described above, according to the present embodiment, the imaging apparatus 100 generates an image having a brightness desired by the user even in a shooting scene including a night view or a starry sky with a large exposure step without causing deterioration in image quality due to gain increase. be able to.

<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other embodiments>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

以上、上述した各実施形態によれば、適切な明るさで被写体を撮影する技術を提供することができる。   As described above, according to each embodiment described above, it is possible to provide a technique for photographing a subject with appropriate brightness.

以上、本発明の好ましい形態について詳述したが、本実施形態は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiment of the present invention has been described in detail above, but the present embodiment is not limited to the specific embodiment, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.

Claims (15)

輝度の異なる複数の画像を生成する画像生成手段と、
前記画像生成手段により生成された第1の画像の輝度から、前記画像生成手段により生成された複数の画像の合成に係る合成条件を生成する合成条件生成手段と、
前記合成条件生成手段により生成された合成条件に基づいて、前記複数の画像を合成する合成手段と、
を有し、
前記合成条件生成手段は、前記第1の画像に含まれる被写体画像のうち予め定められた閾値よりも小さい面積の被写体画像が、被写体画像の大きさに応じて前記第1の画像から被写体画像を分離する分離手段により分離されるまで前記第1の画像を縮小し、縮小された前記第1の画像を用いて前記合成条件を生成する撮像装置。
Image generating means for generating a plurality of images having different luminances;
Synthesis condition generation means for generating a synthesis condition relating to the synthesis of a plurality of images generated by the image generation means from the luminance of the first image generated by the image generation means;
A combining unit that combines the plurality of images based on the combining condition generated by the combining condition generating unit;
Have
The synthesizing condition generation unit generates a subject image having an area smaller than a predetermined threshold among subject images included in the first image from the first image according to the size of the subject image. An imaging apparatus that reduces the first image until it is separated by a separating unit that separates, and generates the synthesis condition using the reduced first image.
前記画像生成手段は、撮影シーンに含まれる予め定められた閾値よりも輝度が高い高輝度領域における露出設定の設定値と、予め定められた閾値よりも輝度が低い低輝度領域における露出設定の設定値との差に基づいて、前記複数の画像を生成する請求項1記載の撮像装置。   The image generation means includes a setting value for an exposure setting in a high-luminance area having a luminance higher than a predetermined threshold included in the photographic scene, and a setting for an exposure setting in a low-luminance area having a luminance lower than the predetermined threshold. The imaging apparatus according to claim 1, wherein the plurality of images are generated based on a difference from the value. 前記画像生成手段は、前記差に基づく輝度の差が、第1の画像の輝度と、前記第1の画像よりも輝度が高い第2の画像の輝度との差になるように、前記第1の画像と、前記第2の画像とを生成する請求項2記載の撮像装置。   The image generation means is configured to cause the difference in luminance based on the difference to be a difference between the luminance of the first image and the luminance of a second image having a higher luminance than the first image. The imaging apparatus according to claim 2, wherein the image and the second image are generated. 前記画像生成手段は、前記差に基づく輝度の差が予め定められた閾値よりも大きくなる場合、前記閾値が、前記第1の画像の輝度と、前記第2の画像の輝度との差になるように、前記第1の画像と、前記第2の画像とを生成する請求項3記載の撮像装置。   When the difference in luminance based on the difference becomes larger than a predetermined threshold, the threshold is a difference between the luminance of the first image and the luminance of the second image. The imaging device according to claim 3, wherein the first image and the second image are generated as described above. 前記画像生成手段は、予め定められた閾値よりも高い輝度の高輝度領域に係る露出設定で撮影された画像から前記第1の画像を生成し、予め定められた閾値よりも低い輝度の低輝度領域に係る露出設定で撮影された画像から第2の画像を生成する請求項1記載の撮像装置。   The image generation means generates the first image from an image shot with an exposure setting relating to a high-luminance region having a luminance higher than a predetermined threshold, and has a low luminance with a luminance lower than the predetermined threshold The imaging apparatus according to claim 1, wherein a second image is generated from an image captured with an exposure setting relating to a region. 前記合成条件生成手段は、前記第1の画像に含まれる被写体画像を面積に応じて分離して2値化した画像を前記合成条件として生成する請求項3乃至5何れか1項記載の撮像装置。   The imaging apparatus according to claim 3, wherein the synthesis condition generation unit generates, as the synthesis condition, an image obtained by separating a subject image included in the first image according to an area and binarizing the image. . 前記合成条件生成手段は、
前記縮小された縮小画像の輝度情報に基づいて、前記縮小画像を2値化する2値化手段と、
前記2値化手段により2値化された2値化画像を元の大きさに拡大する拡大手段と、
を有し、
前記拡大手段により拡大された画像を合成条件として生成する請求項1乃至6何れか1項記載の撮像装置。
The synthesis condition generation means includes
Binarization means for binarizing the reduced image based on the luminance information of the reduced image.
Enlarging means for enlarging the binarized image binarized by the binarizing means to the original size;
Have
The imaging apparatus according to claim 1, wherein an image enlarged by the enlargement unit is generated as a synthesis condition.
画像を生成する撮像装置であって、
輝度の異なる複数の画像を生成する画像生成手段と、
前記画像生成手段により生成された第1の画像の輝度から、前記画像生成手段により生成された複数の画像の合成に係る合成条件を生成する合成条件生成手段と、
前記合成条件生成手段により生成された合成条件に基づいて、前記複数の画像を合成する合成手段と、
を有し、
前記合成条件生成手段は、前記撮像装置の画素数と、焦点距離との組み合わせに対して予め設定された倍率で前記第1の画像を縮小し、縮小された前記第1の画像を用いて前記合成条件を生成する撮像装置。
An imaging device for generating an image,
Image generating means for generating a plurality of images having different luminances;
Synthesis condition generation means for generating a synthesis condition relating to the synthesis of a plurality of images generated by the image generation means from the luminance of the first image generated by the image generation means;
A combining unit that combines the plurality of images based on the combining condition generated by the combining condition generating unit;
Have
The synthesis condition generation unit reduces the first image at a magnification set in advance with respect to a combination of the number of pixels of the imaging device and a focal length, and uses the reduced first image. An imaging device that generates a synthesis condition.
前記縮小された縮小画像は、前記撮像装置の画素数が1200万画素以上で、かつ、焦点距離が28mm以上の場合、前記第1の画像を0より大きく16分の1以下の倍率で縮小された画像である請求項8記載の撮像装置。   When the number of pixels of the imaging device is 12 million pixels or more and the focal length is 28 mm or more, the reduced image is reduced from the first image at a magnification greater than 0 and 1/16. The imaging device according to claim 8, wherein the imaging device is an image. 前記合成手段は、前記画像生成手段が複数の撮影画像から輝度の異なる複数の画像を生成する場合、前記合成条件に基づいて前記複数の画像を合成する際に、前記撮影画像に含まれる位置合わせ情報に基づいて前記複数の画像が重なる領域を合成する請求項1乃至9何れか1項記載の撮像装置。   In the case where the image generating unit generates a plurality of images having different luminances from a plurality of captured images, the combining unit includes a registration included in the captured image when combining the plurality of images based on the combining condition. The imaging device according to any one of claims 1 to 9, wherein a region where the plurality of images overlap is synthesized based on information. 前記画像生成手段は、夜景を撮影する撮影モードの場合、輝度の異なる複数の画像を生成する請求項1乃至10何れか1項記載の撮像装置。   The imaging device according to any one of claims 1 to 10, wherein the image generation unit generates a plurality of images having different luminances in a shooting mode for shooting a night scene. 撮像装置が実行する情報処理方法であって、
輝度の異なる複数の画像を生成する画像生成ステップと、
前記画像生成ステップにより生成された第1の画像の輝度から、前記画像生成ステップにより生成された複数の画像の合成に係る合成条件を生成する合成条件生成ステップと、
前記合成条件生成ステップにより生成された合成条件に基づいて、前記複数の画像を合成する合成ステップと、
を含み、
前記合成条件生成ステップでは、前記第1の画像に含まれる被写体画像のうち予め定められた閾値よりも小さい面積の被写体画像が、被写体画像の大きさに応じて前記第1の画像から被写体画像を分離する分離手段により分離されるサイズまで前記第1の画像を縮小し、縮小された前記第1の画像を用いて前記合成条件を生成する情報処理方法。
An information processing method executed by an imaging apparatus,
An image generation step for generating a plurality of images having different luminances;
A synthesis condition generation step for generating a synthesis condition relating to the synthesis of the plurality of images generated by the image generation step from the luminance of the first image generated by the image generation step;
A synthesis step for synthesizing the plurality of images based on the synthesis condition generated by the synthesis condition generation step;
Including
In the synthesis condition generation step, a subject image having an area smaller than a predetermined threshold among subject images included in the first image is extracted from the first image according to the size of the subject image. An information processing method for reducing the first image to a size separated by a separating means for separating, and generating the synthesis condition using the reduced first image.
撮像装置が実行する情報処理方法であって、
輝度の異なる複数の画像を生成する画像生成ステップと、
前記画像生成ステップにより生成された第1の画像の輝度から、前記画像生成ステップにより生成された複数の画像の合成に係る合成条件を生成する合成条件生成ステップと、
前記合成条件生成ステップにより生成された合成条件に基づいて、前記複数の画像を合成する合成ステップと、
を含み、
前記合成条件生成ステップでは、前記撮像装置の画素数と、焦点距離との組み合わせに対して予め設定された倍率で前記第1の画像を縮小し、縮小された前記第1の画像を用いて前記合成条件を生成する情報処理方法。
An information processing method executed by an imaging apparatus,
An image generation step for generating a plurality of images having different luminances;
A synthesis condition generation step for generating a synthesis condition relating to the synthesis of the plurality of images generated by the image generation step from the luminance of the first image generated by the image generation step;
A synthesis step for synthesizing the plurality of images based on the synthesis condition generated by the synthesis condition generation step;
Including
In the synthesis condition generation step, the first image is reduced at a magnification set in advance with respect to a combination of the number of pixels of the imaging device and a focal length, and the reduced first image is used to reduce the first image. An information processing method for generating a synthesis condition.
コンピュータに、
輝度の異なる複数の画像を生成する画像生成ステップと、
前記画像生成ステップにより生成された第1の画像の輝度から、前記画像生成ステップにより生成された複数の画像の合成に係る合成条件を生成する合成条件生成ステップと、
前記合成条件生成ステップにより生成された合成条件に基づいて、前記複数の画像を合成する合成ステップと、
を実行させ、
前記合成条件生成ステップでは、前記第1の画像に含まれる被写体画像のうち予め定められた閾値よりも小さい面積の被写体画像が、被写体画像の大きさに応じて前記第1の画像から被写体画像を分離する分離手段により分離されるサイズまで前記第1の画像を縮小し、縮小された前記第1の画像を用いて前記合成条件を生成するプログラム。
On the computer,
An image generation step for generating a plurality of images having different luminances;
A synthesis condition generation step for generating a synthesis condition relating to the synthesis of the plurality of images generated by the image generation step from the luminance of the first image generated by the image generation step;
A synthesis step for synthesizing the plurality of images based on the synthesis condition generated by the synthesis condition generation step;
And execute
In the synthesis condition generation step, a subject image having an area smaller than a predetermined threshold among subject images included in the first image is extracted from the first image according to the size of the subject image. A program for reducing the first image to a size separated by a separating means for separating, and generating the synthesis condition using the reduced first image.
コンピュータに、
輝度の異なる複数の画像を生成する画像生成ステップと、
前記画像生成ステップにより生成された第1の画像の輝度から、前記画像生成ステップにより生成された複数の画像の合成に係る合成条件を生成する合成条件生成ステップと、
前記合成条件生成ステップにより生成された合成条件に基づいて、前記複数の画像を合成する合成ステップと、
を実行させ、
前記合成条件生成ステップでは、前記コンピュータの画素数と、焦点距離との組み合わせに対して予め設定された倍率で前記第1の画像を縮小し、縮小された前記第1の画像を用いて前記合成条件を生成するプログラム。
On the computer,
An image generation step for generating a plurality of images having different luminances;
A synthesis condition generation step for generating a synthesis condition relating to the synthesis of the plurality of images generated by the image generation step from the luminance of the first image generated by the image generation step;
A synthesis step for synthesizing the plurality of images based on the synthesis condition generated by the synthesis condition generation step;
And execute
In the synthesis condition generation step, the first image is reduced at a magnification set in advance with respect to a combination of the number of pixels of the computer and a focal length, and the synthesis is performed using the reduced first image. A program that generates conditions.
JP2013171650A 2013-08-21 2013-08-21 Imaging apparatus, information processing method, and program Expired - Fee Related JP6157274B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013171650A JP6157274B2 (en) 2013-08-21 2013-08-21 Imaging apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013171650A JP6157274B2 (en) 2013-08-21 2013-08-21 Imaging apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2015041869A JP2015041869A (en) 2015-03-02
JP6157274B2 true JP6157274B2 (en) 2017-07-05

Family

ID=52695802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013171650A Expired - Fee Related JP6157274B2 (en) 2013-08-21 2013-08-21 Imaging apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP6157274B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1308219C (en) * 2002-05-17 2007-04-04 三菱电机株式会社 Automatic operation unit of man conveyor

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6726324B1 (en) * 2019-01-17 2020-07-22 オリンパス株式会社 Imaging device, image synthesizing method, and image synthesizing program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4163353B2 (en) * 1998-12-03 2008-10-08 オリンパス株式会社 Image processing device
JP2003087645A (en) * 2001-09-07 2003-03-20 Olympus Optical Co Ltd Digital camera
JP2004048445A (en) * 2002-07-12 2004-02-12 Fuji Photo Film Co Ltd Method and apparatus for compositing image
KR100843087B1 (en) * 2006-09-06 2008-07-02 삼성전자주식회사 A image generation apparatus and method for the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1308219C (en) * 2002-05-17 2007-04-04 三菱电机株式会社 Automatic operation unit of man conveyor

Also Published As

Publication number Publication date
JP2015041869A (en) 2015-03-02

Similar Documents

Publication Publication Date Title
JP6659162B2 (en) Imaging device, imaging device control method, and program
KR20120085077A (en) Image process method and apparatus
JP2009533956A (en) Adjustable extinction filter system for dynamic range compression from scene to imaging sensor
US20170134634A1 (en) Photographing apparatus, method of controlling the same, and computer-readable recording medium
US20110187900A1 (en) Digital image processing apparatus, an image processing method, and a recording medium storing the image processing method
JP2010074813A (en) Imaging apparatus and imaging method
JP2012010048A (en) Image signal processing device
WO2020029679A1 (en) Control method and apparatus, imaging device, electronic device and readable storage medium
JP4999871B2 (en) Imaging apparatus and control method thereof
JP6108680B2 (en) Imaging apparatus, control method therefor, program, and storage medium
WO2019124289A1 (en) Device, control method, and storage medium
JP2014179920A (en) Imaging apparatus, control method thereof, program, and storage medium
WO2014188647A1 (en) Image adjustment device, image adjustment method, image adjustment program, and image capture device
JP2009200743A (en) Image processor, image processing method, image processing program and imaging apparatus
JP6157274B2 (en) Imaging apparatus, information processing method, and program
EP4199528A1 (en) Image processing apparatus, image capture apparatus, and image processing method
JP4934617B2 (en) Imaging apparatus and imaging method
WO2015129479A1 (en) Imaging device and method, and program
JP5335964B2 (en) Imaging apparatus and control method thereof
JP2012124652A (en) Imaging apparatus and image processing method
JP7442989B2 (en) Imaging device, control method for the imaging device, and program
JP2015023514A (en) Information processing apparatus, imaging apparatus, control method and program
JP2015050733A (en) Exposure control apparatus, exposure control method, control program, and imaging apparatus
JP2006157342A (en) Imaging apparatus
JP2022083147A (en) Imaging apparatus, imaging method, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170606

R151 Written notification of patent or utility model registration

Ref document number: 6157274

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees