JP2010219741A - Imaging apparatus and image processor - Google Patents

Imaging apparatus and image processor Download PDF

Info

Publication number
JP2010219741A
JP2010219741A JP2009062641A JP2009062641A JP2010219741A JP 2010219741 A JP2010219741 A JP 2010219741A JP 2009062641 A JP2009062641 A JP 2009062641A JP 2009062641 A JP2009062641 A JP 2009062641A JP 2010219741 A JP2010219741 A JP 2010219741A
Authority
JP
Japan
Prior art keywords
image
division information
aperture
imaging
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009062641A
Other languages
Japanese (ja)
Other versions
JP5396940B2 (en
Inventor
Takashi Nishi
岳志 西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009062641A priority Critical patent/JP5396940B2/en
Publication of JP2010219741A publication Critical patent/JP2010219741A/en
Application granted granted Critical
Publication of JP5396940B2 publication Critical patent/JP5396940B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of easily obtaining the area division information of images. <P>SOLUTION: The imaging apparatus includes an imaging element 11 for picking up an object image through a photographing optical system 1, a control means 24 for making the imaging element 11 pick up the images of a plurality of frames while changing the aperture 2 of the photographing optical system 1, and a division information generation means 24 for generating division information for dividing the picked up image into a plurality of areas on the basis of the images of the plurality of frames. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮像装置、画像処理装置に関する。   The present invention relates to an imaging device and an image processing device.

画像を構成する画素について、画面に対して垂直な方向の位置を表す奥行き情報(デプスマップ)が知られている(特許文献1参照)。   Depth information (depth map) representing a position in a direction perpendicular to the screen is known for pixels constituting an image (see Patent Document 1).

特開2008−141666号公報JP 2008-141666 A

特許文献1では、複数のカメラでそれぞれ取得された画像を画像処理することによってデプスマップ情報(画像の領域分割情報)を取得するので、複数のカメラが必要で演算処理が複雑という問題があった。   In Patent Document 1, depth map information (image area division information) is acquired by performing image processing on images acquired respectively by a plurality of cameras, and thus there is a problem that a plurality of cameras are required and the calculation processing is complicated. .

本発明による撮像装置は、撮影光学系を介して被写体像を撮像する撮像素子と、撮影光学系の絞りを変えながら撮像素子に複数コマの画像を撮像させる制御手段と、複数コマの画像に基づいて撮像画像を複数の領域に分割するための分割情報を生成する分割情報生成手段とを備えることを特徴とする。
本発明による画像処理装置は、撮影光学系を介して被写体像を撮像する撮像素子で本画像を撮像し、撮影光学系の絞りを変えながら撮像素子で複数コマの副画像を撮像し、複数コマの副画像に基づいて本画像を複数の領域に分割するための分割情報を生成し、分割情報に基づいて、本画像に対して複数の領域単位で所定の画像処理を行うことを特徴とする。
An image pickup apparatus according to the present invention is based on an image pickup device that picks up a subject image via a photographing optical system, a control unit that causes the image pickup device to pick up a plurality of frames while changing a diaphragm of the photographing optical system, and a plurality of frames. And division information generating means for generating division information for dividing the captured image into a plurality of regions.
An image processing apparatus according to the present invention captures a main image with an image sensor that captures a subject image via a photographic optical system, captures a plurality of sub-images with the image sensor while changing the aperture of the photographic optical system, Division information for dividing the main image into a plurality of regions is generated based on the sub-images, and predetermined image processing is performed on the main image in units of a plurality of regions based on the division information. .

本発明によれば、画像の領域分割情報を簡単に得ることができる。   According to the present invention, it is possible to easily obtain area division information of an image.

本発明の一実施の形態による電子カメラの要部構成を説明する図である。It is a figure explaining the principal part structure of the electronic camera by one embodiment of this invention. 撮影処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of imaging | photography process. デプスマップ用取得画像を例示する図である。It is a figure which illustrates the acquisition image for depth maps. デプスマップ用取得画像を例示する図である。It is a figure which illustrates the acquisition image for depth maps. デプスマップ用取得画像を例示する図である。It is a figure which illustrates the acquisition image for depth maps. デプスマップ用取得画像を例示する図である。It is a figure which illustrates the acquisition image for depth maps. デプスマップ用取得画像を例示する図である。It is a figure which illustrates the acquisition image for depth maps. デプスマップ用取得画像を例示する図である。It is a figure which illustrates the acquisition image for depth maps. デプスマップ用取得画像を例示する図である。It is a figure which illustrates the acquisition image for depth maps. デプスマップ用取得画像を例示する図である。It is a figure which illustrates the acquisition image for depth maps. デプスマップ用取得画像を例示する図である。It is a figure which illustrates the acquisition image for depth maps. デプスマップ用取得画像を例示する図である。It is a figure which illustrates the acquisition image for depth maps. デプスマップ画像を例示する図である。It is a figure which illustrates a depth map image. デプスマップ情報生成処理の詳細について説明するフローチャートである。It is a flowchart explaining the detail of a depth map information generation process. デプスマップ情報テーブルを例示する図である。It is a figure which illustrates a depth map information table. コンピュータ装置を例示する図である。It is a figure which illustrates a computer apparatus. 画像処理プログラムの一例を説明するフローチャートである。It is a flowchart explaining an example of an image processing program.

以下、図面を参照して本発明を実施するための形態について説明する。図1は、本発明の一実施の形態による電子カメラの要部構成を説明する図である。図1において、カメラ本体100に対して着脱可能に構成されるレンズ鏡筒50が装着されている。また、カメラ本体100の背面には表示部(不図示)が設けられる。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a diagram for explaining a main configuration of an electronic camera according to an embodiment of the present invention. In FIG. 1, a lens barrel 50 configured to be detachable from the camera body 100 is attached. A display unit (not shown) is provided on the back of the camera body 100.

被写体からの光は、レンズ鏡筒50の撮影光学系1および絞り2を介してカメラ本体100へ入射される。カメラ本体100に入射した被写体光は、レリーズ前は破線で示すように位置するクイックリターンミラー(以下メインミラーと呼ぶ)3で上方のファインダー部へ導かれて拡散スクリーン6に結像する。また、カメラ本体100に入射した被写体光の一部はサブミラー4で下方へ反射され、測距素子5にも入射する。測距素子5は、レンズ鏡筒50による焦点調節状態を検出する焦点検出処理において用いられる。   Light from the subject enters the camera body 100 via the photographing optical system 1 and the diaphragm 2 of the lens barrel 50. The subject light incident on the camera body 100 is guided to the upper finder by a quick return mirror (hereinafter referred to as a main mirror) 3 positioned as indicated by a broken line before being released, and forms an image on the diffusion screen 6. A part of the subject light incident on the camera body 100 is reflected downward by the sub mirror 4 and also enters the distance measuring element 5. The distance measuring element 5 is used in a focus detection process for detecting a focus adjustment state by the lens barrel 50.

拡散スクリーン6に結像した被写体光はさらに、コンデンサレンズ7を介してペンタプリズム8へ入射する。ペンタプリズム8は、入射された被写体光を接眼レンズ9へ導く。   The subject light imaged on the diffusion screen 6 further enters the pentaprism 8 via the condenser lens 7. The pentaprism 8 guides incident subject light to the eyepiece 9.

レリーズ後はメインミラー3が実線で示される位置へ回動し、被写体光はフォーカルプレーンシャッタ10を介して撮像素子11へ導かれ、撮像面上に被写体像を結ぶ。撮像素子11は、たとえば、画素に対応する複数の電荷蓄積型の光電変換素子を備えたCMOSイメージセンサなどによって構成される。撮像素子11は、撮像面上の被写体像を撮像し、被写体像の明るさに応じた光電変換信号を出力する。   After the release, the main mirror 3 is rotated to the position indicated by the solid line, and the subject light is guided to the image sensor 11 via the focal plane shutter 10 to form a subject image on the imaging surface. The image sensor 11 is configured by, for example, a CMOS image sensor including a plurality of charge storage photoelectric conversion elements corresponding to pixels. The image sensor 11 captures a subject image on the imaging surface and outputs a photoelectric conversion signal corresponding to the brightness of the subject image.

制御部12は、画像処理部21、焦点検出演算部22、バッファメモリ23、CPU24、レンズ駆動制御部25、絞り駆動制御部26およびフラッシュメモリ27を含み、電子カメラが行う各処理を制御する。   The control unit 12 includes an image processing unit 21, a focus detection calculation unit 22, a buffer memory 23, a CPU 24, a lens drive control unit 25, an aperture drive control unit 26, and a flash memory 27, and controls each process performed by the electronic camera.

画像処理部21は、撮像素子11から出力される光電変換信号をディジタルデータに変換し、変換後のデータに対して所定の画像処理を施す。CPU24は、カメラ内各部から出力される信号を入力して所定の演算を行い、演算結果に基づく制御信号を各部へ出力する。   The image processing unit 21 converts the photoelectric conversion signal output from the image sensor 11 into digital data, and performs predetermined image processing on the converted data. The CPU 24 inputs a signal output from each part in the camera, performs a predetermined calculation, and outputs a control signal based on the calculation result to each part.

焦点検出演算部22は、測距素子5による検出信号を用いて公知の位相差方式の焦点検出演算を行う。この演算によって撮影光学系1による焦点調節状態(デフォーカス量)を求め、デフォーカス量に応じて撮影光学系1を構成するフォーカスレンズ(不図示)の移動方向および移動量を算出する。移動量情報は、レンズ駆動量制御部25へ送出される。   The focus detection calculation unit 22 performs a known phase difference type focus detection calculation using a detection signal from the distance measuring element 5. By this calculation, a focus adjustment state (defocus amount) by the photographing optical system 1 is obtained, and a moving direction and a moving amount of a focus lens (not shown) constituting the photographing optical system 1 are calculated according to the defocus amount. The movement amount information is sent to the lens driving amount control unit 25.

レンズ駆動量制御部25は、上記移動量情報に基づいてレンズ駆動機構13へ駆動信号を送る。駆動信号を受けたレンズ駆動機構13は、フォーカスレンズを光軸方向に進退移動させてフォーカス調節を行う。   The lens drive amount control unit 25 sends a drive signal to the lens drive mechanism 13 based on the movement amount information. Upon receiving the drive signal, the lens drive mechanism 13 adjusts the focus by moving the focus lens forward and backward in the optical axis direction.

CPU24は、焦点検出演算部22で検出されたデフォーカス量に応じて焦点検出対象となっている主要被写体までの被写体距離を求める。たとえば、デフォーカス量と被写体距離との関係を示すデータをあらかじめフラッシュメモリ27に格納しておくことにより、当該データを参照して被写体距離が求められる。   The CPU 24 obtains the subject distance to the main subject that is the focus detection target according to the defocus amount detected by the focus detection calculation unit 22. For example, by storing data indicating the relationship between the defocus amount and the subject distance in the flash memory 27 in advance, the subject distance is obtained with reference to the data.

バッファメモリ23は、画像処理部21による画像処理前、画像処理後および画像処理途中のデータを一時的に記憶する他、デプスマップ情報の生成処理時のデータを一時的に記憶したり、記録媒体(不図示)へ記録する前の画像ファイルを記憶したり、記録媒体から読み出した画像ファイルを記憶したりするために使用される。記録媒体はカメラ本体100に着脱自在に構成されており、半導体メモリを内蔵したメモリカード、またはハードディスクドライブなどで構成される。   The buffer memory 23 temporarily stores data before the image processing by the image processing unit 21, after the image processing, and during the image processing, as well as temporarily stores data at the time of the depth map information generation processing, It is used for storing an image file before recording to (not shown) or storing an image file read from a recording medium. The recording medium is configured to be detachable from the camera body 100, and is configured by a memory card incorporating a semiconductor memory, a hard disk drive, or the like.

フラッシュメモリ27は、CPU24が実行するプログラムや、CPU24が行う処理に必要なデータなどを格納する。フラッシュメモリ27が格納するプログラムやデータの内容は、CPU24からの指示によって追加、変更が可能に構成されている。   The flash memory 27 stores programs executed by the CPU 24, data necessary for processing performed by the CPU 24, and the like. The contents of the program and data stored in the flash memory 27 can be added or changed by an instruction from the CPU 24.

絞り駆動制御部26は、CPU24から送出される絞り2の開駆動または閉駆動の指示に基づいて絞り駆動機構14へ駆動信号を送る。該駆動信号を受けた絞り駆動機構14は、絞り2の口径を変更するように駆動して所定の絞り値に調節する。   The aperture drive control unit 26 sends a drive signal to the aperture drive mechanism 14 based on an instruction to open or close the aperture 2 sent from the CPU 24. Upon receipt of the drive signal, the aperture drive mechanism 14 is driven to change the aperture of the aperture 2 to adjust it to a predetermined aperture value.

操作部材15は、カメラ本体100の各種ボタンやスイッチ類を含み、モード切替やメニュー操作など、各操作部材の操作内容に応じた操作信号を制御部12へ出力する。後述する半押し操作信号は、レリーズボタンが通常ストロークの半分程度まで押し下げ操作されると出力され、半ストロークの押し下げ操作解除で出力が解除される。また、後述する全押し操作信号は、レリーズボタンが通常ストロークまで押し下げ操作されると出力され、通常ストロークの押し下げ操作が解除されると出力が解除される。   The operation member 15 includes various buttons and switches of the camera body 100, and outputs an operation signal corresponding to the operation content of each operation member such as mode switching and menu operation to the control unit 12. A half-press operation signal, which will be described later, is output when the release button is pressed down to about half of the normal stroke, and the output is canceled when the half-stroke press operation is canceled. Further, a full-press operation signal described later is output when the release button is pressed down to the normal stroke, and the output is canceled when the normal stroke press-down operation is canceled.

本実施形態の電子カメラは、撮像した画像のデプスマップ情報を生成する画像処理機能を備える。デプスマップ情報生成処理は、上述した制御部12によって行う。CPU24は、操作部材15を構成するメニュー操作スイッチからの操作信号が入力操作された場合、メニュー処理を行うためのメニュー操作画面を背面の表示部(不図示)に表示させる。そして、メニュー項目の中から「デプスマップ生成機能オン」項目の選択指示を示す操作信号が操作部材15から入力された場合には、デプスマップ情報生成機能をオンさせる。   The electronic camera according to the present embodiment includes an image processing function that generates depth map information of a captured image. The depth map information generation process is performed by the control unit 12 described above. When an operation signal from a menu operation switch constituting the operation member 15 is input, the CPU 24 displays a menu operation screen for performing menu processing on a display unit (not shown) on the back. When an operation signal indicating an instruction to select a “depth map generation function ON” item from the menu items is input from the operation member 15, the depth map information generation function is turned on.

デプスマップ情報生成機能がオンの場合のCPU24は、撮像後の画像データに対してデプスマップ情報生成処理を実行した上で、該画像データおよびデプスマップ情報を記録媒体(不図示)に記録させる。デプスマップ情報生成機能がオフの場合のCPU24は、撮像後の画像データに対してデプスマップ情報生成処理を実行することなしに、該画像データを記録媒体(不図示)に記録させる。実行するデプスマップ情報生成処理の詳細については後述する。   When the depth map information generation function is on, the CPU 24 executes depth map information generation processing on the image data after imaging, and then records the image data and depth map information on a recording medium (not shown). When the depth map information generation function is off, the CPU 24 records the image data on a recording medium (not shown) without executing the depth map information generation process on the image data after imaging. Details of the depth map information generation processing to be executed will be described later.

<撮影処理>
CPU24は、デプスマップ情報生成機能がオン状態で、電子カメラのレリーズボタンの半押し操作に応じて操作部材15から半押し操作信号が入力された場合に、図2のフローチャートによる撮影処理を起動させる。図2のステップS11において、CPU24は、測光処理を行ってステップS12へ進む。測光処理では、不図示の測光センサからの出力に基づいて撮像素子11における結像面の明るさが求められる。
<Shooting process>
When the depth map information generation function is turned on and the half-press operation signal is input from the operation member 15 in response to the half-press operation of the release button of the electronic camera, the CPU 24 activates the photographing process according to the flowchart of FIG. . In step S11 of FIG. 2, the CPU 24 performs photometry processing and proceeds to step S12. In the photometric process, the brightness of the imaging surface of the image sensor 11 is obtained based on an output from a photometric sensor (not shown).

ステップS12において、CPU24は、撮影条件の設定を行ってステップS13へ進む。具体的には、上記結像面の明るさや、あらかじめ設定されている撮影モード(たとえば、プログラムオート、シャッタ秒時優先オートなど)に基づいて、ISO感度、制御シャッタ秒時および制御絞り値を求める。   In step S12, the CPU 24 sets shooting conditions and proceeds to step S13. Specifically, the ISO sensitivity, the control shutter speed, and the control aperture value are obtained based on the brightness of the imaging surface and a preset shooting mode (for example, program auto, shutter speed priority auto, etc.). .

ステップS13において、CPU24は、AF(自動焦点調節)処理を行ってステップS14へ進む。ここで、フォーカス検出の対象とする領域(フォーカスエリア)は、たとえば、撮像される画面の略中央とする。   In step S13, the CPU 24 performs AF (automatic focus adjustment) processing and proceeds to step S14. Here, the focus detection target area (focus area) is, for example, approximately the center of the screen to be imaged.

ステップS14において、CPU24は撮影指示されたか否かを判定する。CPU24は、操作部材15から全押し操作信号が入力された場合にステップS14を肯定判定してステップS15へ進む。CPU24は、操作部材15から全押し操作信号が入力されない場合にはステップS14を否定判定し、ステップS25へ進む。   In step S14, the CPU 24 determines whether or not a shooting instruction has been issued. When the full pressing operation signal is input from the operation member 15, the CPU 24 makes a positive determination in step S14 and proceeds to step S15. When the full pressing operation signal is not input from the operation member 15, the CPU 24 makes a negative determination in step S14 and proceeds to step S25.

ステップS25において、CPU24は、タイムアップか否かを判定する。CPU24は、半押し起動後に何も操作されない状態における計時時間が所定時間(たとえば10秒)に達した場合にステップS25を肯定判定し、図2による処理を終了する。CPU24は、計時時間が所定時間に満たない場合にはステップS25を否定判定し、ステップS11へ戻って上述した処理を繰り返す。   In step S25, the CPU 24 determines whether the time is up. The CPU 24 makes an affirmative determination in step S25 when the time measured in a state where no operation is performed after the half-press activation has reached a predetermined time (for example, 10 seconds), and ends the process of FIG. If the measured time is less than the predetermined time, the CPU 24 makes a negative determination in step S25, returns to step S11, and repeats the above-described processing.

ステップS15において、CPU24は本撮像処理を行ってステップS16へ進む。これにより、メインミラー3がアップ駆動され、フォーカルプレーンシャッタ11が開駆動され、ステップS12で設定された撮影条件に基づいて撮像素子11が本撮像用の画像データを取得する。ステップS16において、CPU24は、撮像素子11から画像処理部21へ本撮像した画像データの読み出しを指示してステップS17へ進む。   In step S15, the CPU 24 performs the main imaging process and proceeds to step S16. As a result, the main mirror 3 is driven up, the focal plane shutter 11 is driven open, and the image sensor 11 acquires image data for main imaging based on the imaging conditions set in step S12. In step S <b> 16, the CPU 24 instructs the image processing unit 21 to read image data that has been actually captured from the image sensor 11, and proceeds to step S <b> 17.

ステップS17において、CPU24は、パンフォーカス設定をしてステップS18へ進む。具体的には、絞り駆動制御部26へ指示を送り、絞り2を最小口径絞りへ駆動させるとともに、後述するデプスマップ用の撮像におけるシャッタ秒時として、上記制御シャッタ秒時に替えてデプスマップ用撮像のためのシャッタ秒時(いわゆる電子シャッタによって制御する蓄積時間)をセットする。また、撮影光学系1のフォーカスレンズ(不図示)を至近被写体にピントが合う位置へ移動させる。   In step S17, the CPU 24 performs pan focus setting and proceeds to step S18. Specifically, an instruction is sent to the aperture drive control unit 26 to drive the aperture 2 to the minimum aperture stop, and the depth map imaging is replaced with the control shutter time as the shutter time in the depth map imaging described later. Set the shutter time for the above (accumulation time controlled by so-called electronic shutter). In addition, the focus lens (not shown) of the photographing optical system 1 is moved to a position where the closest subject is in focus.

ステップS18において、CPU24はデプスマップ用撮像処理を行ってステップS19へ進む。デプスマップ用撮像は、メインミラー3をアップ駆動した状態で絞り値を変えながら行う。撮像素子11は、後述するステップS21までの処理を繰り返すことにより、絞り値が異なるデプスマップ用の画像データをたとえば、30コマ/毎秒のペースで所定コマ分取得する。   In step S18, the CPU 24 performs depth map imaging processing and proceeds to step S19. The imaging for the depth map is performed while changing the aperture value while the main mirror 3 is driven up. The image sensor 11 repeats the processes up to step S21 described later, thereby acquiring image data for depth maps having different aperture values, for example, for a predetermined number of frames at a rate of 30 frames / second.

ステップS19において、CPU24は、撮像素子11から画像処理部21へデプスマップ用撮像した画像データの読み出しを指示してステップS20へ進む。読み出されたデプスマップ用の画像データは、バッファメモリ23内に一旦格納される。   In step S19, the CPU 24 instructs the image processing unit 21 to read out the image data captured for the depth map from the image sensor 11, and proceeds to step S20. The read image data for the depth map is temporarily stored in the buffer memory 23.

図3は、パンフォーカス設定によって取得されたデプスマップ用取得画像を例示する図である。デプスマップ用画像は、本画像に比べて小さなデータサイズに設定されている。図3の例では、電子カメラに1番近い物体0から1番遠い物体8まで、9個の被写体が写っている。電子カメラからの各物体までの距離は、d0<d1<d2<d3<d4<d5<d6<d7<d8である。ただし、dn(n=0,1…,8)は電子カメラから物体nまでの距離である。図3の場合、ほぼ全ての物体にピントが合う。   FIG. 3 is a diagram illustrating an acquired image for depth map acquired by pan focus setting. The depth map image has a smaller data size than the main image. In the example of FIG. 3, nine subjects are captured from the object 0 closest to the electronic camera to the object 8 farthest from the electronic camera. The distance from the electronic camera to each object is d0 <d1 <d2 <d3 <d4 <d5 <d6 <d7 <d8. However, dn (n = 0, 1,..., 8) is a distance from the electronic camera to the object n. In the case of FIG. 3, almost all objects are in focus.

ステップS20において、CPU24は絞り2を所定絞り値(たとえば開放絞り)まで開いているか否かを判定する。CPU24は、所定絞り値まで開いている場合にステップS20を肯定判定してステップS22へ進む。CPU24は、所定絞り値まで開いていない場合には、ステップS20を否定判定してステップS21へ進む。   In step S20, the CPU 24 determines whether or not the aperture 2 is opened to a predetermined aperture value (for example, an open aperture). If the CPU 24 is open to the predetermined aperture value, the CPU 24 makes a positive determination in step S20 and proceeds to step S22. If the CPU 24 has not opened to the predetermined aperture value, the CPU 24 makes a negative determination in step S20 and proceeds to step S21.

ステップS21において、CPU24は絞り2の口径を拡げ、次コマのデプスマップ用撮像のための設定をしてステップS18へ戻る。具体的には、CPU24から指示を受けた絞り駆動制御部26が所定絞り値まで該絞り2を駆動するとともに、次コマのデプスマップ用の撮像におけるシャッタ秒時を短くして絞り値の変更に応じた露出補正を行うことにより、コマ間の露出を揃えるように制御する。なお、絞り値(後述する絞りレベルに相当)の変更量(後述する絞りレベル差分に相当)は等間隔でなくてよく、絞り2の開放側ほど細かいステップで変更し、絞り2の最小側ほど広いステップで変更する。これにより、デプスマップの奥行き(後述する深さレベルに相当)を各コマで揃えることができる。   In step S21, the CPU 24 enlarges the aperture of the diaphragm 2, makes settings for imaging the depth map of the next frame, and returns to step S18. Specifically, the aperture drive control unit 26 that has received an instruction from the CPU 24 drives the aperture 2 to a predetermined aperture value, and also changes the aperture value by shortening the shutter time in the imaging for the depth map of the next frame. Control is performed so that the exposure between frames is aligned by performing exposure correction correspondingly. It should be noted that the amount of change in the aperture value (corresponding to the aperture level described later) (corresponding to the aperture level difference described later) does not have to be evenly spaced, and is changed in finer steps as the aperture 2 is opened, and closer to the minimum aperture 2 side. Change in wide steps. Thereby, the depth of the depth map (corresponding to a depth level described later) can be made uniform in each frame.

図4は、たとえば絞り2を最小絞りから所定値まで拡げた状態で取得されたデプスマップ用取得画像を例示する図である。図4の例では、電子カメラから最遠の物体8についてピントが外れている。   FIG. 4 is a diagram exemplifying a depth map acquisition image acquired in a state where, for example, the aperture 2 is expanded from the minimum aperture to a predetermined value. In the example of FIG. 4, the object 8 farthest from the electronic camera is out of focus.

図5は、絞り2をさらに拡げた状態で取得されたデプスマップ用取得画像を例示する図である。図5の例では、電子カメラから最遠の物体8および、該物体8に次いで遠い物体7についてピントが外れている。   FIG. 5 is a diagram illustrating a depth map acquired image acquired with the aperture 2 further expanded. In the example of FIG. 5, the object 8 farthest from the electronic camera and the object 7 farthest after the object 8 are out of focus.

図6〜図12も同様に、それぞれが所定の絞りレベル差ずつ異なる絞り値で取得されたデプスマップ用取得画像を例示する図である。図6〜図12では、絞り2を拡げるにつれて、撮影距離が遠い物体から順にピントが外れている。   Similarly, FIGS. 6 to 12 are diagrams illustrating depth map acquired images acquired at different aperture values by a predetermined aperture level difference. In FIGS. 6 to 12, as the diaphragm 2 is expanded, the object is gradually defocused from the object with the farther shooting distance.

ステップS22において、CPU24は、本画像データに所定の画像処理を施して画像ファイル化する指示を出してステップS23へ進む。ステップS23において、CPU24は、デプスマップ用の画像データに基づいてデプスマップ情報を生成してステップS24へ進む。デプスマップ情報生成処理の詳細については後述する。   In step S22, the CPU 24 issues an instruction to perform predetermined image processing on the main image data to form an image file, and proceeds to step S23. In step S23, the CPU 24 generates depth map information based on the image data for the depth map, and proceeds to step S24. Details of the depth map information generation processing will be described later.

ステップS24において、CPU24は、本画像データを含む画像ファイルとデプスマップ情報とを記録媒体に記録するように指示して図2による処理を終了する。   In step S24, the CPU 24 instructs to record the image file including the main image data and the depth map information on the recording medium, and ends the process shown in FIG.

<デプスマップ情報生成処理>
デプスマップ情報生成処理の詳細について、図14のフローチャートを参照して説明する。図14のステップS231において、CPU24は、バッファメモリ23内に格納されているデプスマップ用の画像データのうち、画像Pic(t)および画像Pic(t-1)を特定してステップS232へ進む。本例では、たとえば、最小口径絞り(絞りレベル8とする)から開放絞り(絞りレベル0とする)まで絞り値を9段階に変え、9コマのデプスマップ用の画像を得るものとする。この場合に、絞りレベル8(初期値)として最初に特定される画像は、図3に例示した画像Pic(8)、および図4に例示した画像Pic(7)である。
<Depth map information generation processing>
Details of the depth map information generation processing will be described with reference to the flowchart of FIG. In step S231 in FIG. 14, the CPU 24 identifies the image Pic (t) and the image Pic (t-1) among the image data for depth map stored in the buffer memory 23, and proceeds to step S232. In this example, for example, the aperture value is changed in 9 steps from the minimum aperture stop (with an aperture level of 8) to the open aperture (with an aperture level of 0), and a nine-frame depth map image is obtained. In this case, the images initially specified as the aperture level 8 (initial value) are the image Pic (8) illustrated in FIG. 3 and the image Pic (7) illustrated in FIG.

ステップS232において、CPU24は画像Pic(t)および画像Pic(t-1)に分割処理を行ってステップ233へ進む。具体的には、デプスマップ用の画像を、縦、横それぞれ10等分した10×10=100個のブロック(領域)に分割してステップS233へ進む。分割は、後述する減算処理をブロック単位で行うための便宜上のものである。   In step S232, the CPU 24 divides the image Pic (t) and the image Pic (t-1) and proceeds to step 233. Specifically, the depth map image is divided into 10 × 10 = 100 blocks (areas) divided into 10 equal parts vertically and horizontally, and the process proceeds to step S233. The division is for convenience to perform a subtraction process to be described later in units of blocks.

ステップS233において、CPU24は、分割処理後の画像Pic(t)および画像Pic(t-1)に対し、上記ブロック単位で減算処理を行ってステップS234へ進む。減算処理は、ブロック内の画素データに基づいて、たとえば、輪郭の鮮鋭度を示す情報(隣接差分データなど)をブロックごとに生成し、画像Pic(t)に関する鮮鋭度情報と画像Pic(t-1)に関する鮮鋭度情報との差をブロックごとに算出する。   In step S233, the CPU 24 performs subtraction processing on the block basis for the image Pic (t) and the image Pic (t-1) after the division processing, and proceeds to step S234. In the subtraction process, for example, information indicating the sharpness of the outline (adjacent difference data or the like) is generated for each block based on the pixel data in the block, and the sharpness information on the image Pic (t) and the image Pic (t− The difference from the sharpness information regarding 1) is calculated for each block.

ステップS234において、CPU24は、上記算出した差が所定差以上となるブロック(領域)を抽出してステップS235へ進む。たとえば、絞りレベル8の画像Pic(8):図3、および絞りレベル7の画像Pic(7):図4が特定されている場合は、差分処理によって物体8に対応するブロックにおいて所定差以上の差分が検出される。これは、図3および図4の間で物体8が合焦から非合焦へ変化することから、変化した物体8に対応するブロックが上記差として抽出されるためである。   In step S234, the CPU 24 extracts a block (region) in which the calculated difference is equal to or greater than a predetermined difference, and the process proceeds to step S235. For example, if the image Pic (8) at the aperture level 8: FIG. 3 and the image Pic (7) at the aperture level 7: FIG. 4 are specified, the difference corresponding to the block corresponding to the object 8 is more than a predetermined difference by the difference processing. A difference is detected. This is because the block corresponding to the changed object 8 is extracted as the difference because the object 8 changes from in-focus to out-of-focus between FIGS.

ステップS235において、CPU24は、画像Pic(0)まで終了したか否かを判定する。CPU24は、後述するステップS237の処理によって絞りレベル0まで終了している場合に、ステップS235を肯定判定してステップS236へ進む。CPU24は、後述するステップS237の処理によって絞りレベル0まで終了していない場合には、ステップS235を否定判定してステップS237へ進む。   In step S235, the CPU 24 determines whether or not the processing has ended up to the image Pic (0). The CPU 24 makes a positive determination in step S235 and proceeds to step S236 when the diaphragm level has been completed to 0 in the process of step S237 described later. If the CPU 24 has not finished reaching the aperture level 0 by the process of step S237 described later, the CPU 24 makes a negative determination in step S235 and proceeds to step S237.

ステップS237において、CPU24は、tの値から1を引いてステップS231へ戻る。ステップS231へ戻った場合は、減算後のtに基づく画像Pic(t)および画像Pic(t-1)について、上述した処理と同様の処理を繰り返す。   In step S237, the CPU 24 subtracts 1 from the value of t and returns to step S231. When returning to step S231, the same processing as the processing described above is repeated for the image Pic (t) and the image Pic (t-1) based on t after subtraction.

図4〜図12において、それぞれ物体nが合焦から非合焦へ変化した場合の非合焦をグレー表示で表している。グレー表示は、非合焦へ変化した物体nに対応するブロックが差分として抽出されたことを表す。   4 to 12, the out-of-focus state when the object n is changed from the in-focus state to the out-of-focus state is shown in gray. Gray display indicates that a block corresponding to the object n changed to out-of-focus is extracted as a difference.

図15は、デプスマップ情報の一例であるテーブルを説明する図である。たとえば、絞りレベル差分「8−7」は、絞りレベルが8の画像Pic(8):図3と、絞りレベルが7の画像Pic(7):図4との間で行う減算処理を表す。その隣の「反応エリア」は、当該減算処理で所定差以上の差分が現れた領域(物体8)を表す。さらに隣の「深さレベル」は、当該領域(物体8)の奥行き=深さレベル(8)を表す。深さレベルは、深いほど被写体距離が長く(最大8)、浅いほど被写体距離が近い(最小0)。図15によれば、最小口径絞りに近いほど(絞りレベル8に近いほど)深さレベルが深く、開放絞りに近いほど(絞りレベル0に近いほど)深さレベルが浅いことを示す。   FIG. 15 is a diagram illustrating a table that is an example of depth map information. For example, the aperture level difference “8-7” represents a subtraction process performed between an image Pic (8) with an aperture level of 8: FIG. 3 and an image Pic (7) with an aperture level of 7: FIG. The “reaction area” next to it represents a region (object 8) where a difference greater than or equal to a predetermined difference appears in the subtraction process. Further, the adjacent “depth level” represents depth = depth level (8) of the area (object 8). The deeper the depth level, the longer the subject distance (maximum 8), and the shallower the depth, the closer the subject distance (minimum 0). FIG. 15 shows that the depth level is deeper as it is closer to the minimum aperture stop (closer to the aperture level 8), and the depth level is shallower as it is closer to the open stop (closer to aperture level 0).

ステップS236において、CPU24は、図15に例示したデプスマップ情報をバッファメモリ23内に一旦格納して図14による処理を終了する。   In step S236, the CPU 24 temporarily stores the depth map information illustrated in FIG. 15 in the buffer memory 23, and ends the processing in FIG.

デプスマップ情報は、図15に例示したテーブルデータの代わりに、あるいはテーブルデータに加えて、図13に例示するデプスマップ画像として格納してもよい。図15によれば、深さレベルによって画像が領域分割されている。そして、深さレベル8と7を1つにまとめ、深さレベル6と5を1つにまとめ、深さレベル4と3を1つにまとめ、深さレベル2と1を1つにまとめることにより、全5段階(領域0−領域4)に分割した例である。分割領域0−4は、デプスマップ画像の画素濃度を異ならせたり、模様や色成分を異ならせたりすることにより、領域を判別しやすくすることができる。なお、図15における領域の輪郭が図3〜図12における物体の輪郭と合致しないのは、図13が分割処理(ステップS232)後のブロック単位で領域を分けていることによる。   The depth map information may be stored as a depth map image illustrated in FIG. 13 instead of or in addition to the table data illustrated in FIG. According to FIG. 15, the image is divided into regions according to the depth level. Then, combine depth levels 8 and 7 into one, combine depth levels 6 and 5 into one, combine depth levels 4 and 3 into one, and combine depth levels 2 and 1 into one. This is an example in which all are divided into five stages (area 0 to area 4). The divided areas 0-4 can be easily distinguished by changing the pixel density of the depth map image or by changing the pattern or color component. The reason why the outline of the area in FIG. 15 does not match the outline of the object in FIGS. 3 to 12 is that FIG. 13 divides the area in units of blocks after the division process (step S232).

以上説明した実施形態によれば、次の作用効果が得られる。
(1)電子カメラは、撮影光学系1を介して被写体像を撮像する撮像素子11と、撮影光学系1の絞り2を変えながら撮像素子11に複数コマの画像を撮像させるとともに、複数コマの画像に基づいて撮像画像を複数の領域に分割するための分割情報を生成するCPU24とを備えるので、電子カメラで得た画像の領域分割情報を簡単に得ることができる。
According to the embodiment described above, the following operational effects can be obtained.
(1) The electronic camera causes the image pickup device 11 to pick up a plurality of frames while changing the aperture 2 of the shooting optical system 1 while changing the aperture 2 of the shooting optical system 1. Since the CPU 24 that generates the division information for dividing the captured image into a plurality of areas based on the image is provided, the area division information of the image obtained by the electronic camera can be easily obtained.

(2)CPU24は、撮影距離に対応させた奥行きの深さに応じて撮像画像を複数の領域に分割するための分割情報を生成するので、画像の深さ方向の分布状態を示すデプスマップ情報を簡単に得ることができる。 (2) Since the CPU 24 generates division information for dividing the captured image into a plurality of regions according to the depth corresponding to the shooting distance, the depth map information indicating the distribution state in the depth direction of the image Can be easily obtained.

(3)CPU24は、複数コマの各画像について、撮像時の絞り口径が最も近い他のコマの画像との間で減算処理を行い、該減算値および絞り口径に基づいて分割情報を生成するので、単純な減算処理を行うことによって上記デプスマップ情報が得られる。 (3) The CPU 24 performs a subtraction process on each image of a plurality of frames with an image of another frame having the closest aperture diameter at the time of imaging, and generates division information based on the subtraction value and the aperture diameter. The depth map information can be obtained by performing a simple subtraction process.

(4)CPU24は、所定値より大きい減算値が得られた画像領域と、当該減算値の減算処理に用いた画像の撮像時の絞り口径とを関連づけるので、大きな減算値に対応する画像領域のピント状態がどの絞り口径において変化したかがわかるようになる。 (4) The CPU 24 associates the image area where the subtraction value larger than the predetermined value is obtained with the aperture diameter at the time of capturing the image used for the subtraction process of the subtraction value. It can be seen at which aperture diameter the focus state has changed.

(5)CPU24は、絞り口径が最小口径に近いほど奥行きを深くし、絞り口径が開放に近いほど奥行きを浅くするので、奥行きの深い/浅いと撮影距離の長い/短いを対応させることができる。 (5) The CPU 24 increases the depth as the aperture diameter is closer to the minimum aperture, and decreases the depth as the aperture diameter is closer to the open position. .

(6)CPU24は、所定値より大きい減算値が得られた画像領域を奥行きごとに異なる態様で示すデプスマップ画像を生成したので、ピント状態が変化した画像領域を絞り口径ごとにわかりやすく表現できる。 (6) Since the CPU 24 has generated the depth map image showing the image area in which the subtraction value larger than the predetermined value is obtained in different modes for each depth, the image area in which the focus state has changed can be easily expressed for each aperture diameter. .

(7)CPU24は、所定値より大きい減算値が得られた画像領域と、奥行きを示す情報とを関連づけるテーブルデータを生成したので、デプスマップ画像のデータサイズに比べて小さなデータサイズで分割情報を保存することができる。 (7) Since the CPU 24 generates the table data that associates the image area where the subtraction value larger than the predetermined value is obtained with the information indicating the depth, the CPU 24 generates the division information with a data size smaller than the data size of the depth map image. Can be saved.

(8)電子カメラのCPU24は、データを記録媒体に記録する処理をさらに行うようにしてもよい。この場合のCPU24は、撮影光学系の絞りを変えながら撮像素子11に複数コマの副画像を撮像させ、複数コマの副画像に基づいて撮像素子11で撮像された本画像を複数の領域に分割するための分割情報を生成し、本画像のデータおよび分割情報のデータを記録媒体に記録する。これにより、本画像データと分割情報の双方を記録媒体に保存することができる。また、分割情報の生成には本画像に比べてデータサイズが小さい副画像を用いることで、分割情報生成に要する処理の負担を軽くすることができる。 (8) The CPU 24 of the electronic camera may further perform processing for recording data on a recording medium. In this case, the CPU 24 causes the image pickup device 11 to pick up a plurality of sub-images while changing the aperture of the photographing optical system, and divides the main image picked up by the image pickup device 11 into a plurality of regions based on the sub-images of the plurality of frames. Division information is generated, and main image data and division information data are recorded on a recording medium. Thereby, both the main image data and the division information can be stored in the recording medium. In addition, by using a sub-image having a data size smaller than that of the main image for generating the division information, it is possible to reduce the processing load required for the generation of the division information.

(9)CPU24はさらに、減算処理を行う際に副画像をブロック化して行うようにしたので、ブロック化しない場合に比べて、減算処理を含む分割情報生成に要する処理の負担を軽くすることができる。 (9) Since the CPU 24 blocks the sub-image when performing the subtraction process, the CPU 24 can reduce the processing load required for generating the division information including the subtraction process as compared with the case where the sub-image is not blocked. it can.

(変形例1)
一眼レフタイプの電子カメラを例に説明したが、一眼レフ以外のタイプの電子カメラにも本発明を適用してよい。また、絞り値が異なるデプスマップ用画像の取得を本撮像の後に行う例を説明したが、本撮像の前、たとえばライブビュー表示機能を具備するカメラ場合にライブビュー画像の取得時にデプスマップ用の画像を取得するように構成してもよい。
(Modification 1)
Although a single-lens reflex electronic camera has been described as an example, the present invention may be applied to other types of electronic cameras. In addition, although an example in which the acquisition of the depth map image with different aperture values is performed after the main imaging has been described, the depth map image is acquired before the main imaging, for example, when acquiring the live view image in the case of a camera having a live view display function. You may comprise so that an image may be acquired.

(変形例2)
絞り値が異なるデプスマップ用画像を取得する際、絞り口径を小絞りから拡げる方向に絞り2を変えながら取得する例を説明したが、反対に、口径を拡げた状態から絞る方向へ絞り2を変えながらデプスマップ用の画像を取得するように構成してもよい。
(Modification 2)
In the case of acquiring depth map images with different aperture values, the example in which the aperture diameter is acquired while changing the aperture 2 in the direction of expanding from the small aperture has been described. You may comprise so that the image for depth maps may be acquired, changing.

(変形例3)
上記実施形態では、撮影光学系1の絞り2を変えながら複数コマの副画像を撮像する撮像処理が済んでから、当該複数コマの副画像に基づいて撮像素子11で撮像された本画像を複数の領域に分割するための分割情報を生成するようにした。この代わりに、減算処理に用いる少なくとも2コマ分の副画像を取得した時点で当該コマ間で減算処理を行う、いわゆる逐次処理を行うことによって副画像を取得するごとに減算処理を行いつつ、分割情報を生成してもよい。
(Modification 3)
In the above embodiment, a plurality of main images captured by the image sensor 11 based on the sub-images of the plurality of frames after the imaging processing for capturing the sub-images of the plurality of frames while changing the aperture 2 of the photographing optical system 1 are completed. The division information to divide the area is generated. Instead, when sub-images for at least two frames used for subtraction processing are acquired, subtraction processing is performed between the frames. Information may be generated.

(変形例4)
以上の説明では、電子カメラのCPU24が実行する処理を例に説明したが、上述したデプスマップ情報生成処理(図14)を行うプログラムを図16に示すコンピュータ装置200に実行させることにより、デプスマップ情報生成装置を構成してもよい。プログラムをパーソナルコンピュータ200に取込んで使用する場合には、パーソナルコンピュータ200のデータストレージ装置にプログラムをローディングした上で、当該プログラムを実行させることによってデプスマップ情報生成装置として使用する。
(Modification 4)
In the above description, the process executed by the CPU 24 of the electronic camera has been described as an example. However, the depth map information generation process (FIG. 14) described above is executed by causing the computer device 200 shown in FIG. An information generation apparatus may be configured. When the program is used by being loaded into the personal computer 200, the program is loaded into the data storage device of the personal computer 200, and the program is executed to be used as a depth map information generation device.

パーソナルコンピュータ200に対するプログラムのローディングは、プログラムを格納したCD−ROMなどの記録媒体204をパーソナルコンピュータ200にセットして行ってもよいし、ネットワークなどの通信回線201を経由する方法でパーソナルコンピュータ200へローディングしてもよい。通信回線201を経由する場合は、通信回線201に接続されたサーバー(コンピュータ)202のハードディスク装置203などにプログラムを格納しておく。プログラムは、記録媒体204や通信回線201を介する提供など、種々の形態のコンピュータプログラム製品として供給することができる。   The loading of the program to the personal computer 200 may be performed by setting a recording medium 204 such as a CD-ROM storing the program in the personal computer 200, or to the personal computer 200 by a method via the communication line 201 such as a network. You may load. When passing through the communication line 201, the program is stored in the hard disk device 203 of the server (computer) 202 connected to the communication line 201. The program can be supplied as various types of computer program products such as provision via the recording medium 204 or the communication line 201.

(変形例5)
上述した電子カメラによって記録媒体に記録された本画像データおよびデプスマップ情報を用いて、本画像データに対する画像処理を行う画像処理装置を構成することもできる。この場合は、本画像データに対する画像処理を行うプログラムを図16に示すコンピュータ装置200に実行させることにより、画像処理装置を構成する。なお、電子カメラおよびコンピュータ装置200間を接続して(有線接続でも無線接続でもよい)、電子カメラによって記録媒体に記録された本画像データおよびデプスマップ情報をコンピュータ装置200へ送信し、コンピュータ装置200が本画像データに対する画像処理を行う構成にしてもよい。
(Modification 5)
An image processing apparatus that performs image processing on main image data using the main image data and depth map information recorded on a recording medium by the electronic camera described above can also be configured. In this case, the image processing apparatus is configured by causing the computer apparatus 200 shown in FIG. 16 to execute a program for performing image processing on the main image data. The electronic camera and the computer device 200 are connected (wired connection or wireless connection), and the main image data and the depth map information recorded on the recording medium by the electronic camera are transmitted to the computer device 200. May be configured to perform image processing on the main image data.

図17は、画像処理プログラムの一例を説明するフローチャートである。図17のステップS51において、パーソナルコンピュータ200は、記録媒体に記録されているデータの中から、指定された画像ファイルを特定してステップS52へ進む。   FIG. 17 is a flowchart illustrating an example of an image processing program. In step S51 of FIG. 17, the personal computer 200 identifies the designated image file from the data recorded on the recording medium, and proceeds to step S52.

ステップS52において、CPU24は、特定した画像ファイルから本画像のデータを読み出してステップS53へ進む。ステップS53において、CPU24は、本画像データに関連付けられているデプスマップ情報を読み出してステップS54へ進む。   In step S52, the CPU 24 reads main image data from the identified image file, and proceeds to step S53. In step S53, the CPU 24 reads the depth map information associated with the main image data, and proceeds to step S54.

ステップS54において、CPU24は、本画像のデータに対して領域ごとに異なるフィルタ処理を施してステップS55へ進む。具体的には、図13に例示した分割領域(または図15に例示した深さレベル)に対応させて本画像を分割し、各分割領域に含まれる本画像データに対して分割領域間で異なるフィルタ処理を施す。フィルタ処理は、たとえば、撮影距離が近い領域0、領域1および領域2に含まれる所定色成分などを強調または補正する処理を行う。   In step S54, the CPU 24 performs different filter processing for each region on the data of the main image, and proceeds to step S55. Specifically, the main image is divided in accordance with the divided regions illustrated in FIG. 13 (or the depth level illustrated in FIG. 15), and differs between the divided regions with respect to the main image data included in each divided region. Apply filtering. In the filter process, for example, a process of enhancing or correcting a predetermined color component included in the area 0, the area 1, and the area 2 that are close to the shooting distance.

ステップS55において、CPU24は、フィルタ処理後の本画像のデータを記録媒体に記録して図17による処理を終了する。   In step S55, the CPU 24 records the data of the main image after the filter process on the recording medium, and ends the process of FIG.

上述したフィルタ処理として、分割領域間で異なる電子ぼかしを付加する処理や、分割領域間で異なる輪郭調整処理を施したり、分割領域間で異なるノイズリダクション処理を施したりしてもよい。   As the above-described filtering process, a process of adding different electronic blur between the divided areas, a different contour adjustment process between the divided areas, or a different noise reduction process between the divided areas may be performed.

(変形例6)
上述したフィルタ処理の代わりに、所定の分割領域(たとえば、撮影距離が遠い背景)の画像をあらかじめ用意した合成用画像と入れ替える合成処理を行うようにしてもよい。
(Modification 6)
Instead of the filter processing described above, a synthesis process may be performed in which an image in a predetermined divided region (for example, a background with a long shooting distance) is replaced with a synthesis image prepared in advance.

(変形例7)
また、上述したフィルタ処理の代わりに、三次元画像を表現する処理を行ってもよい。この場合には、三次元画像を表現する際、デプスマップ情報に応じた深さレベルの方向(奥行き方向)に該三次元画像のデータを配置する。
(Modification 7)
Moreover, you may perform the process which represents a three-dimensional image instead of the filter process mentioned above. In this case, when the three-dimensional image is expressed, the data of the three-dimensional image is arranged in the direction of the depth level (depth direction) according to the depth map information.

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。   The above description is merely an example, and is not limited to the configuration of the above embodiment.

1…撮影光学系
2…絞り
11…撮像素子
12…制御部
21…画像処理部
22…焦点検出演算部
23…バッファメモリ
24…CPU
25…レンズ駆動制御部
26…絞り駆動制御部
27…フラッシュメモリ
50…レンズ鏡筒
100…カメラ本体
DESCRIPTION OF SYMBOLS 1 ... Shooting optical system 2 ... Aperture 11 ... Imaging element 12 ... Control part 21 ... Image processing part 22 ... Focus detection calculating part 23 ... Buffer memory 24 ... CPU
25 ... Lens drive control unit 26 ... Aperture drive control unit 27 ... Flash memory 50 ... Lens barrel 100 ... Camera body

Claims (9)

撮影光学系を介して被写体像を撮像する撮像素子と、
前記撮影光学系の絞りを変えながら前記撮像素子に複数コマの画像を撮像させる制御手段と、
前記複数コマの画像に基づいて前記撮像画像を複数の領域に分割するための分割情報を生成する分割情報生成手段とを備えることを特徴とする撮像装置。
An image sensor that captures a subject image via an imaging optical system;
Control means for causing the image sensor to pick up images of a plurality of frames while changing the aperture of the photographing optical system;
An imaging apparatus comprising: division information generating means for generating division information for dividing the captured image into a plurality of regions based on the images of the plurality of frames.
請求項1に記載の撮像装置において、
前記分割情報生成手段は、撮影距離に対応させた奥行きの深さに応じて前記撮像画像を複数の領域に分割するための分割情報を生成することを特徴とする撮像装置。
The imaging device according to claim 1,
The imaging apparatus according to claim 1, wherein the division information generation unit generates division information for dividing the captured image into a plurality of regions according to a depth corresponding to a shooting distance.
請求項2に記載の撮像装置において、
前記分割情報生成手段は、前記複数コマの各画像について、撮像時の絞り口径が最も近い他のコマの画像との間で減算処理を行い、該減算値および前記絞り口径に基づいて前記分割情報を生成することを特徴とする撮像装置。
The imaging device according to claim 2,
The division information generation means performs a subtraction process on each image of the plurality of frames with an image of another frame having the closest aperture diameter at the time of imaging, and the division information is based on the subtraction value and the aperture diameter. An imaging device characterized by generating
請求項3に記載の撮像装置において、
前記分割情報生成手段は、所定値より大きい前記減算値が得られた画像領域と、当該減算値の減算処理に用いた画像の撮像時の絞り口径とを関連づけることを特徴とする撮像装置。
The imaging device according to claim 3.
The imaging apparatus characterized in that the division information generation means associates an image area in which the subtraction value larger than a predetermined value is obtained with an aperture diameter at the time of imaging of an image used for the subtraction process of the subtraction value.
請求項4に記載の撮像装置において、
前記分割情報生成手段は、前記絞り口径が最小口径に近いほど前記奥行きを深くし、前記絞り口径が開放に近いほど前記奥行きを浅くすることを特徴とする撮像装置。
The imaging apparatus according to claim 4,
The imaging apparatus according to claim 1, wherein the division information generation unit increases the depth as the aperture diameter is closer to a minimum aperture, and decreases the depth as the aperture diameter is closer to an open position.
請求項5に記載の撮像装置において、
前記分割情報生成手段は、前記所定値より大きい前記減算値が得られた画像領域を、前記奥行きごとに異なる態様で示した分布画像を生成することを特徴とする撮像装置。
The imaging apparatus according to claim 5,
The imaging apparatus according to claim 1, wherein the division information generation unit generates a distribution image in which an image area where the subtraction value larger than the predetermined value is obtained is shown in a different manner for each depth.
請求項5または6に記載の撮像装置において、
前記分割情報生成手段は、前記所定値より大きい前記減算値が得られた画像領域と、前記奥行きを示す情報とを関連づけるテーブルデータを生成することを特徴とする撮像装置。
In the imaging device according to claim 5 or 6,
The imaging apparatus according to claim 1, wherein the division information generation unit generates table data that associates an image area in which the subtraction value larger than the predetermined value is obtained with information indicating the depth.
請求項1〜7のいずれか一項に記載の撮像装置において、
データを記録媒体に記録する記録手段をさらに備え、
前記制御手段は、前記撮影光学系の絞りを変えながら前記撮像素子に複数コマの副画像を撮像させ、
前記分割情報生成手段は、前記複数コマの副画像に基づいて前記撮像素子で撮像された本画像を複数の領域に分割するための分割情報を生成し、
前記記録手段は、前記本画像のデータおよび前記分割情報のデータを前記記録媒体に記録することを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 7,
It further comprises recording means for recording data on a recording medium,
The control means causes the imaging element to capture a plurality of sub-images while changing the aperture of the photographing optical system,
The division information generation unit generates division information for dividing the main image captured by the imaging element into a plurality of regions based on the sub-images of the plurality of frames.
The image recording apparatus, wherein the recording unit records data of the main image and data of the division information on the recording medium.
撮影光学系を介して被写体像を撮像する撮像素子で本画像を撮像し、
前記撮影光学系の絞りを変えながら前記撮像素子で複数コマの副画像を撮像し、
前記複数コマの副画像に基づいて前記本画像を複数の領域に分割するための分割情報を生成し、
前記分割情報に基づいて、前記本画像に対して前記複数の領域単位で所定の画像処理を行う画像処理手段とを備えることを特徴とする画像処理装置。
Capture the main image with an image sensor that captures the subject image via the photographic optical system,
Taking a sub-image of a plurality of frames with the image sensor while changing the aperture of the photographing optical system,
Generating division information for dividing the main image into a plurality of regions based on the sub-images of the plurality of frames;
An image processing apparatus comprising: an image processing unit that performs predetermined image processing on the main image in units of the plurality of regions based on the division information.
JP2009062641A 2009-03-16 2009-03-16 Imaging apparatus and image processing apparatus Active JP5396940B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009062641A JP5396940B2 (en) 2009-03-16 2009-03-16 Imaging apparatus and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009062641A JP5396940B2 (en) 2009-03-16 2009-03-16 Imaging apparatus and image processing apparatus

Publications (2)

Publication Number Publication Date
JP2010219741A true JP2010219741A (en) 2010-09-30
JP5396940B2 JP5396940B2 (en) 2014-01-22

Family

ID=42978119

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009062641A Active JP5396940B2 (en) 2009-03-16 2009-03-16 Imaging apparatus and image processing apparatus

Country Status (1)

Country Link
JP (1) JP5396940B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013027023A (en) * 2011-07-26 2013-02-04 Canon Inc Image processing device and image processing method, and program
JP2016086367A (en) * 2014-10-28 2016-05-19 キヤノン株式会社 Image processing system and control method of the same
WO2021246171A1 (en) * 2020-06-04 2021-12-09 ソニーグループ株式会社 Imaging device, image processing method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006279546A (en) * 2005-03-29 2006-10-12 Nikon Corp Electronic camera, image processing program, and image processing method
JP2007300221A (en) * 2006-04-27 2007-11-15 Olympus Imaging Corp Camera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006279546A (en) * 2005-03-29 2006-10-12 Nikon Corp Electronic camera, image processing program, and image processing method
JP2007300221A (en) * 2006-04-27 2007-11-15 Olympus Imaging Corp Camera

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013027023A (en) * 2011-07-26 2013-02-04 Canon Inc Image processing device and image processing method, and program
JP2016086367A (en) * 2014-10-28 2016-05-19 キヤノン株式会社 Image processing system and control method of the same
WO2021246171A1 (en) * 2020-06-04 2021-12-09 ソニーグループ株式会社 Imaging device, image processing method, and program

Also Published As

Publication number Publication date
JP5396940B2 (en) 2014-01-22

Similar Documents

Publication Publication Date Title
JP5394296B2 (en) Imaging apparatus and image processing method
KR100871639B1 (en) Camera and image processing method for camera
JP4727534B2 (en) Imaging device
JP2013214878A (en) Imaging apparatus, exposure control method, and program
JP2008092440A (en) Camera, and image processing program
JP2005003813A (en) Imaging apparatus, imaging system and imaging method
JP4775172B2 (en) Electronic camera
JP2006246354A (en) Imaging unit and imaging program
JP2003244520A (en) Photographing device
JP2018098649A (en) Imaging apparatus, control method therefor, program, and storage medium
JP2007235640A (en) Photographing device and method
JP4315341B2 (en) Panning method and photographing apparatus
JP5396940B2 (en) Imaging apparatus and image processing apparatus
JP4949717B2 (en) In-focus position determining apparatus and method
JP2007225897A (en) Focusing position determination device and method
JP5618765B2 (en) Imaging apparatus and control method thereof
JP2006203346A (en) Electronic camera
JP5532621B2 (en) Electronic camera and image processing program
JP5345657B2 (en) Method and apparatus for automatic focusing of camera
JP2009229732A (en) Camera
KR100819807B1 (en) Image pickup apparatus and method of picking up images
JP2008028956A (en) Imaging apparatus and method for generating image signal for detecting target therein
JP2006050139A (en) Optical apparatus
JP5245644B2 (en) Exposure calculator
JP5446219B2 (en) Photometric device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131007

R150 Certificate of patent or registration of utility model

Ref document number: 5396940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250