JP2010219741A - Imaging apparatus and image processor - Google Patents
Imaging apparatus and image processor Download PDFInfo
- Publication number
- JP2010219741A JP2010219741A JP2009062641A JP2009062641A JP2010219741A JP 2010219741 A JP2010219741 A JP 2010219741A JP 2009062641 A JP2009062641 A JP 2009062641A JP 2009062641 A JP2009062641 A JP 2009062641A JP 2010219741 A JP2010219741 A JP 2010219741A
- Authority
- JP
- Japan
- Prior art keywords
- image
- division information
- aperture
- imaging
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、撮像装置、画像処理装置に関する。 The present invention relates to an imaging device and an image processing device.
画像を構成する画素について、画面に対して垂直な方向の位置を表す奥行き情報(デプスマップ)が知られている(特許文献1参照)。 Depth information (depth map) representing a position in a direction perpendicular to the screen is known for pixels constituting an image (see Patent Document 1).
特許文献1では、複数のカメラでそれぞれ取得された画像を画像処理することによってデプスマップ情報(画像の領域分割情報)を取得するので、複数のカメラが必要で演算処理が複雑という問題があった。
In
本発明による撮像装置は、撮影光学系を介して被写体像を撮像する撮像素子と、撮影光学系の絞りを変えながら撮像素子に複数コマの画像を撮像させる制御手段と、複数コマの画像に基づいて撮像画像を複数の領域に分割するための分割情報を生成する分割情報生成手段とを備えることを特徴とする。
本発明による画像処理装置は、撮影光学系を介して被写体像を撮像する撮像素子で本画像を撮像し、撮影光学系の絞りを変えながら撮像素子で複数コマの副画像を撮像し、複数コマの副画像に基づいて本画像を複数の領域に分割するための分割情報を生成し、分割情報に基づいて、本画像に対して複数の領域単位で所定の画像処理を行うことを特徴とする。
An image pickup apparatus according to the present invention is based on an image pickup device that picks up a subject image via a photographing optical system, a control unit that causes the image pickup device to pick up a plurality of frames while changing a diaphragm of the photographing optical system, and a plurality of frames. And division information generating means for generating division information for dividing the captured image into a plurality of regions.
An image processing apparatus according to the present invention captures a main image with an image sensor that captures a subject image via a photographic optical system, captures a plurality of sub-images with the image sensor while changing the aperture of the photographic optical system, Division information for dividing the main image into a plurality of regions is generated based on the sub-images, and predetermined image processing is performed on the main image in units of a plurality of regions based on the division information. .
本発明によれば、画像の領域分割情報を簡単に得ることができる。 According to the present invention, it is possible to easily obtain area division information of an image.
以下、図面を参照して本発明を実施するための形態について説明する。図1は、本発明の一実施の形態による電子カメラの要部構成を説明する図である。図1において、カメラ本体100に対して着脱可能に構成されるレンズ鏡筒50が装着されている。また、カメラ本体100の背面には表示部(不図示)が設けられる。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a diagram for explaining a main configuration of an electronic camera according to an embodiment of the present invention. In FIG. 1, a
被写体からの光は、レンズ鏡筒50の撮影光学系1および絞り2を介してカメラ本体100へ入射される。カメラ本体100に入射した被写体光は、レリーズ前は破線で示すように位置するクイックリターンミラー(以下メインミラーと呼ぶ)3で上方のファインダー部へ導かれて拡散スクリーン6に結像する。また、カメラ本体100に入射した被写体光の一部はサブミラー4で下方へ反射され、測距素子5にも入射する。測距素子5は、レンズ鏡筒50による焦点調節状態を検出する焦点検出処理において用いられる。
Light from the subject enters the
拡散スクリーン6に結像した被写体光はさらに、コンデンサレンズ7を介してペンタプリズム8へ入射する。ペンタプリズム8は、入射された被写体光を接眼レンズ9へ導く。
The subject light imaged on the
レリーズ後はメインミラー3が実線で示される位置へ回動し、被写体光はフォーカルプレーンシャッタ10を介して撮像素子11へ導かれ、撮像面上に被写体像を結ぶ。撮像素子11は、たとえば、画素に対応する複数の電荷蓄積型の光電変換素子を備えたCMOSイメージセンサなどによって構成される。撮像素子11は、撮像面上の被写体像を撮像し、被写体像の明るさに応じた光電変換信号を出力する。
After the release, the
制御部12は、画像処理部21、焦点検出演算部22、バッファメモリ23、CPU24、レンズ駆動制御部25、絞り駆動制御部26およびフラッシュメモリ27を含み、電子カメラが行う各処理を制御する。
The
画像処理部21は、撮像素子11から出力される光電変換信号をディジタルデータに変換し、変換後のデータに対して所定の画像処理を施す。CPU24は、カメラ内各部から出力される信号を入力して所定の演算を行い、演算結果に基づく制御信号を各部へ出力する。
The
焦点検出演算部22は、測距素子5による検出信号を用いて公知の位相差方式の焦点検出演算を行う。この演算によって撮影光学系1による焦点調節状態(デフォーカス量)を求め、デフォーカス量に応じて撮影光学系1を構成するフォーカスレンズ(不図示)の移動方向および移動量を算出する。移動量情報は、レンズ駆動量制御部25へ送出される。
The focus
レンズ駆動量制御部25は、上記移動量情報に基づいてレンズ駆動機構13へ駆動信号を送る。駆動信号を受けたレンズ駆動機構13は、フォーカスレンズを光軸方向に進退移動させてフォーカス調節を行う。
The lens drive
CPU24は、焦点検出演算部22で検出されたデフォーカス量に応じて焦点検出対象となっている主要被写体までの被写体距離を求める。たとえば、デフォーカス量と被写体距離との関係を示すデータをあらかじめフラッシュメモリ27に格納しておくことにより、当該データを参照して被写体距離が求められる。
The
バッファメモリ23は、画像処理部21による画像処理前、画像処理後および画像処理途中のデータを一時的に記憶する他、デプスマップ情報の生成処理時のデータを一時的に記憶したり、記録媒体(不図示)へ記録する前の画像ファイルを記憶したり、記録媒体から読み出した画像ファイルを記憶したりするために使用される。記録媒体はカメラ本体100に着脱自在に構成されており、半導体メモリを内蔵したメモリカード、またはハードディスクドライブなどで構成される。
The
フラッシュメモリ27は、CPU24が実行するプログラムや、CPU24が行う処理に必要なデータなどを格納する。フラッシュメモリ27が格納するプログラムやデータの内容は、CPU24からの指示によって追加、変更が可能に構成されている。
The
絞り駆動制御部26は、CPU24から送出される絞り2の開駆動または閉駆動の指示に基づいて絞り駆動機構14へ駆動信号を送る。該駆動信号を受けた絞り駆動機構14は、絞り2の口径を変更するように駆動して所定の絞り値に調節する。
The aperture
操作部材15は、カメラ本体100の各種ボタンやスイッチ類を含み、モード切替やメニュー操作など、各操作部材の操作内容に応じた操作信号を制御部12へ出力する。後述する半押し操作信号は、レリーズボタンが通常ストロークの半分程度まで押し下げ操作されると出力され、半ストロークの押し下げ操作解除で出力が解除される。また、後述する全押し操作信号は、レリーズボタンが通常ストロークまで押し下げ操作されると出力され、通常ストロークの押し下げ操作が解除されると出力が解除される。
The
本実施形態の電子カメラは、撮像した画像のデプスマップ情報を生成する画像処理機能を備える。デプスマップ情報生成処理は、上述した制御部12によって行う。CPU24は、操作部材15を構成するメニュー操作スイッチからの操作信号が入力操作された場合、メニュー処理を行うためのメニュー操作画面を背面の表示部(不図示)に表示させる。そして、メニュー項目の中から「デプスマップ生成機能オン」項目の選択指示を示す操作信号が操作部材15から入力された場合には、デプスマップ情報生成機能をオンさせる。
The electronic camera according to the present embodiment includes an image processing function that generates depth map information of a captured image. The depth map information generation process is performed by the
デプスマップ情報生成機能がオンの場合のCPU24は、撮像後の画像データに対してデプスマップ情報生成処理を実行した上で、該画像データおよびデプスマップ情報を記録媒体(不図示)に記録させる。デプスマップ情報生成機能がオフの場合のCPU24は、撮像後の画像データに対してデプスマップ情報生成処理を実行することなしに、該画像データを記録媒体(不図示)に記録させる。実行するデプスマップ情報生成処理の詳細については後述する。
When the depth map information generation function is on, the
<撮影処理>
CPU24は、デプスマップ情報生成機能がオン状態で、電子カメラのレリーズボタンの半押し操作に応じて操作部材15から半押し操作信号が入力された場合に、図2のフローチャートによる撮影処理を起動させる。図2のステップS11において、CPU24は、測光処理を行ってステップS12へ進む。測光処理では、不図示の測光センサからの出力に基づいて撮像素子11における結像面の明るさが求められる。
<Shooting process>
When the depth map information generation function is turned on and the half-press operation signal is input from the
ステップS12において、CPU24は、撮影条件の設定を行ってステップS13へ進む。具体的には、上記結像面の明るさや、あらかじめ設定されている撮影モード(たとえば、プログラムオート、シャッタ秒時優先オートなど)に基づいて、ISO感度、制御シャッタ秒時および制御絞り値を求める。
In step S12, the
ステップS13において、CPU24は、AF(自動焦点調節)処理を行ってステップS14へ進む。ここで、フォーカス検出の対象とする領域(フォーカスエリア)は、たとえば、撮像される画面の略中央とする。
In step S13, the
ステップS14において、CPU24は撮影指示されたか否かを判定する。CPU24は、操作部材15から全押し操作信号が入力された場合にステップS14を肯定判定してステップS15へ進む。CPU24は、操作部材15から全押し操作信号が入力されない場合にはステップS14を否定判定し、ステップS25へ進む。
In step S14, the
ステップS25において、CPU24は、タイムアップか否かを判定する。CPU24は、半押し起動後に何も操作されない状態における計時時間が所定時間(たとえば10秒)に達した場合にステップS25を肯定判定し、図2による処理を終了する。CPU24は、計時時間が所定時間に満たない場合にはステップS25を否定判定し、ステップS11へ戻って上述した処理を繰り返す。
In step S25, the
ステップS15において、CPU24は本撮像処理を行ってステップS16へ進む。これにより、メインミラー3がアップ駆動され、フォーカルプレーンシャッタ11が開駆動され、ステップS12で設定された撮影条件に基づいて撮像素子11が本撮像用の画像データを取得する。ステップS16において、CPU24は、撮像素子11から画像処理部21へ本撮像した画像データの読み出しを指示してステップS17へ進む。
In step S15, the
ステップS17において、CPU24は、パンフォーカス設定をしてステップS18へ進む。具体的には、絞り駆動制御部26へ指示を送り、絞り2を最小口径絞りへ駆動させるとともに、後述するデプスマップ用の撮像におけるシャッタ秒時として、上記制御シャッタ秒時に替えてデプスマップ用撮像のためのシャッタ秒時(いわゆる電子シャッタによって制御する蓄積時間)をセットする。また、撮影光学系1のフォーカスレンズ(不図示)を至近被写体にピントが合う位置へ移動させる。
In step S17, the
ステップS18において、CPU24はデプスマップ用撮像処理を行ってステップS19へ進む。デプスマップ用撮像は、メインミラー3をアップ駆動した状態で絞り値を変えながら行う。撮像素子11は、後述するステップS21までの処理を繰り返すことにより、絞り値が異なるデプスマップ用の画像データをたとえば、30コマ/毎秒のペースで所定コマ分取得する。
In step S18, the
ステップS19において、CPU24は、撮像素子11から画像処理部21へデプスマップ用撮像した画像データの読み出しを指示してステップS20へ進む。読み出されたデプスマップ用の画像データは、バッファメモリ23内に一旦格納される。
In step S19, the
図3は、パンフォーカス設定によって取得されたデプスマップ用取得画像を例示する図である。デプスマップ用画像は、本画像に比べて小さなデータサイズに設定されている。図3の例では、電子カメラに1番近い物体0から1番遠い物体8まで、9個の被写体が写っている。電子カメラからの各物体までの距離は、d0<d1<d2<d3<d4<d5<d6<d7<d8である。ただし、dn(n=0,1…,8)は電子カメラから物体nまでの距離である。図3の場合、ほぼ全ての物体にピントが合う。
FIG. 3 is a diagram illustrating an acquired image for depth map acquired by pan focus setting. The depth map image has a smaller data size than the main image. In the example of FIG. 3, nine subjects are captured from the
ステップS20において、CPU24は絞り2を所定絞り値(たとえば開放絞り)まで開いているか否かを判定する。CPU24は、所定絞り値まで開いている場合にステップS20を肯定判定してステップS22へ進む。CPU24は、所定絞り値まで開いていない場合には、ステップS20を否定判定してステップS21へ進む。
In step S20, the
ステップS21において、CPU24は絞り2の口径を拡げ、次コマのデプスマップ用撮像のための設定をしてステップS18へ戻る。具体的には、CPU24から指示を受けた絞り駆動制御部26が所定絞り値まで該絞り2を駆動するとともに、次コマのデプスマップ用の撮像におけるシャッタ秒時を短くして絞り値の変更に応じた露出補正を行うことにより、コマ間の露出を揃えるように制御する。なお、絞り値(後述する絞りレベルに相当)の変更量(後述する絞りレベル差分に相当)は等間隔でなくてよく、絞り2の開放側ほど細かいステップで変更し、絞り2の最小側ほど広いステップで変更する。これにより、デプスマップの奥行き(後述する深さレベルに相当)を各コマで揃えることができる。
In step S21, the
図4は、たとえば絞り2を最小絞りから所定値まで拡げた状態で取得されたデプスマップ用取得画像を例示する図である。図4の例では、電子カメラから最遠の物体8についてピントが外れている。
FIG. 4 is a diagram exemplifying a depth map acquisition image acquired in a state where, for example, the
図5は、絞り2をさらに拡げた状態で取得されたデプスマップ用取得画像を例示する図である。図5の例では、電子カメラから最遠の物体8および、該物体8に次いで遠い物体7についてピントが外れている。
FIG. 5 is a diagram illustrating a depth map acquired image acquired with the
図6〜図12も同様に、それぞれが所定の絞りレベル差ずつ異なる絞り値で取得されたデプスマップ用取得画像を例示する図である。図6〜図12では、絞り2を拡げるにつれて、撮影距離が遠い物体から順にピントが外れている。
Similarly, FIGS. 6 to 12 are diagrams illustrating depth map acquired images acquired at different aperture values by a predetermined aperture level difference. In FIGS. 6 to 12, as the
ステップS22において、CPU24は、本画像データに所定の画像処理を施して画像ファイル化する指示を出してステップS23へ進む。ステップS23において、CPU24は、デプスマップ用の画像データに基づいてデプスマップ情報を生成してステップS24へ進む。デプスマップ情報生成処理の詳細については後述する。
In step S22, the
ステップS24において、CPU24は、本画像データを含む画像ファイルとデプスマップ情報とを記録媒体に記録するように指示して図2による処理を終了する。
In step S24, the
<デプスマップ情報生成処理>
デプスマップ情報生成処理の詳細について、図14のフローチャートを参照して説明する。図14のステップS231において、CPU24は、バッファメモリ23内に格納されているデプスマップ用の画像データのうち、画像Pic(t)および画像Pic(t-1)を特定してステップS232へ進む。本例では、たとえば、最小口径絞り(絞りレベル8とする)から開放絞り(絞りレベル0とする)まで絞り値を9段階に変え、9コマのデプスマップ用の画像を得るものとする。この場合に、絞りレベル8(初期値)として最初に特定される画像は、図3に例示した画像Pic(8)、および図4に例示した画像Pic(7)である。
<Depth map information generation processing>
Details of the depth map information generation processing will be described with reference to the flowchart of FIG. In step S231 in FIG. 14, the
ステップS232において、CPU24は画像Pic(t)および画像Pic(t-1)に分割処理を行ってステップ233へ進む。具体的には、デプスマップ用の画像を、縦、横それぞれ10等分した10×10=100個のブロック(領域)に分割してステップS233へ進む。分割は、後述する減算処理をブロック単位で行うための便宜上のものである。
In step S232, the
ステップS233において、CPU24は、分割処理後の画像Pic(t)および画像Pic(t-1)に対し、上記ブロック単位で減算処理を行ってステップS234へ進む。減算処理は、ブロック内の画素データに基づいて、たとえば、輪郭の鮮鋭度を示す情報(隣接差分データなど)をブロックごとに生成し、画像Pic(t)に関する鮮鋭度情報と画像Pic(t-1)に関する鮮鋭度情報との差をブロックごとに算出する。
In step S233, the
ステップS234において、CPU24は、上記算出した差が所定差以上となるブロック(領域)を抽出してステップS235へ進む。たとえば、絞りレベル8の画像Pic(8):図3、および絞りレベル7の画像Pic(7):図4が特定されている場合は、差分処理によって物体8に対応するブロックにおいて所定差以上の差分が検出される。これは、図3および図4の間で物体8が合焦から非合焦へ変化することから、変化した物体8に対応するブロックが上記差として抽出されるためである。
In step S234, the
ステップS235において、CPU24は、画像Pic(0)まで終了したか否かを判定する。CPU24は、後述するステップS237の処理によって絞りレベル0まで終了している場合に、ステップS235を肯定判定してステップS236へ進む。CPU24は、後述するステップS237の処理によって絞りレベル0まで終了していない場合には、ステップS235を否定判定してステップS237へ進む。
In step S235, the
ステップS237において、CPU24は、tの値から1を引いてステップS231へ戻る。ステップS231へ戻った場合は、減算後のtに基づく画像Pic(t)および画像Pic(t-1)について、上述した処理と同様の処理を繰り返す。
In step S237, the
図4〜図12において、それぞれ物体nが合焦から非合焦へ変化した場合の非合焦をグレー表示で表している。グレー表示は、非合焦へ変化した物体nに対応するブロックが差分として抽出されたことを表す。 4 to 12, the out-of-focus state when the object n is changed from the in-focus state to the out-of-focus state is shown in gray. Gray display indicates that a block corresponding to the object n changed to out-of-focus is extracted as a difference.
図15は、デプスマップ情報の一例であるテーブルを説明する図である。たとえば、絞りレベル差分「8−7」は、絞りレベルが8の画像Pic(8):図3と、絞りレベルが7の画像Pic(7):図4との間で行う減算処理を表す。その隣の「反応エリア」は、当該減算処理で所定差以上の差分が現れた領域(物体8)を表す。さらに隣の「深さレベル」は、当該領域(物体8)の奥行き=深さレベル(8)を表す。深さレベルは、深いほど被写体距離が長く(最大8)、浅いほど被写体距離が近い(最小0)。図15によれば、最小口径絞りに近いほど(絞りレベル8に近いほど)深さレベルが深く、開放絞りに近いほど(絞りレベル0に近いほど)深さレベルが浅いことを示す。 FIG. 15 is a diagram illustrating a table that is an example of depth map information. For example, the aperture level difference “8-7” represents a subtraction process performed between an image Pic (8) with an aperture level of 8: FIG. 3 and an image Pic (7) with an aperture level of 7: FIG. The “reaction area” next to it represents a region (object 8) where a difference greater than or equal to a predetermined difference appears in the subtraction process. Further, the adjacent “depth level” represents depth = depth level (8) of the area (object 8). The deeper the depth level, the longer the subject distance (maximum 8), and the shallower the depth, the closer the subject distance (minimum 0). FIG. 15 shows that the depth level is deeper as it is closer to the minimum aperture stop (closer to the aperture level 8), and the depth level is shallower as it is closer to the open stop (closer to aperture level 0).
ステップS236において、CPU24は、図15に例示したデプスマップ情報をバッファメモリ23内に一旦格納して図14による処理を終了する。
In step S236, the
デプスマップ情報は、図15に例示したテーブルデータの代わりに、あるいはテーブルデータに加えて、図13に例示するデプスマップ画像として格納してもよい。図15によれば、深さレベルによって画像が領域分割されている。そして、深さレベル8と7を1つにまとめ、深さレベル6と5を1つにまとめ、深さレベル4と3を1つにまとめ、深さレベル2と1を1つにまとめることにより、全5段階(領域0−領域4)に分割した例である。分割領域0−4は、デプスマップ画像の画素濃度を異ならせたり、模様や色成分を異ならせたりすることにより、領域を判別しやすくすることができる。なお、図15における領域の輪郭が図3〜図12における物体の輪郭と合致しないのは、図13が分割処理(ステップS232)後のブロック単位で領域を分けていることによる。
The depth map information may be stored as a depth map image illustrated in FIG. 13 instead of or in addition to the table data illustrated in FIG. According to FIG. 15, the image is divided into regions according to the depth level. Then, combine
以上説明した実施形態によれば、次の作用効果が得られる。
(1)電子カメラは、撮影光学系1を介して被写体像を撮像する撮像素子11と、撮影光学系1の絞り2を変えながら撮像素子11に複数コマの画像を撮像させるとともに、複数コマの画像に基づいて撮像画像を複数の領域に分割するための分割情報を生成するCPU24とを備えるので、電子カメラで得た画像の領域分割情報を簡単に得ることができる。
According to the embodiment described above, the following operational effects can be obtained.
(1) The electronic camera causes the image pickup device 11 to pick up a plurality of frames while changing the
(2)CPU24は、撮影距離に対応させた奥行きの深さに応じて撮像画像を複数の領域に分割するための分割情報を生成するので、画像の深さ方向の分布状態を示すデプスマップ情報を簡単に得ることができる。
(2) Since the
(3)CPU24は、複数コマの各画像について、撮像時の絞り口径が最も近い他のコマの画像との間で減算処理を行い、該減算値および絞り口径に基づいて分割情報を生成するので、単純な減算処理を行うことによって上記デプスマップ情報が得られる。
(3) The
(4)CPU24は、所定値より大きい減算値が得られた画像領域と、当該減算値の減算処理に用いた画像の撮像時の絞り口径とを関連づけるので、大きな減算値に対応する画像領域のピント状態がどの絞り口径において変化したかがわかるようになる。
(4) The
(5)CPU24は、絞り口径が最小口径に近いほど奥行きを深くし、絞り口径が開放に近いほど奥行きを浅くするので、奥行きの深い/浅いと撮影距離の長い/短いを対応させることができる。
(5) The
(6)CPU24は、所定値より大きい減算値が得られた画像領域を奥行きごとに異なる態様で示すデプスマップ画像を生成したので、ピント状態が変化した画像領域を絞り口径ごとにわかりやすく表現できる。
(6) Since the
(7)CPU24は、所定値より大きい減算値が得られた画像領域と、奥行きを示す情報とを関連づけるテーブルデータを生成したので、デプスマップ画像のデータサイズに比べて小さなデータサイズで分割情報を保存することができる。
(7) Since the
(8)電子カメラのCPU24は、データを記録媒体に記録する処理をさらに行うようにしてもよい。この場合のCPU24は、撮影光学系の絞りを変えながら撮像素子11に複数コマの副画像を撮像させ、複数コマの副画像に基づいて撮像素子11で撮像された本画像を複数の領域に分割するための分割情報を生成し、本画像のデータおよび分割情報のデータを記録媒体に記録する。これにより、本画像データと分割情報の双方を記録媒体に保存することができる。また、分割情報の生成には本画像に比べてデータサイズが小さい副画像を用いることで、分割情報生成に要する処理の負担を軽くすることができる。
(8) The
(9)CPU24はさらに、減算処理を行う際に副画像をブロック化して行うようにしたので、ブロック化しない場合に比べて、減算処理を含む分割情報生成に要する処理の負担を軽くすることができる。
(9) Since the
(変形例1)
一眼レフタイプの電子カメラを例に説明したが、一眼レフ以外のタイプの電子カメラにも本発明を適用してよい。また、絞り値が異なるデプスマップ用画像の取得を本撮像の後に行う例を説明したが、本撮像の前、たとえばライブビュー表示機能を具備するカメラ場合にライブビュー画像の取得時にデプスマップ用の画像を取得するように構成してもよい。
(Modification 1)
Although a single-lens reflex electronic camera has been described as an example, the present invention may be applied to other types of electronic cameras. In addition, although an example in which the acquisition of the depth map image with different aperture values is performed after the main imaging has been described, the depth map image is acquired before the main imaging, for example, when acquiring the live view image in the case of a camera having a live view display function. You may comprise so that an image may be acquired.
(変形例2)
絞り値が異なるデプスマップ用画像を取得する際、絞り口径を小絞りから拡げる方向に絞り2を変えながら取得する例を説明したが、反対に、口径を拡げた状態から絞る方向へ絞り2を変えながらデプスマップ用の画像を取得するように構成してもよい。
(Modification 2)
In the case of acquiring depth map images with different aperture values, the example in which the aperture diameter is acquired while changing the
(変形例3)
上記実施形態では、撮影光学系1の絞り2を変えながら複数コマの副画像を撮像する撮像処理が済んでから、当該複数コマの副画像に基づいて撮像素子11で撮像された本画像を複数の領域に分割するための分割情報を生成するようにした。この代わりに、減算処理に用いる少なくとも2コマ分の副画像を取得した時点で当該コマ間で減算処理を行う、いわゆる逐次処理を行うことによって副画像を取得するごとに減算処理を行いつつ、分割情報を生成してもよい。
(Modification 3)
In the above embodiment, a plurality of main images captured by the image sensor 11 based on the sub-images of the plurality of frames after the imaging processing for capturing the sub-images of the plurality of frames while changing the
(変形例4)
以上の説明では、電子カメラのCPU24が実行する処理を例に説明したが、上述したデプスマップ情報生成処理(図14)を行うプログラムを図16に示すコンピュータ装置200に実行させることにより、デプスマップ情報生成装置を構成してもよい。プログラムをパーソナルコンピュータ200に取込んで使用する場合には、パーソナルコンピュータ200のデータストレージ装置にプログラムをローディングした上で、当該プログラムを実行させることによってデプスマップ情報生成装置として使用する。
(Modification 4)
In the above description, the process executed by the
パーソナルコンピュータ200に対するプログラムのローディングは、プログラムを格納したCD−ROMなどの記録媒体204をパーソナルコンピュータ200にセットして行ってもよいし、ネットワークなどの通信回線201を経由する方法でパーソナルコンピュータ200へローディングしてもよい。通信回線201を経由する場合は、通信回線201に接続されたサーバー(コンピュータ)202のハードディスク装置203などにプログラムを格納しておく。プログラムは、記録媒体204や通信回線201を介する提供など、種々の形態のコンピュータプログラム製品として供給することができる。
The loading of the program to the
(変形例5)
上述した電子カメラによって記録媒体に記録された本画像データおよびデプスマップ情報を用いて、本画像データに対する画像処理を行う画像処理装置を構成することもできる。この場合は、本画像データに対する画像処理を行うプログラムを図16に示すコンピュータ装置200に実行させることにより、画像処理装置を構成する。なお、電子カメラおよびコンピュータ装置200間を接続して(有線接続でも無線接続でもよい)、電子カメラによって記録媒体に記録された本画像データおよびデプスマップ情報をコンピュータ装置200へ送信し、コンピュータ装置200が本画像データに対する画像処理を行う構成にしてもよい。
(Modification 5)
An image processing apparatus that performs image processing on main image data using the main image data and depth map information recorded on a recording medium by the electronic camera described above can also be configured. In this case, the image processing apparatus is configured by causing the
図17は、画像処理プログラムの一例を説明するフローチャートである。図17のステップS51において、パーソナルコンピュータ200は、記録媒体に記録されているデータの中から、指定された画像ファイルを特定してステップS52へ進む。
FIG. 17 is a flowchart illustrating an example of an image processing program. In step S51 of FIG. 17, the
ステップS52において、CPU24は、特定した画像ファイルから本画像のデータを読み出してステップS53へ進む。ステップS53において、CPU24は、本画像データに関連付けられているデプスマップ情報を読み出してステップS54へ進む。
In step S52, the
ステップS54において、CPU24は、本画像のデータに対して領域ごとに異なるフィルタ処理を施してステップS55へ進む。具体的には、図13に例示した分割領域(または図15に例示した深さレベル)に対応させて本画像を分割し、各分割領域に含まれる本画像データに対して分割領域間で異なるフィルタ処理を施す。フィルタ処理は、たとえば、撮影距離が近い領域0、領域1および領域2に含まれる所定色成分などを強調または補正する処理を行う。
In step S54, the
ステップS55において、CPU24は、フィルタ処理後の本画像のデータを記録媒体に記録して図17による処理を終了する。
In step S55, the
上述したフィルタ処理として、分割領域間で異なる電子ぼかしを付加する処理や、分割領域間で異なる輪郭調整処理を施したり、分割領域間で異なるノイズリダクション処理を施したりしてもよい。 As the above-described filtering process, a process of adding different electronic blur between the divided areas, a different contour adjustment process between the divided areas, or a different noise reduction process between the divided areas may be performed.
(変形例6)
上述したフィルタ処理の代わりに、所定の分割領域(たとえば、撮影距離が遠い背景)の画像をあらかじめ用意した合成用画像と入れ替える合成処理を行うようにしてもよい。
(Modification 6)
Instead of the filter processing described above, a synthesis process may be performed in which an image in a predetermined divided region (for example, a background with a long shooting distance) is replaced with a synthesis image prepared in advance.
(変形例7)
また、上述したフィルタ処理の代わりに、三次元画像を表現する処理を行ってもよい。この場合には、三次元画像を表現する際、デプスマップ情報に応じた深さレベルの方向(奥行き方向)に該三次元画像のデータを配置する。
(Modification 7)
Moreover, you may perform the process which represents a three-dimensional image instead of the filter process mentioned above. In this case, when the three-dimensional image is expressed, the data of the three-dimensional image is arranged in the direction of the depth level (depth direction) according to the depth map information.
以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。 The above description is merely an example, and is not limited to the configuration of the above embodiment.
1…撮影光学系
2…絞り
11…撮像素子
12…制御部
21…画像処理部
22…焦点検出演算部
23…バッファメモリ
24…CPU
25…レンズ駆動制御部
26…絞り駆動制御部
27…フラッシュメモリ
50…レンズ鏡筒
100…カメラ本体
DESCRIPTION OF
25 ... Lens
Claims (9)
前記撮影光学系の絞りを変えながら前記撮像素子に複数コマの画像を撮像させる制御手段と、
前記複数コマの画像に基づいて前記撮像画像を複数の領域に分割するための分割情報を生成する分割情報生成手段とを備えることを特徴とする撮像装置。 An image sensor that captures a subject image via an imaging optical system;
Control means for causing the image sensor to pick up images of a plurality of frames while changing the aperture of the photographing optical system;
An imaging apparatus comprising: division information generating means for generating division information for dividing the captured image into a plurality of regions based on the images of the plurality of frames.
前記分割情報生成手段は、撮影距離に対応させた奥行きの深さに応じて前記撮像画像を複数の領域に分割するための分割情報を生成することを特徴とする撮像装置。 The imaging device according to claim 1,
The imaging apparatus according to claim 1, wherein the division information generation unit generates division information for dividing the captured image into a plurality of regions according to a depth corresponding to a shooting distance.
前記分割情報生成手段は、前記複数コマの各画像について、撮像時の絞り口径が最も近い他のコマの画像との間で減算処理を行い、該減算値および前記絞り口径に基づいて前記分割情報を生成することを特徴とする撮像装置。 The imaging device according to claim 2,
The division information generation means performs a subtraction process on each image of the plurality of frames with an image of another frame having the closest aperture diameter at the time of imaging, and the division information is based on the subtraction value and the aperture diameter. An imaging device characterized by generating
前記分割情報生成手段は、所定値より大きい前記減算値が得られた画像領域と、当該減算値の減算処理に用いた画像の撮像時の絞り口径とを関連づけることを特徴とする撮像装置。 The imaging device according to claim 3.
The imaging apparatus characterized in that the division information generation means associates an image area in which the subtraction value larger than a predetermined value is obtained with an aperture diameter at the time of imaging of an image used for the subtraction process of the subtraction value.
前記分割情報生成手段は、前記絞り口径が最小口径に近いほど前記奥行きを深くし、前記絞り口径が開放に近いほど前記奥行きを浅くすることを特徴とする撮像装置。 The imaging apparatus according to claim 4,
The imaging apparatus according to claim 1, wherein the division information generation unit increases the depth as the aperture diameter is closer to a minimum aperture, and decreases the depth as the aperture diameter is closer to an open position.
前記分割情報生成手段は、前記所定値より大きい前記減算値が得られた画像領域を、前記奥行きごとに異なる態様で示した分布画像を生成することを特徴とする撮像装置。 The imaging apparatus according to claim 5,
The imaging apparatus according to claim 1, wherein the division information generation unit generates a distribution image in which an image area where the subtraction value larger than the predetermined value is obtained is shown in a different manner for each depth.
前記分割情報生成手段は、前記所定値より大きい前記減算値が得られた画像領域と、前記奥行きを示す情報とを関連づけるテーブルデータを生成することを特徴とする撮像装置。 In the imaging device according to claim 5 or 6,
The imaging apparatus according to claim 1, wherein the division information generation unit generates table data that associates an image area in which the subtraction value larger than the predetermined value is obtained with information indicating the depth.
データを記録媒体に記録する記録手段をさらに備え、
前記制御手段は、前記撮影光学系の絞りを変えながら前記撮像素子に複数コマの副画像を撮像させ、
前記分割情報生成手段は、前記複数コマの副画像に基づいて前記撮像素子で撮像された本画像を複数の領域に分割するための分割情報を生成し、
前記記録手段は、前記本画像のデータおよび前記分割情報のデータを前記記録媒体に記録することを特徴とする撮像装置。 In the imaging device according to any one of claims 1 to 7,
It further comprises recording means for recording data on a recording medium,
The control means causes the imaging element to capture a plurality of sub-images while changing the aperture of the photographing optical system,
The division information generation unit generates division information for dividing the main image captured by the imaging element into a plurality of regions based on the sub-images of the plurality of frames.
The image recording apparatus, wherein the recording unit records data of the main image and data of the division information on the recording medium.
前記撮影光学系の絞りを変えながら前記撮像素子で複数コマの副画像を撮像し、
前記複数コマの副画像に基づいて前記本画像を複数の領域に分割するための分割情報を生成し、
前記分割情報に基づいて、前記本画像に対して前記複数の領域単位で所定の画像処理を行う画像処理手段とを備えることを特徴とする画像処理装置。 Capture the main image with an image sensor that captures the subject image via the photographic optical system,
Taking a sub-image of a plurality of frames with the image sensor while changing the aperture of the photographing optical system,
Generating division information for dividing the main image into a plurality of regions based on the sub-images of the plurality of frames;
An image processing apparatus comprising: an image processing unit that performs predetermined image processing on the main image in units of the plurality of regions based on the division information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009062641A JP5396940B2 (en) | 2009-03-16 | 2009-03-16 | Imaging apparatus and image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009062641A JP5396940B2 (en) | 2009-03-16 | 2009-03-16 | Imaging apparatus and image processing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010219741A true JP2010219741A (en) | 2010-09-30 |
JP5396940B2 JP5396940B2 (en) | 2014-01-22 |
Family
ID=42978119
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009062641A Active JP5396940B2 (en) | 2009-03-16 | 2009-03-16 | Imaging apparatus and image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5396940B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013027023A (en) * | 2011-07-26 | 2013-02-04 | Canon Inc | Image processing device and image processing method, and program |
JP2016086367A (en) * | 2014-10-28 | 2016-05-19 | キヤノン株式会社 | Image processing system and control method of the same |
WO2021246171A1 (en) * | 2020-06-04 | 2021-12-09 | ソニーグループ株式会社 | Imaging device, image processing method, and program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006279546A (en) * | 2005-03-29 | 2006-10-12 | Nikon Corp | Electronic camera, image processing program, and image processing method |
JP2007300221A (en) * | 2006-04-27 | 2007-11-15 | Olympus Imaging Corp | Camera |
-
2009
- 2009-03-16 JP JP2009062641A patent/JP5396940B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006279546A (en) * | 2005-03-29 | 2006-10-12 | Nikon Corp | Electronic camera, image processing program, and image processing method |
JP2007300221A (en) * | 2006-04-27 | 2007-11-15 | Olympus Imaging Corp | Camera |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013027023A (en) * | 2011-07-26 | 2013-02-04 | Canon Inc | Image processing device and image processing method, and program |
JP2016086367A (en) * | 2014-10-28 | 2016-05-19 | キヤノン株式会社 | Image processing system and control method of the same |
WO2021246171A1 (en) * | 2020-06-04 | 2021-12-09 | ソニーグループ株式会社 | Imaging device, image processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP5396940B2 (en) | 2014-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5394296B2 (en) | Imaging apparatus and image processing method | |
KR100871639B1 (en) | Camera and image processing method for camera | |
JP4727534B2 (en) | Imaging device | |
JP2013214878A (en) | Imaging apparatus, exposure control method, and program | |
JP2008092440A (en) | Camera, and image processing program | |
JP2005003813A (en) | Imaging apparatus, imaging system and imaging method | |
JP4775172B2 (en) | Electronic camera | |
JP2006246354A (en) | Imaging unit and imaging program | |
JP2003244520A (en) | Photographing device | |
JP2018098649A (en) | Imaging apparatus, control method therefor, program, and storage medium | |
JP2007235640A (en) | Photographing device and method | |
JP4315341B2 (en) | Panning method and photographing apparatus | |
JP5396940B2 (en) | Imaging apparatus and image processing apparatus | |
JP4949717B2 (en) | In-focus position determining apparatus and method | |
JP2007225897A (en) | Focusing position determination device and method | |
JP5618765B2 (en) | Imaging apparatus and control method thereof | |
JP2006203346A (en) | Electronic camera | |
JP5532621B2 (en) | Electronic camera and image processing program | |
JP5345657B2 (en) | Method and apparatus for automatic focusing of camera | |
JP2009229732A (en) | Camera | |
KR100819807B1 (en) | Image pickup apparatus and method of picking up images | |
JP2008028956A (en) | Imaging apparatus and method for generating image signal for detecting target therein | |
JP2006050139A (en) | Optical apparatus | |
JP5245644B2 (en) | Exposure calculator | |
JP5446219B2 (en) | Photometric device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120315 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130708 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130924 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131007 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5396940 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |