JP4645413B2 - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP4645413B2 JP4645413B2 JP2005318281A JP2005318281A JP4645413B2 JP 4645413 B2 JP4645413 B2 JP 4645413B2 JP 2005318281 A JP2005318281 A JP 2005318281A JP 2005318281 A JP2005318281 A JP 2005318281A JP 4645413 B2 JP4645413 B2 JP 4645413B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- main subject
- subject region
- extracting
- shooting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003384 imaging method Methods 0.000 title claims description 63
- 238000000605 extraction Methods 0.000 claims description 107
- 238000000034 method Methods 0.000 claims description 55
- 238000007430 reference method Methods 0.000 claims description 24
- 238000005286 illumination Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 description 62
- 230000008569 process Effects 0.000 description 32
- 230000008859 change Effects 0.000 description 20
- 239000000284 extract Substances 0.000 description 20
- 239000013598 vector Substances 0.000 description 17
- 238000006243 chemical reaction Methods 0.000 description 16
- 238000001514 detection method Methods 0.000 description 12
- 238000007906 compression Methods 0.000 description 10
- 230000006835 compression Effects 0.000 description 7
- 230000006837 decompression Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 238000005375 photometry Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Description
本発明は、撮影した電子画像から主要被写体を抽出する撮像装置に関する。 The present invention relates to an imaging apparatus that extracts a main subject from a captured electronic image.
35mm版カメラに比べて撮像面積が小さい電子カメラが普及している。このタイプのカメラは実焦点距離が短いため、35mm版カメラの場合と同じF値(光学絞り値)の撮影レンズを用いても、35mm版カメラのように背景をぼかした撮影画像が得られにくい。特許文献1には、画像処理によって画像にぼかしを付加する技術が開示されている。 Electronic cameras that have a smaller imaging area compared to 35 mm cameras have become widespread. Since this type of camera has a short actual focal length, it is difficult to obtain a photographed image with a blurred background like a 35 mm version camera even if a photographing lens having the same F value (optical aperture value) as that of a 35 mm version camera is used. . Patent Document 1 discloses a technique for adding blur to an image by image processing.
特許文献1によれば、画像ぼけを付加する領域(すなわち、主要被写体と異なる背景領域)を使用者が指定する必要があるので、撮影時に手間がかかる。このため、撮像装置が主要被写体領域(もしくは背景領域)を自動的に抽出する技術が望まれる。 According to Patent Document 1, it is necessary for the user to specify an area to which image blur is to be added (that is, a background area different from the main subject). For this reason, a technique is desired in which the imaging apparatus automatically extracts the main subject area (or background area).
請求項1に記載の発明による撮像装置は、被写体像を撮影し、画像信号を出力する撮像素子と、前記撮影された画像から主要被写体領域を抽出する主要被写体領域抽出手段と、設定されている撮影シーンモードに応じて、照明装置を発光させて撮影された画像と前記照明装置を発光させないで撮影された画像とを用いて前記主要被写体領域を抽出する二画像参照方法を含む複数の異なる抽出方法の中から選択した方法で撮影シーンに適した領域抽出を行うように前記主要被写体領域抽出手段を制御する制御手段とを備え、前記制御手段は、被写体を照明する照明装置に非発光を指示する撮影シーンモードが設定されている場合、前記二画像参照方法を除く他の抽出方法を選択するように前記主要被写体領域抽出手段を制御することを特徴とする。
請求項2に記載の発明による撮像装置は、請求項1に記載の撮像装置において、前記複数の異なる抽出方法には、異なる撮影条件で撮影されたに画像を用いて前記主要被写体領域を抽出する二画像参照方法、撮影画像の空間周波数を分析することによって前記主要被写体領域を抽出する方法、及び撮影画像から検出される稜線情報を用いて前記主要被写体領域を抽出する稜線情報参照方法を含むことを特徴とする。
請求項3に記載の発明による撮像装置は、被写体像を撮影し、画像信号を出力する撮像素子と、前記撮影された画像から主要被写体領域を抽出する主要被写体領域抽出手段と、撮影環境に応じて、照明装置を発光させて撮影された画像と前記照明装置を発光させないで撮影された画像とを用いて前記主要被写体領域を抽出する二画像参照方法を含む複数の異なる抽出方法の中から選択した方法で撮影シーンに適した領域抽出を行うように前記主要被写体領域抽出手段を制御する制御手段とを備え、前記制御手段は、測光値が所定値以上の場合、前記二画像参照方法を除く他の抽出方法を選択するように前記主要被写体領域抽出手段を制御することを特徴とする。
請求項4に記載の発明による撮像装置は、請求項3に記載の撮像装置において、前記複数の異なる抽出方法には、異なる撮影条件で撮影されたに画像を用いて前記主要被写体領域を抽出する二画像参照方法、撮影画像の空間周波数を分析することによって前記主要被写体領域を抽出する方法、及び撮影画像から検出される稜線情報を用いて前記主要被写体領域を抽出する稜線情報参照方法を含むことを特徴とする。
請求項5に記載の発明による撮像装置は、被写体像を撮影し、画像信号を出力する撮像素子と、前記撮影された画像から主要被写体領域を抽出する主要被写体領域抽出手段と、設定されている撮影シーンモードに応じて、異なる撮影条件で撮影された二画像を用いて前記主要被写体領域を抽出する二画像参照方法を含む複数の異なる抽出方法の中から選択した方法で撮影シーンに適した領域抽出を行うように前記主要被写体領域抽出手段を制御する制御手段とを備え、前記制御手段は、動きのある被写体を撮影する撮影シーンモードが設定されているとき、前記二画像参照方法を除く他の抽出方法を選択するように前記主要被写体領域抽出手段を制御することを特徴とする。
請求項6に記載の発明による撮像装置は、請求項5に記載の撮像装置において、前記複数の異なる抽出方法には、異なる撮影条件で撮影されたに画像を用いて前記主要被写体領域を抽出する二画像参照方法、撮影画像の空間周波数を分析することによって前記主要被写体領域を抽出する方法、及び撮影画像から検出される稜線情報を用いて前記主要被写体領域を抽出する稜線情報参照方法を含むことを特徴とする。
The image pickup apparatus according to the first aspect of the invention is set with an image pickup device that picks up a subject image and outputs an image signal, and main subject region extraction means that extracts a main subject region from the picked-up image. A plurality of different extractions including a two-image reference method for extracting the main subject region using an image shot with the lighting device emitting light and an image shot without the lighting device emitting light according to the shooting scene mode Control means for controlling the main subject region extraction means so as to perform region extraction suitable for the shooting scene by a method selected from the methods, and the control means instructs the illumination device that illuminates the subject not to emit light. If shooting scene mode has been set, to and controls the main subject region extraction means so as to select another extraction method except for the two-image reference method .
According to a second aspect of the present invention, there is provided the imaging device according to the first aspect, wherein the plurality of different extraction methods extract the main subject region using images captured under different photographing conditions. A two-image reference method, a method of extracting the main subject region by analyzing a spatial frequency of the captured image, and a ridge line information reference method of extracting the main subject region using ridge line information detected from the captured image. It is characterized by.
According to a third aspect of the present invention, there is provided an imaging device that captures a subject image and outputs an image signal, a main subject region extracting unit that extracts a main subject region from the captured image, and a shooting environment. And selecting from a plurality of different extraction methods including a two-image reference method for extracting the main subject region using an image shot with the lighting device emitting light and an image shot without the lighting device emitting light. Control means for controlling the main subject region extraction means so as to perform region extraction suitable for the shooting scene by the method described above, and the control means excludes the two-image reference method when the photometric value is a predetermined value or more. The main subject region extracting means is controlled so as to select another extraction method.
According to a fourth aspect of the present invention, there is provided the imaging device according to the third aspect, wherein the plurality of different extraction methods extract the main subject region using images captured under different photographing conditions. A two-image reference method, a method of extracting the main subject region by analyzing a spatial frequency of the captured image, and a ridge line information reference method of extracting the main subject region using ridge line information detected from the captured image. It is characterized by.
An image pickup apparatus according to a fifth aspect of the invention is set with an image pickup device that picks up a subject image and outputs an image signal, and main subject region extraction means that extracts a main subject region from the picked-up image. A region suitable for a shooting scene by a method selected from a plurality of different extraction methods including a two-image reference method for extracting the main subject region using two images shot under different shooting conditions according to a shooting scene mode Control means for controlling the main subject region extraction means to perform extraction, the control means excluding the two-image reference method when a shooting scene mode for shooting a moving subject is set. The main subject region extracting means is controlled so as to select the extraction method.
According to a sixth aspect of the present invention, in the imaging device according to the fifth aspect, the plurality of different extraction methods extract the main subject region using images captured under different photographing conditions. A two-image reference method, a method of extracting the main subject region by analyzing a spatial frequency of the captured image, and a ridge line information reference method of extracting the main subject region using ridge line information detected from the captured image. It is characterized by .
本発明によれば、主要被写体領域を適切に抽出する撮像装置を提供できる。 According to the present invention, it is possible to provide an imaging apparatus that appropriately extracts a main subject region.
以下、図面を参照して本発明を実施するための最良の形態について説明する。
図1は、本発明の一実施形態による撮像装置の一例を示すブロックダイアグラムである。図1において、撮像装置は、撮像素子1と、撮影レンズ2と、レンズ駆動回路3と、制御回路5と、操作部材7と、撮像素子駆動回路8と、信号処理回路9と、データ処理回路10と、圧縮/伸張回路11と、モニタ13と、表示制御回路14と、測光回路15と、照明装置20とを有し、着脱可能な記録媒体12が装着されている。記録媒体12は、メモリカードなどで構成される。
The best mode for carrying out the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram illustrating an example of an imaging apparatus according to an embodiment of the present invention. In FIG. 1, an imaging device includes an imaging device 1, a photographing lens 2, a
撮影レンズ2は撮影光学系を構成する複数枚数のレンズ群で構成され、撮像素子1の撮像面上に被写体像を結像させる。撮影レンズ2は不図示のフォーカスレンズを含み、レンズ駆動回路3がフォーカスレンズを光軸方向に進退駆動することにより、撮影レンズ2のフォーカス調節が行われる。また、撮影レンズ2は不図示のズームレンズを含み、レンズ駆動回路3がズームレンズを光軸方向に進退駆動することにより、撮影レンズ2のズーム調節が行われる。レンズ駆動回路3は、制御回路5から出力されるレンズ駆動指令に応じてレンズ駆動信号を発生し、発生したレンズ駆動信号で不図示のレンズ駆動機構を駆動することにより、各レンズを移動させる。
The taking lens 2 is composed of a plurality of lens groups constituting a taking optical system, and forms a subject image on the image pickup surface of the image pickup device 1. The photographic lens 2 includes a focus lens (not shown), and the
撮像素子1は、静止画像の単写撮像とともに、静止画像の連続撮像、および動画像の撮像が可能である。撮像素子1は、例えばCCD撮像素子あるいはCMOS型撮像素子などによって構成される。 The image sensor 1 can capture a still image as well as continuous images of a still image and a moving image. The image sensor 1 is configured by, for example, a CCD image sensor or a CMOS image sensor.
撮像素子駆動回路8は、制御回路5から出力される指令に応じて所定タイミングの駆動信号を発生し、発生した駆動信号を撮像素子1へ供給する。撮像素子1は、供給された駆動信号によって電荷蓄積(撮像)や蓄積電荷の読み出しが制御される。制御回路5は、測光回路15による被写体の測光データを用いて明るさ情報を求め、明るさ情報に基づいて撮像素子1の電荷蓄積時間などを決定する。
The image sensor drive circuit 8 generates a drive signal at a predetermined timing in response to a command output from the
撮像素子1から読み出された画像信号は、信号処理回路9へ入力される。信号処理回路9は、制御回路5からの指令に応じて入力信号に対する増幅、直流再生、A/D変換、ホワイトバランス、およびガンマ変換等の信号処理を施し、信号処理後のデータを画像データとしてデータ処理回路10へ出力する。
The image signal read from the image sensor 1 is input to the signal processing circuit 9. The signal processing circuit 9 performs signal processing such as amplification, direct current reproduction, A / D conversion, white balance, and gamma conversion on the input signal in accordance with a command from the
データ処理回路10は、制御回路5からの指令に応じて、モニタ13に再生画像を表示させるために必要な解像度変換(画素数変換)処理を画像データに施し、解像度変換処理後の画像データを圧縮/伸張回路11および表示制御回路14へそれぞれ出力する。
In response to a command from the
表示制御回路14は、制御回路5からの指令に応じて、データ処理回路10から入力される画像データに所定の信号処理を施してモニタ13へ出力する。表示制御回路14はさらに、上記画像データに撮影メニュー、カーソルなどのオーバーレイ画像データを重畳する処理を行う。これにより、オーバーレイ画像が重畳された被写体画像がモニタ13に表示される。
In response to a command from the
圧縮/伸張回路11は、制御回路5からの指令に応じて、データ処理回路10から入力される画像データに所定の形式で圧縮処理を施し、圧縮後のデータを記録媒体12へ記録する。撮影時に記録媒体12へ画像データを記録する場合、記録する画像データに対応する再生画像がモニタ13に表示される。
The compression /
なお、記録媒体12に記録されている画像データによる再生画像をモニタ13に表示することも可能に構成される。この場合の圧縮/伸張回路11は、制御回路5からの指令に応じて記録媒体12に記録されている画像データを読み出し、読み出しデータに対して復号化(伸張)処理を施した上で復号化後のデータをデータ処理回路10へ送る。再生時にデータ処理回路10が復号化データに解像度変換処理を施して表示制御回路14へ出力することにより、再生画像がモニタ13に表示される。
Note that it is also possible to display a reproduced image based on the image data recorded on the
照明装置20は、撮影時に制御回路5からの発光指示に応じて指示された光量で発光し、主要被写体を照明する。撮像装置は、照明装置20の発光を禁止する設定が行われている場合、撮影シーンモードがミュージアムモードに設定されている場合、および照明装置20の発光が禁止されていない状態で測光値(測光回路15による測光データから得られる明るさ情報)が所定値以上の場合のいずれかに該当する場合は、撮影時に照明装置20を発光させない。撮像装置は、上記いずれにも該当しない場合は、撮影時に照明装置20を発光させる。ここで、ミュージアムモードは照明発光が禁じられた室内での撮影に適した撮影シーンモードである。照明装置20に対して発光を指示する/しないの判定は制御回路5が行う。
The
操作部材7はレリーズ釦や撮影シーンモード設定ダイアルなどを含み、操作内容に応じた操作信号を制御回路5へ出力する。制御回路5は、レリーズ釦の押下操作に基づくレリーズ操作信号が操作部材7から入力されると、撮像素子1から読み出される画像信号の中で、撮像画面内にあらかじめ設定されているフォーカス検出領域に対応する信号を用いて周知のコントラスト方式のAF(オートフォーカス)動作を行う。
The operation member 7 includes a release button, a shooting scene mode setting dial, and the like, and outputs an operation signal corresponding to the operation content to the
具体的には、信号処理回路9によって信号処理された画像データのうち、フォーカス検出領域に対応するデータについての高域空間周波数成分の積算値(いわゆる焦点評価値)を最大にするように、レンズ駆動指令(フォーカス調節信号)をレンズ駆動回路3へ送る。焦点評価値を最大にするフォーカスレンズの位置は、撮像素子1によって撮像される被写体像のエッジのぼけをなくし、画像のコントラストを最大にする(尖鋭度を高める)合焦位置である。
Specifically, the lens is set so that the integrated value (so-called focus evaluation value) of the high-frequency spatial frequency component for the data corresponding to the focus detection area among the image data processed by the signal processing circuit 9 is maximized. A drive command (focus adjustment signal) is sent to the
本実施の形態では、撮像レンズ2内のフォーカスレンズを移動しながら順次得られる画像データ(映像信号)を撮影画面内の複数のフォーカス検出領域ごとに解析し、各領域に対応する画像のコントラスト値を最大にするフォーカスレンズ位置をもとに、各領域に位置する被写体の(相対的な)撮影距離を取得可能に構成されている。 In the present embodiment, image data (video signal) sequentially obtained while moving the focus lens in the imaging lens 2 is analyzed for each of a plurality of focus detection areas in the shooting screen, and the contrast value of the image corresponding to each area is analyzed. The (relative) shooting distance of the subject located in each area can be acquired based on the focus lens position that maximizes the angle.
なお、上記コントラスト方式のAF動作に加えて、公知の瞳分割方式による位相差AF動作を行うように構成してもよい。この場合にも、各領域に位置する被写体の撮影距離を得ることができる。 In addition to the contrast AF operation, a phase difference AF operation by a known pupil division method may be performed. Also in this case, the shooting distance of the subject located in each region can be obtained.
操作部材7はズーム操作部材も含む。制御回路5は、ズーム操作に基づくズーム操作信号が操作部材7から入力されると上述したレンズ駆動指令を発生し、レンズ駆動回路3にズームレンズを進退駆動させる。これにより、撮像素子1の撮像面上に結像される被写体像が拡大もしくは縮小し、光学的にズーム調節される。
The operation member 7 also includes a zoom operation member. When a zoom operation signal based on a zoom operation is input from the operation member 7, the
制御回路5はさらに、ズーム操作に基づくズーム操作信号が操作部材7から入力されるとデータ処理回路10へ指令を出力し、画像信号に対する解像度変換(画素数変換)処理の変換比率を操作信号に応じて変化させる。これにより、モニタ13に再生表示される画像が拡大もしくは縮小し、電気的にズーム調節される(電子ズーム)。解像度変換比率は電子ズーム倍率に対応する。データ処理回路10が電子ズーム倍率を高める方向に変換比率を変える場合、再生画像の一部が拡大されてモニタ13に表示される(拡大率が上がる反面、再生画像の表示範囲は狭くなる)。反対に、データ処理回路10が電子ズーム倍率を低くする方向に変換比率を変える場合、モニタ13に表示される再生画像の拡大率が下がる反面、再生画像の表示範囲は広くなる。
Further, when a zoom operation signal based on the zoom operation is input from the operation member 7, the
撮像装置が行うスルー画撮影動作と静止画本撮影動作について説明する。スルー画撮影は、本撮影の前段階として行われる予備撮影であり、本撮影は、レリーズ全押し操作信号(撮影指示)に応じて行われる撮影である。 A through image shooting operation and a still image book shooting operation performed by the imaging apparatus will be described. Through image shooting is preliminary shooting performed as a pre-stage of main shooting, and main shooting is shooting performed in response to a release full-press operation signal (shooting instruction).
<スルー画撮影動作>
本実施形態の撮像装置は、操作部材7からレリーズ釦の半押し操作に基づく半押し操作信号が制御回路5へ入力されると、上述したAF動作とスルー画撮影動作を開始する。スルー画撮影動作は、半押し操作信号の入力が継続されている間に所定のフレームレートで繰り返し行われる。
<Through image shooting operation>
When the half-pressing operation signal based on the half-pressing operation of the release button is input from the operation member 7 to the
制御回路5は、操作部材7からの半押し操作信号を検出すると撮像素子駆動回路8へ指示を送り、スルー画撮影動作を実行するための駆動信号を出力させる。撮像素子1は、スルー画撮影動作のための駆動信号を受けて、例えば、30フレーム/秒の高フレームレートで蓄積電荷を連続的に出力する。スルー画撮影用の露出条件は測光回路15による測光データに基づいて決定される。信号処理回路9は、入力された信号に上述した信号処理を施すとともに、撮像素子1上において近傍に位置する同色画素(単板カラーの撮像素子の場合)の信号を加算し、本撮影時に比べて低解像度の映像信号としてデータ処理回路10へ出力する。
When the
データ処理回路10が解像度変換処理を施した画像信号を表示制御回路14へ出力することにより、スルー画像がモニタ13に表示される。これにより、撮影者は、これから本撮影しようとする被写界の状態をモニタ13の画面で観察することができる。
The
<静止画本撮影動作>
スルー画撮影動作に続いてレリーズ釦が全押し操作されると、全押し操作信号が制御回路5へ入力される。撮像装置は、全押し操作信号に応じて静止画本撮影動作を開始する。
<Still image shooting>
When the release button is fully pressed following the through image shooting operation, a full press operation signal is input to the
制御回路5は、操作部材7からの全押し操作信号を検出すると撮像素子駆動回路8へ指示を送り、本撮影動作を実行するための駆動信号を出力させる。撮像素子1は、本撮影動作のための駆動信号を受けて、露出演算結果に基づく本撮影用の電荷蓄積を行って蓄積電荷を出力する。本撮影用の露出条件は、直近のスルー画データの信号値から得られる明るさの情報に基づいて決定される。信号処理回路9は入力された信号に上述した信号処理を施し、スルー画撮影時に比べて高解像度の画像信号としてデータ処理回路10へ出力する。
When the
データ処理回路10が解像度変換(画素数変換)処理を施した画像信号を表示制御回路14へ出力することにより、本撮影画像がモニタ13に表示される。また、圧縮/伸張回路11によって圧縮処理された画像データが記録媒体12へ記録される。
The
<ぼけ付加処理>
電気的なぼかしを画像に付加する(すなわち、画像にぼかしを加える)動作について説明する。画像に対して電気的にぼかしを加える(以後、画像ぼけの付加と呼ぶ)とは、画像処理によって画像を加工し、擬似的にピントを外した画像を生成するものである。本実施形態による撮像装置では、画像データにローパスフィルタ(LPF)処理を施して画像の高域空間周波数成分を劣化させることにより、画像のエッジを不鮮明にし、画像のコントラストを低下させる。
<Blur addition processing>
An operation of adding electrical blur to an image (that is, adding blur to an image) will be described. The process of electrically blurring an image (hereinafter referred to as adding an image blur) is to process an image by image processing and generate a pseudo-focused image. In the imaging apparatus according to the present embodiment, the image data is subjected to low-pass filter (LPF) processing to degrade the high-frequency spatial frequency component of the image, thereby blurring the edge of the image and lowering the contrast of the image.
撮像装置は、撮影シーンモードがポートレートモードおよびマクロモードのいずれかに設定されている場合に画像ぼけの付加(および付加内容の変更)が許可され、撮影シーンモードが遠景モードに設定されている場合には画像ぼけの付加(および付加内容の変更)が禁止される。ここで、ポートレートモードは人物を主要被写体とする撮影モード、マクロモードは近接撮影を行う撮影モード、遠景モードは風景を被写体とする撮影モードである。許可および禁止の判定は制御回路5が行う。ポートレートモードおよびマクロモードに設定されている場合には、後述する主要被写体領域の抽出処理が行われ、背景領域に画像ぼけの付加が行われる。一方、遠景モードに設定されている場合には、主要被写体領域の抽出処理は行われない。
The imaging apparatus is permitted to add image blur (and change the added content) when the shooting scene mode is set to either portrait mode or macro mode, and the shooting scene mode is set to the distant view mode. In such a case, addition of image blur (and change of the added content) is prohibited. Here, the portrait mode is a shooting mode in which a person is a main subject, the macro mode is a shooting mode in which close-up shooting is performed, and the distant view mode is a shooting mode in which a landscape is a subject. The
また、撮影シーンモードが夜景ポートレートモードに設定されている場合であって、画像の背景領域に所定レベル以上の明るさを有する領域が存在する場合にも、撮像装置は画像ぼけの付加(および付加内容の変更)が許可される。一方、画像の背景領域に所定レベル以上の明るさを有する領域が存在しない場合には、画像ぼけの付加(および付加内容の変更)が禁止され、後述する主要被写体領域の抽出処理は行われない。画像の背景領域に所定レベル以上の明るさ領域が存在するか否かは、データ処理回路10へ入力されたスルー画用の映像信号を用いて判定される。
In addition, when the shooting scene mode is set to the night scene portrait mode, and there is an area having a brightness of a predetermined level or more in the background area of the image, the imaging apparatus adds image blur (and Change of additional contents) is permitted. On the other hand, when there is no area having brightness of a predetermined level or more in the background area of the image, addition of image blur (and change of the added content) is prohibited, and extraction processing of a main subject area described later is not performed. . Whether or not a brightness area of a predetermined level or more exists in the background area of the image is determined using a video signal for a through image input to the
制御回路5は、上述した画像ぼけの付加(および付加内容の変更)を禁止する場合、少なくとも撮影時において禁止すれば、再生時には許可するように構成してよい。
The
本発明は、以上説明した撮像装置が画像ぼけを付加する領域を決定する処理に特徴を有する。制御回路5が画像ぼけを付加する撮影処理の流れについて、図2のフローチャートを参照して説明する。図2による撮影処理は、画像ぼけの付加(および付加内容の変更)が許可された場合に起動する。
The present invention is characterized in the process of determining an area to which image blur is added by the imaging apparatus described above. A flow of photographing processing in which the
図2のステップS101において、制御回路5はレリーズ釦が半押し操作されたか否かを判定する。制御回路5は、操作部材7(レリーズ釦)から半押し操作信号が入力されるとステップS101を肯定判定してステップS102へ進み、半押し操作信号が入力されない場合にはステップS101を否定判定し、当該判定処理を繰り返す。
In step S101 in FIG. 2, the
ステップS102において、制御回路5は、露出モードを絞り優先オートモードに設定するとともに、上述したスルー画撮影動作を開始させてステップS103へ進む。絞り優先オートモードにすることで、現時点で設定されている絞り値で撮影が行われる。
In step S102, the
ステップS103において、制御回路5は、スルー画用の映像信号から主要被写体の抽出処理を行ってステップS104へ進む。主要被写体を抽出する処理の詳細については後述する。
In step S103, the
ステップS104において、制御回路5は、スルー画用の映像信号のうち、ステップS103で抽出した主要被写体以外の領域(すなわち背景領域)に対する画像ぼけの付加をデータ処理回路10へ指示し、ステップS105へ進む。データ処理回路10が画像ぼけの付加および解像度変換処理を施した信号を表示制御回路14へ出力することにより、画像ぼけが付加された画像がモニタ13に表示される。
In step S104, the
データ処理回路10は、入力されるスルー画像のデータのうち背景領域に対応するデータに対してLPF処理を施すことによって画像ぼけを付加する。LPF処理の特性(フィルタの段数、遮断周波数など)は、フォーカス検出領域で取得されている距離情報に応じて変化させる。具体的には、主要被写体領域内のフォーカス検出領域で取得されている撮影距離と、背景領域内のフォーカス検出領域で取得されている撮影距離とを比較し、両者間の撮影距離の乖離が大きいほど遮断周波数を低くする。この結果、主要被写体の撮影距離との差が大きい背景領域ほど、強いぼけ効果が付加される。
The
なお、データ処理回路10にLPF処理を行わせる代わりに、点拡がり関数を用いた畳み込み演算処理を行わせてもよい。
Instead of causing the
ステップS105において、制御回路5は、撮影画面全体に動きがあるか否かを判定する。制御回路5は、スルー画撮影によって1/30秒ごとに取得される複数フレームのスルー画像データから算出されるフレーム間の動きベクトルの大きさ、向きの偏差(ばらつき)が、撮影画面の全体で(撮影画面を所定数に分割したブロックの全てにおいて)各々所定の範囲内にあり、かつ撮影画面内の動きベクトルの大きさの平均値が所定の値より大きい場合にステップS105を肯定判定し、ステップS106へ進む。
In step S105, the
一方、制御回路5は、複数フレームのスルー画像データから算出されるフレーム間の動きベクトルの大きさの撮影画面内の平均値が所定の値以下の場合、あるいは撮影画面内の動きベクトルの大きさ、向きの偏差が撮影画面の全ブロックにわたり所定の範囲内にあると判定されなかった場合にはステップS105を否定判定し、ステップS107へ進む。ステップS107において、制御回路5は、一部の被写体に動きがあるか否かを判定する。制御回路5は、スルー画撮影によって1/30秒ごとに取得される複数フレームのスルー画像データから算出されるフレーム間の動きベクトルの向き、大きさの偏差が撮影画面内の全ブロックにわたり所定の範囲内にないと判定された場合にはステップS107を肯定判定し、ステップS108へ進む。
On the other hand, when the average value of the motion vectors between frames calculated from the through image data of a plurality of frames is equal to or less than a predetermined value, the
ステップS106へ進む場合は、撮像装置の動きに起因する撮影範囲の移動があったと判定する。制御回路5は、ステップS106において、画像ぼけを付加する対象領域(背景領域)を動きベクトルの向き、大きさに応じて移動させてステップS109へ進む。ここで、撮影範囲の移動にともなって新たに撮影範囲に加わった領域に対しては、撮影範囲が移動する前のフレームの画面端において付加されていたぼけ量と同等のぼけを付加する(同様のLPF処理を施す)。画像ぼけを付加する対象領域の移動は、リアルタイムでモニタ13の表示画像に反映される。
When the process proceeds to step S106, it is determined that there has been a movement of the photographing range due to the movement of the imaging device. In step S106, the
なお、撮影範囲の移動にともなって新たに撮影範囲に加わった領域に対するぼけ付加量を、撮影範囲が移動する前に付加していた撮影画面内のぼけ量の分布から外挿演算によって算出し、算出したぼけ量を付加する構成としても構わない。この場合にも、画像ぼけを付加する対象領域の移動はリアルタイムでモニタ13の表示画像に反映される。
The amount of blur added to the area newly added to the shooting range with the movement of the shooting range is calculated by extrapolation from the distribution of the blur amount in the shooting screen added before the shooting range moves, The calculated blur amount may be added. Also in this case, the movement of the target area to which the image blur is added is reflected on the display image of the
一方、制御回路5は、スルー画撮影によって1/30秒ごとに取得される複数フレームのスルー画像データから算出されるフレーム間の動きベクトルの変化が、上記所定数の分割ブロックのいずれでも検出されない場合にはステップS107を否定判定し、ステップS109へ進む。この場合は、画像ぼけを付加する対象領域を変更しないでステップS109へ進む。
On the other hand, the
ステップS108へ進む場合は、撮影画面内の一部被写体について動きがあったと判定する。制御回路5は、ステップS108において、動きを検出した分割ブロックにおける動きベクトルの向き、大きさに応じて、画像ぼけを付加する対象領域(一部被写体に対応する領域)を移動させてステップS109へ進む。
When the process proceeds to step S108, it is determined that there is a movement for a part of the subject in the shooting screen. In step S108, the
図3は、時刻T0、T1およびT2のそれぞれにおいて取得されたスルー画像を例示する図である。時刻T1の現フレーム画面の中で、動きを検出した一部被写体の領域O1に付加するぼけ量は、一部被写体が移動する前のフレーム画面(時刻T0)において当該一部被写体の領域O0に付加されていたぼけ量と同等とし、領域O0の位置に対応する現フレーム画面(時刻T1)内の領域Pに付加するぼけ量は、領域Pの周囲に対して付加するぼけ量の分布から補間処理によって算出する。画像ぼけを付加する対象領域の移動は、リアルタイムでモニタ13の表示画像に反映される。
FIG. 3 is a diagram illustrating through images acquired at times T0, T1, and T2. In the current frame screen at time T1, the amount of blur added to the partial subject area O1 in which the motion has been detected is the same as the partial subject area O0 in the frame screen (time T0) before the partial subject moves. The amount of blur to be added to the region P in the current frame screen (time T1) corresponding to the position of the region O0 is interpolated from the distribution of the amount of blur added to the periphery of the region P. Calculate by processing. The movement of the target area to which image blur is added is reflected in the display image of the
一部被写体が移動する前に存在していた領域に対するぼけ付加量について、以下のように決定してもよい。すなわち、現フレームを時刻T2とすると、現フレーム画面の中で動きを検出した一部被写体の領域O2に付加するぼけ量は、一部被写体が移動する前のフレーム画面(時刻T1)において当該一部被写体の領域O1に付加されていたぼけ量と同等とし、領域O1の位置に対応する現フレーム画面(時刻T2)内の領域Qに付加するぼけ量は、さらに前(一部被写体が移動してくる前)のフレーム画面(時刻T0)において対応する領域Rに付加されていたぼけ量と同等とする。 You may determine as follows about the blur addition amount with respect to the area | region which existed before the one subject moved. That is, assuming that the current frame is time T2, the amount of blur added to the area O2 of the partial subject whose movement has been detected in the current frame screen is the same as that in the frame screen (time T1) before the partial subject moves. The blur amount added to the area Q in the current frame screen (time T2) corresponding to the position of the area O1 is set to be the same as the blur amount added to the area O1 of the partial subject. The blur amount added to the corresponding region R in the previous frame screen (time T0) is the same.
ステップS109において、制御回路5は、画像ぼけの付加量の変更操作が行われたか否かを判定する。制御回路5は、ぼけ量変更操作信号が操作部材7から入力された場合にステップS109を肯定判定してステップS110へ進み、ぼけ量変更操作信号が入力されない場合にはステップS109を否定判定してステップS111へ進む。ぼけ量変更操作は、モニタ13の画面上で特定領域について指定して行われる変更操作と、画面全体について共通に行われる変更操作とのいずれも可能に構成されている。もちろん、各被写体の撮影距離や時間などに応じてぼけ量を自動的に変更するものであってもよい。
In step S109, the
ステップS110において、制御回路5は、変更操作信号に応じてLPF処理の特性を変更するようにデータ処理回路10へ指示してステップS111へ進む。これにより、付加されるぼけ量が変更される。なお、LPF処理の代わりに畳み込み演算処理を行う場合には、変更操作信号に応じて点拡がり関数を変更する。ぼけ量変更後の画像は、リアルタイムでモニタ13に表示される。
In step S110, the
ステップS111において、制御回路5はレリーズ釦が半押し操作されているか否かを判定する。制御回路5は、操作部材7から半押し操作信号が継続して入力されている場合、ステップS111を肯定判定してステップS112へ進む。一方、半押し操作信号が入力されていない場合の制御回路5は、ステップS111を否定判定して画像ぼけの付加を解除し、ステップS101へ戻る。
In step S111, the
レリーズ釦の半押し操作の有無に関係なく、メインスイッチのオン時にスルー画撮影動作を繰り返すように設定されている撮像装置の場合は、上記ステップS111を否定判定してステップS101へ戻ってから次に半押し操作信号が入力されるまでの間、画像ぼけを付加しないスルー画像をモニタ13に表示する。
Regardless of whether the release button is half-pressed or not, in the case of an image pickup apparatus that is set to repeat the through image shooting operation when the main switch is turned on, a negative determination is made in step S111 and the process returns to step S101. Until the half-press operation signal is input, a through image without image blur is displayed on the
ステップS112において、制御回路5はレリーズ釦が全押し操作されたか否かを判定する。制御回路5は、操作部材7から全押し操作信号が入力された場合、ステップS112を肯定判定してステップS113へ進み、全押し操作信号が入力されない場合にはステップS112を否定判定し、ステップS105へ戻る。
In step S112, the
ステップS113において、制御回路5は、本撮影動作を開始させてステップS114へ進む。制御回路5は、全押し操作信号が入力される直前にモニタ13に表示されていたスルー画像データを用いて本撮影用の自動露出(AE)動作を行う。これにより、直近のスルー画像データに画像ぼけが付加されている場合は、付加された画像ぼけを含む信号値に基づいて本撮影用の露出が決定され、直近のスルー画像データに画像ぼけが付加されない場合には、画像ぼけを付加していない信号値に基づいて本撮影用の露出が決定される。
In step S113, the
ステップS114において、制御回路5は、本撮影で得た画像信号に対し、全押し操作信号が入力される直前のスルー画像に対して付加していた画像ぼけと同様の画像ぼけを付加する処理(対象領域および画像ぼけの付加比率を同様にする)を行う。制御回路5はさらに、画像ぼけを付加後に圧縮処理した本撮影画像のデータを記録媒体12に記録し、絞り優先オートモードを直近の設定モードに戻した上で図2による処理を終了する。
In step S114, the
制御回路5が記録媒体12へ本撮影画像のデータを記録する場合、本撮影画像とともに、サムネイル画像およびクイックビュー画像の記録も行う。サムネイル画像は、モニタ13に撮影画像を縮小表示するための画像であり、サムネイル用に本撮影画像から画素数を低減させたものである。また、クイックビュー画像は、モニタ13に撮影画像を再生表示する際に用いられる画像であり、モニタ13の表示ピクセルに応じて本撮影画像から画素数を低減させた画像である。サムネイル画像およびクイックビュー画像は、それぞれ本撮影画像に関連付けられて記録媒体12に記録される。
When the
<モニタの表示例>
画像ぼけを付加した画像をモニタ13へ表示する場合の表示態様について、図4を参照して説明する。図4(a)は、画像ぼけを付加しないでスルー画像を表示するモニタ13を例示する図である。図4(a)において、主要被写体300の背後に被写体301が、被写体301のさらに後方に被写体302が、それぞれ存在する。撮像装置は、AF動作によってフォーカス調節され、撮像装置に最至近の主要被写体300に合焦している。
<Display example of monitor>
A display mode when an image with added image blur is displayed on the
図4(a)に例示したスルー画像に画像ぼけを付加する場合、合焦している主要被写体300より遠方に位置する被写体の領域に画像ぼけが付加される。付加されるぼけ量は、主要被写体300の撮影距離との差がより大きい(より遠方に位置する)被写体302の方が被写体301よりも大きい。本実施形態の撮像装置は、このような画像ぼけを付加したスルー画像を図4(b)のようにモニタ13に表示する。
When the image blur is added to the through image illustrated in FIG. 4A, the image blur is added to a region of a subject located far from the focused
図4(b)によれば、画像ぼけが付加された領域/付加されない領域を撮影者が容易に視認できるように、画像ぼけを付加しない領域(この場合は主要被写体300の領域)の境界部を強調表示する。本実施形態では、主要被写体300の輪郭を太線で表示して強調を表す。また、画像ぼけの付加量は遠方に位置する被写体ほど大きくしてよく、主要な各被写体の輪郭の線の太さを変えることによって強調の違いを表すことができる。なお、図4(b)では、画像ぼけを付加しない領域=主要被写体300の領域の例を示したが、合焦状態にない被写体であっても画像ぼけを付加しない場合があってもよい。すなわち、画像ぼけを付加しない領域は、必ずしも合焦状態にある主要被写体とは限らない。
According to FIG. 4 (b), the boundary portion of the region to which no image blur is added (in this case, the region of the main subject 300) so that the photographer can easily recognize the region to which the image blur has been added / the region to which the image blur has not been added. To highlight. In the present embodiment, the outline of the
なお、以上のモニタ表示は、撮像範囲全体の移動があった場合(ステップS105を肯定判定)、および一部被写体の移動があった場合(ステップS107を肯定判定)には、画像ぼけを付加する対象領域の移動がリアルタイムで反映される。 Note that the above monitor display adds image blur when there is a movement of the entire imaging range (Yes in step S105) and when there is a movement of a part of a subject (Yes in step S107). The movement of the target area is reflected in real time.
モニタ13に画像ぼけを付加したスルー画像を表示する例を説明したが、本撮影画像やサムネイル画像、クイックビュー画像に画像ぼけを付加し、それぞれをモニタ13に表示する場合も同様である。
The example of displaying the through image with the image blur added to the
このように画像ぼけが付加された画像は、画像ぼけを付加しない領域(この場合は主要被写体300の領域)と、画像ぼけを付加した領域(この場合は主要被写体301および302を含む領域)とを含む全領域画像としてモニタ13に表示される。
Thus, an image with image blur added includes an area to which no image blur is added (in this case, an area of the main subject 300), and an area to which image blur is added (in this case, an area including the
本実施形態の撮像装置は、画像ぼけを撮影画像の背景領域に付加するため、背景領域と異なる主要被写体領域を以下のように抽出する。 The imaging apparatus according to the present embodiment extracts a main subject area different from the background area as follows in order to add image blur to the background area of the captured image.
撮像装置は、以下の5つの抽出方法から選択する1つの抽出方法を用いて撮影画像を解析することにより、撮影画像の中から主要被写体領域を抽出する。
1.第1の抽出方法
第1の抽出方法は、撮影時に照明装置20を発光させて取得した撮影画像と、撮影時に照明装置20を発光させないで取得した撮影画像とを用いて主要被写体領域を抽出する(特開平10−210340号公報参照)。撮像装置は、二つの画像間で画素ごとに画像データの比が所定値以上となる領域を抽出し、この領域を主要被写体領域と判定する。画像データの比が所定値以上となる領域の判定は、制御回路5による制御下でデータ処理回路10が行う。このような二画像を参照する抽出方法は、二つの画像間で被写体を構成する画素データを対応させるための位置合わせが必要である。
The imaging apparatus extracts the main subject region from the captured image by analyzing the captured image using one extraction method selected from the following five extraction methods.
1. First Extraction Method In the first extraction method, a main subject region is extracted using a captured image acquired by causing the
2.第2の抽出方法
第2の抽出方法は、主要被写体に合焦させて取得した撮影画像と、主要被写体からピントを外して取得した撮影画像とを用いて主要被写体領域を抽出する(特開平09−327037号公報参照)。撮像装置は、二つの画像間で画素ごとに差分(すなわち、共通の被写体を構成する両画像の画素データ(画像信号)の信号差)を演算し、演算結果を所定の判定閾値と比較することによって主要被写体と背景との境界部を抽出し、この境界部で示される領域を主要被写体と判定する。差分演算、境界部の抽出および領域判定は、制御回路5による制御下でデータ処理回路10が行う。このように二画像を参照する抽出方法は、二つの画像間で被写体を構成する画素データを対応させるための位置合わせが必要である。
2. Second Extraction Method The second extraction method extracts a main subject region using a photographed image acquired by focusing on the main subject and a photographed image obtained by focusing out of the main subject (Japanese Patent Laid-Open No. 09). -327037). The imaging apparatus calculates a difference for each pixel between two images (that is, a signal difference between pixel data (image signals) of both images constituting a common subject), and compares the calculation result with a predetermined determination threshold value. To extract the boundary between the main subject and the background, and determine the region indicated by the boundary as the main subject. The
3.第3の抽出方法
第3の抽出方法は、異なる被写界深度で取得した二つの撮影画像を用いて主要被写体領域を抽出する(特開2004−310504号公報参照)。撮像装置は、二つの画像から相対的なぼけ情報を求め、ぼけ情報に応じて主要被写体領域を判定する。ぼけ情報は、共通の被写体を構成する両画像の画素データ(画像信号)を比較して求める。ぼけ情報の取得および領域判定は、制御回路5による制御下でデータ処理回路10が行う。このように二画像を参照する抽出方法は、二つの画像間で被写体を構成する画素データを対応させるための位置合わせが必要である。
3. Third Extraction Method The third extraction method extracts a main subject region using two captured images acquired at different depths of field (see Japanese Patent Application Laid-Open No. 2004-310504). The imaging device obtains relative blur information from the two images, and determines a main subject area according to the blur information. The blur information is obtained by comparing pixel data (image signals) of both images constituting a common subject. Acquisition of blur information and area determination are performed by the
4.第4の抽出方法
第4の抽出方法は、撮影画像の空間周波数成分を解析することによって主要被写体領域を抽出する。撮像装置は、スルー画像の全画面について所定ブロックごとに空間周波数成分を分析し、高周波数成分が所定の判定閾値より多く抽出される領域、あるいは高周波数成分が最も多く抽出される領域を主要被写体と判定する。空間周波数成分の分析は圧縮/伸張回路11内のDCT(離散コサイン変換)演算部によって行い、領域判定は、制御回路5による制御下でデータ処理回路10が行う。
4). Fourth Extraction Method The fourth extraction method extracts a main subject region by analyzing a spatial frequency component of a captured image. The imaging device analyzes the spatial frequency component for each predetermined block on the entire screen of the through image, and selects the region where the high frequency component is extracted more than the predetermined determination threshold or the region where the high frequency component is extracted most as the main subject. Is determined. Analysis of the spatial frequency component is performed by a DCT (discrete cosine transform) calculation unit in the compression /
5.第5の抽出方法
第5の抽出方法は、撮影画像の稜線を取得することによって主要被写体領域を抽出する(特開2000−132706号公報参照)。撮像装置は、各被写体像の最下端の画面上の位置と稜線をもとに撮影画面内の各被写体距離を判断し、最至近の被写体を主要被写体と判定する。稜線の検出は制御回路5が行い、領域判定は制御回路5による制御下でデータ処理回路10が行う。
5. Fifth Extraction Method The fifth extraction method extracts a main subject region by acquiring a ridge line of a captured image (see Japanese Patent Application Laid-Open No. 2000-132706). The imaging device determines each subject distance in the shooting screen based on the position on the lowermost screen of each subject image and the ridgeline, and determines the closest subject as the main subject. The detection of the ridge line is performed by the
制御回路5が主要被写体を抽出する処理の流れについて、図5および図6のフローチャートを参照して説明する。本実施形態では、図5、図6による処理をステップS103のサブルーチンとして構成する。
The flow of processing by which the
図5のステップS11において、制御回路5は、発光禁止設定か否かを判定する。制御回路5は、照明装置20の発光を禁止する設定がなされている場合にステップS11を肯定判定してステップS15へ進み、発光禁止設定がなされていない場合にはステップS11を否定判定してステップS12へ進む。発光禁止の設定および解除は、操作部材7を構成するスイッチ(不図示)からの操作信号に応じて制御回路5が行う。
In step S11 of FIG. 5, the
ステップS12において、制御回路5は、ミュージアムモードか否かを判定する。ミュージアムモードは展示物を撮影するための撮影モードであり、このモードに設定されると、展示物を保護するために照明装置20を発光させずに撮影を行う。制御回路5は、撮影シーンモードがミュージアムモードに設定されている場合にステップS12を肯定判定してステップS15へ進み、ミュージアムモードに設定されていない場合にはステップS12を否定判定してステップS14へ進む。
In step S12, the
ステップS14において、制御回路5は、AF処理を開始してステップS16へ進む。AF動作は、フォーカスレンズを無限遠に対応する位置から至近端に対応する位置へ向けて所定の速度で移動させながら、この移動過程において複数のフォーカス検出領域ごとに焦点評価値を最大にするフォーカスレンズ位置(合焦位置)を検出し、各フォーカスレンズ位置に対応する撮影距離情報を取得する。これにより、複数のフォーカス検出領域ごとに、当該領域に存在している被写体までの距離情報が得られる。
In step S14, the
制御回路5は、AF動作中においてスルー画像を上記フレームレートでモニタ13に逐次表示させるとともに、複数のフォーカス検出領域を示すAFマークをスルー画像に重ねて重畳表示させる。
The
ステップS15へ進む場合は、照明装置20を発光させない場合である。ステップS15において、制御回路5は、第1の抽出方法を除外してステップS14へ進む。これにより、制御回路5は、後述するステップS27で第1の抽出方法を除く他の抽出方法から抽出方法を選択する。
The process proceeds to step S15 when the
ステップS16において、制御回路5は、ピントが合う稜線が検出されているか否かを判定する。制御回路5は、スルー画像から稜線を検出した場合にステップS16を肯定判定してステップS18へ進み、稜線を検出していない場合はステップS16を否定判定してステップS17へ進む。
In step S16, the
ステップS17において、制御回路5は、AF動作が終了か否かを判定する。制御回路5は、AF動作を終了した場合にステップS17を肯定判定してステップS18へ進み、終了していない場合にはステップS17を否定判定してステップS16へ戻る。ステップS16へ戻る場合は、AF動作を継続する。
In step S17, the
ステップS18において、制御回路5は、稜線情報を不図示の内部メモリに保存してステップS17へ進む。稜線情報には、撮影画面における稜線の位置(領域)およびこの領域に存在する被写体までの距離情報を含む。
In step S18, the
ステップS19において、制御回路5は、測光値が所定値以上か否かを判定する。制御回路5は、測光回路15による測光データから得られる明るさ情報が所定値以上の場合にステップS19を肯定判定してステップステップS21へ進み、明るさ情報が所定値以上でない場合にはステップS19を否定判定し、ステップS20へ進む。
In step S19, the
ステップS21へ進む場合は、照明装置20を発光させない場合である。ステップS21において、制御回路5は、第1の抽出方法を除外してステップS20へ進む。これにより、制御回路5は、第1の抽出方法を除く他の抽出方法から1つの抽出方法を選択する。
The process proceeds to step S21 when the
ステップS20において、制御回路5は、スポーツ撮影モードか否かを判定する。制御回路5は、撮影シーンモードがスポーツ撮影モードに設定されている場合にステップS20を肯定判定してステップS23へ進み、スポーツ撮影モードに設定されていない場合にはステップS20を否定判定してステップS22へ進む。ここで、スポーツ撮影モードは、スポーツシーンなどの動きがある被写体を撮影するモードである。
In step S20, the
ステップS22において、制御回路5は、スルー画像の動きのばらつきが所定値以上か否かを判定する。制御回路5は、スルー画撮影によって1/30秒ごとに取得される複数フレームのスルー画像データから算出されるフレーム間の動きベクトルの変化が小さい(動きベクトルの向きおよび大きさの撮影画面の全ブロックにおけるフレーム間の変化量が所定値未満である)、もしくは、動きベクトルの向きおよび大きさの偏差が撮影画面の全ブロックにわたり所定の範囲内にあると判定された場合にステップS22を否定判定し、図6のステップS24へ進む。この場合は、フレーム間でスルー画像の位置合わせが容易とみなせる。
In step S22, the
一方、制御回路5は、複数フレームのスルー画像データから算出されるフレーム間の動きベクトルの向きおよび大きさの偏差が、上記の全分割ブロックにわたり所定の範囲内にあると判定されない場合にはステップS22を肯定判定し、ステップS23へ進む。
On the other hand, if the
ステップS23へ進む場合は、フレーム間でスルー画像の位置合わせが困難となるおそれがある。制御回路5は、ステップS23において、第1〜第3の抽出方法を除外して図6のステップS24へ進む。これにより、制御回路5は1つの撮影画像から主要被写体領域を抽出する第4および第5の抽出方法から抽出方法を選択する。
When the process proceeds to step S23, it may be difficult to align the through image between frames. In step S23, the
図6のステップS24において、制御回路5は、稜線情報を保存しているか否かを判定する。制御回路5は、ステップS18で保存した稜線情報が存在する場合にステップS24を肯定判定してステップS25へ進み、稜線情報が存在しない場合にはステップS24を否定判定してステップS26へ進む。
In step S24 of FIG. 6, the
ステップS26へ進む場合は、稜線情報がないため第5の抽出方法の使用が適さない場合である。ステップS26において、制御回路5は、第5の抽出方法を除外してステップS25へ進む。これにより、制御回路5は、第5の抽出方法を除く他の抽出方法から1つの抽出方法を選択する。
When the process proceeds to step S26, the use of the fifth extraction method is not suitable because there is no ridge line information. In step S26, the
ステップS25において、制御回路5は、スルー画像の全画面領域に対する周波数解析で、領域によって有意な高域空間周波数成分の差が検出されているか否かを判定する。制御回路5は、圧縮処理に用いられる所定ブロック間において、空間周波数成分に差が認められる場合にステップS25を肯定判定してステップS27へ進み、空間周波数成分に差が認められない場合にはステップS25を否定判定し、ステップS28へ進む。
In step S <b> 25, the
ステップS28へ進む場合は、高域空間周波数成分が抽出されないため第4の抽出方法の使用が適さない場合である。ステップS28において、制御回路5は、第4の抽出方法を除外してステップS27へ進む。これにより、制御回路5は、第4の抽出方法を除く他の抽出方法から1つの抽出方法を選択する。
When the process proceeds to step S28, the use of the fourth extraction method is not suitable because the high frequency spatial frequency component is not extracted. In step S28, the
ステップS27において、制御回路5は、公知の特定色(肌色等)領域を抽出する技術、あるいは登録されている特定の輪郭情報と類似する輪郭を有する領域を抽出する技術と、第1〜第5の抽出方法のうち除外されていない抽出方法の1つを用いて、スルー画像から主要被写体領域を抽出する。たとえば、スルー画像から肌色領域を抽出し、抽出した肌色領域に対し、除外されていない抽出方法から選択した抽出方法(複数の抽出方法から選択する優先順位は、1、2、3、4、5の順とする)を適用して主要被写体領域を判定する。ここで、第1〜第5の抽出方法のうちから除外されていない複数の方法を選択するものであってもよい。
In step S27, the
第1の抽出方法を選択した場合の制御回路5は、主要被写体領域を抽出するためのスルー画撮影において、たとえば、照明装置20を発光させないで1フレーム目のスルー画撮影を行い、2フレーム目に照明装置20を発光させてスルー画撮影を行うように各部を制御する。なお、フォーカスレンズの位置は、AF動作によって検出された最至近の被写体に合焦する位置に移動されている。
When the first extraction method is selected, the
第2の抽出方法を選択した場合の制御回路5は、主要被写体領域を抽出するためのスルー画撮影において、たとえば、撮像装置に最至近の主要被写体に合焦させて1フレーム目のスルー画撮影を行い、2フレーム目にフォーカスレンズを所定量移動させて(主要被写体からピントを外して)スルー画撮影を行うように各部を制御する。なお、移動させたフォーカスレンズは、AF動作によって検出された最至近の被写体に合焦する位置へ戻される。上記の1フレーム目の撮影と2フレーム目の撮影との撮影順序は逆にしても構わない。
When the second extraction method is selected, the
第3の抽出方法を選択した場合の制御回路5は、主要被写体領域を抽出するためのスルー画撮影において、たとえば、絞り優先オートによる制御値で1フレーム目のスルー画撮影を行い、2フレーム目に絞り値を所定段数変更させて(被写界深度を変えて)スルー画撮影を行うように各部を制御する。なお、変更された絞り値は変更前の絞り値に戻される。また、フォーカスレンズの位置は、AF動作によって検出された最至近の被写体に合焦する位置に移動されている。
When the third extraction method is selected, the
第4の抽出方法を選択した場合、および第5の抽出方法を選択した場合の制御回路5は、AF動作によって検出された最至近の被写体に合焦する位置にフォーカスレンズが移動されている状態で、主要被写体領域を抽出するためのスルー画撮影を少なくとも1フレーム行えばよい。
When the fourth extraction method is selected and when the fifth extraction method is selected, the
制御回路5は、上記抽出した主要被写体に合焦する位置へフォーカスレンズを駆動させる。抽出された被写体が複数存在する場合は、上記AF動作で取得された複数の被写体までの距離情報を用いて、撮像装置に最も近い被写体を抽出する。
The
制御回路5は、主要被写体の領域を抽出すると図6による処理を終了し、図2のステップS104へ戻る。
When the
以上説明した実施形態によれば、以下の作用効果が得られる。
(1)主要被写体領域を判定する際に、公知の特定色(肌色等)領域を抽出する方法と、第1〜第5の被写体領域抽出方法のうち、除外されていない被写体領域抽出方法の1つもしくは複数とを組み合わせることにより、スルー画像の中から主要被写体領域を判定するようにした。特定色(肌色等)領域を抽出する方法のみを用いて主要被写体領域を判定する場合に比べて、主要被写体領域の判定精度を高めることができる。これにより、画像ぼけを付加する背景領域を正確に求めることができる。
According to the embodiment described above, the following effects can be obtained.
(1) One of the methods for extracting a known specific color (skin color, etc.) region and the first to fifth subject region extraction methods that are not excluded when determining the main subject region The main subject area is determined from the through image by combining one or more. Compared with the case where the main subject region is determined using only the method of extracting the specific color (skin color or the like) region, the determination accuracy of the main subject region can be improved. Thereby, the background area to which the image blur is added can be accurately obtained.
(2)第1の抽出方法について、照明装置20が非発光にされる状態で選択しないように選択範囲から除外した(ステップS15)ので、照明装置20を発光させて行う第1の抽出方法と、照明装置20を非発光にする撮像装置の設定状態との間の矛盾を排除できる。たとえば、本撮像装置がバッテリにより駆動され、バッテリの残容量が所定値より少ないことが制御回路5によって判断され、照明装置20の発光が禁止されているような場合に対しても上記の構成を適用することができる。
(2) Since the first extraction method is excluded from the selection range so as not to be selected in a state where the
(3)第1の抽出方法について、測光値が所定値以上の状態で選択しないように選択範囲から除外した(ステップS21)ので、照明装置20の発光時と非発光時とで画像間の明るさの差が必要な第1の抽出方法を、非常に明るい撮影環境下で適用することを排除できる。
(3) Since the first extraction method is excluded from the selection range so that the photometric value is not selected in a state of a predetermined value or more (step S21), the brightness between images when the
(4)第1〜第3の抽出方法について、被写体の動きが予想されるスポーツ撮影モード(ステップS20を肯定判定)や、スルー画像の中でフレーム間の動きベクトルの向きや大きさのばらつきが所定値以上検出された場合(ステップS22を肯定判定)には選択しないように選択範囲から除外した(ステップS23)ので、被写体を構成する画素データのフレーム間における位置合わせが困難な状態で当該位置合わせを行うための動き補償演算処理を行わなくてよいため、制御回路5の負担を軽減できる。
(4) With regard to the first to third extraction methods, there is a variation in the direction and size of the motion vector between frames in a sport shooting mode in which the movement of the subject is expected (Yes in step S20) or in a through image. If it is detected above a predetermined value (step S22 is affirmative), it is excluded from the selection range so that it is not selected (step S23), so that the position of the pixel data constituting the subject is difficult to align between frames. Since it is not necessary to perform the motion compensation calculation process for performing the alignment, the burden on the
(5)第5の抽出方法について、スルー画像の中からピントが合う稜線が検出されない状態で選択しないように選択範囲から除外した(ステップS26)ので、稜線情報が必要な第5の抽出方法を、稜線を含まないスルー画像に適用することを排除できる。 (5) The fifth extraction method is excluded from the selection range so as not to be selected in a state where a focused ridge line is not detected from the through image (step S26). Therefore, the fifth extraction method that requires ridge line information is used. Application to a through image not including a ridge line can be eliminated.
(6)第4の抽出方法について、圧縮処理に用いられる所定ブロック間で空間周波数成分に差が認められない状態で選択しないように選択範囲から除外した(ステップS28)ので、所定ブロック間において空間周波数成分の差が必要な第4の抽出方法を、ブロック間の空間周波数成分に差が生じないスルー画像に適用することを排除できる。ブロック間の空間周波数成分に差がない画像とは、たとえば、単色の平板を撮影した場合の画像である。 (6) Since the fourth extraction method is excluded from the selection range so as not to be selected in a state where there is no difference in spatial frequency components between the predetermined blocks used for the compression process (step S28), the space between the predetermined blocks It is possible to eliminate applying the fourth extraction method that requires a difference in frequency components to a through image in which a difference in spatial frequency components between blocks does not occur. An image having no difference in spatial frequency components between blocks is, for example, an image when a monochrome flat plate is photographed.
(7)上記(2)〜(6)のように抽出方法の選択範囲をフレキシブルに変化させるようにしたので、撮像装置に設定されている撮影シーンモード、取得されている撮影画像(この場合はスルー画像)によって示される画像の特徴(動き、稜線の状態、空間周波数)、撮影環境(明るさ)、バッテリの残容量に応じて、適切な主要被写体領域の抽出方法を選択することができる。 (7) Since the selection range of the extraction method is changed flexibly as described in (2) to (6) above, the shooting scene mode set in the imaging device, the acquired shot image (in this case) An appropriate main subject region extraction method can be selected according to the characteristics (motion, ridgeline state, spatial frequency) of the image indicated by the “through image”, the shooting environment (brightness), and the remaining battery capacity.
(変形例1)
上述した説明では、画像中の主要被写体領域を抽出する複数の方法のうち、除外されていない抽出方法から1つの方法を選択する場合の選択優先順位を、1、2、3、4、5の順としたが、選択順位は、撮影者の意図に応じて適宜変更してよい。
(Modification 1)
In the above description, the selection priority in the case where one method is selected from the extraction methods that are not excluded among the plurality of methods for extracting the main subject region in the image is 1, 2, 3, 4, 5. However, the selection order may be changed as appropriate according to the photographer's intention.
(変形例2)
照明装置20が撮像装置に内蔵される例を説明したが、外付けの照明装置を撮像装置に接続して使用する場合にも本発明を適用できる。
(Modification 2)
Although the example in which the
(変形例3)
上述したステップS22において、動きのばらつき判定を段階的に行うようにしてもよい。たとえば、焦点面を移動させながら判定したり、絞り値を調節しながら判定したりする。焦点面を移動しながら動きのばらつき判定を行う場合の制御回路5は、連続するフレームのスルー画撮影において、フォーカスレンズの位置を異ならせて(異なるフォーカス調節状態にするように焦点面を移動させて)スルー画撮影を行うように撮像装置内の各部を制御する。制御回路5は、フレーム間の動きベクトルの変化が、上記所定数の分割ブロックのいずれかで焦点面移動時の判定閾値以上検出される場合には、ステップS22を肯定判定して第2の抽出方法を除外する。
(Modification 3)
In step S22 described above, the motion variation determination may be performed step by step. For example, the determination is made while moving the focal plane, or the adjustment is made while adjusting the aperture value. The
また、絞り値を変更しながら動きのばらつき判定を行う場合の制御回路5は、連続するフレームのスルー画撮影において、絞り値を異ならせて(異なる光学ぼけ状態にするように被写界深度を変更させて)スルー画撮影を行うように撮像装置内の各部を制御する。制御回路5は、フレーム間の動きベクトルの変化が、上記所定数の分割ブロックのいずれかで被写界深度変更時の判定閾値以上検出される場合には、ステップS22を肯定判定して第3の抽出方法を除外する。なお、変形例3の場合も、被写体の動きが予想されるスポーツ撮影モード(ステップS20を肯定判定)の場合は、ステップS20と同様に、第1の抽出方法を除外する。
In addition, the
(変形例4)
また、上述したステップS22において、動きセンサによる検出信号を用いて動きのばらつき判定を行うように構成してもよい。この場合の撮像装置は、角速度センサもしくは加速度センサを備える。制御回路5は、動きセンサからの検出信号によって示される動きベクトルの大きさおよび向きと、スルー画像内の所定ブロックから得られる動きベクトルの大きさおよび向きとをそれぞれ比較し、両者の差が所定値以下の場合は手ぶれに起因する撮影画像の平行移動とみなし、ステップS22を否定判定する。平行移動とみなす場合には、第1〜第3の抽出方法を除外しない。
(Modification 4)
Further, in step S22 described above, it may be configured to perform motion variation determination using a detection signal from the motion sensor. The imaging device in this case includes an angular velocity sensor or an acceleration sensor. The
測光値は、測光回路15による検出値から得る他に、撮像素子1による画像信号の信号レベルから得る構成としてもよい。
The photometric value may be obtained from the signal level of the image signal from the image sensor 1 in addition to the photometric value obtained from the
上述したように決定した抽出方法で取得した主要被写体領域は、画像ぼけを付加する領域の決定に用いたり、フォーカス調節時のフォーカスエリアとして用いたり、測光時の測光エリアとして用いたり、ズームアップ(ズームダウン)時の中心エリアとして用いてもよい。 The main subject area acquired by the extraction method determined as described above is used to determine an area to add image blur, to be used as a focus area at the time of focus adjustment, to be used as a photometry area at the time of photometry, or to zoom up ( It may be used as a central area when zooming down.
以上の説明はあくまで一例であり、発明を解釈する上で、上記の実施形態の構成要素と本発明の構成要素との対応関係に何ら限定されるものではない。 The above description is merely an example, and the interpretation of the invention is not limited to the correspondence between the components of the above-described embodiment and the components of the present invention.
1…撮像素子
2…撮影レンズ
3…レンズ駆動回路
5…制御回路
7…操作部材
9…信号処理回路
10…データ処理回路
11…圧縮/伸張回路
12…記録媒体
13…モニタ
14…表示制御回路
15…測光回路
20…照明装置
DESCRIPTION OF SYMBOLS 1 ... Imaging device 2 ...
Claims (6)
前記撮影された画像から主要被写体領域を抽出する主要被写体領域抽出手段と、
設定されている撮影シーンモードに応じて、照明装置を発光させて撮影された画像と前記照明装置を発光させないで撮影された画像とを用いて前記主要被写体領域を抽出する二画像参照方法を含む複数の異なる抽出方法の中から選択した方法で撮影シーンに適した領域抽出を行うように前記主要被写体領域抽出手段を制御する制御手段とを備え、
前記制御手段は、被写体を照明する照明装置に非発光を指示する撮影シーンモードが設定されている場合、前記二画像参照方法を除く他の抽出方法を選択するように前記主要被写体領域抽出手段を制御することを特徴とする撮像装置。 An image sensor that captures a subject image and outputs an image signal;
Main subject region extraction means for extracting a main subject region from the photographed image;
Including a two-image reference method for extracting the main subject region using an image shot with a lighting device emitting light and an image shot without the lighting device emitting light according to a set shooting scene mode Control means for controlling the main subject area extraction means so as to perform area extraction suitable for the shooting scene by a method selected from a plurality of different extraction methods;
The control means is configured to cause the main subject region extraction means to select an extraction method other than the two-image reference method when a shooting scene mode for instructing non-light emission is set for an illumination device that illuminates the subject. An imaging device characterized by controlling .
前記複数の異なる抽出方法には、異なる撮影条件で撮影されたに画像を用いて前記主要被写体領域を抽出する二画像参照方法、撮影画像の空間周波数を分析することによって前記主要被写体領域を抽出する方法、及び撮影画像から検出される稜線情報を用いて前記主要被写体領域を抽出する稜線情報参照方法を含むことを特徴とする撮像装置。The plurality of different extraction methods include a two-image reference method for extracting the main subject region using images taken under different shooting conditions, and extracting the main subject region by analyzing the spatial frequency of the shot image. An imaging apparatus comprising: a method; and a ridge line information reference method for extracting the main subject region using ridge line information detected from a captured image.
前記撮影された画像から主要被写体領域を抽出する主要被写体領域抽出手段と、Main subject region extraction means for extracting a main subject region from the photographed image;
撮影環境に応じて、照明装置を発光させて撮影された画像と前記照明装置を発光させないで撮影された画像とを用いて前記主要被写体領域を抽出する二画像参照方法を含む複数の異なる抽出方法の中から選択した方法で撮影シーンに適した領域抽出を行うように前記主要被写体領域抽出手段を制御する制御手段とを備え、A plurality of different extraction methods including a two-image reference method for extracting the main subject region using an image shot with a lighting device emitting light and an image shot without the lighting device emitting light according to the shooting environment Control means for controlling the main subject area extraction means so as to perform area extraction suitable for the shooting scene by a method selected from
前記制御手段は、測光値が所定値以上の場合、前記二画像参照方法を除く他の抽出方法を選択するように前記主要被写体領域抽出手段を制御することを特徴とする撮像装置。The image pickup apparatus according to claim 1, wherein the control unit controls the main subject region extraction unit to select an extraction method other than the two-image reference method when a photometric value is a predetermined value or more.
前記複数の異なる抽出方法には、異なる撮影条件で撮影されたに画像を用いて前記主要被写体領域を抽出する二画像参照方法、撮影画像の空間周波数を分析することによって前記主要被写体領域を抽出する方法、及び撮影画像から検出される稜線情報を用いて前記主要被写体領域を抽出する稜線情報参照方法を含むことを特徴とする撮像装置。The plurality of different extraction methods include a two-image reference method for extracting the main subject region using images taken under different shooting conditions, and extracting the main subject region by analyzing the spatial frequency of the shot image. An imaging apparatus comprising: a method; and a ridge line information reference method for extracting the main subject region using ridge line information detected from a captured image.
前記撮影された画像から主要被写体領域を抽出する主要被写体領域抽出手段と、Main subject region extraction means for extracting a main subject region from the photographed image;
設定されている撮影シーンモードに応じて、異なる撮影条件で撮影された二画像を用いて前記主要被写体領域を抽出する二画像参照方法を含む複数の異なる抽出方法の中から選択した方法で撮影シーンに適した領域抽出を行うように前記主要被写体領域抽出手段を制御する制御手段とを備え、A shooting scene selected from a plurality of different extraction methods including a two-image reference method for extracting the main subject region using two images shot under different shooting conditions according to a set shooting scene mode. Control means for controlling the main subject region extraction means so as to perform region extraction suitable for
前記制御手段は、動きのある被写体を撮影する撮影シーンモードが設定されているとき、前記二画像参照方法を除く他の抽出方法を選択するように前記主要被写体領域抽出手段を制御することを特徴とする撮像装置。The control means controls the main subject region extraction means to select an extraction method other than the two-image reference method when a photographing scene mode for photographing a moving subject is set. An imaging device.
前記複数の異なる抽出方法には、異なる撮影条件で撮影されたに画像を用いて前記主要被写体領域を抽出する二画像参照方法、撮影画像の空間周波数を分析することによって前記主要被写体領域を抽出する方法、及び撮影画像から検出される稜線情報を用いて前記主要被写体領域を抽出する稜線情報参照方法を含むことを特徴とする撮像装置。
The imaging apparatus according to claim 5,
The plurality of different extraction methods include a two-image reference method for extracting the main subject region using images taken under different shooting conditions, and extracting the main subject region by analyzing the spatial frequency of the shot image. An imaging apparatus comprising: a method; and a ridge line information reference method for extracting the main subject region using ridge line information detected from a captured image .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005318281A JP4645413B2 (en) | 2005-11-01 | 2005-11-01 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005318281A JP4645413B2 (en) | 2005-11-01 | 2005-11-01 | Imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007129310A JP2007129310A (en) | 2007-05-24 |
JP4645413B2 true JP4645413B2 (en) | 2011-03-09 |
Family
ID=38151632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005318281A Expired - Fee Related JP4645413B2 (en) | 2005-11-01 | 2005-11-01 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4645413B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008294785A (en) * | 2007-05-25 | 2008-12-04 | Sanyo Electric Co Ltd | Image processor, imaging apparatus, image file, and image processing method |
JP5092958B2 (en) * | 2008-07-17 | 2012-12-05 | カシオ計算機株式会社 | Image processing apparatus and program |
JP5182054B2 (en) * | 2008-12-10 | 2013-04-10 | 株式会社ニコン | Image processing apparatus and image processing program |
JP5725758B2 (en) * | 2010-08-18 | 2015-05-27 | キヤノン株式会社 | Imaging device |
JP6071173B2 (en) * | 2011-05-23 | 2017-02-01 | キヤノン株式会社 | Imaging apparatus, control method thereof, and program |
JP2013055609A (en) * | 2011-09-06 | 2013-03-21 | Olympus Imaging Corp | Digital camera |
JP5857567B2 (en) * | 2011-09-15 | 2016-02-10 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
JP6089476B2 (en) * | 2012-07-20 | 2017-03-08 | 株式会社ニコン | Image processing apparatus, imaging apparatus, and image processing program |
JP6029464B2 (en) * | 2012-12-28 | 2016-11-24 | キヤノン株式会社 | Imaging device, control method thereof, and control program |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62159289A (en) * | 1986-01-08 | 1987-07-15 | Hitachi Ltd | Deciding method for object |
JPH09138118A (en) * | 1995-11-15 | 1997-05-27 | Matsushita Electric Ind Co Ltd | Method for setting image detecting condition |
JPH09138470A (en) * | 1995-11-14 | 1997-05-27 | Fuji Photo Film Co Ltd | Method for deciding major part of image and copy condition decision method |
JPH11316845A (en) * | 1998-03-02 | 1999-11-16 | Fuji Photo Film Co Ltd | Method and device for extracting main object |
JP2001103304A (en) * | 1999-07-29 | 2001-04-13 | Fuji Photo Film Co Ltd | Method and system for extracting specific object |
JP2001197352A (en) * | 2000-01-12 | 2001-07-19 | Fuji Photo Film Co Ltd | Main object extracting method |
JP2003156680A (en) * | 2001-11-22 | 2003-05-30 | Minolta Co Ltd | Subject extracting device and photographing device |
JP2003163827A (en) * | 2001-11-22 | 2003-06-06 | Minolta Co Ltd | Object extracting device and photographing device |
JP2004040462A (en) * | 2002-07-03 | 2004-02-05 | Minolta Co Ltd | Image pickup equipment |
-
2005
- 2005-11-01 JP JP2005318281A patent/JP4645413B2/en not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62159289A (en) * | 1986-01-08 | 1987-07-15 | Hitachi Ltd | Deciding method for object |
JPH09138470A (en) * | 1995-11-14 | 1997-05-27 | Fuji Photo Film Co Ltd | Method for deciding major part of image and copy condition decision method |
JPH09138118A (en) * | 1995-11-15 | 1997-05-27 | Matsushita Electric Ind Co Ltd | Method for setting image detecting condition |
JPH11316845A (en) * | 1998-03-02 | 1999-11-16 | Fuji Photo Film Co Ltd | Method and device for extracting main object |
JP2001103304A (en) * | 1999-07-29 | 2001-04-13 | Fuji Photo Film Co Ltd | Method and system for extracting specific object |
JP2001197352A (en) * | 2000-01-12 | 2001-07-19 | Fuji Photo Film Co Ltd | Main object extracting method |
JP2003156680A (en) * | 2001-11-22 | 2003-05-30 | Minolta Co Ltd | Subject extracting device and photographing device |
JP2003163827A (en) * | 2001-11-22 | 2003-06-06 | Minolta Co Ltd | Object extracting device and photographing device |
JP2004040462A (en) * | 2002-07-03 | 2004-02-05 | Minolta Co Ltd | Image pickup equipment |
Also Published As
Publication number | Publication date |
---|---|
JP2007129310A (en) | 2007-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4674471B2 (en) | Digital camera | |
US8106995B2 (en) | Image-taking method and apparatus | |
JP4980982B2 (en) | Imaging apparatus, imaging method, focus control method, and program | |
KR101342477B1 (en) | Imaging apparatus and imaging method for taking moving image | |
JP5247076B2 (en) | Image tracking device, focus adjustment device, and imaging device | |
JP4645413B2 (en) | Imaging device | |
US8854528B2 (en) | Imaging apparatus | |
US9761010B2 (en) | Tracking apparatus | |
JP4982997B2 (en) | Image processing device | |
JP5704851B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM | |
JP2005215040A (en) | Autofocus system | |
JP2007108412A (en) | Autofocus device and its program | |
JP2006258944A (en) | Autofocus system | |
JP4760302B2 (en) | Imaging device | |
JP6391304B2 (en) | Imaging apparatus, control method, and program | |
US10901174B2 (en) | Camera for limiting shifting of focus adjustment optical system | |
JP2009065573A (en) | Imaging apparatus, focus control method, and focus control program | |
JP2007142702A (en) | Image processing apparatus | |
JP4596246B2 (en) | Auto focus system | |
JP2011217311A (en) | Imaging apparatus and method of controlling the same | |
JP2007225897A (en) | Focusing position determination device and method | |
JP2007124278A (en) | Imaging apparatus | |
JP4977996B2 (en) | Imaging device | |
JP2004309653A (en) | Imaging unit | |
JP2015232620A (en) | Imaging device, control method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081014 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100802 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100817 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101018 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20101018 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101109 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101122 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131217 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131217 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |