JP4881113B2 - IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM - Google Patents

IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM Download PDF

Info

Publication number
JP4881113B2
JP4881113B2 JP2006257738A JP2006257738A JP4881113B2 JP 4881113 B2 JP4881113 B2 JP 4881113B2 JP 2006257738 A JP2006257738 A JP 2006257738A JP 2006257738 A JP2006257738 A JP 2006257738A JP 4881113 B2 JP4881113 B2 JP 4881113B2
Authority
JP
Japan
Prior art keywords
focus detection
imaging
information
color signal
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006257738A
Other languages
Japanese (ja)
Other versions
JP2008076878A (en
JP2008076878A5 (en
Inventor
香 田島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006257738A priority Critical patent/JP4881113B2/en
Publication of JP2008076878A publication Critical patent/JP2008076878A/en
Publication of JP2008076878A5 publication Critical patent/JP2008076878A5/ja
Application granted granted Critical
Publication of JP4881113B2 publication Critical patent/JP4881113B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Description

本発明は、自動合焦技術に特徴を備える撮像装置、撮像装置の制御方法、プログラム、及び記憶媒体に関する。   The present invention relates to an imaging apparatus having a feature in an automatic focusing technique, an imaging apparatus control method, a program, and a storage medium.

デジタルカメラや、デジタルビデオカメラなどの撮像装置では、固体撮像素子から得られる輝度信号の高周波成分を用いて合焦動作を行う自動焦点検出処理の技術が搭載されている。この自動焦点検出処理では、フォーカスレンズを移動させながら、撮像画面内に設定された焦点検出領域内の輝度信号の高周波成分を積分することにより、最もコントラストが大きくなるレンズ位置を、合焦点として検出する。   An imaging apparatus such as a digital camera or a digital video camera is equipped with an automatic focus detection processing technique for performing a focusing operation using a high-frequency component of a luminance signal obtained from a solid-state imaging device. In this automatic focus detection process, the lens position with the highest contrast is detected as the in-focus point by integrating the high-frequency component of the luminance signal in the focus detection area set in the imaging screen while moving the focus lens. To do.

従来技術における撮像装置では、この自動焦点検出処理について、被写体光を複数種類の色信号成分に分離し、レンズの焦点距離と絞りに応じて、任意の割合で合成した後に高周波成分を検出し、焦点検出領域内で積分を行って焦点調節を行う。このような自動焦点検出処理の技術の提案が、たとえば特許文献1に開示されている。   In the image pickup apparatus in the prior art, for this automatic focus detection process, the subject light is separated into a plurality of types of color signal components, and after combining at an arbitrary ratio according to the focal length and aperture of the lens, a high frequency component is detected, The focus is adjusted by integrating within the focus detection area. A proposal of such a technique for automatic focus detection processing is disclosed in Patent Document 1, for example.

また、撮像画面内の複数の焦点検出領域から、あらかじめ特定の焦点検出領域を選択しておく。そして、その特定の焦点検出領域で得られる焦点検出値に対して、焦点検出領域内の被写体の色信号情報と、焦点検出領域の撮像画面内での位置に応じた補正を行って合焦位置を調節する提案もされている。
特開2001−141988号公報
In addition, a specific focus detection area is selected in advance from a plurality of focus detection areas in the imaging screen. Then, the focus detection value obtained in the specific focus detection area is corrected in accordance with the color signal information of the subject in the focus detection area and the position of the focus detection area in the imaging screen, and the in-focus position There are also proposals to adjust this.
Japanese Patent Laid-Open No. 2001-141988

しかしながら、特許文献1に開示された従来例では、焦点検出領域の位置、及び焦点検出領域内の色信号情報に応じて複数の色信号成分の合成比率を変えてはいない。そのため、多点焦点検出方式の撮像装置に適用した場合、レンズの倍率色収差の影響によって、撮像画面の中心部に比べ、周辺部の焦点検出領域からは、合焦に値しない評価値しか得られないという問題があった。   However, in the conventional example disclosed in Patent Document 1, the composition ratio of a plurality of color signal components is not changed according to the position of the focus detection area and the color signal information in the focus detection area. Therefore, when applied to an imaging device of a multipoint focus detection method, only an evaluation value that is not worthy of focusing is obtained from the focus detection area in the peripheral portion compared to the central portion of the imaging screen due to the influence of the chromatic aberration of magnification of the lens. There was no problem.

また、従来例では、白色光信号として検出した特定の焦点検出領域の焦点検出値に対して、その焦点検出領域の位置と色信号情報に応じた補正値を参照し、レンズ位置を動かす制御を行う。そのため、複数の焦点検出領域からの焦点検出値を同一の条件で比較し、撮像画面内での合焦位置を自動的に決定することが出来ないという問題があった。   Further, in the conventional example, with respect to a focus detection value of a specific focus detection area detected as a white light signal, control for moving the lens position with reference to a correction value corresponding to the position of the focus detection area and the color signal information is performed. Do. For this reason, there is a problem in that focus detection values from a plurality of focus detection areas cannot be compared automatically under the same conditions to automatically determine a focus position within the imaging screen.

本発明は、このような問題点に鑑みなされたものであり、合焦精度のさらなる向上を実現した撮像方法の提案を目的とする。   The present invention has been made in view of such problems, and an object of the present invention is to propose an imaging method that realizes further improvement in focusing accuracy.

上記の目的を達成するため、本発明の実施形態における撮像装置は、
被写体像を撮像して画像データを出力する撮像手段と、
前記撮像手段から得られる前記画像データを複数の色信号成分に分離する分離手段と、
前記分離手段から出力される前記複数の色信号成分に対して、それぞれ高周波成分を検出する高周波成分検出手段と、
前記撮像手段の撮像画面内の複数の位置に設定された焦点検出領域に関し、各焦点検出領域の前記撮像画面内における位置を表情報を算出する焦点検出領域位置情報検出手段と、
前記焦点検出領域毎に色信号情報を検出する色信号情報検出手段と、
前記焦点検出領域毎に、前記撮像画面内における位置を表わす情報と前記色信号情報に基づいて、前記高周波成分検出手段から出力されるそれぞれの前記高周波成分を合成し、焦点検出評価値を生成する焦点検出評価値生成手段と、を備える。
In order to achieve the above object, an imaging apparatus according to an embodiment of the present invention provides:
Imaging means for capturing a subject image and outputting image data ;
Separating means for separating the image data obtained from the imaging means into a plurality of color signal components;
High frequency component detection means for detecting high frequency components for each of the plurality of color signal components output from the separation means;
Relates focus detection areas set in a plurality of positions in the imaging screen of the imaging means, and the focus detection area position information detecting means for the position in the imaging screen of each focus detection area is calculated to information I Table,
Color signal information detecting means for detecting color signal information for each focus detection area;
For each of the focus detecting area, on the basis of the position information representing the said color signal information in the imaging screen, synthesizing each of the high-frequency component output from the high frequency component detection means, generating a focus detection evaluation value And a focus detection evaluation value generating means.

上記の目的を達成するため、本発明の他の実施形態における撮像装置の制御方法は、
撮像手段から出力された画像データを複数の色信号成分に分離する分離工程と、
前記分離工程で出力される前記複数の色信号成分に対して、それぞれ高周波成分を検出する高周波成分検出工程と、
前記撮像手段における撮像画面内の複数の位置に設定された焦点検出領域に関し、各焦点検出領域の前記撮像画面内における位置を表情報を算出する焦点検出領域位置情報検出工程と、
前記焦点検出領域毎に色信号情報を検出する色信号情報検出工程と、
前記焦点検出領域毎に、前記撮像画面内における位置を表わす情報と前記色信号情報に基づいて、前記高周波成分検出工程から出力されるそれぞれの前記高周波成分を合成し、焦点検出評価値を生成する焦点検出評価値生成工程と、を備える。
In order to achieve the above object, a method for controlling an imaging apparatus according to another embodiment of the present invention includes:
A separation step of separating the image data output from the imaging means into a plurality of color signal components;
A high-frequency component detection step for detecting a high-frequency component for each of the plurality of color signal components output in the separation step;
A plurality of relates focus detection areas set in position, the focus detecting area position information detection step of the position in the imaging screen of each focus detection area is calculated to information I table in the imaging screen in the image pickup means,
A color signal information detection step of detecting color signal information for each focus detection region;
For each of the focus detecting area, on the basis of the position information representing the said color signal information in the imaging screen, synthesizing each of the high-frequency component output from the high-frequency component detecting step, generating a focus detection evaluation value And a focus detection evaluation value generation step.

本発明によれば、合焦精度を向上させることが可能となる。   According to the present invention, it is possible to improve focusing accuracy.

<実施形態1>
以下、図面にしたがって、本発明の実施形態に係る撮像装置の構成及び動作を順次説明する。図1は、本発明の実施形態1である撮像装置の構成を示すブロック図である。本発明の実施形態に係る撮像装置では、多点焦点検出式のオートフォーカス処理(以下、多点AFとする。)を行うものとする。
<Embodiment 1>
Hereinafter, according to the drawings, the configuration and operation of an imaging apparatus according to an embodiment of the present invention will be sequentially described. FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus that is Embodiment 1 of the present invention. In the imaging apparatus according to the embodiment of the present invention, multipoint focus detection type autofocus processing (hereinafter referred to as multipoint AF) is performed.

図1において、1はレンズ及び絞り機構を含む光学系、2は原色フィルタがベイヤー状に配置された固体撮像素子、3はCDS回路およびA/D変換回路を含むアナログフロントエンド部(以下AFEとする)を示す。   In FIG. 1, 1 is an optical system including a lens and a diaphragm mechanism, 2 is a solid-state imaging device in which primary color filters are arranged in a Bayer shape, and 3 is an analog front end unit (hereinafter referred to as AFE) including a CDS circuit and an A / D conversion circuit. Show).

また、5は固体撮像素子2、AFE3等を動作させるクロック信号等を発生するタイミング信号発生回路、4は光学系1及び固体撮像素子2の駆動回路である。また7は、AFE3から得られる画像データ(図中RAWと表記)から輝度信号及び色差信号を生成するカメラ信号処理回路を示す。   Reference numeral 5 denotes a timing signal generating circuit for generating a clock signal or the like for operating the solid-state imaging device 2, AFE 3, etc., and 4 denotes a driving circuit for the optical system 1 and the solid-state imaging device 2. Reference numeral 7 denotes a camera signal processing circuit that generates a luminance signal and a color difference signal from image data (indicated as RAW in the drawing) obtained from the AFE 3.

さらに8は、自動焦点調節処理(以下AF処理と表記する。)用のAF評価値を生成するAF評価値生成回路、9は画像データを記憶する画像メモリ、10はカメラ信号処理された画像データを符号化圧縮処理する符号化圧縮処理回路である。   Further, 8 is an AF evaluation value generation circuit for generating an AF evaluation value for automatic focus adjustment processing (hereinafter referred to as AF processing), 9 is an image memory for storing image data, and 10 is image data subjected to camera signal processing. Is a coding compression processing circuit for performing coding compression processing.

また12は、画像データを記録する、撮像装置から取り外し可能な記録媒体、11は符号化圧縮処理された画像データを記録媒体12に記録する記録処理回路、14はカメラ信号処理された画像データを表示する画像表示装置である。   Reference numeral 12 denotes a recording medium that records image data and is removable from the imaging device. Reference numeral 11 denotes a recording processing circuit that records encoded and compressed image data on the recording medium 12. Reference numeral 14 denotes image data that has undergone camera signal processing. An image display device for display.

また13は、画像表示装置14に画像データを表示させる表示制御回路、6は撮像装置全体を制御するシステム制御部、また15は、システム制御部6と撮像装置内の各回路ブロックとの通信を行うバスである。さらに16は、システム制御部6で実行される制御方法を記載したプログラム、プログラムを実行する際に使用されるパラメータやテーブル等の制御データを記憶しておく不揮発性メモリ(ROM)である。また17は、不揮発性メモリ16に記憶されたプログラムおよび制御データを転送して記憶し、システム制御部6が撮像装置を制御する際に使用する揮発性メモリ(RAM)である。   Reference numeral 13 denotes a display control circuit for displaying image data on the image display device 14, reference numeral 6 denotes a system control unit for controlling the entire imaging apparatus, and reference numeral 15 denotes communication between the system control unit 6 and each circuit block in the imaging apparatus. It is a bus to perform. Reference numeral 16 denotes a non-volatile memory (ROM) for storing a control program executed by the system control unit 6 and control data such as parameters and tables used when executing the program. Reference numeral 17 denotes a volatile memory (RAM) that transfers and stores the program and control data stored in the nonvolatile memory 16 and is used when the system control unit 6 controls the imaging apparatus.

以下、上述のように構成された撮像装置での撮影動作について説明する。撮影動作に先立ち、撮像装置の電源投入時等のシステム制御部6の動作開始時において、ROM16から必要なプログラム、制御データおよび補正データを揮発性メモリ17に転送して記憶しておくものとする。   Hereinafter, a photographing operation in the imaging apparatus configured as described above will be described. Prior to the shooting operation, necessary programs, control data, and correction data are transferred from the ROM 16 to the volatile memory 17 and stored at the start of the operation of the system control unit 6 such as when the imaging apparatus is turned on. .

また、これらのプログラムやデータは、システム制御部6が撮像装置を制御する際に使用する。さらに必要に応じて、追加のプログラムやデータを不揮発性メモリ16から揮発性メモリ17に転送したり、システム制御部6が直接不揮発性メモリ16内のデータを読み出して使用する。   These programs and data are used when the system control unit 6 controls the imaging apparatus. Further, if necessary, an additional program or data is transferred from the nonvolatile memory 16 to the volatile memory 17, or the system control unit 6 directly reads and uses the data in the nonvolatile memory 16.

まず、駆動回路4は、システム制御部6からの制御信号により、絞り機構とレンズを含む光学系4を駆動して、適切な明るさに設定された被写体像を固体撮像素子2に結像させる。   First, the drive circuit 4 drives the optical system 4 including a diaphragm mechanism and a lens by a control signal from the system control unit 6 to form a subject image set to an appropriate brightness on the solid-state imaging device 2. .

固体撮像素子2は、システム制御部6により制御されるタイミング信号発生回路5が発生する動作クロックパルスをもとに駆動され、被写体像を光電変換により電気信号に変換してアナログ画像信号として出力する。   The solid-state imaging device 2 is driven based on an operation clock pulse generated by the timing signal generation circuit 5 controlled by the system control unit 6, converts the subject image into an electrical signal by photoelectric conversion, and outputs it as an analog image signal. .

固体撮像素子2から出力されたアナログの画像信号は、システム制御部6により制御されるタイミング信号発生回路5が発生する動作パルスにより、AFE3内部に設けられる図示しないCDS回路でクロック同期性ノイズを除去する。その後、AFE3内部の図示しないA/D変換回路でデジタル画像信号に変換される。   The analog image signal output from the solid-state imaging device 2 is subjected to operation pulse generated by the timing signal generation circuit 5 controlled by the system control unit 6 to remove clock synchronous noise by a CDS circuit (not shown) provided in the AFE 3. To do. Thereafter, it is converted into a digital image signal by an A / D conversion circuit (not shown) inside the AFE 3.

システム制御部6により制御されるカメラ信号処理回路7では、RGB分離処理回路70で、AFE3の出力であるデジタル画像信号をR、G及びBの各色信号に分離した後、ホワイトバランスをとる。また、YCマトリクス処理回路71は、ホワイトバランス後のRGB信号から低域輝度信号YLと色差信号CR及びCBを生成する。また、BPF72では、AFE3から出力されるRAWから高域輝度信号YHを抽出し、APC処理回路73において、低域輝度信号YLに、高域輝度信号YHを加算して、輪郭補償された輝度信号Yを出力する。   In the camera signal processing circuit 7 controlled by the system control unit 6, the RGB separation processing circuit 70 separates the digital image signal output from the AFE 3 into R, G, and B color signals, and then achieves white balance. Further, the YC matrix processing circuit 71 generates a low-frequency luminance signal YL and color difference signals CR and CB from the RGB signal after white balance. Further, the BPF 72 extracts the high-frequency luminance signal YH from the RAW output from the AFE 3, and the APC processing circuit 73 adds the high-frequency luminance signal YH to the low-frequency luminance signal YL so that the contour-compensated luminance signal is obtained. Y is output.

また、RGB分離処理回路70から出力される、ホワイトバランス処理後のR、G及びBの各信号は、AF評価値生成回路8にも入力される。   The R, G, and B signals after the white balance processing output from the RGB separation processing circuit 70 are also input to the AF evaluation value generation circuit 8.

画像メモリ9は、信号処理中のデジタル画像信号を一時的に記憶したり、信号処理されたデジタル画像信号である画像データを記憶したりするために用いられる。以下、デジタル画像信号は、画像データとして説明する。   The image memory 9 is used for temporarily storing a digital image signal during signal processing or for storing image data which is a digital image signal subjected to signal processing. Hereinafter, the digital image signal will be described as image data.

符号化圧縮処理回路10は、システム制御部6によって制御され、カメラ信号処理回路7で信号処理された画像データを映像信号規格に準拠した方式で符号化圧縮する。符号化圧縮された画像データは、システム制御部6によって制御される記録処理回路11で、記録媒体12に適したデータ形式に変換され、記録媒体12に記録される。   The encoding / compression processing circuit 10 is controlled by the system control unit 6 and encodes and compresses the image data signal-processed by the camera signal processing circuit 7 by a method compliant with the video signal standard. The encoded and compressed image data is converted into a data format suitable for the recording medium 12 by the recording processing circuit 11 controlled by the system control unit 6 and recorded on the recording medium 12.

また、カメラ信号処理回路7の出力の画像データは、表示制御回路13において画像表示装置14に適した信号(例えばNTSC方式のアナログ信号等)に変換されて画像表示装置14で表示される。   The image data output from the camera signal processing circuit 7 is converted into a signal suitable for the image display device 14 (for example, an NTSC analog signal) by the display control circuit 13 and displayed on the image display device 14.

ここで、システム制御部15は、バス15を介して、駆動回路4、タイミング信号発生回路5、カメラ信号処理回路7、AF評価値生成回路8、符号化圧縮処理回路10、表示制御回路13、記録処理回路11等を制御する。各信号処理回路に必要な制御パラメータや、各信号処理回路を制御するプログラム等の情報は、システム制御部6に接続されたROM16から読み出される。   Here, the system control unit 15 is connected to the drive circuit 4, the timing signal generation circuit 5, the camera signal processing circuit 7, the AF evaluation value generation circuit 8, the encoding / compression processing circuit 10, the display control circuit 13, via the bus 15. The recording processing circuit 11 and the like are controlled. Information such as control parameters necessary for each signal processing circuit and a program for controlling each signal processing circuit is read from the ROM 16 connected to the system control unit 6.

図1において、8は、AF評価値生成回路である。以下、AF評価値生成回路8の構成について説明する。   In FIG. 1, 8 is an AF evaluation value generation circuit. Hereinafter, the configuration of the AF evaluation value generation circuit 8 will be described.

800、801及び802は、カメラ信号処理回路7から出力されるR、G及びB信号に対して、それぞれ、高周波成分Rh、Gh及びBhを検出するためのバンドパスフィルタ回路(以下BPFと表記する。)である。803、804及び805は、カメラ信号処理回路7から出力されるRGB信号をそれぞれ焦点検出領域ごとに積分し、焦点検出領域の大きさで正規化する積分回路である。   Reference numerals 800, 801, and 802 denote bandpass filter circuits (hereinafter referred to as BPF) for detecting high-frequency components Rh, Gh, and Bh for the R, G, and B signals output from the camera signal processing circuit 7, respectively. .) Reference numerals 803, 804, and 805 denote integration circuits that integrate the RGB signals output from the camera signal processing circuit 7 for each focus detection area and normalize them by the size of the focus detection area.

806は、AF評価値生成処理の過程で一時的に処理中の信号を保持するためのRAMであり、ここではAF−RAMと呼ぶ。807は、カメラ信号処理回路7から出力されるRGB信号の積分値Rav、Gav及びBavから、焦点検出領域内の平均の彩度Cを求める彩度検出回路である。また808は、積分値Rav、Gav及びBavの大小を比較し、焦点検出領域内の色が、R、G及びBのいずれに偏っているかを示すフラグ「max_col」を出力する色味検出回路である。   Reference numeral 806 denotes a RAM for temporarily holding a signal being processed during the AF evaluation value generation process, and is referred to as an AF-RAM here. Reference numeral 807 denotes a saturation detection circuit for obtaining an average saturation C in the focus detection region from the RGB signal integrated values Rav, Gav, and Bav output from the camera signal processing circuit 7. Reference numeral 808 denotes a tint detection circuit that compares the integrated values Rav, Gav, and Bav and outputs a flag “max_col” indicating whether the color in the focus detection region is biased to R, G, or B. is there.

さらに809は、焦点検出領域内の平均の彩度C、色味検出回路808のフラグ「max_col」、システム制御部6から入力される焦点検出領域位置情報を用いてR、G及びB信号の高周波成分の合成比Kr、Kg及びKbを生成する合成比生成回路である。また810は評価値合成回路である。評価値合成回路810では、合成比生成回路809の出力である合成比Kr、Kg及びKbを用い、バンドパスフィルタ回路800乃至802の出力であるR、G及びB信号の高周波成分Rh、Gh及びBhを合成する。そしてAF評価用の輝度信号「AF_Y」を生成する。   Further, reference numeral 809 denotes the high frequency of the R, G, and B signals using the average saturation C in the focus detection area, the flag “max_col” of the tint detection circuit 808, and the focus detection area position information input from the system control unit 6. This is a synthesis ratio generation circuit that generates component synthesis ratios Kr, Kg, and Kb. Reference numeral 810 denotes an evaluation value synthesis circuit. The evaluation value synthesis circuit 810 uses the synthesis ratios Kr, Kg, and Kb that are the outputs of the synthesis ratio generation circuit 809 and uses the high-frequency components Rh, Gh, and R of the R, G, and B signals that are the outputs of the bandpass filter circuits 800 to 802. Synthesize Bh. Then, a luminance signal “AF_Y” for AF evaluation is generated.

811は、評価値合成回路810の出力である輝度信号「AF_Y」を、焦点検出領域内の全画素分につき積分し、焦点検出領域における最終的なAF評価値「AF_Y_av」を出力する積分回路である。また812は、画像メモリ9と画像データの通信を行う画像メモリインターフェース(画像メモリI/Fと表記する。)である。   811 is an integration circuit that integrates the luminance signal “AF_Y”, which is the output of the evaluation value synthesis circuit 810, for all the pixels in the focus detection area, and outputs the final AF evaluation value “AF_Y_av” in the focus detection area. is there. Reference numeral 812 denotes an image memory interface (denoted as an image memory I / F) that communicates image data with the image memory 9.

次に、図2のフローチャート図を参照しながら、AF評価値生成処理回路8の動作について、説明する。   Next, the operation of the AF evaluation value generation processing circuit 8 will be described with reference to the flowchart of FIG.

まず、処理の開始後のステップS201では、システム制御部6において、RAM17等に設定される図示しない焦点検出領域カウンタの値を0にリセットする。ステップS202では、システム制御部6によって、ROM16から、焦点検出領域カウンタで指定された焦点検出領域の座標が読み出され、RAM17に書込まれる。   First, in step S201 after the start of processing, the system control unit 6 resets the value of a focus detection area counter (not shown) set in the RAM 17 or the like to zero. In step S202, the coordinates of the focus detection area specified by the focus detection area counter are read from the ROM 16 by the system control unit 6 and written into the RAM 17.

ステップS203では、カメラ信号処理回路7から出力されるRGB信号が読み込まれる。ステップS204では、システム制御部6によって、RAM17に書込まれたAF焦点検出領域の座標と、カメラ信号処理回路7から読み込まれたRGB信号の画素データの位置が比較される。そして、RGB信号の画素データがAF評価値の焦点検出領域内に位置する場合には、ステップS205及びステップS206に移行する。しかし、そうでない場合には、カメラ信号処理回路7から、次の位置のRGB信号の画素データが入力されるのを待機する。   In step S203, the RGB signal output from the camera signal processing circuit 7 is read. In step S <b> 204, the system control unit 6 compares the coordinates of the AF focus detection area written in the RAM 17 with the positions of the RGB signal pixel data read from the camera signal processing circuit 7. When the pixel data of the RGB signal is located within the focus detection area of the AF evaluation value, the process proceeds to step S205 and step S206. However, if this is not the case, the camera signal processing circuit 7 waits for input of pixel data of the RGB signal at the next position.

ステップS205では、焦点検出領域内の全ての画素データについて、RGB信号が、積分回路803、804及び805で夫々積分される。RGB信号の夫々の積分値Rav、Gav及びBavは、AF−RAM806に格納される。   In step S205, the RGB signals are integrated by the integration circuits 803, 804, and 805 for all the pixel data in the focus detection area. The respective integrated values Rav, Gav and Bav of the RGB signals are stored in the AF-RAM 806.

ステップS206では、バンドパスフィルタ回路800、801及び802において、RGB信号から、高周波成分Rh、Gh及びBhが抽出され、画像メモリI/F812を介して、画像メモリ9に格納される。   In step S206, the bandpass filter circuits 800, 801 and 802 extract high frequency components Rh, Gh and Bh from the RGB signals and store them in the image memory 9 via the image memory I / F 812.

ステップS207では、焦点検出領域内の全ての画素データについて、ステップS205及びステップS206の処理が行われたか否かを判定する。   In step S207, it is determined whether or not the processing in step S205 and step S206 has been performed for all pixel data in the focus detection area.

焦点検出領域内の全ての画素について、ステップS205及びステップS206処理が終了している場合には、ステップS208に移行し、そうでない場合には、ステップS203に戻る。   If the processing in step S205 and step S206 has been completed for all the pixels in the focus detection area, the process proceeds to step S208, and if not, the process returns to step S203.

ステップS208では、AF−RAM806からRGB信号の積分値Rav、Gav及びBavを読み出す。その後ステップS209では、彩度検出回路807において、数式1に示す演算により、焦点検出領域内の平均の彩度Cを求める。   In step S208, the RGB signal integrated values Rav, Gav, and Bav are read from the AF-RAM 806. After that, in step S209, the saturation detection circuit 807 obtains the average saturation C in the focus detection area by the calculation shown in Equation 1.

Figure 0004881113
Figure 0004881113

かくして得られた焦点検出領域内の平均の彩度Cは、AF−RAM806に格納される。ステップS210では、色味検出回路808において、AF−RAM806から読み出したRGB信号の積分値Rav、Gav及びBavの大小を比較する。そして、焦点検出領域内の被写体にRGB信号のどの色信号成分が最も多く含まれているかを示すフラグ「max_col」を設定する。   The average saturation C in the focus detection area thus obtained is stored in the AF-RAM 806. In step S210, the color detection circuit 808 compares the RGB signals integrated values Rav, Gav, and Bav read from the AF-RAM 806. Then, a flag “max_col” indicating which color signal component of the RGB signal is most contained in the subject in the focus detection area is set.

ステップS210において、積分値Rav、Gav及びBavのうち、R信号の積分値Ravが最大の場合には、フラグ「max_col」=0とする。また、G信号の積分値Gavが最大の場合には、フラグ「max_col」=1、B信号の積分値Bavが最大の場合には、フラグ「max_col」=2をそれぞれ設定する。このように設定された焦点検出領域内の色味を示すフラグ「max_col」が、AF−RAM806に格納される。   In step S210, when the integral value Rav of the R signal is the maximum among the integral values Rav, Gav, and Bav, the flag “max_col” = 0 is set. Further, when the integral value Gav of the G signal is maximum, the flag “max_col” = 1 is set, and when the integral value Bav of the B signal is maximum, the flag “max_col” = 2 is set. A flag “max_col” indicating the color within the focus detection area set as described above is stored in the AF-RAM 806.

ステップS211では、AF−RAM806から、焦点検出領域内の平均の彩度Cと焦点検出領域内の色味を示すフラグ「max_col」が読み出される。そして、ステップS212で、合成比生成回路809において、RGB信号の高周波成分Rh、Gh及びBhを合成するための合成比Kr、Kg及びKbが算出される。合成比生成処理809の動作については、後ほど詳細に説明する。   In step S211, the flag “max_col” indicating the average saturation C in the focus detection area and the color in the focus detection area is read from the AF-RAM 806. In step S212, the synthesis ratio generation circuit 809 calculates synthesis ratios Kr, Kg, and Kb for synthesizing the high-frequency components Rh, Gh, and Bh of the RGB signals. The operation of the composition ratio generation process 809 will be described in detail later.

ステップS213では、システム制御部6によって、画像メモリ9に格納された、RGB信号の高周波成分Rh、Gh及びBhが画像メモリI/F812を介して、1画素データずつ読み出され、評価値合成回路810に送出される。また、ステップS214では、評価値合成回路810において、数式2に示すように、RGB信号の高周波成分Rh、Gh及びBhが、合成比Kr:Kg:Kbの割合で合成され、AF評価用の輝度信号「AF_Y」が算出される。   In step S213, the system control unit 6 reads the high-frequency components Rh, Gh, and Bh of the RGB signals stored in the image memory 9 one by one through the image memory I / F 812, and the evaluation value synthesis circuit Sent to 810. In step S214, the evaluation value synthesis circuit 810 synthesizes the high-frequency components Rh, Gh, and Bh of the RGB signal at a ratio of synthesis ratio Kr: Kg: Kb as shown in Equation 2 to obtain the brightness for AF evaluation. A signal “AF_Y” is calculated.

Figure 0004881113
Figure 0004881113

ステップS215では、積分回路811において、評価値合成回路810から出力される輝度信号「AF_Y」を積分し、AF評価値「AF_Y_av」を出力する。出力されるAF評価値「AF_Y_av」はAF−RAM806に格納される。   In step S215, the integration circuit 811 integrates the luminance signal “AF_Y” output from the evaluation value synthesis circuit 810, and outputs an AF evaluation value “AF_Y_av”. The output AF evaluation value “AF_Y_av” is stored in the AF-RAM 806.

ステップS216では、焦点検出領域内の全ての画素データについて、輝度信号「AF_Y」を積分したかを判定する。焦点検出領域内の全ての画素データについて積分処理が終了している場合には、ステップS217に移行する。しかし、そうでない場合にはステップS213に戻る。   In step S216, it is determined whether the luminance signal “AF_Y” has been integrated for all the pixel data in the focus detection area. If the integration process has been completed for all the pixel data in the focus detection area, the process proceeds to step S217. However, if not, the process returns to step S213.

ステップS217では、積分回路811から出力される輝度信号「AF_Y」の積分値であるAF評価値「AF_Y_av」を、AF−RAM806に格納する。ステップS218では、システム制御部6において、焦点検出領域カウンタの値を1つインクリメントする。   In step S217, the AF evaluation value “AF_Y_av”, which is the integral value of the luminance signal “AF_Y” output from the integration circuit 811, is stored in the AF-RAM 806. In step S218, the system control unit 6 increments the value of the focus detection area counter by one.

ステップS219では、焦点検出領域カウンタの値を参照し、全ての焦点検出領域について輝度信号の積分値「AF_Y_av」を生成したかを判定する。全ての焦点検出領域において、輝度信号の積分値であるAF評価値「AF_Y_av」の生成が終了している場合には、ステップS220に移行し、そうでない場合には、ステップS202に戻る。   In step S219, with reference to the value of the focus detection area counter, it is determined whether or not the integral value “AF_Y_av” of the luminance signal has been generated for all focus detection areas. If the generation of the AF evaluation value “AF_Y_av”, which is the integral value of the luminance signal, has been completed in all focus detection areas, the process proceeds to step S220. If not, the process returns to step S202.

ステップS220では、システム制御部6によって、各焦点検出領域に対応するAF評価値「AF_Y_av」がAF−RAM806から読み出され、RAM17に格納される。以上の一連の動作により、全ての焦点検出領域に対応するAF評価値が生成される。   In step S <b> 220, the system control unit 6 reads the AF evaluation value “AF_Y_av” corresponding to each focus detection area from the AF-RAM 806 and stores it in the RAM 17. Through the series of operations described above, AF evaluation values corresponding to all focus detection areas are generated.

次に、図3のフローチャート図を参照しながら、合成比生成回路809での合成比生成処理の流れを説明する。ステップS301では、システム制御部6によって、ROM16から光学系1に含まれるレンズに固有の色収差情報が読み出され、RAM17にロードされる。   Next, the flow of the synthesis ratio generation process in the synthesis ratio generation circuit 809 will be described with reference to the flowchart of FIG. In step S <b> 301, chromatic aberration information specific to the lens included in the optical system 1 is read from the ROM 16 by the system control unit 6 and loaded into the RAM 17.

レンズに固有の色収差情報は、例えば、図4に示すようなグラフで表されるデータであり、焦点距離と焦点検出領域の位置に応じた倍率色収差の度合いを表すものである。図4において、横軸は光軸から焦点検出領域の中心までの距離Dであり、縦軸は倍率色収差のレベルである。   The chromatic aberration information unique to the lens is, for example, data represented by a graph as shown in FIG. 4 and represents the degree of lateral chromatic aberration according to the focal length and the position of the focus detection region. In FIG. 4, the horizontal axis is the distance D from the optical axis to the center of the focus detection area, and the vertical axis is the level of lateral chromatic aberration.

ステップS302では、システム制御部6によって、レンズの位置から、焦点距離が算出される。また、ステップS303では、システム制御部6によって、各焦点検出領域の位置情報が算出される。さらに、ステップS304では、システム制御部6によって、RAM17にロードしたレンズに固有の色収差情報から、ステップS302で算出した焦点距離及び、ステップS303で算出した焦点検出領域の位置情報に対応する倍率色収差のレベルを読み出す。   In step S302, the system controller 6 calculates the focal length from the lens position. In step S303, the system control unit 6 calculates position information of each focus detection area. Further, in step S304, the system control unit 6 calculates the chromatic aberration of magnification corresponding to the focal length calculated in step S302 and the position information of the focus detection area calculated in step S303 from the chromatic aberration information specific to the lens loaded in the RAM 17. Read the level.

ステップS305では、システム制御部6によって、ステップS304で読み出した倍率色収差のレベルと、図4に示す閾値TH1との大小を比較する。そして倍率色収差の度合いが、閾値TH1よりも小さい場合にはステップS306に進む。この場合、倍率色収差の悪影響がないため、視感度特性に合わせた合成比となるよう、高周波成分Rh、Gh及びBhの合成比を例えば、Kr:Kg:Kb=5:9:2と設定し、処理を終了する。   In step S305, the system control unit 6 compares the magnification chromatic aberration level read in step S304 with the threshold value TH1 shown in FIG. If the degree of lateral chromatic aberration is smaller than the threshold value TH1, the process proceeds to step S306. In this case, since there is no adverse effect of chromatic aberration of magnification, the synthesis ratio of the high frequency components Rh, Gh, and Bh is set to, for example, Kr: Kg: Kb = 5: 9: 2 so as to obtain a synthesis ratio that matches the visibility characteristics. The process is terminated.

一方、倍率色収差の度合いが閾値TH1よりも大きい場合には、ステップS307に移行する。ステップS307では、焦点検出領域カウンタで指定された焦点検出領域の平均の彩度Cを、AF−RAM806から読み出し、図4に示す閾値TH2との大小を比較する。   On the other hand, when the degree of lateral chromatic aberration is greater than the threshold value TH1, the process proceeds to step S307. In step S307, the average saturation C of the focus detection area designated by the focus detection area counter is read from the AF-RAM 806 and compared with the threshold value TH2 shown in FIG.

この場合、彩度Cが閾値TH2よりも小さい場合には、ステップS308に進む。この場合、焦点検出領域内の彩度を無彩色とみなし、倍率色収差による色ずれの影響が焦点検出値に反映されないよう、高周波成分Rh、Gh及びBhの合成比をKr:Kg:Kb=0:1:0と設定する。一方、ステップS307の判断で彩度Cが閾値TH2よりも大きい場合には、無彩色ではないとみなし、ステップS309に進む。   In this case, when the saturation C is smaller than the threshold value TH2, the process proceeds to step S308. In this case, the saturation in the focus detection region is regarded as an achromatic color, and the combined ratio of the high frequency components Rh, Gh, and Bh is set to Kr: Kg: Kb = 0 so that the influence of the color shift due to the chromatic aberration of magnification is not reflected in the focus detection value. : Set to 1: 0. On the other hand, when the saturation C is larger than the threshold value TH2 in the determination in step S307, it is regarded as not an achromatic color, and the process proceeds to step S309.

ステップS309では、AF−RAM806から、焦点検出領域内の色味を示すフラグ「max_col」を読み出す。そして、フラグ「max_col」の値が0である場合、すなわち、焦点検出領域内で、Rの積分値Rvが最も大きい場合には、ステップS310で、高周波成分Rh、Gh及びBhの合成比を例えば、Kr:Kg:Kb=1:0:0と設定し、処理を終了する。   In step S309, the flag “max_col” indicating the color in the focus detection area is read from the AF-RAM 806. If the value of the flag “max_col” is 0, that is, if the integral value Rv of R is the largest in the focus detection area, the combined ratio of the high frequency components Rh, Gh, and Bh is set in step S310, for example. , Kr: Kg: Kb = 1: 0: 0, and the process ends.

このように、高周波成分Rh、Gh及びBhを混合しないことによって、倍率色収差による色ずれの影響が焦点検出値に反映されることを防ぎ、さらに、R信号成分の多い被写体に適した焦点検出が行えるようになる。一方、フラグ「max_col」の値が0でない場合には、ステップS311に移行する。   In this way, by not mixing the high frequency components Rh, Gh, and Bh, it is possible to prevent the influence of color shift due to chromatic aberration of magnification from being reflected in the focus detection value, and to perform focus detection suitable for a subject with many R signal components. You can do it. On the other hand, if the value of the flag “max_col” is not 0, the process proceeds to step S311.

ステップS311では、フラグ「max_col」の値が1であるかどうかを判定する。フラグ「max_col」の値が1、すなわち、焦点検出領域内で、G信号の積分値Gvが最も大きい場合には、ステップS312で、高周波成分Rh、Gh及びBhの合成比を、例えばKr:Kg:Kb=0:1:0と設定し、処理を終了する。   In step S311, it is determined whether the value of the flag “max_col” is 1. When the value of the flag “max_col” is 1, that is, when the integral value Gv of the G signal is the largest in the focus detection region, the combined ratio of the high frequency components Rh, Gh, and Bh is set to, for example, Kr: Kg in step S312. : Kb = 0: 1: 1 is set, and the process ends.

このように、高周波成分Rh、Gh及びBhを混合しないことによって、倍率色収差による色ずれの影響が焦点検出値に反映されることを防ぎ、かつ、G信号成分の多い被写体に適した焦点検出が行えるようになる。一方、フラグ「max_col」の値が1でない場合には、ステップS313に移行する。   In this way, by not mixing the high frequency components Rh, Gh, and Bh, it is possible to prevent the influence of the color shift due to the chromatic aberration of magnification from being reflected in the focus detection value, and to perform focus detection suitable for a subject having a large G signal component. You can do it. On the other hand, if the value of the flag “max_col” is not 1, the process proceeds to step S313.

ステップS313では、フラグ「max_col」の値が2、すなわち、焦点検出領域内で、B信号の積分値Bvが最も大きいとみなされる場合である。したがって、高周波成分Rh、Gh及びBhの合成比を例えば、Kr:Kg:Kb=0:0:1と設定し、処理を終了する。   In step S313, the value of the flag “max_col” is 2, that is, the integrated value Bv of the B signal is considered to be the largest in the focus detection region. Therefore, the synthesis ratio of the high frequency components Rh, Gh, and Bh is set to, for example, Kr: Kg: Kb = 0: 0: 1, and the process ends.

このように高周波成分Rh、Gh及びBhを混合しないことによって、倍率色収差による色ずれの影響が焦点検出値に反映されることを防ぐ。さらに、B信号成分の多い被写体に適した焦点検出が行えるようになる。以上の判定の後、合成比Kr、Kg及びKbは、AF−RAM806に書き込まれ、合成比生成回路809の処理が終了する。   By not mixing the high frequency components Rh, Gh, and Bh in this way, the influence of color shift due to lateral chromatic aberration is prevented from being reflected in the focus detection value. Furthermore, focus detection suitable for a subject having a large B signal component can be performed. After the above determination, the composition ratios Kr, Kg, and Kb are written in the AF-RAM 806, and the process of the composition ratio generation circuit 809 is completed.

尚、上記の処理において、各焦点検出領域の位置情報は、光軸から各焦点検出領域の中心位置までの距離Dで定義される。例えば、図5に示すように、焦点検出領域a1の中心と焦点検出領域の中心を結ぶ線分Dの長さで定義される。   In the above processing, the position information of each focus detection area is defined by the distance D from the optical axis to the center position of each focus detection area. For example, as shown in FIG. 5, it is defined by the length of a line segment D connecting the center of the focus detection area a1 and the center of the focus detection area.

また、レンズに固有の色収差情報は、撮像装置の工場出荷調整時にあらかじめ、テストチャート等を撮影して算出しておくものとする。   Further, the chromatic aberration information specific to the lens is calculated by photographing a test chart or the like in advance at the time of factory shipment adjustment of the imaging apparatus.

例えば、レンズのズーム位置を動かしながら、図6に示すような、各焦点検出領域において同一の周波数の被写体が表示されたチャートを撮影する。そして、RGB信号の高周波成分Rh、Gh及びBh、及び高周波成分Rh、Gh及びBhをRh:Gh:Bh=1:1:1で合成した輝度高周波成分Yhを求める。   For example, while moving the zoom position of the lens, a chart on which subjects having the same frequency are displayed in each focus detection region as shown in FIG. 6 is photographed. Then, a high-frequency luminance component Yh obtained by synthesizing the high-frequency components Rh, Gh, and Bh of the RGB signal and the high-frequency components Rh, Gh, and Bh with Rh: Gh: Bh = 1: 1: 1 is obtained.

次に、高周波成分Ghと輝度高周波成分Yhを焦点検出領域ごとに積分し、各焦点検出領域において、焦点検出値「Gh_sum」及び「Yh_sum」を求める。   Next, the high frequency component Gh and the luminance high frequency component Yh are integrated for each focus detection region, and focus detection values “Gh_sum” and “Yh_sum” are obtained in each focus detection region.

次に、各焦点検出領域において、測定値「Yh_sum」でレンズの位置を制御して撮影した画像データと、焦点検出値「Gh_sum」でレンズの位置を制御して撮影した画像データを取得する。   Next, in each focus detection region, image data captured by controlling the lens position with the measurement value “Yh_sum” and image data captured by controlling the lens position with the focus detection value “Gh_sum” are acquired.

ここで、図6のチャートのような、モノクロの被写体を撮影したとき、輝度信号において最も含有率が高いのがG信号である。したがって、焦点検出値「Gh_sum」でレンズの位置を制御して撮影した画像データからは、焦点調節のための合焦情報が得やすい。   Here, when a monochrome subject is photographed as shown in the chart of FIG. 6, the G signal has the highest content ratio in the luminance signal. Therefore, it is easy to obtain focus information for focus adjustment from image data obtained by controlling the lens position with the focus detection value “Gh_sum”.

一方、測定値「Yh_sum」でレンズの位置を制御して撮影した画像データでは、倍率色収差の影響により、光軸からの距離が長くなるほど、RGB信号の結像位置のずれが大きくなり、解像感が劣化する。   On the other hand, in the image data taken by controlling the lens position with the measured value “Yh_sum”, the displacement of the RGB image formation position increases as the distance from the optical axis increases due to the influence of lateral chromatic aberration, resulting in resolution. The feeling deteriorates.

したがって、焦点検出値「Gh_sum」でレンズの位置を制御して撮影した画像データを基準とし、測定値「Yh_sum」でレンズの位置を制御して撮影した画像データの解像感を評価する。これにより、光軸からの距離Dについて、倍率色収差による解像度劣化が出現し始める閾値TH1を検出することができる。以上のようにして、焦点距離ごとに、倍率色収差による解像度劣化が出現しはじめる閾値TH1のデータをあらかじめ測定し、ROM16に記憶しておく。   Accordingly, the image data captured by controlling the lens position with the focus detection value “Gh_sum” is used as a reference, and the sense of resolution of the image data captured by controlling the lens position with the measurement value “Yh_sum” is evaluated. Thereby, it is possible to detect the threshold value TH1 at which the resolution deterioration due to the chromatic aberration of magnification starts to appear for the distance D from the optical axis. As described above, the threshold TH1 data at which resolution degradation due to lateral chromatic aberration begins to appear is measured in advance and stored in the ROM 16 for each focal length.

以上、図2乃至図6を用いて説明したように、AF評価値生成回路8では、図5に示すような、撮像画面内の複数の焦点検出領域に対応する複数の焦点検出値が算出され、RAM17に格納される。その後、システム制御部6によって、RAM17から、複数の焦点検出領域に対応した全ての焦点検出値が読み出される。そして、複数の焦点検出値に対して、大小比較や重み付け演算等が行われ、最終的に撮像画面内のいずれの位置に焦点を合わせるかが決定される。そして、その結果に基づいて、光学系1の駆動回路4にレンズの位置制御のための情報が供給される。そして、光学系1のレンズが、移動制御されることで、所謂オートフォーカス制御が行われることなる。   As described above with reference to FIGS. 2 to 6, the AF evaluation value generation circuit 8 calculates a plurality of focus detection values corresponding to a plurality of focus detection areas in the imaging screen as shown in FIG. Stored in the RAM 17. Thereafter, the system control unit 6 reads all focus detection values corresponding to the plurality of focus detection areas from the RAM 17. Then, size comparison, weighting calculation, and the like are performed on the plurality of focus detection values, and finally it is determined which position in the imaging screen is to be focused. Based on the result, information for lens position control is supplied to the drive circuit 4 of the optical system 1. Then, so-called autofocus control is performed by moving and controlling the lens of the optical system 1.

以上説明したように、本実施形態1によれば、光軸と焦点検出領域との距離D、及び焦点検出領域内の色信号情報を考慮して、撮像光学系の倍率色収差の影響を排除して、AF評価値を生成する。したがって、撮像画面内の全ての焦点検出領域で合焦精度を向上させることができる。   As described above, according to the first embodiment, the influence of the lateral chromatic aberration of the imaging optical system is eliminated in consideration of the distance D between the optical axis and the focus detection area and the color signal information in the focus detection area. Thus, an AF evaluation value is generated. Therefore, the focusing accuracy can be improved in all focus detection areas in the imaging screen.

また、実施形態1によれば、撮像画面内の全ての焦点検出領域において、撮像光学画系の倍率色収差の影響が排除された焦点検出値を得ることができる。したがって、複数の焦点検出領域から得られた焦点検出値を同一の条件で取り扱い、大小比較などを行って、自動的に合焦位置を決定する制御も可能となる。   Further, according to the first embodiment, it is possible to obtain a focus detection value in which the influence of the chromatic aberration of magnification of the imaging optical image system is eliminated in all focus detection areas in the imaging screen. Therefore, it is possible to control the focus detection values obtained from a plurality of focus detection areas under the same conditions, compare the sizes, etc., and automatically determine the focus position.

<実施形態2>
図7は、本発明の実施形態2である撮像装置の構成を示すブロック図である。実施形態2の撮像装置では、AF評価値生成回路8において、色味検出回路808を持たず、また、合成比生成回路809の部分が実施形態1と異なる。それ以外の構成並びに動作については、実施形態1と同様であるので、同じ参照番号を付し、説明を省略する。以下、本実施形態2における、合成比生成回路809の処理の流れについて、図8のフローチャート図を用いて説明する。
<Embodiment 2>
FIG. 7 is a block diagram illustrating a configuration of an imaging apparatus that is Embodiment 2 of the present invention. In the imaging apparatus according to the second embodiment, the AF evaluation value generation circuit 8 does not have the color detection circuit 808, and the synthesis ratio generation circuit 809 is different from the first embodiment. Since other configurations and operations are the same as those in the first embodiment, the same reference numerals are assigned and descriptions thereof are omitted. Hereinafter, the processing flow of the synthesis ratio generation circuit 809 in Embodiment 2 will be described with reference to the flowchart of FIG.

処理の開始後ステップS801では、システム制御部6によって、ROM16からレンズに固有の色収差情報が読み出され、RAM17にロードされる。レンズに固有の色収差情報は、例えば、図4に示すようなグラフで表されるデータであり、焦点距離と焦点検出領域の位置に応じた倍率色収差の度合いを表すものである。   In step S801 after the start of processing, the system control unit 6 reads chromatic aberration information specific to the lens from the ROM 16 and loads it into the RAM 17. The chromatic aberration information unique to the lens is, for example, data represented by a graph as shown in FIG. 4 and represents the degree of lateral chromatic aberration according to the focal length and the position of the focus detection region.

ステップS802では、システム制御部6によって、レンズの位置から、焦点距離が算出される。ステップS803では、システム制御部6によって、各焦点検出領域の位置情報が算出される。   In step S802, the system controller 6 calculates the focal length from the lens position. In step S803, the system control unit 6 calculates the position information of each focus detection area.

ステップS804では、システム制御部6によって、RAM17に記憶したレンズに固有の色収差情報から、ステップS802で算出した焦点距離及び、ステップS803で算出した焦点検出領域の位置情報に対応する倍率色収差のレベルを読み出す。   In step S804, the focal length calculated in step S802 and the magnification chromatic aberration level corresponding to the position information of the focus detection area calculated in step S803 are calculated by the system control unit 6 from the chromatic aberration information unique to the lens stored in the RAM 17. read out.

ステップS805では、システム制御部6によって、ステップS804で読み出した倍率色収差のレベルと、所定の閾値TH1との大小を比較する。   In step S805, the system control unit 6 compares the magnification chromatic aberration level read in step S804 with the predetermined threshold value TH1.

倍率色収差の度合いが、閾値TH1よりも小さい場合には、アウテップS806に進む。この場合は、倍率色収差の悪影響がないため、視感度特性に合わせた合成比となるよう、高周波成分Rh、Gh及びBhの合成比を例えば、Kr:Kg:Kb=5:9:2と設定し、処理を終了する。一方、倍率色収差の度合いが閾値TH1よりも大きい場合には、ステップS807に移行する。   When the degree of lateral chromatic aberration is smaller than the threshold value TH1, the process proceeds to step S806. In this case, since there is no adverse effect of lateral chromatic aberration, the combination ratio of the high frequency components Rh, Gh, and Bh is set to, for example, Kr: Kg: Kb = 5: 9: 2 so as to obtain a combination ratio that matches the visibility characteristic. Then, the process ends. On the other hand, if the degree of lateral chromatic aberration is greater than the threshold value TH1, the process proceeds to step S807.

ステップS807では、焦点検出領域カウンタで指定された焦点検出領域の平均の彩度Cを、AF−RAM806から読み出し、所定の閾値TH2との大小を比較する。   In step S807, the average saturation C of the focus detection area designated by the focus detection area counter is read from the AF-RAM 806 and compared with a predetermined threshold value TH2.

彩度Cが閾値TH2よりも小さい場合にはステップS808に進む。この場合は、焦点検出領域内の彩度を無彩色とみなし、倍率色収差による色ずれの影響が焦点検出値に反映されないよう、高周波成分Rh、Gh及びBhの合成比をKr:Kg:Kb=0:1:0と設定し、処理を終了する。   If the saturation C is smaller than the threshold value TH2, the process proceeds to step S808. In this case, the saturation in the focus detection region is regarded as an achromatic color, and the combined ratio of the high-frequency components Rh, Gh, and Bh is set to Kr: Kg: Kb = so that the influence of the color shift due to the chromatic aberration of magnification is not reflected in the focus detection value. 0: 1: 0 is set, and the process ends.

一方、彩度Cが閾値TH2よりも大きい場合には、無彩色でないとみなし、ステップS809に進む。ステップS809では、AF−RAM806から、RGB信号の積分値Rav、Gav及びBavを読み出し、合成比Rh、Gh及びBhを例えば、
Kr:Kg:Kb=Rav/(Rav+Gav+Bav):Gav/(Rav+Gav+Bav):Bav/(Rav+Gav+Bav)と設定する。
On the other hand, when the saturation C is larger than the threshold value TH2, it is regarded as not an achromatic color, and the process proceeds to step S809. In step S809, the integration values Rav, Gav, and Bav of the RGB signals are read from the AF-RAM 806, and the synthesis ratios Rh, Gh, and Bh are set as, for example,
Kr: Kg: Kb = Rav / (Rav + Gav + Bav): Gav / (Rav + Gav + Bav): Bav / (Rav + Gav + Bav)

以上のように、焦点検出領域内が、倍率色収差の目立つ無彩色である場合には、高周波成分Ghのみで評価値を生成する。一方、焦点検出領域内が無彩色でないとみなせる場合には、焦点検出領域内のRGB信号の積分値Rav、Gav、Bavの比率に応じて、高周波成分Rh、Gh及びBhの合成量を調整する。これにより、レンズの倍率色収差による色ずれの影響が焦点検出値に反映されることを低減し、かつ、有彩色の被写体についても、適切な焦点検出評価値を得ることができる。以上の判定の後、合成比Kr、Kg及びKbは、AF−RAM806に書き込まれ、合成比生成回路809の処理が終了する。   As described above, when the focus detection area is an achromatic color in which lateral chromatic aberration is conspicuous, an evaluation value is generated only by the high frequency component Gh. On the other hand, if the focus detection area can be regarded as not having an achromatic color, the combined amount of the high-frequency components Rh, Gh, and Bh is adjusted according to the ratio of the RGB signal integral values Rav, Gav, Bav in the focus detection area. . Thereby, it is possible to reduce the influence of the color shift due to the chromatic aberration of magnification of the lens on the focus detection value, and it is possible to obtain an appropriate focus detection evaluation value for a chromatic object. After the above determination, the composition ratios Kr, Kg, and Kb are written in the AF-RAM 806, and the process of the composition ratio generation circuit 809 is completed.

<実施形態3>
図9は、本発明の実施形態3の撮像装置の構成を示すブロック図である。本実施形態3の撮像装置では、AF評価値生成処理を防振動作と連動させて行うのみ点が、実施形態1及び、実施形態2と異なる。したがって、図9において、図1と同じ構成については、同じ参照番号を付し、説明を省略する。
<Embodiment 3>
FIG. 9 is a block diagram illustrating a configuration of the imaging apparatus according to the third embodiment of the present invention. The imaging apparatus according to the third embodiment is different from the first and second embodiments in that the AF evaluation value generation process is performed in conjunction with the image stabilization operation. Therefore, in FIG. 9, the same components as those in FIG. 1 are denoted by the same reference numerals and description thereof is omitted.

本実施形態3では、システム制御部6によって制御される動き検出回路18が追加されている。システム制御部6は、動き検出回路18から出力される動き情報に基づいて、固体撮像素子2から読み出す画像データの有効領域を決定し、タイミング信号発生回路5で、固体撮像素子2、及びAFE3を駆動するための駆動パルスを生成する。この動作処理により、たとえば、手ぶれの影響を取り除いた画像データを得ることが可能となる。   In the third embodiment, a motion detection circuit 18 controlled by the system control unit 6 is added. The system control unit 6 determines an effective area of image data to be read from the solid-state imaging device 2 based on the motion information output from the motion detection circuit 18, and the timing signal generation circuit 5 determines the solid-state imaging device 2 and the AFE 3. A drive pulse for driving is generated. By this operation processing, for example, it is possible to obtain image data from which the influence of camera shake is removed.

そして、AF評価値生成回路8に含まれる合成比生成回路809では、動き情報に基づいて決定された有効画像領域の切り出し位置のシフト量を考慮し、焦点検出領域の中心と光軸との距離D1を算出する。   Then, the composition ratio generation circuit 809 included in the AF evaluation value generation circuit 8 considers the shift amount of the cutout position of the effective image area determined based on the motion information, and the distance between the center of the focus detection area and the optical axis. D1 is calculated.

図10は、動き情報に基づいて、有効画像領域の切り出し位置を、イメージサークルの中心から垂直シフトさせたときの模式図である。ここで、各焦点検出領域の中心座標の位置は、光軸を原点とした座標系であらかじめ設定された値が、ROM16に格納されているものとする。   FIG. 10 is a schematic diagram when the cutout position of the effective image area is vertically shifted from the center of the image circle based on the motion information. Here, as the position of the center coordinate of each focus detection area, a value set in advance in a coordinate system with the optical axis as the origin is stored in the ROM 16.

システム制御部6では、ROM16から、有効画像領域の切り出し位置がシフトしていない状態での各焦点検出領域の中心座標の位置情報を読み出す。そして、動き情報に基づいて決定された有効画像領域のシフト量を用いて、焦点検出領域の中心から光軸までの距離Dを、以下の数式3のように算出する。 The system control unit 6 reads from the ROM 16 position information of the center coordinates of each focus detection area in a state where the cutout position of the effective image area is not shifted. Then, using the shift amount of the effective image area determined based on the motion information, a distance D n from the center of the focus detection area to the optical axis is calculated as in Expression 3 below.

Figure 0004881113
Figure 0004881113

以上のように、有効画像領域の切り出し位置のシフト量を考慮して、各焦点検出領域から光軸までの距離Dを求める。これにより、防振動作時も、焦点検出領域の位置情報と焦点検出領域内の色信号情報に応じてレンズの倍率色収差の影響を排除し、全ての焦点検出領域から適切な焦点検出評価値を得ることができる。 As described above, the distance D n from each focus detection region to the optical axis is obtained in consideration of the shift amount of the cutout position of the effective image region. As a result, even during the image stabilization operation, the influence of the chromatic aberration of magnification of the lens is eliminated according to the position information of the focus detection area and the color signal information in the focus detection area, and an appropriate focus detection evaluation value is obtained from all the focus detection areas. Obtainable.

また、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給して実施することも可能である。すなわち、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。   It is also possible to supply a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus. That is, it goes without saying that this can also be achieved by the computer (or CPU or MPU) of the system or apparatus reading and executing the program code stored in the storage medium.

プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性の半導体メモリカード、ROMなどを用いることができる。また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現される場合もある。   As a storage medium for supplying the program code, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile semiconductor memory card, ROM, or the like can be used. . Further, the functions of the above-described embodiments may be realized by executing the program code read by the computer.

しかし、さらにそのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   However, when the OS (operating system) operating on the computer performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. Needless to say, is also included.

さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれる場合もあり得る。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, the program code read from the storage medium may be written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, based on the instruction of the program code, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing, and the processing of the above-described embodiment is realized by the processing. Needless to say.

本発明の実施形態1に関わる撮像装置の全体の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the whole imaging device concerning Embodiment 1 of this invention. 本発明の実施形態1に関わる撮像装置で使用されるAF評価値生成回路の動作を示すフローチャート図である。It is a flowchart figure which shows operation | movement of the AF evaluation value generation circuit used with the imaging device concerning Embodiment 1 of this invention. 本発明の実施形態1に関わる撮像装置で使用される合成比生成回路の動作を示すフローチャート図である。It is a flowchart figure which shows the operation | movement of the synthetic | combination ratio production | generation circuit used with the imaging device concerning Embodiment 1 of this invention. 本発明の実施形態1に関わる撮像装置で使用される焦点検出領域の位置情報と倍率色収差のレベルを示す特性図である。It is a characteristic view which shows the position information of the focus detection area | region used with the imaging device concerning Embodiment 1 of this invention, and the level of a magnification chromatic aberration. 本発明の実施形態1に関わる撮像装置で使用されるAF評価値の焦点検出領域を示す模式図である。It is a schematic diagram which shows the focus detection area | region of the AF evaluation value used with the imaging device concerning Embodiment 1 of this invention. 本発明の実施形態1に関わる撮像装置で使用される色収差情報を取得するためのテストチャートの一例を示す模式図である。It is a schematic diagram which shows an example of the test chart for acquiring the chromatic aberration information used with the imaging device concerning Embodiment 1 of this invention. 本発明の実施形態2に関わる撮像装置の全体の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the whole imaging device concerning Embodiment 2 of this invention. 本発明の実施形態2に関わる撮像装置で使用される合成比生成回路の動作を示すフローチャート図である。It is a flowchart figure which shows operation | movement of the synthetic | combination ratio production | generation circuit used with the imaging device concerning Embodiment 2 of this invention. 本発明の実施形態3に関わる撮像装置の全体の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the whole imaging device concerning Embodiment 3 of this invention. 本発明の実施形態3に関わる撮像装置で使用されるAF評価値の焦点検出領域を示す模式図である。It is a schematic diagram which shows the focus detection area | region of AF evaluation value used with the imaging device concerning Embodiment 3 of this invention.

符号の説明Explanation of symbols

1 光学系
2 固体撮像素子
3 アナログフロントエンド部
4 駆動回路
5 タイミング信号発生回路
6 システム制御部
7 カメラ信号処理回路
8 AF評価値生成回路
9 画像メモリ
10 符号化圧縮処理回路
11 記録処理回路
12 記録媒体
13 表示制御回路
14 画像表示装置
15 バス
16 プログラム
17 揮発性メモリ
DESCRIPTION OF SYMBOLS 1 Optical system 2 Solid-state image sensor 3 Analog front end part 4 Drive circuit 5 Timing signal generation circuit 6 System control part 7 Camera signal processing circuit 8 AF evaluation value generation circuit 9 Image memory 10 Encoding compression processing circuit 11 Recording processing circuit 12 Recording Medium 13 Display control circuit 14 Image display device 15 Bus 16 Program 17 Volatile memory

Claims (9)

被写体像を撮像して画像データを出力する撮像手段と、
前記撮像手段から得られる前記画像データを複数の色信号成分に分離する分離手段と、
前記分離手段から出力される前記複数の色信号成分に対して、それぞれ高周波成分を検出する高周波成分検出手段と、
前記撮像手段の撮像画面内の複数の位置に設定された焦点検出領域に関し、各焦点検出領域の前記撮像画面内における位置を表情報を算出する焦点検出領域位置情報検出手段と、
前記焦点検出領域毎に色信号情報を検出する色信号情報検出手段と、
前記焦点検出領域毎に、前記撮像画面内における位置を表わす情報と前記色信号情報に基づいて、前記高周波成分検出手段から出力されるそれぞれの前記高周波成分を合成し、焦点検出評価値を生成する焦点検出評価値生成手段と、を備えることを特徴とする撮像装置。
Imaging means for capturing a subject image and outputting image data ;
Separating means for separating the image data obtained from the imaging means into a plurality of color signal components;
High frequency component detection means for detecting high frequency components for each of the plurality of color signal components output from the separation means;
Relates focus detection areas set in a plurality of positions in the imaging screen of the imaging means, and the focus detection area position information detecting means for the position in the imaging screen of each focus detection area is calculated to information I Table,
Color signal information detecting means for detecting color signal information for each focus detection area;
For each of the focus detecting area, on the basis of the position information representing the said color signal information in the imaging screen, synthesizing each of the high-frequency component output from the high frequency component detection means, generating a focus detection evaluation value An imaging apparatus comprising: a focus detection evaluation value generation unit that performs the following.
前記焦点検出領域位置情報検出手段は、前記撮像画面内における位置を表わす情報として前記各焦点検出領域における光軸から焦点検出領域中心までの距離を算出し、
前記焦点検出評価値生成手段は、前記距離と前記色信号情報に基づいて、前記高周波成分合成することを特徴とする請求項1に記載の撮像装置。
The focus detection region position information detection means calculates a distance from the optical axis in each focus detection region to the center of each focus detection region as information representing a position in the imaging screen ,
The focus detection evaluation value generation means, based on said distance and the color signal information, the imaging apparatus according to claim 1, characterized in that combining the high frequency components.
動き検出手段と、
前記動き検出手段から出力される動き情報に基づいて、前記撮像手段の前記撮像画面内の有効画像データ領域の切り出し位置を制御する防振制御手段と、を更に備え、
前記焦点検出領域位置情報検出手段は、前記防振制御手段が動作する場合は、前記防振制御手段による前記有効画像データ領域の前記切り出し位置に基づいて、前記撮像画面内における位置を表わす情報を算出することを特徴とする請求項1又は2に記載の撮像装置。
Motion detection means;
An image stabilization control unit configured to control a cutout position of an effective image data area in the imaging screen of the imaging unit based on motion information output from the motion detection unit;
The focus detection region position information detection unit, when the image stabilization control unit operates , displays information representing a position in the imaging screen based on the cutout position of the effective image data region by the image stabilization control unit. The imaging device according to claim 1, wherein the imaging device is calculated.
前記焦点検出評価値生成手段は、
前記撮像画面内における位置を表わす情報である前記距離が特定の値より小さい場合は、それぞれの前記高周波成分を視感度特性に合わせて合成し、
前記距離が前記特定の値以上の場合は、それぞれの前記高周波成分を前記色信号情報を参照して合成することを特徴とする請求項に記載の撮像装置。
The focus detection evaluation value generation means includes
When the distance, which is information representing the position in the imaging screen, is smaller than a specific value, the respective high frequency components are combined in accordance with the visibility characteristics,
The imaging apparatus according to claim 2 , wherein when the distance is equal to or greater than the specific value, the high-frequency components are combined with reference to the color signal information.
前記焦点検出評価値生成手段は、前記撮像画面内における位置を表わす情報である前記距離が特定の値以上の場合は、前記色信号情報を参照し、前記焦点検出領域内で支配的な色味に対応する前記高周波成分の合成比率が大きくなるように、それぞれの前記高周波成分を合成することを特徴とする請求項2又は4に記載の撮像装置。 The focus detection evaluation value generation means refers to the color signal information when the distance, which is information representing a position in the imaging screen, is equal to or greater than a specific value, and is a dominant color within the focus detection area. 5. The imaging apparatus according to claim 2 , wherein the high-frequency components are combined so that a combination ratio of the high-frequency components corresponding to the frequency increases. 前記色信号情報検出手段は、前記焦点検出領域内の平均の彩度と色味を検出し、
前記焦点検出評価値生成手段は、前記撮像画面内における位置を表わす情報である前記距離が特定の値以上の場合は、前記彩度が大きくなるほど、前記焦点検出領域内で支配的な色味に対応する前記高周波成分の合成比率が大きくなるように、それぞれの前記高周波成分を合成することを特徴とする請求項2、4、5のいずれか1項に記載の撮像装置。
The color signal information detecting means detects an average saturation and hue in the focus detection area,
The focus detection evaluation value generation means has a dominant color in the focus detection region as the saturation increases when the distance, which is information representing a position in the imaging screen, is equal to or greater than a specific value. 6. The imaging apparatus according to claim 2 , wherein the high-frequency components are combined so that a combination ratio of the corresponding high-frequency components is increased.
撮像手段から出力された画像データを複数の色信号成分に分離する分離工程と、
前記分離工程で出力される前記複数の色信号成分に対して、それぞれ高周波成分を検出する高周波成分検出工程と、
前記撮像手段における撮像画面内の複数の位置に設定された焦点検出領域に関し、各焦点検出領域の前記撮像画面内における位置を表情報を算出する焦点検出領域位置情報検出工程と、
前記焦点検出領域毎に色信号情報を検出する色信号情報検出工程と、
前記焦点検出領域毎に、前記撮像画面内における位置を表わす情報と前記色信号情報に基づいて、前記高周波成分検出工程から出力されるそれぞれの前記高周波成分を合成し、焦点検出評価値を生成する焦点検出評価値生成工程と、を備えることを特徴とする撮像装置の制御方法。
A separation step of separating the image data output from the imaging means into a plurality of color signal components;
A high-frequency component detection step for detecting a high-frequency component for each of the plurality of color signal components output in the separation step;
A plurality of relates focus detection areas set in position, the focus detecting area position information detection step of the position in the imaging screen of each focus detection area is calculated to information I table in the imaging screen in the image pickup means,
A color signal information detection step of detecting color signal information for each focus detection region;
For each of the focus detecting area, on the basis of the position information representing the said color signal information in the imaging screen, synthesizing each of the high-frequency component output from the high-frequency component detecting step, generating a focus detection evaluation value And a focus detection evaluation value generating step.
請求項7に記載の撮像装置の制御方法の手順を記述したコンピュータで実行可能なプログラム。   A computer-executable program describing a procedure of a control method for an imaging apparatus according to claim 7. 請求項7に記載の撮像装置の制御方法の手順を記述したコンピュータで実行可能なプログラムが記憶された記憶媒体。   A storage medium storing a computer-executable program describing a procedure of a control method for an imaging apparatus according to claim 7.
JP2006257738A 2006-09-22 2006-09-22 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM Expired - Fee Related JP4881113B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006257738A JP4881113B2 (en) 2006-09-22 2006-09-22 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006257738A JP4881113B2 (en) 2006-09-22 2006-09-22 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM

Publications (3)

Publication Number Publication Date
JP2008076878A JP2008076878A (en) 2008-04-03
JP2008076878A5 JP2008076878A5 (en) 2009-11-12
JP4881113B2 true JP4881113B2 (en) 2012-02-22

Family

ID=39348981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006257738A Expired - Fee Related JP4881113B2 (en) 2006-09-22 2006-09-22 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM

Country Status (1)

Country Link
JP (1) JP4881113B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5889010B2 (en) * 2012-01-31 2016-03-22 キヤノン株式会社 Imaging apparatus and control method thereof
JP5856897B2 (en) * 2012-04-17 2016-02-10 株式会社 日立産業制御ソリューションズ Imaging device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11127306A (en) * 1997-10-22 1999-05-11 Nikon Corp Image formation point detecting device
JP2001141988A (en) * 1999-08-31 2001-05-25 Canon Inc Focusing device, its control method, and medium for supplying its control program

Also Published As

Publication number Publication date
JP2008076878A (en) 2008-04-03

Similar Documents

Publication Publication Date Title
JP3980782B2 (en) Imaging control apparatus and imaging control method
KR100799215B1 (en) Camera
CN102131056B (en) Image-capturing device and image-capturing method
US7509042B2 (en) Digital camera, image capture method, and image capture control program
US8872937B2 (en) Image capture apparatus and image capturing method
JP4210021B2 (en) Image signal processing apparatus and image signal processing method
JP5112104B2 (en) Image processing apparatus and image processing program
US9426437B2 (en) Image processor performing noise reduction processing, imaging apparatus equipped with the same, and image processing method for performing noise reduction processing
JP2000244823A (en) Device for concealing defective pixel of imaging device
US10977777B2 (en) Image processing apparatus, method for controlling the same, and recording medium
JP2007243917A (en) Imaging apparatus and image processing program
JP3980781B2 (en) Imaging apparatus and imaging method
US20080100724A1 (en) Image processing device and imaging device
US9282257B2 (en) Image apparatus and imaging method
US20070269133A1 (en) Image-data noise reduction apparatus and method of controlling same
US10051200B2 (en) Imaging apparatus and control method thereof
JP4881113B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2009055415A (en) Camera
JP4705146B2 (en) Imaging apparatus and imaging method
JP2010213105A (en) Imaging apparatus
JP2000102022A (en) Digital camera
JP2020102660A (en) Imaging apparatus
JP4819859B2 (en) Imaging apparatus and image processing method
US20240354901A1 (en) Reproduction apparatus, generation apparatus, control method, and recording medium
JP4942596B2 (en) Image processing apparatus, imaging apparatus, and display apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090924

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111128

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111202

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141209

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees