JP2008182486A - Photographing device, and image processing method - Google Patents

Photographing device, and image processing method Download PDF

Info

Publication number
JP2008182486A
JP2008182486A JP2007014266A JP2007014266A JP2008182486A JP 2008182486 A JP2008182486 A JP 2008182486A JP 2007014266 A JP2007014266 A JP 2007014266A JP 2007014266 A JP2007014266 A JP 2007014266A JP 2008182486 A JP2008182486 A JP 2008182486A
Authority
JP
Japan
Prior art keywords
image
state
subject
color difference
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007014266A
Other languages
Japanese (ja)
Inventor
Seiji Tanaka
誠二 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007014266A priority Critical patent/JP2008182486A/en
Publication of JP2008182486A publication Critical patent/JP2008182486A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a photographing device capable of reducing color moire and false color without deteriorating image quality, and to provide an image processing method. <P>SOLUTION: Photographing is performed two times when an S2 is turned on, and one photographing of two times of photographings is performed in such a state that an optical blur correction controller 30A intentionally blurs an image. A luminance and color difference converting device 102 generates a luminance signal Y and color difference signals Cr and Cb from R, G and B signals acquired from a CCD 32. A luminance holding memory 104 temporarily stores a luminance signal Y1 acquired by the first photographing. A luminance and color difference composition device 106 composes the luminance signal Y1 and color difference signals Cr2 and Cb2 and outputs the resultant signals. The luminance signal Y1 and the color difference signals Cr2 and Cb2 outputted from the luminance and color difference combining device 106 are respectively subjected to predetermined processing and subsequently stored in a RAM 20. The luminance signal Y1 and the color difference signal Cr2 and Cb2 stored in the RAM 20 are compressed according to a predetermined format by a compression/decompression processing part 46 and recorded in a recording medium 22. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は撮影装置及び画像処理方法に係り、特に被写体からの光を撮像素子により受光して画像を撮影する撮影装置及び当該撮影装置により撮影された画像の処理に適用される画像処理方法に関する。   The present invention relates to an image capturing apparatus and an image processing method, and more particularly to an image capturing apparatus that captures an image by receiving light from a subject with an image sensor and an image processing method applied to processing of an image captured by the image capturing apparatus.

従来、撮像素子の入射側に光学ローパスフィルタ(光学LPF)を挿入し、入射光のうちナイキスト周波数よりも高い高周波成分を落として、色モアレの発生を防止することが開示されている(例えば、特許文献1)。また、特許文献1には、合焦状態での撮像によって得られた第1の画像信号と、非合焦状態での撮像によって得られた第2の画像信号とを用いてモアレを低減することが開示されている。
特開2001−45506号公報
Conventionally, it has been disclosed that an optical low-pass filter (optical LPF) is inserted on the incident side of an image sensor to prevent high-frequency components higher than the Nyquist frequency in incident light to prevent occurrence of color moire (for example, Patent Document 1). Japanese Patent Application Laid-Open No. 2004-228561 reduces moire using a first image signal obtained by imaging in a focused state and a second image signal obtained by imaging in a non-focused state. Is disclosed.
JP 2001-45506 A

撮像素子にナイキスト周波数を越える高周波の光が入射した場合に、光の高周波成分の折り返しによってモアレと呼ばれる偽信号が発生することが知られている。また、単板CCD上にカラーフィルタを配して信号処理により色を補間する場合に、色モアレ又は偽色と呼ばれる偽信号が発生し、画像中に本来無い色が現れることがある。   It is known that when high-frequency light exceeding the Nyquist frequency is incident on the image pickup device, a false signal called moire is generated by folding the high-frequency component of the light. In addition, when a color filter is arranged on a single CCD and a color is interpolated by signal processing, a false signal called color moiré or false color is generated, and an original color may appear in an image.

上記特許文献1に記載の撮像素子の入射側に光学LPFを挿入する方法では、解像感の低下や光学LPFの追加による装置のコストアップという問題があった。また、合焦状態と非合焦状態の画像信号を用いる方法では、被写体距離により被写体のボケ方が異なるため、色の再現性が低下し、画質が劣化するという問題があった。更に、動き量が大きい被写体を撮影する際には、合焦状態と非合焦状態の2回の撮影を行うと、被写体の位置がずれてしまい、2回の撮影により得られた画像信号を合成した後の画像に輝度と色のズレが生じ、画質が劣化するという問題があった。   In the method of inserting the optical LPF on the incident side of the image sensor described in Patent Document 1, there is a problem that the resolution is lowered and the cost of the apparatus is increased due to the addition of the optical LPF. Further, in the method using the image signal in the in-focus state and the out-of-focus state, there is a problem that the color reproducibility is deteriorated and the image quality is deteriorated because the subject blur differs depending on the subject distance. Furthermore, when photographing a subject with a large amount of motion, if the photographing is performed twice in the in-focus state and the out-of-focus state, the position of the subject is shifted, and the image signal obtained by the two photographings is obtained. There has been a problem that luminance and color shift occur in the combined image and the image quality deteriorates.

本発明はこのような事情に鑑みてなされたもので、画質を劣化させることなく色モアレ及び偽色を低減することが可能な撮影装置及び画像処理方法を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides a photographing apparatus and an image processing method capable of reducing color moire and false color without degrading image quality.

上記課題を解決するために、本願発明1に係る撮影装置は、被写体からの光を受光して画像を撮像し、画像信号を取得する撮像素子と、前記撮像素子により撮像される画像に光学ブレを生じさせる光学ブレ発生手段と、光学ブレ無しの第1の状態と、光学ブレを生じさせた第2の状態で画像を撮影する撮影制御手段と、光学ブレ無しの第1の状態で取得された輝度信号と、光学ブレを生じさせた第2の状態で取得された色差信号とを合成して画像を生成する画像生成手段とを備えることを特徴とする。   In order to solve the above-described problems, an imaging apparatus according to the first aspect of the present invention receives an image from an object by receiving light from a subject, acquires an image signal, and optical blur in an image captured by the imaging element. Obtained in the first state without optical blur, the first state without optical blur, the shooting control means for shooting an image in the second state with optical blur, and the first state without optical blur. Image generation means for generating an image by synthesizing the luminance signal and the color difference signal acquired in the second state causing optical blurring.

本願発明1によれば、光学ブレ発生手段を用いて画像を均一にブラすことができるので、光学ブレ無しの状態の輝度信号と、意図的に光学ブレを起こして、色モアレ及び偽色を発生しないようにして撮影した色差信号とを合成することにより、画質を劣化させることなく色モアレ及び偽色を低減することができる。   According to the present invention 1, since the image can be uniformly blurred using the optical blur generating means, the luminance signal without optical blur and the intentional optical blur are caused, and the color moire and the false color are generated. By combining the color difference signals photographed so as not to occur, color moiré and false color can be reduced without degrading the image quality.

本願発明2に係る撮影装置は、被写体からの光を受光して画像を撮像し、画像信号を取得する撮像素子と、前記被写体に合焦し、且つ、光学ブレ無しの第1の状態と、前記被写体に非合焦であるか又は光学ブレを生じさせた第2の状態で画像を撮影する撮影制御手段と、前記第1、第2の状態において撮影された画像中における前記被写体の動き量を取得する動き量取得手段と、前記動き量が閾値以下の場合に、前記第1の状態で取得された輝度信号と、前記第2の状態で取得された色差信号を合成して画像を生成する一方、前記動き量が閾値より大きい場合に、前記第1の状態で取得された輝度信号及び色差信号を用いて画像を生成する画像生成手段とを備えることを特徴とする。   An imaging device according to the present invention 2 receives light from a subject to capture an image, acquires an image signal, a first state in which the subject is in focus and there is no optical blur, Shooting control means for shooting an image in the second state where the subject is out of focus or caused optical blur, and the amount of movement of the subject in the images shot in the first and second states An image is generated by synthesizing the luminance signal acquired in the first state and the color difference signal acquired in the second state when the movement amount is equal to or less than a threshold value On the other hand, it comprises image generation means for generating an image using the luminance signal and the color difference signal acquired in the first state when the amount of motion is larger than a threshold value.

本願発明2によれば、第1、第2の状態において撮影された画像中における被写体の動き量が閾値以下の場合に、第1の状態において取得された輝度信号と第2の状態において取得された色差信号とを合成して色モアレ及び偽色を低減するようにしたので、被写体の動きにより被写体の位置がずれて写ってしまい、合成画像の画質が劣化するのを回避することができる。   According to the second aspect of the present invention, the luminance signal acquired in the first state and the second state are acquired when the amount of movement of the subject in the images shot in the first and second states is equal to or less than the threshold value. Since the color moiré and false color are reduced by combining the color difference signals, it is possible to avoid the image of the composite image from being deteriorated due to the subject moving out of position due to the movement of the subject.

本願発明3に係る撮影装置は、被写体からの光を受光して画像を撮像し、画像信号を取得する撮像素子と、動きの少ない被写体を撮影するための静止物撮影モードと、動きのある被写体を撮影するための動作物撮影モードとの間で撮影モードを切り替える撮影モード切り替え手段と、前記被写体に合焦し、且つ、光学ブレ無しの第1の状態と、前記被写体に非合焦であるか又は光学ブレを生じさせた第2の状態で画像を撮影する撮影制御手段と、前記撮影モードが静止物撮影モードの場合に、前記第1の状態で取得された輝度信号と、前記第2の状態で取得された色差信号を合成して画像を生成する一方、前記撮影モード動作物撮影モードの場合に、前記第1の状態で取得された輝度信号及び色差信号を用いて画像を生成する画像生成手段とを備えることを特徴とする。   The imaging device according to the third aspect of the present invention includes an imaging device that receives light from a subject to capture an image and obtains an image signal, a still object photographing mode for photographing a subject with little motion, and a subject with motion A shooting mode switching means for switching a shooting mode between an action object shooting mode for shooting an object, a first state in which the subject is in focus and no optical blur is present, and the subject is not in focus. Or a photographing control means for photographing an image in the second state in which optical blurring occurs, a luminance signal acquired in the first state when the photographing mode is a stationary object photographing mode, and the second The color difference signals acquired in the state are combined to generate an image, while in the shooting mode operation object shooting mode, an image is generated using the luminance signal and color difference signals acquired in the first state. Image generation means and Characterized in that it comprises.

本願発明3によれば、撮影モードが静止物撮影モードの場合に、第1の状態において取得された輝度信号と第2の状態において取得された色差信号とを合成して色モアレ及び偽色を低減するようにしたので、被写体の動きにより被写体の位置がずれて写ってしまい、合成画像の画質が劣化するのを回避することができる。   According to the third aspect of the present invention, when the shooting mode is the stationary object shooting mode, the color moire and the false color are obtained by combining the luminance signal acquired in the first state and the color difference signal acquired in the second state. Since it is reduced, it can be avoided that the subject is shifted due to the movement of the subject and the image quality of the composite image is deteriorated.

本願発明4に係る画像処理方法は、撮像素子を用いて、被写体からの光を受光して画像を撮像し、画像信号を取得する工程と、前記撮像素子により撮像される画像に光学ブレを生じさせる光学ブレ発生工程と、光学ブレ無しの第1の状態と、光学ブレを生じさせた第2の状態で画像を撮影する撮影制御工程と、光学ブレ無しの第1の状態で取得された輝度信号と、光学ブレを生じさせた第2の状態で取得された色差信号とを合成して画像を生成する画像生成工程とを備えることを特徴とする。   The image processing method according to the fourth aspect of the present invention uses an imaging device to receive light from a subject to capture an image and acquire an image signal, and causes an optical blur in an image captured by the imaging device. An optical blur generating step, a first state without optical blur, a shooting control step for shooting an image in a second state causing optical blur, and luminance acquired in the first state without optical blur And an image generation step of generating an image by combining the signal and the color difference signal acquired in the second state causing the optical blur.

本願発明5に係る画像処理方法は、撮像素子を用いて、被写体からの光を受光して画像を撮像し、画像信号を取得する工程と、前記被写体に合焦し、且つ、光学ブレ無しの第1の状態と、前記被写体に非合焦であるか又は光学ブレを生じさせた第2の状態で画像を撮影する撮影制御工程と、前記第1、第2の状態において撮影された画像中における前記被写体の動き量を取得する動き量取得工程と、前記動き量が閾値以下の場合に、前記第1の状態で取得された輝度信号と、前記第2の状態で取得された色差信号を合成して画像を生成する一方、前記動き量が閾値より大きい場合に、前記第1の状態で取得された輝度信号及び色差信号を用いて画像を生成する画像生成工程とを備えることを特徴とする。   The image processing method according to the fifth aspect of the present invention is a method of capturing an image by receiving light from a subject using an imaging device to acquire an image signal, focusing on the subject, and without optical blurring. A shooting control step of shooting an image in a first state, a second state where the subject is out of focus or optical blurring, and in the images shot in the first and second states A movement amount acquisition step of acquiring a movement amount of the subject in step S3, a luminance signal acquired in the first state and a color difference signal acquired in the second state when the movement amount is equal to or less than a threshold value. An image generating step of generating an image using the luminance signal and the color difference signal acquired in the first state when the amount of motion is larger than a threshold value while generating an image by combining. To do.

本願発明6に係る画像処理方法は、撮像素子を用いて、被写体からの光を受光して画像を撮像し、画像信号を取得する工程と、動きの少ない被写体を撮影するための静止物撮影モードと、動きのある被写体を撮影するための動作物撮影モードとの間で撮影モードを切り替える撮影モード切り替え工程と、前記被写体に合焦し、且つ、光学ブレ無しの第1の状態と、前記被写体に非合焦であるか又は光学ブレを生じさせた第2の状態で画像を撮影する撮影制御工程と、前記撮影モードが静止物撮影モードの場合に、前記第1の状態で取得された輝度信号と、前記第2の状態で取得された色差信号を合成して画像を生成する一方、前記撮影モード動作物撮影モードの場合に、前記第1の状態で取得された輝度信号及び色差信号を用いて画像を生成する画像生成工程とを備えることを特徴とする。   The image processing method according to the sixth aspect of the present invention includes a step of capturing an image by receiving light from a subject using an imaging element to acquire an image signal, and a stationary object photographing mode for photographing a subject with little movement A shooting mode switching step of switching a shooting mode between a moving object shooting mode for shooting a moving subject, a first state in which the subject is in focus and no optical blur occurs, and the subject And a brightness control acquired in the first state when the shooting mode is the stationary object shooting mode. The signal and the color difference signal acquired in the second state are combined to generate an image. On the other hand, in the shooting mode operation object shooting mode, the luminance signal and the color difference signal acquired in the first state are generated. Use to generate images Characterized in that it comprises a that image generation process.

本発明によれば、光学ブレ発生手段を用いて画像を均一にブラすことができるので、光学ブレ無しの状態の輝度信号と、意図的に光学ブレを起こして、色モアレ及び偽色を発生しないようにして撮影した色差信号とを合成することにより、画質を劣化させることなく色モアレ及び偽色を低減することができる。   According to the present invention, since the image can be uniformly blurred using the optical blur generating means, the luminance signal without optical blur and the intentional optical blur are generated to generate color moire and false color. By synthesizing the color difference signals photographed in such a manner, color moiré and false colors can be reduced without degrading the image quality.

また、本発明によれば、被写体の動きを考慮して、第1の状態において取得された輝度信号と第2の状態において取得された色差信号とを合成するかどうかを選択するようにしたので、被写体の動きにより被写体の位置がずれて写ってしまい、合成画像の画質が劣化するのを回避することができる。   Further, according to the present invention, in consideration of the movement of the subject, whether to synthesize the luminance signal acquired in the first state and the color difference signal acquired in the second state is selected. Therefore, it is possible to avoid the deterioration of the image quality of the composite image due to the subject moving out of position due to the movement of the subject.

以下、添付図面に従って本発明に係る撮影装置及び画像処理方法の好ましい実施の形態について説明する。   Hereinafter, preferred embodiments of a photographing apparatus and an image processing method according to the present invention will be described with reference to the accompanying drawings.

[第1の実施形態]
図2は、本発明の第1の実施形態に係る撮影装置の主要構成を示すブロック図である。図2に示すように、CPU12は、バス14を介して撮影装置10(以下、カメラ10と記載する)内の各部に接続されており、操作部16等からの操作入力に基づいてカメラ10の動作を制御する統括制御部である。CPU12は、操作部16からの入力信号に基づいてカメラ10の各部を制御し、例えば、レンズユニット28の駆動制御、撮影動作制御、画像処理制御、画像データの記録/再生制御、画像表示部42の表示制御等を行う。
[First Embodiment]
FIG. 2 is a block diagram showing the main configuration of the photographing apparatus according to the first embodiment of the present invention. As shown in FIG. 2, the CPU 12 is connected to each unit in the photographing apparatus 10 (hereinafter referred to as the camera 10) via a bus 14, and based on an operation input from the operation unit 16 or the like, This is the overall control unit that controls the operation. The CPU 12 controls each unit of the camera 10 based on an input signal from the operation unit 16, for example, driving control of the lens unit 28, shooting operation control, image processing control, image data recording / reproduction control, image display unit 42. Display control.

操作部16は、電源スイッチ、動作モード切り替えスイッチ、撮影モード切り替えスイッチ、顔検出機能オン/オフスイッチ、レリーズボタン、メニュー/OKキー、十字キー、キャンセルキーを含んでいる。   The operation unit 16 includes a power switch, an operation mode switching switch, a shooting mode switching switch, a face detection function on / off switch, a release button, a menu / OK key, a cross key, and a cancel key.

電源スイッチは、カメラ10の電源のオン/オフを制御するための操作手段である。   The power switch is an operation means for controlling the power on / off of the camera 10.

動作モード切り替えスイッチは、カメラ10の動作モードを、撮影モードと再生モードとの間で切り替えるための操作手段である。   The operation mode switching switch is an operation means for switching the operation mode of the camera 10 between the shooting mode and the reproduction mode.

撮影モード切り替えスイッチは、カメラ10の撮影モードを切り替えるスイッチとして機能する。カメラ10の撮影モードは、後述するプレシャッターモードのほか、シーンポジション(例えば、ナチュラルフォト、人物、風景、夜景、ポートレート、スポーツ、水中、接写(花等)又はテキスト文章)に応じてフォーカスや露出を最適化して撮影するためのシーンポジションモード、フォーカスや露出を自動的に設定するオートモード、フォーカスや露出をマニュアルで設定可能なマニュアルモード又は動画撮影モードに切り替え可能となっている。   The shooting mode switching switch functions as a switch for switching the shooting mode of the camera 10. In addition to the pre-shutter mode, which will be described later, the shooting mode of the camera 10 can be set according to the scene position (for example, natural photo, person, landscape, night view, portrait, sport, underwater, close-up (flowers, etc.) or text text). It is possible to switch to a scene position mode for optimizing exposure for shooting, an auto mode for automatically setting focus and exposure, a manual mode for manually setting focus and exposure, or a moving image shooting mode.

顔検出機能オン/オフスイッチは、撮影した画像から顔を検出する顔検出機能のオン/オフを制御する。   The face detection function on / off switch controls on / off of a face detection function for detecting a face from a captured image.

レリーズボタンは、撮影開始の指示を入力する操作ボタンであり、半押し時にオンするS1スイッチと、全押し時にオンするS2スイッチとを有する2段ストローク式のスイッチにより構成されている。   The release button is an operation button for inputting an instruction to start photographing, and includes a two-stroke switch having an S1 switch that is turned on when half-pressed and an S2 switch that is turned on when fully pressed.

メニュー/OKキーは、画像表示部42の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定及び実行等を指令するOKボタンとしての機能とを兼備した操作キーである。   The menu / OK key is an operation having both a function as a menu button for instructing to display a menu on the screen of the image display unit 42 and a function as an OK button for instructing confirmation and execution of selection contents. Key.

十字キーは、上下左右の4方向の指示を入力する操作部であり、メニュー画面から項目を選択したり、各メニューから各種設定項目の選択を指示したりするボタン(カーソル移動操作手段)として機能する。また、十字キーの上キー及び下キーは撮影モード時のズームスイッチあるいは再生時の再生ズームスイッチとして機能し、左キー及び右キーは再生モード時のコマ送り(順方向/逆方向送り)ボタンとして機能する。   The cross key is an operation unit for inputting instructions in four directions, up, down, left, and right, and functions as a button (cursor moving operation means) for selecting an item from the menu screen or instructing selection of various setting items from each menu. To do. The up and down keys of the cross key function as a zoom switch in shooting mode or a playback zoom switch in playback, and the left and right keys function as frame advance (forward / reverse feed) buttons in playback mode. Function.

キャンセルキーは、選択項目等の所望の対象の消去や指示内容の取り消し、あるいは1つ前の操作状態に戻す時等に使用される。   The cancel key is used to delete a desired object such as a selection item, cancel an instruction content, or return to the previous operation state.

ROM18には、CPU12が処理するプログラム及び制御に必要な各種データ等が格納される。RAM20には、CPU12が各種の演算処理等を行う作業用領域及び画像処理領域が含まれている。   The ROM 18 stores programs processed by the CPU 12 and various data necessary for control. The RAM 20 includes a work area and an image processing area where the CPU 12 performs various arithmetic processes.

カメラ10は、メディアソケット(メディア装着部)を有しており、記録メディア22を装着することができる。記録メディア22の形態は特に限定されず、xDピクチャカード(登録商標)、SDカード(登録商標)、スマートメディア(登録商標)に代表される半導体メモリカード、可搬型小型ハードディスク、磁気ディスク、光ディスク、光磁気ディスク等の種々の媒体を用いることができる。メディアコントローラ24は、記録メディア22に適した入出力信号の受渡しを行うために所要の信号変換を行う。   The camera 10 has a media socket (media mounting portion), and can mount a recording medium 22. The form of the recording medium 22 is not particularly limited. A semiconductor memory card represented by an xD picture card (registered trademark), an SD card (registered trademark), a smart media (registered trademark), a portable small hard disk, a magnetic disk, an optical disk, Various media such as a magneto-optical disk can be used. The media controller 24 performs necessary signal conversion in order to deliver an input / output signal suitable for the recording medium 22.

また、カメラ10は、インターネットや携帯電話用の通信網等の公衆回線網に接続するための通信手段として通信インターフェース部(通信I/F)26を備えている。   The camera 10 also includes a communication interface unit (communication I / F) 26 as communication means for connecting to a public network such as the Internet or a mobile phone communication network.

次に、カメラ10の撮影機能について説明する。撮影モード時には、撮像素子32を含む撮像部に電源が供給され、画像の撮影が可能な状態になる。本実施形態では、撮像素子32として、単板式のカラーCCD固体撮像素子を採用しており、以下の説明では単にCCD32と記載する。なお、撮像素子32としては、CMOSセンサ等の他の撮像素子を用いてもよい。   Next, the shooting function of the camera 10 will be described. In the shooting mode, power is supplied to the image pickup unit including the image pickup device 32, and an image can be shot. In the present embodiment, a single-plate color CCD solid-state image sensor is employed as the image sensor 32, and is simply referred to as the CCD 32 in the following description. As the image sensor 32, another image sensor such as a CMOS sensor may be used.

レンズユニット28は、フォーカスレンズ及びズームレンズを含む撮影レンズと、絞りとを含む光学ユニットである。レンズ駆動部28Aは、フォーカスレンズ、ズームレンズ及び絞りを移動させるためのモータ及び上記レンズの位置を検出するためのセンサ等を備える。CPU12は、レンズ駆動部28Aに制御信号を出力して、撮影レンズのフォーカシング、ズーミング及び絞りの制御を行う。   The lens unit 28 is an optical unit including a photographing lens including a focus lens and a zoom lens, and a diaphragm. The lens driving unit 28A includes a focus lens, a zoom lens, a motor for moving the diaphragm, a sensor for detecting the position of the lens, and the like. The CPU 12 outputs a control signal to the lens driving unit 28A, and performs focusing, zooming, and aperture control of the photographing lens.

光学ブレ補正装置(防振レンズ)30は、光軸に対して垂直な面内で上下(鉛直方向)、左右(水平方向)に移動可能に配置される。光学ブレ補正制御装置30Aは、レンズユニット28に加えられた振動の角速度を検出し、検出した角速度の信号(角速度信号)を出力する角速度センサと、上記角速度センサから出力された角速度信号に基づいて、レンズユニット28の振動によって生じる光学ブレ(像ブレ)を打ち消す方向及び大きさで像を変位させるための防振レンズ30の移動目標位置を演算する演算手段と、防振レンズ30を上記移動目標位置に移動させるためのモータとを備える。防振レンズ30は、レンズユニット28に振動が生じた場合に、光学ブレ補正制御装置30Aにより像ブレを補正する位置(振動による像ブレを打ち消す位置)に移動する。   The optical blur correction device (anti-vibration lens) 30 is arranged so as to be movable up and down (vertical direction) and left and right (horizontal direction) in a plane perpendicular to the optical axis. The optical blur correction control device 30A detects an angular velocity of vibration applied to the lens unit 28, outputs an angular velocity signal (angular velocity signal) detected, and an angular velocity signal output from the angular velocity sensor. Calculating means for calculating the movement target position of the vibration-proof lens 30 for displacing the image in the direction and size to cancel the optical blur (image blur) caused by the vibration of the lens unit 28; And a motor for moving to a position. When vibration is generated in the lens unit 28, the anti-vibration lens 30 moves to a position for correcting image blur by the optical blur correction control device 30A (position for canceling image blur due to vibration).

なお、像ブレ補正の方式は、上記に限定されるものではなく、例えば、CCD32を変位させることにより像を意図的に変位させて像ブレを打ち消す方式、CCD32によって撮影される撮影画像から記録又は再生用の画像信号として切り出す範囲を変更することにより像を意図的に変位させて像ブレを打ち消す方式等の他の方式を用いることができる。   Note that the image blur correction method is not limited to the above. For example, a method in which the image is intentionally displaced by displacing the CCD 32 to cancel the image blur, a recording from a photographed image taken by the CCD 32, or Other methods such as a method of canceling image blur by intentionally displacing an image by changing a range to be cut out as an image signal for reproduction can be used.

レンズユニット28を通過した光は、CCD32の受光面に結像される。CCD32の受光面には多数の受光素子(フォトダイオード)が2次元的に配列されており、各フォトダイオードには赤(R)、緑(G)、青(B)の原色カラーフィルタが所定の配列構造で配置されている。CCD32の受光面に結像された被写体像は、各フォトダイオードによって入射光量に応じた量の信号電荷に変換される。この信号電荷は、電荷量に応じたR、G、Bの電圧信号(画像信号)として順次読み出される。CCD32は、各フォトダイオードの電荷蓄積時間(シャッタースピード)を制御する電子シャッター機能を有している。CPU12は、撮影制御部32Aを介して、CCD32からの信号電荷の読み出しタイミング及び各フォトダイオードの電荷蓄積時間を制御する。   The light that has passed through the lens unit 28 forms an image on the light receiving surface of the CCD 32. A number of light receiving elements (photodiodes) are two-dimensionally arranged on the light receiving surface of the CCD 32, and red (R), green (G), and blue (B) primary color filters are predetermined for each photodiode. Arranged in an array structure. The subject image formed on the light receiving surface of the CCD 32 is converted into a signal charge of an amount corresponding to the amount of incident light by each photodiode. The signal charges are sequentially read out as R, G, and B voltage signals (image signals) corresponding to the charge amount. The CCD 32 has an electronic shutter function for controlling the charge accumulation time (shutter speed) of each photodiode. The CPU 12 controls the signal charge readout timing from the CCD 32 and the charge accumulation time of each photodiode via the imaging control unit 32A.

CCD32から読み出されたR、G、Bの画像信号は、アナログ処理部(CDS/AMP)34によって、CCD32の画素ごとにサンプリングホールド(相関2重サンプリング処理)されて増幅された後、A/D変換器36に加えられてデジタルのR、G、B信号に変換される。A/D変換器36によってデジタル信号に変換されたR、G、B信号は、画像入力制御部38を介してRAM20に格納される。   The R, G, B image signals read from the CCD 32 are amplified by sampling and holding (correlated double sampling processing) for each pixel of the CCD 32 by the analog processing unit (CDS / AMP) 34, and then A / It is added to the D converter 36 and converted into digital R, G, B signals. The R, G, and B signals converted into digital signals by the A / D converter 36 are stored in the RAM 20 via the image input control unit 38.

画像信号処理部40は、オフセット補正部、ホワイトバランス調整回路、ガンマ補正回路、RGB補間処理装置(同時化回路、図1の符号100)、輝度色差変換装置(図1の符号102)、ノイズフィルタ、輪郭補正回路、色差マトリクス等を含む画像処理手段として機能し、CPU12からの指令に従ってRAM20を活用しながら所定の信号処理を行う。即ち、画像信号処理部40は、RAM20に記憶されたデジタルのR、G、B信号を読み出して、オフセット補正、ホワイトバランス調整及びガンマ補正等の所定の信号処理を施すとともに、R、G、B信号を輝度信号(Y信号)及び色差信号(Cr、Cb信号)に変換してRAM20に格納する。   The image signal processing unit 40 includes an offset correction unit, a white balance adjustment circuit, a gamma correction circuit, an RGB interpolation processing device (synchronization circuit, reference numeral 100 in FIG. 1), a luminance / color difference conversion device (reference numeral 102 in FIG. 1), a noise filter. , Functions as image processing means including a contour correction circuit, a color difference matrix, and the like, and performs predetermined signal processing using the RAM 20 in accordance with instructions from the CPU 12. That is, the image signal processing unit 40 reads out digital R, G, and B signals stored in the RAM 20, performs predetermined signal processing such as offset correction, white balance adjustment, and gamma correction, and performs R, G, and B signals. The signal is converted into a luminance signal (Y signal) and a color difference signal (Cr, Cb signal) and stored in the RAM 20.

撮影画像を画像表示部42(例えば、液晶モニタ)にモニタ出力する場合には、RAM20に格納された輝度/色差信号(Y/C信号)が読み出されて、バス14を介して表示制御部44に送られる。表示制御部44は、入力されたY/C信号を表示用の所定方式のビデオ信号(例えば、NTSC方式のカラー複合画像信号)に変換して画像表示部42に出力する。   When the captured image is output to the image display unit 42 (for example, a liquid crystal monitor), the luminance / color difference signal (Y / C signal) stored in the RAM 20 is read and displayed via the bus 14. 44. The display control unit 44 converts the input Y / C signal into a predetermined video signal for display (for example, an NTSC color composite image signal) and outputs the video signal to the image display unit 42.

ライブビュー画像(スルー画)表示を行う際には、CCD32から出力される画像信号によってRAM20内の画像データが定期的に書き換えられ、その画像データから生成される画像信号が画像表示部42に供給される。これにより、撮影中の映像(スルー画)がリアルタイムに画像表示部42に表示される。撮影者は、画像表示部42に表示されるスルー画によって撮影画角を確認できる。   When displaying a live view image (through image), the image data in the RAM 20 is periodically rewritten by the image signal output from the CCD 32, and the image signal generated from the image data is supplied to the image display unit 42. Is done. Thereby, the video (through image) being shot is displayed on the image display unit 42 in real time. The photographer can confirm the shooting angle of view by the through image displayed on the image display unit 42.

レリーズボタンが半押しされると(S1オン)、CCD32から出力された画像信号はA/D変換後に画像入力制御部38を介してCPU12に入力されてAE及びAF処理が開始される。   When the release button is pressed halfway (S1 ON), the image signal output from the CCD 32 is input to the CPU 12 via the image input control unit 38 after A / D conversion, and AE and AF processes are started.

CPU12は、1画面を複数の分割エリア(例えば、8×8又は16×16)に分割して、この分割エリアごとにR、G、Bの画像信号を積算する。そして、CPU12は、この積算値に基づいて被写体の明るさ(被写体輝度)を検出して撮影に適した露出値(撮影EV値)を算出し、この露出値と所定のプログラム線図に従って絞り値とシャッタースピードを決定して、CCD32の電子シャッター及び絞りを制御して適正な露光量を得る。   The CPU 12 divides one screen into a plurality of divided areas (for example, 8 × 8 or 16 × 16), and integrates R, G, and B image signals for each divided area. The CPU 12 detects the brightness of the subject (subject brightness) based on the integrated value, calculates an exposure value (shooting EV value) suitable for shooting, and aperture value according to the exposure value and a predetermined program diagram. The shutter speed is determined and the electronic shutter and the aperture of the CCD 32 are controlled to obtain an appropriate exposure amount.

また、CPU12は、自動ホワイトバランス調整時に、分割エリアごとにR、G、Bの画像信号の色別の平均積算値を算出して、分割エリアごとにR/G及びB/Gの比を求め、R/G、B/Gの値のR/G、B/G軸座標の色空間における分布に基づいて光源種の判別を行う。そして、CPU12は、判別された光源種に応じてR、G、Bの画像信号に対するゲイン値(ホワイトバランスゲイン)を制御し、R、G、Bの各色チャンネルの画像信号に補正をかける。   Further, the CPU 12 calculates an average integrated value for each color of the R, G, and B image signals for each divided area during automatic white balance adjustment, and obtains the ratio of R / G and B / G for each divided area. , R / G, and B / G values are discriminated based on the distribution in the color space of the R / G and B / G axis coordinates. Then, the CPU 12 controls the gain value (white balance gain) for the R, G, and B image signals according to the determined light source type, and corrects the image signals of the R, G, and B color channels.

カメラ10におけるAF制御は、例えば、画像信号のG信号の高周波成分が極大になるようにフォーカスレンズを移動させるコントラストAFが適用される。即ち、CPU12は、CCD32の有効画素領域の一部(例えば、有効画素領域の中央部)に予め設定されているAFエリア内の信号を切り出して、ハイパスフィルタによりAFエリア内のG信号の高周波成分のみを通過させ、この高周波成分の絶対値データを積算し、AFエリア内の被写体像に関する焦点評価値(AF評価値)を算出する。   For example, contrast AF that moves the focus lens so that the high-frequency component of the G signal of the image signal is maximized is applied to the AF control in the camera 10. That is, the CPU 12 cuts out a signal in the AF area set in advance in a part of the effective pixel area of the CCD 32 (for example, the central part of the effective pixel area), and uses a high-pass filter to generate a high-frequency component of the G signal in the AF area. Only the absolute value data of the high-frequency component is integrated, and a focus evaluation value (AF evaluation value) relating to the subject image in the AF area is calculated.

CPU12は、レンズ駆動部28Aを制御してフォーカスレンズを移動させながら、複数のAF検出ポイントで焦点評価値を演算し、焦点評価値が極大となるレンズ位置を合焦位置として決定する。そして、CPU12は、レンズ駆動部28Aを制御して、決定した合焦位置にフォーカスレンズを移動させる。なお、焦点評価値の演算はG信号を利用する態様に限らず、輝度信号(Y信号)を利用してもよい。   The CPU 12 calculates a focus evaluation value at a plurality of AF detection points while moving the focus lens by controlling the lens driving unit 28A, and determines a lens position where the focus evaluation value is maximized as a focus position. Then, the CPU 12 controls the lens driving unit 28A to move the focus lens to the determined focus position. The calculation of the focus evaluation value is not limited to the aspect using the G signal, and a luminance signal (Y signal) may be used.

レリーズボタンが半押し(S1オン)されてAE/AF処理が行われた後、レリーズボタンが全押しされると(S2オン)、記録用の撮影動作がスタートする。   After the release button is pressed halfway (S1 on) and AE / AF processing is performed, when the release button is fully pressed (S2 on), the recording operation for recording starts.

以下、本実施形態に係る撮影動作について、図1のブロック図を参照して説明する。本実施形態では、S2オン時に撮影が2回行われる。2回の撮影のうちの1回は、光学ブレ補正制御装置30Aにより意図的に画像をブラした状態で撮影が行われる。上記2回の撮影により得られたR、G、Bの画像信号は、所定の処理を経た後にA/D変換されてデジタルのR、G、B信号としてRAM20に格納される。画像信号処理部40は、CPU12からの指令に従って、RAM20からデジタルのR、G、B信号を読み出して所定の信号処理を施した後、RGB補間処理装置100に入力する。   Hereinafter, the photographing operation according to the present embodiment will be described with reference to the block diagram of FIG. In the present embodiment, photographing is performed twice when S2 is on. One of the two shootings is performed while the optical blur correction control device 30A intentionally blurs the image. The R, G, and B image signals obtained by the above two imaging operations are subjected to A / D conversion after being subjected to predetermined processing, and are stored in the RAM 20 as digital R, G, and B signals. The image signal processing unit 40 reads out digital R, G, and B signals from the RAM 20 in accordance with a command from the CPU 12, performs predetermined signal processing, and inputs them to the RGB interpolation processing device 100.

RGB補間処理装置100は、CCD32の各画素位置におけるR、G、B信号を補間演算により求める(同時化処理)。本実施形態では、CCD32は単板式であるため、CCD32の各フォトダイオード(画素)からは、R、G、Bのいずれか1色の信号しか出力されない。このため、RGB補間処理装置100を設けて、各画素から出力されない色をその周囲の画素の色信号から補間演算により求める。例えば、R信号を出力する画素の位置におけるG、B信号がどの程度になるかをその周囲の画素のG、B信号から補間演算により求める。なお、RGB補間演算は、単板式のCCDに特有のものなので、3板式のCCDを用いる場合には不要となる。   The RGB interpolation processing device 100 obtains R, G, and B signals at each pixel position of the CCD 32 by interpolation calculation (synchronization processing). In this embodiment, since the CCD 32 is a single plate type, each photodiode (pixel) of the CCD 32 outputs a signal of any one color of R, G, and B. For this reason, the RGB interpolation processing device 100 is provided, and the color that is not output from each pixel is obtained from the color signal of the surrounding pixels by interpolation calculation. For example, the extent of the G and B signals at the position of the pixel that outputs the R signal is obtained by interpolation from the G and B signals of the surrounding pixels. Since the RGB interpolation calculation is specific to a single-plate CCD, it is not necessary when using a three-plate CCD.

輝度色差変換装置102は、RGB補間演算後のR、G、B信号から輝度信号Yと色差信号Cr、Cbを生成する。以下の説明では、1回目の撮影により得られた輝度信号をY1、色差信号をCr1、Cb1、2回の撮影により得られた輝度信号をY2、色差信号をCr2、Cb2と記載する。   The luminance / color difference conversion apparatus 102 generates a luminance signal Y and color difference signals Cr and Cb from the R, G, and B signals after the RGB interpolation calculation. In the following description, the luminance signal obtained by the first photographing is denoted as Y1, the color difference signal is represented by Cr1, Cb1, and the luminance signal obtained by the second photographing is represented by Y2, and the color difference signal is represented by Cr2, Cb2.

輝度保持メモリ104は、1回目の撮影により取得された輝度信号Y1を一時記憶する。   The luminance holding memory 104 temporarily stores the luminance signal Y1 acquired by the first shooting.

輝度色差合成装置106は、輝度色差変換装置102から2回目の撮影により取得された色差信号Cr2、Cb2が入力されると、輝度保持メモリ104に一時記憶された輝度信号Y1と色差信号Cr2、Cb2とを合成して出力する。そして、輝度色差合成装置106から出力された輝度信号Y1及び色差信号Cr2、Cb2は、それぞれ輪郭補正処理、色調補正処理が施された後、RAM20に格納される。   When the color difference signals Cr2 and Cb2 acquired by the second photographing are input from the luminance and color difference conversion device 102, the luminance and color difference synthesis device 106 receives the luminance signal Y1 and the color difference signals Cr2 and Cb2 temporarily stored in the luminance holding memory 104. Are combined and output. The luminance signal Y1 and the color difference signals Cr2 and Cb2 output from the luminance / color difference synthesis device 106 are stored in the RAM 20 after being subjected to contour correction processing and color tone correction processing, respectively.

RAM20に格納された輝度信号Y1及び色差信号Cr2、Cb2は、圧縮・伸張処理部46によって所定のフォーマットに従って圧縮されて記録メディア22に記録される。例えば、静止画についてはJPEG(Joint Photographic Experts Group)形式、動画についてはAVI(Audio Video Interleaving)形式、Motion-JPEGの画像ファイルとして記録される。   The luminance signal Y1 and the color difference signals Cr2 and Cb2 stored in the RAM 20 are compressed according to a predetermined format by the compression / decompression processing unit 46 and recorded on the recording medium 22. For example, a still image is recorded as a JPEG (Joint Photographic Experts Group) format, a moving image is recorded as an AVI (Audio Video Interleaving) format, and a Motion-JPEG image file.

再生モード時には、記録メディア22に記録されている最終の画像ファイル(最後に記録された画像ファイル)の圧縮データが読み出される。最後の記録に係る画像ファイルが静止画の場合、読み出された圧縮データは、圧縮・伸張処理部46によって非圧縮のY/C信号に伸張され、画像信号処理部40及び表示制御部44によって表示用の信号に変換された後、画像表示部42に出力される。これにより、当該画像ファイルの画像内容が画像表示部42に表示される。   In the playback mode, the compressed data of the last image file (last recorded image file) recorded on the recording medium 22 is read. When the image file related to the last recording is a still image, the read compressed data is decompressed to an uncompressed Y / C signal by the compression / decompression processing unit 46, and is then processed by the image signal processing unit 40 and the display control unit 44. After being converted into a display signal, it is output to the image display unit 42. Thereby, the image content of the image file is displayed on the image display unit 42.

静止画の1コマ再生中(動画の先頭フレーム再生中も含む)に、十字ボタンの右ボタン又は左ボタンを操作することによって、再生対象の画像ファイルを切り換えること(順コマ送り/逆コマ送り)ができる。コマ送りされた位置の画像ファイルは記録メディア22から読み出され、上記と同様にして静止画や動画が画像表示部42に再生表示される。   During single-frame playback of a still image (including playback of the first frame of a movie), the image file to be played is switched by operating the right or left button of the cross button (forward / reverse frame advance). Can do. The image file at the frame-advanced position is read from the recording medium 22, and still images and moving images are reproduced and displayed on the image display unit 42 in the same manner as described above.

次に、本実施形態に係る撮影処理の流れについて、図3のフローチャートを参照して説明する。まず、レリーズボタンが半押し(S1オン)されてAE/AF処理が行われた後、レリーズボタンが全押しされると(S2オン)、像ブレ無しの状態で1回目の撮影が行われる(ステップS10)。そして、1回目の撮影により取得されたR、G、B信号に対してRGB補間処理(ステップS12)及び輝度色差変換処理(ステップS14)が施されて輝度信号Y1が生成され、輝度保持メモリ104に一時記憶される(ステップS16)。   Next, the flow of imaging processing according to the present embodiment will be described with reference to the flowchart of FIG. First, after the release button is pressed halfway (S1 on) and AE / AF processing is performed, when the release button is fully pressed (S2 on), the first shooting is performed without image blurring ( Step S10). Then, RGB interpolation processing (step S12) and luminance color difference conversion processing (step S14) are performed on the R, G, and B signals acquired by the first shooting to generate the luminance signal Y1, and the luminance holding memory 104 Is temporarily stored (step S16).

次に、光学ブレ補正制御装置30Aにより像をブラした状態で2回目の撮影が行われる(ステップS18、S20)。そして、2回目の撮影により取得されたR、G、B信号に対してRGB補間処理(ステップS22)及び輝度色差変換処理(ステップS24)が施されて色差信号Cr2、Cb2が生成され、輝度色差合成装置106に入力される。   Next, the second shooting is performed while the image is blurred by the optical blur correction control device 30A (steps S18 and S20). Then, RGB interpolation processing (step S22) and luminance color difference conversion processing (step S24) are performed on the R, G, and B signals acquired by the second shooting to generate color difference signals Cr2 and Cb2, and luminance color difference The data is input to the synthesizer 106.

次に、輝度保持メモリ104に一時記憶された輝度信号Y1が輝度色差合成装置106により読み出されて、ステップS24において生成された色差信号Cr2、Cb2と合成される(ステップS26)。そして、輝度信号Y1及び色差信号Cr2、Cb2は、圧縮・伸張処理部46に出力され、所定のフォーマットの画像ファイルとして記録メディア22に記録される。   Next, the luminance signal Y1 temporarily stored in the luminance holding memory 104 is read out by the luminance / chrominance synthesizing device 106 and synthesized with the color difference signals Cr2 and Cb2 generated in step S24 (step S26). The luminance signal Y1 and the color difference signals Cr2 and Cb2 are output to the compression / decompression processing unit 46 and recorded on the recording medium 22 as an image file of a predetermined format.

本実施形態によれば、光学ブレ補正装置(防振レンズ)30を用いて画像を均一にブラすことができるので、像ブレ無しの状態の輝度信号Y1と、意図的に像ブレを起こして、色モアレ及び偽色を発生しないようにして撮影した色差信号Cr2、Cb2とを合成することにより、画質を劣化させることなく色モアレ及び偽色を低減することができる。   According to the present embodiment, since the image can be uniformly blurred using the optical blur correction device (anti-vibration lens) 30, the luminance signal Y1 without image blur and the image blur are intentionally caused. By synthesizing the color difference signals Cr2 and Cb2 photographed without generating color moire and false color, the color moire and false color can be reduced without degrading the image quality.

[第2の実施形態]
次に、本発明の第2の実施形態について説明する。なお、以下の説明において、上記第1の実施形態と同様の構成については、同一の符号を付して説明を省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the following description, the same components as those in the first embodiment are denoted by the same reference numerals and description thereof is omitted.

図4は、本実施形態に係る記録用の撮影動作を説明するためのブロック図である。本実施形態では、S2オン時に撮影が2回行われ、2回の撮影のうちの1回は合焦状態、もう1回は非合焦状態で撮影が行われる。画像信号処理部40は、CPU12からの指令に従って、上記2回の撮影により得られたデジタルのR、G、B信号に所定の信号処理を施した後、RGB補間処理装置100に入力する。   FIG. 4 is a block diagram for explaining a recording photographing operation according to the present embodiment. In the present embodiment, shooting is performed twice when S2 is on, and shooting is performed once in the focused state and once in the out-of-focus state. The image signal processing unit 40 performs predetermined signal processing on the digital R, G, and B signals obtained by the above two shootings in accordance with a command from the CPU 12, and then inputs them to the RGB interpolation processing device 100.

RGB補間処理装置100は、CCD32の各画素位置におけるR、G、B信号を補間演算により求める。輝度色差変換装置102は、RGB補間演算後のR、G、B信号から輝度信号Yと色差信号Cr、Cbを生成する。   The RGB interpolation processing device 100 obtains R, G, and B signals at each pixel position of the CCD 32 by interpolation calculation. The luminance / color difference conversion apparatus 102 generates a luminance signal Y and color difference signals Cr and Cb from the R, G, and B signals after the RGB interpolation calculation.

輝度色差保持メモリ108は、1回目の撮影により取得された輝度信号Y1及び色差信号Cr1、Cb1を一時記憶する。   The luminance / color difference holding memory 108 temporarily stores the luminance signal Y1 and the color difference signals Cr1, Cb1 acquired by the first photographing.

動き検出装置110は、1回目と2回目の撮影により取得された画像信号(R、G、B信号又はY/C信号)を比較して、2回の撮影の間における被写体の動き量を算出し、輝度色差合成装置112に提供する。   The motion detection device 110 compares the image signals (R, G, B signals, or Y / C signals) acquired by the first and second shootings, and calculates the amount of movement of the subject between the two shootings. And provided to the luminance / color difference synthesis apparatus 112.

輝度色差合成装置112は、動き検出装置110によって算出された被写体の動き量が閾値より大きい場合に、輝度色差保持メモリ108から1回目の撮影により取得された輝度信号Y1及び色差信号Cr1、Cb1を取得して出力する。また、輝度色差合成装置112は、被写体の動き量が閾値以下の場合に、1回目の撮影により取得された輝度信号Y1と2回目の撮影により取得された色差信号Cr2、Cb2とを合成して出力する。   When the subject motion amount calculated by the motion detection device 110 is larger than the threshold value, the luminance / color difference synthesis device 112 receives the luminance signal Y1 and the color difference signals Cr1 and Cb1 acquired from the luminance / color difference holding memory 108 by the first shooting. Obtain and output. Further, the luminance / color difference combining device 112 combines the luminance signal Y1 acquired by the first shooting and the color difference signals Cr2 and Cb2 acquired by the second shooting when the amount of movement of the subject is equal to or less than the threshold. Output.

輝度色差合成装置112から出力されたY/C信号は、それぞれ輪郭補正処理、色調補正処理が施された後、圧縮・伸張処理部46によって所定のフォーマットに従って圧縮されて記録メディア22に記録される。   The Y / C signal output from the luminance / color difference synthesizing device 112 is subjected to contour correction processing and color tone correction processing, respectively, and then compressed according to a predetermined format by the compression / decompression processing unit 46 and recorded on the recording medium 22. .

次に、本実施形態に係る撮影処理の流れについて、図5のフローチャートを参照して説明する。まず、レリーズボタンが半押し(S1オン)されてAE/AF処理が行われた後、レリーズボタンが全押しされると(S2オン)、フォーカスレンズ制御装置27Aによりフォーカスレンズ27が合焦位置に配置され(ステップS30)、合焦状態で1回目の撮影が行われる(ステップS32)。そして、1回目の撮影により取得されたR、G、B信号に対してRGB補間処理(ステップS34)及び輝度色差変換処理(ステップS36)が施されて輝度信号Y1及び色差信号Cr1、Cb1が生成され、輝度色差保持メモリ108に一時記憶される(ステップS38)。   Next, the flow of imaging processing according to the present embodiment will be described with reference to the flowchart of FIG. First, after the release button is pressed halfway (S1 on) and AE / AF processing is performed, and then the release button is fully pressed (S2 on), the focus lens control device 27A moves the focus lens 27 to the in-focus position. It is arranged (step S30), and the first shooting is performed in the focused state (step S32). Then, RGB interpolation processing (step S34) and luminance / chrominance conversion processing (step S36) are performed on the R, G, and B signals acquired by the first shooting to generate the luminance signal Y1 and the color difference signals Cr1 and Cb1. And is temporarily stored in the luminance / color difference holding memory 108 (step S38).

次に、フォーカスレンズ27が合焦位置からずらされて(ステップS40)、非合焦状態で2回目の撮影が行われる(ステップS42)。そして、2回目の撮影により取得されたR、G、B信号に対してRGB補間処理(ステップS44)及び輝度色差変換処理(ステップS46)が施されて色差信号Cr2、Cb2が生成され、輝度色差合成装置106に入力される。   Next, the focus lens 27 is shifted from the in-focus position (step S40), and the second shooting is performed in the out-of-focus state (step S42). Then, RGB interpolation processing (step S44) and luminance color difference conversion processing (step S46) are performed on the R, G, and B signals acquired by the second shooting to generate color difference signals Cr2 and Cb2, and luminance color difference The data is input to the synthesizer 106.

次に、1回目と2回目の撮影により取得された画像信号に基づいて、両画像間における被写体の動き量が算出される。そして、被写体の動き量が閾値以下の場合に(ステップS48のNO)、1回目の撮影により取得された輝度信号Y1と、2回目の撮影により取得された色差信号Cr2、Cb2とが合成される(ステップS50)。一方、被写体の動き量が閾値より大きい場合に(ステップS48のYES)、1回目の撮影により取得された輝度信号Y1及び色差信号Cr1、Cb1が輝度色差保持メモリ108から読み出されて出力される(ステップS52)。   Next, the amount of motion of the subject between the two images is calculated based on the image signals acquired by the first and second shootings. When the amount of movement of the subject is equal to or less than the threshold (NO in step S48), the luminance signal Y1 acquired by the first shooting and the color difference signals Cr2 and Cb2 acquired by the second shooting are combined. (Step S50). On the other hand, when the amount of motion of the subject is larger than the threshold (YES in step S48), the luminance signal Y1 and the color difference signals Cr1 and Cb1 acquired by the first shooting are read from the luminance / color difference holding memory 108 and output. (Step S52).

次に、ステップS50又はS52において出力されたY/C信号は、圧縮・伸張処理部46に出力されて、所定のフォーマットの画像ファイルとして記録メディア22に記録される(ステップS54)。   Next, the Y / C signal output in step S50 or S52 is output to the compression / decompression processing unit 46 and recorded on the recording medium 22 as an image file of a predetermined format (step S54).

本実施形態によれば、2回の撮影の間における被写体の動き量が閾値以下の場合に、合焦状態において取得された輝度信号Y1と非合焦状態において取得された色差信号Cr2、Cb2とを合成して色モアレ及び偽色を低減するようにしたので、図6に示すように、被写体の動きにより被写体の位置がずれて写ってしまい、合成画像の画質が劣化するのを回避することができる。   According to the present embodiment, when the amount of movement of the subject between the two shootings is equal to or less than the threshold value, the luminance signal Y1 acquired in the focused state and the color difference signals Cr2 and Cb2 acquired in the out-of-focus state As shown in FIG. 6, the position of the subject is shifted due to the movement of the subject and the image quality of the composite image is prevented from being deteriorated. Can do.

[第3の実施形態]
次に、本発明の第3の実施形態について説明する。本実施形態では、撮影モードが動きの少ない被写体を撮影するためのモード(例えば、ポートレートモード、風景モード及び夜景モード、以下、静止物撮影モードと記載する)に設定された場合に、合焦状態において取得された輝度信号と非合焦状態において取得された色差信号とを合成して色モアレ及び偽色を低減するようにし、スポーツモード等の動く被写体を撮影するためのモード(以下、動作物撮影モードと記載する)に設定された場合には、合焦状態において取得された輝度信号及び色差信号を用いて画像を生成するようにしている。
[Third Embodiment]
Next, a third embodiment of the present invention will be described. In the present embodiment, when the shooting mode is set to a mode for shooting a subject with little movement (for example, portrait mode, landscape mode and night view mode, hereinafter referred to as still object shooting mode), focusing is performed. A mode for photographing moving subjects such as a sports mode (hereinafter referred to as an operation) to reduce color moire and false color by combining the luminance signal acquired in the state and the color difference signal acquired in the out-of-focus state. When it is set to the object photographing mode), an image is generated using the luminance signal and the color difference signal acquired in the focused state.

図7は、本実施形態に係る記録用の撮影動作を説明するためのブロック図である。なお、以下の説明において、上記第1、第2の実施形態と同様の構成については、同一の符号を付して説明を省略する。本実施形態では、上記第2の実施形態と同様に、S2オン時に撮影が2回行われ、2回の撮影のうちの1回は合焦状態、もう1回は非合焦状態で撮影が行われる。画像信号処理部40は、CPU12からの指令に従って、上記2回の撮影により得られたデジタルのR、G、B信号に所定の信号処理を施した後、RGB補間処理装置100に入力する。   FIG. 7 is a block diagram for explaining a recording photographing operation according to the present embodiment. In the following description, the same components as those in the first and second embodiments are denoted by the same reference numerals and description thereof is omitted. In the present embodiment, as in the second embodiment, shooting is performed twice when S2 is on, and one of the two shots is taken in focus and the other is taken out of focus. Done. The image signal processing unit 40 performs predetermined signal processing on the digital R, G, and B signals obtained by the above two shootings in accordance with a command from the CPU 12, and then inputs them to the RGB interpolation processing device 100.

RGB補間処理装置100は、CCD32の各画素位置におけるR、G、B信号を補間演算により求める。輝度色差変換装置102は、RGB補間演算後のR、G、B信号から輝度信号Yと色差信号Cr、Cbを生成する。   The RGB interpolation processing device 100 obtains R, G, and B signals at each pixel position of the CCD 32 by interpolation calculation. The luminance / color difference conversion apparatus 102 generates a luminance signal Y and color difference signals Cr and Cb from the R, G, and B signals after the RGB interpolation calculation.

輝度色差保持メモリ108は、1回目の撮影により取得された輝度信号Y1及び色差信号Cr1、Cb1を一時記憶する。   The luminance / color difference holding memory 108 temporarily stores the luminance signal Y1 and the color difference signals Cr1, Cb1 acquired by the first photographing.

撮影モード設定装置15は、操作部16の撮影モード切り替えスイッチからの入力に応じて撮影モードを設定する。   The shooting mode setting device 15 sets the shooting mode in response to an input from the shooting mode switching switch of the operation unit 16.

輝度色差合成装置112は、撮影モードが静止物撮影モードに設定された場合に、1回目の撮影により取得された輝度信号Y1と2回目の撮影により取得された色差信号Cr2、Cb2とを合成して出力する。また、輝度色差合成装置112は、撮影モードが動作物撮影モードに設定された場合に、輝度色差保持メモリ108から1回目の撮影により取得された輝度信号Y1及び色差信号Cr1、Cb1を取得して出力する。   The luminance / color difference combining device 112 combines the luminance signal Y1 acquired by the first shooting and the color difference signals Cr2 and Cb2 acquired by the second shooting when the shooting mode is set to the stationary object shooting mode. Output. Further, the luminance / color difference synthesis device 112 acquires the luminance signal Y1 and the color difference signals Cr1, Cb1 acquired by the first shooting from the luminance / color difference holding memory 108 when the shooting mode is set to the operation object shooting mode. Output.

輝度色差合成装置112から出力されたY/C信号は、それぞれ輪郭補正処理、色調補正処理が施された後、圧縮・伸張処理部46によって所定のフォーマットに従って圧縮されて記録メディア22に記録される。   The Y / C signal output from the luminance / color difference synthesizing device 112 is subjected to contour correction processing and color tone correction processing, respectively, and then compressed according to a predetermined format by the compression / decompression processing unit 46 and recorded on the recording medium 22. .

次に、本実施形態に係る撮影処理の流れについて、図8のフローチャートを参照して説明する。まず、レリーズボタンが半押し(S1オン)されてAE/AF処理が行われた後、レリーズボタンが全押しされると(S2オン)、フォーカスレンズ制御装置27Aによりフォーカスレンズ27が合焦位置に配置され(ステップS60)、合焦状態で1回目の撮影が行われる(ステップS62)。そして、1回目の撮影により取得されたR、G、B信号に対してRGB補間処理(ステップS64)及び輝度色差変換処理(ステップS66)が施されて輝度信号Y1及び色差信号Cr1、Cb1が生成され、輝度色差保持メモリ108に一時記憶される(ステップS68)。   Next, the flow of imaging processing according to the present embodiment will be described with reference to the flowchart of FIG. First, after the release button is pressed halfway (S1 on) and AE / AF processing is performed, and then the release button is fully pressed (S2 on), the focus lens control device 27A moves the focus lens 27 to the in-focus position. Arranged (step S60), the first shooting is performed in the focused state (step S62). Then, RGB interpolation processing (step S64) and luminance / chrominance conversion processing (step S66) are performed on the R, G, and B signals acquired by the first shooting to generate the luminance signal Y1 and the color difference signals Cr1 and Cb1. And is temporarily stored in the luminance / color difference holding memory 108 (step S68).

次に、フォーカスレンズ27が合焦位置からずらされて(ステップS70)、非合焦状態で2回目の撮影が行われる(ステップS72)。そして、2回目の撮影により取得されたR、G、B信号に対してRGB補間処理(ステップS74)及び輝度色差変換処理(ステップS76)が施されて色差信号Cr2、Cb2が生成され、輝度色差合成装置106に入力される。   Next, the focus lens 27 is shifted from the in-focus position (step S70), and the second shooting is performed in the out-of-focus state (step S72). Then, RGB interpolation processing (step S74) and luminance / color difference conversion processing (step S76) are performed on the R, G, and B signals acquired by the second shooting to generate the color difference signals Cr2 and Cb2, and the luminance / color difference The data is input to the synthesizer 106.

次に、撮影モードが静止物撮影モードの場合に(ステップS78のNO)、1回目の撮影により取得された輝度信号Y1と、2回目の撮影により取得された色差信号Cr2、Cb2とが合成される(ステップS80)。一方、撮影モードが動作物撮影モードの場合に(ステップS78のYES)、1回目の撮影により取得された輝度信号Y1及び色差信号Cr1、Cb1が輝度色差保持メモリ108から読み出されて出力される(ステップS82)。   Next, when the shooting mode is the stationary object shooting mode (NO in step S78), the luminance signal Y1 acquired by the first shooting and the color difference signals Cr2 and Cb2 acquired by the second shooting are combined. (Step S80). On the other hand, when the shooting mode is the action object shooting mode (YES in step S78), the luminance signal Y1 and the color difference signals Cr1 and Cb1 acquired by the first shooting are read out from the luminance color difference holding memory 108 and output. (Step S82).

次に、ステップS80又はS82において出力されたY/C信号は、圧縮・伸張処理部46に出力されて、所定のフォーマットの画像ファイルとして記録メディア22に記録される(ステップS84)。   Next, the Y / C signal output in step S80 or S82 is output to the compression / expansion processing unit 46 and recorded on the recording medium 22 as an image file of a predetermined format (step S84).

本実施形態によれば、撮影モードが静止物撮影モードの場合に、合焦状態において取得された輝度信号Y1と非合焦状態において取得された色差信号Cr2、Cb2とを合成して色モアレ及び偽色を低減するようにしたので、被写体の動きにより被写体の位置がずれて写ってしまい、合成画像の画質が劣化するのを回避することができる。   According to the present embodiment, when the shooting mode is the stationary object shooting mode, the luminance signal Y1 acquired in the in-focus state and the color difference signals Cr2 and Cb2 acquired in the out-of-focus state are combined to generate color moire and Since false colors are reduced, it can be avoided that the subject is shifted due to the movement of the subject and the image quality of the composite image is deteriorated.

なお、撮影モードが静止物撮影モードの場合に、合焦状態の撮影のみを行うようにする態様も可能である。   It should be noted that when the shooting mode is the stationary object shooting mode, it is possible to perform only the shooting in the focused state.

また、上記第2、第3の実施形態では、合焦状態において取得された輝度信号Y1と非合焦状態において取得された色差信号Cr2、Cb2とを合成して色モアレ及び偽色を低減するようにしたが、上記第1の実施形態と同様に、像ブレ無しの状態で取得された輝度信号と像ブレを生じさせた状態で取得された色差信号を合成するようにしてもよい。   In the second and third embodiments, the luminance signal Y1 acquired in the focused state and the color difference signals Cr2 and Cb2 acquired in the out-of-focus state are combined to reduce color moire and false color. However, as in the first embodiment, the luminance signal acquired without image blur and the color difference signal acquired with image blur may be combined.

また、上記の各実施形態では、例えば、1回目と2回目の撮影により取得された画像信号(色差信号)を比較して、色モアレ又は偽色が発生している領域を抽出し、当該領域の画像信号を生成する際に、1回目の撮影により取得された輝度信号と2回目の撮影により取得された色差信号とを用い、その他の領域の画像信号を生成する際には、1回目の撮影により取得された輝度信号及び色差信号を用いるようにしてもよい。   In each of the above embodiments, for example, the image signal (color difference signal) acquired by the first and second imaging is compared to extract a region where color moire or false color occurs, and the region When the image signal of the other region is generated using the luminance signal acquired by the first shooting and the color difference signal acquired by the second shooting, You may make it use the luminance signal and color difference signal which were acquired by imaging | photography.

本発明の第1の実施形態に係る撮影動作を説明するためのブロック図FIG. 3 is a block diagram for explaining a photographing operation according to the first embodiment of the present invention. 本発明の第1の実施形態に係る撮影装置の主要構成を示すブロック図1 is a block diagram showing the main configuration of a photographing apparatus according to a first embodiment of the present invention. 本発明の第1の実施形態に係る撮影処理の流れを示すフローチャート6 is a flowchart showing a flow of imaging processing according to the first embodiment of the present invention. 本発明の第2の実施形態に係る撮影動作を説明するためのブロック図Block diagram for explaining a photographing operation according to the second embodiment of the present invention 本発明の第2の実施形態に係る撮影処理の流れを示すフローチャート7 is a flowchart showing a flow of imaging processing according to the second embodiment of the present invention. 1回目と2回目の撮影により取得された画像とその合成画像の例を示す図The figure which shows the example of the image acquired by the 1st time and 2nd imaging | photography, and its synthesized image 本発明の第3の実施形態に係る撮影動作を説明するためのブロック図Block diagram for explaining a photographing operation according to the third embodiment of the present invention 本発明の第3の実施形態に係る撮影処理の流れを示すフローチャートA flowchart showing a flow of photographing processing according to the third embodiment of the present invention.

符号の説明Explanation of symbols

10…撮影装置(カメラ)、12…CPU、14…バス、16…操作部、18…ROM、20…RAM、22…記録メディア、24…メディアコントローラ、26…通信インターフェース部(通信I/F)、28…レンズユニット、28A…レンズ駆動部、30…光学ブレ補正装置、30A…光学ブレ補正制御装置、32…撮像素子(CCD)、32A…撮影制御部、34…アナログ処理部(CDS/AMP)、36…A/D変換器、38…画像入力制御部、40…画像信号処理部、42…画像表示部、44…表示制御部、46…圧縮・伸張処理部、100…RGB補間処理装置、102…輝度色差変換装置、104…輝度保持メモリ、106…輝度色差合成装置、108…輝度色差保持メモリ、110…動き検出装置、112…輝度色差合成装置   DESCRIPTION OF SYMBOLS 10 ... Imaging device (camera), 12 ... CPU, 14 ... Bus, 16 ... Operation part, 18 ... ROM, 20 ... RAM, 22 ... Recording medium, 24 ... Media controller, 26 ... Communication interface part (communication I / F) 28 ... Lens unit, 28A ... Lens drive unit, 30 ... Optical blur correction device, 30A ... Optical blur correction control device, 32 ... Imaging device (CCD), 32A ... Shooting control unit, 34 ... Analog processing unit (CDS / AMP) , 36... A / D converter, 38... Image input control unit, 40... Image signal processing unit, 42... Image display unit, 44. , 102: Luminance color difference conversion device, 104: Luminance holding memory, 106 ... Luminance color difference synthesizing device, 108 ... Luminance color difference holding memory, 110 ... Motion detection device, 112 ... Luminance color difference Equipment

Claims (6)

被写体からの光を受光して画像を撮像し、画像信号を取得する撮像素子と、
前記撮像素子により撮像される画像に光学ブレを生じさせる光学ブレ発生手段と、
光学ブレ無しの第1の状態と、光学ブレを生じさせた第2の状態で画像を撮影する撮影制御手段と、
光学ブレ無しの第1の状態で取得された輝度信号と、光学ブレを生じさせた第2の状態で取得された色差信号とを合成して画像を生成する画像生成手段と、
を備えることを特徴とする撮影装置。
An image sensor that receives light from a subject to capture an image and obtain an image signal;
Optical blur generating means for causing optical blur in an image captured by the image sensor;
Photographing control means for photographing an image in a first state without optical blur and in a second state in which optical blur is caused;
Image generation means for generating an image by combining the luminance signal acquired in the first state without optical blur and the color difference signal acquired in the second state causing optical blur;
An imaging apparatus comprising:
被写体からの光を受光して画像を撮像し、画像信号を取得する撮像素子と、
前記被写体に合焦し、且つ、光学ブレ無しの第1の状態と、前記被写体に非合焦であるか又は光学ブレを生じさせた第2の状態で画像を撮影する撮影制御手段と、
前記第1、第2の状態において撮影された画像中における前記被写体の動き量を取得する動き量取得手段と、
前記動き量が閾値以下の場合に、前記第1の状態で取得された輝度信号と、前記第2の状態で取得された色差信号を合成して画像を生成する一方、前記動き量が閾値より大きい場合に、前記第1の状態で取得された輝度信号及び色差信号を用いて画像を生成する画像生成手段と、
を備えることを特徴とする撮影装置。
An image sensor that receives light from a subject to capture an image and obtain an image signal;
Shooting control means for shooting an image in a first state in which the subject is in focus and no optical blur and in a second state in which the subject is out of focus or caused optical blur;
A movement amount acquisition means for acquiring a movement amount of the subject in the images photographed in the first and second states;
When the amount of motion is less than or equal to a threshold value, the luminance signal acquired in the first state and the color difference signal acquired in the second state are combined to generate an image, while the amount of motion is less than the threshold value. An image generating means for generating an image using the luminance signal and the color difference signal acquired in the first state when they are large;
An imaging apparatus comprising:
被写体からの光を受光して画像を撮像し、画像信号を取得する撮像素子と、
動きの少ない被写体を撮影するための静止物撮影モードと、動きのある被写体を撮影するための動作物撮影モードとの間で撮影モードを切り替える撮影モード切り替え手段と、
前記被写体に合焦し、且つ、光学ブレ無しの第1の状態と、前記被写体に非合焦であるか又は光学ブレを生じさせた第2の状態で画像を撮影する撮影制御手段と、
前記撮影モードが静止物撮影モードの場合に、前記第1の状態で取得された輝度信号と、前記第2の状態で取得された色差信号を合成して画像を生成する一方、前記撮影モード動作物撮影モードの場合に、前記第1の状態で取得された輝度信号及び色差信号を用いて画像を生成する画像生成手段と、
を備えることを特徴とする撮影装置。
An image sensor that receives light from a subject to capture an image and obtain an image signal;
A shooting mode switching means for switching a shooting mode between a stationary object shooting mode for shooting a subject with little movement and a moving object shooting mode for shooting a moving subject;
Shooting control means for shooting an image in a first state in which the subject is in focus and no optical blur and in a second state in which the subject is out of focus or caused optical blur;
When the shooting mode is the stationary object shooting mode, the luminance signal acquired in the first state and the color difference signal acquired in the second state are combined to generate an image, while the shooting mode operation Image generation means for generating an image using the luminance signal and color difference signal acquired in the first state in the case of the object photographing mode;
An imaging apparatus comprising:
撮像素子を用いて、被写体からの光を受光して画像を撮像し、画像信号を取得する工程と、
前記撮像素子により撮像される画像に光学ブレを生じさせる光学ブレ発生工程と、
光学ブレ無しの第1の状態と、光学ブレを生じさせた第2の状態で画像を撮影する撮影制御工程と、
光学ブレ無しの第1の状態で取得された輝度信号と、光学ブレを生じさせた第2の状態で取得された色差信号とを合成して画像を生成する画像生成工程と、
を備えることを特徴とする画像処理方法。
Using an imaging device to receive light from a subject to capture an image and obtain an image signal;
An optical blur generation step for causing optical blur in an image captured by the imaging device;
A shooting control step of shooting an image in a first state without optical blur and a second state in which optical blur has occurred;
An image generation step of generating an image by combining the luminance signal acquired in the first state without optical blur and the color difference signal acquired in the second state causing optical blur;
An image processing method comprising:
撮像素子を用いて、被写体からの光を受光して画像を撮像し、画像信号を取得する工程と、
前記被写体に合焦し、且つ、光学ブレ無しの第1の状態と、前記被写体に非合焦であるか又は光学ブレを生じさせた第2の状態で画像を撮影する撮影制御工程と、
前記第1、第2の状態において撮影された画像中における前記被写体の動き量を取得する動き量取得工程と、
前記動き量が閾値以下の場合に、前記第1の状態で取得された輝度信号と、前記第2の状態で取得された色差信号を合成して画像を生成する一方、前記動き量が閾値より大きい場合に、前記第1の状態で取得された輝度信号及び色差信号を用いて画像を生成する画像生成工程と、
を備えることを特徴とする画像処理方法。
Using an imaging device to receive light from a subject to capture an image and obtain an image signal;
A shooting control step of shooting an image in a first state in which the subject is in focus and no optical blur and in a second state in which the subject is out of focus or optical blur is caused;
A movement amount acquisition step of acquiring a movement amount of the subject in the images taken in the first and second states;
When the amount of motion is less than or equal to a threshold value, the luminance signal acquired in the first state and the color difference signal acquired in the second state are combined to generate an image, while the amount of motion is less than the threshold value. An image generating step for generating an image using the luminance signal and the color difference signal acquired in the first state when the image is large;
An image processing method comprising:
撮像素子を用いて、被写体からの光を受光して画像を撮像し、画像信号を取得する工程と、
動きの少ない被写体を撮影するための静止物撮影モードと、動きのある被写体を撮影するための動作物撮影モードとの間で撮影モードを切り替える撮影モード切り替え工程と、
前記被写体に合焦し、且つ、光学ブレ無しの第1の状態と、前記被写体に非合焦であるか又は光学ブレを生じさせた第2の状態で画像を撮影する撮影制御工程と、
前記撮影モードが静止物撮影モードの場合に、前記第1の状態で取得された輝度信号と、前記第2の状態で取得された色差信号を合成して画像を生成する一方、前記撮影モード動作物撮影モードの場合に、前記第1の状態で取得された輝度信号及び色差信号を用いて画像を生成する画像生成工程と、
を備えることを特徴とする画像処理方法。
Using an imaging device to receive light from a subject to capture an image and obtain an image signal;
A shooting mode switching step for switching a shooting mode between a stationary object shooting mode for shooting a subject with little movement and an action object shooting mode for shooting a moving subject;
A shooting control step of shooting an image in a first state in which the subject is in focus and no optical blur and in a second state in which the subject is out of focus or optical blur is caused;
When the shooting mode is the stationary object shooting mode, the luminance signal acquired in the first state and the color difference signal acquired in the second state are combined to generate an image, while the shooting mode operation An image generation step of generating an image using the luminance signal and the color difference signal acquired in the first state in the case of the object photographing mode;
An image processing method comprising:
JP2007014266A 2007-01-24 2007-01-24 Photographing device, and image processing method Pending JP2008182486A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007014266A JP2008182486A (en) 2007-01-24 2007-01-24 Photographing device, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007014266A JP2008182486A (en) 2007-01-24 2007-01-24 Photographing device, and image processing method

Publications (1)

Publication Number Publication Date
JP2008182486A true JP2008182486A (en) 2008-08-07

Family

ID=39726049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007014266A Pending JP2008182486A (en) 2007-01-24 2007-01-24 Photographing device, and image processing method

Country Status (1)

Country Link
JP (1) JP2008182486A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016052250A1 (en) * 2014-10-03 2016-04-07 ソニー株式会社 Signal processing device, signal processing method, imaging device, electronic device, and program
JP2016076740A (en) * 2014-10-02 2016-05-12 ソニー株式会社 Information processor and information processing method
JP2016144103A (en) * 2015-02-04 2016-08-08 リコーイメージング株式会社 Image detection range setting device, image detection range setting method, image detection range setting program and image detection apparatus
CN113405775A (en) * 2020-03-16 2021-09-17 瑞鼎科技股份有限公司 Optical machine platform inspection method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016076740A (en) * 2014-10-02 2016-05-12 ソニー株式会社 Information processor and information processing method
WO2016052250A1 (en) * 2014-10-03 2016-04-07 ソニー株式会社 Signal processing device, signal processing method, imaging device, electronic device, and program
JP2016144103A (en) * 2015-02-04 2016-08-08 リコーイメージング株式会社 Image detection range setting device, image detection range setting method, image detection range setting program and image detection apparatus
CN113405775A (en) * 2020-03-16 2021-09-17 瑞鼎科技股份有限公司 Optical machine platform inspection method

Similar Documents

Publication Publication Date Title
JP4406937B2 (en) Imaging device
JP4932660B2 (en) Image recording apparatus and image recording method
JP5652649B2 (en) Image processing apparatus, image processing method, and image processing program
JP4697606B2 (en) Imaging apparatus and focus control method
JP3530907B2 (en) Digital camera
JP4473363B2 (en) Camera shake correction apparatus and correction method thereof
JP4730553B2 (en) Imaging apparatus and exposure control method
KR20080016657A (en) Image capturing apparatus and electronic zoom method
US20060197854A1 (en) Image capturing apparatus and computer software product
JP4742813B2 (en) Image processing apparatus and image processing method
JP2006261929A (en) Image pickup device
JP2009071592A (en) Imaging apparatus and imaging control method
JP4033456B2 (en) Digital camera
JP3444281B2 (en) IMAGE PROCESSING SYSTEM, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND RECORDING MEDIUM CONTAINING PROCESSING PROGRAM OF THE METHOD
JP2004023747A (en) Electronic camera
JP2008182486A (en) Photographing device, and image processing method
JP4003172B2 (en) Image signal processing apparatus and electronic camera
JP4013026B2 (en) Electronic camera and image display method during automatic focus adjustment
JP3826885B2 (en) Electronic camera
JP2010147812A (en) Compound-eye camera, and image processing method
JP3727841B2 (en) Digital still camera
JP2007110221A (en) Imaging apparatus
JP5054209B2 (en) Imaging apparatus and focus control method
JP5370662B2 (en) Imaging device
JP5354035B2 (en) An imaging device with a zoom mechanism.