JP2007274220A - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP2007274220A
JP2007274220A JP2006095895A JP2006095895A JP2007274220A JP 2007274220 A JP2007274220 A JP 2007274220A JP 2006095895 A JP2006095895 A JP 2006095895A JP 2006095895 A JP2006095895 A JP 2006095895A JP 2007274220 A JP2007274220 A JP 2007274220A
Authority
JP
Japan
Prior art keywords
image
images
subject
exposure time
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006095895A
Other languages
Japanese (ja)
Inventor
Toshihiro Hamamura
俊宏 濱村
Toshiyuki Tanaka
俊幸 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hanwha Vision Co Ltd
Original Assignee
Samsung Techwin Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Techwin Co Ltd filed Critical Samsung Techwin Co Ltd
Priority to JP2006095895A priority Critical patent/JP2007274220A/en
Priority to KR1020060070452A priority patent/KR100819808B1/en
Publication of JP2007274220A publication Critical patent/JP2007274220A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/684Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time
    • H04N23/6845Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time by combination of a plurality of images sequentially taken
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Adjustment Of Camera Lenses (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus and an imaging method capable of photographing an image without a camera shake and an object image deletion. <P>SOLUTION: The imaging apparatus 100 for imaging a plurality of images by applying time division to an exposure time in one photographing operation is characterized in including: a comparison region setting section 158 that establishes a comparison region to image data in one exposure time; a memory 134 being an image storage section for storing one image in the comparison region; a deviation detection section 160 that detects other image equivalent to the one image from the image data in other exposure time so as to detect a relative positional deviation between the one image and the other image; and an image synthesizing section 118 that cancels the relative positional deviation to synthesize the images so that the one image may be coincident with the another image. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は,撮像装置および撮像方法に関する。   The present invention relates to an imaging apparatus and an imaging method.

時間的に連続して撮影した複数の画像を,手ぶれ等による画像のずれを打ち消すように合成することで,電子的に手ぶれを補正する撮像装置がある。   There is an imaging apparatus that electronically corrects camera shake by synthesizing a plurality of images taken continuously in time so as to cancel image shift caused by camera shake or the like.

手ぶれを補正するためには,合成する各画像において比較する領域を設定し,その領域のずれの量を検出する必要がある。ここで,主要な被写体が動いている場合,例えば走行中の自動車や電車等を撮影する場合を考えると,主要被写体と背景とで,それぞれずれの量が異なる。ここで,主要被写体ではなく背景を比較対象にして画像の合成を行ってしまうと,背景はぶれていないが主要被写体がぶれて撮影されてしまう。   In order to correct camera shake, it is necessary to set an area to be compared in each image to be synthesized and detect the amount of deviation of the area. Here, when the main subject is moving, for example, when taking a picture of a moving car or train, the amount of shift differs between the main subject and the background. Here, if the image is synthesized with the background as a comparison target instead of the main subject, the background is not blurred but the main subject is blurred.

この問題を解決する方法として,例えば特許文献1がある。特許文献1には,撮影する際にカメラを固定して撮影することで,移動する被写体を検出して,その被写体を比較対象とする技術が記されている。   As a method for solving this problem, for example, there is Patent Document 1. Patent Document 1 describes a technique in which a moving subject is detected by fixing a camera at the time of shooting, and the subject is compared.

特開2004−158905号公報JP 2004-158905 A

しかし,特許文献1に記載の方法では,撮影者が移動する被写体に合わせてカメラをパンニングさせると,背景を移動する被写体と認識してしまい,背景はぶれていないが,被写体がぶれて撮影されてしまう問題があった。   However, in the method described in Patent Document 1, when the camera pans the camera in accordance with the moving subject, the background is recognized as a moving subject and the background is not blurred, but the subject is blurred. There was a problem.

そこで,本発明は,このような問題に鑑みてなされたもので,その目的とするところは,主要な被写体の移動の有無や,撮影者のパンニングの有無に関わらず,確実に主要な被写体を検出して,その被写体のぶれの量や移動量を打ち消すように画像を合成することで手ぶれの無い画像や被写体が流れない画像を撮影することができる,新規かつ改良された,撮像装置および撮像方法を提供することにある。   Therefore, the present invention has been made in view of such a problem, and the object of the present invention is to ensure that the main subject is reliably detected regardless of whether the main subject has moved or whether the photographer has panned. A new and improved imaging device and imaging that can detect an image without camera shake or an image with no subject flowing by detecting and synthesizing images so as to cancel out the amount of movement and movement of the subject It is to provide a method.

上記課題を解決するために,本発明のある観点によれば,1回の撮影動作で露光時間を時分割して複数の画像を撮像する撮像装置であって:一の露光時間における画像データの中から比較領域を設定する比較領域設定部と;比較領域における一の画像を記憶する画像記憶部と;他の露光時間における画像データの中から一の画像に相当する他の画像を検出し,一の画像と他の画像との相対的な位置ずれを検出するずれ検出部と;相対的な位置ずれを打ち消して,一の画像と他の画像とが一致するように画像を合成する画像合成部と;を含むことを特徴とする,撮像装置が提供される。   In order to solve the above-described problem, according to an aspect of the present invention, there is provided an imaging apparatus that captures a plurality of images by time-sharing an exposure time in one shooting operation: A comparison area setting section for setting a comparison area from among; an image storage section for storing one image in the comparison area; and detecting another image corresponding to the one image from image data at another exposure time; A displacement detection unit that detects a relative displacement between one image and another image; an image composition that cancels the relative displacement and synthesizes the images so that the one image matches another image And an imaging device.

かかる構成によれば,比較領域設定部は一の露光時間における画像データの中から比較領域を設定し,画像記憶部は比較領域における一の画像を記憶し,ずれ検出部は一の画像と他の画像との比較領域における相対的な位置ずれを検出し,画像合成部は一の画像と他の画像とが一致するように画像を合成する。その結果,被写体のぶれや移動量を打ち消すように画像を合成することで手ぶれの無い画像や被写体が流れない画像を撮影することができる。   According to such a configuration, the comparison area setting unit sets a comparison area from image data at one exposure time, the image storage unit stores one image in the comparison area, and the deviation detection unit stores one image and the other. The relative position shift in the comparison area with the image of the image is detected, and the image composition unit synthesizes the image so that the one image matches the other image. As a result, it is possible to shoot an image free from camera shake or an image in which the subject does not flow by synthesizing the images so as to cancel out the shake and movement amount of the subject.

比較領域は,焦点検出領域であってもよい。かかる構成によれば,焦点検出領域で合焦した被写体を比較領域として,その被写体が一致するように画像合成部で画像を合成する。その結果,焦点検出領域で合焦した被写体のぶれや移動量を打ち消すように画像を合成することで,手ぶれの無い画像や合焦した被写体が流れない画像を撮影することができる。   The comparison area may be a focus detection area. According to such a configuration, the image is synthesized by the image composition unit so that the subject in focus in the focus detection region is used as the comparison region and the subject is matched. As a result, by compositing images so as to cancel out the blurring and movement amount of the focused subject in the focus detection area, it is possible to capture an image with no camera shake or an image where the focused subject does not flow.

上記課題を解決するために,本発明の別の観点によれば,1回の撮影動作で露光時間を時分割して複数の画像を撮像する撮像方法であって:一の露光時間における画像データの中から比較領域を設定する比較領域設定ステップと;比較領域における一の画像を記憶する合焦画像記憶ステップと;他の露光時間における画像データの中から一の画像に相当する他の画像を検出し,一の画像と他の画像との相対的な位置ずれを検出するずれ検出ステップと;相対的な位置ずれを打ち消して,一の画像と他の画像とが一致するように画像を合成する画像合成ステップと;を含むことを特徴とする,撮像方法が提供される。   In order to solve the above-mentioned problem, according to another aspect of the present invention, there is provided an imaging method for imaging a plurality of images by time-sharing an exposure time in one imaging operation: image data at one exposure time A comparison region setting step for setting a comparison region from among the above; a focused image storage step for storing one image in the comparison region; and another image corresponding to one image among image data at other exposure times A displacement detection step for detecting and detecting a relative misalignment between one image and another image; canceling the relative misalignment and synthesizing the image so that the one image matches the other image And an image synthesizing step. An imaging method is provided.

かかる構成によれば,比較領域設定ステップは一の露光時間における画像データの中から比較領域を設定し,画像記憶ステップは比較領域における一の画像を記憶し,ずれ検出ステップは一の画像と他の画像との比較領域における相対的な位置ずれを検出し,画像合成ステップは一の画像と他の画像とが一致するように画像を合成する。その結果,被写体のぶれや移動量を打ち消すように画像を合成することで手ぶれの無い画像や被写体が流れない画像を撮影することができる。   According to such a configuration, the comparison area setting step sets a comparison area from the image data at one exposure time, the image storage step stores one image in the comparison area, and the shift detection step detects one image and the other. A relative positional shift in the comparison area with the image is detected, and the image synthesis step synthesizes the image so that one image matches the other image. As a result, it is possible to shoot an image free from camera shake or an image in which the subject does not flow by synthesizing the images so as to cancel out the shake and movement amount of the subject.

以上説明したように本発明によれば,主要な被写体の移動の有無や,撮影者のパンニングの有無に関わらず,確実に主要な被写体を検出して,そのぶれを打ち消すように画像を合成することで手ぶれの無い画像や被写体が流れない画像を撮影することができる,撮像装置および撮像方法を提供できるものである。   As described above, according to the present invention, the main subject is reliably detected regardless of whether the main subject has moved or whether the photographer has panned, and the image is synthesized so as to cancel the blur. Thus, it is possible to provide an imaging apparatus and an imaging method capable of capturing an image free from camera shake and an image in which a subject does not flow.

以下に添付図面を参照しながら,本発明の好適な実施の形態について詳細に説明する。なお,本明細書及び図面において,実質的に同一の機能構成を有する構成要素については,同一の符号を付することにより重複説明を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.

図1は本発明の一実施形態にかかる撮像装置について説明する説明図である。図1に示したように,本発明の一実施形態に係る撮像装置100は,ズームレンズ102と,絞り104と,フォーカスレンズ106と,駆動装置102a,104a,106aと,CCD(Charge Coupled Devices)素子108と,アンプ一体型のCDS(Correlated Double Sampling)回路110と,A/D変換器112と,画像入力コントローラ114と,画像信号処理部116と,圧縮処理部120と,LCD(Liquid Crystal Display)ドライバ123と,LCD124と,タイミングジェネレータ126と,CPU(Central Processing Unit)128と,操作部132と,シャッタボタン133と,メモリ134と,VRAM(Video Random Access Memory)136と,メディアコントローラ138と,記録メディア140と,モータドライバ142a,142b,142cとを含む。   FIG. 1 is an explanatory diagram for explaining an imaging apparatus according to an embodiment of the present invention. As shown in FIG. 1, an imaging apparatus 100 according to an embodiment of the present invention includes a zoom lens 102, a diaphragm 104, a focus lens 106, driving devices 102a, 104a, and 106a, and a CCD (Charge Coupled Devices). The element 108, an amplifier-integrated CDS (Correlated Double Sampling) circuit 110, an A / D converter 112, an image input controller 114, an image signal processing unit 116, a compression processing unit 120, an LCD (Liquid Crystal Display). ) Driver 123, LCD 124, timing generator 126, CPU (Central Processing Unit) 128, operation unit 132, shutter button 133, memory 134, VRAM (V an image random access memory) 136, a media controller 138, a recording medium 140, and motor drivers 142a, 142b, 142c.

以下,図1を用いて,本発明の一実施形態に係る撮像装置100の構成について説明する。   Hereinafter, the configuration of the imaging apparatus 100 according to an embodiment of the present invention will be described with reference to FIG.

ズームレンズ102は,駆動装置102aによって光軸方向に前後して移動させることで焦点距離が連続的に変化するレンズであり,被写体の大きさを変化して撮影する。絞り104は,画像を撮影する際に,駆動装置104aによって,CCD素子108に入ってくる光量の調節を行う。フォーカスレンズ106は,駆動装置106aによって光軸方向に前後して移動させることで被写体のピントを調節するものである。   The zoom lens 102 is a lens in which the focal length is continuously changed by being moved back and forth in the optical axis direction by the driving device 102a. The zoom lens 102 changes the size of the subject and shoots. The diaphragm 104 adjusts the amount of light entering the CCD element 108 by the driving device 104a when taking an image. The focus lens 106 adjusts the focus of the subject by being moved back and forth in the optical axis direction by the driving device 106a.

本実施形態においては,ズームレンズ102およびフォーカスレンズ106は1枚のみ示しているが,ズームレンズ102の枚数は2枚以上であってもよく,フォーカスレンズ106の枚数も2枚以上であってもよい。   In the present embodiment, only one zoom lens 102 and focus lens 106 are shown, but the number of zoom lenses 102 may be two or more, and the number of focus lenses 106 may be two or more. Good.

CCD素子108は,ズームレンズ102,絞り104およびフォーカスレンズ106から入射された光を電気信号に変換するための素子である。本実施形態においては電子シャッタによって入射光を制御して,電気信号を取り出す時間を調節しているが,メカシャッタを用いて入射光を制御して,電気信号を取り出す時間を調節してもよい。   The CCD element 108 is an element for converting light incident from the zoom lens 102, the diaphragm 104, and the focus lens 106 into an electric signal. In this embodiment, the incident light is controlled by the electronic shutter to adjust the time for extracting the electric signal. However, the incident light may be controlled by using the mechanical shutter to adjust the time for extracting the electric signal.

本実施形態ではCCD素子108を用いているが,本発明は係る例に限定されず,CCD素子108の代わりにCMOS(Complementary Metal Oxide Semiconductor)素子を用いてもよく,またその他のイメージセンサを用いてもよい。CMOS素子は,CCD素子よりも高速に被写体の映像光を電気信号に変換できるので,被写体を撮影してから画像の合成処理を行うまでの時間を短縮することができる。   Although the CCD element 108 is used in the present embodiment, the present invention is not limited to such an example, and a CMOS (Complementary Metal Oxide Semiconductor) element may be used instead of the CCD element 108, or other image sensors may be used. May be. Since the CMOS element can convert the image light of the subject into an electrical signal at a higher speed than the CCD element, it is possible to shorten the time from when the subject is photographed to when the image is combined.

CDS回路110は,CCD素子108から出力された電気信号の雑音を除去する,サンプリング回路の一種であるCDS回路と,雑音を除去した後に電気信号を増幅するアンプとが一体となった回路である。本実施形態ではCDS回路とアンプとが一体となった回路を用いて撮像装置100を構成しているが,CDS回路とアンプとを別々の回路で構成してもよい。   The CDS circuit 110 is a circuit in which a CDS circuit that is a kind of sampling circuit that removes noise from the electrical signal output from the CCD element 108 and an amplifier that amplifies the electrical signal after removing the noise are integrated. . In the present embodiment, the imaging apparatus 100 is configured using a circuit in which a CDS circuit and an amplifier are integrated. However, the CDS circuit and the amplifier may be configured as separate circuits.

A/D変換器112は,CCD素子108で生成された電気信号をデジタル信号に変換して,画像の生データ(画像データ)を生成するものである。   The A / D converter 112 converts the electrical signal generated by the CCD element 108 into a digital signal, and generates raw image data (image data).

画像入力コントローラ114は,A/D変換器112で生成された画像の生データ(画像データ)のメモリ134への入力を制御するものである。   The image input controller 114 controls input of raw image data (image data) generated by the A / D converter 112 to the memory 134.

画像信号処理部116は,CCD素子108から出力された電気信号や,画像合成部118で合成した画像に対して,光量のゲイン補正やホワイトバランスの調整を行うものである。   The image signal processing unit 116 performs light amount gain correction and white balance adjustment on the electrical signal output from the CCD element 108 and the image synthesized by the image synthesis unit 118.

画像合成部118は,撮影した複数の画像の合成を行うものである。画像合成部の形態として,画像の合成を行う回路であってもよく,画像の合成を行うためのコンピュータプログラムであってもよい。   The image composition unit 118 performs composition of a plurality of captured images. The form of the image composition unit may be a circuit for performing image composition, or a computer program for performing image composition.

圧縮処理部120は,画像合成部118で合成した画像を,適切な形式の画像データに圧縮する圧縮処理を行う。画像の圧縮形式は可逆形式であっても非可逆形式であってもよい。適切な形式の例として,JPEG(Joint Photographic Experts Group)形式やJPEG2000形式に変換してもよい。   The compression processing unit 120 performs compression processing for compressing the image combined by the image combining unit 118 into image data of an appropriate format. The image compression format may be a reversible format or an irreversible format. As an example of an appropriate format, it may be converted into a JPEG (Joint Photographic Experts Group) format or JPEG2000 format.

LCD124は,撮影操作を行う前のライブビュー表示や,撮像装置100の各種設定画面や,撮影した画像の表示等を行う。画像データや撮像装置100の各種情報のLCD124への表示は,LCDドライバ122を介して行われる。   The LCD 124 performs live view display before performing a shooting operation, various setting screens of the imaging apparatus 100, display of captured images, and the like. Display of image data and various types of information of the imaging apparatus 100 on the LCD 124 is performed via the LCD driver 122.

タイミングジェネレータ126は,CCD素子108にタイミング信号を入力する。タイミングジェネレータ126からのタイミング信号によりシャッタ速度が決定される。つまり,タイミングジェネレータ126からのタイミング信号によりCCD素子108の駆動が制御され,CCD素子108が駆動する時間内に被写体からの映像光を入射することで,画像データの基となる電気信号が生成される。   The timing generator 126 inputs a timing signal to the CCD element 108. The shutter speed is determined by the timing signal from the timing generator 126. In other words, the drive of the CCD element 108 is controlled by the timing signal from the timing generator 126, and the image signal from the subject is incident within the time that the CCD element 108 is driven, thereby generating an electrical signal that is the basis of the image data. The

CPU128は,CCD素子108やCDS回路110などに対して信号系の命令を行ったり,操作部132の操作に対する操作系の命令を行ったりする。本実施形態においては,CPUを1つだけ含んでいるが,信号系の命令と操作系の命令とを別々のCPUで行うようにしてもよい。   The CPU 128 issues a signal-related command to the CCD element 108, the CDS circuit 110, and the like, and issues an operation-related command for the operation of the operation unit 132. In the present embodiment, only one CPU is included, but the signal-related command and the operation-related command may be executed by different CPUs.

操作部132は,撮像装置100の操作を行ったり,撮影時の各種の設定を行ったりするための部材が配置されている。操作部132に配置される部材には,電源ボタン,撮影モードや撮影ドライブモードの選択および効果パラメータの設定を行う十字キーおよび選択ボタン等が配置される。シャッタボタン133は,撮影操作を行うためのものであり,半押し状態(以下,シャッタボタン133の半押し状態のことを「S1状態」とも称する)で被写体を合焦し,全押し状態(以下,シャッタボタン133の全押し状態の事を「S2状態」とも称する)で被写体の撮像を行う。   The operation unit 132 is provided with members for operating the imaging apparatus 100 and performing various settings during shooting. The members arranged in the operation unit 132 are arranged with a power button, a cross key for selecting a photographing mode and a photographing drive mode, and setting an effect parameter, a selection button, and the like. The shutter button 133 is for performing a photographing operation, and focuses the subject in a half-pressed state (hereinafter, the half-pressed state of the shutter button 133 is also referred to as “S1 state”), and is fully pressed (hereinafter referred to as “S1 state”). , The state where the shutter button 133 is fully pressed is also referred to as “S2 state”).

メモリ134は,本発明の画像記憶部の一例であり,撮影した画像や画像合成部118で合成した画像を一時的に記憶するものである。メモリ134は,複数の画像を記憶できるだけの記憶容量を有している。メモリ134への画像の読み書きは画像入力コントローラ114によって制御される。   The memory 134 is an example of the image storage unit of the present invention, and temporarily stores captured images and images synthesized by the image synthesis unit 118. The memory 134 has a storage capacity sufficient to store a plurality of images. Reading and writing of images to and from the memory 134 is controlled by the image input controller 114.

VRAM136は,LCD124に表示する内容を保持するものであり,LCD124の解像度や最大発色数はVRAM136の容量に依存する。   The VRAM 136 holds contents to be displayed on the LCD 124, and the resolution and maximum color number of the LCD 124 depend on the capacity of the VRAM 136.

記録メディア140は,画像記録部の一例であり,撮影した画像や画像合成部118で合成した画像を記録するものである。記録メディア140への入出力は,メディアコントローラ138によって制御される。記録メディア140には,フラッシュメモリにデータを記録するカード型の記憶装置であるメモリカードを用いることができる。   The recording medium 140 is an example of an image recording unit, and records captured images and images synthesized by the image synthesis unit 118. Input / output to / from the recording medium 140 is controlled by the media controller 138. As the recording medium 140, a memory card, which is a card-type storage device that records data in a flash memory, can be used.

モータドライバ142a,142b,142cはズームレンズ102,絞り104およびフォーカスレンズ106を動作させる駆動装置102a,104a,106aの制御を行う。モータドライバ142a,142b,142cを介してズームレンズ102,絞り104およびフォーカスレンズ106を動作させることで,被写体の大きさや光の量,ピントの調節を行う。   The motor drivers 142a, 142b, and 142c control the driving devices 102a, 104a, and 106a that operate the zoom lens 102, the diaphragm 104, and the focus lens 106. By operating the zoom lens 102, the diaphragm 104, and the focus lens 106 via the motor drivers 142a, 142b, and 142c, the size of the subject, the amount of light, and the focus are adjusted.

以上,図1を用いて本発明の一実施形態にかかる撮像装置について説明した。次に,図2を用いて本発明の一実施形態にかかる撮像装置のCPUの構成について説明する。   The imaging apparatus according to the embodiment of the present invention has been described above with reference to FIG. Next, the configuration of the CPU of the imaging apparatus according to the embodiment of the present invention will be described using FIG.

図2は,本発明の一実施形態にかかるCPU128の構成について説明する説明図である。図2に示したように,本発明の第1の実施形態にかかるCPU128は,適正AE算出部152と,露光制御部154と,合焦位置検出部156と,比較領域設定部158と,ずれ検出部160とを含む。   FIG. 2 is an explanatory diagram illustrating the configuration of the CPU 128 according to the embodiment of the present invention. As shown in FIG. 2, the CPU 128 according to the first embodiment of the present invention includes a proper AE calculation unit 152, an exposure control unit 154, a focus position detection unit 156, and a comparison area setting unit 158. And a detection unit 160.

適正AEレベル算出部152は,撮像装置100で自動露光を行い,EV(Exposure Value)値を取得する。取得したEV値に基づいて,適正な絞り値およびシャッタ速度の組が決まる。EV値は,絞り値がF1,シャッタ速度が1秒の時に適切な露出が得られる光量をEV=0とし,絞り値やシャッタ速度を変化させることでEV値が変化する。EV値は,Fを絞り値,Tをシャッタ速度として,EV=log(F/T)で求めることができる。従って,同じ絞り値ではシャッタ速度が高速になればなる程,EV値が上昇し,同じシャッタ速度では絞り値を大きくすればする程,EV値が上昇する。適正AEレベル算出部152では,撮影した画像のAF評価値およびAE(Auto Exposure;自動露光)評価値の算出を行う。 The appropriate AE level calculation unit 152 performs automatic exposure with the imaging apparatus 100 and acquires an EV (Exposure Value) value. Based on the acquired EV value, an appropriate aperture value and shutter speed set is determined. The EV value is changed by changing the aperture value and the shutter speed by setting EV = 0 as the amount of light with which an appropriate exposure can be obtained when the aperture value is F1 and the shutter speed is 1 second. The EV value can be obtained by EV = log 2 (F 2 / T) where F is the aperture value and T is the shutter speed. Therefore, the EV value increases as the shutter speed increases at the same aperture value, and the EV value increases as the aperture value increases at the same shutter speed. The appropriate AE level calculation unit 152 calculates an AF evaluation value and an AE (Auto Exposure) evaluation value of the captured image.

露光制御部154は,適正AEレベル算出部152で算出したシャッタ速度による露光時間に基づいて,被写体を撮影する際の露光時間を決定する。決定した露光時間に基づいて,被写体からの映像光のCCD素子108への入射時間を制御する。   The exposure control unit 154 determines the exposure time for photographing the subject based on the exposure time based on the shutter speed calculated by the appropriate AE level calculation unit 152. Based on the determined exposure time, the incident time of the image light from the subject to the CCD element 108 is controlled.

合焦位置検出部156は,露光制御部154での制御によってCCD素子108に被写体からの映像光が入射され,生成された画像データのAF評価値から,被写体の合焦位置を検出するものである。   The focus position detection unit 156 detects the focus position of the subject from the AF evaluation value of the generated image data when the image light from the subject is incident on the CCD element 108 under the control of the exposure control unit 154. is there.

比較領域設定部158は,1回の撮影操作で撮影した複数の画像を合成する際に,1枚目の画像の合焦領域に含まれる画像を比較領域データとして設定するものである。画像合成部118で画像を合成する際に,比較領域設定部158で設定した比較領域データが一致するように画像を合成する。   The comparison area setting unit 158 sets an image included in the in-focus area of the first image as comparison area data when combining a plurality of images shot by one shooting operation. When the images are combined by the image combining unit 118, the images are combined so that the comparison area data set by the comparison area setting unit 158 matches.

ずれ検出部160は,1枚目の画像における比較領域データと,2枚目以降の各画像における比較領域データとの間の相対的な位置のずれ量を検出するものである。画像合成部118で画像を合成する際には,ずれ検出部160で検出した相対的位置のずれ量を打ち消すように,各画像の合成を行う。   The deviation detection unit 160 detects a relative positional deviation amount between the comparison area data in the first image and the comparison area data in the second and subsequent images. When the images are synthesized by the image synthesis unit 118, the images are synthesized so as to cancel out the shift amount of the relative position detected by the shift detection unit 160.

以上,図2を用いて本発明の一実施形態にかかる撮像装置のCPUの構成について説明した。次に,本発明の一実施形態にかかる撮像方法について説明する。   The configuration of the CPU of the imaging apparatus according to the embodiment of the present invention has been described above with reference to FIG. Next, an imaging method according to an embodiment of the present invention will be described.

図3は,本発明の一実施形態にかかる撮像方法について説明する流れ図である。まず,被写体を撮影する前に被写体の合焦処理を行う。被写体の合焦処理を行うには,最初にシャッタボタン133をS1状態にして,S1状態によるS1動作を開始する(ステップS110)。シャッタボタン133のS1動作を開始すると,次にフォーカスレンズ106を被写体の近距離側から遠距離側に動作させながら被写体の露光処理を行うことで,画像信号処理部116でAF評価値を算出する(ステップS112)。そして,合焦位置検出部156でAF評価値のピークに対応する被写体の合焦位置を検出して(ステップS114),駆動装置106aが被写体に合焦する位置にフォーカスレンズ106を駆動させて,合焦処理を完了する(ステップS116)。   FIG. 3 is a flowchart illustrating an imaging method according to an embodiment of the present invention. First, the subject is focused before photographing the subject. In order to perform the subject focusing process, first, the shutter button 133 is set to the S1 state, and the S1 operation in the S1 state is started (step S110). When the S1 operation of the shutter button 133 is started, the image signal processing unit 116 calculates an AF evaluation value by performing exposure processing of the subject while operating the focus lens 106 from the short distance side to the long distance side of the subject. (Step S112). Then, the focus position detection unit 156 detects the focus position of the subject corresponding to the peak of the AF evaluation value (step S114), and drives the focus lens 106 to a position where the drive device 106a focuses on the subject. The focusing process is completed (step S116).

なお,撮影者が撮像装置100を撮影時にシャッタ速度(露光時間)や絞り値等の撮影条件を自動的に設定する自動露光モードに設定していた場合には,シャッタボタン133のS1動作で被写体の合焦処理を行う際に,適正AEレベル算出部152で適切なシャッタ速度や絞り値等の撮影条件を設定する。もちろん,自動露光を行わずに,シャッタ速度および/または絞り値を撮影者が操作部132を操作して手動(マニュアル)で設定してもよい。撮影者がシャッタ速度を手動で設定した場合には,適正AEレベル算出部152で適正な絞り値を算出することで自動的に設定し,絞り値を手動で設定した場合には,適正AEレベル算出部152で適正なシャッタ速度を算出することで自動的に設定する。   If the photographer has set the image capturing apparatus 100 to an automatic exposure mode in which shooting conditions such as a shutter speed (exposure time) and an aperture value are automatically set at the time of shooting, the subject is moved by the S1 operation of the shutter button 133. When the focusing process is performed, the appropriate AE level calculation unit 152 sets appropriate shooting conditions such as a shutter speed and an aperture value. Of course, the photographer may manually set the shutter speed and / or aperture value by operating the operation unit 132 without performing automatic exposure. When the photographer manually sets the shutter speed, the appropriate AE level calculation unit 152 automatically sets the appropriate aperture value, and when the aperture value is set manually, the appropriate AE level is set. The calculation unit 152 automatically sets the shutter speed by calculating an appropriate shutter speed.

本実施形態においては,図4に示したような,被写体として電車172と山174とが含まれる画像170を撮影する場合において,シャッタボタン133のS1動作を行った結果,絞り値をF4.0,感度(ゲイン)をISO100相当,シャッタ速度を1/60秒に設定したとする。絞り値,感度,シャッタ速度の組は一例であり,これに限られない。また,シャッタボタン133のS2動作の時に一度に5枚の画像を撮影する設定にしていた場合,1枚あたりの露光時間を1/60÷5=1/300秒に設定する。なお,シャッタボタン133のS2動作の際に一度に撮影する画像の枚数は,操作部132の操作によって設定してもよく,被写体の焦点距離から算出することができる手ぶれが発生しない限界のシャッタ速度である,手ぶれ限界シャッタ速度から決定してもよい。手ぶれ限界シャッタ速度は,フォーカスレンズ106の焦点距離をf(mm)とすると,およそ1/f(秒)で求めることができる。   In the present embodiment, as shown in FIG. 4, when an image 170 including a train 172 and a mountain 174 as a subject is photographed, as a result of performing the S1 operation of the shutter button 133, the aperture value is set to F4.0. Suppose the sensitivity (gain) is set to ISO 100 and the shutter speed is set to 1/60 seconds. The set of aperture value, sensitivity, and shutter speed is an example, and is not limited to this. Further, when the shutter button 133 is set to capture five images at a time during the S2 operation, the exposure time per sheet is set to 1/60 ÷ 5 = 1/300 seconds. It should be noted that the number of images to be taken at one time during the S2 operation of the shutter button 133 may be set by operating the operation unit 132, and the limit shutter speed at which camera shake that can be calculated from the focal length of the subject does not occur. It may be determined from the camera shake limit shutter speed. The camera shake limit shutter speed can be obtained in approximately 1 / f (seconds) when the focal length of the focus lens 106 is f (mm).

被写体の合焦位置を検出するには,画像170の中の,焦点検出領域176の画像データに対してAF評価値を算出することで行う。合焦位置の検出は,いわゆる山登り法によって行う。   The in-focus position of the subject is detected by calculating an AF evaluation value for the image data in the focus detection area 176 in the image 170. The focus position is detected by the so-called hill climbing method.

被写体の合焦位置にフォーカスレンズ106を駆動させると,シャッタボタン133のS1動作が終了し,シャッタボタン133が押されていない状態にあるかどうかをCPU128が判断する(ステップS118)。シャッタボタン133のS1動作が終了し,シャッタボタン133が押されていない状態にある場合は処理を終了する。一方,シャッタボタン133のS1動作が終了していない場合には,シャッタボタン133がS2状態にあり,S2動作を開始しているかどうかを判断する(ステップS120)。シャッタボタン133がS2状態になっていない場合にはステップS118に戻る。一方,シャッタボタン133が押し込まれてS2状態になっていた場合には,被写体の露光処理を開始して撮像動作を行う(ステップS122)。被写体の撮像動作は,自動露光によって設定された,またはマニュアルで設定したシャッタ速度や絞り値で行う。   When the focus lens 106 is driven to the in-focus position of the subject, the S1 operation of the shutter button 133 ends, and the CPU 128 determines whether or not the shutter button 133 is not pressed (step S118). If the S1 operation of the shutter button 133 is finished and the shutter button 133 is not pressed, the process is finished. On the other hand, if the S1 operation of the shutter button 133 has not ended, it is determined whether the shutter button 133 is in the S2 state and the S2 operation is started (step S120). If the shutter button 133 is not in the S2 state, the process returns to step S118. On the other hand, if the shutter button 133 has been depressed to enter the S2 state, the subject exposure process is started and an imaging operation is performed (step S122). The imaging operation of the subject is performed at the shutter speed or aperture value set by automatic exposure or set manually.

撮像動作が開始されると,CCD素子108に被写体からの映像光が設定された露光時間の間入射される。設定された露光時間が経過すると,CCD素子108への映像光の入射を止め,CCD素子108から画像データを読み出す(ステップS124)。読み出した画像データは,メモリ134に一時的に記憶する。   When the imaging operation is started, the image light from the subject enters the CCD element 108 for the set exposure time. When the set exposure time has elapsed, the image light is stopped from entering the CCD element 108 and image data is read from the CCD element 108 (step S124). The read image data is temporarily stored in the memory 134.

画像データの読み出しが完了すると,設定した枚数の画像の取り込みが終了したかどうかを判断する(ステップS126)。設定した枚数の画像の取り込みが終了していなければ,上記ステップS122に戻って,再度設定された露光時間による露光処理を行う。一方,設定した枚数の画像の取り込みが終了していれば,取り込んだ複数の画像の合成処理を行う。   When the reading of the image data is completed, it is determined whether or not the set number of images has been captured (step S126). If capturing of the set number of images has not been completed, the process returns to step S122, and exposure processing is performed again with the set exposure time. On the other hand, if the capturing of the set number of images has been completed, a plurality of captured images are combined.

本実施形態においては,時間の経過に沿って,電車172が右から左へ走行している場面を,撮影者が撮像装置100を用いて一度の撮影操作によって撮影する。撮影した結果,図5の(a)〜(e)に示したような5枚の画像170a,170b,170c,170dおよび170eを撮影する。   In the present embodiment, the photographer photographs a scene where the train 172 is traveling from right to left as time passes by a single photographing operation using the imaging device 100. As a result of photographing, five images 170a, 170b, 170c, 170d, and 170e as shown in FIGS. 5A to 5E are photographed.

複数の画像の合成処理を行う際には,まず画像の比較領域を設定する(ステップS128)。本実施形態における画像の比較領域は,複数の画像の内,最初に撮影した1枚目の画像における,焦点検出領域の画像を設定する。図4に示した画像170においては,焦点検出領域176が比較領域となる。   When combining a plurality of images, first, a comparison region of images is set (step S128). In the image comparison area in the present embodiment, the image of the focus detection area in the first image taken first among a plurality of images is set. In the image 170 shown in FIG. 4, the focus detection area 176 is a comparison area.

画像の比較領域を設定すると,次にずれ検出部160で1枚目の画像の比較領域における一の画像と,2枚目以降における一の画像に相当する他の画像との間の相対的なずれの量を検出する(ステップS130)。ずれの量は,1枚目の画像170aにおける比較領域が,2枚目以降の画像のどの部分に含まれているかによって検出する。2枚目以降の各画像における比較領域の検出には,パターンマッチング法などの公知の技術を用いる事ができる。   When the image comparison area is set, the shift detection unit 160 then compares the relative value between one image in the comparison area of the first image and another image corresponding to the first image in the second and subsequent sheets. The amount of deviation is detected (step S130). The amount of deviation is detected depending on which part of the second and subsequent images the comparison area in the first image 170a is included in. A known technique such as a pattern matching method can be used to detect the comparison area in each of the second and subsequent images.

各画像における1枚目の画像170aにおける比較領域とのずれの量を検出すると,画像合成部118において,画像のずれを打ち消すために,各画像における比較領域が一致するように各画像を合成し,画像を生成する(ステップS132)。   When the amount of deviation from the comparison area in the first image 170a in each image is detected, the image composition unit 118 synthesizes each image so that the comparison areas in each image coincide with each other in order to cancel the image deviation. , An image is generated (step S132).

画像合成部118で生成した合成画像の一例を図6に示す。図6に示す合成画像180aは,図5の(a)〜(e)に示したような5枚の画像170a〜170eを合成した結果生成されたものである。画像170a〜170eでは,電車172が時間の経過と共に右から左に移動しているが,最初の画像170aの比較領域として電車172の先頭部分を設定しているので,電車172の先頭部分が一致するように画像170a〜170eを合成することで,図6に示すような,電車172が一致して,背景の山174が流れているような画像180aを生成することができる。   An example of a composite image generated by the image composition unit 118 is shown in FIG. The synthesized image 180a shown in FIG. 6 is generated as a result of synthesizing five images 170a to 170e as shown in (a) to (e) of FIG. In the images 170a to 170e, the train 172 moves from right to left as time passes. However, since the head portion of the train 172 is set as the comparison area of the first image 170a, the head portion of the train 172 matches. By synthesizing the images 170a to 170e as described above, an image 180a in which the train 172 matches and the background mountain 174 flows can be generated as shown in FIG.

従来の複数の画像を合成して移動する被写体を撮影する方法においては,特許文献1のようにカメラを固定して移動する被写体を含む複数の画像を撮影し,その複数の画像の中から移動している被写体を検出し,その移動している被写体が一致するように合成する方法がある。   In the conventional method of shooting a moving subject by combining a plurality of images, a plurality of images including the moving subject are captured with a camera fixed as in Patent Document 1, and the image is moved from the plurality of images. There is a method of detecting a moving subject and compositing so that the moving subject matches.

しかし,特許文献1に示した方法では,カメラを固定していなければ移動する被写体を撮影することができず,従来の流し撮りのように,カメラを振りながら(パンニングして)撮影することはできない。被写体の動作速度がゆっくりであれば被写体に合焦することも可能であるが,自動車や電車のように速い速度で移動する被写体を撮影する際には,撮像装置の動作のタイムラグによって被写体を中央の焦点検出領域に捉えることが困難であったり,カメラを振りながら撮影すると,背景を主要被写体と勘違いして,図7に示したように,背景でなく主要被写体がぶれた画像180bが撮影されてしまったりする。   However, with the method shown in Patent Document 1, a moving subject cannot be shot unless the camera is fixed, and it is not possible to take a picture while shaking the camera (panning) as in conventional panning. Can not. If the subject's movement speed is slow, it is possible to focus on the subject. However, when shooting a subject that moves at a high speed, such as a car or train, the subject is centered due to the time lag of the operation of the imaging device. If it is difficult to capture in the focus detection area of the camera or if it is taken while shaking the camera, the background is mistaken for the main subject, and as shown in FIG. 7, an image 180b in which the main subject is blurred instead of the background is taken. I will.

そこで,本実施形態のように,一度の撮影操作で複数の画像を撮影可能な撮像装置において,最初の画像の撮影時に主要な被写体に合焦することで,主要な被写体が動いていてもいなくても,また撮像装置をパンニングしていてもしていなくても,確実に撮影者が意図する主要な被写体を検出することができ,主要な被写体がぶれていない画像を撮影することができる。   Therefore, as in the present embodiment, in an imaging apparatus that can capture a plurality of images with a single shooting operation, the main subject does not have to move by focusing on the main subject at the time of shooting the first image. Even if the imaging device is panned or not, the main subject intended by the photographer can be reliably detected, and an image in which the main subject is not blurred can be taken.

以上,添付図面を参照しながら本発明の好適な実施形態について説明したが,本発明は係る例に限定されないことは言うまでもない。当業者であれば,特許請求の範囲に記載された範疇内において,各種の変更例または修正例に想到し得ることは明らかであり,それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to the example which concerns. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.

例えば,上記実施形態における撮像装置100の構成要素の一部は,撮像装置100の内部に記憶されたコンピュータプログラムであってもよく,各部の機能を実行するマイクロプロセッサ等のハードウェアであってもよい。   For example, some of the components of the imaging apparatus 100 in the above embodiment may be a computer program stored in the imaging apparatus 100, or may be hardware such as a microprocessor that executes functions of each unit. Good.

また,上記実施形態においては比較領域として焦点検出領域を用いたが,焦点検出領域以外の領域を比較領域として設定してもよい。また,比較領域は2つ以上であってもよく,焦点検出領域を複数備える撮像装置であれば,その複数の焦点検出領域の一部または全部を比較領域として設定してもよい。比較領域を複数設定することで,相対的な位置ずれの量をより正確に検出することができる。   In the above embodiment, the focus detection area is used as the comparison area. However, an area other than the focus detection area may be set as the comparison area. Further, there may be two or more comparison areas. If the imaging apparatus includes a plurality of focus detection areas, a part or all of the plurality of focus detection areas may be set as the comparison areas. By setting a plurality of comparison areas, the amount of relative positional deviation can be detected more accurately.

本発明は,撮像装置および撮像方法に適用可能である。   The present invention is applicable to an imaging apparatus and an imaging method.

本発明の一実施形態に係る撮像装置の構成について説明する説明図である。It is explanatory drawing explaining the structure of the imaging device which concerns on one Embodiment of this invention. 本発明の一実施形態に係るCPUの構成について説明する説明図である。It is explanatory drawing explaining the structure of CPU which concerns on one Embodiment of this invention. 本発明の一実施形態に係る撮像方法について説明する流れ図である。It is a flowchart explaining the imaging method which concerns on one Embodiment of this invention. 画像の一例を示す説明図である。It is explanatory drawing which shows an example of an image. 連続して撮影する画像の一例を示す説明図である。It is explanatory drawing which shows an example of the image image | photographed continuously. 本発明の一実施形態に係る合成画像の一例を示す説明図である。It is explanatory drawing which shows an example of the synthesized image which concerns on one Embodiment of this invention. 従来の合成画像を示す説明図である。It is explanatory drawing which shows the conventional synthesized image.

符号の説明Explanation of symbols

100 撮像装置
102 ズームレンズ
102a,104a,106a 駆動装置
104 絞り
106 フォーカスレンズ
108 CCD素子
110 CDS回路
112 A/D変換器
114 画像入力コントローラ
116 画像信号処理部
118 画像合成部
120 圧縮処理部
122 LCDドライバ
124 LCD
126 タイミングジェネレータ
128 CPU
132 操作部
133 シャッタボタン
134 メモリ
136 VRAM
138 メディアコントローラ
140 記録メディア
142a,142b,142c モータドライバ
152 適正AEレベル算出部
154 露光制御部
156 合焦位置検出部
158 比較領域設定部
160 ずれ検出部
170,170a,170b,170c,170d,170e,180a,180b 画像
176 焦点検出領域
DESCRIPTION OF SYMBOLS 100 Imaging device 102 Zoom lens 102a, 104a, 106a Drive device 104 Aperture 106 Focus lens 108 CCD element 110 CDS circuit 112 A / D converter 114 Image input controller 116 Image signal processing unit 118 Image composition unit 120 Compression processing unit 122 LCD driver 124 LCD
126 Timing Generator 128 CPU
132 Operation unit 133 Shutter button 134 Memory 136 VRAM
138 Media controller 140 Recording media 142a, 142b, 142c Motor driver 152 Appropriate AE level calculation unit 154 Exposure control unit 156 Focus position detection unit 158 Comparison area setting unit 160 Deviation detection unit 170, 170a, 170b, 170c, 170d, 170e, 180a, 180b Image 176 Focus detection area

Claims (3)

1回の撮影動作で露光時間を時分割して複数の画像を撮像する撮像装置であって:
一の露光時間における画像データの中から比較領域を設定する比較領域設定部と;
前記比較領域における一の画像を記憶する画像記憶部と;
他の露光時間における画像データの中から前記一の画像に相当する他の画像を検出し,前記一の画像と前記他の画像との相対的な位置ずれを検出するずれ検出部と;
前記相対的な位置ずれを打ち消して,前記一の画像と前記他の画像とが一致するように画像を合成する画像合成部と;
を含むことを特徴とする,撮像装置。
An imaging apparatus that captures a plurality of images by time-sharing an exposure time in one shooting operation:
A comparison area setting unit for setting a comparison area from image data at one exposure time;
An image storage unit for storing one image in the comparison region;
A displacement detection unit that detects another image corresponding to the one image from image data at another exposure time, and detects a relative displacement between the one image and the other image;
An image composition unit that composes an image such that the one image and the other image coincide with each other by canceling the relative displacement;
An imaging device comprising:
前記比較領域は,焦点検出領域であることを特徴とする,請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the comparison area is a focus detection area. 1回の撮影動作で露光時間を時分割して複数の画像を撮像する撮像方法であって:
一の露光時間における画像データの中から比較領域を設定する比較領域設定ステップと;
前記比較領域における一の画像を記憶する画像記憶ステップと;
他の露光時間における画像データの中から前記一の画像に相当する他の画像を検出し,前記一の画像と前記他の画像との相対的な位置ずれを検出するずれ検出ステップと;
前記相対的な位置ずれを打ち消して,前記一の画像と前記他の画像とが一致するように画像を合成する画像合成ステップと;
を含むことを特徴とする,撮像方法。
An imaging method for capturing a plurality of images by time-sharing exposure time in one shooting operation:
A comparison area setting step for setting a comparison area from image data at one exposure time;
An image storing step for storing one image in the comparison region;
A displacement detection step of detecting another image corresponding to the one image from image data at another exposure time, and detecting a relative displacement between the one image and the other image;
An image combining step of canceling the relative positional shift and combining the images so that the one image matches the other image;
An imaging method comprising:
JP2006095895A 2006-03-30 2006-03-30 Imaging apparatus and imaging method Pending JP2007274220A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006095895A JP2007274220A (en) 2006-03-30 2006-03-30 Imaging apparatus and imaging method
KR1020060070452A KR100819808B1 (en) 2006-03-30 2006-07-26 Photographing apparatus, and photographing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006095895A JP2007274220A (en) 2006-03-30 2006-03-30 Imaging apparatus and imaging method

Publications (1)

Publication Number Publication Date
JP2007274220A true JP2007274220A (en) 2007-10-18

Family

ID=38676577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006095895A Pending JP2007274220A (en) 2006-03-30 2006-03-30 Imaging apparatus and imaging method

Country Status (2)

Country Link
JP (1) JP2007274220A (en)
KR (1) KR100819808B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012109899A (en) * 2010-11-19 2012-06-07 Aof Imaging Technology Ltd Image processing device

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007336394A (en) * 2006-06-16 2007-12-27 Samsung Techwin Co Ltd Imaging apparatus and image compositing method
JP5328321B2 (en) * 2008-11-28 2013-10-30 三星電子株式会社 Imaging apparatus and imaging method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006025312A (en) * 2004-07-09 2006-01-26 Konica Minolta Photo Imaging Inc Imaging apparatus and image acquisition method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990085269A (en) * 1998-05-15 1999-12-06 윤종용 CMOS image sensor using multi-level time division output method
KR20050019844A (en) * 2002-07-11 2005-03-03 나이루스 가부시키가이샤 Image pickup system
JP3801126B2 (en) * 2002-09-25 2006-07-26 ソニー株式会社 Imaging apparatus, image output method of imaging apparatus, and computer program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006025312A (en) * 2004-07-09 2006-01-26 Konica Minolta Photo Imaging Inc Imaging apparatus and image acquisition method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012109899A (en) * 2010-11-19 2012-06-07 Aof Imaging Technology Ltd Image processing device

Also Published As

Publication number Publication date
KR100819808B1 (en) 2008-04-07
KR20070098403A (en) 2007-10-05

Similar Documents

Publication Publication Date Title
JP4979969B2 (en) Imaging apparatus and imaging method
KR100871639B1 (en) Camera and image processing method for camera
TWI514847B (en) Image processing device, image processing method, and recording medium
TWI459126B (en) Image processing device capable of generating a wide-range image, image processing method and recording medium
JP2008187591A (en) Imaging apparatus and imaging method
JP2009010776A (en) Imaging device, photography control method, and program
JP2006162990A (en) Stereoscopic image photographing apparatus
JP2006162991A (en) Stereoscopic image photographing apparatus
JP2005079841A (en) Imaging apparatus and method
JP4878978B2 (en) Imaging apparatus and imaging method
KR100819811B1 (en) Photographing apparatus, and photographing method
JP2006246354A (en) Imaging unit and imaging program
JP4977569B2 (en) Imaging control apparatus, imaging control method, imaging control program, and imaging apparatus
JP2008015097A (en) Imaging device and imaging method
JP4315341B2 (en) Panning method and photographing apparatus
JP2009206920A (en) Camera
JP4767904B2 (en) Imaging apparatus and imaging method
JP2001133679A (en) Electronic camera and automatic focusing method
KR100819808B1 (en) Photographing apparatus, and photographing method
JP2008244991A (en) Imaging apparatus and imaging method
JP5180042B2 (en) Imaging apparatus and imaging method
KR100819807B1 (en) Image pickup apparatus and method of picking up images
JP2007110498A (en) Compound eye photographing apparatus
JP4533175B2 (en) Imaging device
JP5446219B2 (en) Photometric device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090330

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20090811

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100907

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110405