JP5239601B2 - Imaging apparatus and program - Google Patents

Imaging apparatus and program Download PDF

Info

Publication number
JP5239601B2
JP5239601B2 JP2008203649A JP2008203649A JP5239601B2 JP 5239601 B2 JP5239601 B2 JP 5239601B2 JP 2008203649 A JP2008203649 A JP 2008203649A JP 2008203649 A JP2008203649 A JP 2008203649A JP 5239601 B2 JP5239601 B2 JP 5239601B2
Authority
JP
Japan
Prior art keywords
image
data
imaging
imaging data
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008203649A
Other languages
Japanese (ja)
Other versions
JP2009100450A (en
Inventor
正雄 三本木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2008203649A priority Critical patent/JP5239601B2/en
Priority to US12/239,083 priority patent/US7960676B2/en
Publication of JP2009100450A publication Critical patent/JP2009100450A/en
Priority to US13/102,450 priority patent/US8227738B2/en
Application granted granted Critical
Publication of JP5239601B2 publication Critical patent/JP5239601B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮影装置、及び、プログラムに関するものである。   The present invention relates to a photographing apparatus and a program.

従来、背景が暗くても、人物の顔等の画像が明るくなるように画像処理する撮影装置がある(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, there is a photographing apparatus that performs image processing so that an image such as a human face becomes bright even when the background is dark (see, for example, Patent Document 1).

この撮影装置は、定常光撮影とストロボ光撮影とを連続して行い、これらの撮影によって得られた撮像データについて画素加算を行うことにより、背景が暗くても人物の顔等が明るい画像を取得するようにしている。
特開2007−49374号公報(第3−8頁、図1)
This imaging device performs continuous light photography and flash photography continuously, and performs pixel addition on the imaging data obtained by these photography, thereby obtaining an image with a bright human face even when the background is dark Like to do.
JP 2007-49374 A (page 3-8, FIG. 1)

しかし、従来の撮影装置では、例えば、ストロボ光の影響を受けない撮影領域とストロボ光で照射された撮影領域とが明確に分かれている場合でのみ有効である。   However, the conventional imaging apparatus is effective only when, for example, the imaging area not affected by the strobe light and the imaging area irradiated with the strobe light are clearly separated.

一方、ストロボ光の影響を受け、かつ、主要な被写体ではないものが撮影画角に含まれてしまう場合、従来の撮影装置では、全体が明るくなってしまうため、主要な被写体の鮮明な画像を取得することができない。   On the other hand, when a subject that is not the main subject and is not included in the shooting angle of view is affected by the strobe light, the entire image is brightened with the conventional shooting device, so a clear image of the main subject is displayed. I can't get it.

本発明は、このような従来の問題点に鑑みてなされたもので、画像の輝度が低い場合であっても、輝度を引き上げることが可能な撮影装置及びプログラムを提供することを目的とする。
また、本発明は、主要な被写体の鮮明な画像を得ることが可能な撮影装置及びプログラムを提供することを他の目的とする。
The present invention has been made in view of such a conventional problem, and an object of the present invention is to provide a photographing apparatus and a program capable of increasing the luminance even when the luminance of the image is low.
Another object of the present invention is to provide a photographing apparatus and a program capable of obtaining a clear image of a main subject.

上記目的を達成するため、本願発明の第1の観点に係る撮像装置は、撮影手段と、この撮影手段に対し複数回の撮影を行わせて複数の撮像データを取得するよう制御する第1の撮影制御手段と、この第1の撮影制御手段による制御により取得した複数の撮像データに共通して特定の画像領域があるか否かを判別する判別手段と、この判別手段によって特定の画像領域があると判別された場合、前記複数の撮像データにおける一の撮像データの前記特定の画像領域に、前記複数の撮像データにおける前記一の撮像データを除く他の撮像データの前記特定の画像領域部分のみを画素加算して画像データを生成する第1の画像データ生成手段と、前記判別手段によって特定の画像領域がないと判別された場合、前記複数の撮像データにおける一の撮像データの全体について、前記複数の撮像データにおける前記一の撮像データを除く他の撮像データの全体を画素加算して画像データを生成する第2の画像データ生成手段と、を備えることを特徴とする。 In order to achieve the above object, an imaging apparatus according to a first aspect of the present invention has a photographing unit and a first unit that controls the photographing unit to perform a plurality of photographings to acquire a plurality of imaging data. and imaging control means, discriminating means for discriminating whether or not there is a particular image area in common to a plurality of image pickup data obtained by the control by the first imaging control means, the specific image region by the discriminating means If it is determined that there is, only the specific image area portion of the other imaging data other than the one imaging data in the plurality of imaging data is included in the specific image area of the one imaging data in the plurality of imaging data. A first image data generation unit that generates image data by adding pixels to each other, and when the determination unit determines that there is no specific image area, The overall data, characterized in that it comprises a second image data generating means for generating image data by pixel addition the entire other imaging data except the one of the imaging data in the plurality of imaging data .

前記判別手段は、例えば、前記複数の撮像データの画像の特定の部位に共通して特定の画像領域があるか否かを判別する。   The determination unit determines, for example, whether or not there is a specific image region in common in specific portions of the images of the plurality of imaging data.

なお、前記特定の部位は、例えば、前記撮影手段が焦点調整を行うフォーカスポイント検出領域である。   The specific part is, for example, a focus point detection region where the photographing unit performs focus adjustment.

前記判別手段による判別のために複数の撮像データを取得する以前に、前記撮影手段に対し複数回の撮影を行わせ、前記判別手段が判別に用いる解像度より低い解像度の撮像データを取得するよう制御する第2の撮影制御手段と、この第2の撮影制御手段によって取得された低解像度の撮像データの輝度値より露出値を算出する露出値算出手段と、この露出値算出手段によって算出された露出値と予め設定された値とを比較する比較手段と、を更に備え、前記第1の撮影制御手段は更に、前記比較手段による比較の結果、前記露出値が前記予め設定された値以下である場合に撮影を複数回行うよう制御してもよい。 Before acquiring a plurality of imaging data for determination by the determination unit, the imaging unit is caused to perform a plurality of shootings, and control is performed so as to acquire imaging data having a resolution lower than the resolution used by the determination unit. A second photographing control unit that performs exposure, an exposure value calculating unit that calculates an exposure value based on a luminance value of low-resolution image data acquired by the second photographing control unit, and an exposure calculated by the exposure value calculating unit. further comprising comparing means for comparing the preset value with the value, wherein the first imaging control means further result of the comparison by the comparing means, the exposure value is less than the preset value In such a case, control may be performed so that photographing is performed a plurality of times.

前記特定の画像領域は、例えば、人物や動物の顔画像領域である。   The specific image area is, for example, a face image area of a person or an animal.

記憶手段を配置し、前記特定の画像領域を、前記記憶手段に記憶された特定の画像と実質的に同一の画像が撮像された領域としてもよい。   Storage means may be arranged, and the specific image area may be an area where an image substantially the same as the specific image stored in the storage means is captured.

上記目的を達成するため、本願発明の第2の観点に係るプログラムは、撮像装置が具備するコンピュータを、複数回の撮影を行わせて複数の撮像データを取得するよう制御する撮影制御手段、この撮影制御手段による制御により取得した複数の撮像データに共通して特定の画像領域があるか否かを判別する判別手段、この判別手段によって特定の画像領域があると判別された場合、前記複数の撮像データにおける一の撮像データの前記特定の画像領域に、前記複数の撮像データにおける前記一の撮像データを除く他の撮像データの前記特定の画像領域部分のみを画素加算して画像データを生成する第1の画像データ生成手段、前記判別手段によって特定の画像領域がないと判別された場合、前記複数の撮像データにおける一の撮像データの全体について、前記複数の撮像データにおける前記一の撮像データを除く他の撮像データの全体を画素加算して画像データを生成する第2の画像データ生成手段、として機能させることを特徴とする。 In order to achieve the above object, a program according to a second aspect of the present invention provides an imaging control unit configured to control a computer included in an imaging apparatus so as to acquire a plurality of imaging data by performing imaging a plurality of times. A discriminating unit that discriminates whether or not there is a specific image region in common among a plurality of imaging data acquired by control by the imaging control unit; and when the discriminating unit determines that there is a specific image region, Image data is generated by pixel-adding only the specific image region portion of other imaging data other than the one imaging data in the plurality of imaging data to the specific image region of one imaging data in the imaging data. When it is determined by the first image data generation means and the determination means that there is no specific image area, all of the one imaging data in the plurality of imaging data For, wherein the function as a second image data generating means, for generating image data by pixel addition the entire other imaging data except the one of the imaging data in the plurality of imaging data.

本発明によれば、特定の画像領域の輝度を引き上げることができる。   According to the present invention, the luminance of a specific image area can be increased.

(第1の実施の形態)
以下、本発明の第1の実施形態に係る撮影装置を、図面を参照して説明する。
実施形態に係るデジタルカメラ1は、図1に示すように、撮像データ生成部21と、データ処理部22と、ユーザインタフェース部23と、から構成される。
(First embodiment)
Hereinafter, an imaging device according to a first embodiment of the present invention will be described with reference to the drawings.
As shown in FIG. 1, the digital camera 1 according to the embodiment includes an imaging data generation unit 21, a data processing unit 22, and a user interface unit 23.

このデジタルカメラ1は、露出値が予め設定された値以下のときは、撮影を複数回行う。そして、このデジタルカメラ1は、複数の撮像データのうち、輝度を引き上げる特定の画像領域として人物の顔領域を判別すると、撮像データと顔領域の顔画像データとを、対応するように画素加算合成を行うように構成されている。このデジタルカメラ1は、このようにして、ストロボ光で照射しなくても顔画像データの輝度引き上げを行う。   The digital camera 1 performs photographing a plurality of times when the exposure value is equal to or less than a preset value. When the digital camera 1 discriminates a human face area as a specific image area whose brightness is to be increased among a plurality of pieces of image data, the digital camera 1 adds and combines the image data and the face image data of the face area so as to correspond to each other. Is configured to do. In this way, the digital camera 1 increases the brightness of the face image data without irradiating with strobe light.

ユーザインタフェース部23は、ユーザに様々なメッセーを伝達すると共にユーザの操作を受け付けるためのものであり、表示部301と、操作部302と、PCインタフェース装置303と、外部記憶部304と、からなる。   The user interface unit 23 is for transmitting various messages to the user and receiving user operations, and includes a display unit 301, an operation unit 302, a PC interface device 303, and an external storage unit 304. .

操作部302は、ユーザの操作を受け付けて、操作の内容を示す操作情報を取得するためのものであり、電源スイッチ302aと、撮影ボタン302bと、シャッタボタン302cとを備える。   The operation unit 302 is for receiving operation of the user and acquiring operation information indicating the content of the operation, and includes a power switch 302a, a shooting button 302b, and a shutter button 302c.

電源スイッチ302aは、デジタルカメラ1の電源をオン(ON)、オフ(OFF)するためのものである。   The power switch 302a is for turning on the power of the digital camera 1 and turning it off.

撮影ボタン302bは、撮影を行う撮影モードを選択するときに押下されるボタンである。   The shooting button 302b is a button that is pressed when a shooting mode for shooting is selected.

シャッタボタン302cは、撮影を行うときに押下されるボタンであり、2段階のストローク操作で動作するように構成されている。第1のストロークは、一般に「半押し」、「ハーフシャッタ」と呼ばれる状態のストロークであり、AF(Auto Focus)処理、AE(Automatic Exposure)処理を実行して合焦状態と露出状態とをロックするためのストロークである。   The shutter button 302c is a button that is pressed when shooting, and is configured to operate by a two-stage stroke operation. The first stroke is a stroke generally called “half-pressed” or “half shutter”, and AF (Auto Focus) processing and AE (Automatic Exposure) processing are executed to lock the in-focus state and the exposure state. It is a stroke to do.

第2のストロークは、「全押し」と呼ばれる状態のストロークであり、第1のストロークでロックされた合焦状態と露出状態とで撮影を行うためのストロークである。   The second stroke is a stroke in a state called “full press”, and is a stroke for performing photographing in the in-focus state and the exposure state locked by the first stroke.

操作部302は、ユーザによるこれらのスイッチ、ボタンの操作を検出することにより、この操作情報をデータ処理部22のCPU205に供給する。   The operation unit 302 supplies the operation information to the CPU 205 of the data processing unit 22 by detecting the operation of these switches and buttons by the user.

表示部301は、画像を表示するためのものであり、液晶モニタ等を備える。表示部301は、ビデオ出力装置202から供給されたRGB信号に基づいて、低解像度のプレビュー画像等を表示する。   The display unit 301 is for displaying an image and includes a liquid crystal monitor or the like. The display unit 301 displays a low-resolution preview image or the like based on the RGB signals supplied from the video output device 202.

PCインタフェース装置303は、画像データ等を、USB(Universal Serial Bus)規格のデータに変換し、USBケーブル等を介してコンピュータ(図示せず)に送信するとともに、コンピュータからのデータを受信するためのものである。
外部記憶部304は、画像データを保存するためのものである。
The PC interface device 303 converts image data or the like into USB (Universal Serial Bus) standard data, transmits the data to a computer (not shown) via a USB cable or the like, and receives data from the computer. Is.
The external storage unit 304 is for storing image data.

撮像データ生成部21は、撮影を行って撮像データを取得するためのものであり、光学レンズ装置101と、イメージセンサ102と、を備える。   The imaging data generation unit 21 is for acquiring imaging data by performing imaging, and includes an optical lens device 101 and an image sensor 102.

光学レンズ装置101は、被写体を撮影するために、光を集光するレンズなどで構成されたものであり、焦点、露出、ホワイトバランス等のカメラ設定パラメータを調整するための周辺回路を備える。   The optical lens device 101 is composed of a lens that collects light in order to photograph a subject, and includes a peripheral circuit for adjusting camera setting parameters such as focus, exposure, and white balance.

イメージセンサ102は、光学レンズ装置101が光を集光することによって結像した画像を、デジタル化して取り込むためのものであり、CCD(Charge Coupled Device;電荷結合素子)、A/D(Analog to Digital)変換器等から構成される。   The image sensor 102 is for digitizing and capturing an image formed by condensing light by the optical lens device 101, and includes a CCD (Charge Coupled Device), A / D (Analog to Digital) converter.

尚、撮像データ生成部21は、高解像度画像撮影と低解像度画像撮影(プレビュー撮影)とが可能なものである。低解像度画像撮影は、画像解像度がXGA(1024×768ドット)程度で解像度は低いものの、30fps(フレーム/秒)の速さで動画撮影と画像読み出しが可能となる撮影である。   Note that the imaging data generation unit 21 is capable of high-resolution image shooting and low-resolution image shooting (preview shooting). The low-resolution image shooting is a shooting that enables moving image shooting and image reading at a speed of 30 fps (frame / second) although the image resolution is about XGA (1024 × 768 dots) and the resolution is low.

高解像度画像撮影は、低解像度画像撮影時の解像度よりも高い解像度での撮影である。例えば、デジタルカメラ1が撮影に可能な画素数が最大400万画素である場合に、その400万画素の解像度で行う撮影である。   High-resolution image shooting is shooting at a higher resolution than the resolution at the time of low-resolution image shooting. For example, when the maximum number of pixels that the digital camera 1 can shoot is 4 million pixels, shooting is performed at the resolution of 4 million pixels.

データ処理部22は、撮像データ生成部21から撮像データを取得して、表示部301や外部のプロジェクタ等(図示せず)に出力するための画像データを生成する処理を行うものである。データ処理部22は、メモリ201と、ビデオ出力装置202と、画像処理装置203と、プログラムコード記憶装置204と、CPU205と、から構成される。   The data processing unit 22 performs processing to acquire imaging data from the imaging data generation unit 21 and generate image data to be output to the display unit 301 or an external projector (not shown). The data processing unit 22 includes a memory 201, a video output device 202, an image processing device 203, a program code storage device 204, and a CPU 205.

メモリ201は、入力された撮像データや、生成される画像データを記憶するためのものである。メモリ201は、これらのデータを記憶する領域として、図2に示すように、センサ画像記憶領域201aと、処理画像記憶領域201bと、作業データ記憶領域201cと、を有する。   The memory 201 is for storing input image data and generated image data. As shown in FIG. 2, the memory 201 includes a sensor image storage area 201a, a processed image storage area 201b, and a work data storage area 201c as areas for storing these data.

センサ画像記憶領域201aは、撮影する毎に、イメージセンサ102が取り込んだ撮像データを一時記憶するための領域である。処理画像記憶領域201bは、処理対象の撮像データを一時記憶するための領域である。   The sensor image storage area 201a is an area for temporarily storing imaging data captured by the image sensor 102 every time shooting is performed. The processed image storage area 201b is an area for temporarily storing imaging data to be processed.

作業データ記憶領域201cは、作業に必要なデータを記憶するための領域である。作業データ記憶領域201cは、作業に必要なデータとして、例えば、人物の顔を判別するための特徴データ(顔の特徴データ)を記憶する。   The work data storage area 201c is an area for storing data necessary for work. The work data storage area 201c stores, for example, feature data (face feature data) for determining a person's face as data necessary for the work.

図1に戻り、ビデオ出力装置202は、RGB信号を生成して出力するものである。ビデオ出力装置202は、メモリ201の処理画像記憶領域201bに格納された画像データを読み出してRGB信号を生成し、生成したRGB信号をユーザインタフェース部23に供給する。   Returning to FIG. 1, the video output device 202 generates and outputs RGB signals. The video output device 202 reads out image data stored in the processed image storage area 201 b of the memory 201 to generate an RGB signal, and supplies the generated RGB signal to the user interface unit 23.

また、ビデオ出力装置202は、生成したRGB信号を、テレビ、PC、プロジェクタ、あるいは、それ以外の外部装置に供給する。   The video output device 202 supplies the generated RGB signal to a television, a PC, a projector, or other external device.

画像処理装置203は、CPU205に制御されて、撮像データに対して画像処理を行うためのものである。   The image processing device 203 is controlled by the CPU 205 to perform image processing on the captured data.

画像処理装置203は、CPU205から画像処理を実行するように指示されると、メモリ201のセンサ画像記憶領域201aから、撮像データを取得する。   When instructed by the CPU 205 to execute image processing, the image processing apparatus 203 acquires imaging data from the sensor image storage area 201 a of the memory 201.

メモリ201のセンサ画像記憶領域201aに複数枚、例えば、2枚(画像2枚(2フレーム)分)の撮像データが記録されている場合、画像処理装置203は、2枚の撮像データの画素加算合成を行い、顔画像の輝度引き上げを行う。例えば、画像処理装置203は、1枚目の撮像データの顔画像の各画素の輝度(階調)G1と、2枚目の撮像データの顔画像の対応する画素の輝度G2とを加算し、階調(G1+G2)を有する画素を合成画像の画素とし、顔画像の輝度引き上げを行う。   When a plurality of image data, for example, two images (two images (two frames)) are recorded in the sensor image storage area 201a of the memory 201, the image processing device 203 adds the pixels of the two image data. Compositing is performed to increase the brightness of the face image. For example, the image processing apparatus 203 adds the luminance (gradation) G1 of each pixel of the face image of the first imaged data and the luminance G2 of the corresponding pixel of the face image of the second imaged data, The pixel having the gradation (G1 + G2) is used as a pixel of the composite image, and the brightness of the face image is increased.

画像処理装置203は、画素加算合成を行う場合、まず、輝度の引き上げを行う特定の画像領域として顔領域を判別する。   When performing the pixel addition synthesis, the image processing apparatus 203 first determines a face area as a specific image area for increasing the luminance.

画像処理装置203は、2枚の撮像データに共通して顔領域があるか否かを判別する。この顔領域の有無の判別を行うために、メモリ201の作業データ記憶領域201cには、顔の特徴データが予め記憶されている。   The image processing apparatus 203 determines whether or not there is a face area common to the two pieces of imaging data. In order to determine the presence or absence of the face area, face feature data is stored in advance in the work data storage area 201 c of the memory 201.

画像処理装置203は、この作業データ記憶領域201cから、顔の特徴データを読み出して、この特徴データと撮像データとを比較することにより、顔領域の有無を判別する。   The image processing apparatus 203 reads the face feature data from the work data storage area 201c, and compares the feature data with the imaging data to determine the presence or absence of the face area.

2枚の撮像データのいずれにも顔領域がないと判別した場合、画像処理装置203は、2枚の撮像データ全体が対応するように射影変換と位置合わせとを行い、2枚の撮像データの画素加算合成を画素毎に行う。   When it is determined that there is no face area in any of the two pieces of imaging data, the image processing device 203 performs projective transformation and alignment so that the entire two pieces of imaging data correspond to each other. Pixel addition synthesis is performed for each pixel.

2枚の撮像データに共通して顔領域があると判別した場合、画像処理装置203は、この顔領域を特定の画像領域として、1枚目(又は2枚目)の撮像データから顔領域の顔画像データを取得する。   When it is determined that there is a face area common to the two pieces of imaging data, the image processing apparatus 203 uses the face area as a specific image area and determines the face area from the first (or second) imaging data. Get face image data.

そして、画像処理装置203は、撮像データ全体の顔領域の画像データと取得された顔画像データとが対応するように射影変換と位置合わせとを行いつつ、撮像データと顔領域の顔画像データとの画素加算合成を画素毎に行って一枚の画像データを得る。このようにして、画像処理装置203は、顔画像データの輝度の引き上げを行い、露光情報を補正する。   Then, the image processing device 203 performs the projective transformation and the alignment so that the image data of the face area of the entire image data corresponds to the acquired face image data, and the image data and the face image data of the face area The pixel addition synthesis is performed for each pixel to obtain one piece of image data. In this way, the image processing apparatus 203 increases the brightness of the face image data and corrects the exposure information.

画像処理装置203は、このような画像処理を行って得られた画像データの圧縮符号化を行ってファイル化し、ファイル化した画像データをメモリ201の処理画像記憶領域201bに記録する。   The image processing apparatus 203 compresses and encodes the image data obtained by performing such image processing to form a file, and records the filed image data in the processed image storage area 201 b of the memory 201.

図1に戻り、プログラムコード記憶装置204は、CPU205が実行するプログラムを記憶するためのものであり、ROM (Read Only Memory)等によって構成される。   Returning to FIG. 1, the program code storage device 204 is for storing a program executed by the CPU 205, and is configured by a ROM (Read Only Memory) or the like.

CPU205は、プログラムコード記憶装置204に格納されているプログラムに従って、各部を制御する。   The CPU 205 controls each unit in accordance with a program stored in the program code storage device 204.

具体的に、CPU205は、主電源がオンされた後、ユーザインタフェース部23の操作部302から、電源ボタン302aが押下された旨の操作情報が供給される毎に、デジタルカメラ1の電源(動作電源)をオン、オフする。   Specifically, the CPU 205 turns on the power (operation) of the digital camera 1 every time operation information indicating that the power button 302a is pressed is supplied from the operation unit 302 of the user interface unit 23 after the main power is turned on. On / off.

CPU205は、シャッタボタン302cが半押しされると、低解像度画像撮影を行い、低解像度の撮像データを撮り込むように、撮像データ生成部21を制御する。   When the shutter button 302c is half-pressed, the CPU 205 controls the imaging data generation unit 21 to capture a low resolution image and capture low resolution imaging data.

CPU205は、撮り込んだ低解像度の撮像データに基づいて露出値(Exposure Value)を決定する。この露出値は、光を通過させる能力を示す値であり、絞りの開度と露出時間との組み合わせ(積)によって決定される値である。   The CPU 205 determines an exposure value based on the captured low-resolution image data. This exposure value is a value indicating the ability to transmit light, and is a value determined by a combination (product) of the aperture opening and the exposure time.

CPU205は、イメージセンサ102の撮像面における照度を時間積分して露光量を取得し、この露光量に基づいて露出値を決定する。   The CPU 205 obtains an exposure amount by time-integrating the illuminance on the imaging surface of the image sensor 102, and determines an exposure value based on the exposure amount.

そして、CPU205は、この露出値と予め設定された値とを比較する。この予め設定された値は、撮像データの輝度の高低を判別するための値であり、メモリ201の作業データ記憶領域201cに予め記憶されている。   Then, the CPU 205 compares this exposure value with a preset value. This preset value is a value for discriminating the level of the brightness of the imaged data, and is stored in advance in the work data storage area 201c of the memory 201.

露出値がこの予め設定された値を越えている場合、CPU205は、被写体の輝度(即ち、撮像により得られる画像データの階調)は高いと判定し、操作部302からシャッタボタン302cが全押しされた旨の情報が供給されたときに撮像データの撮り込みを1枚(画像1枚(1フレーム)分)だけ行う。   When the exposure value exceeds the preset value, the CPU 205 determines that the luminance of the subject (that is, the gradation of the image data obtained by imaging) is high, and the shutter button 302c is fully pressed from the operation unit 302. When the information indicating that the image has been received is supplied, only one image is captured (for one image (one frame)).

一方、露出値がこの予め設定された値以下の場合、CPU205は、被写体の輝度は低いと判定する。そして、CPU205は、操作部302からシャッタボタン302cが全押しされた旨の情報が供給されたときに高解像度画像撮影を行い、高解像度の撮像データの撮り込みを2枚行うように撮像データ生成部21を制御する。そして、CPU205は、画像処理を行うように画像処理装置203に指示する。   On the other hand, when the exposure value is equal to or smaller than the preset value, the CPU 205 determines that the luminance of the subject is low. The CPU 205 captures high-resolution images when information indicating that the shutter button 302c is fully pressed is supplied from the operation unit 302, and generates imaging data so as to capture two high-resolution imaging data. The unit 21 is controlled. Then, the CPU 205 instructs the image processing apparatus 203 to perform image processing.

次に本実施形態に係るデジタルカメラ1の動作を説明する。
CPU205は、操作部302から、シャッタボタン302cが半押しされた旨の操作情報が供給されると、プログラムコード記憶装置204から、撮影処理のプログラムデータを読み出し、図3に示すフローチャートに従い、この撮影処理を実行する。
Next, the operation of the digital camera 1 according to this embodiment will be described.
When the operation information indicating that the shutter button 302c is half-pressed is supplied from the operation unit 302, the CPU 205 reads out the program data of the imaging process from the program code storage device 204, and performs the imaging according to the flowchart shown in FIG. Execute the process.

CPU205は、低解像度画像撮影を行い、低解像度の撮像データを撮り込むように撮像データ生成部21を制御する(ステップS11)。   The CPU 205 performs low-resolution image shooting and controls the imaging data generation unit 21 to capture low-resolution imaging data (step S11).

CPU205は、撮り込んだ撮像データから露出値を算出する(ステップS12)。   The CPU 205 calculates an exposure value from the captured image data (step S12).

CPU205は、操作部302から供給された操作情報に基づいてシャッタボタン302cが全押しされたか否かを判定する(ステップS13)。   The CPU 205 determines whether or not the shutter button 302c is fully pressed based on the operation information supplied from the operation unit 302 (step S13).

シャッタボタン302cが全押しされていないと判定した場合(ステップS13;No)、CPU205は、操作部302から供給された操作情報に基づいてシャッタボタン302c操作が解除されたか否かを判定する(ステップS14)。   When it is determined that the shutter button 302c is not fully pressed (step S13; No), the CPU 205 determines whether or not the operation of the shutter button 302c is released based on the operation information supplied from the operation unit 302 (step S13). S14).

操作が解除されたと判定した場合(ステップS14;Yes)、CPU205は、この撮影処理を終了させる。   If it is determined that the operation has been canceled (step S14; Yes), the CPU 205 ends the photographing process.

操作が解除されていないと判定した場合(ステップS14;No)、フローはステップS13にリターンする。   If it is determined that the operation has not been released (step S14; No), the flow returns to step S13.

一方、ステップS13で、シャッタボタン302cが全押しされたと判別した場合(ステップS13;Yes)、CPU205は、露出値が予め設定された値以下か否かを判定する(ステップS15)。   On the other hand, when it is determined in step S13 that the shutter button 302c is fully pressed (step S13; Yes), the CPU 205 determines whether or not the exposure value is equal to or less than a preset value (step S15).

露出値が予め設定された値以下ではないと判定した場合(ステップS15;No)、CPU205は、高解像度画像撮影を行うように撮像データ生成部21を制御し、高解像度の撮像データを1枚(1画像分)撮り込む(ステップS16)。   When it is determined that the exposure value is not less than or equal to a preset value (step S15; No), the CPU 205 controls the imaging data generation unit 21 to perform high-resolution image shooting, and outputs one piece of high-resolution imaging data. Capture (one image) (step S16).

露出値が予め設定された値以下と判定した場合(ステップS15;Yes)、CPU205は、高解像度画像撮影を行うように撮像データ生成部21を制御し、撮像データを2枚(2画像分)撮り込む(ステップS17)。   When it is determined that the exposure value is equal to or less than a preset value (step S15; Yes), the CPU 205 controls the imaging data generation unit 21 to perform high-resolution image capturing, and captures two images (for two images). Capture (step S17).

CPU205は、ステップS16又はS17で撮り込んだ撮像データをメモリ201のセンサ画像記憶領域201aに記憶する(ステップS18)。   The CPU 205 stores the image data captured in step S16 or S17 in the sensor image storage area 201a of the memory 201 (step S18).

CPU205は、画像処理装置203に画像処理を行うように指示して(ステップS19)、この撮影処理を終了させる。   The CPU 205 instructs the image processing device 203 to perform image processing (step S19), and ends this photographing processing.

画像処理装置203は、CPU205から指示を受けると、プログラムコード記憶装置204から、画像処理のプログラムデータを読み出し、図4に示すフローチャートに従い、画像処理を実行する。   When receiving an instruction from the CPU 205, the image processing apparatus 203 reads out the image processing program data from the program code storage device 204, and executes the image processing according to the flowchart shown in FIG.

画像処理装置203は、メモリ201のセンサ画像記憶領域201aから撮像データを読み出す(ステップS21)。   The image processing device 203 reads the imaging data from the sensor image storage area 201a of the memory 201 (step S21).

画像処理装置203は、読み出した撮像データが1枚か否かを判定する(ステップS22)。   The image processing device 203 determines whether or not the read image data is one (step S22).

撮像データが1枚と判定した場合(ステップS22;Yes)、画像処理装置203は、読み出した撮像データの圧縮符号化を行う(ステップS23)。   When it is determined that there is one image data (step S22; Yes), the image processing apparatus 203 performs compression encoding of the read image data (step S23).

画像処理装置203は、圧縮符号化した撮像データをファイル化して画像データを生成し、メモリ201の処理画像記憶領域201bに記録する(ステップS24)。そして、画像処理装置203は、この画像処理を終了させる。   The image processing apparatus 203 generates image data by converting the compression-encoded imaging data into a file, and records it in the processed image storage area 201b of the memory 201 (step S24). Then, the image processing apparatus 203 ends this image processing.

撮像データが1枚ではないと判定した場合(ステップS22;No)、画像処理装置203は、複数の撮像データから、それぞれ、顔領域の有無を判別する(ステップS25)。   When it is determined that the number of image data is not one (step S22; No), the image processing apparatus 203 determines the presence / absence of a face area from the plurality of image data (step S25).

顔領域がないと判別した場合(ステップS25;No)、画像処理装置203は、撮像データ全体を対応させて、2枚の撮像データについて画素加算合成を行う(ステップS26)。   When it is determined that there is no face area (step S25; No), the image processing apparatus 203 performs pixel addition synthesis for the two pieces of imaging data in association with the entire imaging data (step S26).

画像処理装置203は、画素加算合成して得た画像データの圧縮符号化を行い(ステップS23)、圧縮符号化した画像データをファイル化して、メモリ201の処理画像記憶領域201bに記録する(ステップS24)。そして、画像処理装置203は、この画像処理を終了させる。   The image processing apparatus 203 compresses and encodes the image data obtained by the pixel addition synthesis (step S23), files the compression-encoded image data as a file, and records the file in the processed image storage area 201b of the memory 201 (step S23). S24). Then, the image processing apparatus 203 ends this image processing.

顔領域があると判定した場合(ステップS25;Yes)、画像処理装置203は、この顔領域の顔画像データを取得する(ステップS27)。   When it is determined that there is a face area (step S25; Yes), the image processing apparatus 203 acquires face image data of the face area (step S27).

画像処理装置203は、撮像データのうちの顔領域の画像データと取得した顔領域の顔画像データとが対応するように射影変換と位置合わせとを行いつつ、撮像データと取得した顔領域の顔画像データとの画素加算合成を画素毎に行う(ステップS28)。即ち、2つの顔画像内の対応する2つの画素の階調データG1とG2を加算する。例えば、一方の画像の階調データが100で、他方が99であるとすれば、加算により、新たな階調199を求める。尚、一定の重みを付け、例えば、W1・G1+W2・G2というように加算してもよい。   The image processing device 203 performs projection conversion and alignment so that the image data of the face area in the imaged data corresponds to the face image data of the acquired face area, and the face of the acquired face area. Pixel addition synthesis with image data is performed for each pixel (step S28). That is, the gradation data G1 and G2 of the corresponding two pixels in the two face images are added. For example, if the gradation data of one image is 100 and the other is 99, a new gradation 199 is obtained by addition. It is also possible to add a certain weight and add, for example, W1 · G1 + W2 · G2.

画像処理装置203は、画素加算合成した画像データの圧縮符号化を行い(ステップS23)、圧縮符号化した画像データをファイル化して、メモリ201の処理画像記憶領域201bに記録する(ステップS24)。そして、画像処理装置203は、この画像処理を終了させる。   The image processing apparatus 203 performs compression encoding of the image data that has undergone pixel addition synthesis (step S23), files the compression encoded image data as a file, and records the file in the processed image storage area 201b of the memory 201 (step S24). Then, the image processing apparatus 203 ends this image processing.

次に、この画像処理装置203の実行する画像処理を具体的に説明する。
ユーザがシャッタボタン302cを半押ししたときに、CPU205は、図5に示すような低解像度の撮像データphoto_10を撮り込んだものとする(ステップS11の処理)。
Next, image processing executed by the image processing apparatus 203 will be specifically described.
When the user half-presses the shutter button 302c, the CPU 205 captures low-resolution image data photo_10 as shown in FIG. 5 (processing in step S11).

この撮像データphoto_10の露出値が予め設定された値を越えている場合(ステップS15;No)、CPU205は、高解像度の撮像データphoto_10を1枚だけ撮り込む(ステップS16の処理)。   When the exposure value of the imaging data photo_10 exceeds a preset value (step S15; No), the CPU 205 captures only one piece of high-resolution imaging data photo_10 (processing in step S16).

CPU205は、この撮像データphoto_10を、メモリ201のセンサ画像記憶領域201aに記憶するように撮像データ生成部21を制御する(ステップS18の処理)。   The CPU 205 controls the imaging data generation unit 21 to store the imaging data photo_10 in the sensor image storage area 201a of the memory 201 (processing in step S18).

画像処理装置203は、メモリ201のセンサ画像記憶領域201aからこの撮像データphoto_10を読み出す(ステップS21)。   The image processing device 203 reads the imaged data photo_10 from the sensor image storage area 201a of the memory 201 (step S21).

画像処理装置203は、撮像データphoto_10が1枚だけなので(ステップS22;Yes)、画素加算合成を行わずに、撮像データphoto_10の圧縮符号化を行う(ステップS23の処理)。   Since the image processing device 203 has only one image data photo_10 (step S22; Yes), the image processing device 203 performs compression encoding of the image data photo_10 without performing pixel addition synthesis (processing in step S23).

画像処理装置203は、圧縮符号化した撮像データphoto_10をファイル化して、メモリ201の処理画像記憶領域201bに記録する(ステップS24の処理)。   The image processing apparatus 203 converts the compression-encoded imaging data photo_10 into a file and records it in the processed image storage area 201b of the memory 201 (processing in step S24).

次に、図6(a)に示すように、ユーザがシャッタボタン302cを半押ししたときに撮り込んだ撮像データphoto_20の露出値が予め設定された値以下となったものとする(ステップS15;Yes)。   Next, as shown in FIG. 6A, it is assumed that the exposure value of the imaging data photo_20 captured when the user half-presses the shutter button 302c is equal to or less than a preset value (step S15; Yes).

この場合、CPU205は、シャッタボタン302cが全押しされたとき(ステップS13;Yes)、図6(b)に示すように2枚の撮像データphoto_21,photo_22を撮り込む(ステップS17)。   In this case, when the shutter button 302c is fully pressed (step S13; Yes), the CPU 205 captures two pieces of imaging data photo_21 and photo_22 as shown in FIG. 6B (step S17).

図6(b)に示すように、2枚の撮像データphoto_21,photo_22に顔領域が存在しない場合、画像処理装置203は、作業データ記憶領域201cから、顔の特徴データを読み出して、この特徴データと撮像データとを比較することにより、顔領域が無いことを判別する(ステップS25;No)。   As shown in FIG. 6B, when there is no face area in the two pieces of imaged data photo_21 and photo_22, the image processing apparatus 203 reads the face feature data from the work data storage area 201c, and this feature data. Is compared with the imaging data to determine that there is no face area (step S25; No).

この場合、画像処理装置203は、図7に示すように、撮像データphoto_21,photo_22の撮像データ全体の画素加算合成を画素毎に行う(ステップS26)。画像処理装置203は、画素加算合成を行った結果、輝度が引き上げられた画像データphoto_23を取得する。   In this case, as shown in FIG. 7, the image processing apparatus 203 performs pixel addition synthesis of the entire imaging data of the imaging data photo_21 and photo_22 for each pixel (step S26). The image processing apparatus 203 acquires image data photo_23 whose luminance is increased as a result of performing pixel addition synthesis.

画像処理装置203は、画像データphoto_23の圧縮符号化を行い(ステップS23の処理)、圧縮符号化した画像データphoto_23をファイル化して、メモリ201の処理画像記憶領域201bに記録する(ステップS24の処理)。   The image processing device 203 compresses and encodes the image data photo_23 (processing in step S23), files the compressed and encoded image data photo_23, and records it in the processed image storage area 201b of the memory 201 (processing in step S24). ).

次に、図8(a)に示すように、ユーザがシャッタボタン302cを半押ししたときに撮り込んだ撮像データphoto_30の露出値が予め設定された値以下となったものとする(ステップS15;Yes)。   Next, as shown in FIG. 8A, it is assumed that the exposure value of the imaging data photo_30 captured when the user half-presses the shutter button 302c is equal to or less than a preset value (step S15; Yes).

この場合、CPU205は、シャッタボタン302cが全押しされたとき(ステップS13;Yes)、図8(b)に示すように2枚の撮像データphoto_31,photo_32を撮り込む(ステップS17)。   In this case, when the shutter button 302c is fully pressed (step S13; Yes), the CPU 205 captures two pieces of imaging data photo_31 and photo_32 as shown in FIG. 8B (step S17).

図8(b)に示すように2枚の撮像データphoto_31,photo_32に顔領域がある場合、画像処理装置203は、作業データ記憶領域201cから読み出した顔の特徴データと撮像データとを比較することにより、顔領域があることを判別する(ステップS25の処理)。そして、画像処理装置203は、図9に示すように、撮像データphoto_31から顔領域の顔画像データphoto_33を取得する(ステップS27の処理)。   As shown in FIG. 8B, when there are face areas in the two pieces of imaging data photo_31 and photo_32, the image processing device 203 compares the facial feature data read from the work data storage area 201c with the imaging data. Thus, it is determined that there is a face area (processing in step S25). Then, as illustrated in FIG. 9, the image processing apparatus 203 acquires face image data photo_33 of the face area from the imaging data photo_31 (processing in step S27).

画像処理装置203は、取得した顔画像データphoto_33と撮像データphoto_32との射影変換と位置合わせとを行いつつ、画素加算合成を行う(ステップS28の処理)。画素加算合成を行った結果、画像処理装置203は、ストロボ光を照射しなくても顔領域の画像の輝度が引き上げられた画像データphoto_34を取得する。   The image processing apparatus 203 performs pixel addition synthesis while performing projective transformation and alignment of the acquired face image data photo_33 and captured image data photo_32 (processing in step S28). As a result of performing the pixel addition synthesis, the image processing apparatus 203 acquires image data photo_34 in which the brightness of the image in the face area is increased without irradiating the strobe light.

画像処理装置203は、画像データphoto_34の圧縮符号化を行い(ステップS23の処理)、圧縮符号化した画像データphoto_34をファイル化して、メモリ201の処理画像記憶領域201bに記録する(ステップS24の処理)。   The image processing device 203 compresses and encodes the image data photo_34 (processing in step S23), files the compressed and encoded image data photo_34 as a file, and records it in the processed image storage area 201b of the memory 201 (processing in step S24). ).

以上説明したように、本実施形態によれば、CPU205は、低解像度の撮像データの露出値が予め設定された値以下の場合、2枚の撮像データの撮り込みを行う。   As described above, according to the present embodiment, the CPU 205 captures two pieces of imaging data when the exposure value of the low-resolution imaging data is equal to or less than a preset value.

画像処理装置203は、この2枚の撮像データにおいて、顔領域があることを判別すると、この顔領域から顔画像データを取得して、位置合わせを行いつつ、もう1枚の撮像データとの画素加算合成を画素毎に行う。   When the image processing apparatus 203 determines that there is a face area in the two pieces of imaging data, the image processing apparatus 203 acquires the face image data from the face area, aligns the pixels, and aligns the pixels with the other imaging data. Additive synthesis is performed for each pixel.

従って、輝度が低い場合であっても、ストロボ光を照射せずに、顔画像の輝度を引き上げることができる。   Therefore, even when the brightness is low, the brightness of the face image can be increased without irradiating the strobe light.

また、ストロボ光を照射しないので、主要な被写体ではないものが撮影画角に含まれているような場合でも、主要な被写体が鮮明な画像を取得することができる。   In addition, since the strobe light is not irradiated, a clear image can be obtained from the main subject even if the main field of view includes an object that is not the main subject.

また、2枚の撮像データを用いて輝度を引き上げるようにしたので、1枚の撮像データの輝度を引き上げる場合と比較して、CCDの感度を増加させたことによる熱ノイズの影響を抑制することができる。   In addition, since the brightness is increased by using two pieces of imaging data, the influence of thermal noise caused by increasing the sensitivity of the CCD is suppressed as compared with the case where the luminance of one piece of imaging data is increased. Can do.

尚、本発明を実施するにあたっては、種々の形態が考えられ、上記実施形態に限られるものではない。
例えば、上記実施形態では、撮像データを2枚とした。しかし、撮像データは、2枚以上であれば、何枚でもよい。また、画像処理装置203は、顔領域が存在すれば、複数枚の撮像データから、顔領域の顔画像データを複数枚取得し、上記実施形態と同じように複数の撮像データと複数枚の顔画像データとの画素加算合成を画素毎に行うようにしてもよい。このようにすれば、顔領域の画像の輝度をさらに引き上げることができる。
In carrying out the present invention, various forms are conceivable and the present invention is not limited to the above embodiment.
For example, in the above embodiment, two pieces of imaging data are used. However, any number of imaging data may be used as long as it is two or more. Further, if there is a face area, the image processing apparatus 203 acquires a plurality of face image data of the face area from a plurality of pieces of image data, and a plurality of pieces of image data and a plurality of faces as in the above embodiment. You may make it perform pixel addition composition with image data for every pixel. In this way, the brightness of the face area image can be further increased.

上記実施形態では、画像処理装置203は、顔領域の顔画像データのみを取得するようにした。しかし、画像処理装置203は、顔領域だけでなく人物全体を抽出するようにしてもよい。このようにすれば、顔領域だけでなく、人物全体の輝度を引き上げることができる。   In the above embodiment, the image processing apparatus 203 acquires only the face image data of the face area. However, the image processing apparatus 203 may extract not only the face area but also the entire person. In this way, it is possible to increase not only the face area but also the brightness of the entire person.

上記実施形態では、画像処理装置203は、顔領域を検出する場合、予め記憶されている顔の特徴データと撮像データとを比較することにより、顔領域を検出するものとした。しかし、顔領域の検出はこのような処理に限定されるものではない。   In the above embodiment, when detecting the face area, the image processing apparatus 203 detects the face area by comparing the facial feature data stored in advance with the imaging data. However, the detection of the face area is not limited to such processing.

例えば、画像処理装置203は、撮像データからエッジ画像を検出し、検出した顔のエッジ画像に基づいて顔領域を判別するようにしてもよい。あるいは、画像処理装置203は、肌色を検出することにより顔領域を判別するようにしてもよい。   For example, the image processing apparatus 203 may detect an edge image from the captured data and determine the face area based on the detected edge image of the face. Alternatively, the image processing apparatus 203 may determine the face area by detecting the skin color.

上記実施形態では、画像処理装置203は、特定の画像領域として人物の顔領域を検出するようにした。しかし、特定の画像領域は、人物の顔領域に限られるものではなく、動物の画像領域等であってもよい。また、予め特定の画像領域を指定できるようにすれば、この特定の画像領域の特定画像データを強調することもできる。例えば、特定の機械、特定の風景、特定のマーク・記号などでもよい。   In the above embodiment, the image processing apparatus 203 detects a human face area as a specific image area. However, the specific image region is not limited to the human face region, and may be an animal image region or the like. If a specific image area can be designated in advance, the specific image data of the specific image area can be emphasized. For example, a specific machine, a specific landscape, a specific mark / symbol, and the like may be used.

(第2の実施の形態)
第1の実施の形態においては、撮像データの画像の全ての領域で特定画像領域を探したが、撮像データの画像の特定の部位だけで特定画像領域を探すようにすることもできる。
例えば、今日のデジタルカメラの多くは、いわゆるオートフォーカス機能を備えて、画像の特定の部位(普通は画像の中央)にある被写体に焦点を合わせるようにされている。このようなオートフォーカス機能の対象となる画像の部位を、本明細書ではフォーカスポイント検出領域と呼ぶことにする。
(Second Embodiment)
In the first embodiment, the specific image region is searched for in all the regions of the imaged data image. However, the specific image region may be searched only for a specific part of the imaged data image.
For example, many of today's digital cameras have a so-called autofocus function so as to focus on a subject at a specific part of an image (usually the center of the image). Such a portion of the image that is the target of the autofocus function is referred to as a focus point detection region in this specification.

フォーカスポイント検出領域は、画像の中心となる領域であるから、フォーカスポイント検出領域に共通する特定画像領域が存在する場合だけ、当該特定画像領域の画像について、画素加算合成を行って、フォーカスポイント検出領域にある特定画像が際立つようにしたいという要請がある。
そこで、本発明の第2の実施の形態では、複数の撮像データの画像のフォーカスポイント検出領域に共通して特定画像領域があるか否かを判定して画像処理を行う手順を説明する。
なお、本実施の形態においては、デジタルカメラ1の構成は、図1及び2を参照して説明した第1実施形態のデジタルカメラ1の構成と同一である。また、撮像処理も、図3を参照して説明した第1実施形態の撮像処理と同一である。
そこで、以下、特徴的な画像処理について説明する。
Since the focus point detection area is the center of the image, only when there is a specific image area common to the focus point detection area, pixel addition synthesis is performed on the image of the specific image area to detect the focus point. There is a request to make a specific image in a region stand out.
Therefore, in the second embodiment of the present invention, a procedure for performing image processing by determining whether or not there is a specific image area in common in the focus point detection areas of images of a plurality of imaging data will be described.
In the present embodiment, the configuration of the digital camera 1 is the same as the configuration of the digital camera 1 of the first embodiment described with reference to FIGS. The imaging process is also the same as the imaging process of the first embodiment described with reference to FIG.
Therefore, characteristic image processing will be described below.

画像処理装置203は、CPU205から指示を受けて、プログラムコード記憶装置204から、画像処理のプログラムデータを読み出し、図10に示したフローチャートにあるような画像処理を開始する。   In response to an instruction from the CPU 205, the image processing apparatus 203 reads the image processing program data from the program code storage device 204, and starts image processing as shown in the flowchart of FIG.

画像処理装置203は、メモリ201のセンサ画像記憶領域201aから撮像データを読み出す(ステップS31)。   The image processing device 203 reads the imaging data from the sensor image storage area 201a of the memory 201 (step S31).

そして、画像処理装置203は、読み出した撮像データが1枚か否かを判別する(ステップS32)。   Then, the image processing apparatus 203 determines whether or not the read image data is one (step S32).

撮像データが1枚のみである場合(ステップS32;Yes)、画像処理装置203は、読み出した撮像データの圧縮符号化を行う(ステップS37)。   If there is only one image data (step S32; Yes), the image processing apparatus 203 performs compression encoding of the read image data (step S37).

そして、画像処理装置203は、圧縮符号化した撮像データをファイル化して画像データを生成し、メモリ201の処理画像記憶領域201bに記録して(ステップS38)、この画像処理を終了させる。   Then, the image processing device 203 generates image data by converting the compression-encoded imaging data into a file, records it in the processed image storage area 201b of the memory 201 (step S38), and ends this image processing.

撮像データが複数ある場合は(ステップS32;No)、画像処理装置203は、複数の撮像データについて、それぞれ、特定画像領域の有無を判別する(ステップS33)。   When there are a plurality of pieces of imaging data (step S32; No), the image processing apparatus 203 determines the presence or absence of a specific image region for each of the plurality of pieces of imaging data (step S33).

特定画像領域がないと判断した場合(ステップS33;No)、画像処理装置203は、撮像データ全体を対応させて、2枚の撮像データについて画素加算合成を行う(ステップS39)。   When it is determined that there is no specific image area (step S33; No), the image processing apparatus 203 performs pixel addition synthesis on the two pieces of imaging data in association with the entire imaging data (step S39).

特定画像領域があると判別した場合(ステップS33;Yes)、画像処理装置203は、センサ画像記憶領域201aからフォーカスポイント検出領域の位置データを読み出し、撮像データのフォーカスポイント検出領域に特定画像領域が存在するか否かを判別する(ステップS34)。   If it is determined that there is a specific image area (step S33; Yes), the image processing apparatus 203 reads the position data of the focus point detection area from the sensor image storage area 201a, and the specific image area is in the focus point detection area of the imaging data. It is determined whether or not it exists (step S34).

フォーカスポイント検出領域に特定画像領域が存在しないと判断した場合(ステップS34;No)、画像処理装置203は、撮像データ全体を対応させて、2枚の撮像データについて画素加算合成を行う(ステップS39)。   If it is determined that the specific image area does not exist in the focus point detection area (step S34; No), the image processing apparatus 203 performs pixel addition synthesis on the two pieces of imaging data in association with the entire imaging data (step S39). ).

フォーカスポイント検出領域に特定画像領域が存在すると判断した場合(ステップS34;Yes)、画像処理装置203は、2枚の撮像データを基準撮像データと追加撮像データに区別し、追加撮像データの特定画像領域の画像データを取得する(ステップS35)。   When it is determined that the specific image area exists in the focus point detection area (step S34; Yes), the image processing apparatus 203 distinguishes the two pieces of imaging data into the reference imaging data and the additional imaging data, and the specific image of the additional imaging data. Image data of the area is acquired (step S35).

画像処理装置203は、基準撮像データの特定画像領域の画像データと、追加撮像データから取得した特定画像領域の画像データとが対応するように射影変換と位置合わせとを行い、そして画素加算合成を画素毎に行う(ステップS36)。   The image processing device 203 performs projective transformation and alignment so that the image data of the specific image area of the reference image data corresponds to the image data of the specific image area acquired from the additional image data, and performs pixel addition synthesis. This is performed for each pixel (step S36).

画像処理装置203は、画素加算合成した画像データの圧縮符号化(ステップS37)とファイル化を行い、メモリ201の処理画像記憶領域201bに記録し(ステップS38)、画像処理を終了させる。   The image processing device 203 performs compression encoding (step S37) and file formation of the image data that has undergone pixel addition synthesis, records it in the processed image storage area 201b of the memory 201 (step S38), and ends the image processing.

次に、この画像処理装置203が実行する画像処理を具体的に説明する。   Next, the image processing executed by the image processing apparatus 203 will be specifically described.

特定画像データとして、図11に示すような車の画像photo_40が作業データ記憶領域201cに記憶されている。   As specific image data, a car image photo_40 as shown in FIG. 11 is stored in the work data storage area 201c.

センサ画像記憶領域201aに図12に示すような2枚の撮像データphoto_41、photo_42が記憶されている場合は、画像処理装置203が、photo_41、photo_42と車の画像photo_40とを比較して、photo_41、photo_42に特定画像領域がないことを検出する(ステップS33;No)。   When two pieces of imaging data photo_41 and photo_42 as shown in FIG. 12 are stored in the sensor image storage area 201a, the image processing device 203 compares photo_41 and photo_42 with the car image photo_40, It is detected that there is no specific image area in photo_42 (step S33; No).

photo_41、photo_42に特定画像領域がないので、画像処理装置203は、photo_41、photo_42の撮像データ全体の画素加算合成を画素毎に行って、画像全体の輝度を引き上げる。(ステップS39)。   Since there is no specific image area in photo_41 and photo_42, the image processing apparatus 203 performs pixel addition synthesis of the entire imaging data of photo_41 and photo_42 for each pixel to increase the luminance of the entire image. (Step S39).

センサ画像記憶領域201aに図13(a)に示すような2枚の撮像データphoto_51、photo_52が記憶されている場合は、画像処理装置203がphoto_51、photo_52と車の画像photo_40とを比較して、photo_51、photo_52に特定画像領域があることを検出する(ステップS33;Yes)。   When two pieces of imaging data photo_51 and photo_52 as shown in FIG. 13A are stored in the sensor image storage area 201a, the image processing device 203 compares photo_51 and photo_52 with the car image photo_40, It is detected that there is a specific image area in photo_51 and photo_52 (step S33; Yes).

さて、本実施形態では、図13(b)に示すような、フォーカスポイント検出領域を特定の画像領域の有無を判別する部位としている。そこで、特定画像領域があると判別した場合は、画像処理装置203が、photo_51のフォーカスポイント検出領域R1(図13(b)参照)に特定画像領域が存在するか否か判別する(ステップS34)。   In the present embodiment, the focus point detection area as shown in FIG. 13B is a part for determining the presence or absence of a specific image area. Therefore, if it is determined that there is a specific image area, the image processing apparatus 203 determines whether or not the specific image area exists in the focus point detection area R1 (see FIG. 13B) of photo_51 (step S34). .

この場合、フォーカスポイント検出領域R1には特定画像領域が存在しないので(ステップS34;No)、画像処理装置203は、photo_51、photo_52の撮像データ全体の画素加算合成を行って、画像全体の輝度を引き上げる(ステップS39)。   In this case, since the specific image region does not exist in the focus point detection region R1 (step S34; No), the image processing device 203 performs pixel addition synthesis of the entire imaged data of photo_51 and photo_52, thereby reducing the luminance of the entire image. Pull up (step S39).

センサ画像記憶領域201aに図14(a)の2枚の撮像データphoto_61、photo_62が記憶されている場合は、画像処理装置203はphoto_61、photo_62と車の画像photo_40とを比較することにより、photo_61、photo_62に特定画像領域があることを検出する(ステップS33;yes)。   When the two pieces of imaging data photo_61 and photo_62 of FIG. 14A are stored in the sensor image storage area 201a, the image processing device 203 compares photo_61 and photo_62 with the car image photo_40 to obtain photo_61, It is detected that the specific image area exists in photo_62 (step S33; yes).

次に、画像処理装置203は、photo_61のフォーカスポイント検出領域R2(図14(b)参照)に特定画像領域が存在するか否かを判別する(ステップS32)   Next, the image processing apparatus 203 determines whether or not a specific image area exists in the focus point detection area R2 (see FIG. 14B) of photo_61 (step S32).

画像処理装置203が、フォーカスポイントR2に特定画像領域が存在することを検出すると(ステップS34;Yes)、図15に示すように、photo_61から特定画像領域の画像データphoto_63を取得する(ステップS35)。   When the image processing apparatus 203 detects that the specific image area exists at the focus point R2 (step S34; Yes), as shown in FIG. 15, the image data photo_63 of the specific image area is acquired from photo_61 (step S35). .

画像処理装置203は、画像データphoto_63と撮像データphoto_62 との射影変換と位置合わせとを行い、そして画素加算合成し、画像データphoto_64を取得する(ステップS36)。   The image processing device 203 performs projective transformation and alignment between the image data photo_63 and the imaging data photo_62, and performs pixel addition synthesis to obtain image data photo_64 (step S36).

以上のように、フォーカスポイント検出領域に共通する特定画像が存在する場合にのみ、当該特定画像の画素加算合成を行うので、フォーカスポイント検出領域にある特定画像を際立たせることができる。   As described above, only when there is a specific image common to the focus point detection area, pixel addition synthesis of the specific image is performed, so that the specific image in the focus point detection area can be made to stand out.

前述したように、特定画像は、人物の顔画像や車両の画像に限られない。メモリ201に、任意の特定画像のデータを記録しておいて、その特定画像を撮像データの中から探すことができる。
また、特定の部位もフォーカスポイントに限定されず、任意である。例えば、画像を表示部301に表示させ、その上で、任意のインタフェースにより、領域を指定させるようにしてもよい。
As described above, the specific image is not limited to a human face image or a vehicle image. Data of an arbitrary specific image can be recorded in the memory 201, and the specific image can be searched from the imaging data.
Further, the specific part is not limited to the focus point and is arbitrary. For example, an image may be displayed on the display unit 301, and then an area may be designated by an arbitrary interface.

また、画像を加算合成する手法も任意であり、上述のように、重み付け加算でも可能である。   Also, the method of adding and synthesizing images is arbitrary, and as described above, weighted addition is also possible.

また、上記実施形態では、プログラムが、それぞれメモリ等に予め記憶されているものとして説明した。しかし、画像処理装置、デジタルカメラ(撮影装置)を、装置の全部又は一部として動作させ、あるいは、上述の処理を実行させるためのプログラムを、フレキシブルディスク、CD−ROM(Compact Disk Read-Only Memory)、DVD(Digital Versatile Disk)、MO(Magneto Optical disk)などのコンピュータ読み取り可能な記録媒体に格納して配布し、これを別のコンピュータにインストールし、上述の手段として動作させ、あるいは、上述の工程を実行させてもよい。   In the above-described embodiment, the program is described as being stored in advance in a memory or the like. However, a program for operating an image processing apparatus and a digital camera (photographing apparatus) as all or part of the apparatus, or executing the above-described processing is stored on a flexible disk, a CD-ROM (Compact Disk Read-Only Memory). ), DVD (Digital Versatile Disk), MO (Magneto Optical disk) and the like stored in a computer-readable recording medium and distributed, installed in another computer and operated as the above-mentioned means, or The process may be executed.

さらに、インターネット上のサーバ装置が有するディスク装置等にプログラムを格納しておき、例えば、搬送波に重畳させて、コンピュータにダウンロード等するものとしてもよい。   Furthermore, the program may be stored in a disk device or the like included in a server device on the Internet, and may be downloaded onto a computer by being superimposed on a carrier wave, for example.

本発明の実施形態に係るデジタルカメラ1の構成を示すブロック図である。1 is a block diagram illustrating a configuration of a digital camera 1 according to an embodiment of the present invention. 図1に示すメモリの記憶領域を示す図である。It is a figure which shows the memory area of the memory shown in FIG. 図1に示すCPUが実行する撮影処理を示すフローチャートである。It is a flowchart which shows the imaging | photography process which CPU shown in FIG. 1 performs. 図1に示す画像処理装置が実行する画像処理を示すフローチャートである。3 is a flowchart showing image processing executed by the image processing apparatus shown in FIG. 1. 画像処理の具体例として露出値が予め設定された値を越えた撮像データを示す図である。It is a figure which shows the imaging data in which the exposure value exceeded the preset value as a specific example of image processing. 画像処理の具体例として露出値が予め設定された値以下で、顔画像が存在しない撮像データを示す図であり、(a)は低解像度の撮像データ、(b)は、取得した2枚の撮像データ(高解像度)を示す。It is a figure which shows the imaging data in which an exposure value is below a preset value as a specific example of image processing, and a face image does not exist, (a) is low-resolution imaging data, (b) is two acquired images. Imaging data (high resolution) is shown. 図6(b)に示す2枚の撮像データの画素加算合成を示す図である。FIG. 7 is a diagram illustrating pixel addition synthesis of two pieces of imaging data illustrated in FIG. 画像処理の具体例として露出値が予め設定された値以下で、顔画像が存在する撮像データを示す図であり、(a)は低解像度の撮像データ、(b)は、取得した2枚の撮像データ(高解像度)を示す。It is a figure which shows the imaging data in which an exposure value is below a preset value as a specific example of an image process, and a face image exists, (a) is low-resolution imaging data, (b) is two acquired images. Imaging data (high resolution) is shown. 図8(b)に示す2枚の撮像データの画素加算合成を示す図である。FIG. 9 is a diagram illustrating pixel addition synthesis of two pieces of imaging data illustrated in FIG. 実施形態2において図1に示す画像処理装置が実行する画像処理を示すフローチャートである。6 is a flowchart showing image processing executed by the image processing apparatus shown in FIG. 1 in Embodiment 2. 画像処理の具体例として、特定画像領域の特徴データを示す図である。It is a figure which shows the characteristic data of a specific image area as a specific example of image processing. 画像処理の具体例として、特定画像領域が存在しない撮像データを示す図である。It is a figure which shows the imaging data in which a specific image area does not exist as a specific example of image processing. 画像処理の具体例として、(a)は特定画像領域が存在する撮像データを示す図であり、(b)は図13(a)の撮像データにフォーカスポイント検出領域を示す図である。As a specific example of the image processing, (a) is a diagram illustrating imaging data in which a specific image region exists, and (b) is a diagram illustrating a focus point detection region in the imaging data in FIG. 13 (a). 画像処理の具体例として、(a)は特定画像領域が存在する撮像データを示す図であり、(b)は図14(a)の撮像データにフォーカスポイント検出領域を示す図である。As a specific example of the image processing, (a) is a diagram illustrating imaging data in which a specific image region exists, and (b) is a diagram illustrating a focus point detection region in the imaging data in FIG. 14 (a). 図14(a)に示す2枚の撮像データの画素加算合成を示す図である。It is a figure which shows the pixel addition composition of two imaging data shown to Fig.14 (a).

符号の説明Explanation of symbols

1・・・デジタルカメラ、203・・・画像処理装置、205・・・CPU、R1 ・・・フォーカスポイント検出領域、R2 ・・・フォーカスポイント検出領域   DESCRIPTION OF SYMBOLS 1 ... Digital camera, 203 ... Image processing apparatus, 205 ... CPU, R1 ... Focus point detection area, R2 ... Focus point detection area

Claims (7)

撮影手段と、
この撮影手段に対し複数回の撮影を行わせて複数の撮像データを取得するよう制御する第1の撮影制御手段と、
この第1の撮影制御手段による制御により取得した複数の撮像データに共通して特定の画像領域があるか否かを判別する判別手段と、
この判別手段によって特定の画像領域があると判別された場合、前記複数の撮像データにおける一の撮像データの前記特定の画像領域に、前記複数の撮像データにおける前記一の撮像データを除く他の撮像データの前記特定の画像領域部分のみを画素加算して画像データを生成する第1の画像データ生成手段と、
前記判別手段によって特定の画像領域がないと判別された場合、前記複数の撮像データにおける一の撮像データの全体について、前記複数の撮像データにおける前記一の撮像データを除く他の撮像データの全体を画素加算して画像データを生成する第2の画像データ生成手段と、
を備えることを特徴とする撮影装置。
Photographing means;
A first imaging control unit that controls the imaging unit to perform imaging a plurality of times and acquire a plurality of imaging data;
A discriminating unit for discriminating whether or not there is a specific image area in common among a plurality of imaging data acquired by control by the first imaging control unit ;
When it is determined by the determining means that there is a specific image area, the other image of the plurality of imaging data excluding the one imaging data in the specific image area of the one imaging data First image data generation means for generating image data by pixel-adding only the specific image region portion of the data;
When it is determined by the determining means that there is no specific image area, the entire other imaging data excluding the one imaging data in the plurality of imaging data is the entire one imaging data in the plurality of imaging data. Second image data generation means for generating image data by pixel addition;
An imaging apparatus comprising:
前記判別手段は、前記複数の撮像データの画像の特定の部位に共通して特定の画像領域があるか否かを判別することを特徴とする、請求項1に記載の撮影装置。   The imaging apparatus according to claim 1, wherein the determination unit determines whether or not there is a specific image region common to specific parts of the images of the plurality of imaging data. 前記特定の部位は、前記撮影手段が焦点調整を行うフォーカスポイント検出領域である
ことを特徴とする、請求項2に記載の撮影装置。
The imaging apparatus according to claim 2, wherein the specific part is a focus point detection area in which the imaging unit performs focus adjustment.
前記判別手段による判別のために複数の撮像データを取得する以前に、前記撮影手段に対し複数回の撮影を行わせ、前記判別手段が判別に用いる解像度より低い解像度の撮像データを取得するよう制御する第2の撮影制御手段と、
この第2の撮影制御手段によって取得された低解像度の撮像データの輝度値より露出値を算出する露出値算出手段と、
この露出値算出手段によって算出された露出値と予め設定された値とを比較する比較手段と、を更に備え、
前記第1の撮影制御手段は更に、前記比較手段による比較の結果、前記露出値が前記予め設定された値以下である場合に撮影を複数回行うよう制御することを特徴とする、請求項1乃至3のいずれか1項に記載の撮影装置。
Before acquiring a plurality of imaging data for determination by the determination unit, the imaging unit is caused to perform a plurality of shootings, and control is performed so as to acquire imaging data having a resolution lower than the resolution used by the determination unit. Second imaging control means for
Exposure value calculating means for calculating an exposure value from the luminance value of the low-resolution imaging data acquired by the second imaging control means;
A comparison means for comparing the exposure value calculated by the exposure value calculation means with a preset value;
Furthermore the first imaging control means, comparison result from the comparing means, the exposure value and controlling to perform a plurality of times shooting when the is less than a predetermined value, according to claim 1 4. The photographing apparatus according to any one of items 1 to 3 .
前記特定の画像領域は、人物又は動物の顔画像領域であることを特徴とする、請求項1又は2に記載の撮影装置。   The photographing apparatus according to claim 1, wherein the specific image area is a face image area of a person or an animal. 記憶手段を備えるとともに、
前記特定の画像領域は、前記記憶手段に記憶された特定の画像と実質的に同一の画像が撮像された領域であることを特徴とする、請求項1乃至4のいずれか1項に記載の撮影装置。
With storage means,
The said specific image area | region is an area | region where the image substantially the same as the specific image memorize | stored in the said memory | storage means was imaged, The any one of Claim 1 thru | or 4 characterized by the above-mentioned. Shooting device.
撮像装置が具備するコンピュータを、
複数回の撮影を行わせて複数の撮像データを取得するよう制御する撮影制御手段、
この撮影制御手段による制御により取得した複数の撮像データに共通して特定の画像領域があるか否かを判別する判別手段、
この判別手段によって特定の画像領域があると判別された場合、前記複数の撮像データにおける一の撮像データの前記特定の画像領域に、前記複数の撮像データにおける前記一の撮像データを除く他の撮像データの前記特定の画像領域部分のみを画素加算して画像データを生成する第1の画像データ生成手段、
前記判別手段によって特定の画像領域がないと判別された場合、前記複数の撮像データにおける一の撮像データの全体について、前記複数の撮像データにおける前記一の撮像データを除く他の撮像データの全体を画素加算して画像データを生成する第2の画像データ生成手段、
として機能させることを特徴とするプログラム。
A computer included in the imaging apparatus;
Shooting control means for controlling to acquire a plurality of imaging data by performing a plurality of shootings;
Discriminating means for discriminating whether or not there is a specific image area common to a plurality of imaging data acquired by the control by the imaging control means;
When it is determined by the determining means that there is a specific image area, the other image of the plurality of imaging data excluding the one imaging data in the specific image area of the one imaging data First image data generation means for generating image data by pixel-adding only the specific image region portion of the data;
When it is determined by the determining means that there is no specific image area, the entire other imaging data excluding the one imaging data in the plurality of imaging data is the entire one imaging data in the plurality of imaging data. Second image data generation means for generating image data by pixel addition;
A program characterized by functioning as
JP2008203649A 2007-09-28 2008-08-06 Imaging apparatus and program Active JP5239601B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008203649A JP5239601B2 (en) 2007-09-28 2008-08-06 Imaging apparatus and program
US12/239,083 US7960676B2 (en) 2007-09-28 2008-09-26 Image capture device to obtain an image with a bright subject, even when the background is dark, and recording medium
US13/102,450 US8227738B2 (en) 2007-09-28 2011-05-06 Image capture device for creating image data from a plurality of image capture data, and recording medium therefor

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007256213 2007-09-28
JP2007256213 2007-09-28
JP2008203649A JP5239601B2 (en) 2007-09-28 2008-08-06 Imaging apparatus and program

Publications (2)

Publication Number Publication Date
JP2009100450A JP2009100450A (en) 2009-05-07
JP5239601B2 true JP5239601B2 (en) 2013-07-17

Family

ID=40702983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008203649A Active JP5239601B2 (en) 2007-09-28 2008-08-06 Imaging apparatus and program

Country Status (1)

Country Link
JP (1) JP5239601B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7175066B1 (en) 2022-09-20 2022-11-18 有限会社サンワテック Pipe inner bottom cover structure

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101714641B1 (en) * 2010-12-29 2017-03-09 엘지이노텍 주식회사 Camera enhancing image sharpness, enhancement method for camera image and recording medium thereof

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3704045B2 (en) * 2001-01-15 2005-10-05 株式会社ニコン Target object tracking device
JP2004221992A (en) * 2003-01-15 2004-08-05 Canon Inc Imaging device and program
JP2006203395A (en) * 2005-01-19 2006-08-03 Konica Minolta Holdings Inc Moving body recognition system and moving body monitor system
JP2006211139A (en) * 2005-01-26 2006-08-10 Sanyo Electric Co Ltd Imaging apparatus
JP2006258943A (en) * 2005-03-15 2006-09-28 Fujinon Corp Autofocus system
JP4497001B2 (en) * 2005-03-22 2010-07-07 株式会社ニコン Image processing apparatus, electronic camera, and image processing program
JP4574459B2 (en) * 2005-06-09 2010-11-04 キヤノン株式会社 Image capturing apparatus, control method therefor, program, and storage medium
JP4710437B2 (en) * 2005-07-01 2011-06-29 トヨタ自動車株式会社 Object search device
JP2007025758A (en) * 2005-07-12 2007-02-01 Gen Tec:Kk Face image extracting method for person, and device therefor
JP2007081682A (en) * 2005-09-13 2007-03-29 Canon Inc Image processor, image processing method, and executable program by information processor
JP4431532B2 (en) * 2005-09-16 2010-03-17 富士フイルム株式会社 Target image position detecting device and method, and program for controlling target image position detecting device
JP2007110636A (en) * 2005-10-17 2007-04-26 Matsushita Electric Ind Co Ltd Camera apparatus
JP2007188126A (en) * 2006-01-11 2007-07-26 Fujifilm Corp Image brightness calculation device, method, and program
JP2008042746A (en) * 2006-08-09 2008-02-21 Olympus Imaging Corp Camera, photographing control method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7175066B1 (en) 2022-09-20 2022-11-18 有限会社サンワテック Pipe inner bottom cover structure

Also Published As

Publication number Publication date
JP2009100450A (en) 2009-05-07

Similar Documents

Publication Publication Date Title
US7706674B2 (en) Device and method for controlling flash
JP4985251B2 (en) Imaging apparatus, focus control method, and focus control program
JP4479829B2 (en) Imaging apparatus and imaging method
US20100321515A1 (en) Imaging apparatus, focusing method, and computer-readable recording medium recording program
JP2006201282A (en) Digital camera
JP2007178576A (en) Imaging apparatus and program therefor
JP2009219020A (en) Imaging apparatus, control method of imaging device, and control program of imaging device
JP2009171220A (en) Imaging apparatus and its control method
JP2007215091A (en) Imaging apparatus and program therefor
JP2009182905A (en) Imaging apparatus and its program
JP2012029014A (en) Image processing device, and control method of the same
JP2007124279A (en) Image processor
JP2007264049A (en) Imaging method and apparatus
JP4645413B2 (en) Imaging device
JP4760302B2 (en) Imaging device
JP2009010616A (en) Imaging device and image output control method
JP2007178480A (en) Digital camera, automatic focusing method and automatic focusing program
JP2007142702A (en) Image processing apparatus
JP5239601B2 (en) Imaging apparatus and program
KR20110090610A (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable medium
JP4862926B2 (en) REPRODUCTION CONTROL DEVICE, REPRODUCTION CONTROL METHOD, AND PROGRAM
JP2009020163A (en) Imaging apparatus and program therefor
US8227738B2 (en) Image capture device for creating image data from a plurality of image capture data, and recording medium therefor
JP2005079731A (en) Photographed picture projection device, picture processing method therefor and program
JP5195663B2 (en) Imaging apparatus, focusing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130318

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160412

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5239601

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150