JP2002084412A - Image processing unit and image processing method - Google Patents

Image processing unit and image processing method

Info

Publication number
JP2002084412A
JP2002084412A JP2000272119A JP2000272119A JP2002084412A JP 2002084412 A JP2002084412 A JP 2002084412A JP 2000272119 A JP2000272119 A JP 2000272119A JP 2000272119 A JP2000272119 A JP 2000272119A JP 2002084412 A JP2002084412 A JP 2002084412A
Authority
JP
Japan
Prior art keywords
image
images
image processing
light source
point light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000272119A
Other languages
Japanese (ja)
Inventor
Kazuki Akaho
一樹 赤穂
Yuji Adachi
雄治 足立
Katsuhito Shinkawa
勝仁 新川
Kazumutsu Sato
一睦 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2000272119A priority Critical patent/JP2002084412A/en
Publication of JP2002084412A publication Critical patent/JP2002084412A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processing unit and an image processing method by which positioning of images picked up by an image pickup means can be simplified so as to remarkably reduce the processing time. SOLUTION: The image processing unit is provided with a means 58 that detects a point light source in a still state included in picked-up images obtained from the same object and with a means 53 that positions the images on the basis of the detected point light source. Since deviation among the images caused by camera-shake or the like can be grasped from the deviation of the point light source and the point light source is used for a reference, the arithmetic operation for positioning the images can be simplified and the image processing time can be decreased.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、多重画像撮影機
能を有するデジタルカメラ等の撮像装置によって取得さ
れた複数枚の画像を位置合わせ処理する、画像処理装置
及び画像処理方法に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image processing apparatus and an image processing method for aligning a plurality of images obtained by an image pickup apparatus such as a digital camera having a multiple image photographing function.

【0002】[0002]

【従来の技術】複数の撮影画像から1つの合成画像を得
る多重画像処理を行うために、多重画像撮影モードによ
り複数の画像を撮影できるデジタルカメラが知られてい
る。また、前記多重画像処理としては、画像の超解像化
処理や全焦点画像の作成処理やぼけコントロール処理が
ある。
2. Description of the Related Art In order to perform multiple image processing for obtaining one composite image from a plurality of captured images, there is known a digital camera capable of capturing a plurality of images in a multiple image capturing mode. The multiple image processing includes image super-resolution processing, omnifocal image creation processing, and blur control processing.

【0003】ところで、上記のような多重画像処理を行
うためには、取得した複数の画像の位置が一致している
ことが必要となる。撮影時の画角やその他の条件が変わ
ってしまうと、複数枚の画像上の同一位置にある画像デ
ータが同一被写体の同一部分を示すとは限らなくなる。
たとえば、連写機能を使って短時間で同一被写体を撮影
して複数枚の画像を得たとしても、手ぶれや被写体の動
きなどがあると、画像間で対応する画素の位置は大きく
変化してしまう。
Incidentally, in order to perform the above-described multiplex image processing, it is necessary that the positions of a plurality of acquired images match. If the angle of view and other conditions at the time of shooting change, image data at the same position on a plurality of images does not always indicate the same part of the same subject.
For example, even if the same subject is shot in a short time using the continuous shooting function and multiple images are obtained, the position of the corresponding pixel between the images will change greatly due to camera shake or movement of the subject. I will.

【0004】そのため、合成処理を行う前に、予め各画
像を位置合わせする処理(いわゆるレジストレーション
処理)が行われる。位置合わせ処理の手法としては、た
とえば、特開平8−161503号公報に開示されてい
る「テンプレートマッチングに基づく対応点抽出法」な
どが知られている。
For this reason, before performing the synthesizing process, a process of aligning each image (so-called registration process) is performed in advance. As a method of the alignment processing, for example, a “corresponding point extraction method based on template matching” disclosed in Japanese Patent Application Laid-Open No. 8-161503 is known.

【0005】[0005]

【発明が解決しようとする課題】ところが、従来の位置
合わせ処理は、処理する画像データの量が比較的多く、
位置合わせのための演算も複雑となり、画像処理に長時
間が費やされるという問題があった。
However, in the conventional alignment processing, the amount of image data to be processed is relatively large,
The calculation for alignment is also complicated, and there is a problem that a long time is spent for image processing.

【0006】この発明は、上記問題を解決するためにな
されたもので、撮像手段で撮像された複数の画像の位置
合わせが簡単になり、処理時間を大幅に短縮できる画像
処理装置及び画像処理方法を提供し、さらには撮像装置
を提供することを課題とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problem, and an image processing apparatus and an image processing method capable of simplifying alignment of a plurality of images picked up by an image pickup means and greatly reducing a processing time. Another object of the present invention is to provide an imaging device.

【0007】[0007]

【課題を解決するための手段】上記課題は、同一被写体
についての複数の撮影画像に含まれる静止状態の点光源
を検出する手段と、検出された点光源を基準にして複数
の画像の位置合わせを行う手段と、を備えていることを
特徴とする画像処理装置によって解決される。
The object of the present invention is to provide a means for detecting a point light source in a stationary state included in a plurality of captured images of the same subject, and a method for aligning a plurality of images based on the detected point light source. And means for performing the following.

【0008】この画像処理装置によれば、複数の撮影画
像の中に含まれる静止状態の点光源が検出され、この点
光源を基準にして複数の画像の位置合わせが行われる。
According to this image processing apparatus, a stationary point light source included in a plurality of captured images is detected, and the plurality of images are aligned based on the point light source.

【0009】また、点光源は静止状態であるので、複数
の画像間における点光源のずれから、手ぶれなどによる
カメラの動きに起因する画像間に微妙なずれも分かりや
すいうえ、基準が点光源であるので、複数画像の位置合
わせのための演算が簡単になり、処理時間が短縮され
る。
Further, since the point light source is in a stationary state, it is easy to understand a slight shift between images caused by camera movement due to camera shake due to a shift of the point light source between a plurality of images. As a result, the calculation for aligning a plurality of images is simplified, and the processing time is shortened.

【0010】前記画像処理装置において、静止状態の点
光源とは、完全に静止している点光源は勿論のこと、撮
影時間に較べて静止していると見なせる点光源をも含む
概念である。
In the image processing apparatus, the stationary point light source is a concept that includes not only a completely stationary point light source but also a point light source that can be regarded as stationary compared to the shooting time.

【0011】また、前記課題は、同一被写体についての
複数の撮影画像の合焦領域を検出する手段と、検出され
た合焦領域のみの画像データを用いて複数の画像の位置
合わせを行う手段と、を備えていることを特徴とする画
像処理装置によっても解決される。
[0011] The object is to provide a means for detecting a focused area of a plurality of captured images of the same subject, and a means for aligning a plurality of images using image data of only the detected focused area. The present invention is also solved by an image processing apparatus characterized by comprising:

【0012】この画像処理装置では、たとえば、ポート
レート撮影において、主被写体近傍の特定領域を合焦領
域として検出すれば、確実に主被写体の位置が合った画
像を合成できるうえ、合焦領域は画像全体から見れば小
さいので、演算領域も小さくなり、処理時間が短縮され
る。
In this image processing apparatus, for example, in portrait photography, if a specific area near the main subject is detected as a focused area, an image in which the position of the main subject is properly synthesized can be synthesized. Since it is small when viewed from the whole image, the calculation area is also small, and the processing time is reduced.

【0013】また、前記課題は、同一被写体についての
複数の撮影画像のうちの1枚を基準画像として設定する
手段と、基準画像を基にして残りの複数の画像の位置合
わせを行う手段と、を備えていることを特徴とする画像
処理装置によっても解決される。
[0013] Further, the above object is to provide a means for setting one of a plurality of captured images of the same subject as a reference image, a means for performing positioning of a plurality of remaining images based on the reference image, The present invention is also solved by an image processing apparatus characterized by comprising:

【0014】この画像処理装置では、たとえば、被写界
深度の深い1枚の画像を基準にすれば、多重画像作成用
の画像にピントずれがあったとしても、上記基準画像の
遠近のいずれに対しても複数画像の位置を容易に合わせ
ることができ、しかも、基準画像と比較するだけのた
め、位置合わせのための演算が簡単になり、処理時間が
短くなる。
In this image processing apparatus, for example, if one image having a large depth of field is used as a reference, even if the image for creating a multiplex image is out of focus, the image may be in any of the distances from the reference image. In contrast, the positions of a plurality of images can be easily adjusted, and furthermore, since only the comparison with the reference image is performed, the calculation for the alignment is simplified and the processing time is shortened.

【0015】また、前記課題は、同一被写体についての
複数の撮影画像を位置合わせする画像処理方法におい
て、前記複数の撮影画像に含まれる静止状態の点光源を
基準にして、複数の画像の位置合わせを行うことを特徴
とする画像処理方法によっても解決される。
The object is to provide an image processing method for aligning a plurality of captured images of the same subject, wherein the plurality of images are aligned with respect to a stationary point light source included in the plurality of captured images. The image processing method is also characterized by performing the following.

【0016】この処理方法では、位置合わせ精度が高め
られるうえ、位置合わせのための演算が簡単になり、処
理時間が短縮される。さらに、撮影された複数の画像の
中で静止状態と見なせる点光源を撮影者が任意に指示す
ることができる。
According to this processing method, the positioning accuracy is improved, the calculation for the positioning is simplified, and the processing time is shortened. Further, the photographer can arbitrarily designate a point light source that can be regarded as a stationary state in a plurality of photographed images.

【0017】また、前記課題は、同一被写体についての
複数の撮影画像を位置合わせする画像処理方法におい
て、前記複数の撮影画像の合焦領域のみの画像データを
用いて、複数の画像の位置合わせを行うことを特徴とす
る画像処理方法によっても解決される。
[0017] Further, the object is to provide an image processing method for aligning a plurality of captured images of the same subject, wherein the plurality of images are aligned using only the in-focus area of the plurality of captured images. The problem is also solved by an image processing method characterized by performing.

【0018】この処理方法では、特定領域を合焦領域と
して検出すれば、特定領域に位置が合った画像を合成で
きるうえ、演算領域も小さくて済むので、処理時間が短
縮される。
In this processing method, if a specific area is detected as a focused area, an image positioned at the specific area can be synthesized, and the processing area can be reduced, so that the processing time is shortened.

【0019】また、前記課題は、同一被写体についての
複数の撮影画像を位置合わせする画像処理方法におい
て、撮影された3枚以上の画像のうちの1枚の基準画像
を基にして、残りの複数の画像の位置合わせを行うこと
を特徴とする画像処理方法によっても解決される。
The above object is also achieved by an image processing method for aligning a plurality of captured images of the same subject, based on one reference image of three or more captured images. The image processing method is characterized in that the image is aligned.

【0020】この処理方法では、複数の画像を基準画像
と比較すればよく、位置合わせのための演算が簡単にな
り、処理時間が短くなる。
In this processing method, a plurality of images need only be compared with the reference image, so that the calculation for alignment is simplified and the processing time is shortened.

【0021】[0021]

【発明の実施の形態】以下、この発明の実施形態を図面
に基づいて説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0022】図1は、この発明の第1の実施形態にかか
る画像処理装置が適用された撮像装置としてのデジタル
カメラの外観斜視図であり、また、図2は、同デジタル
カメラの背面図である。
FIG. 1 is an external perspective view of a digital camera as an image pickup apparatus to which the image processing apparatus according to the first embodiment of the present invention is applied, and FIG. 2 is a rear view of the digital camera. is there.

【0023】図1、2において、デジタルカメラ1のカ
メラ本体1Aの前面には、撮影レンズ11が装備されて
いる他に、前面上部には、ファインダ窓14および測距
窓19などが設けられている。カメラ本体1Aの内部に
は、上記撮影レンズ11による光学像を受光して光電変
換する撮像素子の一例としてのCCD12が配設されて
いる。
1 and 2, the digital camera 1 is provided with a photographic lens 11 on the front surface of a camera body 1A and a finder window 14 and a distance measuring window 19 on the upper front surface. I have. Inside the camera body 1A, a CCD 12 as an example of an image pickup device that receives an optical image from the photographing lens 11 and performs photoelectric conversion is provided.

【0024】さらに、カメラ本体1Aの上面には、レリ
ーズ(シャッター)ボタン13、撮影モード設定キー1
7および液晶パネル18などが設けられており、カメラ
本体1Aの側面には、記録メディア15が挿脱可能に保
持する挿入口16が設けられている。このデジタルカメ
ラ1では、CCD12により得られた撮影画像データを
記録メディア15に記録できるようになっている。
Further, a release (shutter) button 13 and a photographing mode setting key 1 are provided on the upper surface of the camera body 1A.
7 and a liquid crystal panel 18 are provided, and an insertion port 16 for holding the recording medium 15 in a detachable manner is provided on a side surface of the camera body 1A. In the digital camera 1, image data obtained by the CCD 12 can be recorded on a recording medium 15.

【0025】撮影モード設定キーでは、液晶パネル18
の表示内容を見ながら、絞り優先、シャッタースピード
優先といった露光条件の設定、マクロ撮影の切替え、さ
らには、ズームの設定などが行える。
With the shooting mode setting key, the liquid crystal panel 18
The user can set exposure conditions such as aperture priority and shutter speed priority, switch macro shooting, and further set zoom while looking at the display contents of.

【0026】また、カメラ本体1Aの背面には、ライブ
ビュー表示用の液晶モニタ111および画像処理モード
設定キー110などが設けられている。このデジタルカ
メラ1は、通常撮影モードの他に、多重画像撮影モード
を有している。前記画像処理モード設定キー110で
は、通常撮影モードと多重画像撮影モードとを選択して
設定できる。
On the back of the camera body 1A, a liquid crystal monitor 111 for live view display, an image processing mode setting key 110 and the like are provided. The digital camera 1 has a multiple image shooting mode in addition to the normal shooting mode. With the image processing mode setting key 110, a normal shooting mode and a multiple image shooting mode can be selected and set.

【0027】多重画像撮影モードでは、1回の撮影で同
一の被写体について複数枚の画像を取り込み、得られた
複数枚の画像データを用いて合成処理を施し、たとえ
ば、大階調化された画像、全焦点画像、高解像度画像、
ボケコントロール画像、ノイズ低減画像等の画像を作成
する機能を有している。
In the multiple image photographing mode, a plurality of images of the same subject are captured in one photographing operation, and a composite process is performed using the obtained plurality of image data. , All-focus images, high-resolution images,
It has a function of creating images such as a blur control image and a noise reduction image.

【0028】図3は、上記デジタルカメラ1の電気的構
成を示すブロックであり、細矢印は制御データの流れ
を、太矢印は画像データの流れをそれぞれ示す。
FIG. 3 is a block diagram showing the electrical configuration of the digital camera 1, wherein thin arrows indicate the flow of control data and thick arrows indicate the flow of image data.

【0029】図3において、CCD12は、多重画像撮
影モード、特に高解像度画像を生成するための超解像撮
影モードにおいて、光軸方向で微小変位可能に設定され
ており、ずらし撮影法により2回目撮影時にCCD位置
制御部54により変位駆動される。CCD位置制御部5
4は、たとえば、圧電素子からなり、その歪み変形によ
り上記CCD12を駆動する。
In FIG. 3, the CCD 12 is set to be slightly displaceable in the optical axis direction in the multiple image shooting mode, particularly in the super-resolution shooting mode for generating a high-resolution image. It is driven to be displaced by the CCD position control unit 54 during photographing. CCD position controller 5
Numeral 4 is composed of, for example, a piezoelectric element, and drives the CCD 12 by deformation thereof.

【0030】A/Dコンバータ51は、CCD12から
のアナログ画像信号をデジタル画像データに変換し、ま
た、RAM52は、画像データを一旦記憶する。
The A / D converter 51 converts an analog image signal from the CCD 12 into digital image data, and the RAM 52 temporarily stores the image data.

【0031】静止点光源検出部58は、高解像度化のた
めの画像処理において、複数撮影画像の中に含まれる、
画像位置合わせ基準用の静止状態の点光源(たとえば、
夜景画像の星など)を検出するものである。
The stationary point light source detection unit 58 is included in a plurality of captured images in image processing for increasing the resolution.
A stationary point light source for image registration reference (e.g.,
A star in a night view image).

【0032】位置合わせ部53は、静止点光源検出部5
8で検出された点光源を基にして、2枚目、3枚目の画
像データ間での位置ずれ量を算出する。高解像度画像生
成部57は、通常撮影モードでは、OFF(処理なし)
にされ、超解像撮影モードでは、ON(処理あり)にさ
れるとともに、位置合わせ部53で得られた算出結果を
基にして、2枚目、3枚目の画像に対して高解像度化の
ための処理を施して1枚の画像に合成するようになって
いる。
The positioning unit 53 includes a stationary point light source detection unit 5
Based on the point light source detected in step 8, the amount of displacement between the second and third image data is calculated. The high-resolution image generation unit 57 is OFF (no processing) in the normal shooting mode
In the super-resolution shooting mode, the image is turned on (with processing), and based on the calculation result obtained by the positioning unit 53, the resolution of the second and third images is increased. And synthesizes it into one image.

【0033】記録メディア15は、通常撮影モードで
は、RAM52から読み出した画像データを記憶し、超
解像撮影モードでは、高解像度画像生成部57で生成さ
れた画像データを記憶する。
The recording medium 15 stores the image data read from the RAM 52 in the normal photographing mode, and stores the image data generated by the high-resolution image generating section 57 in the super-resolution photographing mode.

【0034】CPU50は、各部の制御を行うことによ
り、デジタルカメラ1の全体を統括的に制御する。たと
えば、レリーズボタン13が押された際の撮影条件、さ
らには、画像処理モード設定キー110の設定状態など
を記憶する他、測距窓19での測距結果に基づいて撮影
レンズ駆動部56を制御したり、液晶パネル17や液晶
モニタ111の表示などを制御する。
The CPU 50 controls the whole of the digital camera 1 by controlling each unit. For example, shooting conditions when the release button 13 is pressed, the setting state of the image processing mode setting key 110, and the like are stored, and the shooting lens driving unit 56 is controlled based on the distance measurement result in the distance measurement window 19. And controls the display on the liquid crystal panel 17 and the liquid crystal monitor 111.

【0035】なお、この実施形態では、超解像撮影の方
法として、ずらし撮影法を用いているが、これは一例で
あり、他の方法であってもよい。
In this embodiment, the shift photographing method is used as the super-resolution photographing method. However, this is an example, and another method may be used.

【0036】次に、上記構成のデジタルカメラ1による
撮影シーケンスを図5〜図7を参照して説明する。
Next, a photographing sequence by the digital camera 1 having the above configuration will be described with reference to FIGS.

【0037】撮影者は、撮影前に、撮影モード設定キー
17と液晶パネル18とで、絞り優先、シャッタースピ
ード優先などの露光条件の設定やホワイトバランスモー
ドの切り替えなどを行う。
Prior to photographing, the photographer uses the photographing mode setting key 17 and the liquid crystal panel 18 to set exposure conditions such as aperture priority and shutter speed priority and to switch the white balance mode.

【0038】また、画像処理モード設定キー110と液
晶モニタ111とで、通常撮影モードか超解像撮影モー
ドかを選択する。画像処理についての設定内容を図4に
示す。画像処理モード設定キー110がOFFにされる
と通常の撮影が行われる。ONにされると超解像撮影が
行われる。つまり撮影位置の異なる複数画像を撮影し、
合成して、高解像度画像を生成する。
An image processing mode setting key 110 and a liquid crystal monitor 111 are used to select a normal shooting mode or a super-resolution shooting mode. FIG. 4 shows the settings for the image processing. When the image processing mode setting key 110 is turned off, normal shooting is performed. When turned on, super-resolution shooting is performed. In other words, multiple images with different shooting positions are taken,
Combine to generate a high-resolution image.

【0039】S201で、CPU50は、レリーズボタ
ン13が押されたか否かを判断する。レリーズボタン1
3が押されると(S201の判定がYES)、S202
で、CPU50が、その時の撮影条件や画像処理モード
の設定を読み取り、S203では、測距データを取り込
む。レリーズボタン13が押されていないときは(S2
01の判定がNO)、押されるまで待つ。
In S201, the CPU 50 determines whether or not the release button 13 has been pressed. Release button 1
When 3 is pressed (YES in S201), S202
Then, the CPU 50 reads the photographing conditions and image processing mode settings at that time, and in step S203, fetches distance measurement data. If the release button 13 is not pressed (S2
(The determination of 01 is NO), and it waits until it is pushed.

【0040】次に、S204でCPU50は、画像処理
モードとして、超解像撮影モードが設定されているか否
かを判断し、通常撮影モードが設定されている場合(S
204の判定がNO)、S205では、CPU50が前
記静止点光源検出部58、位置合わせ部53および高解
像度画像生成部57をOFFにする。
Next, in S204, the CPU 50 determines whether or not the super-resolution photographing mode is set as the image processing mode, and if the normal photographing mode is set (S40).
In step S205, the CPU 50 turns off the stationary point light source detection unit 58, the positioning unit 53, and the high-resolution image generation unit 57.

【0041】続いて、S206で、撮影レンズ駆動部5
6を介して撮影レンズ11を、適当な被写体に合焦する
ように駆動した後、S207でCCD12を積分し、S
208で画像信号をデータとして読み出す。読み出され
た画像データは、A/Dコンバータ51によりデジタル
データに変換され、S209でRAM52に一時記憶さ
れる。そして、S210で、CPU50がRAM52か
ら画像データを読み出し、メディア15に記憶させる。
Subsequently, in step S206, the photographing lens driving unit 5
After the photographing lens 11 is driven to focus on an appropriate object through the CCD 6, the CCD 12 is integrated in S207, and
At 208, the image signal is read as data. The read image data is converted into digital data by the A / D converter 51, and is temporarily stored in the RAM 52 in S209. Then, in S210, the CPU 50 reads out the image data from the RAM 52 and stores it in the medium 15.

【0042】一方、画像処理モードとして超解像撮影モ
ードが設定されている場合(S204の判定がYE
S)、図6のS221に進む。S221では、CPU5
0が静止点光源を検出するのに最適な撮影条件を設定
し、S222で、撮影レンズ駆動部56を介して撮影レ
ンズ11を、適当な被写体に合焦するように駆動する。
その後、S223でCCD12を積分し、静止点光源検
出用の1枚目の撮影を行う。S224では、画像データ
がA/Dコンバータ51でデジタルデータに変換され、
S225では、RAM52に一時記憶される。
On the other hand, when the super-resolution shooting mode is set as the image processing mode (the determination in S204 is YE
S), and proceeds to S221 of FIG. In S221, the CPU 5
0 sets the optimum photographing conditions for detecting the stationary point light source, and drives the photographing lens 11 via the photographing lens driving unit 56 so as to focus on an appropriate subject in S222.
Thereafter, in step S223, the CCD 12 is integrated, and the first image for detecting a stationary point light source is taken. In S224, the image data is converted into digital data by the A / D converter 51,
In S225, the data is temporarily stored in the RAM 52.

【0043】続いて、S226で、CPU50がその時
の撮影条件を読取り、S227では、撮影レンズ駆動部
56を介して撮影レンズ11を、適当な被写体に合焦す
るように駆動する。その後、S228では、CCD12
を積分し、静止点光源検出用の2枚目の撮影を行う。S
229では、画像信号が読みだされ、A/Dコンバータ
51でデジタルデータに変換され、S230では、RA
M52に一時記憶される。
Subsequently, in step S226, the CPU 50 reads the photographing conditions at that time, and in step S227, drives the photographing lens 11 via the photographing lens driving unit 56 so as to focus on an appropriate subject. Thereafter, in S228, the CCD 12
Is integrated, and a second image for detecting a stationary point light source is taken. S
In 229, the image signal is read out and converted into digital data by the A / D converter 51.
It is temporarily stored in M52.

【0044】さらに、S231では、CPU50がCC
D位置制御部54を介してCCD12の位置を変位させ
るとともに、変位量が所定量に達しているかどうかを判
断する。所定量変位していれば(S231にてYE
S)、図7のS232に進む。所定量変位していなけれ
ば(S231にてNO)、変位するまで駆動する。
Further, in S231, the CPU 50 sets the CC
The position of the CCD 12 is displaced via the D position control unit 54, and it is determined whether the amount of displacement has reached a predetermined amount. If it is displaced by a predetermined amount (YE in S231)
S), and proceeds to S232 of FIG. If it has not been displaced by the predetermined amount (NO in S231), it is driven until it is displaced.

【0045】S232以下では、同様に3枚目の撮影を
行なう。つまり、S232で、CPU50が撮影レンズ
駆動部56を介して撮影レンズ11を、適当な被写体に
合焦するように駆動したのち、S233でCCD12を
積分し、S234で画像信号がA/Dコンバータ51で
デジタルデータに変換され、S235で画像データがR
AM52に記憶される。
In S232 and subsequent steps, the third image is similarly photographed. That is, in step S232, the CPU 50 drives the photographing lens 11 via the photographing lens driving unit 56 so as to focus on an appropriate subject. Then, in step S233, the CCD 12 is integrated, and in step S234, the image signal is converted to the A / D converter 51. Is converted to digital data, and the image data is converted to R in S235.
It is stored in the AM 52.

【0046】この後、S236では、CPU50が、こ
れら3枚の画像データをRAM52から読み出し、1枚
目の画像データを静止点光源検出部58に送る。S23
7では、静止点光源検出部58により、画像データ中で
基準となる静止した点光源を検出したか否かを判断し、
静止した点画像が検出されると(S237の判定がYE
S)、2枚目、3枚目の画像データは、位置合わせ部5
3に送られる。
Thereafter, in S 236, the CPU 50 reads these three pieces of image data from the RAM 52 and sends the first piece of image data to the stationary point light source detection unit 58. S23
In 7, the stationary point light source detection unit 58 determines whether or not a reference stationary point light source has been detected in the image data.
When a stationary point image is detected (the determination in S237 is YE
S) The second and third image data are stored in the positioning unit 5
Sent to 3.

【0047】S238では、位置合わせ部53により、
1枚目の画像中における基準となる静止した点光源を基
に、2枚目、3枚目の撮影の画像データ間での位置ずれ
量を算出する。S239では、高解像度画像生成部57
により、位置合わせ部53で得られた演算結果を基に、
高解像度化のための合成処理を行い、1枚の画像を生成
する。、CPU50は、S211で、それをメディア1
5に記憶させる。
In S238, the positioning unit 53
Based on a stationary point light source serving as a reference in the first image, the amount of displacement between the image data of the second and third images is calculated. In S239, the high-resolution image generation unit 57
Based on the calculation result obtained by the positioning unit 53,
A synthesis process for high resolution is performed to generate one image. In step S211, the CPU 50 stores the
5 is stored.

【0048】仮に、適当な基準点が検出されなかった場
合には(S237の判定がNO)、S240で警告を出
力し S241では合成処理を中止して終了する。
If an appropriate reference point is not detected (NO in S237), a warning is output in S240, and in S241, the synthesizing process is stopped and the process ends.

【0049】なお、警告を出力した上で、従来と同じ位
置合わせを行うようにしてもよい。
After a warning is output, the same positioning as in the related art may be performed.

【0050】このように、多重画像撮影モードで撮影さ
れた複数の画像の中の静止した点光源を検出し、その点
光源を基準にして複数の画像の位置合わせを行うので、
手ぶれなどによるカメラの動きが原因で画像間にずれが
あっても、複数の画像間における点光源のずれから、そ
れを正確に把握できるうえ、基準が点光源であるので、
画像の位置合わせのための演算が簡易になり、高解像度
化の処理時間を短縮できる。
As described above, a stationary point light source in a plurality of images photographed in the multiple image photographing mode is detected, and the plurality of images are aligned based on the point light source.
Even if there is a shift between images due to camera movement due to camera shake, etc., it can be accurately grasped from the shift of the point light source between multiple images, and since the reference is a point light source,
Calculations for image alignment are simplified, and processing time for high resolution can be reduced.

【0051】つぎに、静止点光源を基準にした上記位置
合わせについて、図8に示す具体的な画像で説明する。
Next, the above-described positioning based on a stationary point light source will be described with reference to a specific image shown in FIG.

【0052】図8において、いま、高解像画像を得るた
めに、ある夜景を2枚撮影したとする。1枚目の画像を
図8(a)とし、2枚目の画像を図8(b)とする。図
8(a)の画像に対して図8(b)の画像は、左上にず
れている。これら2枚の画像を合成するために、重ね合
わせ処理を行う際に、その画角の中で静止している点光
源、たとえば、星P1を基準にする。具体的には、図8
(a)にある星P1と、図8(b)にある星P2を、図
8(c)に示すように、重ね合わせるようにして位置合
わせを行う。
In FIG. 8, it is assumed that two night views have been photographed in order to obtain a high-resolution image. FIG. 8A shows the first image, and FIG. 8B shows the second image. The image in FIG. 8B is shifted to the upper left from the image in FIG. When performing the superimposition process to combine these two images, a point light source that is stationary within the angle of view, for example, the star P1 is used as a reference. Specifically, FIG.
The star P1 shown in FIG. 8A and the star P2 shown in FIG. 8B are positioned so as to overlap each other as shown in FIG. 8C.

【0053】このように、複数の撮影画像を重ね合わせ
るにあたり、画像の中に静止した点光源があると、その
点光源を基準にすることにより、複数の画像間での位置
合わせが容易に行える。とくに、遠景を多重画像撮影し
た時、高い重ね合わせ精度が得られる。
As described above, when a plurality of photographed images are superimposed, if there is a stationary point light source in the image, the positioning between the plurality of images can be easily performed by using the point light source as a reference. . In particular, when multiple images of a distant view are taken, high overlay accuracy can be obtained.

【0054】なお、図5〜図7のフローチャートに示し
た例では、静止した点光源検出用に1枚の撮影を行った
が、これに限定されるものではない。たとえば、多重画
像撮影用の撮影で得られた画像データ(前述の例では第
2回目及び第3回目の撮影画像データ)を用いて静止点
光源を検出してもよく、また、撮影者が基準となる点光
源を指定するようにしてもよい。
In the examples shown in the flowcharts of FIGS. 5 to 7, one image is taken for detecting a stationary point light source, but the present invention is not limited to this. For example, a stationary point light source may be detected using image data (second and third shot image data in the above example) obtained by shooting for multiple image shooting, May be specified.

【0055】さらに、撮影した複数画像の画角の中で完
全静止状態の点光源に限らず、撮影時間に比べて静止し
ていると見なせる点光源があれば、その点光源を基準と
すればよい。
Further, the present invention is not limited to a point light source in a completely stationary state within the angle of view of a plurality of captured images. Good.

【0056】図9は、上記撮影画像の合成処理を行う処
理装置を示す正面図である。
FIG. 9 is a front view showing a processing apparatus for performing the above-described process of synthesizing a photographed image.

【0057】図9において、81はコンピュータ(以
下、PCともいう)であり、高解像度画像を得るための
画像処理のソフトウェアをPC本体82内のハードディ
スク(図示せず)に記憶させておき、所要時にPC81
で上記ソフトウェアを実行させるようになっている。ソ
フトウェアは、ハードディスクに限らず、PC本体82
におけるディスクドライブ83で駆動される可搬性のメ
ディア80に記憶させるようにしてもよい。
In FIG. 9, reference numeral 81 denotes a computer (hereinafter, also referred to as a PC) which stores image processing software for obtaining a high-resolution image on a hard disk (not shown) in the PC main body 82, and Sometimes PC81
The above software is executed. The software is not limited to the hard disk, but the PC
May be stored in the portable medium 80 driven by the disk drive 83 in the above.

【0058】図10は、上記ソウトウェアの実行を示す
フローチャートである。
FIG. 10 is a flowchart showing the execution of the software.

【0059】ここでは、前記位置合わせ部53で演算さ
れる一つの画像Aを、たとえば図8(a)に示す画像と
し、別の画像Bを、たとえば図8(b)に示す画像とし
て、それぞれPC81のハードディスクに記憶されてい
るものとする。
Here, one image A calculated by the positioning unit 53 is, for example, an image shown in FIG. 8A, and another image B is, for example, an image shown in FIG. It is assumed that it is stored in the hard disk of the PC 81.

【0060】まず、S90で、画像A,Bをハードディ
スクから読み出し、ついで、S91で、上記画像A,B
から基準となる静止した点光源を検出したか否かを判断
し、静止点光源が検出されると(S91の判定がYE
S)、S92で、位置合わせのための演算処理を行う。
First, in S90, the images A and B are read from the hard disk, and then in S91, the images A and B are read.
It is determined whether or not a stationary point light source serving as a reference has been detected from the above. If a stationary point light source is detected (the determination in S91 is YE
In S) and S92, arithmetic processing for alignment is performed.

【0061】次に、S93で、高解像度画像を得るため
の画像合成処理を行い、S94で、処理された画像デー
タをハードディスクに記憶して終了する。
Next, in step S93, an image synthesizing process for obtaining a high-resolution image is performed. In step S94, the processed image data is stored in the hard disk, and the processing ends.

【0062】静止した点光源が検出されないときは(S
91の判定がNO)、S95で警告を出力し、S96
で、高解像度画像を得るための画像合成処理を中止して
終了する。
When a stationary point light source is not detected (S
(No at 91), a warning is output at S95, and S96
Then, the image synthesizing process for obtaining the high-resolution image is stopped, and the process ends.

【0063】なお、警告を出力して画像合成処理を中止
する代わりに、普通の位置合わせを行うようにしてもよ
い。
Instead of outputting a warning and stopping the image synthesizing process, ordinary positioning may be performed.

【0064】図11は、この発明の第2の実施形態にか
かるデジタルカメラの電気的構成を示すブロック構成図
であり、図3と同一もしくは相当部所には、同一符号を
付して説明を省略する。
FIG. 11 is a block diagram showing the electrical configuration of a digital camera according to a second embodiment of the present invention. The same or corresponding parts as in FIG. Omitted.

【0065】図11に示すデジタルカメラでは、合焦領
域検出部68が設けられており、この合焦領域検出部6
8は、RAM52からの複数の画像の合焦領域を検出す
る。位置合わせ部53は、検出された合焦領域内につい
てのみ、2枚の画像間の位置ずれ量を算出する。
In the digital camera shown in FIG. 11, a focusing area detecting section 68 is provided.
8 detects in-focus areas of a plurality of images from the RAM 52. The positioning unit 53 calculates the amount of displacement between the two images only in the detected in-focus region.

【0066】次に、図11に示した構成のデジタルカメ
ラ1による撮影シーケンスを図12、図13を参照して
説明する。
Next, a shooting sequence by the digital camera 1 having the configuration shown in FIG. 11 will be described with reference to FIGS.

【0067】撮影者は、撮影前に、撮影モード設定キー
17と液晶パネル18とで、絞り優先、シャッタースピ
ード優先などの露光条件の設定やホワイトバランスモー
ドの切り替えなどを行う。
Before photographing, the photographer uses the photographing mode setting key 17 and the liquid crystal panel 18 to set exposure conditions such as aperture priority and shutter speed priority, and to switch the white balance mode.

【0068】また、画像処理モード設定キー110と液
晶モニタ111とで、通常撮影モードか超解像撮影モー
ドかを選択する。画像処理についての設定内容は、図4
と同じである。
The user selects between the normal shooting mode and the super-resolution shooting mode using the image processing mode setting key 110 and the liquid crystal monitor 111. The settings for image processing are shown in FIG.
Is the same as

【0069】S301で、レリーズボタン13が押され
ると、S302では、CPU50が、その時の撮影条件
や画像処理モードの設定を読み取る。S303では、測
距データを取り込む。
When the release button 13 is pressed in S301, in S302, the CPU 50 reads the photographing conditions and image processing mode settings at that time. In S303, the distance measurement data is fetched.

【0070】S304では、CPU50が、画像モード
が超解像撮影モードに設定されているか否かを判断し、
通常撮影モードに設定されている場合(S304の判定
がNO)、S305では、CPU50が、合焦領域検出
部68、位置合わせ部53および高解像度画像生成部5
7をOFFにする。
In S304, the CPU 50 determines whether or not the image mode is set to the super-resolution photographing mode.
When the normal photographing mode is set (NO in S304), in S305, the CPU 50 causes the in-focus area detecting unit 68, the positioning unit 53, and the high-resolution image generating unit 5 to operate.
7 is turned OFF.

【0071】そして、通常の撮影を行う。すなわち、S
305で、撮影レンズ駆動部56を介して撮影レンズ1
1を、適当な被写体に合焦するように駆動した後、S3
07でCCD12を積分し、S308で画像信号をデー
タとして読み出す。読み出された画像データは、A/D
コンバータ51でデジタルデータに変換され、S309
では、RAM52に一時記憶される。続いて、S310
で、CPU50がRAM52から画像データから読み出
し、S311でメディア15に記憶する。
Then, normal photographing is performed. That is, S
At 305, the photographing lens 1 is transmitted via the photographing lens driving unit 56.
Is driven to focus on an appropriate subject, and then S3
At 07, the CCD 12 is integrated, and at S308, the image signal is read out as data. The read image data is A / D
The data is converted into digital data by the converter 51, and S309
Then, it is temporarily stored in the RAM 52. Subsequently, S310
Then, the CPU 50 reads out the image data from the RAM 52 and stores it in the medium 15 in S311.

【0072】一方、画像処理モードとして、超解像撮影
モードが設定されている場合には(S304の判定がY
ES)、図13のS321に進む。S321では、CP
U50が合成領域検出部68、位置合わせ部53および
高解像度画像生成部57をONにし、撮影条件を設定す
る。
On the other hand, when the super-resolution photographing mode is set as the image processing mode (the determination in S304 is Y
ES), and proceeds to S321 in FIG. In S321, the CP
U50 turns on the combination area detection unit 68, the positioning unit 53, and the high-resolution image generation unit 57, and sets shooting conditions.

【0073】さらに、S322で、CPU50が撮影レ
ンズ駆動部56を介して撮影レンズ55を、適当な被写
体に合焦するように駆動した後、S323でCCD12
を積分し、1枚目の撮影を行う。そして、S324で、
画像データがA/Dコンバータ51でデジタルデータに
変換され、S325では、画像データがRAM52に一
時記憶される。
Further, in step S322, the CPU 50 drives the photographing lens 55 through the photographing lens driving unit 56 so as to focus on an appropriate subject.
And the first image is taken. Then, in S324,
The image data is converted into digital data by the A / D converter 51, and the image data is temporarily stored in the RAM 52 in S325.

【0074】続いて、S326で、CPU50が撮影条
件を取り込み、S327で、CPU50がCCD位置制
御部54を介して所定量だけCCD12の位置をずらし
た後、同様に2枚目の撮影を行なう。つまり、S329
でCCD12を積分し、S330で画像信号が読み出さ
れてA/D変換され、S331で画像データがRAM5
2に一時記憶される。
Subsequently, in step S326, the CPU 50 fetches the photographing conditions. In step S327, the CPU 50 shifts the position of the CCD 12 by a predetermined amount via the CCD position control unit 54, and similarly performs photographing of the second image. That is, S329
In step S330, the image signal is read out and A / D converted. In step S331, the image data is stored in the RAM 5.
2 is temporarily stored.

【0075】そして、S332では、CPU50が上記
2枚の画像データをRAM52から読み出し、合焦領域
検出部68および位置合わせ部53に送る。S333で
は、CPU50が合焦領域検出部68により、それぞれ
の画像の合焦領域を検出したか否かを判断する。各画像
の合焦領域が検出されると(S333の判定がYE
S)、検出した合焦領域の情報を位置合わせ部53に送
る。合焦領域が検出されないときは(S333の判定が
NO)、検出されるまで待つ。
Then, in S332, the CPU 50 reads the two pieces of image data from the RAM 52 and sends them to the in-focus area detecting section 68 and the positioning section 53. In S333, the CPU 50 determines whether or not the focus area detection unit 68 has detected the focus area of each image. When the in-focus area of each image is detected (the determination in S333 is YE
S), information of the detected in-focus area is sent to the positioning unit 53. If the in-focus area is not detected (NO in S333), the process waits until the in-focus area is detected.

【0076】次いで、S334で、位置合わせ部53に
より、上記合焦領域内についてのみ、2枚の画像データ
間での位置ずれ量を算出する。S335では、高解像度
画像生成部57により、位置合わせ部53で得られた演
算結果を基に、高解像度化のための合成処理を行い、1
枚の画像を生成し、CPU50がそれをそれをメディア
15に記憶させる。
Next, in step S334, the positioning unit 53 calculates the amount of positional deviation between the two pieces of image data only in the in-focus area. In step S335, the high-resolution image generation unit 57 performs a synthesis process for increasing the resolution based on the calculation result obtained by the positioning unit 53, and executes 1
The CPU 50 generates an image and stores it in the medium 15.

【0077】このように、複数の撮影画像の特定領域を
合焦領域として検出し、その合焦領域を基に複数画像の
位置合わせを行うので、主被写体に注目している場合、
確実に主被写体の位置が合った画像が合成されるうえ、
演算領域が特定されて小さいので、処理時間が短縮され
る。
As described above, a specific region of a plurality of photographed images is detected as a focused region, and a plurality of images are aligned based on the focused region.
An image in which the position of the main subject matches exactly is synthesized,
Since the calculation area is specified and small, the processing time is reduced.

【0078】次に、合焦領域を基準にした上記位置合わ
せについて、図14に示す具体的な画像で説明する。
Next, the above-described positioning based on the in-focus area will be described with reference to a specific image shown in FIG.

【0079】図14(a),(b)に示すように、人物
の後方(奥側)に家、さらにその後方に山があるような
シーンを撮影する場合、高解像度画像を得るために、多
重画像撮影を行うとする。主被写体は人物であり、高解
像度処理を施したいのは、人物のいる部分である。
As shown in FIGS. 14 (a) and 14 (b), when photographing a scene in which a house is located behind a person (back side) and a mountain is further behind the person, in order to obtain a high-resolution image, Suppose that multiple image shooting is performed. The main subject is a person, and it is the part where the person wants to perform high-resolution processing.

【0080】多重画像撮影で得られた複数枚の画像(図
14(a),(b)の各画像)を合成する際、合焦領域
を特定し、その位置を中心とした領域、たとえば、図1
4(b)の点線Iで囲まれた領域のみの画像データの位
置合わせの演算を行い、その演算結果に基づいて、画像
合成を行う。
When combining a plurality of images (each of the images shown in FIGS. 14A and 14B) obtained by the multiple image shooting, a focused area is specified, and an area centered on the position, for example, FIG.
4 (b), the calculation of the alignment of the image data of only the area surrounded by the dotted line I is performed, and the image synthesis is performed based on the calculation result.

【0081】このようにすることにより、たとえば、ポ
ートレート撮影時に、優先的に主被写体の高解像度画像
が得られ、また、演算領域が全画像領域に対して小さく
なるので、処理時間が短くなる。
By doing so, for example, during portrait shooting, a high-resolution image of the main subject is preferentially obtained, and the processing time is shortened because the calculation area is smaller than the entire image area. .

【0082】上記の画像生成についても、図9に示した
PC81で処理するようにしてもよい。
The above image generation may be processed by the PC 81 shown in FIG.

【0083】図15は、上記PC81で処理する場合の
ソウトウェアの実行を示すフローチャートである。
FIG. 15 is a flowchart showing the execution of the software when processing is performed by the PC 81.

【0084】ここでは、前記位置合わせ部53で演算さ
れる画像Aならびに別の画像Bを、それぞれPC81の
ハードディスクに記憶してあるものとする。
Here, it is assumed that the image A and another image B calculated by the positioning unit 53 are stored in the hard disk of the PC 81, respectively.

【0085】まず、S100で、画像A,Bをハードデ
ィスクから読み出し、ついで、S101で、上記画像
A,Bから合焦領域を検出し、S102で、画像データ
に位置合わせ演算処理を施す。S103で、高解像度画
像を得るための画像合成処理を行い、S104で、処理
された画像データをハードディスクに記憶して終了す
る。
First, in steps S100, images A and B are read from the hard disk. Then, in step S101, a focused area is detected from the images A and B, and in step S102, the image data is subjected to a positioning calculation process. In step S103, an image synthesizing process for obtaining a high-resolution image is performed. In step S104, the processed image data is stored in the hard disk, and the process ends.

【0086】図16は、この発明の第3の実施形態にか
かるデジタルカメラの電気的構成を示すブロック図であ
り、図3と同一もしくは相当箇所には、同一符号を付し
て説明を省略する。
FIG. 16 is a block diagram showing the electrical configuration of a digital camera according to the third embodiment of the present invention. The same or corresponding parts as in FIG. .

【0087】図16に示したデジタルカメラは、多重画
像撮影モードとして全焦点撮影モードを有するものであ
り、全焦点画像生成部77を備えている。この全焦点画
像生成部77は、位置合わせ部53で得られた演算結果
を基にして、全焦点画像を生成する。
The digital camera shown in FIG. 16 has an omnifocal photographing mode as a multiple image photographing mode, and includes an omnifocal image generator 77. The omnifocal image generation unit 77 generates an omnifocal image based on the calculation result obtained by the positioning unit 53.

【0088】CPU50は、全焦点画像撮影時に、多重
画像作成用とは別に位置合わせ用の被写界深度の深い画
像を撮影するために、絞り制御部78を介して絞り79
を最小に制御し、さらに、測光部710で得られたデー
タから絞り最小の場合の積分時間を算出する。また、C
PU50は、被写界深度を深くして撮影した画像を、他
の複数の画像の位置合わせのための基準画像として設定
する手段を兼ねている。
At the time of photographing an all-focus image, the CPU 50 controls the diaphragm 79 via the diaphragm control unit 78 in order to photograph an image with a large depth of field for positioning separately from that for creating a multiplex image.
Is minimized, and the integration time at the minimum aperture is calculated from the data obtained by the photometry unit 710. Also, C
The PU 50 also functions as a unit that sets an image captured with a large depth of field as a reference image for positioning a plurality of other images.

【0089】積分時間制御部711は、CPU50で演
算された積分時間に応じてCCD12を積分する。
The integration time control section 711 integrates the CCD 12 according to the integration time calculated by the CPU 50.

【0090】次に、上記第3の実施形態に係るデジタル
カメラ1による撮影シーケンスを図18〜図20を参照
して説明する。
Next, a photographing sequence by the digital camera 1 according to the third embodiment will be described with reference to FIGS.

【0091】撮影者は、撮影前に、撮影モード設定キー
17と液晶パネル18とで、絞り優先、シャッタースピ
ード優先などの露光条件の設定やホワイトバランスモー
ドの切り替えなどを行う。また、画像処理モード設定キ
ー110と液晶モニタ111とで、通常撮影モードか超
解像撮影モードかを選択する。画像処理モードについて
の設定内容を図17に示す。画像処理モード設定キー1
10がOFFにされると通常の撮影が行われる。ONに
されると全焦点撮影が行われる。つまり前景に合焦して
いる画像と背景に合焦している画像といったような複数
画像を撮影し、、合成して、全焦点画像を生成する。
The photographer uses the photographing mode setting key 17 and the liquid crystal panel 18 to set exposure conditions such as aperture priority and shutter speed priority and switch white balance mode before photographing. An image processing mode setting key 110 and a liquid crystal monitor 111 are used to select a normal shooting mode or a super-resolution shooting mode. FIG. 17 shows the settings for the image processing mode. Image processing mode setting key 1
When 10 is turned off, normal shooting is performed. When turned on, omnifocal photography is performed. That is, a plurality of images, such as an image focused on the foreground and an image focused on the background, are captured and combined to generate an all-focus image.

【0092】まずS401で、レリーズボタン13が押
されると、SS402では、CPU50が、その時の撮
影条件や画像処理モードの設定を読み取る。S403で
は、測距データを取り込む。
First, when the release button 13 is pressed in S401, in SS402, the CPU 50 reads the photographing conditions and image processing mode settings at that time. In S403, distance measurement data is fetched.

【0093】次いで、S404で、画像処理モードが全
焦点画像撮影モードが設定されているか否かを判断し、
通常撮影モードが設定されている場合(S404の判定
がNO)、S405で、CPU50が、位置合わせ部5
3および全焦点画像生成部77をOFFにする。
Next, in S404, it is determined whether or not the image processing mode is set to the omnifocal image shooting mode.
If the normal shooting mode is set (NO in S404), the CPU 50 determines in S405 that the positioning unit 5
3 and the omnifocal image generation unit 77 are turned off.

【0094】そして、通常の撮影を行う。すなわち、S
406で、CPU50が撮影レンズ駆動部56を介して
撮影レンズ11を、適当な被写体に合焦するように駆動
した後、S407でCCD12を積分する。S408で
は、CCD12から読み出された画像信号がA/Dコン
バータ51でデジタルデータに変換され、S409で
は、RAM52に一時記憶される。続いて、S410
で、CPU50がRAM52から画像データを読み出
し、S411でメディア15に記憶させる。
Then, normal photographing is performed. That is, S
At 406, the CPU 50 drives the photographic lens 11 via the photographic lens driving unit 56 so as to focus on an appropriate subject, and then integrates the CCD 12 at S407. In S408, the image signal read from the CCD 12 is converted into digital data by the A / D converter 51, and is temporarily stored in the RAM 52 in S409. Subsequently, S410
Then, the CPU 50 reads out the image data from the RAM 52 and stores it in the medium 15 in S411.

【0095】一方、画像処理モードとして、全焦点画像
撮影モードが設定されている場合には(S404の判定
がYES)、図19のS421に進む。S421では、
CPU50が位置合わせ部53および全焦点画像生成部
77をONにし、撮影条件を取り込む。
On the other hand, when the omnifocal image shooting mode is set as the image processing mode (YES in S404), the process proceeds to S421 in FIG. In S421,
The CPU 50 turns on the positioning unit 53 and the omnifocal image generation unit 77 to capture the shooting conditions.

【0096】さらに、S422では、CPU50が撮影
レンズ駆動部56を介して撮影レンズ11を、適当な第
1の被写体、たとえば、図21(a)に示す山に合焦す
るように駆動した後、S423でCCD12を積分し、
1枚目の撮影を行う。次いで、S424で、画像データ
がA/Dコンバータ51でデジタルデータに変換され、
S425でRAM52に一時記憶される。
Further, in S422, after the CPU 50 drives the photographing lens 11 via the photographing lens driving section 56 so as to focus on an appropriate first subject, for example, a mountain shown in FIG. In step S423, the CCD 12 is integrated.
The first image is taken. Next, in S424, the image data is converted into digital data by the A / D converter 51,
In S425, it is temporarily stored in the RAM 52.

【0097】続いて、S426では、CPU50が撮影
条件を取り込み、S427で、撮影レンズ駆動部56を
介して撮影レンズ11を、第1の被写体とは別の第2の
被写体、たとえば人物に合焦するように駆動した後、同
様に2枚目の撮影を行なう。つまり、S428でCCD
12を積分し、S429で、画像信号がA/Dコンバー
タ51でデジタルデータに変換され、たとえば図21
(b)のような画像を得る。そして、S430では、そ
の画像データがRAM52に記憶される。
Subsequently, in S426, the CPU 50 captures the photographing conditions, and in S427, focuses the photographing lens 11 on a second object different from the first object, for example, a person via the photographing lens driving unit 56. After that, the second image is similarly photographed. That is, in S428, the CCD
In step S429, the image signal is converted into digital data by the A / D converter 51.
An image as shown in (b) is obtained. Then, in S430, the image data is stored in the RAM 52.

【0098】さらに、S431では、CPU50が撮影
レンズ駆動部56を介して撮影レンズ11を、第1の被
写体と第2の被写体との間の付近に合焦するように駆動
した後、S432では、絞り制御部78を介して、被写
界深度が最大になるように、絞り79を最小にする一
方、S433で、測光部710で得られたデータから絞
り最小の場合の積分時間を算出する。
Further, in S431, the CPU 50 drives the photographing lens 11 via the photographing lens driving unit 56 so as to focus on the vicinity between the first subject and the second subject, and in S432, The aperture 79 is minimized via the aperture control unit 78 so as to maximize the depth of field, and in S433, the integration time for the minimum aperture is calculated from the data obtained by the photometry unit 710.

【0099】そして、S434では、積分時間制御部7
11を介して、前記算出した積分時間でCCD12を積
分し、基準となる3枚目の撮影を行い、S435では、
画像信号がA/Dコンバータ51でデジタルデータに変
換され、たとえば、図21(c)のような画像を得る。
そして、S436で、その画像がRAM52に記憶され
る。
Then, in S434, the integration time control unit 7
11, the CCD 12 is integrated with the calculated integration time, and a third image is taken as a reference.
The image signal is converted into digital data by the A / D converter 51 to obtain, for example, an image as shown in FIG.
Then, the image is stored in the RAM 52 in S436.

【0100】次に、S437で、CPU50が、これら
3枚の画像データをRAM52から読み出し、位置合わ
せ部53に送る。S438では、位置合わせ部53によ
り、基準画像である3枚目の撮影画像に対して、1枚
目、2枚目の撮影画像データの位置ずれ量を算出する。
Next, in S437, the CPU 50 reads out these three pieces of image data from the RAM 52 and sends them to the positioning unit 53. In step S438, the positioning unit 53 calculates the amount of displacement between the first and second shot image data with respect to the third shot image as the reference image.

【0101】S439では、全焦点画像生成部77によ
り、位置合わせ部53で得られた演算結果を基に、全焦
点画像生成のために、上記1枚目、2枚目の撮影画像の
合成処理を行い、1枚の画像を合成したのち、図18の
S411に進んで、CPU50がその画像をメディア1
5に記憶させる。
In step S439, the omnifocal image generator 77 synthesizes the first and second captured images to generate an omnifocal image based on the calculation result obtained by the positioning unit 53. After synthesizing one image, the process proceeds to S411 in FIG.
5 is stored.

【0102】このように、多重画像撮影モードで撮影さ
れた3枚の画像のうちの1枚を基準画像とし、基準画像
を基にして残りの複数の画像の位置合わせを行うように
したので、たとえば、被写界深度の深い1枚の画像を基
準にすれば、多重画像作成用の画像にピントずれがあっ
たとしても、上記基準画像の遠近のいずれに対しても、
複数画像の位置を容易に合わせることができる。
As described above, one of the three images shot in the multiple image shooting mode is used as the reference image, and the remaining images are aligned based on the reference image. For example, if one image having a large depth of field is used as a reference, even if there is a defocus in the image for creating a multiplex image, the image can be obtained regardless of the distance of the reference image.
The positions of a plurality of images can be easily adjusted.

【0103】つぎに、被写界深度の深い画像を基準にし
た上記位置合わせについて、図21に示す具体的な画像
で説明する。
Next, the above-described positioning based on an image having a large depth of field will be described with reference to a specific image shown in FIG.

【0104】図21(a)に示すように、人物の背景に
山がある場合、人物にも山にも合焦している画像を得る
ために、多重画像撮影を行う。多重画像撮影を行って得
られた山に合焦している画像と、人物に合焦している画
像を、それぞれ図21(a),(b)に示す。この2枚
の画像の合焦部分だけを用いて張り合わせ処理すること
により、全焦点画像を得る。
As shown in FIG. 21 (a), when there is a mountain in the background of a person, multiple images are taken in order to obtain an image in which both the person and the mountain are in focus. FIGS. 21A and 21B show an image focused on a mountain and an image focused on a person, respectively, obtained by performing multiple image capturing. An all-in-focus image is obtained by performing a bonding process using only the in-focus portions of the two images.

【0105】しかし、図21(a)の人物の部分が大き
くピントずれしており、この画像に、図21(b)に示
すように合焦している人物の部分を位置合わせするの
は、困難である。
However, the part of the person in FIG. 21A is largely out of focus, and the part of the person who is in focus as shown in FIG. Have difficulty.

【0106】そこで、ここでは、位置合わせ処理用に、
さらに図21(c)に示すような別の被写界深度の深い
画像を撮影する。その画像は、人物にも山にもある程度
合焦しており、図21(a)に比べて人物の位置がよく
分かる。図21(c)に示す画像は、人物の位置も山の
位置も分かりやすいので、これを基準にすれば、図21
(a),(b)の画像を簡単に位置合わせることができ
る。
Therefore, here, for positioning processing,
Further, another image having a large depth of field as shown in FIG. In the image, the person and the mountain are in focus to some extent, and the position of the person can be better understood as compared with FIG. In the image shown in FIG. 21C, both the position of the person and the position of the mountain are easy to understand.
The images of (a) and (b) can be easily positioned.

【0107】この場合、位置合わせ用画像の撮影時に
は、絞り79を最小にしているが、図21(c)のよう
な山にも人物にもある程度合焦するのであれば、必ずし
も絞り79を最小にする必要はない。撮影時間が短くな
るように、かつ、山にも人物にもある程度合焦するよう
に、位置合わせ用の撮影時の絞り79を調整するのが望
ましい。
In this case, the aperture 79 is set to the minimum when the positioning image is taken. However, if the mountain and the person are focused to some extent as shown in FIG. You don't have to. It is desirable to adjust the aperture 79 at the time of photographing for positioning so that the photographing time is shortened and both the mountain and the person are focused to some extent.

【0108】上記の全焦点画像の生成についても、図9
に示したPC81で処理するようにしてもよい。
The generation of the omnifocal image is also described in FIG.
The processing may be performed by the PC 81 shown in FIG.

【0109】図22は、上記PC81で処理する場合の
ソウトウェアの実行を示すフローチャートである。
FIG. 22 is a flowchart showing the execution of the software when processing is performed by the PC 81.

【0110】ここでは、位置合わせ部53で演算される
画像Aが図21(a)、画像Bが図21(b)、画像C
が図21(c)であるとし、これら画像A,B,Cは、
PC81のハードディスクに記憶されているとする。
Here, the image A calculated by the positioning unit 53 is shown in FIG. 21A, the image B is shown in FIG.
Is as shown in FIG. 21C, and these images A, B, and C are
It is assumed that it is stored in the hard disk of the PC 81.

【0111】まず、S110で、画像A,B,Cをハー
ドディスクから読み出し、ついで、S111で、基準画
像決定部で画像A,B,Cで最も深度の深い画像を検出
して基準画像として決定する(たとえば、画像Cを基準
画像と決定する)。
First, in step S110, the images A, B, and C are read from the hard disk. Then, in step S111, the reference image determination unit detects the image with the deepest depth among the images A, B, and C and determines the image as the reference image. (For example, image C is determined as a reference image).

【0112】そして、S112で、画像Cを基準にし
て、残りの画像A,Bの位置合わせの演算処理を行い、
S113で、全焦点画像を得るため、画像A,Bの画像
合成処理を行う。S114では、合成処理により得られ
た図21(d)に示すような画像をハードディスクに記
憶して終了する。
Then, in step S112, the arithmetic processing for the positioning of the remaining images A and B is performed with reference to the image C.
In S113, an image combining process of images A and B is performed to obtain an all-focus image. In S114, the image as shown in FIG. 21D obtained by the combining process is stored in the hard disk, and the process ends.

【0113】なお、上記各実施形態では、複数の撮影画
像をデジタルカメラ1により取得したものであるが、デ
ジタルカメラ1以外の他の撮像装置で複数の撮影画像を
取得したものであってもよい。
In each of the above embodiments, a plurality of captured images are obtained by the digital camera 1, but a plurality of captured images may be obtained by an imaging device other than the digital camera 1. .

【0114】[0114]

【発明の効果】請求項1に係る発明によれば、手ぶれな
どに起因する画像間のずれを点光源のずれから把握でき
るうえ、基準が点光源であるので、画像の位置合わせの
ための演算が簡単になり、画像処理の短時間化を図るこ
とができる。
According to the first aspect of the present invention, a shift between images caused by a camera shake or the like can be grasped from a shift of a point light source, and the reference is a point light source. Can be simplified, and the image processing can be shortened.

【0115】請求項2に係る発明によれば、複数の画像
における所望領域、たとえば、主被写体近傍の特定領域
を合焦領域として検出することで、確実に主被写体の位
置合わされた画像が合成されるうえ、合焦領域について
演算すればよいから、処理時間も短縮できる。
According to the second aspect of the present invention, a desired area in a plurality of images, for example, a specific area near the main subject is detected as an in-focus area, so that an image in which the main subject is properly aligned is synthesized. In addition, since it is sufficient to calculate the in-focus area, the processing time can be reduced.

【0116】請求項3に係る発明によれば、たとえば、
被写界深度の深い1枚の画像を基準にすることにより、
多重画像作成用の画像にピントずれがあったとしても、
上記基準画像の遠近に関係なく、複数画像の位置を容易
に合わせることができる。
According to the invention of claim 3, for example,
By referring to one image with a deep depth of field,
Even if the image for creating multiple images is out of focus,
Regardless of the distance between the reference images, the positions of the plurality of images can be easily adjusted.

【0117】請求項4に係る発明によれば、位置合わせ
精度が高められるうえ、位置合わせのための演算が簡単
になり、処理時間を大幅に短縮できる。さらに、撮影さ
れた複数の画像の中で静止状態と見なせる点光源を撮影
者が任意に指示することもできる。
According to the fourth aspect of the present invention, the positioning accuracy can be improved, the calculation for the positioning can be simplified, and the processing time can be greatly reduced. Further, the photographer can arbitrarily designate a point light source that can be regarded as a stationary state in a plurality of photographed images.

【0118】請求項5に係る発明によれば、特定領域を
合焦領域として検出することにより、確実に特定領域に
位置が合った画像を合成できるうえ、合焦領域について
演算すればよいから、処理時間を短縮できる。
According to the fifth aspect of the present invention, by detecting the specific area as the in-focus area, it is possible to reliably synthesize an image in which the specific area is positioned, and to calculate the in-focus area. Processing time can be reduced.

【0119】請求項6に係る発明によれば、複数の画像
を基準画像と比較することで位置合わせを行うことがで
きるから、位置合わせのための演算が簡単になり、処理
時間を短くできる。
According to the invention of claim 6, positioning can be performed by comparing a plurality of images with a reference image, so that calculation for positioning can be simplified and processing time can be shortened.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の第1の実施形態にかかるデジタルカ
メラを示す外観斜視図である。
FIG. 1 is an external perspective view showing a digital camera according to a first embodiment of the present invention.

【図2】同じくデジタルカメラを示す背面図である。FIG. 2 is a rear view showing the same digital camera.

【図3】同じくデジタルカメラの電気的構成を示すブロ
ック図である。
FIG. 3 is a block diagram showing an electrical configuration of the digital camera.

【図4】同じくデジタルカメラの画像処理モードの設定
例を示す表である。
FIG. 4 is a table showing a setting example of an image processing mode of the digital camera.

【図5】第1の実施形態における撮影シーケンスを示す
フローチャートである。
FIG. 5 is a flowchart illustrating a shooting sequence according to the first embodiment.

【図6】図5に続く撮影シーケンスを示すフローチャー
トである。
FIG. 6 is a flowchart showing a shooting sequence following FIG. 5;

【図7】図6に続く撮影シーケンスを示すフローチャー
トである。
FIG. 7 is a flowchart showing a shooting sequence following FIG. 6;

【図8】第1の実施形態にかかるデジタルカメラによっ
て高解像度画像を生成するときの説明図である。
FIG. 8 is an explanatory diagram when a high-resolution image is generated by the digital camera according to the first embodiment.

【図9】高超解度画像を生成するための処理を行うコン
ピュータを示す正面図である。
FIG. 9 is a front view illustrating a computer that performs a process for generating a high-resolution image.

【図10】第1の実施形態について、コンピュータでの
処理を示すフローチャートでる。
FIG. 10 is a flowchart illustrating processing on a computer according to the first embodiment.

【図11】この発明の第2の実施形態にかかるデジタル
カメラの電気的構成を示すブロック図である。
FIG. 11 is a block diagram illustrating an electrical configuration of a digital camera according to a second embodiment of the present invention.

【図12】第2の実施形態における撮影シーケンスを示
すフローチャートである。
FIG. 12 is a flowchart illustrating a shooting sequence according to the second embodiment.

【図13】図12に続く撮影シーケンスを示すフローチ
ャートである。
FIG. 13 is a flowchart showing a shooting sequence following FIG. 12;

【図14】第2の実施形態にかかるデジタルカメラによ
って高解像度画像を生成するときの説明図である。
FIG. 14 is an explanatory diagram when a high-resolution image is generated by the digital camera according to the second embodiment.

【図15】第2の実施形態について、コンピュータでの
処理を示すフローチャートでる。
FIG. 15 is a flowchart illustrating processing by a computer according to the second embodiment.

【図16】この発明の第3の実施形態にかかるデジタル
カメラの電気的構成を示すブロック図である。
FIG. 16 is a block diagram showing an electrical configuration of a digital camera according to a third embodiment of the present invention.

【図17】同じくデジタルカメラの画像処理モードの設
定例を示す表である。
FIG. 17 is a table showing a setting example of an image processing mode of the digital camera.

【図18】第3の実施形態における撮影シーケンスを示
すフローチャートである。
FIG. 18 is a flowchart illustrating an imaging sequence according to the third embodiment.

【図19】図18に続く撮影シーケンスを示すフローチ
ャートである。
FIG. 19 is a flowchart showing a shooting sequence following FIG. 18;

【図20】図19に続く撮影シーケンスを示すフローチ
ャートである。
FIG. 20 is a flowchart showing a shooting sequence following FIG. 19;

【図21】第3の実施形態にかかるデジタルカメラによ
って、全焦点画像を生成するときの説明図である。
FIG. 21 is an explanatory diagram when an omnifocal image is generated by the digital camera according to the third embodiment.

【図22】第3の実施形態について、コンピュータでの
処理を示すフローチャートでる。
FIG. 22 is a flowchart illustrating processing by a computer according to the third embodiment.

【符号の説明】[Explanation of symbols]

1・・・・・・・・・デジタルカメラ(撮像装置) 12・・・・・・・・CCD 50・・・・・・・・CPU(基準画像設定手段) 53・・・・・・・・位置合わせ手段 58・・・・・・・・静止点光源検出手段 68・・・・・・・・合焦領域検出手段 1 digital camera (imaging device) 12 CCD 50 (reference image setting means) 53 · Positioning means 58 ·························· Focusing area detecting means

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) // H04N 101:00 H04N 101:00 (72)発明者 新川 勝仁 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 (72)発明者 佐藤 一睦 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 Fターム(参考) 5B057 BA02 CA08 CA12 CA16 CB08 CB12 CB16 CE08 5C022 AA13 AB28 AB55 AB68 AC03 AC32 AC42 AC69 CA02 5C023 AA11 AA27 AA31 AA37 AA38 BA01 BA09 BA12 BA13 CA03 CA08 DA04 DA08 EA03 5C076 AA11 AA19 AA21 BA01 5L096 CA04 CA06 DA01 EA14 FA09 GA08 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) // H04N 101: 00 H04N 101: 00 (72) Inventor Katsuhito Shinkawa 2-chome Azuchicho, Chuo-ku, Osaka-shi, Osaka No. 3-13 Osaka International Building Minolta Co., Ltd. (72) Inventor Kazunori Sato 2-3-1 Azuchicho, Chuo-ku, Osaka-shi, Osaka F-term in Osaka International Building Minolta Co., Ltd. 5B057 BA02 CA08 CA12 CA16 CB08 CB12 CB16 CE08 5C022 AA13 AB28 AB55 AB68 AC03 AC32 AC42 AC69 CA02 5C023 AA11 AA27 AA31 AA37 AA38 BA01 BA09 BA12 BA13 CA03 CA08 DA04 DA08 EA03 5C076 AA11 AA19 AA21 BA01 5L096 CA04 CA09 DA01EA

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 同一被写体についての複数の撮影画像に
含まれる静止状態の点光源を検出する手段と、 検出された点光源を基準にして複数の画像の位置合わせ
を行う手段と、 を備えていることを特徴とする画像処理装置。
1. A system comprising: means for detecting a point light source in a stationary state included in a plurality of captured images of the same subject; and means for aligning a plurality of images based on the detected point light source. An image processing apparatus, comprising:
【請求項2】 同一被写体についての複数の撮影画像の
合焦領域を検出する手段と、 検出された合焦領域のみの画像データを用いて複数の画
像の位置合わせを行う手段と、 を備えていることを特徴とする画像処理装置。
2. An image forming apparatus comprising: means for detecting a focus area of a plurality of captured images of the same subject; and means for aligning a plurality of images using image data of only the detected focus area. An image processing apparatus, comprising:
【請求項3】 同一被写体についての複数の撮影画像の
うちの1枚を基準画像として設定する手段と、 基準画像を基にして残りの複数の画像の位置合わせを行
う手段と、 を備えていることを特徴とする画像処理装置。
And means for setting one of a plurality of captured images of the same subject as a reference image, and means for performing positioning of the remaining images based on the reference image. An image processing apparatus characterized by the above-mentioned.
【請求項4】 同一被写体についての複数の撮影画像を
位置合わせする画像処理方法において、 前記複数の撮影画像に含まれる静止状態の点光源を基準
にして、複数の画像の位置合わせを行うことを特徴とす
る画像処理方法。
4. An image processing method for aligning a plurality of captured images of the same subject, wherein the plurality of images are aligned with respect to a stationary point light source included in the plurality of captured images. Characteristic image processing method.
【請求項5】 同一被写体についての複数の撮影画像を
位置合わせする画像処理方法において、 前記複数の撮影画像の合焦領域のみの画像データを用い
て、複数の画像の位置合わせを行うことを特徴とする画
像処理方法。
5. An image processing method for aligning a plurality of captured images of the same subject, wherein the plurality of images are aligned using image data of only a focused region of the plurality of captured images. Image processing method.
【請求項6】 同一被写体についての複数の撮影画像を
位置合わせする画像処理方法において、 撮影された3枚以上の画像のうちの1枚の基準画像を基
にして、残りの複数の画像の位置合わせを行うことを特
徴とする画像処理方法。
6. An image processing method for aligning a plurality of photographed images of the same subject, wherein a position of a plurality of remaining images is determined based on one of three or more photographed images. An image processing method comprising performing matching.
JP2000272119A 2000-09-07 2000-09-07 Image processing unit and image processing method Pending JP2002084412A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000272119A JP2002084412A (en) 2000-09-07 2000-09-07 Image processing unit and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000272119A JP2002084412A (en) 2000-09-07 2000-09-07 Image processing unit and image processing method

Publications (1)

Publication Number Publication Date
JP2002084412A true JP2002084412A (en) 2002-03-22

Family

ID=18758298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000272119A Pending JP2002084412A (en) 2000-09-07 2000-09-07 Image processing unit and image processing method

Country Status (1)

Country Link
JP (1) JP2002084412A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005041562A1 (en) * 2003-10-22 2005-05-06 Matsushita Electric Industrial Co., Ltd. Imaging device and method of producing the device, portable apparatus, and imaging element and method of producing the element
JP2006332900A (en) * 2005-05-24 2006-12-07 Nikon Corp Electronic camera and image processing program
US7893971B2 (en) 2006-05-29 2011-02-22 Panasonic Corporation Light source estimation device that captures light source images when it is determined that the imaging device is not being used by the cameraman
US8023000B2 (en) 2007-04-20 2011-09-20 Fujifilm Corporation Image pickup apparatus, image processing apparatus, image pickup method, and image processing method
JP2012227944A (en) * 2006-05-12 2012-11-15 Ricoh Co Ltd End-to-end design of superresolution electro-optic imaging system
US8558897B2 (en) 2003-01-15 2013-10-15 Canon Kabushiki Kaisha Image-pickup apparatus and method for obtaining a synthesized image
JP2015231220A (en) * 2014-06-06 2015-12-21 キヤノン株式会社 Image processing apparatus, imaging device, image processing method, imaging method and program
US10880483B2 (en) 2004-03-25 2020-12-29 Clear Imaging Research, Llc Method and apparatus to correct blur in all or part of an image

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8558897B2 (en) 2003-01-15 2013-10-15 Canon Kabushiki Kaisha Image-pickup apparatus and method for obtaining a synthesized image
US8218032B2 (en) 2003-10-22 2012-07-10 Panasonic Corporation Imaging apparatus and method for producing the same, portable equipment, and imaging sensor and method for producing the same
WO2005041562A1 (en) * 2003-10-22 2005-05-06 Matsushita Electric Industrial Co., Ltd. Imaging device and method of producing the device, portable apparatus, and imaging element and method of producing the element
US7924327B2 (en) 2003-10-22 2011-04-12 Panasonic Corporation Imaging apparatus and method for producing the same, portable equipment, and imaging sensor and method for producing the same
US11165961B2 (en) 2004-03-25 2021-11-02 Clear Imaging Research, Llc Method and apparatus for capturing digital video
US11595583B2 (en) 2004-03-25 2023-02-28 Clear Imaging Research, Llc Method and apparatus for capturing digital video
US11924551B2 (en) 2004-03-25 2024-03-05 Clear Imaging Research, Llc Method and apparatus for correcting blur in all or part of an image
US11812148B2 (en) 2004-03-25 2023-11-07 Clear Imaging Research, Llc Method and apparatus for capturing digital video
US11800228B2 (en) 2004-03-25 2023-10-24 Clear Imaging Research, Llc Method and apparatus for capturing digital video
US10880483B2 (en) 2004-03-25 2020-12-29 Clear Imaging Research, Llc Method and apparatus to correct blur in all or part of an image
US11627391B2 (en) 2004-03-25 2023-04-11 Clear Imaging Research, Llc Method and apparatus for capturing digital video
US11457149B2 (en) 2004-03-25 2022-09-27 Clear Imaging Research, Llc Method and apparatus for capturing digital video
US11490015B2 (en) 2004-03-25 2022-11-01 Clear Imaging Research, Llc Method and apparatus for capturing digital video
US11589138B2 (en) 2004-03-25 2023-02-21 Clear Imaging Research, Llc Method and apparatus for using motion information and image data to correct blurred images
US11627254B2 (en) 2004-03-25 2023-04-11 Clear Imaging Research, Llc Method and apparatus for capturing digital video
JP2006332900A (en) * 2005-05-24 2006-12-07 Nikon Corp Electronic camera and image processing program
JP2012227944A (en) * 2006-05-12 2012-11-15 Ricoh Co Ltd End-to-end design of superresolution electro-optic imaging system
US7893971B2 (en) 2006-05-29 2011-02-22 Panasonic Corporation Light source estimation device that captures light source images when it is determined that the imaging device is not being used by the cameraman
US8023000B2 (en) 2007-04-20 2011-09-20 Fujifilm Corporation Image pickup apparatus, image processing apparatus, image pickup method, and image processing method
JP2015231220A (en) * 2014-06-06 2015-12-21 キヤノン株式会社 Image processing apparatus, imaging device, image processing method, imaging method and program

Similar Documents

Publication Publication Date Title
JP5361528B2 (en) Imaging apparatus and program
JP4904243B2 (en) Imaging apparatus and imaging control method
JP5173453B2 (en) Imaging device and display control method of imaging device
US8988535B2 (en) Photographing control method and apparatus according to motion of digital photographing apparatus
JP2008136035A (en) Imaging apparatus
JP2009010776A (en) Imaging device, photography control method, and program
JP2006025238A (en) Imaging device
TW200901754A (en) Imaging device
KR101599881B1 (en) Digital image signal processing apparatus method for controlling the apparatus and medium for recording the method
JP2012120151A (en) Image capturing apparatus, image capturing control method, and program
TW200810534A (en) Image pickup apparatus and image pickup control method
JP2007281647A (en) Electronic camera and image processing apparatus
JP2008178062A (en) Camera and camera system
JP2002084412A (en) Image processing unit and image processing method
KR20090083713A (en) Apparatus for processing digital image and method for controlling thereof
KR101635102B1 (en) Digital photographing apparatus and controlling method thereof
JP2009253925A (en) Imaging apparatus and imaging method, and imaging control program
JP4336186B2 (en) Image correction apparatus and imaging apparatus
JP2011097502A (en) Photographing control device, and photographing control method
JP2007028163A (en) Display device of electronic camera
JP2007097098A (en) Electronic camera
JP2012027302A (en) Imaging apparatus with projection function
JP5938269B2 (en) Imaging apparatus and control method thereof
JP2012124575A (en) Imaging apparatus
JP5100621B2 (en) Imaging device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040308

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20050801

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050801