JPH11196318A - Image pickup device - Google Patents

Image pickup device

Info

Publication number
JPH11196318A
JPH11196318A JP9360607A JP36060797A JPH11196318A JP H11196318 A JPH11196318 A JP H11196318A JP 9360607 A JP9360607 A JP 9360607A JP 36060797 A JP36060797 A JP 36060797A JP H11196318 A JPH11196318 A JP H11196318A
Authority
JP
Japan
Prior art keywords
image
subject
partial
images
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9360607A
Other languages
Japanese (ja)
Inventor
Daisaku Horie
大作 保理江
Shinya Matsuda
伸也 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP9360607A priority Critical patent/JPH11196318A/en
Priority to US09/221,418 priority patent/US6720997B1/en
Publication of JPH11196318A publication Critical patent/JPH11196318A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)
  • Image Input (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce image distortion due to composite processing for the photographed images of the whole object consisting of composition of plural partial images and having high resolution. SOLUTION: After photographing the whole object, a digital camera changes the optical axis direction of an image pickup part 2 and partially photographs the object. An image processing part 23 enlarges the photographed image of the whole object at a prescribed magnification value based on the number of divisions of the object and the superposed positions of photographed images of respective parts of the object in the enlarged image is calculated. The photographed images of respective parts are composited so that their boundary parts are stuck to each other in a state aligned to their superposed positions to generate the image of the whole object. The image of the whole object is entered and used as an aligning reference for the sticking composition of the photographed images of respective parts to reduce image distortion generated on the sticking position due to composition processing.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、被写体を複数のブ
ロックに分割して部分的に撮像し、各部分画像を画像処
理で合成して被写体全体に対する撮影画像を生成する撮
像装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image pickup apparatus which divides an object into a plurality of blocks, partially captures the image, and combines the partial images by image processing to generate a photographed image of the entire object. .

【0002】[0002]

【従来の技術】従来、CCD等の固体撮像素子を用いた
デジタルカメラにおいては、被写体を複数のブロックに
分割して部分的に撮像し、各部分画像を貼り合わせるよ
うに合成して被写体全体の撮影画像を生成することによ
り解像度を高める方法が提案されている。
2. Description of the Related Art Conventionally, in a digital camera using a solid-state image pickup device such as a CCD, a subject is divided into a plurality of blocks, a partial image is taken, and partial images are combined so as to be combined to form the entire subject. A method of increasing the resolution by generating a captured image has been proposed.

【0003】例えば特開平6−141246号公報に
は、被写体光像を互いに境界部分がオーバーラップする
ように複数の部分に分割し、各部分光像を複数の撮像素
子でそれぞれ撮像し、これら部分的に撮像した画像をオ
ーバーラップした境界部分で貼り合わせるように合成し
て被写体全体の画像を得るようにした撮像装置が示され
ている。この撮像装置では、境界部分に画像のずれが生
じている場合、境界部分における画像のずれ量を平行移
動量と回転移動量とで表し、これらの移動量に基づいて
両画像を変化させることで境界部分の画像のずれを補正
した後、合成処理を行うようにしている。
For example, Japanese Patent Application Laid-Open No. 6-141246 discloses that a subject light image is divided into a plurality of portions so that boundaries are overlapped with each other, and each partial light image is picked up by a plurality of image pickup devices. An image pickup apparatus is shown in which an image of an entire subject is obtained by synthesizing images that have been image-captured so as to be bonded together at an overlapping boundary portion. In this imaging device, when an image shift occurs at a boundary portion, the image shift amount at the boundary portion is represented by a parallel movement amount and a rotational movement amount, and both images are changed based on these movement amounts. After the displacement of the image at the boundary portion is corrected, the combining process is performed.

【0004】また、特開平3−210873号公報に
は、画像取込領域より大きい原稿の画像を互いに境界部
分をオーバーラップさせて部分的に取り込み、これらの
部分画像をオーバーラップの部分で接続しつつ記録紙に
記録することで原稿全体の画像を形成する画像形成装置
が示されている。
Japanese Patent Laid-Open Publication No. Hei 3-210873 discloses an image of a document larger than an image capturing area is partially captured by overlapping a boundary portion with each other, and these partial images are connected at an overlapping portion. 1 shows an image forming apparatus that forms an image of an entire document by recording on a recording sheet while recording.

【0005】[0005]

【発明が解決しようとする課題】上記特開平6−141
246号公報記載の部分画像の合成方法は、オーバーラ
ップ領域の局所的な画像のずれの情報のみを用いて合成
処理を行っているので、合成される部分画像間に画像の
ずれが生じていると、例えばオーバーラップ領域からそ
の外側領域まで延びる直線などの図形が両領域の繋ぎ目
付近で歪んだり、屈曲したりするという不具合が生じ
る。また、オーバーラップ領域に両部分画像の位置合わ
せ行うための特徴的な画像情報が含まれていない場合、
正確に合成処理ができず、合成画像の合成部分に像歪み
が生じるという不具合もある。
SUMMARY OF THE INVENTION The above-mentioned Japanese Patent Laid-Open No. 6-141 is disclosed.
In the method of synthesizing partial images described in Japanese Patent Publication No. 246, since the synthesizing process is performed using only information of local image shift in the overlap area, image shift occurs between partial images to be synthesized. This causes a problem that, for example, a graphic such as a straight line extending from the overlap region to the outside region is distorted or bent near a joint between the two regions. In addition, when the overlapping area does not include characteristic image information for performing alignment of the two partial images,
There is also a problem that the combining process cannot be performed accurately, and image distortion occurs in a combined portion of the combined image.

【0006】また、上記特開平6−141246号公報
記載のものもオーバーラップ領域の画像のずれ情報のみ
を用いて平行移動等により画像の位置合わせを行ってい
るので、合成される2以上の部分画像間で回転ずれやサ
イズの相違によるずれ等が生じている場合には、部分画
像間で位置合わせを行うことが困難で、正確に合成処理
を行うことかできない。従って、同公報記載の部分画像
の合成方法をデジタルカメラ等の撮像装置に適用しても
上述の合成処理に起因する合成画像の像歪みの問題を解
決することはできない。
[0006] In the above-mentioned Japanese Patent Application Laid-Open No. 6-141246, image alignment is performed by parallel movement or the like using only the image shift information in the overlap area. If there is a rotation shift or a shift due to a difference in size between images, it is difficult to perform registration between partial images, and it is not possible to perform a synthesizing process accurately. Therefore, even if the method of synthesizing partial images described in the publication is applied to an imaging device such as a digital camera, the problem of image distortion of a synthesized image caused by the above-described synthesis processing cannot be solved.

【0007】本発明は、上記課題に鑑みてなされたもの
であり、複数の部分的に撮影された画像を合成してなる
被写体全体の撮影画像の合成部分の像歪みを低減し、好
適な画質の撮影画像が得られる撮像装置を提供するもの
である。
SUMMARY OF THE INVENTION The present invention has been made in consideration of the above problems, and has been made in view of the above circumstances. To provide an image pickup device that can obtain a photographed image of the same.

【0008】[0008]

【課題を解決するための手段】本発明は、被写体全体を
撮像する第1の撮像手段と、上記被写体全体を複数の部
分に分割して順次、撮像する第2の撮像手段と、上記第
1の撮像手段で撮像された被写体全体の撮影画像を基準
に上記第2の撮像手段で撮像された被写体の各部分画像
の合成における合成位置を算出する合成位置算出手段
と、上記被写体の各部分画像を上記合成位置算出手段で
算出された合成位置に位置合せした状態で各部分画像の
合成を行う画像合成手段とを備えたものである(請求項
1)。
According to the present invention, there is provided a first image pickup means for picking up an image of an entire object, a second image pickup means for dividing the entire object into a plurality of portions and sequentially picking up the images, and Combining position calculating means for calculating a combining position in combining the partial images of the subject imaged by the second image capturing means with reference to an image of the entire subject imaged by the image capturing means; and each partial image of the subject image And an image synthesizing means for synthesizing each partial image in a state where the image is aligned with the synthesizing position calculated by the synthesizing position calculating means.

【0009】上記構成によれば、第1の撮像手段で被写
体全体の撮影が行われ、第2の撮像手段で被写体全体を
複数の部分に分割して順次、各部分の撮影が行われる。
被写体の各部分の撮影画像に対して第1の撮像手段で撮
像された被写体全体の撮影画像を基準に合成処理におけ
る合成位置が算出される。そして、被写体の各部分画像
が合成位置算出手段で算出された合成位置に位置合され
た状態で合成されて被写体全体の撮影画像が生成され
る。
According to the above arrangement, the entire image of the subject is photographed by the first image pickup means, and the entire image of the object is divided into a plurality of parts by the second image pickup means, and each part is photographed sequentially.
The combining position in the combining process is calculated based on the captured image of the entire subject captured by the first imaging unit with respect to the captured image of each part of the subject. Then, the respective partial images of the subject are combined in a state where they are aligned with the combining position calculated by the combining position calculating means, and a captured image of the entire subject is generated.

【0010】また、本発明は、被写体全体を撮像する第
1の撮像手段と、境界部分が重複するように上記被写体
全体を複数の部分に分割し、被写体の各部分を上記被写
体全体の撮像サイズと略同一のサイズに拡大して順次、
撮像する第2の撮像手段と、上記第1及び第2の撮像手
段で撮像された画像を記憶する記憶手段と、上記第1の
撮像手段で撮像された被写体全体の撮影画像を基準に上
記第2の撮像手段で撮像された被写体の各部分画像の貼
合せ合成における合成位置を算出する合成位置算出手段
と、上記被写体の各部分画像を上記合成位置算出手段で
算出された合成位置に位置合せした状態で互いに境界部
分で貼り合わせるように各部分画像の合成を行う画像合
成手段とを備えたものである(請求項2)。
Further, according to the present invention, there is provided a first image pickup means for picking up an image of an entire object, wherein the entire object is divided into a plurality of portions so that a boundary portion is overlapped, and each portion of the object is divided into an image size of the entire object. Expanding to approximately the same size as
A second imaging unit that captures an image, a storage unit that stores images captured by the first and second imaging units, and the second imaging unit based on a captured image of the entire subject captured by the first imaging unit. A combining position calculating unit that calculates a combining position in the combining of the partial images of the subject imaged by the second imaging unit; and aligning the partial images of the subject with the combining position calculated by the combining position calculating unit. Image combining means for combining the partial images so that the partial images are attached to each other at the boundary portions in the state in which they have been performed (claim 2).

【0011】上記構成によれば、被写体を部分的に撮影
し、複数の部分的な撮影画像(以下、部分画像とい
う。)を境界部分で貼り合わせるように合成して被写体
全体の撮影画像(以下、全体画像という。)が生成され
る。この場合、第1の撮像手段で被写体全体が撮影画面
に入るように画面構成して被写体全体の撮影が行われ、
この撮影画像(以下、プレ撮影画像という。)は記憶手
段に記憶される。
According to the above arrangement, the subject is partially photographed, and a plurality of partially photographed images (hereinafter, referred to as "partial images") are synthesized so as to be pasted together at a boundary portion. , An entire image.) Is generated. In this case, the entire image of the subject is photographed by configuring the screen by the first imaging means so that the entire subject enters the photographing screen.
This photographed image (hereinafter, referred to as a pre-photographed image) is stored in the storage unit.

【0012】また、第2の撮像手段で、境界部分が重複
するように被写体全体を複数の部分に分割し、被写体の
各部分を被写体全体の撮像サイズと略同一のサイズに拡
大して順次、撮影され、その撮影画像(部分画像)が記
憶手段に記憶される。例えば被写体を左右に2分割して
撮影する場合、被写体の縦中心線近傍で重複するように
被写体を分割し、例えば被写体に向かって左半分の部分
が撮影画面に入るように画面構成して撮影が行われた
後、被写体の右半分の部分が撮影画面に入るように画面
構成して撮影が行われ、両撮影画像が記憶手段に記憶さ
れる。
The second imaging means divides the entire subject into a plurality of portions so that the boundary portions overlap, and enlarges each portion of the subject to a size substantially the same as the imaging size of the entire subject. The image is captured, and the captured image (partial image) is stored in the storage unit. For example, when photographing a subject by dividing the subject into two parts on the left and right, the subject is divided so as to overlap near the vertical center line of the subject. Is performed, shooting is performed with the screen configured so that the right half of the subject enters the shooting screen, and both shot images are stored in the storage means.

【0013】そして、プレ撮影画像を基準に被写体の各
部分画像の貼合せ合成における合成位置が算出され、各
部分画像は対応する合成位置に位置合せした状態で互い
に境界部分で貼り合わせるように合成される。これによ
り、プレ撮影画像と略同一の全体画像が得られる。
[0013] Then, a combined position in the combining of the partial images of the subject is calculated based on the pre-captured image, and the partial images are combined so as to be bonded to each other at a boundary portion while being aligned with the corresponding combined position. Is done. As a result, an overall image substantially the same as the pre-captured image is obtained.

【0014】例えば被写体を左右に2分割して撮影する
場合、左右の部分画像について、それぞれ拡大されたプ
レ撮影画像の左端と右端とに一致する位置が算出され、
両画像がこの位置関係で互いに境界部分を貼り合わせる
ように合成される。
For example, when an object is photographed by dividing it into two parts, the positions corresponding to the left and right ends of the enlarged pre-photographed image are calculated for the left and right partial images, respectively.
The two images are synthesized so as to paste a boundary portion with each other in this positional relationship.

【0015】また、本発明は、上記撮像装置において、
第1及び第2の撮像手段は、撮影倍率変更可能なレンズ
と被写体光像を電気画像に光電変換して取り込む撮像素
子とが光軸方向変更可能に一体的に構成されてなる撮像
部と、上記撮像部の光軸方向を変更する光軸変更部と、
上記撮像部の光軸方向を正面方向に設定するとともに、
撮影画面に被写体全体が入るように上記レンズの撮影倍
率を設定して上記被写体を全体的に撮像する第1の撮像
制御部と、上記撮像部の撮影倍率を上記被写体の各部分
が互いに境界部分が重複するサイズで撮影画面に入るよ
うに拡大するとともに、上記撮像部の光軸方向を上記被
写体の各部分に対応する所定の方向に順次、変更して上
記被写体を部分的に撮像する第2の撮像制御部とからな
るものである(請求項3)。
Further, according to the present invention, in the above image pickup apparatus,
The first and second imaging means include an imaging unit in which a lens capable of changing a shooting magnification and an imaging element that photoelectrically converts a subject light image into an electric image and captures the electrical image are integrally configured to be changeable in an optical axis direction; An optical axis changing unit that changes an optical axis direction of the imaging unit;
While setting the optical axis direction of the imaging unit to the front direction,
A first imaging control unit that sets the photographic magnification of the lens so that the entire subject is included in the photographic screen and captures the entire subject; Is enlarged so as to enter a shooting screen with an overlapping size, and the optical axis direction of the imaging unit is sequentially changed to a predetermined direction corresponding to each part of the subject to partially capture the subject. (Claim 3).

【0016】上記構成によれば、撮影が指示されると、
まず、撮像部の光軸方向を正面方向に設定し、撮影画面
に被写体全体が入るようにレンズの撮影倍率を設定して
撮影が行われ、この撮影画像(プレ撮影画像)は記憶手
段に記憶される。
According to the above arrangement, when photographing is instructed,
First, the optical axis direction of the imaging unit is set to the front direction, and the photographing is performed by setting the photographing magnification of the lens so that the entire subject is included in the photographing screen. The photographed image (pre-photographed image) is stored in the storage unit. Is done.

【0017】続いて、撮像部の撮影倍率を被写体の各部
分が互いに境界部分が重複するサイズで撮影画面に入る
ように拡大するとともに、撮像部の光軸方向を被写体の
各部分に対応する所定の方向に順次、変更して被写体の
各部分の撮影が行われる。例えば被写体を左右に2分割
して撮影する場合、被写体の縦中心線近傍で重複するよ
うに被写体を分割し、例えば被写体に向かって左半分の
部分が撮影画面に入るように撮影倍率を拡大した後、撮
影手段の光軸方向を正面方向より所定角度だけ左側にず
らせて被写体の右側部分の撮影が行われた後、撮影手段
の光軸方向を正面方向より所定角度だけ右側にずらせて
被写体の左側部分の撮影が行われる。
Subsequently, the photographing magnification of the image pickup unit is enlarged so that each part of the subject enters the photographing screen at a size where the boundary portions overlap each other, and the optical axis direction of the image pickup unit is set to a predetermined value corresponding to each part of the subject. Are sequentially changed, and each part of the subject is photographed. For example, when photographing a subject by dividing the subject into two parts on the left and right, the subject is divided so as to overlap near the vertical center line of the subject, and the photographing magnification is enlarged so that, for example, the left half of the subject enters the shooting screen. Thereafter, the optical axis direction of the photographing means is shifted to the left by a predetermined angle from the front direction to photograph the right portion of the subject, and then the optical axis direction of the photographing means is shifted to the right by a predetermined angle from the front direction to move the subject. The left portion is photographed.

【0018】[0018]

【発明の実施の形態】本発明に係る撮像装置について、
デジタルカメラを例に説明する。図1は、デジタルカメ
ラの一実施の形態の外観を示す斜視図、図2は、同デジ
タルカメラの背面図である。また、図3は、同デジタル
カメラの撮像系の概略構成を示す図である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An imaging apparatus according to the present invention will be described.
A digital camera will be described as an example. FIG. 1 is a perspective view showing an appearance of a digital camera according to an embodiment, and FIG. 2 is a rear view of the digital camera. FIG. 3 is a diagram showing a schematic configuration of an imaging system of the digital camera.

【0019】デジタルカメラ1は、前面の略中央に撮像
部2が光軸方向Lを変更可能に設けられ、その上部に被
写体輝度を測定するための測光部3が設けられ、この測
光部3の左横に被写体距離を測定する測距部4が、ま
た、測光部3の右横にフラッシュ5が設けられている。
In the digital camera 1, an image pickup unit 2 is provided substantially at the center of the front surface so that the optical axis direction L can be changed, and a light meter 3 for measuring the brightness of the subject is provided above the image pick-up unit 2. A distance measuring unit 4 for measuring a subject distance is provided on the left side, and a flash 5 is provided on the right side of the light measuring unit 3.

【0020】撮像部2は、図3に示すように、筐体20
1の前面に突設されたズームレンズからなる撮影レンズ
202と筐体201内の光軸L上の所定位置に配設され
たCCDエリアセンサからなる撮像素子203とで構成
されている。筐体201の側面には、光軸Lと直交する
方向に一対の回転軸201aが突設され、両回転軸20
1aは、U字形の支持枠201bの両端部に回転可能に
支持されている。U字形の支持枠201bの枠中央には
外方向に回転軸201cが突設され、この回転軸201
cの先端は、電動モータ15のロータに連結されてい
る。また、一方の回転軸201aの先端は、電動モータ
16のロータに連結されている。
As shown in FIG.
1 includes a photographing lens 202 formed of a zoom lens protruding from the front surface of the camera 1 and an image pickup device 203 formed of a CCD area sensor disposed at a predetermined position on the optical axis L in the housing 201. On the side surface of the housing 201, a pair of rotating shafts 201a is protruded in a direction orthogonal to the optical axis L.
1a is rotatably supported at both ends of a U-shaped support frame 201b. A rotation shaft 201c projects outward from the center of the U-shaped support frame 201b.
The tip of c is connected to the rotor of the electric motor 15. Further, the tip of one rotating shaft 201 a is connected to the rotor of the electric motor 16.

【0021】電動モータ15は、筐体201を左右方向
(図中、H方向)に回動させる駆動源であり、電動モー
タ16は、筐体201を上下方向(図中、V方向)に回
動される駆動源である。電動モータ15を駆動すると、
そのロータに連結されたU字形の支持枠201bが水平
面内で回動し、これにより光軸Lが水平面内で変化する
ように筐体201が回動する。また、電動モータ16を
駆動すると、そのロータに連結された回転軸201aが
回動し、これにより光軸Lが垂直面内で変化するように
筐体201が回動する。
The electric motor 15 is a drive source for rotating the housing 201 in the left-right direction (H direction in the figure), and the electric motor 16 rotates the housing 201 in the vertical direction (V direction in the figure). It is a driving source to be moved. When the electric motor 15 is driven,
The U-shaped support frame 201b connected to the rotor rotates in a horizontal plane, whereby the housing 201 rotates so that the optical axis L changes in the horizontal plane. In addition, when the electric motor 16 is driven, the rotating shaft 201a connected to the rotor rotates, whereby the housing 201 rotates so that the optical axis L changes in a vertical plane.

【0022】また、撮影レンズ202の鏡胴部分には電
動モータ17が設けられ、この電動モータ17により撮
影レンズ202を駆動してズーム比が変更される。
An electric motor 17 is provided on the lens barrel of the taking lens 202, and the electric motor 17 drives the taking lens 202 to change the zoom ratio.

【0023】なお、本実施の形態では、撮影レンズ20
2と撮像素子203とが対をなし、ズーム比を連続的に
変更可能な構造としているが、プリズムや反射鏡等で複
数のレンズと撮像素子との組合せを切り換えてズーム比
を段階的に切り換える構造にしてもよい。
In the present embodiment, the taking lens 20
2 and the image sensor 203 form a pair and have a structure in which the zoom ratio can be continuously changed, but the zoom ratio is switched stepwise by switching the combination of a plurality of lenses and the image sensor with a prism, a reflector or the like. It may be structured.

【0024】測光部3は、SPC等の受光素子を有し、
被写体からの反射光を受光して被写体の輝度を検出す
る。測距部4は、例えばアクティブ測距方式により被写
体までの距離を検出するものである。測距部4は、被写
体に対して赤外光を照射する発光素子とこの赤外光の被
写体からの反射光を受光する受光素子とを有し、赤外光
の被写体での反射角に基づきカメラから被写体までの距
離を検出するものである。なお、本実施の形態では、測
距方式としてアクティブ測距方式を採用しているが、パ
ッシブ測距方式でもよい。
The photometric unit 3 has a light receiving element such as an SPC,
The luminance of the subject is detected by receiving the reflected light from the subject. The distance measuring unit 4 detects a distance to a subject by, for example, an active distance measuring method. The distance measuring unit 4 has a light emitting element for irradiating the subject with infrared light and a light receiving element for receiving the reflected light of the infrared light from the subject, and based on the reflection angle of the infrared light on the subject. It detects the distance from the camera to the subject. In the present embodiment, the active distance measurement method is adopted as the distance measurement method, but a passive distance measurement method may be used.

【0025】デジタルカメラ1の上面には、左端部にシ
ャッタボタン6が設けられている。シャッタボタン6
は、半押しで焦点調節、露出制御値設定等の撮影準備を
指示するS1スイッチがONになり、全押しでレリーズ
を指示するS2スイッチがONになる操作ボタンであ
る。また、デジタルカメラ1の側面下部には、電源スイ
ッチ7とハードディスクカード10(以下、HDカード
10という。)が装着脱されるカード挿入口8とが設け
られ、カード挿入口8の上部に装着されたHDカード1
0をイジェクトするためのカード取出ボタン9が設けら
れている。
On the upper surface of the digital camera 1, a shutter button 6 is provided at the left end. Shutter button 6
Is an operation button which turns on an S1 switch for instructing shooting preparation such as focus adjustment and exposure control value setting when pressed halfway, and turns on an S2 switch for instructing release when fully pressed. In addition, a power switch 7 and a card insertion slot 8 into which a hard disk card 10 (hereinafter, referred to as an HD card 10) is attached and detached are provided at the lower side of the digital camera 1. HD card 1
A card ejection button 9 for ejecting 0 is provided.

【0026】撮影結果を記録紙にプリントする場合、カ
ード取出ボタン9を押してHDカード10をデジタルカ
メラ1から取り出し、例えばHDカードが装着可能なプ
リンタにそのHDカード10を装着すれば、撮影画像の
データをHDカード10から直接、読み出して記録紙に
プリントすることができる。
When the photographing result is to be printed on recording paper, the card ejection button 9 is pressed to remove the HD card 10 from the digital camera 1. Data can be read directly from the HD card 10 and printed on recording paper.

【0027】なお、デジタルカメラ1にSCSIケーブ
ルのインターフェースを設け、デジタルカメラ1とプリ
ンタとをSCSIケーブルで接続してデジタルカメラ1
からプリンタにデータを転送して撮影画像を記録紙にプ
リントするようにしてもよい。
The digital camera 1 is provided with a SCSI cable interface, and the digital camera 1 is connected to the printer with a SCSI cable to connect the digital camera 1 to the printer.
May be transferred to a printer and the photographed image may be printed on recording paper.

【0028】また、本実施の形態では、画像データの記
録媒体してPCMCIA準拠のHDカードを採用してい
るが、撮影画像のデータを記録できるものであれば、メ
モリカードやミニディスク等の他の記録媒体でもよい。
In this embodiment, a PCMCIA compliant HD card is used as a recording medium for image data. However, any other medium such as a memory card or a mini disk may be used as long as it can record captured image data. Recording medium.

【0029】デジタルカメラ1の背面には、図2に示す
ように、略中央にLCD(Liquid Crystal Display)か
らなる表示部11(以下、LCD表示部11という。)
が設けられている。LCD表示部11は、光学ファイン
ダに相当するものである。
As shown in FIG. 2, on the back of the digital camera 1, a display unit 11 (hereinafter, referred to as an LCD display unit 11) comprising an LCD (Liquid Crystal Display) is provided substantially at the center.
Is provided. The LCD display unit 11 corresponds to an optical finder.

【0030】デジタルカメラ1が起動すると、撮像部2
でビデオ撮影が行われ、この撮影画像をLCD表示部1
1に表示することにより、撮影者は撮影画面内の被写体
をモニタすることができるようになっている。また、撮
影者がシャッタボタン6を押して撮影動作を行うと、静
止画の撮影動作が行われる一方、LCD表示部11では
レリーズ直後の撮影画像が静止画で表示され、撮影者
は、LCD表示部11で撮影画像(静止画)をモニタす
ることができるようになっている。
When the digital camera 1 is activated, the imaging unit 2
Video shooting is performed on the LCD display unit 1.
By displaying the information in 1, the photographer can monitor the subject in the photographing screen. When the photographer presses the shutter button 6 to perform the photographing operation, the photographing operation of the still image is performed, while the photographed image immediately after the release is displayed on the LCD display unit 11 as a still image. At 11, a photographed image (still image) can be monitored.

【0031】更に、デジタルカメラ1は、撮影モードと
して、被写体を複数の部分に分割し、部分的に撮影した
画像(以下、部分画像という。)を画像処理で貼り合わ
せるように合成して解像度の高い被写体全体の画像(以
下、全体画像という。)を生成する撮影モード(以下、
この撮影モードを高解像度モードという。)を有し、こ
の高画像度モードにおいても、最初に被写体全体を撮影
してその撮影画像(静止画)をLCD表示部11に表示
させることにより、撮影者が合成後の画像の内容を迅速
にモニタできるようになっている。
Further, the digital camera 1 divides a subject into a plurality of portions in a photographing mode, and synthesizes such that partially photographed images (hereinafter, referred to as partial images) are pasted together by image processing to obtain a resolution. A shooting mode (hereinafter, referred to as a whole image) that generates an image of the entire high subject (hereinafter, referred to as a whole image).
This shooting mode is called a high resolution mode. In this high image quality mode, the photographer first captures the entire subject and displays the captured image (still image) on the LCD display unit 11 so that the photographer can quickly display the contents of the combined image. Can be monitored.

【0032】LCD表示部11の左側には、静止画表示
解除ボタン12が設けられている。静止画表示解除ボタ
ン12は、撮影処理を行う毎に動画表示から静止画表示
に自動的に切り換えられるLCD表示部11の表示モー
ドを、次の撮影のために静止画表示から動画表示に復帰
させるための操作ボタンである。表示モードの復帰動作
を操作者のマニュアル操作で行わせるようにしているの
は、モニタ時間を固定化しないで撮影画像のモニタの利
便性を高めるようにしたものである。なお、静止画表示
を予め設定した所定の時間だけ行った後、自動的に静止
画表示から動画表示に復帰させるようにして静止画表示
解除ボタン12を省略するようにしてもよい。
On the left side of the LCD display section 11, a still image display release button 12 is provided. The still image display release button 12 returns the display mode of the LCD display unit 11 that is automatically switched from the moving image display to the still image display every time the shooting process is performed, from the still image display to the moving image display for the next shooting. Operation buttons for The reason why the operation of returning the display mode is performed by the manual operation of the operator is to improve the convenience of monitoring the captured image without fixing the monitoring time. After the still image display is performed for a predetermined period of time, the still image display release button 12 may be omitted by automatically returning from the still image display to the moving image display.

【0033】デジタルカメラ1の背面下端部には、左隅
部に高解像度モード設定スイッチ13が設けられ、右隅
部に合成画像数設定スイッチ14が設けられている。
At the lower rear end of the digital camera 1, a high resolution mode setting switch 13 is provided at the left corner, and a composite image number setting switch 14 is provided at the right corner.

【0034】高解像度モード設定スイッチ13は、上述
した高解像度モードを設定するスイッチである。高解像
度モード設定スイッチ13を「ON」に設定すると、高
解像度モードが設定され、「OFF」に設定すると、通
常の撮影モードが設定される。
The high resolution mode setting switch 13 is a switch for setting the high resolution mode described above. When the high-resolution mode setting switch 13 is set to “ON”, the high-resolution mode is set. When the high-resolution mode setting switch 13 is set to “OFF”, the normal shooting mode is set.

【0035】高解像度モードでは、図4に示すように、
シャッタボタン6が全押しされると、まず、撮像部2の
光軸Lを正面方向に設定し、被写体全体の撮影が行われ
る(図4全体撮影を参照)。すなわち、図5に示すよ
うに、撮像部2の光軸Lは正面方向(o方向)に初期設
定されているので、被写体Q(図では風景)の全体が撮
影画面P1内に入るように画面構成を調整してシャッタ
ボタン6を押すと、被写体Q全体の撮影が行われる。
In the high resolution mode, as shown in FIG.
When the shutter button 6 is fully depressed, first, the optical axis L of the imaging unit 2 is set to the front direction, and the entire subject is photographed (see the whole photograph in FIG. 4). That is, as shown in FIG. 5, since the optical axis L of the imaging unit 2 is initially set in the front direction (o direction), the screen is set so that the entire subject Q (scenery in the figure) enters the shooting screen P1. When the configuration is adjusted and the shutter button 6 is pressed, shooting of the entire subject Q is performed.

【0036】この撮影画像(以下、この全体の撮影画像
をプレ撮影画像という。)は、LCD表示部11に静止
画表示され(図4全体画像表示を参照)、また、この
プレ撮影画像Gを補間処理して4倍のサイズに拡大され
た画像G′が生成される(図4全体画像拡大を参
照)。この拡大画像G′は、引き続き被写体を部分的に
撮影して得られる4個の部分画像GA〜GDを貼合せ合成
する際の各部分画像GA〜GDの像歪み補正と画像合成の
基準となるものである。
The photographed image (hereinafter, the whole photographed image is referred to as a pre-photographed image) is displayed as a still image on the LCD display section 11 (see the whole image display in FIG. 4). An image G 'enlarged to four times the size by the interpolation processing is generated (refer to the whole image enlargement in FIG. 4). The enlarged image G 'will continue image distortion correction of each partial image G A ~G D when combined synthetic bonded four partial images G A ~G D obtained by partially photographing the object and image synthesis It is a standard for

【0037】従って、高解像度モードでは、レリーズ直
後に最終的に合成される全体画像がLCD表示部11に
表示され、合成後の全体画像が迅速にモニタできるよう
になっている。
Therefore, in the high resolution mode, the entire image finally synthesized immediately after the release is displayed on the LCD display section 11, so that the entire image after the synthesis can be quickly monitored.

【0038】続いて、撮像部2の光軸Lを正面方向以外
の所定の方向に変化させるとともに、撮影倍率を所定の
倍率(2倍)に増大して被写体全体を4分割してなる部
分画像GA〜GDの撮影(部分画像の取込み)が順次、行
われる(図4分割撮影を参照)。すなわち、図5に示
すように、撮像部2の光軸Lの方向が被写体Qの向かっ
て左上の部分を見る所定の方向(a方向)に変更される
ととともに、被写体Qの略1/4が撮影画面P2内に入
るように、撮影レンズ202の撮影倍率が略2倍に増大
され、被写体Qの左上部分の撮影が行われる。この後、
撮影レンズ202の撮影倍率は変化させないで、撮像部
2の光軸Lの方向を、被写体Qの向かって右上、右下、
左下の部分を見る所定の方向(c,d,b方向)に順
次、変化して被写体Qの右上部分、右下部分及び左下部
分の撮影がそれぞれ行われる。このとき、被写体Qの部
分画像の取込みにおける画角は、隣接する部分画像の境
界部分が互いに重複するように設定される。
Subsequently, the optical axis L of the imaging unit 2 is changed to a predetermined direction other than the front direction, and the photographing magnification is increased to a predetermined magnification (2 times) to divide the entire subject into four parts. The photographing of G A to G D (capturing of partial images) is sequentially performed (see FIG. 4 divided photographing). That is, as shown in FIG. 5, the direction of the optical axis L of the imaging unit 2 is changed to a predetermined direction (a direction) in which an upper left part is viewed toward the subject Q, and at the same time, about Q of the subject Q , The photographing magnification of the photographing lens 202 is increased to about twice so that the upper left portion of the subject Q is photographed. After this,
Without changing the photographing magnification of the photographing lens 202, the direction of the optical axis L of the imaging unit 2 is changed to the upper right, lower right,
The upper right part, the lower right part, and the lower left part of the subject Q are sequentially photographed in a predetermined direction (c, d, b directions) in which the lower left part is viewed. At this time, the angle of view in capturing the partial image of the subject Q is set so that the boundary portions of adjacent partial images overlap with each other.

【0039】この後、部分画像GA〜GDを拡大画像G′
と比較してそれぞれ拡大画像G′に対する合成位置と像
歪み補正用の画像データの変換量が算出され(図4位
置合わせを参照)、この変換量に基づいて各部分画像G
A〜GDが幾何学的に変換された後、この合成位置に基づ
いて画像変換後の部分画像GA〜GDを境界部分で貼り合
わせるようにして全体画像が生成される。そして、この
全体画像はHDカード10に記録される。
Thereafter, the partial images G A to G D are converted into enlarged images G ′.
, The combined position of the enlarged image G ′ and the amount of conversion of the image data for correcting image distortion are calculated (see FIG. 4 alignment), and each partial image G is calculated based on this amount of conversion.
After A ~G D is converted geometrically full image the partial image G A ~G D after the image conversion based on the combined position as bonded at the boundary is generated. Then, the entire image is recorded on the HD card 10.

【0040】なお、本実施の形態では、プレ撮影画像G
の拡大画像G′を合成位置の基準画像としているが、プ
レ撮影画像Gそのものを合成位置の基準画像とし、部分
画像GA〜GDの縮小画像とプレ撮影画像Gとを比較して
合成位置を算出するようにしてもよい。
In this embodiment, the pre-photographed image G
Is used as the reference image of the synthesis position, the reduced image of the partial images G A to G D is compared with the pre-image G to obtain the synthesis position. May be calculated.

【0041】また、図5では、被写体Qを中心に相対的
に撮影画面P1,P2を描いているので、撮影画面P2
が撮影画面P1より小さくなっているが、撮像部2の撮
像面においては、撮影画面P1と撮影画面P2のサイズ
は同一であるので、撮影画面P1の画面構成では、撮影
画面P2の画面構成よりも被写体Qが小さいサイズで撮
像面に投影されている。従って、プレ撮影画像は、投影
光像と画素密度との関係から部分画像よりも低解像度の
画像となるので、部分画像を合成して得られる全体画像
の解像度は、プレ撮影画像よりも高くなっている。
In FIG. 5, since the photographing screens P1 and P2 are relatively drawn around the subject Q, the photographing screen P2
Is smaller than the shooting screen P1, but the size of the shooting screen P1 and the shooting screen P2 is the same on the imaging surface of the imaging unit 2, so that the screen configuration of the shooting screen P1 is smaller than that of the shooting screen P2. Also, the subject Q is projected on the imaging surface in a small size. Accordingly, since the pre-captured image has a lower resolution than the partial image due to the relationship between the projection light image and the pixel density, the resolution of the entire image obtained by combining the partial images is higher than the pre-captured image. ing.

【0042】一方、通常の撮影モードでは、シャッタボ
タン6を押すと、1回だけ撮影動作が行われ、その撮影
画像が所定の画像処理(画像全体に対して適正なγ補
正、WB調整、輪郭補正、色むら補正等の処理)が施さ
れた後、HDカード10に記録される。この撮影処理
は、実質的に高解像度モードにおけるプレ撮影画像に所
定の画像処理を施してHDカード10に記録するのと等
価である。従って、通常の撮影モードにおける撮影画像
は、高解像度モードにおける撮影画像(合成画像)より
も解像度が低くなっている。図5の例では、部分画像の
撮影倍率が略2倍であるので、高解像度モードで撮影さ
れた画像(合成画像)は、通常の撮影モードで撮影され
た画像の略4倍の解像度を有している。
On the other hand, in the normal photographing mode, when the shutter button 6 is pressed, a photographing operation is performed only once, and the photographed image is subjected to predetermined image processing (appropriate γ correction, WB adjustment, contour After processing such as correction and color unevenness correction), the image data is recorded on the HD card 10. This photographing processing is substantially equivalent to performing predetermined image processing on the pre-photographed image in the high resolution mode and recording the image on the HD card 10. Therefore, the captured image in the normal shooting mode has a lower resolution than the captured image (synthesized image) in the high resolution mode. In the example shown in FIG. 5, since the imaging magnification of the partial image is approximately twice, the image (composite image) captured in the high-resolution mode has approximately four times the resolution of the image captured in the normal imaging mode. doing.

【0043】図2に戻り、合成画像数設定スイッチ14
は、高解像度モードにおける部分画像の枚数(すなわ
ち、被写体の分割数)を設定するスイッチである。合成
画像数設定スイッチ14は、被写体をn×mのマトリッ
クス状に分割する際の縦方向の分割数nと横方向の分割
数mとをそれぞれ最大4まで設定できるようになってい
る。合成画像数設定スイッチ14は、一対の4接点スラ
イドスイッチ14a,14bからなり、上側のスライド
スイッチ14aで縦方向の分割数nが設定され、下側の
スライドスイッチ14bで横方向の分割数mが設定され
る。
Returning to FIG. 2, the composite image number setting switch 14
Is a switch for setting the number of partial images in the high resolution mode (that is, the number of divisions of the subject). The number-of-synthesized-images setting switch 14 is capable of setting the number of divisions n in the vertical direction and the number of divisions m in the horizontal direction when the subject is divided into an n × m matrix up to a maximum of four. The number-of-synthesized-images setting switch 14 includes a pair of four-contact slide switches 14a and 14b. The number of divisions n in the vertical direction is set by the upper slide switch 14a, and the number of divisions m in the horizontal direction is set by the lower slide switch 14b. Is set.

【0044】なお、本実施の形態では、撮影者が分割数
を設定可能にしているが、予め所定の分割数を固定的に
設定しておき、合成画像数設定スイッチ14を省略する
ようにしてもよい。
In this embodiment, the photographer can set the number of divisions. However, the predetermined number of divisions is fixedly set in advance, and the number-of-combined-images setting switch 14 is omitted. Is also good.

【0045】図6は、本発明に係るデジタルカメラのブ
ロック構成図である。同図において、太線の矢印は画像
データの流れを示し、細線の矢印は制御データの流れを
示している。また、図1〜図3に示した部材と同一部材
には同一番号を付している。
FIG. 6 is a block diagram of a digital camera according to the present invention. In the figure, the thick arrows indicate the flow of image data, and the thin arrows indicate the flow of control data. The same members as those shown in FIGS. 1 to 3 are denoted by the same reference numerals.

【0046】制御部20は、デジタルカメラ1の撮影動
作を集中制御するもので、マイクロコンピュータからな
る。制御部20は、後述する各種部材の駆動を制御す
る。
The control section 20 centrally controls the photographing operation of the digital camera 1, and is composed of a microcomputer. The control unit 20 controls driving of various members described later.

【0047】撮像制御部21は、撮像部2の駆動を制御
するものである。撮像制御部21は、ズーム制御回路2
11、走査制御回路212及び撮像制御回路213を備
えている。ズーム制御回路211は、撮像レンズ202
のズーム比(撮影倍率)を制御するものである。撮影倍
率は、高解像度モードにおける部分画像の取込みにおい
て変更され、部分画像の枚数(すなわち、被写体の分割
数)に応じて予め設定されている。合成画像数設定スイ
ッチ14により設定された被写体の分割数の情報は制御
部20を介して撮像制御部21に入力され、ズーム制御
回路211は、入力された被写体の分割数の情報に基づ
き対応する撮影倍率を設定し、この撮影倍率に基づき電
動モータ17を駆動して撮像レンズ202を所定の撮影
倍率に設定する。
The imaging control section 21 controls the driving of the imaging section 2. The imaging control unit 21 includes a zoom control circuit 2
11, a scanning control circuit 212 and an imaging control circuit 213. The zoom control circuit 211 includes an imaging lens 202
The zoom ratio (photographing magnification) is controlled. The shooting magnification is changed in capturing the partial image in the high resolution mode, and is set in advance according to the number of partial images (that is, the number of divisions of the subject). Information on the number of divisions of the subject set by the composite image number setting switch 14 is input to the imaging control unit 21 via the control unit 20, and the zoom control circuit 211 responds based on the input information on the number of divisions of the subject. The photographing magnification is set, and the electric motor 17 is driven based on the photographing magnification to set the imaging lens 202 to a predetermined photographing magnification.

【0048】走査制御回路212は、高解像度モードで
の各部分画像の撮像順、すなわち、撮像部2の光軸Lの
方向の変更動作を制御するものである。部分画像の取込
みにおける各光軸Lの方向(すなわち、筐体201の正
面方向に対する水平/垂直方向の移動量)も部分画像の
枚数(すなわち、被写体の分割数)に応じて予め設定さ
れている。また、各部分画像の取込順も部分画像の枚数
(すなわち、被写体の分割数)に応じて予め設定されて
いる。図5の例では、a−c−d−bの順にコ字形に光
軸Lの方向を走査させていたが、走査方向はこれに限定
されず、a−b−d−cやa−c−b−d等の任意の走
査方法を採用することができる。走査制御回路212
は、入力された被写体の分割数の情報に基づき各部分画
像に対する光軸Lの方向とその走査方向とを設定し、光
軸Lの方向に基づき電動モータ15,16を駆動して撮
像部2の視野を所定の方向に設定する。
The scanning control circuit 212 controls the order of capturing the partial images in the high resolution mode, that is, the operation of changing the direction of the optical axis L of the image capturing section 2. The direction of each optical axis L (ie, the amount of movement in the horizontal / vertical direction with respect to the front direction of the housing 201) in capturing the partial image is also set in advance according to the number of partial images (ie, the number of divisions of the subject). . The order of capturing the partial images is also set in advance according to the number of partial images (that is, the number of divisions of the subject). In the example of FIG. 5, the direction of the optical axis L is scanned in the U-shape in the order of a-c-d-b, but the scanning direction is not limited to this, and a-b-d-c or a-c- Any scanning method such as -b-d can be adopted. Scan control circuit 212
Sets the direction of the optical axis L for each partial image and the scanning direction based on the input information on the number of divisions of the subject, drives the electric motors 15 and 16 based on the direction of the optical axis L, and Is set in a predetermined direction.

【0049】撮像制御部213は、撮像素子203(以
下、CCD203という。)の撮像動作(電荷蓄積及び
蓄積電荷の読出)を制御するものである。撮像制御部2
13は、撮影待機状態では、ファインダ用の画像を取り
込むべくCCD203をビデオ駆動させる(1/30秒
毎に撮像動作を繰り返す)。また、通常の撮影モードに
おいては、制御部20から入力された撮影タイミングの
制御信号に基づいてCCD203の撮像動作を1回だけ
行わせ、高解像度モードにおいて、制御部20から入力
された撮影タイミングの制御信号に基づいてCCD20
3の撮像動作を所定の回数(制御部2から入力された被
写体の分割数Nに対して(N+1)回)だけ連続的に行
わせる。
The image pickup control section 213 controls the image pickup operation (charge accumulation and readout of accumulated charges) of the image pickup element 203 (hereinafter referred to as CCD 203). Imaging control unit 2
In a photographing standby state, the CCD 203 is driven by video to capture an image for a finder (the image pickup operation is repeated every 1/30 second). Further, in the normal shooting mode, the imaging operation of the CCD 203 is performed only once based on the control signal of the shooting timing input from the control unit 20, and in the high resolution mode, the shooting timing of the shooting timing input from the control unit 20 is controlled. CCD 20 based on the control signal
3 is continuously performed a predetermined number of times ((N + 1) times with respect to the number of divisions N of the subject input from the control unit 2).

【0050】A/D変換部22は、撮像部2から出力さ
れた画像信号(アナログ信号)を、例えば8ビット構成
のデジタル信号(以下、この画像信号を画像データとい
う。)に変換するものである。
The A / D converter 22 converts an image signal (analog signal) output from the imaging unit 2 into a digital signal of, for example, an 8-bit configuration (hereinafter, this image signal is referred to as image data). is there.

【0051】画像処理部23は、通常の撮影モードにお
いて、画像データにγ補正、WB調整、輪郭補正等の所
定の画像処理を施すものである。また、高解像度モード
において、上記画像処理を行いつつ、複数の部分画像の
画像データを貼り合わせるように合成して全体画像の生
成を行う。なお、高解像度モードにおける画像処理につ
いては後述する。
The image processing section 23 performs predetermined image processing such as γ correction, WB adjustment and contour correction on image data in a normal photographing mode. Further, in the high resolution mode, while performing the above-described image processing, the image data of a plurality of partial images are combined so as to be combined to generate an entire image. The image processing in the high resolution mode will be described later.

【0052】LCD駆動制御部24は、LCD表示部1
1の駆動を制御し、撮影画像をモニタ表示させるもので
ある。LCD駆動制御部24は、画像処理部23から入
力される画像データに基づきLCD表示部11の各画素
位置の発光を制御して当該LCD表示部11に画像を表
示させる。カード駆動制御部25は、画像データを記録
する際のHDカード10の駆動を制御するものである。
The LCD drive control unit 24 includes the LCD display unit 1
1 is controlled to display the captured image on a monitor. The LCD drive control unit 24 controls the light emission at each pixel position of the LCD display unit 11 based on the image data input from the image processing unit 23, and causes the LCD display unit 11 to display an image. The card drive control unit 25 controls the drive of the HD card 10 when recording image data.

【0053】AE・AWB演算部26は、高解像度モー
ドにおける部分画像の取込時の露出値とWB調整値とを
演算するものである。AE・AWB演算部26は、高解
像度モードにおいて取り込まれたプレ撮影画像の画像デ
ータから部分的に撮像される領域の画像データを抽出
し、その画像データを用いて対応する部分画像の取込時
の露出値とWB調整値とを演算する。
The AE / AWB calculating section 26 calculates an exposure value and a WB adjustment value when capturing a partial image in the high resolution mode. The AE / AWB operation unit 26 extracts the image data of the partially captured area from the image data of the pre-captured image captured in the high resolution mode, and uses the image data to capture the corresponding partial image. And the WB adjustment value are calculated.

【0054】RAM(Random Access Memory)27は、
制御部2が撮影に関する演算処理を行うためのメモリで
ある。また、ROM(Read Only Memory)28は、撮影
制御に関する処理プログラム、撮像部2の駆動制御に必
要なデータ、後述する高解像度モードでの画像処理に必
要な各種のデータや処理プログラム等が記憶されたメモ
リである。
A RAM (Random Access Memory) 27
This is a memory for the control unit 2 to perform arithmetic processing relating to photographing. A ROM (Read Only Memory) 28 stores a processing program related to shooting control, data necessary for drive control of the imaging unit 2, various data required for image processing in a high-resolution mode described later, a processing program, and the like. Memory.

【0055】図7は、画像処理部内の高輝度モードにお
ける画像処理に関するブロック構成の第1の実施の形態
を示す図である。
FIG. 7 is a diagram showing a first embodiment of a block configuration relating to image processing in the high brightness mode in the image processing section.

【0056】同図において、太線の矢印は画像データの
流れを示している。画像メモリ231は、A/D変換部
22から入力される画像データを記憶するメモリであ
る。画像メモリ231は、RAMからなり、プレ撮影画
像記憶領域231a及び部分画像記憶領域231bを有
している。
In the figure, thick arrows indicate the flow of image data. The image memory 231 is a memory that stores image data input from the A / D converter 22. The image memory 231 includes a RAM, and has a pre-captured image storage area 231a and a partial image storage area 231b.

【0057】プレ撮影画像記憶領域231aは、プレ撮
影画像の画像データが記憶される領域である。なお、通
常の撮影モードにおいては、撮影画像の画像データもプ
レ撮影画像記憶領域231aに記憶される。プレ撮影画
像記憶領域231aに記憶された通常の撮影モードにお
ける撮影画像や高解像度モードにおけるプレ撮影画像
は、LCD駆動制御部24に読み出され、LCD表示部
11に表示(動画表示又は静止画表示)される。また、
部分画像記憶領域231bは、部分画像の画像データが
記憶される領域である。
The pre-photographed image storage area 231a is an area for storing image data of the pre-photographed image. In the normal shooting mode, the image data of the shot image is also stored in the pre-shot image storage area 231a. The photographed image in the normal photographing mode and the preliminary photographed image in the high-resolution mode stored in the preliminary photographed image storage area 231a are read out by the LCD drive control unit 24 and displayed on the LCD display unit 11 (moving image display or still image display). ) Is done. Also,
The partial image storage area 231b is an area where the image data of the partial image is stored.

【0058】画像拡大回路232は、プレ撮影画像を部
分画像取込時の撮影倍率と略同一の倍率で拡大して拡大
画像を生成するものある。すなわち、画像拡大回路23
2は、例えば図4の例において、プレ撮影画像Gを略4
倍に拡大して拡大画像G′を生成し、マッチング演算回
路234に入力する。
The image enlarging circuit 232 generates an enlarged image by enlarging the pre-photographed image at substantially the same magnification as the photographing magnification at the time of capturing the partial image. That is, the image enlargement circuit 23
2, for example, in the example of FIG.
An enlarged image G ′ is generated by magnifying the image twice and input to the matching operation circuit 234.

【0059】前処理回路233は、部分画像の貼合せ合
成処理の前に各部分画像に対して必要な処理を行う回路
である。前処理には、輝度補正、ノイズ除去、スムージ
ング、エッジ強調等の処理が含まれる。各部分画像に対
する前処理は、拡大画像と部分画像との間での輝度差や
輪郭のずれ等を補正して合成位置の決定を容易するため
のものである。前処理回路233は、画像メモリ231
の部分画像記憶領域231bから各部分画像を順次、読
み出し、上述の輝度補正等の所定の前処理を施した後、
マッチング演算回路234に入力する。
The preprocessing circuit 233 is a circuit that performs necessary processing on each partial image before the partial image combining process. The pre-processing includes processes such as luminance correction, noise removal, smoothing, and edge enhancement. The pre-processing for each partial image is intended to correct a luminance difference and a contour shift between the enlarged image and the partial image and to easily determine a combination position. The pre-processing circuit 233 includes an image memory 231
After sequentially reading out each partial image from the partial image storage area 231b, and performing predetermined preprocessing such as the above-described luminance correction,
It is input to the matching operation circuit 234.

【0060】マッチング演算回路234は、部分画像毎
に、拡大画像の対応する位置の画像(部分的な画像)に
略一致するように各部分画像を幾何学的に変形させる際
の画像データの変換量(以下、マッチング変換量とい
う。)を演算するものである。
The matching calculation circuit 234 converts image data for each partial image when geometrically deforming each partial image so as to substantially match the image (partial image) at the position corresponding to the enlarged image. An amount (hereinafter, referred to as a matching conversion amount) is calculated.

【0061】本実施の形態では、撮像部2の光軸Lの方
向を変化させて被写体の部分をそれぞれ撮像するように
しているので、各部分画像の撮像における露出制御値や
WB調整部の相違によって部分画像間に輝度差が生じる
おそれがある。また、被写体の撮像部分に対して光軸L
が斜め方向となり、撮像された各部分画像に遠近法的な
像歪みが生じる。すなわち、図8に示すように、例えば
被写体である掲示板Qを部分画像GA〜GDに4分割して
撮影した場合、図9に示すように、各部分画像GA〜GD
に遠近法的な像歪みが生じる。
In this embodiment, since the direction of the optical axis L of the image pickup unit 2 is changed to pick up an image of a subject, the exposure control value and the WB adjustment unit in the image pickup of each partial image are different. This may cause a luminance difference between the partial images. Further, the optical axis L with respect to the imaging portion of the subject
Becomes an oblique direction, and perspective image distortion occurs in each of the captured partial images. That is, as shown in FIG. 8, for example, when four divided and photographed Wall Q is subject to the partial image G A ~G D, as shown in FIG. 9, the partial image G A ~G D
Causes perspective image distortion.

【0062】部分画像間の輝度差のみを補正して各部分
画像を境界部分で貼り合わせるように合成してもよい
が、単純に貼合せ合成をした場合は、図10に示すよう
に、各部分画像の遠近法的な像歪みが合成後の全体画像
に発生し、更には境界部分に図柄の屈曲やずれも発生す
ることがあるので、著しく画質を低下させることにな
る。この不具合を低減するため、部分画像の遠近法的な
像歪みを光軸Lのずれと被写体距離とに基づいて補正す
る方法も考えられるが、この方法では、各部分画像の像
歪みを補正するための回路や処理が新たに必要になり、
装置の複雑化、大型化、高価格化を招くことなる。
It is also possible to correct only the luminance difference between the partial images and combine the partial images so as to be combined at the boundary portion. However, in the case of simply combining the combined images, as shown in FIG. Perspective image distortion of the partial image occurs in the whole image after the composition, and furthermore, the design may be bent or shifted at the boundary portion, so that the image quality is significantly reduced. To reduce this problem, a method of correcting the perspective image distortion of the partial image based on the shift of the optical axis L and the subject distance can be considered. In this method, the image distortion of each partial image is corrected. New circuits and processes are needed,
The device becomes complicated, large, and expensive.

【0063】本実施の形態では、各部分画像をプレ撮影
画像を基準に幾何学的に変形させることにより貼合せ合
成における合成位置を決定するとともに、遠近法的な像
歪みを補正することで、装置の複雑化、大型化、高価格
化を招くことなく合成後の全体画像の画質低下を低減す
るようにしている。従って、マッチング演算回路234
では部分画像毎に、各部分画像を拡大画像の対応する位
置の画像に一致させるための画像データの変換量が演算
され、この演算結果は、幾何学的画像変換回路235及
び画像合成回路236に入力される。
In this embodiment, by combining each partial image geometrically with reference to the pre-captured image to determine the combining position in the combining and combining, and correcting perspective image distortion, It is intended to reduce the deterioration of the image quality of the overall image after the synthesis without incurring an increase in the complexity, size and cost of the apparatus. Therefore, the matching operation circuit 234
In each of the partial images, a conversion amount of image data for matching each partial image with an image at a corresponding position of the enlarged image is calculated, and the calculation result is sent to the geometric image conversion circuit 235 and the image synthesis circuit 236. Is entered.

【0064】マッチング演算回路234は、例えば拡大
画像内に含まれる複数の特徴点を抽出し、図11に示す
ように、部分画像を平行移動、回転移動、拡大/縮小等
の幾何学的な変換を行いつつ拡大画像と比較し、特徴点
の重なり度が最も大きくなる幾何学的変換量を算出す
る。なお、部分画像画が拡大画像上で最も一致度が高い
位置(以下、この位置をマッチング位置という。)はそ
の位置に各部分画像を配置した状態で境界部分を貼り合
わせるように合成処理が行われることから、この幾何学
的変換量は、その部分画像の合成処理における合成位置
の情報ともなっている。
The matching operation circuit 234 extracts a plurality of feature points included in the enlarged image, for example, and performs a geometric transformation such as a parallel movement, a rotational movement, and an enlargement / reduction on the partial image as shown in FIG. Is compared with the enlarged image, and the amount of geometric conversion that maximizes the degree of overlap of the feature points is calculated. Note that the position where the partial image image has the highest matching degree on the enlarged image (hereinafter, this position is referred to as a matching position) is subjected to the combining process so that the boundary portions are pasted together with the respective partial images arranged at that position. Therefore, the geometric conversion amount is also information on the combination position in the combination processing of the partial images.

【0065】特徴点は、特定の文字や文字列、特定の
線、特定の幾何学的図形(例えば三角形、円、楕円
等)、特定のエッジ部分等の特徴的な画像情報を有する
領域の画像データである。特徴点としての文字や文字列
は、公知の文字認識方法により抽出され、特徴点として
の幾何学的図形は、公知のテクスチュア解析により抽出
され、特徴点としてのエッジは、公知のエッジ検出手法
により抽出される。
A feature point is an image of an area having characteristic image information such as a specific character or character string, a specific line, a specific geometric figure (for example, a triangle, a circle, an ellipse, etc.), a specific edge portion, or the like. Data. Characters and character strings as feature points are extracted by known character recognition methods, geometric figures as feature points are extracted by known texture analysis, and edges as feature points are extracted by known edge detection methods. Is extracted.

【0066】また、図11において、g1,g2,g
3,g4は、それぞれ左上、右上、右下及び左下の部分
画像G1,G2,G3,G4の拡大画像G0におけるマ
ッチング位置を示している。左上の部分画像G1は、
「ABC」の文字列C1又は長方形C2を特徴点とし
て、平行移動法によりマッチング位置g1が算出される
場合を示し、右上の部分画像G2は、矩形C3を特徴点
として、拡大/縮小法によりマッチング位置g2が算出
される場合を示している。また、右下の部分画像G3
は、太線C4又は太線C4のエッジを特徴点として、回
転移動法によりマッチング位置g3が算出される場合を
示し、左下の部分画像G4は、長方形C2又は太線C4
を特徴点として、輝度変換法によりマッチング位置g4
が算出される場合を示している。
In FIG. 11, g1, g2, g
Reference numerals 3 and g4 indicate matching positions of the upper left, upper right, lower right, and lower left partial images G1, G2, G3, and G4 in the enlarged image G0. The upper left partial image G1 is
The case where the matching position g1 is calculated by the parallel movement method using the character string C1 of "ABC" or the rectangle C2 as a feature point is shown, and the upper right partial image G2 is matched by the enlargement / reduction method using the rectangle C3 as a feature point. The case where the position g2 is calculated is shown. The lower right partial image G3
Shows a case where the matching position g3 is calculated by the rotational movement method using the thick line C4 or the edge of the thick line C4 as a feature point, and the lower left partial image G4 is the rectangle C2 or the thick line C4.
Is used as a feature point, and the matching position g4
Is calculated.

【0067】幾何学的変換量のパラメータは、マッチン
グ方法により異なり、平行移動法では平行移動量、回転
移動法では回転中心と回転角度である。また、拡大/縮
小法では、点を中心とした拡大/縮小の場合はその中心
位置と倍率であり、図12(a)(b)に示すように、
軸を中心とした直線方向又は円弧方向の拡大/縮小の場
合は軸の位置、拡大/縮小方向及び倍率である。
The parameters of the geometric transformation amount differ depending on the matching method, and are the translation amount in the parallel movement method and the rotation center and the rotation angle in the rotation movement method. In the enlargement / reduction method, in the case of enlargement / reduction around a point, the center position and the magnification are used. As shown in FIGS.
In the case of enlargement / reduction in a linear direction or an arc direction around the axis, the position, the enlargement / reduction direction, and the magnification of the axis are used.

【0068】更に、特徴点の重なり度は、プレ撮影画像
の特徴点を構成する画像データとその特徴点に対応する
幾何学変換された部分画像の画素位置の画像データとの
相関値や両画像データの差の絶対値和若しくは両画像デ
ータの差の2乗和を用いて判別される。
Further, the degree of overlap of the feature points is determined by the correlation value between the image data constituting the feature points of the pre-captured image and the image data at the pixel positions of the geometrically transformed partial image corresponding to the feature points, The determination is made using the sum of the absolute values of the differences between the data or the sum of the squares of the differences between the two image data.

【0069】なお、部分画像に対して拡大又は縮小の幾
何学的変換を行うと、変換後の画素位置と拡大画像の画
素位置との間にずれが生じるので、好ましくは拡大画像
の特徴点を構成する画素位置に対応する幾何学的変換後
の部分画像の画像データを公知のNearest Neibougher法
やCubic Convolution法等の補間処理により補正すると
よい。また、本実施の形態では、特徴点近傍の画像デー
タを用いて重なり度を判別するようにしているが、部分
画像全体について重なり度を判別して画質の向上を図る
ようにしてもよい。この場合は、ブロック毎や数画素置
きに画像データを間引いて画素数を減少させたものを用
いることで、処理速度の低下を抑えるようにするとよ
い。
When a geometrical transformation of enlargement or reduction is performed on the partial image, a shift occurs between the pixel position after the transformation and the pixel position of the enlarged image. The image data of the partial image after the geometric conversion corresponding to the pixel position to be configured may be corrected by an interpolation process such as a known Nearest Neibougher method or Cubic Convolution method. Further, in the present embodiment, the degree of overlap is determined using the image data near the feature point. However, the degree of overlap may be determined for the entire partial image to improve the image quality. In this case, it is preferable to reduce the number of pixels by thinning out the image data for each block or every several pixels, so as to suppress the reduction in processing speed.

【0070】幾何学的画像変換回路235は、マッチン
グ演算回路234で算出された幾何学的変換量に基づい
て各部分画像の幾何学的変換を行うものである。具体的
には、各部分画像を構成する画像データのアドレスを幾
何学的変換量を用いて所定の変換式により変換する。
The geometric image conversion circuit 235 performs a geometric conversion of each partial image based on the geometric conversion amount calculated by the matching operation circuit 234. Specifically, the addresses of the image data constituting each partial image are converted by a predetermined conversion formula using the amount of geometric conversion.

【0071】画像合成回路236は、幾何学的変換が行
われた複数の部分画像を互いに重複する境界部分で貼り
合わせるように合成するものである。画像合成回路23
6は、互いに隣接する部分画像の重複する境界部分の画
像データを用いて合成用の境界部分の画像を生成し、こ
の合成用の境界部分の画像と両部分画像の境界部分を除
いた画像とを繋ぎ合わせて両部分画像の合成を行う。
The image synthesizing circuit 236 synthesizes a plurality of partial images that have been subjected to the geometric transformation so as to be pasted together at a boundary portion overlapping each other. Image composition circuit 23
6 generates an image of a boundary portion for synthesis using image data of an overlapping boundary portion between adjacent partial images, and generates an image of the boundary portion for synthesis and an image obtained by removing the boundary portion between the two partial images. Are combined to combine the two partial images.

【0072】ところで、幾何学的変換が行われた隣接す
る部分画像の境界部分が全く同一であれば、合成用の境
界部分の画像を生成することなくそのまま両部分画像を
繋ぎ合わせれば、両部分画像を簡単に合成することがで
きる。しかし、例えば回転移動等により隣接する部分画
像の境界部分で1画素未満のずれが生じた場合や撮影条
件の相違により輝度分布が異なる場合は、単純に両部分
画像を繋ぎ合わても両者の画像の整合(濃度分布の整合
や図形の整合)を取ることはできないので、両部分画像
の境界部分の画像データを用いて境界部分の濃度変化や
図形のずれが不自然とならないような合成用の画像を生
成する必要がある。
By the way, if the boundary portions of the adjacent partial images subjected to the geometric transformation are exactly the same, if the two partial images are directly connected without generating the image of the boundary portion for synthesis, Images can be easily synthesized. However, for example, when a displacement of less than one pixel occurs at the boundary between adjacent partial images due to rotational movement or the like, or when the luminance distribution differs due to a difference in imaging conditions, the two images are simply connected to each other. Cannot be matched (density distribution matching or figure matching). Therefore, using the image data of the boundary part between the two partial images, the image is used for synthesis such that the density change at the boundary part and the figure deviation do not become unnatural. Images need to be generated.

【0073】図13は、境界部分の画像に輝度レベルの
差と模様のずれが生じている場合の合成方法の一例を示
す図で、(a)は左側の部分画像の図、(b)は右側の
部分画像の図、(c)は左右の部分画像を境界部分で重
ね合わせるように合成した図である。
FIGS. 13A and 13B are diagrams showing an example of a synthesizing method in a case where a difference in luminance level and a pattern shift occur in an image of a boundary portion, where FIG. 13A is a diagram of a left partial image, and FIG. FIG. 4C is a diagram of a partial image on the right side, and FIG. 4C is a diagram in which left and right partial images are combined so as to overlap at a boundary portion.

【0074】左右の部分画像A,Bの境界部分にはそれ
ぞれ帯状の図形Ra,Rbが含まれているが、帯状図形R
aは、帯状図形Rbに対して少し左側に傾斜し、その濃度
も帯状図形Rbより若干、濃くなっている。左側部分画
像Aと右側部分画像Bとを境界部分を重ね合わせるよう
に合成する場合、合成後の帯状図形Rcは、図13
(c)に示すように、帯状図形Raと帯状図形Rbとの中
間に生成されることが好ましい。
The boundary between the left and right partial images A and B includes band-shaped figures Ra and Rb, respectively.
a is slightly inclined to the left side with respect to the band-shaped figure Rb, and its density is slightly higher than that of the band-shaped figure Rb. When combining the left partial image A and the right partial image B such that the boundary portion is superimposed, the combined band-shaped figure Rc is represented by
As shown in (c), it is preferable that the image is generated in the middle between the band graphic Ra and the band graphic Rb.

【0075】図14は、理想的な合成後の帯状図形Rc
を構成する画像データ列からなる信号の波形を示すもの
で、図13(c)の直線M上における信号波形である。
同図において、実線で示す波形Saは、帯状図形Raを構
成する画像データ列からなる信号の波形であり、破線で
示す波形Sbは、帯状図形Rbを構成する画像データ列か
らなる信号の波形である。また、太線で示す波形Sc
は、理想的な合成後の帯状図形Rcを構成する画像デー
タ列からなる信号の波形である。
FIG. 14 shows an ideal band-like figure Rc after synthesis.
13C shows the waveform of a signal composed of an image data sequence, which is a signal waveform on a straight line M in FIG.
In the figure, a waveform Sa indicated by a solid line is a waveform of a signal composed of an image data sequence constituting the band-shaped graphic Ra, and a waveform Sb indicated by a broken line is a waveform of a signal composed of an image data sequence constituting the band-shaped graphic Rb. is there. Also, a waveform Sc indicated by a thick line
Is a waveform of a signal composed of an image data sequence constituting an ideal synthesized band-shaped figure Rc.

【0076】図14に示すように、理想的な信号Sc
は、信号Saと信号Sbとの中間位置にあり、その山頂部
のレベルと幅が信号Sa,Sbの山頂部のレベルと幅とに
略一致したものとなっている。
As shown in FIG. 14, the ideal signal Sc
Is located at an intermediate position between the signal Sa and the signal Sb, and the level and width of the peaks of the signals Sa and Sb substantially coincide with the levels and widths of the signals Sa and Sb.

【0077】左側部分画像Aの境界部分の画像データと
右側部分画像Bの境界部分の画像データとを用いて合成
用の境界部分の画像データを生成する場合、境界部分の
左側では左側部分画像Aの画像データの割合を線形的に
大きくし、境界部分の右側では右側部分画像Bの画像デ
ータの割合を線形的に大きくした重み係数を用いて両部
分画像A,Bの画像データを加重平均して合成用の境界
部分の画像データを生成する方法が知られている。
When the image data of the boundary portion for synthesis is generated using the image data of the boundary portion of the left partial image A and the image data of the boundary portion of the right partial image B, the left partial image A is generated on the left side of the boundary portion. Is linearly increased, and on the right side of the boundary portion, the weighted average of the image data of both partial images A and B is calculated using a weighting coefficient that linearly increases the ratio of image data of the right partial image B. There is known a method of generating image data of a boundary portion for composition by using the method.

【0078】この線形的な加重平均処理は、図16に示
すように、重複する境界部分の総画素数をNとし、境界
部分の左端から右端側に各画素のアドレスを1,2,…
Nとすると、合成用の境界部分の画像の画素位置kの画
像データg3(k)を、例えば下記演算式で決定するもので
ある。
In this linear weighted averaging process, as shown in FIG. 16, the total number of pixels in the overlapping boundary portion is set to N, and the addresses of the pixels are set to 1, 2,... From the left end to the right end of the boundary portion.
Assuming that N, the image data g3 (k) at the pixel position k of the image at the boundary portion for synthesis is determined by, for example, the following arithmetic expression.

【0079】[0079]

【数1】 (Equation 1)

【0080】なお、上記演算式では、画像データg1(k)
の重み係数は右側部分画像Aの左端からの距離kに設定
され、画像データg2(k)の重み係数は左側部分画像Bの
右端からの距離(N−k)に設定されている。
In the above equation, the image data g1 (k)
Is set to the distance k from the left end of the right partial image A, and the weight coefficient of the image data g2 (k) is set to the distance (N−k) from the right end of the left partial image B.

【0081】図15は、図10(c)における信号波形
Sa,Sbに対して線形的な加重平均処理を施して生成し
た帯状図形Rcを構成する画像データ列からなる信号の
波形を示す図である。実線で示す波形Saは、帯状図形
Raを構成する画像データ列からなる信号の波形であ
り、破線で示す波形Sbは、帯状図形Rbを構成する画像
データ列からなる信号の波形である。また、太線で示す
波形Scは、線形的な加重平均処理で生成された帯状図
形Rcを構成する画像データ列からなる信号の波形であ
る。
FIG. 15 is a diagram showing a waveform of a signal composed of an image data sequence constituting a band-shaped figure Rc generated by performing a linear weighted averaging process on the signal waveforms Sa and Sb in FIG. 10C. is there. A waveform Sa indicated by a solid line is a waveform of a signal composed of an image data sequence constituting the band graphic Ra, and a waveform Sb represented by a broken line is a waveform of a signal composed of an image data sequence constituting the band graphic Rb. A waveform Sc indicated by a bold line is a waveform of a signal composed of an image data sequence constituting a band-shaped figure Rc generated by the linear weighted averaging process.

【0082】加重平均処理は、左側部分画像Aと右側部
分画像Bとを境界部分で貼り合わせる際、境界部分で両
画像の濃度差が緩和されるように、合成用の境界部分の
画像データを生成するものであるから、左側部分画像A
と右側部分画像Bとの輝度差が大きいと、図15に示す
ように、合成用の境界部分に含まれる帯状図形Rcを構
成する画像データ列からなる信号Scは、輝度の低い左
側部分Bの影響を受けて、理想的な信号波形(図14参
照)に比べてそのレベルが低下するとともに、波形の形
も大きく崩れてくる。特に、左側部分画像Aと右側部分
画像Bとの境界部分の重複するサイズが画素ピッチに対
して十分に大きいと、合成後の境界部分の画像の中央部
分の画像データは、部分画像Aの画像データと部分画像
Bの画像データとの成分比率が略均等になる(すなわ
ち、両画像データの単純平均値となる)ので、帯状画像
Rcを構成する画像データ列からなる信号Scの山が更に
低くなり、帯状画像Rcの濃度がより薄くなるという不
具合が生じる。
In the weighted average processing, when the left partial image A and the right partial image B are pasted together at the boundary, the image data at the boundary for synthesis is reduced so that the density difference between the two images is reduced at the boundary. Because it is generated, the left partial image A
When the luminance difference between the image B and the right side image B is large, as shown in FIG. 15, the signal Sc composed of the image data sequence constituting the band-shaped figure Rc included in the boundary portion for synthesis becomes Under the influence, the signal level is reduced as compared with the ideal signal waveform (see FIG. 14), and the shape of the waveform is largely distorted. In particular, if the overlapping size of the boundary portion between the left partial image A and the right partial image B is sufficiently large with respect to the pixel pitch, the image data of the central portion of the image of the boundary portion after the combination becomes the image data of the partial image A Since the component ratio between the data and the image data of the partial image B becomes substantially equal (that is, a simple average value of the two image data), the peak of the signal Sc composed of the image data sequence constituting the band image Rc is further lower. This causes a problem that the density of the belt-shaped image Rc becomes lower.

【0083】そこで、本実施の形態では、合成用の境界
部分の画像を生成する際、エッジ強調処理とスムージン
グ処理とを併用して合成後の帯状画像Rcの濃度低下及
び形状変化を抑えるようにしている。従って、画像合成
回路236は、レベル調整回路236a、加重平均回路
236b、エッジ強調回路236c、スムージング回路
236d及び画像貼合せ回路236eを備え、以下に説
明するように、エッジ強調処理及びスムージング処理を
併用して合成用の境界部分の画像を生成するようになっ
ている。
Therefore, in the present embodiment, when generating the image of the boundary portion for synthesis, the edge reduction processing and the smoothing processing are used together to suppress the density reduction and the shape change of the synthesized band-shaped image Rc. ing. Therefore, the image synthesizing circuit 236 includes a level adjusting circuit 236a, a weighted averaging circuit 236b, an edge emphasizing circuit 236c, a smoothing circuit 236d, and an image pasting circuit 236e. Then, an image of the boundary portion for synthesis is generated.

【0084】図17は、エッジ強調処理とスムージング
処理とを併用した合成用の境界部分の画像の生成処理を
説明するための波形図である。図17は、図13(c)
の場合の合成用の境界部分の画像の生成処理における各
種信号の波形を示したもので、(a)は帯状図形Raを
構成する画像データ列からなる信号Saと帯状図形Rbを
構成する画像データ列からなる信号Sbとのレベルを調
整した波形図、(b)はレベル調整後の信号Saと信号
Sbとを加重平均した信号Scの波形図、(c)は信号S
cのエッジを強調した信号Sc′の波形図、(d)は信号
Sc′の突出したエッジを平滑化した信号Sc″の波形図
である。
FIG. 17 is a waveform diagram for explaining a process of generating an image of a boundary portion for synthesis using both the edge enhancement process and the smoothing process. FIG. 17 shows the state shown in FIG.
5A shows waveforms of various signals in the process of generating an image of a boundary portion for synthesis in the case of FIG. FIG. 4B is a waveform diagram of a signal Sc obtained by adjusting the level of the signal Sb composed of columns, FIG. 4B is a waveform diagram of a signal Sc obtained by weighted averaging the signal Sa and the signal Sb after the level adjustment, and FIG.
FIG. 4D is a waveform diagram of a signal Sc ′ in which the edge of c is emphasized, and FIG. 4D is a waveform diagram of a signal Sc ″ in which a protruding edge of the signal Sc ′ is smoothed.

【0085】合成用の境界部分の画像を生成するに当た
り、画像合成回路236では、まず、レベル調整回路2
36aで帯状図形Raを構成する画像データ列からなる
信号Saと帯状図形Rbを構成する画像データ列からなる
信号Sbとのレベルが調整される(図17(a)の状態
参照)。すなわち、左側部分画像Aの境界部分を構成す
る画像データ群のレベル平均値Vaと右側部分画像Bの
境界部分を構成する画像データ群のレベル平均値Vbと
が算出され、更に両レベル平均値Va,Vbの平均値Vab
(=(Va+Vb)/2)が算出される。そして、左側部
分画像Aの境界部分を構成する各画像データのレベル値
から補正値ΔVa(=|Vab−Va|)を減算して信号S
aのレベルを全体的に低下させるとともに、右側部分画
像Bの境界部分を構成する各画像データのレベル値から
補正値ΔVb(=|Vab−Vb|)を加算して信号Sbの
レベルを全体的に上昇させて、両信号Sa,Sbのレベル
が調整される。
In generating an image of the boundary portion for synthesis, the image synthesis circuit 236 firstly generates the level adjustment circuit 2
At 36a, the levels of the signal Sa composed of the image data sequence constituting the band graphic Ra and the signal Sb composed of the image data sequence constituting the band graphic Rb are adjusted (see the state of FIG. 17A). That is, the level average value Va of the image data group forming the boundary portion of the left partial image A and the level average value Vb of the image data group forming the boundary portion of the right partial image B are calculated, and both level average values Va are calculated. , Vb average value Vab
(= (Va + Vb) / 2) is calculated. Then, the correction value ΔVa (= | Vab−Va |) is subtracted from the level value of each image data constituting the boundary portion of the left partial image A, and the signal S is obtained.
The level of the signal Sb is reduced overall, and the correction value ΔVb (= | Vab−Vb |) is added from the level value of each image data constituting the boundary portion of the right partial image B to reduce the level of the signal Sb as a whole. To adjust the levels of both signals Sa and Sb.

【0086】続いて、加重平均回路236bでレベル調
整後の左側部分画像Aの境界部分を構成する画像データ
と右側部分画像Bの境界部分を構成する画像データとを
用いて上述の加重平均演算を行って合成用の境界部分の
画像(以下、この画像を合成用境界画像という。)が生
成される。この加重平均処理により、合成用境界画像内
に図17(b)の波形Scを有する帯状図形Rcが生成さ
れる。
Subsequently, the weighted averaging circuit 236b performs the above-described weighted average calculation using the image data forming the boundary portion of the left partial image A and the image data forming the boundary portion of the right partial image B after the level adjustment. Then, an image of a boundary portion for synthesis (hereinafter, this image is referred to as a boundary image for synthesis) is generated. By this weighted averaging process, a band-shaped figure Rc having the waveform Sc of FIG. 17B is generated in the synthesis boundary image.

【0087】続いて、エッジ強調回路236cで合成用
境界画像を表す関数をf(i,j)とすると、f(i,j)−∇2
f(i,j)の演算処理を行ってエッジ強調が行われる。す
なわち、具体的には、合成用境界画像を構成する画像デ
ータに、例えば図18に示すラプラシアンフィルタを用
いてエッジ強調のフィルタリング処理が施される。この
フィルタリング処理では、合成用境界画像がn×m個の
画像データで構成されているとすると、画素位置(i,
j)(i=1,2,…n、j=1,2,…m)の画像デ
ータg(i,j)がg(i,j)′={4g(i,j)−g(i-1,j)−g
(i,j-1)−g(i,j+1)−g(i+1,j)}/4の画像データに
置換される。そして、このフィルタリング処理により合
成用境界画像に含まれる帯状図形Rcを構成する画像デ
ータ列からなる信号Scの波形は、図17(c)に示す
信号Sc′のように変化する。
Subsequently, assuming that a function representing the boundary image for synthesis in the edge enhancement circuit 236c is f (i, j), f (i, j) −∇ 2
The edge processing is performed by performing the arithmetic processing of f (i, j). That is, specifically, edge emphasis filtering processing is performed on the image data constituting the synthesis boundary image using, for example, a Laplacian filter shown in FIG. In this filtering process, assuming that the synthesis boundary image is composed of nxm image data, the pixel position (i,
j) (i = 1, 2,... n, j = 1, 2,... m) is represented by g (i, j) ′ = {4 g (i, j) −g (i -1, j) -g
(i, j-1) -g (i, j + 1) -g (i + 1, j)} / 4. As a result of this filtering process, the waveform of the signal Sc composed of the image data sequence constituting the band-shaped figure Rc included in the boundary image for synthesis changes as a signal Sc 'shown in FIG.

【0088】なお、本実施の形態では、3×3のサイズ
のラプラシアンフィルタを用いているが、ラプラシアン
フィルタは他のサイズのものでもよい。また、ラプラシ
アンフィルタに限らず、エッジ強調が可能なラプラシア
ンに近似した係数を有する広域強調フィルタを用いても
よい。
In the present embodiment, a Laplacian filter having a size of 3 × 3 is used, but the Laplacian filter may be of another size. Further, the present invention is not limited to the Laplacian filter, and a wide-range emphasis filter having a coefficient similar to Laplacian capable of edge emphasis may be used.

【0089】続いて、スムージング回路236dでエッ
ジ強調後の合成用境界画像に対してスムージング処理が
施される。具体的には、合成用境界画像を構成する画像
データに、例えば図19に示す平滑化フィルタを用いて
エッジ強調により信号Sc′の山頂部の両端に生じた2
つの山や信号Sc′の裾野部に生じた2つの谷を平滑化
するフィルタリング処理が施される。このフィルタリン
グ処理では、合成用境界画像の画像データg(i,j)が下
記演算式で算出される画像データg(i,j)″に置換され
る。
Subsequently, the smoothing circuit 236d performs a smoothing process on the boundary image for synthesis after the edge enhancement. Specifically, for example, two edges generated at both ends of the peak of the signal Sc 'by the edge enhancement using the smoothing filter shown in FIG.
A filtering process for smoothing two peaks and two valleys generated at the foot of the signal Sc 'is performed. In this filtering process, the image data g (i, j) of the synthesis boundary image is replaced with image data g (i, j) ″ calculated by the following equation.

【0090】[0090]

【数2】 (Equation 2)

【0091】そして、このフィルタリング処理により合
成用境界画像に含まれる帯状図形Rcを構成する画像デ
ータ列からなる信号Sc′の波形は、図17(d)の信
号Sc″のように変化する。
The waveform of the signal Sc 'composed of the image data sequence constituting the band-shaped figure Rc included in the boundary image for synthesis included in the boundary image for synthesis changes as a signal Sc "in FIG. 17D.

【0092】なお、本実施の形態では、3×3のサイズ
の平滑化フィルタを用いているが、平滑化フィルタは他
のサイズのものでもよい。また、平滑化フィルタは、図
19にものに限らず、例えば隣接画素の画像データを単
純に平均化するものでもよい。
In this embodiment, a 3 × 3 size smoothing filter is used, but the size of the smoothing filter may be other. Further, the smoothing filter is not limited to the one shown in FIG. 19, and may be, for example, a filter that simply averages image data of adjacent pixels.

【0093】上述のように、線形加重平均演算により生
成された帯状図形Rcを構成する画像データからなる信
号Scに、上述のエッジ強調処理及びスムージング処理
を行うと、図17(c),(d)に示すように信号Sc
の波形が変化し、図14に示す理想的な信号波形を有す
る信号Scに近い信号Sc″を得ることができる。
As described above, when the above-described edge emphasis processing and smoothing processing are performed on the signal Sc composed of the image data constituting the band-shaped figure Rc generated by the linear weighted average calculation, FIGS. ), The signal Sc
Is changed, and a signal Sc ″ close to the signal Sc having the ideal signal waveform shown in FIG. 14 can be obtained.

【0094】しかし、上記エッジ強調処理及びスムージ
ング処理は、線形加重平均演算により生成された帯状図
形Rcを構成する画像データ列からなる信号Scの波形を
理想的な波形に整形するものであるから、整形後の信号
Sc″の波形は元の信号Scの波形の影響を大きく受ける
ことになる。そして、信号Scの波形は、帯状図形Raを
構成する画像データ列からなる信号Saと帯状図形Rbを
構成する画像データ列からなる信号Sbとの波形のずれ
具合によって大きく変化するから、結局、信号Sc″の
波形は、信号Saと信号Sbとのずれ量によって大きく変
化することになる。
However, the edge emphasizing process and the smoothing process shape the waveform of the signal Sc composed of the image data sequence constituting the band-shaped figure Rc generated by the linear weighted average calculation into an ideal waveform. The waveform of the signal Sc ″ after shaping is greatly affected by the waveform of the original signal Sc. The waveform of the signal Sc is obtained by converting the signal Sa and the band graphic Rb, which are composed of the image data sequence, that constitute the band graphic Ra. Since the waveform greatly changes depending on the degree of deviation of the waveform from the signal Sb comprising the image data sequence to be composed, the waveform of the signal Sc ″ ultimately changes greatly depending on the amount of deviation between the signal Sa and the signal Sb.

【0095】特に、信号Saの山と信号Sbの山とが離れ
ていると(すなわち、左側部分画像Aと右側部分画像B
とのずれが大きいと)、図20(a),(b)に示すよ
うに、線形加重平均演算により生成された帯状図形Rc
を構成する画像データ列からなる信号Scのピークレベ
ルが低下し、その波形もなだらかな山形となる。一方、
信号Saの山と信号Sbの山とが近接していると(すなわ
ち、左側部分画像Aと右側部分画像Bとのずれが小さい
と)、図21(a),(b)に示すように、信号Scの
ピークレベルは、信号Sa(又は信号Sb)と略同一とな
り、その波形も信号Saに近い矩形となる。
In particular, when the peak of the signal Sa and the peak of the signal Sb are separated (that is, the left partial image A and the right partial image B
20 (a) and 20 (b), the band-shaped figure Rc generated by the linear weighted averaging operation, as shown in FIGS.
, The peak level of the signal Sc composed of the image data string constituting the image data sequence decreases, and the waveform thereof also becomes a gentle mountain shape. on the other hand,
If the peak of the signal Sa and the peak of the signal Sb are close to each other (that is, if the deviation between the left partial image A and the right partial image B is small), as shown in FIGS. 21 (a) and 21 (b), The peak level of the signal Sc is substantially the same as the signal Sa (or the signal Sb), and its waveform is also a rectangle close to the signal Sa.

【0096】そこで、エッジ強調処理及びスムージング
処理による波形整形での左側部分画像Aと右側部分画像
Bとのずれ量の影響を少なくするため、例えば各画素位
置毎に、画素位置(i,j)の加重平均演算後の画像の
画像データg3(i,j)に加算される2次微分値∇2g3(i,
j)を、その画素位置(i,j)の左側部分画像Aの画像
データg1(i,j)と右側部分画像Bの画像データg2(i,j)
とのレベル差Δg(=|g1(i,j)−g2(i,j)|)に応じ
て変化させるようにするとよい。具体的には、レベル差
Δgが0又は微小であるときは、2次微分値∇2g3(i,
j)を0又は微笑量とし、レベル差Δgが大きくなるのに
応じて2次微分値∇2g3(i,j)を大きくする。
Therefore, in order to reduce the influence of the shift amount between the left partial image A and the right partial image B in the waveform shaping by the edge enhancement processing and the smoothing processing, for example, the pixel position (i, j) is set for each pixel position. weighted average calculation after the image of the image data g3 of (i, j) 2-order differential value ∇ 2 g3 to be added to (i,
j) is converted into image data g1 (i, j) of the left partial image A and image data g2 (i, j) of the right partial image B at the pixel position (i, j).
Should be changed according to the level difference Δg (= | g1 (i, j) −g2 (i, j) |). Specifically, when the level difference Δg is 0 or small, the second derivative ∇ 2 g3 (i,
j) is set to 0 or the smile amount, and the second derivative ∇ 2 g3 (i, j) is increased as the level difference Δg increases.

【0097】このようにすれば、信号Saの山と信号Sb
の山とが離れているとき(すなわち、左側部分画像Aと
右側部分画像Bとのずれが大きいとき)は、図20
(c)に示すように、エッジ強調処理により信号Sc′
の山頂部両端のエッジの突出量及び山裾の谷の落込量が
大きくなり、信号Saの山と信号Sbの山とが近接してい
るとき(すなわち、左側部分画像Aと右側部分画像Bと
のずれが小さいとき)は、図21(c)に示すように、
エッジ強調処理により信号Sc′の山頂部両端のエッジ
の突出量及び山裾の谷の落込量が小さくなり、図20
(d)及び図21(d)に示すように、信号Sc″の波
形及びピークレベルを略理想的な状態(図17に示す信
号Scの状態)に設定することができる。
In this manner, the peak of the signal Sa and the signal Sb
20 (ie, when the deviation between the left partial image A and the right partial image B is large)
As shown in (c), the signal Sc 'is obtained by the edge enhancement processing.
When the amount of protrusion of the edges at both ends of the peak and the amount of dip in the valley at the bottom of the peak are large and the peak of the signal Sa and the peak of the signal Sb are close to each other (that is, the left partial image A and the right partial image B When the deviation is small), as shown in FIG.
As a result of the edge emphasis processing, the amount of protrusion of the edge at both ends of the peak of the signal Sc 'and the amount of dip in the valley at the bottom of the peak are reduced.
As shown in (d) and FIG. 21 (d), the waveform and peak level of the signal Sc ″ can be set to a substantially ideal state (the state of the signal Sc shown in FIG. 17).

【0098】なお、2次微分値∇2g3(i,j)の変更制御
は、上述のように各画素位置毎でもよく、所定の画素数
を単位としたブロック毎でもよい。また、上述の説明で
は、左右の部分画像A,Bを貼り合わせる場合について
説明したが、上下の部分画像を貼り合わせる場合につい
ても同様の方法で合成処理を行うことができる。
The control for changing the second derivative ∇ 2 g3 (i, j) may be performed for each pixel position as described above, or may be performed for each block using a predetermined number of pixels. In the above description, the case where the left and right partial images A and B are combined has been described. However, when the upper and lower partial images are combined, the combining process can be performed in a similar manner.

【0099】図7に戻り、後処理回路237は、画像合
成回路236で合成された全体画像について、エッジ強
調、スムージング、色ムラ補正等の補正処理を行うもの
である。また、符号化回路238は、合成された全体画
像を構成する画像データの符号化を行うものである。符
号化回路238は、例えばDCT(離散コサイン変換)
とハフマン符号化とを組み合わせたJPEG圧縮方式に
より画像データの符号化処理(圧縮処理)を行うもので
ある。そして、符号化回路238から出力される画像デ
ータは、HDカード10に記憶される。
Referring back to FIG. 7, the post-processing circuit 237 performs correction processing such as edge enhancement, smoothing, and color unevenness correction on the entire image synthesized by the image synthesis circuit 236. Further, the encoding circuit 238 encodes image data constituting the combined whole image. The encoding circuit 238 is, for example, DCT (discrete cosine transform)
The encoding process (compression process) of the image data is performed by the JPEG compression method which combines the Huffman encoding with the image data. Then, the image data output from the encoding circuit 238 is stored in the HD card 10.

【0100】次に、図22〜図24のフローチャートを
従って、デジタルカメラ1の撮影動作について説明す
る。
Next, the photographing operation of the digital camera 1 will be described with reference to the flowcharts of FIGS.

【0101】図22,図23は、撮影動作手順を示すフ
ローチャートである。電源スイッチ7がオンになり、デ
ジタルカメラ1が起動すると、高解像度モード設定ボタ
ン13や合成画像数設定スイッチ14の設定状態に応じ
て撮影モード、撮影条件等の設定又は変更が行われる
(#2)。また、撮像部2がビデオモードで駆動され、
その撮像画像がLCD表示部11にモニタ表示(ファイ
ンダ表示)され、これにより撮影可能状態となる(#
4)。この状態は、シャッタボタン6が全押しされて、
レリーズが指示されるまで継続される(#2〜#6のル
ープ)。なお、この間に撮影者により高解像度モード設
定ボタン13や合成画像数設定スイッチ14が操作され
ると、その操作に応じて撮影モード及び撮影条件が変更
される(#2)。
FIG. 22 and FIG. 23 are flow charts showing the photographing operation procedure. When the power switch 7 is turned on and the digital camera 1 is started, setting or changing of a shooting mode, a shooting condition, and the like are performed according to the setting states of the high resolution mode setting button 13 and the number of synthesized images setting switch 14 (# 2). ). Further, the imaging unit 2 is driven in the video mode,
The captured image is displayed on a monitor (finder display) on the LCD display unit 11, whereby the image can be captured (#).
4). In this state, the shutter button 6 is fully pressed,
The process is continued until the release is instructed (# 2 to # 6 loop). If the photographer operates the high resolution mode setting button 13 or the composite image number setting switch 14 during this time, the photographing mode and photographing conditions are changed according to the operation (# 2).

【0102】そして、シャッタボタン6が全押しされて
レリーズが指示されると(#6でYES)、撮影モード
が高解像度モードに設定されているか否かが判別され
(#8)、高解像度モードが設定されていなければ(#
8でNO)、ステップ#10に移行し、通常の撮影モー
ドの撮影処理が行われる。
When the shutter button 6 is fully depressed and a release is instructed (YES in # 6), it is determined whether or not the photographing mode is set to the high resolution mode (# 8). Is not set (#
No in step 8), the process proceeds to step # 10, and a shooting process in a normal shooting mode is performed.

【0103】すなわち、まず、撮像部2の撮影方向(光
軸Lの方向)が正面方向に設定され(#10)、測光部
3により被写体輝度が検出されるとともに(#12)、
測距部4により被写体距離が検出され(#14)、この
被写体距離に基づいて焦点調節が行われる(#16)。
また、検出された被写体輝度を用いて露出制御値(絞り
値とCCD203の積分時間)が設定される(#1
8)。
That is, first, the photographing direction (the direction of the optical axis L) of the image pickup unit 2 is set to the front direction (# 10), and the photometric unit 3 detects the subject brightness (# 12).
The subject distance is detected by the distance measuring unit 4 (# 14), and the focus is adjusted based on the subject distance (# 16).
Further, an exposure control value (aperture value and integration time of CCD 203) is set using the detected subject luminance (# 1).
8).

【0104】続いて、設定された露出制御値に基づいて
被写体の撮像が行われる(#20)。撮像部2から出力
される撮像画像を構成する画像信号は、A/D変換部2
2でデジタルの画像データに変換された後、画像処理部
23内の画像メモリ231のプレ撮影画像記憶領域23
1aに格納されるとともに、この画像メモリ231を介
してLCD駆動制御部24に出力され、LCD表示部1
1に静止画表示される(#22)。この静止画表示によ
り撮影者は、撮影した画像をモニタすることができる。
Subsequently, the subject is imaged based on the set exposure control value (# 20). An image signal constituting a captured image output from the imaging unit 2 is output from the A / D conversion unit 2
2, the pre-photographed image storage area 23 of the image memory 231 in the image processing unit 23 is converted to digital image data.
1a, and output to the LCD drive control unit 24 via the image memory 231.
1 is displayed as a still image (# 22). With this still image display, the photographer can monitor the photographed image.

【0105】また、画像メモリ231に格納された画像
データは、後処理回路237でエッジ強調、スムージン
グ、色補正等の補正処理が行われた後、符号化回路23
8で符号化処理が行われ(#24)、HDカード10に
記録されて(#26)、撮影処理は終了する。
The image data stored in the image memory 231 is subjected to correction processing such as edge enhancement, smoothing, color correction, etc.
8, the encoding process is performed (# 24), recorded on the HD card 10 (# 26), and the photographing process ends.

【0106】撮影処理が終了すると、撮影者が静止画表
示解除ボタン12を操作して静止画表示の解除を指示し
ているか否かが判別され(#28)、静止画表示解除の
指示がされていると(#28でYES)、次の撮影処理
を行うべくステップ#2に戻り、静止画表示解除の指示
がされていなければ(#28でNO)、静止画表示の解
除が指示されるまで撮影画像の静止画表示が継続される
(#28のループ)。
When the photographing process is completed, it is determined whether or not the photographer has operated the still image display release button 12 to instruct release of the still image display (# 28), and an instruction to release the still image display is issued. If YES (YES in # 28), the process returns to step # 2 to perform the next photographing process. If the instruction to cancel the still image display has not been issued (NO in # 28), the instruction to cancel the still image display is issued. Until then, the still image display of the captured image is continued (loop of # 28).

【0107】ステップ#8で高解像度モードが設定され
ていれば(#28でYES)、ステップ#30に移行
し、高解像度モードの撮影処理が行われる。なお、この
高解像度モードでの撮影処理の説明では、図4,図5に
示す被写体を4分割して部分画像を取り込む場合を例に
説明する。
If the high-resolution mode has been set in step # 8 (YES in # 28), the flow shifts to step # 30, and the photographing process in the high-resolution mode is performed. In the description of the photographing process in the high resolution mode, a case where a subject shown in FIGS. 4 and 5 is divided into four and partial images are taken will be described as an example.

【0108】まず、撮像部2の撮影方向(光軸Lの方
向)が正面方向に設定され(#30)、撮像部2のズー
ムレンズ202が所定のワイド位置に設定される(#3
2)。続いて、測光部3により被写体輝度が検出される
とともに(#34)、測距部4により被写体距離が検出
され(#36)、この被写体距離に基づいて焦点調節が
行われる(#38)。また、検出された被写体輝度を用
いて露出制御値(絞り値とCCD203の積分時間)が
設定される(#40)。
First, the photographing direction (direction of the optical axis L) of the image pickup unit 2 is set to the front direction (# 30), and the zoom lens 202 of the image pickup unit 2 is set to a predetermined wide position (# 3).
2). Subsequently, the luminance of the subject is detected by the photometry unit 3 (# 34), the subject distance is detected by the distance measurement unit 4 (# 36), and the focus is adjusted based on the subject distance (# 38). Further, an exposure control value (aperture value and integration time of CCD 203) is set using the detected subject brightness (# 40).

【0109】続いて、設定された露出制御値に基づいて
被写体の撮像が行われる(#42)。この撮像画像は、
被写体全体が撮影されたもので、合成後の撮影画像と略
同一の画面構成となっている。撮像部2から出力される
撮像画像を構成する画像信号は、A/D変換部22でデ
ジタルの画像データに変換された後、画像処理部23内
の画像メモリ231のプレ撮影画像記憶領域231aに
格納されるとともに(#44)、この画像メモリ231
を介してLCD駆動制御部24に出力され、LCD表示
部11に静止画表示される(#46)。この静止画表示
により撮影者は、撮影した画像(すなわち、合成後の全
体画像と略同一の画像)をモニタすることができる。
Subsequently, the subject is imaged based on the set exposure control value (# 42). This captured image is
The entire subject is photographed, and has a screen configuration substantially the same as the photographed image after the synthesis. The image signal constituting the captured image output from the imaging unit 2 is converted into digital image data by the A / D conversion unit 22 and then stored in the pre-captured image storage area 231 a of the image memory 231 in the image processing unit 23. The image memory 231 is stored (# 44).
Is output to the LCD drive control unit 24 via the CPU and displayed on the LCD display unit 11 as a still image (# 46). By displaying the still image, the photographer can monitor the photographed image (that is, an image that is substantially the same as the entire image after the combination).

【0110】続いて、画像メモリ231に格納された画
像データを用いてAE・AWB演算部26で部分画像を
取り込む際の各撮影動作における露出制御値とWB調整
値とが演算される(#48)。露出制御値は、最初に撮
影された被写体全体の画像の全画像データ若しくは一部
の画像データの平均レベルを算出し、この平均レベルを
用いて算出される。また、WB調整値は、R,G,Bの
各色成分毎に、被写体全体の画像の全画像データ若しく
は一部の画像データの平均レベルを算出し、R,G,B
の各成分の平均レベルを等しくする補正係数として算出
される。なお、この露出制御値及びWB調整値の設定
は、マニュアルで設定するようにしてもよい。
Subsequently, using the image data stored in the image memory 231, the AE / AWB calculation unit 26 calculates an exposure control value and a WB adjustment value in each shooting operation when a partial image is captured (# 48). ). The exposure control value is calculated by calculating an average level of all image data or a part of image data of the entire image of the subject initially photographed, and using the average level. The WB adjustment value is calculated for each of the R, G, and B color components by calculating the average level of all or part of the image data of the entire subject and calculating the R, G, and B values.
Is calculated as a correction coefficient for equalizing the average level of each component. The exposure control value and the WB adjustment value may be set manually.

【0111】続いて、撮像部2の撮影方向が、合成画像
数設定スイッチ14により設定された合成画像数に分割
して被写体を部分的に撮影する際の最初の撮影方向(図
5のa方向)に設定されるとともに(#50)、撮像部
2のズームレンズ202が所定の撮影倍率となるテレ位
置(図5の例では、分割数が4であるで、撮影倍率が略
2倍となる位置)に設定される(#52)。更に、露出
制御値がステップ#48で算出された当該最初の撮影方
向に対する露出制御値(図5の例では、被写体に向かっ
て左上の被写体部分に対する露出制御値)に変更される
ととに、WB調整値が最初に撮影される部分画像に対す
るWB調整値に設定される(#54)。
Subsequently, the photographing direction of the image pickup unit 2 is divided into the number of combined images set by the number-of-combined-images setting switch 14, and the first photographing direction when partially photographing the subject (the direction a in FIG. 5). ) (# 50), and the telephoto position at which the zoom lens 202 of the imaging unit 2 has a predetermined photographing magnification (in the example of FIG. 5, the number of divisions is four, and the photographing magnification is approximately twice). Position) (# 52). Further, when the exposure control value is changed to the exposure control value for the first photographing direction calculated in step # 48 (in the example of FIG. 5, the exposure control value for the upper left subject portion toward the subject), The WB adjustment value is set to the WB adjustment value for the partial image that is captured first (# 54).

【0112】続いて、設定された露出制御値に基づいて
被写体の左上の部分の撮像が行われる(#56)。そし
て、撮像部2から出力される撮像画像(部分画像)を構
成する画像信号は、A/D変換部22でデジタルの画像
データに変換された後、画像処理部23内の画像メモリ
231の部分画像記憶領域231bに格納される(#5
8)。
Subsequently, the upper left portion of the subject is imaged based on the set exposure control value (# 56). Then, the image signal constituting the captured image (partial image) output from the imaging unit 2 is converted into digital image data by the A / D conversion unit 22 and then converted to a portion of the image memory 231 in the image processing unit 23. It is stored in the image storage area 231b (# 5
8).

【0113】続いて、全ての部分画像の取込みが終了し
たか否かが判別され(#60)、終了していなければ
(#60でNO)、次の部分画像を取り込むべくステッ
プ#50に戻る。今回は、最初の部分画像の取込みが終
了しているだけであるので、ステップ#50に戻り、撮
像部2の撮影方向を2枚目の撮影方向(図5のc方向)
に設定し(#50)、撮像部2のズームレンズ202を
所定の撮影倍率となるテレ位置(略2倍となる位置)に
設定して(#52)、被写体の右上の部分の撮像が行わ
れる(#54〜#58)。以下、同様の手順で、被写体
の右下及び左下の部分の撮像が行われ、全ての部分画像
の取込みが終了すると(#60でYES)、図24に示
す「貼合せ合成処理」のフローチャートに従って4枚の
部分画像を貼り合わせるように合成して被写体全体の撮
影画像が生成される(#62)。
Subsequently, it is determined whether or not the capture of all the partial images has been completed (# 60). If the capture has not been completed (NO in # 60), the flow returns to step # 50 to capture the next partial image. . In this case, since the capture of the first partial image has only been completed, the flow returns to step # 50, and the imaging direction of the imaging unit 2 is changed to the second imaging direction (direction c in FIG. 5).
(# 50), the zoom lens 202 of the imaging unit 2 is set to a telephoto position (a position almost doubled) at a predetermined photographing magnification (# 52), and an image of the upper right portion of the subject is taken. (# 54 to # 58). Hereinafter, in the same procedure, the lower right and lower left portions of the subject are imaged, and when the capturing of all the partial images is completed (YES in # 60), according to the flowchart of the "combining and combining process" shown in FIG. By combining the four partial images so as to be bonded together, a captured image of the entire subject is generated (# 62).

【0114】すなわち、まず、画像拡大回路232でプ
レ撮影画像に補間処理を施して4倍のサイズに拡大した
拡大画像が生成されるととともに、前処理回路233で
各部分画像を構成する画像データに対して輝度補正、ノ
イズ除去、スムージング、エッジ強調等の前処理が行わ
れ、これらの画像がマッチング演算回路234に入力さ
れる(#70)。
That is, first, an interpolation process is performed on the pre-photographed image by the image enlargement circuit 232 to generate an enlarged image enlarged to four times the size, and the pre-processing circuit 233 generates image data constituting each partial image. Are subjected to pre-processing such as brightness correction, noise removal, smoothing, and edge enhancement, and these images are input to the matching calculation circuit 234 (# 70).

【0115】続いて、マッチング演算回路234で拡大
画像と各部分画像とを比較してマッチング変換量(拡大
画像上のマッチング位置への幾何学的変換量)が演算さ
れ(#72)、算出された幾何学的変換量に基づき幾何
学的画像変換回路235で各部分画像を構成する画像デ
ータについて幾何学的変換処理(各部分画像の拡大画像
に一致する位置への変換。図11に示す処理)が行われ
る(#74)。
Subsequently, the matching operation circuit 234 compares the enlarged image with each of the partial images to calculate the amount of matching conversion (the amount of geometric conversion to a matching position on the enlarged image) (# 72). The geometric image conversion circuit 235 performs a geometric conversion process (conversion of each partial image to a position corresponding to the enlarged image. The processing shown in FIG. ) Is performed (# 74).

【0116】続いて、画像合成回路236のレベル調整
回路色236aで、各部分画像の貼合せ処理が行われる
境界部分(重なり部分)の輝度調整(図17(a)の処
理)が行われた後(#76)、加重平均回路236bで
両部分画像の境界部分を構成する画像データを所定の重
み係数で加重平均して合成用の境界部分の画像データが
生成される(#78、図17(b)の処理)。更に、エ
ッジ強調回路236c及びスムージング回路236dで
合成用の境界部分の画像データにエッジ強調処理(2次
微分値の加算処理)とスムージング処理とが行われる
(#80,#82)。
Subsequently, with the level adjustment circuit color 236a of the image synthesizing circuit 236, the brightness adjustment (the processing of FIG. 17 (a)) of the boundary portion (overlapping portion) where the pasting process of each partial image is performed is performed. Thereafter (# 76), the weighted averaging circuit 236b performs weighted averaging of the image data constituting the boundary portion between the two partial images with a predetermined weighting coefficient to generate image data of the boundary portion for synthesis (# 78, FIG. 17). (Process of (b)). Further, the edge enhancement circuit 236c and the smoothing circuit 236d perform edge enhancement processing (addition processing of the second derivative) and smoothing processing on the image data of the boundary portion for synthesis (# 80, # 82).

【0117】そして、画像貼合せ回路236eで各部分
画像の境界部分を除く部分の画像データと合成用の境界
部分の画像データとを単純接続するように合成して被写
体全体の合成画像が生成され、更に後処理回路237で
この合成画像にエッジ強調、スムージング、色ムラ補正
等の各種補正処理が行われた後(#84)、リターンす
る。
Then, the image combining circuit 236e combines the image data of the parts other than the boundary part of each partial image and the image data of the boundary part for combination so as to simply connect them to generate a composite image of the entire subject. After the post-processing circuit 237 performs various correction processes such as edge enhancement, smoothing, and color unevenness correction on the composite image (# 84), the process returns.

【0118】そして、合成された全体画像の画像データ
に対して符号化回路238で符号化(圧縮)処理が行わ
れた後(#64)、その画像データがHDカード7に記
録され(#66)、撮影処理は終了する。撮影処理が終
了すると、撮影者が静止画表示解除ボタン12を操作し
て静止画表示の解除を指示しているか否かが判別され
(#68)、静止画表示解除の指示がされていると(#
68でYES)、次の撮影処理を行うべくステップ#2
に戻り、静止画表示解除の指示がされていなければ(#
68でNO)、静止画表示の解除が指示されるまで撮影
画像の静止画表示が継続される(#68のループ)。
After the encoding (compression) processing is performed on the image data of the synthesized whole image by the encoding circuit 238 (# 64), the image data is recorded on the HD card 7 (# 66). ), The photographing process ends. When the photographing process is completed, it is determined whether or not the photographer has operated the still image display release button 12 to instruct the release of the still image display (# 68). (#
(YES at 68), step # 2 for performing the next photographing process
And if the instruction to cancel the still image display is not given (#
(NO at 68), the still image display of the captured image is continued until the cancellation of the still image display is instructed (loop of # 68).

【0119】図25は、画像処理部内の高輝度モードに
おける画像処理に関するブロック構成の第2の実施の形
態を示す図である。
FIG. 25 is a diagram showing a second embodiment of the block configuration relating to image processing in the high brightness mode in the image processing section.

【0120】第1の実施の形態は、部分画像毎に拡大画
像に略一致するマッチング変換量を算出して各部分画像
を変形するようにしてしたが、第2の実施の形態は、部
分画像毎に拡大画像における合成位置のみを算出し、各
部分画像を拡大画像における合成位置に配置した状態で
境界部分で貼合せ合成するもので、画像合成処理の簡素
化を図ったものである。すなわち、第2の実施の形態
は、遠近法的な像歪みの補正を行うことなく各部分画像
の合成処理を行うもので、処理を簡素化して合成処理の
迅速化を図るものである。被写体距離がある程度、長い
場合は、部分画像を取り込む際の撮像部2の光軸Lの正
面方向からの振れ角は小さく、各部分画像に生じる遠近
法的な像歪みも少なくなるから、このようなは撮影条件
下では第2の実施の形態でも有効に高解像度の合成画像
を得ることができる。
In the first embodiment, each partial image is deformed by calculating a matching conversion amount that substantially matches the enlarged image for each partial image. In the second embodiment, the partial image is transformed. Only the combination position in the enlarged image is calculated for each image, and the partial images are combined at the boundary portion while being arranged at the combination position in the enlarged image, thereby simplifying the image combination process. That is, in the second embodiment, the synthesis processing of each partial image is performed without correcting perspective image distortion, and the processing is simplified to speed up the synthesis processing. When the subject distance is long to some extent, the swing angle of the optical axis L of the imaging unit 2 from the front direction when capturing the partial image is small, and perspective perspective image distortion occurring in each partial image is reduced. In addition, a high-resolution composite image can be effectively obtained in the second embodiment under photographing conditions.

【0121】従って、図25に示すブロック構成図は、
図7において、幾何学的画像変換回路235をレベル補
正回路239に置き換えたものである。
Accordingly, the block diagram shown in FIG.
In FIG. 7, the geometric image conversion circuit 235 is replaced with a level correction circuit 239.

【0122】図25において、レベル補正回路239
は、拡大画像の合成位置における一部画像とその合成位
置に対応する部分画像との輝度差に基づき当該部分画像
のレベルを補正するものである。画像合成回路236で
は各部分画像を合成して最終的に拡大画像と略同一の画
像を生成するので、各部分画像の輝度を拡大画像と合わ
せておいて合成後に部分画像間で輝度差が目立たないよ
うにするためものである。なお、図25におけるマッチ
ング演算回路234では、後述するように、拡大画像上
における各部分画像の一致する領域を算出するのみで、
各部分画像を変形して拡大画像上で最も一致する領域の
算出は行われない。
In FIG. 25, level correction circuit 239
Is to correct the level of the partial image based on the luminance difference between the partial image at the composite position of the enlarged image and the partial image corresponding to the composite position. Since the image combining circuit 236 combines the partial images and finally generates an image substantially the same as the enlarged image, the luminance of each partial image is combined with the enlarged image, and the luminance difference between the partial images is conspicuous after the combination. This is to prevent it. Note that the matching calculation circuit 234 in FIG. 25 only calculates a region where each partial image matches on the enlarged image, as described later.
Each partial image is not deformed to calculate the best matching area on the enlarged image.

【0123】第2の実施の形態は、第1の実施の形態と
比較して主としてマッチング演算回路234及びレベル
補正回路239の動作が異なるのみであるから、以下の
説明では、両回路を中心に動作説明を行う。
The second embodiment differs from the first embodiment mainly in the operation of the matching operation circuit 234 and the level correction circuit 239, and therefore, in the following description, both circuits will be mainly described. The operation will be described.

【0124】マッチング演算回路234では、拡大画像
と各部分画像とを比較しつつ、各部分画像を拡大画像上
で上下左右に所定の画素ピッチで移動させて両画像が最
も一致する位置が合成位置として算出される。この場
合、拡大画像と部分画像との一致度は、拡大画像を構成
する画素データとその画素データの画素位置に対応する
部分画像を構成する画素データとの輝度差の絶対値|Δ
Di|(i=1,2,…n)の総和Σ|ΔDi|で判断さ
れ、この総和Σ|ΔDi|が最小となる位置が合成位置
として算出される。なお、拡大画像における各部分画像
の移動範囲は、予め拡大画像におけるおよその範囲(右
上隅の範囲や左下の範囲等)が分かっているので、その
範囲内で撮影レンズ2の走査精度や手ぶれ等による部分
画像の相対的なずれを考慮して決定される。
The matching calculation circuit 234 compares the enlarged image with each partial image, moves each partial image up, down, left, and right at a predetermined pixel pitch on the enlarged image, and determines a position where the two images are most coincident with each other at the combined position. Is calculated as In this case, the degree of coincidence between the enlarged image and the partial image is determined by the absolute value | Δ of the luminance difference between the pixel data constituting the enlarged image and the pixel data constituting the partial image corresponding to the pixel position of the pixel data.
Is determined by the sum Σ | ΔDi | of Di | (i = 1, 2,..., N), and the position at which the sum Σ | ΔDi | is minimum is calculated as the combined position. Note that the movement range of each partial image in the enlarged image is roughly known in advance in the enlarged image (the range of the upper right corner, the lower left range, and the like). Is determined in consideration of the relative displacement of the partial images due to

【0125】また、各部分画像の合成位置が決定される
と、その位置における輝度差の総和Σ|ΔDi|を部分
画像を構成する総画素数nで割って1画素当たりの輝度
補正値Σ|ΔDi|/nが算出され、レベル補正回路2
39でこの輝度補正値Σ|ΔDi|/nを部分画像を構
成する画素データに加算して拡大画像と各部分画像との
輝度差の補正が行われる。この輝度補正により、各部分
画像の貼合せ合成処理における貼合せ部分(境界部分)
での輝度段差が低減される。
When the combined position of each partial image is determined, the sum of the luminance differences at that position Σ | ΔDi | is divided by the total number n of pixels constituting the partial image, and the luminance correction value per pixel Σ | ΔDi | / n is calculated and the level correction circuit 2
At 39, the luminance correction value Σ | ΔDi | / n is added to the pixel data constituting the partial image to correct the luminance difference between the enlarged image and each partial image. By this luminance correction, the pasted portion (boundary portion) in the pasting and combining process of each partial image
, The luminance step is reduced.

【0126】図26は、第2の実施の形態に係る合成位
置の演算処理を示すフローチャートである。図26のフ
ローチャートは、図24のステップ#72におけるマッ
チング演算処理に相当する処理である。従って、ステッ
プ#72の処理を図26に示す合成位置の演算処理に置
き換えれば、図22〜図24のフローチャートにより高
解像度モードでの撮影動作で簡素化された合成処理を行
わせることができる。
FIG. 26 is a flowchart showing the calculation processing of the combined position according to the second embodiment. The flowchart of FIG. 26 is a process corresponding to the matching calculation process in step # 72 of FIG. Therefore, if the processing of step # 72 is replaced with the calculation processing of the combining position shown in FIG. 26, the simplified combining processing can be performed by the photographing operation in the high resolution mode according to the flowcharts of FIGS.

【0127】図26に示す合成位置の演算処理では、ま
ず、画像メモリ231の部分画像記憶領域231bから
部分画像GAを構成する画素データga(i)が順次、読み
出されるとともに(#90)、マッチング演算回路23
4内の図略のメモリに格納された拡大画像Gの所定の比
較範囲における対応する画素データg(i)が順次、読み
出され(#92)、両画素データga(i),g(i)の輝度
差の絶対値|ΔDi|=|ga(i)−g(i)|の総和Σ|Δ
Di|(i=1,2,…n、nは部分画像を構成する画
素データの総数)が算出される(#94)。
[0127] In the arithmetic processing of the synthesis positions shown in FIG. 26, first, the pixels constituting the partial image G A from the partial image storage area 231b of the image memory 231 data ga (i) are sequentially with read (# 90), Matching operation circuit 23
4, corresponding pixel data g (i) in a predetermined comparison range of the enlarged image G stored in a memory (not shown) is sequentially read (# 92), and both pixel data g a (i) and g (i) are read. )), The sum of the luminance differences | ΔDi | = | ga (i) −g (i) |
Di | (i = 1, 2,..., N is the total number of pixel data constituting the partial image) is calculated (# 94).

【0128】続いて、算出された総和Σ|ΔDi|が前
回までに算出された総和の最小値minΣより小さいか否
かが判別され(#96)、minΣ>Σ|ΔDi|であれば
(#96でYES)、今回算出された総和Σ|ΔDi|
が総和の最小値としてマッチング演算回路234に設け
られたminΣのメモリ(図略)に更新的に記憶されると
ともに(#98)、拡大画像Gにおける部分画像GA
比較範囲の位置が合成位置としてマッチング演算回路2
34内のメモリ(図略)に記憶される(#100)。一
方、minΣ≦Σ|ΔDi|であれば(#96でNO)、mi
nΣ及び合成位置のメモリの内容を変更することなくス
テップ#102に移行する。
Subsequently, it is determined whether the calculated sum 総 | ΔDi | is smaller than the minimum value minΣ of the sum calculated up to the previous time (# 96), and if minΣ> Σ | ΔDi | (# 96), the total sum 今 回 | ΔDi |
Is updated and stored as a minimum value of the sum in a memory (not shown) of minΣ provided in the matching operation circuit 234 (# 98), and the position of the comparison range of the partial image G A in the enlarged image G is determined as the synthesis position. Matching operation circuit 2
The data is stored in a memory (not shown) in the storage 34 (# 100). On the other hand, if minΣ ≦ Σ | ΔDi | (NO in # 96), mi
The process proceeds to step # 102 without changing the contents of the memory at nΣ and the combining position.

【0129】ステップ#102では全比較範囲について
輝度差の絶対値の総和Σ|ΔDi|の算出が終了したか
否かが判別され、終了していなければ(#102でN
O)、比較範囲が所定の移動量(例えば1画素乃至数画
素分)だけ所定の移動方向(例えば上下方向又は左右方
向)に移動され(#104)、ステップ#92に戻る。
そして、拡大画像Gの移動後の比較範囲における対応す
る画素データg(i)が順次、読み出され、部分画像GA
画像データとの輝度差の絶対値|ΔDi|の総和Σ|Δ
Di|が算出され、更にこの総和Σ|ΔDi|とminΣと
を比較して比較結果に応じた上記所定の処理が行われる
(#92〜#100)。以下、同様に比較範囲を順次、
変更して拡大画像Gにおける部分画像GAとの輝度差の
総和Σ|ΔDi|が最小となる比較範囲の位置(すなわ
ち、合成位置)が算出される(#92〜#104のルー
プ)。
In step # 102, it is determined whether or not the calculation of the sum of the absolute values of the luminance differences Σ | ΔDi | has been completed for all the comparison ranges.
O), the comparison range is moved by a predetermined moving amount (for example, one pixel to several pixels) in a predetermined moving direction (for example, up and down direction or left and right direction) (# 104), and the process returns to step # 92.
Then, the corresponding pixel data g (i) is successively in the comparison range after movement of the enlarged image G, read, the absolute value of the luminance difference between the image data of the partial image G A | [Delta] Di | sum sigma | delta
Di | is calculated, the sum {| ΔDi | is compared with min}, and the above-described predetermined processing is performed according to the comparison result (# 92 to # 100). Hereinafter, similarly, the comparison range is sequentially changed,
The position of the comparison range (that is, the synthesis position) where the total sum of the luminance differences Σ | ΔDi | in the enlarged image G from the partial image G A is changed is calculated (the loop of # 92 to # 104).

【0130】そして、部分画像GAについて合成位置が
算出されると(#102でYES)、輝度差の総和Σ|
ΔDi|の最小値minΣを部分画像GAを構成する画像デ
ータの総数nで割って輝度補正値minΣ/nが算出さ
れ、この算出結果がレベル補正回路239に入力される
(#106)。
When the combined position is calculated for partial image G A (YES in # 102), the sum of luminance differences Σ |
[Delta] Di | minimum value Minshiguma divided by the total number n of the image data constituting the partial image G A luminance correction value Minshiguma / n is calculated, this calculation result is input to the level correction circuit 239 (# 106).

【0131】続いて、全部分画像について合成位置の算
出が終了したか否かが判別され(#108)、終了して
いなければ(#108でNO)、ステップ#90に戻
り、次の部分画像についての合成位置の算出処理が行わ
れる(#90〜#104のループ)。今回は最初の部分
画像GAについての処理であったので、ステップ#90
に戻り、次の部分画像GBについての合成位置の算出処
理が行われる。そして、全部分画像GA〜GDについて合
成位置と輝度補正値minΣ/nの算出処理が終了すると
(#108でYES)、合成位置の演算処理を終了す
る。
Subsequently, it is determined whether or not the calculation of the combined position has been completed for all the partial images (# 108). If the calculation has not been completed (NO in # 108), the process returns to step # 90 and the next partial image is obtained. Is calculated (loop of # 90 to # 104). In this case, since the process is for the first partial image G A , step # 90
Returning to, calculation processing of the combined position for the next partial image G B is performed. When the calculation process of the combined position and the luminance correction value minΣ / n for all partial images G A ~G D is completed (YES in # 108), and terminates the calculation processing of the combined position.

【0132】マッチング演算回路234で算出された合
成位置の情報は、画像合成回路236に入力され、各部
分画像を構成する画像データGA〜GDは、レベル補正回
路239で輝度補正値minΣ/nを加算補正された後、
画像合成回路236に入力される。そして、この後は、
図24のステップ#74移行の処理に従って各部分画像
A〜GDが境界部分で貼り合わせるように合成されて全
体画像が合成される。
The information on the combination position calculated by the matching calculation circuit 234 is input to the image combination circuit 236, and the image data G A to G D constituting each partial image are converted by the level correction circuit 239 into the luminance correction value minΣ / After adding and correcting n,
It is input to the image synthesis circuit 236. And after this,
According to the process of step # 74 in FIG. 24, the partial images G A to G D are combined so as to be pasted at the boundary, and the entire image is combined.

【0133】なお、上述のマッチング演算処理では、部
分画像を構成する画像データを全て用いていたが、ブロ
ック毎や数画素置きに画像データを間引いて画素数を減
少させたものを用いることで処理速度の低下を抑えるよ
うにしてもよい。
In the above-described matching calculation processing, all the image data constituting the partial image is used. However, the processing is performed by using the image data which is thinned out every block or every few pixels to reduce the number of pixels. The reduction in speed may be suppressed.

【0134】また、上記実施の形態では、撮像部2の撮
影レンズ202の光軸方向を変化させて同一のCCD2
03で複数の部分画像を連続的に取り込むようにしてい
るが、プリズム等の分光手段で被写体光像を被写体全体
の構造と複数の部分光像とに分割し、それらの光像を複
数のCCDの撮像面にそれぞれ結像して同時に被写体全
体の画像と被写体の部分の画像を取り込むようにしても
よい。
In the above embodiment, the same CCD 2 is used by changing the optical axis direction of the photographing lens 202 of the image pickup section 2.
03, a plurality of partial images are continuously taken in. However, the subject light image is divided into the entire structure of the subject and a plurality of partial light images by a spectral means such as a prism, and the light images are divided into a plurality of CCDs. May be formed on the image pickup surfaces of the respective objects, and an image of the entire subject and an image of a part of the subject may be captured at the same time.

【0135】上記のように、被写体を複数の部分に分割
して撮影し、その部分画像を合成して被写体全体の撮影
画像を生成するに当たり、部分画像の取込時に被写体全
体の画像を取込み、この被写体全体の撮影画像に一致す
るように、この撮影画像を被写体の分割数に基づく所定
の倍率で拡大した画像を生成し、この拡大画像で各部分
画像の合成位置を決定するようにしたので、各部分画像
の合成位置が正確に設定され、合成処理が正確に行える
とともに、境界部分での貼合せ処理における画像のずれ
や色ずれ等が防止でき、合成処理に起因する画質低下を
低減することができる。
As described above, when the subject is divided into a plurality of parts and photographed, and the partial images are combined to generate a photographed image of the entire subject, an image of the entire subject is captured when the partial image is captured. Since an image obtained by enlarging the photographed image at a predetermined magnification based on the number of divisions of the object so as to match the photographed image of the entire object is generated, and the synthesized position of each partial image is determined based on the enlarged image. In addition, the combining position of each partial image is accurately set, the combining process can be performed accurately, the image displacement and the color displacement in the bonding process at the boundary portion can be prevented, and the image quality deterioration due to the combining process is reduced. be able to.

【0136】[0136]

【発明の効果】以上説明したように、本発明によれば、
部分的に撮像した複数の画像を合成して被写体全体の撮
像画像を生成する撮像装置であって、被写体を全体的に
撮影するとともに、部分的に撮影し、被写体の各部分の
撮影画像の合成処理における合成位置を被写体全体の撮
影画像を基準に算出し、この合成位置に位置合せした状
態で各部分画像を合成するようにしたので、各部分画像
の合成位置が正確に決定され、合成処理が正確に行え
る。
As described above, according to the present invention,
An image capturing apparatus that combines a plurality of partially captured images to generate a captured image of the entire subject, and that captures the entire subject, partially captures the image, and combines captured images of the respective portions of the subject. Since the combination position in the processing is calculated based on the photographed image of the entire subject, and the respective partial images are combined while being aligned with the combination position, the combination position of each partial image is accurately determined, and the combination processing is performed. Can be performed accurately.

【0137】また、本発明によれば、境界部分が重複す
るように被写体全体を複数の部分に分割し、被写体の各
部分を被写体全体のサイズと略同一のサイズに拡大して
順次、撮像し、その被写体の各部分の撮像画像を、被写
体全体の撮影画像を基準に算出された合成位置に位置合
せした状態で境界部分で貼り合わせるように合成して被
写体全体の撮影画像を生成するようにしたので、各部分
画像の合成位置の精度が向上し、合成処理をより正確に
行うことができる。
Further, according to the present invention, the entire subject is divided into a plurality of portions so that the boundary portions are overlapped, and each portion of the subject is enlarged to substantially the same size as the entire subject and sequentially imaged. The captured image of the entire subject is generated by combining the captured images of the respective portions of the subject so as to be pasted together at the boundary portion in a state where the captured images are aligned with the composite position calculated based on the captured image of the entire subject. Therefore, the accuracy of the combining position of each partial image is improved, and the combining process can be performed more accurately.

【0138】また、被写体を全体的に撮像する第1の撮
像手段と被写体を部分的に撮像する第2の撮像手段と
を、撮影倍率変更可能なレンズと被写体光像を電気画像
に光電変換して取り込む撮像素子とが光軸方向変更可能
に一体的に構成されてなる撮像部で構成し、この撮像部
の光軸方向及び撮影倍率を変更して被写体の全体画像と
被写体の部分画像とを順次、取り込むようにしたので、
被写体の全体画像及び部分画像を取り込む撮像系の構造
がコンパクトになる。また、被写体全体の画像と被写体
の部分の画像との間で撮影光学系の相違の起因する画質
の差が少なく、合成処理が容易になるとともに、合成後
の画像の画質の低減を抑制することができる。
The first imaging means for imaging the entire subject and the second imaging means for partially imaging the subject are provided with a lens capable of changing the magnification and a subject light image converted to an electric image by photoelectric conversion. An image pickup device and an image pickup device are integrally configured so as to be capable of changing the optical axis direction. The optical axis direction and the photographing magnification of the image pickup unit are changed so that the entire image of the subject and the partial image of the subject are changed. Because I tried to take in sequentially,
The structure of the imaging system for capturing the whole image and the partial image of the subject becomes compact. In addition, the difference in image quality due to the difference in the photographing optical system between the image of the entire subject and the image of the part of the subject is small, so that the synthesizing process is facilitated and the reduction in the image quality of the synthesized image is suppressed. Can be.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係るデジタルカメラの一実施の形態の
外観を示す図である。
FIG. 1 is a diagram showing an appearance of a digital camera according to an embodiment of the present invention.

【図2】本発明に係るデジタルカメラの背面図である。FIG. 2 is a rear view of the digital camera according to the present invention.

【図3】本発明に係るデジタルカメラの撮像系の概略構
成を示す図である。
FIG. 3 is a diagram showing a schematic configuration of an imaging system of the digital camera according to the present invention.

【図4】高解像度モードにおける撮影方法を説明するた
めの図である。
FIG. 4 is a diagram for explaining a shooting method in a high resolution mode.

【図5】高解像度モードでの撮影における被写体と撮影
範囲との関係を示す図である。
FIG. 5 is a diagram illustrating a relationship between a subject and a shooting range in shooting in a high resolution mode.

【図6】本発明に係るデジタルカメラのブロック構成の
一実施の形態を示す図である。
FIG. 6 is a diagram showing an embodiment of a block configuration of a digital camera according to the present invention.

【図7】画像処理部内の高解像度モードにおける画像処
理に関するブロック構成の第1の実施の形態を示す図で
ある。
FIG. 7 is a diagram illustrating a first embodiment of a block configuration related to image processing in a high resolution mode in an image processing unit.

【図8】掲示板を4分割して部分的に撮像する場合の各
撮影時の撮影範囲を示す図である。
FIG. 8 is a diagram illustrating a photographing range at each photographing when a bulletin board is divided into four parts and partly photographed.

【図9】部分画像に生じる遠近法的な像歪みを示す図で
ある。
FIG. 9 is a diagram illustrating perspective image distortion occurring in a partial image.

【図10】遠近法的な像歪みを有する部分画像を貼合せ
合成して得られる画像を示す図である。
FIG. 10 is a diagram showing an image obtained by pasting and combining partial images having perspective image distortion.

【図11】マッチング処理の方法を示す図である。FIG. 11 is a diagram illustrating a method of a matching process.

【図12】直線を軸とした拡大又は縮小の方向を示す図
で、(a)は直線方向の拡大又は縮小を示す図であり、
(b)は円弧方向の拡大又は縮小を示す図である。
12A and 12B are diagrams illustrating directions of enlargement or reduction with a straight line as an axis, and FIG. 12A is a diagram illustrating enlargement or reduction in a linear direction;
(B) is a figure which shows expansion or contraction in an arc direction.

【図13】境界部分の画像に輝度レベルの差と模様のず
れが生じている場合の合成方法の一例を示す図で、
(a)は左側の部分画像を示す図、(b)は右側の部分
画像を示す図、(c)は両部分画像の境界部分の貼合せ
画像を示す図である。
FIG. 13 is a diagram showing an example of a synthesizing method when a difference in luminance level and a pattern shift occur in an image of a boundary portion;
(A) is a diagram showing a partial image on the left side, (b) is a diagram showing a partial image on the right side, and (c) is a diagram showing a combined image of a boundary portion between both partial images.

【図14】図13(c)の直線M上における帯状図形R
aを構成する画像データと帯状図形Rbを構成する画像デ
ータとを適正に合成して得られる理想的な帯状図形Rc
を構成する画像データ列の波形を示す図である。
FIG. 14 shows a band-shaped figure R on a straight line M in FIG.
An ideal band figure Rc obtained by properly combining the image data forming the a and the image data forming the band figure Rb.
FIG. 5 is a diagram showing a waveform of an image data sequence constituting the image data.

【図15】図13(c)の直線M上における帯状図形R
aを構成する画像データと帯状図形Rbを構成する画像デ
ータとを線形的に加重平均して得られる帯状図形Rcを
構成する画像データ列の波形を示す図である。
FIG. 15 shows a band-shaped figure R on a straight line M in FIG.
FIG. 9 is a diagram showing a waveform of an image data sequence constituting a band-shaped figure Rc obtained by linearly weighting and averaging the image data constituting a and the image data constituting the band-shaped figure Rb.

【図16】線形的な加重平均処理により画像を合成する
方法を説明するための波形図である。
FIG. 16 is a waveform chart for explaining a method of synthesizing images by linear weighted averaging processing.

【図17】エッジ強調処理とスムージング処理とを併用
した合成用の境界部分の画像の生成処理を説明するため
の波形図で、(a)は帯状図形Raを構成する画像デー
タ列からなる信号Saと帯状図形Rbを構成する画像デー
タ列からなる信号Sbとのレベルを調整した波形図、
(b)はレベル調整後の信号Saと信号Sbとを加重平均
した信号Scの波形図、(c)は信号Scのエッジを強調
した信号Sc′の波形図、(d)は信号Sc′の突出した
エッジを平滑化した信号Sc″の波形図である。
FIGS. 17A and 17B are waveform diagrams for explaining a generation process of an image of a boundary portion for synthesis using both the edge enhancement process and the smoothing process. FIG. 17A is a signal Sa including an image data sequence constituting a band-shaped graphic Ra. A waveform diagram in which the level of a signal Sb composed of an image data sequence constituting a band-shaped figure Rb is adjusted;
(B) is a waveform diagram of a signal Sc obtained by weighted averaging the signal Sa and the signal Sb after level adjustment, (c) is a waveform diagram of a signal Sc 'in which edges of the signal Sc are emphasized, and (d) is a waveform diagram of the signal Sc'. FIG. 14 is a waveform diagram of a signal Sc ″ obtained by smoothing a protruding edge.

【図18】エッジ強調処理用のフィルタの一例を示す図
である。
FIG. 18 is a diagram illustrating an example of a filter for edge enhancement processing.

【図19】スムージング処理用のフィルタの一例を示す
図である。
FIG. 19 is a diagram illustrating an example of a filter for smoothing processing.

【図20】左右の部分画像のずれが大きい場合のエッジ
強調処理とスムージング処理とを併用した合成用の境界
部分の画像の生成処理を説明するための波形図で、
(a)は帯状図形Raを構成する画像データ列からなる
信号Saと帯状図形Rbを構成する画像データ列からなる
信号Sbとのレベルを調整した波形図、(b)はレベル
調整後の信号Saと信号Sbとを加重平均した信号Scの
波形図、(c)は信号Scのエッジを強調した信号Sc′
の波形図、(d)は信号Sc′の突出したエッジを平滑
化した信号Sc″の波形図である。
FIG. 20 is a waveform diagram for explaining a process of generating an image of a boundary portion for synthesis using both the edge enhancement process and the smoothing process when the displacement between the left and right partial images is large;
(A) is a waveform diagram in which the level of a signal Sa composed of an image data sequence constituting the band graphic Ra and a signal Sb composed of an image data sequence constituting the band graphic Rb is adjusted, and (b) is a signal Sa after the level adjustment. (C) is a signal Sc 'in which edges of the signal Sc are emphasized.
(D) is a waveform diagram of the signal Sc ″ obtained by smoothing the protruding edge of the signal Sc ′.

【図21】左右の部分画像のずれが小さい場合のエッジ
強調処理とスムージング処理とを併用した合成用の境界
部分の画像の生成処理を説明するための波形図で、
(a)は帯状図形Raを構成する画像データ列からなる
信号Saと帯状図形Rbを構成する画像データ列からなる
信号Sbとのレベルを調整した波形図、(b)はレベル
調整後の信号Saと信号Sbとを加重平均した信号Scの
波形図、(c)は信号Scのエッジを強調した信号Sc′
の波形図、(d)は信号Sc′の突出したエッジを平滑
化した信号Sc″の波形図である。
FIG. 21 is a waveform diagram for explaining a generation process of an image of a boundary portion for synthesis using both the edge enhancement process and the smoothing process when the shift between the left and right partial images is small;
(A) is a waveform diagram in which the level of a signal Sa composed of an image data sequence constituting the band graphic Ra and a signal Sb composed of an image data sequence constituting the band graphic Rb is adjusted, and (b) is a signal Sa after the level adjustment. (C) is a signal Sc 'in which edges of the signal Sc are emphasized.
(D) is a waveform diagram of the signal Sc ″ obtained by smoothing the protruding edge of the signal Sc ′.

【図22】本発明に係るデジタルカメラの撮影制御を示
すフローチャートである。
FIG. 22 is a flowchart illustrating shooting control of the digital camera according to the present invention.

【図23】本発明に係るデジタルカメラの撮影制御を示
すフローチャートである。
FIG. 23 is a flowchart showing photographing control of the digital camera according to the present invention.

【図24】「貼合せ処理」の処理手順を示すフローチャ
ートである。
FIG. 24 is a flowchart illustrating a processing procedure of a “sticking process”.

【図25】画像処理部内の高解像度モードにおける画像
処理に関するブロック構成の第2の実施の形態を示す図
である。
FIG. 25 is a diagram illustrating a second embodiment of a block configuration related to image processing in a high resolution mode in the image processing unit.

【図26】「合成位置の演算」の処理手順を示すフロー
チャートである。
FIG. 26 is a flowchart illustrating a processing procedure of “composition position calculation”.

【符号の説明】[Explanation of symbols]

1 デジタルカメラ(撮像装置) 2 撮像部(第1及び第2の撮像手段) 201 筐体 202 撮影レンズ 203 撮像素子(CCD) 3 測光部 4 測距部 5 フラッシュ 6 シャッタボタン 7 電源スイッチ 8 カード挿入口 9 カード取出ボタン 10 HDカード 11 LCD表示部 12 静止画表示解除ボタン 13 高解像度モード設定スイッチ 14 合成画像数設定スイッチ 15,16,17 電動モータ 20 制御部 21 撮像制御部 211 ズーム制御回路 212 走査制御回路(光軸変更部) 213 撮像制御回路(第1及び第2の撮像制御部) 22 A/D変換部 23 画像処理部 231 画像メモリ(記憶手段) 232 画像拡大回路 233 前処理回路 234 マッチング演算回路(合成位置算出手段) 235 幾何学的画像変換回路 235 画像貼合せ回路(画像合成手段) 236 画像合成回路 236a レベル調整回路 236b 加重平均回路 236c エッジ強調回路 266d スムージング回路 236e 画像貼合せ回路 237 後処理回路 238 符号化回路 239 レベル補正回路 24 LCD駆動制御部 25 カード駆動制御部 26 AE・AWB演算部 27 RAM 28 ROM Reference Signs List 1 digital camera (imaging device) 2 imaging unit (first and second imaging means) 201 housing 202 shooting lens 203 imaging device (CCD) 3 photometry unit 4 distance measurement unit 5 flash 6 shutter button 7 power switch 8 card insertion Mouth 9 Card ejection button 10 HD card 11 LCD display unit 12 Still image display release button 13 High resolution mode setting switch 14 Number of combined images setting switch 15, 16, 17 Electric motor 20 Control unit 21 Imaging control unit 211 Zoom control circuit 212 Scanning Control circuit (optical axis changing unit) 213 Imaging control circuit (first and second imaging control units) 22 A / D conversion unit 23 Image processing unit 231 Image memory (storage means) 232 Image enlargement circuit 233 Preprocessing circuit 234 Matching Arithmetic circuit (combined position calculating means) 235 Geometric image conversion circuit 23 Image combining circuit (image combining means) 236 Image combining circuit 236a Level adjustment circuit 236b Weighted average circuit 236c Edge enhancement circuit 266d Smoothing circuit 236e Image combining circuit 237 Post-processing circuit 238 Encoding circuit 239 Level correction circuit 24 LCD drive control unit 25 Card drive control unit 26 AE / AWB operation unit 27 RAM 28 ROM

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI G06F 15/66 470J ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 6 Identification code FIG06F 15/66 470J

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 被写体全体を撮像する第1の撮像手段
と、上記被写体全体を複数の部分に分割して順次、撮像
する第2の撮像手段と、上記第1の撮像手段で撮像され
た被写体全体の撮影画像を基準に上記第2の撮像手段で
撮像された被写体の各部分画像の合成における合成位置
を算出する合成位置算出手段と、上記被写体の各部分画
像を上記合成位置算出手段で算出された合成位置に位置
合せした状態で各部分画像の合成を行う画像合成手段と
を備えたことを特徴とする撮像装置。
A first imaging unit that images the entire subject; a second imaging unit that divides the entire subject into a plurality of portions and sequentially captures images; and a subject that is imaged by the first imaging unit. Combining position calculating means for calculating a combining position in combining the partial images of the subject imaged by the second image capturing means on the basis of the entire captured image; and calculating each of the partial images of the subject by the combining position calculating means An image synthesizing means for synthesizing each of the partial images in a state of being aligned with the synthesized position.
【請求項2】 被写体全体を撮像する第1の撮像手段
と、境界部分が重複するように上記被写体全体を複数の
部分に分割し、被写体の各部分を上記被写体全体の撮像
サイズと略同一のサイズに拡大して順次、撮像する第2
の撮像手段と、上記第1及び第2の撮像手段で撮像され
た画像を記憶する記憶手段と、上記第1の撮像手段で撮
像された被写体全体の撮影画像を基準に上記第2の撮像
手段で撮像された被写体の各部分画像の貼合せ合成にお
ける合成位置を算出する合成位置算出手段と、上記被写
体の各部分画像を上記合成位置算出手段で算出された合
成位置に位置合せした状態で互いに境界部分で貼り合わ
せるように各部分画像の合成を行う画像合成手段とを備
えたことを特徴とする撮像装置。
A first imaging unit for imaging the entire subject; dividing the entire subject into a plurality of portions so that a boundary portion is overlapped; each portion of the subject having substantially the same size as the imaging size of the entire subject; The second to take images sequentially after expanding to the size
Image capturing means, storage means for storing images captured by the first and second image capturing means, and second image capturing means based on a captured image of the entire subject captured by the first image capturing means A combining position calculating means for calculating a combining position in the combining of the partial images of the subject imaged at the position and the combining position calculated with the combining position calculated by the combining position calculating means. An image pickup apparatus, comprising: an image synthesizing unit that synthesizes partial images so as to be bonded at a boundary portion.
【請求項3】 請求項1又は2記載の撮像装置におい
て、第1及び第2の撮像手段は、撮影倍率変更可能なレ
ンズと被写体光像を電気画像に光電変換して取り込む撮
像素子とが光軸方向変更可能に一体的に構成されてなる
撮像部と、上記撮像部の光軸方向を変更する光軸変更部
と、上記撮像部の光軸方向を正面方向に設定するととも
に、撮影画面に被写体全体が入るように上記レンズの撮
影倍率を設定して上記被写体を全体的に撮像する第1の
撮像制御部と、上記撮像部の撮影倍率を上記被写体の各
部分が互いに境界部分が重複するサイズで撮影画面に入
るように拡大するとともに、上記撮像部の光軸方向を上
記被写体の各部分に対応する所定の方向に順次、変更し
て上記被写体を部分的に撮像する第2の撮像制御部とか
らなることを特徴とする撮像装置。
3. The image pickup apparatus according to claim 1, wherein the first and second image pickup means include a lens capable of changing a photographing magnification and an image pickup element that photoelectrically converts a subject light image into an electric image and takes in the electric image. An imaging unit integrally configured so that the axial direction can be changed, an optical axis changing unit that changes the optical axis direction of the imaging unit, and an optical axis direction of the imaging unit set to the front direction, and a shooting screen is displayed. A first imaging control unit that sets the photographic magnification of the lens so that the entire subject is included to image the entire subject, and a photographic magnification of the imaging unit where each part of the subject has a boundary portion overlapping with each other A second imaging control for enlarging the image so as to fit in the imaging screen and changing the optical axis direction of the imaging unit in a predetermined direction corresponding to each part of the object in order to partially image the object; And a department Imaging device.
JP9360607A 1997-12-26 1997-12-26 Image pickup device Pending JPH11196318A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP9360607A JPH11196318A (en) 1997-12-26 1997-12-26 Image pickup device
US09/221,418 US6720997B1 (en) 1997-12-26 1998-12-28 Image generating apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9360607A JPH11196318A (en) 1997-12-26 1997-12-26 Image pickup device

Publications (1)

Publication Number Publication Date
JPH11196318A true JPH11196318A (en) 1999-07-21

Family

ID=18470142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9360607A Pending JPH11196318A (en) 1997-12-26 1997-12-26 Image pickup device

Country Status (1)

Country Link
JP (1) JPH11196318A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004102478A1 (en) * 2003-05-13 2004-11-25 Olympus Corporation Image processing device
JP2006166416A (en) * 2004-11-10 2006-06-22 Nikon Corp Electronic camera
US7227557B2 (en) * 2000-05-10 2007-06-05 Nec Corporation Method, system and record medium for generating wide-area high-resolution image
US7428007B2 (en) 1999-10-27 2008-09-23 Ricoh Company, Ltd. Image pickup apparatus and image processing method for picking up an image of a target in divisions

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7428007B2 (en) 1999-10-27 2008-09-23 Ricoh Company, Ltd. Image pickup apparatus and image processing method for picking up an image of a target in divisions
US7227557B2 (en) * 2000-05-10 2007-06-05 Nec Corporation Method, system and record medium for generating wide-area high-resolution image
WO2004102478A1 (en) * 2003-05-13 2004-11-25 Olympus Corporation Image processing device
JP2004343222A (en) * 2003-05-13 2004-12-02 Olympus Corp Image processing apparatus
JP2006166416A (en) * 2004-11-10 2006-06-22 Nikon Corp Electronic camera
JP4626482B2 (en) * 2004-11-10 2011-02-09 株式会社ニコン Electronic camera

Similar Documents

Publication Publication Date Title
US6720997B1 (en) Image generating apparatus
JP4760973B2 (en) Imaging apparatus and image processing method
JP4900401B2 (en) Imaging apparatus and program
US7057645B1 (en) Camera system that compensates low luminance by composing multiple object images
JP4924430B2 (en) Imaging apparatus, image processing apparatus, and program
JP3395770B2 (en) Digital still camera
JP7023662B2 (en) Image processing device, image pickup device, control method and program of image processing device
JP3984346B2 (en) Imaging apparatus and image composition method
JP2002300373A (en) Image processing method, image processing device, recording medium and program
JP2001177741A (en) Electronic camera and display system
JP2007124398A (en) Photographing device
JP5578442B2 (en) Imaging apparatus, image composition method, and program
KR20100084140A (en) Imaging apparatus, image processing method, and image processing program
JP7174120B2 (en) IMAGING DEVICE, PROGRAM, RECORDING MEDIUM, AND CONTROL METHOD
JP2003121732A (en) Digital camera
WO2010035752A1 (en) Image generation device, imaging device, image reproduction device, and image reproduction program
JP2007243917A (en) Imaging apparatus and image processing program
JPH11196299A (en) Image pickup device
JP4817529B2 (en) Imaging apparatus and image processing method
JPH11196317A (en) Image pickup device
JP3444281B2 (en) IMAGE PROCESSING SYSTEM, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND RECORDING MEDIUM CONTAINING PROCESSING PROGRAM OF THE METHOD
JP2008109482A (en) Imaging apparatus, image recording processing method and image recording processing program
JP2000224462A (en) Camera system
JP2003018446A (en) Imaging device and digital still camera employing the same
JP2014011782A (en) Imaging apparatus, and imaging method and program therefor

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040803

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20040917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040924

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050301