JPH0990530A - Compositing device and forming method for panoramic image - Google Patents

Compositing device and forming method for panoramic image

Info

Publication number
JPH0990530A
JPH0990530A JP7270730A JP27073095A JPH0990530A JP H0990530 A JPH0990530 A JP H0990530A JP 7270730 A JP7270730 A JP 7270730A JP 27073095 A JP27073095 A JP 27073095A JP H0990530 A JPH0990530 A JP H0990530A
Authority
JP
Japan
Prior art keywords
image
synthesizing
parameter
panoramic
executed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7270730A
Other languages
Japanese (ja)
Other versions
JP3302236B2 (en
Inventor
Koji Hatanaka
耕治 畑中
Hideo Takiguchi
英夫 滝口
Kenji Hatori
健司 羽鳥
Kotaro Yano
光太郎 矢野
Tatsuji Katayama
達嗣 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP27073095A priority Critical patent/JP3302236B2/en
Priority to US08/719,716 priority patent/US6549681B1/en
Publication of JPH0990530A publication Critical patent/JPH0990530A/en
Application granted granted Critical
Publication of JP3302236B2 publication Critical patent/JP3302236B2/en
Priority to US10/347,317 priority patent/US7085435B2/en
Priority to US11/407,362 priority patent/US7366360B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)

Abstract

PROBLEM TO BE SOLVED: To process a panoramic image in a short time. SOLUTION: Correspondence points where plural kinds of image data transmitted from an electronic camera 1 correspond to each other are extracted by a correspondence point extracting means 19 and then, a composting parameter calculating means 20 calculates a composing parameter for forming the panoramic image, based on the correspondence points, to store the composting parameter. Then, an image composting means 21 composting-process image based on the composting parameter, at the time of reproducing and displaying the panoramic image on a display 4.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明はパノラマ画像合成装
置とパノラマ画像の作成方法に関し、より詳しくは電子
カメラ等の撮像装置で撮像された画像から、画像の一部
がオーバーラップしている複数の画像を合成して1枚の
画像を得ることができるパノラマ画像合成装置とパノラ
マ画像の作成方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a panoramic image synthesizing apparatus and a method for creating a panoramic image, and more specifically, a plurality of images which are partially overlapped from each other are picked up by an image pickup apparatus such as an electronic camera. The present invention relates to a panoramic image synthesizing apparatus capable of synthesizing images to obtain one image and a panoramic image creating method.

【0002】[0002]

【従来の技術】近年、ワイドな画像を撮影して1枚の画
像にしたいという要求に応えるべく、画像の一部がオー
バーラップしている複数の画像を合成することができる
パノラマ画像合成技術の開発が盛んに行われている。
2. Description of the Related Art In recent years, a panoramic image synthesizing technique capable of synthesizing a plurality of images in which a part of the images overlap each other in order to meet the demand for photographing a wide image into one image. Development is actively done.

【0003】特に、電子カメラにおいては、画素数の少
なさから銀塩カメラやスキャナと比較して解像度が低い
という指摘がなされており、かかる電子カメラで撮影さ
れた画像にとってパノラマ画像合成技術は、ワイドな画
像を撮影するというだけでなく、高解像度な画像を撮影
する手段としても重要なものとなってきている。
In particular, it has been pointed out that an electronic camera has a lower resolution than a silver halide camera or a scanner due to the small number of pixels, and the panoramic image synthesis technique is applied to an image taken by such an electronic camera. It has become important not only for capturing wide images but also for capturing high resolution images.

【0004】すなわち、かかるパノラマ画像合成技術
は、1枚の原稿や雑誌等を複数に分けて撮影し、スキャ
ナ並みの高解像度データを取得したり、風景を複数に分
割してワイドで高解像度に撮影したりすることに威力を
発揮する。
That is, in such a panoramic image composition technique, one manuscript, magazine, etc. are divided into a plurality of images to obtain high resolution data equivalent to a scanner, or a landscape is divided into a plurality of parts to obtain a wide and high resolution. It is very effective for shooting.

【0005】上記パノラマ画像合成技術を利用した従来
のパノラマ画像合成装置は、合成する画像のオーバーラ
ップ位置である対応点を見つける対応点抽出手段と、前
記対応点から画像を合成するためのパラメータを算出す
る合成パラメータ算出手段と、該合成パラメータ算出手
段により算出されたパラメータに基づいて複数の画像を
合成して1枚の画像にする合成処理手段とを有してお
り、これら上記手段は電子カメラからコンピュータに画
像を取り込むときに行われる。すなわち、電子カメラで
撮影した場合、電子カメラに内蔵されているメモリに画
像データと該画像データの属性データが格納される。ま
た、パノラマ画像を撮影する場合には、撮影する際に電
子カメラをパノラマ画像撮影モードにセットして撮影を
行う。該パノラマ画像撮影モードにより、撮影された画
像の属性データ中には1セットのパノラマ画像を示す識
別子が自動的に記録される。そして、電子カメラをコン
ピュータに接続して電子カメラに内蔵されたメモリに格
納されている画像データと属性データとをコンピュータ
内部のデータベース等に登録する際に、アプリケーショ
ンソフトを介して前記属性データをチェックする。次い
で、属性データ中にパノラマ画像撮影モードでの識別子
が存在するものから、自動的に1セットの画像を抽出
し、パノラマ画像合成が行われる。すなわち、前記対応
点抽出手段、前記合成パラメータ算出手段、前記合成処
理手段が順次実行されてパノラマ画像合成が行われる。
A conventional panoramic image synthesizing apparatus using the above panoramic image synthesizing technique includes corresponding point extracting means for finding corresponding points which are overlapping positions of images to be synthesized, and parameters for synthesizing images from the corresponding points. The electronic camera includes a combination parameter calculating unit for calculating, and a combination processing unit for combining a plurality of images into one image based on the parameters calculated by the combination parameter calculating unit. This is done when capturing an image from the computer to. That is, when a picture is taken with an electronic camera, the image data and the attribute data of the image data are stored in the memory built in the electronic camera. When taking a panoramic image, the electronic camera is set in the panoramic image photographing mode at the time of photographing. According to the panoramic image shooting mode, an identifier indicating a set of panoramic images is automatically recorded in the attribute data of the shot image. Then, when the electronic camera is connected to the computer and the image data and the attribute data stored in the memory built in the electronic camera are registered in a database or the like inside the computer, the attribute data is checked via the application software. To do. Next, one set of images is automatically extracted from the attribute data having the identifier in the panoramic image shooting mode, and the panoramic image combination is performed. That is, the corresponding point extraction means, the synthesis parameter calculation means, and the synthesis processing means are sequentially executed to perform panoramic image synthesis.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、上記従
来のパノラマ画像合成装置においては、前記対応点抽出
手段、前記合成パラメータ算出手段、前記合成手段の処
理量がいずれも多く、処理時間が長くなってしまうとい
う問題点があった。すなわち、従来のパノラマ画像合成
装置においては、上述した各処理の全てをコンピュータ
への取込時に行っているため、画像データ中にパノラマ
画像データを含んでいる場合は、電子カメラからコンピ
ュータに画像を取り込んでデータベース等に当該画像を
登録するという一連の処理に長時間を要するという問題
点があった。
However, in the above-mentioned conventional panoramic image synthesizing apparatus, the processing amount of the corresponding point extracting means, the synthesizing parameter calculating means, and the synthesizing means is large, and the processing time becomes long. There was a problem that it would end up. That is, in the conventional panoramic image synthesizing device, all of the above-mentioned processes are performed at the time of loading into the computer. Therefore, if the image data includes panoramic image data, the image is transferred from the electronic camera to the computer. There is a problem that it takes a long time to perform a series of processes of capturing and registering the image in a database or the like.

【0007】本発明はこのような問題点に鑑みなされた
ものであって、パノラマ画像処理を短時間で行うことが
できるパノラマ画像合成装置とパノラマ画像の作成方法
を提供することを目的とする。
The present invention has been made in view of the above problems, and an object of the present invention is to provide a panoramic image synthesizing apparatus and a panoramic image creating method capable of performing panoramic image processing in a short time.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
に本発明のうち、請求項1記載の発明は、画像を合成す
るための合成パラメータを算出する合成パラメータ算出
手段と、該合成パラメータ算出手段により算出された合
成パラメータに基づいて画像を合成する合成処理手段と
を有し、画像の一部がオーバーラップしている複数の画
像を合成して1枚の画像を取得するパノラマ画像合成装
置において、前記合成パラメータ算出手段により算出さ
れた合成パラメータを格納する格納手段を備え、前記合
成処理手段と前記合成パラメータ処理手段とを異なる時
期に分離独立して実行する分離独立実行手段を有してい
ることを特徴としている。
In order to achieve the above object, among the present invention, the invention according to claim 1 is a combination parameter calculating means for calculating a combination parameter for combining images, and the combination parameter calculation. A panorama image synthesizing device for synthesizing images based on the synthesizing parameter calculated by the synthesizing device, and synthesizing a plurality of images in which a part of the images overlap to obtain one image. A storage means for storing the synthesis parameter calculated by the synthesis parameter calculation means, and a separation independent execution means for separately and independently executing the synthesis processing means and the synthesis parameter processing means at different times. It is characterized by being.

【0009】また、請求項2記載の発明は、請求項1記
載の発明において、撮像装置と該撮像装置で撮像された
画像データを取り込む情報処理装置とを有し、前記合成
パラメータ算出手段は前記撮像装置から前記情報処理装
置への画像データ取り込み時に実行されると共に、前記
合成処理手段は画像再生時に実行されることを特徴とし
ている。
According to a second aspect of the present invention, in the first aspect of the present invention, the image pickup device has an image pickup device and an information processing device for fetching image data picked up by the image pickup device, and the synthesis parameter calculation means is the It is characterized in that it is executed at the time of capturing image data from the image pickup device to the information processing device, and the composition processing means is executed at the time of image reproduction.

【0010】さらに、請求項3記載の発明は、請求項1
記載の発明において、前記パラメータ合成手段は、撮像
装置による画像撮影が終了したときに実行されると共
に、前記合成処理手段は、撮像装置による画像再生時に
実行されることを特徴としている。
[0010] Further, the invention according to claim 3 is based on claim 1.
In the invention described above, the parameter synthesizing means is executed when the image capturing by the image pickup apparatus is completed, and the synthesizing processing means is executed when the image is reproduced by the image pickup apparatus.

【0011】また、請求項4記載の発明は、請求項1記
載の発明において、前記パラメータ合成手段は、撮像装
置による画像撮影が終了したときに実行されると共に、
前記合成処理手段は、撮像装置から外部装置にパノラマ
画像を出力する場合に実行されることを特徴とし、請求
項5記載の発明は、請求項4記載の発明において、前記
外部装置は情報処理装置であることを特徴としている。
According to a fourth aspect of the present invention, in the first aspect of the invention, the parameter synthesizing means is executed when the image pickup by the image pickup device is completed, and
The combination processing means is executed when a panoramic image is output from the imaging device to an external device, and the invention according to claim 5 is the invention according to claim 4, wherein the external device is an information processing device. It is characterized by being.

【0012】また、請求項6記載の発明は、画像の一部
がオーバーラップしている複数の画像を合成して1枚の
画像を取得するパノラマ画像の作成方法において、前記
複数の画像の互いに対応する対応点に基づいてパノラマ
画像を作成するための合成パラメータを算出した後、該
合成パラメータを記憶し、前記合成パラメータの算出時
期とは異なる時期に前記記憶された合成パラメータに基
づいて画像の合成処理を実行し、パノラマ画像を作成す
ることを特徴としている。
Further, the invention according to claim 6 is a method of creating a panoramic image in which a plurality of images in which a part of the images overlap each other are obtained to obtain one image. After calculating the synthesis parameter for creating the panorama image based on the corresponding points, the synthesis parameter is stored, and the image is calculated based on the stored synthesis parameter at a time different from the time when the synthesis parameter is calculated. The feature is that a panoramic image is created by executing a combining process.

【0013】また、請求項7記載の発明は、請求項6記
載の発明において、撮像されたパノラマ画像用の画像デ
ータを撮像装置から情報処理装置に転送する場合、前記
合成パラメータの算出を前記撮像装置から前記情報処理
装置への画像データ取り込み時に実行する一方、前記画
像の合成処理を画像再生時に実行することを特徴として
いる。
According to the invention of claim 7, in the invention of claim 6, when the image data for the captured panoramic image is transferred from the image pickup device to the information processing device, the calculation of the synthesis parameter is performed by the image pickup. It is characterized in that it is executed when the image data is loaded from the device to the information processing device, while the image combining process is executed when the image is reproduced.

【0014】さらに、請求項8記載の発明は、請求項6
記載の発明において、撮像装置による画像撮影の終了時
に前記合成パラメータを算出する一方、撮像装置による
画像再生時に画像の合成処理を実行することを特徴とし
ている。
Further, the invention of claim 8 is the same as claim 6.
In the invention described above, the synthesis parameter is calculated at the end of image capturing by the image pickup apparatus, and the image synthesis processing is executed at the time of image reproduction by the image pickup apparatus.

【0015】また、請求項9記載の発明は、請求項6記
載の発明において、撮像装置による画像撮影の終了時に
前記合成パラメータを算出する一方、撮像装置から外部
装置へのパノラマ画像出力時に画像の合成処理を実行す
ることを特徴とし、請求項10記載の発明は、請求項9
記載の発明において、前記外部装置は情報処理装置であ
ることを特徴としている。
According to a ninth aspect of the present invention, in the sixth aspect of the invention, the composite parameter is calculated at the end of image capturing by the image pickup device, and the image is output at the time of outputting the panoramic image from the image pickup device to the external device. The invention according to claim 10 is characterized in that a synthesizing process is executed.
In the invention described above, the external device is an information processing device.

【0016】[0016]

【発明の実施の形態】以下、本発明の実施の形態を図面
に基づき説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0017】図1は本発明に係るパノラマ画像合成装置
の一実施の形態を示す全体構成図であって、撮像装置と
しての電子カメラ1が接続ケーブル3を介してパーソナ
ルコンピュータ(以下、「パソコン」という)2に接続
されている。さらに、パソコン2は、画像データ等の表
示を行うディスプレイ4と、マウスボタン5を備えたポ
インティングデバイスとしてのマウス6と、キーボード
7と、これら各構成要素を制御するシステム制御部8と
を有し、さらにシステム制御部8には外部記憶装置とし
てのハードディスク(HD)9が接続されている。
FIG. 1 is an overall configuration diagram showing an embodiment of a panoramic image synthesizing apparatus according to the present invention, in which an electronic camera 1 as an image pickup apparatus is connected to a personal computer (hereinafter referred to as "personal computer") via a connection cable 3. Called) 2. Further, the personal computer 2 has a display 4 for displaying image data and the like, a mouse 6 as a pointing device having a mouse button 5, a keyboard 7, and a system control unit 8 for controlling each of these components. Further, a hard disk (HD) 9 as an external storage device is connected to the system control unit 8.

【0018】図2はパノラマ画像合成装置のシステム構
成図であって、システム制御部8は、システムメモリ
(不図示)及びCPU(不図示)を有し、システムメモ
リにはオペレーションシステム(以下、「OS」とい
う)10及びアプリケーションプログラム(以下、単に
「アプリケーション」と略す)11が格納され、これら
OS10及びアプリケーション11は必要に応じてCP
Uにロードされ、該CPUで実行される。
FIG. 2 is a system configuration diagram of the panoramic image synthesizing apparatus. The system control unit 8 has a system memory (not shown) and a CPU (not shown), and the system memory has an operation system (hereinafter, referred to as " An OS 10) and an application program (hereinafter simply abbreviated as “application”) 11 are stored. The OS 10 and the application 11 are CPs as required.
It is loaded into U and executed by the CPU.

【0019】OS10は、具体的には、ユーザの各種入
力を受け取る入力デバイス管理システム12と、ディス
プレイ4上に表示される描画を管理する描画管理システ
ム13と、ファイルの入出力を制御するファイルシステ
ム14とを備えている。
Specifically, the OS 10 includes an input device management system 12 that receives various user inputs, a drawing management system 13 that manages the drawing displayed on the display 4, and a file system that controls the input / output of files. 14 and.

【0020】また、アプリケーション11は、画像デー
タ管理システム15とパノラマ画像合成システム16と
を備えている。
The application 11 also comprises an image data management system 15 and a panoramic image composition system 16.

【0021】画像データ管理システム15は、具体的に
は、画像データの属性データやユーザ入力によるキーワ
ード等を管理するデータ管理手段17と、これら属性デ
ータやキーワード等で画像データを検索しディスプレイ
4に表示するためのデータ表示手段18とを備えてい
る。また、パノラマ画像合成システム16は、複数の画
像データ間の対応点を抽出する対応点抽出手段19と、
前記対応点に基づき画像を合成するための合成パラメー
タを算出する合成パラメータ算出手段20と、前記合成
パラメータに基づいて複数の画像データを合成し1枚の
パノラマ画像を取得する画像合成手段21とを備えてい
る。
Specifically, the image data management system 15 includes a data management means 17 for managing the attribute data of the image data, keywords input by the user, and the like, and searches the image data on the display 4 with these attribute data and keywords. The data display means 18 for displaying is provided. The panoramic image composition system 16 also includes corresponding point extracting means 19 for extracting corresponding points between a plurality of image data.
A combination parameter calculation unit 20 that calculates a combination parameter for combining images based on the corresponding points, and an image combination unit 21 that combines a plurality of image data based on the combination parameters to obtain one panoramic image. I have it.

【0022】本パノラマ画像合成装置においては、OS
10の入力デバイス管理システム12が、キーボードイ
ンターフェース22を介してキーボード7からの入力を
受け取り、或いはマウスインターフェース23を介して
マウス6からの入力を受け取り、さらに双方向パラレル
インターフェースやSCSIインターフェース等の高速
で画像転送可能な汎用インターフェース24を介して電
子カメラ1との間で画像データの授受を行う。また、パ
ノラマ画像システム16は画像データ管理システム15
からパノラマ撮影モードで撮影した画像を受け取ってパ
ノラマ画像処理を行う。さらに、パノラマ画像システム
16の合成パラメータ算出手段20で得られた合成パラ
メータや画像合成手段21で合成された合成結果として
の画像データは画像データ管理システム15に登録され
る。そして、画像データ管理システム15に登録された
画像データはデータ表示手段18を介してOS10の描
画管理システム13に送られ、ビデオインターフェース
25を介してディスプレイ4上に表示される。また、フ
ァイルシステム14はディスク入出力(I/O)インタ
ーフェース26を介してハードディスク9と接続され、
ハードディスク9に物理的に格納されるファイル類や画
像データの読み書きを行い、アプリケーション11の画
像データ管理システム15との間でこれらファイル類や
画像データの授受を行う。
In this panoramic image synthesizing device, the OS
The input device management system 12 of 10 receives an input from the keyboard 7 via the keyboard interface 22 or an input from the mouse 6 via the mouse interface 23, and further at a high speed such as a bidirectional parallel interface or a SCSI interface. Image data is exchanged with the electronic camera 1 via the general-purpose interface 24 capable of image transfer. Further, the panoramic image system 16 is the image data management system 15
Receives an image shot in the panorama shooting mode from and performs panorama image processing. Further, the synthesis parameter obtained by the synthesis parameter calculation means 20 of the panoramic image system 16 and the image data as a synthesis result synthesized by the image synthesis means 21 are registered in the image data management system 15. Then, the image data registered in the image data management system 15 is sent to the drawing management system 13 of the OS 10 via the data display means 18 and displayed on the display 4 via the video interface 25. The file system 14 is connected to the hard disk 9 via a disk input / output (I / O) interface 26,
The files and image data physically stored in the hard disk 9 are read and written, and the files and image data are exchanged with the image data management system 15 of the application 11.

【0023】図3は電子カメラ1の内蔵メモリに格納さ
れる画像データ及び属性データのデータ構造を示す図で
ある。
FIG. 3 is a diagram showing a data structure of image data and attribute data stored in the built-in memory of the electronic camera 1.

【0024】すなわち、該内蔵メモリには図3(a)に
示すような画像管理テーブル27が内蔵され、画像N
o.1に対して画像データ28a、属性データ29a、
画像No.2に対して画像データ28b、属性データ2
9bというように、該画像管理テーブル27は撮影画像
の画像番号に対応した画像データ28及び属性データ2
9が格納されている。
That is, an image management table 27 as shown in FIG.
o. Image data 28a, attribute data 29a,
Image No. 2 for image data 28b and attribute data 2
9b, the image management table 27 stores the image data 28 and the attribute data 2 corresponding to the image number of the captured image.
9 is stored.

【0025】画像データ28には、電子カメラ1の独自
のフォーマットデータ(以下、「ネイティブデータ」と
いう)か、或いはJPEG(Joint Photographic Codin
g Experts Group )等の汎用フォーマットデータのいず
れかが格納されている。ネイティブデータは、例えば撮
像素子としてのCCDからの出力信号(アナログ信号)
を単にデジタル信号に変換して得られたデータであっ
て、一般的にはデータサイズは大きいが記録に要する時
間が短いという特質を有し、一方例えばJPEGデータ
は記録に要する時間は長いがデータサイズを小さくでき
るという特質を有しており、撮影者であるユーザは撮影
状況に応じて適宜所望のフォーマットデータを選択して
画像データを格納する。
The image data 28 may be the format data unique to the electronic camera 1 (hereinafter referred to as "native data") or JPEG (Joint Photographic Codin).
Stores one of the general-purpose format data such as g Experts Group). Native data is, for example, an output signal (analog signal) from a CCD as an image sensor.
Is a data obtained by simply converting the data into a digital signal, and generally has a characteristic that the data size is large, but the time required for recording is short, while, for example, JPEG data, although the time required for recording is long, It has a characteristic that the size can be made small, and the user who is the photographer appropriately selects desired format data according to the photographing situation and stores the image data.

【0026】また、属性データ29には、図3(b)に
示すように、電子カメラ1により自動的に付されるファ
イル名30と、ネイティブデータフォーマットや、JP
EGデータフォーマット、又は電子カメラ1がサポート
するTIFF(Tag Image File Format)等の他の汎用フ
ォーマットの識別を行うファイルタイプ31と、電子カ
メラ1に内蔵されたカレンダとタイマを介して前記電子
カメラ1のシャッターボタン(不図示)が押下されたと
きの日付及び時刻が記録される撮影日時32と、電子カ
メラ1が有する複数種類の撮影モードから選択される撮
影時の撮影モード33が格納されている。そして、該撮
影モード33に格納された撮影モード名がパノラマ撮影
モードのときは図3(c)に示すように、識別子34が
付加される。すなわち、該識別子34は、電子カメラ1
がパノラマ撮影モードにセットされたときに付されるモ
ード識別子(以下、「モードID」という)35と、該
モードID35での撮影が何枚目かを示す撮影番号36
とが格納されている。したがって、パノラマ撮影モード
においては同一のモードID35を有する複数の画像が
1セットであるということとなる。つまり、図3に示す
画像データのようにパノラマ撮影モードで「山の風景」
が左右2枚の画像として撮影されている場合は、画像デ
ータ28aのモードID35aと画像データ28bのモ
ードID35bとは同一のIDを有し、これら同一のI
Dにより1セットのパノラマ画像を構成することとな
る。このようにして電子カメラ1の内蔵メモリに画像デ
ータ及びその属性データが格納される。
As shown in FIG. 3B, the attribute data 29 includes a file name 30 automatically assigned by the electronic camera 1, a native data format, and a JP name.
A file type 31 for identifying the EG data format or another general-purpose format such as TIFF (Tag Image File Format) supported by the electronic camera 1, and the electronic camera 1 via a calendar and a timer built in the electronic camera 1. The shooting date and time 32 in which the date and time when the shutter button (not shown) is pressed and the shooting mode 33 at the time of shooting selected from a plurality of shooting modes of the electronic camera 1 are stored. . Then, when the shooting mode name stored in the shooting mode 33 is the panoramic shooting mode, the identifier 34 is added as shown in FIG. That is, the identifier 34 corresponds to the electronic camera 1
Mode identifier (hereinafter, referred to as “mode ID”) 35 attached when is set to the panorama shooting mode, and a shooting number 36 indicating the number of shots in the mode ID 35.
And are stored. Therefore, in the panoramic photography mode, one set includes a plurality of images having the same mode ID 35. That is, like the image data shown in FIG.
, The mode ID 35a of the image data 28a and the mode ID 35b of the image data 28b have the same ID, and the same I
D will form one set of panoramic images. In this way, the image data and its attribute data are stored in the built-in memory of the electronic camera 1.

【0027】図4は電子カメラ1の内蔵メモリに格納さ
れた画像データ及び属性データをパソコン2の内部に複
写又は移動させるときの様子を示すディスプレイ4上の
表示画面である。
FIG. 4 is a display screen on the display 4 showing how the image data and the attribute data stored in the built-in memory of the electronic camera 1 are copied or moved inside the personal computer 2.

【0028】すなわち、電子カメラ1が接続ケーブル3
を介してパソコン2に接続されると、システム制御部8
は画像データ管理システム15を起動し、電子カメラ1
に内蔵されたデータ類を表示する第1のウインドウ(以
下、「カメラカタログ」という)37と、ハードディス
ク9に格納された画像データベースの表示が可能な第2
のウインドウ(以下、「ユーザカタログ」という)38
とをディスプレイ4上に表示する。
That is, the electronic camera 1 is connected to the connection cable 3
When connected to the personal computer 2 via the
Activates the image data management system 15, and the electronic camera 1
A first window (hereinafter referred to as "camera catalog") 37 for displaying data stored in the hard disk 9 and a second window for displaying an image database stored in the hard disk 9.
Window (hereinafter referred to as "user catalog") 38
And are displayed on the display 4.

【0029】しかして、カメラカタログ37には、画像
データをパソコン2に複写等するための選択画像を表示
する複数の表示枠39が設けられ、夫々の表示枠39の
内部には、画像データの縮小画像(以下、この縮小画像
を「サムネール画像」という)を表示するサムネール画
像表示部40と、属性データ表示部41とが設けられ、
電子カメラ1に内蔵された画像データ28のサムネール
画像及び属性データ29が所定の表示枠39内に表示さ
れる。尚、属性データ表示部41には電子カメラ1の内
蔵メモリに格納された属性データのうち、一部又は全部
を表示するか否かはユーザが自由に選択可能とされてい
る。すなわち、ユーザは属性データのうち、例えばファ
イル名及びファイルタイプのみを属性データ表示部41
に表示するか、或いは前記内蔵メモリに格納されている
全ての属性データを属性データ表示部41に表示するか
を自由に選択して表示することができる。
Therefore, the camera catalog 37 is provided with a plurality of display frames 39 for displaying a selected image for copying the image data to the personal computer 2 and the like. A thumbnail image display section 40 for displaying a reduced image (hereinafter, this reduced image is referred to as a “thumbnail image”) and an attribute data display section 41 are provided.
The thumbnail image of the image data 28 built in the electronic camera 1 and the attribute data 29 are displayed in a predetermined display frame 39. The user can freely select whether to display a part or all of the attribute data stored in the built-in memory of the electronic camera 1 on the attribute data display unit 41. That is, the user selects only the file name and the file type of the attribute data from the attribute data display section 41.
Can be freely selected or displayed on the attribute data display section 41 or all attribute data stored in the built-in memory can be displayed.

【0030】次いで、マウス6を操作してユーザは表示
枠39を選択し、矢印Aに示すように、選択された画像
をユーザカタログ38上に複写或いは移動する。尚、複
写(この場合は電子カメラ1の内蔵メモリにデータがそ
のまま保存される)するか、或いは移動(この場合は移
動したデータは前記内蔵メモリから消去される)するか
はユーザの自由な選択により切り換えることができる。
そして、本実施の形態ではこの複写(又は移動)の操作
中に、すなわち電子カメラ1に格納された画像データ等
をパソコン2に取り込むときにネイティブデータを所定
の汎用フォーマットデータに変換し、パノラマ撮影モー
ドで撮影されたときは、撮影画像に応じて対応点抽出処
理、合成パラメータ算出処理を行い、その後画像再生時
に画像合成処理を行って合成されたパノラマ画像をディ
スプレイ4上に表示する。
Next, the user operates the mouse 6 to select the display frame 39, and as shown by the arrow A, the selected image is copied or moved onto the user catalog 38. The user can freely select whether to copy (in this case, the data is stored in the built-in memory of the electronic camera 1 as it is) or move (in this case, the moved data is deleted from the built-in memory). Can be switched by.
Then, in the present embodiment, during the copying (or moving) operation, that is, when the image data or the like stored in the electronic camera 1 is loaded into the personal computer 2, the native data is converted into a predetermined general-purpose format data, and the panoramic shooting is performed. When the image is captured in the mode, corresponding point extraction processing and synthesis parameter calculation processing are performed according to the captured image, and then image synthesis processing is performed during image reproduction to display the synthesized panoramic image on the display 4.

【0031】以下、これらの処理を具体的に説明する。Hereinafter, these processes will be specifically described.

【0032】図5は上記ユーザカタログ38上でのデー
タ構造を示す図であって、該ユーザカタログ38は画像
データ管理システム15により管理されている。具体的
には、画像データ管理システム15は、所望個数のユー
ザカタログ38を有し、ユーザカタログ38の夫々につ
いてカタログテーブル42を有している。また、カタロ
グテーブル42は、ユーザが前記ユーザカタログ38内
の画像データを複数の画像を1つのグループとしてカテ
ゴリ毎に分割する機能を有し、これにより1つのカタロ
グテーブル42の内部を階層化してデータ管理してい
る。具体的には、カタログテーブル42は、当該カタロ
グの属する画像データのデータ識別子(データID)4
3と、当該カタログの属するグループを識別するグルー
プ識別子(グループID)44とが格納され、グループ
ID44は、グループ属性テーブル45とリンクしてい
る。グループ属性テーブル45は、当該グループの属す
る画像データのデータID46の他、グループ属性デー
タ47が格納されている。グループ属性データ47とし
てはユーザが任意に付したグループ名48と、グループ
が作成された作成日時49と、グループタイプ50とが
格納される。グループ名48としては、パノラマ画像の
セットとしてグループが作成されたときはデフォルトで
「パノラマ画像」と付される。また、グループタイプ5
0は、ユーザが作成したときは「ユーザ作成」、パノラ
マ画像のセットとしてグループが作成されたときは「パ
ノラマ画像」という名称が格納される。そして、該グル
ープタイプ50が「パノラマ画像」のときは、さらに識
別子が付加される。すなわち、該識別子34は、グルー
プタイプ50に「パノラマ画像」がセットされたときに
付されるモードID51と、後述する合成パラメータ算
出処理によって得られる合成パラメータ52が格納され
る。
FIG. 5 is a diagram showing a data structure on the user catalog 38, and the user catalog 38 is managed by the image data management system 15. Specifically, the image data management system 15 has a desired number of user catalogs 38, and a catalog table 42 for each of the user catalogs 38. Further, the catalog table 42 has a function of allowing the user to divide the image data in the user catalog 38 into a plurality of images into one group for each category, whereby the inside of one catalog table 42 is hierarchized. Manage. Specifically, the catalog table 42 has a data identifier (data ID) 4 of image data to which the catalog belongs.
3 and a group identifier (group ID) 44 for identifying the group to which the catalog belongs are stored, and the group ID 44 is linked to the group attribute table 45. The group attribute table 45 stores the group ID data 47 in addition to the data ID 46 of the image data to which the group belongs. As the group attribute data 47, a group name 48 arbitrarily given by the user, a creation date / time 49 when the group is created, and a group type 50 are stored. As the group name 48, when a group is created as a set of panoramic images, “panoramic image” is added by default. Group type 5
0 stores the name of “user created” when created by the user, and “panorama image” when a group is created as a set of panoramic images. Then, when the group type 50 is “panoramic image”, an identifier is further added. That is, the identifier 34 stores a mode ID 51 given when “panorama image” is set in the group type 50 and a combination parameter 52 obtained by a combination parameter calculation process described later.

【0033】さらに、画像データ管理システム15に
は、データ管理テーブル53が内蔵され、画像データに
対する固有の識別子であるデータID54が付されて格
納される。そして、パノラマ画像の場合は、各データI
D54は電子カメラ1の内蔵メモリに格納された画像デ
ータ及び属性データの夫々の画像Noと対応している。
Further, the image data management system 15 has a data management table 53 built therein, and is stored with a data ID 54 which is a unique identifier for the image data. In the case of a panoramic image, each data I
D54 corresponds to each image No. of the image data and the attribute data stored in the built-in memory of the electronic camera 1.

【0034】図6はパノラマ画像処理の処理手順を示す
フローチャートであって、本プログラムは電子カメラ1
からパソコン2に画像データが転送されたときにパソコ
ン2のCPU(不図示)で実行される。
FIG. 6 is a flowchart showing the processing procedure of the panoramic image processing. This program is executed by the electronic camera 1.
When the image data is transferred from the personal computer 2 to the personal computer 2, it is executed by the CPU (not shown) of the personal computer 2.

【0035】ステップS1ではデータ処理が終了したか
否かを判断する。ステップS1の判断は最初は否定(N
o)となるので、ステップS2に進み、画像データと該
画像データに付随した属性データを取得する。そして、
当該画像データがネイティブデータか否かを属性データ
29のファイルタイプ31に基づいて判断し(ステップ
S3)、ネイティブデータでないときはステップS5に
進む一方、ネイティブデータのときは該ネイティブデー
タをJPEGデータ等、所定の汎用フォーマットに変換
した後ファイルタイプ31を更新し、ステップS5に進
む。
In step S1, it is determined whether or not the data processing has been completed. The determination in step S1 is initially negative (N
o), the process proceeds to step S2, and the image data and the attribute data attached to the image data are acquired. And
Whether or not the image data is native data is determined based on the file type 31 of the attribute data 29 (step S3). If the image data is not native data, the process proceeds to step S5. If the image data is native data, the native data is JPEG data or the like. , The file type 31 is updated after conversion into a predetermined general-purpose format, and the process proceeds to step S5.

【0036】ステップS5ではデータ管理テーブル53
に格納されている属性データ29から撮影モード33を
調べてパノラマ撮影モードで撮影されたか否かを判断す
る。そして「パノラマ画像」でないときは通常の画像デ
ータとして登録する。すなわち、データ管理テーブル5
3に固有のデータID54を付して登録すると共に該デ
ータIDをカタログテーブル42に登録し(ステップS
6)、ステップS1に戻る。
In step S5, the data management table 53
The shooting mode 33 is checked based on the attribute data 29 stored in the item (1) to determine whether the shooting was performed in the panoramic shooting mode. If it is not a "panorama image", it is registered as normal image data. That is, the data management table 5
3 is assigned with a unique data ID 54 and is also registered in the catalog table 42 (step S
6) and returns to step S1.

【0037】また、「パノラマ画像」のときは、対応す
るパノラマ画像用のグループが既に作成されているか否
かを判断し(ステップS7)、その答が肯定(Yes)
のときはステップS9に進む一方、その答が否定(N
o)のときはグループを作成した後(ステップS8)ス
テップS9に進む。すなわち、カタログテーブル42内
のモードID51(図5)と画像管理テーブルのモード
ID35aとが同一か否かをチェックすることにより、
グループが作成済みか否かを判断し、未作成のときは新
たなグループID44をカタログテーブル42に登録
し、グループ名48、作成日時49、グループタイプ5
0等のグループ属性45を作成する。そして、この場
合、グループタイプ50には「パノラマ画像」と記録さ
れ、画像データ中のモードID35と同一のIDがモー
ドID51に格納される。そしてステップS9ではパノ
ラマ画像データに固有のデータID54を付してデータ
管理システム53に登録し、該データIDと同一のデー
タIDをグループ属性テーブル45のデータID46に
登録し、ステップS1に戻る。
In the case of "panorama image", it is judged whether or not a group for the corresponding panorama image has already been created (step S7), and the answer is affirmative (Yes).
If so, the process proceeds to step S9, while the answer is negative (N
In the case of o), after creating a group (step S8), the process proceeds to step S9. That is, by checking whether the mode ID 51 (FIG. 5) in the catalog table 42 and the mode ID 35a in the image management table are the same,
It is determined whether or not the group has been created. If not created, a new group ID 44 is registered in the catalog table 42, and the group name 48, creation date / time 49, group type 5 is registered.
A group attribute 45 such as 0 is created. In this case, the group type 50 is recorded as "panoramic image", and the same ID as the mode ID 35 in the image data is stored in the mode ID 51. Then, in step S9, a unique data ID 54 is added to the panorama image data and registered in the data management system 53, the same data ID as the data ID is registered in the data ID 46 of the group attribute table 45, and the process returns to step S1.

【0038】以上の一連の処理を複写等する全ての画像
データについて行い、全ての画像データに対して処理が
終了したとき、すなわちステップS1の答が肯定(Ye
s)となったときは、ステップS10に進んで、現在ま
でに複写等したものの中からパノラマ画像のグループが
作成されたか否かを判断し、その答が否定(No)のと
きはそのまま処理を終了する一方、その答が肯定(Ye
s)のときはグループ内の画像を使用して後述する対応
点抽出処理(ステップS11)及び合成パラメータ算出
処理(ステップS12)を順次実行し、次いでサムネー
ル画像を作成して(ステップS13)処理を終了する。
The above series of processing is performed for all image data to be copied, and when the processing is completed for all image data, that is, the answer to step S1 is affirmative (Yes.
If it becomes s), the process proceeds to step S10, and it is determined whether or not a group of panoramic images has been created from those copied so far. If the answer is negative (No), the process is directly performed. While ending, the answer is affirmative (Yes
In the case of s), the corresponding point extraction processing (step S11) and the synthesis parameter calculation processing (step S12) described later are sequentially executed using the images in the group, and then a thumbnail image is created (step S13). finish.

【0039】図7(a)〜(c)は上記サムネール作成
処理で選択されるサムネール形式を示す図である。
FIGS. 7A to 7C are diagrams showing thumbnail formats selected in the thumbnail creation processing.

【0040】図7(a)はパノラマ画像であるというこ
とのみを表示するためのものであって、予めシステムに
設定されている画像が使用される。図7(b)は1セッ
トのパノラマ画像用のグループ(以下、「パノラマグル
ープ」という)に含まれる画像をそのまま縮小して表示
するものである。図7(c)は合成後の画像をサムネー
ル画像として使用するものである。本パノラマ画像合成
装置では、これら3通りのサムネール形式のうちのいず
れのサムネール形式で作成するかがユーザにより選択さ
れる。
FIG. 7A is for displaying only a panoramic image, and an image preset in the system is used. FIG. 7B shows the images included in one set of panoramic image groups (hereinafter referred to as “panoramic group”) in a reduced size and displayed. FIG. 7C uses the combined image as a thumbnail image. In this panorama image synthesizing device, the user selects which of the three thumbnail formats is to be used for creating.

【0041】しかして、本パノラマ画像合成装置では電
子カメラ1から画像データを取り込む際には合成処理を
行わないので、図7(c)の形式のサムネール画像を作
成するためにはパノラマグループを構成する複数の画像
を縮小し、これら縮小した複数の画像に対して後述する
対応点抽出処理、合成パラメータ算出処理を行い、その
後合成処理を行う。この場合は対象とする画像が小さい
ため、処理時間も短くなり、一連の電子カメラ1から画
像データを読み込む処理に要する時間への影響は微々た
るものとなる。
However, since the present panorama image synthesizing device does not perform the synthesizing process when the image data is fetched from the electronic camera 1, the panoramic group is formed in order to create the thumbnail image in the format of FIG. 7C. The plurality of images to be processed are reduced, corresponding point extraction processing and synthesis parameter calculation processing described later are performed on the reduced plurality of images, and then the synthesis processing is performed. In this case, since the target image is small, the processing time is shortened, and the influence on the time required to read the image data from the series of electronic cameras 1 is insignificant.

【0042】次に、図6のステップS11で実行される
対応点抽出処理を図8に示すフローチャートに基づき説
明する。
Next, the corresponding point extraction processing executed in step S11 of FIG. 6 will be described with reference to the flowchart shown in FIG.

【0043】ステップS21ではグループ内の画像が2
枚か否かを判断する。そして、その答が否定(No)の
とき、すなわち2枚以上のときはステップS22に進ん
でオート対応点抽出処理を実行し、次いで、その結果が
成功か否かを判断する(ステップS23)。ここで、成
功か否かは画像同士の対応するポイントが十分見つけら
れたか否かにより判断する。そしてステップS23の答
が肯定(Yes)のときは処理を終了してメインルーチ
ン(図6)に戻る一方、ステップS23の答が否定(N
o)のときはステップS26に進んでセミオート対応点
抽出処理を実行しメインルーチン(図6)に戻る。
In step S21, the number of images in the group is 2
Judge whether it is a sheet or not. When the answer is negative (No), that is, when the number is two or more, the process proceeds to step S22 to execute the automatic corresponding point extraction process, and then it is determined whether the result is successful (step S23). Here, it is determined whether or not it is successful depending on whether or not the corresponding points between the images are sufficiently found. When the answer to step S23 is affirmative (Yes), the process is terminated and the process returns to the main routine (FIG. 6), while the answer to step S23 is negative (N).
In the case of o), the process proceeds to step S26, the semi-auto corresponding point extraction process is executed, and the process returns to the main routine (FIG. 6).

【0044】一方、ステップS21でグループ内の画像
が2枚であると判断されたときはステップS24に進
み、フルオート対応点抽出処理を実行し、次いで、その
結果が成功か否かを判断する(ステップS25)。すな
わち、上述したステップS23と同様、画像同士の対応
するポイントが十分見つけられたか否かを判断し、ステ
ップS25の答が肯定(Yes)のときは処理を終了し
てメインルーチン(図6)に戻る一方、ステップS25
の答が否定(No)のときはステップS26に進んでセ
ミオート対応点抽出処理を実行しメインルーチン(図
6)に戻る。
On the other hand, when it is determined in step S21 that the number of images in the group is two, the process proceeds to step S24, the full-auto corresponding point extraction process is executed, and then it is determined whether or not the result is successful. (Step S25). That is, similar to step S23 described above, it is determined whether or not the corresponding points between the images have been sufficiently found. If the answer to step S25 is affirmative (Yes), the process is terminated and the main routine (FIG. 6) is performed. While returning, step S25
When the answer is negative (No), the process proceeds to step S26, the semi-auto corresponding point extraction process is executed, and the process returns to the main routine (FIG. 6).

【0045】図9はステップS22(図8)で実行され
るオート対応点抽出処理のユーザインターフェースを示
す図であって、当該パノラマ画像のグループに属する全
ての画像がウインドウに入る大きさにリサイズされてデ
ィスプレイ4上の表示画面に表示され、ユーザはかかる
表示画面を目視しながらマウス6を操作して正しい配置
に並べ替える。すなわち、図9(a)に示すように、グ
ループに属する全ての画像がディスプレイ4に表示さ
れ、マウス6を操作して矢印Bに示すように、左上の画
像と右下の画像の夫々の表示位置を入れ替え、図9
(b)に示すように、画像を正しい配置に並べ替える。
尚、このとき、画像を並べ替えたときに画像の一部がウ
インドウからはみ出る場合はウインドウに入りきるよう
に再度リサイズされてディスプレイ4上の表示画面に表
示される。
FIG. 9 is a diagram showing a user interface of the automatic corresponding point extraction processing executed in step S22 (FIG. 8), in which all the images belonging to the group of the panoramic image are resized to fit in the window. Is displayed on the display screen on the display 4, and the user operates the mouse 6 while observing the display screen to rearrange the layout correctly. That is, as shown in FIG. 9A, all the images belonging to the group are displayed on the display 4, and the mouse 6 is operated to display each of the upper left image and the lower right image as shown by arrow B. Swap the position, Figure 9
As shown in (b), the images are rearranged in the correct arrangement.
At this time, when a part of the image is out of the window when the images are rearranged, the image is resized so that it can fit in the window and is displayed on the display screen on the display 4.

【0046】図10は前記オート対応点抽出処理の処理
手順を示すフローチャートである。
FIG. 10 is a flowchart showing the processing procedure of the automatic corresponding point extraction processing.

【0047】ステップS31ではユーザが並び替えた複
数の画像の位置関係を取得し、続くステップS32では
一致する対応点を見つけるためにサーチする領域、すな
わちマッチング範囲を設定する。
In step S31, the positional relationship between the plurality of images rearranged by the user is acquired, and in the following step S32, a region to be searched for finding a matching corresponding point, that is, a matching range is set.

【0048】図11は左画像と右画像との間のマッチン
グ範囲設定を示す図であって、パノラマ画像として撮影
するときの規則として、予め例えば横方向に最小10
%、最大50%オーパーラップさせ、且つ縦方向のずれ
を夫々5%以下に定めておいた場合、オーバーラップす
る最小範囲は図11(a)の領域Cとなり、オーバーラ
ップする最大範囲は図11(b)の領域Dとなる。そし
て、図11(a)の領域C内部にある点Pに対応する点
は、図11(b)の領域F内部に存在することとなる。
すなわち領域Fがサーチ領域となる。
FIG. 11 is a diagram showing the setting of the matching range between the left image and the right image. As a rule when shooting as a panoramic image, for example, a minimum of 10 in the lateral direction is set in advance.
%, The maximum overlap of 50% and the vertical shift of 5% or less are set, the minimum overlapping range is the area C in FIG. 11A, and the maximum overlapping range is FIG. It becomes the area D of (b). Then, the point corresponding to the point P inside the area C of FIG. 11A exists inside the area F of FIG. 11B.
That is, the area F becomes the search area.

【0049】このようにマッチング範囲を設定した後、
図10のステップS33に進んで対応点抽出実行処理を
実行し、サーチ領域Fに対して互いにマッチングする対
応点を検索し、次にステップS34で対応点が所定値N
より多いか否かを判断する。対応点が所定値N以下のと
きは十分対応点が見つからなかったと判断して、すなわ
ち抽出結果が失敗と判断してセミオート対応点抽出処理
(ステップS25)に移る。一方、対応点が所定値N以
上のときは十分対応点が見つかり抽出結果は成功である
と判断してメインルーチン(図6)に戻る。
After setting the matching range in this way,
In step S33 of FIG. 10, the corresponding point extraction execution process is executed to search the search area F for corresponding points that match each other. Then, in step S34, the corresponding points are set to the predetermined value N.
Determine if more. When the corresponding points are equal to or less than the predetermined value N, it is determined that the corresponding points are not sufficiently found, that is, it is determined that the extraction result is unsuccessful, and the process proceeds to the semi-automatic corresponding point extracting process (step S25). On the other hand, when the corresponding points are equal to or more than the predetermined value N, sufficient corresponding points are found, the extraction result is judged to be successful, and the process returns to the main routine (FIG. 6).

【0050】図12はステップS24(図8)で実行さ
れるフルオート対応点抽出処理の処理手順を示すフロー
チャートである。
FIG. 12 is a flowchart showing the processing procedure of the fully automatic corresponding point extraction processing executed in step S24 (FIG. 8).

【0051】ステップS41では図10のステップS3
2と同様の手法によりマッチング範囲を設定し、次いで
4回の対応点抽出実行処理を行う。フルオートの場合は
画像枚数は2枚であるので、考えられる位置関係は図1
3に示すように、上下(a)、下上(b)、左右
(c)、右左(d)の4通りである。そこで、この4通
りの場合について対応点抽出実行処理を行い、夫々対応
点として抽出できた数及び平均一致レベルを保持する。
すなわち、ステップS42では画像位置が上下(図13
(a))の場合について対応点抽出実行処理を行い、ス
テップS43ではその結果対応点として抽出された数及
び平均一致レベルを保持する。次いでステップS44で
は画像位置が下上(図13(b))の場合について対応
点抽出実行処理を行い、ステップS45ではその結果対
応点として抽出された数及び平均一致レベルを保持す
る。さらにステップS46では画像位置が左右(図13
(c))の場合について対応点抽出実行処理を行い、ス
テップS47ではその結果対応点として抽出された数及
び平均一致レベルを保持する。続くステップS48では
画像位置が右左(図13(d))の場合について対応点
抽出実行処理を行い、ステップS49ではその結果対応
点として抽出された数及び平均一致レベルを保持する。
そして、上記ステップS42〜ステップS49の処理結
果により対応点が所定値N以上のものがあるか否かを判
断し(ステップS50)、対応点が所定値N以上のもの
が1つもないときは十分対応点が見つからなかった場合
であり、抽出結果が失敗と判断してセミオート対応点抽
出処理(ステップS25)に移る。一方、対応点が所定
値N以上のものがあるときはその中から平均一致レベル
の最も高いものを正しい真の位置関係にあると判断して
選択し処理を終了しメインルーチン(図6)に戻る。通
常の画像では対応点が所定値N以上の場合は上記4通り
の画像位置のうち1つだけになるはずだが、例えば、原
稿を分割して撮影した場合、類似の文字が並んでいるた
め正しくない位置関係にあるときでも所定値N以上を対
応点として抽出する虞があり、本実施の形態ではステッ
プS51で最も適したもの、すなわち平均一致レベルの
最も高い画像位置関係にあるものを選択するようにして
いる。
In step S41, step S3 in FIG.
The matching range is set by the same method as in 2, and then the corresponding point extraction execution processing is performed four times. In the case of full auto, the number of images is 2, so the possible positional relationship is shown in FIG.
As shown in FIG. 3, there are four types: upper and lower (a), lower and upper (b), left and right (c), and right and left (d). Therefore, corresponding point extraction execution processing is performed for these four cases, and the number and average matching level extracted as corresponding points are held.
That is, in step S42, the image position moves up and down (see FIG.
Corresponding point extraction execution processing is performed in the case of (a)), and in step S43, the number and average matching level extracted as corresponding points are held. Next, in step S44, corresponding point extraction execution processing is performed when the image position is lower and upper (FIG. 13B), and in step S45, the number and average matching level extracted as corresponding points are held. Furthermore, in step S46, the image position is changed to the left and right (see FIG.
Corresponding point extraction execution processing is performed in the case of (c)), and in step S47, the number and average matching level extracted as corresponding points are held. In the following step S48, corresponding point extraction execution processing is performed for the case where the image position is right and left (FIG. 13D), and in step S49, the number extracted as corresponding points and the average matching level are held.
Then, it is determined from the processing results of steps S42 to S49 whether there is a corresponding point having a predetermined value N or more (step S50), and it is sufficient if there is no corresponding point having a predetermined value N or more. This is the case where no corresponding point is found, and the extraction result is judged to be unsuccessful, and the process moves to the semi-auto corresponding point extraction processing (step S25). On the other hand, when the corresponding points are equal to or more than the predetermined value N, the one with the highest average matching level is determined to be in the correct true positional relationship among them, the processing is terminated, and the main routine (FIG. 6) is executed. Return. In a normal image, if the corresponding point is equal to or more than the predetermined value N, it should be only one of the above four image positions. For example, when the original is divided and photographed, similar characters are lined up correctly, Even if there is no positional relationship, a predetermined value N or more may be extracted as a corresponding point, and in this embodiment, the most suitable one in step S51, that is, the one in the image positional relationship with the highest average matching level is selected. I am trying.

【0052】図14は図8のステップS25で実行され
るセミオート対応点抽出処理におけるユーザインターフ
ェースを示す図であって、パノラマ画像のグループに属
する全ての画像がウインドウに入る大きさにリサイズさ
れてディスプレイ4上の表示画面に表示され、ユーザは
かかる表示画面を目視しながら位置データに基づきマウ
ス6を操作して大概のオーバーラップ位置を重ね合わせ
る。重ね合う箇所は画素単位でビット毎に論理積演算を
行い表示する。これにより、重ね合わされた重畳部分は
双方の画像が透けて見えるようになる。すなわち、本実
施の形態においては、マウス6の操作中においても前記
論理積演算により重畳部分が透けて見えるので、容易に
大概の位置合わせを行うことができる。尚、このとき
も、オート対応点抽出処理(図9)の場合と同様、ウイ
ンドウに入りきるように再度リサイズされてディスプレ
イ4上の表示画面に表示される。
FIG. 14 is a diagram showing a user interface in the semi-auto corresponding point extraction processing executed in step S25 of FIG. 8, in which all the images belonging to the group of panoramic images are resized to fit in the window and displayed. 4 is displayed on the display screen, and the user operates the mouse 6 on the basis of the position data while visually checking the display screen to superimpose most overlap positions. The overlapped portion is displayed by performing a logical product operation for each bit in pixel units. As a result, both images can be seen through in the superimposed overlapping portion. That is, in the present embodiment, since the overlapped portion can be seen through by the logical product operation even while the mouse 6 is being operated, the general alignment can be easily performed. At this time, as in the case of the automatic corresponding point extraction processing (FIG. 9), the window is resized so as to fit in the window and displayed on the display screen of the display 4.

【0053】図15は前記セミオート対応点抽出処理の
処理手順を示すフローチャートである。
FIG. 15 is a flow chart showing the processing procedure of the semi-auto corresponding point extraction processing.

【0054】ステップS61ではユーザが並び替えた複
数の画像の位置関係を取得し、続くステップS62では
マッチング範囲を設定する。この場合のマッチング範囲
はユーザにより想定された重畳部分の誤差範囲及びマー
ジンとなるため、オート対応点抽出処理のときの範囲よ
り小さくなり、オート対応点抽出処理のときに比べ、計
算時間の短縮と精度の向上を図ることができる。そし
て、続くステップS63では対応点抽出実行処理を行
い、メインルーチン(図6)に戻る。
In step S61, the positional relationship of the plurality of images rearranged by the user is acquired, and in the following step S62, the matching range is set. Since the matching range in this case is the error range and margin of the overlapping part assumed by the user, it is smaller than the range at the time of automatic corresponding point extraction processing, and the calculation time is shortened compared to the case of automatic corresponding point extraction processing. The accuracy can be improved. Then, in a succeeding step S63, corresponding point extraction execution processing is performed, and the process returns to the main routine (FIG. 6).

【0055】図16は図10のステップS33、図12
のステップS42、ステップS44、ステップS46、
ステップS48、及び図15のステップS63で実行さ
れる対応点抽出実行処理の概念図であって、2枚の画像
(左画像及び右画像)について対応点を抽出する場合を
示している。
FIG. 16 shows steps S33 and 12 of FIG.
Step S42, Step S44, Step S46
FIG. 16 is a conceptual diagram of corresponding point extraction execution processing executed in step S48 and step S63 in FIG. 15, showing a case where corresponding points are extracted from two images (left image and right image).

【0056】まず、図16(a)に示すように、上述し
たマッチング範囲設定により、左画像中に縦方向に90
%、横方向に10%の領域Cが設定され、サーチする範
囲は対応点が存在する可能性のある範囲ということで右
画像中に縦方向に100%、横方向に50%の領域Dが
設定されている。次いで、領域Cの中からエッジが所定
値M以上に強い点P(x,y)を探し、該エッジを中心
として縦、横夫々±n画素の矩形をテンプレート画像I
として切り出す。そして、該テンプレート画像Iを右画
像のサーチ領域F上に置いて画素単位でその差分を算出
する。そして、サーチ領域F上で1画素ずつずらすこと
により前記差分が最小値となる箇所を算出する。そし
て、サーチ領域F内部を全てサーチした結果、その最小
値が所定値L以下となる点P′(x′,y′)を点P
(x,y)の対応点として保持する。尚、2枚以上の画
像について対応点を抽出する場合は上述した処理を2枚
の画像を対象として繰り返すことにより対応点を抽出す
ることができる。
First, as shown in FIG. 16 (a), by the above-mentioned matching range setting, 90 pixels in the vertical direction in the left image.
%, An area C of 10% in the horizontal direction is set, and the search range is a range in which corresponding points may exist. Therefore, in the right image, an area D of 100% in the vertical direction and 50% in the horizontal direction is set. It is set. Next, a point P (x, y) whose edge is stronger than a predetermined value M is searched for in the region C, and a rectangle of ± n pixels vertically and horizontally centering on the edge is used as the template image I.
Cut out as. Then, the template image I is placed on the search area F of the right image, and the difference is calculated pixel by pixel. Then, the position where the difference becomes the minimum value is calculated by shifting the search area F pixel by pixel. As a result of searching the entire inside of the search area F, a point P '(x', y ') whose minimum value is equal to or less than a predetermined value L is a point P'.
It is held as a corresponding point of (x, y). When extracting the corresponding points from two or more images, the corresponding points can be extracted by repeating the above-described processing for the two images.

【0057】図17は上述した対応点実行処理の処理手
順を示すフローチャートである。
FIG. 17 is a flowchart showing the processing procedure of the corresponding point execution processing described above.

【0058】ステップS71でエッジ抽出画像を作成
し、ステップS72でエッジが所定値M以上の点P
(x,y)を探し、所定値M以上のエッジを有する点が
見つかるとステップS73に進んで、点P(x,y)か
ら縦、横夫々±n画素の矩形をテンプレート画像Iとし
て切り出す。そして、該点P(x,y)の位置に基づい
て右画像中でサーチ領域Fを設定する(ステップS7
4)。そして、サーチ領域Fの画像とテンプレート画像
Iとを重ね合わせ、画素単位で画素値の差分の絶対値を
算出し、その合計値を算出する(ステップS75)。続
くステップS76では差分の合計値と前回までの合計値
とを比較し、それまでの最小値か否かを判断する。そし
てその答が否定(No)のときはステップS78に進む
一方、その答が肯定(Yes)のときは当該最小値とサ
ーチ領域Fの座標位置を保持した後ステップS78に進
む。ステップS78ではサーチ領域Fを全てサーチした
か否かを判断し、その答が否定(No)のときはステッ
プS75に戻る一方、その答が肯定(Yes)、すなわ
ちサーチ領域Fを全てサーチしたときはステップS79
に進む。そしてこれにより、差分値が最小となる最も一
致する点が検出されることとなる。そしてステップS7
9ではかかる差分の最小値が十分に小さい値であるか否
かを所定値Lと比較して判断する。そして、最小値が所
定値Lより大きい場合はステップS81に進む一方、最
小値が所定値Lより小さい場合は互いに対応点であると
判断し、上記点P(x,y)と、最小値となる点P′
(x′,y′)及び前記最小値を対応点リスト(不図
示)に登録し(ステップS80)、ステップS81に進
む。そして、これらの処理を領域Cの全ての点について
行い、ステップS81で全て終了したと判断されたとき
はステップS82に進んで対応点リスト中の全ての最小
値からその平均値を算出し、該平均値を一致レベルとし
て保持し、処理を終了する。
In step S71, an edge extraction image is created, and in step S72, an edge point P having a predetermined value M or more is generated.
(X, y) is searched for, and when a point having an edge of a predetermined value M or more is found, the process proceeds to step S73, and a rectangle of ± n pixels in each of the vertical and horizontal directions is cut out from the point P (x, y) as the template image I. Then, the search area F is set in the right image based on the position of the point P (x, y) (step S7).
4). Then, the image of the search region F and the template image I are overlapped, the absolute value of the pixel value difference is calculated in pixel units, and the total value thereof is calculated (step S75). In a succeeding step S76, the total value of the differences is compared with the total value up to the previous time, and it is determined whether or not it is the minimum value so far. When the answer is negative (No), the process proceeds to step S78, while when the answer is affirmative (Yes), the minimum value and the coordinate position of the search area F are held, and then the process proceeds to step S78. In step S78, it is determined whether or not all the search areas F have been searched. If the answer is negative (No), the procedure returns to step S75, while the answer is affirmative (Yes), that is, if all the search areas F have been searched. Is step S79
Proceed to. As a result, the most coincident point having the smallest difference value is detected. And step S7
At 9, whether or not the minimum value of the difference is a sufficiently small value is compared with the predetermined value L to determine. Then, when the minimum value is larger than the predetermined value L, the process proceeds to step S81, while when the minimum value is smaller than the predetermined value L, it is determined that they are corresponding points, and the point P (x, y) and the minimum value are determined. Point P '
(X ', y') and the minimum value are registered in the corresponding point list (not shown) (step S80), and the process proceeds to step S81. Then, these processes are performed for all the points in the area C, and when it is determined in step S81 that all are finished, the process proceeds to step S82 to calculate the average value from all the minimum values in the corresponding point list, The average value is held as the matching level, and the process ends.

【0059】次に、図6のステップS12で実行される
合成パラメータ算出処理について説明する。
Next, the synthesis parameter calculation process executed in step S12 of FIG. 6 will be described.

【0060】2枚の画像を考えた場合(2枚以上の画像
合成の場合も2枚の画像の繰返しとなるので、2枚の画
像についてのみ考察すれば十分である)、画像のずれは
x方向及びy方向の夫々の並進Δx、Δy、回転角θ、
倍率mで表現することができ、したがって、互いに対応
する点P(x,y)及び点P′(x′,y′)は数式
(1)のように表される。
When two images are considered (when two or more images are combined, two images are repeated, so it is sufficient to consider only two images). Translations Δx, Δy, rotation angles θ,
It can be expressed by the magnification m, and therefore, the point P (x, y) and the point P ′ (x ′, y ′) corresponding to each other are expressed as in Expression (1).

【0061】[0061]

【数1】 ここで、A、B、C、Dは合成パラメータである。[Equation 1] Here, A, B, C, and D are synthesis parameters.

【0062】上述した対応点抽出実行処理(図17)で
は複数組の対応点(点P(x,y)及び点P′(x′,
y′))が取得されているので、最小自乗法を使用して
合成パラメータA、B、C、Dが算出される。すなわ
ち、数式(2)が最小値となるように数式(3)〜数式
(6)を満たす合成パラメータA、B、C、Dを算出す
る。
In the above-mentioned corresponding point extraction execution processing (FIG. 17), a plurality of sets of corresponding points (point P (x, y) and point P '(x',
Since y ')) has been obtained, the synthesis parameters A, B, C, D are calculated using the least squares method. That is, the synthesis parameters A, B, C, and D satisfying the formulas (3) to (6) are calculated so that the formula (2) becomes the minimum value.

【0063】[0063]

【数2】 ここで、p1 〜p8 を数式(7)〜数式(14)のよう
に定義すると合成パラメータA、B、C、Dは数式(1
5)〜(18)で表される。
[Equation 2] Here, when p 1 to p 8 are defined as in Expressions (7) to (14), the synthesis parameters A, B, C, and D are expressed by Expression (1).
It is represented by 5) to (18).

【0064】[0064]

【数3】 (Equation 3)

【0065】[0065]

【数4】 つまり、p1 〜p8 を数式(15)〜数式(18)に代
入することにより合成パラメータA、B、C、Dが算出
され、グループ属性テーブル(図5)の合成パラメータ
52に格納される。
[Equation 4] That is, the composite parameters A, B, C, and D are calculated by substituting p 1 to p 8 into the formulas (15) to (18) and stored in the composite parameter 52 of the group attribute table (FIG. 5). .

【0066】しかして、本パノラマ画像合成装置におい
ては、上述した対応点抽出処理(ステップS11)及び
合成パラメータ算出処理(ステップS12)が電子カメ
ラ1からパソコン2に取り込むときに実行され、画像デ
ータの再生動作時、すなわち画像再生処理時に画像の合
成処理が実行される。
In the panoramic image synthesizing apparatus, the corresponding point extracting process (step S11) and the synthesizing parameter calculating process (step S12) are executed when the electronic camera 1 loads the personal computer 2 to obtain the image data. The image combining process is executed during the reproducing operation, that is, during the image reproducing process.

【0067】次に本装置に登録されている画像データの
再生動作について説明する。
Next, the reproducing operation of the image data registered in this apparatus will be described.

【0068】図18は画像データ管理システム15に登
録されている画像データをディスプレイ4上に表示した
ときの表示画面を示している。
FIG. 18 shows a display screen when the image data registered in the image data management system 15 is displayed on the display 4.

【0069】すなわち、本実施の形態ではユーザカタロ
グ毎(ユーザカタログ38a、ユーザカタログ38b、
……)にウインドウが表示され、該ユーザカタログ38
中にサムネール画像60及び該サムネール画像60の属
性データ61が表示されている。尚、ユーザは属性デー
タのうち、例えばファイル名及びファイルタイプのみを
表示するか、或いはサムネール画像60の有する全ての
属性データを表示するかはユーザ指定により自由に選択
・変更することができる。そして、ユーザは画像をティ
スプレイ4上に表示したい場合は、上述したサムネール
形式(図7参照)から選択された任意のサムネール画像
をマウス6で操作することにより、画像データ管理シス
テム15に管理されている原画像をティスプレイ4上に
表示することができる。
That is, in the present embodiment, each user catalog (user catalog 38a, user catalog 38b,
......), a window is displayed and the user catalog 38
A thumbnail image 60 and attribute data 61 of the thumbnail image 60 are displayed inside. It should be noted that the user can freely select and change, for example, only the file name and file type of the attribute data or all attribute data of the thumbnail image 60 by user designation. Then, when the user wants to display an image on the display 4, the user operates the arbitrary thumbnail image selected from the thumbnail format (see FIG. 7) described above with the mouse 6 to manage the thumbnail image. The displayed original image can be displayed on the display 4.

【0070】図19は画像再生処理の処理手順を示すフ
ローチャートである。
FIG. 19 is a flow chart showing the processing procedure of the image reproduction processing.

【0071】ステップS91では指定されたサムネール
画像がパノラマグループに属するものか否かを判断し、
その答が否定(No)のときは通常の画像であると判断
してそのままディスプレイ4上に画像を表示する。
In step S91, it is determined whether the specified thumbnail image belongs to the panorama group,
When the answer is negative (No), it is determined that the image is a normal image and the image is displayed on the display 4 as it is.

【0072】一方、ステップS91の答が肯定(Ye
s)となってサムネール画像がパノラマグループに属す
ると判断されたときはステップS92に進み、合成処理
を行う。すなわち、本パノラマ画像合成装置ではパノラ
マ画像を管理する場合、登録時には対応点抽出処理(図
6のステップS11)と合成パラメータ算出処理(図6
のステップS12)のみ実行されているため、既登録の
パノラマ画像をディスプレイ4上に表示したい場合は合
成処理を行う必要がある。このため、ステップS91で
指定されたサムネール形式がパノラマ画像用のグルー
プ、すなわちパノラマグループを表すものか否かを判断
し、パノラマグループを表すサムネールの場合はステッ
プS92で合成処理を行ってパノラマグループに属する
複数の画像を合成し、パノラマ画像を作成する。そして
続くステップS93ではパノラマグループを表現するサ
ムネール形式が図7(a)(b)に示す形式の場合は図
7(c)に示すようなサムネール形式のサムネール画像
を作成する。次いで続くステップS94では指定したパ
ノラマグループを画像データ管理システム15から削除
し、新たに作成したパノラマ画像を画像データ管理シス
テム15に登録し、ステップS95で斯かる新たに登録
されたパノラマ画像をディスプレイ4上に表示して処理
を終了する。
On the other hand, the answer in step S91 is affirmative (Yes
If it is determined in step s) that the thumbnail image belongs to the panorama group, the process advances to step S92 to perform a combining process. That is, when managing a panoramic image with this panorama image synthesizing device, at the time of registration, corresponding point extraction processing (step S11 in FIG. 6) and synthesis parameter calculation processing (FIG. 6).
Since only the step S12) is executed, if it is desired to display the registered panoramic image on the display 4, the compositing process needs to be performed. Therefore, it is determined whether or not the thumbnail format designated in step S91 represents a group for panoramic images, that is, a panorama group. A panoramic image is created by synthesizing a plurality of belonging images. Then, in the subsequent step S93, when the thumbnail format expressing the panorama group is the format shown in FIGS. 7A and 7B, thumbnail images of the thumbnail format as shown in FIG. 7C are created. Then, in the following step S94, the specified panorama group is deleted from the image data management system 15, the newly created panorama image is registered in the image data management system 15, and the newly registered panorama image is displayed on the display 4 in step S95. Display on top and end the process.

【0073】次に、ステップS92で実行される合成処
理について説明する。
Next, the combining process executed in step S92 will be described.

【0074】合成パラメータA、B、C、Dは上述した
ように既に登録時に算出されてカタログテーブル42に
格納されているので、これら合成パラメータA、B、
C、Dを数式(19)に代入することにより算出され
る。
Since the composition parameters A, B, C and D have already been calculated at the time of registration and stored in the catalog table 42 as described above, these composition parameters A, B, and
It is calculated by substituting C and D into Equation (19).

【0075】[0075]

【数5】 そして、図20に示すように、画像が左画像(図20
(a))と右画像(図20(b))の場合は右画像の2
倍の大きさを合成画像領域K(図20(c))として確
保する。ここで、まず左画像をそのまま合成画像領域K
に複写する。次に、合成画像領域Kの残余領域O(x,
y)について数式(19)に基づきO′(x′,y′)
を算出し、右画像のO′(x′,y′)の画素を残余領
域O(x,y)に複写し、これらを合成画像の全ての領
域に行うことにより合成画像を作成する。
(Equation 5) Then, as shown in FIG. 20, the image is the left image (see FIG.
(A)) and the right image (FIG. 20 (b)), 2 of the right image
The double size is ensured as the composite image area K (FIG. 20 (c)). Here, first, the left image is directly used as it is in the composite image region K.
Copy to Next, the residual area O (x,
For y), O '(x', y ') is calculated based on the equation (19).
Is calculated, the pixels of O '(x', y ') of the right image are copied to the residual area O (x, y), and these are applied to all areas of the combined image to create a combined image.

【0076】図21は合成処理の処理手順を示すフロー
チャートである。ステップS101では第1の画像(左
画像)の2倍の領域を合成画像領域Kとして確保し、続
くステップS102では第1の画像をそのまま同一座標
上の合成画像領域Kに複写する。次いでステップS10
3では合成画像領域Kの残余領域O(x,y)について
数式(19)に基づきO′(x′,y′)を算出する。
続くステップS104ではO′(x′,y′)が第2の
画像(右画像)内に存在するか否かを判断し、存在しな
い場合はステップS106に進む一方、存在する場合は
O′(x′,y′)の画素を残余領域O(x,y)に複
写し、ステップS106に進む。そして、以上の処理を
合成画像領域Kの全域に亙って繰り返し実行し、処理が
終了したときはステップS106の答が肯定(Yes)
となって処理を終了しメインルーチン(図19)に戻
る。これにより、登録済みの合成パラメータA、B、
C、Dを利用して画像再生処理時に画像合成を行うこと
ができる。
FIG. 21 is a flow chart showing the processing procedure of the combining processing. In step S101, a double area of the first image (left image) is secured as a composite image area K, and in the following step S102, the first image is copied as it is to the composite image area K on the same coordinates. Then step S10
In step 3, O '(x', y ') is calculated for the remaining area O (x, y) of the composite image area K based on the equation (19).
In the following step S104, it is determined whether or not O '(x', y ') exists in the second image (right image). If not, the process proceeds to step S106, while if it exists, O' (x ', y'). The pixels of x ', y') are copied to the residual area O (x, y), and the process proceeds to step S106. Then, the above processing is repeatedly executed over the entire synthetic image area K, and when the processing is completed, the answer to step S106 is affirmative (Yes).
Then, the process is terminated and the process returns to the main routine (FIG. 19). As a result, the registered synthesis parameters A, B,
Image composition can be performed at the time of image reproduction processing using C and D.

【0077】尚、本発明は上記実施の形態に限定される
ものではない。上記実施の形態ではパノラマ画像を再生
するときに合成処理を行っているが、例えばオペレータ
からの任意の時点での命令や、或いはパソコン2が一定
時間以上無負荷状態になったときに画像データ管理シス
テム15に格納されているパノラマ画像データに対して
合成処理を行うのも好ましい。
The present invention is not limited to the above embodiment. In the above-described embodiment, the synthesis process is performed when the panoramic image is reproduced, but image data management is performed when, for example, an instruction from an operator at any time or when the personal computer 2 is in a no-load state for a certain time or more. It is also preferable to perform a combining process on the panoramic image data stored in the system 15.

【0078】また、上記実施の形態では電子カメラ1を
パソコン2に接続し、パノラマ画像に関する一連の処理
をパソコン2側で行っているが、電子カメラ1で上記一
連のパノラマ合成処理を行うことも可能であり、この場
合は、必要となる画像の撮影が終了した時点で対応点抽
出処理やパラメータ算出処理を行い、またデータ出力を
する時点で合成処理を行うことができる。
In the above embodiment, the electronic camera 1 is connected to the personal computer 2 and a series of panoramic image processing is performed on the personal computer 2 side. However, the electronic camera 1 may perform the series of panoramic composition processing. In this case, the corresponding point extraction process and the parameter calculation process can be performed at the time when the required image is captured, and the combining process can be performed at the time of outputting the data.

【0079】[0079]

【発明の効果】以上詳述したように本発明のパノラマ画
像合成装置とパノラマ画像の作成方法によれば、パノラ
マ画像を作成する場合に合成パラメータを算出する処理
と該合成パラメータを使用して画像を合成する処理とを
時期的に分離独立して行うことができるので、パノラマ
画像を作成するための処理時間を分散することができ、
撮像装置から情報処理装置等の外部装置に画像データを
転送するための時間を節減することができるという効果
がある。
As described in detail above, according to the panoramic image synthesizing apparatus and the panoramic image creating method of the present invention, the process of calculating the synthesizing parameter when creating the panoramic image and the image using the synthesizing parameter are performed. Since the process of synthesizing can be performed independently and separately in time, the processing time for creating a panoramic image can be dispersed,
There is an effect that it is possible to reduce the time required to transfer image data from the imaging device to an external device such as an information processing device.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係るパノラマ画像合成装置の一実施の
形態を示す全体構成図である。
FIG. 1 is an overall configuration diagram showing an embodiment of a panoramic image synthesizing apparatus according to the present invention.

【図2】上記パノラマ画像合成処理のシステム構成図で
ある。
FIG. 2 is a system configuration diagram of the panoramic image combination processing.

【図3】電子カメラに内蔵された画像管理テーブルを示
す図である。
FIG. 3 is a diagram showing an image management table built in the electronic camera.

【図4】電子カメラに内蔵された画像データ等をパソコ
ン内部に複写等するときの様子を示すディスプレイの表
示画面である。
FIG. 4 is a display screen of a display showing a state when image data or the like built in an electronic camera is copied in a personal computer.

【図5】ユーザカタログのデータ構造図である。FIG. 5 is a data structure diagram of a user catalog.

【図6】パノラマ画像処理の処理ルーチンを示すフロー
チャートである。
FIG. 6 is a flowchart showing a processing routine of panoramic image processing.

【図7】パノラマ画像用のサムネール形式を示す図であ
る。
FIG. 7 is a diagram showing a thumbnail format for a panoramic image.

【図8】対応点抽出処理の処理手順を示すフローチャー
トである。
FIG. 8 is a flowchart showing a processing procedure of corresponding point extraction processing.

【図9】オート対応点抽出処理のユーザインターフェー
スを示す図である。
FIG. 9 is a diagram showing a user interface of automatic corresponding point extraction processing.

【図10】オート対応点抽出処理の処理手順を示すフロ
ーチャートである。
FIG. 10 is a flowchart showing a processing procedure of automatic corresponding point extraction processing.

【図11】マッチング範囲の設定を説明するための図で
ある。
FIG. 11 is a diagram for explaining setting of a matching range.

【図12】フルオート対応点抽出処理の処理手順を示す
フローチャートである。
FIG. 12 is a flowchart showing a processing procedure of full-auto corresponding point extraction processing.

【図13】フルオート対応点抽出処理のユーザインター
フェースを示す図である。
FIG. 13 is a diagram illustrating a user interface of a fully automatic corresponding point extraction process.

【図14】セミオート対応点抽出処理のユーザインター
フェースを示す図である。
FIG. 14 is a diagram showing a user interface of a semi-auto corresponding point extraction process.

【図15】セミオート対応点抽出処理の処理手順を示す
フローチャートである。
FIG. 15 is a flowchart showing a processing procedure of semi-auto corresponding point extraction processing.

【図16】対応点抽出実行処理の概念図である。FIG. 16 is a conceptual diagram of corresponding point extraction execution processing.

【図17】対応点抽出実行処理の処理手順を示すフロー
チャートである。
FIG. 17 is a flowchart showing a processing procedure of corresponding point extraction execution processing.

【図18】画像データ管理システムに登録されている画
像データをディスプレイに表示したときの表示画面であ
る。
FIG. 18 is a display screen when the image data registered in the image data management system is displayed on the display.

【図19】画像再生処理の処理手順を示すフローチャー
トである。
FIG. 19 is a flowchart showing a processing procedure of image reproduction processing.

【図20】画像の合成処理を示す概念図である。FIG. 20 is a conceptual diagram showing an image synthesizing process.

【図21】合成処理の処理手順を示すフローチャートで
ある。
FIG. 21 is a flowchart showing a processing procedure of a combining process.

【符号の説明】[Explanation of symbols]

1 電子カメラ 2 パソコン 15 画像データ管理システム 16 パノラマ画像合成システム 20 合成パラメータ算出手段 21 画像合成手段 DESCRIPTION OF SYMBOLS 1 Electronic camera 2 Personal computer 15 Image data management system 16 Panorama image composition system 20 Composition parameter calculation means 21 Image composition means

フロントページの続き (72)発明者 矢野 光太郎 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 (72)発明者 片山 達嗣 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内Front page continuation (72) Inventor Kotaro Yano 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc. (72) Inventor Tatsutsugu Katayama 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc. Within

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 画像を合成するための合成パラメータを
算出する合成パラメータ算出手段と、該合成パラメータ
算出手段により算出された合成パラメータに基づいて画
像を合成する合成処理手段とを有し、画像の一部がオー
バーラップしている複数の画像を合成して1枚の画像を
取得するパノラマ画像合成装置において、 前記合成パラメータ算出手段により算出された合成パラ
メータを格納する格納手段を備え、前記合成処理手段と
前記合成パラメータ処理手段とを異なる時期に分離独立
して実行する分離独立実行手段を有していることを特徴
とするパノラマ画像合成装置。
1. A combination parameter calculation means for calculating a combination parameter for combining images, and a combination processing means for combining the images based on the combination parameters calculated by the combination parameter calculation means. A panorama image synthesizing apparatus for synthesizing a plurality of partially overlapping images to obtain a single image, comprising: storage means for storing the synthesizing parameter calculated by the synthesizing parameter calculating means, A panoramic image synthesizing apparatus, characterized in that it has a separation and independent execution means for separately and independently executing the means and the synthesis parameter processing means at different times.
【請求項2】 撮像装置と該撮像装置で撮像された画像
データを取り込む情報処理装置とを有し、前記合成パラ
メータ算出手段は前記撮像装置から前記情報処理装置へ
の画像データ取り込み時に実行されると共に、前記合成
処理手段は画像再生時に実行されることを特徴とする請
求項1記載のパノラマ画像合成装置。
2. An image pickup apparatus and an information processing apparatus for fetching image data picked up by the image pickup apparatus, wherein the synthesis parameter calculation means is executed when the image data is fetched from the image pickup apparatus to the information processing apparatus. The panoramic image synthesizing apparatus according to claim 1, wherein the synthesizing processing unit is executed at the time of image reproduction.
【請求項3】 前記パラメータ合成手段は、撮像装置に
よる画像撮影が終了したときに実行されると共に、前記
合成処理手段は、撮像装置による画像再生時に実行され
ることを特徴とする請求項1記載のパノラマ画像合成装
置。
3. The parameter synthesizing means is executed when the image pickup by the image pickup apparatus is completed, and the synthesizing processing means is executed when the image pickup apparatus reproduces the image. Panoramic image synthesizer.
【請求項4】 前記パラメータ合成手段は、撮像装置に
よる画像撮影が終了したときに実行されると共に、前記
合成処理手段は、撮像装置から外部装置にパノラマ画像
を出力する場合に実行されることを特徴とする請求項1
記載のパノラマ画像合成装置。
4. The parameter synthesizing means is executed when the image pickup by the image pickup device is completed, and the synthesizing processing means is executed when the panoramic image is output from the image pickup device to an external device. Claim 1 characterized by
The described panoramic image composition device.
【請求項5】 前記外部装置は情報処理装置であること
を特徴とする請求項4記載のパノラマ画像合成装置。
5. The panoramic image synthesizing apparatus according to claim 4, wherein the external device is an information processing device.
【請求項6】 画像の一部がオーバーラップしている複
数の画像を合成して1枚の画像を取得するパノラマ画像
の作成方法において、 前記複数の画像の互いに対応する対応点に基づいてパノ
ラマ画像を作成するための合成パラメータを算出した
後、該合成パラメータを記憶し、前記合成パラメータの
算出時期とは異なる時期に前記記憶された合成パラメー
タに基づいて画像の合成処理を実行し、パノラマ画像を
作成することを特徴とするパノラマ画像の作成方法。
6. A method of creating a panoramic image in which a plurality of images, which partially overlap each other, are combined to obtain a single image, wherein a panorama is created based on corresponding points of the plurality of images. After calculating the synthesis parameter for creating the image, the synthesis parameter is stored, and the image synthesis process is executed based on the stored synthesis parameter at a time different from the time when the synthesis parameter is calculated, and the panorama image is displayed. A method for creating a panoramic image, which is characterized by:
【請求項7】 撮像されたパノラマ画像用の画像データ
を撮像装置から情報処理装置に転送する場合、前記合成
パラメータの算出を前記撮像装置から前記情報処理装置
への画像データ取り込み時に実行する一方、前記画像の
合成処理を画像再生時に実行することを特徴とする請求
項6記載のパノラマ画像の作成方法。
7. When transferring image data for a captured panoramic image from an image pickup device to an information processing device, while the calculation of the synthesis parameter is executed when the image data is loaded from the image pickup device to the information processing device, 7. The method of creating a panoramic image according to claim 6, wherein the image synthesizing process is executed during image reproduction.
【請求項8】 撮像装置による画像撮影の終了時に前記
合成パラメータを算出する一方、撮像装置による画像再
生時に画像の合成処理を実行することを特徴とする請求
項6記載のパノラマ画像の作成方法。
8. The method for creating a panoramic image according to claim 6, wherein the synthesis parameter is calculated at the end of image capturing by the image pickup device, and the image synthesis process is executed at the time of image reproduction by the image pickup device.
【請求項9】 撮像装置による画像撮影の終了時に前記
合成パラメータを算出する一方、撮像装置から外部装置
へのパノラマ画像出力時に画像の合成処理を実行するこ
とを特徴とする請求項6記載のパノラマ画像の作成方
法。
9. The panorama according to claim 6, wherein the synthesis parameter is calculated at the end of image capturing by the image pickup device, and the image synthesis process is executed at the time of outputting the panoramic image from the image pickup device to the external device. How to create an image.
【請求項10】 前記外部装置は情報処理装置であるこ
とを特徴とする請求項9記載のパノラマ画像の作成方
法。
10. The method for creating a panoramic image according to claim 9, wherein the external device is an information processing device.
JP27073095A 1995-09-26 1995-09-26 Panoramic image synthesizing apparatus and method for creating panoramic image Expired - Fee Related JP3302236B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP27073095A JP3302236B2 (en) 1995-09-26 1995-09-26 Panoramic image synthesizing apparatus and method for creating panoramic image
US08/719,716 US6549681B1 (en) 1995-09-26 1996-09-25 Image synthesization method
US10/347,317 US7085435B2 (en) 1995-09-26 2003-01-21 Image synthesization method
US11/407,362 US7366360B2 (en) 1995-09-26 2006-04-20 Image synthesization method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27073095A JP3302236B2 (en) 1995-09-26 1995-09-26 Panoramic image synthesizing apparatus and method for creating panoramic image

Publications (2)

Publication Number Publication Date
JPH0990530A true JPH0990530A (en) 1997-04-04
JP3302236B2 JP3302236B2 (en) 2002-07-15

Family

ID=17490165

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27073095A Expired - Fee Related JP3302236B2 (en) 1995-09-26 1995-09-26 Panoramic image synthesizing apparatus and method for creating panoramic image

Country Status (1)

Country Link
JP (1) JP3302236B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6038074A (en) * 1997-05-20 2000-03-14 Ricoh Company, Ltd. Three-dimensional measuring apparatus and method, image pickup apparatus, and apparatus and method for inputting image
JP2000295460A (en) * 1999-04-09 2000-10-20 Canon Inc Image processing method, unit thereof, print system and printer
JP2007327938A (en) * 2006-05-10 2007-12-20 Topcon Corp Image processing device and method therefor
JP2010516003A (en) * 2007-01-12 2010-05-13 クゥアルコム・インコーポレイテッド Panorama image technology
US8665467B2 (en) 2008-10-17 2014-03-04 Canon Kabushiki Kaisha Image processing apparatus and method extracting still images from a moving image, system having such apparatus, printing apparatus used in such system, and computer-readable medium storing a program executed by a computer that extracts still images from a moving image

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02178646A (en) * 1988-12-29 1990-07-11 Canon Inc Panoramic photographing device
JPH0567208A (en) * 1991-07-10 1993-03-19 Topcon Corp Image synthesis method and image pickup device
JPH05227457A (en) * 1992-02-15 1993-09-03 Kanegafuchi Chem Ind Co Ltd Generation method for panorama electronic photograph
JPH0795467A (en) * 1993-09-24 1995-04-07 Canon Inc Image processor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02178646A (en) * 1988-12-29 1990-07-11 Canon Inc Panoramic photographing device
JPH0567208A (en) * 1991-07-10 1993-03-19 Topcon Corp Image synthesis method and image pickup device
JPH05227457A (en) * 1992-02-15 1993-09-03 Kanegafuchi Chem Ind Co Ltd Generation method for panorama electronic photograph
JPH0795467A (en) * 1993-09-24 1995-04-07 Canon Inc Image processor

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6038074A (en) * 1997-05-20 2000-03-14 Ricoh Company, Ltd. Three-dimensional measuring apparatus and method, image pickup apparatus, and apparatus and method for inputting image
JP2000295460A (en) * 1999-04-09 2000-10-20 Canon Inc Image processing method, unit thereof, print system and printer
JP2007327938A (en) * 2006-05-10 2007-12-20 Topcon Corp Image processing device and method therefor
JP2010516003A (en) * 2007-01-12 2010-05-13 クゥアルコム・インコーポレイテッド Panorama image technology
US8331725B2 (en) 2007-01-12 2012-12-11 Qualcomm Incorporated Panoramic imaging techniques
US8665467B2 (en) 2008-10-17 2014-03-04 Canon Kabushiki Kaisha Image processing apparatus and method extracting still images from a moving image, system having such apparatus, printing apparatus used in such system, and computer-readable medium storing a program executed by a computer that extracts still images from a moving image

Also Published As

Publication number Publication date
JP3302236B2 (en) 2002-07-15

Similar Documents

Publication Publication Date Title
US5796428A (en) Electronic photography system
US7064783B2 (en) Still picture format for subsequent picture stitching for forming a panoramic image
US7930633B2 (en) Device that permits a user to select a position in a display of images for insertion of a user comment and warns the user if the insertion of the user comment at the selected position is not possible
US7085435B2 (en) Image synthesization method
JP3495826B2 (en) Filing system and playback device
JPH09322060A (en) Image pickup device, image composing device and image composition system
KR20080058779A (en) Printing apparatus and control method thereof
KR100934211B1 (en) How to create a panoramic image on a mobile device
JP4725854B2 (en) Image display device and image display method
JP3302236B2 (en) Panoramic image synthesizing apparatus and method for creating panoramic image
JP5361780B2 (en) Image processing apparatus and image processing program
JP3893416B2 (en) Electronic still camera and image data recording / reproducing method thereof
JP3832894B2 (en) Image synthesizer
US6122069A (en) Efficient method of modifying an image
JPH0991410A (en) Panorama image synthesis system
JP4525841B2 (en) Image composition apparatus, computer program, and recording medium
JP3241243B2 (en) Panorama image composition system and panorama image composition method
JP2007143017A (en) Correction of date information of image file
JP2000083221A (en) Image display device
JP4682648B2 (en) Image search apparatus, image search method, and computer program
JP4403957B2 (en) Image composition apparatus, image composition method, and computer program
JP2006173854A (en) Image display apparatus, image display program, and imaging apparatus
JP2006085247A (en) Image processor, image processing method and program
JP3216037B2 (en) Panorama image composition system
JP2004050744A (en) Print processor

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090426

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090426

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100426

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110426

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130426

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130426

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140426

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees