JP2000358194A - Image compositing device and method and storage medium storing program - Google Patents

Image compositing device and method and storage medium storing program

Info

Publication number
JP2000358194A
JP2000358194A JP11169089A JP16908999A JP2000358194A JP 2000358194 A JP2000358194 A JP 2000358194A JP 11169089 A JP11169089 A JP 11169089A JP 16908999 A JP16908999 A JP 16908999A JP 2000358194 A JP2000358194 A JP 2000358194A
Authority
JP
Japan
Prior art keywords
image
reduced
images
image data
synthesizing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11169089A
Other languages
Japanese (ja)
Inventor
Toshiyuki Kamiya
俊之 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP11169089A priority Critical patent/JP2000358194A/en
Publication of JP2000358194A publication Critical patent/JP2000358194A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily execute an image compositing process regardless of the capacity of a data buffer even if two images of superhigh accuracy are processed to each other when the images are composited between the image files of very large capacities compared with a system mounted memory. SOLUTION: A data management part 102 produces reduced images of each of image data which are stored in a file store part 110 and to be composited together and stores these reduced images in a data buffer 103. Then the part 102 extracts the overlapping area of every reduced image and performs temporary alignment of the reduced image according to the extracted overlapping area to calculate the information on the overlapping area and its peripheral areas. An image processing part 101 composition accurately the image data according to the calculated information and produces a single sheet of images.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、非常に大きな画像
ファイル同士の合成処理を行う場合、特に超高精細画像
同士でのモザイク合成処理を行う場合に用いて好適な画
像合成装置、方法及びプログラムを記憶した記憶媒体に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image synthesizing apparatus, a method and a program which are suitable for use in synthesizing very large image files, especially in mosaic synthesizing between ultra-high definition images. And a storage medium storing the information.

【0002】[0002]

【従来の技術】従来の画像合成装置の一例としては、デ
ジタルカメラ製品に付属するソフトウェア製品としてP
hotoStitch(キヤノン株式会社)などのソフ
トウェアが知られている。また、特開平9−32205
9号公報には、オーバーラップ部分を有する複数枚の画
像をパノラマ合成して1枚の画像を作成する、即ち、画
像処理分野におけるモザイク合成処理を行う装置が記載
されている。
2. Description of the Related Art An example of a conventional image synthesizing apparatus is a software product attached to a digital camera product.
Software such as photoStitch (Canon Inc.) is known. Also, Japanese Patent Application Laid-Open No. 9-32205
No. 9 discloses an apparatus that creates a single image by performing panoramic synthesis on a plurality of images having overlapping portions, that is, a device that performs a mosaic synthesis process in the image processing field.

【0003】この従来の画像合成装置は、図8に示すよ
うに、主としてアプリケーションソフトウェアと、オペ
レーティングシステムと、ハードウェアとから構成され
ている。このような構成を有する従来の画像合成装置は
次のように動作する。
As shown in FIG. 8, this conventional image synthesizing apparatus mainly comprises application software, an operating system, and hardware. The conventional image synthesizing apparatus having such a configuration operates as follows.

【0004】画像合成の実際の処理では、まず、カメラ
からあるいはファイルシステムから画像データをアプリ
ケーションソフト内の画像データ管理システム部に読み
込み、読み込まれた画像データに付属する属性情報など
により合成対象となる画像データを特定する。この特定
された複数枚の画像データを対象に、合成処理を実行す
る。合成のための処理としては、まず、手動あるいは自
動で重ね合わせ位置を指定した後、対応点抽出処理、合
成パラメータ算出を行い、実際の合成処理を行う。
In the actual processing of image synthesis, first, image data is read from a camera or a file system into an image data management system section in application software, and is subjected to synthesis based on attribute information attached to the read image data. Specify image data. A combining process is performed on the specified plurality of image data. As processing for combination, first, a superposition position is designated manually or automatically, then corresponding point extraction processing and combination parameter calculation are performed, and actual combination processing is performed.

【0005】前記公報においては、2枚の画像の場合に
ついて合成処理の流れが図9のように示されている。即
ち、合成の対象となる画像の組をアプリケーションソフ
ト内に読み込み、合成画像領域を、合成対象の画像の2
倍の大きさで確保し、順次、合成対象の画像を合成画像
領域に座標変換しながらコピーすることによって行う。
合成対象となる画像が増えた場合には、同様に合成対象
分の画像及びその合計分のサイズを持つ合成画像領域を
アプリケーションソフトウェア内に確保して合成を実行
することになる。
[0005] In the above-mentioned publication, the flow of the synthesizing process for two images is shown in FIG. 9. That is, a set of images to be combined is read into the application software, and the combined image area is set to 2 of the image to be combined.
The size is doubled, and the image to be combined is sequentially copied to the combined image area while performing coordinate conversion.
When the number of images to be combined increases, the image to be combined and the combined image area having the total size thereof are similarly secured in the application software and combined.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、前記従
来例においては、以下のような問題点がある。アプリケ
ーションソフトウェア内に全ての画像の領域を確保する
ことから、入力画像の一枚の大きさが非常に大きい場
合、又は合成対象となる画像の枚数が多い場合には、処
理対象となる画像データ量が、処理装置の備えるアプリ
ケーションソフトが確保できるメモリに比して大きくな
り、処理時間が非常にかかる、あるいは処理が不可能と
なる場合がある。
However, the conventional example has the following problems. Since all image areas are secured in the application software, if the size of one input image is very large, or if the number of images to be combined is large, the amount of image data to be processed However, in some cases, the size of the memory becomes larger than the memory that can be secured by the application software included in the processing device, and the processing time may be extremely long or the processing may not be possible.

【0007】本発明の目的は、合成の対象となる入力画
像の1枚の大きさが大きい場合、あるいは入力画像の枚
数が多い場合など、合成結果の画像が非常に大きな画像
となる場合についても、処理装置の備えるメモリの多少
に関わらず、精度よく画像合成が可能なシステムを提供
することにある。
An object of the present invention is also to be applied to a case where the synthesized image is very large, such as when the size of one input image to be synthesized is large or when the number of input images is large. Another object of the present invention is to provide a system capable of accurately synthesizing images regardless of the amount of memory included in the processing device.

【0008】[0008]

【課題を解決するための手段】かかる目的を達成するた
めに、本発明による画像合成装置は、画像合成対象とな
る複数の画像データの各縮小画像を作成する作成手段
と、作成された各縮小画像の重複領域を抽出する抽出手
段と、抽出された重複領域に基づいて各縮小画像の位置
合わせを行うことにより、各画像データの位置合わせに
必要な情報を算出する算出手段と、算出された情報に基
づいて各画像データを合成して1枚の画像を作成する合
成手段とを設けたものである。
In order to achieve the above object, an image synthesizing apparatus according to the present invention comprises a generating means for generating each reduced image of a plurality of image data to be image-combined; Extracting means for extracting an overlapping area of the image; calculating means for calculating information necessary for positioning of each image data by performing positioning of each reduced image based on the extracted overlapping area; and A synthesizing unit for synthesizing each image data based on the information to create one image.

【0009】また、本発明による画像合成方法は、画像
合成対象となる複数の画像データの各縮小画像を作成す
る作成工程と、作成された各縮小画像の重複領域を抽出
する抽出工程と、抽出された重複領域に基づいて各縮小
画像の位置合わせを行うことにより、各画像データの位
置合わせに必要な情報を算出する算出工程と、算出され
た情報に基づいて各画像データを合成して1枚の画像を
作成する合成工程とを設けたものである。
Further, the image synthesizing method according to the present invention comprises a creating step of creating respective reduced images of a plurality of image data to be combined, an extracting step of extracting an overlapping area of the created reduced images, and an extracting step. Calculating the information required for the alignment of each image data by performing the alignment of each reduced image based on the overlapped region thus obtained; and synthesizing each image data based on the calculated information to obtain 1 And a synthesizing step of creating one image.

【0010】また、本発明によるプログラムを記憶した
記憶媒体は、画像合成対象となる複数の画像データの各
縮小画像を作成する手順と、作成された各縮小画像の重
複領域を抽出する手順と、抽出された重複領域に基づい
て各縮小画像の位置合わせを行うことにより、各画像デ
ータの位置合わせに必要な情報を算出する手順と、算出
された情報に基づいて各画像データを合成して1枚の画
像を作成する手順とを実行するためのプログラムを記憶
したものである。
[0010] The storage medium storing the program according to the present invention includes a procedure for creating each reduced image of a plurality of image data to be combined with an image, a procedure for extracting an overlapping area of each created reduced image, A procedure for calculating information necessary for alignment of each image data by performing alignment of each reduced image based on the extracted overlapping area, and combining each image data based on the calculated information to obtain 1 And a program for executing a procedure for creating a single image.

【0011】また、前記合成手段は、複数の画像データ
の合計データ量が所定量を越えたとき縮小画像を作成す
るようにしてよく、その際、各縮小画像の合計データ量
が所定量以下となる縮小比率を選択して縮小画像を作成
するようにしてもよい。
The synthesizing means may generate a reduced image when the total data amount of the plurality of image data exceeds a predetermined amount. A reduced image may be created by selecting a reduced ratio.

【0012】また、前記算出手段は、抽出された縮小画
像の重複領域とその周辺領域とを示す情報を算出するよ
うにしてもよい。
Further, the calculating means may calculate information indicating an overlapping area of the extracted reduced image and a peripheral area thereof.

【0013】[0013]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照して詳細に説明する。図1は本発明の第1
の実施の形態による画像合成装置を示すブロック図であ
る。
Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 1 shows the first embodiment of the present invention.
1 is a block diagram illustrating an image synthesizing apparatus according to an embodiment.

【0014】図1において、画像合成装置は、プログラ
ム制御により動作するコンピュータ(中央処理装置;プ
ロセッサ;データ処理装置)100と、ファイル保存部
110とで構成されている。コンピュータ100は、画
像処理部101とデータ管理部102とデータバッファ
103を含む。
In FIG. 1, the image synthesizing apparatus includes a computer (central processing unit; processor; data processing unit) 100 which operates under program control, and a file storage unit 110. The computer 100 includes an image processing unit 101, a data management unit 102, and a data buffer 103.

【0015】前記各部はそれぞれ概略次のように動作す
る。画像処理部101は、データバッファ103に読み
込まれている画像を対象に画像合成のための位置合わせ
処理を行い、位置合わせ演算のためのパラメータ算出、
及び算出したパラメータによる画素の合成処理を行う。
Each of the above-mentioned parts operates as follows. The image processing unit 101 performs alignment processing for image synthesis on an image read into the data buffer 103, calculates parameters for alignment calculation,
Then, a pixel combining process is performed using the calculated parameters.

【0016】データ管理部102は、ファイル保存部1
10に保存されている画像データのデータバッファ10
3への部分読み込み処理、及び間引き縮小処理を行う。
The data management unit 102 includes a file storage unit 1
Data buffer 10 for image data stored in 10
3 and a thinning-out reduction process.

【0017】データバッファ103は、画像処理部10
1から高速にアクセス可能なデータ領域であり、画像処
理部101で処理する画像を蓄える。
The data buffer 103 includes the image processing unit 10
A data area that can be accessed at high speed from 1 and stores an image to be processed by the image processing unit 101.

【0018】次に、図1及び図2のフローチャートを参
照して本実施の形態の全体の動作について詳細に説明す
る。まず、合成対象となる画像の組、即ち合成対象画像
ファイルの組を、利用者が個々のファイル名を指定する
又は設定ファイル内に一括して記述し、指定をする。デ
ータ管理部102は、指定された画像名をデータ管理部
内に登録する。合成対象となる画像は、それぞれ画像同
士の周辺部分の一部がオーバーラップしている画像デー
タである(図2のステップA1)。
Next, the overall operation of the present embodiment will be described in detail with reference to the flowcharts of FIGS. First, a user designates individual file names or a group of images to be combined, that is, a set of image files to be combined, or collectively describes them in a setting file and designates them. The data management unit 102 registers the specified image name in the data management unit. The images to be combined are image data in which some of the peripheral portions of the images overlap each other (step A1 in FIG. 2).

【0019】次にデータ管理部102は、ファイル保存
部110に保存されている各画像のヘッダ情報を読み取
り、各画像をメモリ上に展開した場合に必要なメモリ量
を算出し、各画像データの合計が、データバッファの大
きさを基準として予め算出した一度に処理できる画像デ
ータ量を示すしきい値よりも大きい場合には、画像デー
タ量の合計がしきい値よりも小さくなるように、画素を
一定間隔で間引き、あるいは平均値を求めることによ
り、より小さな、例えば縦横がそれぞれ1/8〜1/1
6の画像サイズの縮小画像を生成して保存する。
Next, the data management unit 102 reads the header information of each image stored in the file storage unit 110, calculates the amount of memory required when each image is expanded on the memory, and If the sum is larger than a threshold value indicating the amount of image data that can be processed at one time, which is calculated in advance based on the size of the data buffer, the pixel is set so that the total image data amount becomes smaller than the threshold value. Are thinned out at regular intervals, or the average value is obtained, so that the smaller, for example, the height and width are 1/8 to 1/1, respectively.
A reduced image having an image size of 6 is generated and stored.

【0020】その際、元の画像ファイル名及び縮小画像
のファイル名の対応、及び縮小比率などをデータ管理部
102内に管理情報として保存する(ステップA2)。
これによって生成される縮小画像の組はデータバッファ
103内に一括して読み込める大きさとなる。
At this time, the correspondence between the original image file name and the file name of the reduced image, the reduction ratio, and the like are stored as management information in the data management unit 102 (step A2).
The set of reduced images generated in this way has a size that can be collectively read into the data buffer 103.

【0021】次に、縮小画像の組をデータバッファ10
3内に全て読み込み、縮小画像同士で位置合わせを手
動、又は自動で行う。当該ステップでは、全ての画像を
一覧して組み合わせることで、それぞれの画像同士のど
の部分が重複しているのかを容易に確認することができ
る。縮小画像同士での位置合わせ処理は、例えば図3に
示すような画像A、Bの場合、前記従来例の公報に示さ
れているような対応点同士を指示手段によって手動で指
定する、あるいは自動的に特徴点間の対応づけを求める
ことによって行うことができる(ステップA3)。
Next, the set of reduced images is stored in the data buffer 10.
3, and all of the reduced images are manually or automatically aligned. In this step, by listing and combining all the images, it is possible to easily confirm which part of each image overlaps. For example, in the case of images A and B as shown in FIG. 3, the alignment processing between reduced images is performed by manually designating corresponding points as shown in the above-mentioned prior art publication by an instruction means, or by automatically specifying the corresponding points. This can be done by finding the correspondence between characteristic points (step A3).

【0022】各画像組のずれが、各画像間の並進、回
転、拡大で表せるとすると、複数の対応点の情報を使う
ことによって、例えば最小自乗法を用いて、合成のため
のパラメータを算出することができる。このパラメータ
による変換を各画像の四隅の点に適用することにより、
例えば図4(a)のような各縮小画像間の重複領域を算
出することができる(ステップA4)。
Assuming that the displacement of each image set can be expressed by translation, rotation, and enlargement between the images, a parameter for synthesis is calculated by using information of a plurality of corresponding points, for example, using the least square method. can do. By applying the transformation with this parameter to the four corner points of each image,
For example, an overlap area between the reduced images as shown in FIG. 4A can be calculated (step A4).

【0023】さらに、先に縮小画像を作成する際に作成
した管理情報を用いることにより、図4(a)の各縮小
画像間での重複領域が、(b)のように元の合成対象画
像ファイルでどの範囲に対応するかを算出することがで
きる(ステップA5)。
Further, by using the management information created when the reduced image is first created, the overlapping area between the reduced images in FIG. 4A is changed to the original image to be synthesized as shown in FIG. It is possible to calculate which range the file corresponds to (step A5).

【0024】次に、元の合成対象画像ファイル組中に含
まれる重複領域について、順次、詳細な位置合わせを処
理を行う。縮小画像で行った位置合わせ処理では、位置
合わせに用いる画像が元の合成対象の画像よりも小さい
ため、精度が低いものとなる。このため、ステップA5
で算出した図4(b)の重複領域とその周辺領域を順に
データバッファ103に読み込み、正確な位置合わせを
行う。該位置合わせ処理では、画像全体の位置関係は、
縮小画像での位置合わせの段階で既知であるので、手動
の位置合わせにおいても、画像の全体の関係でなく、部
分画像内の詳細な特徴のみによって位置合わせを行って
も問題がない。この位置合わせ処理は、ステップA3と
同様に手動による対応点の指定、あるいは自動的に特徴
点間の対応づけを求めることによって行うことができる
(ステップA6)。
Next, a detailed registration process is sequentially performed on the overlapping areas included in the original image file set to be combined. In the alignment processing performed on the reduced image, the accuracy used is low because the image used for alignment is smaller than the original image to be combined. Therefore, step A5
The overlapping area and its surrounding area of FIG. 4B calculated in step (b) are sequentially read into the data buffer 103, and accurate positioning is performed. In the registration process, the positional relationship of the entire image is
Since it is known at the time of the alignment in the reduced image, there is no problem even in the manual alignment, even if the alignment is performed only by the detailed features in the partial image, not by the relation of the whole image. This alignment processing can be performed by manually specifying corresponding points as in step A3, or by automatically associating feature points (step A6).

【0025】さらに、ステップA6で行った正確な位置
合わせ処理からステップA4と同様に位置合わせのため
のパラメータを算出する(ステップA7)。最後に、全
体の合成画像作成のための領域をファイル保存部110
上に確保し、ステップA7で算出したパラメータを用い
てファイル保存部110上にある合成対象画像ファイル
から合成画像ファイルに順次画像データをコピーするこ
とで、最終的に合成画像を作成することができる(ステ
ップA8)。
Further, parameters for positioning are calculated from the accurate positioning processing performed in step A6, similarly to step A4 (step A7). Finally, the area for creating the entire composite image is stored in the file storage unit 110.
The composite image can be finally created by copying the image data from the compositing target image file on the file storage unit 110 to the composite image file using the parameters calculated in step A7. (Step A8).

【0026】次に、重複領域とその周辺領域の算出につ
いて詳しく説明する。図5において、(a)での対応点
501が一致するように2枚の画像A、Bを重ね合わせ
た場合が(b)である。まず、対応点から求めた変換の
関数Fを用いて画像Bの四隅の点(0,0)、(x0,
0)、(0,y0)、(x0,y0)の画像Aの座標系
における値を求める。
Next, the calculation of the overlapping area and its surrounding area will be described in detail. In FIG. 5, (b) shows a case where two images A and B are overlapped so that the corresponding points 501 in (a) coincide. First, using the conversion function F obtained from the corresponding points, the points (0, 0), (x0,
0), (0, y0), and (x0, y0) in the coordinate system of the image A are obtained.

【0027】次に、この領域のうち画像Aに含まれる領
域を求める。さらに、画像Aの座標系において、求めた
領域を含み、x軸、y軸に平行な辺を持つ領域を求め、
重複領域とする。縮小画像での重複領域の座標値を、デ
ータ管理部102で管理されている縮小比率で除算する
ことによって、元の高精細画像における重複領域の境界
を表す座標値とすることができる。
Next, an area included in the image A among these areas is obtained. Further, in the coordinate system of the image A, a region including the determined region and having sides parallel to the x-axis and the y-axis is determined.
This is an overlapping area. By dividing the coordinate value of the overlapping area in the reduced image by the reduction ratio managed by the data management unit 102, the coordinate value representing the boundary of the overlapping area in the original high-definition image can be obtained.

【0028】最後にこの重複領域に対し、図5(b)の
ように周囲に一定の幅を持つ領域を考え、これを周辺領
域とする。画像B内の重複領域及び周辺領域についても
同様に求めることができる。
Finally, an area having a constant width around the overlapping area is considered as shown in FIG. 5B, and this area is defined as a peripheral area. The overlapping area and the peripheral area in the image B can be similarly obtained.

【0029】本実施の形態によれば、合成対象画像ファ
イルの大きさを予め調べ、データバッファ103内に収
まる大きさの縮小画像を予め作成し、縮小画像を用いて
位置合わせ処理を行い、重複領域及びその周辺領域だけ
を順次読み込み、詳細な位置合わせ及び合成処理を行う
ように構成したので、合成の対象となる入力画像の1枚
の大きさが大きい場合、あるいは入力画像の枚数が多い
場合など、合成結果の画像が非常に大きな画像となる場
合についても、処理装置の備えるメモリの多少に関わら
ず画像合成を行うことができる効果がある。
According to the present embodiment, the size of the image file to be synthesized is checked in advance, a reduced image having a size that can be accommodated in the data buffer 103 is created in advance, the registration process is performed using the reduced image, and the Since only the area and its surrounding area are sequentially read and the detailed registration and combination processing are performed, when the size of one input image to be combined is large or when the number of input images is large For example, even in the case where the synthesized image is a very large image, there is an effect that image synthesis can be performed regardless of the amount of memory included in the processing device.

【0030】次に、本発明の第2の実施の形態について
説明する。本実施の形態では、図6に示すように、プロ
グラム制御により動作するコンピュータ(中央処理装
置;プロセッサ;データ処理装置)100と、ファイル
保存部110から構成されている。
Next, a second embodiment of the present invention will be described. In the present embodiment, as shown in FIG. 6, a computer (central processing unit; processor; data processing unit) 100 operated by program control and a file storage unit 110 are provided.

【0031】コンピュータ100は、画像処理部101
と階層データ管理部104とデータバッファ103を含
む。これらの各部の動作は階層データ管理部104を除
き、第1の実施の形態の場合と同様である。
The computer 100 includes an image processing unit 101
And a hierarchical data management unit 104 and a data buffer 103. The operations of these units are the same as in the first embodiment except for the hierarchical data management unit 104.

【0032】階層データ管理部104は、概略以下のよ
うに動作する。画像データが指定されると、画像データ
の階層的な縮小画像を作成し、該階層情報を管理する。
また、必要に応じて適切な階層の部分画像をデータバッ
ファに読み込む。
The hierarchical data management unit 104 operates as follows. When the image data is designated, a hierarchical reduced image of the image data is created, and the hierarchical information is managed.
In addition, an appropriate partial image is read into the data buffer as needed.

【0033】次に、図6及び図7のフローチャートを参
照して本実施の形態の全体の動作について説明する。ま
ず、合成対象となる画像の組、即ち合成対象画像ファイ
ルの組を、利用者が個々のファイル名を指定する、又は
設定ファイル内に一括して記述して指定する。階層デー
タ管理部102は、指定された画像名を階層データ管理
部内に登録する。合成対象となる画像は、それぞれ画像
同士の周辺部分の一部がオーバーラップしている画像デ
ータである(図7のステップB1)。
Next, the overall operation of the present embodiment will be described with reference to the flowcharts of FIGS. First, the user designates a set of images to be combined, that is, a set of image files to be combined, by specifying individual file names or by describing them collectively in a setting file. The hierarchical data management unit 102 registers the specified image name in the hierarchical data management unit. The images to be combined are image data in which some of the peripheral portions of the images overlap each other (step B1 in FIG. 7).

【0034】次に階層データ管理部102は、ファイル
保存部110に保存されている各画像のヘッダ情報を読
み取り、各画像をメモリ上に展開した場合に必要なメモ
リ量を算出し、各画像データの合計が、データバッファ
の大きさを基準として予め算出した一度に処理できる画
像データ量を示すしきい値よりも大きい場合には、各画
像を縦横それぞれ1/2に縮小した画像を作成し、この
縮小画像をファイル保存部110に保存する。さらに、
この縮小画像の画像データ量がまだしきい値を越える場
合には、さらに縦横1/2に縮小する。これを画像デー
タの量がしきい値以下になるまで繰り返す。その際、元
の画像ファイル名及び階層的な縮小画像のファイル名の
対応をデータ管理部内に管理情報として保存する(ステ
ップB2)。
Next, the hierarchical data management unit 102 reads the header information of each image stored in the file storage unit 110, calculates the amount of memory required when each image is expanded on the memory, and calculates each image data. Is larger than a threshold value indicating the amount of image data that can be processed at one time, which is calculated in advance based on the size of the data buffer, and creates an image in which each image is reduced by half in both the vertical and horizontal directions. The reduced image is stored in the file storage unit 110. further,
If the image data amount of the reduced image still exceeds the threshold value, the image is further reduced to half length and width. This is repeated until the amount of image data falls below the threshold. At this time, the correspondence between the original image file name and the file name of the hierarchical reduced image is stored as management information in the data management unit (step B2).

【0035】これによって生成される最下位の縮小画像
の組は、データバッファ103内に一括して読み込める
大きさとなる。次に、最下位の縮小画像組をデータバッ
ファ103内に全て読み込み、縮小画像同士で位置合わ
せを手動、又は自動で行う。このステップでは、全ての
画像を一覧して組み合わせることで、それぞれの画像同
士のどの部分が重複しているのかを容易に確認すること
ができる。領域縮小画像同士での位置合わせ処理、及び
位置合わせパラメータ、重複領域の算出は第1の実施の
形態の場合と同様に、手動又は自動で行うことができる
(ステップB3、ステップB4)。
The set of the lowest-order reduced images generated in this way has a size that can be collectively read into the data buffer 103. Next, the lowest-order reduced image set is entirely read into the data buffer 103, and the reduced images are aligned manually or automatically. In this step, by listing all the images and combining them, it is possible to easily confirm which part of each image overlaps. The alignment processing between the area reduced images and the calculation of the alignment parameter and the overlapping area can be performed manually or automatically as in the case of the first embodiment (step B3, step B4).

【0036】さらに、先に縮小画像を作成する際に作成
した管理情報を用いることにより、各縮小画像の一つ上
位、即ち縦横2倍の大きさを持つ画像同士間での重複領
域を算出することができる(ステップB5)。
Further, by using the management information created when the reduced image is first created, an overlapping area between images having a size one order higher than each reduced image, that is, two times vertically and horizontally, is calculated. (Step B5).

【0037】次に、一つ上位の階層の縮小画像に含まれ
る重複領域について、順次、詳細な位置合わせを処理を
行う。下位の縮小画像で行った位置合わせ処理では、位
置合わせに用いる画像が小さいため、精度が低いものと
なる。このため、ステップB5で算出した重複領域とそ
の周辺領域を順にデータバッファ103に読み込み、正
確な位置合わせを行う。この位置合わせ処理はステップ
B3と同様に手動による対応点の指定、あるいは自動的
に特徴点間の対応づけを求めることによって行うことが
できる。第1の実施の形態で1/8〜1/16に縮小し
た縮小画像でパラメータを求め、重複領域を求めた場合
に比べて、誤差の範囲は狭く想定することができ、周辺
領域の幅は小さくすることができる。(ステップB
6)。
Next, a detailed positioning process is sequentially performed on the overlapping area included in the reduced image of the next higher hierarchy. In the positioning process performed on the lower reduced image, the accuracy is low because the image used for positioning is small. For this reason, the overlapping area and its surrounding area calculated in step B5 are sequentially read into the data buffer 103, and accurate positioning is performed. This alignment processing can be performed by manually specifying corresponding points as in step B3, or by automatically associating feature points. Compared to the case where the parameters are obtained with the reduced image reduced to 1/8 to 1/16 in the first embodiment and the overlap region is obtained, the range of the error can be assumed to be narrower, and the width of the peripheral region is smaller. Can be smaller. (Step B
6).

【0038】当該詳細位置合わせ処理は、縮小画像同士
の位置合わせ処理によって、範囲が限定されているた
め、元の合成対象画像ファイル全体をデータバッファに
読み込む必要はない。また、画像全体の位置関係は、縮
小画像での位置合わせの段階で既知であるので、手動の
位置合わせにおいても、画像の全体の関係でなく、画像
内の詳細な特徴のみによって位置合わせを行っても問題
がない。
In the detailed registration process, since the range is limited by the registration process between reduced images, it is not necessary to read the entire original image file to be combined into the data buffer. In addition, since the positional relationship of the entire image is known at the stage of positioning in the reduced image, even in manual positioning, positioning is performed based on only detailed features in the image, not the entire image. There is no problem.

【0039】さらに、ステップB6で行った詳細な位置
合わせ処理からステップB4と同様に位置合わせのため
のパラメータを算出する(ステップB7)。
Further, parameters for positioning are calculated from the detailed positioning processing performed in step B6, as in step B4 (step B7).

【0040】該ステップB6及びステップB7の位置合
わせ処理を順に最上位の階層、即ち元の高精細な画像の
位置合わせを行うまで行う。
The alignment processing in steps B6 and B7 is sequentially performed until the uppermost layer, that is, the alignment of the original high-definition image is performed.

【0041】最後に、全体の合成画像作成のための領域
をファイル保存部110上に確保し、ステップB7で算
出したパラメータを用いてファイル保存部110上にあ
る合成対象画像ファイルから合成画像ファイルに順次画
像データをコピーすることで、最終的に合成画像を作成
することができる(ステップB8)。
Lastly, an area for creating the entire composite image is secured in the file storage unit 110, and the parameters calculated in step B7 are used to convert the image file to be synthesized in the file storage unit 110 into a composite image file. By sequentially copying the image data, a composite image can be finally created (step B8).

【0042】本実施の形態によれば、第1の実施の形態
による効果が得られると共に、階層的な縮小画像を予め
作成し、段階的に位置合わせ処理を行うように構成した
ので、データバッファ103の容量を常に効率よく使用
することができる。
According to the present embodiment, the effect of the first embodiment can be obtained, and a hierarchical reduced image is created in advance and the positioning process is performed step by step. The capacity of 103 can always be used efficiently.

【0043】尚、前記第1、第2の実施の形態を、コン
ピュータ100を用いて構成する場合、このコンピュー
タシステムで用いるROM等のメモリは本発明による記
憶媒体を構成することになる。この記憶媒体には、図
2、図7のフローチャートで説明した動作を行うための
手順を実行するプログラムが記憶される。当該記憶媒体
としては、半導体記憶装置、光ディスク、光磁気ディス
ク、磁気記録媒体等が用いられる。
When the first and second embodiments are configured using a computer 100, a memory such as a ROM used in the computer system constitutes a storage medium according to the present invention. In this storage medium, a program for executing the procedure for performing the operation described in the flowcharts of FIGS. 2 and 7 is stored. As the storage medium, a semiconductor storage device, an optical disk, a magneto-optical disk, a magnetic recording medium, or the like is used.

【0044】[0044]

【発明の効果】以上説明したように、本発明によれば、
予め合成対象となる複数の入力画像の縮小画像を作成
し、それらの仮の位置合わせを行うことにより、画像デ
ータの合成処理に必要な情報を求め、この情報を用いて
画像データの正規の位置合わせを行って合成処理を行う
ようにしたので、合成処理に必要なメモリ容量を削減す
ることができる。
As described above, according to the present invention,
By creating reduced images of a plurality of input images to be combined in advance, and temporarily aligning them, information necessary for the image data combining process is obtained, and the normal position of the image data is determined using this information. Since the synthesizing process is performed by performing the matching, the memory capacity required for the synthesizing process can be reduced.

【0045】特に、合成の対象となる入力画像の一枚の
大きさが大きい場合、あるいは入力画像の枚数が多いな
ど、合成結果の画像が非常に大きな画像となる場合につ
いても、処理装置の備えるメモリの多少に関わらず画像
合成が可能なシステムを提供することができる。
In particular, the processing apparatus is provided even in the case where the size of one input image to be synthesized is large or the number of input images is large, such as when the synthesized image is very large. It is possible to provide a system capable of synthesizing images regardless of the amount of memory.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態の構成を示すブロッ
ク図である。
FIG. 1 is a block diagram showing a configuration of a first exemplary embodiment of the present invention.

【図2】第1の実施の形態の動作を示すフローチャート
である。
FIG. 2 is a flowchart showing an operation of the first embodiment.

【図3】第1の実施の形態の対応点の指定を行う画面の
例を示す構成図である。
FIG. 3 is a configuration diagram illustrating an example of a screen for designating a corresponding point according to the first embodiment;

【図4】第1の実施の形態の縮小画像と元の高精細画像
での重複領域の関係を示す構成図である。
FIG. 4 is a configuration diagram illustrating a relationship between overlapping areas in the reduced image and the original high-definition image according to the first embodiment.

【図5】第1の実施の形態の重複領域、周辺領域の説明
する構成図である。
FIG. 5 is a configuration diagram illustrating an overlapping area and a peripheral area according to the first embodiment;

【図6】本発明の第2の実施の形態の構成を示すプロッ
ク図である。
FIG. 6 is a block diagram showing a configuration of a second exemplary embodiment of the present invention.

【図7】第2の実施の形態の動作を示すフローチャート
図である。
FIG. 7 is a flowchart illustrating the operation of the second embodiment.

【図8】従来の画像合成装置のシステム構成を示すブロ
ック図である。
FIG. 8 is a block diagram showing a system configuration of a conventional image synthesizing apparatus.

【図9】従来の画像合成装置の動作を示すフローチャー
ト図である。
FIG. 9 is a flowchart showing the operation of a conventional image synthesizing apparatus.

【符号の説明】[Explanation of symbols]

100 コンピュータ(中央処理装置;プロセッサ;デ
ータ処理装置) 101 画像処理部 102 データ管理部 103 データバッファ 104 階層データ管理部 110 ファイル保存部
REFERENCE SIGNS LIST 100 computer (central processing unit; processor; data processing unit) 101 image processing unit 102 data management unit 103 data buffer 104 hierarchical data management unit 110 file storage unit

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 画像合成対象となる複数の画像データの
各縮小画像を作成する作成手段と、 前記作成された各縮小画像の重複領域を抽出する抽出手
段と、 前記抽出された重複領域に基づいて各縮小画像の位置合
わせを行うことにより、各画像データの位置合わせに必
要な情報を算出する算出手段と、 前記算出された情報に基づいて各画像データを合成して
1枚の画像を作成する合成手段とを設けたことを特徴と
する画像合成装置。
A generating unit configured to generate each reduced image of a plurality of image data to be image-combined; an extracting unit configured to extract an overlapping area of each of the generated reduced images; Calculating means for calculating information necessary for the alignment of each image data by performing the alignment of each reduced image, and synthesizing each image data based on the calculated information to create one image An image synthesizing apparatus, comprising: synthesizing means for performing image synthesis.
【請求項2】 前記合成手段は、前記複数の画像データ
の合計データ量が所定量を越えたとき縮小画像を作成す
ることを特徴とする請求項1記載の画像合成装置。
2. The image synthesizing apparatus according to claim 1, wherein said synthesizing means generates a reduced image when a total data amount of said plurality of image data exceeds a predetermined amount.
【請求項3】 前記合成手段は、各縮小画像の合計デー
タ量が前記所定量以下となる縮小比率を選択して縮小画
像を作成することを特徴とする請求項2記載の画像合成
装置。
3. The image synthesizing apparatus according to claim 2, wherein said synthesizing means selects a reduction ratio at which a total data amount of each reduced image is equal to or less than the predetermined amount to generate a reduced image.
【請求項4】 前記算出手段は、前記抽出された縮小画
像の重複領域とその周辺領域とを示す情報を算出するこ
とを特徴とする請求項1記載の画像合成装置。
4. The apparatus according to claim 1, wherein said calculating means calculates information indicating an overlapping area of the extracted reduced image and a peripheral area thereof.
【請求項5】 画像合成対象となる複数の画像データの
各縮小画像を作成する作成工程と、 前記作成された各縮小画像の重複領域を抽出する抽出工
程と、 前記抽出された重複領域に基づいて各縮小画像の位置合
わせを行うことにより、各画像データの位置合わせに必
要な情報を算出する算出工程と、 前記算出された情報に基づいて各画像データを合成して
1枚の画像を作成する合成工程とを設けたことを特徴と
する画像合成方法。
5. A creating step of creating each reduced image of a plurality of image data to be image-synthesized, an extracting step of extracting an overlapping area of each of the created reduced images, and A calculation step of calculating information necessary for alignment of each image data by performing alignment of each reduced image by using the above-mentioned information; and creating one image by synthesizing each image data based on the calculated information. And a synthesizing step.
【請求項6】 画像合成対象となる複数の画像データの
各縮小画像を作成する手順と、 前記作成された各縮小画像の重複領域を抽出する手順
と、 前記抽出された重複領域に基づいて各縮小画像の位置合
わせを行うことにより、各画像データの位置合わせに必
要な情報を算出する手順と、 前記算出された情報に基づいて各画像データを合成して
1枚の画像を作成する手順とを実行するためのプログラ
ムを記憶した記憶媒体。
6. A procedure for creating each reduced image of a plurality of image data to be image-synthesized, a procedure for extracting an overlapping area of each of the created reduced images, A procedure of calculating information necessary for the alignment of each image data by performing the alignment of the reduced images; and a procedure of creating one image by combining each image data based on the calculated information. Storage medium storing a program for executing the program.
JP11169089A 1999-06-16 1999-06-16 Image compositing device and method and storage medium storing program Pending JP2000358194A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11169089A JP2000358194A (en) 1999-06-16 1999-06-16 Image compositing device and method and storage medium storing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11169089A JP2000358194A (en) 1999-06-16 1999-06-16 Image compositing device and method and storage medium storing program

Publications (1)

Publication Number Publication Date
JP2000358194A true JP2000358194A (en) 2000-12-26

Family

ID=15880132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11169089A Pending JP2000358194A (en) 1999-06-16 1999-06-16 Image compositing device and method and storage medium storing program

Country Status (1)

Country Link
JP (1) JP2000358194A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010135872A (en) * 2008-12-02 2010-06-17 Univ Of Tokyo Imaging apparatus and imaging method
JP2011002892A (en) * 2009-06-16 2011-01-06 Asahi Koyo Kk Mosaic image generating method, device and program
JP2013072968A (en) * 2011-09-27 2013-04-22 Olympus Corp Microscope system
US8494261B2 (en) 2010-04-30 2013-07-23 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and computer-readable medium
US8498475B2 (en) 2010-06-24 2013-07-30 Canon Kabushiki Kaisha Image processing apparatus, control method and computer-readable medium
US8837021B2 (en) 2010-03-16 2014-09-16 Canon Kabushiki Kaisha Image processing apparatus, control method, and computer-readable medium
WO2016047473A1 (en) * 2014-09-24 2016-03-31 ソニー株式会社 Signal processing circuit and imaging device
WO2020054584A1 (en) 2018-09-12 2020-03-19 富士フイルム株式会社 Composition processing system, composition processing device, and composition processing method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010135872A (en) * 2008-12-02 2010-06-17 Univ Of Tokyo Imaging apparatus and imaging method
JP2011002892A (en) * 2009-06-16 2011-01-06 Asahi Koyo Kk Mosaic image generating method, device and program
US8837021B2 (en) 2010-03-16 2014-09-16 Canon Kabushiki Kaisha Image processing apparatus, control method, and computer-readable medium
US8494261B2 (en) 2010-04-30 2013-07-23 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and computer-readable medium
US8498475B2 (en) 2010-06-24 2013-07-30 Canon Kabushiki Kaisha Image processing apparatus, control method and computer-readable medium
JP2013072968A (en) * 2011-09-27 2013-04-22 Olympus Corp Microscope system
WO2016047473A1 (en) * 2014-09-24 2016-03-31 ソニー株式会社 Signal processing circuit and imaging device
US10455151B2 (en) 2014-09-24 2019-10-22 Sony Semiconductor Solutions Corporation Signal processing circuit and imaging apparatus
WO2020054584A1 (en) 2018-09-12 2020-03-19 富士フイルム株式会社 Composition processing system, composition processing device, and composition processing method
US11315218B2 (en) 2018-09-12 2022-04-26 Fujifilm Corporation Composition processing system, composition processing apparatus, and composition processing method

Similar Documents

Publication Publication Date Title
JP3747737B2 (en) Wide-area fine image generation method and system, and computer-readable recording medium
US6035075A (en) Image deforming method and apparatus
JP2005100407A (en) System and method for creating panorama image from two or more source images
JP2008158774A (en) Image processing method, image processing device, program, and storage medium
JPH10126731A (en) Tour album generating system
JPH03280154A (en) Integrated image recorder
JP3278623B2 (en) Map three-dimensionalization system, map three-dimensionalization method, and storage medium storing map three-dimensionalization program
JP2000358194A (en) Image compositing device and method and storage medium storing program
JPH11112790A (en) Image compositing device and its method
WO2020194470A1 (en) Image generation device, image generation method, and image generation program
JP4346742B2 (en) Image composition method, image composition apparatus, and storage medium
US6122069A (en) Efficient method of modifying an image
JP3241243B2 (en) Panorama image composition system and panorama image composition method
JP4458720B2 (en) Image input apparatus and program
JPS6022871A (en) Method and apparatus of enlarging and reduction
JP2004258794A (en) Method, device, and computer program for editing three-dimensional model
JP4006056B2 (en) Image composition apparatus, image composition method, and storage medium
JP3216037B2 (en) Panorama image composition system
JP7527244B2 (en) DATA PROCESSING APPARATUS AND DATA PROCESSING METHOD
JP3321402B2 (en) Video data editing method and device
JP2005217721A (en) Apparatus and method for generating still picture
JP3903405B2 (en) Image conversion method and apparatus, and recording medium
JPH0440176A (en) Television special effect device
JP2884877B2 (en) Database image processing device
JP3460931B2 (en) Still image synthesis device

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030325