JP2003087550A - Device and method for compositing image and computer readable recording medium having image composite processing program recorded thereon - Google Patents

Device and method for compositing image and computer readable recording medium having image composite processing program recorded thereon

Info

Publication number
JP2003087550A
JP2003087550A JP2001276606A JP2001276606A JP2003087550A JP 2003087550 A JP2003087550 A JP 2003087550A JP 2001276606 A JP2001276606 A JP 2001276606A JP 2001276606 A JP2001276606 A JP 2001276606A JP 2003087550 A JP2003087550 A JP 2003087550A
Authority
JP
Japan
Prior art keywords
images
image
monitor screen
adjacent
synthesizing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001276606A
Other languages
Japanese (ja)
Other versions
JP3979811B2 (en
Inventor
Haruo Hatanaka
晴雄 畑中
Naoki Chiba
直樹 千葉
Takashi Iida
崇 飯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2001276606A priority Critical patent/JP3979811B2/en
Publication of JP2003087550A publication Critical patent/JP2003087550A/en
Application granted granted Critical
Publication of JP3979811B2 publication Critical patent/JP3979811B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image compositing device by which work efficiency for arranging the positions of adjacent images is improved in the case a user arranges the positions of the images manually so as to overlap the overlapping parts of the images in each pair of adjacent images. SOLUTION: This image compositing device is provided with a first means for arranging the positions of the adjacent images manually so as to overlap the overlapping parts of the images in each pair of adjacent images selected out of a plurality of images arranged two-dimensionally on a monitor screen, and a second means for combining the whole images on the basis of results of arranging the positions of the images on the first means. The first means is provided with a means for displaying two images constituting a pair of adjacent images on the monitor screen, a means for displaying the relative positional relation of the two images on the monitor screen in a pattern, and a means for moving one of the two images so as to overlap the overlapping parts of the two images displayed on the monitor screen.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、たとえば、複数
の顕微鏡画像から、各画像を自動的に接合し、高解像度
かつ広視野の合成画像を獲得するための、画像合成装
置、画像合成方法、画像合成プログラムを記録したコン
ピュータ読み取り可能な記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to, for example, an image synthesizing apparatus, an image synthesizing method for automatically synthesizing images from a plurality of microscope images to obtain a high-resolution and wide-field synthetic image. The present invention relates to a computer-readable recording medium recording an image composition program.

【0002】[0002]

【従来の技術】〔1〕従来のオプティカルフローの算出
方法についての説明
2. Description of the Related Art [1] Description of conventional optical flow calculation method

【0003】2枚の画像からオプティカルフローを計算
し、得られたオプティカルフローに基づいて、2枚の画
像間での位置合わせを行う技術が知られている。従来の
オプテカルフローの算出方法について説明する。
A technique is known in which an optical flow is calculated from two images and the alignment between the two images is performed based on the obtained optical flow. A conventional optical flow calculation method will be described.

【0004】(1)Lucas-Kanade法 従来から、動画像における運動物体の見かけの速度場
(オプティカルフロー)を計算する手法が数多く提案さ
れている。中でも局所勾配法であるLucas-Kanade法は、
最も良い手法の一つである。その理由は、処理が高速、
実装が容易、結果が信頼度を持つことである。
(1) Lucas-Kanade method A number of methods have conventionally been proposed for calculating the apparent velocity field (optical flow) of a moving object in a moving image. Among them, the Lucas-Kanade method, which is a local gradient method,
This is one of the best methods. The reason is that processing is fast,
It is easy to implement and the result is reliable.

【0005】Lucas-Kanade法の詳細については、文献:
B.Lucas and T.Kanade,"An Iterative Image Registra
tion Technique with an Application to Stereo Visio
n,"In Seventh International Joint Conference on Ar
tificial Intelligence(IJCAI-81), pp. 674-979, 1981
を参照のこと。
For details of the Lucas-Kanade method, see the literature:
B. Lucas and T. Kanade, "An Iterative Image Registra
tion Technique with an Application to Stereo Visio
n, "In Seventh International Joint Conference on Ar
tificial Intelligence (IJCAI-81), pp. 674-979, 1981
checking ...

【0006】以下に、Lucas-Kanade法の概要を述べる。
ある時刻tの画像座標p=(x,y)の濃淡パターンI
(x,y,t)が、ある微小時間後(δt)に座標(x
+δx,y+δy)に、その濃淡分布を一定に保ったま
ま移動した時、次のオプティカルフロー拘束式1が成り
立つ。
The outline of the Lucas-Kanade method will be described below.
Grayscale pattern I at image coordinate p = (x, y) at a certain time t
(X, y, t) has a coordinate (x
+ Δx, y + δy), the following optical flow constraint equation 1 holds when the grayscale distribution is moved while being kept constant.

【0007】[0007]

【数1】 [Equation 1]

【0008】2次元画像でオプティカルフロー{v=
(δx/δt,δy/δt)=(u,v)}を計算する
には、未知パラメータ数が2個であるので、もう一個拘
束式が必要である。Lucas とKanade( 金出) は、同一物
体の局所領域では、同一のオプティカルフローを持つと
仮定した。
Optical flow {v =
In order to calculate (δx / δt, δy / δt) = (u, v)}, since there are two unknown parameters, another constraint equation is necessary. Lucas and Kanade hypothesized that local regions of the same object would have the same optical flow.

【0009】例えば、画像上の局所領域ω内で、オプテ
ィカルフローが一定であるとすると、最小化したい濃淡
パターンの二乗誤差Eは、 I0 (p)=I(x,y,t), I1 (p+v)=I(x+u,y+v,t+δt) と書き改めると、次式2で定義できる。
For example, if the optical flow is constant in the local area ω on the image, the square error E of the grayscale pattern to be minimized is I 0 (p) = I (x, y, t), I If rewritten as 1 (p + v) = I (x + u, y + v, t + δt), it can be defined by the following expression 2.

【0010】[0010]

【数2】 [Equation 2]

【0011】ここで、vが微少な場合には、テーラー展
開の2次以上の項を無視できるので、次式3の関係が成
り立つ。
Here, when v is very small, terms of the second or higher order of the Taylor expansion can be ignored, so that the relation of the following expression 3 is established.

【0012】[0012]

【数3】 [Equation 3]

【0013】ここで、g(p)は、I1 (p)の一次微
分である。
Here, g (p) is the first derivative of I 1 (p).

【0014】誤差Eが最小になるのは、Eのvに対する
微分値が0の時であるので、次式4の関係が成り立つ。
The error E is minimized when the differential value of E with respect to v is 0, and therefore the relation of the following equation 4 is established.

【0015】[0015]

【数4】 [Equation 4]

【0016】故にオプティカルフローvは次式5で求め
られる。
Therefore, the optical flow v is calculated by the following equation 5.

【0017】[0017]

【数5】 [Equation 5]

【0018】更に、次式6に示すように、ニュートン・
ラフソン的な反復演算によって精度良く求めることがで
きる。
Further, as shown in the following equation 6, Newton ·
It can be obtained accurately by Rafson-like iterative calculation.

【0019】[0019]

【数6】 [Equation 6]

【0020】(2)階層的推定法 Lucas-Kanade法を含む勾配法の最も大きな問題点は、良
好な初期値が必要なために、大きな動きに対しては適用
できないことである。そこで、従来からピラミッド階層
構造型に数段回の解像度の異なる画像を作成して解決す
る方法が提案されている。
(2) Hierarchical estimation method The biggest problem of the gradient method including the Lucas-Kanade method is that it cannot be applied to a large motion because a good initial value is required. Therefore, conventionally, there has been proposed a method in which images having different resolutions are created several times in a pyramid hierarchical structure type.

【0021】これは、まず、2枚の連続した画像から、
予めそれぞれの画像の数段階の解像度の異なる画像を作
成する。次に、最も解像度の低い画像間において、おお
まかなオプティカルフローを計算する。そして、この結
果を参考にして、一段解像度の高い画像間においてより
精密なオプティカルフローを計算する。この処理を最も
解像度の高い画像間まで順次繰り返す。
First, from two consecutive images,
Images having different resolutions of several levels are created in advance. Next, a rough optical flow is calculated between the images with the lowest resolution. Then, referring to this result, a more accurate optical flow is calculated between the images with higher resolution. This process is sequentially repeated until the images with the highest resolution.

【0022】図4は原画像を、図3は図4の原画像より
解像度の低い画像を、図2は図3の低解像度画像より解
像度の低い画像を、図1は図2の低解像度画像より解像
度の低い画像を、それぞれ示している。図1〜図4にお
いて、Sは、1つのパッチを示している。
4 is an original image, FIG. 3 is an image having a lower resolution than the original image of FIG. 4, FIG. 2 is an image having a lower resolution than the low resolution image of FIG. 3, and FIG. 1 is a low resolution image of FIG. The lower resolution images are shown respectively. 1 to 4, S indicates one patch.

【0023】図1の画像(階層1の画像)、図2の画像
(階層2の画像)、図3の画像(階層3の画像)および
図4の画像(階層4の画像)の順番で段階的にオプティ
カルフローが求められる。図1〜図4において矢印は、
パッチ毎に求められたオプティカルフローベクトルを示
している。
The image of FIG. 1 (image of layer 1), the image of FIG. 2 (image of layer 2), the image of FIG. 3 (image of layer 3) and the image of FIG. 4 (image of layer 4) are staged in this order. Optical flow is required. 1 to 4, the arrow indicates
The optical flow vector obtained for each patch is shown.

【0024】しかしながら、ここでの問題点は、実画像
では、十分な模様(テクスチャ)を含む領域が少なく、
信頼性のあるオプティカルフローが得られないことにあ
る。
However, the problem here is that in the actual image, there are few areas including a sufficient pattern (texture),
There is no reliable optical flow.

【0025】〔2〕本出願人が開発したオプティカルフ
ロー算出方法についての説明。
[2] Description of optical flow calculation method developed by the applicant.

【0026】本出願人が開発したオプティカルフロー算
出方法は、ピラミッド階層型に数段回の解像度の異なる
画像を作成して、オプティカルフローを段階的に計算す
る階層的推定を前提としている。オプティカルフローの
計算方法は、Lucas-Kanade法等の勾配法に従う。つま
り、階層構造化した勾配法によるオプティカルフロー推
定法を前提としている。ここでは、勾配法としてLucas-
Kanade法が用いられている。
The optical flow calculation method developed by the present applicant is premised on hierarchical estimation in which an image having different resolutions of several stages is created in a pyramid hierarchical form and the optical flow is calculated stepwise. The optical flow calculation method follows a gradient method such as the Lucas-Kanade method. In other words, it is premised on the optical flow estimation method by the hierarchical gradient method. Here, Lucas- is used as the gradient method.
The Kanade method is used.

【0027】本出願人が開発したオプティカルフロー推
定方法の特徴は、階層構造化したLucas-Kanade法による
オプティカルフロー推定法の各段階において得られたオ
プティカルフローを、膨張処理によって補完することに
ある。以下、これについて詳しく説明する。
A feature of the optical flow estimation method developed by the present applicant is that the optical flow obtained at each stage of the optical flow estimation method by the hierarchically structured Lucas-Kanade method is complemented by dilation processing. Hereinafter, this will be described in detail.

【0028】Lucas-Kanade法の長所の一つは、追跡結果
が信頼性を持つことである。Tomasiと Kanade とは、あ
る領域の追跡可能性が、以下のように微分画像から算出
できることを示した(C.Tomasi and T.Kanade,"Shape an
d Motion from Image Streams: a Factorization metho
d-Part 3 Detection and Tracking of Point Features
,"CMU-CS-91-132, Carnegie Mellon University, 199
1.) 。
One of the advantages of the Lucas-Kanade method is that the tracking result is reliable. Tomasi and Kanade showed that the traceability of a region can be calculated from differential images as follows (C. Tomasi and T. Kanade, "Shape an
d Motion from Image Streams: a Factorization metho
d-Part 3 Detection and Tracking of Point Features
, "CMU-CS-91-132, Carnegie Mellon University, 199
1.).

【0029】ある領域画像ωの垂直・水平方向の微分の
2乗を要素に持つ次式7の2×2の係数行列Gから、そ
の固有値を計算することで、その領域の追跡可能性を決
定することができる。
The traceability of a certain area image ω is determined by calculating its eigenvalue from the 2 × 2 coefficient matrix G of the following equation 7 having squared differentials in the vertical and horizontal directions as elements. can do.

【0030】[0030]

【数7】 [Equation 7]

【0031】この行列Gの固有値が両方とも大きい場合
には、その領域は直交方向に変化を持ち、一意の位置決
めが可能である。従って、小さい方の固有値λmin と、
追跡後の領域間の濃淡残差Eから、追跡結果の信頼度γ
を次式8によって得ることができる。
When the eigenvalues of the matrix G are both large, the region has a change in the orthogonal direction and unique positioning is possible. Therefore, the smaller eigenvalue λ min and
From the grayscale residual E between regions after tracking, the reliability γ of the tracking result
Can be obtained by the following equation 8.

【0032】[0032]

【数8】 [Equation 8]

【0033】本発明者らは、オプティカルフローの同一
階層内で信頼度の高い結果を用いて、信頼度の低い領域
を補間する方法を開発した。これは、一段階粗い階層で
の結果を、追跡の初期値だけに用いて、着目している現
段階の階層の結果には何も利用しない。代わりに、テク
スチャの少ない領域のオプティカルフローはその周囲の
オプティカルフローに近い値を持つと仮定し、モルフォ
ロジー処理によりフロー場を補完するものである。
The present inventors have developed a method of interpolating a region of low reliability by using the result of high reliability within the same hierarchy of optical flow. This uses the result of the one-level coarse layer only for the initial value of the tracking, and does not use anything for the result of the current stage layer of interest. Instead, it is assumed that the optical flow in the region with few textures has a value close to the optical flow around it, and complements the flow field by morphological processing.

【0034】図5にフローベクトルの膨張処理の様子を
示す。
FIG. 5 shows the flow vector expansion processing.

【0035】左図は、フローベクトルの信頼度のマップ
を濃淡で表したものである。ここで、黒ければ黒い程信
頼度が高いとする。
The left figure shows the map of the reliability of the flow vector in shades. Here, the darker the black, the higher the reliability.

【0036】まず、得られたフローをしきい値処理す
る。白い部分は、結果の信頼度が低いために、しきい値
処理されたものである。
First, the obtained flow is thresholded. The white areas are thresholded because the results are less reliable.

【0037】次に、2値画像でのモルフォロジー演算に
よる穴埋め処理を模して、フロー場において結果の膨張
処理を次のように行う。ある領域i,jのフローベクト
ルu(i,j)は、その4近傍のフローベクトルから信
頼度γに応じて重み付けを行って次式9のように計算で
きる。
Next, the expansion processing of the result is performed in the flow field as follows, simulating the filling processing by the morphological operation on the binary image. The flow vector u (i, j) of a certain region i, j can be calculated as in the following Expression 9 by weighting the flow vectors of the four neighborhoods according to the reliability γ.

【0038】[0038]

【数9】 [Equation 9]

【0039】この処理を、しきい値処理されたすべての
信頼度の低い領域が埋まるまで、繰り返す。この補完処
理を、各階層において行う。なお、ある領域i,jのフ
ローベクトルu(i,j)を、その8近傍のフローベク
トルから信頼度γに応じて重み付けを行って算出するよ
うにしてもよい。
This process is repeated until all thresholded low reliability regions are filled. This complementing process is performed in each layer. Note that the flow vector u (i, j) of a certain region i, j may be calculated by weighting the flow vectors in the eight neighborhoods according to the reliability γ.

【0040】図6(a)は、ある階層の画像に対してし
きい値処理されたオプティカルフローを示し、図6
(b)は補完後のオプティカルフローを示している。図
6(a)において、矢印はしきい値処理によって信頼度
が高いと判定されたオプティカルフローベクトルであ
り、×印は信頼度が低いとされた部分を示している。
FIG. 6A shows an optical flow thresholded for an image of a certain layer.
(B) shows the optical flow after the complement. In FIG. 6A, an arrow indicates an optical flow vector whose reliability is determined to be high by the threshold processing, and a cross indicates a portion whose reliability is low.

【0041】〔3〕画像の合成技術についての説明[3] Description of Image Synthesis Technology

【0042】本出願人は、複数枚の撮像画像を、画像間
の幾何変換係数を算出し、算出した幾何変換係数に基づ
いて合成する技術(画像合成ソフト)を開発している。
The applicant of the present invention has developed a technique (image synthesis software) for calculating a geometric conversion coefficient between images for a plurality of picked-up images and synthesizing them based on the calculated geometric conversion coefficient.

【0043】ところで、本出願人が開発した画像合成ソ
フトでは、2次元配列状に撮像した複数の画像を連結し
て1枚の合成画像を生成する場合、まず、複数枚の撮影
画像をそれらの配置位置が実際の相対位置関係と合致す
るように、モニタ画面上に2次元配置させる。この配置
位置情報(画像間の相対位置関係)を利用して、画像の
重なり部を抽出すべき隣接画像ペアを決定し、各隣接画
像毎に画像の重なり部を抽出する。各隣接画像毎に抽出
した画像の重なり部を利用して、各隣接画像毎に、特徴
点の対応付けを行なう。各隣接画像毎に対応付けられた
特徴点を利用して、各隣接画像毎に幾何変換係数を算出
し、各隣接画像毎に算出された幾何変換係数を利用して
全画像を合成する。
By the way, in the image synthesizing software developed by the present applicant, when a plurality of images photographed in a two-dimensional array are concatenated to generate one synthetic image, first, a plurality of photographed images are Two-dimensional arrangement is performed on the monitor screen so that the arrangement position matches the actual relative positional relationship. By using this arrangement position information (relative positional relationship between images), the adjacent image pair from which the overlapping portion of the image should be extracted is determined, and the overlapping portion of the image is extracted for each adjacent image. The feature points are associated with each adjacent image using the overlapping portion of the images extracted for each adjacent image. Using the feature points associated with each adjacent image, the geometric conversion coefficient is calculated for each adjacent image, and all the images are combined using the geometric conversion coefficient calculated for each adjacent image.

【0044】画像の重なり部の抽出を行なうモードとし
ては、自動的に行なうモードと手動で行なうモードとが
用意されている。画像の重なり部を手動で抽出する場合
には、隣接画像ペアを構成する2つの画像をモニタ画面
上に半透明で表示し、モニタ画面上に表示された2つの
画像の重なり部が重なるように、一方の画像をユーザに
よって移動させるようにしている。つまり、両画像を重
なり部が重なるように、ユーザに手動で位置合わせさせ
ている。
As a mode for extracting the overlapping portion of the images, an automatic mode and a manual mode are prepared. When manually extracting the overlapping portion of the images, the two images forming the adjacent image pair are displayed semitransparently on the monitor screen so that the overlapping portions of the two images displayed on the monitor screen overlap. One of the images is moved by the user. That is, the two images are manually aligned by the user so that the overlapping portions overlap.

【0045】しかしながら、モニタ画面上に表示された
隣接画像ペアの相対位置関係は、上下方向、左右方向、
斜め方向というように様々であるが、ユーザは隣接画像
ペアの相対位置関係を把握しにくいため、位置合わせの
作業効率が悪いという問題がある。
However, the relative positional relationship between the adjacent image pairs displayed on the monitor screen is as follows.
Although there are various directions such as the diagonal direction, it is difficult for the user to grasp the relative positional relationship between the adjacent image pairs, so that there is a problem that the work efficiency of alignment is poor.

【0046】また、特徴点の対応付けを行なうモードと
しても、自動的に行なうモードと手動で行なうモードと
が用意されている。特徴点の対応付けを手動で行なう場
合には、隣接画像ペアを構成する2つの画像をモニタ画
面上に表示し、モニタ画面上に表示された2つの画像上
において両画像間で対応する特徴点をユーザによって設
定させるようにしている。
Also, as modes for associating feature points, there are prepared an automatic mode and a manual mode. When the feature points are associated manually, two images forming an adjacent image pair are displayed on the monitor screen, and the feature points corresponding to the two images are displayed on the two images displayed on the monitor screen. Is set by the user.

【0047】この場合にも、ユーザは隣接画像ペアの相
対位置関係を把握しにくいため、特徴点を対応付けるた
めの作業効率が悪いという問題がある。
In this case as well, it is difficult for the user to grasp the relative positional relationship between adjacent image pairs, and there is the problem that the work efficiency for associating the feature points is poor.

【0048】ところで、モニタ画面上に2次元配置され
た複数枚の画像から、画像の重なり部を抽出すべき隣接
画像ペアを決定する際には、2次元配置された複数枚の
画像を、隣接画像間で重なりがあるように1次元配列す
る必要がある。
By the way, when determining an adjacent image pair from which an overlapping portion of images is to be extracted from a plurality of two-dimensionally arranged images on the monitor screen, the plurality of two-dimensionally arranged images are adjacent to each other. It is necessary to make a one-dimensional array so that there is overlap between the images.

【0049】2次元配置された複数枚の画像を1次元配
列するための方法としては、2次元配列パターン毎に、
2次元配置された複数枚の画像を1次元配列するための
順番を予め決めておくことが考えられるが、モニタ画面
上に画像を2次元配置した結果、中央部に画像が存在し
ないような場合には、この方法では隣接画像間で重なり
があるように1次元配列することができないという問題
がある。
A method for one-dimensionally arranging a plurality of two-dimensionally arranged images is as follows:
It may be possible to predetermine the order for arranging a plurality of two-dimensionally arranged images in a one-dimensional arrangement. However, as a result of two-dimensional arrangement of images on the monitor screen, there is no image in the center. However, this method has a problem in that it is not possible to perform a one-dimensional array so that there is an overlap between adjacent images.

【0050】[0050]

【発明が解決しようとする課題】この発明は、隣接画像
ペア毎にそれらの画像の重なり部が重なるように、ユー
ザに手動で位置合わせを行なわせる場合において、位置
合わせを行なうための作業効率の向上化が図れる画像合
成装置、画像合成方法および画像合成処理プログラムを
記録したコンピュータ読み取り可能な記録媒体を提供す
ることを目的とする。
SUMMARY OF THE INVENTION According to the present invention, in the case where the user manually positions the adjacent image pairs so that the overlapping portions of the images overlap each other, the work efficiency for the positioning is improved. An object of the present invention is to provide an image synthesizing device, an image synthesizing method, and a computer-readable recording medium in which an image synthesizing processing program is recorded, which can be improved.

【0051】この発明は、隣接画像ペア毎にそれらの特
徴点の対応付けをユーザに手動で行なわせる場合におい
て、特徴点を対応付けるための作業効率の向上化が図れ
る画像合成装置、画像合成方法および画像合成処理プロ
グラムを記録したコンピュータ読み取り可能な記録媒体
を提供することを目的とする。
According to the present invention, an image synthesizing apparatus, an image synthesizing method, and an image synthesizing method capable of improving the work efficiency for associating feature points when the user manually associates the feature points for each pair of adjacent images. An object of the present invention is to provide a computer-readable recording medium recording an image composition processing program.

【0052】この発明は、モニタ画面上に画像を2次元
配置した結果、中央部に画像が存在しないような場合に
も、2次元配列した複数枚の画像を、隣接画像間で重な
りがあるように、1次元配列することができる画像合成
装置、画像合成方法および画像合成処理プログラムを記
録したコンピュータ読み取り可能な記録媒体を提供する
ことを目的とする。
According to the present invention, a plurality of two-dimensionally arranged images may overlap each other even when no images exist in the central portion as a result of the two-dimensional arrangement of the images on the monitor screen. Another object of the present invention is to provide a computer-readable recording medium in which an image synthesizing device, an image synthesizing method, and an image synthesizing processing program capable of one-dimensional arrangement are recorded.

【0053】[0053]

【課題を解決するための手段】この発明による第1の画
像合成装置は、合成すべき複数枚の画像を、それらの配
置位置が実際の相対位置関係と合致するように、モニタ
画面上に2次元配置させ、各画像の配置位置情報を利用
して、全画像を合成する画像合成装置において、モニタ
画面上に2次元配置された複数枚の画像から選択された
隣接画像ペア毎に、それらの画像の重なり部が重なるよ
うに、ユーザに手動で位置合わせを行なわせるための第
1手段、および第1手段による位置合わせ結果に基づい
て、全画像を合成する第2手段を備えており、第1手段
は、隣接画像ペアを構成する2つの画像をモニタ画面上
に表示する手段、上記2つの画像の相対位置関係をモニ
タ画面上に図柄表示する手段、およびモニタ画面上に表
示された2つの画像の重なり部が重なるように、一方の
画像をユーザによって移動させるための手段を備えてい
ることを特徴とする。
A first image synthesizing apparatus according to the present invention displays a plurality of images to be synthesized on a monitor screen so that the arrangement positions of the images match the actual relative positional relationship. In an image synthesizing device for synthesizing all images by arranging the images in two dimensions and using the arrangement position information of each image, for each adjacent image pair selected from a plurality of two-dimensionally arranged images on the monitor screen, A first means for allowing the user to manually perform the alignment so that the overlapping portions of the images overlap, and a second means for synthesizing all the images based on the alignment result by the first means are provided. One means is a means for displaying two images forming an adjacent image pair on a monitor screen, a means for displaying a relative positional relationship between the two images on the monitor screen, and two means displayed on the monitor screen. Picture As the overlapping portion of the overlap, characterized in that it comprises means for moving one of the images by the user.

【0054】この発明による第2の画像合成装置は、合
成すべき複数枚の画像を、それらの配置位置が実際の相
対位置関係と合致するように、モニタ画面上に2次元配
置させ、各画像の配置位置情報を利用して、全画像を合
成する画像合成装置において、モニタ画面上に2次元配
置された複数枚の画像から選択された隣接画像ペア毎
に、それらの特徴点の対応付けをユーザに手動で行なわ
せるための第1手段、および第1手段によって各隣接画
像ペア毎に対応付けられた特徴点を利用して、全画像を
合成する第2手段を備えており、第1手段は、隣接画像
ペアを構成する2つの画像をモニタ画面上に表示する手
段、上記2つの画像の相対位置関係をモニタ画面上に図
柄表示する手段、およびモニタ画面上に表示された2つ
の画像上において両画像間で対応する特徴点をユーザに
よって設定させるための手段を備えていることを特徴と
する。
The second image synthesizing apparatus according to the present invention arranges a plurality of images to be synthesized two-dimensionally on the monitor screen so that their arrangement positions match the actual relative positional relationship, and the respective images are arranged. In the image synthesizing device for synthesizing all the images by using the arrangement position information of the above, the feature points are associated with each other for each adjacent image pair selected from the plurality of images two-dimensionally arranged on the monitor screen. The first means for allowing the user to manually perform the operation and the second means for synthesizing all the images by using the feature points associated with each adjacent image pair by the first means are provided. Is a means for displaying two images forming a pair of adjacent images on a monitor screen, a means for displaying a relative positional relationship between the two images on the monitor screen, and two images displayed on the monitor screen. At both Characterized in that it comprises means for setting by the user of the feature points corresponding between images.

【0055】上記第1または第2の画像合成装置におい
て、2つの画像の相対位置関係をモニタ画面上に図柄表
示する手段としては、たとえば、上下方向を表す図柄、
左右方向を表す図柄、左下と右上を結ぶ斜め方向を表す
図柄および左上と右下を結ぶ斜め方向を表す図柄の4種
類から、当該2つの画像の相対位置関係に対応する図柄
をモニタ画面上に表示するものが用いられる。
In the above-mentioned first or second image synthesizing device, as a means for displaying the relative positional relationship between two images on the monitor screen, for example, a symbol representing the vertical direction,
From the four types of symbols representing the left-right direction, symbols representing the diagonal direction connecting the lower left and upper right, and symbols representing the diagonal direction connecting the upper left and lower right, the symbol corresponding to the relative positional relationship between the two images is displayed on the monitor screen. What is displayed is used.

【0056】この発明による第1の画像合成方法は、合
成すべき複数枚の画像を、それらの配置位置が実際の相
対位置関係と合致するように、モニタ画面上に2次元配
置させ、各画像の配置位置情報を利用して、全画像を合
成する画像合成方法において、モニタ画面上に2次元配
置された複数枚の画像から選択された隣接画像ペア毎
に、それらの画像の重なり部が重なるように、ユーザに
手動で位置合わせを行なわせる第1ステップ、および第
1ステップによる位置合わせ結果に基づいて、全画像を
合成する第2ステップを備えており、第1ステップは、
隣接画像ペアを構成する2つの画像をモニタ画面上に表
示するステップ、上記2つの画像の相対位置関係をモニ
タ画面上に図柄表示するステップ、およびモニタ画面上
に表示された2つの画像の重なり部が重なるように、一
方の画像をユーザによって移動させるステップを備えて
いることを特徴とする。
According to the first image synthesizing method of the present invention, a plurality of images to be synthesized are two-dimensionally arranged on the monitor screen so that their arrangement positions match the actual relative positional relationship, and each image is arranged. In the image synthesizing method for synthesizing all the images by using the arrangement position information of the above, the overlapping portions of the images are overlapped for each adjacent image pair selected from the plurality of images two-dimensionally arranged on the monitor screen. As described above, the first step for allowing the user to manually perform the alignment, and the second step for synthesizing all the images based on the alignment result by the first step are provided.
A step of displaying two images forming an adjacent image pair on a monitor screen, a step of displaying a relative positional relationship between the two images on the monitor screen as a pattern, and an overlapping portion of the two images displayed on the monitor screen. And a step of moving one image by the user so that the two overlap.

【0057】この発明による第2の画像合成方法は、合
成すべき複数枚の画像を、それらの配置位置が実際の相
対位置関係と合致するように、モニタ画面上に2次元配
置させ、各画像の配置位置情報を利用して、全画像を合
成する画像合成方法において、モニタ画面上に2次元配
置された複数枚の画像から選択された隣接画像ペア毎
に、それらの特徴点の対応付けをユーザに手動で行なわ
せる第1ステップ、および第1ステップによって各隣接
画像ペア毎に対応付けられた特徴点を利用して、全画像
を合成する第2ステップを備えており、第1ステップ
は、隣接画像ペアを構成する2つの画像をモニタ画面上
に表示するステップ、上記2つの画像の相対位置関係を
モニタ画面上に図柄表示するステップ、およびモニタ画
面上に表示された2つの画像上において両画像間で対応
する特徴点をユーザによって設定させるステップを備え
ていることを特徴とする。
In the second image synthesizing method according to the present invention, a plurality of images to be synthesized are two-dimensionally arranged on the monitor screen so that their arrangement positions match the actual relative positional relationship. In the image synthesizing method of synthesizing all the images by using the arrangement position information of, the feature points are associated with each other for each adjacent image pair selected from a plurality of images two-dimensionally arranged on the monitor screen. The method includes a first step to be manually performed by a user, and a second step of synthesizing all images by using feature points associated with each adjacent image pair by the first step. The step of displaying two images forming the adjacent image pair on the monitor screen, the step of displaying the relative positional relationship of the two images on the monitor screen as a pattern, and the two images displayed on the monitor screen. Characterized in that it comprises the step of setting the corresponding feature points between the two images on the image by the user.

【0058】上記第1または第2の画像合成方法におい
て、2つの画像の相対位置関係をモニタ画面上に図柄表
示するステップとしては、たとえば、上下方向を表す図
柄、左右方向を表す図柄、左下と右上を結ぶ斜め方向を
表す図柄および左上と右下を結ぶ斜め方向を表す図柄の
4種類から、当該2つの画像の相対位置関係に対応する
図柄をモニタ画面上に表示するものが用いられる。
In the first or second image synthesizing method, the step of displaying the relative positional relationship between the two images on the monitor screen is, for example, a symbol indicating the vertical direction, a symbol indicating the horizontal direction, and a lower left corner. From the four types of symbols representing the diagonal direction connecting the upper right and the symbols representing the diagonal direction connecting the upper left and the lower right, the one that displays the symbol corresponding to the relative positional relationship between the two images on the monitor screen is used.

【0059】この発明による第1のコンピュータ読み取
り可能な記録媒体は、合成すべき複数枚の画像を、それ
らの配置位置が実際の相対位置関係と合致するように、
モニタ画面上に2次元配置させ、各画像の配置位置情報
を利用して、全画像を合成する画像合成処理プログラム
を記録したコンピュータ読み取り可能な記録媒体であっ
て、モニタ画面上に2次元配置された複数枚の画像から
選択された隣接画像ペア毎に、それらの画像の重なり部
が重なるように、ユーザに手動で位置合わせを行なわせ
る第1ステップ、および第1ステップによる位置合わせ
結果に基づいて、全画像を合成する第2ステップを、コ
ンピュータに実行させるためのプログラムを記録してお
り、第1ステップは、隣接画像ペアを構成する2つの画
像をモニタ画面上に表示するステップ、上記2つの画像
の相対位置関係をモニタ画面上に図柄表示するステッ
プ、およびモニタ画面上に表示された2つの画像の重な
り部が重なるように、一方の画像をユーザによって移動
させるステップを備えていることを特徴とする。
The first computer-readable recording medium according to the present invention makes it possible to arrange a plurality of images to be combined so that their arrangement positions match the actual relative positional relationship.
A computer-readable recording medium in which an image composition processing program for arranging two-dimensionally on a monitor screen and synthesizing all images using the arrangement position information of each image is recorded, and is arranged two-dimensionally on the monitor screen. For each adjacent image pair selected from the plurality of images, based on the first step of allowing the user to manually perform the alignment so that the overlapping portions of the images overlap, and the alignment result of the first step. , A program for causing a computer to execute the second step of combining all images, the first step is a step of displaying two images forming an adjacent image pair on a monitor screen, and the above two steps. The step of displaying the relative positional relationship of the images on the monitor screen as a pattern, and the overlapping portion of the two images displayed on the monitor screen so as to overlap each other. Characterized in that it comprises a step of moving one of the images by the user.

【0060】この発明による第2のコンピュータ読み取
り可能な記録媒体は、合成すべき複数枚の画像を、それ
らの配置位置が実際の相対位置関係と合致するように、
モニタ画面上に2次元配置させ、各画像の配置位置情報
を利用して、全画像を合成する画像合成処理プログラム
を記録したコンピュータ読み取り可能な記録媒体であっ
て、モニタ画面上に2次元配置された複数枚の画像から
選択された隣接画像ペア毎に、それらの特徴点の対応付
けをユーザに手動で行なわせる第1ステップ、および第
1ステップによって各隣接画像ペア毎に対応付けられた
特徴点を利用して、全画像を合成する第2ステップを、
コンピュータに実行させるためのプログラムを記録して
おり、第1ステップは、隣接画像ペアを構成する2つの
画像をモニタ画面上に表示するステップ、上記2つの画
像の相対位置関係をモニタ画面上に図柄表示するステッ
プ、およびモニタ画面上に表示された2つの画像上にお
いて両画像間で対応する特徴点をユーザによって設定さ
せるステップを備えていることを特徴とする。
The second computer-readable recording medium according to the present invention makes it possible to arrange a plurality of images to be combined so that their arrangement positions match the actual relative positional relationship.
A computer-readable recording medium in which an image composition processing program for arranging two-dimensionally on a monitor screen and synthesizing all images using the arrangement position information of each image is recorded, and is arranged two-dimensionally on the monitor screen. For each adjacent image pair selected from the plurality of images, the first step of allowing the user to manually associate the feature points with each other, and the feature points associated with each adjacent image pair by the first step. The second step of combining all images using
A program to be executed by a computer is recorded, and the first step is a step of displaying two images forming an adjacent image pair on a monitor screen, and a relative positional relationship between the two images on the monitor screen. The method is characterized by including a step of displaying and a step of allowing a user to set corresponding feature points between the two images on the two images displayed on the monitor screen.

【0061】上記第1または第2のコンピュータ読み取
り可能な記録媒体において、2つの画像の相対位置関係
をモニタ画面上に図柄表示するステップとしては、たと
えば、上下方向を表す図柄、左右方向を表す図柄、左下
と右上を結ぶ斜め方向を表す図柄および左上と右下を結
ぶ斜め方向を表す図柄の4種類から、当該2つの画像の
相対位置関係に対応する図柄をモニタ画面上に表示する
ものが用いられる。
In the first or second computer-readable recording medium, the step of displaying the relative positional relationship between the two images as a symbol on the monitor screen is, for example, a symbol indicating the vertical direction and a symbol indicating the horizontal direction. , 4 types of a symbol representing the diagonal direction connecting the lower left and the upper right and a symbol representing the diagonal direction connecting the upper left and the lower right are used to display the symbol corresponding to the relative positional relationship between the two images on the monitor screen. To be

【0062】この発明の第3の画像合成装置は、合成す
べき複数枚の画像を、それらの配置位置が実際の相対位
置関係と合致するように、モニタ画面上に2次元配置さ
せ、各画像の配置位置情報を利用して、全画像を合成す
る画像合成装置において、モニタ画面上に2次元配置さ
れた複数枚の画像を隣接画像間で重なりがあるように1
次元配列する第1手段、および1次元配列された画像の
各隣接画像ペア毎に重なり部を抽出し、各隣接画像ペア
毎に抽出した重なり部に基づいて、全画像を合成する第
2手段を備えており、第1手段は、モニタ画面上に2次
元配置された複数枚の画像から1次元配列の先頭画像と
して選択された画像を注目画像とし、各画像が隙間なく
配置されていると仮定した場合において、未だ選択され
ていない画像のうち注目画像との中心点間距離が最も短
い画像を注目画像の次に配列すべき画像として選択し、
選択した画像を注目画像として同様な処理を繰り返すこ
とにより、全画像を1次元配列させるものであることを
特徴とする。
The third image synthesizing device of the present invention arranges a plurality of images to be synthesized two-dimensionally on the monitor screen so that their arrangement positions match the actual relative positional relationship, and the respective images are arranged. In the image synthesizing apparatus for synthesizing all the images by using the arrangement position information of 1), the plurality of images two-dimensionally arranged on the monitor screen may be overlapped between the adjacent images.
A first means for dimensionally arranging, and a second means for synthesizing all images based on the overlapped portion extracted for each adjacent image pair for each adjacent image pair of the one-dimensionally arranged images. The first means includes the image selected as the leading image of the one-dimensional array from the plurality of two-dimensionally arranged images on the monitor screen as the target image, and it is assumed that each image is arranged without gaps. In this case, among the images that have not been selected yet, the image with the shortest center-point distance to the target image is selected as the image to be arranged next to the target image,
All the images are arranged one-dimensionally by repeating the same process with the selected image as the image of interest.

【0063】この発明の第3の画像合成方法は、合成す
べき複数枚の画像を、それらの配置位置が実際の相対位
置関係と合致するように、モニタ画面上に2次元配置さ
せ、各画像の配置位置情報を利用して、全画像を合成す
る画像合成方法において、モニタ画面上に2次元配置さ
れた複数枚の画像を隣接画像間で重なりがあるように1
次元配列する第1ステップ、および1次元配列された画
像の各隣接画像ペア毎に重なり部を抽出し、各隣接画像
ペア毎に抽出した重なり部に基づいて、全画像を合成す
る第2ステップを備えており、第1ステップは、モニタ
画面上に2次元配置された複数枚の画像から1次元配列
の先頭画像として選択された画像を注目画像とし、各画
像が隙間なく配置されていると仮定した場合において、
未だ選択されていない画像のうち注目画像との中心点間
距離が最も短い画像を注目画像の次に配列すべき画像と
して選択し、選択した画像を注目画像として同様な処理
を繰り返すことにより、全画像を1次元配列させるもの
であることを特徴とする。
According to the third image synthesizing method of the present invention, a plurality of images to be synthesized are two-dimensionally arranged on the monitor screen so that their arrangement positions match the actual relative positional relationship. In the image synthesizing method of synthesizing all images by using the arrangement position information of 1), it is possible that a plurality of images two-dimensionally arranged on the monitor screen are overlapped between adjacent images.
A first step of dimensionally arranging, and a second step of extracting an overlapping part for each adjacent image pair of the one-dimensionally arranged images and synthesizing all images based on the overlapping part extracted for each adjacent image pair. In the first step, the image selected as the first image of the one-dimensional array from the plurality of two-dimensionally arranged images on the monitor screen is set as the image of interest, and it is assumed that each image is arranged without gaps. In case of
By selecting the image that has the shortest center-to-center distance from the target image among the images that have not been selected yet as the image to be arranged next to the target image, and repeating the same processing using the selected image as the target image, It is characterized in that the images are arranged one-dimensionally.

【0064】この発明の第3のコンピュータ読み取り可
能な記録媒体は、合成すべき複数枚の画像を、それらの
配置位置が実際の相対位置関係と合致するように、モニ
タ画面上に2次元配置させ、各画像の配置位置情報を利
用して、全画像を合成する画像合成処理プログラムを記
録したコンピュータ読み取り可能な記録媒体であって、
モニタ画面上に2次元配置された複数枚の画像を隣接画
像間で重なりがあるように1次元配列する第1ステッ
プ、および1次元配列された画像の各隣接画像ペア毎に
重なり部を抽出し、各隣接画像ペア毎に抽出した重なり
部に基づいて、全画像を合成する第2ステップを、コン
ピュータに実行させるためのプログラムを記録してお
り、第1ステップは、モニタ画面上に2次元配置された
複数枚の画像から1次元配列の先頭画像として選択され
た画像を注目画像とし、各画像が隙間なく配置されてい
ると仮定した場合において、未だ選択されていない画像
のうち注目画像との中心点間距離が最も短い画像を注目
画像の次に配列すべき画像として選択し、選択した画像
を注目画像として同様な処理を繰り返すことにより、全
画像を1次元配列させるものであることを特徴とする。
The third computer-readable recording medium of the present invention arranges a plurality of images to be combined two-dimensionally on the monitor screen so that their arrangement positions match the actual relative positional relationship. A computer-readable recording medium in which an image combining processing program for combining all images is recorded by using arrangement position information of each image,
The first step of one-dimensionally arranging a plurality of images two-dimensionally arranged on the monitor screen so that adjacent images overlap each other, and the overlapping portion is extracted for each adjacent image pair of the one-dimensionally arranged images. , A program for causing a computer to execute the second step of synthesizing all the images based on the overlapping portion extracted for each adjacent image pair is recorded, and the first step is a two-dimensional arrangement on the monitor screen. Assuming that the image selected as the first image of the one-dimensional array from the plurality of selected images is the target image and that each image is arranged without gaps, the target image among the images not yet selected is The image with the shortest distance between the center points is selected as the image to be arranged next to the target image, and the same process is repeated using the selected image as the target image so that all the images are one-dimensionally arranged. And characterized in that.

【0065】[0065]

【発明の実施の形態】以下、この発明を顕微鏡画像合成
装置に適用した場合の実施の形態について説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention applied to a microscope image synthesizing apparatus will be described below.

【0066】〔1〕 顕微鏡画像合成装置の全体構成の
説明
[1] Description of Overall Structure of Microscope Image Synthesizer

【0067】図7は、顕微鏡画像合成装置の全体構成を
示している。
FIG. 7 shows the overall structure of the microscope image synthesizing apparatus.

【0068】顕微鏡画像合成装置は、パーソナルコンピ
ュータによって実現される。パーソナルコンピュータ1
0には、ディスプレイ(モニタ)21、マウス22およ
びキーボード23が接続されている。パーソナルコンピ
ュータ10は、CPU11、メモリ12、ハードディス
ク13、CD−ROMのようなリムーバブルディスクの
ドライブ(ディスクドライブ)14を備えている。
The microscope image synthesizing device is realized by a personal computer. Personal computer 1
A display (monitor) 21, a mouse 22, and a keyboard 23 are connected to 0. The personal computer 10 includes a CPU 11, a memory 12, a hard disk 13, and a drive (disk drive) 14 for a removable disk such as a CD-ROM.

【0069】ハードディスク13には、OS(オペレー
ティングシステム)等の他、顕微鏡画像合成処理プログ
ラムが格納されている。顕微鏡画像合成処理プログラム
は、それが格納されたCD−ROM20を用いて、ハー
ドディスク13にインストールされる。また、ハードデ
ィスク13には、合成されるべき複数の顕微鏡画像が予
め格納されているものとする。
The hard disk 13 stores a microscope image composition processing program in addition to the OS (operating system) and the like. The microscope image composition processing program is installed in the hard disk 13 using the CD-ROM 20 in which the program is stored. Further, it is assumed that the hard disk 13 stores in advance a plurality of microscope images to be combined.

【0070】〔2〕 顕微鏡画像合成処理プログラムが
起動された場合にCPU11によって行われる顕微鏡画
像合成処理手順の説明。
[2] Description of the microscope image composition processing procedure performed by the CPU 11 when the microscope image composition processing program is activated.

【0071】ユーザは、顕微鏡用レンズを装着したカメ
ラで、台を移動させたり、試料を移動させながら、各画
像間で重なりを持った複数の顕微鏡画像を撮像する。そ
して、得られた複数の顕微鏡画像をハードディスク13
に格納しておく。
The user uses a camera equipped with a microscope lens to take a plurality of microscope images having overlap between the images while moving the table or moving the sample. Then, the plurality of obtained microscope images are stored in the hard disk 13.
Stored in.

【0072】図8は、CPU11によって行われる全体
的な処理手順を示している。
FIG. 8 shows the overall processing procedure performed by the CPU 11.

【0073】まず、合成すべき複数の顕微鏡画像(以
下、画像という)を入力する(ステップ1)。つまり、
合成すべき複数の画像を選択し、選択した複数枚の画像
をそれらの配置位置が実際の相対位置関係と合致するよ
うに、モニタ画面上に配置する。
First, a plurality of microscope images (hereinafter referred to as images) to be combined are input (step 1). That is,
A plurality of images to be combined are selected, and the plurality of selected images are arranged on the monitor screen so that their arrangement positions match the actual relative positional relationship.

【0074】次に、各入力画像に対して前処理を行なう
(ステップ2)。つまり、入力画像のうちから合成処理
の基準面となる画像を選択したり、入力画像に対してレ
ンズ歪み補正処理を行なったり、シェーディング補正処
理を行なったりする。
Next, preprocessing is performed on each input image (step 2). That is, an image serving as a reference plane for the combining process is selected from the input images, a lens distortion correction process is performed on the input image, and a shading correction process is performed.

【0075】次に、レンズ歪み補正およびシェーディン
グ補正が行なわれた複数の画像を接合するための処理を
行なう。この画像合成モードとしては、3つのモードが
ある。
Next, a process for joining a plurality of images subjected to the lens distortion correction and the shading correction is performed. There are three image combining modes.

【0076】まず、第1は、すべて自動で行なう第1モ
ード、画像間の位置合わせ(画像間の重なり部の抽出)
を手動で設定する第2モード、画像間の特徴点の対応付
けを手動で行なう第3モードがある。
First of all, the first is the first mode in which all are performed automatically, the alignment between images (extraction of the overlapping portion between images).
There is a second mode in which is manually set, and a third mode in which feature points between images are manually associated.

【0077】まず、第1モードでは、前処理の後、自動
位置合わせを行う(ステップ3)。つまり、全入力画像
のおおまかな位置合わせ(平行移動のみ)を自動で行な
い、位置合わせの結果を表示する。
First, in the first mode, after the preprocessing, automatic alignment is performed (step 3). That is, the rough alignment (only parallel movement) of all input images is automatically performed, and the result of the alignment is displayed.

【0078】次に、合成パラーメータをユーザに選択さ
せる(ステップ4)。たとえば、平行移動のみによる合
成(並進)か、平行移動に加えて光軸まわりの回転を考
慮して合成(並進+回転)するかの選択をユーザに行な
わせる。
Next, the user is allowed to select a synthesis parameter (step 4). For example, the user is allowed to select whether to combine (translation) only by parallel movement or combine (translation + rotation) in consideration of rotation around the optical axis in addition to parallel movement.

【0079】この後、特徴点抽出処理(ステップ5)お
よび特徴点追跡処理(ステップ6)を行なった後、幾何
変換行列を算出する(ステップ7)。そして、画素値調
合の重みを算出し(ステップ8)、最後に画像合成を行
う(ステップ9)。
After that, the feature point extraction process (step 5) and the feature point tracking process (step 6) are performed, and then the geometric transformation matrix is calculated (step 7). Then, the weight of the pixel value mixture is calculated (step 8), and finally image combination is performed (step 9).

【0080】第2モードは、第1モードでの自動位置合
わせが失敗するような場合に備えて、用意されている。
第2モードでは、前処理の後、手動位置合わせを行なう
(ステップ10)。つまり、全入力画像から選択された
各隣接画像ペア毎に、両画像の間の位置合わせ(平行移
動のみ)を手動で行う。この後、上記ステップ4〜9の
処理を行なう。
The second mode is prepared in case the automatic alignment in the first mode fails.
In the second mode, manual alignment is performed after pretreatment (step 10). That is, for each adjacent image pair selected from all the input images, the alignment between the images (only parallel movement) is manually performed. After this, the processes of steps 4 to 9 are performed.

【0081】第3モードは、第1モードまたは第2モー
ドによる合成が失敗するような場合に備えて用意されて
いる。第3モードでは、前処理の後、ユーザに特徴点を
設定させる(ステップ11)。つまり、全入力画像から
選択された各隣接画像ペア毎に、両画像間で一致させた
い部分(特徴点)を手動で設定する。次に、合成パラメ
ータをユーザに選択させる(ステップ12)。この後、
上記ステップ7〜9の処理を行なう。
The third mode is prepared in case the synthesis in the first mode or the second mode fails. In the third mode, the user is made to set the feature points after the preprocessing (step 11). That is, for each adjacent image pair selected from all the input images, the portion (feature point) to be matched between both images is manually set. Next, the user is made to select the synthesis parameter (step 12). After this,
The above steps 7 to 9 are performed.

【0082】以下、各ステップについて説明する。Each step will be described below.

【0083】〔2〕画像入力(ステップ1)についての
説明
[2] Description of Image Input (Step 1)

【0084】図9は、画像入力画面を示している。FIG. 9 shows an image input screen.

【0085】画像入力画面は、合成すべき画像が格納さ
れている画像フォルダを選択するためのフォルダツリー
表示部101、選択された画像フォルダに格納されてい
る画像ファイルを表示するための画像ファイル表示部1
02、作業スペース103、行列数の設定部104、基
準画像選択ボタン105、レンズ歪み補正ボタン10
6、シェーディング補正ボタン107、選択画像入力ボ
タン108、全画像入力ボタン109、選択画像入力解
除ボタン110、全画像入力解除ボタン111、自動位
置合わせボタン112、手動位置合わせボタン113、
特徴点設定ボタン114等を備えている。
The image input screen includes a folder tree display section 101 for selecting an image folder in which images to be combined are stored, and an image file display for displaying image files in the selected image folder. Part 1
02, work space 103, matrix setting section 104, reference image selection button 105, lens distortion correction button 10
6, shading correction button 107, selected image input button 108, all image input button 109, selected image input cancel button 110, all image input cancel button 111, automatic alignment button 112, manual alignment button 113,
A feature point setting button 114 and the like are provided.

【0086】図10は、画像入力の手順を示している。FIG. 10 shows an image input procedure.

【0087】まず、合成すべき画像を選択する(ステッ
プ21)。フォルダツリー表示部101内に表示されて
いるフォルダツリーから、合成すべき画像が格納されて
いる画像フォルダを指定すると、指定された画像フォル
ダに格納されている画像が画像ファイル表示ウインドウ
102に縦方向に表示される。ここでは、指定された画
像フォルダには9枚の画像が格納されており、画像ファ
イル表示ウインドウ102にそれらの9枚の画像がフォ
ルダ名順に表示されたものとする。なお、これらの画像
を、撮像した日時順に表示するようにしてもよい。
First, an image to be combined is selected (step 21). When an image folder storing images to be combined is designated from the folder tree displayed in the folder tree display unit 101, the images stored in the designated image folder are displayed vertically in the image file display window 102. Is displayed in. Here, it is assumed that nine images are stored in the designated image folder, and those nine images are displayed in the folder order in the image file display window 102. Note that these images may be displayed in order of the date and time when the images were taken.

【0088】次に、選択した画像の枚数等に応じて、作
業スペース103内に表示される画像入力枠の行列数を
設定する(ステップ22)。なお、行列数の初期値は3
×3であり、作業スペース103内には3×3の画像入
力枠が表示されている。
Next, the number of rows and columns of image input frames displayed in the work space 103 is set according to the number of selected images and the like (step 22). The initial value of the number of rows and columns is 3
It is × 3, and a 3 × 3 image input frame is displayed in the work space 103.

【0089】行列数の設定は、たとえば、行列数の設定
部104に行数および列数を入力した後にEnter キーを
押すか、全画像入力枠を囲む全画像入力領域Sの右下の
調整つまみ115をドラッグすることによって行なわれ
る。ここでは、行数および列数とも、初期値”3”が維
持されたとする。したがって、作業スペース103内に
は、3×3の画像入力枠が表示されたままとなる。
The number of rows and columns can be set by, for example, pressing the Enter key after inputting the number of rows and the number of columns in the number-of-rows setting section 104, or the adjustment knob at the lower right of the entire image input area S surrounding the entire image input frame. This is done by dragging 115. Here, it is assumed that the initial values “3” are maintained for both the number of rows and the number of columns. Therefore, the 3 × 3 image input frame remains displayed in the work space 103.

【0090】次に、全画像入力ボタン109をクリック
すると(ステップ23)、図11に示すような画像配置
パターン選択画面が画像入力画面上に表示される(ステ
ップ24)。
Next, when the all image input button 109 is clicked (step 23), an image layout pattern selection screen as shown in FIG. 11 is displayed on the image input screen (step 24).

【0091】画像配置パターン選択画面には、画像ファ
イル表示部102に縦方向に表示された画像を2次元配
置された画像入力枠にどのような配置で入力するかを示
す複数種類の画像配置パターンA〜Dと、画像配置パタ
ーンを選択するためのラジオボタンと、OKボタンと、
キャンセルボタンとが表示される。
On the image layout pattern selection screen, a plurality of types of image layout patterns indicating how the images vertically displayed on the image file display unit 102 are to be input in the two-dimensionally arranged image input frame A to D, a radio button for selecting an image arrangement pattern, an OK button,
The cancel button and are displayed.

【0092】複数のラジオボタンのうち、1つのラジオ
ボタンが選択された状態となっている。画像合成プログ
ラムがインストールされた直後においては、予め定めら
れたデフォルトの画像配置パターンに対するラジオボタ
ンが選択された状態として表示されるが、ユーザによっ
て画像配置パターンが1度でも選択された後において
は、最新にユーザによって選択された画像配置パターン
に対するラジオボタンが選択された状態として表示され
る。
One of the plurality of radio buttons is selected. Immediately after the image synthesizing program is installed, a radio button for a predetermined default image layout pattern is displayed as selected, but after the user has selected the image layout pattern even once, The radio button for the image layout pattern most recently selected by the user is displayed as selected.

【0093】ユーザは、画像ファイル表示部102に縦
方向に表示された複数枚の画像が実際の相対位置関係を
保持した状態で2次元配置されるように、画像配置パタ
ーンを選択した後、OKボタンをクリックする(ステッ
プ25)。この結果、画像ファイル表示部102に縦方
向に表示された各画像が、2次元配置された画像入力枠
内に自動的に入力(表示)される(ステップ26)。つ
まり、各画像が、それらの実際の相対位置関係を保持し
た状態で2次元配置される。
The user selects an image layout pattern so that the plurality of images vertically displayed on the image file display unit 102 are two-dimensionally arranged in a state where the actual relative positional relationship is maintained, and then OK. Click the button (step 25). As a result, each image vertically displayed on the image file display unit 102 is automatically input (displayed) in the two-dimensionally arranged image input frame (step 26). That is, the respective images are two-dimensionally arranged while maintaining their actual relative positional relationship.

【0094】9枚の画像をファイル名の順番にA1〜A
9で表すと、各画像配置パターンA〜Dと、画像A1〜
A9の2次元配列位置との関係は、図12に示すように
なる。
The nine images are A1-A in the order of file names.
If represented by 9, the image arrangement patterns A to D and the images A1 to
The relationship between A9 and the two-dimensional array position is as shown in FIG.

【0095】このようにして、合成すべき複数枚の画像
が2次元配置されると、各画像のファイル名と、各画像
の2次元配置位置(画像が入力された画像入力枠の位
置)(x,y)とが記憶される(ステップ27)。各画
像の2次元配置位置(x,y)は、全画像入力領域Sの
左上を原点として、右方向にx方向を、下方向にy方向
をとったXY座標系で表される。
In this way, when a plurality of images to be combined are two-dimensionally arranged, the file name of each image and the two-dimensional arrangement position of each image (the position of the image input frame into which the image is input) ( x, y) are stored (step 27). The two-dimensional arrangement position (x, y) of each image is represented by an XY coordinate system in which the upper left of the entire image input area S is the origin and the x direction is in the right direction and the y direction is in the down direction.

【0096】なお、ユーザは、ドラッグ&ドロップまた
は選択画像入力ボタン108によって、各画像入力枠内
に、1つずつ画像を入力させていくことも可能である。
The user can input one image in each image input frame by dragging and dropping or selecting image input button 108.

【0097】また、ユーザは、画像入力枠内に入力され
た画像を解除することもできる。全画像入力解除ボタン
111を押すと、全ての入力画像が解除され、入力画像
を選択した後に選択画像入力解除ボタン110を押すと
選択した入力画像が解除される。また、入力画像を全画
像入力領域S外へドラッグ&ドロップすることによって
も入力画像を解除することができる。
The user can also cancel the image input in the image input frame. When the all image input cancel button 111 is pressed, all input images are canceled, and when the selected image input cancel button 110 is pressed after selecting an input image, the selected input image is canceled. The input image can also be released by dragging and dropping the input image outside the entire image input area S.

【0098】画像配置パターンとしては、図13の
(a)〜(c)に示す”改行復帰・改列復帰パターン、
図13の(d)〜(f)に示す”折り返しパターン、図
13の(g)〜(i)に示す渦巻きパターン等を用いる
ことができる。
As the image layout pattern, "line feed return / replacement return pattern shown in (a) to (c) of FIG.
The "folding pattern" shown in (d) to (f) of FIG. 13 and the spiral pattern shown in (g) to (i) of FIG. 13 can be used.

【0099】〔3〕前処理(ステップ2)についての説
[3] Description of preprocessing (step 2)

【0100】〔3−1〕基準画像の設定 基準画像を選択するには、基準にしたい入力画像を選択
した後に、基準画像選択ボタン105を押せばよい。
[3-1] Setting of Reference Image To select the reference image, the reference image selection button 105 may be pressed after selecting the input image to be used as the reference.

【0101】〔3−2〕レンズ歪み補正 画像入力画面(図9)上で、ユーザがレンズ歪み補正ボ
タン106を押すと、入力画像に対してレンズ歪み補正
処理が行なわれる。
[3-2] Lens Distortion Correction When the user presses the lens distortion correction button 106 on the image input screen (FIG. 9), lens distortion correction processing is performed on the input image.

【0102】顕微鏡用レンズには、周辺部に歪みがあ
る。この歪みを取り除くための補正ベクトル(du,d
v)を、次式10を用いて計算する。
The microscope lens has distortion in its peripheral portion. A correction vector (du, d for removing this distortion
v) is calculated using the following equation 10.

【0103】[0103]

【数10】 [Equation 10]

【0104】ただし、u,vは、画像の中心を原点と
し、直交座標軸をU,Vとした時の座標である。また、
kはレンズ歪み補正係数である。
However, u and v are the coordinates when the center of the image is the origin and the orthogonal coordinate axes are U and V. Also,
k is a lens distortion correction coefficient.

【0105】この補正ベクトル(du,dv)を用い
て、入力画像の座標(u,v)を、次式11によって、
座標(u’,v’)に変換することでレンズ歪みを補正
する。
Using the correction vector (du, dv), the coordinates (u, v) of the input image are calculated by the following equation 11.
Lens distortion is corrected by converting to coordinates (u ′, v ′).

【0106】[0106]

【数11】 [Equation 11]

【0107】画像入力画面(図9)上でユーザがレンズ
歪み補正ボタン106を押すと、図14に示すようなレ
ンズ歪み係数設定画面が表示される。ユーザは、レンズ
歪み補正係数kを、レンズ歪み係数設定画面上のスライ
ダーバー31を操作することによって設定する。
When the user presses the lens distortion correction button 106 on the image input screen (FIG. 9), a lens distortion coefficient setting screen as shown in FIG. 14 is displayed. The user sets the lens distortion correction coefficient k by operating the slider bar 31 on the lens distortion coefficient setting screen.

【0108】レンズ歪み係数設定画面には、レンズ歪み
補正前の画像が表示される領域32と、レンズ歪み補正
後の画像が表示される領域33とが設けられている。こ
のため、ユーザは、レンズ歪み補正前の画像とレンズ歪
み補正後の画像とを同時に見ることができる。また、ユ
ーザは、スライダーバー31で係数kを設定するとリア
ルタイムで変換画像(レンズ歪み補正後の画像)が表示
されるため、簡単な操作でかつ、直感的に係数を設定す
ることができる。
The lens distortion coefficient setting screen is provided with an area 32 in which an image before lens distortion correction is displayed and an area 33 in which an image after lens distortion correction is displayed. Therefore, the user can view the image before the lens distortion correction and the image after the lens distortion correction at the same time. Further, the user can set the coefficient intuitively by a simple operation because the converted image (image after lens distortion correction) is displayed in real time when the coefficient k is set by the slider bar 31.

【0109】〔3−3〕シェーディング補正 画像入力画面(図9)上で、ユーザがシェーディング補
正ボタン107を押すと、入力画像に対してシェーディ
ング補正処理が行なわれる。
[3-3] Shading correction When the user presses the shading correction button 107 on the image input screen (FIG. 9), the shading correction process is performed on the input image.

【0110】顕微鏡撮像系では、光学系の設定よって、
画像の周辺部が暗くなるシェーディングが発生する。こ
れを補正するために、各画素毎に、画像中心からの距離
に応じた補正画素値e(u,v)を次式12で計算す
る。
In the microscope image pickup system, depending on the setting of the optical system,
Shading occurs where the periphery of the image is dark. In order to correct this, the corrected pixel value e (u, v) according to the distance from the image center is calculated for each pixel by the following expression 12.

【0111】[0111]

【数12】 [Equation 12]

【0112】ただし、u,vは、画像の中心を原点と
し、直交座標軸をU,Vとした時の座標である。また、
sはシェーディング補正係数、Rは画像中心からもっと
も離れた画素の中心からの距離である。
However, u and v are coordinates when the center of the image is the origin and the orthogonal coordinate axes are U and V. Also,
s is the shading correction coefficient, and R is the distance from the center of the pixel farthest from the image center.

【0113】この補正画素値e(u,v)を用いて、入
力画像の画素値I(u,v)を、次式13によって、画
素値I’(u,v)へ変換することでシェーディングを
補正する。
Shading is performed by converting the pixel value I (u, v) of the input image into the pixel value I '(u, v) by using the corrected pixel value e (u, v) according to the following expression 13. To correct.

【0114】[0114]

【数13】 [Equation 13]

【0115】画像入力画面(図9)上でユーザがシェー
ディング補正ボタン107を押すと、図15に示すよう
なシェーディング補正係数設定画面がディスプレイ21
に表示される。ユーザは、シェーディング補正係数s
を、シェーディング補正係数設定画面上のスライダーバ
ー41を操作することによって設定する。
When the user presses the shading correction button 107 on the image input screen (FIG. 9), the shading correction coefficient setting screen as shown in FIG. 15 is displayed on the display 21.
Is displayed in. The user selects the shading correction factor s
Is set by operating the slider bar 41 on the shading correction coefficient setting screen.

【0116】シェーディング補正係数設定画面には、シ
ェーディング補正前の画像が表示される領域42と、シ
ェーディング補正後の画像が表示される領域43とが設
けられている。このため、ユーザは、シェーディング補
正前の画像とシェーディング補正後の画像とを同時に見
ることができる。また、ユーザは、スライダーバー41
で係数sを設定するとリアルタイムで変換画像(シェー
ディング補正後の画像)が表示されるため、簡単な操作
でかつ、直感的に係数を設定することができる。
The shading correction coefficient setting screen is provided with a region 42 in which an image before shading correction is displayed and a region 43 in which an image after shading correction is displayed. Therefore, the user can simultaneously view the image before shading correction and the image after shading correction. In addition, the user can move the slider bar 41
When the coefficient s is set in, the converted image (image after shading correction) is displayed in real time, so that the coefficient can be set intuitively by a simple operation.

【0117】〔4〕自動位置合わせ(ステップ3)につ
いての説明
[4] Description of automatic alignment (step 3)

【0118】画像入力画面(図9)上でユーザが自動位
置合わせボタン112を押すと、自動位置合わせ処理が
行なわれ、図16に示すように、位置合わせ結果を含む
自動位置合わせ結果表示画面が表示される。自動位置合
わせ結果表示画面には、位置合わせ結果の他、自動合成
ボタン121、キャンセルボタン122等も表示され
る。
When the user presses the automatic alignment button 112 on the image input screen (FIG. 9), automatic alignment processing is performed, and as shown in FIG. 16, an automatic alignment result display screen containing alignment results is displayed. Is displayed. On the automatic alignment result display screen, an automatic combination button 121, a cancel button 122, etc. are displayed in addition to the alignment result.

【0119】自動位置合わせ処理では、まず、重なり部
を抽出すべき隣接画像ペアが決定された後、各隣接画像
ペア毎に重なり部が抽出される。この後、各隣接画像ペ
ア毎に抽出された重なり部に基づいて、平行移動のみを
用いて、全画像を位置合わせする。そして、位置合わせ
結果が表示される。
In the automatic alignment process, first, the adjacent image pair from which the overlapping portion is to be extracted is determined, and then the overlapping portion is extracted for each adjacent image pair. After that, based on the overlapped portion extracted for each adjacent image pair, all the images are aligned using only the parallel movement. Then, the alignment result is displayed.

【0120】重なり部を抽出する隣接画像ペアの決定方
法については、手動位置合わせ(ステップ10)におい
て説明する。重なり部の抽出処理は、次のようにして行
なわれる。説明の便宜上、ここでは、1組の隣接画像ペ
ア(第1画像A1及び第2画像A2)の重なり部を抽出
する場合について説明する。
A method of determining the adjacent image pair for extracting the overlapping portion will be described in the manual alignment (step 10). The process of extracting the overlapping portion is performed as follows. For convenience of description, here, a case will be described in which the overlapping portion of one pair of adjacent images (first image A1 and second image A2) is extracted.

【0121】重なり部の抽出処理は、たとえば、SSD
法(Sum of Squared Difference)または正規化相互相関
法に基づいて行われる。
The process of extracting the overlapping portion is performed by, for example, SSD.
(Sum of Squared Difference) or the normalized cross-correlation method.

【0122】(a)SSD法の説明 SSD法では、まず、重なり部を抽出すべき2枚の画像
A1、A2それぞれについて、原画像より解像度の低い
画像I1 ,I2 が生成される。2枚の低解像度画像
1 ,I2 の重なり部分ω(サイズ:M×N)が、次式
14に示すように画素あたりの2乗誤差Eを用いて求め
られる。画像間の移動量(d)が可能な範囲で変化せし
められ、Eが最も小さい移動量(d)から、重なり部が
抽出される。
(A) Description of SSD Method In the SSD method, first, for each of the two images A1 and A2 from which the overlapping portion is to be extracted, images I 1 and I 2 having a lower resolution than the original image are generated. The overlapping portion ω (size: M × N) of the two low resolution images I 1 and I 2 is obtained using the squared error E per pixel as shown in the following Expression 14. The movement amount (d) between the images is changed within a possible range, and the overlapping portion is extracted from the movement amount (d) where E is the smallest.

【0123】[0123]

【数14】 [Equation 14]

【0124】(b)正規化相互相関法の説明 正規化相互相関法では、まず、重なり部を抽出すべき2
枚の画像A1、A2それぞれについて、原画像より解像
度の低い画像I1 ,I2 が生成される。2枚の低解像度
画像I1 ,I2 の重なり部分ω(サイズ:M×N)が、
次式15に示すように正規化相互相関係数Cを用いて求
められる。画像間の移動量(d)が可能な範囲で変化せ
しめられ、Cが最も大きな移動量(d)から、重なり部
が抽出される。
(B) Description of Normalized Cross-Correlation Method In the normalized cross-correlation method, first, the overlapping portion should be extracted 2
For each of the images A1 and A2, images I 1 and I 2 having a lower resolution than the original image are generated. The overlapping portion ω (size: M × N) of the two low-resolution images I 1 and I 2 is
It is obtained using the normalized cross-correlation coefficient C as shown in the following Expression 15. The moving amount (d) between the images is changed within a possible range, and the overlapping portion is extracted from the moving amount (d) having the largest C.

【0125】[0125]

【数15】 [Equation 15]

【0126】式15において、I1  ̄、I2  ̄は、第1
画像を固定させ、第2画像をdだけ移動させたときの、
両画像の重なり部における各画像それぞれの濃淡値の平
均である。また、σ1 、σ2 は、第1画像I1 を固定さ
せ、第2画像I2 をdだけ移動させたときの、両画像の
重なり部における各画像それぞれの濃淡値の分散であ
る。
In the equation 15, I 1 − and I 2 − are the first
When the image is fixed and the second image is moved by d,
It is the average of the gray value of each image in the overlapping portion of both images. Further, σ 1 and σ 2 are variances of the grayscale values of the respective images in the overlapping portion of the two images when the first image I 1 is fixed and the second image I 2 is moved by d.

【0127】自動位置合わせ結果表示画面(図16)上
で、ユーザが自動合成ボタン121を押すと、図17に
示すような合成パラメータ選択画面が表示されるので、
ユーザは合成パラメータを選択する(図8のステップ4
の処理)。合成パラメータ選択画面には、”並進”ボタ
ン131、”並進+回転”ボタン132、キャンセルボ
タン133等が表示される。ユーザが”並進”ボタン1
31または”並進+回転”ボタン132の何れかを押す
と、ステップ5〜9(図8参照)の処理が行なわれて、
全画像が合成される。
When the user presses the automatic composition button 121 on the automatic alignment result display screen (FIG. 16), a composition parameter selection screen as shown in FIG. 17 is displayed.
The user selects synthesis parameters (step 4 in FIG. 8).
Processing). A “translation” button 131, a “translation + rotation” button 132, a cancel button 133, etc. are displayed on the synthesis parameter selection screen. User has "translation" button 1
When either 31 or the "translation + rotation" button 132 is pressed, the processing of steps 5-9 (see FIG. 8) is performed,
All images are combined.

【0128】〔5〕手動位置合わせ(ステップ10)に
ついての説明
[5] Description of Manual Positioning (Step 10)

【0129】図18は、画像入力画面(図9)上でユー
ザが手動位置合わせボタン113を押した場合に行なわ
れる手動位置合わせ処理手順を示している。
FIG. 18 shows a manual alignment processing procedure performed when the user presses the manual alignment button 113 on the image input screen (FIG. 9).

【0130】画像入力画面(図9)上でユーザが手動位
置合わせボタン113を押すと、重なり部を抽出すべき
隣接画像ペアが決定される(ステップ31)。
When the user presses the manual alignment button 113 on the image input screen (FIG. 9), the adjacent image pair from which the overlapping portion should be extracted is determined (step 31).

【0131】図19は、隣接画像ペアの決定処理手順を
示している。
FIG. 19 shows the procedure for determining adjacent image pairs.

【0132】隣接画像ペアは、2次元配列された画像
を、隣接画像間で重なりがあるように1次元配列するこ
とによって決定される。
The adjacent image pair is determined by arranging the two-dimensionally arranged images so that there is overlap between the adjacent images.

【0133】1次元配列の画像番号をiで表すことにす
る。まず、i=1とし(ステップ41)、2次元配列さ
れた画像から、1次元配列の先頭(最初)の画像Bi
選択する(ステップ42)。たとえば、位置(0,0)
の画像が1次元配列の先頭の画像Bi として選択され
る。
The image number of the one-dimensional array is represented by i. First, i = 1 is set (step 41), and the first (first) image B i of the one-dimensional array is selected from the two-dimensional array of images (step 42). For example, position (0,0)
Image is selected as the first image B i of the one-dimensional array.

【0134】次に、2次元配置されている画像が隙間な
く配置されていると仮定して、未だ選択されていない画
像のうち、画像Bi との中心点間距離が最も短い画像
を、次に配列すべき画像Bi+1 として選択する(ステッ
プ43)。
Next, assuming that the two-dimensionally arranged images are arranged without gaps, among the unselected images, the image having the shortest center-to-center distance from the image B i is The image B i + 1 to be arranged is selected (step 43).

【0135】そして、未だ選択されてない画像が残って
いるか否かを判定する(ステップ44)。未だ選択され
てない画像が残っている場合には、i=i+1とし(ス
テップ45)、ステップ43に戻る。
Then, it is judged whether or not there are still unselected images (step 44). If there are still unselected images, i = i + 1 is set (step 45) and the process returns to step 43.

【0136】このようにして、全ての画像が選択される
まで、ステップ43、44、45の処理を繰り返して行
うことにより、2次元配列された画像が隣接画像間で重
なりがあるように1次元配列される。1次元配列された
各画像の隣合うものどうしが重なり部を抽出する隣接画
像ペアとなる。
In this way, by repeating the processing of steps 43, 44 and 45 until all the images are selected, two-dimensionally arranged images are one-dimensional so that adjacent images overlap each other. Arranged. Adjacent ones of the images arranged in a one-dimensional manner form an adjacent image pair from which an overlapping portion is extracted.

【0137】この例では、2次元配置された各画像は、
縦より横の長さが長いので、横方向に並んだ2つの画像
の中心点間距離より、縦方向に並んだ2つの画像の中心
点間距離の方が短いので、たとえば、画像Bi に対して
縦方向に隣接する未選択画像が存在する場合には、画像
i に対して縦方向に隣接する未選択画像が画像Bi+ 1
として選択される。また、たとえば、画像Bi に対して
縦方向に隣接する未選択画像が存在せずに横方向に隣接
する未選択画像が存在する場合には、画像Biに対して
横方向に隣接する未選択画像が画像Bi+1 として選択さ
れる。
In this example, the two-dimensionally arranged images are
Since the long length of the horizontal than vertical, it arranged laterally than the distance between the center points of the two images, since the person between the center point distance in the longitudinal direction into two aligned images is short, for example, the image B i If the unselected image adjacent in the vertical direction for present, unselected image image adjacent in the vertical direction with respect to the image B i B i + 1
Is selected as. Further, for example, when there is no unselected image vertically adjacent to the image B i but an unselected image horizontally adjacent to the image B i , there is an unselected image horizontally adjacent to the image B i . The selected image is selected as the image B i + 1 .

【0138】したがって、図20に示すように、たとえ
ば、20枚の画像が5行4列に配置されている場合に
は、図20に矢印で示す順番でこれらの画像が1次元配
列される。
Therefore, as shown in FIG. 20, for example, when 20 images are arranged in 5 rows and 4 columns, these images are arranged one-dimensionally in the order shown by the arrows in FIG.

【0139】ただし、図21に示すように、5行4列に
配置された画像入力枠のうち、中央の2つの画像入力枠
(位置(2,3)および位置(3,3)の画像入力枠)
に画像が存在しないような場合には、図21に矢印で示
す順番でこれらの画像が1次元配列される。
However, as shown in FIG. 21, of the image input frames arranged in 5 rows and 4 columns, the two image input frames at the center (image input at positions (2, 3) and (3, 3)) are input. frame)
If there is no image in the image, these images are arranged one-dimensionally in the order shown by the arrow in FIG.

【0140】2次元配列された画像が隣接画像間で重な
りがあるように1次元配列されると、図22に示すよう
な手動位置合わせ画面が表示される(ステップ32,図
18)。
When the two-dimensionally arranged images are one-dimensionally arranged so that adjacent images overlap each other, a manual alignment screen as shown in FIG. 22 is displayed (step 32, FIG. 18).

【0141】手動位置合わせ画面は、1次元配列画像表
示部141と、作業スペース142の他、自動位置合わ
せボタン143、自動合成ボタン144、キャンセルボ
タン145等を備えている。
The manual alignment screen is provided with a one-dimensional array image display section 141, a work space 142, an automatic alignment button 143, an automatic composition button 144, a cancel button 145 and the like.

【0142】1次元配列画像表示部141は下段に設け
られ、作業スペース142は1次元配列画像表示部14
1の上側に設けられている。1次元配列画像表示部14
1と作業スペース142との間には、位置合わせを行な
う隣接画像ペアを選択するための2つのペア選択用キー
146、147が表示されるとともに、選択された隣接
画像ペアの相対位置関係(合成方向)を示す合成方向指
示マーク148が表示される。
The one-dimensional array image display unit 141 is provided in the lower stage, and the work space 142 is the one-dimensional array image display unit 14.
It is provided above 1. One-dimensional array image display unit 14
1 and the work space 142, two pair selection keys 146 and 147 for selecting the adjacent image pair to be aligned are displayed, and the relative positional relationship of the selected adjacent image pair (composite image) is displayed. A composite direction indicator mark 148 indicating the direction is displayed.

【0143】1次元配列画像表示部141には、1次元
配列された各画像が表示される。作業スペース142に
は、1次元配列画像表示部141に1次元配列表示され
ている画像のうちから隣接画像ペアとして選択されてい
る2つの画像が半透明で表示される。
The one-dimensionally arrayed image display section 141 displays each one-dimensionally arrayed image. In the work space 142, two images selected as an adjacent image pair among the images displayed in the one-dimensional array on the one-dimensional array image display unit 141 are displayed semitransparently.

【0144】1次元配列画像表示部141には、現在選
択されている隣接画像ペアを明示するために、現在選択
されている隣接画像ペアを囲む矩形枠149が表示され
る。ペア選択用キー146がクリックされると、隣接画
像ペアが左側に1画像分シフトせしめられる。ペア選択
用キー147がクリックされると、隣接画像ペアが右側
に1画像分シフトせしめられる。
On the one-dimensional array image display section 141, a rectangular frame 149 surrounding the currently selected adjacent image pair is displayed in order to clearly indicate the currently selected adjacent image pair. When the pair selection key 146 is clicked, the adjacent image pair is shifted to the left by one image. When the pair selection key 147 is clicked, the adjacent image pair is shifted to the right by one image.

【0145】合成方向マーク148としては、図23に
示すように、上下方向(a)、左右方向(b)、左下と
右上を結ぶ斜め方向(c)および左上と右下を結ぶ斜め
方向(d)の4種類がある。
As the composite direction mark 148, as shown in FIG. 23, the vertical direction (a), the horizontal direction (b), the oblique direction connecting the lower left and the upper right (c), and the oblique direction connecting the upper left and the lower right (d). There are four types.

【0146】選択された隣接画像ペアの合成方向は、そ
の2つの画像の2次元配置位置に基づいて決定される。
隣接画像ペアの一方の画像の2次元配置位置を(x1,
y1)とし、他方の画像の2次元配置位置を(x2,y
2)とする。
The combination direction of the selected adjacent image pair is determined based on the two-dimensional arrangement position of the two images.
The two-dimensional arrangement position of one image of the adjacent image pair is (x1,
y1), and the two-dimensional arrangement position of the other image is (x2, y
2).

【0147】x1=x2であれば、合成方向は上下方向
となる。y1=y2であれば、合成方向は左右方向とな
る。x1≠x2でかつy1≠y2である場合において、
(x1−x2)×(y1−y2)<0であれば、合成方
向は左下と右上を結ぶ斜め方向となる。x1≠x2でか
つy1≠y2である場合において、(x1−x2)×
(y1−y2)>0であれば、合成方向は左上と右下を
結ぶ斜め方向となる。
If x1 = x2, the combination direction is the vertical direction. If y1 = y2, the combination direction is the left-right direction. In the case where x1 ≠ x2 and y1 ≠ y2,
If (x1−x2) × (y1−y2) <0, the combining direction is an oblique direction connecting the lower left and upper right. When x1 ≠ x2 and y1 ≠ y2, (x1−x2) ×
If (y1-y2)> 0, the combining direction is an oblique direction connecting the upper left and lower right.

【0148】手動位置合わせ画面(図22)が表示され
ると、ユーザは隣接画像ペアを選択した後、作業スペー
ス142内に半透明表示された2つの画像の重なり部分
を目視によって手動で合わせる(ステップ33,図1
8)。この操作は、たとえば、作業スペース142内に
半透明表示された2つの画像のうちの、一方の画像をマ
ウスでドラッグすることによって行なわれる。なお、こ
の操作をキーボードのキーを操作することによって行な
うことも可能である。ステップ33の作業を全ての隣接
画像ペアに対して行なうことにより、手動位置合わせは
終了する。
When the manual alignment screen (FIG. 22) is displayed, the user selects the adjacent image pair, and then manually visually overlaps the overlapping portions of the two images semitransparently displayed in the working space 142 ( Step 33, FIG.
8). This operation is performed, for example, by dragging one of the two semi-transparently displayed images in the work space 142 with the mouse. It is also possible to perform this operation by operating the keys of the keyboard. The manual registration is completed by performing the work of step 33 on all the adjacent image pairs.

【0149】なお、作業スペース142内に2つの画像
が半透明表示されている状態で、自動位置合わせボタン
143を押すと、作業スペース142内に半透明表示さ
れている2つの画像が、上述した重なり部の自動抽出処
理と同様な処理によって自動的に位置合わせされる。
When the automatic alignment button 143 is pressed in a state where the two images are displayed in the work space 142 in a semi-transparent state, the two images in the work space 142 which are displayed in a semi-transparent state are described above. Positioning is automatically performed by the same processing as the automatic extraction processing of the overlapping portion.

【0150】全隣接画像ペアに対して位置合わせを行な
った後に、ユーザが自動合成ボタン144を押すと、図
17に示すような合成パラメータ選択画面が表示される
ので、ユーザは合成パラメータを選択する(図8のステ
ップ4の処理)。合成パラメータ選択画面上で、ユーザ
が”並進”ボタン131または”並進+回転”ボタン1
32の何れかを押すと、ステップ5〜9(図8参照)の
処理が行なわれて、全画像が合成される。
When the user presses the automatic synthesizing button 144 after aligning all the adjacent image pairs, a synthesizing parameter selection screen as shown in FIG. 17 is displayed, so that the user selects a synthesizing parameter. (Processing of step 4 in FIG. 8). The user selects "Translation" button 131 or "Translation + Rotation" button 1 on the synthesis parameter selection screen.
When any one of 32 is pressed, the processing of steps 5 to 9 (see FIG. 8) is performed and all the images are combined.

【0151】〔6〕特徴点の設定(ステップ11)につ
いての説明
[6] Description of setting of feature points (step 11)

【0152】画像入力画面(図9)上でユーザが特徴点
設定ボタン114を押すと、重なり部を抽出すべき隣接
画像ペアが決定された後、図24に示すような特徴点設
定画面が表示される。
When the user presses the feature point setting button 114 on the image input screen (FIG. 9), the feature point setting screen as shown in FIG. 24 is displayed after the adjacent image pair from which the overlapping portion is to be extracted is determined. To be done.

【0153】各隣接画像ペアは、手動位置合わせ処理
(図18)のステップ31の処理と同様な処理によって
決定される。
Each adjacent image pair is determined by a process similar to the process of step 31 of the manual alignment process (FIG. 18).

【0154】特徴点設定画面は、隣接画像ペアを構成す
る2つの画像をそれぞれ拡大表示するための2つの画像
表示部161、162、隣接画像ペアを選択するための
2つのペア選択用キー163、164、特徴点削除ボタ
ン165、自動合成ボタン166、キャンセルボタン1
67等を備えている。また、特徴点設定画面の右下部分
には、選択された隣接画像ペアの相対位置関係(合成方
向)を示す合成方向指示マーク168が表示される。
On the feature point setting screen, two image display sections 161, 162 for respectively magnifying and displaying two images forming an adjacent image pair, two pair selection keys 163 for selecting an adjacent image pair, 164, feature point delete button 165, automatic composition button 166, cancel button 1
It is equipped with 67 etc. Further, in the lower right portion of the feature point setting screen, a combination direction instruction mark 168 indicating the relative positional relationship (composition direction) of the selected adjacent image pairs is displayed.

【0155】ペア選択用キー163、164および合成
方向指示マーク168は、手動位置合わせ画面(図2
2)のペア選択用キー146、147および合成方向指
示マーク148と同じ機能を有している。
The pair selection keys 163 and 164 and the combination direction instruction mark 168 are displayed on the manual alignment screen (see FIG. 2).
It has the same function as the pair selection keys 146 and 147 and the combination direction instruction mark 148 of 2).

【0156】ユーザは、2つの画像表示部161、16
2に表示された2つの画像に基づいて、手動で特徴点を
対応づける。具体的には、右側の画像上の任意の特徴点
位置をダブルクリックすると、特徴点設定枠(矩形枠)
169が両方の画像上に表示される。左側の画像上に表
示された特徴点設定枠169をマウスでドラッグするこ
とにより、右画像上の特徴点に対応する位置まで移動さ
せる。なお、特徴点削除ボタン165を押すと、選択中
の特徴点設定枠が削除される。
The user has two image display units 161, 16
Based on the two images displayed in No. 2, the feature points are manually associated. Specifically, if you double-click any feature point position on the right image, the feature point setting frame (rectangular frame)
169 is displayed on both images. By dragging the feature point setting frame 169 displayed on the left image with the mouse, the feature point setting frame 169 is moved to the position corresponding to the feature point on the right image. When the feature point delete button 165 is pressed, the selected feature point setting frame is deleted.

【0157】合成手法として”並進”を選択する場合に
は、2画像間の特徴点は1箇所以上設定し、合成手法と
して”並進+回転”を選択する場合には、2画像間の特
徴点は2箇所以上設定する。特徴点の設定数が多いほ
ど、合成精度は向上する。
When "translation" is selected as the synthesis method, one or more feature points between the two images are set. When "translation + rotation" is selected as the synthesis method, the feature points between the two images are set. Set at two or more locations. The larger the number of set feature points, the higher the synthesis accuracy.

【0158】全隣接画像ペアに対して特徴点を設定した
後、ユーザが自動合成ボタン166を押すと、図17に
示すような合成パラメータ選択画面が表示されるので、
ユーザは合成パラメータを選択する(図8のステップ1
2の処理)。合成パラメータ選択画面上で、ユーザが”
並進”ボタン131または”並進+回転”ボタン132
の何れかを押すと、ステップ7〜9(図8参照)の処理
が行なわれて、全画像が合成される。
When the user presses the automatic composition button 166 after setting the feature points for all the adjacent image pairs, a composition parameter selection screen as shown in FIG. 17 is displayed.
The user selects synthesis parameters (step 1 in FIG. 8).
Process 2). On the synthesis parameter selection screen, the user
"Translation" button 131 or "Translation + rotation" button 132
When any of the above is pressed, the processes of steps 7 to 9 (see FIG. 8) are performed and all the images are combined.

【0159】〔7〕特徴点抽出処理(ステップ5)につ
いての説明
[7] Description of Feature Point Extraction Process (Step 5)

【0160】上記ステップ4の処理が終了すると、つま
り、ステップ4において表示される合成パラメータ選択
画面(図17参照)上でユーザが”並進”ボタン131
または”並進+回転”ボタン132の何れかを押すと、
特徴点抽出処理が行われる。
When the process of step 4 is completed, that is, the user selects the "translation" button 131 on the synthesis parameter selection screen (see FIG. 17) displayed in step 4.
Or press one of the "Translation + Rotation" buttons 132
Feature point extraction processing is performed.

【0161】説明の便宜上、1組の隣接画像ペアA1、
A2に対する処理についてのみ説明する。第1画像A1
における第2画像A2との重なり部分から、追跡に有効
な複数の部分画像(矩形領域)が特徴点として抽出され
る。ただし、各特徴点は互いに重ならないように抽出さ
れる。具体的には、上述した固有値λmin (式8参照)
の高い部分が特徴点として抽出される。
For convenience of explanation, one adjacent image pair A1,
Only the process for A2 will be described. First image A1
A plurality of partial images (rectangular regions) effective for tracking are extracted as feature points from the overlapping portion with the second image A2 in. However, the respective feature points are extracted so as not to overlap each other. Specifically, the above-mentioned eigenvalue λ min (see equation 8)
Is extracted as a feature point.

【0162】〔8〕特徴点追跡処理(ステップ6)につ
いての説明
[8] Description of Feature Point Tracking Process (Step 6)

【0163】各隣接画像ペアに対する特徴点抽出処理が
終了すると、特徴点追跡処理が行われる。つまり、抽出
された第1画像A1上の特徴点に対する第2画像A2上
の位置が追跡される。
When the feature point extraction process for each adjacent image pair is completed, the feature point tracking process is performed. That is, the positions on the second image A2 with respect to the extracted feature points on the first image A1 are tracked.

【0164】具体的には、まず、本出願人が開発したオ
プティカルフロー推定方法(従来技術の説明の欄の
〔2〕参照)によって、適当なサイズ(例えば、13×
13)のパッチ毎のオプティカルフローベクトルが求め
られる。第1画像A1上の特徴点に対応する第2画像A
2上の位置は、第1画像A1上の特徴点の4近傍のパッ
チのフローベクトルから線形補間により画素単位以下で
求められる。これにより、第1画像A1と第2画像A2
との重なり部において、両画像の対応点の座標が得られ
る。
Specifically, first, an appropriate size (for example, 13 ×) is determined by the optical flow estimation method developed by the present applicant (see [2] in the section of the description of the prior art).
The optical flow vector for each patch in 13) is obtained. The second image A corresponding to the feature point on the first image A1
The position on 2 is obtained in pixel units or less by linear interpolation from the flow vectors of the patches in the vicinity of the feature points on the first image A1. Thereby, the first image A1 and the second image A2
At the overlapping portion of and, the coordinates of the corresponding points of both images are obtained.

【0165】[0165]

〔9〕幾何変換行列の算出処理(ステップ
7)についての説明
[9] Description of geometric transformation matrix calculation processing (step 7)

【0166】第1画像A1に第2画像A2を接合する場
合について説明する。第1モード時または第2モード時
には、上記ステップ6によって自動的に求められた第1
画像A1と第2画像A2との対応点の座標に基づいて、
第3モード時には、上記ステップ11によって手動で求
められた第1画像A1と第2画像A2との対応点の座標
に基づいて、第2画像A2内の各画素の座標を第1画像
A1上の座標に変換するための幾何変換行列(幾何変換
係数)を算出する。
The case where the second image A2 is joined to the first image A1 will be described. In the first mode or the second mode, the first value automatically obtained in step 6 above.
Based on the coordinates of the corresponding points between the image A1 and the second image A2,
In the third mode, the coordinates of each pixel in the second image A2 are set on the first image A1 based on the coordinates of the corresponding points between the first image A1 and the second image A2 manually calculated in step 11. A geometric transformation matrix (geometric transformation coefficient) for transforming into coordinates is calculated.

【0167】なお、第2画像A2に第1画像A1を接合
する場合には、第1画像A1内の各画素の座標を第2画
像A2上の座標に変換するための幾何変換行列(幾何変
換係数)を算出すればよい。
When the first image A1 is joined to the second image A2, a geometric transformation matrix (geometric transformation) for transforming the coordinates of each pixel in the first image A1 into the coordinates on the second image A2. The coefficient) may be calculated.

【0168】合成パラメータの選択処理(ステップ4ま
たはステップ12)によって”並進”が選択されている
場合には、幾何変換行列としては2次元平行移動のため
の行列が用いられ、”並進+回転”が選択されている場
合には、幾何変換行列としては2次元剛体変換行列が用
いられる。
When "translation" is selected by the synthesis parameter selection process (step 4 or step 12), a two-dimensional translation matrix is used as the geometric transformation matrix, and "translation + rotation" is used. When is selected, a two-dimensional rigid body transformation matrix is used as the geometric transformation matrix.

【0169】この段階では、第2画像A2内の各画素の
座標を第1画像A1上の座標に変換しないが、第2画像
A2内の各画素の座標(x,y,1)を第1画像A1の
座標(x’,y’,1)に変換する式は、次式16また
は次式17で表される。なお、ここでいう、座標(x,
y),(x’,y’)は画像内の画素の座標であって、
図8のステップ1の説明において用いた画像の2次元配
置位置を示す座標(x,y)とは異なる。
At this stage, the coordinates of each pixel in the second image A2 are not converted into the coordinates on the first image A1, but the coordinates (x, y, 1) of each pixel in the second image A2 are converted into the first coordinates. An equation for converting the coordinates (x ′, y ′, 1) of the image A1 is represented by the following equation 16 or equation 17. The coordinates (x,
y), (x ', y') are the coordinates of the pixels in the image,
It is different from the coordinates (x, y) indicating the two-dimensional arrangement position of the image used in the description of step 1 in FIG.

【0170】[0170]

【数16】 [Equation 16]

【0171】[0171]

【数17】 [Equation 17]

【0172】上記式16は、幾何変換行列として2次元
平行移動のための行列を用いた場合の変換式を示し、上
記式17は、幾何変換行列として2次元剛体変換行列を
用いた場合の変換式を示している。
The above expression 16 shows a conversion expression when a two-dimensional translation matrix is used as the geometric conversion matrix, and the above expression 17 is a conversion when a two-dimensional rigid body conversion matrix is used as the geometric conversion matrix. Shows the formula.

【0173】上記式16において、(tx ,ty )は平
行移動量を示し、kは零でない任意の定数を示してい
る。また、上記式17において、(tx ,ty )は平行
移動量を示し、θは回転角を示し、kは零でない任意の
定数を示している。
In the above expression 16, (t x , t y ) represents the amount of parallel movement, and k represents any non-zero constant. Further, in the above Expression 17, (t x , t y ) represents the amount of parallel movement, θ represents the rotation angle, and k represents any non-zero constant.

【0174】〔10〕画素値調合の重み(画素値調合係
数)の算出処理(ステップ8)についての説明
[10] Description of Calculation Process of Pixel Value Mixing Weight (Pixel Value Mixing Coefficient) (Step 8)

【0175】顕微鏡用レンズを装着したカメラで、試料
台を移動させたり、試料台上の試料を移動させながら、
複数の画像を撮像した場合には、自動露出調整機能が動
作することにより、画像間の明るさが異なってしまうこ
とがある。
With a camera equipped with a microscope lens, while moving the sample table or moving the sample on the sample table,
When a plurality of images are captured, the brightness between the images may differ due to the operation of the automatic exposure adjustment function.

【0176】そこで、接合されるべき第1画像と第2画
像とが重なる領域では、各画像の画素値を調合する処理
を後処理として行なう。画素値調合処理は、両画像の重
なり領域の画素値を画像間で滑らかに変化させることに
より、明るさの差異を目立たなくさせる処理である。ま
た、この処理は、同時に、幾何変換による合成誤差も目
立たなくさせることができる。
Therefore, in a region where the first image and the second image to be joined overlap each other, the process of blending the pixel values of the images is performed as a post-process. The pixel value mixing process is a process in which the difference in brightness is made inconspicuous by smoothly changing the pixel values of the overlapping regions of both images between the images. In addition, this processing can also make the synthesis error due to the geometric conversion inconspicuous.

【0177】この実施の形態では、各画像の重心からの
距離に基づいて両画像の重なり領域の画素値を調合す
る。
In this embodiment, the pixel values of the overlapping areas of both images are mixed based on the distance from the center of gravity of each image.

【0178】まず、第1画像の重心位置G1 を求める。
また、第2画像を第1画像に接合した合成画像上で、第
2画像の重心位置G2 を、接合のために使用される変換
式(上記式16式または上記式17式)に基づいて求め
る。
First, the center of gravity position G 1 of the first image is obtained.
In addition, on the composite image in which the second image is joined to the first image, the center of gravity position G 2 of the second image is calculated based on the conversion equation (Equation 16 or 17) used for joining. Ask.

【0179】次に、第1画像の4頂点(4隅)の位置を
それぞれ求める。また、第2画像を第1画像に接合した
合成画像上で、第2画像の4頂点の位置を、接合に使用
される変換式(上記式16式または上記式17式)に基
づいて求める。これにより、合成画像上における第1画
像の4頂点の位置および第2画像の4頂点の位置が分か
るので、合成画像上において第1画像と第2画像との重
なり領域を抽出する。
Next, the positions of the four vertices (four corners) of the first image are obtained. Further, the positions of the four vertices of the second image are obtained on the composite image in which the second image is joined to the first image, based on the conversion equation (Equation 16 or 17) used for the joining. As a result, the positions of the four vertices of the first image and the positions of the four vertices of the second image on the composite image are known, and therefore the overlapping region between the first image and the second image is extracted on the composite image.

【0180】合成画像上での第1画像と第2画像との重
なり領域内の各画素(画素値調合対象画素)から第1画
像と第2画像のそれぞれの画像の重心位置G1 、G2
での距離に応じて、当該画素値調合対象画素の画素値の
重みを決定する。この重みは、画素値調合対象画素から
重心までの距離が近い方の画像の画素値を大きくするよ
うに決定する。
From each pixel (pixel value blending target pixel) in the overlapping area of the first image and the second image on the composite image, the center of gravity positions G 1 and G 2 of the respective images of the first image and the second image The weight of the pixel value of the pixel value blending target pixel is determined according to the distance to. This weight is determined so that the pixel value of the image closer to the center of gravity from the pixel value blending target pixel is larger.

【0181】つまり、合成画像上での第1画像と第2画
像との重なり領域内の画素値調合対象画素の座標から、
合成画像上での第1画像の重心位置G1 までのユークリ
ッド距離をd1 、合成画像上での第2画像の重心位置G
2 までのユークリッド距離をd2 とすると、画素値調合
対象画素における第1画像の画素値に対する重みw1
よび第2画像の画素値に対する重みw2 は、次式18で
表される。
That is, from the coordinates of the pixel value blending target pixel in the overlapping area of the first image and the second image on the composite image,
The Euclidean distance to the center of gravity position G 1 of the first image on the composite image is d 1 , and the center of gravity position G of the second image on the composite image G
When the Euclidean distance to 2 is d 2 , the weight w 1 for the pixel value of the first image and the weight w 2 for the pixel value of the second image in the pixel value blending target pixel are represented by the following Expression 18.

【0182】[0182]

【数18】 [Equation 18]

【0183】各画素値調合対象画素に対して式21に基
づいて重みw1 およびw2 を算出し、画素値調合対象画
素に対する重みw1 およびw2 のテーブル(重みテーブ
ル)を作成する。
Weights w 1 and w 2 are calculated for each pixel value blending target pixel based on Expression 21, and a table (weighting table) of weights w 1 and w 2 for the pixel value blending target pixel is created.

【0184】〔12〕画素合成処理(ステップ9)の説
[12] Description of Pixel Combining Process (Step 9)

【0185】画素合成処理では、上記式16または上記
式17を用いて第2画像を第1画像の座標系に描画す
る。
In the pixel synthesizing process, the second image is drawn in the coordinate system of the first image by using the above equation 16 or equation 17.

【0186】この際、ステップ8で得られた重みテーブ
ルに基づいて、第1画像と第2画像の重なり領域の画素
値P1 、P2 を画素調合する。すなわち、次式19によ
り、各画素値調合対象画素の画素値Pi を算出する。
At this time, the pixel values P 1 and P 2 in the overlapping area of the first image and the second image are pixel-mixed based on the weight table obtained in step 8. That is, the pixel value P i of each pixel value blending target pixel is calculated by the following equation 19.

【0187】[0187]

【数19】 [Formula 19]

【0188】このようにして、全隣接画像ペアに対する
合成処理が終了すると、合成結果である合成画像を含む
合成画像表示画面が表示される。
In this way, when the combining process for all the adjacent image pairs is completed, the combined image display screen containing the combined image which is the result of combining is displayed.

【0189】[0189]

【発明の効果】この発明によれば、隣接画像ペア毎にそ
れらの画像の重なり部が重なるように、ユーザに手動で
位置合わせを行なわせる場合において、位置合わせを行
なうための作業効率の向上化が図れるようになる。
According to the present invention, in the case where the user manually performs the alignment so that the overlapping portions of the adjacent image pairs are overlapped, the work efficiency for the alignment is improved. Can be achieved.

【0190】この発明によれば、隣接画像ペア毎にそれ
らの特徴点の対応付けをユーザに手動で行なわせる場合
において、特徴点を対応付けるための作業効率の向上化
が図れるようになる。
According to the present invention, when the user manually associates the feature points for each adjacent image pair, the work efficiency for associating the feature points can be improved.

【0191】この発明によれば、モニタ画面上に画像を
2次元配置した結果、中央部に画像が存在しないような
場合にも、2次元配列した複数枚の画像を、隣接画像間
で重なりがあるように、1次元配列することができるよ
うになる。
According to the present invention, even if the image does not exist in the central portion as a result of the two-dimensional arrangement of the images on the monitor screen, a plurality of two-dimensionally arranged images are not overlapped between adjacent images. As is possible, it becomes possible to arrange one-dimensionally.

【図面の簡単な説明】[Brief description of drawings]

【図1】図1は、階層的推定法を説明するための図であ
って、階層1の画像を示す模式図である。
FIG. 1 is a diagram for explaining a hierarchical estimation method and is a schematic diagram showing an image of layer 1.

【図2】図2は、階層的推定法を説明するための図であ
って、階層2の画像を示す模式図である。
FIG. 2 is a diagram for explaining a hierarchical estimation method, and is a schematic diagram showing an image of layer 2;

【図3】図3は、階層的推定法を説明するための図であ
って、階層3の画像を示す模式図である。
FIG. 3 is a diagram for explaining a hierarchical estimation method, and is a schematic diagram showing an image of layer 3;

【図4】図4は、階層的推定法を説明するための図であ
って、階層4の画像を示す模式図である。
FIG. 4 is a diagram for explaining a hierarchical estimation method and is a schematic diagram showing an image of layer 4;

【図5】図5は、実施例で採用されたオプティカルフロ
ー推定方法において行われる膨張処理を説明するための
模式図である。
FIG. 5 is a schematic diagram for explaining dilation processing performed in the optical flow estimation method adopted in the embodiment.

【図6】図6(a)は、ある階層の画像に対してしきい
値処理されたオプティカルフローの例を示す模式図であ
り、図6(b)は、補完後のオプティカルフローを示す
模式図である。
FIG. 6A is a schematic diagram showing an example of an optical flow that has been threshold-processed for an image of a certain layer, and FIG. 6B is a schematic diagram showing an optical flow after complementation. It is a figure.

【図7】図7は、顕微鏡画像合成装置の構成を示すブロ
ック図である。
FIG. 7 is a block diagram showing a configuration of a microscope image composition device.

【図8】図8は、顕微鏡画像合成処理プログラムが起動
された場合にCPU11によって行われる顕微鏡画像合
成処理手順を示すフローチャートである。
FIG. 8 is a flowchart showing a microscope image composition processing procedure performed by the CPU 11 when a microscope image composition processing program is activated.

【図9】図9は、画像入力画面を示す模式図である。FIG. 9 is a schematic diagram showing an image input screen.

【図10】図10は、画像入力の手順を示すフローチャ
ートである。
FIG. 10 is a flowchart showing a procedure of image input.

【図11】図11は、画像配置パターン選択画面の一例
を示す模式図である。
FIG. 11 is a schematic diagram showing an example of an image arrangement pattern selection screen.

【図12】図12は、各画像配置パターンA〜Dと、画
像A1〜A9の2次元配列位置との関係を示す模式図で
ある。
FIG. 12 is a schematic diagram showing the relationship between the image arrangement patterns A to D and the two-dimensional array positions of the images A1 to A9.

【図13】図13は、画像配置パターンの例を示す模式
図である。
FIG. 13 is a schematic diagram showing an example of an image arrangement pattern.

【図14】図14は、レンズ歪み補正係数設定画面の一
例を示す模式図である。
FIG. 14 is a schematic diagram showing an example of a lens distortion correction coefficient setting screen.

【図15】図15は、シェーディング補正係数設定画面
の一例を示す模式図である。
FIG. 15 is a schematic diagram showing an example of a shading correction coefficient setting screen.

【図16】図16は、自動位置合わせ結果表示画面の一
例を示す模式図である。
FIG. 16 is a schematic diagram showing an example of an automatic alignment result display screen.

【図17】図17は、合成パラメータ選択画面の一例を
示す模式図である。
FIG. 17 is a schematic diagram showing an example of a synthesis parameter selection screen.

【図18】図18は、手動位置合わせ処理手順を示すフ
ローチャートである。
FIG. 18 is a flowchart showing a manual alignment processing procedure.

【図19】図19は、隣接画像ペアの決定処理手順を示
すフローチャートである。
FIG. 19 is a flowchart illustrating a procedure for determining an adjacent image pair.

【図20】図20は、隣接画像ペアの決定処理によって
決定された1次元配列の順番を示す模式図である。
FIG. 20 is a schematic diagram showing the order of the one-dimensional array determined by the adjacent image pair determination processing.

【図21】図21は、隣接画像ペアの決定処理によって
決定された1次元配列の順番を示す模式図である。
FIG. 21 is a schematic diagram showing the order of the one-dimensional array determined by the adjacent image pair determination processing.

【図22】図22は、手動位置合わせ画面の一例を示す
模式図である。
FIG. 22 is a schematic diagram showing an example of a manual alignment screen.

【図23】図23は、合成方向マークの種類を示す模式
図である。
FIG. 23 is a schematic diagram showing types of composite direction marks.

【図24】図24は、特徴点設定画面の一例を示す模式
図である。
FIG. 24 is a schematic diagram showing an example of a feature point setting screen.

【符号の説明】[Explanation of symbols]

10 パーソナルコンピュータ 11 CPU 12 メモリ 13 ハードディスク 14 ディスクドライブ 10 personal computer 11 CPU 12 memories 13 hard disk 14 disk drive

───────────────────────────────────────────────────── フロントページの続き (72)発明者 飯田 崇 大阪府守口市京阪本通2丁目5番5号 三 洋電機株式会社内 Fターム(参考) 5B050 BA06 BA18 CA07 DA02 EA05 EA12 EA13 EA19 EA30 FA02 FA13 5B057 CA08 CA12 CA16 CB08 CB12 CB16 CD02 CE08 CE10 CE11 DA07 DB02 5C076 AA12 AA17 AA19 AA24 BA06 CA02 CA08 5C082 AA00 BA12 BB15 BB42 CA52 CA54 CA55 CB05 DA53 DA86 MM09 MM10    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Takashi Iida             2-5-3 Keihan Hondori, Moriguchi City, Osaka Prefecture             Within Yo Denki Co., Ltd. F-term (reference) 5B050 BA06 BA18 CA07 DA02 EA05                       EA12 EA13 EA19 EA30 FA02                       FA13                 5B057 CA08 CA12 CA16 CB08 CB12                       CB16 CD02 CE08 CE10 CE11                       DA07 DB02                 5C076 AA12 AA17 AA19 AA24 BA06                       CA02 CA08                 5C082 AA00 BA12 BB15 BB42 CA52                       CA54 CA55 CB05 DA53 DA86                       MM09 MM10

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 合成すべき複数枚の画像を、それらの配
置位置が実際の相対位置関係と合致するように、モニタ
画面上に2次元配置させ、各画像の配置位置情報を利用
して、全画像を合成する画像合成装置において、 モニタ画面上に2次元配置された複数枚の画像から選択
された隣接画像ペア毎に、それらの画像の重なり部が重
なるように、ユーザに手動で位置合わせを行なわせるた
めの第1手段、および第1手段による位置合わせ結果に
基づいて、全画像を合成する第2手段を備えており、 第1手段は、隣接画像ペアを構成する2つの画像をモニ
タ画面上に表示する手段、上記2つの画像の相対位置関
係をモニタ画面上に図柄表示する手段、およびモニタ画
面上に表示された2つの画像の重なり部が重なるよう
に、一方の画像をユーザによって移動させるための手段
を備えていることを特徴とする画像合成装置。
1. A plurality of images to be combined are two-dimensionally arranged on a monitor screen so that their arrangement positions match the actual relative positional relationship, and using the arrangement position information of each image, In an image synthesizing device for synthesizing all images, a user manually aligns the overlapping portions of adjacent images selected from a plurality of two-dimensionally arranged images on the monitor screen so that the overlapping portions of those images overlap each other. And a second means for synthesizing all the images based on the alignment result by the first means. The first means monitors two images forming an adjacent image pair. One of the images is displayed to the user so that the means for displaying on the screen, the means for displaying the relative positional relationship between the two images on the monitor screen, and the overlapping portion of the two images displayed on the monitor screen overlap each other. Yo Image synthesizing apparatus characterized by comprising means for moving Te.
【請求項2】 合成すべき複数枚の画像を、それらの配
置位置が実際の相対位置関係と合致するように、モニタ
画面上に2次元配置させ、各画像の配置位置情報を利用
して、全画像を合成する画像合成装置において、 モニタ画面上に2次元配置された複数枚の画像から選択
された隣接画像ペア毎に、それらの特徴点の対応付けを
ユーザに手動で行なわせるための第1手段、および第1
手段によって各隣接画像ペア毎に対応付けられた特徴点
を利用して、全画像を合成する第2手段を備えており、 第1手段は、隣接画像ペアを構成する2つの画像をモニ
タ画面上に表示する手段、上記2つの画像の相対位置関
係をモニタ画面上に図柄表示する手段、およびモニタ画
面上に表示された2つの画像上において両画像間で対応
する特徴点をユーザによって設定させるための手段を備
えていることを特徴とする画像合成装置。
2. A plurality of images to be combined are two-dimensionally arranged on a monitor screen so that the arrangement positions thereof match the actual relative positional relationship, and the arrangement position information of each image is used, In an image synthesizing device for synthesizing all images, a first method for allowing a user to manually associate the feature points with each other for each adjacent image pair selected from a plurality of images two-dimensionally arranged on the monitor screen 1 means, and 1
A second means for synthesizing all images by using the feature points associated with each adjacent image pair by the means is provided, and the first means includes two images forming the adjacent image pair on the monitor screen. To display the relative positional relationship between the two images on the monitor screen, and to allow the user to set the corresponding feature points between the two images on the two images displayed on the monitor screen. An image synthesizing apparatus comprising:
【請求項3】 2つの画像の相対位置関係をモニタ画面
上に図柄表示する手段は、上下方向を表す図柄、左右方
向を表す図柄、左下と右上を結ぶ斜め方向を表す図柄お
よび左上と右下を結ぶ斜め方向を表す図柄の4種類か
ら、当該2つの画像の相対位置関係に対応する図柄をモ
ニタ画面上に表示するものである請求項1および2のい
ずれかに記載の画像合成装置。
3. A means for displaying a relative positional relationship between two images on a monitor screen as means for displaying a symbol indicating the vertical direction, a symbol indicating the horizontal direction, a symbol indicating an oblique direction connecting the lower left and upper right and the upper left and lower right. The image synthesizing device according to claim 1, wherein a pattern corresponding to the relative positional relationship between the two images is displayed on the monitor screen from four types of symbols representing the diagonal direction connecting the two.
【請求項4】 合成すべき複数枚の画像を、それらの配
置位置が実際の相対位置関係と合致するように、モニタ
画面上に2次元配置させ、各画像の配置位置情報を利用
して、全画像を合成する画像合成方法において、 モニタ画面上に2次元配置された複数枚の画像から選択
された隣接画像ペア毎に、それらの画像の重なり部が重
なるように、ユーザに手動で位置合わせを行なわせる第
1ステップ、および第1ステップによる位置合わせ結果
に基づいて、全画像を合成する第2ステップを備えてお
り、 第1ステップは、隣接画像ペアを構成する2つの画像を
モニタ画面上に表示するステップ、上記2つの画像の相
対位置関係をモニタ画面上に図柄表示するステップ、お
よびモニタ画面上に表示された2つの画像の重なり部が
重なるように、一方の画像をユーザによって移動させる
ステップを備えていることを特徴とする画像合成方法。
4. A plurality of images to be combined are two-dimensionally arranged on a monitor screen so that the arrangement positions thereof match the actual relative positional relationship, and the arrangement position information of each image is used, In an image compositing method that composes all images, the user manually aligns the overlapping parts of adjacent images selected from a plurality of two-dimensionally arranged images on the monitor screen so that they overlap each other. And a second step of synthesizing all images based on the alignment result of the first step. The first step is to display two images forming an adjacent image pair on a monitor screen. On the monitor screen, the step of displaying the relative positional relationship between the two images on the monitor screen, and one of the two images displayed on the monitor screen so that the overlapping portions overlap each other. Image synthesis method characterized in that comprises a step of moving the image by the user.
【請求項5】 合成すべき複数枚の画像を、それらの配
置位置が実際の相対位置関係と合致するように、モニタ
画面上に2次元配置させ、各画像の配置位置情報を利用
して、全画像を合成する画像合成方法において、 モニタ画面上に2次元配置された複数枚の画像から選択
された隣接画像ペア毎に、それらの特徴点の対応付けを
ユーザに手動で行なわせる第1ステップ、および第1ス
テップによって各隣接画像ペア毎に対応付けられた特徴
点を利用して、全画像を合成する第2ステップを備えて
おり、 第1ステップは、隣接画像ペアを構成する2つの画像を
モニタ画面上に表示するステップ、上記2つの画像の相
対位置関係をモニタ画面上に図柄表示するステップ、お
よびモニタ画面上に表示された2つの画像上において両
画像間で対応する特徴点をユーザによって設定させるス
テップを備えていることを特徴とする画像合成方法。
5. A plurality of images to be combined are two-dimensionally arranged on a monitor screen so that the arrangement positions thereof match the actual relative positional relationship, and the arrangement position information of each image is used, In an image synthesizing method for synthesizing all images, a user manually associates those feature points with each other for each adjacent image pair selected from a plurality of images two-dimensionally arranged on the monitor screen. , And a second step of synthesizing all the images by using the feature points associated with each adjacent image pair by the first step, the first step including two images forming the adjacent image pair. On the monitor screen, the step of displaying the relative positional relationship between the two images on the monitor screen as a pattern, and the correspondence between the two images on the two images displayed on the monitor screen. Image synthesis method characterized in that comprises a step of setting the feature points by the user.
【請求項6】 2つの画像の相対位置関係をモニタ画面
上に図柄表示するステップは、上下方向を表す図柄、左
右方向を表す図柄、左下と右上を結ぶ斜め方向を表す図
柄および左上と右下を結ぶ斜め方向を表す図柄の4種類
から、当該2つの画像の相対位置関係に対応する図柄を
モニタ画面上に表示するものである請求項4および5の
いずれかに記載の画像合成方法。
6. The step of displaying the relative positional relationship between the two images on the monitor screen is a symbol indicating the vertical direction, a symbol indicating the horizontal direction, a symbol indicating the diagonal direction connecting the lower left and upper right and the upper left and lower right. The image synthesizing method according to claim 4, wherein a symbol corresponding to a relative positional relationship between the two images is displayed on the monitor screen from four types of symbols representing an oblique direction connecting the two.
【請求項7】 合成すべき複数枚の画像を、それらの配
置位置が実際の相対位置関係と合致するように、モニタ
画面上に2次元配置させ、各画像の配置位置情報を利用
して、全画像を合成する画像合成処理プログラムを記録
したコンピュータ読み取り可能な記録媒体であって、 モニタ画面上に2次元配置された複数枚の画像から選択
された隣接画像ペア毎に、それらの画像の重なり部が重
なるように、ユーザに手動で位置合わせを行なわせる第
1ステップ、および第1ステップによる位置合わせ結果
に基づいて、全画像を合成する第2ステップを、コンピ
ュータに実行させるためのプログラムを記録しており、 第1ステップは、隣接画像ペアを構成する2つの画像を
モニタ画面上に表示するステップ、上記2つの画像の相
対位置関係をモニタ画面上に図柄表示するステップ、お
よびモニタ画面上に表示された2つの画像の重なり部が
重なるように、一方の画像をユーザによって移動させる
ステップを備えていることを特徴とするコンピュータ読
み取り可能な記録媒体。
7. A plurality of images to be combined are two-dimensionally arranged on a monitor screen so that the arrangement positions thereof match the actual relative positional relationship, and the arrangement position information of each image is used, A computer-readable recording medium that records an image combination processing program that combines all images, and overlaps the images for each adjacent image pair selected from a plurality of two-dimensionally arranged images on the monitor screen. Recording a program for causing a computer to execute a first step in which the user manually performs alignment so that the parts overlap, and a second step in which all images are combined based on the alignment result of the first step The first step is to display two images forming an adjacent image pair on the monitor screen, and monitor the relative positional relationship between the two images. A computer-readable record comprising a step of displaying a pattern on a surface and a step of moving one image by a user so that an overlapping portion of two images displayed on the monitor screen overlaps. Medium.
【請求項8】 合成すべき複数枚の画像を、それらの配
置位置が実際の相対位置関係と合致するように、モニタ
画面上に2次元配置させ、各画像の配置位置情報を利用
して、全画像を合成する画像合成処理プログラムを記録
したコンピュータ読み取り可能な記録媒体であって、 モニタ画面上に2次元配置された複数枚の画像から選択
された隣接画像ペア毎に、それらの特徴点の対応付けを
ユーザに手動で行なわせる第1ステップ、および第1ス
テップによって各隣接画像ペア毎に対応付けられた特徴
点を利用して、全画像を合成する第2ステップを、コン
ピュータに実行させるためのプログラムを記録してお
り、 第1ステップは、隣接画像ペアを構成する2つの画像を
モニタ画面上に表示するステップ、上記2つの画像の相
対位置関係をモニタ画面上に図柄表示するステップ、お
よびモニタ画面上に表示された2つの画像上において両
画像間で対応する特徴点をユーザによって設定させるス
テップを備えていることを特徴とするコンピュータ読み
取り可能な記録媒体。
8. A plurality of images to be combined are two-dimensionally arranged on a monitor screen so that their arrangement positions match the actual relative positional relationship, and using the arrangement position information of each image, A computer-readable recording medium in which an image combining processing program for combining all images is recorded, and for each adjacent image pair selected from a plurality of images two-dimensionally arranged on a monitor screen, those feature points To cause the computer to perform the first step of manually associating the user and the second step of synthesizing all the images using the feature points associated with each adjacent image pair by the first step The first step is to display two images forming an adjacent image pair on a monitor screen, and monitor the relative positional relationship between the two images. A computer-readable recording medium comprising: a step of displaying a symbol on a screen; and a step of allowing a user to set a corresponding feature point between the two images displayed on the monitor screen. .
【請求項9】 2つの画像の相対位置関係をモニタ画面
上に図柄表示するステップは、上下方向を表す図柄、左
右方向を表す図柄、左下と右上を結ぶ斜め方向を表す図
柄および左上と右下を結ぶ斜め方向を表す図柄の4種類
から、当該2つの画像の相対位置関係に対応する図柄を
モニタ画面上に表示するものである請求項7および8の
いずれかに記載のコンピュータ読み取り可能な記録媒
体。
9. The step of displaying the relative positional relationship of two images on a monitor screen is a symbol representing the vertical direction, a symbol representing the horizontal direction, a symbol representing an oblique direction connecting the lower left and upper right and the upper left and lower right. 9. The computer-readable record according to claim 7, wherein a pattern corresponding to the relative positional relationship between the two images is displayed on the monitor screen from four types of symbols representing the diagonal direction connecting the two. Medium.
【請求項10】 合成すべき複数枚の画像を、それらの
配置位置が実際の相対位置関係と合致するように、モニ
タ画面上に2次元配置させ、各画像の配置位置情報を利
用して、全画像を合成する画像合成装置において、 モニタ画面上に2次元配置された複数枚の画像を隣接画
像間で重なりがあるように1次元配列する第1手段、お
よび1次元配列された画像の各隣接画像ペア毎に重なり
部を抽出し、各隣接画像ペア毎に抽出した重なり部に基
づいて、全画像を合成する第2手段を備えており、 第1手段は、モニタ画面上に2次元配置された複数枚の
画像から1次元配列の先頭画像として選択された画像を
注目画像とし、各画像が隙間なく配置されていると仮定
した場合において、未だ選択されていない画像のうち注
目画像との中心点間距離が最も短い画像を注目画像の次
に配列すべき画像として選択し、選択した画像を注目画
像として同様な処理を繰り返すことにより、全画像を1
次元配列させるものであることを特徴とする画像合成装
置。
10. A plurality of images to be combined are two-dimensionally arranged on a monitor screen so that their arrangement positions match the actual relative positional relationship, and using the arrangement position information of each image, In an image synthesizing device for synthesizing all images, a first means for arranging a plurality of images two-dimensionally arranged on a monitor screen in a one-dimensional manner so that adjacent images overlap each other, and each of the one-dimensionally arranged images The second means for extracting the overlapping part for each adjacent image pair and synthesizing all the images based on the overlapping part extracted for each adjacent image pair is provided, and the first means is arranged two-dimensionally on the monitor screen. Assuming that the image selected as the first image of the one-dimensional array from the plurality of selected images is the target image and that each image is arranged without gaps, the target image among the images not yet selected is The distance between the center points is Also select an image to be arranged next short image target image, by repeating the same processing the selected image as the target image, the entire image 1
An image synthesizing device characterized by being arranged in a three-dimensional manner.
【請求項11】 合成すべき複数枚の画像を、それらの
配置位置が実際の相対位置関係と合致するように、モニ
タ画面上に2次元配置させ、各画像の配置位置情報を利
用して、全画像を合成する画像合成方法において、 モニタ画面上に2次元配置された複数枚の画像を隣接画
像間で重なりがあるように1次元配列する第1ステッ
プ、および1次元配列された画像の各隣接画像ペア毎に
重なり部を抽出し、各隣接画像ペア毎に抽出した重なり
部に基づいて、全画像を合成する第2ステップを備えて
おり、 第1ステップは、モニタ画面上に2次元配置された複数
枚の画像から1次元配列の先頭画像として選択された画
像を注目画像とし、各画像が隙間なく配置されていると
仮定した場合において、未だ選択されていない画像のう
ち注目画像との中心点間距離が最も短い画像を注目画像
の次に配列すべき画像として選択し、選択した画像を注
目画像として同様な処理を繰り返すことにより、全画像
を1次元配列させるものであることを特徴とする画像合
成方法。
11. A plurality of images to be combined are two-dimensionally arranged on a monitor screen so that their arrangement positions match the actual relative positional relationship, and using the arrangement position information of each image, In an image synthesizing method for synthesizing all images, a first step of arranging a plurality of images two-dimensionally arranged on a monitor screen so that adjacent images overlap each other, and each of the images arranged in one dimensional A second step of extracting an overlapping portion for each adjacent image pair and synthesizing all images based on the overlapping portion extracted for each adjacent image pair is provided, and the first step is a two-dimensional arrangement on the monitor screen. Assuming that the image selected as the first image of the one-dimensional array from the plurality of selected images is the target image and that each image is arranged without gaps, the target image among the images not yet selected is During ~ The image having the shortest point-to-point distance is selected as an image to be arranged next to the target image, and the same process is repeated using the selected image as the target image, whereby all the images are arranged one-dimensionally. Image composition method.
【請求項12】 合成すべき複数枚の画像を、それらの
配置位置が実際の相対位置関係と合致するように、モニ
タ画面上に2次元配置させ、各画像の配置位置情報を利
用して、全画像を合成する画像合成処理プログラムを記
録したコンピュータ読み取り可能な記録媒体であって、 モニタ画面上に2次元配置された複数枚の画像を隣接画
像間で重なりがあるように1次元配列する第1ステッ
プ、および1次元配列された画像の各隣接画像ペア毎に
重なり部を抽出し、各隣接画像ペア毎に抽出した重なり
部に基づいて、全画像を合成する第2ステップを、コン
ピュータに実行させるためのプログラムを記録してお
り、 第1ステップは、モニタ画面上に2次元配置された複数
枚の画像から1次元配列の先頭画像として選択された画
像を注目画像とし、各画像が隙間なく配置されていると
仮定した場合において、未だ選択されていない画像のう
ち注目画像との中心点間距離が最も短い画像を注目画像
の次に配列すべき画像として選択し、選択した画像を注
目画像として同様な処理を繰り返すことにより、全画像
を1次元配列させるものであることを特徴とするコンピ
ュータ読み取り可能な記録媒体。
12. A plurality of images to be combined are two-dimensionally arranged on a monitor screen so that the arrangement positions thereof match the actual relative positional relationship, and the arrangement position information of each image is used, A computer-readable recording medium recording an image combination processing program for combining all images, in which a plurality of images two-dimensionally arranged on a monitor screen are arranged one-dimensionally so that adjacent images overlap each other. The computer executes the one step and the second step of extracting the overlapping part for each adjacent image pair of the one-dimensionally arranged images and synthesizing all the images based on the overlapping part extracted for each adjacent image pair. The first step is to select the image selected as the first image of the one-dimensional array from the plurality of two-dimensionally arranged images on the monitor screen as the target image. Assuming that the images are arranged without gaps, the image with the shortest center-to-center distance from the image of interest among the images that have not been selected is selected as the image to be arranged next to the image of interest, and selected. A computer-readable recording medium, wherein all the images are arranged in a one-dimensional manner by repeating the same processing using the image as the noted image.
JP2001276606A 2001-09-12 2001-09-12 Image synthesizing apparatus, image synthesizing method, and computer-readable recording medium recording an image synthesizing processing program Expired - Fee Related JP3979811B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001276606A JP3979811B2 (en) 2001-09-12 2001-09-12 Image synthesizing apparatus, image synthesizing method, and computer-readable recording medium recording an image synthesizing processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001276606A JP3979811B2 (en) 2001-09-12 2001-09-12 Image synthesizing apparatus, image synthesizing method, and computer-readable recording medium recording an image synthesizing processing program

Publications (2)

Publication Number Publication Date
JP2003087550A true JP2003087550A (en) 2003-03-20
JP3979811B2 JP3979811B2 (en) 2007-09-19

Family

ID=19101274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001276606A Expired - Fee Related JP3979811B2 (en) 2001-09-12 2001-09-12 Image synthesizing apparatus, image synthesizing method, and computer-readable recording medium recording an image synthesizing processing program

Country Status (1)

Country Link
JP (1) JP3979811B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007236455A (en) * 2006-03-06 2007-09-20 Toshiba Corp Magnetic resonance imaging apparatus
JP2010118932A (en) * 2008-11-13 2010-05-27 Canon Inc Image processing apparatus
JP2010147723A (en) * 2008-12-17 2010-07-01 Canon Inc Image processing apparatus, and method of controlling the same
JP2011206592A (en) * 2011-07-25 2011-10-20 Toshiba Corp Magnetic resonance imaging apparatus and image processor
WO2013133057A1 (en) * 2012-03-07 2013-09-12 ソニー株式会社 Image processing apparatus, method, and program
JP2016018244A (en) * 2014-07-04 2016-02-01 ホリゾン・インターナショナル株式会社 Quire counter
CN115086544A (en) * 2021-03-10 2022-09-20 株式会社斯库林集团 Imaging method and device, positional offset amount calculation method, program, and recording medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0659850A (en) * 1992-08-05 1994-03-04 Nippon Telegr & Teleph Corp <Ntt> Window display area control system
JPH0918685A (en) * 1995-06-29 1997-01-17 Ricoh Co Ltd Image composite method
JPH0997326A (en) * 1995-09-29 1997-04-08 Canon Inc Device and method for image composition
JPH10108003A (en) * 1996-09-30 1998-04-24 Sharp Corp Image compositing device and image compositing method
JPH11259637A (en) * 1998-03-06 1999-09-24 Canon Inc Device and method for image composition, and storage medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0659850A (en) * 1992-08-05 1994-03-04 Nippon Telegr & Teleph Corp <Ntt> Window display area control system
JPH0918685A (en) * 1995-06-29 1997-01-17 Ricoh Co Ltd Image composite method
JPH0997326A (en) * 1995-09-29 1997-04-08 Canon Inc Device and method for image composition
JPH10108003A (en) * 1996-09-30 1998-04-24 Sharp Corp Image compositing device and image compositing method
JPH11259637A (en) * 1998-03-06 1999-09-24 Canon Inc Device and method for image composition, and storage medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007236455A (en) * 2006-03-06 2007-09-20 Toshiba Corp Magnetic resonance imaging apparatus
JP2010118932A (en) * 2008-11-13 2010-05-27 Canon Inc Image processing apparatus
JP2010147723A (en) * 2008-12-17 2010-07-01 Canon Inc Image processing apparatus, and method of controlling the same
JP2011206592A (en) * 2011-07-25 2011-10-20 Toshiba Corp Magnetic resonance imaging apparatus and image processor
WO2013133057A1 (en) * 2012-03-07 2013-09-12 ソニー株式会社 Image processing apparatus, method, and program
JP2016018244A (en) * 2014-07-04 2016-02-01 ホリゾン・インターナショナル株式会社 Quire counter
CN115086544A (en) * 2021-03-10 2022-09-20 株式会社斯库林集团 Imaging method and device, positional offset amount calculation method, program, and recording medium

Also Published As

Publication number Publication date
JP3979811B2 (en) 2007-09-19

Similar Documents

Publication Publication Date Title
US7256799B2 (en) Image synthesizer, image synthesis method and computer readable recording medium having image synthesis processing program recorded thereon
US8687017B2 (en) Method and system for generating pyramid fisheye lens detail-in-context presentations
JP4832878B2 (en) Image composition processing apparatus and method
JP4196216B2 (en) Image composition system, image composition method and program
US8350872B2 (en) Graphical user interfaces and occlusion prevention for fisheye lenses with line segment foci
US11290704B2 (en) Three dimensional scanning system and framework
JP6144364B2 (en) Work support data creation program
JP2005100407A (en) System and method for creating panorama image from two or more source images
KR20000023784A (en) Method and apparatus for mosaic image construction
JP2003087549A (en) Device and method for compositing image and computer readable recording medium having image composite processing program recorded thereon
JP4153761B2 (en) 3D model space generation device, 3D model space generation method, and 3D model space generation program
JP3245336B2 (en) Modeling method and modeling system
JP2001274973A (en) Device and method for synthesizing microscopic image and computer-readable recording medium with microscopic image synthesizing processing program recorded thereon
JP6514418B2 (en) Imaging system, imaging method, and program
US20220141441A1 (en) Image display apparatus, image display method, and image display program
JP2016071682A (en) Object arrangement device, object arrangement method, and program
JP2003087550A (en) Device and method for compositing image and computer readable recording medium having image composite processing program recorded thereon
JP2002163647A (en) Device and method for calculating lens distortion coefficient and computer readable recording medium recording lens distortion coefficient calculation program
JP3241243B2 (en) Panorama image composition system and panorama image composition method
JP6893349B2 (en) Animation production system, animation production method, and program
KR20090049670A (en) Method for detecting 3-dimensional coordinates of subject for photography and memory media recording program to operate the method
JPH0991410A (en) Panorama image synthesis system
JPH10108003A (en) Image compositing device and image compositing method
JP2001222707A (en) Method and device for synthesizing intermediate picture and recording medium stored with intermediate picture synthesization program
JP2001256492A (en) Device and method for composing image and computer readable recording medium for recording its program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070626

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100706

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110706

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees