JP2015031599A - Image superposing method - Google Patents
Image superposing method Download PDFInfo
- Publication number
- JP2015031599A JP2015031599A JP2013161236A JP2013161236A JP2015031599A JP 2015031599 A JP2015031599 A JP 2015031599A JP 2013161236 A JP2013161236 A JP 2013161236A JP 2013161236 A JP2013161236 A JP 2013161236A JP 2015031599 A JP2015031599 A JP 2015031599A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- superimposing
- contours
- contour
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像重ね合わせ方法に関するものである。 The present invention relates to an image superimposing method.
従来、同一試料または類似の2つの試料を撮影した2つの画像を重ね合わせる際に、2つの画像を位置合わせするための技術が知られている(例えば、特許文献1〜3参照。)。特許文献1では、光学識別マークが設けられた保持部に試料を保持した状態で同一の光学系を用いて試料の蛍光または発光画像と透過光画像とを撮影し、各画像内に撮影された光学識別マークを位置合わせの基準として用いている。特許文献2では、測定領域に人為的なマーカを付した試料の画像を質量分析計と光学顕微鏡とを用いて取得し、得られた画像内のマーカを位置合わせの基準として用いている。特許文献3では、切片を切り出す検体を樹脂に包埋する際に柱状のマーカも検体と一緒に樹脂に埋め込み、マーカに垂直に検体を薄切し、作成された切片内のマーカを位置合わせの基準として用いている。
Conventionally, a technique for aligning two images when two images obtained by photographing the same sample or two similar samples are overlapped is known (for example, see Patent Documents 1 to 3). In Patent Document 1, a fluorescent or luminescent image and a transmitted light image of a sample are photographed using the same optical system in a state where the sample is held in a holding portion provided with an optical identification mark, and the image is photographed in each image. An optical identification mark is used as a reference for alignment. In
一方、カバーガラスのような基板上に貼り付けた切片を基板と共に切断することによって、切片内の特定の領域の断片を採取する方法が知られている(例えば、特許文献4参照。)。特許文献4では、生体組織の検体の近接する位置から切り出した2つの切片のうち、一方を切断用に用い、他方を染色に用いている。2つの切片は類似の組織形態を有しているので、染色した切片を参照することによって、もう1つの切片内の各位置の組織形態を推定し、癌化した領域のような採取すべき領域を特定することができる。 On the other hand, a method of collecting a fragment of a specific region in a section by cutting a section attached on a substrate such as a cover glass together with the substrate is known (see, for example, Patent Document 4). In Patent Document 4, one of two sections cut out from a position close to a specimen of a living tissue is used for cutting and the other is used for staining. Since the two sections have similar tissue morphology, by referring to the stained section, the tissue morphology at each position in the other section is estimated, and an area to be collected such as a cancerous area Can be specified.
特許文献4において、採取すべき切片の断片を正確に特定するために、2つの切片が正確に一致するようにこれら切片の画像を重ね合わせる技術が求められている。しかしながら、特許文献1〜3はいずれも、試料に対してマーカを取り付ける処理が必要となり不都合である。また、特許文献1および2は、同一試料を撮影した2つの画像に関する技術であるため、特許文献4への適用は難しい。特許文献3は、特許文献4と同様に、類似の組織形態を有する2つの切片を撮影した2つの画像に関するものである。しかし、切片の薄切方向に対してマーカが斜めに埋め込まれた場合、切片とマーカとの位置関係が切片毎にずれるため、マーカを基準にして2つの画像を正確に重ね合わせることができないという問題がある。
In Patent Document 4, in order to accurately specify a fragment of a section to be collected, a technique for superimposing images of these sections so that the two sections are accurately matched is required. However, all of Patent Documents 1 to 3 are inconvenient because a process of attaching a marker to a sample is required. Further, since
本発明は、上述した事情に鑑みてなされたものであって、類似する2つの試料を撮影した2つの画像を簡単にかつ正確に重ね合わせることができる画像重ね合わせ方法を提供することを目的とする。 The present invention has been made in view of the above-described circumstances, and an object thereof is to provide an image superimposing method capable of easily and accurately superimposing two images obtained by photographing two similar samples. To do.
上記目的を達成するため、本発明は以下の手段を提供する。
本発明は、第1の対象物を撮影した第1の画像と、前記第1の対象物と類似する形状を有する第2の対象物を撮影した第2の画像とを重ね合わせる方法であって、前記第1の対象物および前記第2の対象物が互いに等倍で表示された前記第1の画像および前記第2の画像を取得する画像取得工程と、該画像取得工程において取得された前記第1の画像および前記第2の画像の各々に表示されている前記対象物の輪郭を取得する輪郭取得工程と、該輪郭取得工程において取得された各前記輪郭の重心を検出する重心検出工程と、該重心検出工程において検出された前記輪郭の重心が互いに一致するように前記第1の画像および前記第2の画像を重ね合わせる重ね合わせ工程と、該重ね合わせ工程において一致された前記重心を中心に前記第1の画像および前記第2の画像を相対回転させてこれら画像の相対角度を調整する回転工程とを含む画像重ね合わせ方法を提供する。
In order to achieve the above object, the present invention provides the following means.
The present invention is a method for superimposing a first image obtained by photographing a first object and a second image obtained by photographing a second object having a shape similar to the first object. The image acquisition step for acquiring the first image and the second image in which the first object and the second object are displayed at the same magnification, and the image acquired in the image acquisition step A contour acquisition step of acquiring a contour of the object displayed in each of the first image and the second image, and a centroid detection step of detecting a centroid of each of the contours acquired in the contour acquisition step; A superimposing step of superimposing the first image and the second image so that the centroids of the contours detected in the centroid detection step coincide with each other, and the centroid matched in the superimposition step Said first The image and the second image are relatively rotated to provide a method by superimposing images and a rotating step of adjusting the relative angle of the image.
本発明によれば、画像取得工程において得られた第1の画像および第2の画像内の各対象物の輪郭を輪郭取得工程において取得し、次に各輪郭の重心を重心検出工程において検出し、次に重心が一致するように重ね合わせ工程において2つの画像を重ね合わせ、次に重心を中心とする2つの画像の相対角度を調整する。
これにより、類似しているものの同一ではない輪郭を有する2つの対象物を正確に位置合わせすることができる。また、2つの対象物の位置合わせのためのマーカを必要とせず、通常の画像を用いた簡単な処理のみで、2つの画像を重ね合わせることができる。
According to the present invention, the contour of each object in the first image and the second image obtained in the image acquisition step is acquired in the contour acquisition step, and then the centroid of each contour is detected in the centroid detection step. Then, the two images are superimposed in the superimposing step so that the centers of gravity coincide with each other, and then the relative angle between the two images centered on the center of gravity is adjusted.
This makes it possible to accurately align two objects having similar but not identical contours. Moreover, the marker for alignment of two objects is not required, and two images can be superimposed only by a simple process using a normal image.
上記発明においては、前記回転工程において、各前記輪郭によって囲まれている2つの領域の互いに重なり合う面積が最大となる角度に、前記相対角度を調整してもよい。
このようにすることで、2つの対象物の位置合わせの精度を簡単な計算のみを用いて評価し、2つの対象物の位置が最も一致する相対角度を決定することができる。
In the above invention, in the rotating step, the relative angle may be adjusted to an angle that maximizes an overlapping area of two regions surrounded by the contours.
In this way, it is possible to evaluate the alignment accuracy of the two objects using only simple calculations, and determine the relative angle at which the positions of the two objects most closely match.
また、上記発明においては、前記回転工程の後に、前記第1の画像および前記第2の画像を相対的に平行移動してこれら画像の相対位置を調整する平行移動工程を含んでもよい。
このようにすることで、一方の対象物の一部が変形する等してその対象物の輪郭の重心が偏っている場合に、2つの画像を平行移動することによって重心位置の偏りを補正し、2つの対象物の位置合わせ精度をさらに高めることができる。
Further, the above invention may include a translation step of adjusting the relative position of the first image and the second image by relatively translating the first image and the second image after the rotation step.
In this way, when the center of gravity of the contour of the target object is biased due to, for example, part of one target object deforming, the bias of the center of gravity position is corrected by translating the two images. The alignment accuracy of the two objects can be further increased.
また、上記発明においては、前記平行移動工程において、各前記輪郭によって囲まれている2つの領域の面積の平均に対する、前記2つの領域の互いに重なり合う面積の割合が最大となる位置に、前記相対位置を調整してもよい。
このようにすることで、2つの対象物の位置合わせの精度を簡単な計算のみを用いて評価し、2つの対象物の位置が最も一致する相対位置を決定することができる。
Further, in the above invention, in the parallel movement step, the relative position is set at a position where the ratio of the overlapping area of the two regions to the average of the area of the two regions surrounded by the contours is maximized. May be adjusted.
In this way, it is possible to evaluate the alignment accuracy of the two objects using only simple calculations, and to determine the relative position where the positions of the two objects most closely match.
また、上記発明においては、前記平行移動工程の後に、前記重心を中心に前記第1の画像および前記第2の画像を相対回転させてこれら画像の相対角度を微調整する再回転工程を含んでもよい。
このようにすることで、平行移動工程を行った結果、回転工程において決定された相対角度よりもさらに最適な相対角度が生じる可能性がある。そこで、2つの画像の相対角度を微調整することによって、2つの対象物の位置合わせ精度をさらに高めることができる。
Further, the above invention may include a re-rotation step that finely adjusts the relative angle between the first image and the second image by rotating the first image and the second image around the center of gravity after the parallel movement step. Good.
By doing in this way, as a result of performing the parallel movement process, there is a possibility that an optimum relative angle is generated more than the relative angle determined in the rotation process. Therefore, by finely adjusting the relative angle between the two images, the alignment accuracy of the two objects can be further increased.
本発明によれば、類似する2つの試料を撮影した2つの画像を簡単にかつ正確に重ね合わせることができるという効果を奏する。 According to the present invention, there is an effect that two images obtained by photographing two similar samples can be easily and accurately superimposed.
(第1の実施形態)
以下に、本発明の第1の実施形態に係る画像重ね合わせ方法について図1から図4を参照して説明する。
本実施形態に係る画像重ね合わせ方法は、第1の対象物を撮影した第1の画像と、第1の対象物と類似の形状を有する第2の対象物を撮影した第2の画像とを重ね合わせる方法であって、図1に示されるように、第1および第2の画像を取得する画像取得工程S1と、各画像内の対象物の輪郭を取得する輪郭取得工程S2と、各輪郭の重心を検出する重心検出工程S3と、重心を基準にして第1および第2の画像を重ね合わせる重ね合わせ工程S4と、重心回りに第1および第2の画像を相対回転させる回転工程S5とを含む。
(First embodiment)
Hereinafter, an image superimposing method according to the first embodiment of the present invention will be described with reference to FIGS.
The image superimposing method according to the present embodiment includes a first image obtained by photographing a first object and a second image obtained by photographing a second object having a shape similar to that of the first object. As shown in FIG. 1, an image acquisition step S1 for acquiring first and second images, a contour acquisition step S2 for acquiring the contour of an object in each image, and each contour as shown in FIG. A center of gravity detection step S3 for detecting the center of gravity of the image, a superposition step S4 for superimposing the first and second images on the basis of the center of gravity, and a rotation step S5 for relatively rotating the first and second images around the center of gravity. including.
図2は、本実施形態において用いられる第1の画像G1および第2の画像G2の例を示している。本実施形態においては、2つの対象物として、生体組織の検体から切り出された2つの切片1,2を想定している。2つの切片1,2は、検体の近接する位置、好ましくは隣接する位置から切り出されたものであって、互いにほぼ同一の形状および組織形態を有している。2つの切片1,2はそれぞれ、カバーガラスのような別々の基板に貼り付けられる。そして、一方の切片(第1の切片)1は、基板と共に小さな断片に切断され、選別された一部の断片が遺伝子検査等に供される。他方の切片(第2の切片)2は病理染色が施される。
FIG. 2 shows an example of the first image G1 and the second image G2 used in the present embodiment. In this embodiment, two
ここで、断片を選別するために、本実施形態に係る画像重ね合わせ方法が用いられる。すなわち、本実施形態に係る画像重ね合わせ方法によって、第1の切片1を撮影した第1の画像G1と、第2の切片2を撮影した第2の画像G2とを、第1の切片1と第2の切片2とが一致するように重ね合わせることによって、操作者は、第2の切片2の内、関心領域(例えば、癌化した領域)を特定し、特定した関心領域と対応する位置の断片を第1の切片1から選別することができる。
Here, the image superimposing method according to the present embodiment is used to select fragments. That is, the first image G1 obtained by photographing the first slice 1 and the second image G2 obtained by photographing the
なお、本実施形態に係る画像重ね合わせ方法は、切片1,2の画像に限らず、類似する外形状を有する2つの対象物を撮影した画像であれば、どのような画像に対しても適用することができる。
Note that the image superimposing method according to the present embodiment is not limited to the images of the
次に、本実施形態に係る画像重ね合わせ方法の各工程S1〜S5について詳細に説明する。
本実施形態に係る画像重ね合わせ方法は、例えば、パーソナルコンピュータ等のコンピュータ上で実行される画像処理用アプリケーションプログラムとして実現される。すなわち、CPU(中央演算処理装置)と、RAM(Random Access Memory)等の主記憶装置と、ROM(Read Only Memory)等の補助記憶装置と、キーボードやマウス等の入力装置と、表示装置とを備えるコンピュータにおいて、CPUが、補助記憶装置に予め格納されたプログラムを主記憶装置に読み出し、実行することによって、各工程S1〜S5を実行する。
または、本実施形態に係る重ね合わせ方法は、各工程S1〜S5を実行する手段を備える画像処理装置によって実現されてもよい。
Next, each step S1 to S5 of the image superimposing method according to the present embodiment will be described in detail.
The image superimposing method according to the present embodiment is realized as an image processing application program executed on a computer such as a personal computer, for example. That is, a CPU (Central Processing Unit), a main storage device such as a RAM (Random Access Memory), an auxiliary storage device such as a ROM (Read Only Memory), an input device such as a keyboard and a mouse, and a display device. In the computer provided, the CPU executes each step S1 to S5 by reading out and executing a program stored in advance in the auxiliary storage device to the main storage device.
Alternatively, the superimposing method according to the present embodiment may be realized by an image processing apparatus including a unit that executes each of steps S1 to S5.
まず、画像取得工程S1において、切片1,2が互いに同じ倍率で表示された第1の画像G1および第2の画像G2を、例えば、補助記憶装置から読み出すことによって取得する。これら画像G1,G2は、例えば、第1の切片1および第2の切片2を、同一の撮影装置を用いて同一の倍率で撮影して得られたものである。もし、画像G1,G2が、第1の切片1および第2の切片2を互いに異なる倍率で撮影したものである場合には、切片1,2が互いに同じ倍率で表示されるように、2つの画像G1,G2のうち少なくとも一方を撮影倍率に応じて拡大または縮小する。
First, in the image acquisition step S1, the first image G1 and the second image G2 in which the
画像取得工程S1においては、画像G1,G2に対して画像処理を適宜施してもよい。例えば、2つの切片1,2のうち一方が、表裏が反対に基板に貼り付けられ、その結果、第1の画像G1と第2の画像G2とにおいて切片1,2が互いに反転することがある。このような場合には、2つの画像G1,G2のうち一方に、像を反転させる処理を施してもよい。さらに、この後に行われる工程S2〜S5を容易にするために、各画像G1,G2の明るさ、コントラスト、ガンマカーブ等を調整してもよく、画像G1,G2に効果を与えてもよい。
In the image acquisition step S1, image processing may be appropriately performed on the images G1 and G2. For example, one of the two
次に、輪郭取得工程S2においては、画像処理によって各画像G1,G2から切片1,2の輪郭A,Bを抽出する。画像処理としては、階調値の二値化処理や微分処理等の公知の方法が利用される。
Next, in the contour acquisition step S2, the contours A and B of the
輪郭取得工程S2においては、画像処理に代えて、操作者による手入力によって輪郭A,Bを取得してもよい。例えば、表示装置に表示された各画像G1,G2内の切片1,2の輪郭に沿って操作者が入力装置を用いてベジエ曲線を描き、描かれたベジエ曲線を輪郭A,Bとして取得してもよい。または、タッチパネルに表示されている各画像G1,G2内の切片1,2の輪郭を操作者がスタイラスペンを用いてなぞり、その軌跡を輪郭A,Bを取得してもよく、タッチパッド、ポインティングスティック、マウス等のデバイスを使用してもよい。また、画像処理と操作者による手入力とを組み合わせ、画像処理によって抽出された輪郭A,Bを、操作者が手入力で修正してもよい。
In the contour acquisition step S2, the contours A and B may be acquired by manual input by an operator instead of image processing. For example, the operator draws a Bezier curve using the input device along the contours of the
次に、重心検出工程S3においては、各輪郭A,Bを構成する画素の座標の平均を計算することによって、重心C1,C2の位置を算出する。ここで、重心C1,C2の計算には、輪郭A,Bを構成する全ての画素の座標を必ずしも用いなくてもよく、計算量を低減するために一部の座標を間引いてもよい。 Next, in the centroid detection step S3, the positions of the centroids C1 and C2 are calculated by calculating the average of the coordinates of the pixels constituting the contours A and B. Here, in calculating the centroids C1 and C2, it is not always necessary to use the coordinates of all the pixels constituting the contours A and B, and some of the coordinates may be thinned out in order to reduce the amount of calculation.
次に、重ね合わせ工程S4においては、図3に示されるように、重心検出工程S3によって検出された重心C1,C2が互いに一致するように、第1の画像G1上に第2の画像G2を重ね合わせる。
なお、図3および図4において、第1の画像G1と第2の画像G2、第1の切片1と第2の切片2を識別し易くするために、第1の画像G1および第1の切片1は破線で示されている。
Next, in the superimposition step S4, as shown in FIG. 3, the second image G2 is placed on the first image G1 so that the centroids C1 and C2 detected by the centroid detection step S3 coincide with each other. Overlapping.
In FIGS. 3 and 4, the first image G1 and the first slice G1, and the first slice G1 and the
次に、回転工程S5においては、重心C1,C2が互いに一致するように重ね合わされている2つの画像G1,G2のうち、第2の画像G2を、重心C1,C2を中心にして所定の角度範囲内、好ましくは360°回転させる。そして、図4に示されるように、第1の画像G1に対する第2の画像G2の回転角度を、一致率が最大となる角度に調整する。一致率は、下式によって定義される。
一致率=2R/(r1×r2)
ここで、r1は、輪郭Aによって囲まれる領域の面積、r2は、輪郭Bによって囲まれる領域の面積、Rは、各輪郭A,Bによって囲まれる2つの領域が互いに重なり合っている領域(図3および図4において、ハッチングで示される領域)の面積である。Rは、r1とr2とのうち、小さい方の面積を超えることはない。このため、r1およびr2の値、または、第1の画像G1および第2の画像G2の形態により、一致率の最大値は1以下となる。
Next, in the rotation step S5, of the two images G1 and G2 superimposed so that the centroids C1 and C2 coincide with each other, the second image G2 is centered on the centroids C1 and C2 at a predetermined angle. Rotate within the range, preferably 360 °. Then, as shown in FIG. 4, the rotation angle of the second image G2 with respect to the first image G1 is adjusted to an angle at which the coincidence rate is maximized. The match rate is defined by the following equation.
Match rate = 2R / (r1 × r2)
Here, r1 is the area of the region surrounded by the contour A, r2 is the area of the region surrounded by the contour B, and R is the region where the two regions surrounded by the contours A and B overlap each other (FIG. 3). And in FIG. 4, the area is a hatched area. R does not exceed the smaller area of r1 and r2. For this reason, the maximum value of the matching rate is 1 or less depending on the values of r1 and r2 or the form of the first image G1 and the second image G2.
具体的には、例えば、第2の画像G2を10°単位で回転させながら各回転角度における一致率を計算し、算出された一致率が最大である回転角度を決定する。この後に、さらに、決定した回転角度の前後9°の範囲において1°単位で第2の画像G2を回転させ、同様にして一致率が最大である回転角度を決定してもよい。このようにすることで、重ね合わせ精度を向上することができる。なお、回転角度の単位は、任意であって、例えば、0.5°であってもよく、さらに小さくてもよい。 Specifically, for example, the coincidence rate at each rotation angle is calculated while rotating the second image G2 in units of 10 °, and the rotation angle at which the calculated coincidence rate is maximum is determined. Thereafter, the second image G2 may be further rotated in units of 1 ° within a range of 9 ° before and after the determined rotation angle, and similarly the rotation angle with the maximum matching rate may be determined. By doing so, the overlay accuracy can be improved. The unit of the rotation angle is arbitrary, and may be 0.5 °, for example, or may be smaller.
回転工程S5の最中には、操作者が輪郭A,Bの重ね合わせ状況を認識し易いように、2つの輪郭A,Bと、重ね合わされている2つの画像G1,G2とを別々に表示してもよく、補助的な情報を表示してもよい。例えば、輪郭A,Bによって囲まれる2つの領域が互いに重なり合っている領域を、所定の色で表示してもよい。さらに、一致率を示す、数値またはバーグラフのようなグラフィックスを表示してもよい。一致率は、操作者が理解し易いように、値を0を超え最大1までとして、重ね合わせる画像に関わらずに一定の範囲に収まるようにすることが好ましい。また、一致率に代えて、面積Rの値をそのまま操作者に提示してもよい。 During the rotation step S5, the two contours A and B and the two superimposed images G1 and G2 are separately displayed so that the operator can easily recognize the overlapping state of the contours A and B. Alternatively, auxiliary information may be displayed. For example, a region where two regions surrounded by the outlines A and B overlap each other may be displayed in a predetermined color. Furthermore, a graphic such as a numerical value or a bar graph showing the matching rate may be displayed. The coincidence rate is preferably set to a value exceeding 0 and a maximum of 1 so as to be easily understood by an operator so that the matching rate is within a certain range regardless of the superimposed images. Further, instead of the matching rate, the value of the area R may be presented to the operator as it is.
なお、回転工程S5においては、操作者が第2の画像G2の回転角度を入力装置を用いて入力し、入力された回転角度だけ画像処理によって第1の画像G1を回転させてもよい。また、第2の画像G2に対して第1の画像G1を回転させてもよい。 In the rotation step S5, the operator may input the rotation angle of the second image G2 using an input device, and rotate the first image G1 by image processing by the input rotation angle. Further, the first image G1 may be rotated with respect to the second image G2.
また、回転工程S5においては、複数の回転角度において十分に高い一致率が得られた場合には、それら複数の回転角度を候補として操作者に提示し、提示された候補の中から1つを操作者が選定してもよい。一致率は、2つの輪郭A,Bの全体的な形状のみに基づいて決定される値であり、輪郭A,Bによって囲まれている領域内の組織形態や、輪郭A,Bの局所的な特徴等を考慮していない。そのため、輪郭A,Bが重心C1,C2に対してほぼ対称な形状を有する場合には、第2の画像G2が、適切な回転角度から例えば180°回転した角度においても、一致率が高くなる。また、輪郭A,Bがほぼ円形である場合には、重心C2を中心に第2の画像G2を回転させたとしても、一致率があまり変化しない。そこで、複数の回転角度において高い一致率が得られ場合には、操作者が2つの切片1,2の組織形態に基づいて最適な回転角度を選定してもよい。
In the rotation step S5, when a sufficiently high coincidence rate is obtained at a plurality of rotation angles, the plurality of rotation angles are presented to the operator as candidates, and one of the presented candidates is selected. The operator may select it. The coincidence rate is a value determined based only on the overall shape of the two contours A and B, and the tissue form in the region surrounded by the contours A and B and the local shapes of the contours A and B It does not consider features. Therefore, when the contours A and B have shapes that are substantially symmetrical with respect to the centers of gravity C1 and C2, the coincidence rate is high even when the second image G2 is rotated, for example, by 180 ° from an appropriate rotation angle. . When the contours A and B are substantially circular, even if the second image G2 is rotated around the center of gravity C2, the coincidence rate does not change much. Therefore, when a high coincidence rate is obtained at a plurality of rotation angles, the operator may select an optimal rotation angle based on the tissue morphology of the two
以上の手順によって、第1の画像G1および第2の画像G2を、第1の切片1と第2の切片2とが一致するように重ね合わせることができる。この場合に、本実施形態に係る画像重ね合わせ方法によれば、画像G1,G2内の切片1,2の輪郭A,Bの重心C1,C2を検出し、重心C1,C2回りに2つの切片1,2の相対角度を調整することによって、2つの切片1,2が精度良く一致するように2つの画像G1,G2を重ね合わせることができる。さらに、2つの切片1,2の位置合わせのためのマーカは不要であり、通常の画像G1,G2を利用することができるので、特別な部材や処理が不要であると共に、簡単な画像処理および演算処理のみで足り、短時間で画像G1,G2の重ね合わせを行うことができるという利点がある。
By the above procedure, the first image G1 and the second image G2 can be overlaid so that the first slice 1 and the
(第2の実施形態)
次に、本発明の第2の実施形態に係る画像重ね合わせ方法について図5を参照して説明する。
本実施形態に係る画像重ね合わせ方法は、図5に示されるように、回転工程S5の後に、平行移動工程S6および再回転工程S7をさらに含む点において、第1の実施形態と異なっている。したがって、本実施形態においては、これら2つの工程S6,S7について主に説明し、第1の実施形態と共通する構成については同一の符号を付して説明を省略する。
(Second Embodiment)
Next, an image superimposing method according to the second embodiment of the present invention will be described with reference to FIG.
As shown in FIG. 5, the image superposition method according to the present embodiment is different from the first embodiment in that it further includes a parallel movement step S6 and a re-rotation step S7 after the rotation step S5. Therefore, in the present embodiment, these two steps S6 and S7 will be mainly described, and the same reference numerals are given to the configurations common to the first embodiment, and the description will be omitted.
平行移動工程S6においては、第2の画像G2を、第1の画像G1に対して平行移動し、各位置において一致率を計算し、一致率が最大となる位置に第2の画像G2を位置決めする。このときに、第2の画像G2を平行移動する範囲を予め設定しておくことが好ましい。 In the translation step S6, the second image G2 is translated with respect to the first image G1, the coincidence rate is calculated at each position, and the second image G2 is positioned at a position where the coincidence rate is maximized. To do. At this time, it is preferable to set in advance a range in which the second image G2 is translated.
例えば、第1の画像G1の横方向をX軸、縦方向をY軸と定義する。そして、重心C1,C2が一致する位置を基準にして、輪郭AのX軸方向の最大長さの5%の距離の範囲内において、第2の画像G2をX軸方向に平行移動させる。移動量の単位は、1ピクセルであることが好ましいが、計算量を低減するために2ピクセルから10ピクセル程度であってもよい。同様に、重心C1,C2が一致する位置を基準にして、輪郭AのY軸方向の最大長さの5%の距離の範囲内において、第2の画像G2をY軸方向に平行移動させる。そして、X軸方向の各位置と、Y軸方向の各位置との全ての組み合わせについて、一致率を計算し、一致率が最大となる位置を決定する。 For example, the horizontal direction of the first image G1 is defined as the X axis and the vertical direction is defined as the Y axis. Then, the second image G2 is translated in the X-axis direction within a distance range of 5% of the maximum length of the contour A in the X-axis direction with reference to the position where the centroids C1 and C2 coincide. The unit of the movement amount is preferably 1 pixel, but may be about 2 to 10 pixels in order to reduce the calculation amount. Similarly, the second image G2 is translated in the Y-axis direction within a distance range of 5% of the maximum length of the contour A in the Y-axis direction with reference to the position where the centroids C1 and C2 coincide. Then, the coincidence rate is calculated for all combinations of the respective positions in the X-axis direction and the respective positions in the Y-axis direction, and the position where the coincidence rate is maximized is determined.
平行移動工程S6においては、前述した回転工程S5と同様に、複数の位置において十分に高い一致率が得られた場合には、それら複数の位置を候補として操作者に提示し、提示された候補の中から1つを操作者が選定してもよい。 In the translation step S6, similarly to the rotation step S5 described above, when a sufficiently high coincidence rate is obtained at a plurality of positions, the plurality of positions are presented to the operator as candidates, and the presented candidates One may be selected by the operator.
再回転工程S7は、前述した回転工程S5と同様に行われる。ただし、第1の画像G1と第2の画像G2との相対角度は、回転工程S5において既に一度調整されているので、本工程S7においては、回転工程S5よりも狭い角度範囲内において、回転工程S5よりも小さい単位で第2の画像G2を回転させることが好ましい。 The re-rotation step S7 is performed in the same manner as the rotation step S5 described above. However, since the relative angle between the first image G1 and the second image G2 has already been adjusted once in the rotation step S5, in this step S7, the rotation step is performed within an angle range narrower than that of the rotation step S5. It is preferable to rotate the second image G2 by a unit smaller than S5.
薄い切片1,2は、基板に貼り付ける際に歪んだり端部が折れたりすることによって、輪郭A,Bが変形することがある。このような変形が生じている場合には、重心C1,C2の位置が本来の位置からずれて、その結果、重ね合わせ工程S4において、2つの画像G1,G2が本来の相対位置からずれた位置で重ね合わせられる。本実施形態によれば、平行移動工程S6によって、重心C1,C2の位置のずれを補正し、2つの切片1,2がさらに正確に一致するように2つの画像G1,G2の重ね合わせることができる。
The
さらに、平行移動工程S6を行った結果、回転工程S5において決定された相対角度よりもさらに最適な角度が生じ得る。本実施形態によれば、再回転工程S7によって、2つの画像G1,G2の相対角度を再度調整することによって、2つの画像G1,G2の重ね合わせ精度をさらに高めることができる。 Furthermore, as a result of performing the parallel movement step S6, an angle that is more optimal than the relative angle determined in the rotation step S5 may be generated. According to this embodiment, the overlay accuracy of the two images G1 and G2 can be further increased by adjusting the relative angle between the two images G1 and G2 again by the re-rotation step S7.
なお、本実施形態においては、回転工程S5、平行移動工程S6および再回転工程S7の各々において得られた、2つの画像G1,G2の重ね合わせ結果や角度または位置の候補を、一致率と一緒に記憶しておき、再回転工程S7の後に、全ての重ね合わせ結果を一致率と一緒に操作者に提示し、操作者が、最終的な重ね合わせ結果を選定してもよい。 In the present embodiment, the result of superimposing the two images G1 and G2 obtained in each of the rotation step S5, the parallel movement step S6, and the re-rotation step S7, and the angle or position candidate, together with the matching rate are used. And after the re-rotation step S7, all the overlay results may be presented to the operator together with the matching rate, and the operator may select the final overlay result.
1,2 切片(対象物)
A,B 輪郭
C1,C2 重心
G1,G2 画像
S1 画像取得工程
S2 輪郭取得工程
S3 重心検出工程
S4 重ね合わせ工程
S5 回転工程
S6 平行移動工程
S7 再回転工程
1, 2 sections (object)
A, B Contour C1, C2 Center of gravity G1, G2 Image S1 Image acquisition process S2 Contour acquisition process S3 Center of gravity detection process S4 Overlay process S5 Rotation process S6 Parallel movement process S7 Re-rotation process
Claims (5)
前記第1の対象物および前記第2の対象物が互いに等倍で表示された前記第1の画像および前記第2の画像を取得する画像取得工程と、
該画像取得工程において取得された前記第1の画像および前記第2の画像の各々に表示されている前記対象物の輪郭を取得する輪郭取得工程と、
該輪郭取得工程において取得された各前記輪郭の重心を検出する重心検出工程と、
該重心検出工程において検出された前記輪郭の重心が互いに一致するように前記第1の画像および前記第2の画像を重ね合わせる重ね合わせ工程と、
該重ね合わせ工程において一致された前記重心を中心に前記第1の画像および前記第2の画像を相対回転させてこれら画像の相対角度を調整する回転工程とを含む画像重ね合わせ方法。 A method of superimposing a first image obtained by photographing a first object and a second image obtained by photographing a second object having a shape similar to the first object,
An image acquisition step of acquiring the first image and the second image in which the first object and the second object are displayed at the same magnification;
A contour acquisition step of acquiring a contour of the object displayed in each of the first image and the second image acquired in the image acquisition step;
A centroid detection step of detecting the centroid of each of the contours acquired in the contour acquisition step;
A superimposing step of superimposing the first image and the second image so that the centroids of the contours detected in the centroid detection step coincide with each other;
An image superimposing method including a rotating step of relatively rotating the first image and the second image around the center of gravity matched in the superimposing step to adjust a relative angle between the images.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013161236A JP2015031599A (en) | 2013-08-02 | 2013-08-02 | Image superposing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013161236A JP2015031599A (en) | 2013-08-02 | 2013-08-02 | Image superposing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015031599A true JP2015031599A (en) | 2015-02-16 |
Family
ID=52517030
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013161236A Pending JP2015031599A (en) | 2013-08-02 | 2013-08-02 | Image superposing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015031599A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018043809A1 (en) * | 2016-09-05 | 2018-03-08 | 주식회사 영우디에스피 | Device for inspecting attachment position of window glass for display |
JP2018529215A (en) * | 2015-06-09 | 2018-10-04 | ツェットカーヴェー グループ ゲーエムベーハー | Method for positionally accurate mounting of circuit supports |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010511213A (en) * | 2006-11-16 | 2010-04-08 | ヴィジオファーム エイ/エス | Method for acquiring / analyzing registration / image based on feature of segmented image |
JP2013530467A (en) * | 2010-06-15 | 2013-07-25 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Image processing method for microscopy |
-
2013
- 2013-08-02 JP JP2013161236A patent/JP2015031599A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010511213A (en) * | 2006-11-16 | 2010-04-08 | ヴィジオファーム エイ/エス | Method for acquiring / analyzing registration / image based on feature of segmented image |
JP2013530467A (en) * | 2010-06-15 | 2013-07-25 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Image processing method for microscopy |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018529215A (en) * | 2015-06-09 | 2018-10-04 | ツェットカーヴェー グループ ゲーエムベーハー | Method for positionally accurate mounting of circuit supports |
WO2018043809A1 (en) * | 2016-09-05 | 2018-03-08 | 주식회사 영우디에스피 | Device for inspecting attachment position of window glass for display |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10262189B2 (en) | Evaluation of co-registered images of differently stained tissue slices | |
CN107958458B (en) | Image segmentation method, image segmentation system and equipment comprising image segmentation system | |
US11164670B2 (en) | Methods and apparatus for identifying skin features of interest | |
US9940515B2 (en) | Image analysis for authenticating a product | |
CN103994786B (en) | Image detecting method for arc ruler lines of pointer instrument scale | |
JP2003016463A (en) | Extracting method for outline of figure, method and device for pattern inspection, program, and computer- readable recording medium with the same stored therein | |
US8731274B2 (en) | Method and system for wafer registration | |
US9471984B2 (en) | Method for self-calibration of a microscope apparatus | |
KR20130117862A (en) | Pattern matching apparatus, and computer program | |
US20130083020A1 (en) | Three-dimensional data processing apparatus, three-dimensional data processing method, and three-dimensional data processing program | |
US10102631B2 (en) | Edge detection bias correction value calculation method, edge detection bias correction method, and edge detection bias correcting program | |
KR20140006891A (en) | Microscope slide coordinate system registration | |
US20190138840A1 (en) | Automatic ruler detection | |
CN111310753B (en) | Meter alignment method and device | |
US20180330512A1 (en) | Registration of tissue slice image | |
JP2017003525A (en) | Three-dimensional measuring device | |
US9675245B2 (en) | Method and device for determining the eye torsion | |
JP2015031599A (en) | Image superposing method | |
US8841614B1 (en) | Sample structure analyzing method, transmission electron microscope, and computer-readable non-transitory recording medium | |
JP3075345B2 (en) | Skin pattern feature extraction device | |
JP2012200156A (en) | Method for tracking cell | |
CN105718929B (en) | The quick round object localization method of high-precision and system under round-the-clock circumstances not known | |
JP3919722B2 (en) | Skin shape measuring method and skin shape measuring apparatus | |
Tuan et al. | The improved faster r-cnn for detecting small facial landmarks on vietnamese human face based on clinical diagnosis | |
CN112288672A (en) | Tumor detection method and tumor detection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160401 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170207 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170801 |