JP2015031599A - Image superposing method - Google Patents

Image superposing method Download PDF

Info

Publication number
JP2015031599A
JP2015031599A JP2013161236A JP2013161236A JP2015031599A JP 2015031599 A JP2015031599 A JP 2015031599A JP 2013161236 A JP2013161236 A JP 2013161236A JP 2013161236 A JP2013161236 A JP 2013161236A JP 2015031599 A JP2015031599 A JP 2015031599A
Authority
JP
Japan
Prior art keywords
image
images
superimposing
contours
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013161236A
Other languages
Japanese (ja)
Inventor
森本 伸彦
Nobuhiko Morimoto
伸彦 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2013161236A priority Critical patent/JP2015031599A/en
Publication of JP2015031599A publication Critical patent/JP2015031599A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To superpose two images derived by photographing two similar samples one on top of another simply and accurately.SOLUTION: Provided is an image superposing method including: an image acquisition step S1 of acquiring a first image and a second image in which a first object and a second object having a mutually similar shape are displayed in equal size, respectively; a contour acquisition step S2 of acquiring the contour of the object displayed in each of the first image and the second image; a center of gravity detection step S3 of detecting the center of gravity of each contour; a superposition step S4 of superposing the first image and the second image one on top of another so that the centers of gravity of the contours match each other; and a rotation step S5 of rotating the first image and the second image centering on the matched center of gravity relative to each other and adjusting the relative angles of these images.

Description

本発明は、画像重ね合わせ方法に関するものである。   The present invention relates to an image superimposing method.

従来、同一試料または類似の2つの試料を撮影した2つの画像を重ね合わせる際に、2つの画像を位置合わせするための技術が知られている(例えば、特許文献1〜3参照。)。特許文献1では、光学識別マークが設けられた保持部に試料を保持した状態で同一の光学系を用いて試料の蛍光または発光画像と透過光画像とを撮影し、各画像内に撮影された光学識別マークを位置合わせの基準として用いている。特許文献2では、測定領域に人為的なマーカを付した試料の画像を質量分析計と光学顕微鏡とを用いて取得し、得られた画像内のマーカを位置合わせの基準として用いている。特許文献3では、切片を切り出す検体を樹脂に包埋する際に柱状のマーカも検体と一緒に樹脂に埋め込み、マーカに垂直に検体を薄切し、作成された切片内のマーカを位置合わせの基準として用いている。   Conventionally, a technique for aligning two images when two images obtained by photographing the same sample or two similar samples are overlapped is known (for example, see Patent Documents 1 to 3). In Patent Document 1, a fluorescent or luminescent image and a transmitted light image of a sample are photographed using the same optical system in a state where the sample is held in a holding portion provided with an optical identification mark, and the image is photographed in each image. An optical identification mark is used as a reference for alignment. In Patent Document 2, an image of a sample with an artificial marker attached to a measurement region is obtained using a mass spectrometer and an optical microscope, and the marker in the obtained image is used as a reference for alignment. In Patent Document 3, when a specimen from which a section is cut is embedded in a resin, a columnar marker is also embedded in the resin together with the specimen, the specimen is sliced perpendicularly to the marker, and the marker in the created section is aligned. It is used as a standard.

一方、カバーガラスのような基板上に貼り付けた切片を基板と共に切断することによって、切片内の特定の領域の断片を採取する方法が知られている(例えば、特許文献4参照。)。特許文献4では、生体組織の検体の近接する位置から切り出した2つの切片のうち、一方を切断用に用い、他方を染色に用いている。2つの切片は類似の組織形態を有しているので、染色した切片を参照することによって、もう1つの切片内の各位置の組織形態を推定し、癌化した領域のような採取すべき領域を特定することができる。   On the other hand, a method of collecting a fragment of a specific region in a section by cutting a section attached on a substrate such as a cover glass together with the substrate is known (see, for example, Patent Document 4). In Patent Document 4, one of two sections cut out from a position close to a specimen of a living tissue is used for cutting and the other is used for staining. Since the two sections have similar tissue morphology, by referring to the stained section, the tissue morphology at each position in the other section is estimated, and an area to be collected such as a cancerous area Can be specified.

特許第3766421号公報Japanese Patent No. 3766421 特開2010−85219号公報JP 2010-85219 A 特開2013−83474号公報JP 2013-83474 A 国際公開第2011/149009号International Publication No. 2011/149909

特許文献4において、採取すべき切片の断片を正確に特定するために、2つの切片が正確に一致するようにこれら切片の画像を重ね合わせる技術が求められている。しかしながら、特許文献1〜3はいずれも、試料に対してマーカを取り付ける処理が必要となり不都合である。また、特許文献1および2は、同一試料を撮影した2つの画像に関する技術であるため、特許文献4への適用は難しい。特許文献3は、特許文献4と同様に、類似の組織形態を有する2つの切片を撮影した2つの画像に関するものである。しかし、切片の薄切方向に対してマーカが斜めに埋め込まれた場合、切片とマーカとの位置関係が切片毎にずれるため、マーカを基準にして2つの画像を正確に重ね合わせることができないという問題がある。   In Patent Document 4, in order to accurately specify a fragment of a section to be collected, a technique for superimposing images of these sections so that the two sections are accurately matched is required. However, all of Patent Documents 1 to 3 are inconvenient because a process of attaching a marker to a sample is required. Further, since Patent Documents 1 and 2 are techniques related to two images obtained by photographing the same sample, application to Patent Document 4 is difficult. Patent Document 3 relates to two images obtained by photographing two sections having similar tissue forms, as in Patent Document 4. However, when the marker is embedded obliquely with respect to the slice slicing direction, the positional relationship between the segment and the marker is shifted for each segment, so that the two images cannot be accurately superimposed on the basis of the marker. There's a problem.

本発明は、上述した事情に鑑みてなされたものであって、類似する2つの試料を撮影した2つの画像を簡単にかつ正確に重ね合わせることができる画像重ね合わせ方法を提供することを目的とする。   The present invention has been made in view of the above-described circumstances, and an object thereof is to provide an image superimposing method capable of easily and accurately superimposing two images obtained by photographing two similar samples. To do.

上記目的を達成するため、本発明は以下の手段を提供する。
本発明は、第1の対象物を撮影した第1の画像と、前記第1の対象物と類似する形状を有する第2の対象物を撮影した第2の画像とを重ね合わせる方法であって、前記第1の対象物および前記第2の対象物が互いに等倍で表示された前記第1の画像および前記第2の画像を取得する画像取得工程と、該画像取得工程において取得された前記第1の画像および前記第2の画像の各々に表示されている前記対象物の輪郭を取得する輪郭取得工程と、該輪郭取得工程において取得された各前記輪郭の重心を検出する重心検出工程と、該重心検出工程において検出された前記輪郭の重心が互いに一致するように前記第1の画像および前記第2の画像を重ね合わせる重ね合わせ工程と、該重ね合わせ工程において一致された前記重心を中心に前記第1の画像および前記第2の画像を相対回転させてこれら画像の相対角度を調整する回転工程とを含む画像重ね合わせ方法を提供する。
In order to achieve the above object, the present invention provides the following means.
The present invention is a method for superimposing a first image obtained by photographing a first object and a second image obtained by photographing a second object having a shape similar to the first object. The image acquisition step for acquiring the first image and the second image in which the first object and the second object are displayed at the same magnification, and the image acquired in the image acquisition step A contour acquisition step of acquiring a contour of the object displayed in each of the first image and the second image, and a centroid detection step of detecting a centroid of each of the contours acquired in the contour acquisition step; A superimposing step of superimposing the first image and the second image so that the centroids of the contours detected in the centroid detection step coincide with each other, and the centroid matched in the superimposition step Said first The image and the second image are relatively rotated to provide a method by superimposing images and a rotating step of adjusting the relative angle of the image.

本発明によれば、画像取得工程において得られた第1の画像および第2の画像内の各対象物の輪郭を輪郭取得工程において取得し、次に各輪郭の重心を重心検出工程において検出し、次に重心が一致するように重ね合わせ工程において2つの画像を重ね合わせ、次に重心を中心とする2つの画像の相対角度を調整する。
これにより、類似しているものの同一ではない輪郭を有する2つの対象物を正確に位置合わせすることができる。また、2つの対象物の位置合わせのためのマーカを必要とせず、通常の画像を用いた簡単な処理のみで、2つの画像を重ね合わせることができる。
According to the present invention, the contour of each object in the first image and the second image obtained in the image acquisition step is acquired in the contour acquisition step, and then the centroid of each contour is detected in the centroid detection step. Then, the two images are superimposed in the superimposing step so that the centers of gravity coincide with each other, and then the relative angle between the two images centered on the center of gravity is adjusted.
This makes it possible to accurately align two objects having similar but not identical contours. Moreover, the marker for alignment of two objects is not required, and two images can be superimposed only by a simple process using a normal image.

上記発明においては、前記回転工程において、各前記輪郭によって囲まれている2つの領域の互いに重なり合う面積が最大となる角度に、前記相対角度を調整してもよい。
このようにすることで、2つの対象物の位置合わせの精度を簡単な計算のみを用いて評価し、2つの対象物の位置が最も一致する相対角度を決定することができる。
In the above invention, in the rotating step, the relative angle may be adjusted to an angle that maximizes an overlapping area of two regions surrounded by the contours.
In this way, it is possible to evaluate the alignment accuracy of the two objects using only simple calculations, and determine the relative angle at which the positions of the two objects most closely match.

また、上記発明においては、前記回転工程の後に、前記第1の画像および前記第2の画像を相対的に平行移動してこれら画像の相対位置を調整する平行移動工程を含んでもよい。
このようにすることで、一方の対象物の一部が変形する等してその対象物の輪郭の重心が偏っている場合に、2つの画像を平行移動することによって重心位置の偏りを補正し、2つの対象物の位置合わせ精度をさらに高めることができる。
Further, the above invention may include a translation step of adjusting the relative position of the first image and the second image by relatively translating the first image and the second image after the rotation step.
In this way, when the center of gravity of the contour of the target object is biased due to, for example, part of one target object deforming, the bias of the center of gravity position is corrected by translating the two images. The alignment accuracy of the two objects can be further increased.

また、上記発明においては、前記平行移動工程において、各前記輪郭によって囲まれている2つの領域の面積の平均に対する、前記2つの領域の互いに重なり合う面積の割合が最大となる位置に、前記相対位置を調整してもよい。
このようにすることで、2つの対象物の位置合わせの精度を簡単な計算のみを用いて評価し、2つの対象物の位置が最も一致する相対位置を決定することができる。
Further, in the above invention, in the parallel movement step, the relative position is set at a position where the ratio of the overlapping area of the two regions to the average of the area of the two regions surrounded by the contours is maximized. May be adjusted.
In this way, it is possible to evaluate the alignment accuracy of the two objects using only simple calculations, and to determine the relative position where the positions of the two objects most closely match.

また、上記発明においては、前記平行移動工程の後に、前記重心を中心に前記第1の画像および前記第2の画像を相対回転させてこれら画像の相対角度を微調整する再回転工程を含んでもよい。
このようにすることで、平行移動工程を行った結果、回転工程において決定された相対角度よりもさらに最適な相対角度が生じる可能性がある。そこで、2つの画像の相対角度を微調整することによって、2つの対象物の位置合わせ精度をさらに高めることができる。
Further, the above invention may include a re-rotation step that finely adjusts the relative angle between the first image and the second image by rotating the first image and the second image around the center of gravity after the parallel movement step. Good.
By doing in this way, as a result of performing the parallel movement process, there is a possibility that an optimum relative angle is generated more than the relative angle determined in the rotation process. Therefore, by finely adjusting the relative angle between the two images, the alignment accuracy of the two objects can be further increased.

本発明によれば、類似する2つの試料を撮影した2つの画像を簡単にかつ正確に重ね合わせることができるという効果を奏する。   According to the present invention, there is an effect that two images obtained by photographing two similar samples can be easily and accurately superimposed.

本発明の第1の実施形態に係る画像重ね合わせ方法を示すフローチャートである。It is a flowchart which shows the image superimposition method which concerns on the 1st Embodiment of this invention. 図1の画像重ね合わせ方法において用いられる第1の画像および第2の画像である。It is the 1st image and 2nd image which are used in the image superposition method of FIG. 重ね合わせ工程を説明する図である。It is a figure explaining a superposition process. 回転工程を説明する図である。It is a figure explaining a rotation process. 本発明の第2の実施形態に係る画像重ね合わせ方法を示すフローチャートである。It is a flowchart which shows the image superimposition method which concerns on the 2nd Embodiment of this invention.

(第1の実施形態)
以下に、本発明の第1の実施形態に係る画像重ね合わせ方法について図1から図4を参照して説明する。
本実施形態に係る画像重ね合わせ方法は、第1の対象物を撮影した第1の画像と、第1の対象物と類似の形状を有する第2の対象物を撮影した第2の画像とを重ね合わせる方法であって、図1に示されるように、第1および第2の画像を取得する画像取得工程S1と、各画像内の対象物の輪郭を取得する輪郭取得工程S2と、各輪郭の重心を検出する重心検出工程S3と、重心を基準にして第1および第2の画像を重ね合わせる重ね合わせ工程S4と、重心回りに第1および第2の画像を相対回転させる回転工程S5とを含む。
(First embodiment)
Hereinafter, an image superimposing method according to the first embodiment of the present invention will be described with reference to FIGS.
The image superimposing method according to the present embodiment includes a first image obtained by photographing a first object and a second image obtained by photographing a second object having a shape similar to that of the first object. As shown in FIG. 1, an image acquisition step S1 for acquiring first and second images, a contour acquisition step S2 for acquiring the contour of an object in each image, and each contour as shown in FIG. A center of gravity detection step S3 for detecting the center of gravity of the image, a superposition step S4 for superimposing the first and second images on the basis of the center of gravity, and a rotation step S5 for relatively rotating the first and second images around the center of gravity. including.

図2は、本実施形態において用いられる第1の画像G1および第2の画像G2の例を示している。本実施形態においては、2つの対象物として、生体組織の検体から切り出された2つの切片1,2を想定している。2つの切片1,2は、検体の近接する位置、好ましくは隣接する位置から切り出されたものであって、互いにほぼ同一の形状および組織形態を有している。2つの切片1,2はそれぞれ、カバーガラスのような別々の基板に貼り付けられる。そして、一方の切片(第1の切片)1は、基板と共に小さな断片に切断され、選別された一部の断片が遺伝子検査等に供される。他方の切片(第2の切片)2は病理染色が施される。   FIG. 2 shows an example of the first image G1 and the second image G2 used in the present embodiment. In this embodiment, two sections 1 and 2 cut out from a specimen of a living tissue are assumed as two objects. The two sections 1 and 2 are cut out from positions adjacent to the specimen, preferably adjacent positions, and have substantially the same shape and tissue form. Each of the two sections 1 and 2 is attached to a separate substrate such as a cover glass. One section (first section) 1 is cut into small pieces together with the substrate, and a part of the selected pieces is subjected to genetic testing or the like. The other section (second section) 2 is subjected to pathological staining.

ここで、断片を選別するために、本実施形態に係る画像重ね合わせ方法が用いられる。すなわち、本実施形態に係る画像重ね合わせ方法によって、第1の切片1を撮影した第1の画像G1と、第2の切片2を撮影した第2の画像G2とを、第1の切片1と第2の切片2とが一致するように重ね合わせることによって、操作者は、第2の切片2の内、関心領域(例えば、癌化した領域)を特定し、特定した関心領域と対応する位置の断片を第1の切片1から選別することができる。   Here, the image superimposing method according to the present embodiment is used to select fragments. That is, the first image G1 obtained by photographing the first slice 1 and the second image G2 obtained by photographing the second slice 2 by the image superimposing method according to the present embodiment, the first slice 1 and By superimposing the second section 2 so as to coincide with each other, the operator identifies a region of interest (for example, a cancerous region) in the second section 2, and a position corresponding to the identified region of interest. Can be selected from the first section 1.

なお、本実施形態に係る画像重ね合わせ方法は、切片1,2の画像に限らず、類似する外形状を有する2つの対象物を撮影した画像であれば、どのような画像に対しても適用することができる。   Note that the image superimposing method according to the present embodiment is not limited to the images of the slices 1 and 2 and can be applied to any image as long as it is an image of two objects having similar outer shapes. can do.

次に、本実施形態に係る画像重ね合わせ方法の各工程S1〜S5について詳細に説明する。
本実施形態に係る画像重ね合わせ方法は、例えば、パーソナルコンピュータ等のコンピュータ上で実行される画像処理用アプリケーションプログラムとして実現される。すなわち、CPU(中央演算処理装置)と、RAM(Random Access Memory)等の主記憶装置と、ROM(Read Only Memory)等の補助記憶装置と、キーボードやマウス等の入力装置と、表示装置とを備えるコンピュータにおいて、CPUが、補助記憶装置に予め格納されたプログラムを主記憶装置に読み出し、実行することによって、各工程S1〜S5を実行する。
または、本実施形態に係る重ね合わせ方法は、各工程S1〜S5を実行する手段を備える画像処理装置によって実現されてもよい。
Next, each step S1 to S5 of the image superimposing method according to the present embodiment will be described in detail.
The image superimposing method according to the present embodiment is realized as an image processing application program executed on a computer such as a personal computer, for example. That is, a CPU (Central Processing Unit), a main storage device such as a RAM (Random Access Memory), an auxiliary storage device such as a ROM (Read Only Memory), an input device such as a keyboard and a mouse, and a display device. In the computer provided, the CPU executes each step S1 to S5 by reading out and executing a program stored in advance in the auxiliary storage device to the main storage device.
Alternatively, the superimposing method according to the present embodiment may be realized by an image processing apparatus including a unit that executes each of steps S1 to S5.

まず、画像取得工程S1において、切片1,2が互いに同じ倍率で表示された第1の画像G1および第2の画像G2を、例えば、補助記憶装置から読み出すことによって取得する。これら画像G1,G2は、例えば、第1の切片1および第2の切片2を、同一の撮影装置を用いて同一の倍率で撮影して得られたものである。もし、画像G1,G2が、第1の切片1および第2の切片2を互いに異なる倍率で撮影したものである場合には、切片1,2が互いに同じ倍率で表示されるように、2つの画像G1,G2のうち少なくとも一方を撮影倍率に応じて拡大または縮小する。   First, in the image acquisition step S1, the first image G1 and the second image G2 in which the slices 1 and 2 are displayed at the same magnification are read out from, for example, the auxiliary storage device. These images G1 and G2 are obtained, for example, by photographing the first section 1 and the second section 2 at the same magnification using the same photographing apparatus. If the images G1 and G2 are obtained by photographing the first section 1 and the second section 2 at different magnifications, the two sections are displayed so that the sections 1 and 2 are displayed at the same magnification. At least one of the images G1 and G2 is enlarged or reduced according to the photographing magnification.

画像取得工程S1においては、画像G1,G2に対して画像処理を適宜施してもよい。例えば、2つの切片1,2のうち一方が、表裏が反対に基板に貼り付けられ、その結果、第1の画像G1と第2の画像G2とにおいて切片1,2が互いに反転することがある。このような場合には、2つの画像G1,G2のうち一方に、像を反転させる処理を施してもよい。さらに、この後に行われる工程S2〜S5を容易にするために、各画像G1,G2の明るさ、コントラスト、ガンマカーブ等を調整してもよく、画像G1,G2に効果を与えてもよい。   In the image acquisition step S1, image processing may be appropriately performed on the images G1 and G2. For example, one of the two slices 1 and 2 may be attached to the substrate with the front and back opposite to each other, and as a result, the slices 1 and 2 may be inverted in the first image G1 and the second image G2. . In such a case, a process of inverting the image may be performed on one of the two images G1 and G2. Furthermore, in order to facilitate the subsequent steps S2 to S5, the brightness, contrast, gamma curve, and the like of each of the images G1 and G2 may be adjusted, and an effect may be given to the images G1 and G2.

次に、輪郭取得工程S2においては、画像処理によって各画像G1,G2から切片1,2の輪郭A,Bを抽出する。画像処理としては、階調値の二値化処理や微分処理等の公知の方法が利用される。   Next, in the contour acquisition step S2, the contours A and B of the slices 1 and 2 are extracted from the images G1 and G2 by image processing. As the image processing, known methods such as binarization processing of gradation values and differentiation processing are used.

輪郭取得工程S2においては、画像処理に代えて、操作者による手入力によって輪郭A,Bを取得してもよい。例えば、表示装置に表示された各画像G1,G2内の切片1,2の輪郭に沿って操作者が入力装置を用いてベジエ曲線を描き、描かれたベジエ曲線を輪郭A,Bとして取得してもよい。または、タッチパネルに表示されている各画像G1,G2内の切片1,2の輪郭を操作者がスタイラスペンを用いてなぞり、その軌跡を輪郭A,Bを取得してもよく、タッチパッド、ポインティングスティック、マウス等のデバイスを使用してもよい。また、画像処理と操作者による手入力とを組み合わせ、画像処理によって抽出された輪郭A,Bを、操作者が手入力で修正してもよい。   In the contour acquisition step S2, the contours A and B may be acquired by manual input by an operator instead of image processing. For example, the operator draws a Bezier curve using the input device along the contours of the segments 1 and 2 in the images G1 and G2 displayed on the display device, and acquires the drawn Bezier curves as the contours A and B. May be. Alternatively, the operator may trace the contours of the slices 1 and 2 in the images G1 and G2 displayed on the touch panel using a stylus pen to obtain the contours A and B, and touch pad, pointing Devices such as sticks and mice may be used. Further, the image processing and the manual input by the operator may be combined, and the contours A and B extracted by the image processing may be corrected by the operator manually.

次に、重心検出工程S3においては、各輪郭A,Bを構成する画素の座標の平均を計算することによって、重心C1,C2の位置を算出する。ここで、重心C1,C2の計算には、輪郭A,Bを構成する全ての画素の座標を必ずしも用いなくてもよく、計算量を低減するために一部の座標を間引いてもよい。   Next, in the centroid detection step S3, the positions of the centroids C1 and C2 are calculated by calculating the average of the coordinates of the pixels constituting the contours A and B. Here, in calculating the centroids C1 and C2, it is not always necessary to use the coordinates of all the pixels constituting the contours A and B, and some of the coordinates may be thinned out in order to reduce the amount of calculation.

次に、重ね合わせ工程S4においては、図3に示されるように、重心検出工程S3によって検出された重心C1,C2が互いに一致するように、第1の画像G1上に第2の画像G2を重ね合わせる。
なお、図3および図4において、第1の画像G1と第2の画像G2、第1の切片1と第2の切片2を識別し易くするために、第1の画像G1および第1の切片1は破線で示されている。
Next, in the superimposition step S4, as shown in FIG. 3, the second image G2 is placed on the first image G1 so that the centroids C1 and C2 detected by the centroid detection step S3 coincide with each other. Overlapping.
In FIGS. 3 and 4, the first image G1 and the first slice G1, and the first slice G1 and the second slice 2 are easily identified. 1 is indicated by a broken line.

次に、回転工程S5においては、重心C1,C2が互いに一致するように重ね合わされている2つの画像G1,G2のうち、第2の画像G2を、重心C1,C2を中心にして所定の角度範囲内、好ましくは360°回転させる。そして、図4に示されるように、第1の画像G1に対する第2の画像G2の回転角度を、一致率が最大となる角度に調整する。一致率は、下式によって定義される。
一致率=2R/(r1×r2)
ここで、r1は、輪郭Aによって囲まれる領域の面積、r2は、輪郭Bによって囲まれる領域の面積、Rは、各輪郭A,Bによって囲まれる2つの領域が互いに重なり合っている領域(図3および図4において、ハッチングで示される領域)の面積である。Rは、r1とr2とのうち、小さい方の面積を超えることはない。このため、r1およびr2の値、または、第1の画像G1および第2の画像G2の形態により、一致率の最大値は1以下となる。
Next, in the rotation step S5, of the two images G1 and G2 superimposed so that the centroids C1 and C2 coincide with each other, the second image G2 is centered on the centroids C1 and C2 at a predetermined angle. Rotate within the range, preferably 360 °. Then, as shown in FIG. 4, the rotation angle of the second image G2 with respect to the first image G1 is adjusted to an angle at which the coincidence rate is maximized. The match rate is defined by the following equation.
Match rate = 2R / (r1 × r2)
Here, r1 is the area of the region surrounded by the contour A, r2 is the area of the region surrounded by the contour B, and R is the region where the two regions surrounded by the contours A and B overlap each other (FIG. 3). And in FIG. 4, the area is a hatched area. R does not exceed the smaller area of r1 and r2. For this reason, the maximum value of the matching rate is 1 or less depending on the values of r1 and r2 or the form of the first image G1 and the second image G2.

具体的には、例えば、第2の画像G2を10°単位で回転させながら各回転角度における一致率を計算し、算出された一致率が最大である回転角度を決定する。この後に、さらに、決定した回転角度の前後9°の範囲において1°単位で第2の画像G2を回転させ、同様にして一致率が最大である回転角度を決定してもよい。このようにすることで、重ね合わせ精度を向上することができる。なお、回転角度の単位は、任意であって、例えば、0.5°であってもよく、さらに小さくてもよい。   Specifically, for example, the coincidence rate at each rotation angle is calculated while rotating the second image G2 in units of 10 °, and the rotation angle at which the calculated coincidence rate is maximum is determined. Thereafter, the second image G2 may be further rotated in units of 1 ° within a range of 9 ° before and after the determined rotation angle, and similarly the rotation angle with the maximum matching rate may be determined. By doing so, the overlay accuracy can be improved. The unit of the rotation angle is arbitrary, and may be 0.5 °, for example, or may be smaller.

回転工程S5の最中には、操作者が輪郭A,Bの重ね合わせ状況を認識し易いように、2つの輪郭A,Bと、重ね合わされている2つの画像G1,G2とを別々に表示してもよく、補助的な情報を表示してもよい。例えば、輪郭A,Bによって囲まれる2つの領域が互いに重なり合っている領域を、所定の色で表示してもよい。さらに、一致率を示す、数値またはバーグラフのようなグラフィックスを表示してもよい。一致率は、操作者が理解し易いように、値を0を超え最大1までとして、重ね合わせる画像に関わらずに一定の範囲に収まるようにすることが好ましい。また、一致率に代えて、面積Rの値をそのまま操作者に提示してもよい。   During the rotation step S5, the two contours A and B and the two superimposed images G1 and G2 are separately displayed so that the operator can easily recognize the overlapping state of the contours A and B. Alternatively, auxiliary information may be displayed. For example, a region where two regions surrounded by the outlines A and B overlap each other may be displayed in a predetermined color. Furthermore, a graphic such as a numerical value or a bar graph showing the matching rate may be displayed. The coincidence rate is preferably set to a value exceeding 0 and a maximum of 1 so as to be easily understood by an operator so that the matching rate is within a certain range regardless of the superimposed images. Further, instead of the matching rate, the value of the area R may be presented to the operator as it is.

なお、回転工程S5においては、操作者が第2の画像G2の回転角度を入力装置を用いて入力し、入力された回転角度だけ画像処理によって第1の画像G1を回転させてもよい。また、第2の画像G2に対して第1の画像G1を回転させてもよい。   In the rotation step S5, the operator may input the rotation angle of the second image G2 using an input device, and rotate the first image G1 by image processing by the input rotation angle. Further, the first image G1 may be rotated with respect to the second image G2.

また、回転工程S5においては、複数の回転角度において十分に高い一致率が得られた場合には、それら複数の回転角度を候補として操作者に提示し、提示された候補の中から1つを操作者が選定してもよい。一致率は、2つの輪郭A,Bの全体的な形状のみに基づいて決定される値であり、輪郭A,Bによって囲まれている領域内の組織形態や、輪郭A,Bの局所的な特徴等を考慮していない。そのため、輪郭A,Bが重心C1,C2に対してほぼ対称な形状を有する場合には、第2の画像G2が、適切な回転角度から例えば180°回転した角度においても、一致率が高くなる。また、輪郭A,Bがほぼ円形である場合には、重心C2を中心に第2の画像G2を回転させたとしても、一致率があまり変化しない。そこで、複数の回転角度において高い一致率が得られ場合には、操作者が2つの切片1,2の組織形態に基づいて最適な回転角度を選定してもよい。   In the rotation step S5, when a sufficiently high coincidence rate is obtained at a plurality of rotation angles, the plurality of rotation angles are presented to the operator as candidates, and one of the presented candidates is selected. The operator may select it. The coincidence rate is a value determined based only on the overall shape of the two contours A and B, and the tissue form in the region surrounded by the contours A and B and the local shapes of the contours A and B It does not consider features. Therefore, when the contours A and B have shapes that are substantially symmetrical with respect to the centers of gravity C1 and C2, the coincidence rate is high even when the second image G2 is rotated, for example, by 180 ° from an appropriate rotation angle. . When the contours A and B are substantially circular, even if the second image G2 is rotated around the center of gravity C2, the coincidence rate does not change much. Therefore, when a high coincidence rate is obtained at a plurality of rotation angles, the operator may select an optimal rotation angle based on the tissue morphology of the two sections 1 and 2.

以上の手順によって、第1の画像G1および第2の画像G2を、第1の切片1と第2の切片2とが一致するように重ね合わせることができる。この場合に、本実施形態に係る画像重ね合わせ方法によれば、画像G1,G2内の切片1,2の輪郭A,Bの重心C1,C2を検出し、重心C1,C2回りに2つの切片1,2の相対角度を調整することによって、2つの切片1,2が精度良く一致するように2つの画像G1,G2を重ね合わせることができる。さらに、2つの切片1,2の位置合わせのためのマーカは不要であり、通常の画像G1,G2を利用することができるので、特別な部材や処理が不要であると共に、簡単な画像処理および演算処理のみで足り、短時間で画像G1,G2の重ね合わせを行うことができるという利点がある。   By the above procedure, the first image G1 and the second image G2 can be overlaid so that the first slice 1 and the second slice 2 coincide. In this case, according to the image superposition method according to the present embodiment, the centroids C1 and C2 of the contours A and B of the segments 1 and 2 in the images G1 and G2 are detected, and two segments around the centroids C1 and C2 are detected. By adjusting the relative angles 1 and 2, the two images G1 and G2 can be overlaid so that the two segments 1 and 2 can be accurately matched. Further, since the markers for aligning the two slices 1 and 2 are not necessary and the normal images G1 and G2 can be used, special members and processing are not necessary, and simple image processing and Only the calculation process is sufficient, and there is an advantage that the images G1 and G2 can be superimposed in a short time.

(第2の実施形態)
次に、本発明の第2の実施形態に係る画像重ね合わせ方法について図5を参照して説明する。
本実施形態に係る画像重ね合わせ方法は、図5に示されるように、回転工程S5の後に、平行移動工程S6および再回転工程S7をさらに含む点において、第1の実施形態と異なっている。したがって、本実施形態においては、これら2つの工程S6,S7について主に説明し、第1の実施形態と共通する構成については同一の符号を付して説明を省略する。
(Second Embodiment)
Next, an image superimposing method according to the second embodiment of the present invention will be described with reference to FIG.
As shown in FIG. 5, the image superposition method according to the present embodiment is different from the first embodiment in that it further includes a parallel movement step S6 and a re-rotation step S7 after the rotation step S5. Therefore, in the present embodiment, these two steps S6 and S7 will be mainly described, and the same reference numerals are given to the configurations common to the first embodiment, and the description will be omitted.

平行移動工程S6においては、第2の画像G2を、第1の画像G1に対して平行移動し、各位置において一致率を計算し、一致率が最大となる位置に第2の画像G2を位置決めする。このときに、第2の画像G2を平行移動する範囲を予め設定しておくことが好ましい。   In the translation step S6, the second image G2 is translated with respect to the first image G1, the coincidence rate is calculated at each position, and the second image G2 is positioned at a position where the coincidence rate is maximized. To do. At this time, it is preferable to set in advance a range in which the second image G2 is translated.

例えば、第1の画像G1の横方向をX軸、縦方向をY軸と定義する。そして、重心C1,C2が一致する位置を基準にして、輪郭AのX軸方向の最大長さの5%の距離の範囲内において、第2の画像G2をX軸方向に平行移動させる。移動量の単位は、1ピクセルであることが好ましいが、計算量を低減するために2ピクセルから10ピクセル程度であってもよい。同様に、重心C1,C2が一致する位置を基準にして、輪郭AのY軸方向の最大長さの5%の距離の範囲内において、第2の画像G2をY軸方向に平行移動させる。そして、X軸方向の各位置と、Y軸方向の各位置との全ての組み合わせについて、一致率を計算し、一致率が最大となる位置を決定する。   For example, the horizontal direction of the first image G1 is defined as the X axis and the vertical direction is defined as the Y axis. Then, the second image G2 is translated in the X-axis direction within a distance range of 5% of the maximum length of the contour A in the X-axis direction with reference to the position where the centroids C1 and C2 coincide. The unit of the movement amount is preferably 1 pixel, but may be about 2 to 10 pixels in order to reduce the calculation amount. Similarly, the second image G2 is translated in the Y-axis direction within a distance range of 5% of the maximum length of the contour A in the Y-axis direction with reference to the position where the centroids C1 and C2 coincide. Then, the coincidence rate is calculated for all combinations of the respective positions in the X-axis direction and the respective positions in the Y-axis direction, and the position where the coincidence rate is maximized is determined.

平行移動工程S6においては、前述した回転工程S5と同様に、複数の位置において十分に高い一致率が得られた場合には、それら複数の位置を候補として操作者に提示し、提示された候補の中から1つを操作者が選定してもよい。   In the translation step S6, similarly to the rotation step S5 described above, when a sufficiently high coincidence rate is obtained at a plurality of positions, the plurality of positions are presented to the operator as candidates, and the presented candidates One may be selected by the operator.

再回転工程S7は、前述した回転工程S5と同様に行われる。ただし、第1の画像G1と第2の画像G2との相対角度は、回転工程S5において既に一度調整されているので、本工程S7においては、回転工程S5よりも狭い角度範囲内において、回転工程S5よりも小さい単位で第2の画像G2を回転させることが好ましい。   The re-rotation step S7 is performed in the same manner as the rotation step S5 described above. However, since the relative angle between the first image G1 and the second image G2 has already been adjusted once in the rotation step S5, in this step S7, the rotation step is performed within an angle range narrower than that of the rotation step S5. It is preferable to rotate the second image G2 by a unit smaller than S5.

薄い切片1,2は、基板に貼り付ける際に歪んだり端部が折れたりすることによって、輪郭A,Bが変形することがある。このような変形が生じている場合には、重心C1,C2の位置が本来の位置からずれて、その結果、重ね合わせ工程S4において、2つの画像G1,G2が本来の相対位置からずれた位置で重ね合わせられる。本実施形態によれば、平行移動工程S6によって、重心C1,C2の位置のずれを補正し、2つの切片1,2がさらに正確に一致するように2つの画像G1,G2の重ね合わせることができる。   The thin sections 1 and 2 may be distorted when the thin sections 1 and 2 are attached to the substrate or the edges may be bent, whereby the outlines A and B may be deformed. When such deformation has occurred, the positions of the centers of gravity C1 and C2 deviate from the original positions. As a result, in the superimposition step S4, the two images G1 and G2 deviate from their original relative positions. Is superimposed. According to the present embodiment, the shift of the positions of the centroids C1 and C2 is corrected by the translation step S6, and the two images G1 and G2 are overlaid so that the two segments 1 and 2 are more accurately matched. it can.

さらに、平行移動工程S6を行った結果、回転工程S5において決定された相対角度よりもさらに最適な角度が生じ得る。本実施形態によれば、再回転工程S7によって、2つの画像G1,G2の相対角度を再度調整することによって、2つの画像G1,G2の重ね合わせ精度をさらに高めることができる。   Furthermore, as a result of performing the parallel movement step S6, an angle that is more optimal than the relative angle determined in the rotation step S5 may be generated. According to this embodiment, the overlay accuracy of the two images G1 and G2 can be further increased by adjusting the relative angle between the two images G1 and G2 again by the re-rotation step S7.

なお、本実施形態においては、回転工程S5、平行移動工程S6および再回転工程S7の各々において得られた、2つの画像G1,G2の重ね合わせ結果や角度または位置の候補を、一致率と一緒に記憶しておき、再回転工程S7の後に、全ての重ね合わせ結果を一致率と一緒に操作者に提示し、操作者が、最終的な重ね合わせ結果を選定してもよい。   In the present embodiment, the result of superimposing the two images G1 and G2 obtained in each of the rotation step S5, the parallel movement step S6, and the re-rotation step S7, and the angle or position candidate, together with the matching rate are used. And after the re-rotation step S7, all the overlay results may be presented to the operator together with the matching rate, and the operator may select the final overlay result.

1,2 切片(対象物)
A,B 輪郭
C1,C2 重心
G1,G2 画像
S1 画像取得工程
S2 輪郭取得工程
S3 重心検出工程
S4 重ね合わせ工程
S5 回転工程
S6 平行移動工程
S7 再回転工程
1, 2 sections (object)
A, B Contour C1, C2 Center of gravity G1, G2 Image S1 Image acquisition process S2 Contour acquisition process S3 Center of gravity detection process S4 Overlay process S5 Rotation process S6 Parallel movement process S7 Re-rotation process

Claims (5)

第1の対象物を撮影した第1の画像と、前記第1の対象物と類似する形状を有する第2の対象物を撮影した第2の画像とを重ね合わせる方法であって、
前記第1の対象物および前記第2の対象物が互いに等倍で表示された前記第1の画像および前記第2の画像を取得する画像取得工程と、
該画像取得工程において取得された前記第1の画像および前記第2の画像の各々に表示されている前記対象物の輪郭を取得する輪郭取得工程と、
該輪郭取得工程において取得された各前記輪郭の重心を検出する重心検出工程と、
該重心検出工程において検出された前記輪郭の重心が互いに一致するように前記第1の画像および前記第2の画像を重ね合わせる重ね合わせ工程と、
該重ね合わせ工程において一致された前記重心を中心に前記第1の画像および前記第2の画像を相対回転させてこれら画像の相対角度を調整する回転工程とを含む画像重ね合わせ方法。
A method of superimposing a first image obtained by photographing a first object and a second image obtained by photographing a second object having a shape similar to the first object,
An image acquisition step of acquiring the first image and the second image in which the first object and the second object are displayed at the same magnification;
A contour acquisition step of acquiring a contour of the object displayed in each of the first image and the second image acquired in the image acquisition step;
A centroid detection step of detecting the centroid of each of the contours acquired in the contour acquisition step;
A superimposing step of superimposing the first image and the second image so that the centroids of the contours detected in the centroid detection step coincide with each other;
An image superimposing method including a rotating step of relatively rotating the first image and the second image around the center of gravity matched in the superimposing step to adjust a relative angle between the images.
前記回転工程において、各前記輪郭によって囲まれている2つの領域の互いに重なり合う面積が最大となる角度に、前記相対角度を調整する請求項1に記載の画像重ね合わせ方法。   The image superimposing method according to claim 1, wherein, in the rotation step, the relative angle is adjusted to an angle at which an overlapping area of two regions surrounded by the contours is maximized. 前記回転工程の後に、前記第1の画像および前記第2の画像を相対的に平行移動してこれら画像の相対位置を調整する平行移動工程を含む請求項1または請求項2に記載の画像重ね合わせ方法。   3. The image superposition according to claim 1, further comprising a translation step of translating the first image and the second image relative to each other to adjust a relative position between the first image and the second image after the rotation step. How to match. 前記平行移動工程において、各前記輪郭によって囲まれている2つの領域の面積の平均に対する、前記2つの領域の互いに重なり合う面積の割合が最大となる位置に、前記相対位置を調整する請求項3に記載の画像重ね合わせ方法。   In the parallel movement step, the relative position is adjusted to a position where the ratio of the overlapping area of the two regions to the average of the average of the areas of the two regions surrounded by the contours is maximized. The image overlay method described. 前記平行移動工程の後に、前記重心を中心に前記第1の画像および前記第2の画像を相対回転させてこれら画像の相対角度を微調整する再回転工程を含む請求項3または請求項4に記載の画像重ね合わせ方法。   5. The method according to claim 3, further comprising a re-rotation step after the parallel movement step, wherein the first image and the second image are rotated relative to each other about the center of gravity to finely adjust a relative angle between these images. The image overlay method described.
JP2013161236A 2013-08-02 2013-08-02 Image superposing method Pending JP2015031599A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013161236A JP2015031599A (en) 2013-08-02 2013-08-02 Image superposing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013161236A JP2015031599A (en) 2013-08-02 2013-08-02 Image superposing method

Publications (1)

Publication Number Publication Date
JP2015031599A true JP2015031599A (en) 2015-02-16

Family

ID=52517030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013161236A Pending JP2015031599A (en) 2013-08-02 2013-08-02 Image superposing method

Country Status (1)

Country Link
JP (1) JP2015031599A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018043809A1 (en) * 2016-09-05 2018-03-08 주식회사 영우디에스피 Device for inspecting attachment position of window glass for display
JP2018529215A (en) * 2015-06-09 2018-10-04 ツェットカーヴェー グループ ゲーエムベーハー Method for positionally accurate mounting of circuit supports

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010511213A (en) * 2006-11-16 2010-04-08 ヴィジオファーム エイ/エス Method for acquiring / analyzing registration / image based on feature of segmented image
JP2013530467A (en) * 2010-06-15 2013-07-25 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Image processing method for microscopy

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010511213A (en) * 2006-11-16 2010-04-08 ヴィジオファーム エイ/エス Method for acquiring / analyzing registration / image based on feature of segmented image
JP2013530467A (en) * 2010-06-15 2013-07-25 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Image processing method for microscopy

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018529215A (en) * 2015-06-09 2018-10-04 ツェットカーヴェー グループ ゲーエムベーハー Method for positionally accurate mounting of circuit supports
WO2018043809A1 (en) * 2016-09-05 2018-03-08 주식회사 영우디에스피 Device for inspecting attachment position of window glass for display

Similar Documents

Publication Publication Date Title
US10262189B2 (en) Evaluation of co-registered images of differently stained tissue slices
CN107958458B (en) Image segmentation method, image segmentation system and equipment comprising image segmentation system
US11164670B2 (en) Methods and apparatus for identifying skin features of interest
US9940515B2 (en) Image analysis for authenticating a product
CN103994786B (en) Image detecting method for arc ruler lines of pointer instrument scale
JP2003016463A (en) Extracting method for outline of figure, method and device for pattern inspection, program, and computer- readable recording medium with the same stored therein
US8731274B2 (en) Method and system for wafer registration
US9471984B2 (en) Method for self-calibration of a microscope apparatus
KR20130117862A (en) Pattern matching apparatus, and computer program
US20130083020A1 (en) Three-dimensional data processing apparatus, three-dimensional data processing method, and three-dimensional data processing program
US10102631B2 (en) Edge detection bias correction value calculation method, edge detection bias correction method, and edge detection bias correcting program
KR20140006891A (en) Microscope slide coordinate system registration
US20190138840A1 (en) Automatic ruler detection
CN111310753B (en) Meter alignment method and device
US20180330512A1 (en) Registration of tissue slice image
JP2017003525A (en) Three-dimensional measuring device
US9675245B2 (en) Method and device for determining the eye torsion
JP2015031599A (en) Image superposing method
US8841614B1 (en) Sample structure analyzing method, transmission electron microscope, and computer-readable non-transitory recording medium
JP3075345B2 (en) Skin pattern feature extraction device
JP2012200156A (en) Method for tracking cell
CN105718929B (en) The quick round object localization method of high-precision and system under round-the-clock circumstances not known
JP3919722B2 (en) Skin shape measuring method and skin shape measuring apparatus
Tuan et al. The improved faster r-cnn for detecting small facial landmarks on vietnamese human face based on clinical diagnosis
CN112288672A (en) Tumor detection method and tumor detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170801