JP2002058647A - Transforming and compositing method of eyeground image, and recording medium with the program recorded thereon - Google Patents

Transforming and compositing method of eyeground image, and recording medium with the program recorded thereon

Info

Publication number
JP2002058647A
JP2002058647A JP2000250742A JP2000250742A JP2002058647A JP 2002058647 A JP2002058647 A JP 2002058647A JP 2000250742 A JP2000250742 A JP 2000250742A JP 2000250742 A JP2000250742 A JP 2000250742A JP 2002058647 A JP2002058647 A JP 2002058647A
Authority
JP
Japan
Prior art keywords
image
intersection
fundus
fundus image
blood vessel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000250742A
Other languages
Japanese (ja)
Other versions
JP3540731B2 (en
Inventor
Katsuyoshi Tanabe
勝義 田邊
Koichiro Kubo
宏一郎 久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2000250742A priority Critical patent/JP3540731B2/en
Publication of JP2002058647A publication Critical patent/JP2002058647A/en
Application granted granted Critical
Publication of JP3540731B2 publication Critical patent/JP3540731B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method of compositing a seamless eyeground image with little sense of incompatibility for grasping, etc., of an affected part from plural eyeground images of identical subject, which enables to grasp the vessel course of the eyeground and the chorioidea. SOLUTION: Two images of the eyeground are superposed making cross points and branch points of blood vessels, etc., as feature points and linear transformation of image is carried out (S112) only on prescribed width inside areas of images abutting on a joining border line on both sides centering the joining border line of eyeground images passing through the positions of feature points. Thus a seamless composited image is obtained from small amounts of calculation and memories. In the linear transformation, blood vessels, etc., are refracted in not higher than 40 deg. against the original image so that impression of seamlessly joining on the joining border is not lost. Because of that, a searching range to find out corresponding points within the length of a local area with prescribed width is limited to both sides centering on the joining border line (S111).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、撮影角度の異なる
複数枚の眼底画像を入力とする画像合成に関する。さら
に詳しくは、眼底の血管や脈絡膜などが接合境界線上に
おいて不整合のない合成画像を得る技術に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to image synthesis in which a plurality of fundus images having different photographing angles are input. More specifically, the present invention relates to a technique for obtaining a composite image in which blood vessels, choroids, and the like of the fundus oculi do not match on a junction boundary line.

【0002】[0002]

【従来の技術】従来、撮影角度の異なる複数枚の眼底画
像から1枚の全体画像を作成する場合、いろいろな角度
から平面でない同一の対象を撮影して得られた複数枚の
画像を元に画像合成されるため、種々の問題を生じる。
2. Description of the Related Art Conventionally, when one whole image is created from a plurality of fundus images having different photographing angles, a plurality of images obtained by photographing the same non-planar object from various angles are obtained. Since the images are synthesized, various problems occur.

【0003】例えば、「リモートセンシング画像のディ
ジタルモザイク処理」に記載の手法のように、撮影対象
上の同一の点が一致するようにアフィン変換等の簡単な
幾何変換を施して平面上でつなぎ合わせる方法が知られ
ている。
For example, as in the technique described in “Digital Mosaic Processing of Remote Sensing Images”, simple geometric transformations such as affine transformation are performed so that the same points on an object to be photographed coincide with each other and connected on a plane. Methods are known.

【0004】しかし、上記の方法では、周辺部に歪みの
ある眼底画像同士は、完全に合致させることはできない
との問題がある。これは、眼底は3次元の曲面構造をし
ており、その一部を2次元平面に投影した写真では、中
心から周辺に向かって歪みが増大していることが原因で
ある。
However, the above-described method has a problem that fundus images having peripheral distortions cannot be perfectly matched. This is because the fundus has a three-dimensional curved surface structure, and in a photograph in which a part of the fundus is projected on a two-dimensional plane, distortion increases from the center to the periphery.

【0005】また、眼底画像が対象である場合に、眼球
は完全な球体ではないし、光線の通り道である水晶体の
屈折率も均一ではないために複数の画像を正確につなぎ
合わせて画像を合成することが困難であるとの問題に対
する対策として、複数の画像データから複数箇所を検出
することで元の曲面を算出して精度良くつなぎ合わせる
方法が提案されている(特開平6−243232号)。
Further, when the fundus image is the target, the eyeball is not a perfect sphere and the refractive index of the crystalline lens through which the light rays pass is not uniform, so that a plurality of images are accurately joined to form an image. As a countermeasure against the problem that it is difficult to solve the problem, there has been proposed a method of calculating an original curved surface by detecting a plurality of locations from a plurality of image data and joining the curved surfaces with high accuracy (Japanese Patent Laid-Open No. Hei 6-243232).

【0006】しかし、画像全体を変形するためには球面
上に多数の対応点を設定する必要があり、そのため多く
のメモリ容量や多くの計算時間が必要であり、対応点以
外は大きな誤差が内在したままであるとの問題がある。
そのため、画像の接合境界における血管等の画像は完全
に繋がらないという問題がある。さらに、複数の対応点
を満足するような方程式は、対応点の数が少ないと元の
曲面と違う球面となるし、対応点数が多いと求めるアル
ゴリズムの誤差を最小する収束条件を満たすことができ
ず、発散してしまい無限ループに陥るという問題があ
る。
However, in order to deform the entire image, it is necessary to set a large number of corresponding points on a spherical surface, so that a large amount of memory and a large amount of calculation time are required. There is a problem that it remains.
For this reason, there is a problem that images of blood vessels and the like at the junction boundary of the images are not completely connected. Furthermore, an equation that satisfies multiple corresponding points can result in a sphere different from the original surface if the number of corresponding points is small, and can satisfy the convergence condition that minimizes the error of the algorithm to be obtained if the number of corresponding points is large. Instead, they diverge and fall into an infinite loop.

【0007】アフィン変換を繰り返すことで精度を向上
させる方法、例えば特開平7−152895号が提案さ
れている。しかし、対応する2点以外、すなわち、対応
点として選択されなかった血管などは接合境界線におい
て整合しないとの問題を解決するものではない。
A method for improving accuracy by repeating affine transformation, for example, Japanese Patent Application Laid-Open No. 7-152895 has been proposed. However, this does not solve the problem that blood vessels and the like other than the two corresponding points, that is, blood vessels that are not selected as corresponding points, do not match at the joint boundary.

【0008】さらに、本発明者の出願にかかる特開20
00−23921号がある。この発明は、眼底画像上の
対応点を合致させることによって眼底画像を合成するも
のであるが、眼底画像の境界部分、すなわち、接合境界
線(以下、接合線)において、画像を変形させて、血管
をシームレスにつなげようとするものではない。
Further, Japanese Patent Application Laid-Open No.
No. 00-23921. The present invention synthesizes a fundus image by matching corresponding points on the fundus image, but deforms the image at a boundary portion of the fundus image, that is, at a joint boundary (hereinafter, joint line), It is not intended to connect blood vessels seamlessly.

【0009】[0009]

【発明が解決しようとする課題】シームレスな眼底画像
を提供することは、眼科医から患者への病状説明や、イ
ンフォームドコンセントの場面において、あるいは、病
状を医師間で説明する際に重要である。
Providing a seamless fundus image is important in explaining a medical condition from an ophthalmologist to a patient, in a situation of informed consent, or when explaining a medical condition between doctors. .

【0010】本発明の課題は、眼底のレーザー治療前の
病変部位の位置把握などのため、最も重要な眼底の血管
走行の具合や脈絡膜の様子が1枚の画像で把握可能な、
眼科医にとって違和感の少ないシームレスな眼底画像
を、複数枚の画像を元に合成する方法を提供する点にあ
る。
An object of the present invention is to grasp the most important condition of the blood vessel running of the fundus and the state of the choroid in a single image for grasping the position of a lesion site before laser treatment of the fundus.
It is an object of the present invention to provide a method for synthesizing a seamless fundus image with less discomfort for an ophthalmologist based on a plurality of images.

【0011】[0011]

【課題を解決するための手段】上記の課題を解決するた
め、本発明は以下に列記する手段を採用する。
In order to solve the above problems, the present invention employs the following means.

【0012】その一手段は、同一被験者の視線の異なる
複数枚の眼底画像を入力し、それらのうちの2枚の眼底
画像A,Bについて、合成位置を定め該合成位置を合致
させて前記2枚の眼底画像を合成する重ね合わせ処理過
程と、前記合致させた合成位置を通る接合線で眼底画像
Aと眼底画像Bを接合する過程(例えば、眼底画像Aと
眼底画像Bが横並びならば、縦に接合し、眼底画像Aと
眼底画像Bが縦並びならば、横に接合するなど)と、前
記眼底画像Aおよび眼底画像Bにおいて、それぞれ接合
線上を通る血管を検出し該接合線と該血管との交点を前
記眼底画像Aおよび眼底画像Bそれぞれから求める過程
と、前記接合線と血管との交点を中心とした一定サイズ
の周辺領域を前述の接合前の眼底画像Aから取り、該眼
底画像Aの1交点に対応する眼底画像Bの交点ペアを見
つけるため、該眼底画像Bの接合線上で抽出された全て
の、または眼底画像Aの交点から一定の距離の、または
血管本数で制限された前記接合線と血管との交点および
その近傍点を中心とした接合前の眼底画像B上の周辺領
域との相関を求め、その相関値が一定値以上で最大の
時、該眼底画像Aの前記血管の1交点と対応する眼底画
像Bの位置とする交点ペアを見つけるために行う接合線
上の交点相関計算処理過程と、前記接合線上の交点相関
計算処理過程を用いて、眼底画像A上における他の全て
の前記接合線と血管との交点に対する眼底画像B上の前
記接合線と血管との交点ペアを見つけた後、各相関値を
比較し、各対応血管を決定する対応血管決定処理過程
と、眼底画像Aの前記接合線と血管との交点と、眼底画
像Bの前記接合線と血管との交点との該接合線上の中点
で、前記対応血管同士を接続するために、眼底画像A,
Bそれぞれにおいて、該接合線上の各連続する2交点を
一辺とし、該接合線から一定の長さをもう一辺とする長
方形を、対応する該接合線から一定の長さ離れた該接合
線と平行な一辺の長さは同一とし、対応する該接合線上
の各連続する2中点を一辺とする台形に、変形させる画
像変形処理過程と、前記変形した画像同士を合成する画
像変形合成処理過程と、前記合成された合成画像を表示
する過程および前記合成画像を蓄積する過程のいずれか
一方または双方とを有することを特徴とする眼底画像変
形合成方法である。
One of the means is to input a plurality of fundus images of the same subject having different gazes, determine a combining position of two of the fundus images A and B, match the combining positions, and match the two positions. A superimposition process of synthesizing two fundus images and a process of joining the fundus image A and the fundus image B with a joining line passing through the matched synthesis position (for example, if the fundus image A and the fundus image B are side by side, When the fundus image A and the fundus image B are vertically aligned, they are joined horizontally, etc.), and in the fundus image A and the fundus image B, the blood vessels passing through the respective joint lines are detected, and the joint lines are detected. A process of obtaining an intersection with a blood vessel from each of the fundus image A and the fundus image B, and obtaining a peripheral area of a fixed size centered on the intersection of the joint line and the blood vessel from the fundus image A before the joining, One intersection of image A In order to find a corresponding intersection pair of the fundus image B, all the joint lines and blood vessels extracted on the joint line of the fundus image B or at a certain distance from the intersection point of the fundus image A or limited by the number of blood vessels And the correlation with the peripheral area on the fundus image B before joining centered on the intersection point with the vicinity point thereof, and when the correlation value is equal to or greater than a certain value and is the maximum, one intersection point of the blood vessel of the fundus image A is obtained. All the other joints on the fundus image A using the intersection correlation calculation process on the joining line and the intersection correlation calculation process on the joining line performed to find an intersection pair to be the position of the corresponding fundus image B After finding a pair of the intersection line of the vascular line and the blood vessel on the fundus image B with respect to the intersection point of the line and the blood vessel, each correlation value is compared, and a corresponding blood vessel determination processing step of determining each corresponding blood vessel; Between the joint line and the blood vessel Points and, at the junction line of the midpoint between the intersection of the joining line and the blood vessel of the eye fundus image B, and for connecting the corresponding blood vessel between the fundus image A,
B, each continuous two intersections on the joining line are defined as one side, and a rectangle having a certain length from the joining line as the other side is parallel to the joining line separated by a certain length from the corresponding joining line. The length of one side is the same, and an image deformation processing step of deforming the image into a trapezoid having two consecutive midpoints on the corresponding joining line as one side, and an image deformation synthesis processing step of synthesizing the deformed images. And / or a step of storing the combined image and a step of storing the combined image.

【0013】あるいは、前記重ね合わせ処理過程では、
2枚の眼底画像A,Bを任意の位置に重ね合わせ、重な
っている領域内の任意の点を合成位置とすることを特徴
とする上記の眼底画像変形合成方法である。
Alternatively, in the superimposing process,
The above fundus image deforming and synthesizing method, wherein two fundus images A and B are overlapped at an arbitrary position, and an arbitrary point in an overlapping area is set as a synthesis position.

【0014】あるいは、前記重ね合わせ処理過程では、
ポインティングデバイスを用いて手動で操作者が入力指
示を行った2枚の眼底画像A,Bについて処理を行うこ
とを特徴とする上記の眼底画像変形合成方法である。
Alternatively, in the superposition process,
The above fundus image deformation synthesizing method is characterized in that processing is performed on two fundus images A and B for which an operator has manually input an instruction using a pointing device.

【0015】あるいは、前記重ね合わせ処理過程では、
同一被験者の視線の異なる眼底画像を複数枚入力する眼
底画像入力過程と、前記入力された複数枚の眼底画像を
画像処理により2値化し、血管画像を抽出する過程と、
前記抽出された血管画像を細線化し、血管の交点である
分岐点および交叉点を求める過程と、前記複数枚の眼底
画像のうちで合成対象となる2枚の眼底画像A,Bのう
ち、眼底画像A上のある血管の1交点を中心した一定サ
イズの周辺領域に対する眼底画像B上で抽出された全て
の血管の交点およびその近傍点を中心とした周辺領域と
の相関を求め、その相関の最大値を眼底画像Aの前記血
管の1交点と対応する眼底画像Bの位置とする交点ペア
を見つける交点相関計算処理過程と、前記眼底画像A上
の他の各交点に対する眼底画像B上の交点ペアを見つけ
る前記交点相関処理を行い、見つけた各交点ペアの中で
最大でかつある閾値以上の相関値を持つ交点ペアを当該
2枚の眼底画像の合成位置とする合成位置決定処理過程
と、前記合成位置決定処理過程で決定された交点ペアの
位置を合致させることにより前記2枚の眼底画像を合成
する過程とを有することを特徴とする上記の眼底画像変
形合成方法である。
Alternatively, in the superposition process,
A fundus image inputting step of inputting a plurality of fundus images having different eyes of the same subject, a step of binarizing the input plurality of fundus images by image processing, and extracting a blood vessel image,
A step of thinning the extracted blood vessel image to obtain a branch point and a cross point, which are intersections of blood vessels, and a step of obtaining a fundus image of two fundus images A and B to be synthesized from the plurality of fundus images. The correlation between the peripheral area centered at one intersection of a certain blood vessel on the image A and the peripheral area centered on the intersection of all blood vessels extracted on the fundus oculi image B with respect to the peripheral area of a certain size centered on one blood vessel is calculated. An intersection correlation calculation process for finding an intersection pair in which the maximum value is a position of the fundus image B corresponding to one intersection of the blood vessels of the fundus image A, and an intersection on the fundus image B with respect to each other intersection on the fundus image A Performing the intersection correlation process to find a pair, a combination position determination processing step of setting the intersection pair having a correlation value equal to or greater than a certain threshold value among the found intersection pairs as a combination position of the two fundus images, The synthesis position Is the above fundus image transformation synthesis method characterized by having a process of synthesizing the two fundus images by matching the position of the intersection point pairs determined by constant process.

【0016】あるいは、上記の眼底画像変形合成方法に
おける過程をコンピュータに実行させるプログラムを、
該コンピュータが読み取り可能な媒体に記録したことを
特徴とする眼底画像変形合成プログラムを記録した記録
媒体である。
Alternatively, a program for causing a computer to execute the steps in the above fundus image deformation synthesizing method is provided by:
A fundus image deformation synthesizing program recorded on the computer-readable medium.

【0017】いろいろな角度から撮影して得られた眼底
画像から合成された1枚の全体画像が、あたかも元より
1枚の画像として撮影されたのように切れ目のない、す
なわちシームレスな画像としての印象を与える主因子を
検討したところ、撮影された各画像に対する変形操作が
均等に行われることよりも、画像の接合線近傍において
血管あるいは脈絡膜の画像が不整合なく合成されている
ことが多大な影響を与えていることを発見した。
One whole image synthesized from fundus images obtained from various angles is obtained as a seamless image as if it were taken as a single image from the beginning. After examining the main factors that give an impression, it is enormous that the images of blood vessels or choroids are synthesized without inconsistency near the joint line of the images, rather than performing the deformation operation on each captured image evenly. I found that it was affecting me.

【0018】そこで、本発明は、血管等の交差点あるい
は分岐点を特徴点として、その特徴点を通る眼底画像の
接合境界線を中心とする両側に、それぞれ一定幅で、接
合境界線に接する一定幅の各画像の内側領域、すなわち
局所的な領域についてのみ画像の線形変形を行うことに
より、少ない演算量とメモリ量により、シームレスな合
成画像を得ることを可能としたものである。
Accordingly, the present invention provides a method in which an intersection or a branch point of a blood vessel or the like is used as a feature point, and a fixed width is provided on both sides of the fundus image passing through the feature point with a fixed width on each side. By performing linear transformation of an image only on the inner region of each image having a width, that is, on a local region, a seamless composite image can be obtained with a small amount of computation and a small amount of memory.

【0019】前記の線形変換において、入力された画像
の血管等が45度を超える程度に大きく変形を受ける
と、境界線においてシームレスに接合しているとの印象
はほとんど失われてしまう。前記変換においては、原画
像に対して血管等が特に40度以下の屈折であることが
好ましい。
In the above-mentioned linear transformation, if the blood vessels and the like of the input image are greatly deformed so as to exceed 45 degrees, the impression that they are seamlessly joined at the boundary is almost lost. In the conversion, it is preferable that blood vessels and the like have a refraction of not more than 40 degrees with respect to the original image.

【0020】本発明では、そのために、画像の変換にお
いて対応する血管を見つける際に走査する範囲を限定す
るとの手段を採用した。具体的には、接合境界線上にお
いて接合境界線上の血管を中心とする両側に、一定幅の
局所領域の長さ以下に対応する血管を見い出す探索範囲
を限定することである。すなわち、血管等の画像の過度
の屈折を抑止するためには、接合境界線を中心とする両
側の局所領域の幅を一定の長さ以上とする必要がある。
For this purpose, the present invention employs a means for limiting the scanning range when finding a corresponding blood vessel in image conversion. Specifically, a search range for finding a blood vessel corresponding to a local area having a certain width or less on both sides of a blood vessel on the joint boundary line on the joint boundary line is limited. That is, in order to suppress excessive refraction of an image of a blood vessel or the like, it is necessary to make the width of local regions on both sides around the joint boundary line a certain length or more.

【0021】本発明では、3枚以上の画像が重なってい
る場合には、重なっている2枚の画像を接合する接合線
において変形を行う。対応する2枚の決め方は任意の方
法で構わない。例えば表示における優先順位に従って上
位2枚の接合線で処理する。あるいは、先ず2枚につい
て、接合線において変形処理を行い、その後、次の画像
との接合線において変形処理を行うというように順次繰
り返すというような方法でも構わない。
In the present invention, when three or more images are overlapped, deformation is performed at a joining line joining the two overlapped images. The corresponding two cards may be determined in any manner. For example, processing is performed using the two highest joining lines in accordance with the priority in display. Alternatively, a method in which the deformation process is performed on the two images at the joining line first, and then the deformation process is sequentially performed at the joining line with the next image, and so on may be repeated.

【0022】また、眼底画像を接合する接合線は、直線
である必要はなく、曲線であっても構わない。
The joining line joining the fundus images does not need to be a straight line, but may be a curved line.

【0023】なお、入力される眼底画像は、少なくとも
1以上の眼底画像と重なり合っている領域があることを
前提としている。したがって、重なりが1つもない眼底
画像が入力された場合は、本発明で処理することは可能
であるが、重なる場所が見つからないため、合成はされ
ない。
It is assumed that the input fundus image has an area overlapping at least one or more fundus images. Therefore, when a fundus image having no overlap is input, the fundus image can be processed by the present invention, but since no overlapping place is found, no combination is performed.

【0024】[0024]

【発明の実施の形態】以下、本発明の実施の形態につい
て図を用いて詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0025】図1,2,3に本発明の眼底画像変形合成
方法の一実施形態例のフローチャートを、図4に本発明
の眼底画像変形合成方法を実施するための一構成例を示
す。
FIGS. 1, 2 and 3 show a flowchart of an embodiment of a fundus image deformation / synthesis method of the present invention, and FIG. 4 shows an example of a configuration for implementing the fundus image deformation / synthesis method of the present invention.

【0026】図1において、S101はスタート、S1
02は眼底画像を複数枚入力する処理、S103は眼底
画像を2値化し、血管画像を抽出する処理、S104は
血管画像を細線化し、血管の交点(分岐点および交叉
点)を求める処理、S105は眼底画像A上の血管の1
交点と、重ね合わせる対象である眼底画像B上の全ての
交点もしくはその近傍点を、中心とした一定サイズの周
辺領域に対する相関を求め、最大相関値を持つ交点ペア
を見つける処理、S106は眼底画像A上の血管の全て
の交点に対してS105を処理し、各交点ペアの中で最
大かつある閾値以上の交点ペアを2枚の眼底画像(A,
B)の合成位置とする処理、S107はS106で決定
された交点ペアの位置を合致させることにより2枚の眼
底画像(A,B)を合成する処理、S108は全ての画
像を処理したか?の判断処理を示す。S108におい
て、Noの場合には、全ての画像を処理するまでS10
5からの処理を繰り返し、Yesの場合には、下記のS
109からの処理へ移行する。
In FIG. 1, S101 is a start, S1
02 is a process of inputting a plurality of fundus images, S103 is a process of binarizing the fundus image and extracting a blood vessel image, S104 is a process of thinning the blood vessel image and finding intersections (branch points and intersection points) of blood vessels, S105. Is the blood vessel 1 on the fundus image A
A process of finding a correlation with a peripheral area of a certain size centered on the intersection and all the intersections on the fundus image B to be superimposed or a point near the intersection and finding an intersection pair having the maximum correlation value, S106 is the fundus image S105 is processed for all the intersections of the blood vessels on A, and the intersection pair having the maximum and a certain threshold or more among the intersection pairs is set to two fundus images (A,
B) The process of setting as a synthesis position, S107 is a process of synthesizing two fundus images (A, B) by matching the position of the intersection pair determined in S106, and S108 is all the images processed? Is shown. In the case of No in S108, S10 is performed until all images are processed.
5 is repeated, and in the case of Yes, the following S
The processing shifts to processing from 109.

【0027】S109はS107で決定された交点ペア
を通る接合線で画像を切断し、画像を接合する処理、S
110は接合線上を通る血管(S104の細線化された
血管)と接合線との交点を2枚の眼底画像(A,B)か
ら求める処理、S111はS110で求めた眼底画像A
とBの交点を中心とした一定サイズの周辺領域に対する
相関を求め、一定値以上で最大の相関値を持つ交点ペア
を対応する交点と見なす処理、S112は眼底画像Aの
血管と眼底画像Bの血管を接合線上において、眼底画像
AとBのS111で求めた2つの交点の接合線上での中
点で対応血管を接続するために眼底画像A,Bそれぞれ
において該接合線の各連続する2交点を1辺とし、接合
線から一定の長さをもう1辺とする長方形を、対応する
各連続する2中点を1辺とする台形に変形する処理、S
113は変形した眼底画像同士を接合線上で接合する処
理、S114は合成画像を表示する処理、S115は合
成画像を蓄積する処理、S116はエンドを示す。
In step S109, the image is cut at a joining line passing through the intersection pair determined in step S107, and the images are joined.
110 is a process of obtaining the intersection of the blood vessel passing through the joint line (the blood vessel thinned in S104) and the joint line from the two fundus images (A, B), and S111 is a fundus image A obtained in S110.
A process of obtaining a correlation with respect to a peripheral region of a certain size centered on the intersection of the image and B, and considering an intersection pair having a maximum correlation value that is equal to or greater than a certain value as a corresponding intersection. In order to connect the corresponding blood vessel at the midpoint on the joining line between the two intersections obtained in S111 of the fundus images A and B on the joining line of the blood vessels, each two consecutive intersection points of the joining line in the fundus images A and B respectively Is a process of transforming a rectangle having one side as a side and a certain length from the joining line as another side into a trapezoid having two corresponding midpoints as one side, S
Reference numeral 113 denotes a process of joining the deformed fundus images on a joining line, S114 denotes a process of displaying a synthesized image, S115 denotes a process of storing a synthesized image, and S116 denotes an end.

【0028】図2は、上記S111の処理の詳細を示す
フローチャートである。
FIG. 2 is a flowchart showing the details of the process of S111.

【0029】図2において、S111−1はスタート、
S111−2は眼底画像AおよびB上においてS110
で求めた交点を中心とする一定サイズMの周辺領域(テ
ンプレート)を求める処理、S111−2は眼底画像A
にある或るテンプレートTAiに対して、眼底画像B上
のテンプレートTBjとの相関を計算し、或る閾値以上
で最大の相関値をもつものを対応血管交点として抽出す
る処理(ただし、一定本数以上、一定の距離(45度以
下の屈折)以上離れているものは探索対象から除く)、
S111−3は全てのテンプレートを処理したか?の判
断処理を示す。
In FIG. 2, S111-1 is started,
S111-2 is performed on the fundus images A and B in S110.
For obtaining a peripheral area (template) of a fixed size M centered on the intersection obtained in step S111-2.
Processing for calculating a correlation between a certain template TAi and a template TBj on the fundus oculi image B, and extracting the one having a maximum correlation value equal to or higher than a certain threshold value as a corresponding blood vessel intersection (however, a certain number or more) , Objects separated by a certain distance (refraction of 45 degrees or less) are excluded from search targets),
Has S111-3 processed all templates? Is shown.

【0030】S111−3において、Noの場合には、
全てのテンプレートを処理するまでS111−3の処理
を繰り返し、Yesの場合には、S111−4のエンド
とし、S111の処理を終える。
In the case of No at S111-3,
The processing of S111-3 is repeated until all the templates are processed, and in the case of Yes, S111-4 is ended and the processing of S111 is ended.

【0031】図3は、上記S112の処理の詳細を示す
フローチャートである。
FIG. 3 is a flowchart showing the details of the process of S112.

【0032】図3において、S112−1はスタート、
S112−2は2枚の画像A,Bそれぞれについて有効
な対応血管交点に対しラベルP,Qを、P0,P1,…,
n,Pn+1:画像Aの血管交点点列、Q0,Q1,…,Q
n,Qn+1:画像Bの血管交点点列(ここでnはn番目の
対応する血管交点である)のように付与する処理、S1
12−3は各血管交点との中点をRとし、中点の点列を
0,R1,…,Rn,Rn+1とする処理、S112−4は
画像Aの血管交点点列から隣接する2点Pn,Pn+1を順
に選択し2点Pn,Pn+1を結ふ線分を底辺とする高さ
w、頂点An+1の2等辺三角形(Pn,Pn+1,An+1)を
定義し、さらに隣接する中点2点(Rn,Rn+1)を結ぶ
線分を底辺とする高さw、頂点An+1の2等辺三角形
(Rn,Rn +1,An+1)を定義する処理、S112−5
は三角形(Pn,Pn+1,An+1)を三角形(Rn
n+1,An+1)に変形させる変換式を求める処理、S1
12−6はnを変化させ、全ての変換式を求めたか?の
判断処理を示す。
In FIG. 3, S112-1 is started,
S112-2 is valid for each of the two images A and B
Labels P and Q for the corresponding blood vessel intersections,0, P1,…,
Pn, Pn + 1: Sequence of blood vessel intersection points in image A, Q0, Q1, ..., Q
n, Qn + 1: A sequence of blood vessel intersection points in image B (where n is the n-th
Processing corresponding to the corresponding blood vessel intersection), S1
12-3 is the middle point with each blood vessel intersection as R,
R0, R1, ..., Rn, Rn + 1Processing, S112-4 is
Two adjacent points P from the blood vessel intersection point sequence of image An, Pn + 1In order
2 points Pn, Pn + 1Height with line segment connecting
w, vertex An + 1Isosceles triangle (Pn, Pn + 1, An + 1)
And define two adjacent midpoints (Rn, Rn + 1)
Height w, vertex A with line segment as basen + 1Isosceles triangle of
(Rn, Rn +1, An + 1), S112-5
Is a triangle (Pn, Pn + 1, An + 1) To the triangle (Rn,
Rn + 1, An + 1), A process for obtaining a transformation equation to be transformed into
Has 12-6 changed n and found all the conversion equations? of
The determination process will be described.

【0033】S112−6において、Noの場合には、
全ての変換式を求めるまでS112−6の処理を繰り返
し、Yesになれば、S112−7へ移行する。S11
2−7は求めた変換式に従い、長方形を台形に変形する
処理を順次実行する処理、S112−8は変換処理を2
枚の画像A,Bそれぞれについて全ての対象領域を長方
形から台形に変形する処理を実行したか?の判断処理を
示す。
In the case of No at S112-6,
The process of S112-6 is repeated until all the conversion formulas are obtained, and when the result is Yes, the process proceeds to S112-7. S11
2-7 is a process for sequentially executing a process of transforming a rectangle into a trapezoid in accordance with the obtained conversion formula.
Have you performed processing to transform all target areas from rectangles to trapezoids for each of the images A and B? Is shown.

【0034】S112−8において、Noの場合には、
全ての対象領域について処理するまでS112−8の処
理を繰り返し、Yesになれば、S112−9のエンド
とし、S112の処理を終える。
In the case of No at S112-8,
The process of S112-8 is repeated until all the target areas have been processed. If the determination is Yes, the process ends in S112-9 and ends the process in S112.

【0035】図4において、201は複数枚の入力画像
(眼底画像)、202は入力部、203は制御部、20
4は特徴抽出部、205は相関処理部、206は画像合
成部、207は画像接合部、208は画像変形部、20
9は画像蓄積部、210はデータ蓄積部、211は表示
部を示す。
In FIG. 4, reference numeral 201 denotes a plurality of input images (fundus images); 202, an input unit; 203, a control unit;
4 is a feature extraction unit, 205 is a correlation processing unit, 206 is an image synthesis unit, 207 is an image joining unit, 208 is an image transformation unit, 20
Reference numeral 9 denotes an image storage unit, 210 denotes a data storage unit, and 211 denotes a display unit.

【0036】入力部202は外部から同一被験者の視線
の異なる複数の眼底画像を入力し、特徴点抽出部204
は該複数の眼底画像から特徴点を抽出し、相関処理部2
05は該抽出された特徴点の周辺領域の相関をとり、画
像合成部206は該相関の高い領域の特徴点を合致させ
ることにより画像合成し、画像接合部207は該合成さ
れる眼底画像の接合線で画像を接合し、例えば特徴抽出
部204などに含まれる対応血管抽出部は該接合線上に
おいて対応する血管を抽出し、画像変形部208は該接
合線上の対応血管を対応させるために対応血管周辺領域
を変形させ、表示部211は該変形後の合成画像を表示
し、画像蓄積部209は該合成画像を蓄積し、制御部2
03は前記各部を制御する。本発明は、少なくともこれ
らの各部を備えた画像処理手段を用いた眼底画像変形合
成方法である。なお、対応血管周辺領域とは、接合線L
の各血管の対応する2交点(Pi,Pi+1)を1辺とし、
接合線L上から一定距離wを別の辺とする矩形領域を指
す。
The input unit 202 receives a plurality of fundus images of the same subject having different gazes from the outside, and outputs a feature point extracting unit 204.
Extracts feature points from the plurality of fundus images,
Reference numeral 05 indicates a correlation between peripheral regions of the extracted feature points, an image synthesizing unit 206 synthesizes an image by matching feature points of an area having a high correlation, and an image joining unit 207 generates an image of the fundus image to be synthesized. The images are joined at the joining line, and the corresponding blood vessel extracting unit included in, for example, the feature extracting unit 204 extracts a corresponding blood vessel on the joining line, and the image deforming unit 208 performs a corresponding operation to match the corresponding blood vessel on the joining line. The area around the blood vessel is deformed, the display unit 211 displays the synthesized image after the deformation, the image storage unit 209 stores the synthesized image, and the control unit 2
03 controls the above-mentioned units. The present invention is a fundus image deformation / synthesis method using an image processing means having at least these components. In addition, the corresponding blood vessel peripheral area is the joint line L
The corresponding two intersections (P i , P i + 1 ) of each blood vessel are defined as one side,
It indicates a rectangular area having a fixed distance w as another side from the joining line L.

【0037】また、図5、図6(図5の一部拡大図)に
本発明の眼底画像変形合成方法の一合成例、図7に接合
線における対応血管の状態例を示す。
FIGS. 5 and 6 (partially enlarged views of FIG. 5) show an example of a method for synthesizing a fundus image according to the present invention, and FIG. 7 shows an example of the state of the corresponding blood vessel at the joint line.

【0038】図5、図6において、301は眼底画像
A、302は眼底画像B、303は交点画像A、304
は交点画像B、305は分岐点、306は交叉点、30
7は合成画像、308は周辺領域TKAi、309は交点
KAi、310は周辺領域TKBj、311は交点KBj
312は近傍領域DKBj、313は接合線L、314は
血管、Mは周辺領域TKAi(または周辺領域TKBj)の大
きさ、Nは近傍領域DKBjの大きさを、それぞれ表す。
なお、血管の交点の近傍領域もしくは単に近傍領域D
KBj313とは、血管の交点(分岐点あるいは交叉点)
(Pi,Qiなど)を中心とする大きさN×Nの矩形領域
を指す。ここで、図6のように、NはMより小さく設定
する。
5 and 6, reference numeral 301 denotes a fundus image A, 302 denotes a fundus image B, 303 denotes an intersection image A, 304.
Is an intersection image B, 305 is a branch point, 306 is an intersection point, 30
7 is a composite image, 308 is a peripheral area T KAi , 309 is an intersection KA i , 310 is a peripheral area T KBj , 311 is an intersection KB j ,
Reference numeral 312 denotes a neighboring region D KBj , 313 denotes a joining line L, 314 denotes a blood vessel, M denotes the size of the peripheral region T KAi (or the peripheral region T KBj ), and N denotes the size of the neighboring region D KBj .
It should be noted that the vicinity region of the intersection of the blood vessels or simply the vicinity region D
KBj 313 is the intersection (branch or intersection) of blood vessels
(P i , Q i, etc.) refers to a rectangular area of size N × N. Here, N is set smaller than M as shown in FIG.

【0039】また、図7において、401は合成画像、
402は画像A、403は画像B、TP1は画像A上の中
心P1、大きさM×Mの周辺領域、TQ1は画像B上の中
心Q1、大きさM×Mの周辺領域、P1,P2,P3
4,P5は画像A上で接合線Lと各細線化された血管と
のそれぞれ交点を、Q1,Q2,Q3,Q4,Q5は画像B
上で接合線Lと各細線化された血管とのそれぞれ交点
を、TP5は画像A上の中心P 5、大きさM×Mの周辺領
域、TQ5は画像B上の中心Q5、大きさM×Mの周辺領
域を、それぞれ表す。
In FIG. 7, reference numeral 401 denotes a composite image;
402 is image A, 403 is image B, TP1Is in image A
Heart P1, A peripheral area of size M × M, TQ1Is in image B
Heart Q1, A peripheral area of size M × M, P1, PTwo, PThree,
PFour, PFiveRepresents the joint line L and each thinned blood vessel on the image A.
Each intersection of1, QTwo, QThree, QFour, QFiveIs image B
Each intersection of the joining line L and each thinned blood vessel above
And TP5Is the center P on the image A Five, Peripheral area of size M × M
Area, TQ5Is the center Q on the image BFive, Peripheral area of size M × M
Each area is represented.

【0040】そして、図8に合成画像例を、図9に眼底
画像変形合成処理例を示す。
FIG. 8 shows an example of a composite image, and FIG. 9 shows an example of a fundus image modification / combination process.

【0041】図8において、A1,A2,A3,A4,A5
は画像A上で接合線L上における各血管の連続する2交
点(PiとPi+1)を1辺とし接合線Lから一定距離wを
別の辺(SiとSi+1)とする矩形領域で接合線Lと対辺
の中点の位置をそれぞれ示し、B1,B2,B3,B4,B
5は画像B上で接合線L上における各血管の連続する2
交点(QiとQi+1)を1辺とし接合線Lから一定距離w
を別の辺(UiとUi+1)とする矩形領域で接合線Lと対
辺の中点の位置をそれぞれ示し、P1,P2,P 3,P4
5は画像A上で接合線Lと各細線化された血管とのそ
れぞれ交点を、Q1,Q2,Q3,Q4,Q5は画像B上で
接合線Lと各細線化された血管とのそれぞれ交点を、R
1,R2,R3,R4,R5は画像AとBと接合線L上での
それぞれの中点(R1はP1とQ1の中点、以下同様に、
2はP2とQ2の中点、R3はP3とQ3の中点、R4はP4
とQ4の中点、R5はP5とQ5の中点)を、示す。ただ
し、P0,P6,Q0,Q6は、それぞれ画像A,Bの接合
線と矩形領域が交わる両端点を示す。なお、図8の例に
おいては、P3,Q3,R3は対応点のため同一点とな
る。
In FIG. 8, A1, ATwo, AThree, AFour, AFive
Represents two successive intersections of each blood vessel on the joint line L on the image A.
Point (PiAnd Pi + 1) Is defined as one side and a fixed distance w from the joining line L
Another side (SiAnd Si + 1) And the joining line L and the opposite side in the rectangular area
Indicates the position of the midpoint of1, BTwo, BThree, BFour, B
FiveRepresents two consecutive blood vessels on the joining line L on the image B
Intersection (QiAnd Qi + 1) As one side and a fixed distance w from the joining line L
To another side (UiAnd Ui + 1) And the joint line L
Indicates the position of the midpoint of the side,1, PTwo, P Three, PFour,
PFiveRepresents the connection between the joining line L and each thinned blood vessel on the image A.
Each intersection is Q1, QTwo, QThree, QFour, QFiveIs on image B
The intersection of each of the joining line L and each thinned blood vessel is represented by R
1, RTwo, RThree, RFour, RFiveOn the joining line L with the images A and B
Each midpoint (R1Is P1And Q1The middle point,
RTwoIs PTwoAnd QTwoThe midpoint of RThreeIs PThreeAnd QThreeThe midpoint of RFourIs PFour
And QFourThe midpoint of RFiveIs PFiveAnd QFiveMidpoint). However
Then P0, P6, Q0, Q6Is the joining of images A and B respectively
Indicates both end points where the line and the rectangular area intersect. Note that in the example of FIG.
In the PThree, QThree, RThreeAre the same points because of the corresponding points
You.

【0042】また、図9において、601は処理画像
を、602は変形合成画像をそれぞれ示す。
In FIG. 9, reference numeral 601 denotes a processed image, and 602 denotes a deformed composite image.

【0043】まず、同一被験者の視線の異なる眼底画像
を複数枚入力する処理S102としてデジタル眼底カメ
ラを用いて撮影された入力画像201が入力部202を
通じて入力され、制御部203を通じて画像蓄積部20
7へ蓄積する。また、制御部203では各眼底画像の位
置関係(上下左右など)を把握し、データ蓄積部208
へ蓄積する。この際、各眼底画像は少なくとも1つの眼
底画像と重なりを持つ様に撮影する。次に、制御部20
3は、特徴抽出部204に対して各眼底画像を2値化
し、血管画像を抽出する処理S103および該血管画像
を細線化し、血管の交点(分岐点および交叉点)を求め
る処理S104を実行させる。
First, as a process S102 of inputting a plurality of fundus images of the same subject having different eyes, an input image 201 photographed by using a digital fundus camera is input through the input unit 202, and the image storage unit 20 is controlled through the control unit 203.
7. Store in. Further, the control unit 203 grasps the positional relationship (up, down, left, right, etc.) of each fundus image, and stores the data in the data storage unit 208.
To accumulate. At this time, each fundus image is photographed so as to overlap with at least one fundus image. Next, the control unit 20
Step 3 causes the feature extracting unit 204 to execute a process S103 for binarizing each fundus image and extracting a blood vessel image and a process S104 for thinning the blood vessel image and obtaining intersections (branch points and intersection points) of blood vessels. .

【0044】ここでは例として、図5に示すような2枚
のペアとなる眼底画像A301と眼底画像B302を合
成する処理例を説明する。血管の分岐点および交叉点を
求める処理S104まで実行された結果得られた分岐点
305と交叉点306を眼底画像中にプロットすると、
交点画像A303と交点画像B304のように表され
る。そして、眼底画像の位置関係に基づき、以下に説明
する一連の処理(S105からS107)を隣り合う2
枚の眼底画像の組み(図5の例では、眼底画像A301
と眼底画像B302)を対象に繰り返し処理する。この
際、位置関係に応じて、ある位置の眼底画像は、重なる
位置を調べる対象となるペアの眼底画像の位置を限定す
る(例えば、眼底画像A301は眼底画像B302との
重なる位置は調べるが、上下の眼底画像との重なる位置
は調べないなど)こともできる。このような位置の限定
は画像を変形しない場合や表示の優先度を考慮して行わ
れる。また、位置の限定を行うと計算時間が減少する効
果がある。
Here, as an example, an example of processing for synthesizing a fundus image A301 and a fundus image B302 which are two pairs as shown in FIG. 5 will be described. When the branch point 305 and the intersection point 306 obtained as a result of executing the processing up to the processing S104 for obtaining the branch point and the intersection point of the blood vessel are plotted in the fundus image,
It is represented as an intersection image A303 and an intersection image B304. Then, based on the positional relationship of the fundus image, a series of processes (S105 to S107) described below
A set of the fundus images (the fundus image A301 in the example of FIG. 5)
And the fundus image B302). At this time, depending on the positional relationship, the fundus image at a certain position limits the position of the pair of fundus images whose overlapping position is to be checked (for example, although the fundus image A301 checks the overlapping position with the fundus image B302, It is also possible to check the position where the image overlaps with the upper and lower fundus images. Such limitation of the position is performed in consideration of the case where the image is not deformed and the priority of display. Further, when the position is limited, there is an effect that the calculation time is reduced.

【0045】制御部203は相関処理部205に対し
て、眼底画像A上の血管の1交点と、重ね合わせる対象
である眼底画像B上の全ての交点もしくは近傍点を中心
とした一定サイズの周辺領域に対する相関を求め、最大
相関値を持つ交点ペアを見つける処理S105から決定
された交点ペアの位置を合致させることにより2枚の眼
底画像(A,B)を合成する処理S108までの一連の
処理を実行するように指示する。なお、血管の交点の近
傍点とは、血管の交点(分岐点あるいは交叉点)
(Pi,Qiなど)を中心とする大きさN×Nの矩形領域
(近傍領域DKBj)の範囲内に複数存在する点(N2個)
のうちある一点を指す。また、血管の交点もしくは交点
の近傍点を中心とする周辺領域(TKAi,TKBj,TPi
Qj)とは、血管の交点もしくは交点の近傍点を中心と
する大きさM×Mの矩形領域を指す。この大きさM×M
の周辺領域は、この周辺領域の中心点が血管もしくは交
点の近傍点となる範囲を移動可能である。
The control unit 203 instructs the correlation processing unit 205 to make one intersection of the blood vessel on the fundus image A and all intersections or neighboring points on the fundus image B to be superimposed a fixed-size periphery. A series of processes from a process of finding an intersection pair having a maximum correlation value to finding a correlation with respect to an area, to a process of synthesizing two fundus images (A, B) by matching the positions of the intersection pairs determined from S105. To run. The point near the blood vessel intersection is the blood vessel intersection (branch point or cross point).
A plurality of points (N 2 ) within the range of a rectangular area (neighboring area D KBj ) of size N × N centered on (P i , Q i, etc.)
Refers to a certain point. In addition, peripheral regions (T KAi , T KBj , T Pi ,
T Qj ) refers to a rectangular area of size M × M centered on the intersection of blood vessels or a point near the intersection. This size M × M
Is movable in a range in which the center point of this peripheral region is a point near a blood vessel or an intersection.

【0046】処理概略は以下の通りである。基本的な考
えは、眼底画像A301にある全ての血管の交点(分岐
点または交叉点)を基準として、それぞれの交点に対応
する血管の交点もしくはその近傍にあると予想される眼
底画像B302上の対応点を探索するということであ
る。なお、血管交点の近傍点は近傍領域DKBj内の点を
とるとする。また、対応点とは、重なりのある2枚の眼
底画像において、一方の眼底画像上の一点と他方の眼底
画像上で対応する一点、すなわち眼底画像中の同一点、
例えば同じ交点などを指す。眼底画像A301にある全
ての血管の交点(分岐点または交叉点)中の一交点KA
iと、眼底画像B302にある全ての血管の交点(分岐
点または交叉点)KBjもしくは交点の近傍点との類似
度合いを判定するために、眼底画像A301の血管の一
交点を中心とする周辺領域TKAiと眼底画像B302に
ある全ての血管の交点もしくは交点の近傍点を中心とす
る周辺領域TKBjとの相関係数rを計算する。眼底画像
A301の血管の一交点を中心とする周辺領域TKAi
最も相関の高い眼底画像B302上の交点もしくは交点
の近傍点を中心とする周辺領域TKBjを見つけ、そのと
きの眼底画像A301の血管の一交点と眼底画像B30
2上の交点(もしくは交点の近傍点)を合成点とし、こ
の合成点を合致させるように2枚の眼底画像301と3
02を合成する。この後、制御部203は画像接合部2
07に、S107で決定された交点ペアを通る接合線で
画像を切断し、画像を接合する処理S109を行うよう
に指示する。この際、切断前の画像301と302のデ
ータも保持しておく。
The outline of the processing is as follows. The basic idea is that, based on the intersection (branch point or intersection) of all blood vessels in the fundus image A301, the fundus image B302 expected to be at or near the intersection of blood vessels corresponding to each intersection point That is, a corresponding point is searched. It is assumed that a point in the vicinity of the blood vessel intersection is a point in the vicinity area D KBj . In addition, the corresponding point is, in two overlapping fundus images, a point on one fundus image and a corresponding point on the other fundus image, that is, the same point in the fundus image,
For example, it indicates the same intersection. One intersection point KA among the intersection points (branch points or intersection points) of all blood vessels in the fundus image A301
and i, to determine a similarity degree between neighborhood points of all intersections of blood vessels (branch points or intersections) KB j or intersection in the fundus image B302, peripheral centering an intersection of blood vessels of the fundus image A301 calculating a correlation coefficient r of the peripheral region T KBj around the neighborhood points of intersection or intersection of all blood vessels in the region T KAI and the fundus image B302. Find the peripheral region T KBj around the intersection or intersection point near on the peripheral region T KAI highest correlation fundus image B302 centered an intersection of blood vessels of the fundus image A301, the fundus image A301 of the time One intersection of blood vessels and fundus image B30
2, the intersection (or a point near the intersection) is defined as a synthesis point, and the two fundus images 301 and 3
02 is synthesized. Thereafter, the control unit 203 sets the image joining unit 2
At 07, an instruction is given to cut the image at the joining line passing through the intersection pair determined at S107 and to perform the process S109 of joining the images. At this time, data of the images 301 and 302 before cutting are also held.

【0047】次に、上記合成点を通る接合線Lにおい
て、画像を切断し、接合する場合に、接合線L上におい
て、対応する血管同士が滑らかに接続できるように変形
する処理を画像変形部208で行う。この場合、合成点
は、前述のようにS108までの処理で自動的に求めて
も良いし、人が任意に指定した合成点でも構わない。
Next, when the image is cut and joined at the joint line L passing through the synthesis point, a process of deforming the joint line L so that the corresponding blood vessels can be smoothly connected to each other is performed by the image deforming unit. This is performed at 208. In this case, the combination point may be automatically obtained by the processing up to S108 as described above, or may be a combination point arbitrarily designated by a person.

【0048】先ず、制御部203から特徴抽出部204
に指示し、接合線上を通る血管(S104の細線化され
た血管)と接合線との交点を2枚の眼底画像(A,B)
から求める処理S110を行う。そして、S110で求
めた眼底画像AとBの交点を中心とした一定サイズの周
辺領域に対する相関を求め、一定値以上で最大の相関値
を持つ交点ペアを対応する交点と見なす処理S111を
行い、対応する血管の組を見つける。図7に示すよう
に、接合線L上にある画像Aの血管の交点P1と画像B
の血管の交点Q1が対応するかを調べる。交点P1を中心
とする矩形領域T P1を画像A402上で取り、その矩形
領域TP1と、同様に交点Q1を中心とする矩形領域TQ1
を画像B403上で取り、その矩形領域TQ1との相関値
を調べる。同様に矩形領域TP1と矩形領域TQi(i=
2,3,4,5)との相関を取る。各相関値を比較し、
最大でかつ一定値以上の相関値をもつものを対応する交
点ペアとする。
First, from the control unit 203 to the feature extraction unit 204
And the blood vessels passing on the joint line (the thinned
Two images of the fundus (A, B)
Is performed at step S110. Then, in S110
Of fixed size around the intersection of the fundus images A and B
Calculate the correlation for the side area, and the maximum correlation value above a certain value
Processing S111 in which an intersection pair having
To find the corresponding set of vessels. As shown in FIG.
At the intersection P of the blood vessel of the image A on the joining line L1And image B
Intersection Q of blood vessels1Find out if corresponds. Intersection P1Around
Rectangular area T P1Is taken on image A402 and its rectangle
Area TP1And the intersection Q1Rectangular area T centered atQ1
Is taken on the image B403, and the rectangular area TQ1Correlation value with
Find out. Similarly, the rectangular area TP1And rectangular area TQi(I =
2,3,4,5). Compare each correlation value,
The one with the maximum and a correlation value equal to or greater than a certain value
Point pairs.

【0049】この際、一定値以上の相関値が得られない
交点については、変形して接続する血管から除外する。
すなわち、明らかに対応する血管だけを変形させ、対応
が見つからない血管については、処理をしない。この方
針は、誤った変形をさせずに大きな変形をさせることが
できる効果がある。
At this time, an intersection where a correlation value equal to or more than a certain value is not obtained is deformed and excluded from the connected blood vessels.
That is, only the blood vessels that clearly correspond are deformed, and the blood vessels for which no correspondence is found are not processed. This policy has an effect that large deformation can be performed without erroneous deformation.

【0050】次に、制御部203から画像変形部208
に指示し、眼底画像Aの血管と眼底画像Bの血管を接合
線上において、眼底画像AとBのS111で求めた2つ
の交点の接合線上での中点で対応血管を接続するために
眼底画像A,Bそれぞれにおいて該接合線の各連続する
2交点を1辺とし、接合線から一定の長さをもう1辺と
する長方形を、対応する各連続する2中点を1辺とする
台形に変形する処理S112を行う。図8において、P
i,Qi(i=2,3,4,5)は対応する血管とする。
また、P0とQ0,P6とQ6も対応するとする。図8の場
合、P1とQ1の中点R1にP1とQ1を重ねるように変形
を行う。すなわち、画像Aは三角形P0 11を三角形
011になる様に、変形を行い、画像Bは、三角形
011を三角形Q011になる様に変形を行う。以
下同様に、画像Aで、三角形Pii+ 1i+1を三角形Pi
i+1iに、画像Bで三角形Qii+1i+1を三角形Qi
i+1iに、それぞれ変形させる。
Next, the control unit 203 sends the image transformation unit 208
To join the blood vessel of the fundus image A and the blood vessel of the fundus image B
On the line, the two obtained in S111 of the fundus images A and B
To connect the corresponding vessels at the midpoint on the junction line of the intersection of
In each of the fundus images A and B, each of the joining lines is continuous
Two intersections are defined as one side, and a certain length from the joining line is defined as another side.
, And the corresponding two consecutive midpoints as one side
Step S112 for transforming into a trapezoid is performed. In FIG. 8, P
i, Qi(I = 2, 3, 4, 5) are the corresponding blood vessels.
Also, P0And Q0, P6And Q6It is assumed that it also corresponds. Fig. 8
If P1And Q1Midpoint R of1To P1And Q1Transform to overlap
I do. That is, image A is triangle P0A 1P1The triangle
P0A1R1The image B is transformed into a triangle so that
Q0B1Q1To the triangle Q0B1R1Deform so that it becomes. Less than
Similarly, in image A, triangle PiAi + 1Pi + 1To the triangle Pi
Ai + 1RiIn image B, triangle QiBi + 1Qi + 1To the triangle Qi
Bi + 1Ri, Respectively.

【0051】そして、制御部203は、画像接合部20
7に指示し、変形した眼底画像同士を接合線上で接合す
る処理S113を実行する。
The control unit 203 controls the image joining unit 20
7, and executes processing S113 for joining the deformed fundus images together on the joining line.

【0052】以上で変形合成処理は終了し、制御部20
3を通じて、画像蓄積部207に合成画像を、データ蓄
積部208に各画像の合成点の位置座標、画像n優先順
位情報、合成方法等の合成データを、それぞれ蓄積す
る。この際、位置関係により複数の画像との合成が可能
な場合には、位置の優先順位を定め、前面にある画像同
士、重なりがある接合部について接合線上における画像
の接合を本発明の画像変形合成手法を用いて行い、なめ
らかな血管および周辺の領域の接合を実現する。変形を
行う必要が生じる理由は、球面である3次元構造をもつ
眼底を2次元の平面に写像することにより、眼底写真の
中央附近と周辺附近では歪みの程度が異なるためであ
る。
With the above, the transformation synthesis process is completed, and the control unit 20
3, the synthesized image is stored in the image storage unit 207, and the synthesized data such as the position coordinates of the synthesis point of each image, the image n priority information, and the synthesis method is stored in the data storage unit 208. At this time, when combining with a plurality of images is possible due to the positional relationship, the priority of the position is determined, and the joining of the images on the joining line at the joining line for the images at the front and the overlapping portion of the image according to the present invention is performed. By using a synthesis method, smooth blood vessels and peripheral regions are joined. The reason why the deformation is required is that the degree of distortion is different between the vicinity of the center and the vicinity of the periphery of the fundus photograph by mapping the fundus having a spherical three-dimensional structure on a two-dimensional plane.

【0053】最後に合成した画像をディスプレイやプリ
ンタ等の出力媒体に表示する合成画像を表示する処理S
116を行う。
A process S for displaying a composite image for displaying the finally composited image on an output medium such as a display or a printer.
Step 116 is performed.

【0054】本発明で行っている変形処理に用いている
変換式について、図10を参照して説明する。変換後の
個々の座標における画素値を変換式の逆写像を求めるこ
とにより取得する。変換後の座標値は、整数に量子化さ
れているため、変換後の座標位置における画素値を計算
するために逆写像を用いる。
Referring to FIG. 10, a description will be given of a conversion formula used in the transformation processing performed in the present invention. The pixel value at each coordinate after the conversion is obtained by obtaining an inverse mapping of the conversion equation. Since the coordinate values after the conversion are quantized to integers, an inverse mapping is used to calculate a pixel value at the coordinate position after the conversion.

【0055】変換前の図形における3つのサンプル点
{(x1,y1),(x2,y2),(x 3,y3)}のgに
よる写像を{(x1',y1'),(x2',y2'),
(x3',y3')}とすれば、gの逆写像Gはパラメータ
a〜fを用いて次のように表現される。
Three sample points in the figure before conversion
{(X1, Y1), (XTwo, YTwo), (X Three, YThree)} G
写 (x1', Y1'), (XTwo', YTwo'),
(XThree', YThree')}, The inverse map G of g is a parameter
It is expressed as follows using a to f.

【0056】[0056]

【数1】 (Equation 1)

【0057】L=(x1'−x2')(y2'−y3')−(x
2'−x3')(y1'−y2')とすれば、パラメータa〜f
は以下のとおり。
L = (x 1 ′ −x 2 ′) (y 2 ′ −y 3 ′) − (x
If 2 '-x 3') (y 1 '-y 2'), the parameter a~f
Is as follows.

【0058】a={(x1−x2)(y2'−y3')−(x
2−x3)(y1'−y2')}/L b={(x2−x3)(x1'−x2')−(x1−x2)(x
2'−x3')}/L c={x1(x2'y3'−x3'y2')+x2(x3'y1'−x
1'y3')+x3(x1'y2'−x2'y1')}/L d={(y1−y2)(y2'−y3')−(y2−y3)(y
1'−y2')}/L e={(y2−y3)(x1'−x2')−(y1−y2)(x
2'−x3')}/L f={y1(x2'y3'−x3'y2')+y2(x3'y1'−x
1'y3')+y3(x1'y2'−x2'y1')}/L この逆写像Gにより求めた点(x1,y1)は、整数では
なく有理数となる。すなわち、サブピクセルの位置を表
すことになるため、この点を囲む整数座標位置である4
点の座標値の内分点として、4点の輝度値を内挿した値
を変換後の座標点(x1',y1')の輝度値とする。
A = {(x 1 −x 2 ) (y 2 ′ −y 3 ′) − (x
2 −x 3 ) (y 1 ′ −y 2 ′) / Lb = {(x 2 −x 3 ) (x 1 ′ −x 2 ′) − (x 1 −x 2 ) (x
2 '-x 3')} / L c = {x 1 (x 2 'y 3' -x 3 'y 2') + x 2 (x 3 'y 1' -x
1 'y 3') + x 3 (x 1 'y 2' -x 2 'y 1')} / L d = {(y 1 -y 2) (y 2 '-y 3') - (y 2 - y 3) (y
1 '-y 2')} / L e = {(y 2 -y 3) (x 1 '-x 2') - (y 1 -y 2) (x
2 '-x 3')} / L f = {y 1 (x 2 'y 3' -x 3 'y 2') + y 2 (x 3 'y 1' -x
1 'y 3') + y 3 (x 1 'y 2' -x 2 'y 1')} / L points obtained by the inverse mapping G (x 1, y 1) is a rational number, not an integer. That is, since it represents the position of the sub-pixel, it is an integer coordinate position 4 surrounding this point.
A value obtained by interpolating the luminance values of the four points as the internally dividing point of the coordinate values of the points is set as the luminance value of the converted coordinate point (x 1 ′, y 1 ′).

【0059】次に、画像同士の境界部分を接合線Lにお
いて、シームレスに接合するための変形処理を詳しく説
明する。先ず切断位置(接合線L)の決定は、2枚の画
像に対し、対応点(またはその近傍)を通る直線を切断
面として設定される。接合線Lの方向は2枚の眼底画像
の位置関係により、図11のように縦方向/横方向のい
ずれかに決定される。画像同士の境界部分の変形処理を
以下の手順で行う。
Next, the deformation processing for seamlessly joining the boundary portions between images at the joining line L will be described in detail. First, in determining the cutting position (joining line L), a straight line passing through a corresponding point (or in the vicinity thereof) is set as a cutting plane for two images. The direction of the joining line L is determined to be either the vertical direction or the horizontal direction as shown in FIG. 11 depending on the positional relationship between the two fundus images. Deformation processing of a boundary portion between images is performed in the following procedure.

【0060】画像の接合線Lを決定した後、対応する血
管同士が繋がるように接合線Lの周辺領域に変形処理を
施す。
After determining the joint line L of the image, a deformation process is performed on the peripheral region of the joint line L so that the corresponding blood vessels are connected to each other.

【0061】先ず、接合線上の血管の交点情報を抽出抽
出する。 ・対象となる2枚の画像(画像A,B)に対し、切断面
(直線)上を走査して交点点列(接合線L上の血管の有
無情報)を検出する。 ・交点点列の検出は両画像それぞれの対応点を始点とし
て直線の両端点に向かって走査する。さらに、両端それ
ぞれの交点について検出した順にインデックスを付与す
る。 ・検出された個々の交点を中点とするマスクサイズMの
テンプレートを用意する。
First, information on the intersection of blood vessels on the joint line is extracted. A scan is performed on the cut plane (straight line) for two target images (images A and B) to detect an intersection point sequence (information on the presence or absence of a blood vessel on the joint line L). The intersection point sequence is detected by scanning from the corresponding point of each image to both ends of the straight line. Further, an index is assigned in the order in which the intersections at both ends are detected. Prepare a template of a mask size M with the detected individual intersections as the middle points.

【0062】次に、対応血管の決定を行う。 ・一方の画像上にある個々のテンプレートに対して、他
方の画像のテンプレートとの相関値を計算し、最も相関
の高いものを対応血管として抽出する。相関値が一定値
以下のものについては、対応血管の候補から除外する。 ・テンプレート選定に当たっては、両画像が持つインデ
ックス情報を利用し、インデックス値の差があらかじめ
定義した値以下となる範囲で相関の計算を行い、インデ
ックス値の差が大きな(遠距離にある)ものについては
計算しない。また、図8の長さw以上の範囲は、走査し
ない。w以上離れている血管と接続すると血管の屈折角
度が45度以上となり、実際上の血管でないと考えられ
ることおよび接続した血管が滑らかに接続できないため
である。本発明では、眼底画像上の血管の太さにおける
平均値のm倍の長さをwとしている。
Next, a corresponding blood vessel is determined. -For each template on one image, calculate the correlation value with the template of the other image, and extract the one with the highest correlation as the corresponding blood vessel. If the correlation value is equal to or less than a certain value, it is excluded from the corresponding blood vessel candidates. -In selecting a template, the correlation information is calculated using the index information of both images in a range where the difference between the index values is equal to or less than a predefined value, and the difference between the index values is large (at a long distance). Is not calculated. Further, scanning is not performed in a range longer than the length w in FIG. This is because when connected to a blood vessel separated by w or more, the refraction angle of the blood vessel becomes 45 degrees or more, and it is considered that the blood vessel is not an actual blood vessel, and the connected blood vessel cannot be smoothly connected. In the present invention, w is a length that is m times the average value of the blood vessel thickness on the fundus image.

【0063】そして、変形処理(図8参照)は次のよう
に行う。
The transformation process (see FIG. 8) is performed as follows.

【0064】2枚の画像A,Bそれぞれについて有効な
対応血管交点に対し、次のようにラベルP,Qを付与す
る。
Labels P and Q are given to the corresponding corresponding blood vessel intersections effective for each of the two images A and B as follows.

【0065】P:(P0,P1,…,Pn,Pn+1,…)…
画像Aの血管交点点列 Q:(Q0,Q1,…,Qn,Qn+1,…)…画像Bの血管
交点点列 ここでnはn番目の対応する血管交点である。
P: (P 0 , P 1 ,..., P n , P n + 1 ,...)
Sequence of blood vessel intersection points in image A Q: (Q 0 , Q 1 ,..., Q n , Q n + 1 ,...) Sequence of blood vessel intersection points in image B where n is the nth corresponding blood vessel intersection point.

【0066】さらに、エッジ点PnとQnの中点をRn
し、中点の点列を R:(R0,R1,…,Rn,Rn+1,…)とする。
Further, the middle point between the edge points P n and Q n is R n, and the point sequence of the middle points is R: (R 0 , R 1 ,..., R n , R n + 1 ,...).

【0067】画像Aの血管交点点列から隣接する2点
(Pn,Pn+1)を順に選択し、2点(Pn,Pn+1)を結
ぶ線分を底辺とする高さw、頂点An+1の2等辺三角形
(Pn,Pn+1,An+1)を定義する。さらに隣接する2
点(Rn,Rn+1)を結ぶ線分を底辺とする高さw、頂点
n+1の2等辺三角形(Rn,Rn+1,An+1)を定義す
る。変換処理は三角形(Pn,Pn+1,An+1)を三角形
(Rn,Rn+1,An+1)に変形させることであり、nを
変化させて先に述べた変換式に従い、長方形(Pn,Pn
+1,Sn,Sn+1)を台形(Rn,Rn+1,Sn,Sn+1)に
変形する処理を順次実行する。なお、変換後の個々の座
標における画素値は、変換式の逆写像を求めることによ
り変換前の対応する座標を取得し、そこで得られた画素
値をプロットする。ただし、先に述べた様に変換前の対
する座標は、サブピクセルの場所になるため、その点を
囲む4点の座標値を内分点の比に応じて内挿して決定す
る。
Two adjacent points from the blood vessel intersection point sequence of image A
(Pn, Pn + 1) In order, and 2 points (Pn, Pn + 1)
Height w, vertex A with base line segment as basen + 1Isosceles triangle of
(Pn, Pn + 1, An + 1). Further adjacent 2
Point (Rn, Rn + 1), Height w with the line segment connecting
An + 1Isosceles triangle (Rn, Rn + 1, An + 1)
You. The conversion process is a triangle (Pn, Pn + 1, An + 1) The triangle
(Rn, Rn + 1, An + 1), Where n is
In accordance with the conversion equation described above, the rectangle (Pn, Pn
+1, Sn, Sn + 1) To a trapezoid (Rn, Rn + 1, Sn, Sn + 1)
The deforming processes are sequentially executed. Note that the converted individual loci
The pixel value at the target is obtained by calculating the inverse mapping of the conversion formula.
The corresponding coordinates before the transformation
Plot the values. However, as mentioned earlier,
The coordinates of the sub-pixel are
Interpolate and determine the coordinate values of the four surrounding points according to the ratio of the internally dividing points
You.

【0068】上記の変換処理を2枚の画像A,Bそれぞ
れについて行う。
The above conversion processing is performed for each of the two images A and B.

【0069】さらに、接合境界線上で画像Aと画像Bの
輝度差が大きい場合(一般には大きい)には、接合境界
線上での輝度差の1/2の値を距離に反比例するように
減衰させながら、部分領域内の各画素に作用させ、輝度
差吸収処理を行う。
Further, when the luminance difference between the image A and the image B is large (generally large) on the joint line, the value of 1/2 of the luminance difference on the joint line is attenuated in inverse proportion to the distance. While acting on each pixel in the partial area, the luminance difference absorption processing is performed.

【0070】以上に述べた本発明の眼底画像変形合成方
法により具現した眼底画像の2つの例を模写した図を図
12,13に示す。
FIGS. 12 and 13 show two examples of fundus images embodied by the fundus image deformation synthesizing method of the present invention described above.

【0071】なお、図1,2,3のフローチャートで示
した処理のステップをコンピュータに実行させることが
できることは言うまでもなく、コンピュータにその処理
のステップを実行させるためのプログラムを、そのコン
ピュータが読み取り可能な記憶媒体、例えば、FD(フ
ロッピーディスク:登録商標)や、MO、ROM、メモ
リカード、CD、DVD、リムーバブルディスクなどに
記録し、提供し、配布することが可能である。
It is needless to say that the steps of the processing shown in the flowcharts of FIGS. 1, 2 and 3 can be executed by a computer, and a program for causing the computer to execute the steps of the processing can be read by the computer. It is possible to record, provide, and distribute on various storage media, for example, FD (floppy disk: registered trademark), MO, ROM, memory card, CD, DVD, removable disk, and the like.

【0072】[0072]

【発明の効果】以上説明したように、本発明では、重な
った眼底画像における接合線上で、対応する血管同士を
合致するように変形させて合成するため、2次元の眼底
画像がもつ歪みを修正し、違和感の少ない合成を実現で
きる効果がある。コンピュータ上で複数枚の眼底画像を
合成し、合成した一枚のモンタージュ画像として眼底画
像を高品質なプリンタ等へ出力できれば、手作業で紙を
張り合わせる必要はなくなる効果がある。また、コンピ
ュータを用いることにより、手作業でかかっていた作業
時間の短縮、作業者の手作業への負担の軽減および空い
た時間の他業務への転用ができる効果がある。また、コ
ンピュータ上の電子データを用いているため、各眼底画
像を別々に保存しておけば、何度も眼底画像合成のやり
直しをすることが可能となる。また、手作業ではおおま
かにしか眼底画像を重ね合わせることしかできないが、
本発明では、自動的に合成した画像に対し各眼底画像の
位置を一画素づつ上下左右にずらすなど、微調整を行う
ことも可能となる利点がある。
As described above, the present invention corrects the distortion of the two-dimensional fundus image because the corresponding blood vessels are deformed and combined so as to match each other on the joint line in the overlapping fundus images. In addition, there is an effect that synthesis with less discomfort can be realized. If a plurality of fundus images can be synthesized on a computer and the fundus image can be output to a high-quality printer or the like as a single montage image, there is an effect that it is not necessary to manually attach papers. Further, by using a computer, there is an effect that the work time required for manual work can be reduced, the burden on the manual work of the worker can be reduced, and the free time can be used for other tasks. In addition, since the electronic data on the computer is used, if the fundus images are separately stored, it becomes possible to repeat the fundus image synthesis many times. In addition, although you can only roughly overlay the fundus image by hand,
According to the present invention, there is an advantage that fine adjustment can be performed, such as shifting the position of each fundus image vertically and horizontally by one pixel with respect to the automatically synthesized image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の眼底画像変形合成方法の一実施形態例
を示すフローチャートである。
FIG. 1 is a flowchart illustrating an embodiment of a fundus image deformation synthesizing method according to an embodiment of the present invention.

【図2】上記実施形態例のS111の詳細を示すフロー
チャートである。
FIG. 2 is a flowchart illustrating details of S111 in the embodiment.

【図3】上記実施形態例のS112の詳細を示すフロー
チャートである。
FIG. 3 is a flowchart showing details of S112 of the embodiment.

【図4】本発明の眼底画像変形合成方法を実施するため
の一構成例を示す図である。
FIG. 4 is a diagram showing a configuration example for implementing a fundus image deformation synthesizing method of the present invention.

【図5】本発明の眼底画像変形合成方法の一合成例を示
す図である。
FIG. 5 is a diagram illustrating a synthesis example of a fundus image deformation synthesis method according to the present invention.

【図6】図5の一部拡大図である。FIG. 6 is a partially enlarged view of FIG. 5;

【図7】本発明の眼底画像変形合成方法での接合線にお
ける対応血管の状態例を示す図である。
FIG. 7 is a diagram illustrating an example of a state of a corresponding blood vessel at a joint line in the fundus image deformation synthesizing method of the present invention.

【図8】本発明の眼底画像変形合成方法の合成画像例を
示す図である。
FIG. 8 is a diagram illustrating an example of a combined image according to the fundus image deformation combining method of the present invention.

【図9】本発明の眼底画像変形合成方法での眼底画像変
形合成処理例を示す。
FIG. 9 shows an example of a fundus image deformation synthesis process in the fundus image deformation synthesis method of the present invention.

【図10】本発明の眼底画像変形合成方法で変形処理に
用いている変換式について説明する図である。
FIG. 10 is a diagram illustrating a conversion formula used for a deformation process in the fundus image deformation synthesis method of the present invention.

【図11】(a),(b)は、本発明の眼底画像変形合
成方法での画像同士の境界部分を接合線Lにおいて、シ
ームレスに接合するための変形処理を説明する図であ
る。
FIGS. 11A and 11B are diagrams illustrating a deformation process for seamlessly joining a boundary portion between images at a joining line L in the fundus image deformation synthesizing method of the present invention.

【図12】本発明の眼底画像変形合成方法により具現し
た眼底画像の一例を模写した図である。
FIG. 12 is a diagram simulating an example of a fundus image embodied by the fundus image deformation synthesizing method of the present invention.

【図13】本発明の眼底画像変形合成方法により具現し
た眼底画像の別の一例を模写した図である。
FIG. 13 is a diagram simulating another example of a fundus image embodied by the fundus image deformation synthesizing method of the present invention.

【符号の説明】[Explanation of symbols]

S101…スタート S102…眼底画像を複数枚入力する処理 S103…眼底画像を2値化し、血管画像を抽出する処
理 S104…血管画像を細線化し、血管の交点(分岐点お
よび交叉点)を求める処理 S105…眼底画像A上の血管の1交点と、重ね合わせ
る対象である眼底画像B上の全ての交点もしくはその近
傍点を、中心とした一定サイズの周辺領域に対する相関
を求め、最大相関値を持つ交点ペアを見つける処理 S106…眼底画像A上の血管の全ての交点に対してS
105を処理し、各交点ペアの中で最大かつある閾値以
上の交点ペアを2枚の眼底画像(A,B)の合成位置と
する処理 S107…S106で決定された交点ペアの位置を合致
させることにより2枚の眼底画像(A,B)を合成する
処理 S108…全ての画像を処理したか?の判断処理 S109…S107で決定された交点ペアを通る接合線
で画像を切断し、画像を接合する処理 S110…接合線上を通る血管(S104の細線化され
た血管)と接合線との交点を2枚の眼底画像(A,B)
から求める処理 S111…S110で求めた眼底画像AとBの交点を中
心とした一定サイズの周辺領域に対する相関を求め、一
定値以上で最大の相関値を持つ交点ペアを対応する交点
と見なす処理 S112…眼底画像Aの血管と眼底画像Bの血管を接合
線上において、眼底画像AとBのS111で求めた2つ
の交点の接合線上での中点で対応血管を接続するために
眼底画像A,Bそれぞれにおいて該接合線の各連続する
2交点を1辺とし、接合線から一定の長さをもう1辺と
する長方形を、対応する各連続する2中点を1辺とする
台形に変形する処理 S113…変形した眼底画像同士を接合線上で接合する
処理 S114…合成画像を表示する処理 S115…合成画像を蓄積する処理 S116…エンド 201…複数枚の入力画像 202…入力部 203…制御部 204…特徴抽出部 205…相関処理部 206…画像合成部 207…画像接合部 208…画像変形部 209…画像蓄積部 210…データ蓄積部 211…表示部 301…眼底画像A 302…眼底画像B 303…分岐・交叉点画像A 304…分岐・交叉点画像B 305…分岐点 306…交叉点 307…合成画像 308…周辺領域TKAi 309…交点KAi 310…周辺領域TKBj 311…交点KBj 312…近傍領域DKBj 313…接合線L M…周辺領域TKAiまたは周辺領域TKBjの大きさ N…近傍領域DKBjの大きさ TP1…画像A上の中心P1、大きさM×Mの周辺領域 TQ1…画像B上の中心Q1、大きさM×Mの周辺領域 P1,P2,P3,P4,P5…画像A上で接合線Lと各細
線化された血管とのそれぞれの交点 Q1,Q2,Q3,Q4,Q5…画像B上で接合線Lと各細
線化された血管とのそれぞれの交点 TP5…画像A上の中心P5、大きさM×Mの周辺領域 TQ5…画像B上の中心Q5、大きさM×Mの周辺領域 A1,A2,A3,A4,A5…画像A上で接合線上におけ
る各血管の連続する2交点(P1とPi+1)を1辺とし接
合線Lから一定距離wを別の辺とする矩形領域で接合線
と対辺の中点の位置 B1,B2,B3,B4,B5…画像B上で接合線上におけ
る各血管の連続する2交点(QiとQi+1)を1辺とし接
合線Lから一定距離wを別の辺とする矩形領域で接合線
と対辺の中点の位置 P1,P2,P3,P4,P5…画像A上で接合線Lと各細
線化された血管とのそれぞれ交点 Q1,Q2,Q3,Q4,Q5…画像B上で接合線Lと各細
線化された血管とのそれぞれの交点 R1,R2,R3,R4,R5…それぞれ、P1とQ1の中
点,P2とQ2の中点,P3とQ3の中点,P4とQ4の中
点,P5とQ5の中点 P0,P6,Q0,Q6…それぞれ画像A,Bの接合線と矩
形領域が交わる両端点 601…処理画像 602…変形合成画像
S101: Start S102: Processing for inputting a plurality of fundus images S103: Processing for binarizing the fundus image and extracting a blood vessel image S104: Processing for thinning the blood vessel image to obtain intersections (branch points and intersection points) of blood vessels S105 ... A cross-section having a maximum correlation value is obtained by calculating a correlation between a single intersection point of a blood vessel on the fundus image A and all intersection points or neighboring points on the fundus image B to be superimposed and a peripheral area of a certain size centered on the intersection point. Processing for finding a pair S106: S is performed for all intersections of blood vessels on the fundus image A
105 is processed, and the maximum intersection pair among the intersection pairs and a certain threshold value or more is set as the combined position of the two fundus images (A, B). The positions of the intersection pairs determined in S107. Processing for synthesizing two fundus images (A, B) by doing this S108: Have all images been processed? S109: A process of cutting an image by a joining line passing through the intersection pair determined in S107 and joining the images S110: Identifying an intersection between a blood vessel passing on the joining line (the blood vessel thinned in S104) and the joining line Two fundus images (A, B)
S111: A process for obtaining a correlation with respect to a peripheral region of a certain size centered on the intersection of the fundus images A and B obtained in S110, and regarding a pair of intersections having a maximum correlation value equal to or greater than a certain value as a corresponding intersection S112 ... on the joint line between the blood vessel of the fundus image A and the blood vessel of the fundus image B, and connecting the corresponding blood vessels at the midpoint on the joint line of the two intersections obtained in S111 between the fundus images A and B, the fundus images A and B In each case, a process of transforming a rectangle having two continuous intersections of the joining line as one side and a certain length from the joining line as another side into a trapezoid having the corresponding two consecutive midpoints as one side. S113: A process of joining the deformed fundus images on a joining line S114: A process of displaying a combined image S115: A process of storing a combined image S116: End 201: A plurality of input images 202 ... Power unit 203 Control unit 204 Feature extraction unit 205 Correlation processing unit 206 Image synthesis unit 207 Image connection unit 208 Image deformation unit 209 Image storage unit 210 Data storage unit 211 Display unit 301 Fundus image A 302 ... fundus image B 303 ... branch / cross point image A 304 ... branch / cross point image B 305 ... branch point 306 ... cross point 307 ... composite image 308 ... peripheral area T KAi 309 ... cross point KA i 310 ... peripheral area T KBj 311 ... intersection KB j 312 ... neighboring region D KBj 313 ... joint line L M ... size N ... near region D KBj peripheral region T KAI or peripheral region T KBj size T P1 ... center P 1 on the image a, Peripheral area T Q1 of size M × M: center Q 1 on image B, peripheral areas P 1 , P 2 , P 3 , P 4 , P 5 of size M × M... Each of the thinned blood vessels Intersection Q 1, Q 2, Q 3 , Q 4, Q 5 ... center P 5 on each intersection T P5 ... image A and joint line L and each thinned vessels on the image B, the magnitude M × M peripheral area T Q5 … center Q 5 on image B, size M × M peripheral area A 1 , A 2 , A 3 , A 4 , A 5 … continuation of each blood vessel on the joining line on image A Position of the middle point B 1 , B 2 , B 3 , of the joining line and the opposite side in a rectangular area where the two intersections (P 1 and P i + 1 ) to make B 4 , B 5 ... Joined in a rectangular area where two consecutive intersections (Q i and Q i + 1 ) of each blood vessel on the joining line on the image B are defined as one side and a fixed distance w from the joining line L is defined as another side. Positions P 1 , P 2 , P 3 , P 4 , P 5 of the midpoint of the line and the opposite side Intersections Q 1 , Q 2 , Q 3 , of the joining line L and the thinned blood vessels on the image A, respectively. Q 4 , Q 5 ... joined on image B Each intersection of the line L and each thinned vessels R 1, R 2, R 3 , R 4, R 5 ... respectively, the midpoint of P 1 and Q 1, the midpoint of P 2 and Q 2, P midpoint of 3 and Q 3, the midpoint of P 4 and Q 4, the middle point P 0 of the P 5 and Q 5, P 6, Q 0 , Q 6 ... each image a, the bonding wire and the rectangular area B intersect Both end points 601: processed image 602: deformed composite image

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 AA07 CA08 CA12 CA16 CB08 CB12 CB16 CC03 CD01 CE09 DA07 DB02 DB09 DC07 5C076 AA12 AA19 AA23 BA06 CA02 ────────────────────────────────────────────────── ─── Continued on the front page F term (reference) 5B057 AA07 CA08 CA12 CA16 CB08 CB12 CB16 CC03 CD01 CE09 DA07 DB02 DB09 DC07 5C076 AA12 AA19 AA23 BA06 CA02

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 同一被験者の視線の異なる複数枚の眼底
画像を入力し、それらのうちの2枚の眼底画像A,Bに
ついて、合成位置を定め該合成位置を合致させて前記2
枚の眼底画像を合成する重ね合わせ処理過程と、 前記合致させた合成位置を通る接合線で眼底画像Aと眼
底画像Bを接合する過程と、 前記眼底画像Aおよび眼底画像Bにおいて、それぞれ接
合線上を通る血管を検出し該接合線と該血管との交点を
前記眼底画像Aおよび眼底画像Bそれぞれから求める過
程と、 前記接合線と血管との交点を中心とした一定サイズの周
辺領域を前述の接合前の眼底画像Aから取り、該眼底画
像Aの1交点に対応する眼底画像Bの交点ペアを見つけ
るため、該眼底画像Bの接合線上で抽出された全ての、
または眼底画像Aの交点から一定の距離の、または血管
本数で制限された前記接合線と血管との交点およびその
近傍点を中心とした接合前の眼底画像B上の周辺領域と
の相関を求め、その相関値が一定値以上で最大の時、該
眼底画像Aの前記血管の1交点と対応する眼底画像Bの
位置とする交点ペアを見つけるために行う接合線上の交
点相関計算処理過程と、 前記接合線上の交点相関計算処理過程を用いて、眼底画
像A上における他の全ての前記接合線と血管との交点に
対する眼底画像B上の前記接合線と血管との交点ペアを
見つけた後、各相関値を比較し、各対応血管を決定する
対応血管決定処理過程と、 眼底画像Aの前記接合線と血管との交点と、眼底画像B
の前記接合線と血管との交点との該接合線上の中点で、
前記対応血管同士を接続するために、眼底画像A,Bそ
れぞれにおいて、該接合線上の各連続する2交点を一辺
とし、該接合線から一定の長さをもう一辺とする長方形
を、対応する該接合線から一定の長さ離れた該接合線と
平行な一辺の長さは同一とし、対応する該接合線上の各
連続する2中点を一辺とする台形に、変形させる画像変
形処理過程と、 前記変形した画像同士を合成する画像変形合成処理過程
と、 前記合成された合成画像を表示する過程および前記合成
画像を蓄積する過程のいずれか一方または双方とを有す
ることを特徴とする眼底画像変形合成方法。
1. A plurality of fundus images having the same subject's line of sight different from each other are input, and a combining position is determined for two of the fundus images A and B, and the combining positions are matched with each other.
A superimposition process of synthesizing two fundus images; a process of joining the fundus image A and the fundus image B with a joining line passing through the matched combining position; Detecting a blood vessel passing through the blood vessel, and obtaining an intersection between the joint line and the blood vessel from each of the fundus image A and the fundus image B. From the fundus image A before joining, in order to find an intersection pair of the fundus image B corresponding to one intersection of the fundus image A, all of the points extracted on the joining line of the fundus image B,
Alternatively, a correlation between a peripheral area on the fundus image B before joining centered on an intersection of the blood vessel and the blood vessel at a certain distance from the intersection point of the fundus image A or the junction line limited by the number of blood vessels and a point near the blood vessel is calculated. When the correlation value is equal to or more than a certain value and is the maximum, an intersection correlation calculation processing step on a joining line performed to find an intersection pair to be a position of the fundus image B corresponding to one intersection of the blood vessel of the fundus image A, Using the intersection correlation calculation process on the joint line, after finding the intersection pair of the joint line and the blood vessel on the fundus image B to the intersection of all other joint lines and blood vessels on the fundus image A, A corresponding blood vessel determining process for comparing each correlation value and determining each corresponding blood vessel; an intersection of the blood vessel with the joint line of the fundus image A;
At the midpoint of the junction line with the intersection of the blood vessel and the junction line,
In order to connect the corresponding blood vessels, in each of the fundus images A and B, each continuous two intersections on the joining line are defined as one side, and a rectangle having a certain length from the joining line as the other side is defined as a corresponding rectangle. The length of one side parallel to the joining line separated by a certain length from the joining line is the same, and an image deformation processing step of transforming into a trapezoid having two consecutive midpoints on the corresponding joining line as one side, A fundus image transformation comprising: an image transformation / combination process of combining the transformed images; and / or a process of displaying the combined image and / or accumulating the combined image. Synthesis method.
【請求項2】 前記重ね合わせ処理過程では、2枚の眼
底画像A,Bを任意の位置に重ね合わせ、重なっている
領域内の任意の点を合成位置とすることを特徴とする請
求項1に記載の眼底画像変形合成方法。
2. In the superimposing process, two fundus images A and B are superimposed at an arbitrary position, and an arbitrary point in an overlapping area is set as a synthesis position. 3. A fundus image deformation synthesis method according to claim 1.
【請求項3】 前記重ね合わせ処理過程では、ポインテ
ィングデバイスを用いて手動で操作者が入力指示を行っ
た2枚の眼底画像A,Bについて処理を行うことを特徴
とする請求項1または2記載の眼底画像変形合成方法。
3. The method according to claim 1, wherein in the superimposing process, two fundus images A and B for which an operator has manually input an instruction using a pointing device. Fundus image deformation synthesis method.
【請求項4】 前記重ね合わせ処理過程では、 同一被験者の視線の異なる眼底画像を複数枚入力する眼
底画像入力過程と、 前記入力された複数枚の眼底画像を画像処理により2値
化し、血管画像を抽出する過程と、 前記抽出された血管画像を細線化し、血管の交点である
分岐点および交叉点を求める過程と、 前記複数枚の眼底画像のうちで合成対象となる2枚の眼
底画像A,Bのうち、眼底画像A上のある血管の1交点
を中心した一定サイズの周辺領域に対する眼底画像B上
で抽出された全ての血管の交点およびその近傍点を中心
とした周辺領域との相関を求め、その相関の最大値を眼
底画像Aの前記血管の1交点と対応する眼底画像Bの位
置とする交点ペアを見つける交点相関計算処理過程と、 前記眼底画像A上の他の各交点に対する眼底画像B上の
交点ペアを見つける前記交点相関処理を行い、見つけた
各交点ペアの中で最大でかつある閾値以上の相関値を持
つ交点ペアを当該2枚の眼底画像の合成位置とする合成
位置決定処理過程と、 前記合成位置決定処理過程で決定された交点ペアの位置
を合致させることにより前記2枚の眼底画像を合成する
過程とを有することを特徴とする請求項1または2また
は3記載の眼底画像変形合成方法。
4. In the superimposition processing step, a fundus image inputting step of inputting a plurality of fundus images of the same subject having different gazes, a binarization of the input plurality of fundus images by image processing, and a blood vessel image Extracting a blood vessel image, thinning the extracted blood vessel image to obtain a branch point and an intersection point which are intersections of blood vessels, and two fundus images A to be synthesized among the plurality of fundus images. , B, the correlation between the intersection of all the blood vessels extracted on the fundus image B and the surrounding area centered on the vicinity of the intersection of all the blood vessels extracted on the fundus image B with respect to the surrounding area of a certain size centered on one intersection of a certain blood vessel on the fundus image A And an intersection correlation calculation process of finding an intersection pair in which the maximum value of the correlation is the position of the fundus image B corresponding to one intersection of the blood vessels of the fundus image A, and for each other intersection on the fundus image A eye The intersection correlation processing for finding the intersection pair on the image B is performed, and the intersection position having the largest correlation value among the found intersection pairs and a correlation value equal to or more than a certain threshold value is set as the synthesis position of the two fundus images. 4. The method according to claim 1, further comprising: a determination process; and a process of combining the two fundus images by matching positions of the intersection pairs determined in the synthesis position determination process. 5. Fundus image deformation synthesis method.
【請求項5】 請求項1から請求項4に記載の眼底画像
変形合成方法における過程をコンピュータに実行させる
プログラムを、 該コンピュータが読み取り可能な媒体に記録したことを
特徴とする眼底画像変形合成プログラムを記録した記録
媒体。
5. A fundus image deformation synthesizing program, wherein a program for causing a computer to execute the steps in the fundus image deformation synthesizing method according to claim 1 is recorded on a computer-readable medium. Recording medium on which is recorded.
JP2000250742A 2000-08-22 2000-08-22 Fundus image deformation synthesizing method, recording medium storing the program, and fundus image deformation synthesizing apparatus Expired - Fee Related JP3540731B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000250742A JP3540731B2 (en) 2000-08-22 2000-08-22 Fundus image deformation synthesizing method, recording medium storing the program, and fundus image deformation synthesizing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000250742A JP3540731B2 (en) 2000-08-22 2000-08-22 Fundus image deformation synthesizing method, recording medium storing the program, and fundus image deformation synthesizing apparatus

Publications (2)

Publication Number Publication Date
JP2002058647A true JP2002058647A (en) 2002-02-26
JP3540731B2 JP3540731B2 (en) 2004-07-07

Family

ID=18740263

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000250742A Expired - Fee Related JP3540731B2 (en) 2000-08-22 2000-08-22 Fundus image deformation synthesizing method, recording medium storing the program, and fundus image deformation synthesizing apparatus

Country Status (1)

Country Link
JP (1) JP3540731B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009112617A (en) * 2007-11-08 2009-05-28 Kowa Co Panoramic fundus image-compositing apparatus and method
JP2015221089A (en) * 2014-05-22 2015-12-10 キヤノン株式会社 Image generation device and image generation method
WO2018235471A1 (en) * 2017-06-21 2018-12-27 株式会社トプコン Ophthalmological device, ophthalmological image processing method, program, and storage medium
CN109658394A (en) * 2018-12-06 2019-04-19 代黎明 Eye fundus image preprocess method and system and microaneurysm detection method and system
CN111954485A (en) * 2018-04-18 2020-11-17 株式会社尼康 Image processing method, program, image processing apparatus, and ophthalmologic system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009112617A (en) * 2007-11-08 2009-05-28 Kowa Co Panoramic fundus image-compositing apparatus and method
JP2015221089A (en) * 2014-05-22 2015-12-10 キヤノン株式会社 Image generation device and image generation method
WO2018235471A1 (en) * 2017-06-21 2018-12-27 株式会社トプコン Ophthalmological device, ophthalmological image processing method, program, and storage medium
JP2019004956A (en) * 2017-06-21 2019-01-17 株式会社トプコン Ophthalmologic apparatus, ophthalmologic image processing method, program, and recording medium
US11134840B2 (en) 2017-06-21 2021-10-05 Topcon Corporation Ophthalmological device, ophthalmological image processing method, and storage medium
CN111954485A (en) * 2018-04-18 2020-11-17 株式会社尼康 Image processing method, program, image processing apparatus, and ophthalmologic system
CN109658394A (en) * 2018-12-06 2019-04-19 代黎明 Eye fundus image preprocess method and system and microaneurysm detection method and system
CN109658394B (en) * 2018-12-06 2023-05-09 代黎明 Fundus image preprocessing method and system and microangioma detection method and system

Also Published As

Publication number Publication date
JP3540731B2 (en) 2004-07-07

Similar Documents

Publication Publication Date Title
JP5138431B2 (en) Image analysis apparatus and method, and program
CN105938627B (en) Processing method and system for virtual shaping of human face
US8194936B2 (en) Optimal registration of multiple deformed images using a physical model of the imaging distortion
JP5080944B2 (en) Panorama fundus image synthesis apparatus and method
CN106940876A (en) A kind of quick unmanned plane merging algorithm for images based on SURF
CN110926330B (en) Image processing apparatus, image processing method, and program
WO1994023390A1 (en) Apparatus for identifying person
JPH07152895A (en) Method and device for processing picture
US20150220769A1 (en) Striped pattern image examination support device, striped pattern image examination support method and program
JP3910239B2 (en) Medical image synthesizer
WO2013172311A1 (en) Ultrasound diagnostic device and image evaluation display method
JP4533587B2 (en) Medical image laminating device
CN107194909A (en) Medical image-processing apparatus and medical imaging processing routine
WO2010081094A2 (en) A system for registration and information overlay on deformable surfaces from video data
JP2967086B1 (en) Estimation of 3D pose of a person by multi-view image processing
JP3377446B2 (en) Fundus image combining method, fundus image combining apparatus, and recording medium
WO2010109994A1 (en) Stripe pattern image appraisal device, stripe pattern image appraisal method, and program
JP3540731B2 (en) Fundus image deformation synthesizing method, recording medium storing the program, and fundus image deformation synthesizing apparatus
JP4201939B2 (en) Image processing apparatus and radiation therapy planning system
JP6605240B2 (en) Image processing method, apparatus, and program
CN108510497B (en) Method and device for displaying focus information of retina image
CN114463170B (en) Large scene image stitching method for AGV application
JP2003050110A (en) Three-dimensional shape data producing system and method, program and recording medium
JP4803148B2 (en) Binocular position detection method and detection apparatus for human face image
CN109754366B (en) Image splicing method based on binary tree

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20031212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20031216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040325

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090402

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100402

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110402

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120402

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140402

Year of fee payment: 10

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees