JP2021090631A - Image processing method, scan type imaging method, image processing apparatus, its control method, scan type imaging device, its control method, program, and recording medium - Google Patents

Image processing method, scan type imaging method, image processing apparatus, its control method, scan type imaging device, its control method, program, and recording medium Download PDF

Info

Publication number
JP2021090631A
JP2021090631A JP2019223138A JP2019223138A JP2021090631A JP 2021090631 A JP2021090631 A JP 2021090631A JP 2019223138 A JP2019223138 A JP 2019223138A JP 2019223138 A JP2019223138 A JP 2019223138A JP 2021090631 A JP2021090631 A JP 2021090631A
Authority
JP
Japan
Prior art keywords
image
mask
pixel value
unit
value range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019223138A
Other languages
Japanese (ja)
Other versions
JP7410481B2 (en
Inventor
修一 巻田
Shuichi Makita
修一 巻田
安野 嘉晃
Yoshiaki Yasuno
嘉晃 安野
山口 達夫
Tatsuo Yamaguchi
達夫 山口
雅博 澁谷
Masahiro Shibuya
雅博 澁谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
University of Tsukuba NUC
Original Assignee
Topcon Corp
University of Tsukuba NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp, University of Tsukuba NUC filed Critical Topcon Corp
Priority to JP2019223138A priority Critical patent/JP7410481B2/en
Publication of JP2021090631A publication Critical patent/JP2021090631A/en
Application granted granted Critical
Publication of JP7410481B2 publication Critical patent/JP7410481B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a method for improving accuracy of image registration using a mask.SOLUTION: In an image processing method of exemplary manner, first of all, a first image of a sample and a second image and a mask image are prepared. A pixel value range of the first image and the pixel value range of the second image and the pixel value range of the mask image are relatively adjusted. After this relative pixel value range adjustment, the mask image is synthesized in each of the first image and the second image, and the first synthetic image and the second synthetic image are generated, and thereby multiple cross correlation functions are found on the basis of these synthetic images. The multiple cross correlation functions being found are used for calculation of the correlation coefficient, and the registration with the first image and the second image is carried out on the basis of this correlation coefficient.SELECTED DRAWING: Figure 4B

Description

この発明は、画像処理方法、走査型イメージング方法、画像処理装置、その制御方法、走査型イメージング装置、その制御方法、プログラム、及び記録媒体に関する。 The present invention relates to an image processing method, a scanning imaging method, an image processing apparatus, a control method thereof, a scanning imaging apparatus, a control method thereof, a program, and a recording medium.

イメージング技術の1つに走査型イメージングがある。走査型イメージングとは、サンプルの複数の箇所に順次にビームを照射してデータを収集し、収集されたデータからサンプルの像を構築する技術である。 Scanning imaging is one of the imaging techniques. Scanning imaging is a technique in which a plurality of parts of a sample are sequentially irradiated with a beam to collect data, and an image of the sample is constructed from the collected data.

光を利用した走査型イメージングの典型例として光コヒーレンストモグラフィ(OCT;光干渉断層撮影法)が知られている。OCTは、光散乱媒質をマイクロメートルレベル又はそれ以下の分解能で画像化することが可能な技術であり、医用イメージングや非破壊検査などに応用されている。OCTは、低コヒーレンス干渉法に基づく技術であり、典型的には、光散乱媒質のサンプルへの深達性を担保するために近赤外光を利用する。 Optical coherence tomography (OCT) is known as a typical example of scanning imaging using light. OCT is a technique capable of imaging a light scattering medium with a resolution of a micrometer level or less, and is applied to medical imaging, nondestructive inspection, and the like. OCT is a technique based on low coherence interferometry, typically utilizing near-infrared light to ensure the depth of light scattering media into a sample.

例えば眼科画像診断ではOCT装置の普及が進んでおり、2次元的なイメージングだけでなく、3次元的なイメージング・構造解析・機能解析なども実用化され、診断の強力なツールとして広く利用されるに至っている。また、眼科分野では、走査型レーザー検眼鏡(SLO)など、OCT以外の走査型イメージングも利用されている。なお、近赤外光以外の波長帯の光(電磁波)や超音波を利用した走査型イメージングも知られている。 For example, in ophthalmic diagnostic imaging, OCT devices are becoming more widespread, and not only two-dimensional imaging but also three-dimensional imaging, structural analysis, functional analysis, etc. are put into practical use and widely used as a powerful diagnostic tool. Has reached. Further, in the field of ophthalmology, scanning imaging other than OCT such as scanning laser ophthalmoscope (SLO) is also used. Scanning imaging using light (electromagnetic waves) in a wavelength band other than near-infrared light or ultrasonic waves is also known.

OCTやSLOで利用される走査モードには様々なものがあるが、モーションアーティファクト補正などを目的とした所謂「リサージュ(Lissajous)スキャン」が近年注目を集めている(例えば、特許文献1〜4、非特許文献1及び2を参照)。 There are various scanning modes used in OCT and SLO, but the so-called "Lissajous scan" for the purpose of correcting motion artifacts has been attracting attention in recent years (for example, Patent Documents 1 to 4). See Non-Patent Documents 1 and 2).

典型的なリサージュスキャンでは、或る程度の大きさを持つループ(サイクル)を描くように測定光を高速走査するため、1つのサイクルからのデータ取得時間の差を実質的に無視することができ、また、異なるサイクルの交差領域を参照してサイクル間の位置合わせを行えるため、サンプルの動きに起因するアーティファクトを補正することが可能である。このようなリサージュスキャンの特徴に着目し、眼科分野では眼球運動に起因するアーティファクトへの対処を図っている。 In a typical resage scan, the measurement light is scanned at high speed so as to draw a loop (cycle) having a certain size, so that the difference in data acquisition time from one cycle can be substantially ignored. Also, since the alignment between cycles can be performed by referring to the intersecting regions of different cycles, it is possible to correct the artifacts caused by the movement of the sample. Focusing on these characteristics of Lissajous scan, we are trying to deal with artifacts caused by eye movements in the field of ophthalmology.

非特許文献1に記載された技術においては、リサージュスキャンで収集されたデータを比較的大きな動きが介在しない複数のサブボリュームに分割し、各サブボリュームの正面プロジェクション画像(en face projection)を構築する。このような正面プロジェクション画像はストリップと呼ばれる。これらストリップの間のレジストレーションを行うことでモーションアーティファクトが補正された画像が得られる。 In the technique described in Non-Patent Document 1, the data collected by the resage scan is divided into a plurality of subvolumes in which relatively large movement does not intervene, and a front projection image (en face projection) of each subvolume is constructed. .. Such a front projection image is called a strip. By performing registration between these strips, an image with corrected motion artifacts can be obtained.

リサージュスキャンの特性として、2つのストリップは4箇所で重複する(交差する)。非特許文献1に記載された画像処理では、最大のストリップが初期基準ストリップとして採用され、初期基準ストリップに対して大きさ順にストリップが逐次にレジストレーションされ、合成される。レジストレーションでは、基準ストリップと他のストリップとの間の相対位置を求めるために相互相関関数が利用される。なお、ストリップは任意の形状を有するため、各ストリップを特定形状(例えば正方形状)の画像として扱うためのマスクを用いてストリップ間のオーバーラップ領域の相関演算が行われる(非特許文献1のAppendix Aを参照)。 A characteristic of Lissajous scans is that the two strips overlap (intersect) at four points. In the image processing described in Non-Patent Document 1, the largest strip is adopted as the initial reference strip, and the strips are sequentially registered and synthesized in order of size with respect to the initial reference strip. Registration uses a cross-correlation function to determine the relative position between the reference strip and the other strips. Since the strips have an arbitrary shape, the correlation calculation of the overlap region between the strips is performed using a mask for treating each strip as an image having a specific shape (for example, a square shape) (Appendix of Non-Patent Document 1). See A).

ここで、ストリップは所定階調の強度画像であり、マスクは二値データである。そのため、マスクの画素値の絶対値は常に小さい(0又は1)一方で、ストリップの画素値の絶対値は大きくなることがある。その影響により、ストリップとマスクとを用いた相関演算においてマスクの効果が無視され、正しい相関係数が得られない場合がある。特に、ストリップ間の相関係数を求めるために単精度浮動小数点型(フロート型)の演算が採用される場合、有効桁数の少なさに起因する丸め誤差の影響により、この問題が顕著に現れる。 Here, the strip is an intensity image of a predetermined gradation, and the mask is binary data. Therefore, the absolute value of the pixel value of the mask is always small (0 or 1), while the absolute value of the pixel value of the strip may be large. Due to this effect, the effect of the mask may be ignored in the correlation calculation using the strip and the mask, and the correct correlation coefficient may not be obtained. In particular, when a single-precision floating-point type (float type) operation is adopted to obtain the correlation coefficient between strips, this problem becomes prominent due to the influence of rounding error due to the small number of significant digits.

特開2016−17915号公報Japanese Unexamined Patent Publication No. 2016-17915 特開2018−68578号公報Japanese Unexamined Patent Publication No. 2018-68578 特開2018−140004号公報Japanese Unexamined Patent Publication No. 2018-140004 特開2018−140049号公報Japanese Unexamined Patent Publication No. 2018-140049

Yiwei Chen, Young-Joo Hong, Shuichi Makita, and Yoshiaki Yasuno, ”Three-dimensional eye motion correction by Lissajous scan optical coherence tomography”, Biomedical Optics EXPRESS, Vol. 8, No. 3, 1 Mar 2017, PP. 1783-1802Yiwei Chen, Young-Joo Hong, Shuichi Makita, and Yoshiaki Yasuno, "Three-dimensional eye motion correction by Lissajous scan optical coherence tomography", Biomedical Optics EXPRESS, Vol. 8, No. 3, 1 Mar 2017, PP. 1783- 1802 Yiwei Chen, Young-Joo Hong, Shuichi Makita, and Yoshiaki Yasuno, ”Eye-motion-corrected optical coherence tomography angiography using Lissajous scanning”, Biomedical Optics EXPRESS, Vol. 9, No. 3, 1 Mar 2018, PP. 1111-1129Yiwei Chen, Young-Joo Hong, Shuichi Makita, and Yoshiaki Yasuno, "Eye-motion-corrected optical coherence tomography angiography using Lissajous scanning", Biomedical Optics EXPRESS, Vol. 9, No. 3, 1 Mar 2018, PP. 1111- 1129

この発明の1つの目的は、マスクを用いた画像レジストレーションの正確性を向上させることにある。 One object of the present invention is to improve the accuracy of image registration using a mask.

幾つかの態様は、画像処理方法であって、サンプルの第1画像及び第2画像を準備し、マスク画像を準備し、前記第1画像の画素値の範囲と前記第2画像の画素値の範囲と前記マスク画像の画素値の範囲とを相対的に調整し、前記第1画像及び前記第2画像のそれぞれに前記マスク画像を合成して第1合成画像及び第2合成画像を生成し、前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求め、前記複数の相互相関関数に基づいて相関係数を算出し、前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行う。 Some aspects are image processing methods, in which the first and second images of the sample are prepared, the mask image is prepared, and the range of the pixel values of the first image and the pixel values of the second image are set. The range and the range of the pixel values of the mask image are relatively adjusted, and the mask image is combined with each of the first image and the second image to generate a first composite image and a second composite image. A plurality of intercorrelation functions are obtained based on the first composite image and the second composite image, a correlation coefficient is calculated based on the plurality of intercorrelation functions, and with the first image based on the correlation coefficient. Registration with the second image is performed.

幾つかの態様において、画像処理方法は、前記サンプルの画像の画素値の範囲と前記マスク画像の画素値の範囲との間の差を小さくする。 In some embodiments, the image processing method reduces the difference between the pixel value range of the sample image and the pixel value range of the mask image.

幾つかの態様において、画像処理方法は、前記サンプルの画像及び前記マスク画像の一方の画素値の範囲を他方の画素値の範囲に一致させる。 In some embodiments, the image processing method aligns one pixel value range of the sample image and the mask image with the other pixel value range.

幾つかの態様において、画像処理方法は、前記マスク画像の画素値の範囲に応じて前記サンプルの画像の画素値の範囲を正規化する。 In some embodiments, the image processing method normalizes the pixel value range of the sample image according to the pixel value range of the mask image.

幾つかの態様において、前記マスク画像の画素値の範囲は閉区間[0,1]に含まれ、画像処理方法は、前記サンプルの画像の各画素の値を、当該画像における最大画素値で除算する。 In some embodiments, the range of pixel values of the mask image is included in the closed interval [0,1], and the image processing method divides the value of each pixel of the sample image by the maximum pixel value of the image. To do.

幾つかの態様において、前記マスク画像の画素値の範囲は閉区間[0,1]に含まれ、画像処理方法は、前記サンプルの画像の各画素の値を、当該画像の画素値の範囲の最大値で除算する。 In some embodiments, the pixel value range of the mask image is included in the closed interval [0,1], and the image processing method sets the value of each pixel of the sample image to the pixel value range of the image. Divide by the maximum value.

幾つかの態様において、前記マスク画像は、画素値が0又は1の二値画像である。 In some embodiments, the mask image is a binary image with a pixel value of 0 or 1.

幾つかの態様において、前記マスク画像は、前記サンプルの画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像である。 In some embodiments, the mask image is a binary image in which the pixel values in the region corresponding to the domain of the sample image are 1 and the other pixel values are 0.

幾つかの態様において、前記マスク画像は、第1マスク画像と第2マスク画像とを含み、画像処理方法は、前記第1マスク画像を前記第1画像に合成して前記第1合成画像を生成し、前記第2マスク画像を前記第2画像に合成して前記第2合成画像を生成する。 In some embodiments, the mask image includes a first mask image and a second mask image, and the image processing method combines the first mask image with the first image to generate the first composite image. Then, the second mask image is combined with the second image to generate the second composite image.

幾つかの態様において、前記第1マスク画像及び前記第2マスク画像は、同じ寸法及び同じ形状を有する。 In some embodiments, the first mask image and the second mask image have the same dimensions and the same shape.

幾つかの態様において、前記第1マスク画像は、前記第1画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であり、前記第2マスク画像は、前記第2画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像である。 In some embodiments, the first mask image is a binary image in which the pixel values in the region corresponding to the domain of the first image are 1 and the values of the other pixels are 0. The second mask image is a binary image in which the value of the pixel in the region corresponding to the domain of the second image is 1, and the value of the other pixel is 0.

幾つかの態様において、前記第1画像及び前記第2画像のそれぞれは、一連のサイクルを含む2次元パターンに従う走査を前記サンプルに適用して収集されたデータに基づき構築される。 In some embodiments, each of the first image and the second image is constructed based on data collected by applying a scan according to a two-dimensional pattern involving a series of cycles to the sample.

幾つかの態様において、前記第1画像及び前記第2画像のそれぞれは、リサージュ関数に基づき予め設定された走査プロトコルに基づく2次元パターンに従う走査を前記サンプルに適用して収集されたデータに基づき構築される。 In some embodiments, each of the first image and the second image is constructed based on data collected by applying a scan according to a two-dimensional pattern based on a preset scanning protocol based on a resage function to the sample. Will be done.

幾つかの態様は、走査型イメージング方法であって、一連のサイクルを含む2次元パターンに従う光走査をサンプルに適用してデータを収集し、前記データに基づいて第1画像及び第2画像を構築し、前記第1画像の画素値の範囲と前記第2画像の画素値の範囲とマスク画像の画素値の範囲とを相対的に調整し、前記第1画像及び前記第2画像のそれぞれに前記マスク画像を合成して第1合成画像及び第2合成画像を生成し、前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求め、前記複数の相互相関関数に基づいて相関係数を算出し、前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行い、前記レジストレーションの結果に基づいて前記第1画像と前記第2画像とのマージ画像を構築する。 In some embodiments, a scanning imaging method applies optical scanning according to a two-dimensional pattern involving a series of cycles to a sample to collect data and constructs first and second images based on the data. Then, the range of the pixel value of the first image, the range of the pixel value of the second image, and the range of the pixel value of the mask image are relatively adjusted, and the first image and the second image are each described. The mask images are combined to generate a first composite image and a second composite image, a plurality of intercorrelation functions are obtained based on the first composite image and the second composite image, and based on the plurality of intercorrelation functions. The correlation coefficient is calculated, the first image and the second image are registered based on the correlation coefficient, and the first image and the second image are merged based on the result of the registration. Build an image.

幾つかの態様において、走査型イメージング方法は、前記データに基づいて第3画像を構築し、前記第3画像の画素値の範囲と前記マージ画像の画素値の範囲とマスク画像の画素値の範囲とを相対的に調整し、前記第3画像及び前記マージ画像のそれぞれに当該マスク画像を合成して第3合成画像及び第4合成画像を生成し、前記第3合成画像及び前記第4合成画像に基づいて複数の相互相関関数を求め、当該複数の相互相関関数に基づいて相関係数を算出し、当該相関係数に基づいて前記第3画像と前記第4画像とのレジストレーションを行い、前記レジストレーションの結果に基づいて前記第3画像と前記マージ画像とをマージする。 In some embodiments, the scanning imaging method constructs a third image based on the data, the range of the pixel values of the third image, the range of the pixel values of the merged image, and the range of the pixel values of the mask image. And are relatively adjusted, and the mask image is combined with each of the third image and the merged image to generate a third composite image and a fourth composite image, and the third composite image and the fourth composite image are generated. A plurality of mutual correlation functions are obtained based on the above, a correlation coefficient is calculated based on the plurality of mutual correlation functions, and registration between the third image and the fourth image is performed based on the correlation coefficient. The third image and the merged image are merged based on the result of the registration.

幾つかの態様において、前記一連のサイクルのうちの任意の2つのサイクルは、少なくとも1点で互いに交差し、走査型イメージング方法は、前記一連のサイクルのうちの第1サイクル群に従う光走査で収集された第1データに基づいて前記第1画像を構築し、前記一連のサイクルのうち前記第1サイクル群と異なる第2サイクル群に従う光走査で収集された第2データに基づいて前記第2画像を構築する。 In some embodiments, any two cycles of the series of cycles intersect each other at at least one point and the scanning imaging method is collected by optical scanning according to the first cycle group of the series of cycles. The first image is constructed based on the first data obtained, and the second image is based on the second data collected by optical scanning according to a second cycle group different from the first cycle group in the series of cycles. To build.

幾つかの態様において、走査型イメージング方法は、リサージュ関数に基づき予め設定された走査プロトコルに基づいて前記2次元パターンに従う光走査を行う。 In some embodiments, the scanning imaging method performs optical scanning according to the two-dimensional pattern based on a preset scanning protocol based on a resage function.

幾つかの態様は、画像処理装置であって、サンプルの第1画像及び第2画像を記憶する記憶部と、前記第1画像に応じた第1マスク画像と前記第2画像に応じた第2マスク画像とを生成するマスク画像生成部と、前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲に基づいて前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲を調整する範囲調整部と、前記第1画像に前記第1マスク画像を合成して第1合成画像を生成し、且つ、前記第2画像に前記第2マスク画像を合成して第2合成画像を生成する合成画像生成部と、前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求める第1算出部と、前記複数の相互相関関数に基づいて相関係数を算出する第2算出部と、前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行うレジストレーション部とを含む。 In some aspects, the image processing apparatus is an image processing apparatus, in which a storage unit for storing the first image and the second image of the sample, a first mask image corresponding to the first image, and a second image corresponding to the second image. A mask image generation unit that generates a mask image, a range of pixel values of the first image, and a range of pixel values of the first image and the second image based on the range of pixel values of the first mask image and the range of pixel values of the second mask image. A range adjusting unit that adjusts the range of the pixel value of the above, the first mask image is combined with the first image to generate a first composite image, and the second mask image is combined with the second image. Based on the composite image generation unit that generates the second composite image, the first calculation unit that obtains a plurality of intercorrelation functions based on the first composite image and the second composite image, and the plurality of intercorrelation functions. It includes a second calculation unit that calculates the correlation coefficient, and a registration unit that performs registration between the first image and the second image based on the correlation coefficient.

幾つかの態様において、画像処理装置は、一連のサイクルを含む2次元パターンに従う光走査によりサンプルから収集されたデータを受け付けるデータ受付部と、前記データに基づいて前記第1画像及び前記第2画像を構築する画像構築部とを更に含む。 In some embodiments, the image processing apparatus comprises a data receiving unit that receives data collected from a sample by optical scanning according to a two-dimensional pattern including a series of cycles, and the first image and the second image based on the data. Further includes an image construction unit for constructing.

幾つかの態様は、サンプルの第1画像及び第2画像を記憶する記憶部と、プロセッサとを含む画像処理装置を制御する方法であって、前記プロセッサを、前記第1画像に応じた第1マスク画像と前記第2画像に応じた第2マスク画像とを生成し、前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲に基づいて前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲を調整し、前記第1画像に前記第1マスク画像を合成して第1合成画像を生成し、且つ、前記第2画像に前記第2マスク画像を合成して第2合成画像を生成し、前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求め、前記複数の相互相関関数に基づいて相関係数を算出し、及び、前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行うように制御する。 In some embodiments, a method of controlling an image processing apparatus including a storage unit for storing a first image and a second image of a sample and a processor, wherein the processor is subjected to a first image according to the first image. A mask image and a second mask image corresponding to the second image are generated, and the pixel value of the first image is based on the range of the pixel values of the first mask image and the range of the pixel values of the second mask image. And the range of pixel values of the second image are adjusted, the first mask image is combined with the first image to generate a first composite image, and the second mask image is combined with the second image. To generate a second composite image, obtain a plurality of intercorrelation functions based on the first composite image and the second composite image, and calculate the correlation coefficient based on the plurality of mutual correlation functions. Then, the registration between the first image and the second image is controlled based on the correlation coefficient.

幾つかの態様は、走査型イメージング装置であって、一連のサイクルを含む2次元パターンに従う光走査をサンプルに適用してデータを収集する走査部と、前記データに基づいて第1画像及び第2画像を構築する画像構築部と、前記第1画像に応じた第1マスク画像と前記第2画像に応じた第2マスク画像とを生成するマスク画像生成部と、前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲に基づいて前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲を調整する範囲調整部と、前記第1画像に前記第1マスク画像を合成して第1合成画像を生成し、且つ、前記第2画像に前記第2マスク画像を合成して第2合成画像を生成する合成画像生成部と、前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求める第1算出部と、前記複数の相互相関関数に基づいて相関係数を算出する第2算出部と、前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行うレジストレーション部と、前記レジストレーションの結果に基づいて前記第1画像と前記第2画像とのマージ画像を構築するマージ処理部とを含む。 In some embodiments, a scanning imaging apparatus is a scanning unit that collects data by applying optical scanning according to a two-dimensional pattern including a series of cycles to a sample, and a first image and a second image based on the data. An image construction unit that constructs an image, a mask image generation unit that generates a first mask image corresponding to the first image and a second mask image corresponding to the second image, and a pixel value of the first mask image. A range adjusting unit that adjusts the range of the pixel value of the first image and the range of the pixel value of the second image based on the range of the second mask image and the range of the pixel value of the second image, and the first image. A composite image generation unit that synthesizes one mask image to generate a first composite image, and synthesizes the second mask image with the second image to generate a second composite image, and the first composite image and A first calculation unit that obtains a plurality of intercorrelation functions based on the second composite image, a second calculation unit that calculates a correlation coefficient based on the plurality of intercorrelation functions, and the above-mentioned based on the correlation coefficient. It includes a registration unit that performs registration between the first image and the second image, and a merge processing unit that constructs a merged image of the first image and the second image based on the registration result.

幾つかの態様において、前記走査部は、互いに異なる第1方向及び第2方向に光を偏向可能な偏向器を含み、前記第1方向に沿った偏向方向の変化を第1周期で繰り返しつつ前記第2方向に沿った偏向方向の変化を前記第1周期と異なる第2周期で繰り返すことにより前記2次元パターンに従う光走査を前記サンプルに適用する。 In some embodiments, the scanning section comprises deflectors capable of deflecting light in different first and second directions, and the changes in the deflection direction along the first direction are repeated in a first cycle. Optical scanning according to the two-dimensional pattern is applied to the sample by repeating the change in the deflection direction along the second direction in a second cycle different from the first cycle.

幾つかの態様は、サンプルに光走査を適用してデータを収集する走査部と、プロセッサとを含む走査型イメージング装置を制御する方法であって、前記走査部を、一連のサイクルを含む2次元パターンに従う光走査をサンプルに適用してデータを収集するように制御し、前記プロセッサを、前記データに基づいて第1画像及び第2画像を構築し、前記第1画像に応じた第1マスク画像と前記第2画像に応じた第2マスク画像とを生成し、前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲に基づいて前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲を調整し、前記第1画像に前記第1マスク画像を合成して第1合成画像を生成し、且つ、前記第2画像に前記第2マスク画像を合成して第2合成画像を生成し、前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求め、前記複数の相互相関関数に基づいて相関係数を算出し、前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行い、及び、前記レジストレーションの結果に基づいて前記第1画像と前記第2画像とのマージ画像を構築するように制御する。 In some embodiments, a method of controlling a scanning imaging apparatus including a scanning unit that applies optical scanning to a sample to collect data and a processor, wherein the scanning unit is two-dimensional including a series of cycles. Light scanning according to the pattern is applied to the sample to control the collection of data, and the processor constructs a first image and a second image based on the data, and a first mask image corresponding to the first image. And the second mask image corresponding to the second image are generated, and the range of the pixel values of the first image is based on the range of the pixel values of the first mask image and the range of the pixel values of the second mask image. And the range of pixel values of the second image is adjusted, the first mask image is combined with the first image to generate a first composite image, and the second mask image is combined with the second image. A second composite image is generated, a plurality of mutual correlation functions are obtained based on the first composite image and the second composite image, a correlation coefficient is calculated based on the plurality of mutual correlation functions, and the phase is described. Control to perform registration between the first image and the second image based on the number of relationships, and to construct a merged image of the first image and the second image based on the result of the registration. To do.

幾つかの態様は、上記のいずれかの方法をコンピュータに実行させるプログラムである。 Some embodiments are programs that cause a computer to perform any of the above methods.

幾つかの態様は、上記のいずれかの方法をコンピュータに実行させるプログラムが記録された、コンピュータ可読な非一時的記録媒体である。 Some embodiments are computer-readable non-temporary recording media on which a program that causes a computer to perform any of the above methods is recorded.

いずれか2以上の態様を少なくとも部分的に組み合わせることが可能である。また、いずれかの態様に対し、本開示に係る任意の事項を少なくとも部分的に組み合わせることが可能である。また、いずれか2以上の態様の少なくとも部分的な組み合わせに対し、本開示に係る任意の事項を少なくとも部分的に組み合わせることが可能である。 It is possible to combine any two or more aspects at least in part. In addition, any matter according to the present disclosure can be combined at least partially with respect to any aspect. In addition, any matter according to the present disclosure can be combined at least partially with respect to at least a partial combination of any two or more aspects.

例示的な態様によれば、マスクを用いた画像レジストレーションの正確性を向上させることが可能である。 According to an exemplary embodiment, it is possible to improve the accuracy of image registration with a mask.

例示的な実施形態に係る走査型イメージング装置(眼科装置)の構成の一例を表す概略図である。It is the schematic which shows an example of the structure of the scanning type imaging apparatus (ophthalmic apparatus) which concerns on an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)の構成の一例を表す概略図である。It is the schematic which shows an example of the structure of the scanning type imaging apparatus (ophthalmic apparatus) which concerns on an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)の構成の一例を表す概略図である。It is the schematic which shows an example of the structure of the scanning type imaging apparatus (ophthalmic apparatus) which concerns on an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)の構成の一例を表す概略図である。It is the schematic which shows an example of the structure of the scanning type imaging apparatus (ophthalmic apparatus) which concerns on an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)の構成の一例を表す概略図である。It is the schematic which shows an example of the structure of the scanning type imaging apparatus (ophthalmic apparatus) which concerns on an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)が実行するリサージュスキャンのパターンの例を示す概略図である。It is the schematic which shows the example of the pattern of the resage scan performed by the scanning type imaging apparatus (ophthalmic apparatus) which concerns on an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)の動作の一例を表すフローチャートである。It is a flowchart which shows an example of the operation of the scanning type imaging apparatus (ophthalmic apparatus) which concerns on an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)の動作の一例を説明するための図である。It is a figure for demonstrating an example of the operation of the scanning type imaging apparatus (ophthalmic apparatus) which concerns on an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)の動作の一例を説明するための図である。It is a figure for demonstrating an example of the operation of the scanning type imaging apparatus (ophthalmic apparatus) which concerns on an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)の動作の一例を説明するための図である。It is a figure for demonstrating an example of the operation of the scanning type imaging apparatus (ophthalmic apparatus) which concerns on an exemplary embodiment.

幾つかの例示的な実施形態に係る画像処理方法、走査型イメージング方法、画像処理装置、その制御方法、走査型イメージング装置、その制御方法、プログラム、及び記録媒体について、図面を参照しながら説明する。 An image processing method, a scanning imaging method, an image processing apparatus, a control method thereof, a scanning imaging apparatus, a control method thereof, a program, and a recording medium according to some exemplary embodiments will be described with reference to the drawings. ..

本明細書にて引用された文献に開示された技術や、それ以外の任意の公知技術を、例示的な実施形態に援用することが可能である。また、特に言及しない限り、「画像データ」とそれに基づく「画像」とを区別せず、被検眼の「部位」とその「画像」とを区別しないものとする。 The techniques disclosed in the literature cited herein and any other known techniques can be incorporated into exemplary embodiments. Further, unless otherwise specified, the "image data" and the "image" based on the "image data" are not distinguished, and the "site" of the eye to be inspected and the "image" thereof are not distinguished.

以下に説明する例示的な実施形態に係る走査型イメージング装置は、フーリエドメインOCT(例えば、スウェプトソースOCT)を利用して生体眼の眼底を計測することが可能な眼科装置である。実施形態に採用可能なOCTのタイプは、スウェプトソースOCTに限定されず、例えばスペクトラルドメインOCT又はタイムドメインOCTであってもよい。 The scanning imaging apparatus according to the exemplary embodiment described below is an ophthalmologic apparatus capable of measuring the fundus of a living eye using a Fourier domain OCT (eg, swept source OCT). The type of OCT that can be adopted in the embodiment is not limited to the swept source OCT, and may be, for example, a spectral domain OCT or a time domain OCT.

幾つかの例示的な実施形態に係る走査型イメージング装置は、OCT以外の走査型モダリティを利用可能であってよい。例えば、幾つかの例示的な実施形態は、SLO等の任意の光走査型モダリティを採用することができる。 The scanning imaging apparatus according to some exemplary embodiments may utilize scanning modality other than OCT. For example, some exemplary embodiments can employ any optical scanning modality such as SLO.

また、幾つかの例示的な実施形態に係る走査型イメージング装置に適用可能な走査型モダリティは、光走査型モダリティには限定されない。例えば、幾つかの例示的な実施形態は、光以外の電磁波を利用した走査型モダリティや、超音波を利用した走査型モダリティなどを採用することができる。 Further, the scanning modality applicable to the scanning imaging apparatus according to some exemplary embodiments is not limited to the optical scanning modality. For example, some exemplary embodiments can employ scanning modality using electromagnetic waves other than light, scanning modality using ultrasonic waves, and the like.

幾つかの例示的な実施形態に係る眼科装置は、OCTスキャンで収集されたデータの処理及び/又はSLOで収集されたデータの処理に加え、他のモダリティで取得されたデータを処理可能であってよい。他のモダリティは、例えば、眼底カメラ、スリットランプ顕微鏡、及び眼科手術用顕微鏡のいずれかであってよい。幾つかの例示的な実施形態に係る眼科装置は、このようなモダリティの機能を有していてよい。 The ophthalmic apparatus according to some exemplary embodiments can process data acquired by OCT scans and / or data collected by SLOs, as well as data acquired by other modality. You can. Other modality may be, for example, a fundus camera, a slit lamp microscope, and an ophthalmologic surgical microscope. Ophthalmic devices according to some exemplary embodiments may have such modality functionality.

OCTが適用される対象(サンプル)は眼底に限定されず、前眼部や硝子体など眼の任意の部位であってもよいし、眼以外の生体の部位や組織であってもよいし、生体以外の物体であってもよい。 The target (sample) to which OCT is applied is not limited to the fundus of the eye, and may be any part of the eye such as the anterior segment of the eye or the vitreous body, or a part or tissue of a living body other than the eye. It may be an object other than a living body.

以下に説明する例示的な実施形態に係る眼科装置は、走査型イメージング装置の幾つかの態様、走査型イメージング装置を制御する方法の幾つかの態様、画像処理装置の幾つかの態様、画像処理装置を制御する方法の幾つかの態様、画像処理方法の幾つかの態様、及び、走査型イメージング方法の幾つかの態様を提供する。 The ophthalmic apparatus according to an exemplary embodiment described below includes some embodiments of a scanning imaging apparatus, some aspects of a method of controlling the scanning imaging apparatus, some aspects of an image processing apparatus, and image processing. Provided are some aspects of a method of controlling an apparatus, some aspects of an image processing method, and some aspects of a scanning imaging method.

〈走査型イメージング装置の構成〉
図1に示す眼科装置1は、眼底カメラユニット2、OCTユニット100、及び演算制御ユニット200を含む。眼底カメラユニット2には、被検眼Eを正面から撮影するための要素群(光学要素、機構など)が設けられている。OCTユニット100には、被検眼EにOCTスキャンを適用するための要素群(光学要素、機構など)の一部が設けられている。OCTスキャンのための要素群の他の一部は、眼底カメラユニット2に設けられている。演算制御ユニット200は、各種の演算や制御を実行する1以上のプロセッサを含む。これらに加え、眼科装置1は、被検者の顔を支持するための要素や、OCTスキャンが適用される部位を切り替えるための要素を備えていてもよい。前者の要素の例として、顎受けや額当てがある。後者の要素の例として、OCTスキャン適用部位を眼底から前眼部に切り替えるために使用されるレンズユニットがある。
<Configuration of scanning imaging device>
The ophthalmic apparatus 1 shown in FIG. 1 includes a fundus camera unit 2, an OCT unit 100, and an arithmetic control unit 200. The fundus camera unit 2 is provided with an element group (optical element, mechanism, etc.) for photographing the eye E to be inspected from the front. The OCT unit 100 is provided with a part of an element group (optical element, mechanism, etc.) for applying an OCT scan to the eye E to be inspected. The other part of the element group for the OCT scan is provided in the fundus camera unit 2. The arithmetic control unit 200 includes one or more processors that execute various arithmetic operations and controls. In addition to these, the ophthalmic apparatus 1 may include an element for supporting the face of the subject and an element for switching the site to which the OCT scan is applied. Examples of the former element are chin rests and forehead pads. An example of the latter element is a lens unit used to switch the OCT scan application site from the fundus to the anterior segment of the eye.

本明細書に開示された要素の機能は、回路構成(circuitry)又は処理回路構成(processing circuitry)を用いて実装される。回路構成又は処理回路構成は、開示された機能を実行するように構成及び/又はプログラムされた、汎用プロセッサ、専用プロセッサ、集積回路、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array)、従来の回路構成、及びそれらの任意の組み合わせのいずれかを含む。プロセッサは、トランジスタ及び/又は他の回路構成を含む、処理回路構成又は回路構成とみなされる。本開示において、回路構成、ユニット、手段、又はこれらに類する用語は、開示された機能を実行するハードウェア、又は、開示された機能を実行するようにプログラムされたハードウェアである。ハードウェアは、本明細書に開示されたハードウェアであってよく、或いは、記載された機能を実行するようにプログラム及び/又は構成された既知のハードウェアであってもよい。ハードウェアが或るタイプの回路構成とみなされ得るプロセッサである場合、回路構成、ユニット、手段、又はこれらに類する用語は、ハードウェアとソフトウェアとの組み合わせであり、このソフトウェアはハードウェア及び/又はプロセッサを構成するために使用される。 The functions of the elements disclosed herein are implemented using circuitry or processing circuits. Circuit configurations or processing circuit configurations are general purpose processors, dedicated processors, integrated circuits, CPUs (Central Processing Units), GPUs (Graphics Processing Units), ASICs, configured and / or programmed to perform the disclosed functions. Any of Application Specific Integrated Circuits), programmable logic devices (eg SPLDs (Simple Programmable Logic Devices), CPLDs (Complex Programmable Logic Devices), FPGAs (Field Programmable Gate Arrays), conventional circuit configurations, and any combination thereof. A processor is considered to be a processing circuit configuration or circuit configuration, including transistors and / or other circuit configurations. In the present disclosure, circuit configurations, units, means, or similar terms refer to the disclosed functions. The hardware to perform, or the hardware programmed to perform the disclosed functions. The hardware may be the hardware disclosed herein or perform the functions described. It may be known hardware programmed and / or configured to do so. If the hardware is a processor that can be considered as a type of circuit configuration, a circuit configuration, unit, means, or similar terminology. Is a combination of hardware and software, which software is used to configure the hardware and / or processor.

〈眼底カメラユニット2〉
眼底カメラユニット2には、被検眼Eの眼底Efを撮影するための光学系が設けられている。取得される眼底Efの画像(眼底像、眼底写真等と呼ばれる)は、観察画像、撮影画像等の正面画像である。観察画像は、例えば近赤外光を用いた動画撮影により得られ、アライメント、フォーカシング、トラッキングなどに利用される。撮影画像は、例えば可視領域又は赤外領域のフラッシュ光を用いた静止画像である。
<Fundus camera unit 2>
The fundus camera unit 2 is provided with an optical system for photographing the fundus Ef of the eye to be inspected E. The acquired image of the fundus Ef (called a fundus image, a fundus photograph, etc.) is a front image such as an observation image, a photographed image, or the like. The observed image is obtained, for example, by photographing a moving image using near infrared light, and is used for alignment, focusing, tracking, and the like. The captured image is, for example, a still image using flash light in the visible region or the infrared region.

眼底カメラユニット2は、照明光学系10と撮影光学系30とを含む。照明光学系10は被検眼Eに照明光を照射する。撮影光学系30は、被検眼Eからの照明光の戻り光を検出する。OCTユニット100からの測定光は、眼底カメラユニット2内の光路を通じて被検眼Eに導かれ、その戻り光は、同じ光路を通じてOCTユニット100に導かれる。 The fundus camera unit 2 includes an illumination optical system 10 and a photographing optical system 30. The illumination optical system 10 irradiates the eye E to be inspected with illumination light. The photographing optical system 30 detects the return light of the illumination light from the eye E to be inspected. The measurement light from the OCT unit 100 is guided to the eye E to be inspected through the optical path in the fundus camera unit 2, and the return light is guided to the OCT unit 100 through the same optical path.

照明光学系10の観察光源11から出力された光(観察照明光)は、凹面鏡12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ系17、リレーレンズ18、絞り19、及びリレーレンズ系20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて被検眼E(眼底Ef)を照明する。観察照明光の被検眼Eからの戻り光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、撮影合焦レンズ31を経由し、ミラー32により反射される。更に、この戻り光は、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、結像レンズ34によりイメージセンサ35の受光面に結像される。イメージセンサ35は、所定のフレームレートで戻り光を検出する。なお、撮影光学系30のフォーカス(焦点位置)は、眼底Ef又は前眼部に合致するように調整される。 The light (observation illumination light) output from the observation light source 11 of the illumination optical system 10 is reflected by the concave mirror 12, passes through the condenser lens 13, passes through the visible cut filter 14, and becomes near-infrared light. Further, the observation illumination light is once focused in the vicinity of the photographing light source 15, reflected by the mirror 16, and passes through the relay lens system 17, the relay lens 18, the diaphragm 19, and the relay lens system 20. Then, the observation illumination light is reflected at the peripheral portion of the perforated mirror 21 (the region around the perforated portion), passes through the dichroic mirror 46, is refracted by the objective lens 22, and illuminates the eye E (fundus Ef) to be inspected. To do. The return light of the observation illumination light from the eye E to be inspected is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the central region of the perforated mirror 21, and passes through the dichroic mirror 55. , It is reflected by the mirror 32 via the photographing focusing lens 31. Further, this return light passes through the half mirror 33A, is reflected by the dichroic mirror 33, and is imaged on the light receiving surface of the image sensor 35 by the imaging lens 34. The image sensor 35 detects the return light at a predetermined frame rate. The focus (focus position) of the photographing optical system 30 is adjusted so as to match the fundus Ef or the anterior segment of the eye.

撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。被検眼Eからの撮影照明光の戻り光は、観察照明光の戻り光と同じ経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、結像レンズ37によりイメージセンサ38の受光面に結像される。 The light output from the photographing light source 15 (photographing illumination light) is applied to the fundus Ef through the same path as the observation illumination light. The return light of the photographing illumination light from the eye E to be examined is guided to the dichroic mirror 33 through the same path as the return light of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is reflected by the imaging lens 37. An image is formed on the light receiving surface of the image sensor 38.

液晶ディスプレイ(LCD)39は固視標(固視標画像)を表示する。LCD39から出力された光束は、その一部がハーフミラー33Aに反射され、ミラー32に反射され、撮影合焦レンズ31及びダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光束は、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。LCD39における固視標画像の表示位置を変更することで、被検眼Eの視線を誘導する方向(固視方向、固視位置)が変更される。 The liquid crystal display (LCD) 39 displays a fixation target (fixation target image). A part of the light flux output from the LCD 39 is reflected by the half mirror 33A, reflected by the mirror 32, passes through the photographing focusing lens 31 and the dichroic mirror 55, and passes through the hole portion of the perforated mirror 21. The luminous flux that has passed through the hole of the perforated mirror 21 passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus Ef. By changing the display position of the fixation target image on the LCD 39, the direction (fixation direction, fixation position) for guiding the line of sight of the eye E to be inspected is changed.

LCD等の表示デバイスの代わりに、例えば、発光素子アレイ、又は、発光素子とこれを移動する機構との組み合わせを用いてもよい。 Instead of a display device such as an LCD, for example, a light emitting element array or a combination of a light emitting element and a mechanism for moving the light emitting element may be used.

アライメント光学系50は、被検眼Eに対する光学系の位置合わせ(アライメント)に用いられるアライメント指標を生成する。発光ダイオード(LED)51から出力されたアライメント光は、絞り52、絞り53、及びリレーレンズ54を経由し、ダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22を介して被検眼Eに投射される。アライメント光の被検眼Eからの戻り光(角膜反射光等)は、観察照明光の戻り光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(アライメント指標像)に基づいてマニュアルアライメントやオートアライメントを実行できる。 The alignment optical system 50 generates an alignment index used for alignment of the optical system with respect to the eye E to be inspected. The alignment light output from the light emitting diode (LED) 51 passes through the diaphragm 52, the diaphragm 53, and the relay lens 54, is reflected by the dichroic mirror 55, passes through the hole portion of the perforated mirror 21, and passes through the dichroic mirror 46. It is transmitted and projected onto the eye E to be inspected through the objective lens 22. The return light (corneal reflex light, etc.) from the eye E to be inspected for the alignment light is guided to the image sensor 35 through the same path as the return light of the observation illumination light. Manual alignment and auto alignment can be executed based on the received light image (alignment index image).

従来と同様に、本例のアライメント指標像は、アライメント状態により位置が変化する2つの輝点像からなる。被検眼Eと光学系との相対位置がxy方向に変化すると、2つの輝点像が一体的にxy方向に変位する。被検眼Eと光学系との相対位置がz方向に変化すると、2つの輝点像の間の相対位置(距離)が変化する。z方向における被検眼Eと光学系との間の距離が既定のワーキングディスタンスに一致すると、2つの輝点像が重なり合う。xy方向において被検眼Eの位置と光学系の位置とが一致すると、所定のアライメントターゲット内又はその近傍に2つの輝点像が提示される。z方向における被検眼Eと光学系との間の距離がワーキングディスタンスに一致し、且つ、xy方向において被検眼Eの位置と光学系の位置とが一致すると、2つの輝点像が重なり合ってアライメントターゲット内に提示される。 As in the conventional case, the alignment index image of this example consists of two bright spot images whose positions change depending on the alignment state. When the relative position of the eye E to be inspected and the optical system changes in the xy direction, the two bright spot images are integrally displaced in the xy direction. When the relative position of the eye E to be inspected and the optical system changes in the z direction, the relative position (distance) between the two bright spot images changes. When the distance between the eye E to be inspected and the optical system in the z direction matches the predetermined working distance, the two bright spot images overlap. When the position of the eye E to be inspected and the position of the optical system match in the xy direction, two bright spot images are presented in or near a predetermined alignment target. When the distance between the eye to be inspected E and the optical system in the z direction matches the working distance, and the position of the eye to be inspected E and the position of the optical system in the xy direction match, the two bright spot images overlap and align. Presented within the target.

オートアライメントでは、データ処理部230が、2つの輝点像の位置を検出し、主制御部211が、2つの輝点像とアライメントターゲットとの位置関係に基づいて後述の移動機構150を制御する。マニュアルアライメントでは、主制御部211が、被検眼Eの観察画像とともに2つの輝点像を表示部241に表示させ、ユーザーが、表示された2つの輝点像を参照しながら操作部242を用いて移動機構150を動作させる。 In the auto alignment, the data processing unit 230 detects the positions of the two bright spot images, and the main control unit 211 controls the movement mechanism 150 described later based on the positional relationship between the two bright spot images and the alignment target. .. In the manual alignment, the main control unit 211 displays two bright spot images on the display unit 241 together with the observation image of the eye E to be inspected, and the user uses the operation unit 242 while referring to the two displayed bright spot images. To operate the moving mechanism 150.

フォーカス光学系60は、被検眼Eに対するフォーカス調整に用いられるスプリット指標を生成する。撮影光学系30の光路(撮影光路)に沿った撮影合焦レンズ31の移動に連動して、フォーカス光学系60は照明光学系10の光路(照明光路)に沿って移動される。反射棒67は、照明光路に対して挿脱される。フォーカス調整を行う際には、反射棒67の反射面が照明光路に傾斜配置される。LED61から出力されたフォーカス光は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65により反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22を介して被検眼Eに投射される。フォーカス光の被検眼Eからの戻り光(眼底反射光等)は、アライメント光の戻り光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(スプリット指標像)に基づいてマニュアルフォーカシングやオートフォーカシングを実行できる。 The focus optical system 60 generates a split index used for focus adjustment with respect to the eye E to be inspected. The focus optical system 60 is moved along the optical path (illumination optical path) of the illumination optical system 10 in conjunction with the movement of the imaging focusing lens 31 along the optical path (optical path) of the imaging optical system 30. The reflection rod 67 is inserted and removed from the illumination optical path. When adjusting the focus, the reflecting surface of the reflecting rod 67 is inclined and arranged in the illumination optical path. The focus light output from the LED 61 passes through the relay lens 62, is separated into two light beams by the split index plate 63, passes through the two-hole diaphragm 64, is reflected by the mirror 65, and is reflected by the condensing lens 66. Once imaged on the reflecting surface of, it is reflected. Further, the focus light is reflected by the perforated mirror 21 via the relay lens 20, passes through the dichroic mirror 46, and is projected onto the eye E to be inspected via the objective lens 22. The return light (reflected light from the fundus, etc.) of the focus light from the eye E to be inspected is guided to the image sensor 35 through the same path as the return light of the alignment light. Manual focusing or auto focusing can be executed based on the received light image (split index image).

孔開きミラー21とダイクロイックミラー55との間の撮影光路に、視度補正レンズ70及び71を選択的に挿入することができる。視度補正レンズ70は、強度遠視を補正するためのプラスレンズ(凸レンズ)である。視度補正レンズ71は、強度近視を補正するためのマイナスレンズ(凹レンズ)である。 The diopter correction lenses 70 and 71 can be selectively inserted into the photographing optical path between the perforated mirror 21 and the dichroic mirror 55. The diopter correction lens 70 is a plus lens (convex lens) for correcting high-intensity hyperopia. The diopter correction lens 71 is a minus lens (concave lens) for correcting intense myopia.

ダイクロイックミラー46は、眼底撮影用光路とOCT用光路(測定アーム)とを合成する。ダイクロイックミラー46は、OCTに用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。測定アームには、OCTユニット100側から順に、コリメータレンズユニット40、リトロリフレクタ41、分散補償部材42、OCT合焦レンズ43、光スキャナ44、及びリレーレンズ45が設けられている。 The dichroic mirror 46 synthesizes a fundus photography optical path and an OCT optical path (measurement arm). The dichroic mirror 46 reflects light in the wavelength band used for OCT and transmits light for fundus photography. The measuring arm is provided with a collimator lens unit 40, a retroreflector 41, a dispersion compensation member 42, an OCT focusing lens 43, an optical scanner 44, and a relay lens 45 in this order from the OCT unit 100 side.

リトロリフレクタ41は、図1に示す矢印の方向に移動可能とされ、それにより測定アームの長さが変更される。測定アーム長の変更は、例えば、眼軸長に応じた光路長補正や、干渉状態の調整などに利用される。 The retroreflector 41 is movable in the direction of the arrow shown in FIG. 1, thereby changing the length of the measuring arm. The change in the measurement arm length is used, for example, for correcting the optical path length according to the axial length and adjusting the interference state.

分散補償部材42は、参照アームに配置された分散補償部材113(後述)とともに、測定光LSの分散特性と参照光LRの分散特性とを合わせるよう作用する。 The dispersion compensating member 42, together with the dispersion compensating member 113 (described later) arranged on the reference arm, acts to match the dispersion characteristics of the measurement light LS and the dispersion characteristics of the reference light LR.

OCT合焦レンズ43は、測定アームのフォーカス調整を行うために測定アームに沿って移動される。撮影合焦レンズ31の移動、フォーカス光学系60の移動、及びOCT合焦レンズ43の移動を連係的に制御することができる。 The OCT focusing lens 43 is moved along the measuring arm to adjust the focus of the measuring arm. The movement of the photographing focusing lens 31, the movement of the focus optical system 60, and the movement of the OCT focusing lens 43 can be controlled in a coordinated manner.

光スキャナ44は、実質的に、被検眼Eの瞳孔と光学的に共役な位置に配置される。光スキャナ44は、測定アームにより導かれる測定光LSを偏向する。光スキャナ44は、例えば、x方向のスキャンを行うためのガルバノミラーと、y方向のスキャンを行うためのガルバノミラーとを含む、2次元スキャンが可能なガルバノスキャナである。 The optical scanner 44 is substantially located at a position optically conjugate with the pupil of the eye E to be inspected. The optical scanner 44 deflects the measurement light LS guided by the measurement arm. The optical scanner 44 is a galvano scanner capable of two-dimensional scanning, including, for example, a galvano mirror for scanning in the x direction and a galvano mirror for scanning in the y direction.

〈OCTユニット100〉
図2に例示するように、OCTユニット100には、スウェプトソースOCTを適用するための光学系が設けられている。この光学系は干渉光学系を含む。この干渉光学系は、波長可変光源(波長掃引型光源)からの光を測定光と参照光とに分割し、被検眼Eからの測定光の戻り光と参照光路を経由した参照光とを重ね合わせて干渉光を生成し、この干渉光を検出する。干渉光学系により得られたデータ(検出信号)は、干渉光のスペクトルを表す信号であり、演算制御ユニット200に送られる。
<OCT unit 100>
As illustrated in FIG. 2, the OCT unit 100 is provided with an optical system for applying the swept source OCT. This optical system includes an interference optical system. This interference optical system divides the light from the variable wavelength light source (wavelength sweep type light source) into the measurement light and the reference light, and superimposes the return light of the measurement light from the eye E to be inspected and the reference light passing through the reference optical path. Together, it generates interfering light and detects this interfering light. The data (detection signal) obtained by the interference optical system is a signal representing the spectrum of the interference light and is sent to the arithmetic control unit 200.

光源ユニット101は、例えば、少なくとも近赤外波長帯において出射波長を高速で変化させる近赤外波長可変レーザーを含む。光源ユニット101から出力された光L0は、光ファイバ102により偏波コントローラ103に導かれてその偏光状態が調整される。更に、光L0は、光ファイバ104によりファイバカプラ105に導かれて測定光LSと参照光LRとに分割される。測定光LSの光路は測定アームと呼ばれ、参照光LRの光路は参照アームと呼ばれる。 The light source unit 101 includes, for example, a near-infrared wavelength tunable laser that changes the emission wavelength at high speed at least in the near-infrared wavelength band. The light L0 output from the light source unit 101 is guided by the optical fiber 102 to the polarization controller 103, and its polarization state is adjusted. Further, the optical L0 is guided by the optical fiber 104 to the fiber coupler 105 and divided into the measurement optical LS and the reference optical LR. The optical path of the measurement light LS is called a measurement arm, and the optical path of the reference light LR is called a reference arm.

参照光LRは、光ファイバ110によりコリメータ111に導かれて平行光束に変換され、光路長補正部材112及び分散補償部材113を経由し、リトロリフレクタ114に導かれる。光路長補正部材112は、参照光LRの光路長と測定光LSの光路長とを合わせるよう作用する。分散補償部材113は、測定アームに配置された分散補償部材42とともに、参照光LRと測定光LSとの間の分散特性を合わせるよう作用する。リトロリフレクタ114は、これに入射する参照光LRの光路に沿って移動可能であり、それにより参照アームの長さが変更される。参照アーム長の変更は、例えば、眼軸長に応じた光路長補正や、干渉状態の調整などに利用される。 The reference optical LR is guided by the optical fiber 110 to the collimator 111, converted into a parallel luminous flux, and guided to the retroreflector 114 via the optical path length correction member 112 and the dispersion compensation member 113. The optical path length correction member 112 acts to match the optical path length of the reference light LR with the optical path length of the measurement light LS. The dispersion compensating member 113, together with the dispersion compensating member 42 arranged on the measurement arm, acts to match the dispersion characteristics between the reference light LR and the measurement light LS. The retroreflector 114 is movable along the optical path of the reference light LR incident on it, thereby changing the length of the reference arm. The change of the reference arm length is used, for example, for correcting the optical path length according to the axial length and adjusting the interference state.

リトロリフレクタ114を経由した参照光LRは、分散補償部材113及び光路長補正部材112を経由し、コリメータ116によって平行光束から集束光束に変換され、光ファイバ117に入射する。光ファイバ117に入射した参照光LRは、偏波コントローラ118に導かれてその偏光状態が調整され、光ファイバ119を通じてアッテネータ120に導かれてその光量が調整され、光ファイバ121を通じてファイバカプラ122に導かれる。 The reference light LR that has passed through the retro-reflector 114 is converted from a parallel luminous flux to a focused luminous flux by a collimator 116 via a dispersion compensating member 113 and an optical path length correcting member 112, and is incident on the optical fiber 117. The reference light LR incident on the optical fiber 117 is guided by the polarization controller 118 to adjust its polarization state, is guided to the attenuator 120 through the optical fiber 119 to adjust the amount of light, and is guided to the fiber coupler 122 through the optical fiber 121. Be guided.

一方、ファイバカプラ105により生成された測定光LSは、光ファイバ127により導かれてコリメータレンズユニット40により平行光束に変換され、リトロリフレクタ41、分散補償部材42、OCT合焦レンズ43、光スキャナ44及びリレーレンズ45を経由し、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて被検眼Eに投射される。測定光LSは、被検眼Eの様々な深さ位置において散乱・反射される。測定光LSの被検眼Eからの戻り光は、往路と同じ経路を逆向きに進行してファイバカプラ105に導かれ、光ファイバ128を経由してファイバカプラ122に到達する。 On the other hand, the measurement optical LS generated by the fiber coupler 105 is guided by the optical fiber 127 and converted into a parallel light beam by the collimator lens unit 40, and is converted into a parallel light beam by the collimator lens unit 40, the retroreflector 41, the dispersion compensation member 42, the OCT focusing lens 43, and the optical scanner 44. The light is reflected by the dichroic mirror 46 via the relay lens 45, refracted by the objective lens 22, and projected onto the eye E to be inspected. The measurement light LS is scattered and reflected at various depth positions of the eye E to be inspected. The return light from the eye E to be inspected of the measurement light LS travels in the same direction as the outward path in the opposite direction, is guided to the fiber coupler 105, and reaches the fiber coupler 122 via the optical fiber 128.

ファイバカプラ122は、光ファイバ128を介して入射された測定光LSと、光ファイバ121を介して入射された参照光LRとを重ね合わせて干渉光を生成する。ファイバカプラ122は、生成された干渉光を所定の分岐比(例えば1:1)で分岐することで一対の干渉光LCを生成する。一対の干渉光LCは、それぞれ光ファイバ123及び124を通じて検出器125に導かれる。 The fiber coupler 122 superimposes the measurement light LS incidented via the optical fiber 128 and the reference light LR incidented via the optical fiber 121 to generate interference light. The fiber coupler 122 generates a pair of interference light LCs by branching the generated interference light at a predetermined branching ratio (for example, 1: 1). The pair of interference light LCs are guided to the detector 125 through the optical fibers 123 and 124, respectively.

検出器125は、例えばバランスドフォトダイオードを含む。バランスドフォトダイオードは、一対の干渉光LCをそれぞれ検出する一対のフォトディテクタを有し、これらにより得られた一対の検出結果の差分を出力する。検出器125は、この出力(検出信号)をデータ収集システム(DAS)130に送る。 The detector 125 includes, for example, a balanced photodiode. The balanced photodiode has a pair of photodetectors that detect each pair of interference light LCs, and outputs the difference between the pair of detection results obtained by these. The detector 125 sends this output (detection signal) to the data collection system (DAS) 130.

データ収集システム130には、光源ユニット101からクロックKCが供給される。クロックKCは、光源ユニット101において、波長可変光源により所定の波長範囲内で掃引される各波長の出力タイミングに同期して生成される。光源ユニット101は、例えば、各出力波長の光L0を分岐して2つの分岐光を生成し、これら分岐光の一方を光学的に遅延させ、これら分岐光を合成し、得られた合成光を検出し、その検出結果に基づいてクロックKCを生成する。データ収集システム130は、検出器125から入力される検出信号のサンプリングをクロックKCに基づいて実行する。データ収集システム130は、このサンプリングの結果を演算制御ユニット200に送る。 A clock KC is supplied to the data collection system 130 from the light source unit 101. The clock KC is generated in the light source unit 101 in synchronization with the output timing of each wavelength swept within a predetermined wavelength range by the tunable light source. The light source unit 101, for example, branches the light L0 of each output wavelength to generate two branched lights, optically delays one of the branched lights, synthesizes the branched lights, and produces the obtained combined light. It is detected, and a clock KC is generated based on the detection result. The data collection system 130 samples the detection signal input from the detector 125 based on the clock KC. The data collection system 130 sends the result of this sampling to the arithmetic control unit 200.

本例では、測定アーム長を変更するための要素(例えば、リトロリフレクタ41)と、参照アーム長を変更するための要素(例えば、リトロリフレクタ114、又は参照ミラー)との双方が設けられているが、一方の要素のみが設けられていてもよい。また、測定アーム長と参照アーム長との間の差(光路長差)を変更するための要素はこれらに限定されず、任意の要素(光学部材、機構など)であってよい。 In this example, both an element for changing the measurement arm length (for example, the retroreflector 41) and an element for changing the reference arm length (for example, the retroreflector 114 or the reference mirror) are provided. However, only one element may be provided. Further, the element for changing the difference (optical path length difference) between the measurement arm length and the reference arm length is not limited to these, and may be any element (optical member, mechanism, etc.).

〈制御系・処理系〉
眼科装置1の制御系及び処理系の構成例を図3、図4A及び図4Bに示す。制御部210、画像構築部220、及びデータ処理部230は、例えば演算制御ユニット200に設けられる。眼科装置1は、外部装置との間でデータ通信を行うための通信デバイスを含んでいてもよい。眼科装置1は、記録媒体からのデータ読み出しと、記録媒体へのデータ書き込みとを行うためのドライブ装置(リーダ/ライタ)を含んでいてもよい。
<Control system / processing system>
A configuration example of the control system and the processing system of the ophthalmic apparatus 1 is shown in FIGS. 3, 4A and 4B. The control unit 210, the image construction unit 220, and the data processing unit 230 are provided in, for example, the arithmetic control unit 200. The ophthalmic apparatus 1 may include a communication device for performing data communication with an external device. The ophthalmic apparatus 1 may include a drive apparatus (reader / writer) for reading data from the recording medium and writing data to the recording medium.

〈制御部210〉
制御部210は、各種の制御を実行する。制御部210は、主制御部211と記憶部212とを含む。また、図4Aに示すように、本実施形態において、主制御部211は走査制御部2111を含み、記憶部212は走査プロトコル2121を記憶している。
<Control unit 210>
The control unit 210 executes various controls. The control unit 210 includes a main control unit 211 and a storage unit 212. Further, as shown in FIG. 4A, in the present embodiment, the main control unit 211 includes the scan control unit 2111, and the storage unit 212 stores the scan protocol 2121.

〈主制御部211〉
主制御部211は、プロセッサを含み、眼科装置1の各要素(図1〜図4Bに示された要素を含む)を制御する。主制御部211は、プロセッサを含むハードウェアと、制御ソフトウェアとの協働によって実現される。走査制御部2111は、所定形状及び所定サイズの走査エリアに関するOCTスキャンの制御を行う。
<Main control unit 211>
The main control unit 211 includes a processor and controls each element of the ophthalmic apparatus 1 (including the elements shown in FIGS. 1 to 4B). The main control unit 211 is realized by the cooperation between the hardware including the processor and the control software. The scanning control unit 2111 controls OCT scanning for a scanning area having a predetermined shape and a predetermined size.

撮影合焦駆動部31Aは、主制御部211の制御の下に、撮影光路に配置された撮影合焦レンズ31と照明光路に配置されたフォーカス光学系60とを移動する。リトロリフレクタ(RR)駆動部41Aは、主制御部211の制御の下に、測定アームに設けられたリトロリフレクタ41を移動する。OCT合焦駆動部43Aは、主制御部211の制御の下に、測定アームに配置されたOCT合焦レンズ43を移動する。測定アームに設けられたリトロリフレクタ(RR)駆動部114Aは、主制御部211の制御の下に、参照アームに配置されたリトロリフレクタ114を移動する。上記した駆動部のそれぞれは、主制御部211の制御の下に動作するパルスモータ等のアクチュエータを含む。光スキャナ44は、主制御部211(走査制御部2111)の制御の下に動作する。 The photographing focusing drive unit 31A moves the photographing focusing lens 31 arranged in the photographing optical path and the focusing optical system 60 arranged in the illumination optical path under the control of the main control unit 211. The retroreflector (RR) drive unit 41A moves the retroreflector 41 provided on the measurement arm under the control of the main control unit 211. The OCT focusing drive unit 43A moves the OCT focusing lens 43 arranged on the measurement arm under the control of the main control unit 211. The retroreflector (RR) drive unit 114A provided on the measuring arm moves the retroreflector 114 arranged on the reference arm under the control of the main control unit 211. Each of the above-mentioned drive units includes an actuator such as a pulse motor that operates under the control of the main control unit 211. The optical scanner 44 operates under the control of the main control unit 211 (scanning control unit 2111).

移動機構150は、典型的には、眼底カメラユニット2を3次元的に移動し、例えば、±x方向(左右方向)に移動可能なxステージと、xステージを移動するx移動機構と、±y方向(上下方向)に移動可能なyステージと、yステージを移動するy移動機構と、±z方向(奥行き方向)に移動可能なzステージと、zステージを移動するz移動機構とを含む。各移動機構は、主制御部211の制御の下に動作するパルスモータ等のアクチュエータを含む。 The moving mechanism 150 typically moves the fundus camera unit 2 three-dimensionally, and for example, an x-stage capable of moving in the ± x direction (horizontal direction), an x-moving mechanism for moving the x-stage, and ± Includes a y stage that can move in the y direction (vertical direction), a y movement mechanism that moves the y stage, a z stage that can move in the ± z direction (depth direction), and a z movement mechanism that moves the z stage. .. Each moving mechanism includes an actuator such as a pulse motor that operates under the control of the main control unit 211.

〈記憶部212〉
記憶部212は各種のデータを記憶する。記憶部212に記憶されるデータとしては、OCT画像、眼底像、被検眼情報、制御情報などがある。被検眼情報は、患者IDや氏名などの被検者情報や、左眼/右眼の識別情報や、電子カルテ情報などを含む。制御情報は、特定の制御に関する情報である。本実施形態の制御情報は、走査プロトコル2121を含む。
<Memory unit 212>
The storage unit 212 stores various types of data. The data stored in the storage unit 212 includes an OCT image, a fundus image, eye examination information, control information, and the like. The eye test information includes subject information such as patient ID and name, left eye / right eye identification information, electronic medical record information, and the like. Control information is information about a particular control. The control information of this embodiment includes scanning protocol 2121.

走査プロトコル2121は、所定形状及び所定サイズの走査エリアに関するOCTスキャンのための制御の内容に関する取り決めであり、各種制御パラメータ(走査制御パラメータ)の組を含む。走査プロトコル2121は、走査モード毎のプロトコルを含む。本実施形態の走査プロトコル2121は、リサージュスキャンのプロトコルを少なくとも含み、更に、例えば、Bスキャン(ラインスキャン)、クロススキャン、ラジアルスキャン、ラスタースキャンなどのプロトコルを含んでいてもよい。 Scanning Protocol 2121 is an agreement on the content of control for OCT scanning of a scanning area of a given shape and size and includes a set of various control parameters (scanning control parameters). Scanning protocol 2121 includes a protocol for each scanning mode. The scanning protocol 2121 of the present embodiment includes at least the protocol of the resage scan, and may further include protocols such as B scan (line scan), cross scan, radial scan, and raster scan.

本実施形態の走査制御パラメータは、光スキャナ44に対する制御の内容を示すパラメータを少なくとも含む。このパラメータは、例えば、スキャンパターンを示すパラメータ、スキャン速度を示すパラメータ、スキャン間隔を示すパラメータなどがある。スキャンパターンは、スキャンの経路の形状を示し、その例として、リサージュパターン、ラインパターン、クロスパターン、ラジアルパターン、ラスターパターンなどがある。スキャン速度は、例えば、Aスキャンの繰り返しレートとして定義される。スキャン間隔は、例えば、隣接するAスキャンの間隔として、つまりスキャン点の配列間隔として定義される。 The scanning control parameter of the present embodiment includes at least a parameter indicating the content of control for the optical scanner 44. This parameter includes, for example, a parameter indicating a scan pattern, a parameter indicating a scan speed, a parameter indicating a scan interval, and the like. The scan pattern indicates the shape of the scan path, and examples thereof include a resage pattern, a line pattern, a cross pattern, a radial pattern, and a raster pattern. The scan speed is defined as, for example, the repeat rate of the A scan. The scan interval is defined, for example, as the interval between adjacent A scans, that is, as the array interval of scan points.

なお、特許文献1〜4並びに非特許文献1及び2の開示のような従来技術と同様に、本実施形態の「リサージュスキャン」は、互いに直交する2つの単振動を順序対として得られる点の軌跡が描くパターン(リサージュパターン、リサージュ図形、リサージュ曲線、リサージュ関数、バウディッチ曲線)を経路とした「狭義の」リサージュスキャンだけでなく、一連のサイクルを含む所定の2次元パターンに従う「広義の」リサージュスキャンであってもよい。 Similar to the prior art as disclosed in Patent Documents 1 to 4 and Non-Patent Documents 1 and 2, the "Lissajous scan" of the present embodiment is obtained in that two simple vibrations orthogonal to each other are obtained as an order pair. A "broad" Lissajous that follows a predetermined two-dimensional pattern that includes a series of cycles, as well as a "narrow" Lissajous scan that is routed through a pattern drawn by a locus (Lissajous pattern, Lissajous figure, Lissajous curve, Lissajous function, Bauditch curve). It may be a scan.

本実施形態では、光スキャナ44は、x方向に測定光LSを偏向する第1ガルバノミラーと、y方向に測定光LSを偏向する第2ガルバノミラーとを含む。リサージュスキャンは、x方向に沿った偏向方向の変化を第1周期で繰り返すように第1ガルバノミラーの制御を行いつつ、y方向に沿った偏向方向の変化を第2周期で繰り返すように第2ガルバノミラーの制御を行うことによって実現される。ここで、第1周期と第2周期とは互いに異なる。 In the present embodiment, the optical scanner 44 includes a first galvano mirror that deflects the measurement light LS in the x direction and a second galvano mirror that deflects the measurement light LS in the y direction. In the resage scan, the first galvanometer mirror is controlled so that the change in the deflection direction along the x direction is repeated in the first cycle, and the second change in the deflection direction along the y direction is repeated in the second cycle. It is realized by controlling the galvanometer mirror. Here, the first cycle and the second cycle are different from each other.

例えば、本実施形態のリサージュスキャンは、2つの正弦波の組み合わせから得られる狭義のリサージュパターンのスキャンだけでなく、これに特定項(例えば、奇数次の多項式)を加えたパターンのスキャンや、三角波に基づくパターンのスキャンであってもよい。 For example, the lithage scan of the present embodiment is not only a scan of a lisage pattern in a narrow sense obtained from a combination of two sine waves, but also a scan of a pattern to which a specific term (for example, an odd-order polynomial) is added, or a triangular wave. It may be a scan of a pattern based on.

「サイクル」は、一般に、或る長さを持つ複数のサンプリング点から構成されるオブジェクトを意味し、例えば閉曲線又はほぼ閉曲線であってよい(つまり、サイクルの始点と終点とが一致又はほぼ一致していてよい)。 "Cycle" generally means an object composed of multiple sampling points of a certain length, which may be, for example, a closed curve or a nearly closed curve (ie, the start and end points of the cycle coincide with or nearly coincide with each other. You can do it).

典型的には、走査プロトコル2121はリサージュ関数に基づき設定される。非特許文献1の式(9)に示すように、リサージュ関数は、例えば、次のパラメトリック方程式系で表現される:x(ti)=A・cos(2π・(fA/n)・ti)、y(ti)=A・cos(2π・(fA・(n-2)/n2)・ti)。 Typically, the scan protocol 2121 is set based on the Lissajous function. As shown in Equation (9) of Non-Patent Document 1, the Lissajous function is expressed by, for example, the following parametric equation system: x (t i ) = A · cos (2π · (f A / n) · t. i ), y (t i ) = A ・ cos (2π ・ (f A・ (n-2) / n 2 ) ・ t i ).

ここで、xはリサージュ曲線が定義される2次元座標系の横軸、yは縦軸、tiはリサージュスキャンにおける第i番目のAラインの収集時点、Aはスキャン範囲(振幅)、fAはAラインの収集レート(スキャン速度、Aスキャンの繰り返しレート)、nはx(横軸)方向の各サイクルにおけるAラインの個数をそれぞれ示す。 Here, x is the horizontal axis of the two-dimensional coordinate system in which the Lissajous curve is defined, y is the vertical axis, t i is the collection point of the i-th A line in the Lissajous scan, A is the scan range (amplitude), and f A. Is the collection rate of A-lines (scan speed, repetition rate of A-scans), and n is the number of A-lines in each cycle in the x (horizontal axis) direction.

このようなリサージュスキャンにおいて眼底Efに適用されるスキャンラインの分布の例を図5に示す。 An example of the distribution of scan lines applied to the fundus Ef in such a Lissajous scan is shown in FIG.

(狭義又は広義の)リサージュスキャンに含まれる任意のサイクル対(ペア)が1点以上(特に2点以上)で互いに交差するため、リサージュスキャンにおける任意のサイクル対から収集されたデータ対の間のレジストレーションを行うことができる。これにより、非特許文献1(又は2)に開示された画像構築手法及びモーションアーティファクト補正手法を利用することが可能となる。以下、特に言及しない限り、非特許文献1に記載された手法が適用される。 Between any cycle pairs (pairs) included in a (narrowly or broadly defined) lisage scan intersect each other at one or more points (especially two or more points) and therefore between data pairs collected from any cycle pair in a lisage scan. Registration can be performed. This makes it possible to use the image construction method and the motion artifact correction method disclosed in Non-Patent Document 1 (or 2). Hereinafter, unless otherwise specified, the method described in Non-Patent Document 1 is applied.

記憶部212に記憶される制御情報は上記の例に限定されない。例えば、制御情報はフォーカス制御を行うための情報(フォーカス制御パラメータ)を含んでいてよい。 The control information stored in the storage unit 212 is not limited to the above example. For example, the control information may include information for performing focus control (focus control parameter).

フォーカス制御パラメータは、OCT合焦駆動部43Aに対する制御の内容を示すパラメータである。フォーカス制御パラメータの例として、測定アームの焦点位置を示すパラメータ、焦点位置の移動速度を示すパラメータ、焦点位置の移動加速度を示すパラメータなどがある。焦点位置を示すパラメータは、例えば、OCT合焦レンズ43の位置を示すパラメータである。焦点位置の移動速度を示すパラメータは、例えば、OCT合焦レンズ43の移動速度を示すパラメータである。焦点位置の移動加速度を示すパラメータは、例えば、OCT合焦レンズ43の移動加速度を示すパラメータである。移動速度は、一定であってもよいし、一定でなくてもよい。移動加速度についても同様である。 The focus control parameter is a parameter indicating the content of control for the OCT focusing drive unit 43A. Examples of focus control parameters include a parameter indicating the focal position of the measuring arm, a parameter indicating the moving speed of the focal position, and a parameter indicating the moving acceleration of the focal position. The parameter indicating the focal position is, for example, a parameter indicating the position of the OCT focusing lens 43. The parameter indicating the moving speed of the focal position is, for example, a parameter indicating the moving speed of the OCT focusing lens 43. The parameter indicating the moving acceleration of the focal position is, for example, a parameter indicating the moving acceleration of the OCT focusing lens 43. The moving speed may or may not be constant. The same applies to the moving acceleration.

このようなフォーカス制御パラメータによれば、眼底Efの形状(典型的には、中心部が深く且つ周辺部が浅い凹形状)や収差分布に応じたフォーカス調整が可能になる。フォーカス制御は、例えば、走査制御(リサージュスキャンの繰り返し制御)と連係的に実行される。それにより、モーションアーティファクトが補正され、且つ、スキャン範囲の全体に亘ってピントが合った、高品質の画像が得られる。 According to such a focus control parameter, the focus can be adjusted according to the shape of the fundus Ef (typically, a concave shape having a deep central portion and a shallow peripheral portion) and an aberration distribution. Focus control is executed in cooperation with, for example, scanning control (repeated control of Lissajous scan). This results in a high quality image with motion artifacts corrected and in focus over the entire scan range.

〈走査制御部2111〉
走査制御部2111は、走査プロトコル2121に基づいて少なくとも光スキャナ44を制御する。走査制御部2111は、走査プロトコル2121に基づく光スキャナ44の制御と連係して光源ユニット101の制御を更に実行してもよい。走査制御部2111は、プロセッサを含むハードウェアと、走査プロトコル2121を含む走査制御ソフトウェアとの協働によって実現される。
<Scanning control unit 2111>
The scan control unit 2111 controls at least the optical scanner 44 based on the scan protocol 2121. The scan control unit 2111 may further control the light source unit 101 in conjunction with the control of the optical scanner 44 based on the scan protocol 2121. The scan control unit 2111 is realized by the cooperation of hardware including a processor and scan control software including scan protocol 2121.

〈画像構築部220〉
画像構築部220は、プロセッサを含み、データ収集システム130から入力された信号(サンプリングデータ)に基づいて、眼底EfのOCT画像データを構築する。このOCT画像データ構築は、従来のフーリエドメインOCT(スウェプトソースOCT)と同様に、ノイズ除去(ノイズ低減)、フィルタリング、高速フーリエ変換(FFT)などを含む。他のタイプのOCT手法が採用される場合、画像構築部220は、そのタイプに応じた公知の処理を実行することによってOCT画像データを構築する。
<Image construction unit 220>
The image construction unit 220 includes a processor and constructs OCT image data of the fundus Ef based on the signal (sampling data) input from the data collection system 130. This OCT image data construction includes noise removal (noise reduction), filtering, fast Fourier transform (FFT), and the like, similar to the conventional Fourier domain OCT (swept source OCT). When another type of OCT method is adopted, the image construction unit 220 constructs OCT image data by executing a known process according to the type.

前述したように、本実施形態ではリサージュスキャンが眼底Efに適用される。画像構築部220は、データ処理部230とともに、リサージュスキャンによる収集とデータ収集システム130によるサンプリングとを介して取得されたデータに対し、例えば非特許文献1又は2に開示された画像構築手法及びモーションアーティファクト補正手法を適用することによって、眼底Efの3次元画像データを構築する。 As described above, in this embodiment, the Lissajous scan is applied to the fundus Ef. The image construction unit 220, together with the data processing unit 230, refers to the data acquired through collection by the resage scan and sampling by the data collection system 130, for example, the image construction method and motion disclosed in Non-Patent Document 1 or 2. By applying the artifact correction method, three-dimensional image data of the fundus Ef is constructed.

画像構築部220(及び/又はデータ処理部230)は、3次元画像データにレンダリングを適用して表示用画像を形成することができる。適用可能なレンダリング法の例として、ボリュームレンダリング、サーフェスレンダリング、最大値投影(MIP)、最小値投影(MinIP)、多断面再構成(MPR)などがある。 The image construction unit 220 (and / or the data processing unit 230) can apply rendering to the three-dimensional image data to form a display image. Examples of applicable rendering methods include volume rendering, surface rendering, maximum value projection (MIP), minimum value projection (MinIP), and multi-section reconstruction (MPR).

画像構築部220(及び/又はデータ処理部230)は、3次元画像データに基づいてOCT正面画像(enface OCT image)を構築することが可能である。例えば、画像構築部220(及び/又はデータ処理部230)は、3次元画像データをz方向(Aライン方向、深さ方向)に投影することでプロジェクションデータを構築することができる。また、画像構築部220(及び/又はデータ処理部230)は、3次元画像データの一部である部分的3次元画像データをz方向に投影することでシャドウグラムを構築することができる。この部分的3次元画像データは、例えば、セグメンテーションを利用して設定される。セグメンテーションは、画像中の部分領域を特定する処理である。本例では、眼底Efの所定組織に相当する画像領域を特定するためにセグメンテーションを行うことができる。 The image construction unit 220 (and / or the data processing unit 230) can construct an OCT front image (enface OCT image) based on the three-dimensional image data. For example, the image construction unit 220 (and / or the data processing unit 230) can construct projection data by projecting the three-dimensional image data in the z direction (A line direction, depth direction). Further, the image construction unit 220 (and / or the data processing unit 230) can construct a shadow gram by projecting partial 3D image data which is a part of the 3D image data in the z direction. This partial three-dimensional image data is set by using, for example, segmentation. Segmentation is a process of identifying a partial area in an image. In this example, segmentation can be performed to identify an image region corresponding to a predetermined tissue of the fundus Ef.

眼科装置1は、OCT血管造影(OCT-Angiography)を実施可能であってよい。OCT血管造影は、血管が強調された画像を構築するイメージング技術である(例えば、非特許文献2、特表2015−515894号公報などを参照)。一般に、眼底組織(構造)は時間的に変化しないが、血管内部の血流部分は時間的に変化する。OCT血管造影では、このような時間的変化が存在する部分(血流信号)を強調して画像を生成する。なお、OCT血管造影は、OCTモーションコントラスト撮影(motion contrast imaging)などとも呼ばれる。また、OCT血管造影により取得される画像は、血管造影画像、アンジオグラム(angiogram)、モーションコントラスト画像などと呼ばれる。 The ophthalmic apparatus 1 may be capable of performing OCT-Angiography. OCT angiography is an imaging technique for constructing an image in which blood vessels are emphasized (see, for example, Non-Patent Document 2, Japanese Patent Application Laid-Open No. 2015-515894, etc.). Generally, the fundus tissue (structure) does not change with time, but the blood flow portion inside the blood vessel changes with time. In OCT angiography, an image is generated by emphasizing a portion (blood flow signal) in which such a temporal change exists. In addition, OCT angiography is also called OCT motion contrast imaging (motion contrast imaging) or the like. The images acquired by OCT angiography are called angiographic images, angiograms, motion contrast images, and the like.

OCT血管造影が実施される場合、眼科装置1は、眼底Efの同じ領域を所定回数だけ繰り返しスキャンする。例えば、眼科装置1は、前述した走査制御(リサージュスキャンの繰り返し制御)を所定回数だけ繰り返し実施する。それにより、リサージュスキャンの適用領域に対応する複数の3次元データ(3次元データセット)がデータ収集システム130によって収集される。画像構築部220及び/又はデータ処理部230は、この3次元データセットからモーションコントラスト画像を構築することができる。このモーションコントラスト画像は、眼底Efの血流に起因する干渉信号の時間的変化が強調された血管造影画像である。この血管造影画像は、眼底Efの血管の3次元的な分布を表現した3次元血管造影画像データである。 When OCT angiography is performed, the ophthalmologic apparatus 1 repeatedly scans the same area of the fundus Ef a predetermined number of times. For example, the ophthalmic apparatus 1 repeatedly performs the above-mentioned scanning control (repeated control of Lissajous scan) a predetermined number of times. As a result, a plurality of three-dimensional data (three-dimensional data sets) corresponding to the application area of the resage scan are collected by the data collection system 130. The image construction unit 220 and / or the data processing unit 230 can construct a motion contrast image from this three-dimensional data set. This motion contrast image is an angiographic image in which the temporal change of the interference signal due to the blood flow of the fundus Ef is emphasized. This angiographic image is three-dimensional angiographic image data expressing the three-dimensional distribution of blood vessels of the fundus Ef.

画像構築部220及び/又はデータ処理部230は、この3次元血管造影画像データから、任意の2次元血管造影画像データ及び/又は任意の擬似的3次元血管造影画像データを構築することが可能である。例えば、画像構築部220は、3次元血管造影画像データに多断面再構成を適用することにより、眼底Efの任意の断面を表す2次元血管造影画像データを構築することができる。また、画像構築部220は、3次元血管造影画像データにプロジェクション画像化又はシャドウグラム化を適用することにより、眼底Efの正面血管造影画像データを構築することができる。 The image construction unit 220 and / or the data processing unit 230 can construct arbitrary 2D angiographic image data and / or arbitrary pseudo 3D angiographic image data from the 3D angiographic image data. is there. For example, the image construction unit 220 can construct two-dimensional angiography image data representing an arbitrary cross section of the fundus Ef by applying the multi-section reconstruction to the three-dimensional angiography image data. Further, the image construction unit 220 can construct the angiographic image data of the fundus Ef by applying projection imaging or shadow gramming to the three-dimensional angiography image data.

本実施形態において、画像構築部220は、データ収集システム130により収集されたデータから複数のストリップを構築する。非特許文献1に記載されているように、画像構築部220は、リサージュスキャンで収集されたボリューム(3次元データ)を比較的大きな動きが介在しない複数のサブボリュームに分割し、各サブボリュームの正面プロジェクション画像(en face projection)を構築する。この正面プロジェクション画像がストリップである。このようにして得られた複数のストリップに対してレジストレーション及びマージ処理を適用することにより、モーションアーティファクトが補正された画像が得られる。後述するように、レジストレーション及びマージ処理は、データ処理部230によって実行される。 In this embodiment, the image construction unit 220 constructs a plurality of strips from the data collected by the data collection system 130. As described in Non-Patent Document 1, the image construction unit 220 divides the volume (three-dimensional data) collected by the resage scan into a plurality of subvolumes in which relatively large movement does not intervene, and of each subvolume. Build a front projection image (en face projection). This front projection image is a strip. By applying the registration and merging process to the plurality of strips thus obtained, an image corrected with motion artifacts can be obtained. As will be described later, the registration and merge processing is executed by the data processing unit 230.

画像構築部220は、プロセッサを含むハードウェアと、画像構築ソフトウェアとの協働によって実現される。 The image construction unit 220 is realized by the collaboration between the hardware including the processor and the image construction software.

〈データ処理部230〉
データ処理部230は、プロセッサを含み、被検眼Eの画像に対して各種のデータ処理を適用する。例えば、データ処理部230は、プロセッサを含むハードウェアと、データ処理ソフトウェアとの協働によって実現される。
<Data processing unit 230>
The data processing unit 230 includes a processor and applies various data processing to the image of the eye E to be inspected. For example, the data processing unit 230 is realized by the collaboration between the hardware including the processor and the data processing software.

データ処理部230は、眼底Efについて取得された2つの画像の間の位置合わせ(レジストレーション)を行うように構成されてよい。例えば、データ処理部230は、OCTで取得された3次元画像データと、眼底カメラユニット2により取得された正面画像との間のレジストレーションを行うように構成される。また、データ処理部230は、OCTで取得された2つのOCT画像の間のレジストレーションを行うように構成される。また、データ処理部230は、眼底カメラユニット2により取得された2つの正面画像の間のレジストレーションを行うように構成される。また、OCT画像の解析結果や、正面画像の解析結果に対してレジストレーションを適用するように構成されてもよい。これらのレジストレーションは、公知の手法によって実行可能であり、例えば特徴点抽出とアフィン変換とを含む。 The data processing unit 230 may be configured to perform alignment (registration) between the two images acquired for the fundus Ef. For example, the data processing unit 230 is configured to perform registration between the three-dimensional image data acquired by OCT and the front image acquired by the fundus camera unit 2. Further, the data processing unit 230 is configured to perform registration between two OCT images acquired by OCT. Further, the data processing unit 230 is configured to perform registration between the two front images acquired by the fundus camera unit 2. Further, the registration may be applied to the analysis result of the OCT image or the analysis result of the front image. These registrations can be performed by known techniques, including, for example, feature point extraction and affine transformation.

更に、データ処理部230は、リサージュスキャンを用いて得られたデータを処理するように構成される。前述したように、画像構築部220は、リサージュスキャンで収集されたデータから複数のストリップを構築する。データ処理部230は、これらストリップに対してレジストレーション及びマージ処理を適用することにより、モーションアーティファクトが補正された画像を構築する。 Further, the data processing unit 230 is configured to process the data obtained by using the Lissajous scan. As described above, the image construction unit 220 constructs a plurality of strips from the data collected by the Lissajous scan. The data processing unit 230 constructs an image corrected with motion artifacts by applying registration and merging processing to these strips.

リサージュスキャンの特性として、任意の2つのストリップはオーバーラップ領域を有する。非特許文献1に記載された手法と同様に、データ処理部230は、ストリップ間のオーバーラップを利用してストリップ間のレジストレーションを行うように構成される。データ処理部230は、まず、画像構築部220により構築された複数のストリップを大きさ(面積等)に従って順序付け(第1〜第Nのストリップ)、最大のストリップである第1のストリップを初期基準ストリップに指定する。次に、データ処理部230は、第1のストリップを基準として第2のストリップのレジストレーションを行い、第1のストリップと第2のストリップとをマージする(合成する)。データ処理部230は、これにより得られたマージストリップを基準として第3のストリップのレジストレーションを行い、このマージストリップと第3のストリップとをマージする。このようなレジストレーション及びマージ処理を上記順序に従って順次に実行することにより第1〜第Nのストリップの位置合わせ及び貼り合わせがなされ、モーションアーティファクトが補正された画像が得られる。 As a characteristic of the Lissajous scan, any two strips have an overlapping region. Similar to the method described in Non-Patent Document 1, the data processing unit 230 is configured to perform registration between strips by utilizing the overlap between strips. The data processing unit 230 first orders a plurality of strips constructed by the image construction unit 220 according to the size (area, etc.) (first to Nth strips), and uses the first strip, which is the largest strip, as an initial reference. Specify on the strip. Next, the data processing unit 230 registers the second strip with the first strip as a reference, and merges (synthesizes) the first strip and the second strip. The data processing unit 230 registers the third strip with reference to the merge strip obtained thereby, and merges the merge strip with the third strip. By sequentially executing such registration and merging processing in the above order, the first to Nth strips are aligned and bonded, and an image corrected with motion artifacts is obtained.

このようなレジストレーションでは、基準ストリップと他のストリップとの間の相対位置を求めるために相互相関関数が利用されるが、ストリップは任意の形状を有するため、各ストリップを特定形状(例えば正方形状)の画像として扱うためのマスクを用いてストリップ間の相関演算が行われる(非特許文献1のAppendix Aを参照)。 In such registrations, a cross-correlation function is used to determine the relative position between the reference strip and the other strips, but since the strips have any shape, each strip has a specific shape (eg square). ) Is used as an image to perform correlation calculation between strips (see Appendix A of Non-Patent Document 1).

前述したように、ストリップは所定階調の強度画像であり、マスク画像は二値画像であるため、ストリップの画素値の絶対値とマスクの画素値の絶対値との差が大きくなり、ストリップとマスクとを用いた相関演算におけるマスクの効果が無視されて正しい相関係数が得られないおそれがある。特に、コスト等の観点から、ストリップ間の相関係数を求めるために単精度浮動小数点型(フロート型)の演算を採用した場合、有効桁数の少なさに起因する丸め誤差の影響により、この問題が顕著に現れる。 As described above, since the strip is an intensity image of a predetermined gradation and the mask image is a binary image, the difference between the absolute value of the pixel value of the strip and the absolute value of the pixel value of the mask becomes large, and the strip and the strip The effect of the mask in the correlation calculation using the mask may be ignored and the correct correlation coefficient may not be obtained. In particular, when a single-precision floating-point type (float type) operation is adopted to obtain the correlation coefficient between strips from the viewpoint of cost, etc., this problem is caused by the influence of rounding error due to the small number of significant digits. Appears prominently.

この問題に対処するために、本実施形態では、図4Bに示す構成を有するデータ処理部230が採用される。本例のデータ処理部230は、マスク画像生成部231と、範囲調整部232と、合成画像生成部233と、相互相関関数算出部234と、相関係数算出部235と、レジストレーション部236と、マージ処理部237とを含む。以下に説明する例では、任意の2つのストリップを考慮し、その一方が基準ストリップ(reference strip)に指定され、この基準ストリップに対して他方のストリップ(対象ストリップ;registering strip)がレジストレーションされる。 In order to deal with this problem, in this embodiment, the data processing unit 230 having the configuration shown in FIG. 4B is adopted. The data processing unit 230 of this example includes a mask image generation unit 231, a range adjustment unit 232, a composite image generation unit 233, a cross-correlation function calculation unit 234, a correlation coefficient calculation unit 235, and a registration unit 236. , The merge processing unit 237 and the like. In the example described below, any two strips are considered, one of which is designated as the reference strip, and the other strip (registering strip) is registered for this reference strip. ..

〈マスク画像生成部231〉
マスク画像生成部231は、基準ストリップに応じた基準マスク画像と、対象ストリップに応じた対象マスク画像とを生成する。マスク画像の幾つかの例を以下に説明するが、これらに限定されるものではない。
<Mask image generation unit 231>
The mask image generation unit 231 generates a reference mask image corresponding to the reference strip and a target mask image corresponding to the target strip. Some examples of mask images will be described below, but are not limited thereto.

マスク画像の輪郭形状は、例えば矩形であり、典型的には正方形である。基準マスク画像の形状と対象マスク画像の形状とは同じであってよい。また、基準マスク画像の寸法と対象マスク画像の寸法とは同じであってよい。 The contour shape of the mask image is, for example, a rectangle, typically a square. The shape of the reference mask image and the shape of the target mask image may be the same. Further, the dimensions of the reference mask image and the dimensions of the target mask image may be the same.

マスク画像の画素値の範囲は、例えば閉区間[0,1]に含まれるように設定される。典型的には、マスク画像は、画素値が0又は1の二値画像であってよい。具体例として、マスク画像は、ストリップの定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像である。換言すると、非特許文献1の式(20)に示すように、例示的なマスク画像の画素値は、対応するストリップの画像エリアにおける値が1であり、他のエリアにおける値が0である。 The range of pixel values of the mask image is set so as to be included in, for example, the closed interval [0,1]. Typically, the mask image may be a binary image with a pixel value of 0 or 1. As a specific example, the mask image is a binary image in which the value of the pixel in the region corresponding to the domain of the strip is 1 and the value of the other pixel is 0. In other words, as shown in the equation (20) of Non-Patent Document 1, the pixel value of the exemplary mask image has a value of 1 in the image area of the corresponding strip and 0 in the other area.

〈範囲調整部232〉
範囲調整部232は、基準マスク画像の画素値の範囲と、対象マスク画像の画素値の範囲とに基づいて、基準ストリップの画素値の範囲と、対象ストリップの画素値の範囲とを調整するように構成される。典型的には、範囲調整部232は、ストリップの画素値の範囲とマスク画像の画素値の範囲との間の差を小さくするように、基準ストリップの画素値の範囲及び対象ストリップの画素値の範囲の調整を行う。
<Range adjustment unit 232>
The range adjusting unit 232 adjusts the pixel value range of the reference strip and the pixel value range of the target strip based on the pixel value range of the reference mask image and the pixel value range of the target mask image. It is composed of. Typically, the range adjuster 232 sets the pixel value range of the reference strip and the pixel value of the target strip so as to reduce the difference between the pixel value range of the strip and the pixel value range of the mask image. Adjust the range.

一般に、範囲調整部232は、基準ストリップの画素値の範囲と、対象ストリップの画素値の範囲と、マスク画像の画素値の範囲とを相対的に調整する。典型的な例では、基準ストリップに適用される基準マスク画像と、対象ストリップに適用される対象マスク画像とは異なり、範囲調整部232は、基準ストリップの画素値の範囲と、対象ストリップの画素値の範囲と、基準マスク画像の画素値の範囲と、対象ストリップの画素値の範囲とを相対的に調整する。 Generally, the range adjusting unit 232 relatively adjusts the pixel value range of the reference strip, the pixel value range of the target strip, and the pixel value range of the mask image. In a typical example, unlike the reference mask image applied to the reference strip and the target mask image applied to the target strip, the range adjustment unit 232 sets the pixel value range of the reference strip and the pixel value of the target strip. The range of the pixel value of the reference mask image and the range of the pixel value of the target strip are relatively adjusted.

範囲調整部232は、基準ストリップの画素値の範囲と基準マスク画像の画素値の範囲とを小さくするように基準ストリップの画素値の範囲と基準マスク画像の画素値の範囲とを調整し、且つ、対象ストリップの画素値の範囲と対象マスク画像の画素値の範囲とを小さくするように、対象ストリップの画素値の範囲と対象ストリップの画素値の範囲とを相対的に調整するように構成される。 The range adjustment unit 232 adjusts the pixel value range of the reference strip and the pixel value range of the reference mask image so as to reduce the pixel value range of the reference strip and the pixel value range of the reference mask image. , The pixel value range of the target strip and the pixel value range of the target strip are relatively adjusted so as to reduce the pixel value range of the target strip and the pixel value range of the target mask image. To.

範囲調整部232は、ストリップ及びマスク画像の一方の画素値の範囲を他方の画素値の範囲に一致させるように、ストリップの画素値の範囲とマスク画像の画素値の範囲とを調整するように構成されてよい。例えば、範囲調整部232は、基準ストリップの画素値の範囲と基準マスク画像の画素値の範囲とを一致させるように基準ストリップの画素値の範囲と基準マスク画像の画素値の範囲とを調整し、且つ、対象ストリップの画素値の範囲と対象マスク画像の画素値の範囲とを一致させるように、対象ストリップの画素値の範囲と対象ストリップの画素値の範囲とを相対的に調整するように構成されてよい。 The range adjusting unit 232 adjusts the pixel value range of the strip and the pixel value range of the mask image so as to match the pixel value range of one of the strip and mask images with the pixel value range of the other. It may be configured. For example, the range adjustment unit 232 adjusts the pixel value range of the reference strip and the pixel value range of the reference mask image so as to match the pixel value range of the reference strip with the pixel value range of the reference mask image. In addition, the pixel value range of the target strip and the pixel value range of the target strip are relatively adjusted so as to match the pixel value range of the target strip with the pixel value range of the target mask image. It may be configured.

例えば、範囲調整部232は、マスク画像の画素値の範囲に応じてストリップの画素値の範囲を正規化するように構成される。この正規化(規格化)の幾つかの例を以下に説明するが、これらに限定されるものではない。 For example, the range adjusting unit 232 is configured to normalize the pixel value range of the strip according to the pixel value range of the mask image. Some examples of this normalization will be described below, but the present invention is not limited thereto.

正規化の第1の例を説明する。マスク画像の画素値の範囲が閉区間[0,1]に含まれる場合において、範囲調整部232は、ストリップの各画素の値を、このストリップにおける最大画素値で除算する。本例では、範囲調整部232は、まず、ストリップの全ての画素の値を比較して最大値(最大画素値)を特定し、このストリップの各画素の値を最大画素値で除算する。これにより、ストリップの画素値の範囲が、マスク画像の画素値の範囲と同じ閉区間[0,1]に一致される。 A first example of normalization will be described. When the range of pixel values of the mask image is included in the closed interval [0,1], the range adjustment unit 232 divides the value of each pixel of the strip by the maximum pixel value in this strip. In this example, the range adjusting unit 232 first compares the values of all the pixels of the strip to specify the maximum value (maximum pixel value), and divides the value of each pixel of the strip by the maximum pixel value. As a result, the pixel value range of the strip coincides with the same closed interval [0,1] as the pixel value range of the mask image.

正規化の第2の例を説明する。マスク画像の画素値の範囲が閉区間[0,1]に含まれる場合において、範囲調整部232は、ストリップの各画素の値を、このストリップの画素値の範囲の最大値で除算する。ストリップの画素値の範囲は予め設定されており、範囲調整部232は、この範囲の上限値(最大値)でストリップの各画素の値を除算する。本例によっても、ストリップの画素値の範囲が、マスク画像の画素値の範囲と同じ閉区間[0,1]に一致される。 A second example of normalization will be described. When the range of pixel values of the mask image is included in the closed interval [0,1], the range adjustment unit 232 divides the value of each pixel of the strip by the maximum value of the pixel value range of this strip. The range of pixel values of the strip is set in advance, and the range adjusting unit 232 divides the value of each pixel of the strip by the upper limit value (maximum value) of this range. Also in this example, the pixel value range of the strip coincides with the same closed interval [0,1] as the pixel value range of the mask image.

範囲調整部232が実行する処理により、ストリップの画素値の絶対値とマスクの画素値の絶対値との差を小さくすることができ、ストリップとマスクとを用いた相関演算においてマスクの効果が無視されることが無くなり、相関係数の算出を正確に行うことが可能となる。特に、単精度浮動小数点型(フロート型)の演算を採用した場合であっても、有効桁数の少なさに起因する丸め誤差の影響を排除する(低減する)ことができる。 By the process executed by the range adjustment unit 232, the difference between the absolute value of the pixel value of the strip and the absolute value of the pixel value of the mask can be reduced, and the effect of the mask is ignored in the correlation calculation using the strip and the mask. It becomes possible to calculate the correlation coefficient accurately. In particular, even when a single-precision floating-point type (float type) operation is adopted, the influence of rounding error due to a small number of significant digits can be eliminated (reduced).

本明細書ではストリップの画素値の範囲のみを変更する例について主に説明するが、マスク画像の画素値の範囲のみを変更してもよいし、ストリップの画素値の範囲とマスク画像の画素値の範囲との双方を変更してもよい。 Although the example of changing only the pixel value range of the strip is mainly described in the present specification, only the pixel value range of the mask image may be changed, or the pixel value range of the strip and the pixel value of the mask image may be changed. Both with the range of may be changed.

〈合成画像生成部233〉
範囲調整部232による画素値範囲調整が適用されたストリップ及びマスク画像について、合成画像生成部233は、基準ストリップ及び対象ストリップのそれぞれにマスク画像を合成して2つの合成画像を生成する。典型的には、合成画像生成部233は、基準ストリップに基準マスク画像を合成して基準合成画像を生成し、且つ、対象ストリップに対象マスク画像を合成して対象合成画像を生成する。
<Composite image generation unit 233>
For the strip and mask image to which the pixel value range adjustment by the range adjustment unit 232 is applied, the composite image generation unit 233 synthesizes the mask image with each of the reference strip and the target strip to generate two composite images. Typically, the composite image generation unit 233 synthesizes the reference mask image with the reference strip to generate the reference composite image, and synthesizes the target mask image with the target strip to generate the target composite image.

ストリップとマスク画像とを合成する処理は、非特許文献1と同じ要領で実行されてよい。ただし、非特許文献1の手法とは異なり、本実施形態では、ストリップの画素値の範囲とマスク画像の画素値の範囲との間の差を小さくなるように調整されている。典型的には、基準マスク画像及び対象マスク画像の画素値の範囲に一致するように、基準ストリップ及び対象ストリップの画素値の範囲が正規化されている。 The process of synthesizing the strip and the mask image may be executed in the same manner as in Non-Patent Document 1. However, unlike the method of Non-Patent Document 1, in the present embodiment, the difference between the pixel value range of the strip and the pixel value range of the mask image is adjusted to be small. Typically, the pixel value ranges of the reference strip and the target strip are normalized to match the pixel value ranges of the reference mask image and the target mask image.

例えば、非特許文献1の式(19)と同じ要領で、合成画像生成部233は、画素値範囲が正規化されたストリップを、マスク画像と同じ寸法及び同じ形状の画像に埋め込むように構成されてよい。 For example, in the same manner as in the formula (19) of Non-Patent Document 1, the composite image generation unit 233 is configured to embed a strip having a normalized pixel value range in an image having the same dimensions and the same shape as the mask image. It's okay.

更に、合成画像生成部233は、ストリップの埋め込み画像とマスク画像との合成画像を生成する。この合成画像は、非特許文献1における「f´(r)m(r)」(第1800頁の第2行目等)に相当するが、前述したように、ストリップの埋め込み画像の値が式(19)のそれとは異なっている。 Further, the composite image generation unit 233 generates a composite image of the embedded image of the strip and the mask image. This composite image corresponds to "f'(r) m f (r)" (second line on page 1800, etc.) in Non-Patent Document 1, but as described above, the value of the embedded image of the strip is It is different from that of equation (19).

〈相互相関関数算出部234〉
相互相関関数算出部234は、合成画像生成部233により生成された2つの合成画像に基づいて複数の相互相関関数を求める。相互相関関数の算出は、非特許文献1と同じ要領で実行される。例えば、相互相関関数算出部234は、基準ストリップ及び基準マスク画像から生成された基準合成画像と、対象ストリップ及び対象マスク画像から生成された対象合成画像とに基づいて、非特許文献1の式(33)に含まれる6個の相互相関関数(画像相互相関、image cross-correlation)を算出する。
<Cross-correlation function calculation unit 234>
The cross-correlation function calculation unit 234 obtains a plurality of cross-correlation functions based on the two composite images generated by the composite image generation unit 233. The calculation of the cross-correlation function is performed in the same manner as in Non-Patent Document 1. For example, the cross-correlation function calculation unit 234 uses the formula of Non-Patent Document 1 based on the reference composite image generated from the reference strip and the reference mask image and the target composite image generated from the target strip and the target mask image. The six cross-correlation functions (image cross-correlation) included in 33) are calculated.

〈相関係数算出部235〉
相関係数算出部235は、相互相関関数算出部234により算出された複数の相互相関関数に基づいて相関係数を算出する。この演算は、非特許文献1の式(33)に従う。
<Correlation coefficient calculation unit 235>
The correlation coefficient calculation unit 235 calculates the correlation coefficient based on a plurality of cross-correlation functions calculated by the cross-correlation function calculation unit 234. This operation follows the equation (33) of Non-Patent Document 1.

〈レジストレーション部236〉
レジストレーション部236は、相関係数算出部235により算出される相関係数に基づいて、xy方向(ラテラル方向)のレジストレーションが実行される。このレジストレーションは、非特許文献1の「rough lateral motion correction」(第1787頁)に相当する。
<Registration unit 236>
The registration unit 236 performs registration in the xy direction (lateral direction) based on the correlation coefficient calculated by the correlation coefficient calculation unit 235. This registration corresponds to "rough lateral motion correction" (page 1787) of Non-Patent Document 1.

更に、レジストレーション部236は、スロードリフト(slow drift)やトレモア(tremor)等の眼球運動に起因するラテラル方向の小さなモーションアーティファクトを除去するために、非特許文献1の「fine lateral motion correction」(第1789頁)に相当するレジストレーションを実行するように構成されてもよい。 Further, the registration unit 236 uses "fine lateral motion correction" of Non-Patent Document 1 in order to remove small motion artifacts in the lateral direction caused by eye movements such as slow drift and tremor. It may be configured to perform the registration corresponding to page 1789).

加えて、レジストレーション部236は、z方向(軸方向、アキシャル方向)のモーションアーティファクトを除去するために、非特許文献1の「axial motion correction (rough axial motion correction 及び/又は fine axial motion correction」(第1789頁〜第1790頁)に相当するレジストレーションを実行するように構成されてもよい。 In addition, the registration unit 236 uses "axial motion correction (rough axial motion correction and / or fine axial motion correction") of Non-Patent Document 1 in order to remove motion artifacts in the z direction (axial direction, axial direction). It may be configured to perform the registration corresponding to pages 1789 to 1790).

〈マージ処理部237〉
マージ処理部237は、レジストレーション部236により相対位置調整がなされた基準ストリップと対象ストリップとのマージ画像を構築する。この処理も非特許文献1に記載された手法と同じ要領で実行される。
<Merge processing unit 237>
The merge processing unit 237 constructs a merged image of the reference strip and the target strip whose relative positions have been adjusted by the registration unit 236. This process is also performed in the same manner as the method described in Non-Patent Document 1.

前述したように、データ処理部230は、画像構築部220により構築された複数のストリップを大きさに応じた順序付けに従って、上記した一連の処理を逐次に実行する。これにより、画像構築部220により構築された複数のストリップから、モーションアーティファクトが補正された画像が得られる。得られた画像は、典型的には、リサージュスキャンが適用された範囲全体を表現した画像である。 As described above, the data processing unit 230 sequentially executes the above-mentioned series of processes according to the ordering of the plurality of strips constructed by the image construction unit 220 according to the size. As a result, an image corrected with motion artifacts can be obtained from the plurality of strips constructed by the image constructing unit 220. The resulting image is typically an image representing the entire area to which the Lissajous scan has been applied.

〈ユーザーインターフェイス240〉
ユーザーインターフェイス240は表示部241と操作部242とを含む。表示部241は表示装置3を含む。操作部242は各種の操作デバイスや入力デバイスを含む。ユーザーインターフェイス240は、例えばタッチパネルのような表示機能と操作機能とが一体となったデバイスを含んでいてもよい。ユーザーインターフェイス240の少なくとも一部を含まない実施形態を構築することも可能である。例えば、表示デバイスは、眼科装置1に接続された外部装置であってよい。
<User interface 240>
The user interface 240 includes a display unit 241 and an operation unit 242. The display unit 241 includes a display device 3. The operation unit 242 includes various operation devices and input devices. The user interface 240 may include a device such as a touch panel in which a display function and an operation function are integrated. It is also possible to build embodiments that do not include at least part of the user interface 240. For example, the display device may be an external device connected to the ophthalmic device 1.

〈動作〉
眼科装置1の動作について説明する。眼科装置1の動作の例を図6に示す。なお、患者IDの入力、走査モードの設定(リサージュスキャンの指定)、固視標の提示、アライメント、フォーカス調整、OCT光路長調整など、従来と同様の準備的な処理は、既になされたものとする。
<motion>
The operation of the ophthalmic apparatus 1 will be described. An example of the operation of the ophthalmic apparatus 1 is shown in FIG. It should be noted that the same preparatory processing as before, such as inputting the patient ID, setting the scanning mode (designating the resage scan), presenting the fixation target, alignment, focus adjustment, and OCT optical path length adjustment, has already been performed. To do.

(S1:リサージュスキャン)
所定の走査開始トリガー信号を受けて、走査制御部2111は、被検眼E(眼底Ef)に対するOCTスキャン(リサージュスキャン)の適用を開始する。
(S1: Lissajous scan)
Upon receiving the predetermined scanning start trigger signal, the scanning control unit 2111 starts applying the OCT scan (risage scan) to the eye E (fundus Ef) to be inspected.

走査開始トリガー信号は、例えば、所定の準備動作(アライメント、フォーカス調整、OCT光路長調整など)が完了したことに対応して、又は、操作部242を用いて走査開始指示操作が行われたことに対応して生成される。 The scanning start trigger signal indicates, for example, that a scanning start instruction operation has been performed in response to the completion of predetermined preparatory operations (alignment, focus adjustment, OCT optical path length adjustment, etc.) or by using the operation unit 242. Is generated corresponding to.

走査制御部2111は、走査プロトコル2121(リサージュスキャンに対応したプロトコル)に基づいて光スキャナ44及びOCTユニット100などを制御することによってリサージュスキャンを眼底Efに適用する。リサージュスキャンにより収集されたデータは画像構築部220に送られる。 The scan control unit 2111 applies the lisage scan to the fundus Ef by controlling the optical scanner 44, the OCT unit 100, and the like based on the scan protocol 2121 (protocol corresponding to the lisage scan). The data collected by the Lissajous scan is sent to the image construction unit 220.

(S2:複数のストリップを構築)
画像構築部220は、前述した要領で、ステップS1で収集されたデータに基づいて複数のストリップを構築する。構築された複数のストリップはデータ処理部230に送られる。
(S2: Build multiple strips)
The image construction unit 220 constructs a plurality of strips based on the data collected in step S1 as described above. The constructed strips are sent to the data processing unit 230.

(S3:基準ストリップと対象ストリップを設定する)
データ処理部230は、ステップS2で構築された複数のストリップを寸法(面積等)に従って順序付けする。本例では、ステップS2で構築された複数のストリップの個数をN個(Nは2以上の整数)であるとする。また、順序付けにより指定された順序に従って、これらN個のストリップを、第1のストリップ、第2のストリップ、・・・、第Nのストリップと呼ぶ。また、第1〜第Nのストリップのうちの任意のストリップを第nのストリップと呼ぶことがある(n=1、2、・・・、N)。このように、第1のストリップは最も大きなストリップであり、第2のストリップは2番目に大きなストリップであり、第nのストリップはn番目に大きなストリップであり、第Nのストリップは最も小さなストリップである。
(S3: Set the reference strip and the target strip)
The data processing unit 230 orders the plurality of strips constructed in step S2 according to the dimensions (area, etc.). In this example, it is assumed that the number of the plurality of strips constructed in step S2 is N (N is an integer of 2 or more). Also, according to the order specified by the ordering, these N strips are referred to as a first strip, a second strip, ..., Nth strip. Further, any strip among the first to Nth strips may be referred to as an nth strip (n = 1, 2, ..., N). Thus, the first strip is the largest strip, the second strip is the second largest strip, the nth strip is the nth largest strip, and the Nth strip is the smallest strip. is there.

本例において、データ処理部230は、第1のストリップを初期基準ストリップに設定し、第2のストリップを初期対象ストリップに設定する。 In this example, the data processing unit 230 sets the first strip as the initial reference strip and the second strip as the initial target strip.

なお、基準ストリップ及び対象ストリップは、それぞれ、非特許文献1のAppendix Aにおける任意形状の画像(arbitrary shaped images)f(r)及びg(r)に相当する。 The reference strip and the target strip correspond to the arbitrary shaped images f (r) and g (r) in Appendix A of Non-Patent Document 1, respectively.

(S4:基準マスク画像と対象マスク画像を設定)
マスク画像生成部231は、基準ストリップに対応するマスク画像(基準マスク画像)と、対象ストリップに対応する対象マスク画像とを生成する。
(S4: Set the reference mask image and the target mask image)
The mask image generation unit 231 generates a mask image (reference mask image) corresponding to the reference strip and a target mask image corresponding to the target strip.

この段階では、マスク画像生成部231は、第1のストリップ及び第2のストリップにそれぞれ対応する2つのマスク画像を生成する。データ処理部230は、第1のストリップに対応する第1のマスク画像を初期基準マスク画像に設定し、第2のストリップに対応する第2のマスク画像を初期対象マスク画像に設定する。 At this stage, the mask image generation unit 231 generates two mask images corresponding to the first strip and the second strip, respectively. The data processing unit 230 sets the first mask image corresponding to the first strip as the initial reference mask image, and sets the second mask image corresponding to the second strip as the initial target mask image.

なお、基準マスク画像及び対象マスク画像は、それぞれ、非特許文献1のAppendix Aにおける矩形状の二値画像マスク(rectangular shaped binary image masks)m(r)及びm(r)に相当する。 The reference mask image and the target mask image correspond to rectangular shaped binary image masks m f (r) and mg (r) in Appendix A of Non-Patent Document 1, respectively.

(S5:基準ストリップと対象ストリップを正規化)
範囲調整部232は、前述した要領で、ステップS3で設定された基準ストリップと対象ストリップに正規化を施す。ストリップの正規化は、マスク画像の画素値の範囲に応じて行われる。この段階においては、範囲調整部232は、第1のストリップ(基準ストリップ)及び第2のストリップ(対象ストリップ)に正規化を適用する。なお、範囲調整部232が実行する処理は正規化には限定されず、前述した範囲調整処理のいずれか又はそれに類する処理であってよい。
(S5: Normalize the reference strip and the target strip)
The range adjusting unit 232 normalizes the reference strip and the target strip set in step S3 as described above. Strip normalization is performed according to the range of pixel values of the mask image. At this stage, the range adjuster 232 applies normalization to the first strip (reference strip) and the second strip (target strip). The process executed by the range adjustment unit 232 is not limited to normalization, and may be any of the above-mentioned range adjustment processes or a process similar thereto.

本例において、各マスク画像の画素値の範囲は閉区間[0,1]に含まれるものとする。特に、本例の各マスク画像は、対応するストリップの定義域に相当する領域内の画素値が1に設定され且つ他の画素の値が0に設定された二値画像であるものとする。 In this example, the range of pixel values of each mask image is included in the closed interval [0,1]. In particular, it is assumed that each mask image of this example is a binary image in which the pixel value in the region corresponding to the domain of the corresponding strip is set to 1 and the values of the other pixels are set to 0.

範囲調整部232は、例えば、ストリップの各画素の値をこのストリップにおける最大画素値で除算することにより、又は、ストリップの各画素の値をこのストリップの画素値の範囲(階調範囲)の最大値で除算することにより、このストリップの正規化を行う。 The range adjustment unit 232, for example, divides the value of each pixel of the strip by the maximum pixel value in this strip, or divides the value of each pixel of the strip by the maximum pixel value range (gradation range) of this strip. Normalize this strip by dividing by a value.

また、データ処理部230(合成画像生成部233)は、画素値範囲が正規化されたストリップを、対応するマスク画像と同じ寸法及び同じ形状の画像に埋め込む。正規化された第1のストリップf(r)の埋め込み画像は、非特許文献1のAppendix Aにおける矩形状の画像(rectangular shaped image)f´(r)に類する画像であるが、第1のストリップf(r)の画像エリア内の値域の絶対値(|f(r)|)が1以下に正規化されている。この埋め込み画像を同じくf´(r)と表す。 Further, the data processing unit 230 (composite image generation unit 233) embeds a strip having a normalized pixel value range in an image having the same size and shape as the corresponding mask image. The embedded image of the normalized first strip f (r) is an image similar to the rectangular shaped image f'(r) in Appendix A of Non-Patent Document 1, but the first strip. The absolute value (| f (r) |) of the range in the image area of f (r) is normalized to 1 or less. This embedded image is also represented as f'(r).

同様に、正規化された第2のストリップg(r)の埋め込み画像は、矩形状の画像g´(r)に類する画像であるが、第2のストリップg(r)の画像エリア内の値域の絶対値(|g(r)|)が1以下に正規化されている。この埋め込み画像を同じくg´(r)と表す。 Similarly, the embedded image of the normalized second strip g (r) is an image similar to the rectangular image g'(r), but with a range within the image area of the second strip g (r). The absolute value of (| g (r) |) is normalized to 1 or less. This embedded image is also represented as g'(r).

(S6:基準合成画像と対象合成画像を生成)
合成画像生成部233は、正規化されたストリップの埋め込み画像と、対応するマスク画像との合成画像を生成する。
(S6: Generate reference composite image and target composite image)
The composite image generation unit 233 generates a composite image of the embedded image of the normalized strip and the corresponding mask image.

この段階においては、合成画像生成部233は、正規化された第1のストリップ(基準ストリップ)の埋め込み画像と、第1のマスク画像(基準マスク画像)との合成画像を生成し、且つ、正規化された第2のストリップ(対象ストリップ)の埋め込み画像と、第2のマスク画像(対象マスク画像)との合成画像を生成する。前者の合成画像を基準合成画像と呼び、後者を対象合成画像と呼ぶ。 At this stage, the composite image generation unit 233 generates a composite image of the normalized first strip (reference strip) embedded image and the first mask image (reference mask image), and is normal. A composite image of the embedded image of the second strip (target strip) and the second mask image (target mask image) is generated. The former composite image is called a reference composite image, and the latter is called a target composite image.

ここで、基準合成画像及び対象合成画像は、それぞれ、非特許文献1のAppendix Aにおける2つの矩形状の画像の組み合わせ(combination of two rectangle shaped images)f´(r)m(r)及びg´(r)m(r)に相当する。ただし、前述したように、第1のストリップf(r)の画像エリア内の値域の絶対値(|f(r)|)は1以下であり、且つ、第2のストリップg(r)の画像エリア内の値域の絶対値(|g(r)|)は1以下である。 Here, the reference composite image and the target composite image are the combination of two rectangular shaped images in Appendix A of Non-Patent Document 1, respectively (combination of two rectangular shaped images) f'(r) m f (r) and g. It corresponds to ´ (r) mg (r). However, as described above, the absolute value (| f (r) |) of the range in the image area of the first strip f (r) is 1 or less, and the image of the second strip g (r). The absolute value (| g (r) |) of the range in the area is 1 or less.

図7Aの画像311は、正規化された第1のストリップf(r)の埋め込み画像f´(r)の例であり、画像321は、第1のマスク画像の例である。これら2つの画像311及び321を組み合わせることによって基準合成画像f´(r)m(r)が得られる。 Image 311 of FIG. 7A is an example of the embedded image f'(r) of the normalized first strip f (r), and image 321 is an example of the first mask image. By combining these two images 311 and 321, a reference composite image f'(r) m f (r) can be obtained.

同様に、図7Bの画像312は、正規化された第2のストリップf(r)の埋め込み画像g´(r)の例であり、画像322は、第2のマスク画像の例である。これら2つの画像312及び322を組み合わせることによって基準合成画像g´(r)m(r)が得られる。 Similarly, image 312 of FIG. 7B is an example of the embedded image g'(r) of the normalized second strip f (r), and image 322 is an example of the second mask image. By combining these two images 312 and 322, a reference composite image g '(r) mg (r) is obtained.

(S7:複数の相互相関関数を算出)
相互相関関数算出部234は、ステップS6で生成された基準合成画像及び対象合成画像に基づいて複数の相互相関関数を算出する。本例では、相互相関関数算出部234は、ステップS6で生成された基準合成画像及び対象合成画像に基づいて、非特許文献1の式(33)に含まれる6個の相互相関関数を算出する。
(S7: Calculate multiple cross-correlation functions)
The cross-correlation function calculation unit 234 calculates a plurality of cross-correlation functions based on the reference composite image and the target composite image generated in step S6. In this example, the cross-correlation function calculation unit 234 calculates six cross-correlation functions included in the equation (33) of Non-Patent Document 1 based on the reference composite image and the target composite image generated in step S6. ..

(S8:相関係数を算出)
相関係数算出部235は、ステップS7で算出された複数の相互相関関数に基づいて相関係数を算出する。本例では、相関係数算出部235は、非特許文献1の式(33)に従って、ステップS7で算出された複数の相互相関関数から相関係数(ρ(r´))を算出する。
(S8: Calculate the correlation coefficient)
The correlation coefficient calculation unit 235 calculates the correlation coefficient based on the plurality of cross-correlation functions calculated in step S7. In this example, the correlation coefficient calculation unit 235 calculates the correlation coefficient (ρ (r')) from the plurality of cross-correlation functions calculated in step S7 according to the equation (33) of Non-Patent Document 1.

(S9:基準ストリップと対象ストリップとの間のレジストレーション)
基準ストリップ及び対象ストリップに対して、レジストレーション部236は、ステップS8で算出された相関係数に基づきxy方向のレジストレーション(rough lateral motion correction)を適用する。この段階では、第1のストリップf(r)と第2のストリップとの間のレジストレーションが行われる。
(S9: Registration between the reference strip and the target strip)
The registration unit 236 applies registration (rough lateral motion correction) in the xy direction to the reference strip and the target strip based on the correlation coefficient calculated in step S8. At this stage, registration between the first strip f (r) and the second strip is performed.

本例では、ステップS8で算出された相関係数ρ(r´)のピークを検出することにより、基準ストリップと対象ストリップとの間の相対的なシフト量(Δx、Δy)が求められる。 In this example, the relative shift amount (Δx, Δy) between the reference strip and the target strip is obtained by detecting the peak of the correlation coefficient ρ (r ′) calculated in step S8.

更に、レジストレーション部236は、前述した「fine lateral motion correction」や「axial motion correction」などのレジストレーションを基準ストリップ及び対象ストリップに対して適用する。 Further, the registration unit 236 applies registrations such as the above-mentioned "fine lateral motion correction" and "axial motion correction" to the reference strip and the target strip.

(S10:基準ストリップと対象ストリップのマージ画像を構築)
マージ処理部237は、ステップS9のレジストレーションにより相対位置調整がなされた基準ストリップと対象ストリップとのマージ画像を構築する。図7Cの画像330は、第1のストリップと第2のストリップとのマージ画像の例を示す。
(S10: Build a merged image of the reference strip and the target strip)
The merge processing unit 237 constructs a merged image of the reference strip and the target strip whose relative positions have been adjusted by the registration in step S9. Image 330 of FIG. 7C shows an example of a merged image of the first strip and the second strip.

(S11:全てのストリップを処理したか?)
ステップS2で得られたN個のストリップの全てに対し、前述した順序に従って逐次に、ステップS3〜S10の一連の処理が実行される。
(S11: Did you process all the strips?)
A series of processes of steps S3 to S10 are sequentially executed in the order described above for all of the N strips obtained in step S2.

Nが3以上の場合において、ステップS10で第1のストリップと第2のストリップとのマージ画像が作成された場合(S11:No)、処理はステップS3に戻る。ステップS3では、第1のストリップと第2のストリップとのマージ画像が新たな基準ストリップに設定され、且つ、第3のストリップが新たな対象ストリップに設定される。新たな基準ストリップと新たな対象ストリップに基づきステップS4〜S10の処理を実行することにより、新たな基準ストリップと新たな対象ストリップとのマージ画像が得られる。この新たなマージ画像は、第1〜第3のストリップのマージ画像である。このような一連の処理をN個のストリップに対して逐次に適用することにより、N個のストリップの全てのマージ画像が得られる(S11:Yes)。 When N is 3 or more and a merged image of the first strip and the second strip is created in step S10 (S11: No), the process returns to step S3. In step S3, the merged image of the first strip and the second strip is set as the new reference strip, and the third strip is set as the new target strip. By executing the processes of steps S4 to S10 based on the new reference strip and the new target strip, a merged image of the new reference strip and the new target strip is obtained. This new merged image is a merged image of the first to third strips. By sequentially applying such a series of processes to N strips, all merged images of N strips can be obtained (S11: Yes).

(S12:最終的なマージ画像を保存する)
以上に説明した繰り返し処理により最終的に得られたマージ画像は、モーションアーティファクトが補正された画像であり、且つ、ステップS1のリサージュスキャンの適用範囲全体を表現した画像である。主制御部211は、この最終的なマージ画像を記憶部212(及び/又は、他の記憶装置)に保存する。
(S12: Save the final merged image)
The merged image finally obtained by the iterative process described above is an image in which motion artifacts have been corrected and represents the entire applicable range of the resage scan in step S1. The main control unit 211 stores the final merged image in the storage unit 212 (and / or another storage device).

データ処理部230は、N個のストリップに基づくレジストレーションの結果を利用して、ステップS1で収集されたデータ(3次元データ)、及び/又は、この3次元データから画像構築部220が構築した3次元画像データのレジストレーションを行うことができる。このレジストレーションは、リサージュスキャンの定義座標系を3次元直交座標系(xyz座標系)に変換する処理を含む。この座標変換は、非特許文献1に記載された手法における「remapping」に相当する。主制御部211は、このようにして得られた3次元画像データを、最終的なマージ画像とともに又はその代わりに、記憶部212(及び/又は、他の記憶装置)に保存することができる(エンド)。 The data processing unit 230 was constructed by the image construction unit 220 from the data (three-dimensional data) collected in step S1 and / or the three-dimensional data by utilizing the registration result based on N strips. Registration of 3D image data can be performed. This registration includes a process of converting the definition coordinate system of the Lissajous scan into a three-dimensional Cartesian coordinate system (xyz coordinate system). This coordinate transformation corresponds to "remapping" in the method described in Non-Patent Document 1. The main control unit 211 can store the three-dimensional image data thus obtained in the storage unit 212 (and / or another storage device) together with or instead of the final merged image (and / or other storage device). End).

主制御部211は、最終的なマージ画像を表示部241(及び/又は、他の表示装置)に表示させることができる。また、データ処理部230は、上記座標変換で構築された3次元画像データから任意のレンダリング画像を作成することができる。主制御部211は、このレンダリング画像を表示部241(及び/又は、他の表示装置)に表示させることができる。 The main control unit 211 can display the final merged image on the display unit 241 (and / or another display device). In addition, the data processing unit 230 can create an arbitrary rendered image from the three-dimensional image data constructed by the coordinate transformation. The main control unit 211 can display this rendered image on the display unit 241 (and / or another display device).

ここで、ステップS7〜S10の処理の実装例を説明する。まず、f´(r)m(r)、g´(r)m(r)、m(r)、m(r)、(f´(r)m(r))、及び(g´(r)m(r))のそれぞれの虚部(imaginary part)を0に設定し、実部(real part)のみにする。 Here, an implementation example of the processing of steps S7 to S10 will be described. First, f'(r) m f (r), g '(r) mg (r), m f (r), mg (r), (f'(r) m f (r)) 2 , And (g '(r) mg (r)) 2 is set to 0 for each imaginary part, and only the real part is set.

次に、f´(r)m(r)、g´(r)m(r)、m(r)、m(r)、(f´(r)m(r))、及び(g´(r)m(r))のそれぞれの実部に対して高速フーリエ変換(FFT)を適用する。 Next, f'(r) m f (r), g '(r) mg (r), m f (r), mg (r), (f'(r) m f (r)) 2 , And (g '(r) mg (r)) Apply a fast Fourier transform (FFT) to each real part of 2.

次に、これらの高速フーリエ変換で得られた関数群に基づいて、図6のステップS7に示された6個の相互相関関数を算出する。 Next, the six cross-correlation functions shown in step S7 of FIG. 6 are calculated based on the function group obtained by these fast Fourier transforms.

次に、算出された6個の相互相関関数のそれぞれに逆高速フーリエ変換(IFFT)を適用する。 Next, an inverse fast Fourier transform (IFFT) is applied to each of the calculated six cross-correlation functions.

次に、非特許文献1の式(33)の相関係数ρ(r´)を算出する。 Next, the correlation coefficient ρ (r') of the formula (33) of Non-Patent Document 1 is calculated.

そして、相関係数ρ(r´)のピーク位置を特定することによって基準ストリップf(r)と対象ストリップg(r)との間の相対的なシフト量(Δx、Δy)を算出し、このシフト量に基づいて基準ストリップf(r)と対象ストリップg(r)との間のレジストレーション及びマージ処理を実行する。 Then, the relative shift amount (Δx, Δy) between the reference strip f (r) and the target strip g (r) is calculated by specifying the peak position of the correlation coefficient ρ (r ′). A registration and merge process between the reference strip f (r) and the target strip g (r) is performed based on the shift amount.

このような一連の処理をN個のストリップに対して逐次に適用することにより、N個のストリップの全てのマージ画像が得られる。 By sequentially applying such a series of processes to N strips, all merged images of N strips can be obtained.

〈作用、効果等〉
例示的な実施形態の幾つかの特徴について説明し、それらにより奏される幾つかの作用及び幾つかの効果について説明する。
<Action, effect, etc.>
Some features of the exemplary embodiments will be described, and some actions and some effects exerted by them will be described.

上記の例示的な実施形態に係る眼科装置1は、走査型イメージング装置の幾つかの態様を提供する。それに加えて、上記の例示的な実施形態に係る眼科装置1は、走査型イメージング装置を制御する方法の幾つかの態様、画像処理装置の幾つかの態様、画像処理装置を制御する方法の幾つかの態様、画像処理方法の幾つかの態様、及び、走査型イメージング方法の幾つかの態様を提供する。 The ophthalmic apparatus 1 according to the above exemplary embodiment provides some aspects of a scanning imaging apparatus. In addition, the ophthalmologic apparatus 1 according to the above exemplary embodiment includes some aspects of the method of controlling the scanning imaging apparatus, some aspects of the image processing apparatus, and some methods of controlling the image processing apparatus. The present aspect, some aspects of the image processing method, and some aspects of the scanning imaging method are provided.

なお、走査型イメージング装置を制御する方法の幾つかの態様、画像処理装置の幾つかの態様、画像処理装置を制御する方法の幾つかの態様、画像処理方法の幾つかの態様、及び、走査型イメージング方法の幾つかの態様のいずれかにおいて説明された事項を、上記の例示的な実施形態に係る眼科装置1(より一般に、走査型イメージング装置のいずれかの態様)に適用することが可能である。 It should be noted that some aspects of the method of controlling the scanning imaging apparatus, some aspects of the image processing apparatus, some aspects of the method of controlling the image processing apparatus, some aspects of the image processing method, and scanning. The matters described in any of several aspects of the type imaging method can be applied to the ophthalmic apparatus 1 (more generally, any aspect of the scanning imaging apparatus) according to the above exemplary embodiment. Is.

さて、例示的な実施形態に係る走査型イメージング装置(眼科装置1)は、走査部と、画像構築部220と、マスク画像生成部231と、範囲調整部232と、合成画像生成部233と、相互相関関数算出部234(第1算出部)と、相関係数算出部235(第2算出部)と、レジストレーション部236と、マージ処理部237とを含む。 The scanning imaging apparatus (ophthalmic apparatus 1) according to the exemplary embodiment includes a scanning unit, an image construction unit 220, a mask image generation unit 231, a range adjustment unit 232, a composite image generation unit 233, and the like. It includes a cross-correlation function calculation unit 234 (first calculation unit), a correlation coefficient calculation unit 235 (second calculation unit), a registration unit 236, and a merge processing unit 237.

走査部は、サンプル(被検眼E、眼底Ef)に光走査を適用してデータを収集するように構成されている。この光走査は、一連のサイクルを含む2次元パターンに従って実行される。 The scanning unit is configured to apply optical scanning to a sample (eye to be inspected E, fundus Ef) to collect data. This optical scan is performed according to a two-dimensional pattern that includes a series of cycles.

幾つかの例示的な態様において、光走査の2次元パターンに含まれる一連のサイクルのうちの任意の2つのサイクルは、少なくとも1点で互いに交差していてよい。 In some exemplary embodiments, any two cycles of the series of cycles included in the two-dimensional pattern of optical scanning may intersect each other at at least one point.

更に、幾つかの例示的な態様において、サンプルに適用される光走査は、リサージュ関数に基づき予め設定された走査プロトコルに基づく2次元パターンに従って実行されてよい。このような光走査の一例が、上記の例示的な実施形態におけるリサージュスキャンである。 Further, in some exemplary embodiments, the optical scan applied to the sample may be performed according to a two-dimensional pattern based on a preset scan protocol based on the resage function. An example of such an optical scan is the Lissajous scan in the above exemplary embodiment.

幾つかの例示的な態様において、走査部は、互いに異なる第1方向(x方向)及び第2方向(y方向)に光を偏向可能な偏向器(光スキャナ44)を含み、第1方向に沿った偏向方向の変化を第1周期で繰り返しつつ第2方向に沿った偏向方向の変化を第1周期と異なる第2周期で繰り返すことによって、2次元パターンに従う光走査をサンプルに適用するように構成されていてよい。 In some exemplary embodiments, the scanning unit comprises a deflector (optical scanner 44) capable of deflecting light in different first directions (x directions) and second directions (y directions) and in the first direction. By repeating the change in the deflection direction along the first cycle and the change in the deflection direction along the second direction in the second cycle different from the first cycle, the optical scanning according to the two-dimensional pattern is applied to the sample. It may be configured.

上記の例示的な実施形態において、走査部は、OCTユニット100と、測定アームを構成する眼底カメラユニット2内の要素(リトロリフレクタ41、OCT合焦レンズ43、光スキャナ44、対物レンズ22等)とを含み、被検眼EにOCTスキャンを適用してOCTデータを収集する。 In the above exemplary embodiment, the scanning unit includes an OCT unit 100 and elements in the fundus camera unit 2 constituting the measurement arm (retroreflector 41, OCT focusing lens 43, optical scanner 44, objective lens 22, etc.). OCT data is collected by applying an OCT scan to the eye E to be inspected.

画像構築部220は、走査部により収集されたデータに基づいて第1画像及び第2画像を構築するように構成されている。上記の例示的な実施形態における基準ストリップ及び対象ストリップの組み合わせは、第1画像及び第2画像の組み合わせの一例である。 The image construction unit 220 is configured to construct a first image and a second image based on the data collected by the scanning unit. The combination of the reference strip and the target strip in the above exemplary embodiment is an example of the combination of the first image and the second image.

幾つかの例示的な態様において、光走査の2次元パターンに含まれる一連のサイクルのうちの任意の2つのサイクルが、少なくとも1点で互いに交差する場合、画像構築部220は、一連のサイクルのうちの第1サイクル群に従う光走査で収集された第1データに基づいて第1画像を構築し、且つ、一連のサイクルのうち第1サイクル群と異なる第2サイクル群に従う光走査で収集された第2データに基づいて第2画像を構築するように構成されていてよい。 In some exemplary embodiments, if any two cycles of the series of cycles included in the two-dimensional pattern of optical scanning intersect each other at at least one point, the image builder 220 will see the series of cycles. The first image was constructed based on the first data collected by the optical scan according to the first cycle group, and was collected by the optical scan according to the second cycle group different from the first cycle group in the series of cycles. It may be configured to construct a second image based on the second data.

例えば、上記の例示的な実施形態におけるリサージュスキャンのように、光走査の2次元パターンがリサージュ関数に基づき予め設定された走査プロトコルに従っている場合、画像構築部220は、この2次元パターンに含まれる一連のサイクルのうちの第1サイクル群に従う光走査で収集された第1データに基づいて第1画像を構築し、且つ、一連のサイクルのうち第1サイクル群と異なる第2サイクル群に従う光走査で収集された第2データに基づいて第2画像を構築するように構成されていてよい。 For example, when the two-dimensional pattern of optical scanning follows a preset scanning protocol based on the resage function, as in the resage scan in the above exemplary embodiment, the image construction unit 220 is included in this two-dimensional pattern. An optical scan that constructs a first image based on the first data collected by an optical scan that follows the first cycle group of a series of cycles and that follows a second cycle group that is different from the first cycle group of the series of cycles. It may be configured to construct a second image based on the second data collected in.

上記の例示的な実施形態では、一連のサイクルに従う光走査から得られたボリュームのうち、比較的大きな動きが介在しない(第1サイクル群に対応する)第1のサブボリュームの正面プロジェクション画像が第1画像(第1のストリップ)に設定され、比較的大きな動きが介在しない(第1サイクル群とは異なる第2サイクル群に対応する)第2のサブボリュームの正面プロジェクション画像が第2画像(第2のストリップ)に設定される。 In the above exemplary embodiment, of the volumes obtained from optical scanning following a series of cycles, the front projection image of the first subvolume (corresponding to the first cycle group) without the intervention of relatively large movements is the first. The front projection image of the second subvolume, which is set to one image (first strip) and does not involve relatively large movements (corresponding to the second cycle group different from the first cycle group), is the second image (second image). 2 strips).

画像構築部220により構築された第1画像及び第2画像について、マスク画像生成部231は、第1画像に応じた第1マスク画像と、第2画像に応じた第2マスク画像とを生成するように構成されている。なお、ここに言う「第1マスク画像」及び「第2マスク画像」は、上記の例示的な実施形態において複数のストリップに付与された順序に対応する「第1のマスク画像」及び「第2のマスク画像」とは異なる。 Regarding the first image and the second image constructed by the image construction unit 220, the mask image generation unit 231 generates a first mask image corresponding to the first image and a second mask image corresponding to the second image. It is configured as follows. The "first mask image" and the "second mask image" referred to here are the "first mask image" and the "second mask image" corresponding to the order given to the plurality of strips in the above exemplary embodiment. It is different from "mask image".

幾つかの例示的な態様において、マスク画像(第1マスク画像、第2マスク画像)の画素値の範囲は、閉区間[0,1]に含まれていてよい。 In some exemplary embodiments, the range of pixel values of the mask image (first mask image, second mask image) may be included in the closed interval [0,1].

更に、幾つかの例示的な態様において、マスク画像(第1マスク画像、第2マスク画像)は、画素値が0又は1の二値画像であってよい。 Further, in some exemplary embodiments, the mask image (first mask image, second mask image) may be a binary image with a pixel value of 0 or 1.

例えば、上記の例示的な実施形態のように、マスク画像(第1マスク画像、第2マスク画像)は、サンプルの画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であってよい。 For example, as in the above exemplary embodiment, the mask image (first mask image, second mask image) has a pixel value of 1 in the region corresponding to the domain of the sample image, and other mask images. It may be a binary image in which the pixel value is 0.

幾つかの例示的な態様において、第1マスク画像及び第2マスク画像は、同じ寸法及び同じ形状を有していてよい。 In some exemplary embodiments, the first mask image and the second mask image may have the same dimensions and the same shape.

範囲調整部232は、第1マスク画像の画素値の範囲及び第2マスク画像の画素値の範囲に基づいて第1画像の画素値の範囲及び第2画像の画素値の範囲を調整するように構成されている。 The range adjusting unit 232 adjusts the pixel value range of the first image and the pixel value range of the second image based on the pixel value range of the first mask image and the pixel value range of the second mask image. It is configured.

幾つかの例示的な態様において、範囲調整部232は、サンプルの画像(第1画像、第2画像)の画素値の範囲とマスク画像(第1マスク画像、第2マスク画像)の画素値の範囲との間の差を小さくするように構成されていてよい。例えば、上記の例示的な実施形態のように、範囲調整部232は、サンプルの画像(第1画像、第2画像)の画素値の範囲とマスク画像(第1マスク画像、第2マスク画像)の画素値の範囲とを一致させるように構成されていてよい。 In some exemplary embodiments, the range adjuster 232 sets the pixel value range of the sample image (first image, second image) and the pixel value of the mask image (first mask image, second mask image). It may be configured to reduce the difference from the range. For example, as in the above exemplary embodiment, the range adjusting unit 232 uses the pixel value range of the sample image (first image, second image) and the mask image (first mask image, second mask image). It may be configured to match the range of pixel values of.

更に、幾つかの例示的な態様において、範囲調整部232は、サンプルの画像(第1画像、第2画像)及びマスク画像(第1マスク画像、第2マスク画像)の一方の画素値の範囲を他方の画素値の範囲に一致させるように構成されてよい。例えば、上記の例示的な実施形態のように、範囲調整部232は、サンプルの画像(第1画像、第2画像)の画素値の範囲をマスク画像(第1マスク画像、第2マスク画像)の画素値の範囲に一致させるように構成されていてよい。すなわち、範囲調整部232は、サンプルの画像(第1画像、第2画像)の画素値の範囲と、マスク画像(第1マスク画像、第2マスク画像)の画素値の範囲とを一致させるために、サンプルの画像(第1画像、第2画像)の画素値の範囲を変更するように構成されてよい。 Further, in some exemplary embodiments, the range adjuster 232 ranges the pixel values of one of the sample image (first image, second image) and mask image (first mask image, second mask image). May be configured to match the range of the other pixel value. For example, as in the above exemplary embodiment, the range adjusting unit 232 masks the pixel value range of the sample image (first image, second image) as a mask image (first mask image, second mask image). It may be configured to match the range of pixel values of. That is, the range adjusting unit 232 is for matching the pixel value range of the sample image (first image, second image) with the pixel value range of the mask image (first mask image, second mask image). In addition, the range of pixel values of the sample images (first image, second image) may be changed.

幾つかの例示的な態様において、範囲調整部232は、マスク画像(第1マスク画像、第2マスク画像)の画素値の範囲に応じてサンプルの画像(第1画像、第2画像)の画素値の範囲を正規化(規格化)するように構成されていてよい。 In some exemplary embodiments, the range adjuster 232 has pixels of the sample image (first image, second image) depending on the range of pixel values of the mask image (first mask image, second mask image). It may be configured to normalize (standardize) the range of values.

例えば、マスク画像(第1マスク画像、第2マスク画像)の画素値の範囲が閉区間[0,1]に含まれている場合において、範囲調整部232は、サンプルの画像(第1画像、第2画像)の各画素の値を、当該画像における最大画素値で除算することによって、当該画像の画素値の範囲を正規化するように構成されていてよい。 For example, when the range of pixel values of the mask image (first mask image, second mask image) is included in the closed section [0,1], the range adjustment unit 232 uses the sample image (first image, first image, The value of each pixel of the second image) may be configured to normalize the range of pixel values of the image by dividing by the maximum pixel value of the image.

他の例において、マスク画像(第1マスク画像、第2マスク画像)の画素値の範囲が閉区間[0,1]に含まれている場合において、範囲調整部232は、サンプルの画像(第1画像、第2画像)の各画素の値を、当該画像の画素値の範囲の最大値で除算することによって、当該画像の画素値の範囲を正規化するように構成されていてよい。 In another example, when the range of pixel values of the mask image (first mask image, second mask image) is included in the closed section [0,1], the range adjustment unit 232 uses the sample image (first mask image, second mask image). The value of each pixel of the 1st image and the 2nd image) may be divided by the maximum value of the pixel value range of the image to normalize the pixel value range of the image.

合成画像生成部233は、サンプルの第1画像に第1マスク画像を合成して第1合成画像を生成し、且つ、第2画像に第2マスク画像を合成して第2合成画像を生成するように構成されている。 The composite image generation unit 233 synthesizes the first mask image with the first image of the sample to generate the first composite image, and synthesizes the second mask image with the second image to generate the second composite image. It is configured as follows.

幾つかの例示的な態様において、第1マスク画像及び第2マスク画像は、同じ寸法及び同じ形状を有していてよい。更に、第1マスク画像は、第1画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であってよく、且つ、第2マスク画像は、第2画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であってよい。 In some exemplary embodiments, the first mask image and the second mask image may have the same dimensions and the same shape. Further, the first mask image may be a binary image in which the value of the pixel in the region corresponding to the domain of the first image is 1 and the value of the other pixel is 0, and the second mask. The image may be a binary image in which the value of the pixel in the region corresponding to the domain of the second image is 1 and the value of the other pixel is 0.

上記の例示的な実施形態では、第1マスク画像と第2マスク画像とは、同じ寸法及び同じ形状を有する。合成画像生成部233は、任意形状の第1画像及び任意形状の第2画像のそれぞれを、これらマスク画像と同じ寸法及び同じ形状の埋め込み画像に変換するように構成されている。更に、合成画像生成部233は、第1画像の埋め込み画像と第1マスク画像とを合成し、且つ、第2画像の埋め込み画像と第2マスク画像とが合成するように構成されている。 In the above exemplary embodiment, the first mask image and the second mask image have the same dimensions and the same shape. The composite image generation unit 233 is configured to convert each of the first image having an arbitrary shape and the second image having an arbitrary shape into embedded images having the same dimensions and the same shape as the mask images. Further, the composite image generation unit 233 is configured so that the embedded image of the first image and the first mask image are combined, and the embedded image of the second image and the second mask image are combined.

或いは、上記の例示的な実施形態において、合成画像生成部233は、任意形状の第1画像及び任意形状の第2画像を、互いに同じ寸法及び同じ形状の埋め込み画像にそれぞれ変換するように構成されていてよい。また、マスク画像生成部231は、これらサンプルの画像と同じ寸法及び同じ形状を有する第1マスク画像と第2マスク画像をそれぞれ生成するように構成されていてよい。更に、合成画像生成部233は、第1画像の埋め込み画像と第1マスク画像とを合成し、且つ、第2画像の埋め込み画像と第2マスク画像とが合成するように構成されていてよい。 Alternatively, in the above exemplary embodiment, the composite image generation unit 233 is configured to convert the first image of the arbitrary shape and the second image of the arbitrary shape into embedded images having the same dimensions and the same shape. You may be. Further, the mask image generation unit 231 may be configured to generate a first mask image and a second mask image having the same dimensions and the same shape as the images of these samples, respectively. Further, the composite image generation unit 233 may be configured so that the embedded image of the first image and the first mask image are combined, and the embedded image of the second image and the second mask image are combined.

相互相関関数算出部234は、合成画像生成部233により生成された第1合成画像及び第2合成画像に基づいて複数の相互相関関数を求めるように構成されている。 The cross-correlation function calculation unit 234 is configured to obtain a plurality of cross-correlation functions based on the first composite image and the second composite image generated by the composite image generation unit 233.

相関係数算出部235は、相互相関関数算出部234により求められた複数の相互相関関数に基づいて相関係数を算出するように構成されている。 The correlation coefficient calculation unit 235 is configured to calculate the correlation coefficient based on a plurality of cross-correlation functions obtained by the cross-correlation function calculation unit 234.

レジストレーション部236は、相関係数算出部235により算出された相関係数に基づいて第1画像と第2画像とのレジストレーションを行うように構成されている。 The registration unit 236 is configured to perform registration between the first image and the second image based on the correlation coefficient calculated by the correlation coefficient calculation unit 235.

マージ処理部237は、レジストレーション部236により実行されたレジストレーションの結果に基づいて第1画像と第2画像とのマージ画像を構築するように構成されている。 The merge processing unit 237 is configured to construct a merged image of the first image and the second image based on the result of the registration executed by the registration unit 236.

上記の例示的な実施形態と同様に、幾つかの例示的な態様において、相互相関関数算出部234(第1算出部)、相関係数算出部235(第2算出部)、レジストレーション部236、及びマージ処理部237のそれぞれが実行する処理及びそのための構成(ハードウェア構成、ソフトウェア構成)は、非特許文献1に記載された手法と同様であってよい。ただし、他の手法を採用することを排除するものではない。 Similar to the above exemplary embodiments, in some exemplary embodiments, the cross-correlation function calculation unit 234 (first calculation unit), the correlation coefficient calculation unit 235 (second calculation unit), and the registration unit 236. , And the processing executed by each of the merging processing unit 237 and the configuration (hardware configuration, software configuration) for the same may be the same as the method described in Non-Patent Document 1. However, it does not exclude the adoption of other methods.

上記の例示的な実施形態に係る眼科装置1により提供可能な画像処理方法の幾つかの態様を説明する。幾つかの例示的な態様において、画像処理方法は、以下に説明する工程を含んでいてよい。 Some aspects of the image processing method that can be provided by the ophthalmic apparatus 1 according to the above exemplary embodiment will be described. In some exemplary embodiments, the image processing method may include the steps described below.

(画像準備工程)
サンプルの第1画像及び第2画像が準備される。例えば、通信回線や記録媒体を介してサンプルの第1画像及び第2画像が受け付けられる。或いは、サンプルに光走査を適用してデータが収集され、第1画像及び第2画像が構築される。第1画像及び第2画像のそれぞれは、一連のサイクルを含む2次元パターンに従う走査をサンプルに適用して収集されたデータに基づき構築される。例えば、第1画像及び第2画像のそれぞれは、リサージュ関数に基づき予め設定された走査プロトコルに基づく2次元パターンに従う走査をサンプルに適用して収集されたデータに基づき構築される。
(Image preparation process)
A first image and a second image of the sample are prepared. For example, the first image and the second image of the sample are accepted via a communication line or a recording medium. Alternatively, light scanning is applied to the sample to collect data and construct the first and second images. Each of the first and second images is constructed based on the data collected by applying a scan according to a two-dimensional pattern involving a series of cycles to the sample. For example, each of the first image and the second image is constructed based on the data collected by applying a scan according to a two-dimensional pattern based on a preset scanning protocol based on the resage function to the sample.

(マスク準備工程)
マスク画像が準備される。例えば、通信回線や記録媒体を介してマスク画像が受け付けられる。或いは、(サンプルの画像に基づいて)マスク画像が生成される。マスク画像の画素値の範囲は閉区間[0,1]に含まれていてよい。典型的には、マスク画像は、画素値が0又は1の二値画像であってよい。例えば、マスク画像は、サンプルの画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であってよい。マスク画像は、第1マスク画像と第2マスク画像とを含んでいてよい。第1マスク画像及び第2マスク画像は、同じ寸法及び同じ形状を有していてよい。第1マスク画像は、サンプルの第1画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であってよく、且つ、第2マスク画像は、サンプルの第2画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であってよい。
(Mask preparation process)
A mask image is prepared. For example, a mask image is accepted via a communication line or a recording medium. Alternatively, a mask image is generated (based on the sample image). The range of pixel values of the mask image may be included in the closed interval [0,1]. Typically, the mask image may be a binary image with a pixel value of 0 or 1. For example, the mask image may be a binary image in which the value of the pixel in the region corresponding to the domain of the sample image is 1 and the value of the other pixel is 0. The mask image may include a first mask image and a second mask image. The first mask image and the second mask image may have the same dimensions and the same shape. The first mask image may be a binary image in which the value of the pixel in the region corresponding to the domain of the first image of the sample is 1 and the value of the other pixel is 0, and the second mask. The image may be a binary image in which the value of the pixel in the region corresponding to the domain of the second image of the sample is 1 and the value of the other pixel is 0.

(画像値範囲調整工程)
第1画像の画素値の範囲と第2画像の画素値の範囲とマスク画像の画素値の範囲とが相対的に調整される。画素値の範囲の相対的な調整は、典型的には、サンプルの画像(第1画像、第2画像)の画素値の範囲とマスク画像の画素値の範囲との間の差を小さくするように行われる。例えば、画素値の範囲の相対的な調整は、サンプルの画像(第1画像、第2画像)及びマスク画像の一方の画素値の範囲を他方の画素値の範囲に一致させるように行われる。幾つかの例示的な態様において、画素値の範囲の相対的な調整は、マスク画像の画素値の範囲に応じてサンプルの画像(第1画像、第2画像)の画素値の範囲を正規化する処理を含んでいてよい。マスク画像の画素値の範囲が閉区間[0,1]に含まれる場合において、正規化は、サンプルの画像(第1画像、第2画像)の各画素の値を、当該画像における最大画素値で除算する処理を含んでいてよい。或いは、マスク画像の画素値の範囲が閉区間[0,1]に含まれる場合において、正規化は、サンプルの画像(第1画像、第2画像)の各画素の値を、当該画像の画素値の範囲の最大値で除算する処理を含んでいてよい。
(Image value range adjustment process)
The pixel value range of the first image, the pixel value range of the second image, and the pixel value range of the mask image are relatively adjusted. Relative adjustment of the pixel value range typically reduces the difference between the pixel value range of the sample image (first and second images) and the pixel value range of the mask image. It is done in. For example, the relative adjustment of the pixel value range is performed so that the pixel value range of one of the sample images (first image, second image) and the mask image matches the pixel value range of the other. In some exemplary embodiments, the relative adjustment of the pixel value range normalizes the pixel value range of the sample image (first image, second image) according to the pixel value range of the mask image. It may include the processing to be performed. When the range of pixel values of the mask image is included in the closed interval [0,1], the normalization sets the value of each pixel of the sample image (first image, second image) to the maximum pixel value in the image. It may include a process of dividing by. Alternatively, when the range of pixel values of the mask image is included in the closed interval [0,1], the normalization sets the value of each pixel of the sample image (first image, second image) to the pixel of the image. It may include a process of dividing by the maximum value in the range of values.

(合成画像生成工程)
画像値範囲調整工程の後、第1画像及び第2画像のそれぞれにマスク画像が合成されて第1合成画像及び第2合成画像が生成される。マスク画像が、第1マスク画像と第2マスク画像とを含む場合において、合成画像生成工程は、第1マスク画像を第1画像に合成して第1合成画像を生成する工程と、第2マスク画像を第2画像に合成して第2合成画像を生成する工程とを含んでいてよい。ここで、第1マスク画像及び第2マスク画像は、同じ寸法及び同じ形状を有していてもよい。また、第1マスク画像は、第1画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であってよく、且つ、第2マスク画像は、第2画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であってよい。
(Composite image generation process)
After the image value range adjusting step, the mask image is combined with each of the first image and the second image to generate the first composite image and the second composite image. When the mask image includes the first mask image and the second mask image, the composite image generation step includes a step of synthesizing the first mask image with the first image to generate the first composite image and a second mask. It may include a step of synthesizing an image with a second image to generate a second composite image. Here, the first mask image and the second mask image may have the same dimensions and the same shape. Further, the first mask image may be a binary image in which the value of the pixel in the region corresponding to the domain of the first image is 1 and the value of the other pixel is 0, and the second mask. The image may be a binary image in which the value of the pixel in the region corresponding to the domain of the second image is 1 and the value of the other pixel is 0.

(相互相関関数算出工程)
合成画像生成工程によって生成された第1合成画像及び第2合成画像に基づいて複数の相互相関関数が求められる。この工程は、典型的には、非特許文献1に記載された手法に従って行われるが、これに限定されるものではない。
(Cross-correlation function calculation process)
A plurality of cross-correlation functions are obtained based on the first composite image and the second composite image generated by the composite image generation step. This step is typically performed according to the method described in Non-Patent Document 1, but is not limited thereto.

(相関係数算出工程)
相互相関関数算出工程において求められた複数の相互相関関数に基づいて相関係数が算出される。この工程は、典型的には、非特許文献1に記載された手法に従って行われるが、これに限定されるものではない。
(Correlation coefficient calculation process)
The correlation coefficient is calculated based on a plurality of cross-correlation functions obtained in the cross-correlation function calculation step. This step is typically performed according to the method described in Non-Patent Document 1, but is not limited thereto.

(レジストレーション工程)
相関係数算出工程において算出された相関係数に基づいてサンプルの第1画像と第2画像との間のレジストレーションが行われる。この工程は、典型的には、非特許文献1に記載された手法に従って行われるが、これに限定されるものではない。
(Registration process)
Registration is performed between the first image and the second image of the sample based on the correlation coefficient calculated in the correlation coefficient calculation step. This step is typically performed according to the method described in Non-Patent Document 1, but is not limited thereto.

幾つかの例示的な態様において、画像処理方法は、マージ画像構築工程を更に含んでいてよい。マージ画像構築工程では、レジストレーション工程において行われたレジストレーションの結果(例えば、サンプルの第1画像と第2画像との間の相対的シフト量)に基づいて第1画像と第2画像とのマージ画像が構築される。 In some exemplary embodiments, the image processing method may further include a merged image construction step. In the merged image construction step, the first image and the second image are combined based on the result of the registration performed in the registration step (for example, the relative shift amount between the first image and the second image of the sample). The merged image is constructed.

幾つかの例示的な態様において、画像処理方法は、上記の例示的な実施形態において説明された工程のいずれかを更に含んでいてもよい。 In some exemplary embodiments, the image processing method may further comprise any of the steps described in the exemplary embodiments described above.

上記の例示的な実施形態に係る眼科装置1により提供可能な走査型イメージング方法の幾つかの態様を説明する。幾つかの例示的な態様において、走査型イメージング方法は、以下に説明する工程を含んでいてよい。なお、幾つかの例示的な態様において、走査型イメージング方法は、上記の例示的な実施形態において説明された工程のいずれか、及び/又は、上記の画像処理方法の例示的な態様で説明された工程のいずれかを更に含んでいてもよい。 Some aspects of the scanning imaging method that can be provided by the ophthalmic apparatus 1 according to the above exemplary embodiment will be described. In some exemplary embodiments, the scanning imaging method may include the steps described below. In some exemplary embodiments, the scanning imaging method is described in any of the steps described in the exemplary embodiments above and / or in the exemplary embodiments of the image processing method described above. Any of the above steps may be further included.

(走査工程)
一連のサイクルを含む2次元パターンに従う光走査がサンプルに適用され、データが収集される。典型的には、一連のサイクルのうちの任意の2つのサイクルは、少なくとも1点で互いに交差する。例えば、2次元パターンに従う光走査は、リサージュ関数に基づき予め設定された走査プロトコルに基づいて行われる。
(Scanning process)
An optical scan that follows a two-dimensional pattern involving a series of cycles is applied to the sample and data is collected. Typically, any two cycles of the series intersect each other at at least one point. For example, optical scanning according to a two-dimensional pattern is performed based on a preset scanning protocol based on a Lissajous function.

(画像構築工程)
走査工程で収集されたデータに基づいて第1画像及び第2画像が構築される。一連のサイクルのうちの任意の2つのサイクルが少なくとも1点で互いに交差する場合(例えば、リサージュ関数に基づき予め設定された走査プロトコルに基づいて2次元パターンに従う光走査が行われる場合)、一連のサイクルのうちの第1サイクル群に従う光走査で収集された第1データに基づいて第1画像が構築されてよく、且つ、一連のサイクルのうち第1サイクル群と異なる第2サイクル群に従う光走査で収集された第2データに基づいて第2画像が構築されてよい。
(Image construction process)
The first image and the second image are constructed based on the data collected in the scanning process. When any two cycles of the series intersect each other at at least one point (eg, when optical scanning is performed according to a two-dimensional pattern based on a preset scanning protocol based on the Lissajous function). The first image may be constructed based on the first data collected by the optical scan according to the first cycle group of the cycles, and the optical scan according to the second cycle group different from the first cycle group in the series of cycles. A second image may be constructed based on the second data collected in.

(画像値範囲調整工程)
第1画像の画素値の範囲と第2画像の画素値の範囲とマスク画像の画素値の範囲とが相対的に調整される。
(Image value range adjustment process)
The pixel value range of the first image, the pixel value range of the second image, and the pixel value range of the mask image are relatively adjusted.

(合成画像生成工程)
画像値範囲調整工程の後、第1画像及び第2画像のそれぞれにマスク画像が合成されて第1合成画像及び第2合成画像が生成される。
(Composite image generation process)
After the image value range adjusting step, the mask image is combined with each of the first image and the second image to generate the first composite image and the second composite image.

(相互相関関数算出工程)
合成画像生成工程で生成された第1合成画像及び第2合成画像に基づいて複数の相互相関関数が求められる。
(Cross-correlation function calculation process)
A plurality of cross-correlation functions are obtained based on the first composite image and the second composite image generated in the composite image generation step.

(相関係数算出工程)
相互相関関数算出工程で求められた複数の相互相関関数に基づいて相関係数が算出される。
(Correlation coefficient calculation process)
The correlation coefficient is calculated based on a plurality of cross-correlation functions obtained in the cross-correlation function calculation step.

(レジストレーション工程)
相関係数算出工程で算出された相関係数に基づいてサンプルの第1画像と第2画像との間のレジストレーションが行われる。
(Registration process)
Registration is performed between the first image and the second image of the sample based on the correlation coefficient calculated in the correlation coefficient calculation step.

(マージ画像構築工程)
レジストレーションの結果に基づいてサンプルの第1画像と第2画像とのマージ画像が構築される。
(Merge image construction process)
A merged image of the first and second images of the sample is constructed based on the registration result.

幾つかの例示的な態様において、走査型イメージング方法は、以下の付加的工程を含んでいてよい。 In some exemplary embodiments, the scanning imaging method may include the following additional steps:

第1の付加的工程において、走査工程においてサンプルから収集されたデータに基づいて第3画像が構築される。上記の例示的な実施形態では、第3のストリップが構築される。 In the first additional step, a third image is constructed based on the data collected from the sample in the scanning step. In the above exemplary embodiment, a third strip is constructed.

第2の付加的工程において、第3画像の画素値の範囲と、マージ画像構築工程で構築されたマージ画像の画素値の範囲と、マスク画像の画素値の範囲とが、相対的に調整される。上記の例示的な実施形態では、第3のストリップと、第3のストリップに対応するマスク画像と、第1のストリップ及び第2のストリップのマージ画像と、このマージ画像に対応するマスク画像とについて、画素値範囲調整が適用される。 In the second additional step, the pixel value range of the third image, the pixel value range of the merged image constructed in the merged image construction step, and the pixel value range of the mask image are relatively adjusted. To. In the above exemplary embodiment, the third strip, the mask image corresponding to the third strip, the merged image of the first strip and the second strip, and the mask image corresponding to the merged image. , Pixel value range adjustment is applied.

第3の付加的工程において、第3画像及びマージ画像のそれぞれに当該マスク画像を合成して第3合成画像及び第4合成画像が生成される。上記の例示的な実施形態では、第3のストリップとこれに対応するマスク画像との合成画像が生成され、且つ、第1のストリップ及び第2のストリップのマージ画像とこれに対応するマスク画像との合成画像が生成される。 In the third additional step, the mask image is combined with the third image and the merged image, respectively, to generate the third composite image and the fourth composite image. In the above exemplary embodiment, a composite image of the third strip and the corresponding mask image is generated, and the merged image of the first and second strips and the corresponding mask image A composite image of is generated.

第4の付加的工程において、第3合成画像及び第4合成画像に基づいて複数の相互相関関数が求められる。上記の例示的な実施形態では、第3のストリップとこれに対応するマスク画像との合成画像と、上記マージ画像とこれに対応するマスク画像との合成画像とに基づいて、複数の相互相関関数が求められる。 In the fourth additional step, a plurality of cross-correlation functions are obtained based on the third composite image and the fourth composite image. In the above exemplary embodiment, a plurality of cross-correlation functions are based on a composite image of the third strip and the corresponding mask image, and a composite image of the merged image and the corresponding mask image. Is required.

第5の付加的工程において、第4の付加的工程で求められた複数の相互相関関数に基づいて相関係数が算出される。上記の例示的な実施形態では、第3のストリップに基づく合成画像及びマージ画像に基づく合成画像を用いて求められた複数の相互相関関数に基づいて、相関係数が算出される。 In the fifth additional step, the correlation coefficient is calculated based on the plurality of cross-correlation functions obtained in the fourth additional step. In the above exemplary embodiment, the correlation coefficient is calculated based on a plurality of cross-correlation functions obtained using the composite image based on the third strip and the composite image based on the merged image.

第6の付加的工程において、第5の付加的工程で算出された相関係数に基づいて第3画像と第4画像とのレジストレーションが行われる。上記の例示的な実施形態では、第3のストリップに基づく合成画像及びマージ画像に基づく合成画像を用いて算出された相関係数に基づいて、このマージ画像(第1のストリップ及び第2のストリップのマージ画像)と第3のストリップとの間のレジストレーションが行われる。 In the sixth additional step, registration between the third image and the fourth image is performed based on the correlation coefficient calculated in the fifth additional step. In the above exemplary embodiment, the merged image (first strip and second strip) is based on the correlation coefficient calculated using the composite image based on the third strip and the composite image based on the merged image. Registration between the merged image) and the third strip is performed.

第7の付加的工程において、第6の付加的工程で実行されたレジストレーションの結果に基づいて第3画像とマージ画像とがマージされる。上記の例示的な実施形態では、マージ画像と第3のストリップとのレジストレーションの結果(相対的なシフト量)に基づいて、このマージ画像(第1のストリップ及び第2のストリップのマージ画像)に対して第3のストリップがマージされる。 In the seventh additional step, the third image and the merged image are merged based on the result of the registration performed in the sixth additional step. In the above exemplary embodiment, the merged image (the merged image of the first and second strips) is based on the result of registration (relative shift amount) between the merged image and the third strip. The third strip is merged against.

なお、ここでは、第1のストリップ及び第2のストリップのマージ画像と、第3のストリップとに対する処理を例として説明したが、一般に、上記の例示的な実施形態で説明した通り、第1〜第nのストリップのマージ画像と、第n+1のストリップとに対する処理も、同じ要領で実行される(n=2、3、・・・、N−1)。 Here, the processing for the merged image of the first strip and the second strip and the third strip has been described as an example, but generally, as described in the above exemplary embodiment, the first to first strips have been described. The processing for the merged image of the nth strip and the n + 1th strip is also executed in the same manner (n = 2, 3, ..., N-1).

上記の例示的な実施形態に係る眼科装置1により提供可能な画像処理装置の幾つかの態様を説明する。幾つかの例示的な態様において、画像処理装置は、以下に説明する要素を含んでいてよい。なお、幾つかの例示的な態様において、画像処理装置は、上記の例示的な実施形態において説明された要素のいずれか、上記の画像処理方法の例示的な態様で説明された工程を実行するように構成された要素のいずれか、及び、上記の走査型イメージング方法の例示的な態様で説明された工程を実行するように構成された要素のいずれか、のうちのいずれかを更に含んでいてもよい。 Some aspects of the image processing apparatus that can be provided by the ophthalmic apparatus 1 according to the above exemplary embodiment will be described. In some exemplary embodiments, the image processing apparatus may include the elements described below. In some exemplary embodiments, the image processing apparatus performs any of the elements described in the exemplary embodiments above, the steps described in the exemplary embodiments of the image processing method. Further comprising any of the elements configured as described above and any of the elements configured to perform the steps described in the exemplary embodiments of the scanning imaging method described above. You may.

例示的な態様に係る画像処理装置は、記憶部と、マスク画像生成部と、範囲調整部と、合成画像生成部と、第1算出部と、第2算出部と、レジストレーション部とを含む。 The image processing apparatus according to the exemplary embodiment includes a storage unit, a mask image generation unit, a range adjustment unit, a composite image generation unit, a first calculation unit, a second calculation unit, and a registration unit. ..

記憶部は、サンプルの第1画像及び第2画像を記憶する。上記の例示的な実施形態において、この記憶部は記憶部212に相当する。 The storage unit stores the first image and the second image of the sample. In the above exemplary embodiment, this storage unit corresponds to the storage unit 212.

マスク画像生成部は、第1画像に応じた第1マスク画像と第2画像に応じた第2マスク画像とを生成するように構成される。上記の例示的な実施形態において、マスク画像生成部はマスク画像生成部231に相当する。 The mask image generation unit is configured to generate a first mask image corresponding to the first image and a second mask image corresponding to the second image. In the above exemplary embodiment, the mask image generation unit corresponds to the mask image generation unit 231.

範囲調整部は、第1マスク画像の画素値の範囲及び第2マスク画像の画素値の範囲に基づいて第1画像の画素値の範囲及び第2画像の画素値の範囲を調整するように構成される。上記の例示的な実施形態において、範囲調整部は範囲調整部232に相当する。 The range adjusting unit is configured to adjust the pixel value range of the first image and the pixel value range of the second image based on the pixel value range of the first mask image and the pixel value range of the second mask image. Will be done. In the above exemplary embodiment, the range adjusting unit corresponds to the range adjusting unit 232.

合成画像生成部は、第1画像に第1マスク画像を合成して第1合成画像を生成し、且つ、第2画像に第2マスク画像を合成して第2合成画像を生成するように構成される。上記の例示的な実施形態において、合成画像生成部は合成画像生成部233に相当する。 The composite image generation unit is configured to synthesize the first mask image with the first image to generate the first composite image, and to synthesize the second mask image with the second image to generate the second composite image. Will be done. In the above exemplary embodiment, the composite image generation unit corresponds to the composite image generation unit 233.

第1算出部は、第1合成画像及び第2合成画像に基づいて複数の相互相関関数を求めるように構成される。上記の例示的な実施形態において、第1算出部は相互相関関数算出部234に相当する。 The first calculation unit is configured to obtain a plurality of cross-correlation functions based on the first composite image and the second composite image. In the above exemplary embodiment, the first calculation unit corresponds to the cross-correlation function calculation unit 234.

第2算出部は、複数の相互相関関数に基づいて相関係数を算出するように構成される。上記の例示的な実施形態において、第2算出部は相関係数算出部235に相当する。 The second calculation unit is configured to calculate the correlation coefficient based on a plurality of cross-correlation functions. In the above exemplary embodiment, the second calculation unit corresponds to the correlation coefficient calculation unit 235.

レジストレーション部は、相関係数に基づいて第1画像と第2画像とのレジストレーションを行うように構成される。上記の例示的な実施形態において、レジストレーション部はレジストレーション部236に相当する。 The registration unit is configured to perform registration between the first image and the second image based on the correlation coefficient. In the above exemplary embodiment, the registration unit corresponds to the registration unit 236.

幾つかの例示的な態様において、画像処理装置は、マージ処理部を更に含んでいてよい。マージ処理部は、レジストレーションの結果に基づいて第1画像と第2画像とのマージ画像を構築するように構成される。 In some exemplary embodiments, the image processing apparatus may further include a merge processing unit. The merge processing unit is configured to construct a merged image of the first image and the second image based on the registration result.

幾つかの例示的な態様において、画像処理装置は、データ受付部と、画像構築部とを更に含んでいてよい。 In some exemplary embodiments, the image processing apparatus may further include a data receiving unit and an image building unit.

データ受付部は、一連のサイクルを含む2次元パターンに従う光走査によりサンプルから収集されたデータを受け付けるように構成される。データ受付部は、例えば、通信回線又は記録媒体を介してデータを受け付けるように構成されていてよい。上記の例示的な実施形態において、データ受付部は、眼科装置1に設けられた通信デバイスに相当する。 The data receiving unit is configured to receive data collected from a sample by optical scanning according to a two-dimensional pattern including a series of cycles. The data receiving unit may be configured to receive data via, for example, a communication line or a recording medium. In the above exemplary embodiment, the data receiving unit corresponds to a communication device provided in the ophthalmic apparatus 1.

画像構築部は、データ受付部により受け付けられたデータに基づいて第1画像及び第2画像を構築する。上記の例示的な実施形態において、画像構築部は画像構築部220に相当する。画像構築部により構築された第1画像及び第2画像は記憶部に記憶される。 The image construction unit constructs the first image and the second image based on the data received by the data reception unit. In the above exemplary embodiment, the image construction unit corresponds to the image construction unit 220. The first image and the second image constructed by the image construction unit are stored in the storage unit.

幾つかの例示的な態様において、データ受付部は、一連のサイクルを含む2次元パターンに従う光走査によりサンプルから収集されたデータに基づき構築された第1画像及び第2画像を受け付けるように構成されてよい。この場合、データ受付部により受け付けられた第1画像及び第2画像が記憶部に記憶される。 In some exemplary embodiments, the data receiver is configured to accept first and second images constructed based on data collected from a sample by optical scanning according to a two-dimensional pattern involving a series of cycles. You can. In this case, the first image and the second image received by the data receiving unit are stored in the storage unit.

幾つかの例示的な態様において、データ受付部は、一連のサイクルを含む2次元パターンに従う光走査によりサンプルから収集されたデータに基づき構築された3次元画像データを受け付けるように構成されてよい。この場合、画像構築部は、データ受付部により受け付けられた3次元画像データに基づいて第1画像及び第2画像を構築するように構成される。画像構築部により構築された第1画像及び第2画像は記憶部に記憶される。 In some exemplary embodiments, the data receiving unit may be configured to receive 3D image data constructed based on data collected from a sample by optical scanning according to a 2D pattern involving a series of cycles. In this case, the image construction unit is configured to construct the first image and the second image based on the three-dimensional image data received by the data reception unit. The first image and the second image constructed by the image construction unit are stored in the storage unit.

上記の例示的な実施形態に係る眼科装置1により提供可能な、画像処理装置の制御方法の幾つかの態様を説明する。幾つかの例示的な態様において、画像処理装置の制御方法は、以下に説明する工程を含んでいてよい。なお、幾つかの例示的な態様において、画像処理装置の制御方法は、上記の例示的な実施形態において説明された工程のいずれか、上記の画像処理方法の例示的な態様で説明された工程のいずれか、上記の走査型イメージング方法の例示的な態様で説明された工程のいずれか、及び、上記の画像処理装置の例示的な態様で説明された要素により実行される工程のいずれか、のうちのいずれかを更に含んでいてもよい。 Some aspects of the image processing apparatus control method that can be provided by the ophthalmic apparatus 1 according to the above exemplary embodiment will be described. In some exemplary embodiments, the control method of the image processing apparatus may include the steps described below. In some exemplary embodiments, the control method of the image processing apparatus is any of the steps described in the above exemplary embodiments, or the steps described in the exemplary embodiments of the image processing method. Any of the steps described in the exemplary aspects of the scanning imaging method described above, and any of the steps performed by the elements described in the exemplary embodiments of the image processing apparatus above. Any of these may be further included.

例示的な態様は、サンプルの第1画像及び第2画像を記憶する記憶部と、プロセッサとを含む画像処理装置を制御する方法であって、このプロセッサが以下の工程を実行するように制御を行う。なお、上記の例示的な実施形態において、記憶部は記憶部212に相当し、プロセッサは少なくともデータ処理部230に相当する。 An exemplary embodiment is a method of controlling an image processing unit including a storage unit for storing first and second images of a sample and a processor, which controls the processor to perform the following steps. Do. In the above exemplary embodiment, the storage unit corresponds to the storage unit 212, and the processor corresponds to at least the data processing unit 230.

プロセッサは、第1画像に応じた第1マスク画像と第2画像に応じた第2マスク画像とを生成するように制御される。例えば、上記の例示的な実施形態において、データ処理部230は、マスク画像生成部231として動作するように制御される。 The processor is controlled to generate a first mask image corresponding to the first image and a second mask image corresponding to the second image. For example, in the above exemplary embodiment, the data processing unit 230 is controlled to operate as the mask image generation unit 231.

また、プロセッサは、第1マスク画像の画素値の範囲及び第2マスク画像の画素値の範囲に基づいて第1画像の画素値の範囲及び第2画像の画素値の範囲を調整するように制御される。例えば、上記の例示的な実施形態において、データ処理部230は、範囲調整部232として動作するように制御される。 Further, the processor controls to adjust the pixel value range of the first image and the pixel value range of the second image based on the pixel value range of the first mask image and the pixel value range of the second mask image. Will be done. For example, in the above exemplary embodiment, the data processing unit 230 is controlled to operate as the range adjusting unit 232.

また、プロセッサは、第1画像に第1マスク画像を合成して第1合成画像を生成し、且つ、第2画像に第2マスク画像を合成して第2合成画像を生成するように制御される。例えば、上記の例示的な実施形態において、データ処理部230は、合成画像生成部233として動作するように制御される。 Further, the processor is controlled so as to synthesize the first mask image with the first image to generate the first composite image, and to synthesize the second mask image with the second image to generate the second composite image. To. For example, in the above exemplary embodiment, the data processing unit 230 is controlled to operate as a composite image generation unit 233.

また、プロセッサは、第1合成画像及び第2合成画像に基づいて複数の相互相関関数を求めるように制御される。例えば、上記の例示的な実施形態において、データ処理部230は、相互相関関数算出部234として動作するように制御される。 Further, the processor is controlled to obtain a plurality of cross-correlation functions based on the first composite image and the second composite image. For example, in the above exemplary embodiment, the data processing unit 230 is controlled to operate as the cross-correlation function calculation unit 234.

また、プロセッサは、複数の相互相関関数に基づいて相関係数を算出するように制御される。例えば、上記の例示的な実施形態において、データ処理部230は、相関係数算出部235として動作するように制御される。 In addition, the processor is controlled to calculate the correlation coefficient based on a plurality of cross-correlation functions. For example, in the above exemplary embodiment, the data processing unit 230 is controlled to operate as the correlation coefficient calculation unit 235.

また、プロセッサは、相関係数に基づいて第1画像と第2画像とのレジストレーションを行うように制御される。例えば、上記の例示的な実施形態において、データ処理部230は、レジストレーション部236として動作するように制御される。 Further, the processor is controlled to perform registration between the first image and the second image based on the correlation coefficient. For example, in the above exemplary embodiment, the data processing unit 230 is controlled to operate as the registration unit 236.

幾つかの例示的な実施形態において、プロセッサは、レジストレーションの結果に基づいて第1画像と第2画像とのマージ画像を構築するように制御されてよい。例えば、上記の例示的な実施形態において、データ処理部230は、マージ処理部237として動作するように制御される。 In some exemplary embodiments, the processor may be controlled to build a merged image of the first and second images based on the results of registration. For example, in the above exemplary embodiment, the data processing unit 230 is controlled to operate as the merge processing unit 237.

上記の例示的な実施形態に係る眼科装置1により提供可能な、走査型イメージング装置の制御方法の幾つかの態様を説明する。幾つかの例示的な態様において、走査型イメージング装置の制御方法は、以下に説明する工程を含んでいてよい。なお、幾つかの例示的な態様において、走査型イメージング装置の制御方法は、上記の例示的な実施形態において説明された工程のいずれか、上記の画像処理方法の例示的な態様で説明された工程のいずれか、上記の走査型イメージング方法の例示的な態様で説明された工程のいずれか、上記の画像処理装置の例示的な態様で説明された要素により実行される工程のいずれか、及び、上記の画像処理装置の例示的な態様で説明された工程のいずれか、のうちのいずれかを更に含んでいてもよい。 Some aspects of the control method of the scanning imaging apparatus that can be provided by the ophthalmologic apparatus 1 according to the above exemplary embodiment will be described. In some exemplary embodiments, the method of controlling the scanning imaging apparatus may include the steps described below. In some exemplary embodiments, the control method of the scanning imaging apparatus has been described in any of the steps described in the above exemplary embodiments, or in the exemplary embodiment of the image processing method described above. Any of the steps, any of the steps described in the exemplary embodiments of the scanning imaging method, any of the steps performed by the elements described in the exemplary embodiments of the image processing apparatus, and. , Any of the steps described in the exemplary aspects of the image processing apparatus described above may be further included.

例示的な態様は、サンプルに光走査を適用してデータを収集する走査部と、プロセッサとを含む走査型イメージング装置を制御する方法であって、走査部及びプロセッサが以下の工程を実行するように制御を行う。なお、上記の例示的な実施形態において、走査部は、OCTユニット100と、測定アームを構成する眼底カメラユニット2内の要素(リトロリフレクタ41、OCT合焦レンズ43、光スキャナ44、対物レンズ22等)とを含む。また、プロセッサは、画像構築部220及びデータ処理部230に相当する。 An exemplary embodiment is a method of controlling a scanning imaging apparatus including a scanning unit that applies optical scanning to a sample to collect data and a processor, such that the scanning unit and the processor perform the following steps. To control. In the above exemplary embodiment, the scanning unit includes the OCT unit 100 and the elements (retroreflector 41, OCT focusing lens 43, optical scanner 44, objective lens 22) in the fundus camera unit 2 constituting the measurement arm. Etc.) and include. The processor corresponds to the image construction unit 220 and the data processing unit 230.

走査部は、一連のサイクルを含む2次元パターンに従う光走査をサンプルに適用してデータを収集するように制御される。 The scanning unit is controlled to apply optical scanning according to a two-dimensional pattern including a series of cycles to the sample to collect data.

また、プロセッサ(上記の例示的な実施形態では画像構築部220)は、走査部により収集されたデータに基づいて第1画像及び第2画像を構築するように制御される。 In addition, the processor (image construction unit 220 in the above exemplary embodiment) is controlled to construct the first image and the second image based on the data collected by the scanning unit.

また、プロセッサ(上記の例示的な実施形態ではデータ処理部230)は、第1画像に応じた第1マスク画像と第2画像に応じた第2マスク画像とを生成するように制御される。 Further, the processor (data processing unit 230 in the above exemplary embodiment) is controlled to generate a first mask image corresponding to the first image and a second mask image corresponding to the second image.

また、プロセッサ(上記の例示的な実施形態ではデータ処理部230)は、第1マスク画像の画素値の範囲及び第2マスク画像の画素値の範囲に基づいて第1画像の画素値の範囲及び第2画像の画素値の範囲を調整するように制御される。 Further, the processor (data processing unit 230 in the above exemplary embodiment) has a range of pixel values of the first image and a range of pixel values of the first image based on the range of pixel values of the first mask image and the range of pixel values of the second mask image. It is controlled to adjust the range of pixel values of the second image.

また、プロセッサ(上記の例示的な実施形態ではデータ処理部230)は、第1画像に第1マスク画像を合成して第1合成画像を生成し、且つ、第2画像に第2マスク画像を合成して第2合成画像を生成するように制御される。 Further, the processor (data processing unit 230 in the above exemplary embodiment) synthesizes the first mask image with the first image to generate the first composite image, and combines the second mask image with the second image. It is controlled to combine to generate a second composite image.

また、プロセッサ(上記の例示的な実施形態ではデータ処理部230)は、第1合成画像及び第2合成画像に基づいて複数の相互相関関数を求めるように制御される。 Further, the processor (data processing unit 230 in the above exemplary embodiment) is controlled to obtain a plurality of cross-correlation functions based on the first composite image and the second composite image.

また、プロセッサ(上記の例示的な実施形態ではデータ処理部230)は、複数の相互相関関数に基づいて相関係数を算出するように制御される。 Further, the processor (data processing unit 230 in the above exemplary embodiment) is controlled to calculate the correlation coefficient based on a plurality of cross-correlation functions.

また、プロセッサ(上記の例示的な実施形態ではデータ処理部230)は、相関係数に基づいて第1画像と第2画像とのレジストレーションを行うように制御される。 Further, the processor (data processing unit 230 in the above exemplary embodiment) is controlled to perform registration between the first image and the second image based on the correlation coefficient.

また、プロセッサ(上記の例示的な実施形態ではデータ処理部230)は、レジストレーションの結果に基づいて第1画像と前記第2画像とのマージ画像を構築するように制御される。 Further, the processor (data processing unit 230 in the above exemplary embodiment) is controlled to construct a merged image of the first image and the second image based on the registration result.

幾つかの例示的な態様において、走査型イメージング装置を制御する方法のいずれかの態様をコンピュータに実行させるプログラム、画像処理装置を制御する方法のいずれかの態様をコンピュータに実行させるプログラム、画像処理方法のいずれかの態様をコンピュータに実行させるプログラム、又は、走査型イメージング方法のいずれかの態様をコンピュータに実行させるプログラムを提供することが可能である。 In some exemplary embodiments, a program that causes the computer to execute any aspect of the method of controlling the scanning imaging apparatus, a program that causes the computer to execute any aspect of the method of controlling the image processing apparatus, and image processing. It is possible to provide a program that causes a computer to execute any aspect of the method, or a program that causes a computer to execute any aspect of the scanning imaging method.

また、このようなプログラムを記録したコンピュータ可読な非一時的記録媒体を作成することが可能である。この非一時的記録媒体は任意の形態であってよく、その例として、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどがある。 It is also possible to create a computer-readable non-temporary recording medium on which such a program is recorded. The non-temporary recording medium may be in any form, and examples thereof include a magnetic disk, an optical disk, a magneto-optical disk, and a semiconductor memory.

以上に説明した幾つかの例示的な態様によれば、マスク画像を利用した画像レジストレーションにおいて、サンプルの画像の画素値の範囲とマスク画像の画素値の範囲とを相対的に調整した上で、レジストレーションのための処理を行うことが可能である。 According to some exemplary embodiments described above, in image registration using a mask image, the pixel value range of the sample image and the pixel value range of the mask image are relatively adjusted. , It is possible to perform processing for registration.

これにより、サンプルの画像の画素値の範囲とマスク画像の画素値の範囲との間の差を小さくすることができる。例えば、サンプルの画像の画素値の大きさと、マスク画像の画素値の大きさとを(ほぼ)一致させることが可能である。 Thereby, the difference between the pixel value range of the sample image and the pixel value range of the mask image can be reduced. For example, it is possible to (almost) match the size of the pixel value of the sample image with the size of the pixel value of the mask image.

したがって、サンプルの画像とマスク画像とを用いた相関演算においてマスク画像の効果が無視されるという従来の問題を解決することができ、正しい相関係数を得ることが可能となる。 Therefore, it is possible to solve the conventional problem that the effect of the mask image is ignored in the correlation calculation using the sample image and the mask image, and it is possible to obtain a correct correlation coefficient.

特に、サンプルの画像同士の相関係数を求めるために単精度浮動小数点型(フロート型)の演算が用いられる場合であっても、有効桁数の少なさに起因する丸め誤差の影響を排除することや小さくすることが可能である。 In particular, even when a single-precision floating-point type (float type) operation is used to obtain the correlation coefficient between sample images, the effect of rounding error due to the small number of significant digits should be eliminated. It can be made smaller.

また、複数の相互相関関数から相関係数を算出するアルゴリズムにおいては、個々の相互相関関数に起因する誤差の重ね合わせにより、最終的な相関係数の誤差が大きくなる可能性がある。このような問題に関し、例示的な態様によれば、個々の相互相関関数に起因する誤差を排除することや小さくすることができるため、確度の高い相関係数を得ることが可能である。 Further, in the algorithm for calculating the correlation coefficient from a plurality of cross-correlation functions, the error of the final correlation coefficient may become large due to the superposition of the errors caused by the individual cross-correlation functions. With respect to such a problem, according to an exemplary embodiment, it is possible to eliminate or reduce the error caused by each cross-correlation function, so that it is possible to obtain a highly accurate correlation coefficient.

このように、以上に説明した幾つかの例示的な態様は、マスク画像を用いた画像レジストレーションの正確性の向上に寄与するものである。 As described above, some of the exemplary embodiments described above contribute to the improvement of the accuracy of image registration using the mask image.

本開示は、幾つかの態様を例示するものに過ぎず、発明の限定を意図したものではない。この発明を実施しようとする者は、この発明の要旨の範囲内における任意の変形(省略、置換、付加など)を施すことが可能である。 The present disclosure merely illustrates some aspects and is not intended to limit the invention. A person who intends to carry out the present invention can make arbitrary modifications (omission, substitution, addition, etc.) within the scope of the gist of the present invention.

1 眼科装置
44 光スキャナ
100 OCTユニット
211 主制御部
2111 走査制御部
212 記憶部
2121 走査プロトコル
220 画像構築部
230 データ処理部
231 マスク画像生成部
232 範囲調整部
233 合成画像生成部
234 相互相関関数算出部
235 相関係数算出部
236 レジストレーション部
237 マージ処理部

1 Ophthalmology device 44 Optical scanner 100 OCT unit 211 Main control unit 2111 Scanning control unit 212 Storage unit 2121 Scanning protocol 220 Image construction unit 230 Data processing unit 231 Mask image generation unit 232 Range adjustment unit 233 Synthetic image generation unit 234 Cross-correlation function calculation Part 235 Correlation coefficient calculation part 236 Registration part 237 Merge processing part

Claims (25)

サンプルの第1画像及び第2画像を準備し、
マスク画像を準備し、
前記第1画像の画素値の範囲と前記第2画像の画素値の範囲と前記マスク画像の画素値の範囲とを相対的に調整し、
前記第1画像及び前記第2画像のそれぞれに前記マスク画像を合成して第1合成画像及び第2合成画像を生成し、
前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求め、
前記複数の相互相関関数に基づいて相関係数を算出し、
前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行う、
画像処理方法。
Prepare the first and second images of the sample,
Prepare the mask image and
The pixel value range of the first image, the pixel value range of the second image, and the pixel value range of the mask image are relatively adjusted.
The mask image is combined with each of the first image and the second image to generate a first composite image and a second composite image.
A plurality of cross-correlation functions were obtained based on the first composite image and the second composite image.
The correlation coefficient is calculated based on the plurality of cross-correlation functions, and the correlation coefficient is calculated.
Registration between the first image and the second image is performed based on the correlation coefficient.
Image processing method.
前記サンプルの画像の画素値の範囲と前記マスク画像の画素値の範囲との間の差を小さくする、
請求項1の画像処理方法。
To reduce the difference between the pixel value range of the sample image and the pixel value range of the mask image.
The image processing method of claim 1.
前記サンプルの画像及び前記マスク画像の一方の画素値の範囲を他方の画素値の範囲に一致させる、
請求項2の画像処理方法。
Match the range of one pixel value of the sample image and the mask image to the range of the other pixel value.
The image processing method of claim 2.
前記マスク画像の画素値の範囲に応じて前記サンプルの画像の画素値の範囲を正規化する、
請求項3の画像処理方法。
Normalize the pixel value range of the sample image according to the pixel value range of the mask image.
The image processing method of claim 3.
前記マスク画像の画素値の範囲は閉区間[0,1]に含まれ、
前記サンプルの画像の各画素の値を、当該画像における最大画素値で除算する、
請求項4の画像処理方法。
The range of pixel values of the mask image is included in the closed interval [0,1].
Divide the value of each pixel in the sample image by the maximum pixel value in the image.
The image processing method of claim 4.
前記マスク画像の画素値の範囲は閉区間[0,1]に含まれ、
前記サンプルの画像の各画素の値を、当該画像の画素値の範囲の最大値で除算する、
請求項4の画像処理方法。
The range of pixel values of the mask image is included in the closed interval [0,1].
Divide the value of each pixel of the sample image by the maximum value in the pixel value range of the image.
The image processing method of claim 4.
前記マスク画像は、画素値が0又は1の二値画像である、
請求項1〜6のいずれかの画像処理方法。
The mask image is a binary image having a pixel value of 0 or 1.
The image processing method according to any one of claims 1 to 6.
前記マスク画像は、前記サンプルの画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像である、
請求項7の画像処理方法。
The mask image is a binary image in which the value of a pixel in the region corresponding to the domain of the sample image is 1 and the value of the other pixel is 0.
The image processing method of claim 7.
前記マスク画像は、第1マスク画像と第2マスク画像とを含み、
前記第1マスク画像を前記第1画像に合成して前記第1合成画像を生成し、
前記第2マスク画像を前記第2画像に合成して前記第2合成画像を生成する、
請求項1〜8のいずれかの画像処理方法。
The mask image includes a first mask image and a second mask image.
The first mask image is combined with the first image to generate the first composite image.
The second mask image is combined with the second image to generate the second composite image.
The image processing method according to any one of claims 1 to 8.
前記第1マスク画像及び前記第2マスク画像は、同じ寸法及び同じ形状を有する、
請求項9の画像処理方法。
The first mask image and the second mask image have the same dimensions and the same shape.
The image processing method of claim 9.
前記第1マスク画像は、前記第1画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であり、
前記第2マスク画像は、前記第2画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像である、
請求項9又は10の画像処理方法。
The first mask image is a binary image in which the value of the pixel in the region corresponding to the domain of the first image is 1 and the value of the other pixel is 0.
The second mask image is a binary image in which the value of the pixel in the region corresponding to the domain of the second image is 1 and the value of the other pixel is 0.
The image processing method according to claim 9 or 10.
前記第1画像及び前記第2画像のそれぞれは、一連のサイクルを含む2次元パターンに従う走査を前記サンプルに適用して収集されたデータに基づき構築される、
請求項1〜11のいずれかの画像処理方法。
Each of the first image and the second image is constructed based on the data collected by applying a scan according to a two-dimensional pattern including a series of cycles to the sample.
The image processing method according to any one of claims 1 to 11.
前記第1画像及び前記第2画像のそれぞれは、リサージュ関数に基づき予め設定された走査プロトコルに基づく2次元パターンに従う走査を前記サンプルに適用して収集されたデータに基づき構築される、
請求項12の画像処理方法。
Each of the first image and the second image is constructed based on data collected by applying a scan according to a two-dimensional pattern based on a preset scanning protocol based on a resage function to the sample.
The image processing method according to claim 12.
一連のサイクルを含む2次元パターンに従う光走査をサンプルに適用してデータを収集し、
前記データに基づいて第1画像及び第2画像を構築し、
前記第1画像の画素値の範囲と前記第2画像の画素値の範囲とマスク画像の画素値の範囲とを相対的に調整し、
前記第1画像及び前記第2画像のそれぞれに前記マスク画像を合成して第1合成画像及び第2合成画像を生成し、
前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求め、
前記複数の相互相関関数に基づいて相関係数を算出し、
前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行い、
前記レジストレーションの結果に基づいて前記第1画像と前記第2画像とのマージ画像を構築する、
走査型イメージング方法。
Data is collected by applying an optical scan to the sample that follows a two-dimensional pattern involving a series of cycles.
The first image and the second image are constructed based on the above data, and the first image and the second image are constructed.
The pixel value range of the first image, the pixel value range of the second image, and the pixel value range of the mask image are relatively adjusted.
The mask image is combined with each of the first image and the second image to generate a first composite image and a second composite image.
A plurality of cross-correlation functions were obtained based on the first composite image and the second composite image.
The correlation coefficient is calculated based on the plurality of cross-correlation functions, and the correlation coefficient is calculated.
Registration between the first image and the second image is performed based on the correlation coefficient.
A merged image of the first image and the second image is constructed based on the result of the registration.
Scanning imaging method.
前記データに基づいて第3画像を構築し、
前記第3画像の画素値の範囲と前記マージ画像の画素値の範囲とマスク画像の画素値の範囲とを相対的に調整し、
前記第3画像及び前記マージ画像のそれぞれに当該マスク画像を合成して第3合成画像及び第4合成画像を生成し、
前記第3合成画像及び前記第4合成画像に基づいて複数の相互相関関数を求め、
当該複数の相互相関関数に基づいて相関係数を算出し、
当該相関係数に基づいて前記第3画像と前記第4画像とのレジストレーションを行い、
前記レジストレーションの結果に基づいて前記第3画像と前記マージ画像とをマージする、
請求項14の走査型イメージング方法。
A third image is constructed based on the above data,
The pixel value range of the third image, the pixel value range of the merged image, and the pixel value range of the mask image are relatively adjusted.
The mask image is combined with each of the third image and the merged image to generate a third composite image and a fourth composite image.
A plurality of cross-correlation functions were obtained based on the third composite image and the fourth composite image.
The correlation coefficient is calculated based on the plurality of cross-correlation functions, and the correlation coefficient is calculated.
Registration between the third image and the fourth image is performed based on the correlation coefficient.
The third image and the merged image are merged based on the result of the registration.
The scanning imaging method of claim 14.
前記一連のサイクルのうちの任意の2つのサイクルは、少なくとも1点で互いに交差し、
前記一連のサイクルのうちの第1サイクル群に従う光走査で収集された第1データに基づいて前記第1画像を構築し、
前記一連のサイクルのうち前記第1サイクル群と異なる第2サイクル群に従う光走査で収集された第2データに基づいて前記第2画像を構築する、
請求項14又は15の走査型イメージング方法。
Any two cycles of the series of cycles intersect each other at at least one point.
The first image is constructed based on the first data collected by optical scanning according to the first cycle group of the series of cycles.
The second image is constructed based on the second data collected by optical scanning according to the second cycle group different from the first cycle group in the series of cycles.
The scanning imaging method according to claim 14 or 15.
リサージュ関数に基づき予め設定された走査プロトコルに基づいて前記2次元パターンに従う光走査を行う、
請求項16の走査型イメージング方法。
Optical scanning according to the two-dimensional pattern is performed based on a preset scanning protocol based on the Lissajous function.
The scanning imaging method of claim 16.
サンプルの第1画像及び第2画像を記憶する記憶部と、
前記第1画像に応じた第1マスク画像と前記第2画像に応じた第2マスク画像とを生成するマスク画像生成部と、
前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲に基づいて前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲を調整する範囲調整部と、
前記第1画像に前記第1マスク画像を合成して第1合成画像を生成し、且つ、前記第2画像に前記第2マスク画像を合成して第2合成画像を生成する合成画像生成部と、
前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求める第1算出部と、
前記複数の相互相関関数に基づいて相関係数を算出する第2算出部と、
前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行うレジストレーション部と
を含む、画像処理装置。
A storage unit that stores the first and second images of the sample,
A mask image generation unit that generates a first mask image corresponding to the first image and a second mask image corresponding to the second image.
A range adjusting unit that adjusts the pixel value range of the first image and the pixel value range of the second image based on the pixel value range of the first mask image and the pixel value range of the second mask image. ,
A composite image generation unit that synthesizes the first mask image with the first image to generate a first composite image, and synthesizes the second mask image with the second image to generate a second composite image. ,
A first calculation unit that obtains a plurality of cross-correlation functions based on the first composite image and the second composite image, and
A second calculation unit that calculates the correlation coefficient based on the plurality of cross-correlation functions, and
An image processing apparatus including a registration unit that performs registration between the first image and the second image based on the correlation coefficient.
一連のサイクルを含む2次元パターンに従う光走査によりサンプルから収集されたデータを受け付けるデータ受付部と、
前記データに基づいて前記第1画像及び前記第2画像を構築する画像構築部と
を更に含む、
請求項18の画像処理装置。
A data reception unit that accepts data collected from samples by optical scanning that follows a two-dimensional pattern that includes a series of cycles.
Further includes the first image and an image construction unit that constructs the second image based on the data.
The image processing apparatus according to claim 18.
サンプルの第1画像及び第2画像を記憶する記憶部と、プロセッサとを含む画像処理装置を制御する方法であって、
前記プロセッサを、
前記第1画像に応じた第1マスク画像と前記第2画像に応じた第2マスク画像とを生成し、
前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲に基づいて前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲を調整し、
前記第1画像に前記第1マスク画像を合成して第1合成画像を生成し、且つ、前記第2画像に前記第2マスク画像を合成して第2合成画像を生成し、
前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求め、
前記複数の相互相関関数に基づいて相関係数を算出し、及び、
前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行う
ように制御する、
画像処理装置の制御方法。
A method of controlling an image processing device including a storage unit for storing a first image and a second image of a sample and a processor.
The processor
A first mask image corresponding to the first image and a second mask image corresponding to the second image are generated.
The pixel value range of the first image and the pixel value range of the second image are adjusted based on the pixel value range of the first mask image and the pixel value range of the second mask image.
The first mask image is combined with the first image to generate a first composite image, and the second mask image is combined with the second image to generate a second composite image.
A plurality of cross-correlation functions were obtained based on the first composite image and the second composite image.
The correlation coefficient is calculated based on the plurality of cross-correlation functions, and
Control so as to perform registration between the first image and the second image based on the correlation coefficient.
Image processing device control method.
一連のサイクルを含む2次元パターンに従う光走査をサンプルに適用してデータを収集する走査部と、
前記データに基づいて第1画像及び第2画像を構築する画像構築部と、
前記第1画像に応じた第1マスク画像と前記第2画像に応じた第2マスク画像とを生成するマスク画像生成部と、
前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲に基づいて前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲を調整する範囲調整部と、
前記第1画像に前記第1マスク画像を合成して第1合成画像を生成し、且つ、前記第2画像に前記第2マスク画像を合成して第2合成画像を生成する合成画像生成部と、
前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求める第1算出部と、
前記複数の相互相関関数に基づいて相関係数を算出する第2算出部と、
前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行うレジストレーション部と、
前記レジストレーションの結果に基づいて前記第1画像と前記第2画像とのマージ画像を構築するマージ処理部と
を含む、走査型イメージング装置。
A scanning unit that collects data by applying optical scanning that follows a two-dimensional pattern that includes a series of cycles to a sample.
An image construction unit that constructs the first image and the second image based on the data, and
A mask image generation unit that generates a first mask image corresponding to the first image and a second mask image corresponding to the second image.
A range adjusting unit that adjusts the pixel value range of the first image and the pixel value range of the second image based on the pixel value range of the first mask image and the pixel value range of the second mask image. ,
A composite image generation unit that synthesizes the first mask image with the first image to generate a first composite image, and synthesizes the second mask image with the second image to generate a second composite image. ,
A first calculation unit that obtains a plurality of cross-correlation functions based on the first composite image and the second composite image, and
A second calculation unit that calculates the correlation coefficient based on the plurality of cross-correlation functions, and
A registration unit that performs registration between the first image and the second image based on the correlation coefficient, and
A scanning imaging apparatus including a merge processing unit that constructs a merged image of the first image and the second image based on the result of the registration.
前記走査部は、互いに異なる第1方向及び第2方向に光を偏向可能な偏向器を含み、前記第1方向に沿った偏向方向の変化を第1周期で繰り返しつつ前記第2方向に沿った偏向方向の変化を前記第1周期と異なる第2周期で繰り返すことにより前記2次元パターンに従う光走査を前記サンプルに適用する、
請求項21の走査型イメージング装置。
The scanning unit includes deflectors capable of deflecting light in different first and second directions, and follows the second direction while repeating changes in the deflection direction along the first direction in the first cycle. Optical scanning according to the two-dimensional pattern is applied to the sample by repeating the change in the deflection direction in a second cycle different from the first cycle.
The scanning imaging apparatus according to claim 21.
サンプルに光走査を適用してデータを収集する走査部と、プロセッサとを含む走査型イメージング装置を制御する方法であって、
前記走査部を、一連のサイクルを含む2次元パターンに従う光走査をサンプルに適用してデータを収集するように制御し、
前記プロセッサを、
前記データに基づいて第1画像及び第2画像を構築し、
前記第1画像に応じた第1マスク画像と前記第2画像に応じた第2マスク画像とを生成し、
前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲に基づいて前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲を調整し、
前記第1画像に前記第1マスク画像を合成して第1合成画像を生成し、且つ、前記第2画像に前記第2マスク画像を合成して第2合成画像を生成し、
前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求め、
前記複数の相互相関関数に基づいて相関係数を算出し、
前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行い、及び、
前記レジストレーションの結果に基づいて前記第1画像と前記第2画像とのマージ画像を構築する
ように制御する、
走査型イメージング装置の制御方法。
A method of controlling a scanning imaging device that includes a scanning unit that applies optical scanning to a sample to collect data and a processor.
The scanning unit is controlled to apply optical scanning according to a two-dimensional pattern including a series of cycles to the sample to collect data.
The processor
The first image and the second image are constructed based on the above data, and the first image and the second image are constructed.
A first mask image corresponding to the first image and a second mask image corresponding to the second image are generated.
The pixel value range of the first image and the pixel value range of the second image are adjusted based on the pixel value range of the first mask image and the pixel value range of the second mask image.
The first mask image is combined with the first image to generate a first composite image, and the second mask image is combined with the second image to generate a second composite image.
A plurality of cross-correlation functions were obtained based on the first composite image and the second composite image.
The correlation coefficient is calculated based on the plurality of cross-correlation functions, and the correlation coefficient is calculated.
Registration between the first image and the second image is performed based on the correlation coefficient, and
Control to construct a merged image of the first image and the second image based on the registration result.
How to control a scanning imaging device.
請求項1〜17、20又は23の方法をコンピュータに実行させるプログラム。 A program that causes a computer to execute the method of claims 1 to 17, 20 or 23. 請求項24のプログラムが記録されたコンピュータ可読な非一時的記録媒体。

A computer-readable non-temporary recording medium on which the program of claim 24 is recorded.

JP2019223138A 2019-12-10 2019-12-10 Image processing method, scanning imaging method, image processing device, control method thereof, scanning imaging device, control method thereof, program, and recording medium Active JP7410481B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019223138A JP7410481B2 (en) 2019-12-10 2019-12-10 Image processing method, scanning imaging method, image processing device, control method thereof, scanning imaging device, control method thereof, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019223138A JP7410481B2 (en) 2019-12-10 2019-12-10 Image processing method, scanning imaging method, image processing device, control method thereof, scanning imaging device, control method thereof, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2021090631A true JP2021090631A (en) 2021-06-17
JP7410481B2 JP7410481B2 (en) 2024-01-10

Family

ID=76311127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019223138A Active JP7410481B2 (en) 2019-12-10 2019-12-10 Image processing method, scanning imaging method, image processing device, control method thereof, scanning imaging device, control method thereof, program, and recording medium

Country Status (1)

Country Link
JP (1) JP7410481B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023162586A1 (en) * 2022-02-24 2023-08-31 国立大学法人 筑波大学 Scanning imaging device, information processing device, method for controlling scanning imaging device, method for controlling information processing device, information processing method, program, and recording medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201302887D0 (en) 2013-02-19 2013-04-03 Optos Plc Improvements in or relating to image processing
US10653310B2 (en) 2017-02-28 2020-05-19 Canon Kabushiki Kaisha Imaging apparatus, control method for an imaging apparatus, and program
JP6929662B2 (en) 2017-02-28 2021-09-01 キヤノン株式会社 Imaging equipment, imaging methods and programs
JP2018140004A (en) 2017-02-28 2018-09-13 キヤノン株式会社 Imaging device, imaging method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023162586A1 (en) * 2022-02-24 2023-08-31 国立大学法人 筑波大学 Scanning imaging device, information processing device, method for controlling scanning imaging device, method for controlling information processing device, information processing method, program, and recording medium

Also Published As

Publication number Publication date
JP7410481B2 (en) 2024-01-10

Similar Documents

Publication Publication Date Title
JP2018175258A (en) Image generating device, image generation method, and program
JP2022040372A (en) Ophthalmologic apparatus
JP7134324B2 (en) OPHTHALMIC PHOTOGRAPHIC APPARATUS, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF
WO2021153087A1 (en) Ophthalmic device, control method thereof, and storage medium
JP2021092445A (en) Scan type imaging device, control method of the same, image processing device, control method of the same, scan type imaging method, image processing method, program and recording medium
JP7215862B2 (en) OPHTHALMIC PHOTOGRAPHIC APPARATUS, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF
JP7384987B2 (en) ophthalmology equipment
JP7378557B2 (en) Ophthalmologic imaging device, its control method, program, and recording medium
JP7410481B2 (en) Image processing method, scanning imaging method, image processing device, control method thereof, scanning imaging device, control method thereof, program, and recording medium
JP2023014190A (en) Ophthalmology imaging apparatus
WO2021153086A1 (en) Ophthalmic apparatus, control method thereof, and recording medium
JP2022060588A (en) Ophthalmologic apparatus and control method of ophthalmologic apparatus
JP7050488B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP2022132898A (en) Ophthalmologic data processing method, ophthalmologic data processing apparatus, control method thereof, ophthalmologic examination apparatus, control method thereof, program and recording medium
JP7355331B2 (en) Scanning imaging device, control method thereof, image processing device, control method thereof, scanning imaging method, image processing method, program, and recording medium
JP7341422B2 (en) Scanning imaging device, control method thereof, scanning imaging method, program, and recording medium
WO2023162586A1 (en) Scanning imaging device, information processing device, method for controlling scanning imaging device, method for controlling information processing device, information processing method, program, and recording medium
JP7325675B2 (en) ophthalmic imaging equipment
JP7236832B2 (en) OPHTHALMIC PHOTOGRAPHIC APPARATUS, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF
WO2021176893A1 (en) Ophthalmic device, control method therefor, and storage medium
WO2022085501A1 (en) Ophthalmic device, control method therefor, program, and recording medium
JP2023048318A (en) Scanning type imaging device, information processing device, control method of scanning type imaging device, control method of information processing device, information processing method, program, and recording medium
JP6942627B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP6959158B2 (en) Ophthalmic equipment
JP6942626B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231212

R150 Certificate of patent or registration of utility model

Ref document number: 7410481

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150