JP7410481B2 - Image processing method, scanning imaging method, image processing device, control method thereof, scanning imaging device, control method thereof, program, and recording medium - Google Patents

Image processing method, scanning imaging method, image processing device, control method thereof, scanning imaging device, control method thereof, program, and recording medium Download PDF

Info

Publication number
JP7410481B2
JP7410481B2 JP2019223138A JP2019223138A JP7410481B2 JP 7410481 B2 JP7410481 B2 JP 7410481B2 JP 2019223138 A JP2019223138 A JP 2019223138A JP 2019223138 A JP2019223138 A JP 2019223138A JP 7410481 B2 JP7410481 B2 JP 7410481B2
Authority
JP
Japan
Prior art keywords
image
pixel value
mask
value range
mask image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019223138A
Other languages
Japanese (ja)
Other versions
JP2021090631A (en
Inventor
修一 巻田
嘉晃 安野
達夫 山口
雅博 澁谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
University of Tsukuba NUC
Original Assignee
Topcon Corp
University of Tsukuba NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp, University of Tsukuba NUC filed Critical Topcon Corp
Priority to JP2019223138A priority Critical patent/JP7410481B2/en
Publication of JP2021090631A publication Critical patent/JP2021090631A/en
Application granted granted Critical
Publication of JP7410481B2 publication Critical patent/JP7410481B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、画像処理方法、走査型イメージング方法、画像処理装置、その制御方法、走査型イメージング装置、その制御方法、プログラム、及び記録媒体に関する。 The present invention relates to an image processing method, a scanning imaging method, an image processing apparatus, a control method thereof, a scanning imaging apparatus, a control method thereof, a program, and a recording medium.

イメージング技術の1つに走査型イメージングがある。走査型イメージングとは、サンプルの複数の箇所に順次にビームを照射してデータを収集し、収集されたデータからサンプルの像を構築する技術である。 One of the imaging techniques is scanning imaging. Scanning imaging is a technique that collects data by sequentially irradiating multiple locations on a sample with a beam, and constructs an image of the sample from the collected data.

光を利用した走査型イメージングの典型例として光コヒーレンストモグラフィ(OCT;光干渉断層撮影法)が知られている。OCTは、光散乱媒質をマイクロメートルレベル又はそれ以下の分解能で画像化することが可能な技術であり、医用イメージングや非破壊検査などに応用されている。OCTは、低コヒーレンス干渉法に基づく技術であり、典型的には、光散乱媒質のサンプルへの深達性を担保するために近赤外光を利用する。 Optical coherence tomography (OCT) is known as a typical example of scanning imaging using light. OCT is a technology that can image a light scattering medium at a resolution of micrometer level or lower, and is applied to medical imaging, nondestructive testing, and the like. OCT is a technique based on low coherence interferometry and typically utilizes near-infrared light to ensure deep penetration of the light scattering medium into the sample.

例えば眼科画像診断ではOCT装置の普及が進んでおり、2次元的なイメージングだけでなく、3次元的なイメージング・構造解析・機能解析なども実用化され、診断の強力なツールとして広く利用されるに至っている。また、眼科分野では、走査型レーザー検眼鏡(SLO)など、OCT以外の走査型イメージングも利用されている。なお、近赤外光以外の波長帯の光(電磁波)や超音波を利用した走査型イメージングも知られている。 For example, in ophthalmological image diagnosis, OCT devices are becoming more and more popular, and not only two-dimensional imaging but also three-dimensional imaging, structural analysis, and functional analysis have been put into practical use, and are widely used as powerful diagnostic tools. It has reached this point. Furthermore, in the field of ophthalmology, scanning imaging other than OCT, such as scanning laser ophthalmoscopy (SLO), is also used. Note that scanning imaging that uses light (electromagnetic waves) in a wavelength band other than near-infrared light or ultrasonic waves is also known.

OCTやSLOで利用される走査モードには様々なものがあるが、モーションアーティファクト補正などを目的とした所謂「リサージュ(Lissajous)スキャン」が近年注目を集めている(例えば、特許文献1~4、非特許文献1及び2を参照)。 There are various scanning modes used in OCT and SLO, but the so-called "Lissajous scan" for the purpose of motion artifact correction has attracted attention in recent years (for example, Patent Documents 1 to 4, (See Non-Patent Documents 1 and 2).

典型的なリサージュスキャンでは、或る程度の大きさを持つループ(サイクル)を描くように測定光を高速走査するため、1つのサイクルからのデータ取得時間の差を実質的に無視することができ、また、異なるサイクルの交差領域を参照してサイクル間の位置合わせを行えるため、サンプルの動きに起因するアーティファクトを補正することが可能である。このようなリサージュスキャンの特徴に着目し、眼科分野では眼球運動に起因するアーティファクトへの対処を図っている。 In a typical Lissajous scan, the measurement light is scanned at high speed in a loop (cycle) of a certain size, so the difference in data acquisition time from one cycle can be virtually ignored. Furthermore, since alignment between cycles can be performed by referring to the intersecting regions of different cycles, it is possible to correct artifacts caused by sample movement. Focusing on these characteristics of Lissajous scans, the ophthalmology field is trying to deal with artifacts caused by eye movements.

非特許文献1に記載された技術においては、リサージュスキャンで収集されたデータを比較的大きな動きが介在しない複数のサブボリュームに分割し、各サブボリュームの正面プロジェクション画像(en face projection)を構築する。このような正面プロジェクション画像はストリップと呼ばれる。これらストリップの間のレジストレーションを行うことでモーションアーティファクトが補正された画像が得られる。 In the technique described in Non-Patent Document 1, data collected by a Lissajous scan is divided into a plurality of sub-volumes without relatively large movements, and an en face projection image of each sub-volume is constructed. . Such a front projection image is called a strip. By performing registration between these strips, an image with motion artifacts corrected can be obtained.

リサージュスキャンの特性として、2つのストリップは4箇所で重複する(交差する)。非特許文献1に記載された画像処理では、最大のストリップが初期基準ストリップとして採用され、初期基準ストリップに対して大きさ順にストリップが逐次にレジストレーションされ、合成される。レジストレーションでは、基準ストリップと他のストリップとの間の相対位置を求めるために相互相関関数が利用される。なお、ストリップは任意の形状を有するため、各ストリップを特定形状(例えば正方形状)の画像として扱うためのマスクを用いてストリップ間のオーバーラップ領域の相関演算が行われる(非特許文献1のAppendix Aを参照)。 As a characteristic of the Lissajous scan, the two strips overlap (intersect) at four points. In the image processing described in Non-Patent Document 1, the largest strip is adopted as an initial reference strip, and strips are sequentially registered and combined in order of size with respect to the initial reference strip. Registration utilizes a cross-correlation function to determine the relative position between a reference strip and other strips. Note that since the strips have an arbitrary shape, a correlation calculation of the overlap area between the strips is performed using a mask to treat each strip as an image of a specific shape (for example, a square shape) (Appendix of Non-Patent Document 1). see A).

ここで、ストリップは所定階調の強度画像であり、マスクは二値データである。そのため、マスクの画素値の絶対値は常に小さい(0又は1)一方で、ストリップの画素値の絶対値は大きくなることがある。その影響により、ストリップとマスクとを用いた相関演算においてマスクの効果が無視され、正しい相関係数が得られない場合がある。特に、ストリップ間の相関係数を求めるために単精度浮動小数点型(フロート型)の演算が採用される場合、有効桁数の少なさに起因する丸め誤差の影響により、この問題が顕著に現れる。 Here, the strip is an intensity image of a predetermined gradation, and the mask is binary data. Therefore, while the absolute value of the pixel value of the mask is always small (0 or 1), the absolute value of the pixel value of the strip may be large. Due to this influence, the effect of the mask may be ignored in correlation calculations using strips and masks, and correct correlation coefficients may not be obtained. In particular, when single-precision floating-point type (float type) arithmetic is employed to obtain the correlation coefficient between strips, this problem becomes conspicuous due to the influence of rounding errors caused by the small number of significant digits.

特開2016-17915号公報Japanese Patent Application Publication No. 2016-17915 特開2018-68578号公報JP2018-68578A 特開2018-140004号公報JP 2018-140004 Publication 特開2018-140049号公報JP 2018-140049 Publication

Yiwei Chen, Young-Joo Hong, Shuichi Makita, and Yoshiaki Yasuno, ”Three-dimensional eye motion correction by Lissajous scan optical coherence tomography”, Biomedical Optics EXPRESS, Vol. 8, No. 3, 1 Mar 2017, PP. 1783-1802Yiwei Chen, Young-Joo Hong, Shuichi Makita, and Yoshiaki Yasuno, “Three-dimensional eye motion correction by Lissajous scan optical coherence tomography”, Biomedical Optics EXPRESS, Vol. 8, No. 3, 1 Mar 2017, PP. 1783- 1802 Yiwei Chen, Young-Joo Hong, Shuichi Makita, and Yoshiaki Yasuno, ”Eye-motion-corrected optical coherence tomography angiography using Lissajous scanning”, Biomedical Optics EXPRESS, Vol. 9, No. 3, 1 Mar 2018, PP. 1111-1129Yiwei Chen, Young-Joo Hong, Shuichi Makita, and Yoshiaki Yasuno, “Eye-motion-corrected optical coherence tomography angiography using Lissajous scanning”, Biomedical Optics EXPRESS, Vol. 9, No. 3, 1 Mar 2018, PP. 1111- 1129

この発明の1つの目的は、マスクを用いた画像レジストレーションの正確性を向上させることにある。 One purpose of this invention is to improve the accuracy of image registration using a mask.

幾つかの態様は、画像処理方法であって、サンプルの第1画像及び第2画像を準備し、マスク画像を準備し、前記第1画像の画素値の範囲と前記第2画像の画素値の範囲と前記マスク画像の画素値の範囲とを相対的に調整し、前記第1画像及び前記第2画像のそれぞれに前記マスク画像を合成して第1合成画像及び第2合成画像を生成し、前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求め、前記複数の相互相関関数に基づいて相関係数を算出し、前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行う。 Some aspects provide an image processing method, comprising: preparing a first image and a second image of a sample; preparing a mask image; and determining a range of pixel values of the first image and a pixel value of the second image. relatively adjusting a range and a range of pixel values of the mask image, and composing the mask image with each of the first image and the second image to generate a first composite image and a second composite image, A plurality of cross-correlation functions are obtained based on the first composite image and the second composite image, a correlation coefficient is calculated based on the plurality of cross-correlation functions, and a correlation coefficient is calculated between the first image and the second composite image based on the correlation coefficient. Registration with the second image is performed.

幾つかの態様において、画像処理方法は、前記サンプルの画像の画素値の範囲と前記マスク画像の画素値の範囲との間の差を小さくする。 In some aspects, an image processing method reduces a difference between a range of pixel values of the sample image and a range of pixel values of the mask image.

幾つかの態様において、画像処理方法は、前記サンプルの画像及び前記マスク画像の一方の画素値の範囲を他方の画素値の範囲に一致させる。 In some aspects, the image processing method matches a pixel value range of one of the sample image and the mask image to a pixel value range of the other.

幾つかの態様において、画像処理方法は、前記マスク画像の画素値の範囲に応じて前記サンプルの画像の画素値の範囲を正規化する。 In some aspects, the image processing method normalizes a pixel value range of the sample image according to a pixel value range of the mask image.

幾つかの態様において、前記マスク画像の画素値の範囲は閉区間[0,1]に含まれ、画像処理方法は、前記サンプルの画像の各画素の値を、当該画像における最大画素値で除算する。 In some aspects, the range of pixel values of the mask image is included in a closed interval [0,1], and the image processing method includes dividing the value of each pixel of the sample image by the maximum pixel value in the image. do.

幾つかの態様において、前記マスク画像の画素値の範囲は閉区間[0,1]に含まれ、画像処理方法は、前記サンプルの画像の各画素の値を、当該画像の画素値の範囲の最大値で除算する。 In some aspects, the range of pixel values of the mask image is included in a closed interval [0, 1], and the image processing method is configured to calculate the value of each pixel of the sample image within the range of pixel values of the image. Divide by the maximum value.

幾つかの態様において、前記マスク画像は、画素値が0又は1の二値画像である。 In some aspects, the mask image is a binary image with pixel values of 0 or 1.

幾つかの態様において、前記マスク画像は、前記サンプルの画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像である。 In some aspects, the mask image is a binary image in which pixels in a region corresponding to the domain of the sample image have a value of 1 and other pixels have values of 0.

幾つかの態様において、前記マスク画像は、第1マスク画像と第2マスク画像とを含み、画像処理方法は、前記第1マスク画像を前記第1画像に合成して前記第1合成画像を生成し、前記第2マスク画像を前記第2画像に合成して前記第2合成画像を生成する。 In some aspects, the mask image includes a first mask image and a second mask image, and the image processing method includes combining the first mask image with the first image to generate the first composite image. Then, the second mask image is combined with the second image to generate the second combined image.

幾つかの態様において、前記第1マスク画像及び前記第2マスク画像は、同じ寸法及び同じ形状を有する。 In some aspects, the first mask image and the second mask image have the same dimensions and the same shape.

幾つかの態様において、前記第1マスク画像は、前記第1画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であり、前記第2マスク画像は、前記第2画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像である。 In some aspects, the first mask image is a binary image in which the value of a pixel in a region corresponding to the domain of the first image is 1, and the value of other pixels is 0, and the The second mask image is a binary image in which the values of pixels in a region corresponding to the domain of the second image are 1, and the values of other pixels are 0.

幾つかの態様において、前記第1画像及び前記第2画像のそれぞれは、一連のサイクルを含む2次元パターンに従う走査を前記サンプルに適用して収集されたデータに基づき構築される。 In some aspects, each of the first image and the second image is constructed based on data collected by applying a scan to the sample that follows a two-dimensional pattern that includes a series of cycles.

幾つかの態様において、前記第1画像及び前記第2画像のそれぞれは、リサージュ関数に基づき予め設定された走査プロトコルに基づく2次元パターンに従う走査を前記サンプルに適用して収集されたデータに基づき構築される。 In some aspects, each of the first image and the second image is constructed based on data collected by applying a scan to the sample according to a two-dimensional pattern based on a preset scanning protocol based on a Lissajous function. be done.

幾つかの態様は、走査型イメージング方法であって、一連のサイクルを含む2次元パターンに従う光走査をサンプルに適用してデータを収集し、前記データに基づいて第1画像及び第2画像を構築し、前記第1画像の画素値の範囲と前記第2画像の画素値の範囲とマスク画像の画素値の範囲とを相対的に調整し、前記第1画像及び前記第2画像のそれぞれに前記マスク画像を合成して第1合成画像及び第2合成画像を生成し、前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求め、前記複数の相互相関関数に基づいて相関係数を算出し、前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行い、前記レジストレーションの結果に基づいて前記第1画像と前記第2画像とのマージ画像を構築する。 Some aspects are scanning imaging methods, the method comprising: applying a light scan to a sample according to a two-dimensional pattern including a series of cycles to collect data; and constructing a first image and a second image based on the data. The pixel value range of the first image, the pixel value range of the second image, and the pixel value range of the mask image are relatively adjusted, and the pixel value range of the first image and the second image are each composing the mask images to generate a first composite image and a second composite image; determining a plurality of cross-correlation functions based on the first composite image and the second composite image; and determining a plurality of cross-correlation functions based on the plurality of cross-correlation functions. calculating a correlation coefficient, registering the first image and the second image based on the correlation coefficient, and merging the first image and the second image based on the result of the registration; Build the image.

幾つかの態様において、走査型イメージング方法は、前記データに基づいて第3画像を構築し、前記第3画像の画素値の範囲と前記マージ画像の画素値の範囲とマスク画像の画素値の範囲とを相対的に調整し、前記第3画像及び前記マージ画像のそれぞれに当該マスク画像を合成して第3合成画像及び第4合成画像を生成し、前記第3合成画像及び前記第4合成画像に基づいて複数の相互相関関数を求め、当該複数の相互相関関数に基づいて相関係数を算出し、当該相関係数に基づいて前記第3画像と前記第4画像とのレジストレーションを行い、前記レジストレーションの結果に基づいて前記第3画像と前記マージ画像とをマージする。 In some aspects, the scanning imaging method constructs a third image based on the data, and includes a range of pixel values of the third image, a range of pixel values of the merged image, and a range of pixel values of the mask image. and combine the mask image with each of the third image and the merged image to generate a third composite image and a fourth composite image, and generate the third composite image and the fourth composite image. determine a plurality of cross-correlation functions based on the above, calculate a correlation coefficient based on the plurality of cross-correlation functions, and register the third image and the fourth image based on the correlation coefficient, The third image and the merged image are merged based on the registration result.

幾つかの態様において、前記一連のサイクルのうちの任意の2つのサイクルは、少なくとも1点で互いに交差し、走査型イメージング方法は、前記一連のサイクルのうちの第1サイクル群に従う光走査で収集された第1データに基づいて前記第1画像を構築し、前記一連のサイクルのうち前記第1サイクル群と異なる第2サイクル群に従う光走査で収集された第2データに基づいて前記第2画像を構築する。 In some embodiments, any two cycles of the series of cycles intersect each other at at least one point, and the scanning imaging method collects with an optical scan according to a first group of cycles of the series of cycles. The first image is constructed based on the first data that has been generated, and the second image is constructed based on second data collected by optical scanning according to a second cycle group different from the first cycle group among the series of cycles. Build.

幾つかの態様において、走査型イメージング方法は、リサージュ関数に基づき予め設定された走査プロトコルに基づいて前記2次元パターンに従う光走査を行う。 In some embodiments, the scanning imaging method performs optical scanning according to the two-dimensional pattern based on a preset scanning protocol based on a Lissajous function.

幾つかの態様は、画像処理装置であって、サンプルの第1画像及び第2画像を記憶する記憶部と、前記第1画像に応じた第1マスク画像と前記第2画像に応じた第2マスク画像とを生成するマスク画像生成部と、前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲に基づいて前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲を調整する範囲調整部と、前記第1画像に前記第1マスク画像を合成して第1合成画像を生成し、且つ、前記第2画像に前記第2マスク画像を合成して第2合成画像を生成する合成画像生成部と、前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求める第1算出部と、前記複数の相互相関関数に基づいて相関係数を算出する第2算出部と、前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行うレジストレーション部とを含む。 Some aspects of the image processing apparatus include a storage unit that stores a first image and a second image of a sample, a first mask image corresponding to the first image, and a second mask image corresponding to the second image. a mask image generation unit that generates a mask image, and a pixel value range of the first image and the second image based on the pixel value range of the first mask image and the pixel value range of the second mask image. a range adjustment unit that adjusts a range of pixel values; a range adjusting unit that combines the first mask image with the first image to generate a first composite image; and combines the second mask image with the second image; a composite image generation unit that generates a second composite image based on the first composite image and the second composite image; a first calculation unit that calculates a plurality of cross-correlation functions based on the plurality of cross-correlation functions; The image forming apparatus includes a second calculation section that calculates a correlation coefficient, and a registration section that performs registration of the first image and the second image based on the correlation coefficient.

幾つかの態様において、画像処理装置は、一連のサイクルを含む2次元パターンに従う光走査によりサンプルから収集されたデータを受け付けるデータ受付部と、前記データに基づいて前記第1画像及び前記第2画像を構築する画像構築部とを更に含む。 In some aspects, the image processing device includes a data receiving unit that receives data collected from a sample by optical scanning according to a two-dimensional pattern including a series of cycles; and an image construction unit that constructs the image.

幾つかの態様は、サンプルの第1画像及び第2画像を記憶する記憶部と、プロセッサとを含む画像処理装置を制御する方法であって、前記プロセッサを、前記第1画像に応じた第1マスク画像と前記第2画像に応じた第2マスク画像とを生成し、前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲に基づいて前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲を調整し、前記第1画像に前記第1マスク画像を合成して第1合成画像を生成し、且つ、前記第2画像に前記第2マスク画像を合成して第2合成画像を生成し、前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求め、前記複数の相互相関関数に基づいて相関係数を算出し、及び、前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行うように制御する。 Some aspects are a method of controlling an image processing device including a storage unit that stores a first image and a second image of a sample, and a processor, the method of controlling the image processing device including a storage unit that stores a first image and a second image of a sample, A mask image and a second mask image corresponding to the second image are generated, and the pixel values of the first image are determined based on the pixel value range of the first mask image and the pixel value range of the second mask image. and a range of pixel values of the second image, and combine the first mask image with the first image to generate a first composite image, and combine the second mask image with the second image. to generate a second composite image, obtain a plurality of cross-correlation functions based on the first composite image and the second composite image, calculate a correlation coefficient based on the plurality of cross-correlation functions, Then, control is performed to perform registration between the first image and the second image based on the correlation coefficient.

幾つかの態様は、走査型イメージング装置であって、一連のサイクルを含む2次元パターンに従う光走査をサンプルに適用してデータを収集する走査部と、前記データに基づいて第1画像及び第2画像を構築する画像構築部と、前記第1画像に応じた第1マスク画像と前記第2画像に応じた第2マスク画像とを生成するマスク画像生成部と、前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲に基づいて前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲を調整する範囲調整部と、前記第1画像に前記第1マスク画像を合成して第1合成画像を生成し、且つ、前記第2画像に前記第2マスク画像を合成して第2合成画像を生成する合成画像生成部と、前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求める第1算出部と、前記複数の相互相関関数に基づいて相関係数を算出する第2算出部と、前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行うレジストレーション部と、前記レジストレーションの結果に基づいて前記第1画像と前記第2画像とのマージ画像を構築するマージ処理部とを含む。 Some embodiments are scanning imaging devices, including a scanning unit that collects data by applying optical scanning to a sample according to a two-dimensional pattern that includes a series of cycles; an image construction section that constructs an image; a mask image generation section that generates a first mask image according to the first image and a second mask image according to the second image; and a pixel value of the first mask image. a range adjustment unit that adjusts a pixel value range of the first image and a pixel value range of the second image based on a range of pixel values of the first image and a pixel value range of the second mask image; a composite image generation unit that generates a first composite image by combining two mask images, and generates a second composite image by combining the second mask image with the second image; a first calculation section that calculates a plurality of cross-correlation functions based on the second composite image; a second calculation section that calculates a correlation coefficient based on the plurality of cross-correlation functions; and a second calculation section that calculates a correlation coefficient based on the correlation coefficient. The image forming apparatus includes a registration section that performs registration of the first image and the second image, and a merge processing section that constructs a merged image of the first image and the second image based on the result of the registration.

幾つかの態様において、前記走査部は、互いに異なる第1方向及び第2方向に光を偏向可能な偏向器を含み、前記第1方向に沿った偏向方向の変化を第1周期で繰り返しつつ前記第2方向に沿った偏向方向の変化を前記第1周期と異なる第2周期で繰り返すことにより前記2次元パターンに従う光走査を前記サンプルに適用する。 In some embodiments, the scanning unit includes a deflector capable of deflecting light in a first direction and a second direction that are different from each other, and repeats a change in the deflection direction along the first direction in a first period, and Optical scanning according to the two-dimensional pattern is applied to the sample by repeating changes in the deflection direction along the second direction at a second period different from the first period.

幾つかの態様は、サンプルに光走査を適用してデータを収集する走査部と、プロセッサとを含む走査型イメージング装置を制御する方法であって、前記走査部を、一連のサイクルを含む2次元パターンに従う光走査をサンプルに適用してデータを収集するように制御し、前記プロセッサを、前記データに基づいて第1画像及び第2画像を構築し、前記第1画像に応じた第1マスク画像と前記第2画像に応じた第2マスク画像とを生成し、前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲に基づいて前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲を調整し、前記第1画像に前記第1マスク画像を合成して第1合成画像を生成し、且つ、前記第2画像に前記第2マスク画像を合成して第2合成画像を生成し、前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求め、前記複数の相互相関関数に基づいて相関係数を算出し、前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行い、及び、前記レジストレーションの結果に基づいて前記第1画像と前記第2画像とのマージ画像を構築するように制御する。 Some aspects are methods of controlling a scanning imaging device including a scanning unit that collects data by applying optical scanning to a sample, and a processor, the scanning unit being a two-dimensional imaging device that includes a series of cycles. controlling the processor to collect data by applying light scanning according to a pattern to the sample; and controlling the processor to construct a first image and a second image based on the data, and to construct a first mask image responsive to the first image. and a second mask image corresponding to the second image, and generate a pixel value range of the first image based on the pixel value range of the first mask image and the pixel value range of the second mask image. and adjusting a pixel value range of the second image, composing the first mask image with the first image to generate a first composite image, and composing the second mask image with the second image. to generate a second composite image, obtain a plurality of cross-correlation functions based on the first composite image and the second composite image, calculate a correlation coefficient based on the plurality of cross-correlation functions, and calculate the correlation coefficient based on the plurality of cross-correlation functions. Control is performed to register the first image and the second image based on a relational coefficient, and to construct a merged image of the first image and the second image based on the result of the registration. do.

幾つかの態様は、上記のいずれかの方法をコンピュータに実行させるプログラムである。 Some embodiments are programs that cause a computer to execute any of the methods described above.

幾つかの態様は、上記のいずれかの方法をコンピュータに実行させるプログラムが記録された、コンピュータ可読な非一時的記録媒体である。 Some embodiments are computer-readable non-transitory recording media on which a program for causing a computer to execute any of the methods described above is recorded.

いずれか2以上の態様を少なくとも部分的に組み合わせることが可能である。また、いずれかの態様に対し、本開示に係る任意の事項を少なくとも部分的に組み合わせることが可能である。また、いずれか2以上の態様の少なくとも部分的な組み合わせに対し、本開示に係る任意の事項を少なくとも部分的に組み合わせることが可能である。 It is possible to at least partially combine any two or more aspects. Furthermore, any aspect of the present disclosure can be at least partially combined with any aspect. Further, it is possible to at least partially combine any two or more aspects of the present disclosure with at least partially.

例示的な態様によれば、マスクを用いた画像レジストレーションの正確性を向上させることが可能である。 According to example aspects, accuracy of image registration using a mask can be improved.

例示的な実施形態に係る走査型イメージング装置(眼科装置)の構成の一例を表す概略図である。FIG. 1 is a schematic diagram illustrating an example of the configuration of a scanning imaging device (ophthalmological device) according to an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)の構成の一例を表す概略図である。FIG. 1 is a schematic diagram illustrating an example of the configuration of a scanning imaging device (ophthalmological device) according to an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)の構成の一例を表す概略図である。FIG. 1 is a schematic diagram illustrating an example of the configuration of a scanning imaging device (ophthalmological device) according to an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)の構成の一例を表す概略図である。FIG. 1 is a schematic diagram illustrating an example of the configuration of a scanning imaging device (ophthalmological device) according to an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)の構成の一例を表す概略図である。FIG. 1 is a schematic diagram illustrating an example of the configuration of a scanning imaging device (ophthalmological device) according to an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)が実行するリサージュスキャンのパターンの例を示す概略図である。FIG. 2 is a schematic diagram illustrating an example of a Lissajous scan pattern performed by a scanning imaging device (ophthalmological device) according to an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)の動作の一例を表すフローチャートである。1 is a flowchart illustrating an example of the operation of a scanning imaging device (ophthalmological device) according to an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)の動作の一例を説明するための図である。FIG. 2 is a diagram for explaining an example of the operation of a scanning imaging device (ophthalmological device) according to an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)の動作の一例を説明するための図である。FIG. 2 is a diagram for explaining an example of the operation of a scanning imaging device (ophthalmological device) according to an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)の動作の一例を説明するための図である。FIG. 2 is a diagram for explaining an example of the operation of a scanning imaging device (ophthalmological device) according to an exemplary embodiment.

幾つかの例示的な実施形態に係る画像処理方法、走査型イメージング方法、画像処理装置、その制御方法、走査型イメージング装置、その制御方法、プログラム、及び記録媒体について、図面を参照しながら説明する。 An image processing method, a scanning imaging method, an image processing device, a control method thereof, a scanning imaging device, a control method thereof, a program, and a recording medium according to some exemplary embodiments will be described with reference to the drawings. .

本明細書にて引用された文献に開示された技術や、それ以外の任意の公知技術を、例示的な実施形態に援用することが可能である。また、特に言及しない限り、「画像データ」とそれに基づく「画像」とを区別せず、被検眼の「部位」とその「画像」とを区別しないものとする。 The techniques disclosed in the documents cited herein and any other known techniques may be incorporated into the exemplary embodiments. Furthermore, unless otherwise specified, there will be no distinction between "image data" and an "image" based on it, and no distinction will be made between a "part" of the eye to be examined and its "image."

以下に説明する例示的な実施形態に係る走査型イメージング装置は、フーリエドメインOCT(例えば、スウェプトソースOCT)を利用して生体眼の眼底を計測することが可能な眼科装置である。実施形態に採用可能なOCTのタイプは、スウェプトソースOCTに限定されず、例えばスペクトラルドメインOCT又はタイムドメインOCTであってもよい。 A scanning imaging device according to an exemplary embodiment described below is an ophthalmological device capable of measuring the fundus of a living eye using Fourier domain OCT (eg, swept source OCT). The type of OCT that can be employed in the embodiments is not limited to swept source OCT, but may be, for example, spectral domain OCT or time domain OCT.

幾つかの例示的な実施形態に係る走査型イメージング装置は、OCT以外の走査型モダリティを利用可能であってよい。例えば、幾つかの例示的な実施形態は、SLO等の任意の光走査型モダリティを採用することができる。 Scanning imaging devices according to some example embodiments may be capable of utilizing scanning modalities other than OCT. For example, some example embodiments may employ any optical scanning modality such as SLO.

また、幾つかの例示的な実施形態に係る走査型イメージング装置に適用可能な走査型モダリティは、光走査型モダリティには限定されない。例えば、幾つかの例示的な実施形態は、光以外の電磁波を利用した走査型モダリティや、超音波を利用した走査型モダリティなどを採用することができる。 Additionally, scanning modalities applicable to scanning imaging devices according to some example embodiments are not limited to optical scanning modalities. For example, some exemplary embodiments may employ scanning modalities that utilize electromagnetic waves other than light, scanning modalities that utilize ultrasound, and the like.

幾つかの例示的な実施形態に係る眼科装置は、OCTスキャンで収集されたデータの処理及び/又はSLOで収集されたデータの処理に加え、他のモダリティで取得されたデータを処理可能であってよい。他のモダリティは、例えば、眼底カメラ、スリットランプ顕微鏡、及び眼科手術用顕微鏡のいずれかであってよい。幾つかの例示的な実施形態に係る眼科装置は、このようなモダリティの機能を有していてよい。 In addition to processing data collected with an OCT scan and/or processing data collected with an SLO, the ophthalmological device according to some example embodiments can process data acquired with other modalities. It's fine. Other modalities may be, for example, a fundus camera, a slit lamp microscope, and an ophthalmic surgical microscope. Ophthalmic devices according to some example embodiments may have the functionality of such modalities.

OCTが適用される対象(サンプル)は眼底に限定されず、前眼部や硝子体など眼の任意の部位であってもよいし、眼以外の生体の部位や組織であってもよいし、生体以外の物体であってもよい。 The target (sample) to which OCT is applied is not limited to the fundus of the eye, but may be any part of the eye such as the anterior segment or vitreous body, or may be a part or tissue of a living body other than the eye. It may be an object other than a living body.

以下に説明する例示的な実施形態に係る眼科装置は、走査型イメージング装置の幾つかの態様、走査型イメージング装置を制御する方法の幾つかの態様、画像処理装置の幾つかの態様、画像処理装置を制御する方法の幾つかの態様、画像処理方法の幾つかの態様、及び、走査型イメージング方法の幾つかの態様を提供する。 Ophthalmic devices according to exemplary embodiments described below include some aspects of a scanning imaging device, some aspects of a method of controlling a scanning imaging device, some aspects of an image processing device, and some aspects of an image processing device. Some aspects of methods for controlling devices, some aspects of image processing methods, and some aspects of scanning imaging methods are provided.

〈走査型イメージング装置の構成〉
図1に示す眼科装置1は、眼底カメラユニット2、OCTユニット100、及び演算制御ユニット200を含む。眼底カメラユニット2には、被検眼Eを正面から撮影するための要素群(光学要素、機構など)が設けられている。OCTユニット100には、被検眼EにOCTスキャンを適用するための要素群(光学要素、機構など)の一部が設けられている。OCTスキャンのための要素群の他の一部は、眼底カメラユニット2に設けられている。演算制御ユニット200は、各種の演算や制御を実行する1以上のプロセッサを含む。これらに加え、眼科装置1は、被検者の顔を支持するための要素や、OCTスキャンが適用される部位を切り替えるための要素を備えていてもよい。前者の要素の例として、顎受けや額当てがある。後者の要素の例として、OCTスキャン適用部位を眼底から前眼部に切り替えるために使用されるレンズユニットがある。
<Configuration of scanning imaging device>
The ophthalmologic apparatus 1 shown in FIG. 1 includes a fundus camera unit 2, an OCT unit 100, and an arithmetic control unit 200. The fundus camera unit 2 is provided with a group of elements (optical elements, mechanisms, etc.) for photographing the eye E from the front. The OCT unit 100 is provided with a part of a group of elements (optical elements, mechanisms, etc.) for applying an OCT scan to the eye E to be examined. Another part of the element group for OCT scanning is provided in the fundus camera unit 2. Arithmetic control unit 200 includes one or more processors that perform various calculations and controls. In addition to these, the ophthalmologic apparatus 1 may include an element for supporting the subject's face and an element for switching the region to which an OCT scan is applied. Examples of the former element include a chin rest and a forehead rest. An example of the latter element is a lens unit used to switch the OCT scan application site from the fundus to the anterior segment of the eye.

本明細書に開示された要素の機能は、回路構成(circuitry)又は処理回路構成(processing circuitry)を用いて実装される。回路構成又は処理回路構成は、開示された機能を実行するように構成及び/又はプログラムされた、汎用プロセッサ、専用プロセッサ、集積回路、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array)、従来の回路構成、及びそれらの任意の組み合わせのいずれかを含む。プロセッサは、トランジスタ及び/又は他の回路構成を含む、処理回路構成又は回路構成とみなされる。本開示において、回路構成、ユニット、手段、又はこれらに類する用語は、開示された機能を実行するハードウェア、又は、開示された機能を実行するようにプログラムされたハードウェアである。ハードウェアは、本明細書に開示されたハードウェアであってよく、或いは、記載された機能を実行するようにプログラム及び/又は構成された既知のハードウェアであってもよい。ハードウェアが或るタイプの回路構成とみなされ得るプロセッサである場合、回路構成、ユニット、手段、又はこれらに類する用語は、ハードウェアとソフトウェアとの組み合わせであり、このソフトウェアはハードウェア及び/又はプロセッサを構成するために使用される。 The functionality of the elements disclosed herein is implemented using circuitry or processing circuitry. Circuitry or processing circuitry may include a general purpose processor, a special purpose processor, an integrated circuit, a central processing unit (CPU), a graphics processing unit (GPU), an ASIC ( Application Specific Integrated Circuit), programmable logic devices (for example, SPLD (Simple Programmable Logic Device), CPLD (Complex Programmable Logic Device), FPGA (Field Programmable Gate Array), conventional circuit configurations, and any combination thereof A processor is considered to be a processing circuitry or circuitry that includes transistors and/or other circuitry. In this disclosure, the term circuitry, unit, means, or similar terms may be used to perform the disclosed functionality. Hardware that executes or is programmed to perform the functions disclosed. The hardware may be the hardware disclosed herein or that is programmed to perform the functions described. It may be known hardware programmed and/or configured to is a combination of hardware and software that is used to configure the hardware and/or processor.

〈眼底カメラユニット2〉
眼底カメラユニット2には、被検眼Eの眼底Efを撮影するための光学系が設けられている。取得される眼底Efの画像(眼底像、眼底写真等と呼ばれる)は、観察画像、撮影画像等の正面画像である。観察画像は、例えば近赤外光を用いた動画撮影により得られ、アライメント、フォーカシング、トラッキングなどに利用される。撮影画像は、例えば可視領域又は赤外領域のフラッシュ光を用いた静止画像である。
<Funus camera unit 2>
The fundus camera unit 2 is provided with an optical system for photographing the fundus Ef of the eye E to be examined. The acquired image of the fundus Ef (referred to as a fundus image, fundus photograph, etc.) is a frontal image such as an observation image or a photographed image. Observation images are obtained, for example, by video shooting using near-infrared light, and are used for alignment, focusing, tracking, and the like. The photographed image is, for example, a still image using flash light in the visible region or infrared region.

眼底カメラユニット2は、照明光学系10と撮影光学系30とを含む。照明光学系10は被検眼Eに照明光を照射する。撮影光学系30は、被検眼Eからの照明光の戻り光を検出する。OCTユニット100からの測定光は、眼底カメラユニット2内の光路を通じて被検眼Eに導かれ、その戻り光は、同じ光路を通じてOCTユニット100に導かれる。 The fundus camera unit 2 includes an illumination optical system 10 and a photographing optical system 30. The illumination optical system 10 irradiates the eye E to be examined with illumination light. The photographing optical system 30 detects the return light of the illumination light from the eye E to be examined. The measurement light from the OCT unit 100 is guided to the eye E through the optical path within the fundus camera unit 2, and the return light is guided to the OCT unit 100 through the same optical path.

照明光学系10の観察光源11から出力された光(観察照明光)は、凹面鏡12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ系17、リレーレンズ18、絞り19、及びリレーレンズ系20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて被検眼E(眼底Ef)を照明する。観察照明光の被検眼Eからの戻り光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、撮影合焦レンズ31を経由し、ミラー32により反射される。更に、この戻り光は、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、結像レンズ34によりイメージセンサ35の受光面に結像される。イメージセンサ35は、所定のフレームレートで戻り光を検出する。なお、撮影光学系30のフォーカス(焦点位置)は、眼底Ef又は前眼部に合致するように調整される。 Light (observation illumination light) output from the observation light source 11 of the illumination optical system 10 is reflected by the concave mirror 12, passes through the condensing lens 13, and passes through the visible cut filter 14 to become near-infrared light. Further, the observation illumination light is once focused near the photographing light source 15, reflected by a mirror 16, and passes through a relay lens system 17, a relay lens 18, an aperture 19, and a relay lens system 20. The observation illumination light is reflected at the periphery of the apertured mirror 21 (the area around the aperture), passes through the dichroic mirror 46, and is refracted by the objective lens 22 to illuminate the eye E (fundus Ef). do. The return light of the observation illumination light from the subject's eye E is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the center area of the perforated mirror 21, and passes through the dichroic mirror 55. , passes through the photographic focusing lens 31 and is reflected by the mirror 32. Furthermore, this returned light passes through the half mirror 33A, is reflected by the dichroic mirror 33, and is imaged by the imaging lens 34 on the light receiving surface of the image sensor 35. The image sensor 35 detects the returned light at a predetermined frame rate. Note that the focus (focal position) of the photographing optical system 30 is adjusted to match the fundus Ef or the anterior segment of the eye.

撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。被検眼Eからの撮影照明光の戻り光は、観察照明光の戻り光と同じ経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、結像レンズ37によりイメージセンサ38の受光面に結像される。 The light output from the photographing light source 15 (photographing illumination light) passes through the same path as the observation illumination light and is irradiated onto the fundus Ef. The return light of the imaging illumination light from the eye E is guided to the dichroic mirror 33 through the same path as the return light of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is reflected by the imaging lens 37. An image is formed on the light receiving surface of the image sensor 38.

液晶ディスプレイ(LCD)39は固視標(固視標画像)を表示する。LCD39から出力された光束は、その一部がハーフミラー33Aに反射され、ミラー32に反射され、撮影合焦レンズ31及びダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光束は、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。LCD39における固視標画像の表示位置を変更することで、被検眼Eの視線を誘導する方向(固視方向、固視位置)が変更される。 A liquid crystal display (LCD) 39 displays a fixation target (fixation target image). A portion of the light beam output from the LCD 39 is reflected by the half mirror 33A, then reflected by the mirror 32, passes through the photographic focusing lens 31 and the dichroic mirror 55, and then passes through the hole of the perforated mirror 21. The light beam that has passed through the hole of the perforated mirror 21 is transmitted through the dichroic mirror 46, refracted by the objective lens 22, and projected onto the fundus Ef. By changing the display position of the fixation target image on the LCD 39, the direction (fixation direction, fixation position) in which the line of sight of the eye E to be examined is guided is changed.

LCD等の表示デバイスの代わりに、例えば、発光素子アレイ、又は、発光素子とこれを移動する機構との組み合わせを用いてもよい。 Instead of a display device such as an LCD, for example, a light emitting element array or a combination of a light emitting element and a mechanism for moving the light emitting element may be used.

アライメント光学系50は、被検眼Eに対する光学系の位置合わせ(アライメント)に用いられるアライメント指標を生成する。発光ダイオード(LED)51から出力されたアライメント光は、絞り52、絞り53、及びリレーレンズ54を経由し、ダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22を介して被検眼Eに投射される。アライメント光の被検眼Eからの戻り光(角膜反射光等)は、観察照明光の戻り光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(アライメント指標像)に基づいてマニュアルアライメントやオートアライメントを実行できる。 The alignment optical system 50 generates an alignment index used for positioning (alignment) the optical system with respect to the eye E to be examined. The alignment light output from the light emitting diode (LED) 51 passes through the aperture 52 , the aperture 53 , and the relay lens 54 , is reflected by the dichroic mirror 55 , passes through the hole of the perforated mirror 21 , and passes through the dichroic mirror 46 . The light is transmitted through the objective lens 22 and projected onto the eye E to be examined. Return light of the alignment light from the eye E to be examined (corneal reflected light, etc.) is guided to the image sensor 35 through the same path as the return light of the observation illumination light. Manual alignment or auto alignment can be performed based on the received light image (alignment index image).

従来と同様に、本例のアライメント指標像は、アライメント状態により位置が変化する2つの輝点像からなる。被検眼Eと光学系との相対位置がxy方向に変化すると、2つの輝点像が一体的にxy方向に変位する。被検眼Eと光学系との相対位置がz方向に変化すると、2つの輝点像の間の相対位置(距離)が変化する。z方向における被検眼Eと光学系との間の距離が既定のワーキングディスタンスに一致すると、2つの輝点像が重なり合う。xy方向において被検眼Eの位置と光学系の位置とが一致すると、所定のアライメントターゲット内又はその近傍に2つの輝点像が提示される。z方向における被検眼Eと光学系との間の距離がワーキングディスタンスに一致し、且つ、xy方向において被検眼Eの位置と光学系の位置とが一致すると、2つの輝点像が重なり合ってアライメントターゲット内に提示される。 As in the prior art, the alignment index image of this example consists of two bright spot images whose positions change depending on the alignment state. When the relative position between the eye E and the optical system changes in the xy direction, the two bright spot images are integrally displaced in the xy direction. When the relative position between the eye E and the optical system changes in the z direction, the relative position (distance) between the two bright spot images changes. When the distance between the eye E and the optical system in the z direction matches the predetermined working distance, the two bright spot images overlap. When the position of the eye E and the position of the optical system match in the xy direction, two bright spot images are presented within or near a predetermined alignment target. When the distance between the eye E and the optical system in the z direction matches the working distance, and the position of the eye E and the optical system match in the xy direction, the two bright spot images overlap and alignment occurs. presented within the target.

オートアライメントでは、データ処理部230が、2つの輝点像の位置を検出し、主制御部211が、2つの輝点像とアライメントターゲットとの位置関係に基づいて後述の移動機構150を制御する。マニュアルアライメントでは、主制御部211が、被検眼Eの観察画像とともに2つの輝点像を表示部241に表示させ、ユーザーが、表示された2つの輝点像を参照しながら操作部242を用いて移動機構150を動作させる。 In auto-alignment, the data processing unit 230 detects the positions of two bright spot images, and the main control unit 211 controls the movement mechanism 150, which will be described later, based on the positional relationship between the two bright spot images and the alignment target. . In manual alignment, the main control unit 211 displays two bright spot images on the display unit 241 together with the observation image of the eye E, and the user uses the operation unit 242 while referring to the two displayed bright spot images. to operate the moving mechanism 150.

フォーカス光学系60は、被検眼Eに対するフォーカス調整に用いられるスプリット指標を生成する。撮影光学系30の光路(撮影光路)に沿った撮影合焦レンズ31の移動に連動して、フォーカス光学系60は照明光学系10の光路(照明光路)に沿って移動される。反射棒67は、照明光路に対して挿脱される。フォーカス調整を行う際には、反射棒67の反射面が照明光路に傾斜配置される。LED61から出力されたフォーカス光は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65により反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22を介して被検眼Eに投射される。フォーカス光の被検眼Eからの戻り光(眼底反射光等)は、アライメント光の戻り光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(スプリット指標像)に基づいてマニュアルフォーカシングやオートフォーカシングを実行できる。 The focus optical system 60 generates a split index used for focus adjustment for the eye E to be examined. In conjunction with the movement of the photographing focusing lens 31 along the optical path of the photographing optical system 30 (photographing optical path), the focusing optical system 60 is moved along the optical path of the illumination optical system 10 (illumination optical path). The reflection rod 67 is inserted into and removed from the illumination optical path. When performing focus adjustment, the reflective surface of the reflective rod 67 is arranged at an angle to the illumination optical path. The focus light output from the LED 61 passes through a relay lens 62 , is separated into two beams by a split indicator plate 63 , passes through a two-hole diaphragm 64 , is reflected by a mirror 65 , and is reflected by a condensing lens 66 into a reflecting rod 67 . Once the image is formed on the reflective surface of the image, it is reflected. Further, the focus light passes through the relay lens 20, is reflected by the perforated mirror 21, passes through the dichroic mirror 46, and is projected onto the eye E through the objective lens 22. Return light of the focus light from the eye E to be examined (fundus reflected light, etc.) is guided to the image sensor 35 through the same path as the return light of the alignment light. Manual focusing or autofocusing can be performed based on the received light image (split index image).

孔開きミラー21とダイクロイックミラー55との間の撮影光路に、視度補正レンズ70及び71を選択的に挿入することができる。視度補正レンズ70は、強度遠視を補正するためのプラスレンズ(凸レンズ)である。視度補正レンズ71は、強度近視を補正するためのマイナスレンズ(凹レンズ)である。 Diopter correction lenses 70 and 71 can be selectively inserted into the photographing optical path between the perforated mirror 21 and the dichroic mirror 55. The diopter correction lens 70 is a plus lens (convex lens) for correcting severe hyperopia. The diopter correction lens 71 is a minus lens (concave lens) for correcting severe myopia.

ダイクロイックミラー46は、眼底撮影用光路とOCT用光路(測定アーム)とを合成する。ダイクロイックミラー46は、OCTに用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。測定アームには、OCTユニット100側から順に、コリメータレンズユニット40、リトロリフレクタ41、分散補償部材42、OCT合焦レンズ43、光スキャナ44、及びリレーレンズ45が設けられている。 The dichroic mirror 46 combines the fundus photographing optical path and the OCT optical path (measuring arm). The dichroic mirror 46 reflects light in a wavelength band used for OCT and transmits light for fundus photography. The measurement arm is provided with a collimator lens unit 40, a retroreflector 41, a dispersion compensation member 42, an OCT focusing lens 43, an optical scanner 44, and a relay lens 45 in this order from the OCT unit 100 side.

リトロリフレクタ41は、図1に示す矢印の方向に移動可能とされ、それにより測定アームの長さが変更される。測定アーム長の変更は、例えば、眼軸長に応じた光路長補正や、干渉状態の調整などに利用される。 The retroreflector 41 is movable in the direction of the arrow shown in FIG. 1, thereby changing the length of the measurement arm. Changing the measurement arm length is used, for example, to correct the optical path length according to the axial length or to adjust the interference state.

分散補償部材42は、参照アームに配置された分散補償部材113(後述)とともに、測定光LSの分散特性と参照光LRの分散特性とを合わせるよう作用する。 The dispersion compensation member 42 acts together with a dispersion compensation member 113 (described later) disposed on the reference arm to match the dispersion characteristics of the measurement light LS and the dispersion characteristics of the reference light LR.

OCT合焦レンズ43は、測定アームのフォーカス調整を行うために測定アームに沿って移動される。撮影合焦レンズ31の移動、フォーカス光学系60の移動、及びOCT合焦レンズ43の移動を連係的に制御することができる。 The OCT focusing lens 43 is moved along the measurement arm to perform focus adjustment of the measurement arm. Movement of the imaging focusing lens 31, movement of the focusing optical system 60, and movement of the OCT focusing lens 43 can be controlled in a coordinated manner.

光スキャナ44は、実質的に、被検眼Eの瞳孔と光学的に共役な位置に配置される。光スキャナ44は、測定アームにより導かれる測定光LSを偏向する。光スキャナ44は、例えば、x方向のスキャンを行うためのガルバノミラーと、y方向のスキャンを行うためのガルバノミラーとを含む、2次元スキャンが可能なガルバノスキャナである。 The optical scanner 44 is arranged at a position that is substantially optically conjugate with the pupil of the eye E to be examined. The optical scanner 44 deflects the measurement light LS guided by the measurement arm. The optical scanner 44 is a galvano scanner capable of two-dimensional scanning, including, for example, a galvano mirror for scanning in the x direction and a galvano mirror for scanning in the y direction.

〈OCTユニット100〉
図2に例示するように、OCTユニット100には、スウェプトソースOCTを適用するための光学系が設けられている。この光学系は干渉光学系を含む。この干渉光学系は、波長可変光源(波長掃引型光源)からの光を測定光と参照光とに分割し、被検眼Eからの測定光の戻り光と参照光路を経由した参照光とを重ね合わせて干渉光を生成し、この干渉光を検出する。干渉光学系により得られたデータ(検出信号)は、干渉光のスペクトルを表す信号であり、演算制御ユニット200に送られる。
<OCT unit 100>
As illustrated in FIG. 2, the OCT unit 100 is provided with an optical system for applying swept source OCT. This optical system includes an interference optical system. This interference optical system splits the light from the wavelength variable light source (wavelength swept light source) into measurement light and reference light, and overlaps the return light of the measurement light from the eye E with the reference light that has passed through the reference optical path. Together, they generate interference light, and this interference light is detected. The data (detection signal) obtained by the interference optical system is a signal representing the spectrum of interference light, and is sent to the arithmetic and control unit 200.

光源ユニット101は、例えば、少なくとも近赤外波長帯において出射波長を高速で変化させる近赤外波長可変レーザーを含む。光源ユニット101から出力された光L0は、光ファイバ102により偏波コントローラ103に導かれてその偏光状態が調整される。更に、光L0は、光ファイバ104によりファイバカプラ105に導かれて測定光LSと参照光LRとに分割される。測定光LSの光路は測定アームと呼ばれ、参照光LRの光路は参照アームと呼ばれる。 The light source unit 101 includes, for example, a near-infrared variable wavelength laser that changes the emission wavelength at high speed at least in the near-infrared wavelength band. Light L0 output from the light source unit 101 is guided to a polarization controller 103 by an optical fiber 102, and its polarization state is adjusted. Further, the light L0 is guided to a fiber coupler 105 by an optical fiber 104 and is split into a measurement light LS and a reference light LR. The optical path of the measurement light LS is called a measurement arm, and the optical path of the reference light LR is called a reference arm.

参照光LRは、光ファイバ110によりコリメータ111に導かれて平行光束に変換され、光路長補正部材112及び分散補償部材113を経由し、リトロリフレクタ114に導かれる。光路長補正部材112は、参照光LRの光路長と測定光LSの光路長とを合わせるよう作用する。分散補償部材113は、測定アームに配置された分散補償部材42とともに、参照光LRと測定光LSとの間の分散特性を合わせるよう作用する。リトロリフレクタ114は、これに入射する参照光LRの光路に沿って移動可能であり、それにより参照アームの長さが変更される。参照アーム長の変更は、例えば、眼軸長に応じた光路長補正や、干渉状態の調整などに利用される。 The reference light LR is guided to a collimator 111 by an optical fiber 110, converted into a parallel light beam, and guided to a retroreflector 114 via an optical path length correction member 112 and a dispersion compensation member 113. The optical path length correction member 112 acts to match the optical path length of the reference light LR and the optical path length of the measurement light LS. The dispersion compensation member 113 acts together with the dispersion compensation member 42 disposed on the measurement arm to match the dispersion characteristics between the reference light LR and the measurement light LS. The retroreflector 114 is movable along the optical path of the reference light LR incident thereon, thereby changing the length of the reference arm. Changing the reference arm length is used, for example, to correct the optical path length according to the axial length or to adjust the interference state.

リトロリフレクタ114を経由した参照光LRは、分散補償部材113及び光路長補正部材112を経由し、コリメータ116によって平行光束から集束光束に変換され、光ファイバ117に入射する。光ファイバ117に入射した参照光LRは、偏波コントローラ118に導かれてその偏光状態が調整され、光ファイバ119を通じてアッテネータ120に導かれてその光量が調整され、光ファイバ121を通じてファイバカプラ122に導かれる。 The reference light LR that has passed through the retroreflector 114 passes through the dispersion compensating member 113 and the optical path length correcting member 112, is converted from a parallel beam into a convergent beam by the collimator 116, and enters the optical fiber 117. The reference light LR incident on the optical fiber 117 is guided to a polarization controller 118 to have its polarization state adjusted, guided to an attenuator 120 through an optical fiber 119 to have its light amount adjusted, and then sent to a fiber coupler 122 through an optical fiber 121. be guided.

一方、ファイバカプラ105により生成された測定光LSは、光ファイバ127により導かれてコリメータレンズユニット40により平行光束に変換され、リトロリフレクタ41、分散補償部材42、OCT合焦レンズ43、光スキャナ44及びリレーレンズ45を経由し、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて被検眼Eに投射される。測定光LSは、被検眼Eの様々な深さ位置において散乱・反射される。測定光LSの被検眼Eからの戻り光は、往路と同じ経路を逆向きに進行してファイバカプラ105に導かれ、光ファイバ128を経由してファイバカプラ122に到達する。 On the other hand, the measurement light LS generated by the fiber coupler 105 is guided by the optical fiber 127 and converted into a parallel light beam by the collimator lens unit 40. The light passes through the relay lens 45, is reflected by the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the eye E to be examined. The measurement light LS is scattered and reflected at various depth positions of the eye E to be examined. The return light of the measurement light LS from the eye E to be examined travels the same path as the outgoing path in the opposite direction, is guided to the fiber coupler 105, and reaches the fiber coupler 122 via the optical fiber 128.

ファイバカプラ122は、光ファイバ128を介して入射された測定光LSと、光ファイバ121を介して入射された参照光LRとを重ね合わせて干渉光を生成する。ファイバカプラ122は、生成された干渉光を所定の分岐比(例えば1:1)で分岐することで一対の干渉光LCを生成する。一対の干渉光LCは、それぞれ光ファイバ123及び124を通じて検出器125に導かれる。 The fiber coupler 122 superimposes the measurement light LS incident on the optical fiber 128 and the reference light LR incident on the optical fiber 121 to generate interference light. The fiber coupler 122 generates a pair of interference lights LC by branching the generated interference lights at a predetermined branching ratio (for example, 1:1). A pair of interference lights LC are guided to a detector 125 through optical fibers 123 and 124, respectively.

検出器125は、例えばバランスドフォトダイオードを含む。バランスドフォトダイオードは、一対の干渉光LCをそれぞれ検出する一対のフォトディテクタを有し、これらにより得られた一対の検出結果の差分を出力する。検出器125は、この出力(検出信号)をデータ収集システム(DAS)130に送る。 Detector 125 includes, for example, a balanced photodiode. The balanced photodiode includes a pair of photodetectors that respectively detect a pair of interference lights LC, and outputs a difference between a pair of detection results obtained by these photodetectors. Detector 125 sends this output (detection signal) to data acquisition system (DAS) 130.

データ収集システム130には、光源ユニット101からクロックKCが供給される。クロックKCは、光源ユニット101において、波長可変光源により所定の波長範囲内で掃引される各波長の出力タイミングに同期して生成される。光源ユニット101は、例えば、各出力波長の光L0を分岐して2つの分岐光を生成し、これら分岐光の一方を光学的に遅延させ、これら分岐光を合成し、得られた合成光を検出し、その検出結果に基づいてクロックKCを生成する。データ収集システム130は、検出器125から入力される検出信号のサンプリングをクロックKCに基づいて実行する。データ収集システム130は、このサンプリングの結果を演算制御ユニット200に送る。 The data collection system 130 is supplied with a clock KC from the light source unit 101. The clock KC is generated in the light source unit 101 in synchronization with the output timing of each wavelength swept within a predetermined wavelength range by the variable wavelength light source. For example, the light source unit 101 splits the light L0 of each output wavelength to generate two branched lights, optically delays one of these branched lights, combines these branched lights, and generates the resulting composite light. A clock KC is generated based on the detection result. The data acquisition system 130 performs sampling of the detection signal input from the detector 125 based on the clock KC. Data acquisition system 130 sends the results of this sampling to arithmetic and control unit 200 .

本例では、測定アーム長を変更するための要素(例えば、リトロリフレクタ41)と、参照アーム長を変更するための要素(例えば、リトロリフレクタ114、又は参照ミラー)との双方が設けられているが、一方の要素のみが設けられていてもよい。また、測定アーム長と参照アーム長との間の差(光路長差)を変更するための要素はこれらに限定されず、任意の要素(光学部材、機構など)であってよい。 In this example, both an element for changing the measurement arm length (for example, retroreflector 41) and an element for changing the reference arm length (for example, retroreflector 114 or reference mirror) are provided. However, only one element may be provided. Moreover, the elements for changing the difference (optical path length difference) between the measurement arm length and the reference arm length are not limited to these, and may be any elements (optical members, mechanisms, etc.).

〈制御系・処理系〉
眼科装置1の制御系及び処理系の構成例を図3、図4A及び図4Bに示す。制御部210、画像構築部220、及びデータ処理部230は、例えば演算制御ユニット200に設けられる。眼科装置1は、外部装置との間でデータ通信を行うための通信デバイスを含んでいてもよい。眼科装置1は、記録媒体からのデータ読み出しと、記録媒体へのデータ書き込みとを行うためのドライブ装置(リーダ/ライタ)を含んでいてもよい。
<Control system/processing system>
Configuration examples of the control system and processing system of the ophthalmologic apparatus 1 are shown in FIGS. 3, 4A, and 4B. The control section 210, the image construction section 220, and the data processing section 230 are provided in the arithmetic control unit 200, for example. The ophthalmological apparatus 1 may include a communication device for performing data communication with an external device. The ophthalmological apparatus 1 may include a drive device (reader/writer) for reading data from a recording medium and writing data to the recording medium.

〈制御部210〉
制御部210は、各種の制御を実行する。制御部210は、主制御部211と記憶部212とを含む。また、図4Aに示すように、本実施形態において、主制御部211は走査制御部2111を含み、記憶部212は走査プロトコル2121を記憶している。
<Control unit 210>
The control unit 210 executes various controls. Control section 210 includes a main control section 211 and a storage section 212. Further, as shown in FIG. 4A, in this embodiment, the main control unit 211 includes a scan control unit 2111, and the storage unit 212 stores a scan protocol 2121.

〈主制御部211〉
主制御部211は、プロセッサを含み、眼科装置1の各要素(図1~図4Bに示された要素を含む)を制御する。主制御部211は、プロセッサを含むハードウェアと、制御ソフトウェアとの協働によって実現される。走査制御部2111は、所定形状及び所定サイズの走査エリアに関するOCTスキャンの制御を行う。
<Main control unit 211>
The main control unit 211 includes a processor and controls each element of the ophthalmologic apparatus 1 (including the elements shown in FIGS. 1 to 4B). The main control unit 211 is realized by cooperation between hardware including a processor and control software. The scan control unit 2111 controls OCT scanning regarding a scan area of a predetermined shape and a predetermined size.

撮影合焦駆動部31Aは、主制御部211の制御の下に、撮影光路に配置された撮影合焦レンズ31と照明光路に配置されたフォーカス光学系60とを移動する。リトロリフレクタ(RR)駆動部41Aは、主制御部211の制御の下に、測定アームに設けられたリトロリフレクタ41を移動する。OCT合焦駆動部43Aは、主制御部211の制御の下に、測定アームに配置されたOCT合焦レンズ43を移動する。測定アームに設けられたリトロリフレクタ(RR)駆動部114Aは、主制御部211の制御の下に、参照アームに配置されたリトロリフレクタ114を移動する。上記した駆動部のそれぞれは、主制御部211の制御の下に動作するパルスモータ等のアクチュエータを含む。光スキャナ44は、主制御部211(走査制御部2111)の制御の下に動作する。 The photographic focus drive unit 31A moves the photographic focus lens 31 disposed in the photographic optical path and the focus optical system 60 disposed in the illumination optical path under the control of the main control unit 211. The retroreflector (RR) driving section 41A moves the retroreflector 41 provided on the measurement arm under the control of the main control section 211. The OCT focusing drive section 43A moves the OCT focusing lens 43 disposed on the measurement arm under the control of the main control section 211. A retroreflector (RR) drive unit 114A provided on the measurement arm moves the retroreflector 114 placed on the reference arm under the control of the main control unit 211. Each of the above-described drive units includes an actuator such as a pulse motor that operates under the control of the main control unit 211. The optical scanner 44 operates under the control of the main control section 211 (scanning control section 2111).

移動機構150は、典型的には、眼底カメラユニット2を3次元的に移動し、例えば、±x方向(左右方向)に移動可能なxステージと、xステージを移動するx移動機構と、±y方向(上下方向)に移動可能なyステージと、yステージを移動するy移動機構と、±z方向(奥行き方向)に移動可能なzステージと、zステージを移動するz移動機構とを含む。各移動機構は、主制御部211の制御の下に動作するパルスモータ等のアクチュエータを含む。 The moving mechanism 150 typically moves the fundus camera unit 2 three-dimensionally, for example, an x-stage that can move in the ±x direction (left-right direction), an x-movement mechanism that moves the x-stage, and a Includes a y stage that can move in the y direction (up and down direction), a y movement mechanism that moves the y stage, a z stage that can move in the ±z direction (depth direction), and a z movement mechanism that moves the z stage. . Each movement mechanism includes an actuator such as a pulse motor that operates under the control of the main control unit 211.

〈記憶部212〉
記憶部212は各種のデータを記憶する。記憶部212に記憶されるデータとしては、OCT画像、眼底像、被検眼情報、制御情報などがある。被検眼情報は、患者IDや氏名などの被検者情報や、左眼/右眼の識別情報や、電子カルテ情報などを含む。制御情報は、特定の制御に関する情報である。本実施形態の制御情報は、走査プロトコル2121を含む。
<Storage unit 212>
The storage unit 212 stores various data. The data stored in the storage unit 212 includes OCT images, fundus images, eye information to be examined, control information, and the like. The eye information to be examined includes patient information such as patient ID and name, left eye/right eye identification information, electronic medical record information, and the like. Control information is information regarding specific control. The control information in this embodiment includes a scanning protocol 2121.

走査プロトコル2121は、所定形状及び所定サイズの走査エリアに関するOCTスキャンのための制御の内容に関する取り決めであり、各種制御パラメータ(走査制御パラメータ)の組を含む。走査プロトコル2121は、走査モード毎のプロトコルを含む。本実施形態の走査プロトコル2121は、リサージュスキャンのプロトコルを少なくとも含み、更に、例えば、Bスキャン(ラインスキャン)、クロススキャン、ラジアルスキャン、ラスタースキャンなどのプロトコルを含んでいてもよい。 The scanning protocol 2121 is an agreement regarding the contents of control for OCT scanning regarding a scanning area of a predetermined shape and a predetermined size, and includes a set of various control parameters (scanning control parameters). The scanning protocol 2121 includes a protocol for each scanning mode. The scanning protocol 2121 of this embodiment includes at least a Lissajous scan protocol, and may further include protocols such as B scan (line scan), cross scan, radial scan, and raster scan.

本実施形態の走査制御パラメータは、光スキャナ44に対する制御の内容を示すパラメータを少なくとも含む。このパラメータは、例えば、スキャンパターンを示すパラメータ、スキャン速度を示すパラメータ、スキャン間隔を示すパラメータなどがある。スキャンパターンは、スキャンの経路の形状を示し、その例として、リサージュパターン、ラインパターン、クロスパターン、ラジアルパターン、ラスターパターンなどがある。スキャン速度は、例えば、Aスキャンの繰り返しレートとして定義される。スキャン間隔は、例えば、隣接するAスキャンの間隔として、つまりスキャン点の配列間隔として定義される。 The scanning control parameters of this embodiment include at least parameters indicating the content of control for the optical scanner 44. This parameter includes, for example, a parameter indicating a scan pattern, a parameter indicating a scan speed, a parameter indicating a scan interval, and the like. The scan pattern indicates the shape of a scan path, and examples thereof include a Lissajous pattern, a line pattern, a cross pattern, a radial pattern, and a raster pattern. The scan speed is defined, for example, as the A-scan repetition rate. The scan interval is defined, for example, as the interval between adjacent A scans, that is, as the arrangement interval of scan points.

なお、特許文献1~4並びに非特許文献1及び2の開示のような従来技術と同様に、本実施形態の「リサージュスキャン」は、互いに直交する2つの単振動を順序対として得られる点の軌跡が描くパターン(リサージュパターン、リサージュ図形、リサージュ曲線、リサージュ関数、バウディッチ曲線)を経路とした「狭義の」リサージュスキャンだけでなく、一連のサイクルを含む所定の2次元パターンに従う「広義の」リサージュスキャンであってもよい。 Note that, similar to the conventional techniques disclosed in Patent Documents 1 to 4 and Non-Patent Documents 1 and 2, the "Lissajous scan" of this embodiment is based on the point that two mutually orthogonal simple harmonic motions are obtained as an ordered pair. Not only Lissajous scan in a “narrow sense” where the path follows a pattern drawn by a trajectory (Lissajous pattern, Lissajous figure, Lissajous curve, Lissajous function, Bowditch curve), but also Lissajous in a “broad sense” that follows a predetermined two-dimensional pattern including a series of cycles. It may also be a scan.

本実施形態では、光スキャナ44は、x方向に測定光LSを偏向する第1ガルバノミラーと、y方向に測定光LSを偏向する第2ガルバノミラーとを含む。リサージュスキャンは、x方向に沿った偏向方向の変化を第1周期で繰り返すように第1ガルバノミラーの制御を行いつつ、y方向に沿った偏向方向の変化を第2周期で繰り返すように第2ガルバノミラーの制御を行うことによって実現される。ここで、第1周期と第2周期とは互いに異なる。 In this embodiment, the optical scanner 44 includes a first galvano mirror that deflects the measurement light LS in the x direction and a second galvano mirror that deflects the measurement light LS in the y direction. In the Lissajous scan, the first galvanometer mirror is controlled so that the deflection direction along the x direction is repeated in the first cycle, and the second galvano mirror is controlled so that the deflection direction along the y direction is repeated in the second cycle. This is achieved by controlling the galvanometer mirror. Here, the first period and the second period are different from each other.

例えば、本実施形態のリサージュスキャンは、2つの正弦波の組み合わせから得られる狭義のリサージュパターンのスキャンだけでなく、これに特定項(例えば、奇数次の多項式)を加えたパターンのスキャンや、三角波に基づくパターンのスキャンであってもよい。 For example, the Lissajous scan of this embodiment not only scans a Lissajous pattern in a narrow sense obtained from a combination of two sine waves, but also scans a pattern in which a specific term (for example, an odd-order polynomial) is added to the Lissajous pattern, or scans a triangular wave pattern. It may also be a pattern scan based on .

「サイクル」は、一般に、或る長さを持つ複数のサンプリング点から構成されるオブジェクトを意味し、例えば閉曲線又はほぼ閉曲線であってよい(つまり、サイクルの始点と終点とが一致又はほぼ一致していてよい)。 "Cycle" generally means an object consisting of a plurality of sampling points of a certain length, which may be, for example, a closed or nearly closed curve (i.e., the start and end points of the cycle coincide or nearly coincide). ).

典型的には、走査プロトコル2121はリサージュ関数に基づき設定される。非特許文献1の式(9)に示すように、リサージュ関数は、例えば、次のパラメトリック方程式系で表現される:x(ti)=A・cos(2π・(fA/n)・ti)、y(ti)=A・cos(2π・(fA・(n-2)/n2)・ti)。 Typically, the scanning protocol 2121 is set based on a Lissajous function. As shown in equation (9) of Non-Patent Document 1, the Lissajous function is expressed, for example, by the following parametric equation system: x(t i )=A・cos(2π・(f A /n)・t i ), y(t i )=A・cos(2π・(f A・(n-2)/n 2 )・t i ).

ここで、xはリサージュ曲線が定義される2次元座標系の横軸、yは縦軸、tiはリサージュスキャンにおける第i番目のAラインの収集時点、Aはスキャン範囲(振幅)、fAはAラインの収集レート(スキャン速度、Aスキャンの繰り返しレート)、nはx(横軸)方向の各サイクルにおけるAラインの個数をそれぞれ示す。 Here, x is the horizontal axis of the two-dimensional coordinate system in which the Lissajous curve is defined, y is the vertical axis, t i is the acquisition time of the i-th A line in the Lissajous scan, A is the scan range (amplitude), f A is the acquisition rate of the A-line (scan speed, repetition rate of A-scan), and n is the number of A-lines in each cycle in the x (horizontal axis) direction.

このようなリサージュスキャンにおいて眼底Efに適用されるスキャンラインの分布の例を図5に示す。 FIG. 5 shows an example of the distribution of scan lines applied to the fundus Ef in such a Lissajous scan.

(狭義又は広義の)リサージュスキャンに含まれる任意のサイクル対(ペア)が1点以上(特に2点以上)で互いに交差するため、リサージュスキャンにおける任意のサイクル対から収集されたデータ対の間のレジストレーションを行うことができる。これにより、非特許文献1(又は2)に開示された画像構築手法及びモーションアーティファクト補正手法を利用することが可能となる。以下、特に言及しない限り、非特許文献1に記載された手法が適用される。 Since any pair of cycles included in a Lissajous scan (in a narrow or broad sense) intersect with each other at one or more points (especially at two or more points), the difference between pairs of data collected from any pair of cycles in a Lissajous scan Registration can be performed. This makes it possible to use the image construction method and motion artifact correction method disclosed in Non-Patent Document 1 (or 2). Hereinafter, unless otherwise mentioned, the method described in Non-Patent Document 1 is applied.

記憶部212に記憶される制御情報は上記の例に限定されない。例えば、制御情報はフォーカス制御を行うための情報(フォーカス制御パラメータ)を含んでいてよい。 The control information stored in the storage unit 212 is not limited to the above example. For example, the control information may include information for performing focus control (focus control parameters).

フォーカス制御パラメータは、OCT合焦駆動部43Aに対する制御の内容を示すパラメータである。フォーカス制御パラメータの例として、測定アームの焦点位置を示すパラメータ、焦点位置の移動速度を示すパラメータ、焦点位置の移動加速度を示すパラメータなどがある。焦点位置を示すパラメータは、例えば、OCT合焦レンズ43の位置を示すパラメータである。焦点位置の移動速度を示すパラメータは、例えば、OCT合焦レンズ43の移動速度を示すパラメータである。焦点位置の移動加速度を示すパラメータは、例えば、OCT合焦レンズ43の移動加速度を示すパラメータである。移動速度は、一定であってもよいし、一定でなくてもよい。移動加速度についても同様である。 The focus control parameter is a parameter indicating the content of control for the OCT focusing drive unit 43A. Examples of the focus control parameters include a parameter indicating the focal position of the measurement arm, a parameter indicating the moving speed of the focal position, and a parameter indicating the moving acceleration of the focal position. The parameter indicating the focal position is, for example, a parameter indicating the position of the OCT focusing lens 43. The parameter indicating the moving speed of the focal position is, for example, a parameter indicating the moving speed of the OCT focusing lens 43. The parameter indicating the moving acceleration of the focal position is, for example, a parameter indicating the moving acceleration of the OCT focusing lens 43. The moving speed may or may not be constant. The same applies to movement acceleration.

このようなフォーカス制御パラメータによれば、眼底Efの形状(典型的には、中心部が深く且つ周辺部が浅い凹形状)や収差分布に応じたフォーカス調整が可能になる。フォーカス制御は、例えば、走査制御(リサージュスキャンの繰り返し制御)と連係的に実行される。それにより、モーションアーティファクトが補正され、且つ、スキャン範囲の全体に亘ってピントが合った、高品質の画像が得られる。 According to such focus control parameters, it becomes possible to perform focus adjustment according to the shape of the fundus Ef (typically a concave shape that is deep at the center and shallow at the periphery) and the aberration distribution. Focus control is executed in conjunction with scanning control (Lissajous scan repetition control), for example. This corrects motion artifacts and provides a high-quality image that is in focus throughout the scan range.

〈走査制御部2111〉
走査制御部2111は、走査プロトコル2121に基づいて少なくとも光スキャナ44を制御する。走査制御部2111は、走査プロトコル2121に基づく光スキャナ44の制御と連係して光源ユニット101の制御を更に実行してもよい。走査制御部2111は、プロセッサを含むハードウェアと、走査プロトコル2121を含む走査制御ソフトウェアとの協働によって実現される。
<Scan control unit 2111>
The scan control unit 2111 controls at least the optical scanner 44 based on the scan protocol 2121. The scan control unit 2111 may further control the light source unit 101 in conjunction with the control of the optical scanner 44 based on the scan protocol 2121. The scan control unit 2111 is realized by cooperation between hardware including a processor and scan control software including a scan protocol 2121.

〈画像構築部220〉
画像構築部220は、プロセッサを含み、データ収集システム130から入力された信号(サンプリングデータ)に基づいて、眼底EfのOCT画像データを構築する。このOCT画像データ構築は、従来のフーリエドメインOCT(スウェプトソースOCT)と同様に、ノイズ除去(ノイズ低減)、フィルタリング、高速フーリエ変換(FFT)などを含む。他のタイプのOCT手法が採用される場合、画像構築部220は、そのタイプに応じた公知の処理を実行することによってOCT画像データを構築する。
<Image construction unit 220>
The image construction unit 220 includes a processor, and constructs OCT image data of the fundus Ef based on the signal (sampling data) input from the data acquisition system 130. This OCT image data construction includes noise removal, filtering, fast Fourier transform (FFT), etc., similar to conventional Fourier domain OCT (swept source OCT). When another type of OCT technique is employed, the image construction unit 220 constructs OCT image data by executing known processing according to the type.

前述したように、本実施形態ではリサージュスキャンが眼底Efに適用される。画像構築部220は、データ処理部230とともに、リサージュスキャンによる収集とデータ収集システム130によるサンプリングとを介して取得されたデータに対し、例えば非特許文献1又は2に開示された画像構築手法及びモーションアーティファクト補正手法を適用することによって、眼底Efの3次元画像データを構築する。 As described above, in this embodiment, the Lissajous scan is applied to the fundus Ef. The image construction unit 220, together with the data processing unit 230, applies the image construction method and motion disclosed in Non-Patent Document 1 or 2, for example, to data acquired through collection by Lissajous scan and sampling by the data collection system 130. Three-dimensional image data of the fundus Ef is constructed by applying an artifact correction method.

画像構築部220(及び/又はデータ処理部230)は、3次元画像データにレンダリングを適用して表示用画像を形成することができる。適用可能なレンダリング法の例として、ボリュームレンダリング、サーフェスレンダリング、最大値投影(MIP)、最小値投影(MinIP)、多断面再構成(MPR)などがある。 The image construction unit 220 (and/or the data processing unit 230) can form a display image by applying rendering to the three-dimensional image data. Examples of applicable rendering methods include volume rendering, surface rendering, maximum intensity projection (MIP), minimum intensity projection (MinIP), and multiplanar reconstruction (MPR).

画像構築部220(及び/又はデータ処理部230)は、3次元画像データに基づいてOCT正面画像(enface OCT image)を構築することが可能である。例えば、画像構築部220(及び/又はデータ処理部230)は、3次元画像データをz方向(Aライン方向、深さ方向)に投影することでプロジェクションデータを構築することができる。また、画像構築部220(及び/又はデータ処理部230)は、3次元画像データの一部である部分的3次元画像データをz方向に投影することでシャドウグラムを構築することができる。この部分的3次元画像データは、例えば、セグメンテーションを利用して設定される。セグメンテーションは、画像中の部分領域を特定する処理である。本例では、眼底Efの所定組織に相当する画像領域を特定するためにセグメンテーションを行うことができる。 The image construction unit 220 (and/or the data processing unit 230) can construct an enface OCT image based on the three-dimensional image data. For example, the image construction unit 220 (and/or the data processing unit 230) can construct projection data by projecting three-dimensional image data in the z direction (A-line direction, depth direction). Further, the image construction unit 220 (and/or the data processing unit 230) can construct a shadowgram by projecting partial three-dimensional image data, which is a part of the three-dimensional image data, in the z direction. This partial three-dimensional image data is set using, for example, segmentation. Segmentation is a process of identifying partial regions in an image. In this example, segmentation can be performed to identify an image region corresponding to a predetermined tissue of the fundus Ef.

眼科装置1は、OCT血管造影(OCT-Angiography)を実施可能であってよい。OCT血管造影は、血管が強調された画像を構築するイメージング技術である(例えば、非特許文献2、特表2015-515894号公報などを参照)。一般に、眼底組織(構造)は時間的に変化しないが、血管内部の血流部分は時間的に変化する。OCT血管造影では、このような時間的変化が存在する部分(血流信号)を強調して画像を生成する。なお、OCT血管造影は、OCTモーションコントラスト撮影(motion contrast imaging)などとも呼ばれる。また、OCT血管造影により取得される画像は、血管造影画像、アンジオグラム(angiogram)、モーションコントラスト画像などと呼ばれる。 The ophthalmological device 1 may be capable of performing OCT-Angiography. OCT angiography is an imaging technique that constructs images in which blood vessels are emphasized (for example, see Non-Patent Document 2, Japanese Patent Publication No. 2015-515894, etc.). Generally, the fundus tissue (structure) does not change over time, but the blood flow inside blood vessels changes over time. In OCT angiography, images are generated by emphasizing portions (blood flow signals) where such temporal changes exist. Note that OCT angiography is also called OCT motion contrast imaging. Furthermore, images obtained by OCT angiography are called angiography images, angiograms, motion contrast images, and the like.

OCT血管造影が実施される場合、眼科装置1は、眼底Efの同じ領域を所定回数だけ繰り返しスキャンする。例えば、眼科装置1は、前述した走査制御(リサージュスキャンの繰り返し制御)を所定回数だけ繰り返し実施する。それにより、リサージュスキャンの適用領域に対応する複数の3次元データ(3次元データセット)がデータ収集システム130によって収集される。画像構築部220及び/又はデータ処理部230は、この3次元データセットからモーションコントラスト画像を構築することができる。このモーションコントラスト画像は、眼底Efの血流に起因する干渉信号の時間的変化が強調された血管造影画像である。この血管造影画像は、眼底Efの血管の3次元的な分布を表現した3次元血管造影画像データである。 When OCT angiography is performed, the ophthalmologic apparatus 1 repeatedly scans the same region of the fundus Ef a predetermined number of times. For example, the ophthalmologic apparatus 1 repeatedly performs the above-described scanning control (Lissajous scan repetition control) a predetermined number of times. Thereby, a plurality of three-dimensional data (three-dimensional data sets) corresponding to the Lissajous scan application area are collected by the data collection system 130. The image construction unit 220 and/or the data processing unit 230 can construct a motion contrast image from this three-dimensional data set. This motion contrast image is an angiographic image in which temporal changes in interference signals caused by blood flow in the fundus Ef are emphasized. This angiographic image is three-dimensional angiographic image data expressing the three-dimensional distribution of blood vessels in the fundus Ef.

画像構築部220及び/又はデータ処理部230は、この3次元血管造影画像データから、任意の2次元血管造影画像データ及び/又は任意の擬似的3次元血管造影画像データを構築することが可能である。例えば、画像構築部220は、3次元血管造影画像データに多断面再構成を適用することにより、眼底Efの任意の断面を表す2次元血管造影画像データを構築することができる。また、画像構築部220は、3次元血管造影画像データにプロジェクション画像化又はシャドウグラム化を適用することにより、眼底Efの正面血管造影画像データを構築することができる。 The image construction unit 220 and/or the data processing unit 230 can construct arbitrary two-dimensional angiography image data and/or arbitrary pseudo three-dimensional angiography image data from this three-dimensional angiography image data. be. For example, the image constructing unit 220 can construct two-dimensional angiographic image data representing an arbitrary cross section of the fundus Ef by applying multi-sectional reconstruction to the three-dimensional angiographic image data. Furthermore, the image construction unit 220 can construct frontal angiography image data of the fundus Ef by applying projection imaging or shadowgram formation to the three-dimensional angiography image data.

本実施形態において、画像構築部220は、データ収集システム130により収集されたデータから複数のストリップを構築する。非特許文献1に記載されているように、画像構築部220は、リサージュスキャンで収集されたボリューム(3次元データ)を比較的大きな動きが介在しない複数のサブボリュームに分割し、各サブボリュームの正面プロジェクション画像(en face projection)を構築する。この正面プロジェクション画像がストリップである。このようにして得られた複数のストリップに対してレジストレーション及びマージ処理を適用することにより、モーションアーティファクトが補正された画像が得られる。後述するように、レジストレーション及びマージ処理は、データ処理部230によって実行される。 In this embodiment, the image constructor 220 constructs a plurality of strips from data collected by the data collection system 130. As described in Non-Patent Document 1, the image construction unit 220 divides the volume (three-dimensional data) collected by Lissajous scan into a plurality of sub-volumes in which there is no relatively large movement, and calculates the size of each sub-volume. Build an en face projection image. This front projection image is a strip. By applying registration and merging processing to the plurality of strips obtained in this manner, an image with motion artifacts corrected is obtained. As will be described later, the registration and merging processing is executed by the data processing unit 230.

画像構築部220は、プロセッサを含むハードウェアと、画像構築ソフトウェアとの協働によって実現される。 The image construction unit 220 is realized by cooperation between hardware including a processor and image construction software.

〈データ処理部230〉
データ処理部230は、プロセッサを含み、被検眼Eの画像に対して各種のデータ処理を適用する。例えば、データ処理部230は、プロセッサを含むハードウェアと、データ処理ソフトウェアとの協働によって実現される。
<Data processing unit 230>
The data processing unit 230 includes a processor and applies various data processing to the image of the eye E to be examined. For example, the data processing unit 230 is realized by cooperation between hardware including a processor and data processing software.

データ処理部230は、眼底Efについて取得された2つの画像の間の位置合わせ(レジストレーション)を行うように構成されてよい。例えば、データ処理部230は、OCTで取得された3次元画像データと、眼底カメラユニット2により取得された正面画像との間のレジストレーションを行うように構成される。また、データ処理部230は、OCTで取得された2つのOCT画像の間のレジストレーションを行うように構成される。また、データ処理部230は、眼底カメラユニット2により取得された2つの正面画像の間のレジストレーションを行うように構成される。また、OCT画像の解析結果や、正面画像の解析結果に対してレジストレーションを適用するように構成されてもよい。これらのレジストレーションは、公知の手法によって実行可能であり、例えば特徴点抽出とアフィン変換とを含む。 The data processing unit 230 may be configured to perform registration between two images acquired of the fundus Ef. For example, the data processing unit 230 is configured to perform registration between three-dimensional image data obtained by OCT and a frontal image obtained by the fundus camera unit 2. Further, the data processing unit 230 is configured to perform registration between two OCT images obtained by OCT. Further, the data processing unit 230 is configured to perform registration between two frontal images acquired by the fundus camera unit 2. Further, it may be configured to apply registration to the analysis results of OCT images or the analysis results of frontal images. These registrations can be performed using known techniques, and include, for example, feature point extraction and affine transformation.

更に、データ処理部230は、リサージュスキャンを用いて得られたデータを処理するように構成される。前述したように、画像構築部220は、リサージュスキャンで収集されたデータから複数のストリップを構築する。データ処理部230は、これらストリップに対してレジストレーション及びマージ処理を適用することにより、モーションアーティファクトが補正された画像を構築する。 Further, the data processing unit 230 is configured to process data obtained using Lissajous scan. As described above, the image construction unit 220 constructs a plurality of strips from the data collected in the Lissajous scan. The data processing unit 230 constructs an image in which motion artifacts are corrected by applying registration and merging processing to these strips.

リサージュスキャンの特性として、任意の2つのストリップはオーバーラップ領域を有する。非特許文献1に記載された手法と同様に、データ処理部230は、ストリップ間のオーバーラップを利用してストリップ間のレジストレーションを行うように構成される。データ処理部230は、まず、画像構築部220により構築された複数のストリップを大きさ(面積等)に従って順序付け(第1~第Nのストリップ)、最大のストリップである第1のストリップを初期基準ストリップに指定する。次に、データ処理部230は、第1のストリップを基準として第2のストリップのレジストレーションを行い、第1のストリップと第2のストリップとをマージする(合成する)。データ処理部230は、これにより得られたマージストリップを基準として第3のストリップのレジストレーションを行い、このマージストリップと第3のストリップとをマージする。このようなレジストレーション及びマージ処理を上記順序に従って順次に実行することにより第1~第Nのストリップの位置合わせ及び貼り合わせがなされ、モーションアーティファクトが補正された画像が得られる。 As a characteristic of the Lissajous scan, any two strips have an overlapping region. Similar to the method described in Non-Patent Document 1, the data processing unit 230 is configured to perform registration between strips using overlap between strips. The data processing unit 230 first orders the plurality of strips constructed by the image construction unit 220 according to size (area, etc.) (first to Nth strips), and uses the first strip, which is the largest strip, as an initial reference. Specify strip. Next, the data processing unit 230 registers the second strip using the first strip as a reference, and merges (synthesizes) the first strip and the second strip. The data processing unit 230 performs registration of the third strip based on the merged strip obtained thereby, and merges this merged strip and the third strip. By sequentially executing such registration and merging processing in the above order, the first to Nth strips are aligned and pasted together, and an image with motion artifacts corrected is obtained.

このようなレジストレーションでは、基準ストリップと他のストリップとの間の相対位置を求めるために相互相関関数が利用されるが、ストリップは任意の形状を有するため、各ストリップを特定形状(例えば正方形状)の画像として扱うためのマスクを用いてストリップ間の相関演算が行われる(非特許文献1のAppendix Aを参照)。 In such registration, a cross-correlation function is used to determine the relative position between the reference strip and other strips, but since the strips have arbitrary shapes, each strip is ) Correlation calculation between strips is performed using a mask for handling as an image (see Appendix A of Non-Patent Document 1).

前述したように、ストリップは所定階調の強度画像であり、マスク画像は二値画像であるため、ストリップの画素値の絶対値とマスクの画素値の絶対値との差が大きくなり、ストリップとマスクとを用いた相関演算におけるマスクの効果が無視されて正しい相関係数が得られないおそれがある。特に、コスト等の観点から、ストリップ間の相関係数を求めるために単精度浮動小数点型(フロート型)の演算を採用した場合、有効桁数の少なさに起因する丸め誤差の影響により、この問題が顕著に現れる。 As mentioned above, the strip is an intensity image with a predetermined gradation, and the mask image is a binary image, so the difference between the absolute value of the pixel value of the strip and the absolute value of the pixel value of the mask becomes large, and the difference between the strip and the mask image becomes large. In the correlation calculation using the mask, the effect of the mask may be ignored and a correct correlation coefficient may not be obtained. In particular, when single-precision floating-point type (float type) arithmetic is adopted to calculate the correlation coefficient between strips from the viewpoint of cost, etc., this problem arises due to the effects of rounding errors due to the small number of significant digits. appears prominently.

この問題に対処するために、本実施形態では、図4Bに示す構成を有するデータ処理部230が採用される。本例のデータ処理部230は、マスク画像生成部231と、範囲調整部232と、合成画像生成部233と、相互相関関数算出部234と、相関係数算出部235と、レジストレーション部236と、マージ処理部237とを含む。以下に説明する例では、任意の2つのストリップを考慮し、その一方が基準ストリップ(reference strip)に指定され、この基準ストリップに対して他方のストリップ(対象ストリップ;registering strip)がレジストレーションされる。 In order to deal with this problem, this embodiment employs a data processing unit 230 having the configuration shown in FIG. 4B. The data processing unit 230 of this example includes a mask image generation unit 231, a range adjustment unit 232, a composite image generation unit 233, a cross-correlation function calculation unit 234, a correlation coefficient calculation unit 235, and a registration unit 236. , and a merge processing unit 237. In the example described below, any two strips are considered, one of which is designated as a reference strip, and the other strip (registering strip) is registered to this reference strip. .

〈マスク画像生成部231〉
マスク画像生成部231は、基準ストリップに応じた基準マスク画像と、対象ストリップに応じた対象マスク画像とを生成する。マスク画像の幾つかの例を以下に説明するが、これらに限定されるものではない。
<Mask image generation unit 231>
The mask image generation unit 231 generates a reference mask image corresponding to the reference strip and a target mask image corresponding to the target strip. Some examples of mask images will be described below, but the invention is not limited thereto.

マスク画像の輪郭形状は、例えば矩形であり、典型的には正方形である。基準マスク画像の形状と対象マスク画像の形状とは同じであってよい。また、基準マスク画像の寸法と対象マスク画像の寸法とは同じであってよい。 The contour shape of the mask image is, for example, rectangular, and typically square. The shape of the reference mask image and the shape of the target mask image may be the same. Further, the dimensions of the reference mask image and the dimensions of the target mask image may be the same.

マスク画像の画素値の範囲は、例えば閉区間[0,1]に含まれるように設定される。典型的には、マスク画像は、画素値が0又は1の二値画像であってよい。具体例として、マスク画像は、ストリップの定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像である。換言すると、非特許文献1の式(20)に示すように、例示的なマスク画像の画素値は、対応するストリップの画像エリアにおける値が1であり、他のエリアにおける値が0である。 The range of pixel values of the mask image is set to be included in the closed interval [0, 1], for example. Typically, the mask image may be a binary image with pixel values of 0 or 1. As a specific example, the mask image is a binary image in which pixels in a region corresponding to the domain of the strip have a value of 1 and other pixels have a value of 0. In other words, as shown in equation (20) of Non-Patent Document 1, the pixel values of an exemplary mask image have a value of 1 in the image area of the corresponding strip and a value of 0 in other areas.

〈範囲調整部232〉
範囲調整部232は、基準マスク画像の画素値の範囲と、対象マスク画像の画素値の範囲とに基づいて、基準ストリップの画素値の範囲と、対象ストリップの画素値の範囲とを調整するように構成される。典型的には、範囲調整部232は、ストリップの画素値の範囲とマスク画像の画素値の範囲との間の差を小さくするように、基準ストリップの画素値の範囲及び対象ストリップの画素値の範囲の調整を行う。
<Range adjustment section 232>
The range adjustment unit 232 adjusts the pixel value range of the reference strip and the pixel value range of the target strip based on the pixel value range of the reference mask image and the pixel value range of the target mask image. It is composed of Typically, the range adjustment unit 232 adjusts the pixel value range of the reference strip and the pixel value range of the target strip so as to reduce the difference between the pixel value range of the strip and the pixel value range of the mask image. Adjust the range.

一般に、範囲調整部232は、基準ストリップの画素値の範囲と、対象ストリップの画素値の範囲と、マスク画像の画素値の範囲とを相対的に調整する。典型的な例では、基準ストリップに適用される基準マスク画像と、対象ストリップに適用される対象マスク画像とは異なり、範囲調整部232は、基準ストリップの画素値の範囲と、対象ストリップの画素値の範囲と、基準マスク画像の画素値の範囲と、対象ストリップの画素値の範囲とを相対的に調整する。 Generally, the range adjustment unit 232 relatively adjusts the pixel value range of the reference strip, the pixel value range of the target strip, and the pixel value range of the mask image. In a typical example, unlike the reference mask image applied to the reference strip and the target mask image applied to the target strip, the range adjustment unit 232 adjusts the range of pixel values of the reference strip and the pixel value of the target strip. , the pixel value range of the reference mask image, and the pixel value range of the target strip are relatively adjusted.

範囲調整部232は、基準ストリップの画素値の範囲と基準マスク画像の画素値の範囲とを小さくするように基準ストリップの画素値の範囲と基準マスク画像の画素値の範囲とを調整し、且つ、対象ストリップの画素値の範囲と対象マスク画像の画素値の範囲とを小さくするように、対象ストリップの画素値の範囲と対象ストリップの画素値の範囲とを相対的に調整するように構成される。 The range adjustment unit 232 adjusts the pixel value range of the reference strip and the pixel value range of the reference mask image so as to reduce the pixel value range of the reference strip and the pixel value range of the reference mask image, and , configured to relatively adjust the pixel value range of the target strip and the pixel value range of the target strip so as to reduce the pixel value range of the target strip and the pixel value range of the target mask image. Ru.

範囲調整部232は、ストリップ及びマスク画像の一方の画素値の範囲を他方の画素値の範囲に一致させるように、ストリップの画素値の範囲とマスク画像の画素値の範囲とを調整するように構成されてよい。例えば、範囲調整部232は、基準ストリップの画素値の範囲と基準マスク画像の画素値の範囲とを一致させるように基準ストリップの画素値の範囲と基準マスク画像の画素値の範囲とを調整し、且つ、対象ストリップの画素値の範囲と対象マスク画像の画素値の範囲とを一致させるように、対象ストリップの画素値の範囲と対象ストリップの画素値の範囲とを相対的に調整するように構成されてよい。 The range adjustment unit 232 adjusts the pixel value range of the strip and the pixel value range of the mask image so that the pixel value range of one of the strip and the mask image matches the pixel value range of the other. may be configured. For example, the range adjustment unit 232 adjusts the pixel value range of the reference strip and the pixel value range of the reference mask image so that the pixel value range of the reference strip and the pixel value range of the reference mask image match. , and relatively adjust the pixel value range of the target strip and the pixel value range of the target strip so that the pixel value range of the target strip matches the pixel value range of the target mask image. may be configured.

例えば、範囲調整部232は、マスク画像の画素値の範囲に応じてストリップの画素値の範囲を正規化するように構成される。この正規化(規格化)の幾つかの例を以下に説明するが、これらに限定されるものではない。 For example, the range adjustment unit 232 is configured to normalize the range of pixel values of the strip according to the range of pixel values of the mask image. Some examples of this normalization (normalization) will be described below, but the invention is not limited to these.

正規化の第1の例を説明する。マスク画像の画素値の範囲が閉区間[0,1]に含まれる場合において、範囲調整部232は、ストリップの各画素の値を、このストリップにおける最大画素値で除算する。本例では、範囲調整部232は、まず、ストリップの全ての画素の値を比較して最大値(最大画素値)を特定し、このストリップの各画素の値を最大画素値で除算する。これにより、ストリップの画素値の範囲が、マスク画像の画素値の範囲と同じ閉区間[0,1]に一致される。 A first example of normalization will be explained. When the range of pixel values of the mask image is included in the closed interval [0, 1], the range adjustment unit 232 divides the value of each pixel in the strip by the maximum pixel value in this strip. In this example, the range adjustment unit 232 first compares the values of all pixels in the strip, identifies the maximum value (maximum pixel value), and divides the value of each pixel in this strip by the maximum pixel value. Thereby, the range of pixel values of the strip is matched to the same closed interval [0, 1] as the range of pixel values of the mask image.

正規化の第2の例を説明する。マスク画像の画素値の範囲が閉区間[0,1]に含まれる場合において、範囲調整部232は、ストリップの各画素の値を、このストリップの画素値の範囲の最大値で除算する。ストリップの画素値の範囲は予め設定されており、範囲調整部232は、この範囲の上限値(最大値)でストリップの各画素の値を除算する。本例によっても、ストリップの画素値の範囲が、マスク画像の画素値の範囲と同じ閉区間[0,1]に一致される。 A second example of normalization will be explained. When the range of pixel values of the mask image is included in the closed interval [0, 1], the range adjustment unit 232 divides the value of each pixel of the strip by the maximum value of the range of pixel values of this strip. The range of pixel values of the strip is set in advance, and the range adjustment unit 232 divides the value of each pixel of the strip by the upper limit value (maximum value) of this range. Also in this example, the range of pixel values of the strip coincides with the same closed interval [0, 1] as the range of pixel values of the mask image.

範囲調整部232が実行する処理により、ストリップの画素値の絶対値とマスクの画素値の絶対値との差を小さくすることができ、ストリップとマスクとを用いた相関演算においてマスクの効果が無視されることが無くなり、相関係数の算出を正確に行うことが可能となる。特に、単精度浮動小数点型(フロート型)の演算を採用した場合であっても、有効桁数の少なさに起因する丸め誤差の影響を排除する(低減する)ことができる。 Through the processing executed by the range adjustment unit 232, the difference between the absolute value of the pixel value of the strip and the absolute value of the pixel value of the mask can be reduced, and the effect of the mask can be ignored in the correlation calculation using the strip and the mask. Therefore, it becomes possible to accurately calculate the correlation coefficient. In particular, even when single-precision floating-point type (float type) arithmetic is employed, it is possible to eliminate (reduce) the influence of rounding errors caused by a small number of significant digits.

本明細書ではストリップの画素値の範囲のみを変更する例について主に説明するが、マスク画像の画素値の範囲のみを変更してもよいし、ストリップの画素値の範囲とマスク画像の画素値の範囲との双方を変更してもよい。 In this specification, we will mainly explain an example in which only the pixel value range of the strip is changed, but it is also possible to change only the pixel value range of the mask image, or the pixel value range of the strip and the pixel value of the mask image. Both the range and the range may be changed.

〈合成画像生成部233〉
範囲調整部232による画素値範囲調整が適用されたストリップ及びマスク画像について、合成画像生成部233は、基準ストリップ及び対象ストリップのそれぞれにマスク画像を合成して2つの合成画像を生成する。典型的には、合成画像生成部233は、基準ストリップに基準マスク画像を合成して基準合成画像を生成し、且つ、対象ストリップに対象マスク画像を合成して対象合成画像を生成する。
<Synthetic image generation unit 233>
Regarding the strip and mask image to which the pixel value range adjustment by the range adjustment unit 232 has been applied, the composite image generation unit 233 combines the mask image with each of the reference strip and the target strip to generate two composite images. Typically, the composite image generation unit 233 generates a reference composite image by combining a reference mask image with a reference strip, and generates a target composite image by combining a target mask image with a target strip.

ストリップとマスク画像とを合成する処理は、非特許文献1と同じ要領で実行されてよい。ただし、非特許文献1の手法とは異なり、本実施形態では、ストリップの画素値の範囲とマスク画像の画素値の範囲との間の差を小さくなるように調整されている。典型的には、基準マスク画像及び対象マスク画像の画素値の範囲に一致するように、基準ストリップ及び対象ストリップの画素値の範囲が正規化されている。 The process of combining the strip and the mask image may be performed in the same manner as in Non-Patent Document 1. However, unlike the method of Non-Patent Document 1, in this embodiment, the difference between the pixel value range of the strip and the pixel value range of the mask image is adjusted to be small. Typically, the pixel value ranges of the reference strip and the target strip are normalized to match the pixel value ranges of the reference mask image and the target mask image.

例えば、非特許文献1の式(19)と同じ要領で、合成画像生成部233は、画素値範囲が正規化されたストリップを、マスク画像と同じ寸法及び同じ形状の画像に埋め込むように構成されてよい。 For example, in the same manner as Equation (19) in Non-Patent Document 1, the composite image generation unit 233 is configured to embed a strip in which the pixel value range has been normalized into an image having the same dimensions and the same shape as the mask image. It's fine.

更に、合成画像生成部233は、ストリップの埋め込み画像とマスク画像との合成画像を生成する。この合成画像は、非特許文献1における「f´(r)m(r)」(第1800頁の第2行目等)に相当するが、前述したように、ストリップの埋め込み画像の値が式(19)のそれとは異なっている。 Further, the composite image generation unit 233 generates a composite image of the embedded image of the strip and the mask image. This composite image corresponds to "f'(r)m f (r)" (page 1800, second line, etc.) in Non-Patent Document 1, but as mentioned above, the value of the embedded image of the strip is This is different from that of equation (19).

〈相互相関関数算出部234〉
相互相関関数算出部234は、合成画像生成部233により生成された2つの合成画像に基づいて複数の相互相関関数を求める。相互相関関数の算出は、非特許文献1と同じ要領で実行される。例えば、相互相関関数算出部234は、基準ストリップ及び基準マスク画像から生成された基準合成画像と、対象ストリップ及び対象マスク画像から生成された対象合成画像とに基づいて、非特許文献1の式(33)に含まれる6個の相互相関関数(画像相互相関、image cross-correlation)を算出する。
<Cross correlation function calculation unit 234>
The cross-correlation function calculation unit 234 calculates a plurality of cross-correlation functions based on the two composite images generated by the composite image generation unit 233. Calculation of the cross-correlation function is performed in the same manner as in Non-Patent Document 1. For example, the cross-correlation function calculation unit 234 calculates the formula ( The six cross-correlation functions (image cross-correlation) included in 33) are calculated.

〈相関係数算出部235〉
相関係数算出部235は、相互相関関数算出部234により算出された複数の相互相関関数に基づいて相関係数を算出する。この演算は、非特許文献1の式(33)に従う。
<Correlation coefficient calculation unit 235>
The correlation coefficient calculation unit 235 calculates a correlation coefficient based on the plurality of cross-correlation functions calculated by the cross-correlation function calculation unit 234. This calculation follows Equation (33) of Non-Patent Document 1.

〈レジストレーション部236〉
レジストレーション部236は、相関係数算出部235により算出される相関係数に基づいて、xy方向(ラテラル方向)のレジストレーションが実行される。このレジストレーションは、非特許文献1の「rough lateral motion correction」(第1787頁)に相当する。
<Registration section 236>
The registration unit 236 performs registration in the xy direction (lateral direction) based on the correlation coefficient calculated by the correlation coefficient calculation unit 235. This registration corresponds to "rough lateral motion correction" (page 1787) of Non-Patent Document 1.

更に、レジストレーション部236は、スロードリフト(slow drift)やトレモア(tremor)等の眼球運動に起因するラテラル方向の小さなモーションアーティファクトを除去するために、非特許文献1の「fine lateral motion correction」(第1789頁)に相当するレジストレーションを実行するように構成されてもよい。 Furthermore, the registration unit 236 uses the "fine lateral motion correction" described in Non-Patent Document 1 to remove small motion artifacts in the lateral direction caused by eye movements such as slow drift and tremor. (Page 1789).

加えて、レジストレーション部236は、z方向(軸方向、アキシャル方向)のモーションアーティファクトを除去するために、非特許文献1の「axial motion correction (rough axial motion correction 及び/又は fine axial motion correction」(第1789頁~第1790頁)に相当するレジストレーションを実行するように構成されてもよい。 In addition, the registration unit 236 performs "axial motion correction (rough axial motion correction and/or fine axial motion correction") described in Non-Patent Document 1 in order to remove motion artifacts in the z direction (axial direction). (pages 1789 to 1790).

〈マージ処理部237〉
マージ処理部237は、レジストレーション部236により相対位置調整がなされた基準ストリップと対象ストリップとのマージ画像を構築する。この処理も非特許文献1に記載された手法と同じ要領で実行される。
<Merge processing unit 237>
The merge processing unit 237 constructs a merged image of the reference strip and the target strip whose relative positions have been adjusted by the registration unit 236. This process is also executed in the same manner as the method described in Non-Patent Document 1.

前述したように、データ処理部230は、画像構築部220により構築された複数のストリップを大きさに応じた順序付けに従って、上記した一連の処理を逐次に実行する。これにより、画像構築部220により構築された複数のストリップから、モーションアーティファクトが補正された画像が得られる。得られた画像は、典型的には、リサージュスキャンが適用された範囲全体を表現した画像である。 As described above, the data processing unit 230 sequentially executes the above-described series of processes on the plurality of strips constructed by the image construction unit 220 in accordance with the ordering according to the size. As a result, an image with motion artifacts corrected can be obtained from the plurality of strips constructed by the image construction unit 220. The obtained image typically represents the entire area to which the Lissajous scan has been applied.

〈ユーザーインターフェイス240〉
ユーザーインターフェイス240は表示部241と操作部242とを含む。表示部241は表示装置3を含む。操作部242は各種の操作デバイスや入力デバイスを含む。ユーザーインターフェイス240は、例えばタッチパネルのような表示機能と操作機能とが一体となったデバイスを含んでいてもよい。ユーザーインターフェイス240の少なくとも一部を含まない実施形態を構築することも可能である。例えば、表示デバイスは、眼科装置1に接続された外部装置であってよい。
<User interface 240>
User interface 240 includes a display section 241 and an operation section 242. The display section 241 includes the display device 3. The operation unit 242 includes various operation devices and input devices. The user interface 240 may include a device such as a touch panel that has a display function and an operation function integrated. It is also possible to construct embodiments that do not include at least a portion of user interface 240. For example, the display device may be an external device connected to the ophthalmological apparatus 1.

〈動作〉
眼科装置1の動作について説明する。眼科装置1の動作の例を図6に示す。なお、患者IDの入力、走査モードの設定(リサージュスキャンの指定)、固視標の提示、アライメント、フォーカス調整、OCT光路長調整など、従来と同様の準備的な処理は、既になされたものとする。
<motion>
The operation of the ophthalmologic apparatus 1 will be explained. An example of the operation of the ophthalmologic apparatus 1 is shown in FIG. The same preparatory processes as before, such as entering the patient ID, setting the scan mode (specifying Lissajous scan), presenting a fixation target, alignment, focus adjustment, and OCT optical path length adjustment, have already been performed. do.

(S1:リサージュスキャン)
所定の走査開始トリガー信号を受けて、走査制御部2111は、被検眼E(眼底Ef)に対するOCTスキャン(リサージュスキャン)の適用を開始する。
(S1: Lissage scan)
Upon receiving a predetermined scan start trigger signal, the scan control unit 2111 starts applying an OCT scan (Lissajous scan) to the eye E (fundus Ef) to be examined.

走査開始トリガー信号は、例えば、所定の準備動作(アライメント、フォーカス調整、OCT光路長調整など)が完了したことに対応して、又は、操作部242を用いて走査開始指示操作が行われたことに対応して生成される。 The scan start trigger signal is generated, for example, in response to completion of a predetermined preparatory operation (alignment, focus adjustment, OCT optical path length adjustment, etc.), or in response to a scan start instruction operation performed using the operation unit 242. is generated in response to.

走査制御部2111は、走査プロトコル2121(リサージュスキャンに対応したプロトコル)に基づいて光スキャナ44及びOCTユニット100などを制御することによってリサージュスキャンを眼底Efに適用する。リサージュスキャンにより収集されたデータは画像構築部220に送られる。 The scan control unit 2111 applies the Lissajous scan to the fundus Ef by controlling the optical scanner 44, the OCT unit 100, etc. based on the scanning protocol 2121 (protocol compatible with Lissajous scan). The data collected by the Lissajous scan is sent to the image construction unit 220.

(S2:複数のストリップを構築)
画像構築部220は、前述した要領で、ステップS1で収集されたデータに基づいて複数のストリップを構築する。構築された複数のストリップはデータ処理部230に送られる。
(S2: Build multiple strips)
The image construction unit 220 constructs a plurality of strips based on the data collected in step S1 in the manner described above. The constructed plurality of strips are sent to the data processing unit 230.

(S3:基準ストリップと対象ストリップを設定する)
データ処理部230は、ステップS2で構築された複数のストリップを寸法(面積等)に従って順序付けする。本例では、ステップS2で構築された複数のストリップの個数をN個(Nは2以上の整数)であるとする。また、順序付けにより指定された順序に従って、これらN個のストリップを、第1のストリップ、第2のストリップ、・・・、第Nのストリップと呼ぶ。また、第1~第Nのストリップのうちの任意のストリップを第nのストリップと呼ぶことがある(n=1、2、・・・、N)。このように、第1のストリップは最も大きなストリップであり、第2のストリップは2番目に大きなストリップであり、第nのストリップはn番目に大きなストリップであり、第Nのストリップは最も小さなストリップである。
(S3: Set reference strip and target strip)
The data processing unit 230 orders the plurality of strips constructed in step S2 according to dimensions (area, etc.). In this example, it is assumed that the number of the plurality of strips constructed in step S2 is N (N is an integer of 2 or more). Further, these N strips are called a first strip, a second strip, . . . , an N-th strip according to the order specified by the ordering. Further, any strip among the first to Nth strips may be called an nth strip (n=1, 2, . . . , N). Thus, the first strip is the largest strip, the second strip is the second largest strip, the nth strip is the nth largest strip, and the Nth strip is the smallest strip. be.

本例において、データ処理部230は、第1のストリップを初期基準ストリップに設定し、第2のストリップを初期対象ストリップに設定する。 In this example, the data processing unit 230 sets the first strip as the initial reference strip and sets the second strip as the initial target strip.

なお、基準ストリップ及び対象ストリップは、それぞれ、非特許文献1のAppendix Aにおける任意形状の画像(arbitrary shaped images)f(r)及びg(r)に相当する。 Note that the reference strip and the target strip correspond to arbitrary shaped images f(r) and g(r) in Appendix A of Non-Patent Document 1, respectively.

(S4:基準マスク画像と対象マスク画像を設定)
マスク画像生成部231は、基準ストリップに対応するマスク画像(基準マスク画像)と、対象ストリップに対応する対象マスク画像とを生成する。
(S4: Set reference mask image and target mask image)
The mask image generation unit 231 generates a mask image (reference mask image) corresponding to the reference strip and a target mask image corresponding to the target strip.

この段階では、マスク画像生成部231は、第1のストリップ及び第2のストリップにそれぞれ対応する2つのマスク画像を生成する。データ処理部230は、第1のストリップに対応する第1のマスク画像を初期基準マスク画像に設定し、第2のストリップに対応する第2のマスク画像を初期対象マスク画像に設定する。 At this stage, the mask image generation unit 231 generates two mask images corresponding to the first strip and the second strip, respectively. The data processing unit 230 sets the first mask image corresponding to the first strip as the initial reference mask image, and sets the second mask image corresponding to the second strip as the initial target mask image.

なお、基準マスク画像及び対象マスク画像は、それぞれ、非特許文献1のAppendix Aにおける矩形状の二値画像マスク(rectangular shaped binary image masks)m(r)及びm(r)に相当する。 Note that the reference mask image and the target mask image correspond to rectangular shaped binary image masks m f (r) and m g (r) in Appendix A of Non-Patent Document 1, respectively.

(S5:基準ストリップと対象ストリップを正規化)
範囲調整部232は、前述した要領で、ステップS3で設定された基準ストリップと対象ストリップに正規化を施す。ストリップの正規化は、マスク画像の画素値の範囲に応じて行われる。この段階においては、範囲調整部232は、第1のストリップ(基準ストリップ)及び第2のストリップ(対象ストリップ)に正規化を適用する。なお、範囲調整部232が実行する処理は正規化には限定されず、前述した範囲調整処理のいずれか又はそれに類する処理であってよい。
(S5: Normalize the reference strip and target strip)
The range adjustment unit 232 normalizes the reference strip and target strip set in step S3 in the manner described above. Strip normalization is performed according to the range of pixel values of the mask image. At this stage, the range adjustment unit 232 applies normalization to the first strip (reference strip) and the second strip (target strip). Note that the process executed by the range adjustment unit 232 is not limited to normalization, and may be any of the range adjustment processes described above or a process similar thereto.

本例において、各マスク画像の画素値の範囲は閉区間[0,1]に含まれるものとする。特に、本例の各マスク画像は、対応するストリップの定義域に相当する領域内の画素値が1に設定され且つ他の画素の値が0に設定された二値画像であるものとする。 In this example, it is assumed that the range of pixel values of each mask image is included in the closed interval [0, 1]. In particular, each mask image in this example is a binary image in which pixel values in a region corresponding to the domain of the corresponding strip are set to 1, and values of other pixels are set to 0.

範囲調整部232は、例えば、ストリップの各画素の値をこのストリップにおける最大画素値で除算することにより、又は、ストリップの各画素の値をこのストリップの画素値の範囲(階調範囲)の最大値で除算することにより、このストリップの正規化を行う。 For example, the range adjustment unit 232 divides the value of each pixel of the strip by the maximum pixel value in this strip, or divides the value of each pixel of the strip by the maximum of the pixel value range (gradation range) of this strip. Normalize this strip by dividing by the value.

また、データ処理部230(合成画像生成部233)は、画素値範囲が正規化されたストリップを、対応するマスク画像と同じ寸法及び同じ形状の画像に埋め込む。正規化された第1のストリップf(r)の埋め込み画像は、非特許文献1のAppendix Aにおける矩形状の画像(rectangular shaped image)f´(r)に類する画像であるが、第1のストリップf(r)の画像エリア内の値域の絶対値(|f(r)|)が1以下に正規化されている。この埋め込み画像を同じくf´(r)と表す。 Furthermore, the data processing unit 230 (composite image generation unit 233) embeds the strip whose pixel value range has been normalized into an image having the same size and shape as the corresponding mask image. The embedded image of the normalized first strip f(r) is an image similar to the rectangular shaped image f′(r) in Appendix A of Non-Patent Document 1, but the embedded image of the first strip The absolute value (|f(r)|) of the range within the image area of f(r) is normalized to 1 or less. This embedded image is also expressed as f'(r).

同様に、正規化された第2のストリップg(r)の埋め込み画像は、矩形状の画像g´(r)に類する画像であるが、第2のストリップg(r)の画像エリア内の値域の絶対値(|g(r)|)が1以下に正規化されている。この埋め込み画像を同じくg´(r)と表す。 Similarly, the embedded image of the normalized second strip g(r) is an image similar to the rectangular image g'(r), but the range of values within the image area of the second strip g(r) is The absolute value of (|g(r)|) is normalized to 1 or less. This embedded image is also expressed as g'(r).

(S6:基準合成画像と対象合成画像を生成)
合成画像生成部233は、正規化されたストリップの埋め込み画像と、対応するマスク画像との合成画像を生成する。
(S6: Generate reference composite image and target composite image)
The composite image generation unit 233 generates a composite image of the normalized strip embedded image and the corresponding mask image.

この段階においては、合成画像生成部233は、正規化された第1のストリップ(基準ストリップ)の埋め込み画像と、第1のマスク画像(基準マスク画像)との合成画像を生成し、且つ、正規化された第2のストリップ(対象ストリップ)の埋め込み画像と、第2のマスク画像(対象マスク画像)との合成画像を生成する。前者の合成画像を基準合成画像と呼び、後者を対象合成画像と呼ぶ。 At this stage, the composite image generation unit 233 generates a composite image of the normalized embedded image of the first strip (reference strip) and the first mask image (reference mask image), and A composite image of the embedded image of the converted second strip (target strip) and the second mask image (target mask image) is generated. The former composite image is called a reference composite image, and the latter is called a target composite image.

ここで、基準合成画像及び対象合成画像は、それぞれ、非特許文献1のAppendix Aにおける2つの矩形状の画像の組み合わせ(combination of two rectangle shaped images)f´(r)m(r)及びg´(r)m(r)に相当する。ただし、前述したように、第1のストリップf(r)の画像エリア内の値域の絶対値(|f(r)|)は1以下であり、且つ、第2のストリップg(r)の画像エリア内の値域の絶対値(|g(r)|)は1以下である。 Here, the reference composite image and the target composite image are combinations of two rectangle shaped images f'(r)m f (r) and g in Appendix A of Non-Patent Document 1, respectively. '(r)m g (r). However, as described above, the absolute value (|f(r)|) of the range in the image area of the first strip f(r) is less than or equal to 1, and the image of the second strip g(r) The absolute value (|g(r)|) of the range within the area is 1 or less.

図7Aの画像311は、正規化された第1のストリップf(r)の埋め込み画像f´(r)の例であり、画像321は、第1のマスク画像の例である。これら2つの画像311及び321を組み合わせることによって基準合成画像f´(r)m(r)が得られる。 Image 311 in FIG. 7A is an example of the embedded image f'(r) of the normalized first strip f(r), and image 321 is an example of the first mask image. By combining these two images 311 and 321, a reference composite image f'(r)m f (r) is obtained.

同様に、図7Bの画像312は、正規化された第2のストリップf(r)の埋め込み画像g´(r)の例であり、画像322は、第2のマスク画像の例である。これら2つの画像312及び322を組み合わせることによって基準合成画像g´(r)m(r)が得られる。 Similarly, image 312 of FIG. 7B is an example of an embedded image g'(r) of the normalized second strip f(r), and image 322 is an example of a second mask image. By combining these two images 312 and 322, a reference composite image g'(r)m g (r) is obtained.

(S7:複数の相互相関関数を算出)
相互相関関数算出部234は、ステップS6で生成された基準合成画像及び対象合成画像に基づいて複数の相互相関関数を算出する。本例では、相互相関関数算出部234は、ステップS6で生成された基準合成画像及び対象合成画像に基づいて、非特許文献1の式(33)に含まれる6個の相互相関関数を算出する。
(S7: Calculate multiple cross-correlation functions)
The cross-correlation function calculation unit 234 calculates a plurality of cross-correlation functions based on the reference composite image and the target composite image generated in step S6. In this example, the cross-correlation function calculation unit 234 calculates six cross-correlation functions included in equation (33) of Non-Patent Document 1 based on the reference composite image and the target composite image generated in step S6. .

(S8:相関係数を算出)
相関係数算出部235は、ステップS7で算出された複数の相互相関関数に基づいて相関係数を算出する。本例では、相関係数算出部235は、非特許文献1の式(33)に従って、ステップS7で算出された複数の相互相関関数から相関係数(ρ(r´))を算出する。
(S8: Calculate correlation coefficient)
The correlation coefficient calculation unit 235 calculates a correlation coefficient based on the plurality of cross-correlation functions calculated in step S7. In this example, the correlation coefficient calculation unit 235 calculates the correlation coefficient (ρ(r')) from the plurality of cross-correlation functions calculated in step S7 according to equation (33) of Non-Patent Document 1.

(S9:基準ストリップと対象ストリップとの間のレジストレーション)
基準ストリップ及び対象ストリップに対して、レジストレーション部236は、ステップS8で算出された相関係数に基づきxy方向のレジストレーション(rough lateral motion correction)を適用する。この段階では、第1のストリップf(r)と第2のストリップとの間のレジストレーションが行われる。
(S9: Registration between reference strip and target strip)
The registration unit 236 applies registration in the x and y directions (rough lateral motion correction) to the reference strip and the target strip based on the correlation coefficient calculated in step S8. At this stage, registration between the first strip f(r) and the second strip is performed.

本例では、ステップS8で算出された相関係数ρ(r´)のピークを検出することにより、基準ストリップと対象ストリップとの間の相対的なシフト量(Δx、Δy)が求められる。 In this example, the relative shift amount (Δx, Δy) between the reference strip and the target strip is determined by detecting the peak of the correlation coefficient ρ(r') calculated in step S8.

更に、レジストレーション部236は、前述した「fine lateral motion correction」や「axial motion correction」などのレジストレーションを基準ストリップ及び対象ストリップに対して適用する。 Further, the registration unit 236 applies registration such as the aforementioned "fine lateral motion correction" and "axial motion correction" to the reference strip and the target strip.

(S10:基準ストリップと対象ストリップのマージ画像を構築)
マージ処理部237は、ステップS9のレジストレーションにより相対位置調整がなされた基準ストリップと対象ストリップとのマージ画像を構築する。図7Cの画像330は、第1のストリップと第2のストリップとのマージ画像の例を示す。
(S10: Build a merged image of the reference strip and target strip)
The merge processing unit 237 constructs a merged image of the reference strip and the target strip whose relative positions have been adjusted by the registration in step S9. Image 330 of FIG. 7C shows an example of a merged image of the first strip and the second strip.

(S11:全てのストリップを処理したか?)
ステップS2で得られたN個のストリップの全てに対し、前述した順序に従って逐次に、ステップS3~S10の一連の処理が実行される。
(S11: Have all strips been processed?)
A series of processes from steps S3 to S10 are sequentially performed on all N strips obtained in step S2 in the above-described order.

Nが3以上の場合において、ステップS10で第1のストリップと第2のストリップとのマージ画像が作成された場合(S11:No)、処理はステップS3に戻る。ステップS3では、第1のストリップと第2のストリップとのマージ画像が新たな基準ストリップに設定され、且つ、第3のストリップが新たな対象ストリップに設定される。新たな基準ストリップと新たな対象ストリップに基づきステップS4~S10の処理を実行することにより、新たな基準ストリップと新たな対象ストリップとのマージ画像が得られる。この新たなマージ画像は、第1~第3のストリップのマージ画像である。このような一連の処理をN個のストリップに対して逐次に適用することにより、N個のストリップの全てのマージ画像が得られる(S11:Yes)。 If N is 3 or more and a merged image of the first strip and the second strip is created in step S10 (S11: No), the process returns to step S3. In step S3, the merged image of the first strip and the second strip is set as a new reference strip, and the third strip is set as a new target strip. By executing the processes of steps S4 to S10 based on the new reference strip and the new target strip, a merged image of the new reference strip and the new target strip is obtained. This new merged image is a merged image of the first to third strips. By sequentially applying such a series of processing to the N strips, all merged images of the N strips are obtained (S11: Yes).

(S12:最終的なマージ画像を保存する)
以上に説明した繰り返し処理により最終的に得られたマージ画像は、モーションアーティファクトが補正された画像であり、且つ、ステップS1のリサージュスキャンの適用範囲全体を表現した画像である。主制御部211は、この最終的なマージ画像を記憶部212(及び/又は、他の記憶装置)に保存する。
(S12: Save the final merged image)
The merged image finally obtained through the repeated processing described above is an image in which motion artifacts have been corrected, and is an image that expresses the entire application range of the Lissajous scan in step S1. The main control unit 211 stores this final merged image in the storage unit 212 (and/or other storage device).

データ処理部230は、N個のストリップに基づくレジストレーションの結果を利用して、ステップS1で収集されたデータ(3次元データ)、及び/又は、この3次元データから画像構築部220が構築した3次元画像データのレジストレーションを行うことができる。このレジストレーションは、リサージュスキャンの定義座標系を3次元直交座標系(xyz座標系)に変換する処理を含む。この座標変換は、非特許文献1に記載された手法における「remapping」に相当する。主制御部211は、このようにして得られた3次元画像データを、最終的なマージ画像とともに又はその代わりに、記憶部212(及び/又は、他の記憶装置)に保存することができる(エンド)。 The data processing unit 230 utilizes the registration results based on the N strips to process the data (three-dimensional data) collected in step S1 and/or the image construction unit 220 constructs the data (three-dimensional data) from this three-dimensional data. Registration of three-dimensional image data can be performed. This registration includes a process of converting the Lissajous scan definition coordinate system into a three-dimensional orthogonal coordinate system (xyz coordinate system). This coordinate transformation corresponds to "remapping" in the method described in Non-Patent Document 1. The main control unit 211 can store the three-dimensional image data obtained in this way in the storage unit 212 (and/or other storage device) together with or instead of the final merged image ( end).

主制御部211は、最終的なマージ画像を表示部241(及び/又は、他の表示装置)に表示させることができる。また、データ処理部230は、上記座標変換で構築された3次元画像データから任意のレンダリング画像を作成することができる。主制御部211は、このレンダリング画像を表示部241(及び/又は、他の表示装置)に表示させることができる。 The main control unit 211 can display the final merged image on the display unit 241 (and/or other display device). Further, the data processing unit 230 can create an arbitrary rendered image from the three-dimensional image data constructed by the coordinate transformation described above. The main control unit 211 can display this rendered image on the display unit 241 (and/or other display device).

ここで、ステップS7~S10の処理の実装例を説明する。まず、f´(r)m(r)、g´(r)m(r)、m(r)、m(r)、(f´(r)m(r))、及び(g´(r)m(r))のそれぞれの虚部(imaginary part)を0に設定し、実部(real part)のみにする。 Here, an implementation example of the processing in steps S7 to S10 will be described. First, f'(r)m f (r), g'(r)m g (r), m f (r), m g (r), (f'(r) m f (r)) 2 , and (g'(r)m g (r)) Set the imaginary part of each of 2 to 0, leaving only the real part.

次に、f´(r)m(r)、g´(r)m(r)、m(r)、m(r)、(f´(r)m(r))、及び(g´(r)m(r))のそれぞれの実部に対して高速フーリエ変換(FFT)を適用する。 Next, f'(r)m f (r), g'(r)m g (r), m f (r), m g (r), (f'(r) m f (r)) 2 , and (g′(r)m g (r)) 2. Apply a fast Fourier transform (FFT) to the real parts of each of .

次に、これらの高速フーリエ変換で得られた関数群に基づいて、図6のステップS7に示された6個の相互相関関数を算出する。 Next, six cross-correlation functions shown in step S7 of FIG. 6 are calculated based on the function group obtained by these fast Fourier transforms.

次に、算出された6個の相互相関関数のそれぞれに逆高速フーリエ変換(IFFT)を適用する。 Next, an inverse fast Fourier transform (IFFT) is applied to each of the six calculated cross-correlation functions.

次に、非特許文献1の式(33)の相関係数ρ(r´)を算出する。 Next, the correlation coefficient ρ(r') of equation (33) of Non-Patent Document 1 is calculated.

そして、相関係数ρ(r´)のピーク位置を特定することによって基準ストリップf(r)と対象ストリップg(r)との間の相対的なシフト量(Δx、Δy)を算出し、このシフト量に基づいて基準ストリップf(r)と対象ストリップg(r)との間のレジストレーション及びマージ処理を実行する。 Then, by specifying the peak position of the correlation coefficient ρ(r'), the relative shift amount (Δx, Δy) between the reference strip f(r) and the target strip g(r) is calculated. Registration and merging processing between the reference strip f(r) and the target strip g(r) is performed based on the shift amount.

このような一連の処理をN個のストリップに対して逐次に適用することにより、N個のストリップの全てのマージ画像が得られる。 By sequentially applying such a series of processing to the N strips, all merged images of the N strips are obtained.

〈作用、効果等〉
例示的な実施形態の幾つかの特徴について説明し、それらにより奏される幾つかの作用及び幾つかの効果について説明する。
<Action, effect, etc.>
Certain features of exemplary embodiments will be described, and some of the operations and advantages provided by them will be described.

上記の例示的な実施形態に係る眼科装置1は、走査型イメージング装置の幾つかの態様を提供する。それに加えて、上記の例示的な実施形態に係る眼科装置1は、走査型イメージング装置を制御する方法の幾つかの態様、画像処理装置の幾つかの態様、画像処理装置を制御する方法の幾つかの態様、画像処理方法の幾つかの態様、及び、走査型イメージング方法の幾つかの態様を提供する。 The ophthalmic device 1 according to the exemplary embodiments described above provides several aspects of a scanning imaging device. In addition, the ophthalmological apparatus 1 according to the exemplary embodiments described above may include some aspects of the method of controlling a scanning imaging device, some aspects of the image processing device, and some aspects of the method of controlling the image processing device. Some aspects of image processing methods, and some aspects of scanning imaging methods are provided.

なお、走査型イメージング装置を制御する方法の幾つかの態様、画像処理装置の幾つかの態様、画像処理装置を制御する方法の幾つかの態様、画像処理方法の幾つかの態様、及び、走査型イメージング方法の幾つかの態様のいずれかにおいて説明された事項を、上記の例示的な実施形態に係る眼科装置1(より一般に、走査型イメージング装置のいずれかの態様)に適用することが可能である。 Note that some aspects of the method of controlling the scanning imaging device, some aspects of the image processing device, some aspects of the method of controlling the image processing device, some aspects of the image processing method, and What has been described in any of the aspects of the scanning imaging method may be applied to the ophthalmological device 1 (more generally any aspect of the scanning imaging device) according to the exemplary embodiments described above. It is.

さて、例示的な実施形態に係る走査型イメージング装置(眼科装置1)は、走査部と、画像構築部220と、マスク画像生成部231と、範囲調整部232と、合成画像生成部233と、相互相関関数算出部234(第1算出部)と、相関係数算出部235(第2算出部)と、レジストレーション部236と、マージ処理部237とを含む。 Now, the scanning imaging apparatus (ophthalmological apparatus 1) according to the exemplary embodiment includes a scanning section, an image construction section 220, a mask image generation section 231, a range adjustment section 232, a composite image generation section 233, It includes a cross-correlation function calculation section 234 (first calculation section), a correlation coefficient calculation section 235 (second calculation section), a registration section 236, and a merge processing section 237.

走査部は、サンプル(被検眼E、眼底Ef)に光走査を適用してデータを収集するように構成されている。この光走査は、一連のサイクルを含む2次元パターンに従って実行される。 The scanning unit is configured to collect data by applying optical scanning to the sample (eye E, fundus Ef). This optical scanning is performed according to a two-dimensional pattern that includes a series of cycles.

幾つかの例示的な態様において、光走査の2次元パターンに含まれる一連のサイクルのうちの任意の2つのサイクルは、少なくとも1点で互いに交差していてよい。 In some exemplary aspects, any two cycles of the series of cycles included in the two-dimensional pattern of light scanning may intersect each other at at least one point.

更に、幾つかの例示的な態様において、サンプルに適用される光走査は、リサージュ関数に基づき予め設定された走査プロトコルに基づく2次元パターンに従って実行されてよい。このような光走査の一例が、上記の例示的な実施形態におけるリサージュスキャンである。 Furthermore, in some exemplary embodiments, the optical scanning applied to the sample may be performed according to a two-dimensional pattern based on a preset scanning protocol based on a Lissajous function. An example of such an optical scan is the Lissajous scan in the exemplary embodiments described above.

幾つかの例示的な態様において、走査部は、互いに異なる第1方向(x方向)及び第2方向(y方向)に光を偏向可能な偏向器(光スキャナ44)を含み、第1方向に沿った偏向方向の変化を第1周期で繰り返しつつ第2方向に沿った偏向方向の変化を第1周期と異なる第2周期で繰り返すことによって、2次元パターンに従う光走査をサンプルに適用するように構成されていてよい。 In some exemplary embodiments, the scanning unit includes a deflector (light scanner 44) capable of deflecting light in a first direction (x direction) and a second direction (y direction) that are different from each other, and By repeating the change in the deflection direction along the direction in a first period and the change in the deflection direction along the second direction in a second period different from the first period, optical scanning according to a two-dimensional pattern is applied to the sample. It may be configured.

上記の例示的な実施形態において、走査部は、OCTユニット100と、測定アームを構成する眼底カメラユニット2内の要素(リトロリフレクタ41、OCT合焦レンズ43、光スキャナ44、対物レンズ22等)とを含み、被検眼EにOCTスキャンを適用してOCTデータを収集する。 In the above exemplary embodiment, the scanning section includes the OCT unit 100 and the elements in the fundus camera unit 2 that constitute the measurement arm (retroreflector 41, OCT focusing lens 43, optical scanner 44, objective lens 22, etc.) and applying an OCT scan to the eye E to be examined to collect OCT data.

画像構築部220は、走査部により収集されたデータに基づいて第1画像及び第2画像を構築するように構成されている。上記の例示的な実施形態における基準ストリップ及び対象ストリップの組み合わせは、第1画像及び第2画像の組み合わせの一例である。 The image construction unit 220 is configured to construct the first image and the second image based on the data collected by the scanning unit. The combination of the reference strip and the target strip in the above exemplary embodiment is an example of the combination of the first image and the second image.

幾つかの例示的な態様において、光走査の2次元パターンに含まれる一連のサイクルのうちの任意の2つのサイクルが、少なくとも1点で互いに交差する場合、画像構築部220は、一連のサイクルのうちの第1サイクル群に従う光走査で収集された第1データに基づいて第1画像を構築し、且つ、一連のサイクルのうち第1サイクル群と異なる第2サイクル群に従う光走査で収集された第2データに基づいて第2画像を構築するように構成されていてよい。 In some exemplary aspects, if any two cycles of the series of cycles included in the two-dimensional pattern of light scanning intersect each other at at least one point, the image construction unit 220 The first image is constructed based on the first data collected by optical scanning according to the first cycle group, and the first image is collected by optical scanning according to the second cycle group different from the first cycle group among the series of cycles. The second image may be configured to be constructed based on the second data.

例えば、上記の例示的な実施形態におけるリサージュスキャンのように、光走査の2次元パターンがリサージュ関数に基づき予め設定された走査プロトコルに従っている場合、画像構築部220は、この2次元パターンに含まれる一連のサイクルのうちの第1サイクル群に従う光走査で収集された第1データに基づいて第1画像を構築し、且つ、一連のサイクルのうち第1サイクル群と異なる第2サイクル群に従う光走査で収集された第2データに基づいて第2画像を構築するように構成されていてよい。 For example, when a two-dimensional pattern of optical scanning follows a preset scanning protocol based on a Lissajous function, such as the Lissajous scan in the above exemplary embodiment, the image construction unit 220 constructing a first image based on first data collected by optical scanning according to a first cycle group of a series of cycles; and optical scanning according to a second cycle group different from the first cycle group among the series of cycles. The second image may be constructed based on the second data collected at the second image.

上記の例示的な実施形態では、一連のサイクルに従う光走査から得られたボリュームのうち、比較的大きな動きが介在しない(第1サイクル群に対応する)第1のサブボリュームの正面プロジェクション画像が第1画像(第1のストリップ)に設定され、比較的大きな動きが介在しない(第1サイクル群とは異なる第2サイクル群に対応する)第2のサブボリュームの正面プロジェクション画像が第2画像(第2のストリップ)に設定される。 In the above exemplary embodiment, the front projection image of the first sub-volume (corresponding to the first cycle group) of the volume obtained from the optical scanning according to the series of cycles is the first The frontal projection image of the second sub-volume (corresponding to the second cycle group, which is different from the first cycle group) is set to one image (the first strip) and there is no intervening relatively large movement. 2 strips).

画像構築部220により構築された第1画像及び第2画像について、マスク画像生成部231は、第1画像に応じた第1マスク画像と、第2画像に応じた第2マスク画像とを生成するように構成されている。なお、ここに言う「第1マスク画像」及び「第2マスク画像」は、上記の例示的な実施形態において複数のストリップに付与された順序に対応する「第1のマスク画像」及び「第2のマスク画像」とは異なる。 Regarding the first image and second image constructed by the image construction section 220, the mask image generation section 231 generates a first mask image according to the first image and a second mask image according to the second image. It is configured as follows. Note that the "first mask image" and "second mask image" referred to herein refer to the "first mask image" and "second mask image" corresponding to the order in which they are applied to the plurality of strips in the above exemplary embodiment. mask image”.

幾つかの例示的な態様において、マスク画像(第1マスク画像、第2マスク画像)の画素値の範囲は、閉区間[0,1]に含まれていてよい。 In some exemplary aspects, the range of pixel values of the mask images (first mask image, second mask image) may be included in the closed interval [0, 1].

更に、幾つかの例示的な態様において、マスク画像(第1マスク画像、第2マスク画像)は、画素値が0又は1の二値画像であってよい。 Further, in some exemplary embodiments, the mask images (first mask image, second mask image) may be binary images with pixel values of 0 or 1.

例えば、上記の例示的な実施形態のように、マスク画像(第1マスク画像、第2マスク画像)は、サンプルの画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であってよい。 For example, as in the exemplary embodiments above, the mask images (first mask image, second mask image) have values of 1 for pixels in the region corresponding to the domain of the image of the sample, and other The image may be a binary image in which the pixel value is 0.

幾つかの例示的な態様において、第1マスク画像及び第2マスク画像は、同じ寸法及び同じ形状を有していてよい。 In some example aspects, the first mask image and the second mask image may have the same dimensions and the same shape.

範囲調整部232は、第1マスク画像の画素値の範囲及び第2マスク画像の画素値の範囲に基づいて第1画像の画素値の範囲及び第2画像の画素値の範囲を調整するように構成されている。 The range adjustment unit 232 adjusts the pixel value range of the first image and the pixel value range of the second image based on the pixel value range of the first mask image and the pixel value range of the second mask image. It is configured.

幾つかの例示的な態様において、範囲調整部232は、サンプルの画像(第1画像、第2画像)の画素値の範囲とマスク画像(第1マスク画像、第2マスク画像)の画素値の範囲との間の差を小さくするように構成されていてよい。例えば、上記の例示的な実施形態のように、範囲調整部232は、サンプルの画像(第1画像、第2画像)の画素値の範囲とマスク画像(第1マスク画像、第2マスク画像)の画素値の範囲とを一致させるように構成されていてよい。 In some exemplary aspects, the range adjustment unit 232 adjusts the pixel value range of the sample image (first image, second image) and the pixel value range of the mask image (first mask image, second mask image). The configuration may be configured to reduce the difference between the ranges. For example, as in the above exemplary embodiment, the range adjustment unit 232 adjusts the range of pixel values of the sample images (first image, second image) and the mask images (first mask image, second mask image). may be configured to match the pixel value range of .

更に、幾つかの例示的な態様において、範囲調整部232は、サンプルの画像(第1画像、第2画像)及びマスク画像(第1マスク画像、第2マスク画像)の一方の画素値の範囲を他方の画素値の範囲に一致させるように構成されてよい。例えば、上記の例示的な実施形態のように、範囲調整部232は、サンプルの画像(第1画像、第2画像)の画素値の範囲をマスク画像(第1マスク画像、第2マスク画像)の画素値の範囲に一致させるように構成されていてよい。すなわち、範囲調整部232は、サンプルの画像(第1画像、第2画像)の画素値の範囲と、マスク画像(第1マスク画像、第2マスク画像)の画素値の範囲とを一致させるために、サンプルの画像(第1画像、第2画像)の画素値の範囲を変更するように構成されてよい。 Furthermore, in some exemplary aspects, the range adjustment unit 232 adjusts the range of pixel values of one of the sample image (first image, second image) and the mask image (first mask image, second mask image). may be configured to match the other pixel value range. For example, as in the above exemplary embodiment, the range adjustment unit 232 adjusts the range of pixel values of the sample images (first image, second image) to mask images (first mask image, second mask image). may be configured to match the pixel value range of . That is, the range adjustment unit 232 matches the pixel value range of the sample image (first image, second image) with the pixel value range of the mask image (first mask image, second mask image). Additionally, the pixel value range of the sample images (first image, second image) may be changed.

幾つかの例示的な態様において、範囲調整部232は、マスク画像(第1マスク画像、第2マスク画像)の画素値の範囲に応じてサンプルの画像(第1画像、第2画像)の画素値の範囲を正規化(規格化)するように構成されていてよい。 In some exemplary aspects, the range adjustment unit 232 adjusts the pixels of the sample images (the first image, the second image) according to the range of pixel values of the mask images (the first mask image, the second mask image). It may be configured to normalize (normalize) the range of values.

例えば、マスク画像(第1マスク画像、第2マスク画像)の画素値の範囲が閉区間[0,1]に含まれている場合において、範囲調整部232は、サンプルの画像(第1画像、第2画像)の各画素の値を、当該画像における最大画素値で除算することによって、当該画像の画素値の範囲を正規化するように構成されていてよい。 For example, when the range of pixel values of the mask images (first mask image, second mask image) is included in the closed interval [0,1], the range adjustment unit 232 adjusts the pixel values of the sample images (first image, second mask image). The range of pixel values of the image may be normalized by dividing the value of each pixel of the second image by the maximum pixel value of the image.

他の例において、マスク画像(第1マスク画像、第2マスク画像)の画素値の範囲が閉区間[0,1]に含まれている場合において、範囲調整部232は、サンプルの画像(第1画像、第2画像)の各画素の値を、当該画像の画素値の範囲の最大値で除算することによって、当該画像の画素値の範囲を正規化するように構成されていてよい。 In another example, when the range of pixel values of the mask images (first mask image, second mask image) is included in the closed interval [0, 1], the range adjustment unit 232 The pixel value range of the image may be normalized by dividing the value of each pixel of the image (first image, second image) by the maximum value of the pixel value range of the image.

合成画像生成部233は、サンプルの第1画像に第1マスク画像を合成して第1合成画像を生成し、且つ、第2画像に第2マスク画像を合成して第2合成画像を生成するように構成されている。 The composite image generation unit 233 generates a first composite image by combining the first mask image with the first image of the sample, and generates a second composite image by combining the second mask image with the second image. It is configured as follows.

幾つかの例示的な態様において、第1マスク画像及び第2マスク画像は、同じ寸法及び同じ形状を有していてよい。更に、第1マスク画像は、第1画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であってよく、且つ、第2マスク画像は、第2画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であってよい。 In some example aspects, the first mask image and the second mask image may have the same dimensions and the same shape. Further, the first mask image may be a binary image in which the value of a pixel in a region corresponding to the domain of the first image is 1 and the value of other pixels is 0, and the second mask image The image may be a binary image in which pixels in a region corresponding to the domain of the second image have a value of 1 and other pixels have values of 0.

上記の例示的な実施形態では、第1マスク画像と第2マスク画像とは、同じ寸法及び同じ形状を有する。合成画像生成部233は、任意形状の第1画像及び任意形状の第2画像のそれぞれを、これらマスク画像と同じ寸法及び同じ形状の埋め込み画像に変換するように構成されている。更に、合成画像生成部233は、第1画像の埋め込み画像と第1マスク画像とを合成し、且つ、第2画像の埋め込み画像と第2マスク画像とが合成するように構成されている。 In the above exemplary embodiment, the first mask image and the second mask image have the same dimensions and the same shape. The composite image generation unit 233 is configured to convert each of the arbitrarily shaped first image and arbitrarily shaped second image into embedded images having the same dimensions and the same shape as these mask images. Furthermore, the composite image generation unit 233 is configured to composite the embedded image of the first image and the first mask image, and to composite the embedded image of the second image and the second mask image.

或いは、上記の例示的な実施形態において、合成画像生成部233は、任意形状の第1画像及び任意形状の第2画像を、互いに同じ寸法及び同じ形状の埋め込み画像にそれぞれ変換するように構成されていてよい。また、マスク画像生成部231は、これらサンプルの画像と同じ寸法及び同じ形状を有する第1マスク画像と第2マスク画像をそれぞれ生成するように構成されていてよい。更に、合成画像生成部233は、第1画像の埋め込み画像と第1マスク画像とを合成し、且つ、第2画像の埋め込み画像と第2マスク画像とが合成するように構成されていてよい。 Alternatively, in the above exemplary embodiment, the composite image generation unit 233 is configured to convert the arbitrarily shaped first image and the arbitrarily shaped second image into embedded images having the same dimensions and the same shape as each other. It's okay to stay. Further, the mask image generation unit 231 may be configured to generate a first mask image and a second mask image, respectively, having the same dimensions and the same shape as these sample images. Furthermore, the composite image generation unit 233 may be configured to composite the embedded image of the first image and the first mask image, and to composite the embedded image of the second image and the second mask image.

相互相関関数算出部234は、合成画像生成部233により生成された第1合成画像及び第2合成画像に基づいて複数の相互相関関数を求めるように構成されている。 The cross-correlation function calculation unit 234 is configured to calculate a plurality of cross-correlation functions based on the first composite image and the second composite image generated by the composite image generation unit 233.

相関係数算出部235は、相互相関関数算出部234により求められた複数の相互相関関数に基づいて相関係数を算出するように構成されている。 The correlation coefficient calculation unit 235 is configured to calculate a correlation coefficient based on the plurality of cross-correlation functions calculated by the cross-correlation function calculation unit 234.

レジストレーション部236は、相関係数算出部235により算出された相関係数に基づいて第1画像と第2画像とのレジストレーションを行うように構成されている。 The registration unit 236 is configured to perform registration between the first image and the second image based on the correlation coefficient calculated by the correlation coefficient calculation unit 235.

マージ処理部237は、レジストレーション部236により実行されたレジストレーションの結果に基づいて第1画像と第2画像とのマージ画像を構築するように構成されている。 The merge processing unit 237 is configured to construct a merged image of the first image and the second image based on the result of the registration performed by the registration unit 236.

上記の例示的な実施形態と同様に、幾つかの例示的な態様において、相互相関関数算出部234(第1算出部)、相関係数算出部235(第2算出部)、レジストレーション部236、及びマージ処理部237のそれぞれが実行する処理及びそのための構成(ハードウェア構成、ソフトウェア構成)は、非特許文献1に記載された手法と同様であってよい。ただし、他の手法を採用することを排除するものではない。 Similar to the above exemplary embodiments, in some exemplary aspects, the cross-correlation function calculation section 234 (first calculation section), the correlation coefficient calculation section 235 (second calculation section), the registration section 236 , and the merge processing unit 237, and the configuration thereof (hardware configuration, software configuration) may be the same as the method described in Non-Patent Document 1. However, this does not preclude the adoption of other methods.

上記の例示的な実施形態に係る眼科装置1により提供可能な画像処理方法の幾つかの態様を説明する。幾つかの例示的な態様において、画像処理方法は、以下に説明する工程を含んでいてよい。 Several aspects of the image processing method that can be provided by the ophthalmologic apparatus 1 according to the above exemplary embodiment will be described. In some example aspects, an image processing method may include the steps described below.

(画像準備工程)
サンプルの第1画像及び第2画像が準備される。例えば、通信回線や記録媒体を介してサンプルの第1画像及び第2画像が受け付けられる。或いは、サンプルに光走査を適用してデータが収集され、第1画像及び第2画像が構築される。第1画像及び第2画像のそれぞれは、一連のサイクルを含む2次元パターンに従う走査をサンプルに適用して収集されたデータに基づき構築される。例えば、第1画像及び第2画像のそれぞれは、リサージュ関数に基づき予め設定された走査プロトコルに基づく2次元パターンに従う走査をサンプルに適用して収集されたデータに基づき構築される。
(Image preparation process)
A first image and a second image of the sample are provided. For example, a first image and a second image of a sample are received via a communication line or a recording medium. Alternatively, data is collected by applying optical scanning to the sample and a first image and a second image are constructed. Each of the first and second images is constructed from data collected by applying a scan to the sample that follows a two-dimensional pattern that includes a series of cycles. For example, each of the first and second images is constructed based on data collected by applying a scan to the sample according to a two-dimensional pattern based on a preset scanning protocol based on a Lissajous function.

(マスク準備工程)
マスク画像が準備される。例えば、通信回線や記録媒体を介してマスク画像が受け付けられる。或いは、(サンプルの画像に基づいて)マスク画像が生成される。マスク画像の画素値の範囲は閉区間[0,1]に含まれていてよい。典型的には、マスク画像は、画素値が0又は1の二値画像であってよい。例えば、マスク画像は、サンプルの画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であってよい。マスク画像は、第1マスク画像と第2マスク画像とを含んでいてよい。第1マスク画像及び第2マスク画像は、同じ寸法及び同じ形状を有していてよい。第1マスク画像は、サンプルの第1画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であってよく、且つ、第2マスク画像は、サンプルの第2画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であってよい。
(Mask preparation process)
A mask image is prepared. For example, a mask image is received via a communication line or a recording medium. Alternatively, a mask image is generated (based on the image of the sample). The range of pixel values of the mask image may be included in the closed interval [0, 1]. Typically, the mask image may be a binary image with pixel values of 0 or 1. For example, the mask image may be a binary image in which pixels in a region corresponding to the domain of the sample image have a value of 1 and other pixels have values of 0. The mask image may include a first mask image and a second mask image. The first mask image and the second mask image may have the same dimensions and the same shape. The first mask image may be a binary image in which the value of a pixel in a region corresponding to the domain of the first image of the sample is 1, and the value of other pixels is 0; The image may be a binary image in which pixels in a region corresponding to the domain of the second image of the sample have a value of 1 and other pixels have a value of 0.

(画像値範囲調整工程)
第1画像の画素値の範囲と第2画像の画素値の範囲とマスク画像の画素値の範囲とが相対的に調整される。画素値の範囲の相対的な調整は、典型的には、サンプルの画像(第1画像、第2画像)の画素値の範囲とマスク画像の画素値の範囲との間の差を小さくするように行われる。例えば、画素値の範囲の相対的な調整は、サンプルの画像(第1画像、第2画像)及びマスク画像の一方の画素値の範囲を他方の画素値の範囲に一致させるように行われる。幾つかの例示的な態様において、画素値の範囲の相対的な調整は、マスク画像の画素値の範囲に応じてサンプルの画像(第1画像、第2画像)の画素値の範囲を正規化する処理を含んでいてよい。マスク画像の画素値の範囲が閉区間[0,1]に含まれる場合において、正規化は、サンプルの画像(第1画像、第2画像)の各画素の値を、当該画像における最大画素値で除算する処理を含んでいてよい。或いは、マスク画像の画素値の範囲が閉区間[0,1]に含まれる場合において、正規化は、サンプルの画像(第1画像、第2画像)の各画素の値を、当該画像の画素値の範囲の最大値で除算する処理を含んでいてよい。
(Image value range adjustment process)
The pixel value range of the first image, the pixel value range of the second image, and the pixel value range of the mask image are relatively adjusted. Relative adjustment of the pixel value range is typically done to reduce the difference between the pixel value range of the sample image (first image, second image) and the pixel value range of the mask image. It will be held on. For example, the relative adjustment of the pixel value range is performed so that the pixel value range of one of the sample image (first image, second image) and the mask image matches the pixel value range of the other. In some example aspects, the relative adjustment of the pixel value range normalizes the pixel value range of the sample images (first image, second image) according to the pixel value range of the mask image. It may include processing to do so. When the range of pixel values of the mask image is included in the closed interval [0, 1], normalization converts the value of each pixel of the sample image (first image, second image) to the maximum pixel value in the image. It may include processing to divide by. Alternatively, when the range of pixel values of the mask image is included in the closed interval [0, 1], normalization can be performed by changing the value of each pixel of the sample image (first image, second image) to the pixel value of the image. It may include a process of dividing by the maximum value of the value range.

(合成画像生成工程)
画像値範囲調整工程の後、第1画像及び第2画像のそれぞれにマスク画像が合成されて第1合成画像及び第2合成画像が生成される。マスク画像が、第1マスク画像と第2マスク画像とを含む場合において、合成画像生成工程は、第1マスク画像を第1画像に合成して第1合成画像を生成する工程と、第2マスク画像を第2画像に合成して第2合成画像を生成する工程とを含んでいてよい。ここで、第1マスク画像及び第2マスク画像は、同じ寸法及び同じ形状を有していてもよい。また、第1マスク画像は、第1画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であってよく、且つ、第2マスク画像は、第2画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であってよい。
(Synthetic image generation process)
After the image value range adjustment step, a mask image is combined with each of the first image and the second image to generate a first combined image and a second combined image. In the case where the mask image includes a first mask image and a second mask image, the composite image generation step includes a step of combining the first mask image with the first image to generate a first composite image, and a step of generating a first composite image by combining the first mask image with the first image. The method may include a step of composing the image with a second image to generate a second composite image. Here, the first mask image and the second mask image may have the same size and the same shape. Further, the first mask image may be a binary image in which the value of a pixel in a region corresponding to the domain of the first image is 1, and the value of other pixels is 0, and the second mask image The image may be a binary image in which pixels in a region corresponding to the domain of the second image have a value of 1 and other pixels have values of 0.

(相互相関関数算出工程)
合成画像生成工程によって生成された第1合成画像及び第2合成画像に基づいて複数の相互相関関数が求められる。この工程は、典型的には、非特許文献1に記載された手法に従って行われるが、これに限定されるものではない。
(Cross correlation function calculation process)
A plurality of cross-correlation functions are determined based on the first composite image and the second composite image generated in the composite image generation step. This step is typically performed according to the method described in Non-Patent Document 1, but is not limited thereto.

(相関係数算出工程)
相互相関関数算出工程において求められた複数の相互相関関数に基づいて相関係数が算出される。この工程は、典型的には、非特許文献1に記載された手法に従って行われるが、これに限定されるものではない。
(Correlation coefficient calculation process)
A correlation coefficient is calculated based on the plurality of cross-correlation functions obtained in the cross-correlation function calculation step. This step is typically performed according to the method described in Non-Patent Document 1, but is not limited thereto.

(レジストレーション工程)
相関係数算出工程において算出された相関係数に基づいてサンプルの第1画像と第2画像との間のレジストレーションが行われる。この工程は、典型的には、非特許文献1に記載された手法に従って行われるが、これに限定されるものではない。
(Registration process)
Registration between the first image and the second image of the sample is performed based on the correlation coefficient calculated in the correlation coefficient calculation step. This step is typically performed according to the method described in Non-Patent Document 1, but is not limited thereto.

幾つかの例示的な態様において、画像処理方法は、マージ画像構築工程を更に含んでいてよい。マージ画像構築工程では、レジストレーション工程において行われたレジストレーションの結果(例えば、サンプルの第1画像と第2画像との間の相対的シフト量)に基づいて第1画像と第2画像とのマージ画像が構築される。 In some example embodiments, the image processing method may further include a merged image construction step. In the merge image construction step, the first image and the second image are combined based on the registration result (for example, the relative shift amount between the first image and the second image of the sample) performed in the registration step. A merged image is constructed.

幾つかの例示的な態様において、画像処理方法は、上記の例示的な実施形態において説明された工程のいずれかを更に含んでいてもよい。 In some example aspects, the image processing method may further include any of the steps described in the example embodiments above.

上記の例示的な実施形態に係る眼科装置1により提供可能な走査型イメージング方法の幾つかの態様を説明する。幾つかの例示的な態様において、走査型イメージング方法は、以下に説明する工程を含んでいてよい。なお、幾つかの例示的な態様において、走査型イメージング方法は、上記の例示的な実施形態において説明された工程のいずれか、及び/又は、上記の画像処理方法の例示的な態様で説明された工程のいずれかを更に含んでいてもよい。 Several aspects of the scanning imaging method that can be provided by the ophthalmological device 1 according to the exemplary embodiments described above will now be described. In some example aspects, a scanning imaging method may include the steps described below. Note that in some example aspects, the scanning imaging method includes any of the steps described in the example embodiments above and/or the example aspects of the image processing method described above. The method may further include any of the above steps.

(走査工程)
一連のサイクルを含む2次元パターンに従う光走査がサンプルに適用され、データが収集される。典型的には、一連のサイクルのうちの任意の2つのサイクルは、少なくとも1点で互いに交差する。例えば、2次元パターンに従う光走査は、リサージュ関数に基づき予め設定された走査プロトコルに基づいて行われる。
(scanning process)
A light scan following a two-dimensional pattern comprising a series of cycles is applied to the sample and data is collected. Typically, any two cycles in the series intersect each other at at least one point. For example, optical scanning according to a two-dimensional pattern is performed based on a preset scanning protocol based on a Lissajous function.

(画像構築工程)
走査工程で収集されたデータに基づいて第1画像及び第2画像が構築される。一連のサイクルのうちの任意の2つのサイクルが少なくとも1点で互いに交差する場合(例えば、リサージュ関数に基づき予め設定された走査プロトコルに基づいて2次元パターンに従う光走査が行われる場合)、一連のサイクルのうちの第1サイクル群に従う光走査で収集された第1データに基づいて第1画像が構築されてよく、且つ、一連のサイクルのうち第1サイクル群と異なる第2サイクル群に従う光走査で収集された第2データに基づいて第2画像が構築されてよい。
(Image construction process)
A first image and a second image are constructed based on the data collected during the scanning process. If any two cycles of the series intersect each other at at least one point (for example, when light scanning is performed according to a two-dimensional pattern based on a preset scanning protocol based on a Lissajous function), then the series A first image may be constructed based on first data collected in an optical scan according to a first group of cycles of the series, and an optical scan according to a second group of cycles different from the first group of cycles of the series of cycles. A second image may be constructed based on the second data collected at.

(画像値範囲調整工程)
第1画像の画素値の範囲と第2画像の画素値の範囲とマスク画像の画素値の範囲とが相対的に調整される。
(Image value range adjustment process)
The pixel value range of the first image, the pixel value range of the second image, and the pixel value range of the mask image are relatively adjusted.

(合成画像生成工程)
画像値範囲調整工程の後、第1画像及び第2画像のそれぞれにマスク画像が合成されて第1合成画像及び第2合成画像が生成される。
(Synthetic image generation process)
After the image value range adjustment step, a mask image is combined with each of the first image and the second image to generate a first combined image and a second combined image.

(相互相関関数算出工程)
合成画像生成工程で生成された第1合成画像及び第2合成画像に基づいて複数の相互相関関数が求められる。
(Cross correlation function calculation process)
A plurality of cross-correlation functions are obtained based on the first composite image and the second composite image generated in the composite image generation step.

(相関係数算出工程)
相互相関関数算出工程で求められた複数の相互相関関数に基づいて相関係数が算出される。
(Correlation coefficient calculation process)
A correlation coefficient is calculated based on the plurality of cross-correlation functions obtained in the cross-correlation function calculation step.

(レジストレーション工程)
相関係数算出工程で算出された相関係数に基づいてサンプルの第1画像と第2画像との間のレジストレーションが行われる。
(Registration process)
Registration between the first image and the second image of the sample is performed based on the correlation coefficient calculated in the correlation coefficient calculation step.

(マージ画像構築工程)
レジストレーションの結果に基づいてサンプルの第1画像と第2画像とのマージ画像が構築される。
(Merge image construction process)
A merged image of the first and second images of the sample is constructed based on the registration results.

幾つかの例示的な態様において、走査型イメージング方法は、以下の付加的工程を含んでいてよい。 In some example embodiments, the scanning imaging method may include the following additional steps.

第1の付加的工程において、走査工程においてサンプルから収集されたデータに基づいて第3画像が構築される。上記の例示的な実施形態では、第3のストリップが構築される。 In a first additional step, a third image is constructed based on the data collected from the sample in the scanning step. In the above exemplary embodiment, a third strip is constructed.

第2の付加的工程において、第3画像の画素値の範囲と、マージ画像構築工程で構築されたマージ画像の画素値の範囲と、マスク画像の画素値の範囲とが、相対的に調整される。上記の例示的な実施形態では、第3のストリップと、第3のストリップに対応するマスク画像と、第1のストリップ及び第2のストリップのマージ画像と、このマージ画像に対応するマスク画像とについて、画素値範囲調整が適用される。 In the second additional step, the pixel value range of the third image, the pixel value range of the merged image constructed in the merged image construction step, and the pixel value range of the mask image are relatively adjusted. Ru. In the above exemplary embodiment, for a third strip, a mask image corresponding to the third strip, a merged image of the first strip and the second strip, and a mask image corresponding to this merged image. , pixel value range adjustment is applied.

第3の付加的工程において、第3画像及びマージ画像のそれぞれに当該マスク画像を合成して第3合成画像及び第4合成画像が生成される。上記の例示的な実施形態では、第3のストリップとこれに対応するマスク画像との合成画像が生成され、且つ、第1のストリップ及び第2のストリップのマージ画像とこれに対応するマスク画像との合成画像が生成される。 In the third additional step, the mask image is combined with each of the third image and the merged image to generate a third combined image and a fourth combined image. In the exemplary embodiments described above, a composite image of the third strip and its corresponding mask image is generated, and a merged image of the first strip and the second strip and its corresponding mask image is generated. A composite image is generated.

第4の付加的工程において、第3合成画像及び第4合成画像に基づいて複数の相互相関関数が求められる。上記の例示的な実施形態では、第3のストリップとこれに対応するマスク画像との合成画像と、上記マージ画像とこれに対応するマスク画像との合成画像とに基づいて、複数の相互相関関数が求められる。 In a fourth additional step, a plurality of cross-correlation functions are determined based on the third composite image and the fourth composite image. In the above exemplary embodiment, a plurality of cross-correlation functions are generated based on the composite image of the third strip and the corresponding mask image, and the composite image of the merged image and the corresponding mask image. is required.

第5の付加的工程において、第4の付加的工程で求められた複数の相互相関関数に基づいて相関係数が算出される。上記の例示的な実施形態では、第3のストリップに基づく合成画像及びマージ画像に基づく合成画像を用いて求められた複数の相互相関関数に基づいて、相関係数が算出される。 In the fifth additional step, a correlation coefficient is calculated based on the plurality of cross-correlation functions determined in the fourth additional step. In the exemplary embodiment described above, a correlation coefficient is calculated based on a plurality of cross-correlation functions determined using a composite image based on the third strip and a composite image based on the merged image.

第6の付加的工程において、第5の付加的工程で算出された相関係数に基づいて第3画像と第4画像とのレジストレーションが行われる。上記の例示的な実施形態では、第3のストリップに基づく合成画像及びマージ画像に基づく合成画像を用いて算出された相関係数に基づいて、このマージ画像(第1のストリップ及び第2のストリップのマージ画像)と第3のストリップとの間のレジストレーションが行われる。 In the sixth additional step, the third image and the fourth image are registered based on the correlation coefficient calculated in the fifth additional step. In the above exemplary embodiment, based on the correlation coefficient calculated using the composite image based on the third strip and the composite image based on the merged image, this merged image (first strip and second strip (merged image) and the third strip.

第7の付加的工程において、第6の付加的工程で実行されたレジストレーションの結果に基づいて第3画像とマージ画像とがマージされる。上記の例示的な実施形態では、マージ画像と第3のストリップとのレジストレーションの結果(相対的なシフト量)に基づいて、このマージ画像(第1のストリップ及び第2のストリップのマージ画像)に対して第3のストリップがマージされる。 In the seventh additional step, the third image and the merged image are merged based on the result of the registration performed in the sixth additional step. In the above exemplary embodiment, based on the registration result (relative shift amount) of the merged image and the third strip, this merged image (merged image of the first strip and the second strip) The third strip is merged with.

なお、ここでは、第1のストリップ及び第2のストリップのマージ画像と、第3のストリップとに対する処理を例として説明したが、一般に、上記の例示的な実施形態で説明した通り、第1~第nのストリップのマージ画像と、第n+1のストリップとに対する処理も、同じ要領で実行される(n=2、3、・・・、N-1)。 Note that although the processing for the merged image of the first strip and the second strip and the third strip has been described as an example, generally, as described in the above exemplary embodiment, the processing for the first to second strips is Processing for the merged image of the n-th strip and the n+1-th strip is also performed in the same manner (n=2, 3, . . . , N-1).

上記の例示的な実施形態に係る眼科装置1により提供可能な画像処理装置の幾つかの態様を説明する。幾つかの例示的な態様において、画像処理装置は、以下に説明する要素を含んでいてよい。なお、幾つかの例示的な態様において、画像処理装置は、上記の例示的な実施形態において説明された要素のいずれか、上記の画像処理方法の例示的な態様で説明された工程を実行するように構成された要素のいずれか、及び、上記の走査型イメージング方法の例示的な態様で説明された工程を実行するように構成された要素のいずれか、のうちのいずれかを更に含んでいてもよい。 Some aspects of the image processing device that can be provided by the ophthalmological device 1 according to the above exemplary embodiment will be described. In some example aspects, an image processing device may include the elements described below. Note that in some exemplary aspects, the image processing apparatus performs any of the elements described in the exemplary embodiments above, or the steps described in the exemplary aspects of the image processing method above. and any of the elements configured to perform the steps described in the exemplary embodiments of the scanning imaging methods above. You can stay there.

例示的な態様に係る画像処理装置は、記憶部と、マスク画像生成部と、範囲調整部と、合成画像生成部と、第1算出部と、第2算出部と、レジストレーション部とを含む。 An image processing device according to an exemplary embodiment includes a storage unit, a mask image generation unit, a range adjustment unit, a composite image generation unit, a first calculation unit, a second calculation unit, and a registration unit. .

記憶部は、サンプルの第1画像及び第2画像を記憶する。上記の例示的な実施形態において、この記憶部は記憶部212に相当する。 The storage unit stores a first image and a second image of the sample. In the exemplary embodiment described above, this storage corresponds to storage 212.

マスク画像生成部は、第1画像に応じた第1マスク画像と第2画像に応じた第2マスク画像とを生成するように構成される。上記の例示的な実施形態において、マスク画像生成部はマスク画像生成部231に相当する。 The mask image generation unit is configured to generate a first mask image corresponding to the first image and a second mask image corresponding to the second image. In the above exemplary embodiment, the mask image generator corresponds to the mask image generator 231.

範囲調整部は、第1マスク画像の画素値の範囲及び第2マスク画像の画素値の範囲に基づいて第1画像の画素値の範囲及び第2画像の画素値の範囲を調整するように構成される。上記の例示的な実施形態において、範囲調整部は範囲調整部232に相当する。 The range adjustment unit is configured to adjust the pixel value range of the first image and the pixel value range of the second image based on the pixel value range of the first mask image and the pixel value range of the second mask image. be done. In the exemplary embodiment described above, the range adjuster corresponds to the range adjuster 232.

合成画像生成部は、第1画像に第1マスク画像を合成して第1合成画像を生成し、且つ、第2画像に第2マスク画像を合成して第2合成画像を生成するように構成される。上記の例示的な実施形態において、合成画像生成部は合成画像生成部233に相当する。 The composite image generation unit is configured to generate a first composite image by combining the first mask image with the first image, and generate a second composite image by combining the second mask image with the second image. be done. In the above exemplary embodiment, the composite image generator corresponds to the composite image generator 233.

第1算出部は、第1合成画像及び第2合成画像に基づいて複数の相互相関関数を求めるように構成される。上記の例示的な実施形態において、第1算出部は相互相関関数算出部234に相当する。 The first calculation unit is configured to calculate a plurality of cross-correlation functions based on the first composite image and the second composite image. In the above exemplary embodiment, the first calculation unit corresponds to the cross-correlation function calculation unit 234.

第2算出部は、複数の相互相関関数に基づいて相関係数を算出するように構成される。上記の例示的な実施形態において、第2算出部は相関係数算出部235に相当する。 The second calculation unit is configured to calculate a correlation coefficient based on a plurality of cross-correlation functions. In the above exemplary embodiment, the second calculation unit corresponds to the correlation coefficient calculation unit 235.

レジストレーション部は、相関係数に基づいて第1画像と第2画像とのレジストレーションを行うように構成される。上記の例示的な実施形態において、レジストレーション部はレジストレーション部236に相当する。 The registration unit is configured to perform registration between the first image and the second image based on the correlation coefficient. In the exemplary embodiment described above, the registration section corresponds to registration section 236.

幾つかの例示的な態様において、画像処理装置は、マージ処理部を更に含んでいてよい。マージ処理部は、レジストレーションの結果に基づいて第1画像と第2画像とのマージ画像を構築するように構成される。 In some exemplary embodiments, the image processing device may further include a merge processing unit. The merge processing unit is configured to construct a merged image of the first image and the second image based on the registration result.

幾つかの例示的な態様において、画像処理装置は、データ受付部と、画像構築部とを更に含んでいてよい。 In some exemplary embodiments, the image processing device may further include a data reception unit and an image construction unit.

データ受付部は、一連のサイクルを含む2次元パターンに従う光走査によりサンプルから収集されたデータを受け付けるように構成される。データ受付部は、例えば、通信回線又は記録媒体を介してデータを受け付けるように構成されていてよい。上記の例示的な実施形態において、データ受付部は、眼科装置1に設けられた通信デバイスに相当する。 The data accepting unit is configured to accept data collected from the sample by optical scanning according to a two-dimensional pattern including a series of cycles. The data reception unit may be configured to receive data via a communication line or a recording medium, for example. In the exemplary embodiment described above, the data reception unit corresponds to a communication device provided in the ophthalmological apparatus 1.

画像構築部は、データ受付部により受け付けられたデータに基づいて第1画像及び第2画像を構築する。上記の例示的な実施形態において、画像構築部は画像構築部220に相当する。画像構築部により構築された第1画像及び第2画像は記憶部に記憶される。 The image construction section constructs the first image and the second image based on the data received by the data reception section. In the exemplary embodiments described above, the image construction unit corresponds to the image construction unit 220. The first image and second image constructed by the image construction section are stored in the storage section.

幾つかの例示的な態様において、データ受付部は、一連のサイクルを含む2次元パターンに従う光走査によりサンプルから収集されたデータに基づき構築された第1画像及び第2画像を受け付けるように構成されてよい。この場合、データ受付部により受け付けられた第1画像及び第2画像が記憶部に記憶される。 In some example aspects, the data acceptor is configured to accept first and second images constructed based on data collected from the sample by light scanning according to a two-dimensional pattern that includes a series of cycles. It's fine. In this case, the first image and second image accepted by the data accepting unit are stored in the storage unit.

幾つかの例示的な態様において、データ受付部は、一連のサイクルを含む2次元パターンに従う光走査によりサンプルから収集されたデータに基づき構築された3次元画像データを受け付けるように構成されてよい。この場合、画像構築部は、データ受付部により受け付けられた3次元画像データに基づいて第1画像及び第2画像を構築するように構成される。画像構築部により構築された第1画像及び第2画像は記憶部に記憶される。 In some example aspects, the data acceptor may be configured to accept three-dimensional image data constructed based on data collected from the sample by optical scanning according to a two-dimensional pattern that includes a series of cycles. In this case, the image construction section is configured to construct the first image and the second image based on the three-dimensional image data received by the data reception section. The first image and second image constructed by the image construction section are stored in the storage section.

上記の例示的な実施形態に係る眼科装置1により提供可能な、画像処理装置の制御方法の幾つかの態様を説明する。幾つかの例示的な態様において、画像処理装置の制御方法は、以下に説明する工程を含んでいてよい。なお、幾つかの例示的な態様において、画像処理装置の制御方法は、上記の例示的な実施形態において説明された工程のいずれか、上記の画像処理方法の例示的な態様で説明された工程のいずれか、上記の走査型イメージング方法の例示的な態様で説明された工程のいずれか、及び、上記の画像処理装置の例示的な態様で説明された要素により実行される工程のいずれか、のうちのいずれかを更に含んでいてもよい。 Several aspects of the image processing device control method that can be provided by the ophthalmological device 1 according to the above exemplary embodiment will be described. In some exemplary embodiments, a method for controlling an image processing device may include the steps described below. Note that in some exemplary embodiments, the method for controlling an image processing apparatus includes any of the steps described in the exemplary embodiments described above, or the steps described in the exemplary embodiments of the image processing method described above. any of the steps described in the exemplary embodiments of the scanning imaging method above, and any of the steps performed by the elements described in the exemplary embodiments of the image processing apparatus above; It may further contain any one of the following.

例示的な態様は、サンプルの第1画像及び第2画像を記憶する記憶部と、プロセッサとを含む画像処理装置を制御する方法であって、このプロセッサが以下の工程を実行するように制御を行う。なお、上記の例示的な実施形態において、記憶部は記憶部212に相当し、プロセッサは少なくともデータ処理部230に相当する。 An exemplary aspect is a method of controlling an image processing device including a storage unit storing a first image and a second image of a sample, and a processor, the processor being controlled to perform the following steps. conduct. Note that in the above exemplary embodiment, the storage unit corresponds to the storage unit 212, and the processor corresponds to at least the data processing unit 230.

プロセッサは、第1画像に応じた第1マスク画像と第2画像に応じた第2マスク画像とを生成するように制御される。例えば、上記の例示的な実施形態において、データ処理部230は、マスク画像生成部231として動作するように制御される。 The processor is controlled to generate a first mask image corresponding to the first image and a second mask image corresponding to the second image. For example, in the exemplary embodiment described above, the data processing unit 230 is controlled to operate as the mask image generation unit 231.

また、プロセッサは、第1マスク画像の画素値の範囲及び第2マスク画像の画素値の範囲に基づいて第1画像の画素値の範囲及び第2画像の画素値の範囲を調整するように制御される。例えば、上記の例示的な実施形態において、データ処理部230は、範囲調整部232として動作するように制御される。 The processor also controls to adjust the pixel value range of the first image and the pixel value range of the second image based on the pixel value range of the first mask image and the pixel value range of the second mask image. be done. For example, in the exemplary embodiment described above, the data processing unit 230 is controlled to operate as the range adjustment unit 232.

また、プロセッサは、第1画像に第1マスク画像を合成して第1合成画像を生成し、且つ、第2画像に第2マスク画像を合成して第2合成画像を生成するように制御される。例えば、上記の例示的な実施形態において、データ処理部230は、合成画像生成部233として動作するように制御される。 The processor is also controlled to generate a first composite image by combining the first mask image with the first image, and generate a second composite image by combining the second mask image with the second image. Ru. For example, in the exemplary embodiment described above, the data processing unit 230 is controlled to operate as a composite image generation unit 233.

また、プロセッサは、第1合成画像及び第2合成画像に基づいて複数の相互相関関数を求めるように制御される。例えば、上記の例示的な実施形態において、データ処理部230は、相互相関関数算出部234として動作するように制御される。 The processor is also controlled to obtain a plurality of cross-correlation functions based on the first composite image and the second composite image. For example, in the exemplary embodiment described above, the data processing section 230 is controlled to operate as the cross-correlation function calculation section 234.

また、プロセッサは、複数の相互相関関数に基づいて相関係数を算出するように制御される。例えば、上記の例示的な実施形態において、データ処理部230は、相関係数算出部235として動作するように制御される。 The processor is also controlled to calculate a correlation coefficient based on a plurality of cross-correlation functions. For example, in the exemplary embodiment described above, the data processing section 230 is controlled to operate as the correlation coefficient calculation section 235.

また、プロセッサは、相関係数に基づいて第1画像と第2画像とのレジストレーションを行うように制御される。例えば、上記の例示的な実施形態において、データ処理部230は、レジストレーション部236として動作するように制御される。 Further, the processor is controlled to perform registration between the first image and the second image based on the correlation coefficient. For example, in the exemplary embodiment described above, the data processing unit 230 is controlled to operate as the registration unit 236.

幾つかの例示的な実施形態において、プロセッサは、レジストレーションの結果に基づいて第1画像と第2画像とのマージ画像を構築するように制御されてよい。例えば、上記の例示的な実施形態において、データ処理部230は、マージ処理部237として動作するように制御される。 In some example embodiments, the processor may be controlled to construct a merged image of the first image and the second image based on the results of the registration. For example, in the exemplary embodiment described above, the data processing unit 230 is controlled to operate as the merge processing unit 237.

上記の例示的な実施形態に係る眼科装置1により提供可能な、走査型イメージング装置の制御方法の幾つかの態様を説明する。幾つかの例示的な態様において、走査型イメージング装置の制御方法は、以下に説明する工程を含んでいてよい。なお、幾つかの例示的な態様において、走査型イメージング装置の制御方法は、上記の例示的な実施形態において説明された工程のいずれか、上記の画像処理方法の例示的な態様で説明された工程のいずれか、上記の走査型イメージング方法の例示的な態様で説明された工程のいずれか、上記の画像処理装置の例示的な態様で説明された要素により実行される工程のいずれか、及び、上記の画像処理装置の例示的な態様で説明された工程のいずれか、のうちのいずれかを更に含んでいてもよい。 Several aspects of the method of controlling a scanning imaging device that can be provided by the ophthalmological device 1 according to the exemplary embodiment described above will be described. In some example aspects, a method of controlling a scanning imaging device may include the steps described below. Note that in some exemplary aspects, the method for controlling a scanning imaging device includes any of the steps described in the exemplary embodiments above, or any of the exemplary aspects of the image processing method described above. any of the steps described in the exemplary embodiments of the scanning imaging method above; any of the steps performed by the elements described in the exemplary embodiments of the image processing apparatus above; , any of the steps described in the exemplary embodiments of the image processing apparatus above.

例示的な態様は、サンプルに光走査を適用してデータを収集する走査部と、プロセッサとを含む走査型イメージング装置を制御する方法であって、走査部及びプロセッサが以下の工程を実行するように制御を行う。なお、上記の例示的な実施形態において、走査部は、OCTユニット100と、測定アームを構成する眼底カメラユニット2内の要素(リトロリフレクタ41、OCT合焦レンズ43、光スキャナ44、対物レンズ22等)とを含む。また、プロセッサは、画像構築部220及びデータ処理部230に相当する。 An exemplary aspect is a method of controlling a scanning imaging device including a scanning unit that applies optical scanning to a sample to collect data, and a processor, the scanning unit and the processor performing the following steps. control. In the above exemplary embodiment, the scanning section includes the OCT unit 100 and the elements in the fundus camera unit 2 that constitute the measurement arm (retroreflector 41, OCT focusing lens 43, optical scanner 44, objective lens 22). etc.). Further, the processor corresponds to the image construction section 220 and the data processing section 230.

走査部は、一連のサイクルを含む2次元パターンに従う光走査をサンプルに適用してデータを収集するように制御される。 The scanning unit is controlled to collect data by applying a light scan to the sample that follows a two-dimensional pattern that includes a series of cycles.

また、プロセッサ(上記の例示的な実施形態では画像構築部220)は、走査部により収集されたデータに基づいて第1画像及び第2画像を構築するように制御される。 The processor (image construction unit 220 in the above exemplary embodiment) is also controlled to construct the first image and the second image based on the data collected by the scanning unit.

また、プロセッサ(上記の例示的な実施形態ではデータ処理部230)は、第1画像に応じた第1マスク画像と第2画像に応じた第2マスク画像とを生成するように制御される。 Further, the processor (data processing unit 230 in the above exemplary embodiment) is controlled to generate a first mask image corresponding to the first image and a second mask image corresponding to the second image.

また、プロセッサ(上記の例示的な実施形態ではデータ処理部230)は、第1マスク画像の画素値の範囲及び第2マスク画像の画素値の範囲に基づいて第1画像の画素値の範囲及び第2画像の画素値の範囲を調整するように制御される。 The processor (data processing unit 230 in the above exemplary embodiment) may also determine the range of pixel values of the first image based on the range of pixel values of the first mask image and the range of pixel values of the second mask image. Control is performed to adjust the range of pixel values of the second image.

また、プロセッサ(上記の例示的な実施形態ではデータ処理部230)は、第1画像に第1マスク画像を合成して第1合成画像を生成し、且つ、第2画像に第2マスク画像を合成して第2合成画像を生成するように制御される。 The processor (data processing unit 230 in the above exemplary embodiment) also combines the first mask image with the first image to generate a first composite image, and combines the second mask image with the second image. The images are controlled to be combined to generate a second combined image.

また、プロセッサ(上記の例示的な実施形態ではデータ処理部230)は、第1合成画像及び第2合成画像に基づいて複数の相互相関関数を求めるように制御される。 The processor (data processing unit 230 in the exemplary embodiments described above) is also controlled to determine a plurality of cross-correlation functions based on the first composite image and the second composite image.

また、プロセッサ(上記の例示的な実施形態ではデータ処理部230)は、複数の相互相関関数に基づいて相関係数を算出するように制御される。 The processor (data processing unit 230 in the above exemplary embodiment) is also controlled to calculate a correlation coefficient based on a plurality of cross-correlation functions.

また、プロセッサ(上記の例示的な実施形態ではデータ処理部230)は、相関係数に基づいて第1画像と第2画像とのレジストレーションを行うように制御される。 The processor (data processing unit 230 in the above exemplary embodiment) is also controlled to register the first image and the second image based on the correlation coefficient.

また、プロセッサ(上記の例示的な実施形態ではデータ処理部230)は、レジストレーションの結果に基づいて第1画像と前記第2画像とのマージ画像を構築するように制御される。 The processor (data processing unit 230 in the above exemplary embodiment) is also controlled to construct a merged image of the first image and the second image based on the registration result.

幾つかの例示的な態様において、走査型イメージング装置を制御する方法のいずれかの態様をコンピュータに実行させるプログラム、画像処理装置を制御する方法のいずれかの態様をコンピュータに実行させるプログラム、画像処理方法のいずれかの態様をコンピュータに実行させるプログラム、又は、走査型イメージング方法のいずれかの態様をコンピュータに実行させるプログラムを提供することが可能である。 In some exemplary embodiments, a program causes a computer to execute any aspect of a method for controlling a scanning imaging device, a program causes a computer to execute any aspect of a method for controlling an image processing device, and image processing. It is possible to provide a program that causes a computer to perform any aspect of the method or a program that causes a computer to perform any aspect of the scanning imaging method.

また、このようなプログラムを記録したコンピュータ可読な非一時的記録媒体を作成することが可能である。この非一時的記録媒体は任意の形態であってよく、その例として、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどがある。 Furthermore, it is possible to create a computer-readable non-temporary recording medium that records such a program. This non-transitory recording medium may be in any form, examples of which include magnetic disks, optical disks, magneto-optical disks, and semiconductor memory.

以上に説明した幾つかの例示的な態様によれば、マスク画像を利用した画像レジストレーションにおいて、サンプルの画像の画素値の範囲とマスク画像の画素値の範囲とを相対的に調整した上で、レジストレーションのための処理を行うことが可能である。 According to some exemplary aspects described above, in image registration using a mask image, the pixel value range of the sample image and the pixel value range of the mask image are relatively adjusted, and then , it is possible to perform processing for registration.

これにより、サンプルの画像の画素値の範囲とマスク画像の画素値の範囲との間の差を小さくすることができる。例えば、サンプルの画像の画素値の大きさと、マスク画像の画素値の大きさとを(ほぼ)一致させることが可能である。 This makes it possible to reduce the difference between the pixel value range of the sample image and the pixel value range of the mask image. For example, it is possible to (approximately) match the size of the pixel values of the sample image and the size of the pixel values of the mask image.

したがって、サンプルの画像とマスク画像とを用いた相関演算においてマスク画像の効果が無視されるという従来の問題を解決することができ、正しい相関係数を得ることが可能となる。 Therefore, it is possible to solve the conventional problem that the effect of the mask image is ignored in a correlation calculation using a sample image and a mask image, and it becomes possible to obtain a correct correlation coefficient.

特に、サンプルの画像同士の相関係数を求めるために単精度浮動小数点型(フロート型)の演算が用いられる場合であっても、有効桁数の少なさに起因する丸め誤差の影響を排除することや小さくすることが可能である。 In particular, even when single-precision floating-point type (float type) arithmetic is used to calculate the correlation coefficient between sample images, the effects of rounding errors due to the small number of significant digits can be eliminated. It is possible to make it smaller.

また、複数の相互相関関数から相関係数を算出するアルゴリズムにおいては、個々の相互相関関数に起因する誤差の重ね合わせにより、最終的な相関係数の誤差が大きくなる可能性がある。このような問題に関し、例示的な態様によれば、個々の相互相関関数に起因する誤差を排除することや小さくすることができるため、確度の高い相関係数を得ることが可能である。 Furthermore, in an algorithm that calculates a correlation coefficient from a plurality of cross-correlation functions, there is a possibility that the error in the final correlation coefficient becomes large due to the superposition of errors caused by the individual cross-correlation functions. Regarding such problems, according to exemplary embodiments, it is possible to eliminate or reduce errors caused by individual cross-correlation functions, thereby making it possible to obtain highly accurate correlation coefficients.

このように、以上に説明した幾つかの例示的な態様は、マスク画像を用いた画像レジストレーションの正確性の向上に寄与するものである。 As such, several exemplary aspects described above contribute to improving the accuracy of image registration using mask images.

本開示は、幾つかの態様を例示するものに過ぎず、発明の限定を意図したものではない。この発明を実施しようとする者は、この発明の要旨の範囲内における任意の変形(省略、置換、付加など)を施すことが可能である。 This disclosure is merely illustrative of some embodiments and is not intended to be a limitation of the invention. Those who wish to carry out this invention can make arbitrary modifications (omissions, substitutions, additions, etc.) within the scope of the gist of this invention.

1 眼科装置
44 光スキャナ
100 OCTユニット
211 主制御部
2111 走査制御部
212 記憶部
2121 走査プロトコル
220 画像構築部
230 データ処理部
231 マスク画像生成部
232 範囲調整部
233 合成画像生成部
234 相互相関関数算出部
235 相関係数算出部
236 レジストレーション部
237 マージ処理部

1 Ophthalmology apparatus 44 Optical scanner 100 OCT unit 211 Main control section 2111 Scanning control section 212 Storage section 2121 Scanning protocol 220 Image construction section 230 Data processing section 231 Mask image generation section 232 Range adjustment section 233 Composite image generation section 234 Cross-correlation function calculation Section 235 Correlation coefficient calculation section 236 Registration section 237 Merge processing section

Claims (24)

通信回線若しくは記録媒体を介してサンプルの第1画像及び第2画像を受け付け、又は、サンプルに光走査を適用して収集されたデータに基づいて第1画像及び第2画像を構築し、
通信回線若しくは記録媒体を介してマスク画像を受け付け、又は、サンプルの画像に基づいてマスク画像を生成し、
前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲と前記マスク画像の画素値の範囲との間の差を小さくするように、前記第1画像の画素値の範囲と前記第2画像の画素値の範囲と前記マスク画像の画素値の範囲とを相対的に調整し、
前記第1画像及び前記第2画像のそれぞれに前記マスク画像を合成して第1合成画像及び第2合成画像を生成し、
前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求め、
前記複数の相互相関関数に基づいて相関係数を算出し、
前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行う、
画像処理方法。
receiving a first image and a second image of the sample via a communication line or a recording medium, or constructing the first image and the second image based on data collected by applying optical scanning to the sample;
Accepting a mask image via a communication line or a recording medium, or generating a mask image based on a sample image,
The pixel value range of the first image and the pixel value range of the mask image are reduced so as to reduce the difference between the pixel value range of the first image, the pixel value range of the second image, and the pixel value range of the mask image. relatively adjusting the pixel value range of the second image and the pixel value range of the mask image;
compositing the mask image with each of the first image and the second image to generate a first composite image and a second composite image;
determining a plurality of cross-correlation functions based on the first composite image and the second composite image;
Calculating a correlation coefficient based on the plurality of cross-correlation functions,
registering the first image and the second image based on the correlation coefficient;
Image processing method.
前記サンプルの画像及び前記マスク画像の一方の画素値の範囲を他方の画素値の範囲に一致させる、
請求項の画像処理方法。
matching the pixel value range of one of the sample image and the mask image to the pixel value range of the other;
The image processing method according to claim 1 .
前記マスク画像の画素値の範囲に応じて前記サンプルの画像の画素値の範囲を正規化する、
請求項の画像処理方法。
normalizing the pixel value range of the sample image according to the pixel value range of the mask image;
The image processing method according to claim 2 .
前記マスク画像の画素値の範囲は閉区間[0,1]に含まれ、
前記サンプルの画像の各画素の値を、当該画像における最大画素値で除算する、
請求項の画像処理方法。
The range of pixel values of the mask image is included in the closed interval [0, 1],
dividing the value of each pixel of the sample image by the maximum pixel value in the image;
The image processing method according to claim 3 .
前記マスク画像の画素値の範囲は閉区間[0,1]に含まれ、
前記サンプルの画像の各画素の値を、当該画像の画素値の範囲の最大値で除算する、
請求項の画像処理方法。
The range of pixel values of the mask image is included in the closed interval [0, 1],
dividing the value of each pixel of the sample image by the maximum value of the range of pixel values of the image;
The image processing method according to claim 3 .
前記マスク画像は、画素値が0又は1の二値画像である、
請求項1~のいずれかの画像処理方法。
The mask image is a binary image with a pixel value of 0 or 1.
The image processing method according to any one of claims 1 to 5 .
前記マスク画像は、前記サンプルの画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像である、
請求項の画像処理方法。
The mask image is a binary image in which the value of a pixel in a region corresponding to the domain of the sample image is 1, and the value of other pixels is 0.
The image processing method according to claim 6 .
前記マスク画像は、第1マスク画像と第2マスク画像とを含み、
前記第1マスク画像を前記第1画像に合成して前記第1合成画像を生成し、
前記第2マスク画像を前記第2画像に合成して前記第2合成画像を生成する、
請求項1~のいずれかの画像処理方法。
The mask image includes a first mask image and a second mask image,
compositing the first mask image with the first image to generate the first composite image;
compositing the second mask image with the second image to generate the second composite image;
The image processing method according to any one of claims 1 to 7 .
前記第1マスク画像及び前記第2マスク画像は、同じ寸法及び同じ形状を有する、
請求項の画像処理方法。
the first mask image and the second mask image have the same dimensions and the same shape;
The image processing method according to claim 8 .
前記第1マスク画像は、前記第1画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であり、
前記第2マスク画像は、前記第2画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像である、
請求項又はの画像処理方法。
The first mask image is a binary image in which the value of a pixel in a region corresponding to the domain of the first image is 1, and the value of other pixels is 0,
The second mask image is a binary image in which the value of a pixel in a region corresponding to the domain of the second image is 1, and the value of other pixels is 0.
The image processing method according to claim 8 or 9 .
前記第1画像及び前記第2画像のそれぞれは、一連のサイクルを含む2次元パターンに従う走査を前記サンプルに適用して収集されたデータに基づき構築される、
請求項1~10のいずれかの画像処理方法。
each of the first image and the second image is constructed based on data collected by applying a scan to the sample according to a two-dimensional pattern comprising a series of cycles;
The image processing method according to any one of claims 1 to 10 .
前記第1画像及び前記第2画像のそれぞれは、リサージュ関数に基づき予め設定された走査プロトコルに基づく2次元パターンに従う走査を前記サンプルに適用して収集されたデータに基づき構築される、
請求項11の画像処理方法。
Each of the first image and the second image is constructed based on data collected by applying a scan to the sample according to a two-dimensional pattern based on a preset scanning protocol based on a Lissajous function.
The image processing method according to claim 11 .
一連のサイクルを含む2次元パターンに従う光走査をサンプルに適用してデータを収集し、
前記データに基づいて第1画像及び第2画像を構築し、
前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲と前記マスク画像の画素値の範囲との間の差を小さくするように、前記第1画像の画素値の範囲と前記第2画像の画素値の範囲とマスク画像の画素値の範囲とを相対的に調整し、
前記第1画像及び前記第2画像のそれぞれに前記マスク画像を合成して第1合成画像及び第2合成画像を生成し、
前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求め、
前記複数の相互相関関数に基づいて相関係数を算出し、
前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行い、
前記レジストレーションの結果に基づいて前記第1画像と前記第2画像とのマージ画像を構築する、
走査型イメージング方法。
collecting data by applying an optical scan to the sample that follows a two-dimensional pattern comprising a series of cycles;
constructing a first image and a second image based on the data;
The pixel value range of the first image and the pixel value range of the mask image are reduced so as to reduce the difference between the pixel value range of the first image, the pixel value range of the second image, and the pixel value range of the mask image. relatively adjusting the pixel value range of the second image and the pixel value range of the mask image,
compositing the mask image with each of the first image and the second image to generate a first composite image and a second composite image;
determining a plurality of cross-correlation functions based on the first composite image and the second composite image;
Calculating a correlation coefficient based on the plurality of cross-correlation functions,
registering the first image and the second image based on the correlation coefficient;
constructing a merged image of the first image and the second image based on the registration result;
Scanning imaging method.
前記データに基づいて第3画像を構築し、
前記第3画像の画素値の範囲と前記マージ画像の画素値の範囲とマスク画像の画素値の範囲との間の差を小さくするように、前記第3画像の画素値の範囲と前記マージ画像の画素値の範囲とマスク画像の画素値の範囲とを相対的に調整し、
前記第3画像及び前記マージ画像のそれぞれに当該マスク画像を合成して第3合成画像及び第4合成画像を生成し、
前記第3合成画像及び前記第4合成画像に基づいて複数の相互相関関数を求め、
当該複数の相互相関関数に基づいて相関係数を算出し、
当該相関係数に基づいて前記第3画像と前記第4画像とのレジストレーションを行い、
前記レジストレーションの結果に基づいて前記第3画像と前記マージ画像とをマージする、
請求項13の走査型イメージング方法。
constructing a third image based on the data;
The pixel value range of the third image and the merged image are adjusted so as to reduce the difference between the pixel value range of the third image, the pixel value range of the merged image, and the pixel value range of the mask image. relatively adjust the pixel value range of and the pixel value range of the mask image ,
compositing the mask image with each of the third image and the merged image to generate a third composite image and a fourth composite image;
determining a plurality of cross-correlation functions based on the third composite image and the fourth composite image,
Calculate a correlation coefficient based on the plurality of cross-correlation functions,
registering the third image and the fourth image based on the correlation coefficient;
merging the third image and the merged image based on the registration result;
14. The scanning imaging method of claim 13 .
前記一連のサイクルのうちの任意の2つのサイクルは、少なくとも1点で互いに交差し、
前記一連のサイクルのうちの第1サイクル群に従う光走査で収集された第1データに基づいて前記第1画像を構築し、
前記一連のサイクルのうち前記第1サイクル群と異なる第2サイクル群に従う光走査で収集された第2データに基づいて前記第2画像を構築する、
請求項13又は14の走査型イメージング方法。
any two cycles of the series of cycles intersect each other at at least one point;
constructing the first image based on first data collected by optical scanning according to a first cycle group of the series of cycles;
constructing the second image based on second data collected by optical scanning according to a second cycle group different from the first cycle group among the series of cycles;
The scanning imaging method according to claim 13 or 14 .
リサージュ関数に基づき予め設定された走査プロトコルに基づいて前記2次元パターンに従う光走査を行う、
請求項15の走査型イメージング方法。
performing optical scanning according to the two-dimensional pattern based on a preset scanning protocol based on a Lissajous function;
16. The scanning imaging method of claim 15 .
サンプルの第1画像及び第2画像を記憶する記憶部と、
前記第1画像に応じた第1マスク画像と前記第2画像に応じた第2マスク画像とを生成するマスク画像生成部と、
前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲に基づいて、前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲と前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲との間の差を小さくするように、前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲を調整する範囲調整部と、
前記第1画像に前記第1マスク画像を合成して第1合成画像を生成し、且つ、前記第2画像に前記第2マスク画像を合成して第2合成画像を生成する合成画像生成部と、
前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求める第1算出部と、
前記複数の相互相関関数に基づいて相関係数を算出する第2算出部と、
前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行うレジストレーション部と
を含む、画像処理装置。
a storage unit that stores a first image and a second image of the sample;
a mask image generation unit that generates a first mask image according to the first image and a second mask image according to the second image;
Based on the pixel value range of the first mask image and the pixel value range of the second mask image , determine the pixel value range of the first image, the pixel value range of the second image, and the first mask image. a range in which the pixel value range of the first image and the pixel value range of the second image are adjusted so as to reduce the difference between the pixel value range of the first image and the pixel value range of the second mask image; an adjustment section;
a composite image generation unit that generates a first composite image by combining the first mask image with the first image, and generates a second composite image by combining the second mask image with the second image; ,
a first calculation unit that calculates a plurality of cross-correlation functions based on the first composite image and the second composite image;
a second calculation unit that calculates a correlation coefficient based on the plurality of cross-correlation functions;
An image processing device, comprising: a registration unit that performs registration of the first image and the second image based on the correlation coefficient.
一連のサイクルを含む2次元パターンに従う光走査によりサンプルから収集されたデータを受け付けるデータ受付部と、
前記データに基づいて前記第1画像及び前記第2画像を構築する画像構築部と
を更に含む、
請求項17の画像処理装置。
a data reception unit that receives data collected from the sample by optical scanning according to a two-dimensional pattern including a series of cycles;
further comprising: an image construction unit that constructs the first image and the second image based on the data;
The image processing device according to claim 17 .
サンプルの第1画像及び第2画像を記憶する記憶部と、プロセッサとを含む画像処理装置を制御する方法であって、
前記プロセッサを、
前記第1画像に応じた第1マスク画像と前記第2画像に応じた第2マスク画像とを生成し、
前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲に基づいて、前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲と前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲との間の差を小さくするように、前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲を調整し、
前記第1画像に前記第1マスク画像を合成して第1合成画像を生成し、且つ、前記第2画像に前記第2マスク画像を合成して第2合成画像を生成し、
前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求め、
前記複数の相互相関関数に基づいて相関係数を算出し、及び、
前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行う
ように制御する、
画像処理装置の制御方法。
A method for controlling an image processing device including a storage unit storing a first image and a second image of a sample, and a processor, the method comprising:
The processor,
generating a first mask image corresponding to the first image and a second mask image corresponding to the second image;
Based on the pixel value range of the first mask image and the pixel value range of the second mask image , determine the pixel value range of the first image, the pixel value range of the second image, and the first mask image. adjusting the pixel value range of the first image and the pixel value range of the second image so as to reduce the difference between the pixel value range of the first image and the pixel value range of the second mask image,
compositing the first mask image with the first image to generate a first composite image, and compositing the second mask image with the second image to generate a second composite image,
determining a plurality of cross-correlation functions based on the first composite image and the second composite image;
calculating a correlation coefficient based on the plurality of cross-correlation functions, and
performing control to register the first image and the second image based on the correlation coefficient;
A method for controlling an image processing device.
一連のサイクルを含む2次元パターンに従う光走査をサンプルに適用してデータを収集する走査部と、
前記データに基づいて第1画像及び第2画像を構築する画像構築部と、
前記第1画像に応じた第1マスク画像と前記第2画像に応じた第2マスク画像とを生成するマスク画像生成部と、
前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲に基づいて、前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲と前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲との間の差を小さくするように、前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲を調整する範囲調整部と、
前記第1画像に前記第1マスク画像を合成して第1合成画像を生成し、且つ、前記第2画像に前記第2マスク画像を合成して第2合成画像を生成する合成画像生成部と、
前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求める第1算出部と、
前記複数の相互相関関数に基づいて相関係数を算出する第2算出部と、
前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行うレジストレーション部と、
前記レジストレーションの結果に基づいて前記第1画像と前記第2画像とのマージ画像を構築するマージ処理部と
を含む、走査型イメージング装置。
a scanning unit that collects data by applying optical scanning to the sample according to a two-dimensional pattern including a series of cycles;
an image construction unit that constructs a first image and a second image based on the data;
a mask image generation unit that generates a first mask image according to the first image and a second mask image according to the second image;
Based on the pixel value range of the first mask image and the pixel value range of the second mask image , determine the pixel value range of the first image, the pixel value range of the second image, and the first mask image. a range in which the pixel value range of the first image and the pixel value range of the second image are adjusted so as to reduce the difference between the pixel value range of the first image and the pixel value range of the second mask image; an adjustment section;
a composite image generation unit that generates a first composite image by combining the first mask image with the first image, and generates a second composite image by combining the second mask image with the second image; ,
a first calculation unit that calculates a plurality of cross-correlation functions based on the first composite image and the second composite image;
a second calculation unit that calculates a correlation coefficient based on the plurality of cross-correlation functions;
a registration unit that registers the first image and the second image based on the correlation coefficient;
A scanning imaging apparatus, comprising: a merge processing unit that constructs a merged image of the first image and the second image based on the registration result.
前記走査部は、互いに異なる第1方向及び第2方向に光を偏向可能な偏向器を含み、前記第1方向に沿った偏向方向の変化を第1周期で繰り返しつつ前記第2方向に沿った偏向方向の変化を前記第1周期と異なる第2周期で繰り返すことにより前記2次元パターンに従う光走査を前記サンプルに適用する、
請求項20の走査型イメージング装置。
The scanning unit includes a deflector capable of deflecting light in a first direction and a second direction that are different from each other, and repeats a change in the deflection direction along the first direction in a first cycle while deflecting the light along the second direction. applying optical scanning to the sample according to the two-dimensional pattern by repeating changes in the deflection direction in a second period different from the first period;
21. The scanning imaging device of claim 20 .
サンプルに光走査を適用してデータを収集する走査部と、プロセッサとを含む走査型イメージング装置を制御する方法であって、
前記走査部を、一連のサイクルを含む2次元パターンに従う光走査をサンプルに適用してデータを収集するように制御し、
前記プロセッサを、
前記データに基づいて第1画像及び第2画像を構築し、
前記第1画像に応じた第1マスク画像と前記第2画像に応じた第2マスク画像とを生成し、
前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲に基づいて、前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲と前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲との間の差を小さくするように、前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲を調整し、
前記第1画像に前記第1マスク画像を合成して第1合成画像を生成し、且つ、前記第2画像に前記第2マスク画像を合成して第2合成画像を生成し、
前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求め、
前記複数の相互相関関数に基づいて相関係数を算出し、
前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行い、及び、
前記レジストレーションの結果に基づいて前記第1画像と前記第2画像とのマージ画像を構築する
ように制御する、
走査型イメージング装置の制御方法。
A method for controlling a scanning imaging device including a scanning unit that collects data by applying optical scanning to a sample, and a processor, the method comprising:
controlling the scanning unit to collect data by applying an optical scan to the sample according to a two-dimensional pattern including a series of cycles;
The processor,
constructing a first image and a second image based on the data;
generating a first mask image corresponding to the first image and a second mask image corresponding to the second image;
Based on the pixel value range of the first mask image and the pixel value range of the second mask image , determine the pixel value range of the first image, the pixel value range of the second image, and the first mask image. adjusting the pixel value range of the first image and the pixel value range of the second image so as to reduce the difference between the pixel value range of the first image and the pixel value range of the second mask image,
compositing the first mask image with the first image to generate a first composite image, and compositing the second mask image with the second image to generate a second composite image,
determining a plurality of cross-correlation functions based on the first composite image and the second composite image;
Calculating a correlation coefficient based on the plurality of cross-correlation functions,
registering the first image and the second image based on the correlation coefficient; and
controlling to construct a merged image of the first image and the second image based on the registration result;
A method for controlling a scanning imaging device.
請求項1~1619又は22の方法をコンピュータに実行させるプログラム。 A program that causes a computer to execute the method according to any one of claims 1 to 16 , 19 , or 22 . 請求項23のプログラムが記録されたコンピュータ可読な非一時的記録媒体。
A computer-readable non-transitory recording medium on which the program according to claim 23 is recorded.
JP2019223138A 2019-12-10 2019-12-10 Image processing method, scanning imaging method, image processing device, control method thereof, scanning imaging device, control method thereof, program, and recording medium Active JP7410481B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019223138A JP7410481B2 (en) 2019-12-10 2019-12-10 Image processing method, scanning imaging method, image processing device, control method thereof, scanning imaging device, control method thereof, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019223138A JP7410481B2 (en) 2019-12-10 2019-12-10 Image processing method, scanning imaging method, image processing device, control method thereof, scanning imaging device, control method thereof, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2021090631A JP2021090631A (en) 2021-06-17
JP7410481B2 true JP7410481B2 (en) 2024-01-10

Family

ID=76311127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019223138A Active JP7410481B2 (en) 2019-12-10 2019-12-10 Image processing method, scanning imaging method, image processing device, control method thereof, scanning imaging device, control method thereof, program, and recording medium

Country Status (1)

Country Link
JP (1) JP7410481B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023123245A (en) * 2022-02-24 2023-09-05 国立大学法人 筑波大学 Scanning type imaging device, information processing device, control method of scanning type imaging device, control method of information processing device, information processing method, program, and recording medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150324966A1 (en) 2013-02-19 2015-11-12 Optos Plc Improvements in or relating to image processing
US20180242839A1 (en) 2017-02-28 2018-08-30 Canon Kabushiki Kaisha Imaging apparatus, control method for an imaging apparatus, and program
JP2018140049A (en) 2017-02-28 2018-09-13 キヤノン株式会社 Imaging device, imaging method, and program
JP2018140004A (en) 2017-02-28 2018-09-13 キヤノン株式会社 Imaging device, imaging method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150324966A1 (en) 2013-02-19 2015-11-12 Optos Plc Improvements in or relating to image processing
JP2016514974A (en) 2013-02-19 2016-05-26 オプトス ピーエルシー Improvements in image processing or improvements related to image processing
US20180242839A1 (en) 2017-02-28 2018-08-30 Canon Kabushiki Kaisha Imaging apparatus, control method for an imaging apparatus, and program
JP2018140049A (en) 2017-02-28 2018-09-13 キヤノン株式会社 Imaging device, imaging method, and program
JP2018140004A (en) 2017-02-28 2018-09-13 キヤノン株式会社 Imaging device, imaging method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YIWEI Chen, et al.,Three-dimensional eye motion correction by Lissajous scan optical coherence tomography,Biomedical Optics EXPRESS,米国,Optical Society of America,2017年02月23日,Vol.8 No.3,1783-1802

Also Published As

Publication number Publication date
JP2021090631A (en) 2021-06-17

Similar Documents

Publication Publication Date Title
JP7368568B2 (en) ophthalmology equipment
JP2022040372A (en) Ophthalmologic apparatus
JP7134324B2 (en) OPHTHALMIC PHOTOGRAPHIC APPARATUS, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF
JP7096116B2 (en) Blood flow measuring device
WO2021153087A1 (en) Ophthalmic device, control method thereof, and storage medium
JP7410481B2 (en) Image processing method, scanning imaging method, image processing device, control method thereof, scanning imaging device, control method thereof, program, and recording medium
JP2019154988A (en) Ophthalmologic imaging apparatus, control method therefor, program, and storage medium
JP2021092445A (en) Scan type imaging device, control method of the same, image processing device, control method of the same, scan type imaging method, image processing method, program and recording medium
JP7384987B2 (en) ophthalmology equipment
JP7378557B2 (en) Ophthalmologic imaging device, its control method, program, and recording medium
JP7215862B2 (en) OPHTHALMIC PHOTOGRAPHIC APPARATUS, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF
JP2023014190A (en) Ophthalmology imaging apparatus
WO2021153086A1 (en) Ophthalmic apparatus, control method thereof, and recording medium
JP7050488B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP7355331B2 (en) Scanning imaging device, control method thereof, image processing device, control method thereof, scanning imaging method, image processing method, program, and recording medium
JP7341422B2 (en) Scanning imaging device, control method thereof, scanning imaging method, program, and recording medium
WO2023162586A1 (en) Scanning imaging device, information processing device, method for controlling scanning imaging device, method for controlling information processing device, information processing method, program, and recording medium
JP7325675B2 (en) ophthalmic imaging equipment
WO2021176893A1 (en) Ophthalmic device, control method therefor, and storage medium
JP2019054993A (en) Blood flow measurement device
JP7236832B2 (en) OPHTHALMIC PHOTOGRAPHIC APPARATUS, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF
WO2022085501A1 (en) Ophthalmic device, control method therefor, program, and recording medium
JP2023048318A (en) Scanning type imaging device, information processing device, control method of scanning type imaging device, control method of information processing device, information processing method, program, and recording medium
JP6942627B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP6942626B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231212

R150 Certificate of patent or registration of utility model

Ref document number: 7410481

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150