JP2021090631A - Image processing method, scan type imaging method, image processing apparatus, its control method, scan type imaging device, its control method, program, and recording medium - Google Patents
Image processing method, scan type imaging method, image processing apparatus, its control method, scan type imaging device, its control method, program, and recording medium Download PDFInfo
- Publication number
- JP2021090631A JP2021090631A JP2019223138A JP2019223138A JP2021090631A JP 2021090631 A JP2021090631 A JP 2021090631A JP 2019223138 A JP2019223138 A JP 2019223138A JP 2019223138 A JP2019223138 A JP 2019223138A JP 2021090631 A JP2021090631 A JP 2021090631A
- Authority
- JP
- Japan
- Prior art keywords
- image
- mask
- pixel value
- unit
- value range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 89
- 238000003672 processing method Methods 0.000 title claims abstract description 35
- 238000012545 processing Methods 0.000 title claims description 114
- 238000003384 imaging method Methods 0.000 title claims description 74
- 238000005314 correlation function Methods 0.000 claims abstract description 71
- 238000004364 calculation method Methods 0.000 claims abstract description 61
- 239000002131 composite material Substances 0.000 claims description 153
- 230000003287 optical effect Effects 0.000 claims description 119
- 238000010276 construction Methods 0.000 claims description 47
- 230000006870 function Effects 0.000 claims description 29
- 230000008859 change Effects 0.000 claims description 12
- 238000012014 optical coherence tomography Methods 0.000 description 74
- 230000008569 process Effects 0.000 description 36
- 238000005259 measurement Methods 0.000 description 27
- 238000005286 illumination Methods 0.000 description 19
- 238000012937 correction Methods 0.000 description 16
- 239000013307 optical fiber Substances 0.000 description 12
- 239000006185 dispersion Substances 0.000 description 11
- 230000007246 mechanism Effects 0.000 description 11
- 238000002583 angiography Methods 0.000 description 10
- 238000013480 data collection Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 8
- 238000010606 normalization Methods 0.000 description 8
- 239000000835 fiber Substances 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 230000004907 flux Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000010287 polarization Effects 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 230000017531 blood circulation Effects 0.000 description 3
- 210000004204 blood vessel Anatomy 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000000149 argon plasma sintering Methods 0.000 description 2
- 230000004323 axial length Effects 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- QKICWELGRMTQCR-UHFFFAOYSA-N 4-[(7-chloroquinolin-4-yl)azaniumyl]pentyl-diethylazanium;dihydrogen phosphate Chemical compound OP(O)(O)=O.OP(O)(O)=O.ClC1=CC=C2C(NC(C)CCCN(CC)CC)=CC=NC2=C1 QKICWELGRMTQCR-UHFFFAOYSA-N 0.000 description 1
- 206010020675 Hypermetropia Diseases 0.000 description 1
- 206010044565 Tremor Diseases 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 238000010230 functional analysis Methods 0.000 description 1
- 230000004305 hyperopia Effects 0.000 description 1
- 201000006318 hyperopia Diseases 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000005305 interferometry Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 208000001491 myopia Diseases 0.000 description 1
- 230000004379 myopia Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012916 structural analysis Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000004127 vitreous body Anatomy 0.000 description 1
Images
Abstract
Description
この発明は、画像処理方法、走査型イメージング方法、画像処理装置、その制御方法、走査型イメージング装置、その制御方法、プログラム、及び記録媒体に関する。 The present invention relates to an image processing method, a scanning imaging method, an image processing apparatus, a control method thereof, a scanning imaging apparatus, a control method thereof, a program, and a recording medium.
イメージング技術の1つに走査型イメージングがある。走査型イメージングとは、サンプルの複数の箇所に順次にビームを照射してデータを収集し、収集されたデータからサンプルの像を構築する技術である。 Scanning imaging is one of the imaging techniques. Scanning imaging is a technique in which a plurality of parts of a sample are sequentially irradiated with a beam to collect data, and an image of the sample is constructed from the collected data.
光を利用した走査型イメージングの典型例として光コヒーレンストモグラフィ(OCT;光干渉断層撮影法)が知られている。OCTは、光散乱媒質をマイクロメートルレベル又はそれ以下の分解能で画像化することが可能な技術であり、医用イメージングや非破壊検査などに応用されている。OCTは、低コヒーレンス干渉法に基づく技術であり、典型的には、光散乱媒質のサンプルへの深達性を担保するために近赤外光を利用する。 Optical coherence tomography (OCT) is known as a typical example of scanning imaging using light. OCT is a technique capable of imaging a light scattering medium with a resolution of a micrometer level or less, and is applied to medical imaging, nondestructive inspection, and the like. OCT is a technique based on low coherence interferometry, typically utilizing near-infrared light to ensure the depth of light scattering media into a sample.
例えば眼科画像診断ではOCT装置の普及が進んでおり、2次元的なイメージングだけでなく、3次元的なイメージング・構造解析・機能解析なども実用化され、診断の強力なツールとして広く利用されるに至っている。また、眼科分野では、走査型レーザー検眼鏡(SLO)など、OCT以外の走査型イメージングも利用されている。なお、近赤外光以外の波長帯の光(電磁波)や超音波を利用した走査型イメージングも知られている。 For example, in ophthalmic diagnostic imaging, OCT devices are becoming more widespread, and not only two-dimensional imaging but also three-dimensional imaging, structural analysis, functional analysis, etc. are put into practical use and widely used as a powerful diagnostic tool. Has reached. Further, in the field of ophthalmology, scanning imaging other than OCT such as scanning laser ophthalmoscope (SLO) is also used. Scanning imaging using light (electromagnetic waves) in a wavelength band other than near-infrared light or ultrasonic waves is also known.
OCTやSLOで利用される走査モードには様々なものがあるが、モーションアーティファクト補正などを目的とした所謂「リサージュ(Lissajous)スキャン」が近年注目を集めている(例えば、特許文献1〜4、非特許文献1及び2を参照)。
There are various scanning modes used in OCT and SLO, but the so-called "Lissajous scan" for the purpose of correcting motion artifacts has been attracting attention in recent years (for example,
典型的なリサージュスキャンでは、或る程度の大きさを持つループ(サイクル)を描くように測定光を高速走査するため、1つのサイクルからのデータ取得時間の差を実質的に無視することができ、また、異なるサイクルの交差領域を参照してサイクル間の位置合わせを行えるため、サンプルの動きに起因するアーティファクトを補正することが可能である。このようなリサージュスキャンの特徴に着目し、眼科分野では眼球運動に起因するアーティファクトへの対処を図っている。 In a typical resage scan, the measurement light is scanned at high speed so as to draw a loop (cycle) having a certain size, so that the difference in data acquisition time from one cycle can be substantially ignored. Also, since the alignment between cycles can be performed by referring to the intersecting regions of different cycles, it is possible to correct the artifacts caused by the movement of the sample. Focusing on these characteristics of Lissajous scan, we are trying to deal with artifacts caused by eye movements in the field of ophthalmology.
非特許文献1に記載された技術においては、リサージュスキャンで収集されたデータを比較的大きな動きが介在しない複数のサブボリュームに分割し、各サブボリュームの正面プロジェクション画像(en face projection)を構築する。このような正面プロジェクション画像はストリップと呼ばれる。これらストリップの間のレジストレーションを行うことでモーションアーティファクトが補正された画像が得られる。
In the technique described in Non-Patent
リサージュスキャンの特性として、2つのストリップは4箇所で重複する(交差する)。非特許文献1に記載された画像処理では、最大のストリップが初期基準ストリップとして採用され、初期基準ストリップに対して大きさ順にストリップが逐次にレジストレーションされ、合成される。レジストレーションでは、基準ストリップと他のストリップとの間の相対位置を求めるために相互相関関数が利用される。なお、ストリップは任意の形状を有するため、各ストリップを特定形状(例えば正方形状)の画像として扱うためのマスクを用いてストリップ間のオーバーラップ領域の相関演算が行われる(非特許文献1のAppendix Aを参照)。
A characteristic of Lissajous scans is that the two strips overlap (intersect) at four points. In the image processing described in Non-Patent
ここで、ストリップは所定階調の強度画像であり、マスクは二値データである。そのため、マスクの画素値の絶対値は常に小さい(0又は1)一方で、ストリップの画素値の絶対値は大きくなることがある。その影響により、ストリップとマスクとを用いた相関演算においてマスクの効果が無視され、正しい相関係数が得られない場合がある。特に、ストリップ間の相関係数を求めるために単精度浮動小数点型(フロート型)の演算が採用される場合、有効桁数の少なさに起因する丸め誤差の影響により、この問題が顕著に現れる。 Here, the strip is an intensity image of a predetermined gradation, and the mask is binary data. Therefore, the absolute value of the pixel value of the mask is always small (0 or 1), while the absolute value of the pixel value of the strip may be large. Due to this effect, the effect of the mask may be ignored in the correlation calculation using the strip and the mask, and the correct correlation coefficient may not be obtained. In particular, when a single-precision floating-point type (float type) operation is adopted to obtain the correlation coefficient between strips, this problem becomes prominent due to the influence of rounding error due to the small number of significant digits.
この発明の1つの目的は、マスクを用いた画像レジストレーションの正確性を向上させることにある。 One object of the present invention is to improve the accuracy of image registration using a mask.
幾つかの態様は、画像処理方法であって、サンプルの第1画像及び第2画像を準備し、マスク画像を準備し、前記第1画像の画素値の範囲と前記第2画像の画素値の範囲と前記マスク画像の画素値の範囲とを相対的に調整し、前記第1画像及び前記第2画像のそれぞれに前記マスク画像を合成して第1合成画像及び第2合成画像を生成し、前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求め、前記複数の相互相関関数に基づいて相関係数を算出し、前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行う。 Some aspects are image processing methods, in which the first and second images of the sample are prepared, the mask image is prepared, and the range of the pixel values of the first image and the pixel values of the second image are set. The range and the range of the pixel values of the mask image are relatively adjusted, and the mask image is combined with each of the first image and the second image to generate a first composite image and a second composite image. A plurality of intercorrelation functions are obtained based on the first composite image and the second composite image, a correlation coefficient is calculated based on the plurality of intercorrelation functions, and with the first image based on the correlation coefficient. Registration with the second image is performed.
幾つかの態様において、画像処理方法は、前記サンプルの画像の画素値の範囲と前記マスク画像の画素値の範囲との間の差を小さくする。 In some embodiments, the image processing method reduces the difference between the pixel value range of the sample image and the pixel value range of the mask image.
幾つかの態様において、画像処理方法は、前記サンプルの画像及び前記マスク画像の一方の画素値の範囲を他方の画素値の範囲に一致させる。 In some embodiments, the image processing method aligns one pixel value range of the sample image and the mask image with the other pixel value range.
幾つかの態様において、画像処理方法は、前記マスク画像の画素値の範囲に応じて前記サンプルの画像の画素値の範囲を正規化する。 In some embodiments, the image processing method normalizes the pixel value range of the sample image according to the pixel value range of the mask image.
幾つかの態様において、前記マスク画像の画素値の範囲は閉区間[0,1]に含まれ、画像処理方法は、前記サンプルの画像の各画素の値を、当該画像における最大画素値で除算する。 In some embodiments, the range of pixel values of the mask image is included in the closed interval [0,1], and the image processing method divides the value of each pixel of the sample image by the maximum pixel value of the image. To do.
幾つかの態様において、前記マスク画像の画素値の範囲は閉区間[0,1]に含まれ、画像処理方法は、前記サンプルの画像の各画素の値を、当該画像の画素値の範囲の最大値で除算する。 In some embodiments, the pixel value range of the mask image is included in the closed interval [0,1], and the image processing method sets the value of each pixel of the sample image to the pixel value range of the image. Divide by the maximum value.
幾つかの態様において、前記マスク画像は、画素値が0又は1の二値画像である。 In some embodiments, the mask image is a binary image with a pixel value of 0 or 1.
幾つかの態様において、前記マスク画像は、前記サンプルの画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像である。 In some embodiments, the mask image is a binary image in which the pixel values in the region corresponding to the domain of the sample image are 1 and the other pixel values are 0.
幾つかの態様において、前記マスク画像は、第1マスク画像と第2マスク画像とを含み、画像処理方法は、前記第1マスク画像を前記第1画像に合成して前記第1合成画像を生成し、前記第2マスク画像を前記第2画像に合成して前記第2合成画像を生成する。 In some embodiments, the mask image includes a first mask image and a second mask image, and the image processing method combines the first mask image with the first image to generate the first composite image. Then, the second mask image is combined with the second image to generate the second composite image.
幾つかの態様において、前記第1マスク画像及び前記第2マスク画像は、同じ寸法及び同じ形状を有する。 In some embodiments, the first mask image and the second mask image have the same dimensions and the same shape.
幾つかの態様において、前記第1マスク画像は、前記第1画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であり、前記第2マスク画像は、前記第2画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像である。 In some embodiments, the first mask image is a binary image in which the pixel values in the region corresponding to the domain of the first image are 1 and the values of the other pixels are 0. The second mask image is a binary image in which the value of the pixel in the region corresponding to the domain of the second image is 1, and the value of the other pixel is 0.
幾つかの態様において、前記第1画像及び前記第2画像のそれぞれは、一連のサイクルを含む2次元パターンに従う走査を前記サンプルに適用して収集されたデータに基づき構築される。 In some embodiments, each of the first image and the second image is constructed based on data collected by applying a scan according to a two-dimensional pattern involving a series of cycles to the sample.
幾つかの態様において、前記第1画像及び前記第2画像のそれぞれは、リサージュ関数に基づき予め設定された走査プロトコルに基づく2次元パターンに従う走査を前記サンプルに適用して収集されたデータに基づき構築される。 In some embodiments, each of the first image and the second image is constructed based on data collected by applying a scan according to a two-dimensional pattern based on a preset scanning protocol based on a resage function to the sample. Will be done.
幾つかの態様は、走査型イメージング方法であって、一連のサイクルを含む2次元パターンに従う光走査をサンプルに適用してデータを収集し、前記データに基づいて第1画像及び第2画像を構築し、前記第1画像の画素値の範囲と前記第2画像の画素値の範囲とマスク画像の画素値の範囲とを相対的に調整し、前記第1画像及び前記第2画像のそれぞれに前記マスク画像を合成して第1合成画像及び第2合成画像を生成し、前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求め、前記複数の相互相関関数に基づいて相関係数を算出し、前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行い、前記レジストレーションの結果に基づいて前記第1画像と前記第2画像とのマージ画像を構築する。 In some embodiments, a scanning imaging method applies optical scanning according to a two-dimensional pattern involving a series of cycles to a sample to collect data and constructs first and second images based on the data. Then, the range of the pixel value of the first image, the range of the pixel value of the second image, and the range of the pixel value of the mask image are relatively adjusted, and the first image and the second image are each described. The mask images are combined to generate a first composite image and a second composite image, a plurality of intercorrelation functions are obtained based on the first composite image and the second composite image, and based on the plurality of intercorrelation functions. The correlation coefficient is calculated, the first image and the second image are registered based on the correlation coefficient, and the first image and the second image are merged based on the result of the registration. Build an image.
幾つかの態様において、走査型イメージング方法は、前記データに基づいて第3画像を構築し、前記第3画像の画素値の範囲と前記マージ画像の画素値の範囲とマスク画像の画素値の範囲とを相対的に調整し、前記第3画像及び前記マージ画像のそれぞれに当該マスク画像を合成して第3合成画像及び第4合成画像を生成し、前記第3合成画像及び前記第4合成画像に基づいて複数の相互相関関数を求め、当該複数の相互相関関数に基づいて相関係数を算出し、当該相関係数に基づいて前記第3画像と前記第4画像とのレジストレーションを行い、前記レジストレーションの結果に基づいて前記第3画像と前記マージ画像とをマージする。 In some embodiments, the scanning imaging method constructs a third image based on the data, the range of the pixel values of the third image, the range of the pixel values of the merged image, and the range of the pixel values of the mask image. And are relatively adjusted, and the mask image is combined with each of the third image and the merged image to generate a third composite image and a fourth composite image, and the third composite image and the fourth composite image are generated. A plurality of mutual correlation functions are obtained based on the above, a correlation coefficient is calculated based on the plurality of mutual correlation functions, and registration between the third image and the fourth image is performed based on the correlation coefficient. The third image and the merged image are merged based on the result of the registration.
幾つかの態様において、前記一連のサイクルのうちの任意の2つのサイクルは、少なくとも1点で互いに交差し、走査型イメージング方法は、前記一連のサイクルのうちの第1サイクル群に従う光走査で収集された第1データに基づいて前記第1画像を構築し、前記一連のサイクルのうち前記第1サイクル群と異なる第2サイクル群に従う光走査で収集された第2データに基づいて前記第2画像を構築する。 In some embodiments, any two cycles of the series of cycles intersect each other at at least one point and the scanning imaging method is collected by optical scanning according to the first cycle group of the series of cycles. The first image is constructed based on the first data obtained, and the second image is based on the second data collected by optical scanning according to a second cycle group different from the first cycle group in the series of cycles. To build.
幾つかの態様において、走査型イメージング方法は、リサージュ関数に基づき予め設定された走査プロトコルに基づいて前記2次元パターンに従う光走査を行う。 In some embodiments, the scanning imaging method performs optical scanning according to the two-dimensional pattern based on a preset scanning protocol based on a resage function.
幾つかの態様は、画像処理装置であって、サンプルの第1画像及び第2画像を記憶する記憶部と、前記第1画像に応じた第1マスク画像と前記第2画像に応じた第2マスク画像とを生成するマスク画像生成部と、前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲に基づいて前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲を調整する範囲調整部と、前記第1画像に前記第1マスク画像を合成して第1合成画像を生成し、且つ、前記第2画像に前記第2マスク画像を合成して第2合成画像を生成する合成画像生成部と、前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求める第1算出部と、前記複数の相互相関関数に基づいて相関係数を算出する第2算出部と、前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行うレジストレーション部とを含む。 In some aspects, the image processing apparatus is an image processing apparatus, in which a storage unit for storing the first image and the second image of the sample, a first mask image corresponding to the first image, and a second image corresponding to the second image. A mask image generation unit that generates a mask image, a range of pixel values of the first image, and a range of pixel values of the first image and the second image based on the range of pixel values of the first mask image and the range of pixel values of the second mask image. A range adjusting unit that adjusts the range of the pixel value of the above, the first mask image is combined with the first image to generate a first composite image, and the second mask image is combined with the second image. Based on the composite image generation unit that generates the second composite image, the first calculation unit that obtains a plurality of intercorrelation functions based on the first composite image and the second composite image, and the plurality of intercorrelation functions. It includes a second calculation unit that calculates the correlation coefficient, and a registration unit that performs registration between the first image and the second image based on the correlation coefficient.
幾つかの態様において、画像処理装置は、一連のサイクルを含む2次元パターンに従う光走査によりサンプルから収集されたデータを受け付けるデータ受付部と、前記データに基づいて前記第1画像及び前記第2画像を構築する画像構築部とを更に含む。 In some embodiments, the image processing apparatus comprises a data receiving unit that receives data collected from a sample by optical scanning according to a two-dimensional pattern including a series of cycles, and the first image and the second image based on the data. Further includes an image construction unit for constructing.
幾つかの態様は、サンプルの第1画像及び第2画像を記憶する記憶部と、プロセッサとを含む画像処理装置を制御する方法であって、前記プロセッサを、前記第1画像に応じた第1マスク画像と前記第2画像に応じた第2マスク画像とを生成し、前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲に基づいて前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲を調整し、前記第1画像に前記第1マスク画像を合成して第1合成画像を生成し、且つ、前記第2画像に前記第2マスク画像を合成して第2合成画像を生成し、前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求め、前記複数の相互相関関数に基づいて相関係数を算出し、及び、前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行うように制御する。 In some embodiments, a method of controlling an image processing apparatus including a storage unit for storing a first image and a second image of a sample and a processor, wherein the processor is subjected to a first image according to the first image. A mask image and a second mask image corresponding to the second image are generated, and the pixel value of the first image is based on the range of the pixel values of the first mask image and the range of the pixel values of the second mask image. And the range of pixel values of the second image are adjusted, the first mask image is combined with the first image to generate a first composite image, and the second mask image is combined with the second image. To generate a second composite image, obtain a plurality of intercorrelation functions based on the first composite image and the second composite image, and calculate the correlation coefficient based on the plurality of mutual correlation functions. Then, the registration between the first image and the second image is controlled based on the correlation coefficient.
幾つかの態様は、走査型イメージング装置であって、一連のサイクルを含む2次元パターンに従う光走査をサンプルに適用してデータを収集する走査部と、前記データに基づいて第1画像及び第2画像を構築する画像構築部と、前記第1画像に応じた第1マスク画像と前記第2画像に応じた第2マスク画像とを生成するマスク画像生成部と、前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲に基づいて前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲を調整する範囲調整部と、前記第1画像に前記第1マスク画像を合成して第1合成画像を生成し、且つ、前記第2画像に前記第2マスク画像を合成して第2合成画像を生成する合成画像生成部と、前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求める第1算出部と、前記複数の相互相関関数に基づいて相関係数を算出する第2算出部と、前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行うレジストレーション部と、前記レジストレーションの結果に基づいて前記第1画像と前記第2画像とのマージ画像を構築するマージ処理部とを含む。 In some embodiments, a scanning imaging apparatus is a scanning unit that collects data by applying optical scanning according to a two-dimensional pattern including a series of cycles to a sample, and a first image and a second image based on the data. An image construction unit that constructs an image, a mask image generation unit that generates a first mask image corresponding to the first image and a second mask image corresponding to the second image, and a pixel value of the first mask image. A range adjusting unit that adjusts the range of the pixel value of the first image and the range of the pixel value of the second image based on the range of the second mask image and the range of the pixel value of the second image, and the first image. A composite image generation unit that synthesizes one mask image to generate a first composite image, and synthesizes the second mask image with the second image to generate a second composite image, and the first composite image and A first calculation unit that obtains a plurality of intercorrelation functions based on the second composite image, a second calculation unit that calculates a correlation coefficient based on the plurality of intercorrelation functions, and the above-mentioned based on the correlation coefficient. It includes a registration unit that performs registration between the first image and the second image, and a merge processing unit that constructs a merged image of the first image and the second image based on the registration result.
幾つかの態様において、前記走査部は、互いに異なる第1方向及び第2方向に光を偏向可能な偏向器を含み、前記第1方向に沿った偏向方向の変化を第1周期で繰り返しつつ前記第2方向に沿った偏向方向の変化を前記第1周期と異なる第2周期で繰り返すことにより前記2次元パターンに従う光走査を前記サンプルに適用する。 In some embodiments, the scanning section comprises deflectors capable of deflecting light in different first and second directions, and the changes in the deflection direction along the first direction are repeated in a first cycle. Optical scanning according to the two-dimensional pattern is applied to the sample by repeating the change in the deflection direction along the second direction in a second cycle different from the first cycle.
幾つかの態様は、サンプルに光走査を適用してデータを収集する走査部と、プロセッサとを含む走査型イメージング装置を制御する方法であって、前記走査部を、一連のサイクルを含む2次元パターンに従う光走査をサンプルに適用してデータを収集するように制御し、前記プロセッサを、前記データに基づいて第1画像及び第2画像を構築し、前記第1画像に応じた第1マスク画像と前記第2画像に応じた第2マスク画像とを生成し、前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲に基づいて前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲を調整し、前記第1画像に前記第1マスク画像を合成して第1合成画像を生成し、且つ、前記第2画像に前記第2マスク画像を合成して第2合成画像を生成し、前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求め、前記複数の相互相関関数に基づいて相関係数を算出し、前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行い、及び、前記レジストレーションの結果に基づいて前記第1画像と前記第2画像とのマージ画像を構築するように制御する。 In some embodiments, a method of controlling a scanning imaging apparatus including a scanning unit that applies optical scanning to a sample to collect data and a processor, wherein the scanning unit is two-dimensional including a series of cycles. Light scanning according to the pattern is applied to the sample to control the collection of data, and the processor constructs a first image and a second image based on the data, and a first mask image corresponding to the first image. And the second mask image corresponding to the second image are generated, and the range of the pixel values of the first image is based on the range of the pixel values of the first mask image and the range of the pixel values of the second mask image. And the range of pixel values of the second image is adjusted, the first mask image is combined with the first image to generate a first composite image, and the second mask image is combined with the second image. A second composite image is generated, a plurality of mutual correlation functions are obtained based on the first composite image and the second composite image, a correlation coefficient is calculated based on the plurality of mutual correlation functions, and the phase is described. Control to perform registration between the first image and the second image based on the number of relationships, and to construct a merged image of the first image and the second image based on the result of the registration. To do.
幾つかの態様は、上記のいずれかの方法をコンピュータに実行させるプログラムである。 Some embodiments are programs that cause a computer to perform any of the above methods.
幾つかの態様は、上記のいずれかの方法をコンピュータに実行させるプログラムが記録された、コンピュータ可読な非一時的記録媒体である。 Some embodiments are computer-readable non-temporary recording media on which a program that causes a computer to perform any of the above methods is recorded.
いずれか2以上の態様を少なくとも部分的に組み合わせることが可能である。また、いずれかの態様に対し、本開示に係る任意の事項を少なくとも部分的に組み合わせることが可能である。また、いずれか2以上の態様の少なくとも部分的な組み合わせに対し、本開示に係る任意の事項を少なくとも部分的に組み合わせることが可能である。 It is possible to combine any two or more aspects at least in part. In addition, any matter according to the present disclosure can be combined at least partially with respect to any aspect. In addition, any matter according to the present disclosure can be combined at least partially with respect to at least a partial combination of any two or more aspects.
例示的な態様によれば、マスクを用いた画像レジストレーションの正確性を向上させることが可能である。 According to an exemplary embodiment, it is possible to improve the accuracy of image registration with a mask.
幾つかの例示的な実施形態に係る画像処理方法、走査型イメージング方法、画像処理装置、その制御方法、走査型イメージング装置、その制御方法、プログラム、及び記録媒体について、図面を参照しながら説明する。 An image processing method, a scanning imaging method, an image processing apparatus, a control method thereof, a scanning imaging apparatus, a control method thereof, a program, and a recording medium according to some exemplary embodiments will be described with reference to the drawings. ..
本明細書にて引用された文献に開示された技術や、それ以外の任意の公知技術を、例示的な実施形態に援用することが可能である。また、特に言及しない限り、「画像データ」とそれに基づく「画像」とを区別せず、被検眼の「部位」とその「画像」とを区別しないものとする。 The techniques disclosed in the literature cited herein and any other known techniques can be incorporated into exemplary embodiments. Further, unless otherwise specified, the "image data" and the "image" based on the "image data" are not distinguished, and the "site" of the eye to be inspected and the "image" thereof are not distinguished.
以下に説明する例示的な実施形態に係る走査型イメージング装置は、フーリエドメインOCT(例えば、スウェプトソースOCT)を利用して生体眼の眼底を計測することが可能な眼科装置である。実施形態に採用可能なOCTのタイプは、スウェプトソースOCTに限定されず、例えばスペクトラルドメインOCT又はタイムドメインOCTであってもよい。 The scanning imaging apparatus according to the exemplary embodiment described below is an ophthalmologic apparatus capable of measuring the fundus of a living eye using a Fourier domain OCT (eg, swept source OCT). The type of OCT that can be adopted in the embodiment is not limited to the swept source OCT, and may be, for example, a spectral domain OCT or a time domain OCT.
幾つかの例示的な実施形態に係る走査型イメージング装置は、OCT以外の走査型モダリティを利用可能であってよい。例えば、幾つかの例示的な実施形態は、SLO等の任意の光走査型モダリティを採用することができる。 The scanning imaging apparatus according to some exemplary embodiments may utilize scanning modality other than OCT. For example, some exemplary embodiments can employ any optical scanning modality such as SLO.
また、幾つかの例示的な実施形態に係る走査型イメージング装置に適用可能な走査型モダリティは、光走査型モダリティには限定されない。例えば、幾つかの例示的な実施形態は、光以外の電磁波を利用した走査型モダリティや、超音波を利用した走査型モダリティなどを採用することができる。 Further, the scanning modality applicable to the scanning imaging apparatus according to some exemplary embodiments is not limited to the optical scanning modality. For example, some exemplary embodiments can employ scanning modality using electromagnetic waves other than light, scanning modality using ultrasonic waves, and the like.
幾つかの例示的な実施形態に係る眼科装置は、OCTスキャンで収集されたデータの処理及び/又はSLOで収集されたデータの処理に加え、他のモダリティで取得されたデータを処理可能であってよい。他のモダリティは、例えば、眼底カメラ、スリットランプ顕微鏡、及び眼科手術用顕微鏡のいずれかであってよい。幾つかの例示的な実施形態に係る眼科装置は、このようなモダリティの機能を有していてよい。 The ophthalmic apparatus according to some exemplary embodiments can process data acquired by OCT scans and / or data collected by SLOs, as well as data acquired by other modality. You can. Other modality may be, for example, a fundus camera, a slit lamp microscope, and an ophthalmologic surgical microscope. Ophthalmic devices according to some exemplary embodiments may have such modality functionality.
OCTが適用される対象(サンプル)は眼底に限定されず、前眼部や硝子体など眼の任意の部位であってもよいし、眼以外の生体の部位や組織であってもよいし、生体以外の物体であってもよい。 The target (sample) to which OCT is applied is not limited to the fundus of the eye, and may be any part of the eye such as the anterior segment of the eye or the vitreous body, or a part or tissue of a living body other than the eye. It may be an object other than a living body.
以下に説明する例示的な実施形態に係る眼科装置は、走査型イメージング装置の幾つかの態様、走査型イメージング装置を制御する方法の幾つかの態様、画像処理装置の幾つかの態様、画像処理装置を制御する方法の幾つかの態様、画像処理方法の幾つかの態様、及び、走査型イメージング方法の幾つかの態様を提供する。 The ophthalmic apparatus according to an exemplary embodiment described below includes some embodiments of a scanning imaging apparatus, some aspects of a method of controlling the scanning imaging apparatus, some aspects of an image processing apparatus, and image processing. Provided are some aspects of a method of controlling an apparatus, some aspects of an image processing method, and some aspects of a scanning imaging method.
〈走査型イメージング装置の構成〉
図1に示す眼科装置1は、眼底カメラユニット2、OCTユニット100、及び演算制御ユニット200を含む。眼底カメラユニット2には、被検眼Eを正面から撮影するための要素群(光学要素、機構など)が設けられている。OCTユニット100には、被検眼EにOCTスキャンを適用するための要素群(光学要素、機構など)の一部が設けられている。OCTスキャンのための要素群の他の一部は、眼底カメラユニット2に設けられている。演算制御ユニット200は、各種の演算や制御を実行する1以上のプロセッサを含む。これらに加え、眼科装置1は、被検者の顔を支持するための要素や、OCTスキャンが適用される部位を切り替えるための要素を備えていてもよい。前者の要素の例として、顎受けや額当てがある。後者の要素の例として、OCTスキャン適用部位を眼底から前眼部に切り替えるために使用されるレンズユニットがある。
<Configuration of scanning imaging device>
The
本明細書に開示された要素の機能は、回路構成(circuitry)又は処理回路構成(processing circuitry)を用いて実装される。回路構成又は処理回路構成は、開示された機能を実行するように構成及び/又はプログラムされた、汎用プロセッサ、専用プロセッサ、集積回路、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array)、従来の回路構成、及びそれらの任意の組み合わせのいずれかを含む。プロセッサは、トランジスタ及び/又は他の回路構成を含む、処理回路構成又は回路構成とみなされる。本開示において、回路構成、ユニット、手段、又はこれらに類する用語は、開示された機能を実行するハードウェア、又は、開示された機能を実行するようにプログラムされたハードウェアである。ハードウェアは、本明細書に開示されたハードウェアであってよく、或いは、記載された機能を実行するようにプログラム及び/又は構成された既知のハードウェアであってもよい。ハードウェアが或るタイプの回路構成とみなされ得るプロセッサである場合、回路構成、ユニット、手段、又はこれらに類する用語は、ハードウェアとソフトウェアとの組み合わせであり、このソフトウェアはハードウェア及び/又はプロセッサを構成するために使用される。 The functions of the elements disclosed herein are implemented using circuitry or processing circuits. Circuit configurations or processing circuit configurations are general purpose processors, dedicated processors, integrated circuits, CPUs (Central Processing Units), GPUs (Graphics Processing Units), ASICs, configured and / or programmed to perform the disclosed functions. Any of Application Specific Integrated Circuits), programmable logic devices (eg SPLDs (Simple Programmable Logic Devices), CPLDs (Complex Programmable Logic Devices), FPGAs (Field Programmable Gate Arrays), conventional circuit configurations, and any combination thereof. A processor is considered to be a processing circuit configuration or circuit configuration, including transistors and / or other circuit configurations. In the present disclosure, circuit configurations, units, means, or similar terms refer to the disclosed functions. The hardware to perform, or the hardware programmed to perform the disclosed functions. The hardware may be the hardware disclosed herein or perform the functions described. It may be known hardware programmed and / or configured to do so. If the hardware is a processor that can be considered as a type of circuit configuration, a circuit configuration, unit, means, or similar terminology. Is a combination of hardware and software, which software is used to configure the hardware and / or processor.
〈眼底カメラユニット2〉
眼底カメラユニット2には、被検眼Eの眼底Efを撮影するための光学系が設けられている。取得される眼底Efの画像(眼底像、眼底写真等と呼ばれる)は、観察画像、撮影画像等の正面画像である。観察画像は、例えば近赤外光を用いた動画撮影により得られ、アライメント、フォーカシング、トラッキングなどに利用される。撮影画像は、例えば可視領域又は赤外領域のフラッシュ光を用いた静止画像である。
<Fundus camera unit 2>
The fundus camera unit 2 is provided with an optical system for photographing the fundus Ef of the eye to be inspected E. The acquired image of the fundus Ef (called a fundus image, a fundus photograph, etc.) is a front image such as an observation image, a photographed image, or the like. The observed image is obtained, for example, by photographing a moving image using near infrared light, and is used for alignment, focusing, tracking, and the like. The captured image is, for example, a still image using flash light in the visible region or the infrared region.
眼底カメラユニット2は、照明光学系10と撮影光学系30とを含む。照明光学系10は被検眼Eに照明光を照射する。撮影光学系30は、被検眼Eからの照明光の戻り光を検出する。OCTユニット100からの測定光は、眼底カメラユニット2内の光路を通じて被検眼Eに導かれ、その戻り光は、同じ光路を通じてOCTユニット100に導かれる。
The fundus camera unit 2 includes an illumination
照明光学系10の観察光源11から出力された光(観察照明光)は、凹面鏡12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ系17、リレーレンズ18、絞り19、及びリレーレンズ系20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて被検眼E(眼底Ef)を照明する。観察照明光の被検眼Eからの戻り光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、撮影合焦レンズ31を経由し、ミラー32により反射される。更に、この戻り光は、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、結像レンズ34によりイメージセンサ35の受光面に結像される。イメージセンサ35は、所定のフレームレートで戻り光を検出する。なお、撮影光学系30のフォーカス(焦点位置)は、眼底Ef又は前眼部に合致するように調整される。
The light (observation illumination light) output from the observation
撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。被検眼Eからの撮影照明光の戻り光は、観察照明光の戻り光と同じ経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、結像レンズ37によりイメージセンサ38の受光面に結像される。
The light output from the photographing light source 15 (photographing illumination light) is applied to the fundus Ef through the same path as the observation illumination light. The return light of the photographing illumination light from the eye E to be examined is guided to the
液晶ディスプレイ(LCD)39は固視標(固視標画像)を表示する。LCD39から出力された光束は、その一部がハーフミラー33Aに反射され、ミラー32に反射され、撮影合焦レンズ31及びダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光束は、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。LCD39における固視標画像の表示位置を変更することで、被検眼Eの視線を誘導する方向(固視方向、固視位置)が変更される。
The liquid crystal display (LCD) 39 displays a fixation target (fixation target image). A part of the light flux output from the
LCD等の表示デバイスの代わりに、例えば、発光素子アレイ、又は、発光素子とこれを移動する機構との組み合わせを用いてもよい。 Instead of a display device such as an LCD, for example, a light emitting element array or a combination of a light emitting element and a mechanism for moving the light emitting element may be used.
アライメント光学系50は、被検眼Eに対する光学系の位置合わせ(アライメント)に用いられるアライメント指標を生成する。発光ダイオード(LED)51から出力されたアライメント光は、絞り52、絞り53、及びリレーレンズ54を経由し、ダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22を介して被検眼Eに投射される。アライメント光の被検眼Eからの戻り光(角膜反射光等)は、観察照明光の戻り光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(アライメント指標像)に基づいてマニュアルアライメントやオートアライメントを実行できる。
The alignment
従来と同様に、本例のアライメント指標像は、アライメント状態により位置が変化する2つの輝点像からなる。被検眼Eと光学系との相対位置がxy方向に変化すると、2つの輝点像が一体的にxy方向に変位する。被検眼Eと光学系との相対位置がz方向に変化すると、2つの輝点像の間の相対位置(距離)が変化する。z方向における被検眼Eと光学系との間の距離が既定のワーキングディスタンスに一致すると、2つの輝点像が重なり合う。xy方向において被検眼Eの位置と光学系の位置とが一致すると、所定のアライメントターゲット内又はその近傍に2つの輝点像が提示される。z方向における被検眼Eと光学系との間の距離がワーキングディスタンスに一致し、且つ、xy方向において被検眼Eの位置と光学系の位置とが一致すると、2つの輝点像が重なり合ってアライメントターゲット内に提示される。 As in the conventional case, the alignment index image of this example consists of two bright spot images whose positions change depending on the alignment state. When the relative position of the eye E to be inspected and the optical system changes in the xy direction, the two bright spot images are integrally displaced in the xy direction. When the relative position of the eye E to be inspected and the optical system changes in the z direction, the relative position (distance) between the two bright spot images changes. When the distance between the eye E to be inspected and the optical system in the z direction matches the predetermined working distance, the two bright spot images overlap. When the position of the eye E to be inspected and the position of the optical system match in the xy direction, two bright spot images are presented in or near a predetermined alignment target. When the distance between the eye to be inspected E and the optical system in the z direction matches the working distance, and the position of the eye to be inspected E and the position of the optical system in the xy direction match, the two bright spot images overlap and align. Presented within the target.
オートアライメントでは、データ処理部230が、2つの輝点像の位置を検出し、主制御部211が、2つの輝点像とアライメントターゲットとの位置関係に基づいて後述の移動機構150を制御する。マニュアルアライメントでは、主制御部211が、被検眼Eの観察画像とともに2つの輝点像を表示部241に表示させ、ユーザーが、表示された2つの輝点像を参照しながら操作部242を用いて移動機構150を動作させる。
In the auto alignment, the
フォーカス光学系60は、被検眼Eに対するフォーカス調整に用いられるスプリット指標を生成する。撮影光学系30の光路(撮影光路)に沿った撮影合焦レンズ31の移動に連動して、フォーカス光学系60は照明光学系10の光路(照明光路)に沿って移動される。反射棒67は、照明光路に対して挿脱される。フォーカス調整を行う際には、反射棒67の反射面が照明光路に傾斜配置される。LED61から出力されたフォーカス光は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65により反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22を介して被検眼Eに投射される。フォーカス光の被検眼Eからの戻り光(眼底反射光等)は、アライメント光の戻り光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(スプリット指標像)に基づいてマニュアルフォーカシングやオートフォーカシングを実行できる。
The focus
孔開きミラー21とダイクロイックミラー55との間の撮影光路に、視度補正レンズ70及び71を選択的に挿入することができる。視度補正レンズ70は、強度遠視を補正するためのプラスレンズ(凸レンズ)である。視度補正レンズ71は、強度近視を補正するためのマイナスレンズ(凹レンズ)である。
The
ダイクロイックミラー46は、眼底撮影用光路とOCT用光路(測定アーム)とを合成する。ダイクロイックミラー46は、OCTに用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。測定アームには、OCTユニット100側から順に、コリメータレンズユニット40、リトロリフレクタ41、分散補償部材42、OCT合焦レンズ43、光スキャナ44、及びリレーレンズ45が設けられている。
The
リトロリフレクタ41は、図1に示す矢印の方向に移動可能とされ、それにより測定アームの長さが変更される。測定アーム長の変更は、例えば、眼軸長に応じた光路長補正や、干渉状態の調整などに利用される。
The
分散補償部材42は、参照アームに配置された分散補償部材113(後述)とともに、測定光LSの分散特性と参照光LRの分散特性とを合わせるよう作用する。
The
OCT合焦レンズ43は、測定アームのフォーカス調整を行うために測定アームに沿って移動される。撮影合焦レンズ31の移動、フォーカス光学系60の移動、及びOCT合焦レンズ43の移動を連係的に制御することができる。
The
光スキャナ44は、実質的に、被検眼Eの瞳孔と光学的に共役な位置に配置される。光スキャナ44は、測定アームにより導かれる測定光LSを偏向する。光スキャナ44は、例えば、x方向のスキャンを行うためのガルバノミラーと、y方向のスキャンを行うためのガルバノミラーとを含む、2次元スキャンが可能なガルバノスキャナである。
The
〈OCTユニット100〉
図2に例示するように、OCTユニット100には、スウェプトソースOCTを適用するための光学系が設けられている。この光学系は干渉光学系を含む。この干渉光学系は、波長可変光源(波長掃引型光源)からの光を測定光と参照光とに分割し、被検眼Eからの測定光の戻り光と参照光路を経由した参照光とを重ね合わせて干渉光を生成し、この干渉光を検出する。干渉光学系により得られたデータ(検出信号)は、干渉光のスペクトルを表す信号であり、演算制御ユニット200に送られる。
<
As illustrated in FIG. 2, the
光源ユニット101は、例えば、少なくとも近赤外波長帯において出射波長を高速で変化させる近赤外波長可変レーザーを含む。光源ユニット101から出力された光L0は、光ファイバ102により偏波コントローラ103に導かれてその偏光状態が調整される。更に、光L0は、光ファイバ104によりファイバカプラ105に導かれて測定光LSと参照光LRとに分割される。測定光LSの光路は測定アームと呼ばれ、参照光LRの光路は参照アームと呼ばれる。
The
参照光LRは、光ファイバ110によりコリメータ111に導かれて平行光束に変換され、光路長補正部材112及び分散補償部材113を経由し、リトロリフレクタ114に導かれる。光路長補正部材112は、参照光LRの光路長と測定光LSの光路長とを合わせるよう作用する。分散補償部材113は、測定アームに配置された分散補償部材42とともに、参照光LRと測定光LSとの間の分散特性を合わせるよう作用する。リトロリフレクタ114は、これに入射する参照光LRの光路に沿って移動可能であり、それにより参照アームの長さが変更される。参照アーム長の変更は、例えば、眼軸長に応じた光路長補正や、干渉状態の調整などに利用される。
The reference optical LR is guided by the
リトロリフレクタ114を経由した参照光LRは、分散補償部材113及び光路長補正部材112を経由し、コリメータ116によって平行光束から集束光束に変換され、光ファイバ117に入射する。光ファイバ117に入射した参照光LRは、偏波コントローラ118に導かれてその偏光状態が調整され、光ファイバ119を通じてアッテネータ120に導かれてその光量が調整され、光ファイバ121を通じてファイバカプラ122に導かれる。
The reference light LR that has passed through the retro-
一方、ファイバカプラ105により生成された測定光LSは、光ファイバ127により導かれてコリメータレンズユニット40により平行光束に変換され、リトロリフレクタ41、分散補償部材42、OCT合焦レンズ43、光スキャナ44及びリレーレンズ45を経由し、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて被検眼Eに投射される。測定光LSは、被検眼Eの様々な深さ位置において散乱・反射される。測定光LSの被検眼Eからの戻り光は、往路と同じ経路を逆向きに進行してファイバカプラ105に導かれ、光ファイバ128を経由してファイバカプラ122に到達する。
On the other hand, the measurement optical LS generated by the
ファイバカプラ122は、光ファイバ128を介して入射された測定光LSと、光ファイバ121を介して入射された参照光LRとを重ね合わせて干渉光を生成する。ファイバカプラ122は、生成された干渉光を所定の分岐比(例えば1:1)で分岐することで一対の干渉光LCを生成する。一対の干渉光LCは、それぞれ光ファイバ123及び124を通じて検出器125に導かれる。
The
検出器125は、例えばバランスドフォトダイオードを含む。バランスドフォトダイオードは、一対の干渉光LCをそれぞれ検出する一対のフォトディテクタを有し、これらにより得られた一対の検出結果の差分を出力する。検出器125は、この出力(検出信号)をデータ収集システム(DAS)130に送る。
The
データ収集システム130には、光源ユニット101からクロックKCが供給される。クロックKCは、光源ユニット101において、波長可変光源により所定の波長範囲内で掃引される各波長の出力タイミングに同期して生成される。光源ユニット101は、例えば、各出力波長の光L0を分岐して2つの分岐光を生成し、これら分岐光の一方を光学的に遅延させ、これら分岐光を合成し、得られた合成光を検出し、その検出結果に基づいてクロックKCを生成する。データ収集システム130は、検出器125から入力される検出信号のサンプリングをクロックKCに基づいて実行する。データ収集システム130は、このサンプリングの結果を演算制御ユニット200に送る。
A clock KC is supplied to the
本例では、測定アーム長を変更するための要素(例えば、リトロリフレクタ41)と、参照アーム長を変更するための要素(例えば、リトロリフレクタ114、又は参照ミラー)との双方が設けられているが、一方の要素のみが設けられていてもよい。また、測定アーム長と参照アーム長との間の差(光路長差)を変更するための要素はこれらに限定されず、任意の要素(光学部材、機構など)であってよい。
In this example, both an element for changing the measurement arm length (for example, the retroreflector 41) and an element for changing the reference arm length (for example, the
〈制御系・処理系〉
眼科装置1の制御系及び処理系の構成例を図3、図4A及び図4Bに示す。制御部210、画像構築部220、及びデータ処理部230は、例えば演算制御ユニット200に設けられる。眼科装置1は、外部装置との間でデータ通信を行うための通信デバイスを含んでいてもよい。眼科装置1は、記録媒体からのデータ読み出しと、記録媒体へのデータ書き込みとを行うためのドライブ装置(リーダ/ライタ)を含んでいてもよい。
<Control system / processing system>
A configuration example of the control system and the processing system of the
〈制御部210〉
制御部210は、各種の制御を実行する。制御部210は、主制御部211と記憶部212とを含む。また、図4Aに示すように、本実施形態において、主制御部211は走査制御部2111を含み、記憶部212は走査プロトコル2121を記憶している。
<
The
〈主制御部211〉
主制御部211は、プロセッサを含み、眼科装置1の各要素(図1〜図4Bに示された要素を含む)を制御する。主制御部211は、プロセッサを含むハードウェアと、制御ソフトウェアとの協働によって実現される。走査制御部2111は、所定形状及び所定サイズの走査エリアに関するOCTスキャンの制御を行う。
<
The
撮影合焦駆動部31Aは、主制御部211の制御の下に、撮影光路に配置された撮影合焦レンズ31と照明光路に配置されたフォーカス光学系60とを移動する。リトロリフレクタ(RR)駆動部41Aは、主制御部211の制御の下に、測定アームに設けられたリトロリフレクタ41を移動する。OCT合焦駆動部43Aは、主制御部211の制御の下に、測定アームに配置されたOCT合焦レンズ43を移動する。測定アームに設けられたリトロリフレクタ(RR)駆動部114Aは、主制御部211の制御の下に、参照アームに配置されたリトロリフレクタ114を移動する。上記した駆動部のそれぞれは、主制御部211の制御の下に動作するパルスモータ等のアクチュエータを含む。光スキャナ44は、主制御部211(走査制御部2111)の制御の下に動作する。
The photographing focusing
移動機構150は、典型的には、眼底カメラユニット2を3次元的に移動し、例えば、±x方向(左右方向)に移動可能なxステージと、xステージを移動するx移動機構と、±y方向(上下方向)に移動可能なyステージと、yステージを移動するy移動機構と、±z方向(奥行き方向)に移動可能なzステージと、zステージを移動するz移動機構とを含む。各移動機構は、主制御部211の制御の下に動作するパルスモータ等のアクチュエータを含む。
The moving
〈記憶部212〉
記憶部212は各種のデータを記憶する。記憶部212に記憶されるデータとしては、OCT画像、眼底像、被検眼情報、制御情報などがある。被検眼情報は、患者IDや氏名などの被検者情報や、左眼/右眼の識別情報や、電子カルテ情報などを含む。制御情報は、特定の制御に関する情報である。本実施形態の制御情報は、走査プロトコル2121を含む。
<
The
走査プロトコル2121は、所定形状及び所定サイズの走査エリアに関するOCTスキャンのための制御の内容に関する取り決めであり、各種制御パラメータ(走査制御パラメータ)の組を含む。走査プロトコル2121は、走査モード毎のプロトコルを含む。本実施形態の走査プロトコル2121は、リサージュスキャンのプロトコルを少なくとも含み、更に、例えば、Bスキャン(ラインスキャン)、クロススキャン、ラジアルスキャン、ラスタースキャンなどのプロトコルを含んでいてもよい。
本実施形態の走査制御パラメータは、光スキャナ44に対する制御の内容を示すパラメータを少なくとも含む。このパラメータは、例えば、スキャンパターンを示すパラメータ、スキャン速度を示すパラメータ、スキャン間隔を示すパラメータなどがある。スキャンパターンは、スキャンの経路の形状を示し、その例として、リサージュパターン、ラインパターン、クロスパターン、ラジアルパターン、ラスターパターンなどがある。スキャン速度は、例えば、Aスキャンの繰り返しレートとして定義される。スキャン間隔は、例えば、隣接するAスキャンの間隔として、つまりスキャン点の配列間隔として定義される。
The scanning control parameter of the present embodiment includes at least a parameter indicating the content of control for the
なお、特許文献1〜4並びに非特許文献1及び2の開示のような従来技術と同様に、本実施形態の「リサージュスキャン」は、互いに直交する2つの単振動を順序対として得られる点の軌跡が描くパターン(リサージュパターン、リサージュ図形、リサージュ曲線、リサージュ関数、バウディッチ曲線)を経路とした「狭義の」リサージュスキャンだけでなく、一連のサイクルを含む所定の2次元パターンに従う「広義の」リサージュスキャンであってもよい。
Similar to the prior art as disclosed in
本実施形態では、光スキャナ44は、x方向に測定光LSを偏向する第1ガルバノミラーと、y方向に測定光LSを偏向する第2ガルバノミラーとを含む。リサージュスキャンは、x方向に沿った偏向方向の変化を第1周期で繰り返すように第1ガルバノミラーの制御を行いつつ、y方向に沿った偏向方向の変化を第2周期で繰り返すように第2ガルバノミラーの制御を行うことによって実現される。ここで、第1周期と第2周期とは互いに異なる。
In the present embodiment, the
例えば、本実施形態のリサージュスキャンは、2つの正弦波の組み合わせから得られる狭義のリサージュパターンのスキャンだけでなく、これに特定項(例えば、奇数次の多項式)を加えたパターンのスキャンや、三角波に基づくパターンのスキャンであってもよい。 For example, the lithage scan of the present embodiment is not only a scan of a lisage pattern in a narrow sense obtained from a combination of two sine waves, but also a scan of a pattern to which a specific term (for example, an odd-order polynomial) is added, or a triangular wave. It may be a scan of a pattern based on.
「サイクル」は、一般に、或る長さを持つ複数のサンプリング点から構成されるオブジェクトを意味し、例えば閉曲線又はほぼ閉曲線であってよい(つまり、サイクルの始点と終点とが一致又はほぼ一致していてよい)。 "Cycle" generally means an object composed of multiple sampling points of a certain length, which may be, for example, a closed curve or a nearly closed curve (ie, the start and end points of the cycle coincide with or nearly coincide with each other. You can do it).
典型的には、走査プロトコル2121はリサージュ関数に基づき設定される。非特許文献1の式(9)に示すように、リサージュ関数は、例えば、次のパラメトリック方程式系で表現される:x(ti)=A・cos(2π・(fA/n)・ti)、y(ti)=A・cos(2π・(fA・(n-2)/n2)・ti)。
Typically, the
ここで、xはリサージュ曲線が定義される2次元座標系の横軸、yは縦軸、tiはリサージュスキャンにおける第i番目のAラインの収集時点、Aはスキャン範囲(振幅)、fAはAラインの収集レート(スキャン速度、Aスキャンの繰り返しレート)、nはx(横軸)方向の各サイクルにおけるAラインの個数をそれぞれ示す。 Here, x is the horizontal axis of the two-dimensional coordinate system in which the Lissajous curve is defined, y is the vertical axis, t i is the collection point of the i-th A line in the Lissajous scan, A is the scan range (amplitude), and f A. Is the collection rate of A-lines (scan speed, repetition rate of A-scans), and n is the number of A-lines in each cycle in the x (horizontal axis) direction.
このようなリサージュスキャンにおいて眼底Efに適用されるスキャンラインの分布の例を図5に示す。 An example of the distribution of scan lines applied to the fundus Ef in such a Lissajous scan is shown in FIG.
(狭義又は広義の)リサージュスキャンに含まれる任意のサイクル対(ペア)が1点以上(特に2点以上)で互いに交差するため、リサージュスキャンにおける任意のサイクル対から収集されたデータ対の間のレジストレーションを行うことができる。これにより、非特許文献1(又は2)に開示された画像構築手法及びモーションアーティファクト補正手法を利用することが可能となる。以下、特に言及しない限り、非特許文献1に記載された手法が適用される。
Between any cycle pairs (pairs) included in a (narrowly or broadly defined) lisage scan intersect each other at one or more points (especially two or more points) and therefore between data pairs collected from any cycle pair in a lisage scan. Registration can be performed. This makes it possible to use the image construction method and the motion artifact correction method disclosed in Non-Patent Document 1 (or 2). Hereinafter, unless otherwise specified, the method described in
記憶部212に記憶される制御情報は上記の例に限定されない。例えば、制御情報はフォーカス制御を行うための情報(フォーカス制御パラメータ)を含んでいてよい。
The control information stored in the
フォーカス制御パラメータは、OCT合焦駆動部43Aに対する制御の内容を示すパラメータである。フォーカス制御パラメータの例として、測定アームの焦点位置を示すパラメータ、焦点位置の移動速度を示すパラメータ、焦点位置の移動加速度を示すパラメータなどがある。焦点位置を示すパラメータは、例えば、OCT合焦レンズ43の位置を示すパラメータである。焦点位置の移動速度を示すパラメータは、例えば、OCT合焦レンズ43の移動速度を示すパラメータである。焦点位置の移動加速度を示すパラメータは、例えば、OCT合焦レンズ43の移動加速度を示すパラメータである。移動速度は、一定であってもよいし、一定でなくてもよい。移動加速度についても同様である。
The focus control parameter is a parameter indicating the content of control for the OCT focusing
このようなフォーカス制御パラメータによれば、眼底Efの形状(典型的には、中心部が深く且つ周辺部が浅い凹形状)や収差分布に応じたフォーカス調整が可能になる。フォーカス制御は、例えば、走査制御(リサージュスキャンの繰り返し制御)と連係的に実行される。それにより、モーションアーティファクトが補正され、且つ、スキャン範囲の全体に亘ってピントが合った、高品質の画像が得られる。 According to such a focus control parameter, the focus can be adjusted according to the shape of the fundus Ef (typically, a concave shape having a deep central portion and a shallow peripheral portion) and an aberration distribution. Focus control is executed in cooperation with, for example, scanning control (repeated control of Lissajous scan). This results in a high quality image with motion artifacts corrected and in focus over the entire scan range.
〈走査制御部2111〉
走査制御部2111は、走査プロトコル2121に基づいて少なくとも光スキャナ44を制御する。走査制御部2111は、走査プロトコル2121に基づく光スキャナ44の制御と連係して光源ユニット101の制御を更に実行してもよい。走査制御部2111は、プロセッサを含むハードウェアと、走査プロトコル2121を含む走査制御ソフトウェアとの協働によって実現される。
<
The
〈画像構築部220〉
画像構築部220は、プロセッサを含み、データ収集システム130から入力された信号(サンプリングデータ)に基づいて、眼底EfのOCT画像データを構築する。このOCT画像データ構築は、従来のフーリエドメインOCT(スウェプトソースOCT)と同様に、ノイズ除去(ノイズ低減)、フィルタリング、高速フーリエ変換(FFT)などを含む。他のタイプのOCT手法が採用される場合、画像構築部220は、そのタイプに応じた公知の処理を実行することによってOCT画像データを構築する。
<
The
前述したように、本実施形態ではリサージュスキャンが眼底Efに適用される。画像構築部220は、データ処理部230とともに、リサージュスキャンによる収集とデータ収集システム130によるサンプリングとを介して取得されたデータに対し、例えば非特許文献1又は2に開示された画像構築手法及びモーションアーティファクト補正手法を適用することによって、眼底Efの3次元画像データを構築する。
As described above, in this embodiment, the Lissajous scan is applied to the fundus Ef. The
画像構築部220(及び/又はデータ処理部230)は、3次元画像データにレンダリングを適用して表示用画像を形成することができる。適用可能なレンダリング法の例として、ボリュームレンダリング、サーフェスレンダリング、最大値投影(MIP)、最小値投影(MinIP)、多断面再構成(MPR)などがある。 The image construction unit 220 (and / or the data processing unit 230) can apply rendering to the three-dimensional image data to form a display image. Examples of applicable rendering methods include volume rendering, surface rendering, maximum value projection (MIP), minimum value projection (MinIP), and multi-section reconstruction (MPR).
画像構築部220(及び/又はデータ処理部230)は、3次元画像データに基づいてOCT正面画像(enface OCT image)を構築することが可能である。例えば、画像構築部220(及び/又はデータ処理部230)は、3次元画像データをz方向(Aライン方向、深さ方向)に投影することでプロジェクションデータを構築することができる。また、画像構築部220(及び/又はデータ処理部230)は、3次元画像データの一部である部分的3次元画像データをz方向に投影することでシャドウグラムを構築することができる。この部分的3次元画像データは、例えば、セグメンテーションを利用して設定される。セグメンテーションは、画像中の部分領域を特定する処理である。本例では、眼底Efの所定組織に相当する画像領域を特定するためにセグメンテーションを行うことができる。 The image construction unit 220 (and / or the data processing unit 230) can construct an OCT front image (enface OCT image) based on the three-dimensional image data. For example, the image construction unit 220 (and / or the data processing unit 230) can construct projection data by projecting the three-dimensional image data in the z direction (A line direction, depth direction). Further, the image construction unit 220 (and / or the data processing unit 230) can construct a shadow gram by projecting partial 3D image data which is a part of the 3D image data in the z direction. This partial three-dimensional image data is set by using, for example, segmentation. Segmentation is a process of identifying a partial area in an image. In this example, segmentation can be performed to identify an image region corresponding to a predetermined tissue of the fundus Ef.
眼科装置1は、OCT血管造影(OCT-Angiography)を実施可能であってよい。OCT血管造影は、血管が強調された画像を構築するイメージング技術である(例えば、非特許文献2、特表2015−515894号公報などを参照)。一般に、眼底組織(構造)は時間的に変化しないが、血管内部の血流部分は時間的に変化する。OCT血管造影では、このような時間的変化が存在する部分(血流信号)を強調して画像を生成する。なお、OCT血管造影は、OCTモーションコントラスト撮影(motion contrast imaging)などとも呼ばれる。また、OCT血管造影により取得される画像は、血管造影画像、アンジオグラム(angiogram)、モーションコントラスト画像などと呼ばれる。
The
OCT血管造影が実施される場合、眼科装置1は、眼底Efの同じ領域を所定回数だけ繰り返しスキャンする。例えば、眼科装置1は、前述した走査制御(リサージュスキャンの繰り返し制御)を所定回数だけ繰り返し実施する。それにより、リサージュスキャンの適用領域に対応する複数の3次元データ(3次元データセット)がデータ収集システム130によって収集される。画像構築部220及び/又はデータ処理部230は、この3次元データセットからモーションコントラスト画像を構築することができる。このモーションコントラスト画像は、眼底Efの血流に起因する干渉信号の時間的変化が強調された血管造影画像である。この血管造影画像は、眼底Efの血管の3次元的な分布を表現した3次元血管造影画像データである。
When OCT angiography is performed, the
画像構築部220及び/又はデータ処理部230は、この3次元血管造影画像データから、任意の2次元血管造影画像データ及び/又は任意の擬似的3次元血管造影画像データを構築することが可能である。例えば、画像構築部220は、3次元血管造影画像データに多断面再構成を適用することにより、眼底Efの任意の断面を表す2次元血管造影画像データを構築することができる。また、画像構築部220は、3次元血管造影画像データにプロジェクション画像化又はシャドウグラム化を適用することにより、眼底Efの正面血管造影画像データを構築することができる。
The
本実施形態において、画像構築部220は、データ収集システム130により収集されたデータから複数のストリップを構築する。非特許文献1に記載されているように、画像構築部220は、リサージュスキャンで収集されたボリューム(3次元データ)を比較的大きな動きが介在しない複数のサブボリュームに分割し、各サブボリュームの正面プロジェクション画像(en face projection)を構築する。この正面プロジェクション画像がストリップである。このようにして得られた複数のストリップに対してレジストレーション及びマージ処理を適用することにより、モーションアーティファクトが補正された画像が得られる。後述するように、レジストレーション及びマージ処理は、データ処理部230によって実行される。
In this embodiment, the
画像構築部220は、プロセッサを含むハードウェアと、画像構築ソフトウェアとの協働によって実現される。
The
〈データ処理部230〉
データ処理部230は、プロセッサを含み、被検眼Eの画像に対して各種のデータ処理を適用する。例えば、データ処理部230は、プロセッサを含むハードウェアと、データ処理ソフトウェアとの協働によって実現される。
<
The
データ処理部230は、眼底Efについて取得された2つの画像の間の位置合わせ(レジストレーション)を行うように構成されてよい。例えば、データ処理部230は、OCTで取得された3次元画像データと、眼底カメラユニット2により取得された正面画像との間のレジストレーションを行うように構成される。また、データ処理部230は、OCTで取得された2つのOCT画像の間のレジストレーションを行うように構成される。また、データ処理部230は、眼底カメラユニット2により取得された2つの正面画像の間のレジストレーションを行うように構成される。また、OCT画像の解析結果や、正面画像の解析結果に対してレジストレーションを適用するように構成されてもよい。これらのレジストレーションは、公知の手法によって実行可能であり、例えば特徴点抽出とアフィン変換とを含む。
The
更に、データ処理部230は、リサージュスキャンを用いて得られたデータを処理するように構成される。前述したように、画像構築部220は、リサージュスキャンで収集されたデータから複数のストリップを構築する。データ処理部230は、これらストリップに対してレジストレーション及びマージ処理を適用することにより、モーションアーティファクトが補正された画像を構築する。
Further, the
リサージュスキャンの特性として、任意の2つのストリップはオーバーラップ領域を有する。非特許文献1に記載された手法と同様に、データ処理部230は、ストリップ間のオーバーラップを利用してストリップ間のレジストレーションを行うように構成される。データ処理部230は、まず、画像構築部220により構築された複数のストリップを大きさ(面積等)に従って順序付け(第1〜第Nのストリップ)、最大のストリップである第1のストリップを初期基準ストリップに指定する。次に、データ処理部230は、第1のストリップを基準として第2のストリップのレジストレーションを行い、第1のストリップと第2のストリップとをマージする(合成する)。データ処理部230は、これにより得られたマージストリップを基準として第3のストリップのレジストレーションを行い、このマージストリップと第3のストリップとをマージする。このようなレジストレーション及びマージ処理を上記順序に従って順次に実行することにより第1〜第Nのストリップの位置合わせ及び貼り合わせがなされ、モーションアーティファクトが補正された画像が得られる。
As a characteristic of the Lissajous scan, any two strips have an overlapping region. Similar to the method described in
このようなレジストレーションでは、基準ストリップと他のストリップとの間の相対位置を求めるために相互相関関数が利用されるが、ストリップは任意の形状を有するため、各ストリップを特定形状(例えば正方形状)の画像として扱うためのマスクを用いてストリップ間の相関演算が行われる(非特許文献1のAppendix Aを参照)。 In such registrations, a cross-correlation function is used to determine the relative position between the reference strip and the other strips, but since the strips have any shape, each strip has a specific shape (eg square). ) Is used as an image to perform correlation calculation between strips (see Appendix A of Non-Patent Document 1).
前述したように、ストリップは所定階調の強度画像であり、マスク画像は二値画像であるため、ストリップの画素値の絶対値とマスクの画素値の絶対値との差が大きくなり、ストリップとマスクとを用いた相関演算におけるマスクの効果が無視されて正しい相関係数が得られないおそれがある。特に、コスト等の観点から、ストリップ間の相関係数を求めるために単精度浮動小数点型(フロート型)の演算を採用した場合、有効桁数の少なさに起因する丸め誤差の影響により、この問題が顕著に現れる。 As described above, since the strip is an intensity image of a predetermined gradation and the mask image is a binary image, the difference between the absolute value of the pixel value of the strip and the absolute value of the pixel value of the mask becomes large, and the strip and the strip The effect of the mask in the correlation calculation using the mask may be ignored and the correct correlation coefficient may not be obtained. In particular, when a single-precision floating-point type (float type) operation is adopted to obtain the correlation coefficient between strips from the viewpoint of cost, etc., this problem is caused by the influence of rounding error due to the small number of significant digits. Appears prominently.
この問題に対処するために、本実施形態では、図4Bに示す構成を有するデータ処理部230が採用される。本例のデータ処理部230は、マスク画像生成部231と、範囲調整部232と、合成画像生成部233と、相互相関関数算出部234と、相関係数算出部235と、レジストレーション部236と、マージ処理部237とを含む。以下に説明する例では、任意の2つのストリップを考慮し、その一方が基準ストリップ(reference strip)に指定され、この基準ストリップに対して他方のストリップ(対象ストリップ;registering strip)がレジストレーションされる。
In order to deal with this problem, in this embodiment, the
〈マスク画像生成部231〉
マスク画像生成部231は、基準ストリップに応じた基準マスク画像と、対象ストリップに応じた対象マスク画像とを生成する。マスク画像の幾つかの例を以下に説明するが、これらに限定されるものではない。
<Mask
The mask
マスク画像の輪郭形状は、例えば矩形であり、典型的には正方形である。基準マスク画像の形状と対象マスク画像の形状とは同じであってよい。また、基準マスク画像の寸法と対象マスク画像の寸法とは同じであってよい。 The contour shape of the mask image is, for example, a rectangle, typically a square. The shape of the reference mask image and the shape of the target mask image may be the same. Further, the dimensions of the reference mask image and the dimensions of the target mask image may be the same.
マスク画像の画素値の範囲は、例えば閉区間[0,1]に含まれるように設定される。典型的には、マスク画像は、画素値が0又は1の二値画像であってよい。具体例として、マスク画像は、ストリップの定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像である。換言すると、非特許文献1の式(20)に示すように、例示的なマスク画像の画素値は、対応するストリップの画像エリアにおける値が1であり、他のエリアにおける値が0である。
The range of pixel values of the mask image is set so as to be included in, for example, the closed interval [0,1]. Typically, the mask image may be a binary image with a pixel value of 0 or 1. As a specific example, the mask image is a binary image in which the value of the pixel in the region corresponding to the domain of the strip is 1 and the value of the other pixel is 0. In other words, as shown in the equation (20) of
〈範囲調整部232〉
範囲調整部232は、基準マスク画像の画素値の範囲と、対象マスク画像の画素値の範囲とに基づいて、基準ストリップの画素値の範囲と、対象ストリップの画素値の範囲とを調整するように構成される。典型的には、範囲調整部232は、ストリップの画素値の範囲とマスク画像の画素値の範囲との間の差を小さくするように、基準ストリップの画素値の範囲及び対象ストリップの画素値の範囲の調整を行う。
<
The
一般に、範囲調整部232は、基準ストリップの画素値の範囲と、対象ストリップの画素値の範囲と、マスク画像の画素値の範囲とを相対的に調整する。典型的な例では、基準ストリップに適用される基準マスク画像と、対象ストリップに適用される対象マスク画像とは異なり、範囲調整部232は、基準ストリップの画素値の範囲と、対象ストリップの画素値の範囲と、基準マスク画像の画素値の範囲と、対象ストリップの画素値の範囲とを相対的に調整する。
Generally, the
範囲調整部232は、基準ストリップの画素値の範囲と基準マスク画像の画素値の範囲とを小さくするように基準ストリップの画素値の範囲と基準マスク画像の画素値の範囲とを調整し、且つ、対象ストリップの画素値の範囲と対象マスク画像の画素値の範囲とを小さくするように、対象ストリップの画素値の範囲と対象ストリップの画素値の範囲とを相対的に調整するように構成される。
The
範囲調整部232は、ストリップ及びマスク画像の一方の画素値の範囲を他方の画素値の範囲に一致させるように、ストリップの画素値の範囲とマスク画像の画素値の範囲とを調整するように構成されてよい。例えば、範囲調整部232は、基準ストリップの画素値の範囲と基準マスク画像の画素値の範囲とを一致させるように基準ストリップの画素値の範囲と基準マスク画像の画素値の範囲とを調整し、且つ、対象ストリップの画素値の範囲と対象マスク画像の画素値の範囲とを一致させるように、対象ストリップの画素値の範囲と対象ストリップの画素値の範囲とを相対的に調整するように構成されてよい。
The
例えば、範囲調整部232は、マスク画像の画素値の範囲に応じてストリップの画素値の範囲を正規化するように構成される。この正規化(規格化)の幾つかの例を以下に説明するが、これらに限定されるものではない。
For example, the
正規化の第1の例を説明する。マスク画像の画素値の範囲が閉区間[0,1]に含まれる場合において、範囲調整部232は、ストリップの各画素の値を、このストリップにおける最大画素値で除算する。本例では、範囲調整部232は、まず、ストリップの全ての画素の値を比較して最大値(最大画素値)を特定し、このストリップの各画素の値を最大画素値で除算する。これにより、ストリップの画素値の範囲が、マスク画像の画素値の範囲と同じ閉区間[0,1]に一致される。
A first example of normalization will be described. When the range of pixel values of the mask image is included in the closed interval [0,1], the
正規化の第2の例を説明する。マスク画像の画素値の範囲が閉区間[0,1]に含まれる場合において、範囲調整部232は、ストリップの各画素の値を、このストリップの画素値の範囲の最大値で除算する。ストリップの画素値の範囲は予め設定されており、範囲調整部232は、この範囲の上限値(最大値)でストリップの各画素の値を除算する。本例によっても、ストリップの画素値の範囲が、マスク画像の画素値の範囲と同じ閉区間[0,1]に一致される。
A second example of normalization will be described. When the range of pixel values of the mask image is included in the closed interval [0,1], the
範囲調整部232が実行する処理により、ストリップの画素値の絶対値とマスクの画素値の絶対値との差を小さくすることができ、ストリップとマスクとを用いた相関演算においてマスクの効果が無視されることが無くなり、相関係数の算出を正確に行うことが可能となる。特に、単精度浮動小数点型(フロート型)の演算を採用した場合であっても、有効桁数の少なさに起因する丸め誤差の影響を排除する(低減する)ことができる。
By the process executed by the
本明細書ではストリップの画素値の範囲のみを変更する例について主に説明するが、マスク画像の画素値の範囲のみを変更してもよいし、ストリップの画素値の範囲とマスク画像の画素値の範囲との双方を変更してもよい。 Although the example of changing only the pixel value range of the strip is mainly described in the present specification, only the pixel value range of the mask image may be changed, or the pixel value range of the strip and the pixel value of the mask image may be changed. Both with the range of may be changed.
〈合成画像生成部233〉
範囲調整部232による画素値範囲調整が適用されたストリップ及びマスク画像について、合成画像生成部233は、基準ストリップ及び対象ストリップのそれぞれにマスク画像を合成して2つの合成画像を生成する。典型的には、合成画像生成部233は、基準ストリップに基準マスク画像を合成して基準合成画像を生成し、且つ、対象ストリップに対象マスク画像を合成して対象合成画像を生成する。
<Composite
For the strip and mask image to which the pixel value range adjustment by the
ストリップとマスク画像とを合成する処理は、非特許文献1と同じ要領で実行されてよい。ただし、非特許文献1の手法とは異なり、本実施形態では、ストリップの画素値の範囲とマスク画像の画素値の範囲との間の差を小さくなるように調整されている。典型的には、基準マスク画像及び対象マスク画像の画素値の範囲に一致するように、基準ストリップ及び対象ストリップの画素値の範囲が正規化されている。
The process of synthesizing the strip and the mask image may be executed in the same manner as in
例えば、非特許文献1の式(19)と同じ要領で、合成画像生成部233は、画素値範囲が正規化されたストリップを、マスク画像と同じ寸法及び同じ形状の画像に埋め込むように構成されてよい。
For example, in the same manner as in the formula (19) of
更に、合成画像生成部233は、ストリップの埋め込み画像とマスク画像との合成画像を生成する。この合成画像は、非特許文献1における「f´(r)mf(r)」(第1800頁の第2行目等)に相当するが、前述したように、ストリップの埋め込み画像の値が式(19)のそれとは異なっている。
Further, the composite
〈相互相関関数算出部234〉
相互相関関数算出部234は、合成画像生成部233により生成された2つの合成画像に基づいて複数の相互相関関数を求める。相互相関関数の算出は、非特許文献1と同じ要領で実行される。例えば、相互相関関数算出部234は、基準ストリップ及び基準マスク画像から生成された基準合成画像と、対象ストリップ及び対象マスク画像から生成された対象合成画像とに基づいて、非特許文献1の式(33)に含まれる6個の相互相関関数(画像相互相関、image cross-correlation)を算出する。
<Cross-correlation
The cross-correlation
〈相関係数算出部235〉
相関係数算出部235は、相互相関関数算出部234により算出された複数の相互相関関数に基づいて相関係数を算出する。この演算は、非特許文献1の式(33)に従う。
<Correlation
The correlation
〈レジストレーション部236〉
レジストレーション部236は、相関係数算出部235により算出される相関係数に基づいて、xy方向(ラテラル方向)のレジストレーションが実行される。このレジストレーションは、非特許文献1の「rough lateral motion correction」(第1787頁)に相当する。
<
The
更に、レジストレーション部236は、スロードリフト(slow drift)やトレモア(tremor)等の眼球運動に起因するラテラル方向の小さなモーションアーティファクトを除去するために、非特許文献1の「fine lateral motion correction」(第1789頁)に相当するレジストレーションを実行するように構成されてもよい。
Further, the
加えて、レジストレーション部236は、z方向(軸方向、アキシャル方向)のモーションアーティファクトを除去するために、非特許文献1の「axial motion correction (rough axial motion correction 及び/又は fine axial motion correction」(第1789頁〜第1790頁)に相当するレジストレーションを実行するように構成されてもよい。
In addition, the
〈マージ処理部237〉
マージ処理部237は、レジストレーション部236により相対位置調整がなされた基準ストリップと対象ストリップとのマージ画像を構築する。この処理も非特許文献1に記載された手法と同じ要領で実行される。
<
The
前述したように、データ処理部230は、画像構築部220により構築された複数のストリップを大きさに応じた順序付けに従って、上記した一連の処理を逐次に実行する。これにより、画像構築部220により構築された複数のストリップから、モーションアーティファクトが補正された画像が得られる。得られた画像は、典型的には、リサージュスキャンが適用された範囲全体を表現した画像である。
As described above, the
〈ユーザーインターフェイス240〉
ユーザーインターフェイス240は表示部241と操作部242とを含む。表示部241は表示装置3を含む。操作部242は各種の操作デバイスや入力デバイスを含む。ユーザーインターフェイス240は、例えばタッチパネルのような表示機能と操作機能とが一体となったデバイスを含んでいてもよい。ユーザーインターフェイス240の少なくとも一部を含まない実施形態を構築することも可能である。例えば、表示デバイスは、眼科装置1に接続された外部装置であってよい。
<
The
〈動作〉
眼科装置1の動作について説明する。眼科装置1の動作の例を図6に示す。なお、患者IDの入力、走査モードの設定(リサージュスキャンの指定)、固視標の提示、アライメント、フォーカス調整、OCT光路長調整など、従来と同様の準備的な処理は、既になされたものとする。
<motion>
The operation of the
(S1:リサージュスキャン)
所定の走査開始トリガー信号を受けて、走査制御部2111は、被検眼E(眼底Ef)に対するOCTスキャン(リサージュスキャン)の適用を開始する。
(S1: Lissajous scan)
Upon receiving the predetermined scanning start trigger signal, the
走査開始トリガー信号は、例えば、所定の準備動作(アライメント、フォーカス調整、OCT光路長調整など)が完了したことに対応して、又は、操作部242を用いて走査開始指示操作が行われたことに対応して生成される。
The scanning start trigger signal indicates, for example, that a scanning start instruction operation has been performed in response to the completion of predetermined preparatory operations (alignment, focus adjustment, OCT optical path length adjustment, etc.) or by using the
走査制御部2111は、走査プロトコル2121(リサージュスキャンに対応したプロトコル)に基づいて光スキャナ44及びOCTユニット100などを制御することによってリサージュスキャンを眼底Efに適用する。リサージュスキャンにより収集されたデータは画像構築部220に送られる。
The
(S2:複数のストリップを構築)
画像構築部220は、前述した要領で、ステップS1で収集されたデータに基づいて複数のストリップを構築する。構築された複数のストリップはデータ処理部230に送られる。
(S2: Build multiple strips)
The
(S3:基準ストリップと対象ストリップを設定する)
データ処理部230は、ステップS2で構築された複数のストリップを寸法(面積等)に従って順序付けする。本例では、ステップS2で構築された複数のストリップの個数をN個(Nは2以上の整数)であるとする。また、順序付けにより指定された順序に従って、これらN個のストリップを、第1のストリップ、第2のストリップ、・・・、第Nのストリップと呼ぶ。また、第1〜第Nのストリップのうちの任意のストリップを第nのストリップと呼ぶことがある(n=1、2、・・・、N)。このように、第1のストリップは最も大きなストリップであり、第2のストリップは2番目に大きなストリップであり、第nのストリップはn番目に大きなストリップであり、第Nのストリップは最も小さなストリップである。
(S3: Set the reference strip and the target strip)
The
本例において、データ処理部230は、第1のストリップを初期基準ストリップに設定し、第2のストリップを初期対象ストリップに設定する。
In this example, the
なお、基準ストリップ及び対象ストリップは、それぞれ、非特許文献1のAppendix Aにおける任意形状の画像(arbitrary shaped images)f(r)及びg(r)に相当する。
The reference strip and the target strip correspond to the arbitrary shaped images f (r) and g (r) in Appendix A of
(S4:基準マスク画像と対象マスク画像を設定)
マスク画像生成部231は、基準ストリップに対応するマスク画像(基準マスク画像)と、対象ストリップに対応する対象マスク画像とを生成する。
(S4: Set the reference mask image and the target mask image)
The mask
この段階では、マスク画像生成部231は、第1のストリップ及び第2のストリップにそれぞれ対応する2つのマスク画像を生成する。データ処理部230は、第1のストリップに対応する第1のマスク画像を初期基準マスク画像に設定し、第2のストリップに対応する第2のマスク画像を初期対象マスク画像に設定する。
At this stage, the mask
なお、基準マスク画像及び対象マスク画像は、それぞれ、非特許文献1のAppendix Aにおける矩形状の二値画像マスク(rectangular shaped binary image masks)mf(r)及びmg(r)に相当する。
The reference mask image and the target mask image correspond to rectangular shaped binary image masks m f (r) and mg (r) in Appendix A of
(S5:基準ストリップと対象ストリップを正規化)
範囲調整部232は、前述した要領で、ステップS3で設定された基準ストリップと対象ストリップに正規化を施す。ストリップの正規化は、マスク画像の画素値の範囲に応じて行われる。この段階においては、範囲調整部232は、第1のストリップ(基準ストリップ)及び第2のストリップ(対象ストリップ)に正規化を適用する。なお、範囲調整部232が実行する処理は正規化には限定されず、前述した範囲調整処理のいずれか又はそれに類する処理であってよい。
(S5: Normalize the reference strip and the target strip)
The
本例において、各マスク画像の画素値の範囲は閉区間[0,1]に含まれるものとする。特に、本例の各マスク画像は、対応するストリップの定義域に相当する領域内の画素値が1に設定され且つ他の画素の値が0に設定された二値画像であるものとする。 In this example, the range of pixel values of each mask image is included in the closed interval [0,1]. In particular, it is assumed that each mask image of this example is a binary image in which the pixel value in the region corresponding to the domain of the corresponding strip is set to 1 and the values of the other pixels are set to 0.
範囲調整部232は、例えば、ストリップの各画素の値をこのストリップにおける最大画素値で除算することにより、又は、ストリップの各画素の値をこのストリップの画素値の範囲(階調範囲)の最大値で除算することにより、このストリップの正規化を行う。
The
また、データ処理部230(合成画像生成部233)は、画素値範囲が正規化されたストリップを、対応するマスク画像と同じ寸法及び同じ形状の画像に埋め込む。正規化された第1のストリップf(r)の埋め込み画像は、非特許文献1のAppendix Aにおける矩形状の画像(rectangular shaped image)f´(r)に類する画像であるが、第1のストリップf(r)の画像エリア内の値域の絶対値(|f(r)|)が1以下に正規化されている。この埋め込み画像を同じくf´(r)と表す。
Further, the data processing unit 230 (composite image generation unit 233) embeds a strip having a normalized pixel value range in an image having the same size and shape as the corresponding mask image. The embedded image of the normalized first strip f (r) is an image similar to the rectangular shaped image f'(r) in Appendix A of
同様に、正規化された第2のストリップg(r)の埋め込み画像は、矩形状の画像g´(r)に類する画像であるが、第2のストリップg(r)の画像エリア内の値域の絶対値(|g(r)|)が1以下に正規化されている。この埋め込み画像を同じくg´(r)と表す。 Similarly, the embedded image of the normalized second strip g (r) is an image similar to the rectangular image g'(r), but with a range within the image area of the second strip g (r). The absolute value of (| g (r) |) is normalized to 1 or less. This embedded image is also represented as g'(r).
(S6:基準合成画像と対象合成画像を生成)
合成画像生成部233は、正規化されたストリップの埋め込み画像と、対応するマスク画像との合成画像を生成する。
(S6: Generate reference composite image and target composite image)
The composite
この段階においては、合成画像生成部233は、正規化された第1のストリップ(基準ストリップ)の埋め込み画像と、第1のマスク画像(基準マスク画像)との合成画像を生成し、且つ、正規化された第2のストリップ(対象ストリップ)の埋め込み画像と、第2のマスク画像(対象マスク画像)との合成画像を生成する。前者の合成画像を基準合成画像と呼び、後者を対象合成画像と呼ぶ。
At this stage, the composite
ここで、基準合成画像及び対象合成画像は、それぞれ、非特許文献1のAppendix Aにおける2つの矩形状の画像の組み合わせ(combination of two rectangle shaped images)f´(r)mf(r)及びg´(r)mg(r)に相当する。ただし、前述したように、第1のストリップf(r)の画像エリア内の値域の絶対値(|f(r)|)は1以下であり、且つ、第2のストリップg(r)の画像エリア内の値域の絶対値(|g(r)|)は1以下である。
Here, the reference composite image and the target composite image are the combination of two rectangular shaped images in Appendix A of
図7Aの画像311は、正規化された第1のストリップf(r)の埋め込み画像f´(r)の例であり、画像321は、第1のマスク画像の例である。これら2つの画像311及び321を組み合わせることによって基準合成画像f´(r)mf(r)が得られる。
同様に、図7Bの画像312は、正規化された第2のストリップf(r)の埋め込み画像g´(r)の例であり、画像322は、第2のマスク画像の例である。これら2つの画像312及び322を組み合わせることによって基準合成画像g´(r)mg(r)が得られる。
Similarly,
(S7:複数の相互相関関数を算出)
相互相関関数算出部234は、ステップS6で生成された基準合成画像及び対象合成画像に基づいて複数の相互相関関数を算出する。本例では、相互相関関数算出部234は、ステップS6で生成された基準合成画像及び対象合成画像に基づいて、非特許文献1の式(33)に含まれる6個の相互相関関数を算出する。
(S7: Calculate multiple cross-correlation functions)
The cross-correlation
(S8:相関係数を算出)
相関係数算出部235は、ステップS7で算出された複数の相互相関関数に基づいて相関係数を算出する。本例では、相関係数算出部235は、非特許文献1の式(33)に従って、ステップS7で算出された複数の相互相関関数から相関係数(ρ(r´))を算出する。
(S8: Calculate the correlation coefficient)
The correlation
(S9:基準ストリップと対象ストリップとの間のレジストレーション)
基準ストリップ及び対象ストリップに対して、レジストレーション部236は、ステップS8で算出された相関係数に基づきxy方向のレジストレーション(rough lateral motion correction)を適用する。この段階では、第1のストリップf(r)と第2のストリップとの間のレジストレーションが行われる。
(S9: Registration between the reference strip and the target strip)
The
本例では、ステップS8で算出された相関係数ρ(r´)のピークを検出することにより、基準ストリップと対象ストリップとの間の相対的なシフト量(Δx、Δy)が求められる。 In this example, the relative shift amount (Δx, Δy) between the reference strip and the target strip is obtained by detecting the peak of the correlation coefficient ρ (r ′) calculated in step S8.
更に、レジストレーション部236は、前述した「fine lateral motion correction」や「axial motion correction」などのレジストレーションを基準ストリップ及び対象ストリップに対して適用する。
Further, the
(S10:基準ストリップと対象ストリップのマージ画像を構築)
マージ処理部237は、ステップS9のレジストレーションにより相対位置調整がなされた基準ストリップと対象ストリップとのマージ画像を構築する。図7Cの画像330は、第1のストリップと第2のストリップとのマージ画像の例を示す。
(S10: Build a merged image of the reference strip and the target strip)
The
(S11:全てのストリップを処理したか?)
ステップS2で得られたN個のストリップの全てに対し、前述した順序に従って逐次に、ステップS3〜S10の一連の処理が実行される。
(S11: Did you process all the strips?)
A series of processes of steps S3 to S10 are sequentially executed in the order described above for all of the N strips obtained in step S2.
Nが3以上の場合において、ステップS10で第1のストリップと第2のストリップとのマージ画像が作成された場合(S11:No)、処理はステップS3に戻る。ステップS3では、第1のストリップと第2のストリップとのマージ画像が新たな基準ストリップに設定され、且つ、第3のストリップが新たな対象ストリップに設定される。新たな基準ストリップと新たな対象ストリップに基づきステップS4〜S10の処理を実行することにより、新たな基準ストリップと新たな対象ストリップとのマージ画像が得られる。この新たなマージ画像は、第1〜第3のストリップのマージ画像である。このような一連の処理をN個のストリップに対して逐次に適用することにより、N個のストリップの全てのマージ画像が得られる(S11:Yes)。 When N is 3 or more and a merged image of the first strip and the second strip is created in step S10 (S11: No), the process returns to step S3. In step S3, the merged image of the first strip and the second strip is set as the new reference strip, and the third strip is set as the new target strip. By executing the processes of steps S4 to S10 based on the new reference strip and the new target strip, a merged image of the new reference strip and the new target strip is obtained. This new merged image is a merged image of the first to third strips. By sequentially applying such a series of processes to N strips, all merged images of N strips can be obtained (S11: Yes).
(S12:最終的なマージ画像を保存する)
以上に説明した繰り返し処理により最終的に得られたマージ画像は、モーションアーティファクトが補正された画像であり、且つ、ステップS1のリサージュスキャンの適用範囲全体を表現した画像である。主制御部211は、この最終的なマージ画像を記憶部212(及び/又は、他の記憶装置)に保存する。
(S12: Save the final merged image)
The merged image finally obtained by the iterative process described above is an image in which motion artifacts have been corrected and represents the entire applicable range of the resage scan in step S1. The
データ処理部230は、N個のストリップに基づくレジストレーションの結果を利用して、ステップS1で収集されたデータ(3次元データ)、及び/又は、この3次元データから画像構築部220が構築した3次元画像データのレジストレーションを行うことができる。このレジストレーションは、リサージュスキャンの定義座標系を3次元直交座標系(xyz座標系)に変換する処理を含む。この座標変換は、非特許文献1に記載された手法における「remapping」に相当する。主制御部211は、このようにして得られた3次元画像データを、最終的なマージ画像とともに又はその代わりに、記憶部212(及び/又は、他の記憶装置)に保存することができる(エンド)。
The
主制御部211は、最終的なマージ画像を表示部241(及び/又は、他の表示装置)に表示させることができる。また、データ処理部230は、上記座標変換で構築された3次元画像データから任意のレンダリング画像を作成することができる。主制御部211は、このレンダリング画像を表示部241(及び/又は、他の表示装置)に表示させることができる。
The
ここで、ステップS7〜S10の処理の実装例を説明する。まず、f´(r)mf(r)、g´(r)mg(r)、mf(r)、mg(r)、(f´(r)mf(r))2、及び(g´(r)mg(r))2のそれぞれの虚部(imaginary part)を0に設定し、実部(real part)のみにする。 Here, an implementation example of the processing of steps S7 to S10 will be described. First, f'(r) m f (r), g '(r) mg (r), m f (r), mg (r), (f'(r) m f (r)) 2 , And (g '(r) mg (r)) 2 is set to 0 for each imaginary part, and only the real part is set.
次に、f´(r)mf(r)、g´(r)mg(r)、mf(r)、mg(r)、(f´(r)mf(r))2、及び(g´(r)mg(r))2のそれぞれの実部に対して高速フーリエ変換(FFT)を適用する。 Next, f'(r) m f (r), g '(r) mg (r), m f (r), mg (r), (f'(r) m f (r)) 2 , And (g '(r) mg (r)) Apply a fast Fourier transform (FFT) to each real part of 2.
次に、これらの高速フーリエ変換で得られた関数群に基づいて、図6のステップS7に示された6個の相互相関関数を算出する。 Next, the six cross-correlation functions shown in step S7 of FIG. 6 are calculated based on the function group obtained by these fast Fourier transforms.
次に、算出された6個の相互相関関数のそれぞれに逆高速フーリエ変換(IFFT)を適用する。 Next, an inverse fast Fourier transform (IFFT) is applied to each of the calculated six cross-correlation functions.
次に、非特許文献1の式(33)の相関係数ρ(r´)を算出する。
Next, the correlation coefficient ρ (r') of the formula (33) of
そして、相関係数ρ(r´)のピーク位置を特定することによって基準ストリップf(r)と対象ストリップg(r)との間の相対的なシフト量(Δx、Δy)を算出し、このシフト量に基づいて基準ストリップf(r)と対象ストリップg(r)との間のレジストレーション及びマージ処理を実行する。 Then, the relative shift amount (Δx, Δy) between the reference strip f (r) and the target strip g (r) is calculated by specifying the peak position of the correlation coefficient ρ (r ′). A registration and merge process between the reference strip f (r) and the target strip g (r) is performed based on the shift amount.
このような一連の処理をN個のストリップに対して逐次に適用することにより、N個のストリップの全てのマージ画像が得られる。 By sequentially applying such a series of processes to N strips, all merged images of N strips can be obtained.
〈作用、効果等〉
例示的な実施形態の幾つかの特徴について説明し、それらにより奏される幾つかの作用及び幾つかの効果について説明する。
<Action, effect, etc.>
Some features of the exemplary embodiments will be described, and some actions and some effects exerted by them will be described.
上記の例示的な実施形態に係る眼科装置1は、走査型イメージング装置の幾つかの態様を提供する。それに加えて、上記の例示的な実施形態に係る眼科装置1は、走査型イメージング装置を制御する方法の幾つかの態様、画像処理装置の幾つかの態様、画像処理装置を制御する方法の幾つかの態様、画像処理方法の幾つかの態様、及び、走査型イメージング方法の幾つかの態様を提供する。
The
なお、走査型イメージング装置を制御する方法の幾つかの態様、画像処理装置の幾つかの態様、画像処理装置を制御する方法の幾つかの態様、画像処理方法の幾つかの態様、及び、走査型イメージング方法の幾つかの態様のいずれかにおいて説明された事項を、上記の例示的な実施形態に係る眼科装置1(より一般に、走査型イメージング装置のいずれかの態様)に適用することが可能である。 It should be noted that some aspects of the method of controlling the scanning imaging apparatus, some aspects of the image processing apparatus, some aspects of the method of controlling the image processing apparatus, some aspects of the image processing method, and scanning. The matters described in any of several aspects of the type imaging method can be applied to the ophthalmic apparatus 1 (more generally, any aspect of the scanning imaging apparatus) according to the above exemplary embodiment. Is.
さて、例示的な実施形態に係る走査型イメージング装置(眼科装置1)は、走査部と、画像構築部220と、マスク画像生成部231と、範囲調整部232と、合成画像生成部233と、相互相関関数算出部234(第1算出部)と、相関係数算出部235(第2算出部)と、レジストレーション部236と、マージ処理部237とを含む。
The scanning imaging apparatus (ophthalmic apparatus 1) according to the exemplary embodiment includes a scanning unit, an
走査部は、サンプル(被検眼E、眼底Ef)に光走査を適用してデータを収集するように構成されている。この光走査は、一連のサイクルを含む2次元パターンに従って実行される。 The scanning unit is configured to apply optical scanning to a sample (eye to be inspected E, fundus Ef) to collect data. This optical scan is performed according to a two-dimensional pattern that includes a series of cycles.
幾つかの例示的な態様において、光走査の2次元パターンに含まれる一連のサイクルのうちの任意の2つのサイクルは、少なくとも1点で互いに交差していてよい。 In some exemplary embodiments, any two cycles of the series of cycles included in the two-dimensional pattern of optical scanning may intersect each other at at least one point.
更に、幾つかの例示的な態様において、サンプルに適用される光走査は、リサージュ関数に基づき予め設定された走査プロトコルに基づく2次元パターンに従って実行されてよい。このような光走査の一例が、上記の例示的な実施形態におけるリサージュスキャンである。 Further, in some exemplary embodiments, the optical scan applied to the sample may be performed according to a two-dimensional pattern based on a preset scan protocol based on the resage function. An example of such an optical scan is the Lissajous scan in the above exemplary embodiment.
幾つかの例示的な態様において、走査部は、互いに異なる第1方向(x方向)及び第2方向(y方向)に光を偏向可能な偏向器(光スキャナ44)を含み、第1方向に沿った偏向方向の変化を第1周期で繰り返しつつ第2方向に沿った偏向方向の変化を第1周期と異なる第2周期で繰り返すことによって、2次元パターンに従う光走査をサンプルに適用するように構成されていてよい。 In some exemplary embodiments, the scanning unit comprises a deflector (optical scanner 44) capable of deflecting light in different first directions (x directions) and second directions (y directions) and in the first direction. By repeating the change in the deflection direction along the first cycle and the change in the deflection direction along the second direction in the second cycle different from the first cycle, the optical scanning according to the two-dimensional pattern is applied to the sample. It may be configured.
上記の例示的な実施形態において、走査部は、OCTユニット100と、測定アームを構成する眼底カメラユニット2内の要素(リトロリフレクタ41、OCT合焦レンズ43、光スキャナ44、対物レンズ22等)とを含み、被検眼EにOCTスキャンを適用してOCTデータを収集する。
In the above exemplary embodiment, the scanning unit includes an
画像構築部220は、走査部により収集されたデータに基づいて第1画像及び第2画像を構築するように構成されている。上記の例示的な実施形態における基準ストリップ及び対象ストリップの組み合わせは、第1画像及び第2画像の組み合わせの一例である。
The
幾つかの例示的な態様において、光走査の2次元パターンに含まれる一連のサイクルのうちの任意の2つのサイクルが、少なくとも1点で互いに交差する場合、画像構築部220は、一連のサイクルのうちの第1サイクル群に従う光走査で収集された第1データに基づいて第1画像を構築し、且つ、一連のサイクルのうち第1サイクル群と異なる第2サイクル群に従う光走査で収集された第2データに基づいて第2画像を構築するように構成されていてよい。
In some exemplary embodiments, if any two cycles of the series of cycles included in the two-dimensional pattern of optical scanning intersect each other at at least one point, the
例えば、上記の例示的な実施形態におけるリサージュスキャンのように、光走査の2次元パターンがリサージュ関数に基づき予め設定された走査プロトコルに従っている場合、画像構築部220は、この2次元パターンに含まれる一連のサイクルのうちの第1サイクル群に従う光走査で収集された第1データに基づいて第1画像を構築し、且つ、一連のサイクルのうち第1サイクル群と異なる第2サイクル群に従う光走査で収集された第2データに基づいて第2画像を構築するように構成されていてよい。
For example, when the two-dimensional pattern of optical scanning follows a preset scanning protocol based on the resage function, as in the resage scan in the above exemplary embodiment, the
上記の例示的な実施形態では、一連のサイクルに従う光走査から得られたボリュームのうち、比較的大きな動きが介在しない(第1サイクル群に対応する)第1のサブボリュームの正面プロジェクション画像が第1画像(第1のストリップ)に設定され、比較的大きな動きが介在しない(第1サイクル群とは異なる第2サイクル群に対応する)第2のサブボリュームの正面プロジェクション画像が第2画像(第2のストリップ)に設定される。 In the above exemplary embodiment, of the volumes obtained from optical scanning following a series of cycles, the front projection image of the first subvolume (corresponding to the first cycle group) without the intervention of relatively large movements is the first. The front projection image of the second subvolume, which is set to one image (first strip) and does not involve relatively large movements (corresponding to the second cycle group different from the first cycle group), is the second image (second image). 2 strips).
画像構築部220により構築された第1画像及び第2画像について、マスク画像生成部231は、第1画像に応じた第1マスク画像と、第2画像に応じた第2マスク画像とを生成するように構成されている。なお、ここに言う「第1マスク画像」及び「第2マスク画像」は、上記の例示的な実施形態において複数のストリップに付与された順序に対応する「第1のマスク画像」及び「第2のマスク画像」とは異なる。
Regarding the first image and the second image constructed by the
幾つかの例示的な態様において、マスク画像(第1マスク画像、第2マスク画像)の画素値の範囲は、閉区間[0,1]に含まれていてよい。 In some exemplary embodiments, the range of pixel values of the mask image (first mask image, second mask image) may be included in the closed interval [0,1].
更に、幾つかの例示的な態様において、マスク画像(第1マスク画像、第2マスク画像)は、画素値が0又は1の二値画像であってよい。 Further, in some exemplary embodiments, the mask image (first mask image, second mask image) may be a binary image with a pixel value of 0 or 1.
例えば、上記の例示的な実施形態のように、マスク画像(第1マスク画像、第2マスク画像)は、サンプルの画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であってよい。 For example, as in the above exemplary embodiment, the mask image (first mask image, second mask image) has a pixel value of 1 in the region corresponding to the domain of the sample image, and other mask images. It may be a binary image in which the pixel value is 0.
幾つかの例示的な態様において、第1マスク画像及び第2マスク画像は、同じ寸法及び同じ形状を有していてよい。 In some exemplary embodiments, the first mask image and the second mask image may have the same dimensions and the same shape.
範囲調整部232は、第1マスク画像の画素値の範囲及び第2マスク画像の画素値の範囲に基づいて第1画像の画素値の範囲及び第2画像の画素値の範囲を調整するように構成されている。
The
幾つかの例示的な態様において、範囲調整部232は、サンプルの画像(第1画像、第2画像)の画素値の範囲とマスク画像(第1マスク画像、第2マスク画像)の画素値の範囲との間の差を小さくするように構成されていてよい。例えば、上記の例示的な実施形態のように、範囲調整部232は、サンプルの画像(第1画像、第2画像)の画素値の範囲とマスク画像(第1マスク画像、第2マスク画像)の画素値の範囲とを一致させるように構成されていてよい。
In some exemplary embodiments, the
更に、幾つかの例示的な態様において、範囲調整部232は、サンプルの画像(第1画像、第2画像)及びマスク画像(第1マスク画像、第2マスク画像)の一方の画素値の範囲を他方の画素値の範囲に一致させるように構成されてよい。例えば、上記の例示的な実施形態のように、範囲調整部232は、サンプルの画像(第1画像、第2画像)の画素値の範囲をマスク画像(第1マスク画像、第2マスク画像)の画素値の範囲に一致させるように構成されていてよい。すなわち、範囲調整部232は、サンプルの画像(第1画像、第2画像)の画素値の範囲と、マスク画像(第1マスク画像、第2マスク画像)の画素値の範囲とを一致させるために、サンプルの画像(第1画像、第2画像)の画素値の範囲を変更するように構成されてよい。
Further, in some exemplary embodiments, the
幾つかの例示的な態様において、範囲調整部232は、マスク画像(第1マスク画像、第2マスク画像)の画素値の範囲に応じてサンプルの画像(第1画像、第2画像)の画素値の範囲を正規化(規格化)するように構成されていてよい。
In some exemplary embodiments, the
例えば、マスク画像(第1マスク画像、第2マスク画像)の画素値の範囲が閉区間[0,1]に含まれている場合において、範囲調整部232は、サンプルの画像(第1画像、第2画像)の各画素の値を、当該画像における最大画素値で除算することによって、当該画像の画素値の範囲を正規化するように構成されていてよい。
For example, when the range of pixel values of the mask image (first mask image, second mask image) is included in the closed section [0,1], the
他の例において、マスク画像(第1マスク画像、第2マスク画像)の画素値の範囲が閉区間[0,1]に含まれている場合において、範囲調整部232は、サンプルの画像(第1画像、第2画像)の各画素の値を、当該画像の画素値の範囲の最大値で除算することによって、当該画像の画素値の範囲を正規化するように構成されていてよい。
In another example, when the range of pixel values of the mask image (first mask image, second mask image) is included in the closed section [0,1], the
合成画像生成部233は、サンプルの第1画像に第1マスク画像を合成して第1合成画像を生成し、且つ、第2画像に第2マスク画像を合成して第2合成画像を生成するように構成されている。
The composite
幾つかの例示的な態様において、第1マスク画像及び第2マスク画像は、同じ寸法及び同じ形状を有していてよい。更に、第1マスク画像は、第1画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であってよく、且つ、第2マスク画像は、第2画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であってよい。 In some exemplary embodiments, the first mask image and the second mask image may have the same dimensions and the same shape. Further, the first mask image may be a binary image in which the value of the pixel in the region corresponding to the domain of the first image is 1 and the value of the other pixel is 0, and the second mask. The image may be a binary image in which the value of the pixel in the region corresponding to the domain of the second image is 1 and the value of the other pixel is 0.
上記の例示的な実施形態では、第1マスク画像と第2マスク画像とは、同じ寸法及び同じ形状を有する。合成画像生成部233は、任意形状の第1画像及び任意形状の第2画像のそれぞれを、これらマスク画像と同じ寸法及び同じ形状の埋め込み画像に変換するように構成されている。更に、合成画像生成部233は、第1画像の埋め込み画像と第1マスク画像とを合成し、且つ、第2画像の埋め込み画像と第2マスク画像とが合成するように構成されている。
In the above exemplary embodiment, the first mask image and the second mask image have the same dimensions and the same shape. The composite
或いは、上記の例示的な実施形態において、合成画像生成部233は、任意形状の第1画像及び任意形状の第2画像を、互いに同じ寸法及び同じ形状の埋め込み画像にそれぞれ変換するように構成されていてよい。また、マスク画像生成部231は、これらサンプルの画像と同じ寸法及び同じ形状を有する第1マスク画像と第2マスク画像をそれぞれ生成するように構成されていてよい。更に、合成画像生成部233は、第1画像の埋め込み画像と第1マスク画像とを合成し、且つ、第2画像の埋め込み画像と第2マスク画像とが合成するように構成されていてよい。
Alternatively, in the above exemplary embodiment, the composite
相互相関関数算出部234は、合成画像生成部233により生成された第1合成画像及び第2合成画像に基づいて複数の相互相関関数を求めるように構成されている。
The cross-correlation
相関係数算出部235は、相互相関関数算出部234により求められた複数の相互相関関数に基づいて相関係数を算出するように構成されている。
The correlation
レジストレーション部236は、相関係数算出部235により算出された相関係数に基づいて第1画像と第2画像とのレジストレーションを行うように構成されている。
The
マージ処理部237は、レジストレーション部236により実行されたレジストレーションの結果に基づいて第1画像と第2画像とのマージ画像を構築するように構成されている。
The
上記の例示的な実施形態と同様に、幾つかの例示的な態様において、相互相関関数算出部234(第1算出部)、相関係数算出部235(第2算出部)、レジストレーション部236、及びマージ処理部237のそれぞれが実行する処理及びそのための構成(ハードウェア構成、ソフトウェア構成)は、非特許文献1に記載された手法と同様であってよい。ただし、他の手法を採用することを排除するものではない。
Similar to the above exemplary embodiments, in some exemplary embodiments, the cross-correlation function calculation unit 234 (first calculation unit), the correlation coefficient calculation unit 235 (second calculation unit), and the
上記の例示的な実施形態に係る眼科装置1により提供可能な画像処理方法の幾つかの態様を説明する。幾つかの例示的な態様において、画像処理方法は、以下に説明する工程を含んでいてよい。
Some aspects of the image processing method that can be provided by the
(画像準備工程)
サンプルの第1画像及び第2画像が準備される。例えば、通信回線や記録媒体を介してサンプルの第1画像及び第2画像が受け付けられる。或いは、サンプルに光走査を適用してデータが収集され、第1画像及び第2画像が構築される。第1画像及び第2画像のそれぞれは、一連のサイクルを含む2次元パターンに従う走査をサンプルに適用して収集されたデータに基づき構築される。例えば、第1画像及び第2画像のそれぞれは、リサージュ関数に基づき予め設定された走査プロトコルに基づく2次元パターンに従う走査をサンプルに適用して収集されたデータに基づき構築される。
(Image preparation process)
A first image and a second image of the sample are prepared. For example, the first image and the second image of the sample are accepted via a communication line or a recording medium. Alternatively, light scanning is applied to the sample to collect data and construct the first and second images. Each of the first and second images is constructed based on the data collected by applying a scan according to a two-dimensional pattern involving a series of cycles to the sample. For example, each of the first image and the second image is constructed based on the data collected by applying a scan according to a two-dimensional pattern based on a preset scanning protocol based on the resage function to the sample.
(マスク準備工程)
マスク画像が準備される。例えば、通信回線や記録媒体を介してマスク画像が受け付けられる。或いは、(サンプルの画像に基づいて)マスク画像が生成される。マスク画像の画素値の範囲は閉区間[0,1]に含まれていてよい。典型的には、マスク画像は、画素値が0又は1の二値画像であってよい。例えば、マスク画像は、サンプルの画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であってよい。マスク画像は、第1マスク画像と第2マスク画像とを含んでいてよい。第1マスク画像及び第2マスク画像は、同じ寸法及び同じ形状を有していてよい。第1マスク画像は、サンプルの第1画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であってよく、且つ、第2マスク画像は、サンプルの第2画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であってよい。
(Mask preparation process)
A mask image is prepared. For example, a mask image is accepted via a communication line or a recording medium. Alternatively, a mask image is generated (based on the sample image). The range of pixel values of the mask image may be included in the closed interval [0,1]. Typically, the mask image may be a binary image with a pixel value of 0 or 1. For example, the mask image may be a binary image in which the value of the pixel in the region corresponding to the domain of the sample image is 1 and the value of the other pixel is 0. The mask image may include a first mask image and a second mask image. The first mask image and the second mask image may have the same dimensions and the same shape. The first mask image may be a binary image in which the value of the pixel in the region corresponding to the domain of the first image of the sample is 1 and the value of the other pixel is 0, and the second mask. The image may be a binary image in which the value of the pixel in the region corresponding to the domain of the second image of the sample is 1 and the value of the other pixel is 0.
(画像値範囲調整工程)
第1画像の画素値の範囲と第2画像の画素値の範囲とマスク画像の画素値の範囲とが相対的に調整される。画素値の範囲の相対的な調整は、典型的には、サンプルの画像(第1画像、第2画像)の画素値の範囲とマスク画像の画素値の範囲との間の差を小さくするように行われる。例えば、画素値の範囲の相対的な調整は、サンプルの画像(第1画像、第2画像)及びマスク画像の一方の画素値の範囲を他方の画素値の範囲に一致させるように行われる。幾つかの例示的な態様において、画素値の範囲の相対的な調整は、マスク画像の画素値の範囲に応じてサンプルの画像(第1画像、第2画像)の画素値の範囲を正規化する処理を含んでいてよい。マスク画像の画素値の範囲が閉区間[0,1]に含まれる場合において、正規化は、サンプルの画像(第1画像、第2画像)の各画素の値を、当該画像における最大画素値で除算する処理を含んでいてよい。或いは、マスク画像の画素値の範囲が閉区間[0,1]に含まれる場合において、正規化は、サンプルの画像(第1画像、第2画像)の各画素の値を、当該画像の画素値の範囲の最大値で除算する処理を含んでいてよい。
(Image value range adjustment process)
The pixel value range of the first image, the pixel value range of the second image, and the pixel value range of the mask image are relatively adjusted. Relative adjustment of the pixel value range typically reduces the difference between the pixel value range of the sample image (first and second images) and the pixel value range of the mask image. It is done in. For example, the relative adjustment of the pixel value range is performed so that the pixel value range of one of the sample images (first image, second image) and the mask image matches the pixel value range of the other. In some exemplary embodiments, the relative adjustment of the pixel value range normalizes the pixel value range of the sample image (first image, second image) according to the pixel value range of the mask image. It may include the processing to be performed. When the range of pixel values of the mask image is included in the closed interval [0,1], the normalization sets the value of each pixel of the sample image (first image, second image) to the maximum pixel value in the image. It may include a process of dividing by. Alternatively, when the range of pixel values of the mask image is included in the closed interval [0,1], the normalization sets the value of each pixel of the sample image (first image, second image) to the pixel of the image. It may include a process of dividing by the maximum value in the range of values.
(合成画像生成工程)
画像値範囲調整工程の後、第1画像及び第2画像のそれぞれにマスク画像が合成されて第1合成画像及び第2合成画像が生成される。マスク画像が、第1マスク画像と第2マスク画像とを含む場合において、合成画像生成工程は、第1マスク画像を第1画像に合成して第1合成画像を生成する工程と、第2マスク画像を第2画像に合成して第2合成画像を生成する工程とを含んでいてよい。ここで、第1マスク画像及び第2マスク画像は、同じ寸法及び同じ形状を有していてもよい。また、第1マスク画像は、第1画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であってよく、且つ、第2マスク画像は、第2画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像であってよい。
(Composite image generation process)
After the image value range adjusting step, the mask image is combined with each of the first image and the second image to generate the first composite image and the second composite image. When the mask image includes the first mask image and the second mask image, the composite image generation step includes a step of synthesizing the first mask image with the first image to generate the first composite image and a second mask. It may include a step of synthesizing an image with a second image to generate a second composite image. Here, the first mask image and the second mask image may have the same dimensions and the same shape. Further, the first mask image may be a binary image in which the value of the pixel in the region corresponding to the domain of the first image is 1 and the value of the other pixel is 0, and the second mask. The image may be a binary image in which the value of the pixel in the region corresponding to the domain of the second image is 1 and the value of the other pixel is 0.
(相互相関関数算出工程)
合成画像生成工程によって生成された第1合成画像及び第2合成画像に基づいて複数の相互相関関数が求められる。この工程は、典型的には、非特許文献1に記載された手法に従って行われるが、これに限定されるものではない。
(Cross-correlation function calculation process)
A plurality of cross-correlation functions are obtained based on the first composite image and the second composite image generated by the composite image generation step. This step is typically performed according to the method described in
(相関係数算出工程)
相互相関関数算出工程において求められた複数の相互相関関数に基づいて相関係数が算出される。この工程は、典型的には、非特許文献1に記載された手法に従って行われるが、これに限定されるものではない。
(Correlation coefficient calculation process)
The correlation coefficient is calculated based on a plurality of cross-correlation functions obtained in the cross-correlation function calculation step. This step is typically performed according to the method described in
(レジストレーション工程)
相関係数算出工程において算出された相関係数に基づいてサンプルの第1画像と第2画像との間のレジストレーションが行われる。この工程は、典型的には、非特許文献1に記載された手法に従って行われるが、これに限定されるものではない。
(Registration process)
Registration is performed between the first image and the second image of the sample based on the correlation coefficient calculated in the correlation coefficient calculation step. This step is typically performed according to the method described in
幾つかの例示的な態様において、画像処理方法は、マージ画像構築工程を更に含んでいてよい。マージ画像構築工程では、レジストレーション工程において行われたレジストレーションの結果(例えば、サンプルの第1画像と第2画像との間の相対的シフト量)に基づいて第1画像と第2画像とのマージ画像が構築される。 In some exemplary embodiments, the image processing method may further include a merged image construction step. In the merged image construction step, the first image and the second image are combined based on the result of the registration performed in the registration step (for example, the relative shift amount between the first image and the second image of the sample). The merged image is constructed.
幾つかの例示的な態様において、画像処理方法は、上記の例示的な実施形態において説明された工程のいずれかを更に含んでいてもよい。 In some exemplary embodiments, the image processing method may further comprise any of the steps described in the exemplary embodiments described above.
上記の例示的な実施形態に係る眼科装置1により提供可能な走査型イメージング方法の幾つかの態様を説明する。幾つかの例示的な態様において、走査型イメージング方法は、以下に説明する工程を含んでいてよい。なお、幾つかの例示的な態様において、走査型イメージング方法は、上記の例示的な実施形態において説明された工程のいずれか、及び/又は、上記の画像処理方法の例示的な態様で説明された工程のいずれかを更に含んでいてもよい。
Some aspects of the scanning imaging method that can be provided by the
(走査工程)
一連のサイクルを含む2次元パターンに従う光走査がサンプルに適用され、データが収集される。典型的には、一連のサイクルのうちの任意の2つのサイクルは、少なくとも1点で互いに交差する。例えば、2次元パターンに従う光走査は、リサージュ関数に基づき予め設定された走査プロトコルに基づいて行われる。
(Scanning process)
An optical scan that follows a two-dimensional pattern involving a series of cycles is applied to the sample and data is collected. Typically, any two cycles of the series intersect each other at at least one point. For example, optical scanning according to a two-dimensional pattern is performed based on a preset scanning protocol based on a Lissajous function.
(画像構築工程)
走査工程で収集されたデータに基づいて第1画像及び第2画像が構築される。一連のサイクルのうちの任意の2つのサイクルが少なくとも1点で互いに交差する場合(例えば、リサージュ関数に基づき予め設定された走査プロトコルに基づいて2次元パターンに従う光走査が行われる場合)、一連のサイクルのうちの第1サイクル群に従う光走査で収集された第1データに基づいて第1画像が構築されてよく、且つ、一連のサイクルのうち第1サイクル群と異なる第2サイクル群に従う光走査で収集された第2データに基づいて第2画像が構築されてよい。
(Image construction process)
The first image and the second image are constructed based on the data collected in the scanning process. When any two cycles of the series intersect each other at at least one point (eg, when optical scanning is performed according to a two-dimensional pattern based on a preset scanning protocol based on the Lissajous function). The first image may be constructed based on the first data collected by the optical scan according to the first cycle group of the cycles, and the optical scan according to the second cycle group different from the first cycle group in the series of cycles. A second image may be constructed based on the second data collected in.
(画像値範囲調整工程)
第1画像の画素値の範囲と第2画像の画素値の範囲とマスク画像の画素値の範囲とが相対的に調整される。
(Image value range adjustment process)
The pixel value range of the first image, the pixel value range of the second image, and the pixel value range of the mask image are relatively adjusted.
(合成画像生成工程)
画像値範囲調整工程の後、第1画像及び第2画像のそれぞれにマスク画像が合成されて第1合成画像及び第2合成画像が生成される。
(Composite image generation process)
After the image value range adjusting step, the mask image is combined with each of the first image and the second image to generate the first composite image and the second composite image.
(相互相関関数算出工程)
合成画像生成工程で生成された第1合成画像及び第2合成画像に基づいて複数の相互相関関数が求められる。
(Cross-correlation function calculation process)
A plurality of cross-correlation functions are obtained based on the first composite image and the second composite image generated in the composite image generation step.
(相関係数算出工程)
相互相関関数算出工程で求められた複数の相互相関関数に基づいて相関係数が算出される。
(Correlation coefficient calculation process)
The correlation coefficient is calculated based on a plurality of cross-correlation functions obtained in the cross-correlation function calculation step.
(レジストレーション工程)
相関係数算出工程で算出された相関係数に基づいてサンプルの第1画像と第2画像との間のレジストレーションが行われる。
(Registration process)
Registration is performed between the first image and the second image of the sample based on the correlation coefficient calculated in the correlation coefficient calculation step.
(マージ画像構築工程)
レジストレーションの結果に基づいてサンプルの第1画像と第2画像とのマージ画像が構築される。
(Merge image construction process)
A merged image of the first and second images of the sample is constructed based on the registration result.
幾つかの例示的な態様において、走査型イメージング方法は、以下の付加的工程を含んでいてよい。 In some exemplary embodiments, the scanning imaging method may include the following additional steps:
第1の付加的工程において、走査工程においてサンプルから収集されたデータに基づいて第3画像が構築される。上記の例示的な実施形態では、第3のストリップが構築される。 In the first additional step, a third image is constructed based on the data collected from the sample in the scanning step. In the above exemplary embodiment, a third strip is constructed.
第2の付加的工程において、第3画像の画素値の範囲と、マージ画像構築工程で構築されたマージ画像の画素値の範囲と、マスク画像の画素値の範囲とが、相対的に調整される。上記の例示的な実施形態では、第3のストリップと、第3のストリップに対応するマスク画像と、第1のストリップ及び第2のストリップのマージ画像と、このマージ画像に対応するマスク画像とについて、画素値範囲調整が適用される。 In the second additional step, the pixel value range of the third image, the pixel value range of the merged image constructed in the merged image construction step, and the pixel value range of the mask image are relatively adjusted. To. In the above exemplary embodiment, the third strip, the mask image corresponding to the third strip, the merged image of the first strip and the second strip, and the mask image corresponding to the merged image. , Pixel value range adjustment is applied.
第3の付加的工程において、第3画像及びマージ画像のそれぞれに当該マスク画像を合成して第3合成画像及び第4合成画像が生成される。上記の例示的な実施形態では、第3のストリップとこれに対応するマスク画像との合成画像が生成され、且つ、第1のストリップ及び第2のストリップのマージ画像とこれに対応するマスク画像との合成画像が生成される。 In the third additional step, the mask image is combined with the third image and the merged image, respectively, to generate the third composite image and the fourth composite image. In the above exemplary embodiment, a composite image of the third strip and the corresponding mask image is generated, and the merged image of the first and second strips and the corresponding mask image A composite image of is generated.
第4の付加的工程において、第3合成画像及び第4合成画像に基づいて複数の相互相関関数が求められる。上記の例示的な実施形態では、第3のストリップとこれに対応するマスク画像との合成画像と、上記マージ画像とこれに対応するマスク画像との合成画像とに基づいて、複数の相互相関関数が求められる。 In the fourth additional step, a plurality of cross-correlation functions are obtained based on the third composite image and the fourth composite image. In the above exemplary embodiment, a plurality of cross-correlation functions are based on a composite image of the third strip and the corresponding mask image, and a composite image of the merged image and the corresponding mask image. Is required.
第5の付加的工程において、第4の付加的工程で求められた複数の相互相関関数に基づいて相関係数が算出される。上記の例示的な実施形態では、第3のストリップに基づく合成画像及びマージ画像に基づく合成画像を用いて求められた複数の相互相関関数に基づいて、相関係数が算出される。 In the fifth additional step, the correlation coefficient is calculated based on the plurality of cross-correlation functions obtained in the fourth additional step. In the above exemplary embodiment, the correlation coefficient is calculated based on a plurality of cross-correlation functions obtained using the composite image based on the third strip and the composite image based on the merged image.
第6の付加的工程において、第5の付加的工程で算出された相関係数に基づいて第3画像と第4画像とのレジストレーションが行われる。上記の例示的な実施形態では、第3のストリップに基づく合成画像及びマージ画像に基づく合成画像を用いて算出された相関係数に基づいて、このマージ画像(第1のストリップ及び第2のストリップのマージ画像)と第3のストリップとの間のレジストレーションが行われる。 In the sixth additional step, registration between the third image and the fourth image is performed based on the correlation coefficient calculated in the fifth additional step. In the above exemplary embodiment, the merged image (first strip and second strip) is based on the correlation coefficient calculated using the composite image based on the third strip and the composite image based on the merged image. Registration between the merged image) and the third strip is performed.
第7の付加的工程において、第6の付加的工程で実行されたレジストレーションの結果に基づいて第3画像とマージ画像とがマージされる。上記の例示的な実施形態では、マージ画像と第3のストリップとのレジストレーションの結果(相対的なシフト量)に基づいて、このマージ画像(第1のストリップ及び第2のストリップのマージ画像)に対して第3のストリップがマージされる。 In the seventh additional step, the third image and the merged image are merged based on the result of the registration performed in the sixth additional step. In the above exemplary embodiment, the merged image (the merged image of the first and second strips) is based on the result of registration (relative shift amount) between the merged image and the third strip. The third strip is merged against.
なお、ここでは、第1のストリップ及び第2のストリップのマージ画像と、第3のストリップとに対する処理を例として説明したが、一般に、上記の例示的な実施形態で説明した通り、第1〜第nのストリップのマージ画像と、第n+1のストリップとに対する処理も、同じ要領で実行される(n=2、3、・・・、N−1)。 Here, the processing for the merged image of the first strip and the second strip and the third strip has been described as an example, but generally, as described in the above exemplary embodiment, the first to first strips have been described. The processing for the merged image of the nth strip and the n + 1th strip is also executed in the same manner (n = 2, 3, ..., N-1).
上記の例示的な実施形態に係る眼科装置1により提供可能な画像処理装置の幾つかの態様を説明する。幾つかの例示的な態様において、画像処理装置は、以下に説明する要素を含んでいてよい。なお、幾つかの例示的な態様において、画像処理装置は、上記の例示的な実施形態において説明された要素のいずれか、上記の画像処理方法の例示的な態様で説明された工程を実行するように構成された要素のいずれか、及び、上記の走査型イメージング方法の例示的な態様で説明された工程を実行するように構成された要素のいずれか、のうちのいずれかを更に含んでいてもよい。
Some aspects of the image processing apparatus that can be provided by the
例示的な態様に係る画像処理装置は、記憶部と、マスク画像生成部と、範囲調整部と、合成画像生成部と、第1算出部と、第2算出部と、レジストレーション部とを含む。 The image processing apparatus according to the exemplary embodiment includes a storage unit, a mask image generation unit, a range adjustment unit, a composite image generation unit, a first calculation unit, a second calculation unit, and a registration unit. ..
記憶部は、サンプルの第1画像及び第2画像を記憶する。上記の例示的な実施形態において、この記憶部は記憶部212に相当する。
The storage unit stores the first image and the second image of the sample. In the above exemplary embodiment, this storage unit corresponds to the
マスク画像生成部は、第1画像に応じた第1マスク画像と第2画像に応じた第2マスク画像とを生成するように構成される。上記の例示的な実施形態において、マスク画像生成部はマスク画像生成部231に相当する。
The mask image generation unit is configured to generate a first mask image corresponding to the first image and a second mask image corresponding to the second image. In the above exemplary embodiment, the mask image generation unit corresponds to the mask
範囲調整部は、第1マスク画像の画素値の範囲及び第2マスク画像の画素値の範囲に基づいて第1画像の画素値の範囲及び第2画像の画素値の範囲を調整するように構成される。上記の例示的な実施形態において、範囲調整部は範囲調整部232に相当する。
The range adjusting unit is configured to adjust the pixel value range of the first image and the pixel value range of the second image based on the pixel value range of the first mask image and the pixel value range of the second mask image. Will be done. In the above exemplary embodiment, the range adjusting unit corresponds to the
合成画像生成部は、第1画像に第1マスク画像を合成して第1合成画像を生成し、且つ、第2画像に第2マスク画像を合成して第2合成画像を生成するように構成される。上記の例示的な実施形態において、合成画像生成部は合成画像生成部233に相当する。
The composite image generation unit is configured to synthesize the first mask image with the first image to generate the first composite image, and to synthesize the second mask image with the second image to generate the second composite image. Will be done. In the above exemplary embodiment, the composite image generation unit corresponds to the composite
第1算出部は、第1合成画像及び第2合成画像に基づいて複数の相互相関関数を求めるように構成される。上記の例示的な実施形態において、第1算出部は相互相関関数算出部234に相当する。
The first calculation unit is configured to obtain a plurality of cross-correlation functions based on the first composite image and the second composite image. In the above exemplary embodiment, the first calculation unit corresponds to the cross-correlation
第2算出部は、複数の相互相関関数に基づいて相関係数を算出するように構成される。上記の例示的な実施形態において、第2算出部は相関係数算出部235に相当する。
The second calculation unit is configured to calculate the correlation coefficient based on a plurality of cross-correlation functions. In the above exemplary embodiment, the second calculation unit corresponds to the correlation
レジストレーション部は、相関係数に基づいて第1画像と第2画像とのレジストレーションを行うように構成される。上記の例示的な実施形態において、レジストレーション部はレジストレーション部236に相当する。
The registration unit is configured to perform registration between the first image and the second image based on the correlation coefficient. In the above exemplary embodiment, the registration unit corresponds to the
幾つかの例示的な態様において、画像処理装置は、マージ処理部を更に含んでいてよい。マージ処理部は、レジストレーションの結果に基づいて第1画像と第2画像とのマージ画像を構築するように構成される。 In some exemplary embodiments, the image processing apparatus may further include a merge processing unit. The merge processing unit is configured to construct a merged image of the first image and the second image based on the registration result.
幾つかの例示的な態様において、画像処理装置は、データ受付部と、画像構築部とを更に含んでいてよい。 In some exemplary embodiments, the image processing apparatus may further include a data receiving unit and an image building unit.
データ受付部は、一連のサイクルを含む2次元パターンに従う光走査によりサンプルから収集されたデータを受け付けるように構成される。データ受付部は、例えば、通信回線又は記録媒体を介してデータを受け付けるように構成されていてよい。上記の例示的な実施形態において、データ受付部は、眼科装置1に設けられた通信デバイスに相当する。
The data receiving unit is configured to receive data collected from a sample by optical scanning according to a two-dimensional pattern including a series of cycles. The data receiving unit may be configured to receive data via, for example, a communication line or a recording medium. In the above exemplary embodiment, the data receiving unit corresponds to a communication device provided in the
画像構築部は、データ受付部により受け付けられたデータに基づいて第1画像及び第2画像を構築する。上記の例示的な実施形態において、画像構築部は画像構築部220に相当する。画像構築部により構築された第1画像及び第2画像は記憶部に記憶される。
The image construction unit constructs the first image and the second image based on the data received by the data reception unit. In the above exemplary embodiment, the image construction unit corresponds to the
幾つかの例示的な態様において、データ受付部は、一連のサイクルを含む2次元パターンに従う光走査によりサンプルから収集されたデータに基づき構築された第1画像及び第2画像を受け付けるように構成されてよい。この場合、データ受付部により受け付けられた第1画像及び第2画像が記憶部に記憶される。 In some exemplary embodiments, the data receiver is configured to accept first and second images constructed based on data collected from a sample by optical scanning according to a two-dimensional pattern involving a series of cycles. You can. In this case, the first image and the second image received by the data receiving unit are stored in the storage unit.
幾つかの例示的な態様において、データ受付部は、一連のサイクルを含む2次元パターンに従う光走査によりサンプルから収集されたデータに基づき構築された3次元画像データを受け付けるように構成されてよい。この場合、画像構築部は、データ受付部により受け付けられた3次元画像データに基づいて第1画像及び第2画像を構築するように構成される。画像構築部により構築された第1画像及び第2画像は記憶部に記憶される。 In some exemplary embodiments, the data receiving unit may be configured to receive 3D image data constructed based on data collected from a sample by optical scanning according to a 2D pattern involving a series of cycles. In this case, the image construction unit is configured to construct the first image and the second image based on the three-dimensional image data received by the data reception unit. The first image and the second image constructed by the image construction unit are stored in the storage unit.
上記の例示的な実施形態に係る眼科装置1により提供可能な、画像処理装置の制御方法の幾つかの態様を説明する。幾つかの例示的な態様において、画像処理装置の制御方法は、以下に説明する工程を含んでいてよい。なお、幾つかの例示的な態様において、画像処理装置の制御方法は、上記の例示的な実施形態において説明された工程のいずれか、上記の画像処理方法の例示的な態様で説明された工程のいずれか、上記の走査型イメージング方法の例示的な態様で説明された工程のいずれか、及び、上記の画像処理装置の例示的な態様で説明された要素により実行される工程のいずれか、のうちのいずれかを更に含んでいてもよい。
Some aspects of the image processing apparatus control method that can be provided by the
例示的な態様は、サンプルの第1画像及び第2画像を記憶する記憶部と、プロセッサとを含む画像処理装置を制御する方法であって、このプロセッサが以下の工程を実行するように制御を行う。なお、上記の例示的な実施形態において、記憶部は記憶部212に相当し、プロセッサは少なくともデータ処理部230に相当する。
An exemplary embodiment is a method of controlling an image processing unit including a storage unit for storing first and second images of a sample and a processor, which controls the processor to perform the following steps. Do. In the above exemplary embodiment, the storage unit corresponds to the
プロセッサは、第1画像に応じた第1マスク画像と第2画像に応じた第2マスク画像とを生成するように制御される。例えば、上記の例示的な実施形態において、データ処理部230は、マスク画像生成部231として動作するように制御される。
The processor is controlled to generate a first mask image corresponding to the first image and a second mask image corresponding to the second image. For example, in the above exemplary embodiment, the
また、プロセッサは、第1マスク画像の画素値の範囲及び第2マスク画像の画素値の範囲に基づいて第1画像の画素値の範囲及び第2画像の画素値の範囲を調整するように制御される。例えば、上記の例示的な実施形態において、データ処理部230は、範囲調整部232として動作するように制御される。
Further, the processor controls to adjust the pixel value range of the first image and the pixel value range of the second image based on the pixel value range of the first mask image and the pixel value range of the second mask image. Will be done. For example, in the above exemplary embodiment, the
また、プロセッサは、第1画像に第1マスク画像を合成して第1合成画像を生成し、且つ、第2画像に第2マスク画像を合成して第2合成画像を生成するように制御される。例えば、上記の例示的な実施形態において、データ処理部230は、合成画像生成部233として動作するように制御される。
Further, the processor is controlled so as to synthesize the first mask image with the first image to generate the first composite image, and to synthesize the second mask image with the second image to generate the second composite image. To. For example, in the above exemplary embodiment, the
また、プロセッサは、第1合成画像及び第2合成画像に基づいて複数の相互相関関数を求めるように制御される。例えば、上記の例示的な実施形態において、データ処理部230は、相互相関関数算出部234として動作するように制御される。
Further, the processor is controlled to obtain a plurality of cross-correlation functions based on the first composite image and the second composite image. For example, in the above exemplary embodiment, the
また、プロセッサは、複数の相互相関関数に基づいて相関係数を算出するように制御される。例えば、上記の例示的な実施形態において、データ処理部230は、相関係数算出部235として動作するように制御される。
In addition, the processor is controlled to calculate the correlation coefficient based on a plurality of cross-correlation functions. For example, in the above exemplary embodiment, the
また、プロセッサは、相関係数に基づいて第1画像と第2画像とのレジストレーションを行うように制御される。例えば、上記の例示的な実施形態において、データ処理部230は、レジストレーション部236として動作するように制御される。
Further, the processor is controlled to perform registration between the first image and the second image based on the correlation coefficient. For example, in the above exemplary embodiment, the
幾つかの例示的な実施形態において、プロセッサは、レジストレーションの結果に基づいて第1画像と第2画像とのマージ画像を構築するように制御されてよい。例えば、上記の例示的な実施形態において、データ処理部230は、マージ処理部237として動作するように制御される。
In some exemplary embodiments, the processor may be controlled to build a merged image of the first and second images based on the results of registration. For example, in the above exemplary embodiment, the
上記の例示的な実施形態に係る眼科装置1により提供可能な、走査型イメージング装置の制御方法の幾つかの態様を説明する。幾つかの例示的な態様において、走査型イメージング装置の制御方法は、以下に説明する工程を含んでいてよい。なお、幾つかの例示的な態様において、走査型イメージング装置の制御方法は、上記の例示的な実施形態において説明された工程のいずれか、上記の画像処理方法の例示的な態様で説明された工程のいずれか、上記の走査型イメージング方法の例示的な態様で説明された工程のいずれか、上記の画像処理装置の例示的な態様で説明された要素により実行される工程のいずれか、及び、上記の画像処理装置の例示的な態様で説明された工程のいずれか、のうちのいずれかを更に含んでいてもよい。
Some aspects of the control method of the scanning imaging apparatus that can be provided by the
例示的な態様は、サンプルに光走査を適用してデータを収集する走査部と、プロセッサとを含む走査型イメージング装置を制御する方法であって、走査部及びプロセッサが以下の工程を実行するように制御を行う。なお、上記の例示的な実施形態において、走査部は、OCTユニット100と、測定アームを構成する眼底カメラユニット2内の要素(リトロリフレクタ41、OCT合焦レンズ43、光スキャナ44、対物レンズ22等)とを含む。また、プロセッサは、画像構築部220及びデータ処理部230に相当する。
An exemplary embodiment is a method of controlling a scanning imaging apparatus including a scanning unit that applies optical scanning to a sample to collect data and a processor, such that the scanning unit and the processor perform the following steps. To control. In the above exemplary embodiment, the scanning unit includes the
走査部は、一連のサイクルを含む2次元パターンに従う光走査をサンプルに適用してデータを収集するように制御される。 The scanning unit is controlled to apply optical scanning according to a two-dimensional pattern including a series of cycles to the sample to collect data.
また、プロセッサ(上記の例示的な実施形態では画像構築部220)は、走査部により収集されたデータに基づいて第1画像及び第2画像を構築するように制御される。
In addition, the processor (
また、プロセッサ(上記の例示的な実施形態ではデータ処理部230)は、第1画像に応じた第1マスク画像と第2画像に応じた第2マスク画像とを生成するように制御される。
Further, the processor (
また、プロセッサ(上記の例示的な実施形態ではデータ処理部230)は、第1マスク画像の画素値の範囲及び第2マスク画像の画素値の範囲に基づいて第1画像の画素値の範囲及び第2画像の画素値の範囲を調整するように制御される。
Further, the processor (
また、プロセッサ(上記の例示的な実施形態ではデータ処理部230)は、第1画像に第1マスク画像を合成して第1合成画像を生成し、且つ、第2画像に第2マスク画像を合成して第2合成画像を生成するように制御される。
Further, the processor (
また、プロセッサ(上記の例示的な実施形態ではデータ処理部230)は、第1合成画像及び第2合成画像に基づいて複数の相互相関関数を求めるように制御される。
Further, the processor (
また、プロセッサ(上記の例示的な実施形態ではデータ処理部230)は、複数の相互相関関数に基づいて相関係数を算出するように制御される。
Further, the processor (
また、プロセッサ(上記の例示的な実施形態ではデータ処理部230)は、相関係数に基づいて第1画像と第2画像とのレジストレーションを行うように制御される。
Further, the processor (
また、プロセッサ(上記の例示的な実施形態ではデータ処理部230)は、レジストレーションの結果に基づいて第1画像と前記第2画像とのマージ画像を構築するように制御される。
Further, the processor (
幾つかの例示的な態様において、走査型イメージング装置を制御する方法のいずれかの態様をコンピュータに実行させるプログラム、画像処理装置を制御する方法のいずれかの態様をコンピュータに実行させるプログラム、画像処理方法のいずれかの態様をコンピュータに実行させるプログラム、又は、走査型イメージング方法のいずれかの態様をコンピュータに実行させるプログラムを提供することが可能である。 In some exemplary embodiments, a program that causes the computer to execute any aspect of the method of controlling the scanning imaging apparatus, a program that causes the computer to execute any aspect of the method of controlling the image processing apparatus, and image processing. It is possible to provide a program that causes a computer to execute any aspect of the method, or a program that causes a computer to execute any aspect of the scanning imaging method.
また、このようなプログラムを記録したコンピュータ可読な非一時的記録媒体を作成することが可能である。この非一時的記録媒体は任意の形態であってよく、その例として、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどがある。 It is also possible to create a computer-readable non-temporary recording medium on which such a program is recorded. The non-temporary recording medium may be in any form, and examples thereof include a magnetic disk, an optical disk, a magneto-optical disk, and a semiconductor memory.
以上に説明した幾つかの例示的な態様によれば、マスク画像を利用した画像レジストレーションにおいて、サンプルの画像の画素値の範囲とマスク画像の画素値の範囲とを相対的に調整した上で、レジストレーションのための処理を行うことが可能である。 According to some exemplary embodiments described above, in image registration using a mask image, the pixel value range of the sample image and the pixel value range of the mask image are relatively adjusted. , It is possible to perform processing for registration.
これにより、サンプルの画像の画素値の範囲とマスク画像の画素値の範囲との間の差を小さくすることができる。例えば、サンプルの画像の画素値の大きさと、マスク画像の画素値の大きさとを(ほぼ)一致させることが可能である。 Thereby, the difference between the pixel value range of the sample image and the pixel value range of the mask image can be reduced. For example, it is possible to (almost) match the size of the pixel value of the sample image with the size of the pixel value of the mask image.
したがって、サンプルの画像とマスク画像とを用いた相関演算においてマスク画像の効果が無視されるという従来の問題を解決することができ、正しい相関係数を得ることが可能となる。 Therefore, it is possible to solve the conventional problem that the effect of the mask image is ignored in the correlation calculation using the sample image and the mask image, and it is possible to obtain a correct correlation coefficient.
特に、サンプルの画像同士の相関係数を求めるために単精度浮動小数点型(フロート型)の演算が用いられる場合であっても、有効桁数の少なさに起因する丸め誤差の影響を排除することや小さくすることが可能である。 In particular, even when a single-precision floating-point type (float type) operation is used to obtain the correlation coefficient between sample images, the effect of rounding error due to the small number of significant digits should be eliminated. It can be made smaller.
また、複数の相互相関関数から相関係数を算出するアルゴリズムにおいては、個々の相互相関関数に起因する誤差の重ね合わせにより、最終的な相関係数の誤差が大きくなる可能性がある。このような問題に関し、例示的な態様によれば、個々の相互相関関数に起因する誤差を排除することや小さくすることができるため、確度の高い相関係数を得ることが可能である。 Further, in the algorithm for calculating the correlation coefficient from a plurality of cross-correlation functions, the error of the final correlation coefficient may become large due to the superposition of the errors caused by the individual cross-correlation functions. With respect to such a problem, according to an exemplary embodiment, it is possible to eliminate or reduce the error caused by each cross-correlation function, so that it is possible to obtain a highly accurate correlation coefficient.
このように、以上に説明した幾つかの例示的な態様は、マスク画像を用いた画像レジストレーションの正確性の向上に寄与するものである。 As described above, some of the exemplary embodiments described above contribute to the improvement of the accuracy of image registration using the mask image.
本開示は、幾つかの態様を例示するものに過ぎず、発明の限定を意図したものではない。この発明を実施しようとする者は、この発明の要旨の範囲内における任意の変形(省略、置換、付加など)を施すことが可能である。 The present disclosure merely illustrates some aspects and is not intended to limit the invention. A person who intends to carry out the present invention can make arbitrary modifications (omission, substitution, addition, etc.) within the scope of the gist of the present invention.
1 眼科装置
44 光スキャナ
100 OCTユニット
211 主制御部
2111 走査制御部
212 記憶部
2121 走査プロトコル
220 画像構築部
230 データ処理部
231 マスク画像生成部
232 範囲調整部
233 合成画像生成部
234 相互相関関数算出部
235 相関係数算出部
236 レジストレーション部
237 マージ処理部
1
Claims (25)
マスク画像を準備し、
前記第1画像の画素値の範囲と前記第2画像の画素値の範囲と前記マスク画像の画素値の範囲とを相対的に調整し、
前記第1画像及び前記第2画像のそれぞれに前記マスク画像を合成して第1合成画像及び第2合成画像を生成し、
前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求め、
前記複数の相互相関関数に基づいて相関係数を算出し、
前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行う、
画像処理方法。 Prepare the first and second images of the sample,
Prepare the mask image and
The pixel value range of the first image, the pixel value range of the second image, and the pixel value range of the mask image are relatively adjusted.
The mask image is combined with each of the first image and the second image to generate a first composite image and a second composite image.
A plurality of cross-correlation functions were obtained based on the first composite image and the second composite image.
The correlation coefficient is calculated based on the plurality of cross-correlation functions, and the correlation coefficient is calculated.
Registration between the first image and the second image is performed based on the correlation coefficient.
Image processing method.
請求項1の画像処理方法。 To reduce the difference between the pixel value range of the sample image and the pixel value range of the mask image.
The image processing method of claim 1.
請求項2の画像処理方法。 Match the range of one pixel value of the sample image and the mask image to the range of the other pixel value.
The image processing method of claim 2.
請求項3の画像処理方法。 Normalize the pixel value range of the sample image according to the pixel value range of the mask image.
The image processing method of claim 3.
前記サンプルの画像の各画素の値を、当該画像における最大画素値で除算する、
請求項4の画像処理方法。 The range of pixel values of the mask image is included in the closed interval [0,1].
Divide the value of each pixel in the sample image by the maximum pixel value in the image.
The image processing method of claim 4.
前記サンプルの画像の各画素の値を、当該画像の画素値の範囲の最大値で除算する、
請求項4の画像処理方法。 The range of pixel values of the mask image is included in the closed interval [0,1].
Divide the value of each pixel of the sample image by the maximum value in the pixel value range of the image.
The image processing method of claim 4.
請求項1〜6のいずれかの画像処理方法。 The mask image is a binary image having a pixel value of 0 or 1.
The image processing method according to any one of claims 1 to 6.
請求項7の画像処理方法。 The mask image is a binary image in which the value of a pixel in the region corresponding to the domain of the sample image is 1 and the value of the other pixel is 0.
The image processing method of claim 7.
前記第1マスク画像を前記第1画像に合成して前記第1合成画像を生成し、
前記第2マスク画像を前記第2画像に合成して前記第2合成画像を生成する、
請求項1〜8のいずれかの画像処理方法。 The mask image includes a first mask image and a second mask image.
The first mask image is combined with the first image to generate the first composite image.
The second mask image is combined with the second image to generate the second composite image.
The image processing method according to any one of claims 1 to 8.
請求項9の画像処理方法。 The first mask image and the second mask image have the same dimensions and the same shape.
The image processing method of claim 9.
前記第2マスク画像は、前記第2画像の定義域に対応する領域内の画素の値が1であり、他の画素の値が0である二値画像である、
請求項9又は10の画像処理方法。 The first mask image is a binary image in which the value of the pixel in the region corresponding to the domain of the first image is 1 and the value of the other pixel is 0.
The second mask image is a binary image in which the value of the pixel in the region corresponding to the domain of the second image is 1 and the value of the other pixel is 0.
The image processing method according to claim 9 or 10.
請求項1〜11のいずれかの画像処理方法。 Each of the first image and the second image is constructed based on the data collected by applying a scan according to a two-dimensional pattern including a series of cycles to the sample.
The image processing method according to any one of claims 1 to 11.
請求項12の画像処理方法。 Each of the first image and the second image is constructed based on data collected by applying a scan according to a two-dimensional pattern based on a preset scanning protocol based on a resage function to the sample.
The image processing method according to claim 12.
前記データに基づいて第1画像及び第2画像を構築し、
前記第1画像の画素値の範囲と前記第2画像の画素値の範囲とマスク画像の画素値の範囲とを相対的に調整し、
前記第1画像及び前記第2画像のそれぞれに前記マスク画像を合成して第1合成画像及び第2合成画像を生成し、
前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求め、
前記複数の相互相関関数に基づいて相関係数を算出し、
前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行い、
前記レジストレーションの結果に基づいて前記第1画像と前記第2画像とのマージ画像を構築する、
走査型イメージング方法。 Data is collected by applying an optical scan to the sample that follows a two-dimensional pattern involving a series of cycles.
The first image and the second image are constructed based on the above data, and the first image and the second image are constructed.
The pixel value range of the first image, the pixel value range of the second image, and the pixel value range of the mask image are relatively adjusted.
The mask image is combined with each of the first image and the second image to generate a first composite image and a second composite image.
A plurality of cross-correlation functions were obtained based on the first composite image and the second composite image.
The correlation coefficient is calculated based on the plurality of cross-correlation functions, and the correlation coefficient is calculated.
Registration between the first image and the second image is performed based on the correlation coefficient.
A merged image of the first image and the second image is constructed based on the result of the registration.
Scanning imaging method.
前記第3画像の画素値の範囲と前記マージ画像の画素値の範囲とマスク画像の画素値の範囲とを相対的に調整し、
前記第3画像及び前記マージ画像のそれぞれに当該マスク画像を合成して第3合成画像及び第4合成画像を生成し、
前記第3合成画像及び前記第4合成画像に基づいて複数の相互相関関数を求め、
当該複数の相互相関関数に基づいて相関係数を算出し、
当該相関係数に基づいて前記第3画像と前記第4画像とのレジストレーションを行い、
前記レジストレーションの結果に基づいて前記第3画像と前記マージ画像とをマージする、
請求項14の走査型イメージング方法。 A third image is constructed based on the above data,
The pixel value range of the third image, the pixel value range of the merged image, and the pixel value range of the mask image are relatively adjusted.
The mask image is combined with each of the third image and the merged image to generate a third composite image and a fourth composite image.
A plurality of cross-correlation functions were obtained based on the third composite image and the fourth composite image.
The correlation coefficient is calculated based on the plurality of cross-correlation functions, and the correlation coefficient is calculated.
Registration between the third image and the fourth image is performed based on the correlation coefficient.
The third image and the merged image are merged based on the result of the registration.
The scanning imaging method of claim 14.
前記一連のサイクルのうちの第1サイクル群に従う光走査で収集された第1データに基づいて前記第1画像を構築し、
前記一連のサイクルのうち前記第1サイクル群と異なる第2サイクル群に従う光走査で収集された第2データに基づいて前記第2画像を構築する、
請求項14又は15の走査型イメージング方法。 Any two cycles of the series of cycles intersect each other at at least one point.
The first image is constructed based on the first data collected by optical scanning according to the first cycle group of the series of cycles.
The second image is constructed based on the second data collected by optical scanning according to the second cycle group different from the first cycle group in the series of cycles.
The scanning imaging method according to claim 14 or 15.
請求項16の走査型イメージング方法。 Optical scanning according to the two-dimensional pattern is performed based on a preset scanning protocol based on the Lissajous function.
The scanning imaging method of claim 16.
前記第1画像に応じた第1マスク画像と前記第2画像に応じた第2マスク画像とを生成するマスク画像生成部と、
前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲に基づいて前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲を調整する範囲調整部と、
前記第1画像に前記第1マスク画像を合成して第1合成画像を生成し、且つ、前記第2画像に前記第2マスク画像を合成して第2合成画像を生成する合成画像生成部と、
前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求める第1算出部と、
前記複数の相互相関関数に基づいて相関係数を算出する第2算出部と、
前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行うレジストレーション部と
を含む、画像処理装置。 A storage unit that stores the first and second images of the sample,
A mask image generation unit that generates a first mask image corresponding to the first image and a second mask image corresponding to the second image.
A range adjusting unit that adjusts the pixel value range of the first image and the pixel value range of the second image based on the pixel value range of the first mask image and the pixel value range of the second mask image. ,
A composite image generation unit that synthesizes the first mask image with the first image to generate a first composite image, and synthesizes the second mask image with the second image to generate a second composite image. ,
A first calculation unit that obtains a plurality of cross-correlation functions based on the first composite image and the second composite image, and
A second calculation unit that calculates the correlation coefficient based on the plurality of cross-correlation functions, and
An image processing apparatus including a registration unit that performs registration between the first image and the second image based on the correlation coefficient.
前記データに基づいて前記第1画像及び前記第2画像を構築する画像構築部と
を更に含む、
請求項18の画像処理装置。 A data reception unit that accepts data collected from samples by optical scanning that follows a two-dimensional pattern that includes a series of cycles.
Further includes the first image and an image construction unit that constructs the second image based on the data.
The image processing apparatus according to claim 18.
前記プロセッサを、
前記第1画像に応じた第1マスク画像と前記第2画像に応じた第2マスク画像とを生成し、
前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲に基づいて前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲を調整し、
前記第1画像に前記第1マスク画像を合成して第1合成画像を生成し、且つ、前記第2画像に前記第2マスク画像を合成して第2合成画像を生成し、
前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求め、
前記複数の相互相関関数に基づいて相関係数を算出し、及び、
前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行う
ように制御する、
画像処理装置の制御方法。 A method of controlling an image processing device including a storage unit for storing a first image and a second image of a sample and a processor.
The processor
A first mask image corresponding to the first image and a second mask image corresponding to the second image are generated.
The pixel value range of the first image and the pixel value range of the second image are adjusted based on the pixel value range of the first mask image and the pixel value range of the second mask image.
The first mask image is combined with the first image to generate a first composite image, and the second mask image is combined with the second image to generate a second composite image.
A plurality of cross-correlation functions were obtained based on the first composite image and the second composite image.
The correlation coefficient is calculated based on the plurality of cross-correlation functions, and
Control so as to perform registration between the first image and the second image based on the correlation coefficient.
Image processing device control method.
前記データに基づいて第1画像及び第2画像を構築する画像構築部と、
前記第1画像に応じた第1マスク画像と前記第2画像に応じた第2マスク画像とを生成するマスク画像生成部と、
前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲に基づいて前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲を調整する範囲調整部と、
前記第1画像に前記第1マスク画像を合成して第1合成画像を生成し、且つ、前記第2画像に前記第2マスク画像を合成して第2合成画像を生成する合成画像生成部と、
前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求める第1算出部と、
前記複数の相互相関関数に基づいて相関係数を算出する第2算出部と、
前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行うレジストレーション部と、
前記レジストレーションの結果に基づいて前記第1画像と前記第2画像とのマージ画像を構築するマージ処理部と
を含む、走査型イメージング装置。 A scanning unit that collects data by applying optical scanning that follows a two-dimensional pattern that includes a series of cycles to a sample.
An image construction unit that constructs the first image and the second image based on the data, and
A mask image generation unit that generates a first mask image corresponding to the first image and a second mask image corresponding to the second image.
A range adjusting unit that adjusts the pixel value range of the first image and the pixel value range of the second image based on the pixel value range of the first mask image and the pixel value range of the second mask image. ,
A composite image generation unit that synthesizes the first mask image with the first image to generate a first composite image, and synthesizes the second mask image with the second image to generate a second composite image. ,
A first calculation unit that obtains a plurality of cross-correlation functions based on the first composite image and the second composite image, and
A second calculation unit that calculates the correlation coefficient based on the plurality of cross-correlation functions, and
A registration unit that performs registration between the first image and the second image based on the correlation coefficient, and
A scanning imaging apparatus including a merge processing unit that constructs a merged image of the first image and the second image based on the result of the registration.
請求項21の走査型イメージング装置。 The scanning unit includes deflectors capable of deflecting light in different first and second directions, and follows the second direction while repeating changes in the deflection direction along the first direction in the first cycle. Optical scanning according to the two-dimensional pattern is applied to the sample by repeating the change in the deflection direction in a second cycle different from the first cycle.
The scanning imaging apparatus according to claim 21.
前記走査部を、一連のサイクルを含む2次元パターンに従う光走査をサンプルに適用してデータを収集するように制御し、
前記プロセッサを、
前記データに基づいて第1画像及び第2画像を構築し、
前記第1画像に応じた第1マスク画像と前記第2画像に応じた第2マスク画像とを生成し、
前記第1マスク画像の画素値の範囲及び前記第2マスク画像の画素値の範囲に基づいて前記第1画像の画素値の範囲及び前記第2画像の画素値の範囲を調整し、
前記第1画像に前記第1マスク画像を合成して第1合成画像を生成し、且つ、前記第2画像に前記第2マスク画像を合成して第2合成画像を生成し、
前記第1合成画像及び前記第2合成画像に基づいて複数の相互相関関数を求め、
前記複数の相互相関関数に基づいて相関係数を算出し、
前記相関係数に基づいて前記第1画像と前記第2画像とのレジストレーションを行い、及び、
前記レジストレーションの結果に基づいて前記第1画像と前記第2画像とのマージ画像を構築する
ように制御する、
走査型イメージング装置の制御方法。 A method of controlling a scanning imaging device that includes a scanning unit that applies optical scanning to a sample to collect data and a processor.
The scanning unit is controlled to apply optical scanning according to a two-dimensional pattern including a series of cycles to the sample to collect data.
The processor
The first image and the second image are constructed based on the above data, and the first image and the second image are constructed.
A first mask image corresponding to the first image and a second mask image corresponding to the second image are generated.
The pixel value range of the first image and the pixel value range of the second image are adjusted based on the pixel value range of the first mask image and the pixel value range of the second mask image.
The first mask image is combined with the first image to generate a first composite image, and the second mask image is combined with the second image to generate a second composite image.
A plurality of cross-correlation functions were obtained based on the first composite image and the second composite image.
The correlation coefficient is calculated based on the plurality of cross-correlation functions, and the correlation coefficient is calculated.
Registration between the first image and the second image is performed based on the correlation coefficient, and
Control to construct a merged image of the first image and the second image based on the registration result.
How to control a scanning imaging device.
A computer-readable non-temporary recording medium on which the program of claim 24 is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019223138A JP7410481B2 (en) | 2019-12-10 | 2019-12-10 | Image processing method, scanning imaging method, image processing device, control method thereof, scanning imaging device, control method thereof, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019223138A JP7410481B2 (en) | 2019-12-10 | 2019-12-10 | Image processing method, scanning imaging method, image processing device, control method thereof, scanning imaging device, control method thereof, program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021090631A true JP2021090631A (en) | 2021-06-17 |
JP7410481B2 JP7410481B2 (en) | 2024-01-10 |
Family
ID=76311127
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019223138A Active JP7410481B2 (en) | 2019-12-10 | 2019-12-10 | Image processing method, scanning imaging method, image processing device, control method thereof, scanning imaging device, control method thereof, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7410481B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023162586A1 (en) * | 2022-02-24 | 2023-08-31 | 国立大学法人 筑波大学 | Scanning imaging device, information processing device, method for controlling scanning imaging device, method for controlling information processing device, information processing method, program, and recording medium |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201302887D0 (en) | 2013-02-19 | 2013-04-03 | Optos Plc | Improvements in or relating to image processing |
US10653310B2 (en) | 2017-02-28 | 2020-05-19 | Canon Kabushiki Kaisha | Imaging apparatus, control method for an imaging apparatus, and program |
JP6929662B2 (en) | 2017-02-28 | 2021-09-01 | キヤノン株式会社 | Imaging equipment, imaging methods and programs |
JP2018140004A (en) | 2017-02-28 | 2018-09-13 | キヤノン株式会社 | Imaging device, imaging method, and program |
-
2019
- 2019-12-10 JP JP2019223138A patent/JP7410481B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023162586A1 (en) * | 2022-02-24 | 2023-08-31 | 国立大学法人 筑波大学 | Scanning imaging device, information processing device, method for controlling scanning imaging device, method for controlling information processing device, information processing method, program, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP7410481B2 (en) | 2024-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018175258A (en) | Image generating device, image generation method, and program | |
JP2022040372A (en) | Ophthalmologic apparatus | |
JP7134324B2 (en) | OPHTHALMIC PHOTOGRAPHIC APPARATUS, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF | |
WO2021153087A1 (en) | Ophthalmic device, control method thereof, and storage medium | |
JP2021092445A (en) | Scan type imaging device, control method of the same, image processing device, control method of the same, scan type imaging method, image processing method, program and recording medium | |
JP7215862B2 (en) | OPHTHALMIC PHOTOGRAPHIC APPARATUS, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF | |
JP7384987B2 (en) | ophthalmology equipment | |
JP7378557B2 (en) | Ophthalmologic imaging device, its control method, program, and recording medium | |
JP7410481B2 (en) | Image processing method, scanning imaging method, image processing device, control method thereof, scanning imaging device, control method thereof, program, and recording medium | |
JP2023014190A (en) | Ophthalmology imaging apparatus | |
WO2021153086A1 (en) | Ophthalmic apparatus, control method thereof, and recording medium | |
JP2022060588A (en) | Ophthalmologic apparatus and control method of ophthalmologic apparatus | |
JP7050488B2 (en) | Ophthalmologic imaging equipment, its control method, programs, and recording media | |
JP2022132898A (en) | Ophthalmologic data processing method, ophthalmologic data processing apparatus, control method thereof, ophthalmologic examination apparatus, control method thereof, program and recording medium | |
JP7355331B2 (en) | Scanning imaging device, control method thereof, image processing device, control method thereof, scanning imaging method, image processing method, program, and recording medium | |
JP7341422B2 (en) | Scanning imaging device, control method thereof, scanning imaging method, program, and recording medium | |
WO2023162586A1 (en) | Scanning imaging device, information processing device, method for controlling scanning imaging device, method for controlling information processing device, information processing method, program, and recording medium | |
JP7325675B2 (en) | ophthalmic imaging equipment | |
JP7236832B2 (en) | OPHTHALMIC PHOTOGRAPHIC APPARATUS, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF | |
WO2021176893A1 (en) | Ophthalmic device, control method therefor, and storage medium | |
WO2022085501A1 (en) | Ophthalmic device, control method therefor, program, and recording medium | |
JP2023048318A (en) | Scanning type imaging device, information processing device, control method of scanning type imaging device, control method of information processing device, information processing method, program, and recording medium | |
JP6942627B2 (en) | Ophthalmologic imaging equipment, its control method, programs, and recording media | |
JP6959158B2 (en) | Ophthalmic equipment | |
JP6942626B2 (en) | Ophthalmologic imaging equipment, its control method, programs, and recording media |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230922 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7410481 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |