JP7355331B2 - Scanning imaging device, control method thereof, image processing device, control method thereof, scanning imaging method, image processing method, program, and recording medium - Google Patents

Scanning imaging device, control method thereof, image processing device, control method thereof, scanning imaging method, image processing method, program, and recording medium Download PDF

Info

Publication number
JP7355331B2
JP7355331B2 JP2019234964A JP2019234964A JP7355331B2 JP 7355331 B2 JP7355331 B2 JP 7355331B2 JP 2019234964 A JP2019234964 A JP 2019234964A JP 2019234964 A JP2019234964 A JP 2019234964A JP 7355331 B2 JP7355331 B2 JP 7355331B2
Authority
JP
Japan
Prior art keywords
image data
data
scanning
shift amount
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019234964A
Other languages
Japanese (ja)
Other versions
JP2021081405A (en
Inventor
嘉晃 安野
修一 巻田
達夫 山口
神之介 東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
University of Tsukuba NUC
Original Assignee
Topcon Corp
University of Tsukuba NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp, University of Tsukuba NUC filed Critical Topcon Corp
Publication of JP2021081405A publication Critical patent/JP2021081405A/en
Application granted granted Critical
Publication of JP7355331B2 publication Critical patent/JP7355331B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、走査型イメージング装置、その制御方法、画像処理装置、その制御方法、走査型イメージング方法、画像処理方法、プログラム、及び記録媒体に関する。 The present invention relates to a scanning imaging device, a control method thereof, an image processing device, a control method thereof, a scanning imaging method, an image processing method, a program, and a recording medium.

イメージング技術の1つに走査型イメージングがある。走査型イメージングとは、サンプルの複数の箇所に順次にビームを照射してデータを収集し、収集されたデータからサンプルの像を構築する技術である。 One of the imaging techniques is scanning imaging. Scanning imaging is a technique that collects data by sequentially irradiating multiple locations on a sample with a beam, and constructs an image of the sample from the collected data.

光を利用した走査型イメージングの典型例として光コヒーレンストモグラフィ(OCT;光干渉断層撮影法)が知られている。OCTは、光散乱媒質をマイクロメートルレベル又はそれ以下の分解能で画像化することが可能な技術であり、医用イメージングや非破壊検査などに応用されている。OCTは、低コヒーレンス干渉法に基づく技術であり、典型的には、光散乱媒質のサンプルへの深達性を担保するために近赤外光を利用する。 Optical coherence tomography (OCT) is known as a typical example of scanning imaging using light. OCT is a technology that can image a light scattering medium at a resolution of micrometer level or lower, and is applied to medical imaging, nondestructive testing, and the like. OCT is a technique based on low coherence interferometry and typically utilizes near-infrared light to ensure deep penetration of the light scattering medium into the sample.

例えば眼科画像診断ではOCT装置の普及が進んでおり、2次元的なイメージングだけでなく、3次元的なイメージング・構造解析・機能解析なども実用化され、診断の強力なツールとして広く利用されるに至っている。また、眼科分野では、走査型レーザー検眼鏡(SLO)など、OCT以外の走査型イメージングも利用されている。なお、近赤外光以外の波長帯の光(電磁波)や超音波を利用した走査型イメージングも知られている。 For example, in ophthalmological image diagnosis, OCT devices are becoming more and more popular, and not only two-dimensional imaging but also three-dimensional imaging, structural analysis, and functional analysis have been put into practical use, and are widely used as powerful diagnostic tools. It has reached this point. Furthermore, in the field of ophthalmology, scanning imaging other than OCT, such as scanning laser ophthalmoscopy (SLO), is also used. Note that scanning imaging that uses light (electromagnetic waves) in a wavelength band other than near-infrared light or ultrasonic waves is also known.

OCTやSLOで利用される走査モードには様々なものがあるが、モーションアーティファクト補正などを目的とした所謂「リサージュ(Lissajous)スキャン」が近年注目を集めている(例えば、特許文献1~4、非特許文献1及び2を参照)。 There are various scanning modes used in OCT and SLO, but the so-called "Lissajous scan" for the purpose of motion artifact correction has attracted attention in recent years (for example, Patent Documents 1 to 4, (See Non-Patent Documents 1 and 2).

典型的なリサージュスキャンでは、或る程度の大きさを持つ複数のループ(互いに交差する複数のサイクル)を描くように測定光を高速走査するため、1つのサイクルからのデータ取得時間の差を実質的に無視することができる。また、異なるサイクルの交差領域を参照してサイクル間の位置合わせを行えるため、サンプルの動きに起因するモーションアーティファクトを補正することが可能である。このようなリサージュスキャンの特徴に着目し、眼科分野では眼球運動に起因するモーションアーティファクトへの対処を図っている。 In a typical Lissajous scan, the measurement light is scanned at high speed to draw multiple loops (multiple cycles that intersect with each other) of a certain size, so the difference in data acquisition time from one cycle is effectively can be ignored. Furthermore, since alignment between cycles can be performed with reference to the intersecting regions of different cycles, it is possible to correct motion artifacts caused by sample movement. Focusing on these characteristics of the Lissajous scan, the ophthalmology field is trying to deal with motion artifacts caused by eye movements.

特開2016-17915号公報Japanese Patent Application Publication No. 2016-17915 特開2018-68578号公報JP2018-68578A 特開2018-140004号公報JP 2018-140004 Publication 特開2018-140049号公報JP 2018-140049 Publication

Yiwei Chen, Young-Joo Hong, Shuichi Makita, and Yoshiaki Yasuno, ”Three-dimensional eye motion correction by Lissajous scan optical coherence tomography”, Biomedical Optics EXPRESS, Vol. 8, No. 3, 1 Mar 2017, PP. 1783-1802Yiwei Chen, Young-Joo Hong, Shuichi Makita, and Yoshiaki Yasuno, “Three-dimensional eye motion correction by Lissajous scan optical coherence tomography”, Biomedical Optics EXPRESS, Vol. 8, No. 3, 1 Mar 2017, PP. 1783- 1802 Yiwei Chen, Young-Joo Hong, Shuichi Makita, and Yoshiaki Yasuno, ”Eye-motion-corrected optical coherence tomography angiography using Lissajous scanning”, Biomedical Optics EXPRESS, Vol. 9, No. 3, 1 Mar 2018, PP. 1111-1129Yiwei Chen, Young-Joo Hong, Shuichi Makita, and Yoshiaki Yasuno, “Eye-motion-corrected optical coherence tomography angiography using Lissajous scanning”, Biomedical Optics EXPRESS, Vol. 9, No. 3, 1 Mar 2018, PP. 1111- 1129

この発明の1つの目的は、モーションアーティファクト補正の精度を向上させることにある。 One object of this invention is to improve the accuracy of motion artifact correction.

幾つかの態様に係る走査型イメージング装置は、サンプルの3次元領域からデータを収集する走査部と、前記データに1以上の画像化処理を適用して1以上の3次元画像データを構築する画像化処理部と、深さ方向のプロジェクションを前記1以上の3次元画像データのそれぞれに適用して複数の正面画像データを構築するプロジェクション処理部と、前記複数の正面画像データに基づいて深さ方向に直交する方向におけるデータシフト量を算出する第1データシフト量算出部と、前記データシフト量に基づいて、前記走査部により収集された前記データに基づく画像データのモーションアーティファクト補正を実行する補正部とを含む。 A scanning imaging device according to some aspects includes a scanning unit that collects data from a three-dimensional region of a sample, and an image that applies one or more imaging processes to the data to construct one or more three-dimensional image data. a projection processing unit that applies a projection in the depth direction to each of the one or more three-dimensional image data to construct a plurality of frontal image data; a first data shift amount calculation unit that calculates a data shift amount in a direction perpendicular to the data shift amount; and a correction unit that performs motion artifact correction of image data based on the data collected by the scanning unit based on the data shift amount. including.

幾つかの態様において、前記画像化処理部は、前記走査部により収集された前記データに複数の異なる画像化処理を適用して複数の3次元画像データを構築し、前記プロジェクション処理部は、前記複数の3次元画像データのそれぞれに前記プロジェクションを適用して前記複数の正面画像データを構築する。 In some aspects, the imaging processing unit applies a plurality of different imaging processes to the data collected by the scanning unit to construct a plurality of three-dimensional image data, and the projection processing unit applies the plurality of three-dimensional image data to the data collected by the scanning unit, and the projection processing unit The projection is applied to each of the plurality of three-dimensional image data to construct the plurality of frontal image data.

前記画像化処理部は、前記走査部により収集された前記データから単一の3次元画像データを構築し、前記プロジェクション処理部は、前記単一の3次元画像データに複数の異なる前記プロジェクションを適用して前記複数の正面画像データを構築する。 The imaging processing section constructs a single three-dimensional image data from the data collected by the scanning section, and the projection processing section applies a plurality of different projections to the single three-dimensional image data. and constructs the plurality of frontal image data.

幾つかの態様に係る走査型イメージング装置は、一連のサイクルを含む2次元パターンに従う走査をサンプルに適用してデータを収集する走査部と、複数の異なる画像化処理を前記データに適用して複数の3次元画像データを構築する画像化処理部と、深さ方向のプロジェクションを前記複数の3次元画像データのそれぞれに適用して複数の正面画像データを構築するプロジェクション処理部と、前記複数の正面画像データに基づいて前記深さ方向に直交する方向におけるデータシフト量を算出する第1データシフト量算出部と、前記データシフト量に基づいて、前記走査部により収集された前記データに基づく画像データのモーションアーティファクト補正を実行する補正部とを含む。 A scanning imaging device according to some aspects includes a scanning unit that collects data by applying a scan according to a two-dimensional pattern including a series of cycles to a sample, and a scanning unit that applies a plurality of different imaging processes to the data to collect data. an imaging processing unit that constructs three-dimensional image data of the plurality of front images; a projection processing unit that applies depth direction projection to each of the plurality of three-dimensional image data to construct a plurality of front image data; a first data shift amount calculation section that calculates a data shift amount in a direction perpendicular to the depth direction based on image data; and image data based on the data collected by the scanning section based on the data shift amount. and a correction unit that performs motion artifact correction.

幾つかの態様において、前記第1データシフト量算出部は、前記複数の正面画像データに基づいて相関係数を算出し、前記相関係数に基づいて前記データシフト量を算出する。 In some aspects, the first data shift amount calculation unit calculates a correlation coefficient based on the plurality of front image data, and calculates the data shift amount based on the correlation coefficient.

幾つかの態様において、前記第1データシフト量算出部は、前記複数の正面画像データのそれぞれを部分画像データ群に分割する分割部と、前記分割部によって前記複数の正面画像データから取得された複数の部分画像データ群に基づいて前記相関係数を算出する相関係数算出部とを含む。 In some aspects, the first data shift amount calculation unit includes a dividing unit that divides each of the plurality of frontal image data into partial image data groups, and a division unit that divides each of the plurality of frontal image data into a partial image data group; and a correlation coefficient calculation unit that calculates the correlation coefficient based on a plurality of partial image data groups.

幾つかの態様において、前記複数の正面画像データのうちの第1正面画像データ及び第2正面画像データについて、前記第1正面画像データの第1部分画像データ群に含まれる部分画像データの個数は、第2正面画像データの第2部分画像データ群に含まれる部分画像データの個数に等しく、前記第1部分画像データ群に含まれる一の部分画像データに対応する、前記走査部により収集された前記データの部分データは、前記第2部分画像データ群に含まれるいずれかの部分画像データに対応する前記データの部分データと同じである。 In some aspects, for the first front image data and the second front image data among the plurality of front image data, the number of partial image data included in the first partial image data group of the first front image data is , equal to the number of partial image data included in the second partial image data group of the second front image data and corresponding to one partial image data included in the first partial image data group, collected by the scanning unit. The partial data of the data is the same as the partial data of the data corresponding to any partial image data included in the second partial image data group.

幾つかの態様において、前記相関係数算出部は、前記走査部により収集された前記データの第1部分データに対応する前記複数の正面画像データの複数の部分画像データの少なくとも2つを含む第1群と、第2部分データに対応する前記複数の正面画像データの複数の部分画像データの少なくとも2つを含む第2群とに基づいて、前記第1部分データと前記第2部分データとに対応する相関係数を算出し、前記第1データシフト量算出部は、当該相関係数に基づいて、前記第1部分データと前記第2部分データとに対応するデータシフト量を算出する。 In some aspects, the correlation coefficient calculation unit includes a first image data set including at least two of the plurality of partial image data of the plurality of front image data corresponding to first partial data of the data collected by the scanning unit. the first partial data and the second partial data based on the first group and the second group including at least two of the plurality of partial image data of the plurality of front image data corresponding to the second partial data; A corresponding correlation coefficient is calculated, and the first data shift amount calculation unit calculates a data shift amount corresponding to the first partial data and the second partial data based on the correlation coefficient.

幾つかの態様において、前記複数の3次元画像データのいずれか1以上に基づいて、前記深さ方向におけるデータシフト量を算出する第2データシフト量算出部を更に含み、前記補正部は、前記第2データシフト量算出部により算出された前記データシフト量に基づくモーションアーティファクト補正を、前記走査部により収集された前記データに基づく前記画像データに適用する。 In some aspects, the correction unit further includes a second data shift amount calculation unit that calculates the data shift amount in the depth direction based on any one or more of the plurality of three-dimensional image data, and the correction unit Motion artifact correction based on the data shift amount calculated by the second data shift amount calculation section is applied to the image data based on the data collected by the scanning section.

幾つかの態様において、前記走査部は、光コヒーレンストモグラフィ(OCT)走査を前記サンプルに適用し、前記画像化処理部により構築される前記複数の3次元画像データは、OCT強度画像データ、OCT血管造影画像データ、OCT強度画像データとOCT血管造影画像データとに基づく合成画像データ、及び、OCT偏光画像データのいずれかを含む。 In some aspects, the scanning unit applies optical coherence tomography (OCT) scanning to the sample, and the plurality of three-dimensional image data constructed by the imaging processing unit include OCT intensity image data, OCT intensity image data, It includes any of angiography image data, composite image data based on OCT intensity image data and OCT angiography image data, and OCT polarization image data.

幾つかの態様において、前記走査部は、一連のサイクルを含む2次元パターンに従う走査を前記3次元領域に適用して前記データを収集する。 In some aspects, the scanning unit collects the data by applying a scan to the three-dimensional area that follows a two-dimensional pattern that includes a series of cycles.

幾つかの態様において、前記走査部は、互いに異なる第1方向及び第2方向に光を偏向可能な偏向器を含み、且つ、前記第1方向に沿った偏向方向の変化を第1周期で繰り返しつつ前記第2方向に沿った偏向方向の変化を前記第1周期と異なる第2周期で繰り返すことによって前記走査を前記サンプルに適用する。 In some aspects, the scanning unit includes a deflector capable of deflecting light in a first direction and a second direction that are different from each other, and repeats changes in the deflection direction along the first direction in a first period. The scanning is applied to the sample by repeating changes in the deflection direction along the second direction at a second period different from the first period.

幾つかの態様において、前記偏向器は、リサージュ関数に基づき予め設定された走査プロトコルに基づき制御される。 In some embodiments, the deflector is controlled based on a preset scanning protocol based on a Lissajous function.

幾つかの態様において、前記一連のサイクルは、互いに交差する。 In some embodiments, the series of cycles intersect with each other.

幾つかの態様において、前記2次元パターンは、互いに平行な一連のラインスキャンを含むラスターパターンである。 In some embodiments, the two-dimensional pattern is a raster pattern that includes a series of parallel line scans.

幾つかの態様に係る方法は、サンプルに走査を適用してデータを収集する走査部と、プロセッサとを含む走査型イメージング装置を制御する方法であって、前記走査部を、一連のサイクルを含む2次元パターンに従う走査をサンプルに適用してデータを収集するように制御し、前記プロセッサを、複数の異なる画像化処理を前記データに適用して複数の3次元画像データを構築し、深さ方向のプロジェクションを前記複数の3次元画像データのそれぞれに適用して複数の正面画像データを構築し、前記複数の正面画像データに基づいて前記深さ方向に直交する方向におけるデータシフト量を算出し、前記データシフト量に基づいて、前記走査部により収集された前記データに基づく画像データのモーションアーティファクト補正を実行するように制御する。 A method according to some aspects is a method of controlling a scanning imaging device that includes a scanning unit that applies a scan to a sample to collect data, and a processor, the scanning unit including a series of cycles. controlling the processor to apply a scan according to a two-dimensional pattern to the sample to collect data; and controlling the processor to apply a plurality of different imaging processes to the data to construct a plurality of three-dimensional image data, applying the projection to each of the plurality of three-dimensional image data to construct a plurality of front image data, and calculating a data shift amount in a direction perpendicular to the depth direction based on the plurality of front image data, Based on the data shift amount, control is performed to perform motion artifact correction of image data based on the data collected by the scanning unit.

幾つかの態様に係る画像処理装置は、一連のサイクルを含む2次元パターンに従う走査をサンプルに適用して収集されたデータを記憶する記憶部と、複数の異なる画像化処理を前記データに適用して複数の3次元画像データを構築する画像化処理部と、深さ方向のプロジェクションを前記複数の3次元画像データのそれぞれに適用して複数の正面画像データを構築するプロジェクション処理部と、前記複数の正面画像データに基づいて前記深さ方向に直交する方向におけるデータシフト量を算出する第1データシフト量算出部と、前記データシフト量に基づいて、前記走査により収集された前記データに基づく画像データのモーションアーティファクト補正を実行する補正部とを含む。 An image processing device according to some aspects includes: a storage unit that stores data collected by applying scanning according to a two-dimensional pattern including a series of cycles to a sample; and a storage unit that stores data collected by applying scanning according to a two-dimensional pattern including a series of cycles to the data; an imaging processing unit that constructs a plurality of three-dimensional image data by applying depth direction projection to each of the plurality of three-dimensional image data, and a projection processing unit that constructs a plurality of front image data by applying depth direction projection to each of the plurality of three-dimensional image data; a first data shift amount calculation unit that calculates a data shift amount in a direction perpendicular to the depth direction based on front image data of the image data, and an image based on the data collected by the scanning based on the data shift amount. and a correction unit that performs motion artifact correction on the data.

幾つかの態様に係る方法は、記憶部とプロセッサとを含む画像処理装置を制御する方法であって、一連のサイクルを含む2次元パターンに従う走査をサンプルに適用して収集されたデータを前記記憶部に記憶させ、前記プロセッサを、複数の異なる画像化処理を前記データに適用して複数の3次元画像データを構築し、深さ方向のプロジェクションを前記複数の3次元画像データのそれぞれに適用して複数の正面画像データを構築し、前記複数の正面画像データに基づいて前記深さ方向に直交する方向におけるデータシフト量を算出し、前記データシフト量に基づいて、前記走査により収集された前記データに基づく画像データのモーションアーティファクト補正を実行するように制御する。 A method according to some aspects is a method for controlling an image processing device including a storage unit and a processor, the method comprising: applying a scan according to a two-dimensional pattern including a series of cycles to a sample to store data collected in the storage unit; and causing the processor to apply a plurality of different imaging processes to the data to construct a plurality of three-dimensional image data, and apply a depth direction projection to each of the plurality of three-dimensional image data. construct a plurality of frontal image data, calculate a data shift amount in a direction orthogonal to the depth direction based on the plurality of frontal image data, and calculate the amount of data shift in the direction perpendicular to the depth direction based on the data shift amount, controlling to perform motion artifact correction of image data based on the data;

幾つかの態様に係る走査型イメージング方法は、一連のサイクルを含む2次元パターンに従う走査をサンプルに適用してデータを収集し、複数の異なる画像化処理を前記データに適用して複数の3次元画像データを構築し、深さ方向のプロジェクションを前記複数の3次元画像データのそれぞれに適用して複数の正面画像データを構築し、前記複数の正面画像データに基づいて前記深さ方向に直交する方向におけるデータシフト量を算出し、前記データシフト量に基づいて、前記走査により収集された前記データに基づく画像データのモーションアーティファクト補正を実行する。 A scanning imaging method according to some aspects includes applying a scan to a sample according to a two-dimensional pattern including a series of cycles to collect data, and applying a plurality of different imaging processes to the data to obtain a plurality of three-dimensional images. constructing image data, applying depth direction projection to each of the plurality of three-dimensional image data to construct a plurality of frontal image data, and orthogonal to the depth direction based on the plurality of frontal image data. A data shift amount in the direction is calculated, and based on the data shift amount, motion artifact correction of image data based on the data collected by the scanning is performed.

幾つかの態様に係る画像処理方法は、一連のサイクルを含む2次元パターンに従う走査をサンプルに適用して収集されたデータを準備し、複数の異なる画像化処理を前記データに適用して複数の3次元画像データを構築し、深さ方向のプロジェクションを前記複数の3次元画像データのそれぞれに適用して複数の正面画像データを構築し、前記複数の正面画像データに基づいて前記深さ方向に直交する方向におけるデータシフト量を算出し、前記データシフト量に基づいて、前記準備された前記データに基づく画像データのモーションアーティファクト補正を実行する。 An image processing method according to some embodiments includes applying a scan according to a two-dimensional pattern to a sample including a series of cycles to prepare collected data, and applying a plurality of different imaging processes to the data to obtain a plurality of data. construct three-dimensional image data, apply depth direction projection to each of the plurality of three-dimensional image data to construct a plurality of front image data, and create a plurality of front image data in the depth direction based on the plurality of front image data. A data shift amount in an orthogonal direction is calculated, and based on the data shift amount, motion artifact correction of the image data based on the prepared data is performed.

幾つかの態様は、上記した方法のいずれかをコンピュータに実行させるプログラムである。 Some embodiments are programs that cause a computer to execute any of the methods described above.

幾つかの態様は、上記した方法のいずれかをコンピュータに実行させるプログラムが記録された、コンピュータ可読な非一時的記録媒体である。 Some embodiments are computer-readable non-transitory recording media recorded with a program that causes a computer to execute any of the methods described above.

いずれか2以上の態様を少なくとも部分的に組み合わせることが可能である。また、いずれかの態様に対し、本開示に係る任意の事項を少なくとも部分的に組み合わせることが可能である。また、いずれか2以上の態様の少なくとも部分的な組み合わせに対し、本開示に係る任意の事項を少なくとも部分的に組み合わせることが可能である。 It is possible to at least partially combine any two or more aspects. Furthermore, any aspect of the present disclosure can be at least partially combined with any aspect. Further, it is possible to at least partially combine any two or more aspects of the present disclosure with at least partially.

例示的な態様によれば、モーションアーティファクト補正の精度の向上を図ることが可能である。 According to exemplary aspects, it is possible to improve the accuracy of motion artifact correction.

例示的な実施形態に係る走査型イメージング装置(眼科装置)の構成の一例を表す概略図である。FIG. 1 is a schematic diagram illustrating an example of the configuration of a scanning imaging device (ophthalmological device) according to an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)の構成の一例を表す概略図である。FIG. 1 is a schematic diagram illustrating an example of the configuration of a scanning imaging device (ophthalmological device) according to an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)の構成の一例を表す概略図である。FIG. 1 is a schematic diagram illustrating an example of the configuration of a scanning imaging device (ophthalmological device) according to an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)の構成の一例を表す概略図である。FIG. 1 is a schematic diagram illustrating an example of the configuration of a scanning imaging device (ophthalmological device) according to an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)の構成の一例を表す概略図である。FIG. 1 is a schematic diagram illustrating an example of the configuration of a scanning imaging device (ophthalmological device) according to an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)が実行する処理の一例を説明するための概略図である。FIG. 2 is a schematic diagram for explaining an example of a process executed by a scanning imaging device (ophthalmological device) according to an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)が実行する処理の一例を説明するための概略図である。FIG. 2 is a schematic diagram for explaining an example of a process executed by a scanning imaging device (ophthalmological device) according to an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)が実行する処理の一例を説明するための概略図である。FIG. 2 is a schematic diagram for explaining an example of a process executed by a scanning imaging device (ophthalmological device) according to an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)の動作の一例を表すフローチャートである。1 is a flowchart illustrating an example of the operation of a scanning imaging device (ophthalmological device) according to an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)の動作の一例を表すフローチャートである。1 is a flowchart illustrating an example of the operation of a scanning imaging device (ophthalmological device) according to an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)の動作の一例を表すフローチャートである。1 is a flowchart illustrating an example of the operation of a scanning imaging device (ophthalmological device) according to an exemplary embodiment. 例示的な実施形態に係る走査型イメージング装置(眼科装置)の動作の一例を表すフローチャートである。1 is a flowchart illustrating an example of the operation of a scanning imaging device (ophthalmological device) according to an exemplary embodiment.

幾つかの例示的な実施形態に係る走査型イメージング装置、その制御方法、画像処理装置、その制御方法、走査型イメージング方法、画像処理方法、プログラム、及び記録媒体について、図面を参照しながら説明する。 A scanning imaging device, a control method thereof, an image processing device, a control method thereof, a scanning imaging method, an image processing method, a program, and a recording medium according to some exemplary embodiments will be described with reference to the drawings. .

本明細書にて引用された文献に開示された技術や、それ以外の任意の公知技術を、例示的な実施形態に援用することが可能である。また、特に言及しない限り、「画像データ」とそれに基づく「画像」とを区別しないものとし、また、被検眼の「部位」とその「画像」とを区別しないものとする。 The techniques disclosed in the documents cited herein and any other known techniques may be incorporated into the exemplary embodiments. Furthermore, unless otherwise specified, there will be no distinction between "image data" and an "image" based on it, and no distinction will be made between a "part" of the eye to be examined and its "image."

例示的な実施形態において、一連のサイクルを含む2次元パターンに従うスキャンがサンプルに適用される。この2次元パターンは、典型的には、リサージュ関数に基づき予め設定された走査プロトコルに基づくものであってよく、例えば、特許文献1~4並びに非特許文献1及び2のいずれかに記載された技術に利用された(又は利用可能な)走査プロトコルであってよい。例示的な実施形態の説明において、採用可能なスキャンの態様(スキャンモード)をリサージュスキャンと呼ぶことにする。以下、例示として、非特許文献1に記載されたリサージュスキャンで収集されたデータの処理について説明する。 In an exemplary embodiment, a scan is applied to the sample according to a two-dimensional pattern that includes a series of cycles. This two-dimensional pattern may typically be based on a preset scanning protocol based on the Lissajous function, for example, as described in any of Patent Documents 1 to 4 and Non-Patent Documents 1 and 2. It may be a scanning protocol utilized (or available) in the technology. In the description of the exemplary embodiments, the scan mode that can be employed will be referred to as a Lissajous scan. Hereinafter, as an example, processing of data collected by the Lissajous scan described in Non-Patent Document 1 will be described.

まず、リサージュスキャンで収集されたデータにフーリエ変換等が適用されて、所定の3次元リサージュ座標系で定義された3次元画像データが構築される。この3次元リサージュ座標系は、例えば、3次元直交座標系(αβγ座標系とする)であり、α軸がサイクルを構成する複数のAラインの位置を表し、β軸がサイクルの識別番号(スキャン順序)を表し、γ軸が深さ位置(軸方向の位置)を表す。αβγ座標系で表現される3次元画像データは、スキャン順序にしたがってβ方向に配列された、リサージュスキャンを構成するサイクル群に対応する断面画像データ群(各断面はαγ面を表す)からなる。 First, Fourier transformation or the like is applied to data collected by a Lissajous scan to construct three-dimensional image data defined by a predetermined three-dimensional Lissajous coordinate system. This three-dimensional Lissajous coordinate system is, for example, a three-dimensional orthogonal coordinate system (referred to as an αβγ coordinate system), in which the α axis represents the positions of a plurality of A lines constituting a cycle, and the β axis represents the cycle identification number (scan The γ-axis represents the depth position (position in the axial direction). Three-dimensional image data expressed in the αβγ coordinate system consists of a group of cross-sectional image data (each cross-section represents an αγ plane) corresponding to a cycle group constituting a Lissajous scan, arranged in the β direction according to the scan order.

次に、αβγ座標系で定義された3次元画像データ(ボリューム)が、比較的大きな動きが介在しない複数の部分画像データ(サブボリューム)に分割され、各サブボリュームの正面プロジェクション画像(en face projection image)が構築される。この正面プロジェクション画像は、γ方向のプロジェクションにより構築された、αβ面において定義された2次元正面画像である。このような正面プロジェクション画像はストリップと呼ばれる。 Next, the three-dimensional image data (volume) defined in the αβγ coordinate system is divided into multiple partial image data (subvolumes) without relatively large movements, and an en face projection image of each subvolume is created. image) is constructed. This front projection image is a two-dimensional front image defined on the αβ plane, constructed by projection in the γ direction. Such a front projection image is called a strip.

続いて、リサージュ座標系(αβ座標系)で定義された各ストリップが、実空間(xy座標系)で定義された画像に変換される。換言すると、αβ座標系からxy座標系への座標変換が各ストリップに適用される。この処理は、リマッピング(remapping)と呼ばれる。更に、リマッピングされた(つまり、xy座標系で定義された)各ストリップに補間処理が適用される。これにより、xy座標系で定義された複数のストリップが得られる。 Subsequently, each strip defined in the Lissajous coordinate system (αβ coordinate system) is transformed into an image defined in real space (xy coordinate system). In other words, a coordinate transformation from the αβ coordinate system to the xy coordinate system is applied to each strip. This process is called remapping. Additionally, an interpolation process is applied to each remapped strip (ie, defined in the xy coordinate system). This results in a plurality of strips defined in the xy coordinate system.

非特許文献1に記載されたリサージュスキャンの特性として、2つのストリップは4箇所で重複する(交差する)。非特許文献1に記載されたデータ処理では、最も大きいストリップが初期基準ストリップとして採用され、この初期基準ストリップに対して大きさ順にストリップが逐次にレジストレーションされ、マージされる。レジストレーションでは、基準ストリップと他のストリップとの間の相対位置を求めるために相関演算(相互相関関数、相関係数)が利用される。ここで、ストリップは任意の形状を有するため、各ストリップを特定形状(例えば正方形状)の画像として扱うためのマスクを用いてストリップ間のオーバーラップ領域の相関演算が行われる(非特許文献1のAppendix Aを参照)。これにより、複数のストリップのマージ画像(合成画像)が得られる。このマージ画像が、目的の画像、つまりモーションアーティファクトが補正された画像である。 As a characteristic of the Lissajous scan described in Non-Patent Document 1, two strips overlap (intersect) at four locations. In the data processing described in Non-Patent Document 1, the largest strip is adopted as an initial reference strip, and strips are sequentially registered and merged with respect to this initial reference strip in order of size. In registration, a correlation operation (cross-correlation function, correlation coefficient) is used to determine the relative position between a reference strip and other strips. Here, since the strips have an arbitrary shape, a correlation calculation of the overlap area between the strips is performed using a mask for treating each strip as an image of a specific shape (for example, a square shape) (see Non-Patent Document 1). See Appendix A). As a result, a merged image (composite image) of a plurality of strips is obtained. This merged image is the target image, that is, the image with motion artifacts corrected.

例示的な実施形態では、リサージュスキャンで収集されたデータから得られる複数種類の画像を用いてレジストレーションを行うことによって、モーションアーティファクト補正の好適化を図る。 In an exemplary embodiment, motion artifact correction is optimized by performing registration using multiple types of images obtained from data collected with a Lissajous scan.

なお、幾つかの例示的な態様において、リサージュスキャン以外のスキャンモードを採用することが可能である。例えば、一連のサイクルを含む2次元パターンとして、互いに平行な一連のラインスキャン(つまり、一連のBスキャン)を含むパターンを採用することができる。このようなスキャンパターンはラスターパターンなどと呼ばれ、これを用いたスキャンはラスタースキャンと呼ばれる(例えば、特開2013-81763号公報、特開2015-62678号公報などを参照)。より一般に、サンプルの3次元領域からデータを収集するための任意のスキャンパターンを採用することが可能である。 Note that in some exemplary embodiments, scan modes other than Lissajous scan may be employed. For example, as a two-dimensional pattern including a series of cycles, a pattern including a series of mutually parallel line scans (that is, a series of B scans) can be employed. Such a scan pattern is called a raster pattern, and a scan using this is called a raster scan (see, for example, Japanese Patent Application Laid-Open Nos. 2013-81763 and 2015-62678). More generally, any scanning pattern for collecting data from a three-dimensional region of a sample can be employed.

以下に説明する例示的な実施形態に係る走査型イメージング装置は、フーリエドメインOCT(例えば、スウェプトソースOCT)を利用して生体眼の眼底を計測することが可能な眼科装置である。実施形態に採用可能なOCTのタイプは、スウェプトソースOCTに限定されず、例えばスペクトラルドメインOCT又はタイムドメインOCTであってもよい。 A scanning imaging device according to an exemplary embodiment described below is an ophthalmological device capable of measuring the fundus of a living eye using Fourier domain OCT (eg, swept source OCT). The type of OCT that can be employed in the embodiments is not limited to swept source OCT, but may be, for example, spectral domain OCT or time domain OCT.

幾つかの例示的な実施形態に係る走査型イメージング装置は、OCT以外の走査型モダリティを利用可能であってよい。例えば、幾つかの例示的な実施形態は、SLO等の任意の光走査型モダリティを採用することができる。 Scanning imaging devices according to some example embodiments may be capable of utilizing scanning modalities other than OCT. For example, some example embodiments may employ any optical scanning modality such as SLO.

また、幾つかの例示的な実施形態に係る走査型イメージング装置に適用可能な走査型モダリティは、光走査型モダリティには限定されない。例えば、幾つかの例示的な実施形態は、光以外の電磁波を利用した走査型モダリティや、超音波を利用した走査型モダリティなどを採用することができる。 Additionally, scanning modalities applicable to scanning imaging devices according to some example embodiments are not limited to optical scanning modalities. For example, some exemplary embodiments may employ scanning modalities that utilize electromagnetic waves other than light, scanning modalities that utilize ultrasound, and the like.

幾つかの例示的な実施形態に係る眼科装置は、OCTスキャンで収集されたデータの処理及び/又はSLOで収集されたデータの処理に加え、他のモダリティで取得されたデータを処理可能であってよい。他のモダリティは、例えば、眼底カメラ、スリットランプ顕微鏡、及び眼科手術用顕微鏡のいずれかであってよい。幾つかの例示的な実施形態に係る眼科装置は、このようなモダリティの機能を有していてよい。 In addition to processing data collected with an OCT scan and/or processing data collected with an SLO, the ophthalmological device according to some example embodiments can process data acquired with other modalities. It's fine. Other modalities may be, for example, a fundus camera, a slit lamp microscope, and an ophthalmic surgical microscope. Ophthalmic devices according to some example embodiments may have the functionality of such modalities.

OCTが適用される対象(サンプル)は眼底に限定されず、前眼部や硝子体など眼の任意の部位であってもよいし、眼以外の生体の部位や組織であってもよいし、生体以外の物体であってもよい。 The target (sample) to which OCT is applied is not limited to the fundus of the eye, but may be any part of the eye such as the anterior segment or vitreous body, or may be a part or tissue of a living body other than the eye. It may be an object other than a living body.

以下に説明する例示的な実施形態に係る眼科装置は、走査型イメージング装置の幾つかの態様、走査型イメージング装置を制御する方法の幾つかの態様、画像処理装置の幾つかの態様、画像処理装置を制御する方法の幾つかの態様、画像処理方法の幾つかの態様、及び、走査型イメージング方法の幾つかの態様を提供する。 Ophthalmic devices according to exemplary embodiments described below include some aspects of a scanning imaging device, some aspects of a method of controlling a scanning imaging device, some aspects of an image processing device, and some aspects of an image processing device. Some aspects of methods for controlling devices, some aspects of image processing methods, and some aspects of scanning imaging methods are provided.

〈走査型イメージング装置の構成〉
図1に示す眼科装置1は、眼底カメラユニット2、OCTユニット100、及び演算制御ユニット200を含む。眼底カメラユニット2には、被検眼Eを正面から撮影するための要素群(光学要素、機構など)が設けられている。OCTユニット100には、被検眼EにOCTスキャンを適用するための要素群(光学要素、機構など)の一部が設けられている。OCTスキャンのための要素群の他の一部は、眼底カメラユニット2に設けられている。演算制御ユニット200は、各種の演算や制御を実行する1以上のプロセッサを含む。これらに加え、眼科装置1は、被検者の顔を支持するための要素や、OCTスキャンが適用される部位を切り替えるための要素を備えていてもよい。前者の要素の例として、顎受けや額当てがある。後者の要素の例として、OCTスキャン適用部位を眼底から前眼部に切り替えるために使用されるレンズユニットがある。
<Configuration of scanning imaging device>
The ophthalmologic apparatus 1 shown in FIG. 1 includes a fundus camera unit 2, an OCT unit 100, and an arithmetic control unit 200. The fundus camera unit 2 is provided with a group of elements (optical elements, mechanisms, etc.) for photographing the eye E from the front. The OCT unit 100 is provided with a part of a group of elements (optical elements, mechanisms, etc.) for applying an OCT scan to the eye E to be examined. Another part of the element group for OCT scanning is provided in the fundus camera unit 2. Arithmetic control unit 200 includes one or more processors that perform various calculations and controls. In addition to these, the ophthalmologic apparatus 1 may include an element for supporting the subject's face and an element for switching the region to which an OCT scan is applied. Examples of the former element include a chin rest and a forehead rest. An example of the latter element is a lens unit used to switch the OCT scan application site from the fundus to the anterior segment of the eye.

本明細書に開示された要素の機能は、回路構成(circuitry)又は処理回路構成(processing circuitry)を用いて実装される。回路構成又は処理回路構成は、開示された機能を実行するように構成及び/又はプログラムされた、汎用プロセッサ、専用プロセッサ、集積回路、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array)、従来の回路構成、及びそれらの任意の組み合わせのいずれかを含む。プロセッサは、トランジスタ及び/又は他の回路構成を含む、処理回路構成又は回路構成とみなされる。本開示において、回路構成、ユニット、手段、又はこれらに類する用語は、開示された機能を実行するハードウェア、又は、開示された機能を実行するようにプログラムされたハードウェアである。ハードウェアは、本明細書に開示されたハードウェアであってよく、或いは、記載された機能を実行するようにプログラム及び/又は構成された既知のハードウェアであってもよい。ハードウェアが或るタイプの回路構成とみなされ得るプロセッサである場合、回路構成、ユニット、手段、又はこれらに類する用語は、ハードウェアとソフトウェアとの組み合わせであり、このソフトウェアはハードウェア及び/又はプロセッサを構成するために使用される。 The functionality of the elements disclosed herein is implemented using circuitry or processing circuitry. Circuitry or processing circuitry may include a general purpose processor, a special purpose processor, an integrated circuit, a central processing unit (CPU), a graphics processing unit (GPU), an ASIC ( Application Specific Integrated Circuit), programmable logic devices (for example, SPLD (Simple Programmable Logic Device), CPLD (Complex Programmable Logic Device), FPGA (Field Programmable Gate Array), conventional circuit configurations, and any combination thereof A processor is considered to be a processing circuitry or circuitry that includes transistors and/or other circuitry. In this disclosure, the term circuitry, unit, means, or similar terms may be used to perform the disclosed functionality. Hardware that executes or is programmed to perform the functions disclosed. The hardware may be the hardware disclosed herein or that is programmed to perform the functions described. It may be known hardware programmed and/or configured to is a combination of hardware and software that is used to configure the hardware and/or processor.

〈眼底カメラユニット2〉
眼底カメラユニット2には、被検眼Eの眼底Efを撮影するための光学系が設けられている。取得される眼底Efの画像(眼底像、眼底写真等と呼ばれる)は、観察画像、撮影画像等の正面画像である。観察画像は、例えば近赤外光を用いた動画撮影により得られ、アライメント、フォーカシング、トラッキングなどに利用される。撮影画像は、例えば可視領域又は赤外領域のフラッシュ光を用いた静止画像である。
<Funus camera unit 2>
The fundus camera unit 2 is provided with an optical system for photographing the fundus Ef of the eye E to be examined. The acquired image of the fundus Ef (referred to as a fundus image, fundus photograph, etc.) is a frontal image such as an observation image or a photographed image. Observation images are obtained, for example, by video shooting using near-infrared light, and are used for alignment, focusing, tracking, and the like. The photographed image is, for example, a still image using flash light in the visible region or infrared region.

眼底カメラユニット2は、照明光学系10と撮影光学系30とを含む。照明光学系10は被検眼Eに照明光を照射する。撮影光学系30は、被検眼Eからの照明光の戻り光を検出する。OCTユニット100からの測定光は、眼底カメラユニット2内の光路を通じて被検眼Eに導かれ、その戻り光は、同じ光路を通じてOCTユニット100に導かれる。 The fundus camera unit 2 includes an illumination optical system 10 and a photographing optical system 30. The illumination optical system 10 irradiates the eye E to be examined with illumination light. The photographing optical system 30 detects the return light of the illumination light from the eye E to be examined. The measurement light from the OCT unit 100 is guided to the eye E through the optical path within the fundus camera unit 2, and the return light is guided to the OCT unit 100 through the same optical path.

照明光学系10の観察光源11から出力された光(観察照明光)は、凹面鏡12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ系17、リレーレンズ18、絞り19、及びリレーレンズ系20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて被検眼E(眼底Ef)を照明する。観察照明光の被検眼Eからの戻り光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、撮影合焦レンズ31を経由し、ミラー32により反射される。更に、この戻り光は、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、結像レンズ34によりイメージセンサ35の受光面に結像される。イメージセンサ35は、所定のフレームレートで戻り光を検出する。なお、撮影光学系30のフォーカス(焦点位置)は、眼底Ef又は前眼部に合致するように調整される。 Light (observation illumination light) output from the observation light source 11 of the illumination optical system 10 is reflected by the concave mirror 12, passes through the condensing lens 13, and passes through the visible cut filter 14 to become near-infrared light. Further, the observation illumination light is once focused near the photographing light source 15, reflected by a mirror 16, and passes through a relay lens system 17, a relay lens 18, an aperture 19, and a relay lens system 20. The observation illumination light is reflected at the periphery of the apertured mirror 21 (the area around the aperture), passes through the dichroic mirror 46, and is refracted by the objective lens 22 to illuminate the eye E (fundus Ef). do. The return light of the observation illumination light from the subject's eye E is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the center area of the perforated mirror 21, and passes through the dichroic mirror 55. , passes through the photographic focusing lens 31 and is reflected by the mirror 32. Furthermore, this returned light passes through the half mirror 33A, is reflected by the dichroic mirror 33, and is imaged by the imaging lens 34 on the light receiving surface of the image sensor 35. The image sensor 35 detects the returned light at a predetermined frame rate. Note that the focus (focal position) of the photographing optical system 30 is adjusted to match the fundus Ef or the anterior segment of the eye.

撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。被検眼Eからの撮影照明光の戻り光は、観察照明光の戻り光と同じ経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、結像レンズ37によりイメージセンサ38の受光面に結像される。 The light output from the photographing light source 15 (photographing illumination light) passes through the same path as the observation illumination light and is irradiated onto the fundus Ef. The return light of the imaging illumination light from the eye E is guided to the dichroic mirror 33 through the same path as the return light of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is reflected by the imaging lens 37. An image is formed on the light receiving surface of the image sensor 38.

液晶ディスプレイ(LCD)39は固視標(固視標画像)を表示する。LCD39から出力された光束は、その一部がハーフミラー33Aに反射され、ミラー32に反射され、撮影合焦レンズ31及びダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光束は、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。LCD39における固視標画像の表示位置を変更することで、被検眼Eの視線を誘導する方向(固視方向、固視位置)が変更される。 A liquid crystal display (LCD) 39 displays a fixation target (fixation target image). A portion of the light beam output from the LCD 39 is reflected by the half mirror 33A, then reflected by the mirror 32, passes through the photographic focusing lens 31 and the dichroic mirror 55, and then passes through the hole of the perforated mirror 21. The light beam that has passed through the hole of the perforated mirror 21 is transmitted through the dichroic mirror 46, refracted by the objective lens 22, and projected onto the fundus Ef. By changing the display position of the fixation target image on the LCD 39, the direction (fixation direction, fixation position) in which the line of sight of the eye E to be examined is guided is changed.

LCD等の表示デバイスの代わりに、例えば、発光素子アレイ、又は、発光素子とこれを移動する機構との組み合わせを用いてもよい。 Instead of a display device such as an LCD, for example, a light emitting element array or a combination of a light emitting element and a mechanism for moving the light emitting element may be used.

アライメント光学系50は、被検眼Eに対する光学系の位置合わせ(アライメント)に用いられるアライメント指標を生成する。発光ダイオード(LED)51から出力されたアライメント光は、絞り52、絞り53、及びリレーレンズ54を経由し、ダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22を介して被検眼Eに投射される。アライメント光の被検眼Eからの戻り光(角膜反射光等)は、観察照明光の戻り光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(アライメント指標像)に基づいてマニュアルアライメントやオートアライメントを実行できる。 The alignment optical system 50 generates an alignment index used for positioning (alignment) the optical system with respect to the eye E to be examined. The alignment light output from the light emitting diode (LED) 51 passes through the aperture 52 , the aperture 53 , and the relay lens 54 , is reflected by the dichroic mirror 55 , passes through the hole of the perforated mirror 21 , and passes through the dichroic mirror 46 . The light is transmitted through the objective lens 22 and projected onto the eye E to be examined. Return light of the alignment light from the eye E to be examined (corneal reflected light, etc.) is guided to the image sensor 35 through the same path as the return light of the observation illumination light. Manual alignment or auto alignment can be performed based on the received light image (alignment index image).

従来と同様に、本例のアライメント指標像は、アライメント状態により位置が変化する2つの輝点像からなる。被検眼Eと光学系との相対位置がxy方向に変化すると、2つの輝点像が一体的にxy方向に変位する。被検眼Eと光学系との相対位置がz方向に変化すると、2つの輝点像の間の相対位置(距離)が変化する。z方向における被検眼Eと光学系との間の距離が既定のワーキングディスタンスに一致すると、2つの輝点像が重なり合う。xy方向において被検眼Eの位置と光学系の位置とが一致すると、所定のアライメントターゲット内又はその近傍に2つの輝点像が提示される。z方向における被検眼Eと光学系との間の距離がワーキングディスタンスに一致し、且つ、xy方向において被検眼Eの位置と光学系の位置とが一致すると、2つの輝点像が重なり合ってアライメントターゲット内に提示される。 As in the prior art, the alignment index image of this example consists of two bright spot images whose positions change depending on the alignment state. When the relative position between the eye E and the optical system changes in the xy direction, the two bright spot images are integrally displaced in the xy direction. When the relative position between the eye E and the optical system changes in the z direction, the relative position (distance) between the two bright spot images changes. When the distance between the eye E and the optical system in the z direction matches the predetermined working distance, the two bright spot images overlap. When the position of the eye E and the position of the optical system match in the xy direction, two bright spot images are presented within or near a predetermined alignment target. When the distance between the eye E and the optical system in the z direction matches the working distance, and the position of the eye E and the optical system match in the xy direction, the two bright spot images overlap and alignment occurs. presented within the target.

オートアライメントでは、データ処理部230が、2つの輝点像の位置を検出し、主制御部211が、2つの輝点像とアライメントターゲットとの位置関係に基づいて後述の移動機構150を制御する。マニュアルアライメントでは、主制御部211が、被検眼Eの観察画像とともに2つの輝点像を表示部241に表示させ、ユーザーが、表示された2つの輝点像を参照しながら操作部242を用いて移動機構150を動作させる。 In auto-alignment, the data processing unit 230 detects the positions of two bright spot images, and the main control unit 211 controls the movement mechanism 150, which will be described later, based on the positional relationship between the two bright spot images and the alignment target. . In manual alignment, the main control unit 211 displays two bright spot images on the display unit 241 together with the observation image of the eye E, and the user uses the operation unit 242 while referring to the two displayed bright spot images. to operate the moving mechanism 150.

フォーカス光学系60は、被検眼Eに対するフォーカス調整に用いられるスプリット指標を生成する。撮影光学系30の光路(撮影光路)に沿った撮影合焦レンズ31の移動に連動して、フォーカス光学系60は照明光学系10の光路(照明光路)に沿って移動される。反射棒67は、照明光路に対して挿脱される。フォーカス調整を行う際には、反射棒67の反射面が照明光路に傾斜配置される。LED61から出力されたフォーカス光は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65により反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22を介して被検眼Eに投射される。フォーカス光の被検眼Eからの戻り光(眼底反射光等)は、アライメント光の戻り光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(スプリット指標像)に基づいてマニュアルフォーカシングやオートフォーカシングを実行できる。 The focus optical system 60 generates a split index used for focus adjustment for the eye E to be examined. In conjunction with the movement of the photographing focusing lens 31 along the optical path of the photographing optical system 30 (photographing optical path), the focusing optical system 60 is moved along the optical path of the illumination optical system 10 (illumination optical path). The reflection rod 67 is inserted into and removed from the illumination optical path. When performing focus adjustment, the reflective surface of the reflective rod 67 is arranged at an angle to the illumination optical path. The focus light output from the LED 61 passes through a relay lens 62 , is separated into two beams by a split indicator plate 63 , passes through a two-hole diaphragm 64 , is reflected by a mirror 65 , and is reflected by a condensing lens 66 into a reflecting rod 67 . Once the image is formed on the reflective surface of the image, it is reflected. Further, the focus light passes through the relay lens 20, is reflected by the perforated mirror 21, passes through the dichroic mirror 46, and is projected onto the eye E through the objective lens 22. Return light of the focus light from the eye E to be examined (fundus reflected light, etc.) is guided to the image sensor 35 through the same path as the return light of the alignment light. Manual focusing or autofocusing can be performed based on the received light image (split index image).

孔開きミラー21とダイクロイックミラー55との間の撮影光路に、視度補正レンズ70及び71を選択的に挿入することができる。視度補正レンズ70は、強度遠視を補正するためのプラスレンズ(凸レンズ)である。視度補正レンズ71は、強度近視を補正するためのマイナスレンズ(凹レンズ)である。 Diopter correction lenses 70 and 71 can be selectively inserted into the photographing optical path between the perforated mirror 21 and the dichroic mirror 55. The diopter correction lens 70 is a plus lens (convex lens) for correcting severe hyperopia. The diopter correction lens 71 is a minus lens (concave lens) for correcting severe myopia.

ダイクロイックミラー46は、眼底撮影用光路とOCT用光路(測定アーム)とを合成する。ダイクロイックミラー46は、OCTに用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。測定アームには、OCTユニット100側から順に、コリメータレンズユニット40、リトロリフレクタ41、分散補償部材42、OCT合焦レンズ43、光スキャナ44、及びリレーレンズ45が設けられている。 The dichroic mirror 46 combines the fundus photographing optical path and the OCT optical path (measuring arm). The dichroic mirror 46 reflects light in a wavelength band used for OCT and transmits light for fundus photography. The measurement arm is provided with a collimator lens unit 40, a retroreflector 41, a dispersion compensation member 42, an OCT focusing lens 43, an optical scanner 44, and a relay lens 45 in this order from the OCT unit 100 side.

リトロリフレクタ41は、図1に示す矢印の方向に移動可能とされ、それにより測定アームの長さが変更される。測定アーム長の変更は、例えば、眼軸長に応じた光路長補正や、干渉状態の調整などに利用される。 The retroreflector 41 is movable in the direction of the arrow shown in FIG. 1, thereby changing the length of the measurement arm. Changing the measurement arm length is used, for example, to correct the optical path length according to the axial length or to adjust the interference state.

分散補償部材42は、参照アームに配置された分散補償部材113(後述)とともに、測定光LSの分散特性と参照光LRの分散特性とを合わせるよう作用する。 The dispersion compensation member 42 acts together with a dispersion compensation member 113 (described later) disposed on the reference arm to match the dispersion characteristics of the measurement light LS and the dispersion characteristics of the reference light LR.

OCT合焦レンズ43は、測定アームのフォーカス調整を行うために測定アームに沿って移動される。撮影合焦レンズ31の移動、フォーカス光学系60の移動、及びOCT合焦レンズ43の移動を連係的に制御することができる。 The OCT focusing lens 43 is moved along the measurement arm to perform focus adjustment of the measurement arm. Movement of the imaging focusing lens 31, movement of the focusing optical system 60, and movement of the OCT focusing lens 43 can be controlled in a coordinated manner.

光スキャナ44は、実質的に、被検眼Eの瞳孔と光学的に共役な位置に配置される。光スキャナ44は、測定アームにより導かれる測定光LSを偏向する。光スキャナ44は、例えば、x方向のスキャンを行うためのガルバノミラーと、y方向のスキャンを行うためのガルバノミラーとを含む、2次元スキャンが可能なガルバノスキャナである。 The optical scanner 44 is arranged at a position that is substantially optically conjugate with the pupil of the eye E to be examined. The optical scanner 44 deflects the measurement light LS guided by the measurement arm. The optical scanner 44 is a galvano scanner capable of two-dimensional scanning, including, for example, a galvano mirror for scanning in the x direction and a galvano mirror for scanning in the y direction.

〈OCTユニット100〉
図2に例示するように、OCTユニット100には、スウェプトソースOCTを適用するための光学系が設けられている。この光学系は干渉光学系を含む。この干渉光学系は、波長可変光源(波長掃引型光源)からの光を測定光と参照光とに分割し、被検眼Eからの測定光の戻り光と参照光路を経由した参照光とを重ね合わせて干渉光を生成し、この干渉光を検出する。干渉光学系により得られたデータ(検出信号)は、干渉光のスペクトルを表す信号であり、演算制御ユニット200に送られる。
<OCT unit 100>
As illustrated in FIG. 2, the OCT unit 100 is provided with an optical system for applying swept source OCT. This optical system includes an interference optical system. This interference optical system splits the light from the wavelength variable light source (wavelength swept light source) into measurement light and reference light, and overlaps the return light of the measurement light from the eye E with the reference light that has passed through the reference optical path. Together, they generate interference light, and this interference light is detected. The data (detection signal) obtained by the interference optical system is a signal representing the spectrum of interference light, and is sent to the arithmetic and control unit 200.

光源ユニット101は、例えば、少なくとも近赤外波長帯において出射波長を高速で変化させる近赤外波長可変レーザーを含む。光源ユニット101から出力された光L0は、光ファイバ102により偏波コントローラ103に導かれてその偏光状態が調整される。更に、光L0は、光ファイバ104によりファイバカプラ105に導かれて測定光LSと参照光LRとに分割される。測定光LSの光路は測定アームと呼ばれ、参照光LRの光路は参照アームと呼ばれる。 The light source unit 101 includes, for example, a near-infrared variable wavelength laser that changes the emission wavelength at high speed at least in the near-infrared wavelength band. Light L0 output from the light source unit 101 is guided to a polarization controller 103 by an optical fiber 102, and its polarization state is adjusted. Further, the light L0 is guided to a fiber coupler 105 by an optical fiber 104 and is split into a measurement light LS and a reference light LR. The optical path of the measurement light LS is called a measurement arm, and the optical path of the reference light LR is called a reference arm.

参照光LRは、光ファイバ110によりコリメータ111に導かれて平行光束に変換され、光路長補正部材112及び分散補償部材113を経由し、リトロリフレクタ114に導かれる。光路長補正部材112は、参照光LRの光路長と測定光LSの光路長とを合わせるよう作用する。分散補償部材113は、測定アームに配置された分散補償部材42とともに、参照光LRと測定光LSとの間の分散特性を合わせるよう作用する。リトロリフレクタ114は、これに入射する参照光LRの光路に沿って移動可能であり、それにより参照アームの長さが変更される。参照アーム長の変更は、例えば、眼軸長に応じた光路長補正や、干渉状態の調整などに利用される。 The reference light LR is guided to a collimator 111 by an optical fiber 110, converted into a parallel light beam, and guided to a retroreflector 114 via an optical path length correction member 112 and a dispersion compensation member 113. The optical path length correction member 112 acts to match the optical path length of the reference light LR and the optical path length of the measurement light LS. The dispersion compensation member 113 acts together with the dispersion compensation member 42 disposed on the measurement arm to match the dispersion characteristics between the reference light LR and the measurement light LS. The retroreflector 114 is movable along the optical path of the reference light LR incident thereon, thereby changing the length of the reference arm. Changing the reference arm length is used, for example, to correct the optical path length according to the axial length or to adjust the interference state.

リトロリフレクタ114を経由した参照光LRは、分散補償部材113及び光路長補正部材112を経由し、コリメータ116によって平行光束から集束光束に変換され、光ファイバ117に入射する。光ファイバ117に入射した参照光LRは、偏波コントローラ118に導かれてその偏光状態が調整され、光ファイバ119を通じてアッテネータ120に導かれてその光量が調整され、光ファイバ121を通じてファイバカプラ122に導かれる。 The reference light LR that has passed through the retroreflector 114 passes through the dispersion compensating member 113 and the optical path length correcting member 112, is converted from a parallel beam into a convergent beam by the collimator 116, and enters the optical fiber 117. The reference light LR incident on the optical fiber 117 is guided to a polarization controller 118 to have its polarization state adjusted, guided to an attenuator 120 through an optical fiber 119 to have its light amount adjusted, and then sent to a fiber coupler 122 through an optical fiber 121. be guided.

一方、ファイバカプラ105により生成された測定光LSは、光ファイバ127により導かれてコリメータレンズユニット40により平行光束に変換され、リトロリフレクタ41、分散補償部材42、OCT合焦レンズ43、光スキャナ44及びリレーレンズ45を経由し、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて被検眼Eに投射される。測定光LSは、被検眼Eの様々な深さ位置において散乱・反射される。測定光LSの被検眼Eからの戻り光は、往路と同じ経路を逆向きに進行してファイバカプラ105に導かれ、光ファイバ128を経由してファイバカプラ122に到達する。 On the other hand, the measurement light LS generated by the fiber coupler 105 is guided by the optical fiber 127 and converted into a parallel light beam by the collimator lens unit 40. The light passes through the relay lens 45, is reflected by the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the eye E to be examined. The measurement light LS is scattered and reflected at various depth positions of the eye E to be examined. The return light of the measurement light LS from the eye E to be examined travels the same path as the outgoing path in the opposite direction, is guided to the fiber coupler 105, and reaches the fiber coupler 122 via the optical fiber 128.

ファイバカプラ122は、光ファイバ128を介して入射された測定光LSと、光ファイバ121を介して入射された参照光LRとを重ね合わせて干渉光を生成する。ファイバカプラ122は、生成された干渉光を所定の分岐比(例えば1:1)で分岐することで一対の干渉光LCを生成する。一対の干渉光LCは、それぞれ光ファイバ123及び124を通じて検出器125に導かれる。 The fiber coupler 122 superimposes the measurement light LS incident on the optical fiber 128 and the reference light LR incident on the optical fiber 121 to generate interference light. The fiber coupler 122 generates a pair of interference lights LC by branching the generated interference lights at a predetermined branching ratio (for example, 1:1). A pair of interference lights LC are guided to a detector 125 through optical fibers 123 and 124, respectively.

検出器125は、例えばバランスドフォトダイオードを含む。バランスドフォトダイオードは、一対の干渉光LCをそれぞれ検出する一対のフォトディテクタを有し、これらにより得られた一対の検出結果の差分を出力する。検出器125は、この出力(検出信号)をデータ収集システム(DAS)130に送る。 Detector 125 includes, for example, a balanced photodiode. The balanced photodiode includes a pair of photodetectors that respectively detect a pair of interference lights LC, and outputs a difference between a pair of detection results obtained by these photodetectors. Detector 125 sends this output (detection signal) to data acquisition system (DAS) 130.

データ収集システム130には、光源ユニット101からクロックKCが供給される。クロックKCは、光源ユニット101において、波長可変光源により所定の波長範囲内で掃引される各波長の出力タイミングに同期して生成される。光源ユニット101は、例えば、各出力波長の光L0を分岐して2つの分岐光を生成し、これら分岐光の一方を光学的に遅延させ、これら分岐光を合成し、得られた合成光を検出し、その検出結果に基づいてクロックKCを生成する。データ収集システム130は、検出器125から入力される検出信号のサンプリングをクロックKCに基づいて実行する。データ収集システム130は、このサンプリングの結果を演算制御ユニット200に送る。 The data collection system 130 is supplied with a clock KC from the light source unit 101. The clock KC is generated in the light source unit 101 in synchronization with the output timing of each wavelength swept within a predetermined wavelength range by the variable wavelength light source. For example, the light source unit 101 splits the light L0 of each output wavelength to generate two branched lights, optically delays one of these branched lights, combines these branched lights, and generates the resulting composite light. A clock KC is generated based on the detection result. The data acquisition system 130 performs sampling of the detection signal input from the detector 125 based on the clock KC. Data acquisition system 130 sends the results of this sampling to arithmetic and control unit 200 .

本例では、測定アーム長を変更するための要素(例えば、リトロリフレクタ41)と、参照アーム長を変更するための要素(例えば、リトロリフレクタ114、又は参照ミラー)との双方が設けられているが、一方の要素のみが設けられていてもよい。また、測定アーム長と参照アーム長との間の差(光路長差)を変更するための要素はこれらに限定されず、任意の要素(光学部材、機構など)であってよい。 In this example, both an element for changing the measurement arm length (for example, retroreflector 41) and an element for changing the reference arm length (for example, retroreflector 114 or reference mirror) are provided. However, only one element may be provided. Moreover, the elements for changing the difference (optical path length difference) between the measurement arm length and the reference arm length are not limited to these, and may be any elements (optical members, mechanisms, etc.).

〈制御系・処理系〉
眼科装置1の制御系及び処理系の構成例を図3、図4A及び図4Bに示す。制御部210、画像構築部220、及びデータ処理部230は、例えば演算制御ユニット200に設けられる。眼科装置1は、外部装置との間でデータ通信を行うための通信デバイスを含んでいてもよい。眼科装置1は、記録媒体からのデータ読み出しと、記録媒体へのデータ書き込みとを行うためのドライブ装置(リーダ/ライタ)を含んでいてもよい。
<Control system/processing system>
Configuration examples of the control system and processing system of the ophthalmologic apparatus 1 are shown in FIGS. 3, 4A, and 4B. The control section 210, the image construction section 220, and the data processing section 230 are provided in the arithmetic control unit 200, for example. The ophthalmological apparatus 1 may include a communication device for performing data communication with an external device. The ophthalmological apparatus 1 may include a drive device (reader/writer) for reading data from a recording medium and writing data to the recording medium.

〈制御部210〉
制御部210は、各種の制御を実行する。制御部210は、主制御部211と記憶部212とを含む。また、図4Aに示すように、本実施形態において、主制御部211は走査制御部2111を含み、記憶部212は走査プロトコル2121を記憶している。
<Control unit 210>
The control unit 210 executes various controls. Control section 210 includes a main control section 211 and a storage section 212. Further, as shown in FIG. 4A, in this embodiment, the main control unit 211 includes a scan control unit 2111, and the storage unit 212 stores a scan protocol 2121.

〈主制御部211〉
主制御部211は、プロセッサを含み、眼科装置1の各要素(図1~図4Bに示された要素を含む)を制御する。主制御部211は、プロセッサを含むハードウェアと、制御ソフトウェアとの協働によって実現される。走査制御部2111は、所定形状及び所定サイズの走査エリアに関するOCTスキャンの制御を行う。
<Main control unit 211>
The main control unit 211 includes a processor and controls each element of the ophthalmologic apparatus 1 (including the elements shown in FIGS. 1 to 4B). The main control unit 211 is realized by cooperation between hardware including a processor and control software. The scan control unit 2111 controls OCT scanning regarding a scan area of a predetermined shape and a predetermined size.

撮影合焦駆動部31Aは、主制御部211の制御の下に、撮影光路に配置された撮影合焦レンズ31と照明光路に配置されたフォーカス光学系60とを移動する。リトロリフレクタ(RR)駆動部41Aは、主制御部211の制御の下に、測定アームに設けられたリトロリフレクタ41を移動する。OCT合焦駆動部43Aは、主制御部211の制御の下に、測定アームに配置されたOCT合焦レンズ43を移動する。測定アームに設けられたリトロリフレクタ(RR)駆動部114Aは、主制御部211の制御の下に、参照アームに配置されたリトロリフレクタ114を移動する。上記した駆動部のそれぞれは、主制御部211の制御の下に動作するパルスモータ等のアクチュエータを含む。光スキャナ44は、主制御部211(走査制御部2111)の制御の下に動作する。 The photographic focus drive unit 31A moves the photographic focus lens 31 disposed in the photographic optical path and the focus optical system 60 disposed in the illumination optical path under the control of the main control unit 211. The retroreflector (RR) driving section 41A moves the retroreflector 41 provided on the measurement arm under the control of the main control section 211. The OCT focusing drive section 43A moves the OCT focusing lens 43 disposed on the measurement arm under the control of the main control section 211. A retroreflector (RR) drive unit 114A provided on the measurement arm moves the retroreflector 114 placed on the reference arm under the control of the main control unit 211. Each of the above-described drive units includes an actuator such as a pulse motor that operates under the control of the main control unit 211. The optical scanner 44 operates under the control of the main control section 211 (scanning control section 2111).

移動機構150は、典型的には、眼底カメラユニット2を3次元的に移動し、例えば、±x方向(左右方向)に移動可能なxステージと、xステージを移動するx移動機構と、±y方向(上下方向)に移動可能なyステージと、yステージを移動するy移動機構と、±z方向(奥行き方向)に移動可能なzステージと、zステージを移動するz移動機構とを含む。各移動機構は、主制御部211の制御の下に動作するパルスモータ等のアクチュエータを含む。 The moving mechanism 150 typically moves the fundus camera unit 2 three-dimensionally, for example, an x-stage that can move in the ±x direction (left-right direction), an x-movement mechanism that moves the x-stage, and a Includes a y stage that can move in the y direction (up and down direction), a y movement mechanism that moves the y stage, a z stage that can move in the ±z direction (depth direction), and a z movement mechanism that moves the z stage. . Each movement mechanism includes an actuator such as a pulse motor that operates under the control of the main control unit 211.

〈記憶部212〉
記憶部212は各種のデータを記憶する。記憶部212に記憶されるデータとしては、OCT画像、眼底像、被検眼情報、制御情報などがある。被検眼情報は、患者IDや氏名などの被検者情報や、左眼/右眼の識別情報や、電子カルテ情報などを含む。制御情報は、特定の制御に関する情報である。本実施形態の制御情報は、走査プロトコル2121を含む。
<Storage unit 212>
The storage unit 212 stores various data. The data stored in the storage unit 212 includes OCT images, fundus images, eye information to be examined, control information, and the like. The eye information to be examined includes patient information such as patient ID and name, left eye/right eye identification information, electronic medical record information, and the like. Control information is information regarding specific control. The control information in this embodiment includes a scanning protocol 2121.

走査プロトコル2121は、所定形状及び所定サイズの走査エリアに関するOCTスキャンのための制御の内容に関する取り決めであり、各種制御パラメータ(走査制御パラメータ)の組を含む。走査プロトコル2121は、走査モード毎のプロトコルを含む。本実施形態の走査プロトコル2121は、リサージュスキャンのプロトコルを少なくとも含み、更に、例えば、Bスキャン(ラインスキャン)、クロススキャン、ラジアルスキャン、ラスタースキャンなどのプロトコルを含んでいてもよい。 The scanning protocol 2121 is an agreement regarding the contents of control for OCT scanning regarding a scanning area of a predetermined shape and a predetermined size, and includes a set of various control parameters (scanning control parameters). The scanning protocol 2121 includes a protocol for each scanning mode. The scanning protocol 2121 of this embodiment includes at least a Lissajous scan protocol, and may further include protocols such as B scan (line scan), cross scan, radial scan, and raster scan.

本実施形態の走査制御パラメータは、光スキャナ44に対する制御の内容を示すパラメータを少なくとも含む。このパラメータは、例えば、スキャンパターンを示すパラメータ、スキャン速度を示すパラメータ、スキャン間隔を示すパラメータなどがある。スキャンパターンは、スキャンの経路の形状を示し、その例として、リサージュパターン、ラインパターン、クロスパターン、ラジアルパターン、ラスターパターンなどがある。スキャン速度は、例えば、Aスキャンの繰り返しレートとして定義される。スキャン間隔は、例えば、隣接するAスキャンの間隔として、つまりスキャン点の配列間隔として定義される。 The scanning control parameters of this embodiment include at least parameters indicating the content of control for the optical scanner 44. This parameter includes, for example, a parameter indicating a scan pattern, a parameter indicating a scan speed, a parameter indicating a scan interval, and the like. The scan pattern indicates the shape of a scan path, and examples thereof include a Lissajous pattern, a line pattern, a cross pattern, a radial pattern, and a raster pattern. The scan speed is defined, for example, as the A-scan repetition rate. The scan interval is defined, for example, as the interval between adjacent A scans, that is, as the arrangement interval of scan points.

なお、特許文献1~4並びに非特許文献1及び2の開示のような従来技術と同様に、本実施形態の「リサージュスキャン」は、互いに直交する2つの単振動を順序対として得られる点の軌跡が描くパターン(リサージュパターン、リサージュ図形、リサージュ曲線、リサージュ関数、バウディッチ曲線)を経路とした「狭義の」リサージュスキャンだけでなく、一連のサイクルを含む所定の2次元パターンに従う「広義の」リサージュスキャンであってもよい。 Note that, similar to the conventional techniques disclosed in Patent Documents 1 to 4 and Non-Patent Documents 1 and 2, the "Lissajous scan" of this embodiment is based on the point that two mutually orthogonal simple harmonic motions are obtained as an ordered pair. Not only Lissajous scan in a “narrow sense” where the path follows a pattern drawn by a trajectory (Lissajous pattern, Lissajous figure, Lissajous curve, Lissajous function, Bowditch curve), but also Lissajous in a “broad sense” that follows a predetermined two-dimensional pattern including a series of cycles. It may also be a scan.

本実施形態では、光スキャナ44は、x方向に測定光LSを偏向する第1ガルバノミラーと、y方向に測定光LSを偏向する第2ガルバノミラーとを含む。リサージュスキャンは、x方向に沿った偏向方向の変化を第1周期で繰り返すように第1ガルバノミラーの制御を行いつつ、y方向に沿った偏向方向の変化を第2周期で繰り返すように第2ガルバノミラーの制御を行うことによって実現される。ここで、第1周期と第2周期とは互いに異なる。 In this embodiment, the optical scanner 44 includes a first galvano mirror that deflects the measurement light LS in the x direction and a second galvano mirror that deflects the measurement light LS in the y direction. In the Lissajous scan, the first galvanometer mirror is controlled so that the deflection direction along the x direction is repeated in the first cycle, and the second galvano mirror is controlled so that the deflection direction along the y direction is repeated in the second cycle. This is achieved by controlling the galvanometer mirror. Here, the first period and the second period are different from each other.

例えば、本実施形態のリサージュスキャンは、2つの正弦波の組み合わせから得られる狭義のリサージュパターンのスキャンだけでなく、これに特定項(例えば、奇数次の多項式)を加えたパターンのスキャンや、三角波に基づくパターンのスキャンであってもよい。 For example, the Lissajous scan of this embodiment not only scans a Lissajous pattern in a narrow sense obtained from a combination of two sine waves, but also scans a pattern in which a specific term (for example, an odd-order polynomial) is added to the Lissajous pattern, or scans a triangular wave pattern. It may also be a pattern scan based on .

「サイクル」は、一般に、或る長さを持つ複数のサンプリング点から構成されるオブジェクトを意味し、例えば閉曲線又はほぼ閉曲線であってよい(つまり、サイクルの始点と終点とが一致又はほぼ一致していてよい)。 "Cycle" generally means an object consisting of a plurality of sampling points of a certain length, which may be, for example, a closed or nearly closed curve (i.e., the start and end points of the cycle coincide or nearly coincide). ).

典型的には、走査プロトコル2121はリサージュ関数に基づき設定される。非特許文献1の式(9)に示すように、リサージュ関数は、例えば、次のパラメトリック方程式系で表現される:x(ti)=A・cos(2π・(fA/n)・ti)、y(ti)=A・cos(2π・(fA・(n-2)/n2)・ti)。 Typically, the scanning protocol 2121 is set based on a Lissajous function. As shown in equation (9) of Non-Patent Document 1, the Lissajous function is expressed, for example, by the following parametric equation system: x(t i )=A・cos(2π・(f A /n)・t i ), y(t i )=A・cos(2π・(f A・(n-2)/n 2 )・t i ).

ここで、xはリサージュ曲線が定義される2次元座標系の横軸、yは縦軸、tiはリサージュスキャンにおける第i番目のAラインの収集時点、Aはスキャン範囲(振幅)、fAはAラインの収集レート(スキャン速度、Aスキャンの繰り返しレート)、nはx(横軸)方向の各サイクルにおけるAラインの個数をそれぞれ示す。 Here, x is the horizontal axis of the two-dimensional coordinate system in which the Lissajous curve is defined, y is the vertical axis, t i is the acquisition time of the i-th A line in the Lissajous scan, A is the scan range (amplitude), f A is the acquisition rate of the A-line (scan speed, repetition rate of A-scan), and n is the number of A-lines in each cycle in the x (horizontal axis) direction.

このようなリサージュスキャンにおいて眼底Efに適用されるスキャンラインの分布の例を図5に示す。 FIG. 5 shows an example of the distribution of scan lines applied to the fundus Ef in such a Lissajous scan.

(狭義又は広義の)リサージュスキャンに含まれる任意のサイクル対(ペア)が1点以上(特に2点以上、典型的には4点)で互いに交差するため、リサージュスキャンにおける任意のサイクル対から収集されたデータ対の間のレジストレーションを行うことができる。これにより、非特許文献1(又は2)に開示された画像構築手法及びモーションアーティファクト補正手法を利用することが可能となる。以下、特に言及しない限り、非特許文献1に記載された手法が適用される。 Collected from any pair of cycles in a Lissajous scan (in a narrow or broad sense) because any pair of cycles included in the Lissajous scan intersects each other at one or more points (particularly two or more points, typically four points) Registration can be performed between the created data pairs. This makes it possible to use the image construction method and motion artifact correction method disclosed in Non-Patent Document 1 (or 2). Hereinafter, unless otherwise mentioned, the method described in Non-Patent Document 1 is applied.

記憶部212に記憶される制御情報は上記の例に限定されない。例えば、制御情報はフォーカス制御を行うための情報(フォーカス制御パラメータ)を含んでいてよい。 The control information stored in the storage unit 212 is not limited to the above example. For example, the control information may include information for performing focus control (focus control parameters).

フォーカス制御パラメータは、OCT合焦駆動部43Aに対する制御の内容を示すパラメータである。フォーカス制御パラメータの例として、測定アームの焦点位置を示すパラメータ、焦点位置の移動速度を示すパラメータ、焦点位置の移動加速度を示すパラメータなどがある。焦点位置を示すパラメータは、例えば、OCT合焦レンズ43の位置を示すパラメータである。焦点位置の移動速度を示すパラメータは、例えば、OCT合焦レンズ43の移動速度を示すパラメータである。焦点位置の移動加速度を示すパラメータは、例えば、OCT合焦レンズ43の移動加速度を示すパラメータである。移動速度は、一定であってもよいし、一定でなくてもよい。移動加速度についても同様である。 The focus control parameter is a parameter indicating the content of control for the OCT focusing drive section 43A. Examples of the focus control parameters include a parameter indicating the focal position of the measurement arm, a parameter indicating the moving speed of the focal position, and a parameter indicating the moving acceleration of the focal position. The parameter indicating the focal position is, for example, a parameter indicating the position of the OCT focusing lens 43. The parameter indicating the moving speed of the focal position is, for example, a parameter indicating the moving speed of the OCT focusing lens 43. The parameter indicating the moving acceleration of the focal position is, for example, a parameter indicating the moving acceleration of the OCT focusing lens 43. The moving speed may or may not be constant. The same applies to movement acceleration.

このようなフォーカス制御パラメータによれば、眼底Efの形状(典型的には、中心部が深く且つ周辺部が浅い凹形状)や収差分布に応じたフォーカス調整が可能になる。フォーカス制御は、例えば、走査制御(リサージュスキャンの繰り返し制御)と連係的に実行される。それにより、モーションアーティファクトが補正され、且つ、スキャン範囲の全体に亘ってピントが合った、高品質の画像が得られる。 According to such focus control parameters, it becomes possible to perform focus adjustment according to the shape of the fundus Ef (typically a concave shape that is deep at the center and shallow at the periphery) and the aberration distribution. Focus control is executed in conjunction with scanning control (Lissajous scan repetition control), for example. This corrects motion artifacts and provides a high-quality image that is in focus throughout the scan range.

〈走査制御部2111〉
走査制御部2111は、走査プロトコル2121に基づいて少なくとも光スキャナ44を制御する。走査制御部2111は、走査プロトコル2121に基づく光スキャナ44の制御と連係して光源ユニット101の制御を更に実行してもよい。走査制御部2111は、プロセッサを含むハードウェアと、走査プロトコル2121を含む走査制御ソフトウェアとの協働によって実現される。
<Scan control unit 2111>
The scan control unit 2111 controls at least the optical scanner 44 based on the scan protocol 2121. The scan control unit 2111 may further control the light source unit 101 in conjunction with the control of the optical scanner 44 based on the scan protocol 2121. The scan control unit 2111 is realized by cooperation between hardware including a processor and scan control software including a scan protocol 2121.

〈画像構築部220〉
画像構築部220は、プロセッサを含み、データ収集システム130から入力された信号(サンプリングデータ)に基づいて、各種のOCT画像データを構築する。典型的なOCT画像データ構築は、従来のフーリエドメインOCT(スウェプトソースOCT)と同様に、ノイズ除去(ノイズ低減)、フィルタリング、高速フーリエ変換(FFT)などを含む。他のタイプのOCT手法が採用される場合、画像構築部220は、そのタイプに応じた公知の処理を実行することによってOCT画像データを構築する。これにより、複数のAスキャン画像データが得られる。これらAスキャン画像データには、走査プロトコルに応じた座標が付与される。
<Image construction unit 220>
The image construction unit 220 includes a processor, and constructs various OCT image data based on the signal (sampling data) input from the data acquisition system 130. Typical OCT image data construction includes denoising, filtering, fast Fourier transform (FFT), etc., similar to traditional Fourier domain OCT (swept source OCT). When another type of OCT technique is employed, the image construction unit 220 constructs OCT image data by executing known processing according to the type. As a result, a plurality of A-scan image data are obtained. These A-scan image data are given coordinates according to the scanning protocol.

前述したように、本実施形態ではリサージュスキャンが眼底Efに適用される。画像構築部220は、リサージュスキャンによる収集とデータ収集システム130によるサンプリングとを介して取得されたデータに対し、例えば非特許文献1及び2のそれぞれに開示された画像構築手法及びモーションアーティファクト補正手法を適用することによって3次元画像データを構築する。幾つかの例示的な態様において、画像構築部220は、データ処理部230とともに3次元画像データ構築を実行するように構成されていてよい。 As described above, in this embodiment, the Lissajous scan is applied to the fundus Ef. The image construction unit 220 applies the image construction method and motion artifact correction method disclosed in Non-Patent Documents 1 and 2, respectively, to the data acquired through the Lissajous scan and the sampling by the data collection system 130. By applying this, three-dimensional image data is constructed. In some example aspects, image construction unit 220 may be configured to perform three-dimensional image data construction in conjunction with data processing unit 230.

画像構築部220及び/又はデータ処理部230は、3次元画像データにレンダリングを適用して表示用画像を形成することができる。適用可能なレンダリング法の例として、ボリュームレンダリング、サーフェスレンダリング、最大値プロジェクション(MIP)、最小値プロジェクション(MinIP)、多断面再構成(MPR)などがある。 The image construction unit 220 and/or the data processing unit 230 can form a display image by applying rendering to the three-dimensional image data. Examples of applicable rendering methods include volume rendering, surface rendering, maximum intensity projection (MIP), minimum intensity projection (MinIP), and multiplanar reconstruction (MPR).

画像構築部220及び/又はデータ処理部230は、3次元画像データに基づいてOCT正面画像(enface OCT image)を構築することが可能である。例えば、画像構築部220及び/又はデータ処理部230は、3次元画像データをz方向(Aライン方向、深さ方向)に投影することでプロジェクションデータを構築することができる。また、画像構築部220及び/又はデータ処理部230は、3次元画像データの一部である部分的3次元画像データをz方向に投影することでシャドウグラムを構築することができる。この部分的3次元画像データは、例えば、セグメンテーションを利用して設定される。セグメンテーションは、画像中の部分領域を特定する処理である。本例では、眼底Efの所定組織に相当する画像領域を特定するためにセグメンテーションを行うことができる。 The image construction unit 220 and/or the data processing unit 230 can construct an enface OCT image based on the three-dimensional image data. For example, the image construction unit 220 and/or the data processing unit 230 can construct projection data by projecting three-dimensional image data in the z direction (A-line direction, depth direction). Further, the image construction unit 220 and/or the data processing unit 230 can construct a shadowgram by projecting partial three-dimensional image data, which is a part of three-dimensional image data, in the z direction. This partial three-dimensional image data is set using, for example, segmentation. Segmentation is a process of identifying partial regions in an image. In this example, segmentation can be performed to identify an image region corresponding to a predetermined tissue of the fundus Ef.

眼科装置1は、OCT血管造影(OCT-Angiography)を実施可能であってよい。OCT血管造影は、血管が強調された画像を構築するイメージング技術である(例えば、非特許文献2、特表2015-515894号公報などを参照)。一般に、眼底組織(構造)は時間的に変化しないが、血管内部の血流部分は時間的に変化する。OCT血管造影では、このような時間的変化が存在する部分(血流信号)を強調して画像を生成する。なお、OCT血管造影は、OCTモーションコントラスト撮影(motion contrast imaging)などとも呼ばれる。また、OCT血管造影により取得される画像は、血管造影画像、アンジオグラム(angiogram)、モーションコントラスト画像などと呼ばれる。 The ophthalmological device 1 may be capable of performing OCT-Angiography. OCT angiography is an imaging technique that constructs images in which blood vessels are emphasized (for example, see Non-Patent Document 2, Japanese Patent Publication No. 2015-515894, etc.). Generally, the fundus tissue (structure) does not change over time, but the blood flow inside blood vessels changes over time. In OCT angiography, images are generated by emphasizing portions (blood flow signals) where such temporal changes exist. Note that OCT angiography is also called OCT motion contrast imaging. Furthermore, images obtained by OCT angiography are called angiography images, angiograms, motion contrast images, and the like.

OCT血管造影が実施される場合、眼科装置1は、眼底Efの同じ領域を所定回数だけ繰り返しスキャンする。例えば、眼科装置1は、前述した走査制御(リサージュスキャンの繰り返し制御)を所定回数だけ繰り返し実施する。それにより、リサージュスキャンの適用領域に対応する複数の3次元データ(3次元データセット)がデータ収集システム130によって収集される。画像構築部220及び/又はデータ処理部230は、この3次元データセットからモーションコントラスト画像を構築することができる。このモーションコントラスト画像は、眼底Efの血流に起因する干渉信号の時間的変化が強調された血管造影画像である。この血管造影画像は、眼底Efの血管の3次元的な分布を表現した3次元血管造影画像データである。 When OCT angiography is performed, the ophthalmologic apparatus 1 repeatedly scans the same region of the fundus Ef a predetermined number of times. For example, the ophthalmologic apparatus 1 repeatedly performs the above-described scanning control (Lissajous scan repetition control) a predetermined number of times. Thereby, a plurality of three-dimensional data (three-dimensional data sets) corresponding to the Lissajous scan application area are collected by the data collection system 130. The image construction unit 220 and/or the data processing unit 230 can construct a motion contrast image from this three-dimensional data set. This motion contrast image is an angiographic image in which temporal changes in interference signals caused by blood flow in the fundus Ef are emphasized. This angiographic image is three-dimensional angiographic image data expressing the three-dimensional distribution of blood vessels in the fundus Ef.

画像構築部220及び/又はデータ処理部230は、この3次元血管造影画像データから、任意の2次元血管造影画像データ及び/又は任意の擬似的3次元血管造影画像データを構築することが可能である。例えば、画像構築部220は、3次元血管造影画像データに多断面再構成を適用することにより、眼底Efの任意の断面を表す2次元血管造影画像データを構築することができる。また、画像構築部220は、3次元血管造影画像データにプロジェクション画像化又はシャドウグラム化を適用することにより、眼底Efの正面血管造影画像データを構築することができる。 The image construction unit 220 and/or the data processing unit 230 can construct arbitrary two-dimensional angiography image data and/or arbitrary pseudo three-dimensional angiography image data from this three-dimensional angiography image data. be. For example, the image constructing unit 220 can construct two-dimensional angiographic image data representing an arbitrary cross section of the fundus Ef by applying multi-sectional reconstruction to the three-dimensional angiographic image data. Furthermore, the image construction unit 220 can construct frontal angiography image data of the fundus Ef by applying projection imaging or shadowgram formation to the three-dimensional angiography image data.

本実施形態の画像構築部220は、データ収集システム130により収集されたデータに複数の異なる画像化処理を適用することで、複数の異なる種類の画像を構築する。これら複数種類の画像は、レジストレーション(すなわちモーションアーティファクト補正)に用いられる。なお、従来のモーションアーティファクト補正技術では単一種類の画像を用いていたため、補正精度に向上の余地があった。本実施形態は、複数種類の画像を用いることによって補正精度の向上を図るものである。 The image construction unit 220 of this embodiment constructs a plurality of different types of images by applying a plurality of different imaging processes to the data collected by the data collection system 130. These multiple types of images are used for registration (ie, motion artifact correction). Note that conventional motion artifact correction technology uses a single type of image, so there is room for improvement in correction accuracy. This embodiment aims to improve correction accuracy by using a plurality of types of images.

このような処理を実行するための画像構築部220の構成の一例を図4Bに示す。本例の画像構築部220は、画像化処理部221と、プロジェクション処理部222と、ラテラルシフト量算出部223と、アキシャルシフト量算出部224と、補正部225とを含む。なお、特に言及しない限り、本例は、非特許文献1又は2に記載された技術に従う。 An example of the configuration of the image construction unit 220 for executing such processing is shown in FIG. 4B. The image construction section 220 of this example includes an imaging processing section 221, a projection processing section 222, a lateral shift amount calculation section 223, an axial shift amount calculation section 224, and a correction section 225. Note that unless otherwise specified, this example follows the technology described in Non-Patent Document 1 or 2.

〈画像化処理部221〉
画像化処理部221は、被検眼Eの3次元領域に対するリサージュスキャンで収集されたデータに複数の異なる画像化処理を適用して複数の3次元画像データを構築するように構成されている。
<Imaging processing unit 221>
The imaging processing unit 221 is configured to construct a plurality of three-dimensional image data by applying a plurality of different imaging processes to data collected by a Lissajous scan on a three-dimensional region of the eye E to be examined.

典型的には、画像化処理部221は、少なくとも高速フーリエ変換(FFT)を適用して3次元画像データ(ボリューム)を構築するように構成される。また、画像化処理部221は、高速フーリエ変換の前及び/又は後に所定の処理(前処理及び/又は後処理)を実行するように構成されていてもよい。 Typically, the imaging processing unit 221 is configured to apply at least fast Fourier transform (FFT) to construct three-dimensional image data (volume). Furthermore, the imaging processing unit 221 may be configured to perform predetermined processing (pre-processing and/or post-processing) before and/or after the fast Fourier transform.

画像化処理部221により構築される3次元画像データの種類は任意であってよい。その幾つかの例として、OCT強度画像データ、OCT血管造影画像データ、OCT強度画像データとOCT血管造影画像データとに基づく合成画像データ、及び、OCT偏光画像データがある。 The type of three-dimensional image data constructed by the imaging processing unit 221 may be arbitrary. Some examples are OCT intensity image data, OCT angiography image data, composite image data based on OCT intensity image data and OCT angiography image data, and OCT polarization image data.

OCT強度画像データは、例えば非特許文献1に記載された手法で構築された、リサージュ座標系(例えば、前述したαβγ座標系)で定義された3次元画像データである。OCT強度画像データは、被検眼Eの3次元的な構造を可視化した画像データである。 The OCT intensity image data is three-dimensional image data defined in a Lissajous coordinate system (for example, the αβγ coordinate system described above), constructed by the method described in Non-Patent Document 1, for example. The OCT intensity image data is image data that visualizes the three-dimensional structure of the eye E to be examined.

OCT血管造影画像データは、例えば非特許文献2に記載された手法で構築された、リサージュ座標系(例えばαβγ座標系)で定義された3次元画像データである。OCT血管造影画像データは、被検眼E(眼底Ef)における血流の3次元的な分布を可視化した画像データである。 OCT angiography image data is three-dimensional image data defined by a Lissajous coordinate system (for example, αβγ coordinate system), which is constructed by the method described in, for example, Non-Patent Document 2. OCT angiography image data is image data that visualizes the three-dimensional distribution of blood flow in the eye E (fundus Ef) to be examined.

OCT強度画像データとOCT血管造影画像データとに基づく合成画像データは、OCT強度画像データの少なくとも一部又はそれを処理して構築された画像データとOCT血管造影画像データの少なくとも一部又はそれを処理して構築された画像データとに対して任意の合成処理を適用することにより作成された一つの3次元画像データである。この合成画像データは、被検眼Eの構造及び血流を3次元的に可視化した画像データである。 Composite image data based on OCT intensity image data and OCT angiography image data is composed of at least a part of the OCT intensity image data, or image data constructed by processing the same, and at least a part of the OCT angiography image data. This is one piece of three-dimensional image data created by applying arbitrary compositing processing to the processed and constructed image data. This composite image data is image data that three-dimensionally visualizes the structure and blood flow of the eye E to be examined.

OCT偏光画像データは、偏光OCT(偏光感受型OCT)と呼ばれるモダリティが採用された場合に取得される3次元画像データである。OCT偏光画像データは、被検眼E(眼底Ef)の組織のメラニンの3次元的な分布を可視化した画像データである。偏光OCTは、偏光を利用することによってサンプルの複屈折による偏光依存性(偏光情報)を検出するモダリティである。偏光OCTについては、例えば、特開2004-28970号公報、特開2007-298461号公報、特開2015-230297号公報などに開示されている。これらの文献にも記載されているように、偏光OCTを実施可能な走査型イメージング装置は、眼科装置1と同様のOCT干渉光学系を有するが、典型的には、偏光を制御するための各種の要素(例えば、偏波コントローラ、偏光変調器、電気光学変調器)と、干渉光(干渉信号)を2つの偏光成分に分割する偏光ビームスプリッタと、これら偏光成分をそれぞれ検出する2つの光検出器とを備えている(図示は省略する)。 OCT polarization image data is three-dimensional image data obtained when a modality called polarization OCT (polarization sensitive OCT) is employed. The OCT polarization image data is image data that visualizes the three-dimensional distribution of melanin in the tissue of the eye E (fundus Ef). Polarized OCT is a modality that uses polarized light to detect polarization dependence (polarization information) due to birefringence of a sample. Polarized OCT is disclosed, for example, in JP-A No. 2004-28970, JP-A No. 2007-298461, and JP-A No. 2015-230297. As described in these documents, a scanning imaging device capable of performing polarized OCT has an OCT interference optical system similar to that of the ophthalmological device 1, but typically includes various types of systems for controlling polarization. (e.g., polarization controller, polarization modulator, electro-optic modulator), a polarization beam splitter that splits the interference light (interference signal) into two polarization components, and two optical detectors that detect each of these polarization components. (not shown).

画像化処理部221により構築される3次元画像データの種類は、以上に説明した例示に限定されない。例えば、所望の種類の3次元OCT画像データを取得するために、特開2014-228473号公報に記載されたジョーンズマトリックスOCTシステム、特開2019-54993号公報に記載されたOCT血流計測装置、及び、他のOCTモダリティのいずれかを用いることが可能である。 The types of three-dimensional image data constructed by the imaging processing unit 221 are not limited to the examples described above. For example, in order to obtain a desired type of three-dimensional OCT image data, the Jones matrix OCT system described in Japanese Patent Application Publication No. 2014-228473, the OCT blood flow measuring device described in Japanese Patent Application Publication No. 2019-54993, It is also possible to use any of the other OCT modalities.

〈プロジェクション処理部222〉
プロジェクション処理部222は、画像化処理部221により構築された複数の3次元画像データのそれぞれに対し、深さ方向(Aライン方向、軸方向、アキシャル方向、γ方向、z方向)のプロジェクションを適用するように構成されている。それにより、画像化処理部221により構築された各3次元画像データから正面画像データが構築される。プロジェクション処理部222は、一つの3次元画像データから少なくとも一種類の正面画像データを構築することができる。
<Projection processing unit 222>
The projection processing unit 222 applies projection in the depth direction (A-line direction, axial direction, axial direction, γ direction, z direction) to each of the plurality of three-dimensional image data constructed by the imaging processing unit 221. is configured to do so. Thereby, front image data is constructed from each three-dimensional image data constructed by the imaging processing unit 221. The projection processing unit 222 can construct at least one type of front image data from one three-dimensional image data.

画像化処理部221によりOCT強度画像データが得られた場合、プロジェクション処理部222は、例えば、対数スケール線形プロジェクション(Log-scaled linear projection)、対数スケールプロジェクション(Log-scale projection)、最大値プロジェクション(Maximum intensity projection)など、任意の種類のプロジェクション処理をOCT強度画像データに適用することができる。ここで、対数スケール線形プロジェクションは、線形スケール(Linear scale)で画素値(強度)をAライン方向(深さ方向)に加算し、その和の対数を求めるプロジェクション手法であり、Aライン方向における強度の加算と考えることができる。対数スケールプロジェクションは、画素値の対数を求めてからAライン方向に加算するプロジェクション手法であり、実質的には強度の乗算と考えることができる。最大値プロジェクションは、各Aライン上の画素の値のうち最大値を選択するプロジェクション手法である。なお、ここに挙げたOCT強度画像データのプロジェクション手法は単なる例示であり、これらに限定されない。 When OCT intensity image data is obtained by the imaging processing unit 221, the projection processing unit 222 performs, for example, a log-scaled linear projection, a log-scale projection, a maximum value projection ( Any type of projection processing can be applied to the OCT intensity image data, such as maximum intensity projection). Here, logarithmic scale linear projection is a projection method that adds pixel values (intensities) in the A-line direction (depth direction) on a linear scale and calculates the logarithm of the sum. It can be thought of as the addition of Logarithmic scale projection is a projection method in which the logarithm of a pixel value is calculated and then added in the A-line direction, and can essentially be considered as intensity multiplication. Maximum value projection is a projection method that selects the maximum value among the values of pixels on each A line. Note that the projection method of OCT intensity image data mentioned here is merely an example, and the method is not limited thereto.

画像化処理部221によりOCT血管造影画像データが構築された場合、プロジェクション処理部222は、例えば、OCT血管造影画像データ全体をAライン方向にプロジェクションすることや、OCT血管造影画像データの一部のみをAライン方向にプロジェクションすることが可能である。前者の例として、非特許文献2の図5に示された全深度正面OCT血管造影画像(whole depth en face OCT-A image)がある。また、後者の例として、Yin, X.; Chao, J. R.; Wang, R. K., “User-guided segmentation for volumetric retinal optical coherence tomography images”, J. Biomed. Opt 19, 086020 (2014)の図9に示された、3つの異なる層(NFL、IPL/INL、OPL)における血管網の画像がある。これらは、セグメンテーションにより抽出されたスラブ(slab)のプロジェクションであり、前述したシャドウグラムに相当する。なお、ここに挙げたOCT血管造影画像データのプロジェクション手法は単なる例示であり、これらに限定されない。 When OCT angiography image data is constructed by the imaging processing unit 221, the projection processing unit 222 may, for example, project the entire OCT angiography image data in the A-line direction or project only a part of the OCT angiography image data. can be projected in the A-line direction. An example of the former is the whole depth en face OCT-A image shown in FIG. 5 of Non-Patent Document 2. Further, as an example of the latter, Fig. 9 of Yin, X.; Chao, J. R.; Wang, R. K., “User-guided segmentation for volumetric retinal optical coherence tomography images”, J. Biomed. Opt 19, 086020 (2014) shows There are images of the vascular network in three different layers (NFL, IPL/INL, OPL). These are projections of slabs extracted by segmentation, and correspond to the shadowgrams described above. Note that the projection method of OCT angiography image data mentioned here is merely an example, and the method is not limited thereto.

OCT強度画像データとOCT血管造影画像データとに基づく合成画像データが画像化処理部221により構築された場合、プロジェクション処理部222は、例えば、この合成画像データにプロジェクションを適用して網膜血管強調画像を構築することができる。網膜血管強調画像の例として、Makita, S., et al., “Clinical prototype of pigment and flow imaging optical coherence tomography for posterior eye investigation”, Biomedical Optics Express 9, 4372 (2018)の図13(c)に示された網膜血管造影画像がある。また、Hong, Y.J., et al, “Simultaneous Investigation of Vascular and Retinal Pigment Epithelial Pathologies of Exudative Macular Diseases by Multifunctional Optical Coherence Tomography”, IOVS August 2014, Vol.55, 5016-5031に記載された”hyperpenetration”を強調した画像を、上記の合成画像データから構築することも可能である。なお、ここに挙げた合成画像データのプロジェクション手法は単なる例示であり、これらに限定されない。 When composite image data based on OCT intensity image data and OCT angiography image data is constructed by the imaging processing unit 221, the projection processing unit 222 applies projection to this composite image data to create a retinal vessel enhanced image, for example. can be constructed. As an example of a retinal vessel-enhanced image, see Figure 13(c) of Makita, S., et al., “Clinical prototype of pigment and flow imaging optical coherence tomography for posterior eye investigation”, Biomedical Optics Express 9, 4372 (2018). There is a retinal angiography image shown. Also, emphasizes “hyperpenetration” described in Hong, Y.J., et al, “Simultaneous Investigation of Vascular and Retinal Pigment Epithelial Pathologies of Exudative Macular Diseases by Multifunctional Optical Coherence Tomography”, IOVS August 2014, Vol.55, 5016-5031. It is also possible to construct an image based on the above-mentioned composite image data. Note that the composite image data projection methods mentioned here are merely examples, and the present invention is not limited to these.

画像化処理部221によりOCT偏光画像データが構築された場合(つまり、3次元偏光情報が取得された場合)、プロジェクション処理部222は、このOCT偏光画像データにプロジェクションを適用することで、例えば、偏光均一性(DOPU)マップ、複屈折マップ、網膜色素上皮感受型コントラスト(RPE-sensitive contrast)マップ、網膜色素上皮隆起(RPE-elevation)マップなど、任意の2次元画像や任意の2次元マップを構築することが可能である。偏光均一性マップの例として、Miura M., et al.,” Evaluation of intraretinal migration of retinal pigment epithelial cells in age-related macular degeneration using polarimetric imaging”, Sci Rep. 2017;7(1):3150.の図1~図4(f)に記載された画像(最小偏光均一性プロジェクション(minimum DOPU projection))がある。複屈折マップの例として、Sugiyama, S., et al., ”Birefringence imaging of posterior eye by multi-functional Jones matrix optical coherence tomography”, Biomedical Optics Express Vol. 6, Issue 12, pp. 4951-4974 (2015)の図7(b)に示された画像(最大複屈折プロジェクション(maximum birefringence projection))がある。網膜色素上皮感受型コントラストマップの例として、Azuma, S., et al.,” Pixel-wise segmentation of severely pathologic retinal pigment epithelium and choroidal stroma using multi-contrast Jones matrix optical coherence tomography”, Biomedical Optics Express Vol. 9, Issue 7, pp. 2955-2973 (2018)の式(1)に示す値をAライン方向に加算して得られる画像がある。このマップの構築には、3次元偏光情報に加えて、OCT強度画像データ及びOCT血管造影画像データも用いられている。網膜色素上皮隆起マップの例として、同文献の図4に示された画像がある。このマップの構築においても、3次元偏光情報に加えて、OCT強度画像データ及びOCT血管造影画像データが用いられている。 When OCT polarization image data is constructed by the imaging processing unit 221 (that is, when three-dimensional polarization information is acquired), the projection processing unit 222 applies projection to this OCT polarization image data, for example, Any 2D image or any 2D map, such as DOPU map, birefringence map, RPE-sensitive contrast map, RPE-elevation map, etc. It is possible to construct. As an example of a polarization uniformity map, see Miura M., et al., “Evaluation of intraretinal migration of retinal pigment epithelial cells in age-related macular degeneration using polarimetric imaging”, Sci Rep. 2017;7(1):3150. The images (minimum polarization uniformity projection (minimum DOPU projection)) are shown in FIGS. 1-4(f). As an example of birefringence map, see Sugiyama, S., et al., “Birefringence imaging of posterior eye by multi-functional Jones matrix optical coherence tomography”, Biomedical Optics Express Vol. 6, Issue 12, pp. 4951-4974 (2015 ) is the image shown in FIG. 7(b) (maximum birefringence projection). As an example of a retinal pigment epithelium-sensitive contrast map, see Azuma, S., et al., “Pixel-wise segmentation of severely pathologic retinal pigment epithelium and choroidal stroma using multi-contrast Jones matrix optical coherence tomography”, Biomedical Optics Express Vol. 9, Issue 7, pp. 2955-2973 (2018), there is an image obtained by adding the value shown in equation (1) in the A-line direction. In addition to three-dimensional polarization information, OCT intensity image data and OCT angiography image data are also used in constructing this map. An example of a retinal pigment epithelium elevation map is the image shown in FIG. 4 of the same document. In constructing this map as well, OCT intensity image data and OCT angiography image data are used in addition to three-dimensional polarization information.

以上の例示以外の3次元画像データが画像化処理部221によって構築される場合、プロジェクション処理部222は、その3次元画像データの種類に応じて決定されたプロジェクション処理を適用可能に構成される。 When three-dimensional image data other than the above examples are constructed by the imaging processing unit 221, the projection processing unit 222 is configured to be able to apply projection processing determined according to the type of the three-dimensional image data.

〈ラテラルシフト量算出部223〉
ラテラルシフト量算出部223は、プロジェクション処理部222により構築された複数の正面画像データに基づいて、深さ方向(γ方向、z方向)に直交する方向におけるデータシフト量を算出するように構成されている。本実施形態では、このデータシフト量をラテラルシフト量と呼ぶ。
<Lateral shift amount calculation unit 223>
The lateral shift amount calculation unit 223 is configured to calculate a data shift amount in a direction orthogonal to the depth direction (γ direction, z direction) based on the plurality of front image data constructed by the projection processing unit 222. ing. In this embodiment, this data shift amount is referred to as a lateral shift amount.

深さ方向に直交する方向は、ラテラル(lateral)方向と呼ばれ、αβγ座標系においてγ方向に直交する方向はαβ面内における任意方向(αβ方向)であり、xyz座標系においてz方向に直交する方向はxy面内における任意方向(xy方向)である。 The direction perpendicular to the depth direction is called the lateral direction, and the direction perpendicular to the γ direction in the αβγ coordinate system is an arbitrary direction (αβ direction) within the αβ plane, and perpendicular to the z direction in the xyz coordinate system. The direction is an arbitrary direction (xy direction) within the xy plane.

例えば、ラテラルシフト量算出部223は、複数の正面画像データに基づいて相関係数を算出し、この相関係数に基づいてラテラルシフト量を算出するように構成されてよい。そのために、例示的なラテラルシフト量算出部223は、分割部2231と、相関係数算出部2232と、シフト量算出部2233とを含む。 For example, the lateral shift amount calculation unit 223 may be configured to calculate a correlation coefficient based on a plurality of front image data, and calculate the lateral shift amount based on this correlation coefficient. For this purpose, the exemplary lateral shift amount calculation section 223 includes a division section 2231, a correlation coefficient calculation section 2232, and a shift amount calculation section 2233.

〈分割部2231〉
分割部2231は、プロジェクション処理部222により構築された各正面画像データを複数の部分画像データに分割するように構成されている。各部分画像データは、前述したストリップに相当する。
<Divided part 2231>
The dividing unit 2231 is configured to divide each frontal image data constructed by the projection processing unit 222 into a plurality of partial image data. Each partial image data corresponds to the strip described above.

例えば、分割部2231は、非特許文献1に記載された手法を用いて正面画像データを複数のストリップ(ストリップ群)に分割するように構成されている。例えば、分割部2231は、正面画像データを解析することによって、この正面画像データを比較的大きな動きが介在しない複数のストリップに分割するように構成される。他の例において、分割部2231は、画像化処理部221により構築された3次元画像データ(ボリューム)を比較的大きな動きが介在しない複数のサブボリュームに分割する処理と、各サブボリュームに対応する正面画像データの部分を特定することによってこれらサブボリュームに対応するストリップ群を決定する処理とを実行するように構成される。このようにして得られる各ストリップは、リサージュ座標系(例えば、αβ座標系)で定義されている。 For example, the dividing unit 2231 is configured to divide the front image data into a plurality of strips (strip group) using the method described in Non-Patent Document 1. For example, the dividing unit 2231 is configured to analyze the frontal image data and divide the frontal image data into a plurality of strips in which there is no relatively large movement. In another example, the dividing unit 2231 performs a process of dividing the three-dimensional image data (volume) constructed by the imaging processing unit 221 into a plurality of sub-volumes in which relatively large movement does not occur, and a process that corresponds to each sub-volume. and determining strip groups corresponding to these sub-volumes by identifying portions of the frontal image data. Each strip thus obtained is defined in a Lissajous coordinate system (eg, an αβ coordinate system).

リサージュ座標系(前述したαβ座標系)で定義されたストリップの例を図6に示す。符号300は、上記の3次元画像データ(ボリューム)全体の正面プロジェクション画像を示す。ボリューム全体はαβγ座標系で定義されており、これをγ方向(深さ方向)にプロジェクションして得られる正面プロジェクション画像(正面画像データ)300はαβ座標系で定義されている。ここで、α軸はサイクルを構成する複数のAラインの位置を表し、これに直交するβ軸はサイクルの識別番号(スキャン順序)を表す。典型的には、γ方向とz方向とはともに、OCTスキャンのAラインに沿った方向(測定光LSの進行方向)に一致する。 FIG. 6 shows an example of a strip defined in the Lissajous coordinate system (the αβ coordinate system described above). Reference numeral 300 indicates a front projection image of the entire three-dimensional image data (volume). The entire volume is defined by the αβγ coordinate system, and a front projection image (front image data) 300 obtained by projecting this in the γ direction (depth direction) is defined by the αβ coordinate system. Here, the α-axis represents the positions of a plurality of A lines constituting a cycle, and the β-axis perpendicular to this represents the cycle identification number (scan order). Typically, both the γ direction and the z direction coincide with the direction along the A line of the OCT scan (the traveling direction of the measurement light LS).

図6に示す例は、N個のストリップ300(0)~300(N-1)を示している。ここで、Nは2以上の整数であり、典型的には数十~数百である。各ストリップ300(n)は、ボリューム全体の正面プロジェクション画像300の部分画像である。 The example shown in FIG. 6 shows N strips 300(0) to 300(N-1). Here, N is an integer of 2 or more, typically from several tens to several hundreds. Each strip 300(n) is a partial image of the frontal projection image 300 of the entire volume.

以上のような処理によれば、図7に示すように、プロジェクション処理部222により構築された複数の正面画像データ300-m(m=1、2、・・・、M:Mは2以上の整数)から複数のストリップ群310-mが得られる。ストリップ群310-mは、複数のストリップ310-m(1)、310-m(2)、・・・、310-m(N)からなる。 According to the above processing, as shown in FIG. 7, a plurality of front image data 300-m (m=1, 2, . (an integer number), a plurality of strip groups 310-m are obtained. The strip group 310-m consists of a plurality of strips 310-m(1), 310-m(2), . . . , 310-m (N m ).

ここで、M個のストリップ群310-1~310-Mにそれぞれ含まれるストリップの個数N~Nは一般に任意である。しかし、幾つかの例示的な態様において、ストリップ数N~Nの少なくとも一部が等しくてよい。典型的な例として、本実施形態では、ストリップ数N~Nの全てが等しくてよい。この場合において、M個の正面画像データ300-1~300-Mにおける所定のM個のストリップ310-1(n)、310-2(n)、・・・、310-M(n)が、収集データ(サンプリングデータ、3次元画像データ)の同一の部分データから得られたものであってよい。 Here, the number of strips N 1 to N M included in each of the M strip groups 310-1 to 310- M is generally arbitrary. However, in some exemplary embodiments, at least some of the strip numbers N 1 -N M may be equal. As a typical example, in this embodiment, all of the strip numbers N 1 to N M may be equal. In this case, predetermined M strips 310-1 (n 1 ), 310-2 (n 2 ), . . . , 310-M (n M ) may be obtained from the same partial data of collected data (sampling data, three-dimensional image data).

換言すると、M個の正面画像データ300-1~300-Mのうちの任意のペア(第1正面画像データ300-m、第2正面画像データ300-m:m=1、2、・・・、M;m=1、2、・・・、M;m≠m)が次の2つの条件を満足するように、分割部2231はM個のストリップ群310-1~310-Mを形成することができる。1つ目の条件は、第1正面画像データ300-mから形成された第1ストリップ群310-mに含まれるストリップの個数nm1が、第2正面画像データ300-mから形成された第2ストリップ群310-mに含まれるストリップの個数nm2に等しいことである(nm1=nm2)。もう1つの条件は、第1ストリップ群310-mに含まれる任意のストリップに対応する収集データ(サンプリングデータ、3次元画像データ)の部分データが、第2ストリップ群310-mに含まれるいずれかのストリップに対応する収集データ(サンプリングデータ、3次元画像データ)の部分データと同一であることである。つまり、収集データ(サンプリングデータ、3次元画像データ)が複数の部分データに分けられており、各部分データからM個のストリップ群310-1~310-M中のストリップが1つずつ得られていることである。 In other words, any pair of the M pieces of front image data 300-1 to 300-M (first front image data 300-m 1 , second front image data 300-m 2 : m 1 =1, 2, . . , M; m 2 =1, 2, . . . , M; m 1 ≠ m 2 ) satisfies the following two conditions. 310-M can be formed. The first condition is that the number n m1 of strips included in the first strip group 310- m1 formed from the first front image data 300- m1 is formed from the second front image data 300- m2 . This is equal to the number n m2 of strips included in the second strip group 310-m 2 (n m1 =n m2 ). Another condition is that partial data of collected data (sampling data, three-dimensional image data) corresponding to any strip included in the first strip group 310- m1 is included in the second strip group 310- m2 . It must be the same as partial data of collected data (sampling data, three-dimensional image data) corresponding to any strip. In other words, the collected data (sampling data, three-dimensional image data) is divided into a plurality of partial data, and one strip of the M strip groups 310-1 to 310-M is obtained from each partial data. It is that you are.

このような2つの条件が満足される場合、分割部2231は、M個の正面画像データ300-1~300-Mのうちの1つのみに対して、データ分割(ストリップ形成)のための処理(つまり、非特許文献1に記載された、比較的大きな動きが介在するか否か決定するための解析)を適用すれば十分である。例えば、非特許文献1に記載された手法と同様に、分割部2231は、OCT強度画像データ(又は、これから得られた正面画像データ)に対して当該解析を適用してストリップ群(基準ストリップ群)を形成する。更に、分割部2231は、この基準ストリップ群に基づいて、他の3次元画像データ(例えば、前述したOCT血管造影画像データ、合成画像データ、OCT偏光画像データなど)のストリップ群を形成することができる。このとき、分割部2231は、他の3次元画像データを基準ストリップ群と同じ態様で分割する。具体的には、他の3次元画像データから形成されたストリップの個数は、基準ストリップ群のストリップの個数に等しい。加えて、他の3次元画像データの各ストリップについて、そのストリップが表す被検眼Eの領域は、基準ストリップ群のいずれかのストリップが表す被検眼Eの領域に一致する。このような処理を行うことで、M個の正面画像データ300-1~300-Mに対して個別にデータ分割(ストリップ形成)を適用する場合と比較して、処理リソースを節約することができ、処理時間を短縮することができる。 When these two conditions are satisfied, the dividing unit 2231 performs processing for data division (strip formation) on only one of the M pieces of front image data 300-1 to 300-M. (In other words, it is sufficient to apply the analysis described in Non-Patent Document 1 for determining whether there is a relatively large movement). For example, similar to the method described in Non-Patent Document 1, the dividing unit 2231 applies the analysis to the OCT intensity image data (or the front image data obtained from this) to generate a strip group (reference strip group). ) to form. Furthermore, the dividing unit 2231 can form strip groups of other three-dimensional image data (for example, the aforementioned OCT angiography image data, composite image data, OCT polarization image data, etc.) based on this reference strip group. can. At this time, the dividing unit 2231 divides the other three-dimensional image data in the same manner as the reference strip group. Specifically, the number of strips formed from other three-dimensional image data is equal to the number of strips in the reference strip group. In addition, for each strip of other three-dimensional image data, the area of the eye E represented by that strip matches the area of the eye E represented by any strip of the reference strip group. By performing such processing, processing resources can be saved compared to applying data division (strip formation) to the M pieces of front image data 300-1 to 300-M individually. , processing time can be shortened.

〈相関係数算出部2232及びシフト量算出部2233〉
相関係数算出部2232は、分割部2231によって複数の正面画像データ(300-1~300-M)から取得された複数のストリップ群(310-1~310-M)に基づいて相関係数を算出するように構成されている。ここで、各ストリップは、リサージュ座標系(例えば、αβ座標系)で定義されている。特に言及しない限り、相関係数算出部2232は、非特許文献1に記載された手法に従って相関演算を実行することができる。
<Correlation coefficient calculation unit 2232 and shift amount calculation unit 2233>
The correlation coefficient calculation unit 2232 calculates a correlation coefficient based on the plurality of strip groups (310-1 to 310-M) acquired from the plurality of frontal image data (300-1 to 300-M) by the division unit 2231. is configured to calculate. Here, each strip is defined in a Lissajous coordinate system (eg, αβ coordinate system). Unless otherwise mentioned, the correlation coefficient calculation unit 2232 can perform the correlation calculation according to the method described in Non-Patent Document 1.

例えば、相関係数算出部2232は、まず、リサージュ座標系で定義されている各ストリップに座標変換を適用する。この座標変換は、リサージュ座標系(例えば、αβ座標系)から実空間座標系(例えば、xy座標系)への座標変換であり、非特許文献1に記載されたリマッピング(remapping)に相当する。 For example, the correlation coefficient calculation unit 2232 first applies coordinate transformation to each strip defined in the Lissajous coordinate system. This coordinate transformation is a coordinate transformation from a Lissajous coordinate system (for example, αβ coordinate system) to a real space coordinate system (for example, xy coordinate system), and corresponds to remapping described in Non-Patent Document 1. .

画像化処理部221により構築された3次元画像データから、実空間座標系で定義されたストリップ群を作成するための処理は、以上に説明した処理に限定されない。例えば、3次元画像データ全体の正面プロジェクション画像を構築し、この正面プロジェクション画像(リサージュ座標系で定義されている)に座標変換を適用し、変換された正面プロジェクション画像(実空間座標系で定義されている)を分割して複数のストリップを構築することができる。 The process for creating a group of strips defined in the real space coordinate system from the three-dimensional image data constructed by the imaging processing unit 221 is not limited to the process described above. For example, you can construct a front projection image of the entire 3D image data, apply a coordinate transformation to this front projection image (defined in the Lissajous coordinate system), and then apply a coordinate transformation to the front projection image (defined in the real space coordinate system). ) can be divided to build multiple strips.

続いて、相関係数算出部2232は、座標変換により形成された各ストリップの画素を補間することができる。この画素補間は、座標変換で値が割り当てられなかった画素に対し、その周囲の画素の値から導出された値を付与するデータ処理である。 Subsequently, the correlation coefficient calculation unit 2232 can interpolate the pixels of each strip formed by coordinate transformation. This pixel interpolation is data processing in which a value derived from the values of surrounding pixels is assigned to a pixel to which no value has been assigned in coordinate transformation.

画素補間は、例えば公知の任意の画素補間演算を含んでいてよい。例えば、相関係数算出部2232は、まず、座標変換後のストリップの画素のうち、座標変換前のストリップの画素からの値が付与されていない画素(換言すると、座標変換の値域に含まれない画素)を特定する。これにより特定された画素が、補間の対象となる。次に、相関係数算出部2232は、補間対象画素の所定近傍領域内の画素のうち、座標変換前のストリップの画素からの値が付与された画素(換言すると、座標変換の値域に含まれる画素)を特定し、これらの画素の値から補間対象画素の値を算出する。 Pixel interpolation may include, for example, any known pixel interpolation operation. For example, the correlation coefficient calculation unit 2232 first calculates, among the pixels of the strip after the coordinate transformation, those pixels to which no value is assigned from the pixels of the strip before the coordinate transformation (in other words, the pixels are not included in the value range of the coordinate transformation). pixel). The pixels identified by this become the targets of interpolation. Next, the correlation coefficient calculating unit 2232 calculates, among pixels in a predetermined neighborhood area of the interpolation target pixel, pixels to which values from the pixels of the strip before coordinate transformation are assigned (in other words, those included in the value range of coordinate transformation). pixel) and calculate the value of the interpolation target pixel from the values of these pixels.

ここで、所定近傍領域は任意であり、その内部の画素の値から補間対象画素の値を算出する演算も任意である。例えば、補間対象画素に隣接する画素(典型的には、補間対象画素の上、下、右、左、右上、右下、左上、左下に位置する8個の画素)のうち座標変換の値域に含まれる画素の値の平均を算出し、この平均値を補間対象画素の値とすることができる。 Here, the predetermined neighborhood area is arbitrary, and the calculation for calculating the value of the interpolation target pixel from the value of the pixel inside the area is also arbitrary. For example, among the pixels adjacent to the interpolation target pixel (typically 8 pixels located above, below, right, left, upper right, lower right, upper left, and lower left of the interpolation target pixel), The average value of the included pixels can be calculated, and this average value can be used as the value of the interpolation target pixel.

このようにして、画素補間がなされた、実空間座標系(例えば、xy座標系)で定義された複数のストリップが得られる。相関係数算出部2232は、得られた複数のストリップに基づいて、非特許文献1に記載された相関演算を実行する。 In this way, a plurality of strips defined in a real space coordinate system (for example, an xy coordinate system) with pixel interpolation is obtained. The correlation coefficient calculation unit 2232 executes the correlation calculation described in Non-Patent Document 1 based on the plurality of obtained strips.

リサージュスキャンの特性として、1つの正面画像データのストリップ群に含まれる任意の2つのストリップは、オーバーラップ領域を有する。非特許文献1に記載された手法と同様に、相関係数算出部2232は、ストリップ間のオーバーラップを利用してストリップ間の相関演算を実行する。 As a characteristic of the Lissajous scan, any two strips included in a strip group of one frontal image data have an overlapping area. Similar to the method described in Non-Patent Document 1, the correlation coefficient calculation unit 2232 performs a correlation calculation between strips using the overlap between strips.

非特許文献1に記載された手法では、まず、ストリップ群を大きさ(面積等)に応じて順序付け、この順序に従って、一連の処理(相関演算、ラテラルシフト量算出、レジストレーション、及びマージ処理)を繰り返し実行している。この相関演算では、非特許文献1の式(18)に示された相関係数ρ(r’)が算出される(次式を参照)。 In the method described in Non-Patent Document 1, strip groups are first ordered according to size (area, etc.), and a series of processes (correlation calculation, lateral shift amount calculation, registration, and merge processing) are performed according to this order. is being executed repeatedly. In this correlation calculation, the correlation coefficient ρ(r') shown in equation (18) of Non-Patent Document 1 is calculated (see the following equation).

Figure 0007355331000001
Figure 0007355331000001

このように、従来の技術では、単一の正面画像データから得られたストリップ群を用いてストリップ間の相関演算が行われるが、本実施形態では、複数の正面画像データから得られた複数のストリップ群を用いてストリップ間の相関演算が行われる。前述したように、幾つかの例示的な態様において、分割部2231は、上記の2つの条件を満足するように複数のストリップ群を形成することができる。 In this way, in the conventional technology, a correlation calculation between strips is performed using a group of strips obtained from a single front image data, but in this embodiment, a correlation calculation between strips is performed using a group of strips obtained from a plurality of front image data. A correlation calculation between strips is performed using a group of strips. As mentioned above, in some exemplary embodiments, the division 2231 can form a plurality of strip groups to satisfy the above two conditions.

この場合、前述した収集データ(サンプリングデータ、3次元画像データ)の複数の部分データの任意のペア(第1部分データ、第2部分データ)について、相関係数算出部2232は、まず、第1部分データに対応する複数のストリップを、複数の正面画像データから形成された複数のストリップ群のうちから選択する。具体的には、相関係数算出部2232は、第1部分データに対応するストリップを、複数の正面画像データから形成された複数のストリップ群から1つずつ選択する。更に、相関係数算出部2232は、選択された複数のストリップのうちの少なくとも2つのストリップを含む第1群を設定する。同様に、相関係数算出部2232は、第2部分データに対応するストリップを複数のストリップ群から1つずつ選択し、選択された複数のストリップのうちの少なくとも2つのストリップを含む第2群を設定する。そして、相関係数算出部2232は、設定された第1群及び第2群に基づいて、第1部分データと第2部分データとに対応する相関係数を算出する。 In this case, for any pair (first partial data, second partial data) of the plurality of partial data of the collected data (sampling data, three-dimensional image data) described above, the correlation coefficient calculation unit 2232 first calculates the first A plurality of strips corresponding to the partial data are selected from a plurality of strip groups formed from the plurality of front image data. Specifically, the correlation coefficient calculation unit 2232 selects one strip corresponding to the first partial data from a plurality of strip groups formed from a plurality of front image data. Further, the correlation coefficient calculation unit 2232 sets a first group including at least two of the selected plurality of strips. Similarly, the correlation coefficient calculation unit 2232 selects strips corresponding to the second partial data one by one from the plurality of strip groups, and selects a second group including at least two strips from among the plurality of selected strips. Set. Then, the correlation coefficient calculation unit 2232 calculates the correlation coefficient corresponding to the first partial data and the second partial data based on the set first group and second group.

このような相関係数は、複数の正面画像データから得られた複数のストリップ群に基づき算出されたものであり、したがって、複数の異なる種類の画像の情報を考慮したものである。相関係数は例えば次式を用いて算出される。 Such a correlation coefficient is calculated based on a plurality of strip groups obtained from a plurality of frontal image data, and therefore takes into consideration information of a plurality of different types of images. The correlation coefficient is calculated using the following equation, for example.

Figure 0007355331000002
Figure 0007355331000002

ここで、和の添字(インデックス)iは、複数の異なる種類の正面画像データにわたり、f及びgは、同一種類の正面画像に基づく2つのストリップ(マスク画像に合成された画像)を示す。例えば、上記の第1群及び第2群が考慮される場合、f及びgはそれぞれ第1群及び第2群に属する。また、r=(x、y)は実空間座標系(xy座標系)で表現される位置を示し、σfg はf(r)とg(r+r´)とのオーバーラップ領域における共分散であり、σ 及びσ はそれぞれ当該オーバーラップ領域におけるf(r)及びg(r+r´)の分散である。ここで、fとgとのペアに対する演算は従来の手法に従うが、複数の異なる種類の正面画像データについてそれぞれ得られた共分散及び分散を組み合わせる点が従来の手法と異なっている。 Here, the sum subscript (index) i spans multiple different types of frontal image data, and f i and g i indicate two strips (images combined with the mask image) based on the same type of frontal image. . For example, if the above first and second groups are considered, f i and g i belong to the first and second groups, respectively. In addition, r = (x, y) indicates the position expressed in the real space coordinate system (xy coordinate system), and σ fg 2 is the covariance in the overlap region of f(r) and g(r+r'). , and σ f 2 and σ g 2 are the variances of f(r) and g(r+r′) in the overlap region, respectively. Here, the calculation for the pair f i and g i follows the conventional method, but differs from the conventional method in that the covariance and variance obtained for a plurality of different types of frontal image data are combined.

このようにして第1群及び第2群から得られた相関係数は、前述した第1部分データと第2部分データとの間のラテラルシフト量を反映している。シフト量算出部2233は、相関係数のピークを検出することにより、第1部分データと第2部分データとに対応するラテラルシフト量を算出することができる。 The correlation coefficients obtained from the first group and the second group in this manner reflect the amount of lateral shift between the first partial data and the second partial data described above. The shift amount calculation unit 2233 can calculate the lateral shift amount corresponding to the first partial data and the second partial data by detecting the peak of the correlation coefficient.

相関係数算出部2232及びシフト量算出部2233は、例えば、前述した収集データ(サンプリングデータ、3次元画像データ)の複数の部分データの様々なペアに対して以上の処理を適用することにより、複数の部分データの全てについて(つまり、収集データ(サンプリングデータ、3次元画像データ)の全体について)、ラテラルシフト量が得られる。 For example, the correlation coefficient calculation unit 2232 and the shift amount calculation unit 2233 apply the above processing to various pairs of a plurality of partial data of the aforementioned collected data (sampling data, three-dimensional image data). The lateral shift amount is obtained for all of the plurality of partial data (that is, for the entire collected data (sampling data, three-dimensional image data)).

このような処理は、非特許文献1の「rough lateral motion correction」に相当する。更に、ラテラルシフト量算出部223は、スロードリフト(slow drift)やトレモア(tremor)等の眼球運動に起因するラテラル方向の小さなモーションアーティファクトを除去するために、非特許文献1の「fine lateral motion correction」の処理を実行するように構成されてよい。「fine lateral motion correction」についても、複数の正面画像データに基づく複数のストリップ群を用いて精度の向上を図ることが可能である。 Such processing corresponds to "rough lateral motion correction" in Non-Patent Document 1. Furthermore, the lateral shift amount calculation unit 223 uses "fine lateral motion correction" described in Non-Patent Document 1 to remove small motion artifacts in the lateral direction caused by eye movements such as slow drift and tremor. ” may be configured to execute the process. Regarding "fine lateral motion correction," it is also possible to improve accuracy by using multiple strip groups based on multiple frontal image data.

〈アキシャルシフト量算出部224〉
アキシャルシフト量算出部224は、画像化処理部221により構築された複数の3次元画像データのいずれか1以上に基づいて、深さ方向(z方向、アキシャル方向)におけるデータシフト量(アキシャルシフト量)を算出するように構成されている。
<Axial shift amount calculation unit 224>
The axial shift amount calculation unit 224 calculates the data shift amount (axial shift amount) in the depth direction (z direction, axial direction) based on any one or more of the plurality of three-dimensional image data constructed by the imaging processing unit 221. ) is configured to calculate.

例えば、アキシャルシフト量算出部224は、非特許文献1の「rough axial motion correction」の処理、及び「fine axial motion correction」の処理のいずれか一方又は双方を実行するように構成される。前者は、上記の「rough lateral motion correction」と同様の処理を、画像化処理部221により構築された3次元画像データ(ボリューム)の複数のサブボリュームに対して適用するものである。後者は、各々のサイクルにはモーションアーティファクトが介在しないとの前提の下に、前者と同様の処理をサイクル間に適用するものである。なお、アキシャルシフト量を算出する処理はこれらに限定されず、例えば、z方向を1つの次元とする任意の画像データを利用することができる。 For example, the axial shift amount calculation unit 224 is configured to execute either or both of the "rough axial motion correction" process and the "fine axial motion correction" process described in Non-Patent Document 1. The former applies processing similar to the above-described "rough lateral motion correction" to a plurality of sub-volumes of three-dimensional image data (volume) constructed by the imaging processing unit 221. The latter applies processing similar to the former between cycles on the premise that no motion artifact exists in each cycle. Note that the process for calculating the axial shift amount is not limited to these, and for example, any image data having the z direction as one dimension can be used.

ラテラルシフト量の算出と同様に、アキシャルシフト量の算出においても、複数の3次元画像データを用いて精度の向上を図ることが可能である。例えば、画像化処理部221により構築された複数の異なる種類の3次元画像データ(例えば、OCT強度画像データ、OCT血管造影画像データ、合成画像データ、及びOCT偏光画像データのうちのいずれか2つ以上)を用いて、「rough axial motion correction」の処理、及び「fine axial motion correction」の処理のいずれか一方又は双方を実行することが可能である。 Similar to the calculation of the lateral shift amount, it is possible to improve the accuracy in calculating the axial shift amount by using a plurality of three-dimensional image data. For example, any two of a plurality of different types of three-dimensional image data constructed by the imaging processing unit 221 (for example, OCT intensity image data, OCT angiography image data, composite image data, and OCT polarization image data) It is possible to perform either or both of the "rough axial motion correction" processing and the "fine axial motion correction" processing using the above).

〈補正部225〉
本実施形態では、ラテラルシフト量算出部223により算出されたラテラルシフト量と、アキシャルシフト量算出部224により算出されたアキシャルシフト量とが、補正部225に入力される。補正部225は、これらシフト量にに基づいて、リサージュスキャンで収集されたデータに基づく画像データのモーションアーティファクト補正を実行する。
<Correction unit 225>
In this embodiment, the lateral shift amount calculated by the lateral shift amount calculation section 223 and the axial shift amount calculated by the axial shift amount calculation section 224 are input to the correction section 225. Based on these shift amounts, the correction unit 225 performs motion artifact correction of the image data based on the data collected by the Lissajous scan.

ここで、モーションアーティファクト補正が適用される画像データは、リサージュスキャンで収集されたデータに基づく任意の画像データであってよく、例えば、画像化処理部221により構築された上記複数の3次元画像データのいずれか、又は、プロジェクション処理部222により構築された上記複数の正面画像データのいずれかであってよい。また、モーションアーティファクト補正が適用される画像データは、上記複数の3次元画像データとは別途に画像化処理部221により構築された3次元画像データ、又は、上記複数の正面画像データとは別途にプロジェクション処理部222により構築された正面画像データであってもよい。また、モーションアーティファクト補正が適用される画像データは、画像化処理部221により構築された任意の3次元画像データを処理して得られた画像データ、又は、プロジェクション処理部222により構築された任意の正面画像データを処理して得られた画像データであってもよい。 Here, the image data to which the motion artifact correction is applied may be any image data based on data collected by Lissajous scan, for example, the plurality of three-dimensional image data constructed by the imaging processing unit 221. or any of the plurality of frontal image data constructed by the projection processing unit 222. Further, the image data to which motion artifact correction is applied is 3D image data constructed by the imaging processing unit 221 separately from the plurality of 3D image data, or separately from the plurality of frontal image data. The front image data constructed by the projection processing unit 222 may be used. Further, the image data to which motion artifact correction is applied is image data obtained by processing arbitrary three-dimensional image data constructed by the imaging processing section 221, or arbitrary image data constructed by the projection processing section 222. The image data may be obtained by processing front image data.

ここまでの処理で利用された画像データにモーションアーティファクト補正を適用する場合、補正部225は、例えば、分割部2231により実行されたデータ分割(ストリップ形成)に応じた当該画像データの複数の部分画像データに対して、ラテラルシフト量及びアキシャルシフト量に基づくレジストレーションを適用することができる。それにより、複数の部分画像データの相対位置が調整され、当該画像データのモーションアーティファクトが低減又は除去される。 When applying motion artifact correction to the image data used in the processing up to this point, the correction unit 225, for example, creates multiple partial images of the image data according to the data division (strip formation) performed by the division unit 2231. Registration based on the lateral shift amount and the axial shift amount can be applied to the data. Thereby, the relative positions of the plurality of partial image data are adjusted, and motion artifacts in the image data are reduced or removed.

ここまでの処理で利用されていない画像データにモーションアーティファクト補正を適用する場合、補正部225は、例えば、分割部2231により実行されたデータ分割(ストリップ形成)に従って当該画像データを複数の部分画像データに分割し、これらの部分画像データに対してラテラルシフト量及びアキシャルシフト量に基づくレジストレーションを適用することができる。 When applying motion artifact correction to image data that has not been used in the processing up to this point, the correction unit 225 divides the image data into a plurality of partial image data according to data division (strip formation) performed by the division unit 2231, for example. It is possible to apply registration based on the lateral shift amount and the axial shift amount to these partial image data.

画像構築部220は、プロセッサを含むハードウェアと、画像構築ソフトウェアとの協働によって実現される。 The image construction unit 220 is realized by cooperation between hardware including a processor and image construction software.

〈データ処理部230〉
データ処理部230は、プロセッサを含み、被検眼Eの画像に対して各種のデータ処理を適用する。例えば、データ処理部230は、プロセッサを含むハードウェアと、データ処理ソフトウェアとの協働によって実現される。
<Data processing unit 230>
The data processing unit 230 includes a processor and applies various data processing to the image of the eye E to be examined. For example, the data processing unit 230 is realized by cooperation between hardware including a processor and data processing software.

データ処理部230は、被検眼Eについて取得された2つの画像の間のレジストレーションを行うように構成されてよい。例えば、データ処理部230は、OCTで取得された3次元画像データ(例えば、リサージュスキャンで得られた3次元画像データ)と、眼底カメラユニット2により取得された正面画像との間のレジストレーションを行うように構成されてよい。また、データ処理部230は、OCTで取得された2つのOCT画像の間のレジストレーションを行うように構成されてよい。また、OCT画像の解析結果や、正面画像の解析結果に対してレジストレーションを適用するように構成されてもよい。これらのレジストレーションは、公知の手法によって実行可能であり、例えば特徴点抽出とアフィン変換とを含む。 The data processing unit 230 may be configured to perform registration between two images acquired for the eye E to be examined. For example, the data processing unit 230 performs registration between three-dimensional image data obtained by OCT (for example, three-dimensional image data obtained by Lissajous scan) and a frontal image obtained by the fundus camera unit 2. may be configured to do so. Further, the data processing unit 230 may be configured to perform registration between two OCT images obtained by OCT. Further, it may be configured to apply registration to the analysis results of OCT images or the analysis results of frontal images. These registrations can be performed using known techniques, and include, for example, feature point extraction and affine transformation.

〈ユーザーインターフェイス240〉
ユーザーインターフェイス240は表示部241と操作部242とを含む。表示部241は表示装置3を含む。操作部242は各種の操作デバイスや入力デバイスを含む。ユーザーインターフェイス240は、例えばタッチパネルのような表示機能と操作機能とが一体となったデバイスを含んでいてもよい。ユーザーインターフェイス240の少なくとも一部を含まない実施形態を構築することも可能である。例えば、表示デバイスは、眼科装置1に接続された外部装置であってよい。
<User interface 240>
User interface 240 includes a display section 241 and an operation section 242. The display section 241 includes the display device 3. The operation unit 242 includes various operation devices and input devices. The user interface 240 may include a device such as a touch panel that has a display function and an operation function integrated. It is also possible to construct embodiments that do not include at least a portion of user interface 240. For example, the display device may be an external device connected to the ophthalmological apparatus 1.

〈動作〉
眼科装置1の動作について説明する。眼科装置1の動作の例を図8に示す。なお、患者IDの入力、走査モードの設定(リサージュスキャンの指定)、固視標の提示、アライメント、フォーカス調整、OCT光路長調整など、従来と同様の準備的な処理は、既になされたものとする。
<motion>
The operation of the ophthalmologic apparatus 1 will be explained. An example of the operation of the ophthalmologic apparatus 1 is shown in FIG. The same preparatory processes as before, such as entering the patient ID, setting the scan mode (specifying Lissajous scan), presenting a fixation target, alignment, focus adjustment, and OCT optical path length adjustment, have already been performed. do.

(S1:リサージュスキャンでOCT干渉信号を収集する)
所定の走査開始トリガー信号を受けて、走査制御部2111は、被検眼E(眼底Ef)に対するOCTスキャン(リサージュスキャン)の適用を開始する。
(S1: Collect OCT interference signals with Lissajous scan)
Upon receiving a predetermined scan start trigger signal, the scan control unit 2111 starts applying an OCT scan (Lissajous scan) to the eye E (fundus Ef) to be examined.

走査開始トリガー信号は、例えば、所定の準備動作(アライメント、フォーカス調整、OCT光路長調整など)が完了したことに対応して、又は、操作部242を用いて走査開始指示操作が行われたことに対応して生成される。 The scan start trigger signal is generated, for example, in response to completion of a predetermined preparatory operation (alignment, focus adjustment, OCT optical path length adjustment, etc.), or in response to a scan start instruction operation performed using the operation unit 242. is generated in response to.

走査制御部2111は、走査プロトコル2121(リサージュスキャンに対応したプロトコル)に基づいて光スキャナ44及びOCTユニット100などを制御することによってリサージュスキャンを被検眼Eに適用する。このリサージュスキャンにより、3次元データとしてのOCT干渉信号が収集される。収集された3次元データは画像構築部220に送られる。 The scan control unit 2111 applies the Lissajous scan to the eye E by controlling the optical scanner 44, the OCT unit 100, etc. based on the scanning protocol 2121 (protocol compatible with the Lissajous scan). OCT interference signals as three-dimensional data are collected by this Lissajous scan. The collected three-dimensional data is sent to the image construction section 220.

(S2:複数種類の3次元画像データを構築する)
画像構築部220の画像化処理部221は、ステップS1で収集された3次元データに複数の異なる画像化処理を適用する。それにより、複数種類の3次元画像データが得られる。異なる種類の画像化処理により、異なる情報を含む3次元画像データが得られる。
(S2: Build multiple types of 3D image data)
The imaging processing unit 221 of the image construction unit 220 applies a plurality of different imaging processes to the three-dimensional data collected in step S1. Thereby, multiple types of three-dimensional image data are obtained. Different types of imaging processing result in three-dimensional image data containing different information.

本実施形態の典型的な例において、画像化処理部221は、OCT強度画像データ及びOCT血管造影画像データを構築するように構成されてよい。しかし、前述したように、画像化処理部221は、OCT強度画像データとOCT血管造影画像データとの合成画像データを構築することができる。また、眼科装置1が偏光OCT機能を有する場合、画像化処理部221は、OCT偏光画像データを構築することができる。 In an exemplary embodiment, the imaging processor 221 may be configured to construct OCT intensity image data and OCT angiography image data. However, as described above, the imaging processing unit 221 can construct composite image data of OCT intensity image data and OCT angiography image data. Furthermore, when the ophthalmologic apparatus 1 has a polarization OCT function, the imaging processing unit 221 can construct OCT polarization image data.

構築された複数種類の3次元画像データは、プロジェクション処理部222に送られる。また、構築された複数種類の3次元画像データのいずれかが、アキシャルシフト量算出部224に送られる。 The constructed three-dimensional image data of multiple types are sent to the projection processing section 222. Further, any of the plurality of types of three-dimensional image data constructed is sent to the axial shift amount calculation unit 224.

(S3:複数種類の正面画像データを構築する)
プロジェクション処理部222は、ステップS2で構築された複数種類の3次元画像データに対して深さ方向(アキシャル方向)のプロジェクションを適用することにより、複数種類の正面画像データを構築する。異なる種類の正面画像データは、異なる情報を含んでいる。
(S3: Build multiple types of frontal image data)
The projection processing unit 222 constructs multiple types of front image data by applying projection in the depth direction (axial direction) to the multiple types of three-dimensional image data constructed in step S2. Different types of frontal image data contain different information.

本実施形態の典型的な例において、プロジェクション処理部222は、OCT強度画像データから1種類以上の正面強度画像データを構築し、且つ、OCT血管造影画像データから1種類以上の正面血管造影画像データを構築するように構成されてよい。なお、OCT強度画像データとOCT血管造影画像データとの合成画像データが構築された場合には、この合成画像データから1種類以上の正面合成画像データを構築することができる。また、OCT偏光画像データが構築された場合には、このOCT偏光画像データから1種類以上の正面偏光画像データを構築することができる。構築された複数種類の正面画像データは、ラテラルシフト量算出部223に送られる。 In a typical example of the present embodiment, the projection processing unit 222 constructs one or more types of frontal intensity image data from the OCT intensity image data, and constructs one or more types of frontal angiography image data from the OCT angiography image data. may be configured to construct. Note that when composite image data of OCT intensity image data and OCT angiography image data is constructed, one or more types of frontal composite image data can be constructed from this composite image data. Moreover, when OCT polarization image data is constructed, one or more types of frontal polarization image data can be constructed from this OCT polarization image data. The constructed plural types of frontal image data are sent to the lateral shift amount calculation unit 223.

(S4:ラテラルシフト量を算出する)
ラテラルシフト量算出部223は、ステップS3で構築された複数種類の正面画像データに基づいて、アキシャル方向に直交するラテラル方向におけるデータシフト量(ラテラルシフト量)を算出する。
(S4: Calculate the lateral shift amount)
The lateral shift amount calculation unit 223 calculates the data shift amount (lateral shift amount) in the lateral direction orthogonal to the axial direction based on the plurality of types of front image data constructed in step S3.

本実施形態の典型的な例において、ラテラルシフト量算出部223は、1種類以上の正面強度画像データ及び1種類以上の正面血管造影画像データに基づいてラテラルシフト量を算出するように構成されてよい。なお、1種類以上の正面合成画像データが構築された場合には、この1種類以上の正面合成画像データを含む複数種類の正面画像データに基づいてラテラルシフト量を算出することができる。また、1種類以上の正面偏光画像データが構築された場合には、この1種類以上の正面偏光画像データを含む複数種類の正面画像データに基づいてラテラルシフト量を算出することができる。 In a typical example of the present embodiment, the lateral shift amount calculation unit 223 is configured to calculate the lateral shift amount based on one or more types of frontal intensity image data and one or more types of frontal angiography image data. good. Note that when one or more types of frontal composite image data are constructed, the lateral shift amount can be calculated based on multiple types of frontal image data including the one or more types of frontal composite image data. Furthermore, when one or more types of front polarized image data are constructed, the lateral shift amount can be calculated based on multiple types of front image data including the one or more types of front polarized image data.

本実施形態では、ラテラルシフト量算出部223は、分割部2231によって複数の正面画像データのそれぞれを部分画像データ群(ストリップ群)に分割して複数のストリップ群を形成し、相関係数算出部2232により複数のストリップ群から相関係数を算出し、シフト量算出部2233により相関係数からラテラルシフト量を算出する。ここで、例えば、各相関係数は、2つのストリップの間の偏位量を反映している。算出されたラテラルシフト量の情報は、補正部225に送られる。 In this embodiment, the lateral shift amount calculation unit 223 divides each of the plurality of front image data into partial image data groups (strip groups) by the division unit 2231 to form a plurality of strip groups, and the correlation coefficient calculation unit 2232 calculates a correlation coefficient from a plurality of strip groups, and a shift amount calculation unit 2233 calculates a lateral shift amount from the correlation coefficient. Here, for example, each correlation coefficient reflects the amount of deviation between two strips. Information on the calculated lateral shift amount is sent to the correction unit 225.

(S5:アキシャルシフト量を算出する)
アキシャルシフト量算出部224は、ステップS2で構築された複数の3次元画像データのいずれか1以上に基づいて、アキシャル方向におけるデータシフト量(アキシャルシフト量)を算出する。ここで、アキシャルシフト量を算出する処理の精度向上のために、2種類以上の3次元画像データを用いてもよい。
(S5: Calculate the axial shift amount)
The axial shift amount calculation unit 224 calculates the data shift amount in the axial direction (axial shift amount) based on any one or more of the plurality of three-dimensional image data constructed in step S2. Here, in order to improve the accuracy of the process of calculating the axial shift amount, two or more types of three-dimensional image data may be used.

本実施形態の典型的な例において、アキシャルシフト量算出部224は、OCT強度画像データ及びOCT血管造影画像データのいずれか一方又は双方に基づいてアキシャルシフト量を算出するように構成されてよい。なお、合成画像データが構築された場合には、この合成画像データを含む1以上の3次元画像データに基づいてアキシャルシフト量を算出することができる。また、OCT偏光画像データが構築された場合には、このOCT偏光画像データを含む1以上の3次元画像データに基づいてアキシャルシフト量を算出することができる。算出されたアキシャルシフト量の情報は、補正部225に送られる。 In a typical example of this embodiment, the axial shift amount calculation unit 224 may be configured to calculate the axial shift amount based on either or both of OCT intensity image data and OCT angiography image data. Note that when composite image data is constructed, the axial shift amount can be calculated based on one or more three-dimensional image data including this composite image data. Further, when OCT polarization image data is constructed, the axial shift amount can be calculated based on one or more three-dimensional image data including this OCT polarization image data. Information on the calculated axial shift amount is sent to the correction unit 225.

(S6:モーションアーティファクト補正を行う)
ステップS1で収集された3次元データに基づき構築された画像データについて、補正部225は、ステップS4で算出されたラテラルシフト量に基づいてラテラル方向のモーションアーティファクト補正を行い、且つ、ステップS5で算出されたアキシャルシフト量に基づいてアキシャル方向のモーションアーティファクト補正を行う。
(S6: Perform motion artifact correction)
Regarding the image data constructed based on the three-dimensional data collected in step S1, the correction unit 225 performs motion artifact correction in the lateral direction based on the lateral shift amount calculated in step S4, and also performs motion artifact correction in the lateral direction based on the lateral shift amount calculated in step S5. Axial direction motion artifact correction is performed based on the calculated axial shift amount.

これらのモーションアーティファクト補正が適用される画像データは、例えば、ステップS2で構築された複数種類の3次元画像データのいずれか、及び/又は、ステップS3で構築された複数種類の正面画像データのいずれかであってよい。 The image data to which these motion artifact corrections are applied may be, for example, any of the multiple types of three-dimensional image data constructed in step S2, and/or any of the multiple types of frontal image data constructed in step S3. It may be

(S7:補正された画像データを表示・保存する)
主制御部211は、ステップS6で補正された画像データに基づく画像を表示部241(及び/又は、他の表示装置)に表示させることができる。また、ステップS6で補正された画像データのレンダリング画像が画像構築部220又はデータ処理部230により作成された場合、主制御部211は、このレンダリング画像を表示部241(及び/又は、他の表示装置)に表示させることができる。
(S7: Display and save corrected image data)
The main control unit 211 can cause the display unit 241 (and/or other display device) to display an image based on the image data corrected in step S6. Further, when a rendered image of the image data corrected in step S6 is created by the image construction section 220 or the data processing section 230, the main control section 211 displays this rendered image on the display section 241 (and/or other display section). device).

また、主制御部211は、ステップS6で補正された画像データを記憶部212(及び/又は、他の記憶装置)に格納することができる(エンド)。 Further, the main control unit 211 can store the image data corrected in step S6 in the storage unit 212 (and/or other storage device) (end).

〈作用、効果等〉
例示的な実施形態の幾つかの特徴について説明し、それらにより奏される幾つかの作用及び幾つかの効果について説明する。
<Action, effect, etc.>
Certain features of exemplary embodiments will be described, and some of the operations and advantages provided by them will be described.

上記の例示的な実施形態に係る眼科装置1は、走査型イメージング装置の幾つかの態様を提供する。それに加えて、上記の例示的な実施形態に係る眼科装置1は、走査型イメージング装置を制御する方法の幾つかの態様、画像処理装置の幾つかの態様、画像処理装置を制御する方法の幾つかの態様、画像処理方法の幾つかの態様、及び、走査型イメージング方法の幾つかの態様を提供する。 The ophthalmic device 1 according to the exemplary embodiments described above provides several aspects of a scanning imaging device. In addition, the ophthalmological apparatus 1 according to the exemplary embodiments described above may include some aspects of the method of controlling a scanning imaging device, some aspects of the image processing device, and some aspects of the method of controlling the image processing device. Some aspects of image processing methods, and some aspects of scanning imaging methods are provided.

さて、例示的な実施形態に係る走査型イメージング装置(眼科装置1)は、走査部と、画像化処理部(221)と、プロジェクション処理部(222)と、第1データシフト量算出部(ラテラルシフト量算出部223)と、補正部(225)とを含む。 Now, the scanning imaging device (ophthalmological device 1) according to the exemplary embodiment includes a scanning section, an imaging processing section (221), a projection processing section (222), and a first data shift amount calculation section (lateral A shift amount calculation section 223) and a correction section (225) are included.

走査部は、サンプル(被検眼E、眼底Ef)に走査を適用してデータを収集するように構成されている。この走査は、一連のサイクルを含む2次元パターンに従って実行される。 The scanning unit is configured to collect data by applying scanning to the sample (eye E, fundus Ef). This scanning is performed according to a two-dimensional pattern that includes a series of cycles.

幾つかの例示的な態様において、サンプルに適用される走査の2次元パターンに含まれる一連のサイクルは互いに交差していてよい。 In some exemplary embodiments, the series of cycles included in the two-dimensional pattern of scans applied to the sample may intersect with each other.

幾つかの例示的な態様において、サンプルに適用される走査は、リサージュ関数に基づき予め設定された走査プロトコルに基づき実行されてよい。このような走査の一例が、上記の例示的な実施形態におけるリサージュスキャンである。 In some example aspects, the scan applied to the sample may be performed based on a preset scan protocol based on a Lissajous function. An example of such a scan is the Lissajous scan in the exemplary embodiment described above.

幾つかの例示的な態様において、走査部は、互いに異なる第1方向(x方向)及び第2方向(y方向)に光を偏向可能な偏向器(光スキャナ44)を含み、第1方向に沿った偏向方向の変化を第1周期で繰り返しつつ第2方向に沿った偏向方向の変化を第1周期と異なる第2周期で繰り返すことによって、2次元パターンに従う走査をサンプルに適用するように構成されていてよい。ここで、偏向器は、リサージュ関数に基づき予め設定された走査プロトコルに基づき制御される。 In some exemplary embodiments, the scanning unit includes a deflector (light scanner 44) capable of deflecting light in a first direction (x direction) and a second direction (y direction) that are different from each other, and The sample is configured to apply scanning according to a two-dimensional pattern to the sample by repeating changes in the deflection direction along the direction in a first period and repeating changes in the deflection direction along the second direction in a second period different from the first period. It's good that it has been done. Here, the deflector is controlled based on a preset scanning protocol based on a Lissajous function.

上記の例示的な実施形態において、走査部は、OCTユニット100と、測定アームを構成する眼底カメラユニット2内の要素(リトロリフレクタ41、OCT合焦レンズ43、光スキャナ44、対物レンズ22等)とを含み、被検眼EにOCTスキャンを適用してOCTデータを収集する。 In the above exemplary embodiment, the scanning section includes the OCT unit 100 and the elements in the fundus camera unit 2 that constitute the measurement arm (retroreflector 41, OCT focusing lens 43, optical scanner 44, objective lens 22, etc.) and applying an OCT scan to the eye E to be examined to collect OCT data.

画像化処理部(221)は、走査部により収集されたデータに複数の異なる画像化処理を適用することによって複数の3次元画像データを構築するように構成されている。 The imaging processing section (221) is configured to construct a plurality of three-dimensional image data by applying a plurality of different imaging processes to the data collected by the scanning section.

幾つかの例示的な態様において、走査部がOCTスキャンをサンプルに適用する場合、画像化処理部(221)により構築される複数の3次元画像データは、OCT強度画像データ、OCT血管造影画像データ、OCT強度画像データとOCT血管造影画像データとに基づく合成画像データ、及び、OCT偏光画像データのいずれかを含んでいてよい。 In some exemplary embodiments, when the scanning unit applies an OCT scan to the sample, the plurality of three-dimensional image data constructed by the imaging processing unit (221) includes OCT intensity image data, OCT angiography image data. , composite image data based on OCT intensity image data and OCT angiography image data, and OCT polarization image data.

プロジェクション処理部(222)は、画像化処理部(221)により構築された複数の3次元画像データのそれぞれに深さ方向のプロジェクションを適用することによって複数の正面画像データを構築するように構成されている。 The projection processing unit (222) is configured to construct a plurality of front image data by applying depth direction projection to each of the plurality of three-dimensional image data constructed by the imaging processing unit (221). ing.

第1データシフト量算出部(ラテラルシフト量算出部223)は、プロジェクション処理部(222)により構築された複数の正面画像データに基づいて、深さ方向に直交する方向におけるデータシフト量(ラテラルシフト量)を算出するように構成されている。 The first data shift amount calculation unit (lateral shift amount calculation unit 223) calculates the data shift amount (lateral shift amount) in the direction perpendicular to the depth direction based on the plurality of front image data constructed by the projection processing unit (222) amount).

補正部(225)は、第1データシフト量算出部(ラテラルシフト量算出部223)により算出されたデータシフト量に基づいて、走査部により収集されたデータに基づく画像データのモーションアーティファクト補正を実行するように構成されている。 The correction unit (225) executes motion artifact correction of the image data based on the data collected by the scanning unit, based on the data shift amount calculated by the first data shift amount calculation unit (lateral shift amount calculation unit 223). is configured to do so.

このような例示的な実施形態に係る走査型イメージング装置によれば、複数種類の画像化処理で得られた複数の画像データを用いてモーションアーティファクト補正を行うように構成されているので、単一種類の画像化処理で得られた画像データを用いる従来の手法よりも高い精度でモーションアーティファクト補正を行うことが可能である。 According to the scanning imaging device according to such an exemplary embodiment, the motion artifact correction is performed using a plurality of image data obtained by a plurality of types of imaging processing, so that a single It is possible to perform motion artifact correction with higher accuracy than conventional methods that use image data obtained by different types of imaging processing.

本発明者は、従来のモーションアーティファクト補正手法が或る一種類の情報(例えば強度情報)のみを参照していることに着目し、複数種類の情報(例えば、強度情報、血流情報、偏光情報など)を総合的に参照することで補正精度を向上させられることを見いだした。この技術思想を実装するために上記の例示的な実施形態や幾つかの例示的な態様に想到した。 The present inventor focused on the fact that conventional motion artifact correction methods only refer to one type of information (for example, intensity information), and instead We found that correction accuracy can be improved by comprehensively referring to The exemplary embodiments and several exemplary aspects described above have been conceived to implement this technical idea.

幾つかの例示的な態様において、第1データシフト量算出部(ラテラルシフト量算出部223)は、プロジェクション処理部(222)により構築された複数の正面画像データに基づいて相関係数を算出し、この相関係数に基づいてデータシフト量(ラテラルシフト量)を算出するように構成されていてよい。このような構成によって、非特許文献1等に開示された手法を、複数種類の画像データを用いる手法に拡張することができる。 In some exemplary aspects, the first data shift amount calculation unit (lateral shift amount calculation unit 223) calculates a correlation coefficient based on the plurality of front image data constructed by the projection processing unit (222). , the data shift amount (lateral shift amount) may be calculated based on this correlation coefficient. With such a configuration, the method disclosed in Non-Patent Document 1 etc. can be extended to a method using multiple types of image data.

更に、幾つかの例示的な態様において、第1データシフト量算出部(ラテラルシフト量算出部223)は、分割部(2231)と、相関係数算出部(2232)とを含んでいてよい。分割部(2231)は、プロジェクション処理部(222)により構築された複数の正面画像データのそれぞれを部分画像データ群(ストリップ群)に分割するように構成されている。相関係数算出部(2232)は、分割部(2231)によって複数の正面画像データから取得された複数の部分画像データ群(複数のストリップ群)に基づいて相関係数を算出するように構成されている。なお、上記の例示的な実施形態では、ソフト量算出部2233が、相関係数算出部2232により算出された相関係数に基づいてデータシフト量(ラテラルシフト量)を算出している。このような構成によって、非特許文献1等に開示された手法を、複数種類の画像データを用いる手法に拡張することができる。 Furthermore, in some exemplary embodiments, the first data shift amount calculation section (lateral shift amount calculation section 223) may include a division section (2231) and a correlation coefficient calculation section (2232). The dividing unit (2231) is configured to divide each of the plurality of front image data constructed by the projection processing unit (222) into partial image data groups (strip groups). The correlation coefficient calculation unit (2232) is configured to calculate a correlation coefficient based on a plurality of partial image data groups (a plurality of strip groups) acquired from a plurality of front image data by the division unit (2231). ing. Note that in the exemplary embodiment described above, the soft amount calculation unit 2233 calculates the data shift amount (lateral shift amount) based on the correlation coefficient calculated by the correlation coefficient calculation unit 2232. With such a configuration, the method disclosed in Non-Patent Document 1 etc. can be extended to a method using multiple types of image data.

更に、幾つかの例示的な態様は、次のように構成されていてよい。プロジェクション処理部(222)により構築された複数の正面画像データのうちの任意の2つ(第1正面画像データ、第2正面画像データ)を考慮する。 Further, some example aspects may be configured as follows. Any two of the plurality of front image data (first front image data, second front image data) constructed by the projection processing unit (222) are considered.

まず、第1正面画像データの第1部分画像データ群(第1ストリップ群)に含まれる部分画像データ(ストリップ)の個数は、第2正面画像データの第2部分画像データ群(第2ストリップ群)に含まれる部分画像データ(ストリップ)の個数に等しい。つまり、複数の正面画像データから、等しい個数のストリップを含む複数のストリップ群が形成される。 First, the number of partial image data (strips) included in the first partial image data group (first strip group) of the first front image data is ) is equal to the number of partial image data (strips) included in That is, a plurality of strip groups including the same number of strips are formed from a plurality of front image data.

更に、第1部分画像データ群(第1ストリップ群)に含まれる任意の部分画像データ(ストリップ)について、その部分画像データ(ストリップ)に対応する、走査部により収集されたデータの部分データ(第1部分データ)は、第2部分画像データ群(第2ストリップ群)に含まれるいずれかの部分画像データ(ストリップ)に対応する当該データの部分データ(第2部分データ)と同じである。つまり、走査部により収集されたデータを複数の部分データに分割したと仮定すると、各部分データに対応する部分画像データ(その部分データが収集された領域を表現したストリップ)が、複数の正面画像データのそれぞれから1つずつ得られる。 Furthermore, for any partial image data (strip) included in the first partial image data group (first strip group), the partial data (first strip) of the data collected by the scanning unit that corresponds to the partial image data (strip) is 1 partial data) is the same as the partial data (second partial data) of the data corresponding to any partial image data (strip) included in the second partial image data group (second strip group). In other words, assuming that the data collected by the scanning unit is divided into multiple partial data, the partial image data corresponding to each partial data (strip representing the area where the partial data was collected) is divided into multiple frontal images. One from each of the data.

このような例示的な態様によれば、複数の正面画像データからの複数の部分画像データ群の間に、サンプルのデータ収集領域を基準として、一対一の対応関係を設定することができる。よって、サンプルの第1領域に対応する部分画像データを複数の部分画像データから1つずつ選択することによって、第1領域に対応する複数の部分画像データを設定することができる。同様に、サンプルの第2領域に対応する部分画像データを複数の部分画像データから1つずつ選択することによって、第2領域に対応する複数の部分画像データを設定することができる。そして、第1領域から収集されたデータ(第1部分データ)と第2領域から収集されたデータ(第2部分データ)との間のモーションアーティファクトが、第1領域に対応する複数の部分画像データと、第2領域に対応する複数の部分画像データとに基づいて補正される。 According to such an exemplary aspect, it is possible to set a one-to-one correspondence relationship between a plurality of partial image data groups from a plurality of front image data, with the data collection area of the sample as a reference. Therefore, by selecting the partial image data corresponding to the first region of the sample one by one from the plurality of partial image data, it is possible to set the plurality of partial image data corresponding to the first region. Similarly, a plurality of partial image data corresponding to the second area can be set by selecting partial image data corresponding to the second area of the sample one by one from a plurality of partial image data. Then, the motion artifact between the data collected from the first region (first partial data) and the data collected from the second region (second partial data) is generated in the plurality of partial image data corresponding to the first region. and a plurality of partial image data corresponding to the second area.

これに対し、例えば非特許文献1に記載された従来の手法では、第1領域から収集されたデータ(第1部分データ)と第2領域から収集されたデータ(第2部分データ)との間のモーションアーティファクトは、第1領域に対応する単一の部分画像データと、第2領域に対応する単一の部分画像データとに基づいて補正される。本態様の手法によれば、このような従来の手法よりも高い精度で相関演算を行うことができ、したがって、モーションアーティファクト補正の精度向上を図ることが可能である。 On the other hand, in the conventional method described in Non-Patent Document 1, for example, the difference between the data collected from the first region (first partial data) and the data collected from the second region (second partial data) is The motion artifact of is corrected based on the single partial image data corresponding to the first region and the single partial image data corresponding to the second region. According to the method of this aspect, correlation calculation can be performed with higher precision than such conventional methods, and therefore it is possible to improve the precision of motion artifact correction.

幾つかの例示的な態様において、相関係数算出部(2232)は、走査部により収集されたデータの第1部分データに対応する複数の正面画像データの複数の部分画像データの少なくとも2つを含む第1群と、第2部分データに対応する複数の正面画像データの複数の部分画像データの少なくとも2つを含む第2群とに基づいて、第1部分データと第2部分データとに対応する相関係数を算出するように構成されてよい。 In some exemplary aspects, the correlation coefficient calculation unit (2232) calculates at least two of the plurality of partial image data of the plurality of frontal image data corresponding to the first partial data of the data collected by the scanning unit. and a second group including at least two of the plurality of partial image data of the plurality of front image data corresponding to the second partial data. The configuration may be configured to calculate a correlation coefficient.

すなわち、第1群は、サンプルの第1領域から収集された第1部分データに対応する2以上の部分画像データ(ストリップ)からなる。また、第2群は、サンプルの第2領域から収集された第2部分データに対応する2以上の部分画像データ(ストリップ)からなる。相関係数算出部(2232)は、このような第1群及び第2群に基づいて、第1部分データと第2部分データとの間の相関係数を算出することができる。 That is, the first group consists of two or more partial image data (strips) corresponding to the first partial data collected from the first region of the sample. Moreover, the second group consists of two or more partial image data (strips) corresponding to the second partial data collected from the second region of the sample. The correlation coefficient calculation unit (2232) can calculate the correlation coefficient between the first partial data and the second partial data based on the first group and the second group.

更に、第1データシフト量算出部(シフト量算出部2233)は、このようにして算出された相関係数に基づいて、第1部分データと第2部分データとに対応するデータシフト量(ラテラルシフト量)を算出するように構成されてよい。このような例示的な態様によれば、従来の手法よりも高い精度で相関係数を算出することができ、したがって、モーションアーティファクト補正の精度向上を図ることが可能である。 Furthermore, the first data shift amount calculation section (shift amount calculation section 2233) calculates the data shift amount (lateral shift amount). According to such an exemplary aspect, it is possible to calculate the correlation coefficient with higher accuracy than conventional methods, and therefore it is possible to improve the accuracy of motion artifact correction.

幾つかの例示的な態様に係る走査型イメージング装置(眼科装置1)は、第2データシフト量算出部(アキシャルシフト量算出部224)を更に含んでいてよい。第2データシフト量算出部(アキシャルシフト量算出部224)は、画像化処理部(221)により構築された複数の3次元画像データのいずれか1以上に基づいて、深さ方向(アキシャル方向)におけるデータシフト量(アキシャルシフト量)を算出するように構成されている。 The scanning imaging device (ophthalmological device 1) according to some exemplary embodiments may further include a second data shift amount calculation section (axial shift amount calculation section 224). The second data shift amount calculation unit (axial shift amount calculation unit 224) calculates the amount of data in the depth direction (axial direction) based on any one or more of the plurality of three-dimensional image data constructed by the imaging processing unit (221). It is configured to calculate the data shift amount (axial shift amount) at .

更に、補正部(225)は、第2データシフト量算出部(アキシャルシフト量算出部224)により算出されたデータシフト量(アキシャルシフト量)に基づくモーションアーティファクト補正を、走査部により収集されたデータに基づく画像データに適用するように構成することができる。 Further, the correction unit (225) performs motion artifact correction based on the data shift amount (axial shift amount) calculated by the second data shift amount calculation unit (axial shift amount calculation unit 224) on the data collected by the scanning unit. can be configured to be applied to image data based on .

このような例示的な態様によれば、ラテラル方向のモーションアーティファクトに加えて、アキシャル方向のモーションアーティファクトも補正することが可能である。 According to these exemplary aspects, in addition to lateral motion artifacts, axial motion artifacts can also be corrected.

また、画像化処理部(221)により構築された複数の3次元画像データのうちの2つ以上の3次元画像データに基づいてアキシャルシフト量の算出を行い、且つ、このアキシャルシフト量に基づいてアキシャル方向のモーションアーティファクト補正を行うことによって、アキシャル方向のモーションアーティファクトを従来よりも高い精度で補正することが可能になる。 Further, an axial shift amount is calculated based on two or more three-dimensional image data among the plurality of three-dimensional image data constructed by the imaging processing unit (221), and based on this axial shift amount, By performing motion artifact correction in the axial direction, it becomes possible to correct motion artifacts in the axial direction with higher accuracy than before.

上記の例示的な実施形態に係る眼科装置1により提供可能な走査型イメージング装置の制御方法の例示的な態様を説明する。幾つかの例示的な態様において、走査型イメージング装置は、サンプルに走査を適用してデータを収集する走査部と、プロセッサとを含んでおり、これを制御する方法は、以下に説明する工程を含んでいてよい。 Exemplary aspects of a method of controlling a scanning imaging device that can be provided by the ophthalmological apparatus 1 according to the exemplary embodiment described above will be described. In some exemplary embodiments, a scanning imaging device includes a scanning portion that applies a scan to a sample to collect data, and a processor, and a method for controlling the same includes the steps described below. It may be included.

まず、走査型イメージング装置の制御方法は、一連のサイクルを含む2次元パターンに従う走査をサンプルに適用してデータを収集するように、走査部を制御する。更に、この制御方法は、プロセッサを、走査部により収集されたデータに複数の異なる画像化処理を適用して複数の3次元画像データを構築し、構築された複数の3次元画像データのそれぞれに深さ方向のプロジェクションを適用して複数の正面画像データを構築し、構築された複数の正面画像データに基づいて深さ方向に直交する方向におけるデータシフト量を算出し、算出されたデータシフト量に基づいて、走査部により収集されたデータに基づく画像データのモーションアーティファクト補正を実行するように制御する。 First, a method for controlling a scanning imaging apparatus controls a scanning unit to collect data by applying scanning to a sample according to a two-dimensional pattern including a series of cycles. Furthermore, this control method causes the processor to apply a plurality of different imaging processes to the data collected by the scanning unit to construct a plurality of three-dimensional image data, and to apply a plurality of three-dimensional image data to each of the constructed three-dimensional image data. Apply depth direction projection to construct multiple frontal image data, calculate the amount of data shift in the direction orthogonal to the depth direction based on the constructed multiple frontal image data, and calculate the calculated data shift amount. control to perform motion artifact correction of the image data based on the data collected by the scanning unit.

このような走査型イメージング装置の制御方法によれば、例示的な態様に係る走査型イメージング装置(例えば、眼科装置1)と同様に、モーションアーティファクト補正の精度の向上を図ることが可能である。なお、上記の例示的な実施形態に係る眼科装置1に関して説明された任意の事項を、例示的な態様に係る走査型イメージング装置の制御方法に組み合わせることが可能である。 According to such a method of controlling a scanning imaging device, it is possible to improve the accuracy of motion artifact correction, similarly to the scanning imaging device (for example, the ophthalmological device 1) according to the exemplary embodiment. It should be noted that any of the matters described with respect to the ophthalmological device 1 according to the exemplary embodiments above can be combined with the method of controlling a scanning imaging device according to the exemplary aspects.

上記の例示的な実施形態に係る眼科装置1により提供可能な画像処理装置の例示的な態様を説明する。幾つかの例示的な態様において、画像処理装置は、記憶部と、画像化処理部と、プロジェクション処理部と、第1データシフト量算出部と、補正部とを含む。 Exemplary aspects of the image processing device that can be provided by the ophthalmologic apparatus 1 according to the above exemplary embodiment will be described. In some exemplary aspects, the image processing device includes a storage unit, an imaging processing unit, a projection processing unit, a first data shift amount calculation unit, and a correction unit.

記憶部は、一連のサイクルを含む2次元パターンに従う走査をサンプルに適用して収集されたデータを記憶するように構成されている。上記の例示的な実施形態において、この記憶部は記憶部212に相当する。 The storage unit is configured to store data collected by applying a scan to the sample according to a two-dimensional pattern including a series of cycles. In the exemplary embodiment described above, this storage corresponds to storage 212.

画像化処理部は、記憶部に記憶されたデータに複数の異なる画像化処理を適用して複数の3次元画像データを構築するように構成されている。上記の例示的な実施形態において、この画像化処理部は、画像化処理部221に相当する。 The imaging processing section is configured to construct a plurality of three-dimensional image data by applying a plurality of different imaging processes to the data stored in the storage section. In the exemplary embodiment described above, this imaging processing unit corresponds to the imaging processing unit 221.

プロジェクション処理部は、画像化処理部により構築された複数の3次元画像データのそれぞれに深さ方向のプロジェクションを適用して複数の正面画像データを構築するように構成されている。上記の例示的な実施形態において、このプロジェクション処理部は、プロジェクション処理部222に相当する。 The projection processing section is configured to construct a plurality of front image data by applying depth direction projection to each of the plurality of three-dimensional image data constructed by the imaging processing section. In the exemplary embodiment described above, this projection processing section corresponds to the projection processing section 222.

第1データシフト量算出部は、プロジェクション処理部により構築された複数の正面画像データに基づいて深さ方向に直交する方向におけるデータシフト量を算出するように構成されている。 The first data shift amount calculation section is configured to calculate a data shift amount in a direction orthogonal to the depth direction based on the plurality of front image data constructed by the projection processing section.

補正部は、第1データシフト量算出部により算出されたデータシフト量に基づいて、走査により収集されたデータに基づく画像データのモーションアーティファクト補正を実行するように構成されている。 The correction section is configured to perform motion artifact correction of the image data based on the data collected by scanning, based on the data shift amount calculated by the first data shift amount calculation section.

このような画像処理装置によれば、例示的な態様に係る走査型イメージング装置(例えば、眼科装置1)と同様に、モーションアーティファクト補正の精度の向上を図ることが可能である。なお、上記の例示的な実施形態に係る眼科装置1に関して説明された任意の事項を、例示的な態様に係る画像処理装置に組み合わせることが可能である。 According to such an image processing device, it is possible to improve the accuracy of motion artifact correction, similarly to the scanning imaging device (for example, the ophthalmological device 1) according to the exemplary embodiment. Note that any of the matters described with respect to the ophthalmological apparatus 1 according to the exemplary embodiments above can be combined into the image processing apparatus according to the exemplary embodiments.

上記の例示的な実施形態に係る眼科装置1により提供可能な画像処理装置の制御方法の例示的な態様を説明する。幾つかの例示的な態様において、画像処理装置は、記憶部とプロセッサとを含んでおり、これを制御する方法は、以下に説明する工程を含んでいてよい。 An exemplary aspect of a method for controlling an image processing device that can be provided by the ophthalmologic apparatus 1 according to the exemplary embodiment described above will be described. In some exemplary embodiments, an image processing device includes a storage unit and a processor, and a method for controlling the same may include the steps described below.

まず、画像処理装置の制御方法は、一連のサイクルを含む2次元パターンに従う走査をサンプルに適用して収集されたデータを記憶部に記憶させる。更に、この制御方法は、プロセッサを、記憶部に記憶されたデータに複数の異なる画像化処理を適用して複数の3次元画像データを構築し、構築された複数の3次元画像データのそれぞれに深さ方向のプロジェクションを適用して複数の正面画像データを構築し、構築された複数の正面画像データに基づいて深さ方向に直交する方向におけるデータシフト量を算出し、算出されたデータシフト量に基づいて、走査部により収集されたデータに基づく画像データのモーションアーティファクト補正を実行するように制御する。 First, a method for controlling an image processing apparatus applies scanning according to a two-dimensional pattern including a series of cycles to a sample, and stores collected data in a storage unit. Furthermore, this control method causes the processor to construct a plurality of three-dimensional image data by applying a plurality of different imaging processes to the data stored in the storage unit, and to apply a plurality of three-dimensional image data to each of the constructed three-dimensional image data. Apply depth direction projection to construct multiple frontal image data, calculate the amount of data shift in the direction orthogonal to the depth direction based on the constructed multiple frontal image data, and calculate the calculated data shift amount. control to perform motion artifact correction of the image data based on the data collected by the scanning unit.

このような画像処理装置の制御方法によれば、例示的な態様に係る走査型イメージング装置(例えば、眼科装置1)と同様に、モーションアーティファクト補正の精度の向上を図ることが可能である。なお、上記の例示的な実施形態に係る眼科装置1に関して説明された任意の事項を、例示的な態様に係る画像処理装置の制御方法に組み合わせることが可能である。 According to such a method of controlling an image processing device, it is possible to improve the accuracy of motion artifact correction, similarly to the scanning imaging device (for example, the ophthalmological device 1) according to the exemplary embodiment. Note that any of the matters described regarding the ophthalmological apparatus 1 according to the above exemplary embodiment can be combined with the method for controlling an image processing apparatus according to the exemplary embodiment.

上記の例示的な実施形態に係る眼科装置1により提供可能な走査型イメージング方法の例示的な態様を説明する。幾つかの例示的な態様において、走査型イメージング方法は、以下に説明する工程を含んでいてよい。 Exemplary aspects of the scanning imaging method that can be provided by the ophthalmologic apparatus 1 according to the exemplary embodiments described above will be described. In some example aspects, a scanning imaging method may include the steps described below.

まず、走査型イメージング方法は、一連のサイクルを含む2次元パターンに従う走査をサンプルに適用してデータを収集し、収集されたデータに複数の異なる画像化処理を適用して複数の3次元画像データを構築する。更に、走査型イメージング方法は、構築された複数の3次元画像データのそれぞれに深さ方向のプロジェクションを適用して複数の正面画像データを構築し、構築された複数の正面画像データに基づいて深さ方向に直交する方向におけるデータシフト量を算出する。加えて、走査型イメージング方法は、算出されたデータシフト量に基づいて、上記走査により収集されたデータに基づく画像データのモーションアーティファクト補正を実行する。 First, scanning imaging methods collect data by applying a scan to a sample that follows a two-dimensional pattern that includes a series of cycles, and then apply multiple different imaging processes to the collected data to create multiple three-dimensional image data. Build. Furthermore, the scanning imaging method applies depth direction projection to each of the constructed plurality of three-dimensional image data to construct a plurality of frontal image data, and performs depth projection based on the constructed plurality of frontal image data. Calculate the amount of data shift in the direction perpendicular to the horizontal direction. In addition, the scanning imaging method performs motion artifact correction of the image data based on the data collected by the scanning, based on the calculated data shift amount.

このような走査型イメージング方法によれば、例示的な態様に係る走査型イメージング装置(例えば、眼科装置1)と同様に、モーションアーティファクト補正の精度の向上を図ることが可能である。なお、上記の例示的な実施形態に係る眼科装置1に関して説明された任意の事項を、例示的な態様に係る走査型イメージング方法に組み合わせることが可能である。 According to such a scanning imaging method, it is possible to improve the accuracy of motion artifact correction, similar to the scanning imaging device (eg, ophthalmological device 1) according to the exemplary embodiment. It should be noted that any of the matters described with respect to the ophthalmic device 1 according to the exemplary embodiments above can be combined in the scanning imaging method according to the exemplary aspects.

上記の例示的な実施形態に係る眼科装置1により提供可能な画像処理方法の例示的な態様を説明する。幾つかの例示的な態様において、画像処理方法は、以下に説明する工程を含んでいてよい。 Exemplary aspects of the image processing method that can be provided by the ophthalmological apparatus 1 according to the above exemplary embodiment will be described. In some example aspects, an image processing method may include the steps described below.

まず、画像処理方法は、一連のサイクルを含む2次元パターンに従う走査をサンプルに適用して収集されたデータを準備する。例えば、通信回線や記録媒体を介してサンプルのデータが受け付けられる。或いは、サンプルに走査を適用してデータが収集される。 First, the image processing method prepares the collected data by applying a scan to the sample according to a two-dimensional pattern that includes a series of cycles. For example, sample data is accepted via a communication line or recording medium. Alternatively, data is collected by applying a scan to the sample.

更に、画像処理方法は、準備されたデータに複数の異なる画像化処理を適用して複数の3次元画像データを構築し、構築された複数の3次元画像データのそれぞれに深さ方向のプロジェクションを適用して複数の正面画像データを構築する。更に、画像処理方法は、構築された複数の正面画像データに基づいて深さ方向に直交する方向におけるデータシフト量を算出し、算出されたデータシフト量に基づいて、準備されたデータに基づく画像データのモーションアーティファクト補正を実行する。 Furthermore, the image processing method applies a plurality of different imaging processes to the prepared data to construct a plurality of three-dimensional image data, and performs a depth direction projection on each of the plurality of constructed three-dimensional image data. is applied to construct multiple frontal image data. Furthermore, the image processing method calculates a data shift amount in a direction perpendicular to the depth direction based on the plurality of constructed frontal image data, and based on the calculated data shift amount, an image based on the prepared data is calculated. Perform motion artifact correction on the data.

このような画像処理方法によれば、例示的な態様に係る走査型イメージング装置(例えば、眼科装置1)と同様に、モーションアーティファクト補正の精度の向上を図ることが可能である。なお、上記の例示的な実施形態に係る眼科装置1に関して説明された任意の事項を、例示的な態様に係る画像処理方法に組み合わせることが可能である。 According to such an image processing method, it is possible to improve the accuracy of motion artifact correction similarly to the scanning imaging device (for example, ophthalmological device 1) according to the exemplary embodiment. Note that any of the matters described with respect to the ophthalmologic apparatus 1 according to the exemplary embodiments above can be combined with the image processing method according to the exemplary embodiments.

幾つかの例示的な態様において、走査型イメージング装置を制御する方法のいずれかの態様をコンピュータに実行させるプログラム、画像処理装置を制御する方法のいずれかの態様をコンピュータに実行させるプログラム、画像処理方法のいずれかの態様をコンピュータに実行させるプログラム、又は、走査型イメージング方法のいずれかの態様をコンピュータに実行させるプログラムを提供することが可能である。 In some exemplary embodiments, a program causes a computer to execute any aspect of a method for controlling a scanning imaging device, a program causes a computer to execute any aspect of a method for controlling an image processing device, and image processing. It is possible to provide a program that causes a computer to perform any aspect of the method or a program that causes a computer to perform any aspect of the scanning imaging method.

また、このようなプログラムを記録したコンピュータ可読な非一時的記録媒体を作成することが可能である。この非一時的記録媒体は任意の形態であってよく、その例として、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどがある。 Furthermore, it is possible to create a computer-readable non-temporary recording medium that records such a program. This non-transitory recording medium may be in any form, examples of which include magnetic disks, optical disks, magneto-optical disks, and semiconductor memory.

上記の例示的な実施形態では、リサージュスキャンが用いられる場合について詳しく説明したが、前述したように、他のスキャンモードを採用することも可能である。例えば、幾つかの例示的な態様において、走査部は、互いに平行な一連のラインスキャンを含むラスターパターンに従うスキャン(ラスタースキャン)をサンプルに適用してデータを収集することが可能である。 Although the above exemplary embodiments have been described in detail where Lissajous scans are used, other scan modes may also be employed, as mentioned above. For example, in some exemplary embodiments, the scanning unit may collect data by applying a scan (raster scan) to the sample that follows a raster pattern that includes a series of parallel line scans.

この場合、画像化処理部は、ラスタースキャンで収集されたデータに複数の異なる画像化処理を適用することで複数の3次元画像データを構築することができる。プロジェクション処理部は、構築された複数の3次元画像データのそれぞれに深さ方向のプロジェクションを適用することで複数の正面画像データを構築することができる。第1データシフト量算出部は、構築された複数の正面画像データに基づいて、深さ方向に直交する方向におけるデータシフト量を算出することができる。補正部は、算出されたデータシフト量に基づいて、ラスタースキャンで収集された上記データに基づく(任意の)画像データのモーションアーティファクト補正を実行することができる。 In this case, the imaging processing unit can construct a plurality of three-dimensional image data by applying a plurality of different imaging processes to data collected by raster scanning. The projection processing unit can construct a plurality of front image data by applying depth direction projection to each of the constructed three-dimensional image data. The first data shift amount calculation unit can calculate the data shift amount in the direction orthogonal to the depth direction based on the plurality of constructed front image data. The correction unit can perform motion artifact correction of (arbitrary) image data based on the data collected by raster scan, based on the calculated data shift amount.

このような例示的な態様によれば、ラスタースキャンで収集されたデータに複数種類の画像化処理を適用して得られた複数の画像データを用いてモーションアーティファクト補正を行うように構成されているので、単一種類の画像化処理で得られた画像データを用いる従来の手法よりも高い精度でモーションアーティファクト補正を行うことが可能である。 According to these exemplary aspects, the motion artifact correction is configured to be performed using a plurality of image data obtained by applying a plurality of types of imaging processing to data collected by raster scanning. Therefore, it is possible to perform motion artifact correction with higher accuracy than conventional methods that use image data obtained by a single type of imaging processing.

上記の例示的な実施形態に係る眼科装置1に関して説明された任意の事項を、このような例示的な態様に係る走査型イメージング装置に組み合わせることが可能である。また、ここに説明した例示的な態様に係る走査型イメージング装置は、走査型イメージング装置の幾つかの態様だけでなく、走査型イメージング装置を制御する方法の幾つかの態様、画像処理装置の幾つかの態様、画像処理装置を制御する方法の幾つかの態様、画像処理方法の幾つかの態様、及び、走査型イメージング方法の幾つかの態様を提供するものである。更に、これらの例示的な態様のいずれかに係る方法をコンピュータに実行させるプログラムを構成することが可能であり、このプログラムを記録したコンピュータ可読な非一時的記録媒体を作成することも可能である。 Any of what has been described with respect to the ophthalmic device 1 according to the exemplary embodiments above can be combined into a scanning imaging device according to such exemplary aspects. Additionally, the scanning imaging device according to the exemplary aspects described herein includes some aspects of the scanning imaging device, as well as some aspects of the method of controlling the scanning imaging device, and some aspects of the image processing device. Some aspects of the method for controlling an image processing device, some aspects of the image processing method, and some aspects of the scanning imaging method are provided. Furthermore, it is possible to configure a program that causes a computer to perform a method according to any of these exemplary aspects, and it is also possible to create a computer-readable non-transitory storage medium recording this program. .

上記の例示的な実施形態及び態様では、リサージュスキャン(又は、他モードのスキャン)で収集されたデータに複数の異なる画像化処理を適用して複数種類の3次元画像データを構築し、これら3次元画像データから構築された複数の正面画像データからデータシフト量を求めてモーションアーティファクト補正を行っているが、これとは異なる態様を実施することも可能である。 In the exemplary embodiments and aspects described above, a plurality of different imaging processes are applied to data collected with a Lissajous scan (or other modes of scanning) to construct a plurality of types of three-dimensional image data. Although motion artifact correction is performed by determining a data shift amount from a plurality of frontal image data constructed from dimensional image data, it is also possible to implement a mode different from this.

例えば、幾つかの例示的な態様は、リサージュスキャン(又は、他モードのスキャン)で収集されたデータから(1種類の)3次元画像データを構築し、この3次元画像データに複数の異なる処理(プロジェクション)を適用して複数種類の正面画像データを構築し、これら正面画像データからデータシフト量を求めてモーションアーティファクト補正を行うように構成されていてよい。このような態様の幾つかの具体例を以下に説明する。なお、以下の具体例は単なる例示であって限定を意図したものではない。 For example, some exemplary embodiments construct three-dimensional image data from data collected with a Lissajous scan (or other modes of scanning), and perform multiple different processes on this three-dimensional image data. (Projection) may be applied to construct a plurality of types of front image data, and a data shift amount may be determined from these front image data to perform motion artifact correction. Some specific examples of such aspects will be described below. Note that the following specific examples are merely illustrative and are not intended to be limiting.

幾つかの例示的な態様は、収集データに基づく3次元画像データとしてOCT強度画像データを構築し、このOCT強度画像データに基づく正面画像データとして、以下の正面画像データのうちのいずれか2以上を構築するように構成されていてよい:対数スケール線形プロジェクションによる正面画像データ;対数スケールプロジェクションによる正面画像データ;最大値プロジェクションによる正面画像データ;他のプロジェクション手法による正面画像データ。OCT強度画像データから構築された2以上の正面画像データは、データシフト量の算出に利用される。算出されたデータシフト量は、収集データに基づく任意の画像データのモーションアーティファクト補正に利用される。 Some example embodiments construct OCT intensity image data as three-dimensional image data based on collected data, and as frontal image data based on the OCT intensity image data, any two or more of the following frontal image data: may be configured to construct: frontal image data with logarithmic scale linear projection; frontal image data with logarithmic scale projection; frontal image data with maximum intensity projection; frontal image data with other projection techniques. Two or more pieces of frontal image data constructed from OCT intensity image data are used to calculate the data shift amount. The calculated data shift amount is used for motion artifact correction of arbitrary image data based on the collected data.

幾つかの例示的な態様は、収集データに基づく3次元画像データとしてOCT血管造影画像データを構築し、このOCT血管造影画像データに基づく正面画像データとして、以下の正面画像データのうちのいずれか2以上を構築するように構成されていてよい:OCT血管造影画像データ全体のプロジェクションで得られる画像データ(全深度正面OCT血管造影画像);OCT血管造影画像データの一部のプロジェクション(スラブのプロジェクション)で得られる画像データ;他のプロジェクション手法による正面画像データ。OCT血管造影画像データから構築された2以上の正面画像データは、データシフト量の算出に利用される。算出されたデータシフト量は、収集データに基づく任意の画像データのモーションアーティファクト補正に利用される。 Some example aspects construct OCT angiography image data as three-dimensional image data based on the acquired data, and as en-face image data based on the OCT angiography image data, any of the following en-face image data: Image data obtained by projecting the entire OCT angiographic image data (full-depth frontal OCT angiographic image); projection of a portion of the OCT angiographic image data (slab projection) ) image data obtained by other projection methods; frontal image data obtained by other projection methods. Two or more pieces of frontal image data constructed from OCT angiography image data are used to calculate the data shift amount. The calculated data shift amount is used for motion artifact correction of arbitrary image data based on the collected data.

幾つかの例示的な態様は、収集データに基づく3次元画像データとしてOCT偏光画像データを構築し、このOCT偏光画像データに基づく正面画像データとして、以下の正面画像データのうちのいずれか2以上を構築するように構成されていてよい:偏光均一性(DOPU)マップ;複屈折マップ;網膜色素上皮感受型コントラストマップ;網膜色素上皮隆起マップ;他のプロジェクション手法による正面画像データ。OCT偏光画像データから構築された2以上の正面画像データは、データシフト量の算出に利用される。算出されたデータシフト量は、収集データに基づく任意の画像データのモーションアーティファクト補正に利用される。 Some example embodiments construct OCT polarization image data as three-dimensional image data based on collected data, and as frontal image data based on the OCT polarization image data, any two or more of the following frontal image data: may be configured to construct: polarization uniformity (DOPU) maps; birefringence maps; retinal pigment epithelial-sensitive contrast maps; retinal pigment epithelium elevation maps; en-face image data from other projection techniques. Two or more pieces of front image data constructed from OCT polarization image data are used to calculate the data shift amount. The calculated data shift amount is used for motion artifact correction of arbitrary image data based on the collected data.

これらの具体例によれば、以下に示す態様の走査型イメージング装置が得られ、これに対応した各種の態様(走査型イメージング装置の制御方法、画像処理装置、画像処理装置の制御方法、走査型イメージング方法、画像処理方法、プログラム、及び記録媒体)が得られる。 According to these specific examples, a scanning imaging device having the following aspects can be obtained, and various aspects corresponding thereto (scanning imaging device control method, image processing device, image processing device control method, scanning imaging device) can be obtained. An imaging method, an image processing method, a program, and a recording medium) are obtained.

すなわち、幾つかの例示的な態様に係る走査型イメージング装置は、一連のサイクルを含む2次元パターンに従う走査をサンプルに適用してデータを収集する走査部と、当該データに画像化処理を適用して3次元画像データを構築する画像化処理部と、当該3次元画像データに複数の異なる処理(プロジェクション)を適用して複数の正面画像データを構築するプロジェクション処理部と、当該複数の正面画像データに基づいて深さ方向に直交する方向におけるデータシフト量を算出する第1データシフト量算出部と、当該データシフト量に基づいて、当該走査部により収集された当該データに基づく画像データのモーションアーティファクト補正を実行する補正部とを含む。 That is, a scanning imaging device according to some example aspects includes a scanning unit that collects data by applying a scan to a sample according to a two-dimensional pattern that includes a series of cycles, and an imaging process that applies an imaging process to the data. an imaging processing unit that constructs three-dimensional image data by applying a plurality of different processes (projections) to the three-dimensional image data, a projection processing unit that constructs a plurality of frontal image data, and a plurality of frontal image data. a first data shift amount calculating section that calculates a data shift amount in a direction perpendicular to the depth direction based on the data shift amount; and a motion artifact of image data based on the data collected by the scanning section based on the data shift amount. and a correction unit that performs correction.

このような走査型イメージング装置に対し、上記の例示的な実施形態に係る眼科装置1に関して説明された任意の事項を組み合わせることが可能である。例えば、次のような走査型イメージング装置が得られる。 For such a scanning imaging device, it is possible to combine any of the features described with respect to the ophthalmological device 1 according to the exemplary embodiments above. For example, the following scanning imaging device can be obtained.

すなわち、幾つかの例示的な態様に係る走査型イメージング装置は、一連のサイクルを含む2次元パターンに従う走査をサンプルに適用してデータを収集する走査部と、当該データに1以上の画像化処理を適用して1以上の3次元画像データを構築する画像化処理部と、当該1以上の3次元画像データのそれぞれに1以上の処理(プロジェクション)を適用して複数の正面画像データを構築するプロジェクション処理部と、当該複数の正面画像データに基づいて深さ方向に直交する方向におけるデータシフト量を算出する第1データシフト量算出部と、当該データシフト量に基づいて、当該走査部により収集された当該データに基づく画像データのモーションアーティファクト補正を実行する補正部とを含む。このような走査型イメージング装置に対し、上記の例示的な実施形態に係る眼科装置1に関して説明された任意の事項を組み合わせることが可能である。 That is, a scanning imaging device according to some exemplary aspects includes a scanning unit that collects data by applying a scan to a sample according to a two-dimensional pattern that includes a series of cycles; and one or more imaging processes on the data. an imaging processing unit that applies one or more three-dimensional image data to construct one or more three-dimensional image data; and one or more processing (projection) to each of the one or more three-dimensional image data to construct a plurality of frontal image data. a projection processing unit; a first data shift amount calculation unit that calculates a data shift amount in a direction perpendicular to the depth direction based on the plurality of frontal image data; and a correction unit that performs motion artifact correction of the image data based on the data. For such a scanning imaging device, it is possible to combine any of the features described with respect to the ophthalmological device 1 according to the exemplary embodiments above.

また、前述したように、例示的な態様に適用可能なスキャンモードは、サンプルの3次元領域からのデータ収集が可能である限りにおいて任意であることを更に考慮し、次のような走査型イメージング装置を構成することが可能である。 Also, as previously discussed, the scan mode applicable to the exemplary embodiments is any, as long as data collection from a three-dimensional region of the sample is possible, and scanning imaging such as It is possible to configure the device.

すなわち、幾つかの例示的な態様に係る走査型イメージング装置は、サンプルの3次元領域からデータを収集する走査部と、当該データに1以上の画像化処理を適用して1以上の3次元画像データを構築する画像化処理部と、当該1以上の3次元画像データのそれぞれに1以上の処理(プロジェクション)を適用して複数の正面画像データを構築するプロジェクション処理部と、当該複数の正面画像データに基づいて深さ方向に直交する方向におけるデータシフト量を算出する第1データシフト量算出部と、当該データシフト量に基づいて、当該走査部により収集された当該データに基づく画像データのモーションアーティファクト補正を実行する補正部とを含む。このような走査型イメージング装置に対し、上記の例示的な実施形態に係る眼科装置1に関して説明された任意の事項を組み合わせることが可能である。 That is, a scanning imaging device according to some example aspects includes a scanning unit that collects data from a three-dimensional region of a sample and applies one or more imaging processes to the data to generate one or more three-dimensional images. an imaging processing unit that constructs data; a projection processing unit that applies one or more processes (projections) to each of the one or more three-dimensional image data to construct a plurality of frontal image data; and a projection processing unit that constructs a plurality of frontal image data. a first data shift amount calculation unit that calculates a data shift amount in a direction perpendicular to the depth direction based on the data; and a motion of image data based on the data collected by the scanning unit based on the data shift amount. and a correction unit that performs artifact correction. For such a scanning imaging device, it is possible to combine any of the features described with respect to the ophthalmological device 1 according to the exemplary embodiments above.

上記の例示的な実施形態に係る眼科装置1の動作について、他の幾つかの例を説明する(図9~図11を参照)。なお、患者IDの入力、走査モードの設定(リサージュスキャンの指定)、固視標の提示、アライメント、フォーカス調整、OCT光路長調整など、従来と同様の準備的な処理は、既になされたものとする。 Several other examples of the operation of the ophthalmological apparatus 1 according to the above exemplary embodiment will be described (see FIGS. 9 to 11). The same preparatory processes as before, such as entering the patient ID, setting the scan mode (specifying Lissajous scan), presenting a fixation target, alignment, focus adjustment, and OCT optical path length adjustment, have already been performed. do.

まず、図9に示す動作例を説明する。本動作例は、図8に示す動作例のステップS2に変形を施したものである。 First, the operation example shown in FIG. 9 will be explained. This operation example is a modification of step S2 of the operation example shown in FIG.

(S11:リサージュスキャンでOCT干渉信号を収集する)
図8の動作例のステップS1と同じ要領で、被検眼E(眼底Ef)にリサージュスキャンが適用され、3次元データとしてのOCT干渉信号が収集される。収集された3次元データは画像構築部220に送られる。
(S11: Collect OCT interference signals with Lissajous scan)
In the same manner as step S1 of the operation example in FIG. 8, Lissajous scanning is applied to the eye E (fundus Ef) to be examined, and OCT interference signals as three-dimensional data are collected. The collected three-dimensional data is sent to the image construction section 220.

(S12:単一の3次元画像データを構築する)
画像構築部220の画像化処理部221は、ステップS11で収集された3次元データに1つの画像化処理を適用して、単一の3次元画像データを構築する。構築された単一の3次元画像データは、プロジェクション処理部222に送られる。
(S12: Build single 3D image data)
The imaging processing section 221 of the image construction section 220 applies one imaging process to the three-dimensional data collected in step S11 to construct a single three-dimensional image data. The constructed single three-dimensional image data is sent to the projection processing section 222.

なお、本ステップに対応する図8のステップS2では、複数の異なる画像化処理が3次元データに適用されて複数種類の3次元画像データが構築される。 Note that in step S2 in FIG. 8, which corresponds to this step, a plurality of different imaging processes are applied to the three-dimensional data to construct a plurality of types of three-dimensional image data.

(S13:複数種類の正面画像データを構築する)
プロジェクション処理部222は、ステップS12で構築された単一の3次元画像データに対して深さ方向(アキシャル方向)のプロジェクションを適用することにより、複数種類の正面画像データを構築する。ここで、プロジェクション処理部222は、複数の異なるプロジェクションを単一の3次元画像データに適用する。これにより、互いに異なる情報を含む、複数の異なる種類の正面画像データが構築される。構築された複数種類の正面画像データは、ラテラルシフト量算出部223に送られる。また、複数種類の3次元画像データのいずれかが、アキシャルシフト量算出部224に送られる。
(S13: Build multiple types of frontal image data)
The projection processing unit 222 constructs multiple types of front image data by applying projection in the depth direction (axial direction) to the single three-dimensional image data constructed in step S12. Here, the projection processing unit 222 applies a plurality of different projections to a single three-dimensional image data. As a result, a plurality of different types of frontal image data containing mutually different information are constructed. The constructed plural types of frontal image data are sent to the lateral shift amount calculation unit 223. Further, any of the plurality of types of three-dimensional image data is sent to the axial shift amount calculation unit 224.

幾つかの例において、ステップS12でOCT強度画像データが構築された場合、ステップS13では、このOCT強度画像データに対して、例えば、対数スケール線形プロジェクション、対数スケールプロジェクション、及び最大値プロジェクションのうちのいずれか2つ又は全てが適用される。 In some examples, if the OCT intensity image data is constructed in step S12, then in step S13 the OCT intensity image data is subjected to one of, for example, a logarithmic scale linear projection, a logarithmic scale projection, and a maximum value projection. Any two or all may be applied.

また、幾つかの例において、ステップS12でOCT血管造影画像データが構築された場合、ステップS13では、例えば、このOCT血管造影画像データ全体のプロジェクション、及び/又は、このOCT血管造影画像データの一部のみのプロジェクションが実行される。後者は、例えば、セグメンテーションによってこのOCT血管造影画像データから抽出された1以上のスラブのプロジェクションであってよい。 In some examples, when OCT angiography image data is constructed in step S12, step S13 may include, for example, a projection of the entire OCT angiography image data and/or a portion of the OCT angiography image data. Projection of only the part is executed. The latter may be, for example, a projection of one or more slabs extracted from this OCT angiography image data by segmentation.

また、幾つかの例において、ステップS12でOCT偏光画像データが構築された場合、ステップS13では、このOCT偏光画像データから、例えば、偏光均一性マップ、複屈折マップ、網膜色素上皮感受型コントラストマップ、及び網膜色素上皮隆起マップのうちのいずれか2つ、いずれか3つ、又は全てが構築される。 In some examples, when OCT polarization image data is constructed in step S12, in step S13, a polarization uniformity map, a birefringence map, a retinal pigment epithelium-sensitive contrast map, etc. , and any two, any three, or all of the retinal pigment epithelial elevation maps are constructed.

なお、本ステップに対応する図8のステップS3では、1以上の種類の画像化処理を適用可能である。例えば、図8のステップS3は、ステップS2で構築された複数種類の3次元画像データのそれぞれに対して同じ種類のプロジェクションを適用することで複数の異なる種類の正面画像データを構築するように構成されてよい。他の例において、図8のステップS3は、ステップS2で構築された複数種類の3次元画像データを複数の群に分類し、各群に対して同じ種類のプロジェクションを適用するように構成されてよい。更に他の例において、図8のステップS3は、ステップS2で構築された複数種類の3次元画像データのそれぞれに対して複数の異なる種類のプロジェクションを適用するように構成されてよい。更に他の例において、図8のステップS3は、ステップS2で構築された複数種類の3次元画像データを複数の群に分類し、各群に対して1以上の種類のプロジェクションを適用するように構成されてよい。 Note that in step S3 in FIG. 8, which corresponds to this step, one or more types of imaging processing can be applied. For example, step S3 in FIG. 8 is configured to construct a plurality of different types of front image data by applying the same type of projection to each of the multiple types of three-dimensional image data constructed in step S2. It's okay to be. In another example, step S3 in FIG. 8 is configured to classify the plurality of types of three-dimensional image data constructed in step S2 into a plurality of groups, and apply the same type of projection to each group. good. In yet another example, step S3 in FIG. 8 may be configured to apply a plurality of different types of projection to each of the plurality of types of three-dimensional image data constructed in step S2. In still another example, step S3 in FIG. 8 classifies the plurality of types of three-dimensional image data constructed in step S2 into a plurality of groups, and applies one or more types of projection to each group. may be configured.

(S14~S17)
ステップS14、S15、S16及びS17は、それぞれ、図8のステップS4、S5、S6及びS7と同じ要領で実行される(エンド)。
(S14-S17)
Steps S14, S15, S16, and S17 are executed in the same manner as steps S4, S5, S6, and S7 in FIG. 8, respectively (end).

次に、図10に示す動作例を説明する。本動作例は、図8に示す動作例のステップS1に変形(一般化)を施したものである。すなわち、図8のステップS1はリサージュスキャンを採用しているが、本動作例のステップS21はリサージュスキャンに限定されず、任意の3次元スキャンを採用することが可能である。 Next, an example of operation shown in FIG. 10 will be explained. This operation example is a modification (generalization) of step S1 of the operation example shown in FIG. That is, although step S1 in FIG. 8 employs a Lissajous scan, step S21 in this operational example is not limited to the Lissajous scan, and any three-dimensional scan may be employed.

(S21:サンプルの3次元領域にスキャンを適用してOCT干渉信号を収集する)
走査制御部2111は、サンプル(被検眼E、眼底Ef)の3次元領域にスキャンを適用して、3次元データとしてのOCT干渉信号を収集する。収集された3次元データは画像構築部220に送られる。
(S21: Apply scanning to the three-dimensional region of the sample and collect OCT interference signals)
The scan control unit 2111 applies scanning to a three-dimensional region of the sample (tested eye E, fundus Ef) and collects an OCT interference signal as three-dimensional data. The collected three-dimensional data is sent to the image construction section 220.

本ステップに採用可能なスキャンパターンは任意であり、例えば、ラスタースキャン、リサージュスキャン、ラジアルスキャン、マルチクロススキャンなど、任意の3次元スキャンモードを用いることが可能である。 Any scan pattern can be employed in this step, and any three-dimensional scan mode can be used, such as raster scan, Lissajous scan, radial scan, and multi-cross scan.

サンプルの3次元領域は、例えば、固視位置及びスキャンパターン等によって画定される。例えば、黄斑撮影用の固視位置が適用される場合、黄斑中心(中心窩)を囲む3次元領域が画定される。視神経乳頭撮影用の固視位置が適用される場合、視神経乳頭を囲む3次元領域が画定される。スキャンパターンとしてラスターパターンが適用される場合、このラスタースキャンを構成するBスキャン群の境界(外縁)が3次元領域を画定する。スキャンパターンとしてリサージュパターンが採用される場合、このリサージュパターンに外接する矩形(典型的には正方形)が3次元領域を画定する。スキャンパターンとしてラジアルパターンが採用される場合、このラジアルパターンに外接する図形(典型的には、円又は多角形)が3次元領域を画定する。マルチクロスパターン等、他のスキャンパターンが採用される場合においても同様である。このようにして画定される範囲は、ラテラル方向(xy方向)の範囲である。 The three-dimensional region of the sample is defined by, for example, a fixation position and a scan pattern. For example, when a fixation position for macular imaging is applied, a three-dimensional region surrounding the center of the macula (fovea) is defined. When a fixation position for optic disc imaging is applied, a three-dimensional region surrounding the optic disc is defined. When a raster pattern is applied as a scan pattern, the boundaries (outer edges) of the B-scan groups that make up this raster scan define a three-dimensional area. When a Lissajous pattern is employed as a scan pattern, a rectangle (typically a square) circumscribing this Lissajous pattern defines a three-dimensional area. When a radial pattern is employed as the scan pattern, a figure (typically a circle or a polygon) circumscribing the radial pattern defines a three-dimensional area. The same applies when other scan patterns such as a multi-cross pattern are employed. The range thus defined is the range in the lateral direction (xy direction).

アキシャル方向(z方向)の範囲については、例えば、Aスキャンの画像化範囲(画像化されるz方向の範囲)により画定される。Aスキャンの画像化範囲は、例えば、測定アーム長及び参照アーム長(例えば、上記の例示的な実施形態の眼科装置1では、測定アームのリトロリフレクタ41の位置、及び/又は、参照アームのリトロリフレクタ114の位置)に応じて決定される。ここで、測定アームのフォーカス位置(例えば、上記の例示的な実施形態の眼科装置1では、OCT合焦レンズ43の位置)を加味してAスキャンの画像化範囲を決定してもよい。 The range in the axial direction (z-direction) is defined, for example, by the imaging range of A-scan (the range in the z-direction to be imaged). The imaging range of the A-scan is determined by, for example, the measurement arm length and the reference arm length (e.g., in the ophthalmic apparatus 1 of the exemplary embodiment described above, the position of the retroreflector 41 of the measurement arm and/or the reference arm retroreflector 41). (position of reflector 114). Here, the imaging range of the A-scan may be determined by taking into account the focus position of the measurement arm (for example, the position of the OCT focusing lens 43 in the ophthalmologic apparatus 1 of the exemplary embodiment described above).

以上に例示した方法で、ラテラル方向(xy方向)及びアキシャル方向(z方向)の範囲を決定し、その結果として、サンプルの3次元領域を画定することができる。なお、サンプルの3次元領域の画定方法はこれに限定されず、他の任意の方法を採用することも可能である。 By the method exemplified above, the range in the lateral direction (xy direction) and the axial direction (z direction) can be determined, and as a result, the three-dimensional region of the sample can be defined. Note that the method for defining the three-dimensional region of the sample is not limited to this, and any other method may be adopted.

(S22~S27)
ステップS22、S23、S24、S25、S26及びS27は、それぞれ、図8のステップS2、S3、S4、S5、S6及びS7と同じ要領で実行される(エンド)。
(S22-S27)
Steps S22, S23, S24, S25, S26, and S27 are executed in the same manner as steps S2, S3, S4, S5, S6, and S7 in FIG. 8, respectively (end).

次に、図11に示す動作例を説明する。本動作例は、図8に示す動作例のステップS1に一般化を施しつつステップS2に変形を施したものである。 Next, an example of operation shown in FIG. 11 will be explained. This operation example is obtained by generalizing step S1 of the operation example shown in FIG. 8 and modifying step S2.

(S31:サンプルの3次元領域にスキャンを適用してOCT干渉信号を収集する)
図10のステップS21と同じ要領で、サンプル(被検眼E、眼底Ef)の3次元領域にスキャンが適用され、3次元データとしてのOCT干渉信号が収集される。収集された3次元データは画像構築部220に送られる。
(S31: Apply scanning to the three-dimensional region of the sample and collect OCT interference signals)
In the same manner as step S21 in FIG. 10, scanning is applied to the three-dimensional region of the sample (eye E, fundus Ef), and OCT interference signals as three-dimensional data are collected. The collected three-dimensional data is sent to the image construction section 220.

(S32:単一の3次元画像データを構築する)
図9のステップS12と同じ要領で、画像構築部220の画像化処理部221は、ステップS31で収集された3次元データから単一の3次元画像データを構築する。すなわち、画像化処理部221は、ステップS31で収集された3次元データに1つの画像化処理を適用して、単一の3次元画像データを構築する。構築された単一の3次元画像データは、プロジェクション処理部222に送られる。
(S32: Build single 3D image data)
In the same manner as step S12 in FIG. 9, the imaging processing section 221 of the image construction section 220 constructs a single three-dimensional image data from the three-dimensional data collected in step S31. That is, the imaging processing unit 221 applies one imaging process to the three-dimensional data collected in step S31 to construct a single three-dimensional image data. The constructed single three-dimensional image data is sent to the projection processing section 222.

(S33:複数種類の正面画像データを構築する)
図9のステップS13と同じ要領で、プロジェクション処理部222は、ステップS32で構築された単一の3次元画像データに対して複数の異なるプロジェクションを適用する。これにより、互いに異なる情報を含む、複数の異なる種類の正面画像データが構築される。構築された複数種類の正面画像データは、ラテラルシフト量算出部223に送られる。また、複数種類の3次元画像データのいずれかが、アキシャルシフト量算出部224に送られる。
(S33: Build multiple types of frontal image data)
In the same manner as step S13 in FIG. 9, the projection processing unit 222 applies a plurality of different projections to the single three-dimensional image data constructed in step S32. As a result, a plurality of different types of frontal image data containing mutually different information are constructed. The constructed plural types of frontal image data are sent to the lateral shift amount calculation unit 223. Further, any of the plurality of types of three-dimensional image data is sent to the axial shift amount calculation unit 224.

(S34~S37)
ステップS34、S35、S36及びS37は、それぞれ、図8のステップS4、S5、S6及びS7と同じ要領で実行される(エンド)。
(S34-S37)
Steps S34, S35, S36, and S37 are executed in the same manner as steps S4, S5, S6, and S7 in FIG. 8, respectively (end).

図9~図11に示すような幾つかの動作例によれば、サンプルの3次元領域から収集されたデータに1以上の種類の画像化処理を適用して1以上の3次元画像データを構築し、当該1以上の3次元画像データに1以上の種類のプロジェクションを適用して複数種類の正面画像データを構築し、これら正面画像データを用いてモーションアーティファクト補正を行うことが可能である。したがって、上記の例示的な実施形態に係る眼科装置1と同様に、単一種類の画像データを用いる従来の手法よりも高い精度でモーションアーティファクト補正を行うことが可能である。 According to some operational examples as shown in FIGS. 9 to 11, one or more types of imaging processing are applied to data collected from a three-dimensional region of a sample to construct one or more three-dimensional image data. However, it is possible to construct multiple types of frontal image data by applying one or more types of projection to the one or more three-dimensional image data, and to perform motion artifact correction using these frontal image data. Therefore, similar to the ophthalmological apparatus 1 according to the exemplary embodiment described above, it is possible to perform motion artifact correction with higher accuracy than conventional methods using a single type of image data.

図9~図11に示すような幾つかの動作例により提供可能な、走査型イメージング装置の制御方法、画像処理装置、画像処理装置の制御方法、走査型イメージング方法、画像処理方法、プログラム、及び記録媒体によっても同様に、単一種類の画像データを用いる従来の手法よりも高い精度でモーションアーティファクト補正を行うことが可能である。 A scanning imaging device control method, an image processing device, an image processing device control method, a scanning imaging method, an image processing method, a program, and Similarly, depending on the recording medium, it is possible to perform motion artifact correction with higher accuracy than conventional methods that use a single type of image data.

本開示は、幾つかの態様を例示するものに過ぎず、発明の限定を意図したものではない。この発明を実施しようとする者は、この発明の要旨の範囲内における任意の変形(省略、置換、付加など)を施すことが可能である。 This disclosure is merely illustrative of some embodiments and is not intended to be a limitation of the invention. Those who wish to carry out this invention can make arbitrary modifications (omissions, substitutions, additions, etc.) within the scope of the gist of this invention.

1 眼科装置
44 光スキャナ
100 OCTユニット
211 主制御部
2111 走査制御部
212 記憶部
2121 走査プロトコル
220 画像構築部
221 画像化処理部
222 プロジェクション処理部
223 ラテラルシフト量算出部
2231 分割部
2232 相関係数算出部
2233 シフト量算出部
224 アキシャルシフト量算出部
225 補正部
1 Ophthalmological apparatus 44 Optical scanner 100 OCT unit 211 Main control section 2111 Scanning control section 212 Storage section 2121 Scanning protocol 220 Image construction section 221 Imaging processing section 222 Projection processing section 223 Lateral shift amount calculation section 2231 Division section 2232 Correlation coefficient calculation Section 2233 Shift amount calculation section 224 Axial shift amount calculation section 225 Correction section

Claims (21)

サンプルの3次元領域からデータを収集する走査部と、
前記データに1以上の画像化処理を適用して1以上の3次元画像データを構築する画像化処理部と、
深さ方向のプロジェクションを前記1以上の3次元画像データのそれぞれに適用して複数の正面画像データを構築するプロジェクション処理部と、
前記複数の正面画像データに基づいて深さ方向に直交する方向におけるデータシフト量を算出する第1データシフト量算出部と、
前記データシフト量に基づいて、前記走査部により収集された前記データに基づく画像データのモーションアーティファクト補正を実行する補正部と
を含む、走査型イメージング装置。
a scanning unit that collects data from a three-dimensional area of the sample;
an imaging processing unit that applies one or more imaging processes to the data to construct one or more three-dimensional image data;
a projection processing unit that constructs a plurality of frontal image data by applying depth direction projection to each of the one or more three-dimensional image data;
a first data shift amount calculation unit that calculates a data shift amount in a direction orthogonal to the depth direction based on the plurality of front image data;
and a correction section that performs motion artifact correction on image data based on the data collected by the scanning section, based on the data shift amount.
前記画像化処理部は、前記走査部により収集された前記データに複数の異なる画像化処理を適用して複数の3次元画像データを構築し、
前記プロジェクション処理部は、前記複数の3次元画像データのそれぞれに前記プロジェクションを適用して前記複数の正面画像データを構築する、
請求項1の走査型イメージング装置。
The imaging processing unit applies a plurality of different imaging processes to the data collected by the scanning unit to construct a plurality of three-dimensional image data,
The projection processing unit applies the projection to each of the plurality of three-dimensional image data to construct the plurality of front image data.
The scanning imaging device of claim 1.
前記画像化処理部は、前記走査部により収集された前記データから単一の3次元画像データを構築し、
前記プロジェクション処理部は、前記単一の3次元画像データに複数の異なる前記プロジェクションを適用して前記複数の正面画像データを構築する、
請求項1の走査型イメージング装置。
The imaging processing unit constructs a single three-dimensional image data from the data collected by the scanning unit,
The projection processing unit applies a plurality of different projections to the single three-dimensional image data to construct the plurality of front image data.
The scanning imaging device of claim 1.
前記第1データシフト量算出部は、前記複数の正面画像データに基づいて相関係数を算出し、前記相関係数に基づいて前記データシフト量を算出する、
請求項1~3のいずれかの走査型イメージング装置。
The first data shift amount calculation unit calculates a correlation coefficient based on the plurality of front image data, and calculates the data shift amount based on the correlation coefficient.
A scanning imaging device according to any one of claims 1 to 3.
前記第1データシフト量算出部は、
前記複数の正面画像データのそれぞれを部分画像データ群に分割する分割部と、
前記分割部によって前記複数の正面画像データから取得された複数の部分画像データ群に基づいて前記相関係数を算出する相関係数算出部と
を含む、請求項4の走査型イメージング装置。
The first data shift amount calculation unit includes:
a dividing unit that divides each of the plurality of frontal image data into partial image data groups;
The scanning imaging device according to claim 4, further comprising: a correlation coefficient calculation section that calculates the correlation coefficient based on a plurality of partial image data groups acquired from the plurality of front image data by the division section.
前記複数の正面画像データのうちの第1正面画像データ及び第2正面画像データについて、
前記第1正面画像データの第1部分画像データ群に含まれる部分画像データの個数は、第2正面画像データの第2部分画像データ群に含まれる部分画像データの個数に等しく、
前記第1部分画像データ群に含まれる一の部分画像データに対応する、前記走査部により収集された前記データの部分データは、前記第2部分画像データ群に含まれるいずれかの部分画像データに対応する前記データの部分データと同じである、
請求項5の走査型イメージング装置。
Regarding the first front image data and the second front image data among the plurality of front image data,
The number of partial image data included in the first partial image data group of the first front image data is equal to the number of partial image data included in the second partial image data group of the second front image data,
The partial data of the data collected by the scanning unit, which corresponds to one partial image data included in the first partial image data group, is included in any partial image data included in the second partial image data group. is the same as the corresponding partial data of said data;
A scanning imaging device according to claim 5.
前記相関係数算出部は、前記走査部により収集された前記データの第1部分データに対応する前記複数の正面画像データの複数の部分画像データの少なくとも2つを含む第1群と、第2部分データに対応する前記複数の正面画像データの複数の部分画像データの少なくとも2つを含む第2群とに基づいて、前記第1部分データと前記第2部分データとに対応する相関係数を算出し、
前記第1データシフト量算出部は、当該相関係数に基づいて、前記第1部分データと前記第2部分データとに対応するデータシフト量を算出する、
請求項6の走査型イメージング装置。
The correlation coefficient calculation section includes a first group including at least two of the plurality of partial image data of the plurality of front image data corresponding to the first partial data of the data collected by the scanning section; A correlation coefficient corresponding to the first partial data and the second partial data is calculated based on a second group including at least two of the plurality of partial image data of the plurality of front image data corresponding to the partial data. Calculate,
The first data shift amount calculation unit calculates a data shift amount corresponding to the first partial data and the second partial data based on the correlation coefficient.
7. A scanning imaging device according to claim 6.
前記1以上の3次元画像データのいずれか1以上に基づいて、前記深さ方向におけるデータシフト量を算出する第2データシフト量算出部を更に含み、
前記補正部は、前記第2データシフト量算出部により算出された前記データシフト量に基づくモーションアーティファクト補正を、前記走査部により収集された前記データに基づく前記画像データに適用する、
請求項1~7のいずれかの走査型イメージング装置。
further comprising a second data shift amount calculation unit that calculates a data shift amount in the depth direction based on any one or more of the one or more three-dimensional image data,
The correction unit applies motion artifact correction based on the data shift amount calculated by the second data shift amount calculation unit to the image data based on the data collected by the scanning unit.
A scanning imaging device according to any one of claims 1 to 7.
前記走査部は、光コヒーレンストモグラフィ(OCT)走査を前記サンプルに適用し、
前記画像化処理部により構築される前記1以上の3次元画像データは、OCT強度画像データ、OCT血管造影画像データ、OCT強度画像データとOCT血管造影画像データとに基づく合成画像データ、及び、OCT偏光画像データのいずれかを含む、
請求項1~8のいずれかの走査型イメージング装置。
The scanning unit applies optical coherence tomography (OCT) scanning to the sample,
The one or more three-dimensional image data constructed by the imaging processing unit include OCT intensity image data, OCT angiography image data, composite image data based on OCT intensity image data and OCT angiography image data, and OCT containing any of the polarization image data,
A scanning imaging device according to any one of claims 1 to 8.
前記走査部は、一連のサイクルを含む2次元パターンに従う走査を前記3次元領域に適用して前記データを収集する、
請求項1~9のいずれかの走査型イメージング装置。
The scanning unit collects the data by applying scanning to the three-dimensional area according to a two-dimensional pattern including a series of cycles.
A scanning imaging device according to any one of claims 1 to 9.
前記走査部は、
互いに異なる第1方向及び第2方向に光を偏向可能な偏向器を含み、且つ、
前記第1方向に沿った偏向方向の変化を第1周期で繰り返しつつ前記第2方向に沿った偏向方向の変化を前記第1周期と異なる第2周期で繰り返すことによって前記走査を前記サンプルに適用する、
請求項10の走査型イメージング装置。
The scanning unit includes:
including a deflector capable of deflecting light in a first direction and a second direction that are different from each other, and
The scanning is applied to the sample by repeating the change in the deflection direction along the first direction in a first period and the change in the deflection direction along the second direction in a second period different from the first period. do,
11. The scanning imaging device of claim 10.
前記偏向器は、リサージュ関数に基づき予め設定された走査プロトコルに基づき制御される、
請求項11の走査型イメージング装置。
The deflector is controlled based on a preset scanning protocol based on a Lissajous function.
The scanning imaging device of claim 11.
前記一連のサイクルは、互いに交差する、
請求項10~12のいずれかの走査型イメージング装置。
the series of cycles intersect with each other;
A scanning imaging device according to any one of claims 10 to 12.
前記2次元パターンは、互いに平行な一連のラインスキャンを含むラスターパターンである、
請求項10の走査型イメージング装置。
the two-dimensional pattern is a raster pattern including a series of line scans parallel to each other;
11. The scanning imaging device of claim 10.
サンプルに走査を適用してデータを収集する走査部と、プロセッサとを含む走査型イメージング装置を制御する方法であって、
前記走査部を、前記サンプルの3次元領域からデータを収集するように制御し、
前記プロセッサを、
前記データに1以上の画像化処理を適用して1以上の3次元画像データを構築し、
深さ方向のプロジェクションを前記1以上の3次元画像データのそれぞれに適用して複数の正面画像データを構築し、
前記複数の正面画像データに基づいて前記深さ方向に直交する方向におけるデータシフト量を算出し、
前記データシフト量に基づいて、前記走査部により収集された前記データに基づく画像データのモーションアーティファクト補正を実行する
ように制御する、
走査型イメージング装置の制御方法。
A method for controlling a scanning imaging device including a scanning unit that applies scanning to a sample to collect data, and a processor, the method comprising:
controlling the scanning unit to collect data from a three-dimensional region of the sample;
The processor,
Applying one or more imaging processes to the data to construct one or more three-dimensional image data,
constructing a plurality of frontal image data by applying depth direction projection to each of the one or more three-dimensional image data;
calculating a data shift amount in a direction perpendicular to the depth direction based on the plurality of front image data;
controlling to perform motion artifact correction of image data based on the data collected by the scanning unit based on the data shift amount;
A method for controlling a scanning imaging device.
サンプルの3次元領域に走査を適用して収集されたデータを記憶する記憶部と、
前記データに1以上の画像化処理を適用して1以上の3次元画像データを構築する画像化処理部と、
深さ方向のプロジェクションを前記1以上の3次元画像データのそれぞれに適用して複数の正面画像データを構築するプロジェクション処理部と、
前記複数の正面画像データに基づいて前記深さ方向に直交する方向におけるデータシフト量を算出する第1データシフト量算出部と、
前記データシフト量に基づいて、前記走査により収集された前記データに基づく画像データのモーションアーティファクト補正を実行する補正部と
を含む、画像処理装置。
a storage unit that stores data collected by applying scanning to a three-dimensional region of the sample;
an imaging processing unit that applies one or more imaging processes to the data to construct one or more three-dimensional image data;
a projection processing unit that constructs a plurality of frontal image data by applying depth direction projection to each of the one or more three-dimensional image data;
a first data shift amount calculation unit that calculates a data shift amount in a direction perpendicular to the depth direction based on the plurality of front image data;
and a correction unit that performs motion artifact correction of image data based on the data collected by the scanning based on the data shift amount.
記憶部とプロセッサとを含む画像処理装置を制御する方法であって、
サンプルの3次元領域に走査を適用して収集されたデータを前記記憶部に記憶させ、
前記プロセッサを、
前記データに1以上の画像化処理を適用して1以上の3次元画像データを構築し、
深さ方向のプロジェクションを前記1以上の3次元画像データのそれぞれに適用して複数の正面画像データを構築し、
前記複数の正面画像データに基づいて前記深さ方向に直交する方向におけるデータシフト量を算出し、
前記データシフト量に基づいて、前記走査により収集された前記データに基づく画像データのモーションアーティファクト補正を実行する
ように制御する、
画像処理装置の制御方法。
A method for controlling an image processing device including a storage unit and a processor, the method comprising:
storing data collected by applying scanning to a three-dimensional region of the sample in the storage unit;
The processor,
Applying one or more imaging processes to the data to construct one or more three-dimensional image data,
constructing a plurality of frontal image data by applying depth direction projection to each of the one or more three-dimensional image data;
calculating a data shift amount in a direction perpendicular to the depth direction based on the plurality of front image data;
controlling to perform motion artifact correction of image data based on the data collected by the scanning based on the data shift amount;
A method for controlling an image processing device.
サンプルの3次元領域に走査を適用してデータを収集し、
前記データに1以上の画像化処理を適用して1以上の3次元画像データを構築し、
深さ方向のプロジェクションを前記1以上の3次元画像データのそれぞれに適用して複数の正面画像データを構築し、
前記複数の正面画像データに基づいて前記深さ方向に直交する方向におけるデータシフト量を算出し、
前記データシフト量に基づいて、前記走査により収集された前記データに基づく画像データのモーションアーティファクト補正を実行する、
走査型イメージング方法。
collecting data by applying a scan to a three-dimensional region of the sample;
Applying one or more imaging processes to the data to construct one or more three-dimensional image data,
constructing a plurality of frontal image data by applying depth direction projection to each of the one or more three-dimensional image data;
calculating a data shift amount in a direction perpendicular to the depth direction based on the plurality of front image data;
performing motion artifact correction of image data based on the data collected by the scanning, based on the data shift amount;
Scanning imaging method.
サンプルの3次元領域に走査を適用して収集されたデータを準備し、
前記データに1以上の画像化処理を適用して1以上の3次元画像データを構築し、
深さ方向のプロジェクションを前記1以上の3次元画像データのそれぞれに適用して複数の正面画像データを構築し、
前記複数の正面画像データに基づいて前記深さ方向に直交する方向におけるデータシフト量を算出し、
前記データシフト量に基づいて、前記準備された前記データに基づく画像データのモーションアーティファクト補正を実行する、
画像処理方法。
preparing the collected data by applying a scan to a three-dimensional region of the sample;
Applying one or more imaging processes to the data to construct one or more three-dimensional image data,
constructing a plurality of frontal image data by applying depth direction projection to each of the one or more three-dimensional image data;
calculating a data shift amount in a direction perpendicular to the depth direction based on the plurality of front image data;
performing motion artifact correction of image data based on the prepared data based on the data shift amount;
Image processing method.
請求項15、17、18及び19のいずれかの方法をコンピュータに実行させるプログラム。 A program that causes a computer to execute the method according to any one of claims 15, 17, 18, and 19. 請求項20のプログラムが記録されたコンピュータ可読な非一時的記録媒体。 A computer-readable non-transitory recording medium on which the program according to claim 20 is recorded.
JP2019234964A 2019-11-20 2019-12-25 Scanning imaging device, control method thereof, image processing device, control method thereof, scanning imaging method, image processing method, program, and recording medium Active JP7355331B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019209371 2019-11-20
JP2019209371 2019-11-20

Publications (2)

Publication Number Publication Date
JP2021081405A JP2021081405A (en) 2021-05-27
JP7355331B2 true JP7355331B2 (en) 2023-10-03

Family

ID=75964877

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019234964A Active JP7355331B2 (en) 2019-11-20 2019-12-25 Scanning imaging device, control method thereof, image processing device, control method thereof, scanning imaging method, image processing method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP7355331B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016017915A (en) 2014-07-10 2016-02-01 日本電信電話株式会社 Optical coherence tomographic device
JP2018068578A (en) 2016-10-27 2018-05-10 株式会社ニデック OCT apparatus and OCT control program
JP2019154987A (en) 2018-03-16 2019-09-19 株式会社トプコン Ophthalmologic apparatus, control method therefor, program, and storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016017915A (en) 2014-07-10 2016-02-01 日本電信電話株式会社 Optical coherence tomographic device
JP2018068578A (en) 2016-10-27 2018-05-10 株式会社ニデック OCT apparatus and OCT control program
JP2019154987A (en) 2018-03-16 2019-09-19 株式会社トプコン Ophthalmologic apparatus, control method therefor, program, and storage medium

Also Published As

Publication number Publication date
JP2021081405A (en) 2021-05-27

Similar Documents

Publication Publication Date Title
JP2022040372A (en) Ophthalmologic apparatus
JP7134324B2 (en) OPHTHALMIC PHOTOGRAPHIC APPARATUS, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF
JP7096116B2 (en) Blood flow measuring device
JP7090438B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP7378557B2 (en) Ophthalmologic imaging device, its control method, program, and recording medium
JP7215862B2 (en) OPHTHALMIC PHOTOGRAPHIC APPARATUS, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF
JP7384987B2 (en) ophthalmology equipment
JP2021092445A (en) Scan type imaging device, control method of the same, image processing device, control method of the same, scan type imaging method, image processing method, program and recording medium
JP2023014190A (en) Ophthalmology imaging apparatus
JP2023038280A (en) Blood flow measurement device
JP7410481B2 (en) Image processing method, scanning imaging method, image processing device, control method thereof, scanning imaging device, control method thereof, program, and recording medium
JP7281906B2 (en) Ophthalmic device, its control method, program, and recording medium
JP7355331B2 (en) Scanning imaging device, control method thereof, image processing device, control method thereof, scanning imaging method, image processing method, program, and recording medium
JP7050488B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP7341422B2 (en) Scanning imaging device, control method thereof, scanning imaging method, program, and recording medium
JP7325675B2 (en) ophthalmic imaging equipment
JP7236832B2 (en) OPHTHALMIC PHOTOGRAPHIC APPARATUS, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF
JP2020031873A (en) Ophthalmologic apparatus, control method thereof, program, and recording medium
JP6942627B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP6942626B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
WO2022085501A1 (en) Ophthalmic device, control method therefor, program, and recording medium
JP2023048318A (en) Scanning type imaging device, information processing device, control method of scanning type imaging device, control method of information processing device, information processing method, program, and recording medium
JP2023066499A (en) Ophthalmologic information processing device, ophthalmologic device, ophthalmologic information processing method, and program
JP2023056183A (en) Scan type imaging device, information processing device. control method of scan type imaging device, control method of information processing device, information processing method, program and recording medium
JP2023070264A (en) Scanning type imaging device, control method thereof, program, and recording medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200114

AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200324

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230912

R150 Certificate of patent or registration of utility model

Ref document number: 7355331

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150