JP7368568B2 - 眼科装置 - Google Patents
眼科装置 Download PDFInfo
- Publication number
- JP7368568B2 JP7368568B2 JP2022135078A JP2022135078A JP7368568B2 JP 7368568 B2 JP7368568 B2 JP 7368568B2 JP 2022135078 A JP2022135078 A JP 2022135078A JP 2022135078 A JP2022135078 A JP 2022135078A JP 7368568 B2 JP7368568 B2 JP 7368568B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- interest
- search processing
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 claims description 302
- 210000004204 blood vessel Anatomy 0.000 claims description 158
- 238000000034 method Methods 0.000 description 153
- 230000008569 process Effects 0.000 description 119
- 230000003287 optical effect Effects 0.000 description 78
- 238000005286 illumination Methods 0.000 description 35
- 238000001514 detection method Methods 0.000 description 30
- 238000005259 measurement Methods 0.000 description 27
- 230000007246 mechanism Effects 0.000 description 24
- 238000003708 edge detection Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 238000003384 imaging method Methods 0.000 description 13
- 238000004458 analytical method Methods 0.000 description 12
- 238000002583 angiography Methods 0.000 description 12
- 238000010276 construction Methods 0.000 description 12
- 239000013307 optical fiber Substances 0.000 description 12
- 230000008859 change Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 239000006185 dispersion Substances 0.000 description 10
- 238000006073 displacement reaction Methods 0.000 description 8
- 239000000835 fiber Substances 0.000 description 7
- 210000001210 retinal vessel Anatomy 0.000 description 7
- 210000002445 nipple Anatomy 0.000 description 6
- 238000012937 correction Methods 0.000 description 5
- 238000003672 processing method Methods 0.000 description 5
- 206010025421 Macule Diseases 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 230000010287 polarization Effects 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 230000017531 blood circulation Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000003902 lesion Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 210000001519 tissue Anatomy 0.000 description 3
- 230000004323 axial length Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000002792 vascular Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 208000032544 Cicatrix Diseases 0.000 description 1
- 206010020675 Hypermetropia Diseases 0.000 description 1
- 206010027646 Miosis Diseases 0.000 description 1
- 206010040925 Skin striae Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- GNBHRKFJIUUOQI-UHFFFAOYSA-N fluorescein Chemical compound O1C(=O)C2=CC=CC=C2C21C1=CC=C(O)C=C1OC1=CC(O)=CC=C21 GNBHRKFJIUUOQI-UHFFFAOYSA-N 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 210000004220 fundus oculi Anatomy 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 230000004402 high myopia Effects 0.000 description 1
- 230000004305 hyperopia Effects 0.000 description 1
- 201000006318 hyperopia Diseases 0.000 description 1
- MOFVSTNWEDAEEK-UHFFFAOYSA-M indocyanine green Chemical compound [Na+].[O-]S(=O)(=O)CCCCN1C2=CC=C3C=CC=CC3=C2C(C)(C)C1=CC=CC=CC=CC1=[N+](CCCCS([O-])(=O)=O)C2=CC=C(C=CC=C3)C3=C2C1(C)C MOFVSTNWEDAEEK-UHFFFAOYSA-M 0.000 description 1
- 229960004657 indocyanine green Drugs 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003547 miosis Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004379 myopia Effects 0.000 description 1
- 208000001491 myopia Diseases 0.000 description 1
- 210000001328 optic nerve Anatomy 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 210000003583 retinal pigment epithelium Anatomy 0.000 description 1
- 231100000241 scar Toxicity 0.000 description 1
- 230000037387 scars Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 210000004127 vitreous body Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/12—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/102—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/12—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
- A61B3/1241—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes specially adapted for observation of ocular blood flow, e.g. by fluorescein angiography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Ophthalmology & Optometry (AREA)
- Public Health (AREA)
- Biophysics (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Vascular Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Eye Examination Apparatus (AREA)
Description
本実施形態は、被検眼を検査する機能を有する眼科装置の例示的な態様を提供する。本実施形態の眼科装置は、生体眼の眼底を撮影して正面画像を取得する機能に加え、フーリエドメインOCT(例えば、スウェプトソースOCT)を利用して生体眼の眼底を計測する機能を備える。実施形態に適用可能なOCTのタイプは、スウェプトソースOCTに限定されず、例えばスペクトラルドメインOCT又はタイムドメインOCTであってもよい。また、OCTの適用対象は眼底には限定されず、前眼部や硝子体など眼の任意の部位であってよい。
図1に示す例示的な実施形態の眼科装置1は、眼底カメラユニット2、OCTユニット100及び演算制御ユニット200を含む。眼底カメラユニット2には、被検眼の正面画像を取得するための光学系や機構が設けられている。OCTユニット100には、OCTを実行するための光学系や機構の一部が設けられている。OCTを実行するための光学系や機構の他の一部は、眼底カメラユニット2に設けられている。演算制御ユニット200は、各種の演算や制御を実行する1以上のプロセッサを含む。これらに加え、被検者の顔を支持するための部材(顎受け、額当て等)や、OCTの対象部位を切り替えるためのレンズユニット(例えば、前眼部OCT用アタッチメント)等の任意の要素やユニットが眼科装置1に設けられてもよい。
眼底カメラユニット2には、被検眼Eの眼底Efを撮影するための光学系が設けられている。取得される眼底Efの画像(眼底像、眼底写真等と呼ばれる)は、観察画像、撮影画像等の正面画像である。観察画像は、例えば近赤外光を用いた動画撮影により得られ、アライメント、フォーカシング、トラッキングなどに利用される。撮影画像は、例えば可視領域又は近赤外領域のフラッシュ光を用いた静止画像である。
図2に例示するように、OCTユニット100には、スウェプトソースOCTを適用するための光学系が設けられている。この光学系は干渉光学系を含む。この干渉光学系は、波長可変光源(波長掃引型光源)からの光を測定光と参照光とに分割し、被検眼Eからの測定光の戻り光と参照光路を経由した参照光とを重ね合わせて干渉光を生成し、この干渉光を検出する。干渉光学系により得られた検出結果(検出信号)は、干渉光のスペクトルを表す信号であり、演算制御ユニット200に送られる。
眼科装置1の制御系及び処理系の構成例を図3~図4Fに示す。制御部210、画像構築部220及びデータ処理部230は、例えば演算制御ユニット200に設けられる。眼科装置1は、外部装置との間でデータ通信をおこなうための通信デバイスを含んでいてもよい。眼科装置1は、記録媒体からデータを読み出す処理や、記録媒体にデータを書き込む処理を行うためのドライブ装置(リーダ/ライタ)を含んでいてもよい。
制御部210は、各種の制御を実行する。制御部210は、主制御部211と記憶部212とを含む。また、図4Aに示すように、本実施形態のデータ処理部230は、探索処理部231を含む。図4B~図4Eのそれぞれは、探索処理部231の構成例を示す。図4Fは、制御部210及びデータ処理部230の組み合わせの構成例を示す。これら構成例は選択的に採用可能である。なお、実施形態に採用可能な構成はこれらに限定されるものではない。
主制御部211は、プロセッサを含み、眼科装置1の各要素(図1~図4Fに示された要素を含む)を制御する。主制御部211は、プロセッサを含むハードウェアと、制御ソフトウェアとの協働によって実現される。
記憶部212は各種のデータを記憶する。記憶部212に記憶されるデータとしては、OCT画像、眼底像、被検眼情報などがある。被検眼情報は、患者IDや氏名や属性などの被検者情報や、左眼/右眼の識別情報や、電子カルテ情報などを含む。
画像構築部220は、プロセッサを含み、データ収集システム130から入力された信号(サンプリングデータ)に基づいて、眼底EfのOCT画像データを構築する。OCT画像データは、例えばBスキャン画像データ(2次元断層像データ)である。Bスキャン画像データは、直線に沿って配列された複数のスキャン点(スキャン点列)についてそれぞれ取得された複数のAスキャンデータを、これらスキャン点の位置関係にしたがい配列して得られた画像データである。
データ処理部230は、プロセッサを含み、被検眼Eの画像に対して各種のデータ処理を適用する。例えば、データ処理部230は、プロセッサを含むハードウェアと、データ処理ソフトウェアとの協働によって実現される。
図4Aに示すように、本実施形態のデータ処理部230は、探索処理部231を含む。探索処理部231は、眼底Efの正面画像から注目部位に相当する注目領域を探索する処理を実行する。探索処理部231は、プロセッサを含むハードウェアと、探索ソフトウェアとの協働によって実現される。
図4Bに示す探索処理部231Aは、第1探索処理部2311と第2探索処理部2312とを含む。第1探索処理部2311は、プロセッサを含むハードウェアと、第1探索ソフトウェアとの協働によって実現される。第2探索処理部2312は、プロセッサを含むハードウェアと、第2探索ソフトウェアとの協働によって実現される。
第1探索処理部2311は、眼底Efの正面画像における輝度の変化に基づいて注目領域を探索する。
第2探索処理部2312は、眼底Efの正面画像及びテンプレート画像に基づくテンプレートマッチングによって注目領域を探索する。本例のテンプレートマッチングは、第1探索処理部2311により注目領域が検出されなかった場合に実行される。
第3探索処理部2313は、眼底Efの正面画像を解析することにより眼底Efの血管に相当する血管領域を検出する処理(血管検出)と、検出された血管領域の分布に基づいて眼底Efの注目部位に相当する注目領域を探索する処理(注目領域探索)とを実行するように構成される。
ユーザーインターフェイス240は表示部241と操作部242とを含む。表示部241は表示装置3を含む。操作部242は各種の操作デバイスや入力デバイスを含む。ユーザーインターフェイス240は、例えばタッチパネルのような表示機能と操作機能とが一体となったデバイスを含んでいてもよい。ユーザーインターフェイス240の少なくとも一部を含まない実施形態を構築することも可能である。例えば、表示デバイスは、眼科装置に接続された外部装置であってよい。
眼科装置1の動作(注目領域探索)の幾つかの例を説明する。患者IDの入力、固視標の提示、固視位置の調整、アライメント、フォーカス調整など、従来と同様の準備的な処理は、既になされたものとする。注目領域探索は、眼底Efの観察画像の取得が可能になった後の任意のタイミングで実行されてよい。典型的には、眼底Efに対するアライメント及びフォーカス調整が完了してから、注目領域の探索結果を利用した処理が開始されるまでの間における任意のタイミングで、注目領域探索を実行することが可能である。
図5~図9を参照しつつ眼科装置1の動作の第1の例を説明する。本例の探索処理部231は、図4Bに示す探索処理部231Aである。図5のフローチャートは、本動作例の注目領域探索において実行される一連の処理を示している。図6のフローチャートは、図5のステップS4で実行可能な一連の処理を示している。図7Aは、図6のステップS12で用いることが可能なテンプレート画像を示している。図7Bは、図6のステップS14で用いることが可能なテンプレート画像を示している。図7Aのテンプレート画像は、黄色人種の視神経乳頭に対応する第1テンプレート画像であり、図7Bのテンプレート画像は、白色人種の視神経乳頭に対応する第2テンプレート画像であるとする。第1テンプレート画像及び第2テンプレート画像は、事前に作成されて第2探索処理部2312(又は記憶部212等)に予め格納される。図8は、図5の処理が適用される正面画像の例を示している。図9は、図5の処理を図8の正面画像に適用して得られる結果を説明するために参照される。
本例の注目領域探索では、まず、眼底Efの正面画像を取得する。本例の正面画像は、照明光学系10及び撮影光学系30を用いて得られる近赤外観察画像のフレームである(図8を参照)。逐次に取得される正面画像(近赤外観察画像のフレームF)は、例えば、主制御部211により記憶部212に逐次に転送されて一時的に記憶され、探索処理部231に逐次に供給される。
本例では、主制御部211は、まず、第1探索処理部2311を動作させる。第1探索処理部2311は、ステップS1でキャプチャされた近赤外観察画像のフレームFに対して、輝度変化に基づく注目領域探索を適用する。この注目領域探索は、前述した要領で実行される。
ステップS2の注目領域探索により注目領域が検出された場合(S3:Yes)、処理はステップS5に移行する。他方、ステップS2の注目領域探索により注目領域が検出されなかった場合(S3:No)、処理はステップS4に移行する。
ステップS2の注目領域探索により注目領域が検出されなかった場合(S3:No)、主制御部211は、第2探索処理部2312を動作させる。第2探索処理部2312は、ステップS1でキャプチャされた近赤外観察画像のフレームFに対して、テンプレートマッチングによる注目領域探索を適用する。この注目領域探索は、前述した要領で実行される。
ステップS2の注目領域探索又はステップS4の注目領域探索によりフレームFから注目領域が検出された場合、探索処理部231Aは、注目領域情報を生成する。
第2探索処理部2312は、ステップS1でキャプチャされた近赤外観察画像のフレームFの縮小画像を作成する。縮小画像のサイズは、例えば、フレームFの16分の1である。
次に、第2探索処理部2312は、ステップS11で作成された縮小画像に対し、第1テンプレート画像に基づくテンプレートマッチングを適用することによって、縮小画像中の注目領域を探索する。
ステップS12のテンプレートマッチングにより注目領域が検出された場合(S13:Yes)、処理はステップS5に移行する。他方、ステップS12のテンプレートマッチングにより注目領域が検出されなかった場合(S13:No)、処理はステップS14に移行する。
ステップS12のテンプレートマッチングにより注目領域が検出されなかった場合(S13:No)、第2探索処理部2312は、ステップS11で作成された縮小画像に対し、第2テンプレート画像に基づくテンプレートマッチングを適用することによって、縮小画像中の注目領域を探索する。
図10を参照しつつ眼科装置1の動作の第2の例を説明する。本例の探索処理部231は、図4Cに示す探索処理部231Bである。
ステップS21~S24は、それぞれ、第1動作例のステップS1~S4と同じ要領で実行される。なお、ステップS22の注目領域探索により注目領域が検出された場合(S23:Yes)、処理はステップS27に移行する。
ステップS24の注目領域探索により注目領域が検出された場合(S25:Yes)、処理はステップS27に移行する。他方、ステップS24の注目領域探索により注目領域が検出されなかった場合(S25:No)、処理はステップS26に移行する。
ステップS24の注目領域探索により注目領域が検出されなかった場合(S25:No)、主制御部211は、第3探索処理部2313を動作させる。第3探索処理部2313は、ステップS21でキャプチャされた近赤外観察画像のフレームに対して、血管分布に基づく注目領域探索を適用する。この注目領域探索は、前述した要領で実行される。
ステップS22の注目領域探索、ステップS24の注目領域探索、又はステップS26の注目領域探索により、ステップS21でキャプチャされたフレームから注目領域が検出された場合、探索処理部231Bは、注目領域情報を生成する。この処理は、第1動作例のステップS5と同じ要領で実行される。
図11を参照しつつ眼科装置1の動作の第3の例を説明する。本例の探索処理部231は、図4Dに示す探索処理部231Cである。
まず、第1動作例のステップS1と同じ要領で、近赤外観察画像のキャプチャが開始されてフレームが探索処理部231Cに送られる。
ステップS32~S34は、それぞれ、第2動作例のステップS24~S26と同じ要領で実行される。なお、ステップS32の注目領域探索により注目領域が検出された場合(S33:Yes)、処理はステップS35に移行する。
ステップS32の注目領域探索又はステップS34の注目領域探索により、ステップS31でキャプチャされたフレームから注目領域が検出された場合、探索処理部231Cは、注目領域情報を生成する。この処理は、第1動作例のステップS5と同じ要領で実行される。
図12を参照しつつ眼科装置1の動作の第4の例を説明する。本例の探索処理部231は、図4Eに示す探索処理部231Dである。
まず、第1動作例のステップS1と同じ要領で、近赤外観察画像のキャプチャが開始されてフレームが探索処理部231Dに送られる。
ステップS42~S43は、それぞれ、第1動作例のステップS2~S3と同じ要領で実行される。なお、ステップS42の注目領域探索により注目領域が検出された場合(S43:Yes)、処理はステップS45に移行する。他方、ステップS42の注目領域探索により注目領域が検出されなかった場合(S43:No)、処理はステップS44に移行する。
ステップS42の注目領域探索により注目領域が検出されなかった場合(S43:No)、主制御部211は、第3探索処理部2313を動作させる。第3探索処理部2313は、ステップS41でキャプチャされた近赤外観察画像のフレームに対して、血管分布に基づく注目領域探索を適用する。この注目領域探索は、第2動作例のステップS26と同じ要領で実行される。
ステップS42の注目領域探索又はステップS44の注目領域探索により、ステップS41でキャプチャされたフレームから注目領域が検出された場合、探索処理部231Dは、注目領域情報を生成する。この処理は、第1動作例のステップS5と同じ要領で実行される。
幾つかの例示的な実施形態の作用及び効果について説明する。
10 照明光学系
30 撮影光学系
150 移動機構
210 制御部
210A 制御部
213 トラッキング制御部
230 データ処理部
231 探索処理部
231A 探索処理部
231B 探索処理部
231C 探索処理部
231D 探索処理部
2311 第1探索処理部
2312 第2探索処理部
2313 第3探索処理部
232 トラッキング解析部
Claims (4)
- 被検眼の眼底の正面画像を取得する正面画像取得部と、
前記正面画像及びテンプレート画像に基づくテンプレートマッチングにより前記眼底の注目部位に相当する注目領域を探索する第2探索処理部と、
前記第2探索処理部により前記注目領域が検出されなかった場合に、前記正面画像を解析することにより前記眼底の血管に相当する血管領域を検出し、前記血管領域の分布に基づいて前記注目領域を探索する第3探索処理部と
を含み、
前記テンプレート画像のサイズは、前記正面画像のサイズよりも小さく、
前記第2探索処理部は、
前記正面画像をリサイズすることにより前記テンプレート画像のサイズに対応するサイズの縮小画像を作成し、
前記テンプレート画像に基づくテンプレートマッチングを前記縮小画像に適用することにより前記注目領域を探索する、
眼科装置。 - 被検眼の眼底の正面画像を取得する正面画像取得部と、
前記正面画像及びテンプレート画像に基づくテンプレートマッチングにより前記眼底の注目部位に相当する注目領域を探索する第2探索処理部と、
前記第2探索処理部により前記注目領域が検出されなかった場合に、前記正面画像を解析することにより前記眼底の血管に相当する血管領域を検出し、前記血管領域の分布に基づいて前記注目領域を探索する第3探索処理部と
を含み、
前記第2探索処理部は、
2以上の属性にそれぞれ対応する2以上のテンプレート画像を予め記憶し、
前記2以上のテンプレート画像のそれぞれと前記正面画像とに基づくテンプレートマッチングにより前記注目領域を探索する、
眼科装置。 - 被検眼の眼底の正面画像を取得する正面画像取得部と、
前記正面画像及びテンプレート画像に基づくテンプレートマッチングにより前記眼底の注目部位に相当する注目領域を探索する第2探索処理部と、
前記第2探索処理部により前記注目領域が検出されなかった場合に、前記正面画像を解析することにより前記眼底の血管に相当する血管領域を検出し、前記血管領域の分布に基づいて前記注目領域を探索する第3探索処理部と
を含み、
前記正面画像取得部は、前記正面画像とは異なるモダリティで取得された前記眼底の他の正面画像を更に取得し、
前記第3探索処理部は、
前記他の正面画像を解析することにより前記眼底の血管に相当する第1血管領域を検出し、
前記正面画像と前記他の正面画像との間のレジストレーションを行い、
前記レジストレーションの結果に基づいて前記第1血管領域に対応する前記正面画像の第2血管領域を特定し、
前記第2血管領域の分布に基づいて前記注目領域を探索する、
眼科装置。 - 被検眼の眼底の正面画像を取得する正面画像取得部と、
前記正面画像及びテンプレート画像に基づくテンプレートマッチングにより前記眼底の注目部位に相当する注目領域を探索する第2探索処理部と、
前記第2探索処理部により前記注目領域が検出されなかった場合に、前記正面画像を解析することにより前記眼底の血管に相当する血管領域を検出し、前記血管領域の分布に基づいて前記注目領域を探索する第3探索処理部と
を含み、
前記正面画像取得部は、前記正面画像とは異なるモダリティで取得された前記眼底の他の正面画像を更に取得し、
前記第3探索処理部は、
前記他の正面画像を解析することにより前記眼底の血管に相当する血管領域を検出し、
前記他の正面画像から検出された前記血管領域の分布に基づいて第1注目領域を探索し、
前記正面画像と前記他の正面画像との間のレジストレーションを行い、
前記レジストレーションの結果に基づいて前記第1注目領域に対応する前記正面画像の第2注目領域を前記注目領域として特定する、
眼科装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022135078A JP7368568B2 (ja) | 2019-01-24 | 2022-08-26 | 眼科装置 |
JP2023120379A JP2023129563A (ja) | 2019-01-24 | 2023-07-25 | 眼科装置 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019009865A JP7199236B2 (ja) | 2019-01-24 | 2019-01-24 | 眼科装置 |
JP2022135078A JP7368568B2 (ja) | 2019-01-24 | 2022-08-26 | 眼科装置 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019009865A Division JP7199236B2 (ja) | 2019-01-24 | 2019-01-24 | 眼科装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023120379A Division JP2023129563A (ja) | 2019-01-24 | 2023-07-25 | 眼科装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022162141A JP2022162141A (ja) | 2022-10-21 |
JP7368568B2 true JP7368568B2 (ja) | 2023-10-24 |
Family
ID=69055830
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019009865A Active JP7199236B2 (ja) | 2019-01-24 | 2019-01-24 | 眼科装置 |
JP2022135078A Active JP7368568B2 (ja) | 2019-01-24 | 2022-08-26 | 眼科装置 |
JP2023120379A Pending JP2023129563A (ja) | 2019-01-24 | 2023-07-25 | 眼科装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019009865A Active JP7199236B2 (ja) | 2019-01-24 | 2019-01-24 | 眼科装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023120379A Pending JP2023129563A (ja) | 2019-01-24 | 2023-07-25 | 眼科装置 |
Country Status (3)
Country | Link |
---|---|
US (2) | US11452445B2 (ja) |
EP (3) | EP3792824A1 (ja) |
JP (3) | JP7199236B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7199236B2 (ja) * | 2019-01-24 | 2023-01-05 | 株式会社トプコン | 眼科装置 |
JPWO2022091429A1 (ja) * | 2020-10-27 | 2022-05-05 | ||
CN113947592A (zh) * | 2021-11-01 | 2022-01-18 | 中山大学中山眼科中心 | 一种捕获和分析目标的图像数据的系统 |
CN116503405B (zh) * | 2023-06-28 | 2023-10-13 | 依未科技(北京)有限公司 | 近视眼底改变可视化方法、装置、存储介质及电子设备 |
CN116491892B (zh) * | 2023-06-28 | 2023-09-22 | 依未科技(北京)有限公司 | 近视眼底改变评估方法、装置和电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010279536A (ja) | 2009-06-04 | 2010-12-16 | Topcon Corp | 眼底画像解析装置、眼底撮影装置及びプログラム |
JP2012030054A (ja) | 2010-07-05 | 2012-02-16 | Canon Inc | 眼科装置、眼科システム及び記憶媒体 |
JP2014128620A (ja) | 2012-11-30 | 2014-07-10 | Topcon Corp | 眼底撮影システム |
US20140268046A1 (en) | 2013-03-14 | 2014-09-18 | Carl Zeiss Meditec, Inc. | Systems and methods for improved acquisition of ophthalmic optical coherence tomography data |
JP2016509914A (ja) | 2013-03-14 | 2016-04-04 | カール ツアイス メディテック アクチエンゲゼルシャフト | 視覚データの取得および分析のマルチモード統合 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4971872B2 (ja) | 2007-05-23 | 2012-07-11 | 株式会社トプコン | 眼底観察装置及びそれを制御するプログラム |
JP5448198B2 (ja) * | 2007-12-21 | 2014-03-19 | サイファイ メドテック エッセ.エッレ.エッレ. | 眼の3次元解析用デュアルシャインプルーフシステム |
SG178571A1 (en) | 2009-08-24 | 2012-03-29 | Singapore Health Serv Pte Ltd | A method and system for detecting disc haemorrhages |
US9161690B2 (en) * | 2011-03-10 | 2015-10-20 | Canon Kabushiki Kaisha | Ophthalmologic apparatus and control method of the same |
JP5912358B2 (ja) | 2011-09-14 | 2016-04-27 | 株式会社トプコン | 眼底観察装置 |
US9357916B2 (en) | 2012-05-10 | 2016-06-07 | Carl Zeiss Meditec, Inc. | Analysis and visualization of OCT angiography data |
WO2014084231A1 (ja) | 2012-11-30 | 2014-06-05 | 株式会社トプコン | 眼底撮影装置 |
JP2014155694A (ja) * | 2013-01-16 | 2014-08-28 | Canon Inc | 眼科装置及び眼科方法 |
JP6184231B2 (ja) * | 2013-07-31 | 2017-08-23 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
JP6469387B2 (ja) | 2014-08-26 | 2019-02-13 | 株式会社トプコン | 眼底解析装置 |
JP6789700B2 (ja) | 2016-07-05 | 2020-11-25 | キヤノン株式会社 | 画像処理装置、画像処理装置の作動方法、及びプログラム |
CN107292868B (zh) | 2017-05-31 | 2020-03-13 | 瑞达昇医疗科技(大连)有限公司 | 一种视盘定位方法及装置 |
JP6503040B2 (ja) | 2017-10-13 | 2019-04-17 | 株式会社トプコン | 眼科観察装置 |
JP7199236B2 (ja) * | 2019-01-24 | 2023-01-05 | 株式会社トプコン | 眼科装置 |
-
2019
- 2019-01-24 JP JP2019009865A patent/JP7199236B2/ja active Active
- 2019-12-30 EP EP20198735.1A patent/EP3792824A1/en active Pending
- 2019-12-30 EP EP20198738.5A patent/EP3789915B1/en active Active
- 2019-12-30 EP EP19219997.4A patent/EP3696721A3/en active Pending
-
2020
- 2020-01-10 US US16/739,137 patent/US11452445B2/en active Active
-
2022
- 2022-08-19 US US17/891,140 patent/US11806076B2/en active Active
- 2022-08-26 JP JP2022135078A patent/JP7368568B2/ja active Active
-
2023
- 2023-07-25 JP JP2023120379A patent/JP2023129563A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010279536A (ja) | 2009-06-04 | 2010-12-16 | Topcon Corp | 眼底画像解析装置、眼底撮影装置及びプログラム |
JP2012030054A (ja) | 2010-07-05 | 2012-02-16 | Canon Inc | 眼科装置、眼科システム及び記憶媒体 |
JP2014128620A (ja) | 2012-11-30 | 2014-07-10 | Topcon Corp | 眼底撮影システム |
US20140268046A1 (en) | 2013-03-14 | 2014-09-18 | Carl Zeiss Meditec, Inc. | Systems and methods for improved acquisition of ophthalmic optical coherence tomography data |
JP2016509914A (ja) | 2013-03-14 | 2016-04-04 | カール ツアイス メディテック アクチエンゲゼルシャフト | 視覚データの取得および分析のマルチモード統合 |
Also Published As
Publication number | Publication date |
---|---|
EP3789915A1 (en) | 2021-03-10 |
JP2020116140A (ja) | 2020-08-06 |
EP3696721A2 (en) | 2020-08-19 |
EP3696721A3 (en) | 2020-11-11 |
JP2023129563A (ja) | 2023-09-14 |
US20220386869A1 (en) | 2022-12-08 |
JP2022162141A (ja) | 2022-10-21 |
EP3789915B1 (en) | 2023-12-13 |
EP3792824A1 (en) | 2021-03-17 |
US11452445B2 (en) | 2022-09-27 |
JP7199236B2 (ja) | 2023-01-05 |
US20200237213A1 (en) | 2020-07-30 |
US11806076B2 (en) | 2023-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7368568B2 (ja) | 眼科装置 | |
JP7384987B2 (ja) | 眼科装置 | |
JP7134324B2 (ja) | 眼科撮影装置、その制御方法、プログラム、及び記録媒体 | |
JP2023014190A (ja) | 眼科撮影装置 | |
JP7096116B2 (ja) | 血流計測装置 | |
JP7534094B2 (ja) | 眼科装置、その制御方法、プログラム、及び記録媒体 | |
JP7215862B2 (ja) | 眼科撮影装置、その制御方法、プログラム、及び記録媒体 | |
JP7378557B2 (ja) | 眼科撮影装置、その制御方法、プログラム、及び記録媒体 | |
JP7281906B2 (ja) | 眼科装置、その制御方法、プログラム、及び記録媒体 | |
JP6942627B2 (ja) | 眼科撮影装置、その制御方法、プログラム、及び記録媒体 | |
JP7286283B2 (ja) | 眼科装置 | |
CN111787843B (zh) | 血流测量装置 | |
JP7043302B2 (ja) | 眼科装置、その制御方法、プログラム、及び記録媒体 | |
JP7106311B2 (ja) | 眼科装置、その制御方法、プログラム、及び記録媒体 | |
JP2020103714A (ja) | 血流計測装置、その制御方法、プログラム、及び記録媒体 | |
JP7325675B2 (ja) | 眼科撮影装置 | |
JP7201852B2 (ja) | 眼科装置、その制御方法、プログラム、及び記録媒体 | |
JP6991075B2 (ja) | 血流計測装置 | |
JP7236832B2 (ja) | 眼科撮影装置、その制御方法、プログラム、及び記録媒体 | |
JP6942626B2 (ja) | 眼科撮影装置、その制御方法、プログラム、及び記録媒体 | |
JP6954831B2 (ja) | 眼科撮影装置、その制御方法、プログラム、及び記録媒体 | |
JP2019154992A (ja) | 眼科装置、その制御方法、プログラム、及び記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220909 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230411 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230725 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231012 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7368568 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |