JP2017119226A - Image processing apparatus, image processing method, and image processing program - Google Patents
Image processing apparatus, image processing method, and image processing program Download PDFInfo
- Publication number
- JP2017119226A JP2017119226A JP2017078411A JP2017078411A JP2017119226A JP 2017119226 A JP2017119226 A JP 2017119226A JP 2017078411 A JP2017078411 A JP 2017078411A JP 2017078411 A JP2017078411 A JP 2017078411A JP 2017119226 A JP2017119226 A JP 2017119226A
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- slo
- analysis target
- alignment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title abstract description 22
- 238000003672 processing method Methods 0.000 title description 2
- 238000004458 analytical method Methods 0.000 claims abstract description 60
- 230000004075 alteration Effects 0.000 claims abstract description 7
- 210000004204 blood vessel Anatomy 0.000 claims description 8
- 210000000608 photoreceptor cell Anatomy 0.000 description 31
- 238000000034 method Methods 0.000 description 27
- 238000001514 detection method Methods 0.000 description 20
- 238000011156 evaluation Methods 0.000 description 16
- 230000002123 temporal effect Effects 0.000 description 12
- 206010025421 Macule Diseases 0.000 description 10
- 108091008695 photoreceptors Proteins 0.000 description 10
- 210000001525 retina Anatomy 0.000 description 8
- 230000003044 adaptive effect Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 201000010099 disease Diseases 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 210000004027 cell Anatomy 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 208000035475 disorder Diseases 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000036962 time dependent Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 201000004569 Blindness Diseases 0.000 description 1
- 206010061818 Disease progression Diseases 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000005750 disease progression Effects 0.000 description 1
- 238000013399 early diagnosis Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000004504 retinal motion Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Abstract
Description
本発明は眼科装置に関する。 The present invention relates to an ophthalmic apparatus.
生活習慣病や失明原因の上位を占める疾病の早期診断を目的として、眼底部の検査が広く行われている。共焦点レーザー顕微鏡の原理を利用した眼科装置である走査型レーザー検眼鏡(SLO:Scanning Laser Ophthalmoscope)は、測定光であるレーザーを眼底に対してラスタースキャンを行い、その戻り光の強度から平面画像を高分解能かつ高速に得る装置である。近年、被検眼の収差を波面センサーでリアルタイムに測定し、被検眼にて発生する測定光やその戻り光の収差を波面補正デバイスで補正する補償光学系を有する補償光学SLO(AO−SLO:adaptive Optics SLO)が開発され、高横分解能な平面画像の取得を可能にしている。さらに、取得した網膜の平面画像を用いて網膜における視細胞を抽出し、その密度や分布の解析から疾病の診断や薬剤応答の評価が試みられている。 Examination of the fundus is widely performed for the purpose of early diagnosis of lifestyle diseases and diseases that occupy the top causes of blindness. A scanning laser opthalmoscope (SLO), which is an ophthalmologic apparatus that uses the principle of a confocal laser microscope, performs a raster scan of the fundus of the measurement light on the fundus and obtains a planar image from the intensity of the returned light. Is a device that obtains high resolution and high speed. 2. Description of the Related Art In recent years, compensation optical SLO (AO-SLO: adaptive) has a compensation optical system that measures aberrations of an eye to be examined in real time with a wavefront sensor and corrects aberrations of measurement light generated by the eye to be examined and its return light with a wavefront correction device. (Optics SLO) has been developed, which makes it possible to acquire a plane image with high lateral resolution. Furthermore, it has been attempted to extract a photoreceptor cell in the retina using the acquired planar image of the retina and analyze the density and distribution to diagnose a disease and evaluate a drug response.
疾病の進行や薬剤応答による視細胞の変化を評価する場合には、経時的に取得したAO−SLO像を観察する必要がある。特許文献1では、経時的に取得された眼底断層像の比較をするために、深度方向における位置合わせを行う手段について記載されている。また特許文献2では、経時的に取得された断層像及び眼底像を並置して提示し、対応関係を示す表示法について記載されている。さらに特許文献3では経時的に取得された眼底像の、先に取得された画像上で検出された病変位置を、後に取得された画像上に提示する表示法について記載されている。 When evaluating changes in photoreceptor cells due to disease progression or drug response, it is necessary to observe AO-SLO images acquired over time. Patent Document 1 describes means for performing alignment in the depth direction in order to compare fundus tomographic images acquired over time. Further, Patent Document 2 describes a display method in which tomographic images and fundus images acquired over time are presented side by side and a correspondence relationship is shown. Further, Patent Document 3 describes a display method of presenting a lesion position detected on a previously acquired image of a fundus image acquired over time on an image acquired later.
AO−SLO像における視細胞の経時比較は、集合として捉えた視細胞群の密度の変化や配置構造の乱れを比較する必要がある。このため比較する解析対象領域は、経時的に取得されたAO−SLO像間で、同一位置に置かれた同一形状の領域である必要がある。経時的に複数枚のAO−SLO像が取得された場合には、すべての撮影に含まれる領域から解析対象領域を選択するか、選択領域が一部含まれないAO−SLO像は比較対象からはずす処理をする必要がある。このとき、選択した解析対象領域に対して、比較対象となるAO−SLO像が把握できないという課題があった。このような経時比較の課題は先行技術では指摘されていなかった。 Comparison of the photoreceptor cells over time in the AO-SLO image requires comparison of changes in the density of photoreceptor cells captured as a set and disturbance in the arrangement structure. For this reason, the analysis target areas to be compared need to be areas of the same shape placed at the same position between the AO-SLO images acquired over time. When a plurality of AO-SLO images are acquired over time, an analysis target region is selected from the regions included in all imaging, or an AO-SLO image that does not include a part of the selection region is selected from the comparison target. It is necessary to remove it. At this time, there is a problem that an AO-SLO image to be compared cannot be grasped for the selected analysis target region. Such a problem of comparison with time was not pointed out in the prior art.
被検眼による収差が補正された前記被検眼からの戻り光に基づいて前記被検眼の第1眼底画像を取得する第1取得手段と、前記被検眼の第2眼底画像を取得する第2取得手段と、前記第1眼底画像と、第2眼底画像の位置合わせを行う位置合わせ手段と、前記位置合わせに基づき解析対象候補領域を設定する領域設定手段とを備えたことを特徴とする。 First acquisition means for acquiring a first fundus image of the eye to be inspected based on return light from the eye to be corrected in which aberrations caused by the eye to be corrected, and second acquisition means for acquiring a second fundus image of the eye to be inspected And an alignment means for aligning the first fundus image and the second fundus image, and an area setting means for setting an analysis target candidate area based on the alignment.
本発明によれば、経時的に取得されたAO−SLO像に関して、視細胞の密度や配置構造の乱れを比較する際に、比較対象となるAO−SLO像を把握しながら解析対象領域を選択することが可能となり、より精度の高い経時比較を行うことが可能となる。 According to the present invention, when comparing AO-SLO images acquired over time, the density of photoreceptor cells and the disorder of the arrangement structure are compared, and the analysis target region is selected while grasping the AO-SLO images to be compared. It becomes possible to perform a time-dependent comparison with higher accuracy.
[実施例]
(実施例1)
本実施例では、補償光学SLOにより経時的に網膜を撮影した画像を取得し、視細胞密度等の指標の変化を提示する処理について説明する。
[Example]
Example 1
In the present embodiment, a process of acquiring an image obtained by photographing the retina over time by the adaptive optics SLO and presenting a change in an index such as photoreceptor density will be described.
具体的には、黄斑周辺の複数箇所を撮影する検査を、数か月おきに複数回行った画像群を取得する。ここで、一か所の撮影は、撮影時間、フレームレートで指定される複数枚の画像を取得するので、これら一か所の撮影によって得られる画像群をAO−SLO像と呼ぶ場合がある。ここでAO−SLO像は撮影範囲を変更することが可能であるため、異なる解像度のAO−SLO像を取得することが可能である。さらに、一つの被検眼に対して取得される複数箇所、異なる解像度のAO−SLO像をまとめて、被検眼に対するStudyと呼ぶ場合がある。 Specifically, an image group is acquired in which an examination for photographing a plurality of locations around the macula is performed a plurality of times every several months. Here, since shooting at one place acquires a plurality of images specified by the shooting time and frame rate, an image group obtained by shooting at one place may be referred to as an AO-SLO image. Here, since the shooting range of the AO-SLO image can be changed, it is possible to acquire AO-SLO images having different resolutions. Furthermore, there are cases where AO-SLO images with different resolutions acquired for one eye to be examined are collectively referred to as Study for the eye to be examined.
経時観察をするために、一つのStudyに含まれる複数のAO−SLO像から解析対象とするAO−SLO像を選択すると、このAO−SLO像と同一固視位置で異なる時期に撮影されたものが並べて提示される。同一固視位置で撮影されていても、固視微動等の影響で撮影されたAO−SLO像には位置ずれが生じているため、ずれを補正するための位置合わせを行い、その結果重なる部分から解析対象領域を選択する。各画像で視細胞解析を行い、選択領域中の解析結果を比較することで経時的な評価を行うことができる。 When an AO-SLO image to be analyzed is selected from a plurality of AO-SLO images included in one Study for observation over time, the AO-SLO image was taken at the same fixation position and at a different time Are presented side by side. Even if the images are taken at the same fixation position, the AO-SLO image taken due to the effect of fixation fine movement or the like is misaligned. Therefore, alignment for correcting the misalignment is performed, and as a result, overlapping portions Select the analysis target area. By performing photoreceptor cell analysis on each image and comparing the analysis results in the selected region, evaluation over time can be performed.
<画像処理装置の構成>
図1は、本実施例に係る画像処理装置10の機能構成を示したものである。
<Configuration of image processing apparatus>
FIG. 1 shows a functional configuration of an
図1において、100は画像取得部であり、補償光学SLO装置により取得されたAO−SLO像を取得する。すなわち、画像取得部100は、被検眼による収差が補正された被検眼からの戻り光に基づいて被検眼の第1眼底画像を取得する第1取得手段の一例に相当する。また、被検眼の第2眼底画像を取得する第2取得手段の一例に相当する。
In FIG. 1,
取得したAO−SLO像は制御部120を通じて記憶部130に記憶される。110は入力情報取得部であり、ユーザーによる入力を取得する。140は画像処理部であり、視細胞解析部141、位置合わせ部142、領域選択部143、比較部144を含む。画像処理部140は、異なる時期に撮影された各AO−SLO像の視細胞解析を行い、相互に位置合わせして重なり領域を求める。前記重なり領域中から選択した解析対象領域で、前記視細胞解析結果を比較することで、経時変化の評価を行う。150は出力部であり、算出した指標や比較結果をモニタ等に出力するほか、記憶部130に記憶されている処理結果を、不図示のデータベース等外部記憶に出力する。
The acquired AO-SLO image is stored in the
<画像処理装置の処理手順>
次に、図2のフローチャートを参照して、本実施形態の画像処理装置10の処理手順を説明する。
<Processing procedure of image processing apparatus>
Next, the processing procedure of the
<ステップS210>
ステップS210において、画像取得部100は、画像処理装置10に接続される補償光学SLOにより、被検眼網膜の複数の高画角(Wide Field)SLO像(以下、WF−SLO像)及びAO−SLO像を取得する。
<Step S210>
In step S210, the
ここで、視細胞解析を行うために、一つの被検眼に対して行う撮影方法の一例を示す。本実施例で用いた収差補正SLO装置は、固視灯の位置を変えることで、被検眼が異なる位置を凝視した状態で撮影することにより、網膜の異なる位置の撮影を行う。図3に固視灯の提示位置を操作する固視灯マップを示す。 Here, an example of an imaging method performed on one eye to be examined in order to perform photoreceptor cell analysis is shown. The aberration correction SLO apparatus used in the present embodiment performs imaging at different positions of the retina by changing the position of the fixation lamp and taking an image with the eye to be examined staring at different positions. FIG. 3 shows a fixation lamp map for operating the fixation lamp presentation position.
まずは図3の固視灯マップで中心を選択した状態で固視灯を提示する。以下ではこの位置を基準位置と呼ぶ。このとき、提示される固視灯を凝視した被検眼を撮影すると、黄斑付近の撮影を行うことができる。この状態で、WF−SLO像と、解像度の異なる複数のAO−SLO像を撮影する。ここでWF−SLO像とは画像サイズが8mmx6mm、ピクセルサイズは533x400で、網膜の広い範囲を撮影することで網膜の全体イメージを取得する。なお、画像サイズおよびピクセルサイズは上記の値に限定されるものではなく、他の値としてもよい。以下についても同様である。 First, the fixation lamp is presented with the center selected in the fixation lamp map of FIG. Hereinafter, this position is referred to as a reference position. At this time, if the subject's eye staring at the fixation light to be presented is photographed, the vicinity of the macula can be photographed. In this state, a WF-SLO image and a plurality of AO-SLO images having different resolutions are taken. Here, the WF-SLO image has an image size of 8 mm × 6 mm and a pixel size of 533 × 400, and an entire image of the retina is acquired by photographing a wide range of the retina. The image size and the pixel size are not limited to the above values, and may be other values. The same applies to the following.
AO−SLO像とWF−SLO画像と対応づけることにより、画角の狭いAO−SLO像が網膜全体のどの位置にあるかが提示される。AO−SLO像としては、撮影領域のサイズが1.7mmx1.7mm、0.82mmx0.82mm、0.34mmx0.34mm、ピクセルサイズはすべて共通で400x400となる、3種類の解像度で撮影をする。なお、解像度のバリエーションは3種類以上であっても良いし、2種類であっても良い。ここで撮影領域が1.7mmx1.7mmであるAO−SLO像をL像、0.82mmx0.82mmであるAO−SLO像をM像、0.34mmx0.34mmであるAO−SLO像をS像とする。AO−SLO像の撮影時間及びフレームレートは変更することが可能であり、ここではフレームレートが毎秒32フレーム、撮影時間が2秒で、64枚の画像より構成される。なお、フレームレート等は他の値であってもよい。 By associating the AO-SLO image with the WF-SLO image, the position of the AO-SLO image with a narrow angle of view in the entire retina is presented. As the AO-SLO image, shooting is performed with three types of resolutions in which the size of the shooting region is 1.7 mm × 1.7 mm, 0.82 mm × 0.82 mm, 0.34 mm × 0.34 mm, and the pixel size is 400 × 400 in common. There may be three or more types of resolution variations, or two types. Here, an AO-SLO image with an imaging area of 1.7 mm × 1.7 mm is an L image, an AO-SLO image with a 0.82 mm × 0.82 mm is an M image, and an AO-SLO image with a 0.34 mm × 0.34 mm is an S image. To do. The shooting time and frame rate of the AO-SLO image can be changed. Here, the frame rate is 32 frames per second, the shooting time is 2 seconds, and the image is composed of 64 images. Note that the frame rate and the like may be other values.
次に固視位置を0.5mm Superiorの位置に移動し,移動した固視灯を凝視してもらう。その状態でM像及びS像を撮影する。同様に、0.5mm Nasal、0.5mm Inferior、0.5mm Temporalの順に固視位置を移動し、M像、S像の撮影を行う。 Next, the fixation position is moved to a position of 0.5 mm Superior, and the fixed fixation lamp is stared. In this state, an M image and an S image are taken. Similarly, the fixation position is moved in the order of 0.5 mm Nasal, 0.5 mm Inferior, and 0.5 mm Temporal, and M and S images are captured.
さらに、固視位置を1.0mm Superiorの位置に移動し,移動した固視灯を凝視してもらう。その状態でM像及びS像を撮影する。同様に、1.0mm Nasal、1.0mm Inferior、1.0mm Temporalの順に固視位置を移動し、M像、S像の撮影を行う。 Further, the fixation position is moved to the 1.0 mm Superior position, and the fixed fixation lamp is stared. In this state, an M image and an S image are taken. Similarly, the fixation position is moved in the order of 1.0 mm Nasal, 1.0 mm Inferior, and 1.0 mm Temporal, and M and S images are captured.
このようにして撮影された、1被検眼に対するWF−SLO像、AO−SLO像群の模式図を図4に示す。図4では、WF−SLO像上に、撮影されたL,M,S像が、固視位置の情報のみに基づいて重ねて表示されている。図4に示すように、一つのWF−SLO像と、19のAO−SLO像(L像1、M像9、S像9)を一つのStudyの基準セットとする。なお、基準セットは上記のものに限定されるものではない。 FIG. 4 shows a schematic diagram of a group of WF-SLO images and AO-SLO images taken for one eye to be examined in this way. In FIG. 4, the captured L, M, and S images are superimposed on the WF-SLO image based on only the fixation position information. As shown in FIG. 4, one WF-SLO image and 19 AO-SLO images (L image 1, M image 9, and S image 9) are set as one Study reference set. The reference set is not limited to the above.
さらに、上記Studyで、同一被検眼に対して異なる時期に撮影されたStudyも取得する。 Further, in the above Study, a Study taken at different times on the same eye to be examined is also acquired.
取得された被検眼のWF−SLO像、AO−SLO像群は、制御部120を通じて記憶部130に保存される。
The acquired WF-SLO image and AO-SLO image group of the eye to be examined are stored in the
<ステップS220>
ステップS220において、入力情報取得部110は、記憶部130に保存されている複数の同一被検眼のStudyの中から、ユーザーが選択したAO−SLO像の情報を取得する。ここでAO−SLO像の情報とは、固視位置や解像度などである。ここでは解像度がS像の場合とする。そして、選択されたAO−SLO像と同一被検眼、同一固視位置、同一解像度で、他のStudyに含まれるAO−SLO像を記憶部130より取得し、制御部120を通じて記憶部130に保存するとともに、出力部150を通じてモニタ等に提示する。図5にモニタに提示された複数のAO−SLO像の模式図を示す。
<Step S220>
In step S <b> 220, the input information acquisition unit 110 acquires information on the AO-SLO image selected by the user from the plurality of studies of the same eye to be examined stored in the
AO−SLO像は最近に撮影されたAO−SLO像(selected像)が左上に配置され、そこから右方向、さらに下段の左から右方向に新しい順に配置されている。なお、配置は上記の配置に限定さるものではなく、任意の配置に変更可能である。各AO−SLO像には、撮影日時とselected S像の撮影日時からの差が提示される。図5に示された同一被検眼、同一固視位置、同一解像度の複数のAO−SLO像群を経時評価AO−SLO像群と呼ぶ場合がある。 The AO-SLO image is a recently taken AO-SLO image (selected image) arranged at the upper left, and then arranged in the new order from right to right and further from left to right in the lower stage. In addition, arrangement | positioning is not limited to said arrangement | positioning, It can change to arbitrary arrangement | positioning. In each AO-SLO image, a difference between the shooting date and time and the shooting date and time of the selected S image is presented. A plurality of AO-SLO image groups having the same eye to be examined, the same fixation position, and the same resolution shown in FIG. 5 may be referred to as a temporal evaluation AO-SLO image group.
<ステップS230>
ステップS230において、視細胞解析部141は、ステップS220で記憶部130に保存された経時評価AO−SLO像群の視細胞解析を行う。
<Step S230>
In step S230, the
図6に一つのAO−SLO像に対する視細胞解析の詳細を説明するためのフローチャートを示す。すべての経時評価AO−SLO像群に対して以下のステップを繰り返して、視細胞解析を行う。 FIG. 6 shows a flowchart for explaining the details of photoreceptor cell analysis for one AO-SLO image. The photoreceptor cell analysis is performed by repeating the following steps for all time-lapse evaluation AO-SLO image groups.
<ステップS610>
ステップS610において、入力情報取得部110は、AO−SLO像を構成するフレームの中から、基準フレームを選択する。
<Step S610>
In step S610, the input information acquisition unit 110 selects a reference frame from the frames constituting the AO-SLO image.
AO−SLO像は同一箇所を2秒間撮影した64枚のフレームより構成される。しかし被検眼の固視微動のため、64枚の撮影位置にはズレがあり、フレーム中にも歪みが生じている。この64枚のフレームの中から、歪みが少なく撮影状態が良好なフレームを、ユーザーが基準フレームとして選択する。 The AO-SLO image is composed of 64 frames taken from the same location for 2 seconds. However, due to the slight eye movements of the subject's eye, the 64 shooting positions are misaligned, and distortion is also generated in the frame. From the 64 frames, the user selects a frame with less distortion and a good shooting state as a reference frame.
ここでは基準フレームをユーザーが選択する場合を示したが、ソフトウェア的に選択する方法も考えられる。例えば輝度の平均値や分散を算出し、平均値や分散が大きなフレームを選択することが考えられる。さらには、周波数解析を行うことで、視細胞の存在を示すリング構造が明確となるフレームを選択することも考えられる。 Although the case where the user selects the reference frame is shown here, a method of selecting by software is also conceivable. For example, it is conceivable to calculate an average value or variance of luminance and select a frame having a large average value or variance. Furthermore, it is conceivable to select a frame in which a ring structure indicating the presence of a photoreceptor cell is clear by performing frequency analysis.
こうしてAO−SLO像に対して選択された基準フレームが、制御部120を通じて記憶部130に保存される。
Thus, the reference frame selected for the AO-SLO image is stored in the
<ステップS620>
ステップS620において、視細胞解析部141は、ステップS610で取得されたAO−SLO像の基準フレームに基づき、視細胞解析の前処理を行う。前処理には複数の方法が考えられるが、ここでは周波数解析によるノイズ除去について示す。具体的には、基準フレームに周波数変換を行い、高周波を除去するフィルタを適応した後に逆変換する。ここでノイズとして除去する高周波のカットオフ値は、視細胞の大きさが最も小さい(視細胞の密度が最も高い)黄斑部付近で2μm程度であることが知られているため、2μmより短い周期の振動を除去する。さらに、視細胞の密度は黄斑から離れるに従って低くなることが知られているため、撮影時の固視位置から得られる黄斑からの距離に基づきカットオフ周波数を変化させる。例えば、黄斑中心部では2μm、黄斑中心から1.0mmの位置までは黄斑からの距離0.5mmに対して1μmずつ増加、黄斑から1.0mmより離れた位置では4μm(固定)となるように決め、黄斑からの距離に応じたカットオフ周波数とする。
<Step S620>
In step S620, the
さらに、ノイズ除去の方法として、AO−SLO像として取得された複数のフレームを用いて、その重ね合わせを行う方法がある。具体的には、各AO−SLO像の64枚のフレームを、アフィン変換などでレジストレーション処理を行った後、基準フレームに相当する領域に対して平均値処理を行う。この手法の精度は、レジストレーション処理の精度に依存する。そして上記レジストレーション処理を行った後に、上記周波数変換による高周波成分の除去処理を行う。 Furthermore, as a method for removing noise, there is a method in which a plurality of frames acquired as an AO-SLO image are used to superimpose them. Specifically, after 64 frames of each AO-SLO image are subjected to registration processing by affine transformation or the like, average value processing is performed on an area corresponding to the reference frame. The accuracy of this method depends on the accuracy of the registration process. And after performing the said registration process, the removal process of the high frequency component by the said frequency conversion is performed.
こうして取得された画像を前処理後画像と呼ぶ場合がある。 The image acquired in this way may be referred to as a preprocessed image.
<ステップS630>
ステップS630において、視細胞解析部141は、ステップS620で取得された前処理後画像に対して、視細胞検出を行う。
<Step S630>
In step S630, the
具体的には、前処理後画像の輝度の極大値検出を行う方法がある。このとき、極大値として検出された点同士の距離が、知識として知られる視細胞の大きさよりも小さい場合には、ノイズの影響であるとして検出点同士を統合する処理を行うことで、検出のロバスト性を向上させることができる。このときに用いる視細胞の大きさとして、ステップS620と同様、解析対象となるAO−SLO像の黄斑からの距離に基づき算出することで、より精度の高い検出を行うことができる。 Specifically, there is a method of detecting the maximum value of the luminance of the preprocessed image. At this time, when the distance between the points detected as the maximum value is smaller than the size of the photoreceptor cell known as knowledge, the detection points are detected by integrating the detection points as being influenced by noise. Robustness can be improved. By calculating the size of the photoreceptor cell used at this time based on the distance from the macula of the AO-SLO image to be analyzed, as in step S620, detection with higher accuracy can be performed.
さらに、こうして取得された検出点のうち、指定されたある閾値以上の値をもつ点を視細胞とする。閾値としては、画像の最低輝度値を用いる方法(すべての検出点を視細胞とする)や、画像の輝度平均値を用いる方法などが考えられる。 Furthermore, among the detection points acquired in this way, a point having a value equal to or greater than a specified threshold value is defined as a photoreceptor cell. As the threshold value, a method using the minimum luminance value of the image (all detection points are photoreceptor cells), a method using the average luminance value of the image, and the like are conceivable.
ここでは視細胞検出の一例を示したが、検出法は上記に限定されるものではなく、様々な方法が考えられる。例えば、輝度値がある閾値以上のピクセルのみ選択し、該選択ピクセルが連結している領域の重心を求める方法がある。他には、小領域の特徴量を算出して、パターン認識の手法を用いて検出することも考えられる。具体的には、例えば11x11ピクセルの小領域に対して、ガボール特徴量を算出する。視細胞とされる検出点を中心に含む複数の小領域と、含まない複数の小領域から得られるガボール特徴量ベクトルを用いて、サポートベクターマシンによる学習を行う。新たに対象とする小領域に対してガボール特徴量を算出し、上記学習結果を用いることで、該小領域の中心が視細胞であるか否かを判断する。 Although an example of photoreceptor cell detection is shown here, the detection method is not limited to the above, and various methods are conceivable. For example, there is a method in which only pixels having a luminance value equal to or greater than a certain threshold value are selected, and the center of gravity of a region connected with the selected pixels is obtained. In addition, it is conceivable to calculate a feature amount of a small area and detect it using a pattern recognition technique. Specifically, for example, a Gabor feature amount is calculated for a small area of 11 × 11 pixels. Learning using a support vector machine is performed using a Gabor feature quantity vector obtained from a plurality of small areas centered on a detection point that is a photoreceptor cell and a plurality of small areas not included. A Gabor feature amount is newly calculated for a small target area, and the learning result is used to determine whether the center of the small area is a photoreceptor cell.
さらに、上記ソフトウェアによる検出に加えて、ユーザーによりマニュアルで修正することも可能である。このとき入力情報取得部111は、ステップS630で検出した検出点に対してユーザーが修正した検出点の位置を取得する。 Further, in addition to the detection by the software, it is possible to manually correct by the user. At this time, the input information acquisition unit 111 acquires the position of the detection point corrected by the user with respect to the detection point detected in step S630.
<ステップS640>
ステップS640において、視細胞解析部141は、ステップS630で検出された検出点に対して、ボロノイ解析を行う。
<Step S640>
In step S640, the
具体的には、ステップS630で検出された全検出点に対して、近傍にある検出点同士の垂直二等分線によって画像内の領域を分割することで、各検出点に属するボロノイ領域を算出する。 Specifically, the Voronoi region belonging to each detection point is calculated by dividing the region in the image by the perpendicular bisector of the detection points in the vicinity with respect to all the detection points detected in step S630. To do.
こうして視細胞解析を行った結果を、制御部120を通じて記憶部130に保存した後、ステップS230に戻る。
The result of the photoreceptor cell analysis is stored in the
<ステップS240>
ステップS240において、位置合わせ部142は、ステップS220で記憶部130に保存された経時評価AO−SLO像群間の位置合わせを行う。すなわち、位置合わせ部142は第1眼底画像と、第2眼底画像との位置合わせを行う位置合わせ手段の一例に相当する。ここで位置合わせは、ステップS610で各AO−SLO像に対して選択された基準フレームを用いて行う。
<Step S240>
In step S240, the
具体的には、経時評価AO−SLO像群の選択の基準となったSelected像と、その他の各経時評価AO−SLO像群間の移動量を、位相限定相関法により算出する。なお、移動量の算出は位相限定相関法以外の方法を用いることとしてもよい。 Specifically, the movement amount between the Selected image that is a reference for selecting the time-evaluated AO-SLO image group and each other time-evaluated AO-SLO image group is calculated by the phase-only correlation method. The movement amount may be calculated using a method other than the phase only correlation method.
比較したいAO−SLO像の基準フレームを、それぞれFFTにより周波数変換する。ここで周波数変換された画像をそれぞれF(u,v),G(u,v)と表すと、以下の式で示される位相限定相関係数C(u,v)を計算する。 Each reference frame of the AO-SLO image to be compared is frequency-converted by FFT. Here, when the frequency-converted images are respectively expressed as F (u, v) and G (u, v), a phase-only correlation coefficient C (u, v) represented by the following equation is calculated.
C(u,v)の逆FFTを求め、ピーク値を検出することにより移動量を算出することができる。そして算出した移動量を、制御部120を通じて記憶部130に保存する。
The amount of movement can be calculated by obtaining the inverse FFT of C (u, v) and detecting the peak value. Then, the calculated movement amount is stored in the
図7に、算出した移動量に基づき経時評価AO−SLO像群を重ねて表示した例を示す。図7で示した表示を、経時評価AO−SLO像群の重畳表示と呼ぶ。図7ではSelected像の枠のみ太線で示している。 FIG. 7 shows an example in which the time-lapse evaluation AO-SLO image groups are superimposed and displayed based on the calculated movement amount. The display shown in FIG. 7 is referred to as a superimposed display of the time evaluation AO-SLO image group. In FIG. 7, only the frame of the Selected image is shown by a thick line.
ここではソフトウェアにより位置合わせをする方法の一例について述べたが、マニュアルにより位置を合わせることも可能である。具体的には、血管等の特徴を参考にマウスのクリック&ドラッグにより各AO−SLO像の位置を移動する方法である。マニュアルのみで位置合わせをすることも可能であり、また上記ソフトウェアでの位置合わせの後、マニュアルで修正することも可能である。さらに、上記ではステップS610で選択された基準フレームを用いて位置合わせを行ったが、AO−SLO像を構成するフレームより生成した合成フレームを用いてもよい。合成フレームの生成法は、非特許文献1に一例が示されている。さらに、ステップS620で取得された前処理後画像を用いて位置合わせを行ってもよい。 Here, an example of a method of aligning by software has been described, but it is also possible to align by manual. Specifically, the position of each AO-SLO image is moved by clicking and dragging the mouse with reference to the characteristics of blood vessels and the like. It is possible to perform alignment only with the manual, and it is also possible to manually correct after alignment with the software. Further, in the above description, the alignment is performed using the reference frame selected in step S610. However, a synthesized frame generated from the frames constituting the AO-SLO image may be used. An example of a method for generating a composite frame is shown in Non-Patent Document 1. Further, alignment may be performed using the preprocessed image acquired in step S620.
<ステップS250>
ステップS250において、領域選択部143は、ステップS240で求めた経時評価AO−SLO像群間の位置合わせ結果に基づき、解析対象となる領域の選択を行う。すなわち、領域選択部143は位置合わせに基づき解析対象候補領域を設定する領域設定手段の一例に相当する。
<Step S250>
In step S250, the
ここで解析対象領域とは、ステップS230で取得された視細胞解析結果を経時的に比較し、疾病の進行による変化を評価するための指標を算出する領域となる。このため,すべての経時評価AO−SLO像群間で比較するためには、すべての経時評価AO−SLO像群に含まれる領域であることが求められる。ここで指標の例としては、ステップS630で求められた検出点の数、検出点数を領域の面積で割った密度、ステップS640で求められた最近傍検出点までの距離、ボロノイ領域が六角形である割合などがあげられる。 Here, the analysis target region is a region where the photoreceptor analysis result acquired in step S230 is compared with time, and an index for evaluating a change due to progression of the disease is calculated. For this reason, in order to compare between all the time-evaluated AO-SLO image groups, it is required that the region is included in all the time-evaluated AO-SLO image groups. Here, as examples of indices, the number of detection points obtained in step S630, the density obtained by dividing the number of detection points by the area of the region, the distance to the nearest detection point obtained in step S640, and the Voronoi region is hexagonal. A certain ratio is given.
図8(a)に、図7で求めた位置合わせ結果に基づき、すべての経時評価AO−SLO像群が重なりをもつ部分を太枠で示した図を示す。すなわち、太枠は位置合わせの結果すべての眼底画像の重なる領域を示している。なお、太枠は、すべての経時評価AO−SLO像群を用いて比較をする場合の、選択可能な最大領域であるため、解析対象候補領域の最小領域となる。図8(b)には、比較のために少なくとも2つの経時評価AO−SLO像が重なりをもつ領域を太枠で示した図を示す。すなわち、図8(b)は位置合わせの結果少なくとも2つの眼底画像が重なる領域を解析対象候補領域としたものであるこの領域は、解析対象候補領域の最大領域となる。さらに、図8(b)上で重なりをもつ経時評価AO−SLO像の数に応じて、領域を異なる色で示すなど明示することも可能である。こうすることで、選択したい特徴物が存在する場合に、その特徴物を含む解析領域を選択する場合に、いくつの経時評価AO−SLO像群間での比較が可能かを知ることができる。 FIG. 8A shows a diagram in which thick portions indicate portions where all the time-evaluated AO-SLO image groups overlap based on the alignment result obtained in FIG. That is, the thick frame indicates a region where all fundus images overlap as a result of alignment. Note that the thick frame is the minimum region that can be selected when the comparison is performed using all the time-lapse evaluation AO-SLO image groups, and is therefore the minimum region of the analysis target candidate region. FIG. 8B shows a region in which at least two temporal evaluation AO-SLO images overlap with a thick frame for comparison. That is, in FIG. 8B, the region where at least two fundus images overlap as a result of the alignment is set as the analysis target candidate region, and this region becomes the maximum region of the analysis target candidate region. Furthermore, it is also possible to clearly indicate the region in different colors according to the number of the time-lapse evaluation AO-SLO images having an overlap in FIG. By doing so, when there is a feature to be selected, it is possible to know how many temporally evaluated AO-SLO image groups can be compared when selecting an analysis region including the feature.
図8(a),(b)に示したように、位置合わせの結果、重なる眼底画像の枚数に応じて解析対象候補領域が識別されて提示されるようになっている。 As shown in FIGS. 8A and 8B, as a result of the alignment, analysis target candidate regions are identified and presented according to the number of overlapping fundus images.
上記太枠で示した選択領域内から、ユーザーが解析対象領域を選択することができる。図9にユーザーによる選択領域の例を示す。図9(a)は、経時評価AO−SLO像群の重畳表示上に選択領域を示した場合であり、図9(b)は個別のAO−SLO像上に示した場合である。なお、図9(a)と図9(b)表示は表示制御部により表示部に同時に表示させることとしてもよいし、ユーザーからの指示に基づいて切り替えて表示させることとしてもよい。図9(a)では、すべての経時評価AO−SLO像群が重なりを持つ部分に領域を選択している。領域は矩形や多角形、楕円等を選択することが可能であり、ユーザーによるマウスクリックで設定できる。血管等が含まれる場合、血管の下の輝度は低くなるため、視細胞の検出精度が悪くなる。よって血管は避けて領域を選択する。すなわち、血管領域を含む領域を除外して解析対象領域を選択する。なお、血管領域を自動認識してユーザーにより血管領域を選択出来ないようにしてもよい。図9(b)では、位置合わせの精度が足りない場合に備えて、各画像に選択領域の位置をユーザーが修正することができる。このとき選択領域の大きさや形は変化しない状態で、マウスによるクリック&ドラッグにより移動することができる。なお、図9(b)を表示部に表示させるとともに、図4に示す基準セットを並べて表示することとしてもよい。また、図4のうちWF−SLO像を抜いたAO−SLO像を図9(b)および図4と並べて表示することとしてもよい。 The user can select the analysis target area from the selection area indicated by the bold frame. FIG. 9 shows an example of the selection area by the user. FIG. 9A shows the case where the selected region is shown on the superimposed display of the time-evaluated AO-SLO image group, and FIG. 9B shows the case where it is shown on the individual AO-SLO image. 9A and 9B may be simultaneously displayed on the display unit by the display control unit, or may be switched and displayed based on an instruction from the user. In FIG. 9A, an area is selected in a portion where all the time-evaluated AO-SLO image groups overlap. The area can be selected from a rectangle, a polygon, an ellipse, and the like, and can be set by a mouse click by the user. When a blood vessel or the like is included, the luminance under the blood vessel is lowered, so that the detection accuracy of photoreceptor cells is deteriorated. Therefore, a region is selected avoiding blood vessels. That is, the analysis target region is selected by excluding the region including the blood vessel region. The blood vessel region may be automatically recognized so that the user cannot select the blood vessel region. In FIG. 9B, the user can correct the position of the selected region in each image in preparation for the case where the alignment accuracy is insufficient. At this time, the selection area can be moved by clicking and dragging with the mouse without changing the size or shape of the selection area. In addition, while displaying FIG.9 (b) on a display part, it is good also as displaying the reference | standard set shown in FIG. 4 side by side. In addition, the AO-SLO image from which the WF-SLO image is removed in FIG. 4 may be displayed side by side with FIG. 9B and FIG.
図8(b)で、重なりをもつ経時評価AO−SLO像の数が明示される表示について説明したが、図10ではさらに、図10(a)上でマウスがポイントする位置に重なりをもつ経時評価AO−SLO像が、図10(b)上に示される。そして選択した解析対象領域を含むAO−SLO像が図10(b)上に明示される。すなわち、解析対象候補領域から、選択された解析対象領域を含み、比較対象となる眼底画像が識別されて提示される。これにより、比較対象となるAO−SLO像の数や撮影時期を認識しながら、解析対象領域を選択することが可能になる。 In FIG. 8B, the display in which the number of AO-SLO images having overlapping evaluation is clearly shown has been described, but FIG. 10 further shows the display having the overlapping at the position where the mouse points on FIG. 10A. An evaluation AO-SLO image is shown on FIG. Then, an AO-SLO image including the selected analysis target region is clearly shown on FIG. That is, the fundus image to be compared including the selected analysis target region from the analysis target candidate region is identified and presented. This makes it possible to select the analysis target region while recognizing the number of AO-SLO images to be compared and the photographing time.
こうして領域選択を行った結果を、制御部120を通じて記憶部130に保存する。
The area selection result is stored in the
<ステップS260>
ステップS260において、比較部144は、ステップS220で取得された経時評価AO−SLO像群間の比較を、ステップS230〜ステップS250で行った解析結果に基づき行う。
<Step S260>
In step S260, the comparison unit 144 performs comparison between the temporal evaluation AO-SLO image groups acquired in step S220 based on the analysis results performed in steps S230 to S250.
図11に、図9の選択領域で計測した視細胞密度の経時変化を示すグラフの例を示す。ここで比較対象となるので、ステップS230で取得された視細胞解析の結果から得られる指標であり、具体的には、視細胞数、視細胞数を領域の面積で割った密度、最近傍視細胞までの距離、ボロノイ領域の面積や六角形率などがあげられるが、これらに限定されるものではない。 FIG. 11 shows an example of a graph showing a change with time of the photoreceptor cell density measured in the selected region of FIG. Since this is a comparison target, it is an index obtained from the result of photoreceptor cell analysis acquired in step S230. Specifically, the number of photoreceptor cells, the density obtained by dividing the photoreceptor cell number by the area of the region, Examples include, but are not limited to, the distance to the cell, the area of the Voronoi region, and the hexagonal rate.
<ステップS270>
ステップS270において、制御部120は、算出した指標や比較結果など記憶部130に記憶されている処理結果を、データベースに保存する。
<Step S270>
In step S <b> 270, the
以上の構成により、補償光学SLO装置により経時的に取得した複数のAO−SLO像を解析して経時変化を評価する場合に、眼底の同一領域を対象に評価を行うことが可能になる。 With the above configuration, when analyzing a plurality of AO-SLO images acquired over time by the adaptive optics SLO apparatus and evaluating temporal changes, it is possible to evaluate the same region of the fundus.
以上の構成により、補償光学SLO装置により経時的に取得した複数の経時評価AO−SLO像群を解析して比較を行う場合に、比較したいAO−SLO像の数や撮影時期を考慮しながら解析対象領域を選択することが可能になる。 With the above configuration, when a plurality of temporally evaluated AO-SLO image groups acquired over time by the adaptive optics SLO apparatus are analyzed and compared, the analysis is performed in consideration of the number of AO-SLO images to be compared and the photographing time. It becomes possible to select a target area.
(その他の実施形態)
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記憶した記憶媒体を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。
(Other embodiments)
An object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus. Needless to say, this can also be achieved by the computer (or CPU or MPU) of the system or apparatus reading and executing the program code stored in the storage medium.
10 画像処理装置
100 画像取得部
110 入力情報取得部
120 制御部
130 記憶部
140 画像処理部
141 視細胞解析部
142 位置合わせ部
143 領域選択部
144 比較部
150 出力部
DESCRIPTION OF
本発明は画像処理装置、画像処理方法および画像処理プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program .
画像処理装置は、被検眼が撮像された複数の画像であって、互いの少なくとも一部が重複する画像を処理して被検眼の組織に関する解析結果を画像毎に出力する解析手段と、前記解析手段による解析条件を変更するための指示を検者から受け付ける受付手段と、を備え、前記解析手段は、前記受付手段が受け付けた前記指示に基づいて、前記指示に応じた解析条件が反映された解析結果を、前記複数の画像のそれぞれについて出力する。The image processing apparatus is an analysis unit that processes a plurality of images obtained by imaging the eye to be examined and at least a part of which overlaps each other, and outputs an analysis result regarding the tissue of the eye to be examined, and the analysis Receiving means for receiving from the examiner an instruction for changing the analysis conditions by the means, and the analysis means reflects the analysis conditions according to the instructions based on the instructions received by the receiving means An analysis result is output for each of the plurality of images.
本明細書に開示の技術によれば、経時的に取得されたAO−SLO像に関して、視細胞の密度や配置構造の乱れを比較する際に、比較対象となるAO−SLO像を把握しながら解析対象領域を選択することが可能となり、より精度の高い経時比較を行うことが可能となる。 According to the technology disclosed in the present specification, when comparing the density of the photoreceptor cells and the disorder of the arrangement structure with respect to the AO-SLO image acquired over time, the AO-SLO image to be compared is grasped. It is possible to select an analysis target region, and it is possible to perform a more accurate temporal comparison.
Claims (8)
前記被検眼の第2眼底画像を取得する第2取得手段と、
前記第1眼底画像と、前記第2眼底画像との位置合わせを行う位置合わせ手段と、
前記位置合わせに基づき解析対象候補領域を設定する領域設定手段と
を備えたことを特徴とする眼科装置。 First acquisition means for acquiring a first fundus image of the subject eye based on return light from the subject eye in which aberrations due to the subject eye are corrected;
Second acquisition means for acquiring a second fundus image of the eye to be examined;
Alignment means for performing alignment between the first fundus image and the second fundus image;
An ophthalmologic apparatus comprising: an area setting unit that sets an analysis target candidate area based on the alignment.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017078411A JP6419249B2 (en) | 2017-04-11 | 2017-04-11 | Image processing apparatus, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017078411A JP6419249B2 (en) | 2017-04-11 | 2017-04-11 | Image processing apparatus, image processing method, and image processing program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012287254A Division JP6128841B2 (en) | 2012-12-28 | 2012-12-28 | Image processing device |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018189460A Division JP2018202237A (en) | 2018-10-04 | 2018-10-04 | Image processing device and method for controlling the same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017119226A true JP2017119226A (en) | 2017-07-06 |
JP6419249B2 JP6419249B2 (en) | 2018-11-07 |
Family
ID=59271564
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017078411A Active JP6419249B2 (en) | 2017-04-11 | 2017-04-11 | Image processing apparatus, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6419249B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020122452A1 (en) | 2020-08-27 | 2022-03-03 | Technische Universität München | Method for improved real-time display of a sequence of optical coherence tomography recordings, OCT device and surgical microscope system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09262212A (en) * | 1996-03-29 | 1997-10-07 | Canon Inc | Ophthalmological image searching method and apparatus therefor |
JPH10151114A (en) * | 1996-11-26 | 1998-06-09 | Nippon Telegr & Teleph Corp <Ntt> | Sorting and processing method for eyegrounds image |
JP2010259543A (en) * | 2009-04-30 | 2010-11-18 | Nidek Co Ltd | Fundus photographing device |
JP2011083555A (en) * | 2009-10-19 | 2011-04-28 | Nidek Co Ltd | Apparatus and method for processing eye-fundus image |
JP2012071113A (en) * | 2010-08-31 | 2012-04-12 | Canon Inc | Image processing apparatus, method for controlling the same, and program |
JPWO2010061547A1 (en) * | 2008-11-25 | 2012-04-19 | 学校法人日本大学 | Eye simulation device |
-
2017
- 2017-04-11 JP JP2017078411A patent/JP6419249B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09262212A (en) * | 1996-03-29 | 1997-10-07 | Canon Inc | Ophthalmological image searching method and apparatus therefor |
JPH10151114A (en) * | 1996-11-26 | 1998-06-09 | Nippon Telegr & Teleph Corp <Ntt> | Sorting and processing method for eyegrounds image |
JPWO2010061547A1 (en) * | 2008-11-25 | 2012-04-19 | 学校法人日本大学 | Eye simulation device |
JP2010259543A (en) * | 2009-04-30 | 2010-11-18 | Nidek Co Ltd | Fundus photographing device |
JP2011083555A (en) * | 2009-10-19 | 2011-04-28 | Nidek Co Ltd | Apparatus and method for processing eye-fundus image |
JP2012071113A (en) * | 2010-08-31 | 2012-04-12 | Canon Inc | Image processing apparatus, method for controlling the same, and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020122452A1 (en) | 2020-08-27 | 2022-03-03 | Technische Universität München | Method for improved real-time display of a sequence of optical coherence tomography recordings, OCT device and surgical microscope system |
Also Published As
Publication number | Publication date |
---|---|
JP6419249B2 (en) | 2018-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6128841B2 (en) | Image processing device | |
US9320424B2 (en) | Image display apparatus, image display method and imaging system | |
US9161686B2 (en) | Image processing apparatus and image processing method | |
EP2772185B1 (en) | Image processing apparatus and image processing method | |
JP6207225B2 (en) | Image processing apparatus and image processing method | |
EP2772184B1 (en) | Image processing apparatus and image processing method | |
US10176614B2 (en) | Image processing device, image processing method, and program | |
JP5847510B2 (en) | Image processing apparatus and image processing method | |
US9918625B2 (en) | Image processing apparatus and control method of image processing apparatus | |
EP2992814A1 (en) | Ophthalmologic apparatus and ophthalmologic apparatus control method | |
JP6147001B2 (en) | Image processing apparatus and image processing method | |
JP6419249B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2014128448A5 (en) | ||
US10123688B2 (en) | Information processing apparatus, operation method thereof, and computer program | |
JP2018202237A (en) | Image processing device and method for controlling the same | |
US10264960B2 (en) | Information processing apparatus, operation method thereof, and computer program | |
US20210030269A1 (en) | Post-processing method to improve lso-based tracking in oct | |
JP6410498B2 (en) | Ophthalmic apparatus and control method thereof | |
JP2020124569A (en) | Image processing apparatus, image processing method and program | |
JP6506518B2 (en) | Ophthalmic apparatus and control method thereof | |
JP2017023482A (en) | Picture processing device, picture processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170511 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170511 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180403 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180529 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180911 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181009 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6419249 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |