JP2017104343A - 画像処理装置、画像処理方法及びプログラム - Google Patents
画像処理装置、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP2017104343A JP2017104343A JP2015241565A JP2015241565A JP2017104343A JP 2017104343 A JP2017104343 A JP 2017104343A JP 2015241565 A JP2015241565 A JP 2015241565A JP 2015241565 A JP2015241565 A JP 2015241565A JP 2017104343 A JP2017104343 A JP 2017104343A
- Authority
- JP
- Japan
- Prior art keywords
- image
- alignment
- region
- images
- slo
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/12—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
- A61B3/1225—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes using coherent radiation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/634—Warning indications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
Abstract
Description
また、本発明は、上述した画像処理装置による画像処理方法、及び、当該画像処理方法をコンピュータに実行させるためのプログラムを含む。
まず、本発明の第1の実施形態について説明する。
図1は、本発明の第1の実施形態に係る画像処理装置100を含む眼科装置10の概略構成の一例を示すブロック図である。
本実施形態に係る眼科装置10は、図1に示すように、画像処理装置100、撮影装置(例えばAO−SLO装置)200、情報入力装置300、表示装置400、及び、データベース500を有して構成されている。
図2は、本発明の第1の実施形態を示し、図1の撮影装置200で生成された複数のAO−SLO画像とWF−SLO画像を模式的に示す図である。撮影装置200では、固視灯の点灯位置を変えることで、被検眼が異なる位置を凝視した状態として撮影することにより、被検眼の眼底に位置する網膜の異なる位置を撮影することができる。
最初に、撮影装置200は、図3に示す固視灯マップの中心の位置を選択した状態で固視灯を点灯する。このとき、提示される固視灯を凝視した被検眼を撮影すると、被検眼の黄斑付近の撮影を行うことができる。
被検眼の撮影プロトコルは、被検眼の着目したい疾病等によって異なるが、標準プロトコルとしては、最初に黄斑を中心としたWF−SLO画像210を撮影し、その後、網膜の複数の位置を解像度の異なるAO−SLO画像220を組み合わせながら撮影を行う。また、経時的に同一の被検眼を観察する場合には、同一のプロトコルで撮影することが一般的であるが、着目する疾病部位の周辺のみを少しずつ位置を変えながら、複数撮影するような場合もある。
図4は、本発明の第1の実施形態に係る画像処理装置100による画像処理方法の処理手順の一例を示すフローチャートである。
まず、ステップS410において、情報取得部120は、情報入力装置300から入力される、患者情報として被検眼の情報を取得する。そして、情報取得部120は、取得した被検眼の情報を、制御部130を介して、記憶部150に記憶する。ここで、被検眼の情報には、被検者のIDや生年月日等の被検者情報や、被検眼の眼軸長等の計測データの情報、更には、過去に撮影された画像等の情報が含まれる。
続いて、ステップS420において、画像取得部110は、撮影装置200またはデータベース500から、経時的に取得された、被検眼の眼底に位置する網膜の平面画像(WF−SLO画像210及びAO−SLO画像220)における複数のセットを取得する。そして、画像取得部110は、取得した平面画像における複数のセットを、制御部130を介して、記憶部150に記憶する。ここで、本実施形態においては、平面画像のセットとは、同一の被検眼に対して経時的に撮影が行われた場合に、例えば同一日に撮影されたWF−SLO画像210及びAO−SLO画像220で構成される画像群のことを指すものとする。但し、例えば、治療の前後で撮影を行って比較する場合等では、同一日の撮影であっても治療の前と後でそれぞれ異なるセットとして扱われる場合もあるものとする。
続いて、ステップS430において、位置合わせ部141は、ステップS420で取得された平面画像における複数のセットの各セットに対して、同一のセットに含まれるWF−SLO画像210とAO−SLO画像220との位置合わせを行う。この際、位置合わせ部141は、各セットにおける位置合わせに係る位置情報を生成する。このステップS430におけるセット内位置合わせは第1の位置合わせに相当し、また、このステップS430の詳細な処理を図5を用いて以下に説明する。
まず、ステップS431において、位置合わせ部141は、AO−SLO画像もしくはWF−SLO画像のフレーム間位置合わせを行う。上述したように、AO−SLO画像は32枚、WF−SLO画像は14枚の画像により構成されている。これらの画像は被検眼の網膜上の同一の位置を撮影しているが、被検眼の固視微動のために位置ずれや画像内歪みが生じている。このため、フレーム間の位置合わせを行い、歪みや位置ズレを補正する必要がある。このようなフレーム内の位置ズレや歪みは、広い範囲を撮影しているWF−SLO画像に比べて、撮影範囲の狭いAO−SLO画像により大きな影響がある。このため、AO−SLO画像の場合についての処理手順を説明する。
続いて、ステップS432において、位置合わせ部141は、位置合わせ済みAO−SLO画像を用いた重ね合わせ画像(以下、「重ね合わせAO−SLO画像」と称する)を生成する。具体的に、位置合わせ部141は、基準フレームの各画素(400ピクセル×400ピクセル)に対して、対応する各フレームの画素値を積算して平均値を取得する。ここで、位置合わせ部141は、あるピクセルに対しては、位置ずれにより対応する画素が存在しないフレームも存在するため、対応する画素値をもつ画素のみで平均値を求める。また、位置合わせ部141は、WF−SLO画像に関しても、AO−SLO画像と同様の手法により、重ね合わせWF−SLO画像を生成する。
続いて、ステップS433において、位置合わせ部141は、ステップS432で取得した同一のセットの重ね合わせWF−SLO画像と重ね合わせAO−SLO画像との間で位置合わせを行う。そして、位置合わせ部141は、それぞれのAO−SLO画像のWF−SLO画像上での位置に係る位置情報を取得する。
続いて、ステップS440において、位置合わせ部141は、ステップS420で取得された平面画像における複数のセット間の位置合わせを行うために、各セットの基準WF−SLO画像同士の位置合わせを行う。この際、位置合わせ部141は、各セットの基準WF−SLO画像同士の位置合わせに係る位置情報を生成する。このステップS440におけるセット間位置合わせは第2の位置合わせに相当する。
続いて、ステップS450において、重畳部142は、ステップS430における同一のセット内の位置合わせ(第1の位置合わせ)の結果と、ステップS440における複数のセット間の位置合わせ(第2の位置合わせ)の結果に基づき、全てのAO−SLO画像をベースラインWF−SLO上に重畳させて、重畳画像を生成する。その後、制御部130は、重畳部142で生成された重畳画像を、出力部160を介して、表示装置に表示させる制御を行う。
続いて、ステップS460において、情報取得部120は、情報入力装置300からユーザが選択した経時評価領域を取得する処理を行う。そして、情報取得部120は、取得した経時評価領域を、制御部130を介して、記憶部150に記憶する。ここで、経時評価領域とは、例えば、ステップS450において表示装置400に表示された重畳画像上で、ユーザがマウス等を用いて経時評価を行う領域として選択した領域のことである。より具体的には、ユーザが、表示装置400に表示された重畳画像上の1点をクリックすることで、その座標として取得することも可能であるし、もしくは重畳画像上で領域を指定し選択することも可能である。さらに、ユーザの入力によらずとも、重畳画像の中から自動的に経時評価領域を取得することも可能である。例えば、情報取得部120は、重畳画像上で重畳枚数が最も多い領域を経時評価領域として取得したり、異なる平面画像のセットに属する画像の重畳枚数が最も多い領域を経時評価領域として取得したりすることも可能である。さらに、情報取得部120は、そのように枚数を数える場合に、各画像のコントラスト等の画質で重みをつけて、画質が所定の閾値よりも高い画像の枚数が多い領域を経時評価領域として取得することも可能である。
続いて、ステップS470において、画像選択部143は、ステップS432で生成された全S画角の重ね合わせAO−SLO画像の中から、ステップS460で取得された経時評価領域を含む重ね合わせAO−SLO画像を選択する。その後、制御部130は、画像選択部143で選択された重ね合わせAO−SLO画像の群の一覧を、出力部160を通じて外部の表示装置400に表示する制御を行う。
続いて、ステップS480において、位置合わせ部141は、ステップS470で選択された経時解析対象AO−SLO画像群間の詳細な位置合わせを行う。この際、位置合わせ部141は、経時解析対象AO−SLO画像群の位置合わせに係る位置情報を生成する。このステップS480における詳細位置合わせは第3の位置合わせに相当する。
続いて、ステップS490−1において、領域抽出部144は、ステップS480における詳細な位置合わせの結果得られた位置合わせ済み経時解析対象AO−SLO画像群において共通に含まれる領域である共通領域を抽出する。
続いて、ステップS490−2において、制御部130は、ステップS480で得られた位置合わせ済み経時解析対象AO−SLO画像群及びその位置合わせ結果の情報とともにステップS490−2で抽出された共通領域を表示装置400に表示する制御を行う。
かかる構成によれば、例えばAO−SLO画像が経時的に繰り返し撮影されている領域を把握することができるため、被検眼の眼底における経時比較を効率良く行うことができる。さらに、例えば、AO−SLO画像が繰り返し撮影されている領域周辺から画像を選択して詳細な位置合わせを行うことにより、多くの画像について経時比較を行うことが可能となる。
次に、本発明の第2の実施形態について説明する。
図8は、本発明の第2の実施形態に係る画像処理装置100による画像処理方法の処理手順の一例を示すフローチャートである。ここで、図8に示すフローチャートの「開始」の段階で、図4に示すステップS410〜S490−1までの処理が終了しているものとする。
図4に示すステップS410〜S490−1の処理を経た後、ステップS810において、解析部145は、まず、ステップS480で得られた位置合わせ済み経時解析対象AO−SLO画像群と、ステップS490−1で抽出された共通領域の情報をデータベース500から取得する。そして、解析部145は、各位置合わせ済み経時解析対象AO−SLO画像から、共通領域として抽出された領域の空間周波数変換画像を生成する。
続いて、ステップS820において、解析部145は、ステップS810で取得した、各位置合わせ済み経時解析対象AO−SLO画像の共通領域に対応する視細胞間距離Lのうち、基準AO−SLO画像に対応する視細胞間距離に基づき、視細胞検出を行う。ここで、視細胞検出の方法は複数知られているが、例えば画像の輝度値の局所的最大値を検出する方法が知られている。この方法では、視細胞間距離に相当する大きさよりも近い距離に検出された2点は融合処理によって合体させられる。このときのパラメータとして、視細胞間距離Lを用いることが考えられる。但し、視細胞の配置にはゆらぎがあるため、視細胞間距離L以下の距離の2点全てを融合するとほとんどの検出点が融合してしまうため、本実施形態では0.6L以下の2点を融合するものとする。そして、制御部130は、解析部145においてこのようにして取得された、各位置合わせ済み経時解析対象AO−SLO画像の共通領域で検出された検出点の座標情報を、記憶部150に記憶する制御を行う。
続いて、ステップS830において、解析部145は、ステップS820で取得した検出点の座標情報に基づき、ボロノイ解析等を行い、視細胞の配置に関する指標を抽出する。そして、制御部130は、解析部145においてこのようにして取得された視細胞の配置に関する指標情報を、記憶部150に記憶する制御を行う。
続いて、ステップS840において、制御部130は、ステップS820で取得した視細胞の検出結果や、ステップS830で取得した解析結果を、出力部160を通じて外部の表示装置400に表示する制御を行う。この際、制御部130は、各位置合わせ済み経時解析対象AO−SLO画像の共通領域間で、経時的な解析結果の差を比較可能となるように比較表示する制御を行う。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記憶媒体は、本発明に含まれる。
Claims (17)
- 被検眼の眼底における所定の大きさの領域を撮影することにより得られた第1の画像と、前記被検眼の眼底における領域であって前記所定の大きさの領域よりも狭い領域を撮影することにより得られた第2の画像とを、撮影時期に基づくセットごとに対応付けて取得する画像取得手段と、
同一の前記セットを構成する前記第1の画像と前記第2の画像との位置合わせである第1の位置合わせと、異なる複数の前記セットに含まれる前記第1の画像のそれぞれの位置合わせである第2の位置合わせとを行って、前記第1の位置合わせ及び前記第2の位置合わせに係る位置情報を生成する位置合わせ手段と、
前記位置合わせ手段で生成された位置情報に基づいて、先に取得された前記セットである第1のセットに含まれる前記第2の画像と前記第1のセットよりも後に取得された前記セットである第2のセットに含まれる前記第2の画像とを、前記第1のセットに含まれる前記第1の画像または前記第2のセットに含まれる前記第1の画像に重畳させて、重畳画像を生成する重畳手段と、
を有することを特徴とする画像処理装置。 - 前記画像取得手段は、前記セットごとに複数の前記第2の画像を取得するものであり、
前記重畳画像は、前記第1のセットに含まれる前記第2の画像と前記第2のセットに含まれる前記第2の画像との重なり枚数を反映した画素値を持つことを特徴とする請求項1に記載の画像処理装置。 - 前記画像取得手段は、前記セットごとに複数の前記第2の画像を取得するものであり、
前記重畳画像は、前記第1のセットに含まれる前記第2の画像と前記第2のセットに含まれる前記第2の画像との、各セットごとの重なり枚数を反映した画素値を持つことを特徴とする請求項1に記載の画像処理装置。 - 前記重畳画像の中から、経時評価を行う領域である経時評価領域を取得する領域取得手段と、
前記経時評価領域を含む前記第2の画像の群の中から、詳細な位置合わせを行う前記第2の画像の群を選択する画像選択手段と、
前記位置合わせ手段は、前記画像選択手段で選択された前記第2の画像の群における詳細な位置合わせである第3の位置合わせを更に行うものであり、前記第3の位置合わせが行われた前記第2の画像の群において共通に含まれる領域である共通領域を抽出する領域抽出手段と、
前記第3の位置合わせが行われた前記第2の画像の群とともに、前記共通領域と前記第3の位置合わせの結果とを表示装置に表示する制御を行う制御手段と、
を更に有することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 - 前記領域取得手段は、前記重畳画像において、前記第2の画像の重なり枚数が最も多い領域を前記経時評価領域として取得することを特徴とする請求項4に記載の画像処理装置。
- 前記領域取得手段は、前記重畳画像において、異なる前記セットに含まれる前記第2の画像の重なり枚数が最も多い領域を前記経時評価領域として取得することを特徴とする請求項4に記載の画像処理装置。
- 前記領域取得手段は、前記重畳画像において、画質を考慮した前記第2の画像の重なり枚数が最も多い領域を前記経時評価領域として取得することを特徴とする請求項4に記載の画像処理装置。
- 前記位置合わせ手段は、前記第3の位置合わせを行う際に、前記画像選択手段で選択された前記第2の画像の群の中から、前記経時評価領域をより中心に含む第2の画像を基準画像として選択することを特徴とする請求項4乃至7のいずれか1項に記載の画像処理装置。
- 前記重畳画像の中から、経時評価を行う領域である経時評価領域を取得する領域取得手段と、
前記経時評価領域を含む前記第2の画像の群の中から、詳細な位置合わせを行う前記第2の画像の群を選択する画像選択手段と、
前記位置合わせ手段は、前記画像選択手段で選択された前記第2の画像の群における詳細な位置合わせである第3の位置合わせを更に行うものであり、前記第3の位置合わせが行われた前記第2の画像の群において共通に含まれる領域である共通領域を抽出する領域抽出手段と、
前記共通領域について前記被検眼の視細胞を解析する解析手段と、
前記解析手段による解析の結果を表示装置に表示する制御を行う制御手段と、
を更に有することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 - 前記解析手段は、前記視細胞を解析する際に、前記共通領域について前記視細胞の周期構造に基づく指標を取得し、前記指標に基づいて前記視細胞の検出と前記視細胞の配置を解析することを特徴とする請求項9に記載の画像処理装置。
- 前記制御手段は、前記第3の位置合わせが行われた前記第2の画像の群における各第2の画像の前記共通領域の間で、前記解析手段による解析の結果を前記表示装置に比較表示する制御を行うことを特徴とする請求項9または10に記載の画像処理装置。
- 前記制御手段は、前記解析手段による前記視細胞の検出結果の差を前記比較表示する制御を行うことを特徴とする請求項11に記載の画像処理装置。
- 前記解析手段は、ボロノイ解析を用いて前記視細胞の配置を解析するものであり、
前記制御手段は、前記ボロノイ解析の結果の差を前記比較表示する制御を行うことを特徴とする請求項11に記載の画像処理装置。 - 前記ボロノイ解析の結果の差は、前記ボロノイ解析による各検出点における最近接距離の差、前記ボロノイ解析によるボロノイ領域の頂点数の差、前記ボロノイ領域の面積の差、及び、前記ボロノイ領域の形状の差のうちの少なくともいずれかであることを特徴とする請求項13に記載の画像処理装置。
- 前記制御手段は、前記解析手段による密度の差またはヘキサゴン率の差を前記表示装置に等高線表示させることにより前記比較表示する制御を行うことを特徴とする請求項11に記載の画像処理装置。
- 被検眼の眼底における所定の大きさの領域を撮影することにより得られた第1の画像と、前記被検眼の眼底における領域であって前記所定の大きさの領域よりも狭い領域を撮影することにより得られた第2の画像とを、撮影時期に基づくセットごとに対応付けて取得する画像取得ステップと、
同一の前記セットを構成する前記第1の画像と前記第2の画像との位置合わせである第1の位置合わせと、異なる複数の前記セットに含まれる前記第1の画像のそれぞれの位置合わせである第2の位置合わせとを行って、前記第1の位置合わせ及び前記第2の位置合わせに係る位置情報を生成する位置合わせステップと、
前記位置合わせステップで生成された位置情報に基づいて、先に取得された前記セットである第1のセットに含まれる前記第2の画像と前記第1のセットよりも後に取得された前記セットである第2のセットに含まれる前記第2の画像とを、前記第1のセットに含まれる前記第1の画像または前記第2のセットに含まれる前記第1の画像に重畳させて、重畳画像を生成する重畳ステップと、
を有することを特徴とする画像処理方法。 - 請求項16に記載の画像処理方法における各ステップをコンピュータに実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015241565A JP2017104343A (ja) | 2015-12-10 | 2015-12-10 | 画像処理装置、画像処理方法及びプログラム |
US15/372,243 US10176614B2 (en) | 2015-12-10 | 2016-12-07 | Image processing device, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015241565A JP2017104343A (ja) | 2015-12-10 | 2015-12-10 | 画像処理装置、画像処理方法及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020079364A Division JP2020124569A (ja) | 2020-04-28 | 2020-04-28 | 画像処理装置、画像処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017104343A true JP2017104343A (ja) | 2017-06-15 |
Family
ID=59020699
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015241565A Pending JP2017104343A (ja) | 2015-12-10 | 2015-12-10 | 画像処理装置、画像処理方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10176614B2 (ja) |
JP (1) | JP2017104343A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019037655A (ja) * | 2017-08-28 | 2019-03-14 | 株式会社トプコン | 眼科装置、及びその制御方法 |
JP2019037646A (ja) * | 2017-08-28 | 2019-03-14 | 株式会社トプコン | 眼科装置 |
JP2020124569A (ja) * | 2020-04-28 | 2020-08-20 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2020162926A (ja) * | 2019-03-29 | 2020-10-08 | 株式会社ニデック | 眼科撮影装置、および、眼科用画像処理プログラム |
JP2022507811A (ja) * | 2018-11-21 | 2022-01-18 | ユニバーシティ オブ ワシントン | 遠隔眼科学における網膜テンプレート合致のためのシステムおよび方法 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101915843B1 (ko) * | 2016-06-29 | 2018-11-08 | 한국과학기술원 | 복굴절 매질을 이용한 영상 깊이 추정 방법 및 장치 |
CN107713981A (zh) * | 2017-10-09 | 2018-02-23 | 上海睦清视觉科技有限公司 | 一种ai眼科健康检测设备及其检测方法 |
CN109146813B (zh) * | 2018-08-16 | 2022-03-11 | 广州视源电子科技股份有限公司 | 一种多任务图像重建方法、装置、设备和介质 |
CN109767459B (zh) * | 2019-01-17 | 2022-12-27 | 中南大学 | 新型眼底图配准方法 |
TWI829923B (zh) * | 2019-04-30 | 2024-01-21 | 安盟生技股份有限公司 | 影像對準方法及其系統 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012016620A (ja) * | 2011-10-24 | 2012-01-26 | Topcon Corp | 眼底観察装置 |
JP2014128367A (ja) * | 2012-12-28 | 2014-07-10 | Canon Inc | 画像処理装置 |
JP2015008841A (ja) * | 2013-06-27 | 2015-01-19 | 株式会社ニデック | 画像処理装置および画像処理プログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4869756B2 (ja) | 2006-03-24 | 2012-02-08 | 株式会社トプコン | 眼底観察装置 |
JP5061380B2 (ja) * | 2007-03-23 | 2012-10-31 | 株式会社トプコン | 眼底観察装置、眼科画像表示装置及びプログラム |
JP5436076B2 (ja) * | 2009-07-14 | 2014-03-05 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP5845608B2 (ja) | 2011-03-31 | 2016-01-20 | 株式会社ニデック | 眼科撮影装置 |
DE102012022058A1 (de) * | 2012-11-08 | 2014-05-08 | Carl Zeiss Meditec Ag | Flexibles, multimodales Retina-Bildaufnahme- und Messsystem |
EP2749204B1 (en) * | 2012-12-28 | 2016-03-16 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
JP6349878B2 (ja) * | 2014-03-31 | 2018-07-04 | 株式会社ニデック | 眼科撮影装置、眼科撮影方法、及び眼科撮影プログラム |
JP6354979B2 (ja) * | 2014-03-31 | 2018-07-11 | 株式会社ニデック | 眼底撮影装置 |
JP6438216B2 (ja) | 2014-05-22 | 2018-12-12 | キヤノン株式会社 | 画像生成装置および画像生成方法 |
JP6566541B2 (ja) * | 2014-11-26 | 2019-08-28 | 株式会社トプコン | 眼科装置 |
-
2015
- 2015-12-10 JP JP2015241565A patent/JP2017104343A/ja active Pending
-
2016
- 2016-12-07 US US15/372,243 patent/US10176614B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012016620A (ja) * | 2011-10-24 | 2012-01-26 | Topcon Corp | 眼底観察装置 |
JP2014128367A (ja) * | 2012-12-28 | 2014-07-10 | Canon Inc | 画像処理装置 |
JP2015008841A (ja) * | 2013-06-27 | 2015-01-19 | 株式会社ニデック | 画像処理装置および画像処理プログラム |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019037655A (ja) * | 2017-08-28 | 2019-03-14 | 株式会社トプコン | 眼科装置、及びその制御方法 |
JP2019037646A (ja) * | 2017-08-28 | 2019-03-14 | 株式会社トプコン | 眼科装置 |
JP2022507811A (ja) * | 2018-11-21 | 2022-01-18 | ユニバーシティ オブ ワシントン | 遠隔眼科学における網膜テンプレート合致のためのシステムおよび方法 |
JP2020162926A (ja) * | 2019-03-29 | 2020-10-08 | 株式会社ニデック | 眼科撮影装置、および、眼科用画像処理プログラム |
JP7318272B2 (ja) | 2019-03-29 | 2023-08-01 | 株式会社ニデック | 眼科撮影装置、および、眼科用画像処理プログラム |
JP2020124569A (ja) * | 2020-04-28 | 2020-08-20 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US10176614B2 (en) | 2019-01-08 |
US20170169596A1 (en) | 2017-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017104343A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP5297415B2 (ja) | 眼科装置及び眼科方法 | |
US9619874B2 (en) | Image processing apparatus and image processing method | |
JP6115007B2 (ja) | 眼科画像処理装置及びプログラム | |
JP5404358B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2012030054A (ja) | 眼科装置、眼科システム及び記憶媒体 | |
JP6207225B2 (ja) | 画像処理装置及び画像処理方法 | |
JP6128841B2 (ja) | 画像処理装置 | |
JP2017046975A (ja) | 眼科撮影装置及び眼科撮影プログラム | |
JP2017046976A (ja) | 眼科撮影装置及び眼科撮影プログラム | |
JP5998493B2 (ja) | 眼科画像処理装置及びプログラム | |
JP6241091B2 (ja) | 画像処理装置および画像処理プログラム | |
JP6187751B2 (ja) | 画像処理プログラム | |
JP2020124569A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP5634587B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
EP3781014B1 (en) | Post-processing method to improve lso-based tracking in oct | |
JP6419249B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP6061975B2 (ja) | 眼科装置、眼科装置の作動方法、及びプログラム | |
JP6410498B2 (ja) | 眼科装置及びその制御方法 | |
JP5726229B2 (ja) | 眼科装置及び眼科方法 | |
JP6720267B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2018202237A (ja) | 画像処理装置およびその制御方法 | |
JP6319615B2 (ja) | 画像処理プログラム | |
JP2022038751A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP2016049183A (ja) | 眼科装置及びその制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190827 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190910 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191107 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200128 |