JP2017104343A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2017104343A
JP2017104343A JP2015241565A JP2015241565A JP2017104343A JP 2017104343 A JP2017104343 A JP 2017104343A JP 2015241565 A JP2015241565 A JP 2015241565A JP 2015241565 A JP2015241565 A JP 2015241565A JP 2017104343 A JP2017104343 A JP 2017104343A
Authority
JP
Japan
Prior art keywords
image
alignment
region
images
slo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015241565A
Other languages
English (en)
Inventor
恵子 米沢
Keiko Yonezawa
恵子 米沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015241565A priority Critical patent/JP2017104343A/ja
Priority to US15/372,243 priority patent/US10176614B2/en
Publication of JP2017104343A publication Critical patent/JP2017104343A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • A61B3/1225Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes using coherent radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/634Warning indications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Abstract

【課題】被検眼の眼底における経時比較を効率良く行える仕組みを提供する。【解決手段】被検眼の眼底における所定の大きさの領域を撮影して得られた第1の画像と、前記所定の大きさの領域よりも狭い領域を撮影して得られた第2の画像とを、撮影時期に基づくセット毎に対応付けて取得する画像取得部110と、同一のセットを構成する第1の画像と第2の画像との位置合わせである第1の位置合わせと、異なる複数のセットに含まれる第1の画像の夫々の位置合わせである第2の位置合わせとを行って、これらの位置合わせに係る位置情報を生成する位置合わせ部141と、位置合わせ部141で生成された位置情報に基づいて、第1のセットに含まれる第2の画像と第1のセットよりも後に取得された第2のセットに含まれる第2の画像とを、第1のセットに含まれる第1の画像又は第2のセットに含まれる第1の画像に重畳させて、重畳画像を生成する重畳部142を備える。【選択図】図1

Description

本発明は、被検眼の眼底を経時的に撮影した画像を処理する画像処理装置及び画像処理方法、並びに、当該画像処理方法をコンピュータに実行させるためのプログラムに関するものである。
人の五感の中でも重要な機能とされる視機能には、被検眼の眼底に位置する網膜の視細胞が重要な役割を果たしている。近年、収差補正技術を応用することで、眼底網膜を高精細に描出する技術が構築され、視機能に関する新たな知見の発見や診断価値の構築が期待されている。
補償光学適用眼底走査型レーザー検眼鏡(Adaptive Optics Scanning Laser Ophthalmoscope:以下、「AO−SLO」と称する)装置は、大気のゆらぎを補償することで鮮明な星の画像を取得する望遠鏡の技術を、眼に応用した検眼鏡である。このAO−SLO装置の技術により、被検眼の網膜の視細胞1つ1つを解像することができるようになった。視細胞は、最も高密度である中心窩付近では約2μm間隔で存在するといわれている。現在も、この中心窩の視細胞まで描出することを目的として、解像度向上のための開発が続けられている。
描出された視細胞を臨床価値に繋げるためには、同一領域の視細胞を経時的に観察し、その変化を定量的に分析できる技術が求められている。AO−SLO装置で撮影した画像(以下、「AO−SLO画像」と称する)は、解像度が大きいために画角が小さく(撮影範囲が狭く)なる場合が多い。そのため、経時的な比較を行うためには、まず同一位置が撮影されている複数のAO−SLO画像を取得し、さらに取得された画像間で詳細な位置合わせを行う必要がある。これに関する従来の技術として、例えば特許文献1の技術がある。
具体的に、特許文献1には、OCT(Optical Coherence Tomography)による網膜の断層画像同士の経時比較を行うために、断層画像と同時に眼底の表面画像(眼底画像)を取得し、まず表面画像同士を位置合わせし、その後に各表面画像に対応付けられている断層画像同士を対応付けて経時比較を行う技術が記載されている。
特開2007−252692号公報
しかしながら、特許文献1に記載の技術では、位置合わせをする表面画像同士を最初に特定する必要があるため、被検眼の眼底における経時比較を効率良く行えないという問題があった。
本発明は、このような問題点に鑑みてなされたものであり、被検眼の眼底における経時比較を効率良く行える仕組みを提供することを目的とする。
本発明の画像処理装置は、被検眼の眼底における所定の大きさの領域を撮影することにより得られた第1の画像と、前記被検眼の眼底における領域であって前記所定の大きさの領域よりも狭い領域を撮影することにより得られた第2の画像とを、撮影時期に基づくセットごとに対応付けて取得する画像取得手段と、同一の前記セットを構成する前記第1の画像と前記第2の画像との位置合わせである第1の位置合わせと、異なる複数の前記セットに含まれる前記第1の画像のそれぞれの位置合わせである第2の位置合わせとを行って、前記第1の位置合わせ及び前記第2の位置合わせに係る位置情報を生成する位置合わせ手段と、前記位置合わせ手段で生成された位置情報に基づいて、先に取得された前記セットである第1のセットに含まれる前記第2の画像と前記第1のセットよりも後に取得された前記セットである第2のセットに含まれる前記第2の画像とを、前記第1のセットに含まれる前記第1の画像または前記第2のセットに含まれる前記第1の画像に重畳させて、重畳画像を生成する重畳手段と、を有する。
また、本発明は、上述した画像処理装置による画像処理方法、及び、当該画像処理方法をコンピュータに実行させるためのプログラムを含む。
本発明によれば、被検眼の眼底における経時比較を効率良く行うことができる。
本発明の第1の実施形態に係る画像処理装置を含む眼科装置の概略構成の一例を示すブロック図である。 本発明の第1の実施形態を示し、図1の撮影装置で生成された複数のAO−SLO画像とWF−SLO画像を模式的に示す図である。 本発明の第1の実施形態を示し、図1の撮影装置における固視灯の点灯位置を操作するための固視灯マップを示す図である。 本発明の第1の実施形態に係る画像処理装置による画像処理方法の処理手順の一例を示すフローチャートである。 図4のステップS430におけるセット内位置合わせ処理の詳細な処理手順の一例を示すフローチャートである。 本発明の第1の実施形態を示し、図4のステップS450で生成される重畳画像の一例を模式的に示す図である。 本発明の第1の実施形態を示し、位置合わせ済み経時解析対象AO−SLO画像群等の表示例を模式的に示す図である。 本発明の第2の実施形態に係る画像処理装置による画像処理方法の処理手順の一例を示すフローチャートである。
以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。
(第1の実施形態)
まず、本発明の第1の実施形態について説明する。
第1の実施形態では、撮影装置によって被検眼の眼底に位置する網膜を経時的に撮影した画像を取得した後、同一位置を撮影している2つ以上の画像間の位置合わせを行う手法について説明する。具体的には、各AO−SLO画像を、同一のセットとして取得された(例えば同一日に撮影された)広画角のSLO画像(以下、「WF−SLO画像」と称する)と位置合わせをする。さらに、異なる複数のセット(例えば異なる日に取得されたセット)に含まれる画像のそれぞれの位置合わせをする。そして、これらの画像の位置情報に基づいて、異なるセットとして取得された(例えば異なる日に撮影された)複数のAO−SLO画像を、異なるセットとして取得された複数のWF−SLO画像のうちの1つのWF−SLO画像に重畳させて、重畳画像を生成する。
そして、第1の実施形態では、重畳画像の中から解析を行う領域として経時評価領域が選択されると、当該経時評価領域を含む全てのAO−SLO画像が表示される。そして、表示されたAO−SLO画像群の中から詳細に比較を行う画像群が選択されると、当該選択された画像間でより精度の高い詳細位置合わせを行う。
このように、第1の実施形態では、異なるセットとして取得された(異なる時期に取得された)AO−SLO画像群を1つのWF−SLO画像上に重畳して重畳画像を生成することにより、被検眼の眼底における経時比較を効率良く行うことができる。また、重畳画像の中から経時評価領域を選択することが可能となり、それに伴って比較したい画像を効率良く選択することができる。さらに、経時評価領域を含む画像群のみを対象として詳細位置合わせを行うことにより、位置合わせ処理時の間違いを減らすことができる。
[眼科装置の概略構成]
図1は、本発明の第1の実施形態に係る画像処理装置100を含む眼科装置10の概略構成の一例を示すブロック図である。
本実施形態に係る眼科装置10は、図1に示すように、画像処理装置100、撮影装置(例えばAO−SLO装置)200、情報入力装置300、表示装置400、及び、データベース500を有して構成されている。
撮影装置200は、被検眼の眼底に位置する網膜を撮影して、AO−SLO画像や広画角のWF−SLO画像等の平面画像を生成する装置である。ここで、WF−SLO画像は、被検眼の眼底における所定の大きさの領域を撮影することにより得られた第1の画像に相当する。また、AO−SLO画像は、被検眼の眼底における領域であって前記所定の大きさの領域よりも狭い領域を撮影することにより得られた第2の画像に相当する。
情報入力装置300は、画像処理装置100に対して各種の情報を入力する装置である。
画像処理装置100は、撮影装置200によって被検眼の眼底に位置する網膜を撮影することにより得られたAO−SLO画像やWF−SLO画像等の平面画像を画像処理する装置である。この画像処理装置100は、図1に示すように、画像取得部110、情報取得部120、制御部130、画像処理部140、記憶部150、及び、出力部160を有して構成されている。
画像取得部110は、撮影装置200によって被検眼の眼底に位置する網膜を撮影することにより得られたAO−SLO画像やWF−SLO画像等の平面画像を取得する処理を行う。ここでは、撮影装置200から直接平面画像を取得する場合の他、以前に撮影装置200で得られ、画像処理を行った後にデータベース500に保存されている平面画像を、データベース500から取得する場合も含む。例えば、画像取得部110は、被検眼の眼底における所定の大きさの領域を撮影することにより得られたWF−SLO画像(第1の画像)と、前記被検眼の眼底における領域であって前記所定の大きさの領域よりも狭い領域を撮影することにより得られたAO−SLO画像(第2の画像)とを、撮影時期に基づくセットごとに対応付けて取得する。
情報取得部120は、撮影装置200や情報入力装置300から、各種の情報を取得する処理を行う。例えば、情報取得部120は、撮影装置200から被検眼に関する情報を取得したり、情報入力装置300から検者の入力情報を取得したりする。さらに、情報取得部120は、後述の重畳部142で生成された重畳画像の中から、経時評価を行う領域である経時評価領域を取得する処理を行う。この経時評価領域を取得する処理を行う情報取得部120は、領域取得手段を構成する。
制御部130は、画像処理装置100における動作を統括的に制御する。
画像処理部140は、制御部130の制御に基づいて、画像取得部110によって取得されたAO−SLO画像やWF−SLO画像等の平面画像を処理する。画像処理部140は、図1に示すように、位置合わせ部141、重畳部142、画像選択部143、領域抽出部144、及び、解析部145を有して構成されている。
位置合わせ部141は、画像取得部110で取得されたAO−SLO画像やWF−SLO画像の各フレーム間の位置合わせや、AO−SLO画像とWF−SLO画像、及び経時的に取得されたWF−SLO画像同士やAO−SLO画像同士の位置合わせ処理を行う。この各種の位置合わせ処理を行った際、位置合わせ部141は、当該各種の位置合わせに係る位置情報を生成する。例えば、位置合わせ部141は、同一のセットを構成するWF−SLO画像とAO−SLO画像との位置合わせである第1の位置合わせと、異なる複数のセットに含まれるWF−SLO画像のそれぞれの位置合わせである第2の位置合わせとを行う。そして、位置合わせ部141は、第1の位置合わせ及び第2の位置合わせに係る位置情報を生成する。さらに、位置合わせ部141は、後述の画像選択部143で選択されたAO−SLO画像の群における詳細な位置合わせである第3の位置合わせを更に行い、第3の位置合わせに係る位置情報を生成する。
重畳部142は、位置合わせ部141により対応付けられた複数のAO−SLO画像を基準となるWF−SLO画像上に重畳させて、重畳画像を生成する処理を行う。例えば、重畳部142は、位置合わせ部141で生成された位置情報に基づいて、先に取得されたセットである第1のセットに含まれるAO−SLO画像と第1のセットよりも後に取得されたセットである第2のセットに含まれるAO−SLO画像とを、第1のセットに含まれるWF−SLO画像または第2のセットに含まれるWF−SLO画像に重畳させて、重畳画像を生成する。
画像選択部143は、情報取得部120において重畳画像の中から取得された経時評価領域を含むAO−SLO画像の群の中から、詳細な位置合わせ(詳細な経時解析)を行うAO−SLO画像の群を選択する処理を行う。
領域抽出部144は、位置合わせ部141で詳細な位置合わせである第3の位置合わせが行われたAO−SLO画像の群において共通に含まれる領域(重なりのある領域)である共通領域を抽出する処理を行う。
解析部145は、AO−SLO画像に対して、被検眼の視細胞抽出等の解析処理を行う。さらに、解析部145は、領域抽出部144で抽出された共通領域について被検眼の視細胞抽出や経時比較等の解析処理を行う。
記憶部150は、制御部130が処理を行う際に必要なプログラムや各種の情報等を記憶している。さらに、記憶部150は、制御部130の制御に基づいて、画像取得部110で取得した平面画像や、情報取得部120で取得した各種の情報、更には、画像処理部140の処理の結果得られた各種の情報等を記憶する。
出力部160は、制御部130の制御に基づいて、画像取得部110で取得した平面画像や、情報取得部120で取得した各種の情報、更には、画像処理部140の処理の結果得られた各種の情報等を、表示装置400に出力して表示させる他、データベース500に出力して保存させる。
表示装置400は、出力部160から出力された平面画像や各種の情報等を表示する処理を行う。
データベース500は、出力部160から出力された平面画像や各種の情報等を保存する処理を行う。
[平面画像]
図2は、本発明の第1の実施形態を示し、図1の撮影装置200で生成された複数のAO−SLO画像とWF−SLO画像を模式的に示す図である。撮影装置200では、固視灯の点灯位置を変えることで、被検眼が異なる位置を凝視した状態として撮影することにより、被検眼の眼底に位置する網膜の異なる位置を撮影することができる。
ここで、図2には、撮影装置200で生成された広画角のWF−SLO画像210と、複数のAO−SLO画像220とが示されている。一度の撮影により、図2に示すようなWF−SLO画像210とAO−SLO画像220のセットが取得される。本実施形態では、同一の被検眼を経時的に観察することにより、図2に示すようなセットが複数回取得されることになる。
図3は、本発明の第1の実施形態を示し、図1の撮影装置200における固視灯の点灯位置を操作するための固視灯マップを示す図である。
最初に、撮影装置200は、図3に示す固視灯マップの中心の位置を選択した状態で固視灯を点灯する。このとき、提示される固視灯を凝視した被検眼を撮影すると、被検眼の黄斑付近の撮影を行うことができる。
ここで、図2に示すWF−SLO画像210は、撮影装置200においてAO−SLO画像を取得する場合とは異なる光学系で、補償光学系を用いずに取得された低解像度で画角の広い画像である。このWF−SLO画像210は、被検眼の眼底に位置する網膜の広い所定の大きさの領域を撮影することで当該網膜の全体イメージを得るための画像である。
図2に示すように、画角の狭いAO−SLO画像220をWF−SLO画像210と位置合わせをして対応付けることにより、画角の狭いAO−SLO画像220が被検眼の網膜全体のどの位置にあるかが示される。以下、本実施形態では、WF−SLO画像210は、画像サイズが8mm×6mm、ピクセルサイズが533ピクセル×400ピクセルであるものとする。また、AO−SLO画像220は、撮影領域のサイズが、1.7mm×1.7mm、0.82mm×0.82mm、0.34mm×0.34mmの3種類あり、そのピクセルサイズが全て共通で400ピクセル×400ピクセルである3種類の解像度が存在している。ここで、撮影領域のサイズが1.7mm×1.7mmのAO−SLO画像をL画角のAO−SLO画像220−Lとする。また、撮影領域のサイズが0.82mm×0.82mmのAO−SLO画像をM画角のAO−SLO画像220−Mとする。また、撮影領域のサイズが0.34mm×0.34mmのAO−SLO画像をS画角のAO−SLO画像220−Sとする。
また、ここで説明しているWF−SLO画像210及びAO−SLO画像220は、複数のフレームより構成される動画像として取得され、フレームレート及び撮影時間により構成されるフレーム数が変化する。本実施形態では、AO−SLO画像220は、フレームレートが毎秒32フレーム、撮影時間が1秒で、32枚のフレームより構成されるものとする。また、WF−SLO画像210は、フレームレートが毎秒14フレーム、撮影時間が1秒で、14枚のフレームより構成されるものとする。また、以下に説明する視細胞解析では、S画角のAO−SLO画像220−Sを解析対象とするものとする。また、WF−SLO画像210とAO−SLO画像220を平面画像と称する。
[撮影プロトコル]
被検眼の撮影プロトコルは、被検眼の着目したい疾病等によって異なるが、標準プロトコルとしては、最初に黄斑を中心としたWF−SLO画像210を撮影し、その後、網膜の複数の位置を解像度の異なるAO−SLO画像220を組み合わせながら撮影を行う。また、経時的に同一の被検眼を観察する場合には、同一のプロトコルで撮影することが一般的であるが、着目する疾病部位の周辺のみを少しずつ位置を変えながら、複数撮影するような場合もある。
[画像処理装置100の処理手順]
図4は、本発明の第1の実施形態に係る画像処理装置100による画像処理方法の処理手順の一例を示すフローチャートである。
<ステップS410>
まず、ステップS410において、情報取得部120は、情報入力装置300から入力される、患者情報として被検眼の情報を取得する。そして、情報取得部120は、取得した被検眼の情報を、制御部130を介して、記憶部150に記憶する。ここで、被検眼の情報には、被検者のIDや生年月日等の被検者情報や、被検眼の眼軸長等の計測データの情報、更には、過去に撮影された画像等の情報が含まれる。
<ステップS420>
続いて、ステップS420において、画像取得部110は、撮影装置200またはデータベース500から、経時的に取得された、被検眼の眼底に位置する網膜の平面画像(WF−SLO画像210及びAO−SLO画像220)における複数のセットを取得する。そして、画像取得部110は、取得した平面画像における複数のセットを、制御部130を介して、記憶部150に記憶する。ここで、本実施形態においては、平面画像のセットとは、同一の被検眼に対して経時的に撮影が行われた場合に、例えば同一日に撮影されたWF−SLO画像210及びAO−SLO画像220で構成される画像群のことを指すものとする。但し、例えば、治療の前後で撮影を行って比較する場合等では、同一日の撮影であっても治療の前と後でそれぞれ異なるセットとして扱われる場合もあるものとする。
<ステップS430>
続いて、ステップS430において、位置合わせ部141は、ステップS420で取得された平面画像における複数のセットの各セットに対して、同一のセットに含まれるWF−SLO画像210とAO−SLO画像220との位置合わせを行う。この際、位置合わせ部141は、各セットにおける位置合わせに係る位置情報を生成する。このステップS430におけるセット内位置合わせは第1の位置合わせに相当し、また、このステップS430の詳細な処理を図5を用いて以下に説明する。
図5は、図4のステップS430におけるセット内位置合わせ処理の詳細な処理手順の一例を示すフローチャートである。
≪ステップS431≫
まず、ステップS431において、位置合わせ部141は、AO−SLO画像もしくはWF−SLO画像のフレーム間位置合わせを行う。上述したように、AO−SLO画像は32枚、WF−SLO画像は14枚の画像により構成されている。これらの画像は被検眼の網膜上の同一の位置を撮影しているが、被検眼の固視微動のために位置ずれや画像内歪みが生じている。このため、フレーム間の位置合わせを行い、歪みや位置ズレを補正する必要がある。このようなフレーム内の位置ズレや歪みは、広い範囲を撮影しているWF−SLO画像に比べて、撮影範囲の狭いAO−SLO画像により大きな影響がある。このため、AO−SLO画像の場合についての処理手順を説明する。
まず、32フレームの中から最も歪みの少ないフレームを選択して基準フレームとし、その後、基準フレームに対してそれ以外のフレームの位置合わせを行う。この基準フレームの選択は、ユーザが行うこともできるし、画質指標等を用いて自動で行うこともできる。基準フレームに、それ以外のフレームの位置合わせをする方法としては複数の方法が知られているが、ここでは位相限定相関法を用いた位置合わせを用いる。網膜を撮影したAO−SLO画像には、ランドマークとなるような特徴物を画像内に含まない場合が多いため、視細胞の配置情報からでも精度の高い位置合わせが可能な手法を用いる必要があるためである。
具体的には、位置合わせ部141は、基準フレーム以外のフレームを1枚選択し(以下、選択したフレームを「現フレーム」と称する)、基準フレームと現フレームの全体で位相限定相関法を用いて並行移動量を算出する。次いで、位置合わせ部141は、並行移動した状態で基準フレームと現フレームの重なる領域を求め、その領域内に複数の小領域を設定する。ここでは、位置合わせ部141は、64ピクセル×64ピクセルの小領域を縦横6個ずつ、合計36個設定する。そして、位置合わせ部141は、それぞれの小領域に対応する基準フレーム、現フレームに含まれる画像に対して、再び位相限定相関法を用いて、小領域間の位置ズレ(並行移動量)を求める。そして、位置合わせ部141は、36箇所の並行移動を最適化するアフィン変換を求めて、現フレームに適応する。さらに、位置合わせ部141は、アフィン変換で求められた各小領域の変形と、上記で求めた並行移動量に差異がある場合にはその微修正も行い、得られた情報に基づき位置を修正した画像を生成する。そして、位置合わせ部141は、上述した処理を基準フレーム以外の全31フレームに対して行うことにより、基準フレームに位置合わせされたAO−SLO画像(以下、「位置合わせ済みAO−SLO画像」と称する)を取得する。さらに、位置合わせ部141は、WF−SLO画像に関しても、AO−SLOと同様の手法により、位置合わせ済みWF−SLO画像を取得する。
≪ステップS432≫
続いて、ステップS432において、位置合わせ部141は、位置合わせ済みAO−SLO画像を用いた重ね合わせ画像(以下、「重ね合わせAO−SLO画像」と称する)を生成する。具体的に、位置合わせ部141は、基準フレームの各画素(400ピクセル×400ピクセル)に対して、対応する各フレームの画素値を積算して平均値を取得する。ここで、位置合わせ部141は、あるピクセルに対しては、位置ずれにより対応する画素が存在しないフレームも存在するため、対応する画素値をもつ画素のみで平均値を求める。また、位置合わせ部141は、WF−SLO画像に関しても、AO−SLO画像と同様の手法により、重ね合わせWF−SLO画像を生成する。
≪ステップS433≫
続いて、ステップS433において、位置合わせ部141は、ステップS432で取得した同一のセットの重ね合わせWF−SLO画像と重ね合わせAO−SLO画像との間で位置合わせを行う。そして、位置合わせ部141は、それぞれのAO−SLO画像のWF−SLO画像上での位置に係る位置情報を取得する。
ステップS431のフレーム間位置合わせと異なり、ここでは、解像度の異なる画像間での位置合わせが必要となる。この場合、位置合わせは、解像度が近い画像同士の方が高精度となるため、まずは重ね合わせWF−SLO画像と、最も解像度の低いL画角の重ね合わせAO−SLO画像との位置合わせを行い、L画角のAO−SLO画像のWF−SLO画像に対応する位置情報を取得する。その後、重ね合わせWF−SLO画像の対応する位置にL画角の重ね合わせAO−SLO画像をはめ込んだ合成画像を生成する。
同一のセット内に複数のWF−SLO画像が存在する場合には、位置合わせ部141は、基準となるWF−SLO画像(以下、「基準WF−SLO画像」と称する)を決め、その重ね合わせWF−SLO画像に対して、L画角の重ね合わせAO−SLO画像の位置合わせを行う。そして、位置合わせ部141は、全てのL画角の重ね合わせAO−SLO画像を、前のステップで生成した合成画像に対して位置合わせをし、対応する位置にはめ込んで合成画像を更新する。L画角の重ね合わせAO−SLO画像の対応付けが終了したら、次に解像度の低いM画角の重ね合わせAO−SLO画像を、L画角の場合と同様に処理して合成画像を更新する。その後、S画角の重ね合わせAO−SLO画像の位置合わせも同様に行う。
位置合わせには複数の手法があるが、このステップS433でも、ステップS431と同様、位相限定相関法を用いて位置合わせを行う。但し、解像度の異なる画像間での位置合わせに対応するために、全ての平面画像(重ね合わせWF−SLO画像及びL画角,M画角,S画角の重ね合わせAO−SLO画像)をL画角と同じ4.25μ/ピクセルの解像度に揃える。具体的には、M画角,S画角の重ね合わせAO−SLO画像の場合は、それぞれ2.07倍、5倍にダウンサンプリングし、重ね合わせWF−SLO画像の場合は約3.5倍にアップサンプリングする。さらに、画角によるコントラストの違いを調整するために、ローパス・フィルタやハイパス・フィルタによる前処理を行う。
以上のステップS431〜S433の処理を、ステップS420で取得した全てのセットに対して行うことで各セット内での位置合わせを行い、図7のステップS430の処理が終了する。
ここでは、経時比較を行う際に平面画像の複数のセットを取得し、それぞれのセット内での位置合わせを行う場合について説明した。しかしながら、実際には、各セットを取得した際に、同一のセット内で画像の閲覧や解析を行う目的で、画像間の位置合わせを行う場合がある。その場合には、ステップS433の処理が完了した状態でその情報がデータベース500に保存されているため、ステップS420で平面画像のセットを取得する際に同時にステップS430で行う位置合わせの情報も取得し、ステップS430の処理は行わない。
<ステップS440>
続いて、ステップS440において、位置合わせ部141は、ステップS420で取得された平面画像における複数のセット間の位置合わせを行うために、各セットの基準WF−SLO画像同士の位置合わせを行う。この際、位置合わせ部141は、各セットの基準WF−SLO画像同士の位置合わせに係る位置情報を生成する。このステップS440におけるセット間位置合わせは第2の位置合わせに相当する。
ここで、位置合わせ部141は、同一の被検眼に対して経時的に取得された複数のセットの中で、基準となるセットを選択する(以下、選択したセットを「ベースライン・セット」と称する)。このベースライン・セットは、経時比較の基準となるセットであり、同一の被検眼に対して取得された平面画像のセットのうちの最も新しいセットを選択する場合もあれば、最も古いセットを選択する場合もある。或いは、ユーザが疾病等の進行に合わせて選択することも可能である。
上述した基準WF−SLO画像同士の位置合わせは、ベースライン・セットに含まれる基準WF−SLO画像(以下、「ベースラインWF−SLO画像」と称する)に対し、各平面画像セットの基準WF−SLO画像の位置関係を取得することにより行われる。具体的に、位置合わせ部141は、ベースラインWF−SLO画像と、1つのセットの基準WF−SLO画像のそれぞれから400ピクセル×400ピクセルの領域を切り出し、それぞれの画像の輝度ヒストグラムの平均値・分散が同じとなるようにコントラスト調整した後、位相限定相関法を用いて並行移動量を取得する。そして、位置合わせ部141は、同様の処理を全ての平面画像セットの基準WF−SLO画像に対して行い、ベースライン・セットに対する、各セットの相対位置(並行移動量)を取得する。そして、位置合わせ部141は、取得した複数のセットの相対位置を、制御部130を介して、記憶部150に記憶する。
<ステップS450>
続いて、ステップS450において、重畳部142は、ステップS430における同一のセット内の位置合わせ(第1の位置合わせ)の結果と、ステップS440における複数のセット間の位置合わせ(第2の位置合わせ)の結果に基づき、全てのAO−SLO画像をベースラインWF−SLO上に重畳させて、重畳画像を生成する。その後、制御部130は、重畳部142で生成された重畳画像を、出力部160を介して、表示装置に表示させる制御を行う。
ここで、重畳画像は、視細胞解析の対象となる画角の画像のみを用いて生成するものとする。本実施形態においては、解析対象となるのはS画角のみであるため、S画角のみを用いた重畳画像を生成する場合について説明する。
まず、重畳部142は、ステップS420で取得された平面画像の複数のセットのうちのベースライン・セットに含まれるS画角のAO−SLO画像について、ステップS433で求めた各重ね合わせAO−SLO画像の、ベースラインWF−SLO画像に対する相対位置情報を取得する。ここで、ベースライン・セットでは、ステップS433の基準WF−SLO画像がベースラインWF−SLO画像と一致するため、ステップS433で取得した位置情報をそのまま用いることができる。
次いで、重畳部142は、ステップS420で取得された平面画像の複数のセットのうちのベースライン・セット以外のセットに含まれるS画角のAO−SLO画像について、ステップS440で取得した相対位置情報と、ステップS433で取得した相対位置情報を取得する。具体的に、重畳部142は、ベースラインWF−SLO画像と各セットの基準WF−SLO画像との相対位置情報をステップS440で取得し、基準WF−SLO画像と各重ね合わせAO−SLO画像との相対位置情報をステップS443で取得する。そして、重畳部142は、これらの相対位置情報を用いて、ベースラインWF−SLO画像と各重ね合わせAO−SLO画像との相対位置情報を取得する。本実施形態では、ベースラインWF−SLO画像と各セットの基準WF−SLO画像との相対位置としては並行移動位置のみを取得し、アフィン変換から取得した回転やせん断等のパラメータは考慮していないが、これらを考慮しても良い。
次いで、重畳部142は、対象とする全S画角の重ね合わせAO−SLO画像の、ベースラインWF−SLO画像に対する位置情報に基づき、例えば画像の重なり枚数の量を反映して画素値を変化させた重畳画像を生成する。具体的に、重畳部142は、重畳画像を生成する際に、まず、S画角の重ね合わせAO−SLO画像の位置情報からその画像が存在するベースラインWF−SLO画像上の領域を求め、各画素に対してその上に重畳されるAO−SLO画像の枚数を取得する。次に、ベースラインWF−SLO画像の輝度値を表示用に変換する。変換の方法は複数存在するが、ここではベースラインWF−SLO画像の最大輝度値と最低輝度値を取得し、その差を255分割して画素の深度(depth)を8ビットとする。このような変換を行った場合、ベースラインWF−SLO画像の最低輝度値は0、最大輝度値は255となる。その後、重畳部142は、画素値が0の場合(重畳されるAO−SLO画像は無し)にはベースラインWF−SLO画像の対応する画素の変換された輝度値を設定し、画素値が0以外の場合には重畳枚数を反映した輝度値を設定する。例えば、重畳部142は、全S画角の重ね合わせAO−SLO画像の枚数がN枚の場合、ある画素に存在するS画角の重ね合わせAO−SLO画像の枚数がMであったとき、その輝度値Iを以下の(1)式のように設定する。
ここで、Iの値の決め方には様々な方法が考えられる。例えば、Nを全S画角の重ね合わせAO−SLO画像の枚数ではなく、画素上で重畳されるAO−SLO画像の枚数の最大値とすることもができる。また,Nをあらかじめ決められた枚数(例えば30枚)とし、MがNよりも大きくなる場合には、Iをdepthとする方法も考えられる。
図6は、本発明の第1の実施形態を示し、図4のステップS450で生成される重畳画像600の一例を模式的に示す図である。この図6に示す重畳画像600では、グレースケールで重ね合わせAO−SLO画像の枚数のみを反映する例を示したが、この方法以外にも様々な方法が考えられる。例えば、重ね合わせAO−SLO画像の枚数の多さをカラー表示することも可能である。さらに、例えば、重ね合わせAO−SLO画像が含まれるセットごとに色をかえて重畳画像を生成することも可能である。
そして、制御部130は、重畳部142で生成された重畳画像を、記憶部150に記憶する制御を行うとともに、出力部160を通じて外部の表示装置400に表示する制御を行う。
<ステップS460>
続いて、ステップS460において、情報取得部120は、情報入力装置300からユーザが選択した経時評価領域を取得する処理を行う。そして、情報取得部120は、取得した経時評価領域を、制御部130を介して、記憶部150に記憶する。ここで、経時評価領域とは、例えば、ステップS450において表示装置400に表示された重畳画像上で、ユーザがマウス等を用いて経時評価を行う領域として選択した領域のことである。より具体的には、ユーザが、表示装置400に表示された重畳画像上の1点をクリックすることで、その座標として取得することも可能であるし、もしくは重畳画像上で領域を指定し選択することも可能である。さらに、ユーザの入力によらずとも、重畳画像の中から自動的に経時評価領域を取得することも可能である。例えば、情報取得部120は、重畳画像上で重畳枚数が最も多い領域を経時評価領域として取得したり、異なる平面画像のセットに属する画像の重畳枚数が最も多い領域を経時評価領域として取得したりすることも可能である。さらに、情報取得部120は、そのように枚数を数える場合に、各画像のコントラスト等の画質で重みをつけて、画質が所定の閾値よりも高い画像の枚数が多い領域を経時評価領域として取得することも可能である。
<ステップS470>
続いて、ステップS470において、画像選択部143は、ステップS432で生成された全S画角の重ね合わせAO−SLO画像の中から、ステップS460で取得された経時評価領域を含む重ね合わせAO−SLO画像を選択する。その後、制御部130は、画像選択部143で選択された重ね合わせAO−SLO画像の群の一覧を、出力部160を通じて外部の表示装置400に表示する制御を行う。
さらに、画像選択部143は、ステップS460で取得された経時評価領域を含む重ね合わせAO−SLO画像の群の中から、経時解析のための詳細位置合わせを行う画像群(以下、「経時解析対象AO−SLO画像群」と称する)を選択する。この選択は、ユーザが選択することもできるし、アルゴリズムによって画像選択部143が自動選択することも可能である。例えば、ユーザが選択する場合、表示された経時評価領域を含む全重ね合わせAO−SLO画像の群の一覧から、ユーザが撮影日や画質等を考慮して経時解析対象AO−SLO画像群を選択する態様を採る。また、画像選択部143が自動選択する場合、各撮影日ごとに最も画質の高い画像を選択したり、各撮影日ごとに、ステップS460で取得された経時評価領域をより中心に含む画像を基準画像として選択したりする態様を採る。そして、画像選択部143は、選択した経時解析対象AO−SLO画像群を、制御部130を介して、記憶部150に記憶する。
<ステップS480>
続いて、ステップS480において、位置合わせ部141は、ステップS470で選択された経時解析対象AO−SLO画像群間の詳細な位置合わせを行う。この際、位置合わせ部141は、経時解析対象AO−SLO画像群の位置合わせに係る位置情報を生成する。このステップS480における詳細位置合わせは第3の位置合わせに相当する。
ここでは、詳細な位置合わせの手法として、ステップS430におけるセット内位置合わせと同様の位相限定相関法を用いた場合について説明する。但し、位置合わせには複数の手法があり、この手法に限定されるものではない。
具体的に、ステップS480では、位置合わせ部141は、まず、経時解析対象AO−SLO画像群の中から、基準となる画像(以下、「基準AO−SLO画像」と称する)を選択する。この基準AO−SLO画像の選択は、ユーザが観察したい対象に応じて選択する構成でも良いし、ソフトウェアにより自動で選択する構成としても良い。自動選択の具体例としては、コントラストが高い等、画質が所定の閾値よりも高い画像を選択し、ステップS460で取得された経時評価領域をより中心に含む画像を選択する。
次いで、位置合わせ部141は、経時解析対象AO−SLO画像群に含まれる基準AO−SLO画像以外の画像を、基準AO−SLO画像に対して位置合わせする。ここでは、ステップS431のフレーム間位置合わせと同様の方法を用いるが、経時解析対象AO−SLO画像間の画像を調整するための前処理を行う。その理由は、フレーム間位置合わせの場合は1秒間に取得された32フレーム同士の位置合わせのために画像の性質が似ているのに対して、経時解析対象AO−SLO画像群は経時的に取得された重ね合わせ画像であるために画質にばらつきがあるという特徴による。
ここでの前処理としては、視細胞観察によく用いられるLOGによるコントラスト調整を行う。より具体的に、各画像の輝度のヒストグラムを求め、その上下0.5%の輝度値をカットした輝度の最高値及び最低値をそれぞれImax及びIminとする。そして、LOGによるコントラスト調整では、各画素の輝度値Iを以下の(2)式のように変更する。
ここで、(2)式に示すIprocessedは、調整後の画素値である。また、(2)式に示すInormは、輝度の最大値が画素の深さ(16bitもしくは8bit等)で許される最大値となるように規格化する定数であり、(3)式のように示されるものである。また、(2)式及び(3)式に示すaは、LOGによるコントラスト調整で用いるパラメータであり、値が小さいほど調整が大きくなる。本実施形態では、aの範囲として適した100〜5000の範囲の中から、5000を選択する。
このような前処理を施した後、位置合わせ部141は、ステップS431と同様の方法で位置合わせを行い、経時解析対象AO−SLO画像群に対して、位置合わせ済み経時解析対象AO−SLO画像群を生成する。また、位置合わせ部141は、詳細位置合わせがうまくいかなかった場合(例えば位相限定相関の相関ピークが閾値以下となる場合等)に、どの段階で失敗したかをエラーフラッグ情報として取得する。そして、位置合わせ部141は、こうして生成した位置合わせ済み経時解析対象AO−SLO画像群及び位置合わせ結果の情報を、制御部130を介して、記憶部150に記憶する。
<ステップS490−1>
続いて、ステップS490−1において、領域抽出部144は、ステップS480における詳細な位置合わせの結果得られた位置合わせ済み経時解析対象AO−SLO画像群において共通に含まれる領域である共通領域を抽出する。
<ステップS490−2>
続いて、ステップS490−2において、制御部130は、ステップS480で得られた位置合わせ済み経時解析対象AO−SLO画像群及びその位置合わせ結果の情報とともにステップS490−2で抽出された共通領域を表示装置400に表示する制御を行う。
図7は、本発明の第1の実施形態を示し、位置合わせ済み経時解析対象AO−SLO画像群等の表示例を模式的に示す図である。この図7には、位置合わせ済み経時解析対象AO−SLO画像群711〜714を並べて表示すると同時に、共通領域720が示されている。
さらに、詳細位置合わせの段階で取得したエラーフラッグ情報等を表示する領域730が、各画像に付加されている。具体的に、図7には、当該画像が基準AO−SLO画像の場合(「reference」と表示)、詳細位置合わせはできたが基準AO−SLO画像に対して移動量が大きい画像の場合(「large displacement」と表示)が記載される例を示している。
ここで、移動量が大きい画像の場合を解析対象から除く理由は、これらの画像を含めると、共通領域720の大きさが極端に小さくなってしまうからである。本実施形態では、画像の中心位置が基準AO−SLO画像の中心から40%以上離れた場合には解析対象外とする。また、ステップS480で取得されたエラーフラッグ情報の中で、画像全体での並行移動までは処理が進むが、それ以降のアフィン変換等の歪み補正部分でエラーとなった画像の場合には、並行移動のみという表示(「shift」と表示)を行っている。これは、この画像は概略の位置はあっているが、視細胞1つ1つのレベルでの位置合わせはできておらず、選択領域内の視細胞密度の比較等は可能であるが、個別の視細胞が回復もしくは消失したか否かを判断するレベルではないことを示している。
制御部130は、こうして得られた位置合わせ済み経時解析対象AO−SLO画像群及びその位置合わせ結果の情報並びに共通領域720を、記憶部150に記憶する制御を行うとともに、出力部160を通じて外部の表示装置400に表示する制御を行う。同時に、出力部160は、取得した情報等をデータベース500に出力して保存する。なお、不図示ではあるが、表示された各AO−SLO画像の近傍には、それぞれの撮影日時等に関する情報が共に表示されている。
ステップS490の処理が終了すると、図4に示すフローチャートの処理が終了する。
第1の実施形態に係る画像処理装置100では、経時的に取得したAO−SLO画像を相互に位置合わせして基準となるWF−SLO画像上に重畳させて重畳画像を生成するようにしている。
かかる構成によれば、例えばAO−SLO画像が経時的に繰り返し撮影されている領域を把握することができるため、被検眼の眼底における経時比較を効率良く行うことができる。さらに、例えば、AO−SLO画像が繰り返し撮影されている領域周辺から画像を選択して詳細な位置合わせを行うことにより、多くの画像について経時比較を行うことが可能となる。
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
第1の実施形態では、経時的に取得したAO−SLO画像を相互に位置合わせして基準となるWF−SLO画像上に重畳させて重畳画像を生成して表示し、当該重畳画像に基づき撮影されている枚数が多い領域を経時評価領域として取得する方法について説明した。さらに、第1の実施形態では、複数のAO−SLO画像から、経時評価領域を含むAO−SLO画像を選択し、それらの詳細な位置合わせを行って実際に重なる共通領域を抽出して表示する方法についても説明した。
第2の実施形態では、第1の実施形態においてステップS480の詳細な位置合わせが行われた経時解析対象AO−SLO画像群に対し、各画像の共通領域を抽出して、周期構造の評価及び視細胞検出等の解析を行う方法について説明する。
第2の実施形態に係る眼科装置の概略構成は、図1に示す第1の実施形態に係る眼科装置10の概略構成と同様であるため、その説明は省略する。
[画像処理装置100の処理手順]
図8は、本発明の第2の実施形態に係る画像処理装置100による画像処理方法の処理手順の一例を示すフローチャートである。ここで、図8に示すフローチャートの「開始」の段階で、図4に示すステップS410〜S490−1までの処理が終了しているものとする。
<ステップS810>
図4に示すステップS410〜S490−1の処理を経た後、ステップS810において、解析部145は、まず、ステップS480で得られた位置合わせ済み経時解析対象AO−SLO画像群と、ステップS490−1で抽出された共通領域の情報をデータベース500から取得する。そして、解析部145は、各位置合わせ済み経時解析対象AO−SLO画像から、共通領域として抽出された領域の空間周波数変換画像を生成する。
具体的には、まず、共通領域の幅及び高さよりも大きく、2のN乗となる整数を画像サイズとする正方形の画像領域を設定し、その中心に上記抽出領域を置く。これを空間周波数変換用抽出画像と呼び、ここではその大きさを512ピクセル×512ピクセルとする。このとき、共通領域の全画素値の平均値を求め、その平均値を共通領域の各画素値から引き算し、共通領域に相当しない画素値は0とする。さらに、共通領域の境界部分の不連続性による影響を防ぐため、窓関数による処理を行う。ここでは、大きさ8ピクセルのHann窓を用いる。こうして生成した各周波数変換用抽出画像にFFT処理(高速フーリエ変換)を行い、各画素値をFFTの振幅の大きさとしたパワースペクトル画像を生成する。ここで、パワースペクトル画像は、視細胞の周期を反映したリング状の構造をもつことが知られているため、パワースペクトル画像からリングの半径を求め、そこから視細胞の周期を概算する。リングの半径を求める手法は複数存在するが、ここではパワースペクトル画像の画像中心を原点とし、角度方向にパワースペクトル画像の画素値を積算し、動径方向で前記積算値が最も大きな値となる箇所を、リングの半径とする。
パワースペクトル画像の各画素値の値は、対応する方向の視細胞の周期の構造がどの程度の強度で存在するかを示しているが、ここでは視細胞の配置に関して特定の方向を考慮しないため、方向に関する角度成分を積算し、周期構造の大きさのみに着眼している。上述した方法により求めたパワースペクトル画像上のリング半径をrとすると、このときの視細胞間距離Lは、以下の(4)式に示すように概算できる。
ここで、パワースペクトル画像のサイズ(image_size)は上述したように512ピクセル×512ピクセルであり、ピクセルのサイズ(pixel_size)はS画角のAO−SLO画像の場合に0.85μ/ピクセルである。
そして、全ての位置合わせ済み経時解析対象AO−SLO画像の共通領域が同じ画像である場合には、視細胞間距離Lは全てのパワースペクトル画像で同じとなるが、実際には画像ごとに視細胞間距離Lの値は異なるものとなる。これは、疾病の進行により視細胞密度が変化した等の臨床的変化が正しく反映されている場合と、位置合わせの失敗により等しい領域が選択されていない場合や、画質の劣化やフォーカス位置のずれにより正しい画像が取得できていない場合に分けられる。但し、疾病の進行により視細胞の消失が起こった場合でも、視細胞間距離Lが均一に大きくなるように再配置されるのではなく、影響を受けた視細胞のみが消失しそれ以外の視細胞には大きな変化はみられない場合が多いことが知られている。そのため、視細胞間距離Lの値が大きく変化している画像にはなんらかの課題(位置合わせ失敗や撮影時の失敗等)を示唆する場合が多い。よって、視細胞間距離Lの値、もしくは視細胞間距離Lの値を用いて算出した指標等をユーザに提示することで、解析結果の妥当性をユーザに示すことが可能となる。
そして、制御部130は、解析部145でこのようにして取得した共通領域の視細胞間距離Lの情報を、記憶部150に記憶する制御を行うとともに、出力部160を通じて外部の表示装置400に表示する制御を行う。同時に、出力部160は、視細胞間距離Lの情報をデータベース500に出力して保存する。ここで、視細胞間距離Lもしくは視細胞間距離Lに基づく指標のユーザへの提示の仕方は複数考えられるが、例えば図7のコメント領域(図7の730)への提示等が適切である。
<ステップS820>
続いて、ステップS820において、解析部145は、ステップS810で取得した、各位置合わせ済み経時解析対象AO−SLO画像の共通領域に対応する視細胞間距離Lのうち、基準AO−SLO画像に対応する視細胞間距離に基づき、視細胞検出を行う。ここで、視細胞検出の方法は複数知られているが、例えば画像の輝度値の局所的最大値を検出する方法が知られている。この方法では、視細胞間距離に相当する大きさよりも近い距離に検出された2点は融合処理によって合体させられる。このときのパラメータとして、視細胞間距離Lを用いることが考えられる。但し、視細胞の配置にはゆらぎがあるため、視細胞間距離L以下の距離の2点全てを融合するとほとんどの検出点が融合してしまうため、本実施形態では0.6L以下の2点を融合するものとする。そして、制御部130は、解析部145においてこのようにして取得された、各位置合わせ済み経時解析対象AO−SLO画像の共通領域で検出された検出点の座標情報を、記憶部150に記憶する制御を行う。
<ステップS830>
続いて、ステップS830において、解析部145は、ステップS820で取得した検出点の座標情報に基づき、ボロノイ解析等を行い、視細胞の配置に関する指標を抽出する。そして、制御部130は、解析部145においてこのようにして取得された視細胞の配置に関する指標情報を、記憶部150に記憶する制御を行う。
<ステップS840>
続いて、ステップS840において、制御部130は、ステップS820で取得した視細胞の検出結果や、ステップS830で取得した解析結果を、出力部160を通じて外部の表示装置400に表示する制御を行う。この際、制御部130は、各位置合わせ済み経時解析対象AO−SLO画像の共通領域間で、経時的な解析結果の差を比較可能となるように比較表示する制御を行う。
ここで、解析結果の比較表示は、共通領域全域での比較結果を表示することもできるし、共通領域内でユーザが選択した選択領域においてのみ比較表示することも可能である。具体的には、選択された領域内で算出した視細胞密度やボロノイの六角形率等の指標の経時的変化を、一覧表もしくはグラフ等でユーザに比較表示することができる。また、選択領域内の検出点が、異なる日時に取得された画像内での検出点と一致するか否かを、表示する検出点の色を変えることで示すこともできる。
さらに、ボロノイ解析の結果取得された指標を比較することで表示を変えることもできる。例えば、最近接距離(NND)の値の変化率に応じて検出点の色やボロノイ領域の色を変えて比較表示したり、ボロノイ領域の面積の差や頂点数の差、偏心率等の形状を示す指標の差の変化に応じて比較表示したりすることが可能となる。また、密度の等高線表示に替えて、密度の差やボロノイ領域のヘキサゴン率等の差を等高線表示することもできる。この場合に、変化の少ない領域と変化の大きな領域を明示することで、疾病がどの領域で進行しているかを直観的に把握することが可能となる。
ステップS840の処理が終了すると、図8に示すフローチャートの処理が終了する。
第2の実施形態によれば、上述した第1の実施形態における効果に加えて、以下の効果を奏する。即ち、経時的に取得した画像を用いて疾病の進行等の状態を比較したい場合に、詳細に位置合わせを行った同一撮影領域間で、視細胞の状態を反映する解析指標を取得して比較し、その比較結果が一覧できるように表示することが可能となる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記憶媒体は、本発明に含まれる。
なお、上述した本発明の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
10 眼科装置、100 画像処理装置、110 画像取得部、120 情報取得部、130 制御部、140 画像処理部、141 位置合わせ部、142 重畳部、143 画像選択部、144 領域抽出部、145 解析部、150 記憶部、160 出力部、200 撮影装置、300 情報入力装置、400 表示装置、500 データベース

Claims (17)

  1. 被検眼の眼底における所定の大きさの領域を撮影することにより得られた第1の画像と、前記被検眼の眼底における領域であって前記所定の大きさの領域よりも狭い領域を撮影することにより得られた第2の画像とを、撮影時期に基づくセットごとに対応付けて取得する画像取得手段と、
    同一の前記セットを構成する前記第1の画像と前記第2の画像との位置合わせである第1の位置合わせと、異なる複数の前記セットに含まれる前記第1の画像のそれぞれの位置合わせである第2の位置合わせとを行って、前記第1の位置合わせ及び前記第2の位置合わせに係る位置情報を生成する位置合わせ手段と、
    前記位置合わせ手段で生成された位置情報に基づいて、先に取得された前記セットである第1のセットに含まれる前記第2の画像と前記第1のセットよりも後に取得された前記セットである第2のセットに含まれる前記第2の画像とを、前記第1のセットに含まれる前記第1の画像または前記第2のセットに含まれる前記第1の画像に重畳させて、重畳画像を生成する重畳手段と、
    を有することを特徴とする画像処理装置。
  2. 前記画像取得手段は、前記セットごとに複数の前記第2の画像を取得するものであり、
    前記重畳画像は、前記第1のセットに含まれる前記第2の画像と前記第2のセットに含まれる前記第2の画像との重なり枚数を反映した画素値を持つことを特徴とする請求項1に記載の画像処理装置。
  3. 前記画像取得手段は、前記セットごとに複数の前記第2の画像を取得するものであり、
    前記重畳画像は、前記第1のセットに含まれる前記第2の画像と前記第2のセットに含まれる前記第2の画像との、各セットごとの重なり枚数を反映した画素値を持つことを特徴とする請求項1に記載の画像処理装置。
  4. 前記重畳画像の中から、経時評価を行う領域である経時評価領域を取得する領域取得手段と、
    前記経時評価領域を含む前記第2の画像の群の中から、詳細な位置合わせを行う前記第2の画像の群を選択する画像選択手段と、
    前記位置合わせ手段は、前記画像選択手段で選択された前記第2の画像の群における詳細な位置合わせである第3の位置合わせを更に行うものであり、前記第3の位置合わせが行われた前記第2の画像の群において共通に含まれる領域である共通領域を抽出する領域抽出手段と、
    前記第3の位置合わせが行われた前記第2の画像の群とともに、前記共通領域と前記第3の位置合わせの結果とを表示装置に表示する制御を行う制御手段と、
    を更に有することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記領域取得手段は、前記重畳画像において、前記第2の画像の重なり枚数が最も多い領域を前記経時評価領域として取得することを特徴とする請求項4に記載の画像処理装置。
  6. 前記領域取得手段は、前記重畳画像において、異なる前記セットに含まれる前記第2の画像の重なり枚数が最も多い領域を前記経時評価領域として取得することを特徴とする請求項4に記載の画像処理装置。
  7. 前記領域取得手段は、前記重畳画像において、画質を考慮した前記第2の画像の重なり枚数が最も多い領域を前記経時評価領域として取得することを特徴とする請求項4に記載の画像処理装置。
  8. 前記位置合わせ手段は、前記第3の位置合わせを行う際に、前記画像選択手段で選択された前記第2の画像の群の中から、前記経時評価領域をより中心に含む第2の画像を基準画像として選択することを特徴とする請求項4乃至7のいずれか1項に記載の画像処理装置。
  9. 前記重畳画像の中から、経時評価を行う領域である経時評価領域を取得する領域取得手段と、
    前記経時評価領域を含む前記第2の画像の群の中から、詳細な位置合わせを行う前記第2の画像の群を選択する画像選択手段と、
    前記位置合わせ手段は、前記画像選択手段で選択された前記第2の画像の群における詳細な位置合わせである第3の位置合わせを更に行うものであり、前記第3の位置合わせが行われた前記第2の画像の群において共通に含まれる領域である共通領域を抽出する領域抽出手段と、
    前記共通領域について前記被検眼の視細胞を解析する解析手段と、
    前記解析手段による解析の結果を表示装置に表示する制御を行う制御手段と、
    を更に有することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  10. 前記解析手段は、前記視細胞を解析する際に、前記共通領域について前記視細胞の周期構造に基づく指標を取得し、前記指標に基づいて前記視細胞の検出と前記視細胞の配置を解析することを特徴とする請求項9に記載の画像処理装置。
  11. 前記制御手段は、前記第3の位置合わせが行われた前記第2の画像の群における各第2の画像の前記共通領域の間で、前記解析手段による解析の結果を前記表示装置に比較表示する制御を行うことを特徴とする請求項9または10に記載の画像処理装置。
  12. 前記制御手段は、前記解析手段による前記視細胞の検出結果の差を前記比較表示する制御を行うことを特徴とする請求項11に記載の画像処理装置。
  13. 前記解析手段は、ボロノイ解析を用いて前記視細胞の配置を解析するものであり、
    前記制御手段は、前記ボロノイ解析の結果の差を前記比較表示する制御を行うことを特徴とする請求項11に記載の画像処理装置。
  14. 前記ボロノイ解析の結果の差は、前記ボロノイ解析による各検出点における最近接距離の差、前記ボロノイ解析によるボロノイ領域の頂点数の差、前記ボロノイ領域の面積の差、及び、前記ボロノイ領域の形状の差のうちの少なくともいずれかであることを特徴とする請求項13に記載の画像処理装置。
  15. 前記制御手段は、前記解析手段による密度の差またはヘキサゴン率の差を前記表示装置に等高線表示させることにより前記比較表示する制御を行うことを特徴とする請求項11に記載の画像処理装置。
  16. 被検眼の眼底における所定の大きさの領域を撮影することにより得られた第1の画像と、前記被検眼の眼底における領域であって前記所定の大きさの領域よりも狭い領域を撮影することにより得られた第2の画像とを、撮影時期に基づくセットごとに対応付けて取得する画像取得ステップと、
    同一の前記セットを構成する前記第1の画像と前記第2の画像との位置合わせである第1の位置合わせと、異なる複数の前記セットに含まれる前記第1の画像のそれぞれの位置合わせである第2の位置合わせとを行って、前記第1の位置合わせ及び前記第2の位置合わせに係る位置情報を生成する位置合わせステップと、
    前記位置合わせステップで生成された位置情報に基づいて、先に取得された前記セットである第1のセットに含まれる前記第2の画像と前記第1のセットよりも後に取得された前記セットである第2のセットに含まれる前記第2の画像とを、前記第1のセットに含まれる前記第1の画像または前記第2のセットに含まれる前記第1の画像に重畳させて、重畳画像を生成する重畳ステップと、
    を有することを特徴とする画像処理方法。
  17. 請求項16に記載の画像処理方法における各ステップをコンピュータに実行させるためのプログラム。
JP2015241565A 2015-12-10 2015-12-10 画像処理装置、画像処理方法及びプログラム Pending JP2017104343A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015241565A JP2017104343A (ja) 2015-12-10 2015-12-10 画像処理装置、画像処理方法及びプログラム
US15/372,243 US10176614B2 (en) 2015-12-10 2016-12-07 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015241565A JP2017104343A (ja) 2015-12-10 2015-12-10 画像処理装置、画像処理方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020079364A Division JP2020124569A (ja) 2020-04-28 2020-04-28 画像処理装置、画像処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2017104343A true JP2017104343A (ja) 2017-06-15

Family

ID=59020699

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015241565A Pending JP2017104343A (ja) 2015-12-10 2015-12-10 画像処理装置、画像処理方法及びプログラム

Country Status (2)

Country Link
US (1) US10176614B2 (ja)
JP (1) JP2017104343A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019037655A (ja) * 2017-08-28 2019-03-14 株式会社トプコン 眼科装置、及びその制御方法
JP2019037646A (ja) * 2017-08-28 2019-03-14 株式会社トプコン 眼科装置
JP2020124569A (ja) * 2020-04-28 2020-08-20 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2020162926A (ja) * 2019-03-29 2020-10-08 株式会社ニデック 眼科撮影装置、および、眼科用画像処理プログラム
JP2022507811A (ja) * 2018-11-21 2022-01-18 ユニバーシティ オブ ワシントン 遠隔眼科学における網膜テンプレート合致のためのシステムおよび方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101915843B1 (ko) * 2016-06-29 2018-11-08 한국과학기술원 복굴절 매질을 이용한 영상 깊이 추정 방법 및 장치
CN107713981A (zh) * 2017-10-09 2018-02-23 上海睦清视觉科技有限公司 一种ai眼科健康检测设备及其检测方法
CN109146813B (zh) * 2018-08-16 2022-03-11 广州视源电子科技股份有限公司 一种多任务图像重建方法、装置、设备和介质
CN109767459B (zh) * 2019-01-17 2022-12-27 中南大学 新型眼底图配准方法
TWI829923B (zh) * 2019-04-30 2024-01-21 安盟生技股份有限公司 影像對準方法及其系統

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012016620A (ja) * 2011-10-24 2012-01-26 Topcon Corp 眼底観察装置
JP2014128367A (ja) * 2012-12-28 2014-07-10 Canon Inc 画像処理装置
JP2015008841A (ja) * 2013-06-27 2015-01-19 株式会社ニデック 画像処理装置および画像処理プログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4869756B2 (ja) 2006-03-24 2012-02-08 株式会社トプコン 眼底観察装置
JP5061380B2 (ja) * 2007-03-23 2012-10-31 株式会社トプコン 眼底観察装置、眼科画像表示装置及びプログラム
JP5436076B2 (ja) * 2009-07-14 2014-03-05 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP5845608B2 (ja) 2011-03-31 2016-01-20 株式会社ニデック 眼科撮影装置
DE102012022058A1 (de) * 2012-11-08 2014-05-08 Carl Zeiss Meditec Ag Flexibles, multimodales Retina-Bildaufnahme- und Messsystem
EP2749204B1 (en) * 2012-12-28 2016-03-16 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP6349878B2 (ja) * 2014-03-31 2018-07-04 株式会社ニデック 眼科撮影装置、眼科撮影方法、及び眼科撮影プログラム
JP6354979B2 (ja) * 2014-03-31 2018-07-11 株式会社ニデック 眼底撮影装置
JP6438216B2 (ja) 2014-05-22 2018-12-12 キヤノン株式会社 画像生成装置および画像生成方法
JP6566541B2 (ja) * 2014-11-26 2019-08-28 株式会社トプコン 眼科装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012016620A (ja) * 2011-10-24 2012-01-26 Topcon Corp 眼底観察装置
JP2014128367A (ja) * 2012-12-28 2014-07-10 Canon Inc 画像処理装置
JP2015008841A (ja) * 2013-06-27 2015-01-19 株式会社ニデック 画像処理装置および画像処理プログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019037655A (ja) * 2017-08-28 2019-03-14 株式会社トプコン 眼科装置、及びその制御方法
JP2019037646A (ja) * 2017-08-28 2019-03-14 株式会社トプコン 眼科装置
JP2022507811A (ja) * 2018-11-21 2022-01-18 ユニバーシティ オブ ワシントン 遠隔眼科学における網膜テンプレート合致のためのシステムおよび方法
JP2020162926A (ja) * 2019-03-29 2020-10-08 株式会社ニデック 眼科撮影装置、および、眼科用画像処理プログラム
JP7318272B2 (ja) 2019-03-29 2023-08-01 株式会社ニデック 眼科撮影装置、および、眼科用画像処理プログラム
JP2020124569A (ja) * 2020-04-28 2020-08-20 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
US10176614B2 (en) 2019-01-08
US20170169596A1 (en) 2017-06-15

Similar Documents

Publication Publication Date Title
JP2017104343A (ja) 画像処理装置、画像処理方法及びプログラム
JP5297415B2 (ja) 眼科装置及び眼科方法
US9619874B2 (en) Image processing apparatus and image processing method
JP6115007B2 (ja) 眼科画像処理装置及びプログラム
JP5404358B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2012030054A (ja) 眼科装置、眼科システム及び記憶媒体
JP6207225B2 (ja) 画像処理装置及び画像処理方法
JP6128841B2 (ja) 画像処理装置
JP2017046975A (ja) 眼科撮影装置及び眼科撮影プログラム
JP2017046976A (ja) 眼科撮影装置及び眼科撮影プログラム
JP5998493B2 (ja) 眼科画像処理装置及びプログラム
JP6241091B2 (ja) 画像処理装置および画像処理プログラム
JP6187751B2 (ja) 画像処理プログラム
JP2020124569A (ja) 画像処理装置、画像処理方法及びプログラム
JP5634587B2 (ja) 画像処理装置、画像処理方法、及びプログラム
EP3781014B1 (en) Post-processing method to improve lso-based tracking in oct
JP6419249B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6061975B2 (ja) 眼科装置、眼科装置の作動方法、及びプログラム
JP6410498B2 (ja) 眼科装置及びその制御方法
JP5726229B2 (ja) 眼科装置及び眼科方法
JP6720267B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2018202237A (ja) 画像処理装置およびその制御方法
JP6319615B2 (ja) 画像処理プログラム
JP2022038751A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2016049183A (ja) 眼科装置及びその制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191107

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200128