JPWO2012026597A1 - 画像処理装置および方法 - Google Patents

画像処理装置および方法 Download PDF

Info

Publication number
JPWO2012026597A1
JPWO2012026597A1 JP2012530745A JP2012530745A JPWO2012026597A1 JP WO2012026597 A1 JPWO2012026597 A1 JP WO2012026597A1 JP 2012530745 A JP2012530745 A JP 2012530745A JP 2012530745 A JP2012530745 A JP 2012530745A JP WO2012026597 A1 JPWO2012026597 A1 JP WO2012026597A1
Authority
JP
Japan
Prior art keywords
image
unit
alignment
subject
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012530745A
Other languages
English (en)
Other versions
JP6167518B2 (ja
Inventor
一樹 相坂
一樹 相坂
小林 誠司
誠司 小林
拓哉 岸本
拓哉 岸本
大月 知之
知之 大月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2012026597A1 publication Critical patent/JPWO2012026597A1/ja
Application granted granted Critical
Publication of JP6167518B2 publication Critical patent/JP6167518B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/15Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing
    • A61B3/152Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing for aligning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/0402Arrangements not specific to a particular one of the scanning methods covered by groups H04N1/04 - H04N1/207
    • H04N2201/0414Scanning an image in a series of overlapping zones

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)

Abstract

本技術は、画像処理装置および方法に関し、特に、被写体への負荷の増大を抑制しながら、より高画質な被写体の撮像画像を得ることができるようにした画像処理装置および方法に関する。撮像部は、光量を落として眼の眼底を複数回撮像し、複数枚の眼底画像を生成する。生体情報位置合わせ処理部は、被写体の生体情報を用いて、眼底画像の位置合わせを行う。超解像処理部は、前回の超解像結果画像に、位置合わせされた入力画像を重ね合わせ、新たな超解像結果画像を生成する。超解像処理部は、その超解像結果画像を記憶部に記憶させたり、出力部より出力させたりするとともに、超解像結果画像バッファに供給し、記憶させる。本技術は、例えば、画像処理装置に適用することができる。

Description

本技術は、画像処理装置および方法に関し、特に、被写体への負荷の増大を抑制しながら、より高画質な被写体の撮像画像を得ることができるようにした画像処理装置および方法に関する。
従来、瞳孔を通じて眼球内の網膜や視神経乳頭等の眼底を観察する、所謂眼底検査が行われている。
眼底検査は、例えば、眼底鏡や眼底カメラといった専用の装置を用いて行われる。例えば、観察者は、観察対象である、被験者の眼球内の眼底を、眼底カメラで撮像し、得られた撮像画像をモニタ等に表示し、観察を行う。
この観察をより正確に行うためには、眼底の撮像画像(眼底画像)を高画質化する必要がある。
眼底画像を高画質化する方法として、例えば、眼底を撮像する際に、眼底に照射する光量を増加させることが考えられる。
また、眼底を撮像して得られた撮像画像に対して画像処理を行うことにより、高画質な眼底画像を得ることが考えられる。
例えば、特許文献1には、複数枚の眼底画像からノイズリダクションを行う方法が記載されている。また、例えば、特許文献2には、周期的なパターンを照射して高解像度画像を得る方法が記載されている。さらに、例えば、特許文献3にも、複数枚の眼底画像からノイズリダクションを行う方法が記載されている。また、非特許文献1には、Wavefront sensingとWiener Filterを組み合わせたボケ除去方法が記載されている。
特開2010−110392号公報 特開2008−272489号公報 特開平09−253052号公報
"Hybrid technique for high resolution imaging of the eye fundus", Justo Arines and Salvador Bara, 2003
しかしながら、撮像時に被験者の眼底により多くの光量を照射すると、被験者に与える負荷が増大してしまい、観察対象に対して不要な影響を及ぼしたり、被験者の心理的な負担を増大させたりする恐れがあった。また、撮像時に被験者の眼底により多くの光量を照射されることにより、被験者が、所謂、眩しいと感じ、瞼を閉じたり、動いたりしてしまい、高画質な撮像画像を得ることが出来ない恐れがあった。
また、特許文献1に記載の方法では、位置ずれを表示し、ユーザにずれを補正してもらう必要があった。また、この方法はノイズ除去に関する方法であり、この方法で輪郭を強調させることは困難であった。
さらに、特許文献2に記載の方法では、撮像時に、互いに異なるパターンで光が照射され、その情報が利用されるので、各照射において光量を落とすことが困難であった。
また、特許文献3に記載の方法は、ノイズ除去に関する方法であり、この方法で輪郭を強調させることは困難であった。
さらに非特許文献1に記載の方法は、画像のボケ除去に関する処理であり、この方法で輪郭を強調させることは困難であった。
本技術は、このような状況に鑑みてなされたものであり、被写体への負荷の増大を抑制しながら、より高画質な被写体の撮像画像を得ることを目的とする。
本技術の第1の側面は、被写体の生体情報を用いて、前記被写体を撮像する撮像部により得られた複数の撮像画像において前記被写体の位置を合わせるように位置合わせを行う位置合わせ部と、前記位置合わせ部により位置合わせが行われた前記撮像画像を重ね合わせることにより、前記撮像画像よりもダイナミックレンジが大きな前記被写体の画像を生成する重ね合わせ部とを備える画像処理装置である。
前記重ね合わせ部は、前記撮像画像と、前記重ね合わせにより生成される前記被写体の画像との間の動きベクトルを検出する検出部と、前記検出部により検出された前記動きベクトルを用いて、前記被写体の画像に動き補償を行う動き補償部と、前記動き補償部により動き補償が行われた前記被写体の画像から前記撮像画像を減算する減算部と、前記検出部により検出された前記動きベクトルを用いて、前記減算部による前記被写体の画像と前記撮像画像との差分値に、前記動き補償部による動き補償とは逆方向に、動き補償を行う逆方向動き補償部と、前記逆方向動き補償部により動き補償が行われた前記差分値を、前記被写体の画像に加算する加算部とを備えることができる。
前記重ね合わせ部は、前記動き補償部により動き補償が行われた前記被写体の画像をダウンサンプリングし、前記被写体の解像度を前記撮像画像の解像度に落とすダウンサンプリング部と、前記減算部による前記被写体の画像と前記撮像画像との差分値をアップサンプリングし、前記差分値の解像度を前記被写体の画像の解像度まであげるアップサンプリング部とをさらに備え、前記減算部は、前記ダウンサンプリング部によりダウンサンプリングされた前記被写体の画像から前記撮像画像を減算し、前記検出部により検出された前記動きベクトルを用いて、前記逆方向動き補償部は、前記アップサンプリング部によりアップサンプリングされた前記差分値に、前記動き補償部による動き補償とは逆方向に、動き補償を行うことができる。
前記位置合わせ部は、前記撮像部により得られた撮像画像における前記被写体の位置を前回生成された前記被写体の画像における前記被写体の位置に合わせるように、前記位置合わせを行い、前記重ね合わせ部は、前記位置合わせ部により位置合わせが行われた前記撮像画像を、前回生成された前記被写体の画像に1枚ずつ重ね合わせることにより、前記複数の撮像画像を重ね合わせた、前記撮像画像よりもダイナミックレンジが大きな前記被写体の画像を生成することができる。
前記被写体は眼底であり、前記位置合わせ部は、前記生体情報として血管を用いることができる。
前記位置合わせ部は、前記生体情報としてさらに前記血管の交叉点を用いることができる。
前記位置合わせ部により位置合わせが行われた前記撮像画像の点拡がり関数を推定する推定部と、前記推定部により推定された前記拡がり関数を用いて前記撮像画像のボケを除去する除去部とをさらに備え、前記重ね合わせ部は、前記位置合わせ部により位置合わせが行われ、前記除去部により前記ボケが除去された前記撮像画像を、前回生成された前記被写体の画像に1枚ずつ重ね合わせることにより、前記複数の撮像画像を重ね合わせた、前記撮像画像よりもダイナミックレンジが大きな前記被写体の画像を生成することができる。
前記撮像部は、比較的暗い照射光を前記被写体に照射しながら前記被写体を複数回撮像することができる。
本技術の第1の側面は、また、画像処理装置の画像処理方法であって、位置合わせ部が、被写体の生体情報を用いて、前記被写体を撮像する撮像部により得られた複数の撮像画像において前記被写体の位置を合わせるように位置合わせを行い、重ね合わせ部が、位置合わせが行われた前記撮像画像を重ね合わせることにより、前記撮像画像よりもダイナミックレンジが大きな前記被写体の画像を生成する画像処理方法である。
本技術の第2の側面は、被写体を撮像する撮像部により得られた複数の撮像画像を互いに重ね合わせる重ね合わせ部と、前記重ね合わせ部により複数の撮像画像が重ね合わされて生成された撮像画像を前記被写体の生体情報に応じて階調補正する階調補正部とを備える画像処理装置である。
前記階調補正部は、前記撮像画像の階調補正に用いるトーンカーブを算出するためのパラメータの値を、前記被写体の生体情報に応じて決定するパラメータ決定部を備えることができる。
前記パラメータ決定部は、前記撮像画像の階調補正に用いるトーンカーブを算出するためのパラメータの値を所定の方法で調整する調整部と、前記調整部により値が調整された前記パラメータを用いて前記撮像画像を補正する補正部と、前記撮像画像に含まれる生体としての部位毎に、各部位の画像の特徴に応じた方法で、前記補正部により補正された前記撮像画像である補正後の撮像画像を検査する部位別検査部と、前記補正後の撮像画像が前記部位別検査部により行われる検査に合格する場合、前記補正部により補正される前の前記撮像画像である補正前の撮像画像の明るさと、前記補正後の撮像画像の明るさとを比較する比較部と、前記調整部による調整、前記補正部による補正、前記部位別検査部による検査、および前記比較部による比較が繰り返し行われ、前記比較部により前記補正後の撮像画像が前記補正前の撮像画像よりも明るくないと判定された場合、前記パラメータの値を、決定された値として出力する出力部とを備えることができる。
前記パラメータ決定部は、前記撮像画像を解析し、前記撮像画像に含まれる生体としての部位を認識する部位認識部をさらに備え、前記部位別検査部は、前記部位認識部により認識された各部位毎に検査を行うことができる。
前記パラメータ決定部は、前記撮像画像の明るさを示す明るさ値を算出する明るさ値算出部をさらに備え、前記比較部は、前記明るさ値算出部により算出される、前記補正前の撮像画像の明るさ値と、前記補正後の撮像画像の明るさ値とを比較することができる。
前記パラメータ決定部は、前記調整部により調整を行う調整対象パラメータを複数のパラメータの中から選択するパラメータ選択部をさらに備えることができる。
前記パラメータ決定部は、前記撮像画像を解析し、前記撮像画像に含まれる生体としての部位を認識する部位認識部をさらに備え、前記補正部は、前記部位認識部により認識された各部位の画像を補正し、前記部位別検査部は、前記補正部により補正された各部位の画像を検査し、前記比較部は、各部位の画像の、前記補正部による補正前の明るさと補正後の明るさとを比較することができる。
前記階調補正部により階調補正された前記撮像画像を高解像度化する高解像度化部をさらに備えることができる。
前記高解像度化部は、前記階調補正部により階調補正された前記撮像画像を前記被写体の生体情報に応じて高解像度化することができる。
本技術の第2の側面においては、また、画像処理装置の画像処理方法であって、重ね合わせ部が、被写体を撮像する撮像部により得られた複数の撮像画像を互いに重ね合わせ、階調補正部が、複数の撮像画像が重ね合わされて生成された撮像画像を前記被写体の生体情報に応じて階調補正する画像処理方法である。
本技術の第3の側面は、被写体を撮像する撮像部により得られた複数の撮像画像を互いに重ね合わせる重ね合わせ部と、前記重ね合わせ部により複数の撮像画像が重ね合わされて生成された撮像画像を前記被写体の生体情報に応じて高解像度化する高解像度化部とを備える画像処理装置である。
前記高解像度化部は、前記撮像画像に対して、学習により解像度を向上させる超解像処理を、複数種類の学習辞書のそれぞれについて行い、高解像度の撮像画像である超解像結果画像を複数生成する超解像処理部と、前記超解像処理部により各学習辞書を用いて超解像処理されて生成された各超解像結果画像を、前記超解像結果画像に含まれる生体としての部位毎に、各部位の画像の特徴に応じた方法で、評価する部位別画像評価部と、前記部位別画像評価部による評価に基づいて、前記複数の超解像結果画像の中から最適な超解像結果画像を選択する画像選択部とを備えることができる。
前記高解像度化部は、前記超解像結果画像を解析し、前記超解像結果画像に含まれる生体としての部位を認識する部位認識部をさらに備え、前記部位別画像評価部は、各超解像結果画像を、前記部位認識部により認識された部位毎に、各部位の画像の特徴に応じた方法で評価することができる。
前記重ね合わせ部により複数の撮像画像が重ね合わされて生成された撮像画像を階調補正する階調補正部をさらに備え、前記高解像度化部は、前記階調補正部により階調補正された前記撮像画像を、前記被写体の生体情報に応じて高解像度化することができる。
前記階調補正部は、前記重ね合わせ部により複数の撮像画像が重ね合わされて生成された撮像画像を前記被写体の生体情報に応じて階調補正することができる。
本技術の第3の側面は、また、画像処理装置の画像処理方法であって、重ね合わせ部が、被写体を撮像する撮像部により得られた複数の撮像画像を互いに重ね合わせ、高解像度化部が、複数の撮像画像が重ね合わされて生成された撮像画像を前記被写体の生体情報に応じて高解像度化する画像処理方法である。
本技術の第4の側面は、被写体の生体情報を用いて、前記被写体を撮像する撮像部により得られた複数の赤外光画像において前記被写体の位置を合わせるように位置合わせを行う赤外光画像位置合わせ部と、前記赤外光画像位置合わせ部による位置合わせの結果である位置合わせ情報を記憶する位置合わせ情報記憶部と、前記位置合わせ情報記憶部に記憶された前記位置合わせ情報を用いて、前記撮像部により得られた複数の可視光画像において前記被写体の位置を合わせるように位置合わせを行う可視光画像位置合わせ部と、前記可視光位置合わせ部により位置合わせが行われた前記可視光画像を重ね合わせることにより、前記可視光画像よりもダイナミックレンジが大きな前記被写体の画像を生成する重ね合わせ部とを備える画像処理装置である。
前記撮像部は、所定の光量の可視光と前記所定の光量よりも高い光量の赤外光とを含む照射光を前記被写体に照射しながら前記被写体を複数撮像することができる。
前記赤外光画像位置合わせ部は、前記撮像部により得られた赤外光画像における前記被写体の位置を、前記撮像部により得られた前記複数の赤外光画像のうちの、最初に得られた前記赤外光画像における前記被写体の位置に合わせるように、前記位置合わせを行い、前記重ね合わせ部は、前記可視光画像位置合わせ部により位置合わせが行われた前記可視光画像を、前回生成された前記被写体の画像に1枚ずつ重ね合わせることにより、前記複数の可視光画像を重ね合わせた、前記可視光画像よりもダイナミックレンジが大きな前記被写体の画像を生成することができる。
前記被写体は眼底であり、前記赤外光画像位置合わせ部は、前記生体情報として血管を用いることができる。
前記赤外光画像位置合わせ部は、前記生体情報としてさらに前記血管の交叉点を用いることができる。
本技術の第4の側面は、また、画像処理装置の画像処理方法であって、赤外光画像位置合わせ部が、被写体の生体情報を用いて、前記被写体を撮像する撮像部により得られた複数の赤外光画像において前記被写体の位置を合わせるように位置合わせを行い、位置合わせ情報記憶部が、前記赤外光画像位置合わせ部による位置合わせの結果である位置合わせ情報を記憶し、可視光画像位置合わせ部が、前記位置合わせ情報記憶部に記憶された前記位置合わせ情報を用いて、前記撮像部により得られた複数の可視光画像において前記被写体の位置を合わせるように位置合わせを行い、重ね合わせ部が、前記可視光位置合わせ部により位置合わせが行われた前記可視光画像を重ね合わせることにより、前記可視光画像よりもダイナミックレンジが大きな前記被写体の画像を生成する画像処理方法である。
本技術の第5の側面は、被写体の生体情報を用いて、前記被写体を撮像する撮像部により得られた複数の赤外光画像において前記被写体の位置を合わせるように位置合わせを行う赤外光画像位置合わせ部と、前記赤外光画像位置合わせ部による位置合わせの結果である位置合わせ情報を記憶する位置合わせ情報記憶部と、前記位置合わせ情報記憶部に記憶された前記位置合わせ情報を用いて、前記撮像部により得られた複数の可視光画像において前記被写体の位置を合わせるように位置合わせを行う可視光画像位置合わせ部と、前記可視光位置合わせ部により位置合わせが行われた複数の前記可視光画像を互いに重ね合わせる重ね合わせ部と、前記重ね合わせ部により複数の前記可視光画像が重ね合わされて生成された可視光画像を前記被写体の生体情報に応じて階調補正する階調補正部とを備える画像処理装置である。
前記撮像部は、所定の光量の可視光と前記所定の光量よりも高い光量の赤外光とを含む照射光を前記被写体に照射しながら前記被写体を複数撮像することができる。
前記階調補正部により階調補正された前記可視光画像を高解像度化する高解像度化部をさらに備えることができる。
前記高解像度化部は、前記階調補正部により階調補正された前記可視光画像を前記被写体の生体情報に応じて高解像度化することができる。
前記被写体は眼底であり、前記赤外光画像位置合わせ部は、前記生体情報として血管を用いることができる。
前記赤外光画像位置合わせ部は、前記生体情報としてさらに前記血管の交叉点を用いることができる。
本技術の第5の側面は、また、画像処理装置の画像処理方法であって、赤外光画像位置合わせ部が、被写体の生体情報を用いて、前記被写体を撮像する撮像部により得られた複数の赤外光画像において前記被写体の位置を合わせるように位置合わせを行い、位置合わせ情報記憶部が、前記赤外光画像位置合わせ部による位置合わせの結果である位置合わせ情報を記憶し、可視光画像位置合わせ部が、前記位置合わせ情報記憶部に記憶された前記位置合わせ情報を用いて、前記撮像部により得られた複数の可視光画像において前記被写体の位置を合わせるように位置合わせを行い、重ね合わせ部が、前記可視光位置合わせ部により位置合わせが行われた複数の前記可視光画像を重ね合わせ、階調補正部が、前記重ね合わせ部により複数の前記可視光画像が重ね合わされて生成された可視光画像を前記被写体の生体情報に応じて階調補正する画像処理方法である。
本技術の第6の側面は、被写体を撮像する撮像部と、ネットワークを介して、前記撮像部により得られた複数の撮像画像を取得し、取得した前記複数の撮像画像に対して画像処理を施す画像処理部と、前記画像処理部により画像処理が施された前記撮像画像を記憶する記憶部と、前記記憶部に記憶された前記撮像画像を出力する出力部を備える診断システムである。
前記画像処理部は、前記被写体の生体情報を用いて、前記複数の撮像画像において前記被写体の位置を合わせるように位置合わせを行う位置合わせ部と、前記位置合わせ部により位置合わせが行われた前記撮像画像を重ね合わせることにより、前記撮像画像よりもダイナミックレンジが大きな前記被写体の画像を生成する重ね合わせ部とをさらに備えることができる。
前記画像処理部は、前記撮像部により得られた複数の撮像画像を互いに重ね合わせる重ね合わせ部と、前記重ね合わせ部により複数の撮像画像が重ね合わされて生成された撮像画像を前記被写体の生体情報に応じて階調補正する階調補正部とをさらに備えることができる。
前記画像処理部は、前記階調補正部により階調補正された前記撮像画像を高解像度化する高解像度化部をさらに備えることができる。
前記撮像部は、所定の光量の可視光と前記所定の光量よりも高い光量の赤外光とを含む照射光を前記被写体に照射しながら前記被写体を複数撮像し、前記画像処理部は、被写体の生体情報を用いて、前記撮像部により得られた複数の赤外光画像において前記被写体の位置を合わせるように位置合わせを行う赤外光画像位置合わせ部と、前記赤外光画像位置合わせ部による位置合わせの結果である位置合わせ情報を記憶する位置合わせ情報記憶部と、前記位置合わせ情報記憶部に記憶された前記位置合わせ情報を用いて、前記撮像部により得られた複数の可視光画像において前記被写体の位置を合わせるように位置合わせを行う可視光画像位置合わせ部と、前記可視光位置合わせ部により位置合わせが行われた前記可視光画像を重ね合わせることにより、前記可視光画像よりもダイナミックレンジが大きな前記被写体の画像を生成する重ね合わせ部とをさらに備えることができる。
前記撮像部は、所定の光量の可視光と前記所定の光量よりも高い光量の赤外光とを含む照射光を前記被写体に照射しながら前記被写体を複数撮像し、前記画像処理部は、被写体の生体情報を用いて、前記撮像部により得られた複数の赤外光画像において前記被写体の位置を合わせるように位置合わせを行う赤外光画像位置合わせ部と、前記赤外光画像位置合わせ部による位置合わせの結果である位置合わせ情報を記憶する位置合わせ情報記憶部と、前記位置合わせ情報記憶部に記憶された前記位置合わせ情報を用いて、前記撮像部により得られた複数の可視光画像において前記被写体の位置を合わせるように位置合わせを行う可視光画像位置合わせ部と、前記可視光位置合わせ部により位置合わせが行われた複数の前記可視光画像を重ね合わせる重ね合わせ部と、前記重ね合わせ部により複数の前記可視光画像が重ね合わされて生成された可視光画像を前記被写体の生体情報に応じて階調補正する階調補正部とをさらに備えることができる。
前記被写体は眼底とすることができる。
本技術の第1の側面においては、被写体の生体情報を用いて、被写体を撮像する撮像部により得られた複数の撮像画像において被写体の位置を合わせるように位置合わせが行われ、得られた複数の撮像画像が、位置を合わせながら重ね合わせられ、撮像画像よりもダイナミックレンジが大きな被写体の画像が生成される。
本技術の第2の側面においては、被写体を撮像する撮像部により得られた複数の撮像画像が互いに重ね合わせられ、複数の撮像画像が重ね合わされて生成された撮像画像が、前記被写体の生体情報に応じて階調補正される。
本技術の第3の側面においては、被写体を撮像する撮像部により得られた複数の撮像画像が互いに重ね合わせられ、複数の撮像画像が重ね合わされて生成された撮像画像が、被写体の生体情報に応じて高解像度化される。
本技術の第4の側面においては、被写体の生体情報を用いて、被写体を撮像する撮像部により得られた複数の赤外光画像において被写体の位置を合わせるように位置合わせが行われ、位置合わせの結果である位置合わせ情報が記憶され、位置合わせ情報を用いて、複数の可視光画像において被写体の位置を合わせるように位置合わせが行われ、位置合わせが行われた可視光画像が重ね合わされることにより、可視光画像よりもダイナミックレンジが大きな被写体の画像が生成される。
本技術の第5の側面においては、被写体の生体情報を用いて、被写体を撮像する撮像部により得られた複数の赤外光画像において被写体の位置を合わせるように位置合わせが行われ、位置合わせの結果である位置合わせ情報が記憶され、位置合わせ情報を用いて、複数の可視光画像において被写体の位置を合わせるように位置合わせが行われ、位置合わせが行われた複数の可視光画像が互いに重ね合わされ、複数の可視光画像が重ね合わされて生成された可視光画像が被写体の生体情報に応じて階調補正される。
本技術の第6の側面においては、被写体が撮像され、ネットワークを介して、複数の撮像画像が取得され、取得された複数の撮像画像に対して画像処理が施され、画像処理が施された撮像画像が記憶され、記憶された撮像画像が出力される。
本技術によれば、画像を処理することができる。特に、被写体への負荷の増大を抑制しながら、より高画質な被写体の撮像画像を得ることができる。
本技術を適用した眼底画像処理装置の主な構成例を示すブロック図である。 眼底画像生成処理の流れの例を説明したフローチャートである。 本技術を適用した眼底画像処理装置の他の構成例を示すブロック図である。 全体の処理の流れの例を説明する図である。 生体情報位置合わせ処理部の主な構成例を示すブロック図である。 生体情報を使った位置合わせの処理の流れの例を説明する図である。 血管位置合わせ処理部の主な構成例を示すブロック図である。 血管位置合わせ処理の流れの例を説明する図である。 超解像処理部の主な構成例を示すブロック図である。 超解像処理の流れの例を説明する図である。 血管画像を用いたPSF推定処理の流れの例を説明する図である。 眼底画像生成処理の流れの例を説明するフローチャートである。 生体情報位置合わせ処理の流れの例を説明するフローチャートである。 血管位置合わせ処理の流れの例を説明するフローチャートである。 超解像処理の流れの例を説明するフローチャートである。 本技術を適用した眼底画像処理装置の、さらに他の構成例を示すブロック図である。 全体の処理の流れの例を説明する図である。 トーンリプロダクション処理部の主な構成例を示すブロック図である。 トーンカーブの例を説明する図である。 パラメータ決定部の主な構成例を示すブロック図である。 超解像処理部の主な構成例を示すブロック図である。 眼底画像生成処理の流れの他の例を説明するフローチャートである。 トーンリプロダクション処理の流れの例を説明するフローチャートである。 パラメータ決定処理の流れの例を説明するフローチャートである。 超解像処理の流れの例を説明するフローチャートである。 パラメータ決定部の他の構成例を示すブロック図である。 パラメータ決定処理の流れの他の例を説明するフローチャートである。 第4の実施の形態の概要について説明する図である。 本技術を適用した眼底画像処理装置の、さらに他の構成例を示すブロック図である。 撮像部の主な構成例を示す図である。 画像処理部による処理の流れについて説明する図である。 赤外光画像位置合わせ処理部の主な構成例を示すブロック図である。 血管位置合わせ処理部の主な構成例を示すブロック図である。 眼底画像生成処理の流れの他の例を説明するフローチャートである。 眼底画像処理装置の他の構成例を示すブロック図である。 眼底画像生成処理の流れの他の例を説明するフローチャートである。 眼底画像生成処理の流れの他の例を説明するフローチャートである。 眼底画像生成処理の流れの他の例を説明するフローチャートである。 血管位置合わせ処理の流れの他の例を説明する。 眼底画像生成処理の流れの他の例を説明するフローチャートである。 遠隔診察システムの構成例について説明する図である。 遠隔診察処理の流れの例について説明するフローチャートである。 本技術を適用したパーソナルコンピュータの主な構成例を示すブロック図である。
以下、本技術を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(眼底画像処理装置)
2.第2の実施の形態(眼底画像処理装置)
3.第3の実施の形態(眼底画像処理装置)
4.第4の実施の形態(眼底画像処理装置)
5.第5の実施の形態(眼底画像処理装置)
6.第6の実施の形態(遠隔診断システム)
7.第7の実施の形態(パーソナルコンピュータ)
<1.第1の実施の形態>
[眼底画像処理装置の構成]
図1は、本技術を適用した眼底画像処理装置の主な構成例を示すブロック図である。図1に示される眼底画像処理装置100は、観察対象である被験者の、眼球内の網膜や視神経乳頭等の眼底を撮像し、その撮像画像である眼底の画像(眼底画像)を得る装置である。
眼底画像処理装置100は、被写体(被験者の眼底)への負荷の増大を抑制するために、被写体に照射する光量を抑制して撮像を行う。また、眼底画像処理装置100は、より高画質な眼底画像を得るために、撮像を複数回行い、複数の撮像画像を得、それらを用いて超解像処理を行う。
眼底画像処理装置100は、撮像部101、画像処理部102、記憶部103、および出力部104を有する。
撮像部101は、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を用いた撮像素子を有し、所定の位置の被験者の眼底を撮像する。撮像部101は、被験者の眼底を撮像し、眼底画像を得ることが出来るのであれば、どのようなものであってもよい。ただし、撮像部101は、より高画質な眼底画像を得るために、撮像の際に被写体に光を照射する機能を有する。
一般的に、より高画質な眼底画像を得るためには、照射する光(照射光)の光量を増大させる(より強い照射光を照射し、眼底をより明るくする)ことが望ましいが、単に照射光の光量を増大させると被写体への負荷を増大させ、観察対象に対して不要な影響を及ぼしたり、被験者の心理的な負担を増大させたりする恐れがあった。また、被験者が、所謂、眩しいと感じ、瞼を閉じたり、動いたりしてしまい、結果として高画質な眼底画像を得ることが出来ない恐れがあった。
そこで撮像部101は、照射光の光量を増大させる代わりに、複数回撮像を行う。つまり、撮像部101は、照射光を低光量で照射させながら眼底の撮像を複数回繰り返す。したがって撮像部101は、撮像により得られる各眼底画像をできるだけ互いに近似させることができるように、できるだけ短時間に複数回撮像することができる方が望ましい。
このような撮像により得られる各眼底画像は、照射光が弱い(暗い)ため、低画質である。撮像部101は、このように得られた複数の低画質な眼底画像を画像処理部102に供給する。
画像処理部102は、撮像部101から供給される複数の低画質な眼底画像を用いて、1枚の、より高画質な眼底画像を生成し、それを記憶部103に記憶させたり、出力部104から出力させたりする。
記憶部103は、例えば、ハードディスク、フラッシュメモリ、若しくは、RAM(Random Access Memory)等の任意の記憶媒体を有し、画像処理部102から供給される、より高画質な眼底画像を記憶する。記憶部103に記憶された眼底画像は、図示せぬ再生部等により読み出され、出力部104に表示されたり、他の装置に伝送されたり、図示せぬ画像処理部により画像処理されたりする。
出力部104は、CRT(Cathode Ray Tube)ディスプレイやLCD(Liquid Crystal Display)等の任意のモニタ、または、出力端子等を有し、画像処理部102から供給される眼底画像を、そのモニタに表示したり、眼底画像処理装置100の外部の装置に出力したりする。
図1に示されるように、画像処理部102は、入力画像バッファ111、超解像処理部112、SR(Super Resolution)画像バッファ113、および演算部114を有する。
入力画像バッファ111は、例えばハードディスク、フラッシュメモリ、若しくは、RAM等の任意の記憶媒体を有し、撮像部101から供給される、複数の低画質な眼底画像(撮像画像)を入力画像として保持し、その各入力画像を、所定のタイミングでLR(Low Resolution)画像として超解像処理部112に供給する。
[超解像処理部の構成]
超解像処理部112は、例えば、特開2009−093676号公報(以下、特許文献4と称する)に記載の超解像処理器と同様の超解像処理を行う。すなわち、超解像処理部112は、入力画像バッファ111から供給されるLR画像と、SR画像バッファ113から供給される、過去に生成したSR画像とを用いて、新たなSR画像を生成するためのフィードバック値を算出して出力する超解像処理を再帰的に繰り返す。超解像処理部112は、超解像処理結果として、算出したフィードバック値を演算部114に供給する。
SR画像バッファ113は、例えばハードディスク、フラッシュメモリ、若しくは、RAM等の任意の記憶媒体を有し、生成されたSR画像を保持し、そのSR画像を所定のタイミングで超解像処理部112や演算部114に供給する。
演算部114は、超解像処理部112から供給されるフィードバック値を、SR画像バッファ113から供給される、過去に生成したSR画像に加算することにより、新たなSR画像を生成する。演算部114は、生成した、新たなSR画像をSR画像バッファ113に供給して保持させ、そのSR画像を次の超解像処理(新たなSR画像の生成)に利用させる。また、演算部114は、生成したSR画像を、記憶部103に供給して記憶させたり、出力部104に供給して表示させたり、外部の装置等に出力させたりする。
図1に示されるように、超解像処理部112は、動きベクトル検出部121、動き補償部122、ダウンサンプリングフィルタ123、演算部124、アップサンプリングフィルタ125、および逆方向動き補償部126を有する。
SR画像バッファ113から読み出されたSR画像は動きベクトル検出部121と動き補償部122に供給され、入力画像バッファ111から読み出されたLR画像は動きベクトル検出部121と演算部124に供給される。
動きベクトル検出部121は、入力されたSR画像とLR画像に基づいて、SR画像を基準とした動きベクトルを検出し、検出した動きベクトルを動き補償部122と逆方向動き補償部126に供給する。
動き補償部122は、動きベクトル検出部121から供給された動きベクトルに基づいてSR画像に動き補償を施し、動き補償を施して得られた画像をダウンサンプリングフィルタ123に供給する。動き補償を施して得られた画像に写るオブジェクトの位置は、LR画像に写るオブジェクトの位置に近い位置になる。
ダウンサンプリングフィルタ123は、動き補償部122から供給された画像をダウンサンプリングすることによってLR画像と同じ解像度の画像を生成し、生成した画像を演算部124に供給する。
このように、SR画像とLR画像から動きベクトルを求め、求めた動きベクトルによって動き補償して得られた画像をLR画像と同じ解像度の画像にすることは、撮像して得られる眼底画像(LR画像)を、SR画像バッファ113に記憶されているSR画像に基づいてシミュレートすることに相当する。
演算部124は、LR画像と、そのようにしてシミュレートされた画像の差分を表す差分画像を生成し、生成した差分画像をアップサンプリングフィルタ125に供給する。
アップサンプリングフィルタ125は、演算部124から供給された差分画像をアップサンプリングすることによってSR画像と同じ解像度の画像を生成し、生成した画像を逆方向動き補償部126に出力する。
逆方向動き補償部126は、動きベクトル検出部121から供給された動きベクトルに基づいて、アップサンプリングフィルタ125から供給された画像に逆方向の動き補償を施し、逆方向の動き補償を施して得られた画像を表すフィードバック値を演算部114に供給する。逆方向の動き補償を施して得られた画像に写るオブジェクトの位置は、SR画像バッファ113に記憶されているSR画像に写るオブジェクトの位置に近い位置になる。
画像処理部102は、超解像処理部112を用いてこのような超解像処理を入力画像バッファ111に保持させた複数の眼底画像(LR画像)のそれぞれについて行い、最終的に1枚の、より高画質なSR画像を生成する。
[眼底画像生成処理の流れ]
図2のフローチャートを参照して、このような眼底画像処理装置100により実行される眼底画像生成処理の流れの例を説明する。
より高画質な眼底画像を得るために眼底画像生成処理が開始されると、撮像部101は、ステップS101において、光量を落として複数回、被験者の眼底(被写体)を撮像する。
ステップS102において、画像処理部102は、ステップS101の処理により得られた撮像画像を入力画像バッファ111に記憶させる。ステップS103において、画像処理部102は、任意の方法で最初のSR画像である初期画像を生成し、それをSR画像バッファ113に記憶させる。例えば、画像処理部102は、最初に得られた撮像画像(LR画像)をSR画像と同じ解像度の画像にアップサンプリングすることによって初期画像を生成する。
ステップS104において、入力画像バッファ111は、保持している未処理の撮像画像(LR画像)を1枚選択し、それを超解像処理部112に供給する。動きベクトル検出部121は、ステップS105において、SR画像とLR画像とから動きベクトルを検出する。その動きベクトルを用いて、動き補償部122は、ステップS106において、SR画像に動き補償を施す。
ステップS107において、ダウンサンプリングフィルタ123は、動き補償を施したSR画像をLR画像と同じ解像度にダウンサンプリングする。ステップS108において、演算部124は、SR画像のダウンサンプリング結果と入力LR画像との差分画像を求める。
ステップS109において、アップサンプリングフィルタ125は、その差分画像をアップサンプリングする。ステップS110において、逆方向動き補償部126は、ステップS105の処理により検出された動きベクトルを用いて、差分画像のアップサンプリング結果に逆方向の動き補償を施す。
ステップS111において、演算部114は、ステップS110の処理により算出された差分画像のアップリング結果であるフィードバック値を、SR画像バッファ113により保持される過去に生成されたSR画像に加算する。画像処理部102は、ステップS112において、新たに生成されたSR画像を、記憶部103に記憶させたり、出力部104から出力させたりするとともに、SR画像バッファ113に記憶させる。
ステップS113において、入力画像バッファ111は、全ての撮像画像(LR画像)を処理したか否かを判定し、未処理の撮像画像(LR画像)が存在すると判定された場合、処理をステップS104に戻し、新たな撮像画像を処理対象として選択し、その撮像画像について、それ以降の処理を繰り返させる。
ステップS113において、撮像部101により複数回撮像され得られた複数の撮像画像の全てが処理され、1枚の、より高画質な眼底画像が得られたと判定された場合、入力画像バッファ111は、眼底画像生成処理を終了する。
このようにすることにより、眼底画像処理装置100は、眼底への照射光の光量を増大させずに、より高画質な眼底画像を得ることが出来る。つまり、眼底画像処理装置100は、被写体への負荷の増大を抑制しながら、より高画質な被写体の撮像画像を得ることができる。
以上においては、超解像処理を行うことにより、より高画質な眼底画像として、撮像画像(LR画像)よりも高解像度のSR画像を得るように説明したが、これに限らず、解像度は撮像画像と同じであっても良い。その場合、図1の眼底画像処理装置100において、ダウンサンプリングフィルタ123およびアップサンプリングフィルタ125は省略される。
基本的に、撮像部101において得られる複数の眼底画像を重ね合わせることにより、ダイナミックレンジが拡張されるので、より高画質な眼底画像が得られる。ただし、この撮像部101において得られる複数の眼底画像は、撮像が複数回行われることにより得られるものであり、互いに全く同一な画像であるとは限らない。例えば、画像の一部または全部において、位置がずれたり、変形したりすることが考えられる。したがって、単純に、これら複数の眼底画像を重ね合わせると、位置ずれ等により画像がボケたり2重になったりする恐れがあり、高画質になるとは限らない。
超解像処理部112は、動きベクトル検出部121において動き検出を行い、動き補償部122や逆方向動き補償部126により適宜動き補償を行うので、重ね合わせる画像間の差(位置ずれ等)を低減させることができる。したがって、眼底画像処理装置100は、超解像処理において解像度を上げるようにしなくても、より高画質な被写体の撮像画像を得ることが出来る。
以上の超解像処理は、任意の単位で行うことができる。例えば、撮像画像全体で行うようにしてもよいし、マクロブロックと称される所定の大きさの部分画像毎に行うようにしてもよい。
<2.第2の実施の形態>
[眼底画像処理装置の構成]
ところで、眼底画像は、基本的に画像全体が略均一な色により構成されることが多い。また、照射光の光量が落とされているので、眼底画像は比較的暗い画像である。さらに、一般的に、撮像部101による複数回の撮像は比較的短時間に、極力同条件下で行われる。したがって、画像間の動き量は比較的小さいことが多い。また、動きがある場合も、画像の一部が他の部分に比べて極端に大きく動くことは少なく、略全体が略均一に動くことが多い。
したがって、眼底画像処理装置100のように、所定の単位毎に画像を比較し、動き検出を行う方法では、動き検出が困難になる恐れがあった。
そこで、所定の領域毎に動きベクトルの検出を行う代わりに、画像全体について、被写体の生体情報を用いて画像の位置合わせを行うようにしてもよい。
図3は、その場合の、眼底画像処理装置の主な構成例を示すブロック図である。図3に示される眼底画像処理装置200は、図1の眼底画像処理装置100と同様の装置であり、基本的に眼底画像処理装置100と同様の構成を有するが、画像処理部102の代わりに画像処理部202を有する。
画像処理部202は、比較的低画質の複数の眼底画像を、被写体の生体情報を用いて位置合わせを行ってから重ね合わせを行うことにより、より高画質な1枚の眼底画像を生成する。
図3に示されるように、画像処理部202は、入力画像バッファ111、生体情報位置合わせ処理部212、超解像処理部213、および超解像結果画像バッファ214を有する。
生体情報位置合わせ処理部212は、被写体の生体情報を用いて、入力画像バッファ111から供給される眼底画像(入力画像)と、超解像結果画像バッファ214から供給される眼底画像(超解像処理部213により重ね合わせされた画像)との間で画像の位置合わせを行う。
生体情報位置合わせ処理部212は、位置合わせに利用する生体情報として、例えば、血管、神経、若しくは視神経乳頭等を用いる。もちろん、この生体情報は、任意であり、これら以外のものであってもよい。例えば、組織や細胞を被写体とし、その観察を行う場合、被写体の生体情報として、細胞やその核の形状等を画像の位置合わせに利用するようにしてもよい。また、複数種類の生体情報(例えば血管と視神経乳頭等)が用いられるようにしてもよい。
超解像処理部213は、超解像結果画像バッファ214から、過去に生成した超解像処理結果画像(超解像処理結果として得られる画像)を取得し、その超解像結果画像と、生体情報位置合わせ処理部212より位置合わせされた入力画像とを重ね合わせ、新たな超解像結果画像を生成する。超解像処理部213は、その超解像結果画像を記憶部103に記憶させたり、出力部104より出力させたりするとともに、超解像結果画像バッファ214に供給し、記憶させる。
超解像結果画像バッファ214は、例えば、ハードディスク、フラッシュメモリ、若しくは、RAM等の任意の記憶媒体を有し、超解像処理部213により生成された超解像結果画像を保持し、所定のタイミングにおいてその超解像結果画像を、生体情報位置合わせ処理部212や超解像処理部213に供給する。
つまり、撮像部101は、図1の場合と同様に、図4の四角231に示されるように、光量を落として眼221の眼底を複数回撮像し、複数枚の眼底画像222を生成する。図4の四角232に示されるように、入力画像バッファ111は、その暗くて低画質な複数枚の眼底画像222を記憶し、所定のタイミングで1枚ずつその眼底画像222を生体情報位置合わせ処理部212に提供する。
生体情報位置合わせ処理部212は、図4の四角233に示されるように、眼の情報(生体情報)を使って、その眼底画像222と超解像結果画像との位置合わせを行う。超解像処理部213は、図4の四角234に示されるように、その位置合わせされた眼底画像222(入力画像)を用いて画像の重ね合わせによる超解像処理およびハイダイナミックレンジ処理を行い、超解像結果画像を生成する。
このような位置合わせと超解像処理が繰り返されて生成された、より高解像度かつダイナミックレンジの大きな眼底画像223は、記憶部103に記憶されたり、出力部104より出力されたりする。なお、ここで高解像度とは、ボケが除去され、よりシャープな画像であることを示しており、実際に解像度が高くなくてもよい。
つまり、眼底画像処理装置200は、被写体への負荷の増大を抑制しながら、撮像により得られた撮像画像よりも高画質な(ボケが抑制され、ダイナミックレンジが大きな)眼底画像を得ることができる。
[生体情報位置合わせ処理部の構成]
図5は、図3の生体情報位置合わせ処理部212の主な構成例を示すブロック図である。図5に示されるように、生体情報位置合わせ処理部212は、入力画像血管抽出部241、超解像結果画像血管抽出部242、入力画像交叉点抽出部243、超解像結果画像交叉点抽出部244、交叉点位置合わせ処理部245、および血管位置合わせ処理部246を有する。
入力画像血管抽出部241は、図6に示されるように、入力画像バッファ111から供給される入力画像251(低画質の眼底画像)から血管の部分を抽出し(処理261)、それを血管位置合わせ処理部246に供給する。例えば、入力画像血管抽出部241は、入力画像から、“血管特徴を用いた眼底画像合成法”,田邊 勝義,壷内 鉄郎,奥田 英範,奥 雅博,2007(以下、非特許文献2と称する)に記載の方法のように、RGB成分のR成分を使って血管を抽出する。
同様に、超解像結果画像血管抽出部242は、図6に示されるように、超解像結果画像バッファ214から供給される、前回の超解像結果画像252(高画質の眼底画像)から血管の部分を抽出し(処理262)、それ(血管抽出結果253)を血管位置合わせ処理部246に供給する。
血管位置合わせ処理部246は、図6に示されるように、各画像から抽出された血管抽出結果を用いて、入力画像251と前回の超解像結果画像252との間で血管の位置合わせを行い(処理266)、その位置合わせされた入力画像254を血管抽出結果253とともに超解像処理部213に供給する。
なお、血管抽出結果(血管全体の形状や位置)による位置合わせ処理(処理266)の前に、血管の交叉点の位置による簡易的な位置合わせを行うようにしてもよい。なお、血管の交叉点とは、撮像画像において血管が交わる(実際にはねじれの位置である場合も含む)部分や、分岐する部分である。
その場合、入力画像血管抽出部241は、図6に示されるように、処理261により得られる、入力画像251(低画質の眼底画像)からの血管抽出結果を、入力画像交叉点抽出部243に供給する。
入力画像交叉点抽出部243は、図6に示されるように、入力画像血管抽出部241から供給される血管抽出結果から交叉点を抽出し(処理263)、その交叉点抽出結果を交叉点位置合わせ処理部245に供給する。
また、超解像結果画像血管抽出部242は、図6に示されるように、処理262により得られる、前回の超解像結果画像252(高画質の眼底画像)からの血管抽出結果253を、超解像結果画像交叉点抽出部244に供給する。
超解像結果画像交叉点抽出部244は、図6に示されるように、超解像結果画像血管抽出部242から供給される血管抽出結果253から交叉点を抽出し(処理264)、その交叉点抽出結果を交叉点位置合わせ処理部245に供給する。
交叉点位置合わせ処理部245は、図6に示されるように、各画像から抽出された交叉点抽出結果を用いて、入力画像251と前回の超解像結果画像252との間で交叉点の位置合わせを行う(処理265)。そしてその交叉点位置合わせ結果が血管位置合わせ処理部246に供給される。
血管位置合わせ処理部246は、交叉点位置合わせ処理部245から供給される、交叉点位置合わせ結果を初期状態とし、血管抽出結果を用いて血管を用いた入力画像の位置合わせ(処理266)を行う。つまり、交叉点位置合わせ結果にしたがって、交叉点の位置合わせと同様に位置合わせを行いながら各血管抽出結果を重畳し、それを初期状態とする。
このようにすることにより、血管位置合わせ処理部246は、交叉点を用いて簡易的に位置合わせされた状態から、位置合わせを開始することができるので、より容易かつ高速に位置合わせを行うことができる。
なお、さらに他の生体情報を用いた位置合わせを併用するようにしてもよい。例えば、最初に、視神経乳頭の位置で位置合わせを行いながら、入力画像251と前回の超解像結果画像252とを重畳し、その重畳画像を初期値として交叉点による位置合わせを行うようにしてもよい。
[血管位置合わせ処理部の構成]
次に、血管全体の位置や形状等を用いた位置合わせについて説明する。図7は、血管位置合わせ処理部246の主な構成例を示すブロック図である。図7に示されるように、血管位置合わせ処理部246は、重畳処理部271、シフト処理部272、伸ばし処理部273、回転処理部274、拡大縮小処理部275、および収束判定部276を有する。
重畳処理部271は、入力画像血管抽出部241と超解像結果画像血管抽出部242とから供給される各血管抽出結果を重畳する。交叉点による位置合わせを行う場合、重畳処理部271は、交叉点位置合わせ処理部245から供給される交叉点位置合わせ結果を用いて、交叉点の位置合わせと同様の位置合わせを行いながら、各血管抽出結果を重畳する。重畳処理部271は、重畳結果をシフト処理部272に供給する。
なお、血管位置合わせ処理部246は、図8に示されるように、入力画像血管抽出部241から供給される、入力画像から抽出された血管抽出結果291を基準(Source)とし、超解像結果画像血管抽出部242から供給される、前回の超解像結果画像から抽出された血管抽出結果292を目標(Target)として位置合わせを行う。つまり、血管抽出結果291を血管抽出結果292に近づけるように位置合わせが行われる。
シフト処理部272は、図8に示されるように、縦方向や横方向等任意の方向に、血管抽出結果291全体を移動(シフト)させる縦横シフト281を行い、血管抽出結果291が血管抽出結果292に最も近づいた状態で、重畳結果を伸ばし処理部273に供給する。血管抽出結果291と血管抽出結果292とがどれくらい近づいたかの判定方法は任意であるが、例えば、両画像の絶対値差分により判定する。つまり、シフト処理部272は、血管抽出結果291全体を移動(シフト)させ、血管抽出結果291と血管抽出結果292との絶対値差分が最小となる位置を検索する。この判定方法は以下の処理部においても同様である。
伸ばし処理部273は、図8に示されるように、縦方向や横方向等任意の方向に、血管抽出結果291を伸ばす(変形させる)縦横伸ばし282を行い、血管抽出結果291が血管抽出結果292に最も近づいた状態で、重畳結果を回転処理部274に供給する。例えば、伸ばし処理部273は、血管抽出結果291を任意の方向に伸ばし(変形させ)、血管抽出結果291と血管抽出結果292との絶対値差分が最小となる形状を検索する。
回転処理部274は、図8に示されるように、血管抽出結果291を左右に回転させる回転283を行い、血管抽出結果291が血管抽出結果292に最も近づいた状態で、重畳結果を拡大縮小処理部275に供給する。例えば、回転処理部274は、血管抽出結果291を左右に回転させ、血管抽出結果291と血管抽出結果292との絶対値差分が最小となる向きを検索する。
拡大縮小処理部275は、図8に示されるように、血管抽出結果291を拡大したり縮小したりする拡大縮小284を行い、血管抽出結果291が血管抽出結果292に最も近づいた状態で、重畳結果を収束判定部276に供給する。例えば、回転処理部274は、血管抽出結果291を拡大したり縮小したりし、血管抽出結果291と血管抽出結果292との絶対値差分が最小となる大きさを検索する。
収束判定部276は、供給された重畳結果に基づいて、位置合わせが収束したか否かを判定する。例えば、収束判定部276は、上述した各処理を複数回繰り返し行わせ、今回得られた位置合わせ結果を、前回の位置合わせ結果と比較し、前回より血管抽出結果291が血管抽出結果292に近づいた場合、収束していないと判定し、前回より血管抽出結果291が血管抽出結果292に近づいていない場合(例えば、血管抽出結果291と血管抽出結果292との絶対値差分が前回より小さくならない場合)、収束したと判定する。
収束していないと判定した場合(例えば、血管抽出結果291と血管抽出結果292との絶対値差分が前回より小さくなる場合)、収束判定部276は、その重畳結果をシフト処理部272に戻し、再度、位置合わせを行わせる。また、位置合わせが収束したと判定した場合、収束判定部276は、位置合わせ結果となる血管抽出結果の重畳結果(例えば、血管抽出結果291と血管抽出結果292との絶対値差分が最小となるときの重畳結果)に基づいて、入力画像251の位置合わせを行い、位置合わせされた入力画像251と、血管抽出結果とを超解像処理部213に供給する。
なお、以上においては、位置合わせの具体例として、縦横シフト281、縦横伸ばし282、回転283、および拡大縮小284の4つの処理をこの順に行うように説明したが、これに限らず、上述した処理以外の処理をさらに行うようにしてもよいし、上述した処理の一部を省略するようにしてもよい。また、上述したように処理を複数行う場合、各処理の実行順は任意である。
また、生体情報位置合わせ処理部212が、例えば、“Shape Matching and Object Recognition Using Shape Contexts”,Serge Belongie, Jitendra Malik, Jan Puzicha, 2002(以下、非特許文献3と称する)に記載されているような、エッジ部分のヒストグラムを使った位置合わせを行うようにしてもよい。
さらに、収束したか否かの判定方法は、任意であり、上述した以外の方法であってもよい。例えば、血管抽出結果291と血管抽出結果292との絶対値差分が所定の閾値以下になる場合、収束したと判定されるようにしてもよい。
なお、血管の交叉点による位置合わせも、この血管全体による位置合わせと基本的に同様に行われる。つまり、交叉点位置合わせ処理部245は、血管位置合わせ処理部246と基本的に同様の構成を有し、位置合わせに用いる生体情報が血管全体か、その交叉点かの違い以外は、基本的に同様の処理を行う。
以上のように、眼底画像処理装置200は、眼底画像は生体の画像であるので、その画像の特徴を活かし、眼底画像に含まれる生体情報を用いて画像全体で位置合わせを行う。このようにすることにより、眼底画像処理装置200は、より容易かつ正確な位置合わせを実現することができる。
[超解像処理部の構成]
図9は、超解像処理部213の主な構成例を示すブロック図である。この場合、位置合わせは、生体情報位置合わせ処理部212において行われるので、超解像処理部213は、入力画像のボケ除去と重ね合わせのみを行う。
図9に示されるように、超解像処理部213は、PSF(Point Spread Function)推定部301、ボケ除去処理部302、および重ね合わせ処理部303を有する。
PSF推定部301は、生体情報位置合わせ処理部212から供給される血管抽出結果を用いてPSF(点拡がり関数)の推定(図10の処理311)を行う。このPSFの推定は、例えば、図11に示されるような方法で行われる。
つまり、PSF推定部301は、図11の四角332に示されるように、予めガウス分布から求めたエッジ周辺の画素値のモデルを保持している。PSF推定部301は、四角331に示されるように、位置合わせされた血管抽出結果322からエッジ部分を特定し、その各エッジ周辺の画素値を取り出し、それを保持しているモデルと照合し、一致または近似するモデルを特定する。そして、PSF推定部301は、特定したモデルの中で一番多かったモデルを、推定したPSFとしてボケ除去処理部302に供給する。
ボケ除去処理部302は、PSF推定部301から供給された、PSFの推定情報を用い、そのモデルに応じた方法で、位置合わせされた入力画像のボケ除去を行う。つまり、ボケ除去処理部302は、画像のボケ方(点拡がりのパターン)に応じた方法でそのボケ除去を行う。
ボケ除去処理部302は、例えば、ウィナーフィルタを用いてボケ除去を行う。なお、“High-quality Motion Deblurring from a Single Image”, Qi Shan, Jiava Jia, Aseem Agarwala, 2008(以下、非特許文献4と称する)に記載されているような動きボケを除去する方法が用いられるようにしてもよい。
ボケ除去処理部302は、ボケ除去を行った入力画像を重ね合わせ処理部303に供給する。
重ね合わせ処理部303は、ボケ除去処理部302から供給された入力画像(位置合わせとボケ除去が行われた入力画像)を、超解像結果画像バッファ214から供給された前回の超解像結果画像に足し込むことにより両画像を重ね合わせ、その重ね合わせた結果を新たな超解像結果画像として出力し、記憶部103に記憶させたり、出力部104から外部に出力させたりするとともに、超解像結果画像バッファ214に記憶させる。
眼底画像は、上述したように照射光の光量を落として撮像されるため、基本的に全体が暗くて赤い略均一な画像となる。また、撮像時に被写体が動くことも考えられる。したがって、合焦させることが容易ではなく、焦点ずれ(所謂ピンボケ)が発生し易い。しかも、画像全体が略均一であるため、ボケ具合も一様になりやすい。
したがって、上述したようにPSF推定結果を利用してボケ除去を行うことにより、超解像処理部213は、効率よくボケを除去し、より高画質な眼底画像を容易に得ることができる。
なお、例えば、PSF推定部301が、特開2009−169943号公報(以下、特許文献5と称する)に記載のようにエッジ部分のボケ具合を判定し、そのボケ具合に応じたPSFを適用するようにしてもよい。
また、重ね合わせ処理部303は、入力画像と前回の超解像結果画像とを重ね合わせる際に、図1の場合と同様にダウンサンプリングやアップサンプリングを行い、解像度を上げるようにしてもよい。
なお、より厳密には、眼底は球状である。また、視神経乳頭が周囲に比べて盛り上がる等、眼底には凹凸も存在する。したがって、例えば眼底の一部の領域において合焦し、他の一部において合焦しない等、領域によってボケ具合が異なる可能性が高い。
そこで、PSF推定部301が、PSF推定を、眼底画像の所定の部分領域毎に行い、ボケ除去処理部302が、その推定結果に基づいて、その部分領域毎にフィルタ関数を設定し、ボケ除去を行うようにしてもよい。つまり、眼底画像の場所(領域)や絵柄に応じたフィルタ関数でボケ除去が行われるようにしてもよい(領域の位置や眼底の形状等によってボケ除去の方法(例えばフィルタ関数)が異なるようにしてもよい)。
このようにすることにより、より正確にボケ除去を行うことができるので、眼底画像処理装置200は、より高画質な眼底画像を得ることができる。
[眼底画像生成処理の流れ]
次に、眼底画像処理装置200により実行される各処理について説明する。最初に、図12のフローチャートを参照して、眼底画像生成処理の流れの例を説明する。
眼底画像生成処理が開始されると、ステップS201乃至ステップS204の各処理が、図2のステップS101乃至ステップS104の各処理と同様に実行される。ただし、ステップS203において、初期画像は超解像結果画像バッファ214に記憶される。また、ステップS204において、未処理の撮像画像が入力画像として1枚選択される。
処理対象が決定されると、生体情報位置合わせ処理部212は、ステップS205において生体情報位置合わせ処理を行う。ステップS206において、超解像処理部213は、その位置合わせ結果を用いて、超解像処理を行う。
ステップS207において、超解像処理部213は、超解像処理により得られた新たな超解像結果画像を記憶部103や出力部104に出力するとともに、超解像結果画像バッファ214に記憶させる。
ステップS208において、入力画像バッファ111は、全ての撮像画像を処理したか否かを判定し、未処理の撮像画像が存在すると判定された場合、処理をステップS204に戻し、それ以降の処理を実行させる。
ステップS208において、全ての撮像画像を処理したと判定された場合、入力画像バッファ111は、眼底画像生成処理を終了する。
[生体情報位置合わせ処理の流れ]
次に、図12のステップS205において実行される生体情報位置合わせ処理の流れの例を図13のフローチャートを参照して説明する。
生体情報位置合わせ処理が開始されると、入力画像血管抽出部241は、ステップS221において、入力画像から血管部分の画像を抽出する。ステップS222において、超解像結果画像血管抽出部242は、前回の超解像結果画像から血管部分の画像を抽出する。
ステップS223において、生体情報位置合わせ処理部212は、交叉点の位置合わせを行うか否かを判定する。交叉点の位置合わせを行うと判定された場合、生体情報位置合わせ処理部212は、処理をステップS224に進める。
ステップS224において、入力画像交叉点抽出部243は、入力画像の血管抽出結果から交叉点を抽出する。ステップS225において、超解像結果画像交叉点抽出部244は、前回の超解像結果画像の血管抽出結果から交叉点を抽出する。
ステップS226において、交叉点位置合わせ処理部245は、ステップS224およびステップS225において生成された交叉点抽出結果を用いて、交叉点の位置合わせを行う。
交叉点の位置合わせが終わると、交叉点位置合わせ処理部245は、処理をステップS227に進める。また、ステップS224において、交叉点の位置合わせを行わないと判定された場合、処理をステップS227に進める。
ステップS227において、血管位置合わせ処理部246は、血管の位置合わせを行う。
ステップS227の処理が終了すると、血管位置合わせ処理部246は、生体情報位置合わせ処理を終了し、処理を図12のステップS205に戻し、ステップS206以降の処理を実行させる。
[血管位置合わせ処理の流れ]
次に、図14のフローチャートを参照して、図13のステップS227において実行される血管位置合わせ処理の流れの例を説明する。
血管位置合わせ処理が開始されると、ステップS241において、重畳処理部271は、交叉点位置合わせが行われたか否かを判定し、行われたと判定した場合、処理をステップS242に進め、交叉点位置合わせ結果を重畳結果とし、その重畳結果に従って、入力画像血管抽出部241において抽出された血管抽出結果と、超解像結果画像血管抽出部242において抽出された血管抽出結果とを重畳し、処理をステップS244に進める。
ステップS241において、交叉点位置合わせを行っていないと判定された場合、重畳処理部271は、処理をステップS243に進め、入力画像血管抽出部241において抽出された血管抽出結果と、超解像結果画像血管抽出部242において抽出された血管抽出結果とを重畳し、処理をステップS244に進める。
ステップS244において、シフト処理部272は、入力画像の血管抽出結果をシフトするシフト位置合わせを行う。ステップS245において、伸ばし処理部273は、入力画像の血管抽出結果を伸縮させる伸ばし位置合わせを行う。ステップS246において、回転処理部274は、入力画像の血管抽出結果を回転させる回転位置合わせを行う。ステップS247において、拡大縮小処理部275は、入力画像の血管抽出結果を拡大したり縮小したりする拡大縮小位置合わせを行う。
ステップS248において、収束判定部276は、位置合わせが収束したか否かを判定し、収束していないと判定された場合、処理をステップS244に戻し、それ以降の処理を行う。ステップS248において収束したと判定された場合、収束判定部276は、ステップS249において、位置合わせ結果に基づいて入力画像の位置合わせを行い、その位置合わせされた入力画像と血管抽出結果とを超解像処理部213に出力する。
ステップS249の処理が終了すると、収束判定部276は、血管位置合わせ処理を終了し、処理を図13のステップS227に戻し、生体情報位置合わせ処理を終了し、処理を図12のステップS205に戻し、ステップS206以降の処理を実行させる。
なお、図13のステップS226において実行される交叉点位置合わせ処理は、血管全体の代わりに血管の交叉点を位置合わせに利用すること以外、図14を参照して説明した血管位置合わせ処理と同様に実行される。
[超解像処理の流れ]
次に、図15のフローチャートを参照して、図12のステップS206において実行される超解像処理の流れの例を説明する。
超解像処理が開始されると、PSF推定部301は、ステップS261において、血管抽出結果を用いて点拡がり関数(PSF)を推定する。ステップS262において、ボケ除去処理部302は、推定した点拡がり関数を用いて、位置合わせした入力画像のボケ除去を行う。
ステップS263において、重ね合わせ処理部303は、前回の超解像結果に、ボケ除去後の位置合わせした入力画像を重ね合わせ、それを新たな超解像結果画像として出力する。
ステップS263の処理が終了すると、重ね合わせ処理部303は、超解像処理を終了し、処理を図12のステップS206に戻し、ステップS207以降の処理を実行させる。
以上のように、各処理を実行することにより、眼底画像処理装置200は、被写体への負荷の増大を抑制しながら、より高画質な被写体の撮像画像を得ることができる。
<3.第3の実施の形態>
[眼底画像処理装置の構成]
図3は、眼底画像処理装置の他の構成例を示すブロック図である。図3に示される眼底画像処理装置400は、眼底画像に含まれる生体情報(血管や視神経乳頭に関する情報等)を、トーンリプロダクション処理や超解像処理に利用し、より高画質な眼底画像を生成する。
眼底画像処理装置400は、図3の眼底画像処理装置200と同様の装置であり、基本的に眼底画像処理装置200と同様の構成を有し、同様の処理を行う。ただし、眼底画像処理装置400は、眼底画像処理装置200が有する画像処理部202の代わりに画像処理部402を有する。
画像処理部402は、画像処理部202と基本的に同様の構成を有し、同様の処理を行うが、眼底画像処理装置200が有する超解像処理部213および超解像結果画像バッファ214の代わりに、ノイズ削減処理部413、ノイズ削減結果画像バッファ414、トーンリプロダクション処理部415、および超解像処理部416を有する。
すなわち、画像処理部402は、図17の四角431に示されるように、光量を落として眼221の眼底を複数回撮像し、複数枚の低画質な眼底画像222を生成する。図17の四角432に示されるように、入力画像バッファ111は、その暗くて低画質な複数枚の眼底画像222を記憶し、生体情報位置合わせ処理部212の要求に基づいて、若しくは所定のタイミングにおいて、1枚ずつその眼底画像222を生体情報位置合わせ処理部212に提供する。
生体情報位置合わせ処理部212は、図17の四角233に示されるように、眼の情報(生体情報)を使って、その眼底画像222と超解像結果画像との位置合わせを行う。ノイズ削減処理部413は、図17の四角434に示されるように、その位置合わせされた眼底画像222(入力画像)の重ね合わせを行うことにより、ノイズの低減やダイナミックレンジの拡張(ノイズリダクションおよびワイドダイナミックレンジ処理)を行う。ノイズ削減結果画像バッファ414を用いてこれらの処理が繰り返され、複数の低画質の眼底画像から1枚の眼底画像が生成される。
生成された1枚の眼底画像は、トーンリプロダクション処理部415により、トーンリプロダクション処理(Tone Reproduction)435(図17)される。トーンリプロダクション処理435の処理方法は任意である。例えば、特開2009−177558号公報(以下、特許文献6と称する)に記載の方法によりトーンリプロダクション処理435が行われるようにしてもよい。
なお、トーンリプロダクション処理435における、トーンカーブ算出のためのパラメータの決定は、より明るくより高画質な画像が得られるように、生体としての特徴に適するように行われる。
トーンリプロダクション処理435により補正された眼底画像は、超解像処理部416により、超解像処理436(図17)される。この超解像処理436の処理方法は任意である。例えば、特開2010−102696号公報(以下、特許文献7と称する)に記載の方法や、特開2010−103981号公報(以下、特許文献8と称する)に記載の方法により超解像処理436が行われるようにしてもよい。ただし、この超解像処理436は、ノイズがより少ない、より高解像度な画像が得られるように、生体としての特徴に応じた処理が行われる。
つまり、画像処理部402は、生体としての特徴に応じた処理を行うことにより、複数の低画質の眼底画像から、1枚の、より高画質かつ高解像度な眼底画像を生成する。
このように、画像処理部402においては、トーンリプロダクション処理と超解像処理は、画像の重ね合わせ後に(生成された1枚の眼底画像に対して)行われる。
以上のように、ノイズ削減処理部413は、生体情報位置合わせ処理部212により位置合わせが行われた眼底画像を、ノイズ削減結果画像バッファ414に保持される前回の重ね合わせ結果(つまり、ノイズ削減結果)の画像と重ね合わせることにより、眼底画像のダイナミックレンジを拡張し、ノイズを低減させる。画像の重ね合わせによるノイズリダクションの方法は、任意であるが、例えば、特開2008−294601号公報(以下、特許文献9と称する)や特開2009−165168号公報(以下、特許文献10と称する)に記載されている方法を用いるようにしてもよい。
ノイズ削減結果画像バッファ414は、例えば、ハードディスク、フラッシュメモリ、若しくは、RAM等の任意の記憶媒体を有し、ノイズ削減処理部413により生成されたノイズ削減結果画像(重ね合わせ結果画像)を記憶し、生体情報位置合わせ処理部212やノイズ削減処理部413の要求に基づいて、若しくは所定のタイミングにおいて、そのノイズ削減結果画像を、生体情報位置合わせ処理部212やノイズ削減処理部413に供給する。
つまり、生体情報位置合わせ処理部212による位置合わせや、ノイズ削減処理部413による重ね合わせは、繰り返し行われる。生体情報位置合わせ処理部212およびノイズ削減処理部413は、入力画像バッファ111に蓄積される複数の眼底画像を1枚ずつ処理対象とし、その処理対象画像を、前回の処理結果に対して、位置合わせしたり重ね合わせしたりする。このようにして、撮像部101において撮像されて得られた複数の眼底画像が全て処理され、1枚の眼底画像が生成される。
[トーンリプロダクション処理部]
図18は、トーンリプロダクション処理部の主な構成例を示すブロック図である。図18に示されるように、トーンリプロダクション処理部415は、画像バッファ451、パラメータ決定部452、トーンカーブ算出部453、およびマッピング部454を有する。
画像バッファ451は、例えば、ハードディスク、フラッシュメモリ、若しくは、RAM等の任意の記憶媒体を有し、ノイズ削減処理部413から供給される眼底画像を記憶する。画像バッファ451は、パラメータ決定部452やマッピング部454の要求に基づいて、若しくは所定のタイミングにおいて、その眼底画像を、パラメータ決定部452やマッピング部454に供給する。
パラメータ決定部452は、画像バッファ451から供給される眼底画像の生体としての特徴に基づいて、トーンリプロダクション処理に用いられるトーンカーブを算出するためのパラメータを決定する。トーンカーブは、例えば図19に示されるような、輝度値の階調補正を行うための曲線である。
なお、図19のグラフの横軸方向は、階調補正する前の入力輝度の対数値を表し、縦軸方向は、トーンカーブCLによる階調補正後の出力輝度の対数値を表している。
眼底画像は、トーンリプロダクション処理において、このようなトーンカーブに従って階調補正され、より明るくなるように処理される。その際、ノイズや白とびの発生はできるだけ抑制することが望ましい。つまり、パラメータ決定部452は、ノイズを出来るだけ低減し、白とびの発生をできるだけ抑制しながら、眼底画像をより明るくするように階調補正するトーンカーブが得られるように、眼底画像に含まれる生体としての特徴に応じてパラメータを設定する。
例えば、眼底画像には、血管、神経、視神経乳頭等の、生体としての部位の画像が含まれるが、このような各部位の画像は、互いに異なる特徴を有する。例えば、一般的に、血管や神経等の部位ではエッジ成分が周囲よりも強く表れやすい。また、例えば、視神経乳頭は白色になりやすい。さらに、例えば、眼底の周縁部(眼底のより端に近い部分)は、中心部よりも暗くなりやすい。
このように、眼底画像は、生体としての眼底の各部位の特徴を含む画像である。したがって、パラメータ決定部452は、このような各部位の特徴を考慮しながら、より望ましい(ノイズや白とびの発生を抑制しながら、画像をできるだけ明るくする)トーンカーブが得られるようにパラメータの設定を行う。
このパラメータは、トーンカーブを算出するためのものであればどのようなパラメータであってもよい。例えば、トーンリプロダクション処理の入力や出力の、ノイズとされるレベルの設定値であってもよい。
パラメータ決定部452は、値を決定したパラメータをトーンカーブ算出部453に供給する。トーンカーブ算出部453は、パラメータ決定部452から供給されたパラメータを用いてトーンカーブを算出し、それをマッピング部454に供給する。例えば、トーンカーブ算出部453は、図19に示されるトーンカーブCLのコントロールポイント(図19の例の場合、P1乃至P9)を設定し、それをマッピング部454に供給する。この場合、処理対象画素ごとのトーンカーブCLの形状は、例えば、コントロールポイントP1乃至コントロールポイントP9に基づいて、各入力輝度値に対する出力輝度値(トーンカーブ値)をB-Spline補間処理により求めることにより定められる。
マッピング部454は、トーンカーブ算出部453から供給されたトーンカーブを用いて、画像バッファ451から供給される眼底画像をマッピングする(補正する)。マッピング部454は、補正後の眼底画像を、超解像処理部416に供給する。
[パラメータ決定部]
図20は、パラメータ決定部452の主な構成例を示すブロック図である。図20に示されるように、パラメータ決定部452は、調整対象パラメータ選択部461、パラメータ初期値記憶部462、パラメータ記憶部463、補正前明るさ値算出部464、および明るさ値記憶部465を有する。また、パラメータ決定部452は、部位認識部466、パラメータ調整部467、トーンカーブ算出部468、マッピング部469、部位別検査部470、補正後明るさ値算出部471、比較部472、およびデータ出力部473を有する。
調整対象パラメータ選択部461は、今回調整を行うパラメータを選択する。例えばトーンカーブ算出のためのパラメータが複数存在する場合、パラメータ決定部452が、全てのパラメータを一度に調整するようにしてもよいが、複数回に分けて調整を行うようにしてもよい。例えば、パラメータ決定部452が、各パラメータを1つずつ調整するようにしてもよい。また、例えば、パラメータ決定部452が、複数のパラメータの値の組み合わせの集合を複数用意し、最適なパラメータの値の組み合わせを各集合について決定し、さらに、その選ばれた各集合の最適なパラメータの値の組み合わせの中で、最適なパラメータの値の組み合わせを求めるようにしてもよい。
パラメータ初期値記憶部462は、例えば、ハードディスク、フラッシュメモリ、RAM、若しくは、ROM(Read Only Memory)等の任意の記憶媒体を有し、トーンカーブの算出に必要なパラメータの(パラメータが複数存在する場合はそれぞれの)初期値を記憶する。この初期値は任意の値であり、予め定められている。
パラメータ記憶部463は、例えば、ハードディスク、フラッシュメモリ、若しくは、RAM等の任意の記憶媒体を有し、調整対象パラメータ選択部461により選択されたパラメータ(調整対象パラメータ)の初期値を、パラメータ初期値記憶部462から取得し、記憶する。
また、パラメータ記憶部463は、比較部472から供給される値を使って、保持する調整対象パラメータの値を更新する。つまり、パラメータ記憶部463は、比較部472から供給される調整対象パラメータの値を記憶する。
さらに、パラメータ記憶部463は、パラメータ調整部467の要求に基づいて、若しくは所定のタイミングにおいて、各パラメータの、その時点において保持する値を、パラメータ調整部467に供給する。なお、パラメータ記憶部463は、調整対象でない非調整対象パラメータが存在する場合、調整対象パラメータの値だけでなく、その非調整対象パラメータの値もパラメータ調整部467に供給する。
非調整対象パラメータの値を記憶していない場合、パラメータ記憶部463は、その非調整対象パラメータの値をパラメータ初期値記憶部462から取得して記憶し、パラメータ調整部467に供給する。また、過去にパラメータ初期値記憶部462から取得した非調整対象パラメータの値は、パラメータ記憶部463に既に記憶されているので、パラメータ記憶部463は、その値をパラメータ調整部467に供給する。さらに、過去に調整が行われた非調整対象パラメータ(過去に調整対象とされ、今回は非調整対象とされるパラメータ)の値は、その調整後の値がパラメータ記憶部463に既に記憶されているので、パラメータ記憶部463は、その調整後の値をパラメータ調整部467に供給する。
また、パラメータ記憶部463は、データ出力部473の要求に基づいて、若しくは所定のタイミングにおいて、各パラメータの値(その時点で保持する値)をデータ出力部473に供給する。
補正前明るさ値算出部464は、ノイズ削減処理部413から供給される眼底画像(複数の眼底画像が重ね合わせられて生成された1枚の眼底画像)について、その明るさを示すパラメータである明るさ値を算出する。明るさ値は、画像の明るさを示すことができるものであればどのような内容(算出方法)であってもよい。例えば、画像の全体若しくは一部の輝度値の総和や平均値等を明るさ値としてもよい。また、例えば、画像を複数の領域に分割し、各領域毎に輝度値の総和を算出し、各値に領域毎に定められる重み係数を乗算し、その各乗算結果の総和を明るさ値としてもよい。
補正前明るさ値算出部464は、算出した明るさ値を明るさ値記憶部465に供給し、記憶させる。明るさ値記憶部465は、例えば、ハードディスク、フラッシュメモリ、若しくは、半導体メモリ等の任意の記憶媒体を有し、補正前明るさ値算出部464や比較部472から供給される明るさ値を記憶する。例えば、明るさ値記憶部465は、補正前明るさ値算出部464から供給される補正前の眼底画像の明るさ値を記憶し、補正後明るさ値算出部471により算出された補正後の眼底画像の明るさ値が比較部472から供給されると、その明るさ値を記憶する(保持する明るさ値を更新する)。
明るさ値記憶部465は、比較部472の要求に基づいて、若しくは所定のタイミングにおいて、保持する明るさ値を比較部472に供給する。
部位認識部466は、ノイズ削減処理部413から供給される眼底画像(複数の眼底画像が重ね合わせられて生成された1枚の眼底画像)を解析し、その眼底画像に含まれる、例えば、血管、神経、および視神経乳頭等の、生体(眼底)としての部位を認識する。
この部位認識方法(画像解析方法)は任意である。例えば、生体情報位置合わせ処理部212が行う血管抽出等と同様の方法により行われるようにしてもよい。例えば、非特許文献2や、“眼底画像診断支援システムのための血管消去画像を用いた視神経乳頭の自動認識および疑似立体視画像生成への応用”,中川 俊明,林 佳典,畑中 裕司,青山 陽,水草 豊,藤田 明宏,加古川 正勝,原 武史,藤田 広志,山本 哲也,2006(以下、非特許文献5と称する)等に記載の方法で行われるようにしてもよい。
例えば、血管や神経は、その周囲との境界にエッジ成分が強く検出される。また、例えば、視神経乳頭は、周囲よりも輝度が高く白色となる傾向がある。また、ある程度形状や大きさが限定される。部位認識部466は、例えばこのような画像の特徴を用いて、眼底画像内に含まれる各部位を特定する。
部域認識部466は、眼底画像に含まれる生体としての部位を特定すると、その特定した各部位の領域、つまり、例えば血管や神経や視神経乳頭等がそれぞれ画像内の何処にあるかを示す情報を部位別検査部470に供給する。
パラメータ調整部467は、パラメータ記憶部463から読み出したパラメータの値を予め定められた所定の方法で調整する。例えば、パラメータ調整部467は、パラメータの値を所定量増大させたり、減少させたりする。パラメータ調整部467は、調整後の値を、非調整対象パラメータの値とともにトーンカーブ算出部468に供給する。
トーンカーブ算出部468は、トーンカーブ算出部453と同様に、供給されたパラメータを用いてトーンカーブを算出し、算出したトーンカーブを示す情報、および、調整対象パラメータをマッピング部469に供給する。
マッピング部469は、トーンカーブ算出部468により算出されたトーンカーブを用いて、マッピング部454と同様に、ノイズ削減処理部413から供給される眼底画像(複数の眼底画像が重ね合わせられて生成された1枚の眼底画像)の輝度値を階調補正する。マッピング部469は、その補正後の画像と、トーンカーブ算出部468から供給された調整対象パラメータとを部位別検査部470に供給する。
部位別検査部470は、部位認識部466から供給される各部位の領域を示す情報を用いて、マッピング部469から供給される補正後の画像に含まれる各部位を特定し、その各部位の画像を、各部位の画像の特徴に応じた方法で検査する。つまり、部位別検査部470は、各部位の画像の特徴の違いを考慮し、どの部位についても適切な階調補正となるように、補正後の画像に含まれる各部位の画像を、その部位用に定められた方法で検査する。
例えば、一般的に、眼底の周縁部では画像が比較的暗い傾向がある。つまり、眼底の周縁部では、ノイズ成分が大きくなり易い。そこで、部位別検査部470は、例えば、眼底の周縁部においてノイズ成分が所定の許容量を超えたか否かを検査し、ノイズ成分が許容量以下であれば合格とし、許容量を超えていれば不合格とする。
また、一般的に、視神経乳頭の画像は比較的明るくなる傾向がある。つまり、眼底画像を明るくすると視神経乳頭において白とびが発生し易い。そこで、部位別検査部470は、例えば、視神経乳頭において白とびが発生したか否かを検査し、白とびが発生していければ合格とし、白とびが発生していれば不合格とする。
このように各部位の検査内容は互いに独立している。なお、この各部位の検査の内容や合否判定基準等は任意である。例えば、上述した例以外にも、周波数成分を検査するようにしてもよいし、所定のレベルより低い輝度値が検出されたか否か等を検査するようにしてもよい。また、1つの部位に対して、複数の項目について検査を行うようにしてもよい。
部位別検査部470は、このような部位毎の判定結果を、マッピング部469から供給される補正後の画像および調整対象パラメータとともに、補正後明るさ値算出部471に供給する。
補正後明るさ値算出部471は、部位別検査部470において各部位の検査が全て合格であった場合、補正後の画像について明るさ値を算出する。この明るさ値の算出方法は、補正前明るさ値算出部464による補正前の画像の明るさ値の算出方法と同様である。
明るさ値を算出すると、補正後明るさ値算出部471は、算出したその明るさ値と、部位別検査部470から供給された調整対象パラメータとを比較部472に供給する。また、部位別検査部470による各部位の検査結果に不合格が含まれる場合、補正後明るさ値算出部471は、その検査結果を比較部472に供給する。
比較部472は、補正後明るさ値算出部471から補正後の画像の明るさ値を取得すると、明るさ値記憶部465が保持する明るさ値を取得し、それらを比較する。
補正後明るさ値算出部471から供給された明るさ値の方が、明るさ値記憶部465から供給された明るさ値より大きい場合、比較部472は、補正後明るさ値算出部471から供給された調整対象パラメータを、パラメータ記憶部463に供給し、記憶させる(保持する調整対象パラメータの値を更新させる)。また、この場合、比較部472は、補正後明るさ値算出部471から供給された明るさ値を、明るさ値記憶部465に供給し、記憶させる(明るさ値記憶部465が保持する明るさ値を更新させる)。
このように、各パラメータの調整は、パラメータ記憶部463乃至比較部472のループにより繰り返し行われる(ループ処理される)。つまり、例えば、パラメータ初期値記憶部462が、眼底画像が最も暗くなるような値をパラメータの初期値として記憶し、パラメータ調整部467は、眼底画像がより明るくなるように調整対象パラメータの値を調整し、その調整後の値を利用して、トーンカーブ算出部468およびマッピング部469が眼底画像を補正し、部位別検査部470乃至比較部472が、その補正後の画像を検査する。部位毎の検査に合格しながらより明るい画像が得られる場合、このループ処理がさらに繰り返される。
そして、部位毎の検査に合格しなくなった場合、若しくは、部位毎の検査に合格しても、より明るい画像が得られなかった場合、すなわち、補正後明るさ値算出部471を介して部位別検査部470による不合格を含む検査結果が供給された場合、若しくは、補正後明るさ値算出部471から供給された明るさ値が、明るさ値記憶部465から供給された明るさ値より大きくない場合、比較部472は、データ出力部473にその旨を通知する(パラメータ記憶部463および明るさ値記憶部465の情報は更新させない)。
例えば、その値が大きいほどより明るい眼底画像が得られるパラメータを調整対象パラメータとする場合、パラメータ初期値記憶部462は、そのパラメータの最小値を初期値として記憶し、パラメータ調整部467は、入力されたそのパラメータの値を所定量増大させる。
また、例えば、その値が小さいほどより明るい眼底画像が得られるパラメータを調整対象パラメータとする場合、パラメータ初期値記憶部462は、そのパラメータの最大値を初期値として記憶し、パラメータ調整部467は、入力されたそのパラメータの値を所定量減少させる。
なお、パラメータの初期値や調整方法は任意であり、上述した例以外であってもよい。例えば、トーンリプロダクション処理に使用されるパラメータのとり得る値(若しくはその代表値)の全てについて補正が行われ、得られた全補正画像の中から最良の画像が選択され、その画像に対応する各パラメータの値が最良の値として選択されるようにしてもよい。この場合、得られた全補正画像について各部位の検査と明るさ値の算出が行われ、全ての検査結果と明るさ値が評価され、各部位の検査に全て合格し、かつ、最も明るい画像が得られる各パラメータの値が最良の値として選択される。
また、画像が明るくなったか否かの判断は、単純にどちらの明るさ値が大きいかということで判断するようにしてもよいが、その他の基準に基づいて判断するようにしてもよい。例えば、今回の補正後の画像の明るさ値が、今回の補正前の画像の明るさ値に対して所定量以上大きい場合のみ、今回の補正により画像が明るくなったと判定されるようにしてもよい。また、例えば、今回の補正後の画像の明るさ値が、今回の補正前の画像の明るさ値より小さくても、予め定められた所定の範囲内であれば、今回の補正により画像が明るくなったと判定されるようにしてもよい。
データ出力部473は、部位別検査部470による検査の不合格通知、若しくは、今回の階調補正後の画像が、その階調補正前の画像と比べて明るくならなかった旨の通知を比較部472から供給された場合、その旨を調整対象パラメータ選択部461に通知し、他のパラメータを調整対象パラメータとして選択させる。つまり、他のパラメータについての調整が開始される。
このようにして調整すべきパラメータが全て調整されると、データ出力部473は、パラメータ記憶部463に記憶されている各パラメータの値を取得し、超解像処理部416に供給する。
以上のようにして各パラメータの値を決定することにより、パラメータ決定部452は、各パラメータの値を、ノイズや白とびの発生等の不具合を抑制しながら、より明るい画像を得ることができる値に設定することができる。つまり、トーンリプロダクション処理部415は、トーンリプロダクション処理を、生体としての画像の特徴に応じてより適切に行うことができる。
[超解像処理部]
図21は、図16の超解像処理部416の主な構成例を示すブロック図である。
図21に示されるように、超解像処理部416は、学習辞書記憶部481、画像処理部482、部位認識部483、部位別評価基準記憶部484、部位別画像評価部485、および画像選択部486を有する。
学習辞書記憶部481は、例えば、ハードディスク、フラッシュメモリ、若しくは、半導体メモリ等の任意の記憶媒体を有し、超解像処理において行われる学習の方法を示す学習辞書を複数記憶する。学習辞書記憶部481は、画像処理部482の要求に基づいて、若しくは所定のタイミングにおいて、各学習辞書を、画像処理部482に供給する。
画像処理部482は、トーンリプロダクション処理部415から供給される眼底画像に対して、学習辞書記憶部481から供給された学習辞書を用いて、学習により解像度を向上させる超解像処理を行う。つまり、画像処理部482により行われた超解像処理により得られる超解像結果画像は、学習辞書記憶部481から供給される学習辞書によって異なる。画像処理部482は、全ての学習辞書について超解像処理を行わせる。画像処理部482は、算出した、各学習結果に対応する超解像結果画像を、部位認識部483に供給する。
部位認識部483は、部位認識部466の場合と同様に、供給された各超解像結果画像を解析し、各超解像結果画像に含まれる、例えば、血管、神経、および視神経乳頭等の、生体(眼底)としての部位を認識する。部位認識部483は、例えば、非特許文献2や非特許文献4に記載の方法で各部位を認識する。
部位認識部483は、各超解像結果画像に含まれる生体としての部位を特定すると、その特定した各部位の領域、つまり、例えば血管や神経や視神経乳頭等がそれぞれ画像内の何処にあるかを示す情報を、その情報に対応する超解像結果画像とともに、部位別画像評価部485に供給する。
部位別評価基準記憶部484は、例えば、ハードディスク、フラッシュメモリ、RAM、若しくは、ROM等の任意の記憶媒体を有し、部位別画像評価部485が行う部位別の画像評価の方法や基準を示す情報(例えば眼底画像の何処の部分のどのような情報をどのように評価するか等)を記憶する。
部位別評価基準記憶部484は、部位別画像評価部485の要求に基づいて、若しくは所定のタイミングにおいて、保持する各部位の画像評価の基準を示す情報を、部位別画像評価部485に供給する。
部位別画像評価部485は、部位別評価基準記憶部484から供給される画像評価の基準を示す情報を用いて、各超解像結果画像の、部位認識部483により認識された各部位の画像を評価する。
例えば、部位別画像評価部485は、各超解像結果画像について、血管の画像を周波数成分解析し、その血管の画像に含まれる高周波成分量(所定の周波数帯域成分のスペクトルの大きさ)、および、その高周波成分量が予め定められた所定の目標範囲内に含まれるか否か等を評価する。
また、例えば、部位別画像評価部485は、各超解像結果画像について、周縁部等の平坦部の画像を周波数成分解析し、その平坦部の画像に含まれるノイズ成分量(所定の周波数帯域成分のスペクトルの大きさ)の少なさを評価する。
部位別画像評価部485は、各超解像結果画像について、このように求められた各部位の評価結果を、超解像結果画像とともに画像選択部486に供給する。
画像選択部486は、部位別画像評価部485から供給された画像評価結果に基づいて、部位別画像評価部485から供給された超解像結果画像群の中から、最適な超解像結果画像を選択する。例えば、画像選択部486は、血管の画像の高周波成分が、予め定められた所定の目標範囲内で出来るだけ大きく、かつ、平坦部の画像のノイズ成分ができるだけ小さい超解像結果画像を選択する。
なお、この画像選択方法や画像選択基準は任意である。例えば、血管の画像の評価結果のみに従って画像選択が行われるようにしてもよいし、上述した以外の評価結果も考慮して画像選択が行われるようにしてもよい。
以上のように、画像選択部486は、互いに異なる学習辞書を用いて生成された複数の超解像結果画像の中から最適な超解像結果画像を選択する。つまり、画像選択部486は、超解像処理結果が最も良好となる学習辞書を選択する。
画像選択部486は、選択した超解像結果画像を画像処理部402の外部(記憶部103や出力部104)に出力する。
このように、超解像処理部416は、互いに異なる学習辞書を用いて学習を伴う超解像処理を行い、各超解像結果画像について、生体としての部位毎に画像評価を行い、その評価結果に基づいて、最適な学習辞書を用いて生成された超解像結果画像を選択することができる。
一般に、超解像処理に用いられる適切な学習辞書は、画像の内容によって異なる。つまり、ある画像に対して最適な学習辞書が、その他の画像に対して最適となるとは限らない。しかしながら、超解像処理部416は、上述したように、生成された超解像結果画像を評価するので、任意の眼底画像に対して最適な学習辞書を選択することができる。また、超解像処理部416は、生体(眼底)としての部位毎に画像評価を行うので、眼底画像に対してより適切な学習辞書を選択することができる。
つまり、超解像処理部416は、よりノイズ成分が少なく、かつ、より高解像度な眼底画像(より高画質かつ高解像度な眼底画像)を得ることができる。
[眼底画像生成処理の流れ]
次に、図22のフローチャートを参照して、眼底画像処理装置400により実行される眼底画像生成処理の流れの例を説明する。
眼底画像生成処理が開始されると、ステップS401において、撮像部101は、図12のステップS201の場合と同様に、光量を落として複数回眼底を撮像する。ステップS402において、入力画像バッファ111は、図12のステップS202の場合と同様に、ステップS401の撮像により得られた撮像画像(眼底画像)を記憶する。
ステップS403において、ノイズ削減結果画像バッファ414は、図12のステップS203の場合と同様に、最初の撮像画像を初期画像として記憶する。
ステップS404において、生体情報位置合わせ処理部212は、図12のステップS204の場合と同様に、入力画像バッファ111に記憶される未処理の撮像画像を1枚選択する。ステップS405において、生体情報位置合わせ処理部212は、ステップS404において選択された撮像画像(眼底画像)と、ノイズ削減結果画像バッファ414から供給された前回の重ね合わせ結果となる撮像画像(眼底画像)との間で、図12のステップS205の場合と同様に、生体情報を用いた位置合わせ処理(生体情報位置合わせ処理)を行う。この生体情報位置合わせ処理の詳細は、図13および図14のフローチャートを参照して説明したのと基本的に同様であるので、その説明を省略する。
ステップS406において、ノイズ削減処理部413は、ステップS405の処理により位置合わせされた両撮像画像(眼底画像)を重ね合わせ、ノイズを低減させる。
ステップS407において、ノイズ削減処理部413は、全ての撮像画像(眼底画像)を処理したか否かを判定する。入力画像バッファ111に未処理の撮像画像が存在すると判定された場合、ノイズ削減処理部413は、処理をステップS408に進める。
ステップS408において、ノイズ削減結果画像バッファ414は、ステップS406の処理により得られるノイズ削減処理結果画像、つまり、重ね合わせされた撮像画像を記憶する。撮像画像を記憶すると、ノイズ削減結果画像バッファ414は、処理をステップS404に戻し、それ以降の処理を繰り返す。
ステップS404乃至ステップS408の処理が繰り返され、ステップS407において、全ての撮像画像を処理したと判定された場合、ノイズ削減処理部413は、処理をステップS409に進める。
ステップS409において、トーンリプロダクション処理部415は、生成された1枚の撮像画像(眼底画像)に対してトーンリプロダクション処理を行う。ステップS410において、超解像処理部416は、トーンリプロダクション処理された画像について、超解像処理を行い、より高解像度な眼底画像を得、眼底画像生成処理を終了する。
このように処理を行うことにより、眼底画像処理装置400は、被写体への負荷の増大を抑制しながら、より高画質な被写体の撮像画像を得ることができる。
[トーンリプロダクション処理の流れ]
次に、図23のフローチャートを参照して、図22のステップS409において実行されるトーンリプロダクション処理の流れの例を説明する。
トーンリプロダクション処理が開始されると、ステップS431において、トーンリプロダクション処理部415の画像バッファ451は、1枚に重ね合わせられた撮像画像(眼底画像)を記憶する。
ステップS432において、パラメータ決定部452は、生体情報に基づいてパラメータを決定する。ステップS433において、トーンカーブ算出部453は、ステップS432の処理により値が決定されたパラメータを用いてトーンカーブを算出する。ステップS434において、マッピング部454は、ステップS433において生成されたトーンカーブを用いて撮像画像(眼底画像)を補正する。
ステップS434の処理を終了すると、マッピング部454は、トーンリプロダクション処理を終了し、処理を図22のステップS409に戻し、ステップS410に処理を進める。
[パラメータ決定処理の流れ]
次に、図24のフローチャートを参照して、図23のステップS432において実行されるパラメータ決定処理の流れの例を説明する。
パラメータ決定処理が開始されると、調整対象パラメータ選択部461は、ステップS451において、調整するパラメータを選択する。ステップS452において、パラメータ記憶部463は、各パラメータの初期値をパラメータ初期値記憶部462から取得し、記憶する。
ステップS453において、補正前明るさ値算出部464は、図22のステップS406の処理により生成された撮像画像(眼底画像)の明るさ値を算出する。ステップS454において、明るさ値記憶部465は、ステップS453の処理により算出された明るさ値を記憶する。ステップS455において、部位認識部466は、図22のステップS406の処理により生成された撮像画像(眼底画像)に含まれる生体としての各部位を認識する。
ステップS456において、パラメータ調整部467は、調整対象パラメータの値を調整する。ステップS457において、トーンカーブ算出部468は、調整された調整対象パラメータを含む各種パラメータを用いて、トーンカーブを算出する。ステップS458において、マッピング部469は、ステップS457の処理により算出されたトーンカーブを用いて、図22のステップS406の処理により生成された撮像画像(眼底画像)を補正する。
ステップS459において、部位別検査部470は、ステップS458の処理により補正された撮像画像(眼底画像)について、ステップS455の処理により認識された生体としての部位毎の検査を行う。
ステップS460において、部位別検査部470は、ステップS459において行われる各部位の検査を全て合格したか否か(すなわち、全ての条件を満たすか否か)を判定する。全ての条件を満たすと判定された場合、部位別検査部470は、処理をステップS461に進める。
ステップS461において、補正後明るさ値算出部471は、ステップS458において補正された撮像画像(眼底画像)の明るさ値を算出する。ステップS462において、比較部472は、ステップS458において行われる今回の補正の前と後で、撮像画像の明るさ値を比較する。ステップS463において、比較部472は、補正後の撮像画像の明るさ値の方が明るいか否かを判定する。
補正後の撮像画像の明るさ値の方が大きく、今回のステップS458の補正により撮像画像が明るくなったと判定された場合、比較部472は、処理をステップS464に進める。ステップS464において、パラメータ記憶部463は、調整対象パラメータの、今回のステップS456の調整後の値を記憶する(調整対象パラメータの値を更新する)。
ステップS465において、明るさ値記憶部465は、今回のステップS458の補正後の撮像画像の明るさ値を記憶する(明るさ値を更新する)。ステップS465の処理を終了すると、明るさ値記憶部465は、処理をステップS456に戻し、それ以降の処理を繰り返す。
ステップS460において、全ての条件を満たさないと判定された場合、部位別検査部470は、処理をステップS466に進める。また、ステップS463において、補正後の撮像画像の明るさ値が補正前の撮像画像の明るさ値以下であり、今回のステップS458の補正により撮像画像が明るくなっていないと判定された場合、比較部472は、処理をステップS466に進める。
ステップS466において、データ出力部473は、調整すべきパラメータを全て処理したか否かを判定し、未処理のパラメータが存在すると判定された場合、処理をステップS451に戻し、新たな未処理のパラメータについて、それ以降の処理を繰り返す。つまり、調整対象パラメータ選択部461は、未処理のパラメータを新たに調整対象パラメータとして選択し、ステップS452以降の処理を実行させる。
ステップS466において、調整すべきパラメータが全て処理されたと判定した場合、データ出力部473は、処理をステップS467に進め、パラメータ記憶部463に記憶されているパラメータを取得し、出力する。ステップS466の処理を終了すると、データ出力部473は、パラメータ決定処理を終了し、処理を図23のステップS432に戻し、ステップS433以降の処理を実行させる。
[超解像処理の流れ]
次に、図22のステップS410において実行される超解像処理の流れの例を、図25のフローチャートを参照して説明する。
超解像処理が開始されると、画像処理部482は、ステップS481において、学習辞書記憶部481に記憶されている学習辞書の中から未処理の学習辞書を選択する。ステップS482において、画像処理部482は、学習により求めた係数を用いて画像を高解像度化する。
ステップS483において、部位認識部483は、画像に含まれる生体としての部位を認識する。ステップS484において、部位別画像評価部485は、部位毎に画像を評価する。ステップS485において、部位別画像評価部485は、画像および評価結果を記憶する。
ステップS486において、部位別画像評価部485は、全ての学習辞書について処理を行ったか否かを判定する。未処理の学習辞書が存在すると判定された場合、部位別画像評価部485は、処理をステップS481に戻し、新たな学習辞書についてそれ以降の処理を実行させる。すなわち、画像処理部482は、未処理の学習辞書を新たに選択し、ステップS482以降の処理を実行させる。
ステップS486において、全ての学習辞書について処理を行ったと判定された場合、部位別画像評価部485は、処理をステップS487に進める。
ステップS487において、画像選択部486は、以上のように各学習辞書を用いて生成された超解像結果画像群の中から、ステップS484において行われた評価において最も高評価であった超解像結果画像を選択する。超解像結果画像を選択すると、画像選択部486は、超解像処理を終了し、処理を図22のステップS410に戻し、眼底画像生成処理を終了する。
以上のように、各処理を実行することにより、眼底画像処理装置400は、被写体への負荷の増大を抑制しながら、より高画質な被写体の撮像画像を得ることができる。
[パラメータ決定部の他の構成例]
なお、以上においては、パラメータ決定部452において、撮像画像(眼底画像)全体が補正されるように説明したが、これに限らず、生体としての各部位の画像がそれぞれ補正されるようにしてもよい。このようにすることにより、部位別検査において不要な、撮像画像に含まれる眼底の部位として認識されない部分(例えば撮像画像の周縁部等)の処理を省略することができ、パラメータ決定に関する負荷を低減させることができる。
図26は、その場合のパラメータ決定部の主な構成例を示すブロック図である。図26に示される例の場合、パラメータ決定部452は、図20に示される例の補正前明るさ値算出部464の代わりに補正前明るさ値算出部564を有し、明るさ値記憶部465の代わりに明るさ値記憶部465を有する。また、図26に示されるパラメータ決定部452は、図20に示される例の部位認識部466の代わりに部位認識部566を有し、マッピング部469の代わりにマッピング部569を有する。
さらに、図26に示されるパラメータ決定部452は、図20に示される例の部位別検査部470の代わりに部位別検査部570を有し、補正後明るさ値算出部471の代わりに補正後明るさ値算出部571を有する。また、図26に示されるパラメータ決定部452は、図20に示される例の比較部472の代わりに比較部572を有する。
部位認識部566は、部位認識部466と同様に、ノイズ削減処理部413から供給される眼底画像(複数の眼底画像が重ね合わせられて生成された1枚の眼底画像)に含まれる生体(眼底)としての部位を認識する。部位認識部566は、その眼底画像から、特定した各部位の画像を抽出し、抽出した各部位の画像を補正前明るさ値算出部564およびマッピング部569に供給する。
補正前明るさ値算出部564は、供給された各部位の画像について、補正前明るさ値算出部464の場合と同様の方法で明るさ値をそれぞれ算出する。補正前明るさ値算出部564は、算出した各部位の明るさ値を明るさ値記憶部565に供給し、記憶させる。
明るさ値記憶部565は、例えば、ハードディスク、フラッシュメモリ、若しくは、RAM等の任意の記憶媒体を有し、明るさ値記憶部465の場合と同様に、補正前明るさ値算出部564や比較部572から供給される各部位の画像の明るさ値を記憶する。
マッピング部569は、トーンカーブ算出部468により算出されたトーンカーブを用いて、部位認識部566から供給される各部位の画像の輝度値を階調補正する。この補正方法は、マッピング部469の場合と同様である。マッピング部569は、その補正後の各部位の画像と、トーンカーブ算出部468から供給された調整対象パラメータとを部位別検査部570に供給する。
部位別検査部570は、マッピング部569から供給される補正後の各部位の画像を、各部位の画像の特徴の違いを考慮し、どの部位についても適切な階調補正となるように、その部位の画像の特徴に応じた方法で検査する。各部位の検査の方法は、部位別検査部470の場合と同様である。
部位別検査部570は、このような部位毎の判定結果を、マッピング部469から供給される補正後の各部位の画像および調整対象パラメータとともに、補正後明るさ値算出部571に供給する。
補正後明るさ値算出部571は、部位別検査部570において各部位の検査が全て合格であった場合、補正後の各部位の画像について明るさ値を算出する。この明るさ値の算出方法は、補正前明るさ値算出部564の場合と同様である。明るさ値を算出すると、補正後明るさ値算出部571は、算出した各部位の画像の明るさ値と、部位別検査部570から供給された調整対象パラメータとを比較部572に供給する。
また、部位別検査部570による各部位の検査結果に不合格が含まれる場合、補正後明るさ値算出部571は、補正後明るさ値算出部471の場合と同様に、その検査結果を比較部572に供給する。
比較部572は、補正後明るさ値算出部571から補正後の各部位の画像の明るさ値を取得すると、明るさ値記憶部565が保持する各部位の画像の明るさ値を取得し、それらを比較する。
各部位の画像について、補正後明るさ値算出部571から供給された明るさ値の方が、明るさ値記憶部565から供給された明るさ値より大きい場合、比較部572は、補正後明るさ値算出部571から供給された調整対象パラメータを、パラメータ記憶部463に供給し、記憶させる(パラメータ記憶部463が保持する調整対象パラメータの値を更新させる)。また、この場合、比較部572は、補正後明るさ値算出部571から供給された各部位の画像の明るさ値を、明るさ値記憶部565に供給し、記憶させる(明るさ値記憶部565が保持する最新の明るさ値を更新させる)。
逆に、より明るい画像が得られなかった場合、すなわち、各部位の画像について、補正後明るさ値算出部571から供給された明るさ値が、明るさ値記憶部565から供給された明るさ値より大きくない場合、比較部572は、データ出力部473にその旨を通知する(パラメータ記憶部463および明るさ値記憶部565の情報は更新させない)。
なお、比較部572は、今回の補正前後の各部位の画像の明るさ値の比較方法は任意である。例えば、比較部572は、今回の補正前後について、各部位の画像の明るさ値をそれぞれ比較するようにしてもよいし、各部位の画像の明るさ値の総和や平均値等の統計値を算出し、その総和を比較するようにしてもよい。また、比較部572は、今回の補正前後について、各部位の画像の明るさ値にそれぞれの部位用の重み係数を乗算し、その各乗算結果の総和を算出し、その総和を比較するようにしてもよい。
[パラメータ決定処理の流れ]
図26に示されるパラメータ決定部452により実行されるパラメータ決定処理の流れの例を、図27のフローチャートを参照して説明する。
この場合も、パラメータ決定処理の流れは、基本的に、図24のフローチャートを参照して説明した場合と同様である。ただし、図27の例の場合、部位認識部566が、ステップS553において、撮像画像に含まれる生体としての各部位を認識し、各部位の画像を抽出する。
そして、補正前明るさ値算出部564は、ステップS554において、抽出された各部位の画像の明るさ値を算出し、明るさ値記憶部565は、ステップS555において、算出された各明るさ値を記憶する。
また、マッピング部569は、ステップS558において、各部位の画像を、ステップS557において算出されたトーンカーブを用いて補正する。
さらに、補正後明るさ値算出部571は、ステップS561において、ステップS558において得られた補正後の各部位の画像の明るさ値を算出する。ステップS562において、比較部572は、今回の補正前の各部位の画像と、今回の補正後の各部位の画像とで明るさ値を比較する。
以上のようにして各パラメータの値を決定することにより、パラメータ決定部452は、各パラメータの値を、ノイズや白とびの発生等の不具合を抑制しながら、より明るい画像を得ることができる値に設定することができる。
なお、さらに、各部位の画像の補正に使用されるトーンカーブが、各部位毎に独立して設定されるようにしてもよい。すなわち、パラメータ決定部452が、生体としての部位毎にパラメータを決定するようにしてもよい。この場合、図18のトーンカーブ算出部453は、各部位の画像毎にトーンカーブを算出する。また、マッピング部454は、画像バッファ451から供給される撮像画像から、その撮像画像に含まれる生体としての部位を認識し、各部位の画像を抽出する。そしてマッピング部454は、抽出した各部位の画像を、それぞれ、トーンカーブ算出部453が算出したその部位用のトーンカーブを用いて補正する。
このようにすることにより、トーンリプロダクション処理部415は、生体としての画像の特徴に応じてより適切にトーンリプロダクション処理を行うことができる。
なお、第3の実施の形態においては、トーンリプロダクション処理部415および超解像処理部416の両方が、被写体の生体情報(眼底に関する情報)を用いてそれぞれの処理を行うように説明したが、これに限らず、例えば、トーンリプロダクション処理部415若しくは超解像処理部416のいずれか一方が被写体の生体情報を用いて処理を行い、他方が被写体の生体情報を用いずに処理を行うようにしてもよい。また、例えば、トーンリプロダクション処理部415若しくは超解像処理部416のいずれか一方を省略するようにしてもよい。
<4.第4の実施の形態>
[眼底画像処理装置の構成]
ところで、上述したように、撮像部101は、撮像の際に被写体に光を照射する。この場合の照射光は可視光であることから、被験者への影響等を考慮して、照射光の光量が落とされている。その結果、可視光を照射して撮像された眼底画像は比較的暗い画像となる。
そこで、本実施の形態においては、撮像部は、可視光の他に赤外光を含む照射光を用いて、被写体を撮像する。赤外光は人間の眼には見えないので、撮像部は、位置合わせを行うのに十分な光量を被写体に照射して、撮像することができる。これにより、位置合わせを行うのに十分な明るさの眼底画像が得られる。なお、本明細書でいう赤外光とは、一般的にいう、波長帯域が略700乃至1000nmの波長帯域の赤外光のみならず、近赤外光等を含む広義な概念である。例えば、被験者が眩しいと感じない非侵襲の光も、本明細書でいう赤外光の一種である。
図28は、本実施の形態の概要について説明する図である。図28の枠600に示されるように、位置合わせを行うのに十分な光量で赤外光を照射して撮像された画像621に対して、位置合わせが行われる。なお、画像621のように、赤外光を照射して撮像された画像を、以下、赤外光画像と称する。そして、枠601に示されるように、赤外光画像621における位置合わせの結果(以下、位置合わせ情報と称する)を用いて、低光量で可視光を照射して撮像された画像622に対して、位置合わせが行われる。なお、画像622のように、低光量で可視光を照射して撮像された画像を、以下、可視光画像と称する。これにより、より高画質な被写体の撮像画像を得ることが出来るようになる。
[眼底画像処理装置の構成]
図29は、眼底画像処理装置の構成例を示すブロック図である。図29に示される眼底画像処理装置700は、図3の眼底画像処理装置200と基本的に同様の構成を有し、同様の処理を行う。ただし、眼底画像処理装置700は、眼底画像処理装置200が有する撮像部101および画像処理部202の代わりに、撮像部701および画像処理部702を有する。したがって、以下では、撮像部701および画像処理部702についてのみ説明する。
撮像部701は、可視光の他に赤外光を含む照射光を被写体に照射させながら、可視光と赤外光で同時に眼底の撮像を複数回繰り返す。撮像部701の構成について図30を参照して説明する。
[撮像部]
図30は、撮像部701の主な構成例を示す図である。図30に示されるように、撮像部701は、光源731、ミラー732−1乃至732−3、レンズ733、可視光撮像部734、赤外光撮像部735、赤外光カットフィルタ736、および可視光カットフィルタ737を有する。
光源731は、可視光の波長帯域および赤外光の波長帯域で発光する照明からなる。このとき、可視光は比較的低光量であり、赤外光は位置合わせを行うのに十分な光量であるとする。すなわち、赤外光は可視光よりも光量が高い。
ミラー732−1乃至732−3は、可視光および赤外光を反射または透過する。
レンズ733は、可視光撮像部734および赤外光撮像部735の受光面に被写体像を結像させる。
すなわち、光源731からの可視光および赤外光は、ミラー732−1,732−2の各々で反射されて光路の方向を変えてレンズ733を通過し、眼221の眼底に入射し、眼底を照明する。
眼221の眼底からの反射光すなわち眼底像は、ミラー732−3で反射して可視光撮像部734に入射すると共に、赤外光撮像部735に入射する。
ただし、可視光撮像部734に装着された赤外光カットフィルタ736は、赤外光を透過させずに可視光のみを透過させる。従って、眼221の眼底からの反射光すなわち眼底像のうち、可視光の眼底像は、可視光撮像部734に装着された赤外光カットフィルタ736を透過して、可視光撮像部734の受光面に結像される。一方、眼221の眼底からの反射光すなわち眼底像のうち、赤外光の眼底像は、可視光撮像部734の赤外光カットフィルタ736を透過しないため、可視光撮像部734の受光面には結像されない。したがって、可視光撮像部734は、可視光の眼底像のみを撮像し、その結果可視光画像のみを出力する。
また、赤外光撮像部735に装着された可視光カットフィルタ737は、可視光を透過させずに赤外光のみを透過させる。従って、眼221の眼底からの反射光すなわち眼底像のうち、赤外光の眼底像は、赤外光撮像部735に装着された可視光カットフィルタ737を透過して、赤外光撮像部735の受光面に結像される。一方、眼221の眼底からの反射光すなわち眼底像のうち、可視光の眼底像は、赤外光撮像部735の可視光カットフィルタ737を透過しないため、赤外光撮像部735の受光面には結像されない。したがって、赤外光撮像部735は、赤外光の眼底像のみを撮像し、その結果赤外光画像のみを出力する。
撮像部701は、可視光の他に赤外光を含む照射光を照射させながら、可視光と赤外光で同時に眼底の撮像を複数回繰り返す。撮像部701による撮像は、撮像により得られる各眼底画像が互いに近似するように、できるだけ短時間に複数回行われる方が望ましい。撮像部701の撮像により得られた比較的低画質の複数の可視光画像および複数の位置合わせを行うのに十分な画質の赤外光画像は、画像処理部702に供給される。
なお、撮像部701の構成は上述の例に限定されず、被写体の可視光画像および赤外光画像が得られる構成であればよい。例えば、可視光撮像部734および赤外光撮像部735のそれぞれに含まれる撮像素子に、可視光カットフィルタ736および赤外光カットフィルタ737の両方を配置して、可視光撮像部734および赤外光撮像部735のそれぞれで可視光画像と赤外光画像とが得られるようにしてもよい。
画像処理部702は、撮像部701から供給された複数の位置合わせを行うのに十分な画質の赤外光画像に対して位置合わせを行う。そして、画像処理部702は、赤外光画像における位置合わせ情報(詳細については後述する)を用いて、比較的低画質の複数の可視光画像に対して位置合わせを行ってから重ね合わせを行うことにより、より高画質な1枚の眼底画像を生成する。
図29に示されるように、画像処理部702は、入力画像バッファ711、赤外光画像位置合わせ処理部712、初期画像バッファ713、位置合わせ情報バッファ714、可視光画像位置合わせ処理部715、超解像処理部716、および超解像結果画像バッファ717を有する。
入力画像バッファ711は、例えばハードディスク、フラッシュメモリ、若しくは、RAM等の任意の記憶媒体の少なくとも一部の領域に設けられ、撮像部701から供給される、比較的低画質の複数の可視光画像および複数の位置合わせを行うのに十分な画質の赤外光画像を入力画像として記憶する。そして、入力画像バッファ711は、必要に応じて適宜、赤外光画像を赤外光画像位置合わせ処理部712に供給し、可視光画像を可視光画像位置合わせ処理部715に供給する。
赤外光画像位置合わせ処理部712は、被写体の生体情報を用いて、入力画像バッファ711から供給される赤外光画像と、後述する初期画像バッファ713から供給される赤外光画像の初期画像との間で、被写体の位置を合わせるように位置合わせを行う。赤外光画像位置合わせ処理部712は、位置合わせが収束した場合、位置合わせ情報を位置合わせ情報バッファ714に供給する。なお、赤外光画像位置合わせ処理部712の詳細な構成については、図31,図32を参照して後述する。
位置合わせに利用する生体情報として、例えば、血管、神経、若しくは視神経乳頭等を採用することができる。もちろん、この生体情報は、任意であり、これら以外のものであってもよい。
初期画像バッファ713は、例えばハードディスク、フラッシュメモリ、若しくは、RAM等の任意の記憶媒体の少なくとも一部の領域に設けられ、赤外光画像位置合わせ処理部712を介して入力画像バッファ711から最初に供給されてきた赤外光画像を初期画像として記憶する。初期画像バッファ713は、必要に応じて適宜その初期画像を、赤外光画像位置合わせ処理部712に供給する。
位置合わせ情報バッファ714は、例えばハードディスク、フラッシュメモリ、若しくは、RAM等の任意の記憶媒体の少なくとも一部の領域に設けられ、赤外光画像位置合わせ処理部712から供給される位置合わせ情報を記憶する。
可視光画像位置合わせ処理部715は、位置合わせ情報バッファ714から読み出した位置合わせ情報を、入力画像バッファ711から供給される可視光画像に適用して、画像の位置合わせを行う。位置合わせされた可視光画像は、超解像処理部716に供給される。
超解像処理部716は、図3の超解像処理部213と基本的に同様の構成を有し、同様の処理を行う。すなわち、超解像処理部716は、超解像結果画像バッファ717から、過去に生成した超解像処理結果画像(すなわち、超解像処理結果として得られる画像)を取得し、その超解像結果画像と、可視光画像位置合わせ処理部715より位置合わせされた可視光画像との重ね合わせによる超解像処理およびハイダイナミックレンジ処理を行い、超解像結果画像を生成する。超解像処理部716は、このような位置合わせと超解像処理が繰り返されて生成された、より高解像度かつダイナミックレンジの大きな超解像結果画像を記憶部103に記憶させたり、出力部104より出力させたりするとともに、超解像結果画像バッファ717に供給し、記憶させる。
超解像結果画像バッファ717は、図3の超解像結果画像バッファ214と基本的に同様の構成を有し、同様の処理を行う。すなわち、超解像結果画像バッファ717は、超解像処理部716により生成された超解像結果画像を記憶し、必要に応じて適宜その超解像結果画像を、超解像処理部716に供給する。なお、超解像結果画像バッファ717は、超解像処理部716を介して可視光画像位置合わせ処理部715から最初に供給されてきた可視光画像を初期画像として記憶する。超解像結果画像バッファ717は、必要に応じて適宜その初期画像を、超解像処理部716に供給する。
[画像処理部の処理]
図31は、このような構成の画像処理部702による処理の流れについて説明する図である。図31に示されるように、撮像部701により撮像された複数の赤外光画像621と複数の可視光画像622は、入力画像バッファ711に記憶される。入力画像バッファ711は、所定のタイミングで1枚ずつ赤外光画像621を赤外光画像位置合わせ処理部712に供給する。
図31の枠741に示されるように、赤外光画像位置合わせ処理部712は、入力画像バッファ711から供給される赤外光画像621と、初期画像バッファ713から供給される初期画像との、眼の情報(すなわち、生体情報)を使った画像の位置合わせを行う。赤外光画像位置合わせ処理部712は、位置合わせが収束した場合、赤外光画像での位置合わせ情報を位置合わせ情報バッファ714に供給する。このような処理が繰り返され、入力画像バッファ711に記憶された全ての赤外光画像についての位置合わせ情報が、位置合わせ情報バッファ714に記憶される。
そして、図31の枠742に示されるように、可視光画像位置合わせ処理部715は、位置合わせ情報バッファ714から読み出した各赤外光画像についての位置合わせ情報を、入力画像バッファ711から供給される各赤外光画像に対応する可視光画像622に適用して、可視光画像の位置合わせを行う。その後、位置合わせされた可視光画像は、超解像処理部716に供給されて、画像の重ね合わせによる超解像処理が施される。
[赤外光画像位置合わせ処理部の構成]
次に、赤外光画像位置合わせ処理部712の詳細な構成について図32,図33を参照して説明する。
図32は、図29の赤外光画像位置合わせ処理部712の主な構成例を示すブロック図である。図32に示されるように、赤外光画像位置合わせ処理部712は、赤外光画像血管抽出部751、初期画像血管抽出752、赤外光画像交叉点抽出部753、初期画像交叉点抽出部754、交叉点位置合わせ処理部755、および血管位置合わせ処理部756を有する。
赤外光画像血管抽出部751は、入力画像バッファ711から供給される赤外光画像から血管の部分を抽出し、血管位置合わせ処理部756に供給する。
同様に、初期画像血管抽出部752は、初期画像バッファ713から供給される初期画像から血管の部分を抽出し、血管位置合わせ処理部756に供給する。
血管位置合わせ処理部756は、各画像から抽出された血管抽出結果を用いて、赤外光画像と初期画像との間で血管の位置合わせを行い、位置合わせ情報を位置合わせ情報バッファ714に記憶させる。
なお、血管抽出結果(すなわち、血管全体の形状や位置)による位置合わせ処理の前に、血管の交叉点の位置による簡易的な位置合わせを行うようにしてもよい。その場合、赤外光画像血管抽出部751は、赤外光画像からの血管抽出結果を、赤外光画像交叉点抽出部753に供給する。
赤外光画像交叉点抽出部753は、赤外光画像血管抽出部751から供給される血管抽出結果から交叉点を抽出し、その交叉点抽出結果を交叉点位置合わせ処理部755に供給する。
また、初期画像血管抽出部752は、初期画像からの血管抽出結果を、初期画像交叉点抽出部754に供給する。
初期画像交叉点抽出部754は、初期画像血管抽出部752から供給される血管抽出結果から交叉点を抽出し、その交叉点抽出結果を交叉点位置合わせ処理部755に供給する。
交叉点位置合わせ処理部755は、各画像から抽出された交叉点抽出結果を用いて、赤外光画像と初期画像との間で交叉点の位置合わせを行う。そしてその交叉点位置合わせ結果が血管位置合わせ処理部756に供給される。
血管位置合わせ処理部756は、交叉点位置合わせ処理部755から供給される交叉点位置合わせ結果を初期状態とし、血管抽出結果を用いて赤外光画像の位置合わせを行う。つまり、血管位置合わせ処理部756は、交叉点位置合わせ結果にしたがって、交叉点の位置合わせと同様に位置合わせを行いながら各血管抽出結果を重畳し、それを初期状態とする。
このようにすることにより、血管位置合わせ処理部756は、交叉点を用いて簡易的に位置合わせされた状態から、位置合わせを開始することができるので、より容易かつ高速に位置合わせを行うことができる。
なお、血管位置合わせ処理部756は、さらに他の生体情報を用いた位置合わせを併用するようにしてもよい。例えば、血管位置合わせ処理部756は、最初に、視神経乳頭の位置で位置合わせを行いながら、赤外光画像と初期画像とを重畳し、その重畳画像を初期値として交叉点による位置合わせを行うようにしてもよい。
[血管位置合わせ処理部の構成]
次に、血管全体の位置や形状等を用いた位置合わせについて図33を参照して説明する。
図33は、血管位置合わせ処理部756の主な構成例を示すブロック図である。図33に示されるように、血管位置合わせ処理部756は、重畳処理部771、シフト処理部772、伸ばし処理部773、回転処理部774、拡大縮小処理部775、および収束判定部776を有する。
重畳処理部771は、赤外光画像血管抽出部751による血管抽出結果(以下、赤外光画像血管抽出結果と称する)と、初期画像血管抽出部752による血管抽出結果(以下、初期画像血管抽出結果と称する)とを重畳する。交叉点による位置合わせを行う場合、重畳処理部771は、交叉点位置合わせ処理部755から供給される交叉点位置合わせ結果を用いて、交叉点の位置合わせと同様の位置合わせを行いながら、赤外光画像血管抽出結果と初期画像血管抽出結果とを重畳する。重畳処理部771は、重畳結果をシフト処理部772に供給する。
なお、血管位置合わせ処理部756は、赤外光画像血管抽出結果を初期画像血管抽出結果に近づけるように位置合わせを行う。
シフト処理部772は、赤外光画像血管抽出結果全体を移動(シフト)させ、赤外光画像血管抽出結果と初期画像血管抽出結果との差分の絶対値が最小となる位置を検索し、差分の絶対値が最小となった状態で、重畳結果を伸ばし処理部773に供給する。
伸ばし処理部773は、赤外光画像血管抽出結果を任意の方向に伸ばし(変形させ)、赤外光画像血管抽出結果と初期画像血管抽出結果との差分の絶対値が最小となる形状を検索し、差分の絶対値が最小となった状態で、重畳結果を回転処理部774に供給する。
回転処理部774は、赤外光画像血管抽出結果を左右に回転させ、赤外光画像血管抽出結果と初期画像血管抽出結果との差分の絶対値が最小となる向きを検索し、差分の絶対値が最小となった状態で、重畳結果を拡大縮小処理部775に供給する。
拡大縮小処理部775は、赤外光画像血管抽出結果を拡大したり縮小したりし、赤外光画像血管抽出結果と初期画像血管抽出結果との差分の絶対値が最小となる大きさを検索し、差分の絶対値が最小となった状態で、重畳結果を収束判定部776に供給する。
収束判定部776は、供給された重畳結果に基づいて、位置合わせが収束したか否かを判定する。例えば、収束判定部776は、上述した各処理を複数回繰り返し行わせ、今回得られた位置合わせ結果を、前回の位置合わせ結果と比較し、前回より赤外光画像血管抽出結果が初期画像血管抽出結果に近づいた場合、収束していないと判定し、前回より赤外光画像血管抽出結果が初期画像血管抽出結果に近づいていない場合、収束したと判定する。
収束していないと判定した場合、収束判定部776は、その重畳結果をシフト処理部772に戻し、再度、位置合わせを行わせる。また、位置合わせが収束したと判定した場合、収束判定部776は、重畳結果(例えば、赤外光画像血管抽出結果と初期画像血管抽出結果との差分の絶対値が最小となるときの重畳結果)を位置合わせ情報として、位置合わせ情報バッファ714に記憶させる。
なお、交叉点位置合わせ処理部755は、血管位置合わせ処理部756と基本的に同様の構成を有し、位置合わせに用いる生体情報が血管全体かその交叉点かの違い以外は、基本的に同様の処理を行う。
全ての赤外光画像に対して位置合わせ処理が施され、各赤外光画像に対応する位置合わせ情報が位置合わせ情報バッファ714に記憶される。すると、可視光画像位置合わせ処理部715は、入力画像バッファ711から可視光画像を1枚ずつ読み出して、読み出した可視光画像に対応する赤外光画像の位置合わせ情報を、位置合わせ情報バッファ714から読み出す。そして、可視光画像位置合わせ処理部715は、可視光画像に位置合わせ情報を適用して位置合わせを行う。
位置合わせされた可視光画像は、超解像処理部716に供給されて、画像の重ね合わせによる超解像処理が施される。全ての可視光画像に対して、このような位置合わせと超解像処理が繰り返されて生成された、より高解像度かつダイナミックレンジの大きな眼底画像は、記憶部103に記憶されたり、出力部104より出力されたりする。なお、ここで高解像度とは、ボケが除去され、よりシャープな画像であることを示しており、実際に解像度が高くなくてもよい。
[眼底画像生成処理の流れ]
次に、図34のフローチャートを参照して、このような眼底画像処理装置700により実行される眼底画像生成処理の流れの例について説明する。
ステップS601において、撮像部701は、可視光と赤外光で同時に複数回、被験者の眼底(すなわち、被写体)を撮像する。このとき、可視光は低光量であり、赤外光は位置合わせを行うのに十分な光量である。
ステップS602において、画像処理部702は、ステップS601の処理により得られた撮像画像、すなわち可視光画像と赤外光画像とを入力画像バッファ711に記憶させる。
ステップS603において、赤外光画像位置合わせ処理部712は、最初の赤外光画像を初期画像として初期画像バッファ713に記憶させる。
ステップS604において、赤外光画像位置合わせ処理部712は、入力画像バッファ711から、未処理の赤外光画像を1枚選択して読み出す。
ステップS605において、赤外光画像位置合わせ処理部712は、位置合わせ処理を行う。なお、位置合わせ処理は、図13および図14のフローチャートを参照して説明した生体情報位置合わせ処理と基本的に同様である。ただし、図13の生体情報位置合わせ処理においては、入力画像と前回の超解像結果画像とが用いられるのに対して、ステップS605の位置合わせ処理においては、赤外光画像と初期画像とが用いられる点が異なる。したがって、位置合わせ処理の説明は繰り返しになるので省略する。
ステップS606において、赤外光画像位置合わせ処理部712は、位置合わせ情報を位置合わせ情報バッファ714に記憶させる。
ステップS607において、赤外光画像位置合わせ処理部712は、全ての赤外光画像を処理したか否かを判定し、未処理の赤外光画像が存在すると判定した場合、処理をステップS604に戻し、それ以降の処理を実行させる。
ステップS607において、全ての赤外光画像が処理されたと判定された場合、処理はステップS608に進む。
ステップS608において、可視光画像位置合わせ処理部715は、最初の可視光画像を初期画像として超解像結果画像バッファ717に記憶させる。
ステップS609において、可視光画像位置合わせ処理部715は、入力画像バッファ711から、未処理の可視光画像を1枚選択して読み出す。
ステップS610において、可視光画像位置合わせ処理部715は、位置合わせ情報バッファ714に記憶された位置合わせ情報を読み出す。すなわち、可視光画像位置合わせ処理部715は、ステップS609で読み出した可視光画像に対応する赤外光画像の位置合わせ情報を読み出す。
ステップS611において、可視光画像位置合わせ処理部715は、位置合わせ情報を用いて可視光画像の位置合わせ処理を行う。
ステップS612において、超解像処理部716は、超解像処理を行う。なお、超解像処理は、図15のフローチャートを参照して説明した超解像処理と基本的に同様である。ただし、図15の超解像処理においては、位置合わせされた入力画像と前回の超解像結果画像とが重ね合わされるのに対して、ステップS612の超解像処理においては、位置合わせされた可視光画像と前回の超解像結果画像とが重ね合わされる点が異なる。したがって、超解像処理の説明は繰り返しになるので省略する。
ステップS613において、超解像処理部716は、超解像処理により得られた新たな超解像結果画像を記憶部103や出力部104に出力するとともに、超解像結果画像バッファ717に記憶させる。
ステップS614において、超解像処理部716は、全ての可視光画像を処理したか否かを判定し、未処理の可視光画像が存在すると判定された場合、処理をステップS609に戻し、それ以降の処理を実行させる。
ステップS614において、全ての可視光画像が処理されたと判定された場合、眼底画像生成処理は終了する。
以上のように、赤外光画像における位置合わせ情報を用いて、可視光画像に対して位置合わせが行われることより、より高画質な被写体の撮像画像を得ることが出来るようになる。
<5.第5の実施の形態>
[眼底画像処理装置の他の構成]
次に、赤外光画像における位置合わせ情報を用いて、可視光画像に対して位置合わせが行われる場合の、眼底画像処理装置の他の構成例を説明する。
図35は、眼底画像処理装置の他の構成例を示すブロック図である。図35に示される眼底画像処理装置800は、赤外光画像における位置合わせ情報を用いて位置合わせが行われた可視光画像に含まれる生体情報を、トーンリプロダクション処理や超解像処理に利用し、より高画質な眼底画像を生成する。
眼底画像処理装置800は、図29の眼底画像処理装置700と基本的に同様の構成を有し、同様の処理を行う。ただし、眼底画像処理装置800は、眼底画像処理装置700が有する画像処理部702の代わりに、画像処理部802を有する。したがって、以下では、画像処理部802についてのみ説明する。
画像処理部802は、画像処理部702と基本的に同様の構成を有し、同様の処理を行う。ただし、画像処理部802は、画像処理部702が有する超解像処理部716および超解像結果画像バッファ717の代わりに、ノイズ削減処理部811、ノイズ削減結果画像バッファ812、トーンリプロダクション処理部415、および超解像処理部416を有する。したがって、以下では、ノイズ削減処理部811、ノイズ削減結果画像バッファ812、トーンリプロダクション処理部415、および超解像処理部416についてのみ説明する。
ノイズ削減処理部811は、図16のノイズ削減処理部413と基本的に同様の構成を有し、同様の処理を行う。ただし、ノイズ削減処理部811は、可視光画像位置合わせ処理部715により位置合わせが行われた可視光画像を、ノイズ削減結果画像バッファ812に保持される前回の重ね合わせ結果(つまり、ノイズ削減結果)の画像と重ね合わせることにより、眼底画像のダイナミックレンジを拡張し、ノイズを低減させる。
ノイズ削減結果画像バッファ812は、図16のノイズ削減結果画像バッファ414と基本的に同様の構成を有し、同様の処理を行う。ただし、ノイズ削減結果画像バッファ812は、ノイズ削減処理部811により生成されたノイズ削減結果画像を記憶し、必要に応じて適宜そのノイズ削減結果画像を、ノイズ削減処理部811に供給する。なお、ノイズ削減結果画像バッファ812は、ノイズ削減処理部811を介して可視光画像位置合わせ処理部715から最初に供給されてきた位置合わせされた可視光画像を初期画像として記憶する。
トーンリプロダクション処理部415および超解像処理部416は、それぞれ図16のトーンリプロダクション処理部415および超解像処理部416と基本的に同様の構成を有し、同様の処理を行う。したがって、その説明は繰り返しになるので省略する。
[眼底画像生成処理の流れ]
次に、図36のフローチャートを参照して、このような眼底画像処理装置800により実行される眼底画像生成処理の流れの例について説明する。
ステップS641乃至ステップS651の各処理は、図34のステップS601乃至ステップS611の各処理と同様であるので、その説明は繰り返しになるので省略する。
ステップS652乃至ステップS656の各処理は、図22のステップS406乃至ステップS410と基本的に同様である。ただし、ステップS652において、ノイズ削減処理部811は、ステップS651の処理により位置合わせされた可視光画像を重ね合わせ、ノイズを低減させる。
ステップS653において、ノイズ削減処理部811は、全ての可視光画像を処理したか否かを判定する。未処理の可視光画像が存在すると判定された場合、ノイズ削減処理部811は、処理をステップS654に進める。
ステップS654において、ノイズ削減結果画像バッファ812は、ステップS652の処理により得られるノイズ削減処理結果画像、つまり、重ね合わせされた可視光画像を記憶する。可視光画像を記憶すると、ノイズ削減結果画像バッファ812は、処理をステップS649に戻し、それ以降の処理を繰り返す。
ステップS649乃至ステップS654の処理が繰り返され、ステップS653において、全ての可視光画像が処理されたと判定された場合、ノイズ削減処理部811は、処理をステップS655に進める。
ステップS655において、トーンリプロダクション処理部415は、生成された1枚の可視光画像に対してトーンリプロダクション処理を行う。なお、トーンリプロダクション処理の詳細は、図23および図24のフローチャートを参照して説明したのと基本的に同様であるので、その説明を省略する。
ステップS656において、超解像処理部416は、トーンリプロダクション処理が施された可視光画像について、超解像処理を行う。なお、超解像処理の詳細は、図25のフローチャートを参照して説明したのと基本的に同様であるので、その説明を省略する。
これにより高解像度な眼底画像が得られ、眼底画像生成処理は終了する。
以上のように、赤外光画像における位置合わせ情報を用いて、可視光画像に対して位置合わせが行われることより、より高画質な被写体の撮像画像を得ることが出来るようになる。
[他の構成の眼底画像処理装置への適用]
ところで、撮像部により得られた可視光画像と赤外光画像との両画像を用いて、より高画質な被写体の撮像画像を得る第4,第5の実施の形態の手法は、上述した第1乃至第3の実施の形態の眼底画像処理装置100,200,400の各々に適用することができる。
第4,第5の実施の形態の手法が適用された眼底画像処理装置100,200,400の各々の構成は、図1,図3,図16のそれぞれに示す構成と基本的に同様の構成を有する。しかしながら、第4,第5の実施の形態の手法が適用された眼底画像処理装置100,200,400各々は、可視光画像と赤外光画像との両画像を用いるため、第1乃至第3の実施の形態における処理とは異なる処理を実行する。したがって、以下では、眼底画像処理装置100,200,400の順に、第4,第5の実施の形態の手法が適用された場合の処理について説明する。
はじめに、可視光画像および赤外光画像の両方を用いる場合の図1の眼底画像処理装置100について説明する。
図1の眼底画像処理装置100の撮像部101は、可視光と赤外光で同時に眼底の撮像を複数回繰り返す。すなわち、撮像部101は、図29の撮像部701と同様の構成を有し、同様の処理を行う。
画像処理部102のうち、動きベクトル検出部121の処理においては、赤外光画像のみが用いられ、画像処理部102のその他の構成要素の処理においては、可視光画像および赤外光画像の両方が用いられる。
すなわち、入力画像バッファ111は、撮像部101から供給される、可視光画像および赤外光画像を入力画像として記憶する。
SR画像バッファ113は、生成された可視光画像および赤外光画像のSR画像を保持し、可視光画像および赤外光画像のSR画像を所定のタイミングで超解像処理部112や演算部114に供給する。
SR画像バッファ113に保持された赤外光画像のSR画像は動きベクトル検出部121と動き補償部122に供給され、入力画像バッファ111に保持された赤外光画像のLR画像は動きベクトル検出部121と演算部124に供給される。一方、SR画像バッファ113に保持された可視光画像のSR画像は動き補償部122のみに供給され、入力画像バッファ111に保持された可視光画像のLR画像は演算部12のみに供給される。
動きベクトル検出部121は、入力された赤外光画像のSR画像とLR画像に基づいて、赤外光画像のSR画像を基準とした動きベクトルを検出し、検出した赤外光画像の動きベクトルを動き補償部122と逆方向動き補償部126に供給する。
動き補償部122は、動きベクトル検出部121から供給された赤外光画像の動きベクトルに基づいて、可視光画像および赤外光画像のSR画像に動き補償を施し、動き補償を施して得られた可視光画像および赤外光画像をダウンサンプリングフィルタ123に供給する。
ダウンサンプリングフィルタ123は、動き補償部122から供給された可視光画像および赤外光画像をダウンサンプリングすることによってLR画像と同じ解像度の可視光画像および赤外光画像を生成し、生成した可視光画像および赤外光画像を演算部124に供給する。
演算部124は、可視光画像および赤外光画像のそれぞれのLR画像と、ダウンサンプリングされた可視光画像および赤外光画像とのそれぞれの差分を表す差分画像を生成し、生成した可視光画像および赤外光画像のそれぞれの差分画像をアップサンプリングフィルタ125に供給する。
アップサンプリングフィルタ125は、演算部124から供給された可視光画像および赤外光画像のそれぞれの差分画像をアップサンプリングすることによってSR画像と同じ解像度の画像を生成し、生成した可視光画像および赤外光画像を逆方向動き補償部126に出力する。
逆方向動き補償部126は、動きベクトル検出部121から供給された赤外高画像の動きベクトルに基づいて、アップサンプリングフィルタ125から供給された可視光画像および赤外光画像に逆方向の動き補償を施し、逆方向の動き補償を施して得られた可視光画像および赤外光画像を表すフィードバック値を演算部114に供給する。
演算部114は、逆方向動き補償部126から供給されるフィードバック値を、SR画像バッファ113から供給される、過去に生成した可視光画像および赤外光画像のSR画像に加算することにより、新たな可視光画像および赤外光画像のSR画像を生成する。演算部114は、生成した、新たな可視光画像および赤外光画像のSR画像をSR画像バッファ113に供給して保持させ、そのSR画像を次の超解像処理(すなわち、新たなSR画像の生成)に利用させる。また、演算部114は、生成した可視光画像のSR画像を、記憶部103に供給して記憶させたり、出力部104に供給して表示させたり、外部の装置等に出力させたりする。
画像処理部102は、超解像処理部112を用いてこのような超解像処理を入力画像バッファ111に保持させた複数の可視光画像および赤外光画像の眼底画像(すなわち、LR画像)のそれぞれについて行い、最終的に1枚の、より高画質な可視光画像のSR画像を生成する。
[眼底画像生成処理の流れ]
図37のフローチャートを参照して、このような眼底画像処理装置100により実行される可視光画像および赤外光画像の両方を用いた眼底画像生成処理の流れの例を説明する。
ステップS681において、撮像部101は、可視光と赤外光で同時に複数回、被験者の眼底(すなわち、被写体)を撮像する。
ステップS682において、画像処理部102は、ステップS101の処理により得られた可視光画像および赤外光画像を入力画像バッファ111に記憶させる。
ステップS683において、画像処理部102は、任意の方法で最初の可視光画像および赤外光画像のSR画像である初期画像を生成し、それをSR画像バッファ113に記憶させる。
ステップS684において、入力画像バッファ111は、保持している未処理の可視光画像および赤外光画像(すなわち、LR画像)を1枚ずつ選択し、それを超解像処理部112に供給する。
ステップS685において、動きベクトル検出部121は、赤外光画像のSR画像とLR画像とから動きベクトルを検出する。
ステップS686において、動き補償部122は、赤外光画像の動きベクトルを用いて、可視光画像および赤外光画像のSR画像に動き補償を施す。
ステップS687において、ダウンサンプリングフィルタ123は、動き補償を施した可視光画像および赤外光画像のSR画像をLR画像と同じ解像度にダウンサンプリングする。
ステップS688において、演算部124は、可視光画像および赤外光画像のSR画像のダウンサンプリング結果と、入力の可視光画像および赤外光画像のLR画像との差分画像を求める。
ステップS689において、アップサンプリングフィルタ125は、可視光画像および赤外光画像のそれぞれの差分画像をアップサンプリングする。
ステップS690において、逆方向動き補償部126は、ステップS685の処理により検出された赤外光画像の動きベクトルを用いて、可視光画像および赤外光画像のそれぞれの差分画像のアップサンプリング結果に逆方向の動き補償を施す。
ステップS691において、演算部114は、ステップS690の処理により算出された可視光画像および赤外光画像のそれぞれの差分画像のアップリング結果であるフィードバック値を、SR画像バッファ113により保持される過去に生成された可視光画像および赤外光画像のそれぞれのSR画像に加算する。
ステップS692において、画像処理部102は、新たに生成された可視光画像のSR画像を、記憶部103に記憶させたり、出力部104から出力させたりするとともに、可視光画像および赤外光画像をSR画像バッファ113に記憶させる。
ステップS693において、入力画像バッファ111は、全ての可視光画像および赤外光画像(すなわち、LR画像)を処理したか否かを判定し、未処理の可視光画像および赤外光画像(すなわち、LR画像)が存在すると判定された場合、処理をステップS684に戻し、新たな可視光画像および赤外光画像を処理対象として選択し、その可視光画像および赤外光画像について、それ以降の処理を繰り返させる。
ステップS693において、撮像部101により複数回撮像され得られた複数の可視光画像および赤外光画像の全てが処理され、1枚の、より高画質な可視光画像の眼底画像が得られたと判定された場合、眼底画像生成処理は終了する。
このようにすることにより、眼底画像処理装置100は、眼底への可視光の照射光の光量を増大させずに、より高画質な眼底画像を得ることが出来る。つまり、眼底画像処理装置100は、被写体への負荷の増大を抑制しながら、より高画質な被写体の撮像画像を得ることができる。
次に、可視光画像および赤外光画像の両方を用いる場合の図3の眼底画像処理装置200について説明する。
図3の眼底画像処理装置200の撮像部101は、可視光と赤外光で同時に眼底の撮像を複数回繰り返す。すなわち、撮像部101は、図29の撮像部701と同様の構成を有し、同様の処理を行う。
画像処理部202のうち、生体情報位置合わせ処理部212の処理においては、赤外光画像のみが用いられ、画像処理部202のその他の構成要素の処理においては、可視光画像および赤外光画像の両方が用いられる。
すなわち、入力画像バッファ111は、撮像部101から供給される、可視光画像および赤外光画像を入力画像として記憶する。
生体情報位置合わせ処理部212は、被写体の生体情報を用いて、入力画像バッファ111から供給される赤外光画像(すなわち、入力画像)と、超解像結果画像バッファ214から供給される赤外光画像(すなわち、超解像処理部213により重ね合わせされた画像)との間で画像の位置合わせを行う。そして、生体情報位置合わせ処理部212は、赤外光画像の位置合わせ結果を入力画像バッファ111から供給される可視光画像に反映させる。
超解像処理部213は、超解像結果画像バッファ214から、過去に生成した可視光画像および赤外光画像の超解像処理結果画像(すなわち、超解像処理結果として得られる画像)を取得し、その超解像結果画像と、生体情報位置合わせ処理部212より位置合わせされた可視光画像および赤外光画像の入力画像とを重ね合わせ、新たな可視光画像および赤外光画像の超解像結果画像を生成する。超解像処理部213は、可視光画像の超解像結果画像を記憶部103に記憶させたり、出力部104より出力させたりするとともに、可視光画像および赤外光画像を超解像結果画像バッファ214に供給し、記憶させる。
超解像結果画像バッファ214は、超解像処理部213により生成された可視光画像および赤外光画像の超解像結果画像を保持し、所定のタイミングにおいてその超解像結果画像を、生体情報位置合わせ処理部212や超解像処理部213に供給する。
[眼底画像生成処理の流れ]
図38のフローチャートを参照して、このような眼底画像処理装置200により実行される可視光画像および赤外光画像の両方を用いた眼底画像生成処理の流れの例を説明する。
ステップS721乃至ステップS724の各処理が、図37のステップS681乃至ステップS684の各処理と同様に実行される。ただし、ステップS723において、可視光画像および赤外光画像の初期画像は超解像結果画像バッファ214に記憶される。また、ステップS724において、未処理の可視光画像および赤外光画像が入力画像として1枚ずつ選択される。
処理対象が決定されると、ステップS725において、生体情報位置合わせ処理部212は、赤外光画像に対して生体情報位置合わせ処理を行う。なお、生体情報位置合わせ処理の詳細は、図13のフローチャートを参照して説明したのと基本的に同様であるので、その説明を省略する。ただし、図13のフローチャートのうち、ステップS227の血管の位置合わせ処理の詳細についてのみ、図39を参照して後述する。
ステップS726において、超解像処理部213は、可視光画像および赤外光画像の位置合わせ結果を用いて、超解像処理を行う。なお、超解像処理の詳細は、図15のフローチャートを参照して説明したのと基本的に同様であるので、その説明を省略する。
ステップS727において、超解像処理部213は、超解像処理により得られた新たな可視光画像の超解像結果画像を記憶部103や出力部104に出力するとともに、可視光画像および赤外光画像を超解像結果画像バッファ214に記憶させる。
ステップS728において、入力画像バッファ111は、全ての可視光画像および赤外光画像を処理したか否かを判定し、未処理の可視光画像および赤外光画像が存在すると判定された場合、処理をステップS724に戻し、それ以降の処理を実行させる。
ステップS728において、全ての可視光画像および赤外光画像を処理したと判定された場合、眼底画像生成処理は終了する。
[血管位置合わせ処理の流れ]
次に、図39のフローチャートを参照して、図38のステップS725の生体情報位置合わせ処理(すなわち、図13の生体情報位置合わせ処理)のうち、ステップS227の血管の位置合わせ処理の流れの例を説明する。
ステップS741乃至ステップS748の各処理が、図14のステップS241乃至ステップS248の各処理と同様に実行される。ただし、ステップS741乃至ステップS748の各処理は、処理対象の赤外光画像に対して行われる。
ステップS748において収束したと判定された場合、ステップS749において、生体情報位置合わせ処理部212は、処理対象の赤外光画像に対応する可視光画像を入力画像バッファ111から読み出す。
ステップS750において、生体情報位置合わせ処理部212は、処理対象の赤外光画像の位置合わせ結果をステップS749で読み出した可視光画像に反映させる。すなわち、可視光画像に対して位置合わせを行う。
ステップS751において、生体情報位置合わせ処理部212は、赤外光画像の位置合わせ結果に基づいて赤外光画像の位置合わせを行い、位置合わせされた可視光画像および赤外光画像と血管抽出結果とを超解像処理部213に出力する。
これにより、血管位置合わせ処理は終了する。
このようにすることにより、眼底画像処理装置200は、眼底への可視光の照射光の光量を増大させずに、より高画質な眼底画像を得ることが出来る。つまり、眼底画像処理装置200は、被写体への負荷の増大を抑制しながら、より高画質な被写体の撮像画像を得ることができる。
次に、可視光画像および赤外光画像の両方を用いる場合の図16の眼底画像処理装置400について説明する。
図16の眼底画像処理装置400の撮像部101は、可視光と赤外光で同時に眼底の撮像を複数回繰り返す。すなわち、撮像部101は、図29の撮像部701と同様の構成を有し、同様の処理を行う。
画像処理部402のうち、生体情報位置合わせ処理部212の処理においては、赤外光画像のみが用いられ、画像処理部402のその他の構成要素の処理においては、可視光画像および赤外光画像の両方が用いられる。
すなわち、入力画像バッファ111は、撮像部101から供給される、可視光画像および赤外光画像を入力画像として記憶する。
生体情報位置合わせ処理部212は、被写体の生体情報を用いて、入力画像バッファ111から供給される赤外光画像(すなわち、入力画像)と、ノイズ削減結果画像バッファ414から供給される赤外光画像(すなわち、ノイズ削減処理部413により重ね合わせされた画像)との間で画像の位置合わせを行う。そして、生体情報位置合わせ処理部212は、赤外光画像の位置合わせ結果を入力画像バッファ111から供給される可視光画像に反映させる。
ノイズ削減処理部413は、生体情報位置合わせ処理部212により位置合わせが行われた可視光画像および赤外光画像のそれぞれを、ノイズ削減結果画像バッファ414に保持される前回の重ね合わせ結果(つまり、ノイズ削減結果)の可視光画像および赤外光画像のそれぞれと重ね合わせることにより、可視光画像および赤外光画像のダイナミックレンジを拡張し、ノイズを低減させる。
ノイズ削減結果画像バッファ414は、ノイズ削減処理部413により生成された可視光画像および赤外光画像のノイズ削減結果画像(すなわち、重ね合わせ結果画像)を記憶し、生体情報位置合わせ処理部212やノイズ削減処理部413の要求に基づいて、若しくは所定のタイミングにおいて、その可視光画像および赤外光画像のノイズ削減結果画像を、生体情報位置合わせ処理部212やノイズ削減処理部413に供給する。
つまり、生体情報位置合わせ処理部212による赤外光画像の位置合わせや、ノイズ削減処理部413による重ね合わせは、繰り返し行われる。このようにして、撮像部101において撮像されて得られた複数の可視光画像および赤外光画像が全て処理され、1枚の可視光画像が生成される。
トーンリプロダクション処理部415および超解像処理部416は、図16と同様の構成を有し、同様の処理を行う。すなわち、トーンリプロダクション処理部415および超解像処理部416の生成された1枚の可視光画像は、トーンリプロダクション処理部415によりトーンリプロダクション処理が施され、その後、超解像処理部416により超解像処理が施される。
[眼底画像生成処理の流れ]
図40のフローチャートを参照して、このような眼底画像処理装置400により実行される可視光画像および赤外光画像の両方を用いた眼底画像生成処理の流れの例を説明する。
ステップS771乃至ステップS774の各処理が、図38のステップS721乃至ステップS724の各処理と同様に実行される。ただし、ステップS773において、可視光画像および赤外光画像の初期画像はノイズ削減結果画像バッファ414に記憶される。
処理対象が決定されると、ステップS775において、生体情報位置合わせ処理部212は、赤外光画像に対して生体情報位置合わせ処理を行う。なお、生体情報位置合わせ処理の詳細は、図13のフローチャートを参照して説明したのと基本的に同様であるので、その説明を省略する。また、図13のフローチャートのうち、ステップS227の血管の位置合わせ処理の詳細は、図39のフローチャートを参照して説明したのと基本的に同様であるので、その説明を省略する。
ステップS776において、ノイズ削減処理部413は、ステップS775の処理により位置合わせされた可視光画像および赤外光画像のそれぞれの画像を重ね合わせ、ノイズを低減させる。
ステップS777において、ノイズ削減処理部413は、全ての可視光画像および赤外光画像を処理したか否かを判定する。入力画像バッファ111に未処理の可視光画像および赤外光画像が存在すると判定された場合、ノイズ削減処理部413は、処理をステップS778に進める。
ステップS778において、ノイズ削減結果画像バッファ414は、ステップS776の処理により得られる可視光画像および赤外光画像のノイズ削減処理結果画像、つまり、重ね合わせされた可視光画像および赤外光画像のそれぞれを記憶する。可視光画像および赤外光画像を記憶すると、ノイズ削減結果画像バッファ414は、処理をステップS774に戻し、それ以降の処理を繰り返す。
ステップS774乃至ステップS778の処理が繰り返され、ステップS777において、全ての可視光画像および赤外光画像を処理したと判定された場合、ノイズ削減処理部413は、処理をステップS779に進める。
ステップS779において、トーンリプロダクション処理部415は、生成された1枚の可視光画像に対してトーンリプロダクション処理を行う。なお、トーンリプロダクション処理の詳細は、図23のフローチャートを参照して説明したのと基本的に同様であるので、その説明を省略する。
ステップS780において、超解像処理部416は、トーンリプロダクション処理された画像について、超解像処理を行う。なお、超解像処理の詳細は、図25のフローチャートを参照して説明したのと基本的に同様であるので、その説明を省略する。
ステップS780の処理が終了すると、眼底画像生成処理は終了する。
このようにすることにより、眼底画像処理装置400は、眼底への可視光の照射光の光量を増大させずに、より高画質な眼底画像を得ることが出来る。つまり、眼底画像処理装置400は、被写体への負荷の増大を抑制しながら、より高画質な被写体の撮像画像を得ることができる。
<6.第6の実施の形態>
上述した眼底画像処理装置を、観察者が持ち運べるように小型化することにより、例えば、医師による被験者の眼底の遠隔診察が可能となる。この場合、眼底画像処理装置による眼底画像生成処理のうちの一部が、ネットワーク上で行われることにより、眼底画像処理装置の小型化が可能となる。
図41は、遠隔診察システムの構成例について説明する図である。図41に示されるように、遠隔診察システム900は、小型眼底カメラ911、医師用端末装置912、看護師用端末装置913、患者用端末装置914、ネットワーク915、画像処理装置916、およびデータベース917を有する。
小型眼底カメラ911は、被験者(すなわち患者)の眼底を被写体として複数回撮像し、その結果得られる複数の眼底画像のデータをネットワーク915に送信する。小型眼底カメラ911は、本実施の形態ではCCD撮像素子やCMOS撮像素子、撮像した眼底画像をネットワークに送信する送信部等を有する構成を有している。しかしながら、小型眼底カメラ911は、特に本実施形態の構成をとる必要はなく、撮像した複数の眼底画像のデータをネットワーク915に送信することが可能な構成であれば足りる。
なお、小型眼底カメラ911は、より高画質な眼底画像を出力するために、撮影中の被写体に光を照射する機能を有している。すなわち、小型眼底カメラ911は、上述した撮像部101または撮像部701と同様の構成を有し、同様の処理を実行することができる。小型眼底カメラ911は、観察者が持ち運び可能なサイズとなっており、看護師または患者自身により操作される。
医師用端末装置912は、ネットワーク915を介して、データベース917から眼底画像のデータおよび付加情報のデータを、診察用データとして取得する。データベース917からは、後述する画像処理装置916により生成された高画質な眼底画像のデータが取得される。また、データベース917から取得される付加情報には、例えば、眼底画像中の注目部位を示す情報、類似症例の情報等、医師による診察を補助する情報が含まれる。また、付加情報には、例えば、患者に関する他の情報、すなわち患者の体質、病歴等の情報が含まれてもよく、さらには任意の情報が含まれてもよい。
医師用端末装置912は、医師による撮像箇所の指示、診察結果、再撮像の指示等を、必要に応じて、ネットワーク915を介して看護師用端末装置913および患者用端末装置914に送信する。
看護師用端末装置913は、ネットワーク915を介して、医師用端末912から撮像箇所の指示、診察結果、再撮像の指示等を受信する。また、看護師用端末装置913は、ネットワーク915を介して、データベース917から眼底画像のデータ、および必要に応じて付加情報のデータを取得する。
患者用端末装置914は、ネットワーク915を介して、必要に応じて医師用端末912から撮像箇所の指示、診察結果、再撮像の指示等を受信する。また、患者用端末装置914は、ネットワーク915を介して、データベース917から眼底画像のデータを取得する。また、患者用端末装置914は、ネットワーク915を介して、データベース917から健康情報等を取得してもよい。
ネットワーク915は、クラウド型ネットワークであり、例えば本実施の形態ではインターネットである。
画像処理装置916は、上述した眼底画像装置100,200,400,700,800のそれぞれにおける画像処理部102,202,402,702,802のいずれかと同様の構成を有し、同様の処理を実行することができる。すなわち、画像処理装置916は、ネットワーク915を介して小型眼底カメラ911から取得した複数の撮像画像から、より高画質な眼底画像を生成する。生成された眼底画像のデータは、ネットワーク915を介してデータベース917に記憶されたり、医師用端末装置912、看護師用端末装置913、または患者用端末装置に供給される。
データベース917は、画像処理装置916により生成された眼底画像のデータを記憶する。また、データベース917は、付加情報や、その他の情報を記憶する。その他の情報の内容は特に限定されず、例えば、健康情報等が含まれてもよい。なお、ネットワーク915を介して接続される機器の数は、図41の例に限定されない。
[遠隔診察処理]
次に、図42のフローチャートを参照して、このような遠隔診察システム900により実行される遠隔診察処理の流れの例について説明する。
ステップS881において、小型眼底カメラ911は、看護師または患者の操作に従って、眼底を複数回撮像する。すなわち、小型眼底カメラ911は、低光量の可視光の照射光、または低光量の可視光および位置合わせを行うのに十分な光量の赤外光を含む照射光で眼底を複数回撮像する。
ステップS882において、小型眼底カメラ911は、ステップS881で得られた眼底の撮像画像のデータをネットワーク915に送信する。
ステップS883において、画像処理装置916は、ネットワーク915を介して取得した眼底の撮像画像から、より高画質な眼底画像を生成する眼底画像生成処理を行う。なお、ステップS883の眼底画像生成処理は、図2,図12,図22,図34,または図36のフローチャートを参照して説明した眼底画像生成処理と基本的に同様である。ただし、図2,図12,図22,図34,または図36の各眼底画像生成処理の1番目に行われる眼底の撮像処理は、ステップS881で小型眼底カメラ911により行われるので、各眼底画像生成処理の2番目以降の処理が行われる。
ステップS884において、画像処理装置916は、生成した眼底画像のデータを、ネットワーク915を介してデータベース917に記憶させる。
ステップS885において、医師用端末装置912は、ネットワーク915を介して、眼底画像のデータと付加情報のデータを診察用データとしてデータベース917から取得する。その後、医師用端末装置912は、必要に応じて診察結果等をネットワーク915を介して、看護師用端末装置913や患者用端末装置914に送信する。
ステップS886において、医師用端末装置912は、再撮像の指示がされたか否かを判定する。再撮像の指示がされた場合、処理はステップS881に戻され、それ以降の処理が繰り返される。
ステップS886において、再撮像の指示がされなかった場合、遠隔診察処理は終了する。
このような遠隔診察システム900によれば、看護師または患者により小型眼底カメラ911を用いて撮像された眼底の撮像画像を用いて、遠隔地にいる医師が診察を行うことができる。この場合、小型眼底カメラ911により撮像された撮像画像から、ネットワーク915上の画像処理装置916により高画質な被写体の撮像画像が生成されるので、医師は高画質な被写体の撮像画像を見ながら、遠隔診察を行うことができる。
<7.第7の実施の形態>
[パーソナルコンピュータ]
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。この場合、例えば、図43に示されるようなパーソナルコンピュータとして構成されるようにしてもよい。
図43において、パーソナルコンピュータ1000のCPU(Central Processing Unit)1001は、ROM1002に記憶されているプログラム、または記憶部1013からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU1001、ROM1002、およびRAM1003は、バス1004を介して相互に接続されている。このバス1004にはまた、入出力インタフェース1010も接続されている。
入出力インタフェース1010には、キーボード、マウスなどよりなる入力部1011、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部1012、ハードディスクなどより構成される記憶部1013、モデムなどより構成される通信部1014が接続されている。通信部1014は、インターネットを含むネットワークを介しての通信処理を行う。
入出力インタフェース1010にはまた、必要に応じてドライブ1015が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア1021が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部1013にインストールされる。
上述した一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、ネットワークや記録媒体からインストールされる。
この記録媒体は、例えば、図43に示されるように、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc - Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、若しくは半導体メモリなどよりなるリムーバブルメディア1021により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているROM1002や、記憶部1013に含まれるハードディスクなどで構成される。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。各ステップを異なる装置で処理してもよい。また、1つのステップを異なる処理で分担してもよい。
また、本明細書において、システムとは、複数のデバイス(装置)により構成される装置全体を表すものである。
また、以上において、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。つまり、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
また、本技術は、以下のような構成もとることができる。
(1)
被写体の生体情報を用いて、前記被写体を撮像する撮像部により得られた複数の撮像画像において前記被写体の位置を合わせるように位置合わせを行う位置合わせ部と、
前記位置合わせ部により位置合わせが行われた前記撮像画像を重ね合わせることにより、前記撮像画像よりもダイナミックレンジが大きな前記被写体の画像を生成する重ね合わせ部と
を備える画像処理装置。
(2)
前記重ね合わせ部は、
前記撮像画像と、前記重ね合わせにより生成される前記被写体の画像との間の動きベクトルを検出する検出部と、
前記検出部により検出された前記動きベクトルを用いて、前記被写体の画像に動き補償を行う動き補償部と、
前記動き補償部により動き補償が行われた前記被写体の画像から前記撮像画像を減算する減算部と、
前記検出部により検出された前記動きベクトルを用いて、前記減算部による前記被写体の画像と前記撮像画像との差分値に、前記動き補償部による動き補償とは逆方向に、動き補償を行う逆方向動き補償部と、
前記逆方向動き補償部により動き補償が行われた前記差分値を、前記被写体の画像に加算する加算部と
を備える
前記(1)に記載の画像処理装置。
(3)
前記重ね合わせ部は、
前記動き補償部により動き補償が行われた前記被写体の画像をダウンサンプリングし、前記被写体の解像度を前記撮像画像の解像度に落とすダウンサンプリング部と、
前記減算部による前記被写体の画像と前記撮像画像との差分値をアップサンプリングし、前記差分値の解像度を前記被写体の画像の解像度まであげるアップサンプリング部と
をさらに備え、
前記減算部は、前記ダウンサンプリング部によりダウンサンプリングされた前記被写体の画像から前記撮像画像を減算し、
前記検出部により検出された前記動きベクトルを用いて、前記逆方向動き補償部は、前記アップサンプリング部によりアップサンプリングされた前記差分値に、前記動き補償部による動き補償とは逆方向に、動き補償を行う
前記(1)または(2)に記載の画像処理装置。
(4)
前記位置合わせ部は、前記撮像部により得られた撮像画像における前記被写体の位置を、前回生成された前記被写体の画像における前記被写体の位置に合わせるように、前記位置合わせを行い、
前記重ね合わせ部は、前記位置合わせ部により位置合わせが行われた前記撮像画像を、前回生成された前記被写体の画像に1枚ずつ重ね合わせることにより、前記複数の撮像画像を重ね合わせた、前記撮像画像よりもダイナミックレンジが大きな前記被写体の画像を生成する
前記(1)、(2)、または(3)に記載の画像処理装置。
(5)
前記被写体は眼底であり、
前記位置合わせ部は、前記生体情報として血管を用いる
前記(1)乃至(4)のいずれかに記載の画像処理装置。
(6)
前記位置合わせ部は、前記生体情報としてさらに前記血管の交叉点を用いる
前記(1)乃至(5)のいずれかに記載の画像処理装置。
(7)
前記位置合わせ部により位置合わせが行われた前記撮像画像の点拡がり関数を推定する推定部と、
前記推定部により推定された前記拡がり関数を用いて前記撮像画像のボケを除去する除去部と
をさらに備え、
前記重ね合わせ部は、前記位置合わせ部により位置合わせが行われ、前記除去部により前記ボケが除去された前記撮像画像を、前回生成された前記被写体の画像に1枚ずつ重ね合わせることにより、前記複数の撮像画像を重ね合わせた、前記撮像画像よりもダイナミックレンジが大きな前記被写体の画像を生成する
前記(1)乃至(6)のいずれかに記載の画像処理装置。
(8)
前記撮像部は、比較的暗い照射光を前記被写体に照射しながら前記被写体を複数回撮像する
前記(1)乃至(7)のいずれかに記載の画像処理装置。
(9)
画像処理装置の画像処理方法であって、
位置合わせ部が、被写体の生体情報を用いて、前記被写体を撮像する撮像部により得られた複数の撮像画像において前記被写体の位置を合わせるように位置合わせを行い、
重ね合わせ部が、位置合わせが行われた前記撮像画像を重ね合わせることにより、前記撮像画像よりもダイナミックレンジが大きな前記被写体の画像を生成する
画像処理方法。
(10)
被写体を撮像する撮像部により得られた複数の撮像画像を互いに重ね合わせる重ね合わせ部と、
前記重ね合わせ部により複数の撮像画像が重ね合わされて生成された撮像画像を前記被写体の生体情報に応じて階調補正する階調補正部と
を備える画像処理装置。
(11)
前記階調補正部は、前記撮像画像の階調補正に用いるトーンカーブを算出するためのパラメータの値を、前記被写体の生体情報に応じて決定するパラメータ決定部を備える
前記(10)に記載の画像処理装置。
(12)
前記パラメータ決定部は、
前記撮像画像の階調補正に用いるトーンカーブを算出するためのパラメータの値を所定の方法で調整する調整部と、
前記調整部により値が調整された前記パラメータを用いて前記撮像画像を補正する補正部と、
前記撮像画像に含まれる生体としての部位毎に、各部位の画像の特徴に応じた方法で、前記補正部により補正された前記撮像画像である補正後の撮像画像を検査する部位別検査部と、
前記補正後の撮像画像が前記部位別検査部により行われる検査に合格する場合、前記補正部により補正される前の前記撮像画像である補正前の撮像画像の明るさと、前記補正後の撮像画像の明るさとを比較する比較部と、
前記調整部による調整、前記補正部による補正、前記部位別検査部による検査、および前記比較部による比較が繰り返し行われ、前記比較部により前記補正後の撮像画像が前記補正前の撮像画像よりも明るくないと判定された場合、前記パラメータの値を、決定された値として出力する出力部と
を備える
前記(10)または(11)に記載の画像処理装置。
(13)
前記パラメータ決定部は、
前記撮像画像を解析し、前記撮像画像に含まれる生体としての部位を認識する部位認識部をさらに備え、
前記部位別検査部は、前記部位認識部により認識された各部位毎に検査を行う
前記(10)、(11)、または(12)に記載の画像処理装置。
(14)
前記パラメータ決定部は、
前記撮像画像の明るさを示す明るさ値を算出する明るさ値算出部をさらに備え、
前記比較部は、前記明るさ値算出部により算出される、前記補正前の撮像画像の明るさ値と、前記補正後の撮像画像の明るさ値とを比較する
前記(10)乃至(13)のいずれかに記載の画像処理装置。
(15)
前記パラメータ決定部は、
前記調整部により調整を行う調整対象パラメータを複数のパラメータの中から選択するパラメータ選択部をさらに備える
前記(10)乃至(14)のいずれかに記載の画像処理装置。
(16)
前記パラメータ決定部は、
前記撮像画像を解析し、前記撮像画像に含まれる生体としての部位を認識する部位認識部をさらに備え、
前記補正部は、前記部位認識部により認識された各部位の画像を補正し、
前記部位別検査部は、前記補正部により補正された各部位の画像を検査し、
前記比較部は、各部位の画像の、前記補正部による補正前の明るさと補正後の明るさとを比較する
前記(10)乃至(15)のいずれかに記載の画像処理装置。
(17)
前記階調補正部により階調補正された前記撮像画像を高解像度化する高解像度化部をさらに備える
前記(10)乃至(16)のいずれかに記載の画像処理装置。
(18)
前記高解像度化部は、前記階調補正部により階調補正された前記撮像画像を前記被写体の生体情報に応じて高解像度化する
前記(10)乃至(17)のいずれかに記載の画像処理装置。
(19)
画像処理装置の画像処理方法であって、
重ね合わせ部が、被写体を撮像する撮像部により得られた複数の撮像画像を互いに重ね合わせ、
階調補正部が、複数の撮像画像が重ね合わされて生成された撮像画像を前記被写体の生体情報に応じて階調補正する
画像処理方法。
(20)
被写体を撮像する撮像部により得られた複数の撮像画像を互いに重ね合わせる重ね合わせ部と、
前記重ね合わせ部により複数の撮像画像が重ね合わされて生成された撮像画像を前記被写体の生体情報に応じて高解像度化する高解像度化部と
を備える画像処理装置。
(21)
前記高解像度化部は、
前記撮像画像に対して、学習により解像度を向上させる超解像処理を、複数種類の学習辞書のそれぞれについて行い、高解像度の撮像画像である超解像結果画像を複数生成する超解像処理部と、
前記超解像処理部により各学習辞書を用いて超解像処理されて生成された各超解像結果画像を、前記超解像結果画像に含まれる生体としての部位毎に、各部位の画像の特徴に応じた方法で、評価する部位別画像評価部と、
前記部位別画像評価部による評価に基づいて、前記複数の超解像結果画像の中から最適な超解像結果画像を選択する画像選択部と
を備える前記(20)に記載の画像処理装置。
(22)
前記高解像度化部は、
前記超解像結果画像を解析し、前記超解像結果画像に含まれる生体としての部位を認識する部位認識部をさらに備え、
前記部位別画像評価部は、各超解像結果画像を、前記部位認識部により認識された部位毎に、各部位の画像の特徴に応じた方法で評価する
前記(20)または(21)に記載の画像処理装置。
(23)
前記重ね合わせ部により複数の撮像画像が重ね合わされて生成された撮像画像を階調補正する階調補正部をさらに備え、
前記高解像度化部は、前記階調補正部により階調補正された前記撮像画像を、前記被写体の生体情報に応じて高解像度化する
前記(20)、(21)、または(22)に記載の画像処理装置。
(24)
前記階調補正部は、前記重ね合わせ部により複数の撮像画像が重ね合わされて生成された撮像画像を前記被写体の生体情報に応じて階調補正する
前記(20)乃至(24)のいずれかに記載の画像処理装置。
(25)
画像処理装置の画像処理方法であって、
重ね合わせ部が、被写体を撮像する撮像部により得られた複数の撮像画像を互いに重ね合わせ、
高解像度化部が、複数の撮像画像が重ね合わされて生成された撮像画像を前記被写体の生体情報に応じて高解像度化する
画像処理方法。
(26)
被写体の生体情報を用いて、前記被写体を撮像する撮像部により得られた複数の赤外光画像において前記被写体の位置を合わせるように位置合わせを行う赤外光画像位置合わせ部と、
前記赤外光画像位置合わせ部による位置合わせの結果である位置合わせ情報を記憶する位置合わせ情報記憶部と、
前記位置合わせ情報記憶部に記憶された前記位置合わせ情報を用いて、前記撮像部により得られた複数の可視光画像において前記被写体の位置を合わせるように位置合わせを行う可視光画像位置合わせ部と、
前記可視光位置合わせ部により位置合わせが行われた前記可視光画像を重ね合わせることにより、前記可視光画像よりもダイナミックレンジが大きな前記被写体の画像を生成する重ね合わせ部と
を備える画像処理装置。
(27)
前記撮像部は、所定の光量の可視光と前記所定の光量よりも高い光量の赤外光とを含む照射光を前記被写体に照射しながら前記被写体を複数撮像する
前記(26)に記載の画像処理装置。
(28)
前記赤外光画像位置合わせ部は、前記撮像部により得られた赤外光画像における前記被写体の位置を、前記撮像部により得られた前記複数の赤外光画像のうちの、最初に得られた前記赤外光画像における前記被写体の位置に合わせるように、前記位置合わせを行い、
前記重ね合わせ部は、前記可視光画像位置合わせ部により位置合わせが行われた前記可視光画像を、前回生成された前記被写体の画像に1枚ずつ重ね合わせることにより、前記複数の可視光画像を重ね合わせた、前記可視光画像よりもダイナミックレンジが大きな前記被写体の画像を生成する
前記(26)または(27)に記載の画像処理装置。
(29)
前記被写体は眼底であり、
前記赤外光画像位置合わせ部は、前記生体情報として血管を用いる
前記(26)、(27)、または(28)に記載の画像処理装置。
(30)
前記赤外光画像位置合わせ部は、前記生体情報としてさらに前記血管の交叉点を用いる
前記(26)乃至(29)のいずれかに記載の画像処理装置。
(31)
画像処理装置の画像処理方法であって、
赤外光画像位置合わせ部が、被写体の生体情報を用いて、前記被写体を撮像する撮像部により得られた複数の赤外光画像において前記被写体の位置を合わせるように位置合わせを行い、
位置合わせ情報記憶部が、前記赤外光画像位置合わせ部による位置合わせの結果である位置合わせ情報を記憶し、
可視光画像位置合わせ部が、前記位置合わせ情報記憶部に記憶された前記位置合わせ情報を用いて、前記撮像部により得られた複数の可視光画像において前記被写体の位置を合わせるように位置合わせを行い、
重ね合わせ部が、前記可視光位置合わせ部により位置合わせが行われた前記可視光画像を重ね合わせることにより、前記可視光画像よりもダイナミックレンジが大きな前記被写体の画像を生成する
画像処理方法。
(32)
被写体の生体情報を用いて、前記被写体を撮像する撮像部により得られた複数の赤外光画像において前記被写体の位置を合わせるように位置合わせを行う赤外光画像位置合わせ部と、
前記赤外光画像位置合わせ部による位置合わせの結果である位置合わせ情報を記憶する位置合わせ情報記憶部と、
前記位置合わせ情報記憶部に記憶された前記位置合わせ情報を用いて、前記撮像部により得られた複数の可視光画像において前記被写体の位置を合わせるように位置合わせを行う可視光画像位置合わせ部と、
前記可視光位置合わせ部により位置合わせが行われた複数の前記可視光画像を互いに重ね合わせる重ね合わせ部と、
前記重ね合わせ部により複数の前記可視光画像が重ね合わされて生成された可視光画像を前記被写体の生体情報に応じて階調補正する階調補正部と
を備える画像処理装置。
(33)
前記撮像部は、所定の光量の可視光と前記所定の光量よりも高い光量の赤外光とを含む照射光を前記被写体に照射しながら前記被写体を複数撮像する
前記(32)に記載の画像処理装置。
(34)
前記階調補正部により階調補正された前記可視光画像を高解像度化する高解像度化部をさらに備える
前記(32)または(33)に記載の画像処理装置。
(35)
前記高解像度化部は、前記階調補正部により階調補正された前記可視光画像を前記被写体の生体情報に応じて高解像度化する
前記(32)、(33)、または(34)に記載の画像処理装置。
(36)
前記被写体は眼底であり、
前記赤外光画像位置合わせ部は、前記生体情報として血管を用いる
前記(32)乃至(35)のいずれかに記載の画像処理装置。
(37)
前記赤外光画像位置合わせ部は、前記生体情報としてさらに前記血管の交叉点を用いる
前記(32)乃至(36)のいずれかに記載の画像処理装置。
(38)
画像処理装置の画像処理方法であって、
赤外光画像位置合わせ部が、被写体の生体情報を用いて、前記被写体を撮像する撮像部により得られた複数の赤外光画像において前記被写体の位置を合わせるように位置合わせを行い、
位置合わせ情報記憶部が、前記赤外光画像位置合わせ部による位置合わせの結果である位置合わせ情報を記憶し、
可視光画像位置合わせ部が、前記位置合わせ情報記憶部に記憶された前記位置合わせ情報を用いて、前記撮像部により得られた複数の可視光画像において前記被写体の位置を合わせるように位置合わせを行い、
重ね合わせ部が、前記可視光位置合わせ部により位置合わせが行われた複数の前記可視光画像を重ね合わせ、
階調補正部が、前記重ね合わせ部により複数の前記可視光画像が重ね合わされて生成された可視光画像を前記被写体の生体情報に応じて階調補正する
画像処理方法。
(39)
被写体を撮像する撮像部と、
ネットワークを介して、前記撮像部により得られた複数の撮像画像を取得し、取得した前記複数の撮像画像に対して画像処理を施す画像処理部と、
前記画像処理部により画像処理が施された前記撮像画像を記憶する記憶部と、
前記記憶部に記憶された前記撮像画像を出力する出力部
を備える診断システム。
(40)
前記画像処理部は、
前記被写体の生体情報を用いて、前記複数の撮像画像において前記被写体の位置を合わせるように位置合わせを行う位置合わせ部と、
前記位置合わせ部により位置合わせが行われた前記撮像画像を重ね合わせることにより、前記撮像画像よりもダイナミックレンジが大きな前記被写体の画像を生成する重ね合わせ部とをさらに備える
前記(39)に記載の画像処理装置。
(41)
前記画像処理部は、
前記撮像部により得られた複数の撮像画像を互いに重ね合わせる重ね合わせ部と、
前記重ね合わせ部により複数の撮像画像が重ね合わされて生成された撮像画像を前記被写体の生体情報に応じて階調補正する階調補正部と
をさらに備える
前記(39)または(40)に記載の画像処理装置。
(42)
前記画像処理部は、
前記階調補正部により階調補正された前記撮像画像を高解像度化する高解像度化部をさらに備える
前記(39)、(40)、または(41)に記載の画像処理装置。
(43)
前記撮像部は、所定の光量の可視光と前記所定の光量よりも高い光量の赤外光とを含む照射光を前記被写体に照射しながら前記被写体を複数撮像し、
前記画像処理部は、
被写体の生体情報を用いて、前記撮像部により得られた複数の赤外光画像において前記被写体の位置を合わせるように位置合わせを行う赤外光画像位置合わせ部と、
前記赤外光画像位置合わせ部による位置合わせの結果である位置合わせ情報を記憶する位置合わせ情報記憶部と、
前記位置合わせ情報記憶部に記憶された前記位置合わせ情報を用いて、前記撮像部により得られた複数の可視光画像において前記被写体の位置を合わせるように位置合わせを行う可視光画像位置合わせ部と、
前記可視光位置合わせ部により位置合わせが行われた前記可視光画像を重ね合わせることにより、前記可視光画像よりもダイナミックレンジが大きな前記被写体の画像を生成する重ね合わせ部とをさらに備える
前記(39)乃至(42)のいずれかに記載の画像処理装置。
(44)
前記撮像部は、所定の光量の可視光と前記所定の光量よりも高い光量の赤外光とを含む照射光を前記被写体に照射しながら前記被写体を複数撮像し、
前記画像処理部は、
被写体の生体情報を用いて、前記撮像部により得られた複数の赤外光画像において前記被写体の位置を合わせるように位置合わせを行う赤外光画像位置合わせ部と、
前記赤外光画像位置合わせ部による位置合わせの結果である位置合わせ情報を記憶する位置合わせ情報記憶部と、
前記位置合わせ情報記憶部に記憶された前記位置合わせ情報を用いて、前記撮像部により得られた複数の可視光画像において前記被写体の位置を合わせるように位置合わせを行う可視光画像位置合わせ部と、
前記可視光位置合わせ部により位置合わせが行われた複数の前記可視光画像を重ね合わせる重ね合わせ部と、
前記重ね合わせ部により複数の前記可視光画像が重ね合わされて生成された可視光画像を前記被写体の生体情報に応じて階調補正する階調補正部とをさらに備える
前記(39)乃至(43)のいずれかに記載の画像処理装置。
(45)
前記被写体は眼底である
前記(39)乃至(44)のいずれかに記載の画像処理装置。
100 眼底画像処理装置, 101 撮像部, 102 画像処理部, 103 記憶部, 104 出力部, 111 入力画像バッファ, 112 超解像処理部, 113 SR画像バッファ, 114 演算部, 121 動きベクトル検出部, 122 動き補償部, 123 ダウンサンプリングフィルタ, 124 演算部, 125 アップサンプリングフィルタ, 126 逆方向動き補償部, 200 眼底画像処理装置, 202 画像処理部, 212 生体情報位置合わせ処理部, 213 超解像処理部, 214 超解像結果画像バッファ, 241 入力画像血管抽出部, 242 超解像結果画像血管抽出部, 243 入力画像交叉点抽出部, 244 超解像結果画像交叉点抽出部, 245 交叉点位置合わせ処理部, 246 血管位置合わせ処理部, 271 重畳処理部, 272 シフト処理部, 273 伸ばし処理部, 274 回転処理部, 275 拡大縮小処理部, 276 収束判定部, 301 PSF推定部, 302 ボケ除去処理部, 303 重ね合わせ処理部, 400 眼底画像処理装置, 402 画像処理部, 413 ノイズ削減処理部, 414 ノイズ削減結果画像バッファ, 415 トーンリプロダクション処理部, 416 超解像処理部, 451 画像バッファ, 452 パラメータ決定部, 453 トーンカーブ算出部, 454 マッピング部, 461 調整対象パラメータ選択部, 462 パラメータ初期値記憶部, 463 パラメータ記憶部, 464 補正前明るさ値算出部, 465 明るさ値記憶部, 466 部位認識部, 467 パラメータ調整部, 468 トーンカーブ算出部, 469 マッピング部, 470 部位別検査部, 471 補正後明るさ値算出部, 472 比較部, 473 データ出力部, 481 学習辞書記憶部, 482 画像処理部, 483 部位認識部, 484 部位別評価基準記憶部, 485 部位別画像評価部, 486 画像選択部, 564 補正前明るさ値算出部, 565 明るさ値記憶部, 566 部位認識部, 569 マッピング部, 570 部位別検査部, 571 補正後明るさ値算出部, 572 比較部, 700 眼底画像処理装置, 702 画像処理部, 711 入力画像バッファ, 712 赤外光画像位置合わせ処理部, 713 初期画像バッファ, 714 位置合わせ情報バッファ, 715 可視光画像位置合わせ処理部, 716 超解像処理部, 717 超解像結果画像バッファ, 800 眼底画像処理装置, 702 画像処理部, 711 入力画像バッファ, 712 赤外光画像位置合わせ処理部, 713 初期画像バッファ, 714 位置合わせ情報バッファ, 811 ノイズ削減処理部, 812 ノイズ削減結果画像バッファ, 900 遠隔診察システム, 911 小型眼底カメラ, 912 医師用端末装置, 913 看護師用端末装置, 914 患者用端末装置, 915 ネットワーク, 916 画像処理装置, 917 データベース

Claims (45)

  1. 被写体の生体情報を用いて、前記被写体を撮像する撮像部により得られた複数の撮像画像において前記被写体の位置を合わせるように位置合わせを行う位置合わせ部と、
    前記位置合わせ部により位置合わせが行われた前記撮像画像を重ね合わせることにより、前記撮像画像よりもダイナミックレンジが大きな前記被写体の画像を生成する重ね合わせ部と
    を備える画像処理装置。
  2. 前記重ね合わせ部は、
    前記撮像画像と、前記重ね合わせにより生成される前記被写体の画像との間の動きベクトルを検出する検出部と、
    前記検出部により検出された前記動きベクトルを用いて、前記被写体の画像に動き補償を行う動き補償部と、
    前記動き補償部により動き補償が行われた前記被写体の画像から前記撮像画像を減算する減算部と、
    前記検出部により検出された前記動きベクトルを用いて、前記減算部による前記被写体の画像と前記撮像画像との差分値に、前記動き補償部による動き補償とは逆方向に、動き補償を行う逆方向動き補償部と、
    前記逆方向動き補償部により動き補償が行われた前記差分値を、前記被写体の画像に加算する加算部と
    を備える請求項1に記載の画像処理装置。
  3. 前記重ね合わせ部は、
    前記動き補償部により動き補償が行われた前記被写体の画像をダウンサンプリングし、前記被写体の解像度を前記撮像画像の解像度に落とすダウンサンプリング部と、
    前記減算部による前記被写体の画像と前記撮像画像との差分値をアップサンプリングし、前記差分値の解像度を前記被写体の画像の解像度まであげるアップサンプリング部と
    をさらに備え、
    前記減算部は、前記ダウンサンプリング部によりダウンサンプリングされた前記被写体の画像から前記撮像画像を減算し、
    前記検出部により検出された前記動きベクトルを用いて、前記逆方向動き補償部は、前記アップサンプリング部によりアップサンプリングされた前記差分値に、前記動き補償部による動き補償とは逆方向に、動き補償を行う
    請求項2に記載の画像処理装置。
  4. 前記位置合わせ部は、前記撮像部により得られた撮像画像における前記被写体の位置を、前回生成された前記被写体の画像における前記被写体の位置に合わせるように、前記位置合わせを行い、
    前記重ね合わせ部は、前記位置合わせ部により位置合わせが行われた前記撮像画像を、前回生成された前記被写体の画像に1枚ずつ重ね合わせることにより、前記複数の撮像画像を重ね合わせた、前記撮像画像よりもダイナミックレンジが大きな前記被写体の画像を生成する
    請求項1に記載の画像処理装置。
  5. 前記被写体は眼底であり、
    前記位置合わせ部は、前記生体情報として血管を用いる
    請求項1に記載の画像処理装置。
  6. 前記位置合わせ部は、前記生体情報としてさらに前記血管の交叉点を用いる
    請求項5に記載の画像処理装置。
  7. 前記位置合わせ部により位置合わせが行われた前記撮像画像の点拡がり関数を推定する推定部と、
    前記推定部により推定された前記拡がり関数を用いて前記撮像画像のボケを除去する除去部と
    をさらに備え、
    前記重ね合わせ部は、前記位置合わせ部により位置合わせが行われ、前記除去部により前記ボケが除去された前記撮像画像を、前回生成された前記被写体の画像に1枚ずつ重ね合わせることにより、前記複数の撮像画像を重ね合わせた、前記撮像画像よりもダイナミックレンジが大きな前記被写体の画像を生成する
    請求項4に記載の画像処理装置。
  8. 前記撮像部は、比較的暗い照射光を前記被写体に照射しながら前記被写体を複数回撮像する
    請求項1に記載の画像処理装置。
  9. 画像処理装置の画像処理方法であって、
    位置合わせ部が、被写体の生体情報を用いて、前記被写体を撮像する撮像部により得られた複数の撮像画像において前記被写体の位置を合わせるように位置合わせを行い、
    重ね合わせ部が、位置合わせが行われた前記撮像画像を重ね合わせることにより、前記撮像画像よりもダイナミックレンジが大きな前記被写体の画像を生成する
    画像処理方法。
  10. 被写体を撮像する撮像部により得られた複数の撮像画像を互いに重ね合わせる重ね合わせ部と、
    前記重ね合わせ部により複数の撮像画像が重ね合わされて生成された撮像画像を前記被写体の生体情報に応じて階調補正する階調補正部と
    を備える画像処理装置。
  11. 前記階調補正部は、前記撮像画像の階調補正に用いるトーンカーブを算出するためのパラメータの値を、前記被写体の生体情報に応じて決定するパラメータ決定部を備える
    請求項10に記載の画像処理装置。
  12. 前記パラメータ決定部は、
    前記撮像画像の階調補正に用いるトーンカーブを算出するためのパラメータの値を所定の方法で調整する調整部と、
    前記調整部により値が調整された前記パラメータを用いて前記撮像画像を補正する補正部と、
    前記撮像画像に含まれる生体としての部位毎に、各部位の画像の特徴に応じた方法で、前記補正部により補正された前記撮像画像である補正後の撮像画像を検査する部位別検査部と、
    前記補正後の撮像画像が前記部位別検査部により行われる検査に合格する場合、前記補正部により補正される前の前記撮像画像である補正前の撮像画像の明るさと、前記補正後の撮像画像の明るさとを比較する比較部と、
    前記調整部による調整、前記補正部による補正、前記部位別検査部による検査、および前記比較部による比較が繰り返し行われ、前記比較部により前記補正後の撮像画像が前記補正前の撮像画像よりも明るくないと判定された場合、前記パラメータの値を、決定された値として出力する出力部と
    を備える請求項11に記載の画像処理装置。
  13. 前記パラメータ決定部は、
    前記撮像画像を解析し、前記撮像画像に含まれる生体としての部位を認識する部位認識部をさらに備え、
    前記部位別検査部は、前記部位認識部により認識された各部位毎に検査を行う
    請求項12に記載の画像処理装置。
  14. 前記パラメータ決定部は、
    前記撮像画像の明るさを示す明るさ値を算出する明るさ値算出部をさらに備え、
    前記比較部は、前記明るさ値算出部により算出される、前記補正前の撮像画像の明るさ値と、前記補正後の撮像画像の明るさ値とを比較する
    請求項12に記載の画像処理装置。
  15. 前記パラメータ決定部は、
    前記調整部により調整を行う調整対象パラメータを複数のパラメータの中から選択するパラメータ選択部をさらに備える
    請求項12に記載の画像処理装置。
  16. 前記パラメータ決定部は、
    前記撮像画像を解析し、前記撮像画像に含まれる生体としての部位を認識する部位認識部をさらに備え、
    前記補正部は、前記部位認識部により認識された各部位の画像を補正し、
    前記部位別検査部は、前記補正部により補正された各部位の画像を検査し、
    前記比較部は、各部位の画像の、前記補正部による補正前の明るさと補正後の明るさとを比較する
    請求項12に記載の画像処理装置。
  17. 前記階調補正部により階調補正された前記撮像画像を高解像度化する高解像度化部をさらに備える
    請求項10に記載の画像処理装置。
  18. 前記高解像度化部は、前記階調補正部により階調補正された前記撮像画像を前記被写体の生体情報に応じて高解像度化する
    請求項17に記載の画像処理装置。
  19. 画像処理装置の画像処理方法であって、
    重ね合わせ部が、被写体を撮像する撮像部により得られた複数の撮像画像を互いに重ね合わせ、
    階調補正部が、複数の撮像画像が重ね合わされて生成された撮像画像を前記被写体の生体情報に応じて階調補正する
    画像処理方法。
  20. 被写体を撮像する撮像部により得られた複数の撮像画像を互いに重ね合わせる重ね合わせ部と、
    前記重ね合わせ部により複数の撮像画像が重ね合わされて生成された撮像画像を前記被写体の生体情報に応じて高解像度化する高解像度化部と
    を備える画像処理装置。
  21. 前記高解像度化部は、
    前記撮像画像に対して、学習により解像度を向上させる超解像処理を、複数種類の学習辞書のそれぞれについて行い、高解像度の撮像画像である超解像結果画像を複数生成する超解像処理部と、
    前記超解像処理部により各学習辞書を用いて超解像処理されて生成された各超解像結果画像を、前記超解像結果画像に含まれる生体としての部位毎に、各部位の画像の特徴に応じた方法で、評価する部位別画像評価部と、
    前記部位別画像評価部による評価に基づいて、前記複数の超解像結果画像の中から最適な超解像結果画像を選択する画像選択部と
    を備える請求項20に記載の画像処理装置。
  22. 前記高解像度化部は、
    前記超解像結果画像を解析し、前記超解像結果画像に含まれる生体としての部位を認識する部位認識部をさらに備え、
    前記部位別画像評価部は、各超解像結果画像を、前記部位認識部により認識された部位毎に、各部位の画像の特徴に応じた方法で評価する
    請求項21に記載の画像処理装置。
  23. 前記重ね合わせ部により複数の撮像画像が重ね合わされて生成された撮像画像を階調補正する階調補正部をさらに備え、
    前記高解像度化部は、前記階調補正部により階調補正された前記撮像画像を、前記被写体の生体情報に応じて高解像度化する
    請求項20に記載の画像処理装置。
  24. 前記階調補正部は、前記重ね合わせ部により複数の撮像画像が重ね合わされて生成された撮像画像を前記被写体の生体情報に応じて階調補正する
    請求項23に記載の画像処理装置。
  25. 画像処理装置の画像処理方法であって、
    重ね合わせ部が、被写体を撮像する撮像部により得られた複数の撮像画像を互いに重ね合わせ、
    高解像度化部が、複数の撮像画像が重ね合わされて生成された撮像画像を前記被写体の生体情報に応じて高解像度化する
    画像処理方法。
  26. 被写体の生体情報を用いて、前記被写体を撮像する撮像部により得られた複数の赤外光画像において前記被写体の位置を合わせるように位置合わせを行う赤外光画像位置合わせ部と、
    前記赤外光画像位置合わせ部による位置合わせの結果である位置合わせ情報を記憶する位置合わせ情報記憶部と、
    前記位置合わせ情報記憶部に記憶された前記位置合わせ情報を用いて、前記撮像部により得られた複数の可視光画像において前記被写体の位置を合わせるように位置合わせを行う可視光画像位置合わせ部と、
    前記可視光位置合わせ部により位置合わせが行われた前記可視光画像を重ね合わせることにより、前記可視光画像よりもダイナミックレンジが大きな前記被写体の画像を生成する重ね合わせ部と
    を備える画像処理装置。
  27. 前記撮像部は、所定の光量の可視光と前記所定の光量よりも高い光量の赤外光とを含む照射光を前記被写体に照射しながら前記被写体を複数撮像する
    請求項26に記載の画像処理装置。
  28. 前記赤外光画像位置合わせ部は、前記撮像部により得られた赤外光画像における前記被写体の位置を、前記撮像部により得られた前記複数の赤外光画像のうちの、最初に得られた前記赤外光画像における前記被写体の位置に合わせるように、前記位置合わせを行い、
    前記重ね合わせ部は、前記可視光画像位置合わせ部により位置合わせが行われた前記可視光画像を、前回生成された前記被写体の画像に1枚ずつ重ね合わせることにより、前記複数の可視光画像を重ね合わせた、前記可視光画像よりもダイナミックレンジが大きな前記被写体の画像を生成する
    請求項27に記載の画像処理装置。
  29. 前記被写体は眼底であり、
    前記赤外光画像位置合わせ部は、前記生体情報として血管を用いる
    請求項26に記載の画像処理装置。
  30. 前記赤外光画像位置合わせ部は、前記生体情報としてさらに前記血管の交叉点を用いる
    請求項29に記載の画像処理装置。
  31. 画像処理装置の画像処理方法であって、
    赤外光画像位置合わせ部が、被写体の生体情報を用いて、前記被写体を撮像する撮像部により得られた複数の赤外光画像において前記被写体の位置を合わせるように位置合わせを行い、
    位置合わせ情報記憶部が、前記赤外光画像位置合わせ部による位置合わせの結果である位置合わせ情報を記憶し、
    可視光画像位置合わせ部が、前記位置合わせ情報記憶部に記憶された前記位置合わせ情報を用いて、前記撮像部により得られた複数の可視光画像において前記被写体の位置を合わせるように位置合わせを行い、
    重ね合わせ部が、前記可視光位置合わせ部により位置合わせが行われた前記可視光画像を重ね合わせることにより、前記可視光画像よりもダイナミックレンジが大きな前記被写体の画像を生成する
    画像処理方法。
  32. 被写体の生体情報を用いて、前記被写体を撮像する撮像部により得られた複数の赤外光画像において前記被写体の位置を合わせるように位置合わせを行う赤外光画像位置合わせ部と、
    前記赤外光画像位置合わせ部による位置合わせの結果である位置合わせ情報を記憶する位置合わせ情報記憶部と、
    前記位置合わせ情報記憶部に記憶された前記位置合わせ情報を用いて、前記撮像部により得られた複数の可視光画像において前記被写体の位置を合わせるように位置合わせを行う可視光画像位置合わせ部と、
    前記可視光位置合わせ部により位置合わせが行われた複数の前記可視光画像を互いに重ね合わせる重ね合わせ部と、
    前記重ね合わせ部により複数の前記可視光画像が重ね合わされて生成された可視光画像を前記被写体の生体情報に応じて階調補正する階調補正部と
    を備える画像処理装置。
  33. 前記撮像部は、所定の光量の可視光と前記所定の光量よりも高い光量の赤外光とを含む照射光を前記被写体に照射しながら前記被写体を複数撮像する
    請求項32に記載の画像処理装置。
  34. 前記階調補正部により階調補正された前記可視光画像を高解像度化する高解像度化部をさらに備える
    請求項32に記載の画像処理装置。
  35. 前記高解像度化部は、前記階調補正部により階調補正された前記可視光画像を前記被写体の生体情報に応じて高解像度化する
    請求項34に記載の画像処理装置。
  36. 前記被写体は眼底であり、
    前記赤外光画像位置合わせ部は、前記生体情報として血管を用いる
    請求項32に記載の画像処理装置。
  37. 前記赤外光画像位置合わせ部は、前記生体情報としてさらに前記血管の交叉点を用いる
    請求項36に記載の画像処理装置。
  38. 画像処理装置の画像処理方法であって、
    赤外光画像位置合わせ部が、被写体の生体情報を用いて、前記被写体を撮像する撮像部により得られた複数の赤外光画像において前記被写体の位置を合わせるように位置合わせを行い、
    位置合わせ情報記憶部が、前記赤外光画像位置合わせ部による位置合わせの結果である位置合わせ情報を記憶し、
    可視光画像位置合わせ部が、前記位置合わせ情報記憶部に記憶された前記位置合わせ情報を用いて、前記撮像部により得られた複数の可視光画像において前記被写体の位置を合わせるように位置合わせを行い、
    重ね合わせ部が、前記可視光位置合わせ部により位置合わせが行われた複数の前記可視光画像を重ね合わせ、
    階調補正部が、前記重ね合わせ部により複数の前記可視光画像が重ね合わされて生成された可視光画像を前記被写体の生体情報に応じて階調補正する
    画像処理方法。
  39. 被写体を撮像する撮像部と、
    ネットワークを介して、前記撮像部により得られた複数の撮像画像を取得し、取得した前記複数の撮像画像に対して画像処理を施す画像処理部と、
    前記画像処理部により画像処理が施された前記撮像画像を記憶する記憶部と、
    前記記憶部に記憶された前記撮像画像を出力する出力部
    を備える診断システム。
  40. 前記画像処理部は、
    前記被写体の生体情報を用いて、前記複数の撮像画像において前記被写体の位置を合わせるように位置合わせを行う位置合わせ部と、
    前記位置合わせ部により位置合わせが行われた前記撮像画像を重ね合わせることにより、前記撮像画像よりもダイナミックレンジが大きな前記被写体の画像を生成する重ね合わせ部とをさらに備える
    請求項39に記載の画像処理装置。
  41. 前記画像処理部は、
    前記撮像部により得られた複数の撮像画像を互いに重ね合わせる重ね合わせ部と、
    前記重ね合わせ部により複数の撮像画像が重ね合わされて生成された撮像画像を前記被写体の生体情報に応じて階調補正する階調補正部と
    をさらに備える
    請求項39に記載の画像処理装置。
  42. 前記画像処理部は、
    前記階調補正部により階調補正された前記撮像画像を高解像度化する高解像度化部をさらに備える
    請求項41に記載の画像処理装置。
  43. 前記撮像部は、所定の光量の可視光と前記所定の光量よりも高い光量の赤外光とを含む照射光を前記被写体に照射しながら前記被写体を複数撮像し、
    前記画像処理部は、
    被写体の生体情報を用いて、前記撮像部により得られた複数の赤外光画像において前記被写体の位置を合わせるように位置合わせを行う赤外光画像位置合わせ部と、
    前記赤外光画像位置合わせ部による位置合わせの結果である位置合わせ情報を記憶する位置合わせ情報記憶部と、
    前記位置合わせ情報記憶部に記憶された前記位置合わせ情報を用いて、前記撮像部により得られた複数の可視光画像において前記被写体の位置を合わせるように位置合わせを行う可視光画像位置合わせ部と、
    前記可視光位置合わせ部により位置合わせが行われた前記可視光画像を重ね合わせることにより、前記可視光画像よりもダイナミックレンジが大きな前記被写体の画像を生成する重ね合わせ部とをさらに備える
    請求項39に記載の画像処理装置。
  44. 前記撮像部は、所定の光量の可視光と前記所定の光量よりも高い光量の赤外光とを含む照射光を前記被写体に照射しながら前記被写体を複数撮像し、
    前記画像処理部は、
    被写体の生体情報を用いて、前記撮像部により得られた複数の赤外光画像において前記被写体の位置を合わせるように位置合わせを行う赤外光画像位置合わせ部と、
    前記赤外光画像位置合わせ部による位置合わせの結果である位置合わせ情報を記憶する位置合わせ情報記憶部と、
    前記位置合わせ情報記憶部に記憶された前記位置合わせ情報を用いて、前記撮像部により得られた複数の可視光画像において前記被写体の位置を合わせるように位置合わせを行う可視光画像位置合わせ部と、
    前記可視光位置合わせ部により位置合わせが行われた複数の前記可視光画像を重ね合わせる重ね合わせ部と、
    前記重ね合わせ部により複数の前記可視光画像が重ね合わされて生成された可視光画像を前記被写体の生体情報に応じて階調補正する階調補正部とをさらに備える
    請求項39に記載の画像処理装置。
  45. 前記被写体は眼底である
    請求項39に記載の画像処理装置。
JP2012530745A 2010-08-27 2011-08-26 画像処理装置および方法、並びにプログラム Expired - Fee Related JP6167518B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2010190353 2010-08-27
JP2010190353 2010-08-27
JP2010258556 2010-11-19
JP2010258556 2010-11-19
PCT/JP2011/069339 WO2012026597A1 (ja) 2010-08-27 2011-08-26 画像処理装置および方法

Publications (2)

Publication Number Publication Date
JPWO2012026597A1 true JPWO2012026597A1 (ja) 2013-10-28
JP6167518B2 JP6167518B2 (ja) 2017-07-26

Family

ID=45723586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012530745A Expired - Fee Related JP6167518B2 (ja) 2010-08-27 2011-08-26 画像処理装置および方法、並びにプログラム

Country Status (5)

Country Link
US (3) US9361667B2 (ja)
EP (1) EP2609853A4 (ja)
JP (1) JP6167518B2 (ja)
CN (1) CN103188988A (ja)
WO (1) WO2012026597A1 (ja)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101901602B1 (ko) * 2011-01-14 2018-09-27 삼성전자주식회사 디지털 사진에서 노이즈를 제거하는 장치 및 방법
JP2012244395A (ja) * 2011-05-19 2012-12-10 Sony Corp 学習装置および方法、画像処理装置および方法、プログラム、並びに記録媒体
JP5971089B2 (ja) 2012-11-14 2016-08-17 富士通株式会社 生体情報補正装置、生体情報補正方法及び生体情報補正用コンピュータプログラム
JP6108827B2 (ja) 2012-12-28 2017-04-05 キヤノン株式会社 眼科装置および位置合わせ方法
JP6230262B2 (ja) * 2012-12-28 2017-11-15 キヤノン株式会社 画像処理装置及び画像処理方法
EP3000382A1 (en) * 2012-12-28 2016-03-30 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US9566000B2 (en) * 2013-03-15 2017-02-14 Neurovision Imaging Llc Method for detecting amyloid beta plaques and drusen
US9858464B2 (en) * 2013-03-15 2018-01-02 The Regents Of The University Of Colorado, A Body Corporate 3-D localization and imaging of dense arrays of particles
EP3448032B1 (en) * 2013-03-25 2022-10-19 Imax Corporation Enhancing motion pictures with accurate motion information
GB201308131D0 (en) 2013-05-07 2013-06-12 London School Hygiene & Tropical Medicine Ophthalmoscope
US9972070B2 (en) * 2013-06-24 2018-05-15 Nintendo Co., Ltd. Brightness-compensating safe pixel art upscaler
JP2015167789A (ja) * 2014-03-10 2015-09-28 キヤノン株式会社 被検体情報取得装置および信号処理方法
JP6349878B2 (ja) * 2014-03-31 2018-07-04 株式会社ニデック 眼科撮影装置、眼科撮影方法、及び眼科撮影プログラム
JP2018501839A (ja) * 2014-11-27 2018-01-25 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 患者の画像を生成するイメージングデバイス及び方法
US9665927B2 (en) * 2015-06-03 2017-05-30 Samsung Electronics Co., Ltd. Method and apparatus of multi-frame super resolution robust to local and global motion
US10554713B2 (en) 2015-06-19 2020-02-04 Microsoft Technology Licensing, Llc Low latency application streaming using temporal frame transformation
JP6652284B2 (ja) * 2015-07-08 2020-02-19 キヤノン株式会社 画像生成装置および画像生成方法
JP6867117B2 (ja) * 2016-07-08 2021-04-28 株式会社トプコン 医用画像処理方法及び医用画像処理装置
EP3511903A4 (en) * 2016-09-12 2019-10-02 Panasonic Intellectual Property Management Co., Ltd. DEVICE FOR PRODUCING A THREE-DIMENSIONAL MODEL AND METHOD FOR GENERATING A THREE-DIMENSIONAL MODEL
CN106504199B (zh) * 2016-09-13 2019-03-22 深圳大学 一种眼底图像增强方法及系统
JP7058941B2 (ja) * 2017-01-16 2022-04-25 キヤノン株式会社 辞書生成装置、辞書生成方法、及びプログラム
EP3430973A1 (en) * 2017-07-19 2019-01-23 Sony Corporation Mobile system and method
WO2019065219A1 (ja) * 2017-09-29 2019-04-04 株式会社ニデック 眼科装置
JP2019092006A (ja) * 2017-11-13 2019-06-13 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP7188397B2 (ja) * 2017-12-04 2022-12-13 ソニーグループ株式会社 画像処理装置及び画像処理方法
JP7155727B2 (ja) * 2018-08-07 2022-10-19 富士通株式会社 情報処理装置、情報処理装置の制御方法及び情報処理装置の制御プログラム
CN109124566B (zh) * 2018-08-13 2022-02-22 青岛市市立医院 一种具有自动视网膜特征检测的眼科成像系统
CN110870759A (zh) * 2018-08-31 2020-03-10 福州依影健康科技有限公司 用于远程眼底筛查的质量控制方法和系统、及存储设备
CN109697719B (zh) * 2019-03-05 2021-12-24 北京康夫子健康技术有限公司 一种图像质量评估方法、装置及计算机可读存储介质
JP2021061501A (ja) * 2019-10-04 2021-04-15 シャープ株式会社 動画像変換装置及び方法
CN113592723B (zh) * 2020-04-30 2024-04-02 京东方科技集团股份有限公司 视频增强方法及装置、电子设备、存储介质
JP2021007017A (ja) * 2020-09-15 2021-01-21 株式会社トプコン 医用画像処理方法及び医用画像処理装置
JP2022079931A (ja) * 2020-11-17 2022-05-27 凸版印刷株式会社 画像処理方法及び画像処理プログラム
CN114567718B (zh) * 2022-03-02 2023-08-18 联想(北京)有限公司 电子设备
CN114694266A (zh) * 2022-03-28 2022-07-01 广州广电卓识智能科技有限公司 一种静默活体检测方法、系统、设备及存储介质
KR102478630B1 (ko) * 2022-05-24 2022-12-16 정준 이미지 데이터의 포맷 변환 방법 및 장치
CN115272083B (zh) * 2022-09-27 2022-12-02 中国人民解放军国防科技大学 一种图像超分辨率方法、装置、设备及介质
CN117372284B (zh) * 2023-12-04 2024-02-23 江苏富翰医疗产业发展有限公司 眼底图像处理方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09253052A (ja) * 1996-03-25 1997-09-30 Canon Inc 眼底撮像装置
JP2003299620A (ja) * 2002-04-11 2003-10-21 Canon Inc 眼底画像処理装置
JP2009502220A (ja) * 2005-07-22 2009-01-29 カール ツアイス メディテック アクチエンゲゼルシャフト 眼底を観察し、記録作成しおよび/または診断するための装置および方法

Family Cites Families (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4906646A (en) 1983-03-31 1990-03-06 Board Of Governors Of Wayne State University Method and composition for the treatment of tumors by administering a platinum coordination compound and a calcium channel blocker compound of the dihydropyridine class
JPH0357081A (ja) * 1989-07-26 1991-03-12 Canon Inc 画像処理装置
US5125730A (en) 1990-06-29 1992-06-30 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Portable dynamic fundus instrument
US5394483A (en) * 1992-06-30 1995-02-28 Eastman Kodak Co Method and apparatus for determining visually perceptible differences between images
DE4326716B4 (de) * 1992-08-04 2005-03-03 Kabushiki Kaisha Topcon Anordnung zur Verarbeitung eines ophthalmologischen Bildes
KR100485053B1 (ko) * 1995-06-06 2005-04-27 옵토바이오닉스 코포레이션 망막 자극 시스템
US6128108A (en) * 1997-09-03 2000-10-03 Mgi Software Corporation Method and system for compositing images
US6247812B1 (en) * 1997-09-25 2001-06-19 Vismed System and method for diagnosing and treating a target tissue
US6546124B1 (en) * 1999-07-02 2003-04-08 General Electric Company Method and apparatus for performing an adaptive extended dynamic range algorithm
AU2447101A (en) * 1999-12-22 2001-07-03 Trustees Of The University Of Pennsylvania, The Judging changes in images of the eye
US6766064B1 (en) * 2000-03-10 2004-07-20 General Electric Company Method and apparatus for performing a contrast based dynamic range management algorithm
US7177486B2 (en) * 2002-04-08 2007-02-13 Rensselaer Polytechnic Institute Dual bootstrap iterative closest point method and algorithm for image registration
US7404640B2 (en) * 2002-06-14 2008-07-29 Physical Sciences, Inc. Monitoring blood flow in the retina using a line-scanning laser ophthalmoscope
JP4526110B2 (ja) * 2003-06-19 2010-08-18 株式会社日立メディコ 放射線画像撮像装置
US7290882B2 (en) * 2004-02-05 2007-11-06 Ocutronics, Llc Hand held device and methods for examining a patient's retina
EP1602321A1 (en) * 2004-06-02 2005-12-07 SensoMotoric Instruments GmbH Method and apparatus for image-based eye tracking for retinal diagnostic or surgery device
US8233681B2 (en) * 2004-09-24 2012-07-31 The University Of North Carolina At Chapel Hill Methods, systems, and computer program products for hierarchical registration between a blood vessel and tissue surface model for a subject and a blood vessel and tissue surface image for the subject
US20080021331A1 (en) * 2004-09-29 2008-01-24 Yeda Research And Development Co. Ltd. Characterization of moving objects in a stationary background
JP4591142B2 (ja) * 2005-03-16 2010-12-01 コニカミノルタエムジー株式会社 医用画像システム
US7474775B2 (en) * 2005-03-31 2009-01-06 University Of Iowa Research Foundation Automatic detection of red lesions in digital color fundus photographs
WO2007058895A2 (en) * 2005-11-11 2007-05-24 Visualsonics Inc. Overlay image contrast enhancement
US7747068B1 (en) * 2006-01-20 2010-06-29 Andrew Paul Smyth Systems and methods for tracking the eye
JP4855150B2 (ja) * 2006-06-09 2012-01-18 株式会社トプコン 眼底観察装置、眼科画像処理装置及び眼科画像処理プログラム
JP4854389B2 (ja) * 2006-06-15 2012-01-18 株式会社トプコン 分光眼底測定装置及びその測定方法
JP4854390B2 (ja) * 2006-06-15 2012-01-18 株式会社トプコン 分光眼底測定装置及びその測定方法
US8126289B2 (en) * 2006-06-20 2012-02-28 Ophthalmic Imaging Systems Device, method and system for automatic montage of segmented retinal images
EP2061370A4 (en) * 2006-09-06 2010-03-10 Eye Marker Systems Inc NON-INVASIVE OCULAR DISPLAY AND METHOD FOR MEASURING AND ANALYZING PHYSIOLOGICAL DATA
US8223143B2 (en) * 2006-10-27 2012-07-17 Carl Zeiss Meditec, Inc. User interface for efficiently displaying relevant OCT imaging data
US7621636B2 (en) * 2007-01-10 2009-11-24 Clarity Medical Systems, Inc. Working distance and alignment sensor for a fundus camera
EP2104920B1 (en) * 2007-01-11 2015-03-04 Intellectual Property MVM B.V. The measurement of functional microcirculatory geometry and velocity distributions using automated image analysis
JP5523658B2 (ja) * 2007-03-23 2014-06-18 株式会社トプコン 光画像計測装置
JP4971863B2 (ja) * 2007-04-18 2012-07-11 株式会社トプコン 光画像計測装置
US8134554B1 (en) * 2007-05-04 2012-03-13 Topcon Medical Systems, Inc. Method and apparatus for spatially mapping three-dimensional optical coherence tomography data with two-dimensional images
DE102007023270A1 (de) 2007-05-18 2008-11-20 Linos Photonics Gmbh & Co. Kg Funduskamera
JP4321626B2 (ja) 2007-05-23 2009-08-26 ソニー株式会社 画像処理方法および画像処理装置
WO2008150840A1 (en) * 2007-05-29 2008-12-11 University Of Iowa Research Foundation Methods and systems for determining optimal features for classifying patterns or objects in images
US8363783B2 (en) * 2007-06-04 2013-01-29 Oraya Therapeutics, Inc. Method and device for ocular alignment and coupling of ocular structures
FI119531B (fi) * 2007-06-29 2008-12-15 Optomed Oy Kuvan muodostaminen
US7978932B2 (en) * 2007-08-02 2011-07-12 Mauna Kea Technologies Robust mosaicing method, notably with correction of motion distortions and tissue deformations for in vivo fibered microscopy
JP4940069B2 (ja) * 2007-09-10 2012-05-30 国立大学法人 東京大学 眼底観察装置、眼底画像処理装置及びプログラム
JP4940070B2 (ja) * 2007-09-10 2012-05-30 国立大学法人 東京大学 眼底観察装置、眼科画像処理装置及びプログラム
JP5080944B2 (ja) * 2007-11-08 2012-11-21 興和株式会社 パノラマ眼底画像合成装置及び方法
US8548215B2 (en) * 2007-11-23 2013-10-01 Pme Ip Australia Pty Ltd Automatic image segmentation of a volume by comparing and correlating slice histograms with an anatomic atlas of average histograms
JP5093083B2 (ja) 2007-12-18 2012-12-05 ソニー株式会社 画像処理装置および方法、並びに、プログラム
US8737703B2 (en) * 2008-01-16 2014-05-27 The Charles Stark Draper Laboratory, Inc. Systems and methods for detecting retinal abnormalities
JP4998287B2 (ja) 2008-01-25 2012-08-15 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP5353876B2 (ja) * 2008-03-06 2013-11-27 コニカミノルタ株式会社 画像処理装置
US8687862B2 (en) * 2008-04-08 2014-04-01 National University Of Singapore Retinal image analysis systems and methods
US8194936B2 (en) * 2008-04-25 2012-06-05 University Of Iowa Research Foundation Optimal registration of multiple deformed images using a physical model of the imaging distortion
US8406859B2 (en) * 2008-08-10 2013-03-26 Board Of Regents, The University Of Texas System Digital light processing hyperspectral imaging apparatus
JP5347862B2 (ja) 2008-09-29 2013-11-20 ソニー株式会社 係数学習装置および方法、画像処理装置および方法、プログラム、並びに記録媒体
JP5476879B2 (ja) 2008-09-29 2014-04-23 ソニー株式会社 画像処理装置および係数学習装置。
JP5368765B2 (ja) * 2008-10-21 2013-12-18 キヤノン株式会社 撮影制御装置、撮影装置、撮影制御方法、プログラム、記憶媒体
JP5199031B2 (ja) * 2008-11-05 2013-05-15 株式会社ニデック 眼科撮影装置
JP5287868B2 (ja) * 2008-12-17 2013-09-11 富士通株式会社 生体認証装置及び生体認証方法
KR101658772B1 (ko) * 2008-12-19 2016-09-22 가부시키가이샤 한도오따이 에네루기 켄큐쇼 전자기기
JP5024300B2 (ja) 2009-01-19 2012-09-12 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
KR102104986B1 (ko) * 2009-02-06 2020-04-27 가부시키가이샤 한도오따이 에네루기 켄큐쇼 표시 장치 구동 방법
JP5242479B2 (ja) * 2009-03-26 2013-07-24 オリンパス株式会社 画像処理装置、画像処理プログラムおよび画像処理装置の作動方法
US8805051B2 (en) * 2009-04-07 2014-08-12 Virginia Commonwealth University Image processing and machine learning for diagnostic analysis of microcirculation
JP5448981B2 (ja) * 2009-04-08 2014-03-19 株式会社半導体エネルギー研究所 液晶表示装置の駆動方法
JP4930541B2 (ja) 2009-04-20 2012-05-16 ソニー株式会社 画像処理方法および画像処理装置
JP5684488B2 (ja) * 2009-04-20 2015-03-11 富士フイルム株式会社 画像処理装置、画像処理方法およびプログラム
JP5665281B2 (ja) * 2009-04-30 2015-02-04 キヤノン株式会社 眼科撮影装置
JP4909378B2 (ja) * 2009-06-02 2012-04-04 キヤノン株式会社 画像処理装置及びその制御方法、コンピュータプログラム
JP4846042B2 (ja) * 2009-07-09 2011-12-28 キヤノン株式会社 眼科撮像装置、眼科システム及びプログラム
US9349176B2 (en) * 2009-07-15 2016-05-24 Mayo Foundation For Medical Education And Research Computer-aided detection (CAD) of intracranial aneurysms
JP5474435B2 (ja) * 2009-07-30 2014-04-16 株式会社トプコン 眼底解析装置及び眼底解析プログラム
JP5404358B2 (ja) * 2009-12-08 2014-01-29 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US8811745B2 (en) * 2010-01-20 2014-08-19 Duke University Segmentation and identification of layered structures in images
JP5627248B2 (ja) * 2010-02-17 2014-11-19 キヤノン株式会社 眼科装置および眼科装置の制御方法、そのプログラム
CN103096785B (zh) * 2010-03-12 2015-09-30 佳能株式会社 眼科设备及其控制方法
EP2549913B1 (en) * 2010-03-23 2016-09-07 NeuroVision Imaging LLC Apparatus and method for imaging an eye
WO2011139895A1 (en) * 2010-04-29 2011-11-10 Massachusetts Institute Of Technology Method and apparatus for motion correction and image enhancement for optical coherence tomography
CA2832517C (en) * 2010-05-05 2021-07-13 Melanie Crombie Williams CAMPBELL Method and system for imaging amyloid beta in the retina of the eye in association with alzheimer's disease
JP5600478B2 (ja) * 2010-06-01 2014-10-01 キヤノン株式会社 眼科撮影装置及びその制御方法
DE102010045364A1 (de) * 2010-09-14 2012-03-15 Carl Zeiss Meditec Ag Verfahren und Vorrichtung zur Erzeugung hochwertiger Fundusaufnahmen
WO2012037414A1 (en) * 2010-09-15 2012-03-22 The Charles Stark Draper Laboratory, Inc. Systems and methods for multilayer imaging and retinal injury analysis
DE102010046500A1 (de) * 2010-09-24 2012-03-29 Carl Zeiss Meditec Ag Verfahren und Vorrichtung zur Aufnahme und Darstellung eines OCT-Ganzaugenscans
US8878950B2 (en) * 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
US9251565B2 (en) * 2011-02-03 2016-02-02 Massachusetts Institute Of Technology Hyper-resolution imaging
US8750647B2 (en) * 2011-02-03 2014-06-10 Massachusetts Institute Of Technology Kinetic super-resolution imaging
TWI578977B (zh) * 2011-04-07 2017-04-21 香港中文大學 視網膜圖像分析裝置
JP6025311B2 (ja) * 2011-08-01 2016-11-16 キヤノン株式会社 眼科診断支援装置および方法
JP6041538B2 (ja) * 2012-06-01 2016-12-07 キヤノン株式会社 眼科装置
JP6062688B2 (ja) * 2012-08-30 2017-01-18 キヤノン株式会社 眼科装置、眼科装置の制御方法、およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09253052A (ja) * 1996-03-25 1997-09-30 Canon Inc 眼底撮像装置
JP2003299620A (ja) * 2002-04-11 2003-10-21 Canon Inc 眼底画像処理装置
JP2009502220A (ja) * 2005-07-22 2009-01-29 カール ツアイス メディテック アクチエンゲゼルシャフト 眼底を観察し、記録作成しおよび/または診断するための装置および方法

Also Published As

Publication number Publication date
US20160213244A1 (en) 2016-07-28
US20210045627A1 (en) 2021-02-18
US10863897B2 (en) 2020-12-15
EP2609853A1 (en) 2013-07-03
JP6167518B2 (ja) 2017-07-26
US20130148872A1 (en) 2013-06-13
EP2609853A4 (en) 2016-03-09
CN103188988A (zh) 2013-07-03
WO2012026597A1 (ja) 2012-03-01
US9361667B2 (en) 2016-06-07

Similar Documents

Publication Publication Date Title
JP6167518B2 (ja) 画像処理装置および方法、並びにプログラム
US20200234080A1 (en) Reducing noise in an image
WO2020183799A1 (ja) 医用画像処理装置、医用画像処理方法及びプログラム
US8657440B2 (en) Image processing apparatus and image processing method
US9311695B2 (en) Image processing method and radiographic apparatus using the same
CN101930595A (zh) 图像处理方法和图像处理设备
US9089280B2 (en) Image processing apparatus, image processing method, and program storage medium
WO2005008590A1 (ja) 虹彩コード生成方法、個人認証方法、虹彩コード登録装置、個人認証装置、および個人認証プログラム
RU2637851C2 (ru) Устройство обработки изображений и способ управления устройством обработки изображений
JP2011188083A (ja) 情報処理装置、情報処理方法、プログラム、及び光学顕微鏡を搭載した撮像装置
Shen et al. Improving lateral resolution and image quality of optical coherence tomography by the multi-frame superresolution technique for 3D tissue imaging
CN106530236B (zh) 一种医学图像处理方法及系统
JP2020166813A (ja) 医用画像処理装置、医用画像処理方法及びプログラム
WO2015129909A1 (en) Apparatus, method, and program for processing image
US9990562B2 (en) Image processing device and method
JP5365578B2 (ja) 画像処理方法およびそれを用いた放射線撮影装置
Molodij et al. Enhancing retinal images by extracting structural information
US20220207723A1 (en) X-ray image processing apparatus and x-ray image processing method
US10123688B2 (en) Information processing apparatus, operation method thereof, and computer program
Fang et al. Color Endoscopic Image Enhancement Technology Based on Nonlinear Unsharp Mask and CLAHE
JP2022062620A (ja) 画像処理装置、画像処理方法及びプログラム
US10264960B2 (en) Information processing apparatus, operation method thereof, and computer program
JP2021069667A (ja) 画像処理装置、画像処理方法及びプログラム
CN110558943A (zh) 光学成像方法、相关装置及系统
Köhler et al. Software-based imaging and quantitative analysis of the corneal sub-basal nerve plexus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140822

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170612

R151 Written notification of patent or utility model registration

Ref document number: 6167518

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees