JP2010246695A - 画像処理方法および画像処理装置 - Google Patents

画像処理方法および画像処理装置 Download PDF

Info

Publication number
JP2010246695A
JP2010246695A JP2009098542A JP2009098542A JP2010246695A JP 2010246695 A JP2010246695 A JP 2010246695A JP 2009098542 A JP2009098542 A JP 2009098542A JP 2009098542 A JP2009098542 A JP 2009098542A JP 2010246695 A JP2010246695 A JP 2010246695A
Authority
JP
Japan
Prior art keywords
image
component
fundus
image processing
depth information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009098542A
Other languages
English (en)
Other versions
JP5478103B2 (ja
Inventor
Yutaka Mizukusa
豊 水草
Toshiaki Nakagawa
俊明 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kowa Co Ltd
Original Assignee
Kowa Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kowa Co Ltd filed Critical Kowa Co Ltd
Priority to JP2009098542A priority Critical patent/JP5478103B2/ja
Priority to PCT/JP2010/056193 priority patent/WO2010119790A1/ja
Priority to US13/138,871 priority patent/US20120026310A1/en
Priority to AU2010237951A priority patent/AU2010237951A1/en
Priority to EP10764375A priority patent/EP2420182A4/en
Publication of JP2010246695A publication Critical patent/JP2010246695A/ja
Application granted granted Critical
Publication of JP5478103B2 publication Critical patent/JP5478103B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Abstract


【課題】異なる波長の光でステレオ撮影した眼底画像から、眼底の組織、特に網膜の厚みに関する情報を正確に測定する。
【解決手段】被検眼眼底を眼底撮影光学系を介して所定の視差でステレオ撮影(S100)し、得られた左右の視差画像を用いて被検眼眼底の3次元形状測定処理を行うに際し、撮影したステレオ眼底画像を色分解し(S101)、色分解して得られた異なる波長成分のステレオ眼底画像に対してそれぞれ特定の眼底部位の深さ情報を求める深さ情報計測処理(S103)を行ない、前記深さ情報計測処理で異なる波長成分のステレオ眼底画像からそれぞれ得られた深さ情報の差を特定の眼底組織の厚さ情報として求める厚さ情報計測処理(S104)を行なう。また、特定の波長成分の画像に関しては空間周波数のフィルタリング処理(S103)も行なう。
【選択図】図2

Description

本発明は、被検眼の眼底画像を表示出力する画像処理方法および画像処理装置に関するものである。
従来より、緑内障の診断などの目的で、被検眼眼底の状態を把握するため、被検眼眼底の立体画像を撮影する眼底カメラなどの画像処理装置が知られている。眼底カメラの単一の光学系内の絞りを光軸から左右(あるいは上下)に偏心した異なる位置に移動させ、それぞれの絞り位置で撮影を行うことにより被検眼眼底をステレオ撮影する。ステレオ撮影した左右の画像から、左右の画像の対応する部位の深さ情報を求めることができ、これにより、たとえば眼底の立体形状モデルを形成することができる。
また、カラー撮影で得られる異なるスペクトルの画像(たとえばR、G、Bの各色画像)について、3次元解析を行なうことも試みられている(下記の特許文献1および特許文献2)。特許文献1では、RGB別のステレオ画像で各色(各層)ごとに3次元解析を行ない、各スペクトル画像毎の眼底の深度情報を合成して眼底の三次元形状を算出する技術が開示されている。
また、特許文献2では、立体光学系により眼底を撮像する立体眼底カメラにおいて、眼底の各層から同時に導かれる光の波長を光学的に分離して眼底各層を同時に撮像する光学的分離手段を設け、RGB別のステレオ画像で各色(各層)ごとに3次元解析を行ない、たとえば特定の2つのスペクトルで得られた立体断面像の差を網膜の線維層の厚さとして数値的に把握できるようにする技術が開示されている。
これらの従来技術は、網膜の線維層の厚さを測定することが緑内障の診断や病状の把握に役立つ、という考えに基づくものである。
特開2000−245700号公報 特許2919855号
被検眼の網膜層の厚さを測定すること、たとえば眼底画像から網膜厚マップを作成することは、すでにOCT(光干渉断層光学系を用いた眼底測定装置)や、偏光された走査レーザ光を用いた網膜神経繊維層の厚みを測定する装置などで実現はされているが、いずれも専用の高価な装置が必要であり、また眼底写真は別に撮影する必要があった。
たとえば、立体眼底カメラのハードウェアを用いて網膜厚情報を測定できれば、眼底画像の撮影と、網膜厚情報の測定を簡単安価な構成により行なうことができ好都合であると考えられるが、上記の特許文献1、2に記載されているような構成で立体眼底カメラで色分解して網膜厚さを測定しようとすると、各色の画像に異なる層からの反射光が入ってしまっている場合に、その部位の測定が正しく行えないという問題があった。特に、この問題は、網膜組織より深い脈絡膜組織の部分からの反射光を反映している長波長の赤色成分(R成分)で多発しやすく、赤色成分の画像は深層部からと表層部からの信号が混在しているため、充分な測定精度を得られない、という問題があった。
本発明の課題は、上記問題に鑑み、異なる波長の光でステレオ撮影した眼底画像から、眼底の組織、特に網膜の厚みに関する情報を正確に測定できるようにすることにある。
上記課題を解決するため、本発明においては、被検眼眼底を眼底撮影光学系を介して所定の視差でステレオ撮影し、得られた左右の視差画像を用いて被検眼眼底の3次元形状測定処理を行う画像処理方法および画像処理装置において、撮影したステレオ眼底画像を色分解し、色分解して得られた異なる波長成分のステレオ眼底画像に対してそれぞれ特定の眼底部位の深さ情報を求める深さ情報計測処理を行ない、前記深さ情報計測処理で異なる波長成分のステレオ眼底画像からそれぞれ得られた深さ情報の差を特定の眼底組織の厚さ情報として求める厚さ情報計測処理を行なう構成を採用した。
上記構成により、異なる波長の光でステレオ撮影した眼底画像から、眼底の組織、特に網膜の厚みに関する情報を正確に測定することができる。
本発明を採用した画像処理システムの構成を示したブロック図である。 本発明を採用した画像処理システムにおける画像処理を示すもので、(a)、(b)はそれぞれその画像処理の流れを示したフローチャート図である。 本発明を採用した画像処理システムにおける画像処理を示すもので、(a)はその画像処理の流れを示したフローチャート図、(b)はその画像処理の原理を説明する線図である。 本発明を採用した画像処理システムにおけるさらに異なる画像処理の流れを示したフローチャート図である。 本発明を採用した画像処理システムにおいて撮影されるステレオ眼底画像を示した説明図である。 本発明を採用した画像処理システムにおける画像処理を示した説明図である。 本発明を採用した画像処理システムにおける画像処理を示した説明図である。 本発明を採用した画像処理システムにおける表示出力例を示した説明図である。 本発明を採用した画像処理システムにおける表示出力例を示した説明図である。
以下、本発明を実施するための最良の形態の一例として、被検眼眼底をステレオ撮影光学系を介してステレオ撮影し、得られた撮影画像データに対して3次元測定処理を行なう眼科測定装置に関する実施例につき説明する。
<システム構成>
図1は本発明を採用した眼科測定装置の構成を示している。図1において符号101は眼底撮影用のカメラで、被検眼(不図示)の眼底を所定の撮影条件で撮影するための機構、例えば、撮影距離を決定するアライメント機構などを備えた眼底カメラなどから構成される。カメラ101は、カラー撮影を行なえる、たとえば3板式のCCDやCMOSセンサなどの撮像素子を有し、デジタルデータとして撮影した被検眼のカラー眼底画像データを画像処理装置に出力する。なお、カメラ101が出力する画像信号がYUV(YPbPrやYCbCr)のような形式である場合には、後述のような色分解処理によりRGB画像データのように異なるスペクトルの画像データへの色分解処理を行なう。たとえばカメラ101がJPEG(やMPEG)形式などで画像を出力する場合には、このような色分解処理が必要になる。
画像処理装置100は、例えばパーソナルコンピュータなどのハードウェアを用いて構成される。画像処理装置100は、システム全体の制御を行なうとともに、後述の画像処理を実施する画像処理手段の主体を構成するCPU102を含む。画像処理装置100はもちろん、カメラ101と一体的に構成された専用ハードウェアにより構成されていてもよい。
後述の画像処理は、VRAM(画像メモリ)104をワークエリアとして実行される。この他にも、画像処理以外のシステム制御などに用いるためのメモリとして、ダイナミックRAMなどから構成されたメモリが設けられるものとする。後述の画像処理を実施するためのCPU102のプログラムはROM103かHDD105に格納しておく。
また、HDD105は、被検眼の撮影画像データ、測定結果などの数値データ、あるいは後述の画像処理により生成された出力画像データなどを格納するために用いられる。
画像処理装置100には、表示出力手段として、LCDやELパネル、CRTなどから構成されたディスプレイ107が接続されており、ディスプレイ107には画像処理装置100の画像処理を制御するためのユーザーインターフェース画面や出力画面などを表示させる。これらの画面表示、機器全体の制御を行なうため、画像処理装置100には不図示のキーボードやマウスその他のポインティングデバイスから成るユーザーインターフェース手段が設けられているものとする。
また、画像処理装置100は、後述の画像処理に基づき、被検眼眼底、特に網膜層の厚みに関する評価を検者が容易に行なえるよう構成した画像データを生成し、ディスプレイ107に出力させる(図8、図9)。
画像処理装置100には、不図示のネットワークインターフェースを介してネットワーク106が接続される。画像処理装置100は、上述の被検眼の撮影画像データ、測定結果などの数値データ、あるいは後述の画像処理により生成された出力画像データなどを外部のコンピュータや別の画像処理装置、あるいは眼科測定装置などに出力する。
<画像処理>
本実施例の特徴は、カメラ101でカラー撮影したRGB画像データのような異なるスペクトルで得られた画像データ(たとえばRGB画像)を用い、これらの(色分解された)各色の画像ごとに被検眼眼底の3次元情報、特に深さ分布を求める。
たとえばRGB画像の場合、基本的には、R成分は網膜の比較的深部、たとえば脈絡膜からの情報を多く含む反射光、G成分は網膜色素上皮からの情報を多く含む反射光、B成分は網膜表面からの情報を多く含む反射光として取り扱うことができる。したがって、各色成分から得られた深さ情報の任意の2つを取ることにより、それらの画像情報がよく反映している層の間の距離(厚み)を求めることができる。たとえば、理論的には、R成分から得られた深さ情報とG成分から得られた深さ情報の差を求め、この距離を脈絡膜〜網膜色素上皮の厚さとして測定することができる。
ただし、眼底画像のR成分の空間周波数中域〜高域付近には、網膜表面からの反射光が含まれることがある。図5は、カメラ101でステレオ撮影した左右の眼底画像402、401を示している。図中において、破線より内側の部分は比較的明るく撮影される乳頭部を、また、符号403、404は眼底血管を示している。図5の左の画像402の下部にごく一部のみ示したように、網膜表面からの反射光が含まれており、R成分およびB成分の空間周波数中域〜高域付近に含まれて出力される。
上述したように、図5に示したような異なる層からの反射光(405)が混在することによって誤まった深さ情報が生じ、不正確な、あるいは無意味な厚さ情報が出力されることがある。たとえば、上述のように組織の深層からの3次元情報を反映しているR成分には網膜表面からの反射光も含まれるが、左右のステレオ画像から測定される深さ情報は両層が混在した深度情報となるから、たとえば組織中層からの3次元情報を反映しているG成分から得られる深度情報との差を演算した場合には組織の厚み情報として負の数値が出力されてしまう領域が生じる。
以上のような問題を解決するため、本実施例では、図2に示すような画像処理を行なう。図2は本実施例の画像処理システムにおけるそれぞれ異なる画像処理手順の流れを示している。画像処理装置100の処理主体として画像処理を実施するためのCPU102のプログラムはROM103かHDD105に格納しておくものとする。
図2の画像処理は、本実施例において、カラーステレオ撮影し、RGBの各色成分に色分解した画像をそれぞれ用い、各色成分のステレオ画像から、たとえば、脈絡膜や網膜色素上皮に相当する組織の深さ情報を求め、その差を網膜の厚みとして出力するに際し、特定の色成分について空間周波数に関するフィルタリング処理を行ない、上述のノイズ成分(図5)によって生じ得る測定誤差の影響を除去ないし低減するためものである。
図2(a)、(b)は画像処理装置100の処理主体として画像処理を実施するためのCPU102のプログラムの流れを示しており、図2(b)は図2(a)と同じ処理を示したものであるが、その途中で処理される色成分のデータを明示的に示したものである。図2(a)および図2(b)では、同一の処理ステップには同一のステップ番号を付してある。
図2のステップS100では、カメラ101を用いて被検眼の眼底画像をカラーステレオ撮影し、ステップS101では、カメラ101から出力されるカラーステレオ眼底画像信号をRGB画像信号に色分解し、VRAM(画像メモリ)104に格納する。カメラ101からRGB信号がそのまま出力される場合には、そのRGBデータをVRAM(画像メモリ)104に格納すれば良いが、カメラ101が特定のYUV形式などのRGB形式とは異なる画像フォーマットを用いている場合には、ステップS101の色分解処理が必要になる。
これにより、図2(b)のステップS100〜S101に示すように、カメラ101から出力されたカラーステレオ画像が、赤色(R)成分画像データ、緑色(G)成分画像データ、青色(B)成分画像データに分解される。
続いて、ステップS102では、得られた赤色(R)成分画像データ、緑色(G)成分画像データ、青色(B)成分画像データに対して特定のフィルタリング処理を行なう。ただし、この処理はユーザ設定により省略できるようにしておいてもよい(後述の図8を参照)。
図2では、図2(b)に示すように、それぞれの画像データに対してフィルタリング処理を行なう。本実施例では、ステレオ画像の赤色(R)成分画像データ、緑色(G)成分画像データ、青色(B)成分画像データのうち、赤色(R)成分画像データについては空間周波数の低周波、および高周波成分の画像をそれぞれ抽出する。このステップS102のフィルタリング処理の結果、ステレオ画像の赤色(R)低周波成分画像データ、赤色(R)高周波成分画像データ、緑色(G)成分画像データ、青色(B)成分画像データが得られる。
ステップS103では、赤色(R)低周波成分画像データ、赤色(R)高周波成分画像データ、緑色(G)成分画像データ、青色(B)成分画像データのそれぞれの各成分の左右のステレオ画像から、視差を抽出し、左右の画像で対応する画素についての深さ情報を計測する。ここでは、左右のステレオ画像から対応画素の深さ情報を計測する手法については公知の手法を用いるものとし、ここでは詳細な説明は省略する。
ステップS103の深さ計測処理により、図2(b)に示すように赤色(R)低周波成分画像データ、赤色(R)高周波成分画像データ、緑色(G)成分画像データ、青色(B)成分画像データのそれぞれについて深さ計測結果が得られる。なお、必要であれば図2(a)にステップS105で示したように、これら赤色(R)低周波成分画像データ、赤色(R)高周波成分画像データ、緑色(G)成分画像データ、青色(B)成分画像データのそれぞれの深さ計測結果に対して特定のフィルタリング処理を行なうこともできる。このフィルタリング処理としては、たとえば、平滑化フィルタやメディアンフィルタが考えられる。
そして、ステップS104において、これらのうち特定の2つの深さ計測結果の差を算出することにより、その差分を任意の層間の厚さとして出力することができる。たとえば、上記のフィルタリングを行なった場合には、R成分から得られた深さ情報のカーブはB成分から得られた深さ情報のカーブに近づく(下記の図7)から、B成分から得られた深さ情報のカーブのかわりに補正後のR成分から得られた深さ情報のカーブを用い、補正後のR成分から得られた深さ情報とG成分から得られた深さ情報の差を網膜表面〜網膜色素上皮の厚さとして測定することができる。
図6および図7は、図2に示したフィルタリング処理を含む画像処理を行なうことによって、左右の画像の赤色(R)成分画像データ、緑色(G)成分画像データ、青色(B)成分画像データから得られる深さ情報の例を示している。
図6および図7において、下部の波形は上部のカメラ101で撮影した眼底画像1600(右または左の一方のみ示している)を水平に横切るように設定したプロファイルライン1601に沿った各画素に対応する部位のものとして演算(図2のステップS103〜S104)された深さ情報を横軸を眼底画像1600の水平(X)方向にとって示したものである。
図6は、たとえばユーザ設定処理などによって、フィルタリング処理(図2のステップS102)を一切行なわずに左右の画像の赤色(R)成分画像データ、緑色(G)成分画像データ、青色(B)成分画像データから演算(図2のステップS103〜S104)された深さ情報を示している。前述のように、R成分は網膜の比較的深部、たとえば脈絡膜からの情報を多く含む反射光、G成分は網膜色素上皮からの情報を多く含む反射光、B成分は網膜表面からの情報を多く含む反射光と考えた場合、各色成分の左右の画像から演算した深さ情報のカーブは交差しないはずであるが、フィルタリング処理を行なわなかった場合には、図6に示すようにたとえば網膜表面からの反射光(図5)の混入によって赤色(R)成分画像データから得られる深さ情報のカーブ1602が他の緑色(G)成分画像データ、および青色(B)成分画像データから演算された深さ情報のカーブ1603、1604と交差してしまっている。この場合、赤色(R)成分画像データから得られる深さ情報は眼底の網膜組織の厚みを求めるために用いることができない。
これに対して、図7は、図2のフィルタリング処理(ステップS102)を行なった場合の深さ情報の演算結果を示している。図7では、赤色(R)成分画像データから得た深さ情報のカーブ1702を1つの波形で示しているが、この波形は図2(b)における赤色(R)高周波成分画像データから演算された深さ情報である。
図7に示したように、図7は、図2のフィルタリング処理(ステップS102)を行なうことにより、赤色(R)成分画像データ、緑色(G)成分画像データ、および青色(B)成分画像データから演算された深さ情報のカーブ1702、1703、1704が交差しなくなり、さらに、赤色(R)成分画像データが青色(B)成分画像データから演算された深さ情報に近づき、したがって、これらの深さ情報のカーブ1702、1703、1704を用いて眼底の網膜組織の厚みを求めることができる。
特に、上記のフィルタリングを行なった場合には、R成分から得られた深さ情報のカーブはB成分から得られた深さ情報のカーブに近づく(下記の図7)から、B成分から得られた深さ情報のカーブのかわりに補正後のR成分から得られた深さ情報のカーブを用い、補正後のR成分から得られた深さ情報とG成分から得られた深さ情報の差を網膜表面〜網膜色素上皮の厚さとして測定することができる。このようにB成分から得た深さ情報のカーブのかわりに、上記のフィルタリングを行なったR成分から得た深さ情報のカーブを用いる場合には、低光量の照明において誤差の生じやすいB成分を用いるよりも、正確な膜圧計算を行なうことができる。B成分の画像データは後述の実施例2で説明するように低光量の照明においては誤差を生じ易い問題があるが、B成分から得た深さ情報のカーブのかわりに、上記のフィルタリングを行なったR成分から得た深さ情報のカーブを用いれば、撮影用の照明が低光量であってもそのような誤差の影響が少なく、正確な膜圧計算を行なうことができる。
以上のように、本実施例では、ステレオ撮影された被検眼眼底の左右の視差画像を色分解し、異なる波長成分のステレオ画像を取得し、各波長成分のステレオ画像から眼底組織の3次元情報、特に深さに関する情報を求め、さらに各波長成分のステレオ画像から求めた深さ情報の差を求めることにより、眼底組織、特に網膜の膜圧に関する情報を取得することができる。その場合、特定の波長成分(上記の例では赤色(R)成分画像データ)に所定のフィルタリング処理(空間周波数の高域あるいは低域の除去ないし抑圧)を作用させることにより、たとえば光を選択的に抽出することによって該波長成分で得られる深さ情報の誤差の影響をなくし、該波長成分に対応づけられる組織の部位に関する深さ情報を正確に求め、ひいては眼底組織、特に網膜の膜圧に関する情報を正確に取得することができる。
<表示出力例>
以下、本実施例において、ステレオ撮影された眼底画像、また眼底画像データから求めた深さ情報や組織の厚さに関する情報を表示出力する場合に好適な表示方式につき説明する。
図8、図9は、本実施例の眼科測定装置においてディスプレイ107で表示可能な計測結果の出力例を示したものである。ここでは、主にフィルタリング処理なしの画像信号を用いて、計測結果の出力例を示す。
図8の表示例では、左上に眼底画像1800(ステレオ画像、あるいは左または右の画像)を表示しており、この眼底画像1800中にはマウスその他のポインティングデバイスでその位置を設定可能なX(横)、Y(縦)、方向に沿うプロファイルラインを表示している。
画面の右下部は、ポインティングデバイスなどにより操作可能なボタン、ラジオボタンなどから成るグラフィックユーザーインターフェース1903、1904を配置しており、このうちグラフィックユーザーインターフェース1903は眼底画像1800として表示する画像としてステレオ撮影された左(Left)ないし右(Right)のいずれの画像を選ぶか、また、R、G、Bいずれの色成分の画像を選ぶか、などの選択、擬似カラーマップ表示を用いるか否かなどを選択するためのものである。
また、グラフィックユーザーインターフェース1904は眼底画像の下部、および右側のグラフィック表示1801、および1802として、どのようなデータを用いるかを選択するためのラジオボタンと、グラフィックユーザーインターフェース1903、1904の選択状態を決定するための[OK][キャンセル]などのボタンを配置したものである。特にグラフィックユーザーインターフェース1904の左側では「Color」、「Depth」、「Thickness」を選択できる。このうち、選択状態にある「Depth」は、上述の深さ情報の表示を指定するもの、「Thickness」は後述の図9のように厚さ情報の表示をそれぞれ指定するものである。また、「Color」は、深さ情報ではなく、「Color」はプロファイルラインに沿った画像信号の情報、たとえば輝度のグラフ表示を指定するものである。
グラフィックユーザーインターフェース1904の中央および右側は、「Thickness」すなわち深さ情報を演算する引き算に、R、G、Bのいずれの色成分の深さ情報を用いるかを指定するためのものとなっているが、図8の「Depth」を指定した状態では、表示状態とは直接関係しない。
なお、グラフィックユーザーインターフェース1904の左下の[3DImage]のボタンは、ステレオ撮影した3次元画像の表示を指定するものである。この3次元表示の表示形式は本実施例では図示しないが、公知の任意の表示方式を用いることができる。
図8の状態では、グラフィックユーザーインターフェース1903では、左(Left)画像を表示し、画像としては「RGB」すなわちカラー画像の表示を行なう選択がされて、また、グラフィックユーザーインターフェース1904では、「Depth」が選択されており、この選択により眼底画像1800の下部および右方のグラフィック表示1801、および1802はグラフ形式で眼底画像1800中のX、Y方向のプロファイルラインにそれぞれ沿う深さ情報を表現した表示となっている。
ここでは、グラフィックユーザーインターフェース1903の「RGB」すなわちカラー画像の表示を行なう選択に基づき、グラフィック表示1801、および1802は3本の波形で、左右のR、G、Bの各色成分から求めた深さ情報を表示している。図8の表示状態は、図6の場合のようなフィルタリング処理を行なっていない状態での深さ情報を表示しており、一部で深さ情報の波形は交差している。
一方、図9は、図8と同等のグラフィックユーザーインターフェース1903、1904を持つ画面で、ここでは、グラフィックユーザーインターフェース1903では左(Left)画像、カラー表示(RGB)が指定されるとともに、グラフィックユーザーインターフェース1904では「Thickness」表示(厚さ表示)が選択されている。そして、グラフィックユーザーインターフェース1904の中央および右側は、図9の状態では、G成分から得た深さからB成分から得た深さを減算する指定となっている。また、グラフィックユーザーインターフェース1903では、擬似カラーマップ表示も選択されている。これらの設定に基づき、眼底画像1900の下部および右にグラフィック表示1901、および1902が行なわれている。
図9のステレオ撮影データは図8と同等で、ここでは図6の場合のようなフィルタリング処理を行なっていない状態でのG成分から得た深さからB成分から得た深さを減算することにより厚さの値を求めている。その結果、特にY方向のグラフィック表示1902で顕著であるが、計測された厚さ数値が負になっている。
また、図9ではグラフィックユーザーインターフェース1903では、擬似カラーマップ表示が選択されている。この擬似カラーマップ表示は、画面全体に渡り、眼底画像1900に重畳する半透明表示などにより、たとえば厚みの数値(図8で擬似カラーマップ表示を選択した場合は深さの数値)の大小に応じて異なる色分け表示を行なうものである。この場合、擬似カラーマップは、厚み(あるいは深さ)の数値が大きくなるほど濃度(彩度)が大きくなるような色配置で構成される。
このような擬似カラーマップ表示によって、符号1910、1911でその一部を示すような部位、特にグラフィック表示1902で極端に厚みの数値が小さかったり(たとえば負になっている)、大きかったりするような領域において擬似カラーマップ表示の端部に相当するような濃度(彩度)が表示されるため、検者はひと目でこのような異常(被検眼の網膜組織の異常、または測定異常)を認識することができる。
なお、図8および図9ではフィルタリング処理なしの表示結果を示したが、他のユーザーインターフェースを設けておき、フィルタリング処理を介して得た深さデータ、および厚さデータを図8および図9に示したユーザーインターフェースを用いて表示できるのはもちろんである。その場合、深さデータの表示は図7に示したように各色成分の画像から得られた深さデータはほぼ対応する網膜組織の層の深さにほぼ対応するカーブとして表示される。
以下、図2に示したものと異なる画像処理手順につき異なる実施例を示す。
本実施例では、G成分は網膜色素上皮からの情報を多く含む反射光、B成分は網膜表面からの情報を多く含む反射光として取り扱うものとし、これらの波長成分の画像からそれぞれ得た深さ情報の差として網膜表面〜網膜色素上皮の間の厚さ情報を得る場合に好適な画像処理例につき示す。ハードウェア構成など、以下では明示的に説明しない構成については、本実施例でも実施例1と同等の構成が用いられるものとする。
図3(b)は、本実施例における画像処理を説明するもので、横軸に波長を、縦軸にカメラ101の撮像素子で得られる画像信号の強度(輝度)をとって示したグラフである。図3(b)の破線は、一般にカメラ101の撮像素子で得られる画像信号の強度(輝度)を示したもので、このようにCMOSやCCDなどの撮像素子の波長に関する感度分布に起因し、緑色(G)成分画像データにおいて、赤色(R)成分画像データや青色(B)成分画像データよりも大きな輝度分布が得られる。
網膜の表面に近い組織の画像情報を大きく反映していると考えられる青色(B)成分画像データは、表面反射などによりノイズの影響を受けやすいから、できるだけ大きな強度(輝度)で画像信号を得られるほうがそのようなノイズの影響を小さくできると考えられる。たとえば、実線のように青色(B)成分が他の成分に対して光量が強くなっている照明光量の強度(輝度)分布で画像信号を得られれば、表面反射などによりノイズの影響を低減した上で眼底組織の深さおよび厚み情報を正確に得られるものと考えられる。
そこで、本実施例では、ステレオ眼底画像撮影を通常の照明強度、および強い照明強度で2度行ない(下記のステップS200、S201)、特定の波長成分の画像、特に青色(B)成分に関しては強い照明強度で得た画像を用い、他の波長成分の画像については通常の照明強度で得た画像を用いる。これにより、実質的に図3(b)の実線で得られるような強度(輝度)分布の画像信号を用いた時と同じような効果を得ることができる。
図3(a)は、実施例1とは異なる画像処理手順の一例を示したものである。図3(a)は、実施例1の図2と同等の形式で本実施例の画像処理手順を示したものである。画像処理装置100の処理主体として画像処理を実施するためのCPU102のプログラムはROM103かHDD105に格納しておくものとする。
図3(a)のステップS200、S201では、ステレオ眼底画像撮影を通常の照明強度、および強い照明強度でそれぞれ行なう。ステップS202、S203、S204、S205は、それぞれ図2のステップS101、S102、S103、S104とそれぞれ同等のステレオ眼底画像色分解処理、フィルタリング処理、深さ情報計測処理、厚さ情報計測処理である。このうち、フィルタリング処理(S203)は、上述の実施例1と同様に特定の設定操作により無効化できるようにしておくことができ、また、上述の実施例1と同様に色(R)成分画像データの深さ情報の誤差の影響を低減するために空間周波数の中域の除去ないし抑圧を行なうようにできる。
ステップS204の深さ情報計測処理は、赤色(R)成分画像データ、緑色(G)成分画像データ、青色(B)成分画像データのそれぞれについて行なうが、本実施例では少なくとも青色(B)成分画像データに基づく深さ情報計測処理では、強い照明強度(ステップS201)で得た青色(B)成分画像データを用いて深さ情報計測処理を行なうものとし、その他の色(B、R)成分画像データに基づく深さ情報計測処理では、通常の照明強度(ステップS200)で得た色(B、R)成分画像データを用いて深さ情報計測処理を行なうものとする(もちろん、特定の測定目的で用いることができるように、各色成分に関して通常の照明強度(ステップS200)で得た色成分画像データと、強い照明強度(ステップS201)で得た色成分画像データのそれぞれについて深さ情報計測処理を行なっておいてもよい)。
そして、本実施例では特にステップS205の厚さ情報計測処理において、通常照明強度(ステップS200)で得た緑色(G)成分画像データ強い照明強度(ステップS201)で得た青色(B)成分画像データを用い、両者の差を求め、網膜表面〜網膜色素上皮の間の厚さ情報を得る。
このような処理を行なうことにより、実質的に図3(b)に示したような強度分布の画像信号を用いたのと同等の効果を得ることができ、表面反射などによりノイズの影響を低減した上で、眼底組織の深さおよび厚み情報を正確に得ることができる。
図5〜図9に示したような眼底画像に含まれる血管像、特に太い血管像は時に深さ計測を妨害し、誤差を生じる可能性がある。本実施例では、このような問題を回避するためにステレオ撮影された眼底画像から血管像を除去した上、ステレオ眼底画像色分解処理、フィルタリング処理、深さ情報計測処理、厚さ情報計測処理を行なう。すなわち、本実施例では、深さ情報計測処理および厚さ情報計測処理に血管画像を除去する処理を前処理として行なったステレオ画像を用いる。本実施例でもハードウェア構成など、以下では明示的に説明しない構成については、実施例1と同等の構成が用いられるものとする。
図4は、上述の図2、図3と同等の形式で本実施例の画像処理手順を示したものである。画像処理装置100の処理主体として画像処理を実施するためのCPU102のプログラムはROM103かHDD105に格納しておくものとする。
図4のステップS300では、実施例1同様(図2のステップS101)にステレオ眼底画像撮影を行なう。
ステップS301では、モルフォロージ(morphology)処理などを用いて、ステレオ撮影された眼底画像から血管像(好ましくは特に太い血管像)を除去する。
その後のステップS302、S303、S304、S305は、それぞれ図2のステップS101、S102、S103、S104とそれぞれ同等のステレオ眼底画像色分解処理、フィルタリング処理、深さ情報計測処理、厚さ情報計測処理である。これらの処理への入力にはステップS301で血管像を除去したステレオ眼底画像を用いる。なお、このうち、フィルタリング処理(S303)は、上述の実施例1と同様に特定の設定操作により無効化できるようにしておくことができ、また、上述の実施例1と同様に色(R)成分画像データの深さ情報の誤差の影響を低減するために空間周波数の高域あるいは低域の除去ないし抑圧を行なうようにできる。
ステップS305の厚さ情報計測処理においては、上述の実施例1および2同様に赤色(R)成分画像データ、緑色(G)成分画像データ、青色(B)成分画像データのうち任意の波長成分の画像データから得た深さ情報を選び、減算処理を行なうことにより網膜組織の厚さを計測し、出力することができる。
以上のように、本実施例によれば、ステレオ撮影された眼底画像から血管像を除去した上、ステレオ眼底画像色分解処理、フィルタリング処理、深さ情報計測処理、厚さ情報計測処理を行なうことにより、眼底画像に含まれる血管像によって、深さ計測、ひいてはそれに基づいて行なわれる厚さ計測処理に生じうる誤差を低減することができる。
なお、上記の実施例では課題を解決するための最小の構成例を示したが、前処理として色分解した画像に対し、色収差を補正する処理を追加しても良い。
本発明は、被検眼の眼底画像を表示出力する画像処理を行なう眼底カメラや眼科測定装置、ファイリング装置などの画像処理装置において実施することができる。
100 画像処理装置
101 カメラ
102 CPU
103 ROM
105 HDD
106 ネットワーク
107 ディスプレイ
402、401、1600、1800、1900 眼底画像
1601 プロファイルライン
1903、1904 グラフィックユーザーインターフェース

Claims (8)

  1. 被検眼眼底を眼底撮影光学系を介して所定の視差でステレオ撮影し、得られた左右の視差画像を用いて被検眼眼底の3次元形状測定処理を行う画像処理方法において、
    撮影したステレオ眼底画像を色分解し、
    色分解して得られた異なる波長成分のステレオ眼底画像に対してそれぞれ特定の眼底部位の深さ情報を求める深さ情報計測処理を行ない、
    前記深さ情報計測処理で異なる波長成分のステレオ眼底画像からそれぞれ得られた深さ情報の差を特定の眼底組織の厚さ情報として求める厚さ情報計測処理を行なうことを特徴とする画像処理方法。
  2. 請求項1に記載の画像処理方法において、前記色分解した異なる波長成分の画像のいずれか少なくとも1つについて、空間周波数に関するフィルタリングの処理を行なうことを特徴とする画像処理方法。
  3. 請求項1に記載の画像処理方法において、前記色分解は赤色(R)成分画像データ、緑色(G)成分画像データ、青色(B)成分画像データを得るように行ない、そのうち赤色(R)成分画像データに対して空間周波数に関するフィルタリングの処理を行ない、前記深さ情報計測処理および厚さ情報計測処理において赤色(R)成分画像データを用いる場合は赤色(R)成分画像データの高周波成分、および赤色(R)成分画像データの低周波成分を用いることを特徴とする画像処理方法。
  4. 請求項1に記載の画像処理方法において、前記深さ情報計測処理および厚さ情報計測処理において、赤色(R)成分は網膜の比較的深部、たとえば脈絡膜からの情報と、網膜表面からの情報を含む反射光、緑色(G)成分は網膜色素上皮からの情報を多く含む反射光、青色(B)成分は網膜表面からの情報を多く含む反射光として取り扱うことを特徴とする画像処理方法。
  5. 請求項1に記載の画像処理方法において、異なる照明光量によって複数回前記ステレオ撮影を行ない、前記深さ情報計測処理および厚さ情報計測処理において、前記色分解した異なる波長成分の画像のいずれか少なくとも1つについて、他の波長成分の画像とは異なる照明光量によって撮影された画像を用いることを特徴とする画像処理方法。
  6. 請求項5に記載の画像処理方法において、前記青色(B)成分の画像として他の色成分の画像よりも強い照明光量によって撮影された画像を用いることにより、照明光量の波長分布において青色(B)成分が他の成分に対して光量が強くなるようにしたことを特徴とする画像処理方法。
  7. 請求項1に記載の画像処理方法において、前記深さ情報計測処理および厚さ情報計測処理に血管画像を除去する処理を前処理として行なったステレオ画像を用いることを特徴とする画像処理方法。
  8. 請求項1〜7に記載の画像処理方法を実施するための眼底撮影光学系、および画像処理手段を含むことを特徴とする画像処理装置。
JP2009098542A 2009-04-15 2009-04-15 画像処理方法 Expired - Fee Related JP5478103B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2009098542A JP5478103B2 (ja) 2009-04-15 2009-04-15 画像処理方法
PCT/JP2010/056193 WO2010119790A1 (ja) 2009-04-15 2010-04-06 画像処理方法および画像処理装置
US13/138,871 US20120026310A1 (en) 2009-04-15 2010-04-06 Image processing method and image processing apparatus
AU2010237951A AU2010237951A1 (en) 2009-04-15 2010-04-06 Image processing method and image processing apparatus
EP10764375A EP2420182A4 (en) 2009-04-15 2010-04-06 IMAGE PROCESSING METHOD AND IMAGE PROCESSING APPARATUS

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009098542A JP5478103B2 (ja) 2009-04-15 2009-04-15 画像処理方法

Publications (2)

Publication Number Publication Date
JP2010246695A true JP2010246695A (ja) 2010-11-04
JP5478103B2 JP5478103B2 (ja) 2014-04-23

Family

ID=42982452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009098542A Expired - Fee Related JP5478103B2 (ja) 2009-04-15 2009-04-15 画像処理方法

Country Status (5)

Country Link
US (1) US20120026310A1 (ja)
EP (1) EP2420182A4 (ja)
JP (1) JP5478103B2 (ja)
AU (1) AU2010237951A1 (ja)
WO (1) WO2010119790A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010256988A (ja) * 2009-04-21 2010-11-11 Chiba Univ 3次元画像生成装置、3次元画像生成方法、及びプログラム
JP2014018251A (ja) * 2012-07-13 2014-02-03 Nidek Co Ltd 眼科撮影装置及び眼科撮影プログラム
WO2014129522A1 (ja) * 2013-02-21 2014-08-28 興和株式会社 眼底撮像装置および網膜組織特徴量測定方法
JP2019208708A (ja) * 2018-06-01 2019-12-12 大日本印刷株式会社 画像作成方法および眼底画像処理装置
CN111539943A (zh) * 2020-04-28 2020-08-14 深圳科瑞技术股份有限公司 基于多相机的锂电池极片堆叠位置测量方法、装置及系统

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5250070B2 (ja) * 2011-03-15 2013-07-31 富士フイルム株式会社 画像処理装置および画像処理方法、ならびに、画像処理システム
JP5811491B2 (ja) * 2011-04-12 2015-11-11 株式会社ニコン 顕微鏡及びそのプログラム
JP6188297B2 (ja) * 2012-01-25 2017-08-30 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP6025349B2 (ja) * 2012-03-08 2016-11-16 キヤノン株式会社 画像処理装置、光干渉断層撮像装置、画像処理方法および光干渉断層撮像方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04276232A (ja) * 1991-03-04 1992-10-01 Canon Inc 画像処理方法及びこれを用いたシステム
JP2919855B2 (ja) * 1989-05-18 1999-07-19 株式会社トプコン 立体眼底カメラ
JP2000245700A (ja) * 1999-03-01 2000-09-12 Nidek Co Ltd 眼底計測装置及び眼底計測プログラムを記録した記録媒体
US6276798B1 (en) * 1998-09-29 2001-08-21 Applied Spectral Imaging, Ltd. Spectral bio-imaging of the eye

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3594468B2 (ja) * 1997-11-21 2004-12-02 株式会社ニデック 眼底画像の解析方法
JP3610234B2 (ja) * 1998-07-17 2005-01-12 株式会社メディア・テクノロジー アイリス情報取得装置およびアイリス識別装置
JP3798161B2 (ja) * 1998-10-29 2006-07-19 株式会社ニデック 眼底計測装置及び眼底計測プログラムを記録した記録媒体
EP1182960A1 (en) * 1999-05-07 2002-03-06 Applied Spectral Imaging Ltd. Spectral bio-imaging of the eye
AU2119201A (en) * 1999-10-20 2001-04-30 Trustees Of The University Of Pennsylvania, The Mosaicing and enhancement of images for ophthalmic diagnosis and documentation
US6714672B1 (en) * 1999-10-27 2004-03-30 Canon Kabushiki Kaisha Automated stereo fundus evaluation
US6829383B1 (en) * 2000-04-28 2004-12-07 Canon Kabushiki Kaisha Stochastic adjustment of differently-illuminated images
US6585374B2 (en) * 2000-03-22 2003-07-01 Canon Kabushiki Kaisha Ophthalmologic apparatus
GB2375679A (en) * 2001-04-09 2002-11-20 Patrick Kerr Retinal function camera using plural light wavelengths to produce a retinal function image showing haemoglobin oxygenation.
US7217266B2 (en) * 2001-05-30 2007-05-15 Anderson R Rox Apparatus and method for laser treatment with spectroscopic feedback
US20040105074A1 (en) * 2002-08-02 2004-06-03 Peter Soliz Digital stereo image analyzer for automated analyses of human retinopathy
US7500751B2 (en) * 2004-03-12 2009-03-10 Yokohama Tlo Company Ltd. Ocular fundus portion analyzer and ocular fundus portion analyzing method
US20070263923A1 (en) * 2004-04-27 2007-11-15 Gienko Gennady A Method for Stereoscopic Measuring Image Points and Device for Carrying Out Said Method
JP4509668B2 (ja) * 2004-06-25 2010-07-21 株式会社トプコン 眼底撮影システム
JP5278984B2 (ja) * 2006-03-24 2013-09-04 興和株式会社 画像解析装置及び画像解析プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2919855B2 (ja) * 1989-05-18 1999-07-19 株式会社トプコン 立体眼底カメラ
JPH04276232A (ja) * 1991-03-04 1992-10-01 Canon Inc 画像処理方法及びこれを用いたシステム
US6276798B1 (en) * 1998-09-29 2001-08-21 Applied Spectral Imaging, Ltd. Spectral bio-imaging of the eye
JP2000245700A (ja) * 1999-03-01 2000-09-12 Nidek Co Ltd 眼底計測装置及び眼底計測プログラムを記録した記録媒体

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010256988A (ja) * 2009-04-21 2010-11-11 Chiba Univ 3次元画像生成装置、3次元画像生成方法、及びプログラム
JP2014018251A (ja) * 2012-07-13 2014-02-03 Nidek Co Ltd 眼科撮影装置及び眼科撮影プログラム
WO2014129522A1 (ja) * 2013-02-21 2014-08-28 興和株式会社 眼底撮像装置および網膜組織特徴量測定方法
JP2019208708A (ja) * 2018-06-01 2019-12-12 大日本印刷株式会社 画像作成方法および眼底画像処理装置
JP7223308B2 (ja) 2018-06-01 2023-02-16 大日本印刷株式会社 画像作成方法および眼底画像処理装置
CN111539943A (zh) * 2020-04-28 2020-08-14 深圳科瑞技术股份有限公司 基于多相机的锂电池极片堆叠位置测量方法、装置及系统
CN111539943B (zh) * 2020-04-28 2023-07-28 深圳科瑞技术股份有限公司 基于多相机的锂电池极片堆叠位置测量方法、装置及系统

Also Published As

Publication number Publication date
JP5478103B2 (ja) 2014-04-23
EP2420182A4 (en) 2013-02-27
WO2010119790A1 (ja) 2010-10-21
EP2420182A1 (en) 2012-02-22
AU2010237951A1 (en) 2011-11-03
US20120026310A1 (en) 2012-02-02

Similar Documents

Publication Publication Date Title
JP5478103B2 (ja) 画像処理方法
US10383511B2 (en) Image processing apparatus, image processing method, and program
US8994753B2 (en) Displaying extracted structures from an OCT image superimposed on an eyeground image
US10169862B2 (en) Methods and systems for laser speckle imaging of tissue using a color image sensor
JP6112879B2 (ja) 画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム
JP5754976B2 (ja) 画像処理装置、及び、制御方法
KR101484376B1 (ko) 단층 촬영 장치 및 그 제어 방법, 컴퓨터 판독가능한 저장 매체
US20070188705A1 (en) Ocular fundus portion analyzer and ocular fundus portion analyzing method
EP3263011A1 (en) Image processing device
US8240852B2 (en) Image processing method and image processing device
JP2007029460A (ja) 眼科画像処理装置及び眼科画像処理プログラム
US9826884B2 (en) Image processing device for correcting captured image based on extracted irregularity information and enhancement level, information storage device, and image processing method
US11025812B2 (en) Imaging apparatus, imaging method, and imaging system
JP2012000369A (ja) 画像処理装置及びプログラム
JP2022000185A (ja) 画像処理方法、画像処理プログラム、画像処理装置、画像表示装置、及び画像表示方法
JP7306467B2 (ja) 画像処理方法、画像処理装置、及びプログラム
JP2015202236A (ja) 眼底画像解析装置及び解析方法
WO2020112726A1 (en) Medical imaging systems and methods
JPH04276232A (ja) 画像処理方法及びこれを用いたシステム
JP2009125432A (ja) 眼科撮影装置及び眼科画像処理装置
JPWO2019087895A1 (ja) 電子内視鏡用プロセッサ及び電子内視鏡システム
WO2022269817A1 (ja) 校正装置、内視鏡システム、校正方法、及び校正プログラム
JP7209557B2 (ja) 画像取得装置及び画像取得方法
CN115697181A (zh) 图像生成装置、程序和图像生成方法
JP2011059147A (ja) 画像振れ評価方法および画像振れ評価装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131119

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131220

TRDD Decision of grant or rejection written
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20140128

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140210

R150 Certificate of patent or registration of utility model

Ref document number: 5478103

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees