JP7306467B2 - 画像処理方法、画像処理装置、及びプログラム - Google Patents

画像処理方法、画像処理装置、及びプログラム Download PDF

Info

Publication number
JP7306467B2
JP7306467B2 JP2021552086A JP2021552086A JP7306467B2 JP 7306467 B2 JP7306467 B2 JP 7306467B2 JP 2021552086 A JP2021552086 A JP 2021552086A JP 2021552086 A JP2021552086 A JP 2021552086A JP 7306467 B2 JP7306467 B2 JP 7306467B2
Authority
JP
Japan
Prior art keywords
image
fundus
pixels
pixel
fundus image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021552086A
Other languages
English (en)
Other versions
JPWO2021075062A1 (ja
Inventor
真梨子 廣川
泰士 田邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Publication of JPWO2021075062A1 publication Critical patent/JPWO2021075062A1/ja
Application granted granted Critical
Publication of JP7306467B2 publication Critical patent/JP7306467B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • A61B3/1225Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes using coherent radiation
    • A61B3/1233Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes using coherent radiation for measuring blood flow, e.g. at the retina
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • A61B3/1241Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes specially adapted for observation of ocular blood flow, e.g. by fluorescein angiography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Hematology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Quality & Reliability (AREA)
  • Vascular Medicine (AREA)
  • Eye Examination Apparatus (AREA)

Description

本発明は、画像処理方法、画像処理装置、及びプログラムに関する。
米国特許第7445337号には、眼底領域(円形)の周囲を黒色の背景色で塗りつぶした眼底画像が生成されディスプレイに表示されることが開示されている。このような周囲を塗りつぶした眼底画像を画像処理するにあたって、誤検出などの不都合が生ずる場合がある。
本開示の技術の第1の態様の画像処理方法は、プロセッサが、前景領域と前記前景領域以外の背景領域とを有する被検眼の第1眼底画像を取得することと、前記プロセッサが、前記背景領域を構成する画素の第1画素値を、前記第1画素値と異なる第2画素値に置換する背景処理を行うことにより、第2眼底画像を生成することと、を含む。
本開示の技術の第2の態様の画像処理装置は、メモリと、前記メモリに接続されたプロセッサとを備え、前記プロセッサは、前景領域と前記前景領域以外の背景領域とを有する被検眼の第1眼底画像を取得し、前記背景領域を構成する画素の第1画素値を、前記第1画素値と異なる第2画素値に置換する背景処理を行うことにより、第2眼底画像を生成する。
本開示の技術の第3の態様のプログラムは、コンピュータに、前景領域と前記前景領域以外の背景領域とを有する被検眼の第1眼底画像を取得し、前記背景領域を構成する画素の第1画素値を、前記第1画素値と異なる第2画素値に置換する背景処理を行うことにより、第2眼底画像を生成する、ことを実行させる。
眼科システム100のブロック図である。 眼科装置110の全体構成を示す概略構成図である。 被検眼12の眼底を眼科装置110で撮影して得られたUWFのRGカラー眼底画像UWFGPと、被検眼12の眼底を図示しない眼底カメラで撮影して得られた眼底画像(眼底カメラ画像)FCGQと、を示す図である。 サーバ140の電気系の構成のブロック図である。 サーバ140のCPU262の機能のブロック図である。 画像処理プログラムを示すフローチャートである。 図6のステップ300の網膜血管除去処理プログラムを示すフローチャートである。 図6のステップ302の背景埋める処理プログラムを示すフローチャートである。 図6のステップ306の血管を抽出する処理プログラムを示すフローチャートである。 脈絡膜血管画像G1を示す図である。 背景処理済み画像G2を示す図である。 血管強調画像G3を示す図である。 血管抽出画像G4を示す図である。 従来技術において得られた脈絡膜血管画像G1を示す図である。 従来技術において得られた血管強調画像G7を示す図である。 従来技術において得られたしきい値画像G8を示す図である。 従来技術において得られた血管抽出画像G9を示す図である。 脈絡膜血管画像G1において前景領域FG、背景領域BG、及び境界BDを示した図である。 背景埋める処理の変形例1において、背景領域BGの各画素の画素値を、当該画素に距離が最も近い前景領域FGの画素の値に変換する様子を示す図である。 脈絡膜血管画像G1における前景領域FG及び背景領域BGを模式的に示した図である。 背景埋める処理の変形例2において、背景領域BGの各画素の画素値を、当該画素の値より所定値大きい値に変換することを示す図である。 背景埋める処理の変形例3において、背景領域BGの各画素の画素値を、当該画素に距離が最も近い前景領域FGの画素の値より所定値小さい値に変換することを示す図である。 背景埋める処理の変形例4において、背景領域BGの各画素の画素値を、前景領域FGの全画素値の平均値に変換することを示す図である。 背景埋める処理の変形例5において、背景領域BGの各画素の画素値を、前景領域FGの中心CPからの距離が長くなるに従って徐々に大きくなるように、変換することを示す図である。 背景埋める処理の変形例6において、背景領域BGの各画素の画素値を、前景領域FGの中心CPからの距離が長くなるに従って徐々に小さくなるように、変換することを示す図である。 診断用画面400Aを示す図である。 診断用画面400Bを示す図である。 合成画像G14が、オリジナルの眼底画像(UWFのRGカラー眼底画像UWFGP)に、血管抽出画像G4を重畳することにより得られることを示す図である。 血管btに枠fを付すことにより、血管を強調することを示す図である。 血管強調画像G3をぼかすことにより得られたぼかし画像Gbを示す図である。
以下、図面を参照して本発明の第1の実施の形態を詳細に説明する。
図1を参照して、眼科システム100の構成を説明する。図1に示すように、眼科システム100は、眼科装置110と、眼軸長測定器120と、管理サーバ装置(以下、「サーバ」という)140と、画像表示装置(以下、「ビューワ」という)150と、を備えている。眼科装置110は、眼底画像を取得する。眼軸長測定器120は、患者の眼軸長を測定する。サーバ140は、眼科装置110によって患者の眼底が撮影されることにより得られた眼底画像を、患者のIDに対応して記憶する。ビューワ150は、サーバ140から取得した眼底画像などの医療情報を表示する。
サーバ140は、本開示の技術の「画像処理装置」の一例である。
眼科装置110、眼軸長測定器120、サーバ140、およびビューワ150は、ネットワーク130を介して、相互に接続されている。
次に、図2を参照して、眼科装置110の構成を説明する。
説明の便宜上、走査型レーザ検眼鏡(Scanning Laser Ophthalmoscope)を「SLO」と称する。また、光干渉断層計(Optical Coherence Tomography)を「OCT」と称する。
なお、眼科装置110が水平面に設置された場合の水平方向を「X方向」、水平面に対する垂直方向を「Y方向」とし、被検眼12の前眼部の瞳孔の中心と眼球の中心とを結ぶ方向を「Z方向」とする。従って、X方向、Y方向、およびZ方向は互いに垂直である。
眼科装置110は、撮影装置14および制御装置16を含む。撮影装置14は、SLOユニット18、OCTユニット20、および撮影光学系19を備えており、被検眼12の眼底の眼底画像を取得する。以下、SLOユニット18により取得された二次元眼底画像をSLO画像と称する。また、OCTユニット20により取得されたOCTデータに基づいて作成された網膜の断層画像や正面画像(en-face画像)などをOCT画像と称する。
制御装置16は、CPU(Central Processing Unit(中央処理装置))16A、RAM(Random Access Memory)16B、ROM(Read-Only memory)16C、および入出力(I/O)ポート16Dを有するコンピュータを備えている。
制御装置16は、I/Oポート16Dを介してCPU16Aに接続された入力/表示装置16Eを備えている。入力/表示装置16Eは、被検眼12の画像を表示したり、ユーザから各種指示を受け付けたりするグラフィックユーザインターフェースを有する。グラフィックユーザインターフェースとしては、タッチパネル・ディスプレイが挙げられる。
また、制御装置16は、I/Oポート16Dに接続された画像処理装置16Gを備えている。画像処理装置16Gは、撮影装置14によって得られたデータに基づき被検眼12の画像を生成する。制御装置16はI/Oポート16Dに接続された通信インターフェース(I/F)16Fを備えている。眼科装置110は、通信インターフェース(I/F)16Fおよびネットワーク130を介して眼軸長測定器120、サーバ140、およびビューワ150に接続される。
上記のように、図2では、眼科装置110の制御装置16が入力/表示装置16Eを備えているが、本開示の技術はこれに限定されない。例えば、眼科装置110の制御装置16は入力/表示装置16Eを備えず、眼科装置110とは物理的に独立した別個の入力/表示装置を備えるようにしてもよい。この場合、当該表示装置は、制御装置16のCPU16Aの制御下で動作する画像処理プロセッサユニットを備える。画像処理プロセッサユニットが、CPU16Aが出力指示した画像信号に基づいて、SLO画像等を表示するようにしてもよい。
撮影装置14は、制御装置16のCPU16Aの制御下で作動する。撮影装置14は、SLOユニット18、撮影光学系19、およびOCTユニット20を含む。撮影光学系19は、第1光学スキャナ22、第2光学スキャナ24、および広角光学系30を含む。
第1光学スキャナ22は、SLOユニット18から射出された光をX方向、およびY方向に2次元走査する。第2光学スキャナ24は、OCTユニット20から射出された光をX方向、およびY方向に2次元走査する。第1光学スキャナ22および第2光学スキャナ24は、光束を偏向できる光学素子であればよく、例えば、ポリゴンミラーや、ガルバノミラー等を用いることができる。また、それらの組み合わせであってもよい。
広角光学系30は、共通光学系28を有する対物光学系(図2では不図示)、およびSLOユニット18からの光とOCTユニット20からの光を合成する合成部26を含む。
なお、共通光学系28の対物光学系は、楕円鏡などの凹面ミラーを用いた反射光学系や、広角レンズなどを用いた屈折光学系、あるいは、凹面ミラーやレンズを組み合わせた反射屈折光学系でもよい。楕円鏡や広角レンズなどを用いた広角光学系を用いることにより、視神経乳頭や黄斑が存在する眼底中心部だけでなく眼球の赤道部や渦静脈が存在する眼底周辺部の網膜を撮影することが可能となる。
楕円鏡を含むシステムを用いる場合には、国際公開WO2016/103484あるいは国際公開WO2016/103489に記載された楕円鏡を用いたシステムを用いる構成でもよい。国際公開WO2016/103484の開示および国際公開WO2016/103489の開示の各々は、その全体が参照により本明細書に取り込まれる。
広角光学系30によって、眼底において広い視野(FOV:Field of View)12Aでの観察が実現される。FOV12Aは、撮影装置14によって撮影可能な範囲を示している。FOV12Aは、視野角として表現され得る。視野角は、本実施の形態において、内部照射角と外部照射角とで規定され得る。外部照射角とは、眼科装置110から被検眼12へ照射される光束の照射角を、瞳孔27を基準として規定した照射角である。また、内部照射角とは、眼底へ照射される光束の照射角を、眼球中心Oを基準として規定した照射角である。外部照射角と内部照射角とは、対応関係にある。例えば、外部照射角が120度の場合、内部照射角は約160度に相当する。本実施の形態では、内部照射角は200度としている。
内部照射角の200度は、本開示の技術の「所定値」の一例である。
ここで、内部照射角で160度以上の撮影画角で撮影されて得られたSLO眼底画像をUWF-SLO眼底画像と称する。なお、UWFとは、UltraWide Field(超広角)の略称を指す。もちろん、内部照射角で160度未満の撮影画角で眼底を撮影することにより、UWFではないSLO画像を取得することができる。
SLOシステムは、図2に示す制御装置16、SLOユニット18、および撮影光学系19によって実現される。SLOシステムは、広角光学系30を備えるため、広いFOV12Aでの眼底撮影を可能とする。
SLOユニット18は、複数の光源、例えば、B光(青色光)の光源40、G光(緑色光)の光源42、R光(赤色光)の光源44、およびIR光(赤外線(例えば、近赤外光))の光源46と、光源40、42、44、46からの光を、反射または透過して1つの光路に導く光学系48、50、52、54、56とを備えている。光学系48、50、56は、ミラーであり、光学系52、54は、ビームスプリッタ―である。B光は、光学系48で反射し、光学系50を透過し、光学系54で反射し、G光は、光学系50、54で反射し、R光は、光学系52、54を透過し、IR光は、光学系56、52で反射して、それぞれ1つの光路に導かれる。
SLOユニット18は、G光、R光、およびB光を発するモードと、赤外線を発するモードなど、波長の異なるレーザ光を発する光源あるいは発光させる光源の組合せを切り替え可能に構成されている。図2に示す例では、B光(青色光)の光源40、G光の光源42、R光の光源44、およびIR光の光源46の4つの光源を備えるが、本開示の技術は、これに限定されない。例えば、SLOユニット18は、さらに、白色光の光源をさらに備え、白色光のみを発するモード等の種々のモードで光を発するようにしてもよい。
SLOユニット18から撮影光学系19に入射された光は、第1光学スキャナ22によってX方向およびY方向に走査される。走査光は広角光学系30および瞳孔27を経由して、被検眼12の後眼部に照射される。眼底により反射された反射光は、広角光学系30および第1光学スキャナ22を経由してSLOユニット18へ入射される。
SLOユニット18は、被検眼12の後眼部(例えば、眼底)からの光の内、B光を反射し且つB光以外を透過するビームスプリッタ64、ビームスプリッタ64を透過した光の内、G光を反射し且つG光以外を透過するビームスプリッタ58を備えている。SLOユニット18は、ビームスプリッタ58を透過した光の内、R光を反射し且つR光以外を透過するビームスプリッタ60を備えている。SLOユニット18は、ビームスプリッタ60を透過した光の内、IR光を反射するビームスプリッタ62を備えている。
SLOユニット18は、複数の光源に対応して複数の光検出素子を備えている。SLOユニット18は、ビームスプリッタ64により反射したB光を検出するB光検出素子70、およびビームスプリッタ58により反射したG光を検出するG光検出素子72を備えている。SLOユニット18は、ビームスプリッタ60により反射したR光を検出するR光検出素子74、およびビームスプリッタ62により反射したIR光を検出するIR光検出素子76を備えている。
広角光学系30および第1光学スキャナ22を経由してSLOユニット18へ入射された光(眼底により反射された反射光)は、B光の場合、ビームスプリッタ64で反射してB光検出素子70により受光され、G光の場合、ビームスプリッタ64を透過し、ビームスプリッタ58で反射してG光検出素子72により受光される。上記入射された光は、R光の場合、ビームスプリッタ64、58を透過し、ビームスプリッタ60で反射してR光検出素子74により受光される。上記入射された光は、IR光の場合、ビームスプリッタ64、58、60を透過し、ビームスプリッタ62で反射してIR光検出素子76により受光される。CPU16Aの制御下で動作する画像処理装置16Gは、B光検出素子70、G光検出素子72、R光検出素子74、およびIR光検出素子76で検出された信号を用いてUWF-SLO画像を生成する。
UWF-SLO画像(後述するようにUWF眼底画像、オリジナル眼底画像ともいう)には、眼底がG色で撮影されて得られたUWF-SLO画像(G色眼底画像)と、眼底がR色で撮影されて得られたUWF-SLO画像(R色眼底画像)とがある。UWF-SLO画像には、眼底がB色で撮影されて得られたUWF-SLO画像(B色眼底画像)と、眼底がIRで撮影されて得られたUWF-SLO画像(IR眼底画像)とがある。
また、制御装置16が、同時に発光するように光源40、42、44を制御する。B光、G光およびR光で同時に被検眼12の眼底が撮影されることにより、各位置が互いに対応するG色眼底画像、R色眼底画像、およびB色眼底画像が得られる。G色眼底画像、R色眼底画像、およびB色眼底画像からRGBカラー眼底画像が得られる。制御装置16が、同時に発光するように光源42、44を制御し、G光およびR光で同時に被検眼12の眼底が撮影されることにより、各位置が互いに対応するG色眼底画像およびR色眼底画像が得られる。G色眼底画像およびR色眼底画像からRGカラー眼底画像が得られる。
このようにUWF-SLO画像として、具体的には、B色眼底画像、G色眼底画像、R色眼底画像、IR眼底画像、RGBカラー眼底画像、RGカラー眼底画像がある。UWF-SLO画像の各画像データは、入力/表示装置16Eを介して入力された患者の情報と共に、通信インターフェース(I/F)16Fを介して眼科装置110からサーバ140へ送信される。UWF-SLO画像の各画像データと患者の情報とは、記憶装置254に、対応して記憶される。なお、患者の情報には、例えば、患者名ID、氏名、年齢、視力、右眼/左眼の区別等がある。患者の情報はオペレータが入力/表示装置16Eを介して入力する。
OCTシステムは、図2に示す制御装置16、OCTユニット20、および撮影光学系19によって実現される。OCTシステムは、広角光学系30を備えるため、上述したSLO眼底画像の撮影と同様に、広いFOV12Aでの眼底撮影を可能とする。OCTユニット20は、光源20A、センサ(検出素子)20B、第1の光カプラ20C、参照光学系20D、コリメートレンズ20E、および第2の光カプラ20Fを含む。
光源20Aから射出された光は、第1の光カプラ20Cで分岐される。分岐された一方の光は、測定光として、コリメートレンズ20Eで平行光にされた後、撮影光学系19に入射される。測定光は、第2光学スキャナ24によってX方向およびY方向に走査される。走査光は広角光学系30および瞳孔27を経由して、眼底に照射される。眼底により反射された測定光は、広角光学系30および第2光学スキャナ24を経由してOCTユニット20へ入射され、コリメートレンズ20Eおよび第1の光カプラ20Cを介して、第2の光カプラ20Fに入射する。
光源20Aから射出され、第1の光カプラ20Cで分岐された他方の光は、参照光として、参照光学系20Dへ入射され、参照光学系20Dを経由して、第2の光カプラ20Fに入射する。
第2の光カプラ20Fに入射されたこれらの光、即ち、眼底で反射された測定光と、参照光とは、第2の光カプラ20Fで干渉されて干渉光を生成する。干渉光はセンサ20Bで受光される。CPU16Aの制御下で動作する画像処理装置16Gは、センサ20Bで検出されたOCTデータに基づいて断層画像やen-face画像などのOCT画像を生成する。
ここで、内部照射角で160度以上の撮影画角で撮影されて得られたOCT眼底画像をUWF-OCT画像と称する。もちろん、内部照射角で160度未満の撮影画角でOCTデータを取得することができる。
UWF-OCT画像の画像データは、患者の情報と共に、通信インターフェース(I/F)16Fを介して眼科装置110からサーバ140へ送信される。UWF-OCT画像の画像データと患者の情報とは、記憶装置254に、対応して記憶される。
なお、本実施の形態では、光源20Aが波長掃引タイプのSS-OCT(Swept-Source OCT)を例示するが、SD-OCT(Spectral-Domain OCT)、TD-OCT(Time-Domain OCT)など、様々な方式のOCTシステムであってもよい。
次に、眼軸長測定器120を説明する。眼軸長測定器120は、被検眼12の眼軸方向の長さである眼軸長を測定する第1のモードと第2のモードとの2つのモードを有する。第1のモードは、図示しない光源からの光を被検眼12に導光した後、眼底からの反射光と角膜からの反射光との干渉光を受光し、受光した干渉光を示す干渉信号に基づいて眼軸長を測定する。第2のモードは、図示しない超音波を用いて眼軸長を測定するモードである。
眼軸長測定器120は、第1のモードまたは第2のモードにより測定された眼軸長をサーバ140に送信する。第1のモードおよび第2のモードにより眼軸長を測定してもよく、この場合には、双方のモードで測定された眼軸長の平均を眼軸長としてサーバ140に送信する。サーバ140は、患者の眼軸長を患者名IDに対応して記憶する。
図3には、RGカラー眼底画像UWFGPと、被検眼12の眼底を、図示しない眼底カメラで撮影して得られた眼底画像FCGQ(眼底カメラ画像)とが示されている。RGカラー眼底画像UWFGPは、外部照射角が100度の撮影画角で眼底が撮影されて得られた画像である。眼底画像FCGQ(眼底カメラ画像)は、外部照射角が35度の撮影画角で眼底が撮影されて得られた画像である。よって、図3に示すように、眼底画像FCGQ(眼底カメラ画像)は、RGカラー眼底画像UWFGPに対応する眼底の領域の一部の領域の眼底画像である。
図3に示すRGカラー眼底画像UWFGP等のUWF-SLO画像は、当該画像の周囲に、眼底からの反射光が到達しないので黒となっている領域がある画像になっている。このため、UWF-SLO画像は、眼底からの反射光が到達しない黒色の領域(後述する背景領域)と、眼底からの反射光が到達する眼底の部分の領域(後述する前景領域)とを有する。眼底からの反射光が到達しない黒色の領域と、眼底からの反射光が到達する眼底の部分の領域との境界は、各領域の画素値の違いが大きいので、はっきりしている。
これに対し、眼底画像FCGQ(眼底カメラ画像)では、眼底からの反射光が到達する眼底の部分の領域(後述する前景領域)は、フレアに囲まれ、診断に必要な前景領域と、診断には不要な背景領域との境界が明瞭でない。よって、従来では、前景領域の周囲に、所定のマスク画像を重ね合わせたり、前景領域の周囲の所定領域の画素値を黒の画素値に書き換えたりしている。このように、眼底からの反射光が到達しない黒色の領域と、眼底からの反射光が到達する眼底の部分の領域との境界は、はっきりしている。
次に、図4を参照して、サーバ140の電気系の構成を説明する。図4に示すように、サーバ140は、コンピュータ本体252を備えている。コンピュータ本体252は、バス270により相互に接続されたCPU262、RAM266、ROM264、および入出力(I/O)ポート268を有する。入出力(I/O)ポート268には、記憶装置254、ディスプレイ256、マウス255M、キーボード255K、および通信インターフェース(I/F)258が接続されている。記憶装置254は、例えば、不揮発メモリで構成される。入出力(I/O)ポート268は、通信インターフェース(I/F)258を介して、ネットワーク130に接続されている。従って、サーバ140は、眼科装置110、およびビューワ150と通信することができる。記憶装置254には、後述する画像処理プログラムが記憶されている。なお、画像処理プログラムを、ROM264に記憶してもよい。
画像処理プログラムは、本開示の技術の「プログラム」の一例である。記憶装置254、ROM264は、本開示の技術の「メモリ」、「コンピュータ可読記憶媒体」の一例である。CPU262は、本開示の技術の「プロセッサ」の一例である。
サーバ140の後述する処理部208(図5も参照)は、眼科装置110から受信した各データを、記憶装置254に記憶する。具体的には、処理部208は記憶装置254に、UWF-SLO画像の各画像データおよびUWF-OCT画像の画像データと患者の情報(上記のように患者名ID等)とを対応して記憶する。また、患者の被検眼に病変がある場合や病変部分に手術がされた場合には、眼科装置110の入力/表示装置16Eを介して病変の情報が入力され、サーバ140に送信される。病変の情報は患者の情報と対応付けられて記憶装置254に記憶される。病変の情報には、病変部分の位置の情報、病変の名称、病変部分に手術がされている場合には手術名や手術日時等がある。
ビューワ150は、CPU、RAM、ROM等を備えたコンピュータとディスプレイとを備え、ROMには、画像処理プログラムがインストールされており、ユーザの指示に基づき、コンピュータは、サーバ140から取得した眼底画像などの医療情報が表示されるようにディスプレイを制御する。
次に、図5を参照して、サーバ140のCPU262が画像処理プログラムを実行することで実現される各種機能について説明する。画像処理プログラムは、表示制御機能、画像処理機能(眼底画像処理機能、眼底血管解析機能)、及び処理機能を備えている。CPU262がこの各機能を有する画像処理プログラムを実行することで、CPU262は、図5に示すように、表示制御部204、画像処理部206(眼底画像処理部2060、眼底血管解析部2062)、及び処理部208として機能する。
眼底画像処理部2060は、本開示の技術の「取得部」及び「生成部」の一例である。
次に、図6を用いて、サーバ140による画像処理を詳細に説明する。サーバ140のCPU262が画像処理プログラムを実行することで、図6のフローチャートに示された画像処理及び画像処理方法が実現される。
画像処理プログラムは、眼科装置110により被検眼12の眼底が撮影されて得られた眼底画像の画像データが、眼科装置110から送信され、サーバ140により受信された時にスタートする。
画像処理プログラムがスタートすると、ステップ300で、詳細には後述するが(図7参照)、眼底画像処理部2060は、眼底画像を取得し、取得した眼底画像から網膜血管を除去する網膜血管除去処理を実行する。ステップ300の処理により、図10Aに示す脈絡膜血管画像G1が生成される。
脈絡膜血管画像G1は、本開示の技術の「第1眼底画像」の一例である。
ステップ302で、詳細には後述するが(図8参照)、眼底画像処理部2060は、背景領域の各画素を、当該各画素に距離が最も近い前景領域の画像の画素の画素値で埋める背景埋める処理を実行する。ステップ302の背景埋める処理により、図10Bに示す背景処理済み画像G2が生成される。なお、図10Bにおいて、点線の円の範囲は眼底領域である。
ステップ302の背景埋める処理は、本開示の技術の「背景処理」の一例であり、背景処理済み画像G2は、本開示の技術の「第2眼底画像」の一例である。
ここで、前景領域と背景領域とを説明する。図12に示すように、脈絡膜血管画像G1において、前景領域FGは、被検眼12の眼底領域からの光の到達領域により定まり、被検眼12からの反射光の強度に基づく輝度値の画素領域(つまり、眼底が写っている領域、即ち、被検眼12の眼底画像の領域)である。これに対し、背景領域BGは、被検眼12の眼底領域以外の領域であり、単色の領域であり、被検眼12からの反射光に基づかない画像である。具体的には、背景領域BGは、眼底が写っていない領域、即ち、被検眼12の眼底領域以外の部分、詳細には、被検眼12からの反射光が到達しない検出素子70、72、74、76の画素に対応する領域や、マスク領域、ケラレにより発生するアーチファクト、装置の映り込みや被検眼の瞼などの部分である。また、眼科装置110が前眼部領域(角膜、虹彩、網様体や水晶体など)を撮影する機能がある場合、所定領域は前眼部領域となり、被検眼の前眼部画像は、前景領域と背景領域からなる。網様体には血管が奏功しており前眼部画像から網様体の血管を抽出することが本開示の技術により可能となる。
被検眼12の眼底領域は、本開示の技術の「被検眼の所定領域」の一例である。
ステップ304で、眼底血管解析部2062は、背景処理済み画像G2に対して血管強調処理を実行することにより、図10Cに示す血管強調画像G3を生成する。血管強調処理としては、コントラストに制限を付けた適応ヒストグラム均等化(CLAHE(Contrast Limited Adaptive Histogram Equalization))を用いることができる。コントラストに制限を付けた適応ヒストグラム均等化(CLAHE)とは、画像データを複数の領域に分割して、分割された領域毎に局所的にヒストグラム平滑化を実施し、それぞれの領域の境界において、双一次内挿等の補間処理を行うことにより、コントラストを調整する手法である。血管強調処理は、コントラストに制限を付けた適応ヒストグラム均等化(CLAHE)に限定されず、他手法でもよい。例えば、アンシャープマスク処理(周波数処理)、デコンボリューション処理、ヒストグラム平均化処理、ヘイズ除去処理、色味補正処理、デノイズ処理等や、これらを組み合わせた処理を用いてもよい。
ステップ306で、詳細には後述するが(図9参照)、眼底画像処理部2060は、血管強調画像G3から、血管を抽出(具体的には二値化)することにより、図10Dに示す血管抽出画像(二値化画像)G4を生成する。この二値化画像は血管領域の画素は白、それ以外の領域の画素は黒となるので、眼底領域と背景領域の区別がつかない。よって、予め画像処理により眼底領域を検出し、記憶しておく。この記憶された眼底領域に基づいて、生成された血管抽出画像(二値化画像)G4の眼底領域の境界に線分を重畳表示させる。この境界を示す線分を重畳することでユーザは眼底領域と背景領域を区別することができる。
血管抽出画像G4は、本開示の技術の「第3眼底画像」の一例である。
次に、図7を用いて、図6のステップ300の網膜血管除去処理を説明する。
ステップ312で、眼底画像処理部2060は、眼科装置110から受信した眼底画像の画像データの中から、第1眼底画像(R色眼底画像)の画像データを読み出す(取得する)。ステップ314で、眼底画像処理部2060は、眼科装置110から受信した眼底画像の画像データの中から第2眼底画像(G色眼底画像)の画像データを読み出す(取得する)。
ここで、第1眼底画像(R色眼底画像)と第2眼底画像(G色眼底画像)とに含まれる情報を説明する。
眼の構造は、硝子体を、構造が異なる複数の層が覆うようになっている。複数の層には、硝子体側の最も内側から外側に、網膜、脈絡膜、強膜が含まれる。R光は、網膜を通過して脈絡膜まで到達する。よって、第1眼底画像(R色眼底画像)には、網膜に存在する血管(網膜血管)の情報と脈絡膜に存在する血管(脈絡膜血管)の情報とが含まれる。これに対し、G光は、網膜までしか到達しない。よって、第2眼底画像(G色眼底画像)には、網膜に存在する血管(網膜血管)の情報のみが含まれる。
ステップ316で、眼底画像処理部2060は、ブラックハットフィルタ処理を第2眼底画像(G色眼底画像)に施すことにより、第2眼底画像(G色眼底画像)上では黒い細い線で可視化されている網膜血管を抽出する。ブラックハットフィルタ処理は細線を抽出するフィルタ処理である。
ブラックハットフィルタ処理は、第2眼底画像(G色眼底画像)の画像データと、この原画像データに対してN回(Nは1以上の整数)の膨張処理及びN回の収縮処理を行うクロージング処理により得られる画像データとの差分をとる処理である。網膜血管は照射光(G光だけでなく,R光あるいはIR光)を吸収するため眼底画像では血管の周囲に比べて黒く撮影される。そのため、ブラックハットフィルタ処理を眼底画像に施すことにより、網膜血管を抽出することができる。
ステップ318で、眼底画像処理部2060は、第1眼底画像(R色眼底画像)から、インペインティング処理により、ステップ316で抽出した網膜血管を除去する。具体的には、第1眼底画像(R色眼底画像)において、網膜血管を目立たせなくする。より詳細には、眼底画像処理部2060は、第2眼底画像(G色眼底画像)から抽出した網膜血管の各位置を、第1眼底画像(R色眼底画像)において特定する。眼底画像処理部2060は、特定された位置の第1眼底画像(R色眼底画像)における画素の画素値を、当該画素の周囲の画素の平均値との差が所定範囲(例えば、0)になるように、処理する。網膜血管を除去する手法は、上述の例に限らず、一般的なインペインティング処理を用いて行うようにしてもよい。
このように、眼底画像処理部2060は、網膜血管と脈絡膜血管とが存在する第1眼底画像(R色眼底画像)において、網膜血管を目立たせなくするので、結果、第1眼底画像(R色眼底画像)において、脈絡膜血管を、相対的に目立たせることができる。これにより図10Aに示すように、眼底の血管として脈絡膜血管のみが可視化された脈絡膜血管画像G1が得られる。なお、図10Aでは白い線状のものが脈絡膜血管であり、白い円形の部分は視神経乳頭ONHに対応し、黒い円形の部分は黄斑Mに対応する。
ステップ318の処理が終了すると、図5のステップ300の網膜血管除去処理が終了し、画像処理は図6のステップ302に進む。
次に、図8を用いて、図6のステップ302の背景埋める処理を説明する。
ステップ332で、眼底画像処理部2060は、図12に示すように、脈絡膜血管画像G1において、前景領域FG、背景領域BG、及び前景領域FGと背景領域BGとの境界BDを抽出する。
具体的には、眼底画像処理部2060は、画素値が0の部分を背景領域BG、画素値が0でない部分を前景領域FGとして抽出し、抽出された背景領域BGと抽出された前景領域FGとの境界部分を境界BDとして抽出する。
上記のように、背景領域BGでは、被検眼12からの光が到達しないので、画素値が0の部分としている。しかし、ケラレによるアーチファクトや、装置の映り込み、被検眼の瞼などの領域も背景領域として認識される場合もある。また、検出素子70、72、74、76の感度に起因して被検眼12からの反射光が侵入しない検出素子の領域の画素の画素値が0でない場合もある。そこで、眼底画像処理部2060は、画素値が0より大きい所定値の部分を背景領域BGとして抽出してもよい。
ところで、検出素子70、72、74、76の検出領域における被検眼12からの光が到達する領域は、撮影光学系19の光学素子の光の経路から予め定まる。被検眼12からの光が到達する領域を前景領域FG、被検眼12からの光が到達しない領域を背景領域BG、上記のように背景領域BGと前景領域FGとの境界部分を境界BDとして抽出するようにしてもよい。
ステップ334で、眼底画像処理部2060は、背景領域BGの画像の各画素を識別する変数gを0にセットし、ステップ336で、眼底画像処理部2060は、変数gを1インクリメントする。
ステップ338で、眼底画像処理部2060は、変数gで識別される背景領域BGの画像の画素gに距離が最も近い最近傍の前景領域FGの画素hを、画素gの位置と前景領域FGの画像の各画素の位置との関係から、検出する。眼底画像処理部2060は、例えば、画素gの位置と前景領域FGの画像の各画素の位置との距離を計算し、最も距離の短い画素を、画素hとして検出してもよい。しかし、本実施の形態では、画素gの位置と前景領域FGの画像の各画素の位置との幾何学的な関係から、画素hの位置が予め定められている。
ステップ340で、眼底画像処理部2060は、画素gの画素値Vgに、画素値Vgとは異なる画素値Vh、例えば、ステップ338で検出された画素hの画素値Vhをセットする。
ステップ342で、眼底画像処理部2060は、変数gが背景領域BGの画像の画素の総数Gに等しいか否かを判断することにより、背景領域BGの画像の全ての画素の画素値に、当該画素値とは異なる画素値をセットしたか否かを判断する。変数gが総数Gに等しいと判断されなかった場合には、背景埋める処理はステップ336に戻って、眼底画像処理部2060は、以上の処理(ステップ336から342)を実行する。
ステップ342で、変数gが総数Gに等しいと判断された場合には、背景領域BGの画像の各画素の画素値が、当該画素値と異なる画素値に変換したので、背景埋める処理が終了する。
ステップ302の背景埋める処理(図8のステップ332から342)により、図10Bに示す背景処理済み画像G2が生成される。
なお、詳細には後述するが、前景領域FGの画像の画素の画素値を二値化するためのしきい値を計算する際に、眼底画像処理部2060は、当該画素を中心とした所定個数の画素を抽出し、抽出した画素の画素値の平均を用いている。よって、変数gとしては、背景領域BGの画像の画素の内、しきい値を計算する際に抽出され得る画素のみを識別するようにしてもよい。この場合、総数Gは、しきい値を計算する際に抽出され得る画素の総数でもよい。この場合、変数gにより識別される画素は、背景領域BGの画像の画素の内、前景領域FGの周囲の画素である。なお、この場合、更に、変数gにより、前景領域FGの周囲の画素の内、何れか1画素以上の画素が識別されてもよい。
このようにステップ302の背景埋める処理(図8のステップ332から342)では、背景領域BGの各画素について順に、当該画素値が、当該各画素との距離が最も近い最近傍の前景領域FGの画素の画素値に変換される。本開示の技術はこれに限定されない。
(ステップ302の背景埋める処理の変形例)
次に、図13Aから図13Gを用いて、ステップ302の背景埋める処理の変形例を説明する。
(背景埋める処理の変形例1)
図13Aに示すように、例えば、眼底画像処理部2060は、脈絡膜血管画像G1の中心を通るラインL上の背景領域BGの各画素の画素値を、当該各画素との距離が最も近い最近傍の前景領域FGの画素の画素値に変換する。具体的には、眼底画像処理部2060は、脈絡膜血管画像G1の中心を通り一方の角の画素LUから当該中心に対して反対側の他方の角の画素RDを通るラインLを抽出する。眼底画像処理部2060は、ラインL上の背景領域BGの一方の角の画素LUから画素LUに距離が最も近い最近傍の前景領域FGの画素Pに隣接する背景領域BGの画素までの各画素の画素値を、画素Pの画素値gpに変換する。眼底画像処理部2060は、ラインL上の背景領域BGの他方の角の画素RDから画素RDに距離が最も近い最近傍の前景領域FGの画素Qに隣接する背景領域BGの画素までの各画素の画素値を、画素Qの画素値gqに変換する。眼底画像処理部2060は、このような画素値の変換を、脈絡膜血管画像G1の中心を通る全てのラインについて実行する。
(背景埋める処理の変形例2)
図13Bには、前景領域FGの中心位置CP、前景領域FG、及び前景領域FGを取り囲む背景領域BGを含む脈絡膜血管画像G1が模式的に示されている。具体的には、中心位置CPが*マークで示されている。前景領域FGの画像の各画素は、被検眼12からの光が到達し、到達した光の強度に応じた画素値であるが、図13Bには、模式的に、前景領域FGでは中心位置CPから外へ向けて画素値が滑らかに増大するように示されている。背景領域BGの画素値はゼロであるように示されている。
背景埋める処理の変形例2では、図13Cに示すように、眼底画像処理部2060は、背景領域BGの画像の各画素の画素値を、当該画素値よりも所定値α大きい値gs(=0+α)に変換する。
(背景埋める処理の変形例3)
ステップ302では、背景領域BGの画像の画素を、当該画素に距離が最も近い最近傍の前景領域FGの画素の画素値に変換している。これに対し、背景埋める処理の変形例3では、図13Dに示すように、眼底画像処理部2060は、背景領域BGの画像の画素を、当該最近傍の前景領域FGの画素の画素値gtよりも所定値β小さい値gu(=gt-α)に変換する。
(背景埋める処理の変形例4)
背景埋める処理の変形例4では、図13Eに示すように、眼底画像処理部2060は、背景領域BGの各画素の画素値を、前景領域FGの全画素の画素値の平均値gmに変換する。
(背景埋める処理の変形例5)
背景埋める処理の変形例5では、図13Fに示すように、眼底画像処理部2060は、中心画素CPから前景領域FGの端部までの画素値の変化を検出する。そして、眼底画像処理部2060は、この前景領域FG内の画素値の変化と同様の画素値の変化を背景領域BGに適用する。つまり、背景領域BGの最内周から最外周までの画素値を、中心画素CPから前景領域FGの端部までの画素値に置き換える。
図13Fの模式的な眼底画像の例では、前景領域FGでは、中心位置CPから外へ向けて画素値が滑らかに増大する。変形例5では、眼底画像処理部2060は、背景領域BGの画像の各画素を、前景領域FGの中心CPからの距離が長くなるに従って徐々に大きくなる値に変換する。
(背景埋める処理の変形例6)
背景埋める処理の変形例6では、図13Gに示すように、眼底画像処理部2060は、中心画素CPから前景領域FGの端部までの画素値の変化を検出する。そして、眼底画像処理部2060は、この前景領域FG内の画素値の変化と逆変化を背景領域BGに適用する。つまり、背景領域BGの最内周から最外周までの画素値を、前景領域FGの端部から中心画素CPまでの画素値に置き換える。
図13Gの模式的な眼底画像の例では、前景領域FGでは、中心位置CPから外へ向けて画素値が滑らかに増大する。変形例6では、眼底画像処理部2060は、背景領域BGの画像の各画素を、前景領域FGの中心CPからの距離が長くなるに従って徐々に小さくなる値に変換する。
また、本開示の技術は、これらの変形例1から6の処理の内容を、その主旨を逸脱しない範囲で、変更した場合を含む。
上記背景埋める処理が終了すると、画像処理は、図6のステップ304に進み、上記のようにステップ304で血管強調処理(例えば、CLAHEなど)が実行され、図10Cに示す血管強調画像G3が生される。
血管強調画像G3は、本開示の技術の「血管を強調した画像」の一例である。
ステップ304の血管強調処理が終了すると、画像処理は、図6のステップ306に進む。
次に、図9を用いて、図6のステップ306の血管を抽出する処理を説明する。
ステップ352で、眼底画像処理部2060は、血管強調画像G3における前景領域FGの画像の各画素を識別する変数mを0にセットし、ステップ354で、眼底画像処理部2060は、変数mを1インクリメントする。
ステップ356で、眼底画像処理部2060は、変数mで識別される前景領域FGの画素mを中心とした所定個数の画素を抽出する。例えば、所定個数の画素は、画素mに隣接する上下左右の4個または上下左右及び斜め方向の合計8個の画素を抽出する。隣接した8個に限らず、より広い範囲の近傍画素を抽出してもよい。
ステップ358で、眼底画像処理部2060は、ステップ356で抽出した所定個数の画素の画素値の平均値Hを算出する。ステップ360で、眼底画像処理部2060は、画素mのしきい値Vmとして、平均値Hをセットする。ステップ362で、眼底画像処理部2060は、画素mの画素値をしきい値Vm(=H)で二値化する。
ステップ364で、眼底画像処理部2060は、変数mが前景領域FGの画像の総画素数Mに等しいか否かを判断する。変数mが総画素数Mに等しいと判断されなければ、前景領域FGの画像の各画素を上記しきい値で二値化していないので、血管を抽出する処理は、ステップ354に戻って、眼底画像処理部2060は、以上の処理(ステップ354から364)を実行する。
変数mが総画素数Mに等しい場合には、前景領域FGの画像の全ての画素の画素値が二値化されたので、ステップ366で、眼底画像処理部2060は、血管強調画像G3における背景領域BGの画素値に、元の画素値と同一の画素値を設定する。ステップ366の処理により、図10Dに示す血管抽出画像G4を生成する。
血管強調画像G3における背景領域BGの画素値は、本開示の技術の「第2画素値」の一例であり、元の画素値は、本開示の技術の「第1画素値」及び「第3画素値」の一例である。
なお、本開示の技術では、血管強調画像G3における背景領域BGの画素値に、元の画素値と同一の画素値を設定することに限定されず、血管強調画像G3における背景領域BGの画素値を、元の画素値とは異なる画素値に置換するようにしてもよい。
ステップ304の血管強調処理の後、ステップ306の血管を抽出する処理を実行している。よって、血管を抽出する処理の対象は、血管強調画像G3である。しかし、本開示の技術はこれに限定されない。例えば、ステップ302の背景埋め処理の後、ステップ304の血管強調処理を省略し、ステップ306の血管を抽出する処理を実行してもよい。この場合、血管を抽出する処理の対象は、背景処理済画像G2である。
ところで、ステップ306では、眼底血管解析部2062は、さらに脈絡膜解析処理を実行するようにしてもよい。眼底画像処理部2060は、脈絡膜解析処理として、例えば、渦静脈(Vortex Vein)位置検出処理や脈絡膜血管の走行方向の非対称性の解析処理等を実行する。
脈絡膜解析処理は、本開示の技術の「解析処理」の一例である。
絡膜解析処理の実行タイミングは、例えば、ステップ364の処理とステップ366の処理との間でも、ステップ366の処理の後でもよい。
絡膜解析処理がステップ364の処理とステップ366の処理との間に実行される場合には、絡膜解析処理の対象の画像は、血管強調画像G3で背景領域の画素値に元の画素値が設定される前の画像である。なお、上記のように、ステップ304の血管強調処理が省略される場合には、背景処理済画像G2に対して絡膜解析処理が実行される。
これに対し、絡膜解析処理がステップ366の処理の後に実行される場合には、絡膜解析処理の対象の画像は、血管抽出画像G4である。対象の画像は、脈絡膜血管のみが可視化された画像である。
渦静脈とは、脈絡膜に流れ込んだ血流の流出路であり、眼球の赤道部の後極寄りに4~6個存在する。渦静脈の位置は、対象の画像を解析することにより得られる脈絡膜血管の走行方向に基づいて検出される。
眼底画像処理部2060は、対象の画像における各脈絡膜血管の移動方向(血管走行方向)を設定する。具体的には、第1に、眼底画像処理部2060は、対象の画像の各画素について、下記の処理を実行する。即ち、眼底画像処理部2060は、画素に対して、当該画素を中心とした領域(セル)を設定し、セル内の各画素における輝度の勾配方向のヒストグラムを作成する。次に、眼底画像処理部2060は、各セルにおけるヒストグラムにおいて、最もカウントが少なかった勾配方向を各セルの内の画素における移動方向とする。この勾配方向が、血管走行方向に対応する。なお、最もカウントが少なかった勾配方向が血管走行方向であるとなるのは、次の理由からである。血管走行方向には輝度勾配が小さく、一方、それ以外の方向には輝度勾配が大きい(例えば、血管と血管以外のものでは輝度の差が大きい)。したがって、各画素の輝度勾配のヒストグラムを作成すると、血管走行方向に対するカウントは少なくなる。以上の処理により、対象の画像の各画素における血管走行方向が設定される。
眼底画像処理部2060は、M(自然数)×N(自然数)(=L)個の仮想粒子の初期位置を設定する。具体的には、眼底画像処理部2060は、対象の画像上に等間隔に、縦方向にM個、横方向にN個、合計L個の初期位置を設定する。
眼底画像処理部2060は、渦静脈の位置を推定する。具体的には、眼底画像処理部2060は、L個の各々の位置について以下の処理を行う。即ち、眼底画像処理部2060は、最初の位置(L個の何れか)の血管走行方向を取得し、取得した血管走行方向に沿って所定距離だけ、仮想粒子を移動させ、移動した位置において、再度、血管走行方向を取得し、取得した血管走行方向に沿って所定距離だけ、仮想粒子を移動させる。このように血管走行方向に沿って所定距離移動させることを予め設定した移動回数、繰り返す。以上の処理を、L個の全ての位置において実行する。その時点で仮想粒子が一定個数以上集まっている点を渦静脈の位置とする。
渦静脈の位置情報(渦静脈の個数や、対象の画像上での座標など)は、記憶装置254に記憶される。渦静脈の検出方法については、日本出願の特願2018-080273及び国際出願のPCT/JP2019/016652に開示の方法が利用できる。2018年04月18日に日本に出願された特願2018-080273、2019年04月18日に国際出願されたPCT/JP2019/016652の開示は、その全体が参照のため、本明細書に取り込まれる。
処理部208は、少なくとも脈絡膜血管画像G1と血管抽出画像G4、脈絡膜解析データ(渦静脈位置や脈絡膜血管の走行方向の非対称性等を示す各データ)とを当該患者の情報(患者のID、氏名、年齢、視力、右眼/左眼の区別、眼軸長等)と共に、記憶装置254(図4参照)に記憶する。また、処理部208は、RGカラー眼底画像UWFGP(オリジナル眼底画像)と、背景処理済み画像G2及び血管強調画像G3などの処理過程の画像とを保存するようにしてもよい。
なお、本実施の形態では、処理部208は、RGカラー眼底画像UWFGP(オリジナル眼底画像)、脈絡膜血管画像G1、背景処理済み画像G2、血管強調画像G3、血管抽出画像G4、及び、脈絡膜解析データを当該患者の情報と共に、記憶装置254(図4参照)に記憶する。
以下、眼科装置110や眼底カメラで撮影された眼底画像を図6の画像処理プログラムで画像処理された眼底画像を、ビューワ150で表示することについて説明をする。
眼科医が患者の被検眼12を診断する際、ビューワ150に、患者IDを入力する。患者IDが入力されたビューワ150は、サーバ140に、患者IDに対応する患者の情報と共に、各画像(UWFGP、G1からG4等)の画像データを送信するように指示する。患者の情報と共に、各画像(UWFGP、G1からG4)の画像データを受信したビューワ150は、図14に示す、患者の被検眼12の診断用画面400Aを生成し、ビューワ150のディスプレイに表示する。
図14には、ビューワ150の診断用画面400Aが示されている。図14に示すように診断用画面400Aは、情報表示領域402と、画像表示領域404Aとを有する。
情報表示領域402は、患者ID表示領域4021、患者名表示領域4022を有する。情報表示領域402は、年齢表示領域4023、視力表示領域4024を有する。情報表示領域402は、右眼/左眼の情報表示領域4025、眼軸長表示領域4026を有する。情報表示領域402は、画面切換アイコン4027を有する。ビューワ150は、受信した患者の情報に基づいて、各表示領域(4021から4026)に対応する情報を表示する。
画像表示領域404Aは、オリジナル眼底画像表示領域4041A、血管抽出画像表示領域4042A、及びテキスト表示領域4043を有する。ビューワ150は、受信した画像データに基づいて、各表示領域(4041A、4042A)に対応する画像(RGカラー眼底画像UWFGP(オリジナル眼底画像)、血管抽出画像G4)を表示する。画像表示領域404Aには、表示される画像が取得された撮影日の年月日(YYYY/MM/DD)も表示される。
テキスト表示領域4043には、ユーザ(眼科医)により入力された診断メモが表示される。その他、例えば、「左側の領域には、脈絡膜血管画像が表示されています。右側の領域には、脈絡膜血管が抽出された画像が表示されています。」等の表示されている画像を解析するテキストが表示されるようにしてもよい。
ところで、画像表示領域404Aに、上記のようにオリジナル眼底画像UWFGP及び血管抽出画像G4が表示されている状態において、画面切換アイコン4027が操作されると、診断用画面400Aが、図15に示す診断用画面400Bに変更される。診断用画面400Aと診断用画面400Bとは同様の内容であるので、同様の内容の部分には同一の符号を付してその説明を省略し、異なる内容の部分のみを説明する。
図15に示すように、診断用画面400Bは、図14のオリジナル眼底画像表示領4041A及び血管抽出画像表示領域4042Aに代えて、合成画像表示領4041B及び別の血管抽出画像表示領域4042Bを有する。合成画像表示領4041Bには合成画像G14が表示される。血管抽出画像表示領域4042Bには、処理画像G15が表示される。
合成画像G14は、図16に示すように、RGカラー眼底画像UWFGP(オリジナル眼底画像)に、血管抽出画像G4を重畳した画像である。合成画像G14によりRGカラー眼底画像UWFGP(オリジナル眼底画像)上において脈絡膜血管の状態をユーザが容易に把握することができる。
処理画像G15は、血管抽出画像G4に、背景領域BGと前景領域FGとの境界BDを示す枠(境界線)を付与することにより、血管抽出画像G4に境界BGを重畳表示した画像である。境界BDが重畳表示された処理画像G15により、眼底領域と背景領域とをユーザが容易に判別できる。
なお、図14の血管抽出画像表示領域4042Aにおける血管抽出画像G4や、図15の別の血管抽出画像表示領域4042Bにおける処理画像G15において、図17に示すように、血管btに枠fを付すことにより、脈絡膜血管をさらに強調してもよい。
従来では、図11Aに示す脈絡膜血管画像G1から図11Bに示す血管強調画像G7が得られ、血管強調画像G7の前景領域の画像の各画素が、当該各画素を中心とした所定個数の画素の画素値の平均値をしきい値として、二値化される。この場合のしきい値は、図11Cに示すように、前景領域の画像の周辺部が低い値である。これは、前景領域の画像の周辺部の画素の外側には、画素値が0の背景領域の画像の画素が存在し、当該0の値が平均値を低い値にするからである。このように、背景領域の画像の画素値(=0)の影響により、血管強調画像G7の周辺部のしきい値が低く設定されてしまい、上記二値化により得られた血管抽出画像G9は、図11Dに示すように、前景領域の周辺部に、枠(白色の部分)が生じてしまう。よって、血管抽出画像G9の前景領域FBの周辺部に生ずる枠を誤って血管として抽出してしまい、ユーザ(眼科医)に、前景領域FBにおいて本来は血管が無い部分に血管があると認識させてしまうおそれがあった。
これに対し、本実施の形態では、図10Aに示す脈絡膜血管画像G1の背景領域BGの画像を前景領域FGの画像を基準とした画素値に埋めた背景処理済み画像G2(図10B参照)が生成される。背景処理済み画像G2から、血管強調処理を経て、二値化されるので、図10Dに示すように、血管抽出画像G4の周辺部には枠(白色の部分)が生じない。従って、本実施の形態は、前景領域と背景領域との境界が、眼底の画像の解析結果に影響を及ぼすことを防止することができる。よって、本実施の形態は、ユーザ(眼科医)が、血管抽出画像G4において本来は血管が無い部分(すなわち背景領域や、前景領域の最外周部などに)に脈絡膜血管があると認識することを防止することができる。
前述した血管強調画像G3の二値化は、前景領域FGの各画素について、当該各画素を中心とした所定個数の画素の画素値の平均値Hをしきい値として、行っているが、本開示の技術は、これに限定されず、以下の二値化処理の変形例を用いることができる。
(二値化処理の変形例1)
眼底画像処理部2060は、血管強調画像G3をぼかすこと(例えば、画像から低周波成分を除去する処理を行う)により、図18に示すぼかし画像Gbを生成する、そして、ぼかし画像Gbの各画素の画素値を、ぼかし画像Gbの当該各画素の位置に対応する血管強調画像G3の各画素のしきい値として使用する。血管強調画像G3をぼかす処理としては、点拡がり関数(PSF:Point Spread Function)のフィルタによる畳み込み演算等がある。また、画像をぼかすための処理として、ガウシアンフィルタやローパスフィルタなどのフィルタリング処理を用いてもよい。
(二値化処理の変形例2)
眼底画像処理部2060は、予め定めた値を二値化処理のしきい値として用いてもよい。なお、予め定めた値は、例えば、前景領域FGの全画素値の平均値等である。
(二値化処理の変形例3)
二値化処理の変形例3は、図6のステップ302(ステップ332から342)を省略する例である。この場合、図9のステップ356の処理の内容は次の通りである。
最初に、眼底画像処理部2060は、画素mを中心とした所定個数の画素を抽出する。
眼底画像処理部2060は、抽出した所定個数の画素に、背景領域BGの画素が含まれているか否かを判断する。
抽出した所定個数の画素に、背景領域BGの画素が含まれていると判断された場合には、眼底画像処理部2060は、当該背景領域BGの画素を以下の画素に置換し、置換した画素と上記最初に抽出した画素に含まれている前景領域の画素とを、画素mを中心とした所定個数の画素として設定する。上記背景領域BGの画素に置換される画素は、所定個数の画素に含まれる前景領域FGの画素に隣接する前景領域FGの画素(当該各画素から所定距離に位置する前景領域の画像の画素のみ)である。
一方、抽出した所定個数の画素に、背景領域BGの画素が含まれていないと判断された場合には、眼底画像処理部2060は、上記画素の置換を行わず、上記最初に抽出した画素を、画素mを中心とした所定個数の画素として設定する。
つまり、二値化処理の変形例3では、眼底画像処理部2060にて以下のような画像処理のステップが実行される。被検眼の画像部分である前景領域と前記被検眼の画像部分に対する背景領域とを有する眼底画像を取得することとが行われる。次に、前景領域の画像の各画素の画素値を、当該各画素から所定距離に位置する前景領域の画像の画素の画素値のみに基づいて、二値化することが行われる。
(その他の変形例)
以上説明した実施の形態では、検出素子70、72、74、76では、背景領域の画素値は、黒の値である0であるが、本開示の技術はこれに限定されず、背景領域の画素値が白の値の場合にも適用可能である。
眼底画像(UWF-SLO画像(例えば、UWFGP(図3参照)))を眼科装置110により取得しているが、眼底カメラを用いて、眼底画像(FCGQ(図3参照)))を取得するようにしてもよい。眼底カメラを用いて眼底画像FCGQを取得する場合、前述した画像処理では、RGB空間のR成分、G成分、又はB成分が用いられる。なお、L*a*b*空間におけるa*成分が用いられたり、他の空間の他の成分が用いられたりしてもよい。
本開示の技術は、図6に示す画像処理を、サーバ140が実行することに限定されず、眼科装置110、ビューワ150、ネットワーク130に接続された別のコンピュータが実行するようにしてもよい。
また、眼科装置110は被検眼12の眼球中心Oを基準位置として内部照射角が200度の領域(被検眼12の眼球の瞳孔を基準とした外部照射角では167度)を撮影する機能を持つが、この画角に限らない。内部照射角が200度以上(外部照射角が167度以上180度以下)であってもよい。
さらに、内部照射角が200度未満(外部照射角が167度未満)のスペックであってもよい。例えば、内部照射角が約180度(外部照射角が約140度)、内部照射角が約156度(外部照射角が約120度)、内部照射角が約144度(外部照射角が約110度)などの画角でも良い。数値は一例である。
以上説明した各例では、コンピュータを利用したソフトウェア構成により画像処理が実現される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、コンピュータを利用したソフトウェア構成に代えて、FPGA(Field-Programmable Gate Array)またはASIC(Application Specific Integrated Circuit)等のハードウェア構成のみによって、画像処理が実行されるようにしてもよい。画像処理のうちの一部の処理がソフトウェア構成により実行され、残りの処理がハードウェア構成によって実行されるようにしてもよい。
このように本開示の技術は、コンピュータを利用したソフトウェア構成により画像処理が実現される場合と、コンピュータを利用したソフトウェア構成でない構成で画像処理が実現される場合とを含むので、以下の第1技術および第2技術を含む。
(第1技術)
前景領域と前記前景領域以外の背景領域とを有する被検眼の第1眼底画像を取得する取得部と、
前記プロセッサが、前記背景領域を構成する画素の第1画素値を、前記第1画素値と異なる第2画素値に置換する背景処理を行うことにより、第2眼底画像を生成する生成部と、
を含む画像処理装置。
なお、上記実施の形態の眼底画像処理部2060は、上記第1技術の「取得部」、「生成部」の一例である。
(第2技術)
取得部が、前景領域と前記前景領域以外の背景領域とを有する被検眼の第1眼底画像を取得することと、
生成部が、前記プロセッサが、前記背景領域を構成する画素の第1画素値を、前記第1画素値と異なる第2画素値に置換する背景処理を行うことにより、第2眼底画像を生成することと、
を含む画像処理方法。
以上の開示内容から以下の第3技術が提案される。
(第3技術)
画像処理するためのコンピュータープログラム製品であって、
前記コンピュータープログラム製品は、それ自体が一時的な信号ではないコンピュータ可読記憶媒体を備え、
前記コンピュータ可読記憶媒体には、プログラムが格納されており、
前記プログラムは、
コンピュータに、
前景領域と前記前景領域以外の背景領域とを有する被検眼の第1眼底画像を取得し、
前記背景領域を構成する画素の第1画素値を、前記第1画素値と異なる第2画素値に置換する背景処理を行うことにより、第2眼底画像を生成する、
ことを実行させる、
コンピュータープログラム製品。
以上説明した画像処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
本明細書に記載された全ての文献、特許出願、および技術規格は、個々の文献、特許出願、および技術規格が参照により取り込まれることが具体的にかつ個々に記載された場合と同様に、本明細書中に参照により取り込まれる。

Claims (13)

  1. プロセッサが、前景領域と前記前景領域以外の背景領域とを有する被検眼の第1眼底画像を取得することと、
    前記プロセッサが、前記背景領域を構成する画素の第1画素値を、前記第1画素値よりも画素値の大きな第2画素値に置換する背景処理を行うことにより、第2眼底画像を生成することと、
    前記プロセッサが、前記第2眼底画像又は前記第2眼底画像において血管を強調した画像において、前記前景領域の画素を、当該画素の周囲の画素の画素値に基づいて定まるしきい値を基準に、2値化することにより、第3眼底画像を生成することと、
    を含む画像処理方法。
  2. 前記前景領域は、前記被検眼の所定領域が撮影された領域である、請求項1に記載の画像処理方法。
  3. 前記所定領域は被検眼の眼底領域である、請求項2に記載の画像処理方法。
  4. 前記背景領域は、単色の領域である、
    請求項1から請求項3の何れか1項に記載の画像処理方法。
  5. 前記プロセッサが、前記被検眼の眼底の血管の解析処理を実行することをさらに含む、請求項1から請求項の何れか1項に記載の画像処理方法。
  6. 前記血管は、脈絡膜血管である、請求項に記載の画像処理方法。
  7. 前記プロセッサが、前記第2眼底画像に対して、前記背景領域の画素の画素値を、前記第2画素値と異なる第3画素値に置換することをさらに含む請求項1から請求項の何れか1項に記載の画像処理方法。
  8. 前記第1画素値と前記第3画素値は同一である請求項に記載の画像処理方法。
  9. 前記背景処理は、少なくとも前記背景領域を構成する画素の内の前記前景領域の画素に隣接する画素を対象として行われる、請求項1から請求項の何れか1項に記載の画像処理方法。
  10. 前記第2画素値は、前記前景領域の画素の画素値として取り得る値の範囲内の値である、請求項1から請求項の何れか1項に記載の画像処理方法。
  11. 前記第2画素値は、前記前景領域の画素の中で前記背景領域の画素に距離が最も近い画素の画素値、または、前記前景領域の画素の画素値の平均値である、請求項1から請求項10の何れか1項に記載の画像処理方法。
  12. メモリと、前記メモリに接続されたプロセッサとを備え、
    前記プロセッサは、
    前景領域と前記前景領域以外の背景領域とを有する被検眼の第1眼底画像を取得し、
    前記背景領域を構成する画素の第1画素値を、前記第1画素値よりも画素値の大きな第2画素値に置換する背景処理を行うことにより、第2眼底画像を生成し、
    前記第2眼底画像又は前記第2眼底画像において血管を強調した画像において、前記前景領域の画素を、当該画素の周囲の画素の画素値に基づいて定まるしきい値を基準に、2値化することにより、第3眼底画像を生成する、
    画像処理装置。
  13. コンピュータに、
    前景領域と前記前景領域以外の背景領域とを有する被検眼の第1眼底画像を取得し、
    前記背景領域を構成する画素の第1画素値を、前記第1画素値よりも画素値の大きな第2画素値に置換する背景処理を行うことにより、第2眼底画像を生成し、
    前記第2眼底画像又は前記第2眼底画像において血管を強調した画像において、前記前景領域の画素を、当該画素の周囲の画素の画素値に基づいて定まるしきい値を基準に、2値化することにより、第3眼底画像を生成する、
    ことを実行させるプログラム。
JP2021552086A 2019-10-18 2019-10-18 画像処理方法、画像処理装置、及びプログラム Active JP7306467B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/041219 WO2021075062A1 (ja) 2019-10-18 2019-10-18 画像処理方法、画像処理装置、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2021075062A1 JPWO2021075062A1 (ja) 2021-04-22
JP7306467B2 true JP7306467B2 (ja) 2023-07-11

Family

ID=75537766

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021552086A Active JP7306467B2 (ja) 2019-10-18 2019-10-18 画像処理方法、画像処理装置、及びプログラム

Country Status (3)

Country Link
US (1) US20230154010A1 (ja)
JP (1) JP7306467B2 (ja)
WO (1) WO2021075062A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11497396B2 (en) * 2021-03-24 2022-11-15 Acucela Inc. Axial length measurement monitor
WO2023199847A1 (ja) * 2022-04-13 2023-10-19 株式会社ニコン 画像処理方法、画像処理装置、及びプログラム
WO2024130628A1 (zh) * 2022-12-22 2024-06-27 上海健康医学院 一种眼底图像视盘定位方法及系统
CN115880512B (zh) * 2023-02-01 2023-07-21 有米科技股份有限公司 一种图标匹配方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016107097A (ja) 2014-12-05 2016-06-20 株式会社リコー 網膜血管抽出のための方法、プログラム及びシステム
JP2017196522A (ja) 2017-08-09 2017-11-02 キヤノン株式会社 眼科装置および制御方法
WO2019181981A1 (ja) 2018-03-20 2019-09-26 株式会社ニコン 画像処理方法、プログラム、眼科装置、及び脈絡膜血管画像生成方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5182689B2 (ja) * 2008-02-14 2013-04-17 日本電気株式会社 眼底画像解析方法およびその装置とプログラム
JP6193576B2 (ja) * 2013-01-31 2017-09-06 キヤノン株式会社 眼科装置および制御方法
JP6278295B2 (ja) * 2013-06-13 2018-02-14 国立大学法人 筑波大学 脈絡膜の血管網を選択的に可視化し解析する光干渉断層計装置及びその画像処理プログラム
DE102016005974B4 (de) * 2016-05-13 2018-06-14 Hochschule für Technik und Wirtschaft Dresden Verfahren und Vorrichtung zur Einstellung des Laserfokus eines Anregungslasers in Blut durchflossenen Gefäßen für optische Messungen zur Bestimmung des Geschlechtes von Vogeleiern

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016107097A (ja) 2014-12-05 2016-06-20 株式会社リコー 網膜血管抽出のための方法、プログラム及びシステム
JP2017196522A (ja) 2017-08-09 2017-11-02 キヤノン株式会社 眼科装置および制御方法
WO2019181981A1 (ja) 2018-03-20 2019-09-26 株式会社ニコン 画像処理方法、プログラム、眼科装置、及び脈絡膜血管画像生成方法

Also Published As

Publication number Publication date
US20230154010A1 (en) 2023-05-18
JPWO2021075062A1 (ja) 2021-04-22
WO2021075062A1 (ja) 2021-04-22

Similar Documents

Publication Publication Date Title
JP7306467B2 (ja) 画像処理方法、画像処理装置、及びプログラム
JP2023009530A (ja) 画像処理方法、画像処理装置、及びプログラム
US11284791B2 (en) Image processing method, program, and image processing device
CN111885954B (zh) 图像处理方法、存储介质及眼科装置
CN112004457B (zh) 图像处理方法、程序、图像处理装置及眼科系统
JP2023060069A (ja) 画像処理方法、画像処理装置、画像処理プログラム、及び血管径算出装置
JP2024105697A (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
WO2021074960A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP7419946B2 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP7205539B2 (ja) 画像処理方法、プログラム、画像処理装置、及び眼科システム
JP7248142B2 (ja) 画像処理方法、画像処理装置、プログラム
JP7272453B2 (ja) 画像処理方法、画像処理装置、およびプログラム
WO2023282339A1 (ja) 画像処理方法、画像処理プログラム、画像処理装置及び眼科装置
WO2023199847A1 (ja) 画像処理方法、画像処理装置、及びプログラム
JP7439981B2 (ja) 画像処理方法
JP7264177B2 (ja) 画像処理方法、画像表示方法、画像処理装置、画像表示装置、画像処理プログラム、及び画像表示プログラム
WO2022177028A1 (ja) 画像処理方法、画像処理装置、及びプログラム
WO2021210281A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
WO2021210295A1 (ja) 画像処理方法、画像処理装置、及びプログラム
WO2022181729A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
WO2023199848A1 (ja) 画像処理方法、画像処理装置、及びプログラム
JP2023066198A (ja) 情報出力装置、眼底画像撮影装置、情報出力方法、及び情報出力プログラム
JP2021058285A (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230612

R150 Certificate of patent or registration of utility model

Ref document number: 7306467

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150