JP2020146202A - 内視鏡画像処理装置、方法及びプログラム、内視鏡システム - Google Patents

内視鏡画像処理装置、方法及びプログラム、内視鏡システム Download PDF

Info

Publication number
JP2020146202A
JP2020146202A JP2019045786A JP2019045786A JP2020146202A JP 2020146202 A JP2020146202 A JP 2020146202A JP 2019045786 A JP2019045786 A JP 2019045786A JP 2019045786 A JP2019045786 A JP 2019045786A JP 2020146202 A JP2020146202 A JP 2020146202A
Authority
JP
Japan
Prior art keywords
highlighting
unit
endoscope
image processing
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019045786A
Other languages
English (en)
Other versions
JP7060536B2 (ja
Inventor
稔宏 臼田
Toshihiro Usuda
稔宏 臼田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2019045786A priority Critical patent/JP7060536B2/ja
Priority to US16/813,709 priority patent/US11607109B2/en
Publication of JP2020146202A publication Critical patent/JP2020146202A/ja
Application granted granted Critical
Publication of JP7060536B2 publication Critical patent/JP7060536B2/ja
Priority to US18/164,536 priority patent/US20230181001A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/00042Operational features of endoscopes provided with input arrangements for the user for mechanical operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/012Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor
    • A61B1/015Control of fluid supply or evacuation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/012Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor
    • A61B1/018Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor for receiving instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/12Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with cooling or rinsing arrangements
    • A61B1/121Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with cooling or rinsing arrangements provided with means for cleaning post-use
    • A61B1/122Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with cooling or rinsing arrangements provided with means for cleaning post-use using cleaning tools, e.g. brushes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】内視鏡画像に含まれる注目領域の注目領域情報を内視鏡操作者の動作に応じて適切に報知する内視鏡画像処理装置、方法及びプログラム、内視鏡システムを提供する。【解決手段】内視鏡画像の被観察部位に対する内視鏡操作者の動作を内視鏡画像から認識し、認識結果に応じて、注目領域情報を内視鏡画像内に第1強調レベルで表示する第1強調表示と、注目領域情報を第1強調レベルよりも相対的に小さい第2強調レベルで表示する第2強調表示とを切り替える。【選択図】図3

Description

本発明は内視鏡画像処理装置、方法及びプログラム、内視鏡システムに係り、特に内視鏡画像に含まれる注目領域の情報を表示する技術に関する。
内視鏡画像から病変等の注目領域を自動認識し、認識結果を報知する画像認識技術が知られている。内視鏡検査中の医師に内視鏡画像の認識結果を報知するにあたっては、検査の工程に応じた適切な報知が求められる。
例えば、観察中の内視鏡画像から病変を検出する必要があるのは、新たに病変が視界に入ったタイミングや、病変が断続的に視界から外れるタイミングに限られる。一方、処置具により病変部の処置を開始した後や、色素散布を行い仔細な観察及び診断を開始した後は、医師は病変の存在を認識していることが確実なため、病変位置の報知は医師の作業を阻害する恐れがある。
このような課題に対し、特許文献1には、処置具使用等の操作者の動作を判定し、病変の検出を行う画像とするか否かを決定する技術が開示されている。
国際公開第2017/002184号
しかしながら、特許文献1に記載の技術では、特定の動作中に病変の検出を行わないが故の問題が生ずる。
例えば、特許文献1には、洗浄動作中であれば、検出対象の画像としない旨が開示されている。しかしながら、洗浄動作中に残渣が除去され、検出対象が画面上に現れることがあり得る。このような場合に検出及び報知が行われないと、検出対象を見落とす危険性があった。したがって、操作者の動作にかかわらず、検出結果の報知は続ける必要がある。
本発明はこのような事情に鑑みてなされたもので、内視鏡画像に含まれる注目領域の注目領域情報を内視鏡操作者の動作に応じて適切に報知する内視鏡画像処理装置、方法及びプログラム、内視鏡システムを提供することを目的とする。
上記目的を達成するための内視鏡画像処理装置の一の態様は、内視鏡操作者によって被観察部位が順次撮影された複数の内視鏡画像であって、表示部に順次表示される複数の内視鏡画像に含まれる注目領域の注目領域情報を表示部に表示する表示制御部と、複数の内視鏡画像のうちの少なくとも一部の内視鏡画像から被観察部位に対する内視鏡操作者の動作を認識する動作認識部と、を備え、表示制御部は、動作認識部の認識結果に応じて、注目領域情報を内視鏡画像内の位置に第1強調レベルで表示する第1強調表示と、注目領域情報を第1強調レベルよりも相対的に小さい第2強調レベルで表示する第2強調表示とを切り替える内視鏡画像処理装置である。
本態様によれば、動作認識部の認識結果に応じて、注目領域情報を内視鏡画像内の位置に第1強調レベルで表示する第1強調表示と、注目領域情報を第1強調レベルよりも相対的に小さい第2強調レベルで表示する第2強調表示とを切り替えるようにしたので、内視鏡画像に含まれる注目領域の注目領域情報を内視鏡操作者の動作に応じて適切に報知することができる。
複数の内視鏡画像を取得する画像取得部と、取得した内視鏡画像から注目領域を検出する注目領域検出部と、検出した注目領域の注目領域情報を取得する注目領域情報取得部と、を備えることが好ましい。これにより、注目領域情報を適切に取得することができる。
表示制御部は、取得した複数の内視鏡画像を表示部に順次表示することが好ましい。これにより、複数の内視鏡画像を適切に表示することができる。
動作認識部は、特定の動作の有無を認識し、表示制御部は、動作認識部が特定の動作を非認識の場合は第1強調表示を行い、特定の動作を認識した場合は第2強調表示を行うことが好ましい。これにより、内視鏡操作者の特定の動作に応じて強調表示を切り替えることができる。
特定の動作は処置具使用、洗浄、拡大観察、及び色素観察のうちの少なくとも1つの動作であることが好ましい。これにより、内視鏡操作者の処置具使用、洗浄、拡大観察、及び色素観察のうち少なくとも1つの動作に応じて強調表示を切り替えることができる。
表示制御部は、注目領域情報に基づく図形を表示することが好ましい。これにより、注目領域情報を適切に報知することができる。
第1強調レベル及び第2強調レベルは、図形の色、形状、及び透過度の少なくとも1つが異なることが好ましい。これにより、強調レベルを適切に異ならせることができる。
第1強調表示は、注目領域情報を内視鏡画像とは異なる位置に表示することが好ましい。注目領域情報を内視鏡画像内の位置と注目領域情報を内視鏡画像とは異なる位置とに表示することにより、第1強調レベルを相対的に大きくすることができる。
第2強調表示は、注目領域情報を内視鏡画像内の位置に表示することが好ましい。これにより、強調レベルが相対的に小さい第2強調レベルにおいても注目領域情報を適切に報知することができる。
第2強調表示は、注目領域情報を内視鏡画像とは異なる位置に表示することが好ましい。これにより、内視鏡画像の視認を妨げることなく注目領域情報を報知することができる。
注目領域情報の強調方法を記憶する強調方法記憶部を有し、表示制御部は、強調方法記憶部に記憶された強調方法によって注目領域情報を表示することが好ましい。これにより、注目領域情報を適切に報知することができる。
強調方法記憶部は、動作認識部が認識する動作毎に強調方法を記憶することが好ましい。これにより、注目領域情報を動作毎に適切に報知することができる。
強調方法を設定して強調方法記憶部に記憶させる入力部を備えることが好ましい。これにより、内視鏡操作者に応じた第2強調表示にすることができる。
上記目的を達成するための内視鏡システムの位置の態様は、表示部と、被検体内に挿入される内視鏡スコープと、被検体内の被観察部位の複数の内視鏡画像を順次撮影するカメラと、上記に記載の内視鏡画像処理装置と、を備える内視鏡システムである。
本態様によれば、動作認識部の認識結果に応じて、注目領域情報を内視鏡画像内の位置に第1強調レベルで表示する第1強調表示と、注目領域情報を第1強調レベルよりも相対的に小さい第2強調レベルで表示する第2強調表示とを切り替えるようにしたので、内視鏡画像に含まれる注目領域の注目領域情報を内視鏡操作者の動作に応じて適切に報知することができる。
上記目的を達成するための内視鏡画像処理方法の一の態様は、内視鏡操作者によって被観察部位が順次撮影された複数の内視鏡画像であって、表示部に順次表示される複数の内視鏡画像に含まれる注目領域の注目領域情報を表示部に表示する表示制御工程と、複数の内視鏡画像のうちの少なくとも一部の内視鏡画像から被観察部位に対する内視鏡操作者の動作を認識する動作認識工程と、を備え、表示制御工程は、動作認識工程の認識結果に応じて、注目領域情報を内視鏡画像内の位置に第1強調レベルで表示する第1強調表示と、注目領域情報を第1強調レベルよりも相対的に小さい第2強調レベルで表示する第2強調表示とを切り替える内視鏡画像処理方法である。
本態様によれば、動作認識部の認識結果に応じて、注目領域情報を内視鏡画像内の位置に第1強調レベルで表示する第1強調表示と、注目領域情報を第1強調レベルよりも相対的に小さい第2強調レベルで表示する第2強調表示とを切り替えるようにしたので、内視鏡画像に含まれる注目領域の注目領域情報を内視鏡操作者の動作に応じて適切に報知することができる。
上記に記載の内視鏡画像処理方法をコンピュータに実行させるためのプログラムも本態様に含まれる。
本発明によれば、内視鏡画像に含まれる注目領域の注目領域情報を内視鏡操作者の動作に応じて適切に報知することができる。
図1は、本実施形態に係る内視鏡画像処理装置を含む内視鏡システム1の全体構成を示す概略図である。 図2は、内視鏡画像処理装置14の電気的構成を示すブロック図である。 図3は、第1の実施形態に係る内視鏡画像処理方法の各処理を示すフローチャートである。 図4は、注目領域が検出された際の表示器16の表示の一例を示す図である。 図5は、注目領域が検出された際の表示器16の表示の一例を示す図である。 図6は、強調方法記憶部50が記憶するテーブルの一例を示す図である。 図7は、強調方法記憶部50が記憶するテーブルの一例を示す図である。 図8は、強調方法記憶部50が記憶するテーブルの一例を示す図である。 図9は、表示器16に表示されるテーブル変更画面100を示す図である。 図10は、表示器16に表示されるテーブル変更第1画面120を示す図である。 図11は、表示器16に表示されるテーブル変更第2画面130を示す図である。
以下、添付図面に従って本発明の好ましい実施形態について詳説する。
<内視鏡システムの全体構成>
図1は、本実施形態に係る内視鏡画像処理装置を含む内視鏡システム1の全体構成を示す概略図である。内視鏡システム1は、被検体の体内(被検体内)の被観察部位の内視鏡画像を撮影し、撮影した内視鏡画像から病変等の注目領域を自動認識し、認識した結果を報知する装置である。
図1に示すように、内視鏡システム1は、電子内視鏡である内視鏡スコープ10、光源装置11、内視鏡プロセッサ装置12、表示装置13、内視鏡画像処理装置14、操作部15、及び表示器16を備える。
内視鏡スコープ10は、被写体像を含む時系列画像を取得する時系列画像取得部に相当するものであり、例えば軟性内視鏡である。この内視鏡スコープ10は、被検体内に挿入され、かつ先端と基端とを有する挿入部20、挿入部20の基端側に連設されかつ内視鏡操作者(医師)が把持して各種操作を行う手元操作部21、及び手元操作部21に連設されたユニバーサルコード22を有する。
挿入部20は、全体が細径で長尺状に形成されている。挿入部20は、その基端側から先端側に向けて順に可撓性を有する軟性部25、手元操作部21の操作により湾曲可能な湾曲部26、及び先端部27が連設されて構成される。
先端部27には、不図示の対物レンズ及び撮像素子を含む撮像部28等が内蔵される。撮像素子は、CMOS(complementary metal oxide semiconductor)型又はCCD(charge coupled device)型の撮像素子である。撮像素子の撮像面には、先端部27の先端面に開口された不図示の観察窓、及びこの観察窓の後方に配置された不図示の対物レンズを介して、被観察部位の像光が入射する。撮像素子は、その撮像面に入射した被観察部位の像光を撮像(電気信号に変換)して、撮像信号を出力する。
手元操作部21には、内視鏡操作者によって操作される各種操作部材が設けられている。具体的には、手元操作部21には、湾曲部26の湾曲操作に用いられる2種類の湾曲操作ノブ29、送気送水操作用の送気送水ボタン30、及び吸引操作用の吸引ボタン31が設けられている。また、手元操作部21には、被観察部位の静止画39の撮影指示を行うための静止画撮影指示部32、及び挿入部20内を挿通している不図示の処置具挿通路内に不図示の処置具を挿入する処置具導入口33が設けられている。
ユニバーサルコード22は、内視鏡スコープ10を光源装置11に接続するための接続コードである。このユニバーサルコード22は、挿入部20内を挿通しているライトガイド35、信号ケーブル36、及び不図示の流体チューブを内包している。また、ユニバーサルコード22の端部には、光源装置11に接続されるコネクタ37a、及びコネクタ37aから分岐されかつ内視鏡プロセッサ装置12に接続されるコネクタ37bが設けられている。
コネクタ37aを光源装置11に接続することで、ライトガイド35及び不図示の流体チューブが光源装置11に挿入される。これにより、ライトガイド35及び不図示の流体チューブを介して、光源装置11から内視鏡スコープ10に対して必要な照明光と水と気体とが供給される。その結果、先端部27の先端面の不図示の照明窓から被観察部位に向けて照明光が照射される。また、前述の送気送水ボタン30の押下操作に応じて、先端部27の先端面の不図示の送気送水ノズルから先端面の不図示の観察窓に向けて気体又は水が噴射される。
コネクタ37bを内視鏡プロセッサ装置12に接続することで、信号ケーブル36及び内視鏡プロセッサ装置12が電気的に接続される。信号ケーブル36により、内視鏡スコープ10の撮像部28から内視鏡プロセッサ装置12へ被観察部位の撮像信号が出力され、かつ内視鏡プロセッサ装置12から内視鏡スコープ10へ制御信号が出力される。
光源装置11は、コネクタ37aを介して、内視鏡スコープ10のライトガイド35へ照明光を供給する。照明光は、白色光(白色の波長帯域の光又は複数の波長帯域の光)、又は1又は複数の特定の波長帯域の光、又はこれらの組み合わせ等、観察目的に応じた各種波長帯域の光が選択される。なお、特定の波長帯域は、白色の波長帯域よりも狭い帯域である。
特定の波長帯域の第1例は、例えば可視域の青色帯域又は緑色帯域である。この第1例の波長帯域は、390nm以上450nm以下又は530nm以上550nm以下の波長帯域を含み、かつ第1例の光は、390nm以上450nm以下又は530nm以上550nm以下の波長帯域内にピーク波長を有する。
特定の波長帯域の第2例は、例えば可視域の赤色帯域である。この第2例の波長帯域は、585nm以上615nm以下又は610nm以上730nm以下の波長帯域を含み、かつ第2例の光は、585nm以上615nm以下又は610nm以上730nm以下の波長帯域内にピーク波長を有する。
特定の波長帯域の第3例は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、かつ第3例の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する。この第3例の波長帯域は、400±10nm、440±10nm、470±10nm、又は600nm以上750nm以下の波長帯域を含み、かつ第3例の光は、上記400±10nm、440±10nm、470±10nm、又は600nm以上750nm以下の波長帯域にピーク波長を有する。
特定の波長帯域の第4例は、被検体内の蛍光物質が発する蛍光の観察(蛍光観察)に用いられ、かつこの蛍光物質を励起させる励起光の波長帯域(390nmから470nm)である。
特定の波長帯域の第5例は、赤外光の波長帯域である。この第5例の波長帯域は、790nm以上820nm以下又は905nm以上970nm以下の波長帯域を含み、かつ第5例の光は、790nm以上820nm以下又は905nm以上970nm以下の波長帯域にピーク波長を有する。
内視鏡プロセッサ装置12は、コネクタ37b及び信号ケーブル36を介して、内視鏡スコープ10の動作を制御する。また、内視鏡プロセッサ装置12は、コネクタ37b及び信号ケーブル36を介して内視鏡スコープ10の撮像部28から取得した撮像信号に基づき、被写体像を含む時系列のフレーム画像38a(図2参照)からなる時系列画像(複数の内視鏡画像の一例)である動画38を生成する。動画38のフレームレートは、例えば30fps(frame per second)である。即ち、撮像部28は、複数のフレーム画像38aを順次撮影するカメラに相当する。
さらに、内視鏡プロセッサ装置12は、内視鏡スコープ10の手元操作部21にて静止画撮影指示部32が操作された場合、動画38の生成と並行して、動画38中の1枚のフレーム画像38aを撮影指示のタイミングに応じて取得し、静止画39とする。
動画38及び静止画39は、被検体内を撮像した内視鏡画像である。さらに動画38及び静止画39が、上述の特定の波長帯域の光(特殊光)により得られた画像である場合、両者は特殊光画像である。そして、内視鏡プロセッサ装置12は、生成した動画38及び静止画39を、表示装置13と内視鏡画像処理装置14とにそれぞれ出力する。
なお、内視鏡プロセッサ装置12は、上述の白色光により得られた通常光画像に基づいて、上述の特定の波長帯域の情報を有する特殊光画像を生成(取得)してもよい。この場合、内視鏡プロセッサ装置12は、特殊光画像取得部として機能する。そして、内視鏡プロセッサ装置12は、特定の波長帯域の信号を、通常光画像に含まれる赤(Red)、緑(Green)、及び青(Blue)のRGB色情報あるいはシアン(Cyan)、マゼンタ(Magenta)、及びイエロー(Yellow)のCMY色情報に基づく演算を行うことで得る。
また、内視鏡プロセッサ装置12は、例えば、上述の白色光により得られた通常光画像、及び上述の特定の波長帯域の光(特殊光)により得られた特殊光画像の少なくとも一方に基づいて、公知の酸素飽和度画像等の特徴量画像を生成してもよい。この場合、内視鏡プロセッサ装置12は、特徴量画像生成部として機能する。なお、上記の通常光画像、特殊光画像、及び特徴量画像を含む動画38又は静止画39は、いずれも画像による診断、検査の目的で人体を撮像し、又は計測した結果を画像化した内視鏡画像である。
表示装置13は、内視鏡プロセッサ装置12に接続されている。表示装置13は、内視鏡プロセッサ装置12から入力された動画38及び静止画39を表示する。内視鏡操作者は、表示装置13に表示される動画38を確認しながら、挿入部20の進退操作等を行う。また、内視鏡操作者は、被観察部位に病変等を発見した場合には、静止画撮影指示部32を操作して被観察部位の静止画撮像を実行し、診断及び生検等を行う。
<内視鏡画像処理装置の構成>
内視鏡画像処理装置14は、主として時系列画像に含まれる注目領域を内視鏡操作者に報知するものであり、例えばパーソナルコンピュータが用いられる。また、操作部15は、パーソナルコンピュータに有線接続又は無線接続されるキーボード及びマウス等が用いられ、表示器16(表示部の一例)はパーソナルコンピュータに接続可能な液晶モニタ等の各種モニタが用いられる。内視鏡画像処理装置14は、操作部15及び表示器16とともに、診断支援装置、又は医療業務支援装置として機能する。
図2は、内視鏡画像処理装置14の電気的構成を示すブロック図である。図2に示すように、内視鏡画像処理装置14は、時系列画像取得部40、注目領域検出部41、注目領域情報取得部42、制御部44、表示制御部45、動作認識部46、及び記憶部47を備える。
制御部44は、記憶部47に記憶されたプログラム(内視鏡画像処理プログラム)51に基づいて、時系列画像取得部40、注目領域検出部41、注目領域情報取得部42、表示制御部45、及び動作認識部46を統括制御し、また、これらの各部の一部として機能する。
記憶部47は、撮像された静止画39、注目領域検出部41による検出結果、プログラム51、及び内視鏡画像処理装置14の各種制御に係る情報等を記憶する。また、記憶部47は、報知情報である注目領域情報を構成する図形を記憶する図形記憶部48、及び注目領域情報の強調方法を記憶する強調方法記憶部50を備える。
時系列画像取得部40は、内視鏡プロセッサ装置12(図1)に有線接続又は無線接続された不図示の画像入出力インターフェースを用いて、内視鏡プロセッサ装置12から被写体像を含む時系列のフレーム画像38aからなる動画38(本例では、内視鏡スコープ10により撮像される動画38)を取得する。また、内視鏡スコープ10にて動画38の撮像途中に既述の静止画39の撮像が行われた場合、時系列画像取得部40は、内視鏡プロセッサ装置12から動画38及び静止画39を取得する。
なお、時系列画像取得部40は、内視鏡プロセッサ装置12から動画38を直接取得する代わりに、メモリーカード、ハードディスク装置等の各種情報記憶媒体を介して動画38を取得してもよい。また、時系列画像取得部40は、インターネット上のサーバあるいはデータベース等にアップロードされた動画38をインターネット経由で取得してもよい。
注目領域検出部41は、被観察部位の観察中に撮像された動画38から注目領域を検出する部分である。注目領域検出部41は、動画38の各フレーム画像38a(又は間引かれた一定間隔のフレーム画像38a)の特徴量を算出し、画像内の注目領域の認識処理を行う畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を含み、画像内の色情報、画素値の勾配等で特徴量を算出する。注目領域検出部41は、算出された特徴量を用いて画像内の病変等の注目領域を検出する。
注目領域の例としては、ポリープ、癌、大腸憩室、炎症、EMR(Endoscopic Mucosal Resection)瘢痕、ESD(Endoscopic Submucosal Dissection)瘢痕、クリップ箇所、出血点、穿孔、血管異型性、及び処置具等がある。
注目領域検出部41は、検出された注目領域が、「腫瘍性」、「非腫瘍性」、「その他」といった病変に関する複数のカテゴリのうちのいずれのカテゴリに属するかのカテゴリ分類等の認識結果を取得することも可能である。
なお、注目領域検出部41は、CNNにより注目領域を検出するものに限らず、画像内の色、画素値の勾配、形状、大きさ等の特徴量を画像処理により解析して注目領域を検出するものでもよい。
注目領域情報取得部42は、注目領域検出部41により注目領域が検出された場合、注目領域検出部41から注目領域を示す注目領域情報を取得する。注目領域情報は、例えば画像内の注目領域の輪郭の座標情報、及び注目領域の特徴量である。注目領域情報は、注目領域の有無の情報であってもよい。
なお、時系列画像取得部40が注目領域情報が関連付けられている動画38を取得する場合は、注目領域情報取得部42は、その関連付けられた注目領域情報を取得すればよい。
動作認識部46は、被観察部位の観察中に撮像された動画38から被観察部位に対する内視鏡操作者の動作を認識する部分である。被観察部位に対する内視鏡操作者の動作としては、「処置具使用」、「洗浄(送水)」、「拡大観察」、及び「色素観察」を含む。被観察部位に対する内視鏡操作者の動作は、「挿入」、「抜去」、及び「測長」を含んでもよい。
動作認識部46は、動画38の各フレーム画像38aの特徴量を算出して画像の認識処理を行うCNNを含み、画像内の色情報、画素値の勾配等で特徴量を算出する。動作認識部46は、算出された特徴量を用いて被観察部位に対する内視鏡操作者の動作を認識する。動作認識部46は、動画38のうちの少なくとも一部のフレーム画像38aから内視鏡操作者の動作を認識してもよい。
表示制御部45は、画像表示制御部45A及び報知情報表示制御部45Bを備えている。画像表示制御部45Aは、時系列画像取得部40が取得した動画38を表示器16に出力し、表示器16に動画38を表示させる。即ち、表示器16には、複数のフレーム画像38aが順次表示される。
報知情報表示制御部45Bは、注目領域情報取得部42が取得した注目領域情報を表示器16に出力する。ここでは、報知情報表示制御部45Bは、強調方法記憶部50に記憶された強調方法による注目領域情報を出力する。これにより、表示器16には、複数のフレーム画像38aとともに強調方法記憶部50に記憶された強調方法によって注目領域情報が表示される。
また、報知情報表示制御部45Bは、動作認識部46の認識結果に応じて、注目領域情報を動画38内の位置に第1強調レベルで表示する第1強調表示と、注目領域情報を第1強調レベルよりも相対的に小さい第2強調レベルで表示する第2強調表示とを切り替える。強調表示の詳細については後述する。
<内視鏡画像処理方法:第1の実施形態>
内視鏡システム1を用いた内視鏡画像処理方法について説明する。図3は、第1の実施形態に係る内視鏡画像処理方法の各処理を示すフローチャートである。内視鏡画像処理方法は、画像取得工程(ステップS1)、画像表示工程(ステップS2)、注目領域検出工程(ステップS3)、動作認識工程(ステップS5)、第1強調表示工程(ステップS7)、及び第2強調表示工程(ステップS8)を含む。
ステップS1では、時系列画像取得部40は、内視鏡操作者によって被観察部位が順次撮影された複数の内視鏡画像を取得する。ここでは、時系列画像取得部40は、内視鏡スコープ10により撮像される動画38のフレーム画像38aを取得する。
ステップS2では、画像表示制御部45Aは、時系列画像取得部40が取得した複数のフレーム画像38aを表示器16に順次表示する。これにより、表示器16には動画38が表示される。
ステップS3では、注目領域検出部41は、ステップS1で取得したフレーム画像38aから注目領域を検出する。また、注目領域情報取得部42は、注目領域検出部41により注目領域が検出された場合、注目領域検出部41から注目領域を示す注目領域情報を取得する。
ステップS4では、制御部44は、ステップS3において注目領域が検出されたか否かを判定する。注目領域が検出された場合は、ステップS5へ移行する。一方、注目領域が検出されない場合は、ステップS9へ移行する。
ステップS5では、動作認識部46は、フレーム画像38aから被観察部位に対する内視鏡操作者の動作を認識する。動作認識部46は、フレーム画像38aに処置具が写っていると認識した場合は、内視鏡操作者の動作を「処置具使用」と認識する。動作認識部46は、フレーム画像38aに水が写っていると認識した場合は、内視鏡操作者の動作を「洗浄」と認識する。動作認識部46は、フレーム画像38aが拡大撮影されていると認識した場合は、内視鏡操作者の動作を「拡大観察」と認識する。動作認識部46は、フレーム画像38aに色素が写っていると認識した場合は、内視鏡操作者の動作を「色素観察」と認識する。
また、動作認識部46は、複数のフレーム画像38aから挿入部20(図1参照)の移動方向を判断し、挿入方向であると認識した場合は内視鏡操作者の動作を「挿入」と認識し、抜去方向であると認識した場合は内視鏡操作者の動作を「抜去」と認識してもよい。また、動作認識部46は、挿入部20が被検体内の折り返し地点に到達するまでを「挿入」、折り返し地点に到達してからを「抜去」と認識してもよい。
さらに、動作認識部46は、フレーム画像38aに目盛等を有するメジャー鉗子が写っていると認識した場合は、内視鏡操作者の動作を「測長」と認識する。また、動作認識部46は、フレーム画像38aに測長用のマーカが写っていると認識した場合は、内視鏡操作者の動作を「測長」と認識する。この場合の測長は、内視鏡先端からレーザ等のポインティングデバイスによりマーカとなる光を射出し、そのマーカの画像中の位置を計測することにより行われる。したがって、フレーム画像38aに測長用のマーカを認識することで、内視鏡操作者の動作を「測長」と認識することができる。
ステップS6では、制御部44は、ステップS5において特定の動作が認識されたか否かを判定する。ここでは、特定の動作は、「処置具使用」、「洗浄」、「拡大観察」、及び「色素観察」のうちの少なくとも1つの動作である。特定の動作が認識されない場合(非認識の場合)は、通常の観察状態であると判断してステップS7へ移行する。一方、特定の動作が認識された場合は、ステップS8へ移行する。
ステップS7(表示制御工程の一例)では、報知情報表示制御部45Bは、注目領域情報を動画38内の位置に重畳して第1強調レベルで表示する(第1強調表示)。
ステップS8(表示制御工程の一例)では、報知情報表示制御部45Bは、注目領域情報を第1強調レベルよりも相対的に小さい第2強調レベルで表示する(第2強調表示)。
ステップS9では、内視鏡システム1による検査が終了したか否かを判定する。検査は、内視鏡操作者が操作部15を操作することで終了する。検査が終了した場合は、本フローチャートの処理を終了する。検査が終了していない場合は、ステップS1へ戻り、同様の処理を繰り返す。
図4は、注目領域が検出された際の表示器16の表示の一例を示す図である。図4に示すF4Aは、第1強調表示の一例を示す図である。F4Aのフレーム画像38aには、注目領域Rが写っている。F4Aでは、注目領域情報として、検出された注目領域Rの位置を示す枠形状の図形60が、フレーム画像38aに重畳して表示される。
また、図4に示すF4Bは、第2強調表示の一例を示す図である。F4Bのフレーム画像38aには、注目領域R及び処置具Tが写っている。F4Bでは、フレーム画像38aに写っている処置具Tにより、内視鏡操作者の動作が「処置具使用」であると認識される。F4Bでは、注目領域情報として、検出された注目領域Rの位置を示す枠形状の図形62が、フレーム画像38aに重畳して表示される。
図形60及び図形62は、形状、大きさ、及び線の太さが同じである。また、図形62の透過度は、図形60の透過度よりも相対的に高い。これにより、図形60は第1強調レベルで注目領域情報を強調し、図形62は第1強調レベルよりも相対的に小さい第2強調レベルで注目領域情報を強調する。
F4Bに示した例では、報知情報表示制御部45Bは、第1強調レベルの図形よりも第2強調レベルの図形の透過度を高くすることで強調レベルを小さくしたが、図形の線の太さを細くすることで強調レベルを小さくしてもよい。
図4に示すF4Cは、第2強調表示の一例を示す図である。F4Cのフレーム画像38aは、F4Bのフレーム画像38aと同様である。F4Cでは、注目領域情報として、検出された注目領域Rの位置を示す枠形状の図形64が、フレーム画像38aに重畳して表示される。図形60及び図形64は、形状、大きさ、及び透過度が同じである。また、図形64の線の太さは、図形60の線の太さよりも相対的に細い。これにより、図形60は第1強調レベルで注目領域情報を強調し、図形64は第1強調レベルよりも相対的に小さい第2強調レベルで注目領域情報を強調する。
報知情報表示制御部45Bは、第1強調レベルの図形と第2強調レベルの図形とを異ならせることで強調レベルを変更してもよい。
図4に示すF4Dは、第2強調表示の一例を示す図である。F4Dのフレーム画像38aは、F4Bのフレーム画像38aと同様である。F4Dでは、注目領域情報として、検出された注目領域Rを囲う矩形の四隅の位置に配置された4つの三角形状の図形66が、フレーム画像38aに重畳して表示される。図形60及び図形66は、形状が異なる。4つの図形66の総面積は、図形60の面積よりも相対的に小さい。これにより、図形60は第1強調レベルで注目領域情報を強調し、図形66は第1強調レベルよりも相対的に小さい第2強調レベルで注目領域情報を強調する。
報知情報表示制御部45Bは、図形の形状、大きさ、及び透過度の少なくとも2つを変更することで強調レベルを変更してもよい。
第1強調表示及び第2強調表示の強調方法は、予め強調方法記憶部50に記憶されている。報知情報表示制御部45Bは、強調方法記憶部50から第1強調表示及び第2強調表示の強調方法を読み出して、読み出した強調方法に応じて注目領域情報を表示器16に表示させる。また、図形60、図形62、図形64、及び図形66は、図形記憶部48に記憶されている。
このように、報知情報表示制御部45Bは、動作認識部46の認識結果に応じて、注目領域情報を第1強調レベルで表示する第1強調表示と、第1強調レベルよりも相対的に小さい第2強調レベルで表示する第2強調表示とを切り替えることで、フレーム画像38aに含まれる注目領域の注目領域情報を内視鏡操作者の動作に応じて適切に報知する。即ち、報知情報表示制御部45Bは、内視鏡操作者が通常の観察を行っている場合は、注目領域情報をフレーム画像38a内の位置に第1強調レベルで重畳して表示する。これにより、内視鏡操作者が通常の観察を行っている場合は、注目領域情報がフレーム画像38a内の位置に重畳されることで、内視鏡操作者が注目領域を容易に認識することができる。
また、報知情報表示制御部45Bは、内視鏡操作者が通常の観察ではない特定の動作を行っている場合は、注目領域情報をフレーム画像38a内の位置に第1強調レベルよりも相対的に小さい第2強調レベルで重畳して表示する。これにより、特定の動作においても注目領域情報の表示が動作を阻害することがなく、さらに注目領域の検出を継続するために注目領域を見落とすことを防止することができる。
<第2の実施形態>
強調方法記憶部50に記憶される第1強調表示及び第2強調表示の強調方法は、図4に示した例に限定されない。注目領域情報は、フレーム画像38a内の位置に重畳して表示するのではなく、フレーム画像38aとは異なる位置に表示してもよい。
図5は、注目領域が検出された際の表示器16の表示の一例を示す図である。図5に示すF5Aは、第1強調表示の一例を示す図である。F5Aのフレーム画像38aには、注目領域Rが写っている。F5Aでは、注目領域情報として、検出された注目領域Rの位置を示す枠形状の図形60が、フレーム画像38aに重畳して表示される。
また、図5に示すF5Bは、第2強調表示の一例を示す図である。F5Bのフレーム画像38aには、注目領域R及び処置具Tが写っている。F5Bでは、フレーム画像38aに写っている処置具Tにより、内視鏡操作者の動作が「処置具使用」であると認識される。F5Bでは、注目領域情報として、検出された注目領域Rの位置を示す画像枠形状の図形68が、フレーム画像38aの周囲の第1象限の位置(フレーム画像38aとは異なる位置の一例)に表示される。図形68は、検出された注目領域Rの位置に応じて、フレーム画像38aの第1象限、第2象限、第3象限、及び第4象限に相当する位置のいずれかの位置の周囲に配置される。
図形60はフレーム画像38a内の位置に重畳されることで、強調レベルが相対的に高い。また、図形68はフレーム画像38aとは異なる位置に表示されることで、強調レベルが相対的に低い。これにより、図形60は第1強調レベルで注目領域情報を強調し、図形68は第1強調レベルよりも相対的に小さい第2強調レベルで注目領域情報を強調する。したがって、フレーム画像38aに含まれる注目領域の注目領域情報を内視鏡操作者の動作に応じて適切に報知することができる。
画像枠形状の図形68を第1強調表示に使用してもよい。図5に示すF5Cは、第1強調表示の一例を示す図である。F5Cでは、注目領域情報として、検出された注目領域Rの位置を示す枠形状の図形60がフレーム画像38aに重畳して表示され、かつ図形68がフレーム画像38aの周囲に表示される。即ち、第1強調表示においてフレーム画像38a内外の両方に注目領域情報を表示する。F5Cに示す第1強調表示とF5Bに示す第2強調表示とを切り替えることで、フレーム画像38aに含まれる注目領域の注目領域情報を内視鏡操作者の動作に応じて適切に報知することができる。
<第3の実施形態>
強調方法記憶部50は、動作認識部46が認識する特定の動作毎に第2強調表示の強調方法をテーブルとして記憶してもよい。図6は、強調方法記憶部50が記憶するテーブルの一例を示す図である。
図6に示すように、強調方法記憶部50は、動作認識部46が認識する動作毎に、「検出自動制御の有無」、「動作認識時の強調表示方法」、及び「動作認識時の強調レベル」をテーブルとして記憶している。即ち、ここでの強調方法とは、「検出自動制御の有無」、「動作認識時の強調表示方法」、及び「動作認識時の強調レベル」を総合した情報のことを指す。
「検出自動制御の有無」は、第1強調表示と第2強調表示の切り替えの有無を意味している。「オン」の場合は、対応する動作が認識された際に、「動作認識時強調表示方法」等の情報を元に表示の切り替えを行う。「オフ」の場合は、対応する動作が認識された場合であっても、第1強調表示の強調方法を継続する。
「動作認識時強調表示方法」は、第2強調表示において表示する図形を意味しており、「検出自動制御」が「オン」の場合に設定される。「枠重畳(透過)」は、図4のF4Bのように、第1強調表示から図形の透過度を変更する方法である。「枠重畳(線幅)」は、図4のF4Cのように、第1強調表示から線の太さを変更する方法である。「四隅図形重畳」は、図4のF4Dのように、第1強調表示から図形の形状を変更する方法であり、図形の形状を四隅の位置に配置された図形に変更する方法である。「画面外表示のみ」は、図5のF5Bのように、第1強調表示から図形をフレーム画像38aとは異なる位置のみの配置に変更する方法である。
「動作認識時の強調レベル」は、第2強調レベルを意味しており、「動作認識時強調表示方法」が特定の表示方法の場合に設定される。「動作認識時の強調レベル」は、0〜10の値に数値化されている。最小値である「0」の場合は、注目領域情報を全く表示しない場合と同様である。最大値である「10」の場合は、「検出自動制御」がオフの場合と同様である。即ち、第1強調レベルの値は「10」である。
ここでは「動作認識時の強調レベル」を1〜10の段階の例を示したが、強調レベルを示せる値であればよい。
報知情報表示制御部45Bは、動作認識部46の認識結果に応じて、強調方法記憶部50のテーブルから第2強調表示の強調方法を読み出し、読み出した強調方法で注目領域情報を表示する。例えば、動作認識部46が「処置具使用」を認識した場合は、検出自動制御が「オン」であるので、報知情報表示制御部45Bは、第2強調レベルが「5」の「枠重畳(透過)」の第2強調表示に切り替える。強調レベルが「0」の場合は透過度100%、「10」の場合は透過度0%であるとすると、「5」の場合は50%の透過度となる。
動作認識部46が「洗浄」を認識した場合は、検出自動制御が「オン」であるので、報知情報表示制御部45Bは、第2強調レベルが「3」の「枠重畳(線幅)」の第2強調表示に切り替える。強調レベルが「0」の場合は線幅0ピクセル、強調レベルが「10」の場合は線幅10ピクセルであるとすると、「3」の場合は3ピクセルの線幅となる。
動作認識部46が「拡大観察」を認識した場合は、検出自動制御が「オン」であるので、報知情報表示制御部45Bは、「四隅図形重畳」の第2強調表示に切り替える。動作認識部46が「色素観察」を認識した場合は、検出自動制御が「オン」であるので、報知情報表示制御部45Bは、「画面外表示のみ」の第2強調表示に切り替える。「拡大観察」及び「色素観察」は、強調レベルが設定できない例である。
なお、動作認識部46が「挿入」を認識した場合は、検出自動制御が「オフ」であるので、報知情報表示制御部45Bは、第2強調表示には切り替えずに第1強調表示を維持する。動作認識部46は、検出自動制御が「オフ」の動作の認識を停止してもよい。
<第4の実施形態>
第2強調表示への切り替えについて、動作認識部46の認識結果に優先順位を付与してもよい。図7は、強調方法記憶部50が記憶するテーブルの一例を示す図である。図7に示すテーブルは、図6に示すテーブルに加えて、各動作に優先順位が付与されている。ここでは、「処置具使用」、「洗浄」、「拡大観察」、「色素観察」、「挿入」の順に高い優先順位が付与されている。
本実施形態では、報知情報表示制御部45Bは、動作認識部46が複数の動作を同時に認識した場合に、相対的に高い優先順位が付与された動作の強調方法で注目領域情報を表示する。例えば、動作認識部46が「処置具使用」及び「色素観察」を認識した場合、報知情報表示制御部45Bは、優先順位が相対的に高い「処置具使用」の強調方法を採用する。即ち、報知情報表示制御部45Bは、第2強調レベルが「5」の「枠重畳(透過)」の第2強調表示に切り替える。
このように、優先順位を付与することで、複数の動作が認識された際に適切な強調表示を行うことができる。
また、設定された強調方法に従って優先順位を自動的に設定してもよい。自動的に設定する基準としては、例えば、動作認識時強調レベルが相対的に高い動作に高い優先順位を付与する。
図8は、強調方法記憶部50が記憶するテーブルの一例を示す図である。図8に示すように、この例では、動作が「処置具使用」の場合は、検出自動制御は「オン」であり、動作認識時強調表示方法は「枠重畳(透過)」であり、動作認識時強調レベルは「3」である。また、動作が「洗浄」の場合は、検出自動制御は「オフ」である。さらに、動作が「色素観察」の場合は、検出自動制御は「オン」であり、動作認識時強調表示方法は「枠重畳(透過)」であり、動作認識時強調レベルは「0」である。
したがって、動作認識部46が「色素観察」を認識した場合は、検出自動制御が「オン」であるので、報知情報表示制御部45Bは、第2強調レベルが「0」の「枠重畳(透過)」の第2強調表示に切り替える(即ち、枠は表示されない)。その後、動作認識部46が「処置具使用」及び「色素観察」を認識した場合は、報知情報表示制御部45Bは、相対的に高い動作認識時強調レベルが付与されている「処置具使用」を優先し、第2強調レベルが「3」の「枠重畳(透過)」の第2強調表示に切り替える。
また、動作認識部46が「色素観察」を認識して第2強調表示に切り替えた後に、動作認識部46が「洗浄」及び「色素観察」を認識した場合は、報知情報表示制御部45Bは、「色素観察」よりも検出自動制御が「オフ」である「洗浄」の方が相対的に高い動作認識時強調レベルであると判断し、第1強調表示に切り替える。
このように、優先順位を自動的に設定した場合も、複数の動作が認識された際に適切な強調表示を行うことができる。
<第5の実施形態>
強調方法記憶部50が記憶するテーブルの内容は、内視鏡操作者等が好みに応じて変更可能であることが好ましい。ここでは、現在のテーブルの内容を表示器16に表示させ、内視鏡操作者が操作部15(入力部の一例)を用いて変更をする例を説明する。なお、以下において、内視鏡操作者が操作部15を用いて画面内のカーソルC(図9参照)を所望の位置に配置して選択動作を行う操作を、単に「操作部15の操作」と表記する場合がある。
図9は、内視鏡操作者等がテーブルの内容を変更するためのユーザインターフェースの一例であり、表示器16に表示されるテーブル変更画面100を示す図である。制御部44は強調方法記憶部50からテーブルを読み出し、表示制御部45は読み出されたテーブルに基づいて表示器16にテーブル変更画面100を表示させる。
図9に示すように、テーブル変更画面100には、動作毎に、「検出自動制御の有無」、「動作認識時強調表示方法」、及び「動作認識時の強調レベル」の現在の設定状態が表示される。現在の設定状態の右側にはそれぞれドロップダウンボタン102が配置されている。
テーブル変更画面100において、内視鏡操作者が操作部15を操作して所望のドロップダウンボタン102の位置にカーソルCを配置して選択動作を行うと、プルダウンメニュー104が表示される。図9に示す例では、「処置具使用」の動作の「動作認識時強調レベル」の現在の設定状態「5」の右側のドロップダウンボタン102が選択され、「動作認識時強調レベル」のプルダウンメニュー104が表示されている。ここでのプルダウンメニュー104には、「動作認識時強調レベル」として設定可能な「0」から「10」までの値が選択可能に表示されている。
この状態から、内視鏡操作者が操作部15の操作により所望の値を選択すると、「動作認識時強調レベル」は選択された値に変更される。
また、テーブル変更画面100では、内視鏡操作者が編集中の項目について、動作認識時の表示がどのように変化するかを例示する。テーブル変更画面100では、第1強調表示プレビュー106及び第2強調表示プレビュー110が表示される。
第1強調表示プレビュー106には、第1強調表示における注目領域情報である枠形状の図形108が表示される。
また、図9に示す例では、カーソルCによって「処置具使用」の動作の「動作認識時強調レベル」のドロップダウンボタン102を操作しているため、第2強調表示プレビュー110として「処置具使用」の動作における第2強調表示のプレビューが表示される。第2強調表示プレビュー110には、「処置具使用」の動作の認識時の第2強調表示における注目領域情報である枠形状の図形112が表示される。ここでは、現在の設定状態である「動作認識時強調表示方法」が「枠重畳(透過)」、かつ「動作認識時強調レベル」が「5」の図形112が表示される。
内視鏡操作者は、第1強調表示プレビュー106及び第2強調表示プレビュー110を視認することで、強調表示の変化を確認することができる。
最後に、内視鏡操作者が操作部15により変更終了の操作を行うと、制御部44は、変更されたテーブルの設定状態を強調方法記憶部50に記憶させ、設定変更の処理を終了する。
内視鏡操作者等がテーブルの内容を変更するためのユーザインターフェースは、図9に示したテーブル変更画面100に限定されない。例えば、動作毎の階層構造の画面としてもよい。
図10及び図11は、内視鏡操作者等がテーブルの内容を変更するためのユーザインターフェースの他の例を示す図であり、それぞれ表示器16に表示されるテーブル変更第1画面120及びテーブル変更第2画面130を示す図である。制御部44は強調方法記憶部50からテーブルを読み出し、表示制御部45は読み出されたテーブルに基づいて表示器16にテーブル変更第1画面120及びテーブル変更第2画面130のいずれか一方を表示させる。表示制御部45は、最初に表示器16にテーブル変更第1画面120を表示させる。
テーブル変更第1画面120は、各動作の検出自動制御の有無を設定するための画面である。図10に示すように、テーブル変更第1画面120には、「処置具使用」、「洗浄」、「拡大観察」、「色素観察」、「挿入」の各動作について、それぞれ「検出自動制御」の有無を設定するためのオンオフボタン122が配置されている。内視鏡操作者は、操作部15の操作により、各動作のオンオフボタン122をそれぞれオン状態又はオフ状態に設定することができる。オンオフボタン122をオン状態に設定すると「検出自動制御」がオンになり、オンオフボタン122をオフ状態に設定すると「検出自動制御」がオフになる。
オンオフボタン122がオン状態にされた動作については、オンオフボタン122の右側に移行ボタン124が現れる。図10に示す例では、「処置具使用」、「洗浄」、「拡大観察」、「色素観察」がオン状態にされているため、これらのオンオフボタン122の右側にそれぞれ移行ボタン124が表示されている。また、「挿入」はオフ状態に設定されているため、移行ボタン124は表示されていない。
内視鏡操作者が、操作部15の操作によりいずれか動作の移行ボタン124を選択すると、表示制御部45は、読み出されたテーブルに基づいて表示器16にテーブル変更第2画面130を表示させる。図11は、「処置具使用」の動作に対応するテーブル変更第2画面130を示している。
テーブル変更第2画面130は、選択された移行ボタン124に対応する動作の「動作認識時強調表示方法」及び「動作認識時強調レベル」を設定するための画面である。テーブル変更第2画面130には、「動作認識時強調表示方法」及び「動作認識時の強調レベル」の現在の設定状態が表示される。ここでは、「動作認識時強調表示方法」は「枠重畳(透過)」、「動作認識時強調レベル」は「5」が表示されている。
「動作認識時強調表示方法」の現在の設定状態の右側には、ドロップダウンボタン132が配置されている。内視鏡操作者が操作部15の操作によりドロップダウンボタン132を選択すると、不図示のプルダウンメニューが表示される。内視鏡操作者が、操作部15の操作によりプルダウンメニューの中から所望の方法を選択すると、「動作認識時強調表示方法」は選択された方法に変更される。
また、「動作認識時強調レベル」の現在の設定状態の右側には、スライドバー134及びスライドボタン136が配置されている。スライドバー134は、左右方向に延在するバー形状の図形である。スライドバー134は、最左端の強調レベル「10」から最右端の強調レベル「0」まで、スライドバー134内の各位置が強調レベルに相当する。スライドボタン136は、スライドバー134内を移動可能に配置された図形である。スライドバー134内におけるスライドボタン136の位置が、設定された強調レベルを表す。内視鏡操作者が操作部15の操作によりスライドバー134内のスライドボタン136の位置を変更すると、「動作認識時強調レベル」は変更されたスライドボタン136の位置に対応する強調レベルに変更される。
第3の実施形態の「拡大観察」及び「色素観察」のように、「動作認識時強調レベル」が設定できない「動作認識時強調表示方法」が選択された場合は、表示制御部45は、スライドバー134及びスライドボタン136を非アクティブに表示する、又はスライドバー134及びスライドボタン136を表示しない。
また、テーブル変更第2画面130では、テーブル変更画面100と同様に、第1強調表示プレビュー106、及び第2強調表示プレビュー110が表示される。第2強調表示プレビュー110は、テーブル変更第2画面130において設定されている「動作認識時強調表示方法」及び「動作認識時の強調レベル」の第2強調表示のプレビューが表示される。
表示器16にテーブル変更第2画面130が表示された状態において、内視鏡操作者は操作部15により表示器16にテーブル変更第1画面120が表示された状態に戻すことができる。
テーブル変更第1画面120が表示器16に表示された状態で、内視鏡操作者が操作部15の操作により変更終了の操作を行うと、制御部44は、変更されたテーブルの設定状態を強調方法記憶部50に記憶させ、設定変更の処理を終了する。
以上のように、強調方法記憶部50が記憶するテーブルの内容を変更可能とすることで、内視鏡操作者は好みに応じた強調表示を設定することができる。
ここでは、内視鏡操作者がカーソルCを用いて設定する例を説明したが、内視鏡操作者がキーボード等から文字等を入力するように構成してもよい。また、テーブルの変更は、内視鏡画像処理装置14において行われることに限定されず、その他のパーソナルコンピュータ等において行われてもよい。
<その他>
上記の内視鏡画像処理方法は、各工程をコンピュータに実現させるためのプログラムとして構成し、このプログラムを記憶したCD−ROM(Compact Disk-Read Only Memory)等の非一時的な記録媒体を構成することも可能である。
ここまで説明した実施形態において、例えば、内視鏡画像処理装置14の各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、画像処理に特化したプロセッサであるGPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ、又はCPUとGPUの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、サーバ及びクライアント等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、各種のプロセッサを1つ以上用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)である。
本発明の技術的範囲は、上記の実施形態に記載の範囲には限定されない。各実施形態における構成等は、本発明の趣旨を逸脱しない範囲で、各実施形態間で適宜組み合わせることができる。
1…内視鏡システム
10…内視鏡スコープ
11…光源装置
12…内視鏡プロセッサ装置
13…表示装置
14…内視鏡画像処理装置
15…操作部
16…表示器
20…挿入部
21…手元操作部
22…ユニバーサルコード
25…軟性部
26…湾曲部
27…先端部
28…撮像部
29…湾曲操作ノブ
30…送気送水ボタン
31…吸引ボタン
32…静止画撮影指示部
33…処置具導入口
35…ライトガイド
36…信号ケーブル
37a…コネクタ
37b…コネクタ
38…動画
38a…フレーム画像
39…静止画
40…時系列画像取得部
41…注目領域検出部
42…注目領域情報取得部
44…制御部
45…表示制御部
45A…画像表示制御部
45B…報知情報表示制御部
46…動作認識部
47…記憶部
48…図形記憶部
50…強調方法記憶部
51…プログラム(内視鏡画像処理プログラム)
60…図形
62…図形
64…図形
66…図形
68…図形
100…テーブル変更画面
102…ドロップダウンボタン
104…プルダウンメニュー
106…第1強調表示プレビュー
108…図形
110…第2強調表示プレビュー
112…図形
120…テーブル変更第1画面
122…オンオフボタン
124…移行ボタン
130…テーブル変更第2画面
132…ドロップダウンボタン
134…スライドバー
136…スライドボタン

Claims (16)

  1. 内視鏡操作者によって被観察部位が順次撮影された複数の内視鏡画像であって、表示部に順次表示される複数の内視鏡画像に含まれる注目領域の注目領域情報を前記表示部に表示する表示制御部と、
    前記複数の内視鏡画像のうちの少なくとも一部の内視鏡画像から前記被観察部位に対する前記内視鏡操作者の動作を認識する動作認識部と、
    を備え、
    前記表示制御部は、前記動作認識部の認識結果に応じて、前記注目領域情報を前記内視鏡画像内の位置に第1強調レベルで表示する第1強調表示と、前記注目領域情報を前記第1強調レベルよりも相対的に小さい第2強調レベルで表示する第2強調表示とを切り替える内視鏡画像処理装置。
  2. 前記複数の内視鏡画像を取得する画像取得部と、
    前記取得した内視鏡画像から注目領域を検出する注目領域検出部と、
    前記検出した注目領域の注目領域情報を取得する注目領域情報取得部と、
    を備える請求項1に記載の内視鏡画像処理装置。
  3. 前記表示制御部は、前記取得した複数の内視鏡画像を前記表示部に順次表示する請求項2に記載の内視鏡画像処理装置。
  4. 前記動作認識部は、特定の動作の有無を認識し、
    前記表示制御部は、前記動作認識部が前記特定の動作を非認識の場合は前記第1強調表示を行い、前記特定の動作を認識した場合は前記第2強調表示を行う請求項1から3のいずれか1項に記載の内視鏡画像処理装置。
  5. 前記特定の動作は処置具使用、洗浄、拡大観察、及び色素観察のうちの少なくとも1つの動作である請求項4に記載の内視鏡画像処理装置。
  6. 前記表示制御部は、前記注目領域情報に基づく図形を表示する請求項1から5のいずれか1項に記載の内視鏡画像処理装置。
  7. 前記第1強調レベル及び前記第2強調レベルは、前記図形の色、形状、及び透過度の少なくとも1つが異なる請求項6に記載の内視鏡画像処理装置。
  8. 前記第1強調表示は、前記注目領域情報を前記内視鏡画像とは異なる位置に表示する請求項1から7のいずれか1項に記載の内視鏡画像処理装置。
  9. 前記第2強調表示は、前記注目領域情報を前記内視鏡画像内の位置に表示する請求項1から8のいずれか1項に記載の内視鏡画像処理装置。
  10. 前記第2強調表示は、前記注目領域情報を前記内視鏡画像とは異なる位置に表示する請求項1から9のいずれか1項に記載の内視鏡画像処理装置。
  11. 前記注目領域情報の強調方法を記憶する強調方法記憶部を有し、
    前記表示制御部は、前記強調方法記憶部に記憶された前記強調方法によって前記注目領域情報を表示する請求項1から10のいずれか1項に記載の内視鏡画像処理装置。
  12. 前記強調方法記憶部は、前記動作認識部が認識する動作毎に前記強調方法を記憶する請求項11に記載の内視鏡画像処理装置。
  13. 前記強調方法を設定して前記強調方法記憶部に記憶させる入力部を備える請求項11又は12に記載の内視鏡画像処理装置。
  14. 前記表示部と、
    被検体内に挿入される内視鏡スコープと、
    前記被検体内の被観察部位の複数の内視鏡画像を順次撮影するカメラと、
    請求項1から13のいずれか1項に記載の内視鏡画像処理装置と、
    を備える内視鏡システム。
  15. 内視鏡操作者によって被観察部位が順次撮影された複数の内視鏡画像であって、表示部に順次表示される複数の内視鏡画像に含まれる注目領域の注目領域情報を前記表示部に表示する表示制御工程と、
    前記複数の内視鏡画像のうちの少なくとも一部の内視鏡画像から前記被観察部位に対する前記内視鏡操作者の動作を認識する動作認識工程と、
    を備え、
    前記表示制御工程は、前記動作認識工程の認識結果に応じて、前記注目領域情報を前記内視鏡画像内の位置に第1強調レベルで表示する第1強調表示と、前記注目領域情報を前記第1強調レベルよりも相対的に小さい第2強調レベルで表示する第2強調表示とを切り替える内視鏡画像処理方法。
  16. 請求項15に記載の内視鏡画像処理方法をコンピュータに実行させるためのプログラム。
JP2019045786A 2019-03-13 2019-03-13 内視鏡画像処理装置、内視鏡画像処理装置の作動方法及びプログラム、内視鏡システム Active JP7060536B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019045786A JP7060536B2 (ja) 2019-03-13 2019-03-13 内視鏡画像処理装置、内視鏡画像処理装置の作動方法及びプログラム、内視鏡システム
US16/813,709 US11607109B2 (en) 2019-03-13 2020-03-09 Endoscopic image processing device, endoscopic image processing method, endoscopic image processing program, and endoscope system
US18/164,536 US20230181001A1 (en) 2019-03-13 2023-02-03 Endoscopic image processing device, endoscopic image processing method, endoscopic image processing program, and endoscope system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019045786A JP7060536B2 (ja) 2019-03-13 2019-03-13 内視鏡画像処理装置、内視鏡画像処理装置の作動方法及びプログラム、内視鏡システム

Publications (2)

Publication Number Publication Date
JP2020146202A true JP2020146202A (ja) 2020-09-17
JP7060536B2 JP7060536B2 (ja) 2022-04-26

Family

ID=72423444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019045786A Active JP7060536B2 (ja) 2019-03-13 2019-03-13 内視鏡画像処理装置、内視鏡画像処理装置の作動方法及びプログラム、内視鏡システム

Country Status (2)

Country Link
US (2) US11607109B2 (ja)
JP (1) JP7060536B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021149552A1 (ja) * 2020-01-20 2021-07-29 富士フイルム株式会社 医療画像処理装置、医療画像処理装置の作動方法、及び内視鏡システム
WO2022107492A1 (ja) * 2020-11-17 2022-05-27 富士フイルム株式会社 プロセッサ装置、プロセッサ装置の作動方法、プロセッサ装置用プログラム、及び内視鏡システム
WO2022186111A1 (ja) 2021-03-04 2022-09-09 富士フイルム株式会社 医用画像処理装置、医用画像処理方法、及びプログラム
WO2022239530A1 (ja) 2021-05-10 2022-11-17 富士フイルム株式会社 画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラム
WO2022264751A1 (ja) 2021-06-16 2022-12-22 富士フイルム株式会社 医用画像処理装置、医用画像処理方法、及びプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110325098A (zh) 2016-11-28 2019-10-11 适内有限责任公司 具有可分离一次性轴的内窥镜
WO2020036109A1 (ja) * 2018-08-17 2020-02-20 富士フイルム株式会社 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
USD1018844S1 (en) 2020-01-09 2024-03-19 Adaptivendo Llc Endoscope handle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09223155A (ja) * 1996-02-19 1997-08-26 Ge Yokogawa Medical Syst Ltd 画像表示方法及び画像表示装置
JP2006191989A (ja) * 2005-01-11 2006-07-27 Olympus Corp 蛍光観察内視鏡装置
WO2016199273A1 (ja) * 2015-06-11 2016-12-15 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
WO2017002184A1 (ja) * 2015-06-29 2017-01-05 オリンパス株式会社 画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110066979A1 (en) * 2009-09-14 2011-03-17 Olympus Corporation Nondestructive testing apparatus
WO2017073338A1 (ja) * 2015-10-26 2017-05-04 オリンパス株式会社 内視鏡画像処理装置
WO2017110459A1 (ja) * 2015-12-22 2017-06-29 オリンパス株式会社 内視鏡用画像処理装置及び内視鏡システム
JP2018038503A (ja) * 2016-09-06 2018-03-15 ソニー株式会社 医療用画像処理装置、画像処理方法、及びプログラム
WO2020054032A1 (ja) * 2018-09-13 2020-03-19 オリンパス株式会社 内視鏡画像処理装置、内視鏡画像処理方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09223155A (ja) * 1996-02-19 1997-08-26 Ge Yokogawa Medical Syst Ltd 画像表示方法及び画像表示装置
JP2006191989A (ja) * 2005-01-11 2006-07-27 Olympus Corp 蛍光観察内視鏡装置
WO2016199273A1 (ja) * 2015-06-11 2016-12-15 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
WO2017002184A1 (ja) * 2015-06-29 2017-01-05 オリンパス株式会社 画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021149552A1 (ja) * 2020-01-20 2021-07-29 富士フイルム株式会社 医療画像処理装置、医療画像処理装置の作動方法、及び内視鏡システム
WO2022107492A1 (ja) * 2020-11-17 2022-05-27 富士フイルム株式会社 プロセッサ装置、プロセッサ装置の作動方法、プロセッサ装置用プログラム、及び内視鏡システム
WO2022186111A1 (ja) 2021-03-04 2022-09-09 富士フイルム株式会社 医用画像処理装置、医用画像処理方法、及びプログラム
WO2022239530A1 (ja) 2021-05-10 2022-11-17 富士フイルム株式会社 画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラム
WO2022264751A1 (ja) 2021-06-16 2022-12-22 富士フイルム株式会社 医用画像処理装置、医用画像処理方法、及びプログラム

Also Published As

Publication number Publication date
US20230181001A1 (en) 2023-06-15
US20200294227A1 (en) 2020-09-17
US11607109B2 (en) 2023-03-21
JP7060536B2 (ja) 2022-04-26

Similar Documents

Publication Publication Date Title
JP7060536B2 (ja) 内視鏡画像処理装置、内視鏡画像処理装置の作動方法及びプログラム、内視鏡システム
US11910994B2 (en) Medical image processing apparatus, medical image processing method, program, diagnosis supporting apparatus, and endoscope system
JP7125479B2 (ja) 医療画像処理装置、医療画像処理装置の作動方法及び内視鏡システム
JP7337073B2 (ja) 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
JP7315576B2 (ja) 医療画像処理装置、医療画像処理装置の作動方法及びプログラム、診断支援装置、ならびに内視鏡システム
US20210174115A1 (en) Medical image processing apparatus, medical image processing method, program, and endoscope system
US11481944B2 (en) Medical image processing apparatus, medical image processing method, program, and diagnosis support apparatus
JP2022136171A (ja) 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
EP3936027A1 (en) Apparatus and method for processing medical image
US20210174557A1 (en) Medical image processing apparatus, medical image processing method, program, and endoscope system
WO2022014077A1 (ja) 内視鏡システム及びその作動方法
EP4026479A1 (en) Medical image processing device, endoscope system, medical image processing method, and program
WO2019202982A1 (ja) 内視鏡装置、内視鏡操作方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220414

R150 Certificate of patent or registration of utility model

Ref document number: 7060536

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150