JP2023513646A - 内視鏡を用いた大腸検査ガイド装置及び方法 - Google Patents

内視鏡を用いた大腸検査ガイド装置及び方法 Download PDF

Info

Publication number
JP2023513646A
JP2023513646A JP2021568482A JP2021568482A JP2023513646A JP 2023513646 A JP2023513646 A JP 2023513646A JP 2021568482 A JP2021568482 A JP 2021568482A JP 2021568482 A JP2021568482 A JP 2021568482A JP 2023513646 A JP2023513646 A JP 2023513646A
Authority
JP
Japan
Prior art keywords
fold
image
visual effect
endoscope
large intestine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021568482A
Other languages
English (en)
Other versions
JP7374224B2 (ja
Inventor
コ,ジファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ko Jihwan
Original Assignee
Ko Jihwan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020210005413A external-priority patent/KR102464091B1/ko
Application filed by Ko Jihwan filed Critical Ko Jihwan
Publication of JP2023513646A publication Critical patent/JP2023513646A/ja
Priority to JP2023182618A priority Critical patent/JP2023178415A/ja
Application granted granted Critical
Publication of JP7374224B2 publication Critical patent/JP7374224B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • A61B1/01Guiding arrangements therefore
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computational Linguistics (AREA)
  • Endoscopes (AREA)

Abstract

本発明は、装置により行われる方法において、被検者の大腸に投入された内視鏡から撮影された画像をリアルタイムに受信する段階と、前記画像内で前記大腸内の少なくとも1つのヒダが含まれている各区間の画像を認識する段階と、前記各区間の画像内に前記ヒダを表す第1視覚効果を表示する段階と、前記各区間の画像毎に前記ヒダの裏面部が撮影されているか否かを判断する段階と、前記判断の結果、前記各区間の画像のうち、前記ヒダの裏面部が撮影されていない少なくとも1つの区間の画像内に、該当ヒダの裏面部が撮影されていないことを表す第2視覚効果を表示する段階とを含むことができる。

Description

本発明は大腸検査ガイドに関し、より詳細には、内視鏡を用いた大腸検査ガイド装置及び方法を提供するものに関する。
一般に、大腸内視鏡検査は、大腸がんの前駆病変であって、大腸の内壁に小さく盛り上がった組織の一部である、ポリープを発見して除去することによって、大腸がんを根源的に遮断するものである。具体的に、大腸内視鏡を通してポリープを発見して除去することによって、中間期癌(Interval Cancer)の発生を予防できる。しかし、大腸内視鏡検査を行ってポリープを発見できないケースが、多くは30%近くになることが知られている。
なぜならば、大腸内にはヒダが多いが、ヒダの裏面部に隠れている大腸ポリープを見つけることは、現実的に検査を行った医師の集中力に依存するしかなく、これを評価する方法は、検査にかかった時間が6分以上か否かといった間接的な方法しかないのが現状である。綿密に観察する医師であっても、宝探しの際に宝を探す方法が人によって異なるのと同様、本人の検査スタイルによって、見たところは繰り返して見る反面、見ていないところは見ない可能性が高い。
従って、大腸内視鏡を行う際に、被検者の大腸内の複数のヒダを、それぞれ一つ一つ見逃すことなしに、内視鏡を通して確認できる方法が必要である。
本発明は上記事情に鑑みてなされたものであって、その目的は、大腸内視鏡を行う際に、大腸内視鏡の画像にて大腸のヒダを認識し、大腸内視鏡を行っている専門家に提供することにある。
具体的に、本発明の目的は、大腸内視鏡の画像から認識した、大腸のヒダの大きさ別に、視覚効果の大きさを異にして表示することにある。
また、本発明の他の目的は、大腸のヒダの裏面部に対して内視鏡によって撮影されていない場合、該当ヒダに対して視覚効果を提供するとともに、専門家が該当ヒダに対して裏面を内視鏡を用いて撮影した場合、該当ヒダに対する視覚効果を除去することにある。
本発明が解決しようとする課題は、以上で言及した課題に限らず、言及されていない更に他の課題は、以下の記載から通常の技術者が明確に理解できるはずである。
上述した課題を解決するための本発明に係る装置により行われる方法において、被検者の大腸に投入された内視鏡から撮影された画像をリアルタイムに受信する段階と、前記画像内にて前記大腸内の少なくとも1つのヒダが含まれている各区間の画像を認識する段階と、前記各区間の画像内に前記ヒダを表す第1視覚効果を表示する段階と、前記各区間の画像毎に前記ヒダの裏面部が撮影されているか否かを判断する段階と、前記判断の結果、前記各区間の画像のうち、前記ヒダの裏面部が撮影されていない少なくとも1つの区間の画像内に、該当ヒダの裏面部が撮影されていないことを表す第2視覚効果を表示する段階とを含むことができる。
ここで、前記認識段階は、前記内視鏡によって前記大腸の内部に照射される光に基づいて行われうる。
また、前記認識段階は、ディープラーニングモデルにより前記各区間の画像を認識し、前記ディープラーニングモデルは、外部のアノテータから得られた複数の被検者の大腸画像内のヒダデータと、前記大腸内における前記照射された光による陰影の変化量及び血管に基づいて機械学習されたモデルであり得る。
ここで、前記第1視覚効果は、前記各区間の画像内における該当ヒダ上に、それぞれのマーカが表示される視覚効果を含み、前記それぞれのマーカの大きさは、該当ヒダの大きさに基づいて決定され得る。
また、前記該当ヒダの裏面部が撮影された場合、前記第2視覚効果を削除する段階を更に含むことができる。
この他にも、本発明を具現するための他の方法、他のシステム及び前記方法を実行するためのコンピュータプログラムを記録するコンピュータ読み取り可能な記録媒体が更に提供されうる。
前記のような本発明によれば、大腸内視鏡を行う際に、大腸内視鏡の画像から大腸のヒダを認識し、大腸内視鏡を行っている専門家に提供することで、大腸のヒダの裏(後方)に位置し得るポリープを、容易に発見できるようにするという効果を奏する。
具体的に、本発明によれば、大腸内視鏡の画像から認識した、大腸のヒダの大きさ別に、視覚効果の大きさを異にして表示することで、ヒダの大きさが大きい場合、ヒダの一部のみ確認した後にパスするのではなく、全体に対して確認できるように誘導するという効果がある。
また、本発明によれば、大腸のヒダの裏面部に対して内視鏡によって撮影されていない場合、該当ヒダに対して視覚効果を提供するとともに、専門家が該当ヒダに対して裏面を内視鏡を用いて撮影した場合、該当ヒダに対する視覚効果を除去することによって、ヒダの裏面を確認した部分と、確認していない部分とを明確に判断できるようにするという効果がある。
本発明の効果は、以上で言及した効果に限らず、言及されていない更に他の効果は、下記の記載から通常の技術者が明確に理解できるはずである。
本発明に係る、内視鏡を用いた大腸検査ガイドを提供する装置を、概略的に示すブロック図である。 本発明に係る、大腸検査のガイドのために用いられるディープラーニングモデルが、学習されることを概略的に示すブロック図である。 本発明に係る装置のプロセッサが、内視鏡を用いた大腸検査のガイドを提供する過程を示す例示図である。 本発明に係る、被検者の大腸に投入された内視鏡から撮影された画像に、ヒダを表す第1視覚効果が表示されたことを示す例示図(1)である。 本発明に係る、被検者の大腸に投入された内視鏡から撮影された画像に、ヒダを表す第1視覚効果が表示されたことを示す例示図(2)である。 本発明に係る、被検者の大腸に投入された内視鏡から撮影された画像に、ヒダを表す第1視覚効果が表示されたことを示す例示図(3)である。 本発明に係る、被検者の大腸に投入された内視鏡から撮影された画像に、ヒダを表す第1視覚効果が表示されたことを示す例示図(4)である。 本発明に係る、第1視覚効果が表示されたヒダの、裏面部の画像が撮影されていないヒダを表す、第2視覚効果が表示されたことを示す例示図(1)である。 本発明に係る、第1視覚効果が表示されたヒダの、裏面部の画像が撮影されていないヒダを表す、第2視覚効果が表示されたことを示す例示図(2)である。 本発明に係る、第1視覚効果が表示されたヒダの、裏面部の画像が撮影されていないヒダを表す、第2視覚効果が表示されたことを示す例示図(3)である。 本発明に係る、第1視覚効果が表示されたヒダの、裏面部の画像が撮影されていないヒダを表す、第2視覚効果が表示されたことを示す例示図(4)である。 本発明に係る装置のプロセッサが、内視鏡を用いた大腸検査をガイドする過程を示すフローチャートである。
本発明の利点及び特徴、そしてそれらを達成する方法は、添付の図面と共に詳細に後述されている実施例を参照すれば明確になる。しかし、本発明は、以下で開示される実施例に制限されるものではなく、互いに異なる多様な形態に具現することができる。但し、本実施例は本発明の開示を完全なものにし、本発明が属する技術分野における通常の技術者に本発明の範疇を完全に理解させるために提供されるものであり、本発明は請求項の範疇により定義されるに過ぎない。
本明細書で用いられた用語は、実施例を説明するためのものであり、本発明を制限しようとするものではない。本明細書において、単数型は特に言及しない限り複数型も含む。明細書で用いられる「含む(comprises)」及び/又は「含んでいる(comprising)」は、言及された構成要素以外に1つ以上の他の構成要素の存在又は追加を排除しない。明細書全体に亘って同一の図面符号は同一の構成要素を示し、「及び/又は」は言及された構成要素のそれぞれ及び1つ以上の全ての組み合わせを含む。たとえ、「第1」、「第2」などが多様な構成要素を叙述するために用いられていても、これらの構成要素はこれらの用語により制限されないのはもちろんのことである。これらの用語は、単に1つの構成要素を他の構成要素と区別するために用いる。従って、以下で言及される第1構成要素は、本発明の技術的思想内で第2構成要素でもあり得るのは言うまでもない。
他の定義がなければ、本明細書で用いられる全ての用語(技術及び科学的用語を含む)は、本発明が属する技術分野における通常の技術者が共通して理解できる意味として用いられる。また、一般に用いられる辞典に定義されている用語は、明白に特に定義されていない限り、理想的に又は過度に解釈されない。
以下、添付の図面を参照して本発明の実施例を詳細に説明する。
図1は、本発明に係る内視鏡を用いた大腸検査ガイドを提供する装置10を概略的に示すブロック図である。
図2は、本発明に係る大腸検査ガイドのために用いられるディープラーニングモデルが学習されることを概略的に示すブロック図である。
図3は、本発明に係る装置10のプロセッサ140が、内視鏡を用いた大腸検査ガイドを提供する過程を示す例示図である。
図4a~図4dは、本発明に係る、被検者の大腸に投入された内視鏡から撮影された画像に、ヒダを表す第1視覚効果が表示されたことを示す例示図である。
図5a~図5dは、本発明に係る、第1視覚効果が表示されたヒダの、裏面部の画像が撮影されていないヒダを表す、第2視覚効果が表示されたことを示す例示図である。
以下、図1~図5dを参照して本発明に係る内視鏡を用いた大腸検査ガイドを提供する装置10について説明する。ここで、装置10は、ローカルのコンピューティング装置だけでなく、サーバ装置にも具現できる。
装置10は、大腸内視鏡を行う際に大腸内視鏡の画像から大腸のヒダを認識し、大腸内視鏡を行っている専門家に提供することで、大腸のヒダの裏に位置し得るポリープを、容易に発見できるようにするという効果を有することができる。
具体的に、装置10は、大腸内視鏡の画像から認識した、大腸のヒダの大きさ別に、視覚効果の大きさを異にして表示することで、ヒダの大きさが大きい場合に、ヒダの一部のみ確認した後にパスするのではなく、全体に対して確認できるように誘導するという効果を有することができる。
また、装置10は、大腸のヒダの裏面部に対して、内視鏡20によって撮影されていない場合、該当ヒダに対して視覚効果を提供するのであり、また、専門家が該当ヒダに対して裏面を、内視鏡20を用いて撮影した場合に、該当ヒダに対する視覚効果を除去することによって、ヒダの裏面を確認した部分と、確認していない部分とを明確に判断できるようにするという効果を有することができる。ここで、内視鏡20は、大腸内に挿入されて、大腸内の生体組織を観察する装置であって、カメラ210、照明220などを含んで構成されうる。
まず、図1を参照すると、装置10は通信部110、ディスプレイ部120、メモリ130及びプロセッサ140を含む。ここで、装置10は、図1に示された構成要素よりもより少数の構成要素や、より多数の構成要素を含むこともできる。
通信部110は、前記装置10と無線通信システムとの間、前記装置10と内視鏡20との間、又は前記装置10と外部装置(図示せず)との間の無線通信を可能にする1つ以上のモジュールを含むことができる。また、前記通信部110は、装置10を1つ以上のネットワークに接続する1つ以上のモジュールを含むことができる。
通信部110は、被検者の大腸に投入された内視鏡から撮影された画像をリアルタイムに受信できる。また、前記通信部110は、複数の被検者の大腸に投入される内視鏡から撮影された画像を受信するか、一人の被検者に対して複数回大腸に投入される内視鏡から撮影された画像を受信できる。
または、通信部110は、ディープラーニングモデルの学習のために、内視鏡によって撮影された被検者の大腸に対する画像に対して、アノテータの一例として、医療陣から得たヒダデータを受信できる。
ディスプレイ部120は、タッチセンサと互いにレイヤ構造をなすか、一体型に形成されることによって、タッチパネルを具現できる。このようなタッチスクリーンは、装置10とユーザとの間の入力インタフェースを提供すると共に、装置10とユーザとの間の出力インタフェースを提供できる。
ディスプレイ部120は、プロセッサ140で生成した多様な情報を表示してユーザに提供すると共に、ユーザから多様な情報の入力を受けることができる。
より詳細には、ディスプレイ部120は、画像の各区間別に前記ヒダを表す第1視覚効果を表示できる。また、ディスプレイ部120は、前記各区間の画像のうち、前記ヒダの裏面部が撮影されていない少なくとも1つの区間の画像内に、該当ヒダの裏面部が撮影されていないことを表す第2視覚効果を表示することができる。
メモリ130は、前記装置10の多様な機能を支援する情報を格納できる。メモリ130は、前記装置10で駆動される多数のアプリケーションプログラム(application program 又はアプリケーション(application))、前記装置10の動作のためのデータ、命令語を格納できる。これらのアプリケーションプログラムのうちの少なくとも一部は、無線通信を介して外部サーバ(図示せず)からダウンロードできる。また、このようなアプリケーションプログラムのうちの少なくとも一部は、前記装置10の基本的な機能のために存在し得る。一方、アプリケーションプログラムは、メモリ130に格納され、前記装置10上にインストールされ、プロセッサ140により前記装置10の動作(又は機能)を行うように駆動されうる。
メモリ130は、被検者の大腸に投入された内視鏡により撮影された画像からヒダを認識するためのディープラーニングモデルを格納できる。ここで、ディープラーニングモデルは、畳み込みニューラルネットワーク(CNN、convolutional neural network、以下CNN という。)を含むことができるが、必ずしもこれに限らず、多様な構造の神経網で形成され得る。
CNNは、画像の各領域に対して複数のフィルタを適用し、特徴マップ(Feature Map)を生成する畳み込み層(Convolution Layer)と、特徴マップとを空間的に統合することにより、位置や回転の変化に不変な特徴を抽出できるようにするプーリング層(Pooling Layer)を、交互に複数回繰り返す構造で形成されうる。これにより、点、線、面などの低いレベルの特徴から、複雑で意味のあるレベルの高い特徴まで、多様なレベルの特徴を抽出できる。
畳み込み層は、入力画像の各パッチに対して、フィルタと局所受容野(Local Receptive Field)との内積に、非線形活性関数(Activation Function)を取ることによって、特徴マップ(Feature Map)を求めることができる。他のネットワークの構造と比較して、CNNは希少な連結性(Sparse Connectivity)と、共有された重み(Shared Weights)を持つフィルタを用いるという特徴を有することができる。このような連結構造は、学習する母数の個数を減らし、誤差逆伝播アルゴリズムによる学習を効率的にすることで、結果として、予測性能を向上させることができる。
プーリング層(Pooling Layer又はSub-sampling Layer)は、以前の畳み込み層から得られた特徴マップの地域情報を活用して、新たな特徴マップを生成できる。一般に、プーリング層によって新たに生成された特徴マップは、本来の特徴マップよりも小さなサイズに減少するが、代表的な統合方法としては、特徴マップ内の該当領域の最大値を選択する最大プーリング(Max Pooling)と、特徴マップ内の該当領域の平均値を求める平均プーリング(Average Pooling)などがあり得る。プーリング層の特徴マップは、一般に、前の層の特徴マップよりも、入力画像に存在する任意の構造やパターンの位置による影響を、少なく受けることができる。即ち、プーリング層は、入力画像あるいは以前の特徴マップにおけるノイズや歪みといった地域的変化に対して、より強い特徴を抽出できるようになり、これらの特徴は、分類性能において重要な役割を果たせる。また、他のプーリング層の役割は、深い構造上で、上位の学習層に行くほど、より広い領域の特徴を反映できるようにするものであって、特徴抽出層が蓄積されることにより、下位層では地域的な特徴を反映し、上位層に行くほど、より抽象的な全体画像の特徴を反映する特徴を生成できる。
このように畳み込み層とプーリング層の繰り返しによって最終的に抽出された特徴は、多層パーセプトロン(MLP:Multi-Layer Perceptron)やサポートベクターマシン(SVM:Support Vector Machine)のような分類モデルが全結合層(Fully-connected layer)の形に結合され、分類モデルの学習や予測に用いられることができる。
メモリ130は、通信部110により獲得した前記画像を格納できる。また、前記メモリ130は、複数の被検者の大腸に投入される内視鏡から撮影された画像、又は、一人の被検者に対して、複数回大腸に投入される内視鏡から撮影された画像を格納できる。
または、メモリ130は、前記ディープラーニングモデルの学習のために、内視鏡によって撮影された被検者の大腸に対する画像に対して、アノテータの一例として、医療陣から得られたヒダデータを格納できる。
プロセッサ140は、前記アプリケーションプログラムと関連する動作以外にも、通常、前記装置10の全般的な動作を制御できる。プロセッサ140は、前述した構成要素により入力又は出力される信号、データ、情報などを処理するか、メモリ130に格納されたアプリケーションプログラムを駆動することによって、ユーザに適切な情報又は機能を提供又は処理できる。
プロセッサ140は、メモリ130に格納されたアプリケーションプログラムを駆動するために、図1に示された構成要素のうちの少なくとも一部を制御できる。更に、プロセッサ140は、前記アプリケーションプログラムの駆動のために、前記装置10に含まれている構成要素のうちの少なくとも2つ以上を互いに組み合わせて動作させることができる。
以下、図2~図5によりプロセッサ140の動作について詳細に後述する。
プロセッサ140は、被検者の大腸に投入された内視鏡から撮影された画像内でディープラーニングモデルに基づいて、前記大腸内の少なくとも1つのヒダが含まれている各区間の画像を認識できる。即ち、プロセッサ140は、前記各区間の画像から前記少なくとも1つのヒダを認識し、前記ヒダの大きさを識別できる。
ここで、まず図2を参照すると、プロセッサ140は、前記ディープラーニングモデルにより前記各区間の画像を認識するのであり、前記ディープラーニングモデルは、外部のアノテータから得られた複数の被検者の大腸画像内のヒダデータと、前記大腸内の前記照射された光による陰影変化量及び血管パターンに基づいて、機械学習されたモデルであり得る。
具体的に、プロセッサ140は、複数の被検者の大腸に投入された内視鏡から少なくとも1回以上撮影された少なくとも1つの画像を獲得し、前記複数の画像のそれぞれに対して、アノテータからヒダデータを獲得できる。ここで、アノテータは、大腸のヒダを的確に識別できる専門家でありうるのであり、複数の画像は、一人の被検者に対して複数回行われた内視鏡に対する画像であるか、複数の被検者に対して行われた内視鏡に対する画像であり得る。
その後、プロセッサ140は、前記大腸の内側の陰影変化量、血管及び前記ヒダデータに基づいて前記第1モデルを機械学習できる。
ここで、前記陰影変化量は、前記プロセッサ140が前記内視鏡20の照明220から前記ヒダに照射される光によって発生する陰影に対して、既に設定された閾値以上に変化するかを判断して生成できる。具体的に、プロセッサ140は、前記陰影が、既に設定された閾値以上に暗く変化した場合、ヒダがあるものと判断できる。
また、プロセッサ140は、大腸の内視鏡画像内にて血管が形成している血管パターンを認識し、前記認識された血管パターンに基づいて、大腸の内視鏡画像内でヒダのある領域を認識できる。
詳細に、プロセッサ140は、前記認識された血管パターンに基づいて、大腸の内視鏡画像内の少なくとも1つの血管パターンが、前記内視鏡20の照明220から前記ヒダに照射される光によって発生する陰影によって、前記血管パターンの連結が途切れているかのように大腸の内視鏡画像内で見える状況であるので、前記血管が途切れているかのように見える部分を、ヒダの境界ラインとして認識し、前記大腸の内視鏡画像内にてヒダ領域を認識できる。
また、プロセッサ140は、大腸の内視鏡画像内で血管の形状を認識し、前記認識された血管の形状に基づいて大腸の内視鏡画像内でヒダのある領域を認識できる。
詳細に、プロセッサ140は、前記認識された血管の形状に基づいて大腸の内視鏡画像内の少なくとも1つの血管の形状が鉤状に認識される場合、これは、前記血管が、ヒダの曲がった部分を通過して曲がっているかのように、大腸の内視鏡画像内にて見える状況であるので、前記血管が曲がった鉤状に見える部分をヒダとして認識することで、前記大腸の内視鏡画像内にてヒダ領域を認識できる。
また、プロセッサ140は、大腸の内視鏡画像内にて少なくとも1つの血管の色を認識し、前記認識された血管の色に基づいて、大腸の内視鏡画像内でヒダのある領域を認識できる。
詳細に、プロセッサ140は、前記認識された血管の色の明暗度の変化が、既に設定された変化量以上であると認識される場合、前記血管が、ヒダ及び前記ヒダの裏面部の間を通過する場合に明暗度が変化するので、前記血管における明暗度の変化が、既に設定された変化量以上である血管の一部分を、ヒダの境界ラインとして認識し、前記大腸の内視鏡画像内にてヒダ領域を認識できる。
プロセッサ140は、前記内視鏡20が投入された地点から、内視鏡20に備えられる照明220によって、前記大腸の内部に照射される光によって識別される地点までを、1つの区間として設定できる。即ち、プロセッサ140は、前記大腸をn個の区間に分割して、それぞれの区間別にヒダを認識できる。ここで、大人の大腸は約150cm~170cmであり、内視鏡20に備えられる照明220から、照射される光によって識別される地点までの距離は、およそ10cm~15cmであり得る。従って、プロセッサ140は、大腸を、およそ10個~15個の区間に分割し、それぞれの区間ごとにヒダを認識できる。
具体的には、プロセッサ140は、前記内視鏡20が投入された地点と、内視鏡20に備えられる照明220によって、前記大腸の内部に照射される光によって識別される地点とを、前記ディープラーニングモデルに基づいて生成できる。
一例として、図3を参照すると、プロセッサ140は、前記画像にて、前記内視鏡20が最初に進入する第1地点P1と、前記第1地点から、前記内視鏡20の照明220によって前記大腸の内部に照射される光によって識別される第2地点P2までを、第1区間として設定できる。
また、プロセッサ140は、前記画像にて前記内視鏡20が、第1区間の終点である第2地点P2に位置する場合、第2地点P2と前記第2地点P2において前記内視鏡20の照明220により前記大腸の内部に照射される光によって識別される第3地点P3までを第2区間として設定できる。
更に、プロセッサ140は、前記画像にて前記内視鏡20が第n-1区間の終点である第n-1地点Pn-1に位置する場合、第n-1地点Pn-1と、前記第n-1地点から前記内視鏡20の照明220により前記大腸の内部に照射される光によって識別され、大腸の内部に進入可能な最後の区間の開始地点である第n地点Pnまでを、第n区間として設定できる。
ここで、大腸に内視鏡20が進入する最初の地点である第1地点P1と、大腸に内視鏡20が進入できる最後の区間の開始地点である第n地点Pnとを除いた、第2地点P2~第n-1地点Pn-1は、直前の区間と一部分重なりうる。これにより、プロセッサ140が、大腸内にて内視鏡20によって確認すべき区間を漏れなくディスプレイ部120を介して表示することで、大腸全体に対して、見逃す区間がないように検査できるという効果を有することができる。
また、第1区間~第n区間の長さは、ほぼ同一であるか、若干の差があり、これは内視鏡20の照明220によって照射された光の強さが同一であるので、大差ない。
図3の区間導入フレームA(301)を参照すると、プロセッサ140は、前記画像にて前記内視鏡20が進入する導入地点から、前記内視鏡20の照明220から照射される光によって識別可能な最後の地点までを、1つの区間として設定できる。
より詳細には、プロセッサ140は、前記第1区間にて前記内視鏡20が最初に進入する第1地点P1と、前記第1地点から、前記内視鏡20の照明220によって前記大腸の内部に照射される光によって識別される第2地点P2までを第1区間として設定できる。
図3の区間中間フレーム302を参照すると、プロセッサ140は、前記各区間の画像内に、前記ヒダを表す第1視覚効果を表示できる。第1視覚効果は、前記各区間の画像内における該当ヒダ上に、それぞれのマーカが表示される視覚効果を含むことができる。前記それぞれのマーカの大きさは、該当ヒダの大きさに基づいて決定されることができる。
ここで、プロセッサ140は、前記各区間の画像の導入部で、前述した方法によって少なくとも1つのヒダを認識し、前記少なくとも1つのヒダ別に血管パターンを認識し、前記内視鏡20が、それぞれの区間の導入部を通過しながら撮影する画像を通じて、前記認識された血管パターンがある場合に、該当血管パターンの位置にヒダがあるものと判断できる。その後、プロセッサ140は、前記判断されたヒダに対して第1視覚効果を表示し、専門医がヒダを確認し易くすることができる。
より詳細には、プロセッサ140は、前記第1区間に、前記ヒダを表す第1視覚効果を表示できる。ここで、前記内視鏡20は、前記専門医の動作によって、第1区間において、前記第1視覚効果にしたがって、大腸内のヒダを1つずつ確認しながら大腸の内部へと移動されうる。
一例として、図4aを参照すると、プロセッサ140は、前記第1区間のヒダのそれぞれの大きさ毎に、矢印状のマーカにより、第1視覚効果を表示できる。従って、ヒダの大きさが大きい第1ヒダ401の矢印状の大きさが、ヒダの大きさが小さい第2ヒダ402の矢印状の大きさよりも小さいのでありうる。
次に、図4bを参照すると、プロセッサ140は、前記第1区間のヒダのそれぞれの大きさ別に、メッセージ状のマーカにより第1視覚効果を表示できる。従って、ヒダの大きさが大きい第1ヒダ401についてのメッセージ状の大きさが、ヒダの大きさが小さい第2ヒダ402についてのメッセージ状の大きさよりも小さいのでありうる。
次に、図4cを参照すると、プロセッサ140は、前記第1区間のヒダそれぞれの大きさ別にブリンキング(Bliking;点滅・明滅)することで、第1視覚効果を表示できる。従って、ヒダの大きさが大きい第1ヒダ401のブリンキングの大きさが、ヒダの大きさが小さい第2ヒダ402のブリンキングの大きさよりも小さいのでありうる。
その次に、図4dを参照すると、プロセッサ140は、前記第1区間のヒダのそれぞれの大きさ別に、円状のマーカにより第1視覚効果を表示できる。従って、ヒダの大きさが大きい第1ヒダ401についての円状の大きさが、ヒダの大きさが小さい第2ヒダ402についての円状の大きさよりも小さいのでありうる。
ここで、専門医は、プロセッサ140がディスプレイ部120を介して表示する第1視覚効果に基づいて、各区間の画像にて少なくとも1つのヒダを容易に認識し、前記内視鏡20により、前記ヒダのそれぞれの裏面部を確認し、前記裏面部を撮影できる。
従って、プロセッサ140は、前記各区間の画像毎に、前記ヒダの裏面部が撮影されているか否かを判断できる。
その後、図3の区間導入フレームB(303)を参照すると、プロセッサ140は、前記判断の結果、前記各区間の画像のうち、前記ヒダの裏面部が撮影されていない少なくとも1つの区間の画像内に、該当ヒダの裏面部が撮影されていないことを表す第2視覚効果を表示できる。前記第2視覚効果は、前記各区間の画像内における該当ヒダの裏面部上に、それぞれのマーカが表示される視覚効果を含むことができる。前記それぞれのマーカの大きさは、該当ヒダの裏面部の大きさに基づいて決定されうる。
ここで、前記内視鏡20は、第1区間において、前記第2視覚効果によって大腸内のヒダを1つずつ確認しながら大腸の内部に移動できる。具体的には、前記内視鏡20が前記領域毎に、前記ヒダのそれぞれの裏面を認識した後、前記領域毎に、前記領域の始まる開始地点に戻ってから、前記領域毎に、前記裏面部が撮影されていない少なくとも1つのヒダに対して、第2視覚効果によって漏れなく確認することができる。
まず、図5aを参照すると、プロセッサ140は、前記第1区間の、ヒダの裏面部が撮影されていない該当ヒダのそれぞれの大きさ別に、矢印状のマーカにより第2視覚効果を表示できる。従って、ヒダの大きさが大きい第1ヒダ501についての矢印状の大きさが、ヒダの大きさが小さい第2ヒダ502についての矢印状の大きさよりも小さいのでありうる。
次に、図5bを参照すると、プロセッサ140は、前記第1区間の、ヒダの裏面部が撮影されていない該当ヒダのそれぞれの大きさ別に、メッセージ状のマーカにより第2視覚効果を表示できる。従って、ヒダの大きさが大きい第1ヒダ501についてのメッセージ状の大きさが、ヒダの大きさが小さい第2ヒダ502についてのメッセージ状の大きさよりも小さいのでありうる。
その次に、図5cを参照すると、プロセッサ140は、前記第1区間の、ヒダの裏面部が撮影されていない該当ヒダのそれぞれの大きさ別に、ブリンキング(Blinking)することで、第2視覚効果を表示できる。従って、ヒダの大きさが大きい第1ヒダ501についてのブリンキングの大きさが、ヒダの大きさが小さい第2ヒダ502についてのブリンキングの大きさよりも小さいのでありうる。
その次に、図5dを参照すると、プロセッサ140は、前記第1区間の、ヒダの裏面部が撮影されていない該当ヒダのそれぞれの大きさ別に、円状のマーカにより第2視覚効果を表示できる。従って、ヒダの大きさが大きい第1ヒダ501についての円状の大きさが、ヒダの大きさが小さい第2ヒダ502についての円状の大きさよりも小さいのでありうる。
プロセッサ140は、前記第2視覚効果に基づいて、内視鏡20によって前記該当ヒダの裏面部が撮影された場合、前記第2視覚効果を削除できる。これにより、プロセッサ140は、専門医が内視鏡20によって確認したヒダと、確認していないヒダに対して、第1視覚効果又は第2視覚効果を通じて確実に提供することで、確認せずにパスするヒダがなく、全てのヒダを確認できるようにして、大腸検査の正確度を向上させることができる。
図6は、本発明に係る装置10のプロセッサ140が内視鏡を用いた大腸検査をガイドする過程を示すフローチャートである。ここで、プロセッサ140の動作は、装置20で遂行可能である。
まず、プロセッサ140は、通信部110を介してリアルタイムに受信した、被検者の大腸に投入された内視鏡から撮影された画像内にて、前記大腸内の少なくとも1つのヒダが含まれている各区間の画像を認識できる(S601)。
ここで、プロセッサ140は、前記内視鏡によって、前記大腸の内部に照射される光に基づいて前記ヒダを認識できる。また、プロセッサ140は、ディープラーニングモデルにより前記各区間の画像を認識できる。ここで、前記ディープラーニングモデルは、外部のアノテータから得られた複数の被検者の大腸画像内のヒダデータと、前記大腸内の、前記照射された光による陰影変化量及び血管パターンに基づいて機械学習されたモデルであり得る。
プロセッサ140は、前記各区間の画像内に前記ヒダを表す第1視覚効果を表示できる(S602)。
前記第1視覚効果は、前記各区間の画像内の該当ヒダ上に、それぞれのマーカが表示される視覚効果を含み、前記それぞれのマーカの大きさは、該当ヒダの大きさに基づいて決定されうる。
プロセッサ140は、前記各区間の画像毎に、前記ヒダの裏面部が撮影されているか否かを判断できる(S603)。
プロセッサ140は、前記判断の結果、前記各区間の画像のうち、前記ヒダの裏面部が撮影されていない少なくとも1つの区間の画像内に、該当ヒダの裏面部が撮影されていないことを表す第2視覚効果を表示できる(S604)。
プロセッサ140は、前記該当ヒダの裏面部が撮影された場合、前記第2視覚効果を削除できる(S605)。
プロセッサ140は、該当ヒダの裏面部が撮影された場合、該当ヒダに表示される前記第2視覚効果を削除して、該当ヒダの裏面部に対する撮影が完了したことを、専門医が容易に分かるように提供できる。
図6は、段階S601~段階S605を順次実行するものと記載しているが、これは本実施例の技術的思想を例示的に説明したものに過ぎないものであって、本実施例が属する技術分野において通常の知識を有する者であれば、本実施例の本質的な特性から逸脱しない範囲で図6に記載された手順を変更して実行するか、段階S601~段階S605のうちの何れか1つの段階を並列的に実行するものに多様に修正及び変形して適用可能であるので、図6は時系列的な順序に限定されるものではない。
以上で前述した本発明に係る方法は、ハードウェアであるサーバと結合されて実行されるためにプログラム(又はアプリケーション)に具現して媒体に格納されることができる。
前述したプログラムは、前記コンピュータがプログラムを読み込んでプログラムに具現した前記方法を実行させるために、前記コンピュータのプロセッサ(CPU)が前記コンピュータの装置インタフェースを介して読み取られるC、C++、JAVA(登録商標)、機械語などのコンピュータ言語でコード化されたコード(Code)を含むことができる。このようなコードは、前記方法を実行するのに必要な機能を定義した関数などと関連する機能的なコード(Functional Code)を含むことができ、前記機能を前記コンピュータのプロセッサが所定の手順通りに実行させるのに必要な実行手順関連の制御コードを含むことができる。また、このようなコードは、前記機能を前記コンピュータのプロセッサが実行させるのに必要な追加の情報やメディアが前記コンピュータの内部又は外部メモリのどの位置(アドレス)で参照されるべきかに対するメモリ参照関連のコードを更に含むことができる。更に、前記コンピュータのプロセッサが前記機能を実行させるために、遠隔(Remote)にある任意の他のコンピュータやサーバなどと通信が必要な場合、コードは前記コンピュータの通信モジュールを用いて遠隔にある任意の他のコンピュータやサーバなどとどのように通信すべきか、通信時に如何なる情報やメディアを送受信すべきかなどに対する通信関連のコードを更に含むことができる。
前記格納される媒体は、レジスタ、キャッシュ、メモリなどといった短時間でデータを格納する媒体ではなく、半永久的にデータを格納し、機器により読み取り(reading)可能な媒体を意味する。具体的には、前記格納される媒体の例としては、ROM、RAM、CD-ROM、磁気テープ、フロッピーディスク、光データ格納装置などがあるが、これに限らない。即ち、前記プログラムは、前記コンピュータが接続可能な多様なサーバ上の多様な記録媒体又はユーザの前記コンピュータ上の多様な記録媒体に格納されうる。また、前記媒体は、ネットワークで接続されたコンピュータシステムに分散し、分散方式でコンピュータが読み取れるコードが格納されうる。
本発明の実施例と関連して説明された方法又はアルゴリズムの段階は、ハードウェアで直接具現するか、ハードウェアにより実行されるソフトウェアモジュールで具現するか、又はこれらの結合により具現することができる。ソフトウェアモジュールはRAM(Random Access Memory)、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、フラッシュメモリ(Flash Memory)、ハードディスク、脱着型ディスク、CD-ROM、又は本発明が属する技術分野において周知されている任意の形態のコンピュータ読み取り可能な記録媒体に常に存在し得る。
以上、添付の図面を参照して本発明の実施例を説明したが、本発明が属する技術分野における通常の技術者は、本発明がその技術的思想や必須な特徴を変更することなく、他の具体的な形態に実施され得るということが理解できるだろう。従って、以上で述べた実施例はあらゆる面で例示的なものであり、制限的ではないものとして理解すべきである。

Claims (5)

  1. 装置により行われる方法において、
    被検者の大腸に投入された内視鏡から撮影された画像をリアルタイムに受信する段階と、
    前記画像内で前記大腸内の少なくとも1つのヒダが含まれている各区間の画像を認識する段階と、
    前記各区間の画像内に前記ヒダを表す第1視覚効果を表示する段階と、
    前記各区間の画像毎に前記ヒダの裏面部が撮影されているか否かを判断する段階と、
    前記判断の結果、前記各区間の画像のうち、前記ヒダの裏面部が撮影されていない少なくとも1つの区間の画像内に、該当ヒダの裏面部が撮影されていないことを表す第2視覚効果を表示する段階と、
    を含む、内視鏡を用いた大腸検査ガイド方法。
  2. 前記認識段階は、
    前記内視鏡によって前記大腸の内部に照射される光に基づいて行われることを特徴とする請求項1に記載の内視鏡を用いた大腸検査ガイド方法。
  3. 前記認識段階は、ディープラーニングモデルにより前記各区間の画像を認識し、
    前記ディープラーニングモデルは、外部のアノテータから得られた複数の被検者についての大腸画像内のヒダデータと、前記大腸内の前記照射された光による陰影変化量及び血管に基づいて機械学習されたモデルであることを特徴とする請求項1に記載の内視鏡を用いた大腸検査ガイド方法。
  4. 前記第1視覚効果は、前記各区間の画像内における該当ヒダ上に、それぞれのマーカが表示される視覚効果を含み、
    前記それぞれのマーカの大きさは、該当ヒダの大きさに基づいて決定されることを特徴とする請求項1に記載の内視鏡を用いた大腸検査ガイド方法。
  5. 前記該当ヒダの裏面部が撮影された場合、前記第2視覚効果を削除する段階を更に含むことを特徴とする請求項1に記載の内視鏡を用いた大腸検査ガイド方法。
JP2021568482A 2021-01-14 2021-01-22 内視鏡を用いた大腸検査ガイド装置 Active JP7374224B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023182618A JP2023178415A (ja) 2021-01-14 2023-10-24 内視鏡を用いた大腸検査ガイド装置及び方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020210005413A KR102464091B1 (ko) 2021-01-14 2021-01-14 내시경을 이용한 대장 검사 가이드 장치 및 방법
KR10-2021-0005413 2021-01-14
PCT/KR2021/000929 WO2022154152A1 (ko) 2021-01-14 2021-01-22 내시경을 이용한 대장 검사 가이드 장치 및 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023182618A Division JP2023178415A (ja) 2021-01-14 2023-10-24 内視鏡を用いた大腸検査ガイド装置及び方法

Publications (2)

Publication Number Publication Date
JP2023513646A true JP2023513646A (ja) 2023-04-03
JP7374224B2 JP7374224B2 (ja) 2023-11-06

Family

ID=82323446

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021568482A Active JP7374224B2 (ja) 2021-01-14 2021-01-22 内視鏡を用いた大腸検査ガイド装置
JP2023182618A Pending JP2023178415A (ja) 2021-01-14 2023-10-24 内視鏡を用いた大腸検査ガイド装置及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023182618A Pending JP2023178415A (ja) 2021-01-14 2023-10-24 内視鏡を用いた大腸検査ガイド装置及び方法

Country Status (2)

Country Link
US (1) US20220218185A1 (ja)
JP (2) JP7374224B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011136150A (ja) * 2009-12-31 2011-07-14 National Yunlin Univ Of Science & Technology 内視鏡ナビゲーション方法、及び、内視鏡ナビゲーションシステム
WO2019087969A1 (ja) * 2017-10-31 2019-05-09 富士フイルム株式会社 内視鏡システム、報知方法、及びプログラム
WO2019245009A1 (ja) * 2018-06-22 2019-12-26 株式会社Aiメディカルサービス 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体
WO2021166103A1 (ja) * 2020-02-19 2021-08-26 オリンパス株式会社 内視鏡システム、管腔構造算出装置及び管腔構造情報の作成方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016017695A1 (ja) * 2014-07-30 2016-02-04 オリンパス株式会社 画像処理装置
WO2017115442A1 (ja) * 2015-12-28 2017-07-06 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
US10163241B2 (en) * 2016-12-09 2018-12-25 Microsoft Technology Licensing, Llc Automatic generation of fundus drawings
US10646288B2 (en) * 2017-04-12 2020-05-12 Bio-Medical Engineering (HK) Limited Automated steering systems and methods for a robotic endoscope
US10796481B2 (en) * 2018-04-20 2020-10-06 Siemens Healthcare Gmbh Visualization of lung fissures in medical imaging
EP3841953B1 (en) * 2018-08-20 2024-02-07 FUJIFILM Corporation Medical image processing system
JP7143436B2 (ja) * 2018-11-01 2022-09-28 富士フイルム株式会社 医療画像処理装置、医療画像処理装置の作動方法及びプログラム、診断支援装置
CN113498323A (zh) * 2019-02-26 2021-10-12 富士胶片株式会社 医用图像处理装置、处理器装置、内窥镜系统、医用图像处理方法、及程序
US10957043B2 (en) * 2019-02-28 2021-03-23 Endosoftllc AI systems for detecting and sizing lesions
CN113518576A (zh) * 2019-03-25 2021-10-19 奥林巴斯株式会社 移动辅助系统、移动辅助方法以及移动辅助程序
WO2021048925A1 (ja) * 2019-09-10 2021-03-18 オリンパス株式会社 内視鏡制御装置、内視鏡制御装置の作動方法及びプログラム
US11620745B2 (en) * 2020-01-17 2023-04-04 Ping An Technology (Shenzhen) Co., Ltd. Method and system for harvesting lesion annotations
JP7441934B2 (ja) * 2020-02-27 2024-03-01 オリンパス株式会社 処理装置、内視鏡システム及び処理装置の作動方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011136150A (ja) * 2009-12-31 2011-07-14 National Yunlin Univ Of Science & Technology 内視鏡ナビゲーション方法、及び、内視鏡ナビゲーションシステム
WO2019087969A1 (ja) * 2017-10-31 2019-05-09 富士フイルム株式会社 内視鏡システム、報知方法、及びプログラム
WO2019245009A1 (ja) * 2018-06-22 2019-12-26 株式会社Aiメディカルサービス 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体
WO2021166103A1 (ja) * 2020-02-19 2021-08-26 オリンパス株式会社 内視鏡システム、管腔構造算出装置及び管腔構造情報の作成方法

Also Published As

Publication number Publication date
JP7374224B2 (ja) 2023-11-06
JP2023178415A (ja) 2023-12-14
US20220218185A1 (en) 2022-07-14

Similar Documents

Publication Publication Date Title
Ali et al. Deep learning for detection and segmentation of artefact and disease instances in gastrointestinal endoscopy
Nguyen et al. Deep learning models for tuberculosis detection from chest X-ray images
JP7152513B2 (ja) 画像認識方法、装置、端末機器及び医療システム、並びにそのコンピュータプログラム
AU2019431299B2 (en) AI systems for detecting and sizing lesions
TWI696145B (zh) 大腸鏡影像電腦輔助辨識系統及方法
de Souza Jr et al. Convolutional Neural Networks for the evaluation of cancer in Barrett's esophagus: Explainable AI to lighten up the black-box
JP6707131B2 (ja) 画像処理装置、学習装置、画像処理方法、識別基準の作成方法、学習方法およびプログラム
CN112164026A (zh) 一种内窥镜息肉实时检测方法、系统及终端
US20240087113A1 (en) Recording Medium, Learning Model Generation Method, and Support Apparatus
CN113570592A (zh) 肠胃病检测和模型训练方法、装置、设备及介质
CN113538344A (zh) 区分萎缩性胃炎和胃癌的图像识别系统、设备及介质
JP2023513646A (ja) 内視鏡を用いた大腸検査ガイド装置及び方法
Garcia-Peraza-Herrera et al. Interpretable fully convolutional classification of intrapapillary capillary loops for real-time detection of early squamous neoplasia
KR102487104B1 (ko) 딥러닝 모델 기반의 마커를 활용한 대장 내의 영상 표시 장치, 방법 및 프로그램
KR102007656B1 (ko) 모션 센서를 활용한 길이 측정 방법 및 장치
Bulut et al. Polyp Segmentation in Colonoscopy Images using U-Net and Cyclic Learning Rate
US20220202284A1 (en) Endoscope processor, training device, information processing method, training method and program
JP7465409B2 (ja) 人工知能基盤の血管学習による大腸ポリープ検出方法及び装置
US20230122280A1 (en) Systems and methods for providing visual indicators during colonoscopy
WO2022185369A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
KR102648922B1 (ko) 인공지능 기반의 혈관 학습을 통한 대장 용종 검출 방법 및 장치
WO2024095673A1 (ja) 医療支援装置、内視鏡、医療支援方法、及びプログラム
US20240021103A1 (en) Endoscopic training system
US20230351592A1 (en) Clinical decision support system having a multi-ordered hierarchy of classification modules
US20230172428A1 (en) Endoscope image processing device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231024

R150 Certificate of patent or registration of utility model

Ref document number: 7374224

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150