JP2022547132A - System, device and method for turbidity analysis - Google Patents

System, device and method for turbidity analysis Download PDF

Info

Publication number
JP2022547132A
JP2022547132A JP2022515015A JP2022515015A JP2022547132A JP 2022547132 A JP2022547132 A JP 2022547132A JP 2022515015 A JP2022515015 A JP 2022515015A JP 2022515015 A JP2022515015 A JP 2022515015A JP 2022547132 A JP2022547132 A JP 2022547132A
Authority
JP
Japan
Prior art keywords
image
metric
fluid delivery
endoscopic
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022515015A
Other languages
Japanese (ja)
Other versions
JP7309050B2 (en
Inventor
ニラジ プラサド ラウニヤール
ロバート ジェイ ライカー
ティモシー ポール ハラー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boston Scientific Scimed Inc
Original Assignee
Boston Scientific Scimed Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boston Scientific Scimed Inc filed Critical Boston Scientific Scimed Inc
Publication of JP2022547132A publication Critical patent/JP2022547132A/en
Priority to JP2023109724A priority Critical patent/JP2023126283A/en
Application granted granted Critical
Publication of JP7309050B2 publication Critical patent/JP7309050B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/12Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with cooling or rinsing arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/307Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the urinary organs, e.g. urethroscopes, cystoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M3/00Medical syringes, e.g. enemata; Irrigators
    • A61M3/02Enemata; Irrigators
    • A61M3/0204Physical characteristics of the irrigation fluid, e.g. conductivity or turbidity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/33Controlling, regulating or measuring
    • A61M2205/3306Optical measuring means
    • A61M2205/331Optical measuring means used as turbidity change detectors, e.g. for priming-blood or plasma-hemoglubine-interface detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/33Controlling, regulating or measuring
    • A61M2205/3331Pressure; Flow
    • A61M2205/3334Measuring or controlling the flow rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30084Kidney; Renal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Urology & Nephrology (AREA)
  • Anesthesiology (AREA)
  • Hematology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Endoscopes (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

内視鏡システムが、生体内の標的部位の画像を取り込むように構成された内視鏡イメージャと、ある期間にわたって取り込まれた複数の画像フレームの各画像フレームの1又は2以上の画像メトリクスを決定し、期間にわたる画像メトリクスの変化を解析し、解析された画像メトリクスの変化に基づいて、標的部位の濁度メトリックを決定するように構成されたプロセッサとを含む。【選択図】図5An endoscopic system including an endoscopic imager configured to capture images of an in vivo target site and determining one or more image metrics for each image frame of a plurality of image frames captured over a period of time. and a processor configured to analyze changes in the image metric over time and determine a turbidity metric for the target site based on the analyzed changes in the image metric. [Selection drawing] Fig. 5

Description

〔優先権の主張〕
本開示は、2019年9月24日に出願された米国仮特許出願第62/904,882号の優先権を主張するものであり、この文献の開示は引用により本明細書に組み入れられる。
[Priority claim]
This disclosure claims priority to U.S. Provisional Patent Application No. 62/904,882, filed September 24, 2019, the disclosure of which is incorporated herein by reference.

本開示は、内視鏡的処置、とりわけ内視鏡イメージング環境の濁度解析を実行するシステム、装置及び方法に関する。 The present disclosure relates to endoscopic procedures, and more particularly to systems, devices and methods for performing turbidity analysis of an endoscopic imaging environment.

様々な医学的介入中には内視鏡イメージャが使用されることがある。イメージング環境に曇り又は濁りがあると、イメージャによって提供される生体構造のビューが制限される。濁りは、血液、尿又はその他の粒子によって生じることがある。いくつかの内視鏡的処置(例えば、尿管鏡的処置)では、濁った画像環境を、撮像空洞内で流体を循環させる流体管理システムによって管理することができる。 Endoscopic imagers may be used during various medical interventions. Haze or turbidity in the imaging environment limits the view of anatomy provided by the imager. Turbidity may be caused by blood, urine or other particles. In some endoscopic procedures (eg, ureteroscopic procedures), a turbid imaging environment can be managed by a fluid management system that circulates fluid within the imaging cavity.

本開示は、生体内の標的部位の画像フレームを取り込むように構成された内視鏡イメージャと、プロセッサとを含む内視鏡システムに関する。プロセッサは、ある期間にわたって取り込まれた複数の画像フレームの各画像フレームについて1又は2以上の画像メトリクスを決定し、その期間にわたる画像メトリクスの変化を解析し、解析された画像メトリクスの変化に基づいて、標的部位の濁度メトリックを決定するように構成される。 The present disclosure relates to an endoscopic system that includes an endoscopic imager configured to capture image frames of an in-vivo target site, and a processor. A processor determines one or more image metrics for each image frame of a plurality of image frames captured over a period of time, analyzes changes in the image metrics over the period of time, and based on the analyzed image metric changes , configured to determine a turbidity metric of the target site.

ある実施形態では、画像メトリクスが、赤色エントロピーメトリック及びシアンエントロピーメトリックを含む画像エントロピーメトリクスである。 In some embodiments, the image metric is an image entropy metric including a red entropy metric and a cyan entropy metric.

ある実施形態では、プロセッサが、現在の画像フレーム内の血液内容物を推定し、現在の画像フレームを、血液内容物の視覚的効果を軽減して現在の画像フレームの残り部分を強化するように変更するようにさらに構成される。 In some embodiments, the processor estimates the blood content in the current image frame and modifies the current image frame to reduce the visual effects of the blood content and enhance the rest of the current image frame. further configured to modify.

ある実施形態では、プロセッサが、現在の画像フレーム内の粒子を識別及び分類するようにさらに構成される。 In some embodiments, the processor is further configured to identify and classify particles within the current image frame.

ある実施形態では、内視鏡システムが、現在の画像フレームに濁度メトリックを注釈付けするように構成されたディスプレイをさらに含む。 In an embodiment, the endoscopic system further includes a display configured to annotate the current image frame with the turbidity metric.

ある実施形態では、ディスプレイが、識別された粒子を括弧で囲み、現在の画像フレームに粒子分類を注釈付けするようにさらに構成される。 In an embodiment, the display is further configured to bracket the identified particles and annotate the current image frame with the particle classification.

ある実施形態では、識別された粒子が腎臓結石であり、分類が腎臓結石のサイズに関連する。 In some embodiments, the identified particles are kidney stones and the classification relates to kidney stone size.

本開示は、生体内の標的部位の画像フレームを取り込むように構成された内視鏡イメージャと、内視鏡イメージャの視野を明確にするように標的部位に洗浄流体を供給する流体送出機構と、イメージャからの少なくとも1つの画像の濁度メトリックを決定し、濁度メトリックに基づいて洗浄流体の流体送出調整を決定し、決定された流体送出調整に基づいて、流体送出機構によって供給される流体送出を調整するように流体送出機構を制御するように構成されたプロセッサとを含む内視鏡システムにも関する。 The present disclosure provides an endoscopic imager configured to capture an image frame of an in-vivo target site, a fluid delivery mechanism for supplying irrigation fluid to the target site to define the field of view of the endoscopic imager, determining a turbidity metric of at least one image from the imager; determining a fluid delivery adjustment for cleaning fluid based on the turbidity metric; and fluid delivery provided by a fluid delivery mechanism based on the determined fluid delivery adjustment. and a processor configured to control the fluid delivery mechanism to regulate the .

ある実施形態では、プロセッサが、介入器具を識別する特徴検出に基づいて介入活動のタイプを決定するようにさらに構成される。 In an embodiment, the processor is further configured to determine the type of interventional activity based on feature detection identifying the interventional instrument.

ある実施形態では、プロセッサが、介入活動のフェーズを決定し、介入活動のフェーズに基づいて、流体送出機構によって供給される流体送出を調整するようにさらに構成される。 In an embodiment, the processor is further configured to determine a phase of interventional activity and adjust fluid delivery provided by the fluid delivery mechanism based on the phase of interventional activity.

ある実施形態では、プロセッサが、現在の画像フレーム内の粒子を識別及び分類し、粒子分類に基づいて、流体送出機構によって供給される流体送出を調整するようにさらに構成される。 In an embodiment, the processor is further configured to identify and classify particles in the current image frame and adjust fluid delivery provided by the fluid delivery mechanism based on the particle classification.

ある実施形態では、粒子が腎臓結石であり、粒子分類が腎臓結石のサイズに関連する。 In some embodiments, the particle is a kidney stone and the particle classification relates to kidney stone size.

ある実施形態では、プロセッサが、少なくとも1つの画像の血液メトリックを決定し、血液メトリックに基づいて、流体送出機構によって供給される流体送出を調整するようにさらに構成される。 In an embodiment, the processor is further configured to determine a blood metric for the at least one image and adjust fluid delivery provided by the fluid delivery mechanism based on the blood metric.

ある実施形態では、プロセッサが、少なくとも1つの画像の画像エントロピーメトリクスを決定するようにさらに構成される。 In an embodiment, the processor is further configured to determine an image entropy metric for the at least one image.

ある実施形態では、濁度メトリック及び血液メトリックが、画像エントロピーメトリクスに部分的に基づいて決定される。 In some embodiments, the turbidity metric and blood metric are determined based in part on the image entropy metric.

また、本開示は、ある期間にわたって取り込まれた生体内の標的部位の複数の画像フレームの各画像フレームの1又は2以上の画像メトリクスを決定することと、その期間にわたる画像メトリクスの変化を解析することと、解析された画像メトリクスの変化に基づいて、標的部位の濁度メトリックを決定することとを含む方法にも関する。 The present disclosure also includes determining one or more image metrics for each image frame of a plurality of image frames of an in vivo target site captured over a period of time and analyzing changes in the image metrics over the period of time. and determining a turbidity metric of the target site based on changes in the analyzed image metric.

ある実施形態では、画像メトリクスが、赤色エントロピーメトリック及びシアンエントロピーメトリックを含む画像エントロピーメトリクスである。 In some embodiments, the image metric is an image entropy metric including a red entropy metric and a cyan entropy metric.

ある実施形態では、方法が、現在の画像フレーム内の血液内容物を推定することと、現在の画像フレームを、血液内容物の視覚的効果を軽減して現在の画像フレームの残りの部分を強化するように変更することとをさらに含む。 In one embodiment, a method includes estimating blood content in a current image frame and reducing the visual effects of the blood content to enhance the remainder of the current image frame. and modifying to.

ある実施形態では、方法が、現在の画像フレーム内の粒子を識別及び分類することをさらに含む。 In some embodiments, the method further includes identifying and classifying particles within the current image frame.

ある実施形態では、方法が、現在の画像フレームに濁度メトリックを注釈付けすることをさらに含む。 In some embodiments, the method further includes annotating the current image frame with the turbidity metric.

本開示の様々な例示的な実施形態による、内視鏡的処置を実行するシステムを示す図である。1 illustrates a system for performing an endoscopic procedure, according to various exemplary embodiments of the present disclosure; FIG. 本発明の様々な例示的な実施形態による、閉ループフィードバックシステムにおいて洗浄流体流を管理する方法を示す図である。FIG. 5 illustrates a method of managing cleaning fluid flow in a closed-loop feedback system, according to various exemplary embodiments of the present invention; 第1の例示的な実施形態による、血液によって曇った液体媒体を通じた視認性を高める方法を示す図である。FIG. 4 illustrates a method of enhancing visibility through a blood-clouded liquid medium according to a first exemplary embodiment; 第2の例示的な実施形態による、血液によって曇った液体媒体を通じた視認性を高める方法を示す図である。FIG. 5 illustrates a method of enhancing visibility through a blood-clouded liquid medium according to a second exemplary embodiment; 図2~図4の方法を組み合わせた実施形態を表すフローチャートである。Figure 5 is a flow chart representing an embodiment combining the methods of Figures 2-4;

本開示は、以下の説明、及び同様の要素を同じ参照数字で参照する添付図面を参照することでさらに理解することができる。例示的な実施形態は、内視鏡イメージング環境内で濁りを管理するアルゴリズム的改善について説明する。典型的な泌尿器科的処置は、撮像装置(例えば、尿管鏡又は他の内視鏡イメージャ)、(視野をクリアにするため及び/又は体腔を広げる又は膨らませるための)流体送出機構、及び治療機構(例えば、Boston Scientific社のLithoVue(商標)装置、及び/又はレーザー又はRFエネルギー源など)を利用する。 The present disclosure may be further understood with reference to the following description and accompanying drawings, in which like elements are referenced with the same reference numerals. Exemplary embodiments describe algorithmic improvements to manage turbidity within an endoscopic imaging environment. A typical urological procedure includes an imaging device (e.g., a ureteroscope or other endoscopic imager), a fluid delivery mechanism (to clear the field of view and/or widen or distend the body cavity), and A therapeutic mechanism (eg, Boston Scientific's LithoVue™ device, and/or a laser or RF energy source, etc.) is utilized.

本明細書で説明する改善は、例えば内視鏡画像を解析して濁度を決定し、この情報を流体管理システムに提供して視野内の明瞭性を管理する方法を含む。他の改善は、とりわけ泌尿器科的処置のために、内視鏡画像から血液特徴をアルゴリズム的に減算し、血液で不明瞭になった画像特徴を増幅することを含む。いくつかの一般的な泌尿器科的処置としては、腎結石管理(例えば、砕石術)、BPH(すなわち、前立腺肥大症)治療(例えば、GreenLight(商標)レーザー手術)、前立腺切除術、膀胱腫瘍切除術、子宮筋腫対策、診断などが挙げられるが、当業者であれば、画像を改善する装置及び技術は、濁りが問題となる様々な処置(すなわち、非泌尿器科的処置も含む)において使用することができると理解するであろう。 Improvements described herein include, for example, methods of analyzing endoscopic images to determine turbidity and providing this information to a fluid management system to manage clarity within the field of view. Other improvements include algorithmically subtracting blood features from endoscopic images and amplifying blood-obscured image features, particularly for urological procedures. Some common urological procedures include kidney stone management (eg, lithotripsy), BPH (ie, benign prostatic hyperplasia) treatment (eg, GreenLight™ laser surgery), prostatectomy, bladder tumor resection. surgery, uterine fibroid management, diagnostics, etc., but those skilled in the art will recognize that imaging-enhancing devices and techniques are used in a variety of procedures where turbidity is a concern (i.e., including non-urological procedures). You will understand that you can.

図1に、本開示の様々な例示的な実施形態による、内視鏡的処置を行うためのシステム100を示す。システム100は、内視鏡的処置中に生体内の解剖学的部位の画像フレームを取得するイメージャ104を有する内視鏡102と、イメージャ104の視界を損なう恐れがある血液及びデブリを除去するために生体構造に流体(例えば、生理食塩水)を供給する流体送出機構106とを含む。また、流体送出機構106は、同時に生体構造から流体を除去するために吸引も行う。このように、生体構造は、よりクリアな画像を生成できるように実質的に透明な流体で継続的にリフレッシュされる。 FIG. 1 illustrates a system 100 for performing endoscopic procedures, according to various exemplary embodiments of the present disclosure. System 100 includes an endoscope 102 having an imager 104 that acquires image frames of an in-vivo anatomy during an endoscopic procedure, and an imager 104 for removing blood and debris that may obscure the view of the imager 104 . and a fluid delivery mechanism 106 for supplying fluid (eg, saline) to the anatomy. The fluid delivery mechanism 106 also simultaneously provides suction to remove fluid from the anatomy. In this manner, the anatomy is continuously refreshed with substantially transparent fluid to produce clearer images.

システム100は、内視鏡的処置の性質に応じて選択された治療装置108をさらに含むことができる。治療装置108は、内視鏡102を通じて動作することも、又は内視鏡102の外部に存在することもできる。例えば、治療装置108は、例えば腎臓結石を砕くためのレーザー又は衝撃波発生器、或いは前立腺組織を除去するためのレゼクトスコープ(resectoscope)とすることができる。泌尿器科的処置が診断、すなわち症状を治療することではなく生体構造を検査することを目的とする場合には、治療装置が使用されない場合もある。例示的な実施形態は、泌尿器科的イメージングに関して説明しているが、これに限定されるものではない。いくつかの実施形態は、流体送出機構を含まない内視鏡的処置を含む、例えば消化器系などにおける内視鏡的処置などの幅広い範囲の処置にも同様に適用可能である。 System 100 may further include a therapeutic device 108 selected according to the nature of the endoscopic procedure. Treatment device 108 may operate through endoscope 102 or may reside external to endoscope 102 . For example, the treatment device 108 can be a laser or shock wave generator, eg, to break up kidney stones, or a resectoscope to remove prostate tissue. Treatment devices may not be used when the urological procedure is intended to be diagnostic, ie, to examine anatomy rather than treat symptoms. Although exemplary embodiments are described with respect to urological imaging, they are not so limited. Some embodiments are equally applicable to a wide range of procedures, such as endoscopic procedures in the digestive system, including endoscopic procedures that do not involve fluid delivery mechanisms.

システム100は、イメージャ104から提供された画像フレームを処理し、処理された画像をディスプレイ112に提供するコンピュータ110を含む。コンピュータ110及びディスプレイ112は、本実施形態では内視鏡コンソールなどの統合ステーションに設けられる。内視鏡コンソールには、例えば流体送出機構106を通じて供給される流体の流量、圧力又は供給方法を制御するアクチュエータを含む、泌尿器科処置を実行するための他の機能を実装することもできる。例示的な実施形態は、表示画像を一般に連続的に又は他のいずれかの所望の形で変更して強化するアルゴリズム的プロセスについて説明する。 System 100 includes a computer 110 that processes image frames provided by imager 104 and provides processed images to display 112 . Computer 110 and display 112 are provided in an integrated station, such as an endoscope console in this embodiment. The endoscope console may also implement other functions for performing urological procedures including, for example, actuators that control the flow rate, pressure, or method of delivery of fluid delivered through fluid delivery mechanism 106 . Exemplary embodiments describe an algorithmic process that alters and enhances a displayed image generally continuously or in any other desired manner.

1つの実施形態では、取り込まれた画像フレームから決定される画像メトリクスを使用して、濁ったイメージング又は撮像環境によってビデオシーケンスが隠されている又はオクルードされている度合いを推定する。画像メトリクスは、画像エントロピーメトリクスを含む。画像エントロピーは、一般に画像内の情報量の尺度又は情報の量として定義され、画像内の強度値の頻度を評価することによって近似させることができる。高エントロピーは、例えばクリアな画像に関連する多くの量の解剖学的細部を反映し、或いは生体構造を不明瞭にする粒子の渦巻き雲などを反映し、クリアでない画像に関連することができる。エントロピー測定の経時的変化は、例えば高エントロピーのクリアな画像と高エントロピーのクリアでない画像とを区別するのに役立つことができる。例えば、一連の画像のエントロピー測定の経時的経過は、クリアでない画像におけるエントロピーの変動性を通じてこれらの2つのタイプの画像を区別する。 In one embodiment, image metrics determined from captured image frames are used to estimate the degree to which a video sequence is obscured or occluded by a turbid imaging or imaging environment. Image metrics include image entropy metrics. Image entropy is generally defined as a measure of the amount of information or amount of information in an image and can be approximated by evaluating the frequency of intensity values in the image. High entropy may reflect, for example, a large amount of anatomical detail associated with clear images, or may be associated with non-clear images, such as swirl clouds of particles that obscure anatomy. Changes in entropy measurements over time can help distinguish between high-entropy clear images and high-entropy not-clear images, for example. For example, the time course of entropy measurements of a series of images distinguishes between these two types of images through entropy variability in non-clear images.

一方で、低エントロピーは、コントラストの損失及び/又は細部の曖昧さを反映する。低エントロピーは、非常に単純なシーン(例えば、真っ白な壁)から生じ得る。画像エントロピーの量は、画像内の総エントロピー、又は、画像内のシアンエントロピーに対する赤色エントロピーの比率などを含む画像エントロピーメトリクスを使用して測定することができる。ある実施形態では、シアンエントロピーに対する赤色エントロピーの比率が、(シアンエントロピーによって表される)他の流体に対する(赤色エントロピーによって表される)血液の寄与を強調し、血液寄与を強調することができる。いくつかの実施形態では、画像エントロピーメトリクスが、一連の画像内の特定の時間周波数帯におけるエントロピー変動をさらに含むことができる。上述したように、エントロピー変動は、クリアな画像とクリアでない画像とを区別するために時間にわたって測定することができる。具体的には、観察画像の高エントロピー測定値の急激な変化は、渦巻く粒子の雲に関連するカオス的なエントロピーを反映し、従って観察画像がクリアでない画像であることを意味する。 On the other hand, low entropy reflects loss of contrast and/or blurring of details. Low entropy can result from very simple scenes (eg, plain white walls). The amount of image entropy can be measured using image entropy metrics, including the total entropy in the image, or the ratio of red to cyan entropy in the image. In some embodiments, the ratio of red to cyan entropy can emphasize the contribution of blood (represented by red entropy) to other fluids (represented by cyan entropy) to emphasize the blood contribution. In some embodiments, the image entropy metric can further include entropy variation in specific temporal frequency bands within the sequence of images. As noted above, entropy variation can be measured over time to distinguish between clear and non-clear images. Specifically, abrupt changes in high-entropy measurements of the observed image reflect the chaotic entropy associated with swirling particles clouds, and thus imply that the observed image is not a clear image.

画像間の変化するシーンを特徴付けるために、オプティカルフロー解析が利用される。一般に、オプティカルフロー解析は、前の画像内の近隣地域に対応する所与の画像内の近隣地域を識別し、これらの位置の違いを識別する。このような位置ずれを推定する1つのこのようなアルゴリズムはファーンバック(Farneback)アルゴリズムである。このような解析は、視野内の静止物体及び移動物体に関する情報、並びに系統的な視野の動き、すなわちカメラのパン、回転、前進及び後退に関する情報を提供する。 Optical flow analysis is used to characterize the changing scene between images. In general, optical flow analysis identifies neighborhoods in a given image that correspond to neighborhoods in the previous image, and identifies differences in these locations. One such algorithm for estimating such misalignment is the Farneback algorithm. Such analysis provides information about stationary and moving objects in the field of view, as well as systematic field motions, ie camera pans, rotations, advances and retreats.

オクルージョンレベル又はシーン内容に応じてビデオセグメントの特徴付け及び分類を行うために機械学習システムを採用することもできる。例えば、ニューラルネットワーク、畳み込みニューラルネットワーク、オプティマイザ、線形回帰及び/又はロジスティック回帰分類器などの機械学習法を使用して新規画像解析及び/又は上述したエントロピーメトリクスの組み合わせを発見し、ビデオセグメントの特徴付け及び分類を行うことができる。機械学習法は、濁度のスカラー推定値、並びに血液と粒子の場確率(blood and particle-field probability)を生成することができる。 Machine learning systems can also be employed to characterize and classify video segments according to occlusion level or scene content. For example, machine learning methods such as neural networks, convolutional neural networks, optimizers, linear regression and/or logistic regression classifiers are used to discover novel image analysis and/or combinations of entropy metrics as described above to characterize video segments. and classification can be performed. Machine learning methods can generate scalar estimates of turbidity, as well as blood and particle-field probabilities.

別の実施形態では、ビデオセグメントを分類するために、例えば空間及び時間周波数分解などの他のメトリクスを使用することもできる。空間周波数解析は、画像の鮮明さを効果的に測定して画像明瞭性を直接明らかにすることができる。粒子の濁った視野を含む画像は、比較的高い空間周波数を示す場合があり、この空間周波数は、高い解剖学的細部を含む画像の空間周波数に類似する。濁った視野を含む高い空間周波数の画像と高い解剖学的細部を含む画像との区別は、時間周波数解析を使用して行うことができる。上述したように、時間周波数解析は、期間にわたってメトリクスの変化を追跡することを意味する。 In another embodiment, other metrics such as spatial and temporal frequency decomposition can also be used to classify the video segments. Spatial frequency analysis can effectively measure image sharpness to directly reveal image clarity. An image containing a cloudy field of particles may exhibit relatively high spatial frequencies, which are similar to those of images containing high anatomical detail. Distinguishing between high spatial frequency images containing cloudy vision and images containing high anatomical detail can be done using temporal frequency analysis. As mentioned above, time-frequency analysis means tracking changes in metrics over time.

以下で詳細に説明するように、機械学習システムは、非線形結合器と、粒子/結石評価、血液評価及び明瞭性評価を含む様々な評価とを最適化することができる。様々なメトリクスは、画素値、強度ヒストグラム値、これらの非線形関数(例えば、対数)、及びこれらの値の経時的シーケンスの線形結合を通じて導出することができる。機械学習システムは、空間周波数又はエントロピーには直接対応せずに観察者による濁りの印象に効果的に対応する上記の値の別の組み合わせを発見するアルゴリズムを使用することができる。 As described in detail below, a machine learning system can optimize the non-linear combiner and various assessments including particle/stone assessment, blood assessment and clarity assessment. Various metrics can be derived through linear combinations of pixel values, intensity histogram values, nonlinear functions (eg, logarithms) of these, and sequences of these values over time. Machine learning systems can use algorithms that find other combinations of the above values that do not directly correspond to spatial frequency or entropy, but effectively correspond to the viewer's impression of turbidity.

機械学習システムは、それらが提示する特徴空間上で動作する(すなわち、システムの値が分類を決定する)。ある実施形態では、ビデオ機械学習システムが、システムに直接入力されたビデオ画素を有する。一般的な機械学習モデルでは、これらの値から画像メトリクス(例えば、空間周波数スペクトル)が計算される。特徴空間は、有用ではあるが機械学習システムにおける計算には適していないシステム解析を与えることによって増補することができる。例えばこの計算に役立つと考えられるエントロピーは、多くの一般的なビデオ処理ニューラルネットワークのアーキテクチャでは、容易に計算することができない。この結果、機械学習システムは、未加工画素に加えて他の解析を提供された時により良い性能を発揮することができる。対数を含む強度ヒストグラムデータを与えることは、ニューラルネットワークにエントロピー及びエントロピー的な測定値を取り込むことを許容し、これによって素早くより良い結果に収束することができる。システムは、メトリクスの数学的バリエーションを優れたものとして識別することができる。従って、特徴空間を慎重に強化することによって劇的に性能を改善することができる。 Machine learning systems operate on the feature spaces they present (ie, the system's values determine the classification). In one embodiment, a video machine learning system has video pixels directly input into the system. A typical machine learning model computes an image metric (eg, spatial frequency spectrum) from these values. The feature space can be augmented by providing system analysis that is useful but not suitable for computation in machine learning systems. For example, entropy, which is considered useful for this computation, cannot be easily computed in many common video processing neural network architectures. As a result, machine learning systems can perform better when presented with other analyzes in addition to raw pixels. Providing intensity histogram data with logarithms allows the neural network to incorporate entropy and entropy-like measurements, thereby converging faster and better results. The system can identify mathematical variations of metrics as superior. Therefore, careful enhancement of the feature space can dramatically improve performance.

画像データから直接導出可能な特定のメトリックは、画像背景が常に変化する臨床環境で濁度を推定する好適なジョブをそれ自体で行わない。例示的な実施形態は、例えば画像データから濁度レベルを評価するエントロピー関連メトリクスをニューラルネットワークに通知して調整する方法について説明する。 Certain metrics that are directly derivable from image data do not by themselves do a good job of estimating turbidity in clinical settings where the image background is constantly changing. Exemplary embodiments describe methods for informing and adjusting neural networks with entropy-related metrics that estimate turbidity levels, for example, from image data.

上述したメトリクス及び解析は、表示された画像フレームに注釈付けするためにディスプレイに出力され及び/又はさらなる解析を通知することができる複数の評価を実行する適切に設計された機械学習アルゴリズムに入力することができる。 The metrics and analysis described above feed into well-designed machine learning algorithms that perform multiple evaluations that can be output to the display to annotate the displayed image frames and/or inform further analysis. be able to.

第1の例では、粒子又は結石評価を実行する。粒子/結石評価は、流体中に懸濁している粒子の特性を決定する。特徴検出は、粒子の性質を決定するために使用することができる。例えば、このようなものとして腎臓結石を識別し、結石のサイズなどのメトリクス、並びに深さ推定値(すなわち、イメージャからの距離)を決定することができる。また、上述したオプティカルフロー解析に部分的に基づいて結石の動きを推定することもできる。他の粒子は、例えばタンパク質、組織、突起物、血栓などを含むことができる。粒子/結石評価は、粒子を識別し、これを画像フレーム内でセグメント化し、サイズ決定する。 In a first example, a particle or stone assessment is performed. Particle/calculus evaluation determines the properties of particles suspended in a fluid. Feature detection can be used to determine the properties of particles. For example, kidney stones can be identified as such and metrics such as stone size, as well as depth estimates (ie, distance from the imager) can be determined. Stone motion can also be estimated based in part on the optical flow analysis described above. Other particles can include, for example, proteins, tissue, protrusions, thrombi, and the like. Particle/stone assessment identifies a particle, segments it within an image frame, and sizes it.

この粒子の識別及び分類を使用して、現在の画像フレームに注釈付けすることができる。例えば、粒子を括弧で囲んで関連するメトリクスを表示して手術中の医師に情報を提供し、素早い意思決定を可能にすることができる。粒子/結石解析は、流体送出機構106による洗浄流体の送出を管理するために使用することもできる。例えば、通常、濁った視野は流体流を高める必要性を示唆するが、移動性の結石の識別は、結石の位置をイメージャの視野内に維持するために流体流を弱めることを示唆することができる。また、粒子/結石評価は、治療の性質に応じて治療装置108の使用に直接的又は間接的に影響を与えることもできる。例えば、結石破砕術では、例えば大きすぎて回収できないもの、大きすぎて自然に通過できないもの、又は自然に通過できるほど十分に小さいものとしての結石の分類は、残りの介入中におけるシステムの動作を自動的に(又は医師の指導下で)駆動し又は動作に影響を与えることができる。 This particle identification and classification can be used to annotate the current image frame. For example, particles can be bracketed to display relevant metrics to inform the operating physician and enable quick decision-making. Particle/concrete analysis can also be used to manage the delivery of cleaning fluid by fluid delivery mechanism 106 . For example, cloudy vision usually suggests the need for increased fluid flow, whereas identification of mobile stones may suggest reduced fluid flow to maintain the stone's position within the imager's field of view. can. Particle/stone assessment may also directly or indirectly affect the use of treatment device 108 depending on the nature of the treatment. For example, in lithotripsy, the classification of a stone as, for example, too large to be retrieved, too large to pass spontaneously, or small enough to pass spontaneously influences operation of the system during the remainder of the intervention. It can be automatically (or under medical supervision) driven or influenced in motion.

第2の例では、明瞭性評価を実行する。明瞭性評価は、画像内の総濁度尺度を決定する。上述したように、例えば画像エントロピーメトリクスを入力として利用する機械学習プロセスは、新規の濁度尺度又は測定値を生成することができる。濁度尺度は、例えば濁度のスカラー推定値、又は機械学習アルゴリズムによって開発された他の何らかのメトリックとすることができる。明瞭性評価は、現在表示されている画像に注釈付けするために使用することも、洗浄液の供給を管理するために使用することもできる。 In a second example, an intelligibility assessment is performed. The clarity rating determines the total turbidity measure within the image. As noted above, a machine learning process using, for example, image entropy metrics as input can generate new turbidity measures or measurements. The turbidity measure can be, for example, a scalar estimate of turbidity or some other metric developed by a machine learning algorithm. The clarity rating can be used to annotate the currently displayed image, or it can be used to manage the supply of cleaning fluid.

第3の例では、血液評価を実行する。血液評価は、空洞内の血液量又は血液内容物の合計測定値を例えば百万分の一(PPM)の単位で推定するが、他のメトリクスを使用することもできる。血液評価は、現在表示されている画像に注釈を付けるために使用することも、洗浄液の供給を管理するために使用することもできる。また、血液評価は、例えば血栓解析、BPH処置のレーザー設定などを通知することもできる。 In a third example, a blood evaluation is performed. Blood assessment estimates a total measurement of blood volume or blood content in the cavity, eg, in parts per million (PPM), although other metrics can be used. The blood assessment can be used to annotate the currently displayed image and can be used to manage the supply of cleaning fluid. Blood assessment can also inform, for example, thrombus analysis, laser settings for BPH treatment, and the like.

上述した粒子評価、明瞭性評価及び血液評価に加えて、撮像された空洞内の流体循環をインビボで管理するために第4の評価を使用することもできる。第4の評価は、内視鏡的処置中に実行される介入のタイプに関する。例えば、この介入は、腎臓結石管理、前立腺切除、子宮筋腫管理などとすることができる。現在の画像フレームに特徴検出器を適用して、進行中の介入活動のタイプを決定することができる。例えば、レーザー前立腺切除術中にはレーザー装置がイメージャのFOV内に存在し、これを特徴検出器によってレーザー装置として識別することができる。 In addition to the particle evaluation, clarity evaluation and blood evaluation described above, a fourth evaluation can also be used to manage fluid circulation within the imaged cavity in vivo. A fourth assessment relates to the type of intervention performed during the endoscopic procedure. For example, the intervention can be kidney stone management, prostatectomy, fibroid management, and the like. A feature detector can be applied to the current image frame to determine the type of interventional activity in progress. For example, during laser prostatectomy, a laser device resides within the FOV of the imager and can be identified as the laser device by the feature detector.

別の例では、特徴検出器などによって結石回収バスケット装置を識別することができる。識別されると、介入のフェーズが評価される。例えば、システムは、結石が粉砕された度合い又は別様にサイズが縮小した度合いを測定することができ、及び/又は回収のために結石がいつバスケットに受け取られたかなどを決定することができる。従って、介入評価は、望ましい流れ特性に影響を与える得る介入のフェーズ(例えば、視野内に結石なし、視野内に結石あり、レーザー照射中)を識別するために、レーザー結石破砕処置中に少なくとも粒子/結石評価などと組み合わせて使用することができる。介入のタイプは、洗浄システムの流体の最適な流量に影響を与える場合がある。例えば、レーザー前立腺切除術では、組織の加熱に起因して、例えば腎結石処置よりも高い流量が要求されることがある。組織の加熱は、空洞内の流体の相補的加熱を引き起こすことがある。より素早い流体の流入及び流出は、空洞内のより安定した温度を維持し、健康な組織の損傷を防ぐように作用することができる。 In another example, the stone retrieval basket device can be identified by a feature detector or the like. Once identified, the phase of intervention is assessed. For example, the system can measure the degree to which a stone has been crushed or otherwise reduced in size, and/or can determine when a stone has been received in a basket for retrieval, and/or the like. Therefore, intervention assessment should be conducted to identify phases of intervention that may affect desirable flow characteristics (e.g., no stone in field, stone in field, laser on), at least particle size during laser lithotripsy procedures. / Can be used in combination with calculus evaluation and the like. The type of intervention may affect the optimal flow rate of fluid in the cleaning system. For example, laser prostatectomy may require higher flow rates than, for example, kidney stone procedures due to tissue heating. Heating of the tissue may cause complementary heating of the fluid within the cavity. Faster fluid inflow and outflow can serve to maintain a more stable temperature within the cavity and prevent damage to healthy tissue.

図2に、本発明の様々な例示的な実施形態による、閉ループフィードバックシステムで洗浄流体の供給を管理する方法200を示す。方法200は、上述したメトリクスの一部又は全部を採用することができる。説明したメトリクスには、単一の画像フレームから導出できるものもあれば、一連の画像フレームから導出できるものもある。従って、流体送出の閉ループ調整は、複数の画像フレームに基づいて実行することができる。しかしながら、当業で通常使用されているイメージャの高速フレームレートを考慮すると、手術中の医師の視点からは、流体送出調整が実質的に連続して見えるほど十分に迅速に適用される。 FIG. 2 illustrates a method 200 of managing the supply of cleaning fluid with a closed-loop feedback system, according to various exemplary embodiments of the invention. Method 200 may employ some or all of the metrics described above. Some of the metrics described can be derived from a single image frame, while others can be derived from a sequence of image frames. Accordingly, closed-loop adjustment of fluid delivery can be performed based on multiple image frames. However, given the fast frame rates of imagers commonly used in the art, fluid delivery adjustments are applied quickly enough to appear substantially continuous from the perspective of the physician during surgery.

205において、イメージャ104が一連の画像フレームを取り込む。上述したように、所与の計算を実行するのに必要な総画像数は異なることができ、従ってシーケンス内の画像の数も異なることができる。 At 205, imager 104 captures a series of image frames. As noted above, the total number of images required to perform a given computation can vary, and so can the number of images in the sequence.

210において、シーケンスにおける1又は2以上の画像フレームから、いくつかの又は全ての上述したメトリクスを決定する。例えば、画像が取り込まれるときに、各画像から画像エントロピーメトリクスを導出してこれらから決定することができる。別の例では、画素メトリクスがこれら画像から直接決定される。 At 210, some or all of the aforementioned metrics are determined from one or more image frames in the sequence. For example, image entropy metrics can be derived from each image and determined from these as the images are captured. In another example, pixel metrics are determined directly from these images.

215において、機械学習コンバイナアルゴリズム/関数を使用して種々のメトリクス及び解析を処理し、オクルージョンレベル及びシーン内容に応じて画像又はビデオセグメントを特徴付けて分類する。上述したように、機械学習アルゴリズムは、種々の方法でメトリクスを組み合わせ、発見された解析に応じてメトリックの重み付け又は使用を自己調整することができる。なお、上述したメトリクス/解析は、治療特徴検出及び介入フェーズ評価を除いて、全て機械学習コンバイナアルゴリズムに入力されるのに対し、治療特徴/フェーズ検出/評価は画像フレームから直接決定され、粒子評価、血液評価又は明瞭性評価を通知しない。 At 215, machine learning combiner algorithms/functions are used to process various metrics and analytics to characterize and classify image or video segments according to occlusion level and scene content. As noted above, machine learning algorithms can combine metrics in various ways and self-adjust the weighting or use of metrics depending on the analysis discovered. It should be noted that all of the metrics/analyses described above, with the exception of treatment feature detection and intervention phase assessment, are input into the machine learning combiner algorithm, whereas treatment features/phase detection/assessment are determined directly from the image frames and particle assessment , does not notify blood evaluation or clarity evaluation.

220において、フロー管理アルゴリズムは、粒子評価、血液評価、明瞭性評価及び介入フェーズ評価を処理して、洗浄流体の流体送出調整が必要であるかどうかを判定し、そうである場合には調整値を決定する。 At 220, the flow management algorithm processes the particle evaluation, the blood evaluation, the clarity evaluation and the intervention phase evaluation to determine if a fluid delivery adjustment of the wash fluid is required and, if so, the adjustment value. to decide.

225において、調整値をプロセッサにフィードバックし、流体送出機構によって供給される流れを調整する。 At 225, the adjustment values are fed back to the processor to adjust the flow delivered by the fluid delivery mechanism.

方法ステップ205~225は、実質的に連続して実行されて、内視鏡の介入中に流体流を管理する閉ループフィードバックシステムを提供する。 Method steps 205-225 are performed substantially continuously to provide a closed loop feedback system for managing fluid flow during an endoscopic intervention.

上述したメトリクスのうち、特に血液評価及び明瞭性評価に関連するものは、内視鏡の介入における血性視野(bloody field of view)を補償するための画像強化をアルゴリズム的に提供するために使用することができる。血液による濁りは、画像から血液特徴をアルゴリズム的に減算し、血液で隠された特徴を増幅することによって管理することができる。後述する方法300及び400は、単独で又は組み合わせて適用することができる。 Of the metrics described above, those particularly related to blood assessment and intelligibility assessment are used to algorithmically provide image enhancements to compensate for bloody fields of view in endoscopic interventions. be able to. Blood turbidity can be managed by algorithmically subtracting blood features from the image and amplifying blood-hidden features. The methods 300 and 400 described below can be applied singly or in combination.

図3に、第1の例示的な実施形態による、血液によって曇った液体媒体を通じた視認性を高める方法300を示す。方法300は、洗浄流体の供給を管理する方法200のいくつかのステップ(又は方法200のものと類似のステップ)を含み、単独で又はこれと組み合わせて使用することができる。 FIG. 3 illustrates a method 300 of enhancing visibility through a blood-clouded liquid medium, according to a first exemplary embodiment. Method 300 includes several steps of method 200 (or steps similar to those of method 200) for managing the supply of cleaning fluid, and can be used alone or in combination.

305において、方法200のステップ205に従って、イメージャ104が一連の画像を取り込む。310において、各画像を固定サイズの領域に分割する。各領域は、例えば20×20画素とすることができる。 At 305 , imager 104 captures a series of images according to step 205 of method 200 . At 310, each image is divided into regions of fixed size. Each region can be, for example, 20×20 pixels.

315において、方法200のステップ210~215と同様に、上述した機械学習コンバイナアルゴリズムを使用して、上述したいくつかのメトリクスを各領域について計算して処理する。このようにして、各領域を血液量又は血液内容物について評価し、血液の存在に従って、各領域を特徴付ける「血液マップ」を生成する。具体的には、血液評価のための機械学習コンバイナアルゴリズムに提供するメトリクスを決定し、これを処理して各領域を分類する。粒子/結石評価又は明瞭性評価を実行する必要も、或いは方法300のためにいずれかの介入装置の特徴を決定する必要もない。しかしながら、別の実施形態では、例えば血液以外の粒子によって濁った視野が生じる場合、明瞭性評価を実行することができる。 At 315, similar to steps 210-215 of method 200, the machine learning combiner algorithm described above is used to compute and process some of the metrics described above for each region. In this way, each region is evaluated for blood volume or blood content to generate a "blood map" that characterizes each region according to the presence of blood. Specifically, we determine the metrics to provide to the machine learning combiner algorithm for blood assessment, which we process to classify each region. There is no need to perform a particle/concrete assessment or clarity assessment, or to characterize any interventional device for method 300 . However, in another embodiment, a clarity assessment can be performed, for example, when a cloudy field is caused by particles other than blood.

320において、血液マップ値に、コンバイナにおいて血液検出に関連する各メトリックのフレーム間の局所的な変動をオプティカルフローで調整して乗算する。このように、個々の画像サブ領域を利用して、血液によって隠された領域を特定し、選択的又は比例的に画像強化を適用して、血液によって生じる画像細部の損失を緩和することができる。 At 320, the blood map values are multiplied at the combiner with the optical flow adjusted for the frame-to-frame local variation of each metric associated with blood detection. Thus, individual image sub-regions can be utilized to identify regions obscured by blood and selectively or proportionally apply image enhancements to mitigate the loss of image detail caused by blood. .

325において、320から得られた値を使用して、各メトリックを補完するように計算された畳み込みカーネル又は色変換をスケーリングし、その領域で適用して、領域境界でシグモイド減少させる。エントロピー関連カーネルは、関連するカラーチャンネルに適用される(正のエントロピー相関のための)ローパスフィルタカーネル、又は(負のエントロピー相関のための)ハイパスフィルタカーネルのいずれかを使用する。 At 325, the values obtained from 320 are used to scale the convolution kernel or color transform computed to complement each metric and apply it in the region with sigmoidal reduction at the region boundaries. The entropy-related kernel uses either a low-pass filter kernel (for positive entropy correlation) or a high-pass filter kernel (for negative entropy correlation) applied to the associated color channel.

330において、位相及び変化した振幅から成る各領域の空間周波数表現から、血液を含む前景を強調せずに関心のある背景を強調するように画像フレームを再構成する。血液の視覚効果は、畳み込みカーネルのスケーリングに応じて画像全体にわたって様々な程度に軽減することができる。この強化を空間周波数の振幅成分(magnitude components)に適用した後に、これを位相成分と再結合して従来の画像に逆変換することができる。 At 330, the image frames are reconstructed from the spatial frequency representations of each region of phase and varied amplitude to emphasize the background of interest while de-emphasizing the foreground containing blood. The visual effect of blood can be reduced to varying degrees throughout the image depending on the scaling of the convolution kernel. After this enhancement is applied to the spatial frequency magnitude components, it can be recombined with the phase components and transformed back to a conventional image.

図4に、第2の例示的な実施形態による、血液によって曇った液体媒体を通じた視認性を高める方法400を示す。 FIG. 4 illustrates a method 400 of enhancing visibility through a blood-clouded liquid medium according to a second exemplary embodiment.

405において、変形可能非線形変換を使用して、現在の画像フレームを超解像画像マップに相関付ける。超解像画像マップは、一般に低解像画像の融合から生成される改善された解像度の画像として定義することができる。現在の画像は、現在の画像の解像度を高めるために超解像画像マップと融合することができる。 At 405, a deformable nonlinear transform is used to correlate the current image frame to the super-resolution image map. A super-resolution image map can generally be defined as an image of improved resolution produced from the fusion of low-resolution images. A current image can be fused with a super-resolution image map to increase the resolution of the current image.

410において、上述した血液検出に関連するメトリクスに基づいて、「血液マスク」を作成し、血液マスクは所与の画像フレームにおける推測される血液濁度の空間分布を反映する。 At 410, based on the blood detection-related metrics described above, a "blood mask" is created, which reflects the estimated spatial distribution of blood turbidity in a given image frame.

415において、現在の画像フレームを変形超解像マップと融合して、現在のフレームと超解像マップとの加重平均である強化フレームを生成する。血液マスク値が低い時には、画素は元々の画像フレームの画素に向かって促され、マスク値が高い時には、画素は超解像マップの画素に向かって促される。 At 415, the current image frame is fused with the modified super-resolution map to produce an enhanced frame that is a weighted average of the current frame and the super-resolution map. When the blood mask value is low, the pixels are pushed towards the pixels of the original image frame, and when the mask values are high, the pixels are pushed towards the pixels of the super-resolution map.

図5は、方法200、300及び400の要素を含む複合的実施形態を表すフローチャート500である。当業者であれば、上述した様々なメトリクス及び解析は、単独で又は様々な方法で組み合わせて使用することができると理解するであろう。 FIG. 5 is a flow chart 500 representing a combined embodiment including elements of methods 200, 300 and 400. As shown in FIG. Those skilled in the art will appreciate that the various metrics and analyzes described above can be used singly or in combination in various ways.

505において、内視鏡イメージングフィードから画像を抽出する。上述したように、例えばオプティカルフロー解析などのメトリクス/解析の中には、決定のために多くの画像を必要とするものもある。しかしながら、フローチャート500では、各計算を実行するのに十分な以前の画像が取り込まれていると想定することができる。 At 505, images are extracted from the endoscopic imaging feed. As mentioned above, some metrics/analyses, such as optical flow analysis, require many images for a decision. However, flowchart 500 can assume that enough previous images have been captured to perform each calculation.

510において、種々のメトリクスを計算するために画像を赤色成分とシアン成分とに分離する。例えば、515において、赤色エントロピー値及びシアンエントロピー値を計算する。シアンに対する赤色エントロピー比などのメトリクスを計算することも、又は赤色シアン値を直接使用することもできる。520において、赤色スペクトル成分及びシアンスペクトル成分について空間周波数解析を行う。525において、赤色/シアンエントロピー値及び空間周波数解析が時間周波数解析に提供される。当業者であれば、時間周波数解析では、写真間の差異を解析するために一連の写真が必要であると理解するであろう。例えば、一定期間にわたってエントロピー変動が測定される。530において、赤色成分及びシアン成分を比較するカラーバランスを実行する。535において、画像間の画素値を比較する画素変化率解析を実行する。540において、連続画像を相関付けて一定期間にわたる物体又は組織の動きなどの情報を導出するオプティカルフロー解析を実行する。 At 510, the image is separated into red and cyan components for calculating various metrics. For example, at 515, a red entropy value and a cyan entropy value are calculated. Metrics such as the ratio of red to cyan entropy can be calculated, or red-cyan values can be used directly. At 520, a spatial frequency analysis is performed on the red spectral component and the cyan spectral component. At 525, the red/cyan entropy values and spatial frequency analysis are provided to temporal frequency analysis. Those skilled in the art will appreciate that time-frequency analysis requires a series of photographs in order to analyze the differences between the photographs. For example, entropy variation is measured over a period of time. At 530, a color balance is performed that compares the red and cyan components. At 535, a pixel change rate analysis is performed that compares pixel values between images. At 540, optical flow analysis is performed that correlates successive images to derive information such as object or tissue motion over time.

545において、機械学習システムが上述したメトリクス/解析を様々な方法で組み合わせて、粒子情報(粒子/結石評価550)、血液量情報又は血液内容物情報(血液評価555)、及び濁度情報(明瞭性評価560)を生成する。画像内の介入特徴を識別し(治療装置特徴検出565)、介入のフェーズを評価する(治療フェーズ評価570)介入評価も実行する。粒子、血液、明瞭性及び介入解析は、洗浄システムの流体流575を制御するために使用される。上述したように、流体流管理575は、流量、圧力又は流体供給方法の調整を含むことができる。 At 545, the machine learning system combines the metrics/analysis described above in various ways to provide particle information (particle/stone rating 550), blood volume or blood content information (blood rating 555), and turbidity information (clear generate a gender assessment 560). An intervention assessment is also performed that identifies intervention features in the image (treatment device feature detection 565) and assesses the phase of the intervention (treatment phase assessment 570). Particle, blood, clarity and intervention analysis are used to control the fluid flow 575 of the cleaning system. As noted above, fluid flow management 575 can include regulation of flow rates, pressures, or fluid delivery methods.

580において、方法300又は400に従って画像の血液成分を除去又は軽減することによって、現在の画像を強化することができる。585において、方法200に従って現在の画像に注釈付けすることができる。現在の画像には、血液/明瞭性評価において導出された血液又は濁度メトリクスをさらに注釈付けすることができる。590において、強化/注釈付けされた画像を表示する。さらなる画像が取り込まれると、上述したステップ/メトリクス/解析が実行又は決定される。 At 580 , the current image can be enhanced by removing or reducing the blood component of the image according to method 300 or 400 . At 585 , the current image can be annotated according to method 200 . The current image can be further annotated with blood or turbidity metrics derived in the blood/clarity assessment. At 590, the enhanced/annotated image is displayed. As additional images are captured, the steps/metrics/analyses described above are performed or determined.

別の実施形態では、コンピュータ可読媒体が、コンピュータによって実行された時に濁度メトリックの決定などの上述した様々な画像処理ステップ/解析をコンピュータに実行させる命令を含む。 In another embodiment, a computer-readable medium includes instructions that, when executed by a computer, cause the computer to perform the various image processing steps/analyses described above, such as determining the turbidity metric.

当業者であれば、発明概念から逸脱することなく、上述した実施形態に変更を行うことができると理解するであろう。さらに、1つの実施形態に関連する構造的特徴及び方法を他の実施形態に組み込むこともできると理解されたい。従って、本発明は、開示した特定の実施形態に限定されるものではなく、むしろ添付の特許請求の範囲によって定められる本発明の範囲には修正も含まれると理解される。 Those skilled in the art will appreciate that changes can be made to the above-described embodiments without departing from the inventive concept. Furthermore, it should be understood that structural features and methods associated with one embodiment may also be incorporated into other embodiments. It is therefore understood that the invention is not limited to the particular embodiments disclosed, but rather modifications are included within the scope of the invention as defined by the appended claims.

Claims (15)

内視鏡システムであって、
生体内の標的部位の画像フレームを取り込むように構成された内視鏡イメージャと、
プロセッサと、を備え、
前記プロセッサは、
ある期間にわたって取り込まれた複数の画像フレームの各画像フレームの1又は2以上の画像メトリクスを決定し、
前記期間にわたる前記画像メトリクスの変化を解析し、
解析された前記画像メトリクスの変化に基づいて、前記標的部位の濁度メトリックを決定する、
ように構成された内視鏡システム。
An endoscope system,
an endoscopic imager configured to capture image frames of an in vivo target site;
a processor;
The processor
determining one or more image metrics for each image frame of a plurality of image frames captured over a period of time;
analyzing changes in said image metrics over said time period;
determining a turbidity metric for the target site based on changes in the analyzed image metric;
An endoscope system configured to:
前記画像メトリクスは、赤色エントロピーメトリック及びシアンエントロピーメトリックを含む画像エントロピーメトリクスである、請求項1に記載の内視鏡システム。 2. The endoscope system of claim 1, wherein the image metrics are image entropy metrics including a red entropy metric and a cyan entropy metric. 前記プロセッサは、
現在の画像フレーム内の血液内容物を推定し、
前記現在の画像フレームを、前記血液内容物の視覚的効果を軽減して前記現在の画像フレームの残り部分を強化するように変更する、ようにさらに構成される、請求項2に記載の内視鏡システム。
The processor
estimating the blood content in the current image frame;
3. The endoscopic device of claim 2, further configured to alter the current image frame to reduce the visual effects of the blood content and enhance the remainder of the current image frame. mirror system.
前記プロセッサは、現在の画像フレーム内の粒子を識別し分類するようにさらに構成される、請求項1~3のいずれか1項に記載の内視鏡システム。 The endoscopic system of any one of claims 1-3, wherein the processor is further configured to identify and classify particles within a current image frame. 前記現在の画像フレームに前記濁度メトリックを注釈付けするように構成されたディスプレイをさらに備える、請求項4に記載の内視鏡システム。 5. The endoscopic system of claim 4, further comprising a display configured to annotate the current image frame with the turbidity metric. 前記ディスプレイは、
識別された前記粒子を括弧で囲み、
前記現在の画像フレームに粒子分類を注釈付けする、
ようにさらに構成される、請求項5に記載の内視鏡システム。
The display is
enclosing the identified particles in parentheses;
annotating the current image frame with a particle classification;
6. The endoscopic system of claim 5, further configured to:
前記識別された粒子は腎臓結石であり、前記分類は前記腎臓結石のサイズに関する、請求項6に記載の内視鏡システム。 7. The endoscopic system of claim 6, wherein the identified particles are kidney stones and the classification relates to size of the kidney stones. 内視鏡システムであって、
生体内の標的部位の画像フレームを取り込むように構成された内視鏡イメージャと、
前記内視鏡イメージャの視野を明確にするように前記標的部位に洗浄流体を供給する流体送出機構と、
プロセッサと、を備え、
前記プロセッサは、
前記内視鏡イメージャからの少なくとも1つの画像の濁度メトリックを決定し、
前記濁度メトリックに基づいて前記洗浄流体の流体送出調整を決定し、
決定された流体送出調整に基づいて、前記流体送出機構によって供給される流体送出を調整するように前記流体送出機構を制御する、
ように構成された内視鏡システム。
An endoscope system,
an endoscopic imager configured to capture image frames of an in vivo target site;
a fluid delivery mechanism that supplies irrigation fluid to the target site to define the field of view of the endoscopic imager;
a processor;
The processor
determining a turbidity metric of at least one image from the endoscopic imager;
determining a fluid delivery adjustment for the cleaning fluid based on the turbidity metric;
controlling the fluid delivery mechanism to adjust the fluid delivery provided by the fluid delivery mechanism based on the determined fluid delivery adjustment;
An endoscope system configured to:
前記プロセッサは、介入器具を識別する特徴検出に基づいて介入活動のタイプを決定するようにさらに構成される、請求項8に記載の内視鏡システム。 9. The endoscopic system of Claim 8, wherein the processor is further configured to determine a type of interventional activity based on feature detection identifying an interventional instrument. 前記プロセッサは、
前記介入活動のフェーズを決定し、
前記介入活動のフェーズに基づいて、前記流体送出機構によって供給される流体送出を調整する、ようにさらに構成される、請求項9に記載の内視鏡システム。
The processor
determining the phase of said intervention activity;
10. The endoscopic system of claim 9, further configured to adjust fluid delivery provided by the fluid delivery mechanism based on the phase of the interventional activity.
前記プロセッサは、
現在の画像フレーム内の粒子を識別し分類し、
粒子分類に基づいて、前記流体送出機構によって供給される流体送出を調整する、ようにさらに構成される、請求項8~10のいずれか1項に記載の内視鏡システム。
The processor
identify and classify particles in the current image frame;
The endoscopic system of any one of claims 8-10, further configured to adjust fluid delivery provided by the fluid delivery mechanism based on particle classification.
前記粒子は腎臓結石であり、前記粒子分類は前記腎臓結石のサイズに関する、請求項11に記載の内視鏡システム。 12. The endoscopic system of claim 11, wherein said particle is a kidney stone and said particle classification relates to size of said kidney stone. 前記プロセッサは、
前記少なくとも1つの画像の血液メトリックを決定し、
前記血液メトリックに基づいて、前記流体送出機構によって供給される流体送出を調整する、ようにさらに構成される、請求項8~11のいずれか1項に記載の内視鏡システム。
The processor
determining a blood metric for the at least one image;
The endoscopic system of any one of claims 8-11, further configured to adjust fluid delivery provided by the fluid delivery mechanism based on the blood metric.
前記プロセッサは、前記少なくとも1つの画像の画像エントロピーメトリクスを決定するようにさらに構成される、請求項13に記載の内視鏡システム。 14. The endoscopic system of Claim 13, wherein the processor is further configured to determine an image entropy metric for the at least one image. 前記濁度メトリック及び前記血液メトリックは、前記画像エントロピーメトリクスに部分的に基づいて決定される、請求項14に記載の内視鏡システム。 15. The endoscopic system of claim 14, wherein the turbidity metric and the blood metric are determined based in part on the image entropy metric.
JP2022515015A 2019-09-24 2020-08-27 System and equipment for turbidity analysis Active JP7309050B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023109724A JP2023126283A (en) 2019-09-24 2023-07-04 System, device and method for turbidity analysis

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962904882P 2019-09-24 2019-09-24
US62/904,882 2019-09-24
PCT/US2020/048229 WO2021061336A1 (en) 2019-09-24 2020-08-27 System, device and method for turbidity analysis

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023109724A Division JP2023126283A (en) 2019-09-24 2023-07-04 System, device and method for turbidity analysis

Publications (2)

Publication Number Publication Date
JP2022547132A true JP2022547132A (en) 2022-11-10
JP7309050B2 JP7309050B2 (en) 2023-07-14

Family

ID=72433043

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022515015A Active JP7309050B2 (en) 2019-09-24 2020-08-27 System and equipment for turbidity analysis
JP2023109724A Pending JP2023126283A (en) 2019-09-24 2023-07-04 System, device and method for turbidity analysis

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023109724A Pending JP2023126283A (en) 2019-09-24 2023-07-04 System, device and method for turbidity analysis

Country Status (8)

Country Link
US (1) US20210085165A1 (en)
EP (1) EP4033958A1 (en)
JP (2) JP7309050B2 (en)
KR (1) KR20220054340A (en)
CN (1) CN114531846A (en)
AU (2) AU2020354896B2 (en)
CA (1) CA3147729A1 (en)
WO (1) WO2021061336A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11737434B2 (en) 2021-07-19 2023-08-29 X Development Llc Turbidity determination using computer vision
US20230039326A1 (en) * 2021-08-09 2023-02-09 Easyendo Surgical, Inc. Stone removing apparatus and stone size measuring method
US11881017B2 (en) * 2022-03-24 2024-01-23 X Development Llc Turbidity determination using machine learning
CN115063596A (en) * 2022-06-17 2022-09-16 上海蓝长自动化科技有限公司 Water quality turbidity detection method based on deep regression network
CN116211260B (en) * 2023-05-09 2023-07-21 西南医科大学附属医院 Kidney stone form three-dimensional imaging system and method based on zooming scanning

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100280314A1 (en) * 2007-11-20 2010-11-04 Pieter Brommersma Urological resectoscope comprising holes
US20120057754A1 (en) * 1997-12-23 2012-03-08 Dunton Randy R Image selection based on image content
US20120316421A1 (en) * 2009-07-07 2012-12-13 The Johns Hopkins University System and method for automated disease assessment in capsule endoscopy
US20130243286A1 (en) * 2006-03-13 2013-09-19 Given Imaging Ltd. Cascade analysis for intestinal contraction detection
US20180082104A1 (en) * 2015-03-02 2018-03-22 Siemens Aktiengesellschaft Classification of cellular images and videos
US20180271615A1 (en) * 2017-03-21 2018-09-27 Amit Mahadik Methods and systems to automate surgical interventions
US20190192237A1 (en) * 2016-01-29 2019-06-27 Boston Scientific Scimed, Inc. Medical user interfaces and related methods of use

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120057754A1 (en) * 1997-12-23 2012-03-08 Dunton Randy R Image selection based on image content
US20130243286A1 (en) * 2006-03-13 2013-09-19 Given Imaging Ltd. Cascade analysis for intestinal contraction detection
US20100280314A1 (en) * 2007-11-20 2010-11-04 Pieter Brommersma Urological resectoscope comprising holes
US20120316421A1 (en) * 2009-07-07 2012-12-13 The Johns Hopkins University System and method for automated disease assessment in capsule endoscopy
US20180082104A1 (en) * 2015-03-02 2018-03-22 Siemens Aktiengesellschaft Classification of cellular images and videos
US20190192237A1 (en) * 2016-01-29 2019-06-27 Boston Scientific Scimed, Inc. Medical user interfaces and related methods of use
US20180271615A1 (en) * 2017-03-21 2018-09-27 Amit Mahadik Methods and systems to automate surgical interventions

Also Published As

Publication number Publication date
CN114531846A (en) 2022-05-24
CA3147729A1 (en) 2021-04-01
US20210085165A1 (en) 2021-03-25
WO2021061336A1 (en) 2021-04-01
JP7309050B2 (en) 2023-07-14
AU2023241346A1 (en) 2023-10-26
EP4033958A1 (en) 2022-08-03
AU2020354896A1 (en) 2022-03-10
KR20220054340A (en) 2022-05-02
AU2020354896B2 (en) 2023-07-06
JP2023126283A (en) 2023-09-07

Similar Documents

Publication Publication Date Title
JP7309050B2 (en) System and equipment for turbidity analysis
US11835702B2 (en) Medical image processing apparatus, medical image processing method, and medical observation system
US10213093B2 (en) Focus control device, endoscope apparatus, and method for controlling focus control device
EP2764819B1 (en) Image processing device, endoscopic device, image processing method and image processing program
KR102630074B1 (en) Systems and methods for endoscopic video enhancement, quantification, and surgical guidance
Sdiri et al. Efficient enhancement of stereo endoscopic images based on joint wavelet decomposition and binocular combination
US10517467B2 (en) Focus control device, endoscope apparatus, and method for controlling focus control device
US20120120305A1 (en) Imaging apparatus, program, and focus control method
CN112513617A (en) Method and system for dye-free visualization of blood flow and tissue perfusion in laparoscopic surgery
Ali et al. Supervised scene illumination control in stereo arthroscopes for robot assisted minimally invasive surgery
US20210251502A1 (en) Systems and methods for processing laser speckle signals
Wang et al. A smoke removal method for laparoscopic images
KR20100018248A (en) Method and apparatus for frame interpolation of ultrasound image in ultrasound system
JPWO2020054542A1 (en) Medical image processing equipment, medical image processing methods and programs, endoscopic systems
WO2021163603A1 (en) Systems and methods for processing laser speckle signals
JP7451680B2 (en) Processing system, image processing method, learning method and processing device
US20230298138A1 (en) Methods and systems for extracting medical images
JP6838644B2 (en) Diagnostic imaging equipment, diagnostic imaging methods, and programs
WO2023184526A1 (en) System and method of real-time stereoscopic visualization based on monocular camera
JP7158471B2 (en) Inspection video processing device, operation method of inspection video processing device, and inspection video processing program
WO2020196387A1 (en) Signal processing device, signal processing method, program and medical image processing system
WO2022126516A1 (en) Adaptive image noise reduction system and method
Hirakawa et al. Defocus-aware Dirichlet particle filter for stable endoscopic video frame recognition
JP2023011303A (en) Medical image processing apparatus and operating method of the same
WO2023212190A1 (en) Continuous blood flow visualization with laser speckle contrast imaging

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230704

R150 Certificate of patent or registration of utility model

Ref document number: 7309050

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150