JP2022547132A - System, device and method for turbidity analysis - Google Patents
System, device and method for turbidity analysis Download PDFInfo
- Publication number
- JP2022547132A JP2022547132A JP2022515015A JP2022515015A JP2022547132A JP 2022547132 A JP2022547132 A JP 2022547132A JP 2022515015 A JP2022515015 A JP 2022515015A JP 2022515015 A JP2022515015 A JP 2022515015A JP 2022547132 A JP2022547132 A JP 2022547132A
- Authority
- JP
- Japan
- Prior art keywords
- image
- metric
- fluid delivery
- endoscopic
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title description 56
- 238000004458 analytical method Methods 0.000 title description 23
- 238000001727 in vivo Methods 0.000 claims abstract description 8
- 239000012530 fluid Substances 0.000 claims description 64
- 239000008280 blood Substances 0.000 claims description 53
- 210000004369 blood Anatomy 0.000 claims description 53
- 239000002245 particle Substances 0.000 claims description 42
- 230000007246 mechanism Effects 0.000 claims description 20
- 208000000913 Kidney Calculi Diseases 0.000 claims description 13
- 206010029148 Nephrolithiasis Diseases 0.000 claims description 13
- 238000004140 cleaning Methods 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 8
- 230000000694 effects Effects 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims description 4
- 230000002262 irrigation Effects 0.000 claims description 2
- 238000003973 irrigation Methods 0.000 claims description 2
- 238000010801 machine learning Methods 0.000 description 19
- 239000004575 stone Substances 0.000 description 15
- 238000011156 evaluation Methods 0.000 description 14
- 238000003384 imaging method Methods 0.000 description 10
- 238000007726 management method Methods 0.000 description 8
- 210000003484 anatomy Anatomy 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 239000000306 component Substances 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000005206 flow analysis Methods 0.000 description 5
- 210000001519 tissue Anatomy 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000002708 enhancing effect Effects 0.000 description 4
- 239000007788 liquid Substances 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 238000011471 prostatectomy Methods 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000010438 heat treatment Methods 0.000 description 3
- 206010047513 Vision blurred Diseases 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 201000010260 leiomyoma Diseases 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000001356 surgical procedure Methods 0.000 description 2
- 230000001225 therapeutic effect Effects 0.000 description 2
- 206010004446 Benign prostatic hyperplasia Diseases 0.000 description 1
- 208000004403 Prostatic Hyperplasia Diseases 0.000 description 1
- FAPWRFPIFSIZLT-UHFFFAOYSA-M Sodium chloride Chemical compound [Na+].[Cl-] FAPWRFPIFSIZLT-UHFFFAOYSA-M 0.000 description 1
- 208000007536 Thrombosis Diseases 0.000 description 1
- 208000007097 Urinary Bladder Neoplasms Diseases 0.000 description 1
- 206010046798 Uterine leiomyoma Diseases 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 239000012503 blood component Substances 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000739 chaotic effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000002716 delivery method Methods 0.000 description 1
- 210000002249 digestive system Anatomy 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000002430 laser surgery Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002307 prostate Anatomy 0.000 description 1
- 102000004169 proteins and genes Human genes 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000002271 resection Methods 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 239000011780 sodium chloride Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 210000002700 urine Anatomy 0.000 description 1
- 208000010579 uterine corpus leiomyoma Diseases 0.000 description 1
- 201000007954 uterine fibroid Diseases 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000094—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000096—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/05—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/12—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with cooling or rinsing arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/307—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the urinary organs, e.g. urethroscopes, cystoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M3/00—Medical syringes, e.g. enemata; Irrigators
- A61M3/02—Enemata; Irrigators
- A61M3/0204—Physical characteristics of the irrigation fluid, e.g. conductivity or turbidity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4053—Super resolution, i.e. output image resolution higher than sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
- G06T7/0016—Biomedical image inspection using an image reference approach involving temporal comparison
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M2205/00—General characteristics of the apparatus
- A61M2205/33—Controlling, regulating or measuring
- A61M2205/3306—Optical measuring means
- A61M2205/331—Optical measuring means used as turbidity change detectors, e.g. for priming-blood or plasma-hemoglubine-interface detection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M2205/00—General characteristics of the apparatus
- A61M2205/33—Controlling, regulating or measuring
- A61M2205/3331—Pressure; Flow
- A61M2205/3334—Measuring or controlling the flow rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30084—Kidney; Renal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Optics & Photonics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Multimedia (AREA)
- Urology & Nephrology (AREA)
- Anesthesiology (AREA)
- Hematology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Endoscopes (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Image Processing (AREA)
Abstract
内視鏡システムが、生体内の標的部位の画像を取り込むように構成された内視鏡イメージャと、ある期間にわたって取り込まれた複数の画像フレームの各画像フレームの1又は2以上の画像メトリクスを決定し、期間にわたる画像メトリクスの変化を解析し、解析された画像メトリクスの変化に基づいて、標的部位の濁度メトリックを決定するように構成されたプロセッサとを含む。【選択図】図5An endoscopic system including an endoscopic imager configured to capture images of an in vivo target site and determining one or more image metrics for each image frame of a plurality of image frames captured over a period of time. and a processor configured to analyze changes in the image metric over time and determine a turbidity metric for the target site based on the analyzed changes in the image metric. [Selection drawing] Fig. 5
Description
〔優先権の主張〕
本開示は、2019年9月24日に出願された米国仮特許出願第62/904,882号の優先権を主張するものであり、この文献の開示は引用により本明細書に組み入れられる。
[Priority claim]
This disclosure claims priority to U.S. Provisional Patent Application No. 62/904,882, filed September 24, 2019, the disclosure of which is incorporated herein by reference.
本開示は、内視鏡的処置、とりわけ内視鏡イメージング環境の濁度解析を実行するシステム、装置及び方法に関する。 The present disclosure relates to endoscopic procedures, and more particularly to systems, devices and methods for performing turbidity analysis of an endoscopic imaging environment.
様々な医学的介入中には内視鏡イメージャが使用されることがある。イメージング環境に曇り又は濁りがあると、イメージャによって提供される生体構造のビューが制限される。濁りは、血液、尿又はその他の粒子によって生じることがある。いくつかの内視鏡的処置(例えば、尿管鏡的処置)では、濁った画像環境を、撮像空洞内で流体を循環させる流体管理システムによって管理することができる。 Endoscopic imagers may be used during various medical interventions. Haze or turbidity in the imaging environment limits the view of anatomy provided by the imager. Turbidity may be caused by blood, urine or other particles. In some endoscopic procedures (eg, ureteroscopic procedures), a turbid imaging environment can be managed by a fluid management system that circulates fluid within the imaging cavity.
本開示は、生体内の標的部位の画像フレームを取り込むように構成された内視鏡イメージャと、プロセッサとを含む内視鏡システムに関する。プロセッサは、ある期間にわたって取り込まれた複数の画像フレームの各画像フレームについて1又は2以上の画像メトリクスを決定し、その期間にわたる画像メトリクスの変化を解析し、解析された画像メトリクスの変化に基づいて、標的部位の濁度メトリックを決定するように構成される。 The present disclosure relates to an endoscopic system that includes an endoscopic imager configured to capture image frames of an in-vivo target site, and a processor. A processor determines one or more image metrics for each image frame of a plurality of image frames captured over a period of time, analyzes changes in the image metrics over the period of time, and based on the analyzed image metric changes , configured to determine a turbidity metric of the target site.
ある実施形態では、画像メトリクスが、赤色エントロピーメトリック及びシアンエントロピーメトリックを含む画像エントロピーメトリクスである。 In some embodiments, the image metric is an image entropy metric including a red entropy metric and a cyan entropy metric.
ある実施形態では、プロセッサが、現在の画像フレーム内の血液内容物を推定し、現在の画像フレームを、血液内容物の視覚的効果を軽減して現在の画像フレームの残り部分を強化するように変更するようにさらに構成される。 In some embodiments, the processor estimates the blood content in the current image frame and modifies the current image frame to reduce the visual effects of the blood content and enhance the rest of the current image frame. further configured to modify.
ある実施形態では、プロセッサが、現在の画像フレーム内の粒子を識別及び分類するようにさらに構成される。 In some embodiments, the processor is further configured to identify and classify particles within the current image frame.
ある実施形態では、内視鏡システムが、現在の画像フレームに濁度メトリックを注釈付けするように構成されたディスプレイをさらに含む。 In an embodiment, the endoscopic system further includes a display configured to annotate the current image frame with the turbidity metric.
ある実施形態では、ディスプレイが、識別された粒子を括弧で囲み、現在の画像フレームに粒子分類を注釈付けするようにさらに構成される。 In an embodiment, the display is further configured to bracket the identified particles and annotate the current image frame with the particle classification.
ある実施形態では、識別された粒子が腎臓結石であり、分類が腎臓結石のサイズに関連する。 In some embodiments, the identified particles are kidney stones and the classification relates to kidney stone size.
本開示は、生体内の標的部位の画像フレームを取り込むように構成された内視鏡イメージャと、内視鏡イメージャの視野を明確にするように標的部位に洗浄流体を供給する流体送出機構と、イメージャからの少なくとも1つの画像の濁度メトリックを決定し、濁度メトリックに基づいて洗浄流体の流体送出調整を決定し、決定された流体送出調整に基づいて、流体送出機構によって供給される流体送出を調整するように流体送出機構を制御するように構成されたプロセッサとを含む内視鏡システムにも関する。 The present disclosure provides an endoscopic imager configured to capture an image frame of an in-vivo target site, a fluid delivery mechanism for supplying irrigation fluid to the target site to define the field of view of the endoscopic imager, determining a turbidity metric of at least one image from the imager; determining a fluid delivery adjustment for cleaning fluid based on the turbidity metric; and fluid delivery provided by a fluid delivery mechanism based on the determined fluid delivery adjustment. and a processor configured to control the fluid delivery mechanism to regulate the .
ある実施形態では、プロセッサが、介入器具を識別する特徴検出に基づいて介入活動のタイプを決定するようにさらに構成される。 In an embodiment, the processor is further configured to determine the type of interventional activity based on feature detection identifying the interventional instrument.
ある実施形態では、プロセッサが、介入活動のフェーズを決定し、介入活動のフェーズに基づいて、流体送出機構によって供給される流体送出を調整するようにさらに構成される。 In an embodiment, the processor is further configured to determine a phase of interventional activity and adjust fluid delivery provided by the fluid delivery mechanism based on the phase of interventional activity.
ある実施形態では、プロセッサが、現在の画像フレーム内の粒子を識別及び分類し、粒子分類に基づいて、流体送出機構によって供給される流体送出を調整するようにさらに構成される。 In an embodiment, the processor is further configured to identify and classify particles in the current image frame and adjust fluid delivery provided by the fluid delivery mechanism based on the particle classification.
ある実施形態では、粒子が腎臓結石であり、粒子分類が腎臓結石のサイズに関連する。 In some embodiments, the particle is a kidney stone and the particle classification relates to kidney stone size.
ある実施形態では、プロセッサが、少なくとも1つの画像の血液メトリックを決定し、血液メトリックに基づいて、流体送出機構によって供給される流体送出を調整するようにさらに構成される。 In an embodiment, the processor is further configured to determine a blood metric for the at least one image and adjust fluid delivery provided by the fluid delivery mechanism based on the blood metric.
ある実施形態では、プロセッサが、少なくとも1つの画像の画像エントロピーメトリクスを決定するようにさらに構成される。 In an embodiment, the processor is further configured to determine an image entropy metric for the at least one image.
ある実施形態では、濁度メトリック及び血液メトリックが、画像エントロピーメトリクスに部分的に基づいて決定される。 In some embodiments, the turbidity metric and blood metric are determined based in part on the image entropy metric.
また、本開示は、ある期間にわたって取り込まれた生体内の標的部位の複数の画像フレームの各画像フレームの1又は2以上の画像メトリクスを決定することと、その期間にわたる画像メトリクスの変化を解析することと、解析された画像メトリクスの変化に基づいて、標的部位の濁度メトリックを決定することとを含む方法にも関する。 The present disclosure also includes determining one or more image metrics for each image frame of a plurality of image frames of an in vivo target site captured over a period of time and analyzing changes in the image metrics over the period of time. and determining a turbidity metric of the target site based on changes in the analyzed image metric.
ある実施形態では、画像メトリクスが、赤色エントロピーメトリック及びシアンエントロピーメトリックを含む画像エントロピーメトリクスである。 In some embodiments, the image metric is an image entropy metric including a red entropy metric and a cyan entropy metric.
ある実施形態では、方法が、現在の画像フレーム内の血液内容物を推定することと、現在の画像フレームを、血液内容物の視覚的効果を軽減して現在の画像フレームの残りの部分を強化するように変更することとをさらに含む。 In one embodiment, a method includes estimating blood content in a current image frame and reducing the visual effects of the blood content to enhance the remainder of the current image frame. and modifying to.
ある実施形態では、方法が、現在の画像フレーム内の粒子を識別及び分類することをさらに含む。 In some embodiments, the method further includes identifying and classifying particles within the current image frame.
ある実施形態では、方法が、現在の画像フレームに濁度メトリックを注釈付けすることをさらに含む。 In some embodiments, the method further includes annotating the current image frame with the turbidity metric.
本開示は、以下の説明、及び同様の要素を同じ参照数字で参照する添付図面を参照することでさらに理解することができる。例示的な実施形態は、内視鏡イメージング環境内で濁りを管理するアルゴリズム的改善について説明する。典型的な泌尿器科的処置は、撮像装置(例えば、尿管鏡又は他の内視鏡イメージャ)、(視野をクリアにするため及び/又は体腔を広げる又は膨らませるための)流体送出機構、及び治療機構(例えば、Boston Scientific社のLithoVue(商標)装置、及び/又はレーザー又はRFエネルギー源など)を利用する。 The present disclosure may be further understood with reference to the following description and accompanying drawings, in which like elements are referenced with the same reference numerals. Exemplary embodiments describe algorithmic improvements to manage turbidity within an endoscopic imaging environment. A typical urological procedure includes an imaging device (e.g., a ureteroscope or other endoscopic imager), a fluid delivery mechanism (to clear the field of view and/or widen or distend the body cavity), and A therapeutic mechanism (eg, Boston Scientific's LithoVue™ device, and/or a laser or RF energy source, etc.) is utilized.
本明細書で説明する改善は、例えば内視鏡画像を解析して濁度を決定し、この情報を流体管理システムに提供して視野内の明瞭性を管理する方法を含む。他の改善は、とりわけ泌尿器科的処置のために、内視鏡画像から血液特徴をアルゴリズム的に減算し、血液で不明瞭になった画像特徴を増幅することを含む。いくつかの一般的な泌尿器科的処置としては、腎結石管理(例えば、砕石術)、BPH(すなわち、前立腺肥大症)治療(例えば、GreenLight(商標)レーザー手術)、前立腺切除術、膀胱腫瘍切除術、子宮筋腫対策、診断などが挙げられるが、当業者であれば、画像を改善する装置及び技術は、濁りが問題となる様々な処置(すなわち、非泌尿器科的処置も含む)において使用することができると理解するであろう。 Improvements described herein include, for example, methods of analyzing endoscopic images to determine turbidity and providing this information to a fluid management system to manage clarity within the field of view. Other improvements include algorithmically subtracting blood features from endoscopic images and amplifying blood-obscured image features, particularly for urological procedures. Some common urological procedures include kidney stone management (eg, lithotripsy), BPH (ie, benign prostatic hyperplasia) treatment (eg, GreenLight™ laser surgery), prostatectomy, bladder tumor resection. surgery, uterine fibroid management, diagnostics, etc., but those skilled in the art will recognize that imaging-enhancing devices and techniques are used in a variety of procedures where turbidity is a concern (i.e., including non-urological procedures). You will understand that you can.
図1に、本開示の様々な例示的な実施形態による、内視鏡的処置を行うためのシステム100を示す。システム100は、内視鏡的処置中に生体内の解剖学的部位の画像フレームを取得するイメージャ104を有する内視鏡102と、イメージャ104の視界を損なう恐れがある血液及びデブリを除去するために生体構造に流体(例えば、生理食塩水)を供給する流体送出機構106とを含む。また、流体送出機構106は、同時に生体構造から流体を除去するために吸引も行う。このように、生体構造は、よりクリアな画像を生成できるように実質的に透明な流体で継続的にリフレッシュされる。
FIG. 1 illustrates a
システム100は、内視鏡的処置の性質に応じて選択された治療装置108をさらに含むことができる。治療装置108は、内視鏡102を通じて動作することも、又は内視鏡102の外部に存在することもできる。例えば、治療装置108は、例えば腎臓結石を砕くためのレーザー又は衝撃波発生器、或いは前立腺組織を除去するためのレゼクトスコープ(resectoscope)とすることができる。泌尿器科的処置が診断、すなわち症状を治療することではなく生体構造を検査することを目的とする場合には、治療装置が使用されない場合もある。例示的な実施形態は、泌尿器科的イメージングに関して説明しているが、これに限定されるものではない。いくつかの実施形態は、流体送出機構を含まない内視鏡的処置を含む、例えば消化器系などにおける内視鏡的処置などの幅広い範囲の処置にも同様に適用可能である。
システム100は、イメージャ104から提供された画像フレームを処理し、処理された画像をディスプレイ112に提供するコンピュータ110を含む。コンピュータ110及びディスプレイ112は、本実施形態では内視鏡コンソールなどの統合ステーションに設けられる。内視鏡コンソールには、例えば流体送出機構106を通じて供給される流体の流量、圧力又は供給方法を制御するアクチュエータを含む、泌尿器科処置を実行するための他の機能を実装することもできる。例示的な実施形態は、表示画像を一般に連続的に又は他のいずれかの所望の形で変更して強化するアルゴリズム的プロセスについて説明する。
1つの実施形態では、取り込まれた画像フレームから決定される画像メトリクスを使用して、濁ったイメージング又は撮像環境によってビデオシーケンスが隠されている又はオクルードされている度合いを推定する。画像メトリクスは、画像エントロピーメトリクスを含む。画像エントロピーは、一般に画像内の情報量の尺度又は情報の量として定義され、画像内の強度値の頻度を評価することによって近似させることができる。高エントロピーは、例えばクリアな画像に関連する多くの量の解剖学的細部を反映し、或いは生体構造を不明瞭にする粒子の渦巻き雲などを反映し、クリアでない画像に関連することができる。エントロピー測定の経時的変化は、例えば高エントロピーのクリアな画像と高エントロピーのクリアでない画像とを区別するのに役立つことができる。例えば、一連の画像のエントロピー測定の経時的経過は、クリアでない画像におけるエントロピーの変動性を通じてこれらの2つのタイプの画像を区別する。 In one embodiment, image metrics determined from captured image frames are used to estimate the degree to which a video sequence is obscured or occluded by a turbid imaging or imaging environment. Image metrics include image entropy metrics. Image entropy is generally defined as a measure of the amount of information or amount of information in an image and can be approximated by evaluating the frequency of intensity values in the image. High entropy may reflect, for example, a large amount of anatomical detail associated with clear images, or may be associated with non-clear images, such as swirl clouds of particles that obscure anatomy. Changes in entropy measurements over time can help distinguish between high-entropy clear images and high-entropy not-clear images, for example. For example, the time course of entropy measurements of a series of images distinguishes between these two types of images through entropy variability in non-clear images.
一方で、低エントロピーは、コントラストの損失及び/又は細部の曖昧さを反映する。低エントロピーは、非常に単純なシーン(例えば、真っ白な壁)から生じ得る。画像エントロピーの量は、画像内の総エントロピー、又は、画像内のシアンエントロピーに対する赤色エントロピーの比率などを含む画像エントロピーメトリクスを使用して測定することができる。ある実施形態では、シアンエントロピーに対する赤色エントロピーの比率が、(シアンエントロピーによって表される)他の流体に対する(赤色エントロピーによって表される)血液の寄与を強調し、血液寄与を強調することができる。いくつかの実施形態では、画像エントロピーメトリクスが、一連の画像内の特定の時間周波数帯におけるエントロピー変動をさらに含むことができる。上述したように、エントロピー変動は、クリアな画像とクリアでない画像とを区別するために時間にわたって測定することができる。具体的には、観察画像の高エントロピー測定値の急激な変化は、渦巻く粒子の雲に関連するカオス的なエントロピーを反映し、従って観察画像がクリアでない画像であることを意味する。 On the other hand, low entropy reflects loss of contrast and/or blurring of details. Low entropy can result from very simple scenes (eg, plain white walls). The amount of image entropy can be measured using image entropy metrics, including the total entropy in the image, or the ratio of red to cyan entropy in the image. In some embodiments, the ratio of red to cyan entropy can emphasize the contribution of blood (represented by red entropy) to other fluids (represented by cyan entropy) to emphasize the blood contribution. In some embodiments, the image entropy metric can further include entropy variation in specific temporal frequency bands within the sequence of images. As noted above, entropy variation can be measured over time to distinguish between clear and non-clear images. Specifically, abrupt changes in high-entropy measurements of the observed image reflect the chaotic entropy associated with swirling particles clouds, and thus imply that the observed image is not a clear image.
画像間の変化するシーンを特徴付けるために、オプティカルフロー解析が利用される。一般に、オプティカルフロー解析は、前の画像内の近隣地域に対応する所与の画像内の近隣地域を識別し、これらの位置の違いを識別する。このような位置ずれを推定する1つのこのようなアルゴリズムはファーンバック(Farneback)アルゴリズムである。このような解析は、視野内の静止物体及び移動物体に関する情報、並びに系統的な視野の動き、すなわちカメラのパン、回転、前進及び後退に関する情報を提供する。 Optical flow analysis is used to characterize the changing scene between images. In general, optical flow analysis identifies neighborhoods in a given image that correspond to neighborhoods in the previous image, and identifies differences in these locations. One such algorithm for estimating such misalignment is the Farneback algorithm. Such analysis provides information about stationary and moving objects in the field of view, as well as systematic field motions, ie camera pans, rotations, advances and retreats.
オクルージョンレベル又はシーン内容に応じてビデオセグメントの特徴付け及び分類を行うために機械学習システムを採用することもできる。例えば、ニューラルネットワーク、畳み込みニューラルネットワーク、オプティマイザ、線形回帰及び/又はロジスティック回帰分類器などの機械学習法を使用して新規画像解析及び/又は上述したエントロピーメトリクスの組み合わせを発見し、ビデオセグメントの特徴付け及び分類を行うことができる。機械学習法は、濁度のスカラー推定値、並びに血液と粒子の場確率(blood and particle-field probability)を生成することができる。 Machine learning systems can also be employed to characterize and classify video segments according to occlusion level or scene content. For example, machine learning methods such as neural networks, convolutional neural networks, optimizers, linear regression and/or logistic regression classifiers are used to discover novel image analysis and/or combinations of entropy metrics as described above to characterize video segments. and classification can be performed. Machine learning methods can generate scalar estimates of turbidity, as well as blood and particle-field probabilities.
別の実施形態では、ビデオセグメントを分類するために、例えば空間及び時間周波数分解などの他のメトリクスを使用することもできる。空間周波数解析は、画像の鮮明さを効果的に測定して画像明瞭性を直接明らかにすることができる。粒子の濁った視野を含む画像は、比較的高い空間周波数を示す場合があり、この空間周波数は、高い解剖学的細部を含む画像の空間周波数に類似する。濁った視野を含む高い空間周波数の画像と高い解剖学的細部を含む画像との区別は、時間周波数解析を使用して行うことができる。上述したように、時間周波数解析は、期間にわたってメトリクスの変化を追跡することを意味する。 In another embodiment, other metrics such as spatial and temporal frequency decomposition can also be used to classify the video segments. Spatial frequency analysis can effectively measure image sharpness to directly reveal image clarity. An image containing a cloudy field of particles may exhibit relatively high spatial frequencies, which are similar to those of images containing high anatomical detail. Distinguishing between high spatial frequency images containing cloudy vision and images containing high anatomical detail can be done using temporal frequency analysis. As mentioned above, time-frequency analysis means tracking changes in metrics over time.
以下で詳細に説明するように、機械学習システムは、非線形結合器と、粒子/結石評価、血液評価及び明瞭性評価を含む様々な評価とを最適化することができる。様々なメトリクスは、画素値、強度ヒストグラム値、これらの非線形関数(例えば、対数)、及びこれらの値の経時的シーケンスの線形結合を通じて導出することができる。機械学習システムは、空間周波数又はエントロピーには直接対応せずに観察者による濁りの印象に効果的に対応する上記の値の別の組み合わせを発見するアルゴリズムを使用することができる。 As described in detail below, a machine learning system can optimize the non-linear combiner and various assessments including particle/stone assessment, blood assessment and clarity assessment. Various metrics can be derived through linear combinations of pixel values, intensity histogram values, nonlinear functions (eg, logarithms) of these, and sequences of these values over time. Machine learning systems can use algorithms that find other combinations of the above values that do not directly correspond to spatial frequency or entropy, but effectively correspond to the viewer's impression of turbidity.
機械学習システムは、それらが提示する特徴空間上で動作する(すなわち、システムの値が分類を決定する)。ある実施形態では、ビデオ機械学習システムが、システムに直接入力されたビデオ画素を有する。一般的な機械学習モデルでは、これらの値から画像メトリクス(例えば、空間周波数スペクトル)が計算される。特徴空間は、有用ではあるが機械学習システムにおける計算には適していないシステム解析を与えることによって増補することができる。例えばこの計算に役立つと考えられるエントロピーは、多くの一般的なビデオ処理ニューラルネットワークのアーキテクチャでは、容易に計算することができない。この結果、機械学習システムは、未加工画素に加えて他の解析を提供された時により良い性能を発揮することができる。対数を含む強度ヒストグラムデータを与えることは、ニューラルネットワークにエントロピー及びエントロピー的な測定値を取り込むことを許容し、これによって素早くより良い結果に収束することができる。システムは、メトリクスの数学的バリエーションを優れたものとして識別することができる。従って、特徴空間を慎重に強化することによって劇的に性能を改善することができる。 Machine learning systems operate on the feature spaces they present (ie, the system's values determine the classification). In one embodiment, a video machine learning system has video pixels directly input into the system. A typical machine learning model computes an image metric (eg, spatial frequency spectrum) from these values. The feature space can be augmented by providing system analysis that is useful but not suitable for computation in machine learning systems. For example, entropy, which is considered useful for this computation, cannot be easily computed in many common video processing neural network architectures. As a result, machine learning systems can perform better when presented with other analyzes in addition to raw pixels. Providing intensity histogram data with logarithms allows the neural network to incorporate entropy and entropy-like measurements, thereby converging faster and better results. The system can identify mathematical variations of metrics as superior. Therefore, careful enhancement of the feature space can dramatically improve performance.
画像データから直接導出可能な特定のメトリックは、画像背景が常に変化する臨床環境で濁度を推定する好適なジョブをそれ自体で行わない。例示的な実施形態は、例えば画像データから濁度レベルを評価するエントロピー関連メトリクスをニューラルネットワークに通知して調整する方法について説明する。 Certain metrics that are directly derivable from image data do not by themselves do a good job of estimating turbidity in clinical settings where the image background is constantly changing. Exemplary embodiments describe methods for informing and adjusting neural networks with entropy-related metrics that estimate turbidity levels, for example, from image data.
上述したメトリクス及び解析は、表示された画像フレームに注釈付けするためにディスプレイに出力され及び/又はさらなる解析を通知することができる複数の評価を実行する適切に設計された機械学習アルゴリズムに入力することができる。 The metrics and analysis described above feed into well-designed machine learning algorithms that perform multiple evaluations that can be output to the display to annotate the displayed image frames and/or inform further analysis. be able to.
第1の例では、粒子又は結石評価を実行する。粒子/結石評価は、流体中に懸濁している粒子の特性を決定する。特徴検出は、粒子の性質を決定するために使用することができる。例えば、このようなものとして腎臓結石を識別し、結石のサイズなどのメトリクス、並びに深さ推定値(すなわち、イメージャからの距離)を決定することができる。また、上述したオプティカルフロー解析に部分的に基づいて結石の動きを推定することもできる。他の粒子は、例えばタンパク質、組織、突起物、血栓などを含むことができる。粒子/結石評価は、粒子を識別し、これを画像フレーム内でセグメント化し、サイズ決定する。 In a first example, a particle or stone assessment is performed. Particle/calculus evaluation determines the properties of particles suspended in a fluid. Feature detection can be used to determine the properties of particles. For example, kidney stones can be identified as such and metrics such as stone size, as well as depth estimates (ie, distance from the imager) can be determined. Stone motion can also be estimated based in part on the optical flow analysis described above. Other particles can include, for example, proteins, tissue, protrusions, thrombi, and the like. Particle/stone assessment identifies a particle, segments it within an image frame, and sizes it.
この粒子の識別及び分類を使用して、現在の画像フレームに注釈付けすることができる。例えば、粒子を括弧で囲んで関連するメトリクスを表示して手術中の医師に情報を提供し、素早い意思決定を可能にすることができる。粒子/結石解析は、流体送出機構106による洗浄流体の送出を管理するために使用することもできる。例えば、通常、濁った視野は流体流を高める必要性を示唆するが、移動性の結石の識別は、結石の位置をイメージャの視野内に維持するために流体流を弱めることを示唆することができる。また、粒子/結石評価は、治療の性質に応じて治療装置108の使用に直接的又は間接的に影響を与えることもできる。例えば、結石破砕術では、例えば大きすぎて回収できないもの、大きすぎて自然に通過できないもの、又は自然に通過できるほど十分に小さいものとしての結石の分類は、残りの介入中におけるシステムの動作を自動的に(又は医師の指導下で)駆動し又は動作に影響を与えることができる。 This particle identification and classification can be used to annotate the current image frame. For example, particles can be bracketed to display relevant metrics to inform the operating physician and enable quick decision-making. Particle/concrete analysis can also be used to manage the delivery of cleaning fluid by fluid delivery mechanism 106 . For example, cloudy vision usually suggests the need for increased fluid flow, whereas identification of mobile stones may suggest reduced fluid flow to maintain the stone's position within the imager's field of view. can. Particle/stone assessment may also directly or indirectly affect the use of treatment device 108 depending on the nature of the treatment. For example, in lithotripsy, the classification of a stone as, for example, too large to be retrieved, too large to pass spontaneously, or small enough to pass spontaneously influences operation of the system during the remainder of the intervention. It can be automatically (or under medical supervision) driven or influenced in motion.
第2の例では、明瞭性評価を実行する。明瞭性評価は、画像内の総濁度尺度を決定する。上述したように、例えば画像エントロピーメトリクスを入力として利用する機械学習プロセスは、新規の濁度尺度又は測定値を生成することができる。濁度尺度は、例えば濁度のスカラー推定値、又は機械学習アルゴリズムによって開発された他の何らかのメトリックとすることができる。明瞭性評価は、現在表示されている画像に注釈付けするために使用することも、洗浄液の供給を管理するために使用することもできる。 In a second example, an intelligibility assessment is performed. The clarity rating determines the total turbidity measure within the image. As noted above, a machine learning process using, for example, image entropy metrics as input can generate new turbidity measures or measurements. The turbidity measure can be, for example, a scalar estimate of turbidity or some other metric developed by a machine learning algorithm. The clarity rating can be used to annotate the currently displayed image, or it can be used to manage the supply of cleaning fluid.
第3の例では、血液評価を実行する。血液評価は、空洞内の血液量又は血液内容物の合計測定値を例えば百万分の一(PPM)の単位で推定するが、他のメトリクスを使用することもできる。血液評価は、現在表示されている画像に注釈を付けるために使用することも、洗浄液の供給を管理するために使用することもできる。また、血液評価は、例えば血栓解析、BPH処置のレーザー設定などを通知することもできる。 In a third example, a blood evaluation is performed. Blood assessment estimates a total measurement of blood volume or blood content in the cavity, eg, in parts per million (PPM), although other metrics can be used. The blood assessment can be used to annotate the currently displayed image and can be used to manage the supply of cleaning fluid. Blood assessment can also inform, for example, thrombus analysis, laser settings for BPH treatment, and the like.
上述した粒子評価、明瞭性評価及び血液評価に加えて、撮像された空洞内の流体循環をインビボで管理するために第4の評価を使用することもできる。第4の評価は、内視鏡的処置中に実行される介入のタイプに関する。例えば、この介入は、腎臓結石管理、前立腺切除、子宮筋腫管理などとすることができる。現在の画像フレームに特徴検出器を適用して、進行中の介入活動のタイプを決定することができる。例えば、レーザー前立腺切除術中にはレーザー装置がイメージャのFOV内に存在し、これを特徴検出器によってレーザー装置として識別することができる。 In addition to the particle evaluation, clarity evaluation and blood evaluation described above, a fourth evaluation can also be used to manage fluid circulation within the imaged cavity in vivo. A fourth assessment relates to the type of intervention performed during the endoscopic procedure. For example, the intervention can be kidney stone management, prostatectomy, fibroid management, and the like. A feature detector can be applied to the current image frame to determine the type of interventional activity in progress. For example, during laser prostatectomy, a laser device resides within the FOV of the imager and can be identified as the laser device by the feature detector.
別の例では、特徴検出器などによって結石回収バスケット装置を識別することができる。識別されると、介入のフェーズが評価される。例えば、システムは、結石が粉砕された度合い又は別様にサイズが縮小した度合いを測定することができ、及び/又は回収のために結石がいつバスケットに受け取られたかなどを決定することができる。従って、介入評価は、望ましい流れ特性に影響を与える得る介入のフェーズ(例えば、視野内に結石なし、視野内に結石あり、レーザー照射中)を識別するために、レーザー結石破砕処置中に少なくとも粒子/結石評価などと組み合わせて使用することができる。介入のタイプは、洗浄システムの流体の最適な流量に影響を与える場合がある。例えば、レーザー前立腺切除術では、組織の加熱に起因して、例えば腎結石処置よりも高い流量が要求されることがある。組織の加熱は、空洞内の流体の相補的加熱を引き起こすことがある。より素早い流体の流入及び流出は、空洞内のより安定した温度を維持し、健康な組織の損傷を防ぐように作用することができる。 In another example, the stone retrieval basket device can be identified by a feature detector or the like. Once identified, the phase of intervention is assessed. For example, the system can measure the degree to which a stone has been crushed or otherwise reduced in size, and/or can determine when a stone has been received in a basket for retrieval, and/or the like. Therefore, intervention assessment should be conducted to identify phases of intervention that may affect desirable flow characteristics (e.g., no stone in field, stone in field, laser on), at least particle size during laser lithotripsy procedures. / Can be used in combination with calculus evaluation and the like. The type of intervention may affect the optimal flow rate of fluid in the cleaning system. For example, laser prostatectomy may require higher flow rates than, for example, kidney stone procedures due to tissue heating. Heating of the tissue may cause complementary heating of the fluid within the cavity. Faster fluid inflow and outflow can serve to maintain a more stable temperature within the cavity and prevent damage to healthy tissue.
図2に、本発明の様々な例示的な実施形態による、閉ループフィードバックシステムで洗浄流体の供給を管理する方法200を示す。方法200は、上述したメトリクスの一部又は全部を採用することができる。説明したメトリクスには、単一の画像フレームから導出できるものもあれば、一連の画像フレームから導出できるものもある。従って、流体送出の閉ループ調整は、複数の画像フレームに基づいて実行することができる。しかしながら、当業で通常使用されているイメージャの高速フレームレートを考慮すると、手術中の医師の視点からは、流体送出調整が実質的に連続して見えるほど十分に迅速に適用される。
FIG. 2 illustrates a
205において、イメージャ104が一連の画像フレームを取り込む。上述したように、所与の計算を実行するのに必要な総画像数は異なることができ、従ってシーケンス内の画像の数も異なることができる。 At 205, imager 104 captures a series of image frames. As noted above, the total number of images required to perform a given computation can vary, and so can the number of images in the sequence.
210において、シーケンスにおける1又は2以上の画像フレームから、いくつかの又は全ての上述したメトリクスを決定する。例えば、画像が取り込まれるときに、各画像から画像エントロピーメトリクスを導出してこれらから決定することができる。別の例では、画素メトリクスがこれら画像から直接決定される。 At 210, some or all of the aforementioned metrics are determined from one or more image frames in the sequence. For example, image entropy metrics can be derived from each image and determined from these as the images are captured. In another example, pixel metrics are determined directly from these images.
215において、機械学習コンバイナアルゴリズム/関数を使用して種々のメトリクス及び解析を処理し、オクルージョンレベル及びシーン内容に応じて画像又はビデオセグメントを特徴付けて分類する。上述したように、機械学習アルゴリズムは、種々の方法でメトリクスを組み合わせ、発見された解析に応じてメトリックの重み付け又は使用を自己調整することができる。なお、上述したメトリクス/解析は、治療特徴検出及び介入フェーズ評価を除いて、全て機械学習コンバイナアルゴリズムに入力されるのに対し、治療特徴/フェーズ検出/評価は画像フレームから直接決定され、粒子評価、血液評価又は明瞭性評価を通知しない。 At 215, machine learning combiner algorithms/functions are used to process various metrics and analytics to characterize and classify image or video segments according to occlusion level and scene content. As noted above, machine learning algorithms can combine metrics in various ways and self-adjust the weighting or use of metrics depending on the analysis discovered. It should be noted that all of the metrics/analyses described above, with the exception of treatment feature detection and intervention phase assessment, are input into the machine learning combiner algorithm, whereas treatment features/phase detection/assessment are determined directly from the image frames and particle assessment , does not notify blood evaluation or clarity evaluation.
220において、フロー管理アルゴリズムは、粒子評価、血液評価、明瞭性評価及び介入フェーズ評価を処理して、洗浄流体の流体送出調整が必要であるかどうかを判定し、そうである場合には調整値を決定する。 At 220, the flow management algorithm processes the particle evaluation, the blood evaluation, the clarity evaluation and the intervention phase evaluation to determine if a fluid delivery adjustment of the wash fluid is required and, if so, the adjustment value. to decide.
225において、調整値をプロセッサにフィードバックし、流体送出機構によって供給される流れを調整する。 At 225, the adjustment values are fed back to the processor to adjust the flow delivered by the fluid delivery mechanism.
方法ステップ205~225は、実質的に連続して実行されて、内視鏡の介入中に流体流を管理する閉ループフィードバックシステムを提供する。 Method steps 205-225 are performed substantially continuously to provide a closed loop feedback system for managing fluid flow during an endoscopic intervention.
上述したメトリクスのうち、特に血液評価及び明瞭性評価に関連するものは、内視鏡の介入における血性視野(bloody field of view)を補償するための画像強化をアルゴリズム的に提供するために使用することができる。血液による濁りは、画像から血液特徴をアルゴリズム的に減算し、血液で隠された特徴を増幅することによって管理することができる。後述する方法300及び400は、単独で又は組み合わせて適用することができる。
Of the metrics described above, those particularly related to blood assessment and intelligibility assessment are used to algorithmically provide image enhancements to compensate for bloody fields of view in endoscopic interventions. be able to. Blood turbidity can be managed by algorithmically subtracting blood features from the image and amplifying blood-hidden features. The
図3に、第1の例示的な実施形態による、血液によって曇った液体媒体を通じた視認性を高める方法300を示す。方法300は、洗浄流体の供給を管理する方法200のいくつかのステップ(又は方法200のものと類似のステップ)を含み、単独で又はこれと組み合わせて使用することができる。
FIG. 3 illustrates a
305において、方法200のステップ205に従って、イメージャ104が一連の画像を取り込む。310において、各画像を固定サイズの領域に分割する。各領域は、例えば20×20画素とすることができる。
At 305 , imager 104 captures a series of images according to step 205 of
315において、方法200のステップ210~215と同様に、上述した機械学習コンバイナアルゴリズムを使用して、上述したいくつかのメトリクスを各領域について計算して処理する。このようにして、各領域を血液量又は血液内容物について評価し、血液の存在に従って、各領域を特徴付ける「血液マップ」を生成する。具体的には、血液評価のための機械学習コンバイナアルゴリズムに提供するメトリクスを決定し、これを処理して各領域を分類する。粒子/結石評価又は明瞭性評価を実行する必要も、或いは方法300のためにいずれかの介入装置の特徴を決定する必要もない。しかしながら、別の実施形態では、例えば血液以外の粒子によって濁った視野が生じる場合、明瞭性評価を実行することができる。
At 315, similar to steps 210-215 of
320において、血液マップ値に、コンバイナにおいて血液検出に関連する各メトリックのフレーム間の局所的な変動をオプティカルフローで調整して乗算する。このように、個々の画像サブ領域を利用して、血液によって隠された領域を特定し、選択的又は比例的に画像強化を適用して、血液によって生じる画像細部の損失を緩和することができる。 At 320, the blood map values are multiplied at the combiner with the optical flow adjusted for the frame-to-frame local variation of each metric associated with blood detection. Thus, individual image sub-regions can be utilized to identify regions obscured by blood and selectively or proportionally apply image enhancements to mitigate the loss of image detail caused by blood. .
325において、320から得られた値を使用して、各メトリックを補完するように計算された畳み込みカーネル又は色変換をスケーリングし、その領域で適用して、領域境界でシグモイド減少させる。エントロピー関連カーネルは、関連するカラーチャンネルに適用される(正のエントロピー相関のための)ローパスフィルタカーネル、又は(負のエントロピー相関のための)ハイパスフィルタカーネルのいずれかを使用する。 At 325, the values obtained from 320 are used to scale the convolution kernel or color transform computed to complement each metric and apply it in the region with sigmoidal reduction at the region boundaries. The entropy-related kernel uses either a low-pass filter kernel (for positive entropy correlation) or a high-pass filter kernel (for negative entropy correlation) applied to the associated color channel.
330において、位相及び変化した振幅から成る各領域の空間周波数表現から、血液を含む前景を強調せずに関心のある背景を強調するように画像フレームを再構成する。血液の視覚効果は、畳み込みカーネルのスケーリングに応じて画像全体にわたって様々な程度に軽減することができる。この強化を空間周波数の振幅成分(magnitude components)に適用した後に、これを位相成分と再結合して従来の画像に逆変換することができる。 At 330, the image frames are reconstructed from the spatial frequency representations of each region of phase and varied amplitude to emphasize the background of interest while de-emphasizing the foreground containing blood. The visual effect of blood can be reduced to varying degrees throughout the image depending on the scaling of the convolution kernel. After this enhancement is applied to the spatial frequency magnitude components, it can be recombined with the phase components and transformed back to a conventional image.
図4に、第2の例示的な実施形態による、血液によって曇った液体媒体を通じた視認性を高める方法400を示す。
FIG. 4 illustrates a
405において、変形可能非線形変換を使用して、現在の画像フレームを超解像画像マップに相関付ける。超解像画像マップは、一般に低解像画像の融合から生成される改善された解像度の画像として定義することができる。現在の画像は、現在の画像の解像度を高めるために超解像画像マップと融合することができる。 At 405, a deformable nonlinear transform is used to correlate the current image frame to the super-resolution image map. A super-resolution image map can generally be defined as an image of improved resolution produced from the fusion of low-resolution images. A current image can be fused with a super-resolution image map to increase the resolution of the current image.
410において、上述した血液検出に関連するメトリクスに基づいて、「血液マスク」を作成し、血液マスクは所与の画像フレームにおける推測される血液濁度の空間分布を反映する。 At 410, based on the blood detection-related metrics described above, a "blood mask" is created, which reflects the estimated spatial distribution of blood turbidity in a given image frame.
415において、現在の画像フレームを変形超解像マップと融合して、現在のフレームと超解像マップとの加重平均である強化フレームを生成する。血液マスク値が低い時には、画素は元々の画像フレームの画素に向かって促され、マスク値が高い時には、画素は超解像マップの画素に向かって促される。 At 415, the current image frame is fused with the modified super-resolution map to produce an enhanced frame that is a weighted average of the current frame and the super-resolution map. When the blood mask value is low, the pixels are pushed towards the pixels of the original image frame, and when the mask values are high, the pixels are pushed towards the pixels of the super-resolution map.
図5は、方法200、300及び400の要素を含む複合的実施形態を表すフローチャート500である。当業者であれば、上述した様々なメトリクス及び解析は、単独で又は様々な方法で組み合わせて使用することができると理解するであろう。
FIG. 5 is a flow chart 500 representing a combined embodiment including elements of
505において、内視鏡イメージングフィードから画像を抽出する。上述したように、例えばオプティカルフロー解析などのメトリクス/解析の中には、決定のために多くの画像を必要とするものもある。しかしながら、フローチャート500では、各計算を実行するのに十分な以前の画像が取り込まれていると想定することができる。 At 505, images are extracted from the endoscopic imaging feed. As mentioned above, some metrics/analyses, such as optical flow analysis, require many images for a decision. However, flowchart 500 can assume that enough previous images have been captured to perform each calculation.
510において、種々のメトリクスを計算するために画像を赤色成分とシアン成分とに分離する。例えば、515において、赤色エントロピー値及びシアンエントロピー値を計算する。シアンに対する赤色エントロピー比などのメトリクスを計算することも、又は赤色シアン値を直接使用することもできる。520において、赤色スペクトル成分及びシアンスペクトル成分について空間周波数解析を行う。525において、赤色/シアンエントロピー値及び空間周波数解析が時間周波数解析に提供される。当業者であれば、時間周波数解析では、写真間の差異を解析するために一連の写真が必要であると理解するであろう。例えば、一定期間にわたってエントロピー変動が測定される。530において、赤色成分及びシアン成分を比較するカラーバランスを実行する。535において、画像間の画素値を比較する画素変化率解析を実行する。540において、連続画像を相関付けて一定期間にわたる物体又は組織の動きなどの情報を導出するオプティカルフロー解析を実行する。 At 510, the image is separated into red and cyan components for calculating various metrics. For example, at 515, a red entropy value and a cyan entropy value are calculated. Metrics such as the ratio of red to cyan entropy can be calculated, or red-cyan values can be used directly. At 520, a spatial frequency analysis is performed on the red spectral component and the cyan spectral component. At 525, the red/cyan entropy values and spatial frequency analysis are provided to temporal frequency analysis. Those skilled in the art will appreciate that time-frequency analysis requires a series of photographs in order to analyze the differences between the photographs. For example, entropy variation is measured over a period of time. At 530, a color balance is performed that compares the red and cyan components. At 535, a pixel change rate analysis is performed that compares pixel values between images. At 540, optical flow analysis is performed that correlates successive images to derive information such as object or tissue motion over time.
545において、機械学習システムが上述したメトリクス/解析を様々な方法で組み合わせて、粒子情報(粒子/結石評価550)、血液量情報又は血液内容物情報(血液評価555)、及び濁度情報(明瞭性評価560)を生成する。画像内の介入特徴を識別し(治療装置特徴検出565)、介入のフェーズを評価する(治療フェーズ評価570)介入評価も実行する。粒子、血液、明瞭性及び介入解析は、洗浄システムの流体流575を制御するために使用される。上述したように、流体流管理575は、流量、圧力又は流体供給方法の調整を含むことができる。 At 545, the machine learning system combines the metrics/analysis described above in various ways to provide particle information (particle/stone rating 550), blood volume or blood content information (blood rating 555), and turbidity information (clear generate a gender assessment 560). An intervention assessment is also performed that identifies intervention features in the image (treatment device feature detection 565) and assesses the phase of the intervention (treatment phase assessment 570). Particle, blood, clarity and intervention analysis are used to control the fluid flow 575 of the cleaning system. As noted above, fluid flow management 575 can include regulation of flow rates, pressures, or fluid delivery methods.
580において、方法300又は400に従って画像の血液成分を除去又は軽減することによって、現在の画像を強化することができる。585において、方法200に従って現在の画像に注釈付けすることができる。現在の画像には、血液/明瞭性評価において導出された血液又は濁度メトリクスをさらに注釈付けすることができる。590において、強化/注釈付けされた画像を表示する。さらなる画像が取り込まれると、上述したステップ/メトリクス/解析が実行又は決定される。
At 580 , the current image can be enhanced by removing or reducing the blood component of the image according to
別の実施形態では、コンピュータ可読媒体が、コンピュータによって実行された時に濁度メトリックの決定などの上述した様々な画像処理ステップ/解析をコンピュータに実行させる命令を含む。 In another embodiment, a computer-readable medium includes instructions that, when executed by a computer, cause the computer to perform the various image processing steps/analyses described above, such as determining the turbidity metric.
当業者であれば、発明概念から逸脱することなく、上述した実施形態に変更を行うことができると理解するであろう。さらに、1つの実施形態に関連する構造的特徴及び方法を他の実施形態に組み込むこともできると理解されたい。従って、本発明は、開示した特定の実施形態に限定されるものではなく、むしろ添付の特許請求の範囲によって定められる本発明の範囲には修正も含まれると理解される。 Those skilled in the art will appreciate that changes can be made to the above-described embodiments without departing from the inventive concept. Furthermore, it should be understood that structural features and methods associated with one embodiment may also be incorporated into other embodiments. It is therefore understood that the invention is not limited to the particular embodiments disclosed, but rather modifications are included within the scope of the invention as defined by the appended claims.
Claims (15)
生体内の標的部位の画像フレームを取り込むように構成された内視鏡イメージャと、
プロセッサと、を備え、
前記プロセッサは、
ある期間にわたって取り込まれた複数の画像フレームの各画像フレームの1又は2以上の画像メトリクスを決定し、
前記期間にわたる前記画像メトリクスの変化を解析し、
解析された前記画像メトリクスの変化に基づいて、前記標的部位の濁度メトリックを決定する、
ように構成された内視鏡システム。 An endoscope system,
an endoscopic imager configured to capture image frames of an in vivo target site;
a processor;
The processor
determining one or more image metrics for each image frame of a plurality of image frames captured over a period of time;
analyzing changes in said image metrics over said time period;
determining a turbidity metric for the target site based on changes in the analyzed image metric;
An endoscope system configured to:
現在の画像フレーム内の血液内容物を推定し、
前記現在の画像フレームを、前記血液内容物の視覚的効果を軽減して前記現在の画像フレームの残り部分を強化するように変更する、ようにさらに構成される、請求項2に記載の内視鏡システム。 The processor
estimating the blood content in the current image frame;
3. The endoscopic device of claim 2, further configured to alter the current image frame to reduce the visual effects of the blood content and enhance the remainder of the current image frame. mirror system.
識別された前記粒子を括弧で囲み、
前記現在の画像フレームに粒子分類を注釈付けする、
ようにさらに構成される、請求項5に記載の内視鏡システム。 The display is
enclosing the identified particles in parentheses;
annotating the current image frame with a particle classification;
6. The endoscopic system of claim 5, further configured to:
生体内の標的部位の画像フレームを取り込むように構成された内視鏡イメージャと、
前記内視鏡イメージャの視野を明確にするように前記標的部位に洗浄流体を供給する流体送出機構と、
プロセッサと、を備え、
前記プロセッサは、
前記内視鏡イメージャからの少なくとも1つの画像の濁度メトリックを決定し、
前記濁度メトリックに基づいて前記洗浄流体の流体送出調整を決定し、
決定された流体送出調整に基づいて、前記流体送出機構によって供給される流体送出を調整するように前記流体送出機構を制御する、
ように構成された内視鏡システム。 An endoscope system,
an endoscopic imager configured to capture image frames of an in vivo target site;
a fluid delivery mechanism that supplies irrigation fluid to the target site to define the field of view of the endoscopic imager;
a processor;
The processor
determining a turbidity metric of at least one image from the endoscopic imager;
determining a fluid delivery adjustment for the cleaning fluid based on the turbidity metric;
controlling the fluid delivery mechanism to adjust the fluid delivery provided by the fluid delivery mechanism based on the determined fluid delivery adjustment;
An endoscope system configured to:
前記介入活動のフェーズを決定し、
前記介入活動のフェーズに基づいて、前記流体送出機構によって供給される流体送出を調整する、ようにさらに構成される、請求項9に記載の内視鏡システム。 The processor
determining the phase of said intervention activity;
10. The endoscopic system of claim 9, further configured to adjust fluid delivery provided by the fluid delivery mechanism based on the phase of the interventional activity.
現在の画像フレーム内の粒子を識別し分類し、
粒子分類に基づいて、前記流体送出機構によって供給される流体送出を調整する、ようにさらに構成される、請求項8~10のいずれか1項に記載の内視鏡システム。 The processor
identify and classify particles in the current image frame;
The endoscopic system of any one of claims 8-10, further configured to adjust fluid delivery provided by the fluid delivery mechanism based on particle classification.
前記少なくとも1つの画像の血液メトリックを決定し、
前記血液メトリックに基づいて、前記流体送出機構によって供給される流体送出を調整する、ようにさらに構成される、請求項8~11のいずれか1項に記載の内視鏡システム。 The processor
determining a blood metric for the at least one image;
The endoscopic system of any one of claims 8-11, further configured to adjust fluid delivery provided by the fluid delivery mechanism based on the blood metric.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023109724A JP2023126283A (en) | 2019-09-24 | 2023-07-04 | System, device and method for turbidity analysis |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962904882P | 2019-09-24 | 2019-09-24 | |
US62/904,882 | 2019-09-24 | ||
PCT/US2020/048229 WO2021061336A1 (en) | 2019-09-24 | 2020-08-27 | System, device and method for turbidity analysis |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023109724A Division JP2023126283A (en) | 2019-09-24 | 2023-07-04 | System, device and method for turbidity analysis |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022547132A true JP2022547132A (en) | 2022-11-10 |
JP7309050B2 JP7309050B2 (en) | 2023-07-14 |
Family
ID=72433043
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022515015A Active JP7309050B2 (en) | 2019-09-24 | 2020-08-27 | System and equipment for turbidity analysis |
JP2023109724A Pending JP2023126283A (en) | 2019-09-24 | 2023-07-04 | System, device and method for turbidity analysis |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023109724A Pending JP2023126283A (en) | 2019-09-24 | 2023-07-04 | System, device and method for turbidity analysis |
Country Status (8)
Country | Link |
---|---|
US (1) | US20210085165A1 (en) |
EP (1) | EP4033958A1 (en) |
JP (2) | JP7309050B2 (en) |
KR (1) | KR20220054340A (en) |
CN (1) | CN114531846A (en) |
AU (2) | AU2020354896B2 (en) |
CA (1) | CA3147729A1 (en) |
WO (1) | WO2021061336A1 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11737434B2 (en) | 2021-07-19 | 2023-08-29 | X Development Llc | Turbidity determination using computer vision |
US20230039326A1 (en) * | 2021-08-09 | 2023-02-09 | Easyendo Surgical, Inc. | Stone removing apparatus and stone size measuring method |
US11881017B2 (en) * | 2022-03-24 | 2024-01-23 | X Development Llc | Turbidity determination using machine learning |
CN115063596A (en) * | 2022-06-17 | 2022-09-16 | 上海蓝长自动化科技有限公司 | Water quality turbidity detection method based on deep regression network |
CN116211260B (en) * | 2023-05-09 | 2023-07-21 | 西南医科大学附属医院 | Kidney stone form three-dimensional imaging system and method based on zooming scanning |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100280314A1 (en) * | 2007-11-20 | 2010-11-04 | Pieter Brommersma | Urological resectoscope comprising holes |
US20120057754A1 (en) * | 1997-12-23 | 2012-03-08 | Dunton Randy R | Image selection based on image content |
US20120316421A1 (en) * | 2009-07-07 | 2012-12-13 | The Johns Hopkins University | System and method for automated disease assessment in capsule endoscopy |
US20130243286A1 (en) * | 2006-03-13 | 2013-09-19 | Given Imaging Ltd. | Cascade analysis for intestinal contraction detection |
US20180082104A1 (en) * | 2015-03-02 | 2018-03-22 | Siemens Aktiengesellschaft | Classification of cellular images and videos |
US20180271615A1 (en) * | 2017-03-21 | 2018-09-27 | Amit Mahadik | Methods and systems to automate surgical interventions |
US20190192237A1 (en) * | 2016-01-29 | 2019-06-27 | Boston Scientific Scimed, Inc. | Medical user interfaces and related methods of use |
-
2020
- 2020-08-27 WO PCT/US2020/048229 patent/WO2021061336A1/en unknown
- 2020-08-27 CA CA3147729A patent/CA3147729A1/en active Pending
- 2020-08-27 AU AU2020354896A patent/AU2020354896B2/en active Active
- 2020-08-27 JP JP2022515015A patent/JP7309050B2/en active Active
- 2020-08-27 KR KR1020227009551A patent/KR20220054340A/en not_active Application Discontinuation
- 2020-08-27 US US16/948,022 patent/US20210085165A1/en active Pending
- 2020-08-27 CN CN202080066581.2A patent/CN114531846A/en active Pending
- 2020-08-27 EP EP20768788.0A patent/EP4033958A1/en active Pending
-
2023
- 2023-07-04 JP JP2023109724A patent/JP2023126283A/en active Pending
- 2023-10-05 AU AU2023241346A patent/AU2023241346A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120057754A1 (en) * | 1997-12-23 | 2012-03-08 | Dunton Randy R | Image selection based on image content |
US20130243286A1 (en) * | 2006-03-13 | 2013-09-19 | Given Imaging Ltd. | Cascade analysis for intestinal contraction detection |
US20100280314A1 (en) * | 2007-11-20 | 2010-11-04 | Pieter Brommersma | Urological resectoscope comprising holes |
US20120316421A1 (en) * | 2009-07-07 | 2012-12-13 | The Johns Hopkins University | System and method for automated disease assessment in capsule endoscopy |
US20180082104A1 (en) * | 2015-03-02 | 2018-03-22 | Siemens Aktiengesellschaft | Classification of cellular images and videos |
US20190192237A1 (en) * | 2016-01-29 | 2019-06-27 | Boston Scientific Scimed, Inc. | Medical user interfaces and related methods of use |
US20180271615A1 (en) * | 2017-03-21 | 2018-09-27 | Amit Mahadik | Methods and systems to automate surgical interventions |
Also Published As
Publication number | Publication date |
---|---|
CN114531846A (en) | 2022-05-24 |
CA3147729A1 (en) | 2021-04-01 |
US20210085165A1 (en) | 2021-03-25 |
WO2021061336A1 (en) | 2021-04-01 |
JP7309050B2 (en) | 2023-07-14 |
AU2023241346A1 (en) | 2023-10-26 |
EP4033958A1 (en) | 2022-08-03 |
AU2020354896A1 (en) | 2022-03-10 |
KR20220054340A (en) | 2022-05-02 |
AU2020354896B2 (en) | 2023-07-06 |
JP2023126283A (en) | 2023-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7309050B2 (en) | System and equipment for turbidity analysis | |
US11835702B2 (en) | Medical image processing apparatus, medical image processing method, and medical observation system | |
US10213093B2 (en) | Focus control device, endoscope apparatus, and method for controlling focus control device | |
EP2764819B1 (en) | Image processing device, endoscopic device, image processing method and image processing program | |
KR102630074B1 (en) | Systems and methods for endoscopic video enhancement, quantification, and surgical guidance | |
Sdiri et al. | Efficient enhancement of stereo endoscopic images based on joint wavelet decomposition and binocular combination | |
US10517467B2 (en) | Focus control device, endoscope apparatus, and method for controlling focus control device | |
US20120120305A1 (en) | Imaging apparatus, program, and focus control method | |
CN112513617A (en) | Method and system for dye-free visualization of blood flow and tissue perfusion in laparoscopic surgery | |
Ali et al. | Supervised scene illumination control in stereo arthroscopes for robot assisted minimally invasive surgery | |
US20210251502A1 (en) | Systems and methods for processing laser speckle signals | |
Wang et al. | A smoke removal method for laparoscopic images | |
KR20100018248A (en) | Method and apparatus for frame interpolation of ultrasound image in ultrasound system | |
JPWO2020054542A1 (en) | Medical image processing equipment, medical image processing methods and programs, endoscopic systems | |
WO2021163603A1 (en) | Systems and methods for processing laser speckle signals | |
JP7451680B2 (en) | Processing system, image processing method, learning method and processing device | |
US20230298138A1 (en) | Methods and systems for extracting medical images | |
JP6838644B2 (en) | Diagnostic imaging equipment, diagnostic imaging methods, and programs | |
WO2023184526A1 (en) | System and method of real-time stereoscopic visualization based on monocular camera | |
JP7158471B2 (en) | Inspection video processing device, operation method of inspection video processing device, and inspection video processing program | |
WO2020196387A1 (en) | Signal processing device, signal processing method, program and medical image processing system | |
WO2022126516A1 (en) | Adaptive image noise reduction system and method | |
Hirakawa et al. | Defocus-aware Dirichlet particle filter for stable endoscopic video frame recognition | |
JP2023011303A (en) | Medical image processing apparatus and operating method of the same | |
WO2023212190A1 (en) | Continuous blood flow visualization with laser speckle contrast imaging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220307 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230301 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230704 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7309050 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |