CN115279250A - 内窥镜系统 - Google Patents
内窥镜系统 Download PDFInfo
- Publication number
- CN115279250A CN115279250A CN202180019989.9A CN202180019989A CN115279250A CN 115279250 A CN115279250 A CN 115279250A CN 202180019989 A CN202180019989 A CN 202180019989A CN 115279250 A CN115279250 A CN 115279250A
- Authority
- CN
- China
- Prior art keywords
- image
- endoscope
- captured
- dimensional information
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 claims abstract description 114
- 238000003384 imaging method Methods 0.000 claims description 52
- 230000000007 visual effect Effects 0.000 claims description 23
- 238000010801 machine learning Methods 0.000 claims description 6
- 210000001519 tissue Anatomy 0.000 description 54
- 210000000056 organ Anatomy 0.000 description 19
- 238000010586 diagram Methods 0.000 description 14
- 230000003902 lesion Effects 0.000 description 9
- 238000005452 bending Methods 0.000 description 6
- 238000003780 insertion Methods 0.000 description 6
- 230000037431 insertion Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000013139 quantization Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 238000000034 method Methods 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 3
- 210000002429 large intestine Anatomy 0.000 description 3
- 239000007788 liquid Substances 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 230000037303 wrinkles Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 239000011347 resin Substances 0.000 description 2
- 229920005989 resin Polymers 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 240000006829 Ficus sundaica Species 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 206010030113 Oedema Diseases 0.000 description 1
- 208000025865 Ulcer Diseases 0.000 description 1
- 238000002679 ablation Methods 0.000 description 1
- 230000000740 bleeding effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001839 endoscopy Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 229910052736 halogen Inorganic materials 0.000 description 1
- 150000002367 halogens Chemical class 0.000 description 1
- 230000002757 inflammatory effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000005499 meniscus Effects 0.000 description 1
- QSHDDOUJBYECFT-UHFFFAOYSA-N mercury Chemical compound [Hg] QSHDDOUJBYECFT-UHFFFAOYSA-N 0.000 description 1
- 229910052753 mercury Inorganic materials 0.000 description 1
- 229910001507 metal halide Inorganic materials 0.000 description 1
- 150000005309 metal halides Chemical class 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000004400 mucous membrane Anatomy 0.000 description 1
- 210000003097 mucus Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 231100000397 ulcer Toxicity 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00163—Optical arrangements
- A61B1/00194—Optical arrangements adapted for three-dimensional imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000094—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000096—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00064—Constructional details of the endoscope body
- A61B1/00071—Insertion part of the endoscope body
- A61B1/0008—Insertion part of the endoscope body characterised by distal tip features
- A61B1/00096—Optical elements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00163—Optical arrangements
- A61B1/00174—Optical arrangements characterised by the viewing angles
- A61B1/00177—Optical arrangements characterised by the viewing angles for 90 degrees side-viewing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00163—Optical arrangements
- A61B1/00174—Optical arrangements characterised by the viewing angles
- A61B1/00181—Optical arrangements characterised by the viewing angles for multiple fixed viewing angles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00163—Optical arrangements
- A61B1/00193—Optical arrangements adapted for stereoscopic vision
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/05—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/257—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/555—Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/001—Constructional or mechanical details
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Radiology & Medical Imaging (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Endoscopes (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
Abstract
一种内窥镜系统,具备:内窥镜,其拍摄体腔内的活组织;和图像处理单元,其对所述由内窥镜拍摄到的摄像图像进行图像处理。所述内窥镜配备有物镜,设置在摄像元件的受光面前面,并被配置为:将通过多个窗口中获得的活组织图像,作为所述摄像图像,同时于所述受光面上进行成像。所述图像处理单元具备三维扩张处理部,其基于所述内窥镜拍摄的所述摄像图像内的通过所述多个窗口获取的多个图像各自共同包含的、相对于其他部分可识别的特征部分的所述图像中的位置信息,计算从多个所述窗口看到的所述特征部分的不同方向,将所述特征部分的图像的二维信息扩展为三维信息。
Description
技术领域
本发明涉及一种对体腔内的活组织进行摄像的内窥镜系统。
背景技术
内窥镜是一种带有摄像元件的设备,插入体腔内,如人体,以对体腔内表面的活组织进行摄像。例如,将内窥镜插入大肠,并将捕获的图像显示在显示器上,以确定活组织中是否存在非健康区域,例如病变。在诊断大肠内的活组织时,必须在内表面突出的褶皱不影响摄像的情况下,在将内窥镜向一个方向拉的同时,使褶皱向一个方向倾斜,以确定褶皱底部是否有病变。然而,即使褶皱向一个方向倾斜,病变仍可能存在于隐藏在褶皱后面的区域。如果要摄像的图像视场很窄,相邻的褶皱之间的区域可能不会被摄像。
为了能够在褶皱塌陷之前在褶皱之间摄像,可以在摄像元件的物镜系统中使用一个广角物镜。
例如,已知的内窥镜系统,包括一个内窥镜,该内窥镜具有插入观察对象的插入部分,具有在插入部分的先端方向的视场的直接观察部分,具有在插入部分的横向方向的视场的侧视部分,从插入部分突出并在侧视部分的视场中形成死角的突起,以及使用直接观察部分获取直接观察图像和使用侧视部分获取侧视观察图像的图像获取部(参照特开JP2018-57799号公报)。
发明内容
发明所要解决的课题
在上述内窥镜系统中,能够同时取得直接观察图像和侧视观察图像,在显示部同时显示大范围的观察对象。但是,直接观察图像和侧视观察图像是二维图像,因此,在显示摄像图像时,内窥镜操作者难以从所显示的摄像图像得知病变部的表面凹凸的信息。除了病变部的大小之外,获得表面凹凸的信息是诊断病变部进展程度的重要信息。
因此,本发明的目的是提供一种内窥镜系统,该系统在对活组织进行摄像时,可以利用摄像图像求得病变部等特征部分的三维信息。
用于解决课题的技术方案
本发明的一个方面是一种内窥镜系统,包括一个用于对体腔内的活组织进行摄像的内窥镜,以及一个用于对所述内窥镜拍摄的摄像图像进行图像处理的图像处理单元。
所述内窥镜包括:
摄像元件,其构成为可对活组织的图像摄像;以及
物镜,其设置在所述摄像元件的受光面前面,并被配置为在所述受光面上形成活组织的图像。
所述图像处理单元,
配备有三维扩展处理部,其被配置为基于所述内窥镜在至少2处不同的摄像位置拍摄的所述摄像图像内共同包含的、相对于其他部分可识别的特征部分的位置信息,计算从不同的所述摄像位置可见的所述特征部分的不同方向,将所述特征部分图像的二维信息扩展为三维信息。
所述摄像位置是所述内窥镜相对于所述活组织移动的不同位置;
优选的,所述三维扩展处理部利用从不同的所述摄像位置可见的所述特征部分的不同方向,以及所述摄像位置之间的距离信息来计算所述三维信息。
本发明的一个方面也是一种内窥镜系统,包括一个用于对体腔内的活组织进行摄像的内窥镜,以及一个用于对所述内窥镜拍摄的摄像图像进行图像处理的图像处理单元。
所述内窥镜包括:
摄像元件,其构成为可对活组织的图像摄像;以及
物镜,其设置在摄像元件的受光面前面,并被配置为作为所述摄像图像,将通过多个窗口获取的活组织图像同时在所述受光面上成像;
所述图像处理单元,
所述图像处理单元,
配备有三维扩展处理部,其被配置为基于所述内窥镜拍摄的所述摄像图像内的通过所述多个窗口获取的多个图像分别共同包含的、相对于其他部分可识别的特征部分图像的各自的位置信息,计算从所述多个窗口可见的所述特征部分的不同方向,将所述特征部分的二维信息扩展为三维信息。
所述多个窗口包括朝向摄像元件受光面前面的前窗,和朝向摄像元件相对于所述前窗的侧面的侧窗;
所述物镜被配置为同时将通过所述前窗获得的活组织的直视图像,和通过所述侧窗获得的活组织的侧视图像在受光面上作为所述摄像图像成像;
所述三维扩展处理部,优选的,被设置为基于所述内窥镜拍摄的所述摄像图像内的所述直视图像,和所述侧视图像分别共同包含的所述特征部分的所述直接观察像中的位置信息,以及所述特征部分的所述侧视图像中的位置信息,计算从所述前窗和所述侧窗可见的所述特征部分的不同方向,将所述二维信息扩展为三维信息。
所述多个图像包括重叠区域的图像,这些图像相互包括活组织的相同部分;
优选的,所述特征部分图像的各自位置信息是所述特征部分位于所述重叠区域时的信息。
优选的,所述摄像元件连续对活组织摄像,
包含所述特征部分的所述多个图像,是所述内窥镜在所述体腔内移动之前和之后的、彼此不同摄像位置的摄像图像。
优选的,所述图像处理单元配备一个同一性判定部,其被配置为利用所述特征部分的颜色信息和轮廓形状信息中的至少一个来确定多个所述图像中的所述特征部分是否彼此相同。
优选的,所述三维扩展处理部具有预测模型,并被配置为通过将所述内窥镜拍摄的所述摄像图像的所述二维信息输入所述预测模型而获得所述三维信息,该预测模型利用由所述内窥镜拍摄的包括活组织的所述特征部分的多个摄像图像中的所述特征部分图像的所述二维信息和所述三维信息作为学习数据来机器学习所述二维信息和所述三维信息之间的关系。
本发明的另一个方面也是一种内窥镜系统,包括一个用于对体腔内的活组织进行摄像的内窥镜,以及一个用于对所述内窥镜拍摄的摄像图像进行图像处理的图像处理单元。
所述内窥镜包括:
摄像元件,其构成为可对活组织的图像摄像;以及
物镜,其设置在所述摄像元件的受光面前面,并被配置为在所述受光面上形成活组织的图像。
所述图像处理单元,
配有具备预测模型的预测部,其预测模型构成为:通过输入所述内窥镜拍摄的所述摄像图像中含有的相对于其他部分可识别的特征部分的二维信息,从所述二维信息中预测三维信息。
所述预测模型是一个机器学习模型,即使用多个包含所述特征部分的已知摄像图像作为学习数据,对所述摄像图像中的所述特征部分的已知二维信息,和所述特征部分的已知三维信息之间的关系进行预测。
优选的,所述内窥镜系统配备有显示器,其构成为:使用在所述预测部获得的所述三维信息显示图像;
所述摄像元件构成为,同时对通过多个窗口获得的图像进行摄像;
所述摄像元件连续对活组织摄像,
所述摄像元件的视野范围内,存在通过多个所述窗口的任何一个,都有拍摄不到活组织部分的死角区域,
所述图像处理单元,具备图像显示控制部,其控制在所述特征部分的至少一部分将要处于所述死角区域时,在所述特征部分的至少一部分处于所述死角区域之前,使用通过所述特征部分的所述二维信息预测的所述三维信息,在所述显示器上显示所述特征部分整体的三维图像。
此外,优选的,所述内窥镜系统配备有显示器,其构成为:使用在所述预测部获得的所述三维信息显示图像;
所述摄像元件构成为,同时对通过多个窗口获得的图像进行摄像;
所述摄像元件连续对活组织摄像,
所述摄像元件的视野范围内,存在通过多个所述窗口可同时进行摄像的重叠区域,
所述图像处理单元,具备图像显示控制部,其在所述特征部分的至少一部分将要处于所述重叠区域时,控制在所述特征部分的至少一部分处于所述重叠区域之前,使用通过所述特征部分的所述二维信息预测的所述三维信息,在所述显示器上显示所述特征部分整体的三维图像的一个。
发明效果
根据上述内窥镜系统,当对活组织进行摄像时,所拍摄的图像可用于获得病变部等的特征部分的三维信息。
附图说明
图1A是从设于一实施方式的内窥镜先端部的前窗及侧窗看到的视野范围的示例图。
图1B表示图1A所示的内窥镜的前端部在器官内的横向位置示例和此时的视野范围在左右方向上的差异。
图2A是说明活组织的特征部分的、从前窗和侧窗观察到的朝向特征部分的视线方向的图。
图2B表示图1A所示的特征部分的摄像图像的示例图。
图3为一实施方式的内窥镜外观斜视图。
图4为一实施方式的内窥镜系统的框图。
图5为一实施方式的内窥镜的前端部构成示例图。
图6一实施方式的内窥镜系统的图像处理单元的构成示例图。
图7一实施方式的内窥镜系统的图像处理单元的构成示例图。
图8A是按时间序列说明内窥镜的前端部相对于特征部分的位置和显示在显示器上的摄像图像示例。
图8B是按时间序列说明内窥镜的前端部相对于特征部分的位置和显示在显示器上的摄像图像示例。
图8C是按时间序列说明内窥镜的前端部相对于特征部分的位置和显示在显示器上的摄像图像示例。
图9A相对于特征部分的内窥镜先端部的位置示例图。
图9B一实施方式的内窥镜系统的显示器上显示的图像示例图。
具体实施方式
本发明涉及2020年4月28日在日本专利局申请的特愿2020-79593的专利申请,本申请的全部参照了该申请的全部内容。
以下,将对内窥镜系统的一实施方式进行详细说明。
(内窥镜系统概要)
一实施方式的内窥镜系统,具备:内窥镜,其拍摄体腔内的活组织;和图像处理单元,其对由内窥镜拍摄到的摄像图像进行图像处理。内窥镜具备:摄像元件,其构成为拍摄活组织的图像;以及物镜,其设置于摄像元件的受光面的前方,构成为使活组织的图像成像于受光面。其中,图像处理单元包括三维扩展处理部。三维扩展处理部基于内窥镜在至少2处不同拍摄位置拍摄的至少2张摄像图像内共同包含的、或者通过至少2个不同窗口拍摄的视野范围不同的至少2张图像整合为1张摄像图像内共同含有的特征部分的位置信息,计算从不同的摄像位置能看见的、或者通过不同的窗口能看见的特征部分的不同方向(以后,称为朝向特征部分的视线方向)的信息。特征部分区别于其他非特征部分的部分,例如,可通过活组织的颜色成分可区分识别的部分。例如,相对于活组织表面因粘膜而呈黄色或绿色的健康部,可将因浮肿或易出血而呈红色的炎症部,或因白苔或脓样粘液而呈白色的溃疡部作为特征部分。
此外,图像处理单元被配置为利用计算出的朝向特征部分的视线方向的信息,将该特征部分的图像的二维信息扩展为三维信息。
三维信息是例如包括:器官内表面的二维位置信息,以及特征部分的摄像图像的进深方向上的位置信息。除了二维信息之外,还可以通过使用在至少两个不同摄像位置拍摄的摄像图像中显示的共同特征部分,或者通过使用在将通过至少两个窗口看到的图像合并为一个的摄像图像中显示的共同特征部分(在两个视场范围的重叠区域中显示)来获得进深方向上的位置信息。
利用这样求出的三维信息,通过渲染处理等,能够将特征部分的图像以立体形状显示在显示器上。此外,能够将由于特征部分位于重叠区域中而出现在摄像图像中的2个特征部分的摄像图像合并为一个的特征部分图像显示在显示器上。
图1A是从设于一实施方式的内窥镜先端部T的前窗W1及侧窗W2看到的视野范围示例图。侧窗W2设置为沿着筒状的前端部T的外周绕一周。前窗W1是设置在设于先端部T的摄像元件I的受光面的前方,能够通过物镜观察受光面的前方方向(在图1A中为上方向)的区域的窗,侧窗W2是设置在摄像元件I的受光面的前方,能够通过物镜观察与前方正交的方向(图1A所示的横向)的区域的窗。本实施方式中的侧窗W2是指面向与前方正交的一侧的窗口,但与前窗W1相比,它要面向侧面的一侧即可。侧窗W2的朝向(从侧窗W2看到的视野范围的中心轴的方向)相对于前方例如倾斜30度~90度即可。
通过前窗W1和设于先端部T的未图示物镜可见的视场范围包括区域A1和区域B,通过侧窗W2和设于先端部T的未图示物镜可见的视场范围包括区域A2和区域B。区域B与从前窗W1可见的视野范围,和从侧窗W2可见的视野范围重叠,所以区域B此后被称为重叠区域B。
另一方面,从前窗W1以及侧窗W2能够看到的视野范围不包括图示的区域C。即,区域C中的被摄体不包括在任何视野范围内,因此,不出现在摄像元件I拍摄的图像中。此后,区域C被称为盲区C。
图1B在器官内的内窥镜的先端部T的横向位置示例,和此时的视野范围在左右方向上的差异。如图1B所示,器官中活组织表面的视野范围取决于先端部T在器官中的横向位置。从图1B中的右侧前窗W1和侧窗W2可见的总体视野范围包括区域A1、重叠区域B和区域A2。由于先端部T在器官中向左偏移,因此从图1B中的左侧前窗W1,和侧窗W2看到的总体视野范围包括区域A1和区域A2,而不包括盲区C。因此,在摄像元件I的视野范围中存在盲区C。
在图1B所示的例子中,在右侧的视野范围中,由于存在重叠区域B,因此在重叠区域B中存在具有与其他部分不同的色彩的特征部分、例如,如果有病变部,病变部位于从前窗W1能够看到的视野范围内,并且位于从侧窗W2能够看到的视野范围内。因此,摄像元件I能够通过物镜将从前窗W1看到的特征部分的图像,和从侧窗W2看到的特征部分的图像拍摄为一个图像。
图2A是说明特征部分S的、从前窗W1和侧窗W2观察到的朝向特征部分S的视线方向的图。图2B表示图2A所示特征部分S的摄像图像示例图。
图2A和图2B示出了穿过前窗W1的中心并在窗表面的法线方向上延伸的中心轴Ax1,以及穿过侧窗W2的窗宽度的窗中心,并在窗表面的法线方向上延伸的中心轴Ax2。中心轴Ax1位于后述的物镜光轴延伸线上,在摄像图像中以点表示。另一方面,侧窗W2设置为在筒状的先端部T的圆周上绕一周,因此,在摄像图像中表现为圆周形状。
如图2A所示,由于特征部分S位于重叠区域B中,因此如图2B中所示,特征部分S的图像在摄像图像中显示为2个。当摄像图像中出现特征部分S的两幅图像时,三维扩展处理部立即从特征部分S的两幅图像中利用视线V1和V2到特征部分S,利用三角测量原理获得深度方向(向前)的位置信息。
需要注意的是,从前窗W1和侧窗W2看的深度方向在图2A所示的例子中不是向上的方向,而是从顶部向侧面倾斜的方向,例如可以用视线V1和V2来确定从前窗W1的窗心到特征部分S的距离和方向。因此,可以利用特征部分S的距离和方向,参照特征部分S和非特征部分之间的边界,从器官中的表面求出特征部分S的高度方向上的位置信息。此外,也可以求出从前窗W1的窗心到特征部分S的前进方向(图2A中为向上)的位置信息。
因此,当特征部分S进入重叠区域B,出现特征部分S的两幅图像时,三维扩展处理部立即获得上述三维信息,其中包括特征部分S在高度方向上突出于活组织表面的位置信息,同时也立即获得特征部分S在前进方向上的三维位置信息。
在图2A所示的例子中,内窥镜的先端部在向下移动时,例如对器官中的活组织表面进行摄像,在图2A所示的特征部分S位于重叠区域B之前,特征部分S位于侧窗W2的视野范围A2区域,在摄像图像中只出现一个。在此之后,特征部分S的两个图像出现在摄像图像中,如图2B所示。在图2B所示的例子中,考虑到视野范围为圆形而示出了圆形的例子,但也可以在显示器中以切掉圆形的一部分的矩形形状的显示画面来显示摄像图像。然后,特征部分S位于区域A1,因此,特征部分S的图像在摄像图像中成为一个。
因此,如果特征部分S位于重叠区域B中,并且特征部分S的图像出现在两个摄像图像中,则可以消除重叠区域B,并且可以产生器官中的表面的图像,好像通过一个窗口(例如,前窗W1)看到区域A1、重叠区域B和区域A2。而且,特征部分S的图像出现2个时,由于可以立即求出三维信息,所以在显示器上显示特征部分S的图像时,可以将三维信息反映在图像上,即可以形成三维图像。例如,由于能够得到特征部分S的高度方向的信息,所以也能够进行再现特征部分S相对于周围部分的表面凹凸的渲染处理。
另外,上述的扩展为三维信息的处理使用从前窗W1及侧窗W2向能够看到的特征部分S的视线方向的信息来进行,但并不一定限定于前窗W1及侧窗W2,只要能够应用三角测量的原理,也可以是设置在不同位置的多个窗。例如,可以在先端部T的先端面设置多个窗口。进而,只要能够应用三角测量的原理,也可以使用在例如使先端部T在器官内移动时的不同拍摄位置拍摄到的2个以上的摄像图像、即共同出现特征部分S的图像的摄像图像,进行扩展为三维信息的处理。在这种情况下,为了执行扩展到三维信息的处理,优选的,至少获取摄像位置间距离信息,该距离信息是摄像位置信息。因此,可以使用相同特征部分S的视线方向和所获取的距离信息来获得三维信息。
另外,为了更正确地求出三维信息,也可以使用从3个以上的窗口观察到的摄像图像、或者3个以上的摄像位置的摄像图像。这种情况下,由于信息过多,优选的,利用三角测量的原理求三维信息时,计算为误差最小。
(内窥镜系统的具体方式)
图3为一实施方式的内窥镜外观斜视图。图4为一实施方式的内窥镜系统的框图。图4为一实施方式的内窥镜的先端部构成示例图。
图3所示的内窥镜(以下称为电子内镜)100连接到图4所示的电子内窥镜处理器200以形成内窥镜系统1。内窥镜系统1是专门为医疗用途设计的系统,主要配备了电子内镜100、电子内窥镜处理器200和显示器300,如图4所示。电子内镜100、及显示器300分别与处理器200连接。
如图3所示,电子内镜100主要包括连接器110、操作部120和先端部132,并且还包括从操作部120向先前端部132延伸并具有柔性的柔性电缆130、通过连接部连接在柔性电缆130的前方并自由弯曲的弯管134、以及从操作部120向后延伸的通用管128。连接器110固定到通用管128的后端,并且被配置为与处理器200连接。
多个弯丝插入操作部120,柔性电缆130和弯管134中,每个弯丝的尖端连接到弯管134的后端,每个弯丝的后端连接到操作部120的弯曲操作旋钮122。弯管134根据弯曲操作旋钮122的操作,以任何方向和任何角度进行弯曲。
而且,操作部120具有多个操作按钮124。操作按钮124允许内窥镜操作者(手术者或助手)通过按下操作按钮124指示以下各项功能:从设置在先端部132的先端表面上的供气供水口排出水或气体,由抽吸口抽吸活组织中的液体或气体,以及从清洁液排放喷嘴排出清洁液以清洁物镜。可以预先确定按下操作按钮124所要进行的操作,并为操作按钮124分配一个功能以进行该操作。
弯管134先端的先端部132由硬质树脂材料(如ABS、改性PPO、PSU等)制成,基本上不可弹性变形。
在先端部132内有一个LED光源102和一个摄像元件108,位于紧随物镜106之后。即,设置在长柔性电缆130的前端的先端部132包括LED光源102、物镜106和摄像元件108。物镜106设置在摄像元件108的前面,在摄像元件108的受光面以视角大于或等于180度、优选的,以大于180度的视野范围进行活组织的图像成像。如后所述,在先端部132中设置朝向摄像元件108的受光面的前方的前窗和朝向与前方正交的侧方的侧窗,摄像元件108构成为通过前窗和侧窗,对通过物镜106在受光面成像的图像进行摄像。
柔性电缆130,弯管134和先端部132形成插入体腔中的插入部135。从设置在先端部132的摄像元件108延伸的图像信号用电缆从先端部132通过弯管134、柔性电缆130、操作部120和通用管128的内部延伸到连接器110的内部。连接器110连接处理器200。处理器200处理从摄像元件发送来的图像信号,并控制摄像元件108拍摄的被摄体的图像显示在显示器300上。
如图4所示的内窥镜系统1的处理器200具备系统控制器202及时序控制器206。系统控制器202执行存储在存储器204中的各种程序,并且集成控制整个电子内窥镜系统1。此外,系统控制器202根据输入到操作面板208的内窥镜操作者(術者或助手)的指令来变更电子内窥镜系统1的各种设定。时序控制器206向电子内窥镜系统1内的各电路输出用于调整各部操作时间的时钟脉冲。
在电子内镜100的先端部132中,除摄像元件108以外还设置有LED光源102。LED光源102出射照亮活组织的照明光,以供摄像元件108进行摄像。
LED光源102由设置在连接器110的光源控制电路116生成的驱动信号驱动,从而出射光。也可以使用激光元件代替LED光源102,还可以使用高亮度灯,例如氙灯、金属卤灯、水银灯或卤素灯。
在图4所示的例子中,LED光源102设置在先端部132,但是也可以作为光源装置设置在连接器110或处理器200。在这种情况下,从光源装置到前端部132的照明光通过束有多根光缆的光导被引导到前端部132。
从LED光源102出射的光作为照明光,经由配光透镜104照射到作为被摄体也就是活组织上。来自活组织的反射光经由前窗140及侧窗150(参见图3)及物镜106在摄像元件108的受光面上形成光学图像。
摄像元件108例如是用于在受光面上布置IR(Infrared)截止滤光片108a、采用拜耳阵列的滤色片108b等各种滤光片的单片式彩色
CCD(Charge-Coupled Device)图像传感器,根据在受光面上成像的光学图像生成R(Red)、G(Green)、B(Blue)各原色信号。代替单片式彩色CCD图像传感器,也可以使用单片式彩色CMOS(Complementary Metal Oxide Semiconductor)图像传感器。如此一来,电子内镜100使用摄像元件108对器官内部的活组织进行拍摄,并生成运动图像。
在电子内镜100的连接器110的内部设置有驱动器信号处理电路112。驱动器信号处理电路112对从摄像元件108输入的原色信号执行颜色插值、矩阵运算等预定信号处理后,生成图像信号(亮度信号Y、色差信号Cb,Cr),并将生成的图像信号输出到电子内窥镜用处理器200的图像处理单元220上。此外,驱动器信号处理电路112访问存储器114并读取电子内镜100的特有信息。记录在存储器114中的电子内镜100的特有信息例如包括摄像元件108的像素数、灵敏度、可操作帧速率、型号等。驱动器信号处理电路112将从存储器114读取的特有信息输出到系统控制器202中。
系统控制器202基于存储在存储器204中的信息和电子内镜100的特有信息执行各种运算,并生成控制信号。系统控制器202使用所生成的控制信号来控制电子内窥镜用处理器200内的各个电路的操作和时间,以便执行与连接于电子内窥镜用处理器200的电子内镜100相适应的处理。
时序控制器206根据由系统控制器202所执行的时序控制,向驱动器信号处理电路112、图像处理单元220以及光源部230供给时钟脉冲。驱动器信号处理电路112根据从时序控制器206所供应的时钟脉冲,按照与在电子内窥镜用处理器200侧上执行处理的图像帧速率同步的时序,驱动控制摄像元件108。
图像处理单元220包括图像处理部220A(参见图4),其在系统控制器202的控制下基于从驱动器信号处理电路112输入的图像信号,生成用于显示器显示图像等的视频信号,并将视频信号输出到显示器300。
图像处理单元220还包括三维扩展处理部220B(参见图4),三维扩展处理部220B被配置为将由摄像元件108拍摄的图像中的特征部分的图像的二维信息扩展为三维信息。关于三维扩展处理部220B将后述。图像处理部220A还可以对电子内镜100获得的活组织的图像进行量化处理,对图像中能够区分病变和健康部分的每个像素的特征量进行量化处理,评估图像中病变部的发展程度,并进一步将量化处理获得的每个像素的数值替换成颜色并生成一个彩色地图图像。在这种情况下,图像处理部220A产生一个视频信号,用于显示器显示由量化处理产生的信息和彩色地图图像,并将其输出到显示器300。由此,内窥镜操作者能够通过显示器300的显示屏上显示的图像,高精度的进行检查。图像处理部220A根据需要向打印机400输出图像、量化处理结果的信息和彩色地图图像。
处理器200经由NIC(网卡)210和网络500连接至服务器600上。处理器200可以从服务器600下载关于内窥镜检查的信息(例如,病人电子病历信息和手术者信息)。所下载的信息例如显示在显示器300的显示屏或操作面板208上。处理器200也可以将电子内镜100的检查结果上传到服务器600,从而使检查结果存储在服务器600上。
图5是说明先端部132内部结构的示意图。
先端部132包括物镜106、摄像元件108、前窗140和侧窗150。物镜106和摄像元件108位于先端部132处由硬质树脂材料制成的圆柱形部件133中。先端部132对应于图1A、1B和2A所示例子中的先端部T。
前窗140朝向摄像元件108的受光面108c的前方方向。侧窗150朝向与前方正交的侧方。侧窗150朝向与前方正交的侧方,如上所述,侧窗150朝向与前窗140相比的侧方侧即可。
物镜106包括一组透镜106a~106e,包括半月形透镜、凸透镜和凹透镜,其半视角超过90度,优选的大于或等于110度。因此,作为摄像图像,物镜106同时在受光面108c上形成通过前窗140获得的活组织的直视图像,和通过侧窗150获得的活组织的侧视图像。透镜106a的被摄体侧的表面还兼有前窗140。侧窗150设有玻璃盖板。
如图1A所示,通过先端部132的前窗140和侧窗150可见的视野范围包括区域A1、重叠区域B和区域A2。此外,还有一个从前窗140和侧窗150看不到被摄体的盲区C。活组织的图像被同时拍摄为通过前窗140获得的直视图像,和通过侧窗150获得的侧视图像,因此,特征部分S可以在拍摄的图像中显示为两个图像,如图2B所示。
图像处理单元220配有三维扩展处理部220B,其从出现在该摄像图像中的两个特征部分S的图像的二维信息(图像上的x坐标位置和y坐标位置)计算出特征部分S的三维信息。
三维扩展处理部220B根据电子内镜100拍摄的摄像图像内通过前窗140,和侧窗150获得的特征部分S的2个图像(直视图像和侧视图像)中共同含有的位置信息,计算出通过前窗140和侧窗150看到的特征部分S的视线方向,并使用该计算出的视线方向将特征部分S的图像的二维信息扩展为三维信息。通过前窗140和侧窗150获得的2个图像是否是共同的,可以通过2个特征部分S在摄像图像中的位置和特征部分S的颜色信息或特征部分S的轮廓形状信息来确定。此外,在沿一个方向移动电子内镜100的前端部132,同时,对活组织的表面进行摄像的情况下,由于特征部分S从区域A2移动到重叠区域B,因此,可以利用按时间序列生成的多个摄像图像容易地确定2个共同的特征部分S是否出现在摄像图像中。
另外,不仅在一边使电子内镜100的先端部132向一个方向移动一边进行摄像的情况下,而且在一边使弯管134弯曲动作一边进行摄像的情况下,也能够将特征部分S的图像的二维信息扩展为三维信息。
三维扩展处理部220B根据(以图2B所示的X方向和Y方向为坐标轴的XY坐标系中)X方向和Y方向的坐标位置、即通过前窗140得到的直视图像中的特征部分S所关注的各位置的二维信息相对于前窗140的中心轴Ax1的方位方向,来求特征部分S所关注的各位置的方位方向。中心轴Ax1被设定为与物镜106的光轴重合,因此,摄像图像中特征部分S的方位方向与从器官内先端部132的前窗140看的方位方向相一致。在图2B所示的例子中,相对于中心轴Ax1的右侧方向是上述特征部分S中关注的位置的方位方向。同样,三维扩展处理部220B从侧窗150的中心轴Ax2*的中心点Ax2*获得通过侧窗150可见的摄像图像中特征部分S的每个关注位置的方位方向。中心轴Ax1和Ax2是从前窗140和侧窗150的窗中心沿窗表面的法线方向延伸的轴。
通过使用特征部分S中的像素值的颜色信息,或外廓形状的信息,确定在获得相对于中心轴Ax1的方位方向时所关注的位置,和在获得来自中心点Ax2*的方位方向时所关注的位置相同的位置。另外,侧视图像和直视图像是使用相同的物镜106得到的图像,所以从中心轴Ax1所看到的侧视图像中的特征部分S的位置的方位方向,与从中心轴Ax1所看到的直视图像中的相同特征部分S的相同位置的方位方向一致,所以,中心点Ax2*是从位于物镜106的光轴的延长线上的中心轴Ax1(图2B所示的点)连接特征部分S所关注的位置的直线与中心轴Ax2(图2B所示的虚线圆)相交的交点。
另一方面,中心轴Ax2是从侧窗150的窗中心沿法线方向延伸的轴,因此,求出以侧视图像中的中心点Ax2*为基准的关注位置的位置坐标,根据该位置坐标,基于物镜106的透镜特性计算图2A所示的仰角方向(相对于图2A的横向的上方向(前方方向))的角度θ。由此,可以求出对图2A和图2B所示的特征部分S的视线V1和V2的方向。
并且,由于已知前窗140的窗中心和侧窗150的窗中心在先端部132中的位置,所以三维扩展处理部220B根据该位置,以及求出的对特征部分S的视线V1、V2的方向,利用三角测量的原理,计算朝向特征部分S的视线V1和朝向特征部分S的视线V2相交的位置。
因此,三维扩展处理部220B可以从前窗140的窗中心,或侧窗150的窗中心计算特征部分S关注的各个位置的方位方向,和仰角方向以及距离的信息。三维扩展处理部220B可以根据方位方向、仰角方向和距离的信息,例如计算沿器官延伸的方向相对于先端部132的特征部分S的位置信息,并且还可以计算沿从前窗140或侧窗150的窗中心到特征部分S关注的位置的横向(图2A所示的横向)的距离信息。由此,求出特征部分S的三维信息。
在获得图2B中所示的摄像图像的情况下,如上所述,图像处理单元220求出特征部分S的三维信息。然而,在摄像图像中,可以执行消除重叠区域B的处理,并且可以通过创建器官中的表面的图像,好像通过前窗W1看到区域A1、重叠区域B和区域A2来在显示器300上显示。在这种情况下,通过使用所获取的特征部分S的三维信息执行三维处理,能够将特征部分S的图像在显示器300上显示为立体形状的图像。从前窗140的窗中心到特征部分S的关注位置,沿横向的距离信息可用于获得特征部分S的高度方向的信息,因此作为三维处理,例如可以执行再现特征部分S的表面凹凸的渲染处理。这样,特征部分S可以作为立体形状图像显示在显示器300上,这对确定肿瘤是否是需要切除的恶性肿瘤和诊断很有用。
如果从先前的诊断中得知,内表面有褶皱的大肠等器官内的褶皱底部有病变,则可以通过定位先端部132,使病变部处于重叠区域B中,并通过上述方法,使用上述内窥镜系统来获得病变部的三维信息,也可以获得病变部表面不规则的信息。
在上述实施方式中,利用通过前窗140和侧窗150看到的活组织图像,将特征部分S的二维信息扩展为三维信息,但设于先端部132中的窗口不限于前窗140和侧窗150,可以使用设于先端部132中不同位置的多个前窗,也可以使用设于先端部132中不同位置的多个侧窗。在这种情况下,2个窗口设于先端部132的不同位置,所以摄像位置彼此不同。因此,三维扩展处理部220B可以基于在至少两个摄像位置上拍摄的摄像图像中共同包含的特征部分S的位置信息,利用在不同摄像位置上可见的特征部分S的视线方向,将特征部分S的图像的二维信息扩展为三维信息。
上述摄像位置可以是电子内镜100相对于活组织移动的不同位置,例如,在器官延伸方向的不同位置。在这种情况下,优选地,三维扩展处理部220B使用由不同的摄像位置引起的特征部分S可见的不同方向和摄像位置之间的距离信息来计算三维信息。摄像位置之间的距离信息可以从电子内镜100的位置测量系统中的先端部132的摄像位置的信息中获得。例如,位置测量系统是指使用磁传感器来获取插入器官的电子内镜100的先端部132处的摄像元件108的位置,以及后续的柔性电缆130的各位置,或通过器官的开口端插入的电子内镜100的插入长度。
如上述实施方案,优选的,物镜106被配置为同时将通过前窗140获得的活组织的直视图像,和通过侧窗150获得的活组织的侧视图像作为摄像图像在受光面进行成像,三维扩展处理部220B被配置为基于所拍摄的摄像图像中的直视图像,和侧视图像中分别共同包括的特征部分S的直视图像中的位置信息,以及特征部分S的侧视图像中的位置信息,计算通过前窗140和侧窗150看到的特征部分S的视线方向,并且使用计算出的视线方向将二维信息扩展为三维信息。由于前窗140和侧窗150彼此正交的方向是视野范围的中心轴的方向,因此,能够更精确地计算三维信息。
如上所述,通过不同的窗(前窗140、侧窗150)拍摄的图像包括相互包含的活组织相同部分的重叠区域B,特征部分S的各个图像中的位置信息是特征部分S位于重叠区域B时的信息。因此,三维信息可以从一个摄像图像中的特征部分S的图像中的各位置的位置信息准确计算出来。
如上所述,如果是摄像位置不同的两个以上的位置,则对特征部分S的视线的方向不同,因此在摄像元件108连续摄像活组织时,含有相同特征部分S的多张图像可以是在电子内镜100的先端部132在体腔内移动之前和之后,在彼此不同的摄像位置拍摄的图像。此处,彼此不同的摄像位置是指,在器官的延伸方向上,摄像位置彼此不同。
根据一实施方式,如图6所示,除了图像处理部220A和三维扩展处理部220B之外,优选的,图像处理单元220还配备一个同一性判定部220C。图6是一实施方式的内窥镜系统的图像处理单元的构成示例图。同一性判定部220C被配置为利用特征部分S的颜色信息,和特征部分S的轮廓形状信息中的至少一个,来确定多个图像(例如直视图像和侧视图像)中包含的特征部分S是否相同。在拍摄视频时,特征部分S的图像在摄像图像中向一个方向移动,所以很容易判断它是否相同,但如果有多个特征部分S,可能很难识别它们是否相同。因此,优选地,当计算特征部分S的三维信息时,同一性判定部220C判定是否相同。
根据一实施方式,优选的,三维扩展处理部220B配备有预测模型,该预测模型将此前用电子内镜100拍摄的包括活组织的特征部分S的多个摄像图像中的二维和三维信息作为学习数据,并机器学习二维和三维信息的关系。优选的,预测模型被配置为:通过将电子内镜100当前拍摄的图像中的特征部分S的图像的二维信息输入预测模型而获得三维信息。根据二维信息中包含的颜色信息和特征部分S的大小,可以预测包含特征部分S的表面凹凸信息在内的三维信息。作为预测模型的机器学习,例如使用基于神经网络的深度学习(DeepLearning)。另外,预测模型的一部分也可以使用利用树形结构的随机森林。作为预测模型,可以使用卷积神经网络和堆叠自动编码器等公知模型。
通过配备此类机器学习的预测模型,可以获得特征部分S的三维信息,而无需通过三维扩展处理部220B计算特征部分S的视线V1、V2的方向。因此,根据一个实施方式,如图7所示,图像处理单元220不包括三维扩展处理部220B,而是包括预测部220D。图7是一实施方式的内窥镜系统的图像处理单元的构成示例图。优选的,预测部220D配备预测模型,该模型被配置为:通过输入由电子内镜100拍摄的图像中包含的特征部分S的图像的二维信息预测三维信息。预测模型是机器学习模型,将包括特征部分S的多个已知的摄像图像中的特征部分S的图像的已知的二维信息,和对应的特征部分S的已知的三维信息作为学习数据,对摄像图像中的特征部分S的图像的二维信息,和特征部分S的三维信息之间的关系进行机器学习。作为预测模型的机器学习,例如使用基于神经网络的深度学习(Deep Learning)。此外,预测模型的一部分也可以使用利用树形结构的随机森林。作为预测模型,可以使用卷积神经网络和堆叠自动编码器等公知模型。
根据一实施方式,图像处理单元220包括图像显示控制部220E。当摄像元件108连续拍摄活组织的视频,并使用预测部220D从拍摄的图像中获得的三维信息在显示器300上显示图像时,盲区C中的被摄体不被显示。当至少一部分特征部分S位于盲区C中时,优选的,图像显示控制部220E在至少一部分特征部分S位于盲区C中之前,利用从拍摄的图像中包含的特征部分S的图像的二维信息预测出的三维信息,控制在显示器300上显示整个特征部分S的三维图像。三维图像例如是经过渲染处理的图像。
进而,优选的,当特征部分S的至少一部分位于重叠区域B中时,图像显示控制部220E进行控制,使得在特征部分S的至少一部分位于重叠区域B中之前,使用根据包括在摄像图像中的特征部分S的图像的二维信息预测的三维信息,显示整个特征部分S的一个图像,并且显示三维图像。
图8A-8C是按照时间序列描述先端部T相对于特征部分S的位置和摄像图像的示例图。图8A-8C的上部示出了相对于特征部分S的先端部T的位置,并且图8A-8C的下部示出了显示器的显示画面300A的示例。此外,图8A~图8C所示的例子是用图1B所示的例子来说明的。
当如图8A~图8C中所示,向下拉动插入器官中的待检查部分的最深处的电子内镜100,并连续地对活组织的表面进行拍摄时,如图8A所示,特征部分S最初位于侧窗W2的视野范围的区域A2中,因此,特征部分S出现在显示器的显示画面300A上。此后,当移动电子内镜100时,如图8B所示,特征部分S进入盲区C。因此,特征部分S从显示画面300A消失。再移动电子内镜100时,如图8C所示,特征部分S进入区域A1。因此,特征部分S再次在显示画面300A上显示。
如图8B所示,当特征部分S位于盲区C中时,图像显示控制部220E使用由预测部220D根据位于位于盲区C之前的区域A2中的特征部分S的图像的二维信息,预测的三维信息,并进行控制以将整个特征部分S的图像在显示器300上显示为三维图像。因此,图像显示控制部220E通过颜色信息提取特征部分S的边缘区域,并监测该提取的边缘区域随时间的移动。当特征部分S的至少一部分进入盲区C时,图像显示控制部220E利用预测部220D预测的三维信息控制整个特征部分S的图像在显示器300上显示为三维图像。
进而,图像显示控制部220E监视通过颜色信息提取出边缘区域的特征部分S的移动,并且当特征部分S的至少一部分进入重叠区域B时,图像显示控制部220E生成图像,使得特征部分S的图像变为一个图像,并且控制特征部分S的图像显示为利用由预测部220D预测的三维信息生成的三维图像。
图9A显示了先端部T相对于特征部分S的位置的示例。图9B显示了内窥镜系统的一实施方式的显示器上显示的图像示例。如图9A所示,在活组织的表面有特征部分S1-S4,特征部分S1位于区域A1,特征部分S2位于重叠区域B,特征部分S3位于盲区C,特征部分S4位于区域A2。
在这种情况下,位于重叠区域B的特征部分S2不在屏幕上显示两个图像,而是显示一个图像,而位于盲区C的特征部分S3则显示图像而不消失。特征部分S1~S4的图像均为三维图像。
图9B所示的图像显示方式,即将特征部分S1-S4三维化的图像,优选的,通过按下操作部120上的操作按钮124来选择(见图3)。因此,优选地,显示器300中的图像显示通过操作按钮124在图9B所示的显示,和使用二维信息的常规摄像图像的显示之间随时切换,其中出现重叠区域B中的特征部分S2的两个图像,而不显示盲区C中的特征部分S3。
此外,在内窥镜系统1中,三维扩展处理部220B、预测部220D、同一性判定部220C和图像显示控制部220E设置在处理器200的图像处理单元220中,但不一定设置在处理器200中。例如,可以通过网络500安装在另一处的数据处理单元中,图像和信息可以通过网络500的通信发送和接收。
在上文中,对本发明提供的内窥镜系统进行了详细说明,但是本发明并不限于上述实施方式,在不脱离本发明的主旨的范围内还可以进行各种改进和变化。
Claims (11)
1.一种内窥镜系统,包括:
内窥镜,其对体腔内的活组织进行摄像;以及图像处理单元,其对所述内窥镜拍摄的摄像图像进行图像处理,
其中,所述内窥镜包括:摄像元件,其构成为可对活组织的图像摄像;以及
物镜,其设置在所述摄像元件的受光面前面,并被配置为在所述受光面上形成活组织的图像,
所述图像处理单元配备有三维扩展处理部,其被配置为基于所述内窥镜在至少2处不同的摄像位置拍摄的所述摄像图像内共同包含的、相对于其他部分可识别的特征部分的位置信息,计算从不同的所述摄像位置可见的所述特征部分的不同方向,将所述特征部分图像的二维信息扩展为三维信息。
2.如权利要求1所述的内窥镜系统,其中,所述摄像位置是所述内窥镜相对于所述活组织移动的不同位置,
所述三维扩展处理部利用从不同的所述摄像位置可见的所述特征部分的所述不同方向以及所述摄像位置之间的距离信息来计算所述三维信息。
3.一种内窥镜系统,包括:
内窥镜,其对体腔内的活组织进行摄像;以及图像处理单元,其对所述内窥镜拍摄的摄像图像进行图像处理,
其中,所述内窥镜包括:摄像元件,其构成为可对活组织的图像摄像;以及
物镜,其设置在所述摄像元件的受光面前面,并被配置为作为所述摄像图像,将通过多个窗口获取的活组织图像同时在所述受光面上成像;
所述图像处理单元配备有三维扩展处理部,其被配置为基于所述内窥镜拍摄的所述摄像图像内的通过所述多个窗口获取的多个图像分别共同包含的、相对于其他部分可识别的特征部分图像的各自的位置信息,计算从所述多个窗口可见的所述特征部分的不同方向,将所述特征部分的二维信息扩展为三维信息。
4.如权利要求3所述的内窥镜系统,其中,所述多个窗口包括朝向摄像元件受光面前面的前窗和朝向摄像元件相对于所述前窗的侧面的侧窗,
所述物镜被配置为同时将通过所述前窗获得的活组织的直视图像和通过所述侧窗获得的活组织的侧视图像在受光面上作为所述摄像图像成像,
所述三维扩展处理部被设置为基于所述内窥镜拍摄的所述摄像图像内的所述直接观察像和所述侧视图像分别共同包含的所述特征部分的所述直接观察像中的位置信息以及所述特征部分的所述侧视图像中的位置信息,计算通过所述前窗和所述侧窗可见的所述特征部分的不同方向,将所述二维信息扩展为三维信息。
5.如权利要求3或4所述的内窥镜系统,其中,所述多个图像包括重叠区域的图像,这些图像相互包括活组织的相同部分,
所述特征部分图像的各自位置信息是所述特征部分位于所述重叠区域时的信息。
6.如权利要求3或4所述的内窥镜系统,其中,所述摄像元件连续对活组织摄像,
包含所述特征部分的所述多个图像是所述内窥镜在所述体腔内移动之前和之后的、彼此不同摄像位置的摄像图像。
7.如权利要求1至6中任意一项所述的内窥镜系统,其中,所述图像处理单元配备有同一性判定部,其被配置为利用所述特征部分的颜色信息和轮廓形状信息中的至少一个来确定多个所述图像中的所述特征部分是否彼此相同。
8.如权利要求1至7中任意一项所述的内窥镜系统,其中,所述三维扩展处理部具有预测模型,并被配置为通过将所述内窥镜拍摄的所述摄像图像的所述二维信息输入所述预测模型而获得所述三维信息,该预测模型利用由所述内窥镜拍摄的包括活组织的所述特征部分的多个摄像图像中的所述二维信息和所述三维信息作为学习数据来机器学习所述二维信息和所述三维信息之间的关系。
9.一种内窥镜系统,包括:
内窥镜,其对体腔内的活组织进行摄像;以及图像处理单元,其对所述内窥镜拍摄的摄像图像进行图像处理,
其中,所述内窥镜包括:摄像元件,其构成为可对活组织的图像摄像;以及
物镜,其设置在所述摄像元件的受光面前方,并被配置成在所述受光面上形成活组织的图像,
所述图像处理单元配有具备预测模型的预测部,其预测模型被配置为通过输入所述内窥镜拍摄的所述摄像图像内含有的、相对于其他部分可识别的特征部分的二维信息,从所述二维信息预测三维信息,
所述预测模型是机器学习模型,即使用多个包含所述特征部分的已知摄像图像作为学习数据,对所述摄像图像中的所述特征部分的已知二维信息和已知三维信息之间的关系进行预测。
10.如权利要求9所述的内窥镜系统,其中,所述内窥镜系统配备有显示器,其构成为使用在所述预测部获得的所述三维信息显示图像,
所述摄像元件构成为同时对通过多个窗口获得的图像进行摄像,
所述摄像元件连续对活组织摄像,
所述摄像元件的视野范围内存在通过多个所述窗口的任何一个都拍摄不到活组织部分的死角区域,
所述图像处理单元具备图像显示控制部,其控制在所述特征部分的至少一部分将要处于所述死角区域时,在所述特征部分的至少一部分处于所述死角区域之前,使用通过所述特征部分的所述二维信息预测的所述三维信息,在所述显示器上显示所述特征部分整体的三维图像。
11.如权利要求9所述的内窥镜系统,其中,所述内窥镜系统配备有显示器,其构成为使用在所述预测部获得的所述三维信息显示图像,
所述摄像元件构成为同时对通过多个窗口获得的图像进行摄像,
所述摄像元件连续对活组织摄像,
所述摄像元件的视野范围内存在通过多个所述窗口可同时进行摄像的重叠区域,
所述图像处理单元具备图像显示控制部,其控制在所述特征部分的至少一部分将要处于所述重叠区域时,在所述特征部分的至少一部分处于所述重叠区域之前,使用通过所述特征部分的所述二维信息预测的所述三维信息,在所述显示器上显示所述特征部分整体的三维图像的一个。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020-079593 | 2020-04-28 | ||
JP2020079593 | 2020-04-28 | ||
PCT/JP2021/016660 WO2021221017A1 (ja) | 2020-04-28 | 2021-04-26 | 内視鏡システム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115279250A true CN115279250A (zh) | 2022-11-01 |
Family
ID=78373239
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180019989.9A Pending CN115279250A (zh) | 2020-04-28 | 2021-04-26 | 内窥镜系统 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230157526A1 (zh) |
EP (1) | EP4144284A4 (zh) |
JP (1) | JP7234461B2 (zh) |
CN (1) | CN115279250A (zh) |
WO (1) | WO2021221017A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20240078694A1 (en) * | 2022-09-06 | 2024-03-07 | Olympus Medical Systems Corp. | Image processing apparatus, image processing method, and recording medium |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9835564B2 (en) * | 2012-06-08 | 2017-12-05 | SeeScan, Inc. | Multi-camera pipe inspection apparatus, systems and methods |
US20150062299A1 (en) * | 2013-08-30 | 2015-03-05 | The Regents Of The University Of California | Quantitative 3d-endoscopy using stereo cmos-camera pairs |
CN105722450B (zh) * | 2014-02-14 | 2018-01-23 | 奥林巴斯株式会社 | 内窥镜系统 |
EP3130273B1 (en) * | 2015-08-13 | 2019-05-15 | MedicalTek Co., Ltd. | Stereoscopic visualization system and method for endoscope using shape-from-shading algorithm |
CN108135453B (zh) * | 2015-09-28 | 2021-03-23 | 奥林巴斯株式会社 | 内窥镜系统和图像处理方法 |
WO2017145270A1 (ja) * | 2016-02-23 | 2017-08-31 | オリンパス株式会社 | 画像処理装置、画像処理方法および内視鏡 |
JP6632961B2 (ja) | 2016-09-29 | 2020-01-22 | 富士フイルム株式会社 | 内視鏡システム及び内視鏡システムの駆動方法 |
US10262453B2 (en) * | 2017-03-24 | 2019-04-16 | Siemens Healthcare Gmbh | Virtual shadows for enhanced depth perception |
CN210483897U (zh) | 2018-05-24 | 2020-05-08 | 帝伯爱尔株式会社 | 镶铸用气缸套 |
WO2019244345A1 (ja) * | 2018-06-22 | 2019-12-26 | オリンパス株式会社 | ランドマーク推定方法、及び、内視鏡装置 |
US11457981B2 (en) * | 2018-10-04 | 2022-10-04 | Acclarent, Inc. | Computerized tomography (CT) image correction using position and direction (P andD) tracking assisted optical visualization |
-
2021
- 2021-04-26 US US17/919,395 patent/US20230157526A1/en active Pending
- 2021-04-26 CN CN202180019989.9A patent/CN115279250A/zh active Pending
- 2021-04-26 EP EP21797476.5A patent/EP4144284A4/en active Pending
- 2021-04-26 JP JP2022518057A patent/JP7234461B2/ja active Active
- 2021-04-26 WO PCT/JP2021/016660 patent/WO2021221017A1/ja unknown
Also Published As
Publication number | Publication date |
---|---|
EP4144284A1 (en) | 2023-03-08 |
JPWO2021221017A1 (zh) | 2021-11-04 |
JP7234461B2 (ja) | 2023-03-07 |
EP4144284A4 (en) | 2024-05-15 |
US20230157526A1 (en) | 2023-05-25 |
WO2021221017A1 (ja) | 2021-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11529197B2 (en) | Device and method for tracking the position of an endoscope within a patient's body | |
JP7124011B2 (ja) | システム、及び出血検出システムの作動方法 | |
US20190346670A1 (en) | Endoscope with integrated measurement of distance to objects of interest | |
JP5113990B2 (ja) | 計測用内視鏡装置 | |
US20220398771A1 (en) | Luminal structure calculation apparatus, creation method for luminal structure information, and non-transitory recording medium recording luminal structure information creation program | |
US20220383533A1 (en) | Medical image processing apparatus, endoscope system, medical image processing method, and program | |
JP3438937B2 (ja) | 画像処理装置 | |
JP7234461B2 (ja) | 内視鏡システム | |
US11430114B2 (en) | Landmark estimating method, processor, and storage medium | |
KR102313319B1 (ko) | 증강현실 대장 내시경 시스템 및 이를 이용한 모니터링 방법 | |
US20240062471A1 (en) | Image processing apparatus, endoscope apparatus, and image processing method | |
JPH02116347A (ja) | 電子内視鏡装置 | |
JPH02297515A (ja) | 立体視電子内視鏡 | |
JP2021171475A (ja) | 内視鏡及び内視鏡システム | |
CN114782434A (zh) | 一种内窥镜合作目标定位方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |