CN107249427B - 医疗装置、医疗图像生成方法以及医疗图像生成程序 - Google Patents

医疗装置、医疗图像生成方法以及医疗图像生成程序 Download PDF

Info

Publication number
CN107249427B
CN107249427B CN201680011045.6A CN201680011045A CN107249427B CN 107249427 B CN107249427 B CN 107249427B CN 201680011045 A CN201680011045 A CN 201680011045A CN 107249427 B CN107249427 B CN 107249427B
Authority
CN
China
Prior art keywords
subject
image
model image
dimensional position
medical device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201680011045.6A
Other languages
English (en)
Other versions
CN107249427A (zh
Inventor
生熊聪一
李祯
石掛真人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of CN107249427A publication Critical patent/CN107249427A/zh
Application granted granted Critical
Publication of CN107249427B publication Critical patent/CN107249427B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/307Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the urinary organs, e.g. urethroscopes, cystoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0084Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1071Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring angles, e.g. using goniometers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1076Measuring physical dimensions, e.g. size of the entire body or parts thereof for measuring dimensions inside body cavities, e.g. using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6846Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
    • A61B5/6847Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive mounted on an invasive device
    • A61B5/6852Catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/309Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using white LEDs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/05Surgical care
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0257Proximity sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine

Abstract

医疗装置具有:模型图像生成部,其生成将被检体内部的形状模型化而得到的模型图像;坐标运算部,其检测所述被检体内部的特征点的三维位置,根据所述特征点的位置来设定极坐标,通过所述极坐标来求出所述被检体内部的任意的三维位置;以及图像生成部,其根据由所述坐标运算部求出的极坐标的成分中的至少一个角度成分而将所述被检体内部的任意的三维位置显示在所述模型图像上。

Description

医疗装置、医疗图像生成方法以及医疗图像生成程序
技术领域
本发明涉及支援内窥镜观察的医疗装置、医疗图像生成方法以及医疗图像生成程序。
背景技术
近年来,作为具有内窥镜的医疗装置的内窥镜装置广泛普及,其中,该内窥镜插入到被检体内而对被检体内部进行观察或者使用处置器具等进行处置。具有如下的医疗装置:在使用内窥镜对观察(或者检查)对象的规定的管腔器官内部进行观察的情况下在图像上显示观察范围。
在这样的医疗装置中,通过事先对患者的器官进行测量来取得器官的测量数据,能够在根据所取得的测量数据而推定的模型图像上显示出观察中的观察位置。
例如,在日本特开2014-117446号公报中提出了如下的技术:将内窥镜插入到人的器官内,通过设置在内窥镜前端的传感器求出与器官相距的距离,还设置有检测内窥镜的动作的传感器,从而根据传感器的测定结果和内窥镜的移位而当场推定器官的形状并生成模型图像。
然而,在现有的医疗装置中,为了准确地显示观察范围的位置而按照每个患者来推定器官的形状从而制作模型图像,在该模型图像上显示观察位置,在每个器官的形状的个人差异较大的情况下,模型图像的个人差异也较大,从而存在不易于观察并且难以在患者之间进行比较这样的问题。
并且,在向器官内进行灌流或送气的情况等时,有时在观察过程中器官的形状发生变化。在该情况下,在实施手术的过程中,需要再次测量器官而重新推定对象的形状并重新制作模型图像,从而存在需要中断观察或手术等这样的问题。并且,在该情况下,还有时无法在再制作后的模型图像上的准确的范围内显示出模型图像的再制作之前的完成观察的位置。
本发明的目的在于,提供如下的医疗装置、医疗图像生成方法以及医疗图像生成程序:不论器官的变形如何,并且即使是不同的人的器官都能够使用共用的模型图像而准确地显示观察范围等。
发明内容
用于解决课题的手段
本发明的一个方式的医疗装置具有:模型图像生成部,其生成将被检体内部的形状模型化而得到的模型图像;坐标运算部,其检测所述被检体内部的特征点的三维位置,根据所述特征点的位置来设定极坐标,通过所述极坐标来求出所述被检体内部的任意的三维位置;以及图像生成部,其根据由所述坐标运算部求出的极坐标的成分中的至少一个角度成分而将所述被检体内部的任意的三维位置显示在所述模型图像上。
并且,关于本发明的一个方式的医疗图像生成方法,该医疗装置具有位置方向取得部、坐标运算部、模型图像生成部以及图像生成部,在该医疗图像生成方法中,所述位置方向取得部求出包含被检体内部的特征点在内的所述被检体内部的任意的三维位置,所述坐标运算部根据所述被检体内部的特征点的三维位置来设定极坐标,通过所述极坐标来求出所述被检体内部的任意的三维位置,所述模型图像生成部生成将所述被检体内部的形状模型化而得到的模型图像,所述图像生成部根据由所述坐标运算部求出的极坐标的成分中的至少一个角度成分而将所述被检体内部的任意的三维位置显示在所述模型图像上。
并且,本发明的一个方式的医疗图像生成程序使计算机执行以下的步骤:求出包含被检体内部的特征点在内的所述被检体内部的任意的三维位置,根据所述被检体内部的特征点的三维位置来设定极坐标,通过所述极坐标来求出所述被检体内部的任意的三维位置,生成将所述被检体内部的形状模型化而得到的模型图像,根据由所述坐标运算部求出的极坐标的成分中的至少一个角度成分而将所述被检体内部的任意的三维位置显示在所述模型图像上。
附图说明
图1是示出本发明的第一实施方式的医疗装置的框图。
图2是示出图1的医疗装置的外观的说明图。
图3是用于对器官变形中心的求出方法进行说明的说明图。
图4是示出极坐标中的观察点的说明图。
图5是以极坐标的θ为横轴并且以极坐标的φ为纵轴来示出二维模型图像的说明图。
图6是示意性地示出仰卧位的状态下的膀胱的平面形状U1和右侧卧位的状态下的膀胱的侧面形状U2的、用于对极坐标与模型图像的对应进行说明的说明图。
图7是示出本实施方式中的动作流程的流程图。
图8是用于对模型图像上的标志进行说明的说明图。
图9A是用于对本发明的第二实施方式中采用的模型图像进行说明的说明图。
图9B是示出本发明的第二实施方式中采用的模型图像的说明图。
图10是用于对本发明的第三实施方式进行说明的说明图。
具体实施方式
以下,参照附图对本发明的实施方式详细地进行说明。
(第一实施方式)
图1是示出本发明的第一实施方式的医疗装置的框图。图2是示出图1的医疗装置的外观的说明图。
一般情况下,在纸质介质上描绘的图表(Schema)示意性地表示器官的实际形状,在纸质病历等中多数情况下使用共用的形状的图表。手术人员一边在脑中考虑比例尺和角度等一边进行将通过内窥镜等实际上观察到的病变部等的位置和形状记录到在纸面上描绘的图表上这样的处理。还有时使用与实际的器官形状不同的共用形状的图表,因而对手术人员来说易于进行病变部的确认等。
因此,在本实施方式中,当在监视器所显示的模型图像中显示观察范围等的情况下也使用共用的模型图像。而且,在该情况下,在本实施方式中,不论器官形状的个人差异如何,并且不论器官的变形如何都能够在共用的模型图像上的准确的位置和范围内显示观察范围等。
如图2所示,医疗装置1是进行被检体内部的观察的装置。在本实施方式中,关于将患者Pa内部的规定的管腔器官(在具体例中为膀胱U)内部作为被检体内部进行观察(或检查)的例子进行说明。医疗装置1构成为具有光源装置3、处理器4、图像处理装置5、监视器6、位置检测机构部29以及作为观察装置的内窥镜2。医疗装置1也可以具有在通常光观察和特殊光观察这两种观察模式下进行观察的功能。作为医疗装置1的用户的手术人员对于在床8上以仰卧位等横躺着的患者Pa的作为规定的管腔器官(简称为管腔器官或器官)的膀胱U内部进行内窥镜检查。
内窥镜2具有操作部2a、插入部2b以及通用缆线2c,其中,该插入部2b具有挠性。内窥镜2例如是膀胱检查用的内窥镜。在通用缆线2c内贯穿插入有图1所示的光导9,内窥镜2使来自光源装置3的照明光通过光导9而从插入部2b的前端部2d的照明窗射出。通过该照明光对规定的管腔器官(膀胱U)内部进行照明,该规定的管腔器官(膀胱U)是供插入部2b的前端部2d插入的被检体内部。
如图1所示,在插入部2b的前端部2d设置有物镜光学系统10和摄像元件11。摄像元件11的摄像面配置在物镜光学系统10的成像位置,该摄像元件11对成像在摄像面上的被检体光学像进行光电转换并作为摄像信号输出。这样,摄像元件11对由光源装置3的照明光进行照明的膀胱U的内壁进行拍摄。由物镜光学系统10和摄像元件11构成了对管腔器官内部进行拍摄并输出摄像图像的摄像部(或摄像装置)12。
由摄像元件11取得的摄像信号经由通用缆线2c内的信号线被输入给处理器4。在处理器4中设置有图像生成电路4a,图像生成电路4a进行使用所输入的摄像信号的图像生成处理,生成作为管腔器官的膀胱U内部的内窥镜图像(摄像图像)。
图像生成电路4a将所生成的摄像图像输出给图像处理装置5。图像处理装置5的图像取入电路24具有图像取入部的功能,该图像取入部进行以一定的周期取入由处理器4生成的内窥镜图像的处理。图像取入电路24例如与帧速相同地在一秒内从处理器4取得30张内窥镜图像。并且,图像取入电路24也接收来自处理器4的释放信号。图像取入电路24取入来自图像生成电路4a的摄像图像,经由显示I/F 23提供给监视器6。由此,由内窥镜2取得的内窥镜图像被显示在监视器6的内窥镜图像显示区域上。另外,使图像取入电路24还能够取入来自CT装置29的图像,经由显示I/F 23提供给监视器6。
处理器4具有用于切换观察模式的切换开关4b。图像生成电路4a被输入由切换开关4b指定的观察模式信号,生成与由切换开关4b指定观察模式对应的内窥镜图像。更具体而言,在指定了通常光观察模式的情况下,图像生成电路4a生成在通常光(白色光)的照明下拍摄的通常光观察图像,在指定了特殊光观察模式的情况下,图像生成电路4a生成特殊光观察图像(更狭义而言为窄带光观察图像)。
并且,切换开关4b的观察模式信号还被输入给光源装置3的LED控制电路3a。LED控制电路3a对LED 3b、3c进行控制以生成与观察模式对应的照明光。即,在由切换开关4b指定了通常光观察模式的情况下,LED控制电路3a进行控制以使作为通常光观察模式用的光源的白色LED 3b发光,在指定了特殊光观察模式的情况下,LED控制电路3a进行控制以使作为特殊光观察模式用的光源的窄带的蓝色LED 3c发光。
在窄带的蓝色LED 3c发光的情况下,窄带的蓝色光被以45度的角度配置在该蓝色光的光路上的分色镜3d选择性地反射,然后被聚光透镜3e会聚而向光导9的基端入射。入射到光导9的基端的窄带的蓝色照明光被光导9传送而从安装有光导9的前端的照明窗射出。这样,在该情况下进行了特殊光观察模式用的照明(更狭义而言为窄带光观察模式用的照明)。
并且,在白色LED 3b发光的情况下,白色光的去除了窄带的蓝色光后的大部分白色光被配置在该白色光的光路上的分色镜3d选择性地透射,被聚光透镜3e会聚而向光导9的基端入射。入射到光导9的基端的去除了窄带的蓝色光后的白色照明光被光导9传送而从安装于光导9的前端的照明窗射出。于是,在该情况下进行了通常光观察模式用的照明。
在内窥镜2的操作部2a上设置有释放按钮(或者释放开关)14。释放按钮14是手术人员等用户在记录(或者存储)内窥镜图像时按压的按钮。当释放按钮14被按压时,向处理器4输出释放按钮操作信号,处理器4生成释放信号并输出给图像处理装置5。释放按钮14被按压时的内窥镜图像被记录(或者存储)在图像处理装置5的后述的存储器22中。并且,医疗装置1具有输入装置30,该输入装置30供用户对图像处理装置5进行各种信息的输入或用于选择的输入。
图像处理装置5具有如下的功能:使监视器6显示内窥镜图像并且显示与观察对象对应的模型图像,在模型图像上显示内窥镜图像的摄影范围等。图像处理装置5使由处理器4生成的内窥镜图像显示在监视器6的显示画面上的一部分的显示区域,使模型图像显示在另一部分的显示区域。而且,图像处理装置5使得表示所显示的内窥镜图像的图像范围(摄影范围)的标志显示于在显示画面上显示的模型图像上。
图像处理装置5具有控制部21、存储器22、显示接口(以下,简称为显示I/F)23、图像取入电路24、位置方向取得电路25以及位置检测机构控制部27。控制部21、存储器22、显示I/F 23、图像取入电路24以及位置方向取得电路25经由总线28而彼此连接。内窥镜图像从图像取入电路24经由总线28被提供给控制部21。
作为存储部的存储器22由ROM、RAM(随机存取存储器)、闪存等构成。存储器22存储由控制部21执行的各种处理程序和各种数据。并且,存储器22具有内窥镜图像存储部22a和位置方向信息存储部22b,该内窥镜图像存储部22a存储由图像生成电路4a生成的内窥镜图像的信息,该位置方向信息存储部22b存储由位置方向取得电路25取得的位置信息和视线方向信息。并且,存储器22具有2D/3D模型图像存储部22c,该2D/3D模型图像存储部22c存储二维(2D)和三维(3D)的模型图像的图像数据。在本实施方式中,作为模型图像,不论患者如何,并且不论器官的状态如何都使用共用形状的模型图像。
控制部21能够由未图示的CPU等处理器构成,也可以根据存储在存储器中的程序进行动作而对各部分进行控制。通过控制部21来求出内窥镜图像的摄影范围,并且对模型图像的显示和模型图像上的表示摄影范围的标志的显示进行控制。
在本实施方式中,求出作为观察装置的内窥镜2的摄影范围(即在监视器6的内窥镜图像的显示区域中显示的图像的范围),并且在共用的模型图像中准确地显示。因此,首先,位置方向取得电路25检测摄像元件11的位置和方向。位置检测机构部29构成为检测摄像元件11的位置和方向。位置检测机构控制部27能够对位置检测机构部29进行控制以检测摄像元件11的位置和方向,并且将检测结果输出给位置方向取得电路25。
作为位置检测机构部和位置检测机构控制部,能够采用公知的方法。例如,作为位置检测机构部,可以在插入部2b前端设置有未图示的接收线圈,在内窥镜2的外部设置有产生磁场的磁场发送天线,对接收到来自磁场发送天线的磁场的接收线圈的信号进行分析而检测接收线圈的位置和方向,根据接收线圈与摄像元件11的已知的位置关系而检测摄像元件11的位置和方向,也可以采用日本特开2014-117446号公报所记载的方法。在前者的情况下位置方向取得电路25输出的数据是按照以磁场发送天线为基准的坐标系输出的。
接着,位置方向取得电路25计算从摄像元件11到观察对象为止的距离。对于内窥镜2的插入部2b,能够通过未图示的机构根据操作部2a的操作杆的操作而使位于插入部2b的前端的弯曲部弯曲。在该内窥镜2的插入部2b的例如前端设置有距离传感器13,该距离传感器13测定插入部2b与患者Pa的膀胱U的表面(被插入体内表面)的距离并输出距离信息。
距离传感器13被设置为对与摄像元件11进行拍摄的摄像中心的方向大致平行的方向上的距离进行测定。可以认为摄像元件11的位置和方向与距离传感器13的位置和方向大致相同。由此,能够检测在与摄像元件11进行拍摄的方向相同的方向上与被插入体内表面相距的距离。
例如,也可以是,距离传感器13射出红外激光,并检测由被插入体内表面反射出的红外激光,根据红外激光的出射时间与检测时间之差来测定距离传感器13的位置(即从插入部2b的前端到被插入体内表面为止的距离)。另外,也可以代替距离传感器13,而在控制部21中构成为进行内窥镜立体图像的图像分析来求出距离。
能够通过插入部2b的插入、旋转操作和由操作部2a的操作杆41进行的弯曲操作而使设置有距离传感器13的插入部2b的位置和朝向移动。因此,也能够使由距离传感器13测定的测定点移动。即,能够在内窥镜2的能够操作的范围内测定任意的插入部前端与距离测定点的距离。
距离传感器13将作为测量结果的距离信息输出给位置方向取得电路25。位置方向取得电路25根据摄像元件11的位置和方向、来自距离传感器13的距离信息以及后述的视角来求出内窥镜2的观察范围。
在实施方式中,利用极坐标系求出内窥镜2的观察范围,以使得不论作为检查对象的器官的膀胱U的形状的个人差异和伴随着扩张、缩小的尺寸的变化等,都在共用的模型图像上显示观察范围。
(极坐标系)
在本实施方式中,例如,即使膀胱或大肠等的尺寸、形状存在个人差异,也能够利用以下这样的特征:在产生扩张或缩小等变形的情况下以某个点为起点按照大致相似形状进行变形。在本实施方式中,求出这样的器官内的作为变形起点的点(以下,称为器官变形中心),通过以所求出的器官变形中心为原点的极坐标来表现观察范围(坐标)。以下,为了简化,将观察范围内的任意点作为观察点进行说明。
例如,假设在从该极坐标的原点对器官内的规定的观察点进行观察的情况下该器官扩张或缩小。在该情况下,由于以作为器官变形中心的极坐标的原点为中心按照相似形状进行扩张或缩小,因此虽然从原点到观察点的距离发生变化,但观察的方向不变。即,为了确定器官内的任何位置是否是观察点,无需从原点起的距离信息,只要了解极坐标的角度信息即可。关于膀胱或大肠等的近似球形或圆筒形的形状的模型图像,由于能够仅通过角度信息来指定位置,因此根据极坐标来求出这些器官的点,从而无需使用从原点起的距离信息就能够求出与器官的点对应的模型图像的位置。
考虑到以上情况,在本实施方式中,通过使用以器官变形中心为原点的极坐标系来表现观察范围,不论器官的实际形状如何都能够在共用的模型图像上准确地显示观察范围等。
参照图3对作为极坐标的原点的器官变形中心的求出方法进行说明。图3是用于对器官变形中心的求出方法进行说明的说明图。图3以立体图的方式示出了膀胱的外形,圆圈标记所示的各位置分别是内尿道口A、左尿管口B、右尿管口C、顶部T。图3是从患者的左侧稍微靠脚侧并且靠腹侧观察切石位的患者Pa的膀胱U时的图。在本实施方式中,根据作为膀胱U的四个特征点的内尿道口A、左尿管口B、右尿管口C以及顶部T来求出作为器官变形中心的极坐标的原点。即,求出将腹部的顶部T和内尿道口A连结起来的直线AT,求出与该直线AT平行并且通过左右尿管口B、C的平面L。而且,设极坐标的原点O为将直线AT的中点投影到平面L上的点。
接下来,参照图4和图5对器官壁面的规定的观察点的极坐标以及该极坐标与模型图像上的显示的关系进行说明。图4是示出极坐标中的观察点的说明图,图5是以极坐标的θ为横轴并且以极坐标的φ为纵轴来示出二维模型图像的说明图。图5所示的二维模型图像是将膀胱分成前壁(Wf)和后壁(Wb)两部分并分别以正方形示出的图。并且,图6示意性地示出从后述的Y轴的+方向观察-方向的状态下的膀胱的平面形状U1和从后述的Z轴的-方向观察+方向的状态下的膀胱的侧面形状U2,是用于对极坐标与模型图像的对应进行说明的说明图。另外,在图6的平面形状U1中,Y轴通过原点,是朝向纸面外侧的方向,在侧面形状U2中,Z轴通过原点,是朝向纸面里侧的方向。
在本实施方式中,极坐标的XYZ轴是对应于二维模型图像的坐标而决定的。即,如图4和图6所示,极坐标的Z轴通过原点O,被设定为从左尿管口B朝向右尿管口C的方向(图4的朝向纸面里侧的方向),X轴被设定为从原点O朝向将内尿道口A投影到与Z轴垂直且通过原点O的平面上的点的方向,Y轴是通过Z与X的外积而得到的。在本实施方式中示出了使用极坐标中的球坐标的例子。在球坐标中,使用(r,θ,φ)表示规定的点,r是与原点的距离,θ是与Z轴的角度,φ是将规定的点投影到XY平面上的点与X轴的角度。另外,在图6中示出了内尿道口A是θ=90°的例子,在该情况下,在与Z轴垂直且通过原点O的平面上X轴是从原点O朝向内尿道口A的方向。
在图5所示的膀胱的模型图像中,将从顶部T到内尿道口A的腹侧的范围作为前壁Wf,由纸面下侧的正方形表示,将余下的背部侧的范围作为后壁Wb,由纸面上侧的正方形表示。模型图像的横轴相当于图6的平面形状U1所示的与Z轴相距的角度θ,模型图像的纵轴相当于图6的侧面形状U2所示的与X轴相距的角度φ。
例如,如图6的平面形状U1所示,内尿道口A与Z轴的角度θ是90度,并且位于X轴上,因此如侧面形状U2所示,该内尿道口A与X轴的角度φ是0°,在图5的模型图像上被表示在前壁Wf与后壁Wb的边界位置上。同样地,如侧面形状U2所示,顶部T与X轴的角度是φs,被表示在图5的模型图像的纸面下端的位置上,并且与X轴的角度又是φs-360,因此被表示在图5的模型图像的纸面上端的位置。
这样,将膀胱U内的观察点求出为极坐标的坐标位置,仅通过作为坐标位置的角度信息的θ和φ就能够示出模型图像上的位置。例如,设图4的膀胱U的壁面的观察点P1、P2的极坐标分别是(r1,θ1,φ1)、(r2,θ2,φ2)。在该情况下,观察点P1被显示在图5的模型图像的θ=θ1、φ=φ1的点处,观察点P2被显示在图5的模型图像的θ=θ2、φ=φ2的点处。
另外,如图4所示,与前壁Wf的宽度相比,后壁Wb的宽度比较宽,但通常在纸质介质的图表上将前壁Wf和后壁Wb的宽度设置为相同,因此在图5所示的模型图像中也将前壁Wf和后壁Wb的宽度设置为相同。因此,在图5的模型图像中,与正侧(纸面下侧)相比,纵轴的负侧(纸面上侧)的每单位长度的角度较大。另外,也可以按照前壁Wf和后壁Wb的尺寸而采用正侧的尺寸与负侧的尺寸不同的模型图像。
而且,对于由距离传感器13检测的观察点,摄像部12的摄像范围具有规定的广度(视角),为了确定观察范围,需要取得视角的信息。摄像部12的视角的信息可以从内窥镜2取得,并且也可以由输入装置30输入。在内窥镜2中设置有使各内窥镜2产生固有的识别信息(简记为ID)的由ROM(只读存储器)等构成的ID产生部(在图2中简记为ID)15。该ID产生部15将ID输出给图像处理装置5内的位置方向取得电路25。另外,ID产生部15也可以将ID经由处理器4发送给图像处理装置5。
位置方向取得电路25具有作为摄像信息取得部的功能,该摄像信息取得部从ID取得物镜光学系统10的焦点距离、对物镜光学系统10的光学像进行拍摄的摄像元件11的像素数、像素的尺寸、视角等、以及摄像部12进行拍摄的情况下的摄像信息。位置方向取得电路25能够将所取得的摄像信息输出给控制部21,控制部21能够在观察范围的计算中使用来自位置方向取得电路25的摄像信息。
图像处理装置5的控制部21中的坐标运算部21d也作为坐标系转换部发挥功能,该坐标系转换部将位置方向取得电路25求出的观察点的坐标转换成极坐标。坐标运算部21d也具有作为图像分析部的功能,该图像分析部为了求出极坐标的原点O的位置和坐标轴X、Y、Z而进行内窥镜图像的图像分析。手术人员将插入部2b插入到膀胱U内来观察内尿道口A、左尿管口B、右尿管口C以及顶部T。坐标运算部21d从存储器22中读出由内窥镜2取得的内窥镜图像,进行图像分析,对作为观察部位即膀胱的四个特征点的内尿道口A、左尿管口B、右尿管口C以及顶部T进行检测。位置方向取得电路25求出这些位置,并将位置的检测结果提供给存储器22的位置方向信息存储部22b而使其存储。坐标运算部21d根据从位置方向信息存储部22b读出的位置信息,而求出用于将位置方向取得电路的坐标系转换成具有原点O和坐标轴X、Y、Z的极坐标的坐标系的坐标转换式。
在本实施方式中,不论膀胱U扩张或缩小,极坐标的原点O和坐标轴X、Y、Z都不变,因此只要对每位患者仅求出一次坐标转换式即可。该坐标转换式被存储在存储器22或其他未图示的存储器中。
当在观察时从位置方向取得电路25向坐标运算部21d提供了坐标时,该坐标运算部21d使用坐标转换式将该坐标转换成极坐标。坐标运算部21d能够求出根据距离传感器13的输出而求出的观察点的极坐标,并且能够根据摄像部12的视角的信息而求出观察范围的极坐标。
作为模型图像,能够采用二维(2D)图像和三维(3D)图像。这些模型图像是将观察对象的器官模型化而得到的,例如采用图5所示的模型图像。模型图像生成部21b从存储器22的2D/3D模型图像存储部22c中读出模型图像的信息,生成用于将模型图像显示在监视器6的显示画面上的显示数据。模型图像生成部21b将模型图像输出给图像生成部21c。
标志生成部21a被提供摄影范围的极坐标而生成显示用的数据(以下,称为标志数据),该显示用的数据用于在模型图像上显示出表示摄影范围的标志。标志生成部21a将标志数据输出给图像生成部21c。图像生成部21c能够将模型图像生成部21b生成的模型图像和从存储器22中读出的内窥镜图像显示到监视器6上,并且生成显示数据,并经由显示I/F23输出给监视器6,其中该显示数据用于在模型图像上显示出表示摄影范围的标志。
另外,标志生成部21a也可以使存储器22存储标志数据。在该情况下,图像生成部21c不仅能够显示出表示当前观察中的区域(摄影范围)的标志,还能够以标志的形式显示出与摄影范围的移动对应地在之前依次拍摄的范围。
接下来参照图7和图8对这样构成的实施方式的动作进行说明。图7是示出本实施方式中的动作流程的流程图。并且,图8是用于对模型图像上的标志进行说明的说明图。
在医疗装置1处于动作状态时,在最初的步骤S1中,手术人员将内窥镜2插入到患者Pa的尿道内。位置方向取得电路25根据位置检测机构控制部27的检测结果而在以规定的测定对象基准位置为基准的三维坐标系上检测插入部2b的前端的距离传感器13的位置和方向。
手术人员为了设定极坐标而改变插入部2b的位置和朝向,通过摄像部12对内尿道口A、左尿管口B、右尿管口C以及顶部T进行拍摄。来自摄像部12的内窥镜图像被图像取入电路24取入到图像处理装置5中,依次存储在存储器22的内窥镜图像存储部22a中。另外,图像生成部21c读出存储在内窥镜图像存储部22a中的内窥镜图像并经由显示I/F 23输出给监视器6。于是,在监视器6的显示画面上显示了内窥镜图像。手术人员能够一边观察在监视器6的显示画面上显示的内窥镜图像一边进行插入部2b的插入操作。
控制部21的坐标运算部21d从存储器22中读出内窥镜图像,通过图像分析而从所拍摄的图像中检测作为膀胱U的特征点的内尿道口A、左尿管口B、右尿管口C以及顶部T的部分。在坐标运算部21d检测这些部位的时刻,位置方向取得电路25取得距离传感器13的位置、方向以及根据距离信息而计算出的位置信息(即位置方向取得电路的坐标系中的内尿道口A、左尿管口B、右尿管口C以及顶部T的三维坐标)(步骤S2)。
坐标运算部21d在接下来的步骤S3中,根据膀胱U的特征点的三维坐标而在三维空间上设定极坐标。该情况下的极坐标的原点O设定在膀胱U扩张和伸缩的器官变形中心,各坐标轴像上述那样与膀胱U的模型图像对应地设定。接着,坐标运算部21d在步骤S4中求出用于将位置方向取得电路的三维坐标转换成极坐标的极坐标转换式。
在步骤S5中,控制部21的模型图像生成部21b读出存储在2D/3D模型图像存储部22c中的信息,生成用于显示模型图像的显示数据并经由图像生成部21c和显示I/F 23输出给监视器6。这样,在监视器6的显示画面上与内窥镜图像一同显示模型图像。
依次向位置方向取得电路25提供距离传感器13的位置、方向以及由距离传感器13求出的距离信息,位置方向取得电路25取得观察点的三维坐标。此外,位置方向取得电路25从该ID产生部15取得内窥镜2的ID,从而取得物镜光学系统10的焦点距离、对物镜光学系统10的光学像进行拍摄的摄像元件11的像素数、像素的尺寸、视角等、以及摄像部12进行拍摄情况下的摄像信息。坐标运算部21d根据这些信息和观察点的三维坐标来求出观察范围的三维坐标(步骤S6)。
坐标运算部21d使用极坐标转换式将观察范围的三维坐标转换成极坐标(步骤S7)。此外,坐标运算部21d将转换后的极坐标转换成模型图像的显示位置的信息(步骤S8)。标志生成部21a生成显示数据,该显示数据用于显示出表示观察范围的标志。在本实施方式中,使用由坐标运算部21d取得的观察范围的极坐标中的θ和φ的信息来生成在模型图像上显示的标志的显示数据。
图像生成部21c根据由标志生成部21a生成的标志的显示数据而在监视器6的显示画面上以包含表示观察范围的标志的方式进行显示。
图8示出了模型图像的显示例。模型图像50在纸面上方具有后壁Wb的显示区域51并且在纸面下方具有前壁Wf的显示区域52。在显示区域51、52的边界上显示出与内尿道口A对应的显示53。并且,显示出将与左尿管口B和右尿管口C分别对应的位置55、56和显示53的位置连结起来的三角形的显示57。并且,在显示区域51的上端显示出与顶部T对应的显示54b,在显示区域52的下端显示出与顶部T对应的显示54a。
在后壁Wb的显示区域51中用虚线显示出表示当前的观察范围的标志显示58。并且,斜线区域的标志显示59显示出之前的观察范围。
该标志显示58、59是通过测定内窥镜2对患者Pa的器官的观察范围并进行坐标转换而得到的,能够显示在模型图像上的准确的位置和范围内。由此,手术人员能够通过在监视器6上显示的模型图像50上的标志显示58、59来掌握当前和之前的准确的摄影范围。并且,控制部21能够实时地实施摄影范围的计算,能够依次显示与时时刻刻变化的内窥镜插入部2b位置和朝向对应的摄影范围。
这里,假设在观察过程中由于灌流等而导致膀胱U扩张或缩小。在该情况下也将极坐标的原点O设定在器官变形中心,因此如果插入部2b的位置和朝向不变,则关于观察点的极坐标,仅r发生变化,而θ和φ不变。由于能够仅使用θ和φ的信息来生成模型图像上的标志,因此即使在产生了器官的扩张和收缩的情况下也不需要变更模型图像或变更极坐标等,无需中断观察就能够在模型图像上的准确的位置和范围内继续显示标志。
并且,即使在观察不同的患者的器官的情况下也使用极坐标求出观察点,仅使用θ和φ的信息来生成模型图像上的标志,因此能够在共用的模型图像中的准确的位置和范围内显示标志。
这样在本实施方式中,通过以器官扩张和收缩的器官变形中心为原点的极坐标系来确定器官表面的位置,从而不论器官的扩张和收缩如何,并且不论器官的尺寸和形状的个人差异如何,都能够在共用的模型图像中的准确的位置和范围内显示与器官表面的位置对应的显示。由此,无需在观察过程中重新制作模型图像就能够继续进行观察和手术。
(第二实施方式)
图9A是用于对本发明的第二实施方式中采用的模型图像进行说明的说明图,图9B是示出本发明的第二实施方式中采用的模型图像的说明图。图9A是与图4对应的模型图像,示出与图5相同的图像。本实施方式中的硬件结构与第一实施方式相同。
在第一实施方式中,作为模型图像,采用了前壁和后壁为四边形的模型图像。本实施方式是采用以圆形来表示前壁和后壁的模型图像的例子。
在本实施方式中,坐标运算部21d追加进行从四边形的模型图像转换成圆形的模型图像转换的转换处理,仅该点与第一实施方式不同。即,坐标运算部21d通过下述式子(1)和式子(2)所示的转换式而转换成圆形的模型图像。
y=φ…(1)
设x是根据y的大小对θ进行校正而得到的值。
例如,在转换成正圆的情况下,
在φs-360<φ<0时,
x=(θ/90)×(902-(y-(φs-360)/2)2)1/2
在0<φ<φs时,
x=(θ/90)×(902-(y-(φs)/2)2)1/2…(2)
图9B示出了转换后的模型图像。图9B的模型图像是代替θ而以上述式子(2)的x为横轴并且代替φ而以上述式子(1)的y为纵轴来二维地显示膀胱U的图。在图9B中,与图9A同样地,也能够在模型图像上的准确的位置示出观察点等。
其他的结构和作用与第一实施方式相同。
在本实施方式中也能够得到与第一实施方式相同的效果,并且作为模型图像能够采用通常在膀胱的图表中采用的圆形的图像。
(第三实施方式)
图10是用于对本发明的第三实施方式进行说明的说明图。本实施方式的硬件结构与第一实施方式相同。
在第一和第二实施方式中,在模型图像上准确地显示观察点等。即,通过根据极坐标的θ和φ来决定模型图像上的位置,而在模型图像上准确地显示出形状与模型图像不同的膀胱U的规定的观察点。因此,在第一和第二实施方式中,极坐标的Z轴恒定的线上的观察点根据z=r×cosθ而被表示为θ根据距离r而变化的曲线上的点。
然而,医生习惯以通过左、右尿管并与图6的侧面形状U2的XY平面平行的两个面为边界来判定膀胱U的右侧壁、中央的前壁或者后壁、左侧壁,从而判断各种检查结果。而且,医生将在纸质介质的图表上通过左、右尿管口的纵向的直线的外侧判断为右或左侧壁而进行诊断等。即,对于使用显示在纸质介质上的膀胱的图表的医生来说,在极坐标的Z轴恒定的线上的观察点位于模型图像的横轴的坐标值恒定的直线上的情况下,能够无违和感地进行诊断等。
因此,在本实施方式中,坐标运算部21d除了进行从四边形的模型图像转换成圆形的模型图像的转换处理之外,还进行校正以使Z轴恒定的线上的观察点位于模型图像的横轴的坐标值恒定的线上。即,当在模型图像上显示观察点等的情况下,模型图像的纵轴直接使用极坐标的φ、横轴使用以极坐标的XYZ轴为XYZ轴的直角坐标中的Z轴的值Z,坐标运算部21d采用进行下述式子(3)和式子(4)所示的校正而得到的P。
在Z>0时
P=Z/ZC…(3)
在Z≤0时
P=Z/ZB…(4)
另外,上述式子(3)和式子(4)的P表示模型图像的横轴的值,ZB是左尿管口B的Z轴的值,ZC是右尿管口C的Z轴的值。
图10示出转换后的模型图像。图10的模型图像是代替θ而以上述式子(3)和式子(4)的P为横轴并且以φ为纵轴来二维地显示膀胱U的图。在图10的模型图像中,直角坐标的Z轴的值为ZB的线由在P轴上值为-1的直线表示,直角坐标的Z轴的值为ZC的线由在P轴上值为+1的直线表示。由此,手术人员将模型图像中的P<-1的区域判断为左侧壁、将P>+1的区域判断为右侧壁,将除了顶部T附近的-1≤P≤+1并且φ≥0的区域判断为前壁、将除了顶部T附近的-1≤P≤+1并且φ<0的区域判断为后壁。
其他的结构和作用与第二实施方式相同。
在本实施方式中也能够得到与第二实施方式相同的效果,并且在模型图像上也能够将通过左、右尿管的直线显示成直线,从而能够容易地判定膀胱的右侧壁、中央的前壁或后壁、左侧壁。
另外,在上各实施方式中,使用二维图像作为模型图像进行了说明,但也可以采用三维图像。并且,作为二维模型图像,在前壁侧和后壁侧使用了相同形状的图像,但也可以采用彼此不同的形状或尺寸的图像。
并且,在上述各实施方式中,关于假定器官的变形中心为一点并在整个器官中设定一个极坐标的例子进行了说明,但在器官的变形中心为多个的情况下,也可以对应于各变形中心而将器官分割成多个区域,按照每个区域来设定极坐标,按照每个区域来求出观察点等的极坐标的θ和φ,并显示在模型图像上。
并且,在上述各实施方式中,关于将观察范围显示在模型图像上的情况进行了说明,但也可以将观察范围的中心位置、观察范围中的被指定的一部分的范围等显示在模型图像上。
并且,在上述各实施方式中,对极坐标为球坐标的情况进行了说明,但在大肠等筒状的器官的情况下也可以是圆柱坐标。在该情况下,坐标成分为(r、θ、z),通过使用角度成分θ和z在模型图像上进行显示,不论大肠的径向的膨胀r如何都能够在正确的位置进行显示。
并且,在上述各实施方式中,关于在决定极坐标的轴时先根据C和B来决定z轴的情况进行了说明,但也可以先根据A和O来决定x轴。
本发明不限于上述实施方式,能够在实施阶段在不脱离其主旨的范围内对结构要素进行变形并将其具体化。并且,通过适当组合在上述实施方式中公开的多个结构要素,能够形成各种发明。例如,可以从在实施方式中示出的所有结构要素中删除几个结构要素。
并且,这里说明的技术中的、主要以流程图说明的控制和功能多数能够由程序进行设定,能够通过计算机读取并执行该程序而实现上述的控制和功能。该程序作为计算机程序产品,其整体或一部分能够记录或存储在软盘、CD-ROM等非易失性存储器等便携式介质或硬盘、易失性存储器等存储介质中,能够在产品出厂时流通或提供,或者经由便携式介质或通信电线而流通或提供。使用者通过经由通信网络下载该程序并安装到计算机上或者从记录介质安装到计算机上,能够容易地实现本实施方式的医疗装置。
根据本发明,具有如下的效果:不论器官的变形如何,并且即使是不同的人的器官也能够使用共用的模型图像而准确地显示观察范围等。
本申请是以2015年7月6日在日本申请的日本特愿2015-135474号为优先权主张的基础而申请的,上述的公开内容被引用于本申请说明书、权利要求书。

Claims (9)

1.一种医疗装置,其特征在于,该医疗装置具有:
模型图像生成部,其生成将被检体内部的形状模型化而得到的模型图像;
坐标运算部,其检测所述被检体内部的特征点的三维位置,根据所述特征点的位置来设定极坐标,通过所述极坐标来求出所述被检体内部的任意的三维位置;以及
图像生成部,其基于由所述坐标运算部求出的极坐标的成分中的一个角度成分和根据所述一个角度成分来校正另一个角度成分而得到的值,将所述被检体内部的任意的三维位置显示在所述模型图像上。
2.根据权利要求1所述的医疗装置,其特征在于,
该医疗装置还具有位置方向取得部,该位置方向取得部求出包含所述特征点在内的所述被检体内部的任意的三维位置。
3.根据权利要求1所述的医疗装置,其特征在于,
该医疗装置具备具有摄像部的插入部,该插入部被插入到被检体内部来取得所述被检体内部的图像,
所述坐标运算部通过由所述插入部取得的所述被检体内部的图像的图像分析来检测所述特征点。
4.根据权利要求3所述的医疗装置,其特征在于,
该医疗装置具有位置方向取得部,该位置方向取得部以相对于所述被检体内部的规定的位置在位置上固定的基准位置为基准来求出包含所述特征点在内的所述被检体内部的各三维位置。
5.根据权利要求4所述的医疗装置,其特征在于,
所述位置方向取得部求出从所述摄像部到所述被检体内部的各三维位置为止的距离,根据所求出的距离以及所述摄像部的三维位置和方向来求出所述被检体内部的各三维位置。
6.根据权利要求3所述的医疗装置,其特征在于,
所述图像生成部将表示所述摄像部的观察范围的标志显示在所述模型图像上。
7.一种医疗装置,其特征在于,该医疗装置具有:
模型图像生成部,其生成将被检体内部的形状模型化而得到的模型图像;
坐标运算部,其检测所述被检体内部的特征点的三维位置,根据所述特征点的位置来设定极坐标,通过所述极坐标来求出所述被检体内部的任意的三维位置;以及
图像生成部,其基于由所述坐标运算部求出的极坐标的成分中的一个角度成分和将所述极坐标转换得到的直角坐标的一个成分,将所述被检体内部的任意的三维位置显示在所述模型图像上。
8.一种医疗装置的医疗图像生成方法,该医疗装置具有位置方向取得部、坐标运算部、模型图像生成部以及图像生成部,该医疗图像生成方法的特征在于,
所述位置方向取得部求出包含被检体内部的特征点在内的所述被检体内部的任意的三维位置,
所述坐标运算部根据所述被检体内部的特征点的三维位置来设定极坐标,通过所述极坐标来求出所述被检体内部的任意的三维位置,
所述模型图像生成部生成将所述被检体内部的形状模型化而得到的模型图像,
所述图像生成部基于由所述坐标运算部求出的极坐标的成分中的一个角度成分和根据所述一个角度成分来校正另一个角度成分而得到的值,将所述被检体内部的任意的三维位置显示在所述模型图像上。
9.一种记录介质,其记录了医疗图像生成程序,该医疗图像生成程序用于使计算机执行以下的步骤:
求出包含被检体内部的特征点在内的所述被检体内部的任意的三维位置,
根据所述被检体内部的特征点的三维位置来设定极坐标,通过所述极坐标来求出所述被检体内部的任意的三维位置,
生成将所述被检体内部的形状模型化而得到的模型图像,
基于针对所述被检体内部的任意的三维位置所求出的所述极坐标的成分中的一个角度成分和根据所述一个角度成分来校正另一个角度成分而得到的值,将所述被检体内部的任意的三维位置显示在所述模型图像上。
CN201680011045.6A 2015-07-06 2016-06-13 医疗装置、医疗图像生成方法以及医疗图像生成程序 Active CN107249427B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015135474 2015-07-06
JP2015-135474 2015-07-06
PCT/JP2016/067505 WO2017006708A1 (ja) 2015-07-06 2016-06-13 医療装置、医療画像生成方法及び医療画像生成プログラム

Publications (2)

Publication Number Publication Date
CN107249427A CN107249427A (zh) 2017-10-13
CN107249427B true CN107249427B (zh) 2019-05-07

Family

ID=57685074

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680011045.6A Active CN107249427B (zh) 2015-07-06 2016-06-13 医疗装置、医疗图像生成方法以及医疗图像生成程序

Country Status (5)

Country Link
US (1) US10631826B2 (zh)
EP (1) EP3245932A1 (zh)
JP (1) JP6141559B1 (zh)
CN (1) CN107249427B (zh)
WO (1) WO2017006708A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10786311B2 (en) * 2017-12-22 2020-09-29 Acclarent, Inc. Apparatus and method for registering facial landmarks for surgical navigation system
JP7038546B2 (ja) * 2017-12-27 2022-03-18 三菱電機エンジニアリング株式会社 表示システム
WO2019163890A1 (ja) * 2018-02-21 2019-08-29 オリンパス株式会社 医療システムおよび医療システムの作動方法
JP7127584B2 (ja) 2019-03-12 2022-08-30 株式会社明電舎 インバータシステムおよびインバータ制御方法
CA3147447A1 (en) 2019-09-23 2021-04-01 Boston Scientific Scimed, Inc. System and method for endoscopic video enhancement, quantitation and surgical guidance
JP2022078863A (ja) * 2020-11-13 2022-05-25 ソニー・オリンパスメディカルソリューションズ株式会社 医療用制御装置及び医療用観察システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1541617A (zh) * 2002-10-22 2004-11-03 ��ʽ���綫֥ X射线计算机层析装置、图像处理装置以及图像处理方法
CN101065052A (zh) * 2004-12-27 2007-10-31 奥林巴斯株式会社 医疗图像处理装置和医疗图像处理方法
CN102812380A (zh) * 2011-03-09 2012-12-05 株式会社东芝 医用图像处理装置
CN104736038A (zh) * 2012-10-16 2015-06-24 奥林巴斯株式会社 观察装置、观察支援装置、观察支援方法以及程序

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100215238A1 (en) * 2009-02-23 2010-08-26 Yingli Lu Method for Automatic Segmentation of Images
JP6108812B2 (ja) * 2012-12-17 2017-04-05 オリンパス株式会社 挿入装置
JP6253970B2 (ja) * 2013-12-20 2017-12-27 東芝メディカルシステムズ株式会社 画像処理装置、超音波診断装置及び画像処理プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1541617A (zh) * 2002-10-22 2004-11-03 ��ʽ���綫֥ X射线计算机层析装置、图像处理装置以及图像处理方法
CN101065052A (zh) * 2004-12-27 2007-10-31 奥林巴斯株式会社 医疗图像处理装置和医疗图像处理方法
CN102812380A (zh) * 2011-03-09 2012-12-05 株式会社东芝 医用图像处理装置
CN104736038A (zh) * 2012-10-16 2015-06-24 奥林巴斯株式会社 观察装置、观察支援装置、观察支援方法以及程序

Also Published As

Publication number Publication date
EP3245932A1 (en) 2017-11-22
US10631826B2 (en) 2020-04-28
JPWO2017006708A1 (ja) 2017-07-06
WO2017006708A1 (ja) 2017-01-12
US20170347989A1 (en) 2017-12-07
CN107249427A (zh) 2017-10-13
JP6141559B1 (ja) 2017-06-07

Similar Documents

Publication Publication Date Title
CN107249427B (zh) 医疗装置、医疗图像生成方法以及医疗图像生成程序
JP6985262B2 (ja) 患者の体内における内視鏡の位置を追跡するための装置及び方法
US8767057B2 (en) Image processing device, image processing method, and program
CN104797186B (zh) 内窥镜系统
US9460536B2 (en) Endoscope system and method for operating endoscope system that display an organ model image to which an endoscopic image is pasted
JP6389136B2 (ja) 内視鏡撮影部位特定装置、プログラム
US20160198982A1 (en) Endoscope measurement techniques
JP2010279539A (ja) 診断支援装置および方法並びにプログラム。
JP2017508529A (ja) 内視鏡測定システム及び方法
JP5750669B2 (ja) 内視鏡システム
CN102762142A (zh) 3d 表面的激光增强重建
US8666476B2 (en) Surgery assistance system
US20220409030A1 (en) Processing device, endoscope system, and method for processing captured image
JP2012228346A (ja) 画像表示装置
JP2003225195A (ja) 可撓性内視鏡のモニター装置
US9345394B2 (en) Medical apparatus
KR102313319B1 (ko) 증강현실 대장 내시경 시스템 및 이를 이용한 모니터링 방법
JP2019150574A (ja) 3次元形状データ作成方法、及び3次元形状データ作成システム
KR102516406B1 (ko) 내시현미경에 의해 획득되는 이미지를 스티칭하기 위해 위치 정보를 캘리브레이션하는 방법 및 장치
US20240122444A1 (en) Endoscopic examination support apparatus, endoscopic examination support method, and recording medium
WO2023181175A1 (ja) 内視鏡検査支援システム、内視鏡検査支援方法および記憶媒体
JP7440629B2 (ja) 内視鏡プロセッサ装置
JP6335839B2 (ja) 医療装置、医療画像生成方法及び医療画像生成プログラム
CN116940274A (zh) 内窥镜用形状测量系统及内窥镜用形状测量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant