JPWO2018180573A1 - 手術用画像処理装置、画像処理方法、及び、手術システム - Google Patents

手術用画像処理装置、画像処理方法、及び、手術システム Download PDF

Info

Publication number
JPWO2018180573A1
JPWO2018180573A1 JP2019509271A JP2019509271A JPWO2018180573A1 JP WO2018180573 A1 JPWO2018180573 A1 JP WO2018180573A1 JP 2019509271 A JP2019509271 A JP 2019509271A JP 2019509271 A JP2019509271 A JP 2019509271A JP WO2018180573 A1 JPWO2018180573 A1 JP WO2018180573A1
Authority
JP
Japan
Prior art keywords
image
update
image processing
processing
post
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019509271A
Other languages
English (en)
Other versions
JP7115467B2 (ja
Inventor
白木 寿一
寿一 白木
岳志 宮井
岳志 宮井
高橋 健治
健治 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2018180573A1 publication Critical patent/JPWO2018180573A1/ja
Application granted granted Critical
Publication of JP7115467B2 publication Critical patent/JP7115467B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00057Operational features of endoscopes provided with means for testing or calibration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/60Software deployment
    • G06F8/61Installation
    • G06F8/63Image based installation; Cloning; Build to order
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/60Software deployment
    • G06F8/65Updates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/40ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management of medical equipment or devices, e.g. scheduling maintenance or upgrades
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/634Warning indications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/30Creation or generation of source code
    • G06F8/38Creation or generation of source code for implementing user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Computer Security & Cryptography (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Gynecology & Obstetrics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Endoscopes (AREA)

Abstract

本技術は、ソフトウェア更新前と更新後の画像を容易に比較することができるようにする手術用画像処理装置、画像処理方法、及び、手術システムに関する。画像処理部は、術部画像に、ソフトウェアによる画像処理を施し、表示制御部は、画像処理が施された術部画像の表示を制御する。画像処理部は、術部画像にソフトウェア更新前の画像処理を施した更新前処理画像と、術部画像にソフトウェア更新後の画像処理を施した更新後処理画像とを生成し、表示制御部は、更新前処理画像および更新後処理画像の少なくともいずれか一方の少なくとも一部の表示を制御する。本技術は、内視鏡手術システムのCCUに適用することができる。

Description

本技術は、手術用画像処理装置、画像処理方法、及び、手術システムに関し、特に、ソフトウェア更新前と更新後の画像を容易に比較することができるようにする手術用画像処理装置、画像処理方法、及び、手術システムに関する。
内視鏡手術システムにおいては、内視鏡により撮像された信号に各種の画像処理が施される。これらの画像処理はソフトウェアにより実現され、GPUなどのプロセッサが所定のプログラムに従って動作することにより、これらの画像処理を実行する。
特許文献1には、通信回線を介して、ソフトウェアの更新などのメンテナンスを行う内視鏡システムが開示されている。
このようなソフトウェアの更新によれば、画像処理の更新や追加を容易に行うことができる。
特開2009−226169号公報
しかしながら、ソフトウェアの更新により画像処理の更新や追加が行われた場合、ソフトウェアの更新前と更新後とで、画像の画質が変化することがある。このような場合、医師は、画質が変化する前の画像と、画質が変化した後の画像とを比較したいこともある。
本技術は、このような状況に鑑みてなされたものであり、ソフトウェア更新前と更新後の画像を容易に比較するようにするものである。
本技術の手術用画像処理装置は、術部画像に、ソフトウェアによる画像処理を施す画像処理部と、前記画像処理が施された前記術部画像の表示を制御する表示制御部とを備え、前記画像処理部は、前記術部画像に前記ソフトウェア更新前の前記画像処理を施した更新前処理画像と、前記術部画像に前記ソフトウェア更新後の前記画像処理を施した更新後処理画像とを生成し、前記表示制御部は、前記更新前処理画像および前記更新後処理画像の少なくともいずれか一方の少なくとも一部の表示を制御する。
前記更新前処理画像と前記更新後処理画像の差分を演算する差分演算部をさらに設け、前記表示制御部には、前記差分が所定値より大きい場合、その旨を報知する情報の表示を制御させることができる。
前記画像において所定のシーンを検出するシーン検出部をさらに設け、前記表示制御部には、検出された前記シーンについて、前記更新前処理画像および前記更新後処理画像のうちのユーザに選択された方を表示させることができる。
検出された前記シーンの特徴量を抽出する特徴量抽出部と、抽出された前記特徴量と、検出された前記シーンについて、前記更新前処理画像および前記更新後処理画像のうちの前記ユーザに選択された方を示す選択情報とを対応付けて、履歴情報として記録する記録制御部とをさらに設けることができる。
前記履歴情報に基づいて、前記シーンの前記特徴量毎に、検出された前記シーンについて、前記更新前処理画像および前記更新後処理画像のうちのいずれが前記ユーザに選択されたかを学習する学習部をさらに設けることができる。
他の画像において検出された所定のシーンの前記特徴量に対応する学習結果を照会する照会部をさらに設け、前記表示制御部には、照会された前記学習結果に基づいて、前記他の画像における前記所定のシーンについて、前記更新前処理画像および前記更新後処理画像のうちのいずれかを表示させることができる。
本技術の画像処理方法は、術部画像に、ソフトウェアによる画像処理を施す画像処理部と、前記画像処理が施された前記術部画像の表示を制御する表示制御部とを備える画像処理装置が、前記術部画像に前記ソフトウェア更新前の前記画像処理を施した更新前処理画像と、前記術部画像に前記ソフトウェア更新後の前記画像処理を施した更新後処理画像を生成し、前記更新前処理画像および前記更新後処理画像の少なくともいずれかの少なくとも一部の表示を制御するステップを含む。
本技術の手術システムは、術部画像を取得する手術用撮像装置と、前記術部画像に、ソフトウェアによる画像処理を施す画像処理部と、前記画像処理が施された前記術部画像の表示を制御する表示制御部とを有する手術用画像処理装置とを備え、前記画像処理部は、前記術部画像に前記ソフトウェア更新前の前記画像処理を施した更新前処理画像と、前記術部画像に前記ソフトウェア更新後の前記画像処理を施した更新後処理画像とを生成し、前記表示制御部は、前記更新前処理画像および前記更新後処理画像の少なくともいずれか一方の少なくとも一部の表示を制御する。
本技術においては、前記術部画像に前記ソフトウェア更新前の前記画像処理を施した更新前処理画像と、前記術部画像に前記ソフトウェア更新後の前記画像処理を施した更新後処理画像が生成され、前記更新前処理画像および前記更新後処理画像の少なくともいずれかの少なくとも一部の表示が制御される。
本技術によれば、ソフトウェア更新前と更新後の画像を容易に比較することが可能となる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッドおよびCCUの機能構成の一例を示すブロック図である。 第1の実施の形態の画像処理装置の機能構成例を示すブロック図である。 術部画像表示処理について説明するフローチャートである。 更新後処理画像および更新前処理画像の表示例を示す図である。 更新後処理画像および更新前処理画像の表示例を示す図である。 更新後処理画像および更新前処理画像の表示例を示す図である。 更新後処理画像および更新前処理画像の表示例を示す図である。 第2の実施の形態の画像処理装置の機能構成例を示すブロック図である。 第3の実施の形態の画像処理装置の機能構成例を示すブロック図である。 術部画像表示処理について説明するフローチャートである。 更新後処理画像および更新前処理画像の表示例を示す図である。 第4の実施の形態の画像処理装置の機能構成例を示すブロック図である。 術部画像表示処理について説明するフローチャートである。 第5の実施の形態の画像処理装置の機能構成例を示すブロック図である。 術部画像表示処理について説明するフローチャートである。
以下、本開示を実施するための形態(以下、実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.内視鏡手術システムの概要
2.ソフトウェアの更新について
3.第1の実施の形態
4.第2の実施の形態
5.第3の実施の形態
6.第4の実施の形態
7.第5の実施の形態
<1.内視鏡手術システムの概要>
まず、本技術が適用される内視鏡手術システムの概要について説明する。
図1は、本開示に係る技術が適用され得る内視鏡手術システム100の概略的な構成の一例を示す図である。
図1には、術者(医師)167が、内視鏡手術システム100を用いて、患者ベッド169上の患者171に手術を行っている様子が示されている。内視鏡手術システム100は、内視鏡101、その他の術具117、内視鏡101を支持する支持アーム装置127、および、内視鏡下手術のための各種の装置が搭載されたカート137から構成される。
内視鏡下手術では、腹壁を切って開腹する代わりに、トロッカ125a乃至125dと呼ばれる筒状の開孔器具が腹壁に複数穿刺される。そして、トロッカ125a乃至125dから、内視鏡101の鏡筒103や、その他の術具117が患者171の体腔内に挿入される。図1の例では、その他の術具117として、気腹チューブ119、エネルギー処置具121、および鉗子123が、患者171の体腔内に挿入されている。エネルギー処置具121は、高周波電流や超音波振動により、組織の切開および剥離、または血管の封止等を行う処置具である。ただし、図示する術具117はあくまで一例であり、術具117として、例えば鑷子やレトラクタ等、一般的に内視鏡下手術において用いられる各種の術具が用いられてよい。
内視鏡101によって撮影された患者171の体腔内の術部の画像が、表示装置141に表示される。術者167は、表示装置141に表示された術部の画像をリアルタイムで見ながら、エネルギー処置具121や鉗子123を用いて、例えば患部を切除する等の処置を行う。なお、図示はしないが、気腹チューブ119、エネルギー処置具121および鉗子123は、手術中に、術者167または助手等によって支持される。
支持アーム装置127は、ベース部129から延伸するアーム部131を備える。アーム部131は、関節部133a,133b,133c、およびリンク135a,135bから構成されており、アーム制御装置145の制御により駆動される。アーム部131によって内視鏡101が支持され、その位置および姿勢が制御される。これにより、内視鏡101の安定的な位置の固定が実現される。
内視鏡101は、先端から所定の長さの領域が患者171の体腔内に挿入される鏡筒103と、鏡筒103の基端に接続されるカメラヘッド105(撮像装置)とから構成される。図1の例では、硬性の鏡筒103を有するいわゆる硬性鏡として構成される内視鏡101が示されているが、内視鏡101は、軟性の鏡筒103を有するいわゆる軟性鏡として構成されてもよい。
鏡筒103の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡101には光源装置143が接続されており、光源装置143によって生成された光が、鏡筒103の内部に延設されるライトガイドによって鏡筒103の先端まで導光され、対物レンズを介して患者171の体腔内の観察対象に向かって照射される。なお、内視鏡101は、直視鏡であってもよいし、斜視鏡または側視鏡であってもよい。
カメラヘッド105の内部には光学系および撮像素子が設けられており、観察対象からの反射光(観察光)が光学系によって撮像素子に集光される。撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。画像信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)139に送信される。カメラヘッド105には、その光学系を適宜駆動させることにより、倍率および焦点距離を調整する機能が搭載される。
なお、例えば立体視(3D表示)等に対応するために、カメラヘッド105には撮像素子が複数設けられてもよい。この場合、鏡筒103の内部には、複数の撮像素子のそれぞれに観察光を導光するために、リレー光学系が複数系統設けられる。
カート137には各種の装置が搭載される。
CCU139は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)、さらにはGPGPU(General Purpose computing on GPU)等によって構成され、内視鏡101および表示装置141の動作を統括的に制御する。具体的には、CCU139は、カメラヘッド105から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、その画像信号に基づく画像を表示するための各種の画像処理を施す。CCU139は、画像処理を施した画像信号を表示装置141に提供する。また、CCU139は、カメラヘッド105に対して制御信号を送信し、その駆動を制御する。制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。
表示装置141は、CCU139からの制御により、CCU139によって画像処理が施された画像信号に基づく画像を表示する。内視鏡101が例えば4K(水平画素数3840×垂直画素数2160)または8K(水平画素数7680×垂直画素数4320)等の高解像度の撮影に対応したものである場合、および/または3D表示に対応したものである場合には、表示装置141としては、それぞれに対応して、高解像度の表示が可能なもの、および/または3D表示可能なものが用いられ得る。4Kまたは8K等の高解像度の撮影に対応したものである場合、表示装置141として55インチ以上のサイズのものを用いることで一層の没入感が得られる。また、用途に応じて、解像度、サイズが異なる複数の表示装置141が設けられてもよい。
光源装置143は、例えばLED(Light Emitting Diode)等の光源から構成され、術部を撮影する際の照射光を内視鏡101に供給する。
アーム制御装置145は、例えばCPU等のプロセッサによって構成され、所定のプログラムに従って動作することにより、所定の制御方式に従って支持アーム装置127のアーム部131の駆動を制御する。
入力装置147は、内視鏡手術システム100に対する入力インタフェースである。ユーザは、入力装置147を介して、内視鏡手術システム100に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、入力装置147を介して、患者の身体情報や、手術の術式についての情報等、手術に関する各種の情報を入力する。また、例えば、ユーザは、入力装置147を介して、アーム部131を駆動させる旨の指示や、内視鏡101による撮像条件(照射光の種類、倍率および焦点距離等)を変更する旨の指示、エネルギー処置具121を駆動させる旨の指示等を入力する。
入力装置147の種類は限定されず、入力装置147は各種の公知の入力装置であってよい。入力装置147としては、例えば、マウス、キーボード、タッチパネル、スイッチ、フットスイッチ157および/またはレバー等が適用されるようにできる。入力装置147としてタッチパネルが用いられる場合には、そのタッチパネルは表示装置141の表示面上に設けられてもよい。
また、入力装置147は、例えばメガネ型のウェアラブルデバイスやHMD(Head Mounted Display)等の、ユーザによって装着されるデバイスであってもよい。この場合、これらのデバイスによって検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。また、入力装置147は、ユーザの動きを検出可能なカメラを含み、カメラによって撮像された映像から検出されるユーザのジェスチャや視線に応じて各種の入力が行われるようにしてもよい。さらに、入力装置147は、ユーザの声を収音可能なマイクロフォンを含み、マイクロフォンを介して音声によって各種の入力が行われるようにしてもよい。
このように、入力装置147が非接触で各種の情報を入力可能に構成されることにより、特に清潔域に属するユーザ(例えば術者167)が、不潔域に属する機器を非接触で操作することが可能となる。また、ユーザは、所持している術具から手を離すことなく機器を操作することが可能となるため、ユーザの利便性が向上する。
処置具制御装置149は、組織の焼灼、切開または血管の封止等のためのエネルギー処置具121の駆動を制御する。気腹装置151は、内視鏡101による視野の確保および術者の作業空間の確保の目的で、患者171の体腔を膨らめるために、気腹チューブ119を介して体腔内にガスを送り込む。レコーダ153は、手術に関する各種の情報を記録可能な装置である。プリンタ155は、手術に関する各種の情報を、テキスト、画像またはグラフ等各種の形式で印刷可能な装置である。
次に、図2を参照して、内視鏡101のカメラヘッド105およびCCU139の機能についてより詳細に説明する。図2は、カメラヘッド105およびCCU139の機能構成の一例を示すブロック図である。
図2に示されるように、カメラヘッド105は、その機能として、レンズユニット107、撮像部109、駆動部111、通信部113、およびカメラヘッド制御部115を有する。また、CCU139は、その機能として、通信部159、画像処理部161、および制御部163を有する。カメラヘッド105とCCU139とは、伝送ケーブル165によって双方向に通信可能に接続されている。
まず、カメラヘッド105の機能構成について説明する。レンズユニット107は、鏡筒103との接続部に設けられる光学系である。鏡筒103の先端から取り込まれた観察光は、カメラヘッド105まで導光され、レンズユニット107に入射する。レンズユニット107は、ズームレンズおよびフォーカスレンズを含む複数のレンズが組み合わされて構成される。レンズユニット107は、撮像部109の撮像素子の受光面上に観察光を集光するように、その光学特性が調整されている。また、ズームレンズおよびフォーカスレンズは、撮像画像の倍率および焦点の調整のため、その光軸上の位置が移動可能に構成される。
撮像部109は撮像素子によって構成され、レンズユニット107の後段に配置される。レンズユニット107を通過した観察光は、撮像素子の受光面に集光され、光電変換によって、観察像に対応した画像信号が生成される。撮像部109によって生成された画像信号は、通信部113に提供される。
撮像部109を構成する撮像素子としては、例えばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの、Bayer配列を有するカラー撮影可能なものが用いられる。なお、撮像素子として、例えば4K以上の高解像度の画像の撮影に対応可能なものが用いられてもよい。術部の画像が高解像度で得られることにより、術者167は、術部の様子をより詳細に把握することができ、手術をより円滑に進行することが可能となる。
また、撮像部109を構成する撮像素子は、3D表示に対応する右目用および左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されるようにすることもできる。3D表示が行われることにより、術者167は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部109が多板式で構成される場合には、各撮像素子に対応して、レンズユニット107も複数系統設けられる。
また、撮像部109は、必ずしもカメラヘッド105に設けられなくてもよい。例えば、撮像部109は、鏡筒103の内部に、対物レンズの直後に設けられてもよい。
駆動部111は、アクチュエータによって構成され、カメラヘッド制御部115からの制御により、レンズユニット107のズームレンズおよびフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部109による撮像画像の倍率および焦点が適宜調整され得る。
通信部113は、CCU139との間で各種の情報を送受信するための通信装置によって構成される。通信部113は、撮像部109から得た画像信号をRAWデータとして伝送ケーブル165を介してCCU139に送信する。この際、術部の撮像画像を低レイテンシで表示するために、画像信号は光通信によって送信されることが好ましい。手術の際には、術者167が撮像画像によって患部の状態を観察しながら手術を行うため、より安全で確実な手術のためには、術部の動画像が可能な限りリアルタイムに表示されることが求められるからである。光通信が行われる場合には、通信部113には、電気信号を光信号に変換する光電変換モジュールが設けられる。画像信号は光電変換モジュールによって光信号に変換された後、伝送ケーブル165を介してCCU139に送信される。
また、通信部113は、CCU139から、カメラヘッド105の駆動を制御するための制御信号を受信する。制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/または撮像画像の倍率および焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。通信部113は、受信した制御信号をカメラヘッド制御部115に提供する。なお、CCU139からの制御信号も、光通信によって伝送されてもよい。この場合、通信部113には、光信号を電気信号に変換する光電変換モジュールが設けられ、制御信号は光電変換モジュールによって電気信号に変換された後、カメラヘッド制御部115に提供される。
なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、取得された画像信号に基づいてCCU139の制御部163によって自動的に設定される。つまり、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能、およびAWB(Auto White Balance)機能が内視鏡101に搭載される。
カメラヘッド制御部115は、通信部113を介して受信したCCU139からの制御信号に基づいて、カメラヘッド105の駆動を制御する。例えば、カメラヘッド制御部115は、撮像画像のフレームレートを指定する旨の情報および/または撮像時の露光を指定する旨の情報に基づいて、撮像部109の撮像素子の駆動を制御する。また、例えば、カメラヘッド制御部115は、撮像画像の倍率および焦点を指定する旨の情報に基づいて、駆動部111を介してレンズユニット107のズームレンズおよびフォーカスレンズを適宜移動させる。カメラヘッド制御部115は、さらに、鏡筒103やカメラヘッド105を識別するための情報を記憶する機能を備えてもよい。
なお、レンズユニット107や撮像部109等の構成を、気密性および防水性が高い密閉構造内に配置することで、カメラヘッド105について、オートクレーブ滅菌処理に対する耐性を持たせることができる。
次に、CCU139の機能構成について説明する。通信部159は、カメラヘッド105との間で各種の情報を送受信するための通信装置によって構成される。通信部159は、カメラヘッド105から、伝送ケーブル165を介して送信される画像信号を受信する。ここで、上述したように、画像信号は好適に光通信によって送信されるようにもできる。この場合、光通信に対応して、通信部159には、光信号を電気信号に変換する光電変換モジュールが設けられる。通信部159は、電気信号に変換した画像信号を画像処理部161に提供する。
また、通信部159は、カメラヘッド105に対して、カメラヘッド105の駆動を制御するための制御信号を送信する。制御信号も光通信によって送信されてよい。
画像処理部161は、カメラヘッド105から送信されたRAWデータである画像信号に対して各種の画像処理を施す。画像処理としては、例えば現像処理、高画質化処理(帯域強調処理、超解像処理、NR(Noise Reduction)処理および/または手振れ補正処理等)、並びに/または拡大処理(電子ズーム処理)等、各種の公知の信号処理が含まれる。また、画像処理部161は、AE,AF、およびAWBを行うための、画像信号に対する検波処理を行う。
画像処理部161は、CPUやGPU、GPGPU等のプロセッサによって構成され、プロセッサが所定のプログラムに従って動作することにより、上述した画像処理や検波処理が行われる。なお、画像処理部161が複数のGPUによって構成される場合には、画像処理部161は、画像信号に係る情報を適宜分割し、これら複数のGPUによって並列的に画像処理を行う。
制御部163は、内視鏡101による術部の撮像、およびその撮像画像の表示に関する各種の制御を行う。例えば、制御部163は、カメラヘッド105の駆動を制御するための制御信号を生成する。ここで、撮像条件がユーザによって入力されている場合には、制御部163は、ユーザによる入力に基づいて制御信号を生成する。また、内視鏡101にAE機能、AF機能、およびAWB機能が搭載されている場合には、制御部163は、画像処理部161による検波処理の結果に応じて、最適な露出値、焦点距離、およびホワイトバランスを適宜算出し、制御信号を生成する。
また、制御部163は、画像処理部161によって画像処理が施された画像信号に基づいて、術部の画像を表示装置141に表示させる。このとき、制御部163は、各種の画像認識技術を用いて術部画像内における各種の物体を認識する。例えば、制御部163は、術部画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子123等の術具117、特定の生体部位、出血、エネルギー処置具121使用時のミスト等を認識することができる。制御部163は、表示装置141に術部の画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を術部の画像に重畳表示させる。手術支援情報が重畳表示され、術者167に提示されることにより、より安全かつ確実に手術を進めることが可能になる。
カメラヘッド105およびCCU139を接続する伝送ケーブル165は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、またはこれらの複合ケーブルである。
この例では、伝送ケーブル165を用いて有線で通信が行われていたが、カメラヘッド105とCCU139との間の通信は無線で行われてもよい。両者の間の通信が無線で行われる場合には、伝送ケーブル165を手術室内に敷設する必要がなくなるため、手術室内における医療スタッフの移動が伝送ケーブル165によって妨げられる事態が解消される。
<2.ソフトウェアの更新について>
ところで、上述した内視鏡手術システムにおいては、内視鏡により撮像された画像に各種の画像処理が施される。これらの画像処理はソフトウェアにより実現され、GPUなどのプロセッサが所定のプログラムに従って動作することにより、これらの画像処理を実行する。
このようなソフトウェア(SW)の更新によれば、画像処理の更新や追加を容易に行うことができる。
その一方、SWの更新により画像処理の更新や追加が行われた場合、SWの更新前と更新後とで、画像の画質が変化することがある。このような場合、医師は、画質が変化する前の画像と、画質が変化した後の画像とを比較したいこともある。さらに、このような画質の変化が、医師の術中の診断や術具の操作に影響を与えるリスクもあった。
例えば、手振れ補正処理を追加するSWの更新が行われた場合、手術の多くの場面で、術部の画像が安定し、その視認性は向上する。
一方で、素早い術具操作が求められる剥離などの場面で、手振れ補正処理により撮像から表示までのレイテンシが高まることで、術具操作が実際より遅れて見えるおそれがある。また、アフィン変換などの幾何変換により、解像度が若干低下することで、血管や神経などの微細な組織が見えづらくなるおそれもある。
また、階調補正処理を追加するSWの更新が行われた場合、光源からの光が届きにくい低階調な部分の視認性を向上させることができる。しかしながら、中間の階調の部分のコントラストが低下し、血管や神経などの微細な組織が見えづらくなるおそれがある。
さらに、構造強調処理を追加するSWの更新が行われた場合、血管や神経などの微細な組織が強調されて表示されることで、その部分の視認性を向上させることができるが、場合によっては、その部分が見えづらくなるおそれもある。
このように、SWの更新が行われることで術部が見えづらくなるような場合、術者にとっては、SWの更新が行われる前の画像も必要となる。
そこで、以下においては、SWが更新された後であっても、ソフトウェア更新前と更新後の画像を容易に比較することができ、さらには、医師の術中の診断や術具の操作に影響を与えるリスクを回避することができる実施の形態について説明する。
<3.第1の実施の形態>
(画像処理装置の構成例)
まず、図3を参照して、本技術に係る第1の実施の形態の画像処理装置の構成例について説明する。
図3の画像処理装置201は、上述したCCU139に対応し、例えばカメラヘッド105から入力された術部画像(入力画像)の画像信号に画像処理を施し、表示装置202に出力する。
表示装置202は、上述した表示装置141に対応し、画像処理装置201から出力された画像信号に基づいて画像を表示する。
画像処理装置201は、画像処理部211および表示制御部212を有する。
画像処理部211は、上述した画像処理部161に対応し、入力画像の画像信号に各種の画像処理を施す。これらの画像処理はソフトウェア(SW)により実現され、GPUなどのプロセッサが所定のプログラムに従って動作することにより、これらの画像処理を実行する。
これらの画像処理を実現するSWは、例えば記録媒体から所定のプログラムがインストールされることで更新される。なお、このようなプログラムは、インターネットなどのネットワークを介してインストールされるようにしてもよい。
画像処理部211は、SW更新後画像処理部221とSW更新前画像処理部222とを備える。
SW更新後画像処理部221は、入力画像に、SWが更新された後の画像処理、すなわち最新バージョンのSWにより実現される画像処理を施した更新後処理画像の画像信号を出力する。
SW更新前画像処理部222は、入力画像に、SWが更新される前の画像処理、すなわち1つ前のバージョンのSWにより実現される画像処理を施した更新前処理画像の画像信号を出力する。
SW更新後画像処理部221およびSW更新前画像処理部222を、2つのGPUにより構成した場合、SW更新後画像処理部221およびSW更新前画像処理部222は、SW更新後の画像処理とSW更新前の画像処理とを並行して、すなわち同時に行うことができる。
また、SW更新後画像処理部221およびSW更新前画像処理部222を、1つのGPUにより構成し、SW更新後の画像処理とSW更新前の画像処理とがシリアルに行われるようにすることもできる。
表示制御部212は、画像処理部211(SW更新後画像処理部221およびSW更新前画像処理部222)から出力された画像信号に基づいて、更新後処理画像および更新前処理画像の少なくともいずれか一方の少なくとも一部を、表示装置202に表示させる。また、表示制御部212は、ユーザの操作に応じて、表示装置202における更新後処理画像および更新前処理画像の表示を制御する。
(術部画像表示処理の流れ)
次に、図4のフローチャートを参照して、画像処理装置201による術部画像表示処理の流れについて説明する。図4の処理は、内視鏡101(カメラヘッド105)から、術部を撮影した術部画像(動画像)が画像処理装置201に入力されると開始される。
ステップS21において、SW更新後画像処理部221は、入力された術部画像に、SWが更新された後の画像処理(最新バージョンのSWにより実現される画像処理)を施す。
ステップS22において、SW更新前画像処理部222は、入力された術部画像に、SWが更新される前の画像処理(1つ前のバージョンのSWにより実現される画像処理)を施す。
ステップS21およびS22の処理は、並行して同時に行われるものとするが、上述したようにシリアルに行われるようにしてもよい。SW更新後の画像処理が施された更新後処理画像の画像信号と、SW更新前の画像処理が施された更新前処理画像の画像信号は、表示制御部212に出力される。
ステップS23において、表示制御部212は、SW更新後画像処理部221およびSW更新前画像処理部222から出力された画像信号に基づいて、更新後処理画像および更新前処理画像を、表示装置202に表示させる。
以上の処理によれば、内視鏡101により撮像された術部の画像として、SWの更新により画質が変化した後の画像と、画質が変化する前の画像とが表示されるので、内視鏡101を用いて手術を行っている術者は、これらの画像を容易に比較することが可能となる。ひいては、SWの更新による画質の変化が、医師の術中の診断や術具の操作に影響を与える可能性を低減することができる。
ここで、表示装置202に表示される更新後処理画像および更新前処理画像の表示例について説明する。
(表示例1)
図5は、更新後処理画像および更新前処理画像の第1の表示例を示している。
図5は、更新後処理画像251と更新前処理画像252とが、1つの画面に同時に表示される様子を示している。画面左上の領域に表示される更新後処理画像251は、画面右上の領域に表示されるより大きく表示されている。これにより、内視鏡101を用いて手術を行っている術者は、更新後処理画像251と更新前処理画像252の両方を容易に比較することができる。
なお、図5の例においては、ユーザ(術者)の操作に応じて、画面における更新後処理画像251および更新前処理画像252の表示サイズが調整されるようにすることができる。具体的には、画面において、更新後処理画像251が表示される領域と、更新前処理画像252が表示される領域とが入れ替わるようにする。
さらに、図5の例においては、更新後処理画像251および更新前処理画像252以外にも、SW更新後の画像処理およびSW更新前の画像処理それぞれにおいてパラメータを変えることで得られる複数の更新後処理画像および更新前処理画像が表示されるようにしてもよい。
(表示例2)
図6は、更新後処理画像および更新前処理画像の第2の表示例を示している。
図6は、更新後処理画像251および更新前処理画像252のうちユーザ(術者)に選択された方が表示される様子を示している。図6の例では、表示装置202には、まず更新前処理画像252が表示されるようにする。これにより、術部画像の表示開始の時点で、ユーザが、画質が変化した画像に戸惑うことを避けることができる。そして、ユーザの操作によって、更新前処理画像252と更新後処理画像251とが切り替わって表示される。
なお、表示を切り替えるためのユーザインタフェースは、内視鏡101のカメラヘッド105や術具117など、術者が手元で瞬時に切り替え操作を行うことができるものに設けられる。
(表示例3)
図7は、更新後処理画像および更新前処理画像の第3の表示例を示している。
図7は、更新後処理画像251と更新前処理画像252とが、所定の比率で画素毎に加算されて表示される様子を示している。図7の例では、更新前処理画像252の各画素の画素値に所定の値α(α<1)を乗じた値と、更新後処理画像251の各画素の画素値に所定の値(1−α)を乗じた値の和を、各画素の画素値とする出力画像261が表示されるようになる。
なお、値αは、ユーザ(術者)の操作によって調整されるようにすることができる。
(表示例4)
図8は、更新後処理画像および更新前処理画像の第4の表示例を示している。
図8は、更新後処理画像251の第1の領域と、更新前処理画像252の第1の領域以外の第2の領域とが、合成されて表示される様子を示している。
まず、図8のAの例では、画面が左右に分割された右側の領域D1に、更新後処理画像251において領域D1に対応する部分の画像が表示され、画面が左右に分割された左側の領域D2に、更新前処理画像252において領域D2に対応する部分の画像が表示される。領域D1の幅w、言い換えると領域D1と領域D2との境界は、ユーザ(術者)の操作によって調整されるものとする。また、ユーザの操作によって、領域D1および領域D2に表示される画像が入れ替わるようにしてもよい。
また、図8のBの例では、画面の中心を含む領域、具体的には、画面の中心をその中心とした円形の領域D3に、更新後処理画像251において領域D3に対応する部分の画像が表示され、画面の領域D3より外側の周縁領域D4に、更新前処理画像252において領域D4に対応する部分の画像が表示される。領域D3の半径r、言い換えると領域D3と領域D4との境界は、ユーザ(術者)の操作によって調整されるものとする。また、ユーザの操作によって、領域D3および領域D4に表示される画像が入れ替わるようにしてもよい。さらに、領域D3の形状は、円形に限らず、矩形などの他の形状であってもよい。
<4.第2の実施の形態>
(画像処理装置の構成例)
図9は、本技術に係る第2の実施の形態の画像処理装置の構成例を示している。
図9の画像処理装置271は、入力画像の画像信号に画像処理を施し、表示装置202−1,202−2それぞれに出力する。
表示装置202−1,202−2はそれぞれ、画像処理装置201から出力された画像信号に基づいて画像を表示する。
画像処理装置271は、画像処理部211および表示制御部281を有する。
図9において、画像処理部211は、図3に示される構成と同一であるので、その説明は省略する。
表示制御部281は、画像処理部211(SW更新後画像処理部221およびSW更新前画像処理部222)から出力された画像信号に基づいて、更新後処理画像を表示装置202−1に表示させるとともに、更新前処理画像を表示装置202−2に表示させる。
このような構成においても、2台の表示装置にそれぞれ、内視鏡101により撮像された術部の画像として、SWの更新により画質が変化した後の画像と、画質が変化する前の画像とが表示されるので、内視鏡101を用いて手術を行っている術者は、これらの画像を容易に比較することが可能となる。
<5.第3の実施の形態>
(画像処理装置の構成例)
図10は、本技術に係る第3の実施の形態の画像処理装置の構成例を示している。
図10の画像処理装置301は、画像処理部311および表示制御部312を有する。
画像処理部311は、SW更新後画像処理部321、SW更新前画像処理部322、および差分演算部323を備える。
SW更新後画像処理部321は、図3のSW更新後画像処理部221と同様、入力画像に、SWが更新された後の画像処理を施した更新後処理画像の画像信号を出力する。
SW更新前画像処理部322は、図3のSW更新前画像処理部222と同様、入力画像に、SWが更新される前の画像処理を施した更新前処理画像の画像信号を出力する。
差分演算部323は、更新前処理画像と更新後処理画像の差分を演算し、その演算結果を表示制御部312に供給する。
表示制御部312は、画像処理部311(SW更新後画像処理部321およびSW更新前画像処理部322)から出力された画像信号に基づいて、更新後処理画像および更新前処理画像の少なくとも一方の少なくとも一部を、表示装置202に表示させる。
また、表示制御部312は、OSD処理部331を備える。OSD処理部331は、画像処理部311(差分演算部323)からの演算結果に応じた情報を、表示装置202の画面上にOSD表示する。
(術部画像表示処理の流れ)
次に、図11のフローチャートを参照して、画像処理装置301による術部画像表示処理の流れについて説明する。図11の処理は、内視鏡101(カメラヘッド105)から、術部を撮影した術部画像(動画像)が画像処理装置301に入力されると開始される。
ステップS31において、SW更新後画像処理部321は、入力された術部画像に、SWが更新された後の画像処理(最新バージョンのSWにより実現される画像処理)を施す。
ステップS32において、SW更新前画像処理部322は、入力された術部画像に、SWが更新される前の画像処理(1つ前のバージョンのSWにより実現される画像処理)を施す。
ステップS31およびS32の処理は、並行して同時に行われるものとするが、上述したようにシリアルに行われるようにしてもよい。SW更新後の画像処理が施された更新後処理画像の画像信号と、SW更新前の画像処理が施された更新前処理画像の画像信号は、表示制御部312と差分演算部323に出力される。
なお、このとき、表示制御部312は、SW更新後画像処理部321から出力された画像信号に基づいて、更新後処理画像のみを表示装置202に表示させるものとする。
ステップS33において、差分演算部323は、更新前処理画像と更新後処理画像の差分を演算する。具体的には、差分演算部323は、更新前処理画像および更新後処理画像の各画素の画素値の差を算出しそれらを合計する。演算結果は、表示制御部312に供給される。
ステップS34において、表示制御部312は、差分演算部323からの演算結果に基づいて、差分が所定値より大きいか否かを判定する。
差分が所定値より大きくないと判定されている場合、ステップS34の処理は繰り返され、表示装置202には更新後処理画像が表示され続ける。
一方、差分が所定値より大きいと判定された場合、処理はステップS35に進む。
ステップS35において、表示制御部312のOSD処理部331は、差分が所定値より大きい旨を報知する情報のOSD表示を行う。例えば、OSD処理部331は、図12の左側に示されるように、表示装置202に表示されている更新後処理画像上に、差分が所定値より大きいことを報知する報知画像361をOSD表示する。これにより、ユーザは、いま見ているシーンにおいて、更新後処理画像と更新前処理画像とで画質に差があることを認識することができる。
その後、表示装置202の画面において、報知画像361の部分がタッチされるなど、ユーザにより所定の操作がなされることで、更新後処理画像と更新前処理画像とを比較するための表示モードを選択するための選択画面が表示されるようにする。表示制御部312は、例えば、図12の右側に示されるように、4つの表示モードのうちのいずれかを選択するためのボタン381乃至384が設けられた選択画面を表示する。4つの表示モードそれぞれにおいては、例えば、上述した表示例1乃至4で説明した表示が行われる。
以上の処理によれば、内視鏡101を用いて手術を行っている術者は、SWの更新により画質が変化した後の画像と、画質が変化する前の画像との差分が大きい場合に、それぞれを所望の表示形態で表示させて、これらの画像を容易に比較することが可能となる。
<6.第4の実施の形態>
(画像処理装置の構成例)
図13は、本技術に係る第4の実施の形態の画像処理装置の構成例を示している。
図13の画像処理装置401は、画像処理部411、表示制御部412、シーン検出部413、特徴量抽出部414、記録制御部415、履歴情報記録部416、学習部417、および学習情報記録部418を有する。
画像処理部411は、SW更新後画像処理部421およびSW更新前画像処理部422を備える。
SW更新後画像処理部421は、図3のSW更新後画像処理部221と同様、入力画像に、SWが更新された後の画像処理を施した更新後処理画像の画像信号を出力する。
SW更新前画像処理部422は、図3のSW更新前画像処理部222と同様、入力画像に、SWが更新される前の画像処理を施した更新前処理画像の画像信号を出力する。
表示制御部412は、画像処理部411(SW更新後画像処理部421およびSW更新前画像処理部422)から出力された画像信号に基づいて、更新後処理画像および更新前処理画像のうちユーザに選択された方を表示装置202に表示させる。
また、表示制御部412は、OSD処理部431を備える。OSD処理部431は、後述するシーン検出部413からの重要フラグに応じた情報を、表示装置202の画面上にOSD表示する。
シーン検出部413は、入力画像において重要度の高いシーンを検出する。シーン検出部413は、重要度の高いシーンを検出した場合、そのシーンが重要度の高いシーンであることを示す重要フラグを、表示制御部412と特徴量抽出部414に供給する。
特徴量抽出部414は、シーン検出部413からの重要フラグに基づいて、入力画像において検出された重要度の高いシーンの特徴量を抽出し、記録制御部415に供給する。
記録制御部415は、特徴量抽出部414からの特徴量と、表示制御部412からの選択情報とを対応付けて、履歴情報として履歴情報記録部416に記録する。選択情報は、入力画像において検出された重要度の高いシーンについて、更新後処理画像および更新前処理画像のうちのいずれがユーザに選択されたかを示す情報である。
学習部417は、履歴情報記録部416に記録された履歴情報に基づいて、特徴量毎に、入力画像において検出された重要度の高いシーンについて、更新後処理画像および更新前処理画像のうちのいずれがユーザに選択されたかを学習する。学習により得られた学習結果は、学習情報として学習情報記録部418に記録される。
(術部画像表示処理の流れ)
次に、図14のフローチャートを参照して、画像処理装置401による術部画像表示処理の流れについて説明する。図14の処理は、内視鏡101(カメラヘッド105)から、術部を撮影した術部画像(動画像)が画像処理装置401に入力されると開始される。
ステップS41において、SW更新後画像処理部421は、入力された画像に、SWが更新された後の画像処理(最新バージョンのSWにより実現される画像処理)を施す。
ステップS42において、SW更新前画像処理部422は、入力された画像に、SWが更新される前の画像処理(1つ前のバージョンのSWにより実現される画像処理)を施す。
ステップS41およびS42の処理は、並行して同時に行われるものとするが、上述したようにシリアルに行われるようにしてもよい。SW更新後の画像処理が施された更新後処理画像の画像信号と、SW更新前の画像処理が施された更新前処理画像の画像信号は、表示制御部412に出力される。
なお、このとき、表示制御部412は、画像処理部411から出力された画像信号に基づいて、更新後処理画像および更新前処理画像の両方を表示装置202に表示させるものとする。
ステップS43において、シーン検出部413は、入力画像において重要度の高いシーンを検出したか否かを判定する。重要度の高いシーンは、例えば、組織の切開や剥離などが行われるシーンとされ、これらは入力画像(術部画像)に映る術具の形状や術部の色などに基づいて検出される。
重要度の高いシーンを検出していないと判定されている場合、ステップS43の処理は繰り返され、表示装置202には更新後処理画像および更新前処理画像の両方が表示され続ける。
一方、重要度の高いシーンを検出したと判定された場合、シーン検出部413は、重要フラグを表示制御部412と特徴量抽出部414に供給し、処理はステップS44に進む。
ステップS44において、特徴量抽出部414は、シーン検出部413からの重要フラグに基づいて、入力画像において検出された重要度の高いシーンの特徴量を抽出し、記録制御部415に供給する。重要度の高いシーンの特徴量は、そのシーンの検出の基準となった術具の形状や術部の色などに応じた情報とされる。
ステップS45において、表示制御部412のOSD処理部431は、シーン検出部413からの重要フラグに基づいて、そのときに表示されているシーンが重要度の高いシーンであることを示す情報のOSD表示を行う。
なお、ステップS44とステップS45の処理は、並行して行われるようにしてもよい。
さて、OSD表示が行われると、画像処理装置401は、更新後処理画像および更新前処理画像のうちのいずれを表示するかを、ユーザに選択させる。ユーザにより、更新後処理画像および更新前処理画像のうちのいずれかが選択されると、処理はステップS46に進む。
ステップS46において、表示制御部412は、更新後処理画像および更新前処理画像のうちユーザに選択された方のみを表示装置202に表示させる。このとき、表示制御部412は、更新後処理画像および更新前処理画像のうちユーザに選択された方(表示装置202に表示された方)を示す選択情報を記録制御部415に供給する。
ステップS47において、記録制御部415は、特徴量抽出部414からの特徴量と、表示制御部412からの選択情報とを対応付けて、履歴情報として履歴情報記録部416に記録する。
ステップS48において、学習部417は、履歴情報記録部416に記録された履歴情報に基づいて、特徴量毎に、入力画像において検出された重要度の高いシーンについて、更新後処理画像および更新前処理画像のうちのいずれがユーザに選択されたかを学習する。ここでは、特徴量毎に、更新後処理画像および更新前処理画像のうちのいずれがユーザによってより多く選択されたかが、機械学習などにより学習される。
以上の処理によれば、内視鏡101を用いて手術を行っている術者は、重要度の高いシーンについて、SWの更新により画質が変化した後の画像と、画質が変化する前の画像とを容易に比較して、より好適な方を選択して表示させることができる。また、重要度の高いシーンについて、SWの更新により画質が変化した後の画像と、画質が変化する前の画像のいずれの表示態様が、術者にとってより好適であるかを学習することができる。
<7.第5の実施の形態>
(画像処理装置の構成例)
図15は、本技術に係る第5の実施の形態の画像処理装置の構成例を示している。
図15の画像処理装置501は、上述した学習結果を用いて、新たに入力された術部画像における重要度の高いシーンについて、更新後処理画像および更新前処理画像のうち、術者にとってより好適な方を自動的に選択して表示させる。
画像処理装置501は、画像処理部411、表示制御部412、シーン検出部413、特徴量抽出部414、学習情報記録部418、および学習情報照会部511を有する。
図15において、画像処理部411、表示制御部412、シーン検出部413、特徴量抽出部414、および学習情報記録部418は、図13に示される構成それぞれと同一であるので、その説明は省略する。
学習情報照会部511は、学習情報記録部418に記録された学習情報の中から、新たに入力された入力画像において検出された重要度の高いシーンの特徴量に対応する学習情報を照会する。学習情報照会部511は、照会した学習情報に基づいて、その特徴量と対応付けられている選択情報を、表示制御部412に供給する。
(術部画像表示処理の流れ)
次に、図16のフローチャートを参照して、画像処理装置501による術部画像表示処理の流れについて説明する。図16の処理は、内視鏡101(カメラヘッド105)から、術部を撮影した術部画像(動画像)が画像処理装置501に入力されると開始される。
なお、図16のステップS51乃至S54における処理は、図15のステップS41乃至S44における処理と基本的には同様であるので、その説明は省略する。
ステップS54で、入力画像において検出された重要度の高いシーンの特徴量が抽出されると、その特徴量が学習情報照会部511に供給される。
ステップS55において、学習情報照会部511は、学習情報記録部418に記録された学習情報の中から、特徴量抽出部414からの特徴量に対応する学習情報を照会する。学習情報照会部511は、照会した学習情報に基づいて、特徴量抽出部414からの特徴量と対応付けられている選択情報を、表示制御部412に供給する。
ステップS56において、表示制御部412は、学習情報照会部511からの選択情報に基づいて、更新後処理画像および更新前処理画像のうち、その選択情報で示される方のみを表示装置202に表示させる。
以上の処理によれば、重要度の高いシーンについて、学習結果に基づいて、SWの更新により画質が変化した後の画像と、画質が変化する前の画像のうち、術者にとってより好適な方を表示することができる。
以上においては、本開示に係る技術を内視鏡手術システムに適用した例について説明したが、本開示に係る技術が適用され得るシステムはかかる例に限定されない。例えば、本開示に係る技術は、検査用軟性内視鏡システムや顕微鏡手術システムに適用されてもよい。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
さらに、本技術は以下のような構成をとることができる。
(1)
術部画像に、ソフトウェアによる画像処理を施す画像処理部と、
前記画像処理が施された前記術部画像の表示を制御する表示制御部と
を備え、
前記画像処理部は、前記術部画像に前記ソフトウェア更新前の前記画像処理を施した更新前処理画像と、前記術部画像に前記ソフトウェア更新後の前記画像処理を施した更新後処理画像とを生成し、
前記表示制御部は、前記更新前処理画像および前記更新後処理画像の少なくともいずれか一方の少なくとも一部の表示を制御する
手術用画像処理装置。
(2)
前記画像処理部は、前記ソフトウェア更新前の前記画像処理と前記ソフトウェア更新後の前記画像処理とを並行して行う
(1)に記載の手術用画像処理装置。
(3)
前記表示制御部は、前記更新前処理画像と前記更新後処理画像とを、1つの画面に同時に表示させる
(1)または(2)に記載の手術用画像処理装置。
(4)
前記表示制御部は、ユーザの操作に応じて、前記画面における前記更新前処理画像および前記更新後処理画像の表示サイズを調整する
(3)に記載の手術用画像処理装置。
(5)
前記表示制御部は、前記更新前処理画像と前記更新後処理画像とを、それぞれ異なる表示装置に表示させる
(1)または(2)に記載の手術用画像処理装置。
(6)
前記表示制御部は、前記更新前処理画像および前記更新後処理画像のうちユーザに選択された方を表示させる
(1)または(2)に記載の手術用画像処理装置。
(7)
前記表示制御部は、前記更新前処理画像と前記更新後処理画像とを、所定の比率で画素毎に加算して表示させる
(1)または(2)に記載の手術用画像処理装置。
(8)
前記表示制御部は、前記更新前処理画像の第1の領域と、前記更新後処理画像の前記第1の領域以外の第2の領域とを合成して表示させる
(1)または(2)に記載の手術用画像処理装置。
(9)
前記第1の領域は、画面が左右に2分割された一方の領域であり、
前記第2の領域は、前記画面が左右に2分割された他方の領域である
(8)に記載の手術用画像処理装置。
(10)
前記第1の領域は、画面の中心を含む中心領域であり、
前記第2の領域は、前記画面における前記中心領域より外側の周縁領域である
(8)に記載の手術用画像処理装置。
(11)
前記第1の領域と前記第2の領域との境界は、ユーザの操作により決定される
(8)乃至(10)のいずれかに記載の手術用画像処理装置。
(12)
前記更新前処理画像と前記更新後処理画像の差分を演算する差分演算部をさらに備え、
前記表示制御部は、前記差分が所定値より大きい場合、その旨を報知する情報の表示を制御する
(1)または(2)に記載の手術用画像処理装置。
(13)
前記画像において所定のシーンを検出するシーン検出部をさらに備え、
前記表示制御部は、検出された前記シーンについて、前記更新前処理画像および前記更新後処理画像のうちのユーザに選択された方を表示させる
(1)または(2)に記載の手術用画像処理装置。
(14)
検出された前記シーンの特徴量を抽出する特徴量抽出部と、
抽出された前記特徴量と、検出された前記シーンについて、前記更新前処理画像および前記更新後処理画像のうちの前記ユーザに選択された方を示す選択情報とを対応付けて、履歴情報として記録する記録制御部とをさらに備える
(13)に記載の手術用画像処理装置。
(15)
前記履歴情報に基づいて、前記シーンの前記特徴量毎に、検出された前記シーンについて、前記更新前処理画像および前記更新後処理画像のうちのいずれが前記ユーザに選択されたかを学習する学習部をさらに備える
(14)に記載の手術用画像処理装置。
(16)
他の画像において検出された所定のシーンの前記特徴量に対応する学習結果を照会する照会部をさらに備え、
前記表示制御部は、照会された前記学習結果に基づいて、前記他の画像における前記所定のシーンについて、前記更新前処理画像および前記更新後処理画像のうちのいずれかを表示させる
(15)に記載の手術用画像処理装置。
(17)
術部画像に、ソフトウェアによる画像処理を施す画像処理部と、
前記画像処理が施された前記術部画像の表示を制御する表示制御部と
を備える手術用画像処理装置が、
前記術部画像に前記ソフトウェア更新前の前記画像処理を施した更新前処理画像と、前記術部画像に前記ソフトウェア更新後の前記画像処理を施した更新後処理画像を生成し、
前記更新前処理画像および前記更新後処理画像の少なくともいずれかの少なくとも一部の表示を制御する
ステップを含む画像処理方法。
(18)
術部画像を取得する手術用撮像装置と、
前記術部画像に、ソフトウェアによる画像処理を施す画像処理部と、
前記画像処理が施された前記術部画像の表示を制御する表示制御部と
を有する手術用画像処理装置と
を備え、
前記画像処理部は、前記術部画像に前記ソフトウェア更新前の前記画像処理を施した更新前処理画像と、前記術部画像に前記ソフトウェア更新後の前記画像処理を施した更新後処理画像とを生成し、
前記表示制御部は、前記更新前処理画像および前記更新後処理画像の少なくともいずれか一方の少なくとも一部の表示を制御する
手術システム。
201 画像処理装置, 211 画像処理部, 212 表示制御部, 221 SW更新後画像処理部, 222 SW更新前画像処理部, 281 表示制御部, 301 画像処理装置, 311 画像処理部, 312 表示制御部, 321 SW更新後画像処理部, 322 SW更新前画像処理部, 323 差分演算部, 331 OSD処理部, 401 画像処理装置, 411 画像処理部, 412 表示制御部, 413 シーン検出部, 414 特徴量抽出部, 415 記録制御部, 416 履歴情報記録部, 417 学習部, 418 学習情報記録部, 421 SW更新後画像処理部, 422 SW更新前画像処理部, 431 OSD処理部, 511 学習情報照会部

Claims (18)

  1. 術部画像に、ソフトウェアによる画像処理を施す画像処理部と、
    前記画像処理が施された前記術部画像の表示を制御する表示制御部と
    を備え、
    前記画像処理部は、前記術部画像に前記ソフトウェア更新前の前記画像処理を施した更新前処理画像と、前記術部画像に前記ソフトウェア更新後の前記画像処理を施した更新後処理画像とを生成し、
    前記表示制御部は、前記更新前処理画像および前記更新後処理画像の少なくともいずれか一方の少なくとも一部の表示を制御する
    手術用画像処理装置。
  2. 前記画像処理部は、前記ソフトウェア更新前の前記画像処理と前記ソフトウェア更新後の前記画像処理とを並行して行う
    請求項1に記載の手術用画像処理装置。
  3. 前記表示制御部は、前記更新前処理画像と前記更新後処理画像とを、1つの画面に同時に表示させる
    請求項1に記載の手術用画像処理装置。
  4. 前記表示制御部は、ユーザの操作に応じて、前記画面における前記更新前処理画像および前記更新後処理画像の表示サイズを調整する
    請求項3に記載の手術用画像処理装置。
  5. 前記表示制御部は、前記更新前処理画像と前記更新後処理画像とを、それぞれ異なる表示装置に表示させる
    請求項1に記載の手術用画像処理装置。
  6. 前記表示制御部は、前記更新前処理画像および前記更新後処理画像のうちユーザに選択された方を表示させる
    請求項1に記載の手術用画像処理装置。
  7. 前記表示制御部は、前記更新前処理画像と前記更新後処理画像とを、所定の比率で画素毎に加算して表示させる
    請求項1に記載の手術用画像処理装置。
  8. 前記表示制御部は、前記更新前処理画像の第1の領域と、前記更新後処理画像の前記第1の領域以外の第2の領域とを合成して表示させる
    請求項1に記載の手術用画像処理装置。
  9. 前記第1の領域は、画面が左右に2分割された一方の領域であり、
    前記第2の領域は、前記画面が左右に2分割された他方の領域である
    請求項8に記載の手術用画像処理装置。
  10. 前記第1の領域は、画面の中心を含む中心領域であり、
    前記第2の領域は、前記画面における前記中心領域より外側の周縁領域である
    請求項8に記載の手術用画像処理装置。
  11. 前記第1の領域と前記第2の領域との境界は、ユーザの操作により決定される
    請求項8に記載の手術用画像処理装置。
  12. 前記更新前処理画像と前記更新後処理画像の差分を演算する差分演算部をさらに備え、
    前記表示制御部は、前記差分が所定値より大きい場合、その旨を報知する情報の表示を制御する
    請求項1に記載の手術用画像処理装置。
  13. 前記画像において所定のシーンを検出するシーン検出部をさらに備え、
    前記表示制御部は、検出された前記シーンについて、前記更新前処理画像および前記更新後処理画像のうちのユーザに選択された方を表示させる
    請求項1に記載の手術用画像処理装置。
  14. 検出された前記シーンの特徴量を抽出する特徴量抽出部と、
    抽出された前記特徴量と、検出された前記シーンについて、前記更新前処理画像および前記更新後処理画像のうちの前記ユーザに選択された方を示す選択情報とを対応付けて、履歴情報として記録する記録制御部とをさらに備える
    請求項13に記載の手術用画像処理装置。
  15. 前記履歴情報に基づいて、前記シーンの前記特徴量毎に、検出された前記シーンについて、前記更新前処理画像および前記更新後処理画像のうちのいずれが前記ユーザに選択されたかを学習する学習部をさらに備える
    請求項14に記載の手術用画像処理装置。
  16. 他の画像において検出された所定のシーンの前記特徴量に対応する学習結果を照会する照会部をさらに備え、
    前記表示制御部は、照会された前記学習結果に基づいて、前記他の画像における前記所定のシーンについて、前記更新前処理画像および前記更新後処理画像のうちのいずれかを表示させる
    請求項15に記載の手術用画像処理装置。
  17. 術部画像に、ソフトウェアによる画像処理を施す画像処理部と、
    前記画像処理が施された前記術部画像の表示を制御する表示制御部と
    を備える手術用画像処理装置が、
    前記術部画像に前記ソフトウェア更新前の前記画像処理を施した更新前処理画像と、前記術部画像に前記ソフトウェア更新後の前記画像処理を施した更新後処理画像を生成し、
    前記更新前処理画像および前記更新後処理画像の少なくともいずれかの少なくとも一部の表示を制御する
    ステップを含む画像処理方法。
  18. 術部画像を取得する手術用撮像装置と、
    前記術部画像に、ソフトウェアによる画像処理を施す画像処理部と、
    前記画像処理が施された前記術部画像の表示を制御する表示制御部と
    を有する手術用画像処理装置と
    を備え、
    前記画像処理部は、前記術部画像に前記ソフトウェア更新前の前記画像処理を施した更新前処理画像と、前記術部画像に前記ソフトウェア更新後の前記画像処理を施した更新後処理画像とを生成し、
    前記表示制御部は、前記更新前処理画像および前記更新後処理画像の少なくともいずれか一方の少なくとも一部の表示を制御する
    手術システム。
JP2019509271A 2017-03-31 2018-03-16 手術用画像処理装置、画像処理方法、及び、手術システム Active JP7115467B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017072244 2017-03-31
JP2017072244 2017-03-31
PCT/JP2018/010391 WO2018180573A1 (ja) 2017-03-31 2018-03-16 手術用画像処理装置、画像処理方法、及び、手術システム

Publications (2)

Publication Number Publication Date
JPWO2018180573A1 true JPWO2018180573A1 (ja) 2020-02-06
JP7115467B2 JP7115467B2 (ja) 2022-08-09

Family

ID=63675571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019509271A Active JP7115467B2 (ja) 2017-03-31 2018-03-16 手術用画像処理装置、画像処理方法、及び、手術システム

Country Status (5)

Country Link
US (1) US11483473B2 (ja)
EP (1) EP3603479B1 (ja)
JP (1) JP7115467B2 (ja)
CN (1) CN110536629B (ja)
WO (1) WO2018180573A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7127785B2 (ja) * 2018-11-30 2022-08-30 オリンパス株式会社 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法
WO2021241695A1 (ja) 2020-05-27 2021-12-02 富士フイルム株式会社 内視鏡画像処理装置
CN113011418B (zh) * 2021-02-09 2024-02-23 杭州海康慧影科技有限公司 确定图像中待处理区域的方法、装置、设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002176582A (ja) * 2000-12-06 2002-06-21 Fuji Photo Film Co Ltd 電子機器
WO2006093225A1 (ja) * 2005-03-03 2006-09-08 Nikon Corporation カメラ付携帯電話および画像機器
JP2008186294A (ja) * 2007-01-30 2008-08-14 Toshiba Corp ソフトウェア更新装置及びソフトウェア更新システム
JP2013090194A (ja) * 2011-10-19 2013-05-13 Sony Corp サーバ装置、画像送信方法、端末装置、画像受信方法、プログラムおよび画像処理システム
US20130174042A1 (en) * 2011-12-30 2013-07-04 Samsung Electronics Co., Ltd. Display apparatus, upgrading apparatus, display system and control method thereof

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034775A (ja) * 1999-05-17 2001-02-09 Fuji Photo Film Co Ltd 履歴画像表示方法
US7747960B2 (en) * 2006-09-06 2010-06-29 Stereotaxis, Inc. Control for, and method of, operating at least two medical systems
JP5464815B2 (ja) 2008-03-25 2014-04-09 オリンパスメディカルシステムズ株式会社 撮像システムおよび撮像システムのセルフチェック処理の動作方法
JP2014138294A (ja) * 2013-01-17 2014-07-28 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US9270919B2 (en) * 2013-09-24 2016-02-23 Karl Storz Imaging, Inc. Simultaneous display of two or more different sequentially processed images
WO2015105951A1 (en) 2014-01-08 2015-07-16 Board Of Regents Of The University Of Texas System System and method for intraoperative fluorescence imaging in ambient light
JP6339872B2 (ja) 2014-06-24 2018-06-06 オリンパス株式会社 画像処理装置、内視鏡システム及び画像処理方法
WO2016140989A1 (en) * 2015-03-01 2016-09-09 ARIS MD, Inc. Reality-augmented morphological procedure
JP2017041831A (ja) * 2015-08-21 2017-02-23 株式会社リコー 通信システム、通信管理システム、通信管理方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002176582A (ja) * 2000-12-06 2002-06-21 Fuji Photo Film Co Ltd 電子機器
WO2006093225A1 (ja) * 2005-03-03 2006-09-08 Nikon Corporation カメラ付携帯電話および画像機器
JP2008186294A (ja) * 2007-01-30 2008-08-14 Toshiba Corp ソフトウェア更新装置及びソフトウェア更新システム
JP2013090194A (ja) * 2011-10-19 2013-05-13 Sony Corp サーバ装置、画像送信方法、端末装置、画像受信方法、プログラムおよび画像処理システム
US20130174042A1 (en) * 2011-12-30 2013-07-04 Samsung Electronics Co., Ltd. Display apparatus, upgrading apparatus, display system and control method thereof

Also Published As

Publication number Publication date
EP3603479A1 (en) 2020-02-05
JP7115467B2 (ja) 2022-08-09
CN110536629B (zh) 2022-04-15
EP3603479A4 (en) 2020-03-18
US11483473B2 (en) 2022-10-25
EP3603479B1 (en) 2021-04-28
US20210112197A1 (en) 2021-04-15
CN110536629A (zh) 2019-12-03
WO2018180573A1 (ja) 2018-10-04

Similar Documents

Publication Publication Date Title
JP7067467B2 (ja) 医療用情報処理装置、情報処理方法、医療用情報処理システム
WO2018123613A1 (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
JP7115467B2 (ja) 手術用画像処理装置、画像処理方法、及び、手術システム
US11503980B2 (en) Surgical system and surgical imaging device
US11883120B2 (en) Medical observation system, medical signal processing device, and medical signal processing device driving method
JP7092111B2 (ja) 撮像装置、映像信号処理装置および映像信号処理方法
US10778889B2 (en) Image pickup apparatus, video signal processing apparatus, and video signal processing method
US11778325B2 (en) Image processing apparatus, image processing method, and image processing program
WO2017145606A1 (ja) 画像処理装置、画像処理方法及び内視鏡システム
WO2020203164A1 (ja) 医療システム、情報処理装置及び情報処理方法
WO2018043205A1 (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
JPWO2020009127A1 (ja) 医療用観察システム、医療用観察装置、及び医療用観察装置の駆動方法
JP7456385B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
US20220256096A1 (en) Image processing device, image processing method, and program
WO2021010020A1 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220711

R151 Written notification of patent or utility model registration

Ref document number: 7115467

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151