JP7354608B2 - 医療用観察システム、医療用観察方法、および情報処理装置 - Google Patents

医療用観察システム、医療用観察方法、および情報処理装置 Download PDF

Info

Publication number
JP7354608B2
JP7354608B2 JP2019115405A JP2019115405A JP7354608B2 JP 7354608 B2 JP7354608 B2 JP 7354608B2 JP 2019115405 A JP2019115405 A JP 2019115405A JP 2019115405 A JP2019115405 A JP 2019115405A JP 7354608 B2 JP7354608 B2 JP 7354608B2
Authority
JP
Japan
Prior art keywords
light
special light
image
observation
surgical field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019115405A
Other languages
English (en)
Other versions
JP2021000258A (ja
Inventor
康昭 高橋
慧佑 宇山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Priority to JP2019115405A priority Critical patent/JP7354608B2/ja
Priority to CN202080043388.7A priority patent/CN114126531A/zh
Priority to EP20736468.8A priority patent/EP3962345A1/en
Priority to US17/608,525 priority patent/US20220225860A1/en
Priority to PCT/JP2020/024060 priority patent/WO2020256089A1/en
Publication of JP2021000258A publication Critical patent/JP2021000258A/ja
Application granted granted Critical
Publication of JP7354608B2 publication Critical patent/JP7354608B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • A61B1/3132Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for laparoscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0036Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room including treatment, e.g., using an implantable medical device, ablating, ventilating
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0084Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0084Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters
    • A61B5/0086Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters using infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Quality & Reliability (AREA)
  • Gynecology & Obstetrics (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)

Description

本技術は、医療用観察システム、医療用観察方法、および情報処理装置に関し、特に、信頼性の高い3次元情報を得ることができるようにした医療用観察システム、医療用観察方法、および情報処理装置に関する。
内視鏡や顕微鏡といった医療用観察装置を用いた手術において、画像情報やセンサ情報に基づいて術野の3次元情報を生成し、さらに、生成した3次元情報を用いて、手術に有用な情報を術者に提供する技術が提案されている。
例えば特許文献1には、内視鏡の光軸の角度情報をSLAM(Simultaneous Localization and Mapping)により取得し、表示用画像の画質を制御する技術が開示されている。
国際公開第2017/168986号
ところで、内視鏡や顕微鏡を用いた手術において、可視光(白色光)とは波長帯域が異なるIR光などの特殊光を用いて得られた特殊光画像に基づいて、可視光画像では見えづらい深部の血管や病変部を判別する技術がある。
本技術はこのような状況に鑑みてなされたものであり、信頼性の高い3次元情報を得ることができるようにするものである。
本技術の一側面の医療用観察システムは、術野を撮像する撮像部と、可視光が有する波長帯域とは異なる波長帯域を有する特殊光を前記術野に照射する光源部と、前記特殊光の照射中に前記撮像部により撮像した特殊光画像に基づいてSLAMを行うことによって得られた特徴点に基づいて、前記術野を含む空間の形状を表す3次元情報を生成し、生成した前記3次元情報に基づいて、前記特殊光画像の撮影時の前記撮像部の位置と姿勢を推定する制御部とを備える。
本技術の他の側面の情報処理装置は、可視光が有する波長帯域とは異なる波長帯域を有する特殊光を術野に照射する光源部による前記特殊光の照射中に撮像部によって前記術野を撮像した特殊光画像に基づいてSLAMを行うことによって得られた特徴点に基づいて、前記術野を含む空間の形状を表す3次元情報を生成し、生成した前記3次元情報に基づいて、前記特殊光画像の撮影時の前記撮像部の位置と姿勢を推定する制御部を備える。
本技術の一側面においては、可視光が有する波長帯域とは異なる波長帯域を有する特殊光が術野に照射され、特殊光の照射中に撮像した特殊光画像に基づいてSLAMを行うことによって得られた特徴点に基づいて、前記術野を含む空間の形状を表す3次元情報が生成される。また、生成された前記3次元情報に基づいて、前記特殊光画像の撮影時の前記撮像部の位置と姿勢が推定される。
本技術の他の側面においては、可視光が有する波長帯域とは異なる波長帯域を有する特殊光を術野に照射する光源部による特殊光の照射中に撮像部によって術野を撮像した特殊光画像に基づいてSLAMを行うことによって得られた特徴点に基づいて、前記術野を含む空間の形状を表す3次元情報が生成される。また、生成された前記3次元情報に基づいて、前記特殊光画像の撮影時の前記撮像部の位置と姿勢が推定される。
本技術の一実施の形態に係る医療用観察システムの構成例を示す図である。 特殊光の照射の例を示す図である。 CCUの機能構成例を示すブロック図である。 術野画像表示処理について説明するフローチャートである。 特殊光と可視光の照射の例を示す図である。 CCUの他の機能構成例を示すブロック図である。 プリズムとダイクロックミラーの構成例を示す図である。 術野画像表示処理について説明するフローチャートである。 複合SLAMの例を示す図である。 CCUのさらに他の機能構成例を示すブロック図である。 術野画像表示処理について説明するフローチャートである。 3次元マップ生成/位置・姿勢推定処理に用いられる特徴点の例を示す図である。 可視光画像から検出された特徴点と特殊光画像から検出された特徴点の例を示す図である。 特徴点を特殊光画像上に重ねて示す図である。 図11のステップS56において行われる3次元マップ生成/位置・姿勢推定処理について説明するフローチャートである。 他の3次元マップ生成/位置・姿勢推定処理について説明するフローチャートである。 本技術の実施の形態に係る手術支援システムの他の構成例を示す図である。 情報処理装置のハードウェア構成例を示すブロック図である。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.医療用観察システムについて
2.特殊光SLAM
3.複合SLAM
4.変形例
5.適用例
<<医療用観察システムについて>>
<システム構成>
図1は、本技術の一実施の形態に係る医療用観察システムの構成例を示す図である。
図1は、例えば、医療現場において従来の開腹手術に代わって行われる、腹部の内視鏡外科手術において用いられる内視鏡手術システムの一例を示している。
図1の医療用観察システム1においては、従来のように腹壁を切って開腹する代わりに、トロッカ25aおよび25bと呼ばれる開孔器具が腹壁に数か所取り付けられる。そして、トロッカ25aおよび25bに設けられている孔から、患者の体内を観察する観察用医療機器としての腹腔鏡(以下、内視鏡ともいう)11、エネルギ処置具22や鉗子23などが体内に挿入される。
術者は、内視鏡11によって撮像された患者の体内にある患部(腫瘍など)Uの画像をリアルタイムに見ながら、エネルギ処置具22などによって患部Uを切除するなどの処置を行う。内視鏡11、エネルギ処置具22や鉗子23は、術者またはロボットなどにより保持される。
なお、術者とは、手術室で行われる手術に関わっている医療従事者をいう。術者には、例えば手術の執刀医、助手、スコピスト、看護師の他、手術室とは別の場所からその手術をモニタしている医者など、手術に関わるメンバーが含まれる。図1の例において、内視鏡11は、例えば、スコピストにより保持されている。内視鏡11は、患者に挿入されるスコープと、スコープにより導光された光を受光して撮像する撮像素子を含むカメラヘッドを含む。なお、スコープは硬性タイプでもよいし、軟性タイプでもよい。また、スコープと撮像素子が一体化していてもよい。
このような内視鏡下手術を行う手術室内には、内視鏡下手術のための装置類を搭載するカート31、患者が横たわる患者ベッド33、フットスイッチ35などが設置される。カート31には、医療機器として、例えば、カメラコントロールユニット(CCU)13、光源装置17、処置具用装置21、気腹装置24、表示装置15、レコーダ26、およびプリンタ27などの装置類が載置される。
内視鏡11の観察光学系を通じて撮像された患部Uの画像信号は、信号伝送ケーブルであるカメラケーブルを介してCCU13に伝送される。CCU13は、カメラケーブルを介して内視鏡11に接続される他、無線の通信経路を介して内視鏡11に接続されるようにしてもよい。CCU13は、内視鏡11から出力される画像信号に対して信号処理を施し、信号処理後の画像信号を表示装置15に出力する。このような構成により、患部Uの術野画像が表示装置15に表示される。
なお、CCU13は、信号処理後の画像信号をレコーダ26に出力することで、レコーダ26に、患部Uの術野画像を画像データ(例えば、動画像のデータ)として記録させる。また、CCU13は、信号処理後の画像信号をプリンタ27に出力することで、プリンタ27に、患部Uの術野画像を印刷させる。
光源装置17は、ライトガイドケーブルを介して内視鏡11に接続され、患部Uに対してさまざまな波長の光を切り替えて照射する。光源装置17から照射される光は、例えば、補助光として用いられる場合もある。
処置具用装置21は、例えば、電気熱を用いて患部Uを切断するエネルギ処置具22に対して高周波電流を出力する高周波出力装置に相当する。
気腹装置24は、送気、吸気手段を備え、患者体内の例えば腹部領域に空気を送気する。
フットスイッチ35は、術者や助手などのフット操作をトリガ信号として、CCU13や処置具用装置21などを制御する。
<医療用観察システムにおける画像処理について>
このような構成を有する医療用観察システムのCCU13においては、内視鏡11により術野を撮像して得られた画像に基づいてSLAMが行われる。SLAMが行われることにより、患者体内の術野を含む空間の形状を表す3次元情報としての3次元マップが生成され、各タイミングにおける、内視鏡11の位置・姿勢が推定される。
SLAMによって得られた位置・姿勢の推定結果は、例えば、CT(Computed Tomography)やMRI(Magnetic Resonance Imaging)などによって別途得られた臓器などの画像を表示するときの、画像の向きの制御に用いられる。表示装置15には、CTなどによって得られた臓器の画像が、内視鏡11の位置・姿勢に応じた向きで表示されることになる。
CCU13におけるSLAMは、例えば、術野に特殊光を照射した状態で撮像された画像である特殊光画像に基づいて行われる。特殊光の照射中に撮像された特殊光画像に基づいて行われるSLAMであるから、そのようなSLAMは、特殊光SLAMということができる。なお、画像に基づくSLAMのアルゴリズムは、三次元マップや、三次元マップ上の自己位置や姿勢を画像中の特徴量に基づいて生成できるアルゴリズムであればよく、既存のアルゴリズムを採用してよい。例えば、PTAM、DTAM、ORB-SLAM、多層ニューラルネットワークを用いた機械学習により三次元マップおよび自己位置推定を行うMachine Learning SLAMといったアルゴリズムを採用してよい。また、画像だけでなく、IMU(Inertial Measurement Unit)センサーや深度センサーの情報を組み合わせてもよい。
図2は、特殊光の照射の例を示す図である。
光源装置17を光源とする特殊光が図2の矢印で示すように内視鏡11の先端から術野に向けて照射され、その状態で、撮像が行われる。
特殊光としてIR光が用いられている場合、図2の矢印で示すように、特殊光は術野の表面では反射せずに、深部にある血管などの所定の構造まで到達し、深部の構造において反射する。特殊光画像には、可視光を照射した状態で撮像された可視光画像には写らない(写りにくい)、深部にある構造が強調して写ることになる。
CCU13においては、特殊光画像に基づいてSLAMが行われ、深部にある構造のエッジなどを特徴点とする3次元マップが生成される。また、そのようにして生成された3次元マップを用いて、位置・姿勢の推定が行われる。
手術中、病変部の切除などの処置により術野の表面の形状が変化するのに対して、深部にある血管などは基本的には保存され、変化しない。特殊光画像に基づいてSLAMを行うことにより、術野の変化に影響を受けることが少ない特徴点に基づいて3次元マップを生成することができ、信頼性の高いSLAM結果を得ることが可能となる。
なお、特殊光としては、可視光が有する波長帯域とは異なる波長帯域を有する各種の光が用いられる。特殊光の詳細については後述する。
<<特殊光SLAM>>
<特殊光観察を行う例>
・CCUの機能構成
図3は、CCU13の機能構成例を示すブロック図である。
図3に示すように、CCU13においては情報処理部71が実現される。情報処理部71は、例えば、CCU13を構成するCPUにより所定のプログラムが実行されることによって実現される。
情報処理部71は、特殊光現像処理部81、特殊光観察用現像処理部82、3次元マップ生成部83、3次元マップ記憶部84、画面上位置算出部85、3次元情報記憶部86、および表示制御部87から構成される。
内視鏡11の撮像部51を構成する特殊光用イメージセンサ62から出力された画像信号は、特殊光現像処理部81と特殊光観察用現像処理部82に入力される。撮像部51には、術野に対して特殊光を照射する特殊光照射部61と、特殊光の照射中に術野の撮像を行う特殊光用イメージセンサ62とが設けられる。
特殊光現像処理部81は、特殊光用イメージセンサ62から供給されたRAW信号に基づいて、RGBの画像を特殊光画像として生成し、特殊光画像のデータを3次元マップ生成部83に出力する。
特殊光観察用現像処理部82は、特殊光用イメージセンサ62から供給されたRAW信号に基づいて、術野の状態を可視化した観察用の画像を生成する。観察用の画像には、術野の状態が視認可能な形で写ることになる。図3の例においては、特殊光が観察光として用いられる。特殊光観察用現像処理部82により生成された観察用の画像のデータは表示制御部87に供給される。
3次元マップ生成部83は、特殊光画像に基づくSLAMである特殊光SLAMを行う。例えば、特殊光を照射した状態での術野の撮像は繰り返し行われる。3次元マップ生成部83による特殊光SLAMは、特殊光現像処理部81から順次供給される特殊光画像を用いて行われる。
3次元マップ生成部83は、特殊光画像を解析することによって、所定の特徴量を有する点を特徴点として設定し、そのような特徴点から構成される3次元マップを生成する。3次元マップ生成部83は、生成した3次元マップを3次元マップ記憶部84に出力し、記憶させる。3次元マップ記憶部84に記憶された3次元マップは、3次元マップ生成部83による処理に応じて順次更新される。
また、3次元マップ生成部83は、3次元マップ記憶部84に記憶されている3次元マップなどに基づいて、内視鏡11の位置・姿勢を推定し、位置・姿勢の推定結果を表す位置・姿勢情報を画面上位置算出部85に出力する。
画面上位置算出部85は、CTやMRIなどを用いて手術前などにあらかじめ生成された臓器の3次元画像を3次元情報記憶部86から読み出して取得する。また、画面上位置算出部85は、3次元情報記憶部86に入力されたナビゲーション情報に応じた3次元位置情報や、ユーザとしての術者により画面上を指定するなどして入力された3次元位置情報を取得する。
画面上位置算出部85は、3次元マップ生成部83から供給された位置・姿勢情報により表される内視鏡11の位置・姿勢、および、3次元位置情報により表される位置等に応じた、3次元画像の向きを算出する。画面上位置算出部85は、算出した向きに応じた見え方となるように3次元画像を変換し、変換後の3次元画像を表示制御部87に出力する。
表示制御部87は、特殊光観察用現像処理部82からデータが供給された観察用の画像に対して、画面上位置算出部85による変換後の3次元画像を合成し、合成後の観察用の画像を表示装置15に表示させる。
・特殊光の例
ここで、特殊光画像の撮像に用いられる特殊光について説明する。
(1)IR光(赤外線)を用いた場合
深部の血管構造を観察することができるIR光などの光を特殊光として用いた場合、表面の状態変化の影響を受けない3次元マップを得ることが可能となる。すなわち、手術における処置の影響を受けづらいSLAMが実現される。IR光のように、可視光の波長より長波長の光を特殊光として用いることが可能である。この場合、特殊光の波長帯域は、可視光の波長帯域より長波長の帯域となる。
(2)青色系の光を用いた場合
表層血管を強調して観察することができる青色系の光を特殊光として用いた場合、特殊光画像に写る血管などにSLAMの特徴点が設定される。血管は手術においても基本的に保存されるため、手術における処置の影響を受けづらいSLAMが実現される。
(3)透過性の高い光を用いた場合
可視光より透過性の高い光を特殊光として用いた場合、ミストやくもりが臓器内で発生したときでも、術野が鮮明に写る特殊光画像を得ることが可能となる。特殊光画像に基づいて特徴点を得ることができるため、SLAMの中断を抑えることが可能となる。処置の内容によってはミストなどが臓器内で発生し、可視光画像を用いた場合にはSLAMを継続できなくなることがあるが、そのようなことを防ぐことが可能となる。
(4)偏光を特殊光として用いた場合
偏光を特殊光として用いた場合、鏡面反射領域にある特徴点を特殊光画像から得ることができるため、鏡面反射領域をも含めたSLAMが可能となる。手術中、臓器内に水が溜まるなどして、鏡面反射が生じる領域が術野内に形成されることがある。可視光画像を用いた場合、鏡面反射領域にある特徴点を検出することができなくなることがあるが、特殊光画像を用いることにより、そのようなことを防ぐことが可能となる。
特殊光となる偏光は、例えば、偏光フィルタを用いて生成される。光源から出射された可視光が偏光フィルタを通過することにより偏光が生成される。
(5)既知の空間パターンを形成する光を特殊光として用いた場合
チェッカーパターンやドットパターンなどの既知の空間パターンを投影する光(Structured Light)を特殊光として用いるようにすることも可能である。この場合、術野の3次元形状をより正確に検出することが可能となる。
(6)パルス変調を加えた光を特殊光として用いた場合
パルス変調を加えた光を特殊光として用いた場合、反射光と照射光の位相差に基づいて、術野までの距離を直接計測することが可能となる。各位置までの距離の計測結果に基づいて、3次元マップが生成される。
このように、可視光が有する波長帯域とは異なる波長帯域を有する各種の光を特殊光として用いることが可能である。
なお、可視光は、白色光であり、例えば、下限が略360-400nmの範囲内の所定の波長、上限が略760-830nmの範囲内の所定の波長の帯域を有する。このような可視光の波長帯域と異なる波長帯域を有する各種の光を、特殊光として用いることが可能である。
可視光と異なる波長帯域の光を特殊光として用いるのではなく、光源の種類(LED、レーザーなど)が可視光と異なる光が特殊光として用いられるようにしてもよいし、照射強度が可視光と異なる光が特殊光として用いられるようにしてもよい。可視光を用いて照射する空間パターンと異なる空間パターンを照射する光が特殊光として用いられるようにすることも可能である。
・CCUの動作
ここで、図4のフローチャートを参照して、CCU13の術野画像表示処理について説明する。
ステップS1において、撮像部51の特殊光照射部61は、術野に対して特殊光を照射する。
ステップS2において、特殊光用イメージセンサ62は、特殊光の照射中に術野を撮像する。
ステップS3において、情報処理部71の特殊光現像処理部81は、特殊光用イメージセンサ62から供給されたRAW信号に基づいて特殊光画像を生成する。
ステップS4において、特殊光観察用現像処理部82は、特殊光用イメージセンサ62から供給されたRAW信号に基づいて観察用の画像を生成する。
ステップS5において、3次元マップ生成部83は、特殊光現像処理部81から供給された特殊光画像を解析することによって3次元マップを生成する。
ステップS6において、3次元マップ生成部83は、3次元マップに基づいて、内視鏡11の位置と姿勢を推定する。
ステップS7において、画面上位置算出部85は、3次元マップ生成部83による位置・姿勢の推定結果などに基づいて3次元画像の向きを変換する。
ステップS8において、表示制御部87は、特殊光観察用現像処理部82から供給された観察用の画像に、画面上位置算出部85から供給された変換後の3次元画像を合成する。
ステップS9において、表示制御部87は、合成後の観察用の画像を表示装置15に表示させる。
以上のような特殊光画像に基づくSLAMである特殊光SLAMにより、信頼性の高いSLAM結果を得ることが可能となる。
<可視光観察を行う例>
観察用の画像が、可視光の反射光を受光して得られた画像信号に基づいて生成されるようにしてもよい。この例においては、可視光が観察光として用いられる。
図5は、特殊光と可視光の照射の例を示す図である。
可視光が観察光として用いられる場合、図5に示すように、内視鏡11の先端からは、特殊光と可視光が術野に向けて照射され、その状態で撮像が行われる。特殊光の反射光を受光して得られた特殊光画像が上述したようにしてSLAMに用いられ、可視光の反射光を受光して得られた可視光画像が観察用の画像として用いられる。
・CCUの機能構成
図6は、CCU13の他の機能構成例を示すブロック図である。
図6に示す構成のうち、図3を参照して説明した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図6に示す情報処理部71の構成は、特殊光観察用現像処理部82に代えて可視光現像処理部91が設けられるとともに、位置合わせ処理部92が追加して設けられる点で、図3に示す構成と異なる。
撮像部51には、特殊光照射部61と特殊光用イメージセンサ62の他に、術野に対して可視光を照射する可視光照射部63と、可視光の照射中に術野の撮像を行う可視光用イメージセンサ64とが設けられる。特殊光照射部61による特殊光の照射と可視光照射部63による可視光の照射は例えば同時に行われる。特殊光照射部61による特殊光の照射と可視光照射部63による可視光の照射が時分割で行われるようにしてもよい。
特殊光用イメージセンサ62と可視光用イメージセンサ64の前方には、図7に示すようなプリズム102とダイクロックミラー103が設けられる。内視鏡11のスコープに設けられたレンズ101を透過した光のうちの特殊光は、ダイクロックミラー103において反射し、特殊光用イメージセンサ62に導かれる。また、レンズ101を透過した光のうちの可視光は、ダイクロックミラー103を透過し、可視光用イメージセンサ64に導かれる。
図6に示すように、特殊光用イメージセンサ62から出力された画像信号は特殊光現像処理部81に入力され、可視光用イメージセンサ64から出力された画像信号は可視光現像処理部91に入力される。
可視光現像処理部91は、可視光用イメージセンサ64から供給されたRAW信号に基づいて可視光画像を生成し、術野の状態を表す観察用の画像として出力する。可視光現像処理部91から出力された可視光画像のデータは、表示制御部87と位置合わせ処理部92に供給される。
位置合わせ処理部92は、特殊光現像処理部81から供給された特殊光画像の各画素の位置を、可視光現像処理部91から供給された可視光画像の各画素の位置に応じて電子的に合わせる位置合わせを行う。位置合わせ処理部92は、位置合わせ後の特殊光画像を3次元マップ生成部83に出力する。
表示制御部87は、可視光現像処理部91からデータが供給された可視光画像に対して、画面上位置算出部85による変換後の3次元画像を合成し、合成後の可視光画像を表示装置15に表示させる。
・CCUの動作
ここで、図8のフローチャートを参照して、図6の構成を有するCCU13の術野画像表示処理について説明する。
ステップS21において、撮像部51の特殊光照射部61は、術野に対して特殊光を照射する。また、可視光照射部63は、術野に対して可視光を照射する。
ステップS22において、特殊光用イメージセンサ62は、特殊光の照射中に術野を撮像する。また、可視光用イメージセンサ64は、可視光の照射中に術野を撮像する。
ステップS23において、情報処理部71の特殊光現像処理部81は、特殊光用イメージセンサ62から供給されたRAW信号に基づいて特殊光画像を生成する。
ステップS24において、可視光現像処理部91は、可視光用イメージセンサ64から供給されたRAW信号に基づいて観察用の画像(可視光画像)を生成する。
ステップS25において、位置合わせ処理部92は、特殊光現像処理部81から供給された特殊光画像と、可視光現像処理部91から観察用の画像として供給された可視光画像に基づいて位置合わせを行う。
ステップS26において、3次元マップ生成部83は、位置合わせ処理部92から供給された特殊光画像を解析することによって3次元マップを生成する。
ステップS27において、3次元マップ生成部83は、3次元マップに基づいて、内視鏡11の位置と姿勢を推定する。
ステップS28において、画面上位置算出部85は、3次元マップ生成部83による位置・姿勢の推定結果などに基づいて3次元画像の向きを変換する。
ステップS29において、表示制御部87は、可視光現像処理部91から供給された観察用の画像に、画面上位置算出部85から供給された変換後の3次元画像を合成する。
ステップS30において、表示制御部87は、合成後の観察用の画像を表示装置15に表示させる。
以上のように、可視光照射部63と可視光用イメージセンサ64を撮像部51に設けることにより、観察用の画像として可視光画像を用いることが可能となる。
<<複合SLAM>>
3次元マップの生成と位置・姿勢の推定が、特殊光画像を用いたSLAMである特殊光SLAMと、可視光画像を用いたSLAMである可視光SLAMとを複合的に用いて行われるようにしてもよい。特殊光SLAMと可視光SLAMとを複合的に用いたSLAMは、複合SLAMとなる。
図9は、複合SLAMの例を示す図である。
図9の上段において、左側に示す画像は可視光画像であり、右側に示す画像は特殊光画像である。図9に示す可視光画像と特殊光画像は、それぞれ同じ範囲を撮像して得られた画像である。また、それぞれの画像上に示す菱形は、画像解析を行うことによって検出された特徴点である。それぞれの撮像に用いられた光の波長によって、画像に写る内容が異なり、これにより、異なる位置に特徴点が設定される。
図9の可視光画像において、破線で囲んで示す領域A1,A2は、照射する可視光によって鏡面反射が生じている領域である。可視光画像においては輝点として写り、この例においては、それぞれの輝点の位置に多くの特徴点が設定されている。
一方、図9の特殊光画像において、破線で囲んで示す領域A11は、深部の血管構造が写っている領域である。この例においては、血管構造のエッジの近傍に多くの特徴点が設定されている。
複合SLAMは、図9の矢印の先に示すように、可視光画像から検出された特徴点と特殊光画像から検出された特徴点とを用いたSLAMである。可視光画像の撮像時の内視鏡11の位置・姿勢と特殊光画像の撮像時の内視鏡11の位置・姿勢とは同一であるため、2つ以上の画像から検出された特徴点を、同一座標系に容易に重ね合わせることが可能となる。
可視光画像から検出される特徴点と特殊光画像から検出される特徴点との位置がそれぞれ異なるため、複合SLAMによれば、よりロバストな3次元マップを生成することが可能となる。
複合SLAMにおいては、可視光画像から検出された特徴点と特殊光画像から検出された特徴点のうちの全ての特徴点を用いるのではなく、信頼度の高い特徴点が用いられる。
信頼度の高い特徴点に基づいて3次元マップが生成されるようにしてもよいし、3次元マップを構成する特徴点のうち、信頼度の高い特徴点に基づいて位置・姿勢の推定が行われるようにしてもよい。
後者の場合、例えば、可視光画像上の特徴点から構成される3次元マップと、特殊光画像上の特徴点から構成される3次元マップとがそれぞれ生成され、2つの3次元マップを合成して、複合SLAMの3次元マップが生成される。複合SLAMの3次元マップを構成する特徴点のうち、信頼度の高い特徴点が、位置・姿勢の推定に用いられる。
・CCUの機能構成
図10は、CCU13のさらに他の機能構成例を示すブロック図である。
図10に示す構成のうち、図6を参照して説明した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
3次元マップ生成部83は、位置合わせ処理部92から供給された位置合わせ済みの特殊光画像と、可視光現像処理部91から供給された可視光画像を取得する。3次元マップ生成部83は、特殊光画像上の特徴点と可視光画像上の特徴点とを検出し、検出したそれらの特徴点に基づいて3次元マップを生成する。
例えば、3次元マップ生成部83は、特殊光画像上の特徴点と可視光画像上の特徴点のそれぞれの信頼度を算出し、信頼度の高い特徴点から構成される3次元マップを生成する。
信頼度の算出は、例えば、あるフレームから検出された特徴点と、1フレーム前のフレームから検出された対応する特徴点とのそれぞれの特徴量の差分に基づいて、特徴量の差分が小さいほど高い値を信頼度として設定し、差分が大きいほど低い値を信頼度として設定するようにして行われる。
3次元マップ生成部83は、例えば、特殊光画像から検出した特徴点と可視光画像から検出した特徴点の両方の特徴点が所定の範囲内に含まれる場合(近い位置にある場合)、信頼度の高い方の特徴点を、3次元マップを構成する特徴点として選択する。3次元マップを構成する特徴点の選択の仕方として、後述するような各種の方法を採用することが可能である。
3次元マップ生成部83は、このようにして選択した特徴点から構成される3次元マップに基づいて内視鏡11の位置・姿勢を推定し、位置・姿勢情報を画面上位置算出部85に出力する。
画面上位置算出部85は、3次元マップ生成部83から供給された位置・姿勢情報により表される内視鏡11の位置・姿勢などに基づいて、3次元画像の向きを算出する。画面上位置算出部85は、算出した向きに応じた見え方となるように3次元画像を変換し、変換後の3次元画像を表示制御部87に出力する。
表示制御部87は、可視光現像処理部91からデータが供給された可視光画像に対して、画面上位置算出部85による変換後の3次元画像を合成し、合成後の可視光画像を表示装置15に表示させる。
可視光画像の特徴点から構成される3次元マップと、特殊光画像の特徴点から構成される3次元マップとがそれぞれ生成されている場合、前者の3次元マップが表示制御部87により表示されるようにしてもよい。例えば、可視光画像の特徴点から構成される3次元マップに対して、特殊光画像から検出された血管の情報を重畳するなどの表示が可能となる。
・CCUの動作
ここで、図11のフローチャートを参照して、図10の構成を有するCCU13の術野画像表示処理について説明する。
ステップS51乃至S55の処理は、図8のステップS21乃至S25の処理と同様の処理である。位置合わせ済みの特殊光画像と、可視光の照射中に撮像された可視光画像とが3次元マップ生成部83に供給される。
ステップS56において、3次元マップ生成部83は、3次元マップ生成/位置・姿勢推定処理を行う。ここで行われる3次元マップ生成/位置・姿勢推定処理が、複合SLAMの処理となる。3次元マップ生成/位置・姿勢推定処理の詳細については後述する。
ステップS57乃至S59の処理は、図8のステップS28乃至S30の処理と同様の処理である。3次元マップ生成/位置・姿勢推定処理による位置・姿勢の推定結果を用いて3次元画像の合成が行われ、3次元画像の合成後の可視光画像が表示される。
・3次元マップ生成/位置・姿勢推定処理
図12は、3次元マップ生成/位置・姿勢推定処理に用いられる特徴点の例を示す図である。
図12に示すように、3次元マップ生成/位置・姿勢推定処理においては、ある時刻tにおいて可視光画像から検出された特徴点Xn tと、特殊光画像から検出された特徴点Ym tのうち、信頼度の高い特徴点を残すようにして3次元マップが生成される。3次元マップは、信頼度の高い特徴点として残された特徴点Z1 t,・・・,Zp tにより構成される。
図13は、可視光画像から検出された特徴点と特殊光画像から検出された特徴点の例を示す図である。
図13の上段が、可視光画像から検出された特徴点を示す。図13の下段が、特殊光画像から検出された特徴点を示す。
右側の可視光画像上に示すように、時刻tのフレームの可視光画像(tフレーム目の可視光画像)から検出された特徴点Xn tの特徴量は、特徴量xn tとして表される。また、左側の可視光画像上に示すように、時刻t-1のフレームの可視光画像(t-1フレーム目の可視光画像)から検出された特徴点Xn t-1の特徴量は、特徴量xn t-1として表される。
可視光画像から検出されたそれぞれの特徴点Xn tの信頼度は、水平線で連結して示すように、特徴量xn tと、1フレーム前の対応する特徴点Xn t-1の特徴量である特徴量xn t-1とに基づいて算出される。
同様に、右側の特殊光画像上に示すように、tフレーム目の特殊光画像から検出された特徴点Ym tの特徴量は、特徴量ym tとして表される。また、左側の特殊光画像上に示すように、t-1フレーム目の特殊光画像から検出された特徴点Ym t-1の特徴量は、特徴量ym t-1として表される。
特殊光画像から検出された特徴点Ym tの信頼度は、水平線で連結して示すように、特徴量ym tと、1フレーム前の対応する特徴点Ym t-1の特徴量である特徴量ym t-1とに基づいて算出される。
図14は、特徴点を特殊光画像上に重ねて示す図である。
t-1フレーム目の特殊光画像上に特徴点Xn t-1と特徴点Ym t-1とを重ねた場合、図14の左側に示すものとなる。
一方、tフレーム目の特殊光画像上に特徴点Xn tと特徴点Ym tとを重ねた場合、図14の右側に示すものとなる。図14の右側に示すtフレーム目の特殊光画像上には、特徴点Xn tと特徴点Ym tだけでなく、特徴点Xn t-1と特徴点Ym t-1のうち、信頼度の高い特徴点も示されている。
例えば、位置P1の特徴点は信頼度の高い特徴点Ym t-1であり、位置P2の特徴点は信頼度の高い特徴点Xn t-1である。図14の右側の特殊光画像上に示すようなそれぞれの特徴点に基づいて、時刻tにおける3次元マップが生成される。
図15のフローチャートを参照して、図11のステップS56において行われる3次元マップ生成/位置・姿勢推定処理について説明する。
図15に示すように、可視光画像を対象としたステップS101乃至S104の処理と、特殊光画像を対象としたステップS105乃至S108の処理とは、例えば並行して行われる。
ステップS101において、図10の3次元マップ生成部83は、可視光現像処理部91から供給された可視光画像を取得する。
ステップS102において、3次元マップ生成部83は、tフレーム目とt-1フレーム目の画像内のN個の特徴点を抽出し、それぞれの特徴量の集合{x1 t,・・・,xN t},{x1 t-1,・・・,xN t-1}を求める。
ステップS103において、3次元マップ生成部83は、tフレーム目の特徴点Xn tの特徴量xn tと、t-1フレーム目の抽出された特徴量集合{x1 t-1,・・・,xN t-1}との距離を比較して、最も距離の小さくなる特徴点である対応特徴点を探索する。対応特徴点の特徴量がxn t-1となる。
距離dxn t(xn t,xn t-1),dym t(ym t,ym t-1)には、ユークリッド距離(L2ノルム)、ハミング距離等を用いることができる。距離dxn t(xn t,xn t-1)は、特徴量xn tと特徴量xn t-1との距離である。また、距離dym t(ym t,ym t-1)は、特徴量ym tと特徴量ym t-1との距離である。
ステップS104において、3次元マップ生成部83は、tフレーム目の特徴量xn tとt-1フレーム目の対応特徴点の特徴量xn t-1間の距離dxn t(xn t,xn t-1)の小ささに応じて、特徴点Xn tの信頼度を設定する。
信頼度には、距離の逆数の値が用いられるようにしてもよいし、距離とlog等の関数を組み合わせて求められた値が用いられるようにしてもよい。また、通常光と特殊光の影響度合いを調整するため、それぞれの信頼度に所定の係数が設定されるようにしてもよい。
以上の処理が、可視光画像の各フレームを対象として行われる。
一方、ステップS105において、3次元マップ生成部83は、位置合わせ処理部92から供給された位置合わせ済みの特殊光画像を取得する。
ステップS106において、3次元マップ生成部83は、tフレーム目とt-1フレーム目の画像内のM個の特徴点を抽出し、それぞれの特徴量の集合{y1 t,・・・,yM t},{y1 t-1,・・・,yM t-1}を求める。
ステップS107において、3次元マップ生成部83は、tフレーム目の特徴点Ym tの特徴量ym tと、t-1フレーム目の抽出された特徴量集合{y1 t-1,・・・,yM t-1}との距離を比較して、最も距離の小さくなる特徴点である対応特徴点を探索する。対応特徴点の特徴量がym t-1となる。
ステップS108において、3次元マップ生成部83は、tフレーム目の特徴点Ym tの特徴量ym tとt-1フレーム目の対応特徴点の特徴量ym t-1間の距離dym t(ym t,ym t-1)の小ささに応じて、特徴点Ym tの信頼度を設定する。
以上の処理が、特殊光画像の各フレームを対象として行われる。
ステップS109において、3次元マップ生成部83は、通常光画像内の特徴点Xn tと特殊光画像内の特徴点Ym tを、それぞれtフレーム目とt-1フレーム目の同一平面上に配置する。
ステップS110において、3次元マップ生成部83は、全特徴点{X1 t,・・・,XN t,Y1 t,・・・,YM t}のうち、信頼度が上位P個の特徴点の集合である特徴点集合{Z1 t,・・・,ZP t}を抽出する。
ステップS111において、3次元マップ生成部83は、特徴点集合{Z1 t,・・・,ZP t}と3次元マップを構成する特徴点に含まれる、tフレーム目とt-1フレーム目の対応特徴点の位置に基づいて、tフレーム目とt-1フレーム目のそれぞれを撮影したときの内視鏡11の自己位置と、特徴点集合{Z1 t,・・・,ZP t}の3次元位置との推定を行う。内視鏡11の自己位置と{Z1 t,・・・,ZP t}の3次元位置の推定は、バンドル調整を行いながら進められる。
この際、外れ値と思われる値については、例えば、RANSAC等の手法を用いて、特徴点集合{Z1 t,・・・,ZP t}から取り除かれる。外れ値が取り除かれた特徴点集合は、特徴点集合{Z1 t,・・・,ZP’ t}となる。
ステップS112において、3次元マップ生成部83は、あらかじめ定められた条件を満たす場合、特徴点集合{Z1 t,・・・,ZP’ t}を3次元マップに追加する。例えば、特徴点集合{Z1 t,・・・,ZP’ t}が過去の特徴点と比較して十分な信頼度を有しているなどの条件に基づいて、特徴点集合の追加が行われる。
以上の処理が繰り返されることにより、3次元マップ生成/位置・姿勢推定処理が行われる。
図16のフローチャートを参照して、他の3次元マップ生成/位置・姿勢推定処理について説明する。
図16に示す処理は、特徴点集合{Z1 t,・・・,ZP t}の抽出の仕方が異なる点で、図15を参照して説明した処理と異なる。すなわち、ステップS121乃至S129の処理は、図15のステップS101乃至S109の処理と同様の処理である。
ステップS130において、3次元マップ生成部83は、全特徴点{X1 t,・・・,XN t,Y1 t,・・・,YM t}のうち、信頼度が上位Q個の特徴点を選択する。また、3次元マップ生成部83は、Q個の特徴点に含まれる可視光画像の特徴点と特殊光画像の特徴点の数をそれぞれカウントし、含まれる数が多い方の特徴点集合{X1 t,・・・,XN t}または{Y1 t,・・・,YM t}を選択する。3次元マップ生成部83は、選択した特徴点集合{X1 t,・・・,XN t}または{Y1 t,・・・,YM t}から、信頼度が上位P個の特徴点を抽出し、特徴点集合{Z1 t,・・・,ZP t}とする。
このように、特徴点を各種の方法によって選択し、時刻tにおける3次元マップを構成する特徴点として用いることが可能である。
以上のように、可視光SLAMと特殊光SLAMを組み合わせた複合SLAMによって3次元マップの生成と位置・姿勢の推定を行うことにより、ロバスト性をより向上させることが可能となる。複数の光源によるSLAMの結果を用いることにより、単体の光源によるSLAMの結果を用いる場合と比べて、精度を向上させることが可能となる。
可視光SLAMの結果として得られた特徴点と、特殊光SLAMの結果として得られた特徴点を状況に応じて切り替え、複合SLAMの結果として用いるようにしてもよい。
複合SLAMによる内視鏡11の位置・姿勢の推定結果に基づいて、可視光SLAMによって得られた3次元マップと特殊光SLAMによって得られた3次元マップの位置合わせが行われ、1つの3次元マップが生成されるようにしてもよい。なお、可視光SLAMと特殊光SLAMによって得られた三次元マップの位置合わせは、機械学習を用いて行ってもよい。例えば、可視光SLAMの特徴量と、そのペアとなる特殊光SLAMの特徴量とを、予めラベリングされた学習データとして多層ニューラルネットワークの機械学習モデルに入力してパラメータを生成する。そして、機械学習モデルおよびパラメータに基づいて設定された位置合わせ用アルゴリズムに、可視光SLAMによって得られた特徴量と特殊光SLAMによって得られた特徴量を入力して、位置合わせを行ってもよい。
以上の一連の処理により、深部にある血管構造のエッジなどを特徴点とする特殊光SLAMにおいては、術中の処置を行う場面においても変化の少ない3次元マップを生成することができ、信頼性の高いSLAM結果を常に得ることが可能となる。
透過性の高い特殊光を用いた特殊光SLAMにおいては、ミスト、くもりなどによる可視光の情報が得られなくなる状況であっても、最新の情報を用いたSLAM結果を常に得ることが可能となる。
偏光を用いた特殊光SLAMにおいては、鏡面反射領域にある特徴点を特殊光画像から検出することができ、SLAM結果を得ることが可能となる。
<<変形例>>
可視光と複数種類の特殊光とを用いて、複合SLAMが行われるようにしてもよい。この場合、波長帯域が異なる複数種類の特殊光が照射され、それぞれの特殊光の照射中に撮像が行われることによって、複数種類の特殊光画像が生成される。複合SLAMは、可視光画像から検出された特徴点と、それぞれの特殊光画像から検出された特徴点とに基づいて行われる。
このように、複合SLAMにおいて用いられる特殊光の数を複数とすることが可能である。
<<適用例>>
<システム構成>
次に、図17を参照して、本技術の実施の形態に係る手術支援システムの適用例として、アームを備えた手術用ビデオ顕微鏡装置が用いられる場合の一例について説明する。
図17は、患者の体内を観察する観察用医療機器としての手術用ビデオ顕微鏡装置を用いた顕微鏡手術システムの一例を示している。
図17には、施術者(ユーザ)520である医師が、例えばメス、鑷子、鉗子などの手術用の器具521を使用して、施術台530上の施術対象(患者)540に対して手術を行っている様子が示されている。
なお、以下の説明において、施術とは、手術や検査など、ユーザ520である医師が施術対象540である患者に対して行う各種の医療的な処置の総称であるものとする。また、図17の例では、施術の一例として手術の様子が示されているが、手術用ビデオ顕微鏡装置510が用いられる施術は手術に限定されず、他の各種の施術であってもよい。
施術台530の脇には、本技術の実施の形態に係る手術用ビデオ顕微鏡装置510が設けられる。
手術用ビデオ顕微鏡装置510は、基台であるベース部511、ベース部511から延伸するアーム部512、そして、アーム部512の先端に先端ユニットとして接続される撮像ユニット515を備える。
アーム部512は、複数の関節部513a、513b、513c、関節部513a、513bによって連結される複数のリンク514a、514b、そして、アーム部512の先端に設けられる撮像ユニット515を有する。
図17の例では、簡単のため、アーム部512は3つの関節部513a乃至513cと2つのリンク514a、514bを有している。実際には、アーム部512と撮像ユニット515の位置および姿勢の自由度を考慮して、所望の自由度を実現するように関節部513a乃至513cとリンク514a、514bの数や形状、関節部513a乃至513cの駆動軸の方向などが適宜設定されてもよい。
関節部513a乃至513cは、リンク514a、514bを互いに回動可能に連結する機能を有し、関節部513a乃至513cの回転が駆動されることにより、アーム部512の駆動が制御される。
アーム部512の先端には、先端ユニットとして撮像ユニット515が接続されている。
撮像ユニット515は、被写体の光学像を取得する光学系を含むことで、撮像対象の画像を取得するユニットであり、例えば動画像や静止画像を撮像できるカメラなどとして構成される。図17に示されるように、アーム部512の先端に設けられた撮像ユニット515が、施術対象540の施術部位の様子を撮像するように、手術用ビデオ顕微鏡装置510によってアーム部512と撮像ユニット515の自己位置および姿勢が制御される。
なお、アーム部512の先端に先端ユニットとして接続される撮像ユニット515の構成は特に限定されず、例えば、撮像ユニット515は、内視鏡や顕微鏡として構成されてもよい。また、撮像ユニット515は、アーム部512に対して着脱可能に構成されてもよい。
このような構成により、例えば、利用用途に応じた撮像ユニット515が、アーム部512の先端に先端ユニットとして適宜接続されてもよい。なお、ここでは、先端ユニットとして撮像ユニット515が適用されている場合に着目して説明するが、アーム部512の先端に接続される先端ユニットは、必ずしも撮像ユニット515に限定されないことは言うまでもない。
また、ユーザ520と対向する位置には、モニタやディスプレイなどの表示装置550が設置される。撮像ユニット515により取得された施術部位の画像は、例えば、手術用ビデオ顕微鏡装置510に内蔵または外付けされた画像処理装置により、各種画像処理が施されたうえで、表示装置550の表示画面に電子画像として表示される。
このような構成により、ユーザ520は、表示装置550の表示画面に表示される施術部位の電子画像を見ながら各種の処置(例えば手術など)を行うことが可能となる。
ここで、図17の例では、撮像ユニット515が、例えば、図3等を参照して説明した撮像部51を含む。また、撮像ユニット515により取得された施術部位の画像に対して、各種画像処理を施す画像処理装置が、図3等を参照して説明した情報処理部71の一例に相当する。
<ハードウェア構成>
次に、図18を参照して、本技術の実施の形態に係る手術支援システムを構成する情報処理装置のハードウェア構成の一例について、詳細に説明する。
図18は、本技術の実施の形態に係る手術支援システムを構成する情報処理装置900のハードウェア構成の一例を示すブロック図である。
図18に示されるように、情報処理装置900は、CPU901,ROM903,およびRAM905を備えている。さらに、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インタフェース913、入力装置915、出力装置917、およびストレージ装置919を備えている。なお、情報処理装置900は、ドライブ921、接続ポート923、通信装置925を備えてもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。
ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータなどを一次記憶する。これらは、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。なお、図3等を参照して説明した情報処理部71の各構成は、例えばCPU901により実現される。
ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。外部バス911には、インタフェース913を介して、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、および通信装置925が接続される。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、レバー、およびペダルなど、ユーザが操作する操作手段である。また、入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよい。入力装置915は、例えば、情報処理装置900の操作に対応した携帯電話機、スマートフォン、またはタブレット端末などの外部接続機器929であってもよい。
入力装置915は、例えば、上述した操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。
ユーザは、入力装置915を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。具体的には、出力装置917は、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置、およびランプなどの表示装置や、スピーカおよびヘッドホンなどの音声出力装置、プリンタ装置などとして構成される。
出力装置917は、例えば、情報処理装置900が行った各種の処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキストまたはイメージで表示する。他方、音声出力装置は、再生された音声データや音響データなどからなるオーディオ信号をアナログ信号に変換して出力する。
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。ストレージ装置919は、CPU901が実行するプログラムや各種データなどを格納する。
ドライブ921は、記録媒体用リーダライタであり、情報処理装置900に内蔵されるか、または外付けされる。ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927に記録される情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927に記録を書き込むことも可能である。
リムーバブル記録媒体927は、例えば、DVDメディア、HD-DVDメディア、またはBlu-ray(登録商標)メディアなどである。また、リムーバブル記録媒体927は、コンパクトフラッシュ(登録商標)(CF:CompactFlash)、フラッシュメモリ、またはSD(Secure Digital)メモリカードなどであってもよい。さらに、リムーバブル記録媒体927は、例えば、非接触型ICチップを搭載したIC(Integrated Circuit)カード、または電子機器などであってもよい。
接続ポート923は、外部接続機器929を情報処理装置900に直接接続するためのポートである。接続ポート923の一例としては、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどがある。接続ポート923の別の例としては、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどがある。接続ポート923に外部接続機器929を接続することで、情報処理装置900は、外部接続機器929から直接各種のデータを取得したり、外部接続機器929に各種のデータを提供したりする。
通信装置925は、例えば、通信網(ネットワーク)931に接続するための通信デバイスなどで構成された通信インタフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどである。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または各種通信用のモデムなどであってもよい。
通信装置925は、例えば、インターネットや他の通信機器との間で、例えばTCP/IPなどの所定のプロトコルに則して信号を送受信することができる。また、通信装置925に接続される通信網931は、有線または無線によって接続されたネットワークなどにより構成されるようにしてもよい。通信網931は、例えば、インターネットや家庭内LANであってもよいし、赤外線通信、ラジオ波通信、または衛星通信が行われる通信網であってもよい。
図18の情報処理装置900の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。したがって、本技術の実施の形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
さらに、本技術の実施の形態に係る手術支援システムを構成する情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータなどに実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体を提供することも可能である。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、コンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであってもよいし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであってもよい。
<その他>
本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
<構成の組み合わせ例>
本技術は、以下のような構成をとることもできる。
(1)
術野を撮像する撮像部と、
所定の波長帯域を有する観察光、または前記所定の波長帯域とは異なる波長帯域を有する特殊光を前記術野に照射する光源部と、
前記特殊光の照射中に前記撮像部により撮像した特殊光画像に基づいて3次元情報を生成する制御部と
を備える医療用観察システム。
(2)
前記制御部は、前記術野を含む空間の形状を表す前記3次元情報を生成し、生成した前記3次元情報に基づいて、前記特殊光画像の撮影時の前記撮像部の位置と姿勢を推定する
前記(1)に記載の医療用観察システム。
(3)
前記特殊光の照射中に前記術野の撮像を行った前記撮像部から供給された信号に基づいて、観察用の画像を生成する現像処理部と、
前記撮像部の位置と姿勢の推定結果に応じた前記観察用の画像を表示させる表示制御部と
をさらに備える前記(1)または(2)に記載の医療用観察システム。
(4)
前記撮像部は、
前記観察光用の撮像素子である観察光用撮像素子と、
前記特殊光用の撮像素子である特殊光用撮像素子と
を有する
前記(1)または(2)に記載の医療用観察システム。
(5)
前記観察光の照射中に前記観察光用撮像素子により前記術野の撮像を行った前記撮像部から供給された信号に基づいて、観察用の画像を生成する現像処理部と、
前記撮像部の位置と姿勢の推定結果に応じた前記観察用の画像を表示させる表示制御部と
をさらに備える前記(4)に記載の医療用観察システム。
(6)
前記制御部は、前記特殊光の照射中に前記特殊光用撮像素子により撮像した前記特殊光画像と、前記観察光の照射中に前記観察光用撮像素子により撮像した観察光画像とに基づいて前記3次元情報を生成する
前記(5)に記載の医療用観察システム。
(7)
前記制御部は、前記特殊光画像内の特徴点と前記観察光画像内の特徴点とから構成される前記3次元情報を生成する
前記(6)に記載の医療用観察システム。
(8)
前記制御部は、前記特殊光画像内の特徴点と前記観察光画像内の特徴点とのそれぞれの信頼度を特徴量に基づいて算出し、前記信頼度が高い所定の数の特徴点を、前記3次元情報を構成する特徴点として用いることによって前記3次元情報を生成する
前記(7)に記載の医療用観察システム。
(9)
前記特殊光が有する波長帯域は、前記観察光が有する前記所定の波長帯域より長波長の帯域である
前記(1)乃至(8)のいずれかに記載の医療用観察システム。
(10)
前記観察光は、前記術野の表層において反射する光であり、
前記特殊光は、前記術野の深部の構造において反射する光である
前記(1)乃至(8)のいずれかに記載の医療用観察システム。
(11)
前記観察光は、前記術野の表層において反射する光であり、
前記特殊光は、前記術野の表層の血管において反射する光である
前記(1)乃至(8)のいずれかに記載の医療用観察システム。
(12)
前記特殊光は、偏光フィルタを通して得られた光である
前記(1)乃至(8)のいずれかに記載の医療用観察システム。
(13)
前記特殊光は、所定のパターン光を前記術野に照射する光である
前記(1)乃至(8)のいずれかに記載の医療用観察システム。
(14)
前記特殊光は、所定の波長の光に対してパルス変調を加えることによって得られた光である
前記(1)乃至(8)のいずれかに記載の医療用観察システム。
(15)
医療用観察システムが、
撮像部により術野を撮像し、
光源部により、所定の波長帯域を有する観察光、または前記所定の波長帯域とは異なる波長帯域を有する特殊光を前記術野に照射し、
前記特殊光の照射中に前記撮像部により撮像した特殊光画像に基づいて3次元情報を生成する
医療用観察方法。
(16)
所定の波長帯域を有する観察光、または前記所定の波長帯域とは異なる波長帯域を有する特殊光を術野に照射する光源部による前記特殊光の照射中に前記術野を撮像した特殊光画像に基づいて、3次元情報を生成する制御部を備える
情報処理装置。
1 医療用観察システム, 11 内視鏡, 13 CCU, 15 表示装置, 17 光源装置, 51 撮像部,61 特殊光照射部, 62 特殊光用イメージセンサ, 63 可視光照射部, 64 可視光用イメージセンサ, 71 情報処理部, 81 特殊光現像処理部, 82 特殊光観察用現像処理部, 83 3次元マップ生成部, 84 3次元マップ記憶部, 85 画面上位置算出部, 86 3次元情報記憶部, 87 表示制御部, 91 可視光現像処理部, 92 位置合わせ処理部

Claims (13)

  1. 術野を撮像する撮像部と、
    可視光が有する波長帯域とは異なる波長帯域を有する特殊光を前記術野に照射する光源部と、
    前記特殊光の照射中に前記撮像部により撮像した特殊光画像に基づいてSLAMを行うことによって得られた特徴点に基づいて、前記術野を含む空間の形状を表す3次元情報を生成し、生成した前記3次元情報に基づいて、前記特殊光画像の撮影時の前記撮像部の位置と姿勢を推定する制御部と
    を備える医療用観察システム。
  2. 前記特殊光の照射中に前記術野の撮像を行った前記撮像部から供給された信号に基づいて、観察用の画像を生成する現像処理部と、
    前記撮像部の位置と姿勢の推定結果に応じた前記観察用の画像を表示させる表示制御部と
    をさらに備える請求項1に記載の医療用観察システム。
  3. 前記光源部は、観察光となる可視光をさらに照射する
    請求項1に記載の医療用観察システム。
  4. 前記撮像部は、
    前記観察光用の撮像素子である観察光用撮像素子と、
    前記特殊光用の撮像素子である特殊光用撮像素子と
    を有する
    請求項に記載の医療用観察システム。
  5. 前記観察光の照射中に前記観察光用撮像素子により前記術野の撮像を行った前記撮像部から供給された信号に基づいて、観察用の画像を生成する現像処理部と、
    前記撮像部の位置と姿勢の推定結果に応じた前記観察用の画像を表示させる表示制御部と
    をさらに備える請求項4に記載の医療用観察システム。
  6. 前記制御部は、前記特殊光の照射中に前記特殊光用撮像素子により撮像した前記特殊光画像と、前記観察光の照射中に前記観察光用撮像素子により撮像した観察光画像とに基づいてSLAMを行うことによって得られた特徴点に基づいて前記3次元情報を生成する
    請求項5に記載の医療用観察システム。
  7. 前記制御部は、前記特殊光画像内の特徴点と前記観察光画像内の特徴点とから構成される前記3次元情報を生成する
    請求項6に記載の医療用観察システム。
  8. 前記制御部は、前記特殊光画像内の特徴点と前記観察光画像内の特徴点とのそれぞれの信頼度を特徴量に基づいて算出し、前記信頼度が高い所定の数の特徴点を、前記3次元情報を構成する特徴点として用いることによって前記3次元情報を生成する
    請求項7に記載の医療用観察システム。
  9. 前記特殊光が有する波長帯域は、前記観察光が有する波長帯域より長波長の帯域である
    請求項に記載の医療用観察システム。
  10. 前記観察光は、前記術野の表層において反射する光であり、
    前記特殊光は、前記術野の深部の構造において反射する光である
    請求項に記載の医療用観察システム。
  11. 前記観察光は、前記術野の表層において反射する光であり、
    前記特殊光は、前記術野の表層の血管において反射する光である
    請求項に記載の医療用観察システム。
  12. 医療用観察システムが、
    撮像部により術野を撮像し、
    光源部により、可視光が有する波長帯域とは異なる波長帯域を有する特殊光を前記術野に向けて出射し、
    前記特殊光の出射中に前記撮像部により撮像した特殊光画像に基づいてSLAMを行うことによって得られた特徴点に基づいて、前記術野を含む空間の形状を表す3次元情報を生成し、
    生成した前記3次元情報に基づいて、前記特殊光画像の撮影時の前記撮像部の位置と姿勢を推定する
    医療用観察方法。
  13. 可視光が有する波長帯域とは異なる波長帯域を有する特殊光を術野に照射する光源部による前記特殊光の照射中に撮像部によって前記術野を撮像した特殊光画像に基づいてSLAMを行うことによって得られた特徴点に基づいて、前記術野を含む空間の形状を表す3次元情報を生成し、生成した前記3次元情報に基づいて、前記特殊光画像の撮影時の前記撮像部の位置と姿勢を推定する制御部を備える
    情報処理装置。
JP2019115405A 2019-06-21 2019-06-21 医療用観察システム、医療用観察方法、および情報処理装置 Active JP7354608B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019115405A JP7354608B2 (ja) 2019-06-21 2019-06-21 医療用観察システム、医療用観察方法、および情報処理装置
CN202080043388.7A CN114126531A (zh) 2019-06-21 2020-06-19 医疗成像系统、医疗成像处理方法及医疗信息处理设备
EP20736468.8A EP3962345A1 (en) 2019-06-21 2020-06-19 Medical imaging system, medical imaging processing method, and medical information processing apparatus
US17/608,525 US20220225860A1 (en) 2019-06-21 2020-06-19 Medical imaging system, medical imaging processing method, and medical information processing apparatus
PCT/JP2020/024060 WO2020256089A1 (en) 2019-06-21 2020-06-19 Medical imaging system, medical imaging processing method, and medical information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019115405A JP7354608B2 (ja) 2019-06-21 2019-06-21 医療用観察システム、医療用観察方法、および情報処理装置

Publications (2)

Publication Number Publication Date
JP2021000258A JP2021000258A (ja) 2021-01-07
JP7354608B2 true JP7354608B2 (ja) 2023-10-03

Family

ID=71452698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019115405A Active JP7354608B2 (ja) 2019-06-21 2019-06-21 医療用観察システム、医療用観察方法、および情報処理装置

Country Status (5)

Country Link
US (1) US20220225860A1 (ja)
EP (1) EP3962345A1 (ja)
JP (1) JP7354608B2 (ja)
CN (1) CN114126531A (ja)
WO (1) WO2020256089A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016093210A (ja) 2014-11-12 2016-05-26 ソニー株式会社 画像処理装置、画像処理方法、並びにプログラム
WO2016181454A1 (ja) 2015-05-11 2016-11-17 オリンパス株式会社 内視鏡装置
WO2016194178A1 (ja) 2015-06-03 2016-12-08 オリンパス株式会社 撮像装置、内視鏡装置及び撮像方法
WO2018008136A1 (ja) 2016-07-07 2018-01-11 オリンパス株式会社 画像処理装置および画像処理装置の作動方法
JP2020010763A (ja) 2018-07-13 2020-01-23 パナソニック株式会社 内視鏡システム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003077749A2 (en) * 2002-03-12 2003-09-25 Beth Israel Deaconess Medical Center Medical imaging systems
DE602005004332T2 (de) * 2004-06-17 2009-01-08 Cadent Ltd. Verfahren zum Bereitstellen von Daten im Zusammenhang mit der Mundhöhle
CA2730429C (en) * 2008-07-24 2018-02-20 Massachusetts Institute Of Technology Systems and methods for imaging using absorption
JP2012165838A (ja) * 2011-02-10 2012-09-06 Nagoya Univ 内視鏡挿入支援装置
US20140336461A1 (en) * 2012-04-25 2014-11-13 The Trustees Of Columbia University In The City Of New York Surgical structured light system
JP5930531B2 (ja) * 2012-05-24 2016-06-08 三菱電機エンジニアリング株式会社 撮像装置および撮像方法
CN103356155B (zh) * 2013-06-24 2014-12-31 清华大学深圳研究生院 虚拟内窥镜辅助的腔体病灶检查系统
EP3031386B1 (en) * 2013-09-10 2021-12-29 Sony Group Corporation Image processing device and program
JP6854237B2 (ja) * 2014-03-28 2021-04-07 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 視野内の器具の定量的三次元視覚化
US10237534B2 (en) * 2014-07-07 2019-03-19 Infineon Technologies Ag Imaging device and a method for producing a three-dimensional image of an object
JP7289653B2 (ja) 2016-03-31 2023-06-12 ソニーグループ株式会社 制御装置、内視鏡撮像装置、制御方法、プログラムおよび内視鏡システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016093210A (ja) 2014-11-12 2016-05-26 ソニー株式会社 画像処理装置、画像処理方法、並びにプログラム
WO2016181454A1 (ja) 2015-05-11 2016-11-17 オリンパス株式会社 内視鏡装置
WO2016194178A1 (ja) 2015-06-03 2016-12-08 オリンパス株式会社 撮像装置、内視鏡装置及び撮像方法
WO2018008136A1 (ja) 2016-07-07 2018-01-11 オリンパス株式会社 画像処理装置および画像処理装置の作動方法
JP2020010763A (ja) 2018-07-13 2020-01-23 パナソニック株式会社 内視鏡システム

Also Published As

Publication number Publication date
US20220225860A1 (en) 2022-07-21
EP3962345A1 (en) 2022-03-09
JP2021000258A (ja) 2021-01-07
WO2020256089A1 (en) 2020-12-24
CN114126531A (zh) 2022-03-01

Similar Documents

Publication Publication Date Title
US20220331052A1 (en) Cooperation among multiple display systems to provide a healthcare user customized information
WO2019181632A1 (en) Surgical assistance apparatus, surgical method, non-transitory computer readable medium and surgical assistance system
WO2020045015A1 (ja) 医療システム、情報処理装置及び情報処理方法
CN109219384B (zh) 内窥镜图像与超声图像的基于图像的融合
JP5486432B2 (ja) 画像処理装置、その作動方法およびプログラム
US10904437B2 (en) Control apparatus and control method
WO2017159335A1 (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
US11354818B2 (en) Medical imaging system, method and computer program product
KR20140139840A (ko) 디스플레이 장치 및 그 제어방법
JP2020156800A (ja) 医療用アームシステム、制御装置、及び制御方法
WO2007115825A1 (en) Registration-free augmentation device and method
JP7427251B2 (ja) 内視鏡設計における血流および灌流撮像および定量化のためのレーザ撮像方法およびシステムを用いたマルチスペクトル生理機能視覚化(mspv)
WO2019202827A1 (ja) 画像処理システム、画像処理装置、画像処理方法及びプログラム
JP2018108173A (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
WO2019155931A1 (ja) 手術システム、画像処理装置及び画像処理方法
WO2020262262A1 (ja) 医療用観察システム、制御装置及び制御方法
JP7354608B2 (ja) 医療用観察システム、医療用観察方法、および情報処理装置
WO2020008920A1 (ja) 医療用観察システム、医療用観察装置、及び医療用観察装置の駆動方法
WO2021095697A1 (ja) 情報処理装置、生成方法及び生成プログラム
WO2020203405A1 (ja) 医療用観察システムおよび方法、並びに医療用観察装置
JP2020512108A (ja) 医用撮像装置及び内視鏡
JP2023507063A (ja) 手術中に画像取込装置を制御するための方法、装置、およびシステム
WO2020009127A1 (ja) 医療用観察システム、医療用観察装置、及び医療用観察装置の駆動方法
US20220148209A1 (en) Medical system, signal processing device, and signal processing method
WO2021095773A1 (ja) 情報処理装置、生成方法及び生成プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230904

R151 Written notification of patent or utility model registration

Ref document number: 7354608

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151