JP7312394B2 - 脈管認識装置、脈管認識方法および脈管認識システム - Google Patents

脈管認識装置、脈管認識方法および脈管認識システム Download PDF

Info

Publication number
JP7312394B2
JP7312394B2 JP2019060805A JP2019060805A JP7312394B2 JP 7312394 B2 JP7312394 B2 JP 7312394B2 JP 2019060805 A JP2019060805 A JP 2019060805A JP 2019060805 A JP2019060805 A JP 2019060805A JP 7312394 B2 JP7312394 B2 JP 7312394B2
Authority
JP
Japan
Prior art keywords
image
vessel
captured
captured image
fluorescence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019060805A
Other languages
English (en)
Other versions
JP2020156860A (ja
Inventor
悦朗 波多野
寛 鳥口
淳 加藤
健二 小林
健史 島田
義隆 北岡
朋之 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyogo College of Medicine
I Pro Co Ltd
Original Assignee
Hyogo College of Medicine
I Pro Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyogo College of Medicine, I Pro Co Ltd filed Critical Hyogo College of Medicine
Priority to JP2019060805A priority Critical patent/JP7312394B2/ja
Priority to PCT/JP2019/050141 priority patent/WO2020194942A1/ja
Publication of JP2020156860A publication Critical patent/JP2020156860A/ja
Application granted granted Critical
Publication of JP7312394B2 publication Critical patent/JP7312394B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)

Description

本開示は、術野を撮像した撮像画像内に映る脈管を認識する脈管認識装置、脈管認識方法および脈管認識システムに関する。
従来、デジタルサブトラクションアンギオグラフィ(DSA)において血管造影を行う際、血管に造影剤を注入した後に得られるライブ像の表示だけでは造影剤が希釈されるために血管の観察が困難である。そこで、特許文献1には、血管だけが現れるサブトラクション像と少なくとも骨が現れるマスク像あるいはライブ像とを利用し、サブトラクション像だけを強調処理してサブトラクション像とマスク像あるいはライブ像との加算により、血管と骨との位置関係が明確に判明可能な画像を得る、DSA後処理血管部の強調表示装置が開示されている。
特開昭63-139532号公報
ここで、上述した血管が組織内で複雑に入り組んで構成される臓器として、例えば肝臓が知られている。肝臓における肝静脈あるいはグリソン鞘は複雑に交差しながら網目状に走行し、その走行パターンは個人個人で異なる。また、手術前のCTスキャン(コンピュータ断層診断)あるいはMRI(磁気共鳴画像)処理では描出が困難な程に細い血管(脈管の一例)が存在し、更に手術中には臓器の変形等によって脈管の位置が微妙に変化することがある。手術中において脈管が切除対象の切離面に現れる予感とその認識力は相当の経験を積んだ熟練医師により培われた観察眼(いわゆる暗黙知)に頼るところが大きく、肝臓等の脈管が複雑に入り組んだ臓器を対象とする手術の難易度が高くなっているという課題があった。
本開示は、上述した従来の状況に鑑みて案出され、術野に現れる脈管を一早く認識する熟練医師の暗黙知と同等の脈管の認識機能をリアルタイムかつ高精度に再現し、切離面に現れる脈管の箇所を報知し、安心安全な手術の提供を支援する脈管認識装置、脈管認識方法および脈管認識システムを提供することを目的とする。
本開示は、術野を撮像する撮像装置と接続される脈管認識装置であって、前記撮像装置によって撮像された前記術野の撮像画像に基づいて、前記撮像画像に含まれる脈管を認識し、前記撮像画像に含まれる前記脈管の領域の画像を生成する画像処理部と、前記脈管の領域の画像と前記撮像画像とを重畳した合成画像をモニタに出力する画像出力部と、を備え、前記撮像装置は、前記術野内の腫瘍部に集積した蛍光薬剤の蛍光発光に基づく蛍光を撮像可能であり、前記画像出力部は、前記術野の撮像画像内において前記蛍光の撮像に基づく前記腫瘍部の蛍光画像と前記脈管との両方が認識され、かつ前記蛍光画像の一部と前記脈管の位置を中心とする所定径の円領域の一部とが重複する場合、前記撮像画像内における前記脈管の位置を中心とする所定径の円領域の少なくとも一部について強調表示させる情報をモニタに出力する、脈管認識装置を提供する。
また、本開示は、術野を撮像する撮像装置と接続される脈管認識装置により実行される脈管認識方法であって、前記撮像装置によって撮像された前記術野の撮像画像に基づいて、前記撮像画像に含まれる脈管を認識し、前記撮像画像に含まれる前記脈管の領域の画像を生成することと、前記脈管の領域の画像と前記撮像画像とを重畳した合成画像をモニタに出力することと、前記撮像装置によって撮像された前記術野内の腫瘍部に集積した蛍光薬剤の蛍光発光に基づく前記腫瘍部の蛍光画像を生成することと、前記腫瘍部の蛍光画像と前記脈管との両方が認識され、かつ前記蛍光画像の一部と前記脈管の位置を中心とする所定径の円領域の一部とが重複する場合、前記撮像画像内における前記脈管の位置を中心とする所定径の円領域の少なくとも一部を強調表示させる情報をモニタに出力することと、を含む、脈管認識方法を提供する。
また、本開示は、術野を撮像する撮像装置と脈管認識装置とが互いに接続される脈管認識システムであって、前記脈管認識装置は、前記撮像装置によって撮像された前記術野の撮像画像に基づいて、前記撮像画像に含まれる脈管を認識し、前記撮像画像に含まれる前記脈管の領域の画像を生成し、前記脈管の領域の画像と前記撮像画像とを重畳した合成画像をモニタに出力前記撮像装置によって撮像された前記術野内の腫瘍部に集積した蛍光薬剤の蛍光発光に基づく前記腫瘍部の蛍光画像を生成し、前記術野の撮像画像内において前記腫瘍部の前記蛍光画像と前記脈管との両方が認識され、かつ前記蛍光画像の一部と前記脈管の位置を中心とする所定径の円領域の一部とが重複する場合、前記撮像画像内における前記脈管の位置を中心とする所定径の円領域のうち少なくとも一部を強調表示させる情報をモニタに出力する、脈管認識システムを提供する。
本開示によれば、術野に現れる脈管を一早く認識する熟練医師の暗黙知と同等の脈管の認識機能をリアルタイムかつ高精度に再現し、切離面に現れる脈管の箇所を報知し、安心安全な手術の提供を支援できる。
実施の形態1に係る医用画像投影システムの概略構成例を示す図 医用画像投影システムの具体的な構成を示す図 実施の形態1に係る医用画像投影システムの動作手順例を示すフローチャート 脈管の画像認識機能により検出された脈管に対し脈管特定画像が投影される臓器の画像を示す図 実施の形態2に係る内視鏡システムの概略構成例を示す図 内視鏡システムの概要を示す図 実施の形態2に係る内視鏡システムの動作手順例を示すフローチャート 実施の形態1の変形例2に係る開腹手術を行う際のシーンを表すシーン判定テーブルの登録内容を示す図 実施の形態1の変形例3に係る脈管特定画像が臓器に重畳して表示されるモニタの画面を示す図 実施の形態1の変形例4に係るICG蛍光画像と脈管特定画像とが一部重なって臓器を含む撮像画像に重畳して表示されるモニタの画面を示す図 実施の形態1の変形例5に係るICG蛍光画像と脈管特定画像が撮像画像に含まれる臓器と重なる場合、モニタに表示されるICG蛍光画像と脈管特定画像を模式的に示す図
以下、適宜図面を参照しながら、本開示に係る脈管認識装置、脈管認識方法および脈管認識システムの構成および動作を具体的に開示した実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
(実施の形態1)
先ず、実施の形態1に係る脈管認識システムの一例として、医用画像投影システム(MIPS:Medical Imaging Projection System)を例示して説明する。図1は、実施の形態1に係る医用画像投影システム5の概略構成例を示す図である。医用画像投影システム5は、ICG(Indocyanine Green)等の蛍光薬剤が集積した腫瘍部の蛍光画像を臓器に直接プロジェクションマッピングし、医師等の術者が術野から目を離すことなく血流域と阻血域の境界をリアルタイムに可視化するシステムである。ここで、脈管は、体内を血液が流れる血管やリンパ液が流れるリンパ管を含む。また、グリソン鞘は、肝臓を流れる血管や胆管を内包する組織である。実施の形態1では、グリソン鞘も、脈管と同様に取り扱うこととする。
医用画像投影システム5は、撮像照射装置20と、脈管認識装置の一例としてのカメラコントロールユニット10(CCU:Camera Control Unit)と、モニタ30とを含む構成である。
撮像照射装置20は、白色光(つまり可視光)を照射して術野を照明し、被検体(例えば人物)の患部(例えば臓器)で反射された反射光を受光して可視光画像を撮像する。撮像照射装置20は、赤外光を照射して患部等に集積された蛍光薬剤を励起し、蛍光薬剤の蛍光発光により生じた蛍光を含む赤外光を受光して蛍光画像を撮像する。また、撮像照射装置20は、患部(例えば臓器)に対し、脈管の位置を教示する脈管特定画像を投影する。撮像照射装置20は、カメラヘッド21と、プロジェクタ22と、光源23とを含む構成である。
撮像装置の一例としてのカメラヘッド21は、可視光用イメージセンサ25AおよびIRカットフィルタ26Aを含む可視光センサユニット24Aと、赤外光用イメージセンサ25Bおよび可視光カットフィルタ26Bを含む赤外光センサユニット24Bとを含む。
IRカットフィルタ26Aは、光源23から患部(例えば臓器)に照射され、患部で反射されたIRの波長帯を有する励起光(IR光:Infrared Light)を遮断(カット)する。可視光用イメージセンサ25Aは、IRカットフィルタ26Aを通過した可視光(つまり患部で反射された可視光)を受光し、可視光画像を撮像する。
可視光カットフィルタ26Bは、光源23から患部(例えば臓器)に照射され、患部で反射された可視光を遮断(カット)する。また、可視光カットフィルタ26Bは、可視光だけでなく、励起光の波長帯域(例えば690nm~820nm)のIR光を遮断(カット)する。赤外光用イメージセンサ25Bは、可視光カットフィルタ26Bを通過した蛍光(つまり、患部に集積した蛍光薬剤の蛍光発光に基づいて発した蛍光)を受光し、蛍光画像を撮像する。
カメラヘッド21は、例えば可視光画像と蛍光画像とを時分割で撮像する。光源23が白色光を発光する時、カメラヘッド21は、光学フィルタをIRカットフィルタ26Aに切り替える。この時、可視光用イメージセンサ25Aは、IRカットフィルタ26Aを通過した可視光を受光して可視光画像を撮像する。
また、光源23が赤外光を発光する時、カメラヘッド21は、光学フィルタを可視光カットフィルタ26Bに切り替える。この時、赤外光用イメージセンサ25Bは、可視光カットフィルタ26Bを通過した蛍光(上述参照)を受光して蛍光画像を撮像する。
なお、カメラヘッド21は、IRカットフィルタ26Aと可視光カットフィルタ26Bを併用できる構成である場合、可視光画像と蛍光画像を同時に撮像できる。また、可視光用イメージセンサ25Aおよび赤外光用イメージセンサ25Bを構成するイメージセンサは、例えばCMOS(Complementary Metal Oxide Semiconductor)が用いられるが、CCD(Charged Coupled Device)が用いられてもよい。
光源23は、蛍光薬剤(例えばインドシアニングリーン)を励起するためのIR帯の励起光(例えば波長760nmの光)を照射する。また、光源23は、白色光(例えば波長700nm以下の光)を照射する。光源23は、IR励起光と白色光を時分割であるいは同時に発光可能である。
プロジェクタ22は、カメラヘッド21により撮像された患部の撮像画像内に脈管が検出および認識された場合に、脈管の形状を教示する(言い換えれば、特徴付ける)ための脈管特定画像を生成し、その脈管特定画像に対応する投影光を術野内の患部に投影する。なお、プロジェクタ22は、脈管特定画像をカメラコントロールユニット10から取得してもよい。このとき、プロジェクタ22は、脈管特定画像の位置が患部の表面に現れた脈管の位置と一致、もしくは脈管特定画像が脈管の外形状を覆うように、脈管特定画像に対応する投影光を投影する。以下、脈管特定画像に対応する投影光の投影を、単に、脈管特定画像の投影と称する。プロジェクタ22内の構成は周知のプロジェクタの構成と同一でよいため、詳細な説明は省略するが、プロジェクタ22は投影光を投影するための投影光源および投影光学系と、脈管特定画像を生成するための画像形成部とを含む。プロジェクタ22は、例えばDLP(Digital Light Processing)方式、3LCD(Liquid Crystal Display)方式、LCOS(Liquid Crystal On Silicon)方式等、いずれの方式を採用したプロジェクタでよい。
カメラコントロールユニット10は、撮像照射装置20、モニタ30およびマウス45(図2参照)との間で電気的に接続され、これらの装置の動作を統括的に制御する。カメラコントロールユニット10は、画像入力部11と、画像処理部12と、画像出力部13とを含む。
画像入力部11は、カメラヘッド21により撮像された手術時の撮像画像のデータを入力する。画像入力部11は、専用の画像入力インターフェースの他、映像データを高速に転送可能なHDMI(登録商標)(High-Definition Multimedia Interface)あるいはUSB(Universal Serial Bus) Type-C等をインターフェースでもよい。
カメラコントロールユニット10は、プロセッサおよび内蔵メモリを有し、プロセッサが内蔵メモリに記憶されたプログラムを実行することで、画像処理部12および画像出力部13の機能を具体的に実現する。プロセッサは、画像処理に適したGPU(Graphical Processing Unit)でよい。なお、画像処理部12は、GPUの代わりに、MPU(Micro Processing Unit)、CPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)等で設計された専用の電子回路や、FPGA(Field Programmable Gate Array)等で再構成可能に設計された電子回路で構成されてもよい。
画像処理部12は、人工知能(AI:Artificial Intelligent)を搭載し、画像入力部11により入力された撮像画像内に映る脈管を検出および認識するための画像認識機能を有する。画像処理部12は、人工知能が搭載された学習済みモデルを用いて、上述した画像認識機能を実現可能である。学習済みモデルは、医用画像投影システム5の実運用の開始前に予め生成される。学習済みモデルの生成手順は、次のような手順で行われる。
先ず、医用画像投影システム5のユーザ(例えば管理者あるいは運営者)により、手術時の撮像映像のデータが用意される。なお、この撮像映像のデータには、医師により、それぞれの撮像映像内に映る臓器等の箇所の名称等を含む所見が音声で吹き込まれて説明された音声のデータも含まれている。例えば、1症例当たり1000枚程度の撮像画像が使用されてそれぞれの撮像画像内に映る臓器の名称等を含む所見が音声で説明されており、100症例で計10万枚程の撮像画像に対する所見が準備される。
医用画像投影システム5のユーザ(上述参照)は、取得された撮像映像の中で医師により説明された所見の音声を参考にして、個々の撮像画像中において検出されるべき脈管に、その脈管を教示する情報(例えば枠画像)を付与する等のアノテーション作業を行い、アノテーション作業が行われた個々の撮像画像のデータを教師データとして準備する。これにより、例えば撮像画像内に映る脈管を検出および認識するための数多くの教示データが用意されたことになる。
ここで、画像処理部12は、上述したように事前に用意された数多くの教師データと手術時の撮像映像のデータとを入力して、ディープラーニング(深層学習)等の機械学習を行う。この機械学習では、ディープラーニングを実行するための学習済みモデルを構成するニューラルネットワークの各層(入力層、中間層、出力層)のニューロン間の重み付け係数が、手術時の撮像画像内に映る脈管を的確に検出および認識できるように、最適化される。
画像処理部12は、上述した機械学習の結果、脈管の検出および認識に適した学習済みモデルを生成する。画像処理部12は、この学習済みモデルを用いて、手術時に画像入力部11から入力された撮像画像内に映り得る脈管の画像認識処理を行い、検出された脈管を囲む領域を色付けして脈管特定画像を生成する。なお、この脈管特定画像は、画像出力部13により、手術時の撮像画像に重畳される。また、画像処理部12は、検出された脈管の画像認識処理の結果(例えば適合確率)を評価(スコア化)し、この評価結果を用いてリアルタイムで機械学習によって学習済みモデルを更新してもよい。
画像出力部13は、画像処理部12により生成された脈管特定画像を、画像入力部11から入力された手術時の撮像画像に重畳した合成画像を生成する。画像出力部13は、合成画像のデータをモニタ30に送信する。この合成画像データは、手術時の撮像画像と脈管特定画像との他に、脈管の合成画像中の位置情報と脈管の領域を教示するための色情報とを更に含む。なお、画像出力部13は、上述した合成画像のデータの他に、脈管に関連するテキストデータを含めて送信してもよい。テキストデータは、例えば脈管の画像認識結果の評価値(スコア値)や臓器名称等を含んでよい。
また、画像出力部13は、上述した合成画像のデータおよび関連するテキストデータをプロジェクタ22に送信する。なお、画像出力部13は、合成画像のデータおよび関連するテキストデータの代わりに、画像処理部12により生成された脈管特定画像をプロジェクタ22に出力してもよい。プロジェクタ22は、画像出力部13から送信された合成画像のデータに含まれる脈管の撮像画像内に映る位置情報を基に、手術時の術野内の患部に現れる脈管の位置と一致するように(つまり脈管と重なるように)脈管特定画像を投影する。脈管特定画像の色情報として、例えば単色の緑色が用いられる。なお、単色の場合、黄色だと術野内で見分けにくく、また、赤色だと臓器や血の色と区別しにくいので、黄色および赤色は用いられない方が好ましい。ここでは、緑色が用いられる。なお、脈管特定画像の色情報として、医師等が見た目で瞬時に区別し易くなるように撮像画像の背景色と補色の関係にある色が用いられてもよい。
モニタ30は、画像出力部13からの合成画像(つまり、撮像画像に脈管特定画像が重畳された合成画像)のデータを表示する。モニタ30は、例えば液晶ディスプレイまたは有機EL(Electroluminescence)ディスプレイで構成され、画像を表示する表示面を有する。
図2は、医用画像投影システム5の具体的な構成を示す図である。医用画像投影システム5は、例えば病院の手術室に設置される。手術室では、手術台110の上に仰向けに寝ている状態の患者hmに対し、開腹手術が行われている。撮像照射装置20は、患者hmの開腹されている部位を含む術野130(例えば患者の患部)に向けて白色光、励起光および投影光を照射し、また、術野130を撮像する。医用画像投影システム5は、図1に示した撮像照射装置20、カメラコントロールユニット10およびモニタ30の他、医師等のユーザが操作可能なマウス45を含む。
撮像照射装置20は、図1に示すカメラヘッド21、プロジェクタ22および光源23の他、光学部28を有する。光学部28は、カメラヘッド21とプロジェクタ22とに対向して配置される。光学部28は、術野からカメラヘッド21に向かう可視光および蛍光を透過し、一方、プロジェクタ22から照射された投影光を反射して術野に投影する。光学部28は、カメラヘッド21に向かう可視光および蛍光の光軸と、プロジェクタ22から術野に向けて照射された投影光の光軸とが一致するように調整される。カメラヘッド21の光軸とプロジェクタ22の光軸を一致させた状態において、カメラコントロールユニット10は、カメラヘッド21による撮像画像に含まれる脈管の位置を、例えばカメラヘッド21の光軸を中心とする座標で表し、この座標情報を脈管特定画像の色情報とともにプロジェクタ22に送信する。プロジェクタ22は、受信された座標情報の位置に脈管特定画像を投影する。これにより、プロジェクタ22は、術野内にある脈管を脈管特定画像でマッピング(投影)できる。
マウス45は、カメラコントロールユニット10に対し、術者等による操作を受け付ける入力装置である。なお、入力装置としては、キーボード、タッチパッド、タッチパネル、ボタン、スイッチ等でもよい。術者等は、例えば手術中、カメラヘッド21による撮像画像をモニタ30に表示し、手術の状況を視認する。
次に、実施の形態1に係る医用画像投影システム5の動作を示す。
図3は、実施の形態1に係る医用画像投影システム5の動作手順例を示すフローチャートである。この動作は、医師等の術者が、カメラコントロールユニット10に対し、脈管の画像認識機能を起動させる場合に実行される。
図3において、画像入力部11は、カメラヘッド21が術野を被写体として撮像した可視光画像を取得する(S1)。画像処理部12は、脈管の画像認識機能(つまり、上述したAIを用いた画像認識機能を実現可能な学習済みモデル)を用いて、可視光画像を解析する(S2)。画像処理部12は、画像解析の結果、脈管を検出したか否かを判別する(S3)。
脈管を検出した場合(S3、YES)、画像出力部13は、プロジェクタ22に脈管画像投影指示を送信する(S4)。脈管画像投影指示は、撮像画像中の脈管の位置情報および脈管に重畳される脈管特定画像を含む。脈管特定画像は、撮像画像に含まれる脈管の外形を表す領域を特定色で塗りつぶした色画像である。更に、画像出力部13は、画像入力部11から入力された撮像画像に、画像処理部12により検出および認識された脈管に対応する脈管特定画像を重畳した合成画像を生成する(S5)。画像出力部13は、この合成画像をモニタ30に出力する(S6)。
一方、画像処理部12が脈管を検出していない場合(S3、NO)、画像出力部13は、カメラヘッド21により撮像された可視光画像(つまり、画像入力部11から入力された撮像画像)をそのままモニタ30に出力する(S7)。ステップS6,S7の処理後、カメラコントロールユニット10は、図3に示す動作を終了する。なお、図3に示す動作は、医師等の術者が、カメラコントロールユニット10に対し、脈管の画像認識機能を停止させるまで、繰り返される。
図4は、脈管の画像認識機能により検出された脈管100に対し脈管特定画像mgが投影される臓器200の画像を示す図である。この臓器200の画像は、モニタ30に映し出される。なお、この臓器200の画像は、医師が術野で目視する臓器の画像であってもよい。脈管の画像認識機能が停止している場合、脈管特定画像は生成されないため、臓器200の画像は画像入力部11から入力された撮像画像のまま特に何も変化しない。脈管の画像認識機能が起動し、脈管100が検出された場合、臓器200の画像には、脈管の領域(外形)を表す脈管特定画像mgが重畳される。ここでは、脈管として取り扱われるグリソン鞘が現れている。また、脈管特定画像mgは、脈管100の外形と同じ輪郭を持つ着色(例えば、緑色)画像である。なお、脈管特定画像は、黄色系および赤色系の色を除く任意の色でよい。
このように、実施の形態1に係る医用画像投影システム5は、プロジェクションマッピングによりICG蛍光画像を臓器に投影する。医師等の術者は、術野から目を離すことなく、脈管と阻血域の境界をリアルタイムで可視化できる。医用画像投影システム5は、カメラコントロールユニット10が脈管の画像認識機能を保持する人工知能(言い換えると、画像処理部12)を搭載することで、熟練医師と同等の判断レベルで術野内の脈管を的確に検出かつ認識でき、周囲の術者等に把握させることができるように術野に対して表示できる。従って、安心安全な手術のナビゲーションが可能である。
以上により、実施の形態1では、カメラコントロールユニット10は、術野を撮像するカメラヘッド21と接続される。カメラコントロールユニット10は、カメラヘッド21からの術野の撮像画像を入力する。カメラコントロールユニット10は、入力された撮像画像に基づいて、撮像画像内に映る脈管を認識する。カメラコントロールユニット10は、認識された脈管を表す脈管特定画像(脈管を教示する情報の一例)を撮像画像に重畳した合成画像を生成し、生成された合成画像をモニタ30に出力する。
これにより、医用画像投影システム5は、例えば手術時に術野を撮像するカメラヘッド21により撮像された撮像画像内に現れる脈管を一早く認識する熟練医師の暗黙知と同等の認識機能をリアルタイムかつ高精度に再現できる。従って、医用画像投影システム5は、術野内の腫瘍部等の切離面に現れる脈管の箇所を的確に医師等の術者に対して報知でき、安心安全な手術の提供を支援できる。
また、カメラコントロールユニット10は、術野に投影可能に配置されたプロジェクタ22と接続される。画像出力部13は、撮像画像GZ内の脈管の位置情報と脈管特定画像とを含む脈管画像投影指示を生成してプロジェクタ22に送る。これにより、術者等は、モニタを見ることなく、術野において脈管を視認できる。
また、画像処理部12は、術野の撮像画像内に映る複数枚の脈管の教師データを用いた機械学習に基づいて生成された学習済みモデルを用いて、脈管を認識する。これにより、カメラコントロールユニット10は、学習によって脈管の検出精度を向上できる。
また、画像入力部11は、撮像画像として可視光画像を入力する。画像処理部12は、可視光画像に基づいて、脈管を認識する。学習済みモデルは、上述した医師等のアノテーション作業により、可視光画像内に映る脈管を検出および認識可能である。これにより、カメラコントロールユニット10は、仮にICG等の蛍光薬剤の蛍光発光に基づく蛍光(言い換えると、腫瘍部等の患部)が撮像されていない状況であっても、術野を明るく照らす白色光の撮像に基づいて得られる可視光画像から、脈管を的確に検出および認識できる。従って、医用画像投影システム5の構成が簡単になり、コストの削減を図ることができる。
(実施の形態2)
次に、実施の形態2に係る脈管認識システムの一例として、内視鏡システムを例示して説明する。図5は、実施の形態2に係る内視鏡システム40の概略構成例を示す図である。
内視鏡システム40は、内視鏡50と、脈管認識装置の一例としてのカメラコントロールユニット60と、光源53と、モニタ80とを含む構成である。
内視鏡50は、例えば医療用の硬性内視鏡である。カメラコントロールユニット60は、被検体(例えば人物)の観察対象である患部(例えば人体の皮膚、人体内部の臓器壁等)に挿入された内視鏡50により撮像された撮像画像(例えば、静止画もしくは動画)に対して所定の画像処理を施し、画像処理後の撮像画像内に映る脈管を検出する。カメラコントロールユニット60は、画像処理後の撮像画像に、検出された脈管画像を重畳した合成画像を生成してモニタ80に出力する。モニタ80は、カメラコントロールユニット60から出力された合成画像を表示する。
内視鏡50は、白色光(つまり可視光)を照射して術野を照明し、被検体(例えば人物)の患部(例えば臓器)で反射された反射光を受光して可視光画像を撮像する。内視鏡50は、赤外光を照射して患部等に集積された蛍光薬剤を励起し、蛍光薬剤の蛍光発光により生じた蛍光を含む赤外光を受光して蛍光画像を撮像する。内視鏡50は、内視鏡ヘッド51を含む。
内視鏡ヘッド51は、可視光用イメージセンサ54AおよびIRカットフィルタ56Aを含む可視光センサユニット51Aと、赤外光用イメージセンサ54Bおよび可視光カットフィルタ56Bを含む赤外光センサユニット51Bとを含む。可視光用イメージセンサは可視光用センサと称してもよい。同様に、赤外光用イメージセンサは赤外光用センサと称してもよい。
IRカットフィルタ56Aは、光源53から患部(例えば臓器)に照射され、患部で反射されたIRの波長帯を有する励起光を遮断(カット)する。可視光用イメージセンサ54Aは、IRカットフィルタ56Aを通過した可視光(つまり患部で反射された可視光)を受光し、可視光画像を撮像する。
可視光カットフィルタ56Bは、光源53から患部(例えば臓器)に照射され、患部で反射された可視光を遮断(カット)する。また、可視光カットフィルタ56Bは、可視光だけでなく、励起光の波長帯域(例えば690nm~820nm)のIR光を遮断(カット)する。赤外光用イメージセンサ54Bは、可視光カットフィルタ56Bを通過した蛍光(つまり、患部に集積した蛍光薬剤の蛍光発光に基づいて発した蛍光)を受光し、蛍光画像を撮像する。
内視鏡ヘッド51は、例えば可視光画像と蛍光画像とを時分割で撮像する。光源53が白色光を発光する時、内視鏡ヘッド51は、光学フィルタをIRカットフィルタ56Aに切り替える。この時、可視光用イメージセンサ54Aは、IRカットフィルタ56Aを通過した可視光を受光して可視光画像を撮像する。
また、光源53が赤外光を発光する時、内視鏡ヘッド51は、光学フィルタを可視光カットフィルタ56Bに切り替える。この時、赤外光用イメージセンサ54Bは、可視光カットフィルタ56Bを通過した蛍光(上述参照)を受光して蛍光画像を撮像する。
なお、内視鏡ヘッド51は、IRカットフィルタ56Aと可視光カットフィルタ56Bを併用できる構成である場合、可視光画像と蛍光画像を同時に撮像できる。また、可視光用イメージセンサ25Aおよび赤外光用イメージセンサ25Bを構成するイメージセンサは、例えばCMOSが用いられるが、CCDが用いられてもよい。
光源53は、蛍光薬剤(例えばインドシアニングリーンを励起するためのIR帯の励起光(例えば波長760nmの光)を照射する。また、光源53は、白色光(例えば波長700nm以下の光)を照射する。光源53は、IR励起光と白色光を時分割であるいは同時に発光可能である。
カメラコントロールユニット60は、内視鏡ヘッド51、光源53およびモニタ80との間で電気的に接続され、これらの装置の動作を統括的に制御する。カメラコントロールユニット60は、画像入力部61と、画像処理部62と、画像出力部63とを含む。
画像入力部61は、内視鏡ヘッド51により撮像された手術時の撮像画像のデータを入力する。画像入力部61は、専用の画像入力インターフェースの他、映像データを高速に転送可能なHDMI(登録商標)やUSB Type-C等をインターフェースでもよい。
カメラコントロールユニット60は、プロセッサおよび内蔵メモリを有し、プロセッサが内蔵メモリに記憶されたプログラムを実行することで、画像処理部62および画像出力部63の機能を具体的に実現する。プロセッサは、画像処理に適したGPUでよい。なお、画像処理部62は、GPUの代わりに、MPU、CPU、ASIC等で設計された専用の電子回路や、FPGA等で再構成可能に設計された電子回路で構成されてもよい。
画像処理部62は、人工知能(AI、実施の形態1参照)を搭載し、画像入力部61により入力された撮像画像内に映る脈管を検出および認識するための画像認識機能を有する。画像処理部62は、人工知能が搭載された学習済みモデルを用いて、実施の形態1と同様に上述した画像認識機能を実現可能である。学習済みモデルは、内視鏡システム40の実運用の開始前に予め生成される。学習済みモデルの生成手順は、実施の形態1を参照して説明した通りであるため、ここでは説明を省略する。
画像処理部62は、上述した学習済みモデルを用いて、手術時に画像入力部61から入力された撮像画像内に映り得る脈管の画像認識処理を行い、検出された脈管を囲む領域を色付けして脈管特定画像を生成する。なお、この脈管特定画像は、画像出力部63により、手術時の撮像画像に重畳される。また、画像処理部62は、検出された脈管の画像認識処理の結果(例えば適合確率)を評価(スコア化)し、この評価結果を用いてリアルタイムで機械学習によって学習済みモデルを更新してもよい。
画像出力部63は、画像処理部62により生成された脈管特定画像を、画像入力部61から入力された手術時の撮像画像に重畳した合成画像を生成する。画像出力部63は、合成画像のデータをモニタ30に送信する。この合成画像データは、手術時の撮像画像と脈管特定画像との他に、脈管の合成画像中の位置情報と脈管の領域を教示するための色情報とを更に含む。なお、画像出力部63は、上述した合成画像のデータの他に、脈管に関連するテキストデータを含めて送信してもよい。テキストデータは、例えば脈管の画像認識結果の評価値(スコア値)や臓器名称等を含んでよい。
モニタ80は、画像出力部63からの合成画像(つまり、撮像画像に脈管特定画像が重畳された合成画像)のデータを表示する。モニタ80は、例えば液晶ディスプレイまたは有機ELディスプレイで構成され、画像を表示する表示面を有する。
図6は、内視鏡システム40の概要を示す図である。内視鏡システム40は、内視鏡50と、カメラコントロールユニット60と、モニタ80と、光源53とを含む。
カメラコントロールユニット60は、内視鏡50から伝送ケーブルを介して入力される撮像画像を画像処理し、画像処理後の撮像画像を生成する。カメラコントロールユニット60は、光源駆動ケーブル314を介して、第1励起光源325および第2励起光源327とそれぞれ接続されている。カメラコントロールユニット60は、光源駆動ケーブルを介して、第1励起光源を駆動するための制御信号を光源駆動回路365において生成して第1励起光源325に出力する。また、カメラコントロールユニット60は、光源駆動ケーブルを介して、第2励起光源327を駆動するための制御信号を光源駆動回路365において生成して第2励起光源327に出力する。
モニタ80は、カメラコントロールユニット60から出力される撮像画像を表示する。モニタ80は、例えば、LCD(Liquid Crystal Display)あるいはCRT(Cathode Ray Tube)等の表示デバイスを有する。実施の形態2に係る内視鏡システム40において、モニタ80は、照射された可視光に基づいて撮像された可視光画像と、照射された励起光により発生した蛍光に基づいて撮像された蛍光画像とを表示する。
光源53は、第1励起光源325と、第2励起光源327と、合波用プリズム335と、光ファイバ329と、挿入部331と、蛍光体333と、を主要な構成部材として有する。
第1励起光源325は、例えばLED(Light Emission Diode)からの光に比べて半値幅が1/10程度のレーザ光を照射可能なレーザダイオード(Laser Diode)等の半導体レーザを用いて構成される。第1励起光源325は、蛍光体333を励起して擬似的に白色光を生成するための狭帯域の青色領域の光(例えば380~450nmの波長帯域の波長を有する光)を照射出力する。
第2励起光源327は、例えばLEDからの光に比べて半値幅が1/10程度のレーザ光を照射可能なレーザダイオード等の半導体レーザを用いて構成される。第2励起光源327は、第1励起光源325から照射される光の波長帯と異なる狭帯域の波長帯の光を照射出力する。即ち、第2励起光源327は、内視鏡手術もしくは内視鏡検査の前に予め被検体の患部に投与される蛍光薬剤を励起するための赤外領域の光(例えば690~820nmの波長帯域の波長を有する光)を照射出力する。
合波用プリズム335は、第1励起光源325から照射される光および第2励起光源327から照射される光をそれぞれ同一の光ファイバ329に導光する。合波用プリズム335は、青色領域の光と赤外領域の光とを多重化する。
光源53は、合波用プリズム335により多重化された青色領域の光と赤外領域の光とを光ファイバ329の光入射端から入射させる。合波用プリズム335と光ファイバ329との間には、集光レンズ341が設けられる。
光ファイバ329は、例えば1本の光ファイバ素線とすることができる。また、光ファイバ329には、複数本の光ファイバ素線を束ねたバンドルファイバが用いられてもよい。
挿入部331は、光ファイバ329を挿通する。挿入部331には、この他、伝送ケーブル323が挿通される。挿入部331は、例えば、被検体の体腔に挿入される内視鏡50の挿入部分となる。挿入部331は、筒状の硬性部材となる。
挿入部331の先端面には、撮像窓が配置される。撮像窓は、光学ガラスあるいは光学プラスチック等の光学材料を含んで形成され、被写体(例えば、被検体あるいは被検体内の患部)からの光を入射させる。また、挿入部331の先端面には、照明窓が配置される。照明窓は、光学ガラスあるいは光学プラスチック等の光学材料を含んで形成され、光ファイバ329の光出射端からの照明光を出射する。
次に、実施の形態2に係る内視鏡システム40の動作を示す。
図7は、実施の形態2に係る内視鏡システム40の動作手順例を示すフローチャートである。この動作は、医師等の術者が、カメラコントロールユニット60に対し、脈管の画像認識機能を起動させる場合に実行される。
図7において、画像入力部61は、内視鏡ヘッド51が術野を被写体として撮像した可視光画像を取得する(S11)。画像処理部62は、脈管の画像認識機能(つまり、上述したAIを用いた画像認識機能を実現可能な学習済みモデル)を用いて、可視光画像を解析する(S12)。画像処理部62は、画像解析の結果、脈管を検出したか否かを判別する(S13)。
脈管を検出した場合(S13、YES)、画像出力部63は、画像入力部61から入力された撮像画像に、画像処理部62により検出および認識された脈管に対応する脈管特定画像を重畳した合成画像を生成する(S14)。画像出力部63は、合成画像をモニタ80に出力する(S15)。
一方、画像処理部62が脈管を検出していない場合(S13、NO)、画像出力部63は、内視鏡ヘッド51により撮像された可視光画像(つまり、画像入力部61から入力された撮像画像)をそのままモニタ80に出力する(S16)。この後、カメラコントロールユニット10は、図7に示す動作を終了する。なお、図7に示す動作は、医師等の術者が、カメラコントロールユニット10に対し、脈管の画像認識機能を停止させるまで、繰り返される。
このように、実施の形態2に係る内視鏡システム40は、内視鏡50により撮像された被検体内の撮像画像をカメラコントロールユニット60に接続することで、モニタ80に脈管の所在を的確に表示できる。また、カメラコントロールユニット60が多くの病院に既設の内視鏡システム40に接続できるので、内視鏡システム40は、多くの病院施設で利用可能となって汎用性が高まる。
(実施の形態1の変形例1)
実施の形態1に係る医用画像投影システム5の使用時に、例えばカメラヘッド21により撮像される撮像映像には医師等の術者の頭が映ってしまうと、施術される部位がモニタ30に映らない場合がある。そこで、実施の形態1の変形例1では、医師等の術者の頭が撮像されたことが検出された時、医用画像投影システム5は、アラームを発報し、医師等の術者にその旨を知らせてもよい。例えば、カメラコントロールユニット10は、スピーカを内蔵し、アラーム音をこのスピーカから出力する。アラーム音は、医師等の術者等に施術される腫瘍部等の部位が映っていない状況を知らせるための音であるので、「ピッ」等の注意を促す音であってもよいが、「メロディー」等の耳ざわりのいい音であってもよい。また、アラーム音は、状況を説明する音声であってもよい。
また、カメラコントロールユニット10は、アラーム音を出力する代わりにあるいは出力するとともに、モニタ30に既定のアラーム画像を表示し、医師等の術者に施術される腫瘍部等の部位が映っていない状況を知らせてもよい。アラーム画像は、例えば異常を表すマーク、腫瘍部等の部位が映っていない状況を説明するためのテキストであってもよい。この場合、医師等の術者が自身の頭をずらすだけで、モニタ30に映し出される映像は、施術される部位が的確に映し出された状態に戻る。なお、医師等の術者が頭部をずらす代わりに、手術を補佐する看護師等がカメラヘッド21の姿勢を変更してもよい。また、映像において、手術に用いられる医療器具が施術される部位に被ってしまう場合も、術者の頭が被ってしまう場合と同様である。この場合、術者が医療器具をずらすだけで、映像は、施術される部位が映し出された状態に戻る。なお、術者が医療器具をずらす代わりに、手術を補佐する看護師等がカメラヘッド21の姿勢を変更してもよい。
また、医師等の術者の頭や医療器具が被ってしまい、映像に施術される部位が映らない状況の他、カメラヘッド21による撮像画像の拡大率が低くて臓器を細部まで映し出すことが難しい場合がある。この場合、カメラコントロールユニット10は、医師等の術者の操作指示に従い、あるいは自動的にカメラヘッド21の拡大率を変更し、変更された拡大率で撮像し、撮像画像を取得する。カメラコントロールユニット10は、変更された拡大率による撮像画像に対し、脈管の画像認識機能を実行し、脈管を検出してもよい。
また、カメラヘッド21で撮像される視野が曇っており、鮮明な映像が得られない場合がある。この場合、カメラコントロールユニット10は、カメラヘッド21で撮像される画像に対し、画像処理を施してもよい。例えば、カメラコントロールユニット10は、撮像画像のホワイトバランスを調整し、白色を抑えるように撮像画像の色調を変更する。また、カメラコントロールユニット10は、撮像画像の周波数スペクトルにおいて、白色成分を低減させる処理を行う。カメラコントロールユニット10は、白色が抑えられて鮮明になった画像に対し、脈管の画像認識機能を実行し、脈管を検出してもよい。
(実施の形態1の変形例2)
カメラコントロールユニット10が脈管の画像認識機能を実行する場合、カメラコントロールユニット10が実行する処理の負荷が重くなる。また、実施の形態1に係る医用画像投影システム5では、開腹された被検体の術野に対応する部位に脈管投影画像を投影することになるので、患者に対しても相当の負担がかかる。また、施術される部位がマッピングされた状態となるので、医師等の術者は、マッピングされた画像を見続けることで、実際の部位を錯覚してしまうこともあり得る。従って、カメラコントロールユニット10による脈管の画像認識機能は、施術に必要な場合を除き、停止させておくことが望ましい。
そこで、実施の形態1の変形例2では、カメラコントロールユニット10は、カメラヘッド21により撮像された撮像画像を解析することで現時点の施術のシーン(状況)を判定し、その判定されたシーンを基に、脈管の画像認識機能を起動あるいは停止する。図8は、実施の形態1の変形例2に係る開腹手術を行う際のシーンを表すシーン判定テーブルTb1の登録内容を示す図である。
シーン判定テーブルTb1には、No.1~NO.9のシーンが登録されている。具体的に、シーンNo.1は、「切開中」のシーンである。シーンNo.2は、「血管確保」のシーンである。シーンNo.3は、「肝臓をはがす(肝冠状間膜等)」のシーンである。シーンNo.4は、「胆嚢摘出」のシーンである。シーンNo.5は、「切除前準備」のシーンである。シーンNo.6は、「切除部マーキング」のシーンである。シーンNo.7は、「切除中」のシーンである。シーンNo.8は、「切除中(休憩)」のシーンである。シーンNo.9は、「切除後」のシーンである。
シーンを判定する情報は、手順、処置および使用器具を含む。例えば、シーンNo.1では、手順は、「切開中」である。処置は、「皮膚を切開(開腹)」である。使用器具は、「メス」である。この場合、脈管が存在する臓器(例えば肝臓)が現れないので、カメラコントロールユニット10は、脈管の画像認識機能を停止させる。一方、シーンNo.7では、手順は、「切除中」である。処置は、「腫瘍部の摘出のため肝臓を切除」である。使用器具は、「キューサ」である。この場合、脈管が存在する臓器が現れているので、カメラコントロールユニット10は、脈管の画像認識機能を起動させる。
カメラコントロールユニット10は、施術を補佐する看護師がカメラコントロールユニット10に対しシーンNo.を指示操作することで、シーンを判定してもよい。また、カメラコントロールユニット10,60は、カメラヘッド21や内視鏡ヘッド51によって撮像される映像に映る使用器具によって自動的にシーンを判定してもよい。この場合、カメラコントロールユニット10,60は、多くの使用器具を撮像した画像データを蓄積し、これらの画像データに対しディープラーニングによる機械学習を行い、撮像画像に含まれる使用器具からシーンを判定する学習済みモデルを事前に生成しておく。カメラコントロールユニット10,60は、この学習済みモデルに対し、カメラヘッド21や内視鏡ヘッド51によって撮像される画像データを入力し、使用器具からシーンを判定してもよい。
このように、カメラコントロールユニット10,60は、シーンを判定し、シーンに応じて脈管の画像認識機能を起動あるいは停止することができる。従って、カメラコントロールユニット10,60は、施術に際し、必要な時にだけ脈管の画像認識機能を実行させることができる。
なお、カメラコントロールユニット10は、カメラヘッド21による撮像画像に医療器具が一時的に含まれない状況になる時、脈管の画像認識機能を起動させるシーンであっても、この状況の時は、必要でないとして、脈管の画像認識機能を停止させてもよい。これにより、脈管の画像認識機能の起動・停止をより細かく切り替えることができる。
また、カメラコントロールユニット10,60は、シーンの判定以外においても、脈管の画像認識機能を起動あるいは停止させてもよい。例えば、カメラコントロールユニット10は、カメラヘッド21の動きを検出し、カメラヘッド21が動いている場合、脈管の画像認識機能を停止させてもよい。
このように、実施の形態1の変形例2では、画像処理部12は、入力された撮像画像内に腫瘍部を摘出するための医療器具を検出すると、撮像画像を用いた脈管の画像認識機能を起動する(つまり、認識処理を開始する)。これにより、カメラコントロールユニット10は、手術の開始に合わせた適切なタイミングで脈管特定画像を表示できる。
また、画像処理部12は、入力された撮像画像から医療器具を検出しなくなった場合に、脈管の画像認識機能を停止する。これにより、カメラコントロールユニット10は、手術の終了時、不要となるタイミングで脈管特定画像の表示を消去できる。従って、カメラコントロールユニット10の負荷を軽減できる。
(実施の形態1の変形例3)
実施の形態1の変形例3では、カメラコントロールユニット10は、手術の状況に合わせて、脈管特定画像の表示態様を変える。具体的に、カメラコントロールユニット10は、脈管の発見や処置の状況に応じて、脈管特定画像の表示を変化させる。例えば、カメラコントロールユニット10は、脈管の画像認識機能により、カメラヘッド21による撮像画像に含まれる脈管を最初に検出した場合、「第1発見(未確定)」に相応しい脈管特定画像を撮像画像に重畳した合成画像をモニタ30に表示する。
図9は、実施の形態1の変形例3に係る脈管特定画像が臓器に重畳して表示されるモニタ30の画面を示す図である。脈管特定画像は、脈管の位置を中心とし、脈管を囲む径を有する円形のマーカmk1である。円形のマーカmk1は、点灯あるいは点滅して表示される。第1発見の段階では、カメラコントロールユニット10は、円形のマーカmk1を細い紫色の線で描画する。その後、カメラコントロールユニット10は、脈管の画像認識機能により撮像画像に含まれる脈管を繰り返し検出した場合、検出回数に合わせて円形のマーカmk1をより太い緑色の線で描画してもよい。
また、術者による処置が施された(処置済)場合、例えば腫瘍部が摘出された場合、カメラコントロールユニット10は、マーカmk1の外形を円形から四角形に変形し、同色あるいは別の色で描画してもよい。ここで、カメラコントロールユニット10は、「処置済」の判断を、例えば脈管が第1発見されてから、カメラヘッド21による撮像画像中、鉗子、電気メス、キューサ等が含まれることを確認し、その後、これらの医療器具が含まれなくなったことを確認すると、処置済と判断してもよい。
また、カメラコントロールユニット10は、人工知能を用いて「処置済」を判断してもよい。カメラコントロールユニット10は、多く処置済を含む臓器の画像を蓄積し、これらの画像を教師データとして、処置済の臓器についてディープラーニングによる機械学習を行い、撮像画像から処置済の臓器を検出する学習済みモデルを事前に生成しておく。カメラコントロールユニット10は、この学習済みモデルに対し、カメラヘッド21による撮像画像のデータを入力して「処置済」を判断してもよい。
また、流血があった場合、カメラコントロールユニット10は、マーカmk1の外形を円形から三角形に変形したり、あるいはマーカmk1を点滅させたりするように、同色あるいは別の色で描画してもよい。ここで、「流血」の判断は、「処置済」の判断と同様、人工知能を用いてもよい。カメラコントロールユニット10は、多く流血した臓器の画像を蓄積し、これらの画像を教師データとして、流血した臓器についてディープラーニングによる機械学習を行い、撮像画像から流血した臓器を検出する学習済みモデルを事前に生成しておく。カメラコントロールユニット10は、この学習済みモデルに対し、カメラヘッドによる撮像画像のデータを入力して「流血」を判断してもよい。
また、カメラコントロールユニット10は、「流血」の判断を、例えば撮像画像に電気メスが含まれることを確認した後、雑像画像中の赤色成分が急激に増加したことを確認すると、「流血」と判断してもよい。
また、カメラコントロールユニット10は、時間の結果につれて、マーカmk1の表示形態を変化させてもよい。例えば、カメラコントロールユニット10は、脈管を発見した直後、マーカmk1を目立つように、例えば輝度を上げて表示する。カメラコントロールユニット10は、発見後、第1時間が経過すると、マーカmk1を徐々に目立たなくなるように、輝度を下げて表示する。このとき、ほとんどマーカmk1が消える程度にマーカmk1の輝度を下げてもよい。さらに、カメラコントロールユニット10は、第1時間経過後、さらに第2時間が経過すると、脈管の存在位置を忘れないように、マーカmk1を再び目立つように輝度を上げる。このように、カメラコントロールユニット10は、術者の状態を考慮し、マーカmk1の表示態様を可変できる。なお、マーカmk1を目立つようにする場合、カメラコントロールユニット10は、マーカmk1を点滅させてもよい。
また、手術中、術者が患部等の臓器を裏返したり、ずらしたりすることで、一時的に脈管が視野から外れ、一時的に脈管があることを示すマーカmk1が消えることがある。カメラコントロールユニット10は、既に脈管が検出されている場合、モニタ30の画面枠(例えば画面の左右上下端)に、脈管検出済みであることを表す矩形の枠画像(例えば黄色の枠画像)wgを常に表示してもよい。矩形の枠画像wgは、点灯あるいは点滅で表示される。なお、カメラコントロールユニット10は、一時的に脈管があることを示すマーカmk1が消えた場合に限って、矩形の枠画像を表示してもよい。これにより、一時的に脈管があることを示すマーカmk1が消えた状態であっても、モニタ30の画面枠には、矩形の画像が表示されることから、医師等の術者は、脈管検出済であることを確認できる。
また、カメラコントロールユニット10は、矩形の枠画像の線幅を、手術の状況、あるいは時間の経過によって変化させてもよい。例えば、カメラコントロールユニット10は、医師等の術者が電気メスを使用して腫瘍部を切除する場合、矩形の枠画像の幅を広く表示してもよい。また、カメラコントロールユニット10は、矩形の枠画像の色を黄色から緑色等、他の色に変化させてもよい。また、カメラコントロールユニット10は、時間の経過と共に、矩形枠画像の幅を徐々に狭くしてもよい。
このように、実施の形態1の変形例3では、画像出力部13は、画像処理部12により脈管が検出されると、脈管が検出された旨を示す矩形の枠画像wg(色付き枠画像)が点滅するように矩形の枠画像wgをモニタ30に表示させる。これにより、医師等の術者は、脈管の存在に気付くことができる。
また、画像出力部13は、画像処理部12により脈管が検出されると、脈管が検出された撮像画像GZ内の位置を中心とした円形のマーカmk1(所定径の色付き円画像)が点滅するように円形のマーカmk1をモニタ30に表示させる。これにより、医師等の術者は、脈管の位置を把握し易くなる。
(実施の形態1の変形例4)
脈管特定画像とICG蛍光画像(つまり、ICGの蛍光発光に基づいてカメラヘッド21により撮像される蛍光画像)とが重なってモニタ30に表示される場合、これらの重なった領域では、医師等の術者は、脈管の位置を判別しにくい。図10は、実施の形態1の変形例4に係るICG蛍光画像fgと脈管特定画像mgとが一部重なって臓器を含む撮像画像GZに重畳して表示されるモニタ30の画面を示す図である。ここでは、脈管特定画像mgは、緑色に塗り潰した円画像である。ICG蛍光画像fgは、青色で表示されるが、その裏側の臓器の色(赤色)と混色し、赤紫色(マゼンタ色)で表現される。
カメラコントロールユニット10は、撮像画像に対し、緊急度や重要度が高い画像を優先して判別できるように表示する。一例として、カメラコントロールユニット10は、カメラヘッド21による撮像画像GZ(可視光画像)、ICG蛍光画像fg、および脈管特定画像mgをモニタ30に表示する際、これらをそれぞれのレイヤに表示する。例えば、脈管特定画像mgが優先して表示される場合、カメラコントロールユニット10は、脈管特定画像mgを最上位レイヤに表示し、ICG蛍光画像fgを中間レイヤに表示し、撮像画像GZ(可視光画像)を最下位レイヤに表示する。脈管特定画像とICG蛍光画像が重ならない領域、つまり、脈管特定画像が可視光画像に重畳して表示される場合、カメラコントロールユニット10は、脈管特定画像の色を、その裏側である可視光画像(臓器の画像)の色と補色の関係となるように設定する。これにより、術者等は、脈管特定画像を視認し易くなる。なお、脈管特定画像の色は、撮像画像の周囲の背景色(ここでは黒色)と補色の関係となるように設定されてもよい。脈管特定画像の色には、血の色と見分けにくい赤色や目立たない黄色は使用されない。
実施の形態1の変形例4では、カメラコントロールユニット10は、脈管特定画像mgを最上位レイヤに表示し、ICG蛍光画像fgを中間レイヤに表示する。これにより、脈管特定画像mgがICG蛍光画像fgの上位レイヤに描画されることで、脈管特定画像mgとICG蛍光画像fgが重なった領域においても、医師等の術者は、脈管特定画像mg、つまり脈管の位置を視認し易い。
なお、カメラコントロールユニット10は、脈管特定画像とICG蛍光画像を、上記レイヤを振り分けることなく、脈管特定画像とICG蛍光画像が重なった領域において、脈管特定画像の色を変更する、脈管特定画像を点滅表示する、あるいは脈管の周囲にあるICG蛍光画像を表示しない、等の画像処理を施してもよい。カメラコントロールユニット10は、脈管特定画像の色を変更する場合、ICG蛍光画像fgの色と補色となる関係を有する色に変更してもよい。これにより、脈管特定画像mgが判別し易くなる。なお、脈管特定画像の色は、撮像画像GZの背景色と補色となる関係を有する色に変更されてもよい。
このように、実施の形態1の変形例4では、カメラヘッド21は、術野内の腫瘍部に集積した蛍光薬剤の蛍光発光に基づく蛍光を撮像可能である。画像出力部13は、術野の撮像画像内においてICG蛍光画像fg(蛍光の撮像に基づく腫瘍部の蛍光画像)と脈管との両方が検出され、かつICG蛍光画像fgの一部と脈管特定画像mgの一部(脈管の位置を中心とする所定径の円領域の一部)とが重複する場合、撮像画像GZの背景色の補色を用いて、脈管100の位置を中心に点滅するように脈管特定画像mgをモニタ30に表示させる。これにより、カメラコントロールユニット10は、補色を用いて脈管特定画像を表示することで、撮像画像中にある脈管を目立たせることができる。
(実施の形態1の変形例5)
図11は、実施の形態1の変形例5に係るICG蛍光画像fgと脈管特定画像mg1が撮像画像GZに含まれる臓器と重なる場合、モニタ30に表示されるICG蛍光画像fgと脈管特定画像mg1を模式的に示す図である。ここでは、脈管特定画像mg1は、脈管の外形に略一致する緑色の画像である。ICG蛍光画像fgは、青紫色の画像である。また、医療器具であるキューサの位置を特定するキューサ検出画像cgは、青色の円画像である。カメラコントロールユニット10は、医療器具であるキューサを検出可能である。ここでは、キューサ検出画像cgは、脈管特定画像mg1を覆うように配置されている場合を想定する。
カメラコントロールユニット10は、ICG蛍光画像fgと、キューサ検出画像cgと、脈管特定画像mg1とに対し、数式(1)に示す画像処理を施し、画像処理後の画像を臓器を含む撮像画像GZに重畳してモニタ30に表示する。また、カメラコントロールユニット10は、この画像処理において、キューサ検出画像cgに対し輪郭抽出を行い、キューサ検出画像cgの輪郭抽出画像cgsを得ておく。
ICG蛍光画像fg - キューサ検出画像cg + 脈管特定画像mg1 + キューサ検出画像cgの輪郭抽出画像csg ……(1)
モニタ30には、ICG蛍光画像fgとキューサ検出画像cgとが重なった領域では、ICG蛍光画像fgが中抜きされる。中抜きされた領域に、脈管特定画像mg1が現われる。従って、ICG蛍光画像fgに脈管特定画像mg1が重なることなく、医師等の術者は、脈管の位置を正確に把握できる。また、ICG蛍光画像fgに輪郭抽出画像csgが加わることで、ICG蛍光画像fgの領域も判別可能である。
実施の形態1の変形例5では、カメラヘッド21は、術野内の腫瘍部に集積した蛍光薬剤の蛍光発光に基づく蛍光を撮像可能である。画像出力部13は、術野の撮像画像内においてICG蛍光画像fgと脈管との両方が検出され、かつICG蛍光画像fgの一部と脈管特定画像mg1の一部とが重複する場合、脈管の位置の周辺のICG蛍光画像fgの一部の領域を除いた領域に脈管特定画像mg1(所定色の画像の一例)を表示させる。これにより、術者等は、ICG蛍光画像と脈管特定画像が重なっても、脈管の位置を見つけ易くなる。
以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。
例えば、実施の形態1では、医用画像投影システム5は、患部等の臓器において検出された脈管の脈管特定画像を、この臓器の撮像画像に重畳してモニタ30に表示するとともに、術野に向けて投影する場合を示した。医用画像投影システム5は、脈管の脈管特定画像を臓器の撮像画像に重畳してモニタ30に表示することなく、術野に向けて投影するだけのシステムであってもよい。
本開示は、術野に現れる脈管を一早く認識する熟練医師の暗黙知と同等の脈管の認識機能をリアルタイムかつ高精度に再現し、切離面に現れる脈管の箇所を報知し、安心安全な手術の提供を支援する脈管認識装置、脈管認識方法および脈管認識システムとして有用である。
5 医用画像投影システム
10、60 カメラコントロールユニット
11、61 画像入力部
12、62 画像処理部
13、63 画像出力部
21 カメラヘッド
22 プロジェクタ
23、53 光源
24A 可視光センサユニット
24B 赤外光センサユニット
25A、54A 可視光用イメージセンサ
25B、54B 赤外光用イメージセンサ
26A、56A IRカットフィルタ
26B、56B 可視光カットフィルタ
30、80 モニタ
40 内視鏡システム
51 内視鏡ヘッド
100 脈管

Claims (11)

  1. 術野を撮像する撮像装置と接続される脈管認識装置であって、
    前記撮像装置によって撮像された前記術野の撮像画像に基づいて、前記撮像画像に含まれる脈管を認識し、前記撮像画像に含まれる前記脈管の領域の画像を生成する画像処理部と、
    前記脈管の領域の画像と前記撮像画像とを重畳した合成画像をモニタに出力する画像出力部と、を備え
    前記撮像装置は、前記術野内の腫瘍部に集積した蛍光薬剤の蛍光発光に基づく蛍光を撮像可能であり、
    前記画像出力部は、前記術野の撮像画像内において前記蛍光の撮像に基づく前記腫瘍部の蛍光画像と前記脈管との両方が認識され、かつ前記蛍光画像の一部と前記脈管の位置を中心とする所定径の円領域の一部とが重複する場合、前記撮像画像内における前記脈管の位置を中心とする所定径の円領域の少なくとも一部について強調表示させる情報をモニタに出力する、
    脈管認識装置。
  2. 前記術野に投影可能に配置されたプロジェクタを含み、
    前記画像出力部は、前記撮像画像に含まれる前記脈管の位置情報と前記脈管の領域の画像とを前記プロジェクタに出力する、
    請求項1に記載の脈管認識装置。
  3. 前記画像処理部は、術野の撮像画像内に映る複数枚の脈管の教師データを用いた機械学習に基づいて生成された学習済みモデルを用いて、前記脈管を認識する、
    請求項1または2に記載の脈管認識装置。
  4. 前記撮像画像は、可視光画像であり、
    前記画像処理部は、前記可視光画像に含まれる前記脈管を認識する、
    請求項3に記載の脈管認識装置。
  5. 前記画像処理部は、前記撮像画像において、前記腫瘍部を摘出するための医療器具を検出すると、前記撮像画像における前記脈管の認識処理を開始する、
    請求項1~4のうちいずれか一項に記載の脈管認識装置。
  6. 前記画像処理部は、前記認識処理を開始した後に、前記撮像画像において前記医療器具を検出しなくなった場合に、前記認識処理を停止する、
    請求項5に記載の脈管認識装置。
  7. 前記画像出力部は、前記画像処理部により前記脈管が認識されると、前記脈管が認識された旨を示す色付き枠画像を点滅表示させる情報を前記モニタに出力する、
    請求項1~6のうちいずれか一項に記載の脈管認識装置。
  8. 前記画像出力部は、前記画像処理部により前記脈管が認識されると、前記脈管が認識された前記撮像画像内の位置を中心とした所定径の色付き円画像を点滅表示させる情報を前記モニタに出力する、
    請求項1~6のうちいずれか一項に記載の脈管認識装置。
  9. 記画像出力部は、前記術野の前記撮像画像内において前記蛍光の撮像に基づく前記腫瘍部の前記蛍光画像と前記脈管との両方が認識され、かつ前記蛍光画像の一部と前記脈管の位置を中心とする所定径の円領域の一部とが重複する場合、前記脈管の位置の周辺の前記蛍光画像の一部の領域を除いた領域に所定色の画像を表示させる情報を前記モニタに出力する、
    請求項1~8のうちいずれか一項に記載の脈管認識装置。
  10. 術野を撮像する撮像装置と接続される脈管認識装置により実行される脈管認識方法であって、
    前記撮像装置によって撮像された前記術野の撮像画像に基づいて、前記撮像画像に含まれる脈管を認識し、前記撮像画像に含まれる前記脈管の領域の画像を生成することと、
    前記脈管の領域の画像と前記撮像画像とを重畳した合成画像をモニタに出力することと、
    前記撮像装置によって撮像された前記術野内の腫瘍部に集積した蛍光薬剤の蛍光発光に基づく前記腫瘍部の蛍光画像を生成することと、
    前記腫瘍部の蛍光画像と前記脈管との両方が認識され、かつ前記蛍光画像の一部と前記脈管の位置を中心とする所定径の円領域の一部とが重複する場合、前記撮像画像内における前記脈管の位置を中心とする所定径の円領域の少なくとも一部を強調表示させる情報をモニタに出力することと、を含む、
    脈管認識方法。
  11. 術野を撮像する撮像装置と脈管認識装置とが互いに接続される脈管認識システムであって、
    前記脈管認識装置は、
    前記撮像装置によって撮像された前記術野の撮像画像に基づいて、前記撮像画像に含まれる脈管を認識し、前記撮像画像に含まれる前記脈管の領域の画像を生成し、
    前記脈管の領域の画像と前記撮像画像とを重畳した合成画像をモニタに出力
    前記撮像装置によって撮像された前記術野内の腫瘍部に集積した蛍光薬剤の蛍光発光に基づく前記腫瘍部の蛍光画像を生成し、
    前記術野の撮像画像内において前記腫瘍部の前記蛍光画像と前記脈管との両方が認識され、かつ前記蛍光画像の一部と前記脈管の位置を中心とする所定径の円領域の一部とが重複する場合、前記撮像画像内における前記脈管の位置を中心とする所定径の円領域のうち少なくとも一部を強調表示させる情報をモニタに出力する、
    脈管認識システム。
JP2019060805A 2019-03-27 2019-03-27 脈管認識装置、脈管認識方法および脈管認識システム Active JP7312394B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019060805A JP7312394B2 (ja) 2019-03-27 2019-03-27 脈管認識装置、脈管認識方法および脈管認識システム
PCT/JP2019/050141 WO2020194942A1 (ja) 2019-03-27 2019-12-20 脈管認識装置、脈管認識方法および脈管認識システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019060805A JP7312394B2 (ja) 2019-03-27 2019-03-27 脈管認識装置、脈管認識方法および脈管認識システム

Publications (2)

Publication Number Publication Date
JP2020156860A JP2020156860A (ja) 2020-10-01
JP7312394B2 true JP7312394B2 (ja) 2023-07-21

Family

ID=72608794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019060805A Active JP7312394B2 (ja) 2019-03-27 2019-03-27 脈管認識装置、脈管認識方法および脈管認識システム

Country Status (2)

Country Link
JP (1) JP7312394B2 (ja)
WO (1) WO2020194942A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240049944A1 (en) * 2020-12-29 2024-02-15 Anaut Inc. Recording Medium, Method for Generating Learning Model, and Surgery Support Device
JP7368922B2 (ja) 2021-05-24 2023-10-25 アナウト株式会社 情報処理装置、情報処理方法、及びコンピュータプログラム
JP7081862B1 (ja) * 2021-11-26 2022-06-07 株式会社Jmees 手術支援システム、手術支援方法、及び手術支援プログラム
JP7148193B1 (ja) 2021-11-26 2022-10-05 株式会社Jmees 手術支援システム、手術支援方法、及び手術支援プログラム
JPWO2023112499A1 (ja) * 2021-12-13 2023-06-22
DE102022104138A1 (de) * 2022-02-22 2023-08-24 Karl Storz Se & Co. Kg Medizinische Bildgebungsvorrichtung, medizinisches System, Verfahren zum Betrieb einer medizinischen Bildgebungsvorrichtung und Verfahren zur medizinischen Bildgebung
JP7223194B1 (ja) 2022-05-27 2023-02-15 株式会社エクサウィザーズ 情報処理方法、コンピュータプログラム、情報処理装置及び情報処理システム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120071765A1 (en) 2010-09-17 2012-03-22 Optimum Technologies, Inc. Digital Mapping System and Method
WO2015001806A1 (ja) 2013-07-05 2015-01-08 パナソニック株式会社 投影システム
JP2016013233A (ja) 2014-07-01 2016-01-28 富士通株式会社 出力制御方法、画像処理装置、出力制御プログラムおよび情報処理装置
US20160278678A1 (en) 2012-01-04 2016-09-29 The Trustees Of Dartmouth College Method and apparatus for quantitative and depth resolved hyperspectral fluorescence and reflectance imaging for surgical guidance
WO2017056775A1 (ja) 2015-09-28 2017-04-06 富士フイルム株式会社 プロジェクションマッピング装置
WO2018012080A1 (ja) 2016-07-12 2018-01-18 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び手術用ナビゲーションシステム
WO2018167816A1 (ja) 2017-03-13 2018-09-20 株式会社島津製作所 撮像装置
JP2018171177A (ja) 2017-03-31 2018-11-08 大日本印刷株式会社 眼底画像処理装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120071765A1 (en) 2010-09-17 2012-03-22 Optimum Technologies, Inc. Digital Mapping System and Method
US20160278678A1 (en) 2012-01-04 2016-09-29 The Trustees Of Dartmouth College Method and apparatus for quantitative and depth resolved hyperspectral fluorescence and reflectance imaging for surgical guidance
WO2015001806A1 (ja) 2013-07-05 2015-01-08 パナソニック株式会社 投影システム
JP2016013233A (ja) 2014-07-01 2016-01-28 富士通株式会社 出力制御方法、画像処理装置、出力制御プログラムおよび情報処理装置
WO2017056775A1 (ja) 2015-09-28 2017-04-06 富士フイルム株式会社 プロジェクションマッピング装置
WO2018012080A1 (ja) 2016-07-12 2018-01-18 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び手術用ナビゲーションシステム
WO2018167816A1 (ja) 2017-03-13 2018-09-20 株式会社島津製作所 撮像装置
JP2018171177A (ja) 2017-03-31 2018-11-08 大日本印刷株式会社 眼底画像処理装置

Also Published As

Publication number Publication date
WO2020194942A1 (ja) 2020-10-01
JP2020156860A (ja) 2020-10-01

Similar Documents

Publication Publication Date Title
JP7312394B2 (ja) 脈管認識装置、脈管認識方法および脈管認識システム
EP3471591B1 (en) Information processing apparatus, information processing method, program, and medical observation system
US20210186594A1 (en) Heat invasion observation apparatus, endoscope system, heat invasion observation system, and heat invasion observation method
WO2018163644A1 (ja) 情報処理装置、支援システム及び情報処理方法
US20160073927A1 (en) Endoscope system
CN113395928A (zh) 增强医疗视觉系统和方法
JP7194889B2 (ja) コンピュータプログラム、学習モデルの生成方法、手術支援装置、及び情報処理方法
JP2011510705A (ja) 総胆管外科手術の画像化システム
JP2014226341A (ja) 内視鏡装置及び内視鏡装置の作動方法
JP2001299676A (ja) センチネルリンパ節検出方法および検出システム
JP2011152202A (ja) 画像取得装置、観察装置、および観察システム
CN114945314A (zh) 医疗图像处理装置、内窥镜系统、诊断辅助方法及程序
JP2024041891A (ja) コンピュータプログラム、学習モデルの生成方法、及び支援装置
US20230101192A1 (en) Methods and Systems for Controlling Cooperative Surgical Instruments with Variable Surgical Site Access Trajectories
JP2022180177A (ja) 内視鏡システム、医療画像処理装置及びその作動方法
JP7146318B1 (ja) コンピュータプログラム、学習モデルの生成方法、及び手術支援装置
CN115381379A (zh) 医疗图像处理装置、内窥镜系统及医疗图像处理装置的工作方法
US20230100989A1 (en) Surgical devices, systems, and methods using fiducial identification and tracking
EP4223203A1 (en) Image processing device, endoscope system, method for operating image processing device, and program for image processing device
WO2021044910A1 (ja) 医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラム
WO2020009127A1 (ja) 医療用観察システム、医療用観察装置、及び医療用観察装置の駆動方法
WO2020241651A1 (ja) 医療用画像処理装置、医療用画像処理装置の駆動方法、医療用撮像システム、及び医療用信号取得システム
US20230096406A1 (en) Surgical devices, systems, and methods using multi-source imaging
WO2020184228A1 (ja) 医療用画像処理装置、医療用画像処理装置の駆動方法、及び医療用観察システム
US12121305B2 (en) Methods and systems for controlling cooperative surgical instruments with variable surgical site access trajectories

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191205

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20201224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230629

R150 Certificate of patent or registration of utility model

Ref document number: 7312394

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150