JP7153974B2 - コンピュータプログラム、学習モデルの生成方法、及び画像処理装置 - Google Patents
コンピュータプログラム、学習モデルの生成方法、及び画像処理装置 Download PDFInfo
- Publication number
- JP7153974B2 JP7153974B2 JP2021574738A JP2021574738A JP7153974B2 JP 7153974 B2 JP7153974 B2 JP 7153974B2 JP 2021574738 A JP2021574738 A JP 2021574738A JP 2021574738 A JP2021574738 A JP 2021574738A JP 7153974 B2 JP7153974 B2 JP 7153974B2
- Authority
- JP
- Japan
- Prior art keywords
- connective tissue
- organ
- field image
- learning model
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000096—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000094—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/0005—Display arrangement combining images e.g. side-by-side, superimposed or tiled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/313—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
- A61B1/3132—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for laparoscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
Description
本発明の実施形態の内容を列記して説明する。本発明は、たとえば、以下のような構成を備える。
[項目1]
手術を支援するシステムであって、
前記手術における解剖状態を表す情報を取得する解剖状態取得部と、
前記情報に基づいて前記解剖状態のスコアを決定するスコア算出部と、
前記スコアに基づく情報を出力するスコア出力部と、
を備える手術支援システム。
[項目2]
前記解剖状態は、複数の臓器の関係性を含む、項目1に記載の手術支援システム。
[項目3]
前記解剖状態は、手術対象に対する処置に適した状態である度合を示す、項目1または2に記載の手術支援システム。
[項目4]
前記情報は、少なくとも術野を撮影した画像を含む、項目1ないし3のいずれか1項に記載の手術支援システム。
[項目5]
前記画像は、可視画像、赤外線画像、および深度マップの少なくともいずれかを含む、項目4に記載の手術支援システム。
[項目6]
前記スコア算出部は、手術対象の面積の大きさに応じて前記スコアを決定する、項目1ないし5のいずれか1項に記載の手術支援システム。
[項目7]
前記スコア算出部は、手術対象の変形度合に応じて前記スコアを決定する、項目1ないし5のいずれか1項に記載の手術支援システム。
[項目8]
前記スコア算出部は、手術対象の色彩を含む情報に応じて前記スコアを決定する、項目1ないし5のいずれか1項に記載の手術支援システム。
[項目9]
前記スコア出力部は、前記スコアを手術モニター上に表示する、項目1ないし8のいずれか1項に記載の手術支援システム。
[項目10]
前記スコア出力部は、前記スコアに応じて前記処置に適するか否かを表示する、項目3に記載の手術支援システム。
[項目11]
前記スコア出力部は、前記スコアの変化量が所定値以上となった場合に前記スコアを出力する、項目1ないし10のいずれか1項に記載の手術支援システム。
[項目12]
手術対象の処置可能領域を示すマーカーを手術モニター上に重畳して表示する処置可能領域表示部をさらに備える、項目1ないし11のいずれか1項に記載の手術支援システム。
[項目13]
前記処置可能領域表示部は、前記マーカーにより前記スコアを表示する、項目12に記載の手術支援システム。
[項目14]
前記マーカーは、前記処置可能領域の略外縁を示す、項目12または13に記載の手術支援システム。
[項目15]
手術対象に対する処置は、少なくとも、切除、剥離、縫合、結紮またはステープリングのいずれかを含む、項目1ないし14のいずれか1項に記載の手術支援システム。
[項目16]
前記手術対象は、疎性結合組織である、項目3、6、7、8、12、13、14または15に記載の手術支援システム。
<概要>
以下、本発明の一実施形態に係る手術支援システム1について説明する。本実施形態の手術支援システム1は、たとえば、鏡視下手術やロボット手術のように遠隔操作により行う手術を支援するものである。
図2は、本実施の形態に係る手術支援システム1の概略を説明する概念図である。なお、図の構成は一例であり、これら以外の要素が含まれていてもよい。
画像処理装置30は、例えばワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、あるいはクラウド・コンピューティングによって論理的に実現されてもよい。また、画像処理装置30は、FPGA(Field Programmable Gate Array)などの論理回路であってもよい。図3は、画像処理装置30のハードウェア構成例を示す図である。画像処理装置30は、CPU301、メモリ302、記憶装置303、通信インタフェース304、入力装置305、出力装置306を備える。記憶装置303は、各種のデータやプログラムを記憶する、例えばハードディスクドライブやソリッドステートドライブ、フラッシュメモリなどである。通信インタフェース304は、通信ネットワークに接続するためのインタフェースであり、例えばイーサネット(登録商標)に接続するためのアダプタ、公衆電話回線網に接続するためのモデム、無線通信を行うための無線通信機、シリアル通信のためのUSB(Universal Serial Bus)コネクタやRS232Cコネクタなどである。入力装置305は、データを入力する、例えばキーボードやマウス、タッチパネル、非接触パネル、ボタン、マイクロフォンなどである。出力装置306は、データを出力する、例えばディスプレイやプリンタ、スピーカなどである。
図4は、画像処理装置30のソフトウェア構成例を示す図である。画像処理装置30は、映像取得部311、解剖状態取得部312、処置可能領域表示部313、学習処理部314、スコア算出部315、スコア出力部316、モデル記憶部331を備える。
図5は、本実施形態の手術支援システム1における学習処理の流れを説明する図である。図5に示す学習処理は、たとえば、事前に撮影された術野の画像を用いて行うようにしてもよいし、撮影中の画像を用いて行うようにしてもよい。
図6は、本実施形態の手術支援システム1におけるスコアの出力処理の流れを説明する図である。図6に示すスコアの出力処理は、手術中に撮影されている画像に基づいて行うことを想定する。
実施の形態2では、学習モデルを用いて温存臓器2と切除臓器3との間の疎性結合組織を認識し、認識結果に基づき、疎性結合組織の切断タイミングをナビゲーション情報として出力する構成について説明する。
図14は学習モデル410の構成例を示す模式図である。学習モデル410は、画像セグメンテーションを行うための学習モデルであり、例えばSegNetなどの畳み込み層を備えたニューラルネットワークにより構築される。図14には、SegNetの構成例を示しているが、SegNetに限らず、FCN(Fully Convolutional Network)、U-Net(U-Shaped Network)、PSPNet(Pyramid Scene Parsing Network)など、画像セグメンテーションが行える任意のニューラルネットワークを用いて学習モデル410を構築すればよい。また、画像セグメンテーション用のニューラルネットワークに代えて、YOLO(You Only Look Once)、SSD(Single Shot Multi-Box Detector)など物体検出用のニューラルネットワークを用いて学習モデル410を構築してもよい。
実施の形態3では、学習モデル410を用いて温存臓器2と切除臓器3との間の疎性結合組織を認識し、認識結果に基づき、疎性結合組織を処理する際の操作に関する情報をナビゲーション情報として出力する構成について説明する。
実施の形態4では、疎性結合組織の切断タイミングを学習する構成について説明する。
なお、学習モデル420に入力される術野画像は、動画に限らず、静止画であってもよい。また、学習モデル420に入力される術野画像は、カメラ21から得られる生の画像である必要はなく、適宜の画像処理を加えた画像や画像の周波数成分を示すデータなどであってもよい。
実施の形態5では、疎性結合組織の切断部位に関する情報を出力する構成について説明する。
実施の形態6では、術野画像に基づいて解剖状態をスコア化する構成について説明する。
なお、学習モデル440に入力される術野画像は、動画に限らず、静止画であってもよい。また、学習モデル440に入力される術野画像は、カメラ21から得られる生の画像である必要はなく、適宜の画像処理を加えた画像や画像の周波数成分を示すデータなどであってもよい。
実施の形態7では、鏡視下手術を補助する補助者(助手)への指示を行う構成について説明する。
実施の形態8では、術野画像の予測画像を生成し、生成した予測画像をナビゲーション情報として出力する構成について説明する。
312 解剖状態取得部
313 処置可能領域表示部
314 学習処理部
315 スコア算出部
316 スコア出力部
331 モデル記憶部
Claims (19)
- コンピュータに、
鏡視下手術の術野を撮像して得られる術野画像を取得し、
術野画像を入力した場合、温存臓器と切除臓器との間の結合組織を識別する情報を出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれる温存臓器と切除臓器との間の結合組織を識別する情報を取得し、
前記学習モデルから取得した情報に基づき、前記結合組織の露出面積を算出し、
算出した露出面積に基づき、前記結合組織の切断タイミングを決定し、
決定した切断タイミングに関する情報を、温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として出力する
処理を実行させるためのコンピュータプログラム。 - コンピュータに、
鏡視下手術の術野を撮像して得られる術野画像を取得し、
術野画像を入力した場合、温存臓器と切除臓器との間の結合組織を識別する情報を出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれる温存臓器と切除臓器との間の結合組織を識別する情報を取得し、
前記学習モデルから取得した情報に基づき、前記結合組織の露出面積を算出し、
算出した露出面積の多少を示すインジケータを、温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として出力する
処理を実行させるためのコンピュータプログラム。 - コンピュータに、
鏡視下手術の術野を撮像して得られる術野画像を取得し、
術野画像を入力した場合、温存臓器と切除臓器との間の結合組織を識別する情報を出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれる温存臓器と切除臓器との間の結合組織を識別する情報を取得し、
前記学習モデルから取得した情報に基づき、前記結合組織を展開又は切断する際の術具の操作方向を決定し、
決定した操作方向に関する情報を、温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として出力する
処理を実行させるためのコンピュータプログラム。 - コンピュータに、
鏡視下手術の術野を撮像して得られる術野画像を取得し、
術野画像を入力した場合、温存臓器と切除臓器との間に存在し、緊張状態にある結合組織を識別する情報を出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれ、温存臓器と切除臓器との間に存在し、緊張状態にある結合組織を識別する情報を取得し、
前記学習モデルから取得した情報に基づき、前記結合組織の切断の適否を判断し、
前記結合組織の切断の適否に関する情報を、温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として出力する
処理を実行させるためのコンピュータプログラム。 - コンピュータに、
鏡視下手術の術野を撮像して得られる術野画像を取得し、
術野画像を入力した場合、温存臓器と切除臓器との間の結合組織の切断タイミングに関する情報を出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれる結合組織の切断タイミングに関する情報を取得し、
前記学習モデルより得られる切断タイミングに関する情報を、温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として出力する
処理を実行させるためのコンピュータプログラム。 - コンピュータに、
鏡視下手術の術野を撮像して得られる術野画像を取得し、
術野画像を入力した場合、温存臓器と切除臓器との間の結合組織における切断部位に関する情報を出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれる結合組織における切断部位に関する情報を取得し、
前記学習モデルより得られる切断部位に関する情報を、温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として出力する
処理を実行させるためのコンピュータプログラム。 - コンピュータに、
鏡視下手術の術野を撮像して得られる術野画像を取得し、
術野画像を入力した場合、温存臓器と切除臓器との間の結合組織の状態が処置に適している度合いを示すスコアを出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれる結合組織についてのスコアを取得し、
温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として、前記学習モデルから取得したスコアを出力する
処理を実行させるためのコンピュータプログラム。 - 前記学習モデルは、前記結合組織の露出面積、前記結合組織の緊張状態、前記結合組織の周囲に存在する構造物の多少、及び前記温存臓器の損傷度合いの少なくとも1つに応じて、前記スコアが変動するよう学習してある
請求項7に記載のコンピュータプログラム。 - 前記学習モデルに入力した術野画像と、該術野画像を前記学習モデルに入力することによって得られたスコアとを関連付けて記憶装置に記憶させる
処理を実行させるための請求項7又は請求項8に記載のコンピュータプログラム。 - 前記学習モデルは、処理対象領域の状態に応じて、前記スコアが変動するよう学習してあり、
前記学習モデルから出力されるスコアに基づき、前記鏡視下手術を補助する補助者への指示を出力する
処理を実行させるための請求項7から請求項9の何れか1つに記載のコンピュータプログラム。 - 術野画像を入力した場合、解剖状態の予測画像を生成するように学習された画像生成モデルに、取得した術野画像を入力して、前記術野画像に対する予測画像を取得し、
取得した予測画像を前記ナビゲーション情報として出力する
処理を実行させるための請求項1から請求項10の何れか1つに記載のコンピュータプログラム。 - コンピュータを用いて、
鏡視下手術の術野を撮像して得られる術野画像と、該術野画像に含まれる温存臓器と切除臓器との間の結合組織に関する情報とを含む訓練データを取得し、
取得した訓練データのセットに基づき、術野画像を入力した場合、温存臓器と切除臓器との間の結合組織に関する情報を出力する学習モデルを生成する
学習モデルの生成方法。 - 鏡視下手術の術野を撮像して得られる術野画像を取得する第1取得部と、
術野画像を入力した場合、温存臓器と切除臓器との間の結合組織を識別する情報を出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれる温存臓器と切除臓器との間の結合組織を識別する情報を取得する第2取得部と、
前記学習モデルから取得した情報に基づき、前記結合組織の露出面積を算出する算出部と、
算出した露出面積に基づき、前記結合組織の切断タイミングを決定する決定部と、
決定した切断タイミングに関する情報を、温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として出力する出力部と
を備える画像処理装置。 - 鏡視下手術の術野を撮像して得られる術野画像を取得する第1取得部と、
術野画像を入力した場合、温存臓器と切除臓器との間の結合組織を識別する情報を出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれる温存臓器と切除臓器との間の結合組織を識別する情報を取得する第2取得部と、
前記学習モデルから取得した情報に基づき、前記結合組織の露出面積を算出する算出部と、
算出した露出面積の多少を示すインジケータを、温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として出力する出力部と
を備える画像処理装置。 - 鏡視下手術の術野を撮像して得られる術野画像を取得する第1取得部と、
術野画像を入力した場合、温存臓器と切除臓器との間の結合組織を識別する情報を出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれる温存臓器と切除臓器との間の結合組織を識別する情報を取得する第2取得部と、
前記学習モデルから取得した情報に基づき、前記結合組織を展開又は切断する際の術具の操作方向を決定する決定部と、
決定した操作方向に関する情報を、温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として出力する出力部と
を備える画像処理装置。 - 鏡視下手術の術野を撮像して得られる術野画像を取得する第1取得部と、
術野画像を入力した場合、温存臓器と切除臓器との間に存在し、緊張状態にある結合組織を識別する情報を出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれ、温存臓器と切除臓器との間に存在し、緊張状態にある結合組織を識別する情報を取得する第2取得部と、
前記学習モデルから取得した情報に基づき、前記結合組織の切断の適否を判断する判断部と、
前記結合組織の切断の適否に関する情報を、温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として出力する出力部と
を備える画像処理装置。 - 鏡視下手術の術野を撮像して得られる術野画像を取得する第1取得部と、
術野画像を入力した場合、温存臓器と切除臓器との間の結合組織の切断タイミングに関する情報を出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれる結合組織の切断タイミングに関する情報を取得する第2取得部と、
前記学習モデルより得られる切断タイミングに関する情報を、温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として出力する出力部と
を備える画像処理装置。 - 鏡視下手術の術野を撮像して得られる術野画像を取得する第1取得部と、
術野画像を入力した場合、温存臓器と切除臓器との間の結合組織における切断部位に関する情報を出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれる結合組織における切断部位に関する情報を取得する第2取得部と、
前記学習モデルより得られる切断部位に関する情報を、温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として出力する出力部と
を備える画像処理装置。 - 鏡視下手術の術野を撮像して得られる術野画像を取得する第1取得部と、
術野画像を入力した場合、温存臓器と切除臓器との間の結合組織の状態が処置に適している度合いを示すスコアを出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれる結合組織についてのスコアを取得する第2取得部と、
温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として、前記学習モデルから取得したスコアを出力する出力部と
を備える画像処理装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/003481 WO2021152784A1 (ja) | 2020-01-30 | 2020-01-30 | 手術支援システム |
JPPCT/JP2020/003481 | 2020-01-30 | ||
PCT/JP2021/003489 WO2021153797A1 (ja) | 2020-01-30 | 2021-02-01 | コンピュータプログラム、学習モデルの生成方法、画像処理装置、及び手術支援システム |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021153797A1 JPWO2021153797A1 (ja) | 2021-08-05 |
JPWO2021153797A5 JPWO2021153797A5 (ja) | 2022-07-22 |
JP7153974B2 true JP7153974B2 (ja) | 2022-10-17 |
Family
ID=77078283
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021574738A Active JP7153974B2 (ja) | 2020-01-30 | 2021-02-01 | コンピュータプログラム、学習モデルの生成方法、及び画像処理装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230098859A1 (ja) |
JP (1) | JP7153974B2 (ja) |
CN (1) | CN115023193A (ja) |
WO (2) | WO2021152784A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230281968A1 (en) * | 2020-07-30 | 2023-09-07 | Anaut Inc. | Recording Medium, Method for Generating Learning Model, Surgical Support Device and Information Processing Method |
JP7413216B2 (ja) * | 2020-09-15 | 2024-01-15 | 富士フイルム株式会社 | 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム |
JP7311936B1 (ja) * | 2021-11-04 | 2023-07-20 | アナウト株式会社 | コンピュータプログラム、学習モデルの生成方法、及び情報処理装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013154037A (ja) | 2012-01-31 | 2013-08-15 | Fujifilm Corp | 手術支援装置、手術支援方法および手術支援プログラム |
WO2017200066A1 (ja) | 2016-05-18 | 2017-11-23 | 国立大学法人三重大学 | がん検査装置、がん検査方法、および、がん検査用の染色剤 |
WO2019054045A1 (ja) | 2017-09-15 | 2019-03-21 | 富士フイルム株式会社 | 医療画像処理装置、医療画像処理方法及び医療画像処理プログラム |
JP2019162339A (ja) | 2018-03-20 | 2019-09-26 | ソニー株式会社 | 手術支援システムおよび表示方法 |
WO2020110278A1 (ja) | 2018-11-30 | 2020-06-04 | オリンパス株式会社 | 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8594841B2 (en) * | 2008-12-31 | 2013-11-26 | Intuitive Surgical Operations, Inc. | Visual force feedback in a minimally invasive surgical procedure |
WO2017109912A1 (ja) * | 2015-12-24 | 2017-06-29 | オリンパス株式会社 | 医療用マニピュレータシステムとその画像表示方法 |
US10610302B2 (en) * | 2016-09-20 | 2020-04-07 | Siemens Healthcare Gmbh | Liver disease assessment in medical imaging |
JP6749020B2 (ja) * | 2017-11-29 | 2020-09-02 | 水野 裕子 | 内視鏡ナビゲーション装置 |
-
2020
- 2020-01-30 WO PCT/JP2020/003481 patent/WO2021152784A1/ja active Application Filing
-
2021
- 2021-02-01 US US17/795,408 patent/US20230098859A1/en active Pending
- 2021-02-01 WO PCT/JP2021/003489 patent/WO2021153797A1/ja active Application Filing
- 2021-02-01 JP JP2021574738A patent/JP7153974B2/ja active Active
- 2021-02-01 CN CN202180011878.3A patent/CN115023193A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013154037A (ja) | 2012-01-31 | 2013-08-15 | Fujifilm Corp | 手術支援装置、手術支援方法および手術支援プログラム |
WO2017200066A1 (ja) | 2016-05-18 | 2017-11-23 | 国立大学法人三重大学 | がん検査装置、がん検査方法、および、がん検査用の染色剤 |
WO2019054045A1 (ja) | 2017-09-15 | 2019-03-21 | 富士フイルム株式会社 | 医療画像処理装置、医療画像処理方法及び医療画像処理プログラム |
JP2019162339A (ja) | 2018-03-20 | 2019-09-26 | ソニー株式会社 | 手術支援システムおよび表示方法 |
WO2020110278A1 (ja) | 2018-11-30 | 2020-06-04 | オリンパス株式会社 | 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法 |
Non-Patent Citations (1)
Title |
---|
篠原 尚、外9名,WS15-2 画像セグメンテーションによる微細解剖構造認識;ロボット支援下胃癌手術における疎性結合組,第75回日本消化器外科学会総会抄録集,日本,日本消化器外科学会,2020年12月,p.134 |
Also Published As
Publication number | Publication date |
---|---|
WO2021153797A8 (ja) | 2021-09-23 |
JPWO2021153797A1 (ja) | 2021-08-05 |
US20230098859A1 (en) | 2023-03-30 |
WO2021153797A1 (ja) | 2021-08-05 |
CN115023193A (zh) | 2022-09-06 |
WO2021152784A1 (ja) | 2021-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7153974B2 (ja) | コンピュータプログラム、学習モデルの生成方法、及び画像処理装置 | |
JP7308936B2 (ja) | インジケータシステム | |
US6863536B1 (en) | Endoscopic tutorial system with a bleeding complication | |
WO2020194942A1 (ja) | 脈管認識装置、脈管認識方法および脈管認識システム | |
RU128762U1 (ru) | Гибридный медицинский тренажер лапароскопии | |
JP7194889B2 (ja) | コンピュータプログラム、学習モデルの生成方法、手術支援装置、及び情報処理方法 | |
WO2023095492A1 (ja) | 手術支援システム、手術支援方法、及び手術支援プログラム | |
WO2022158451A1 (ja) | コンピュータプログラム、学習モデルの生成方法、及び支援装置 | |
CN111770735B (zh) | 手术仿真信息生成方法及程序 | |
US20230009335A1 (en) | Guided anatomical manipulation for endoscopic procedures | |
US11896323B2 (en) | System, method, and computer-accessible medium for automatically tracking and/or identifying at least one portion of an anatomical structure during a medical procedure | |
JP2023090809A (ja) | 手術内容評価システム、手術内容評価方法及びコンピュータプログラム | |
KR20140035035A (ko) | 가상 나이프를 이용한 수술 시뮬레이션 방법 및 그 장치 | |
JP7311936B1 (ja) | コンピュータプログラム、学習モデルの生成方法、及び情報処理装置 | |
US20230105111A1 (en) | System and Method for Teaching Minimally Invasive Interventions | |
JP2005329099A (ja) | 管腔臓器切除シミュレーション方法 | |
JP7368922B2 (ja) | 情報処理装置、情報処理方法、及びコンピュータプログラム | |
WO2023162657A1 (ja) | 医療支援装置、医療支援装置の作動方法及び作動プログラム | |
Cetinsaya | Design and Development of a Preliminary Virtual Endoluminal Surgical Simulation (VESS) for Endoscopic Submucosal Dissection (ESD) Surgery | |
JP5745390B2 (ja) | 画像処理装置、方法およびプログラム | |
CN117479896A (zh) | 包括可在组织穿透外科装置的通道外展开的相机阵列的系统 | |
JP2021045340A (ja) | 鏡視下手術支援装置、鏡視下手術支援方法、及びプログラム | |
JP2017040754A (ja) | 組織のボリュームデータに対応した模擬処置開始位置を決定する方法、装置及び手術シミュレータ |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220428 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220428 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220906 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220920 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220927 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7153974 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |