JP2023030681A - 内視鏡画像の処置具の先端検出装置、内視鏡画像の処置具の先端検出方法、及び内視鏡画像の処置具の先端検出プログラム - Google Patents

内視鏡画像の処置具の先端検出装置、内視鏡画像の処置具の先端検出方法、及び内視鏡画像の処置具の先端検出プログラム Download PDF

Info

Publication number
JP2023030681A
JP2023030681A JP2021135936A JP2021135936A JP2023030681A JP 2023030681 A JP2023030681 A JP 2023030681A JP 2021135936 A JP2021135936 A JP 2021135936A JP 2021135936 A JP2021135936 A JP 2021135936A JP 2023030681 A JP2023030681 A JP 2023030681A
Authority
JP
Japan
Prior art keywords
treatment instrument
tip
angle
point
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021135936A
Other languages
English (en)
Inventor
雅昭 伊藤
Masaaki Ito
暢 藤野
Noboru Fujino
大地 北口
Daichi Kitaguchi
一幸 林
Kazuyuki Hayashi
寛 長谷川
Hiroshi Hasegawa
悠貴 古澤
Yuki Furusawa
裕美 杵淵
Yumi Kinebuchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NATIONAL CANCER CENTER
Original Assignee
NATIONAL CANCER CENTER
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NATIONAL CANCER CENTER filed Critical NATIONAL CANCER CENTER
Priority to JP2021135936A priority Critical patent/JP2023030681A/ja
Priority to PCT/JP2022/023148 priority patent/WO2023026632A1/ja
Publication of JP2023030681A publication Critical patent/JP2023030681A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Analysis (AREA)
  • Endoscopes (AREA)

Abstract

【課題】複雑な環境下においても迅速、適切に処置具の先端点の位置を検出する内視鏡画像の処置具の先端検出装置、先端検出方法、及び先端検出プログラムを提供する。【解決手段】内視鏡画像の処置具の先端検出装置であって、手術画像を取得する画像取得部と、予め学習された深層学習モデルを用いて、手術画像の画像認識を行う画像認識部と、手術画像内において当該手術画像内の処置具のセグメンテーションマスクとバウンディングボックスとを生成する処置具抽出部と、処置具の先端を検出する先端検出部とを備え、先端検出部は、処置具の根部を特定する根部特定部と、処置具の端部位を検出する端部位検出部と、処置具の角度を検出する角度検出部と、処置具の先端点を検出する先端点検出部とを備える。【選択図】図18

Description

本発明は、内視鏡画像の処置具の先端検出装置、内視鏡画像の処置具の先端検出方法、及び内視鏡画像の処置具の先端検出プログラムに関する。
内視鏡下手術において、内視鏡画像内での処置具の先端の正確な位置を把握することにより、例えば手術支援ロボットシステムを使用した際に、より正確な操作が可能になる等、様々な応用が可能となる。内視鏡画像内の処置具を把握するための技術開発が進められている(特許文献1、2参照)。
特許文献1に開示されている方法は、処置具の先端にマーカを取り付け、処置具を検出する方法である。しかしながら、既成の処置具にマーカを後付けするには滅菌対応や脱落リスクを考慮する必要があり、マーカ付き、又はマーカ対応の処置具を普及させるには、処置具メーカの対応力が要求されること等の問題がある。さらに、この方法は、処置具の操作に支障をきたす恐れがある等、多くの課題を抱えている。
特許文献2に開示されている方法は、機械学習の一種であるサポートベクターマシン(SVM)及び数理モデルを組み合わせ、内視鏡画像内の処置具を検出する方法である。
特開2017-164007号公報 特表2016-506260号公報
特許文献2に開示されている方法において使用されている機械学習はサポートベクターマシンであり、あらかじめ定義した特徴のみを認識するため、手術中の処置具のテクスチャの経時的な変化や処置具の一部が隠れている、学習に用いる特徴と同種の特徴を持った異なる処置具の存在等、1つの処置具を認識するために非常に多くの特徴量の学習を必要とする。又、内視鏡画像内に同種の処置具が複数含まれ、これらが互いに近接している場合、これらの同種の処置具を個別の処置具であると認識することが困難である。更に、手術下での三次元的な処置具の先端の位置を正確に追従するためには、より詳細に先端点を抽出する必要がある。
上記問題点を鑑み、本発明は、複雑な環境下においても迅速、かつ適切に処置具の先端点の位置を検出する内視鏡画像の処置具の先端検出装置、内視鏡画像の処置具の先端検出方法、及び内視鏡画像の処置具の先端検出プログラムを提供することを目的とする。
本発明の第1の態様は、内視鏡画像の処置具の先端検出装置であって、手術画像を取得する画像取得部と、予め学習された深層学習モデルを用いて、手術画像の画像認識を行う画像認識部と、手術画像内において当該手術画像内の処置具のセグメンテーションマスクとバウンディングボックスとを生成する処置具抽出部と、生成されたセグメンテーションマスクと、生成されたバウンディングボックスとを用いて、処置具の先端を検出する先端検出部と、を備え、先端検出部は、手術画像内に存在する画像縁部領域の4辺のそれぞれと、セグメンテーションマスクとの被覆面積が最大となる画像縁部領域の辺を根部として特定する根部特定部と、処置具の端部位を検出する端部位検出部と、処置具の角度を検出する角度検出部と、処置具の先端点を検出する先端点検出部とを備えることを要旨とする。
本発明の第1の態様において、端部位検出部は、端部位として後端点を検出し、端部位検出部は、画像縁部領域と、セグメンテーションマスクの被覆領域における座標の平均点を後端点として特定してもよい。
本発明の第1の態様において、端部位検出部は、端部位としてバウンディングボックスの先端角と後端角とを検出し、端部位検出部は、根部から最も離れたセグメンテーションマスクに含まれる点のうち、根部に対して最遠点を検出し、検出された最遠点から最も近く、且つ根部上ではない、バウンディングボックスの角を先端角として検出し、検出された先端角と対角にあるバウンディングボックスの角を後端角として検出してもよい。
本発明の第1の態様において、端部位検出部は、端部位としてバウンディングボックスの先端角と後端角とを検出し、端位部検出部は、根部に接しているセグメンテーションマスクの平均座標を取得し、端部位検出部は、根部に接しているバウンディングボックスの2つの角のうち、平均座標に近い角を後端角として検出し、検出された後端角と対角にあるバウンディングボックスの角を先端角として検出してもよい。
本発明の第1の態様において、角度検出部は、セグメンテーションマスクを囲う最小の長方形を算出し、長方形の4辺のそれぞれに直交する4つの直線のそれぞれの角度を算出し、セグメンテーションマスクの重心と後端点とを結ぶ直線の角度を取得し、4つの直線のそれぞれの角度のうち、前記長方形の4辺のそれぞれに直交する直線のそれぞれの角度に最も近い角度を処置具の角度として検出してもよい。
本発明の第1の態様において、角度検出部は、先端角と後端角とを結ぶ直線の角度を処置具の角度として検出してもよい。
本発明の第1の態様において、角度検出部は、セグメンテーションマスクの主成分分析から、第一主成分方向を処置具の角度として検出してもよい。
本発明の第1の態様において、先端点検出部は、後端点から最も離れた位置にあるセグメンテーションマスク上の点を先端点として検出してもよい。
本発明の第1の態様において、先端点検出部は、先端角に最も近い位置にあるセグメンテーションマスク上の点を先端点として検出してもよい。
本発明の第1の態様において、先端点検出部は、セグメンテーションマスクの重心を通る直線と、バウンディングボックスとの交点を先端点としてもよい。
本発明の第1の態様において、先端点は、第1先端点と、第2先端点とから構成され、先端点検出部は、先端角に最も近い位置にあるセグメンテーションマスク上の点を第1先端点とし、セグメンテーションマスクの凸部であって、凸部と第1先端点との間にセグメンテーションマスクの凹部があり、根部から所定距離以上離れている凸部を抽出し、所定の半径を有し、処置具の角度の後端点方向が開いた扇形形状の円を判定円として生成し、判定円とセグメンテーションマスクとの被覆面積が最小となる凸部上の点を第2先端点としてもよい。
本発明の第2の態様は、内視鏡画像の処置具の先端検出方法であって、コンピュータが、手術画像を取得する取得ステップと、予め学習された深層学習モデルを用いて、手術画像の画像認識を行う画像認識ステップと、手術画像内の処置具のセグメンテーションマスクとバウンディングボックスとを生成する生成ステップと、生成されたセグメンテーションマスクと、生成されたバウンディングボックスとを用いて、処置具の先端を検出する先端検出ステップと、を備え、先端検出ステップは、画像縁部領域の4辺のそれぞれと、セグメンテーションマスクとの被覆領域が最大となる画像縁部領域の辺を根部として特定する根部特定ステップと、処置具の端部位を検出する端部位検出ステップと、処置具の角度を検出する角度ステップと、処置具の先端点を検出する先端点検出ステップとを実行することを要旨とする。
本発明の第3の態様は、内視鏡画像の処置具の先端検出プログラムであって、コンピュータに、手術画像を取得する画像取得機能と、予め学習された深層学習モデルを用いて、手術画像の画像認識を行う画像認識機能と、手術画像内の処置具のセグメンテーションマスクとバウンディングボックスとを生成する処置具抽出機能と、生成されたセグメンテーションマスクと、生成されたバウンディングボックスとを用いて、処置具の先端を検出する先端検出機能とを備え、先端検出機能は、画像縁部領域の4辺のそれぞれと、セグメンテーションマスクとの被覆領域が最大となる画像縁部領域の辺を根部として特定する根部特定機能と、処置具の端部位を検出する端部位検出機能と、処置具の角度を検出する角度検出機能と、処置具の先端点を検出する先端点検出機能とを実現させることを要旨とする。
本発明の内視鏡画像の処置具の先端検出装置によれば、手術画像を取得する画像取得部と、予め学習された深層学習モデルを用いて、手術画像の画像認識を行う画像認識部と、手術画像内において当該手術画像内の処置具のセグメンテーションマスクとバウンディングボックスとを生成する処置具抽出部と、生成されたセグメンテーションマスクと、生成されたバウンディングボックスとを用いて、処置具の先端を検出する先端検出部と、を備え、先端検出部は、手術画像内に存在する画像縁部領域の4辺のそれぞれと、セグメンテーションマスクとの被覆面積が最大となる画像縁部領域の辺を根部として特定する根部特定部と、処置具の端部位を検出する端部位検出部と、処置具の角度を検出する角度検出部と、処置具の先端点を検出する先端点検出部とを備えるため、複雑な環境下においても迅速、かつ正確に処置具の先端点の位置を検出することができる。そして、内視鏡画像の処置具の処置具先端検出方法、及び内視鏡画像の処置具の処置具先端検出プログラムにおいても、同様に、複雑な環境下においても迅速、かつ適切に処置具の先端点の位置を検出することができる。
本発明の実施形態に係る処置具先端検出装置の全体構成の一例を示す概要図である。 図1に示す内視鏡用ディスプレイに表示された画像を説明する図である。 図1に示す処理装置の構成の一例を示すブロック図である。 処置具抽出部によって行われるインスタンスセグメンテーションにより生成されるセグメンテーションマスクとバウンディングボックスを説明する図である。 図3に示す先端検出部の構成の一例を示すブロック図である。 根部算出部が処置具の出現する辺を判定する方法を説明する図であり、内視鏡画像全体の図である。 根部算出部が処置具の出現する辺を判定する方法を説明する図であり、処置具の根部を拡大した図である。 端部位検出部が後端点を検出する方法を説明する図であり、図6(a)の処置具の根部を拡大した図である。 処置具の先端が1つである場合に、端部位検出部が先端角と後端角とを検出する方法を説明する図である。 処置具の先端が1つ又は2つである場合に、端部位検出部が後端点を用いて先端角と後端角とを検出する方法を説明する図である。 角度検出部が後端点を用いて角度を検出する方法を説明する図である。 角度検出部が先端角と後端角とを用いて角度を検出する方法を説明する図である。 角度検出部が後端点、先端角、後端角のいずれも使用せず角度を検出する方法を説明する図である。 処置具の先端が1つである場合、先端点検出部が後端点を用いて先端を検出する方法を説明する図である。 処置具の先端が1つである場合、先端点検出部が先端角を用いて先端を検出する方法を説明する図である。 処置具の先端が2つである場合、先端点検出部が角度を用いて先端を検出する方法を説明する図である。 処置具の先端が2つである場合、先端点検出部が判定円を用いて先端を検出する方法を説明する図であり、一つ目の先端点を示す図である。 処置具の先端が2つである場合、先端点検出部が判定円を用いて先端を検出する方法を説明する図であり、二つ目の先端点である可能性のある点を示す図である。 処置具の先端が2つである場合、先端点検出部が判定円を用いて先端を検出する方法を説明する図であり、判定円を説明する図である。 処置具の先端が2つである場合、先端点検出部が判定円を用いて先端を検出する方法を説明する図であり、図16(c)の拡大図である。 本実施形態に係る、処置具の先端点を検出する際の、図5に示す先端検出部の構成要素の組み合わせを示す表である。 本実施形態に係る処置具先端検出方法を説明するフローチャートである。
次に、図面を参照して、本発明の実施形態を説明する。実施形態に係る図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。但し、図面は模式的なものであり、厚みと平面寸法との関係、各部材の厚みの比率等は現実のものとは異なることに留意すべきである。したがって、具体的な厚みや寸法は以下の説明を参酌して判断すべきものである。又、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。
又、実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、各構成要素の構成や配置、レイアウト等を下記のものに特定するものでない。本発明の技術的思想は、特許請求の範囲に記載された請求項が規定する技術的範囲内において、種々の変更を加えることができる。
(実施形態)
図1に、実施形態に係る処置具先端検出装置10の全体構成の一例を示す。図1に示す処置具先端検出装置10は、内視鏡103、処置具101及び102、処理装置105、内視鏡用ディスプレイ106から構成される。図1において、内視鏡103、処置具101及び102は、患者107の腹腔内に挿入される。患者107の腹腔内に挿入された内視鏡103によって患部104が撮影され、撮影によって得られた画像は処理装置105に送信される。内視鏡103から処理装置105に送信された画像は、内視鏡用ディスプレイ106に表示される。
処置具101及び102は、例えば把持鉗子、高周波ナイフ、止血クリップ等である。内視鏡103は、図示しない撮像素子及び光源を有し、内視鏡103の光源によって患者107の腹腔内に光が照射され、撮像素子によって患部104が撮影され、画像データが生成される。処理装置105は、内視鏡システムであって、パーソナルコンピュータ(PC)、メインフレーム、ワークステーション、クラウドコンピューティングシステム等、種々の電子計算機(計算リソース)を備える。
図2に、図1に示す内視鏡103によって撮影され、内視鏡用ディスプレイ106に表示されている画像を示す。図2に示す画像には、処置具101及び102、患部104が含まれている。図2に示す処置具101及び102は、一例として、互いに同種の把持鉗子であるとする。処置具101は把持鉗子の先端が開いた状態、処置具102は把持鉗子の先端が閉じた状態を表している。
実施形態に係る処置具先端検出装置は、内視鏡によって撮影された内視鏡画像において、処置具を認識し、認識した処置具の先端を検出する。例えば、高周波ナイフは先端が1つであるため、高周波ナイフに対して実施形態に係る処置具先端検出装置によって検出される先端は1つである。一方、例えば、把持鉗子は、先端の把持部が閉じた状態のとき、先端は1つである。先端の把持部が開いた状態のとき、実際の先端は2つであるが、先端の把持部が開いた状態であっても、内視鏡に対する把持鉗子の向きによって、内視鏡画像において先端が2つにみえる場合と、1つにみえる場合とがある。実施形態に係る処置具先端検出装置は、処置具の種類、先端の数、状態、向きにかかわらず、内視鏡画像内の処置具の先端を検出することが出来る。
図3に、図1に示す処理装置105の構成の一例を示す。図3に示す処理装置105には、各種の演算実行のためのCPU301、処理用のプログラムを記憶するROM302、データ等の記憶のためのRAM303、各種のデータ及び観測結果等の記憶のための記憶部304、I/O(インプット・アウトプットインターフェース)305、画像認識の処理を実行するためのGPU(Graphics Processing Unit)306等が備えられる。I/O305は通信(送受信)用のインターフェース、バッファ等である。I/O305は、内視鏡103との画像データの送受信、内視鏡用ディスプレイ106との画像データの送受信等に用いられCPU301と連携する。RAM303は、処理用のプログラム、I/O305から取り込まれた画像データ等の一時的な展開等に使用される。
記憶部304は、後述するように、画像認識部313が画像認識を行う際に用いる深層学習モデルを記憶する。
図3のCPU301内に、機能部の一部を示す。CPU301の各機能部をソフトウェアにより実現する場合、CPU301は各機能を実現するソフトウェアであるプログラムの命令を実行することで実現する。詳細には、画像取得部307、画像処理部308、処置具抽出部309、先端検出部310、出力部311、制御部312等を備える。
図3のGPU306は、画像認識部313を備える。GPU306は、画像認識部313による画像認識機能を実現するソフトウェアであるプログラムの命令を実行することにより、画像認識部313による画像認識機能を実現する。
画像取得部307は、内視鏡103による撮影によって得られた画像データを取得する。
画像処理部308は、画像取得部307が取得した画像データに対して、ノイズ抑制処理、アナログ―デジタル変換器によるデジタルデータ変換、ホワイトバランス処理等の処理が実行される。
画像認識部313は、画像処理部308によって処理された画像データに対して、予め学習された深層学習モデルを用いて、画像認識を行う。
処置具抽出部309は、画像認識部313の認識結果から処置具のセグメンテーションマスクとバウンディングボックスとを抽出する。
先端検出部310は、抽出されたセグメンテーションマスクとバウンディングボックスとから、処置具の先端を算出する。
出力部311は、画像処理部308によって処置が施された画像データ及び先端検出部308によって得られた処置具の先端をディスプレイ等に画像として出力する。
制御部312は、I/O305を介して、内視鏡103へ、内視鏡103が有する撮像素子による撮影及び光源のオン/オフを制御する。
深層学習モデルを用いて画像認識を行う際、一般的に、CPUと比較してGPUのほうが高速に処理できる。したがって、本実施形態において、処理装置105はGPU306を備え、画像認識部313による画像認識機能はGPU306によって実現される。
本実施形態に係る処置具先端検出装置10の画像認識部313が画像認識を行う際に用いられる深層学習モデルは、予め学習されたモデルであり、記憶部304に記憶されている。この深層学習モデルは、予め撮影された画像データに対してアノテーションを付与し、アノテーションを付与された画像データを用いて構築された畳み込みニューラルネットワーク(Convolution Neural Network:CNN)である。本実施形態において、深層学習モデルは、予め撮影された画像データ内の、少なくとも、処置具に対してアノテーションを付与された画像データを用いて構築される。
インスタンスセグメンテーションは、近接した同種の物体を互いに区別することが出来る。従って、内視鏡画像内に含まれた同種の処置具が互いに近接している場合、これらの同種の処置具を区別して認識することが可能である。図4に示すように、処置具抽出部309は、画像処理部308によって処理された画像データに対してインスタンスセグメンテーションを行い、画像データ内に含まれる処置具401のセグメンテーションマスク402とバウンディングボックス403とを抽出する。ここで、インスタンスセグメンテーションとは、画像データから、対象物の位置するピクセル単位の領域、対象物領域のピクセル単位のxyの座標、xの最小値、yの最小値、xの最大値、yの最大値を検出する手法である。処置具のセグメンテーションマスクとは、内視鏡画像内の処置具のピクセル単位の領域であって、図4において斜線で表されている領域である。バウンディングボックスは、処置具のセグメンテーションマスクのxの最小値、yの最小値、xの最大値、yの最大値に囲まれた矩形のデータであって、図4において破線で表されている矩形であり、バウンディングボックスの4つの辺は、内視鏡画像の4つの辺とそれぞれ平行である。
図5に、図3に示す先端検出部310の構成の一例を示す。先端検出部310は、根部特定部501と、端部位検出部502と、角度検出部503と、先端点検出部504とから構成される。
根部特定部501は、内視鏡画像内の処置具が、内視鏡画像の周囲の4辺のいずれの辺から内視鏡画像内の処置具の先端点へ向けて延びているかを判定する。根部特定部501が処置具の出現する辺を判定する方法を図6(a)及び図6(b)を参照しながら説明する。図6(a)及び図6(b)に、処置具601を含む内視鏡画像60を示す。簡単のために、図6(a)には、1本の処置具のみを表示する。内視鏡画像60の4つの辺ABCDから距離rだけ離れた内側に、画像縁部線602を引き、画像縁部線602と内視鏡画像60の外枠線との間の領域を画像縁部603とする。内視鏡画像60の4つの辺ABCDのうち、画像縁部603と、処置具601との被覆する面積が最大となる辺を、処置具601の出現する辺とする。
図6(b)に、図6(a)の処置具601の根部を拡大した図を示す。画像縁部線602の辺Cに最近接する角から辺Cに垂直線L1を引き、同様に、画像縁部線602の辺Dに最近接する角から辺Dに垂直線L2を引く。処置具601の、画像縁部線602及び垂直線L1に囲まれた領域604の面積と、画像縁部線602及び垂直線L2に囲まれた領域605の面積とを比較する。領域604の面積と比較して、領域605の面積の方が大きく、従って、処置具601は辺Dから出現しているものと判定する。
端部位検出部502は、処置具の端の部分、即ち端部位を検出する。図5に示すように、端部位検出部502は、第1端部位検出部5021と、第2端部位検出部5022と、第3端部位検出部5023とから構成される。第1端部位検出部5021は、根部から内視鏡画像内の処置具の先端点へ向けて延びる処置具の最後方の点、即ち後端点を端部位として検出する。第2端部位検出部5022、及び、第3端部位検出部5023は、バウンディングボックスの4つの角のうち、処置具の先端に最も近い角、即ち先端角と、最も遠い角、即ち後端角とを端部位として検出する。第2端部位検出部5022は、処置具の先端が1つである場合に、先端角と、後端角とを検出する。第3端部位検出部5023は、処置具の先端が2つである場合に、先端角と、後端角とを検出する。
第1端部検出部5021が後端点を検出する方法について図7を参照しながら説明する。図7に、図6(b)と同様、図6(a)の処置具601の根部を拡大した図を示す。処置具601と画像縁部603との被覆領域701の重心点702が後端点として検出される。
第2端部位検出部5022が、処置具の先端が1つである場合に、先端角と、後端角とを検出する方法を、図8を参照しながら説明する。まず、第2端部位検出部5022は、根部特定部501によって判定された、内視鏡画像内に処置具801が出現する辺から最遠となる、処置具のセグメンテーションマスク上の点802を検出する。次に、検出したセグメンテーションマスク上の点に最近接し、かつ、処置具が出現する辺上にはない、バウンディングボックス803の角を先端角804とする。先端角と対角にあるバウンディングボックスの角を後端角805とする。
第3端部位検出部5023が、処置具の先端が2つである場合に、先端角と、後端角とを検出する方法を、図9を参照しながら説明する。まず、第3端部位検出部5023は、根部特定部501によって判定された、内視鏡画像内に処置具901が出現する辺に接している処置具のセグメンテーションマスクの平均座標905、即ち、処置具のセグメンテーションマスクの、内視鏡画像内に処置具901が出現する辺との接線の平均座標905を取得する。次に、内視鏡画像内に処置具901が出現する辺に接しているバウンディングボックス902の角のうち、平均座標905に最近接している角を後端角903とする。後端角903と対角にあるバウンディングボックス902の角を先端角904とする。
角度検出部503は、内視鏡画像内の処置具が内視鏡画像の周囲の4辺のうちの一つとなす角度を、処置具の角度として検出する。本実施形態において、角度検出部503は、図6(a)に示す内視鏡画像の周囲の4辺のうちの辺Cと処置具のなす角度を検出するものとする。角度検出部503が処置具の角度を検出する方法として、第1端部位検出部5021によって検出された後端点を用いて検出する方法と、第2端部位検出部5022、又は、第3端部位検出部5023によって検出された先端角と後端角を用いて検出する方法と、後端点、先端角、後端角のいずれも使用せず検出する方法とがある。なお、本実施形態において、処置具の先端の数に関わらず、これらの方法を適用できる。
図5に示すように、角度検出部503は、第1角度検出部5031と、第2角度検出部5032と、第3角度検出部5033とから構成される。第1角度検出部5031は、第1端部位検出部5021によって検出された後端点を用いて処置具の角度を検出する。第2角度検出部5032は、第2端部位検出部5022、又は、第3端部位検出部5023によって検出された先端角と、後端角を用いて処置具の角度を検出する。第3角度検出部5033は、後端点、先端角、後端角のいずれも使用せず処置具の角度を検出する。
第1角度検出部5031が、第1端部位検出部5021によって検出された後端点を用いて処置具の角度を検出する方法を、図10を参照しながら説明する。図10に示すように、処置具1001のセグメンテーションマスクを囲う最小の長方形1002を算出する。長方形1002の各辺に直交する直線1003~1006の、図6(a)及び図10に示す辺Cとなす角のうちのいずれかが、第1角度検出部5031が検出する角度となる。図10に示すように、処置具1001の後端点Fから、処置具1001のセグメンテーションマスクの重心Eへ向かう直線1007が、辺Cとなす角θを取得する。直線1003~1006が辺Cとなす角のうち、角θに最も近い値をとる角度を、処置具1001の角度として検出する。図10においては、直線1006が辺Cとなす角を、処置具1001の角度として検出する。
第2角度検出部5032が、第2端部位検出部5022、又は、第3端部位検出部5023によって検出された先端角と、後端角を用いて角度を検出する方法を、図11を参照しながら説明する。図11に示すように、第2端部位検出部5022、又は、第3端部位検出部5023によって検出された処置具1101の先端角1103と後端角1102とを結ぶ線1104と、辺Cとなす角θを、処置具1101の角度として検出する。
第3角度検出部5033が、後端点、先端角、後端角のいずれも使用せず処置具の角度を検出する方法を、図12を参照しながら説明する。図12に示すように、処置具1201のセグメンテーションマスクの分布の主成分分析から、第一主成分方向1202を、処置具の角度として検出する。
先端点検出部504は、内視鏡画像内の処置具の先端点を検出する。先端点検出部504が先端点を検出する方法は、処置具の先端が1つである場合と、処置具の先端が2つである場合とで互いに異なる。先端点検出部504が先端点を検出する方法は、処置具の先端が1つである場合、処置具の後端点を用いて検出する方法と、先端角を用いて検出する方法とがある。処置具の先端が2つである場合、処置具の角度を用いて検出する方法と、判定円を用いて検出する方法とがある。
図5に示すように、先端点検出部504は、第1先端点検出部5041と、第2先端点検出部5042と、第3先端点検出部5043と、第4先端点検出部5044とから構成される。第1先端点検出部5041は、処置具の先端が1つである場合、処置具の後端点を用いて先端点を検出する。第2先端点検出部5042は、処置具の先端が1つである場合、先端角を用いて先端点を検出する。第3先端点検出部5043は、処置具の先端が2つである場合、処置具の角度を用いて先端点を検出する。第4先端点検出部5044は、処置具の先端が2つである場合、判定円を用いて先端点を検出する。
第1先端点検出部5041が、処置具の後端点を用いて先端点を検出する方法を、図13を参照して説明する。処置具1301の後端点1302から最遠の、処置具1301のセグメンテーションマスク上の点を処置具1301の先端点として検出する。この方法は、処置具の先端が1つである場合に限定される。
第2先端点検出部5042が、処置具の先端角を用いて先端点を検出する方法を、図14を参照して説明する。処置具1401の先端角1402に最近接する、処置具1401のセグメンテーションマスク上の点を処置具1401の先端点1403として検出する。この方法は、処置具の先端が1つである場合に限定される。
第3先端点検出部5043が、処置具の角度を用いて先端点を検出する方法を、図15を参照して説明する。処置具1501のセグメンテーションマスクの重心Fを通り、処置具の角度を傾きとする直線1502と、処置具1501のバウンディングボックス1503との交点を処置具1501の先端点1504として検出する。この方法は、処置具の先端が2つである場合に限定される。
第4先端点検出部4044が、判定円を用いて先端点を検出する方法を、図16を参照して説明する。この方法は、処置具の、先端方向に延びる最も鋭利な凸部を先端点として検出する方法である。この方法は、処置具の先端が2つである場合に限定される。まず、処置具1601の先端角1602に最近接する処置具1601のセグメンテーションマスク上の点1603を、処置具1601の2つの先端点のうちの一つであるとする(図16(a))。
次に、処置具1601のセグメンテーションマスクの、凸部形状をなす外周上にあり、一つ目の先端である点1603から一定距離離れており、点1603との間に、処置具1601のセグメンテーションマスクの、凹部形状をなす外周部があり、処置具1601の出現する辺から一定距離離れている点1604を、二つ目の先端点である可能性のある点であるとする(図16(b))。二つ目の先端点である可能性のある点は1つのみであるとは限らず、図16(b)に示すように、複数あってもよい。
次に、二つ目の先端点である可能性のある点のうち、二つ目の先端点を検出するための判定円を生成する(図16(c)、及び図16(d))。図16(d)は図16(c)の拡大図である。図16(c)及び図16(d)に示すように、判定円1605は、二つ目の先端点である可能性のある点を中心とする一定の半径を有する円であり、処置具の角度の後端点方向が開いた扇形状の円である。
判定円と、処置具1601のセグメンテーションマスクとの被覆された面積が最小となる点1606が、二つ目の先端である。
実施形態に係る処置具先端検出装置は、図5に示す先端検出部310の構成要素を組み合わせて処置具の先端点を検出する。図17に、本実施形態に係る、処置具の先端点を検出する際の、図5に示す先端検出部310の構成要素の組み合わせを表で示す。図17に示すように、処置具の先端点の数が1つの場合、2つの場合のいずれの場合においても、図5に示す先端検出部310の構成要素の組み合わせのうち、複数の組み合わせによって先端点を検出することが出来る。
図18のフローチャートを参照しながら、本実施形態に係る処置具先端検出方法を説明する。ステップS1801において、画像取得部307が、手術画像を取得する。
ステップS1802において、画像処理部308が、画像取得部307が取得した画像データに対して、画像処理を実行する。
ステップS1803において、画像認識部313が、予め学習された深層学習モデルを用いて、取得された手術画像の画像認識を行う。
ステップS1804において、処置具抽出部309が、取得された手術画像内の処置具のセグメンテーションマスクとバウンディングボックスとを生成する。
ステップS1805において、根部特定部501が、縁部領域の4辺のそれぞれと、セグメンテーションマスクとの被覆領域が最も大きくなる画像縁部領域の辺を根部として特定する。
ステップS1806において、端部位検出部502が、処置具の端部位を検出する。
ステップS1807において、角度検出部503が、処置具の角度を検出する。
ステップS1808において、先端点検出部504が、処置具の先端点を検出する。
以上、本発明はここでは記載していない様々な実施形態等を含むことは勿論である。したがって、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。
10 処置具先端検出装置
101、102、401、601、801、901、1001、1101、1201、1401、1501、1601 処置具
103 内視鏡
104 患部
105 処理装置
106 内視鏡用ディスプレイ
107 患者
301 CPU
302 ROM
303 RAM
304 記憶部
305 I/O
306 GPU
307 画像取得部
308 画像処理部
309 処置具抽出部
310 先端検出部
311 出力部
312 制御部
313 画像認識部
402 セグメンテーションマスク
403 バウンディングボックス
501 根部判定部
502 端部位検出部
5021 第1端部位検出部
5022 第2端部位検出部
5023 第3端部位検出部
503 角度検出部
5031 第1角度検出部
5032 第2角度検出部
5033 第3角度検出部
504 先端点検出部
5041 第1先端点検出部
5042 第2先端点検出部
5043 第3先端点検出部
5044 第4先端点検出部
60 内視鏡画像
602 画像縁部線
603 画像縁部
604、605 領域
701 被覆領域
702 重心点
802、1604 点
803 バウンディングボックス
804、904、1102、1402、1602 先端角
805、903、1103 後端角
902 バウンディングボックス
905 平均座標
1002 長方形
1003~1007、1502 直線
1104 線
1202 第一主成分方向
1403、1504、1603、1606 先端点
1503 バウンディングボックス
1605 判定円

Claims (13)

  1. 手術画像を取得する画像取得部と、
    予め学習された深層学習モデルを用いて、前記手術画像の画像認識を行う画像認識部と、
    前記手術画像内において当該手術画像内の処置具のセグメンテーションマスクとバウンディングボックスとを生成する処置具抽出部と、
    生成された前記セグメンテーションマスクと、生成された前記バウンディングボックスとを用いて、前記処置具の先端を検出する先端検出部と、を備え、
    前記先端検出部は、
    前記手術画像内に存在する画像縁部領域の4辺のそれぞれと、前記セグメンテーションマスクとの被覆面積が最大となる前記画像縁部領域の辺を根部として特定する根部特定部と、
    前記処置具の端部位を検出する端部位検出部と、
    前記処置具の角度を検出する角度検出部と、
    前記処置具の先端点を検出する先端点検出部と
    を備えることを特徴とする内視鏡画像の処置具の先端検出装置。
  2. 前記端部位検出部は、前記端部位として後端点を検出し、
    前記端部位検出部は、前記画像縁部領域と、前記セグメンテーションマスクの被覆領域における座標の平均点を前記後端点として特定することを特徴とする請求項1に記載の内視鏡画像の処置具の先端検出装置。
  3. 前記端部位検出部は、前記端部位として前記バウンディングボックスの先端角と後端角とを検出し、
    前記端部位検出部は、前記根部から最も離れた前記セグメンテーションマスクに含まれる点のうち、前記根部に対して最遠点を検出し、検出された前記最遠点から最も近く、且つ前記根部上ではない、前記バウンディングボックスの角を前記先端角として検出し、前記検出された先端角と対角にある前記バウンディングボックスの角を前記後端角として検出することを特徴とする請求項1に記載の内視鏡画像の処置具の先端検出装置。
  4. 前記端部位検出部は、前記端部位として前記バウンディングボックスの先端角と後端角とを検出し、
    前記端部位検出部は、前記根部に接している前記セグメンテーションマスクの平均座標を取得し、前記根部に接している前記バウンディングボックスの2つの角のうち、前記平均座標に近い角を前記後端角として検出し、前記検出された後端角と対角にある前記バウンディングボックスの角を前記先端角として検出することを特徴とする請求項1に記載の内視鏡画像の処置具の先端検出装置。
  5. 前記角度検出部は、前記セグメンテーションマスクを囲う最小の長方形を算出し、前記長方形の4辺のそれぞれに直交する4つの直線のそれぞれの角度を算出し、前記セグメンテーションマスクの重心と前記後端点とを結ぶ直線の角度を取得し、前記4つの直線のそれぞれの角度のうち、前記前記長方形の4辺のそれぞれに直交する直線のそれぞれの角度に最も近い角度を前記処置具の角度として検出することを特徴とする請求項1に記載の内視鏡画像の処置具の先端検出装置。
  6. 前記角度検出部は、前記先端角と前記後端角とを結ぶ直線の角度を前記処置具の角度として検出することを特徴とする請求項4に記載の内視鏡画像の処置具の先端検出装置。
  7. 前記角度検出部は、前記セグメンテーションマスクの主成分分析から、第一主成分方向を前記処置具の角度として検出することを特徴とする請求項1に記載の内視鏡画像の処置具の先端検出装置。
  8. 前記先端点検出部は、前記後端点から最も離れた位置にある前記セグメンテーションマスク上の点を前記先端点として検出することを特徴とする請求項1に記載の内視鏡画像の処置具の先端検出装置。
  9. 前記先端点検出部は、前記先端角に最も近い位置にある前記セグメンテーションマスク上の点を前記先端点として検出することを特徴とする請求項4又は6に記載の内視鏡画像の処置具の先端検出装置。
  10. 前記先端点検出部は、前記セグメンテーションマスクの重心を通る直線と、前記バウンディングボックスとの交点を先端点とすることを特徴とする請求項1に記載の内視鏡画像の処置具の先端検出装置。
  11. 前記先端点は、第1先端点と、第2先端点とから構成され、
    前記先端点検出部は、
    前記先端角に最も近い位置にある前記セグメンテーションマスク上の点を前記第1先端点とし、
    前記セグメンテーションマスクの凸部であって、前記凸部と前記第1先端点との間に前記セグメンテーションマスクの凹部があり、前記根部から所定距離以上離れている前記凸部を抽出し、
    所定の半径を有し、前記処置具の角度の前記後端点方向が開いた扇形形状の円を判定円として生成し、前記判定円と前記セグメンテーションマスクとの被覆面積が最小となる前記凸部上の点を第2先端点とする
    ことを特徴とする請求項1に記載の内視鏡画像の処置具の先端検出装置。
  12. コンピュータが、
    手術画像を取得する取得ステップと、
    予め学習された深層学習モデルを用いて、前記手術画像の画像認識を行う画像認識ステップと、
    前記手術画像内の処置具のセグメンテーションマスクとバウンディングボックスとを生成する生成ステップと、
    生成された前記セグメンテーションマスクと、生成された前記バウンディングボックスとを用いて、前記処置具の先端を検出する先端検出ステップと、を備え、
    前記先端検出ステップは、
    画像縁部領域の4辺のそれぞれと、前記セグメンテーションマスクとの被覆領域が最大となる前記画像縁部領域の辺を根部として特定する根部特定ステップと、
    前記処置具の端部位を検出する端部位検出ステップと、
    前記処置具の角度を検出する角度ステップと、
    前記処置具の先端点を検出する先端点検出ステップと
    を実行することを特徴とする内視鏡画像の処置具の先端検出方法。
  13. コンピュータに、
    手術画像を取得する画像取得機能と、
    予め学習された深層学習モデルを用いて、前記手術画像の画像認識を行う画像認識機能と、
    前記手術画像内の処置具のセグメンテーションマスクとバウンディングボックスとを生成する処置具抽出機能と、
    生成された前記セグメンテーションマスクと、生成された前記バウンディングボックスとを用いて、前記処置具の先端を検出する先端検出機能と
    を備え、
    前記先端検出機能は、
    画像縁部領域の4辺のそれぞれと、前記セグメンテーションマスクとの被覆領域が最大となる前記画像縁部領域の辺を根部として特定する根部特定機能と、
    前記処置具の端部位を検出する端部位検出機能と、
    前記処置具の角度を検出する角度検出機能と、
    前記処置具の先端点を検出する先端点検出機能と
    を実現させる内視鏡画像の処置具の先端検出プログラム。
JP2021135936A 2021-08-23 2021-08-23 内視鏡画像の処置具の先端検出装置、内視鏡画像の処置具の先端検出方法、及び内視鏡画像の処置具の先端検出プログラム Pending JP2023030681A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021135936A JP2023030681A (ja) 2021-08-23 2021-08-23 内視鏡画像の処置具の先端検出装置、内視鏡画像の処置具の先端検出方法、及び内視鏡画像の処置具の先端検出プログラム
PCT/JP2022/023148 WO2023026632A1 (ja) 2021-08-23 2022-06-08 内視鏡画像の処置具の先端検出装置、内視鏡画像の処置具の先端検出方法、及び内視鏡画像の処置具の先端検出プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021135936A JP2023030681A (ja) 2021-08-23 2021-08-23 内視鏡画像の処置具の先端検出装置、内視鏡画像の処置具の先端検出方法、及び内視鏡画像の処置具の先端検出プログラム

Publications (1)

Publication Number Publication Date
JP2023030681A true JP2023030681A (ja) 2023-03-08

Family

ID=85321742

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021135936A Pending JP2023030681A (ja) 2021-08-23 2021-08-23 内視鏡画像の処置具の先端検出装置、内視鏡画像の処置具の先端検出方法、及び内視鏡画像の処置具の先端検出プログラム

Country Status (2)

Country Link
JP (1) JP2023030681A (ja)
WO (1) WO2023026632A1 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6270537B2 (ja) * 2014-02-27 2018-01-31 オリンパス株式会社 医療用システム
JP6132901B2 (ja) * 2015-12-25 2017-05-24 オリンパス株式会社 内視鏡装置
JP7083189B2 (ja) * 2018-03-29 2022-06-10 国立大学法人 奈良先端科学技術大学院大学 学習データセット作製方法及び装置
US11638569B2 (en) * 2018-06-08 2023-05-02 Rutgers, The State University Of New Jersey Computer vision systems and methods for real-time needle detection, enhancement and localization in ultrasound

Also Published As

Publication number Publication date
WO2023026632A1 (ja) 2023-03-02

Similar Documents

Publication Publication Date Title
CN110355754B (zh) 机器人手眼系统、控制方法、设备及存储介质
Bodenstedt et al. Comparative evaluation of instrument segmentation and tracking methods in minimally invasive surgery
US10997465B2 (en) Information processing device, information processing method, and storage medium
EP2472473B1 (en) Image analysis device
CN100366224C (zh) 图像处理装置及其控制方法
JP2009510571A (ja) 図形画像内の楕円の形状および/または位置に関する情報を決定するための装置、方法およびコンピュータプログラム
US8554016B2 (en) Image registration system and method for registering images for deformable surfaces
JP2017029343A (ja) 画像処理装置、画像処理方法、及びプログラム
CN114022547A (zh) 一种内窥镜图像检测方法、装置、设备及存储介质
JP2016019665A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2006006359A (ja) 画像生成装置、画像生成装置方法、およびそのプログラム
US20100284579A1 (en) Abnormal shadow candidate detecting method and abnormal shadow candidate detecting apparatus
JP2022031179A (ja) デバイス対画像レジストレーションの方法、装置及び記憶媒体
US11651604B2 (en) Word recognition method, apparatus and storage medium
JP5134287B2 (ja) 医用画像表示装置、医用画像表示方法、プログラム、記憶媒体およびマンモグラフィ装置
US11443501B2 (en) Robotic surgical safety via video processing
US20210287331A1 (en) Device and method for registering three-dimensional data
CN113974837A (zh) 末端工具的识别系统、方法、末端工具和手术机器人系统
US20030228044A1 (en) Radiographic marker location
WO2023026632A1 (ja) 内視鏡画像の処置具の先端検出装置、内視鏡画像の処置具の先端検出方法、及び内視鏡画像の処置具の先端検出プログラム
JP4416823B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
CN111223117A (zh) 舌面图像分割装置、方法及计算机存储介质
Rosa et al. Combining differential kinematics and optical flow for automatic labeling of continuum robots in minimally invasive surgery
CN110675444B (zh) 头部ct扫描区域的确定方法、装置及图像处理设备
JP2021157108A (ja) トレーニングシステム、画像処理装置、画像処理方法および画像処理プログラム