JP6695502B2 - 手術器具検出システムおよびコンピュータプログラム - Google Patents

手術器具検出システムおよびコンピュータプログラム Download PDF

Info

Publication number
JP6695502B2
JP6695502B2 JP2019521274A JP2019521274A JP6695502B2 JP 6695502 B2 JP6695502 B2 JP 6695502B2 JP 2019521274 A JP2019521274 A JP 2019521274A JP 2019521274 A JP2019521274 A JP 2019521274A JP 6695502 B2 JP6695502 B2 JP 6695502B2
Authority
JP
Japan
Prior art keywords
image
surgical instrument
detection system
object image
instrument detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019521274A
Other languages
English (en)
Other versions
JPWO2018221599A1 (ja
Inventor
拓也 片山
拓也 片山
伸章 杉井
伸章 杉井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eizo Corp
Original Assignee
Eizo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eizo Corp filed Critical Eizo Corp
Publication of JPWO2018221599A1 publication Critical patent/JPWO2018221599A1/ja
Application granted granted Critical
Publication of JP6695502B2 publication Critical patent/JP6695502B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/08Accessories or related features not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/28Surgical forceps
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/08Accessories or related features not otherwise provided for
    • A61B2090/0804Counting number of instruments used; Instrument detectors
    • A61B2090/0805Counting number of instruments used; Instrument detectors automatically, e.g. by means of magnetic, optical or photoelectric detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/034Recognition of patterns in medical or anatomical images of medical instruments

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Robotics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Image Analysis (AREA)

Description

本発明は、外科手術等で用いられる手術器具を検出するシステムに関する。
外科手術の際には、鉗子や鑷子(ピンセット)等の手術器具が、多数用いられる。手術中に手術器具を患者の体内に置き忘れるという事態は、あってはならない医療ミスであるため、手術開始前に手術器具の種類と数とをカウントし、手術終了後に、手術器具が全て揃っているか否かを確認することが徹底されている。
しかし、手術器具の種類は非常に多く、形状や大きさがわずかに異なるだけで非常に似通ったものが多数存在する。このため、目視で手術器具の種類を正確に見分けることは、熟連した看護師でも難しい。
そこで、従来、鋼製小物等の手術器械にバーコード等の光学読み取り用記号を付与し、これを利用して手術器械の種類を識別することができる手術機械準備システムが提案されている(特許文献1)。なお、この特許文献1に開示されている手術器械準備システムは、手術に使用する手術器械を手術前に準備するために用いられるものであり、手術後に手術器械が揃っているか否かを確認するためのものではない。
特開平6−142105号公報
しかし、手術器具の一つ一つに光学読み取り用記号を付与することは、特殊な加工プロセスを必要とするので、手術器具の製造コストを増加させる。また、手術器具の一つ一つから読み取り装置で記号を読み取ることは、手間と時間がかかる。
そこで、本発明は、手術器具に光学読み取り用記号等の特殊な加工をすることなく、多種多様な手術器具の種類と数とを容易に識別することが可能な手術器具検出システムを提供することを目的とする。
上記の課題を解決するために、本発明に係る手術器具検出システムは、カメラによって撮影された画像を入力する画像入力部と、入力画像から手術器具のオブジェクト画像を切り出すオブジェクト抽出部と、前記オブジェクト画像を分類用学習済みモデルへ入力し、当該オブジェクト画像に含まれる特徴に基づいて、当該オブジェクト画像が該当する手術器具の種類を判定する判定処理部と、前記判定処理部による判定の結果を表す画像を生成してモニタへ出力する出力画像生成部とを備えている。
上記の構成によれば、手術器具に光学読み取り用記号等の特殊な加工をすることなく、多種多様な手術器具の種類と数とを容易に識別することが可能な手術器具検出システムを提供することができる。
図1は、第1の実施形態に係る手術器具検出システムのハードウエア構成の概要を示す図である。 図2は、第1の実施形態に係る手術器具検出システムの機能的な概略構成を示すブロック図である。 図3は、第1の実施形態に係る手術器具検出システムの処理の流れを示すフローチャートである。 図4は、モニタへの出力例を示す模式図である。 図5は、モニタへの出力例を示す模式図である。 図6は、モニタへの出力例を示す模式図である。 図7は、第2の実施形態に係る手術器具検出システムの機能的な概略構成を示すブロック図である。 図8は、モニタへの出力例を示す模式図である。 図9は、モニタへの出力例を示す模式図である。 図10は、第3の実施形態に係る手術器具検出システムの機能的な概略構成を示すブロック図である。 図11は、第4の実施形態に係る手術器具検出システムの機能的な概略構成を示すブロック図である。
本発明の手術器具検出システムの第1の構成は、
カメラによって撮影された画像を入力する画像入力部と、
入力画像から手術器具のオブジェクト画像を切り出すオブジェクト抽出部と、
前記オブジェクト画像を分類用学習済みモデルへ入力し、当該オブジェクト画像に含まれる特徴に基づいて、当該オブジェクト画像が該当する手術器具の種類を判定する判定処理部と、
前記判定処理部による判定の結果を表す画像を生成してモニタへ出力する出力画像生成部とを備える。
上記の第1の構成によれば、カメラで撮影された画像から、手術器具のオブジェクト画像を切り出して、学習済みモデルを利用して手術器具の種類を判定することができる。これにより、手術器具に特別な加工を施すことなく、手術器具の種類を自動的に判別することができる。
第2の構成は、前記第1の構成において、
前記出力画像生成部が、手術器具の種類を表す画像を、撮影画像のオブジェクト画像に重ねて出力する。
第2の構成によれば、モニタ上で、それぞれのオブジェクト画像がどのような手術器具であるかを容易に認識することができる。
第3の構成は、前記第1または第2の構成において、
前記オブジェクト抽出部が、背景画像と撮影画像とにおける画素ごとの色空間ベクトルの比較に基づいて、前記オブジェクト画像の切り出しを行う。
第3の構成では、背景画像をあらかじめ取得しておく必要があるが、背景に依存せずにオブジェクト画像の切り出しを行うことができる。
第4の構成は、前記第1または第2のいずれかの構成において、
前記オブジェクト抽出部が、オブジェクト抽出用学習済みモデルへ撮影画像を入力し、撮影画像に含まれる特徴に基づいて、前記オブジェクト画像の切り出しを行う。
第4の構成では、事前に複数の照明条件でのオブジェクト抽出を学習させることで、影や色温度といった照明条件の影響を受けずに、オブジェクト画像の切り出しを自動的に行うことができる。
第5の構成は、前記第1または第2のいずれかの構成において、
前記オブジェクト抽出部が、撮影画像の画素データをHSV色空間のデータに変換し、色相や彩度のエッジ情報に基づいて、オブジェクト画像の切り出しを行う。
第5の構成によれば、色相や彩度は、輝度と比較して影の影響を受けにくく、色温度の変化といった全体に影響を与える環境の変化はエッジには影響を与えないため、照明条件の影響を受けずにオブジェクト画像の切り出しを行うことができる。
第6の構成は、前記第1〜第5のいずれかの構成において、
手術開始前の手術器具の種類および数を、手術終了後の手術器具の種類および数と照合する照合処理部をさらに備え、
前記出力画像生成部が、前記照合処理部による照合の結果を表す画像を生成して、前記モニタへ出力する。
第6の構成によれば、手術開始前と終了後とにおける手術器具の種類と数とを照合することができるので、手術中に手術器具を患者の体内等に置き忘れるという医療事故を効果的に防ぐことが可能となる。
本発明の一形態としてのコンピュータプログラムは、
コンピュータのプロセッサに手術器具検出処理を実行させる、コンピュータ読み取り可能なプログラムであって、
前記手術器具検出処理が、
カメラによって撮影された画像を入力する画像入力処理と、
入力画像から手術器具のオブジェクト画像を切り出すオブジェクト抽出処理と、
前記オブジェクト画像を分類用学習済みモデルへ入力し、当該オブジェクト画像に含まれる特徴に基づいて、当該オブジェクト画像が該当する手術器具の種類を判定する判定処理と、
前記判定処理による判定の結果を表す画像を生成してモニタへ出力する出力画像生成処理とを含む。
本発明の一形態としての手術器具検出方法は、
コンピュータのプロセッサによって実行される手術器具検出方法であって、
カメラによって撮影された画像を入力するステップと、
入力画像から手術器具のオブジェクト画像を切り出すステップと、
前記オブジェクト画像を分類用学習済みモデルへ入力し、当該オブジェクト画像に含まれる特徴に基づいて、当該オブジェクト画像が該当する手術器具の種類を判定するステップと、
前記判定の結果を表す画像を生成してモニタへ出力するステップとを含む。
[実施形態]
以下、図面を参照し、本発明の実施の形態を詳しく説明する。図中同一または相当部分には同一符号を付してその説明は繰り返さない。なお、説明を分かりやすくするために、以下で参照する図面においては、構成が簡略化または模式化して示されたり、一部の構成部材が省略されたりしている。また、各図に示された構成部材間の寸法比は、必ずしも実際の寸法比を示すものではない。
[第1の実施形態]
以下、第1の実施形態について説明する。
図1に、第1の実施形態に係る手術器具検出システムのハードウエア構成の概要を示す。本実施形態に係る手術器具検出システム100は、手術器具のうち、特に鋼製小物を検出する鋼製小物検出システムであり、図1に示すように、カメラ1、モニタ2、コンピュータ3、キーボード4、およびマウス5を備えている。
カメラ1、モニタ2、キーボード4、およびマウス5は、コンピュータ3に接続されている。なお、図1では、キーボード4とマウス5とを備えた構成を例示しているが、モニタ2として、タッチパネル入力が可能なモニタを使用すれば、キーボードおよびマウスを省略することができる。また、キーボードおよびマウスの代わりにマイクを備え、音声入力でユーザからの指示を受け付けるコンピュータを使用してもよい。
カメラ1、モニタ2、およびコンピュータ3は、カート6に取り付けられている。カート6は、キャスタ付き脚部61を備えている。カート6の支柱62の先端には、アーム63が取り付けられており、アーム63がカメラ1を保持している。アーム63は、カメラ1の視野を自在に調整するために、2軸以上の回動軸を有していることが望ましい。カート6は、さらに、テーブル64を備えており、このテーブル64上にキーボード4とマウス5とを置くことができる。カート6は、さらに、コンピュータ支持台65を備えており、ここにコンピュータ3を設置することができる。
以上の構成を有する手術器具検出システム100は、カート6を押して移動させることができ、手術室等に持ち込んで、図1に示すように、手術器具が載置された器具載置台7を、カメラ1で撮影する。カメラ1で撮影された画像は、コンピュータ3へ送られ、画像処理によって鋼製小物の検出処理が行われる。
図2は、手術器具検出システム100の機能的な構成を示すブロック図である。なお、図2に示すブロック図は、手術器具検出システムの機能をブロックに分類して概念的に示したものであって、実際にそれぞれのブロックが個別のハードウエアとして実装されていることを要するものではない。それぞれのブロックは、コンピュータ3のCPUが所定のプログラムを実行することによって実現することができる。
図2に示すように、手術器具検出システム100は、カメラ1で撮影された画像を入力する画像入力部31と、入力画像から鋼製小物である蓋然性が高いオブジェクトの画像を切り出すオブジェクト抽出部32と、オブジェクト抽出部32で切り出されたオブジェクト画像から、鋼製小物の種類を判定する処理を行う判定処理部33と、判定処理部33による処理結果を示す表示画像を生成する出力画像生成部34と、上述の各部の処理に必要なデータが格納される記憶部36とを備えている。
ここで、上記の各部が行う処理の手順を、図3のフローチャートを参照しながら説明する。
本実施形態では、オブジェクト抽出部32は、鋼製小物である蓋然性が高いオブジェクトの画像を切り出すために、画素値比較処理を行う。このため、本実施形態においては、手術器具を載置する前に、器具載置台7の画像をカメラ1で撮影し、参照用の背景画像として用いる。一般的に、器具載置台7には滅菌シートを敷いて、その上に手術器具を並べる。したがって、手術器具を並べる前に撮影された背景画像には、この滅菌シートのみの画像が含まれる。カメラ1で撮影された背景画像は、画像入力部31によって記憶部36内の背景画像記憶部361に格納される(S1)。
その後、手術で用いられる器具が器具載置台7にセットされると、再び、カメラ1で器具載置台7の画像を撮影する。撮影された画像は、画像入力部31によって記憶部36の撮影画像記憶部362に一時的に格納される(S2)。また、撮影された画像は、図4に示すように、出力画像生成部34によってモニタ2へ表示される。図4の例では、8本の鉗子91が器具載置台7に並べられている状態が撮影されている。
オブジェクト抽出部32は、画素値比較部321を備えている。画素値比較部321は、記憶部36から、前述の背景画像と、撮影された画像とを読み出し、それぞれの画像に含まれる画素のRGBベクトルを比較する(S3)。オブジェクト抽出部32は、さらに、オブジェクト検出部322を備えている。オブジェクト検出部322は、背景画像と撮影画像において両者のRGBベクトルのなす角度、またはベクトルの大きさの差分が所定の閾値よりも大きい画素から構成される領域を、鋼製小物のオブジェクトであると判断する(S4)。撮影画像に含まれる画素のうち、オブジェクトを構成する画素には、撮影画像記憶部362において、オブジェクトであることを示すフラグが付与される。
なお、図5に示すように、オブジェクトの抽出結果をモニタ2に表示するようにしてもよい。図5に示した例では、撮影画像からオブジェクトとして検出された8本の鉗子91のそれぞれの周囲に、オブジェクトの境界線92が表示されている。
オブジェクト抽出部32による処理が完了すると、判定処理部33が、ディープラーニングを適用した分類用学習済みモデル331を利用して、抽出されたオブジェクトがどの鋼製小物に該当するかを判定する(S5)。
この分類用学習済みモデルは、様々な鋼製小物を撮影した画像を大量に学習させることにより生成されている。鋼製小物は、全体または部分の形状や色等の特徴に基づいて、分類することができる。なお、鋼製小物は、光の入射方向が変化すると、影や鏡面反射による輝度変化が大きく、認識精度に影響を与えることが多い。このため、学習させる画像は、鋼製小物に対する光の入射条件を様々に変化させて撮影することが好ましい。
判定処理部33は、オブジェクト抽出部32によって切り出されたオブジェクト画像のそれぞれを分類用学習済みモデルへ入力する。分類用学習済みモデルは、入力されたオブジェクト画像に含まれる特徴に基づいて、オブジェクト画像がどの鋼製小物に該当するかを判定し、判定結果を判定確度と共に出力する。この判定確度とは、オブジェクト画像がその鋼製小物に該当することの確からしさを表す値である。
判定処理部33は、各オブジェクト画像に対する判定確度が所定値(例えば90%)より大きい場合は、そのオブジェクト画像の判定結果として、分類用学習済みモデルから出力された鋼製小物の種類を表すデータを、出力画像生成部34へ出力する。一方、判定確度が所定値以下である場合は、当該オブジェクト画像の判定結果として、「不明」を出力画像生成部34へ出力する。
出力画像生成部34は、判定処理部33から受け取った判定結果に基づいて、モニタ2への出力画像を生成する(S6)。出力画像生成部34は、例えば、図6に示すように、それぞれのオブジェクトを囲む線と判定結果を表すテキスト(文字列)とを含む画像を生成し、これを撮影画像に重ねてモニタ2へ表示させる。ここで、不明と出力されたオブジェクトや誤認識されたオブジェクトがある場合は、ユーザの手作業で判定結果を修正し確定する。その結果を分類用学習済みモデルへフィードバックすることで、モデルの更新を行い、認識精度を向上させることができる。
例えば、ペアン鉗子は、先端部の形状(直・曲)によって分類することができるので、それらを、「ペアン鉗子直」または「ペアン鉗子曲」のようにテキストで表示する。図6の例では、オブジェクト画像の全てが「ペアン鉗子直」であると判定された状態を示している。
このように、本実施形態の手術器具検出システム100によれば、カメラ1で撮影した画像から、鋼製小物のオブジェクト画像を切り出し、それぞれのオブジェクト画像に対して分類用学習済みモデルを用いることにより、鋼製小物の種類を自動的に判別することができる。これにより、鋼製小物に光学読み取り用記号等の特別な加工を施す必要がなく、鋼製小物の種類を正確に見分けることが可能となる。
[第2の実施形態]
第2の実施形態に係る手術器具検出システム200は、第1の実施形態に係る手術器具検出システムに対して、手術後に鋼製小物が全て揃っているか否かを判断する機能が追加されている。
このため、手術器具検出システム200は、図7に示すように、照合処理部35をさらに備えている。本実施形態では、手術が終了した後に、回収された鋼製小物を器具載置台7に乗せてカメラ1で撮影し、第1の実施形態と同様に、撮影画像に含まれる鋼製小物の種類と数を検出する。照合処理部35は、手術前後の鋼製小物の種類および数を照合し、その過不足を検出する。
手術器具検出システム200では、記憶部36に、手術開始前の鋼製小物の種類と数とを記憶するための必要数記憶部363をさらに備えている。すなわち、必要数記憶部363には、手術に用いるために準備された鋼製小物の種類と、種類別の数とが記憶されている。この鋼製小物の種類と数とは、手術開始前に、これから使用する鋼製小物を器具載置台7に並べてカメラ1で撮影し、判定処理部33によって検出された種類と数とを、必要数記憶部363に記憶させておくことが好ましい。あるいは、システムによる自動検出を行わず、キーボード4およびマウス5を使用して、これから使用する鋼製小物の種類と数とを入力するようにしてもよい。
図8および図9に、手術器具検出システム200において、モニタ2に表示される画面の一例を示す。図8は、手術終了後に、カメラ1によって器具載置台7に並べられた鋼製小物を撮影した後に、モニタ2に表示された画面の一例である。図8に例示された画面には、撮影画像表示領域81、器具種表示欄82、必要数表示欄83、認識済み数表示欄84、認識中数表示欄85、過不足数表示欄86、スクロールバー87、および、操作ボタン88が表示されている。
器具種表示欄82には、鋼製小物の種類が表示されている。必要数表示欄83には、必要数記憶部363に記憶されたデータに基づき、手術開始前の鋼製小物の数が、種類別に表示されている。認識済み数表示欄84、認識中数表示欄85、および過不足数表示欄86には、この段階では何も表示されていない。操作ボタン88には「認識」というコマンドが表示されている。カメラ1による撮影画像が撮影画像表示領域81に取り込まれた後、操作者が操作ボタン88をクリックすると、オブジェクト抽出部32および判定処理部33による処理が開される。
そして、図9に示すように、撮影画像表示領域81には、撮影画像から検出された鋼製小物のオブジェクトのそれぞれに重ねて、その鋼製小物の種別がテキスト表示される。このとき、操作ボタン88には「登録」というコマンドが表示される。認識中数表示欄85には、判定処理部33によってその種類に該当する蓋然性が高いと判断されたオブジェクトの数が計上されている。ここで、誤認識があったり、不明と判定されたオブジェクトがあったりした場合は、ユーザが判定結果を修正することができる。そして、操作ボタン88をクリックすると、認識中のオブジェクトの判定結果が確定され、認識済み数表示欄8に計上される。過不足数表示欄86には、必要数表示欄83に表示されている数から認識済み数表示欄84に表示されている数を減じた値が表示される。図9の例では、「ペアン鉗子短直」、「ペアン鉗子長直」、「ペアン鉗子長曲」、「鑷子無鈎中」という名称がつけられた手術器具について、判定処理部33による判定結果を表示している。なお、計上すべき全ての鋼製小物についての認識および登録作業がすべて無事に完了すると、過不足数表示欄86には「0」が表示されることとなる。

以上のように、本実施形態によれば、手術前後の鋼製小物の種類と数とが一致しているか否かを、画像認識によって自動的に照合することができる。これにより、鋼製小物に特殊な加工を施すことなく、患者の体内に鋼製小物を置き忘れていないかを自動的にチェックするシステムを提供することができる。
[第3の実施形態]
第3の実施形態に係る手術器具検出システム300は、図10に示すように、第1の実施形態のオブジェクト抽出部32の代わりに、オブジェクト抽出部32Aを備えている。オブジェクト抽出部32Aは、ディープラーニングを適用したオブジェクト抽出用学習済みモデル32A1を利用して、鋼製小物の蓋然性が高いオブジェクト画像の抽出を行う。このようなオブジェクト抽出用学習済みモデルは、器具載置台7の滅菌シート上に鋼製小物を置いて撮影した画像を大量に学習させることにより得ることができる。
すなわち、オブジェクト抽出用学習済みモデルは、鋼製小物の種類の判定に用いられる分類用学習済みモデルとは異なり、所定の画素(または画素領域)が、鋼製小物の画像の一部であるのか、背景(滅菌シート)であるのかを判断するための学習モデルである。
このように、本実施形態では、オブジェクト画像の切り出しに際しても学習済みモデルを使用する点において、第1の実施形態と異なっている。
しかし、本実施形態によれば、第1の実施形態とは異なり、背景画像のみを撮影する工程が不要である。また、オブジェクト抽出用学習済みモデルとして、十分に学習された学習済みモデルを用いることにより、オブジェクト画像の切り出しを精度良く行うことができる。
なお、第2の実施形態のオブジェクト抽出部32の代わりに、上記のオブジェクト抽出部32Aを備えた構成としてもよい。
[第4の実施形態]
本実施形態に係る手術器具検出システム400は、図11に示すように、第1の実施形態のオブジェクト抽出部32の代わりに、オブジェクト抽出部32Bを備えている。オブジェクト抽出部32Bは、変換部321Bと、エッジ検出部322Bとを備えている。
オブジェクト抽出部32Bは、背景となる滅菌シートが一般的には青色系のものが用いられるのに対して、鋼製小物が銀色、黒色といったHSV色空間における彩度が低いものが使われている点を利用してオブジェクトを検出する。変換部321Bは、入力された撮影画像のRGBデータを、HSV色空間のデータに変換する。エッジ検出部322Bは、色相および彩度データに基づいて、オブジェクトのエッジ(境界線)を検出する。エッジの検出手法としては、従来様々な手法が知られているので、特に限定されないが、例えばCanny法等を用いることができる。なお、RGBデータをHSV色空間のデータに変換してから、色相および彩度データに基づいてエッジ抽出を行うことにより、周囲の光の状況が変化することによる影の影響を抑制することができる。RGBの輝度データやHSVの明度データは影の影響を受けるが、色相や彩度はそれらに比べると影の影響を受けにくいからである。
なお、第2の実施形態のオブジェクト抽出部32の代わりに、上記のオブジェクト抽出部32Bを備えた構成としてもよい。
以上、本発明の実施形態をいくつか説明したが、本発明の実施形態は、以上の具体例にのみ限定されず、種々の変更が可能である。また、各実施形態で説明した機能を適宜組み合わせて本発明を実施することも可能である。
例えば、上記の実施形態においては、手術器具のうち、特に鋼製小物を検出する手術器具検出システムについて説明したが、鋼製小物の他にも、鋼製小物と同等の表面仕上げがされた軽金属製の手術器具、あるいは、例えばカーボン製または樹脂製の他の材料で形成される手術器具の検出に対しても、本発明を適用することが可能である。
また、上記の説明においては、サーバやコンピュータに実装されるシステムとして、手術器具検出システムの実施形態を説明した。ただし、汎用のサーバやコンピュータに上述した各ブロックの機能を実現させるためのコンピュータプログラムおよびそれを記録した記録媒体も、本発明の実施の一態様に含まれる。
すなわち、上記実施形態の各機能ブロックの処理の一部または全部は、プログラムにより実現されるものであってもよい。そして、上記実施形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。あるいは、GPU(Graphics Processing Unit)、TPU(Tensor Processing Unit)、またはFPGA(Field Programmable Gate Array)等のコプロセッサを利用することも可能である。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。
また、上記実施形態の各処理をハードウエアにより実現してもよいし、ソフトウエア(OS(オペレーティングシステム)、ミドルウエア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウエアおよびハードウエアの混在処理により実現してもよい。
また、上記実施形態における処理方法の実行順序は、必ずしも、上記実施形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。
前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc(登録商標))、半導体メモリを挙げることができる。
上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。
1…カメラ、2…モニタ、3…コンピュータ、4…キーボード、5…マウス、6…カート、7…器具載置台、31…画像入力部、32…オブジェクト抽出部、33…判定処理部、34…出力画像生成部、35…照合処理部、36…記憶部、100、200、300、400…手術器具検出システム

Claims (8)

  1. カメラによって撮影された画像を入力する画像入力部と、
    入力画像から手術器具のオブジェクト画像を切り出すオブジェクト抽出部と、
    前記オブジェクト画像を分類用学習済みモデルへ入力し、当該オブジェクト画像に含まれる特徴に基づいて、当該オブジェクト画像が該当する手術器具の種類を判定する判定処理部と、
    前記判定処理部による判定の結果を表す画像を生成してモニタへ出力する出力画像生成部とを備えた、手術器具検出システム。
  2. 前記出力画像生成部が、手術器具の種類を表す画像を、撮影画像のオブジェクト画像に重ねて出力する、請求項1に記載の手術器具検出システム。
  3. 前記オブジェクト抽出部が、背景画像と撮影画像とにおける画素ごとの色空間ベクトルの比較に基づいて、前記オブジェクト画像の切り出しを行う、請求項1または2に記載の手術器具検出システム。
  4. 前記オブジェクト抽出部が、オブジェクト抽出用学習済みモデルへ撮影画像を入力し、撮影画像に含まれる特徴に基づいて、前記オブジェクト画像の切り出しを行う、請求項1または2に記載の手術器具検出システム。
  5. 前記オブジェクト抽出部が、撮影画像の画素データをHSV色空間のデータに変換し、色相および彩度のエッジ情報に基づいて、前記オブジェクト画像の切り出しを行う、請求項1または2に記載の手術器具検出システム。
  6. 手術開始前の手術器具の種類および数を、手術終了後の手術器具の種類および数と照合する照合処理部をさらに備え、
    前記出力画像生成部が、前記照合処理部による照合の結果を表す画像を生成して、前記モニタへ出力する、請求項1〜5のいずれか一項に記載の手術器具検出システム。
  7. コンピュータのプロセッサに手術器具検出処理を実行させる、コンピュータ読み取り可能なプログラムであって、
    前記手術器具検出処理が、
    カメラによって撮影された画像を入力する画像入力処理と、
    入力画像から手術器具のオブジェクト画像を切り出すオブジェクト抽出処理と、
    前記オブジェクト画像を分類用学習済みモデルへ入力し、当該オブジェクト画像に含まれる特徴に基づいて、当該オブジェクト画像が該当する手術器具の種類を判定する判定処理と、
    前記判定処理による判定の結果を表す画像を生成してモニタへ出力する出力画像生成処理とを含む、コンピュータ読み取り可能なプログラム。
  8. コンピュータのプロセッサによって実行される手術器具検出方法であって、
    カメラによって撮影された画像を入力するステップと、
    入力画像から手術器具のオブジェクト画像を切り出すステップと、
    前記オブジェクト画像を分類用学習済みモデルへ入力し、当該オブジェクト画像に含まれる特徴に基づいて、当該オブジェクト画像が該当する手術器具の種類を判定するステップと、
    前記判定の結果を表す画像を生成してモニタへ出力するステップとを含む、手術器具検出方法。
JP2019521274A 2017-05-31 2018-05-30 手術器具検出システムおよびコンピュータプログラム Active JP6695502B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017107892 2017-05-31
JP2017107892 2017-05-31
PCT/JP2018/020782 WO2018221599A1 (ja) 2017-05-31 2018-05-30 手術器具検出システムおよびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JPWO2018221599A1 JPWO2018221599A1 (ja) 2020-03-26
JP6695502B2 true JP6695502B2 (ja) 2020-05-20

Family

ID=64455477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019521274A Active JP6695502B2 (ja) 2017-05-31 2018-05-30 手術器具検出システムおよびコンピュータプログラム

Country Status (6)

Country Link
US (1) US11256963B2 (ja)
EP (1) EP3633607A4 (ja)
JP (1) JP6695502B2 (ja)
KR (1) KR102344832B1 (ja)
CN (1) CN110678902A (ja)
WO (1) WO2018221599A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110446473A (zh) * 2017-03-29 2019-11-12 索尼奥林巴斯医疗解决方案公司 医疗观察设备和控制方法
US10223611B1 (en) * 2018-03-08 2019-03-05 Capital One Services, Llc Object detection using image classification models
JP7269013B2 (ja) * 2019-01-09 2023-05-08 川崎重工業株式会社 誤認識を抑制可能な画像認識システムおよび画像認識方法
JP7236276B2 (ja) * 2019-01-16 2023-03-09 キヤノンメドテックサプライ株式会社 情報処理システム、及びその制御方法、プログラム
EP3699925A1 (en) 2019-02-25 2020-08-26 Koninklijke Philips N.V. Camera assisted subject support configuration
US11593931B2 (en) 2020-06-09 2023-02-28 Howmedica Osteonics Corp. Surgical kit inspection systems and methods for inspecting surgical kits having parts of different types
CN112712016B (zh) * 2020-12-29 2024-01-26 上海微创医疗机器人(集团)股份有限公司 手术器械识别方法、识别平台及医疗机器人系统
CN113212889B (zh) * 2021-02-26 2023-11-03 深圳市云鼠科技开发有限公司 包装视觉检漏装置、方法、计算机设备及存储介质
GB2606520A (en) * 2021-05-07 2022-11-16 Scalpel Ltd Computer-implemented method and system for identifying objects in an environment
CN114494406B (zh) * 2022-04-13 2022-07-19 武汉楚精灵医疗科技有限公司 医学图像处理方法、装置、终端及计算机可读存储介质
JP7440164B1 (ja) 2024-01-16 2024-02-28 丸木医科器械株式会社 個体物品管理システム、個体物品管理方法、及び、個体物品管理プログラム

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5610811A (en) 1992-11-09 1997-03-11 Niti-On Medical Supply Co., Ltd. Surgical instrument file system
JPH06142105A (ja) 1992-11-09 1994-05-24 Nichion Irika Kikai Seisakusho:Kk 手術器械準備システム
JP2002032751A (ja) * 2000-07-18 2002-01-31 Olympus Optical Co Ltd 学習型画像分類装置及び方法並びにその処理プログラムを記録した記録媒体
US7050613B2 (en) * 2002-11-07 2006-05-23 Fujitsu Limited Method for supporting cell image analysis
US9636188B2 (en) * 2006-03-24 2017-05-02 Stryker Corporation System and method for 3-D tracking of surgical instrument in relation to patient body
US8631489B2 (en) * 2011-02-01 2014-01-14 Damballa, Inc. Method and system for detecting malicious domain names at an upper DNS hierarchy
US20140198234A1 (en) * 2011-09-21 2014-07-17 Nikon Corporation Image processing apparatus, program, image processing method, and imaging apparatus
JP6226187B2 (ja) * 2012-01-30 2017-11-08 日本電気株式会社 情報処理システム、情報処理方法、情報処理装置およびその制御方法と制御プログラム、通信端末およびその制御方法と制御プログラム
US20140081659A1 (en) * 2012-09-17 2014-03-20 Depuy Orthopaedics, Inc. Systems and methods for surgical and interventional planning, support, post-operative follow-up, and functional recovery tracking
US20140108086A1 (en) * 2012-10-15 2014-04-17 Fluor Technologies Corporation Project categorization and assessment through multivariate analysis
US20140160264A1 (en) * 2012-12-10 2014-06-12 The Johns Hopkins University Augmented field of view imaging system
FR3004330B1 (fr) * 2013-04-10 2016-08-19 Analytic - Tracabilite Hospitaliere Tracabilite des instruments chirurgicaux dans une enceinte hospitaliere
JP5958875B2 (ja) 2013-07-05 2016-08-02 パナソニックIpマネジメント株式会社 投影システム
JP6291844B2 (ja) * 2014-01-06 2018-03-14 日本電気株式会社 データ処理装置
US20160287337A1 (en) * 2015-03-31 2016-10-06 Luke J. Aram Orthopaedic surgical system and method for patient-specific surgical procedure
GB201517462D0 (en) * 2015-10-02 2015-11-18 Tractable Ltd Semi-automatic labelling of datasets
US20170132785A1 (en) * 2015-11-09 2017-05-11 Xerox Corporation Method and system for evaluating the quality of a surgical procedure from in-vivo video
US9760700B2 (en) * 2015-12-03 2017-09-12 Google Inc. Image based CAPTCHA challenges
CN114019990A (zh) * 2016-02-24 2022-02-08 深圳市大疆创新科技有限公司 用于控制可移动物体的系统和方法
WO2017149370A1 (en) * 2016-03-01 2017-09-08 Brightway Vision Ltd. Gated imaging apparatus, system and method
JP6656987B2 (ja) * 2016-03-30 2020-03-04 株式会社エクォス・リサーチ 画像認識装置、移動体装置、及び画像認識プログラム
US10973585B2 (en) * 2016-09-21 2021-04-13 Alcon Inc. Systems and methods for tracking the orientation of surgical tools
US10127659B2 (en) * 2016-11-23 2018-11-13 General Electric Company Deep learning medical systems and methods for image acquisition
US10918445B2 (en) * 2016-12-19 2021-02-16 Ethicon Llc Surgical system with augmented reality display
US10586079B2 (en) * 2016-12-23 2020-03-10 Soundhound, Inc. Parametric adaptation of voice synthesis
US11829848B2 (en) * 2017-05-09 2023-11-28 Microsoft Technology Licensing, Llc Adding negative classes for training classifier
US10019654B1 (en) * 2017-06-28 2018-07-10 Accenture Global Solutions Limited Image object recognition
US10930395B2 (en) * 2018-11-23 2021-02-23 Asheleigh Adeline Mowery System for surgical decisions using deep learning

Also Published As

Publication number Publication date
US11256963B2 (en) 2022-02-22
EP3633607A1 (en) 2020-04-08
WO2018221599A1 (ja) 2018-12-06
KR102344832B1 (ko) 2021-12-28
KR20190141228A (ko) 2019-12-23
EP3633607A4 (en) 2020-05-20
JPWO2018221599A1 (ja) 2020-03-26
US20200193241A1 (en) 2020-06-18
CN110678902A (zh) 2020-01-10

Similar Documents

Publication Publication Date Title
JP6695502B2 (ja) 手術器具検出システムおよびコンピュータプログラム
JP6575079B2 (ja) 複数の画像からの商品の認識のための方法
JP5868231B2 (ja) 医用画像診断支援装置、医用画像診断支援方法ならびにコンピュータプログラム
JP2020507836A (ja) 重複撮像を予測した手術アイテムの追跡
US10424067B2 (en) Image processing apparatus, image processing method and storage medium
US20200394599A1 (en) Shelf-allocation information generating device and shelf-allocation information generating program
JP2020061158A (ja) 画像処理装置、表示制御装置、画像処理方法、および、記録媒体
JP2016506260A (ja) ロボット手術器具のマーカーレス追跡
JP6985856B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
US20150173843A1 (en) Tracking medical devices
JP2018512567A (ja) 検査室自動化のためのサイドビューサンプルチューブ画像におけるバーコードタグ検出
CN109426835A (zh) 信息处理装置、信息处理装置的控制方法和存储介质
CN115103648A (zh) 器械跟踪机器
KR20190106601A (ko) 영상 처리를 이용한 발 사이즈 및 모양 측정 방법
US20110224813A1 (en) Image processing device and image processing method
JP2016119090A (ja) 取得された画像内のクラッタを決定するためのシステム及び方法
JP7355601B2 (ja) 計算装置、処理方法、プログラム、及び記憶媒体
JP5134287B2 (ja) 医用画像表示装置、医用画像表示方法、プログラム、記憶媒体およびマンモグラフィ装置
US20170243348A1 (en) Assistance apparatus for assisting interpretation report creation and method for controlling the same
US20210118118A1 (en) Image processing apparatus, image processing method, and storage medium
JP2017010577A5 (ja) 医療診断支援装置、医療診断支援システム、情報処理方法及びプログラム
JP2017027136A (ja) 店舗システムとそのプログラム
JP2004048587A (ja) コンピュータ支援診断方法及びその装置
US20240029870A1 (en) Document creation support apparatus, document creation support method, and document creation support program
US20230186457A1 (en) Machine-learning device and machine-learning system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191115

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191115

AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20191128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200212

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200421

R150 Certificate of patent or registration of utility model

Ref document number: 6695502

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250