JP2020532347A - 外科用認識システム - Google Patents

外科用認識システム Download PDF

Info

Publication number
JP2020532347A
JP2020532347A JP2020506339A JP2020506339A JP2020532347A JP 2020532347 A JP2020532347 A JP 2020532347A JP 2020506339 A JP2020506339 A JP 2020506339A JP 2020506339 A JP2020506339 A JP 2020506339A JP 2020532347 A JP2020532347 A JP 2020532347A
Authority
JP
Japan
Prior art keywords
video
processing device
anatomical feature
anatomical
surgical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020506339A
Other languages
English (en)
Other versions
JP6931121B2 (ja
Inventor
ケー. バラール,ジョエル
ケー. バラール,ジョエル
ショーブ,アリ
ピポニ,ダニエル
ハベッケ,マーティン
Original Assignee
ヴェリリー ライフ サイエンシズ エルエルシー
ヴェリリー ライフ サイエンシズ エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴェリリー ライフ サイエンシズ エルエルシー, ヴェリリー ライフ サイエンシズ エルエルシー filed Critical ヴェリリー ライフ サイエンシズ エルエルシー
Publication of JP2020532347A publication Critical patent/JP2020532347A/ja
Application granted granted Critical
Publication of JP6931121B2 publication Critical patent/JP6931121B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/76Manipulators having means for providing feel, e.g. force or tactile feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • A61B2017/00119Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/256User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/302Surgical robots specifically adapted for manipulations within body cavities, e.g. within abdominal or thoracic cavities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/309Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using white LEDs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • A61B2090/3612Image-producing devices, e.g. surgical cameras with images taken automatically
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Robotics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Gynecology & Obstetrics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Pathology (AREA)
  • Mathematical Physics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 外科手術を実施しながら、体内の臓器および他の解剖学的構造を認識するシステムおよび方法を提供することである。【解決手段】 ロボット外科手術のためのシステムは、1つ以上のアームを有する外科用ロボットを含み、1つ以上のアームにおけるアームのうちの少なくともいくつかが、外科用器具を保持する。画像センサは、外科用ロボットによって実施された外科手術のビデオを捕捉するために結合され、ディスプレイは、外科手術の注釈付きビデオを受信するように結合されている。処理装置は、外科用ロボット、画像センサ、およびディスプレイに結合されている。処理装置は、処理装置によって実行されたときに、機械学習アルゴリズムを使用してビデオ内の解剖学的特徴を識別し、注釈付きビデオを生成することを含む動作を処理装置に実施させるロジックを含む。ビデオからの解剖学的特徴は、注釈付きビデオにおいて強調されている。処理装置はまた、注釈付きビデオをリアルタイムでディスプレイに出力する。【選択図】図1A

Description

本開示は、概して、外科手術を実施するためのシステムに関し、特に、排他的ではないが、ロボット外科手術に関する。
ロボットまたはコンピュータ支援外科手術は、ロボットシステムを使用して外科手技を支援する。ロボット外科手術は、既存の外科手技の限界(例えば、外科医の手に関連する空間的制約、人間の動きの固有の揺れ、人間の作業成果物の不一致など)を克服する手法として開発された。近年、切開のサイズを制限し、患者の回復時間を短縮するために、この分野は大きく進歩した。
開腹外科手術の場合において、ロボットで制御された器具が従来のツールに取って代わり、外科用動作を実施し得る。フィードバック制御の動きは、人間によって実施されるものよりもスムーズな外科用ステップを可能にし得る。例えば、肋骨を広げるなどのステップのために外科用ロボットを使用すると、ステップが外科医の手で実施された場合よりも患者の組織への損傷が少なくなる結果となり得る。加えて、外科用ロボットは、手技を完了するために必要なステップが少なくなるため、手術室での時間の量を短縮できる。
しかしながら、ロボット外科手術は、比較的高価であり得、従来の外科手術に関連する制限に悩まされる。例えば、外科医は、外科手術を実施する前にロボットシステムの訓練に多くの時間を費やす必要があり得る。加えて、外科医は、ロボット外科手術を実施するときに混乱することがあり得、その結果、患者に害が及び得る。
本発明の非限定的かつ非網羅的な実施形態は、以下の図を参照して記載され、特に指定しない限り、様々な図を通して同様の参照番号は同様の部分を指す。図面は必ずしも縮尺どおりではなく、記載されている原理を説明することに重点が置かれている。
本開示の実施形態による、ロボット外科手術のためのシステムを示す。 本開示の実施形態による、外科用ロボットのためのコントローラを示す。 本開示の実施形態による、外科手術を実施している間に解剖学的特徴を認識するためのシステムを示す。 本開示の実施形態による、外科手技で遭遇する解剖学的特徴に注釈を付ける方法を示す。
外科手術中に解剖学的特徴を認識するための装置および方法の実施形態は、本明細書に記載される。以下の記載では、実施形態の完全な理解を提供するために、多くの特定の詳細が述べられている。しかしながら、当業者は、本明細書に記載された技術が、1つ以上の特定の詳細なしで、または他の方法、コンポーネント、材料などで実践できることを認識するであろう。他の例において、特定の態様が不明瞭になることを避けるために、よく知られている構造、材料、または動作は、詳細に示されておらず、または記載されていない。
本明細書を通じて「一実施形態」または「実施形態」と言及する場合、実施形態に関連して記載された特定の特徴、構造、または特性が本発明の少なくとも1つの実施形態に含まれることを意味する。したがって、本明細書全体の様々な箇所における「一実施形態において」または「実施形態において」という語句の出現は、必ずしもすべてが同じ実施形態を指しているわけではない。さらに、特定の特徴、構造、または特性は、1つ以上の実施形態で任意の適切な方法で組み合わせることができる。
本開示は、外科手術を実施しながら、体内の臓器および他の解剖学的構造を認識するシステムおよび方法を提供する。外科用スキルは、器用さおよび判断力で成り立っている。恐らく、器用さは、生まれつきの能力および実践から来ている。判断力は、常識および経験から来ている。外科用解剖学の絶妙な知識は、優秀な外科医と平均的な外科医を区別する。外科医になるための学習曲線は長く、レジデンシーおよびフェローシップの期間は、しばしば10年に近づく。新しい外科用スキルを学習すると、同様の長い学習曲線が見られ、50〜300のケースを実施した後にのみ習熟度が得られる。これはロボット外科手術にも当てはまり、共存症、開腹手技への転換、推定失血、手技期間などは、経験のない外科医の方が経験のある外科医よりも悪い。外科医は、様々な手技にまたがる年間約500件の症例を見ると予想される。したがって、外科手技のいずれか1つのタイプに関する解剖学の外科医の固有の知識は、本質的に制限されている。本明細書で開示されるシステムおよび方法は、コンピュータ化されたデバイスを使用してこの問題を解決し、多くの同様のケースから得られた知識を各動作にもたらす。システムは、注釈付きビデオフィード、または外科医に自分の体のどの部分を見ているかを知らせるその他のアラート(例えば、音、ライトなど)を生成することにより(例えば、外科医が誤って血管を切断するのを防ぐために、ビデオフィードで血管を強調表示する)、この目標を達成する。以前は、このタイプの知識は、試行錯誤(外科用状況で潜在的に致命的)、広範な研究、および観察によってのみ得られた。本明細書で開示されるシステムは、人間の指導または研究だけでは達成できない方法で、外科医にコンピュータ/ロボット支援のガイダンスを提供する。いくつかの実施形態において、システムは、人間の目が区別できない(例えば、構造の色と形状が類似しているため)2つの構造間の違いを伝えることができる。
本開示は、外科用ビデオ内の特定の解剖学的構造を認識し、これらの構造を強調するために、機械学習モデル(例えば、深層学習モデル)を訓練する。例えば、胆嚢摘出術(胆嚢の除去)において、本明細書で開示されるシステムは、関心のある構造(肝臓、胆嚢、大網など)が強調表示されている腹腔鏡ビデオ(ロボット支援の場合とそうでない場合がある)から抽出されたフレームでモデルを訓練する。いったんアルゴリズムによって画像分類が学習されると、デバイスは、スライディングウィンドウアプローチを使用して、ビデオ内の関連する構造を見つけ、例えば境界ボックスで輪郭を描くことによってそれらを強調表示する。いくつかの実施形態において、その後、特徴的な色または標識を注釈に追加することができる。より一般には、深層学習モデルは、様々な種類のカメラ(RGBカメラ、IRカメラ、分子カメラ、分光入力など)から任意の数のビデオ入力を受信し、関心のある臓器を強調するだけでなく、例えば、強調表示された臓器を病気の組織と病気でない組織にサブセグメント化することもできる。より具体的には、記載された深層学習モデルは、画像フレームで機能する。オブジェクトは、スライディングウィンドウアプローチまたは類似度メトリックを計算する他の方法と組み合わせて、機械学習アルゴリズムによって以前に学習されたモデルを使用して、ビデオ内で識別される(それぞれのサイズに関するアプリオリ情報も使用できる)。別のアプローチは、機械学習を使用して、ビデオ内の特定の解剖学的構造の描写またはセグメント化を直接学習し、その場合、深層学習モデルがジョブ全体を完了する。
本明細書で開示されるシステムは、より多くのデータが収集されると自己更新でき、換言すれば、システムは、学習を続けることができる。また、システムは、利用可能な補足情報(BMI、患者の履歴、ゲノミクス、術前画像など)に基づいて、解剖学的変化またはその他の予想される差異を捕捉することもできる。現在、学習には多くの計算能力が必要であるが、訓練されたモデルは、通常のコンピュータまたはモバイルデバイスで、リアルタイムにローカルで実行できる。加えて、強調表示された構造は、それらを必要なときにのみ、それらを必要な人々に提供できる。例えば、手術する外科医は、経験豊富な外科医であり、視覚的な合図を必要としないかもしれないが、観察者(例えば、手術室で症例を見る人、リアルタイムで遠隔で見る人、または後でライムを見る人)は、注釈付きビューから利益を得るかもしれない。この方法で問題を解決することは、可能なすべてのデータの使用を生じさせる。モデルは、必要に応じて再訓練することもできる(例えば、特定の患者集団をセグメント化する方法についての新しい情報が利用可能になったため、または手技を実施する新しい方法が医学界で合意されたため)。深層学習は、モデルを訓練する可能性の高い方法であるが、教師ありおよび教師なしアルゴリズムなど、多くの代替機械学習アルゴリズムを使用できる。このようなアルゴリズムは、サポートベクターマシン(SVM)、k平均などを含む。
データに注釈を付ける多数の手法がある。例えば、認識された解剖学的特徴は、破線もしくは連続した線で囲まれるか、または特定のセグメンテーションなしで構造に直接注釈を重ねることができる。そうすることで、外科医を悩ませる、および/またはリスクを負わせる可能性のある、セグメンテーションの欠陥の可能性が軽減される。代替的または追加的に、注釈は、キャプションで利用でき、または、バウンディングボックスは、ビデオシーケンスの解剖学的特徴を経時的にたどることができる。注釈は、外科医によって自由にオン/オフを切り替えることができ、外科医は、どのタイプの注釈が望ましいかを指定することもできる(例えば、血管ではなく臓器を強調表示する)。ユーザーインターフェース(例えば、キーボード、マウス、マイクなど)は、外科医に提供して、追加の注釈を入力できる。将来の検索および学習のために、ビデオのライブラリで自動注釈が実施される、オンラインバージョンを実装することもできる。
本明細書で開示されるシステムおよび方法は、外科用ケース中にリアルタイムのビデオセグメンテーションおよび注釈を実施する機能も有している。例えば、解剖学的構造がマークされている、空間セグメンテーション(例えば、肝臓、胆嚢、胆嚢管、嚢胞動脈など)と、手技のステップが示されている、一時的セグメンテーション(例えば、眼底に縫合糸を入れ、腹膜を切開し、胆嚢を切開するなど)を区別することが重要である。
空間セグメンテーションのために、シングルタスクおよびマルチタスクの両方のニューラルネットワークは、訓練されて、解剖学を学習できる。換言すれば、すべての解剖学を一度に学習することも、または特定の構造を1つずつ学習することもできる。一時的セグメンテーションのために、畳み込みニューラルネットワークおよび隠れマルコフモデルを使用して、外科手技の現在の状態を学習できる。同様に、畳み込みニューラルネットワークおよび長い短期記憶または動的タイムワーピングも、使用できる。
空間セグメンテーションのために、解剖学は、ビデオからフレームごとに学習されることができ、その後、2D表現は、つなぎ合わされて3Dモデルを形成し、物理的な制約は、精度を高めるために課されることができる(例えば、連続する2つのフレーム間で物理的に可能な最大変形)。代替的に、学習は、3Dで起こり、スライディングウィンドウアプローチまたはカルマンフィルタリングを使用した、ビデオまたはビデオの一部は、モデルへの入力として直接提供される。
学習のために、モデルは、ビデオからの情報を他の先験的知識およびセンサ情報と組み合わせることもできる(例えば、生物学的アトラス、術前イメージング、触覚、ハイパースペクトルイメージング、テレメトリーなど)。追加の制約は、モデルの実行時に提供されることができる(例えば、テレメトリーからの実際の手の動き)。専用ハードウェアを使用して、モデルを迅速に実行し、最小限の遅延で、リアルタイムでビデオをセグメント化できることに注意されたい。
本開示の別の態様は、信頼性が高いときに、外科医の解剖学的オーバーレイを表示する代わりに、モデル自体が混乱している場合に、外科医に警告することができる、逆システムからなる。例えば、デバイスが大きすぎたり、病気にかかったり、またはデバイスが本物であることを識別するには損傷しすぎたりするため、意味をなさない解剖学的領域がある場合に、モデルは、外科医に警告することができる。アラートは、ユーザーインターフェース上のマーク、または音声メッセージ、またはその両方にすることができる。その後、外科医は、説明(例えば、標識)を提供するか、または経験豊富な外科医(または外科医のチーム、相互変動性が評価され、コンセンサスラベリングが取得されるように)に電話して適切に外科手術を実施していることを確認する必要がある。標識は、ユーザーインターフェース上で(例えば、複数の選択肢がある場合は正しい答えをクリックすることによる)外科医によって提供されることもでき、または標識は、音声標識(「OKロボット、これは神経です」)などで提供されることもできる。この実施形態において、デバイスは、外科医が動作中に外科医が見当違いであること−残念ながら、しばしば外科医が間違いを犯すまでこのエラーを認識していない、外科医がしばしば認識しない問題に対処する。
ヒートマップを使用して、アルゴリズムの信頼度を外科医に伝えることができ、マージンを追加することができる(例えば、神経の輪郭を描くため)。情報自体は、オーバーレイとして表示することも(例えば、半透明のマスクを使用する)、またはフットペダルを使用して切り替えることもできる(蛍光画像が外科医によく表示される手法に似ている)。
非接触ゾーンは、画像上に視覚的に表示されることができ、または禁止された領域への器具の移動を防ぐ(例えば、難しくするか、完全に停止する)、触覚フィードバックを通じて、外科医に強要することができる。代替的に、音のフィードバックは、外科医が禁止領域に近づくと外科医に提供されることができる(例えば、外科医が禁止区域に入るとビープ音が鳴る)。外科医は、手技中の任意の時点でリアルタイムのビデオ解釈エンジンをオン/オフにするオプションを有し、またはバックグラウンドで実行しても何も表示しないオプションを有する。
一時的な実施形態において、モデルが自信を持って次のステップが何であるかを知っている場合はいつでも、外科用ステップは学習され、シーケンス予測が有効になり、外科医に表示される(例えば、外科医の手を予想される方向に導く半透明のオーバーレイまたは触覚フィードバックを使用して)。代替的に、フィードバックは、外科医が予想された経路から大きく外れたときに提供されることもできる。同様に、外科医は、ロボットに外科用フィールドが今から1分間にどのように見えるかを尋ね、その情報が提供され、その後、外科用フィールドに視覚的な邪魔をすることなく、外科手術を続けることができる。
以下の開示は、上記で議論された実施形態のいくつか、およびまだ議論されていないいくつかの実施形態の説明図(例えば、図1〜3)を記載する。
図1Aは、本開示の実施形態による、ロボット外科手術のためのシステム100を示す。システム100は、外科用ロボット121、カメラ101、光源103、スピーカ105、処理装置107(ディスプレイを含む)、ネットワーク131、およびストレージ133を含む。示されるように、外科用ロボット121を使用して、外科用器具を保持し(例えば、各アームがアームの遠位端に器具を保持する)、外科手術を実施し、病気を診断し、生検を行い、医師が実行できる他の手順を実行することができる。外科用器具は、メス、鉗子、カメラ(例えば、カメラ101)などを含み得る。外科用ロボット121は、3本のアームしか有していないが、当業者は、外科用ロボット121が単なる漫画の説明図であり、外科用ロボット121が実施する必要のある外科手術の種類、および他の要件に応じて任意の数の形状を取ることができることを理解するであろう。外科用ロボット121は、有線または無線で、処理装置107、ネットワーク131、および/またはストレージ133に結合され得る。さらに、外科用ロボット121は、外科医または医師からの指示を受け取るために、ユーザー入力/コントローラ(例えば、図1Bに示されるコントローラ171)に(無線または有線で)結合され得る。コントローラ、およびコントローラのユーザーは、外科用ロボット121および患者の非常に近くに(例えば、同じ部屋に)配置され、または何マイルも離れて配置され得る。このように、外科用ロボット121は、専門家が患者から何マイルも離れている外科手術を実施するために使用され、外科医からの指示は、インターネットまたは安全なネットワーク(例えば、ネットワーク131)を介して送信される。代替的に、外科医は、局所的であり得、外科医の手よりも体の一部により良くアクセスできるため、単に外科用ロボット121を使用することを好み得る。
示されるように、(カメラ101内の)画像センサは、外科用ロボット121によって実施される外科手術のビデオを捕捉するために結合され、ディスプレイ(処理装置107に取り付けられる)は、外科手術の注釈付きビデオを受信するために結合される。処理装置107は、(a)1つ以上のアームの動きを制御する外科用ロボット121、(b)画像センサからビデオを受信する画像センサ、および(c)ディスプレイに結合される。処理装置107は、処理装置107によって実行されたときに、処理装置107に様々な動作を実施させる論理を含む。例えば、処理装置107は、機械学習アルゴリズムを使用してビデオ内の解剖学的特徴を識別し、ビデオからの解剖学的特徴が強調される注釈付きビデオを生成し得る(例えば、解剖学的特徴の色を修正したり、解剖学的特徴を線で囲ったり、解剖学的特徴を文字で標識したりすることにより)。次いで、処理装置は、注釈付きビデオをリアルタイムでディスプレイに出力し得る(例えば、注釈付きビデオは、捕捉と表示の間のわずかな遅延のみで、ビデオが捕捉されるのと実質的に同じ速度で表示される)。いくつかの実施形態において、処理装置107は、解剖学的特徴の罹患部分(例えば、腫瘍、病変など)および健康部分(例えば、確立された一連の基準に対して「正常」に見える臓器)を識別し、罹患部分または健康部分のうちの少なくとも1つが注釈付きビデオにおいて強調されている、注釈付きビデオを生成し得る。これは、外科医が病気のまたは損傷した組織のみを除去する(または、特定のマージンで組織を除去する)のに役立ち得る。逆に、処理装置107が解剖学的特徴を閾値確実度(例えば、特定の臓器のモデルと95%一致)まで識別し損なったときに、処理装置107は、閾値確実度まで識別されていない解剖学的特徴を同様に強調し得る。例えば、処理装置107は、ビデオのセクションに「肺組織;77%の確信」と標識し得る。
上述のように、いくつかの実施形態において、機械学習アルゴリズムは、深層学習アルゴリズム、サポートベクターマシン(SVM)、k平均クラスタリングなどのうちの少なくとも1つを含む。さらに、機械学習アルゴリズムは、他の特性の中でも特に、輝度、色差、形状、または体内の位置(例えば、他の臓器、マーカーなどに対する)のうちの少なくとも1つによって解剖学的特徴を識別し得る。さらに、処理装置107は、スライディングウィンドウ分析を使用して、ビデオ内の解剖学的特徴を識別し得る。いくつかの実施形態において、処理装置107は、機械学習アルゴリズムを再帰的に訓練するために、ビデオからの少なくともいくつかの画像フレームをメモリに記憶する。したがって、外科用ロボット121は、新しい外科手術ごとに、より深い知識およびさらなる確信をもたらす。
図示された実施形態において、スピーカ105は、処理装置107に結合され、処理装置107は、ビデオ内の解剖学的特徴の識別(例えば、ビデオに示された臓器の呼び出し)に応じて、音声データをスピーカ105に出力する。図示された実施形態において、外科用ロボット121は、光を放射して外科用領域を照らす光源103も含む。示されるように、光源103は、処理装置107に結合され、処理装置は、放出された光の強度、放出された光の波長、または光源のデューティ比のうちの少なくとも1つを変化させ得る。いくつかの実施形態において、光源は、可視光、IR光、UV光などを放出し得る。さらに、光源103から放射された光に応じて、カメラ101は、特定の解剖学的特徴を識別することが可能であり得る。例えば、腫瘍に結合し、UVまたはIR光の下で蛍光を発する造影剤は、患者に注入され得る。カメラ103は、画像の蛍光部分を記録することができ、処理装置107は、その部分を腫瘍として識別し得る。
一実施形態において、画像/光学センサ(例えば、カメラ101)、圧力センサ(応力、歪みなど)などはすべて、外科用ロボット121を制御し、圧力の正確な運動および適用を保証するために使用される。さらに、これらのセンサは、フィードバックループを使用して外科用ロボット121によって適用される場所、力などを継続的に調整するプロセッサ(外科用ロボット121、処理装置107、または他のデバイスが含まれ得る)に情報を提供し得る。いくつかの実施形態において、外科用ロボット121のアーム内のセンサを使用して、臓器および他の解剖学的特徴に対するアームの位置を決定し得る。例えば、外科用ロボットは、アームの端で器具の座標を記憶および記録し、これらの座標をビデオフィードと組み合わせて使用して、アームの場所および解剖学的特徴を決定し得る。本開示の教示によれば、システム100内のコンポーネント間の距離を計算するための多数の異なる手法(例えば、画像から、機械的に、飛行時間レーザーシステムなど)があり、これらのいずれかを使用して場所を決定し得ることが理解される。
図1Bは、本開示の実施形態による、ロボット外科手術のためのコントローラ171を示す。コントローラ171は、図1Aの外科用ロボット121に関連して使用し得る。コントローラ171は、外科用ロボットのためのコントローラの一実施例に過ぎず、本開示の教示に従って他の設計を使用できることが理解される。
図示の実施形態において、制御装置171は、処理装置がビデオフィード内の解剖学的構造を検出することに応じて、多数の触覚フィードバック信号を外科医に提供し得る。例えば、触覚フィードバック信号は、外科用ロボットのアームに配置された外科用器具が解剖学的特徴の閾値距離内に入ったときに、コントローラ171を介して外科医に提供され得る。例えば、外科用器具は、静脈または動脈に非常に接近して移動する可能性があるため、コントローラは、軽く振動して外科医に警告する(181)。代替的に、コントローラ171は、外科医が重要な臓器の閾値距離内に入らないようにするか(183)、または外科医に強制的に手動で停止を無効にすることはし得ない。同様に、コントローラ171は、外科医が重要な臓器または他の解剖学的構造に近づきすぎることに徐々に抵抗し得(185)、またはコントローラ171は、外科医が典型的な外科用経路に順応している場合に抵抗を下げ得る(187)。
図2は、本開示の実施形態による、外科手術を実施している間に解剖学的特徴を認識するためのシステム200を示す。図2に示されたシステム200は、図1Aに示されるロボット外科手術のシステムよりも一般化され得る。このシステムは、外科医がディスプレイ209に示される拡張現実に部分的または完全に依存している、手動で実施された外科手術、または内視鏡で実施された外科手術と互換性があり得る。例えば、図2に示されるコンポーネントのいくつか(例えば、カメラ201)は、内視鏡に配置され得る。
示されるように、システム200は、カメラ201(画像センサ、レンズバレル、およびレンズを含む)、光源203(例えば、複数の発光ダイオード、レーザーダイオード、白熱電球など)、スピーカ205(例えば、デスクトップスピーカ、ヘッドフォンなど)、処理装置207(画像信号プロセッサ211、機械学習モジュール213、およびグラフィックス処理ユニット215を含む)、およびディスプレイ209を含む。図示されているように、光源203は、外科用動作を照明しており、カメラ201は、動作を撮影している。切開部に脾臓が見え、メスが脾臓に近づいている。処理装置207は、切開部の脾臓を認識しており、注釈付きビデオストリームの脾臓を強調(白黒またはカラーのいずれかで太字にされたた)している。この実施形態において、外科医がビデオストリームを見るときに、脾臓ならびに関連する静脈および動脈が強調表示されるので、外科医が誤ってそれらを切らない。加えて、スピーカ205は、処理装置207からの指示に応じて、メスが脾臓の近くにあると述べている。
処理装置207のコンポーネントは、システム200を構築するために使用できる唯一のコンポーネントではなく、コンポーネント(例えば、コンピュータチップ)は、特注または既製であり得ることが理解される。例えば、画像信号プロセッサ211は、カメラに統合され得る。さらに、機械学習モジュール213は、機械学習アルゴリズムを実行する汎用プロセッサであり得、または深層学習アルゴリズムのために特に最適化された専用プロセッサであり得る。同様に、グラフィックス処理ユニット215(例えば、増強されたビデオを生成するのに使用される)は、システムのためにカスタム構築され得る。
図3は、本開示の実施形態による、外科手技で遭遇する解剖学的特徴に注釈を付ける方法300を示す。本開示の利益を有する当業者は、方法300のブロック(301〜309)の順序が任意の順序で、または並列でさえ起こり得ることを理解するであろう。さらに、本開示の教示に従って、ブロックは、方法300に追加され、または削除され得る。
ブロック301は、解剖学的特徴を含むビデオを、画像センサで、補足することを示す。いくつかの実施形態において、ビデオフィード内の解剖学的特徴は、外科用ロボットによって実施された外科手術からのものであり、外科用ロボットは、画像センサを含む。
ブロック303は、画像センサに結合された処理装置でビデオを受信することを示している。いくつかの実施形態において、処理装置も、外科用ロボットに配置される。しかしながら、他の実施形態おいて、システムは、別個の部品(例えば、ラップトップコンピュータに差し込まれたカメラ)を含む。
ブロック305は、処理装置のメモリに記憶された機械学習アルゴリズムを使用して、ビデオ内の解剖学的特徴を識別することを記載する。解剖学的特徴の識別は、スライディングウィンドウ分析を使用して、画像内の関心のあるポイントを見つけることで実現され得る。換言すれば、固定された高さおよび幅の長方形または正方形の領域は、画像をスキャン/スライドし、ウィンドウに興味深いオブジェクトが含まれているかどうかを判断するために画像分類子を適用する。特定の解剖学的特徴は、深層学習アルゴリズム、サポートベクターマシン(SVM)、k平均クラスタリング、または他の機械学習アルゴリズムのうちの少なくとも1つを使用して識別し得る。これらのアルゴリズムは、輝度、色差、形状、位置、またはその他の特性のうちの少なくとも1つによって解剖学的特徴を識別し得る。例えば、機械学習アルゴリズムは、人体の解剖学的マップ、他の外科用ビデオ、解剖学の画像などで訓練され、これらの入力を使用して人工ニューロンの状態を変更し得る。したがって、深層学習モデルは、入力および人工ニューロンの活性化に基づいて、異なる出力を生成する。
ブロック307は、処理装置を使用して注釈付きビデオを生成することを示し、ビデオからの解剖学的特徴は、注釈付きビデオにおいて強調される。一実施形態において、注釈付きビデオを生成することは、解剖学的特徴の色を修正すること、解剖学的特徴を線で囲むこと、または解剖学的特徴を文字で標識することのうちの少なくとも1つを含む。
ブロック309は、注釈付きビデオのフィードを出力することを示している。いくつかの実施形態において、注釈付きビデオに視覚フィードバック信号が提供される。例えば、外科用ロボットのアームに配置された外科用器具が解剖学的特徴の限界距離内に入るときに、ビデオは、警告標識を表示したり、またはロボットにどれだけ近いかに応じて解剖学的構造の強度/輝度を変更したりし得る。警告サインは、点滅するライト、テキストなどであり得る。いくつかの実施形態において、システムはまた、外科用器具が重要な臓器または構造に近づきすぎたときに、スピーカを備えた外科医に音声フィードバック信号(例えば、音量が距離に比例する)を出力し得る。
上記で説明したプロセスは、コンピュータソフトウェアおよびハードウェアに関して記載されている。記載された技術は、有形または非一時的な機械(例えば、コンピュータ)可読記憶媒体内に具現化された機械実行可能命令を構成し、機械によって実行されたときに、機械に記載された動作を実行させる。加えて、プロセスは、特定用途向け集積回路(「ASIC」)などのハードウェア内で具現化されてもよい。プロセスは、ローカルで、または分散システム(例えば、複数のサーバー)でも発生し得る。
有形の非一時的機械可読記憶媒体は、機械(例えば、コンピュータ、ネットワークデバイス、携帯情報端末、製造ツール、1つ以上のプロセッサのセットを有するいずれかのデバイス、その他)によってアクセス可能な形態で情報を提供する(すなわち記憶する)任意のメカニズムを含む。例えば、機械可読記憶媒体は、記録可能/記録不可能媒体(例えば、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク記憶媒体、光記憶媒体、フラッシュメモリ装置等)を含む。
要約に記載されたことを含む、本発明の例示された実施形態の上記の記載は、網羅的であることも、本発明を開示された正確な形態に限定することも意図しない。本発明の特定の実施形態、およびその実施例は、例示的目的で本明細書に記載されているが、当業者が認識するように、本発明の範囲内で様々な修正が可能である。
これらの修正は、上記の詳細な記載に照らして、本発明に対して行うことができる。以下の特許請求の範囲で使用される用語は、本明細書に開示された特定の実施形態に本発明を限定すると解釈されるべきではない。むしろ、本発明の範囲は、以下の特許請求の範囲によって完全に決定されるべきであり、以下の特許請求の範囲は、特許請求の範囲の解釈の確立された原則に従って解釈されるべきである。排他的財産または特権が主張される本発明の実施形態は、特許請求の範囲において定められる。

Claims (22)

  1. ロボット外科手術のためのシステムであって、
    1つ以上のアームを有する外科用ロボットであって、前記1つ以上のアームにおける前記アームのうちの少なくともいくつかが、外科用器具を保持する、外科用ロボットと、
    前記外科用ロボットによって実施された外科手術のビデオを捕捉するように結合された画像センサと、
    前記外科手術の注釈付きビデオを受信するように結合されたディスプレイと、
    前記1つ以上のアームの動きを制御するように前記外科用ロボットに結合され、前記ビデオを受信するように前記画像センサに結合され、前記注釈付きビデオを前記ディスプレイに供給するように前記ディスプレイに結合された処理装置と、を備え、前記処理装置は、前記処理装置によって実行されたときに、前記処理装置に、
    機械学習アルゴリズムを使用して、前記ビデオ内の解剖学的特徴を識別することと、
    前記注釈付きビデオを生成することであって、前記ビデオからの前記解剖学的特徴が、前記注釈付きビデオにおいて強調される、前記注釈付きビデオを生成することと、
    前記注釈付きビデオを前記ディスプレイにリアルタイムで出力することと、を含む動作を実施させるロジックを含む、ロボット外科手術のためのシステム。
  2. 前記機械学習アルゴリズムは、深層学習アルゴリズム、サポートベクターマシン(SVM)、またはk平均クラスタリングのうちの少なくとも1つを含む、請求項1に記載のロボット外科手術のためのシステム。
  3. 前記機械学習アルゴリズムは、輝度、色差、形状、または体内の場所のうちの少なくとも1つによって前記解剖学的特徴を識別する、請求項1に記載のロボット外科手術のためのシステム。
  4. 前記ビデオ内の前記解剖学的特徴を強調することは、前記解剖学的特徴の色を修正すること、前記解剖学的特徴を線で囲むこと、または前記解剖学的特徴を文字で標識することのうちの少なくとも1つを含む、請求項1に記載のロボット外科手術のためのシステム。
  5. 前記処理装置に結合されたスピーカをさらに備え、前記処理装置は、前記処理装置によって実行されたときに、前記処理装置に、
    前記ビデオ内の解剖学的特徴を識別することに応じて、音声データを前記スピーカに出力すること、を含む動作を実施させるロジックをさらに含む、請求項1に記載のロボット外科手術のためのシステム。
  6. 前記処理装置は、前記処理装置によって実行されたときに、前記処理装置に、
    前記解剖学的特徴の罹患部分を識別し、前記解剖学的特徴の健康部分を識別することと、
    前記注釈付きビデオを生成することであって、前記罹患部分または前記健康部分うちの少なくとも一方が、前記注釈付きビデオにおいて強調される、前記注釈付きビデオを生成することと、を含む動作を実施させるロジックをさらに含む、請求項1に記載のロボット外科手術のためのシステム。
  7. 前記処理装置は、前記処理装置によって実行されたときに、前記処理装置に、
    他の解剖学的特徴を閾値確実度まで識別し損なうことと、
    前記注釈付きビデオを生成することであって、前記閾値確実度まで識別されていない他の解剖学的特徴が、前記注釈付きビデオにおいて強調される、前記注釈付きビデオを生成することと、を含む動作を実施させるロジックをさらに含む、請求項1に記載のロボット外科手術のためのシステム。
  8. 前記処理装置に結合された光源をさらに備え、前記処理装置は、前記処理装置によって実行されたときに、前記処理装置に、
    前記光源を制御して、光を放射し、前記放射された光の強度、前記放射された光の波長、または前記光源のデューティ比のうちの少なくとも1つを変化させること、を含む動作を実施させるロジックをさらに含む、請求項1に記載のロボット外科手術のためのシステム。
  9. 前記処理装置は、前記処理装置によって実行されたときに、前記処理装置に、
    前記ビデオからの少なくともいくつかの画像フレームをメモリに記憶して、前記機械学習アルゴリズムを訓練すること、を含む動作を実施させるロジックをさらに含む、請求項1に記載のロボット外科手術のためのシステム。
  10. 前記ビデオ内の解剖学的特徴を識別することは、スライディングウィンドウ分析を使用することを含む、請求項1に記載のロボット外科手術のためのシステム。
  11. 外科手技で遭遇する解剖学的特徴に注釈を付ける方法であって、
    画像センサで、解剖学的特徴を含む、ビデオを捕捉することと、
    前記画像センサに結合された処理装置で前記ビデオを受信することと、
    前記処理装置のメモリに記憶された機械学習アルゴリズムを使用して、前記ビデオ内の解剖学的特徴を識別することと、
    前記処理装置を使用して注釈付きビデオを生成することであって、前記ビデオからの前記解剖学的特徴が、前記注釈付きビデオにおいて強調される、前記注釈付きビデオを生成することと、
    前記注釈付きビデオのフィードをリアルタイムで出力することと、を含む、方法。
  12. 外科用ロボットで前記外科手技を実施することをさらに含み、前記画像センサおよび前記処理装置が、前記外科用ロボットに含まれる、請求項11に記載の方法。
  13. 前記外科用ロボットのアームに配置された外科用器具が前記解剖学的特徴の閾値距離内に入ったときに、前記外科用ロボットを使用して、触覚フィードバック信号を外科医に提供することをさらに含む、請求項12に記載の方法。
  14. 前記外科用ロボットのアームに配置された外科用器具が前記解剖学的特徴の閾値距離内に入ったときに、視覚フィードバック信号を外科医に提供することをさらに含み、前記視覚フィードバックが、前記処理装置に結合されたディスプレイに提供されて、前記注釈付きビデオの前記フィードを受信する、請求項12に記載の方法。
  15. 前記外科用ロボットのアームに配置された外科用器具が前記解剖学的特徴の閾値距離内に入ったときに、前記処理装置に結合されたスピーカで、外科医に音声フィードバック信号を出力することをさらに含む、請求項12に記載の方法。
  16. 前記処理装置に結合された光源で前記解剖学的特徴を照明することをさらに含み、前記処理装置は、前記光源に光を放射させ、前記放射された光の強度、前記放射された光の波長、または前記光源のデューティ比のうちの少なくとも1つを変化させる、請求項11に記載の方法。
  17. 機械学習アルゴリズムを使用して前記ビデオ内の解剖学的特徴を識別することは、深層学習アルゴリズム、サポートベクターマシン(SVM)、またはk平均クラスタリングのうちの少なくとも1つを使用することを含む、請求項11に記載の方法。
  18. 前記機械学習アルゴリズムは、輝度、色差、形状、または体内の場所のうちの少なくとも1つによって前記解剖学的特徴を識別する、請求項17に記載の方法。
  19. 注釈付きビデオを生成することは、前記解剖学的特徴の色を修正すること、前記解剖学的特徴を線で囲むこと、または前記解剖学的特徴を文字で標識することのうちの少なくとも1つを含む、請求項11に記載の方法。
  20. 前記ビデオを使用して、前記解剖学的特徴を認識するように、前記機械学習アルゴリズムを訓練することをさらに含む、請求項11に記載の方法。
  21. 前記解剖学的特徴の画像、以前に記録された外科手技の第2のビデオ、または人体のマップのうちの少なくとも1つを使用して、前記解剖学的特徴を認識するように、前記機械学習アルゴリズムを訓練することをさらに含む、請求項11に記載の方法。
  22. 前記ビデオ内の前記解剖学的特徴を識別することは、スライディングウィンドウ分析を使用して、前記ビデオの各フレーム内の前記解剖学的特徴を識別することを含む、請求項11に記載の方法。
JP2020506339A 2017-09-06 2018-06-27 外科用認識システム Active JP6931121B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/697,189 2017-09-06
US15/697,189 US20190069957A1 (en) 2017-09-06 2017-09-06 Surgical recognition system
PCT/US2018/039808 WO2019050612A1 (en) 2017-09-06 2018-06-27 SURGICAL RECOGNITION SYSTEM

Publications (2)

Publication Number Publication Date
JP2020532347A true JP2020532347A (ja) 2020-11-12
JP6931121B2 JP6931121B2 (ja) 2021-09-01

Family

ID=63077945

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020506339A Active JP6931121B2 (ja) 2017-09-06 2018-06-27 外科用認識システム

Country Status (5)

Country Link
US (1) US20190069957A1 (ja)
EP (1) EP3678571A1 (ja)
JP (1) JP6931121B2 (ja)
CN (1) CN111050683A (ja)
WO (1) WO2019050612A1 (ja)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11229496B2 (en) * 2017-06-22 2022-01-25 Navlab Holdings Ii, Llc Systems and methods of providing assistance to a surgeon for minimizing errors during a surgical procedure
US10984180B2 (en) 2017-11-06 2021-04-20 Microsoft Technology Licensing, Llc Electronic document supplementation with online social networking information
US10517681B2 (en) 2018-02-27 2019-12-31 NavLab, Inc. Artificial intelligence guidance system for robotic surgery
US11189379B2 (en) * 2018-03-06 2021-11-30 Digital Surgery Limited Methods and systems for using multiple data structures to process surgical data
WO2019177987A1 (en) * 2018-03-13 2019-09-19 Pulse Biosciences, Inc. Moving electrodes for the application of electrical therapy within a tissue
US11923084B2 (en) 2018-09-07 2024-03-05 Cilag Gmbh International First and second communication protocol arrangement for driving primary and secondary devices through a single port
US11804679B2 (en) 2018-09-07 2023-10-31 Cilag Gmbh International Flexible hand-switch circuit
US11350978B2 (en) 2018-09-07 2022-06-07 Cilag Gmbh International Flexible neutral electrode
US20200078071A1 (en) 2018-09-07 2020-03-12 Ethicon Llc Instrument tracking arrangement based on real time clock information
EP3852701A4 (en) * 2018-09-18 2022-06-22 Johnson & Johnson Surgical Vision, Inc. CATARACT SURGERY LIVE VIDEO IN A PHACOEMULSIFICATION SURGICAL SYSTEM
WO2020166697A1 (ja) * 2019-02-14 2020-08-20 大日本印刷株式会社 医療機器用色修正装置
US11218822B2 (en) 2019-03-29 2022-01-04 Cilag Gmbh International Audio tone construction for an energy module of a modular energy system
WO2020205567A1 (en) * 2019-03-29 2020-10-08 Advanced Solutions Life Sciences, Llc Systems and methods for biomedical object segmentation
WO2020256568A1 (en) 2019-06-21 2020-12-24 Augere Medical As Method for real-time detection of objects, structures or patterns in a video, an associated system and an associated computer readable medium
JP2021029258A (ja) * 2019-08-13 2021-03-01 ソニー株式会社 手術支援システム、手術支援方法、情報処理装置、及び情報処理プログラム
US11269173B2 (en) * 2019-08-19 2022-03-08 Covidien Lp Systems and methods for displaying medical video images and/or medical 3D models
CN110765835A (zh) * 2019-08-19 2020-02-07 中科院成都信息技术股份有限公司 一种基于边缘信息的手术视频流程识别方法
USD939545S1 (en) 2019-09-05 2021-12-28 Cilag Gmbh International Display panel or portion thereof with graphical user interface for energy module
WO2021048326A1 (en) * 2019-09-12 2021-03-18 Koninklijke Philips N.V. Interactive endoscopy for intraoperative virtual annotation in vats and minimally invasive surgery
US20210186615A1 (en) * 2019-12-23 2021-06-24 Mazor Robotics Ltd. Multi-arm robotic system for spine surgery with imaging guidance
EP4099915A1 (en) * 2020-02-06 2022-12-14 Covidien LP System and methods for suturing guidance
EP3904013B1 (en) * 2020-04-27 2022-07-20 C.R.F. Società Consortile per Azioni System for assisting an operator in a work station
CN111616800B (zh) * 2020-06-09 2023-06-09 电子科技大学 眼科手术导航系统
FR3111463B1 (fr) * 2020-06-12 2023-03-24 Univ Strasbourg Traitement de flux vidéo relatifs aux opérations chirurgicales
US20230281968A1 (en) * 2020-07-30 2023-09-07 Anaut Inc. Recording Medium, Method for Generating Learning Model, Surgical Support Device and Information Processing Method
WO2022147453A1 (en) * 2020-12-30 2022-07-07 Stryker Corporation Systems and methods for classifying and annotating images taken during a medical procedure
EP4057181A1 (en) 2021-03-08 2022-09-14 Robovision Improved detection of action in a video stream
US11857252B2 (en) 2021-03-30 2024-01-02 Cilag Gmbh International Bezel with light blocking features for modular energy system
US11980411B2 (en) 2021-03-30 2024-05-14 Cilag Gmbh International Header for modular energy system
US11963727B2 (en) 2021-03-30 2024-04-23 Cilag Gmbh International Method for system architecture for modular energy system
US11950860B2 (en) 2021-03-30 2024-04-09 Cilag Gmbh International User interface mitigation techniques for modular energy systems
US11978554B2 (en) 2021-03-30 2024-05-07 Cilag Gmbh International Radio frequency identification token for wireless surgical instruments
US11968776B2 (en) 2021-03-30 2024-04-23 Cilag Gmbh International Method for mechanical packaging for modular energy system
US20220335668A1 (en) * 2021-04-14 2022-10-20 Olympus Corporation Medical support apparatus and medical support method
WO2022219501A1 (en) * 2021-04-14 2022-10-20 Cilag Gmbh International System comprising a camera array deployable out of a channel of a tissue penetrating surgical device
EP4123658A1 (en) * 2021-07-20 2023-01-25 Leica Instruments (Singapore) Pte. Ltd. Medical video annotation using object detection and activity estimation
TWI778900B (zh) * 2021-12-28 2022-09-21 慧術科技股份有限公司 手術術式標記與教學系統及其方法
US11464573B1 (en) * 2022-04-27 2022-10-11 Ix Innovation Llc Methods and systems for real-time robotic surgical assistance in an operating room

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012005512A (ja) * 2010-06-22 2012-01-12 Olympus Corp 画像処理装置、内視鏡装置、内視鏡システム、プログラム及び画像処理方法
JP2012217485A (ja) * 2011-04-04 2012-11-12 Fujifilm Corp 内視鏡システム及びその駆動方法
WO2016014384A2 (en) * 2014-07-25 2016-01-28 Covidien Lp Augmented surgical reality environment
JP2016512084A (ja) * 2013-03-13 2016-04-25 ストライカー・コーポレイション 仮想制約境界を確立するシステム及び方法
JP2016144626A (ja) * 2015-01-29 2016-08-12 富士フイルム株式会社 画像処理装置及び画像処理方法、並びに内視鏡システム
JP2016154603A (ja) * 2015-02-23 2016-09-01 国立大学法人鳥取大学 手術ロボット鉗子の力帰還装置、手術ロボットシステムおよびプログラム
JP2016526953A (ja) * 2013-06-06 2016-09-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 患者が安全領域を離れるリスクを決定する方法及び装置
WO2016185912A1 (ja) * 2015-05-19 2016-11-24 ソニー株式会社 画像処理装置および画像処理方法、並びに手術システム
US20170084036A1 (en) * 2015-09-21 2017-03-23 Siemens Aktiengesellschaft Registration of video camera with medical imaging
JP2017146840A (ja) * 2016-02-18 2017-08-24 富士ゼロックス株式会社 画像処理装置およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW222337B (ja) * 1992-09-02 1994-04-11 Motorola Inc
US20150342560A1 (en) * 2013-01-25 2015-12-03 Ultrasafe Ultrasound Llc Novel Algorithms for Feature Detection and Hiding from Ultrasound Images
WO2015035229A2 (en) * 2013-09-05 2015-03-12 Cellscope, Inc. Apparatuses and methods for mobile imaging and analysis
EP3373834A4 (en) * 2015-11-12 2019-07-31 Intuitive Surgical Operations Inc. SURGICAL SYSTEM WITH TRAINING OR ASSISTANCE FUNCTION
JP2017177255A (ja) * 2016-03-29 2017-10-05 ソニー株式会社 制御装置及び制御方法
EP3448232A4 (en) * 2016-04-26 2019-12-18 Ascend Hit Llc MEDICAL IMAGE ANALYSIS AND REPORT SYSTEM AND METHODS
CN206048186U (zh) * 2016-08-31 2017-03-29 北京数字精准医疗科技有限公司 荧光导航蛇形机器人
US10939963B2 (en) * 2016-09-01 2021-03-09 Covidien Lp Systems and methods for providing proximity awareness to pleural boundaries, vascular structures, and other critical intra-thoracic structures during electromagnetic navigation bronchoscopy

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012005512A (ja) * 2010-06-22 2012-01-12 Olympus Corp 画像処理装置、内視鏡装置、内視鏡システム、プログラム及び画像処理方法
JP2012217485A (ja) * 2011-04-04 2012-11-12 Fujifilm Corp 内視鏡システム及びその駆動方法
JP2016512084A (ja) * 2013-03-13 2016-04-25 ストライカー・コーポレイション 仮想制約境界を確立するシステム及び方法
JP2016526953A (ja) * 2013-06-06 2016-09-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 患者が安全領域を離れるリスクを決定する方法及び装置
WO2016014384A2 (en) * 2014-07-25 2016-01-28 Covidien Lp Augmented surgical reality environment
JP2016144626A (ja) * 2015-01-29 2016-08-12 富士フイルム株式会社 画像処理装置及び画像処理方法、並びに内視鏡システム
JP2016154603A (ja) * 2015-02-23 2016-09-01 国立大学法人鳥取大学 手術ロボット鉗子の力帰還装置、手術ロボットシステムおよびプログラム
WO2016185912A1 (ja) * 2015-05-19 2016-11-24 ソニー株式会社 画像処理装置および画像処理方法、並びに手術システム
US20170084036A1 (en) * 2015-09-21 2017-03-23 Siemens Aktiengesellschaft Registration of video camera with medical imaging
JP2017146840A (ja) * 2016-02-18 2017-08-24 富士ゼロックス株式会社 画像処理装置およびプログラム

Also Published As

Publication number Publication date
US20190069957A1 (en) 2019-03-07
JP6931121B2 (ja) 2021-09-01
WO2019050612A1 (en) 2019-03-14
EP3678571A1 (en) 2020-07-15
CN111050683A (zh) 2020-04-21

Similar Documents

Publication Publication Date Title
JP6931121B2 (ja) 外科用認識システム
US20220108450A1 (en) Surgical simulator providing labeled data
Vercauteren et al. Cai4cai: the rise of contextual artificial intelligence in computer-assisted interventions
US20190223961A1 (en) Step-based system for providing surgical intraoperative cues
JP2024024126A (ja) 医療処置のための拡張現実表示とタグ付け
CN112220562A (zh) 手术期间使用计算机视觉增强手术工具控制的方法和系统
JP2022145863A (ja) インジケータシステム
US20220358773A1 (en) Interactive endoscopy for intraoperative virtual annotation in vats and minimally invasive surgery
Davids et al. Automated vision-based microsurgical skill analysis in neurosurgery using deep learning: development and preclinical validation
US20230009335A1 (en) Guided anatomical manipulation for endoscopic procedures
CN116313028A (zh) 医疗辅助设备、方法及计算机可读存储介质
US20220202508A1 (en) Techniques for improving processing of video data in a surgical environment
Bihlmaier et al. Learning dynamic spatial relations
Nema et al. Surgical instrument detection and tracking technologies: Automating dataset labeling for surgical skill assessment
Leppänen et al. Augmenting microsurgical training: Microsurgical instrument detection using convolutional neural networks
CN114025701A (zh) 手术工具尖端和朝向确定
Thienphrapa et al. Interactive endoscopy: A next-generation, streamlined user interface for lung surgery navigation
Lahane et al. Detection of unsafe action from laparoscopic cholecystectomy video
US20220409301A1 (en) Systems and methods for identifying and facilitating an intended interaction with a target object in a surgical space
US20230162364A1 (en) Segmentation generation for image-related functions
Noguera Controlling Cognitive Demands with Semi-Autonomous Suction Framework for Robotic-assisted Surgery
Sganga Autonomous navigation of a flexible surgical robot in the lungs
Bravo Sánchez Language-guided instrument segmentation for robot-assisted surgery
Reiter Assistive visual tools for surgery
CN117479896A (zh) 包括可在组织穿透外科装置的通道外展开的相机阵列的系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200330

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210812

R150 Certificate of patent or registration of utility model

Ref document number: 6931121

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150