JP7095079B2 - 手術経路上の1つまたは複数の点を決定するシステム - Google Patents

手術経路上の1つまたは複数の点を決定するシステム Download PDF

Info

Publication number
JP7095079B2
JP7095079B2 JP2020517253A JP2020517253A JP7095079B2 JP 7095079 B2 JP7095079 B2 JP 7095079B2 JP 2020517253 A JP2020517253 A JP 2020517253A JP 2020517253 A JP2020517253 A JP 2020517253A JP 7095079 B2 JP7095079 B2 JP 7095079B2
Authority
JP
Japan
Prior art keywords
surgery
robot arm
coordinate system
points
landmark points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020517253A
Other languages
English (en)
Other versions
JP2020522369A (ja
Inventor
シェシャオ チェン
カンジュ ワン
Original Assignee
ブレイン ナビ バイオテクノロジー カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ブレイン ナビ バイオテクノロジー カンパニー リミテッド filed Critical ブレイン ナビ バイオテクノロジー カンパニー リミテッド
Publication of JP2020522369A publication Critical patent/JP2020522369A/ja
Application granted granted Critical
Publication of JP7095079B2 publication Critical patent/JP7095079B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)

Description

本発明の実施形態は、一般に、手術経路上の1つまたは複数の点を決定する方法およびシステムに関する。
本明細書で特に明記しない限り、このセクションで説明するアプローチは、本出願の特許請求の範囲の先行技術ではなく、このセクションに含めることによって先行技術であるとは認められない。
手術では手術経路の計画が重要である。前記手術経路には、患者から離れた安全点および術前点、患者の組織の入口点、手術の目標における目標点など、複数の点が含まれ得る。
ロボット手術によって前記手術経路を正確に制御できる。手術の前に、患者は医用スキャン(例えば、CTまたはMRI)を受ける。目的の解剖学的領域への前記手術経路が計画される。人工知能を使用して、損傷が最も少ない最良のルートを外科医に提示することができる。手術を行うために、前記患者の位置を医用スキャンの視点に合わせて、計画された手術経路に沿って正確に手術を行うことができる。従来のアプローチは、基準マークへの接着またはねじ止めに依拠しているために採用の問題がある。
(関連出願の相互参照)
本出願は、2017年6月4日に出願された米国仮出願第62/514,951号、2018年1月2日に出願された米国仮出願第62/612,728号、および2018年1月16日に出願された米国仮出願第62/618,053号の利益を主張し、参照によりそれらの全体が組み込まれる。
手術中に遭遇する可能性のあるいくつかの点の間の空間的関係を示す例示的な図である。 手術経路上の1つまたは複数の点にロボットアームを駆動する例示的なプロセスを示すフロー図である。 手術経路計算の例を示す図である。 医用画像スキャンによって得られた情報を処理する画像処理を示す図である。 医用画像スキャンによって得られた情報を処理する画像処理を示す図である。 主要な特徴を選択してランドマーク点を識別する顔面認識方法を示す図である。 主要な特徴を選択してランドマーク点を識別する顔面認識方法を示す図である。 構築された3次元モデル座標系から3次元カメラ座標系への座標変換を示す図である。 座標を変換する例示的なプロセスを示す流れ図である。 ロボットアーム座標系で光学装置を位置合わせする例示的なプロセスを示すフロー図である。 手術経路上の初期点から安全点にロボットアームを移動させる例示的プロセスを示すフロー図である。 ロボットアーム座標系でロボットアームフランジに取り付けられた外科用ツールを位置合わせするシステムを示す例示的な図である。 本開示のいくつかの実施形態に従って全て配置された、ロボットアーム座標系でロボットアームフランジに取り付けられた外科用ツールを位置合わせするシステムの第1のカメラおよび第2のカメラによって取り込まれた画像例を示す図である。 本開示のいくつかの実施形態に従って全て配置された、ロボットアーム座標系でロボットアームフランジに取り付けられた外科用ツールを位置合わせするシステムの第1のカメラおよび第2のカメラによって取り込まれた画像例を示す図である。
以下の詳細な説明では、本明細書の一部を形成する添付図面を参照する。図面では、文脈からそうでないことが示されていない限り、同様の記号は通常、同様の成分を示す。詳細な説明、図面、および特許請求の範囲に記載されている例示的な実施形態は、限定することを意図していない。本明細書に提示される主題の精神または範囲から逸脱することなく、他の実施形態を利用することができ、他の変更を加えることができる。本開示の態様は、本明細書に一般的に記載され、図に例示されるように、多種多様な異なる構成で配置、置換、組み合わせ、および設計することができ、その全てが本明細書で明示的に企図されることは容易に理解されよう。
図1は、本開示のいくつかの実施形態に従って配置された、手術中に遭遇する可能性のあるいくつかの点の間の空間的関係を示す例示的な図である。図1において、手術経路110は、安全点120、術前点130、入口点140、および目標点150を含み得る。
図2は、本開示のいくつかの実施形態に従って配置された手術経路上の1つまたは複数の点にロボットアームを駆動する例示的なプロセス200を示す流れ図である。前記プロセス200は、ブロック210、220、230、240、250、260、270、および/または280で例示されるように、ハードウェア、ソフトウェア、および/またはファームウェアによって実行され得る1つまたは複数の動作、機能、またはアクションを含み得る。様々なブロックは、説明する実施形態に限定されることを意図していない。概説された工程および動作は例としてのみ提供され、工程および動作の一部はオプションであり、組み合わせてより少ない工程および動作にしてもよいし、開示される実施形態の本質を損なうことなく追加の工程および動作に拡張してもよい。ブロックは連続した順序で例示されているが、これらのブロックは、並行して、および/または本明細書で説明する順序とは異なる順序で実行されてもよい。
前記プロセス200は、前記ブロック210「医用画像スキャンに基づいて3次元モデルを構築する」で開始することができる。手術が実行される前に、いくつかの医用撮像技術を使用して患者の状態のスナップショットを取り込み、手術計画を策定することができる。手術計画は、上記の計画された手術経路を含み得る。例えば、外科医は、手術目標の医用画像スキャン(例えば、CTまたはMRI)を指示してもよい。そのような医用画像スキャンは、手術の数日前(例えば、3~5日前)に実行されてもよい。3次元モデルは、いくつかの既知のアプローチを使用して医用画像スキャンデータに基づいて構築され得る。したがって、前記計画された手術経路上の点を前記3次元モデルにおいて識別することができる。
前記ブロック210の後に、前記ブロック220「インテリジェント手術経路計画を実行する」が続き得る。いくつかの実施形態では、人工知能エンジンを使用して、前記患者への物理的損傷を最小限に抑えた1つまたは複数のルートを外科医に提案することができる。前記患者のCTまたはMRIスキャンに基づいて、前記人工知能エンジンは1つまたは複数の最適な手術経路を提案することができる。図3は、本開示のいくつかの実施形態に従って配置された目標点320に到達するための手術経路310の計算の一例を示す。計算には、標準の脳アトラスデータを変換すること、および脳野を識別するためにそれを前記患者の医用スキャン画像に位置合わせすることが含まれ得る。いくつかの脳野の例には、運動連合野331、表現発話野332、高次精神機能野333、運動野334、感覚野335、体性感覚連合野336、包括的言語野337、視覚野338、受容発話野338、受容発話野339、連合野341、および小脳野342が含まれる。さらに、視床下核などの一般的な目標組織は自動的に識別されてもよい。さらに、上記の各脳野に費用関数を割り当てて、前記人工知能エンジンが前記目標組織への1つまたは複数のルートを提案してもよい。血管は、TOF(飛行時間MRI)データから識別され得る。外側の脳の境界上の点は、入口点の候補である。
図4Aおよび図4Bは、本開示のいくつかの実施形態に従って配置された前記医用画像スキャンによって得られた情報を処理する画像処理を例示している。図4Aおよび図4Bに関連して、本開示のいくつかの実施形態によれば、前記ブロック220の後に、前記ブロック230「医用画像スキャンによって得られた情報を処理する」が続き得る。3次元光学装置によって取り込まれた画像から得られた点は、前記患者の外観情報にのみ関連付けられ、前記患者の皮下情報には関連付けられない。しかし、医用画像スキャンで得られた画像は、通常、前記外観情報と前記皮下情報の両方に関連付けられている。画像処理を実行して、前記医用画像スキャンからの前記皮下情報を取り除く。したがって、ブロック260では、前記3次元光学装置によって得られた外観点および前記医用画像スキャンから得られた外観点が3次元マッチングに使用される。
図4Aにおいて、いくつかの実施形態では、手術目標が患者の頭部内にあると仮定すると、2値画像410は、前記患者の頭部からつま先までの軸方向に沿った元のMRI画像から導出され得る。領域411は前記患者の頭蓋骨であり、通常、元のMRI画像では白で表される。前記領域411の外周412は、前記患者の外観に関連付けられた前記患者の皮膚を指す場合がある。閾値化アプローチにより、頭蓋骨の外側の領域413(全て黒)および頭蓋骨の内側の領域415を含む前記画像410が作成され得る。前記画像410をさらに処理して、画像420を形成することができる。前記画像420では、前記領域413にグレースケールが割り当てられ、白黒と区別されて領域423が形成される。
図4Bでは、前記画像420をさらに処理して画像430を形成することができる。前記画像430では、前記領域413のグレースケール以外の領域に黒が割り当てられて領域431が形成される。次に、前記画像430の前記領域423に白を割り当てて、画像440を形成することができる。いくつかの実施形態では、前記画像440の周辺部441に沿った点は、前記ブロック240で前記3次元光学装置によって撮影された画像からの点をマッチングさせるために選択されてもよい。
前記ブロック230の後には前記ブロック240「3次元光学装置によって撮影された患者の画像を取得する」が続き得る。前記「3次元光学装置」は、一般に、深度検知技術を備えたカメラまたはスキャナを指す場合がある。いくつかの実施形態では、前記3次元光学装置は、少なくとも2つの2次元カメラを含み得るが、これらに限定されない。いくつかの他の実施形態では、前記3次元光学装置は、3次元深度検知モジュールおよび2次元カメラモジュールを含むことができるが、これらに限定されない。いくつかの実施形態では、3次元スキャナは、スキャンされる物体の表面上に幾何学的サンプルの点群を作成するように構成される。これらの点を使用して物体の形状を推定することができる。いくつかの実施形態では、前記3次元スキャナは口腔内スキャナであってもよい。
いくつかの実施形態では、従来の2次元光学装置で得られた情報に加えて、前記3次元光学装置で前記患者の深度情報を取り込んでもよい。いくつかの実施形態では、前記3次元光学装置は、手術室で前記患者の外科的切開が行われる直前に該患者の画像を撮影するように構成されてもよい。前記3次元光学装置は、手術室の静止デバイス(例えば、ロボットアーム、手術台車)に固定されてもよい。
前記ブロック240の後に前記ブロック250「ランドマーク点を選択する」が続き得る。いくつかの実施形態では、前記ブロック210で構築された前記3次元モデルおよび前記ブロック240で取得された画像から1つまたは複数のランドマーク点を選択することができる。いくつかの実施形態では、強い特徴を有する3つ以上のランドマーク点が選択される。ランドマーク点の例は、眼の中央、鼻先、または口を含み得る。いくつかの実施形態では、3つのランドマーク点は、反復最近接点(ICP)アルゴリズムを使用した後続のマッチングを可能にする初期3次元座標を識別してもよい。いくつかの実施形態では、前記ランドマーク点は、3次元光学装置スキャンおよびCT/MRIデータの両方で同じ順序(例えば、1.鼻先、2.左眼、3.右眼)であり得る。
明確にするために、以下の説明では、主に、3次元カメラなどの前記3次元光学装置の非限定的な一例、および3次元カメラ座標系などのその座標系を使用して、本開示の様々な実施形態を説明する。
いくつかの実施形態において、図5Aおよび図5Bは、本開示のいくつかの実施形態に従って配置されたランドマーク点を識別するために主要な特徴を選択する顔面認識方法を例示している。患者は通常、外科処置中に眼を閉じているため、丸い虹彩で眼を識別することに依拠する従来の顔面認識アルゴリズムは使用できない。代わりに、前記患者の鼻、最も前方の構造が最初に選択される。これは、前記患者が一般に同じ位置にいるために可能である。所定のzオフセットを有する鼻先から、他のランドマーク点(例えば、眼)を選択するための関心領域(例えば、図5Aに例示されている長方形)が画定される。いくつかの実施形態では、関心領域は、鼻先、眼、額、および眉間の領域によって画定される領域を含み得る。したがって、いくつかの実施形態では、横(軸)断面から、3つ以上のランドマーク点が(例えば、鼻がより高い中心ピークとして、眼球がより小さな2つのピークとして)識別され得る。
前記ブロック250の後に、前記ブロック260「画像マッチングを実行する」が続き得る。いくつかの実施形態では、前記画像マッチングは、前記ブロック250で選択された前記ランドマーク点のマッチングを含む。いくつかの実施形態では、前記3次元光学装置によって撮影された画像から選択されたランドマーク点と、前記構築された3次元モデルから選択されたランドマーク点とが、2セットのランドマーク点間の差を最小化するために時には反復してマッチングされる。いくつかの実施形態では、マッチングに使用されるランドマーク点は、利用可能な全ての表面データを包含してもよい。他の実施形態では、マッチングに使用されるランドマーク点は、表面データの選択されたサブセットであってもよい。例えば、マッチングのためのランドマーク点は、利用可能な全ての表面データから繰り返し選択される代わりに、前記3次元光学装置によって撮影された画像の関心領域(例えば、図5Aに例示されている長方形)および前記構築された3次元モデルの関心領域から繰り返し選択されてもよい。
前記ブロック260の後には、前記ブロック270「座標を変換する」が続き得る。前記ブロック270では、前記構築された3次元モデル(例えば、P1、P2、およびP3)から選択された点が、元の座標系(すなわち、3次元モデル座標系)から前記3次元光学装置によって撮影された画像の座標(すなわち、3次元カメラ座標系)に変換される。前記変換は、反復最近接点(ICP)などのいくつかの画像比較アプローチに基づいてもよい。前記ブロック270は、前記3次元カメラ座標系上の全ての点がロボットアームの座標(すなわち、ロボットアーム座標系)に変換される、追加の座標変換をさらに含むことができる。座標変換の詳細については、以下でさらに説明する。
前記ブロック270の後には、前記ブロック280「手術経路上の点にロボットアームを駆動する」が続き得る。前記ブロック280において、3次元モデル座標系における前記計画された手術経路の座標は、前記ロボットアーム座標系に変換され得る。したがって、前記ロボットアームは、前記計画された手術経路上の安全点、術前点、入口点、および/または目標点に移動することができる。
要するに、3次元カメラまたはスキャナを使用して、患者の顔面の特徴を得ることができる。次に、顔面の特徴を、医用画像スキャンに関連付けられた処理済み画像データと比較してもよい。比較するために、前記3次元カメラで得た画像および前記医用画像スキャンに関連付けられた画像の両方で、ランドマーク点を同じ順序で選択する。いくつかの実施形態では、例示的なプロセス200は、脳手術、神経系手術、内分泌手術、眼科手術、耳手術、呼吸器手術、循環器系手術、リンパ管手術、胃腸手術、口腔および歯科手術、泌尿器手術、生殖手術、骨、軟骨および関節手術、筋肉/軟組織手術、乳房手術、皮膚手術など、様々な種類の手術に適用され得る。
図6は、本開示のいくつかの実施形態による、前記構築された3次元モデル座標系から前記3次元カメラ座標系への例示的な座標変換を示す。この図について、図7に関連して以下でさらに説明する。
図7は、本開示のいくつかの実施形態による、座標を変換する例示的なプロセス700を示す流れ図である。前記プロセス700は、ブロック710、720、730、および/または740で例示されるように、ハードウェア、ソフトウェア、および/またはファームウェアによって実行され得る1つまたは複数の動作、機能、またはアクションを含み得る。様々なブロックは、説明する実施形態に限定されることを意図していない。概説された工程および動作は例としてのみ提供され、工程および動作の一部はオプションであり、組み合わせてより少ない工程および動作にしてもよいし、開示される実施形態の本質を損なうことなく追加の工程および動作に拡張してもよい。ブロックは連続した順序で例示されているが、これらのブロックは、並行して、および/または本明細書で説明する順序とは異なる順序で実行されてもよい。
図6に関連して、前記ブロック710で初期行列を得る。いくつかの実施形態では、第1の初期行列TMRIおよび第2の初期行列Tcameraを得る。いくつかの実施形態では、
Figure 0007095079000001
式中、
Figure 0007095079000002
Figure 0007095079000003
Figure 0007095079000004
VectorXxはVectorのx成分、VectorXyはVectorのy成分、VectorXzはVectorのz成分である。同様に、VectoryxはVectory,のx成分、VectoryyはVectorのy成分、VectoryzはVectory,のz成分である。VectorZxはVectorのx成分、VectorZyはVectorのy成分、VectorZzはVectorのz成分である。P1はP1のx座標、P1はP1のy座標、P1はP1のz座標である。
いくつかの他の実施形態では、
Figure 0007095079000005
式中、
Figure 0007095079000006
Figure 0007095079000007
Figure 0007095079000008
VectorX’xはVectorX’のx成分、VectorX’yはVectorX’のy成分、VectorX’zはVectorX’のz成分である。同様に、Vectory’xはVectory’のx成分、Vectory’yはVectory’のy成分、Vectory’zはVectory’のz成分である。VectorZ’xはVectorZ’のx成分、VectorZ’yはVectorZ’のy成分、VectorZ’zはVectorZ’のz成分である。P1’はP1’のx座標、P1’はP1’のy座標、P1’はP1’のz座標である。
前記ブロック710の後に、前記ブロック720「変換行列を得る」が続き得る。いくつかの実施形態では、前記変換行列はTcameraMRI -1であってもよく、P1、P2およびP3は、前記TcameraMRI -1に従って前記3次元カメラ座標系に変換される。P1、P2およびP3がそれぞれP1transformed、P2transformed、P3transformedに変換されると仮定すると、前記P1transformedおよび前記P1’、前記P2transformedおよび前記P2’、ならびに前記P3transformedおよび前記P3’の間の差異に関連付けられた距離メトリックは、いくつかの実行可能なICPアプローチに基づいて計算される。
前記ブロック720の後に前記ブロック730が続き得る。前記ブロック730では、前記距離メトリックの変化が閾値に達しているかどうかが決定される。前記閾値に達していない場合、前記ブロック730は前記ブロック720に戻り、そこで前記P1transformed、前記P2transformed、および前記P3transformedが選択されて、Tcameraが更新され、最終的に新しい変換行列TcameraMRI -1が得られる。前記閾値に達している場合、前記ブロック730の後に前記ブロック740が続き得る。
前記ブロック740では、前記3次元カメラ座標系から前記ロボットアーム座標系に点を変換するための変換行列が得られる。いくつかの実施形態では、前記変換行列は、
Figure 0007095079000009
であり、式中、
Figure 0007095079000010
Figure 0007095079000011
Figure 0007095079000012
Figure 0007095079000013

Figure 0007095079000014
は前記ロボットアーム座標系のカメラ中心(カメラ座標系の原点など)に関連付けられた回転ベクトルであり、
kxは前記
Figure 0007095079000015
のx成分、kyは前記
Figure 0007095079000016
のy成分、kzは前記
Figure 0007095079000017
のz成分であり、Pcxは前記ロボットアーム座標系の前記カメラ中心のx座標、Pcyは前記ロボットアーム座標系の前記カメラ中心のy座標、Pczは前記ロボットアーム座標系の前記カメラ中心のz座標である。いくつかの実施形態では、前記ロボットアーム座標系の前記カメラ中心を位置合わせするための例示的なアプローチについて、図8に関連して以下でさらに説明する。
前記変換行列に従って、前記3次元モデル座標系の前記手術経路上の点は前記ロボットアーム座標系に変換され得る。したがって、前記ロボットアームは、前記手術経路上の1つまたは複数の点に移動することができる。
いくつかの実施形態において、図8は、前記ロボットアーム座標系で光学装置(例えば、カメラ)を位置合わせする例示的なプロセス800を示す流れ図である。いくつかの実施形態では、前記光学装置は前記ロボットアームのフランジに取り付けられてもよい。上述のように、前記kx、前記ky、前記kz、前記Pcx、前記Pcy、および前記Pczを有する前記ロボットアーム座標系で前記光学装置を説明するために、まず、前記光学装置に関連付けられた点(例えば、カメラ座標系の原点)を前記プロセス800に従って前記ロボットアーム座標系に位置合わせすることができる。前記プロセス800は、ブロック810、820、830および/または840によって示されるように、ハードウェア、ソフトウェアおよび/またはファームウェアによって実行され得る1つまたは複数の動作、機能、またはアクションを含み得る。様々なブロックは、説明する実施形態に限定されることを意図していない。概説された工程および動作は例としてのみ提供され、工程および動作の一部はオプションであり、組み合わせてより少ない工程および動作にしてもよいし、開示される実施形態の本質を損なうことなく追加の工程および動作に拡張してもよい。ブロックは連続した順序で例示されているが、これらのブロックは、並行して、および/または本明細書で説明する順序とは異なる順序で実行されてもよい。
前記プロセス800は、前記ブロック810で開始することができる。前記ブロック810で、前記ロボットアームは開始位置に移動するように構成される。いくつかの実施形態では、前記開始位置は前記ロボットアームの基部に隣接し、かつ面している。いくつかの実施形態では、前記開始位置で、前記光学装置は、前記ロボットアームの該基部の1つまたは複数の画像を取り込むように構成されている。前記取り込まれた画像は、前記光学装置の点と前記ロボットアームの該基部との空間的関係に関連付けられる。
前記ブロック810の後に前記ブロック820が続き得る。前記ブロック820では、前記取り込まれた画像に基づいて、前記ロボットアームの該基部のメッシュが得られる。
前記ブロック820の後に前記ブロック830が続き得る。前記ブロック830では、前記ロボットアームの特定の物理情報に基づいて、前記ロボットアームの該基部の3次元モデルが構築される。いくつかの実施形態では、前記物理情報は、前記ロボットアームの要素の寸法、向き、および/または幾何学的特徴を含んでもよい。
前記ブロック830の後に前記ブロック840が続き得る。前記ブロック840では、前記得られたメッシュと前記構築された3次元モデルとをマッチングさせる。前記マッチングには、いくつかの技術的に実行可能なアプローチを使用することができ、例えば、所与の収束精度を満たすために、前記得られたメッシュの点と前記構築された3次元モデルの点とをマッチングさせる反復最近接点アプローチが使用され得る。前記所与の収束精度が満たされることに応答して、前記光学装置の点と前記ロボットアームの該基部との空間的関係を計算できる。この計算に基づいて、カメラの点を前記ロボットアーム座標系に位置合わせできる。
図9は、本開示のいくつかの実施形態による、手術経路上の初期点から安全点までロボットアームを移動させる例示的なプロセス900を示す流れ図である。いくつかの実施形態では、前記初期点は、光学装置が前記患者の画像を撮影するように構成される点である。いくつかの実施形態では、前記初期点および前記安全点は前記ロボットアーム座標系にある。前記プロセス900は、ブロック910、920、および/または930によって示されるように、ハードウェア、ソフトウェア、および/またはファームウェアによって実行され得る1つまたは複数の動作、機能、またはアクションを含み得る。様々なブロックは、説明する実施形態に限定されることを意図していない。概説された工程および動作は例としてのみ提供され、工程および動作の一部はオプションであり、組み合わせてより少ない工程および動作にしてもよいし、開示される実施形態の本質を損なうことなく追加の工程および動作に拡張してもよい。ブロックは連続した順序で例示されているが、これらのブロックは、並行して、および/または本明細書で説明する順序とは異なる順序で実行されてもよい。
前記ブロック910では、前記ロボットアームを前記初期点から前記安全点まで回転させるための回転行列が得られる。いくつかの実施形態では、前記回転行列は
Figure 0007095079000018
であり、式中、
Figure 0007095079000019
Figure 0007095079000020
は、前記初期点での回転行列であり、
αは、前記初期点でのZ軸に沿った回転角度であり、
βは、前記初期点でのY軸に沿った回転角度である。
前記ブロック910の後に前記ブロック920が続き得る。前記ブロック920では、前記安全点の座標が得られる。いくつかの実施形態では、前記安全点の座標(Xs,Ys,Zs)は、
Figure 0007095079000021
であり得、
は、前記初期点での回転行列であり、
(X,Y,Z)は、前記初期点の座標であり、
disは、前記初期点からのX軸上の移動距離であり、
disは、前記初期点からのY軸上の移動距離であり、
disは、前記初期点からのZ軸上の移動距離である。
いくつかの実施形態では、Xdis、dis、およびZdisは、前記ロボットアームに取り付けられた外科用器具の長さに関連付けられている。いくつかの実施形態では、前記外科用器具の長さと、Xdis、dis、およびZdisのいずれかとの合計は、それぞれX軸、Y軸およびZ軸上の前記ロボットアームから前記患者までの距離よりも小さい。
前記ブロック920の後に前記ブロック930が続き得る。前記ブロック930では、ロボットアームは、前記ブロック910で得られた前記回転行列および前記ブロック920で得られた前記座標に従って、前記初期点から前記安全点まで回転および移動するように構成される。
いくつかの実施形態では、図10のコンピューティングシステム1060は、前述のプロセス900を実行するように構成され得る。
図10は、本開示のいくつかの実施形態による、前記ロボットアーム座標系においてロボットアームフランジに取り付けられた外科用ツールを位置合わせするシステム1000を示す例示的な図である。いくつかの実施形態では、前記ロボットアームは初期点にある。いくつかの実施形態では、前記システム1000は、端部1011を有するロボットアームのフランジ1010、先端部1021を有する前記フランジ1010に取り付けられた外科用器具1020、第1の光源1032、第1のカメラ1042、第2の光源1034、第2のカメラ1044、および有線接続または無線接続のいずれかを介して前記ロボットアームに接続されたコンピューティングシステム1060を含み得る。いくつかの実施形態では、前記光源1032、1034は、プレート1050上に垂直に配設されたバックライトプレートであり得る。いくつかの実施形態では、前記プレート1050は、前記フランジ1010に取り付けられた標準プローブを使用する技術的に実行可能な較正アプローチを通じて前記ロボットアーム座標系によって定義される。較正後、前記標準プローブを前記フランジ1010から取り外し、その後前記外科用器具1020を前記フランジ1010に取り付ける。前記プレート1050が前記較正を通じて前記ロボットアーム座標系によって定義されるため、第1のバックライトプレート1032は、前記ロボットアーム座標系のx座標およびz座標によって定義され、第2のバックライトプレート1034は、図10に示すような前記ロボットアームの座標系のy座標およびz座標によって定義され得る。
いくつかの実施形態では、前記光源1032、1034は、互いに対して垂直に配設される。いくつかの他の実施形態では、前記第1のカメラ1042は前記プレート1050上に配設され、前記第2の光源1034に垂直であり、前記第2のカメラ1044は前記プレート1050上に配設され、前記第1の光源1032に垂直である。前記外科用器具1020は、前記第1の光源1032、前記第2の光源1034、前記第1のカメラ1042、および前記第2のカメラ1044の間に配設され得る。
いくつかの実施形態では、前記第1の光源1032は、バックライトを生成するように構成される。前記バックライトは、前記外科用器具1020の本体を通過するように構成される。前記第1のカメラ1042は、前記第1の光源1032によって生成される前記バックライトによって生じる前記外科用器具1020に関連付けられた1つまたは複数の画像(例えば、前記ロボットアーム座標系のx‐z平面上の外科用器具の投影)を取り込むように構成される。
同様に、前記第2の光源1034もバックライトを生成するように構成される。前記バックライトは、前記外科用器具1020の本体を通過するように構成される。前記第2のカメラ1044は、前記第2の光源1034によって生成される前記バックライトによって生じる前記外科用器具1020に関連付けられた1つまたは複数の画像(例えば、前記ロボットアーム座標系のy-z平面上の外科用器具の投影)を取り込むように構成される。
図10に関連して、図11は、本開示のいくつかの実施形態による、前記第1のカメラ1042によって取り込まれた例示的な画像1101、1102、および1103を示す。上述のように、いくつかの実施形態では、前記第1のカメラ1042は、前記ロボットアーム座標系のx-z平面上の前記外科用器具1020の1つまたは複数の投影を取り込むように構成される。前記画像1101の中心から離れた前記先端部1021の第1のx-z平面投影を有する第1の状態で前記外科用器具1020の第1のx-z平面投影に応答して前記ロボットアーム座標系で前記外科用器具1020を位置合わせするために、前記コンピューティングシステム1060は、前記ロボットアームおよび前記フランジ1010を移動させるコマンドを生成するように構成され、したがって前記外科用器具1020は第2の状態に移動する。前記第2の状態では、前記外科用器具1020の第2のx-z平面投影が前記画像1102に示されており、前記先端部1021の第2のx-z平面投影は前記画像1102の中心にマッチングする。しかし、前記第2の状態では、前記外科用器具1020の該第2のx-z平面投影は、前記ロボットアーム座標系のz軸と整列していない。これに応じて、前記コンピューティングシステム1060は、前記ロボットアームおよび前記フランジ1010を回転させるコマンドを生成するように構成され、したがって、前記外科用器具1020は第3の状態に回転する。前記第3の状態では、前記外科用器具1020の第3のx-z平面投影が前記画像1103に示されており、前記先端部1021の第3のx-z平面投影は前記画像1103の中心にマッチングし、前記外科用器具1020の該第3のx-z平面投影は前記ロボットアーム座標系のz軸と整列している。
上記の工程に加えて、図10および図11に関連して、図12は、本開示のいくつかの実施形態による、前記第2のカメラ1044によって取り込まれた例示的な画像1201、1202、および1203を示す。上述のように、いくつかの実施形態では、前記第2のカメラ1044は、前記ロボットアーム座標系のy-z平面上の前記外科用器具1020の1つまたは複数の投影を取り込むように構成される。前記画像1201の中心から離れた前記先端部1021の第1のy-z平面投影を有する第4の状態での前記外科用器具1020の第1のy-z平面投影に応答して前記ロボットアーム座標系で前記外科用器具1020を位置合わせするために、前記コンピューティングシステム1060は、前記ロボットアームおよび前記フランジ1010を移動させるコマンドを生成するように構成され、したがって前記外科用器具1020は第5の状態に移動する。前記第5の状態では、前記外科用器具1020の第2のy-z平面投影が前記画像1202に示されており、前記先端部1021の第2のy-z平面投影は前記画像1202の中心にマッチングする。しかし、前記第5の状態では、前記外科用器具1020の該第2のy-z平面投影は、前記ロボットアーム座標系のz軸と整列していない。これに応じて、前記コンピューティングシステム1060は、前記ロボットアームおよび前記フランジ1010を回転させるコマンドを生成するように構成され、したがって、前記外科用器具1020は第6の状態に回転する。前記第6の状態では、前記外科用器具1020の第3のy-z平面投影が前記画像1203に示されており、前記先端部1021の第3のy-z平面投影は前記画像1203の中心にマッチングし、前記外科用器具1020の該第3のy-z平面投影はz軸と整列している。
いくつかの実施形態では、前記第6の状態で、前記第1のカメラ1042は、前記ロボットアーム座標系のx-z平面上の前記外科用器具1020の1つまたは複数の投影を取り込むように構成される。前記第6の状態に応答して、前記画像1103と実質的に同じx-z平面投影も示し、前記コンピューティングシステム1060は、前記フランジ1010の前記端部1011に開始点を有し前記先端部1021に終点を有する前記外科用器具1020に対応する線が、前記ロボットアーム座標系で定義されることを決定するように構成される。したがって、前記ロボットアーム座標系における前記先端部1021の座標は、前記ロボットアーム座標系における前記端部1011の座標および前記外科用器具1021の幾何学的情報(例えば長さ)に基づいて決定され得る。
反対に、前記画像1103と実質的に同じではないx-z平面投影を示す前記第6の状態に応答して、図11および図12について上述した1つまたは複数の工程は、前記第6の状態が前記画像1103と実質的に同じx-z平面投影を示すまで繰り返される。
いくつかの実施形態では、前記ロボットアーム座標系で前記先端部1021の座標を決定した後、前記ロボットアームは、前記フランジ1010および前記外科用器具1020を移動および/または回転させることにより、前記ロボットアーム座標系で既知の座標を有する基準点に前記先端部1021を接触させるように構成され得る。実質的に前記基準点に触れる前記先端部1021に応答して、前記コンピューティングシステム1060は、前記先端部1021の座標が検証されることを決定するように構成される。そうでない場合、上記の工程を繰り返してもよい。
前述の詳細な説明では、ブロック図、フローチャート、および/または例を使用して、デバイスおよび/またはプロセスの様々な実施形態を説明した。そのようなブロック図、フローチャート、および/または例が1つまたは複数の機能および/または動作を含む限り、そのようなブロック図、フローチャート、または例内の各機能および/または動作は個別および/または集合的に、広範囲のハードウェア、ソフトウェア、ファームウェア、またはそれらの実質的にあらゆる組み合わせによって実装できることが当業者には理解されよう。いくつかの実施形態において、本明細書に記載の主題のいくつかの部分は、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、デジタルシグナルプロセッサ(DSP)、または他の統合フォーマットを介して実装され得る。しかし、当業者は、本明細書に開示される実施形態のいくつかの態様は、全体または一部において、1つまたは複数のコンピュータで実行される1つまたは複数のコンピュータプログラムとして(例えば、1つまたは複数のコンピュータシステムで実行される1つまたは複数のプログラムとして)、1つまたは複数のプロセッサで実行される1つまたは複数のプログラムとして(例えば、1つまたは複数のマイクロプロセッサで実行される1つまたは複数のプログラムとして)、ファームウェアとして、またはそれらの実質的にあらゆる組み合わせとして、集積回路において同等に実装でき、回路の設計および/またはソフトウェアおよび/またはファームウェアのコードの記述は、本開示に照らして当業者の技術の範囲内に十分にあるであろうことを認識するであろう。さらに、当業者は、本明細書に記載の主題のメカニズムが様々な形態のプログラム製品として配信可能であり、本明細書に記載の主題の例示的な実施形態が、実際に配信を実行するために使用される信号伝達媒体の特定の種類にかかわらず適用されることを理解するであろう。信号伝達媒体の例には、フロッピーディスク、ハードディスクドライブ、コンパクトディスク(CD)、デジタル多用途ディスク(DVD)、デジタルテープ、コンピュータメモリなどの記録可能なタイプの媒体、ならびにデジタルおよび/またはアナログ通信媒体(例えば、光ファイバケーブル、導波路、有線通信リンク、無線通信リンクなど)などの伝送タイプの媒体が含まれるがこれらに限定されない。
上記から、本開示の様々な実施形態が例示の目的で本明細書に記載されており、本開示の範囲および精神から逸脱することなく様々な改変がなされ得ることが理解されよう。したがって、本明細書で開示された様々な実施形態は、限定することを意図するものではない。

Claims (10)

  1. ロボットアームと、
    3次元光学装置と、
    患者の医用画像スキャンに基づいて3次元モデルを構築し、
    前記3次元モデルに従って手術経路を計画し、
    前記3次元光学装置によって取り込まれた前記患者の画像情報を取得し、
    前記3次元モデルのランドマーク点の第1のセットを選択し、
    前記取得した画像情報内のランドマーク点の第2のセットを選択し、
    前記ランドマーク点の第1のセットと前記ランドマーク点の第2のセットとをマッチングし、
    前記ランドマーク点の第1のセットと前記ランドマーク点の第2のセットとをマッチングした結果に基づいて、前記3次元モデルに関連付けられた第1の座標系から前記3次元光学装置に関連付けられた第2の座標系に座標を変換し、
    前記3次元光学装置に関連付けられた前記第2の座標系から前記ロボットアームに関連付けられた第3の座標系に座標を変換し、
    前記ロボットアームに関連付けられた前記第3の座標系で前記手術経路上の1つまたは複数の点に該ロボットアームを駆動する
    ように構成されたプロセッサと
    を含み、
    前記3次元モデルが、前記患者の外観情報および該患者の皮膚下情報に関連付けられ、
    前記画像情報が、前記患者の前記外観情報にのみ関連付けられ、該患者の前記皮膚下情報には関連付けられておらず、
    前記ランドマーク点の第1のセットが、前記医用画像スキャンから得られた第1の外観点であり、
    前記ランドマーク点の第2のセットが、前記3次元光学装置によって得られた第2の外観点であり、
    前記3次元光学装置が前記ロボットアームに固定されている、
    手術経路上の1つまたは複数の点にロボットアームを駆動するシステム。
  2. 前記プロセッサは、前記医用画像スキャンに基づいて1つまたは複数の2値画像を作成するようにさらに構成され、前記2値画像の白色エリアは、前記手術経路上の解剖学的領域に対応する、
    請求項1に記載のシステム。
  3. 前記プロセッサは、前記白色エリアに基づいて、前記2値画像の第1の領域および第2の領域を画定するようにさらに構成されている、
    請求項2に記載のシステム。
  4. 前記プロセッサは、前記第1の領域とは異なるグレースケール値を有する前記第2の領域内の1つまたは複数のランドマーク点を選択するようにさらに構成されている、
    請求項3に記載のシステム。
  5. 前記プロセッサは、前記3次元モデルの第1の関心領域内の1つまたは複数のランドマーク点および/または前記取得した画像情報の第2の関心領域内の1つまたは複数のランドマーク点を一貫して選択するようにさらに構成されている、
    請求項1に記載のシステム。
  6. 前記プロセッサは、前記3次元光学装置の点を前記第3の座標系に位置合わせし、前記第3の座標系の位置合わせ点に基づいて前記第2の座標系から前記第3の座標系に座標を変換するようにさらに構成されている、
    請求項1に記載のシステム。
  7. 前記ロボットアームに取り付けられた外科用器具の複数の投影を形成する光を生成するように構成された第1の光源と第2の光源とをさらに備え、前記投影は前記第3の座標系で表現される、
    請求項1に記載のシステム。
  8. 前記第1の光源および前記第2の光源は、互いに垂直に配設される、
    請求項7に記載のシステム。
  9. 互いに垂直に配設され、前記投影の画像を取り込むように構成された第1のカメラと第2のカメラとをさらに備える、
    請求項8に記載のシステム。
  10. 前記システムが、脳手術、神経系手術、内分泌手術、眼科手術、耳手術、呼吸器手術、循環器系手術、リンパ管手術、胃腸手術、口腔および歯科手術、泌尿器手術、生殖手術、骨、軟骨および関節手術、筋肉/軟組織手術、乳房手術、および/または皮膚手術で使用するように構成されている、
    請求項1に記載のシステム。
JP2020517253A 2017-06-04 2018-06-04 手術経路上の1つまたは複数の点を決定するシステム Active JP7095079B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201762514951P 2017-06-04 2017-06-04
US62/514,951 2017-06-04
US201862612728P 2018-01-02 2018-01-02
US62/612,728 2018-01-02
US201862618053P 2018-01-16 2018-01-16
US62/618,053 2018-01-16
PCT/CN2018/089769 WO2018223925A1 (en) 2017-06-04 2018-06-04 Method and system of determining one or more points on operation pathway

Publications (2)

Publication Number Publication Date
JP2020522369A JP2020522369A (ja) 2020-07-30
JP7095079B2 true JP7095079B2 (ja) 2022-07-04

Family

ID=64566379

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020517253A Active JP7095079B2 (ja) 2017-06-04 2018-06-04 手術経路上の1つまたは複数の点を決定するシステム

Country Status (7)

Country Link
US (1) US11648066B2 (ja)
EP (1) EP3586507A4 (ja)
JP (1) JP7095079B2 (ja)
KR (1) KR102493021B1 (ja)
CN (1) CN110494096B (ja)
TW (1) TWI670681B (ja)
WO (1) WO2018223925A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2020234305A1 (en) * 2019-03-11 2021-10-07 Intellijoint Surgical Inc. Computer assisted surgery system and method to process and communicate planning data
TWI766253B (zh) 2019-03-19 2022-06-01 鈦隼生物科技股份有限公司 基於影像匹配決定手術路徑之方法與系統
FR3095331A1 (fr) * 2019-04-26 2020-10-30 Ganymed Robotics Procédé de chirurgie orthopédique assistée par ordinateur
FR3104934B1 (fr) * 2019-12-18 2023-04-07 Quantum Surgical Méthode de planification automatique d’une trajectoire pour une intervention médicale
TW202216076A (zh) * 2020-03-21 2022-05-01 鈦隼生物科技股份有限公司 用以基於影像匹配進行鼻咽採檢之方法與系統
WO2021213450A1 (en) * 2020-04-22 2021-10-28 Brain Navi Biotechnology Co., Ltd. Method and system to augment medical scan image information on extended reality image
CN113768624B (zh) * 2021-09-28 2023-05-09 杭州柳叶刀机器人有限公司 作业面定位控制方法、装置、计算机设备及可读存储介质
CN114617636B (zh) * 2022-05-11 2022-09-02 杭州键嘉机器人有限公司 确定口腔u型槽夹具和医学影像坐标系转换关系的方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007044485A (ja) 2005-08-05 2007-02-22 Ge Medical Systems Global Technology Co Llc 脳内出血部位セグメンテーション方法および装置
JP2008264520A (ja) 2007-03-20 2008-11-06 National Univ Corp Shizuoka Univ 手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラム
JP2009507568A (ja) 2005-09-13 2009-02-26 ヴェラン メディカル テクノロジーズ,インコーポレイテッド 画像誘導精度検証のための装置および方法
JP2015066021A (ja) 2013-09-27 2015-04-13 エフ・エーシステムエンジニアリング株式会社 3dナビゲーション映像生成装置
WO2016192671A1 (en) 2015-06-05 2016-12-08 Chen Chieh Hsiao Intra operative tracking method

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5389101A (en) * 1992-04-21 1995-02-14 University Of Utah Apparatus and method for photogrammetric surgical localization
JPH0759763A (ja) * 1993-08-25 1995-03-07 Hitachi Gazo Joho Syst:Kk 3次元物体計測装置
US5999840A (en) * 1994-09-01 1999-12-07 Massachusetts Institute Of Technology System and method of registration of three-dimensional data sets
US9492241B2 (en) * 2005-01-13 2016-11-15 Mazor Robotics Ltd. Image guided robotic system for keyhole neurosurgery
CN101049248A (zh) * 2007-05-18 2007-10-10 西安工业大学 光磁电复合导航手术定位装置和方法
WO2010076673A1 (en) * 2008-12-29 2010-07-08 Koninklijke Philips Electronics, N.V. Path planning for reducing tissue damage in minimally invasive surgery
CA2797302C (en) * 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
US8911453B2 (en) * 2010-12-21 2014-12-16 Restoration Robotics, Inc. Methods and systems for directing movement of a tool in hair transplantation procedures
CN102727309B (zh) * 2011-04-11 2014-11-26 上海优益基医疗器械有限公司 结合内窥镜影像的外科手术导航系统
JP2015528713A (ja) * 2012-06-21 2015-10-01 グローバス メディカル インコーポレイティッド 手術ロボットプラットフォーム
US8882662B2 (en) * 2012-06-27 2014-11-11 Camplex, Inc. Interface for viewing video from cameras on a surgical visualization system
KR101993384B1 (ko) 2012-10-24 2019-06-26 삼성전자주식회사 환자의 자세 변화에 따른 의료 영상을 보정하는 방법, 장치 및 시스템
CN103961178B (zh) 2013-01-30 2016-05-11 深圳先进技术研究院 远程手术规划与导航系统
US10507066B2 (en) * 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
AU2014229201A1 (en) * 2013-03-11 2015-09-10 Tylerton International Inc. Modeling the autonomous nervous system and uses thereof
SG11201507610RA (en) * 2013-03-15 2015-10-29 Synaptive Medical Barbados Inc Planning, navigation and simulation systems and methods for minimally invasive therapy
US9814390B2 (en) * 2013-03-15 2017-11-14 Synaptive Medical (Barbados) Inc. Insert imaging device for surgical procedures
US10231704B2 (en) * 2013-12-20 2019-03-19 Raghu Raghavan Method for acquiring ultrasonic data
TWI548388B (zh) * 2013-12-30 2016-09-11 國立臺灣大學 骨科手術之手持式機器人以及其控制方法
CN106714681A (zh) * 2014-07-23 2017-05-24 凯内蒂科尔股份有限公司 用于在医学成像扫描期间追踪和补偿患者运动的系统、设备和方法
US9950194B2 (en) 2014-09-09 2018-04-24 Mevion Medical Systems, Inc. Patient positioning system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007044485A (ja) 2005-08-05 2007-02-22 Ge Medical Systems Global Technology Co Llc 脳内出血部位セグメンテーション方法および装置
JP2009507568A (ja) 2005-09-13 2009-02-26 ヴェラン メディカル テクノロジーズ,インコーポレイテッド 画像誘導精度検証のための装置および方法
JP2008264520A (ja) 2007-03-20 2008-11-06 National Univ Corp Shizuoka Univ 手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラム
JP2015066021A (ja) 2013-09-27 2015-04-13 エフ・エーシステムエンジニアリング株式会社 3dナビゲーション映像生成装置
WO2016192671A1 (en) 2015-06-05 2016-12-08 Chen Chieh Hsiao Intra operative tracking method

Also Published As

Publication number Publication date
TW201907366A (zh) 2019-02-16
CN110494096A (zh) 2019-11-22
KR102493021B1 (ko) 2023-01-31
EP3586507A1 (en) 2020-01-01
TWI670681B (zh) 2019-09-01
JP2020522369A (ja) 2020-07-30
KR20200016833A (ko) 2020-02-17
US20200008892A1 (en) 2020-01-09
US11648066B2 (en) 2023-05-16
WO2018223925A1 (en) 2018-12-13
CN110494096B (zh) 2023-05-05
EP3586507A4 (en) 2021-02-24

Similar Documents

Publication Publication Date Title
JP7095079B2 (ja) 手術経路上の1つまたは複数の点を決定するシステム
US11297285B2 (en) Dental and medical loupe system for lighting control, streaming, and augmented reality assisted procedures
CA2987058C (en) System and method for providing a contour video with a 3d surface in a medical navigation system
WO2016190113A1 (ja) 手術システム、並びに画像処理装置および方法
TW201705078A (zh) 術中追蹤方法
CN103188987A (zh) 手术机器人系统及其腹腔镜操作方法以及体感式手术用图像处理装置及其方法
Hussain et al. Augmented reality for inner ear procedures: visualization of the cochlear central axis in microscopic videos
US20210186628A1 (en) System and methods for automatic muscle movement detection
WO2022249190A1 (en) System and method for verification of conversion of locations between coordinate systems
JP2022525666A (ja) 画像マッチングに基づいて手術経路を決定する方法およびシステム
JP7486603B2 (ja) 拡張現実画像上に医用スキャン画像情報を補う方法及びシステム
EP4287136A1 (en) System of vein location for medical interventions and biometric recognition using mobile devices
Madhwaraj et al. Assistance System for 3D Navigational Endocranial Procedures based on Image Acquisition
WO2024095134A1 (en) Registration and navigation in cranial procedures
WO2024112857A1 (en) Extended reality registration method using virtual fiducial markers

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20191218

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220622

R150 Certificate of patent or registration of utility model

Ref document number: 7095079

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150