JP7397092B2 - 画像マッチングに基づいて手術経路を決定する方法およびシステム - Google Patents

画像マッチングに基づいて手術経路を決定する方法およびシステム Download PDF

Info

Publication number
JP7397092B2
JP7397092B2 JP2021556512A JP2021556512A JP7397092B2 JP 7397092 B2 JP7397092 B2 JP 7397092B2 JP 2021556512 A JP2021556512 A JP 2021556512A JP 2021556512 A JP2021556512 A JP 2021556512A JP 7397092 B2 JP7397092 B2 JP 7397092B2
Authority
JP
Japan
Prior art keywords
dimensional
feature points
dimensional feature
patient
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021556512A
Other languages
English (en)
Other versions
JP2022525666A (ja
Inventor
シェシャオ チェン
カンジュ ワン
Original Assignee
ブレイン ナビ バイオテクノロジー カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ブレイン ナビ バイオテクノロジー カンパニー リミテッド filed Critical ブレイン ナビ バイオテクノロジー カンパニー リミテッド
Publication of JP2022525666A publication Critical patent/JP2022525666A/ja
Application granted granted Critical
Publication of JP7397092B2 publication Critical patent/JP7397092B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain

Description

関連出願の相互参照
本出願は、2019年3月19日に出願された米国仮出願第62/820,804号の利益を主張し、その全体が参照により組み込まれる。
本発明の実施形態は、一般に、手術経路上の1つまたは複数の点を決定する方法およびシステムに関する。
本明細書で特に明記しない限り、このセクションで説明するアプローチは、本出願の特許請求の範囲の先行技術ではなく、このセクションに含めることによって先行技術であるとは認められない。
手術では手術経路の計画が重要である。手術経路には、患者から離れた安全点および術前点、患者の組織の入口点、手術の目標における目標点など、複数の点が含まれ得る。
ロボット手術によって手術経路を正確に制御できる。手術の前に、患者は医用スキャン(例えば、CTまたはMRI、PET、超音波など)を受ける。目的の解剖学的領域への手術経路が計画される。人工知能を使用して、最小限の損傷で最適な経路を外科医に提案することができる。手術を行うには、計画された手術経路に沿って正確に手術を行うために、患者の位置を医用スキャンの視点に合わせることがある。従来のアプローチは基準マークへの接着またはねじ止めに依拠しており、これは広く採用されていない。
手術中に遭遇する可能性のあるいくつかの点の間の空間的関係を示す例示的な図である。 患者の手術経路を決定する例示的なプロセスを示すフロー図である。 手術経路計算の例を示す図である。 最初に収集された、患者に関する2次元画像である。 2回目に収集された、患者に関する2次元画像である。 2次元スナップショットの画像である。 2次元顔画像の画像である。 構築された3次元モデル座標系から3次元カメラ座標系への座標変換を示す。 座標を変換する例示的なプロセスを示す流れ図である。 本開示のいくつかの実施形態に従って全て配置された、ロボットアーム座標系において光学装置を位置合わせするための例示的なプロセスを示す流れ図である。
以下の詳細な説明では、本明細書の一部を形成する添付図面を参照する。図面では、文脈からそうでないことが示されていない限り、同様の記号は通常、同様の成分を示す。詳細な説明、図面、および特許請求の範囲に記載されている例示的な実施形態は、限定することを意図していない。本明細書に提示される主題の精神または範囲から逸脱することなく、他の実施形態を利用することができ、他の変更を加えることができる。本開示の態様は、本明細書に一般的に記載され、図に例示されるように、多種多様な異なる構成で配置、置換、組み合わせ、および設計することができ、その全てが本明細書で明示的に企図されることは容易に理解されよう。
図1は、本開示のいくつかの実施形態に従って配置された、手術中に遭遇する可能性のあるいくつかの点の間の空間的関係を示す例示的な図である。図1において、手術経路110は、安全点120、術前点130、入口点140、および目標点150を含み得る。
図2は、本開示のいくつかの実施形態に従って構成された、患者の手術経路を決定するための例示的なプロセス200を示す流れ図である。プロセス200は、ブロック210、220、230、240、250、260、270、280および/または290によって示されるように、ハードウェア、ソフトウェアおよび/またはファームウェアによって実行され得る1つまたは複数の動作、機能、またはアクションを含み得る。様々なブロックは、説明する実施形態に限定されることを意図していない。概説された工程および動作は例としてのみ提供され、工程および動作の一部はオプションであり、組み合わせてより少ない工程および動作にしてもよいし、開示される実施形態の本質を損なうことなく追加の工程および動作に拡張してもよい。ブロックは連続した順序で例示されているが、これらのブロックは、並行して、および/または本明細書で説明する順序とは異なる順序で実行されてもよい。
プロセス200は、ブロック210「医用画像スキャンに基づいて3Dモデルを構築する」で開始することができる。手術が行われる前に、いくつかの医用撮像技術を使用して患者の状態のスナップショットを取り込み、手術計画を策定することができる。手術計画は、上記の計画された手術経路を含み得る。例えば、外科医は、手術目標の医用画像スキャン(例えば、CTまたはMRI)を指示してもよい。そのような医用画像スキャンは、手術の数日前(例えば、3~5日前)に行われてもよい。3次元モデルは、いくつかの既知のアプローチを使用して医用画像スキャンデータに基づいて構築され得る。したがって、計画された手術経路上の点を3次元モデルにおいて識別することができる。
いくつかの実施形態では、人工知能エンジンを使用して、患者への物理的損傷を最小限に抑えた1つまたは複数の計画された手術経路を外科医に提案することができる。患者のCTまたはMRIスキャンに基づいて、人工知能エンジンは、1つまたは複数の最適な計画された手術経路を提案することができる。図3は、本開示のいくつかの実施形態に従って配置された目標点320に到達するための計画された手術経路310の計算の一例を示す。計算には、標準の脳アトラスデータを変換すること、および脳野を識別するためにそれを患者の医用スキャン画像に位置合わせすることが含まれ得る。いくつかの脳野の例には、運動連合野331、表現発話野332、高次精神機能野333、運動野334、感覚野335、体性感覚連合野336、包括的言語野337、視覚野338、受容発話野338、受容発話野339、連合野341、および小脳野342が含まれる。さらに、視床下核などの一般的な目標組織は自動的に識別されてもよい。さらに、上記の各脳野に費用関数を割り当てて、人工知能エンジンが目標組織への1つまたは複数の計画された手術経路を提案してもよい。血管は、TOF(飛行時間MRI)データから識別され得る。外側の脳の境界上の点は、入口点の候補である。
ブロック210の後には、ブロック220「2Dスナップショットを生成する」が続き得る。いくつかの実施形態では、2次元スナップショットは、ブロック210で構築された3次元モデルに基づいて生成される。いくつかの実施形態では、2次元スナップショットは、患者の3次元モデルの正面図である。患者の正面図は、患者の少なくともいくつかの顔の特徴を含む。
ブロック220の後には、ブロック230「患者の2D顔画像を取得するためにロボットアームを駆動する」が続き得る。いくつかの実施形態では、少なくとも2つの2次元光学装置(例えば、カメラおよび/またはスキャナ)がロボットアームに固定される。ロボットアームを異なる位置に駆動することにより、2つの2次元光学装置は、患者に関連する異なる画像を取り込むことができる。いくつかの実施形態では、2つの2次元光学装置の各々は、患者に関連する2次元画像を収集するように構成される。いくつかの他の実施形態では、2つの2次元光学装置は、組み合わせて、患者に関連する深度情報を収集するように構成される。したがって、少なくとも2つの2次元光学装置は、患者に関連する2次元画像または患者に関連する3次元画像のいずれかを収集することができる。
図4Aに関連して、画像410は、最初に収集された患者に関連する2次元画像である。画像410は、座標(X、Y)を有する画像中心411を有する。人工知能エンジンを使用して、画像410内の患者を識別することができる。いくつかの実施形態では、人工知能エンジンは、画像410のフレーム413内の患者を識別することができる。さらに、人工知能エンジンは、画像410内の患者の顔中心点415を識別することができる。顔中心点415は、座標(x、y)を有することができる。いくつかの実施形態では、ロボットアームは、少なくとも第1のオフセット(X-x)および第2のオフセット(Y-y)に基づいて駆動される。
例えば、第1の時点で、第1のオフセットまたは第2のオフセットのいずれかが1つまたは複数の所定の閾値よりも大きく、ロボットアームは、第1のオフセットおよび第2のオフセットを減少させるために別の位置に駆動される。
いくつかの実施形態では、図4Bに関連して、ロボットアームが第2の時点で第1の更新位置に駆動されたことに応答して、画像420は、ロボットアーム上の2次元光学装置によって収集された患者に関連する2次元画像である。画像420は、更新された座標(X、Y)を有する画像中心421を有する。人工知能エンジンを使用して、画像420内の患者を識別することができる。いくつかの実施形態では、人工知能エンジンは、画像420のフレーム423内の患者を識別することができる。さらに、人工知能エンジンは、画像420内の患者の顔中心点425を識別することができる。顔中心点425は、更新された座標(x、y)を有することができる。いくつかの実施形態では、第1のオフセット(X-x)および第2のオフセット(Y-y)は両方とも、1つまたは複数の所定の閾値未満である。
いくつかの実施形態では、第3の時点の第1の更新位置で、人工知能エンジンを使用して、少なくとも3つの特徴点426,427および428を識別することができる。2次元光学装置は、患者に関連する深度情報を収集するように構成される。深度情報を、3次元空間内の第1の平面を画定することができる特徴点426,427および428に割り当てることができる。いくつかの実施形態では、ロボットアームは、ロボットアーム上の2次元光学装置が3次元空間内の第1の平面に実質的に平行な第2の平面上にあるように、第4の時点で回転して第2の更新位置に移動するように駆動される。2次元光学装置の動作パラメータに関連する所定の範囲内の第2の更新位置における画像420の平均深度に応答して、画像420は、患者の2D顔画像として取得され、方法200はブロック240に進む。
ブロック240「2Dスナップショットおよび2D顔画像内の2D特徴点を選択する」において、人工知能エンジンを使用して、ブロック220で生成された2次元スナップショット内の2次元特徴点の第1のセットと、ブロック230で撮影された患者の2次元顔画像(例えば、画像420)内の2次元特徴点の第2のセットを選択することができる。
図5に関連して、画像500は、ブロック220において生成された2次元スナップショットである。いくつかの実施形態では、人工知能エンジンを使用して、眉間501、右内眼角点502および左内眼角点503を識別することができるが、これは、これらの点が画像500において識別がより容易であるためである。しかしながら、眉間501、右内眼角点502および左内眼角点503は、様々な人種の人々にとって同じ2次元平面上にない場合がある。画像500が2次元スナップショットであると仮定すると、眉間501、右内眼角点502および左内眼角点503は、画像500上の2次元特徴点に適していない。それにもかかわらず、解剖学的構造に基づいて、様々な人種の人々の顔面上の小領域510は統計的に平坦である。したがって、いくつかの実施形態では、人工知能エンジンを使用して、眉間501、右内眼角点502および左内眼角点503をそれぞれ通過し、領域510で交差する3つの線520,530および540を生成する。いくつかの実施形態では、交差点511は、2次元特徴点として選択される。さらに、いくつかの実施形態では、線530上の領域510内の点512と、線540上の領域510内の点513も2次元特徴点として選択される。点511,512および513は、2次元特徴点の第1のセットであってもよい。いくつかの実施形態では、領域510内の追加の2D点を選択して、2次元特徴点の第1のセットの数を増やすことができる。
図6に関連して、画像600は、ブロック230において撮影された2次元顔画像である。いくつかの実施形態では、人工知能エンジンを使用して、眉間601、右内眼角点602および左内眼角点603を識別することができるが、これは、これらの点が画像600において識別がより容易であるためである。しかしながら、眉間601、右内眼角点602および左内眼角点603は、様々な人種の人々にとって同じ2次元平面上にない場合がある。画像600が2次元顔画像であると仮定すると、眉間601、右内眼角点602、および左内眼角点603は、画像600上の2次元特徴点に適していない。同様に、解剖学的構造に基づいて、様々な人種の人々の顔面上の小領域610は統計的に平坦である。それにもかかわらず、いくつかの実施形態では、人工知能エンジンを使用して、眉間601、右内眼角点602および左内眼角点603をそれぞれ通過し、領域610で交差する3本の線620,630および640を生成する。いくつかの実施形態では、交差点611は、2次元特徴点として選択される。さらに、いくつかの実施形態では、線630上の領域610内の点612と、線640上の領域610内の点613も2次元特徴点として選択される。点611,612および613は、2次元特徴点の第2のセットであってもよい。いくつかの実施形態では、領域610内の追加の2D点を選択して、2次元特徴点の第2のセットの数を増やすことができる。
ブロック240の後には、ブロック250「2D特徴点の第1のセットを3D特徴点の第1のセットに変換する」が続き得る。いくつかの実施形態では、ブロック250において、2次元特徴点の第1のセット(例えば、点511,512および513)は、3次元特徴点の第1のセットに変換される。上述したように、2次元特徴点の第1のセットは、構築された3次元モデルで生成された2次元スナップショットにおいて選択される。構築された3次元モデルの2次元スナップショットを取得したアルゴリズムに基づいて、2次元スナップショット(例えば、ブロック220で生成されたスナップショット)の2次元特徴点の第1のセットを構築された3次元モデル(例えば、ブロック210で生成された3次元モデル)の3次元特徴点の第1のセットに変換するために逆の動作を実行することができる。いくつかの実施形態では、3次元特徴点の第1のセットは、反復最近接点(ICP)アルゴリズムを使用した後続のマッチングを可能にする第1の初期3次元座標を識別することができる。
ブロック250の後には、ブロック260「2D特徴点の第2のセットを3D特徴点の第2のセットに変換する」が続き得る。いくつかの実施形態では、ブロック260において、2次元特徴点の第2のセット(例えば、点611,612および613)は、3次元特徴点の第2のセットに変換される。上述したように、患者に関連する深度情報は、2次元光学装置によって収集することができる。いくつかの実施形態では、深度情報を2次元特徴点の第2のセットに追加して、2次元特徴点の第2のセットを3次元特徴点の第2のセットに変換することができる。いくつかの実施形態では、3次元特徴点の第2のセットは、反復最近接点(ICP)アルゴリズムを使用した後続のマッチングを可能にする第2の初期3次元座標を識別することができる。
ブロック260の後に、ブロック270「3次元特徴点の第1のセットと3次元特徴点の第2のセットとの間で画像マッチングを実行する」が続き得る。いくつかの実施形態では、3次元特徴点の第1のセットおよび3次元特徴点の第2のセットは、3次元特徴点の第1のセットと3次元特徴点の第2のセットとを整列させる関係を決定するためにマッチングされ、場合によっては、3次元特徴点の2つのセット間の差を最小化するために反復的にマッチングされる。
明確にするために、以下の説明は、2つの2次元光学装置(例えば、2つの2次元カメラ)の非限定的な一例と、2つの2次元光学装置に関連する3次元座標系、例えば3次元カメラ座標系を主に使用して、本開示の様々な実施形態を説明する。
ブロック270の後には、ブロック280「座標を変換する」が続き得る。ブロック280では、構築された3次元モデルの3次元特徴点の第1のセットが、その元の座標系(すなわち、3次元モデル座標系)から、2つの2次元光学装置によって撮影された画像の座標(すなわち、3次元カメラ座標系)に変換される。変換は、反復最近接点(ICP)などのいくつかの画像比較アプローチに基づいてもよい。ブロック280は、3次元カメラ座標系上の全ての点がロボットアームの座標(すなわち、ロボットアーム座標系)に変換される、追加の座標変換をさらに含むことができる。座標変換の詳細については、以下でさらに説明する。
ブロック280の後には、ブロック290「手術経路を決定する」が続き得る。ブロック290において、3次元モデル座標系における計画された手術経路の座標は、ロボットアーム座標系に変換され得る。したがって、ロボットアームは、計画された手術経路上の安全点、術前点、入口点、および/または目標点に移動することができる。
いくつかの実施形態では、例示的なプロセス200は、限定ではないが脳手術、神経系手術、内分泌手術、眼科手術、耳手術、呼吸器手術、循環器系手術、リンパ管手術、胃腸手術、口腔および歯科手術、泌尿器手術、生殖手術、骨、軟骨および関節手術、筋肉/軟組織手術、乳房手術、皮膚手術など、様々な種類の手術に適用され得る。
要するに、少なくとも2つの2次元カメラまたはスキャナを使用して、患者の顔の特徴を取得することができる。次いで、顔の特徴を、医用画像スキャンに関連する3次元モデルの2次元スナップショットと比較することができる。2次元特徴点の第1のセットは、2次元スナップショットにおいて選択され、2次元特徴点の第2のセットは、2次元カメラまたはスキャナによってそれぞれ取得された2次元の患者の顔画像において選択される。比較するために、2次元特徴点の第1のセットおよび2次元特徴点の第2のセットは、それぞれ、3次元モデルの3次元特徴点の第1のセットおよび3次元特徴点の第2のセットに変換される。いくつかの実施形態では、例示的なプロセス200は、脳手術、神経系手術、内分泌手術、眼科手術、耳手術、呼吸器手術、循環器系手術、リンパ管手術、胃腸手術、口腔および歯科手術、泌尿器手術、生殖手術、骨、軟骨および関節手術、筋肉/軟組織手術、乳房手術、皮膚手術など、様々な種類の手術に適用され得る。
図7は、本開示のいくつかの実施形態による、構築された3次元モデル座標系から3次元カメラ座標系への例示的な座標変換を示す。この図について、図8に関連して以下でさらに説明する。
図8は、本開示のいくつかの実施形態による、座標を変換する例示的なプロセス800を示す流れ図である。プロセス800は、ブロック810、820、830および/または840によって示されるように、ハードウェア、ソフトウェアおよび/またはファームウェアによって実行され得る1つまたは複数の動作、機能、またはアクションを含み得る。様々なブロックは、説明する実施形態に限定されることを意図していない。概説された工程および動作は例としてのみ提供され、工程および動作の一部はオプションであり、組み合わせてより少ない工程および動作にしてもよいし、開示される実施形態の本質を損なうことなく追加の工程および動作に拡張してもよい。ブロックは連続した順序で例示されているが、これらのブロックは、並行して、および/または本明細書で説明する順序とは異なる順序で実行されてもよい。
図7に関連して、ブロック810で初期行列を得る。いくつかの実施形態では、第1の初期行列TMRIおよび第2の初期行列Tcameraを得る。いくつかの実施形態では、
式中、
VectorXxはVectorのx成分、VectorXyはVectorのy成分、VectorXzはVectorのz成分である。同様に、VectoryxはVectorのx成分、VectoryyはVectorのy成分、VectoryzはVectorのz成分である。VectorZxはVectorのx成分、VectorZyはVectorのy成分、VectorZzはVectorのz成分である。P1はP1のx座標、P1はP1のy座標、P1はP1のz座標である。
いくつかの他の実施形態では、
式中、
VectorX’xはVectorX’のx成分、VectorX’yはVectorX’のy成分、VectorX’zはVectorX’のz成分である。同様に、Vectory’xはVectory’のx成分、Vectory’yはVectory’のy成分、Vectory’zはVectory’のz成分である。VectorZ’xはVectorZ’のx成分、VectorZ’yはVectorZ’のy成分、VectorZ’zはVectorZ’のz成分である。P1’はP1’のx座標、P1’はP1’のy座標、P1’はP1’のz座標である。
ブロック810の後に、ブロック820「変換行列を得る」が続き得る。いくつかの実施形態では、変換行列は
Figure 0007397092000009
Figure 0007397092000010
であってもよく、P1、P2およびP3は、
Figure 0007397092000011
Figure 0007397092000012
に従って3次元カメラ座標系に変換される。P1、P2およびP3がそれぞれP1transformed、P2transformed、P3transformedに変換されると仮定すると、P1transformedおよびP1’、P2transformedおよびP2’、ならびにP3transformedおよびP3’の間の差異に関連付けられた距離メトリックは、いくつかの実行可能なICPアプローチに基づいて計算される。
ブロック820の後にブロック830が続き得る。ブロック830では、距離メトリックの変化が閾値に達しているかどうかが決定される。閾値に達していない場合、ブロック830はブロック820に戻り、そこでP1transformed、P2transformed、およびP3transformedが選択されて、
Figure 0007397092000013
が更新され、最終的に新しい変換行列
Figure 0007397092000014
Figure 0007397092000015
が得られる。閾値に達している場合、ブロック830の後にブロック840が続き得る。
ブロック840では、3次元カメラ座標系からロボットアーム座標系に点を変換するための変換行列が得られる。いくつかの実施形態では、変換行列は、
式中、
Figure 0007397092000021
はロボットアーム座標系のカメラ中心(例えば、カメラ座標系の原点)に関連する回転ベクトルであり、
kxは
Figure 0007397092000022
のx成分であり、kyは
Figure 0007397092000023
のy成分であり、kzは
Figure 0007397092000024
のz成分である。Pcxはカメラ中心のx座標、Pcyはカメラ中心のy座標、Pczはロボットアーム座標系におけるカメラ中心のz座標である。いくつかの実施形態において、ロボットアーム座標系でカメラ中心を位置合わせするための例示的なアプローチについて、図9に関連して以下でさらに説明する。
変換行列に従って、3次元モデル座標系の手術経路上の点はロボットアーム座標系に変換され得る。したがって、ロボットアームは、手術経路上の1つまたは複数の点に移動することができる。
いくつかの実施形態において、図9は、ロボットアーム座標系で光学装置(例えば、カメラ)を位置合わせする例示的なプロセス900を示す流れ図である。いくつかの実施形態では、光学装置はロボットアームのフランジに取り付けられてもよい。上述のように、kx、ky、kz、Pcx、Pcy、およびPczを有するロボットアーム座標系で光学装置を説明するために、まず、光学装置に関連付けられた点(例えば、カメラ座標系の原点)をプロセス900に従ってロボットアーム座標系に位置合わせすることができる。プロセス900は、ブロック910、920、930および/または940によって示されるように、ハードウェア、ソフトウェアおよび/またはファームウェアによって実行され得る1つまたは複数の動作、機能、またはアクションを含み得る。様々なブロックは、説明する実施形態に限定されることを意図していない。概説された工程および動作は例としてのみ提供され、工程および動作の一部はオプションであり、組み合わせてより少ない工程および動作にしてもよいし、開示される実施形態の本質を損なうことなく追加の工程および動作に拡張してもよい。ブロックは連続した順序で例示されているが、これらのブロックは、並行して、および/または本明細書で説明する順序とは異なる順序で実行されてもよい。
プロセス900は、ブロック910で開始することができる。ブロック910で、ロボットアームは開始位置に移動するように構成される。いくつかの実施形態では、開始位置は、ロボットアームの基準点(例えば、ロボットアームベース)に隣接して対向している。いくつかの実施形態では、開始位置で、光学装置は、ロボットアームの基準点の1つまたは複数の画像を取り込むように構成されている。取り込まれた画像は、光学装置の点とロボットアームの基準点との空間的関係に関連付けられる。
ブロック910の後にブロック920が続き得る。ブロック920では、取り込まれた画像に基づいて、ロボットアームの基準点のメッシュが得られる。
ブロック920の後にブロック930が続き得る。ブロック930では、ロボットアームの特定の物理情報に基づいて、ロボットアームの基準点の3次元モデルが構築される。いくつかの実施形態では、物理情報は、ロボットアームの要素の寸法、向き、および/または幾何学的特徴を含んでもよい。
ブロック930の後にブロック940が続き得る。ブロック940では、得られたメッシュと構築された3次元モデルとをマッチングさせる。マッチングには、いくつかの技術的に実行可能なアプローチを使用することができ、例えば、所与の収束精度を満たすために、得られたメッシュの点と構築された3次元モデルの点とをマッチングさせる反復最近接点アプローチが使用され得る。所与の収束精度が満たされることに応答して、光学装置の点とロボットアームの基準点との空間的関係を計算できる。この計算に基づいて、カメラの点をロボットアーム座標系に位置合わせし、変換することができる。
前述の詳細な説明では、ブロック図、フローチャート、および/または例を使用して、デバイスおよび/またはプロセスの様々な実施形態を説明した。そのようなブロック図、フローチャート、および/または例が1つまたは複数の機能および/または動作を含む限り、そのようなブロック図、フローチャート、または例内の各機能および/または動作は個別および/または集合的に、広範囲のハードウェア、ソフトウェア、ファームウェア、またはそれらの実質的にあらゆる組み合わせによって実装できることが当業者には理解されよう。いくつかの実施形態において、本明細書に記載の主題のいくつかの部分は、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、デジタルシグナルプロセッサ(DSP)、または他の統合フォーマットを介して実装され得る。しかし、当業者は、本明細書に開示される実施形態のいくつかの態様は、全体または一部において、1つまたは複数のコンピュータで実行される1つまたは複数のコンピュータプログラムとして(例えば、1つまたは複数のコンピュータシステムで実行される1つまたは複数のプログラムとして)、1つまたは複数のプロセッサで実行される1つまたは複数のプログラムとして(例えば、1つまたは複数のマイクロプロセッサで実行される1つまたは複数のプログラムとして)、ファームウェアとして、またはそれらの実質的にあらゆる組み合わせとして、集積回路において同等に実装でき、回路の設計および/またはソフトウェアおよび/またはファームウェアのコードの記述は、本開示に照らして当業者の技術の範囲内に十分にあるであろうことを認識するであろう。さらに、当業者は、本明細書に記載の主題のメカニズムが様々な形態のプログラム製品として配信可能であり、本明細書に記載の主題の例示的な実施形態が、実際に配信を実行するために使用される信号伝達媒体の特定の種類にかかわらず適用されることを理解するであろう。信号伝達媒体の例には、フロッピーディスク、ハードディスクドライブ、コンパクトディスク(CD)、デジタル多用途ディスク(DVD)、デジタルテープ、コンピュータメモリなどの記録可能なタイプの媒体、ならびにデジタルおよび/またはアナログ通信媒体など(例えば、光ファイバケーブル、導波路、有線通信リンク、無線通信リンクなど)の伝送タイプの媒体が含まれるがこれらに限定されない。
上記から、本開示の様々な実施形態が例示の目的で本明細書に記載されており、本開示の範囲および精神から逸脱することなく様々な改変がなされ得ることが理解されよう。したがって、本明細書で開示された様々な実施形態は、限定することを意図するものではない。

Claims (12)

  1. プロセッサによる実行に応答して、患者の手術経路を決定する方法を該プロセッサに実行させる命令のセットを含む非一時的なコンピュータ可読記憶媒体であって、前記方法が、
    前記患者の医用画像スキャンに基づいて3次元モデルを構築することと、
    2次元光学装置のセットを用いて前記患者の画像情報を取得することと、
    人工知能エンジンを使用して、前記3次元モデルに関連する2次元特徴点の第1のセットを選択することと、
    前記人工知能エンジンを使用して、前記患者の前記画像情報に関連付けられた2次元特徴点の第2のセットを選択することと、
    前記2次元特徴点の第1のセットを3次元特徴点の第1のセットに変換することと、
    前記2次元特徴点の第2のセットを3次元特徴点の第2のセットに変換することと、
    前記3次元特徴点の第1のセットと前記3次元特徴点の第2のセットとを整列させる関係を決定するために、該3次元特徴点の第1のセットと該3次元特徴点の第2のセットとをマッチングすることと、
    前記関係に基づいて、前記3次元モデルに関連する第1の座標系から前記2次元光学装置のセットに関連する第2の座標系に座標を変換することと、
    前記第2の座標系の前記変換された座標に基づいて、ロボットアームに関連する第3の座標系において手術経路を決定することと
    を含み、
    前記2次元特徴点のそれぞれが、前記患者自身の顔面上の領域から抽出され、該領域が統計的に平坦である、
    非一時的なコンピュータ可読記憶媒体。
  2. 前記方法が、前記3次元モデルの2次元スナップショットを生成することと、該スナップショットの前記2次元特徴点の第1のセットを選択することとをさらに含む、
    請求項1に記載の非一時的なコンピュータ可読記憶媒体。
  3. 前記3次元モデルの前記2次元スナップショットを取得するために使用されるアルゴリズムに基づいて、前記2次元スナップショット上の前記2次元特徴点の前記第1のセットを、前記3次元モデルの前記3次元特徴点の前記第1のセットに変換するために逆の動作を実行することをさらに含む、
    請求項2に記載の非一時的なコンピュータ可読記憶媒体。
  4. 前記患者の前記画像情報が、該患者の2次元画像情報および該患者に関連する深度情報を含む、
    請求項1に記載の非一時的なコンピュータ可読記憶媒体。
  5. 前記2次元特徴点の第2のセットが、前記患者の前記2次元画像情報において選択される、
    請求項4に記載の非一時的なコンピュータ可読記憶媒体。
  6. 前記2次元特徴点の第2のセットを前記3次元特徴点の第2のセットに変換することが、前記深度情報に基づく、
    請求項5に記載の非一時的なコンピュータ可読記憶媒体。
  7. プロセッサと、
    前記プロセッサによる実行に応答して、該プロセッサに、
    患者の医用画像スキャンに基づいて3次元モデルを構築させ、
    2次元光学装置のセットを用いて前記患者の画像情報を取得させ、
    人工知能エンジンを使用して、前記3次元モデルに関連する2次元特徴点の第1のセットを選択させ、
    前記人工知能エンジンを使用して、前記患者の前記画像情報に関連付けられた2次元特徴点の第2のセットを選択させ、
    前記2次元特徴点の第1のセットを3次元特徴点の第1のセットに変換させ、
    前記2次元特徴点の第2のセットを3次元特徴点の第2のセットに変換させ、
    前記3次元特徴点の第1のセットと前記3次元特徴点の第2のセットとを整列させる関係を決定するために、該3次元特徴点の第1のセットと該3次元特徴点の第2のセットとをマッチングさせ、
    前記関係に基づいて、前記3次元モデルに関連する第1の座標系から前記2次元光学装置のセットに関連する第2の座標系に座標を変換させ、
    前記第2の座標系の前記変換された座標に基づいて、ロボットアームに関連する第3の座標系において手術経路を決定させる
    プログラムコードが記憶されている非一時的なコンピュータ可読媒体と
    を含み、
    前記2次元特徴点のそれぞれが、前記患者自身の顔面上の領域から抽出され、該領域が統計的に平坦である、
    患者の手術経路を決定するシステム。
  8. 前記プログラムコードは、前記プロセッサによって実行されると、該プロセッサに、前記3次元モデルの2次元スナップショットをさらに生成させ、該スナップショットの前記2次元特徴点の第1のセットを選択させる、
    請求項7に記載のシステム。
  9. 前記プログラムコードが、前記プロセッサによる実行に応答して、該プロセッサに、さらに、前記3次元モデルの前記2次元スナップショットを取得するために使用されるアルゴリズムに基づいて、前記2次元スナップショット上の前記2次元特徴点の前記第1のセットを、前記3次元モデルの前記3次元特徴点の前記第1のセットに変換するために逆の動作を実行させる、
    請求項8に記載のシステム。
  10. 前記患者の前記画像情報が、該患者の2次元画像情報および該患者に関連する深度情報を含む、
    請求項7に記載のシステム。
  11. 前記2次元特徴点の第2のセットが、前記患者の前記2次元画像情報において選択される、
    請求項10に記載のシステム。
  12. 前記2次元特徴点の第2のセットを前記3次元特徴点の第2のセットに変換することが、前記深度情報に基づく、
    請求項11に記載のシステム。
JP2021556512A 2019-03-19 2020-03-19 画像マッチングに基づいて手術経路を決定する方法およびシステム Active JP7397092B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962820804P 2019-03-19 2019-03-19
US62/820,804 2019-03-19
PCT/CN2020/080194 WO2020187289A1 (en) 2019-03-19 2020-03-19 Method and system of determining operation pathway based on image matching

Publications (2)

Publication Number Publication Date
JP2022525666A JP2022525666A (ja) 2022-05-18
JP7397092B2 true JP7397092B2 (ja) 2023-12-12

Family

ID=72518992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021556512A Active JP7397092B2 (ja) 2019-03-19 2020-03-19 画像マッチングに基づいて手術経路を決定する方法およびシステム

Country Status (8)

Country Link
US (1) US20220175454A1 (ja)
EP (1) EP3941379A4 (ja)
JP (1) JP7397092B2 (ja)
KR (1) KR102593794B1 (ja)
CN (1) CN113597288B (ja)
CA (1) CA3134069C (ja)
TW (1) TWI766253B (ja)
WO (1) WO2020187289A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015198893A (ja) 2014-04-04 2015-11-12 株式会社東芝 画像処理装置、治療システム及び画像処理方法
WO2018223925A1 (en) 2017-06-04 2018-12-13 Chen Chieh Hsiao Method and system of determining one or more points on operation pathway

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008526422A (ja) * 2005-01-13 2008-07-24 メイザー サージカル テクノロジーズ リミテッド 鍵穴脳神経外科用画像ガイドロボットシステム
CN101862220A (zh) * 2009-04-15 2010-10-20 中国医学科学院北京协和医院 基于结构光图像的椎弓根内固定导航手术系统和方法
KR101993384B1 (ko) * 2012-10-24 2019-06-26 삼성전자주식회사 환자의 자세 변화에 따른 의료 영상을 보정하는 방법, 장치 및 시스템
SG11201507610RA (en) * 2013-03-15 2015-10-29 Synaptive Medical Barbados Inc Planning, navigation and simulation systems and methods for minimally invasive therapy
WO2014194167A1 (en) * 2013-05-31 2014-12-04 University Of Washington Through Its Center For Commercialization Surgery pathway guidance and boundary system
CN105658167B (zh) * 2013-08-23 2018-05-04 斯瑞克欧洲控股I公司 用来对用于手术导航的坐标转换进行确定的计算机实现技术
CN104083217B (zh) * 2014-07-03 2016-08-17 北京天智航医疗科技股份有限公司 一种手术定位装置以及机器人手术系统
TWI605795B (zh) * 2014-08-19 2017-11-21 鈦隼生物科技股份有限公司 判定手術部位中探針位置之方法與系統
US9827053B2 (en) * 2015-06-05 2017-11-28 Chieh-Hsiao Chen Intraoperative tracking method
CN106296805B (zh) * 2016-06-06 2019-02-26 厦门铭微科技有限公司 一种基于实时反馈的增强现实人体定位导航方法及装置
CN107468350B (zh) * 2016-06-08 2020-12-08 北京天智航医疗科技股份有限公司 一种三维图像专用标定器、手术定位系统及定位方法
EP3375399B1 (en) * 2016-10-05 2022-05-25 NuVasive, Inc. Surgical navigation system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015198893A (ja) 2014-04-04 2015-11-12 株式会社東芝 画像処理装置、治療システム及び画像処理方法
WO2018223925A1 (en) 2017-06-04 2018-12-13 Chen Chieh Hsiao Method and system of determining one or more points on operation pathway

Also Published As

Publication number Publication date
CA3134069A1 (en) 2020-09-24
WO2020187289A1 (en) 2020-09-24
KR102593794B1 (ko) 2023-10-26
US20220175454A1 (en) 2022-06-09
TWI766253B (zh) 2022-06-01
CA3134069C (en) 2023-11-14
EP3941379A4 (en) 2023-01-11
TW202040586A (zh) 2020-11-01
CN113597288A (zh) 2021-11-02
JP2022525666A (ja) 2022-05-18
KR20220002877A (ko) 2022-01-07
EP3941379A1 (en) 2022-01-26
CN113597288B (zh) 2024-03-01

Similar Documents

Publication Publication Date Title
TWI595437B (zh) 術中追蹤方法
KR102493021B1 (ko) 수술 경로 상의 하나 또는 다수의 포인트를 판정하는 방법 및 시스템
EP3007635B1 (en) Computer-implemented technique for determining a coordinate transformation for surgical navigation
US10390892B2 (en) System and methods for updating patient registration during surface trace acquisition
CA2976573C (en) Methods for improving patient registration
US10188468B2 (en) Focused based depth map acquisition
US11666387B2 (en) System and methods for automatic muscle movement detection
JP7397092B2 (ja) 画像マッチングに基づいて手術経路を決定する方法およびシステム
JP7486603B2 (ja) 拡張現実画像上に医用スキャン画像情報を補う方法及びシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231130

R150 Certificate of patent or registration of utility model

Ref document number: 7397092

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150