JP2021532882A - 手術中の患者の位置を追跡する方法とシステム - Google Patents

手術中の患者の位置を追跡する方法とシステム Download PDF

Info

Publication number
JP2021532882A
JP2021532882A JP2021505301A JP2021505301A JP2021532882A JP 2021532882 A JP2021532882 A JP 2021532882A JP 2021505301 A JP2021505301 A JP 2021505301A JP 2021505301 A JP2021505301 A JP 2021505301A JP 2021532882 A JP2021532882 A JP 2021532882A
Authority
JP
Japan
Prior art keywords
point
image
point image
patient
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021505301A
Other languages
English (en)
Other versions
JP7457692B2 (ja
Inventor
シェシャオ チェン
カンジュ ワン
Original Assignee
ブレイン ナビ バイオテクノロジー カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ブレイン ナビ バイオテクノロジー カンパニー リミテッド filed Critical ブレイン ナビ バイオテクノロジー カンパニー リミテッド
Publication of JP2021532882A publication Critical patent/JP2021532882A/ja
Application granted granted Critical
Publication of JP7457692B2 publication Critical patent/JP7457692B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00694Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery

Abstract

本発明の実施形態は、患者の動きに応答してロボットアームアセンブリの手術経路を更新する方法を示す。この方法は、患者との空間的関係を有するタグに関連付けられた2次元画像を処理することを含む。患者の動きに応答するタグの対応する動きは、空間的関係に基づいて決定される。タグは第1の点と第2の点を含み、2次元画像は第1の点画像と第2の点画像を含む。この方法はまた、第1の点画像を第1の点に関連付け、第2の点画像を第2の点に関連付けることと、第1の点および第2の点、ならびに第1の点画像および第2の点画像の変換行列に基づいて手術経路を更新することとを含む。【選択図】図1

Description

関連出願の相互参照
本出願は、2018年8月1日に出願された米国仮出願第62/713,522号および2019年3月19日に出願された米国仮出願第62/820,804号の利益を主張し、これらは参照によりその全体が組み込まれる。
本発明の実施形態は、概して、手術中の患者の位置または向きを追跡する方法およびシステムに関する。
本明細書で特に明記しない限り、このセクションで説明するアプローチは、本出願の特許請求の範囲の先行技術ではなく、このセクションに含めることによって先行技術であるとは認められない。
手術を行うためには、手術経路の計画が重要である。ロボット手術によって前記手術経路を正確に制御できる。手術の前に、患者は医用スキャン(例えば、CTまたはMRI)を受ける。医用スキャンに基づいて、目的の解剖学的領域への手術経路が計画される。人工知能を使用して、損傷が最も少ない最適なルートを外科医に提示することができる。手術を行うために、前記患者の位置を医用スキャンの視点に合わせて、計画された手術経路に沿って正確に手術を行うことができる。
しかしながら、手術中、患者の位置は動かされる場合がある。したがって、計画された手術経路は、患者が動いた位置を考慮すると適用できない場合があり、患者が動いた位置に応じて更新される場合がある。
患者に対して手術を実行するように構成された手術システムを示す例示的な図である。 タグを示す例示的な図である。 光学装置によって取り込まれたタグの画像例である。 光学装置によって取り込まれたタグの例示的な処理画像である。 タグに関連付けられた2次元画像を処理するための例示的なプロセスを示す流れ図である。 点画像をタグの点に関連付ける例示的なプロセスを示す流れ図である。 全て本開示のいくつかの実施形態に従って配置された、複数の変換行列に基づいて患者の動きに応答して手術経路を更新するための例示的なプロセスを示す流れ図である。
以下の詳細な説明では、本明細書の一部を形成する添付図面を参照する。図面では、文脈からそうでないことが示されていない限り、同様の記号は通常、同様の成分を示す。詳細な説明、図面、および特許請求の範囲に記載されている例示的な実施形態は、限定することを意図していない。本明細書に提示される主題の精神または範囲から逸脱することなく、他の実施形態を利用することができ、他の変更を加えることができる。本開示の態様は、本明細書に一般的に記載され、図に例示されるように、多種多様な異なる構成で配置、置換、組み合わせ、および設計することができ、その全てが本明細書で明示的に企図されることは容易に理解されよう。
図1は、本開示のいくつかの実施形態に従って配置された、患者101に対して手術を実行するように構成された手術システム100を示す例示的な図である。いくつかの実施形態では、手術システム100は、フレーム120、手術台130、およびロボットアームアセンブリ140を含む。
いくつかの実施形態では、フレーム120は、患者110の手術目標(例えば、患者の頭部103)を支持し、それに取り付くように構成される。さらに、フレーム120はまた、手術台130に取り付くように構成される。いくつかの実施形態では、フレーム120は、タグ121をさらに含む。タグ121は固定されているか、フレーム120と一体に形成されている。したがって、患者の頭部103、手術台130、フレーム120、およびタグ121は一緒になって、所定の空間的関係を形成し得る。言い換えれば、患者の頭部103の第1の動きに応答して、タグ121も、所定の空間的関係に基づいて、対応する第2の動きを有する。したがって、タグ121の動きはまた、患者の頭部が動いたかどうかを決定するために使用され得る。
いくつかの実施形態では、フレーム121は、2つ以上のタグを含んでもよい。各タグは、相互に固有の識別パターンを含み得る。したがって、手術システム100は、これらのタグに基づいて異なる要件を処理し得る。
いくつかの実施形態では、ロボットアームアセンブリ140は、外科用器具141、光学装置143、第1のアーム147、第2のアーム148、および第3のアーム149を含み得る。いくつかの実施形態では、光学装置143は、異なる時間にタグ121の画像を取り込むことができるIRカメラである。これらの取り込まれた画像は、タグ121の動きが閾値を超えているかどうかを識別するために処理される。閾値を超えるタグ121の動きを決定することに応答して、ロボットアームアセンブリ140に関連付けられたプロセッサ(図示せず)は、上記の所定の空間的関係に基づいて患者110が動いたと決定し、手術を停止して患者110に害を及ぼさない安全点に移動するようにロボットアームアセンブリ140にコマンドを発行してもよい。患者110が動いたという決定に応答して、プロセッサは、新しい手術経路を計算し、新しい手術経路に沿って安全点から移動するようにロボットアームアセンブリ140にコマンドを発行してもよい。
図2は、本開示のいくつかの実施形態に従って配置されたタグ200を示す例示的な図である。タグ200は、図1のタグ121に対応し得る。いくつかの実施形態では、タグ200は、点201、点202、点203、点204、点205、および識別パターン209を含む。点201、202、203、204、205および識別パターン209は、光学装置(例えば、光学装置143)によって取り込むことができる特定の波長を有する光を放出してもよい。その反対に、タグ200の他の部分は、そのような光をほとんど放出せず、したがって、光学装置によってかろうじて取り込まれ得る。いくつかの他の実施形態では、点201、202、203、204、205および識別パターン209は、光学装置(例えば、光学装置143)によって取り込むことができる特定の波長を有する光源によって生成された光を反射してもよい。タグ200の他の部分は、そのような光を吸収してもよく、したがって、光学装置によってかろうじて取り込まれ得る。
図3Aは、本開示のいくつかの実施形態に従って配置された、光学装置によって取り込まれたタグの画像例300である。画像300は、点画像301、302、303、304、および305、点画像304と305との間のバー画像306、ならびに識別画像309を含み得る。点画像301、302、303、304、および305を点201、202、203、204、および205に効率的かつ正確に関連付けることは課題であった。
いくつかの実施形態では、点画像301は、点201の画像に対応し得る。同様に、点画像302は点202の画像に対応し、点画像303は点203の画像に対応し、点画像304は点204の画像に対応し、点画像305は点205の画像に対応し得る。バー画像306は、点204と点205との間のタグ200の部分に対応し得る。識別画像309は、識別パターン209に対応し得る。
図3Bは、光学装置によって取り込まれたタグの例示的な処理画像300’であり、図4は、全て本開示のいくつかの実施形態に従って配置された、タグに関連付けられた2次元画像を処理するための例示的なプロセス400を示す流れ図である。プロセス400は、ブロック410、420および/または430によって示されるように、ハードウェア、ソフトウェアおよび/またはファームウェアによって実行され得る1つまたは複数の動作、機能、またはアクションを含み得る。様々なブロックは、説明する実施形態に限定されることを意図していない。概説された工程および動作は例としてのみ提供され、工程および動作の一部はオプションであり、組み合わせてより少ない工程および動作にしてもよいし、開示される実施形態の本質を損なうことなく追加の工程および動作に拡張してもよい。ブロックは連続した順序で例示されているが、これらのブロックは、並行して、および/または本明細書で説明する順序とは異なる順序で実行されてもよい。図3Bに関連して、図4はさらに以下で詳細に説明される。
プロセス400は、ブロック410「座標を割り当てる」から開始され得る。図3Aを参照すると、いくつかの実施形態では、画像300は、タグ200に関連付けられた2次元画像である。図3Bでは、画像300’は、処理された画像300であり得る。いくつかの実施形態では、2次元座標系が画像300’に割り当てられる。いくつかの実施形態では、左上隅307は、2次元座標系の原点(0、0)として割り当てられる。2次元座標系は、画像300のピクセルに基づいてもよい。したがって、画像300上の点画像301、302、303、304、および305は、2次元座標系によって記述され得る。
ブロック410の後には、ブロック420「点画像に関連付けられた座標を識別する」が続き得る。いくつかの実施形態では、画像300’から点画像301、302、303、304、および305を効率的に識別するために、閾値化技術が適用され得る。例えば、画像300’は最初に、多くのピクセルを含むブロックで処理される。いくつかの実施形態では、強度が閾値よりも大きいピクセルを含まないブロック(例えば、領域310またはバー画像306)は、計算リソースを節約するために、さらなる処理から破棄される。次に、強度が閾値よりも大きいピクセルを含むブロック(例えば、領域320)は、ピクセルベースでさらに処理される。
いくつかの実施形態では、領域320は、拡大係数で拡大され得る。したがって、点画像301、302、303、304、および305も拡大係数で拡大され得る。いくつかの実施形態では、拡大された点画像のピクセルに追加の閾値化技術を適用して、強度がより大きい1つまたは複数のピクセルを識別してもよい。識別されたピクセルに関連付けられた画像は、縮小係数(例えば、拡大係数の逆数)に基づいて2次元系に縮小されてもよい。したがって、より高い強度を有する新しい点画像301’、302’、303’、304’、および305’が画像300上で識別され得、2次元座標系の座標が点画像301’、302’、303’、304’、および305’に割り当てられ得る。いくつかの実施形態では、点画像301’には2次元座標系の座標(X301’、Y301’)が割り当てられる。同様に、点画像302’には座標(X302’、Y302’)が割り当てられ、点画像303’には座標(X303’、Y303’)が割り当てられ、点画像304’には座標(X304’、Y304’)が割り当てられ、点画像305’には座標(X305’、Y305’)がそれぞれ割り当てられる。
ブロック420の後には、ブロック430「点画像をタグの点に関連付ける」が続き得る。いくつかの実施形態では、点画像301’、302’、303’、304’、および305’は、点201、202、203、204、および205に関連付けられる。いくつかの実施形態では、perspective‐n‐pointアプローチに基づいて、2次元座標系の点画像301’、302’、303’、304’、および305’の座標、光学装置143とロボットアームアセンブリ140と外科用器具141との間の空間的関係を記述する3次元座標系のタグ121の点201、202、203、204、および205の座標、ならびに画像300’内の点画像とそれに関連付けられたタグ200の点との関係を記述する変換行列が設定され得る。
図5は、本開示のいくつかの実施形態に従って配置された、点画像をタグの点に関連付けるための例示的なプロセス500を示す流れ図である。プロセス500は、ブロック510、520、530、540、550および/または560によって示されるように、ハードウェア、ソフトウェアおよび/またはファームウェアによって実行され得る1つまたは複数の動作、機能、またはアクションを含み得る。様々なブロックは、説明する実施形態に限定されることを意図していない。概説された工程および動作は例としてのみ提供され、工程および動作の一部はオプションであり、組み合わせてより少ない工程および動作にしてもよいし、開示される実施形態の本質を損なうことなく追加の工程および動作に拡張してもよい。ブロックは連続した順序で例示されているが、これらのブロックは、並行して、および/または本明細書で説明する順序とは異なる順序で実行されてもよい。
プロセス500は、ブロック510「点画像の幾何学的中心を得る」から開始され得る。いくつかの実施形態では、上記のように、2次元座標系において点画像301’、302’、303’、304’、および305’は、座標(X301’、Y301’)、(X302’、Y302’)、(X303’、Y303’)、(X304’、Y304’)、(X305’、Y305’)をそれぞれ有する。点画像301’、302’、303’、304’、および305’の幾何学的中心は、座標((X301’+X302’+X303’+X304’+X305’)/5、(Y301’+Y302’+Y303’+Y304’+Y305’)/5)を有し得る。
ブロック510の後には、ブロック520「幾何学的中心からの点画像の距離を得る」が続き得る。いくつかの実施形態では、点画像301’と幾何学的中心との間の第1の距離は、
Figure 2021532882
として得られる。
同様に、点画像302’と幾何学的中心との間の第2の距離、点画像303’と幾何学的中心との間の第3の距離、点画像304’と幾何学的中心との間の第4の距離、および点画像305’と幾何学的中心との間の第5の距離を得ることができる。
ブロック520の後には、ブロック530「幾何学的中心から点画像へのベクトルを得る」が続き得る。いくつかの実施形態では、幾何学的中心から点画像301’への第1のベクトル
Figure 2021532882
は、(X301’‐(X301’+X302’+X303’+X304’+X305’)/5、Y301’‐(Y301’+Y302’+Y303’+Y304’+Y305’)/5)として得られる。同様に、幾何学的中心から点画像302’への第2のベクトル
Figure 2021532882
、幾何学的中心から点画像303’への第3のベクトル
Figure 2021532882
、幾何学的中心から点画像304’への第4のベクトル
Figure 2021532882
、および幾何学的中心から点画像305’への第5のベクトル
Figure 2021532882
も得ることができる。
ブロック530の後には、ブロック540「基点画像を選択する」が続き得る。いくつかの実施形態では、ブロック520で得られた第1の距離、第2の距離、第3の距離、第4の距離、および第5の距離を比較して、どの点画像が基点画像であるかを選択する。いくつかの実施形態では、2次元座標系において幾何学的中心から最も遠い距離を有する点画像が基点として選択されてもよい。あるいは、2次元座標系において幾何学的中心から最も近い距離を有する点画像が基点として選択されてもよい。いくつかの他の実施形態では、基点は、識別画像309と、2次元座標系における点画像301’、302’、303’、304’、および305’との関係に基づいて選択されてもよい。説明のみを目的として、いくつかの実施形態では、点画像301’が基点画像として選択される。
ブロック540の後には、ブロック550「ベクトルに基づいて点画像にインデックスを付ける」が続き得る。いくつかの実施形態では、第1のベクトル(例えば、
Figure 2021532882
)と第2のベクトル(例えば、
Figure 2021532882
)の外積を使用して、点画像302’が点画像301’から時計回りの方向に沿っているかどうかが決定され得る。いくつかの実施形態では、第1のベクトルと第2のベクトルの外積が2次元座標系に関して正のz方向を指すベクトルであることに応答して、点画像302’は、点画像301’から時計回りの方向に沿って決定される。いくつかの他の実施形態では、第1のベクトル(例えば、
Figure 2021532882
と第2のベクトル(例えば、
Figure 2021532882
)の内積を使用して、第1のベクトルと第2のベクトルとの間の角度が決定され得る。したがって、外積および内積に基づいて、点画像302’は、点画像301’から時計回りの方向に沿った第1の角度で決定され得る。同様に、点画像303’、304’、および305’は、点画像301’から時計回りの方向に沿って第2の角度、第3の角度、および第4の角度でそれぞれ決定され得る。いくつかの実施形態では、第1の角度、第2の角度、第3の角度、および第4の角度の比較に基づいて、時計回りの方向に沿った一連の点画像301’、302’、303’、304’および305’が決定され得る。例えば、第1の角度が第2の角度よりも小さいことに応答して、点画像302’は、点303’に比べて、時計回りの方向に沿って点画像301’に近いと決定される。シーケンスが決定された後、点画像301’、302’、303’、304’、および305’にはシーケンスに従ってインデックスが付けられ得る。
ブロック550の後には、ブロック560「点画像と対応するタグの点の変換行列を得る」が続き得る。いくつかの実施形態では、ブロック550およびperspective‐n‐pointアプローチで得られたインデックスに基づいて、3次元座標系におけるタグ200の点の座標(例えば、201、202、203、204および205)とそれらの対応する点画像(例えば、301’、302’、303’、304’および305’)との間の数学的関係を記述する変換行列が設定され得る。図1に戻って参照すると、いくつかの実施形態では、3次元座標系は、光学装置143と、ロボットアームアセンブリ140と、外科用器具141との間の空間的関係を記述し得る。
図6は、本開示のいくつかの実施形態に従って配置された、複数の変換行列に基づいて患者の動きに応答して手術経路を更新するための例示的なプロセス600を示す流れ図である。プロセス600は、ブロック610、620、630、640および/または650によって示されるように、ハードウェア、ソフトウェアおよび/またはファームウェアによって実行され得る1つまたは複数の動作、機能、またはアクションを含み得る。様々なブロックは、説明する実施形態に限定されることを意図していない。概説された工程および動作は例としてのみ提供され、工程および動作の一部はオプションであり、組み合わせてより少ない工程および動作にしてもよいし、開示される実施形態の本質を損なうことなく追加の工程および動作に拡張してもよい。ブロックは連続した順序で例示されているが、これらのブロックは、並行して、および/または本明細書で説明する順序とは異なる順序で実行されてもよい。
プロセス600は、ブロック610「変換行列に基づいて投影点を得る」から開始され得る。いくつかの実施形態では、変換行列を得た後、変換行列による点201の第1の投影点を得ることができる。いくつかの実施形態では、投影点は、2次元座標系で座標(X301’’、Y301’’)を有する。同様に、点202の第2の投影点、点203の第3の投影点、点204の第4の投影点、および点205の第5の投影点も得ることができ、2次元座標系で座標(X302’’、Y302’’)(X303’’、Y303’’)、(X304’’、Y304’’)、および(X305’’、Y305’’)をそれぞれ有し得る。
ブロック610の後には、ブロック620「投影点と対応する点画像との間の距離を得る」が続き得る。いくつかの実施形態では、座標(X301’’、Y301’’)を有する第1の投影点と、座標(X301’、Y301’)を有する点画像301’との間の第1の距離が計算される。同様に、座標(X302’’、Y302’’)を有する第2の投影点と座標(X302’、Y302’)を有する点画像302’との間の第2の距離、座標(X303’’、Y303’’)を有する第2の投影点と座標(X303’、Y303’)を有する点画像303’との間の第3の距離、座標(X304’’、Y304’’)を有する第4の投影点と座標(X304’、Y304’)を有する点画像304’との間の第4の距離、および座標(X305’’、Y305’’)を有する第5の投影点と座標(X305’、Y305’)を有する点画像305’との間の第5の距離もそれぞれ得ることができる。
ブロック620の後には、ブロック630「距離は閾値よりも大きいか?」が続き得る。いくつかの実施形態では、第1の距離、第2の距離、第3の距離、第4の距離、および第5の距離の合計が閾値よりも大きいことに応答して、ブロック630の後にブロック640「患者が動かされたことを決定する」が続き得る。
いくつかの他の実施形態では、第1の距離、第2の距離、第3の距離、第4の距離、および第5の距離の合計が閾値以下であることに応答して、ブロック630の後にブロック610「変換行列に基づいて投影点を得る」が続き得る。2回目に取り込まれた画像300/300’に関連付けられた別の変換行列を得た後、別の変換行列に従って、点201、202、203、204、および205の2次元座標系の座標を有する別の投影点のセットを得ることができる。
ブロック640の後には、ブロック650「手術経路を更新する」が続き得る。いくつかの実施形態では、図1に戻って参照すると、ロボットアームアセンブリ140は、患者110に害を及ぼさない安全点に移動し得る。患者110の動きに応答して新しい手術経路が更新され得、次にロボットアームアセンブリ140は、更新された手術経路に沿って安全点から移動するように構成される。
いくつかの他の実施形態では、更新された手術経路は、更新された手術経路が外科用器具141とロボットアームアセンブリ140との間の衝突を引き起こさないように検証されてもよい。あるいは、図1に戻って参照すると、更新された手術経路は、更新された手術経路がロボットアームアセンブリ140の第1のアーム147、第2のアーム148、および第3のアーム149の間で衝突を引き起こさないように検証されてもよい。
更新された手術経路がロボットアームアセンブリ140の衝突を引き起こすことが検証されたことに応答して、更新された手術経路は破棄され、新しい更新された手術経路が計算される。
前述の詳細な説明では、ブロック図、フローチャート、および/または例を使用して、デバイスおよび/またはプロセスの様々な実施形態を説明した。そのようなブロック図、フローチャート、および/または例が1つまたは複数の機能および/または動作を含む限り、そのようなブロック図、フローチャート、または例内の各機能および/または動作は個別および/または集合的に、広範囲のハードウェア、ソフトウェア、ファームウェア、またはそれらの実質的にあらゆる組み合わせによって実装できることが当業者には理解されよう。いくつかの実施形態において、本明細書に記載の主題のいくつかの部分は、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、デジタルシグナルプロセッサ(DSP)、または他の統合フォーマットを介して実装され得る。しかし、当業者は、本明細書に開示される実施形態のいくつかの態様は、全体または一部において、1つまたは複数のコンピュータで実行される1つまたは複数のコンピュータプログラムとして(例えば、1つまたは複数のコンピュータシステムで実行される1つまたは複数のプログラムとして)、1つまたは複数のプロセッサで実行される1つまたは複数のプログラムとして(例えば、1つまたは複数のマイクロプロセッサで実行される1つまたは複数のプログラムとして)、ファームウェアとして、またはそれらの実質的にあらゆる組み合わせとして、集積回路において同等に実装でき、回路の設計および/またはソフトウェアおよび/またはファームウェアのコードの記述は、本開示に照らして当業者の技術の範囲内に十分にあるであろうことを認識するであろう。さらに、当業者は、本明細書に記載の主題のメカニズムが様々な形態のプログラム製品として配信可能であり、本明細書に記載の主題の例示的な実施形態が、実際に配信を実行するために使用される信号伝達媒体の特定の種類にかかわらず適用されることを理解するであろう。信号伝達媒体の例には、フロッピーディスク、ハードディスクドライブ、コンパクトディスク(CD)、デジタル多用途ディスク(DVD)、デジタルテープ、コンピュータメモリなどの記録可能なタイプの媒体、ならびにデジタルおよび/またはアナログ通信媒体(例えば、光ファイバケーブル、導波路、有線通信リンク、無線通信リンクなど)などの伝送タイプの媒体が含まれるがこれらに限定されない。
上記から、本開示の様々な実施形態が例示の目的で本明細書に記載されており、本開示の範囲および精神から逸脱することなく様々な改変がなされ得ることが理解されよう。したがって、本明細書で開示された様々な実施形態は、限定することを意図するものではない。

Claims (19)

  1. 患者の動きに応答するタグを含むフレームとの所定の空間的関係を有する前記患者に対して手術を実行するためにロボットアームアセンブリの手術経路を更新する方法であって、
    前記患者との前記空間的関係を有する前記タグに関連付けられた2次元画像を処理することであって、前記患者の動きに応答する前記タグの対応する動きは前記空間的関係に基づいて決定され、前記タグが第1の点と第2の点を含み、前記2次元画像が第1の点画像と第2の点画像を含む、処理することと、
    前記第1の点画像を前記第1の点に関連付け、前記第2の点画像を前記第2の点に関連付けることと、
    前記第1の点および前記第2の点ならびに前記第1の点画像および前記第2の点画像の変換行列に基づいて、前記手術経路を更新することと
    を含む方法。
  2. 前記2次元画像を処理することは、拡大係数および縮小係数に基づいて、強度が第1の閾値よりも大きい前記第1の点画像および前記第2の点画像を識別することをさらに含む、
    請求項1に記載の方法。
  3. 前記2次元画像を処理することは、2次元座標系を前記2次元画像に割り当てることと、前記2次元座標系において前記第1の点画像および前記第2の点画像に関連付けられた座標を識別することとをさらに含む、
    請求項1に記載の方法。
  4. 前記第1の点画像を前記第1の点に関連付けることが、
    前記2次元座標系において前記第1の点画像および前記第2の点画像に関連付けられた幾何学的中心を得ることと、
    前記第1の点画像と前記幾何学的中心との間の第1の距離、および前記第2の点画像と前記幾何学的中心との間の第2の距離を得ることと、
    前記第1の距離および前記第2の距離に基づいて、前記第1の点画像を基点画像として選択することと
    をさらに含む、
    請求項1に記載の方法。
  5. 前記第2の点画像を前記第2の点に関連付けることが、
    前記2次元座標系において前記幾何学的中心から前記第1の点画像への第1のベクトルを得ることと、
    前記2次元座標系において前記幾何学的中心から前記第2の点画像への第2のベクトルを得ることと、
    前記第1のベクトルと前記第2のベクトルの外積、および前記第1のベクトルと前記第2のベクトルの内積に基づいて、前記第2の点画像を前記第2の点に関連付けることと
    をさらに含む、
    請求項1に記載の方法。
  6. 前記手術経路を更新することが、
    前記変換行列に基づいて、前記2次元座標系において、前記第1の点に関連付けられた第1の投影点と、前記第2の点に関連付けられた第2の投影点とを得ることと、
    前記2次元座標系において前記第1の投影点と前記第1の点画像との間の第3の距離を得ることと、
    前記2次元座標系において前記第2の投影点と前記第2の点画像との間の第4の距離を得ることと
    をさらに含む、
    請求項1に記載の方法。
  7. 前記第3の距離と前記第4の距離との合計が第2の閾値よりも大きいことに応答して、前記患者の動きを識別し、前記手術経路を更新することをさらに含む、
    請求項6に記載の方法。
  8. 前記患者の動きを識別することに応答して、前記ロボットアームアセンブリを安全点に移動させることと、
    前記更新された手術経路に基づいて、前記ロボットアームアセンブリを前記安全点から前記患者の手術目標に移動させることと
    をさらに含む、
    請求項7に記載の方法。
  9. 前記ロボットアームアセンブリに関連付けられる衝突を識別するために、前記更新された手術経路を検証することをさらに含む、
    請求項1に記載の方法。
  10. 患者の動きに応答するタグを含むフレームとの所定の空間的関係を有する前記患者に対して手術を実行するためにロボットアームアセンブリの手術経路を更新するためのシステムであって、
    光学装置と、
    プロセッサであって、
    前記患者との前記空間的関係を有する前記タグに関連付けられた2次元画像を処理し、前記患者の動きに応答する前記タグの対応する動きは、前記空間的関係に基づいて決定され、前記タグは第1の点と第2の点を含み、前記2次元画像は第1の点画像と第2の点画像を含み、
    前記第1の点画像を前記第1の点に関連付け、前記第2の点画像を前記第2の点に関連付け、
    前記第1の点および前記第2の点ならびに前記第1の点画像および前記第2の点画像の変換行列に基づいて、前記手術経路を更新する
    ように構成されたプロセッサと
    を備える、システム。
  11. 前記プロセッサは、拡大係数および縮小係数に基づいて、強度が第1の閾値よりも大きい前記第1の点画像および前記第2の点画像を識別するようにさらに構成されている、
    請求項10に記載のシステム。
  12. 前記プロセッサは、2次元座標系を前記2次元画像に割り当て、前記2次元座標系において前記第1の点画像および前記第2の点画像に関連付けられた座標を識別するようにさらに構成されている、
    請求項10に記載のシステム。
  13. 前記プロセッサが、
    前記2次元座標系において前記第1の点画像および前記第2の点画像に関連付けられた幾何学的中心を得、
    前記第1の点画像と前記幾何学的中心との間の第1の距離、および前記第2の点画像と前記幾何学的中心との間の第2の距離を得、
    前記第1の距離および前記第2の距離に基づいて、前記第1の点画像を基点画像として選択する
    ようにさらに構成されている、
    請求項10に記載のシステム。
  14. 前記プロセッサが、
    前記2次元座標系における前記幾何学的中心から前記第1の点画像への第1のベクトルを得、
    前記2次元座標系における前記幾何学的中心から前記第2の点画像への第2のベクトルを得、
    前記第1のベクトルと前記第2のベクトルの外積、および前記第1のベクトルと前記第2のベクトルの内積に基づいて、前記第2の点画像を前記第2の点に関連付ける
    ようにさらに構成されている、
    請求項10に記載のシステム。
  15. 前記プロセッサが、
    前記変換行列に基づいて、前記2次元座標系において、前記第1の点に関連付けられた第1の投影点と、前記第2の点に関連付けられた第2の投影点とを得、
    前記2次元座標系において前記第1の投影点と前記第1の点画像との間の第3の距離を得、
    前記2次元座標系において前記第2の投影点と前記第2の点画像との間の第4の距離を得る
    ようにさらに構成されている、
    請求項10に記載のシステム。
  16. 前記プロセッサが、前記患者の動きを識別し、前記第3の距離と前記第4の距離との合計が第2の閾値よりも大きいことに応答して、前記手術経路を更新するようにさらに構成されている、
    請求項15に記載のシステム。
  17. 前記プロセッサが、前記更新された手術経路に基づいて、前記患者の動きを識別することに応答して前記ロボットアームアセンブリを安全点に移動させる第1のコマンドと、前記ロボットアームアセンブリを前記安全点から前記患者の手術目標に移動させる第2のコマンドとを発行するようにさらに構成されている、
    請求項16に記載のシステム。
  18. 前記プロセッサが、前記ロボットアームアセンブリに関連付けられる衝突を識別するために、前記更新された手術経路を検証するようにさらに構成されている、
    請求項1に記載のシステム。
  19. プロセッサによる実行に応答して、患者の動きに応答するタグを含むフレームとの所定の空間的関係を有する前記患者に対して手術を実行するためにロボットアームアセンブリの手術経路を更新する方法を前記プロセッサに実行させる実行可能命令のセットを含む非一時的なコンピュータ可読記憶媒体であって、前記方法が、
    前記患者との前記空間的関係を有する前記タグに関連付けられた2次元画像を処理することであって、前記患者の動きに応答する前記タグの対応する動きは前記空間的関係に基づいて決定され、前記タグが第1の点と第2の点を含み、前記2次元画像が第1の点画像と第2の点画像を含む、処理することと、
    前記第1の点画像を前記第1の点に関連付け、前記第2の点画像を前記第2の点に関連付けることと、
    前記第1の点および前記第2の点ならびに前記第1の点画像および前記第2の点画像の変換行列に基づいて、前記手術経路を更新することと
    を含む、
    非一時的なコンピュータ可読記憶媒体。
JP2021505301A 2018-08-01 2019-07-31 手術を実行するためにロボットアームアセンブリの手術経路を更新するためのシステムの作動方法及びそのシステム、並びに記憶媒体 Active JP7457692B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862713522P 2018-08-01 2018-08-01
US62/713,522 2018-08-01
US201962820804P 2019-03-19 2019-03-19
US62/820,804 2019-03-19
PCT/CN2019/098706 WO2020025001A1 (en) 2018-08-01 2019-07-31 Method and system of tracking patient position in operation

Publications (2)

Publication Number Publication Date
JP2021532882A true JP2021532882A (ja) 2021-12-02
JP7457692B2 JP7457692B2 (ja) 2024-03-28

Family

ID=69231442

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021505301A Active JP7457692B2 (ja) 2018-08-01 2019-07-31 手術を実行するためにロボットアームアセンブリの手術経路を更新するためのシステムの作動方法及びそのシステム、並びに記憶媒体

Country Status (8)

Country Link
US (1) US20210307832A1 (ja)
EP (1) EP3829476A4 (ja)
JP (1) JP7457692B2 (ja)
KR (1) KR102488901B1 (ja)
CN (1) CN112770686A (ja)
CA (1) CA3107892C (ja)
TW (1) TWI733151B (ja)
WO (1) WO2020025001A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117243699B (zh) * 2023-11-14 2024-03-15 杭州三坛医疗科技有限公司 一种移位检测方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005537583A (ja) * 2002-09-03 2005-12-08 バリアン・メディカル・システムズ・テクノロジーズ・インコーポレイテッド 物体の単一カメラ追跡方法及び装置
JP2014511111A (ja) * 2010-11-10 2014-05-08 パーフィント ヘルスケア プライベート リミテッド 画像誘導式介入手技(interventionalprocedure)をプラニングするためのシステム及び方法
CN104083217A (zh) * 2014-07-03 2014-10-08 北京天智航医疗科技股份有限公司 一种手术定位装置和方法以及机器人手术系统
JP2018509949A (ja) * 2015-01-22 2018-04-12 グローバス メディカル インコーポレイティッド 動的基準点アレイ及び使用方法
US20180161113A1 (en) * 2015-06-04 2018-06-14 Curexo, Inc. Surgical path setting device, surgical robot system comprising same and surgical path setting method for surgical robot

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9867669B2 (en) * 2008-12-31 2018-01-16 Intuitive Surgical Operations, Inc. Configuration marker design and detection for instrument tracking
CN101467887B (zh) * 2007-12-29 2011-04-27 复旦大学 一种手术导航系统中x射线透视图像标定方法
CN101697869B (zh) * 2009-10-19 2011-06-15 沈国芳 手术导航用固定支架
FR2983059B1 (fr) * 2011-11-30 2014-11-28 Medtech Procede assiste par robotique de positionnement d'instrument chirurgical par rapport au corps d'un patient et dispositif de mise en oeuvre.
CN102551892A (zh) * 2012-01-17 2012-07-11 王旭东 一种用于颅颌面外科手术的定位方法
EP2854687B1 (en) * 2012-06-01 2022-08-24 Intuitive Surgical Operations, Inc. Systems for avoiding collisions between manipulator arms using a null-space
WO2013192598A1 (en) * 2012-06-21 2013-12-27 Excelsius Surgical, L.L.C. Surgical robot platform
US20190000569A1 (en) * 2012-06-21 2019-01-03 Globus Medical, Inc. Controlling a surgical robot to avoid robotic arm collision
KR101993384B1 (ko) * 2012-10-24 2019-06-26 삼성전자주식회사 환자의 자세 변화에 따른 의료 영상을 보정하는 방법, 장치 및 시스템
KR101446173B1 (ko) * 2013-02-21 2014-10-01 주식회사 고영테크놀러지 트랙킹 시스템 및 이를 이용한 트랙킹 방법
US9668768B2 (en) * 2013-03-15 2017-06-06 Synaptive Medical (Barbados) Inc. Intelligent positioning system and methods therefore
US11278353B2 (en) * 2016-03-16 2022-03-22 Synaptive Medical Inc. Trajectory alignment system and methods
US9993222B2 (en) * 2014-02-05 2018-06-12 Intuitive Surgical Operations, Inc. System and method for dynamic virtual collision objects
US9950194B2 (en) * 2014-09-09 2018-04-24 Mevion Medical Systems, Inc. Patient positioning system
WO2016058076A1 (en) * 2014-10-14 2016-04-21 Synaptive Medical (Barbados) Inc. Patient reference tool
US10413377B2 (en) * 2015-03-19 2019-09-17 Medtronic Navigation, Inc. Flexible skin based patient tracker for optical navigation
WO2016154756A1 (en) * 2015-03-31 2016-10-06 7D Surgical Inc. Systems, methods and devices for tracking and calibration of flexible implements
EP3145420B8 (en) * 2015-06-05 2020-12-30 Brain Navi Biotechnology Co., Ltd. Intraoperative tracking method
US10646289B2 (en) * 2015-12-29 2020-05-12 Koninklijke Philips N.V. System, controller and method using virtual reality device for robotic surgery
CN107468351A (zh) * 2016-06-08 2017-12-15 北京天智航医疗科技股份有限公司 一种手术定位装置、定位系统及定位方法
CN107468350B (zh) * 2016-06-08 2020-12-08 北京天智航医疗科技股份有限公司 一种三维图像专用标定器、手术定位系统及定位方法
KR101861176B1 (ko) * 2016-08-16 2018-05-28 주식회사 고영테크놀러지 정위수술용 수술로봇 및 정위수술용 수술로봇의 제어방법
CN106236258B (zh) * 2016-08-17 2019-03-12 北京柏惠维康科技有限公司 腹腔微创手术穿刺路径的规划方法及装置
CN109952070B (zh) 2016-10-05 2022-02-01 纽文思公司 手术导航系统及相关方法
FR3057757B1 (fr) * 2016-10-21 2021-04-16 Medtech Dispositif et procede de recalage automatique pour des images intra operatoires 3d
US11751948B2 (en) * 2016-10-25 2023-09-12 Mobius Imaging, Llc Methods and systems for robot-assisted surgery
CN106890025B (zh) * 2017-03-03 2020-02-28 浙江大学 一种微创手术导航系统和导航方法
GB2577718B (en) * 2018-10-03 2022-08-24 Cmr Surgical Ltd Feature identification

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005537583A (ja) * 2002-09-03 2005-12-08 バリアン・メディカル・システムズ・テクノロジーズ・インコーポレイテッド 物体の単一カメラ追跡方法及び装置
JP2014511111A (ja) * 2010-11-10 2014-05-08 パーフィント ヘルスケア プライベート リミテッド 画像誘導式介入手技(interventionalprocedure)をプラニングするためのシステム及び方法
CN104083217A (zh) * 2014-07-03 2014-10-08 北京天智航医疗科技股份有限公司 一种手术定位装置和方法以及机器人手术系统
JP2018509949A (ja) * 2015-01-22 2018-04-12 グローバス メディカル インコーポレイティッド 動的基準点アレイ及び使用方法
US20180161113A1 (en) * 2015-06-04 2018-06-14 Curexo, Inc. Surgical path setting device, surgical robot system comprising same and surgical path setting method for surgical robot

Also Published As

Publication number Publication date
CA3107892C (en) 2023-09-05
CA3107892A1 (en) 2020-02-06
KR102488901B1 (ko) 2023-01-17
TWI733151B (zh) 2021-07-11
CN112770686A (zh) 2021-05-07
US20210307832A1 (en) 2021-10-07
JP7457692B2 (ja) 2024-03-28
WO2020025001A1 (en) 2020-02-06
KR20210057724A (ko) 2021-05-21
EP3829476A1 (en) 2021-06-09
EP3829476A4 (en) 2022-04-20
TW202023488A (zh) 2020-07-01

Similar Documents

Publication Publication Date Title
US7561733B2 (en) Patient registration with video image assistance
CA2854829C (en) Method of real-time tracking of moving/flexible surfaces
JP6240320B2 (ja) 4つのledのパターンによるポーズの決定
CN109773776B (zh) 把持方法、把持系统以及存储介质
JP2017123147A (ja) ロボットを案内するための特徴位置の特定
US11822340B2 (en) Method and system for obstacle avoidance in robot path planning using depth sensors
JP2021007739A (ja) 医用イメージングシステムにおいて対象3dポイントクラウドを生成するための方法及びシステム
KR20200016833A (ko) 수술 경로 상의 하나 또는 다수의 포인트를 판정하는 방법 및 시스템
JP7457692B2 (ja) 手術を実行するためにロボットアームアセンブリの手術経路を更新するためのシステムの作動方法及びそのシステム、並びに記憶媒体
JP2016515837A (ja) トラッキングシステム及びこれを用いたトラッキング方法
KR20170073963A (ko) 그룹-기반 다중 객체 추적 장치 및 방법
US20220392084A1 (en) Scene perception systems and methods
KR20210023431A (ko) 복수의 카메라를 이용한 위치추적 시스템 및 이를 이용한 위치추적 방법
JP7269538B2 (ja) 肝臓手術のための位置合わせシステム
KR102593794B1 (ko) 이미지 매칭에 기초하여 수술 경로를 결정하는 방법 및 시스템
US20230310089A1 (en) Method for operating a robotic visualization system, and robotic visualization system
KR20240041681A (ko) 수술 로봇의 절삭 경로 플래닝 장치 및 그 방법
JP2023082755A (ja) 計算機システム及び監視オブジェクトのトラッキング方法
JP2016176927A (ja) 4つのledのパターンによるポーズの決定
CN117198475A (zh) 机器人的位置布局方法、装置、系统和存储介质
KR20170138377A (ko) 가정된 캘리브레이션 모델 없이 측정된 데이터를 이용하여 캘리브레이션을 수행하는 방법 및 상기 방법을 수행하는 3차원 스캐너 캘리브레이션 시스템
KR20170053509A (ko) 가정된 캘리브레이션 모델 없이 측정된 데이터를 이용하여 캘리브레이션을 수행하는 방법 및 상기 방법을 수행하는 3차원 스캐너 캘리브레이션 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240315

R150 Certificate of patent or registration of utility model

Ref document number: 7457692

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150