JP2024522003A - 深度カメラによる患者特有器具類の適切な位置決めの自動判定 - Google Patents

深度カメラによる患者特有器具類の適切な位置決めの自動判定 Download PDF

Info

Publication number
JP2024522003A
JP2024522003A JP2023566549A JP2023566549A JP2024522003A JP 2024522003 A JP2024522003 A JP 2024522003A JP 2023566549 A JP2023566549 A JP 2023566549A JP 2023566549 A JP2023566549 A JP 2023566549A JP 2024522003 A JP2024522003 A JP 2024522003A
Authority
JP
Japan
Prior art keywords
instrumentation
shape
target bone
bone area
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023566549A
Other languages
English (en)
Inventor
ダルデンヌ,ギヨーム
スタ,サラヘディン
スティンデル,エリック
ジケル,トーマス
Original Assignee
アンスティチュート ナショナル デ ラ サンテ エ デ ラ リシェルシェ メディカル
ユニヴェルシテ ブレスト ブルターニュ オクシダンタル
センター ホスピタリエ エ ユニヴェルシテール デ ブレスト
アンスティチュート ミンヌ テレコム
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アンスティチュート ナショナル デ ラ サンテ エ デ ラ リシェルシェ メディカル, ユニヴェルシテ ブレスト ブルターニュ オクシダンタル, センター ホスピタリエ エ ユニヴェルシテール デ ブレスト, アンスティチュート ミンヌ テレコム filed Critical アンスティチュート ナショナル デ ラ サンテ エ デ ラ リシェルシェ メディカル
Publication of JP2024522003A publication Critical patent/JP2024522003A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Robotics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Figure 2024522003000001
手術計画(32)によって規定された標的骨エリア(200)に対する器具類の相対的位置決め(42)に従って、上記標的骨エリアに対する上記器具類の適切な位置決めを決定するためのコンピュータデバイス(33)であって、上記デバイスが、-3Dカメラ(31)から、少なくとも上記標的骨エリアを含む撮影シーン(310)の深度マップ(41)を受信するためのインターフェースと、-計算手段であって、上記深度マップから上記標的骨エリアの位置要素を決定し、上記相対的位置決め(42)に従って上記標的骨エリアの第2の位置決めされた形状(442)を決定し、上記第2の位置決めされた形状(442)及び上記位置要素に基づいて上記適切な位置決めを表すデータ(43)を決定するための、計算手段と、-上記データを提供するためのヒューマン-マシンインターフェースと、を備える、コンピュータデバイス(33)。

Description

本発明は、特にコンピュータ支援外科的処置中の、患者手術器具類(patient surgery instrumentation、PSI)のような器具類の位置決めの自動監視の技術分野に関する。
コンピュータ支援手術、特にコンピュータ支援整形外科手術(computer-assisted orthopaedic surgery、CAOS)は、外科的処置の結果を向上するために、手術前、手術中、及び/又は、手術後にコンピュータ技術が適用される分野である。
特に、このような技術は、適切なコンポーネントサイズの決定を含む、コンポーネント配置の事前計画、コンポーネントの術中配置のリアルタイム測定による計画遵守の確認を可能にする。
外科医のジェスチャをガイドするコンピュータ支援技術に関して、いくつかの提案が公開されている。これらの提案は、手術器具上、及び/又は、骨構造上に配置されたいくつかのマーカをリアルタイムで位置特定するように、光学カメラを内蔵したコンピュータ化ステーションに依存する。システムは、相対位置及び向きを比較することによって、計画に関する外科医のジェスチャの精度について外科医に動的に知らせることができ、外科医がいかなる逸脱も修正できるようにする。
このような技術は、股関節、膝関節、肩関節の関節形成術、又は骨切り術等の多様な外科的処置に適用することができる。
しかしながら、このような提案を導入し、特に、処置の前にマーカを正確に配置する費用及び負担及び追加時間は、これらの技術の一般使用を危うくする。実際に、これらのマーカを適当な配置に位置決めして固定することは、外科的処置の時間を長引かせ、包括的費用も増加させ得る何らかの余分な段階を必要とする。
より最近の技術では、外科医のジェスチャをガイドするように骨構造上に配置されるガイド器具類を利用する。
特に、患者特有器具類(PSI)を使用して、患者の骨構造の特定の形態によりよく適合し、器具類によって提供されるガイドの精度を向上させることが提案されている。
Ast MP,Nam D,Haas SB.”Patient-specific instrumentation for total knee arthroplasty:a review”,Orthop Clin North Am 2012;
43: e17-22.10.1016/j.ocl.2012.07.004のような論文では、PSI技術のレビューを提供しており、外科的処置、特にプロテーゼを更に配置するための切断中の外科医のジェスチャの精度の重要性を実証している。
これらのPSIは、コンピュータ断層撮影(Computed Tomography、CTスキャン)又は磁気共鳴撮像(Magnetic Resonance Imaging、MRI)のいずれかを用いて、患者の実装シーンの術前三次元デジタル画像から、PSIの形状を事前に計画することによって、骨表面上に正確に適合されるように、ま
た、後続の処置、例えば、プロテーゼを埋め込むための骨構造の切断において、外科医のジェスチャをガイドするように、設計される。
このような技術は、プロテーゼ又は他の構成要素を最適な位置に配置する際の良好な精度及び性能を可能にし、「従来の」マーキングベースのガイドよりもコストが低い。
しかしながら、いくつかの実用上の課題が依然としてPSIベースの技術の広範な使用を制限している。実際、上述したように、PSIは、埋め込み部位の画像に基づいて設計される。そして、例えば、CTによって提供される画像の場合、必要な情報の全てを視覚化することができず、このような画像は、関節エリアをカバーする骨棘及び軟骨を正しく示すことができない。
結果として、PSIの設計では、これらの骨棘及び軟骨を考慮することができず、このことは、PSIを現場で埋め込むとき、次いで、誤って配置されたPSIにガイドされるように外科医によって必要なジェスチャを操作するとき、何らかの不正確さを内包し得る。
したがって、外科医は、PSIが埋め込まれるべきエリアの軟骨を除去するが、それでも、結果として得られるこの埋め込みの精度は、外科医の器用さ及び技能に直接起因してしまう。いくつかの研究では、多くの場合、PSIがうまく(すなわち、計画に従って)配置されなかったことを実証しており、このことは、当てにならない術後結果をもたらす。
このような研究の例として、Kunz M,Balaketheeswaran S,Ellis RE,Rudan JF.”The influence of osteophyte depiction in CT for patient specific guided hip resurfacing procedures”,in Int.J.Comput.Assist.Radiol.Surg,10(6),pp.717-726,2015、又はWu,X.D.,Xiang,B.Y.,Schotanus,M.G.,Liu,Z.H.,Chen,Y.,及びHuang,W.(2017).”CT-versus MRI-based patient-specific instrumentation for total knee arthroplasty: a systematic review and meta-analysis”in the surgeon,15(6),336-348がある。
MRIによって提供される画像では、軟骨及び骨棘をより良好に示すことを可能にし、PSIのより良好な設計を可能にする。しかしながら、MRIは、スキャナと比較して依然として費用のかかる選択肢であり、臨床ルーチンにおいて常に容易に手が届くものであるとは限らず、このことがPSIベースの技術の展開を依然として妨げている。
更に、例えば、WOOLSON,Steven T.,HARRIS,Alex HS,WAGNER,David W.,らによるComponent Alignment
During Total Knee Arthroplasty with Use
of Standard or Custom Instrumentationで報告されている。J Bone Joint Surg Am,2014,vol.96,no5,p.366-372では、結果を改善するように、処置中にPSIの位置及び/又は向きの調整が必要な場合があることが述べられている。
しかしながら、これまで、外科的処置中に、所定の計画に従ってPSIの術中位置及び向きをチェックするための解決策は提案されていない。
本発明の目的は、外科的処置のためにPSIを使用する際に外科医を支援するための現在の提案を改善することを含む。
特に、本発明の実施形態は、特に骨に取り付けられる追加のマーカを必要とする従来のナビゲーションシステムとは対照的に、コスト及び準備時間を最小限に抑えながら、所定の計画に従ってPSIを埋め込む際に(位置及び向きの両方において)良好な精度を提供することを可能にする。
第1の例示的な実施形態では、手術計画によって規定された標的骨エリアに対する器具類の相対的位置決めに従って、上記標的骨エリアに対する上記器具類の適切な位置決めを決定するためのコンピュータデバイスであって、上記デバイスが、
-3Dカメラから、少なくとも上記標的骨エリア及び上記器具類を含む撮影シーンの深度マップを受信するためのインターフェースと、
-計算手段であって、上記深度マップから、上記標的骨エリアの第1の位置決めされた形状を含み得る、上記標的骨エリアの位置要素を決定し、上記深度マップから上記器具類の位置決めされた形状を決定し、上記位置決めされた形状及び上記相対的位置決めに従って上記標的骨エリアの第2の位置決めされた形状を決定し、上記第2の位置決めされた形状及び上記第1の位置決めされた形状に基づいて上記適切な位置決めを表すデータ決定するための、計算手段と、
-上記データを提供するためのヒューマン-マシンインターフェースと、を備える、コンピュータデバイスを提供する。
この実施形態は、以下のような他の特徴を単独又は組み合わせで含み得る。
-上記データが、上記第1の位置決めされた形状と第2の位置決めされた形状との間の誤差ベクトルを反映する剛性変換データを含む。
-コンピュータが、上記第2の位置決めされた形状及び上記第1の位置決めされた形状からの距離マップを含むデータを提供するように更に構成されている。
-コンピュータデバイスが、点対特徴アルゴリズムに従って、上記器具類の上記位置決めされた形状のうちの少なくとも1つを決定するように更に適合されている。
-計算手段が、少なくとも1つのプロセッサと、コンピュータプログラムコードを含む少なくとも1つのメモリと、を備え、少なくとも1つのメモリ及びコンピュータプログラムコードが、少なくとも1つのプロセッサとともに、コンピュータデバイスを実行させるように構成されている。
-器具類は、患者手術器具類(PSI)である。
本発明の第2の例示的な実施形態は、先に定義されたコンピュータデバイスと、3Dカメラとを備える、システムに関する。
本発明の他の例示的な実施形態は、手術計画によって規定された標的骨エリアに対する器具類の相対的位置決めに従って、上記標的骨エリアに対する上記器具類の適切な位置決めを決定するための方法であって、上記方法が、
-3Dカメラによって、少なくとも上記標的骨エリア及び上記器具類を含む撮影シーンの深度マップを撮影することと、
-上記深度マップから、上記標的骨エリアの第1の位置決めされた形状を含み得る、標的骨エリアの位置要素を決定することと、
-上記深度マップから、上記器具類の位置決めされた形状を決定することと、
-上記位置決めされた形状及び上記相対的位置決めに従って、上記標的骨エリアの第2の位置決めされた形状を決定することと、
-上記第2の位置決めされた形状及び上記第1の位置決めされた形状に基づいて、上記適切な位置決めを表すデータを決定することと、を含む、方法に関する。
この実施形態は、以下のような他の特徴を単独又は組み合わせで含み得る。
-上記データが、上記第1の位置決めされた形状と第2の位置決めされた形状との間の誤差ベクトルを反映する剛性変換データを含む。
-上記データが、上記第2の位置決めされた形状及び上記第1の位置決めされた形状からの距離マップを含む。
-上記器具類は、患者手術器具類(PSI)である。
本発明の他の例示的な実施形態は、以上に規定された方法を実行するための命令の機械実行可能プログラムを符号化する、コンピュータ可読媒体に関する。
適切な位置決めの決定により、単に、PSIが適切に位置決めされているか否かをチェックすることを可能にし得る。
ここで、いくつかの実施形態が、単なる例として、添付の図面を参照して説明される。
本発明の実施形態が使用され得る可能な状況を概略的に示す。 カメラの位置が異なる本発明の2つの可能な実施形態を示す。 カメラの位置が異なる本発明の2つの可能な実施形態を示す。 本発明の実施形態に係る方法のフローチャートを示す。
図1を参照すると、外科医10は、患者20に対して外科的処置を行うためにコンピュータ化システム30を使用する。
この実施形態によれば、コンピュータ化システム30は、コンピュータ(又は同様の機能を有する任意の同様のデバイス)33、3Dカメラ31、及びデータベース又はメモリ32を備える。
データベース又はメモリ32は、外科的処置の計画を記憶するように適合される。
メモリは、コンピュータ33に対してローカル又はリモートであり得る。
これらは、例えばWiFi、Bluetooth若しくはセルラー無線ネットワーク、又は有線イーサネットリンクのような、当技術分野で利用可能な任意の通信手段によってリンクされ得る。3Dカメラ31とコンピュータ30との間の通信手段についても同様であり得る。
計画では、実行される外科的処置について、特に、骨標的エリアに埋め込まれる器具類について、様々な要素を規定又は指定し得る。
特に、計画では、標的骨エリアに対する器具類の形状及び位置決めを規定し得る。この計画では、標的骨の構造の形態を考慮に入れる。
このような計画は、外科的処置自体の前に、スキャナ又はMRI又は任意の他の技術によって関心対象の解剖学的領域の画像を撮影することによって規定されてもよく、外科医又は任意の他の専門家は、プロテーゼを更に正しく配置するために、その医療及び外科的技能により、この画像の上にPSIの適切な位置を決定することができる。
計画された位置は、器具の形状、すなわち特徴点の組の位置が含まれて、器具類が配置される骨構造(すなわち、骨標的エリア)に対して、器具類の場所及び向きの両方が決定されるようにする。
器具類は、患者特有器具類(PSI)、又は標準的器具類(すなわち、所与の患者に特有ではない)であり得る。
PSIは、最近、整形外科手術において導入されており、インプラントを更に配置するために、主に骨の切断を行うために使用される。これらの器具は、コンピュータ断層撮影(CT)又は磁気共鳴撮像(MRI)から観察される患者の解剖学的構造に従って、及び手術計画を用いて設計される。PSIは、患者の骨の構造形態に適合された、PSIのカスタマイズされた形状を位置合わせすることによって、外科的処置中に配置される。
計画段階中に規定された位置(場所及び向き)は、メモリ32に記憶することができ、その位置が、必要なとき、例えば、処置段階中及び/又は処置段階後に、コンピュータデバイス33に送信42できるようにする。
3D(三次元)カメラ31は、標的骨エリア、すなわち器具類が配置されるべき場所の少なくとも一部を含む撮影シーンの深度マップを提供するように適合される。いくつかの実施形態によれば(特に、患者20に対するカメラの位置に応じて)、撮影シーンは、より広くてもよく、器具類の一部又は全体を含む。撮影シーンが、計画された相対位置42と後に比較できるように、骨構造に対する器具類の相対的位置決めを測定するのに十分な情報を含むことのみが重要である。
様々なモデルの3Dカメラを提供することができる。特に、3Dカメラとしては、以下を参照し得る。
-レンジカメラ:特定の点からシーン内の点までの距離を示す深度マップを生成するデバイス。
-ステレオカメラ:2つ以上のレンズを有し、各レンズに対して別個の画像センサ又はフィルムフレームを有するタイプのカメラであり、カメラが人間の両眼視をシミュレートすることで三次元画像の撮影を可能にするカメラ。
レンジカメラの例として、以下が挙げられる。
-投光カメラ:Kinect,Asus Xtion Pro Live,Ensenso等
-変調光飛行時間:SR4000(Swiss Ranger)
-パルス光飛行時間:Tiger Eye(Advanced Scientific
Concepts,Inc.)
-パルス光回転スキャナ:Velodyne。
実施形態によれば、3Dカメラは、RGBDカメラである。RGBDカメラは、赤、緑、青(Red、Green、Blue、RGB)フレームフローを撮影するビデオカメラの機能を、上記で例示したレンジカメラのような3Dセンサの機能と組み合わせたものである。2つの信号は、RGB-Dフレームフロー(「D」は「深度」を意味する)を形成するように組み合わせられる。
以下、「3Dカメラ」という用語は、少なくとも撮影シーンの深度マップと、単なる任意選択として、撮影シーンの点についてのRGBベクトルと、を提供するように適合されたデバイスを反映している。
本発明者らによって行われた実験では、Microsoft Azure Kinect及びOccipital Structure Core深度センサのような3Dカメラが、試験された他のデバイスよりも性能が優れており、好ましい実装手段であることを示している。特に、この種のカメラは、画像特徴、ひいては姿勢推定アルゴリズムの性能を著しく劣化させる可能性のある照明条件に対してあまり敏感ではない。
このようなデバイスは、比較的低コストであり、任意の手術室オペレータにとって手頃であることに留意されたい。
深度マップは、深度値、すなわち、撮影対象とセンサとの間の距離を各画素に関連付ける。
実施形態によれば、RGBDカメラを使用することができる。このような実施形態では、結果として生じるデータ構造は、各ピクセルが色値及び深度に関連付けられる、画素のアレイであり得る。色値は、RGB(赤、緑、青)比色モデル(例えば、RGB-Dカメラの場合)に基づいてもよい。
撮影された深度マップ41は、コンピュータデバイス33に送信することができる。この計算されたデバイス33は、3Dカメラ31からこの深度マップを受信するための適切なインターフェースを備える。
コンピュータ33は、標準的なコンピュータ(デスクトップ、ラップトップ)であってもよく、データを処理することが可能な任意の他のデバイス(タブレット、スマートフォン)であってもよく、(視覚化機能を保証する)ローカルデバイスと処理機能を扱うリモートプラットフォームとの協働であってもよい。
コンピュータ(又はそのローカルデバイス)は、器具類の適切な位置決め、すなわち、その実際の位置と計画された位置との正確なマッピングを表すデータを外科医に表示するためのヒューマン-マシンインターフェースを更に備える。
このマン-マシンインターフェースは、3Dカメラによる撮影画像のような様々なデータと、器具類の適切な位置決めを表すデータを含む、手術を行う外科医をガイドするために本発明の方法によって決定された他の情報と、を表示するように、視覚化手段を備え得る。
以下のような他のタイプのヒューマン-マシンインターフェースも提供することができる。
-器具類の位置の正確さについて外科医にリアルタイムで知らせるために(及び位置が悪いときに警告を出すために)音を生成すること、
-外科医が手術の直視を強化するコンピュータ生成データを視覚化できるようにする複合現実デバイス、
等。
外科医に提供されるデータ43は、リアルタイムであってもよく、すなわち、3Dカメラのビデオフローは、器具類の適切な位置決めを表すデータをリフレッシュするように連続的に処理される。
外科医に提供されるデータはまた、例えば、外科医の要求に応じて、又は手術の終了時にのみであってもよい。
上述したように、3Dカメラは、異なる位置(場所及び向きの両方)に配置することができる。
図2aの側面図に示される第1の実施形態によれば、カメラ31は、骨標的エリア200及び器具類210を包含するシーン310を撮影するように位置決めされる。点線の形状211は、器具類の計画された位置を表す。
図2bに示される第2の実施形態によれば、カメラ31は、器具類自体に固定される。カメラ31は、骨標的エリア200を含むシーン310を撮影する。いくつかの状況では、撮影シーンは、カメラの場所及び向きに応じて、器具類のいずれの要素も含まず、標的骨エリア(及び背景エリア)のみを含み得る。
図2aと同様に、点線の形状211は、器具類の計画された位置を表す。
本発明の実施形態に係る方法が図3に示されている。当業者であれば、特に様々なステップの順番及び並行/順序どおりの性質において、このフローチャートからいくつかの逸脱がなされ得ることを理解するであろう。また、これらのステップは、単に機能的なものと考えられてもよく、単に明確にするために別個のボックスとして提供されてもよく、プログラミング言語における実際の実装に対応していなくてもよい。
また、このフローチャートは、外科医に提供されるデータを連続的にリフレッシュすることを可能にする、ループ手順の1回の反復のみを表し得る。
したがって、第1のステップS1は、撮影シーン310の深度マップ41の撮影であり得る。
前述したように、撮影シーンは、少なくとも標的骨エリアを含む。撮影シーンはまた、器具類を含み得る。深度マップは、深度情報を撮影シーンの表面ビューの各点に関連付ける。
そして、カメラが器具類に固定されていない場合、ステップS2を設けて、深度マップ41からこの器具類の位置決めされた形状440を決定することができる。
本発明の実施形態によれば、器具類の位置決めされた形状440の決定は、3Dカメラによって提供される深度マップのみに基づくことができる。
他の実施形態によれば、RGBDカメラによって提供されるRGBデータは、例えば、器具上に配置されたマーカ(例えば、ARUCOマーカ又は当技術分野で利用可能な任意の他のマーカ)を検出するために使用することができる。色情報は、このようなマーカの正確な検出のために必要とされ得る。
器具上に配置されたマーカは、撮影画像内の器具の位置の検出を改善する助けとなり得る。特に、このようなマーカは、PSIの構築中に配置できることで、PSIに対するマーカの相対的な場所が固定され、正確に知られ、あらゆる手作業による誤配置の余地をなくす。
しかしながら、本発明によれば、追加の術中時間及びそれが暗示する複雑さのために、骨上にマーカを配置することが回避される。
言い換えれば、決定では、3Dカメラに関連付けられた(又はその一部である)ビデオカメラによって提供されるRGBデータを利用することができない。
画像検出アルゴリズムが、手術室の特定の照明条件に敏感であり、性能が低いことも実験によって示されている。よく議論されるように、レンジカメラ技術は、これらの照明条件に対してはるかに感度が低く、照明条件に関らず、より良好な性能を示す。
更に、命令の位置決めされた形状440を決定し、以下に見られるように、この位置決めされた形状440に従って標的骨エリアの第2の位置決めされた形状442を決定するこのステップは、深度マップからの標的骨エリアの直接的な決定と比較して有利である。
実際、身体切開が小さい特定の状況では、標的骨エリアの当該部分は、その正しい決定を可能にするほど十分に大きくない場合がある。したがって、深度マップにおいて検出された標的骨エリアの部分に標的エリアのデジタルモデルをマッピングすることに基づく技術は、失敗する場合があるか、又は精度が十分でない場合がある。
本発明によれば、代わりに、第1の決定は、3D画像フローにおいて大抵よりよく視認される器具類に基づくことで、より良好な追跡及びマッチングを可能にする。次に、標的骨エリアに対する器具類(例えば、PSI)と相対位置を知ることにより、3D画像フロー内で視認される標的エリアに関らず、標的骨エリアの精密な位置を推測することができる。
器具類の位置決めされた形状を決定することは、6自由度(6 degrees of
freedom、6DoF)ベクトルを決定すること(器具類の形状は既知である)に対応する。6自由度(6-DoF)とは、三次元(3D)空間における剛体の運動の自由度を指す。したがって、6-DoF姿勢推定は、カメラの主座標系に従ってこの剛体の3D並進及び3D回転の両方を評価することにある。
姿勢を推定することは、コンピュータビジョンにおいては依然として困難な課題であり、多数の手法が提案されているため、このステップS2を実施するのに使用することができる。
Hodan,F.Michel,E.Brachmann,W.Kehl,A.G.Buch,D.Kraft,B.Drost,J.Vidal,S.Ihrke,X.Zabulis,C.Sahin、F.Manhardt、F.Tombari、T.Kim、J.Matas,C.Rother,”BOP:Benchmark for 6D Object Pose Estimation,”ECCV2018,2018及びT.Hodan,M.Sundermeyer,B.Drost,Y.Labbe,E.Brachmann,F.Michel,C.Rother,J.Matas,”BOP Challenge 2020 on 6D Object Localization,”.ECCV2020、2020では、RGB画像又は/及び深度マップのいずれかから姿勢推定を実行するために、いくつかの最先端の方法が評価及び比較されている。これらの徹底的な研究から、2010年にDrostによって最初に導入され、2015年にBirdalによって、2016年にHinterstoisserによって、また2018年にVidalによって立て続けに改善された点対特徴(PPF)ベースのアルゴリズムが、機械学習ベースのものを含む全てのモデルベースの手法の中で最も成功した姿勢推定アルゴリズムの1つであったことが示されている。
PPFアルゴリズムへの参照は、以下に見出すことができる。
-B.Drost,M.Ulrich,N.Navab,及びS.Ilic,”Mod
el Globally,Match Locally:Efficient and Robust 3D Object Recognition,”IEEE Conf.Comput.Vis.Pattern Recognit.Work.,2010.
-T.Birdal及びS.Ilic,”Point Pair Features Based Object Detection and Pose Estimation Revisited,”Proc.-2015 Int.Conf.3D Vision,3DV 2015,pp.527-535,2015.
-S.Hinterstoisser,V.Lepetit,N.Rajkumar,及びK.Konolige,”Going Further with Point Pair Features,”ECCV 2017,2017.
-J.Vidal,C.Lin,及びR.Marti,”6D Pose Estimation using an Improved Method based on Point Pair Features,”Int.Conf.Control.Autom.Robot., 2018.
実施形態によれば、深度モデルから器具類の位置決めされた形状440を決定するステップS2は、PPFアルゴリズムに基づく。
以上に見てきたとおり、RGB情報はまた、利用可能であれば、特に、Arucoマーカ又は当技術分野で利用可能な他のマーカのようなマーカを検出するために活用され得る。
PPFの主な概念は、ローカル記述子とグローバル記述子の両方の利点を活用することであり、PPFは、2つのフェーズ、すなわち、(1)関心対象の先験的グローバルモデリングを可能にするオフラインフェーズ、及び(2)深度シーンにおけるこの対象の姿勢推定を可能にするオンラインマッチングフェーズに依拠する。
オフラインステップの間、関心対象の特徴は、我々の場合は器具類であるが、まず、対象(m1;m2)を記述する点群の点の全ての対について以下の四次元ベクトルFを計算することによって解析される。
Figure 2024522003000002

ここで、
Figure 2024522003000003

は両方の点m1とm2との間のベクトルであり、
Figure 2024522003000004

は、これらの各点の法線ベクトルであり、
Figure 2024522003000005

は、ベクトルaとbとの間の角度を示す。
次に、全てのモデル対を格納するハッシュテーブルが、上記論文においてDrostによって規定された離散化PPFをインデックスとして使用して構築される。オンラインフェーズの間、関心対象の姿勢は、シーンの点群に関するハッシュテーブルとの最良の一致を見出すことによって推定される。この最良の一致を見出すために、一般化ハフ変換と同様の投票方式が使用される。これを行うために、同一の4DベクトルFがシーンから直接計算される。
類似の離散化PPFがモデルハッシュテーブルにおいて見出される場合、2Dアキュムレータ空間において票が投じられる。したがって、最良姿勢候補は、このアキュムレータ空間内の最高ピークに対応する。選択された姿勢は、最終的に、1つのクラスタ内の全ての姿勢が、並進及び回転の両方について所与の閾値を超えて異ならないようにクラスタ化される。各クラスタは、最終的に、このクラスタに含まれる各個々の姿勢の票の合計に対応するスコアに関連付けられ、最良の姿勢は、最高スコアを有するクラスタである。
本発明の実施形態によれば、上述の論文においてVidalらによって提案されたPPFアルゴリズムの改良版を使用して、深度マップから器具類の位置決めされた形状を決定することができる。
元のPPFアルゴリズムと比較して、ノイズ問題を軽減し、より良好な認識性能を得るために、通常のクラスタリング及び近傍対フィルタリングを伴う新規のサブサンプリングステップの使用、より高速なk-d木近傍探索、量子化のためのより効率的な解決策、及び最後に、最終仮説を再スコアリングし、精緻化し、フィルタリングするためのいくつかの追加の後処理ステップなど、いくつかの改善が加えられている。
関連の姿勢推定を得るために、5つのアルゴリズムのパラメータが調整されなければならない。
(1)サンプリング距離ステップddist
(2)離散化PPFを計算するために使用されるサンプリング角度ステップdangle、
(3)マッチング中に対応を見出すために使用されるシーンからの基準点の数、
(4)クラスタリング距離閾値、及び
(5)姿勢クラスタリングに使用されるクラスタリング角度閾値。
これらのパラメータのうちの4つ(すなわち、サンプリング角度ステップdangle、基準点の数、クラスタリング距離閾値、及びクラスタリング角度閾値)を調整するためのいくつかの推奨が文献において与えられているが、サンプリング距離ddistは、対象及び深度センサの両方の特性に依存する。文献によれば、サンプリング角度ステップdangle及びクラスタリング角度閾値は12°に設定されなければならず、基準点の数は5であり、対象直径の10%に対応しなければならないクラスタリング距離閾値は、我々の場合では0.012mに固定されている。
サンプリング距離ddistの最適化された値を見出すには、深度フィッティング誤差(Depth Fitting Error、DFE)と呼ばれ、PPFを使用した登録機器類メッシュとこの対象に関連付けられた3Dカメラによって提供される点群からの点との間のユークリッド距離として規定される、特定のスコアを使用して、アルゴリズムのフィッティング性能を評価することができる。異なる姿勢下で150のシーンが、取得されている。次に、最小平均DFEを提供するddist値を選択することができる。
本発明の他の実施形態によれば、深度モデルから器具類の位置決めされた形状440を決定するステップS2は、ICPアルゴリズムに基づき得る。
反復最近傍点(Iterative Closest Point、ICP)アルゴリズムは、2つの点群間の差を最小化するために採用されるアルゴリズムである。これは、Chen,Yang; Gerard Medioni (1991).”Object
modelling by registration of multiple range images”.Image Vision Comput.10(3):145-155.doi:10.1016/0262-8856(92)90066-C、及びBesl,Paul J.; N.D.McKay(1992).”A Method for Registration of 3-D Shapes”.IEEE Transactions on Pattern Analysis and Machine Intelligence.14(2):239-256.doi:10.1109/34.121791において最初に提案されている。
ステップS3は、同一の深度マップから標的骨エリアの位置要素を決定することにある。
実施形態によれば、この位置要素は、深度マップからのこの標的骨エリアの第1の位置決めされた形状441を含み得る。
このためには、例えば、ステップS2と同様のアルゴリズムを使用することができる。
他の実施形態によれば、骨に対する姿勢推定アルゴリズムの使用を回避して、より最小限の手法をとることができる。目標は、深度カメラを用いて、骨表面が理論的にPSIに対して良好な位置に配置されていることをチェックすることであろう。
このためには、画像内における骨構造の位置を決定するように、画像セグメンテーションを実行することができる。
一例として、背景エリアから骨エリアをセグメント化するために、特に畳み込みニューラルネットワーク(CNN)に基づく機械学習アルゴリズムを使用することができる。
このようなセグメンテーションアルゴリズムは、He Liu及びFerdinando Rodriguez Y Baena.”Automatic Bone Extraction from Depth Images”in Robotic Assisted Knee Replacement.Proceedings of the
12th Hamlyn Symposium on Medical Robotics,2019,及び同様にLoy Rodas,Decrouez,Bleunven及びCahen,”In-vivo bone segmentation approach for Total Knee Arthroplasty”in EPiC Series in Health Sciences,Volume 4,2020,又はKaiming He,Georgia Gkioxari,Piotr Dollar,及びRoss Girshick.Mask R-CNN.Proceedings of the IEEE International Conference on Computer Vision,pages 2980-2988,2017において提案されている。
マスクR-CNNは、対象検出及びセマンティックセグメンテーションモデルである。これは、領域ベースの畳み込みニューラルネットワーク(R-CNN)に基づく。R-C
NNの本来の目標は、入力画像を取得し、境界ボックスの組を出力として生成することであり、各境界ボックスは、対象と、対象のカテゴリ(例えば、骨)とを含む。R-CNN及びMask R-CNNは、例えば、関連のウィキペディアのページに更に説明されている。
https://en.wikipedia.org/wiki/Region_Based_Convolutional_Neural_Networks
マスクR-CNNは、より高速なR-CNNを画素レベルの画像セグメンテーションに拡張する。キーポイントは、分類タスクと画素レベルマスク予測タスクとを分離することである。より高速なR-CNNのフレームワークに基づいて、分類及び位置特定のための既存の分岐と並行して、対象マスクを予測するための第3の分岐を追加した。マスクブランチは、各関心領域に適用される小さな全結合ネットワークであり、画素ごとにセグメンテーションマスクを予測する。
それは、入力画像内の所与のクエリ対象について、ピクセルレベルでセグメンテーションマスク及びクラス予測を生成するために、特徴ピラミッドネットワークバックボーンと、それに続く領域提案ネットワークとを組み合わせる。
可能な実装は、特徴抽出器バックボーンモデルとしてResNet-101アーキテクチャに依存することができる。
ネットワークは、Microsoftによって提供され、328kのラベル付け画像から構成される「Common Objects in Context」(COCO)のようなオープンソースデータセットを使用することによって事前トレーニングすることができる。
次いで、出力層のみの重みを微調整するために、手術データセットを用いて追加のトレーニングを適用することができる。このような処置により、実際に構成することが(不可能ではないとしても)困難である大きな手術データセットに依存しないことを可能にする。この「転移学習」手順は、Loy Rodasらの上述の論文に従って良好な性能結果を示している。
本発明者らは更に、深度マップ内の標的骨エリアの位置決めされた形状441を決定するためのこのようなアルゴリズムの良好な性能結果を経験している。
例えば、ニューラルネットワークを使用して、骨及び器具類も位置する提供された点群のエリアをセグメント化することができ、このセグメンテーションに基づいて、器具類/骨の姿勢を推定するために、器具及び任意選択で骨にPPFを適用することができる。
おそらくよりロバストであるために、本発明の実施形態では、器具のみ(骨ではない)の姿勢推定のために、PSI上に配置された(Arucoマーカ又は当技術分野で利用可能な任意の他のマーカのような)マーカ及びRGBデータを使用してもよい。しかしながら、この場合も、追加の術中時間及び複雑さが必要となる特定のマーカを有する必要があるため、マーカは骨上に配置されない。
このステップS3で決定された標的骨エリアの位置決め場所を「第1の」位置決め場所と呼ぶ。
並行して、ステップS4において、計画で示されるような標的骨エリアに対する器具類の相対的位置決め42に従って、標的骨の「第2の」位置決め場所が決定される。
3Dカメラが上記器具類に固定されている場合、上記標的骨エリアの第2の位置決めされた形状442は、上記相対的位置決め42から直接導出される。
実際に、器具類に対するカメラの位置(場所及び向き)は、例えば器具類の設計に応じて、所定のデータとすることができる。また、3Dカメラの較正パラメータは既知である。この情報は既知であるので、計画から、標的骨が通常存在すべき位置、すなわち第2の位置決めされた形状442を導出することは明解である。
カメラが器具類に固定されていない場合、撮影シーンの任意の要素に対するカメラの相対位置が未知であるため、先に示したように、何らかの追加の計算が実行されなければならない。
本発明の実施形態によれば、この更なる自由度は、先に説明したステップS2において、深度マップ内の器具類の位置決めされた形状440を決定することによって決定できる。そして、第2の位置決めされた形状442は、この位置決めされた形状440と、計画によって提供される相対的位置決め42との両方から決定できる。
ステップS5において、コンピュータデバイスは、(ステップS3において算出された)標的骨エリアの第1の位置決めされた形状441と、(ステップS4において)計画された相対的位置決め42から導出又は計算された同一の標的骨エリアの第2の位置決めされた形状442とに基づいて、器具類の適切な位置決めを表すデータを決定することができる。
換言すれば、器具類の適切な位置決めを表すデータは、標的骨エリアの計画された位置決めと測定された位置決めとの比較に基づく。
これらのデータは、計画に従った器具類の実際の配置の精度に関する何らかの指示を外科医に提供することを目的とする。
例えば、距離マップは、第2の位置決めされた形状と骨の構造の位置要素とから提供され得る。第1の位置決めされた形状がステップS3において決定されている場合、距離マップは、第1の位置決めされた形状441と第2の位置決めされた形状442との間のポイントツーポイント比較を含み得る。そうでなければ、距離マップは、第2の位置決めされた形状442及び深度カメラによって提供される点から直接(すなわち、骨の姿勢を推定することなく)計算され得る。
PPFアルゴリズムは、頂点の組(すなわち、3D点)を含む形状のモデルを提供するので、両方の形状を頂点ごとに比較することができる。次に、各頂点について距離を決定することができる。
この距離マップは、3Dカメラによって提供される画像へのオーバーレイとして距離マップを表示することによって、外科医に提供され得る。
例えば、いくつかの色を距離範囲に割り当てることで、色が割り当ての精度を表すようにすることができ、例えば、距離が第1の閾値を上回る場合、「オレンジ色」を割り当てることができ、距離がより高い閾値を上回る場合、「赤色」を割り当てることができ、距離が許容可能な閾値未満である場合、「緑」色を割り当てることができる。
そして、外科医は、示された色から、器具類が適切に配置されているか否かを直ちに理
解し得る。
実施形態において、第1の位置決めされた形状がステップS3において計算されているとき、コンピュータデバイスはまた、第1の位置決めされた形状と第2の位置決め形状位置決めされた形状との間の誤差ベクトルを反映する剛性変換データを決定し得る。このデータは、両方の形状間のこの剛性幾何変換を表す6Dベクトル(並進及び回転)であり得る。
この変換ベクトルは、器具類にその位置を補正することを示唆する動きのガイダンスとして、外科医に提供され得る。器具類が適切に位置決めされている場合(場所及び向きにおいて)、変換ベクトルはヌルベクトルとなるはずである。
本発明はまた、訓練者がモックアップ状況で練習し、訓練者のスキルに関するフィードバックを得ることができる訓練施設として展開することもできる。
器具類(特に、PSI)のおかげで、外科医は、より高い精度で切断を実行できる立場にある。
当業者は、コンピュータデバイスが以下のような手段又は回路を備えることを容易に認識するであろう。
-少なくとも1つのプロセッサ、及び
-コンピュータプログラムコードを含む少なくとも1つのメモリであって、少なくとも1つのメモリ及びコンピュータプログラムコードが、少なくとも1つのプロセッサとともに、コンピュータデバイスを実行させるように構成されている、少なくとも1つのメモリ。
メモリは、例えば、デジタルメモリ、磁気ディスク及び磁気テープ等の磁気記憶媒体、ハードドライブ、又は光学的に読み取り可能なデジタルデータ記憶媒体であり得る。
コンピュータプログラムコードは、上述の実施形態に従って、コンピュータデバイスのプロセッサ上で作動されるとき、第1及び第2の位置決めされた形状441、442、器具類の位置決めされた形状440、適切な位置決めを表すデータ43、並びに外科医へのヒューマン-マシンインターフェース及び他の追加機能を決定するように意図されている。
当業者に知られているように、プロセッサは、オペレーティングシステム(Operating System、OS)コードのような他の計算されたプログラムコード、及び他のモジュールを更に作動することができる。
説明及び図面は、本発明の原理を単に例示するものである。したがって、当業者は、本明細書で明示的に説明又は図示されていないが、本発明の原理を実施し、その趣旨及び範囲内に含まれる様々な構成を考案できることが理解されよう。更に、本明細書に記載される全ての例は、主に、読者が本発明の原理及び当技術分野を促進するために発明者(ら)によって寄与される概念を理解するのを助ける教育的な目的のみのためであることが明示的に意図されており、そのような具体的に記載される例及び条件に限定されないものとして解釈されるべきである。更に、本発明の原理、態様、及び実施形態、並びにそれらの具体例を記載する本明細書における全ての記述は、それらの均等物を包含することが意図される。

Claims (10)

  1. 手術計画(32)によって規定された標的骨エリア(200)に対する器具類の相対的位置決め(42)に従って、前記標的骨エリアに対する前記器具類の適切な位置決めを決定するためのコンピュータデバイス(33)であって、前記デバイスが、
    -3Dカメラ(31)から、少なくとも前記標的骨エリア及び前記器具類を含む撮影シーン(310)の深度マップ(41)を受信するためのインターフェースと、
    -計算手段であって、前記深度マップから、前記標的骨エリアの第1の位置決めされた形状(441)を含む、前記標的骨エリアの位置要素を決定し、前記深度マップから前記器具類の位置決めされた形状(440)を決定し、前記位置決めされた形状(440)及び前記相対的位置決め(42)に従って前記標的骨エリアの第2の位置決めされた形状(442)を決定し、前記第2の位置決めされた形状(442)及び前記第1の位置形状に基づいて前記適切な位置決めを表すデータ(43)を決定するための、計算手段と、
    -前記データを提供するためのヒューマン-マシンインターフェースと、を備える、コンピュータデバイス(33)。
  2. 前記データが、前記第1の位置決めされた形状(441)と前記第2の位置決めされた形状(442)との間の誤差ベクトルを反映する剛性変換データを含む、請求項1に記載のコンピュータデバイス。
  3. 前記第2の位置決めされた形状(442)及び前記第1の位置形状(441)からの距離マップを含むデータを提供するように更に構成されている、請求項1又は2に記載のコンピュータデバイス。
  4. 点対特徴アルゴリズムに従って、前記器具類の前記位置決めされた形状(440)のうちの少なくとも1つを決定するように更に適合された、請求項1~3のいずれか一項に記載のコンピュータデバイス。
  5. 前記計算手段が、
    -少なくとも1つのプロセッサと、
    -コンピュータプログラムコードを含む少なくとも1つのメモリであって、前記少なくとも1つのメモリ及びコンピュータプログラムコードが、前記少なくとも1つのプロセッサとともに、前記コンピュータデバイスを実行させるように構成されている、少なくとも1つのメモリと、を備える、請求項1~4のいずれか一項に記載のコンピュータデバイス。
  6. 請求項5のいずれか一項に記載のコンピュータデバイス(33)と、3Dカメラ(31)と、を備える、システム。
  7. 手術計画(32)によって規定された標的骨エリア(200)に対する器具類の相対的位置決め(42)に従って、前記標的骨エリアに対する前記器具類の適切な位置決めを決定するための方法であって、前記方法が、
    -3Dカメラ(31)によって、少なくとも前記標的骨エリア及び前記器具類を含む撮影シーン(310)の深度マップ(41)を撮影すること(S1)と、
    -前記深度マップから、前記標的骨エリアの第1の位置決めされた形状(441)を含む、前記標的骨エリアの位置要素を決定すること(S3)と、
    -前記深度マップから、前記器具類の位置決めされた形状(440)を決定することと、
    -前記位置決めされた形状(440)及び前記相対的位置決め(42)に従って、前記標的骨エリアの第2の位置決めされた形状(442)を決定すること(S4)と、
    -前記第2の位置決めされた形状(442)及び前記第1の位置決めされた形状に基づいて、前記適切な位置決めを表すデータを決定すること(S5)と、を含む、方法。
  8. 前記データが、前記第1の位置決めされた形状(441)と前記第2の位置決めされた形状(442)との間の誤差ベクトルを反映する剛性変換データを含む、請求項7に記載の方法。
  9. 前記データが、前記第2の位置決めされた形状(442)及び前記第1の位置決めされた形状(441)からの距離マップを含む、請求項7又は8に記載の方法。
  10. 請求項7~9のいずれか一項に記載の方法を実行するための命令の機械実行可能プログラムを符号化する、コンピュータ可読媒体。
JP2023566549A 2021-04-26 2022-04-14 深度カメラによる患者特有器具類の適切な位置決めの自動判定 Pending JP2024522003A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP21305535.3A EP4082469B8 (en) 2021-04-26 2021-04-26 Automatic determination of an appropriate positioning of a patient-specific instrumentation with a depth camera
EP21305535.3 2021-04-26
PCT/EP2022/060130 WO2022228918A1 (en) 2021-04-26 2022-04-14 Automatic determination of an appropriate positioning of a patient-specific instrumentation with a depth camera

Publications (1)

Publication Number Publication Date
JP2024522003A true JP2024522003A (ja) 2024-06-06

Family

ID=75919268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023566549A Pending JP2024522003A (ja) 2021-04-26 2022-04-14 深度カメラによる患者特有器具類の適切な位置決めの自動判定

Country Status (3)

Country Link
EP (2) EP4082469B8 (ja)
JP (1) JP2024522003A (ja)
WO (1) WO2022228918A1 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3095331A1 (fr) * 2019-04-26 2020-10-30 Ganymed Robotics Procédé de chirurgie orthopédique assistée par ordinateur
KR20220031576A (ko) * 2019-07-03 2022-03-11 스트리커 코포레이션 수술 내비게이션을 위한 장애물 회피 기술
EP4042382A1 (en) * 2019-10-07 2022-08-17 Intuitive Surgical Operations, Inc. Physical medical element sizing systems and methods

Also Published As

Publication number Publication date
EP4082469A1 (en) 2022-11-02
EP4082469B1 (en) 2023-10-25
EP4082469B8 (en) 2023-11-29
EP4329659A1 (en) 2024-03-06
WO2022228918A1 (en) 2022-11-03

Similar Documents

Publication Publication Date Title
JP7466928B2 (ja) 人工知能の術中外科的ガイダンスシステムと使用方法
US11871996B2 (en) Spine measurement system and method therefor
US11147632B2 (en) Automatic identification of instruments
Grasa et al. Visual SLAM for handheld monocular endoscope
US10376182B2 (en) Spine measurement system including rod measurement
EP3655924A1 (en) Method and apparatus to generate and track standardized anatomical regions automatically
US20210290315A1 (en) System method and computer program product, for computer aided surgery
WO2014117806A1 (en) Registration correction based on shift detection in image data
US11883219B2 (en) Artificial intelligence intra-operative surgical guidance system and method of use
US20170270678A1 (en) Device and method for image registration, and non-transitory recording medium
US20220270263A1 (en) Computed tomography to fluoroscopy registration using segmented inputs
Gu et al. Extended capture range of rigid 2d/3d registration by estimating riemannian pose gradients
JP2024522003A (ja) 深度カメラによる患者特有器具類の適切な位置決めの自動判定
US20240225751A1 (en) Automatic determination of an appropriate positioning of a patient-specific instrumentation with a depth camera
US20220241014A1 (en) Systems and methods for predicting surgical outcomes
KR102577964B1 (ko) 간 수술을 위한 정렬 시스템
US20230196595A1 (en) Methods and systems for registering preoperative image data to intraoperative image data of a scene, such as a surgical scene
US20240206990A1 (en) Artificial Intelligence Intra-Operative Surgical Guidance System and Method of Use
US20240197410A1 (en) Systems and methods for guiding drilled hole placement in endoscopic procedures
US20230113384A1 (en) Method of operating a medical imaging system, method of simulating a partial deformation of a three-dimensional model of an organ, medical imaging system and software program product
CN116917942A (zh) 使用所分割的输入进行计算机断层扫描到透视的配准
EP4298604A1 (en) Computer tomography to fluoroscopy registration using segmented inputs
AU2022421825A1 (en) Methods and systems for registering initial image data to intraoperative image data of a scene
Gu Interventional 2D/3D Registration with Contextual Pose Update
JP2023518089A (ja) 患者固有の骨用ジグを用いた患者の骨のレジストレーションおよび/またはトラッキング

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240306

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20240306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240618