JP2023513566A - 手術対象物の整合確認方法、その装置及びそれを含むシステム - Google Patents

手術対象物の整合確認方法、その装置及びそれを含むシステム Download PDF

Info

Publication number
JP2023513566A
JP2023513566A JP2022548603A JP2022548603A JP2023513566A JP 2023513566 A JP2023513566 A JP 2023513566A JP 2022548603 A JP2022548603 A JP 2022548603A JP 2022548603 A JP2022548603 A JP 2022548603A JP 2023513566 A JP2023513566 A JP 2023513566A
Authority
JP
Japan
Prior art keywords
probe
model
surgical object
surgical
alignment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022548603A
Other languages
English (en)
Other versions
JP7460201B2 (ja
Inventor
ド、デー・グク
キム、グン・ユン
リム、ヒユン・スーン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Curexo Inc
Original Assignee
Curexo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Curexo Inc filed Critical Curexo Inc
Publication of JP2023513566A publication Critical patent/JP2023513566A/ja
Application granted granted Critical
Publication of JP7460201B2 publication Critical patent/JP7460201B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/1662Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body
    • A61B17/1675Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body for the knee
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/17Guides or aligning means for drills, mills, pins or wires
    • A61B17/1703Guides or aligning means for drills, mills, pins or wires using imaging means, e.g. by X-rays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/14Surgical saws ; Accessories therefor
    • A61B17/15Guides therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/17Guides or aligning means for drills, mills, pins or wires
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3904Markers, e.g. radio-opaque or breast lesions markers specially adapted for marking specified tissue
    • A61B2090/3916Bone tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Dentistry (AREA)
  • Radiology & Medical Imaging (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Gynecology & Obstetrics (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Instructional Devices (AREA)

Abstract

本発明に係る手術対象物の整合確認方法は、前記手術対象物に関する形状情報を有する3Dモデルを設けるステップと、追跡器を介して前記手術対象物と、前記手術対象物に取り付けられた対象物マーカの位置及び姿勢情報を取得するステップと、前記手術対象物と前記対象物マーカとの間の位置及び姿勢に関する相関関係を導出して、前記3Dモデルとの整合を行うステップと、前記手術対象物の表面に沿って働くプローブのティップの位置及び姿勢の変化を追跡するステップと、前記プローブのティップの位置及び姿勢の中の少なくとも1つの変化に対応して、前記プローブのティップの位置と前記3Dモデルとの相対的な位置関係を示す3Dグラフィックアイコンを含む整合確認情報を生成して画像で表示するステップとを、含む。これにより、直観的かつ視覚的な整合確認を行うことができ、また、連続した一定領域の整合の度合いを直観的に確認することができる。【選択図】図2

Description

本発明は手術対象物の整合確認方法、その装置及びそれを含むシステムに関し、より具体的には、手術対象物と手術画像との空間的な整合の度合いを確認するための手術対象物の整合確認方法、その装置及びそれを含むシステムに関する。
近年、医療技術の発達によりロボットとコンピュータシステムを利用したナビゲーション手術が活発に導入されており、人工関節手術分野においてもこのような手術が適用されている。
膝関節の場合、外傷や様々な感染、疾患による痛み及び行動障害が発生すると、整形外科手術を通して関節全体や部分に置換術にて治療を行い、この中に約10~30%の患者は膝内側ジョイントの摩耗が生じて膝関節の部分置換手術を行う。
このような整形外科関節手術に使われるロボット中では、全手術過程を自動的に行うロボットがあり、このような手術用ロボットは予め計画された経路に沿って人の介入なしに自動的に骨を切削する。
このような手術用ロボットを用いた膝関節手術のためには、まず、手術対象物に光学式マーカを取付け、光学センサーにて光学式マーカの位置と姿勢をトラッキングし、手術対象物とそれに関する形状モデルとの空間的な整合手順を予め行うべきだ。さらに、行われた整合の結果に対して適合するかどうかを確認するための手順が必要である。
従来、手術対象物の整合確認方法は、整合の結果に対する定量的な数値を確認したり、あらかじめ登録した複数のポイントの整合の度合いを確認する方法を主に使用している。
しかし、前者は単に定量的な数値で表現されるので、ユーザは整合が適合するかどうかを判断することが困ることがあり、後者はあらかじめ登録されたポイントに対する整合のみを確認するので、その外の領域に対しては整合の度合いを確認できない問題がある。
韓国特許公開公報第10-2015-0102936号
前記の問題を解決するために、本発明は直観的かつ視覚的な整合確認方法を提供することに目的がある。また、本発明は1つのポイントではなく連続した一定領域の整合の度合いを直観的に確認できる手術対象物の整合確認方法、その装置及びそれを含むシステムを提供することに目的がある。さらに、本発明は整合の結果が不適切な場合、再整合が必要な領域に対して再整合を行う手術対象物の整合確認方法、その装置及びそれを含むシステムを提供することに目的がある。
前記目的は、手術対象物の整合確認方法において、前記手術対象物に関する形状情報を有する3Dモデルを設けるステップと、追跡器を介して前記手術対象物と、前記手術対象物に取り付けられた対象物マーカとの位置及び姿勢情報を取得するステップと、前記手術対象物と前記対象物マーカとの間の位置及び姿勢に関する相関関係を導出して、前記3Dモデルとの整合を行うステップと、前記手術対象物の表面に沿って働くプローブのティップの位置及び姿勢の変化を追跡するステップと、前記プローブのティップの位置及び姿勢の中の少なくとも1つの変化に対応して、前記プローブのティップの位置と前記3Dモデルとの相対的な位置関係を示す3Dグラフィックアイコンを含む整合確認情報を生成して画像で表示するステップと、含むことを特徴とする手術対象物の整合確認方法によって達成することができる。
一方、前記目的は、手術対象物の整合確認方法において、追跡器を介して取得される前記手術対象物と前記手術対象物に取り付けられた対象物マーカとの位置及び姿勢情報を受信するステップと、前記手術対象物と前記対象物マーカとの間の位置及び姿勢に関する相関関係を導出して、前記手術対象物に関する3Dモデルとの整合を行うステップと、前記追跡器を介して取得される前記手術対象物の表面に沿って働くプローブのティップの位置及び姿勢情報を受信するステップと、前記プローブのティップの位置及び姿勢情報の変化に基づいて、前記プローブのティップの位置と前記3Dモデルとの相対的な位置関係を示す3Dグラフィックアイコンを含む整合確認情報を生成して画像で表示するステップと、を含むことを特徴とする手術対象物の整合確認方法によっても達成することができる。
また、前記整合確認情報を生成して画像で表示するステップは、前記プローブのティップの位置を原点とする互いに異なる半径を有する複数の球を形状化し、前記3Dグラフィックアイコンで生成して前記3Dモデル上に表現する。
さらに、前記整合確認情報を生成して画像で表示するステップは、前記プローブのティップの位置と前記3Dモデルの表面との相対的な位置関係を示すように前記グラフィックアイコンの形状を変化させる。
そして、前記整合確認情報を生成して画像で表示するステップは、前記プローブのティップの位置または姿勢の変化に対応して前記画像の視点を変化させて表示する。
また、前記整合確認情報を表示する前記画像は、前記プローブのティップの位置または姿勢の変化に対応して前記3Dモデルに対する視点が可変される第1の画像が表示される第1の領域と、前記3Dモデルに対する少なくとも1つの固定された視点を有する第1の画像が表示される第1の領域を含む。
前記複数の球は、互いに視覚的に区別されるように表現される。
さらに、前記整合の結果を定量的に算出して表示するステップをさらに含み、前記整合の結果を定量的に算出して表示するステップは、整合のために取得した前記手術対象物上の複数のポイントとそれに対応する前記3Dモデル上のポイントとの間の距離の偏差を算出して表示するステップと、前記プローブの移動に対応する前記プローブのティップが位置するポイントと前記3Dモデル上のランドマークポイントとの間の距離を算出して表示するステップと、前記プローブの移動に対応する前記プローブのティップが位置するポイントとそれに対応する前記3Dモデル上のポイントとの間の距離を算出して表示するステップのうちの少なくとも1つを含む。
一方、前記目的は、手術対象物の整合確認装置において、追跡器を介して取得した前記手術対象物と、前記手術対象物に取り付けられた対象物マーカの位置及び姿勢情報を受信する信号受信部と、前記手術対象物と前記対象物マーカとの間の位置及び姿勢に関する相関関係を導出して、前記手術対象物に関する3Dモデルとの整合を行う対象物整合部と、前記データ入力部を介して受信する前記手術対象物の表面に沿って働くプローブのティップの位置及び姿勢情報の変化に基づいて、前記プローブのティップの位置と前記画像モデルとの相対的な位置関係を示す3Dグラフィックアイコンを含む整合確認情報を生成する整合確認部を含むことを特徴とする手術対象物の整合確認装置によって達成することができる。
そして、前記整合確認部は、前記プローブのティップの位置を原点とする互いに異なる半径を有する複数の球を形状化して、前記3Dグラフィックアイコンで生成して前記3Dモデル上に表現し、前記複数の球は互いに視覚的に区別されるように表現される。
また、前記整合確認部は、前記3Dモデルに対する少なくとも1つの固定された視点を有する第1の画像と、前記プローブのティップの位置または姿勢の変化に対応して画像の視点が可変される第2の画像がそれぞれ別の領域に表現されるように前記整合確認情報を生成する。
一方、前記目的は、前記手術対象物に取り付けられた対象物マーカ及びプローブの位置と姿勢を追跡するための追跡器と、手術前に取得した手術対象物に関する形状情報を有する3Dモデルを格納するメモリ部と、前記手術対象物に取り付けられた前記対象物マーカと前記手術対象物との間の位置及び姿勢に関する相関関係を導出して前記3Dモデルとの整合を行う対象物整合部と、前記追跡器によって取得した前記手術対象物の表面に沿って働くプローブのティップの位置及び姿勢情報に基づいて、前記プローブのティップの位置と前記画像モデルとの相対的な位置関係を示す3Dグラフィックアイコンを含む整合確認情報を生成する整合確認部と、前記整合確認情報を画像で表示する表示部を含むことを特徴とする手術対象物の整合確認システムによっても達成することができる。
ここで、前記整合確認部は、前記プローブのティップの位置を原点とする互いに異なる半径を有する複数の球を形状化して、前記3Dグラフィックアイコンで生成して前記3Dモデル上に表現し、前記複数の球は互いに視覚的に区別されるように表現される。
以上のように、本発明に係る手術対象物の整合確認方法、その装置及びそれを含むシステムは、視覚的かつ直観的な整合確認が可能である。また、1つのポイントではなく連続した一定領域の整合の度合いを直観的に確認することができる。また、整合の結果が不適切な場合、再整合が必要な領域に対して再整合を行うことができ、時間を短縮することができる。
本発明の一実施形態に係る手術対象物の整合確認システムを概略的に示す図である。 本発明の一実施形態に係る手術対象物の整合確認装置の制御ブロック図である。 本発明の一実施形態に係る制御部の動作を説明するための図である。 本発明の一実施形態に係る整合確認部により生成され、画像で表示された整合確認情報の一例を示す図である。 本発明の一実施形態に係るプローブのティップの位置を形状化した3Dグラフィックアイコンの一例を示す図である。 本発明の一実施形態に係るプローブのティップを図3の位置で上方に移動しながら姿勢をやや右側に回転した状態での整合確認情報を表現した図である。 本発明の一実施形態に係る整合確認部が整合の適合度を計算する方法を説明するための図である。 本発明の一実施形態に係りプローブのティップをランドマークポイントに移動した場合を表見した図である。 本発明の一実施形態に係りプローブのティップをランドマークポイントに移動した場合であって、それに対応する整合確認情報を表見した図である。 本発明の一実施形態に係る整合確認装置を用いた手術対象物の整合確認方法に関するフローチャートである。
以下、図面を参照して本発明の具体的な実施形態について説明する。
図1は、本発明の一実施形態に係る手術対象物の整合確認システムを概略的に示した図である。図1を参照すると、本発明の一実施形態に係る手術対象物の画像整合確認システムは、手術対象物10に取り付けられた対象物マーカ20と、追跡器30と、整合確認装置40と、を含む。
手術対象物10は手術の対象を意味するものであり、本発明の実施形態においては手術対象物10が大腿骨(Femur)と脛骨(Tibia)の膝関節であり、対象物物マーカ20は大腿骨と脛骨にそれぞれ取り付けられたものを一例として説明する。なお、本明細書において「手術対象物」とは、大腿骨や脛骨などの手術対象を包括する広義の意味でも使用され、インプラントの原点やジョイントの中心などの手術対象物の特定の位置または手術部位を示す狭義の意味でも使用されることができる。一方、手術対象物10の整合を行う際に、ユーザはプローブ50を使用して手術対象物10の複数のポイントの位置を登録する。
対象物マーカ20とプローブ50は光学式マーカを使用することができ、中心点を基準に互いに異なる方向の枝状の3個または4個のバーが形成され、バーの端部にはそれぞれ高反射のボールマーカが形成されることができる。
追跡器30は、手術対象物10に取り付けられた対象物マーカ20とプローブ50の位置と姿勢を追跡するためのものであり、3次元空間座標上のマーカの位置及び姿勢を検出し、後述する整合確認装置40に伝える。本発明の実施形態における追跡器30は、光追跡システム(Optical Tracking System、OTS)で具現されたものを一例として説明する。
手術対象物10の整合確認装置40は、手術対象物10の空間の整合及び整合の結果を確認するためのものであり、コンピュータ(プロセッサ)とディスプレイを含むことができる。手術対象物10の整合確認装置40は独立した装置として設けられてもよく、場合によってはコンピュータ(プロセッサ)は手術用ロボット内に設けられ、ディスプレイは追跡器30に接続して統合された形態でそれぞれ別々に設けられることもできる。後者の場合、手術用ロボット内に設けられれたコンピュータ(プロセッサ)は追跡器30に接続してマーカの位置/姿勢情報を受信し、整合及び整合の結果を処理してディスプレイに提供する。
図2は、本発明の一実施形態に係る手術対象物の整合確認装置40の制御ブロック図である。図2を参照すると、本発明の一実施形態に係る手術対象物の整合確認装置40は、信号受信部41、ユーザ入力部42、表示部43、メモリ部44及び制御部45を含む。
信号受信部41は、外部から信号を受信するためのものであり、例えば、外部機器との接続のためのHDMI(登録商標)(High Definition Multimedia Interface)コネクタ、デサブ(D-sub)コネクタ、またはインターネット網を含む有線/無線ネットワークと接続するための通信モジュールを含むことができる。信号受信部41は、追跡器30と連動するための有無線通信モジュールを含むことができる。
ユーザ入力部42は、ユーザからコマンドを受信して後述する制御部45に伝達するためのものであり、キーボード、マウス、またはボタンなどの様々な入力手段を含むことができる。
表示部43は、画像を画面に表示するためのものであり、液晶ディスプレイ(LCD、Liquid Crystal Display)パネル、発光ダイオード(LED、Light Emitting Diode)パネル、有機発光ダイオード(OLED、Organic Light Emitting Diode)パネルなどで具現することができる。
ここで、ユーザ入力部42と表示部43とは、他の構成と物理的に分離して構成することができる。例えば、信号受信部41、制御部45及びメモリ部44は手術用ロボットの本体に統合して具現され、ユーザ入力部42及び表示部43は追跡器30及び手術用ロボットと通信で接続された別々の装置で構成することができる。
メモリ部44は、手術対象物の整合確認装置40の各種のOS、ミドルウェア、プラットフォーム、及び各種のアプリケーションを格納することができ、プログラムコード及び信号処理された画像信号、音声信号及びデータを格納することができる。メモリ部44は、手術前に取得した手術対象物10に関する形状情報を有する3次元モデル、すなわち3Dモデル10aを格納する。ここで、手術対象物10に関する3Dモデル10aは、例えば、患者のコンピュータ断層撮影(CT)または磁気共鳴画像診断(MRI)などの画像データセットから生成することができる。
制御部45は、ユーザ入力部42を介して入力されたユーザのコマンドまたは内部プログラムによって手術対象物の整合確認装置40の全般的な制御を担う。制御部45は、信号処理及び制御のためのプログラムコード及びプログラムを実行するプロセッサを含むことができる。制御部45は、信号受信部41を介して追跡器30から受信される対象物マーカ20及びプローブ50の位置/姿勢情報を用いて位置追跡及び整合を行い、整合の度合いを示す整合の結果に関する整合確認情報を生成する。
図2を参照すると、制御部45は対象物整合部45aと整合確認部45bとを含む。
対象物整合部45aは、追跡器30から取得した対象物マーカ20及びプローブ50の位置/姿勢情報を用いて手術対象物10に関する形状情報を有する3Dモデル10aとの整合を行う。対象物整合部45aは、対象物マーカ20とプローブ50の位置/姿勢情報を用いて手術対象物10に取り付けられた対象物マーカ20(ボーンマーカ)と手術対象物10との間の位置/姿勢に関する相関関係を導出する。
例えば、手術対象物10に対象物マーカ20を取り付けた後、プローブ50を使用して予め設定された手術対象物10の特定された複数のポイントと対象物マーカ20の位置/姿勢を同時に認識させる。対象物整合部45aは、追跡器30を介して取得したプローブ50が指示した特定のポイント及び対象物マーカ20の位置/姿勢に関する情報を受信し、対象物マーカ20と手術対象物10との間の位置/姿勢に関する相関関係を導出して、メモリ部44に既に格納された手術対象物10に関する3Dモデル10aとの整合を行う。対象物整合部45aは、位置の算出及び整合を行うプログラムコード及び/又はソフトウェアを含んで具現することができる。
整合確認部45bは、対象物整合部45aの整合の結果に関する整合確認情報を生成するためのものであり、手術対象物10の表面に沿って働くプローブ50のティップの位置及び姿勢情報の変化に基づいて、プローブ50のティップの位置と画像モデルとの相対的な位置関係を示す3次元グラフィックアイコンを含む整合確認情報を生成する。また、整合確認部45bは、整合の結果を定量的に算出することができる。一方、整合確認部45bを介して生成された整合確認情報及び整合の度合いに関する定量値は表示部43に提供され、画像で表示される。これにより、ユーザは整合の度合いを直観的かつ視覚的に認識することができる。整合確認部45bは、整合の結果の算出と、整合確認情報及びグラフィック生成のためのプログラムコード及び/又はソフトウェアを含んで具現することができる。
図3は、本発明の一実施形態に係る制御部45の動作を説明するための図である。図3を参照すると、手術対象物10としては大腿骨11を一例として示し、対象物マーカ20、21は大腿骨に取り付けられることを一例として示した。
図3を参照すると、ユーザはプローブ50を使用して予め設定された手術対象10、11の指定ポイントの位置を登録する。追跡器30は、手術対象物10、11の表面の指定ポイントを指示するプローブ50と対象物マーカ21の位置/姿勢を追跡して整合確認装置40に伝送する。整合確認装置40は、追跡器30から受信したプローブ50及び対象物マーカ21の位置/姿勢情報に基づいて、既に格納された手術対象物10、11の3Dモデル10aとの整合を行う。一般に、手術対象物10、11の3Dモデル10aをDistal、Posterior、Medial、Anteriorなど4つのビューを順次に切り替えながら、当該ビューで予め設定されたポイントの位置に対応するポイントをプローブ50に指示して、プローブ50及び対象物マーカ21の位置/姿勢情報を受信して当該位置の登録を進めるようになり、登録ポイントは約20~40個位くらいになる。なお、図3において、LPはランドマークポイント(Landmark Point)であり、手術対象物10、11の姿勢の基準となるポイントを意味する。ユーザが1つずつ順次に該当ポイントをプローブ50で指示し、整合確認装置40がこれを登録する過程を通して整合を行う。
図3において、整合後の空間関係におけるプローブ50と手術対象物10、11に関する3Dモデル10aとの間の位置/姿勢の相関関係は、以下のように表現することができる。
Figure 2023513566000002
ここで、はプローブ50と手術対象物10、11との間の位置/姿勢の相関関係であり、OTSは追跡器30に対するプローブ50の変換行列であり、OTSBMは追跡器30に対する対象物マーカ21の変換行列であり、BMは対象物マーカ21に対する手術対象物10、11の変換行列である。
整合確認部45bは、予め設定された複数のポイントに対する登録が完了されると、整合の結果に関する整合確認情報を生成する。整合確認部45bは、プローブ50のティップの位置及び姿勢情報の変化に基づいて、3Dモデル10aとの相対的な位置関係を示すように、プローブ50のティップの位置を形状化した3DグラフィックアイコンAが3Dモデル10a上に表現されるように生成される。
図4は、本発明の一実施形態に係る整合確認部45bによって生成され画像で表示された整合確認情報の一例を示す。図4を参照すると、本発明に係る整合確認情報を示す画像は、プローブ50のティップの位置または姿勢の変化に対応して画像の視点が可変される第1の画像が表示される第1の領域を有する。整合確認情報を示す画像において、R1領域に表示された第1の画像は、プローブ50の位置/姿勢情報に基づいてプローブ50のティップが見える視点で3Dモデル10aを表現する。整合確認部45bは、プローブ50のティップを中心とし、ティップと繋げる特定方向の延長線を姿勢の軸とし、当該軸の視点で見た3Dモデル10aの一部領域上にプローブ50のティップの位置を形状化して整合確認情報として生成する。したがって、プローブ50のティップの位置や姿勢の変化に対応して、整合確認情報の画像が表示される視点と領域を変化させて表現する。すなわち、プローブ50のティップを手術対象物10、11の表面で滑るように働きながらプローブ50のティップの位置と姿勢が変更されると、R1に表示される整合確認情報の第1の画像はプローブ50のティップの位置/姿勢の変化に対応して3Dモデル10aの位置と姿勢が相対的に変更されて表示されるので、ユーザはプローブ50のティップで手術対象物10、11の表面を掻き取りながら3Dモデル10aの相対的な関係を直観的にリアルタイムで確認することができる。
図4を再び参照すると、Aはプローブ50のティップの位置を形状化した3DグラフィックアイコンAを示す図であり、ユーザは3DグラフィックアイコンAを介して現在のプローブ50のティップが手術対象物10、11の3Dモデル10a上でどこに位置しているかがわかられる。ここで、プローブ50のティップの位置を形状化した3DグラフィックアイコンAは、単にプローブ50のティップの位置を表現するのではなく、それ自体が3Dモデル10aとの相対的な位置関係を示す。
このために、プローブ50のティップの位置を形状化した3DグラフィックアイコンAは、プローブ50のティップの位置を原点とする互いに異なる半径を有する複数の球を形状化して、3Dモデル10aとの相対的な位置関係を表現することができる。
図5は、本発明の一実施形態に係るプローブ50のティップの位置を形状化した3DグラフィックアイコンAの一例を示す図である。図5を参照すると、プローブ50のティップを形状化した3DグラフィックアイコンAは、中心が同じで互いに異なる半径を有する2つの球A1、A2を形状化して表現することができる。図5において、A1は半径が1mmの円であり、A2は半径が2mmの円を示す。3DグラフィックアイコンA、A1、A2の原点は、プローブ50のティップすなわち、プローブ50のティップの先端が位置するポイントに対応するものであり、プローブ50のティップが手術対象物10、11の表面に触れている場合、プローブ50のティップの位置を中心で表現する球の一部領域は3Dモデル10aの内部に位置するので、3Dモデル10aの内部に入った球の一部領域は第1の画像で表示されないので、見る視点によって球の形が異なることができる。したがって、プローブ50のティップの位置を形状化した3DグラフィックアイコンAは、手術対象物10、11との位置及び姿勢関係で円が完全に見えることもでき、一部だけ見えるように表示されることもできる。このように、本発明に係る3DグラフィックアイコンAは、プローブ50のティップと3Dモデル10aの表面との相対的な位置関係に従ってその形状が変化するので、ユーザは画面を見ながらプローブ50の位置と姿勢を働きながら現在のプローブ50のティップが位置する手術対象物10、11の表面上のポイントと3Dモデル10aの形状との間の相対的な位置関係、例えば距離などを直観的にわかられる。
さらに、本発明においては、3DグラフィックアイコンAを互いに異なる半径を有する球A1、A2を重ねて表現し、それぞれの球は色を異にしたり、コントラストを異にして視覚的に区別されるように表現する。これにより、ユーザは、3DグラフィックアイコンAの形状を介してプローブ50のティップと3Dモデル10aとの間の相対的な位置関係、例えば距離や間隔を直観的にわかられる。また、ユーザは、プローブ50のティップで手術対象物10、11の表面を掻き取りながら、手術対象物10、11の特定のポイントではなく、連続した一定領域におけるプローブ50のティップすなわち、手術対象物10、11の表面と3Dモデル10aとの間の相対的な位置関係すなわち、距離や間隔を直観的に認識することができる。
図5の(a)は、プローブ50のティップが見た視点で3Dモデル10a間の相対的な位置関係で3DグラフィックアイコンAが2つの球A1、A2が100%全て見える場合であり、3Dモデル10aがプローブ50のティップより後方に位置したり、横に2mmの外に位置する場合と見ることができる。それぞれの場合とも、プローブ50のティップと3Dモデル10aとが2mm間隔以上離れていることを意味するので、整合の差が2mm以上であることを直観的に理解することができる。
図5の(b)は、プローブ50のティップが見た視点で3Dモデル10a間の相対的な位置関係で3DグラフィックアイコンAが2つの球A1、A2が50%見える場合であり、3DグラフィックアイコンAである2つの球の50%が3Dモデル10aの内部にあることを言っている。すなわち、プローブ50のティップが3Dモデル10aの表面上に位置していることが直観的にわかられる。一方、図5の(c)は、この2つの球が20%程度見える場合であり、3DグラフィックアイコンAである2つの球A1、A2の80%ほどが3Dモデル10aの内部にあるとことを言っている。すなわち、プローブ50のティップが3Dモデル10aの内部、表面から1mm以内の距離に位置していることが直観的にわかられる。図5においては、3DグラフィックアイコンAが互いに異なる半径を有する2つの球を含むものとして説明したが、3~5個で表現できることは勿論である。
図4を参照すると、本発明に係る整合確認情報を示す画像は、プローブ50のティップの位置または姿勢の変化に関係なく、3Dモデル10aに対する少なくとも1つの固定された視点を有する第2の画像が表示される第2の領域を含む。第2の画像は、3Dモデル10aに対して少なくとも1つの固定された視点における3Dモデル10aとプローブ50のティップの位置関係を示すものであり、特定の視点を有する3Dモデル10a上に3DグラフィックアイコンAが表示される。本実施形態においては、第2の画像が3Dモデル10aの2つの側面ビューを表示することを一例とする。
図4を参照すると、第1の領域に表示される第1の画像は、プローブ50の位置/姿勢に応じて表示される3Dモデル10aの表示領域と視点が変更されるが、第2の領域に表示される第2の画像は、プローブ50の位置/姿勢に関係なく、特定の視点を有する3Dモデル10aが表示される。したがって、ユーザは、2つの画像におけるプローブ50のティップの位置を形状化した3DグラフィックアイコンAの形状を比較しながら整合の度合いを直観的に認識することができる。
図4は、プローブ50が図3の位置/姿勢にあるときの整合確認情報を表現した図であり、プローブ50のティップが手術対象物10、11に向かってほぼ直角をなしており、図4の第1の画像においてはプローブ50のティップが見た視点では3Dモデル10a上に3DグラフィックアイコンAが100%露出した形態で表現されるのに比べて、第2の画像においては3Dモデル10aの視点が側面に定められた状態でプローブ50のティップが下側にあるので、3DグラフィックアイコンAで表現された球の形状が半球状に50%程度だけ見えることが確認できる。第1の画像おいては整合の度合いが正確にわからないが、第2の画像においては該当位置で手術対象物10、11と3Dモデル10aとの整合がほぼ正確に行われたと見られる。ただし、第2の画像は固定された視点を示しているので、現在のプローブ50のティップが位置するポイントが手術対象物10、11において屈曲が最も低いところであれば側面から球がほとんど見えないことができるので、第2の画像においては正確な整合の度合いがわかることは難しく、第1の画像においてプローブ50の姿勢を調整して3DグラフィックアイコンAが半球状に見える視点に調節しながら確認することがより正確である。
図6は、プローブ50のティップを図3の位置から上方に移動しながら姿勢をやや右側に回転させた状態での整合確認情報を表した図である。図4と同様に、図5の第1の画像においてはプローブ50のティップが見た視点では3Dモデル10a上に3DグラフィックアイコンAの球が100%露出された形態で表現される。それでも、プローブ50のティップの姿勢が手術対象物10、11に向かって見ているからである。ただし、第2の画像においては、3Dモデル10aの視点が側面に固定された状態であり、プローブ50のティップが下側に位置しているので、3DグラフィックアイコンAの球の形状が全体ではなく一部が表現されたが、ほぼ80%以上の露出を確認することができる。これは、現在のプローブ50のティップが屈曲が最も高いポイントにあるとしても、最小1.5mm以上の手術対象物10、11と3Dモデル10aとの間に偏差があることを直観的にわかられる。
このように、本発明に係る整合確認情報は、プローブ50のティップの位置を、半径の異なる複数の球を形状化して表現することにより、ユーザがプローブ50のティップの姿勢を変えながら3Dモデル10a上で表現される3DグラフィックアイコンAの形状と形態を介してプローブ50のティップが指す手術対象物10、11のポイントが3Dモデル10aとほぼある程度間隔で位置するかを直観的にわかられる。また、プローブ50の位置/姿勢の変化に応じて3Dモデル10aの視点と位置に対応して表示することにより、プローブ50のティップで手術対象物10、11の表面を掻き取りながら確認を望む領域の整合の度合いを易く確認することができる。これにより、手術対象物10、11においてある部位が正しく整合が行われていないのか、整合の偏差程度を直観的にわかられる。
整合確認部45bは、整合の結果を定量的に算出し、この値を整合確認情報に含めて表示することができる。一例として、整合確認部45bは、整合の結果に関する適合度評価値で整合のために取得した手術対象物10、11上の複数のポイントとそれに対応する3Dモデル10a上のポイントと間の距離の偏差に関する平均二乗誤差(RMSE; Root Mean Square(d)Error)を算出することができる。図4を参照すると、RMSE値が第3の領域に表示されていることがわかられる。ユーザーはこの値を使用して整合適合度を数値的に確認できる。
図7は、本発明の一実施形態に係る整合確認部45bが整合適合度を算出する方法を説明するための図である。図7において、淡い灰色のポイントPiRは整合のための手術対象物10、11で取得したポイントを意味し、黒色のポイントPisurfは3Dモデル10a上で各整合ポイントに最も近いポイントを表現したものである。
整合確認部45bは、整合のために取得した整合ポイントと3Dモデル10a上で整合ポイントに最も近いポイントとの間の偏差を以下の式により算出する。
Figure 2023513566000003
ここで、P は整合のための手術対象物10、11で取得したポイントであり、P surfは3Dモデル10a上で各整合ポイントに最も近いポイントであり、Nはポイントの個数を意味する。
図4おいては、RMSE値として0.171が算出されたことを確認することができる。
一方、整合確認部45bは、整合の結果として現在のプローブ50のティップの位置とランドマークポイントLPとの間の距離を算出し、これを整合確認情報として生成することができる。図4を参照すると、第2の画像において灰色で表現されたポイントLPがランドマークポイントLPであり、現在のプローブ50のティップの位置とランドマーク点LPとの間の距離値は第4の領域に28.80mmと表示されている。この値は、プローブ50のティップの位置が変更するにつれて対応するように変更される。
図8はプローブ50のティップをランドマークポイントLPに移動した場合であり、図9はこれに対応する整合確認情報を表現した図である。第1の画像と第2の画像において3DグラフィックアイコンAはランドマークポイントLPと重なって表現され、第4の領域においてはランドマークポイントLPとプローブ50のティップとの間の距離が0.51mmであると算出されたことを示している。第1の画像においては、プローブ50の姿勢に対応して3DグラフィックアイコンAが半円形を呈しており、当該ポイントで整合適合度が高いことを直観的にもわかられる。他の例として、ランドマークポイントLPとの距離の代わりに、プローブ50の移動に対応するプローブ50のティップが位置するポイントと、それに対応する最も近い3Dモデル10a上のポイントとの間の距離を算出して表示することができる。この場合、該当値により該当ポイントでの整合適合度を易く確認することができる。
このように、本発明に係ると、整合適合度を定量的な数値以外に視覚的に表現することにより、ユーザが直観的に整合の度合いを易くわかられる。
図10は、本発明の一実施形態に係る整合確認装置40を用いた手術対象物10、11の整合確認方法に関するフローチャートである。上記実施形態と重複する説明は、必要に応じて省略する。
図10を参照すると、まず、手術対象物10、11に関する撮影画像などに基づいて手術対象物10、11に関する3Dモデル10aを生成する(ステップS10)。3Dモデル10aはメモリ部44に格納される。整合確認装置40は、追跡器30を介して取得された手術対象物10、11と、手術対象物10、11に取り付けられた対象物マーカ21の位置及び姿勢情報を受信する(ステップS11)。手術対象物10、11の位置/姿勢情報は様々な方法によって取得することができるが、本発明の一実施形態においてはプローブ50を使用して取得することを一例とする。
対象物整合部45aは、追跡器30を介して受信したプローブ50と、手術対象物10,11に取り付けられた対象物マーカ21の位置及び姿勢情報に基づいて、手術対象物10,11と、対象物マーカ20、21との間の位置及び姿勢に関する相関関係を導出することにより、3Dモデル10aとの整合を行う(ステップS12)。このとき、予め設定された複数のポイントをプローブ50に指示することにより整合手順を行う。
整合が完了すると、整合確認部45bは、整合の結果に関する整合確認情報を生成して、これを表示部43を介して表示する。一方、追跡器30は、手術対象物10、11の表面に沿って働くプローブ50のティップの位置/姿勢を追跡して整合確認装置40に伝送している(ステップS13)。整合確認部45bは、追跡したプローブ50のティップの位置と3Dモデル10aとの相対的な位置関係を示す3DグラフィックアイコンAを含む整合確認情報を生成する(ステップS14)。また、整合確認部45bは、整合の結果を定量的に算出し、これを整合確認情報に含めて生成することができる(ステップS14)。
整合確認部45bを介して生成された整合確認情報は、表示部43に表示される(ステップS15)。ユーザは、半径が異なる複数の重なった球として表現された3DグラフィックアイコンAの形状と形態を介して、プローブ50のティップの位置と3Dモデル10aとの相対的な位置関係を直観的に認識することができる。
また、プローブ50の位置と姿勢を変えながら手術対象物10、11の1つのポイントではなく一連の領域を掻き取りながら、3DグラフィックアイコンAの形状と形態を確認しながら、整合が適合するかどうかを確認することができる。
もし、整合確認手順が完了すると(ステップS16)、再整合が必要かどうかを判断する。定量的に算出された値が一定の基準値を満たさない場合には、画像整合装置が再整合が必要な領域に対して再び整合を行うように強制することもでき、プローブ50を掻き取りながら確認した各ポイントの整合の度合いが低いと判断された場合、ユーザは再整合を行うように要求できる(ステップS17)。この場合、最初から整合を再び行うことができ、再整合が必要な領域に対応するビューのみを再び整合を行うようにすることができる。
以上、本発明の実施形態を構成する全ての構成要素が一つに結合又は結合して動作するものとして説明されたが、本発明が必ずしもこの実施形態に限定されるものではない。すなわち、本発明の目的の範囲内であれば、その全ての構成要素が1つ以上に選択的に結合して動作することができる。さらに、その全ての構成要素をそれぞれ1つの独立したハードウェアで具現することができるが、各構成要素の一部または全部を選択的に組み合わせて1つまたは複数のハードウェアで組み合わせた一部または全部の機能を果たすプログラムモジュールを有するコンピュータプログラムとして具現することもできる。そのコンピュータプログラムを構成するコード及びコードセグメントは、本発明の技術分野の当業者によって容易に推論され得る。そのようなコンピュータプログラムは、コンピュータ読出可能媒体(Computer Readable Media)に格納され、コンピュータによって読み取られ実行されることにより、本発明の実施形態を具現することができる。コンピュータプログラムの記憶媒体としては、磁気記録媒体、光記録媒体などを含むことができる。
なお、以上で説明した「含む」、「構成する」または「有する」などの用語は、特に反対の記載がない限り、当該構成要素が内在できることを意味するものであるので、他の構成要素を除くことではなく、他の構成要素をさらに含むことができると解釈されるべきである。技術的かつ科学的な用語を含むすべての用語は異なるように定義されない限り、本発明が属する技術分野で通常の知識を有する者によって一般に理解されるのと同じ意味を有する。辞典に定義された用語のように一般的に使用される用語は、関連技術の文脈上の意味と一致すると解釈されるべきであり、本発明において明確に定義しない限り、理想的かつ過度に形式的な意味として解釈されるべきではない。
以上の説明は、本発明の技術思想を例示的に説明したことに過ぎず、本発明が属する技術分野で通常の知識を有する者であれば、本発明の本質的な特性から逸脱しない範囲で様々な修正及び変形が可能である。したがって、本発明に開示された実施形態は、本発明の技術思想を限定するものではなく説明するためのものであり、このような実施形態によって本発明の技術思想の範囲が限定されるものではない。本発明の保護範囲は以下の特許請求の範囲によって解釈されるべきであり、それと同等の範囲内にある全ての技術思想は本発明の権利範囲に含まれると解釈されるべきである。

Claims (14)

  1. 手術対象物の整合確認方法において、
    前記手術対象物に関する形状情報を有する3Dモデルを設けるステップと、
    追跡器を介して前記手術対象物と前記手術対象物に取り付けられた対象物マーカとの位置及び姿勢情報を取得するステップと、
    前記手術対象物と前記対象物マーカとの間の位置及び姿勢に関する相関関係を導出して、前記3Dモデルとの整合を行うステップと、
    前記手術対象物の表面に沿って働くプローブのティップの位置及び姿勢の変化を追跡するステップと、
    前記プローブのティップの位置及び姿勢の中の少なくとも1つの変化に対応して、前記プローブのティップの位置と前記3Dモデルとの相対的な位置関係を示す3Dグラフィックアイコンを含む整合確認情報を生成して画像で表示するステップと、含むことを特徴とする手術対象物の整合確認方法。
  2. 手術対象物の整合確認方法において、
    追跡器を介して取得される前記手術対象物と前記手術対象物に取り付けられた対象物マーカとの位置及び姿勢情報を受信するステップと、
    前記手術対象物と前記対象物マーカとの間の位置及び姿勢に関する相関関係を導出して、前記手術対象物に関する3Dモデルとの整合を行うステップと、
    前記追跡器を介して取得される前記手術対象物の表面に沿って働くプローブのティップの位置及び姿勢情報を受信するステップと、
    前記プローブのティップの位置及び姿勢情報の変化に基づいて、前記プローブのティップの位置と前記3Dモデルとの相対的な位置関係を示す3Dグラフィックアイコンを含む整合確認情報を生成して画像で表示するステップと、を含むことを特徴とする手術対象物の整合確認方法。
  3. 前記整合確認情報を生成して画像で表示するステップは、
    前記プローブのティップの位置を原点とする互いに異なる半径を有する複数の球を形状化し、前記3Dグラフィックアイコンで生成して前記3Dモデル上に表現することを特徴とする請求項1または2に記載の手術対象物の整合確認方法。
  4. 前記整合確認情報を生成して画像で表示するステップは、
    前記プローブのティップの位置と前記3Dモデルの表面との相対的な位置関係を示すように前記3Dグラフィックアイコンの形状を変化させることを特徴とする請求項1または2に記載の手術対象物の整合確認方法。
  5. 前記整合確認情報を生成して画像で表示するステップは、
    前記プローブのティップの位置または姿勢の変化に対応して前記画像の視点を変化させて表示することを特徴とする請求項1または2に記載の手術対象物の整合確認方法。
  6. 前記整合確認情報を表示する前記画像は、
    前記プローブのティップの位置または姿勢の変化に対応して前記3Dモデルに対する視点が可変される第1の画像が表示される第1の領域と、前記3Dモデルに対する少なくとも1つの固定された視点を有する第1の画像が表示される第1の領域を含むことを特徴とする請求項3に記載の手術対象物の整合確認方法。
  7. 前記複数の球は、互いに視覚的に区別されるように表現されることを特徴とする請求項3に記載の手術対象物の整合確認方法。
  8. 前記整合の結果を定量的に算出して表示するステップをさらに含み、
    前記整合の結果を定量的に算出して表示するステップは、
    整合のために取得した前記手術対象物上の複数のポイントとそれに対応する前記3Dモデル上のポイントとの間の距離の偏差を算出して表示するステップと、
    前記プローブの移動に対応する前記プローブのティップが位置するポイントと前記3Dモデル上のランドマークポイントとの間の距離を算出して表示するステップと、
    前記プローブの移動に対応する前記プローブのティップが位置するポイントと、それに対応する前記3Dモデル上のポイントとの間の距離を算出して表示するステップのうちの少なくとも1つを含むことを特徴とする請求項1または2に記載の手術対象物の整合確認方法。
  9. 手術対象物の整合確認装置において、
    追跡器を介して取得した前記手術対象物と、前記手術対象物に取り付けられた対象物マーカの位置及び姿勢情報を受信する信号受信部と、
    前記手術対象物と前記対象物マーカとの間の位置及び姿勢に関する相関関係を導出して、前記手術対象物に関する3Dモデルとの整合を行う対象物整合部と、
    データ入力部を介して受信する前記手術対象物の表面に沿って働くプローブのティップの位置及び姿勢情報の変化に基づいて、前記プローブのティップの位置と画像モデルとの相対的な位置関係を示す3Dグラフィックアイコンを含む整合確認情報を生成する整合確認部を含むことを特徴とする手術対象物の整合確認装置。
  10. 前記整合確認部は、前記プローブのティップの位置を原点とする互いに異なる半径を有する複数の球を形状化して、前記3Dグラフィックアイコンで生成して前記3Dモデル上に表現し、前記複数の球は互いに視覚的に区別されるように表現されることを特徴とする請求項9に記載の手術対象物の整合確認装置。
  11. 前記整合確認部は、前記3Dモデルに対する少なくとも1つの固定された視点を有する第1の画像と、前記プローブのティップの位置または姿勢の変化に対応して画像の視点が可変される第2の画像がそれぞれ別の領域に表現されるように前記整合確認情報を生成することを特徴とする請求項10に記載の手術対象物の整合確認装置。
  12. 手術対象物に取り付けられた対象物マーカ及びプローブの位置と姿勢を追跡するための追跡器と、
    手術前に取得した手術対象物に関する形状情報を有する3Dモデルを格納するメモリ部と、
    前記手術対象物に取り付けられた前記対象物マーカと前記手術対象物との間の位置及び姿勢に関する相関関係を導出して前記3Dモデルとの整合を行う対象物整合部と、
    前記追跡器によって取得した前記手術対象物の表面に沿って働くプローブのティップの位置及び姿勢情報に基づいて、前記プローブのティップの位置と画像モデルとの相対的な位置関係を示す3Dグラフィックアイコンを含む整合確認情報を生成する整合確認部と、
    前記整合確認情報を画像で表示する表示部を含むことを特徴とする手術対象物の整合確認システム。
  13. 前記整合確認部は、前記プローブのティップの位置を原点とする互いに異なる半径を有する複数の球を形状化して、前記3Dグラフィックアイコンで生成して前記3Dモデル上に表現し、前記複数の球は互いに視覚的に区別されるように表現されることを特徴とする請求項12に記載の手術対象物の整合確認システム。
  14. 前記整合確認部は、前記3Dモデルに対する少なくとも1つの固定された視点を有する第1の画像と、前記プローブのティップの位置または姿勢の変化に対応して画像の視点が可変される第2の画像がそれぞれ別の領域に表現されるように前記整合確認情報を生成することを特徴とする請求項12に記載の手術対象物の整合確認システム。
JP2022548603A 2020-02-12 2021-01-27 手術対象物の整合確認方法、その装置及びそれを含むシステム Active JP7460201B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020200017019A KR102301863B1 (ko) 2020-02-12 2020-02-12 수술 대상체의 정합 확인방법, 그 장치 및 이를 포함하는 시스템
KR10-2020-0017019 2020-02-12
PCT/KR2021/001087 WO2021162287A1 (ko) 2020-02-12 2021-01-27 수술 대상체의 정합 확인방법, 그 장치 및 이를 포함하는 시스템

Publications (2)

Publication Number Publication Date
JP2023513566A true JP2023513566A (ja) 2023-03-31
JP7460201B2 JP7460201B2 (ja) 2024-04-02

Family

ID=77291588

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022548603A Active JP7460201B2 (ja) 2020-02-12 2021-01-27 手術対象物の整合確認方法、その装置及びそれを含むシステム

Country Status (6)

Country Link
US (1) US11806091B2 (ja)
EP (1) EP4104788A4 (ja)
JP (1) JP7460201B2 (ja)
KR (1) KR102301863B1 (ja)
CN (1) CN115087409A (ja)
WO (1) WO2021162287A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11832897B2 (en) * 2021-07-30 2023-12-05 Remex Medical Corp. Method and system for surgical navigation
CN115229806B (zh) * 2022-09-21 2023-03-03 杭州三坛医疗科技有限公司 一种机械臂控制方法、装置、系统、设备及存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2816200A1 (fr) * 2000-11-06 2002-05-10 Praxim Determination de la position d'une prothese du genou
EP1617779A1 (en) * 2003-04-28 2006-01-25 BRACCO IMAGING S.p.A. Surgical navigation imaging system
CA2556082A1 (en) * 2004-03-12 2005-09-29 Bracco Imaging S.P.A. Accuracy evaluation of video-based augmented reality enhanced surgical navigation systems
US8515527B2 (en) 2004-10-13 2013-08-20 General Electric Company Method and apparatus for registering 3D models of anatomical regions of a heart and a tracking system with projection images of an interventional fluoroscopic system
EP2939215B1 (en) 2012-09-18 2020-12-02 Think Surgical, Inc. System and method for creating a three-dimensional bone model
US10470838B2 (en) * 2012-12-21 2019-11-12 Mako Surgical Corp. Surgical system for spatial registration verification of anatomical region
KR101594989B1 (ko) 2014-05-30 2016-02-18 큐렉소 주식회사 조직 위치 정합 방법 및 이를 이용하는 장치
KR101655309B1 (ko) * 2015-03-09 2016-09-08 한국과학기술연구원 전방십자인대 재건술을 위한 컴퓨터 내비게이션 방법
US10905496B2 (en) 2015-11-16 2021-02-02 Think Surgical, Inc. Method for confirming registration of tracked bones
US10485450B2 (en) 2016-08-30 2019-11-26 Mako Surgical Corp. Systems and methods for intra-operative pelvic registration
US11839433B2 (en) * 2016-09-22 2023-12-12 Medtronic Navigation, Inc. System for guided procedures
US11413095B2 (en) * 2017-11-03 2022-08-16 Intellijoint Surgical Inc. System and method for surgical planning
KR102274167B1 (ko) * 2019-09-05 2021-07-12 큐렉소 주식회사 로봇의 위치 가이드 장치, 이의 방법 및 이를 포함하는 시스템

Also Published As

Publication number Publication date
KR102301863B1 (ko) 2021-09-16
WO2021162287A1 (ko) 2021-08-19
CN115087409A (zh) 2022-09-20
US20230076292A1 (en) 2023-03-09
US11806091B2 (en) 2023-11-07
EP4104788A4 (en) 2024-03-06
KR20210103028A (ko) 2021-08-23
JP7460201B2 (ja) 2024-04-02
EP4104788A1 (en) 2022-12-21

Similar Documents

Publication Publication Date Title
Harders et al. Calibration, registration, and synchronization for high precision augmented reality haptics
EP2153794B1 (en) System for and method of visualizing an interior of a body
US10881353B2 (en) Machine-guided imaging techniques
US10470838B2 (en) Surgical system for spatial registration verification of anatomical region
Andrews et al. Registration techniques for clinical applications of three-dimensional augmented reality devices
US20090306499A1 (en) Self-detecting kinematic clamp assembly
JP7460201B2 (ja) 手術対象物の整合確認方法、その装置及びそれを含むシステム
Wen et al. In situ spatial AR surgical planning using projector-Kinect system
US20200077924A1 (en) System and method to register anatomy without a probe
AU2020404991B2 (en) Surgical guidance for surgical tools
US11701189B2 (en) Device for providing joint replacement robotic surgery information and method for providing same
JP7341567B2 (ja) ロボットの位置ガイド装置、及びそれを含むシステム
AU2021267483A1 (en) Mixed reality-based screw trajectory guidance
US8942785B2 (en) Selectable orientation bent tip calibration-free probe
WO2021221749A1 (en) Mixed-reality humeral-head sizing and placement
JP2022526540A (ja) 整形外科的固定制御及び可視化
US11893737B2 (en) Hinge detection for orthopedic fixation
US20230074630A1 (en) Surgical systems and methods for positioning objects using augmented reality navigation
US20230355317A1 (en) Method for confirming registration of tracked bones
WO2024067753A1 (zh) 一种配准方法、配准系统、导航信息确定方法和导航系统
Doan et al. Development of augmented reality technology for surgical resection accuracy via improved visualization
WO2023034147A1 (en) Using mixed-reality hardware for range of motion estimation during robot-assisted orthopedic surgery
WO2023133369A1 (en) Fast, dynamic registration with augmented reality
CN116490126A (zh) 运动评估仪
CN115957003A (zh) 一种基于增强现实的关节骨骼选点配准方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240313

R150 Certificate of patent or registration of utility model

Ref document number: 7460201

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150