JP2021519186A - 手術室内の移動する物体の監視 - Google Patents

手術室内の移動する物体の監視 Download PDF

Info

Publication number
JP2021519186A
JP2021519186A JP2020552890A JP2020552890A JP2021519186A JP 2021519186 A JP2021519186 A JP 2021519186A JP 2020552890 A JP2020552890 A JP 2020552890A JP 2020552890 A JP2020552890 A JP 2020552890A JP 2021519186 A JP2021519186 A JP 2021519186A
Authority
JP
Japan
Prior art keywords
image information
tracking device
processing unit
objects
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020552890A
Other languages
English (en)
Inventor
ロナルドゥス フレデリック ヨハネス ホルトフイゼン
ロナルドゥス フレデリック ヨハネス ホルトフイゼン
ヨハン ジュリアナ ドリエス
ヨハン ジュリアナ ドリエス
ロバート ヨハネス フレデリク ホーマン
ロバート ヨハネス フレデリク ホーマン
デ ギーセン マリヌス ファン
デ ギーセン マリヌス ファン
エドワード フュールバーグ
エドワード フュールバーグ
ベルナルドス ヘンドリクス ウィルヘルムス ヘンドリクス
ベルナルドス ヘンドリクス ウィルヘルムス ヘンドリクス
ヤーリッヒ ウィレム スプライトフ
ヤーリッヒ ウィレム スプライトフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2021519186A publication Critical patent/JP2021519186A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2074Interface software
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/368Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • A61B2090/3945Active visible markers, e.g. light emitting diodes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Robotics (AREA)
  • Gynecology & Obstetrics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

主追跡デバイス及び処理ユニットを備えるシステムが提案される。主追跡デバイスは、複数の光源及び複数の光検出器を含む。光パルスに基づいて、主追跡デバイスは、室内の複数の物体の現在の3D位置を決定するように構成されている。処理ユニットは、互いに空間的に関係付けられた、物体の画像情報の視覚化を生成するように、各物体の画像情報を位置情報と共に処理するように構成されている。

Description

本発明は、一般に、介入中の医師の補助の態様に関する。さらに、本発明は、医師が介入を実施するのを助ける視覚化を可能にするシステムに関する。特に、本発明は、物体の動きが手術室内に存在することを考慮に入れて視覚化を可能にする追跡システムに関する。
ますます多くの外科手技が、低侵襲的に実施されるようになっている。最近2〜3年の間に、執刀医にとっての使いやすさ及び得られる正確さを改善するために、様々なソリューションが開発されている。これらのソリューションは、(術前)CT又はMRI画像の見当合わせと組み合わされた患者及び/又はデバイスの追跡を可能にする。
例えば、光学カメラが、X線システム上の検出器又は手術灯内に組み込まれる。このソリューションは、手術ナビゲーションと、2D及び3Dの両方のX線イメージングの使いやすい統合を可能にする。手術計画経路が、手術の前又は最中に作成される。ユーザは、仮想経路及び3Dデータの視覚化がリアルタイム光学画像に投影されることに起因して、手術器具をより容易に位置合わせすることができる。マーカを有する手術器具を、デバイス追跡によって追跡することができ、患者上のマーカが使用されて、患者の動きが補償される。
視覚化を物体の位置変化に対応させるように、手術室内の複数の異なる物体に関係付けられる位置情報を統合することを可能にするシステムを提供することが目的として理解されるだろう。
これは、それぞれの独立請求項の各々の主題によって達成される。さらなる実施形態が、それぞれの従属請求項に記載されている。
一般に、一実施形態によるシステムは、主追跡デバイス及び処理ユニットを備える。主追跡デバイスは、複数の光源及び複数の光検出器を含み、光源の各々は、光パルスを放出するように構成されており、光検出器の各々は、光パルスを検出するように構成されている。そのような光パルスに基づいて、主追跡デバイスは、手術室内の複数の物体の現在の3D位置を決定するように構成されている。
処理ユニットは、例えばデータベースから、主追跡デバイスによって追跡されている物体の各々の画像情報を受信するように構成されている。処理ユニットは、主追跡デバイスから、物体の3D位置情報を受信するようにさらに構成されている。複数の3D位置に基づいて、物体の向きも決定される。最後に、処理ユニットは、第2の物体の画像情報に空間的に関係付けられた、第1の物体の画像情報の視覚化を生成するように構成されている。一例として、第1の物体は患者であり、第2の物体は介入器具である。さらなる例として、物体の画像情報は、物体の視覚的表現又は物体によって生成される画像である。
一実施形態によれば、光源は、手術室内で、例えば、手術室の壁及び/又は天井に固定的に配置され、光検出器は、それぞれ物体に配置される。代替的に、光検出器が手術室内に固定的に配置されてもよく、光源が、その部屋の中の移動する物体に取り付けられてもよい。光源と光検出器の両方が固定的に配置されること、及び、手術室内でそれらの位置を変化させる物体に光反射器が配置されることも企図される。最後に、特に、3つ以上の物体が追跡されるときに、これらのすべての配置の任意の組み合わせも可能であることに言及しておく。
一実施形態によれば、システムは、1つ又は複数のイメージングデバイスを備える。イメージングデバイスは、例えば患者の内部のリアルタイム画像を生成するように適合される。イメージングデバイスは、2D X線イメージングデバイス、3Dコンピュータ断層撮影デバイス、磁気共鳴イメージングデバイス、超音波デバイス、ハイパースペクトルビデオカメラ又はハイパースペクトルイメージングデバイスである。システム内のそのようなイメージングデバイスによって、処理ユニットは、データベースに記憶されている以前に生成された画像を処理するだけでなく、リアルタイムに生成される画像も処理する。少なくとも2つのリアルタイムに生成される画像、又は、リアルタイミに生成され記憶される画像、又は、2つ以上の記憶されている画像が互いに見当合わせされ、したがって合成されて表示されることが理解されよう。
一実施形態によれば、システムは、システムの処理ユニットによって生成される視覚化を表示するためのディスプレイデバイスを含む。第1の例として、ディスプレイデバイスはモニタであり、モニタは、手術室内で、例えば手術室の天井に取り付けられた支持アーム上に可動に配置され、又は、床置きデバイスに位置される。別の例によれば、ディスプレイデバイスは、透明又は少なくとも半透明なディスプレイデバイスである。透明ディスプレイデバイスは、例えば、執刀医がそのディスプレイデバイスを透過して手術野を見ながら、自身の視野内に視覚化された、意図される介入の実施を助ける情報を確認することを可能にする。透明ディスプレイデバイスは、眼鏡に組み込まれてもよいが、また、執刀医が、モニタ上の情報とモニタの下にある器具を持った手及び患者の両方を確認するように、透明モニタの上を見、モニタを透過して見ることができるように、執刀医の頭部と手との間に位置決めすることができるフラットモニタであってもよい。さらなる例として、ディスプレイデバイスは、画像情報をデバイス又は患者の表面に投影する投影デバイスであってもよい。代替的に又は付加的に、投影デバイスは、情報を目の網膜に直接的に投影してもよい。
一実施形態によれば、患者の画像情報は、2D X線画像データ、3D CT画像データ、3D MRI画像データ、超音波画像データ、及び/又はビデオ画像データを含む。患者の画像情報は、以前に、例えば診断プロセス中に及び/若しくは介入の計画のために生成及び記憶されているか、又は、処理ユニットによって目下リアルタイムに生成及び処理されていることに留意されたい。
また別の実施形態によれば、システムの処理ユニットは、1つの物体の現在の3D位置とその物体の意図される3D位置との間の空間的逸脱を決定し、その逸脱の指示を例えばディスプレイデバイス上に生成するように構成されている。例えば、患者に対して特定の位置にX線システムを配置することが意図されるが、主追跡デバイスによって検出されるものとしてのX線システムの現在位置は、その意図される位置とは異なる。そのような場合に、上記指示が生成される。最初に、指示は、単純に、現在位置が意図される位置でないことを示す警告である。さらに、指示は、現在位置が意図される位置からどのように、及び、どの程度離れているかという情報を含む。最後に、X線システムは、現在位置から意図される位置へと移動するように、自動的に制御されることが企図される。そのような指示はまた、手術室内の任意の他の物体又は任意の複数の物体について与えられてもよいことが理解されよう。
主追跡デバイスによって追跡されるのはシステムの要素に限らないことが理解されよう。事実、手術室内に存在する各物体が、主追跡デバイスによって追跡される。例えば、あらゆる介入デバイス、イメージングデバイスのすべての部品、1つ又は複数のディスプレイデバイス、さらには補助追跡デバイス、手術灯、及び手術台が、主追跡デバイスによって追跡される。最後に、患者又は医師/執刀医のような人も、主追跡デバイスによって追跡することができる。例えば、X線システムが自動的に動かされる場合、主追跡デバイスは、X線システムが動く空間内の他の物体が、移動しているX線システムと任意の他の物体との間の任意の衝突を妨げないことを保証する。
さらなる実施形態によれば、システムは、補助追跡デバイスをさらに備える。補助追跡デバイスは、ビデオ追跡デバイス、電磁追跡デバイス、無線周波数追跡デバイスであってもよく、光学形状検知及び/又は微小電気機械センサ(MEMS)を含んでもよい。X線デバイス又はビデオカメラも、追跡を目的として利用される。追跡デバイスの視野がいくらか制約されていると仮定すると、少なくとも手術室内の特定の要素又は物体を追跡するための補助追跡デバイスを有することが有利である。
別の態様によれば、上述したようなシステムの処理ユニット上で作動するように構成されているソフトウェアプログラム製品が提供される。ソフトウェアプログラム製品は、処理ユニットに、1つの物体の3D位置情報を画像情報と組み合わせさせる命令のセットを含み、処理ユニットは、主追跡デバイスから、物体の3D位置情報を受信し、データベース又はライブイメージングデバイスから物体を表す画像情報を受信する。同じことが、任意のさらなる物体に当てはまる。ソフトウェアプログラム製品は、処理ユニットに、主追跡デバイスから、第2の物体又は任意のさらなる物体の3D位置情報を受信し、その物体を表す画像情報を受信させる命令のセットを含む。最後に、ソフトウェアプログラム製品は、処理ユニットに、第2の物体又はさらなる物体の画像情報に空間的に関係付けられた、第1の物体の画像情報の視覚化を生成させ、各物体の画像情報は、その現在の3D位置に示される。
一実施形態によれば、ソフトウェア製品は、処理ユニットに、主追跡デバイスによって追跡されるべき物体を選択させ、利用可能な画像情報から各物体の画像情報を選択させる命令のセットをさらに含む。一方において、任意の衝突を回避するように、移動している各物体が、主追跡デバイスによって自動的に追跡される。言い換えれば、ソフトウェアプログラム製品は、処理ユニットに、追跡されている物体の許容できない交差の可能性がある場合に警告出力を生成させる命令のセットを含む。
他方、執刀医のようなユーザは、追跡されるべき物体を識別する入力を処理ユニットに提供する。そのような入力は、例えば、キーボード、タッチパッド、コンピュータマウス、タッチスクリーン、音声コマンド、又はジェスチャを介して任意の既知の手法で提供されることが理解されよう。
任意のイメージングデバイスを含む実施形態において、ソフトウェアプログラム製品は、処理ユニットに、物体のライブ画像情報を受信させ、ライブ画像情報を含む視覚化を生成させる命令のセットをさらに含む。
対応するコンピュータプログラム製品が好ましくは、処理ユニットの作業メモリにロードされる。したがって、処理ユニットは、本明細書に記載されている手技段階の少なくとも一部を実行するように装備されている。さらに、本発明は、コンピュータプログラム製品が記憶されるCD−ROMなどのコンピュータ可読媒体に関する。しかしながら、コンピュータプログラム製品はまた、ワールドワイドウェブのようなネットワークを介して提示されてもよく、そのようなネットワークから処理ユニットの作業メモリにダウンロードすることができる。
また別の態様によれば、上述したシステムを使用する方法が提供される。方法は、主追跡システムによって、光パルスの放出及び検出に基づいて第1の物体の3D位置を決定するステップと、主追跡システムによって、光パルスの放出及び検出に基づいてさらなる物体の3D位置を決定するステップと、第1の物体及び第2の/さらなる物体の画像情報を受信するステップと、第2の物体の画像上に空間的に関係付けられた、第1の物体の画像情報を含む視覚化を生成するステップとを含む。
さらなる実施形態によれば、方法は、手術によってヒト又は動物の身体を処置する一切のステップを含まない。例えば、方法は、介入デバイスを患者に挿入するステップを含まない。視覚化はリアルタイムに、外科手技と並行して生成されるが、方法は、組織へのいかなる切開のステップも含まず、例えば腫瘍組織など、組織を切除するいかなるステップも含まない。
実施形態は、複数の異なる主題を参照して説明されていることに留意されたい。特に、いくつかの実施形態は、方法タイプの請求項(コンピュータプログラム)を参照して説明されており、一方、他の実施形態は、装置タイプの請求項(システム)を参照して説明されている。しかしながら、当業者は、上記及び以下の説明から、他のことが注記されない限り、1つのタイプの主題に属する特徴の任意の組み合わせに加えて、異なる主題に関係する特徴間の任意の組み合わせも、本出願によって開示されると考えられると推測することになる。
本発明の上記で規定された態様並びにさらなる態様、特徴及び利点も、以下に記載される実施形態の例から導出され、実施形態の例を参照しながら説明される。本発明は、実施形態の例を参照しながら以下により詳細に説明されるが、本発明はそれに限定されない。
一実施形態による手術室内のシステムを示す図である。 一実施形態による主追跡デバイスの光源を示す図である。 一実施形態による主追跡デバイスの光検出器を示す図である。 一実施形態による方法のステップを示す流れ図である。
図面の図解は概略にすぎず、原寸に比例しない。適切な場合、異なる図面において、同様の要素には同じ参照符号が与えられていることに留意されたい。
図1は、手術室において使用されるシステムの一実施形態を示す。この実施形態によるシステムは、2つの光源10及びいくつかの光検出器12を有する主追跡システムを含む。図1に見られるように、光検出器12は、手術室内のおおよそすべての可動要素に配置される。例えば、光検出器12は、手術灯70、CアームベースのX線デバイス30、又は、可動支持アーム上に取り付けられるモニタ40に配置される。図1のシステムは、ビデオカメラ38、ハンドピース36を有する超音波デバイス、補助追跡デバイス50、及び、入力デバイス22を有する処理ユニット20をさらに含む。システムは、同じく追跡される可動ロボットアームのようなさらなる要素(図示せず)を含んでもよいことに留意されたい。医師92は、その手術室内で作業し、自身の周囲のすべての部分を意識していなければならない。患者90は、手術台80によって支持される。
図1に見られるように、患者90上にさえ、主追跡システムの検出器12が配置される。図2及び図3において、光源10及び光検出器12の実施例が示されている。図2の実施形態による光源10は、1つ又は複数のフラッシュライト10.1及び回転可能要素10.2を備える。図3による光検出器は、受光素子12.1、及び、補助追跡デバイスによって追跡可能である要素12.2を含む。
手術時、主追跡システムは、手術室内部に配置され、例えば赤外光など、可視光の外部の波長を有する光で部屋を満たす。これらの信号から、手術室内の任意の物体の空間位置を、三角測量によって識別することができる。着想は、角度を測定する代わりに、主追跡デバイスが、例えば回転ミラーなど、光源10の内部の要素10.2から光ビームを放出することである。回転速度は極めて一定に維持しなければならず、したがって、時間差を測定することができる。光フラッシュが同期に使用され、その光フラッシュは、LEDフラッシュライトであってもよい発光体10.1から放出される。同期のためのフラッシュの後、2つのビームが手術室にわたってX方向及びY方向に掃引し、このビームは、光源10の要素10.2から放出される。フラッシュと掃引との間の時間差に基づいて、マイクロコントローラが、光検出器、すなわち、例えば光検出器12の受光素子12.1の各々の位置を計算する。ネットワーク通信、集中型サーバ、又は他の何物も必要ではない。掃引の単純な受動的検出でほぼ事足りる。
主追跡システムは、5mの距離において5cm以内、好ましくは1cm以内、最も好ましくは1mm以内、すなわち、最も好ましくは200マイクロラジアン以内の角度の物体を検出する。言い換えれば、物体は、腕の長さにおいて差し出された1枚のタイプ用紙の幅に対する角度以内で検出することができる。特定の波長範囲内の光を使用するとき、患者の皮膚の下の光を検出することも可能である。可視スペクトルの外部又は少なくとも部分的に赤色光スペクトル内の光スペクトルが適切である。すなわち、光検出器又は発光体は、埋め込み可能であり、又は、患者の身体内に、少なくとも外皮の下数ミリメートルまで一時的に挿入されるように構成されている器具の一部分にある。
レーザ掃引を放出するミラーを有する回転シリンダが、60Hzの周波数で回転する。したがって、1サイクルの測定時間は48MHz以内であり、これはマイクロコントローラの通常周波数以内である。回転ミラー(例えば要素10.2)が一定の速度で回転することが保証されるべきである。その回転速度がより一定になるほど、測定精度が高くなる。
図1に戻ると、矢印によって示すようないくつかの方向に回転する、X線源32及びX線検出器34を有するCアームベースのX線デバイス30が示されている。さらに、X線デバイスは、例えば静止位置から手術台までの任意の経路に沿って又は手術台に沿って、手術室の床の上で動くように適合される。この実施形態において、ビデオカメラ38がX線検出器34に取り付けられ、そのビデオカメラは、患者90の表面を観察するために使用される。ビデオカメラ信号は、手術野をイメージングするために、及び/又は、補助追跡デバイスとして使用される。例えば、ビデオカメラの画像は、物体の向きを識別するために使用され、その物体の3D位置は、主追跡デバイスによって決定される。X線デバイスによってX線画像が生成されるのと並行して、ビデオ画像が生成される。介入器具60にも光検出器12が設けられ、結果、主追跡システムは、器具の三次元位置を検出する。
図1のシステムの実施形態において、補助追跡デバイス50及び手術灯70はそれぞれ、例えば、可動支持アームによって手術室の天井に取り付けられる。主追跡デバイス及び補助追跡デバイスに加えて、要素の位置及び/又は向きに関する情報が、1つのデバイスの要素の互いに対する相対位置の検出を可能にするか、又は、加速若しくは動きを検出する、例えば微小電気機械センサ(MEMS)などのセンサから受信される。例えば、X線デバイス30は、X線デバイスの基部に対するCアームの、並びに、結果としてX線源32及びX線検出器の(デバイスの寸法が既知であることを条件として)現在位置決定することを可能にするセンサを有する。他方、手術台80もまた、支持台が例えば患者90の長手方向において手術室内の他のシステムに対して可動である場合、支持板の高さ、及び、場合によってはまた手術台のスタンドに対する支持板の位置も識別するセンサを備える。
主追跡デバイスの第1の態様は、手術室内の可動要素が不意に衝突しないことを保証することである。すなわち、主追跡デバイスは、例えば、X線デバイス30のCアームに対する手術灯70の動きを検出し、Cアームが回転する結果として、Cアームが手術灯とが衝突する。そのような場合、手術室内のすべての要素からのすべての情報を処理する処理ユニット20は、警告を生成し、さらには、要素の任意の損傷を回避するために、X線デバイスのCアームの動きを自動的に停止させる。患者又は医師を追跡することによって、任意の事故を防止することが可能である。
システムの別の態様は、種々の画像ソースから種々の画像をリアルタイムに合成することに見られる。例えば、ビデオカメラ38又は超音波デバイス36及びX線システム30は、ライブ画像を提供し、データベース(図示せず)からさらなる画像が受信される。例えば画像のオーバーレイとしてそのような画像を合成するには、画像を互いに対して見当合わせすることが必要である。1つの実施形態において、例えば、X線画像をビデオ画像とそのように見当合わせし、合成することを可能にする要素は、患者90上に位置決めされる主追跡システムの光検出器12である。図3に示すように、光検出器12は、手術室内の患者の位置の検出を可能にする、主追跡デバイスの要素としての受光素子12.1を含む。位置の検出は、患者の胸部の呼吸運動さえもそのような検出器によって検出されるように、十分に正確である。この実施形態における検出器12の特定の形状は、同時に、X線画像におけるこの特定の形状の見当合わせを可能にする。好ましくは、検出器は、X線画像において可視である放射線不透過性材料から形成される。患者90における検出器12は、ビデオカメラ画像内でも識別される。受光素子、又は、受光素子に対して既知の空間的関係を有するイメージングマーカの位置を計算するために、セグメント化アルゴリズムが使用される。十分な受光素子がイメージングデータ内で識別される場合、受光素子に対するイメージングデータの関係を計算することができる。処理ユニット20は、患者内からのX線情報と患者90の表面画像を、これらのすべてが同期された視野角、及び、X線画像と同じスケールのビデオ画像になった状態で合成する。そのような合成画像は、コンソールにある固定モニタ、又は、図1に示すような可動モニタ40のいずれかの、モニタ40に表示することができる。
合成画像の視覚化は、医師92によって装着可能である特別な眼鏡42にも表示される。医師が眼鏡を通して患者及び手術野を見られるように、眼鏡は少なくとも半透明であることが理解されよう。同時に、それらの透明な眼鏡は、X線デバイスによってイメージングされている患者の内部構造のような情報を示す。そのような情報はまた、事前に生成され、データベースのようなストレージから受信されてもよいことが理解されよう。「拡張現実眼鏡」と呼ばれるそのような眼鏡を使用するとき、手術台又は患者に対する眼鏡の現在位置が関心事である。眼鏡42は、主追跡システムによって追跡され、したがって、手術室内の他の物体、特に患者の位置に関係付けられた眼鏡の空間位置が検出され得、したがって知られる。これによって、手術室内の医師の視野方向を識別することが可能であり、したがって、Cアームを医師の視野角に適合させることが可能であり、したがって、同じ方向から見た患者の内部構造の対応する視覚化が可能である。
以下において、図1のシステムの選択される要素によって実現される例を例示する、いくつかの特定の実施形態を論じる。
一実施形態によれば、イメージングデバイス30及び90が主追跡デバイスによって追跡され、イメージングデバイスのイメージングは、追跡情報を使用することによって改善される。例えば、可動X線システムが、手術室を通じて移動し、複数の異なる位置において患者の脚の複数のショットを撮影する。その後、これらの画像は、追跡情報を使用してともに合成される。同様に、複数の異なるイメージング方向からの複数のX線画像に基づく3D再構成がまとめられる。
可動Cアームの追跡はまた、ライブ透視データ上の術前データ又は注記のオーバーレイ、術前データオーバーレイ、術前計画オーバーレイ、及びまた、整形外科における案内も可能にする。これはまた、(電動ホイール/基部を使用して)パーク&カムバック機能も可能にする。
固定Cアーム、すなわち、Cアームの非可動基部の追跡は、場合によってはMEMSセンサ及びスマートモデリング、軽量低剛性Cアーム、又はさらには、ロードマッピング及び3D再構成を実施することができるCアームを有しないシステム(個々のアームを有する別個の線源及び検出器)を含む、較正を必要としない3Dロードマッピング及び再構成、脳卒中イメージングの改善、並びに、Cアームの自動位置決め又は自動アイソセンタリングを可能にする。
手術室内の顕微鏡、Cアーム、可動CTシステム、エコープローブ、ハイパースペクトルカメラなどの資産の追跡は衝突回避を可能にする。
受光素子又は発光ボックスを医療イメージングデバイス上の既知の位置に配置することによって、患者検出器とイメージングデバイスとの間の空間的関係を確立することができる。これによって、実際のイメージングデータ自体(例えば、X線透視法又は超音波イメージングの)内で見えるマーカを有する必要なしに、患者上の受光素子に対するイメージングデータの関係を決定することが可能になる。
一実施形態によれば、患者に加えて、介入器具が追跡される。主追跡デバイスの要素は、器具上に配置される。したがって、器具と患者の追跡マーカとの間の角度が計算される。患者の追跡マーカの位置も、補助追跡デバイスによって決定されることに留意されたい。
別の実施形態によれば、装着可能ディスプレイデバイスが主追跡デバイスによって追跡され、装着可能ディスプレイの角度的な向きの決定が関心事である。ヘッドセット上に発光ボックスを配置することによって、患者に対してディスプレイを追跡する角度的な正確さを増大させることができる。ヘッドセット内部のカメラはまた、患者上の(受動的)光学マーカを検出するためにも使用される。追跡される装着可能ディスプレイの位置は、ナビゲーションシステムを制御するためにさらに使用される。例は、衝突を回避し、より良好な作業空間を可能にするための、手術ナビゲーションソフトウェアの画面のレイアウト又は検出器の自動位置決めである。
さらなる実施形態によって、発光デバイスは、埋め込み可能であるように構成される。これによって、マーカの位置特定が容易になる。MEMS技術及びLEDを使用して、発光ボックスの大幅な小型化が可能であることに留意されたい。小型広帯域光源を得るために、ソリッドステートベースの光源(LEDなど)を無機蛍光体及び光学セラミックスと組み合わせて使用することができる。光源と検出器との間の組織に関する情報を得るために、スペクトル照明を使用することができることにも留意されたい。多くの検出器を使用するとき、組織の3Dスペクトル再構成をリアルタイムに計算することが可能である。また、単一のセンサ又は限られたセンサセットを用いて、より複雑な発光パターンを利用することによって、3Dスペクトルデータを取得することができる(例えば、フラッシュ後に2回レーザ掃引を行う代わりに、フラッシュ後に、走査レーザパターン、及び/又は、異なる方向における多数のレーザ掃引などのより弁別的な光学パターンを使用する)。
すべての光源は患者に対して暗くなるため、組織内の光の制限された侵入深さを補償して、受光素子の感度を大幅に増大させることができる。電池式埋め込み可能マーカを使用するとき、埋め込み可能マーカ内部で、測定されたタイミング(又は計算された位置)が、ワイヤ(インプラントに電力も提供する)又はRFベースの通信(Bluetoothなど)のいずれかを使用して、患者の外部に通信される。埋め込み可能マーカはまた、例えば近距離又は中距離場における電磁的結合に基づいて、ワイヤレス給電によって給電することもできる。代替的に、光検出器は、埋め込み可能であるように構成される。
追跡情報の情報を、慣性(例えば、加速度計、ジャイロスコープ)センサなどの他のセンサデータと組み合わせ、融合することが可能であることが理解されよう。これによって、位置特定の正確さ及び更新速度を増大させることが可能になる。
別の実施形態によれば、較正を必要としない3D走査及び患者動き補償が実現される。
図4の流れ図は、本明細書に記載されている一実施形態に従って実施されるステップの原理を示す。記載されているステップは主要なステップであり、これらの主要なステップは、いくつかのサブステップに区別又は分割され得ることが理解されよう。さらに、これらの主要なステップの間のサブステップもあり得る。
手術室に、例えば壁の発光体及びすべての関連する物体の光検出器など、主追跡デバイスがすでに備えられていると仮定して、図4を参照しながら以下のステップが実施される。
ステップS1において、追跡されるべき物体が、具体的な手動選択によって、又は、意図される手技の全般的な指示によって自動的に選択される。
ステップS2において、第1の物体の3D位置が決定される。3D位置情報はまた、3D向き情報も含む。このステップは、少なくとも主追跡デバイスを利用して実施される。
ステップS3において、第1の物体の画像情報が、データベースから、又は、イメージングデバイスからのライブ画像として受信される。
ステップS4において、ステップS2の位置情報が、ステップS3の画像情報にタグ付けされる。
ステップS5〜S7は、ステップS2〜S4に対応するが、第2の物体に対して実施される。そのようなステップはさらに、さらなる物体に対して実施される場合があることが理解されよう。
ステップS8において、両方の物体の画像及び位置情報が、互いに対する正確な空間位置における画像情報の合成を生成するように処理される。画像情報の合成は、両方とも同じ視野方向の、3D X線画像再構成から患者の外面のビデオ画像への2D投影などの、異なる種類の画像のオーバーレイ画像であってもよい。
任意選択のステップであるステップS9において、処理ユニットが追跡情報に基づいて物体の衝突の危険性があると判定した場合、警告が生成される。
同じく任意選択のステップであるステップS10において、少なくとも1つの物体の、少なくとも移動の停止、又は、積極的な移動が、衝突を防止するために開始される。
ステップS11において、合成画像情報の視覚化が生成される。
ステップS12において、視覚化が、モニタ又は装着可能眼鏡などのディスプレイデバイス上に表示される。
ほとんどのステップはコンピュータソフトウェアのステップとして実施されてもよく、したがって、自動的に実施されてもよいことに留意されたい。それらのステップを処理するための処理ユニットは単一の処理ユニットであってもよいが、別個のタスクを有する複数の処理ユニットを含んでもよいことにさらに留意されたい。例えば、主追跡デバイスは、すべての追跡される物体の3D位置を決定するための第1の処理ユニットを有してもよい。代替的に又は付加的に、視覚化は、別個の表示処理ユニットによって生成されてもよい。
図面及び上記の説明において本発明が詳細に図解及び説明されているが、そのような図解及び説明は限定ではなく実例又は例示と考えられるべきであり、本発明は、開示されている実施形態に限定されない。当業者によって、図面、本開示、及び添付の特許請求の範囲を研究することから、特許請求されている本発明を実践することにおいて、開示されている実施形態に対する他の変形形態が理解され、実行される。
特許請求の範囲において、「備える」という単語は、他の要素又はステップを除外せず、単数形は複数を除外しない。特定の方策が相互に異なる従属請求項に記載されているというだけのことは、これらの方策の組み合わせを好都合に使用することができないということを示すものではない。特許請求の範囲内の任意の参照符号は、それらの範囲を限定されるようには解釈されないものとする。
10 主追跡デバイスの光源
10.1 LEDフラッシュライト
10.2 レーザ掃引要素
12 主追跡デバイスの光検出器
12.1 受光素子
12.2 補助追跡デバイスによって追跡可能な要素
20 処理ユニット
22 入力デバイス
30 X線イメージングデバイス
32 X線源
34 X線検出器
36 超音波プローブ
38 ビデオカメラ
40 ディスプレイデバイス
42 拡張現実眼鏡
50 補助追跡デバイス
60 介入器具
70 手術灯
80 手術台
90 患者
92 医師

Claims (14)

  1. 手術室において使用するためのシステムであって、前記システムは、
    複数の光源及び複数の光検出器を含む主追跡デバイスであって、前記光源の各々は、光パルスを放出し、前記光検出器の各々は、前記光パルスを検出し、前記主追跡デバイスは、前記光パルス及び時間差の測定に基づいて、前記手術室内の複数の物体の現在の3D位置を決定する、主追跡デバイスと、
    少なくとも2つの物体の画像情報を受信し、前記主追跡デバイスから前記複数の物体の3D位置情報を受信し、第2の物体の前記画像情報に空間的に関係付けられた、第1の物体の前記画像情報の視覚化を生成する、処理ユニットと
    を備える、システム。
  2. 前記光源は、前記手術室内で固定的に配置され、前記光検出器は、それぞれ前記物体に配置される、請求項1に記載のシステム。
  3. 前記システムはイメージングデバイスをさらに備え、前記イメージングデバイスは、2D X線イメージングデバイス、3Dコンピュータ断層撮影デバイス、磁気共鳴イメージングデバイス、超音波デバイス、ハイパースペクトルイメージングデバイス、及びビデオカメラから成る群からの少なくとも1つのデバイスである、請求項1又は2に記載のシステム。
  4. 前記生成されている視覚化を表示するディスプレイデバイスをさらに備える、請求項1から3のいずれか一項に記載のシステム。
  5. 前記ディスプレイデバイスは透明ディスプレイデバイスである、請求項4に記載のシステム。
  6. 前記システムは補助追跡デバイスをさらに備え、前記補助追跡デバイスは、ハイパースペクトル追跡デバイス、ビデオ追跡デバイス、電磁追跡デバイス、無線周波数追跡デバイス、超音波追跡デバイス、X線追跡デバイス、光学形状検知デバイス、及び微小電気機械センサから成る群からの少なくとも1つを含む、請求項1から5のいずれか一項に記載のシステム。
  7. 前記複数の物体は、少なくとも1つの介入デバイス、イメージングデバイス、イメージング見当合わせデバイス、ディスプレイデバイス、補助追跡デバイス、手術灯、手術台、及び、患者又は医師のような少なくとも1人の人間から成る群からの少なくとも2つを含む、請求項1から6のいずれか一項に記載のシステム。
  8. 患者の前記画像情報は、2D X線画像データ、3D CT画像データ、3D MRI画像データ、超音波画像データ、ビデオ画像データから成る群からの少なくとも1つを含む、請求項1から7のいずれか一項に記載のシステム。
  9. 前記処理ユニットはさらに、前記物体のうちの1つの物体の前記現在の3D位置と当該物体の意図される3D位置との間の空間的逸脱を決定し、前記逸脱の指示を前記ディスプレイデバイス上に生成する、請求項1から8のいずれか一項に記載のシステム。
  10. 請求項1に記載のシステムの処理ユニット上で作動するソフトウェアプログラムであって、前記ソフトウェアプログラムは、命令のセットを含み、前記命令のセットは、前記処理ユニットに、
    主追跡デバイスから、第1の物体の3D位置情報を受信することと、
    前記第1の物体を表す画像情報を受信することと、
    前記主追跡デバイスから、第2の物体の3D位置情報を受信することと、
    前記第2の物体を表す画像情報を受信することと、
    前記第2の物体の前記画像情報に空間的に関係付けられた、前記第1の物体の前記画像情報の視覚化を生成することと
    を行わせる、ソフトウェアプログラム。
  11. 前記処理ユニットに、前記主追跡デバイスによって追跡されるべき物体を選択させ、利用可能な画像情報から前記物体各々の画像情報を選択させる命令のセットをさらに含む、請求項10に記載のソフトウェアプログラム。
  12. 前記処理ユニットに、物体のライブ画像情報を受信させ、前記ライブ画像情報を含む前記第1の物体及び前記第2の物体の視覚化を生成させる命令のセットをさらに含む、請求項10又は11に記載のソフトウェアプログラム。
  13. 前記処理ユニットに、追跡されている前記物体の許容できない交差の場合に警告出力を生成させる命令のセットをさらに含む、請求項10から12のいずれか一項に記載のソフトウェアプログラム。
  14. 請求項1に記載のシステムを使用する方法であって、前記方法は、
    主追跡システムによって、光パルスの放出及び検出に基づいて、第1の物体の3D位置を決定するステップと、
    前記主追跡システムによって、光パルスの放出及び検出に基づいて、第2の物体の3D位置を決定するステップと、
    前記第1の物体及び前記第2の物体の画像情報を受信するステップと、
    前記第2の物体の前記画像情報に空間的に関係付けられた、前記第1の物体の前記画像情報を含む視覚化を生成するステップと
    を有する、方法。
JP2020552890A 2018-03-30 2019-03-27 手術室内の移動する物体の監視 Pending JP2021519186A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18165293.4A EP3545896A1 (en) 2018-03-30 2018-03-30 Monitoring of moving objects in an operation room
EP18165293.4 2018-03-30
PCT/EP2019/057653 WO2019185670A1 (en) 2018-03-30 2019-03-27 Monitoring of moving objects in an operation room

Publications (1)

Publication Number Publication Date
JP2021519186A true JP2021519186A (ja) 2021-08-10

Family

ID=62027768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020552890A Pending JP2021519186A (ja) 2018-03-30 2019-03-27 手術室内の移動する物体の監視

Country Status (5)

Country Link
US (1) US20210052329A1 (ja)
EP (2) EP3545896A1 (ja)
JP (1) JP2021519186A (ja)
CN (1) CN111936074A (ja)
WO (1) WO2019185670A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3858280A1 (en) * 2020-01-29 2021-08-04 Erasmus University Rotterdam Medical Center Surgical navigation system with augmented reality device
US20210298863A1 (en) * 2020-03-27 2021-09-30 Trumpf Medizin Systeme GmbH & Co. KG. Augmented reality for a surgical system
DE102020114418A1 (de) * 2020-05-29 2021-12-02 Karl Leibinger Medizintechnik Gmbh & Co. Kg System zur Überwachung einer Operationsleuchtenanordnung
EP3936080A1 (en) * 2020-07-09 2022-01-12 Koninklijke Philips N.V. Navigated medical imaging
CN112880557B (zh) * 2021-01-08 2022-12-09 武汉中观自动化科技有限公司 一种多模式跟踪器系统
US11922645B2 (en) 2021-03-18 2024-03-05 Medtronic Navigation, Inc. Imaging system
US11769261B2 (en) * 2021-03-18 2023-09-26 Medtronic Navigation, Inc. Imaging system
US20230081686A1 (en) * 2021-09-10 2023-03-16 Epica International, Inc. System and method to compensate for movement during surgery

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040138556A1 (en) * 1991-01-28 2004-07-15 Cosman Eric R. Optical object tracking system
US20120086953A1 (en) * 2010-08-04 2012-04-12 Boulder Innovation Group Inc. Methods and Systems for Realizing Reduced Complexity in Three-Dimensional Digitizer Systems
US20130006120A1 (en) * 2010-03-17 2013-01-03 Alexander Druse Marker for a medical navigation system with a laser tracker
US20170105713A1 (en) * 2011-08-21 2017-04-20 M.S.T. Medical Surgery Technologies Ltd Device and method for assisting laparoscopic surgery - rule based approach
WO2018032083A1 (en) * 2016-08-17 2018-02-22 Synaptive Medical (Barbados) Inc. Methods and systems for registration of virtual space with real space in an augmented reality system
WO2018032084A1 (en) * 2016-08-17 2018-02-22 Synaptive Medical (Barbados) Inc. Wireless active tracking fiducials

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5100229A (en) * 1990-08-17 1992-03-31 Spatial Positioning Systems, Inc. Spatial positioning system
EP1415609A1 (en) * 1998-01-28 2004-05-06 Sherwood Services AG Optical object tracking system
US20150253428A1 (en) * 2013-03-15 2015-09-10 Leap Motion, Inc. Determining positional information for an object in space
KR102101435B1 (ko) * 2013-03-13 2020-04-17 스트리커 코포레이션 수술 절차들을 위한 준비시 수술실에 대상들을 배치하는 시스템
US20140276000A1 (en) * 2013-03-15 2014-09-18 Vector Sight Inc. Laser Tracking of Surgical Instruments and Implants
WO2015091015A2 (en) * 2013-12-19 2015-06-25 Koninklijke Philips N.V. Object tracking device
US10338186B2 (en) * 2014-11-10 2019-07-02 Valve Corporation Positional tracking systems and methods
CN107106253B (zh) * 2014-12-16 2020-04-03 皇家飞利浦有限公司 脉动光发射标记设备
US10460469B2 (en) * 2017-07-07 2019-10-29 GameFace Labs Inc. Systems and methods for position and pose determination and tracking
US10996742B2 (en) * 2017-10-17 2021-05-04 Logitech Europe S.A. Input device for AR/VR applications

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040138556A1 (en) * 1991-01-28 2004-07-15 Cosman Eric R. Optical object tracking system
US20130006120A1 (en) * 2010-03-17 2013-01-03 Alexander Druse Marker for a medical navigation system with a laser tracker
US20120086953A1 (en) * 2010-08-04 2012-04-12 Boulder Innovation Group Inc. Methods and Systems for Realizing Reduced Complexity in Three-Dimensional Digitizer Systems
US20170105713A1 (en) * 2011-08-21 2017-04-20 M.S.T. Medical Surgery Technologies Ltd Device and method for assisting laparoscopic surgery - rule based approach
WO2018032083A1 (en) * 2016-08-17 2018-02-22 Synaptive Medical (Barbados) Inc. Methods and systems for registration of virtual space with real space in an augmented reality system
WO2018032084A1 (en) * 2016-08-17 2018-02-22 Synaptive Medical (Barbados) Inc. Wireless active tracking fiducials

Also Published As

Publication number Publication date
CN111936074A (zh) 2020-11-13
WO2019185670A1 (en) 2019-10-03
EP3773303A1 (en) 2021-02-17
US20210052329A1 (en) 2021-02-25
EP3545896A1 (en) 2019-10-02

Similar Documents

Publication Publication Date Title
JP2021519186A (ja) 手術室内の移動する物体の監視
US10932689B2 (en) Model registration system and method
US6873867B2 (en) Referencing or registering a patient or a patient body part in a medical navigation system by means of irradiation of light points
US20180333208A1 (en) Guidance system for needle procedures
JP5190510B2 (ja) 神経外科用多機能ロボット化プラットフォームと位置調整方法
JP5250766B2 (ja) ロケーションを同定するための装置
KR20180099702A (ko) 가상 객체에 의해 정의된 타깃 부위에서 환자에게 수술을 수행하기 위한 시스템 및 방법
CN104994805A (zh) 用于建立虚拟约束边界的系统和方法
US12003869B2 (en) Systems and methods for tracking objects
JPH11509456A (ja) 画像誘導手術システム
JP2000510730A (ja) 定位手術処置装置および方法
CN113180593A (zh) 显示设备
JP7049325B2 (ja) 体外画像における器具に関連する画像オブジェクトの可視化
EP3025666B1 (en) Computer-assisted system for guiding a surgical/diagnostic instrument in the body of a patient
CN114727845A (zh) 用于再现医疗器械的穿刺点的方法和系统
US20020172328A1 (en) 3-D Navigation for X-ray imaging system
WO2019037605A1 (zh) Ar眼镜及其追踪系统
US8165839B2 (en) Calibration of an instrument location facility with an imaging apparatus
US20230355314A1 (en) Robotic arm navigation using virtual bone mount
US20150301439A1 (en) Imaging Projection System
EP3025665B1 (en) Computer-assisted system for guiding a surgical/diagnostic instrument in the body of a patient
JP2017176773A (ja) 手術支援システム、手術支援方法、手術支援プログラム
WO2018160955A1 (en) Systems and methods for surgical tracking and visualization of hidden anatomical features
JP2022537891A (ja) 追跡システム視野を配置するシステムおよび方法
JP2001505655A (ja) 3次元超音波撮像機

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230725