JP2015100712A - Surgical needle for surgical system with optical recognition function - Google Patents

Surgical needle for surgical system with optical recognition function Download PDF

Info

Publication number
JP2015100712A
JP2015100712A JP2014239394A JP2014239394A JP2015100712A JP 2015100712 A JP2015100712 A JP 2015100712A JP 2014239394 A JP2014239394 A JP 2014239394A JP 2014239394 A JP2014239394 A JP 2014239394A JP 2015100712 A JP2015100712 A JP 2015100712A
Authority
JP
Japan
Prior art keywords
image processing
pattern
instrument
tip
array
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014239394A
Other languages
Japanese (ja)
Inventor
ジェイコブ ストルカ フィリップ
Jakob Stolka Philipp
ジェイコブ ストルカ フィリップ
フォルーギ ペズマン
Foroughi Pezhman
フォルーギ ペズマン
シー レンディナ マシュー
C Rendina Matthew
シー レンディナ マシュー
ドナルド ヘイガー グレゴリー
Donald Hager Gregory
ドナルド ヘイガー グレゴリー
ミハイル ボクター イマッド
Mikhail Boctor Emad
ミハイル ボクター イマッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Clear Guide Medical Inc
Original Assignee
Clear Guide Medical Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clear Guide Medical Inc filed Critical Clear Guide Medical Inc
Publication of JP2015100712A publication Critical patent/JP2015100712A/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/02Instruments for taking cell samples or for biopsy
    • A61B10/04Endoscopic instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • A61B1/3132Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for laparoscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/464Displaying means of special interest involving a plurality of displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M5/00Devices for bringing media into the body in a subcutaneous, intra-vascular or intramuscular way; Accessories therefor, e.g. filling or cleaning devices, arm-rests
    • A61M5/42Devices for bringing media into the body in a subcutaneous, intra-vascular or intramuscular way; Accessories therefor, e.g. filling or cleaning devices, arm-rests having means for desensitising skin, for protruding skin to facilitate piercing, or for locating point where body is to be pierced
    • A61M5/427Locating point where body is to be pierced, e.g. vein location means using ultrasonic waves, injection site templates
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M5/00Devices for bringing media into the body in a subcutaneous, intra-vascular or intramuscular way; Accessories therefor, e.g. filling or cleaning devices, arm-rests
    • A61M5/46Devices for bringing media into the body in a subcutaneous, intra-vascular or intramuscular way; Accessories therefor, e.g. filling or cleaning devices, arm-rests having means for controlling depth of insertion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • A61B2017/3413Needle locating or guiding means guided by ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/062Measuring instruments not otherwise provided for penetration depth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/064Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • A61B8/4455Features of the external shape of the probe, e.g. ergonomic aspects

Abstract

PROBLEM TO BE SOLVED: To provide improved image processing devices for use in image-guided surgery.SOLUTION: A system for image-guided surgery includes an image processing system, a medical tool comprising a shaft and a tip, and a display configured to display real-time representation information of the medical tool including position information of the tip regardless of whether the tip is covered or visible. The shaft includes an optically detectable feature that allows a position of the tip to be determined.

Description

(関連出願の参照)
本出願は、2013年11月27日に出願された米国出願番号14/092,843を基礎とする優先権を主張し、当該米国出願の全内容は参照によって本出願に組み込まれる。
(Refer to related applications)
This application claims priority based on US application Ser. No. 14 / 092,843 filed Nov. 27, 2013, the entire contents of which are incorporated herein by reference.

現在クレームされている本発明の実施形態に係る技術分野は、画像処理装置とともに用いられる縫合針に関するものであり、特に縫合針の監視と追跡を行うセンサーを備えた画像処理装置に関する。   The presently claimed technical field relating to embodiments of the present invention relates to a suture needle used with an image processing apparatus, and more particularly to an image processing apparatus including a sensor for monitoring and tracking the suture needle.

画像誘導外科処置の分野においては、医療行為中の画像処理装置・医療器具の追跡・位置特定は格別重要な技術であり、画像誘導外科手術システム(以下「IGS」という。)における主要な基盤技術と考えられている。該追跡の技術は、以下4つのグループに分類することができる。1)能動型ロボット(例えば、米国インテュイティヴ・サージカル社のダ・ヴィンチ(登録商標)外科ロボット)および受動型プログラム式メカニカルアーム(例えば、英国ファロー・テクノロジーズ社のFaroArm(登録商標))を含めた機械式追跡、2)光学式追跡、3)音響式追跡、4)電磁式(以下「EM」という。)追跡、の4つである。   In the field of image-guided surgical procedures, tracking and positioning of image processing apparatuses and medical instruments during medical practice is a particularly important technology, and the main fundamental technology in image-guided surgical systems (hereinafter referred to as “IGS”). It is believed that. The tracking techniques can be classified into the following four groups. 1) Machines including active robots (eg Da Vinci® Surgical Robot from Intuitive Surgical, USA) and passive programmable mechanical arms (eg FaroArm® from Faroe Technologies, UK) There are four types: type tracking, 2) optical tracking, 3) acoustic tracking, and 4) electromagnetic (hereinafter referred to as “EM”) tracking.

一方、超音波は、切除処置、生体組織検査、放射線療法および外科手術などの画像誘導外科処置における有力な画像処理手段として知られている。そこで、かかる光学式追跡システムあるいはEM追跡システムを超音波(以下「US」という。)画像処理システムと統合することにより、例えば、肝臓切除処置における追跡・誘導または外部光線を用いた放射線治療などの分野に応用できる超音波誘導外科処置の研究が進められている。かかる研究は、文献においても、また、研究所における実地研究においても、進められている[E.M. Boctor, M. DeOliviera, M. Choti, R. Ghanem, R.H. Taylor, G. Hager, G. Fichtinger, "Ultrasound Monitoring of Tissue Ablation via Deformation Model and Shape Priors",International Conference on Medical Image Computing and Computer−Assisted Intervention, MICCAI 2006; H. Rivaz, I. Fleming, L.Assumpcao, G.Fichtinger, U. Hamper, M. Choti, G. Hager, and E. Boctor, "Ablation monitoring with elastography: 2D in−vivo and 3D ex−vivo studies," International Conference on Medical Image Computing and Computer−Assisted Intervention, MICCAI 2008; H. Rivaz, P. Foroughi, I. Fleming, R. Zellars, E. Boctor, and G. Hager, "Tracked Regularized Ultrasound Elastography for Targeting Breast Radiotherapy", Medical Image Computing and Computer Assisted Intervention (MICCAI) 2009]。今日市販されているシステムの中にはEM追跡装置をハイエンドのカートベースUSシステムに統合したものがある。小規模のEMセンサーが超音波プローブに統合されたものがあり、また、同様なセンサーが対象となる外科措置器具に付属、取付けされたものもある。   On the other hand, ultrasound is known as a powerful image processing means in image guided surgical procedures such as ablation procedures, biological tissue examinations, radiotherapy and surgery. Therefore, by integrating such an optical tracking system or EM tracking system with an ultrasound (hereinafter referred to as “US”) image processing system, for example, tracking / guidance in liver resection or radiotherapy using external light Research into ultrasound-guided surgical procedures applicable to the field is ongoing. Such research is being carried out both in the literature and in field research in laboratories [E. M.M. Boctor, M.M. DeOliviera, M.M. Choti, R.A. Ghanem, R.A. H. Taylor, G.M. Hager, G. Fichinger, "Ultrasound Monitoring of Tissue Ablation via Deformation Model and Shape Priors, International Conferencing on Medical Image Competing in Attenuation." Rivaz, I.D. Fleming, L.M. Assumpcao, G.M. Fichtinger, U. Hamper, M.M. Choti, G. Hager, and E.M. Boctor, "Ablation monitoring with elastography: 2D in-vivo and 3D ex-vivo studies," International Conference on Medical Image Computing and Computer-Attenuator. Rivaz, P.M. Foroughhi, I .; Fleming, R.M. Zellars, E .; Boctor, and G.B. Hager, “Tracked Regulated Ultrasound Elastography for Targeting Breast Radiotherapy”, Medical Image Computing and Computer Assisted Intervention (MICCI9). Some systems on the market today integrate an EM tracking device into a high-end cart-based US system. Some small EM sensors are integrated into the ultrasound probe, while others are attached to and attached to the surgical instrument of interest.

研究目的であるか商用目的であるかを問わず、今日のアプローチの限界は、現在利用可能な追跡技術、システム統合および医療環境におけるシステム利用の実現可能性に帰せられる。例えば、機械式追跡システムは、高価で侵入的な解決方法であり、大きな設置スペースを要し、使用者の動きを制約する。その一方で、音響式追跡システムでは十分な誘導の正確性が得られない。光学式追跡システムの技術は、ベースカメラ等の侵入的設備を必要とし、EM追跡システムの技術も、参考EM送信機等の侵入的設備を必要とする。さらに、光学剛性体やEMセンサーを画像処理装置や必要な全ての手術器具に取り付けなければならず、このため、オフラインでの計測調節作業や消毒殺菌作業が必要になる。このように、画像誘導外科手術用の改善された画像処理装置への需要が存続している。   Whether for research or commercial purposes, the limitations of today's approach are attributed to the feasibility of currently available tracking technologies, system integration and system use in medical environments. For example, a mechanical tracking system is an expensive and intrusive solution, requires a large installation space and restricts user movement. On the other hand, the acoustic tracking system does not provide sufficient guidance accuracy. The optical tracking system technology requires intrusive equipment such as a base camera, and the EM tracking system technology also requires intrusive equipment such as a reference EM transmitter. Furthermore, the optical rigid body and the EM sensor must be attached to the image processing apparatus and all necessary surgical instruments, which requires offline measurement adjustment work and disinfection sterilization work. Thus, there remains a need for improved image processing devices for image guided surgery.

本発明のいくつかの側面にはシステム、器具および方法が含まれる。一実施形態においては画像誘導外科手術システムが提供される。該システムは、軸部と、先端部とを有する医療器具であって、前記医療器具の前記軸部が、光学的に検出可能であり、かつ、前記先端部の位置を決定することを可能ならしめる非均一非反復パターンを有する医療器具と、 前記非均一非反復パターンのどのセグメントが可視であるかにかかわらず、前記医療器具の位置の検出および追跡をする光学画像処理システムと、前記光学画像処理システムから受け取ったデータに基づき、前記先端部の位置情報を含む前記医療器具のリアルタイム表現情報を表示する表示装置とを備え、前記非均一非反復パターンは、非均一非反復の空白と幅を有する塗りつぶしの配列からなり、前記配列は少なくとも3つの部分配列を有し、かつ、各部分配列のパターンは一度しか現れないことを特徴とする画像誘導外科手術システムである。   Some aspects of the present invention include systems, instruments and methods. In one embodiment, an image guided surgical system is provided. The system is a medical device having a shaft portion and a tip portion, provided that the shaft portion of the medical device is optically detectable and can determine the position of the tip portion. A medical device having a non-uniform non-repeating pattern, an optical image processing system for detecting and tracking the position of the medical device regardless of which segments of the non-uniform non-repeating pattern are visible, and the optical image A display device for displaying real-time representation information of the medical device including position information of the tip based on data received from a processing system, and the non-uniform non-repeating pattern includes non-uniform non-repetitive white space and width. An image invitation characterized in that it comprises at least three partial arrays, and the pattern of each partial array appears only once. It is surgery system.

別の実施形態においては、画像誘導外科手術システムとともに用いられる器具が示される。該器具は、先端部と、前記先端部と一体に設けられまたは前記先端部に取り付けられる軸部とを備え、画像誘導医療システムとともに使用される器具であって、前記軸部は、光学的に検出可能な非均一非反復パターンを有し、前記非均一非反復パターンは前記軸部に刻印され、印刷され、エッチングされ、または当てはめられているかのいずれかであり、前記非均一非反復パターンは、非均一非反復の空白と幅を有する塗りつぶしの配列からなり、前記配列は少なくとも3つの部分配列を有し、かつ、各部分配列のパターンは一度しか現れず、前記非均一非反復パターンは、前記画像誘導医療システムが、前記非均一非反復パターンのどのセグメントが可視であるかにかかわらず、かつ、前記先端部が対応する画像に覆い隠されているか否かにかかわらず、前記先端部の位置をリアルタイムに定めるにあたり前記画像誘導医療システムの使用に適することを特徴とする器具である。   In another embodiment, an instrument for use with an image guided surgical system is shown. The instrument includes a distal end portion and a shaft portion that is provided integrally with the distal end portion or attached to the distal end portion, and is used with an image guiding medical system, wherein the shaft portion is optically Having a detectable non-uniform non-repeating pattern, wherein the non-uniform non-repeating pattern is either imprinted, printed, etched, or applied to the shank, and the non-uniform non-repeating pattern is A non-uniform non-repeating blank and width fill array, the array having at least three partial arrays, and each partial array pattern appearing only once, and the non-uniform non-repeating pattern is: Whether the image-guided medical system is obscured by the corresponding image regardless of which segments of the non-uniform non-repeating pattern are visible Regardless, an instrument, characterized in that suitable for use in the image-guided medical system Upon determining the position of the tip in real time.

さらに別の実施形態においては、画像誘導医療システムの画像処理方法が示される。該方法は、1以上のプロセッサ装置により、1以上の光学装置から、器具の軸部から反射される光を含む入力を受ける工程と、前記1以上のプロセッサ装置により、前記器具の位置の検出および追跡をする工程と、前記1以上のプロセッサ装置により、前記器具の先端部の挿入深度および前記先端部の1つ以上の候補位置を表示する工程を含む画像処理方法であって、前記器具の前記軸部は光学的に検出可能な非均一非反復パターンを有し、前記非均一非反復パターンは、非均一非反復の空白と幅を有する塗りつぶしの配列からなり、前記配列は少なくとも3つの部分配列を有し、かつ、各部分配列のパターンは一度しか現れないこと、および前記追跡には、前記1以上のプロセッサ装置により、前記非均一非反復パターンのどのセグメントが可視であるかにかかわらず、前記非均一非反復パターンを用いて三次元空間における前記先端部の1つ以上の候補位置を算出することが含まれることを特徴とする画像処理方法である。   In yet another embodiment, an image processing method of an image guided medical system is shown. The method includes receiving an input including light reflected from an instrument shaft from one or more optical devices by one or more processor devices, and detecting the position of the instrument by the one or more processor devices. An image processing method comprising: tracking; and displaying, by the one or more processor devices, an insertion depth of a tip of the instrument and one or more candidate positions of the tip. The shank has an optically detectable non-uniform non-repeating pattern, the non-uniform non-repeating pattern comprising a non-uniform non-repeating blank and width array of fills, the array comprising at least three sub-arrays And the pattern of each subsequence appears only once, and for the tracking, the one or more processor units can detect which segments of the non-uniform non-repetitive pattern Regardless of whether the visible, an image processing method characterized by it involves calculating the one or more candidate positions of the tip portion in the three-dimensional space using the non-uniform non-repeating pattern.

本発明のさらなる目的および利点は、発明の詳細な説明、図面および実施形態を考慮することにより明らかになる。
図1は、本発明の一実施形態に係る画像処理システムの画像処理コンポーネントを示している。 図2は、本発明の一実施形態に係る画像処理システムを示している。 図3は、本発明の一実施形態に係るサンプル追跡パターンを示している。 図4は、本発明の一実施形態に係るワークフローの一例を示している。 図5は、本発明に係る方法を実行するコンピュータおよびシステム構築の例示的実施形態を示している。 図6は、本発明の一実施形態に係る器具先端部の画面コピーを示している。
Further objects and advantages of the invention will become apparent upon consideration of the detailed description, drawings and embodiments of the invention.
FIG. 1 shows an image processing component of an image processing system according to an embodiment of the present invention. FIG. 2 shows an image processing system according to an embodiment of the present invention. FIG. 3 illustrates a sample tracking pattern according to an embodiment of the present invention. FIG. 4 shows an example of a workflow according to an embodiment of the present invention. FIG. 5 shows an exemplary embodiment of a computer and system construction for performing the method according to the invention. FIG. 6 shows a screen copy of the instrument tip according to one embodiment of the present invention.

以下いくつかの実施形態を詳細に説明する。実施形態の説明において、特定の用語が明確化のために使用される。しかしながら、本発明は、そのように選択された特定の用語に限定されるものではない。関連技術の当業者は、他の同等のコンポーネントを使用することができる他の方法は、本発明の広い概念から逸脱することなく展開されていることを認識するであろう。本明細書中の随所で引用される全ての参考文献は、それぞれが個々に組み込まれたかのように、参照によって本出願に組み込まれる。   Several embodiments are described in detail below. In describing embodiments, specific terminology is used for the sake of clarity. However, the present invention is not limited to the specific terms so selected. Those skilled in the relevant art will recognize that other ways in which other equivalent components can be used have been developed without departing from the broad concepts of the present invention. All references cited anywhere in this specification are incorporated into this application by reference as if each were individually incorporated.

当明細書においては、「針」および「医療器具」の用語は、針、ポインタ、生体組織検査器具、腹腔鏡、切除装置、手術器具、または長尺ツールなどの長尺医療器具を参照するものとして用いられる。   As used herein, the terms “needle” and “medical instrument” refer to a long medical instrument such as a needle, pointer, biopsy instrument, laparoscope, resection device, surgical instrument, or long tool. Used as

本発明のいくつかの実施形態では、比較的狭い画像誘導と追跡の今日の体系を越えたIGI(画像誘導外科措置)を可能ならしめる「基盤技術」について説明している。該「基盤技術」は、同時に追跡、視覚化、および誘導の限界を克服することを目的としている。具体的には、3次元コンピュータ画像とパターン投影を用いた医療器具の特定および追跡に関連した技術の活用と統合、局所感知手法を用いた画像処理装置の追跡などの技術である。IGIの例としては、米国特許出願公開第2013/0016185号公報として公開された「Low−cost image−guided navigation and intervention systems using cooperative sets of local sensors」と題する、米国特許出願第13/511101が挙げられる。   Some embodiments of the present invention describe "base technology" that enables IGI (image guided surgical procedures) beyond today's relatively narrow system of image guidance and tracking. The “foundation technology” aims to overcome the limitations of tracking, visualization and guidance at the same time. Specifically, techniques such as utilization and integration of technologies related to identification and tracking of medical devices using three-dimensional computer images and pattern projections, and tracking of image processing devices using local sensing techniques. As an example of IGI, US patent application No. 13 / US patent application entitled “Low-cost image-guided navigation and intervention systems of cooperating sensors” published in US 2013/0016185 / No. It is done.

本発明は、一般的な撮像、投影、ビジョン、そして局所感知に使用されるコンポーネントとメソッドの緊密に統合された共通のコアを共有し、広い範囲の異なる実施形態をカバーしている。   The present invention shares a tightly integrated common core of components and methods used for general imaging, projection, vision, and local sensing, covering a wide range of different embodiments.

本発明のいくつかの実施形態は、医療画像処理装置の追跡技術を実現する局所感知アプローチを提供する、例えば、誤差を大幅に減少し肯定的な患者の転帰(医療成果)を増加する潜在能力を持つ補完的技術の組み合わせに関するものである。このアプローチは、本発明の実施形態に係る超音波プローブ等の画像処理装置の追跡、治療介入誘導および情報の視覚化のための基盤技術を提供することができる。本発明の実施形態に係る画像分析アルゴリズムによる超音波画像処理、プローブを搭載した感光装置、独立した光学慣性センサーを組み合わせれば、外科医療器具、その他の器具または物体の最新の動きを増分的に追跡することのより、その位置および軌跡を再構築することが可能となる。     Some embodiments of the present invention provide a local sensing approach that implements medical imaging device tracking technology, for example, the potential to significantly reduce errors and increase positive patient outcome (medical outcome) Is a combination of complementary technologies with This approach can provide a foundational technology for tracking an image processing device such as an ultrasound probe, guiding treatment intervention and visualizing information according to embodiments of the present invention. Combining ultrasonic image processing with an image analysis algorithm according to an embodiment of the present invention, a photosensitive device equipped with a probe, and an independent optical inertial sensor, the latest movement of surgical instruments, other instruments or objects can be incrementally increased. By tracking, the position and trajectory can be reconstructed.

本発明のいくつかの実施形態においては、(視覚、超音波、および/またはその他の画像化・局所化方法を用いて)医療器具およびその他の器具のセグメント化、追跡、誘導を可能にしている。   In some embodiments of the present invention, medical devices and other devices can be segmented, tracked, and guided (using visual, ultrasound, and / or other imaging and localization methods). .

このような装置は、現在の最新技術と比較して改良された感度および特異性を有する画像化手順を可能にすることができる。これは、以前に有害なX線/CTまたは高価なMRI画像処理、外部の追跡、高価、不正確、かつ時間がかかり非実用的なハードウェアのセットアップを必要としていたアプリケーションまたは、精度および成功の保証の宿命的な不足で非常に悩んでいた:生検、RF/HIFU除去など:2Dまたは3D超音波ベースの医学ツール案内、小線源治療を許すことができる:3D超音波獲得および医療器具の誘導、精密な小線源治療種配置、追跡されたイメージするおよび追跡された器具に依存している他のアプリケーションへの応用の幅を切り開く。   Such an apparatus can allow an imaging procedure with improved sensitivity and specificity compared to current state of the art. This can be useful for applications that previously required harmful x-ray / CT or expensive MRI imaging, external tracking, expensive, inaccurate and time consuming and impractical hardware setup or accuracy and success I was very worried about the fatal lack of warranty: biopsy, RF / HIFU removal, etc .: 2D or 3D ultrasound based medical tool guidance, brachytherapy can be allowed: 3D ultrasound acquisition and medical instruments Open up a range of applications for guidance, precise brachytherapy species placement, tracked imaging, and other applications that rely on tracked instruments.

本発明のいくつかの実施形態は、既存の技術を上回るいくつかの利点を提供することができる。具体的には、低コストの追跡、局所的でコンパクトで非侵入的な解決策を組み合わせた、理想的な追跡システムであってハンドヘルドかつコンパクトな超音波システムのための低コストの追跡、ローカルコンパクト、かつ非侵入的解決・理想的なトラッキングシステム主に介入し、ポイント・オブ・ケア臨床のスイートで使用するだけでなく、他の外科措置の設定で視覚的追跡方法の下で追跡する一般的なツールの組み合わせのような既存の技術を上回るいくつかの利点を提供することができる。   Some embodiments of the present invention can provide several advantages over existing technologies. Specifically, low cost tracking, an ideal tracking system that combines local, compact and non-intrusive solutions, low cost tracking for handheld and compact ultrasound systems, local compact And non-intrusive solution / ideal tracking system is mainly used to intervene and track under visual tracking method in setting of other surgical procedures as well as used in point-of-care clinical suite Can provide several advantages over existing technologies such as a combination of simple tools.

例えば、本発明のいくつかの実施形態は、超音波プローブおよび他の画像処理装置の追跡のための装置および方法に関するものである。本発明の実施形態によれば、画像解析アルゴリズムとプローブマウント感光デバイスと、超音波イメージングを組み合わせることにより、その時点の動きを増分的に追跡することによって外科器具およびその他のオブジェクトの位置および軌跡を再構成することが可能である。これにより、従来、高価な、不正確な、または非現実的なハードウェアのセットアップを必要としたいくつかの場面への適用が可能になる。一例として、3次元超音波による医療器具の誘導が挙げられる。   For example, some embodiments of the invention relate to an apparatus and method for tracking ultrasound probes and other image processing devices. In accordance with embodiments of the present invention, the position and trajectory of surgical instruments and other objects can be tracked by incrementally tracking the current motion by combining image analysis algorithms, probe-mounted photosensitive devices, and ultrasound imaging. It is possible to reconfigure. This allows application to some scenes that conventionally required expensive, inaccurate or unrealistic hardware setup. As an example, guidance of a medical device by three-dimensional ultrasound can be mentioned.

今日の超音波検査では、スキャンされた3次元領域(「関心領域」(ROI))を貫通して平面画像スライスを返す携帯型2D超音波(US)プローブが主として使用される。今日、医療器具の誘導を必要とする経皮的外科処置においては、医療器具の軌道予測は、医療器具の遠位(外部)の一端に取り付けられたセンサーによる追跡、および作業者の経験を頼りにした軌跡の観念的推定に基づいてなされているのが現状である。3次元超音波、医療器具の追跡、医療器具の軌道予測および対話的なユーザー誘導が統合されたシステムは非常に有益である。   Today's ultrasound examinations mainly use portable 2D ultrasound (US) probes that return a planar image slice through a scanned three-dimensional region ("region of interest" (ROI)). Today, in percutaneous surgical procedures that require guidance of a medical instrument, trajectory prediction of the medical instrument relies on tracking by a sensor attached to the distal (external) end of the medical instrument, and the operator's experience. The current situation is based on the ideal estimation of the trajectory. Systems that integrate 3D ultrasound, medical instrument tracking, medical instrument trajectory prediction, and interactive user guidance are very beneficial.

図1は、本発明の実施形態に係る画像処理システムの画像処理コンポーネント100の実施形態を示している。画像処理コンポーネント100には、画像処理器具110と、画像処理器具110に着脱可能に構成されたブラケット120とが含まれる。図1の例では、画像処理器具110は超音波プローブであり、ブラケット120は超音波プローブのプローブハンドルに取り付けられる構成となっている。該超音波プローブは、例えば、米国マサチューセッツ州ボストンのアナロジック社製Ultrasonix#c5−2とすることができる。しかしながら、本発明の広い概念は、この例に限定されるものではない。ブラケット120は、整形外科用電動工具、スタンドアロン携帯式ブラケットなどの画像誘導手術のための他のハンドヘルド器具に取り付け可能な構成とすることができる。他の実施形態では、ブラケット120は、例えばX線システムまたはMRIシステムのC型アームに着脱可能な構成とすることができる。   FIG. 1 shows an embodiment of an image processing component 100 of an image processing system according to an embodiment of the present invention. The image processing component 100 includes an image processing device 110 and a bracket 120 configured to be detachable from the image processing device 110. In the example of FIG. 1, the image processing instrument 110 is an ultrasonic probe, and the bracket 120 is attached to the probe handle of the ultrasonic probe. The ultrasonic probe can be, for example, Ultrasonix # c5-2 manufactured by Analogic of Boston, Massachusetts. However, the broad concept of the present invention is not limited to this example. The bracket 120 can be configured to attach to other handheld instruments for image guided surgery, such as orthopedic power tools, stand-alone portable brackets, and the like. In other embodiments, the bracket 120 may be configured to be removable from, for example, a C-arm of an X-ray system or an MRI system.

画像処理コンポーネント100は、互いに結合されてヘッドシェルを形成する上部シェル180と底部シェル130を含んでもよい。上部シェル180と底部シェル130は、安定化アセンブリ170(例えば、安定化バー)に確実に結合することができる。ヘッドシェルは、安定化アセンブリ170および画像処理コンポーネント100を構成する他の構成要素を収容することができる。ねじ190は画像処理コンポーネント100の構成要素を結合するために使用してもよい。 Image processing component 100 may include a top shell 180 and a bottom shell 130 that are coupled together to form a head shell. Top shell 180 and bottom shell 130 may be securely coupled to stabilization assembly 170 (eg, a stabilization bar). The headshell can house the stabilization assembly 170 and other components that make up the image processing component 100. Screw 190 may be used to connect components of image processing component 100.

画像処理コンポーネント100は、安定化アセンブリ170に確実に結合された1以上の感光装置150を含んでもよい。本発明のいくつかの実施形態においては、1以上の感光装置150は、可視光カメラ、赤外線カメラ、タイムオブフライトカメラ、PSD(位置感応型デバイス)または反射系レーザセンシングによって構成されている。図1の実施形態では、1以上の感光装置150は、画像処理コンポーネント100の動作中に表面領域を観察するように配置することができる。図1に示す実施形態においては、該1以上の感光装置150は、関心領域の立体観察に適するよう配置される構成であってもよい。   The image processing component 100 may include one or more photosensitive devices 150 that are securely coupled to the stabilization assembly 170. In some embodiments of the present invention, the one or more photosensitive devices 150 are comprised of a visible light camera, an infrared camera, a time-of-flight camera, a PSD (position sensitive device) or reflective laser sensing. In the embodiment of FIG. 1, one or more photosensitive devices 150 can be arranged to observe the surface area during operation of the image processing component 100. In the embodiment shown in FIG. 1, the one or more photosensitive devices 150 may be arranged so as to be suitable for stereoscopic observation of the region of interest.

画像処理コンポーネント100は、1以上のマイクロプロセッサ、1以上の発光装置、およびメモリデバイスを有しうるプリント回路基板140を備えてもよい。発光装置は、可視スペクトル、赤外線、紫外線、または他のスペクトルの光を放出することができる。発光装置は、少なくともLED、電球、CFL、レーザーのうちのいずれかを含んでもよい。プリント回路基板140は、1以上の感光装置150に接続され、安定化アセンブリ170に確実に結合されてもよい。   The image processing component 100 may include a printed circuit board 140 that may include one or more microprocessors, one or more light emitting devices, and a memory device. The light emitting device can emit light in the visible spectrum, infrared, ultraviolet, or other spectrum. The light emitting device may include at least one of an LED, a light bulb, a CFL, and a laser. The printed circuit board 140 may be connected to one or more photosensitive devices 150 and securely coupled to the stabilization assembly 170.

画像処理コンポーネント100は、さらに、1以上の感光装置150用のスクリーンを提供するレンズ160を備えてもよい。一つの実施形態においては、レンズ160は厚さ0.031mmの超剛性ゴリラグラス製であってもよい。レンズ160は、1以上の発光装置から発光される光を発散させるために、その全部または一部が曇りガラスになっていてもよい。発光装置から発光される光は、曇りガラスの面、メッシュ、半透明のテープ、または他の手段により拡散させてもよい。   The image processing component 100 may further include a lens 160 that provides a screen for one or more photosensitive devices 150. In one embodiment, the lens 160 may be made of ultra-rigid gorilla glass having a thickness of 0.031 mm. The lens 160 may be entirely or partially frosted glass in order to diverge light emitted from one or more light emitting devices. The light emitted from the light emitting device may be diffused by a frosted glass surface, mesh, translucent tape, or other means.

図2は、本発明の実施形態に係る画像処理システム200の実施形態を示している。画像処理システム200はユーザによって制御される画像処理コンポーネント100を含んでいる。また、ユーザは、医療器具を挿入している。画像処理システム200は画像表示装置210を含んでいる。画像表示装置210は、画像処理器具110から出力される超音波検査画像を表示する。画像処理システム200は、さらに拡張表示装置220を含んでいる。拡張表示装置220は、ユーザが入力できるタッチパネルである。拡張表示装置220は、画像処理器具110から出力される超音波検査画像の上に追跡情報を重ねて表示する。追跡情報には、現在の追跡状況、現在の位置、ユーザにより挿入された医療器具、外科手術器具、その他の器具の現在の挿入深度が含まれる。医療器具の先端部の位置、医療器具先端部の選択された標的への距離の上方も重ねて表示される。   FIG. 2 shows an embodiment of an image processing system 200 according to an embodiment of the present invention. Image processing system 200 includes an image processing component 100 that is controlled by a user. Moreover, the user has inserted the medical instrument. The image processing system 200 includes an image display device 210. The image display device 210 displays an ultrasonic inspection image output from the image processing instrument 110. The image processing system 200 further includes an extended display device 220. The extended display device 220 is a touch panel that can be input by a user. The extended display device 220 displays the tracking information superimposed on the ultrasonic inspection image output from the image processing instrument 110. The tracking information includes the current tracking status, current position, current insertion depth of medical instruments, surgical instruments, and other instruments inserted by the user. The position of the tip of the medical instrument and the distance above the distance of the medical instrument tip to the selected target are also displayed superimposed.

図1および図2では、画像処理システムとして超音波イメージングシステムが示され、ブラケット120は、超音波プローブの画像処理器具110に取り付けられるように構成されているが、本発明の広い概念は、この例に限定されるものではない。ブラケットは、例えば、これらに限定されないが、X線または磁気共鳴イメージングシステムなどの他の画像処理システムに対して着脱可能に構成されてもよい。   In FIGS. 1 and 2, an ultrasound imaging system is shown as an image processing system, and the bracket 120 is configured to be attached to an image processing instrument 110 of an ultrasound probe. It is not limited to examples. The bracket may be configured to be detachable from other image processing systems such as, but not limited to, X-ray or magnetic resonance imaging systems.

図3は、本発明の本実施形態に係る追跡パターンの例を示している。医療器具310,320および330の長さは、それぞれ381mm、201mmおよび150mであり、
追跡パターンの長さも同じ長さである。医療器具には、軸部と先端部が含まれる。追跡パターンは、医療器具の軸部またはその他の線形の器具に刻印され、印刷され、エッチングされ、または当てはめられている。画像処理システム200は、医療器具の軸部またはその他の線形の器具上の追跡パターンを分析する。追跡パターンは、任意の最低長の各部分配列が一度しか現れない配列を含みうる。追跡パターンは、擬似ランダムバイナリ配列(PRBS)、ド・ブラン配列またはバーコードを含みうる。追跡パターンは、参照によって本出願に組み込まれるE.M.Petriu著「Absolute Positioning Measurement Using Pseudo−Random Binary Encoding」に記載された方法で生成される配列を含みうる。追跡パターンは、非均一かつ非反復の空白と幅を有する塗りつぶしの配列からなる非均一非反復パターンであってもよく、該配列は、少なくとも3つの部分配列を有し、かつ、各部分配列のパターンは一度しか現れないような配列であってもよい。
FIG. 3 shows an example of a tracking pattern according to this embodiment of the present invention. The lengths of the medical devices 310, 320 and 330 are 381 mm, 201 mm and 150 m, respectively
The length of the tracking pattern is the same length. The medical device includes a shaft portion and a tip portion. The tracking pattern is imprinted, printed, etched, or applied to a medical instrument shaft or other linear instrument. The image processing system 200 analyzes a tracking pattern on a medical instrument shaft or other linear instrument. The tracking pattern can include sequences in which each subsequence of any minimum length appears only once. The tracking pattern can include a pseudo-random binary array (PRBS), a de-Blanc array, or a barcode. The tracking pattern can be found in E.I. M.M. It may contain sequences generated by the method described by Petriu, “Absolute Positioning Measurement Using Pseudo-Random Binary Encoding”. The tracking pattern may be a non-uniform non-repeating pattern consisting of a non-uniform and non-repeating blank and width filled array, the array having at least three sub-arrays, and The pattern may be an arrangement that appears only once.

さらに、追跡パターンは、医療器具上のリング、あるいは医療器具の軸部に施された独自の疑似ランダムバイナリ配列(PRBS)パターンやド・ブラン配列を含みうる。画像処理システム200は、識別可能なパターンの一部分を用いて医療器具を識別するとともにそれが該医療器具のどの部分かを把握して該医療器具の先端部の位置を一義的にあるいは有限数の個別の可能性の集合として把握することにより、医療器具の挿入深度を視覚的に追跡することができる。かかる把握された挿入深度は、医療器具誘導表示装置(例えば拡張表示装置220)上に医療器具の候補位置と重ねて表示させることができる。医療器具誘導表示装置は、先端部が覆い隠されているか可視であるかにかかわらず、先端部の位置情報を含む医療器具のリアルタイム表現情報を表示することができる。当該パターンの一部が画像処理システムにより光学的に検出可能でない場合あるいは最低長の一部分のみが画像処理システムにより光学的に検出可能である場合であっても、当該パターンが有する特性により、画像処理システムは医療器具の先端部の挿入深度を正確に算出することができる。具体的には、画像処理システムは、パターンの区別可能な各構成要素が異なるk種類の値(色彩または陰影)を取ることができ、かつ、パターンの全長が各構成要素k個分の長さである場合において、パターンの少なくともn/kの部分が画像処理システムにより光学的に検出可能であるときには、挿入深度を正確に算出することができる。 In addition, the tracking pattern may include a unique pseudo-random binary array (PRBS) pattern or de-Blanc pattern applied to the ring on the medical device or to the shaft of the medical device. The image processing system 200 identifies a medical device using a part of the identifiable pattern and knows which part of the medical device is the position of the tip of the medical device in a unique or finite number. By grasping as a set of individual possibilities, the insertion depth of the medical device can be visually tracked. The grasped insertion depth can be displayed on the medical instrument guidance display device (for example, the extended display device 220) so as to overlap the candidate position of the medical device. The medical instrument guidance display device can display real-time expression information of a medical instrument including position information of the distal end regardless of whether the distal end is covered or visible. Even if a part of the pattern is not optically detectable by the image processing system or only a part of the minimum length is optically detectable by the image processing system, image processing is performed due to the characteristics of the pattern. The system can accurately calculate the insertion depth of the tip of the medical device. Specifically, the image processing system can take k types of values (colors or shades) that are different from each other in which the pattern can be distinguished, and the total length of the pattern is the length corresponding to the number k n of the respective components. in the case of the, at least n / k n portions of the pattern when it is optically detectable by the image processing system, it is possible to accurately calculate the insertion depth.

追跡パターンは、初めにアルゴリズム的に生成される。具体的には、E.M.Petriu著「Absolute Positioning Measurement Using Pseudo−Random Binary Encoding」(http:surasshusurasshuwww.csi.uottawa.casurasshu〜petriusurasshuELG5161/PRBS/encoding.pdf)に記載された方法で2n−1の長さの擬似ランダムバイナリコードが生成される。この技術では、先ず、任意のn個の2進数値(ビット)が生成される。次に、特定の位置における2つのビットの排他的論理和が計算され、かかる計算結果が配列の最後に追加され、結果としてn+1ビットの配列が得られる。配列の最後のnビットに対してこの手順を繰り返して、最終的に2n−1ビットの配列が生成されるまで繰り返される。追跡パターンは非周期的であってもよく、医療器具上の固有の位置を提供することができる。追跡パターンは、医療器具のどの部分が可視であるかを問わず、画像処理システム200は、パターンを有する医療器具上の位置を特定し、挿入深度を検出することができる。すべての医療器具が同じパターンを有していてもよく、可視領域内の器具の曖昧さを取り除くために、各々の器具が独自のパターンを持っていてもよい。 The tracking pattern is first generated algorithmically. Specifically, E.I. M.M. Petriu al., "Absolute Positioning Measurement Using Pseudo-Random Binary Encoding " (http: surasshusurasshuwww.csi.uottawa.casurasshu~petriusurasshuELG5161 / PRBS / encoding.pdf ) pseudorandom binary code length of 2 n-1 by the method described in Is generated. In this technique, first, arbitrary n binary values (bits) are generated. Next, an exclusive OR of two bits at a specific position is calculated, and the result of such calculation is added to the end of the array, resulting in an n + 1 bit array. This procedure is repeated for the last n bits of the array, until finally a 2 n-1 bit array is generated. The tracking pattern may be aperiodic and can provide a unique location on the medical device. Regardless of which part of the medical instrument is visible, the tracking pattern allows the image processing system 200 to identify the position on the medical instrument having the pattern and detect the insertion depth. All medical devices may have the same pattern, and each device may have its own pattern to remove the ambiguity of the device in the visible region.

別の実施形態では、クリップオンリングなどの取付部品が医療器具にしっかり固定されている。リングを取り付けた医療器具の先端部の取付部品またはリングからの距離を決定し、先端位置を推定するため、その距離を使用して画像処理システム200に示すことができる。リングは、円形、楕円形、円筒形またはハンドル形状とすることができる。取付部品またはクリップオンリングは反射性(例えば、赤外線反射性)を有していてもよい。   In another embodiment, a mounting component such as a clip-on ring is secured to the medical device. The distance can be used to indicate to the image processing system 200 to determine the distance of the tip of the medical device with the ring attached from the mounting piece or ring and to estimate the tip position. The ring can be circular, elliptical, cylindrical or handle shaped. The mounting component or clip-on ring may be reflective (eg, infrared reflective).

医療器具上のパターンは、赤外線反射性を有してもよい。赤外線反射性を有することにより、医療器具の検出が容易になり、また偽陽性を排除するのに役立つ。画像処理システム200は特定の波長の光を通過させるフィルター付きの感光装置、医療器具を照射する光源および照射されると感光装置のフィルターを通過する波長の光を生成又は反射する医療器具上の被覆材を有してもよい。感光装置は1つ以上の感光装置150、1つ以上のPSD(位置感応型デバイス)またはこれらの組み合わせを含んでよい。さらに、医療器具には可視光線で可視のパターンおよび赤外線で可視のパターン、またはリングをあてはめられてもよい。これにより、オペレータは、オペレータの目には一般的に映る(例えば、センチメートルの目盛が振られている)が、ヒトの目には見えず感光装置が光学的に検出できる位置特定のために有用な情報を伝達する医療器具を用いることができる。   The pattern on the medical device may have infrared reflectivity. Having infrared reflectivity facilitates the detection of medical devices and helps eliminate false positives. Image processing system 200 includes a photosensitive device with a filter that allows light of a specific wavelength to pass through, a light source that illuminates the medical device, and a coating on the medical device that, when illuminated, generates or reflects light of a wavelength that passes through the filter of the photosensitive device You may have material. The photosensitive device may include one or more photosensitive devices 150, one or more PSDs (position sensitive devices), or combinations thereof. Further, the medical device may be fitted with a visible light visible pattern and an infrared visible pattern, or a ring. This allows the operator to generally see the operator's eyes (for example, a centimeter scale is swayed) but not visible to the human eye to identify the position where the photosensitive device can be optically detected. Medical instruments that convey useful information can be used.

他の実施形態では、パターンは、医療器具の偽陽性検出を拒絶または最小化するために使用することができる。すなわち、所定の視覚的特徴を有する対象のみを検出することによって、重要でない対象の検出・追跡を回避することができる。パターンは、例えば、目に見える特徴の異なる組み合わせによって区別され、異なる器具間の曖昧性除去のために使用することができる。パターンは、(例えば、特定の深度目標に到達するために)、所望のまたは現在の使用のためのツールの適合性を決定するために使用することができる。ツールが適切でない場合、オペレータに対して警告を表示することができる。パターンは、感光装置や特徴を有する器具を観察する感光装置間のキャリブレーションを検証するために使用することができる。そのような検証は、複数の感光装置からのデータセットにおける特徴の(例えば、測定された)見かけ上の高さを比較し、高さが異なる場合はキャリブレーションを拒絶することによって達成することができる。パターンはまた、必要なパターンを示す監視対象のみを処理することにより、器具の検出性能を改善するために使用することができる。   In other embodiments, the pattern can be used to reject or minimize false positive detection of medical devices. That is, by detecting only objects having predetermined visual characteristics, it is possible to avoid detection and tracking of unimportant objects. The patterns are distinguished by different combinations of visible features, for example, and can be used for disambiguation between different instruments. The pattern can be used to determine the suitability of the tool for a desired or current use (eg, to reach a particular depth target). If the tool is not appropriate, a warning can be displayed to the operator. The pattern can be used to verify calibration between photosensitive devices observing the photosensitive device and the instrument with features. Such verification can be accomplished by comparing the apparent heights (eg, measured) of features in a data set from multiple photosensitive devices and rejecting the calibration if the heights are different. it can. The pattern can also be used to improve the detection performance of the instrument by processing only monitored objects that exhibit the required pattern.

図4は、本発明の実施態様に係るワークフロー例400を示している。ステップ410では、少なくとも1つの感光装置150が光を受ける。かかる受けた光には医療器具の軸部から反射された光が含まれている。当該医療器具の軸部または他の器具は、1つ以上の視覚的特徴を有している。当該1つ以上の視覚的特徴には、検出可能なパターンが含まれ、当該検出可能なパターンは、最初に擬似ランダムバイナリコードを用いて作成されたものであり、当該医療器具の軸部に刻印され、印刷され、エッチングされ、または当てはめられているかのいずれかである。   FIG. 4 shows an example workflow 400 according to an embodiment of the present invention. In step 410, at least one photosensitive device 150 receives light. Such received light includes light reflected from the shaft of the medical device. The shaft or other device of the medical device has one or more visual features. The one or more visual features include a detectable pattern that was initially created using a pseudo-random binary code and is stamped on the shaft of the medical device. Either printed, etched, or fitted.

他の実施形態においては、当該視覚的特徴は、当該医療器具の軸部に取り付けられたリングを含んでいる。当該リングは、光を反射し、円筒形はハンドル形の形状を有している。当該リングは、当該医療器具の先端部の挿入深度の算出に用いられる検出可能なパターンを含み、当該検出可能なパターンは、最初に擬似ランダムバイナリコードを用いて作成されたものである。画像処理システム200は、最初に当該リングから医療器具の先端部までの距離を算出し、かかる算出された距離を用いて画像処理システム200を医療機器の追跡のために調整する。次に、ワークフローはステップ410から420に移る。   In other embodiments, the visual feature includes a ring attached to the shaft of the medical device. The ring reflects light, and the cylindrical shape has a handle shape. The ring includes a detectable pattern that is used to calculate the insertion depth of the tip of the medical instrument, and the detectable pattern is first created using a pseudo-random binary code. The image processing system 200 first calculates the distance from the ring to the tip of the medical instrument, and uses the calculated distance to adjust the image processing system 200 for tracking the medical device. The workflow then moves from step 410 to step 420.

ステップ420では、当該医療器具の先端部の挿入深度が算出される。当該挿入深度は、当該医療器具の軸部に設けられた1つ以上の視覚的特徴に基づいて算出される。当該1つ以上の視覚的特徴が有する特性のため、当該1つ以上の視覚的特徴の一部分が当該少なくとも1つの感光装置により光学的に検出可能ではない場合にも、当該医療器具の先端部の挿入深度を正確に算出することができる。例えば、当該視覚的特徴が最初に擬似ランダムバイナリコードを用いて作成された検出可能なパターンを含む場合には、かかるパターンは非反復パターンであるゆえ、パターンのわずかな一部分だけしか光学的に検出可能でないとしても、画像処理システム200は挿入深度を算出することができる。次に、ワークフローはステップ420から430に移る。   In step 420, the insertion depth of the distal end portion of the medical instrument is calculated. The insertion depth is calculated based on one or more visual features provided on the shaft of the medical device. Even if a portion of the one or more visual features is not optically detectable by the at least one photosensitive device due to the characteristics of the one or more visual features, The insertion depth can be calculated accurately. For example, if the visual feature includes a detectable pattern that was initially created using a pseudo-random binary code, such a pattern is a non-repetitive pattern, so only a small portion of the pattern is optically detected. If not possible, the image processing system 200 can calculate the insertion depth. The workflow then moves from step 420 to 430.

ステップ430では、該1つ以上の視覚的特徴を用いて少なくとも一つの医療器具の先端部の位置(例えば、先端部の候補位置)が算出される。算出された先端部の位置は、三次元の平面であってもよく、挿入位置、算出された挿入深度および医療器具の進入角度に基づくものであってもよい。次に、ワークフローはステップ430から440に移る。   In step 430, the position of the tip of at least one medical device (eg, candidate position of the tip) is calculated using the one or more visual features. The calculated position of the distal end portion may be a three-dimensional plane, and may be based on the insertion position, the calculated insertion depth, and the medical device entry angle. The workflow then moves from step 430 to 440.

ステップ440では、医療器具の先端部の挿入深度および先端部の候補位置が拡張表示装置220に表示される。外科医またはその他の医療関係者は、例えばIGI(画像誘導外科措置)を実施するに際して、その表示された情報を用いてもよい。ワークフローは440を以って終了する。   In step 440, the insertion depth of the distal end portion of the medical instrument and the candidate position of the distal end portion are displayed on the extended display device 220. The surgeon or other medical personnel may use the displayed information, for example, when performing an IGI (image guided surgical procedure). The workflow ends with 440.

一つの実施形態においては、医療器具の追跡は器具の一つ以上の視覚的特徴を通じて実行されてもよい。(器具の追跡の基本的方法は、本発明の発明者により既に公開された文献に記載されている。具体的には、Stolka et al. "Navigation with local sensors in handheld 3D ultrasound: initial in−vivo experience," SPIE Medical Imaging 2011, Lake Buena Vista, FL/USA, pp. 79681J−79681J. International Society for Optics and Photonics, 2011, and Wang et al. "The Kinect as an interventional tracking system," SPIE Medical Imaging, San Diego, CA, USA, pp. 83160U−83160Uがある。International Society for Optics and Photonics,2012は、参照によって本出願に組み込まれる。)視覚的特徴には検出可能なパターンが含まれ、該パターンは、最初に擬似ランダムバイナリ配列、より一般的にはド・ブラン配列を用いて作成され、器具に刻印され、印刷され、エッチングされ、または当てはめられている。該パターンは、人体又は動物の中に入り込んだ器具の挿入深度を検出するために用いられる。代替的に、該視覚的特徴は、器具に取り付けたリングなどのような取り付け部品であってもよい。リングは、音や光を反射し、円筒形またはハンドルの形状をしている。リングには器具の先端部の挿入深度を算出するのに使用される検出可能なパターンを含んでいてもよく、該検出可能なパターンは、最初に擬似ランダムバイナリ配列を用いて作成することができる。画像処理システム200は、最初に器具の先端部からリングまで距離を算出し、該算出した距離を、器具の追跡ができるよう撮像システム200を調整するために、用いることができる。   In one embodiment, medical instrument tracking may be performed through one or more visual features of the instrument. (The basic method of instrument tracking is described in the literature already published by the inventor of the present invention. Specifically, Stolka et al. “Navigation with local sensors in handheld 3D ultrasound: initial in-vivo. "experence," SPIE Medical Imaging 2011, Lake Buena Vista, FL, USA, pp. 79681J-79681J. International Society for Optics and Photonics. cal Imaging, San Diego, CA, USA, pp. 83160U-83160U. International Society for Optics and Photonics, 2012 is incorporated into this application by reference.) Visual features include detectable patterns; The pattern is first created using a pseudo-random binary array, more commonly a de-Blanc array, and is imprinted, printed, etched or applied to the instrument. The pattern is used to detect the depth of insertion of an instrument that has entered the human body or animal. Alternatively, the visual feature may be an attachment part such as a ring attached to the instrument. The ring reflects sound and light and has a cylindrical shape or a handle shape. The ring may include a detectable pattern used to calculate the insertion depth of the instrument tip, which can be initially created using a pseudo-random binary array. . The image processing system 200 can first calculate the distance from the tip of the instrument to the ring and use the calculated distance to adjust the imaging system 200 so that the instrument can be tracked.

医療器具の位置決めを支援するために表示される情報には、医療器具と非無限に薄い超音波画像面が交差する長さについての情報を含んでもよく、医療器具ラインにマーカーを描画することにより該交差の広がりが示される。すなわち、医療器具ラインは医療器具の軌跡をあらわしており、医療器具ラインの一部分が超音波画像面を横断する領域を示すため、その一部分に異なる網掛けされていてもよい。   Information displayed to assist in positioning the medical device may include information about the length of intersection of the medical device and the non-infinitely thin ultrasound image plane by drawing a marker on the medical device line. The extent of the intersection is shown. That is, the medical instrument line represents a trajectory of the medical instrument, and a part of the medical instrument line may indicate a region crossing the ultrasonic image plane, and may be shaded differently.

挿入深度は、器具上の1つ以上の視覚的特徴に基づいて算出することができる。該視覚的特徴の特性により、該1つ以上の視覚的特徴の一部が感光装置から光学的に検出可能でない場合であっても、器具の先端部の挿入深度を正確に算出することが可能である。例えば、該視覚的特徴が擬似ランダムバイナリ配列を用いて作成された検出可能なパターンである場合には、該パターンは、小さなセグメント単位で、非周期的かつ固有である。従って、器具のわずかな部分のみが光学的に検出可能である場合であっても、画像処理システム200は挿入深度を算出することができる。該1つ以上の視覚的特徴を用いることにより、器具の先端部の位置(先端部の候補位置)を算出することができる。算出された先端部の位置は、三次元の平面であってもよく、挿入位置、算出された挿入深度および医療器具の進入角度に基づくものであってもよい。器具の先端部の挿入深度および先端部の候補位置が拡張表示装置220に表示される。外科医またはその他の医療関係者は、例えばIGI(画像誘導外科措置)を実施するに際して、その表示された情報を用いてもよい。   The insertion depth can be calculated based on one or more visual features on the instrument. Due to the characteristics of the visual feature, it is possible to accurately calculate the insertion depth of the tip of the instrument even if some of the one or more visual features are not optically detectable from the photosensitive device. It is. For example, if the visual feature is a detectable pattern created using a pseudo-random binary array, the pattern is aperiodic and unique in small segment units. Therefore, the image processing system 200 can calculate the insertion depth even when only a small part of the instrument is optically detectable. By using the one or more visual features, the position of the tip of the instrument (candidate position of the tip) can be calculated. The calculated position of the distal end portion may be a three-dimensional plane, and may be based on the insertion position, the calculated insertion depth, and the medical device entry angle. The insertion depth of the tip of the instrument and the candidate position of the tip are displayed on the extended display device 220. The surgeon or other medical personnel may use the displayed information, for example, when performing an IGI (image guided surgical procedure).

以下、一実施形態において医療器具の軸部のパターンを用いて立体画像の中で医療器具の先端部の位置を特定する技術の一例について説明する。立体画像のペア(左右の感光装置画像)が得られ、感光装置の調整(感光装置の内的パラメータおよび外的パラメータ)が完了した状態から、先端部の位置を特定するための最初の手順として、先ず左右の画像を修正する。次に、両画像において、医療器具を軸部の中央を中心とするライン(直線)として検出する。三次元画像における医療器具の先端部の位置を特定するために、医療器具ラインを三次元空間中に再構築する。そこで、該医療器具ラインについて一定の差分を以ってサンプリングして3Dポイント・セットを得、該3Dポイントを左右の画像に投影し直し、修正された2つの左右の画像に各々対応した2つの2Dポイント・セットを得る。そこで、補間法を用いてピクセル強度を計算する。この結果、規則的サンプリングを伴う2つの強度ベクトルが生成される。次に、該2つの強度ベクトルは全ての可能なサブパターンに対して関連付けが行われる。サブパターンとは、パターン全体の内の連続した最小の長さ部分であって固有のものとして特定し得るものをいう。各サブパターンごとに相関が最大になる位置およびその相関値が記録される。左右のベクトルの各々につき、最大の相関値を示すサブパターンが選択される。サブパターンの先端部とのオフセット(相対位置)がわかっているため、先端部の三次元位置が推定可能である。ここで、左右の画像からは、先端位置のほぼ独立した2つの推定値が提供されることに留意すべきである。検証手順として、当該2つの推定された先端位置がしきい値よりも近くなくてはならないことを検証する。最終的な先端位置は、これらの2つの推定された先端位置の加重平均として決定される。   Hereinafter, an example of a technique for specifying the position of the distal end portion of the medical device in the stereoscopic image using the pattern of the shaft portion of the medical device in one embodiment will be described. As a first procedure to specify the position of the tip from a state where a pair of stereoscopic images (left and right photosensitive device images) is obtained and adjustment of the photosensitive device (internal and external parameters of the photosensitive device) is completed First, the left and right images are corrected. Next, in both images, the medical device is detected as a line (straight line) centered on the center of the shaft portion. In order to determine the position of the tip of the medical instrument in the three-dimensional image, the medical instrument line is reconstructed in the three-dimensional space. Therefore, the medical instrument line is sampled with a certain difference to obtain a 3D point set, the 3D point is re-projected on the left and right images, and two corresponding to the two corrected left and right images respectively. Obtain a 2D point set. Therefore, the pixel intensity is calculated using an interpolation method. This results in two intensity vectors with regular sampling. The two intensity vectors are then associated with all possible subpatterns. The sub-pattern is a continuous minimum length portion of the entire pattern and can be specified as a unique one. The position where the correlation is maximized and the correlation value are recorded for each sub-pattern. For each of the left and right vectors, the sub-pattern showing the maximum correlation value is selected. Since the offset (relative position) with the tip of the sub-pattern is known, the three-dimensional position of the tip can be estimated. It should be noted here that the left and right images provide two almost independent estimates of the tip position. As a verification procedure, it is verified that the two estimated tip positions must be closer than a threshold value. The final tip position is determined as a weighted average of these two estimated tip positions.

図6は、本発明の一実施形態に係る器具先端部の画面コピーを示している。図6は、超音波イメージ610が表示された拡張表示装置220の画面コピーを示している。拡張表示装置220には、さらに、先端部を含む医療器具の現在の位置および将来の軌道630を表す医療器具620の表現情報が表示されており、医療器具は二重線で表示され、先端部は医療器具と垂直な複数の線で表示され、将来の軌道630は、一本の線で表示されている。   FIG. 6 shows a screen copy of the instrument tip according to one embodiment of the present invention. FIG. 6 shows a screen copy of the extended display device 220 on which the ultrasonic image 610 is displayed. The extended display device 220 further displays the current position of the medical instrument including the tip and the expression information of the medical instrument 620 representing the future trajectory 630. The medical instrument is displayed as a double line. Are displayed with a plurality of lines perpendicular to the medical device, and the future trajectory 630 is displayed with a single line.

別の実施形態においては、光波は一つ以上の感光装置によりフィルタリングされ、特定の波長の光のみが通過し、その他の波長の光は遮断されてもよい。特定の波長の光を受けたときのみ発光するよう、医療器具に塗布が施されてもよい。当該被覆材は特定の波長の光を生成又は反射する。当該生成又は反射された特定の波長の光は感光装置により検出されてもよい。当該生成又は反射された特定の波長の光は偽陽性の発生を低減してもよい。さらに、当該被覆材は検出可能パターンが表出する特定の波長の光のみ発光又は生成してもよい。器具の先端部の候補位置および挿入深度は、特定の波長の光により表出した、表示された検出可能パターンに基づいて算出されてもよい。   In another embodiment, the light waves may be filtered by one or more photosensitive devices, allowing only certain wavelengths of light to pass and blocking other wavelengths of light. The medical device may be coated so that it emits light only when it receives light of a specific wavelength. The covering material generates or reflects light having a specific wavelength. The generated or reflected light of a specific wavelength may be detected by a photosensitive device. The generated or reflected light of a specific wavelength may reduce the occurrence of false positives. Furthermore, the covering material may emit or generate only light of a specific wavelength that the detectable pattern appears. The candidate position and insertion depth of the tip of the instrument may be calculated based on the displayed detectable pattern expressed by light of a specific wavelength.

[例示的コンピュータシステム]
図5は、本発明の実施形態を実装するために用いられるコンピュータシステムの一例を示している。具体的には、図5は、これらには限定されないが、例えば、スタンドアローン機器、クライアント機器、サーバ機器などのコンピュータ装置において用いられるコンピュータシステム500の一例を示している。図5は、クライアント機器またはサーバ機器などとして用いられるコンピュータシステムの実施形態を示している。本発明(その一部分およびその一機能を含む)は、ハードウェア、ソフトウェア、ファームウェアあるいはこれらの組み合わせを用いて実装されてもよく、1以上のコンピュータシステムまたは他の処理システムに実装されてもよい。実際のところ、一つの例示的な実施形態においては、本発明は当明細書に記載された機能を実行できる1以上のコンピュータシステムにおいて実施されている。コンピュータシステム500の一例が図5に示されており、図5には本発明を実装できるコンピュータシステムのブロック図が描かれている。具体的には、図5には、これらに限定されないが、米国ワシントン州レドモンドのマイクロソフト社(登録商標)のWindows(登録商標)NT/98/2000/XP/Vista/Windows 7/Windows 8/など、米国カリフォルニア州クパティーノのアップル社(登録商標)のMAC(登録商標)OS、OS X、iOSなどのオペレーティングシステムが稼働するパーソナルコンピュータ(PC)、またはLinux(登録商標)またはこれ以外のUNIX派生品が稼働するコンピュータによる本発明の実施形態が示されている。しかしながら、本発明はこれらプラットフォームに限定されず、本発明は適切なオペレーティングシステムが稼働する適切なコンピュータに実装可能である。一つの実施形態においては、本発明は当明細書にて論ずるコンピュータシステムに実装されてもよい。図5は、かかるコンピュータシステムを構成するコンピュータ500を示す。例えば、これらに限定されないが、計算装置、通信装置、電話機、パーソナル・ディジタル・アシスタント(PDA)、アイフォン(iPhone)、3G/4Gワイヤレス装置、ワイヤレス装置、パーソナルコンピュータ(PC)、ハンドヘルドPC、ラップトップコンピュータ、スマートフォン、携帯機器、ネットブック、ハンドヘルドデバイス、ポータブルデバイス、双方向テレビデバイス(iTV)、デジタルビデオレコーダ(DVR)、クライアントワークステーション、シンクライアント、シッククライアント、ファットクライアント、プロキシサーバ、ネットワーク通信サーバ、リモートアクセスデバイス、クライアントコンピュータ、サーバコンピュータ、ピア・ツー・ピア・デバイス、ルータ、ウェブサーバ、データ、メディア、オーディオ、ビデオ、電話、またはストリーミング技術サーバなど、コンピュータ500以外の本発明の他の構成要素も、図5に示すようなコンピュータを用いて実装することができる。そのような例示的な実施形態では、例えば、デジタル・ビデオ・レコーダー(DVR)を介したインタラクティブテレビジョン装置(iTV)、ビデオ・オンデマンド(VOD)、およびその他のオンデマンド視聴システムなどを用いてオンデマンドでサービスを提供することができる。図1および図2で説明したように、コンピュータシステム500は、ネットワークおよび画像処理コンポーネント100または他の画像処理システム200などのような構成要素を実装するために使用することができる。
[Example Computer System]
FIG. 5 illustrates an example of a computer system used to implement an embodiment of the present invention. Specifically, FIG. 5 illustrates an example of a computer system 500 used in a computer apparatus such as, but not limited to, a stand-alone device, a client device, and a server device. FIG. 5 shows an embodiment of a computer system used as a client device or a server device. The invention (including portions thereof and one function thereof) may be implemented using hardware, software, firmware, or combinations thereof, and may be implemented in one or more computer systems or other processing systems. Indeed, in one exemplary embodiment, the invention is implemented in one or more computer systems capable of performing the functions described herein. An example of a computer system 500 is shown in FIG. 5, which depicts a block diagram of a computer system in which the present invention can be implemented. Specifically, FIG. 5 includes, but is not limited to, Windows (registered trademark) NT / 98/2000 / XP / Vista / Windows 7 / Windows 8 / of Microsoft Corporation (registered trademark) in Redmond, Washington, USA. , A personal computer (PC) running an operating system such as MAC (registered trademark) OS, OS X, and iOS of Apple Corporation (registered trademark) of Cupertino, California, USA, or Linux (registered trademark) or other UNIX derivatives An embodiment of the invention with a computer running is shown. However, the present invention is not limited to these platforms, and the present invention can be implemented on a suitable computer running a suitable operating system. In one embodiment, the present invention may be implemented in a computer system as discussed herein. FIG. 5 shows a computer 500 constituting such a computer system. For example, but not limited to, computing device, communication device, telephone, personal digital assistant (PDA), iPhone (iPhone), 3G / 4G wireless device, wireless device, personal computer (PC), handheld PC, laptop Computer, Smartphone, Mobile device, Netbook, Handheld device, Portable device, Interactive TV device (iTV), Digital video recorder (DVR), Client workstation, Thin client, Thick client, Fat client, Proxy server, Network communication server Remote access devices, client computers, server computers, peer-to-peer devices, routers, web servers, data, And breakfasts, audio, video, telephone, or the like streaming technology servers, other components of the present invention other than the computer 500 may be implemented using a computer such as shown in FIG. In such exemplary embodiments, for example, using an interactive television device (iTV) via a digital video recorder (DVR), video on demand (VOD), and other on-demand viewing systems. Services can be provided on demand. As described in FIGS. 1 and 2, the computer system 500 can be used to implement components such as the network and image processing component 100 or other image processing system 200.

コンピュータシステム500は、例えば、これに限定されないが、プロセッサ504など1以上のプロセッサ504であってもよい。該1以上のプロセッサ504は、通信インフラストラクチャ506(例えば、これに限定されないが、通信バス、クロスオーバーバー、相互接続、またはネットワークなど)に接続することができる。プロセッサ504、は命令を解釈し実行することができるものであればいかなるタイプのプロセッサ、マイクロプロセッサ、または処理ロジック(例えば、フィールドプログラマブルゲートアレイ(FPGA))であってもよい。プロセッサ504は、単一のデバイス(例えば、シングルコア)であっても複数デバイスのグループ(例えば、マルチコア)であってもよい。プロセッサ504は、1つ以上の実施形態を実装するように組まれたコンピュータ実行可能命令を実行するように構成されたロジックを含むことができる。該命令は、メインメモリ508または二次メモリ510に常駐させることができる。プロセッサ504はまた、デュアルコアプロセッサまたはマルチコアプロセッサなどの複数の独立したコアを含んでいてもよい。プロセッサ504はまた、1つ以上の専用のグラフィックカード、統合グラフィック溶液の形態であってもよく、グラフィックスプロセッシングユニット(GPU)、および/またはハイブリッドグラフィックソリューションを含むことができる。様々な例示的なソフトウェアの実施形態は、この例示的なコンピュータシステムの点から説明することができる。この説明を読むと、いかにして、他のコンピュータシステムおよび/またはアーキテクチャを使用して本発明を実行するかが、関連する技術分野における熟練者には明らかになるであろう。   The computer system 500 may be one or more processors 504, such as, but not limited to, the processor 504. The one or more processors 504 can be connected to a communication infrastructure 506 (eg, but not limited to a communication bus, crossover bar, interconnect, or network). The processor 504 may be any type of processor, microprocessor, or processing logic (eg, field programmable gate array (FPGA)) that can interpret and execute instructions. The processor 504 may be a single device (eg, single core) or a group of multiple devices (eg, multi-core). The processor 504 can include logic configured to execute computer-executable instructions configured to implement one or more embodiments. The instructions can reside in main memory 508 or secondary memory 510. The processor 504 may also include multiple independent cores such as a dual core processor or a multi-core processor. The processor 504 may also be in the form of one or more dedicated graphics cards, integrated graphics solutions, and may include a graphics processing unit (GPU), and / or a hybrid graphics solution. Various exemplary software embodiments can be described in terms of this exemplary computer system. After reading this description, it will become apparent to one skilled in the relevant art how to implement the invention using other computer systems and / or architectures.

コンピュータシステム500は、通信インフラストラクチャ506(又は、図示されないフレームバッファー)から、例えば、これらに限定されないが、グラフィック、テキストその他のデータなどをディスプレイ・ユニット501に表示するためのディスプレイ・インタフェース502を含むことができる。ディスプレイ・ユニット501は、例えば、テレビ、コンピュータモニタまたは携帯電話の画面である。出力は、スピーカーから音として提供されてもよい。   The computer system 500 includes a display interface 502 for displaying graphics, text, and other data on the display unit 501 from the communication infrastructure 506 (or a frame buffer not shown), such as, but not limited to. be able to. The display unit 501 is a screen of a television, a computer monitor or a mobile phone, for example. The output may be provided as sound from a speaker.

コンピュータシステム500は、メインメモリ508、ランダムアクセスメモリ(RAM)、二次メモリ510などを含むことができる。メインメモリ508、ランダムアクセスメモリ(RAM)、二次メモリ510などは、実施形態を実装するための命令を記憶するコンピュータ可読媒体であってもよく、ダイナミックRAM(DRAM)装置、フラッシュメモリ装置、スタティックRAM(SRAM)装置などのRAM装置であってもよい。   The computer system 500 can include a main memory 508, a random access memory (RAM), a secondary memory 510, and the like. Main memory 508, random access memory (RAM), secondary memory 510, etc., may be computer readable media that store instructions for implementing the embodiments, such as dynamic RAM (DRAM) devices, flash memory devices, static memory devices. It may be a RAM device such as a RAM (SRAM) device.

二次メモリ510には、例えば、これらに限定されないが、ハードディスクドライブ512および可動記憶装置514が含まれ、可動記憶装置514としては、フロッピー(登録商標)ディスク、磁気テープ装置、光ディスクドライブ、CD−ROM、フラッシュメモリなどがある。可動記憶装置514は、例えば、これに限定されないが、よく知られた方法で可動記憶ユニット518との間でデータの読み書きを行う。可動記憶ユニット518は、プログラム記憶装置またはコンピュータプログラム製品とも呼ばれることがあり、これらに限定されないが、可動記憶装置514との間でデータの読み書きを行うフロッピーディスク、磁気テープ、光ディスクなどが含まれる。以上により理解できるとおり、可動記憶ユニット518には、コンピュータプログラムやデータを格納したコンピュータで使用可能な記憶媒体が含まれる。   The secondary memory 510 includes, for example, but not limited to, a hard disk drive 512 and a movable storage device 514. Examples of the movable storage device 514 include a floppy (registered trademark) disk, a magnetic tape device, an optical disk drive, a CD- There are ROM, flash memory, and the like. For example, the movable storage device 514 reads / writes data from / to the movable storage unit 518 by a well-known method. The movable storage unit 518 may be referred to as a program storage device or a computer program product, and includes, but is not limited to, a floppy disk, a magnetic tape, and an optical disk that read and write data from and to the movable storage device 514. As can be understood from the above, the movable storage unit 518 includes a storage medium usable by a computer storing a computer program and data.

別の例示的な実施形態において、二次メモリ510は、コンピュータプログラム又は他の命令をコンピュータシステム500にロードするための他の同様の装置を含むことができる。例えば、可動記憶ユニット522およびインタフェース520がある。さらに、プログラムカートリッジ、カートリッジインタフェース(例えば、これに限定されないが、ビデオゲーム装置の中に見られるもの)、取り外し可能なメモリチップ(例えば、これらに限定されないが、読み出し専用消去可能プログラマブルメモリ(EPROM)、読み出し専用のプログラムマブルメモリ(PROM)および関連するソケットと、ソフトウェアおよびデータを可能にする他の可動記憶ユニット522およびインタフェース520があり、これらの装置により可動記憶ユニット522からコンピュータシステム500にソフトウェアやデータが転送される。   In another exemplary embodiment, secondary memory 510 may include other similar devices for loading computer programs or other instructions into computer system 500. For example, there is a movable storage unit 522 and an interface 520. Further, program cartridges, cartridge interfaces (eg, but not limited to those found in video game devices), removable memory chips (eg, but not limited to, read-only erasable programmable memory (EPROM)) , There is a read-only programmable memory (PROM) and associated socket, and other movable storage unit 522 and interface 520 that allow software and data to be transferred from the movable storage unit 522 to the computer system 500 by these devices. Or data is transferred.

コンピュータシステム500は、入力装置503をさらに備えてもよく、該入力装置503は、ユーザ等からコンピュータシステム500にデータを入力する機構またはかかる機構の組み合わせを有している。入力装置503は、コンピュータシステム500に入力するデータを例えばユーザ等から受け取るロジックを有している。入力装置503には、これらに限定されないが、例えば、マウス、ライトペン式のポインティングデバイス、ディジタイザー等の他のポインティングデバイス、タッチパネル式の表示装置、キーボードその他のデータ入力装置(いずれも図示されていない)が含まれる。他の入力装置503の例としては、これらに限定されないが、バイオメトリック入力装置、ビデオソース、オーディオソース、マイクロフォン、ウェブカメラ、ビデオカメラ、感光装置その他のカメラなどが挙げられる。   The computer system 500 may further include an input device 503. The input device 503 has a mechanism for inputting data to the computer system 500 from a user or the like, or a combination of such mechanisms. The input device 503 has logic for receiving data to be input to the computer system 500 from, for example, a user. Examples of the input device 503 include, but are not limited to, a mouse, a light pen type pointing device, another pointing device such as a digitizer, a touch panel type display device, a keyboard, and other data input devices (all illustrated. Not included). Examples of other input devices 503 include, but are not limited to, biometric input devices, video sources, audio sources, microphones, webcams, video cameras, photosensitive devices and other cameras.

コンピュータシステム500には、コンピュータシステム500から情報を出力できるあらゆる機構又はかかる機構の組み合わせである出力装置515が含まれる。出力装置515には、コンピュータシステム500からの情報を出力するためのロジックが含まれていてもよい。出力装置515の実施形態には、これらに限られないが、ディスプレイ501、ディスプレイ・インタフェース502、及びディスプレイ、プリンタ、スピーカ、陰極線管(CRT)、プラズマディスプレイ、発光ダイオード(LED)ディスプレイ、液晶ディスプレイ(LCD)、プリンタ、真空蛍光ディスプレイ(VFD)、表面伝導型電子放出素子ディスプレイ(SED)、フィールドエミッションディスプレイ(FED)等が含まれる。コンピュータシステム500は、例えば、これらに限定されないが、入力装置503、通信インタフェース524、ケーブル528および通信経路526などの入出力(I/O)装置を含んでよい。これらの装置には、例えば、これらに限定されないが、ネットワークインタフェースカード、およびモデムなどが含まれる。   The computer system 500 includes an output device 515 that is any mechanism or combination of such mechanisms that can output information from the computer system 500. The output device 515 may include logic for outputting information from the computer system 500. Embodiments of output device 515 include, but are not limited to, display 501, display interface 502, and display, printer, speaker, cathode ray tube (CRT), plasma display, light emitting diode (LED) display, liquid crystal display ( LCD), printer, vacuum fluorescent display (VFD), surface conduction electron-emitting device display (SED), field emission display (FED), and the like. The computer system 500 may include input / output (I / O) devices such as, but not limited to, an input device 503, a communication interface 524, a cable 528, and a communication path 526. These devices include, for example, without limitation, network interface cards, modems, and the like.

通信インタフェース524はコンピュータシステム500と外部装置との間でソフトウェアおよびデータの転送を行う。   The communication interface 524 transfers software and data between the computer system 500 and an external device.

当明細書においては、「コンピュータプログラム媒体」および「コンピュータ可読媒体」という用語は、これらに限定されないが、可動記憶装置514、ハードディスクドライブ512中のハードディスク、フラッシュメモリ、可動型ディスク、固定型ディスクなど、広く媒体一般を指し示す。さらに、無線通信、導電性ワイヤ(例えば、これに限定されないが、ツイストペア、CAT5など)または光媒体(例えば、これに限定されないが、光ファイバ)などを介して搬送される電気通信などの様々な電磁放射は、コンピュータ実行可能命令、および/またはコンピュータ・データを伝送するために符号化することができることに留意すべきである。かかるコンピュータプログラムは、コンピュータシステム500にソフトウェアを提供する。プロセッサにおいて実行されるコンピュータ実行可能命令を備えたコンピュータ可読媒体は、本発明の様々な実施形態を実装したプログラムを記憶するような構成であってもよい。「一実施形態」、「実施形態」、「一実施形態」、「様々な実施形態」というときは、そのように記載される本発明の実施形態は特定の特徴、構造、または特性を含み得ることを示すかもしれないが、必ずしもすべての実施形態が該特定の特徴、構造、または特性を含むものではない。   In this specification, the terms “computer program medium” and “computer readable medium” are not limited to these, but include a movable storage device 514, a hard disk in a hard disk drive 512, a flash memory, a movable disk, a fixed disk, and the like. Widely point to the medium in general. In addition, various communications such as wireless communications, conductive wires (eg, but not limited to, twisted pair, CAT5, etc.) or optical media (eg, but not limited to optical fibers) etc. It should be noted that the electromagnetic radiation can be encoded to transmit computer-executable instructions and / or computer data. Such a computer program provides software to the computer system 500. A computer readable medium having computer-executable instructions executed on a processor may be configured to store a program implementing various embodiments of the present invention. References to “one embodiment”, “an embodiment”, “one embodiment”, and “various embodiments” may include certain features, structures, or characteristics of the invention so described. It may be shown that not every embodiment includes the particular feature, structure, or characteristic.

さらに、「一実施形態では」あるいは「例示的実施形態では」というフレーズを繰り返し使用するときは、同一の実施形態を参照する場合があるが、必ずしも常にそうとは限らない。本明細書中の様々な実施形態は組み合わせてもよく、実施形態の特徴を組み合わせて新たな実施形態が形成されてもよい。   Further, repeated use of the phrases “in one embodiment” or “in an exemplary embodiment” may refer to the same embodiment, but is not necessarily so. Various embodiments in this specification may be combined, and new embodiments may be formed by combining features of the embodiments.

特に別途断らない限り、以下の議論から明らかなとおり、「処理」、「コンピューティング」、「計算」、「判断」等の用語を用いた本明細書での議論を通じて、それらの用語は、コンピュータシステムのレジスタやメモリ内にある例えば電子量のような物理量を表現するデータを、同様に物理量を表現する異なるデータに加工・変形して、コンピュータメモリ、レジスタまたは他の情報記憶装置、通信装置または表示装置に保管するコンピュータ、コンピュータシステムまたは同様の電気計算装置のアクションまたはプロセスを指していることが理解できる。   Unless otherwise specified, as will be apparent from the following discussion, these terms are used throughout the discussion in this specification using terms such as “processing”, “computing”, “calculation”, and “judgment”. For example, data representing a physical quantity such as an electronic quantity in a register or memory of a system is processed and transformed into different data that similarly represents a physical quantity, and the computer memory, register or other information storage device, communication device or It can be understood that it refers to the action or process of a computer, computer system or similar electrical computing device stored on a display device.

同様に、「プロセッサ」という用語は、レジスタに格納される他の電子データにその電子データを変換するためにレジスタおよび/またはメモリからの電子データを処理する装置の任意のデバイスまたは一部を指し示すことがある。「コンピューティングプラットフォーム」というときは、一つ以上のプロセッサを含むことができる。   Similarly, the term “processor” refers to any device or part of an apparatus that processes electronic data from a register and / or memory to convert that electronic data into other electronic data stored in a register. Sometimes. Reference to a “computing platform” can include one or more processors.

本発明の実施形態は、本明細書に記載した動作を実行するための装置を含むことができる。所望の用途のために一つの装置が個別に構築されてもよいし、あるいは、装置に格納されたプログラムによって選択的に起動又は再構成できる汎用デバイスが構築されてもよい。   Embodiments of the invention can include an apparatus for performing the operations described herein. One device may be individually constructed for a desired application, or a general-purpose device that can be selectively activated or reconfigured by a program stored in the device may be constructed.

実施形態は、多くの異なる方法でソフトウェアコンポーネントとして具現化することができる。例えば、それはスタンドアロンのソフトウェアパッケージであってもよく、または、例えば、科学的なモデリング製品であり、「ツール」として大規模なソフトウェア製品の一部分に組み込まれたソフトウェアパッケージであってもよい。それは、スタンドアロン製品として、または既存のソフトウェア・アプリケーションのインストール用のアドインパッケージとして、ネットワーク、例えばウェブサイトからダウンロード可能であってもよい。また、クライアント・サーバ・ソフトウェア・アプリケーションとして利用可能である、またはウェブ対応のソフトウェア・アプリケーションとして。また、ネットワークのカバレッジと応答性を検出するためのシステムの一部であってもよい。汎用コンピュータは、本明細書に示された技術および図4のステップを1つまたは複数のプロセッサで実行することができるようにプログラミング・ロジックを格納することによって特化されてもよい。   Embodiments can be embodied as software components in many different ways. For example, it may be a stand-alone software package or, for example, a scientific modeling product, which may be a software package that is embedded as part of a large software product as a “tool”. It may be downloadable from a network, for example a website, as a stand-alone product or as an add-in package for installation of existing software applications. Also available as a client-server software application or as a web-enabled software application. It may also be part of a system for detecting network coverage and responsiveness. A general purpose computer may be specialized by storing programming logic so that the techniques described herein and the steps of FIG. 4 can be performed by one or more processors.

本発明の実施形態は、本明細書に記載した動作を実行するための装置を含むことができる。所望の用途のために一つの装置が個別に構築されてもよいし、あるいは、装置に格納されたプログラムによって選択的に起動又は再構成できる汎用デバイスが構築されてもよい。   Embodiments of the invention can include an apparatus for performing the operations described herein. One device may be individually constructed for a desired application, or a general-purpose device that can be selectively activated or reconfigured by a program stored in the device may be constructed.

上述実施形態は、多くの異なる方法でソフトウェアコンポーネントとして具体化することができる。例えば、スタンドアロンのソフトウェアパッケージであってもよいし、より大きなソフトウェア製品の「ツール」として組み込まれたソフトウェアパッケージであってもよい。また、スタンドアロン製品として、または既存のソフトウェア・アプリケーションにインストールされるアドインパッケージとして、ネットワーク、例えばウェブサイト、からダウンロード可能であってもよい。さらに、クライアント・サーバ型のソフトウェア・アプリケーションとして利用可能であってもよく、ウェブ対応のソフトウェア・アプリケーションとして利用可能であってもよい。   The above-described embodiments can be embodied as software components in many different ways. For example, it may be a stand-alone software package or a software package incorporated as a “tool” of a larger software product. It may also be downloadable from a network, such as a website, as a stand-alone product or as an add-in package installed in an existing software application. Further, it may be available as a client / server type software application, or may be available as a web-compatible software application.

本発明の様々な実施形態について説明してきたが、これらはほんの一例として、限定ではなく提示されていることを理解すべきである。したがって、本発明の範囲は上記実施形態のいずれによっても限定されるべきではなく、その代わりに以下の特許請求の範囲及びその均等物によってのみ定義されるべきである。   Although various embodiments of the present invention have been described, it should be understood that these are presented by way of example and not limitation. Accordingly, the scope of the invention should not be limited by any of the above-described embodiments, but should instead be defined only by the following claims and their equivalents.

100 画像処理コンポーネント
110 画像処理器具
120 ブラケット
130 底部シェル
140 プリント回路基板
150 感光装置
160 レンズ
170 安定化アセンブリ
180 上部シェル
190 ねじ
200 画像処理システム
210 画像表示装置
220 拡張表示装置
310 医療器具
320 医療器具
330 医療器具
610 超音波イメージ
620 医療器具
630 将来の軌道
DESCRIPTION OF SYMBOLS 100 Image processing component 110 Image processing instrument 120 Bracket 130 Bottom shell 140 Printed circuit board 150 Photosensitive device 160 Lens 170 Stabilization assembly 180 Top shell 190 Screw 200 Image processing system 210 Image display device 220 Expanded display device 310 Medical device 320 Medical device 330 Medical instrument 610 Ultrasound image 620 Medical instrument 630 Future trajectory

Claims (30)

軸部と、先端部とを有する医療器具であって、前記医療器具の前記軸部が、光学的に検出可能であり、かつ、前記先端部の位置を決定することを可能ならしめる非均一非反復パターンを有する医療器具と、
前記非均一非反復パターンのどのセグメントが可視であるかにかかわらず、前記医療器具の位置の検出および追跡をする光学画像処理システムと、
前記光学画像処理システムから受け取ったデータに基づき、前記先端部の位置情報を含む前記医療器具のリアルタイム表現情報を表示する表示装置とを備え、
前記非均一非反復パターンは、非均一非反復の空白と幅を有する塗りつぶしの配列からなり、前記配列は少なくとも3つの部分配列を有し、かつ、各部分配列のパターンは一度しか現れないことを特徴とする画像誘導外科手術システム。
A medical device having a shaft portion and a tip portion, wherein the shaft portion of the medical device is optically detectable and makes it possible to determine the position of the tip portion. A medical device having a repeating pattern;
An optical image processing system for detecting and tracking the position of the medical device regardless of which segments of the non-uniform non-repeating pattern are visible;
A display device for displaying real-time expression information of the medical instrument including positional information of the tip based on data received from the optical image processing system;
The non-uniform non-repeating pattern comprises a non-uniform non-repeating blank and width fill array, the array has at least three sub-arrays, and each sub-array pattern appears only once A featured image guided surgical system.
前記医療器具は、針、ポインタ、生体組織検査器具、腹腔鏡、切除装置、外科手術器具または長尺器具のいずれか1つからなることを特徴とする請求項1に記載の画像誘導外科手術システム。   The image-guided surgical system according to claim 1, wherein the medical instrument includes any one of a needle, a pointer, a biological tissue examination instrument, a laparoscope, a resecting device, a surgical instrument, and a long instrument. . 前記光学画像処理システムは、前記医療器具の挿入深度および少なくとも1つの先端部の候補位置を算出することを特徴とする請求項1に記載の画像誘導外科手術システム。   The image-guided surgical system according to claim 1, wherein the optical image processing system calculates an insertion depth of the medical instrument and a candidate position of at least one tip. 前記非均一非反復パターンは前記光学画像処理システムにより検出可能であり、前記光学画像処理システムは、前記非均一非反復パターンが検出されたことを条件に、該非均一非反復パターンに基づいて、前記医療器具の前記先端部の挿入深度の算出および前記医療器具の前記先端部の追跡のうち少なくともいずれか一方を行い、前記非均一非反復パターンは、任意の最低長の各部分配列が一度しか現れない配列に基づくものであることを特徴とする請求項1に記載の画像誘導外科手術システム。     The non-uniform non-repeating pattern is detectable by the optical image processing system, and the optical image processing system is based on the non-uniform non-repeating pattern on the condition that the non-uniform non-repeating pattern is detected. Calculation of the insertion depth of the tip of the medical device and / or tracking of the tip of the medical device are performed, and the non-uniform non-repeating pattern is such that each partial sequence of any minimum length appears only once. The image-guided surgical system according to claim 1, wherein the image-guided surgical system is based on a non-arranged sequence. 軸部と、先端部とを有する医療器具であって、前記医療器具の前記軸部が、光学的に検出可能であり、かつ、前記先端部の位置を決定することを可能ならしめる非反復パターンを有する医療器具と、
前記非反復パターンのどのセグメントが可視であるかにかかわらず、前記医療器具の位置を検出し、かつ、追跡する光学画像処理システムと、
前記光学画像処理システムから受け取ったデータに基づき、前記先端部の位置情報を含む前記医療器具のリアルタイム表現情報を表示する表示装置とを備え、
前記非反復パターンは、ド・ブラン配列または擬似ランダムバイナリ配列のいずれかよりなることを特徴とする画像誘導外科手術システム。
A non-repeating pattern for a medical device having a shaft portion and a tip portion, wherein the shaft portion of the medical device is optically detectable and allows the position of the tip portion to be determined. A medical device having
An optical image processing system that detects and tracks the position of the medical device regardless of which segments of the non-repeating pattern are visible;
A display device for displaying real-time expression information of the medical instrument including positional information of the tip based on data received from the optical image processing system;
The image-guided surgical system according to claim 1, wherein the non-repetitive pattern is composed of either a de-Blanc array or a pseudo-random binary array.
前記非均一非反復パターンは、前記医療器具の前記軸部に刻印され、印刷され、エッチングされ、または当てはめられているかのいずれかであることを特徴とする請求項1に記載の画像誘導外科手術システム。   The image-guided surgery of claim 1, wherein the non-uniform non-repeating pattern is either stamped, printed, etched, or applied to the shaft of the medical device. system. 前記光学画像処理システムは、前記非均一非反復パターンの前記最低長の一部分のみが前記光学画像処理システムにより光学的に検出可能であるときに前記挿入深度を正確に算出することを特徴とする請求項1に記載の画像誘導外科手術システム。   The optical image processing system accurately calculates the insertion depth when only a portion of the minimum length of the non-uniform non-repeating pattern is optically detectable by the optical image processing system. Item 8. The image-guided surgical operation system according to Item 1. 前記光学画像処理システムは、前記非均一非反復パターンの区別可能な各構成要素が異なるk種類の値を取ることができかつ前記非均一非反復パターンの長さが前記構成要素k個分の長さである場合において、前記非均一非反復パターンの少なくともn/kの部分が前記光学画像処理システムにより光学的に検出可能であるときに前記挿入深度を正確に算出することを特徴とすることを特徴とする請求項3に記載の画像誘導外科手術システム。 In the optical image processing system, each distinguishable component of the non-uniform non-repeating pattern can take different k kinds of values, and the length of the non-uniform non-repetitive pattern is equal to the number of the component k n . in case of a length, wherein the insertion depth can be calculated accurately when the least n / k n portions of non-uniform non-repeating pattern is optically detectable by the optical imaging system The image-guided surgical system according to claim 3. 前記医療器具に連結された取付部品をさらに備えたことを特徴とする請求項1に記載の画像誘導外科手術システム。   The image-guided surgical system according to claim 1, further comprising an attachment part connected to the medical instrument. 前記取付部品から前記先端部までの距離が前記光学画像処理システムによって算出され、かつ、前記光学画像処理システムが前記取付部品から前記先端部までの実際の距離に調整されることを特徴とする請求項9に記載の画像誘導外科手術システム。   The distance from the attachment part to the tip part is calculated by the optical image processing system, and the optical image processing system is adjusted to an actual distance from the attachment part to the tip part. Item 10. The image-guided surgical system according to Item 9. 前記取付部品は、少なくともクリップオンリングまたは反射材料のいずれか一方からなり、前記クリップオンリングは円形、楕円形、円筒形またはハンドル形のいずれかであることを特徴とする請求項9に記載の画像誘導外科手術システム。   The attachment part is made of at least one of a clip-on ring and a reflective material, and the clip-on ring is one of a circular shape, an elliptical shape, a cylindrical shape, and a handle shape. Image guided surgical system. 前記取付部品は、前記光学画像処理システムによって検出可能なパターンを含み、前記パターンは前記光学画像処理システムによって前記挿入深度の算出および追跡のために用いられ、前記パターンは、最初に周期的配列を用いて作成され、前記周期的配列は任意の最低長の各部分配列が一度しか現れない配列であることを特徴とする請求項9に記載の画像誘導外科手術システム。   The mounting part includes a pattern detectable by the optical image processing system, and the pattern is used by the optical image processing system for calculation and tracking of the insertion depth, and the pattern first has a periodic arrangement. The image-guided surgical system according to claim 9, wherein the periodic array is an array in which each partial array having an arbitrary minimum length appears only once. 前記光学画像処理システムは、さらに、特定の波長の光に感応し、その他の波長の光を制限する1以上の感光装置と、前記医療器具の被覆材を照射する1以上の発光装置を備え、前記被覆材は前記照射に応じて前記特定の波長の光を発光又は反射することを特徴とする請求項1に記載の画像誘導外科手術システム。   The optical image processing system further includes one or more photosensitive devices that are sensitive to light of a specific wavelength and restrict light of other wavelengths, and one or more light-emitting devices that irradiate the covering material of the medical instrument, The image-guided surgical system according to claim 1, wherein the covering material emits or reflects light having the specific wavelength in accordance with the irradiation. 前記1以上の感光装置は、1以上のカメラからなることを特徴とする請求項13に記載の画像誘導外科手術システム。   The image-guided surgical system according to claim 13, wherein the one or more photosensitive devices include one or more cameras. 前記被覆材は、照射されたパターンを呈し、前記パターンは、前記光学画像処理システムによって検出可能であり、前記パターンは前記光学画像処理システムによって前記挿入深度の算出および追跡のために用いられ、前記パターンは、最初に周期的配列を用いて作成され、前記周期的配列は任意の最低長の各部分配列が一度しか現れない配列であることを特徴とする請求項13に記載の画像誘導外科手術システム。   The dressing exhibits an illuminated pattern, the pattern is detectable by the optical image processing system, and the pattern is used by the optical image processing system for calculating and tracking the insertion depth, The image-guided surgical procedure of claim 13, wherein the pattern is initially created using a periodic array, wherein the periodic array is an array in which each sub-sequence of any minimum length appears only once. system. 先端部と、
前記先端部と一体に設けられまたは前記先端部に取り付けられる軸部とを備え、画像誘導医療システムとともに使用される器具であって、
前記軸部は、光学的に検出可能な非均一非反復パターンを有し、前記非均一非反復パターンは、少なくとも前記軸部に刻印され、印刷され、エッチングされ、または当てはめられているかのいずれかであり、前記非均一非反復パターンは、非均一非反復の空白と幅を有する塗りつぶしの配列からなり、前記配列は少なくとも3つの部分配列を有し、かつ、各部分配列のパターンは一度しか現れず、
前記非均一非反復パターンは、前記画像誘導医療システムが、前記非均一非反復パターンのどのセグメントが可視であるかにかかわらず、かつ、前記先端部が対応する画像に覆い隠されているか否かにかかわらず、前記先端部の位置をリアルタイムに定めるにあたり前記画像誘導医療システムの使用に適することを特徴とする器具。
The tip,
An instrument used with an image guiding medical system, comprising a shaft portion integrally provided with the tip portion or attached to the tip portion,
The shank has an optically detectable non-uniform non-repeating pattern, and the non-uniform non-repeating pattern is at least either imprinted, printed, etched, or applied to the shank. The non-uniform non-repeating pattern comprises a non-uniform non-repeating blank and width fill array, the array having at least three sub-arrays, and each sub-array pattern appears only once. Without
The non-uniform non-repeating pattern indicates whether the image-guided medical system is obscured by the corresponding image regardless of which segments of the non-uniform non-repeating pattern are visible. Regardless of this, the apparatus is suitable for use in the image guided medical system in determining the position of the tip in real time.
1以上のプロセッサ装置により、1以上の光学装置から、器具の軸部から反射される光を含む入力を受ける工程と、
前記1以上のプロセッサ装置により、前記器具の位置の検出および追跡をする工程と
前記1以上のプロセッサ装置により、前記器具の先端部の挿入深度および前記先端部の1つ以上の候補位置を表示する工程を含む画像処理方法であって、
前記器具の前記軸部は光学的に検出可能な非均一非反復パターンを有し、前記非均一非反復パターンは、非均一非反復の空白と幅を有する塗りつぶしの配列からなり、前記配列は少なくとも3つの部分配列を有し、かつ、各部分配列のパターンは一度しか現れないこと、および
前記追跡には、前記1以上のプロセッサ装置により、前記非均一非反復パターンのどのセグメントが可視であるかにかかわらず、前記非均一非反復パターンを用いて三次元空間における前記先端部の1つ以上の候補位置を算出することが含まれることを特徴とする画像処理方法。
Receiving an input including light reflected from the shaft of the instrument from one or more optical devices by one or more processor devices;
Detecting and tracking the position of the instrument by the one or more processor devices; and displaying the insertion depth of the tip of the instrument and one or more candidate positions of the tip by the one or more processor devices. An image processing method including a process,
The shank of the instrument has an optically detectable non-uniform non-repeating pattern, the non-uniform non-repeating pattern comprising an array of fills having non-uniform non-repeating blanks and widths, the array comprising at least It has three sub-arrays, and the pattern of each sub-array appears only once, and for the tracking, which segment of the non-uniform non-repeating pattern is visible by the one or more processor devices Regardless of the method, the method includes calculating one or more candidate positions of the tip in a three-dimensional space using the non-uniform non-repetitive pattern.
前記非均一非反復パターンが偽陽性検出を最小化することを特徴とする請求項17に記載の画像処理方法。   The image processing method of claim 17, wherein the non-uniform non-repeating pattern minimizes false positive detection. 前記非均一非反復パターンに基づいて前記器具の器具タイプを決定する工程をさらに含むことを特徴とする請求項17に記載の画像処理方法。   The image processing method according to claim 17, further comprising determining an instrument type of the instrument based on the non-uniform non-repeating pattern. 前記決定された前記器具タイプが現在の用途に適するか否かを決定する工程および不適切な器具が用いられている場合に1以上の警告を表示する工程をさらに含むことを特徴とする請求項19に記載の画像処理方法。   The method of claim 1, further comprising: determining whether the determined instrument type is suitable for a current application; and displaying one or more warnings when an inappropriate instrument is used. 20. The image processing method according to 19. 前記1以上の光学装置のうちの第1の光学装置と第2の光学装置の間の調整を検証する工程をさらに含み、前記検証には、前記1以上の光学装置のうちの前記第1の光学装置と前記第2の光学装置から得られるデータセットの前記非均一非反復パターンの測定された高さを比較すること、および前記測定された高さが異なる場合には前記調整を拒絶する工程をさらに含むことを特徴とする請求項17に記載の画像処理方法。   The method further includes verifying an adjustment between a first optical device and a second optical device of the one or more optical devices, wherein the verification includes the first of the one or more optical devices. Comparing the measured height of the non-uniform non-repeating pattern of the data set obtained from the optical device and the second optical device, and rejecting the adjustment if the measured heights are different The image processing method according to claim 17, further comprising: 前記非均一非反復パターンを呈すると認められた対象物のみを処理することを特徴とする請求項17に記載の画像処理方法。   The image processing method according to claim 17, wherein only an object recognized to exhibit the non-uniform non-repetitive pattern is processed. 前記非均一非反復パターンは、周期的配列を用いて作成され、前記周期的配列は任意の最低長の各部分配列が一度しか現れない配列であり、前記非均一非反復パターンは、前記器具の前記軸部に刻印され、印刷され、エッチングされ、または当てはめられているかのいずれかであることを特徴とする請求項17に記載の画像処理方法。   The non-uniform non-repeating pattern is created using a periodic array, the periodic array being an array in which each partial sequence of any minimum length appears only once, and the non-uniform non-repeating pattern is The image processing method according to claim 17, wherein the shaft portion is stamped, printed, etched, or fitted. 前記器具の前記軸部の前記非均一非反復パターンを用いて前記器具の前記先端部の挿入深度を算出する工程をさらに含むことを特徴とする請求項17に記載の画像処理方法。   The image processing method according to claim 17, further comprising a step of calculating an insertion depth of the tip portion of the instrument using the non-uniform non-repeating pattern of the shaft portion of the instrument. 前記器具の前記先端部の挿入深度を算出する工程においては、前記非均一非反復パターンの一部分が前記1以上の光学装置により光学的に検出可能でない場合であっても、前記器具の前記先端部の挿入深度が正確に算出されることを特徴とする請求項24に記載の画像処理方法。   In the step of calculating the insertion depth of the tip of the instrument, even if a portion of the non-uniform non-repeating pattern is not optically detectable by the one or more optical devices, the tip of the instrument 25. The image processing method according to claim 24, wherein the insertion depth is accurately calculated. 前記器具の前記軸部に取付部品が連結されていることを特徴とする請求項17に記載の画像処理方法。   The image processing method according to claim 17, wherein an attachment component is connected to the shaft portion of the instrument. 前記取付部品から前記先端部までの距離を算出する工程と、
前記取付部品から前記先端部までの前記算出された距離に基づいて、光学画像処理システムを調整する工程をさらに含むこと特徴とする請求項26に記載の画像処理方法。
Calculating the distance from the mounting part to the tip,
27. The image processing method according to claim 26, further comprising a step of adjusting an optical image processing system based on the calculated distance from the attachment part to the tip portion.
前記取付部品は、少なくともクリップオンリング、反射材料または検出可能パターンのいずれかよりなり、前記クリップオンリングは円形、楕円形、円筒形またはハンドル形のいずれかであり、前記検出可能パターンは前記器具の前記先端部分の挿入深度の算出のために用いられ、前記検出可能パターンは、最初に周期的配列を用いて作成され、前記周期的配列は任意の最低長の各部分配列が一度しか現れない配列であることを特徴とする請求項26に記載の画像処理方法。   The mounting part is composed of at least one of a clip-on ring, a reflective material, and a detectable pattern, and the clip-on ring is circular, elliptical, cylindrical, or handle-shaped, and the detectable pattern is the instrument. Is used to calculate the insertion depth of the tip portion, and the detectable pattern is first created using a periodic array, where each periodic array of any minimum length appears only once. 27. The image processing method according to claim 26, wherein the image processing method is an array. 特定の波長の光を許可する前記1以上の光学装置から光波を受け、その他の波長の光を制限る工程と、
前記器具の被覆材を照射する工程と、
前記被覆材により前記特定の波長の光を発光又は反射する工程をさらに含むことを特徴とする請求項17に記載の画像処理方法。
Receiving light waves from the one or more optical devices that allow light of a specific wavelength and limiting light of other wavelengths;
Irradiating the covering of the device;
The image processing method according to claim 17, further comprising a step of emitting or reflecting the light having the specific wavelength by the covering material.
前記被覆材により照射された前記非反復パターンを表示する工程と、
前記表示された非反復パターンに基づいて前記器具の前記先端部の挿入深度を算出する
工程をさらに含み、前記非反復パターンは、最初に周期的配列を用いて作成され、前記周期的配列は任意の最低長の各部分配列が一度しか現れない配列であることを特徴とする請求項29に記載の画像処理方法。
Displaying the non-repetitive pattern irradiated by the dressing;
Calculating a depth of insertion of the tip of the instrument based on the displayed non-repeating pattern, wherein the non-repeating pattern is initially created using a periodic array, the periodic array being optional 30. The image processing method according to claim 29, wherein each of the partial sequences of the minimum length is an array that appears only once.
JP2014239394A 2013-11-27 2014-11-26 Surgical needle for surgical system with optical recognition function Pending JP2015100712A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/092,843 US8880151B1 (en) 2013-11-27 2013-11-27 Surgical needle for a surgical system with optical recognition
US14/092843 2013-11-27

Publications (1)

Publication Number Publication Date
JP2015100712A true JP2015100712A (en) 2015-06-04

Family

ID=51798291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014239394A Pending JP2015100712A (en) 2013-11-27 2014-11-26 Surgical needle for surgical system with optical recognition function

Country Status (7)

Country Link
US (2) US8880151B1 (en)
EP (1) EP2878325B1 (en)
JP (1) JP2015100712A (en)
CN (1) CN104665933A (en)
CA (1) CA2872377A1 (en)
ES (1) ES2926696T3 (en)
WO (1) WO2015081112A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023017875A (en) * 2016-05-16 2023-02-07 トラックエックス・テクノロジー,エルエルシー System and method for image localization of effector during medical procedure

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101036280B1 (en) * 2010-01-26 2011-05-23 광주과학기술원 3d menu system using manipulation device
US20140276955A1 (en) * 2013-03-18 2014-09-18 Navigate Surgical Technologies, Inc. Monolithic integrated three-dimensional location and orientation tracking marker
US11033182B2 (en) 2014-02-21 2021-06-15 3Dintegrated Aps Set comprising a surgical instrument
DE102014007908A1 (en) * 2014-05-27 2015-12-03 Carl Zeiss Meditec Ag Surgical System
US10413368B2 (en) 2014-08-18 2019-09-17 G-coder Systems AB Arrangement for minimal invasive intervention
US9436993B1 (en) 2015-04-17 2016-09-06 Clear Guide Medical, Inc System and method for fused image based navigation with late marker placement
CN104856720B (en) * 2015-05-07 2017-08-08 东北电力大学 A kind of robot assisted ultrasonic scanning system based on RGB D sensors
US11020144B2 (en) 2015-07-21 2021-06-01 3Dintegrated Aps Minimally invasive surgery system
CN108024806B (en) 2015-07-21 2022-07-01 3D集成公司 Cannula assembly kit, trocar assembly kit, sleeve assembly, minimally invasive surgical system and method thereof
DK178899B1 (en) 2015-10-09 2017-05-08 3Dintegrated Aps A depiction system
CA3009787A1 (en) 2015-12-31 2017-07-06 Stryker Corporation System and methods for performing surgery on a patient at a target site defined by a virtual object
WO2017153839A1 (en) * 2016-03-10 2017-09-14 Body Vision Medical Ltd. Methods and systems for using multi view pose estimation
EP3429498B1 (en) 2016-03-17 2020-08-05 Brainlab AG System for optical tracking
KR101820682B1 (en) * 2016-08-09 2018-01-23 주식회사 고영테크놀러지 Marker for optical tracking, optical tracking system, and optical tracking method
CN106137344B (en) * 2016-08-12 2019-12-31 赵敏 Markable puncture needle assembly
CN108135563B (en) * 2016-09-20 2021-12-03 桑托沙姆·罗伊 Light and shadow guided needle positioning system and method
ES2912332T3 (en) 2016-11-23 2022-05-25 Clear Guide Medical Inc Intervention instrument navigation system
EP3398637A1 (en) * 2017-05-05 2018-11-07 Ares Trading S.A. Tip determiner for an injection device
WO2020137215A1 (en) * 2018-12-27 2020-07-02 富士フイルム株式会社 Ultrasonic diagnostic device and control method for ultrasonic diagnostic device
WO2022067101A1 (en) 2020-09-25 2022-03-31 Bard Access Systems, Inc. Minimum catheter length tool
US20230148993A1 (en) * 2021-11-16 2023-05-18 Bard Access Systems, Inc. Ultrasound Probe with Integrated Data Collection Methodologies

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001112774A (en) * 1999-10-14 2001-04-24 Olympus Optical Co Ltd Endoscope system
WO2008067072A2 (en) * 2006-10-19 2008-06-05 Verathon Inc. Systems and methods for visualizing a cannula trajectory
JP2009207793A (en) * 2008-03-06 2009-09-17 Fujifilm Corp Endoscope system
EP2478855A1 (en) * 2011-01-24 2012-07-25 Samsung Medison Co., Ltd. Treatment device
US20130200886A1 (en) * 2010-04-20 2013-08-08 Hamilton Bonaduz Ag Position detecting device and method for producing a marking arrangement for a postion detecting device
WO2013118423A1 (en) * 2012-02-07 2013-08-15 Mitsubishi Electric Corporation Method and apparatus for determining position

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5144482A (en) 1991-05-13 1992-09-01 Gould Dennis R Three dimensional viewing apparatus including a stack of transparent plates and related method
US5603318A (en) 1992-04-21 1997-02-18 University Of Utah Research Foundation Apparatus and method for photogrammetric surgical localization
US6019724A (en) 1995-02-22 2000-02-01 Gronningsaeter; Aage Method for ultrasound guidance during clinical procedures
US6256529B1 (en) 1995-07-26 2001-07-03 Burdette Medical Systems, Inc. Virtual reality 3D visualization for surgical procedures
US20030135115A1 (en) 1997-11-24 2003-07-17 Burdette Everette C. Method and apparatus for spatial registration and mapping of a biopsy needle during a tissue biopsy
JP2002526188A (en) 1998-09-24 2002-08-20 スーパー ディメンション リミテッド System and method for determining the position of a catheter during a medical procedure inside the body
US6234969B1 (en) 1999-02-01 2001-05-22 Hologic, Inc. Bone sonometry, densitometry and imaging
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US6889075B2 (en) 2000-05-03 2005-05-03 Rocky Mountain Biosystems, Inc. Optical imaging of subsurface anatomical structures and biomolecules
DE10033723C1 (en) 2000-07-12 2002-02-21 Siemens Ag Surgical instrument position and orientation visualization device for surgical operation has data representing instrument position and orientation projected onto surface of patient's body
US20020115922A1 (en) * 2001-02-12 2002-08-22 Milton Waner Infrared assisted monitoring of a catheter
US6584339B2 (en) 2001-06-27 2003-06-24 Vanderbilt University Method and apparatus for collecting and processing physical space data for use while performing image-guided surgery
US6612991B2 (en) 2001-08-16 2003-09-02 Siemens Corporate Research, Inc. Video-assistance for ultrasound guided needle biopsy
KR20030058423A (en) 2001-12-31 2003-07-07 주식회사 메디슨 Method and apparatus for observing biopsy needle and guiding the same toward target object in three-dimensional ultrasound diagnostic system using interventional ultrasound
US20030158503A1 (en) 2002-01-18 2003-08-21 Shinya Matsumoto Capsule endoscope and observation system that uses it
US6837853B2 (en) 2002-06-27 2005-01-04 Acuson Corporation System and method for using an ultrasound transducer with an integrated transducer information system
WO2004019799A2 (en) 2002-08-29 2004-03-11 Computerized Medical Systems, Inc. Methods and systems for localizing of a medical imaging probe and of a biopsy needle
US7103212B2 (en) 2002-11-22 2006-09-05 Strider Labs, Inc. Acquisition of three-dimensional images by an active stereo technique using locally unique patterns
US20040106869A1 (en) 2002-11-29 2004-06-03 Ron-Tech Medical Ltd. Ultrasound tracking device, system and method for intrabody guiding procedures
US20040215072A1 (en) 2003-01-24 2004-10-28 Quing Zhu Method of medical imaging using combined near infrared diffusive light and ultrasound
US20040152988A1 (en) 2003-01-31 2004-08-05 Weirich John Paul Capsule imaging system
US20050085717A1 (en) 2003-10-21 2005-04-21 Ramin Shahidi Systems and methods for intraoperative targetting
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
DE102005061211B4 (en) 2004-12-22 2023-04-06 Abb Schweiz Ag Method for creating a human-machine user interface
US20060173351A1 (en) 2005-01-03 2006-08-03 Ronald Marcotte System and method for inserting a needle into a blood vessel
WO2006109219A1 (en) 2005-04-11 2006-10-19 Philips Intellectual Property & Standard Gmbh Three dimensional imaging for guiding interventional medical devices in a body volume
US9526587B2 (en) * 2008-12-31 2016-12-27 Intuitive Surgical Operations, Inc. Fiducial marker design and detection for locating surgical instrument in images
US9867669B2 (en) 2008-12-31 2018-01-16 Intuitive Surgical Operations, Inc. Configuration marker design and detection for instrument tracking
US8073528B2 (en) 2007-09-30 2011-12-06 Intuitive Surgical Operations, Inc. Tool tracking systems, methods and computer products for image guided surgery
US8852111B2 (en) 2005-09-02 2014-10-07 Ultrasound Ventures, Llc Ultrasound guidance system
ES2350242T3 (en) 2005-11-28 2011-01-20 3Shape A/S STRUCTURED LIGHT CODED.
US8303505B2 (en) 2005-12-02 2012-11-06 Abbott Cardiovascular Systems Inc. Methods and apparatuses for image guided medical procedures
FR2897703B1 (en) 2006-02-20 2008-04-25 Univ Grenoble 1 AUTOMATIC DETECTION OF A SURGICAL TOOL ON AN IMAGE PROVIDED BY A MEDICAL IMAGING SYSTEM
EP3032456B1 (en) 2006-03-30 2018-04-25 Stryker European Holdings I, LLC System and method for optical position measurement and guidance of a rigid or semi-flexible tool to a target
US20080194930A1 (en) 2007-02-09 2008-08-14 Harris Melvyn L Infrared-visible needle
US20080266323A1 (en) 2007-04-25 2008-10-30 Board Of Trustees Of Michigan State University Augmented reality user interaction system
US9226731B2 (en) 2007-05-21 2016-01-05 The Board Of Regents Of The University Of Texas System Optically guided needle biopsy system using multi-modal spectroscopy in combination with a transrectal ultrasound probe
WO2009044321A2 (en) * 2007-10-01 2009-04-09 Koninklijke Philips Electronics N.V. Detection and tracking of interventional tools
US20090292214A1 (en) 2008-05-22 2009-11-26 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Circulatory monitoring systems and methods
JP4517004B2 (en) * 2008-06-16 2010-08-04 ノリー株式会社 Injection needle guidance device
US20110009694A1 (en) 2009-07-10 2011-01-13 Schultz Eric E Hand-held minimally dimensioned diagnostic device having integrated distal end visualization
US8517955B2 (en) * 2009-05-08 2013-08-27 Broncus Medical Inc. Tissue sampling devices, systems and methods
US9895135B2 (en) 2009-05-20 2018-02-20 Analogic Canada Corporation Freehand ultrasound imaging systems and methods providing position quality feedback
US20120140085A1 (en) 2009-06-09 2012-06-07 Gregory David Gallinat Cameras, camera apparatuses, and methods of using same
US9668820B2 (en) 2009-08-20 2017-06-06 Brainlab Ag Integrated surgical device combining instrument, tracking system and navigation system
WO2011047467A1 (en) 2009-10-20 2011-04-28 Imris Inc. Imaging system using markers
JP5763666B2 (en) 2009-11-19 2015-08-12 ザ・ジョンズ・ホプキンス・ユニバーシティー Low-cost image-guided navigation / intervention system using a coordinated set of local sensors
FR2954903B1 (en) 2010-01-05 2012-03-02 Edap Tms France METHOD AND APPARATUS FOR LOCATING AND VISUALIZING A TARGET IN RELATION TO A FOCAL POINT OF A PROCESSING SYSTEM
US20110166442A1 (en) 2010-01-07 2011-07-07 Artann Laboratories, Inc. System for optically detecting position of an indwelling catheter
KR101036280B1 (en) 2010-01-26 2011-05-23 광주과학기술원 3d menu system using manipulation device
EP2478856B1 (en) * 2011-01-24 2016-10-12 Samsung Medison Co., Ltd. Treatment device
US8696582B2 (en) 2011-05-10 2014-04-15 The University Of British Columbia Apparatus and method for imaging a medical instrument
US8773467B2 (en) 2011-06-13 2014-07-08 International Business Machines Corporation Enhanced asset management and planning system
US20130030286A1 (en) 2011-07-28 2013-01-31 Alouani Ali T Image guided surgery trackers using multiple asynchronous sensors
EP2674099B1 (en) * 2011-08-26 2016-12-14 Olympus Corporation Medical equipment system
US20130218024A1 (en) 2011-10-09 2013-08-22 Clear Guide Medical, Llc Interventional In-Situ Image-Guidance by Fusing Ultrasound and Video
WO2013126659A1 (en) * 2012-02-22 2013-08-29 Veran Medical Technologies, Inc. Systems, methods, and devices for four dimensional soft tissue navigation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001112774A (en) * 1999-10-14 2001-04-24 Olympus Optical Co Ltd Endoscope system
WO2008067072A2 (en) * 2006-10-19 2008-06-05 Verathon Inc. Systems and methods for visualizing a cannula trajectory
JP2009207793A (en) * 2008-03-06 2009-09-17 Fujifilm Corp Endoscope system
US20130200886A1 (en) * 2010-04-20 2013-08-08 Hamilton Bonaduz Ag Position detecting device and method for producing a marking arrangement for a postion detecting device
EP2478855A1 (en) * 2011-01-24 2012-07-25 Samsung Medison Co., Ltd. Treatment device
WO2013118423A1 (en) * 2012-02-07 2013-08-15 Mitsubishi Electric Corporation Method and apparatus for determining position

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023017875A (en) * 2016-05-16 2023-02-07 トラックエックス・テクノロジー,エルエルシー System and method for image localization of effector during medical procedure
JP7366224B2 (en) 2016-05-16 2023-10-20 トラックエックス・テクノロジー,エルエルシー System and method for image localization of effectors during medical procedures

Also Published As

Publication number Publication date
EP2878325B1 (en) 2022-08-31
ES2926696T3 (en) 2022-10-28
US9668819B2 (en) 2017-06-06
WO2015081112A1 (en) 2015-06-04
US8880151B1 (en) 2014-11-04
CN104665933A (en) 2015-06-03
EP2878325A1 (en) 2015-06-03
US20150148668A1 (en) 2015-05-28
CA2872377A1 (en) 2015-05-27

Similar Documents

Publication Publication Date Title
JP2015100712A (en) Surgical needle for surgical system with optical recognition function
EP3076875B1 (en) An ultrasound system with stereo image guidance or tracking
US20240115166A1 (en) Tracking a Part of a Surface of a Patient's Body Using Thermographic Images
US9436993B1 (en) System and method for fused image based navigation with late marker placement
JP4758355B2 (en) System for guiding medical equipment into a patient's body
US10284762B2 (en) System and method for targeting feedback
US9844360B2 (en) System and devices for image targeting
JP2021510107A (en) Three-dimensional imaging and modeling of ultrasound image data
JP2010519635A (en) Pointing device for medical imaging
US20230276016A1 (en) Real time augmentation
US10849696B2 (en) Map of body cavity
CN108366779B (en) Device and method for detecting tool
US20230237711A1 (en) Augmenting a medical image with an intelligent ruler
US20160120608A1 (en) Wrong level surgery prevention
WO2023011924A1 (en) 2d/3d image registration using 2d raw images of 3d scan

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150403

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181220

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190521